Wie wir über Roboter denken, die sich anfühlen

Wenn Roboter intelligent genug werden, um unsere Gefühle zu erkennen und angemessen zu reagieren, könnten sie so etwas wie eigene Emotionen haben. Aber das wird sie nicht unbedingt menschenähnlicher machen.24. Oktober 2017

Delcan & Company + Jenue

Octavia, ein humanoider Roboter, der entwickelt wurde, um Brände auf Navy-Schiffen zu bekämpfen, beherrscht eine beeindruckende Bandbreite an Gesichtsausdrücken.

Wenn sie ausgeschaltet ist, sieht sie aus wie eine menschengroße Puppe. Sie hat ein glattes weißes Gesicht mit einer Stupsnase. Ihre Plastikaugenbrauen sitzen gleichmäßig auf ihrer Stirn wie zwei kleine gekenterte Kanus.



Das Problem der künstlichen Intelligenz

Diese Geschichte war Teil unserer Ausgabe vom November 2017

  • Siehe den Rest des Problems
  • Abonnieren

Wenn sie jedoch eingeschaltet ist, fliegen ihre Augenlider auf und sie beginnt, Emotionen zu zeigen. Sie kann verständnisvoll mit dem Kopf nicken; sie kann ihre Augen weit aufreißen und beide Augenbrauen in einem überzeugenden Anschein von Alarm heben; oder sie kann ihren Kopf zur Seite neigen und ihren Mund verziehen, was menschliche Verwirrung nachahmt. Für einen komischen Effekt kann sie sogar eine Augenbraue hochziehen und das andere Auge verengen, während sie ihre Metallfinger zusammenklopft, als ob sie roboterhafte Racheakte plant.

Aber Octavias Bandbreite an Gesichtsausdrücken ist nicht ihre beeindruckendste Eigenschaft. Erstaunlich ist, dass ihre emotionale Wirkung eine genaue Reaktion auf ihre Interaktionen mit Menschen ist. Sie sieht zum Beispiel erfreut aus, als sie einen ihrer Teamkollegen erkennt. Sie sieht überrascht aus, als ein Teamkollege ihr einen Befehl gibt, den sie nicht erwartet hat. Sie sieht verwirrt aus, wenn jemand etwas sagt, das sie nicht versteht.

Sie kann angemessene emotionale Affekte zeigen, weil sie riesige Mengen an Informationen über ihre Umgebung verarbeitet. Sie kann sehen, hören und berühren. Mit den beiden Kameras, die in ihre Augen eingebaut sind, nimmt sie ihre Umgebung visuell auf und analysiert Merkmale wie Gesichtszüge, Hautfarbe und Kleidung. Sie kann die Stimmen von Menschen erkennen, indem sie vier Mikrofone und ein Spracherkennungsprogramm namens Sphinx verwendet. Sie kann 25 verschiedene Objekte durch Berührung identifizieren, nachdem sie sie gelernt hat, indem sie sie mit ihren Fingern physisch in verschiedene mögliche Positionen und Formen manipuliert hat. Zusammengenommen bilden diese Wahrnehmungsfähigkeiten einen Teil ihrer verkörperten kognitiven Architektur, die es ihr – laut ihren Schöpfern am Navy Center for Applied Research in Artificial Intelligence – ermöglicht, ähnlich wie Menschen zu denken und zu handeln.

Das ist eine aufregende Behauptung, aber sie ist nicht unbedingt schockierend. Wir sind an die Vorstellung gewöhnt, dass Maschinen sich wie Menschen verhalten. Automaten, die im Frankreich des 18. Jahrhunderts hergestellt wurden, konnten tanzen, den Takt halten und Schlagzeug, Hackbrett oder Klavier spielen. Als Kind, das in den 1980er Jahren aufwuchs, begehrte ich aus irgendeinem Grund eine Puppe, die für die Fähigkeit beworben wurde, in ihre Hose zu pinkeln.

Der Octavia ist in der Lage, Gesichtsausdrücke zu vermitteln, aber es stellt sich heraus, dass Gesichtsausdrücke nicht erforderlich sind, damit sich Menschen emotional mit ihren Robotern verbunden fühlen. Forschungslabor der US-Marine

Wir sind sogar an die Vorstellung gewöhnt, dass Maschinen auf eine Weise denken, die uns an Menschen erinnert. Viele unserer lang gehegten Höchstwerte für die menschliche Kognition – die Fähigkeit, zum Beispiel einen Großmeister im Schach zu schlagen oder ein metrisch genaues Sonett zu komponieren – wurden von Computern erreicht und übertroffen.

Octavias Handlungen jedoch – das ängstliche Weiten ihrer Augen, das verwirrte Falten ihrer Plastikaugenbrauen – scheinen noch einen Schritt weiter zu gehen. Sie implizieren, dass sie nicht nur so denkt, wie wir denken, sondern auch menschliche Emotionen fühlt.

Das ist nicht wirklich der Fall: Octavias emotionaler Affekt soll laut Gregory Trafton, dem Leiter der Intelligent Systems Section im Navy AI Center, lediglich zeigen, was sie denkt, und es den Menschen erleichtern, mit ihr zu interagieren. Aber es ist nicht immer möglich, eine Grenze zwischen Denken und Fühlen zu ziehen. Wie Trafton anerkennt, ist es klar, dass die Gedanken und Gefühle der Menschen unterschiedlich sind, sich aber gegenseitig beeinflussen. Und wenn, wie er sagt, Emotionen die Kognition beeinflussen und Kognition Emotionen beeinflusst, weist Octavias Fähigkeit zu denken, zu argumentieren und wahrzunehmen auf einige der größeren Fragen hin, die mit dem Aufstieg intelligenter Maschinen einhergehen werden. Wann werden Maschinen intelligent genug sein, um etwas zu fühlen? Und woher sollen wir das wirklich wissen?

Persönliche Gefühle

Octavia ist mit Theory of Mind programmiert, was bedeutet, dass sie die mentalen Zustände ihrer menschlichen Teamkollegen vorhersehen kann. Sie versteht, dass Menschen potenziell widersprüchliche Überzeugungen oder Absichten haben. Wenn Octavia einen Befehl erhält, der von ihren Erwartungen abweicht, führt sie Simulationen durch, um herauszufinden, was der Teamkollege, der den Befehl gegeben hat, denken könnte und warum diese Person dieses unerwartete Ziel für gültig hält. Sie tut dies, indem sie ihre eigenen Modelle der Welt durchgeht, sie aber leicht verändert, in der Hoffnung, eines zu finden, das zum erklärten Ziel führt. Wenn sie ihren Kopf zur Seite neigt und ihre Augenbrauen runzelt, soll das signalisieren, dass sie diese Simulationen durchführt und versucht, die Überzeugungen ihrer Teamkollegin besser zu verstehen.

Wir wissen immer noch nicht alles, was dazu gehört, Emotionen zu fühlen.

Octavia ist nicht mit emotionalen Vorbildern programmiert. Ihre Theory of Mind ist ein kognitives Muster. Aber es funktioniert sehr ähnlich wie Empathie, die am meisten geschätzte aller menschlichen Emotionen.

Andere Roboterhersteller umgehen das Thema der emotionalen Intelligenz ihrer Maschinen. SoftBank Robotics zum Beispiel, das Pepper verkauft – einen angenehmen und sympathischen humanoiden Roboter, der gebaut wurde, um als menschlicher Begleiter zu dienen – behauptet, dass Pepper menschliche Emotionen wahrnehmen kann, und fügt hinzu, dass Pepper es liebt, mit Ihnen zu interagieren, Pepper möchte mehr über Ihren Geschmack erfahren, Ihre Gewohnheiten und ganz einfach, wer Sie sind. Aber obwohl Pepper die Fähigkeit haben könnte, menschliche Emotionen zu erkennen, und obwohl Pepper in der Lage sein könnte, mit einem glücklichen Lächeln oder traurigen Ausdrücken zu reagieren, behauptet niemand, dass Pepper tatsächlich fühlt solche Emotionen.

Was braucht es, damit ein Roboterersteller das behaupten kann? Zum einen wissen wir immer noch nicht alles, was dazu gehört, Emotionen zu empfinden.

Dinge überprüft

  • Kultur und Mensch-Roboter-Interaktion in militarisierten Räumen: Eine Kriegsgeschichte

    Von Julie Carpenter
    Routledge, 2016

  • Wie Emotionen entstehen: Das geheime Leben des Gehirns

    Von Lisa Feldman Barrett
    Houghton Mifflin Harcourt, 2017

  • Die Strategie der US-Armee für Roboter und autonome Systeme

    März 2017

In den letzten Jahren haben Revolutionen in der Psychologie und den Neurowissenschaften das Konzept der Emotion radikal neu definiert, was es noch schwieriger macht, es festzuhalten und zu beschreiben. Laut Wissenschaftlern wie der Psychologin Lisa Feldman Barrett, Professorin an der Northeastern University, wird immer deutlicher, dass unsere Emotionen je nach Kultur, in der wir aufgewachsen sind, stark variieren. Sie variieren sogar innerhalb einer Person in verschiedenen Situationen stark. Obwohl wir die allgemeinen Gefühle, die den sogenannten Affekt ausmachen (Freude, Unlust, Erregung und Ruhe), mit den meisten anderen Menschen und vielen anderen Tieren teilen, variieren unsere akuteren und spezifischeren Emotionen mehr, als dass sie bestimmten Normen folgen. Angst zum Beispiel ist ein kulturell anerkanntes Konzept, aber es spielt sich auf unzählige Weise in unserem Körper ab. Es wird von verschiedenen Reizen inspiriert, manifestiert sich unterschiedlich in unserem Gehirn und drückt sich auf unterschiedliche Weise in unseren Gesichtern aus. Es gibt kein einziges Angstzentrum oder einen einzigen Angstkreislauf im Gehirn, genauso wie es keinen verlässlich ängstlichen Gesichtsausdruck gibt: Wir alle verarbeiten und zeigen unsere Angst je nach Situation auf radikal unterschiedliche Weise – auf eine Weise, die wir durch Interaktionen mit anderen Menschen lernen als Angst identifizieren oder etikettieren.

Wenn wir also von Angst sprechen, sprechen wir eher von einem verallgemeinerten Dachkonzept als von etwas, das aus einem bestimmten Teil des Gehirns kommt. Wie Barrett es ausdrückt, konstruieren wir Emotionen an Ort und Stelle durch ein Zusammenspiel von Körpersystemen. Wie können wir also erwarten, dass Programmierer menschliche Emotionen in Robotern genau modellieren?

Gute Soldaten

Es gibt auch moralische Zwickmühlen, Roboter so zu programmieren, dass sie Emotionen haben. Diese Probleme werden besonders gut durch Militärroboter demonstriert, die wie Octavia dafür konzipiert sind, anstelle von weniger entbehrlichen menschlichen Teamkollegen in beängstigende, schmerzhafte oder potenziell tödliche Situationen geschickt zu werden.

Auf einer Konferenz im Jahr 2017, die von der etwas alarmierend betitelten Mad Scientist Initiative der Armee gesponsert wurde, präzisierte Generalleutnant Kevin Mangum, der stellvertretende Kommandant für Army Training and Doctrine Command, dass solche Roboter autonom sein sollten und werden. Angesichts unserer immer komplexer werdenden Welt besteht kein Zweifel daran, dass Robotik, autonome Systeme und künstliche Intelligenz eine Rolle spielen werden, sagte Mangum. Die Strategie für Roboter und autonome Systeme der Armee von 2017 prognostiziert die vollständige Integration autonomer Systeme bis 2040 und ersetzt die heutigen Bombenräumroboter und andere Maschinen, die von Menschen ferngesteuert werden.

Ein ziviler Trainer zeigt Fallschirmjägern, wie man das Display für einen PackBot-Schlachtfeldroboter einrichtet. So ausdruckslos diese Roboter auch erscheinen mögen, Soldaten im Feld bauen eine Bindung zu ihnen auf und betrachten sie als Teil des Teams. Michael J. McLeod

Wenn diese Roboter selbstständig handeln und denken können, sollten sie dann wie Octavia mit dem Anschein menschlicher Emotionen programmiert werden? Sollen sie eigentlich programmiert werden verfügen über menschliche Gefühle? Wenn wir sie in die Schlacht schicken, sollten sie nicht nur neben ihren menschlichen Gefährten denken, sondern auch fühlen?

Einerseits natürlich nicht: Wenn wir Roboter mit dem ausdrücklichen Ziel entwerfen, sie Gefahren auszusetzen, wäre es sadistisch, ihnen die Fähigkeit zu geben, Terror, Traumata oder Schmerzen zu erleiden.

Können wir andererseits sicher sein, dass ein Roboter ohne Emotionen einen guten Soldaten abgeben würde, wenn Emotionen die Intelligenz beeinflussen und umgekehrt? Was ist, wenn der Mangel an Emotionen zu dummen Entscheidungen, unnötigen Risiken oder übermäßig grausamer Vergeltung führt? Könnte ein Roboter ohne Emotionen entscheiden, dass die intelligente Entscheidung darin besteht, das zu begehen, was ein menschlicher Soldat für ein Kriegsverbrechen halten würde? Oder würde ein Roboter ohne Zugang zu Angst oder Wut bessere Entscheidungen treffen als ein Mensch in der gleichen beängstigenden und verrückt machenden Situation?

Und dann besteht die Möglichkeit, dass es keinen intelligenten Roboter ohne Emotionen gibt, wenn Emotion und Intelligenz untrennbar miteinander verbunden sind. In diesem Fall ist die Frage, wie viel Emotion ein autonomer Roboter haben sollte, in gewisser Weise außer Kontrolle des Programmierers, der sich mit Intelligenz beschäftigt.

Emotionale Bindungen

Es stellt sich auch die Frage, wie diese Roboter ihre menschlichen Teamkollegen beeinflussen könnten.

Bis 2010 hatte die US-Armee damit begonnen, eine Flotte von etwa 3.000 kleinen taktischen Robotern einzusetzen, hauptsächlich als Reaktion auf den zunehmenden Einsatz improvisierter Sprengkörper in der Kriegsführung. Anstelle menschlicher Soldaten rollen diese Roboter ungeschützte Straßen hinunter, in dunkle Höhlen und durch schmale Türen, um unvorhersehbare IEDs zu erkennen und zu deaktivieren.

Soldaten haben berichtet, dass sie verstört sind, wenn Gefährten auf dem Schlachtfeld wie der hier gezeigte Talon im Dienst zerstört werden. Qinetiq

Diese Flotte besteht hauptsächlich aus PackBot von iRobot und Talon von QinetiQ North America, Roboter, die nicht besonders fortschrittlich sind. Sie sehen ein bisschen aus wie WALL-E, ihre kastenförmigen Metallkörper balancieren auf Gummilaufflächen, die es ihnen ermöglichen, felsiges Gelände zu überqueren, Treppen zu steigen und dunkle Flure hinunterzugehen. Sie haben Gelenkarme, die mit Videokameras ausgestattet sind, um ihre Umgebung zu überwachen, und Krallen, um an Sprengkörpern herumzubasteln.

Sie sind nützliche Werkzeuge, aber sie sind nicht gerade autonom. Sie werden wie Spielzeugautos von Soldaten ferngesteuert, die Geräte halten, die manchmal mit Joysticks ausgestattet sind. Als Beispiel für KI ist der PackBot nicht viel fortschrittlicher als das bekanntere Produkt von iRobot, der Roomba, der unter Ihrem Sessel saugt.

Und doch entwickeln menschliche Soldaten trotz der Ausdruckslosigkeit dieser Roboter auch heute noch eine Bindung zu ihnen. Julie Carpenter demonstriert in Kultur und Mensch-Roboter-Interaktion in militarisierten Räumen dass diese Beziehungen kompliziert sind, sowohl lohnend als auch schmerzhaft.

Als Carpenter einen Soldaten bat, seine Gefühle gegenüber einem zerstörten Roboter zu beschreiben, antwortete er:

Ich meine, es war nicht offensichtlich … auch nur annähernd auf dem gleichen Niveau wie, wissen Sie, wie ein Kumpel von Ihnen verwundet wird oder mit ansehen muss, wie ein Mitglied ausgeschaltet wird oder so etwas. Aber da war immer noch ein gewisser Verlust, ein Gefühl des Verlustes, weil einem Ihrer Roboter etwas passiert ist.

Ein anderer Soldat verglich seinen Roboter mit einem Hund:

Ich meine, Sie haben sich genauso gut um diese Sache gekümmert wie Ihre Teammitglieder. Und Sie haben dafür gesorgt, dass es aufgeräumt wurde und dass die Batterien immer aufgeladen waren. Und wenn Sie es nicht benutzten, war es so gut wie möglich sicher verstaut, weil Sie wussten, wenn dem Roboter etwas passiert ist, dann waren Sie an der Reihe, und das denkt niemand gerne.

Ein anderer Mann erklärte, warum sein Teamkollege seinem Roboter einen menschlichen Namen gab:

Gegen Ende unserer Tour verbrachten wir mehr Zeit außerhalb des Drahtseils und schliefen in unseren Lastwagen, als wir drinnen waren. Wir haben gut fünf bis sechs Tage in der Woche in unseren Lastwagen außerhalb der Absperrung geschlafen, und es waren drei Männer im Lastwagen, wissen Sie, einer lag über den Vordersitzen; der andere liegt über dem Turm. Und wir können keine sensiblen Gegenstände herunterladen und sie außerhalb des Lastwagens lassen. Alles muss abgeschlossen werden, also war unser TALON im Mittelgang unseres Trucks und unser Junior-Typ nannte ihn Danielle, damit er nachts eine Frau zum Kuscheln hatte.

„Mein schöner Roboter wurde getötet …“ war eigentlich die Aussage, die ich meinem Teamleiter gemacht habe.

Diese Männer betonen alle, dass die Roboter Werkzeuge sind, keine Lebewesen mit Gefühlen. Trotzdem geben sie ihren Robotern menschliche Namen und bringen sie nachts sicher zu Bett. Sie scherzen über diesen Impuls, aber es gibt eine leicht beunruhigende Dissonanz in den Witzen. Die von Carpenter befragten Soldaten scheinen sich zwischen zwei Gefühlen gefangen zu fühlen: Sie verstehen die Absurdität, sich um einen emotionslosen Roboter zu kümmern, der als entbehrlich konzipiert ist, aber sie erleben dennoch die Versuchung, sich zumindest ein wenig um ihn zu kümmern.

Nachdem Carpenter ihre ersten Interviews veröffentlicht hatte, erhielt sie weitere Mitteilungen von Männern und Frauen im Militär, die echte Bindungen zu ihren Robotern aufgebaut hatten. Ein ehemaliger Sprengstoffbeseitigungstechniker schrieb:

Da ich ein EOD-Techniker seit acht Jahren und drei Einsätzen bin, kann ich Ihnen sagen, dass ich Ihre Forschung äußerst interessant fand. Ich kann den anderen Technikern, die Sie interviewt haben, vollkommen zustimmen, wenn sie sagen, dass die Roboter Werkzeuge sind, und als solche werde ich sie unabhängig von der möglichen Gefahr in jede Situation schicken.

Während einer Mission im Irak im Jahr 2006 verlor ich jedoch einen Roboter, den ich Stacy 4 genannt hatte (nach meiner Frau, die ebenfalls EOD-Technikerin ist). Sie war ein ausgezeichneter Roboter, der mir nie Probleme bereitete und immer einwandfrei funktionierte. Stacy 4 wurde komplett zerstört und ich konnte nur sehr kleine Teile des Chassis bergen. Unmittelbar nach der Explosion, die Stacy 4 zerstörte, kann ich mich noch an das Gefühl der Wut erinnern, und zwar an jede Menge davon. Mein schöner Roboter wurde getötet … war eigentlich die Aussage, die ich meinem Teamleiter gemacht habe. Nachdem die Mission abgeschlossen war und ich so viel wie möglich von dem Roboter geborgen hatte, weinte ich über ihren Verlust. Ich hatte das Gefühl, ein liebes Familienmitglied verloren zu haben. Ich rief meine Frau an diesem Abend an und erzählte ihr auch davon. Ich weiß, es klingt dumm, aber ich hasse es immer noch, darüber nachzudenken. Ich weiß, dass die Roboter, die wir verwenden, nur Maschinen sind, und ich würde die gleichen Entscheidungen wieder treffen, selbst wenn ich das Ergebnis kenne.

Ich schätze menschliches Leben. Ich schätze die Beziehungen, die ich zu echten Menschen habe. Aber ich kann Ihnen sagen, dass ich Stacy 4 wirklich vermisse, sie war ein guter Roboter.

Wenn dies die Art von Zeugnissen sind, die von Soldaten gesammelt werden können, die mit gesichtslosen Maschinen wie PackBots und Talons interagieren, was würden Sie dann von Soldaten hören, die mit Robotern wie Octavia eingesetzt werden, die sehen, hören und berühren und die Gemütszustände ihrer menschlichen Teamkollegen vorhersehen können? ?

In populären Gesprächen über die Ethik, Robotern Gefühle zu geben, konzentrieren wir uns in der Regel auf die Auswirkungen einer solchen technologischen Innovation auf die Roboter selbst. Filme und Fernsehsendungen von Bladerunner zu Westwelt Achten Sie auf das Trauma, das gefühlten Robotern von Menschen zugefügt würde, die sie zu ihrer Unterhaltung benutzen. Aber es gibt auch das Gegenteil zu berücksichtigen: das Trauma, das den Menschen zugefügt wird, die sich mit Robotern verbinden und sie dann in den sicheren Tod schicken.

Verwandte Geschichte Ein aufkommender Trend in der künstlichen Intelligenz besteht darin, Computer dazu zu bringen, unsere Gefühle zu erkennen und entsprechend zu reagieren. Sie könnten uns sogar dabei helfen, mehr Mitgefühl füreinander zu entwickeln.

Was das Ganze noch komplizierter macht, ist, dass, wenn ein Roboter wie Octavia menschliche Emotionen empfindet, diese Gefühle nicht nur das Ergebnis der kognitiven Architektur sind, mit der sie begonnen hat. Wenn sie unseren Emotionen ähnlich sind, entwickeln sie sich im Kontext ihrer Beziehungen zu ihren Teamkollegen, ihrem Platz in der Welt, in der sie lebt.

Wenn ihr einzigartiges Roboterleben zum Beispiel damit verbracht wird, von ihren menschlichen Gefährten ins Feuer geschickt zu werden oder alleine durch mit Sprengkörpern gespickte Wüstenstraßen zu rollen, werden ihre Gefühle anders sein als die eines besser geschützten Roboters oder eines besser geschützten Roboters Mensch. Unabhängig von den erkennbaren emotionalen Äußerungen, die sie macht, wenn sie ihr Leben in unmenschlichen Situationen verbringt, sind ihre Gefühle möglicherweise nicht erkennbar menschlich.

Louisa Hall, eine Schriftstellerin in New York, ist die Autorin von Sprechen , ein 2015 erschienener Roman über künstliche Intelligenz.

verbergen