Wir können KI-Systemen, die nur auf Deep Learning basieren, nicht vertrauen

Rebooting AI von Gary Marcus und Ernest Davis

Rebooting AI von Gary Marcus und Ernest DavisMit freundlicher Genehmigung von Penguin Random House

Gary Marcus lässt sich vom Hype um Deep Learning nicht beeindrucken. Während der NYU-Professor glaubt, dass die Technik eine wichtige Rolle bei der Weiterentwicklung der KI gespielt hat, glaubt er auch, dass die derzeitige Überbetonung auf dem Gebiet durchaus zu ihrem Untergang führen könnte.

Marcus, ein ausgebildeter Neurowissenschaftler, der seine Karriere an der Spitze der KI-Forschung verbracht hat, nennt sowohl technische als auch ethische Bedenken. Aus technischer Sicht kann Deep Learning die Wahrnehmungsaufgaben des menschlichen Gehirns wie Bild- oder Spracherkennung gut nachahmen. Aber bei anderen Aufgaben, wie dem Verstehen von Gesprächen oder kausalen Zusammenhängen, greift es zu kurz. Um leistungsfähigere und breiter intelligente Maschinen zu schaffen, die umgangssprachlich oft als künstliche allgemeine Intelligenz bezeichnet werden, muss Deep Learning mit anderen Methoden kombiniert werden.



Wenn ein KI-System seine Aufgaben oder die Welt um es herum nicht wirklich versteht, kann dies ebenfalls zu gefährlichen Konsequenzen führen. Selbst die kleinsten unerwarteten Änderungen in der Umgebung eines Systems können dazu führen, dass es schief geht. Dafür gibt es bereits unzählige Beispiele: Hassreden-Detektoren, die leicht zu täuschen sind, Bewerbungssysteme, die Diskriminierung aufrechterhalten, und selbstfahrende Autos, die verunglückt sind und manchmal den Fahrer oder einen Fußgänger getötet haben. Die Suche nach künstlicher allgemeiner Intelligenz ist mehr als ein interessantes Forschungsproblem. Es hat sehr reale Auswirkungen.

In ihrem neuen Buch KI neustarten , Marcus und sein Kollege Ernest Davis plädieren für einen neuen Weg nach vorne. Sie glauben, dass wir weit davon entfernt sind, eine solche allgemeine Intelligenz zu erreichen, aber sie sind auch zuversichtlich, dass wir es irgendwann erreichen können.

Ich habe mit Marcus über die Schwächen des Deep Learning gesprochen, die Lehren, die das Feld aus dem menschlichen Verstand ziehen kann, und warum er optimistisch ist.

Das Folgende wurde aus Gründen der Länge und Klarheit bearbeitet.

Warum wollen wir überhaupt allgemeine Intelligenz? Narrow AI hat für uns bereits viel Wert generiert.

Gary Markus

Gary Marcus mit freundlicher Genehmigung von Gary Marcus

Es hat, und es wird noch mehr generieren. Aber es gibt viele Probleme, zu denen die enge KI nicht sehr fähig zu sein scheint. Dinge wie natürliches Sprachverständnis und allgemeine Unterstützung in der virtuellen Welt oder Dinge wie Rosie, der Roboter, der Ihnen vielleicht helfen kann, Ihr Zuhause aufzuräumen oder Ihr Abendessen zu kochen. Das liegt einfach weit außerhalb des Bereichs dessen, was wir mit enger KI tun können. Es ist auch eine interessante empirische Frage, ob uns eine enge KI zu sicheren fahrerlosen Autos führen kann. Die Realität ist bisher, dass enge KI viele Probleme mit Ausreißern hat, selbst beim Fahren, was ein ziemlich eingeschränktes Problem ist.

Generell denke ich, dass wir alle gerne sehen würden, dass KI uns hilft, neue Entdeckungen in der Medizin in großem Maßstab zu machen. Es ist nicht klar, ob die aktuellen Techniken uns dorthin bringen werden, wo wir sein müssen, weil die Biologie kompliziert ist. Sie müssen wirklich in der Lage sein, die Literatur zu lesen. Wissenschaftler haben ein kausales Verständnis darüber, wie Netzwerke und Moleküle interagieren; Sie können Theorien über Umlaufbahnen und Planeten oder was auch immer entwickeln. Mit eingeschränkter KI können wir Maschinen nicht dazu bringen, dieses Innovationsniveau zu erreichen. Mit allgemeiner KI könnten wir Wissenschaft, Technologie und Medizin möglicherweise revolutionieren. Daher denke ich, dass die Arbeit an der allgemeinen KI ein sehr lohnendes Projekt ist.

Es hört sich so an, als würden Sie allgemeine KI verwenden, um sich auf robuste KI zu beziehen?

Bei allgemeiner KI geht es darum, dass KI in der Lage ist, spontan zu denken und neue Probleme selbstständig zu lösen. Dies steht im Gegensatz zu, sagen wir, Go, wo sich das Problem in 2.000 Jahren nicht geändert hat.

Allgemeine KI sollte auch in der Lage sein, über Politik genauso komfortabel zu argumentieren wie über Medizin. Es ist das Analogon dessen, was die Menschen haben; jede einigermaßen intelligente Person kann viele, viele verschiedene Dinge tun. Sie nehmen einen Praktikanten und lassen ihn innerhalb weniger Tage im Wesentlichen an allem arbeiten, von einem rechtlichen Problem bis zu einem medizinischen Problem. Das liegt daran, dass sie ein allgemeines Weltverständnis haben und lesen können, sodass sie zu einer Vielzahl von Dingen beitragen können.

Die Beziehung zwischen dem und robuster Intelligenz ist, wenn Sie nicht robust sind, werden Sie wahrscheinlich nicht wirklich in der Lage sein, die allgemeine Sache zu tun. Um also etwas zu bauen, das zuverlässig genug ist, um mit einer sich ständig verändernden Welt fertig zu werden, müssen Sie sich wahrscheinlich zumindest der allgemeinen Intelligenz nähern.

Aber wissen Sie, davon sind wir im Moment ziemlich weit entfernt. AlphaGo kann sehr gut auf einem 19x19-Brett spielen, muss aber tatsächlich umtrainiert werden, um auf einem rechteckigen Brett zu spielen. Oder Sie nehmen Ihr durchschnittliches Deep-Learning-System und es kann einen Elefanten erkennen, solange der Elefant gut beleuchtet ist und Sie die Textur des Elefanten sehen können. Aber wenn Sie den Elefanten als Silhouette setzen, kann er ihn möglicherweise nicht mehr erkennen.

Wie Sie in Ihrem Buch erwähnen, kann Deep Learning die allgemeine KI nicht wirklich erreichen, weil es an tiefem Verständnis mangelt.

In der Kognitionswissenschaft sprechen wir davon, kognitive Modelle von Dingen zu haben. Ich sitze also in einem Hotelzimmer und verstehe, dass da ein Schrank ist, da ist ein Bett, da ist der Fernseher, der auf ungewöhnliche Weise montiert ist. Ich weiß, dass es all diese Dinge hier gibt, und ich identifiziere sie nicht nur. Ich verstehe auch, wie sie miteinander in Beziehung stehen. Ich habe diese Vorstellungen davon, wie die Außenwelt funktioniert. Sie sind nicht perfekt. Sie sind fehlbar, aber sie sind ziemlich gut. Und ich mache viele Schlussfolgerungen um sie herum, um meine täglichen Handlungen zu leiten.

Das entgegengesetzte Extrem ist so etwas wie das von DeepMind entwickelte Atari-Spielsystem, bei dem es sich merkte, was es tun musste, wenn es Pixel an bestimmten Stellen auf dem Bildschirm sah. Wenn Sie genügend Daten erhalten, kann es so aussehen, als hätten Sie Verständnis, aber es ist tatsächlich ein sehr oberflächliches Verständnis. Der Beweis ist, wenn Sie die Dinge um drei Pixel verschieben, wird es viel schlechter wiedergegeben. Es bricht mit der Veränderung. Das ist das Gegenteil von tiefem Verständnis.

Sie schlagen vor, zur klassischen KI zurückzukehren, um diese Herausforderung zu lösen. Was sind die Stärken der klassischen KI, die wir integrieren sollten?

Ich bin nur irgendwie verblüfft darüber, wie wenig Wertschätzung die Deep-Learning-Community im Allgemeinen dafür hat.

Es gibt ein paar. Erstens, eigentlich klassische KI ist ein Framework zum Erstellen kognitiver Modelle der Welt, aus denen Sie dann Rückschlüsse ziehen können. Die zweite Sache ist, dass die klassische KI mit Regeln vollkommen vertraut ist. Es ist im Moment eine seltsame Soziologie beim Deep Learning, wo Menschen Regeln vermeiden wollen. Sie wollen alles mit neuronalen Netzen machen und nichts mit allem, was nach klassischer Programmierung aussieht. Aber es gibt Probleme, die routinemäßig auf diese Weise gelöst werden, auf die niemand achtet, wie z. B. das Erstellen Ihrer Route auf Google Maps.

Wir brauchen eigentlich beide Ansätze. Das maschinelle Lernen ist ziemlich gut darin, aus Daten zu lernen, aber es ist sehr schlecht darin, die Art von Abstraktion darzustellen, die Computerprogramme darstellen. Die klassische KI ist ziemlich gut in der Abstraktion, aber alles muss von Hand codiert werden, und es gibt zu viel Wissen auf der Welt, um alles manuell einzugeben. Es scheint also offensichtlich, dass wir eine Art Synthese wollen, die diese Ansätze verbindet.

Dies knüpft an das Kapitel an, in dem Sie mehrere Dinge erwähnen, die wir vom menschlichen Verstand lernen können. Der erste baut auf dem auf, worüber wir bereits gesprochen haben – der Idee, dass unser Gehirn aus vielen unterschiedlichen Systemen besteht, die auf unterschiedliche Weise funktionieren.

Ich denke, es gibt eine andere Möglichkeit, den Punkt zu verdeutlichen, nämlich: Jedes kognitive System, das wir haben, macht wirklich etwas anderes. In ähnlicher Weise müssen die Gegenstücke in der KI so konzipiert sein, dass sie verschiedene Probleme mit unterschiedlichen Eigenschaften angehen.

Im Moment versuchen die Leute, eine Art Einheitstechnologie zu verwenden, um Dinge anzugehen, die wirklich grundlegend anders sind. Das Verstehen eines Satzes unterscheidet sich grundlegend vom Erkennen eines Objekts. Aber die Leute versuchen, Deep Learning zu nutzen, um beides zu erreichen. Aus kognitiver Sicht sind dies qualitativ unterschiedliche Probleme, und ich bin nur etwas verblüfft darüber, wie wenig Anerkennung die Deep-Learning-Community im Allgemeinen dafür hat. Warum erwarten, dass eine Wunderwaffe für all das funktionieren wird? Es ist nicht realistisch und offenbart kein ausgeklügeltes Verständnis dessen, was die Herausforderung der KI überhaupt ist.

Eine andere Sache, die Sie ansprechen, ist die Notwendigkeit, dass KI-Systeme kausale Zusammenhänge verstehen. Glauben Sie, dass das aus Deep Learning, klassischer KI oder etwas ganz Neuem kommen wird?

Auch hier ist Deep Learning nicht besonders gut geeignet. Deep Learning liefert keine Erklärungen dafür, warum Dinge passieren, sondern eher eine Wahrscheinlichkeit dafür, was unter bestimmten Umständen passieren könnte.

Die Natur baut den ersten Entwurf, den Rohentwurf. Dann überarbeitet das Lernen diesen Entwurf für den Rest Ihres Lebens.

Die Art von Dingen, über die wir sprechen – Sie sehen sich einige Szenarien an und haben ein gewisses Verständnis dafür, warum es passiert und was passieren könnte, wenn bestimmte Dinge geändert würden. Ich kann auf die Staffelei schauen, auf der der Hotelfernseher läuft, und mir vorstellen, dass die Staffelei umkippen und der Fernseher mit herunterfallen wird, wenn ich eines der Beine abschneide. Das ist kausales Denken.

Die klassische KI gibt uns dafür einige Werkzeuge an die Hand. Es kann zum Beispiel darstellen, was eine Unterstützungsbeziehung ist und was umkippt. Ich möchte es aber nicht übertreiben. Ein Problem ist, dass die klassische KI hauptsächlich von sehr vollständigen Informationen darüber abhängt, was vor sich geht, während ich diese Schlussfolgerung nur gezogen habe, ohne tatsächlich in der Lage zu sein, die gesamte Staffelei zu sehen. Ich bin also irgendwie in der Lage, Abkürzungen zu machen und auf Teile der Staffelei zu schließen, die ich nicht einmal sehen kann. Wir haben noch keine Tools, die das können.

Eine dritte Sache, die Sie ansprechen, ist die Idee, dass Menschen angeborenes Wissen haben. Wie sehen Sie die Integration in KI-Systeme?

Bei Menschen ist das Gehirn zum Zeitpunkt der Geburt tatsächlich sehr ausgefeilt strukturiert. Es ist nicht festgelegt, sondern die Natur baut den ersten Entwurf, den Rohentwurf. Dann überarbeitet das Lernen diesen Entwurf für den Rest Ihres Lebens.

Ein grober Entwurf des Gehirns hat bereits gewisse Fähigkeiten. Ein nur wenige Stunden alter Baby-Steinbock kann ohne Fehler die Ebene eines Berges hinunterklettern. Offensichtlich hat es ein gewisses Verständnis vom dreidimensionalen Raum, seinem eigenen Körper und der Wechselbeziehung zwischen den beiden. Ziemlich raffiniertes Zeug.

Das ist einer der Gründe, warum ich glaube, dass wir Hybriden brauchen. Es ist schwer vorstellbar, wie wir ohne analoges Wissen von Anfang an einen Roboter bauen könnten, der in der Welt gut funktioniert, anstatt mit einem leeren Blatt zu beginnen und durch enorme, massive Erfahrung zu lernen.

Für Menschen stammt unser angeborenes Wissen aus unseren Genomen, die sich im Laufe der Zeit entwickelt haben. Bei KI-Systemen müssen sie einen anderen Weg gehen. Einiges davon kann aus Regeln darüber stammen, wie wir unsere Algorithmen erstellen. Ein Teil davon kann aus Regeln darüber stammen, wie wir die Datenstrukturen erstellen, die diese Algorithmen manipulieren. Und dann könnte ein Teil davon aus dem Wissen stammen, das wir den Maschinen einfach direkt beibringen.

Es ist interessant, dass Sie alles in Ihrem Buch auf die Idee des Vertrauens und den Aufbau vertrauenswürdiger Systeme zurückführen. Warum haben Sie sich gerade für diesen Rahmen entschieden?

Weil ich denke, dass es im Moment das ganze Ballspiel ist. Ich denke, dass wir in einem seltsamen Moment in der Geschichte leben, in dem wir Software, die dieses Vertrauen nicht verdient, viel Vertrauen entgegenbringen. Ich denke, dass die Sorgen, die wir jetzt haben, nicht von Dauer sind. In hundert Jahren wird KI unser Vertrauen rechtfertigen – und vielleicht schon früher.

Aber im Moment ist KI gefährlich und nicht so, wie Elon Musk sich Sorgen macht. Aber in Form von Job-Interview-Systemen, die Frauen diskriminieren, egal was die Programmierer tun, weil die Techniken, die sie verwenden, zu unausgereift sind.

Ich möchte, dass wir eine bessere KI haben. Ich möchte nicht, dass wir einen KI-Winter haben, in dem die Leute erkennen, dass dieses Zeug nicht funktioniert und gefährlich ist, und sie nichts dagegen unternehmen.

In gewisser Weise fühlt sich Ihr Buch sehr optimistisch an, weil Sie andeuten, dass es möglich ist, vertrauenswürdige KI zu bauen. Wir müssen nur in eine andere Richtung schauen.

Richtig, das Buch ist sehr kurzfristig pessimistisch und sehr langfristig optimistisch. Wir glauben, dass jedes Problem, das wir in dem Buch beschrieben haben, gelöst werden kann, wenn die Fachwelt eine breitere Sicht auf die richtigen Antworten hat. Und wir glauben, dass die Welt in diesem Fall ein besserer Ort sein wird.

Um mehr Geschichten wie diese direkt in Ihren Posteingang zu bekommen, melden Sie sich für unseren von Webby nominierten KI-Newsletter The Algorithm an. Es ist kostenlos.

verbergen