Paul Allen: Die Singularität ist nicht nahe

Futuristen mögen Vernor Vinge und Ray Kurzweil haben argumentiert, dass sich die Welt schnell einem Wendepunkt nähert, an dem die Beschleunigung immer intelligenterer Maschinen bald alle menschlichen Fähigkeiten übersteigen wird. Sie nennen diesen Wendepunkt den Singularität , weil sie glauben, dass es unmöglich ist, vorherzusagen, wie sich die menschliche Zukunft nach diesem Zeitpunkt entwickeln könnte. Sobald diese Maschinen existieren, behaupten Kurzweil und Vinge, werden sie eine übermenschliche Intelligenz besitzen, die für uns so unverständlich ist, dass wir nicht einmal rational erraten können, wie unsere Lebenserfahrungen verändert werden. Vinge fragt uns, über die Rolle des Menschen in einer Welt nachzudenken, in der Maschinen genauso viel schlauer sind als wir, wie wir schlauer sind als unsere Hunde und Katzen. Kurzweil, der etwas optimistischer ist, stellt sich eine Zukunft vor in der die Entwicklungen in der medizinischen Nanotechnologie es uns ermöglichen, eine Kopie unseres individuellen Gehirns in diese übermenschlichen Maschinen herunterzuladen, unseren Körper zurückzulassen und gewissermaßen für immer zu leben. Es ist berauschendes Zeug.

Kredit: Technologieüberprüfung

Obwohl wir davon ausgehen, dass diese Art von Singularität eines Tages auftreten könnte, glauben wir nicht, dass sie nahe ist. Tatsächlich denken wir, dass es noch sehr lange dauern wird. Kurzweil widerspricht aufgrund seiner Hochrechnungen über die Geschwindigkeit des relevanten wissenschaftlichen und technischen Fortschritts. Er argumentiert, dass die Geschwindigkeit des Fortschritts in Richtung der Singularität nicht nur ein Fortschritt stetig steigender Fähigkeiten ist, sondern sich tatsächlich exponentiell beschleunigt – was Kurzweil die . nennt Gesetz der beschleunigten Rendite . Das schreibt er:



Wir werden also im 21. Jahrhundert keine 100 Jahre Fortschritt erleben, sondern eher 20.000 Jahre Fortschritt (bei heutiger Geschwindigkeit). Auch die Renditen wie Chipgeschwindigkeit und Wirtschaftlichkeit steigen exponentiell. Es gibt sogar ein exponentielles Wachstum der exponentiellen Wachstumsrate. Innerhalb weniger Jahrzehnte wird die maschinelle Intelligenz die menschliche Intelligenz übertreffen, was zu The Singularity führt … [eins]

Indem er eine Reihe von Modellen und historischen Daten durcharbeitet, berechnet Kurzweil bekanntlich, dass die Singularität um 2045 eintreffen wird.

Diese Vorhersage erscheint uns ziemlich weit hergeholt. Natürlich sind wir uns bewusst, dass die Geschichte der Wissenschaft und Technik übersät ist mit Menschen, die selbstbewusst behaupten, dass ein Ereignis nicht passieren kann, nur um sich später – oft auf spektakuläre Weise – als falsch zu belegen. Wir erkennen an, dass es möglich, aber höchst unwahrscheinlich ist, dass Kurzweil letztendlich bestätigt wird. Ein erwachsenes Gehirn ist eine begrenzte Sache, daher können seine grundlegenden Funktionen letztendlich durch anhaltende menschliche Anstrengungen erkannt werden. Aber wenn die Singularität bis 2045 eintreffen soll, braucht es unvorhersehbare und im Grunde unvorhersehbare Durchbrüche, und nicht weil das Gesetz der Beschleunigung der Rendite sie zum unvermeidlichen Ergebnis einer bestimmten exponentiellen Fortschrittsrate gemacht hat.

Die Argumentation von Kurzweil beruht auf dem Gesetz der beschleunigten Rückkehr und seinen Geschwistern, aber dies sind keine physikalischen Gesetze. Sie sind Aussagen darüber, wie vergangene Geschwindigkeiten des wissenschaftlichen und technischen Fortschritts die zukünftige Geschwindigkeit vorhersagen können. Daher werden diese Gesetze, wie andere Versuche, die Zukunft aus der Vergangenheit vorherzusagen, funktionieren, bis sie es nicht mehr tun. Noch problematischer für die Singularität ist, dass diese Art von Extrapolationen einen Großteil ihrer exponentiellen Gesamtform aus der Annahme ableitet, dass es ein ständiges Angebot an immer leistungsfähigeren Rechenkapazitäten geben wird. Damit das Gesetz Anwendung findet und die Singularität um 2045 eintritt, müssen die Leistungsfortschritte nicht nur in den Hardwaretechnologien eines Computers (Speicher, Verarbeitungsleistung, Busgeschwindigkeit usw.) leistungsfähigere Computer. Um die Singularität zu erreichen, reicht es nicht aus, die heutige Software nur schneller auszuführen. Wir müssten auch intelligentere und leistungsfähigere Softwareprogramme entwickeln. Die Entwicklung dieser Art von fortschrittlicher Software erfordert ein vorheriges wissenschaftliches Verständnis der Grundlagen der menschlichen Kognition, und wir kratzen nur an der Oberfläche.

Dieses vorherige Bedürfnis, die grundlegende Wissenschaft der Kognition zu verstehen, ist der Punkt, an dem die Singularität nahe ist. Argumente können uns nicht überzeugen. Es stimmt, dass sich die Computerhardwaretechnologie erstaunlich schnell entwickeln kann, wenn wir über solide wissenschaftliche Rahmenbedingungen und angemessene wirtschaftliche Anreize verfügen. Die Entwicklung der Software für eine echte Computerintelligenz auf Singularitätsebene erfordert jedoch einen grundlegenden wissenschaftlichen Fortschritt, der über das hinausgeht, was wir heute sind. Diese Art von Fortschritt unterscheidet sich stark von der Evolution der Computerhardware-Fähigkeiten im Stil von Moore's Law, die Kurzweil und Vinge inspirierten. Um die komplexe Software zu entwickeln, die die Singularität ermöglicht, müssen wir zunächst ein detailliertes wissenschaftliches Verständnis der Funktionsweise des menschlichen Gehirns haben, das wir als Architekturleitfaden verwenden können, oder alles andere erstellen wieder . Dies bedeutet nicht nur, die physikalische Struktur des Gehirns zu kennen, sondern auch, wie das Gehirn reagiert und sich verändert und wie Milliarden von parallelen Neuroneninteraktionen zu menschlichem Bewusstsein und ursprünglichem Denken führen können. Ein solches umfassendes Verständnis des Gehirns zu erhalten ist nicht unmöglich. Wenn die Singularität jedoch auf der Zeitachse von Kurzweil auftritt, benötigen wir unbedingt eine massive Beschleunigung unseres wissenschaftlichen Fortschritts beim Verständnis jeder Facette des menschlichen Gehirns.

Aber die Geschichte lehrt uns, dass sich der Prozess der ursprünglichen wissenschaftlichen Entdeckung einfach nicht so verhält, insbesondere in komplexen Bereichen wie Neurowissenschaften, Kernfusion oder Krebsforschung. Der allgemeine wissenschaftliche Fortschritt beim Verständnis des Gehirns ähnelt selten einem geordneten, unaufhaltsamen Marsch zur Wahrheit, geschweige denn einem sich exponentiell beschleunigenden. Stattdessen sind wissenschaftliche Fortschritte oft unregelmäßig, und unvorhersehbare Einsichten unterstreichen die langsame Laborarbeit, bei der Theorien erstellt und getestet werden, die mit experimentellen Beobachtungen übereinstimmen. Wirklich bedeutende konzeptionelle Durchbrüche kommen nicht, wenn sie vorhergesagt werden, und von Zeit zu Zeit fegen neue wissenschaftliche Paradigmen durch das Feld und veranlassen Wissenschaftler, Teile von dem, was sie dachten, sie hätten sich niedergelassen, neu zu bewerten. Wir sehen dies in den Neurowissenschaften mit der Entdeckung der langfristigen Potenzierung, der säulenförmigen Organisation kortikaler Bereiche und der Neuroplastizität. Diese Art von fundamentalen Veränderungen unterstützen nicht die allgemeine Beschleunigung nach dem Mooreschen Gesetz, die erforderlich ist, um die Singularität im Zeitplan von Kurzweil zu erreichen.

Die Komplexitätsbremse

Das Vorstehende weist auf eine grundlegende Frage hin, wie schnell eine wissenschaftlich adäquate Darstellung der menschlichen Intelligenz entwickelt werden kann. Wir nennen dieses Thema das Komplexitätsbremse . Wenn wir immer tiefer in unser Verständnis natürlicher Systeme vordringen, stellen wir normalerweise fest, dass wir immer mehr Spezialwissen benötigen, um sie zu charakterisieren, und wir sind gezwungen, unsere wissenschaftlichen Theorien auf immer komplexere Weise zu erweitern. Die detaillierten Mechanismen der menschlichen Kognition zu verstehen, ist eine Aufgabe, die dieser Komplexitätsbremse unterliegt. Denken Sie nur daran, was erforderlich ist, um das menschliche Gehirn auf Mikroebene gründlich zu verstehen. Die Komplexität des Gehirns ist einfach genial. Jede Struktur wurde durch Millionen von Jahren der Evolution präzise geformt, um eine bestimmte Sache zu tun, was auch immer sie sein mag. Es ist nicht wie ein Computer mit Milliarden identischer Transistoren in regulären Speicherarrays, die von einer CPU mit wenigen verschiedenen Elementen gesteuert werden. Im Gehirn wurde jede einzelne Struktur und jeder neuronale Schaltkreis individuell durch Evolution und Umweltfaktoren verfeinert. Je genauer wir das Gehirn betrachten, desto größer ist der Grad der neuralen Variation, die wir finden. Das Verständnis der neuronalen Struktur des menschlichen Gehirns wird immer schwieriger, je mehr wir lernen. Anders ausgedrückt: Je mehr wir lernen, desto mehr erkennen wir, dass es zu wissen gibt, und desto mehr müssen wir zurückgehen und unser früheres Verständnis revidieren. Wir glauben, dass dieser stetige Anstieg der Komplexität eines Tages enden wird – das Gehirn ist schließlich eine endliche Menge von Neuronen und arbeitet nach physikalischen Prinzipien. Aber auf absehbare Zeit werden die Komplexitätsbremse und das Aufkommen mächtiger neuer Theorien und nicht das Gesetz der Beschleunigung der Renditen das Tempo des wissenschaftlichen Fortschritts bestimmen, der erforderlich ist, um die Singularität zu erreichen.

Obwohl wir glauben, dass ein feinkörniges Verständnis der neuronalen Struktur des Gehirns letztendlich erreichbar ist, hat es sich jedoch nicht als der Bereich erwiesen, in dem wir exponentiell beschleunigende Fortschritte erzielen können. Aber nehmen wir an, Wissenschaftler machen einen brillanten neuen Fortschritt in der Gehirnscanning-Technologie. Befürworter der Singularität behaupten oft, dass wir Computerintelligenz nur durch numerische Simulation des Gehirns von unten nach oben aus einem detaillierten Bild auf neuronaler Ebene erreichen können. Kurzweil sagt zum Beispiel die Entwicklung von zerstörungsfreien Gehirnscannern voraus, die es uns ermöglichen, auf Subneuronenebene präzise Schnappschüsse vom lebenden Gehirn einer Person zu machen. Er schlägt vor dass diese Scanner höchstwahrscheinlich vom Inneren des Gehirns aus über Millionen von injizierbaren medizinischen Nanobots funktionieren würden. Aber unabhängig davon, ob Nanobot-basiertes Scannen erfolgreich ist (und wir wissen noch nicht einmal, ob dies möglich ist), argumentiert Kurzweil im Wesentlichen, dass dies der notwendige wissenschaftliche Fortschritt ist, der die Singularität eindämmen wird: Computer könnten einfach Intelligenz auf menschlicher Ebene aufweisen indem Sie den Zustand und die Konnektivität jedes Neurons eines Gehirns in einen massiven digitalen Gehirnsimulator laden, Ein- und Ausgänge anschließen und Start drücken.

Die Schwierigkeit, Software auf menschlicher Ebene zu erstellen, geht jedoch tiefer, als die strukturellen Verbindungen und die Biologie jedes unserer Neuronen rechnerisch zu modellieren. Strategien zur Vervielfältigung des Gehirns wie diese setzen voraus, dass es kein grundlegendes Problem gibt, um zur menschlichen Kognition zu gelangen, außer über ausreichende Computerleistung und Neuronenstrukturkarten für die Simulation. [zwei] Theoretisch mag dies stimmen, in der Praxis hat sich dies jedoch nicht bewährt, da nicht alles abgedeckt wird, was tatsächlich zum Erstellen der Software benötigt wird. Wenn wir beispielsweise eine Software entwickeln wollten, die die Flugfähigkeit eines Vogels unter verschiedenen Bedingungen simuliert, reicht es nicht aus, ein vollständiges Diagramm der Vogelanatomie zu haben. Um den Flug eines echten Vogels vollständig zu simulieren, müssen wir auch wissen, wie alles zusammen funktioniert. In den Neurowissenschaften gibt es eine parallele Situation. Es wurden Hunderte von Versuchen (unter Verwendung vieler verschiedener Organismen) unternommen, um Simulationen verschiedener Neuronen zusammen mit ihrer chemischen Umgebung zu verketten. Das einheitliche Ergebnis dieser Versuche ist, dass man, um eine adäquate Simulation der realen laufenden neuronalen Aktivität eines Organismus zu erstellen, auch ein enormes Wissen über die funktional Rolle, die diese Neuronen spielen, wie sich ihre Verbindungsmuster entwickeln, wie sie in Gruppen strukturiert sind, um rohe Reize in Informationen umzuwandeln, und wie die neuronale Informationsverarbeitung letztendlich das Verhalten eines Organismus beeinflusst. Ohne diese Informationen hat es sich als unmöglich erwiesen, effektive computerbasierte Simulationsmodelle zu erstellen. Gerade für die kognitive Neurowissenschaft des Menschen sind wir dem erforderlichen funktionalen Wissen noch nicht nahe. Gehirn Simulationsprojekte Das derzeit laufende Modell modelliert nur einen kleinen Bruchteil dessen, was Neuronen tun, und es fehlen die Details, um vollständig zu simulieren, was in einem Gehirn passiert. Das Forschungstempo in diesem Bereich scheint zwar ermutigend, aber kaum exponentiell zu sein. Auch hier, da wir immer mehr über die tatsächliche Komplexität der Funktionsweise des Gehirns erfahren, stellen wir vor allem fest, dass das Problem tatsächlich schwieriger wird.

Der KI-Ansatz

Befürworter der Singularität appellieren gelegentlich an Entwicklungen in der künstlichen Intelligenz (KI), um den langsamen wissenschaftlichen Gesamtfortschritt in neurowissenschaftlichen Bottom-up-Ansätzen zur Kognition zu umgehen. Es stimmt, dass KI große Erfolge bei der Duplizierung bestimmter isolierter kognitiver Aufgaben erzielt hat, zuletzt mit Watson-System von IBM Pro Gefahr! Frage beantworten. Aber wenn wir einen Schritt zurücktreten, können wir feststellen, dass auch die KI-basierten Fähigkeiten insgesamt nicht exponentiell zugenommen haben, zumindest gemessen an der Schaffung einer vollständig allgemeinen menschlichen Intelligenz. Wir haben zwar viel darüber gelernt, wie man individuelle KI-Systeme baut, die scheinbar intelligente Dinge tun, aber unsere Systeme sind es immer geblieben spröde – ihre Leistungsgrenzen werden durch ihre internen Annahmen und definierenden Algorithmen starr gesetzt, sie können nicht verallgemeinert werden und sie geben außerhalb ihres spezifischen Fokusbereichs häufig unsinnige Antworten. Ein Computerprogramm, das ausgezeichnetes Schach spielt, kann seine Fähigkeiten nicht nutzen, um andere Spiele zu spielen. Die besten medizinischen Diagnoseprogramme beinhalten immens detaillierte Kenntnisse über den menschlichen Körper, können aber nicht ableiten, dass ein Seiltänzer einen großartigen Gleichgewichtssinn haben würde.

Warum ist es für KI-Forscher so schwierig, menschenähnliche Intelligenz aufzubauen, selbst im kleinen Maßstab? Eine Antwort betrifft den grundlegenden wissenschaftlichen Rahmen, den KI-Forscher verwenden. Wenn der Mensch vom Säugling zum Erwachsenen heranwächst, erwirbt er sich zunächst ein allgemeines Wissen über die Welt und erweitert und verfeinert dieses allgemeine Wissen dann kontinuierlich durch spezifisches Wissen über verschiedene Bereiche und Zusammenhänge. KI-Forscher haben in der Regel das Gegenteil versucht: Sie haben Systeme mit tiefem Wissen über enge Bereiche gebaut und versucht, durch Kombination dieser Systeme eine allgemeinere Fähigkeit zu schaffen. Diese Strategie war im Allgemeinen nicht erfolgreich, obwohl Watsons Leistung auf Gefahr! weist darauf hin, dass Wege wie dieser vielversprechend sein können. Die wenigen Versuche, die unternommen wurden, um direkt eine große Menge an allgemeinem Wissen über die Welt zu schaffen und dann das Fachwissen einer Domäne hinzuzufügen (zum Beispiel die Arbeit von Cycorp ) haben ebenfalls nur begrenzten Erfolg. Und auf jeden Fall fangen KI-Forscher gerade erst an, Theorien darüber aufzustellen, wie die komplexen Phänomene, die der menschlichen Kognition ihre einzigartige Flexibilität verleihen, effektiv modelliert werden können: Unsicherheit, Kontextsensitivität, Faustregeln, Selbstreflexion und die entscheidenden Einsichten zum übergeordneten Denken. Genau wie in den Neurowissenschaften scheint der KI-basierte Weg zur Erlangung von Computerintelligenz auf Singularitätsebene viel mehr Entdeckungen, einige neue Theorien von Nobelqualität und wahrscheinlich sogar ganz neue Forschungsansätze zu erfordern, die unserer heutigen Überzeugung nicht angemessen sind. Dieser grundlegende wissenschaftliche Fortschritt geschieht nicht auf einer zuverlässigen exponentiellen Wachstumskurve. Auch wenn Entwicklungen in der KI letztendlich der Weg zur Singularität sein könnten, bremst die Komplexitätsbremse unseren Fortschritt und schiebt die Singularität erheblich in die Zukunft.

Die erstaunliche Komplexität der menschlichen Kognition sollte diejenigen, die behaupten, dass die Singularität nahe liegt, als Warnung dienen. Ohne ein wissenschaftlich tiefes Verständnis der Kognition können wir keine Software entwickeln, die die Singularität auslösen könnte. Anstelle des von Kurzweil prognostizierten immer schneller werdenden Fortschritts glauben wir, dass der Fortschritt in Richtung dieses Verständnisses durch die Komplexitätsbremse grundlegend gebremst wird. Unsere Fähigkeit, dieses Verständnis entweder über den KI- oder den neurowissenschaftlichen Ansatz zu erreichen, ist selbst ein menschlicher kognitiver Akt, der sich aus der Unvorhersehbarkeit menschlichen Einfallsreichtums und seiner Entdeckung ergibt. Der Fortschritt hier wird stark von der Art und Weise beeinflusst, wie unser Gehirn neue Informationen aufnimmt und verarbeitet, und von der Kreativität der Forscher, sich neue Theorien auszudenken. Es wird auch von der Art und Weise bestimmt, wie wir die Forschungsarbeit in diesen Bereichen gesellschaftlich organisieren und das daraus resultierende Wissen verbreiten. Beim Vulkan und bei der Allen Institute for Brain Science , arbeiten wir an fortschrittlichen Tools, die Forschern helfen, mit dieser gewaltigen Komplexität umzugehen und ihre Forschung zu beschleunigen. Ein umfassendes wissenschaftliches Verständnis der menschlichen Kognition zu erlangen, ist eines der schwierigsten Probleme überhaupt. Wir machen weiterhin erfreuliche Fortschritte. Aber wir glauben, dass wir uns bis zum Ende des Jahrhunderts immer noch fragen werden, ob die Singularität nahe ist.

Paul G. Allen, der 1975 Microsoft mitbegründete, ist Philanthrop und Vorsitzender von Vulcan, das in eine Reihe von Technologie-, Luft- und Raumfahrt-, Unterhaltungs- und Sportunternehmen investiert. Mark Greaves ist Informatiker, der als Direktor für Wissenssysteme bei Vulcan fungiert.

[eins] Kurzweil, The Law of Accelerating Returns, März 2001.

[zwei] Wir beginnen, in Reichweite der Computerleistung zu kommen, die wir möglicherweise benötigen, um diese Art von massiver Gehirnsimulation zu unterstützen. Computer der Petaflop-Klasse (wie IBMs BlueGene/P, das im Watson-System verwendet wurde) sind jetzt im Handel erhältlich. Computer der Exaflop-Klasse sind derzeit auf dem Reißbrett. Diese Systeme könnten wahrscheinlich die rohen Rechenkapazitäten einsetzen, die erforderlich sind, um die Feuerungsmuster für alle Neuronen eines Gehirns zu simulieren, obwohl dies derzeit um ein Vielfaches langsamer geschieht, als dies in einem echten Gehirn der Fall wäre.

UPDATE: Ray Kurzweil antwortet hier.

verbergen