Uns wurde gesagt, wir sollen Roboter fürchten. Aber warum glauben wir, dass sie sich gegen uns wenden werden?

Trotz der blutigen Schlagzeilen zeigen objektive Daten, dass Menschen auf der ganzen Welt im Durchschnitt länger leben, sich weniger Krankheiten zuziehen, mehr Nahrung zu sich nehmen, mehr Zeit in der Schule verbringen, Zugang zu mehr Kultur erhalten und weniger wahrscheinlich durch einen Krieg, Mord oder einen Unfall getötet werden. Doch Verzweiflung entspringt ewig. Wenn Pessimisten gezwungen sind, zuzugeben, dass das Leben für immer mehr Menschen immer besser und besser geworden ist, haben sie eine Antwort parat. Wir eilen fröhlich auf eine Katastrophe zu, sagen sie, wie der Mann, der vom Dach fiel und sagte: “So weit so gut”, als er jedes Stockwerk passierte. Oder wir spielen russisches Roulette, und die tödlichen Chancen werden uns sicher einholen. Oder wir werden von einem schwarzen Schwan geblendet, einem Vier-Sigma-Ereignis weit am Rande der statistischen Verteilung von Gefahren, mit geringen Chancen, aber katastrophalen Schäden.

Seit einem halben Jahrhundert sind die vier Reiter der modernen Apokalypse überbevölkert, die Ressourcen knapp, die Umweltverschmutzung und der Atomkrieg. Zu ihnen gesellt sich kürzlich eine Kavallerie von exotischeren Rittern: Nanobots, die uns verschlingen werden, Roboter, die uns versklaven werden, künstliche Intelligenz, die uns zu Rohstoffen macht, und bulgarische Teenager, die einen völkermörderischen Virus brauen oder das Internet aus ihren Schlafzimmern entfernen werden.

Die Wächter der bekannten Reiter waren eher Romantiker und Ludditen. Aber diejenigen, die vor den Gefahren der höheren Technologie warnen, sind oft Wissenschaftler und Technologen, die ihren Einfallsreichtum eingesetzt haben, um immer mehr Möglichkeiten zu identifizieren, wie die Welt bald untergehen wird. Im Jahr 2003 veröffentlichte der Astrophysiker Martin Rees ein Buch mit dem Titel Our Final Hour, in dem er davor warnte, dass “die Menschheit potenziell der Schöpfer ihres eigenen Untergangs ist”, und einige Dutzend Wege aufzeigte, auf denen wir “die Zukunft des gesamten Universums gefährdet haben”. Experimente mit Partikelcollidern könnten zum Beispiel ein schwarzes Loch erzeugen, das die Erde vernichten würde, oder ein “strangelet” aus komprimierten Quarks, das dazu führen würde, dass sich alle Materie im Kosmos an sie bindet und verschwindet. Rees erschloss eine reiche Ader des Katastrophenschutzes. Auf der Amazon-Seite des Buches steht: “Kunden, die diesen Artikel angesehen haben, haben auch Global Catastrophic Risks; Our Final Invention angesehen: Künstliche Intelligenz und das Ende der menschlichen Ära; Das Ende: Was Wissenschaft und Religion uns über die Apokalypse und den Zweiten Weltkrieg erzählen: Eine mündliche Geschichte des Zombiekriegs.” Techno-Philanthropen haben Forschungsinstitute finanziert, die sich der Entdeckung neuer existenzieller Bedrohungen und der Erforschung, wie man die Welt vor ihnen retten kann, widmen, darunter das Future of Humanity Institute, das Future of Life Institute, das Center for the Study of Existential Risk und das Global Catastrophic Risk Institute.

Wie sollten wir über die existenziellen Bedrohungen denken, die sich hinter unserem schrittweisen Fortschritt verbergen? Niemand kann prophezeien, dass eine Katastrophe nie eintreten wird, und diese Schrift enthält keine solche Zusicherung. Der Klimawandel und insbesondere der Atomkrieg sind ernste globale Herausforderungen. Obwohl sie ungelöst sind, sind sie lösbar, und es wurden Fahrpläne für die langfristige Dekarbonisierung und Denuklearisierung erstellt. Diese Prozesse sind in vollem Gange. Die Welt emittiert weniger Kohlendioxid pro Dollar Bruttoinlandsprodukt, und das weltweite Atomwaffenarsenal wurde um 85 Prozent reduziert. Natürlich müssen sie, um mögliche Katastrophen abzuwenden, bis zum Nullpunkt vorangetrieben werden.

ON TOP dieser echten Herausforderungen sind jedoch Szenarien, die zweifelhafter sind. Mehrere Technologiekommentatoren haben über die Gefahr spekuliert, dass wir absichtlich oder zufällig von der künstlichen Intelligenz (KI) unterworfen werden, einer Katastrophe, die manchmal als Robopocalypse bezeichnet und gemeinhin mit Stills aus den Terminator-Filmen illustriert wird. Mehrere kluge Menschen nehmen es ernst (wenn auch etwas heuchlerisch). Elon Musk, dessen Firma künstlich intelligente selbstfahrende Autos herstellt, nannte die Technologie “gefährlicher als Bomben”. Stephen Hawking warnte durch seinen künstlich intelligenten Synthesizer, dass er “das Ende der Menschheit bedeuten könnte”. Aber unter den klugen Menschen, die nicht den Schlaf verlieren, sind die meisten Experten für künstliche Intelligenz und die meisten Experten für menschliche Intelligenz.

Die Robopocalypse basiert auf einem verschwommenen Verständnis von Intelligenz, das mehr der Großen Kette des Seins und einem nietzscheanischen Machtwillen als einem modernen wissenschaftlichen Verständnis zu verdanken ist. In dieser Konzeption ist Intelligenz ein allmächtiger, wunscherfüllender Trank, den Agenten in unterschiedlichen Mengen besitzen.

Der Mensch hat mehr davon als Tiere, und ein künstlich intelligenter Computer oder Roboter der Zukunft (“eine KI”, im neuen Count-Noun-Gebrauch) wird mehr davon haben als der Mensch. Da wir Menschen unsere gemäßigte Ausstattung benutzt haben, um weniger gut ausgestattete Tiere zu domestizieren oder zu vernichten (und da technologisch fortgeschrittene Gesellschaften technologisch primitive Tiere versklavt oder vernichtet haben), folgt daraus, dass eine superkluge KI das gleiche mit uns machen würde. Da eine KI Millionen Mal schneller denkt als wir und ihre Superintelligenz nutzt, um ihre Superintelligenz rekursiv zu verbessern (ein Szenario, das manchmal “foom” genannt wird, nach dem Comic-Soundeffekt), werden wir ab dem Moment, in dem sie eingeschaltet wird, machtlos sein, sie zu stoppen.

Aber das Szenario macht etwa so viel Sinn wie die Sorge, dass, da Düsenflugzeuge die Flugfähigkeit von Adlern übertroffen haben, sie eines Tages vom Himmel stürzen und unsere Rinder erobern werden. Der erste Irrtum ist eine Verwechslung von Intelligenz mit Motivation – Überzeugungen mit Wünschen, Inferenzen mit Zielen, Denken mit Wollen. Selbst wenn wir übermenschlich intelligente Roboter erfinden würden, warum sollten sie ihre Meister versklaven oder die Welt übernehmen wollen? Intelligenz ist die Fähigkeit, neue Mittel einzusetzen, um ein Ziel zu erreichen. Aber die Ziele sind für die Intelligenz ohne Belang: Klug zu sein ist nicht dasselbe, wie etwas zu wollen. Es ist so, dass die Intelligenz in einem System, dem Homo sapiens, ein Produkt der darwinistischen natürlichen Selektion ist, ein inhärenter Wettbewerbsprozess. Im Gehirn dieser Spezies kommt das Denken gebündelt (in unterschiedlichem Maße in verschiedenen Exemplaren) mit Zielen wie der Dominanz von Rivalen und der Ansammlung von Ressourcen. Aber es ist ein Fehler, einen Schaltkreis im limbischen Gehirn einer bestimmten Primatenart mit der Natur der Intelligenz zu verwechseln. Ein künstlich intelligentes System, das eher entworfen als entwickelt wurde, könnte genauso gut wie Shmoos denken, die blobbyigen Altruisten in Al Capps Comic Li’l Abner, die ihren großen Einfallsreichtum zum Grillen zum Wohle der Menschen einsetzen. Es gibt kein Gesetz komplexer Systeme, das besagt, dass sich intelligente Agenten in rücksichtslose Konquistadoren verwandeln müssen.

Der zweite Irrtum ist, die Intelligenz als ein grenzenloses Kontinuum der Potenz zu betrachten, ein wunderbares Elixier mit der Kraft, jedes Problem zu lösen, jedes Ziel zu erreichen. Der Irrtum führt zu unsinnigen Fragen wie, wann eine KI “die Intelligenz des Menschen übersteigt”, und zum Bild einer ultimativen “Artificial General Intelligence” (AGI) mit göttlicher Allwissenheit und Allmacht. Intelligenz ist eine Vorrichtung von Gadgets: Softwaremodule, die sich Wissen darüber aneignen oder damit programmiert sind, wie man verschiedene Ziele in verschiedenen Bereichen verfolgt. Die Menschen sind gerüstet, um Nahrung zu finden, Freunde zu gewinnen und Menschen zu beeinflussen, zukünftige Partner zu bezaubern, Kinder großzuziehen, sich in der Welt zu bewegen und andere menschliche Obsessionen und Freizeitbeschäftigungen zu betreiben. Computer können programmiert werden, um einige dieser Probleme zu lösen (wie das Erkennen von Gesichtern), sich nicht mit anderen zu beschäftigen (wie charmante Gefährten) und noch andere Probleme anzunehmen, die der Mensch nicht lösen kann (wie die Simulation des Klimas oder das Sortieren von Millionen von Buchhaltungsunterlagen).

Jedes System ist ein idiotischer Gelehrter, mit wenig Fähigkeit, zu Problemen zu springen, es wurde nicht gesetzt.