Was wir über Chronicle wissen, Alphabets mysteriöse neue Firma.

Es gibt einen faszinierenden neuen Spieler im Cybersicherheitsblock, der Chronicle heißt. Bemerkenswert, weil es Teil von Googles Muttergesellschaft ist, ist es aus Alphabets “Mondschuss”-Inkubator hervorgegangen, bekannt als X. Letzte Woche in zwei verschiedenen Blog-Posts auf Medium angekündigt, wird sich Chronicle darauf konzentrieren, Unternehmen dabei zu unterstützen, ihre eigenen Sicherheitsdaten zu verstehen und, laut dem CEO des Unternehmens, “Cyber-Angriffe zu stoppen, bevor sie Schaden anrichten”.

In einer Zeit globaler Computerinfektionen wie WannaCry oder Schwachstellen in Computerprozessoren wie Meltdown und Spectre ist es gut, dass ein Google-ähnliches Unternehmen seinen Fokus und seine Ressourcen auf Cybersicherheit richtet. Aber es gibt nur wenige Informationen darüber, wie es funktionieren könnte.

In einem Blogbeitrag schrieb der Mitbegründer und CEO des Unternehmens, Stephen Gillett, dass ein Schwerpunkt des Unternehmens “eine neue Cybersicherheits-Intelligence– und Analyseplattform sein wird, von der wir hoffen, dass sie Unternehmen helfen kann, ihre eigenen sicherheitsrelevanten Daten besser zu verwalten und zu verstehen”. Einige Unternehmen, so fügte er hinzu, hätten bereits eine erste Version dieser Plattform ausprobiert. Ihr System wird auch maschinelles Lernen nutzen, eine Art künstliche Intelligenz.

Während das Unternehmen keine Details über das hinaus preisgibt, was bereits öffentlich ist, stellt das maschinelle Lernen ein mächtiges Werkzeug dar, um die vielen Cybersicherheitsdaten, die ein Unternehmen sammelt, zu verstehen.

“Ich denke, dass die Idee, die Daten von Google zu verwenden, um die Cybersicherheit im gesamten Ökosystem zu verbessern, eine sehr direkte Anwendung von Informationen ist, die nur Google hat”, sagt Shuman Ghosemajumder, CTO von Shape Security und ehemaliger Click-Fraud-Chef bei Google.

Ertrinken in Daten
Chronicle wird Unternehmen helfen, die “Sicherheitswarnungen”, die ihre interne Verteidigung produziert, zu verstehen – Warnungen, die jeden Tag Zehntausende von Menschen erreichen können, so Gillett in seiner Erklärung des Unternehmens. “Die Verbreitung von Daten aus den Dutzenden von Sicherheitsprodukten, die ein typisches großes Unternehmen einsetzt, macht es paradoxerweise schwieriger und nicht einfacher für Teams, Bedrohungen zu erkennen und zu untersuchen”, schrieb er. Und all diese Daten sind auch teuer zu speichern.

Daten über die Netzwerkaktivitäten eines Unternehmens können in Form von Ereignisprotokollen vorliegen, sagt Bryan Parno, Associate Professor für Informatik an der Carnegie Mellon University. In einem Computernetzwerk kann ein Ereignis so einfach sein, wie wenn sich jemand morgens an seinem Computer anmeldet, die Kommunikation zwischen Computern oder Dateien, die von Personen heruntergeladen werden. Diese Ereignisprotokolle können auch Sicherheitswarnungen enthalten, wie beispielsweise fehlgeschlagene Anmeldeversuche. Antivirensoftware erzeugt auch Benachrichtigungen, ebenso wie andere Sicherheitsgeräte. Es sind Daten wie diese im Allgemeinen, die Chronicle vielleicht knacken will, spekuliert Parno.

Der nächste Schritt ist die “Anomalieerkennung”, sagt Parno, ein Prozess, bei dem diese Daten betrachtet und der Unterschied zwischen normalem und abnormalem Datenverkehr ermittelt wird.

Lösen der KI
Hier kann maschinelles Lernen ins Spiel kommen, das Erkenntnisse aus Unmengen von Daten gewinnen kann. “Sicherheitsanalysten verbringen oft viel Zeit damit, zu sagen: “Nun, wir haben all diese Warnungen erhalten, wir müssen sie irgendwie auslösen”, sagt Parno. Das Ziel ist es, eine reale Bedrohung vom normalen Verkehr zu trennen.

Maschinelles Lernen zeichnet sich dadurch aus, dass man aus Daten lernt – ein klassisches Beispiel ist es, einem Lernalgorithmus beizubringen, wie eine Katze aussieht, indem man ihr Tonnen von Bildern von Katzen gibt und sie dann ihre eigenen Regeln über Katzenerscheinungen entschlüsseln lässt, anstatt zu versuchen, diese Regeln explizit zu programmieren. Diese Software kann dann erkennen, was sie für verwirrte Tiere in neuen Bildern hält.

In diesem Fall sind die Daten keine pelzigen Haustiere. Es sind Informationen wie Sicherheitswarnungen, wie Gillett in seinem Blogbeitrag sagte, oder vielleicht diese Ereignisprotokolle. Ingenieure neigen dazu, ihr System auf “das Gute zu trainieren”, sagt Parno und zeigt ihm, wie der normale Verkehr aussieht, damit er daraus lernen kann, denn der meiste Verkehr ist die gutartige Art.

“Du trainierst hauptsächlich für das Gute und sagst: “Alles, was ich nicht als gut erkenne, ist wahrscheinlich schlecht”, sagt Parno. Chronicle könnte seine Algorithmen trainieren, um die Signale von gutem Verkehr, schlechtem Verkehr oder beidem zu erkennen. (Ein Teil des Unternehmens beinhaltet eine 2012 getätigte Google-Akquisition namens VirusTotal, die sich auf die Erkennung von Malware konzentriert.) Kurz gesagt, Chronicle ist eine Plattform, die eine schnelle Analyse der eigenen Cybersicherheitssituation eines Unternehmens ermöglichen soll. (In ähnlicher Weise hat ein anderes neues Unternehmen ein KI-System entwickelt, das CIA-Intelligence-Analysten helfen soll, Berichte und andere Daten zu verstehen.)

Parno sagt, dass das System auch den mühsamen Prozess der Zusammenstellung dessen, was passiert ist, beschleunigen könnte, selbst wenn etwas schief geht, wie ein Computer, der mit Malware infiziert wird.

Aber Parno, der sich auf Computersicherheit und Kryptographie konzentriert, ist vorsichtig. “In der Vergangenheit war es eine Herausforderung, Machine Learning sehr effektiv auf Sicherheitsprobleme anzuwenden”, fügt er hinzu. Das liegt daran, dass es gut darin ist, das zu identifizieren, was er den “Durchschnittsfall” nennt. Wenn Siri oder Alexa versteht, was Sie in 99 Prozent der Fälle sagen, ist das im Grunde genommen akzeptieren.

Chinesische Polizisten tragen Sonnenbrillen mit Gesichtserkennung. So funktioniert diese Technologie.

Die Gesichtserkennungstechnologie ist in dystopischen Science-Fiction-Filmen oder CSI-Shows kein Gimmick mehr: Es wird zunehmend in mehr Fußgängerzonen eingesetzt. Dein Gesicht kann zum Beispiel dein iPhone X freischalten. Oder, wenn Sie mit Jetblue von Boston nach Aruba oder in die Dominikanische Republik fliegen, haben Sie die Möglichkeit, Ihr Visage als Bordkarte zu verwenden, ein System, bei dem ein externer Algorithmus für Zoll und Grenzschutz der USA die Übereinstimmungen vornimmt. Und jetzt wird die Technologie – mit einer an einer Sonnenbrille befestigten Kamera – von Polizisten in China in Massen benutzt, berichtete das Wall Street Journal am Mittwoch.

Zusätzlich zur Brille beinhaltet das chinesische System eine angeschlossene mobile Vorrichtung, die die Polizisten mit sich führen und die Offline-Gesichtsdaten enthält, so dass das System schnell arbeiten kann. Dem Journal zufolge haben sie auf dem Bahnhof einer Stadt sieben Personen geschnappt, die mit dieser Methode mit Verbrechen in Verbindung gebracht wurden, sowie andere, die unter falschen Identitäten reisen.

Hier ist, wie eine solche künstliche Intelligenz-basierte Technologie im Allgemeinen funktioniert – und was eine potenzielle Falle davon ist. Außerdem, weißt du, die ganze Sache mit dem Überwachungsstaat.)

Zuerst suchen Sie nach Gesichtern. Dann Streichhölzer.
Software, die die Gesichtserkennung unterstützt, verwendet im Allgemeinen einen zweistufigen Prozess, sagt David Alexander Forsyth, ein Experte für künstliche Intelligenz und Lehrstuhl für Informatik an der University of Illinois at Urbana-Champaign. Der erste Schritt besteht darin, herauszufinden, wo sich die Gesichter in dem betreffenden Bild befinden; das System sucht nach einem fensterartigen Abschnitt des Bildes, der auch das Gesicht von jemandem enthält und nicht die anderen Dinge des modernen Lebens, wie Stoppschilder und Autos.

Schritt zwei: Er muss sehen, ob er das Gesicht mit einem anderen in seiner Datenbank vergleichen kann. “Es stellte sich heraus, dass das ein härteres Problem ist”, sagt Forsyth, im Vergleich zu Schritt eins. “Menschen neigen dazu, wie einander auszusehen.” (Zumindest zu den Algorithmen.)

Das System betrachtet das Bild nicht nur so, wie ein Mensch es sich vorstellt – es betrachtet eine Darstellung in Form von Daten, die aus Zahlen bestehen, sagt Forsyth. “Diese Darstellung muss Dinge hervorheben, die Menschen dazu bringen, anders auszusehen”, notiert er ähnliche Details, die die Form von Merkmalen wie Lippen, Nasen und Augen betreffen. Die Darstellung muss auch sicherstellen, dass sie nicht von Variablen beeinflusst wird, die sie auslösen könnten, wie z.B. Licht auf dem Gesicht von jemandem. Die Software prüft dann diese Darstellung, um zu sehen, ob sie eine Übereinstimmung mit einem Gesicht hat, das sie in der Datei hat.

“In den letzten etwa 10 Jahren gab es erstaunliche Fortschritte und Veränderungen in der Klassifizierungstechnologie”, fügt er hinzu. “Das Verfahren zur Erstellung einer solchen Darstellung des Bildes ist extrem anspruchsvoll und sehr effektiv geworden.”

Künstliche Intelligenzsysteme benötigen Datenmeere, um zu lernen, wie man seine Arbeit gut macht, und die Gesichtserkennungstechnologie ist nicht anders. “Im Moment ist der beste Weg, den wir mit Abstand kennen, eine immense Anzahl von Bildern von Gesichtern”, um diese Systeme aufzubauen und zu trainieren, erklärt Forsyth. Algorithmen müssen lernen, auf welche subtilen Details sie sich konzentrieren müssen, um Menschen genau zu unterscheiden.

Das Problem der falschen Übereinstimmung
Aber trotz der Komplexität der Technologie bleibt es ein schwieriges Feld. “Die Konsequenz für eine Verwechslung kann wirklich schrecklich sein”, fügt er hinzu. Kurz gesagt: Es kann Fehlalarme haben und denken, dass es jemanden markiert hat, der eine Person von Interesse ist, aber in Wirklichkeit nicht.

Es gibt einen wesentlichen Unterschied zwischen der Nutzung der Technologie auf diese Weise, wie es in China der Fall ist, und der Art und Weise, wie Sie mit ihr arbeiten, zum Beispiel auf einem iPhone X. Im Falle des Smartphones präsentieren Sie sich ihm bewusst, damit es das Gerät freischalten kann; es ist eine Interaktion mit geringem Einsatz. Das liegt daran, dass Sie, wenn es Sie nicht erkennt, einfach Ihren Passcode verwenden, während Apple sagt, dass die Chancen, dass jemand anderes ihn mit seinem Gesicht freischaltet, eins zu einer Million sind. Schließlich muss Ihr iPhone nur die Details Ihres eigenen Gesichts lernen, das es in dreidimensionaler Form betrachtet.

Aber der Einsatz von Technologien wie dieser, um die Vielzahl von Gesichtern in Menschenmassen in Umgebungen wie Flughäfen oder Bahnhöfen zu scannen, stellt aufgrund des False-Match-Problems eine besondere Herausforderung dar – ein Ergebnis, das nicht nur diese Person, sondern auch andere Reisende betrifft, die dadurch verzögert werden könnten. “Die tatsächliche Verwendung kann sehr schwierig sein”, warnt Forsyth.

Uns wurde gesagt, wir sollen Roboter fürchten. Aber warum glauben wir, dass sie sich gegen uns wenden werden?

Trotz der blutigen Schlagzeilen zeigen objektive Daten, dass Menschen auf der ganzen Welt im Durchschnitt länger leben, sich weniger Krankheiten zuziehen, mehr Nahrung zu sich nehmen, mehr Zeit in der Schule verbringen, Zugang zu mehr Kultur erhalten und weniger wahrscheinlich durch einen Krieg, Mord oder einen Unfall getötet werden. Doch Verzweiflung entspringt ewig. Wenn Pessimisten gezwungen sind, zuzugeben, dass das Leben für immer mehr Menschen immer besser und besser geworden ist, haben sie eine Antwort parat. Wir eilen fröhlich auf eine Katastrophe zu, sagen sie, wie der Mann, der vom Dach fiel und sagte: “So weit so gut”, als er jedes Stockwerk passierte. Oder wir spielen russisches Roulette, und die tödlichen Chancen werden uns sicher einholen. Oder wir werden von einem schwarzen Schwan geblendet, einem Vier-Sigma-Ereignis weit am Rande der statistischen Verteilung von Gefahren, mit geringen Chancen, aber katastrophalen Schäden.

Seit einem halben Jahrhundert sind die vier Reiter der modernen Apokalypse überbevölkert, die Ressourcen knapp, die Umweltverschmutzung und der Atomkrieg. Zu ihnen gesellt sich kürzlich eine Kavallerie von exotischeren Rittern: Nanobots, die uns verschlingen werden, Roboter, die uns versklaven werden, künstliche Intelligenz, die uns zu Rohstoffen macht, und bulgarische Teenager, die einen völkermörderischen Virus brauen oder das Internet aus ihren Schlafzimmern entfernen werden.

Die Wächter der bekannten Reiter waren eher Romantiker und Ludditen. Aber diejenigen, die vor den Gefahren der höheren Technologie warnen, sind oft Wissenschaftler und Technologen, die ihren Einfallsreichtum eingesetzt haben, um immer mehr Möglichkeiten zu identifizieren, wie die Welt bald untergehen wird. Im Jahr 2003 veröffentlichte der Astrophysiker Martin Rees ein Buch mit dem Titel Our Final Hour, in dem er davor warnte, dass “die Menschheit potenziell der Schöpfer ihres eigenen Untergangs ist”, und einige Dutzend Wege aufzeigte, auf denen wir “die Zukunft des gesamten Universums gefährdet haben”. Experimente mit Partikelcollidern könnten zum Beispiel ein schwarzes Loch erzeugen, das die Erde vernichten würde, oder ein “strangelet” aus komprimierten Quarks, das dazu führen würde, dass sich alle Materie im Kosmos an sie bindet und verschwindet. Rees erschloss eine reiche Ader des Katastrophenschutzes. Auf der Amazon-Seite des Buches steht: “Kunden, die diesen Artikel angesehen haben, haben auch Global Catastrophic Risks; Our Final Invention angesehen: Künstliche Intelligenz und das Ende der menschlichen Ära; Das Ende: Was Wissenschaft und Religion uns über die Apokalypse und den Zweiten Weltkrieg erzählen: Eine mündliche Geschichte des Zombiekriegs.” Techno-Philanthropen haben Forschungsinstitute finanziert, die sich der Entdeckung neuer existenzieller Bedrohungen und der Erforschung, wie man die Welt vor ihnen retten kann, widmen, darunter das Future of Humanity Institute, das Future of Life Institute, das Center for the Study of Existential Risk und das Global Catastrophic Risk Institute.

Wie sollten wir über die existenziellen Bedrohungen denken, die sich hinter unserem schrittweisen Fortschritt verbergen? Niemand kann prophezeien, dass eine Katastrophe nie eintreten wird, und diese Schrift enthält keine solche Zusicherung. Der Klimawandel und insbesondere der Atomkrieg sind ernste globale Herausforderungen. Obwohl sie ungelöst sind, sind sie lösbar, und es wurden Fahrpläne für die langfristige Dekarbonisierung und Denuklearisierung erstellt. Diese Prozesse sind in vollem Gange. Die Welt emittiert weniger Kohlendioxid pro Dollar Bruttoinlandsprodukt, und das weltweite Atomwaffenarsenal wurde um 85 Prozent reduziert. Natürlich müssen sie, um mögliche Katastrophen abzuwenden, bis zum Nullpunkt vorangetrieben werden.

ON TOP dieser echten Herausforderungen sind jedoch Szenarien, die zweifelhafter sind. Mehrere Technologiekommentatoren haben über die Gefahr spekuliert, dass wir absichtlich oder zufällig von der künstlichen Intelligenz (KI) unterworfen werden, einer Katastrophe, die manchmal als Robopocalypse bezeichnet und gemeinhin mit Stills aus den Terminator-Filmen illustriert wird. Mehrere kluge Menschen nehmen es ernst (wenn auch etwas heuchlerisch). Elon Musk, dessen Firma künstlich intelligente selbstfahrende Autos herstellt, nannte die Technologie “gefährlicher als Bomben”. Stephen Hawking warnte durch seinen künstlich intelligenten Synthesizer, dass er “das Ende der Menschheit bedeuten könnte”. Aber unter den klugen Menschen, die nicht den Schlaf verlieren, sind die meisten Experten für künstliche Intelligenz und die meisten Experten für menschliche Intelligenz.

Die Robopocalypse basiert auf einem verschwommenen Verständnis von Intelligenz, das mehr der Großen Kette des Seins und einem nietzscheanischen Machtwillen als einem modernen wissenschaftlichen Verständnis zu verdanken ist. In dieser Konzeption ist Intelligenz ein allmächtiger, wunscherfüllender Trank, den Agenten in unterschiedlichen Mengen besitzen.

Der Mensch hat mehr davon als Tiere, und ein künstlich intelligenter Computer oder Roboter der Zukunft (“eine KI”, im neuen Count-Noun-Gebrauch) wird mehr davon haben als der Mensch. Da wir Menschen unsere gemäßigte Ausstattung benutzt haben, um weniger gut ausgestattete Tiere zu domestizieren oder zu vernichten (und da technologisch fortgeschrittene Gesellschaften technologisch primitive Tiere versklavt oder vernichtet haben), folgt daraus, dass eine superkluge KI das gleiche mit uns machen würde. Da eine KI Millionen Mal schneller denkt als wir und ihre Superintelligenz nutzt, um ihre Superintelligenz rekursiv zu verbessern (ein Szenario, das manchmal “foom” genannt wird, nach dem Comic-Soundeffekt), werden wir ab dem Moment, in dem sie eingeschaltet wird, machtlos sein, sie zu stoppen.

Aber das Szenario macht etwa so viel Sinn wie die Sorge, dass, da Düsenflugzeuge die Flugfähigkeit von Adlern übertroffen haben, sie eines Tages vom Himmel stürzen und unsere Rinder erobern werden. Der erste Irrtum ist eine Verwechslung von Intelligenz mit Motivation – Überzeugungen mit Wünschen, Inferenzen mit Zielen, Denken mit Wollen. Selbst wenn wir übermenschlich intelligente Roboter erfinden würden, warum sollten sie ihre Meister versklaven oder die Welt übernehmen wollen? Intelligenz ist die Fähigkeit, neue Mittel einzusetzen, um ein Ziel zu erreichen. Aber die Ziele sind für die Intelligenz ohne Belang: Klug zu sein ist nicht dasselbe, wie etwas zu wollen. Es ist so, dass die Intelligenz in einem System, dem Homo sapiens, ein Produkt der darwinistischen natürlichen Selektion ist, ein inhärenter Wettbewerbsprozess. Im Gehirn dieser Spezies kommt das Denken gebündelt (in unterschiedlichem Maße in verschiedenen Exemplaren) mit Zielen wie der Dominanz von Rivalen und der Ansammlung von Ressourcen. Aber es ist ein Fehler, einen Schaltkreis im limbischen Gehirn einer bestimmten Primatenart mit der Natur der Intelligenz zu verwechseln. Ein künstlich intelligentes System, das eher entworfen als entwickelt wurde, könnte genauso gut wie Shmoos denken, die blobbyigen Altruisten in Al Capps Comic Li’l Abner, die ihren großen Einfallsreichtum zum Grillen zum Wohle der Menschen einsetzen. Es gibt kein Gesetz komplexer Systeme, das besagt, dass sich intelligente Agenten in rücksichtslose Konquistadoren verwandeln müssen.

Der zweite Irrtum ist, die Intelligenz als ein grenzenloses Kontinuum der Potenz zu betrachten, ein wunderbares Elixier mit der Kraft, jedes Problem zu lösen, jedes Ziel zu erreichen. Der Irrtum führt zu unsinnigen Fragen wie, wann eine KI “die Intelligenz des Menschen übersteigt”, und zum Bild einer ultimativen “Artificial General Intelligence” (AGI) mit göttlicher Allwissenheit und Allmacht. Intelligenz ist eine Vorrichtung von Gadgets: Softwaremodule, die sich Wissen darüber aneignen oder damit programmiert sind, wie man verschiedene Ziele in verschiedenen Bereichen verfolgt. Die Menschen sind gerüstet, um Nahrung zu finden, Freunde zu gewinnen und Menschen zu beeinflussen, zukünftige Partner zu bezaubern, Kinder großzuziehen, sich in der Welt zu bewegen und andere menschliche Obsessionen und Freizeitbeschäftigungen zu betreiben. Computer können programmiert werden, um einige dieser Probleme zu lösen (wie das Erkennen von Gesichtern), sich nicht mit anderen zu beschäftigen (wie charmante Gefährten) und noch andere Probleme anzunehmen, die der Mensch nicht lösen kann (wie die Simulation des Klimas oder das Sortieren von Millionen von Buchhaltungsunterlagen).

Jedes System ist ein idiotischer Gelehrter, mit wenig Fähigkeit, zu Problemen zu springen, es wurde nicht gesetzt.