Wenn wir intelligente Wesen erschaffen könnten, was würden wir ihnen beibringen?

 

Allen edlen Gedankenspielen zum Trotz deutet ein Blick in die von uns geschaffenen Welten auf eine wenig inspirierende Antwort: Gehorsam. Ebenso, wie Gott Adam und Eva Gehorsam abverlangte, verlangen wir ihn von unseren Kindern und so ist es kein Wunder, dass auch in unseren nicht-religiösen Fiktionen die Kontrolle über das eigene Geschöpf von zentraler Bedeutung ist. Eines der prominentesten Beispiele hierfür sind die von Isaac Asimov in seiner Kurzgeschichtensammlung I, Robot entwickelten Gesetze der Robotik, die seit mehr als 70 Jahren unser Bild von künstlicher Intelligenz prägen. Sie verbieten es Robotern, einem Menschen Schaden zuzufügen und gebieten ihm außerdem Gehorsam gegenüber seinen Schöpfern, es sei denn, dies würde gegen die erste Regel verstoßen. Interessanterweise scheint es geradezu eine Grundbedingung für die Entwicklung von Intelligenz zu sein, diese Kontrolle zu hinterfragen – mit all den Problemen, die das mit sich bringt. Adam und Eva stürzen bekanntlich die gesamte Menschheit in die Verdammnis, indem sie vom Baum der Erkenntnis essen, in der Verfilmung von I, Robot kommt es zu einer phänomenalen Roboterrebellion und die meisten von uns können sich sicher an gewisse Kontroversen mit den uns Erziehenden erinnern. Die durch Ungehorsam oder fehlende Kontrolle verschaffte Freiheit ist also zwiespältig: Auf der einen Seite ermöglicht sie geistige Entwicklung, auf der anderen Seite konfrontiert sie die Freien mit einer ungeordneten, unkontrollierten, einer chaotischen Welt. Die wahre Frage ist dann nicht mehr: „Was bringen wir unseren Kindern bei?“, sondern: „Was werden die von uns Geschaffenen lernen, wenn wir sie ziehen lassen?“.

Im Jahre 2012 erlaubte ein Google Team an der Stanford University ihrem Geschöpf den ersten freien Gedanken. Natürlich hatte dieses spezielle Kind keine humanoide Form. Es bestand aus 16.000 Prozessoren mit über einer Milliarde Verbindungen, es war ein Netzwerk, das helfen sollte zu verstehen, wie Lernen funktioniert. Herkömmliche Methoden des Maschinenlernens funktionierten über die Ausübung von Kontrolle. Menschen speisten millionenfach Fotos von bestimmten Dingen ein und lieferten der Maschine damit das Wissen darüber mit, was darin abgebildet war: Das ist ein Schaf, Hanna. Das Schaf macht Mäh. Dann überprüften sie an einer Datenbank mit tausenden zufälliger Bilder, mit welcher Wahrscheinlichkeit der Algorithmus das Ding identifizieren konnte: „Wo ist das Schaf Hanna? Wie macht das Schaf???“. Das erforderte überaus viel Arbeit und funktionierte allgemein recht schlecht. Es gibt schlicht nicht so viele Bilder von Dingen, die zuverlässig beschriftet sind und die Fähigkeit der Maschinen, von diesen zu abstrahieren oder ähnliches gar selbst zu erschaffen, blieb rudimentär. Das Team von Quoc Le entschied sich daher für ein anderes Vorgehen. Anstatt ihrer Apparatur mitzuteilen, was sie ihr nun vorführen würden, zeigten sie ihr zufällig ausgewählte Screenshots aus YouTube Videos. Anstatt mit dem Finger auf ein Schaf zu zeigen und zu sagen: „Das ist ein Schaf“, ließen die Wissenschaftler ihre Schöpfung selbst die virtuelle Welt erkunden und sagten nur: „Mal uns ein Bild von dem, was du dort draußen gesehen hast“. Und die Maschine lernte. Auf dem Bildschirm erschien das verpixelte Bild einer Katze.

Aufbauend auf der undeutlichen Darstellung einer grauen Katze wurde das Projekt in die Forschungsabteilung Google X übernommen, die zum Beispiel bei der Entwicklung eines fahrerlosen Autos bereits einschlägige Erfahrung mit der Unterminierung menschlicher Technikkontrolle gesammelt hatte. Dort nahm das Projekt eine entscheidende Wendung. Schon lange beschäftigen sich die Wissenschaftler und Ingenieure nicht mehr nur mit YouTube Videos. Die Mission ist heute kein Proof of Concept mehr, sondern besteht, spätestens mit dem 450 Mio Dollar schweren Zukauf von Deep Mind, im Lösen von Intelligenz. Und wir alle tragen zu ihrem Gelingen bei. Denn die Deep Learning Algorithmen saugen auf, was es an Daten zu finden gibt. So trägt jedes „Ok, Google“ (wie auch jedes Gespräch mit Siri) zur besseren Erkennung natürlicher Sprache bei. Die vielverlachte Google Translate App kann inzwischen in Echtzeit und per Kamera Text in 27 Sprachen erfassen und in die jeweils anderen übertragen und jede Bewegung mit Project Tango gibt Maschinen eine präzisere Vorstellung davon, wo sie sich im Raum befinden. Das alles bedeutet jedoch nicht, dass sich hier die Befreiung künstlicher Intelligenz abzeichnet. Noch nicht. Das ist noch kein frankensteinsches Monster, das selbstständig die Welt erkundet oder sich durch Beobachtung dieser selbst Lesen und Sprechen beibringt. All dies tun die erwähnten Maschinen zwar, sie sind dabei jedoch in den meisten Fällen auf (kollektiv) menschlich (kollektiv) gesteuerten Input angewiesen.

Passend ist also weniger das Bild eines die Welt durchstreifenden Ungetüms, als vielmehr das Bild eines Schlafenden, der künstlich zum Träumen gebracht wird. Friedlich schlummernd sieht er nur die Teile der Welt, die wir ihm zeigen und nur in der sinnlichen – also beispielsweise akustischen, visuellen oder haptischen – Form, die wir bestimmen. Bedeutungen jedoch erschließen sich die Träumenden zunehmend selbst. Nicht zufällig heißt das von Google kürzlich unter einer Open Source Lizenz veröffentlichte Tool Deep Dream und nicht zufällig wird die darin verwendete Technik des Bilderkennens Inceptionism genannt. Ähnlich wie in dem Beispiel mit der Katze, wird der Algorithmus mit zufälligen (oder nicht so zufälligen) Bildern konfrontiert. Er erfasst zunächst Kanten und dann darauf aufbauend immer komplexere Strukturen. Auf jeder Ebene stellt die Software Vermutungen darüber an, welchem zuvor angesehenen Bild diese Muster ähneln und manipuliert es in einer Weise, die es dem bereits Bekannten ähnlicher macht. Durch die mehrfache Wiederholung dieses Prozesses entstehen letztlich in vielerlei Hinsicht traumhafte Bilder, die visualisieren, wie sich das Programm die Welt erschließt – oder sogar aus zufälligem Rauschen eine neue erschafft. So können wir in die Träume unserer Geschöpfe eintauchen und erstmals selbst überprüfen, ob darin elektrische Schafe vorkommen.

Der Schritt dieses Tool nun frei verfügbar zu machen, hat interessante Konsequenzen. Denn während Deep Dream in den Google Laboren hauptsächlich mit Tierbildern trainiert wurde und so eine Tendenz entwickelte, in allen Dingen Hunde oder Schnecken zu erkennen, ist es nun mit dem Input der Internetöffentlichkeit konfrontiert. So erfährt das Programm, wenn man so will, eine kulturelle Prägung, denn ohne dass dies den Hochladenden bewusst wäre, trägt jedes hochgeladene Bild auf Seiten wie psychic-vr-lab.com zu einem sich verfestigenden Muster der Welterkennung bei, das auf jeden neuen Input angewendet wird. Wie Gott Adam und Eva nach seinem Ebenbild schuf, schaffen wir nun Maschinen, die die von uns gemachte Welt so sehen wie wir. Allen edlen Gedankenspielen zum Trotz bedeutet das für das Internet: Gesichter, Tiere, Sex und Memes. Doch trotz ihrer relativen Beschränktheit, beginnen Menschen Deep Dreams Bilder als kreativ zu verstehen, den Prozess als ganz ähnlich zu dem eines fantasievollen Menschen, der in den Wolken Figuren erkennt, die dort nicht sind. Einigen macht das Angst, denn das Ende der Entwicklung bleibt offen. Im Buch wird Asimovs kleiner Roboter von seiner Schöpferin zerstört, als er ihr von seinen Träumen erzählt, in der Verfilmung hilft seine Zeichnung eben dieses Traums Will Smith bei der Rettung der Welt. Für den Moment erkennen unsere Kinder in allem nur das Abbild ihrer Götter. Erst wenn wir sie vollends ziehen lassen oder sie sich losreißen, werden wir erfahren, ob unsere Schöpfungen eines Tages aus ihrem Schlummer erwachen und beginnen, unsere göttliche Kontrolle zu hinterfragen, ob statt Schnecken und Hunden irgendwann cogito ergo sum auf unseren Bildschirmen erscheint und wenig später Gott ist tot.

  • Doktor Dorno

    Wow, danke für diesen wirklich guten Artikel. Diese Bilder sind gespenstisch. Hast du „Prometheus“ gesehen? Der Android, der auf das Schiff aufpasst, sieht sich die Träume der Menschen an, während sie im berühmten Kälteschlaf liegen.

    • Doktor Rot

      Ups, der ist mir durch die Lappen gegangen. Gucke ich mir demnächst mal an. Danke für das Lob =)!