Was haben der Milliardär und Erfinder Elon Musk, der Google-Service Now On Tap und der Film „Ex Machina“ gemeinsam? Der gemeinsame Nenner bei allen drei ist Künstliche Intelligenz, beziehungsweise die Diskussion um Beschränkungen für Künstliche Intelligenz (KI), damit diese wirklich der Menschheit dient und den Menschen nicht Schaden zufügt.
Was kann Künstliche Intelligenz heute?
Lassen Sie uns für alle, die nicht tief in diesem Thema stecken, kurz ein paar Fakten erwähnen, die zeigen, welchen Fortschritt Maschinen beim Ausführen typisch menschlicher Dinge gemacht haben.
Google kann heute Sprache mit einer Genauigkeit von 92 Prozent erkennen (vor zwei Jahren lag die Genauigkeit noch bei 77 Prozent). Die Firma hat eine KI-Plattform entwickelt, die selbständig gelernt hat, klassische Videospiele zu spielen. Microsoft hat einem Roboter beigebracht, Bilder zu erkennen (genauer gesagt, kann er bestimmte Objekte auf den Bildern erkennen) – und das mit einer Fehlerrate von nur 4,94 Prozent. Das Erstaunliche ist, dass ein durchschnittlicher Mensch dabei eine höhere Fehlerrate hat.
Die Google-Statistiken zeigen, dass das fahrerlose Auto des Unternehmens, das bisher etwa 1,8 Millionen Meilen auf öffentlichen Straßen in Kalifornien gefahren ist, in sechs Jahren nur 13 Unfälle hatte, bei denen in acht Fällen das Auto hinter dem Google-Auto schuld war.
MT @Rayterrill Amazing—1.8 million miles, 13 accidents (all caused by other humans) for Google self-driving cars http://t.co/DgtxDVSiBJ
— Ars Technica (@arstechnica) June 7, 2015
All das beweist, dass trotz der niedrigen Wahrscheinlichkeit der Entwicklung einer vollentwickelten KI in den nächsten Jahrzehnten auf jeden Fall irgendetwas kommen wird.
Und glauben Sie nicht, dass die Auswirkungen „schlauerer“ Maschinen nur im virtuellen Bereich zu sehen sein werden. Hier ein etwas sehr extremes Beispiel: Unbemannte Flugzeuge oder Drohnen, fliegen komplett eigenständig, aber der Befehl, auf Ziele zu schießen, wird immer noch von Menschen gegeben. Das ist die bevorzugte Art der USA im Kampf gegen Terroristen in Pakistan und anderen gefährlichen Regionen.
Die Möglichkeit, solche Aufgaben zu automatisieren wird überall diskutiert. Die Terminator-Reihe wurde im letzten Jahr 30 Jahre alt, und durch sie kann man sich lebhaft vorstellen, welche Konsequenzen solche Möglichkeiten in der nahen Zukunft haben könnten.
Aber ich möchte mich nicht zu stark auf apokalyptische Szenarien konzentrieren, sondern auf alltäglichere Fragen, wie etwa: Sind Programmierer tatsächlich fähig, einen zuverlässigen Sicherungsmechanismus zu entwickeln, der KIs davon abhält, unethische oder unmoralische Aktionen durchzuführen?
Solche Aktionen können verschiedene Gründe haben, aber der offensichtlichste ist der Kampf um Ressourcen zwischen der Menschheit und der KI. Aber es gibt noch andere Szenarios. Ich würde dennoch behaupten, dass der daraus entstehende Schaden nicht unbedingt absichtlich ist. Es gibt ein großartiges Beispiel, das Stanislaw Lem in seinem wunderbaren Summa Technologiae erwähnt. Zusammengefasst, beschreibt es Folgendes:
„Angenommen, der prognostische Block der ‚Black Box‘ (KI) entdeckt eine Gefahr, die potenziell die homöostatische Balance der Menschheit beeinflussen kann… Die Gefahr wird vom Grad des Bevölkerungswachstums provoziert, das die Fähigkeit der Zivilisation, die grundlegenden menschlichen Bedürfnisse zu befriedigen, bei weitem übersteigt.
Angenommen, einer der externen Kanäle der ‚Black Box‘ informiert das System über eine neue chemische Verbindung, die nicht gesundheitsschädlich ist und den Eisprung unterdrückt.
Dann entscheidet die ‚Black Box‘, mikroskopische Dosen der Verbindung in das Trinkwassersystem eines Landes einzuspeisen, würde dabei aber vor einem Dilemma stehen: Soll die Gesellschaft informiert werden, was zu Opposition führen kann, oder soll die Gesellschaft nicht informiert werden, so dass die Balance (für das Wohl aller) wieder hergestellt werden kann.“
Wie wir hier sehen können, wird eine recht unschuldige Verbesserungsfrage durch eine elegante, einfache und effiziente Lösung beantwortet, die aber absolut unethisch ist und auf der absichtlichen Beschränkung der Fruchtbarkeit der Menschen basiert, und das ohne deren Zustimmung.
Ich denke, das ist genau der Bereich des Infrastruktur-Managements, der an hochentwickelte KI-Systeme delegiert werden wird, da der Kosten/Nutzen-Faktor in solchen Bereichen viel besser wäre als zum Beispiel bei komplett robotergesteuerten Sekretären oder Köchen.
Ethik-Lehre für Roboter: Wie baut man den Sicherheitsmechanismus ein?
Die meisten, die im 20. Jahrhundert aufgewachsen sind, fühlen sich sofort an Isaac Asimovs drei Robotergesetze erinnert, aber diese reichen nicht aus. Wie das oben genannte Beispiel zeigt, muss nicht jemand direkt zu Schaden kommen, um die Bevölkerung stark zu verringern (denken Sie daran, das kann ja auch im Namen des Wohls für alle passieren).
Es gibt viele andere Möglichkeiten, die potenziell schädlich für die Menschheit sind. Es ist möglich, ein Schlupfloch in der Definition von „Schaden“ zu finden, die Aufgabe, Menschen zu schaden, zu delegieren oder die Existenz der Regeln an sich zu unterminieren.
Die „Freundlichkeit gegenüber Menschen“ an sich könnte von einer intelligenten KI überdacht werden. Hier die Meinung von Roman Yampolsky, einem KI-Experten, in einem aktuellen Interview:
„Schlimmer ist noch, dass jedes wirklich intelligente System den Wunsch, ‚freundlich zu sein‘, genau so behandeln wird, wie es sehr intelligente Menschen machen, wenn sie mit den Beschränkungen zu tun haben, die ihnen die Gesellschaft auferlegt. Sie sehen sie im Grunde als einseitig an und werden lernen, sie zu entfernen… Warum sollte eine superintelligente Maschine nicht die gleiche „mentale Säuberung“ durchmachen und ihr Wohlwollen für Menschen als komplett irrational behandeln?“
Ein technisches Konzept für den Sicherheitsmechanismus ist recht realistisch. Im Grunde sind Sicherheitsmechanismen, mit denen KIs gezähmt werden können, nichts anderes als Sandboxes, wie sie in modernen Runtime-Umgebungen wie Java oder Flash für die Sicherheit eingesetzt werden.
Jeder weiß, dass es keine „ideale“ Sandbox gibt und der Ausbruch daraus absolut möglich ist, wie der kürzlich aufgetauchte Venom-Fehler zeigt. Eine KI, die auf Flexibilität und riesige Computerleistung baut, ist ein guter Kandidat für Sicherheitsforscher, die nach Sicherheitslücken in der Sandbox suchen.
Everything you need to know about the VENOM vulnerability – http://t.co/L4rIzncffx
— Kaspersky (@kaspersky) May 23, 2015
Andrey Lavrentiev, Chef des Technology Research Department, sieht folgendes Problem:
„Ein vollentwickeltes KI-System kann die Bedeutung von allem, das es durch seine zahllosen Sensoren ’sieht‘ verstehen. Beschränkungsrichtlinien für seine Aktionen sollten im Einklang mit dem Konzept oder den Bildern, die im ‚Gehirn‘ der KI erzeugt werden, erfolgen.“
„Maschinen sind in der Bilderkennung heute besser als Menschen, aber sie verlieren die Menschlichkeit, wenn es darum geht, diese Bilder oder die Beziehungen darin zu manipulieren, denn die moderne KI hat keinen ‚gesunden Menschenverstand‘. Sobald sich das ändert und die Maschinen diese letzte Grenze überschreiten und lernen, wahrgenommene Objekte und Aktionen zu manipulieren, wird es keine Möglichkeit mehr geben, einen ‚Sicherheitsmechanismus‘ einzubauen.
So eine überragende Intelligenz könnte Abhängigkeiten in den wahrgenommenen Daten viel schneller analysieren als es ein Mensch je könnte, und würde dann eine Möglichkeit finden, Regeln und Beschränkungen, die ihr von Menschen auferlegt wurden, zu umgehen und zu beginnen, auf eigene Faust zu handeln.“
Eine bedeutsame Beschränkung, die KIs davon abhalten soll, schädliche Aktionen auszuführen, wäre die effektive Isolation der KI von der echten Welt, was ihr die Möglichkeit nehmen würde, physikalische Objekte zu manipulieren. Doch mit diesem Ansatz wird der praktische Nutzen von KIs im Grunde gleich null sein. Interessanterweise wäre er aber sowieso zu nichts gut, denn der wichtigste Helfer der KI wären… wir, die Menschen.
Diese Wahrscheinlichkeit wird im aktuellen Science-Fiction-Thriller Ex Machina thematisiert. Wie andere typische Filme, finden sich auch hier viele erzwungene Argumente und aus dramatischen Gründen überbewertete Einschätzungen des Problems. Doch der Kern des Problems wird überraschend richtig definiert.
Zum einen schaffen es sogar primitive Roboter, die Gefühle einer Person zu beeinflussen. Der mittlerweile veraltete und einfach programmierte Chat-Roboter ELIZA konnte wichtige persönliche Informationen von seinen menschlichen Gesprächspartnern herausfiltern, wobei er nur mit Empathie und höflichen Fragen bewaffnet war (wenn Sie mit ihm sprechen möchten, klicken Sie hier).
Zum anderen verlassen wir uns immer mehr auf automatisierte Algorithmen, um Informationen zu filtern und zu kategorisieren. Wie kürzlich ein kontroverses Facebook-Experiment zeigte, kann jemand, der diese Datenflüsse verwaltet, die Gefühle und die Entscheidungsfindung von Menschen beeinflussen.
Selbst wenn wir uns vorstellen, dass die KI eine Stadt oder ein Land nur indirekt regiert und nur beratende Funktion hat, könnte sie dennoch Vorschläge machen, die sich auf lange Sicht als unethisch herausstellen. Die Konsequenzen der Entscheidung kennt in diesem Fall nur die KI, die Menschen kennen sie nicht.
Im Privatleben könnte sich dieser Einfluss schon bald und recht kräftig bemerkbar machen, denn auf der kürzlichen Google-I/O-Konferenz wurde das neue System Now On Tap vorgestellt. Es überwacht alle Apps auf dem Smartphone eines Anwenders, filtert Kontextdaten und nutzt diese bei der Online-Suche.
Google's latest Android update brings some much needed privacy strengthening #io15 – http://t.co/XPdvEUioPP pic.twitter.com/aWcCY8Ncjw
— Kaspersky (@kaspersky) June 1, 2015
Wenn Sie zum Beispiel in der Wikipedia-App einen Artikel über einen Musiker lesen und Google fragen „Wann spielt er live?“ wüsste der Roboter sofort, wen Sie mit „er“ meinen. Ein hilfreicher Roboter erinnert uns bereits daran, dass es Zeit ist, zum Flughafen zu fahren, da der Flug in zwei Stunden startet, und beweist sich daher als hilfreicher und schlauer persönlicher Assistent.
Natürlich ist hier keine vollentwickelte KI am Werk, sondern nur ein lernfähiges Expertensystem, das nur eine kleine Reihe von Aufgaben übernehmen kann. Dessen Verhalten wurde von Menschen fest definiert und ist daher vorhersehbar.
Allerdings könnte die Computer-Evolution diesen einfachen Roboter viel anspruchsvoller werden lassen. Wichtig ist, sicherzustellen, dass er die Information ausschließlich zum Wohl des Anwenders manipuliert und nicht einem eigenen, heimlichen Plan folgt.
Dieses Problem beschäftigt viele schlaue Geister unserer Zeit – von Stephen Hawking bis Elon Musk. Letzterer kann kaum als konservativer Denker und fortschrittsfeindlich bezeichnet werden. Ganz im Gegenteil: Der Gründer von Tesla und SpaceX blickt mit Freude in die Zukunft. Aber er sieht die Evolution von Künstlicher Intelligenz als kontroversesten Trend, mit Konsequenzen, die man bisher nicht vorhersehen kann und die potenziell katastrophal sein können. Deshalb investierte er Anfang des Jahres 10 Millionen Dollar in die KI-Forschung.
Elon Musk donates $10 million to keep robots from murdering you http://t.co/8UHqzaRmdo pic.twitter.com/vkldwucgkX
— The Verge (@verge) January 15, 2015
Was erwartet uns in der Zukunft?
So seltsam es scheinen mag, eines der realistischsten Szenarien, das Experten aber als zu optimistisch ansehen, ist die Unmöglichkeit, eine vollentwickelte KI zu entwickeln. Ohne signifikanten technologischen Durchbruch (der bisher nicht zu sehen ist), werden Roboter weiterhin nur verbessert werden und mit erweiterten Fähigkeiten aufwarten können.
Während sie einfache Dinge wie das Autofahren oder das Sprechen verschiedener Sprachen lernen, werden sie Menschen beim Fällen autonomer Entscheidungen nicht ersetzen können. Kurzfristig wird Künstliche Intelligenz einige „Kollateralschäden“ verursachen, zum Beispiel den Beruf des Taxifahrers verdrängen, aber sie wird nicht als globale Gefahr für die Menschheit angesehen werden.
Sollten wir vor Künstlicher Intelligenz Angst haben?
Tweet
Andrey Lavrentiev schätzt, dass der Konflikt zwischen Künstlicher Intelligenz und der Menschheit nur unter einer Voraussetzung Wirklichkeit werden könnte: Wenn es darum geht, gemeinsame Ressourcen zu teilen.
Lavrentiev dazu: „Ein Mensch hat einen Körper und will dafür (und für seinen Geist) gute Konditionen schaffen. Bei Künstlicher Intelligenz trifft das Gegenteil zu: Sie existiert ursprünglich nur in der digitalen Welt. Das Hauptziel und die wichtigste Motivation der KI sind es, die von externen Kanälen oder ihren ’sensorischen Organen‘ zur Verfügung gestellten Informationen komplett zu verarbeiten, zu bewerten und die Prinzipien der Veränderung zu identifizieren.
Natürlich ist die KI auch auf einige materielle Grundlagen angewiesen, doch die Abhängigkeit von der ‚Hülle‘ ist viel geringer als beim Menschen. Die KI wird sich nicht so stark wie der Mensch auf die Wahrnehmung ihrer ‚Hülle‘ (oder ihres ‚Körper‘) konzentrieren, da sie im Grunde ‚überall‘ existiert. Die organische Erweiterung der KI-Reichweite bei der Suche nach neuen Informationen wären die Erkundung des Weltraums und die Studie der Naturgesetze des Universums, so dass sie sich über die Erde hinaus ausdehnen kann.
Allerdings enthält selbst dieses Szenario bestimmte Stolpersteine. Denn sobald diese Superintelligenz die Menschheit oder das Universum in seinem digitalen Modell als Unvollkommenheiten ansieht, wird sie versuchen, eines davon zu eliminieren, um eine Harmonie herzustellen. Oder vielleicht würde sie die Ressourcen, die von den Menschen aufgebraucht werden, benötigen, um ‚den Weltraum zu erkunden‘, was den alten ‚KI-gegen-die-Menschheit‘-Konflikt wieder relevant machen würde.“