Ich bin inzwischen ein wenig genervt von all den Nachrichten über künstliche Intelligenz, aber ich denke, ich werde mich wohl noch ein wenig länger damit abfinden müssen, da sicher noch mindestens ein oder zwei Jahre lang ununterbrochen darüber gesprochen werden wird. Die Entwicklung der KI wird dann natürlich nicht aufhören; nur werden Journalisten, Blogger, TikToker, Twitterer und andere Berichterstatter dieses Thema irgendwann satthaben. Doch im Moment wird ihr Eifer nicht nur von den Tech-Giganten angeheizt, sondern auch von den Regierungen: So plant Großbritannien die Einführung einer dreigleisigen KI-Regulierung; China hat den Entwurf eines KI-Gesetzes zur öffentlichen Debatte gestellt; die USA fordern eine „algorithmische Verantwortlichkeit„; die EU debattiert, verabschiedet jedoch bislang keine Gesetzesentwürfe in diesem Bereich, usw. usf. Die Zukunft verspricht Großes, doch bisher wurden die Entwicklung und der Einsatz von KI-Systemen in keinster Weise eingeschränkt; wie es aussieht, wird sich das jedoch bald ändern.
Eine Frage, über die sich streiten lässt, ist folgende: Brauchen wir überhaupt eine staatliche KI-Regulierung? Wenn ja – warum, und wie sollte diese aussehen?
Was sollte reguliert werden?
Was ist künstliche Intelligenz? Tatsächlich wird der Begriff mittlerweile für viele Dinge verwendet – den Marketing-Abteilungen sei Dank (wenn man in diesem Fall überhaupt von „Dank“ sprechen kann) – von hochmodernen generativen Modellen wie GPT-4 bis hin zu den einfachsten maschinellen Lernsystemen, die teilweise schon seit Jahrzehnten existieren. Erinnern Sie sich noch an Т9 auf Tastenhandys? Haben Sie schon von der automatischen Klassifizierung von Spam und schädlichen Dateien gehört? Werfen Sie einen Blick auf die Filmempfehlungen auf Netflix? All diese bekannten Technologien basieren auf maschinellen Lernalgorithmen (ML), auch bekannt als „KI“.
Wir bei Kaspersky setzen solche Technologien seit fast 20 Jahren in unseren Produkten ein, wobei wir die Bezeichnung „maschinelles Lernen“ vorziehen – schon allein deshalb, weil der Begriff „künstliche Intelligenz“ die meisten Menschen an sprechende Supercomputer in Raumschiffen und andere Dinge aus Science-Fiction-Filmen erinnert. Allerdings müssen solche sprechenden, denkenden Computer und Droiden voll und ganz zu einem menschenähnlichen Denken fähig sein, um künstliche allgemeine Intelligenz (AGI) oder künstliche Superintelligenz (ASI) zu beherrschen. Doch weder AGI noch ASI sind bisher erfunden worden und auch in absehbarer Zeit dürfte dies nicht geschehen.
Jedenfalls, wenn alle Arten der KI mit der gleichen Messlatte gemessen und vollständig reguliert werden, werden die gesamte IT-Industrie und viele verwandte Branchen nicht gut dabei wegkommen. Wenn wir (Kaspersky) zum Beispiel jemals die Zustimmung aller „Autoren“ unserer Trainingssets einholen müssten, stünden wir als Unternehmen für Informationssicherheit ziemlich blöd da. Wir lernen aus Malware und Spam und speisen das daraus gewonnene Wissen in unser maschinelles Lernsystem ein, während die betreffenden Urheber es in der Regel vorziehen, ihre Kontaktdaten zu verbergen (wer hätte das gedacht?!). Und wenn man bedenkt, dass wir bereits seit fast 20 Jahren Daten sammeln und unsere Algorithmen trainieren – wie weit in die Vergangenheit müssten wir dann eigentlich reisen?
Aus diesem Grund ist es wichtig, dass die Gesetzgeber nicht den Marketingexperten, sondern den Experten für maschinelles Lernen und KI Gehör schenken und eine mögliche Regulierung gezielt und zielgerichtet diskutieren: z. B. durch den Einsatz von Multifunktionssystemen, die auf großen Mengen offener Daten trainiert wurden, oder von Systemen, die Entscheidungen mit hohem Verantwortungs- und Risikoniveau treffen.
Neue KI-Anwendungen werden zudem eine häufige Überarbeitung der Vorschriften erfordern.
Wieso regulieren?
Wer unsere Artikel über die Vorzüge und Nachteile des maschinellen Lernens noch nicht gelesen hat, sei daran erinnert, dass es bei jeder KI drei wesentliche Probleme gibt:
- Es ist nicht klar, wie gut die für sie verwendeten Trainingsdaten waren/sind.
- Es ist völlig unklar, was die KI aus diesem Datenbestand „verstehen“ konnte, oder wie sie ihre Entscheidungen trifft.
- Und das Wichtigste: der Algorithmus kann sowohl von seinen Entwicklern als auch von seinen Nutzern missbräuchlich verwendet werden.
So kann vom böswilligen Missbrauch der KI bis zur unreflektierten Befolgung von KI-Entscheidungen praktisch alles passieren. Hier nur einige Beispiele aus dem realen Leben: fatale Fehler von Autopiloten; Deepfakes (1, 2, 3), die mittlerweile in Memes und sogar in den Nachrichten zu finden sind; ein blöder Fehler bei der Einstellung von Lehrkräften; die Festnahme eines Ladendiebs durch die Polizei, der sich allerdings als der Falsche herausstellt; und ein frauenfeindliches KI-Rekrutierungstool. Darüber hinaus kann jede KI mit Hilfe maßgeschneiderter feindlicher Datensamples angegriffen werden: Fahrzeuge können mit Aufklebern ausgetrickst werden, aus GPT-3 können persönliche Informationen extrahiert werden, und auch Anti-Virus oder EDR können getäuscht werden. Nebenbei bemerkt: Angriffe auf die KI von Kampfdrohnen, wie sie in Science-Fiction-Filmen beschrieben werden, scheinen gar nicht mehr so weit hergeholt zu sein.
Zusammenfassend lässt sich sagen, dass der Einsatz von KI noch keine wirklich massiven Probleme verursacht hat, das Potenzial dafür aber eindeutig vorhanden ist. Die Prioritäten der Regulierung sollten daher klar sein:
- Zwischenfälle bei kritischen Infrastrukturen (Fabriken/Schiffe/Stromübertragungsleitungen/Kernkraftwerke) müssen verhindert werden.
- Physische Bedrohungen (fahrerlose Fahrzeuge, Fehldiagnosen von Krankheiten) müssen minimiert werden.
- Persönliche Schäden und Geschäftsrisiken (Festnahmen oder Einstellungen aufgrund von Schädelmessungen, der falschen Einschätzung von Nachfrage/Beschaffung usw.) müssen minimiert werden.
Die Regulierung sollte darauf abzielen, Nutzer und KI-Anbieter durch entsprechende Maßnahmen gleichermaßen dazu zu verpflichten, das Risiko, dass solche negativen Ereignisse eintreten, möglichst gering zu halten. Und je größer das Risiko ist, desto aktiver sollten sie dazu gezwungen werden.
Es gibt noch eine andere Sorge, die oft im Zusammenhang mit KI geäußert wird: die Notwendigkeit, moralische und ethische Normen einzuhalten und sozusagen für psychologischen Komfort zu sorgen. In diesem Zusammenhang werden Warnungen ausgegeben, die darauf hinweisen, dass es sich um ein nicht existierendes (von der KI entworfenes) Objekt handelt oder dass man mit einem Roboter und nicht mit einem Menschen kommuniziert, sowie Hinweise darauf, dass bei der Schulung der KI das Urheberrecht beachtet wurde, usw. Aber wozu überhaupt? Damit Gesetzgeber und KI-Anbieter nicht zur Zielscheibe eines aufgebrachten Haufens werden! Und das ist in einigen Teilen der Welt ein sehr reales Anliegen (denken Sie beispielsweise an die Proteste gegen Uber).
Regulierung, aber wie?
Der einfachste Weg, die KI zu regulieren, bestünde darin, sie komplett zu verbieten, aber dieser Ansatz scheint noch nicht auf dem Tisch zu liegen. Zudem ist es nicht viel leichter, KI zu verbieten als Computer. Alle vernünftigen Regulierungsversuche sollten daher dem Grundsatz „je größer das Risiko, desto strenger die Auflagen“ folgen.
Die maschinellen Lernmodelle, die für etwas recht Banales – wie Kaufempfehlungen im Einzelhandel – verwendet werden, können ohne Regulierung auskommen, aber je ausgefeilter das Modell – oder je sensibler der Anwendungsbereich – desto drastischer die Anforderungen an Systemanbieter und Nutzer. Zum Beispiel:
- Vorlage des Codes oder des Trainingsdatensatzes eines Modells zur Prüfung durch Regulierungsbehörden oder Experten.
- Nachweis der Stabilität eines Trainingsdatensatzes, auch in Bezug auf Voreingenommenheit, Urheberrecht und so weiter.
- Nachweis der Sinnhaftigkeit des KI-„Outputs“, frei von Hirngespinsten.
- Kennzeichnung von KI-Vorgängen und -Ergebnissen.
- Aktualisierung eines Modells und eines Trainingsdatensatzes, z. B. das Herausfiltern von Menschen mit einer bestimmten Hautfarbe aus den Quelldaten oder das Ausblenden chemischer Formeln für Sprengstoffe in der Ausgabe des Modells.
- Testen der KI auf „schädliche Daten“ und Aktualisieren ihres Verhaltens, falls erforderlich.
- Kontrolle dessen, wer eine bestimmte KI benutzt und warum. Ablehnung bestimmter Arten der Nutzung.
- Training großer KI oder von KI, die für ein bestimmtes Gebiet gilt, nur mit Genehmigung der Aufsichtsbehörde.
- Nachweis, dass der Einsatz von KI zur Lösung eines bestimmten Problems sicher ist. Diese Vorgehensweise ist für die IT-Branche sehr exotisch, aber beispielsweise Pharmaunternehmen, Flugzeugherstellern und vielen anderen Branchen, in denen Sicherheit an erster Stelle steht, mehr als vertraut. Zunächst müssten fünf Jahre lang eingehende Tests erfolgen, gefolgt von der Genehmigung der Aufsichtsbehörde, und erst dann könnte ein Produkt für den allgemeinen Gebrauch freigegeben werden.
Diese letzte Maßnahme erscheint übermäßig strikt, aber nur so lange, bis man über Zwischenfälle erfährt, die dazu führten, dass KI die Behandlungsprioritäten für Patienten mit akutem Asthma und Lungenentzündung falsch festlegte und versuchte, sie lieber nach Hause als auf eine Intensivstation zu schicken.
Die Durchführungsmaßnahmen können von Geldstrafen für Verstöße gegen die KI-Vorschriften (ähnlich den europäischen Strafen für Verstöße gegen die DSGVO) bis hin zur Lizenzierung von KI-bezogenen Aktivitäten und strafrechtlichen Sanktionen für Verstöße gegen die Gesetzgebung (wie in China vorgeschlagen) reichen.
Wie geht es richtig?
Die folgende Zusammenfassung gibt meine persönliche Meinung wieder – sie basiert jedoch auf 30 Jahren aktiver Verfolgung fortschrittlicher technologischer Entwicklungen in der Cybersicherheitsbranche: von maschinellem Lernen bis hin zu „Secure-by-Design“-Systemen.
Erstens: Wir benötigen eine Regulierung – unbedingt. Ohne eine solche wird die KI am Ende wie eine Stadt ohne Verkehrsregeln aussehen. Oder, was noch relevanter ist, wie das Erfassen persönlicher Daten im Internet in den späten 2000er Jahren, als fast jeder alle Daten sammelte, die er in die Finger bekam. Vor allem aber fördert die Regulierung die Selbstdisziplin der Marktteilnehmer.
Andererseits müssen wir die internationale Harmonisierung und Zusammenarbeit bei der Regulierung maximieren – ähnlich wie bei den technischen Standards in der Mobilkommunikation, im Internet und so weiter. Angesichts der modernen geopolitischen Realität hört sich das vielleicht utopisch an, ist aber deshalb nicht weniger wünschenswert.
Drittens muss die Regulierung nicht zu streng sein: Es wäre kurzsichtig, eine dynamische junge Branche wie diese durch Überregulierung zu ersticken. Trotzdem brauchen wir einen Mechanismus für eine regelmäßige Überarbeitung der Regeln, um mit den Entwicklungen der Technologie und des Marktes Schritt halten zu können.
Viertens sollten die Regeln, die Risikostufen und die Höhe der Schutzmaßnahmen in Absprache mit einer großen Zahl einschlägig erfahrener Experten festgelegt werden.
Und fünftens: Wir brauchen keine zehn Jahre zu warten. Ich habe schon vor über einem Jahrzehnt auf die ernsthaften Risiken des Internet der Dinge und die Schwachstellen in industriellen Anlagen hingewiesen, während Gesetze wie das Gesetz über Cyberresilienz erst letztes Jahr (als Entwurf!) erschienen sind.
Aber genug der Worte, meine Damen und Herren! Und herzlichen Glückwunsch an diejenigen unter Ihnen, die diesen Artikel bis zum Ende gelesen haben – vielen Dank an Sie alle! Auf eine interessante – sichere – KI-gestützte Zukunft!…