Auf dem diesjährigen NEXT-Event von Kaspersky wurden Forschungsergebnisse und Podiumsdiskussionen von einigen der bekanntesten europäischen Experten für Cybersicherheit und Künstliche Intelligenz präsentiert. Von Maschinellem Lernen und Künstlicher Intelligenz bis hin zur Sicherung des „Internet der Dinge“ haben wir auf der diesjährigen Veranstaltung am 14. Oktober in Lissabon fünf grundlegende Dinge gelernt.
Mithilfe Künstlicher Intelligenz zu einer fairen Welt
Haben Sie jemals darüber nachgedacht, wie viele Entscheidungen heutzutage tatsächlich von Maschinen getroffen werden? Oder wie viele dieser Entscheidungen auf dem Geschlecht, der Rasse oder der Herkunft einer Person basieren? Wahrscheinlich wissen Sie gar nicht, wie viele Entscheidungen nicht von einem Menschen, sondern von KI-Algorithmen getroffen werden. Kriti Sharma, Gründerin von AI for Good, erklärte, dass derartige Algorithmen tagtäglich verwendet werden, um darüber zu entscheiden, wer wir sind und was wir wollen.
Kriti ist davon überzeugt, dass Menschen mit unterschiedlichem Hintergrund, Geschlecht und ethnischer Zugehörigkeit zusammengebracht werden müssen, um die heutige künstliche Intelligenz nachhaltig zu verbessern. Hier ein kleiner Einblick in ihren Vortrag über den Einfluss menschlicher Vorurteile auf maschinelle Entscheidungen.
Geschlechterverteilung im Bereich KI
Denken Sie an Alexa, Siri und Cortana. Was haben all diese virtuellen Assistenten gemeinsam? Sie bedienen sich weiblicher Stimmen und sind zu gehorsamen Dienern „erzogen“ worden. Warum ist das so? Unterstützt oder verstärkt die Technologiebranche Klischees? In zwei Podiumsdiskussionen wurde die Verbindung zwischen Geschlecht und KI untersucht. Studien zufolge haben virtuelle Assistenten deshalb ausschließlich weibliche Stimmen, weil sich Menschen umgeben von weiblichen Stimmen scheinbar wohler fühlen. Ist auch das ein Spiegelbild unserer Gesellschaft?
Und was kann getan werden, um die Geschlechterungleichheit im Bereich der KI zu bekämpfen? Muss möglicherweise eine geschlechtsneutrale Stimme genutzt oder ein für Roboter und KI spezifisches Geschlecht erstellt werden?
https://twitter.com/kaspersky/status/1183739717965230087
Mehr Vetrauen in Roboter als in Menschen
Ein sozialer Roboter ist ein künstliches Intelligenzsystem, das mit Menschen und anderen Robotern interagiert – und das im Gegensatz zu Siri oder Cortana physisch präsent ist. Tony Balpaeme, Professor für Robotik an der Universität Gent, erklärte, wie sich die Probleme im Zusammenhang mit der Interaktion von Robotern und Menschen mit zunehmender Verbreitung von Robotern erhöhen werden.
Vor diesem Hintergrund beschrieb Balpaeme einige der wissenschaftlichen Experimente, die er und sein Team durchgeführt haben. So testeten sie beispielsweise die Möglichkeit, Menschen und Robotern vertrauliche Informationen (Geburtsdatum, Straße oder Stadt der Kindheit, Lieblingsfarbe usw.) zu entlocken, die zum Zurücksetzen von Passwörtern verwendet werden könnten. Das Lustige ist, dass Robotern mehr vertraut wird als Menschen, sodass die Wahrscheinlichkeit größer ist, dass ihnen deutlich mehr vertrauliche Daten und Informationen anvertraut werden.
Darüber hinaus präsentierte er ein Experiment im Rahmen eines physischen Zugriffs, bei dem eine mit der Sicherung eines Gebäudes beauftrage Gruppe von Menschen einem niedlichen Roboter unüberdacht Zugang gewährt. Es gibt keinen Grund anzunehmen, dass der Roboter sicher ist, aber Menschen gehen grundsätzlich davon aus, dass Roboter harmlose Spielzeuge sind – eine äußerst gefährliche Tendenz. Auf Securelist können Sie mehr über soziale Robotik und damit verwandte Experimente lesen.
https://twitter.com/kaspersky/status/1183683889514078209
Überzeugende Deepfakes via KI
David Jacoby, Mitglied von Kaspersky GReAT, sprach in seinem Vortrag über Social Engineering: Chat-Bots, KI und automatisierte Bedrohungen. Mit der Zeit könnten Gesichts- und Spracherkennungs-Apps durch Social Engineering oder andere Methoden der alten Schule ausgenutzt werden.
Jacoby sprach darüber hinaus über Deep Fakes, die immer schwieriger zu erkennen sind. Wie diese sich auf künftige Wahlen und Nachrichtensendungen auswirken können, ist ein wichtiges Anliegen.
Das größte Anliegen ist und bleibt allerdings das Vertrauen. Wem kann man vertrauen, sobald die Technologie erst einmal perfektioniert wurde? Die Lösung sei David Jacoby zufolge ein besseres Bewusstsein und neue Technologien, mit denen Benutzer gefälschte Videos besser differenzieren können.
Sicherheit in der Robotik
Dmitry Galov, ebenfalls Mitglied unseres GReAT, sprach über das ROS (Robot Operating System), ein flexibles Framework zum Schreiben von Robotersoftware. Wie viele andere Systeme wurde auch ROS nicht unter der Beachtung wichtiger Sicherheitsaspekte erstellt und enthält demnach erhebliche Sicherheitsprobleme. Bevor auf ROS basierende Produkte wie Sozialroboter und autonome Autos aus den Hörsälen und Aulen der Universitäten in die Hände der Verbraucher gelangen, müssen sich die Entwickler vorerst mit derartigen Problemen befassen. Tatsächlich ist eine neue Version von ROS bereits in der Mache. Weitere Informationen diesbezüglich finden Sie in Galovs Bericht.
Extratipp: Verwenden Sie USB-„Kondome“
Marco Preuss und Dan Demeter, Mitglieder von Kaspersky’s GReAT, sprachen darüber, wie sich Menschen auf Geschäftsreisen vor Hackerangriffen schützen können. Haben Sie jemals darüber nachgedacht, dass sich in Ihrem Hotelzimmer versteckte Kameras, Minispione und Spionspiegel befinden könnten?
Für leicht paranoid veranlagte Menschen, haben wir in diesem Beitrag einige Reisesicherheitstipps von Marco Preuss und Dan Demeter zusammengefasst. Die beiden sprachen auf dem NEXT-Event darüber hinaus über die mögliche Verwendung von USB-„Kondomen“; Ja, sie existieren tatsächlich und können Ihr Gerät beim Aufladen über einen unbekannten USB-Port schützten. Glücklicherweise sind diese im Gegensatz zu normalen Kondomen wiederverwendbar.
Wenn Sie mehr über die Ereignisse auf unserem NEXT-Event erfahren möchten, werfen Sie einen Blick auf unseren offiziellen Twitter-Account.