Umsichtigen und verantwortungsbewussten Einsatz von KI-Technologien fördern
Kaspersky hat den KI-Pakt [1] der Europäischen Kommission unterzeichnet. Die Initiative zielt darauf ab, Organisationen bei der Vorbereitung auf die Umsetzung des KI-Gesetzes [2] zu unterstützen. Es handelt sich dabei um das erste vollumfängliche gesetzliche Rahmenwerk zu Künstlicher Intelligenz (KI) weltweit; es wurde von der Europäischen Union (EU) verabschiedet. Kasperskys Unterschrift unterstreicht das Engagement des Unternehmens, unter dem bedeutenden Gesichtspunkt der Cybersicherheit den umsichtigen und verantwortungsbewussten Einsatz von KI-Technologien zu fördern und zu vereinfachen.
Das KI-Gesetz der EU (EU AI Act) soll vertrauenswürdige KI in Europa und darüber hinaus fördern. Es verlangt, dass KI-Technologien bestimmten Sicherheits- und ethischen Prinzipien entsprechen und verbundene Risiken adressiert werden. Das im Jahr 2024 verabschiedete KI-Gesetz wird ab Mitte 2026 voll in Kraft treten [2]. Der KI-Pakt möchte dabei die Übergangsphase hin zur neuen Regulierung erleichtern und lädt Unternehmen daher dazu ein, proaktiv an der Umsetzung der wesentlichen Bestimmungen des KI-Gesetzes zu arbeiten.
Durch die Unterzeichnung des KI-Pakts hat sich Kaspersky zu drei zentralen Punkten für den Einsatz von KI-Technologien verpflichtet:
- Annahme einer KI-Governance-Strategie, um die Einführung von KI im Unternehmen zu fördern und auf die künftige Einhaltung des KI-Gesetzes hinzuarbeiten;
- Bestandsaufnahme von KI-Systemen, die in Bereichen bereitgestellt oder eingesetzt werden, die nach dem KI-Gesetz als hochriskant eingestuft werden;
- Förderung des KI-Bewusstseins und der KI-Kompetenz unter den Mitarbeitern und weiterer Personen, die mit KI-Systemen im Namen von Kaspersky zu tun haben, unter Berücksichtigung deren technischer Expertise, Erfahrung, Aus- und Weiterbildung sowie des Kontexts, in dem KI-Systeme eingesetzt werden.
Zusätzlich wird Kaspersky eine Analyse der vorhersehbaren Risiken für die Rechte von Personen erstellen, die durch den Einsatz von KI-Systemen beeinträchtigt werden könnten. Der Cybersicherheitsanbieter möchte sicherstellen, dass Einzelpersonen informiert werden, wenn sie direkt mit einem KI-System interagieren, und Mitarbeiter über den Einsatz von KI-Systemen am Arbeitsplatz instruieren.
„Als Zeugen eines rasanten Einsatzes von KI-Technologien ist es von entscheidender Bedeutung sicherzustellen, dass dieser Innovationsschub mit einem adäquaten Risikomanagement einhergeht“. kommentiert Eugene Kaspersky, Gründer und CEO von Kaspersky. „Wir setzen uns seit Jahren als Botschafter für KI-Kompetenzen und das Teilen von Wissen und Erkenntnissen rund um KI-bezogene Risiken und Bedrohungen ein. Daher freuen wir uns, Teil einer Gruppe von Organisationen zu sein, die Unternehmen dabei unterstützen, verantwortungsvoll und sicher von den Vorteilen, die KI bietet, zu profitieren. Wir werden auch zukünftig an der Entwicklung transparenter und ethischer KI-Praktiken arbeiten und darüber zu einem größeren Vertrauen in diese Technologie beitragen.“
Kaspersky verfügt über umfangreiche Expertise im Einsatz von KI-Technologien in seinen eigenen Schutztechnologien. Seit fast 20 Jahren nutzt das Unternehmen KI-gestützte Automatisierungen, um die Sicherheit und Privatsphäre seiner Kunden zu stärken und ein breites Spektrum an Cyberbedrohungen zu erkennen. Im Zuge des zunehmenden Einsatzes von KI-Systemen verpflichtet sich Kaspersky dazu, seine im AI Technology Research Center gesammelte Expertise mit Unternehmen zu teilen, damit diese die Risiken, die mit dem Einsatz von KI-Systemen einhergehen, bestmöglich bewältigen können.
Leitfaden für sichere Entwicklung und Bereitstellung von KI-Systemen vorgestellt
Um Fachkräfte bei der Implementierung von KI-Systemen zu unterstützen und ihnen konkrete Empfehlungen für den sicheren Einsatz von KI an die Hand zu geben, haben die Experten von Kaspersky die „Guidelines for Secure Development and Deployment of AI Systems” [4] entwickelt. Dieser Leitfaden wurde auf dem UN Internet Governance Forum 2024 vorgestellt. Neben Sicherheitsaspekten betont Kaspersky darin die ethische Nutzung von KI-Technologien und Prinzipien für den ethischen Einsatz von KI-Systemen in der Cybersicherheit [5]. Kaspersky lädt andere Cybersicherheitshersteller dazu ein, sich diesen Prinzipien anzuschließen.
[1] https://digital-strategy.ec.europa.eu/de/policies/ai-pact#ecl-inpage-Voluntary-Pledges
[2] https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai
[3] Mit einzelnen in der Verordnung aufgeführten Ausnahmen: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689
Nützliche Links
- Kaspersky Leitfaden für sichere Entwicklung und Bereitstellung von KI-Systemen: https://content.kaspersky-labs.com/se/media/en/business-security/guidelines-for-secure-development-and-deployment-of-ai-systems.pdf
Über das Kaspersky
AI Technology Research Center
Die Experten im Kaspersky AI Technology Research Center arbeiten seit fast 20 Jahren mit KI im Bereich Cybersecurity und Secure AI, um ein breites Spektrum an Bedrohungen zu erkennen und abzuwehren. Das Team bringt auf seiner Forschung basierende KI-Expertise ein, um die Lösungen des Unternehmens zu verbessern. Dies reicht von KI-gestützter Bedrohungserkennung und Alarmtriage bis hin zu GenAI-gestützter Threat Intelligence.