Wie sehen Führungskräfte den Einsatz Künstlicher Intelligenz (KI) im eigenen Unternehmen? Gibt es Regeln oder werden Google Bard oder OpenAI ChatGPT im eigenen Unternehmen sicherheitskritisch und ohne Kontrolle angewendet? Eine aktuelle Kaspersky-Studie gibt Aufschluss darüber. Demnach möchte mehr als die Hälfte der Führungskräfte (55,2 Prozent), KI-Tools in Zukunft stärker nutzen und repetitive Aufgaben automatisieren.
Wie sehen Führungskräfte den Einsatz Künstlicher Intelligenz (KI) im eigenen Unternehmen? Gibt es Regeln oder werden Google Bard oder OpenAI ChatGPT im eigenen Unternehmen sicherheitskritisch und ohne Kontrolle angewendet? Eine aktuelle Kaspersky-Studie [1] gibt Aufschluss darüber. Demnach möchte mehr als die Hälfte der Führungskräfte (55,2 Prozent), KI-Tools in Zukunft stärker nutzen und repetitive Aufgaben automatisieren. Allerding scheint das Thema sichere Nutzung noch ausbaufähig zu sein: denn mehr als die Hälfte (54,8 Prozent) geht davon aus, dass die Mitarbeitenden im eigenen Unternehmen im Verborgenen, also unkontrolliert, KI-Lösungen bei der Arbeit nutzen.
Vor einiger Zeit waren Lösungen im Bereich generativer KI noch technologische Neuheiten, mit denen die Nutzer experimentieren konnten. Innerhalb kurzer Zeit hat sich die Technologie von einem Experiment jedoch zu einem wichtigen Arbeitswerkzeug in vielen Bereichen und Organisationen entwickelt. So plant laut aktueller Kaspersky-Studie auch mehr als die Hälfte der Führungskräfte (55,2 Prozent), KI-Tools in Zukunft stärker zu nutzen und repetitive Aufgaben, die ihre Mitarbeiter derzeit täglich erledigen, zu automatisieren. Darüber hinaus strebt ein Drittel (34,4 Prozent) der Befragten an, die IT- und Cybersicherheitsabteilungen mithilfe von generativer KI zu automatisieren.
Dabei scheint auch das Management noch in der Experimentierphase zu stecken. Auf die Frage, welche Themen auf C-Level-Ebene bezüglich generativer KI am in den vergangenen sechs Monaten am ehesten diskutiert wurden, gab nur jeder vierte Befragte (24,8 Prozent) an, sich C-Level mit Richtlinien beschäftigt zu haben, die festlegen, wie Mitarbeitende KI-Lösungen nutzen dürfen und wie hierbei mit Unternehmensdaten und personenbezogenen Informationen umzugehen ist. Dabei ist die Dynamik so groß und Risiken für die Datensicherheit von Unternehmen nicht mehr zu leugnen sind. Entsprechende Richtlinien wären jedoch von Bedeutung, da mehr als die Hälfte (54,8 Prozent) der Meinung sind, dass die eigenen Mitarbeitenden im Verborgenen, also unkontrolliert, KI-Lösungen bei der Arbeit nutzen.
Die Hälfte beunruhigt
möglicher Abfluss sensibler Daten
Denn um effektiv zu arbeiten, ist generative KI auf kontinuierliches Lernen
durch Dateneingabe angewiesen. Das bedeutet, dass alle Daten, die Mitarbeiter
in eine KI-Anwendung wie ChatGPT oder Bard eingeben, nach außen weitergegeben.
Daher ist auch nicht verwunderlich, dass die Hälfte der in Deutschland
befragten Führungskräfte (50,4 Prozent) Bedenken hat, dass Mitarbeiter bei der
Eingabe von Informationen in KI-Plattformen sensible Unternehmens- oder
Kundendaten preisgeben könnten.
Dennoch scheint die Aussicht auf den Verlust sensibler Daten und der Kontrolle über kritische Geschäftsbereiche die Unternehmensleitung nicht davon abzuhalten, weitere KI-Einsatzszenarien zu pushen – ohne über klare Sicherheitsrichtlinien innerhalb es eigenen Unternehmens zu verfügen. Dies birgt jedoch enorme Risiken für die Unternehmen. Bevor KI in großem Umfang eingesetzt wird, sollten die Verantwortlichen in den Unternehmen genau verstehen, wie die Nutzer die Daten verwenden, insbesondere im Zusammenhang mit generativer KI. Darüber hinaus sollte es Regelwerke geben, an denen sich die Mitarbeiter orientieren können.
„Ähnlich wie BYOD bietet generative KI enorme Produktivitätsvorteile für
Unternehmen. Aber während unsere Studie zeigt, dass Führungskräfte in den
Vorstandsetagen die Verwendung von KI in ihren Unternehmen akzeptieren, ist das
Ausmaß der Nutzung noch nicht umfassend geklärt. Da die rasante Entwicklung von
Künstlicher Intelligenz anhält, wird die deren unkontrollierte Verwendung
immer schwieriger zu kontrollieren und zu sichern. Das gilt in allen
wichtigen Unternehmensfunktionen wie HR, Finanzen, Marketing oder sogar der
IT“, so David Emm, Principal Security Researcher bei Kaspersky. „Bevor die
Technologie eingesetzt wird, ist es zwingend erforderlich, dass vor jeder weiteren
Integration von generativer KI in die Unternehmensumgebung ein umfassendes
Verständnis des Datenmanagements und die Implementierung robuster Richtlinien
vorhanden ist.“
Weitere Informationen zur Studie sind verfügbar unter https://media.kasperskydaily.com/wp-content/uploads/sites/86/2023/10/25123633/Report-ENG-Gen-AI-Business-Infiltration-Oct-2023-v2.2.pdf
[1] https://media.kasperskydaily.com/wp-content/uploads/sites/86/2023/10/25123633/Report-ENG-Gen-AI-Business-Infiltration-Oct-2023-v2.2.pdf
/ Die Studie wurde von Censuswide im Auftrag von Kaspersky zwischen dem 25.
September und dem 2. Oktober 2023 durchgeführt. Befragt wurden 1.863
Führungskräfte in Großbritannien, Frankreich, Deutschland, Spanien, Italien,
Rumänien, den Niederlanden und Griechenland; 250 stammten aus Deutschland.
Nützliche Links:
Kaspersky-Studie: “Gen AI Business Infiltration:
C-Level executives are sitting on an AI timebomb, aware of the risks, but too
complacent to act”: https://media.kasperskydaily.com/wp-content/uploads/sites/86/2023/10/25123633/Report-ENG-Gen-AI-Business-Infiltration-Oct-2023-v2.2.pdf