Zum Hauptinhalt springen

Ist ChatGPT für den Anwender sicher? Grundlegende Informationen

Ist ChatGPT für den Anwender sicher? Grundlegende Informationen

Man kann mit Sicherheit sagen, dass ChatGPT und andere Formen der KI aufgrund ihrer vielfältigen Einsatzmöglichkeiten und ihres Potenzials, in viele Bereiche unseres Lebens vorzustoßen, einen revolutionären Schritt nach vorn darstellen. Bei aller Euphorie sollte man sich aber auch fragen, ob ChatGPT für einen selbst als Anwender auch sicher ist. In diesem Leitfaden haben wir für Sie alles Wissenswerte zu diesem Thema zusammengestellt.

Was ist ChatGPT?

Seine Erfinder definieren ChatGPT als „künstliche Intelligenz, die darauf trainiert ist, Menschen bei einer Vielzahl von Aufgaben zu unterstützen“. Im Wesentlichen handelt es sich um einen KI-gesteuerten Chatbot, der auf Benutzerfragen menschenähnliche Antworten generieren kann. ChatGPT basiert auf einem lernfähigen Algorithmus, der mit Millionen von Dokumenten trainiert wurde. Aufgrund des Sprachmodells, das ChatGPT verwendet, kann der Bot menschenähnliche Texte und Dialoge produzieren (bzw. mit Menschen ins Gespräch kommen oder chatten, daher das „Chat“ im Namen).

Einfachere Versionen sprachbasierter KI gibt es schon seit Jahren, aber ChatGPT ist bislang die erste wirklich ernst zu nehmende Variante. Geschaffen wurde ChatGPT von OpenAI, einem Unternehmen, das sich mit der Erforschung und Entwicklung von künstlicher Intelligenz beschäftigt.

Wofür steht ChatGPT?

Das GPT in ChatGPT steht für „Generative Pre-trained Transformer“.

Wofür ist ChatGPT gut?

Mit seinen leistungsstarken Funktionen zur Verarbeitung natürlicher Sprache und seiner Fähigkeit, im Handumdrehen personalisierte Antworten zu generieren, ist ChatGPT in allen möglichen Geschäftsbereichen einsetzbar, wie z. B. im Kundenservice, im Kundensupport oder bei der Automatisierung von Marketinginhalten. Einige gehen schon so weit zu sagen, das ChatGPT das Geschäftsleben komplett umkrempeln wird, obwohl noch gar nicht absehbar ist, wie genau oder inwieweit sich diese Technologie durchsetzen wird.

Auch für Einzelnutzer ist das Tool überaus nützlich. Mögliche Einsatzfelder von ChatGPT sind:

  • Zusammenfassung der zentralen Punkte oder Handlungsfelder eines Dokuments
  • Übersetzen von Texten in andere Sprachen
  • Schreiben oder Debuggen von Softwarecode
  • Antworten auf spezifische Anfragen
  • Anleitungen zur Bewältigung bestimmter Aufgaben
  • Komponieren von Musik oder Verfassen von Gedichten

ChatGPT spricht mehrere Sprachen und ist im Wesentlichen überall auf der Welt erhältlich (nur in einigen wenigen Ländern ist es aufgrund von Datenschutzgesetzen verboten). Da die Antworten von ChatGPT durch ein KI-Sprachmodell generiert werden, sind sie nicht immer korrekt oder erschöpfend. Daher sind die von ChatGPT bereitgestellten Informationen mit Vorsicht zu genießen und müssen über zusätzliche Quellen verifiziert werden.

Ist ChatGPT sicher?

Große Sorge bereitet die Frage, ob KI-Sprachmodelle wie ChatGPT in irgendeiner Form missbraucht werden können. Zu den möglichen Sicherheitsrisiken von ChatGPT gehören:

Spam und Phishing

Eine der am weitesten verbreiteten Online-Bedrohungen ist Phishing. Phishing-Betrugsversuche sind immer wieder gut daran zu erkennen, dass sie schlecht geschrieben sind und Rechtschreibfehler oder unpassende Formulierungen enthalten. Zu diesen Fehler kommt es meist, wenn Betrüger Nachrichten in einer Sprache verfassen, die nicht ihre Muttersprache ist. Dank ChatGPT können Betrügern auf der ganzen Welt plötzlich fließend Englisch (oder in anderen Sprachen) schreiben oder sprechen, so dass ihre Phishing-Nachrichten glaubwürdiger und seriöser erscheinen. Die riesigen Datenmengen, mit denen das Modell gefüttert wurde, machen es den Betrügern darüber hinaus leichter denn je, überzeugende E-Mails im Stil des Unternehmens zu verfassen, in dessen Namen sie auftreten.

Oder sie könnten die Technologie von OpenAI nutzen, um einen vermeintlichen Kundenservice-Chatbot zu programmieren, der so überzeugend auftritt, dass er nichts ahnenden Kunden das Geld aus der Tasche zieht.

Datenlecks

Im März 2023 erkannte OpenAI, das Unternehmen, das ChatGPT entwickelt hat, ein Problem, woraufhin ChatGPT mehrere Stunden lang nicht erreichbar war. Während dieser Zeit war der Chat-Verlauf einiger ChatGPT-Benutzer für andere sichtbar. In einigen Berichten hieß es sogar, dass sich die Datenpanne auch auf die Zahlungsdaten der Abonnenten von ChatGPT Plus (einer erweiterten Bezahlversion der App) erstreckte.

OpenAI veröffentlichte einen Bericht über den Vorfall und behob die Ursache des Problems. Damit ist jedoch nicht ausgeschlossen, dass in Zukunft neue Probleme auftreten. Bei jedem Online-Service besteht die Gefahr, dass er das Interesse der wachsenden Zahl von Hackern weckt und es zu ungewollten Datenlecks und Verletzungen der Cybersicherheit kommt.

Bedenken hinsichtlich des Datenschutzes

Es bestehen durchaus berechtigte Bedenken, dass Daten missbräuchlich verwendet werden könnten. In den FAQs von ChatGPT empfiehlt OpenAI, keine sensiblen Informationen preiszugeben, und die Benutzer werden darauf hingewiesen, dass die Eingabeaufforderungen nicht löschbar sind. Gleichzeitig ist dort zu lesen, dass ChatGPT Unterhaltungen speichert und diese von OpenAI zu Trainingszwecken geprüft werden.

<

Eine Frau schaut auf ihr Mobiltelefon

Wegbereiter von Fake News und Fehlinformationen

Fehlinformationen, Desinformationen und Fake News können sich in Windeseile über das Internet verbreiten und auch ChatGPT, so befürchten einige, könnte in dieser Hinsicht zu einem Problem werden. ChatGPT generiert seine Antworten aufgrund von Informationen, die ihm eingetrichtert wurden und im Wesentlichen aus dem Internet stammen. Die App stellt aufgrund einer Wahrscheinlichkeitsrechnung eine Antwort als eine Folge von Wörtern zusammen. Da Fehlinformation und Desinformation im Internet an der Tagesordnung sind, besteht durchaus die Möglichkeit, dass ChatGPT mit falschen Informationen operiert. ChatGPT könnte auch dazu verwendet werden, sich als jemand anderes auszugeben und andere Personen zu manipulieren.

Einseitige Darstellung

Selbst wenn die Informationen korrekt sind, können sie politisch gefärbt oder anderweitig mit Vorurteilen belastet sein. Wie jedes maschinelle Lernmodell ist auch ChatGPT durch die Verzerrungen seiner Trainingsdaten geprägt. Wenn diese Daten nicht neutral sind, können auch die Ergebnisse nicht neutral sein – so können in die Antworten unfaire, diskriminierende oder sogar beleidigende Inhalte einfließen. ChatGPT hat Berichten zufolge Schritte unternommen, um politisch brisante Fragen zu erkennen und zu meiden. Trotzdem ist bei der Nutzung des Dienstes Vorsicht geboten, da Verzerrungen grundsätzlich möglich sind.

Identitätsdiebstahl und das Sammeln von Daten

Schadakteure können ChatGPT zur Erfassung und zum anschließenden Missbrauch von Informationen nutzen. Da der Chatbot anhand riesiger Datenmengen trainiert wurde, kennt er unzählige Informationen, mit denen sich Schaden anrichten ließe, wenn sie in die falschen Hände geraten. 

In einem Fall wurde ChatGPT zum Beispiel gefragt, wie das von einer bestimmten Bank verwendete IT-System heißt. Der Chatbot durchforstete alle öffentlich zugänglichen Quellen und gab eine Liste der verschiedenen IT-Systeme aus, die die betreffende Bank verwendet. In dieser Art und Weise könnte auch ein Schadakteur ChatGPT nutzen, um nach Informationen zu suchen, die er missbrauchen könnte.  

Um diese Bedenken zu zerstreuen, hat OpenAI Schritte zur Absicherung seiner Sprachmodelle unternommen. Dazu gehören strenge Zugriffskontrollen, um zu verhindern, dass Unbefugte in die Systeme eindringen, sowie die Aufstellung ethischer Standards für die Entwicklung und Nutzung von KI. Letztere beinhalten eine Verpflichtung zum verantwortungsvollen Umgang mit der Technologie sowie zu Transparenz und Fairness.

Missbrauch von ChatGPT zum Schreiben von Schadcode

ChatGPT kann auch Softwareprogramme schreiben, allerdings ist die KI so eingestellt, dass sie die Generierung von Schadcode oder Code für Hacking-Zwecke unterbindet. Fordert trotzdem jemand einen Hacking-Code an, teilt ChatGPT dem Benutzer mit, dass sein Zweck darin besteht, „bei nützlichen und ethisch vertretbaren Aufgaben zu helfen und dabei ethische Richtlinien und Grundsätze einzuhalten“.

Eine Manipulation von ChatGPT ist jedoch nicht unmöglich, und mit genügend Wissen und Kreativität lassen sich die Sicherheitsmechanismen der KI so weit ausschalten, dass doch ein Hacking-Code erzeugt wird. In einschlägigen Foren berichten Hacker, dass sie den Chatbot testen, um Malware-Stämme zu erzeugen. Da diese Threads öffentlich zugänglich waren, ist zu erwarten, dass es im Darknet noch einige mehr davon gibt. Weit weniger im Fokus steht die Möglichkeit, dass ChatGPT selbst gehackt werden könnte. In einem solchen Fall könnten Bedrohungsakteure die KI zur Verbreitung von Fehlinformationen nutzen.

Betrugsmaschen mit ChatGPT

Wann immer eine neue Technologie oder Plattform auftaucht, sind auch geldgierige Cyberkriminelle und neue Betrugsmaschen nicht weit. ChatGPT ist schon mit seiner Einführung auf großes Interesse gestoßen. Daher ist es nicht verwunderlich, dass auch schnell gefälschte ChatGPT-Apps aufgetaucht sind, um Malware-Programme zu verbreiten, die Ihre Passwörter und Ihr Geld zu stehlen versuchen. Um den Benutzern diese gefälschten Apps schmackhaft zu machen, werben die Angreifer mit kostenlosen Programmen, unbegrenztem schnellem Zugang, den neuesten Funktionen usw.

Und wie immer gilt auch hier: Wenn etwas zu schön ist, um wahr zu sein, dann ist es das wahrscheinlich auch nicht. Seien Sie vor ChatGPT-Angeboten auf der Hut, die über die sozialen Medien oder per E-Mail beworben werden. Und hüten Sie sich vor Apps, die als ChatGPT-Anwendungen daherkommen. Um ChatGPT auf Ihrem Handy zu nutzen, können Sie entweder über Ihren mobilen Browser gehen oder die offizielle App installieren.

ChatGPT unterstützt auch Cybersicherheitsexperten

Als eine der ersten öffentlich zugänglichen KI-Anwendungen mit guten Sprachkenntnissen hat ChatGPT viele Diskussionen über seine Chancen und potenziellen Risiken ausgelöst. Wie bei jeder neuen Technologie ist auch hier Vorsicht geboten. In der anfänglichen Euphorie vergisst man leicht, dass man es mit einem Online-Service zu tun hat, der ausgenutzt oder missbraucht werden kann.

Zur Wahrheit gehört aber auch, dass ChatGPT nicht nur Bedrohungsakteure bei ihren finsteren Machenschaften unterstützen, sondern auch zur Gefahrenabwehr eingesetzt werden kann. Tatsächlich nutzen Cybersicherheitsexperten ChatGPT für ihre Arbeit.

Mit einem VPN gehen Sie im Internet auf Nummer sicher

Wie auch immer Sie ChatGPT nutzen, mit einem VPN oder einer virtuellen privaten Netzwerkverbindung können Sie Ihre Online-Privatsphäre wahren. Ein VPN sorgt dafür, dass Ihre Internetverbindung anonym bleibt, indem es Ihre IP-Adresse verbirgt. So können Dritte Ihre Aktivitäten nicht mitverfolgen.

Wenn Sie Ihre IP-Adresse verbergen, sicher surfen und gleichzeitig Ihre Daten schützen möchten, ist ein VPN wie Kaspersky VPN Secure Connection das Richtige für Sie. Mit Kaspersky Secure Connection können Sie sicher und anonym im Internet surfen, und zwar in Geschwindigkeiten, die ihresgleichen suchen, sowie globale Inhalte uneingeschränkt und standortunabhängig genießen.

Weiteren Schutz bieten Ihnen ein Kennwort-Manager, der starke Zufallspasswörter für Sie generiert und sicher in einem digitalen Speicher verwahrt.

Weitere Produkte: 

Weitere Artikel: 

Ist ChatGPT für den Anwender sicher? Grundlegende Informationen

ChatGPT wirft eine ganze Reihe von Fragen zur Sicherheit und zum Datenschutz auf. Lesen Sie in unserem Leitfaden, wie sicher ChatGPT wirklich ist und ob Sie ChatGPT guten Gewissens nutzen können.
Kaspersky logo