19.10.2023 – Kategorie: IT-Sicherheit

ChatGPT: Diese Gefahren lauern bei der beruflichen Nutzung

ChatGPT Generative KIQuelle: Familiy Stock - Adobe Stock

Die Beliebtheit generativer KI-Dienste stellt Unternehmen vor die Frage, inwiefern sie Sprachmodellen sensible Unternehmensdaten anvertrauen können. Denn die berufliche ChatGPT-Nutzung bringt Datenschutzrisiken mit sich.

KI-basierte Dienste wie ChatGPT und Large Language Models (LLM) nutzen laut einer repräsentativen Umfrage inzwischen 46 Prozent der Berufstätigen in Deutschland in ihrem Arbeitsalltag. Durch deren Verwendung können sich aber drei grundsätzliche Gefahren für den Datenschutz ergeben.

Datenleck oder Hack seitens des Providers: Obwohl LLM-basierte Chatbots von großen Tech-Konzernen betrieben werden, sind sie nicht immun gegenüber Hackingangriffen oder unabsichtlichen Datenlecks. So gab es bereits einen Zwischenfall, bei dem ChatGPT-Nutzer Eingaben aus dem Nachrichtenverlauf anderer Nutzer sehen konnten.

Datenleck durch Chatbots: Theoretisch können die Chats verwendet werden, um neue Chatbot-Modelle zu trainieren. Nutzer sollten bedenken, dass LLMs anfällig gegenüber „unabsichtlicher Speicherung“ sind; das heißt: sie können sich einzigartige Sequenzen wie Handynummern merken, die nicht die Modellqualität verbessern, aber die Privatsphäre gefährden. Alle Daten, die Nutzer in den Trainingskorpus eingegeben, können bewusst oder unabsichtlich von Anwendern desselben Sprachmodells aufgerufen werden.

Hacking von Accounts: Angreifer können durch Phishing-Angriffe oder Credential Stuffing in Angestellten-Accounts eindringen und auf fremde Daten zugreifen. Außerdem findet die Kaspersky Digital Footprint Intelligence regelmäßig Darknet-Beiträge, die Chatbot Accounts zum Verkauf anbieten.

Sensibilisierung für die Risiken von Chatbots

Die Nutzungsbedingungen der Erfassung, Speicherung, und Verarbeitung von Daten bei KI-Tools sind im B2B-Bereich stärker auf Schutz ausgelegt als im B2C-Sektor. Die B2B-Lösungen speichern normalerweise keine Chatverläufe und in manchen Fällen werden auch keine Daten an den Unternehmensserver gesendet, da der Chatbot lokal im Kundennetzwerk operiert.

Anna Larkina, Sicherheits- und Datenschutzexpertin bei Kaspersky kommentiert: „Das Risiko für den Verlust sensibler Daten ist am höchsten, wenn Angestellte persönliche Accounts am Arbeitsplatz verwenden. Unternehmen sollten daher ihr Hauptaugenmerk darauflegen, Mitarbeiter für die Risiken der Chatbot-Nutzung zu sensibilisieren. Einerseits müssen diese verstehen, welche Daten vertraulich oder persönlich sind, oder ein Geschäftsgeheimnis darstellen und nicht an Chatbots weitergeleitet werden dürfen. Andererseits sollten Unternehmen klare Regeln für die Verwendung dieser Dienste aufstellen – wenn sie diese überhaupt zulassen.“

ChatGPT: Tipps zum Schutz der Privatsphäre im Unternehmen

  • Sichere und eindeutige Passwörter für jeden einzelnen Online-Account verwenden und dabei leicht zu erratende Informationen wie Geburtstage oder Namen vermeiden.
  • Vorsicht bei unaufgeforderten E-Mails, Nachrichten oder Anrufen, in denen nach persönlichen Daten gefragt wird. Die Identität des Absenders überprüfen, bevor sensible Daten weitergeben werden.
  • Mitarbeiter über die neuen Online-Bedrohungen und Best Practices zum Schutz im Internet informieren.
  • Betriebssystem, Anwendungen und Antivirenprogramme regelmäßig durch Updates und Sicherheitspatches auf den neuesten Stand bringen.
  • Sensible Informationen niemals mit Dritten über Social-Media-Kanäle teilen.
  • Legitimität der URL-Adresse des Online-Händlers prüfen.

Eine Sicherheitslösung mit Cloud-Service-Analytik, wie sie Kaspersky mit Endpoint Security Cloud anbietet, unterstützt die Verwaltung von Cloud-Diensten. Zudem ermöglicht diese die Bewertung von Risiken bei Nutzung von ChatGPT und anderen Chatbots. (sg)


Teilen Sie die Meldung „ChatGPT: Diese Gefahren lauern bei der beruflichen Nutzung“ mit Ihren Kontakten:


Scroll to Top