17.04.2023 – Kategorie: IT-Sicherheit
Bot Hacking: Wie Kriminelle die Übernahme von ChatGPT planen
Der Wettlauf um die Nutzung von ChatGPT für Cyberkriminalität hat laut einer Studie von NordVPN zu einem Anstieg von Bot-Hacking-Posts um 625 Prozent in Dark-Web-Foren geführt. Darin diskutieren Hacker darüber, wie sie den Chatbot manipulieren können.
Wie eine neue Studie des Cybersicherheits-Anbieters NordVPN zeigt, ist die Anzahl der neuen Beiträge zu Bot Hacking in Dark-Web-Foren von 120 im Januar auf 870 im Februar 2023. Dies ist ein Anstieg von 625 Prozent. Die Zahl der Forenbeiträge zu ChatGPT stieg innerhalb eines Monats um 145 Prozent von 37 auf 91. Hierbei ist zu beobachten, dass die Diskussionen um den Missbrauch des Bots zum heißesten Thema im Dark Web wurden.
Anfang Januar konzentrierten sich viele Threads zu Bot Hacking auf die Frage, wie böswillige Akteure ChatGPT dazu bringen könnten, einfache Malware zu produzieren, eine Schwachstelle, die inzwischen behoben wurde. Einen Monat später ging der Trend in der Hacker-Community hin zu aggressiveren Maßnahmen. In den Beiträgen skizzieren Cyberkriminelle Pläne, die Kontrolle über den Chatbot zu übernehmen. Und diesen zu nutzen, um Chaos zu stiften. Die Titel des Dark-Web-Forums (das vor normalen Suchmaschinen verborgen ist) beinhaltete unter anderem „How to break ChatGPT“, „ChatGPT jailbreak 2.0, ChatGPT – progression of malware“ und „ChatGPT as a phishing tool“.
Durch Bot Hacking Chatbots übernehmen
Mit ChatGPT könnten Kriminelle dessen künstliche Intelligenz nutzen, um Betrügereien, zum Beispiel Liebesschwindel, in industriellem Maßstab durchzuführen und mehrere Opfer gleichzeitig anzugreifen. Sobald ein Hacker den Chatbot übernommen hat, kann er dessen Sicherheitsbeschränkungen aufheben. Zudem kann er ihn zur Erstellung von Malware und Phishing-E-Mails oder zur Verbreitung von Hassreden und Propaganda nutzen.
„ChatGPT hat viele Türen in neue Welten eröffnet und sorgt für einen Umbruch in der Arbeitswelt, im Bildungswesen und wie wir mit Informationen umgehen. Wie jede neue Technologie lässt sie sich für positive Nutzungsmöglichkeiten, wie beispielsweise die Erkennung von Schwachstellen in Smart Contracts, nutzen“, sagt Marvin Petzolt, Experte für Cybersicherheit bei NordVPN und Nord Security.
„Gleichzeitig sind die Gefahren aber für Nutzer nicht unerheblich. Das zeigt auch die Untersuchung von NordVPN zum Anstieg der Forenbeiträge im Dark Web. So können Kriminelle die KI-gestützte Erkennung von Schwachstellen für boshafte Zwecke nutzen. Dazu gehört auch der Missbrauch des schnellen Findens und Zusammenfassen personenbezogener Informationen, um Firmen und Menschen gezielter anzugreifen. Noch gefährlicher ist die Umgehung von Sicherheitschecks und Filtern in ChatGPT und anderen KI-Anbietern, um das Programm zu rassistischen oder hetzerischen Aussagen zu verleiten“, so Petzolt.
Tipps zur Absicherung von Chatbots
Mit folgenden Maßnahmen können Unternehmen ihre Chatbots vor Bot Hacking schützen:
Nicht zu persönlich werden: KI-Chatbots sind so konzipiert, dass sie aus jedem Gespräch, das sie führen, lernen und so ihre Fähigkeiten zur menschlichen Interaktion verbessern. Aber auch ein genaueres Profil von Ihnen erstellen, das sich speichern lässt. Wenn Sie sich Sorgen darüber machen, wie Ihre Daten verwendet werden könnten, sollten Sie es vermeiden, dem Chatbot persönliche Informationen mitzuteilen. Achten Sie auch darauf, dass Sie online nur wenige oder gar keine persönlichen Informationen preisgeben. Denn die KI wird in der Regel mit öffentlich zugänglichen Informationen aus dem Internet trainiert. Das heißt, wenn Sie eine große Online-Präsenz haben, ist es für die KI möglich, ausführlichere Hintergrundinformationen zu erstellen. Diese lässt sich wiederum gegen Sie verwenden.
Jede Menge Phishing: Künstliche Intelligenz wird Online-Betrügern zusätzliche Möglichkeiten bieten, und es ist mit einer Zunahme von Phishing-Angriffen zu rechnen, da Hacker Bots einsetzen, um immer realistischere Betrugsmaschen zu entwickeln. Kriminelle können KI als Chatbot nutzen, um realistische Chats zu erstellen und so immer mehr Menschen zu betrügen. In diesem Zusammenhang würden die Nutzer mit einer KI statt mit einem Betrüger chatten. Dies ist bei Online-Dating-Betrügereien bereits der Fall und lässt sich noch viel fortschrittlicher gestalten.
Phishing wird durch ChatGPT erleichtert
Korrekte Rechtschreibung und Grammatik: Herkömmliche Phishing-Merkmale wie schlechte Rechtschreibung oder Grammatik in einer E-Mail werden möglicherweise nicht mehr auftauchen; stattdessen sollte man die Adresse des Absenders überprüfen und auf Unstimmigkeiten bei Links oder Domainnnamen achten. Betrüger könnten jedoch auch fehlerhafte Nachrichten verwenden, um zu testen, ob Nutzer darauf reagieren, um dann umfassendere und gefährlichere Betrügereien zu starten.
Antivirusprogramm verwenden: Hacker haben bereits erfolgreich Chatbots manipuliert, um einfache Malware zu erstellen. Daher lohnt es sich, ein Tool wie den Bedrohungsschutz zu verwenden. Dieses warnt Sie vor verdächtigen Dateien und schützt Sie beim Herunterladen.
Die Untersuchung im Dark Web führte NordVPN vom 13. Januar bis 13. Februar 2023 durch. NordVPN ist ein VPN-Anbieter, deren Lösungen Millionen von Internetnutzern verwenden. Das Unternehmen bietet Double-VPN-Verschlüsselung, Onion Over VPN und garantiert die Privatsphäre ohne Datenspeicherung. (sg)
Lesen Sie auch: ChatGPT: So minimieren Unternehmen die Sicherheitsrisiken von Chatbots
Teilen Sie die Meldung „Bot Hacking: Wie Kriminelle die Übernahme von ChatGPT planen“ mit Ihren Kontakten:
Zugehörige Themen:
ChatGPT, Cyberangriffe, IT-Security | IT-Sicherheit | Cybersecurity, Künstliche Intelligenz (KI), Malware, Maschinelles Lernen, Phishing