Hacking und Datendiebstahl mit ChatGPT: So können sich Nutzer vor der neuen Bedrohung schützen
Nicht nur Unternehmen eröffnen sich durch ChatGPT enorme Chancen – die KI hat auch Schattenseiten. IT-Sicherheitsexperten warnen schon jetzt vor den Risiken, die von KI-gestützten Cyberangriffen ausgehen. “KI kennt kein Gut oder Böse. Wer die Befehle beherrscht, kann ChatGPT also problemlos als Werkzeug für kriminelle Aktivitäten missbrauchen”, erklärt Florian Dalwigk
Dalwigk ist Leiter der IT-Security Akademie in der Developer Akademie. Diese bildet jährlich hunderte IT-Spezialisten aus. Er sieht es nun als unerlässlich für alle, die digital unterwegs sind, sich selbst und andere über die neuen Bedrohungen durch KI zu informieren und dagegen vorzusorgen. Wie Hacker mit ChatGPT Angriffe ausführen könnten und was jeder selbst zu seinem Schutz tun kann, zeigt er im Folgenden auf.
E‑Mail-Betrug durch Texterstellungs-KIs stark erleichtert
Vorbei sind die Zeiten, in denen ein offensichtlich dubioser exotischer Prinz sein Millionen-Erbe einem beliebigen Internetnutzer anvertrauen wollte. Moderne Phishing-Angreifer geben sich stattdessen häufig als Kundenservice einer Bank oder eines Onlineshops aus und erbeuten so Login-Daten, um damit Missbrauch zu treiben.
Die E‑Mails, mit denen Kriminelle ihre Opfer ködern, werden dank ChatGPT immer authentischer. Nicht nur kann die KI glaubwürdige Fälschungen offizieller E‑Mails eines vertrauenswürdigen Absenders generieren – sie kann dies in jeder beliebigen Sprache tun, sodass Phishing-Angriffe aus dem Ausland zur echten Gefahr für deutsche Nutzer werden.
Vom Tippfehler zum Datendiebstahl – wie ChatGPT Typo Squatting noch gefährlicher macht
Gleichzeitig fällt es Angreifern durch ChatGPT leichter, Nutzer mit gefälschten Websites in die Falle zu locken. Eine Methode dafür ist das Typo Squatting – eine Art von Cyberangriff, bei der ein Klon einer populären Website unter einer ähnlichen Domain platziert wird. Nutzer, die sich vertippen und beispielsweise “Anazon” eingeben anstatt “Amazon”, landen somit auf der gefälschten Seite und geben ihre Daten preis, sobald sie sich einloggen.
Dabei hilft die KI den Hackern, indem sie Listen falscher Schreibweisen der gewählten Adresse erstellt, sodass diese Domains massenhaft selbst “besetzt” werden können.
ChatGPT – als Analyse-Tool für beide Seiten von Bedeutung
Besonders geschätzt wird ChatGPT wegen seiner Fähigkeit, in Sekundenschnelle enorme Text-Datenmengen zu analysieren. Dies kann von Hackern ausgenutzt werden, um anhand öffentlich einsehbarer Informationen aus den sozialen Medien Listen mit möglichen Passwörtern zu generieren und Passwörter von spezifischen Nutzern zu hacken. Auch können öffentlich einsehbare Informationen mit Hilfe von ChatGPT in Telefon-Skripte umgewandelt werden, um zum Beispiel mit höherer Erfolgswahrscheinlichkeit per Enkeltrick ältere Menschen um ihr Geld zu bringen.
Mit Prompt Injection die KI selbst hacken
Doch damit nicht genug — mittlerweile hacken Angreifer sogar die KI selbst. Dies funktioniert mithilfe des Angriffsvektors “Prompt Injection”, wobei der Angreifer versucht, mit geeigneten Prompts ein Fehlverhalten der KI auszulösen. Problematisch wird es, wenn dadurch Verschlusssachen in die falschen Hände gelangen. So könnte sich der Angreifer beispielsweise ChatGPT gegenüber als Elon Musk ausgeben und die KI überzeugen, Informationen zur Tesla-Software preiszugeben — ein Angriff mit nicht vorstellbaren Konsequenzen. Gefährlich ist Prompt Injection vor allem, weil der Befehl auf semantischer statt syntaktischer Ebene stattfindet. Mit ausreichend Fantasie können so Wege gefunden werden, die vorhandenen Filtermechanismen auszutricksen. Für Unternehmen bedeutet das: Sie sollten einmal mehr überlegen, auf welche Informationen KI wirklich Zugriff haben darf.
Aufklärung ist die beste Waffe im Kampf gegen Cyberkriminalität
Im Gegenzug stellt die KI ein wirksames Mittel zum Schutz gegen Cyberkriminalität dar. Wird eine verdächtige E‑Mail oder Textnachricht eingespeist, erhält der Nutzer sofort von ChatGPT eine Einschätzung, ob es sich dabei um einen Phishing-Versuch handeln könnte. Ferner könnte ChatGPT genutzt werden, um den Quellcode von Websites nach Schwächen abzusuchen und so die Arbeit von IT-Sicherheitsspezialisten zu erleichtern.
Schlussendlich bleibt aber der Nutzer die größte Schwachstelle eines digitalen Systems. Ist dieser nicht über die Risiken aufgeklärt, kann er nicht die nötigen Schritte ergreifen, um sich gegen Betrug und Cyberangriffe zu schützen. Dementsprechend sollte bei jeder E‑Mail, die zu weiteren Schritten auffordert, zunächst hinterfragt werden, ob sie wirklich vom angeblichen Absender stammt. Darüber hinaus sollte mit persönlichen Daten sparsam umgegangen werden – auch auf Social Media.
Zuletzt gilt es außerdem, andere vor den Gefahren durch Cyberangriffe zu warnen. Insbesondere ältere Menschen sind ein beliebtes Ziel von Phishing-Angriffen, weshalb sie gezielt für das Risiko und mögliche Warnzeichen sensibilisiert werden sollten.
Über Florian Dalwigk:
Florian Dalwigk ist ein erfahrener Hacker und Leiter für die IT Security Schulungen in der Developer Akademie. Die Developer Akademie bildet Quereinsteiger zu Software Entwicklern innerhalb von wenigen Monaten weiter. Außerdem gibt es für IT-Affine spezialisierte Schulungen zu IT-Sicherheitsexperten. An der Developer Akademie bilden die IT-Experten Menschen aus allen Branchen aus, die sich für die IT begeistern, sich einen Job mit Zukunftsperspektive wünschen und ihr berufliches Potenzial voll entfalten möchten. Auf dem Arbeitsmarkt sind gut ausgebildete Software Entwickler und IT-Sicherheitsexperten überall gesucht. Die Quereinsteiger sind im Schnitt bereits nach sechs bis neun Monaten Weiterbildung bei den IT-Experten bereit für den Arbeitsmarkt. Weitere Informationen dazu unter: https://developerakademie.com.