In den Händen von Betrügern wird Chat-GPT zur Waffe Mithilfe von KI-Chatbots wie Chat-GPT können Kriminelle ihre Betrugstaktik auf Millionen von Opfern zuschneiden. Experten rechnen mit erheblichen Konsequenzen – und mit Gegenwehr.

Mithilfe von KI-Chatbots wie Chat-GPT können Kriminelle ihre Betrugstaktik auf Millionen von Opfern zuschneiden. Experten rechnen mit erheblichen Konsequenzen – und mit Gegenwehr.

 

Personalisierte Nachrichten oder Mails verleiten viele arglose Anwender zu folgenschweren Klicks. Bild: unsplash

Die Praktikantin bei einem mittelgrossen Unternehmen aus Düsseldorf will alles richtig machen. Per Messenger-Dienst Whatsapp bekommt sie eine Nachricht, die von ihrer Chefin zu stammen scheint. Das Profilbild stimmt. Die Chefin hat angeblich ein Problem und braucht dringend Apple-Gutscheinkarten. Die gutgläubige Praktikantin schickt Fotos der Gutscheincodes. Dann stellt sich jedoch heraus: Die Nachrichten stammten gar nicht von der Chefin, sondern von Betrügern. Das Geld ist weg. Insgesamt 2500 Euro.

Die Masche mag plump klingen, aber sie war erfolgreich. Was nun bevorstehe, sei jedoch viel gefährlicher, meint Jeetu Patel. Er leitet den Bereich Cybersicherheit beim US-Kommunikationsspezialisten Cisco. Im Firmengebäude in San Francisco empfängt Patel gemeinsam mit dem Cisco-CEO Chuck Robbins eine ausgewählte Gruppe von Journalisten.

Ihre Botschaft: Die Cybersicherheitslage ist ernst. Und KI mache bestehende Risiken noch grösser. «Die E-Mails vom vermeintlichen Prinzen aus Nigeria werden sehr viel besser werden», sagt Patel warnend.

Der Grund ist künstliche Intelligenz (KI): «KI-Chatbots sind eine mächtige Waffe in der Hand von Betrügern», betont Patel. Bisher waren viele betrügerische E-Mails einfach erkennbar. Aber jetzt können Angreifer KI und öffentlich verfügbare Daten nutzen, um E-Mails zu personalisieren. Eine Betrugsmail könnte so aussehen: «Sie waren gestern mit Ihrem Kind bei einem Fussballspiel. Klicken Sie auf diesen Link, um sich Bilder davon herunterzuladen.»

Milliardenschäden durch Hackerangriffe

Seit Jahren registrieren Unternehmen in Deutschland eine stark steigende Zahl von Cyberangriffen, Spionage und Sabotage. 2022 schätzte der Digitalverband Bitkom den jährlichen Schaden für die deutsche Wirtschaft auf 203 Milliarden Euro. In den Jahren 2018 und 2019 war er nur halb so gross.

Die Corona-Pandemie hat die Digitalisierung der Arbeit beschleunigt, und Home-Office-Netzwerke sind weniger sicher. Inzwischen war fast jedes Unternehmen in Deutschland bereits einmal von Attacken betroffen. Die Angreifer gingen immer professioneller vor, stellte der Bitkom-Präsident Achim Berg fest. Und nun kommen zu alldem noch die KI-Chatbots. Verlässliche Daten über deren Auswirkungen auf die Cybersicherheitslage liegen noch nicht vor. Aber es ist klar, dass sie ein mächtiges Werkzeug im Repertoire von Angreifern werden dürften.

Vielseitiges Werkzeug

Seit Open AI im November den Textroboter Chat-GPT der Öffentlichkeit präsentiert hat, suchen nicht nur Unternehmer oder Künstler nach den besten Anwendungsmöglichkeiten, sondern auch Cyberkriminelle. Hinter Textrobotern stehen sogenannte grosse Sprachmodelle. Sie sind in der Lage, Gedichte zu schreiben, Geschäftspläne zu entwickeln – oder eben Cyberattacken vorzubereiten.

Die Sprachmodelle können mit Daten gefüttert werden, damit sie personalisierte Texte produzieren. Für Cyberkriminelle ist das die entscheidende Funktion, denn für einen Zugang zu einem Computersystem brauchen sie ein Einfallstor. Und das sind trotz allen Warnungen und Berichten meist immer noch die Mitarbeitenden.

Betrüger legen alles darauf an, Angestellte auf einen E-Mail-Anhang klicken zu lassen. Das lässt sich mit der Technologie hinter Chat-GPT einfacher bewerkstelligen als früher. In sozialen Netzwerken wie Linkedin, Instagram oder Facebook sind öffentlich verfügbare Daten über Tausende Angestellte abrufbar. Diese Informationen geben die Kriminellen in die Sprachmodelle ein und lassen diese E-Mails formulieren, die auf jede einzelne Person einer Firma zugeschnitten sind. In Hackerforen würden bereits die besten Strategien für diese und ähnliche Angriffe ausgetauscht, sagt Michael Sikorski. Er ist Technikchef der Spezialeinheit Unit 42 beim Cybersecurity-Unternehmen Palo Alto Networks. «Angriffe in neuen Dimensionen werden möglich», sagt Sikorski.

Vermutlich liefen schon jetzt grosse Cyberattacken, die genau diese Technologien nutzen, sagt Sikorski. «Die Texte können am Ende so gut geschrieben sein, dass gar nicht klar ist, ob eine Angreifer-E-Mail von einer KI oder einem Menschen erstellt wurde», sagt Sikorski.

KI-Betrugsmails lassen sich kaum entlarven

Der CEO der Cybersicherheitsfirma Sysdig aus San Francisco, Suresh Vasudevan, hat eine stressige Woche hinter sich: «Ein solches Tempo habe ich noch nie erlebt.» Künstliche Intelligenz stelle seine Branche auf den Kopf. Sysdig beobachtet insbesondere, was in der Cloud passiert, die eine Firma nutzt. Auch Vasudevan sieht die Gefahr von KI in den Händen von Hackern. Er erklärt aber: «Wir sehen die Möglichkeit, Angriffe genauer nachzuverfolgen.» So nehme nicht nur das Risiko zu, es gebe auch deutlich bessere Chancen für eine Verteidigung.

Die neuen KI-Systeme könnten dabei helfen, sich einen schnellen Überblick über grosse Datenmengen zu verschaffen und Auffälligkeiten früher zu erkennen. Dabei gibt es aber noch ein grosses Problem: Die neuen KI-Systeme produzieren immer wieder Fehler.

Für einen Angreifer ist es nicht tragisch, wenn einige hundert E-Mails Falschaussagen enthalten, während ein Angriff mit Tausenden Nachrichten läuft. «Wenn ein Verteidiger aber immer wieder Fehlalarme erhält, weil das System nicht perfekt funktioniert, ist das ein echtes Problem», sagt Vasudevan. Noch sind die KI-Systeme also sehr wirksam in den Händen der Angreifer, aber noch begrenzt im Nutzen für Verteidiger.

Alle grossen Cybersicherheitsfirmen arbeiten daran, das zu ändern. «Unsere Branche ist ständige Änderungen gewohnt», sagt Vasudevan. Er glaubt an den grossen Nutzen der neuen KI-Systeme für die Cyberverteidigung. Seine Firma arbeite an etlichen Lösungen, die schon bald ausgerollt würden.

Ähnlich positiv äussert sich auch der Cisco-Chef Robbins. KI mache es möglich, das gesamte Netzwerk eines Unternehmens unter Kontrolle zu behalten. Einem Angreifer könnte es zwar gelingen, über eine manipulierte E-Mail Zugang zu erhalten. «Aber sobald er sich im Netz bewegt, fällt das auf», erläutert Robbins. Dann schnappe die Falle zu. «Auffällige Bewegungen sind der Sargnagel für einen Hackerangriff.»

Gefahr für die Demokratie

Dass Cyberangriffe noch viel weiter reichende Folgen haben können, weiss Bruce Schneier: «Unsere Demokratie kann gehackt werden», sagt er. Schneier zählt zu den angesehensten Cybersicherheitsexperten der Welt. Er lehrt an der Kennedy School der Universität Harvard.

Ein demokratisches System könnte schon heute unterlaufen werden. Gezielte Falschinformationen würden schon seit vielen Jahren in Wahlkämpfen eingesetzt. «Jetzt erreichen wir ein neues Level», erklärt Schneier. «KI wird das Hacken der Demokratie massiv ausweiten.» Dabei gehe es nicht nur um das Verbreiten von Falschinformationen, sondern etwa auch um das Umgehen von Steuern in grossem Massstab. Ein starres Regelsystem wie dasjenige heutiger Rechtsstaaten könne mit den neuen Möglichkeiten von KI nicht mithalten, sagt Schneier.

Die Kampagne mit gezielten Falschinformationen während der Präsidentschaftswahlen in den USA, die 2016 laut dem US-Justizministerium von Russland ausgegangen ist, soll Hunderte Millionen Dollar gekostet sowie Hunderte Fachkräfte benötigt haben. KI könnte Attacken in ähnlichem Massstab möglich machen – zu einem Bruchteil der Kosten. Gezielt eingesetzte KI könnte durch Lobbyarbeit oder politische Eingaben auch einen Gesetzgebungsprozess beeinflussen, so Schneier warnend.

«Wir brauchen ein Update für unsere Demokratie», fordert der Experte. Wie genau das aussehen könnte, wisse er allerdings auch nicht: «Aber ich will eine Debatte dazu anstossen.»

Stephan Scheuer, San Francisco, «Neue Zürcher Zeitung»

Das könnte Sie auch interessieren: