Von Josef Stelzer, IHK-Magazin 10/2025
Tibor Konya, Geschäftsführer und Miteigentümer der 9int9 GmbH, kennt die Gefahrenquellen genau. Das Münchner Unternehmen bietet unter anderem Security-Scans, die die betriebliche IT-Sicherheit auf Herz und Nieren testen. Es simuliert Cyberattacken und spürt auf diese Weise die Schwachstellen in Unternehmensnetzwerken auf.
Eine wichtige Rolle spielt dabei generative KI, die unterschiedliche Inhalte wie beispielsweise technische Beschreibungen anfertigt oder zusammenfasst, aber auch Bilder, Videoclips oder Software erzeugen kann. Doch die generative KI ist nicht nur ein wirksamer Helfer gegen Cyberattacken. Sie kann – in der Hand von Cyberkriminellen – für Unternehmen äußerst gefährlich werden. „Künstliche Intelligenz wirkt wie ein Katalysator, der Cyberangriffe automatisiert und noch bedrohlicher macht“, warnt Konya.
Einfallstor und Abwehr zugleich
Angesichts dieser Situation lohnt es sich für Unternehmen, sich mit 2 grundlegenden Fragen zu beschäftigen: Welche Gefahren kann der intelligente Schadcode auf der einen Seite für den eigenen Betrieb bedeuten? Und wie kann das Unternehmen andererseits künstliche Intelligenz so einsetzen, dass sie die Abwehr gegen solche Cyberangriffe stärkt?
Die Methoden der KI-gestützten Angriffe umfassen eine denkbar große Bandbreite, wie die wissenschaftliche Arbeitsgruppe des Nationalen Cyber-Sicherheitsrats (NCSR) feststellt. Dieses Expertengremium berät den NCSR, in dem auch die IHK-Organisation vertreten ist. Zu den Mitgliedern zählt unter anderem Claudia Eckert, Professorin für Informatik an der TU München und Leiterin des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC in Garching.
Schad-KI manipuliert Trainingsdaten
Das Spektrum der Attacken reicht von automatisiert generierten Angriffen bis hin zu ausgefeiltem Social Engineering, mit dem Cyberkriminelle ihre Opfer dazu verleiten, zum Beispiel vertrauliche Informationen preiszugeben oder Schadprogramme wie etwa Ransomware in Firmennetzwerken einzuschleusen und auszuführen.
KI-gestützte Angriffsmethoden visieren etwa interne Chatbots an. Mit gezielten Fragen entlocken sie der Unternehmens-KI vertrauliche Daten und andere sensible Informationen. Zu den diversen Spielarten KI-generierter Cyberangriffe gehören „Poisoning-Attacken“, welche die Trainingsdaten der Unternehmens-KI so manipulieren, dass diese falsche Antworten liefert.
Stimme des Chefs imitiert
KI lässt sich ebenfalls einsetzen, um Schadprogramme automatisch zu generieren, Schwachstellen in IT-Netzwerken schneller aufzuspüren oder menschliche Stimmen nachzuahmen. „Die Stimme eines Unternehmers zum Beispiel kann von der KI so imitiert werden, dass sie vom Original nicht mehr zu unterscheiden ist“, sagt 9int9-Geschäftsführer Konya. Damit lassen sich per Telefon zum Beispiel betrügerische Zahlungsanweisungen initiieren oder Passwörter ausspionieren.
Cyberangriffe durch KI effizienter
Philip Sperl, Leiter der Fraunhofer AISEC-Abteilung Cognitive Security Technologies, unterstreicht: „Genau wie herkömmliche IT-Systeme können auch Künstliche-Intelligenz-Lösungen angegriffen werden.“ Gesichtserkennungs-KI etwa sei so manipulierbar, dass der unerlaubte Zugang zu kritischen Systemen möglich werde. „Durch den Einsatz von KI können Cyberangriffe viel effizienter als bisher gefahren werden“, warnt der promovierte Informatiker.