Die Bedrohungslage im Cyberraum hat eine neue Dimension erreicht. Mit dem Einzug von Künstlicher Intelligenz (KI) und der absehbaren Entwicklung von Artificial General Intelligence (AGI) stehen Unternehmen vor einem Paradigmenwechsel: Technologien, die eigentlich Effizienz und Innovation ermöglichen sollen, werden von Angreifern als mächtige Waffen eingesetzt.
Die TÜV-Cybersecurity-Studie 2025 zeichnet ein klares Bild: Jedes sechste Unternehmen war im vergangenen Jahr Opfer eines erfolgreichen Cyberangriffs. Besonders alarmierend: Während 56% der Unternehmen davon ausgehen, dass Angreifer bereits KI nutzen, setzen nur 10% selbst KI aktiv zur Verteidigung ein. Das Kräfteverhältnis kippt – die Angreifer sind schneller, professioneller und automatisierter unterwegs, während die Verteidiger mit klassischen Mitteln zurückbleiben.
Phishing bleibt der häufigste Angriffsvektor – in 84% aller Fälle. Doch die Qualität hat sich dramatisch verändert: KI-generierte Phishing-Mails sind heute kaum mehr von echten Nachrichten zu unterscheiden, in perfekter Sprache, personalisiert und teilweise mit täuschend echten Deepfake-Stimmen oder -Videos verstärkt. Was früher das geschulte Auge erkennen konnte, ist heute nahezu unsichtbar.
Der AI Threat Landscape Report 2025 spricht von einem „Quantensprung in der Professionalität“ der Angriffe. Deepfakes, generative Schadsoftware und autonome Angriffsagenten bedrohen nicht mehr nur IT-Systeme, sondern die Grundpfeiler von Vertrauen und Verlässlichkeit in der digitalen Kommunikation. Wenn Angreifer Stimmen fälschen, die scheinbar vom CEO stammen, oder Videos erzeugen, die nie stattgefunden haben, dann verlieren Unternehmen nicht nur Daten, sondern Glaubwürdigkeit.
Und die Bedrohungen gehen noch tiefer:
- Data Poisoning: Angreifer manipulieren Trainingsdaten, sodass KI-Systeme systematisch falsche Entscheidungen treffen – zum Beispiel Spam-Mails als unkritisch einstufen.
- Model Evasion: Mit gezielt veränderten Eingaben lassen sich Modelle täuschen – so wie ein Sticker auf einem Verkehrsschild autonome Fahrzeuge in die Irre führen kann.
- Model Extraction: Hacker stehlen mühsam trainierte Modelle oder rekonstruieren sensible Daten, die im Training verwendet wurden.
- Prompt Injection: KI-gestützte Systeme lassen sich mit manipulativen Eingaben dazu bringen, vertrauliche Informationen preiszugeben oder falsche Aktionen auszuführen.
Der AI Risk Atlas identifiziert mehr als 50 konkrete Bedrohungen entlang des gesamten KI-Lebenszyklus – von der Datenbeschaffung über das Training bis hin zum Betrieb. Die Risiken reichen von fehlerhaften Modellen und Bias über Angriffe auf Lieferketten bis hin zu Governance- und Compliance-Lücken. Besonders kritisch: KI-Systeme können durch Manipulation nicht nur technische Fehler produzieren, sondern auch rechtliche und ethische Risiken eskalieren lassen.
Hinzu kommt ein gefährlicher Selbstbetrug: Laut TÜV-Studie halten 91% der Unternehmen ihre Cybersicherheit für „gut“, obwohl gleichzeitig massive Defizite bei Awareness, Lieferketten-Sicherheit und Schatten-IT bestehen. Mit anderen Worten: Unternehmen wiegen sich in trügerischer Sicherheit, während Angreifer längst im Vorteil sind.
Mit dem Aufkommen von AGI – Systemen, die nicht nur einzelne Aufgaben erledigen, sondern Wissen verknüpfen und selbstständig Entscheidungen treffen – droht eine neue Welle von Angriffen, deren Dynamik kaum mehr vorhersagbar ist. Cyberkriminelle haben längst aufgerüstet – viele Unternehmen nicht. Wer jetzt noch glaubt, mit Firewalls und Passwortvorgaben Schritt halten zu können, sitzt auf einem Pulverfass.
Vom Risiko zur Resilienz – warum Organisationen AI Capabilities brauchen
Die Lösung liegt nicht in der Hoffnung, dass der nächste Security-Hersteller die Probleme „wegrüstet“. Tools sind nur so wirksam wie die Menschen, die sie bedienen. Ohne ein eigenes, tiefes Verständnis von KI können Organisationen Risiken weder richtig einschätzen noch wirksam managen.
Das bedeutet: Informationssicherheits- und Governance-Verantwortliche müssen zu AI-Security-Experten werden. Nicht im Sinne von Entwicklern, die selbst neuronale Netze programmieren, sondern mit einem fundierten Verständnis der Grundkonzepte, Risiken und Governance-Mechanismen. Dieses Wissen muss zur Basiskompetenz jedes IT-Sicherheitsverantwortlichen gehören.
Dazu gehören:
- AI Governance & Program Management: Klare Rollen und Verantwortlichkeiten, Policies und Standards, abgestimmt auf regulatorische Anforderungen. AI-Incident-Response-Pläne, die Szenarien wie Prompt Injection, Model Manipulation oder Datenabfluss berücksichtigen.
- AI Risk Management: KI-spezifische Risikoanalysen für jede Anwendung, Integration von Lieferketten- und Vendor-Risiken, kontinuierliches Monitoring.
- AI Security Architecture & Controls: Sicherheitsarchitektur speziell für KI-Systeme, Schutz vor adversarial attacks, Monitoring von Outputs, Privacy- und Explainability-Kontrollen.
- Business Continuity & Incident Handling: Pläne für kompromittierte Modelle, Prozesse für Neu-Training und Recovery.
- Human Oversight: Menschen müssen Outputs überprüfen, Bias erkennen und Qualität sicherstellen – sonst wird KI zur Blackbox.
Der AI Risk Atlas und internationale Analysen wie die CIGI-Studie zu AI Productivity Scenarios zeigen klar: Unternehmen, die AI-Kompetenzen nicht selbst entwickeln, geraten in Abhängigkeiten und verlieren die Fähigkeit, Risiken rechtzeitig zu erkennen und zu steuern.
Fazit: Kompetenz schlägt Tool-Gläubigkeit
Die Bedrohungslage ist real, die Risiken sind massiv, und die Angreifer sind längst in der Zukunft angekommen. Die entscheidende Frage ist: Wollen wir Konsumenten von Tools bleiben – oder Gestalter unserer eigenen Sicherheit?
Die Wahrheit ist unbequem: Es wird nicht die nächste Tool-Generation sein, die Unternehmen schützt. Es wird das Wissen ihrer eigenen Mitarbeiter sein. Informationssicherheit muss sich neu erfinden – mit KI-Kompetenz im Kern. Nur so lassen sich Chancen nutzen, Risiken beherrschen und die eigene Resilienz sichern.
Wer weiter auf die Hersteller vertraut, überlässt die Sicherheit fremden Roadmaps – und riskiert, im entscheidenden Moment blind zu sein.

