Wirtschaftskriminalität: KI-gestützte Prävention und Aufdeckung

Wirtschaftskriminalität bleibt eines der gravierendsten Risiken für Unternehmen, öffentliche Institutionen und den Finanzsektor insgesamt. Ihre Auswirkungen reichen weit über den materiellen Schaden hinaus: Sie untergraben Vertrauen, schwächen interne Governance-Strukturen und gefährden langfristig die Reputation von Organisationen. Obwohl die Anzahl der Fälle im Vergleich zu anderen Deliktskategorien geringer ist, sind die verursachten Schäden signifikant. Laut der KPMG-Studie Fraud Barometer Schweiz 2023 belief sich der Gesamtschaden gemeldeter Fälle auf über CHF 350 Mio., wobei die Dunkelziffer nach wie vor hoch ist.

29.01.2026 Von: Prof. Dr. Thomas Rautenstrauch
Wirtschaftskriminalität

Einleitung

Die zunehmende Digitalisierung und Komplexität von Geschäftsprozessen schafft neue Angriffspunkte für Delikte wie Cybercrime, Geldwäsche, Bilanzmanipulation, Korruption oder Insiderhandel. Klassische Kontrollmechanismen stossen dabei an ihre Grenzen, insbesondere bei der Analyse grosser Datenmengen in Echtzeit. Hier eröffnet der Einsatz von künstlicher Intelligenz (KI) neue Potenziale. KI kann Muster und Anomalien in Daten identifizieren, die menschliche Prüfer aufgrund der schieren Datenmenge oder Komplexität nicht mehr erkennen können. Damit wird sie zum Instrument, das nicht nur aufklärt, sondern zunehmend präventiv wirkt.

Im folgenden Beitrag werden die Einsatzpotenziale, Voraussetzungen und Grenzen von KI im Kontext der Aufdeckung und Prävention von Wirtschaftskriminalität analysiert und auf ihre praktische Relevanz für die Unternehmenssteuerung, Compliance und Revision hin diskutiert.

Potenziale von KI bei der Aufdeckung von Wirtschaftskriminalität

Künstliche Intelligenz kann signifikant dazu beitragen, Wirtschaftskriminalität frühzeitig zu erkennen und deren Eintritt zu verhindern. Der grösste Mehrwert liegt in der automatisierten Mustererkennung: Algorithmen analysieren grosse Mengen an Transaktions-, Kommunikations- oder Spesendaten, um Anomalien zu identifizieren, die auf betrügerische Aktivitäten hinweisen könnten.

Beispielsweise setzen internationale Banken und Versicherungen Machine-Learning-Systeme zur Erkennung verdächtiger Transaktionen ein. Diese Systeme lernen aus historischen Daten, welche Kombinationen von Transaktionsparametern (Betrag, Zeitpunkt, Empfänger, Frequenz) untypisch sind und mit erhöhter Betrugswahrscheinlichkeit korrelieren (PwC, 2023). Im Bereich der Reisekostenabrechnungen lassen sich durch KI-basierte Tools wiederkehrende Muster von manipulierten Belegen, doppelten Buchungen oder fiktiven Teilnehmerzahlen automatisch erkennen.

Besonders wirkungsvoll ist KI, wenn sie nicht rein regelbasiert, sondern adaptiv arbeitet. Lernende Systeme können ihre Erkennungsleistung kontinuierlich verbessern, indem sie neue Betrugsmuster antizipieren. Das verändert den Paradigmenwechsel von einer reaktiven zu einer präventiven Kontrolllogik – weg von der Ex-post-Prüfung hin zur Echtzeitüberwachung (Persson, 2023).

Zu den zentralen Einsatzfeldern gehören:

  • Social-Engineering-Erkennung: Systeme analysieren Kommunikationsmuster, um Manipulationsversuche oder Phishing frühzeitig zu identifizieren.
  • Deepfake-Detection: Mit Natural Language Processing (NLP) und Bildanalyse lassen sich synthetische Inhalte, gefälschte Dokumente oder Stimmen erkennen (Europol, 2024).
  • Betrugserkennung in Lieferketten: KI-Modelle überwachen Preis-, Mengen- oder Lieferabweichungen, um kollusive oder kartellartige Muster zu entdecken (OECD, 2022).

Neben der Erkennung leistet KI auch einen Beitrag zur Effizienzsteigerung: Routineprüfungen und Datenabgleiche werden automatisiert, wodurch Mitarbeitende sich auf komplexe Sachverhalte konzentrieren können. Studien zeigen, dass sich die Prüfungszeit in internen Audits durch KI-basierte Analytics-Tools um bis zu 40% reduzieren lässt (Deloitte, 2024).

Kritische Voraussetzungen und Erfolgsfaktoren

Der Erfolg von KI in dem sensiblen Umfeld der Wirtschaftskriminalität hängt von mehreren kritischen Voraussetzungen und Faktoren ab: Datenqualität, Datenschutz, Governance, Integration und Kompetenzaufbau.

Datenqualität

«Garbage in, garbage out» gilt mehr denn je. KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert und betrieben werden. Im Kontext der Wirtschaftskriminalität bedeutet dies, dass folgende Anforderungen an Daten erfüllt sein sollten:

  • Vollständigkeit: Alle relevanten Transaktions-, Kommunikations- und Stammdaten müssen verfügbar sein.
  • Konsistenz: Daten aus verschiedenen Quellen (ERP-Systeme, CRM, E-Mails, externe Register) müssen harmonisiert werden.
  • Aktualität: Zeitnahe Datenverfügbarkeit ist essenziell für Echtzeiterkennung von Anomalien.
  • Labeling: Für überwachtes Lernen ist es notwendig, historische Daten mit korrekt klassifizierten Vorfällen zu versehen.

Fehlklassifizierte oder unstrukturierte Daten können zu Fehlalarmen («False Positives») oder Nichterkennung («False Negatives») führen. Nach einer Studie der Association of Certified Fraud Examiners (ACFE, 2024) beruhen rund 60% aller fehlerhaften Betrugserkennungen auf unzureichender Datenaufbereitung.

Datenschutz und Ethik

KI-Anwendungen zur Betrugsbekämpfung operieren oft mit personenbezogenen Daten – etwa von Mitarbeitenden, Kunden oder Geschäftspartnern. Daher ist die Einhaltung datenschutzrechtlicher Vorgaben (DSG bzw. DSGVO) zwingend:

  • Zweckbindung und Transparenz: Die Verarbeitung muss rechtlich begründet und den Betroffenen kommuniziert werden.
  • Datenminimierung: Nur erforderliche Daten dürfen verwendet werden.
  • Rechenschaftspflicht: Unternehmen müssen nachweisen können, dass ihre KI-Lösungen konform mit datenschutzrelevanten Vorgaben konzipiert und betrieben werden.

Darüber hinaus müssen Unternehmen ethische Prinzipien wie Transparenz, Nachvollziehbarkeit und Fairness wahren. Der EU AI Act (2024) verlangt, dass Systeme, die im Compliance- oder Finanzkontext eingesetzt werden, über ein dokumentiertes Risikomanagement und klare Entscheidungsprotokolle verfügen.

Governance

Governance bezeichnet die Gesamtheit der Richtlinien, Verantwortlichkeiten und Kontrollmechanismen, die den Einsatz von KI im Unternehmen steuern. Eine «AI Governance»-Struktur sollte sicherstellen, dass Modelle validiert, dokumentiert und regelmässig auf Bias und Drift überprüft werden (IBM, 2023). Empfehlenswert ist die Einrichtung interdisziplinärer KI-Steuerungsgremien mit Vertretern aus Compliance, IT, Controlling und Recht.

Angemessene Governance-Strukturen stellen sicher, dass KI ausreichend transparent und nachvollziehbar bleibt. Dies wird erreicht durch die adäquate

  • Dokumentation der Modelle und Entscheidungslogiken,
  • regelmäßige Validierung und Monitoring der KI-Performance,
  • Einbindung von Ethik- und Compliance-Gremien bei der Modellfreigabe,
  • Transparenzpflichten bei automatisierten Entscheidungen mit Compliance-Auswirkungen.

Integration in bestehende Kontrollsysteme (IKS, Compliance und Revision)

Der Nutzen von KI entfaltet sich erst dann vollständig, wenn sie effektiv in bestehende Kontroll- und Überwachungssysteme integriert wird:

  • internes Kontrollsystem (IKS): KI kann als «intelligente Kontrollinstanz» fungieren, etwa durch die Erkennung von Buchungsanomalien oder Scheinfirmen. Die Ergebnisse müssen jedoch in die IKS-Dokumentation und Massnahmenkataloge einfliessen.
  • Compliance-Management: Verdachtsmeldungen oder Risikoindikatoren aus KI-Systemen sollten direkt in Compliance-Abläufe (z.B. Hinweisgebersysteme) eingebunden werden.
  • interne Revision: Die interne Revision kann sowohl als Nutzerin von KI für Prüfzwecke als auch durch die Prüfung der KI selbst beteiligt sein. Der zweite Fall erfordert jedoch zusätzliche Kompetenzen im Bereich von Prüfungen der eingesetzten Algorithmen.

Interdisziplinäre Zusammenarbeit zwischen Fachabteilungen, IT und Risikomanagement

Der Einsatz von KI gegen Wirtschaftskriminalität kann nicht isoliert durch IT oder Compliance erfolgen. Vielmehr bedarf es einer koordinierten Zusammenarbeit beteiligter Abteilungen, wie:

  • Fachabteilungen liefern das nötige Domänenwissen, etwa zur typischen Betrugsmethodik oder zur Interpretation von Auffälligkeiten.
  • IT-Abteilungen stellen Dateninfrastruktur, Modellbetrieb und Systemintegration sicher.
  • Risikomanagement bewertet die Relevanz erkannter Anomalien im Gesamtkontext des Unternehmensrisikos.

Dies spricht für interdisziplinäre Teams, welche sich seit Langem in der Praxis bewährt haben und die Anwendungsfälle gemeinsam priorisieren, bewerten und betreiben. Eine zentrale KI-Governance-Stelle kann zudem die Koordination und Einhaltung übergreifender Standards sicherstellen.

Schulung und Sensibilisierung von Mitarbeitenden

Selbst die leistungsfähigste KI bringt keinen Nutzen, wenn sie im Unternehmen nicht akzeptiert oder verstanden wird. Deshalb ist eine zielgruppenspezifische Qualifikation unerlässlich. Die sollte differenzieren zwischen den folgenden Nutzergruppen:

  • Fachanwender: Schulungen zur Interpretation der KI-Ausgaben, zur Abgrenzung echter Risiken und zur sicheren Weiterverarbeitung
  • IT- und Data-Teams: Kenntnisse zu regulatorischen Anforderungen, ethischen Aspekten und «explainable AI»
  • alle Mitarbeitenden: Sensibilisierung für Wirtschaftskriminalität, Bedeutung von Datenqualität und richtige Reaktion bei Verdachtsmomenten

Führungskräfte müssen die ethischen und strategischen Implikationen verstehen. Studien zeigen, dass Schulungen zur KI-Kompetenz die Akzeptanz und Wirksamkeit solcher Systeme signifikant erhöhen (WEF, 2023).

Zudem sollten Unternehmen ein Klima fördern, in dem Hinweise auf Unregelmässigkeiten stets ernst genommen werden.

Entwicklungstendenzen

Mit der zunehmenden Verbreitung von generativer KI entstehen neue Spannungsfelder. Einerseits ermöglichen Large Language Models (LLMs) und multimodale Systeme wie GPT-4, Claude oder Gemini die Erstellung synthetischer Inhalte, die für Deepfakes, Fake-Dokumente und Social Engineering missbraucht werden können. Andererseits dienen dieselben Technologien der Aufdeckung solcher Manipulationen.

Ein zentrales Zukunftsthema ist die sogenannte Agentic AI, also Systeme, die nicht nur analysieren, sondern eigenständig Aktionen ausführen – etwa das Sperren verdächtiger Konten oder die Initiierung interner Untersuchungen. Solche Systeme eröffnen neue Effizienzpotenziale, werfen aber rechtliche und ethische Fragen auf: Wer trägt die Verantwortung, wenn eine autonome KI-Entscheidung zu einem finanziellen Schaden führt? Wie lässt sich menschliche Kontrolle gewährleisten, ohne die Reaktionsgeschwindigkeit zu verlieren?

Die internationale Regulierung befindet sich im Aufbau. Die OECD (2024) betont die Notwendigkeit internationaler Standards für KI-Transparenz und Verantwortlichkeit, um Missbrauch zu verhindern und Vertrauen in automatisierte Systeme zu stärken.

Fazit

KI ist überaus ambivalent, denn sie ermöglicht einerseits mehr und raffiniertere Betrugsversuche, kann aber gleichzeitig Betrugserkennung und Prävention erheblich verbessern. So gesehen ist sie daher zugleich Risiko und Chance.

So kann KI ein bedeutender Hebel im Kampf gegen Wirtschaftskriminalität sein – von der Frühwarnung bis zur forensischen Analyse. Doch der Einsatz ist komplex und erfordert neben der Technologie die folgenden Erfolgsfaktoren:

  • saubere Datenbasis
  • strikter Datenschutz und Governance
  • nahtlose Integration in Kontrollsysteme
  • enge Zusammenarbeit aller relevanten Stakeholder
  • kompetente, sensibilisierte Mitarbeitende

Langfristig ist der Einsatz von KI im Bereich der Wirtschaftskriminalitätsbekämpfung ein entscheidender Wettbewerbsfaktor: nicht, weil sie Delikte verhindert, sondern weil sie Organisationen befähigt, transparenter, lernfähiger und vertrauenswürdiger zu agieren.

Quellenverzeichnis

Member werden Newsletter