Alle 14 Tage aktuelle News aus der IT-Szene >
Im neuen Cyber Signals-Bericht analysiert Microsoft die zunehmende Rolle von KI bei Online-Betrugsfällen. Der Konzern beschreibt konkrete Angriffsszenarien, dokumentiert Gegenmaßnahmen und empfiehlt Unternehmen wie Konsument*innen präventive Strategien.
Foto: Microsoft Security
Kelly Bissell Corporate Vice President of Anti-Fraud and Product Abuse bei Microsoft Security.
Betrugsversuche im Internet werden raffinierter – und künstliche Intelligenz (KI) spielt dabei eine wachsende Rolle. Was früher hohe technische Hürden voraussetzte, gelingt Angreifenden heute in Minuten: Deepfakes, gefälschte Jobanzeigen oder täuschend echte Online-Shops. Microsoft hat im Rahmen seiner Cyber Signals-Initiative einen umfassenden Überblick über die aktuelle Bedrohungslage und seine Gegenmaßnahmen veröffentlicht. Für Unternehmen in Österreich und der EU ergibt sich daraus akuter Handlungsbedarf.
Cyberkriminelle nutzen generative KI zunehmend zur Automatisierung ihrer Angriffe. Dabei greifen sie auf frei verfügbare oder eigens entwickelte Tools zurück, um individuelle Profile von Zielpersonen zu erstellen. Die daraus resultierenden Social-Engineering-Angriffe reichen von Deepfake-Vorstellungsgesprächen bis hin zu gefälschten Supportanfragen. Besonders betroffen sind E-Commerce-Märkte wie Deutschland – und potenziell auch Österreich, das über einen wachsenden Onlinehandel verfügt.
Laut Microsoft lassen sich professionelle Fake-Webseiten inklusive Produktrezensionen und erfundener Unternehmensgeschichten heute innerhalb kürzester Zeit generieren. Auch Jobportale sind Zielscheibe: KI-basierte Fake-Recruiter versenden realitätsnahe Stellenangebote und manipulieren Vorstellungsgespräche. Die Konsequenz: Verunsicherung bei Jobsuchenden und neue Risiken für Plattformbetreiber. Microsoft empfiehlt unter anderem die verpflichtende Einführung von Multifaktor-Authentifizierung und Deepfake-Erkennungstechnologien.
Obwohl viele der Angriffe ohne direkte KI-Nutzung erfolgen, zeigt Microsoft am Beispiel des Tools „Quick Assist“, wie legitime Software für betrügerische Zwecke zweckentfremdet werden kann. Die Ransomware-Gruppe Storm-1811 etwa nutzte Voice-Phishing und Microsoft Teams für Fernzugriffsversuche. Microsoft reagierte mit der Integration von Warnhinweisen, automatischer Sitzungsunterbrechung bei Risikoerkennung und empfiehlt Unternehmen den Wechsel auf „Remote Help“, das ausschließlich innerhalb von Organisationen eingesetzt werden kann.
Die Antwort auf KI-gestützten Betrug lautet laut Microsoft: Prävention durch Integration. Mit Schutzfunktionen wie Domain-Imitations-Erkennung, Scam Blockern, Smartscreen-Technologie und Digital Fingerprinting entwickelt Microsoft Systeme, die Bedrohungen frühzeitig identifizieren und automatisch Gegenmaßnahmen einleiten. Parallel dazu arbeitet das Unternehmen eng mit internationalen Strafverfolgungsbehörden zusammen, um Betrugsinfrastrukturen dauerhaft zu zerschlagen.
Kelly Bissell Corporate Vice President of Anti-Fraud and Product Abuse bei Microsoft Security dazu: „Cyberkriminalität ist ein Problem in Billionenhöhe und es nimmt seit 30 Jahren jedes Jahr zu. Ich denke, wir haben jetzt die Chance, KI schneller zu adaptieren, um Schwachstellen rasch zu erkennen und zu schließen. Heute haben wir KI, die in großem Maßstab etwas bewirken kann – und die es uns ermöglicht, Sicherheits- und Betrugsschutzfunktionen wesentlich schneller in unsere Produkte zu integrieren. Ich glaube auch, wir müssen weg von der Denkweise ‘Kunde’ und ‘Anbieter’ – hin zu einer echten Partnerschaft. Zusammen mit der Digital Crimes Unit von Microsoft habe ich kürzlich in Griechenland mit Führungskräften von INTERPOL sowie mit Vertreterinnen und Vertretern von Strafverfolgungsbehörden, nationalen Cybersicherheitsbehörden und Finanzministerien aus 15 Ländern genau daran gearbeitet.“
Den gesamten Blog dazu können Sie auf der Microsoft Homepage nachlesen.