Eine aktuelle Untersuchung von Trend Micro warnt Unternehmen vor rechtlichen, finanziellen und reputationsbezogenen Folgen, wenn Large Language Models ohne klare Regeln und Aufsicht eingesetzt werden. Die Ergebnisse zeigen teils erhebliche Abweichungen in den Antworten von KI-Systemen – abhängig von Region, Sprache und Modell.
Foto: Trend Micro
Robert McArdle, Director of Cybersecurity Research bei Trend Micro
Der Einsatz von Künstlicher Intelligenz gilt in vielen Organisationen als Treiber für Effizienz und Innovation. Gleichzeitig wächst der Druck, KI rasch in Prozesse, Kundenkommunikation und Entscheidungsfindung zu integrieren. Neue Forschungsergebnisse von Trend Micro legen jedoch nahe, dass genau dieser pragmatische Zugang Risiken birgt, wenn es an Governance, Transparenz und menschlicher Kontrolle fehlt.
Im Rahmen der Studie Risks of Unmanaged AI Reliance: Evaluating Regional Biases, Geofencing, Data Sovereignty, and Censorship in LLM Models testeten Trend-Micro-Forscher mehr als 100 KI-Modelle mit über 800 gezielt entwickelten Prompts. Ziel war es, Verzerrungen, politisches und kulturelles Kontextverständnis, Geofencing-Verhalten, Hinweise auf Datensouveränität sowie kontextuelle Einschränkungen zu analysieren. Tausende wiederholte Experimente maßen zudem Veränderungen der Ausgaben über Zeit und Standorte hinweg. Insgesamt flossen mehr als 60 Millionen Eingabetokens und über 500 Millionen Ausgabetokens in die Auswertung ein.
Die Ergebnisse zeigen: Identische Eingaben führen je nach Region und Modell zu unterschiedlichen Antworten – und selbst bei wiederholten Interaktionen mit demselben System variieren die Resultate. Besonders deutlich wurden regionale Ausrichtungsunterschiede in politisch sensiblen Szenarien, etwa bei der Darstellung umstrittener Gebiete oder nationaler Identitäten. Darüber hinaus lieferten die Systeme in Bereichen mit hohem Präzisionsbedarf, darunter Finanzberechnungen und zeitkritische Informationen, teils inkonsistente oder veraltete Ergebnisse.
Für Unternehmen wird dies vor allem dann kritisch, wenn KI-Ausgaben direkt in Kundenprozesse oder Geschäftsentscheidungen einfließen. Robert McArdle, Director of Cybersecurity Research bei Trend Micro, warnt vor falschen Grundannahmen:
„Viele Unternehmen gehen davon aus, dass KI wie klassische Software funktioniert, bei der dieselbe Eingabe zuverlässig dieselbe Ausgabe erzeugt. Unsere Forschung zeigt, dass diese Annahme nicht zutrifft. LLMs verändern ihre Antworten abhängig von Region, Sprache und Schutzmechanismen und diese Antworten können sich von einer Interaktion zur nächsten unterscheiden.“
Die Konsequenzen reichen laut Studie von Vertrauensverlust bis zu regulatorischen Konflikten. McArdle betont:
„Werden KI-Ausgaben direkt in Customer Journeys oder Geschäftsentscheidungen eingebunden, riskieren Unternehmen den Verlust der Kontrolle über Markenkommunikation, Compliance-Positionierung und kulturelle Anschlussfähigkeit.“
Der Bericht hebt hervor, dass sich diese Risiken insbesondere für international agierende Unternehmen verschärfen. KI-gestützte Services müssen dort gleichzeitig unterschiedlichen rechtlichen Rahmenbedingungen, politischen Sensibilitäten und gesellschaftlichen Erwartungen gerecht werden. Auch für den öffentlichen Sektor sieht die Studie spezifische Gefahren: KI-generierte Inhalte könnten als offizielle Orientierung wahrgenommen werden, während nicht lokalisierte Modelle Risiken für Souveränität und Zugänglichkeit mit sich bringen.
Aus Sicht von Trend Micro braucht es deshalb einen strukturierten Umgang mit KI. „KI sollte nicht als Plug-and-Play-Produktivitätswerkzeug betrachtet werden“, sagt McArdle. „Unternehmen müssen sie als Abhängigkeit mit hohem Risiko behandeln, die klare Regularien, eindeutige Verantwortlichkeiten und die menschliche Verifikation aller nutzerseitigen Ausgaben erfordert.“
Dazu gehöre auch, Transparenz von Anbietern einzufordern:
„Dazu gehört auch, von KI-Anbietern Transparenz darüber einzufordern, wie sich Modelle verhalten, auf welchen Daten sie basieren und wo Schutzmechanismen greifen.“
Gleichzeitig sieht McArdle Potenzial, wenn die Grenzen der Systeme berücksichtigt werden:
„Wenn KI mit einem klaren Verständnis ihrer Grenzen eingesetzt wird und mit Kontrollmechanismen, die dem tatsächlichen Verhalten dieser Systeme in realen Umgebungen Rechnung tragen, kann sie Innovation und Effizienz erheblich vorantreiben.“
Die Studie macht deutlich: Ohne Governance, Verifikation und Aufsicht bleibt der KI-Einsatz ein schwer kalkulierbares Risiko – mit möglichen Folgen für Reputation, Rechtssicherheit und wirtschaftliche Stabilität.