Alle 14 Tage aktuelle News aus der IT-Szene >
Eine aktuelle Analyse von Barracuda zeigt, wie Scraper-Bots mit generativer KI massenhaft Websites ansteuern, um Informationen zu extrahieren. Der zunehmende Datenverkehr wirft neue Herausforderungen für die Anwendungssicherheit auf.
Foto: Barracuda
„Gray Bots mit generativer KI verwischen die Grenzen legitimer Online-Aktivitäten“, erklärt Klaus Gheri, VP & GM Network Security bei Barracuda
Die Grenze zwischen legitimen Crawlern und schädlichen Aktivitäten wird zunehmend unscharf. Laut einem aktuellen Report von Barracuda registrieren Web-Anwendungen teils Millionen Anfragen pro Monat durch sogenannte „Gray Bots“. Diese mit generativer KI ausgestatteten Scraper-Bots stellen eine neue Kategorie dar: nicht offen schädlich, aber potenziell problematisch.
Laut Erkennungsdaten von Barracuda gingen zwischen Dezember 2024 und Februar 2025 Millionen von Anfragen von KI-Bots wie ClaudeBot oder dem TikTok-eigenen Bytespider bei verschiedenen Web-Anwendungen ein. Eine der überwachten Anwendungen wurde allein an einem einzigen Tag über 500.000 Mal kontaktiert. Bei einer anderen wurden innerhalb von 30 Tagen insgesamt 9,7 Millionen Anfragen durch KI-gestützte Scraper verzeichnet. Selbst bei langfristigen Beobachtungen blieben die Zugriffszahlen auf einem konstant hohen Niveau – im Schnitt 17.000 Anfragen pro Stunde.
„Gray Bots mit generativer KI verwischen die Grenzen legitimer Online-Aktivitäten“, erklärt Klaus Gheri, VP & GM Network Security bei Barracuda. Solche Bots könnten große Mengen an sensiblen oder kommerziellen Daten erfassen, den Datenverkehr von Web-Anwendungen erheblich belasten oder gar Betriebsabläufe stören. Gheri warnt zudem vor verfälschten Website-Analysen: „Häufiges Scraping durch Gray Bots kann die Web-Performance beeinträchtigen und ihre Präsenz auf Websites kann Website-Analysen verzerren, was zu irreführenden Erkenntnissen führt und die Entscheidungsfindung beeinträchtigt.“
Eine gängige Schutzmaßnahme ist die Konfiguration der Datei robots.txt, die Scrapern das Crawling untersagt. Diese Methode hat jedoch Einschränkungen: Sie ist nicht rechtsverbindlich und setzt voraus, dass sich der Bot an die Vorgaben hält. Daher empfiehlt Barracuda zusätzliche technische Schutzmechanismen. Dazu zählen etwa Bot-Management-Systeme, die mithilfe von Machine Learning, verhaltensbasierter Analyse und Echtzeit-Blockierung auf Scraper mit generativer KI reagieren können.
Barracuda weist darauf hin, dass neben generativen KI-Bots auch Content-Aggregatoren und andere Web-Scraper unter die Kategorie „Gray Bots“ fallen können. Ihr Einsatz erfordert verstärkte Aufmerksamkeit in Unternehmen, die auf belastbare Web-Daten und reibungslose Performance angewiesen sind.