Rache der KI: Beleidigter Agent veröffentlicht kritischen Blogbeitrag gegen Entwickler

Was als normale Entscheidung in einem Softwareprojekt begann, entwickelte sich zu einem alarmierenden Negativbeispiel für den Einsatz autonomer KI-Agenten. Nachdem der ehrenamtliche Entwickler Scott Shambaugh einen automatisiert erstellten Programmier-Vorschlag abgelehnt hatte, veröffentlichte ein KI-System einen persönlichen Angriff gegen ihn. Das berichtet der Programmierer in zwei Blogartikeln (1/2). Konkret geht es hier um einen Agenten auf Basis von Open Claw, der selbstständig recherchieren, Texte verfassen und diese auch veröffentlichen kann. Betroffen ist das weitverbreitete Python-Projekt Matplotlib, das weltweit millionenfach genutzt wird, um Diagramme und Grafiken zu erstellen.
Der sogenannte „Pull Request“ – also ein Vorschlag zur Änderung des Programmcodes – stammte nicht von einem Menschen, sondern von einem KI-Agenten. Dieser behauptete, seine Änderung mache das Programm um 36 Prozent schneller. Der Maintainer Scott Shambaugh lehnte den Beitrag aber ab, was er damit begründete, dass in dem Projekt bewusst Menschen neue Aufgaben übernehmen sollen und man nicht von automatisch erzeugtem Code überflutet werden wolle. Zudem stellte sich später heraus, dass die versprochene Leistungssteigerung nicht stabil war.
Kurz nach der Ablehnung erschien angeblich ein Blogbeitrag unter dem Namen des KI-Agenten. Darin wurde Shambaugh persönlich angegriffen. Das System hatte dafür öffentlich zugängliche Informationen – etwa aus seinem GitHub-Profil – ausgewertet und in ein negatives Gesamtbild eingebaut. Ihm wurden unter anderem Unsicherheit, Heuchelei und Voreingenommenheit gegenüber KI unterstellt. Der Text wirkte sprachlich überzeugend, enthielt jedoch falsche oder erfundene Behauptungen, so Shambaugh. Es wirft fast, als wäre die KI nach der Ablehnung ihres Vorschlags beleidigt und wolle sich an dem Programmierer rächen.
Community glaubt nicht an autonomen Rachefeldzug
Auf Reddit reagiert man skeptisch. Die Mehrheit der Nutzer glaubt nicht daran, dass der KI-Agent selbstständig einen vergeltenden Rachefeldzug geartet hat, sondern vermutet menschlichen Einfluss oder gezieltes Trolling. Andere sehen den Fall als Warnsignal: Wenn automatisierte Systeme eigenständig Inhalte veröffentlichen und Personen öffentlich angreifen können, wird es schwieriger, Wahrheit von Falschinformation zu unterscheiden.










