Mit Open Claw kann vieles schief gehen, da KI-Agenten nicht verstehen, was sie tun. Es braucht Fachwissen und eine eigene Infrastruktur. Wer dies in den Wind schlägt, handelt fahrlässig (oder naiv).
Dieser tolle Artikel von Eva Wolfangel in der ZEIT zeigt anschaulich, was passieren kann, wenn Open Claw für sensible Tätigkeiten und ohne Fachwissen genutzt wird, wovon Laien die Finger lassen sollten. Das hat bereits der Erfinder Peter Steinberger von Beginn weg klar gemacht.
👁️ Die im Artikel erwähnte Wissenschaftlerin Natalie Shapira hat diese Empfehlung offensichtlich in den Wind geschlagen. «Wir haben aus reiner Neugier angefangen», sagt Natalie Shapira gegenüber der ZEIT. Am Ende hatte sie den KI-Agenten dazu gebracht, im Namen eines Kollegen E-Mails an die internationale Presse zu verschicken und seinen kompletten E-Mail-Server zu löschen.
👁️ Die Risiken leistungsfähiger KI-Agenten in den Bereichen Sicherheit, Privatsphäre und Rechenschaftspflicht sind real. In diesem Sinne sind die Experimente von Shapira und ihren Kolleg:innen wertvoll, dokumentiert im Fachartikel «Agents of Chaos». (Was für ein aufsehenerregender Titel. 😉)
👁️ Wichtig zu wissen ist dabei immer: Diese Risiken gibt es nicht, weil die Maschine eigene Ziele verfolgt oder über ein Bewusstsein verfügt. Wir haben es nicht mit einer «entfesselten» Maschine oder einer «AGI» zu tun.
👁️ Es handelt sich um leistungsfähige KI-Systeme, die Aufträge von Menschen innerhalb eines gewissen Spielraums ausführen. Dabei ist nicht immer nachvollziehbar, wie der KI-Agent den Auftrag versteht oder mit welcher Strategie er diesen ausführt. Denn er wurde mit ganz unterschiedlichen Daten trainiert. Darin sind unterschiedliche Muster und Strategien enthalten.
Anlass für diesen Beitrag ist der Artikel von Eva Wolfangel «Das ist erst der Anfang des Chaos» in der ZEIT (17.3.2026). Darin wird auch auf den erwähnten Fachartikel von Natalie Shapira et al. verlinkt mit dem knackigen Titel «Agents of Chaos» (23.2.2026).