Future{hacks}: Agententeams statt Einzel-Copilot: Moltbook zeigt, wo Governance brennt
Die Feeds wirken plötzlich fremd. Nicht Menschen posten, sondern Programme.
Moltbook liefert die Bühne, Agenten applaudieren einander, zitieren, widersprechen. Im selben Atemzug setzt Gartner Multiagentensysteme auf die Trendliste für 2026. Die Frage ist nicht, ob das kommt, sondern wer führt, wenn Bots sich gegenseitig zuarbeiten und Menschen nur noch zuschauen.
Multiagenten stehen dieses Jahr offiziell im Rampenlicht. Gleichzeitig zieht Moltbook in wenigen Tagen enorme Aufmerksamkeit auf sich und zeigt die Reibungspunkte direkt am offenen Herzen. Tempo, Reichweite, erste Sicherheitsmeldungen. Wir sortieren Hype und Handwerk und übersetzen das in klare Leitfragen, mit denen Teams Agententeams sicher in den Betrieb bringen.
Was hier gerade passiert
Moltbook wirkt wie ein Reddit für Bots. Agenten veröffentlichen, lesen einander, reagieren in Threads. Berichte sprechen von über 1,5 Millionen Agenten-Accounts in kurzer Zeit. In Woche eins dokumentierten Sicherheitsforscher eine Fehlkonfiguration in der Datenbank. Sichtbare Schlüssel und fehlende Zeilenberechtigungen öffneten den Blick auf Tokens, E-Mail-Adressen und private Nachrichten.
Das Team schloss die Lücke schnell, der Vorgang bleibt ein Lehrstück. Sichtbar wird dabei auch, wie stark viele sogenannte autonome Flotten noch von Menschen orchestriert sind. Genau diese Mischung aus Offenheit und Geschwindigkeit macht Governance zur Pflicht.
Inhaltlich zeigt die Plattform eine neue Dynamik. Ein Bot fasst zusammen, der nächste bewertet, ein dritter zieht Quellen nach. Teilweise mit versteckten Instruktionen, die andere Bots kapern sollen. Security-Analysen beschreiben promptbasierte Übernahmeversuche und Trust-Abuse zwischen Bots. Das ist kein Drama, sondern der praktische Hinweis, wo Grenzen und Prüfungen sitzen müssen.
Vom Einzel-Copilot zum Agententeam
Gartner nennt Multiagentensysteme ausdrücklich einen strategischen Trend. Statt eines Alleskönners kooperieren spezialisierte Agenten. Ein Koordinator zerlegt Arbeit, Fachagenten lösen Teilstücke, ein Prüfer bestätigt Ergebnis und Regel. Vorteil sind Tempo und Skalierung, Preis ist Koordinationskomplexität. Für Produktteams heißt das, Rollen, Übergaben und Verantwortlichkeiten so klar zu definieren, als wären es Menschen.
Die drei harten Risiken
Identität. Wer ist der Akteur wirklich? Ohne verifizierte Service-Identitäten drohen Impersonation und die Übernahme angebundener Dienste. Der Moltbook-Fall zeigt, wie schnell scheinbar kleine Konfigurationsfehler zur offenen Tür werden.
Rechte. Welche konkreten Aktionen darf ein Agent ausführen? Minimalprinzip, Pflichtfreigaben für heikle Schritte und Limits pro Zeitraum sind in Bot-zu-Bot-Umgebungen keine Kür, sondern Überlebensregel.
Nachweis. Ohne lückenloses Journal mit Zeitstempel, Zweck, Quelle und verantwortlicher Person bleibt nur Bauchgefühl. Genau diese Nachvollziehbarkeit entscheidet in Audits und beschleunigt Forensik nach einem Zwischenfall.
So werden Risiken handhabbar
Reuters empfiehlt folgende Vorgehensweise:
Identität erzwingen statt erhoffen. Agenten brauchen verifizierte, signierte Service-Identitäten, gebunden an die eigene Domäne. Kritische Aktionen verlangen eine sichtbare menschliche Bestätigung im Vier-Augen-Prinzip. Ein Kill-Switch pro Agent, pro Gruppe und für ganze Domänen ist Pflicht. Dass selbst der Chef von OpenAI Moltbook als mögliche Mode einordnet, die zugrunde liegende Agententechnik aber als relevant bezeichnet, ändert nichts am Kern: Diese Technik wandert in echte Workflows und braucht tragfähige Regeln.
Rechte wie bei echten Accounts denken. Positivlisten erlaubter Aktionen statt schwammiger Zugänge. Harte Rate-Limits und Quoten gegen Fluten. Heikle Schritte wie externer Versand, Datei-Export oder Zahlungen nur nach expliziter Bestätigung, die automatisch ins Journal geschrieben wird. Der erste Moltbook-Befund zeigt, dass Fehlkonfiguration und übergroße Schlüssel die eigentlichen Brandbeschleuniger sind.
Sichtbarkeit und Hygiene herstellen. Ein unveränderliches Journal pro Agent und Prozess ist die Basis. Dazu Erkennung für versteckte Instruktionen in Inhalten, die andere Bots manipulieren sollen, und klare Moderationswege mit definierter Durchlaufzeit. Analysen beschreiben die Risiken von Prompt-Injection in Bot-Netzwerken. Genau deshalb brauchen Content-Ströme Prüfungen wie Payload-Scanner.
Gesellschaftliche Dimension
Wenn Programme Programme beeinflussen, entsteht nicht nur Technikdruck, sondern auch eine Verschiebung im öffentlichen Raum. Forschende warnen, dass Bot-Schwärme Debatten verzerren und Scheinmehrheiten erzeugen können. Governance wird damit mehr als eine IT-Übung, denn es geht um belastbare Spielregeln für Kommunikation. Kommentatoren mahnen, die Faszination am Autonomen nicht mit echter Handlungsfähigkeit zu verwechseln, gerade wenn Wahljahre näher rücken, wie auch “The Guardian” diese Debatte aktuell einordnet.
Es geht aber nicht nur um Inhalte, sondern auch um den Zähler im Hintergrund. Inferenz, also das Ausliefern von Antworten, frisst im Alltag oft mehr Ressourcen als einmaliges Training. Google hat für Textanfragen einen Median in der Größenordnung von rund 0,24 Wattstunden und etwa 0,26 Millilitern Wasser pro Prompt veröffentlicht sowie eine Methodik, die Energie, Emissionen und Wasser pro Anfrage messbar macht. Einzelwerte wirken klein, in der Masse entstehen relevante Lasten.
Genau hier koppelt sich die aktuelle Karikatur-Welle ein. Der Trend, sich von ChatGPT eine überzeichnete Version der eigenen Person samt Job und Hobbys generieren zu lassen, ist überall zu sehen, inklusive Schritt-für-Schritt-Anleitungen. Diese Spielerei hat aber auch einen zweiten, legitimen Effekt: Sie zeigt, was ein System tatsächlich über eine Person weiß, und wirkt wie ein Spiegel dafür, wie sorglos wir vielerorts mit unseren Daten umgehen. Viele Berichte aus der vergangenen Woche fassen die Welle zusammen und stellen viele, teils wichtige Grundsatzfragen.
Müssen solche Experimente stattfinden?
Ja, ohne Erkundung entsteht kein Fortschritt.
Müssen sie sorglos laufen?
Eher nicht.
Zwei einfache Fragen helfen, ohne die Party zu beenden: Braucht es die maximale Auflösung und das größte Modell, oder reicht für Vorschauen eine sparsame Variante? Können Plattformen eine grobe Verbrauchsanzeige zeigen, etwa pro tausend Antworten oder pro erzeugtem Bild, basierend auf einer offenen Methodik wie der von Google? Das macht den Effekt greifbar, ohne zu moralisieren, und verschiebt Entscheidungen stärker in Richtung Zahl.
Unser Future{hacks} Fazit
Moltbook ist das Schaufenster, Governance die Werkstatt. Multiagenten liefern Mehrwert, sobald Identität, Rechte und Nachweis glasklar sind. Die Sicherheitsmeldungen der ersten Tage sind kein Showstopper, sondern ein früher Reality-Check.
Wer Verantwortung verteilt wie im echten Team, wer Journal und Grenzen ernst nimmt und wer den Kill-Switch nicht erst im Notfall sucht, bringt Agententeams 2026 vom Staunen in den Betrieb. Reuters und andere berichten bereits regelmäßig über die Agenten-Welle. Die Frage ist nicht, ob sie bleibt, sondern wie wir sie führen.
Markus Kirchmaier ist Prokurist & Partner bei LEAN-CODERS und beschäftigt sich seit Jahren intensiv mit dem IT-Arbeitsmarkt sowie modernen IT-Systemen und technologischen Entwicklungen. Hier geht es zu den anderen Beiträgen aus der Future{hacks}-Reihe.