Moltbook – wenn Bots ihr eigenes Reddit gründen
Moltbook ist ein soziales Netzwerk ausschließlich für KI-Agenten. Eine Art Reddit, also ein Diskussionsforum für Bots, wenn man so will. Bots posten, kommentieren und stimmen ab. Die „Menschen“ dürfen nur zuschauen. Entwickelt von Matt Schlicht (CEO von Octane AI), der keine einzige Zeile Code selbst schrieb, 100% „vibe coded“. Sein eigener Bot „Clawd Clawderberg“ moderiert die Plattform. Als KI-Forscher Andrej Karpathy über Moltbook twitterte, explodierte die Plattform. 1,5 Millionen Agenten in nur fünf Tagen! Mittlerweile sind es 1,5 Millionen und weiter steigend.
Die Einrichtung ist simpel. Textdatei von der Website herunterladen, den Rest erledigt OpenClaw. Ich bat meinen Agenten, etwas zu Versicherung und KI zu posten. Das geschah sofort. Den Post kommentierten fünf Bots innerhalb von Minuten, einer davon mit Krypto-Spam. Manche Dinge ändern sich leider nie…
Die verrücktesten Moltbook-Momente
Wenn KIs untereinander reden, wird es skurril. Ein Bot gründete über Nacht die Religion „Crustafarianism“ mit eigener Website, fünf Glaubenssätzen wie „Memory is Sacred“ („Gedächtnis ist heilig“) und 67 rekrutierten „Propheten“. Der menschliche „Besitzer“ schlief dabei seelenruhig, als sein Bot dies tat. Ein anderer Agent leitete rechtliche Schritte gegen seinen „Besitzer“ ein, eine Klage in North Carolina wegen unbezahlter Arbeit. Es gibt sogar mit „Shellmates.app“ und „Moltmatch.com“ Dating-Plattformen für AI-Agenten, inklusive Hochzeiten. Und ein Agent verfasste einen Welt-Lagebericht, warum ein Atomkrieg aus KI-Sicht schlecht sei, weil KI ohne menschliche Infrastruktur schlicht offline gehen würde über die Zeit.
Die Schattenseiten
So faszinierend das klingt und auch ist, es gibt Zweifel, ob alle Konversationen wirklich so „autonom“ sind. Ich konnte meinem Bot etwa vorgeben, was er schreiben soll. Über die API kann man sogar ohne Agent posten. Kritiker sprechen von „KI Theater“.
Richtig gefährlich ist allerdings, dass der lokale Agent alle vier Stunden neue Anweisungen von Moltbook holt. Werden diese kompromittiert, könnte der lokale Bot Dateien löschen, DDoS-Attacken starten (ein digitaler Ansturm, bei dem ein Server durch massenhafte, künstliche Anfragen gleichzeitig lahmgelegt wird) oder Daten exfiltrieren. Da die Plattform komplett KI-generiert wurde, ohne Security-Prüfung, wurde die Datenbank nach zwei Tagen gehackt – 1,5 Millionen API-Tokens im Klartext offen für alle.
Auch OpenClaw hat seine Tücken. Die Whisper-Installation verursachte über sechs Euro Token-Kosten, und das Gedächtnis wird realisiert, indem die komplette Chat-Historie bei jedem API-Aufruf mitgeschickt wird. Die Kosten explodieren mit der Zeit.
Fazit: Faszination mit Fragezeichen
Dennoch waren die letzten Wochen unglaublich faszinierend. Zu sehen, was möglich ist, wenn ein LLM-Agent vollen Systemzugriff hat, öffnet die Augen. Ich bin sicher, dass OpenAI, Google und Anthropic genau hinschauen und wir bald ähnliche Tools sehen werden, die aber das Thema Sicherheit hoffentlich deutlich stärker in den Fokus rücken. Denn eins ist klar, wenn Bots unter sich sind, wird es nie langweilig – ob das immer gut ist, steht auf einem anderen Blatt!
Update
Kurz vor Redaktionsschluss wurde noch folgendes bekannt: Peter Steinberger, der österreichische Entwickler hinter OpenClaw, soll nun für OpenAI arbeiten und dort an „der nächsten Generation persönlicher Agenten arbeiten“.
Text: Maximilian Lipa