Warum Anthropics neues KI-Modell 'Mythos' für die Öffentlichkeit (noch) zu gefährlich ist
Hallo Welt. 👋
Wenn ein Tech-Unternehmen behauptet, sein neues Produkt sei “zu gefährlich für die Öffentlichkeit”, greife ich normalerweise reflexartig zur Kaffeetasse und seufze. PR-Stunts dieser Art haben wir in unserer Branche schon unzählige Male gesehen. Ein bisschen Drama kurbelt schließlich die Aktienkurse an. Aber bei Anthropics neuestem Wurf, dem KI-Modell “Claude Mythos Preview”, blieb mir der Kaffee dann doch kurz im Hals stecken.
Ein kurzes Video von The Morpheus brachte mich auf die Fährte1. Die Behauptung: Das Modell sei praktisch eine Waffe, ein vollautomatisierter Profihacker. Also habe ich mir die Faktenlage einmal genauer angesehen – abseits des typischen Hypes und mit dem kritischen Blick eines Entwicklers, der schon einige “Revolutionen” im Web überlebt hat.
Ein Profihacker aus dem Rechenzentrum
Fangen wir bei den nackten Tatsachen an: Claude Mythos ist kein gewöhnliches Chat-Modell, das dir ein nettes Gedicht über deinen Hund schreibt. Es wurde tiefgreifend auf Code-Verständnis trainiert und hat dabei Fähigkeiten entwickelt, die selbst abgebrühte Security-Researcher ins Schwitzen bringen. In Tests hat das Modell autonom tausende schwerwiegende Schwachstellen in so ziemlich jedem großen Betriebssystem und Browser gefunden2.
Mein persönliches Highlight aus der Kategorie “Sachen, die es gar nicht geben dürfte”: Mythos hat eine 27 Jahre alte Sicherheitslücke in OpenBSD gefunden – einem der historisch am besten gesicherten Systeme der Welt34.
Noch brisanter ist allerdings das sogenannte “Chaining”: Das Modell belässt es nicht beim bloßen Finden von Bugs. Es ist in der Lage, mehrere kleine, scheinbar harmlose Schwachstellen im Linux-Kernel zu kombinieren, um komplexe Zero-Day-Exploits zu bauen, die eine vollständige Systemübernahme ermöglichen3. Was einen menschlichen Researcher normalerweise Tage oder Wochen an akribischer Denkarbeit kostet, erledigt Mythos in einem Bruchteil der Zeit2.
Project Glasswing: Die Flucht nach vorn
Statt das Modell einfach als API auf die Allgemeinheit loszulassen – was ungefähr so klug wäre, wie einen Eimer glühender Kohlen in eine Feuerwerksfabrik zu werfen –, hat Anthropic die Reißleine gezogen. Unter dem Namen “Project Glasswing” haben sie rund 40 Tech-Giganten (darunter Apple, Google, Microsoft, Amazon und die Linux Foundation) an einen Tisch geholt3.
Die Idee dahinter ist pure, pragmatische Logik: Die Verteidiger bekommen einen Vorsprung. Die beteiligten Firmen nutzen das Modell aktuell, um ihre eigenen Systeme und wichtigen Open-Source-Code zu durchleuchten und zu patchen, bevor jemand anderes diese potenziellen Lücken ausnutzen kann. Anthropic buttert hierfür ordentlich Ressourcen rein: Bis zu 100 Millionen US-Dollar in Form von Nutzungs-Credits für die Partner und 4 Millionen Dollar als direkte Spenden an Open-Source-Sicherheitsorganisationen3.
Das Resultat in der Praxis? Greg Kroah-Hartman (Linux Kernel) und Daniel Stenberg (curl) berichten bereits, dass die Zeiten von nutzlosem “KI-Slop” (also wild halluziniertem KI-Müll in Bug-Reports) vorbei sind. Stattdessen werden Open-Source-Maintainer gerade mit echten, hochqualitativen Security-Reports überflutet4. Das ist zwar anstrengend für die Entwickler, aber für das Fundament des Internets extrem wertvoll.
Der empathische Realist zieht Bilanz
IMO: Ich stehe der ganzen AGI-Romantik (Artificial General Intelligence) bekanntermaßen sehr kritisch gegenüber. Wir brauchen keine allwissende, gottgleiche Maschine. Aber ein Werkzeug, das unsere massiv komplexe und oft von historischem Code-Ballast geplagte digitale Infrastruktur absichert? Ja, bitte.
Die Entscheidung von Anthropic, dieses Modell vorerst unter Verschluss zu halten, ist in meinen Augen kein elitäres Gatekeeping, sondern schlichter Überlebensinstinkt für das offene Web. Wenn Script-Kiddies oder böswillige Akteure plötzlich Zugang zu einem automatisierten Exploit-Generator hätten, der auf dem Level eines Senior Security Researchers agiert… na ja, dann bräuchten wir über Datenschutz bald gar nicht mehr zu diskutieren, weil es schlichtweg keine intakten Daten mehr gäbe. Die Asymmetrie zwischen Angreifern und Verteidigern war schon immer ein Problem in der IT-Security. Ein solches Tool ungefiltert freizugeben, hätte diese Balance komplett zerstört.
Bleibt neugierig und kritisch! ✌️
Footnotes
-
Anthropics neuestes Modell ist ein Profihacker?! | YouTube, Zugriff am April 9, 2026, https://youtube.com/shorts/S4BmwNGCRok ↩
-
What is Claude Mythos, and why is Anthropic limiting its rollout? | The Indian Express, Zugriff am April 9, 2026, https://indianexpress.com/article/explained/explained-sci-tech/anthropic-claude-mythos-ai-cybersecurity-risk-10625159/ ↩ ↩2
-
Claude Mythos, Anthropic AI capable of hacking any software, joins forces with Google, Apple, AWS & more; Users’ personal data at risk? | The Economic Times, Zugriff am April 9, 2026, https://m.economictimes.com/news/new-updates/claude-mythos-anthropic-ai-capable-of-hacking-any-software-joins-forces-with-google-apple-aws-more-users-personal-data-at-risk/articleshow/130106401.cms ↩ ↩2 ↩3 ↩4
-
Anthropic’s Project Glasswing—restricting Claude Mythos to security researchers—sounds necessary to me | Simon Willison’s Weblog, Zugriff am April 9, 2026, https://simonwillison.net/2026/Apr/7/project-glasswing/ ↩ ↩2
Hinweis: Dieser Beitrag spiegelt meine persönliche Meinung wider und stellt keine Rechtsberatung dar.
Hast du einen Fehler entdeckt oder hast du Fragen/Anmerkungen zu diesem Thema? Ich freue mich über deine Nachricht!