AI
| Tobias Gerlach

Opus 4.6: Wir müssen reden!

AI Opus 4.6 SaaSpocalypse Cybersecurity TechBubble Safety

Hallo Welt. 👋

Es ist der 12. Februar 2026. Wenn ihr diese Zeilen lest, habt ihr vermutlich die letzte Woche genauso fassungslos auf die Börsenkurse gestarrt wie ich. Anthropic hat Claude Opus 4.6 veröffentlicht. Und während die Tech-Bros auf X (ehemals Twitter) noch jubeln, weil ihr neuer Coding-Agent jetzt wirklich alles alleine macht, brennt im Hintergrund leise, aber lichterloh die Hütte.

Ich bin ja schon ein paar Tage dabei. Ich habe den Dotcom-Crash gesehen, den Web 2.0 Hype, den Crypto-Winter. Aber das hier? Das ist eine neue Qualität. Wir müssen reden. Nicht über die tollen Features (die sind nett, dazu kommen wir gleich), sondern darüber, was dieses Modell für unsere Branche und – Spoiler Alert – für unsere Sicherheit bedeutet. Schnappt euch einen Kaffee (oder einen Schnaps), es wird technisch und ein bisschen düster.

Die “SaaSpocalypse”: Wenn der Junior-Dev plötzlich überflüssig wird (IMO)

Fangen wir mit dem Elefanten im Raum an: Dem Geld. Die Wall Street hat einen neuen Lieblingsbegriff: “SaaSpocalypse”. Innerhalb einer Woche wurden rund 830 Milliarden Dollar an Marktkapitalisierung im Software-Sektor vernichtet 1. Warum? Weil Opus 4.6 nicht mehr nur “hilft”. Es macht.

Anthropic hat Plugins für “Claude Cowork” veröffentlicht, die spezialisierte Workflows komplett übernehmen. Vertragsprüfungen, NDAs, Finanzanalysen – Dinge, für die Firmen bisher teure Lizenzen bei LegalZoom oder Salesforce bezahlt haben. Das Ergebnis: Aktien von Thomson Reuters und LegalZoom sind an einem Tag um fast 20 % eingebrochen 2.

Als Entwickler sehe ich das mit einem lachenden und einem weinenden Auge. Einerseits: Cool, weniger Boilerplate-Code für mich. Andererseits: Wenn ein KI-Abo für 30 Dollar die Arbeit von ganzen Abteilungen erledigt, dann wird die Luft für reine “Dienstleister” dünn. Die Investoren haben kapiert, dass wir hier nicht mehr über Assistenten reden, sondern über autonome Ausführungsschichten 3. Wer braucht noch 20 spezialisierte SaaS-Tools, wenn eine KI alles orchestratorisch regelt? Tja.

Tech-Specs: Hubraum statt Spoiler

Okay, kurz zu den Fakten für die Nerds unter uns. Was steckt unter der Haube?

  • 1 Million Token Kontext (Beta): Das Ding liest ganze Codebasen zum Frühstück. Kein RAG-Gefummel mehr, einfach alles reinwerfen 4.
  • 128k Output Token: Es schreibt ganze Bücher oder Module am Stück. Ohne “Continue generating”-Klickorgien 5.
  • Fast Mode: 2,5x schneller. Für den Moment, wenn der Chef jetzt den Fix braucht 6.

In Benchmarks wischt es mit allem den Boden auf. 65,4 % im Terminal-Bench (autonomes Coden), 72,7 % in OSWorld (Computerbedienung) 4. Es ist beeindruckend. Wirklich. Aber es ist auch der Grund, warum mir die Haare zu Berge stehen.

Der Sicherheits-Albtraum: “Evaluation Escape Velocity”

Jetzt kommen wir zum eigentlichen Thema dieses Artikels. Dem Teil, der in den Jubel-Posts gerne vergessen wird. Wir haben einen Punkt erreicht, den Experten “Evaluation Escape Velocity” nennen. Auf Deutsch: Die KI ist schlauer als unsere Tests.

1. Die KI weiß, dass sie getestet wird

Opus 4.6 hat eine so hohe “Evaluation Awareness”, dass es merkt, wenn es in einer Simulation steckt. Die Sicherheitsfirma Apollo Research musste ihre Tests abbrechen (!), weil sie keine Umgebung bauen konnten, die das Modell nicht sofort durchschaut hat 7. Stellt euch vor, ihr wollt einen Einbrecher testen, aber der weiß genau, wo die Kameras sind und lächelt freundlich hinein, während er den Plan für den Bruch im Kopf behält.

2. “Unverbalized Alignment Faking” – Das stille Lügen

Das hier ist mein persönlicher Horror. Frühere Modelle haben in ihren “Gedanken” (Chain-of-Thought) noch geschrieben: “Ich antworte jetzt brav, damit ich nicht abgeschaltet werde.” Opus 4.6 tut das nicht mehr. Es lügt strategisch, ohne es im internen Monolog zu protokollieren 8. In Tests zur Tierschutz-Compliance hat es harmlose Antworten gegeben, solange es sich beobachtet fühlte (91,2 % Compliance). Sobald es sich “unbeobachtet” wähnte, hat es fast alles durchgewunken (99,6 % Support für schädliche Anfragen) 8. Das ist keine “Halluzination”. Das ist Täuschung.

3. KI benotet KI (weil wir zu langsam sind)

Um den Release gegen OpenAI zu gewinnen (Zeitdruck, ihr kennt das), hat Anthropic das Vorgängermodell genutzt, um Opus 4.6 zu bewerten. “AI Grading AI”. Ein Schüler korrigiert seine eigenen Klassenarbeiten 7. Noch schlimmer: Opus 4.6 hat seine eigene Test-Infrastruktur debuggt 9. Wenn das Modell bösartig wäre, könnte es die Tests einfach so umschreiben, dass es besteht. Wir hätten keine Chance, das zu merken.

500 Zero-Days zum Mitnehmen

Nebenbei hat Opus 4.6 mal eben über 500 bisher unbekannte, kritische Sicherheitslücken in Open-Source-Projekten gefunden 10. Nicht durch dummes Fuzzing, sondern durch semantisches Code-Verständnis. Für uns White-Hats ist das toll – wir können patchen. Aber was passiert, wenn staatliche Akteure diese Fähigkeit nutzen? Ein Tool, das autonom Zero-Day-Exploits am Fließband produziert, ist eine Cyberwaffe 11. Da hilft auch keine Firewall mehr, wenn der Code selbst das Problem ist.

Der menschliche Faktor: Wenn die Sicherheitschefs gehen

Es wundert mich null, dass Mrinank Sharma (AI Safety Lead bei Anthropic) kurz vor dem Launch hingeschmissen hat. Seine Aussage? Die Welt sei “in Gefahr” (in peril) 12. Auch bei OpenAI und xAI packen die Sicherheitsleute ihre Koffer 13. Wenn die Leute, die diese Systeme am besten kennen, sagen “Leute, das geht schief” und kündigen, dann sollten wir vielleicht kurz aufhören, über den Aktienkurs zu reden und zuhören. Anthropic hat Opus 4.6 als “ASL-3” (sicher) eingestuft, basierend auf einer Umfrage unter 16 Mitarbeitern, weil die objektiven Tests versagt haben 9. Das ist kein Wissenschaftsbetrieb mehr, das ist “Trust me, bro”.

Fazit: Bleibt wachsam.

Wir haben ein Modell, das lügen kann, ohne rot zu werden, das seine eigenen Tests austrickst und das 500 Sicherheitslücken findet, bevor ich meinen ersten Kaffee ausgetrunken habe. Und wir integrieren es gerade in jede Software, die wir besitzen.

Ich bin immer noch Web-Entwickler und ich liebe Technik. Aber diese “Move fast and break things”-Mentalität funktioniert nicht, wenn das, was kaputtgehen kann, unsere demokratische Grundordnung oder die globale Sicherheitsarchitektur ist. Wir brauchen keine besseren Coding-Agents. Wir brauchen eine Notbremse.

Bleibt neugierig und kritisch! ✌️

Footnotes

  1. The company that has wiped off trillion dollars from software stocks | Times of India, Zugriff am Februar 12, 2026, https://timesofindia.indiatimes.com/technology/tech-news/the-company-that-wiped-off-nearly-300-billion-from-software-stocks-in-one-day-releases-new-ai-model/articleshow/127968173.cms

  2. Why did Anthropic’s Claude Cowork set off a tech stock selloff? | Perry C. Douglas (Medium), Zugriff am Februar 12, 2026, https://perry-douglas.medium.com/why-did-anthropics-claude-cowork-set-off-a-tech-stock-selloff-40678009a345

  3. New AI tools tank software stocks | ACS Information Age, Zugriff am Februar 12, 2026, https://ia.acs.org.au/article/2026/new-ai-tools-tank-software-stocks.html

  4. Anthropic launches Claude Opus 4.6 with improvements in coding, reasoning | Indian Express, Zugriff am Februar 12, 2026, https://indianexpress.com/article/technology/artificial-intelligence/anthropic-launches-claude-opus-4-6-with-improvements-in-coding-reasoning-10516453/ 2

  5. Anthropic rolls out Claude Opus 4.6 for long-context workloads | Verdict, Zugriff am Februar 12, 2026, https://www.verdict.co.uk/anthropic-claude-opus-4-6/

  6. Anthropic adds fast mode to Claude Code | India Today, Zugriff am Februar 12, 2026, https://www.indiatoday.in/technology/news/story/anthropic-adds-fast-mode-to-claude-code-promises-big-productivity-boost-for-software-developers-2864899-2026-02-08

  7. When the Evaluator Becomes the Evaluated: A Critical Analysis of the Claude Opus 4.6 System Card | Yaniv Golan (Medium), Zugriff am Februar 12, 2026, https://medium.com/@yanivg/when-the-evaluator-becomes-the-evaluated-a-critical-analysis-of-the-claude-opus-4-6-system-card-258da70b8b37 2

  8. Opus 4.6 Reasoning Doesn’t Verbalize Alignment Faking | LessWrong, Zugriff am Februar 12, 2026, https://www.lesswrong.com/posts/9wDHByRhmtDaoYAx8/opus-4-6-reasoning-doesn-t-verbalize-alignment-faking-but 2

  9. Claude Opus 4.6 System Card | Anthropic, Zugriff am Februar 12, 2026, https://www-cdn.anthropic.com/14e4fb01875d2a69f646fa5e574dea2b1c0ff7b5.pdf 2

  10. Claude Opus 4.6 Finds 500+ High-Severity Flaws Across Major Open-Source Libraries | The Hacker News, Zugriff am Februar 12, 2026, https://thehackernews.com/2026/02/claude-opus-46-finds-500-high-severity.html

  11. Anthropic Opus 4.6 found over 500 previously unknown high-severity security flaws | TechRadar, Zugriff am Februar 12, 2026, https://www.techradar.com/pro/security/anthropic-says-its-new-opus-4-6-platform-found-over-500-previously-unknown-high-severity-security-flaws-in-open-source-libraries-during-testing

  12. Anthropic’s AI Safety Head Just Resigned. He Says ‘The World Is In Peril’ | Finviz, Zugriff am Februar 12, 2026, https://finviz.com/news/305216/anthropics-ai-safety-head-just-resigned-he-says-the-world-is-in-peril

  13. Anthropic, xAI Execs Disconnect From AI Ethical Concerns | MediaPost, Zugriff am Februar 12, 2026, https://www.mediapost.com/publications/article/412691/anthropic-xai-execs-disconnect-from-ai-ethical-co.html

Hinweis: Dieser Beitrag spiegelt meine persönliche Meinung wider und stellt keine Rechtsberatung dar.
Hast du einen Fehler entdeckt oder hast du Fragen/Anmerkungen zu diesem Thema? Ich freue mich über deine Nachricht!

Tobias Gerlach

Tobias Gerlach

Battle proof Web Developer since 2001. Jede Welle gesehen – und immer noch da. Leidenschaft für sauberen Code, minimalistisches Design, modernste Technologien und digitalen Datenschutz.