OpenAI kontert Claude Mythos mit GPT-5.4 Cyber
Anthropic hält das Modell unter Verschluss. OpenAI veröffentlicht vergleichbare Offensive-Cyber-Fähigkeiten — aber nur an verifizierte Nutzer.
Zwei Top-Labs, zwei Antworten auf dasselbe Problem: Modelle, die eigenständig Schwachstellen finden und ausnutzen. Anthropic sperrt Mythos zum Release. OpenAI gibt GPT-5.4 Cyber frei — hinter einem KYC-Gate.
Claude Mythos: vorgestellt, aber nicht freigegeben
Das neue Claude-Modell „Mythos“ ist zwar vorgestellt worden – aber nicht öffentlich zugänglich.
Und das hat einen Grund: Das Modell ist extrem gut darin, Sicherheitslücken zu finden und auszunutzen. Teilweise entdeckt es Schwachstellen, die seit Jahren existieren, und baut daraus funktionierende Angriffe. Wenn solche Modelle frei verfügbar wären, könnte ein einzelner Nutzer plötzlich Dinge tun, für die heute ganze Security-Teams nötig sind.
OpenAI kontert mit GPT-5.4 Cyber
Kurz nach Mythos wurde GPT-5.4 Cyber vorgestellt – ziemlich klar als Gegenstück.
GPT-5.4 Cyber findet schneller Schwachstellen, analysiert auch kompilierte Programme und unterstützt aktiv beim Absichern von Systemen – mit weniger Einschränkungen für legitime Security-Anfragen.
Zugang nur nach Identitätsprüfung
Einfach frei zugänglich ist das Modell auch nicht. Rein kommt man nur über das „Trusted Access for Cyber“-Programm.
- Nutzer müssen sich verifizieren
- Inklusive Identitätsprüfung / KYC
Zwei Philosophien, ein Risiko
Ich musste dafür tatsächlich meinen Personalausweis verifizieren, bevor ich Zugriff bekommen habe.
Der Unterschied zu Mythos ist damit ziemlich klar: Anthropic hält das Modell stark zurück, weil es zu gefährlich sein könnte. OpenAI gibt ähnliche Fähigkeiten heraus — aber nur an verifizierte Nutzer.
