OpenAI hat ein neues Sicherheits-Feature für ChatGPT und Codex vorgestellt, das auf den ersten Blick wie ein klassisches Account-Update wirkt. Tatsächlich ist „Advanced Account Security“ strategisch deutlich interessanter. Denn OpenAI behandelt Nutzerkonten damit nicht mehr bloß wie normale Login-Zugänge, sondern immer stärker wie Eintrittspunkte zu sensiblen Arbeits- und Wissenssystemen.
Genau das ist die eigentliche Nachricht. Wer ChatGPT oder Codex nur gelegentlich für einfache Fragen nutzt, sieht darin vielleicht vor allem mehr Schutz gegen Account-Übernahmen. Aber für viele Nutzer steckt inzwischen deutlich mehr in so einem Konto: persönliche Kontexte, berufliche Informationen, laufende Projekte, verknüpfte Tools, Codex-Workflows und teils ziemlich sensible Arbeitsinhalte.
OpenAI bündelt in dem neuen Modus mehrere Schutzmaßnahmen auf einmal. Dazu gehören phishing-resistente Anmeldungen über Passkeys oder physische Security Keys, der Verzicht auf klassische passwortbasierte Logins, strengere Recovery-Mechanismen ohne E-Mail- oder SMS-Wiederherstellung, kürzere Sessions sowie klarere Verwaltung aktiver Geräte. Für besonders sensible Konten werden Gespräche in diesem Modus außerdem automatisch von der Modell-Trainingsnutzung ausgeschlossen.
Das ist mehr als nur gute Security-Hygiene. OpenAI macht damit sehr offen sichtbar, wie sich die Rolle von ChatGPT und Codex verändert. Solange KI-Tools nur lose Zusatzsoftware sind, reicht Standard-Accountschutz oft aus. Sobald sie aber zum Ort werden, an dem Recherche, Code-Arbeit, Dokumentation, Analyse und interne Wissensarbeit zusammenlaufen, kippt die Risikologik. Dann ist ein kompromittiertes KI-Konto nicht nur unangenehm, sondern potenziell ein echter Sicherheitsvorfall.
Gerade für Codex ist das bemerkenswert. OpenAI schreibt ausdrücklich, dass der Schutz auch dort greift. Das ist wichtig, weil Coding- und Agent-Workflows immer häufiger direkten Zugriff auf Dateien, Tools, Sessions und sensible Projektkontexte haben. Wer so ein Konto übernimmt, bekommt eben nicht nur Chatverläufe, sondern im Zweifel Einblick in produktive Entwicklungsarbeit oder in operative Abläufe, die rund um ein Modell organisiert wurden.
Ein weiterer interessanter Punkt ist die Recovery-Logik. OpenAI kappt bewusst die bequemen, aber angreifbaren Standardpfade über E-Mail und SMS. Stattdessen setzt der neue Modus auf Backup-Passkeys, Security Keys und Recovery Keys. Das erhöht die Sicherheit deutlich, verschiebt aber auch Verantwortung auf die Nutzer. Wer diese stärkeren Verfahren aktiviert, muss seine eigene Wiederherstellung sehr sauber organisieren, weil selbst OpenAI Support im Ernstfall nicht mehr helfen kann.
Genau darin steckt ein bekanntes Muster aus der Sicherheitswelt: Hohe Schutzstufen funktionieren nur, wenn Nutzer bereit sind, Bequemlichkeit gegen Resilienz einzutauschen. Für normale Consumer-Accounts ist das oft zu viel Reibung. Für Journalisten, Forscher, politische Akteure, sicherheitssensible Teams oder Entwickler mit kritischen Zugängen kann diese zusätzliche Reibung aber absolut sinnvoll sein.
Spannend ist auch die Verbindung zur größeren OpenAI-Strategie. Das Unternehmen verknüpft die neue Funktion direkt mit seinem Cybersecurity Action Plan und kündigt an, dass einzelne Teilnehmer des Programms „Trusted Access for Cyber“ Advanced Account Security ab Juni 2026 verpflichtend aktivieren müssen. Damit wird aus einem optionalen Produktfeature teilweise schon ein Zugangsstandard für besonders leistungsfähige und sensible Modellnutzung.
Für den Markt ist das ein klares Signal. Der Wettbewerb im KI-Bereich dreht sich nicht mehr nur um Modellqualität, Geschwindigkeit oder neue Agentenfunktionen. Je tiefer KI in echte Arbeitsprozesse eingebaut wird, desto wichtiger werden Identitäts- und Zugriffsschichten. Wer produktive KI-Systeme betreibt, braucht nicht nur gute Modelle, sondern auch belastbare Sicherheitsmechanismen rund um Login, Session-Management, Recovery und Datenkontrolle.
Deshalb ist diese Ankündigung blogtauglich, obwohl sie zunächst nicht wie ein großer Modell-Launch aussieht. Sie zeigt sehr konkret, dass ChatGPT und Codex aus der Kategorie „nützliches Tool“ weiter in Richtung „kritische Infrastruktur für Wissens- und Entwicklungsarbeit“ rutschen. Genau an diesem Punkt wird Kontosicherheit zu einem Produktmerkmal mit strategischem Gewicht.
Für Unternehmen und fortgeschrittene Einzelanwender ist die praktische Frage jetzt nicht nur, ob man dieses Feature einschaltet. Wichtiger ist, ob die eigene KI-Nutzung bereits so sensibel geworden ist, dass Standard-Login-Modelle eigentlich nicht mehr genügen. Wenn ein ChatGPT- oder Codex-Konto heute tief im Arbeitsalltag steckt, lautet die ehrliche Antwort oft: wahrscheinlich ja.
Quellen
- OpenAI: Introducing Advanced Account Security (30.04.2026)
- OpenAI: Cybersecurity in the Intelligence Age (29.04.2026)
- OpenAI: Learn more – Advanced Account Security / ChatGPT (abgerufen am 30.04.2026)