AI-Sicherheitsprofis verlassen Top-Firmen mit düsteren Warnungen
Mrinank Sharma hat seinen Job als AI-Sicherheitsforscher bei Anthropic hingeworfen, und zwar mit einer ominösen Warnung, dass „die Welt in Gefahr“ sei, berichtet die BBC. In seinem auf X geteilten Kündigungsschreiben nennt Sharma Bedenken über AI, Biowaffen und den Zustand der Welt als Gründe für seinen Abgang.
Anthropic-Sicherheitsforscher widmet sich lieber Poesie
Der Forscher leitete bei Anthropic ein Team, das KI-Schutzmaßnahmen entwickelte, darunter Forschung zu AI-unterstütztem Bioterrorismus und der Frage, wie AI-Assistenten Menschen „weniger menschlich machen“ könnten. Sharma scheint nun der gesamten KI-Welt den Rücken zu kehren. Statt weiter an der Technologie zu arbeiten, will er nun Poesie studieren und schreiben.
„Die Welt ist in Gefahr. Und nicht nur wegen AI oder Biowaffen, sondern wegen einer ganzen Reihe miteinander verbundener Krisen, die sich in diesem Moment entfalten“, schreibt Sharma. Er habe „wiederholt gesehen, wie schwer es ist, unsere Werte wirklich unsere Handlungen bestimmen zu lassen.“ Das schien auch bei Anthropic der Fall gewesen zu sein.
OpenAI-Forscherin fürchtet Abhängigkeit von KI-Tools
Sharma plant, nach Großbritannien zurückzukehren und sich „für eine gewisse Zeit unsichtbar zu machen.“ Anthropic, 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, positioniert sich als Public Benefit Corporation mit Fokus auf AI-Sicherheit. Mit Claude hat das Unternehmen einen starken ChatGPT-Konkurrenten entwickelt. 2025 hat die Firma eine Sammelklage von Autor:innen für 1,5 Milliarden Dollar beigelegt, die dem Unternehmen vorwarfen, ihre Werke zum Training von AI-Modellen gestohlen zu haben.
Nicht nur Sharma hat sich für den Ausstieg aus AI entschieden. Auch Zoe Hitzig, eine Forscherin bei OpenAI, hat kürzlich ihren Rücktritt erklärt. Das begründete sie teilweise mit Sorgen über die Einführung von Werbung in ChatGPT. Gegenüber der BBC sagt sie: „Ich fühle mich wirklich nervös, in der Branche zu arbeiten.“ Ihre Bedenken betreffen die psychosozialen Auswirkungen einer „neuen Art sozialer Interaktion.“ Die Abhängigkeit von AI-Tools sieht sie als besorgniserregend. Sie könne bestimmte Arten von Wahnvorstellungen verstärken.
„Eine wirtschaftliche Maschinerie zu schaffen, die davon profitiert, diese Art neuer Beziehungen zu fördern, bevor wir sie verstehen, ist wirklich gefährlich“, warnt Hitzig. Es sei jedoch noch Zeit übrig, um Regulierungen zu etablieren, die diese Technologie tatsächlich kontrollieren können. Die beiden Rücktritte zeigen, wie selbst in Firmen, die sich AI-Sicherheit auf die Fahnen schreiben, Zukunftsängste entstehen können.

