Gründung

Safe Superintelligence: Neues Startup von OpenAI-Mitgründer verspricht „sichere“ AI

ILYA SUTSKEVER gründet Safe Superintelligence © OPENAI
ILYA SUTSKEVER gründet Safe Superintelligence © OPENAI
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Erst im vergangenen Mai hat Ilya Sutskever, der Mitgründer und bisherige wissenschaftliche Leiter von OpenAI, das Unternehmen nach fast einem Jahrzehnt verlassen (wir berichteten). Er kündigte daraufhin an, dass er sich einem neuen Projekt widmen wollte. Nun zeigt sich, was für ein Projekt das wird. Laut Handelsblatt hat Sutskever angekündigt, ein neues AI-Startup namens Safe Superintelligence zu gründen. Die neue Jungfirma soll eine „sichere“ Super-AI entwickeln.

OpenAI: Chef-Forscher Ilya Sutskever verlässt Startup nach internen Differenzen

Safe Superintelligence legt Fokus auf sichere Super-AI

Sutskever stand bei OpenAI gegen Ende im Mittelpunkt von einem Richtungsstreit. Als Vorstandsmitglied hatte er im letzten Jahr zunächst für die Absetzung Altmans als CEO gestimmt. Dann änderte er seine Meinung und unterzeichnete einen offenen Brief, der Altmans Rückkehr forderte. Bei dem Streit ging es gerade um das Thema Sicherheit. Eine Gruppe von Beschäftigten hatte Sam Altman vorgeworfen, neue Entwicklungen von AI zu früh mit der Öffentlichkeit zu teilen. Er habe Sicherheitsrisiken vorher nicht ausreichend abgewogen.

Mittlerweile ist der Co-Founder selbst nicht mehr bei OpenAI. Sein neues Unternehmen Safe Superintelligence (SSI) mit Sitz in Palo Alto, Kalifornien, und Tel Aviv befasse sich mit „dem wichtigsten technischen Problem unserer Zeit“, hieß es auf der Website. „Dieses Unternehmen ist insofern etwas Besonderes, als sein erstes Produkt die sichere Superintelligenz sein wird, und es wird bis dahin nichts anderes machen“, sagte Sutskever gegenüber Bloomberg. „Es wird völlig isoliert sein von dem äußeren Druck, sich mit einem großen und komplizierten Produkt befassen zu müssen und in einem Konkurrenzkampf stecken zu bleiben.“

Ex-NSA-Chef Paul Nakasone zieht bei OpenAI ein

Founder Sutskever war wichtig für OpenAI-Modelle

„Auf der grundlegendsten Ebene sollte eine sichere Superintelligenz die Eigenschaft haben, der Menschheit nicht in großem Umfang zu schaden“, so Sutskever.“ Der Gründer machte keinen Angaben, wer die Geldgeber hinter Safe Superintelligence sind oder wie viele Investorengelder das Startup eingesammelt hat. Sutskever gilt als Vertrauter von Tesla-Chef Elon Musk. Neben ihm zählen OpenAI-Forscher Daniel Levy sowie Daniel Gross, ehemaliger Leiter der KI-Sparte bei Apple, zu den Co-Gründern von SSI.

Wie genau die sichere AI aussehen soll, hat Sutskever noch nicht genau erklärt. Er deutet an, dass es um fundamental implementierte Sicherheitsmechanismen gehen soll, anstatt wie derzeit bei anderen KI-Firmen den Modellen schlicht Vorgaben zu machen, welche Informationen sie herausgeben sollen und welche nicht. Sutskever gilt als einer der wichtigsten KI-Vordenker der Welt. Als Universitätsforscher und später als Wissenschaftler bei Google spielte er eine wichtige Rolle bei der Entwicklung einer Reihe von wichtigen AI-Fortschritten. Er gilt auch als treibende Kraft hinter den leistungsfähigsten KI-Modellen von OpenAI.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen