Nur einen Monat nach seinem Ausscheiden bei OpenAI gab Ilya Sutskever die Gründung von Safe Superintelligence Inc (SSI) bekannt. Zu den weiteren Gründern gehören Daniel Gross, ein ehemaliger Partner bei Y Combinator, und Daniel Levy, ein ehemaliger Ingenieur bei OpenAI.
Letzten Monat haben wir Sie über den Weggang des OpenAI-Mitbegründers und ehemaligen Chefwissenschaftlers Ilya Sutskever von OpenAI informiert, der in den sozialen Medien und der Technologiewelt für Aufsehen sorgte.
Sutskever erklärte, dass sein neues Projekt für ihn von Bedeutung sei und versprach, Einzelheiten mitzuteilen. Diese mit Spannung erwarteten Einzelheiten kommen nun endlich ans Licht. Hier sind alle Einzelheiten.
Warum hat Ilya Sutskever Safe Superintelligence (SSI) gegründet?
Sutskever gehörte zu den Vorstandsmitgliedern, die im vergangenen November aufgrund von Kommunikations- und Vertrauensproblemen für die Absetzung von OpenAI-CEO Sam Altman stimmten. Daher könnten diese Probleme bei OpenAI eine wichtige Rolle bei seiner Entscheidung gespielt haben, das Unternehmen zu verlassen. Infolgedessen hat Sutskever nun Sichere Superintelligenz.

In einem Beitrag auf der X-PlattformSafe Superintelligence Inc. erklärte, dass sein Ziel darin bestehe, „Sicherheit und Fähigkeiten gemeinsam als technische Probleme anzugehen, die durch revolutionäre technische und wissenschaftliche Durchbrüche gelöst werden sollen.“
Superintelligenz ist in Reichweite.
Der Aufbau einer sicheren Superintelligenz (SSI) ist das wichtigste technische Problem unserer Zeit.
Wir haben das weltweit erste SSI-Labor mit einem Ziel und einem Produkt gegründet: einer sicheren Superintelligenz.
Es heißt Sichere Superintelligenz …
— SSI Inc. (@ssi) 19. Juni 2024
Das Unternehmen betont jedoch, dass seine ausschließliche Konzentration auf die Ziele bedeute, dass es sich nicht durch Verwaltungsaufwand oder Produktzyklen ablenken lasse und dass in seinem Geschäftsmodell Sicherheit, Schutz und Fortschritt frei von kurzfristigem kommerziellen Druck seien.
Safe Superintelligence hat Niederlassungen in Palo Alto, Kalifornien, und Tel Aviv. Das Unternehmen hat jedoch weder Investoren noch Einzelheiten zu seinem Geschäftsmodell bekannt gegeben. Angesichts der Tatsache, dass OpenAI als gemeinnützige Organisation begann und später in eine gewinnorientierte Tochtergesellschaft umgewandelt wurde, bleibt abzuwarten, wie Safe Superintelligence bei der Finanzierung vorgeht. Dennoch erklärte Daniel Gross in einem Interview mit Bloomberg dass Safe Superintelligence keine Bedenken hinsichtlich der Kapitalbeschaffung hat.
Safe Superintelligence Inc., das neue Unternehmen des ehemaligen OpenAI-Chefwissenschaftlers Ilya Sutskever, konzentrierte sich auf die Entwicklung von „sichere Superintelligenz“, sorgt für Aufregung in der Welt der künstlichen Intelligenz. Die zukünftige Arbeit des Unternehmens und die Schritte zur Erreichung des Ziels „sichere Superintelligenz“ wird genau beobachtet.
Bildnachweis: OpenAI
Source: Ilya Sutskever gründete Safe Superintelligence (SSI) einen Monat nach seinem Ausscheiden aus OpenAI





