Ilya Sutskever während eines Talks an der Tel Aviv University in Tel Aviv.

Neues Start-up OpenAI-Mitgründer will "Superintelligenz" entwickeln

Stand: 20.06.2024 10:45 Uhr

Der frühere Forschungschef von OpenAI gründet ein neues Unternehmen - und kündigt an, eine "sichere Superintelligenz" entwickeln zu wollen. Wegen möglicher Risiken der Künstlichen Intelligenz hatte es zuvor immer wieder Kritik gegeben.

Einer der Mitgründer der ChatGPT-Erfinders OpenAI macht sich mit einem eigenen KI-Start-up selbstständig. Das kündigte er gestern an. Das Ziel des neuen Unternehmens mit dem Namen Safe Superintelligence sei eine ungefährliche hoch entwickelte Künstliche Intelligenz, kündigte Ilya Sutskever an.

"Das Besondere an dem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird - und es davor nichts anderes herausbringen wird", sagte Sutskever dem Finanzdienst Bloomberg. So werde man sich kommerziellem Druck und einem Wettlauf mit anderen KI-Laboren entziehen, argumentierte der Forscher.

Führende Köpfe der KI-Entwicklung

Sutskever gilt als einer der führenden Köpfe bei der Entwicklung Künstlicher Intelligenz und war zuvor Forschungschef bei OpenAI. Bei Safe Superintelligence hat er zwei Mitgründer: Daniel Gross arbeitete einst an Künstlicher Intelligenz bei Apple, Daniel Levy war zuvor mit Sutskever bei OpenAI tätig und trainierte dort KI-Modelle. Sutskever soll demnach Chefentwickler sein, sieht sich aber vor allem verantwortlich für "revolutionäre Durchbrüche".

Sutskever war im vergangenen Jahr an dem überraschenden Rauswurf des OpenAI-Chefs Sam Altman beteiligt, der nur wenige Tage später nach Druck von Mitarbeitern und des Großinvestors Microsoft wieder rückgängig gemacht wurde. Sutskever blieb anschließend zunächst im Hintergrund und verließ den ChatGPT-Entwickler im Mai.

Wie wird künstliche Intelligenz sicher?

Die Frage, ob KI-Systeme gefährlich für die Menschheit werden könnten, wenn sie erst einmal leistungsstärker und eigenständiger sind, beschäftigt die Branche schon seit Jahren. Es gibt immer wieder Warnungen von Experten sowie Versuche von Regierungen, Risiken durch strikte Vorgaben und Meldungspflichten zu minimieren.

Wie das neue Unternehmen konkret eine sichere KI entwickeln will, bleibt indes noch vage. Der Ankündigung zufolge soll die Sicherheit mit technischen Durchbrüchen erreicht werden, die in das KI-System integriert sind, anstatt im Nachhinein hinzugefügt zu werden.

Vieles bleibt unklar

Die Vision für die neue Firma ist so etwas wie eine Rückkehr zu den Wurzeln von OpenAI. Die Idee war dort zunächst ein nicht auf Profit ausgerichtetes Forschungslabor zur Entwicklung von Künstlicher Intelligenz.

OpenAI kam einige Jahre nach der Gründung jedoch zu dem Schluss, dass man sich ohne ein kommerzielles Produkt nicht über Wasser halten könne. So kamen ein milliardenschwerer Pakt mit dem Software-Riesen Microsoft und die Veröffentlichung von ChatGPT zustande.

Wie sich Sutskevers neues Superintelligenz-Labor finanzieren wird, blieb bisher unklar. Für die Investoren dürfte interessant sein, wie sich eine Finanzierung rechnen könnte. Schließlich bleibt offen, ob ein Produkt letztlich profitabel ist.

Superintelligenz und Allgemeine künstliche Intelligenz

Bei der Entwicklung künstlicher Intelligenz hat die Konkurrenz rund um OpenAI oder Google mittlerweile einen Vorsprung. Als Superintelligenz wird allgemein ein KI-System bezeichnet, das den Menschen ebenbürtig oder sogar überlegen sein könnte. Synonym wird dazu auch oft der Begriff Artificial General Intelligence (AGI), zu Deutsch Allgemeine Künstliche Intelligenz, verwendet. Wie sich genau diese AGI definiert, legen Wissenschaftler und Unternehmen aber unterschiedlich aus.

OpenAI-Chef Altman schrieb vergangenes Jahr in einem Blog, dass es die Mission des Unternehmens sei, eine AGI zu entwickeln, die der gesamten Menschheit zugutekomme. Die Allgemeine Künstliche Intelligenz habe das Potenzial, "jedem Menschen unglaubliche neue Fähigkeiten" zu verleihen. Dabei gebe es auch das Risiko des Missbrauchs, drastischer Unfälle und gesellschaftliche Verwerfungen. Zuletzt hatte es immer wieder Kritik gegeben am Umgang OpenAIs mit den möglichen Risiken der Künstlichen Intelligenz.