ChatGPT-Entwicklerfirma OpenAI will digitale "Superintelligenz" kontrollieren
Noch in diesem Jahrzehnt könnte laut OpenAI eine digitale "Superintelligenz" aus dem Computer entwickelt werden. Der ChatGPT-Anbieter plant daher ein Verfahren, wie Menschen sie kontrollieren könnte.
Der ChatGPT-Anbieter OpenAI denkt darüber nach, wie Menschen eine potenzielle digitale "Superintelligenz" kontrollieren könnten. Um eine Lösung zu finden und damit die Sicherheit Künstlicher Intelligenz (KI) für die Menschheit zu gewährleisten, will die Firma in den kommenden vier Jahren ein Fünftel der zur Verfügung stehenden Rechenkapazität aufwenden sowie ein neues Forschungsteam zusammenstellen, hieß es in einem Blogeintrag.
"Superintelligenz" könnte OpenAI zufolge Menschheit entmachten
"Die enorme Macht der 'Superintelligenz' könnte zu einer Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen", warnten OpenAI-Mitgründer Ilya Sutskever und der Leiter der OpenAI-Abteilung für zukünftige Ausrichtung, Jan Leike. Derzeit gebe es keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren.
"Menschen werden nicht in der Lage sein, verlässlich Systeme mit Künstlicher Intelligenz zu beaufsichtigen, die viel klüger als wir sind", stellte das KI-Unternehmen Firma aus San Francisco weiter fest. Deshalb solle ein automatisiertes Verfahren dafür ausgearbeitet werden. Ziel sei es, die zentralen technischen Herausforderungen für ein solches System binnen vier Jahren zu bewältigen.
Das Entwicklerteam soll unter anderem vom Chefwissenschaftler Sutskever angeführt werden. Auch wenn die "Superintelligenz" aus dem Computer derzeit noch in weiter Ferne zu sein scheine, halte OpenAI sie noch in diesem Jahrzehnt für möglich. Sie werde viele Probleme lösen und die folgenschwerste Erfindung der Menschheit sein.
Diskussion über potenzielle Gefahren durch Künstliche Intelligenz
Der Vorstoß folgt auf eine Warnung von Branchenexperten, aus deren Sicht KI mit dem Risiko existenzieller Gefahren verbunden ist. Zu den Unterzeichnern gehört auch OpenAI-Chef Sam Altman. Die angebliche Bedrohung wurde dabei nicht näher erläutert - und Kritiker hielten den Experten vor, solche Warnungen lenkten von bereits heute existierenden Problemen Künstlicher Intelligenz wie Diskriminierung in Algorithmen ab.
Die EU hat sich bereits auf einen Gesetzentwurf zur Regulierung von KI geeinigt, den "AI Act". In den USA wird nach dem Vorbild der EU über eine Einstufung von KI-Anwendungen in Risikoklassen diskutiert, von der die Auflagen für die Unternehmen abhängen.
OpenAI entwickelte unter anderem den Chatbot ChatGPT, der einen neuen Hype rund um Künstliche Intelligenz auslöste. Das Programm kann Sätze kreieren, die von denen eines Menschen kaum zu unterscheiden sind. Es wurde dafür mit gewaltigen Datenmengen trainiert und schätzt auf dieser Basis Wort für Wort ab, wie ein Satz weitergehen sollte. Dieses Prinzip sorgt allerdings auch dafür, dass ChatGPT mitunter völlig falsche Informationen ausgibt.