- OpenAI und Microsoft bündeln ihre Kräfte für das OpenAI Superalignment Project. OpenAI hat das Superalignment-Programm gestartet, ein vierjähriges Projekt, das verhindern soll, dass die mit superintelligenten KI-Systemen verbundenen Risiken die menschlichen Fähigkeiten übersteigen.
- Das Programm zielt darauf ab, sicherzustellen, dass KI-Systeme mit menschlichen Werten und Zwecken in Einklang stehen, und so die potenziellen Gefahren einer KI-Apokalypse zu mindern.
- OpenAI setzt sich aktiv für die KI-Regulierung ein und arbeitet mit Branchenführern zusammen, um die beispiellosen Risiken der Superintelligenz proaktiv zu bewältigen.
OpenAI hat im vergangenen Jahr mit der Einführung hochmoderner generativer KI-Technologie, die die Welt revolutioniert, erhebliche Anstrengungen unternommen, um das mögliche Aussterben der Menschheit zu verhindern, das durch zukünftige Fortschritte verursacht werden könnte.
Das Unternehmen steht hinter dem empfindungsfähigen ChatGPT-Chatbot und hochentwickelten Maschinensprachenmodellen wie GPT-4. Das Unternehmen hat sich mit Microsoft zusammengetan, um KI in dessen Produkte zu integrieren.
Führungskräfte gehen davon aus, dass weitere Entwicklungen in der KI zu „Superintelligenz“ führen könnten, einem Ausdruck, der Fähigkeiten beschreibt, die über die der künstlichen allgemeinen Intelligenz (AGI) hinausgehen, oder die Fähigkeit der KI, zu lernen, jede intellektuelle Arbeit auszuführen, zu der Menschen fähig sind.
Das OpenAI-Superalignment-Programm zielt darauf ab, betrügerische Superintelligenz zu verhindern
OpenAI vorgestellt sein neues OpenAI-Superalignment-Programm. Im Rahmen dieses vierjährigen Projekts wird ein neues Team zusammengestellt, das sicherstellen soll, dass KI-Systeme, die viel intelligenter sind als Menschen, den menschlichen Zwecken gehorchen und so das KI-Apokalypse-Szenario verhindern, das in mehreren Filmen und Büchern dargestellt wurde.
Da alle bestehenden KI-Ausrichtungsmethoden davon abhängen, dass Menschen in der Lage sind, die KI zu überwachen, was Experten glauben, dass sie dies nicht zuverlässig tun können, wenn sie es mit KI-Systemen zu tun haben, die viel intelligenter sind als ihre Vorgesetzten, wird im heutigen Beitrag behauptet, dass es keine Methoden gibt, um ein potenzielles System zu steuern oder zu kontrollieren superintelligente KI und verhindern, dass sie abtrünnig wird.
Die große Push-Ankündigung folgt ein Beitrag aus dem Jahr 2022 Darin wurde die Ausrichtungsforschung des Unternehmens beschrieben, um Menschen dabei zu helfen, betrügerische Technologie einzudämmen. AGI, das Thema dieses Beitrags, wurde nun durch Superintelligenz ersetzt.
Der Open-AI-Superalignment-Vorstoß zielt darauf ab, einen automatischen Alignment-Forscher mit Fähigkeiten auf nahezu menschlichem Niveau zu schaffen, wonach das Unternehmen in der Lage sein wird, seine nachfolgenden Bemühungen zu skalieren und die Superintelligenz mithilfe enormer Rechenmengen iterativ auszurichten.
Das Unternehmen erklärte: „Um den ersten automatisierten Alignment-Forscher auszurichten, müssen wir 1) eine skalierbare Trainingsmethode entwickeln, 2) das resultierende Modell validieren und 3) unsere gesamte Alignment-Pipeline einem Stresstest unterziehen“, und führte diese Bedenken wie folgt aus:
- Wir können KI-Systeme nutzen, um die Überwachung anderer KI-Systeme zu unterstützen und ein Trainingssignal für Aktivitäten bereitzustellen, die für den Menschen schwer zu beurteilen sind. Darüber hinaus möchten wir verstehen und einen gewissen Einfluss darauf haben, wie unsere Modelle unsere Aufsicht auf Jobs ausdehnen, die wir nicht überwachen können.
- Wir automatisieren die Suche nach problematischem Verhalten (Robustheit) und problematischen Interna (automatisierte Interpretierbarkeit), um zu überprüfen, ob unsere Systeme aufeinander abgestimmt sind.
- Zu guter Letzt können wir die gesamte Pipeline testen, indem wir gezielt falsch ausgerichtete Modelle trainieren und überprüfen, ob unsere Methoden die schlimmsten möglichen Fehlausrichtungen genau identifizieren.
Zusätzlich zur Bereitstellung von 20 % seiner Rechenressourcen in den nächsten vier Jahren sagte das Unternehmen, dass es ein Team aus Elite-Forschern und Ingenieuren für maschinelles Lernen aufbaut, um sich mit der Frage der Ausrichtung der Superintelligenz zu befassen. Darüber hinaus stellt das Unternehmen zusätzliches Personal für das Unternehmen ein, darunter Manager, Wissenschaftler und Forschungsingenieure.
OpenAI setzt sich gemeinsam mit Branchenführern für die KI-Regulierung ein
Das Unternehmen erklärte heute, es sei zuversichtlich, dass das Problem gelöst werden könne, obwohl es sich um ein sehr ehrgeiziges Ziel handele und es keine Erfolgsgarantie gebe. „Um behaupten zu können, dass das Problem gelöst wurde, muss die Community für maschinelles Lernen und Sicherheit durch Daten und Argumente überzeugt werden.
Wenn wir nicht viel Vertrauen in unsere Antworten haben, hoffen wir, dass unsere Ergebnisse uns und der Community bei der entsprechenden Planung helfen. Wir verfügen über eine breite Palette von Theorien, die sich in frühen Versuchen als vielversprechend erwiesen haben, und wir können die Modelle der Gegenwart nutzen, um viele dieser Probleme empirisch zu untersuchen.
Auf Websites wie Hacker-News, wo derzeit über den enormen Vorstoß debattiert wird, ist die beliebteste Bemerkung: „Aus der Sicht eines Laien, wenn es um modernste KI geht, kann ich nicht anders, als von manchen Kopien etwas abgeschreckt zu sein.“ Um die Gefahren noch größer erscheinen zu lassen und den Eindruck zu erwecken, dass die in der Entwicklung befindliche Technologie wirklich auf dem neuesten Stand ist, scheint man sich bewusst große Mühe zu geben, eine überschwängliche Sprache zu verwenden.“
OpenAI Superalignment-Initiative: (Bildnachweis)Unerwarteterweise hat OpenAI, das Unternehmen, das in erster Linie für die jüngste Welle existenzieller Bedrohungswarnungen in Bezug auf KI verantwortlich ist, die Öffentlichkeit lautstark auf diese Risiken aufmerksam gemacht und sich zusammen mit mehreren anderen prominenten Branchenführern und Gruppen für eine KI-Regulierung eingesetzt.
Laut den OpenAI-Führungskräften Sam Altman, Greg Brockman und Ilya Sutskever, die dies Anfang des Jahres erklärt haben, wird Superintelligenz gewaltiger sein als frühere Technologien, mit denen die Menschheit in der Vergangenheit konfrontiert war. „Wir haben vielleicht eine wesentlich wohlhabendere Zukunft, aber um dorthin zu gelangen, müssen wir das Risiko managen. Wir können nicht einfach reagieren, wenn eine existenzielle Gefahr droht.
Ein historisches Beispiel für eine Technologie mit dieser Qualität ist die Kernenergie, während die synthetische Biologie ein anderes ist. Wir müssen auch die Bedrohungen verringern, die von aktuellen KI-Technologien ausgehen, aber Superintelligenz erfordert besondere Berücksichtigung und Zusammenarbeit.
Bevor Sie gehen, können Sie unseren Artikel über Humata AI lesen.
Hervorgehobener Bildnachweis: openai
Source: OpenAI Superalignment-Initiative: Gewährleistung einer sicheren und abgestimmten KI-Entwicklung