OpenAI, das KI-Forschungslabor, hat kürzlich eine Erklärung veröffentlicht, in der es um Sicherheitsbedenken im Zusammenhang mit seinen Produkten geht. Die Erklärung ist eine Reaktion auf mehrere Kontroversen, die in den letzten Wochen aufgetaucht sind, darunter ein Aufruf von Branchenführern, die Entwicklung von Modellen wie GPT-4 zu unterbrechen, ein Verbot von ChatGPT in Italien und eine Beschwerde bei der Federal Trade Commission über die Risiken vor gefährlichen Fehlinformationen, insbesondere für Kinder.
Das Sicherheitsversprechen von OpenAI zielt darauf ab, der Öffentlichkeit zu versichern, dass seine Produkte sicher sind, und gleichzeitig zuzugeben, dass es noch Raum für Verbesserungen gibt. Das Unternehmen betonte, dass es sich dafür einsetzt, dass Sicherheit auf allen Ebenen in seine Systeme integriert wird, und sich verpflichtet, mit politischen Entscheidungsträgern und Interessengruppen zusammenzuarbeiten, um ein sicheres KI-Ökosystem zu schaffen.
In der Erklärung fehlten jedoch Details darüber, wie OpenAI Risiken mindern, seine Richtlinien durchsetzen oder mit Regulierungsbehörden zusammenarbeiten will.
Elon Musk und Steve Wozniak haben einen offenen Brief veröffentlicht, in dem sie eine sechsmonatige Pause fordern
Eine hybride Widerlegungs-Entschuldigung, die am Donnerstag veröffentlicht wurde, versuchte, der Öffentlichkeit sowohl zu versichern, dass die Waren des Unternehmens sicher sind, als auch anzuerkennen, dass es Raum für Wachstum gibt.
Das Sicherheitsversprechen von OpenAI klingt wie eine heftige Reaktion auf all die jüngsten Kontroversen. Allein in der vergangenen Woche wurde ChatGPT in Italien vollständig verboten, Elon Musk Und Steve Wozniak haben einen offenen Brief veröffentlicht, in dem eine sechsmonatige Pause in der Entwicklung von Modellen wie GPT-4 gefordert wird, und es wurde eine Beschwerde bei der Federal Trade Commission eingereicht, in der dies behauptet wird ChatGPT birgt gefährliche Fehlinformationen, insbesondere für Kinder.
Oh, und es gab diesen Glitch, der es ermöglichte, dass die Chat-Kommunikation und privaten Informationen der Benutzer von jedem gesehen werden konnten.
Entsprechend OpenAI, versucht es, „sicherzustellen, dass Sicherheit auf allen Ebenen in unser System eingebaut ist“. Vor der Veröffentlichung von GPT-4 verbrachte OpenAI über sechs Monate „rigoros testen“ und sagte, es prüfe Verifizierungsalternativen, um die Altersanforderung für über 18-Jährige umzusetzen.
Das Unternehmen betonte, dass es keine vertraulichen Informationen verkauft und sie nur zur Verbesserung von KI-Modellen verwendet. Es erklärte auch seine Bereitschaft, mit Gesetzgebern zusammenzuarbeiten und weiterhin mit KI-Stakeholdern zusammenzuarbeiten, „um ein sicheres KI-Ökosystem zu schaffen“.
OpenAI gab in der Mitte des Sicherheitsversprechens zu, dass die Erstellung eines sicheren LLM Feedback aus der Praxis erfordert. Es behauptet, dass das Lernen aus öffentlichem Feedback die Modelle sicherer machen und es OpenAI ermöglichen wird, Missbrauch zu überwachen.
„Der Einsatz in der realen Welt hat uns auch dazu veranlasst, immer differenziertere Richtlinien gegen Verhaltensweisen zu entwickeln, die ein echtes Risiko für Menschen darstellen, und gleichzeitig die vielen vorteilhaften Anwendungen unserer Technologie zu berücksichtigen.“
OpenAI angeboten“Details zum Sicherheitskonzept“, aber abgesehen von der Zusage, die Altersüberprüfung zu untersuchen, liest sich der Großteil der Aussage wie Standardklischees. Es gab nur wenige Informationen darüber, wie es beabsichtigt, Risiken zu reduzieren, Richtlinien umzusetzen oder mit Behörden zusammenzuarbeiten.
OpenAI hat Freude daran, KI-Produkte auf transparente Weise zu entwickeln, aber die Ankündigung bietet wenig Details darüber, was es jetzt tun will, da seine KI in freier Wildbahn ist.
Was ist die Logik hinter OpenAI?
Laut OpenAI ist ihr ChatGPT-Modell, das mithilfe von Reinforcement Learning from Human Feedback (RLHF) Methode des maschinellen Lernens, kann Dialoge simulieren, Folgeanfragen beantworten, Fehler eingestehen, falsche Prämissen in Frage stellen und unangemessene Anfragen ablehnen.
Zunächst versorgten menschliche KI-Lehrer das Modell mit Interaktionen, in denen sie sowohl als Kunde als auch als KI-Assistent fungierten. Die öffentlich getestete Version des Bots versucht, Benutzeranfragen zu verstehen und antwortet mit ausführlichen Antworten, die von Menschen geschriebenem Text in einem Konversationsformat ähneln.
Wenn Sie ChatGPT noch nicht erlebt haben, können Sie dies jetzt tun indem Sie darauf klicken.