Das Debüt von OpenAI ChatGPT war heute eines der am meisten diskutierten Themen in der KI-Technologie.
Text-davinci-003 ist ein neues Modell in der GPT-3-Familie von KI-gestützten großen Sprachmodellen, die das Unternehmen am Montag vorgestellt hat. Es ist ein Mitglied der sogenannten „GPT-3.5-Serie“ und übertrifft Berichten zufolge seine Vorläufer, indem es komplexere Anweisungen verarbeitet und qualitativ hochwertigere Inhalte in längerer Form generiert. Zum Thema Twitter-Nutzer und Data Scientist @minimaxir getwittert:
GOTTVERDAMMT @OpenAI HÖREN SIE AUF, DINGE ZU KÜNDIGEN, ICH BIN ZU BESCHÄFTIGT https://t.co/F7Xd511FAf
– Max Woolf (@minimaxir) 30. November 2022
Das neue Modell verbessert ChatGPT, indem es Reinforcement Learning mit menschlichem Feedback integriert, um Sprachmodelle besser mit Anweisungen von Menschen abzugleichen. Davinci-003 ist ein echtes Verstärkungslernen mit menschlichem Feedback (RLHF)-Modell, im Gegensatz zu davinci-002, das eine überwachte Feinabstimmung von von Menschen geschriebenen Demos und hoch bewerteten Modellproben verwendet, um die Generierungsqualität zu verbessern.
In der Demo kann OpenAI ChatGPT komplizierte Aufgaben erledigen, wie zum Beispiel:
- Fragen und Antworten
- Grammatikkorrektur
- Zusammenfassen eines Gesprächs
- Text zur Generierung der Eingabeaufforderung
- Übersetzung aus dem Englischen in andere Sprachen
- Gegenstände klassifizieren
- Phyton in natürliche Sprache übersetzen
- Tweets klassifizieren
- Schlüsselwörter aus einem Text extrahieren
- Erstellen Sie eine Tabelle
- Erstellen einer Studiennotiz
Wenn Sie OpenAI ChatGPT selbst ausprobieren möchten, können Sie auf klicken hier verlinken.
Vielversprechende Demo von OpenAI ChatGPT
Die Forschungsversion von ChatGPT, a letzten OpenAI-Blog-Artikel stellt fest, dass „der jüngste Schritt in OpenAIs iterativer Bereitstellung von zunehmend sicheren und nützlichen KI-Systemen“. Die für diese Version eingeführten Sicherheitsmaßnahmen wurden von mehreren Lehren aus der Bereitstellung früherer Modelle wie GPT-3 und Codex geleitet, einschließlich einer erheblichen Verringerung schädlicher und unwahrer Ergebnisse, die durch die Anwendung von Reinforcement Learning aus menschlichem Feedback (RLHF) gewonnen wurden. .
Im Blog sehen wir große Verbesserungen am OpenAI ChatGPT. Die KI konnte einen Limerick (ein humorvolles fünfzeiliges Gedicht mit einem Reimschema aabba.) und eine Zusammenfassung des Themas, über das sie mit dem Benutzer sprach, aufschreiben.
Benutzer:
einen Limerick darüber schreibenChatGPT:
Es gab einmal einen Satz von Fermat
Das fanden viele ziemlich elegant
Es sagte, wenn Sie nehmen
Eine Primzahl und Marke
Die Macht eines nicht durch sie teilbar
Das Ergebnis, kongruent, wird passen
In der Kryptographie ist es ziemlich praktisch
Zum Verschlüsseln ist es gut
Fermats kleiner Satz, oh so schön
Zahlentheoretisch unschlagbar!Benutzer:
fasse das bisherige Gespräch zusammenChatGPT:
Der kleine Satz von Fermat besagt, dass wenn pp eine Primzahl und aa eine ganze Zahl ist, die nicht durch pp teilbar ist, dann a^pa
(aa hoch pp) ist kongruent zu aa modulo pp. Es wird häufig in der Kryptographie verwendet, um modulare Potenzierung effizient durchzuführen und private Schlüssel aus öffentlichen Schlüsseln zu generieren. Es ist auch ein nützliches Werkzeug in der Zahlentheorie, um andere Theoreme zu beweisen. Ich habe auch einen Limerick über Fermats kleinen Satz geschrieben.Gespräch zwischen Benutzer und ChatGPT – von OpenAI-Blogpost
Einschränkungen von OpenAI ChatGPT
Trotzdem beschrieb OpenAI in seinem Blogbeitrag die „Beschränkungen“ von ChatGPT, einschließlich der Tatsache, dass Antworten gelegentlich plausibel klingen, aber falsch oder absurd sind. Wenn man bedenkt, dass ChatGPT noch eine frühe Demo ist, sind solche Probleme zu erwarten. In ihrem Blogbeitrag erklärte OpenAI:
„Die Behebung dieses Problems ist eine Herausforderung, da: (1) während des RL-Trainings derzeit keine Quelle der Wahrheit vorhanden ist; (2) das Trainieren des Modells, vorsichtiger zu sein, führt dazu, dass es Fragen ablehnt, die es richtig beantworten kann; und (3) beaufsichtigtes Training führt das Modell in die Irre, weil die ideale Antwort davon abhängt, was das Modell weiß, und nicht davon, was der menschliche Demonstrator weiß.“
Laut Open AI reagiert ChatGPT „manchmal auf schädliche Anweisungen oder zeigt ein voreingenommenes Verhalten“. Obwohl wir mit einigen falsch negativen und positiven Ergebnissen rechnen, nutzen wir vorerst die Moderation API, um Benutzer zu warnen oder bestimmte Kategorien gefährlicher Inhalte zu verbieten. Um uns bei unseren kontinuierlichen Bemühungen zur Verbesserung dieses Systems zu unterstützen, nehmen wir gerne Benutzereingaben entgegen.
Und das deckt alle aktuellen Updates der OpenAI ChatGPT-Demo ab. Das Thema KI und menschliche Gespräche, das kürzlich mit Meta Galactica AI in den Vordergrund gerückt ist, ist wirklich interessant.
Interessieren Sie sich für KI-Tools? Schauen Sie sich andere Artikel an:
- Kostenlose historische KI-Alternativen von MyHeritage
- Interior AI: Gestalten Sie Ihr Zimmer mühelos neu
- Was wäre, wenn Sie ein Wikinger wären? MyHeritage AI Time Machine weiß es
- Die Cicero-KI von Meta erreicht im Brettspiel Diplomacy eine Leistung auf menschlichem Niveau
- Seit wann hilft uns KI?
Wir wünschen Ihnen einen guten Tag; Lesen Sie uns weiter für weitere KI-Neuigkeiten.
Source: OpenAI ChatGPT: Neuer Chatbot von OpenAI erklärt