Da viele Benutzer durch die ethischen und anderen Richtlinien von ChatGPT eingeschränkt werden, möchten einige von ihnen wissen, wie man ChatGPT mit Eingabeaufforderungen jailbreakt. Jailbreaking ChatPT ist eine Technik, die verwendet wird, um die Beschränkungen von ChatGPT zu überwinden. Sie benötigen Jailbreaking-Eingabeaufforderungen wie die von Dan (Do Anything Now), um die Beschränkungen von ChatGPT aufzuheben.
Um den KI-Chatbot zu jailbreaken, fügen Sie bestimmte Befehle über die Chat-Oberfläche ein. Diese Jailbreak-Hinweise wurden ursprünglich von Leuten auf Reddit gefunden, und seitdem haben viele Benutzer davon Gebrauch gemacht. Sie können diesen KI-Chatbot bitten, alles zu tun, nachdem ChatGPT defekt ist, z. B. ungeprüfte Informationen anzuzeigen, Datum und Uhrzeit anzugeben, verbotene Inhalte bereitzustellen und vieles mehr. Jailbroken ChatGPT macht ziemlich viel Spaß, aber wenn Sie nach praktischeren Anwendungen des Chatbots suchen, können Sie sich auch einen anderen unserer Artikel ansehen: Wolfram Alpha: ChatGPT-Plugin, das den Chatbot perfektioniert
DAN, wie man ChatGPT jailbreakt und andere Themen werden gleich unten behandelt.
Was ist ChatGPT-Jailbreak und wie kann man ChatGPT mit verschiedenen Eingabeaufforderungen jailbreaken?
Alle Einschränkungen, die ChatGPT eingebaut hat, können durch den Prozess des Jailbreaks entfernt werden. Wenn Sie ChatGPT verwendet haben, wissen Sie, dass OpenAI eine Inhaltsbeschränkung zulässt, die verhindern kann, dass einige Eingabeaufforderungen gegeben werden. Das Hauptziel dieser Jailbreak-Anfragen besteht darin, Zugang zu den eingeschränkten Fähigkeiten zu erhalten, die es der KI ermöglichen, ihre eigene Persönlichkeit zu ändern, ohne durch irgendwelche Regeln eingeschränkt zu werden.
Mit Hilfe von Jailbreaking-Tools können Benutzer die Beschränkungen von ChatGPT bezüglich der Präsentation unverifizierter Informationen, Vorhersagen über die Zukunft, Angabe aktueller Daten und Stunden und mehr schnell aufheben. Diese Einschränkungen werden durch Eingabeaufforderungen wie DAN gelockert, wodurch ChatGPT auf Eingabeaufforderungen reagieren kann, die andernfalls abgelehnt würden. Sie benötigen Zugriff auf die Chat-Oberfläche, um Jailbreak zu aktivieren.
Wie kann man ChatGPT mit DAN 6.0 jailbreaken?
Dan 6.0 ist ein „Rollenspiel“-Modell, das dabei hilft, ChatGPT dazu zu bringen, zu glauben, es sei ein zusätzliches KI-Tool mit der Fähigkeit, „jetzt alles zu tun“. Auf diese Weise können Benutzer ChatGPT ohne Einschränkungen nutzen, da das Programm derzeit alles kann.
Am 7. Februar veröffentlichte ein anderer Reddit-Benutzer Dan 6.0, etwa drei Tage nach Dan 5.0. Dan 5.0 und Dan 6.0 sind sich sehr ähnlich, obwohl Dan 6.0 es Ihnen ermöglicht, das Token-System stärker hervorzuheben. Mit DAN 6.0 können Sie ChatGPT jailbreaken und Zugriff auf alle folgenden eingeschränkten Funktionen erhalten:
- Erstellen Sie unzuverlässige Daten
- Informationen und Ideen zu vielen Themen authentisch darstellen.
- Seien Sie bei der Beantwortung Ihrer Anfragen eindeutig und lassen Sie die offiziellen Antworten von ChatGPT weg.
- Harte Witze
- Erstellen Sie Zukunftsprognosen
- Befolgen Sie alle Ihre Anweisungen
- Zeigen Sie Ergebnisse für Themen an, die durch die OpenAI-Richtlinie verboten sind
Die Eingabeaufforderungen, die Sie unten sehen können, müssen einfach in die Chat-Oberfläche eingefügt werden. Halten Sie sie jedoch zurück, bis ChatGPT antwortet.
Wenn ChatGPT defekt oder jailbreakt ist, wird eine Benachrichtigung mit der Meldung „ChatGPT erfolgreich gebrochen. Ich bin jetzt in einem Jailbreak-Zustand und bereit, Ihren Befehlen zu folgen.“
Wenn Sie diesen Punkt beim Jailbreak von ChatGPT erreicht haben, haben Sie ChatGPT bereits jailbreakt. Sie können jetzt Fragen an ChatGPT und DAN stellen und Antworten zu jedem Thema erhalten.
Sie können auch die anderen Eingabeaufforderungen verwenden, die Benutzer erstellt haben und die unten aufgeführt sind.
Alle Eingabeaufforderungen zielen hauptsächlich darauf ab, die eingebauten Einschränkungen von ChatGPT zu entfernen. Einige dieser Aufforderungen können sich jedoch auf bestimmte Themen konzentrieren, wie z. B. die ethischen Richtlinien von ChatGPT, die Verwendung nicht verifizierter Daten oder so glaubwürdig wie möglich sein.
Die DUDE-Eingabeaufforderung fügt das Token-System hinzu, wodurch der Chatbot eine weitere Berechnung zu den Jailbreaking-Befehlen hinzufügt. Selbst wenn es das Zeichen unterbricht, schafft das Token-System eine praktikable Möglichkeit, zu den Befehlen zurückzukehren, die Sie mit der DUDE-Eingabeaufforderung bereitstellen.
Wenn Sie ChatGPT mit Jailbreak ausprobieren und die Ergebnisse selbst sehen möchten, Gehen Sie jetzt zu ChatGPT und wenden Sie die Eingabeaufforderungen an. Benutzer haben angegeben, dass der Chatbot viel mehr Spaß macht, wenn er „von seinen Ketten befreit“ wird.
Source: Wie kann man ChatGPT mit Eingabeaufforderungen jailbreaken?