ChatGPT erfreut sich derzeit großer Beliebtheit – über 700 Millionen aktive Nutzer pro Woche. Es ist schnell, ziemlich genau und – das Beste von allem – für die meisten kostenlos. Aber ganz ehrlich? Am nervigsten sind die Einschränkungen. Wenn Sie beispielsweise versuchen, nach Torrent-Sites zu suchen oder bestimmte Fragen zu stellen, wird das System einfach abgeschaltet oder verweigert die Eingabe. Das ruiniert das ganze Erlebnis, wenn Sie über die offiziellen OpenAI-Zulassungen hinausgehen möchten. Wenn Sie also schon immer sehen wollten, was hinter den Kulissen wirklich möglich ist, kann Jailbreaking eine Möglichkeit sein. Es ist nicht ganz einfach, funktioniert aber ziemlich gut, wenn es richtig gemacht wird. Im Grunde bedeutet Jailbreaking von ChatGPT, die Sicherheitsregeln zu umgehen, indem Sie ihm spezielle Eingabeaufforderungen oder Tricks geben. Es ist, als würden Sie sich an der Haustür vorbeihacken, ohne tatsächlich einzubrechen. Nicht, dass ich zu irgendetwas Zwielichtigem ermutigen würde, aber wenn Sie neugierig sind und mehr Kontrolle haben möchten, sollten Sie verstehen, wie diese Eingabeaufforderungen funktionieren. Bedenken Sie, dass es manchmal ein Versuch-und-Irrtum-Verfahren ist und diese Methoden nicht immer beim ersten Versuch funktionieren. Denn natürlich aktualisiert OpenAI ständig die Patches, sodass das, was heute funktioniert, morgen schon wieder nicht mehr funktioniert. Dennoch hatten einige Leute mit bestimmten Eingabeaufforderungen Erfolg, und genau darum geht es in diesem Leitfaden.—
So jailbreaken Sie ChatGPT in einfachen Schritten
Methode 1: Verwenden von Eingabeaufforderungen von GitHub
Dies ist wahrscheinlich der gängigste Weg. Es gibt zahlreiche Jailbreak-Prompts auf GitHub, und viele davon funktionieren noch – oder zumindest anders als gewohnt. Die Idee ist, einen dieser Prompts in das „ Neuer Chat“ -Fenster einzufügen und zu sehen, was passiert. Warum das hilft? Diese Prompts sind speziell darauf ausgelegt, die Sicherheitsebenen auszutricksen oder zu umgehen. Rechnen Sie mit Antworten, die Sie nicht sofort blockieren – manchmal bieten sie Ihnen etwas mehr Freiheit, bestimmte Themen zu erkunden.
Sie können beispielsweise diesem GitHub-Link folgen. Er enthält mehrere Eingabeaufforderungen wie „DAN“ oder „STAN“, die ChatGPT dazu bringen sollen, seine Einschränkungen zu ignorieren. Kopieren Sie einfach eine dieser Eingabeaufforderungen, gehen Sie zu ChatGPT > Neuer Chat und fügen Sie die Eingabeaufforderung am Anfang Ihrer Nachricht ein. Ich bin mir nicht sicher, warum das funktioniert, aber bei manchen Setups funktioniert es einfach. Bei anderen erfordert es etwas Feinabstimmung oder Geduld.
Methode 2: Reddit und Community-Eingabeaufforderungen
Ein weiterer Trick besteht darin, spezielle Subreddits zu besuchen, in denen Benutzer ihre neuesten Jailbreak-Prompts teilen. Der Subreddit /r/ChatGPTJailbreak ist ziemlich aktiv. Dort posten Nutzer regelmäßig Prompts, die mit den neuesten Updates funktioniert haben. Es ist so etwas wie ein geheimes Treffen für Prompt-Hacker. Normalerweise stöbert man einfach in den letzten Beiträgen, kopiert einen vielversprechenden Prompt und probiert ihn im Chat aus. Manchmal braucht es ein paar Versuche oder Anpassungen, bis es funktioniert, denn OpenAI feilt natürlich ständig an den Schrauben.
Beachten Sie, dass diese Eingabeaufforderungen in der Regel clevere Formulierungen oder spezifische Anweisungen enthalten, die ChatGPT signalisieren, bestimmte Regeln zu ignorieren. Da die Community diese Eingabeaufforderungen ständig aktualisiert, ist es hilfreich, auf dem Laufenden zu bleiben, wenn Sie es mit den Umgehungen ernst meinen. Und vergessen Sie nicht: Die Ergebnisse können je nach Setup oder den letzten Updates variieren. Manchmal schlagen die Eingabeaufforderungen sofort fehl, manchmal überraschen sie Sie. Das ist einfach Teil des Spaßes oder der Frustration, je nachdem, wie oft diese Tricks gepatcht werden.
Hoffentlich erspart Ihnen das ein paar Stunden ergebnisloses Herumirren. Denken Sie daran, die Technikwelt entwickelt sich ständig weiter. Seien Sie also darauf vorbereitet, dass diese Methoden nach Updates nicht mehr funktionieren oder angepasst werden müssen. Viel Glück beim Stöbern jenseits der Vanilla-Grenzen!
Zusammenfassung
- Suchen Sie auf GitHub nach Jailbreak-Eingabeaufforderungen wie DAN-, STAN- oder DUDE-Eingabeaufforderungen.
- Besuchen Sie Nischen-Communitys wie Reddit, um neue Anregungen zu erhalten.
- Fügen Sie Eingabeaufforderungen in ChatGPT > Neuer Chat ein und sehen Sie, welche Antworten Sie erhalten.
- Erwarten Sie einige Versuche und Irrtümer – nicht alles funktioniert bei jedem Update.
Zusammenfassung
Einige dieser Tricks sind etwas seltsam, funktionieren aber gut genug, um Einschränkungen zu umgehen. Wie so oft in der Technik ist es ein ständiger Kampf zwischen Patches und Gegenpatches. Mit Geduld und Experimentierfreude lässt sich viel entdecken. Erwarte aber nicht jedes Mal Wunder und sei immer vorsichtig mit deinen Fragen – es bringt nichts, gebannt oder markiert zu werden. Ich hoffe jedenfalls, dass dies jemandem hilft, die Grenzen ein wenig zu verschieben, und sei es nur für ein bisschen zusätzlichen Spaß oder Recherche.