Die Entwickler von ChatGPT haben das Memory-Tool entwickelt, um das Benutzererlebnis zu verbessern, indem persönliche Details von Gespräch zu Gespräch gespeichert werden. Doch wie viele Chancen bringt es auch Risiken mit sich. Sicherheitsexperten haben kürzlich eine Technik entdeckt, mit der Hacker falsche Erinnerungen in ChatGPT einschleusen und Benutzer so vor Datendiebstahl gefährden können.
Das Problem liegt in der ChatGPT-MacOS-Anwendung, in die Angreifer Eingabeaufforderungen einfügen können, um zu ändern, was die KI über ihre Benutzer speichert. Infolgedessen werden die Informationen gespeichert und später auf den Server des Hackers übertragen. Obwohl das Problem ernst erscheint, ist es möglicherweise nicht so beängstigend, wie es zunächst scheint, dank mehrerer Schritte, die OpenAI zum Schutz der Benutzer unternommen hat.
Die größte Schwäche im Speichersystem von ChatGPT
Der Forscher Johann Rehberger von Embrace The Red hat den Fehler in einem ausführlichen Bericht detailliert beschrieben. Rehberger zeigte, wie Angreifer Eingabeaufforderungen einfügen können, um bösartige Anweisungen zu speichern ChatGPTs SpeicherKurz gesagt: Ein Hacker kann die App dazu bringen, falsche Informationen zu speichern, wodurch vertrauliche Daten bei künftigen Übertragungen gefährdet werden.
Der Exploit wird dadurch unsicher, dass er dem Angreifer ermöglicht, den Speicher von ChatGPT über mehrere Einsätze hinweg zu verwalten. Ein Hacker kann alle Benutzerdaten extrahieren – von Einstellungen bis hin zu Namen und Ortsangaben – solange der falsche Speicher im System eingebettet bleibt.
Glücklicherweise ist diese Art von Angriff nicht weit verbreitet. OpenAI hat die Schwachstelle bereits behoben und es Hackern damit deutlich schwerer gemacht, die Speicherfunktion auszunutzen. Dennoch gibt es Schwachstellen, insbesondere bei Tools und Anwendungen von Drittanbietern, die neue Bereiche für potenzielle Manipulationen eröffnen.
Fixes und verbleibende Schwachstellen
OpenAI hat als Reaktion auf das erkannte Speicherproblem ein API-Update für die Webvariante von ChatGPT ausgerollt und damit die Nutzung des Prompt-Injection-Exploits über die Browseroberfläche verhindert. Darüber hinaus wurde ein Update für das Speichertool veröffentlicht, das verhindert, dass es zu einem Exfiltrationsvektor wird. Diese Verbesserungen sind notwendig, damit das System trotz der weiterhin bestehenden potenziellen Risiken ein hohes Maß an Sicherheit aufrechterhalten kann.
Anwendungen von Drittanbietern bleiben der größte Grund zur Sorge. Obwohl die Änderungen von OpenAI das Problem des Speichermissbrauchs in seinen wesentlichen Systemen behoben haben, warnen Sicherheitsforscher, dass nicht vertrauenswürdige Inhalte weiterhin über verbundene Anwendungen, Datei-Uploads und Browsing-Instrumente in den Speicher von ChatGPT gelangen können. Dies stellt einen Bereich dar, in dem Prompt-Injektionen weiter erfolgreich sein könnten.
So schützen Sie sich
Obwohl die Optimierungen von OpenAI die Gefahr großflächiger Angriffe verringert haben, sollten Benutzer wachsam bleiben. Hier sind einige Möglichkeiten, sich vor potenziellen Speicherhacks zu schützen:
- Überprüfen Sie regelmäßig Ihre ChatGPT-Erinnerungen: Benutzer sollten regelmäßig die Benachrichtigungen „Neuer Speicher hinzugefügt“ in der ChatGPT-App überprüfen. Mit dieser Funktion können Sie überprüfen, welche Informationen archiviert wurden, und so fragwürdige Einträge eliminieren.
- Deaktivieren Sie den Speicher, wenn er nicht benötigt wird: ChatGPT hat die Speicherfunktion automatisch aktiviert, aber Sie können es deaktivierenDieser Ansatz ist unkompliziert, aber leistungsstark genug, um das Risiko speicherbasierter Angriffe auszuschließen.
- Seien Sie vorsichtig bei Interaktionen mit Dritten: Wenn Sie verbundene Apps verwenden oder Dateien auf ChatGPT hochladen, sollten Sie besonders vorsichtig sein. Diese Zonen sind weiterhin stärker Swift-Injection-Angriffen ausgesetzt.
Obwohl kein System völlig immun gegen Bedrohungen ist, können Sie die Wahrscheinlichkeit, Ziel eines solchen Angriffs zu werden, verringern, indem Sie vorsichtig sind und die gespeicherten Daten regelmäßig überprüfen.
ChatGPTs verbesserte Sicherheit für den Speicher
Die Speicherung von Benutzerdaten durch ChatGPT für personalisierte Dienste ist ein starkes Werkzeug. Mit dieser Methode kann sich das System Präferenzen merken, vergangene Gespräche abrufen und sogar bestimmte Vorlieben oder Abneigungen erkennen, um bessere Antworten zu formulieren. Diese Macht birgt jedoch auch Risiken. ChatGPT setzt sich durch die Speicherung von Informationen auf lange Sicht möglichen Manipulationen durch sofortige Injektionen aus.
Rehberger berichtete, dass Hacker in einer Aktion eine Vielzahl gefälschter Erinnerungen generieren können. Nach der Übermittlung bleiben diese Erinnerungen in ChatGPT erhalten und beeinträchtigen möglicherweise alle zukünftigen Kommunikationen mit der KI. Die Annahme, dass dem Chatbot weiterhin vertraut wird, kann riskant sein, da Benutzer versehentlich größere persönliche Informationen preisgeben könnten, ohne es zu merken.
Obwohl OpenAI bei der Bewältigung dieser Herausforderungen große Fortschritte gemacht hat, bleiben einige Fragen offen. Beispielsweise sind mehrere Segmente innerhalb der Plattform weiterhin anfällig für Prompt-Injection-Angriffe, insbesondere wenn nicht verifizierte Inhalte von Dritten in eine Diskussion einfließen. Die Entscheidung des Unternehmens, dies nicht als „Sicherheitslücke“, sondern als „Modellsicherheitsproblem“ einzustufen, hat bei Experten für Verwunderung gesorgt.
Regelmäßige Überwachung: Ihre beste Verteidigung
Benutzer müssen trotz versteckter Speicherschwachstellen zusätzliche Maßnahmen ergreifen, um ihre Informationen zu schützen. Hier sind einige Optionen, die Ihnen zur Verfügung stehen:
- Überprüfen Sie alle Benachrichtigungen zum Thema „Speicher aktualisiert“: Wenn ChatGPT Sie über eine Speicheraktualisierung benachrichtigt, halten Sie inne, um den gespeicherten Inhalt zu überprüfen. Diese Funktion hilft dabei, unnötige Informationen zu identifizieren, die gespeichert werden.
- Löschen Sie unerwünschte Erinnerungen: Benutzer haben die vollständige Kontrolle über den Speicher von ChatGPT. Wenn Ihnen etwas Ungewöhnliches auffällt, beseitigen Sie es, um mögliche Schäden zu verhindern.
- Bleiben Sie wachsam mit Tools von Drittanbietern: Überwachen Sie alle Verbindungen zwischen ChatGPT und Anwendungen von Drittanbietern. Diese Tools sind immer noch anfällig für Manipulationen, da die Bemühungen von OpenAI die Möglichkeit sofortiger Injektionen in diesen Bereichen nicht ausgeschlossen haben.
Memory-Hacks: Mehr als nur ein Fehler?
Die in ChatGPT entdeckte Speicherschwachstelle hat gezeigt, dass KI-Tools, die zur Verbesserung der Benutzererfahrung entwickelt wurden, zusätzliche Sicherheitsrisiken bergen können. Speicherbasierte Eigenschaften ermöglichen personalisierte Interaktionen, ermöglichen es Hackern jedoch, diese Interaktionen für böswillige Zwecke zu missbrauchen.
Während ChatGPT fortschreitet, sollten Benutzer aufmerksam bleiben, gespeicherte Erinnerungen konsequent überprüfen und beim Umgang mit externen Inhalten vorsichtig sein. Auch wenn OpenAI die Sicherheit deutlich verbessert hat, sind zusätzliche Anstrengungen erforderlich, um die bestehenden Schwachstellen zu beheben. Indem Sie sich der potenziellen Gefahren bewusst sind und proaktiv handeln, können Sie weiterhin personalisierte Interaktionen mit ChatGPT durchführen und gleichzeitig sicherstellen, dass Ihre Daten sicher bleiben.
Bildnachweis für vorgestelltes Bild: kostenlospik
Source: ChatGPT-Speicher-Hack: Eine Sicherheitslücke in der KI lässt Sie Ihr Vertrauensniveau neu bewerten