Diese Woche wurde OpenAI mit zwei schwerwiegenden Sicherheitsproblemen konfrontiert, die ernsthafte Bedenken hinsichtlich des Umgangs des Unternehmens mit der Cybersicherheit aufkommen ließen:
Erstes Problem: Sicherheitslücke in der ChatGPT-Mac-App
Pedro José Pereira Vieito hat einen schwerwiegenden Fehler in der ChatGPT-Mac-App gefunden. Er entdeckte, dass die App Benutzergespräche unverschlüsselt im Klartext auf dem Computer speicherte. Dies ist ein großes Problem, da die App nur auf der Website von OpenAI verfügbar ist und nicht den Sicherheitsanforderungen von Apple entspricht. Diese Anforderungen, bekannt als Sandboxing, verhindern, dass Apps Probleme für den Rest des Systems verursachen.
Die OpenAI ChatGPT-App auf macOS ist nicht in einer Sandbox ausgeführt und speichert alle Konversationen im **Klartext** an einem ungeschützten Ort:
~/Bibliothek/Anwendungsunterstützung/com.openai.chat/conversations-{uuid}/
Grundsätzlich kann also jede andere App/Malware alle Ihre ChatGPT-Konversationen lesen: pic.twitter.com/IqtNUOSql7
— Pedro José Pereira Vieito (@pvieito) 2. Juli 2024
Die Speicherung im Klartext bedeutet, dass jeder mit Zugriff auf den Computer diese Gespräche leicht lesen kann, was sie für andere Apps oder Malware anfällig macht. Nachdem Vieitos Ergebnisse von Der Randhat OpenAI schnell ein Update zur Verschlüsselung der gespeicherten Chats veröffentlicht.
Zweites Problem: Allgemeinere Bedenken hinsichtlich der Cybersicherheit
Das zweite Problem stammt aus dem Jahr 2023, ist aber diese Woche wieder ins Rampenlicht gerückt. Im vergangenen Frühjahr griff ein Hacker auf die internen Nachrichtensysteme von OpenAI zu und stahl vertrauliche Unternehmensinformationen. Leopold Aschenbrenner, technischer Programmmanager bei OpenAI, schlug Alarm wegen dieses Hacks und sagte, er zeige schwerwiegende Sicherheitslücken, die von ausländischen Feinden ausgenutzt werden könnten.
Aschenbrenner gemeldet diese Bedenken dem Vorstand von OpenAI vor. Später behauptete er, er sei entlassen worden, weil er diese Probleme ans Licht gebracht habe. OpenAI bestritt dies jedoch und erklärte, sein Weggang sei nicht auf sein Whistleblowing zurückzuführen, obwohl sie sein Engagement für die Sicherheit von KI anerkannten.
Auswirkungen auf OpenAI
Sicherheitsprobleme kommen bei vielen Technologieunternehmen vor, aber diese Vorfälle sind für OpenAI besonders besorgniserregend, da ChatGPT so weit verbreitet ist. Diese Probleme werfen die Frage auf, ob OpenAI seine Daten sicher halten kann, insbesondere da ChatGPT immer stärker in wichtige Dienste integriert wird.
Die Reaktion von OpenAI auf diese Probleme ist entscheidend für die Aufrechterhaltung des öffentlichen Vertrauens. Ihre Sicherheitspraktiken und Transparenz stehen derzeit auf dem Prüfstand, und wie sie mit diesen Bedenken umgehen, wird ihren zukünftigen Ruf bestimmen.
OpenAI steht vor erheblichen Sicherheitsproblemen. Die jüngsten Probleme mit der ChatGPT-Mac-App und allgemeinere Schwachstellen in der Cybersicherheit unterstreichen die Notwendigkeit besserer Sicherheitsmaßnahmen und klarer Kommunikation. Da OpenAI weiterhin Innovationen hervorbringt, ist die Beseitigung dieser Sicherheitsbedenken von entscheidender Bedeutung, um das Vertrauen aufrechtzuerhalten und eine sichere KI-Entwicklung zu gewährleisten.
Bildnachweis: Eray Eliacık/Bing
Source: OpenAIs doppelte Dosis an Sicherheitsproblemen in einer Woche