OpenAI, das für seine bahnbrechenden Innovationen bekannte Unternehmen für künstliche Intelligenz, hat erneut Schlagzeilen gemacht, wenn auch nicht aus den Gründen, die es sich wünschen würde. Diesmal steht das Unternehmen aufgrund zweier schwerwiegender Sicherheitsverletzungen unter Beobachtung, die Bedenken hinsichtlich seiner Datenschutzpraktiken und seines allgemeinen Cybersicherheitsrahmens aufgeworfen haben.
ChatGPT für Mac ist nicht so sicher wie Sie dachten
Der erste Vorfall dreht sich um die ChatGPT-App von OpenAI für Mac-Benutzer, von der kürzlich entdeckt wurde, dass sie Benutzergespräche in einem unverschlüsselten Format direkt auf lokalen Geräten speichert, so Der Rand‘s Bericht.
Dies bedeutet, dass vertrauliche Informationen, die während der Chats ausgetauscht werden, möglicherweise anderen Anwendungen oder Schadsoftware zugänglich sind.
Swift-Entwickler Pedro José Pereira Vieito brachte diese Schwachstelle ans Licht und veranlasste OpenAI, umgehend ein Update herauszugeben, das eine Verschlüsselung für gespeicherte Gespräche implementierte. Der Vorfall hat jedoch die Bedeutung robuster Sicherheitsmaßnahmen auch bei scheinbar harmlosen Anwendungen unterstrichen.
Die OpenAI ChatGPT-App auf macOS ist nicht in einer Sandbox ausgeführt und speichert alle Konversationen im **Klartext** an einem ungeschützten Ort:
~/Bibliothek/Anwendungsunterstützung/com.openai.chat/conversations-{uuid}/
Grundsätzlich kann also jede andere App/Malware alle Ihre ChatGPT-Konversationen lesen: pic.twitter.com/IqtNUOSql7
— Pedro José Pereira Vieito (@pvieito) 2. Juli 2024
Der Vorfall vom letzten Jahr verfolgt den Technologiegiganten
Zu den Sicherheitsproblemen kommt noch hinzu, dass OpenAI nun erneut von einem Datendiebstahl aus dem letzten Frühjahr heimgesucht wird. Einem Hacker gelang es, die internen Nachrichtensysteme des Unternehmens zu infiltrieren und so Zugriff auf vertrauliche Informationen über die Betriebsabläufe und KI-Technologien des Unternehmens zu erhalten.
Während die Führungskräfte von OpenAI den Verstoß damals nicht öffentlich machten, weil sie davon ausgingen, dass weder Kunden- noch Partnerdaten gefährdet seien, führte der Vorfall zu interner Zwietracht.
Einige Mitarbeiter, darunter der ehemalige technische Programmmanager von OpenAI, Leopold Aschenbrenner, äußerten ihre Besorgnis darüber, dass die Sicherheitsmaßnahmen des Unternehmens nicht ausreichten, um vor potenziellen Bedrohungen zu schützen, insbesondere vor ausländischen Angreifern, die wertvolle KI-Technologie stehlen möchten.
Sicherheit? Nein danke!
Diese beiden Vorfälle haben eine breitere Debatte über OpenAIs Engagement für Sicherheit und Transparenz in den Vordergrund gerückt. Obwohl das Unternehmen Schritte unternommen hat, um die unmittelbaren Schwachstellen zu beheben, bleiben Fragen zu seinen internen Prozessen und dem Ausmaß, in dem es der Sicherheit bei der Entwicklung und Bereitstellung von KI-Anwendungen Priorität einräumt, bestehen. Die potenziellen geopolitischen Risiken, die mit fortschrittlichen KI-Technologien verbunden sind, verkomplizieren das Problem noch weiter, da die Angst vor dem Diebstahl geistigen Eigentums durch ausländische Staaten groß ist.
OpenAI hat auf diese Herausforderungen zweierlei reagiert.
Erstens wurde eine Sicherheitsausschuss um die mit zukünftigen Technologien verbundenen Risiken zu bewerten und zu mindern. Diesem Ausschuss gehören prominente Persönlichkeiten wie Paul Nakasone an, ein ehemaliger Armeegeneral und Experte für Cybersicherheit. Zweitens hat das Unternehmen sein Engagement für Investitionen in den Schutz seiner Technologien bekräftigt und betont, dass diese Bemühungen bereits vor den jüngsten Vorfällen unternommen wurden und sich ständig weiterentwickeln.
Der Ruf von OpenAI und das Vertrauen seiner Benutzer hängen von seiner Fähigkeit ab, aus diesen Erfahrungen zu lernen und sicherzustellen, dass die Sicherheit weiterhin höchste Priorität hat, während es uns weiterhin mit einer Innovation nach der anderen in der Entwicklung von KI-Technologien überrascht.
Bildnachweis für vorgestelltes Bild: Jonathan Kemper/Unsplash
Source: Der Ruf von OpenAI und das Vertrauen der Benutzer wurden durch Sicherheitsvorfälle erschüttert