Samsungs ChatGPT Fiasko wirft ein Schlaglicht auf generative KI-Datenschutzprobleme
Ein gesprochenes Wort kann man nicht mehr zurückrufen. Dies ist nun mehr als wahr für drei Samsung-Mitarbeiter, die versehentlich Quellcode, eine Testsequenz und interne Unternehmensdiskussionen an OpenAI, ein Unternehmen hinter ChatGPT, weitergegeben haben.
Laut The Economist Korea war Samsung zunächst skeptisch bezüglich der Einführung des KI-Chatbots, aus Angst vor Weitergabe interner Informationen. Als ChatGPT jedoch die Welt im Sturm eroberte, gab Samsung grünes Licht für den Einsatz von ChatGPT am Arbeitsplatz, damit die Mitarbeiter mit den technologischen Veränderungen Schritt halten können. Damals gab das Unternehmen einen Hinweis an diejenigen heraus, die ChatGPT nutzen wollten: „Achten Sie auf die Sicherheit interner Informationen und geben Sie keine privaten Informationen ein, wenn Sie den KI-Assistenten mit Eingabeaufforderungen füttern“.
Die Nachricht stieß offenbar auf wenig Gegenliebe, denn innerhalb der nächsten 20 Tage gaben nicht nur ein, sondern gleich drei Ingenieure des Unternehmens sensible Unternehmensdaten von Samsung preis. Die Daten könnten OpenAI und seinen Konkurrenten Einblicke in Samsungs Technologie geben.
Im ersten Fall fand ein Samsung-Mitarbeiter einen Fehler im Quellcode des Downloadprogramms für die Messdatenbank der Halbleiterfabrik und bat ChatGPT um eine Lösung. Im zweiten Fall nutzte ein Mitarbeitяer ChatGPT, um die Testsequenz für ein Programm zu optimieren, das Ertrag und defekte Chips identifiziert. Im dritten Fall nahm ein Mitarbeiter die interne Firmenbesprechung zunächst mit seinem Smartphone auf, transkribierte sie dann mit einer Spracherkennungsanwendung und speiste sie in ChatGPT ein, um ein Besprechungsprotokoll zu erstellen. Gegen alle drei wird nun ein Disziplinarverfahren eingeleitet.
Man könnte erwarten, dass Samsung ChatGPT nach den Leaks sofort verbietet, aber das ist nicht passiert. Stattdessen hat Samsung versucht, seine Mitarbeiter über die Datenschutzrisiken von KI aufzuklären und ihnen gesagt, dass alles, was man ChatGPT erzählt, auf den externen Servern von OpenAI gespeichert wird. Das bedeutet, dass es kein Zurück mehr gibt — es gibt keine Möglichkeit, diese Daten abzurufen, sobald man sie verraten hat. Samsung hat auch eine Obergrenze festgelegt, wie viele Daten jeder Mitarbeiter auf ChatGPT hochladen kann, und warnte, dass das Unternehmen die Nutzung von ChatGPT endgültig einstellen wird, wenn jemand wieder etwas ausplaudert.
Alles, was zu ChatGPT gesagt wird, ist nicht mehr rückgängig zu machen
Samsung ist nicht das erste, sondern nur das jüngste Opfer der Vorliebe seiner Mitarbeiter, sensible Themen mit dem Chatbot von OpenAI zu diskutieren. Auch andere Unternehmen machen sich auf den Weg.
Amazon schränkte die Nutzung von ChatGPT bereits im Januar ein und warnte die Mitarbeiter davor, vertrauliche Informationen, wie z. B. Code, in den Chatbot einzugeben. Dies passierte, nachdem das Unternehmen in den Antworten von ChatGPT Ausgaben entdeckt hatte, die „eng mit internen Amazon-Daten übereinstimmten“. Ein anderer US-amerikanischer Einzelhandelsriese, Walmart, hatte ChatGPT zunächst gesperrt, nachdem er Aktivitäten entdeckt hatte, die „ein Risiko für das Unternehmen darstellten“. Später öffnete er ihn jedoch für die Nutzung und gab eine Reihe von Richtlinien heraus, die u. a. besagen, dass die Mitarbeiter „die Eingabe sensibler, vertraulicher oder geschützter Informationen“ vermeiden sollten.
Eine Reihe von Finanzdienstleistungsunternehmen haben ChatGPT ganz vom Arbeitsplatz verbannt. Die Bank of America hat ChatGPT auf ihre Liste der nicht genehmigten Anwendungen, die nicht für die geschäftliche Nutzung zugelassen sind, gesetzt. Andere Finanzinstitute, die den Zugriff auf den Chatbot blockiert haben, sind JPMorgan Chase, Citigroup Inc, Goldman Sachs, Deutsche Bank und Wells Fargo. Letztere erklärte gegenüber Bloomberg, dass sie sich an die Standardbeschränkungen für Software von Drittanbietern hält und dass sie „weiterhin sichere und effektive Möglichkeiten“ für die Nutzung der Technologie prüfen wird.
Der Bankensektor hat am proaktivsten auf die von ChatGPT ausgehenden Risiken reagiert, und das ist auch verständlich: Banken verwalten eine Menge sensibler Kundendaten und sind stark reguliert. Aber die gleichen Risiken gelten für jede Branche. Sobald Sie den Chatbot mit einer Information füttern, sei es ein Stück proprietären Codes oder ein Protokoll einer Vorstandssitzung, betrachten Sie es nicht mehr als ein Geheimnis, sondern als Teil des öffentlichen Bereichs.
Die Nutzungsbedingungen von OpenAI legen nahe, dass Sie bei der Interaktion mit dem Chatbot keine Privatsphäre erwarten sollten, und legen Ihnen die Verantwortung auf, die Katze nicht aus dem Sack zu lassen. OpenAI sagt zum Beispiel, dass es Ihre Unterhaltungen mit ChatGPT ansehen und verwenden kann, um die KI zu trainieren, und dass es Ihnen nicht helfen kann, bestimmte Aufforderungen aus Ihrem Chatverlauf zu entfernen.
Das heißt, wenn Sie ChatGPT sensible Informationen über sich oder Ihr Unternehmen mitteilen, kann jemand anderes ChatGPT möglicherweise nach diesen Daten fragen und sie in die Hände bekommen. Im Fall von Samsung könnten die Konkurrenten des Unternehmens versuchen, den Chatbot über die Informationen, die den Mitarbeitern zugespielt wurden, auszuquetschen.
OpenAI bietet die Möglichkeit, die Verwendung Ihrer Daten für das Training abzulehnen — dafür müssen Sie ein spezielles Formular ausfüllen. Wenn Sie jedoch bereits Daten mit ChatGPT geteilt haben, die Sie bereuen, könnte es dafür schon zu spät sein. Sie sollten in Erwägung ziehen, Ihr Konto zu löschen — denn nur in diesem Fall könnte Ihr Chatverlauf gelöscht werden. Laut OpenAI kann dieser Vorgang bis zu 30 Tage dauern, und Sie können Ihr Konto danach nicht mehr wiederherstellen.
Doch was danach passiert, ist eine große Frage, denn die Nutzer:innen wissen in der Regel nicht, wie ihre Daten zum Trainieren des Algorithmus verwendet werden, und haben keine Möglichkeit zu überprüfen, ob sie entfernt wurden. Zwar ist es theoretisch möglich, das System dazu zu bringen, die Daten zu „verlernen“, doch gilt dieser Prozess als äußerst schwierig. Zwar gibt es Forschungen zum so genannten maschinellen „Unlearning“, doch angesichts der zunehmenden Besorgnis über die Auswirkungen generativer KI auf die Sicherheit und den Schutz der Privatsphäre ist dies der Bereich, der noch mehr Arbeit erfordert. Der vorherrschende Ansatz scheint darin zu bestehen, das gesamte Modell von Grund auf neu zu trainieren, was in der Praxis nicht durchführbar ist.
Wenn wir also nicht sicher sein können, dass die Informationen, die wir an ChatGPT weitergeben, für immer verschwunden sind, dann ist es wahrscheinlich besser, den KI-Helfern Ihre oder die Geheimnisse Ihres Unternehmens überhaupt nicht anzuvertrauen. Wer weiß, wo sie auftauchen könnten. Wie OpenAI selbst sagt: „Bitte geben Sie keine sensiblen Informationen in Ihren Unterhaltungen preis.“