KI und Datenschutz IIIa: Lernen untersagen

Hinweis: Alles ändert sich in diesem Bereich so schnell, dass das eine oder andere Detail abweichen kann. Gerade die Tools entwickeln sich mit einer hohen Geschwindigkeit weiter.

Nachdem wir gesehen haben, wie und warum Daten von uns für das Training von KI verwendet werden und was die KI damit anstellen kann, stellt sich die Frage: KI ganz lassen oder sie doch nutzen? Ganz lassen ist sicherlich für viele keine Option und ich denke auch weltfremd. Da KI unsere gesamte Gesellschaft nachhaltig verändern wird, müssen wir uns damit befassen und sie für uns nutzen. Das geht auch datenschutzfreundlich.

Datensparsamkeit

Die meisten von uns haben schon Daten abgegeben. Ich habe auch nicht mein ganzes Leben aufgepasst und GrapheneOS, Little Snitch, nextdns, pfSense etc. genutzt. Ich war nie ein aSoziale Medien Typ, aber trotzdem habe ich das Internet genutzt, wie wahrscheinlich jeder andere. Erst sei ca. vier Jahren agiere ich anders.

Gehen Sie sparsam mit den Daten um. Jedes Foto, jeder Leserbrief, alles, was irgendwie im Internet sichtbar ist kann „gegen“ Sie verwendet werden. Meine Philosophie seit vier Jahren ist:

Alles was ich im Internet tue wird irgendwann öffentlich.

Jetzt gehe ich einen Schritt weiter:

Alles was ich im Internet tue wird zum Training verwendet.

Wenn Sie die Strandbilder Ihrer Kinder, wie Gott sie schuf und MacDonalds sie formte, ins Internet stellen, seien Sie sich im Klaren, was damit passieren kann. Wenn Sie Sprache ins Internet stellen oder mit KI verwenden, denken Sie daran, das damit ggf. trainiert wird und das Ihre Stimme geklont und missbraucht werden kann. Denken Sie an den Enkeltrick. Überlegen Sie sich als Selbständige gut, ob Sie Ihre Bilder zum Verkauf ins Internet stellen und stellen Sie ggf. sicher, über die robots.txt Ihrer Webseite, dass KI nicht damit lernen kann. Ob sich die Unternehmen daran halten, ist fragwürdig. Perplexity hat es in der Vergangenheit nicht getan. Sie können tun, was Sie wollen. Mein Wunsch ist, dass Sie das bewusst tun und sich möglicher Konsequenzen bewusst sind.

Lernen untersagen

Wie ich schon im Unterkapitel DSGVo erwähnt habe, haben Sie ein Recht auf Auskunft zu Ihren Daten. Nehmen Sie das wahr und verlangen Sie das Löschen.

Wählen Sie eine vertrauenswürdige Plattform. Ich habe schon erwähnt, dass manche wirklich guten Tools keine Möglichkeiten bieten, das Konto zu löschen oder bei denen Sie das Lernen aus Ihren Daten nicht untersagen können.

Überlegen Sie sich sehr gut, was Sie einem Chatbot anvertrauen. Ihre gesamten medizinischen Unterlagen, Ihre Arbeitsverträge, Ihre Scheidungsdokumente, die Studienarbeiten Ihrer Studierenden, die persönliche Daten beinhalten? Die meisten Anbieter verlangen ein Konto, wenn auch oftmals ohne Kosten. Aber unter diesem Konto werden alle Ihre Daten zusammengefasst.

Wie immer und überall, verwenden Sie auch bei den KI Anbietern starke Passwörter und wann immer möglich Passkey oder 2-Faktor-Authentifizierung.

Wenn Sie es noch nicht getan haben, dann gehen Sie in die Konten, die Sie haben und unterbinden Sie das Lernen durch Ihre Daten und Prompts.

Es kann sich täglich ändern, aber hier die Möglichkeiten für ausgewählte Tools.

Adobe

Wenn Sie Ihre Dateien in der Creative Cloud von Adobe speichern, kann das Unternehmen sie analysieren, um seine Software zu verbessern
Adobe verwendet die Dateien nicht, um ein generatives KI-Modell zu trainieren, mit einer Ausnahme.

Wir analysieren Ihre Inhalte nicht, um generative KI-Modelle zu trainieren, es sei denn, Sie stellen Ihre Inhalte auf dem Adobe Stock-Marktplatz zur Verfügung“
https://helpx.adobe.com/de/manage-account/using/machine-learning-faq.html

heißt es auf der aktualisierten FAQ-Seite des Unternehmens.
Wenn Sie ein persönliches Adobe-Konto besitzen, können Sie die Inhaltsanalyse einfach deaktivieren. Öffnen Sie die Datenschutzseite von Adobe, scrollen Sie nach unten zum Abschnitt „Inhaltsanalyse zur Produktverbesserung“ und klicken Sie auf den Schalter „Aus“. Wenn Sie ein Geschäfts- oder Schulkonto haben, werden Sie automatisch abgemeldet.

Amazon AWS

KI-Dienste von Amazon Web Services wie Amazon Rekognition oder Amazon CodeWhisperer können Kundendaten verwenden, um die Tools des Unternehmens zu verbessern. Dem haben viele Unternehmen zugestimmt.

Es ist aber möglich, aus dem KI-Training auszusteigen. Früher war dies einer der kompliziertesten Prozesse, die denkbar sind, aber in den letzten Monaten hat AWS das vereinfacht.
Auf dieser Support-Seite von Amazon finden Sie den vollständigen Prozess für die Abmeldung Ihrer Organisation oder Ihres Kontos.

Figma

Figma, eine beliebte Design-Software, kann Ihre Daten für die Modellschulung verwenden. Wenn Ihr Konto über einen Organisations- oder Enterprise-Plan lizenziert ist, sind Sie automatisch von der Nutzung Ihrer Daten zum Training ausgeschlossen.
Starter- und Professional-Konten hingegen sind standardmäßig aktiviert. Diese Einstellung können Sie auf Teamebene ändern, indem Sie die „Einstellungen“ auf der Registerkarte „KI“ öffnen und die Option „Inhaltstraining“ ausschalten.

Google Gemini

Unterhaltungen werden manchmal für eine menschliche Überprüfung ausgewählt, um das KI-Modell zu verbessern. Das heißt, Menschen hören sich an, was Sie sprechen. Aber die Deaktivierung ist einfach.

Öffnen Sie Gemini in Ihrem Browser, klicken Sie auf „Aktivität“ und wählen Sie das Dropdown-Menü „Ausschalten“. Hier können Sie die Aktivität der Gemini-Apps einfach ausschalten, oder Sie können sich auch abmelden und Ihre Konversationsdaten löschen. Das bedeutet aber oftmals: Zukünftig können Sie alte Chats nicht mehr eingesehen werden. Laut Googles Datenschutz-Hub für Gemini können diese Chats drei Jahre lang gespeichert bleiben.

Grok AI (X)

Kate O’Flaherty hat einen großartigen Artikel für WIRED über Grok AI und den Schutz Ihrer Privatsphäre auf X, der Plattform, auf der der Chatbot arbeitet, geschrieben.

X hat gezeigt, wie BigTech es macht, aber es nicht sein sollte: Millionen von Nutzern dieses Dienstes wachten eines Morgens auf und automatisch und ohne Vorankündigung haben sie die Daten in das KI-Training einbezogen.

Wenn Sie ein X-Konto haben, können Sie die Verwendung Ihrer Daten für das Training von Grok deaktivieren, indem Sie den Abschnitt „Einstellungen und Datenschutz“ und dann „Datenschutz und Sicherheit“ aufrufen. Öffnen Sie die Registerkarte „Grok“ und deaktivieren Sie die Option „Datenfreigabe“

LinkedIn

Falls Sie es nicht wisssen: LinkedIn gehört zu Microsoft und versucht auch gerade, die Nutzer zu motivieren, ihre neuen AGBs zu akzeptieren und so die Daten zum Training zu nutzen

Nutzer der Karrierenetzwerk-Website waren überrascht, als sie im September erfuhren, dass ihre Daten möglicherweise zum Trainieren von KI-Modellen verwendet werden.

Am Ende des Tages wollen die Menschen einen Vorteil in ihrer Karriere haben, und unsere Gen-AI-Dienste helfen ihnen dabei“

Eleanor Crum, Sprecherin von LinkedIn

Ich finde diese Einstellung, wir wissen was das Beste für unsere Kunden ist, sehr schwierig.

Sie können verhindern, dass neue LinkedIn-Beiträge für das KI-Training verwendet werden, indem Sie Ihr Profil besuchen und die „Einstellungen“ öffnen. Tippen Sie auf „Datenschutz“ und deaktivieren Sie den Schieberegler mit der Aufschrift „Meine Daten für das Training von KI-Modellen zur Inhaltserstellung verwenden“.

OpenAI: ChatGPT und Dall-E

Wie Sie die Einstellungen anpassen können hängt u.a. davon ab, welche Art von Konto Sie bei OpenAI besitzen. Aber Sie haben Optionen, was mit dem geschieht, was Sie ChatGPT sagen – einschließlich der Möglichkeit, dass seine zukünftigen KI-Modelle nicht auf den Inhalt trainiert werden.

Auf den Hilfeseiten von OpenAI finden Sie Informationen: ChatGPT-Webnutzer, die sich dagegen entscheiden möchten, können zu „Einstellungen“, „Datenkontrolle“ navigieren und dann das Häkchen bei „Modell für alle verbessern“ entfernen.

OpenAI hat für Bilder den Dall-E 3-Bildgenerator: Wenn Sie dort Datenschutz einstellen wollen, dann müssen Sie ein Formular ausfüllen. Mit diesem können Sie Ihre Bilder senden, die aus „zukünftigen Trainingsdatensätzen“ entfernt werden sollen. Es fragt nach Ihrem Namen, Ihrer E-Mail-Adresse, ob Sie die Bildrechte besitzen oder sich im Namen eines Unternehmens melden, nach Details zum Bild und nach eventuellen Uploads des Bildes/der Bilder. Wenn Sie da ein paar Hundert haben, wünsche ich Ihnen schöne Weihnachtsferien.

Es kann unter Umständen „effizienter“ sein, GPTBot zur robots.txt-Datei der Website hinzuzufügen, auf der die Bilder von Ihnen gehostet werden, falls eine große Anzahl von Bildern online gehostet wird, die aus den Trainingsdaten entfernt werden sollen.

Perplexity

Viele verwenden Perplexity als Google-Such-Ersatz. Damit hat sich die Firma einen Ruf erarbeitet, wenn auch, wie oben gezeigt, mit zu kritisierenden Methoden.

Wie bei anderer Software und KIs sind Sie automatisch damit einverstanden, dass Ihre Interaktionen und Daten verwendet werden, um die KI von Perplexity weiter zu trainieren.

Deaktivieren Sie dies, indem Sie auf Ihren Kontonamen klicken, nach unten zum Abschnitt „Konto“ scrollen und den Schalter „KI-Datenspeicherung“ deaktivieren.

Damit ist der erste Teil der datenschutzfreundlichen Nutzung von KI abgeschlossen. Im nächsten Teil schauen wir uns an, welche Optionen Sie haben, vielleicht gerade auch Mittelständler, LLMs lokal und ohne Datenabgabe an BigTech zu nutzen.