WhatsApp und KI: Warnung, wirklich

Updated: 25.3.2025 14:36 Uhr: Sonstiges

Ich bin schon lange gegen WhatsApp. Am Anfang, weil WhatsApp keine Ende-zu-Ende-Verschlüsselung hatte (was z. B. Threema schon früher konnte) und man eine Telefonnummer abgeben musste, dann weil sie trotz Ende-zu-Ende-Verschlüsselung alle möglichen Metadaten abgreifen und diese mit der Telefonnummer verbinden. Also wer wie lange mit wem redet, wer wie oft mit wem kommuniziert usw.

Doch wenigsten waren die Inhalte sicher. WhatsApp verwendet denselben Verschlüsselungsalgorithmus wie Signal, ist also inhaltlich genauso sicher.

In allen Kursen, mit jedem Menschen, mit dem ich geredet habe, habe ich empfohlen, kein WhatsApp zu verwenden. Es hat Jahre gedauert, aber ich habe es geschafft, alle Menschen in meinem Umfeld auf Threema zu migrieren.

Seit letzter Woche ist Meta dabei, seine KI, MetaAI, in Europa zur Verfügung zu stellen. Aber nicht nur für WhatsApp, sondern auch für Instagram und Facebook.

Das bedeutet, dass Meta-Kunden in den genannten Tools mit der KI chatten, sich Bilder erklären lassen und selbst Bilder erstellen können.

Ein Chatbot und mehr auf Ihrem Handy, immer griffbereit. Ohne Konto. Ohne Ausgaben.

Beispiele

Stellen wir uns ein paar typische Abläufe vor.

Beispiel 1

Ein Nutzer A chattet mit einem anderen Nutzer B. Dieser schreibt etwas, was der Nutzer A nicht sofort versteht und nicht kennt. Also sendet er an den Chatbot eine Anfrage, um das zu klären. Wer will schon als uninformiert oder gar dumm und ungebildet gelten? Diese Daten landen auf den Servern von Meta, werden ausgewertet und eine Antwort zurück geschickt. Damit kennt Meta das Thema, das Nutzer A und Nutzer B miteinander besprechen. Oder Bilder werden gesendet, um sie interpretieren zu lassen.

Beispiel 2

Anderer Fall: Nutzer A kopiert den Chatverlauf und sendet diesen an die KI von Meta um sie zusammenzufassen oder erklären zu lassen. Meta sammelt das alles. Ende-zu-Ende-Verschlüsselung ginge mit einem Chatbot nur mit homomorpher Verschlüsselung. Aber die ist neu und soweit sind die Firmen noch nicht.

Was mir noch nicht klar ist, ob man MetaAI als eigenen Nutzer in einen Gruppenchat einbauen kann, wie eine dritte Person. Dann erhält Meta alle Informationen in diesem Chat. Wer was wann und wo wie gesagt hat, welches Bild geteilt hat und vieles mehr.

Damit sind auch die Inhalte von WhatsApp Meta bekannt.

Beispiel 3

Oder stellen Sie sich die Teenagerin vor. Sie chattet mit ihrer Freundin über den heißen Typ aus der Klasse darüber. Dann muss die Freundin weg und den Chat verlassen. Was tun? Die Teenagerin ist noch nicht durch mit ihrem Herzschmerz. Da sie die KI in WhatsApp schon kennt und die oftmals wirklich gut geholfen hat (siehe oben), wendet sie sich an MetaAI und führt den Dialog weiter. Vielleicht kopiert sie die Antworten und Tipps ihrer Freundin und sendet sie an die KI um zu fragen, was die KI zu den Tipps meint. Die persönlichsten aller persönlichen Gedanken, Sorgen und Nöte werden mit Meta geteilt.

Da fast alle Menschen WhatsApp auf dem Handy haben und es kostenlos ist, kann ich mir auch folgendes Szenario vorstellen.

Beispiel 4: Wirklich hässlich

WhatsApp Nutzer verwenden MetaAI, um zum Beispiel E-Mails interpretieren oder zusammen fassen zu lassen. Also die Daten von anderen. Oder sie nehmen den Chatverlauf von gestern mit Nutzer B und fragen MetaAI, was es von diesem Chat hält.

Fast alle Menschen verwenden WhatsApp. Diese kennen alle WhatsApp. Es ist so einfach und bequem, mal eben WhatsApp zu fragen. Anstelle ChatGPT oder anderen 20€ zu bezahlen oder eine App auf dem Handy zu installieren.

Meta kommt auf diese Weise an noch mehr, noch privatere Daten als je zuvor. Nicht nur an die der Nutzer, sondern wahrscheinlich auch an die von Nicht-WhatsApp-Nutzern. Wie mit dem hochgeladenen Adressbuch. Ich bin nicht bei Meta, bei keinem der Tools. Trotzdem bin ich sicher, dass Meta Daten von mir hat. Weil Freunde, Bekannte oder Vereinsmitglieder meine Daten in ihrem Adressbuch haben, und dieses Adressbuch überall hochladen, vor allem aber an Meta.

Jetzt kommen wahrscheinlich noch meine E-Mails, meine Bilder oder meine Dokumente dazu. Ohne, dass ich darauf einen Einfluss habe.

Mit all diesen neuen Informationen werden nicht nur die Profile besser und die Werbeeinnahmen von Meta sprudeln, sondern damit wird auch deren KI trainiert. Nicht nur mit den Daten der Nutzern, sondern auch mit den Daten Fremder. Wollen Sie das?

Mit Ihren privatesten Daten. Oder meinen, ohne dass ich das verhindern kann. Damit ist keine Kommunikation mehr privat. Oder Sie müssen dem Gegenüber ganz klar sagen, dass Sie das nicht wollen. Aber wie stellen Sie sicher, dass es nicht trotzdem passiert? Vielleicht einfach aus Nachlässigkeit.

Sonstiges

Noch unbestätigt, aber sehr gut möglich, besteht wohl keine Möglichkeit, MetaAI zu deaktivieren oder zu löschen.

Aus der Vergangenheit (ich glaube es war letztes Jahr, kann aber auch vorletztes gewesen sein), wissen wir, dass Sie früher oder später WhatsApp aktualisieren müssen. Sonst funktioniert es nicht mehr.

Was ich noch nicht verstanden habe ist, wie das DSGVo-konform sein kann?

Doch hier noch ein Update:

Einen noch krasseren Privatsphärenangriff erleben Nutzer*innen der WhatsApp-Beta-Version 2.25.7.16. Bei ihnen ist die Funktion „Voice First“ inbegriffen. Dabei beginnt der KI-Assistent, sobald er geöffnet wird, die Nutzer*innen abzuhören. Er tut dies so lange, bis die Nutzenden das Tool verlassen, das Mikro stummschalten oder zu Tastatureingaben wechseln.

https://www.netzpolitik.org/2025/angriff-auf-privatsphaere-meta-messenger-fuehren-ki-assistenten-in-europa-ein/

Vorschlag

Versuchen Sie einfach mal Signal oder Threema. Signal ist kostenlos, Threema kostet 5,99€. Sie werden überrascht sein, wieviele Ihrer Bekannten, Freunde und Vereinsmitglieder schon da sind.

Ansonsten wundern Sie sich bitte nicht, wenn auch Ihnen von einer KI angehängt wird, Ihre Kinder ermordet zu haben.