© cottonbro studio auf canva.com

AI bei WhatsApp – Datenschutzrisiko für Unternehmen?

Hinweis: Dieser Artikel wurde maschinell übersetzt und kann daher Übersetzungsfehler enthalten.

Ein Beitrag von

Porträt von Alexander Brittner
Alexander Brittner, LL.M.

Salary Partner, Rechtsanwalt

Themen und Schlagwörter

Viele Nutzer von WhatsApp haben ihn bereits bemerkt: den blauen Kreis in der Chatübersicht. Dahinter verbirgt sich eine neue Funktion – Meta AI, ein KI-gestützter Assistent, der direkt in den Messenger integriert wurde.

Die Einführung dieser künstlichen Intelligenz stellt nicht nur eine technische Neuerung dar, sondern wirft insbesondere aus datenschutzrechtlicher Sicht erhebliche rechtliche Fragen auf. Gerade bei unternehmerischer Nutzung von WhatsApp ergeben sich neue Risiken, die Unternehmen unbedingt beachten sollten.

Funktion und Reichweite von Meta AI

Bei Meta AI handelt es sich um einen generativen KI-Chatbot aus dem Facebook-Universum, der innerhalb von WhatsApp nutzbar ist. Über einfache Eingaben können Nutzer Texte erstellen, Fragen stellen oder Informationen generieren lassen. Der Chatbot ist als interaktiver Gesprächspartner angelegt – technisch vergleichbar mit anderen Large Language Models wie ChatGPT.


Im Gegensatz zur klassischen WhatsApp-Kommunikation, die durch eine Ende-zu-Ende-Verschlüsselung geschützt ist, erfolgt die Interaktion mit Meta AI allerdings über Server von Meta. Die dort eingegebenen Inhalte werden verarbeitet, gespeichert und können zur Weiterentwicklung der KI verwendet werden. Dies betrifft auch personenbezogene Daten oder sensible Informationen, sofern sie durch die Nutzer eingebracht werden.

Datenschutzrechtliche Relevanz

Die Nutzung von Meta AI wirft mehrere datenschutzrechtliche Problemstellungen auf:

  • Keine Ende-zu-Ende-Verschlüsselung: Inhalte, die an Meta AI übermittelt werden, unterliegen nicht dem herkömmlichen Schutzmechanismus von WhatsApp.
  • Unklare Datenverarbeitung: Es besteht aktuell wenig Transparenz darüber, in welchem Umfang, zu welchen Zwecken und für welchen Zeitraum die Eingaben verarbeitet werden.
  • Fehlende Deaktivierungsmöglichkeit: Eine vollständige Deaktivierung der Funktion ist derzeit nicht vorgesehen. Die KI ist standardmäßig verfügbar; eine bewusste Zustimmung der Nutzenden erfolgt nicht.


Problematisch ist daher die Nutzung des Services mit personenbezogenen Daten oder Unternehmensinformationen. Gerade im beruflichen Kontext, etwa bei der Kommunikation mit Kundinnen und Kunden oder im internen Austausch, besteht damit das Risiko, dass personenbezogene oder geschäftskritische Informationen unbewusst an Dritte übermittelt oder sogar ausgewertet werden.


Hilfreich ist, dass über das Tool schnell Fragestellungen geklärt und brauchbare Ergebnisse erzielt werden. Personenbezogene Daten aus dem unternehmerischen Kontext dürfen allerdings nur dann dort eingegeben werden, wenn eine Rechtsgrundlage (z. B. eine Einwilligung) hierfür vorliegt. Für den privaten Bereich gelten diese Vorgaben nicht in diesem Maße. Die Verlockung einer schnellen In-App-AI-Verarbeitung ist groß – ebenso die Gefahr einer Datenschutzverletzung.

Besonderheiten für Unternehmen

Für Unternehmen gilt die Rechenschaftspflicht des Art. 5 Abs. 1 DSGVO: Sie müssen sicherstellen können, dass sämtliche eingesetzten Kommunikationsmittel den datenschutzrechtlichen Anforderungen genügen. Die unkontrollierte Nutzung von Künstlicher Intelligenz durch Mitarbeitende – auch von Meta AI – kann zu Datenschutzverletzungen und damit zu Bußgeldern oder Schadensersatzansprüchen führen. Dies gilt insbesondere dann, wenn personenbezogene Daten ohne ausreichende Rechtsgrundlage weitergegeben werden.


Zudem besteht ein Risiko für die Vertraulichkeit und Integrität betrieblicher Informationen. Die Nutzung von KI-gestützten Funktionen ohne Kontrolle über die Datenverarbeitung lässt sich kaum mit einem verantwortungsvollen Umgang mit unternehmensbezogenen Daten vereinbaren. Auch dies begründet u. a. Schadensersatzansprüche.

Fazit

Die Nutzung von Meta AI in WhatsApp im unternehmerischen Kontext stellt aus datenschutzrechtlicher Sicht ein erhebliches Risiko dar – insbesondere für Unternehmen, die den Messenger in der internen oder externen Kommunikation einsetzen.


Unsere Empfehlungen:

  • Passen Sie bestehende Richtlinien zur Nutzung von Messenger-Diensten im Unternehmen an. Die Verwendung sollte, wenn überhaupt, nur mit anonymisierten Daten erfolgen.
  • Klären Sie Mitarbeitende über die Funktionsweise und Risiken von KI, insbesondere von Meta AI auf, um Ihre Unternehmensinformationen zu schützen.
  • Evaluieren Sie alternative Kommunikationslösungen, die eine datenschutzkonforme Nutzung gewährleisten.

Downloads

Diese Seite teilen

Ähnliche Beiträge

Das Jahr 2025 bringt für Unternehmen eine Vielzahl an regulatorischen Änderungen und damit einhergehenden Pflichten. Im nachfolgenden Überblick haben wir Ihnen die wichtigsten Neuerungen für Ihr Unternehmen zusammengestellt, damit Sie...
Kontakt
Mandanten-Login