KI-Tools versprechen revolutionäre Hilfen im Alltag. Doch hinter den smarten Antworten steckt ein riesiges Datensammelproblem: Immer wieder fliegen Leaks, Bugs und Sicherheitslücken auf, die Nutzerdaten preisgeben. Die Anbieter betonen zwar „höchste Sicherheitsstandards“, die Realität zeigt etwas anderes.

OpenAI (ChatGPT): Der erste große Skandal ereignete sich im März 23. Ein Bug sorgte dafür, dass einige Nutzer die Chattitel und die erste Nachricht anderer Nutzer sehen konnten. Bei ChatGPT-Plus-Nutzern wurden zudem Zahlungsdaten sichtbar. Betroffen waren etwa 1,2% der Plusnutzer in einem neunstündigen Zeitfenster.
Noch brisanter: Im April 23 drang ein Hacker in ein internes Mitarbeiterforum ein und stahl Details zur Designarchitektur der KItechnologien sowie interne Gespräche. OpenAI hielt den Vorfall zurück, bis die New York Times dies im Juli 24 enthüllte.
Im November 25 folgte der nächste Treffer.. Hacker verschafften sich Zugriff auf Systeme von Mixpanel und exportierten Datensätze mit IDs und privaten Daten. Betroffen waren API- & ChatGPTnutzer, die Support-Tickets einreichten oder auf der Plattform angemeldet waren. OpenAI entfernte Mixpanel aus der Produktion und benachrichtigte betroffene per E-Mail.
Zusätzlich kursierte im Februar 25 ein Hackerangebot auf dem Darknet: 20 Millionen OpenAI-Login-Daten zum Verkauf. OpenAI äußerte sich dazu nicht öffentlich.
Google Gemini: Prompt-Injection und Browser-Hijacking
Google Gemini hatte bislang keine klassischen Massendatenlecks wie OpenAI, dafür aber kritische Schwachstellen, die private Daten direkt ausspionieren können.Im Januar 2026 entdeckten Forscher von Miggo Security eine Prompt-Injection über Googlekalender. Ein Angreifer schickt eine harmlos aussehende Kalendereinladung mit verstecktem Payload in der Beschreibung. Fragte man Gemini nach seinen Terminen, (z. B. „Bin ich Samstag frei?“), fasst das KI-Modell private Meetings zusammen und schreibt diese in eine neue Kalendereinladung, sichtbar für den Angreifer. So können Titel, Zeiten, Teilnehmer und Inhalte privater Meetings exfiltriert werden, ohne dass der Nutzer etwas merkte.
Noch schwerwiegender: Eine Schwachstelle im Gemini-AI-Panel in Google Chrome. Malicious Browsererweiterung mit nur grundlegenden Rechten konnten das Panel übernehmen, um Kamera und Mikrofon ohne Einwilligung zu aktivieren, Screenshots zu machen oder lokale Dateien und Verzeichnisse auszulesen. Die Lücke wurde am 23. Oktober 25 an Google gemeldet und erst Monate später, Mitte Januar 26 behoben.
Microsoft Copilot: Vertrauliche E-Mails trotz „Schutzmechanismen“
Bei Microsoft Copilot kam es im Februar 26 zu einem gravierenden Bug. Seit Ende Januar 26 fasste Copilot Chat vertrauliche E-Mails aus den Ordnern „Gesendet“ und „Entwürfe“ zusammen, obwohl diese mit Sensitivitylabels versehen und durch Data-Loss-Prevention-(DLP)-Richtlinien geschützt waren. Microsoft sprach von einem „Code-Fehler“.
Zusätzlich existieren Angriffe wie „EchoLeak“ (Juni 25) und „Reprompt“ (Januar 26), bei denen Angreifer über manipulierte E-Mails oder URL-Parameter sensible Daten aus dem Copilot-Kontext exfiltrieren konnten, ohne dass der Nutzer interagieren musste.
Fazit: KI als Datensammler und Risikomagnet
Diese Vorfälle zeigen klar: Die großen KI-Anbieter sammeln enorme Mengen sensibler Daten (Chats, Kalender, E-Mails, Zahlungsinfo, Standorte), können diese aber nicht schützen. Das macht Nutzer angreifbar, für Phishing, Identitätsdiebstahl oder Profilbildung. OpenAI, Google und Microsoft versprechen Transparenz und höchste Standards, doch die Praxis spricht eine andere Sprache. Kostenlose oder günstige KI-Nutzung hat ihren Preis: deine Privatsphäre.Die Liste der Vorfälle ist nicht vollständig. Die Recherche zeigt jedoch: Das Risiko wächst mit jeder neuen Funktion.
Was macht Cloud-KI mit deinen Daten? Wir haben berichtet:
Cloud-KI: Der unsichtbare Lauschposten in deiner Tasche


