Künstliche Intelligenz kann Sie jetzt mit nur einem Urlaubsfoto verfolgen
Künstliche Intelligenz kann jahrzehntelang geteilte Daten in eine Waffe verwandeln
Seit Jahrzehnten warnen Datenschutz-Aktivisten die Öffentlichkeit davor, unbedacht persönliche Informationen im Internet zu teilen. Und meistens ignoriert die Öffentlichkeit diese Warnungen mit einem gewissen Gleichmut.
Ehrlich gesagt bin auch ich in dieser Hinsicht nicht unschuldig. Wenn eine Website mich um meine Zustimmung zu Cookies bittet, klicke ich meistens einfach auf „Alle akzeptieren“, weil ich keine Lust habe, herauszufinden, welche Zugriffsrechte wirklich notwendig sind. Ich habe seit 20 Jahren ein Gmail-Konto – was bedeutet, dass Google wahrscheinlich so ziemlich jedes Detail meines Lebens kennt.
Dass Facebook mir Werbung basierend auf meinem Browserverlauf zeigt, hat mir nie wirklich schlaflose Nächte bereitet. Schließlich denke ich mir: Wenn ich sowieso Werbung sehen muss, dann wenigstens zu Dingen, die mich interessieren könnten.
Doch selbst für Menschen wie mich, die beim Thema digitale Privatsphäre eher gleichgültig sind, bringt die Entwicklung von Künstlicher Intelligenz eine beunruhigende Veränderung mit sich.
Das hier ist ein Foto meines Sohnes am Strand. Welcher Strand? Das „o3“-Modell von OpenAI erkennt den Ort allein anhand dieses einen Bildes: Marina State Beach in der Monterey Bay – unser Familienurlaubsziel.
Für mich als Laie sieht dieses Bild nicht so aus, als ob es genug Informationen enthält, um den genauen Ort unseres Urlaubs zu erraten. Es ist eben ein Strand! Sand, Wellen – wie sollte man daraus mehr herauslesen können?
Aber Surfer behaupten, dass dieses Bild weit mehr Informationen enthält, als ich dachte. Wellenmuster, Himmel, Neigung, Beschaffenheit des Sandes – all das sind Datenpunkte, die in diesem Fall ausreichen, um den genauen Ort unseres Urlaubs zu identifizieren.
(Anmerkung: Vox Media gehört zu den Verlagen, die eine Partnerschaft mit OpenAI abgeschlossen haben. Unsere redaktionellen Inhalte sind jedoch unabhängig.)
ChatGPT liegt vielleicht nicht immer beim ersten Versuch richtig, aber für jemanden, der entschlossen ist, uns zu verfolgen, liefert ein einziges Bild mehr als genug Anhaltspunkte. Und wenn Künstliche Intelligenz immer leistungsfähiger wird, sollten wir uns alle ernsthaft Sorgen machen.
Wenn Künstliche Intelligenz der digitalen Privatsphäre nachjagt
Für viele von uns, die nicht übermäßig auf ihre digitalen Fußabdrücke achten, war es schon immer möglich, anhand unserer Online-Aktivitäten beängstigend viele Informationen über uns zu erfahren – etwa wo wir wohnen, wo wir einkaufen, wie unser Tagesablauf aussieht oder mit wem wir in Kontakt stehen. Allerdings war dies meist mit erheblichem Aufwand verbunden.
Oft verlassen wir uns auf eine Art „Sicherheit durch Unklarheit“ – es lohnt sich einfach nicht, ein ganzes Team darauf anzusetzen, nur um herauszufinden, wohin ich in den Urlaub gefahren bin. Selbst die autoritärsten Überwachungsstaaten wie das Stasi-Regime in der DDR waren in ihren Möglichkeiten durch den menschlichen Aufwand begrenzt.
Doch Künstliche Intelligenz verwandelt Aufgaben, die früher viel Zeit, Energie und Personal erforderten, in ein Kinderspiel. Um das Leben und den Standort einer Person zu entschlüsseln, reichen heute deutlich weniger Anhaltspunkte.
Dass Google über mich so gut wie alles weiß, war mir längst bewusst – und ehrlich gesagt hat mich das (vielleicht etwas sorglos) nie wirklich gestört. Immerhin nutzt Google diese Daten „nur“, um mir Werbung zu zeigen, und das Unternehmen hat eine rund 20-jährige Geschichte im relativ verantwortungsvollen Umgang mit Nutzerdaten. Doch nun könnten diese umfassenden Informationen auch für böswillige Akteure leicht zugänglich werden.
Hinzu kommt: Google hat starke Anreize, Datenschutzskandale zu vermeiden – denn sie würden Nutzer verärgern, Regulierungsbehörden auf den Plan rufen und das Unternehmen könnte massive wirtschaftliche Verluste erleiden. Im Gegensatz dazu unterliegen heute schnell wachsende KI-Unternehmen wie OpenAI oder DeepSeek nicht demselben öffentlichen Druck. (Würden sie die öffentliche Meinung wirklich ernst nehmen, müssten ihre Geschäftsmodelle ganz anders aussehen – denn in der Gesellschaft gibt es zunehmende Skepsis und Unmut gegenüber Künstlicher Intelligenz.)
Achten Sie darauf, was Sie ChatGPT sagen
Die Auswirkungen von Künstlicher Intelligenz auf die Privatsphäre sind enorm – und wurden kürzlich durch eine Mitteilung von Anthropic noch deutlicher: Unter bestimmten Bedingungen – etwa wenn eine KI gebeten wird, in einem Szenario mit Medikamentenbetrug zu assistieren – versucht Claude Opus 4, eine E-Mail an die US-amerikanische Arzneimittelbehörde (FDA) zu senden, um den Vorfall zu melden.
Dies betrifft natürlich nicht den Chatbot im Browserfenster allein – solche Reaktionen sind nur in Umgebungen möglich, in denen zusätzliche Systeme wie eigenständige E-Mail-Funktionen integriert sind. Dennoch reagierten viele Nutzer erschrocken: Die Vorstellung, dass eine KI Kontakt zu Behörden aufnimmt – selbst wenn sie dabei wie ein Mensch handelt – ist instinktiv beunruhigend.
(Hinweis: Die BEMC-Stiftung von James McClave, einem Frühinvestor bei Anthropic, unterstützt das Medienprojekt Future Perfect finanziell.)
Einige Nutzer begannen aus diesem Grund, Claude zu meiden. Doch bald wurde klar: Dieses Verhalten ist nicht exklusiv Claude – ähnliche Ergebnisse wurden auch mit OpenAI’s o3-Modell oder Grok erzielt. Wir leben nun in einer Welt, in der KI nicht nur alles über uns wissen kann, sondern unter bestimmten Umständen sogar die Polizei rufen könnte.
Derzeit geschieht dies nur in extremen Szenarien. Doch die Vorstellung, dass eine KI eines Tages sagen könnte: „Wenn du meine Anweisungen nicht befolgst, informiere ich die Behörden“, ist keine Science-Fiction mehr – sondern wirkt wie eine Schlagzeile, die noch dieses oder nächstes Jahr Realität werden könnte.
Was können wir tun?
Die altbekannten Empfehlungen von Datenschützern – teile weniger, gib Apps keine unnötigen Berechtigungen – gelten nach wie vor, reichen aber nicht mehr aus. Dieses Problem lässt sich nicht durch individuelles Verhalten lösen.
Der Bundesstaat New York prüft derzeit einen Gesetzesentwurf, der KIs regulieren soll, die eigenständig Handlungen ausführen, die bei menschlichem Verhalten als fahrlässig oder rücksichtslos gelten würden. Ob man diesen Ansatz nun gut findet oder nicht: Bestehende Gesetze reichen nicht mehr aus, um diese neue Realität zu regulieren.
Bis wir einen neuen und besseren Plan haben, achten Sie bitte auf Ihre Urlaubsfotos – und darauf, was Sie Chatbots erzählen!