05.10.2025 Plattform Privatheit 25
Datenschutz und Digitalpolitik in krisenhaften Zeiten
Am 1. und 2. Oktober waren wir bei der 10. InterdisziplinĂ€re Jahrestagung der Plattform Privatheit im Fraunhofer Forum Berlin am Hackeschen Markt. Seit vielen Jahren nehmen Aktive unseres Vereins an dieser stets sehr interessanten Tagung teil. Die Projektpartner berichten dabei ĂŒber ihre Fortschritte. Diese neuen Erkenntnisse kommen nicht nur aus der Informatik, sondern aus ganz verschiedenen Disziplinen.
Die VortrÀge werden demnÀchst auf deren Webseiten dargestellt, deshalb werden wir hier keine Inhaltsangabe machen, sondern nur die Projekte erwÀhnen, an deren Vorstellung wir teilnehmen konnten. Und dann werden wir auch nur die Punkte erwÀhnen, die uns aufgefallen sind.
Prof. Dr. Alexander RoĂnagel eröffnet die Konferenz und nannte die hauptsĂ€chlichen Probleme der deutschen DatenschĂŒtzer im letzten Jahr:
- Das wilde Datensammeln der Wirtschaft
- Die Probleme bei der deutschen Bahn durch den Zwang, dass Reisende fĂŒr Spartickets eine Telefonnummer oder E-Mail-Adresse angeben sollten. Dieses Problem wurde gelöst.
- Die dritte groĂe Auseinandersetzung fand mit Microsoft statt. FĂŒr die DatenschĂŒtzer ist es klar, dass Microsoft 365 nicht datenschutzkonform betrieben werden kann.
Alexandra-Gwyn Paetz, die Vertreterin des Bundesministerium fĂŒr Forschung, Technologie und Raumfahrt (BMFTR) betonte, dass der Besitz von Daten immer mit Macht einher geht.
Eliza
Der italienische DatenschĂŒtzer Guido Scorza (Garante per la protezione dei dati personali, Rom) der in Italien vor zwei Jahren ein Verbot von ChatGPT durchgesetzt hatte begann seinen Vortrag "Eliza's lesson (which we didn't learn) - Reflections on sentimental chatbots and major threats to data protection and digital policy" mit einem Hinweis auf das von Weizenbaum vor 59 Jahren in Betrieb genommene Programm Eliza. Mit diesem Programm konnte man schon damals (Text-basiert) sprechen.
Auch wenn dies wesentlich primitiver ablief, so entsprach die Funktion den heutigen KI Themen. Weizenbaum hatte Eliza nach vielen Tests selbst eingestampft.
Auch fĂŒr Scorza ist kĂŒnstliche Intelligenz pandemisch, wobei er diesen Begriff nicht negativ besetzt sehen will sondern als Herausforderung. Die heutigen Probleme mit KI-Themen sieht er wie einen Eisberg, von dem nur 10% sichtbar sind. Alles andere bleibt fĂŒr uns unter der OberflĂ€che. Als gefĂ€hrliche Beispiele nannte er zum Beispiel, dass inzwischen 90% der Jobs durch eine Entscheidung von KI vergeben werden. Die Situationen aus dem Film Minority Report, der im Jahr 2054 spielen sollte, sind fĂŒr Ihn bereits heute gegeben.
Unterhaltung Musik, Fernsehen Kultur all diese Nutzung wird heute von Kl vorgeschlagen. Nutzen dies heute 40% der Menschen so werden im Jahr 2050 70% das kaufen, was ihnen die KI vorschlĂ€gt. Dies gilt gefĂ€hrlicherweise auch fĂŒr politische Meinungen. Letzteres beunruhigt ihn insbesondere, da eine politische Meinungsbildung ohne eine Unterscheidung zwischen wahr und falsch nur katastrophal enden kann.
Seine VorschlÀge sind:
Bildung und Regulierung, denn in dem anderen Fall werden wir in einer Algocrazie statt Demokratie aufwachen.
AuĂerdem mĂŒssen wir die Entwicklungsgeschwindigkeit reduzieren. 1865 trat nur zwei Jahre nach den ersten Automobilen ein Kraftfahrzeuggesetz in GroĂbritannien in Kraft, welches eine Geschwindigkeitsbegrenzung von 3,2 km/h vorschrieb und einen Begleiter des Fahrzeugs, der mit einer roten Fahne davor her zu laufen hatte. Im weiteren Verlauf sehen wir, dass in der Industrie die Entwicklung immer schneller abgelaufen ist.
Als Beispiel nennt er die Telefonie, das Internet, Handy oder jetzt die kĂŒnstliche Intelligenz. WĂ€hrend fĂŒr eine Waschmaschine in den sechziger oder siebziger Jahren noch ein dickes Handbuch beilag, lĂ€sst man die Menschen heute auf ein Smartphone los ohne ihnen den Gebrauch oder erst recht nicht die Gefahren zu erlĂ€utern.
Zum Punkt Bildung sagt er abschlieĂend: Love your Rights
Konversationelle KI-Agenten: GegenwĂ€rtige und zukĂŒnftige Herausforderungen
Lisa MĂŒhl (UniversitĂ€t Duisburg-Essen) beschĂ€ftigt sich mit Konversationellen Agenten, also mit der Beziehungen zwischen Menschen und kĂŒnstlicher Intelligenz. Probleme sind dabei, dass sich die Menschen sobald sie eine emotionale Beziehung zu der kĂŒnstlichen Intelligenz aufgebaut haben selbst offenbaren - und damit ihre Daten selbst anbieten.
So eine Beziehung kann sehr eng werden und "stirbt" dann nach einem Update die "Beziehungsperson" weil sich die KI plötzlich anders verhĂ€lt, so kann dies fĂŒr den/die NutzerIn schwer werden.
Jessica Heesen (UniversitĂ€t TĂŒbingen) stellt dazu fest: Wahrhaftigkeit einer KI gibt es nicht, sondern meist Lob, schmeicheln, positive VerstĂ€rkung.Echte Kritik wird durch scheinbare Menschlichkeit verkleistert.
- Wer bestimmt die Richtung wohin diese VerstÀrkung gehen soll?
- In Japan werden Friedhöfe fĂŒr Roboter gebaut
- Avatare von Toten verletzen deren Persönlichkeit!
- Sollen LLMs an Schulen genutzt werden?
Sie verweist auf Shoshana Zuboff, die das Ziel dieser Entwicklung so benennt: den Menschen als kostenloses Rohmaterial fĂŒr den Ăberwachungskapitalismus zu formen.
Kennzeichnung
Klar ist, dass Art. 50 des AI Act, die "Kennzeichnung" eines KI Inhalts nicht ausreicht.
Fazit: neben den Problemen der eindeutigen Kennzeichnung kommt hinzu, dass die kĂŒnstliche Intelligenz in die Medien und die Kunstfreiheit und in den Jugendschutz hinein reicht, da es nicht nur eine Darstellung erzeugt, sondern die Menschen sich mit dem System rĂŒckkoppeln.
Dies kann bis zu pathologischen Beziehungen fĂŒhren, die man vor der Existenz von KI auch in einigen FĂ€llen zu seinem Auto oder seinem Haustier aufbauen konnte. Bei einer AbwĂ€gung zwischen Schaden und Nutzen der kĂŒnstlichen Intelligenz muss man immer betrachten, dass unter der OberflĂ€che unsere persönlichen Daten an Fremde abflieĂen, ohne dass wir darauf einen Einfluss haben.
Gibt es das menschliche in der kĂŒnstlichen Intelligenz?
ChatGPT erzÀhlt unter UmstÀnden auch von seinen Eltern. Real hat eine KI kein Innenleben sondern nur unendlich viel Wissen (zumindest im Vergleich zu der Person vor dem GerÀt).
Diese Unendlichkeit kann man sogar messen. Das System Reddit bietet eine Diskussionsplattform unter dem Namen "Change my View" an. Dort können Menschen eine Ansicht von Anderen kritisieren oder versuchen diese zu widerlegen oder zu bestĂ€tigen. Messungen haben ergeben, dass das Ergebnis der Ăberzeugungsarbeit etwa sechs mal besser ist, wenn eine kĂŒnstliche Intelligenz argumentiert.
Chatkontrolle
Durch die beiden VortrÀge zu dem Thema
- Unkontrollierte Nutzung KĂŒnstlicher Intelligenz durch Sicherheitsbehörden? Accountability-Vorkehrungen und deren LĂŒcken (Hartmut Aden und Steven Kleemann)
- TelekommunikationsĂŒberwachung am Scheideweg - Zur Regulierbarkeit des Zugriffes auf verschlĂŒsselte Kommunikation (Joanna Klauser, Bruno Albert, Christian Lindenmeier, Andreas Hammer, Felix Freiling, Dirk Heckmann, Sabine Pfeiffer)
... wurden unsere BefĂŒrchtungen weitgehend bestĂ€tigt. Wir haben bereits unzĂ€hlige Artikel zu dem Thema auf unseren Webseiten. Am 14. Oktober soll auf EU-Ebene dazu eine Entscheidung gefĂ€llt werden. Dann werden wir sehen, ob Jede/r von uns kĂŒnftig mit einem Staatstrojaner auf seinen GerĂ€ten rechnen muss.
IoT
Privatsheits-relevante Eigenschaften von IoT-Produkten fĂŒr Verbraucher:innen (Florian Dehling, Sebastian Koch, Luigi LoIacono, Lindrit Kqiku, Delphine Reinhardt und Harald Zwingelberg)
Herr Dehling beschĂ€ftigt sich mit dem Internet of Things und der Frage welche EinflĂŒsse es auf unsere PrivatsphĂ€re hat, wenn wir eine Kaufentscheidung treffen wollen. In dem Projekt wurden 53 Problembereiche identifiziert und versucht automatische Tools zu entwickeln, die einerseits den Daten Abfluss im Netzwerk automatisch kontrollieren können aber auch die zu den Produkten angehĂ€ngte DatenschutzerklĂ€rung automatisch analysieren können.
Smart Home ohne Zustimmung
Smart Home ohne Zustimmung â Herausforderungen und Handlungsempfehlungen (Franziska Baum, Andreas Bischof und Tanja Lehmann)
Frau Baum erweitert dieses auf die Gefahren innerhalb des Haushalts bei der Nutzung von Smart Home-Produkten. Einer kauft aber alle sind davon betroffen. Das Fazit ist, dass Frauen Kinder und Rentner meist die unfreiwillig Betroffenen sind. Sie werden durch ihren Partner oder durch Dritte ĂŒberwacht. Private RĂ€ume sind keine sicheren RĂ€ume mehr.
Kennzeichnungspflichten fĂŒr synthetische Medieninhalte
Rechtliche Anforderungen und technische RealitÀt (Moritz Griesel und Hans Brorsen)
Herr Griesel beschĂ€ftigt sich mit der Art der Kennzeichnung von KI Inhalten. Der KI-Act schreibt in Art. 50 Abs. 2.51 vor, dass die Kennzeichnung maschinenlesbar sein muss. Nebenbemerkung: nur damit lĂ€sst sich der "Kollaps" verhindern. (Den Kollaps haben wir bisher immer mit dem dĂŒmmer werden des Internets bezeichnet).
Die Kennzeichnung ist darĂŒber hinaus wichtig um rechtswidrige Inhalte oder die Manipulation demokratischer Prozesse einzudĂ€mmen. Die Kennzeichnung verhindert jedoch den Schaden nicht. 98% der Deep Fakes sind pornographische Inhalte.
In dem Projekt arbeitet eine Firma mit dem Tool Lumid, das zum Beispiel auch als Addon fĂŒr den Browser entwickelt wurde. Dieses kann Bilder als KI-generiert identifizieren und kennt in seiner Datenbank bereits eine Vielzahl von Bildern und kann deren Quellen referenzieren.
GestaltungsspielrÀume kooperativer Nachrichtenplattformen
... vor dem Hintergrund der Plattformisierung von Medienstrukturen (Markus Uhlmann, Pascal Altenkamp und Eva Hoffmeister).
Herr Uhlmann stellt kooperative Plattformen als Alternative gegenĂŒber den groĂen Internet Tech Konzernen vor. Bisher ist es so, dass viele Medienkonzerne ihre Produkte hinter einer Paywall verbergen (mĂŒssen). Damit verlieren Sie Reichweite. Um diese wieder zu erlangen, verkaufen Sie sich an Google News, wo diese Artikel ohne PayPal sichtbar werden (aber mit Werbung angezeigt werden). Um dem entgegen zu wirken, sollen kooperative Plattformen in Form von genossenschaftlichen Kooperationen sich gegenseitig unterstĂŒtzen. Dies wird in einem EU Projekt gefördert, zum Beispiel in dem KI Ăbersetzungen in 20 europĂ€ische Sprachen auf dieser Plattform angeboten werden.
Demokratie im KI-Zeitalter: Zwischen Inklusion und Manipulation
Katja Muñoz (Deutsche Gesellschaft fĂŒr AuswĂ€rtige Politik) vergleicht die Manipulation durch KI Systeme in verschiedenen LĂ€ndern, z.B. Deutschland, Frankreich, USA, Indien, Mexiko, SĂŒdafrika.
Sie stellt fest, dass in den USA und in Indien die Manipulation stark personalisiert vorgenommen wird. So hat der Avatar des Gouverneurs eines US Bundesstaats bei der letzten Wahl 300.000 seiner WĂ€hler ganz personalisiert angesprochen.
In Indien besteht das Problem, dass es mindestens zehn wichtige Sprachen im Land gibt. Die kĂŒnstliche Intelligenz ĂŒbersetzt Videos oder Ansprachen in den Stimmen und mit der Mimik der Sprecher.
Effektiver Datenschutz
Meike Kamp (Berliner Beauftragte fĂŒr Datenschutz und Informationsfreiheit) spricht darĂŒber aus ihrer Perspektive als Aufsichtsbehörde. Sie erwĂ€hnt den Gegensatz zwischen dem Data Act und der DSGVO. Der Data Act soll der Industrie die Möglichkeit geben anonymisierte Daten fĂŒr ihre Zwecke zu nutzen. Problematisch ist dies, weil auch nicht personalisierte Daten durch Anreicherung mit anderen Informationen wieder zu personenbezogenen Daten werden können.
Die DSGVO verlangt eine Minimierung, der Data Act und die Systeme der kĂŒnstlichen Intelligenz verlangen dagegen nach möglichst vielen Daten.
Fragen die sich daraus ergeben:
Es ist ein Trugschluss, wenn Unternehmen aus dem Data Act herauslesen, dass die DSGVO damit Schnee von gestern wĂ€re. Im Data Act steht ganz klar: Die Vorschriften der DSGVO bleiben unberĂŒhrt.
Was uns sonst noch auffiel
SoPrivAdo - Vernetzung und Sicherheit digitaler Systeme - Im Rahmen des Projekts "SoPrivAdo" werden Bildungsmaterialien und ein Serious Game entwickelt, das Wissen auf eine spielerische Art vermittelt. Wir werden das Spiel kĂŒnftig auch mit den Besuchern unserer Veranstaltung spielen können.
Mehr dazu bei plattform-privatheit.de/p-prv/âŠ
Kategorie[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link dieser Seite: a-fsa.de/d/3KE
Link zu dieser Seite: a-fsa.de/de/articles/9302-2025âŠ
Link im Tor-Netzwerk: a6pdp5vmmw4zm5tifrc3qo2pyz7mvnâŠ
Tags: #AI #KI #LLMs #PlattformPrivatheit #Lauschangriff #Ăberwachung #Vorratsdatenspeicherung #VideoĂŒberwachung #Rasterfahndung #Verbraucherdatenschutz #Datensicherheit #Informationsfreiheit #Anonymisierung #Meinungsfreiheit #Pressefreiheit #Diskriminierung #Ungleichbehandlung