Die beiden Informatik-Studenten an der Harvard Universität haben aufgezeigt, wie gefährlich Technologien zur Gesichtserkennung sein können. Mit einer Smart-Brille von Meta – dem Mutterkonzern von Facebook und Instagram – und Ray Ban gelang es ihnen, persönliche Daten von Personen einzusehen.
Sicherheitslücke bei Meta-Brille: Was ist passiert?
- Die Studenten Anh Phu Nguyen und Caine Ardayfio kombinierten die Brille mit einer Software, die Gesichtserkennung und künstliche Intelligenz (KI) nutzt. Das Projekt nennen sie I-XRAY.
- Sie liefen mit der Brille durch die Stadt und über den Campus. Die Smart-Brille streamte dabei die Inhalte in Echtzeit auf Instagram, während die Software Gesichter scannte und nach Daten suchte.
- Die Studenten konnten so innerhalb von Sekunden in ihrer selbst programmierten App die persönlichen Daten der Personen abrufen. Dazu gehörten unter anderem Job, Hobbies, Vereinsmitgliedschaften, Familienangehörige, Telefonnummern, Adressen und sogar Sozialversicherungsnummern.
- Nguyen und Ardayfio ließen die Daten anschließend von den Betroffenen auf ihre Echtheit checken – häufig mit Erfolg.
Hier könnt ihr euch anschauen, wie I-XRAY funktioniert:
Studenten machen auf Datenschutzprobleme bei Meta-Brille aufmerksam
Die Studenten sagen, sie wollen mit ihrem Projekt auf die Gefahren, die von großen Sprachmodellen und Gesichtserkennung ausgehen können, hinweisen. Die Technologien könnten große Mengen an persönlichen Daten sammeln – ganz automatisch und ohne das Wissen der Betroffenen.
Das Ganze sei übrigens nicht nur mit der Smart-Brille von Meta möglich, so die Harvard-Studenten. Eine ganz normale Handykamera in Verbindung mit der Technologie reiche dafür aus – wäre allerdings weniger unauffällig.
Kinderfotos auf Instagram – was ist erlaubt?
Meta-Brille war schon vorher umstritten
Die Smart-Brille von Meta und Ray Ban besitzt eine LED-Leuchte, die anzeigen soll, wenn sie filmt. Damit soll Transparenz für die gefilmten Personen geschaffen werden. Meta weist in den Richtlinien auch darauf hin, dass die Nutzer die Privatsphäre anderer Personen respektieren sollen. Kritiker sagen, dass die LED-Leuchte – vor allem bei hellem Tageslicht – teilweise kaum zu sehen ist.
Projekt muss pausieren Deine Fotos als Training für die KI von Meta? Erst einmal nicht!
Meta wollte seine KI mit Fotos trainieren – und zwar auch mit deinen! Wer seine Daten schützen wollte, hätte den Plänen widersprechen müssen. Aber: Jetzt wird das Projekt pausiert.