Ich weiß noch genau, als ich zum ersten Mal auf der Seite von „This person does not exist“ war. Eine Webseite, die pausenlos Fotos von Menschen generiert, die in echt nicht existieren.
Wie bitte, wird der ein oder andere jetzt fragen? Ja, richtig gelesen. Im Internet entstehen in endloser Abfolge Gesichtsbilder von Menschen, künstlich generiert durch ein spezielles KI-Verfahren, das Experten GAN nennen. Als ich vor eineinhalb Jahren die Seite besucht habe, gingen mir zwei Sachen durch den Kopf.
Erstens: WTF! Das ist ja krass. Das denke ich übrigens immer noch. Ich weiß zwar mittlerweile, wie so ein GAN funktioniert. GAN steht für „Generative Adversial Network“. Das Grundprinzip basiert darauf, dass zwei unterschiedliche neuronale Netze sich sozusagen gegenseitig herausfordern. Das eine generiert laufend zufällig neue Bilder (deswegen „generative“), die ein menschliches Gesicht zeigen. Es wurde dafür mit Trainingsdaten angelernt. Das zweite neuronale Netz hat die Aufgabe festzustellen, wie nahe dran – also wie gut – das erste Network mit den künstlich generierten Bildern an echten Bildern war. Es ist eine Art Kontrollinstanz.
In den ersten Monaten waren die KI-Gesichter schon ganz gut, aber man konnte hier und da Fehler entdecken. Mittlerweile sind die Gesichter mehr oder weniger perfekt. Wie echt halt.
Das bringt mich zum zweiten Gedanken, der mir durch den Kopf ging bei meiner Premiere auf der Seite. Nämlich: Mag sein, dass es diese Menschen nicht gibt, aber mir kommt der ein oder andere bekannt vor. Ob dieses Gesicht nicht doch irgendwo auf der Welt existiert? Ich mein, irgendwo! Es gibt an die 8 Milliarden Menschen auf unseren Planeten.
Jetzt kam eine Studie heraus, die behauptet: Vielleicht sind die Bilder von Algorithmen wie bei „This person does not exist“ garnicht so einmalig. Forscher haben gezeigt, dass viele von GANs erzeugte Bilder doch sehr, sehr ähnlich mir real existierenden Personen sind. Und zwar mit den Bildern, mit denen das GAN ursprünglich trainiert wurde. Es gelang ihnen sogar zu zeigen, welches künstlich erzeugte Bild zu welchem Bild aus dem Trainingssatz passt.
Na und, wird man sich jetzt fragen? Ist doch egal!
Nein, ist es nicht. Bei künstlich erzeugten Bildern mag das harmlos sein. Aber es geht bei dieser Studie um viel mehr. Und zwar, dass man offenbar grundsätzlich aus mittels KI erzeugten Daten Rückschlüsse ziehen kann auf die Original-Daten. Das haben Experten bisher ausgeschlossen.
Nun weiß man es besser. Wenn es sich dabei um vertrauliche Daten handelt – zum Beispiel medizinische oder biometrische Daten – wird das ziemlich schnell zu einem großen Problem. Zu einem Datenschutz-Problem, um genau zu sein.
An einer Lösung arbeiten Datenwissenschaftler bereits. Dazu demnächst mehr. Am Ende bleibt die Erkenntnis: Die Welt der künstlichen Intelligenz hält noch viele Überraschungen für uns bereit. Sowohl gute als auch problematische.
Philippe Ramakers/Freeimages