Deepfake-Videos sind auf dem Vormarsch: Bald schon können Sie Ihren Augen nicht mehr trauen. Ein russischer Telegram-Bot trifft nun mit Deepnudes unter die Gürtellinie – im einen Moment noch angezogen, ist man auf einmal nackt. Was nach perverser Spielerei klingt, hat für die Opfer und uns alle schwere Folgen. Die Hüllen fallen lassen Unglaublich: Barack Obama beschimpft Donald Trump als „total and complete dipshit“. Nicht zu fassen, oder? Kein Wunder – das Video ist fake. Genauer gesagt Deepfake, durch künstliche Intelligenz geschaffen. Wie die Cybersicherheitsfirma Sensity AI aufgedeckt hat, geht ein russischer Entwickler nun einen Schritt weiter: Er verbreitet einen Bot auf der Messaging-Plattform Telegram, durch welchen Nutzer mittels KI Nacktbilder erstellen lassen können. Dabei schickt der User ein Foto seines Opfers an den Bot. Schwupps, innerhalb von Minuten erhält er das Foto zurück – den Kopf ziert nun der Körper einer Pornodarstellerin. Derart zum Teil realistisch aussehende Bilder entstanden auf Telegram bereits mindestens 100.000 Mal bis Juli 2020, die Dunkelziffer dahinter dürfte exorbitant sein. Um sein Angebot zu bewerben, griff der Betreiber auf das russische soziale Netzwerk VK zurück. Mit Erfolg: Über zwei Drittel der Nutzer des Bots stammen aus Russland oder den angrenzenden Staaten, rund zwei Prozent zusammengenommen aus Frankreich, Deutschland und Italien. Der Bot ist wohl auf eine App namens DeepNude zurückzuführen. Diese App ging kurz nach der Veröffentlichung eines den Deepnude-Skandal aufdeckenden Vice-Artikels offline – der Code jedoch wurde mittels reverse engineering wiederhergestellt. Wer mit Nacktbildern Kohle machen will, dem ist kein Aufwand zu groß. Deepfakes, Deepnudes und die dunkle Seite der KI Mit stillen Wassern haben Deepfakes nichts zu tun. Deepfakes sind Bilder und Videos, die mittels künstlicher Intelligenz, guten Grafikkarten und schnellen Rechnern erstellt wurden. Der Begriff ist eine Zusammensetzung von „Deep Learning“ und „Fake“ – die KI lernt, menschliche Gesichter auszuwechseln, Personen Dinge sagen zu lassen, die sie nie geäußert haben. Deepnudes dagegen zielen auf die Intimsphäre ab: Dabei verschafft die künstliche Intelligenz uns nicht nur neue, sondern auch nackte Körper. Seit Ende 2017 gibt es Deepfake-Technologie. Während man damals noch hunderte oder sogar tausende Bilder einer Person und tagelangen Aufwand benötigte, reichen mittlerweile eine Handvoll Bilder sowie ein paar Stunden aus, um täuschend echtes Material herzustellen. Die Technik entwickelt sich rasant. Bald schon dürfte es kinderleicht sein, Fake-Videos herzustellen. Wem kann man dann noch trauen? Der IT-Forensiker Prof. Dr. Martin Steinebach vom Fraunhofer Institut kommt zu folgender Erkenntnis: "Das Einzige was man halt wirklich machen kann, ist weggehen von diesem: Von irgendwoher kommt ein Video, das glaube ich jetzt einfach mal." Trotz des Risikos, dass die Deepfakes zu Unruhen, Zerwürfnissen und Verschwörungstheorien führen könnten, bleibt er optimistisch: „Wenn’s so einfach wäre, die Welt ins Chaos zu stürzen oder Länder gegeneinander aufzuwiegeln, dann wäre das wahrscheinlich schon passiert.“ Nun, vielleicht ist es das bereits – wer weiß? Splitterfasernackte Fakten Künstliche Intelligenz klingt nach einer Mischung aus Alexa, Terminator und Chucky, die Mörderpuppe. Auf den ersten Blick verspricht KI Hightech, Zukunft sowie Komfort. Gräbt man tiefer, offenbaren sich datenschutzrechtliche Risiken, Abgründe und Missbrauchsmöglichkeiten. Der Datenschutz zieht blank Auch wenn es sich nicht um Ihren Körper handelt, der mit Ihrem Kopf auf Fotos verbunden wird, sind Sie datenschutzrechtlich Betroffener. Der nackte Leib ist äußerst sensibel – jeder unerwünschte Blick darauf ist ein Übergriff. Prof. Danielle Citron der University of Maryland Carey School of Law nennt dies “invasion of sexual privacy” und schildert folgende Gedanken eines Opfers: „As a deepfake victim said to me – it felt like thousands saw her naked, she felt her body wasn’t her own anymore.” Viele Opfer wissen überhaupt nicht, welche tickenden Zeitbomben da durch das Netz geistern. Das Opfer wird manchmal ohne Einwilligung – in völlig unverfänglichem Kontext – fotografiert. Häufig greifen die Täter auf frei verfügbare Fotos zurück. Die Betroffenen ahnen nichts. Einmal hochgeladen in den Bot, setzt sich die Welle in Gang: Die Telegramnutzer verbreiten das gefälschte Nacktfoto, es gibt kein Halten mehr. Selbst vor Minderjährigen schrecken die Täter nicht zurück. In 63 Prozent der Fälle trifft es Frauen aus dem Bekanntenkreis. Wer solche Freunde hat, braucht keine Feinde mehr. Entblößt und bloßgestellt Unerforschte Technologien in den falschen Händen führen stets zu Chaos und Verderben – siehe Skynet. Bei Veröffentlichung der Deepnudes landen die Opfer am Pranger. Dies hat schwere Folgen für ihre psychische Stabilität, ihr Sozialleben und ihre berufliche Existenz. Kurzes Experiment: Stellen Sie sich vor, ein gefälschtes Nacktbild von Ihnen erschiene unter ihrem Namen im Internet. Wer Sie googlet, findet das Foto innerhalb von Sekunden. Wie fühlen Sie sich dabei? Wer in Ihrem Umfeld könnte einen Blick darauf werfen? • Ihr Ehepartner wäre sicherlich nicht besonders begeistert davon. • Ihr Chef würde Sie möglicherweise schnell loswerden wollen. • Ihre politische Karriere, Ihre Reputation, dahin. Einmal im Netz, immer im Netz. Auch wenn fast alle Deepnudes-Betroffenen Frauen oder Mädchen sind, die sowieso schon erschreckend häufig unter digitaler Gewalt leiden, könnte zukünftig jeder zum Opfer werden. Zumindest jeder, der Fotos und Videos von sich online gestellt hat oder sich fotografieren lässt. Kein Grund für Datenschützer, sich als datenschutzbewusste Menschen auf die Schulter zu klopfen: Das Recht auf informationelle Selbstbestimmung bedeutet auch, Bilder und Videomaterial von sich hochladen zu dürfen, wenn man möchte. Wenn wir befürchten müssen, selbst bald nackt im Internet zu stehen, nehmen wir unser Recht, unsere Freiheit, tun und lassen zu dürfen, was wir wollen, nicht mehr wahr – stattdessen ziehen wir uns zurück. Aus sozialen Netzwerken, aus dem Leben, aus den Augen, aus dem Sinn. Wer nicht pariert, steht mit heruntergelassener Hose da Künstlich geschaffene Pornobildchen sind nichts Neues – Revenge Porn gibt es schon lange. Dabei werden echte Sex-Videos ohne Einwilligung der anderen Partei ins Netz gestellt. Für alle, die die Finger nicht von sich lassen können, bieten einschlägige Seiten auch Deepfake-Videos – jeden Monat werden bis zu eintausend davon hochgeladen. Laut dem niederländischen Unternehmen Deeptrace handelt es sich bei 96 Prozent der rund 15.000 geprüften Deepfake-Videos um Pornografie. Darauf zu sehen: Hollywood-Schauspielerinnen wie Emma Watson, Popsängerinnen wie Taylor Swift und Lena Meyer-Landrut. Betroffen sind nicht nur Promis, auch Influencer rücken in den Fokus. Da von diesen unzählige Fotos und Videos online vorhanden sind, liegt ein vollumfänglicher Datenschatz vor, der sich für Deepnudes nutzen lässt. Die künstlich generierten Bilder oder entsprechend kreiertes Videomaterial bieten explosives Erpressungspotential. Wer von der Masse abweicht, genauer nachfragt oder den Finger in die Wunde legt, wird künftig mit Deepfakes und Deepnudes zum Schweigen gebracht. Wer nicht pariert, könnte sich plötzlich auf einem Nazidemo-Video wiederfinden – oder schneller im Knast, als ihm lieb ist. Gut gemachte Deepfakes können jeden Verdacht untermauern, Wahlen beeinflussen, Politiker diskreditieren. Der Erpresser als technikaffiner Erlkönig: Und bist du nicht willig, so brauch‘ ich (künstliche) Gewalt! Unverhüllter Blick in die Zukunft Deepfake-Videos sind das Fake-News-Sahnehäubchen: Noch sind sie selten anzutreffen, aber bald schon lecken sich Geheimdienste, Verrückte und Despoten die Finger danach. Durch künstliche Intelligenz geschaffene Nacktbilder mögen da noch kindisch und albern erscheinen – doch fängt nicht jede potentiell gefährliche Technologie erst einmal klein an? Beitrag hier kommentieren |