Deepfakes sind zunehmend realistisch wirkende Fotos, Audios oder Videos, in denen Personen mit Hilfe von KI-Technologien in neue Kontexte gestellt oder ihnen Worte in den Mund gelegt werden, die so niemals gesagt wurden. "Wir haben es mit einer neuen Generation digital manipulierter Medieninhalte zu tun, die seit einigen Jahren immer kostengünstiger und einfacher zu erzeugen sind und vor allem täuschend echt aussehen können", sagt Dr. Jutta Jahnel, die sich am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT mit der gesellschaftlichen Dimension lernender Systeme beschäftigt, laut Pressemitteilung der Einrichtung. Die Technik eröffne durchaus neue Möglichkeiten für Kunstschaffende, für digitale Visualisierungen in Schulen oder Museen und helfe in der medizinischen Forschung.
Gleichzeitig bringen Deepfakes jedoch erhebliche Gefahren mit sich, wie die jetzt vorgestellte internationale Studie für den STOA-Ausschuss (steht für Scientific Technology Options Assessment) des Europäischen Parlaments zeigt. "Die Technologie kann missbraucht werden, um sehr effektiv Fake News und Desinformationen zu streuen", so Jahnel, die den Beitrag des ITAS zur Studie koordiniert hat, laut KIT-Pressemitteilung.. So könnten gefälschte Audiodokumente dafür eingesetzt werden, juristische Prozesse zu beeinflussen oder in Misskredit zu bringen, und letztlich das Justizsystem bedrohen. Möglich wäre beispielsweise auch, mit einem fingierten Video einer Politikerin nicht nur persönlich zu schaden, sondern damit auch die Wahlchancen ihrer Partei zu beeinflussen und in letzter Konsequenz dem Vertrauen in demokratische Institutionen insgesamt zu schaden.
Die Forschenden aus Deutschland, den Niederlanden und Tschechien machen konkrete Lösungsvorschläge. Aufgrund des rapiden technologischen Fortschritts dürfe man sich nicht auf Vorschriften zur Technikentwicklung beschränken. "Um die öffentliche Meinung manipulieren zu können, müssen Fakes nicht nur hergestellt, sondern vor allem auch verbreitet werden", erläutert Jahnel. "Bei der Regelung zum Umgang mit Deepfakes müssen wir daher in erster Linie bei Internetplattformen und Medienunternehmen ansetzen". KI-gestützte Technologien für Deepfakes werden sich jedoch auch so kaum ganz aus der Welt schaffen lassen. Im Gegenteil, die Forschenden sind davon überzeugt, dass sich Individuen und Gesellschaften künftig immer häufiger mit visuellen Desinformationen konfrontiert sehen. Essenziell sei es daher, solchen Inhalten künftig noch kritischer gegenüberzutreten und Fertigkeiten weiterzuentwickeln, die dabei helfen, die Glaubwürdigkeit von Medieninhalten kritisch zu hinterfragen. Auf deutscher Seite hat an der Studie neben dem ITAS das Fraunhofer-Institut für System- und Innovationsforschung mitgewirkt, in den Niederlanden das Rathenau Institut als Projektkoordinator und in Tschechien das Technology Centre CAS.
Aufbauend auf die europäische Studie, untersucht derzeit ein interdisziplinäres Projekt am KIT, wie effektive gesellschaftliche Antworten auf Deepfakes aussehen könnten. Neben der Technikfolgenabschätzung arbeiten dabei Fachleute aus Informatik, Kommunikations- und Rechtwissenschaft sowie qualitativer Sozialforschung des KIT zusammen. Ziel ist es, die Erkenntnisse und Ansätze der unterschiedlichen Disziplinen zusammenzuführen. Eine Pilotstudie soll insbesondere die Perspektive von Nutzerinnen und Nutzern genauer untersuchen.

[PA]
deepfakes studiestudie deepfakesuntersuchung deepfakesdeepfakes untersuchungwissenschaft deepfakesdeepfakes wissenschaftwissenschaftliche erkenntnisse deepfakesdeepfakes wissenschaftliche erkenntnissedeepfakes studienstudien deepfakesseptember 2019convincing deepfakebarack obamavideos is a deepfakefaces swappedmachine learningdeepfakes softwareneural networkartificial intelligencedeep learningopen sourcemark zuckerbergdeepfake technologygenerative adversarial networks gansdeepfake pornographyvideo footagedonald trumpfake videossocial mediahillary clintonwahlmanipulationpräsidentschaftswahl 2016us wahl 2016