Facebook stellt seine eigenen KI-Deepfakes her, um eine Desinformationskatastrophe abzuwenden

Bilder nebeneinander von Originalvideo und Deepfake.

Bilder nebeneinander von Originalvideo und Deepfake.Facebook



Facebook befürchtet, dass KI-generierte Deepfake-Videos die nächste große Quelle viraler Fehlinformationen sein könnten – die sich unter seinen Nutzern ausbreiten könnten, mit möglicherweise katastrophalen Folgen für die nächsten US-Präsidentschaftswahlen.

Seine Lösung? Erstellung vieler eigener Deepfakes, um Forschern dabei zu helfen, Erkennungswerkzeuge zu entwickeln und zu verfeinern.





Facebook hat sein Team von KI-Forschern angewiesen, eine Reihe äußerst realistischer gefälschter Videos zu produzieren, in denen Schauspieler Routinedinge tun und sagen. Diese Clips dienen als Datensatz zum Testen und Benchmarking von Deepfake-Erkennungstools. Die Facebook-Deepfakes werden Ende des Jahres auf einer großen KI-Konferenz veröffentlicht.

Der Aufstieg von Deepfakes wurde durch die jüngsten Fortschritte im maschinellen Lernen vorangetrieben. Filmstudios können Bilder und Videos seit langem mit Software und Computern manipulieren, und Algorithmen, die in der Lage sind, das Abbild einer Person zu erfassen und neu zu erstellen, wurden bereits verwendet, um Point-and-Click-Tools zu entwickeln, mit denen das Gesicht einer Person auf eine andere Person übertragen werden kann .

Es gibt Methoden zum Erkennen gefälschter Medien, aber sie beinhalten oft sorgfältige Expertenanalysen. Tools zum automatischen Fangen von Deepfakes sind gerade erst auf dem Vormarsch.



Der CTO von Facebook, Mike Schroepfer, sagt, dass Deepfakes schnell voranschreiten, daher ist es von entscheidender Bedeutung, viel bessere Wege zu finden, um potenzielle Fälschungen zu kennzeichnen oder zu blockieren.

Wir haben dies noch nicht als großes Problem auf unseren Plattformen gesehen, aber ich gehe davon aus, dass, wenn Sie den Zugriff erhöhen – es billiger, einfacher und schneller machen, diese Dinge zu bauen – es das Risiko deutlich erhöht, dass Leute dies auf böswillige Weise verwenden, Schroepfer , der die Initiative anführt, sagte gestern Abend. Ich möchte nicht in eine Situation geraten, in der dies ein massives Problem ist und wir nicht massiv in Forschung und Entwicklung investiert haben.

Schroepfer verglich die Bemühungen mit dem Kampf gegen Spam-E-Mails und sagte, Facebook sei möglicherweise nicht in der Lage, die raffiniertesten Fälschungen zu erkennen. Wir werden die Offensichtlichen fangen, sagte er. Aber er sagte, Facebook wende noch keine Methoden an, weil sich die Fälschungen so schnell verbessern.

Das soziale Netzwerk wird 10 Millionen US-Dollar für die Finanzierung der Erkennungstechnologie durch Zuschüsse und Preisgelder bereitstellen. Zusammen mit Microsoft, der Partnerschaft für KI und Akademikern von Institutionen wie dem MIT, der UC Berkeley und der Oxford University startet das Unternehmen die Deepfake-Erkennungs-Challenge , das nicht näher bezeichnete Geldprämien für die besten Erkennungsmethoden anbietet.



Für die Erstellung eines Deepfakes sind normalerweise zwei Videoclips erforderlich. Algorithmen lernen das Aussehen jedes Gesichts, um eines auf das andere zu kleben, während jedes Lächeln, Blinzeln und Nicken beibehalten wird. Verschiedene KI-Techniken können auch verwendet werden, um die Stimme einer bestimmten Person nachzubilden. Der Begriff Deepfake stammt von einem Reddit-Benutzer, der 2017 ein solches Tool veröffentlicht hat. Er bezieht sich auf Deep Learning, die verwendete KI-Technik.

Eine der großen Sorgen ist, dass Deepfakes dazu verwendet werden könnten, während der US-Wahlen im nächsten Jahr hoch ansteckende Fehlinformationen zu verbreiten und vielleicht sogar das Ergebnis zu beeinflussen. Mehrere US-Senatoren haben wegen der Bedrohung Alarm geschlagen, und Ben Sasse (R–Nebraska) hat eine Gesetzesvorlage eingebracht, die es illegal macht, Deepfakes mit böswilliger Absicht zu erstellen oder zu verbreiten. Ein kürzlich Bericht über falsche Wahlinformationen von der NYU identifiziert Deepfakes als eine von mehreren zentralen Herausforderungen für die Wahlen 2020.

Tatsächlich verbreiten sich manipulierte Videos bereits auf sozialen Plattformen. Anfang dieses Jahres verbreitete sich schnell ein Clip, der Nancy Pelosi zu zeigen schien, wie sie ihre Rede verwischte (einfach durch Verlangsamung des Filmmaterials), schnell auf Facebook. Das Unternehmen weigerte sich, diesen Beitrag oder einen Deepfake von Mark Zuckerberg zu entfernen, und entschied sich stattdessen dafür, die Clips bei Organisationen zur Überprüfung von Fakten als Fälschung zu kennzeichnen.

Es ist sinnvoll, dass Facebook versucht, dem Thema zuvorzukommen, insbesondere nach den Folgen der letzten Präsidentschaftswahlen. Als Einzelheiten politischer Fehlinformationskampagnen bekannt wurden, sah sich Facebook heftiger Kritik ausgesetzt, weil es die Verbreitung solcher Propaganda zugelassen hatte.

Die Förderung der Deepfake-Herausforderung könnte jedoch unbeabsichtigte Folgen haben. Henry Ajder, Analyst bei Deeptrace, einem niederländischen Unternehmen, das an Tools zum Aufspüren gefälschter Clips arbeitet, stellt fest, dass die Erzählung um Deepfakes Politikern eine Möglichkeit bieten kann, sich der Verantwortung zu entziehen, indem sie behauptet, dass echte Informationen gefälscht wurden (siehe Fake America great again ). Die bloße Vorstellung von Deepfakes schaffe bereits viele Probleme, sagt Ajder. Es ist ein Virus im politischen Bereich, der die Köpfe von Politikern und Bürgern infiziert hat.

Darüber hinaus bezweifelt Ajder, der Deepfakes in freier Wildbahn verfolgt, trotz der Alarmierung, dass die Technologie noch einige Zeit für politische Zwecke bewaffnet werden wird. Er glaubt, dass es sofort zu einem wirksamen Werkzeug für Cyber-Stalking und Mobbing werden wird.

Es gibt bereits einige Methoden zur Erkennung von Deepfakes. Einfache Techniken umfassen die Analyse der Daten in einer Videodatei oder die Suche nach verräterischen Mundbewegungen und Blinzeln, die für einen Algorithmus schwieriger zu erfassen und neu zu erstellen sind.

Wie bekomme ich Schönheitsfilter auf Tiktok

Eine kürzlich von einer Gruppe führender Experten entwickelte Methode besteht darin, einen Deep-Learning-Algorithmus darauf zu trainieren, die spezifische Art und Weise zu erkennen, wie sich der Kopf einer Person bewegt, da dies normalerweise nicht etwas ist, was Algorithmen lernen.

Dieser Ansatz entstand durch einen weiteren Versuch zur Entwicklung von Erkennungswerkzeugen, der von der Defense Advanced Research Projects Agency (DARPA) finanziert wird.

Viele Experten waren überrascht und alarmiert von der Geschwindigkeit, mit der KI-Fälschungen voranschreiten. Erst diese Woche löste eine chinesische App namens Zao eine Debatte aus, indem sie Deepfake-Videos veröffentlichte, die angeblich aus einem Standbild erstellt wurden. Ha Li , ein Visual-Effects-Künstler und außerordentlicher Professor an der University of Southern California, hat davor gewarnt, dass es in Kürze möglich sein könnte, nicht erkennbare Deepfakes in Massenproduktion herzustellen (siehe Der weltbeste Deepfake-Künstler ringt mit dem Monster, das er geschaffen hat ).

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Alumni-Briefe

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen