Hier sind fünf Möglichkeiten, wie die Deepfake-Busting-Technologie nach hinten losgehen könnte

Kategorie:Wahl 2020Gesendet16. Dez Hitler-Deepfake Hitler-Deepfake

Deepfakes sind zu einem Symbol für das Ende der Wahrheit und für einige zu einem potenziellen Werkzeug geworden, um Wahlen zu beeinflussen. (Egal, dass die meisten Deepfakes immer noch gefälschte Pornos sind.) Jeder, von der US-Regierung über Technologiegiganten bis hin zu Startups, versucht, Deepfake-Busting-Technologie zu entwickeln. Aber ein neuer Bericht heute von Witness , eine gemeinnützige Organisation, die synthetische Medien untersucht, weist darauf hin, wie diese Tools schief gehen können.

Die Techniken: Manipulierte Videos sind kein neues Problem, und es gibt viele soziale Probleme, die selbst der beste Deepfake-Detektor nicht beheben kann . (Zum Beispiel beantwortet das Wissen, dass ein Video bearbeitet wurde, nicht automatisch die Frage, ob es entfernt werden sollte. Was ist, wenn es Satire ist?) Das hat Unternehmen wie Amber Video, Truepic und eWitness nicht daran gehindert, verifizierte At-Capture- oder Controlled-Capture-Technologien. Diese verwenden eine Vielzahl von Techniken, um ein Bild oder Video bei der Erstellung zu signieren, mit Geotags zu versehen und mit einem Zeitstempel zu versehen. Theoretisch lässt sich so leichter feststellen, ob das Medium manipuliert wurde.



Was ist das Problem? Der Witness-Bericht zeigt 14 verschiedene Möglichkeiten auf, wie diese Technologien tatsächlich schädlich werden könnten. Einige der wichtigsten:

—Die Werkzeuge, die gebaut werden, könnten verwendet werden, um Menschen zu überwachen
—Technische Einschränkungen könnten diese Tools daran hindern, dort zu arbeiten, wo sie am dringendsten benötigt werden (und diejenigen, die alte Hardware verwenden, könnten zurückgelassen werden).
– Geräte mit Jailbreak können kein verifizierbares Material erfassen
—Unternehmen könnten die Daten löschen oder Einzelpersonen die Kontrolle darüber verweigern
—Die Forderung nach mehr Überprüfungen für Medien vor Gericht könnte das Gerichtsverfahren länger und teurer machen

Was kann man also tun? Für diese Probleme gibt es keine einfache Lösung, sagt Sam Gregory, Programmdirektor von Witness. Die Unternehmen, die diese Technologien entwickeln, müssen sich diesen Fragen stellen und an die Menschen denken, die am wahrscheinlichsten geschädigt werden, fügt er hinzu. Es ist auch möglich, synthetische Medienwerkzeuge auf ethischere Weise selbst zu bauen. Der Technologieexperte Aviv Ovadya zum Beispiel hat Ideen, wie man verantwortungsbewusste Deepfake-Tools entwickeln kann . Unternehmen können ihr Bestes tun, um zu überprüfen, welche Kunden ihre Tools verwenden dürfen, und diejenigen, die gegen ihre Normen verstoßen, ausdrücklich bestrafen. Synthetische Medien aller Art werden immer häufiger vorkommen. Es wird viele verschiedene Taktiken brauchen, um uns alle zu schützen.