WebWizard   26.4.2024 07:29    |    Benutzerkonto
contator.net » WebNews » WebWizard.at » Magazin » News-Links  
 

Wir brauchen Cookies, siehe unsere Datenschutzerklärung.















Neueste Artikel

Vorurteile und die KI
Supercomputer in Modulen
Kein Aprilscherz: Mobile- und Internettarife steigen
Smarte GesundheitWegweiser...
Übersehene Gefahr im UnternehmenWegweiser...
Intelligenz für den FlirtWegweiser...
Blinde sehen mit KI
Werbung 2024 in Prime VideoWegweiser...
Gratis: PDF editieren und ausfüllen
mehr...








UGC-Video-Werbung im Trend


Aktuelle Highlights

KI Sprache: Stimmen


 
WebWizard News-Links
Sicherheit  11.02.2021 (Archiv)

Deep-Fake-Erkennung ist unsicher

Deepfake-Detektoren, die manipulierte Videos erkennen sollen, lassen sich durch passende Veränderungen von Video-Frames gut austricksen.

Dies haben Informatiker der University of California, San Diego (UCSD) in einer Studie erstmals nachgewiesen. Das gilt demnach auch, wenn ein Angreifer die Funktionsweise der Erkennungssoftware nur grob kennt. Der Ansatz der Informatiker funktioniert zudem selbst dann, wenn Videos komprimiert und dekomprimiert werden.

Deepfakes sind mithilfe von KI gefälschte Videos. Gängig ist besonders, Gesichter in Situationen zu zeigen, die so nie stattgefunden haben, wie in gefälschten Pornos. Solche Videos taugen als Propaganda-Waffen. Deshalb gibt es auch maschinenlernende KI-Systeme, die der Erkennung solcher Deepfakes dienen. Doch die Detektoren lassen sich der UCSD-Studie zufolge gut austricksen. 'Wir zeigen, dass es möglich ist, robuste adversarielle Deepfakes zu erstellen, selbst wenn ein Angreifer die innere Funktionsweise des vom Detektor verwendeten maschinellen Lernmodells nicht kennt', sagt der Computertechnik-Doktorand Shehzeen Hussain.



Deepfake-Detektoren konzentrieren sich meist auf die Gesichter in Videos. Denn eben da enthalten die Fälschungen oft Fehler. Beispielsweise ist das Augenzwinkern meist nicht realistisch. Der Ansatz, Erkennungssysteme auszutricksen, besteht nun im Prinzip darin, diese durch passende Veränderungen der Video-Frames dazu zu verleiten, Bilder fälschlich doch als echt einzustufen. Dazu versucht der Angriffs-Algorithmus zunächst mittels Test-Frames einzuschätzen, wie ein Detektor auf verschiedene, mit freiem Auge unbemerkbare Bildtransformationen reagiert und was er als echt einstuft. Dann verändert er alle Gesichter in einem Deepfake so, dass die Transformation wohl fälschlich als echt eingestuft wird.

Wenn genaue Details dazu bekannt sind, wie eine Deepfake-Erkennung funktioniert, kann diese Form des Angriffs Tests zufolge über 99 Prozent der unkomprimierten Deepfakes als echt verkaufen. Selbst wenn die Funktionsweise nur in groben Zügen bekannt ist, sind es noch über fünf Sechstel. Zudem nutzt der Algorithmus Transformationen, die im Gegensatz zu einfacheren Angriffen auch eine Kompression meist gut überstehen. Ist genau bekannt, wie ein Detektor funktioniert, können ihn daher auch knapp 85 Prozent der komprimierten Deepfakes täuschen, im Fall einer nur grob bekannten Funktionsweise sind es immerhin noch über drei Viertel.

Da sich aktuelle Deepfake-Detektoren derart gut täuschen lassen, raten die UCSD-Informatiker dazu, solche Systeme entsprechend zu testen und zu entwickeln. Sinnvoll wäre demnach, eine Erkennungs-KI in der Trainingsphase gegen einen KI-Gegner wie ihren Algorithmus antreten zu lassen. Dadurch würde der Detektor letztlich lernen, immer bessere Deepfakes mit immer clevereren Bildtransformationen als Fälschungen zu erkennen.

pte/red

Ihre Meinung dazu? Schreiben Sie hier!

#Fake #Sicherheit #Erkennung #Forschung #Video



Newsticker per eMail oder RSS/Feed!

Auch interessant!
Deepfake bei Lucasfilm
Der YouTuber 'Shamook' hat nicht nur Fans mit Deepfakes beeindruckt, in denen er etwa Mark Hamills Gastau...

Unternehmen sind Deep Fakes ausgeliefert
Mithilfe von Künstlicher Intelligenz (KI) erstellte Deepfake-Videos treffen immer mehr Unternehmen völlig...

Deep Fakes im Auge der KI
Das Gesehene spiegelt sich in beiden Augen nahezu identisch wider - zumindest was Farbe und Form angeht. ...

Das war 2020
Keine andere Anwendung hat im Corona-Jahr 2020 so viel Aufmerksamkeit erregt wie die Videokonferenz-App Z...

Deepfakes bleiben unerkannt
Die meisten Menschen können Deepfake-Videos nicht durchschauen, selbst wenn diese keine hohe Qualität hab...

Tiktok zensiert auch Fake News
ByteDance, der chinesische Entwickler des Videoportals TikTok, hat ein allgemeines Verbot gegen die Verbr...

Deepfakes erkennen
Forscher an der University of Albany haben eine Software entwickelt, die Deepfake-Videos identifiziert. ...

Forum: Ihre Meinung dazu!

[AufZack Talk] [Forum]     
Ins Forum dazu posten...
Betreff/Beitrag:

   






Top Klicks | Thema Sicherheit | Archiv

 
 

 


Customized 2024


GTI Fanfest 2024


AMG GT 43 Coupe


Altblechliebe 4.0


Taycan mit 1100 PS


Porsche Taycan 2024


Aston Martin Vantage


Ist die Domain frei?

Aktuell aus den Magazinen:
 7 Mio-Jackpot Sechsfachjackpot im Lotto 6 aus 45
 EV5 Kia zeigt das SUV in Europa
 2,8 Mio. warten Dreifackjackpot in Österreich
 Menschenrechte Missbrauch im Namen des Klimas?
 Vierfachjackpot 4,5 Mio. im Topf im Lotto in Österreich

contator.net im Überblick:
 Webnews  WebWizard | Bundesland.at | Wien-Tipp.at | NewsTicker
 Business  Journal.at | Anfrage.net | plex | Seminar.At | BizTipp
 Auto  Auto.At | TunerAuto.At | OldtimerAuto.At | AutoTalk.At | AutoGuide.At | AutoBiz.At
 Freizeit  Style.at | Famili.at | Kinofilm.at | Musical.at | heavy.at | grlz | WitzBold | Advent.At
 Shopping  anna | Shoppingcity.at | SchatzWelt Gewinnspiele | Prozente.net Gutscheine
 Community  AufZack! | Flirtparty | Player | Schmuddelecke

Rechtliches
Copyright © 2024    Impressum    Datenschutz    Kontakt    Sitemap    Wir gendern richtig!
Tripple