A Zodiákus Jelének Kompenzációja
Alkalmazhatóság C Hírességek

Tudja Meg A Kompatibilitást Zodiac Sign Segítségével

Magyarázat: Miért válik egyre nehezebbé a mélyhamisított videók észlelése, és mik a következményei?

A mélyhamisítások potenciális veszélye abban rejlik, hogy a manipuláció szintje annyira tökéletes, hogy néha lehetetlennek tűnik megkülönböztetni őket a valódi videóktól. Minél nehezebbé válik a hamisság észlelése, annál nagyobb a fenyegetés, hogy valósnak tűnjön, és a szándékolt pusztítást okozza.

MélyhamisításA képen látható személyek közül senki sem valódi. Ők az AI által generált hamis emberek. (Forrás: https://thispersondoesnotexist.com/)

Az orvosolt videók vagy mélyhamisítások már jó ideje a propagandacsaták egyik kulcsfontosságú fegyverei. Donald Trump kigúnyolja Belgiumot amiatt, hogy a párizsi klímaegyezményben maradt, David Beckham folyékonyan beszél kilenc nyelven, Mao Ce-tung énekli a „Túlélni fogok” című dalt, vagy Jeff Bezos és Elon Musk a Star Trek kísérleti epizódjában… ezek a videók mind elterjedtek annak ellenére, hogy hamisítvány, vagy mert mélyhamisítványok voltak.







Tavaly Marco Rubio, a floridai republikánus szenátor azt mondta, hogy a mélyhamisítások olyan erősek, mint az atomfegyverek a demokráciában folytatott háborúkban. Régen, ha fenyegetni akarta az Egyesült Államokat, 10 repülőgép-hordozóra volt szüksége, nukleáris fegyverekre és nagy hatótávolságú rakétákra. Ma már csak hozzáférésre van szüksége az internetes rendszerünkhöz, a bankrendszerünkhöz, az elektromos hálózatunkhoz és az infrastruktúránkhoz, és egyre inkább csak arra van szüksége, hogy egy nagyon valósághű hamis videót készítsen, amely alááshatja a választásainkat, és felboríthatja országunkat. hatalmas belső válságba kerül, és mélyen meggyengít bennünket, Forbes idézte őt.

A mélyhamisítások potenciális veszélye abban rejlik, hogy a manipuláció szintje annyira tökéletes, hogy néha lehetetlennek tűnik megkülönböztetni őket a valódi videóktól. Minél nehezebbé válik a hamisság észlelése, annál nagyobb a fenyegetés, hogy valósnak tűnjön, és a szándékolt pusztítást okozza. De a mesterséges intelligencia által meghajtott, kifinomultabb eszközökkel ezeknek a videóknak a készítéséhez, egyre nehezebb felismerni a mélyhamisításokat?



Mik azok a mélyhamisítványok és hogyan készülnek?

A mélyhamisítások hamis tartalmat jelentenek – gyakran videók, de más médiaformátumok, például képek vagy hanganyagok formájában is –, amelyeket hatékony mesterséges intelligencia-eszközökkel hoztak létre. Ezeket mélyhamisításnak nevezik, mert a mély tanulási technológiát, a gépi tanulás egyik ágát használják, amely neurális hálózat szimulációját alkalmazza a hatalmas adathalmazokra hamis tartalom létrehozására.

A mesterséges intelligencia egy olyan ágát alkalmazza, ahol, ha egy számítógépet elegendő adattal táplálnak, hamisítványokat tud generálni, amelyek nagyjából úgy viselkednek, mint egy valódi személy. Például az AI megtanulhatja, hogyan néz ki egy forrásarc, majd átülteti egy másik célpontra az arccsere végrehajtásához.



A Generative Adversarial Networks (GAN) nevű technológia alkalmazása, amely két mesterséges intelligencia-algoritmust használ – ahol az egyik a hamis tartalmat generálja, a másik pedig osztályozza erőfeszítéseit, megtanítva a rendszert jobbra – segített pontosabb mélyhamisításokat kidolgozni.

A GAN számítógéppel generált képeket is készíthet hamis emberi lényekről, amelyeket a „This Person Does Not Exist” nevű weboldal használt fel. Ez gyakorlatilag lehetetlenné teszi annak felismerését, hogy az interneten látott videók vagy képek valódiak vagy hamisak.



A mélyhamisításokat nagyon nehéz felismerni. Sokan például beleszerettek Tom Cruise golfozó Tiktok-videóiba, amelyekről később kiderült, hogy hamisítványok.

Egyre nehezebb felismerni a mélyhamisításokat?

A Winter Conference on Applications of Computer Vision 2021-en bemutatott tanulmány egy új technikát ír le, amely a mélyhamisításokat bolondbiztosabbá teszi, megnehezítve a hagyományos eszközök észlelését.



A Paarth Neekhara és Shehzeen Samarah Hussain, a San Diego-i Kaliforniai Egyetem PhD hallgatói által vezetett tanulmány megállapította, hogy az észlelési eszközök megtéveszthetők, ha minden videókockába enyhén manipulált bemeneteket, úgynevezett ellenséges példákat illesztenek be.

PhDPaarth Neekhara és Shehzeen Samarah Hussain, a Kaliforniai Egyetem San Diego-i PhD hallgatói, akik a tanulmányt vezették. Neekhara 4. éves PhD hallgató a számítástechnikai tanszéken, míg Hussain, szintén 4. évfolyamos PhD programjában, az Elektromos és Számítástechnikai Tanszék hallgatója.

A mélyhamisítás-észlelés jelenlegi legmodernebb módszerei könnyen megkerülhetők, ha az ellenfél teljes vagy részleges ismeretekkel rendelkezik az érzékelőről – áll az „Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples” című cikk.



Neekhara és Hussain az indianexpress.com-nak nyilatkozva azt mondta, hogy a szabványos észlelési módszerek korántsem lehetnek bolondbiztosak, mert nem garantálják, hogy felismerik az újabb mélyhamisított videókat, amelyeket olyan új technikákkal szintetizáltak, amelyek nem szerepelnek az adathalmazban, és ki vannak téve az ellenséges bemeneteknek.

CSATLAKOZZ MOST :Az Express Explained Telegram csatorna

Az ellentmondásos bemenetek enyhén módosított bemenetek, így a mély neurális hálózatok hibát követnek el. A mély neurális hálózatokról kimutatták, hogy érzékenyek az ilyen bemenetekre, amelyek az osztályozó kimenetének megváltozását okozhatják. Munkánk során megmutatjuk, hogy a támadó egy mélyhamisítású videó minden egyes képkockáját módosítani tudja úgy, hogy az megkerülje a mélyhamisítás-érzékelőt, és valódinak minősüljön.

MélyhamisításEllenálló példák a FaceForensics++ adatkészlethez, amelyet a Kaliforniai Egyetem San Diego kutatócsoportja készített a mélyhamisítás-detektorok megtévesztésére. ( https://adversarialdeepfakes.github.io/ )

Hozzátették: A támadó létrehozhat egy kis, észrevehetetlen ellenséges perturbációt egy mélyhamisított videó minden egyes képkockájához, hozzáadhatja a képkockához, majd az összes videókockát kombinálva létrehozhatja az ellenséges videót. Az ezekkel a technikákkal végzett kísérleteink során 90%-nál nagyobb sikerarányt tudtunk elérni (a detektor megtévesztésére).

Milyen veszélyeket jelentenek a mélyhamisított videók?

A mélyhamisított videók elterjedésével egyre nagyobb aggodalomra ad okot, hogy fel fogják fegyverezni őket politikai kampányok lebonyolítására, és az autoriter rezsimek kihasználhatják őket.

2019-ben a Future Advocacy és a brit Artist Bill Posters nevű kutatószervezet készített egy videót, amelyen Boris Johnson brit miniszterelnök és Jeremy Corbyn, a Munkáspárt vezetője támogatta egymást a miniszterelnöki posztért. A csoport szerint a videót azért hozták létre, hogy bemutassa a mélyhamisítások demokrácia aláásásának lehetőségét.

Ezenkívül tavaly, a Delhi Közgyűlés szavazása előtt, a Delhi BJP elnökéről, Manoj Tiwariról és Haryanviról készült videók terjedtek el. Ezekben a videókban Tiwari Arvind Kejriwalt kritizálta, és arra kérte az embereket, hogy szavazzanak a BJP-re. A Vice digitális médiacég jelentése szerint a videókról, amelyeket több mint 5000 WhatsApp csoportban osztottak meg, később kiderült, hogy hamisítványok.

A mélyhamisítások is aggodalomra adnak okot egy olyan időszakban, amikor a WHO kijelentette, hogy a Covid-19-válság infódémiát váltott ki, és szándékos kísérletek történtek téves információk terjesztésére, hogy aláássák a közegészségügyi reakciót, és elősegítsék a csoportok vagy egyének alternatív napirendjét.

Sőt, manapság egyre gyakrabban használják a közösségi médiában a tények szándékos, politikai célból való félrevezetésére az okosított videókat – amelyek magukban foglalják a tartalom manipulálását helytelen dátumbélyeg vagy hely használatával, tartalom kivágását a kontextus megváltoztatása érdekében, kihagyást, összeillesztést és kitalációt. Ezeknek a videóknak a többsége nem példa a mélyhamisításokra, hanem bemutatja, milyen könnyű tényeket elhomályosítani és hazugságokat terjeszteni a kemény bizonyítéknak álcázott manipulált tartalom alapján.

A másik nagy gond a mélyhamisított videókkal kapcsolatban a nem konszenzusos pornográf tartalom generálása. 2017-ben egy felhasználó bevetett egy arccserélő algoritmust, hogy mélyhamisított pornográf videókat készítsen olyan hírességekről, mint Scarlett Johansson , Gal Gadot, Kristen Bell és Michelle Obama, és megosztotta azokat az r/deepfake nevű Reddit fenyegetésen. A fióknak közel 90 000 előfizetője volt a jövő év februári megszüntetéséig.

Az interneten található több ezer mélyhamisított videó több mint 90%-a nem konszenzusos pornográfia. A tavalyi év egyik legborzasztóbb mesterséges intelligencia-kísérlete a DeepNude nevű alkalmazás volt, amely levetkőztette a nők fotóit – képes volt fényképeket készíteni, majd a női ruhákat nagyon valósághű meztelen testekre cserélni. Az alkalmazást egy erős visszhang után levették.

Ezenkívül, ahogyan arról széles körben beszámolnak, a mélyhamisított videókat egyre gyakrabban használják bosszúpornó létrehozására az elutasított szerelmesek nők zaklatására.

A Deepfake videók által jelentett fenyegetés már nyilvánvaló – mondta Neekhara és Hussain az indianexpress.com-nak. Vannak rosszindulatú felhasználók, akik az ilyen videókat híres személyiségek rágalmazására, dezinformáció terjesztésére, a választások befolyásolására és az emberek polarizálására használják. A meggyőzőbb és elérhető mélyhamisított videószintézis technikákkal ez a fenyegetés még nagyobb mértékűvé vált – tették hozzá.

Lezárás van kilátásban?

A legtöbb közösségi média cég, például a Facebook és a Twitter betiltotta a mélyhamisított videókat. Azt mondták, amint egy videót mélyhamisításként észlelnek, eltávolítják.

A Facebook Berkeley-ből, Oxfordból és más intézményekből toborzott kutatókat egy mélyhamisítás-érzékelő felépítéséhez. 2019-ben az iparág vezetőivel és akadémiai szakértőkkel együttműködve Deepfake Detection Challenge-t tartott, amelynek során egy több mint 100 000 videóból álló egyedi adatkészletet hoztak létre és osztottak meg.

Azonban nem minden mélyhamisítvány észlelhető pontosan, és jelentős időbe telhet, amíg megtalálják és eltávolítják őket. Ezenkívül sok pornográf oldal nem alkalmaz ugyanolyan szintű korlátozásokat.

Neekhara és Hussain azt mondta: Ahhoz, hogy a mélyhamisítású videókat még pontosabban észlelhessük, ellenséges, robusztus modellekre van szükségünk, beépítve egy támadót az ilyen mélyhamisítás-észlelési modellek betanítása közben. Hosszú távú megoldás a képek és videók vízjelezése vagy digitális aláírása a rögzített eszközről. A vízjel vagy a digitális aláírás megszakadhat, ha mélyhamisítási technikákat, például arccserét alkalmaznak. A mélyhamisítás-érzékelő ezután csak ellenőrizni tudja az aláírást vagy a vízjelet. Ehhez azonban minden kamerán és mobiltelefonon vízjelezési szabványt kellene létrehozni. Ezért eltarthat egy ideig, amíg ez valósággá válik.

Oszd Meg A Barátaiddal: