Ikusi behar sinesteko?

2017. urtearen amaieran abeslari edo aktore ospetsuak protagonista zituzten hainbat bideo pornografiko azaldu ziren sarean. Oso denbora laburrean biral bilakatu ziren. Handik gutxira jakin ahal izan genuenez, bertan azaltzen ziren emakumeak ez ziren ez Katty Perry, ez Scarlet Johansson, ez Emma Watson ezta Gal Gadot ere. Adimen Artifiziala eta hainbat algoritmo uztartzen dituen teknologia berri bati esker, aipatu emakume horien aurpegiak ‘itsatsi’ zituzten beste emakume batzuen gorputzetan.

Emakume ospetsuak ez ezik, sona handiko hainbat politikari ere aipatu teknologiaren biktima izan dira; Barack Obama edo Angela Merkel, esaterako. Obamaren kasuan, muntaia Buzzfedd gunean azaldu zen eta bertan, Obamak Trump hutsaren hurrengoa zela (dipshit) azaltzen zuen. Obamaren alter egoa kasu horretan Jordan Peele aktorea izan zen. Peele BuzzFeed gunearen sortzailea den Jonah Perettiren koinatua da eta bion artean bideoa ekoizteko ideia izan zuten horrelako bideoek izan dezaketen arriskuez ohartarazteko.

Teknologia berri hori, deepfake izenarekin ere ezaguna, Adimen Artifizialean oinarritutako bideo-muntaietan oinarritzen da.

Funtsean, teknologia horrek pertsona bat beste batekin ordezkatzea edo guk nahi duguna esatera edo egitera ‘behartzea’ ahalbidetzen du. Bideo-muntaia hiperrealista horiekin, laster, ezin izango dugu gure begiekin ikusten duguna sinetsi.

Ikus-entzunezko irudien manipulazioa gauza berria ez den arren, Photoshop bezalako programei esker, Adimen Artifizialak errealitatearen inguruan dugun pertzepzioa guztiz eraldatu du. Deepfake hitza Deep learning (Adimen Artifizialarekin harremana duen ikaskuntza sakona) eta fake (faltsua) terminoen laburketaren emaitza da. Teknika horri esker bideoak oso modu errealistan molda daitezke: aurpegiak, ahotsak, gorputz-espresioa… hainbat kasutan ia ezinezkoa da bideo faltsu baten aurrean gaudela antzematea.

Guztion eskura dagoen teknologia

Duela gutxi arte, aurrekontu handia duen estudio zinematografiko batean bakarrik ekoitz zitekeen horrelako bideo bat eta, seguruenik, oso inbertsio handia egin ondoren. Orain, berriz, Adimen Artifizialari esker, edonork lor dezake emaitza bera ordenagailu on batekin.

Bideoak manipulatzeko FakeApp bezalako aplikazioek kode irekiko Keras edo TensorFlow bibliotekak erabiltzen dituzte bideoetarako. Pertsona ezagunen irudiak lortzeko, berriz, Googlen edo Youtuben oinarritzen dira. Horri esker, Adimen Artifiziala gai da bideoa manipulatzeko eta bideoan azaltzen den pertsonaren aurpegia aldatzeko.

Epe laburrean, bideo-muntaia horien kalitatea askoz hobea izango dela iragarri dute. Ondorioz, gero eta zailagoa izango da benetako bideoak eta bideo faltsuak bereiztea. Aurrerapen teknologikoek egiaren eta fikzioaren artean den lerroa desitxuratuko dute, beraz.
Gaur egun, asko dira horrelako bideo faltsuak Internet bidez zabaltzen dituzten guneak. Datu alternatiboak eta konspirazio teoriak komunak dira eta, hainbat kasutan, sinesgarriak. Albiste faltsuek, Estatu Batuetako azken hauteskundeetan eragiteaz gain, Myanmar eta Sri Lankan indarkeria etnikoa eragin dute.

Aurtengo udaberrian, adibidez, BBCren ustezko albistegi batean Errusia eta NATOren arteko gatazka nuklear bat iragarri zen. Whatsapp bidez zabaldu zen bideoan, jaurtitako hainbat misil ikus zitezkeen eta esatariak Alemaniako Mainz hiria jada suntsituta zegoela azaltzen zuen. Bideoa, noski, guztiz faltsua zen eta BBCk salaketa jarri zuen. Bideoa ez zen Adimen Artifizialarekin ekoitzi, baina bideo faltsu batek izan dezakeen eragina utzi zuen agerian. Aipatu teknologia berriekin horrelako bideoak sinesgarriagoak izango dira.

Eztabaida politikoaren erosioa

Egun hainbeste oihartzun duten albiste faltsuen (fakenews) eragina oso txikia da deepfake muntaiek izan dezaketenarekin alderatuta. Izan ere, bideo horien sinesgarritasuna dela eta, jendea errealak ez diren gauzen inguruan konbentzitzeaz gain, benetakoak diren gauzen inguruan jendeak duen konfiantzan ere eragina izango dute. Horrek eragin itzela izango du gure gizartean eta, bereziki, kazetaritza egiteko moduan.

Izan ere, albiste faltsuek oso modu larrian eragingo dute eztabaida politikoan. Adimen Artifizialaren bidez ekoitzitako albiste faltsuek sarean partekatuta ikusten ditugun edukien inguruko zalantzak areagotuko dituzte eta horrek eztabaida politikoan eragin kaltegarria izan dezake. Zer gerta liteke horrelako bideo faltsuak areagotzen hasten badira eta horietan politikariak azaltzen badira mezu arriskutsuak esanez? Benetakoa dena eta faltsua dena bereiztea ezinezkoa egiten bada, orduan, edozein gauza zalantzan jartzeko atea zabalik geratuko da. Hori jada, hainbat politikarik erabiltzen dute aitzakia bezala.

Hor dugu, adibidez, Donald Trump. Estatu Batuetako presidenteak jada bere pertsona edo gobernua kritikatzen duen edozein albiste faltsutzat jotzen du. Sarean bada benetako bideo bat non Trumpek emakumeak iraintzen dituen, baina berak dionez, bideoa digitalki manipulatuta dago.

Testuinguru horretan, engainu sofistikatuen aukera gero eta handiagoak benetako informazioaren sinesgarritasuna txikitzen du. Errusian, adibidez, albiste faltsuak debekatzeko legedi berri bat garatu dute, baina askoren ustez, neurri horiek benetan bilatzen dutena da gobernuaren aurkako kritikak isilaraztea.

Nola antzeman “deepfakeak”?

Zorionez, bideo-muntaiak egiteko teknologiak aurrera egiten duen bezala, muntaia horiek antzemateko teknologiak ere aurrera egiten du. Adibidez, Albanyko Unibertsitatean egin duten ikerlan baten arabera, horrelako muntaietan azaltzen diren pertsonek ez dituzte begiak kliskatzen. Ikerlanaren arabera, gizakiok, batez beste, hamazazpi aldiz kliskatzen ditugu begiak minuturo. Hitz egiten ari garenean, kopuru hori 26raino haziko litzateke eta irakurtzen dugunean, berriz, bosteraino murrizten da. Normalean, politikariek euren mezuak irakurtzen dituzte eta, ondorioz, nahiz eta kopurua txikia izan, pertsona horrek begiak kliskatzen ez baditu, bideo faltsu baten aurrean gaudela susma dezakegu.

Deepfake bideoetan azaltzen diren pertsonaiek ez dituzte begiak kliskatzen muntaia egiteko erabili diren argazkietan oso zaila delako begiak itxita dituen pertsona bat aurkitzea. Normala den bezala, Interneten aurki daitezkeen argazki guztietan pertsona ospetsuek begiak zabalik izaten dituzte.

Albiste faltsuen aurkako ikasgaia

Federación de Asociaciones de Periodismo de España (FAPE) erakundearen ustez, gero eta ugariagoak diren albiste faltsuei aurre egiteko, ezinbestekoa da Derrigorrezko Bigarren Hezkuntzan horien aurkako ikasgai bat ezartzea. FAPEko presidente Nemesio Rodríguezen ustez, egokiena aipatu ikasgaia DBHko laugarren mailan irakastea litzateke. Rodriguezen esanetan, XXI. mendea komunikazioaren mendea da eta, horregatik, horrelako ikasgai batek informazioaren gizarteak sortu duen mundu konplexuari aurre egiten lagun dezake.

Pornoa mendekuz

Teknologia hori erabil daiteke politikarien, kirolarien, enpresarien eta, orohar, edozein pertsona ospetsuren kontrako ikusentzunezko eduki konprometigarria sortzeko. Era berean, beste pertsonei xantaia egiteko, bikotekide ohiaz mendekatzeko edo edozeinen harreman pertsonala edo ibilbide profesionala lur jota uzteko erabil daiteke. Horren guztiaren adibiderik garbiena mendekuaren pornoa dugu. Arazo hori gero eta gehiago azaltzen da eta teknologiaren garapen azkarra dela eta, zaila da biktimei erantzun egokia eman ahal izateko legedia eguneratua izatea.

Bideo pornografikoak nahieran eta esatari eleanitzak

Eduki pornografikoak ekoizten dituen Naughty America konpainia deepfake bideoek izan dezaketen etorkizun oparoaren alde apustu egin eta erabiltzaileek eskatzen dizkieten pertsonaien aurpegiekin bideo pornografikoak ekoizten hasi da.

Hori gutxi balitz, erabiltzaileek euren etxean grabaturiko bideo pornografikoa bidali eta bertan azaltzen den kide baten aurpegia gustuko duten aktore porno baten aurpegiarekin ordezkatzea eska dezakete. Etorkizunera begira, aktoreak hainbat testuingurutan azaldu ahal izateko grabatuko dituztela iragarri dute. Era berean, erabiltzaileek gehien eskatzen dituzten esaldi edo esamoldeak ere grabatuko dituzte bideo-muntaiaren esperientzia pertsonalagoa izan dadin. Ohiko deepfakeekin alderatuta, Naughty Americak ez ditu horretarako baimena eman ez duten pertsona ezagunen aurpegiak erabiliko. Eskaintza, haiekin lan egiten duten aktoreetara eta horretarako prest diren erabiltzaileetara mugatuko da. Konpainiak azaldu duenez, azken finean, edizio kontu bat da. Izan ere, pertsona ezagunekin egiten diren bideo pornografikoen muntaia ez da gauza berria eta Internet azaldu zenetik egin izan ohi den kontu bat dela azpimarratu dute.

Konpainiak azpimarratu duenez, jasotzen dituzten bideo guztiak oso modu konfidentzialean tratatuko dituzte, baina, zer gertatuko litzateke horietako baten bat filtratuko balitz?

BBCren esperimentuak

BBCk ere erabilera berria aurkitu die horrelako bideoei. Telebista kateak emititu duen bideo batean, Matthew Amroliwala esataria gaztelaniaz, txineraz eta hindiz hitz egiten azaltzen da. Bideoa bitxia da aipatu esataria elebakarra delako. BBC teknologia horretan sakontzen ari da bikoizketa aurreratua egiteko. Modu horretan, bideoak oso errealistak izan daitezke eta ikusleak ez du alderik sumatuko. teknologia hori garatzea lortuko balute, kateko esatari guztiak eleanitzak ‘bilakatuko’ lirateke egun batetik bestera.

Iruzkin 1
  • […] horren ahotsa imitatzen ikas dezan. Aldi berean, irudi eta bideo artifizialak ere sortu izan dira, deepfake deritzan bideo faltsuak, adibidez Obamak Trump tontolapikoa dela esaten […]

Utzi erantzuna

Zure e-posta helbidea ez da argitaratuko. Beharrezko eremuak * markatuta daude

Gune honek Akismet erabiltzen du zaborra murrizteko. Ikusi nola prozesatzen diren zure erantzunen datuak.