Adimen artifizialak baimenik gabe biluzten duenean
‘Deepfake’-en biktimek StopNCII.org bezalako tresnak erabili ahal dituzte manipulatutako irudien zabalkundea blokeatzeko
“Bularretakoa erantzi”, “bikinia jantzita duela erakutsi”, “kamiseta gabe erakutsi”… Abenduaren hasieratik, horrelako mezuak gero eta ohikoagoak dira X sare sozialean, zenbait erabiltzailek Grok adimen artifiziala etiketatzen hasi baitziren emakumezkoen, gizonezkoen eta adingabekoen argazkiak sexualizatzeko eskatzen. Joera horrek milioika bistaratze ditu Elon Musk-en sare sozialean eta milaka pertsona indarkeria digital mota berri baten eraginpean utzi ditu. Beth Eleanor britainiar iritzi sortzailea izan da lehen biktimetako bat. Abenduaren 28an, erabiltzaile batek adimen artifizialari Eleanor-en arropa bikini batekin ordezkatzea eskatu zion, liburutegi batean bizkarrez agertzen zen argazki batean.
Eskaera birala bihurtu zen eta antzeko milaka eskaera eragin zituen. “Jendeak ni bikinia jantzita ikustea nahiko banu, nik neuk igoko nituzke horrelako irudiak eta ez nuke adimen artifiziala erabiliko” kexu egin du publikoki britainiarrak. Paula Fraga abokatuak urte berriko zorion-agurra publikatu zuen eta minutu batzuk beranduago erabiltzaile batek bere irudi manipulatuaren esteka bidali zion. “Sexu-indarkeria da eta ondoez handia eragiten du” azaldu du abokatuak. Bitartean, X sarearen jabe Elon Musk-ek indarkeria mota berri hori txistetzat hartu du eta bere argazki bat igo du bikini bat jantzita. Ez da teknologia kontua. Boterea da Sara Sálamo aktoreak X sareko deepfake-ak salatu ditu. “Hainbat urtez lan batzuei uko egin izan diet pertsona batzuek nire fikziozko filmen sekuentziak hartu, testuingurutik atera eta orri pornoetara igotzen dituztelako. Hori indarkeria da. Orain, hori ere ez da nahikoa. Izan ere, AA batekin eta eskrupulurik gabe, berriro sexualiza zaitzakete zure baimenik gabe” azaldu du Sálamok X-n.
“Zure irudia trukatzea. Zure gorputza. Objektu batean bilakatzen zaituzte… Hau ez da teknologia kontua; botere kontua baizik. Emakumeen gorputzak editagarriak, erabilgarriak eta berrerabilgarriak direla uste duen kultura baten ondorioa da. Desioa eta eskubideak nahasten dituena. Eta indarkeria umorearekin. Larriena ez da faltsututako irudia. Larriena da hori egitea zein erraza den eta jendea zein gutxi asaldatzen den” azaldu du. Deepfake-en fenomenoa Grok-en ez da berria, baina indar berezia hartu du urte amaierarekin batera eta indartsu jarraitu du urte hasiera honetan ere. Ikerketa-kazetaritzan espezializatuta dagoen Bellingcat webgunean lan egiten duen Kolina Koltai ikertzaileak jada fenomeno honen berri eman zuen 2025eko maiatzean. “Erabiltzaileek Grok-ek bikinian, lentzerian eta antzekoetan emakumeen irudiak sortzeko prompt-ak aurkitu dituzte” ohartarazi zuen Koltaik. Frantziak jada salatu du Kasuak gero eta ugariagoak direla ikusirik, Frantziar Estatuak Grok salatu zuen formalki pasa den urtarrilaren 2an bertako Kode Penalaren 2. artikuluan oinarrituta. Frantziako hiru ministeriok (Ekonomia, Adimen Artifiziala eta Berdintasuna) Musk-en adimen artifizialari leporatu diote “haien baimenik gabe pertsonen eduki sexistak eta sexualak, bereziki bideo faltsuak, deepfake izenarekin ezagutzen diren faltsutze errealistak sortzea eta zabaltzea”.
Salaketaz gain, frantziar exekutiboak Arcom-Ikus-entzunezko Komunikazioa eta Komunikazio Digitala Arautzeko Agintaritzari X sare sozialak Europar Batasuneko Zerbitzu Digitalen Arautegitik eratorritako betebeharrak betetzen ote dituen egiaztatzea eskatu dio. Security Hero ziber-segurtasun enpresak baieztatu duenez, deepfake pornografikoen biktimen % 99 emakumeak dira. Biktimen artean zenbait gizon ere dauden arren, nagusiki emakumeei eragiten dien fenomeno bat da. Gainera, fenomeno hau ez die bakarri pertsona helduei eragiten. Urtearen amaieran erabiltzaile batek 12-16 urte bitarteko adina zuten bi neskatoren irudiak argitaratu zituen eta azpiko arropaz bakarrik jantzita erakusteko eskatu zion Grok-i. Adimen Artifizialak agindua bete zuen inolako filtrorik eta oharrik gabe. Grok diseinatuta dago, teorian behintzat, pertsonak ez biluzteko edo gorputzeko atal intimoak ez erakusteko. Hala ere, egiatan, irudiak bikinian, lentzerian edo jarrera sexualetan sortzeko aukera ematen du.
Hori da, hain zuzen ere, erabiltzaile askok aprobetxatzen ikasi duten ‘zirrikitua’, sistemaren mugak sistematikoki saiheste dituzten jarraibide zehatzen bidez. Babeserako tresnak Horrelako manipulazioen biktima diren horiek badute irudi horien zabalkundea oztopatzen lagun dezaketen zenbait tresna. Adibidez, StopNCII.org plataformak baimenduta ez dauden irudien eta bideo intimoen zabalkundea oztopatzen laguntzen du. Bere funtzionamendua nahikoa erraza da: biktimak irudi igotzen du plataformara, sistemak kode bat sortzen du (irudia ez da biktimaren gailutik ateratzen) eta plataformak alerta bat bidaltzen die sare sozial nagusiei: Facebook, Instagram, TikTok eta Reddit.
Erabiltzaileren bat irudi hori igotzen saiatzen bada, automatikoki blokeatuko da. Sistema hori doakoa eta anonimoa da eta bere sorreratik jada 200.000 irudi baino gehiago blokeatzen lagundu du. Bere arrakasta-tasa % 90etik gorakoa da, baina baditu zenbait muga. Adibidez, ez du sare sozial guztietarako balio eta WhatsApp eta Telegram bezalako aplikazioetan ere ezin da erabili. Gainera, irudia editatua izan bada (moztuta edo filtroekin) beharrezkoa izango da kode berri bat sortzea berariazko bertsio bakoitzarentzat. Horrelako kasuetan funtsezkoa da azkar mugitzea.
Norbaitek manipulatutako irudiak argitaratzeko mehatxua egiten badu, komeni da kasu berri bat sortzea StopNCII.org aplikazioan, baita edukia argitaratu aurretik ere. Horri esker, plataformek blokeatu egiten dute irudia, norbaitek irudia aurrerago igotzen saiatzen bada. Bitartean, funtsezkoa da kasua behar bezala dokumentatzea: pantaila-argazkiak, mezuak, profilak… Ez da ezer ezabatu behar. Biktimarentzat elkarrizketa horiek mantentzea zaila izan badaiteke ere, ebidentzia gisa balioko du biktimak Justiziara jotzea erabakitzen badu. Revenge Porn Helpline, StopNCII.org kudeatzen duen erakundeak, herrialde bakoitzean egin beharreko urratsei buruzko orientazioa eman dezaketen bazkideen sare globala du.
Espainiako legedia Espainian oraindik ez dago deepfake sexualen inguruko berariazko deliturik. Baina biktimek ohorearen aurkako delituengatik eta norberaren irudia baimenik gabe erabiltzeagatik jar dezakete salaketa. Salaketa horiek ez dute bide zibiletik doaz, ez zigor-arlotik, eta horrek epeak luzatu eta zigorrak leuntzen ditu. Garbi izan behar dugu sare sozialetan egon arren ez dugula irudiak manipulatzeko baimenik.
Sare sozialetan dauden irudien jabetzak horiek publikatu dituzten erabiltzaileena izaten jarraitzen du eta, ondorioz, legalki babestuta daude. Ez dago argitaratzeko edo manipulatzeko baimen inpliziturik.
Biktimak adingabeak badira, arazoa askoz larriagoa da. Izan ere, eduki horiek haur-pornografiatzat har daitezke eta Espainian bada pornografia birtuala eta adingabeen irudi manipulatuak zigortzen dituen legedia. Bada horrelako kasuetarako berariazko zerbitzu bat: TakeItDown. Plataforma horrek baimenik gabe argitaratu diren adingabeen irudiak ezabatzen laguntzen du. Datuak Babesteko Espainiako Agentziak lehentasunezko kanal bat eskaintzen die adingabeei eta haien tutoreei, sexu- edo indarkeria-edukia duten irudiak, bideoak edo audioak baimenik gabe argitaratzea azkar salatzeko.
Eduki horien hedapenaren berri duen edonork erabil dezake kanal hori. Plataformen betebeharrak X sare sozialak eta bere adimen artifizialak ezin diote beren ardurari uko egin. Europan indarrean dagoen legediak legez kanpoko edukiak prebenitzera behartzen ditu.
Eta erabiltzaileren batek horrelako edukien berri ematen badie horiek ezabatzeko beharra dute. Ez da aukerakoa, nahiz eta askotan hala balitz bezala jokatzen duten. Erabiltzaile gisa, posible da horrelako edukiak zuzenean X-an bertan salatzea. Argitalpenaren ondoko hiru puntuak bilatu behar dira, “Salatu” sakatu eta arrazoia hautatu. Horrek agerian uzten du sare soziala jakinarazi dela eta jarduteko legezko betebeharra duela. Argitalpen horretan bertan hiru puntuak bilatu eta bertan sakatuta zabaltzen den menuan ‘salatu’ aukera azalduko da. Salaketarako arrazoia azaldu beharko da. Horrek agerian uzten du sare sozialak eduki horien berri duela eta jarduteko legezko betebeharra duela. Teorian, erantzukizuna zuzenean irudi horiek sortzea eskatu duen erabiltzailearena da, ez aplikazioarena.
Nolanahi ere, delitu horiek jazartzea konplexua da praktikan. Erabiltzaile askok profil faltsuetatik edo kokapen ezezagunetatik jarduten dute, eta horrek ikerketa zailtzen du eta, askotan, ezinezkoa egiten du. Datuak Babesteko Espainiako Agentziak antzeko kasuak zigortu izan ditu. Almendralejon, adingabe batek 2.000 euroko isuna jaso zuen pertsona errealen aurpegiekin gorputz biluziak sortzeko adimen artifizial generatiboa erabiltzeagatik. Kasu mediatikoa izan zen, baina baita salbuespena ere: arduradun gehienak itzalean geratzen dira. Espainian adingabeak berariaz babesteko bidean dagoen lege bat dago, egungo indarkeria digitalak aise gainditu baititu pasa den mendeko 90eko hamarkadako legeetan zehaztutakoa. Legegilea eztabaidan ari den bitartean, teknologiak aurrera egiten du eta milaka emakumek gorputzak sexualizatuta ikusten dituzte denbora errealean.