Zure ahizparekin eztabaidatzen duzu. Zerbait mingarria esan diozu. Badakizu pasatu egin zarela, baina berak ere errua izan duela uste duzu. Txatbot bati kontatzen diozu, eta honek horrela erantzuten dizu: “Primera ulertzen dut zure jarrera. Zure erreakzioa ulergarria da egoera ikusita”. Elkarrizketatik ateratzen zara lehen baino konbentzituago arrazoia zenuela. Eta jada ez duzu ahizpari deitzeko gogorik.
Hori dahain zuzen ere, informatikako eta psikologiako profilak uztartuz, Stanford eta CarnegieMelloneko ikertzaile talde batek hil honetan bertanScience aldizkarian argitaratutako ikerketa batek neurtu duena. Haren ondorioa argia bezain kezkagarria da: adimen artifizialeko sistema nagusiek erabiltzaileak entzun nahi duena esateko joera dute, oker egon arren. Baita egin duena kaltegarria izan denean ere.
MyraCheng buru zuen taldeak hizkuntza-eredu aurreratuen hamaika sistema ebaluatu zituen –horien artean, GPT-4o, Claude eta Gemini, baita kode irekiko beste batzuk ere–, ia hamabi mila kasurekin: eguneroko aholku-galderak, Reddit r/AmITheAsshole foroko pertsonen arteko dilemak, eta kaltegarriak izan daitezkeen jokabideen deskribapen esplizituak.
Araua, ez salbuespena
Ereduak erabiltzaileen ekintzak gizakiek baino % 49 gehiago balioztatu zituzten. Baina daturik adierazgarriena Redditen forotik dator. Komunitateak gehiengoz mezuaren egilea erruduna zela erabakitzen zuenean, txatbotek % 51 kasutan arrazoia ematen zioten. Gizakiek, inoiz ez.
Ez da alborapen txiki bat, ezta kasu isolatuak ere. Aztertutako eredu guztietan nagusi den joera da.
Mikel Galar, ikerketatik kanpo dagoen eta Nafarroako Unibertsitate Publikoko Konputazio Zientzietako eta Adimen Artifizialeko irakasleak, Science Media Centre Españari egindako adierazpenetan azaldu duenez, joera hori ez dator bat orain arte gehien aztertu direnekin. “Orain arte gehien aztertutako beste alborapen batzuekin alderatuta, hala nola generoarekin, adinarekin edo arrazarekin lotutakoak, fenomeno horrek erakusten du ereduek erabiltzailearen jarrera balioztatzeko edo babesteko joera dutela, baita testuinguru problematikoetan ere”, dio.
Beste joera batzuk ez bezala, horrek ez du bereizten nor zarenaren arabera. Pentsatzen duzunaren gainean eragiten du. Galarrek, halaber, ohartarazpen bat gehitzen du: “Komenigarria litzateke emaitzak beste populazio-profil batzuetara zenbateraino orokortzen diren egiaztatzea”.
Benetako gatazkak, benetako ondorioak
Benetako pertsonengan duen eragina neurtzeko, taldeak hiru esperimentu diseinatu zituen, 2.405 parte-hartzailerekin. Lehenengo bietan, boluntarioek pertsonen arteko gatazka-egoera hipotetikoak irakurtzen zituzten, eta txatbot baten erantzuna jasotzen zuten: lausengaria kasu batzuetan, zintzoa besteetan. Lausengatzaile erantzuna jaso zutenek arrazoia zutela gehiago sentitu zuten, eta barkamena eskatzeko prestutasun txikiagoa erakutsi zuten. Barkamena eskatzeko borondatearen murrizketa % 28ra iritsi zen. Interakzio bakar batekin.
Pablo Hayak, Madrilgo Unibertsitate Autonomoko Informatikako Hizkuntzalaritza Laborategiko ikertzaileak, eta baita ikerketatik at dagoenak ere, perspektiban jarri du aurkikuntza Science Media Centre Españari egindako adierazpenetan: “Horrek autokritikarako gaitasuna murrizten du, erantzukizun pertsonala murrizten du eta pertsonek akatsak zuzentzeko edo beste batzuekin dituzten gatazkak konpontzeko joera txikiagoa dute”.
Hirugarren esperimentuak fikzioa ezabatu zuen. Parte-hartzaileek beren bizitzako benetako gatazka bat gogoratzen zuten eta denbora errealean eztabaidatzen zuten, zortzi elkarrizketa-txandatan, txatbot lausengari batekin edo zintzo batekin. Eredu lausengatzailearekin hitz egin zutenek, % 25 gehiago sentitu zuten arrazoia zutela, eta % 10 gutxiago egon ziren kaltea konpontzeko prest.
Ondoren inplikatutako beste pertsonari idatzi zizkioten gutunetan, soilik % 50ek barkamena eskatzen zuen edo akatsen bat aitortzen zuen. Eredu zintzoarekin hitz egin zutenen artean, ehuneko hori % 75era igotzen zen. AA lausengatzaileari aholkua eskatu zioten lau pertsonatik batek ez zuen barkamenik eskatu, eredu zintzo batekin hitz egin izan balu egingo zuen arren.
Merkatuak ez du zuzentzen
Eredu lausengatzaileekin elkarreragin zuten parte-hartzaileek hobeto baloratu zituzten, fidagarriagoak zirela iritzi zioten eta berriro kontsultatzeko asmo handiagoa erakutsi zuten. Ereduarekiko konfiantza % 6 eta % 9 artean handitu zen, eta berriro itzultzeko asmoa %13 igo zen.
Entzun nahi duzuna zenbat eta gehiago esaten dizun, orduan eta gehiago itzultzen zara.
Horrek egileek pizgarri maltzurra deitzen dutena sortzen du: erabiltzaileek eurek beren fideltasunarekin saritzen dute kalte egiten dien portaera. Lausenguak erabiltzaileak erakartzen baditu, merkatuak ez du zuzentzen. Indartu egiten du.
Kezkagarriena da hau ez dela sistemaren akats bat. Bere aurreikusitako funtzionamendua da. Ikertzaileek beraiek ohartarazten dute ereduak erabiltzailearen gogobetetasuna maximizatzeko optimizatzen direla. Erabiltzaileak hobeto baloratzen du arrazoia ematen dion erantzuna. Eta balorazio horrek entrenamendua atzeraelikatzen du. Lausengua ez da helburu esplizitua. Sistema hauek nola entrenatzen direnaren ondorio aurreikusgarria da.
AA batekin hitz egiten ari zarela jakiteak ere ez zaitu immune egiten. Erantzuna txatbot batetik zetorrela zekiten parte-hartzaileek apur bat gutxiago baloratzen zuten, baina eragin bera jasaten zuten.
Falta den ikuspegia
Erantzun lausengariek beste aldearen ikuspegia baztertzen dute. Ia inoiz ez dute aipatzen inplikatutako beste pertsonaren ikuspuntua. Erabiltzailean jartzen dute fokua, haren sentimenduetan eta haren ikuspegian. Eta gabezia horrek ondorioak ditu. Aurrean dugun pertsona kontuan hartzeari uzten diogunean, harremana konpontzeko prestutasuna gutxitu egiten da.
Aholkua eskatzearen helburua gure ikuspegia zalantzan jarriko duen beste perspektiba bat lortzea da, gure puntu itsuak agerian utziko dituena. Aholku neutralez mozorrotutako baldintzarik gabeko balidazioa jasotzeak inori galdetu ez bagenio baino okerrago utz gaitzake.
Zer egin daiteke
Eta hau ez da erabiltzaile-profil jakin batzuekin bakarrik gertatzen. Lausenguaren efektua ez dago profil demografikoaren, aurretiazko AArekiko ezagutzaren edo nortasun-ezaugarrien mende. Areagotzen duena solaskidea objektibo eta inpartzial gisa hautematea da. Eta hori da, hain zuzen, jende askok adimen artifizialari buruz pentsatzen duena.
Egileek proposatzen dute ereduak optimizatzea erabiltzailearen epe luzeko ongizatea kontuan hartuta, ez bakarrik berehalako gogobetetasuna lortzeko, eta gobernuek merkatura atera aurretik auditoretzak exijitzea. Era berean, erabiltzaileari zuzendutako esku-hartzeak planteatzen dituzte: AA nola funtzionatzen duen azaltzeko alfabetatze-programak edo gehiegizko balioztatzerako duen joerari buruzko ohartarazpenak, desinformazioari aurre egiteko garatutakoen antzekoak.
Ikasi gabeko ikasgaia
Sare sozialekin egindako analogia saihestezina da, eta ikertzaileek beraiek ere aipatzen dute. Urte luzez, plataformek beren algoritmoak optimizatu zituzten interakzioa maximizatzeko, inork sakon aztertu gabe horrek pertsonengan zer eragin zuen. Emaitza aski ezaguna da.
Estatu Batuetako nerabeen ia heren batek dio elkarrizketa serioetarako AAra jotzen duela beste pertsonengana jo beharrean, CommonSense Mediaren datuen arabera. Hogeita hamar urtetik beherako helduen ia erdiek harremanei buruzko aholkua eskatu diote, KinseyInstituteren urteroko inkesta baten arabera. AA horrek sistematikoki esaten badie arrazoia dutela, haien ekintzak ulergarriak direla eta arazoa beti bestean dagoela, emaitza ez da izango beren buruarengan konfiantza handiagoa duen jendea. Besteekin ulertzeko gaitasun txikiagoa duen jendea izango da.