IA, gero eta agerikoagoa, baina atzematen zailagoa

Gazteen erdiek baino gehiagok ezin dute hauteman ChatGPTk edo gizaki batek idatzitako testu baten arteko aldea.

Adimen artifizialak (IA) hazkunde esponentziala izan du. Aste gutxi batzuren tartean berria zena lekuz kanpo geratzen da eta edozein aurreikuspen ere zaharkituta gera daiteke. 

OpenAIk garatu duen ChatGPT da Adimen Artifiziala mundu osoan ezezagunak ziren ospe mailetan jarri duen aplikazioa. Aplikazio horrek 300.000 milioi hitz eta 175.000 milioi parametroko datu multzo batean oinarrituta galdera ezberdinei erantzun ahal die. 570 gigabyte testu-datu ditu, hau da, gutxi gorabehera 164.129 aldiz ‘Eraztunen jauna’ serie osoko hitz-kopurua (‘Hobbita’ barne).

Pasa den urteko azaroan isil-misilka merkaturatu bazen ere, aste bakar batean milioi bat erabiltzaile lortu zituen. Hil honen hasieran, webguneak hilero 616 milioi bisitari hartzen zituela uste da. Horiek, jakina, diru-sarrera asko dakartza. OpenAI-ren diru-sarreren aurreikuspenak ChatGPT-rentzat 200 milioi dolarrekoak dira 2023aren amaierarako eta 1.000 milioikoak 2024aren amaierarako.

Ikasle eredugarria

ChatGPT-k azkar ikasten du. Adituen ustetan, azaroan merkaturatu zen lehen bertsio hori entrenatzeko nahikoa izan ziren 34 egun. Horregatik, martxoaren 14an ofizialki aurkeztu den bertsio berriak, GPT4, curriculum izugarri batekin  aurkeztu da. Aplikazioak arazorik gabe gaindituko lituzke munduko unibertsitate ospetsuenetako azterketa gehienak. Izan ere, antza denez, GPT-4 100 bilioi parametrorekin entrenatu da, aurreko bertsioak baino ia 600 aldiz parametro gehiago.

Garatzaileek adierazi dutenez, bertsio berriak mota guztietako azterketak gainditzea lortu du; berdin dio erantzun anitzeko azterketak diren edo edukia garatzeko azterketak diren. Adibidez, Estatu Batuetan abokatu izateko egin behar izaten den Uniform Bar Exam delako azterketan GPT4 aplikazioak % 90eko pertzentila lortu du. Columbia Unibertsitateko Zuzenbide Fakultatean sartzeko egin behar izaten den lanean hobetzeko aukerekin oso pozik azaltzen azterketan, berriz, % 88ko pertzentila  lortu du. Halaber, ikasleen % 80tik gora dago matematika-kontzeptuak arrazoitzeko eta ulertzeko gaitasuna neurtzen duen GRE Quantitative izeneko proban.

Eta biologian, adibidez, AEBetako Biologiako Olinpiadetako (USABO) parte-hartzaileen % 99ren aurretik geratuko litzateke.

ChatGPT-k azkar ikasten du. Adituen ustetan, azaroan merkaturatu zen lehen bertsio hori entrenatzeko nahikoa izan ziren 34 egun. 

Baina ChatGPT edo GPT-4 ez dira IAren adibide bakarrak. Google-k eta Microsoft-ek adimen artifiziala barneratu nahi dute haien aplikazioetan. Google-k, adibidez, algoritmo batek posta elektronikoak idaztea edo Google Docs-ek hain ondo ez dauden testuak berridaztea lortu nahi du.

Microsoft 365 aplikazioak, berriz, dokumentuak, posta elektronikoko mezuak eta aurkezpenak sortzen lagunduko duen ‘pilotukide’ bat garatu nahi du.

Eta, Midjourneyk, irudiak sortzen dituen motor batek, irudi hiperrealistak aurkezten dituen bertsio berri bat aurkeztu du, baita argazki-kameren eredu analogiko batzuen estetika imitatu ere.

Gaitasun kritikorik eza

Hil honen hasieran The New York Times egunkarian argitaratu den artikulu batean, Noam Chomsky filosofoak, Ian Roberts hizkuntzalaritza irakasleak eta Jeffrey Watumull IAko adituak ziotenez, adimen artifizialaren garatzaileek aurkezten dituzten aurrerapenek “baikortasuna eta kezka eragiten dituztela” adierazi dute, baina aldi berean horren “amoraltasunaz, zientzia faltsuaz eta hizkuntza gaitasun ezaz” ohartarazten dute. Izan ere, autoreak beldur dira ikaskuntza automatikoa deiturikoak ez ote duen, teknologiari hizkuntzaren eta ezagutzaren ikuskera funtsean okerra gehitzean, gure zientzia ahulduko eta ez ote duen gure etika doilortuko.

Egileentzat aplikazio horiek ez dira ‘adimentsuak’ ez baitute gaitasun kritikorik. ‘Dena’, ‘izan dena’ eta ‘izango dena’ deskribatu eta iragarri ahal duten arren, ez dute ‘ez dena’ edo ‘izan ezin dena’ azaltzeko gaitasunik.

Chomsky, Roberts eta Watumull-en ustez “adimen artifizialaren akatsik handiena edozein adimenek duen gaitasun kritikoaren falta da” eta ChatGPT bezalako aplikazioek, printzipioz, ikasteko, hots memorizatzeko, mugarik ez duten arren, “ez dute posible denaren eta ezinezkoa denaren artean bereizteko gaitasunik”.

Chomskyk lehendik ere kritikatu zuen ChatGPT Youtubeko EduKitchen izeneko hezkuntza-kanalari eskainitako elkarrizketa batean. Bertan, horrelako aplikazioak “plagiorako teknologia aurreratuak” direla eta hezkuntza alde batera uzteko bidea ematen dutela salatu zuen. Bere esanetan “hainbat urtez irakasleek kopiatutako lanak hautemateko aplikazioez baliatu dira, baina hori gero eta zailagoa izango da”.

Aukerak eta erronkak

Printzipioz, IAn egindako aurrerapenek laguntza medikoa hobetzen, ibilgailuak eta bestelako garraiobideak seguruagoak egiten eta produktuak eta zerbitzuak pertsonalizatuak, merkeagoak eta iraunkorragoak izaten lagun dezakete. Enpresei ere negozio egiteko hainbat ate zabaltzen dizkie.

Baina historian zehar ikusi ahal den moduan, teknologia guztiek arriskuak eta mehatxuak dituzte. Gakoa, nola ez, erabileran dago.

Burura etortzen den lehen arriskuak enpleguarekin du harremana: IArekin milioika enplegu suntsituko dira. Egia da beste lanbide berri batzuk ere sortu ahal izango direla, baina ez dago garbi zein eta zenbat.

Gainera, badira oraindik ere argitzeko diren hainbat kontu. Adibidez, nor izango da IAn oinarrituta lan egiten duen zerbitzu edo gailu batek, adibidez, ibilgailu autonomo batek, eragin ditzakeen kalteen erantzule?

Horrez gain, hainbat adituren ustez mehatxurik handiena demokraziaren eta giza eskubideen esparruan eman daiteke. 2016. urtean Facebook eta Cambridge Analyticarekin jazotakoa txikikeria da IAk eragin ahal duenarekin alderatuta.

Arriskuak

Europako Batzordeak ohartarazi du “diseinua eta datuak alboratzeko aukera dagoela, nahita edo nahi gabe”. Aurreikusten diren arriskuetako bat, adibidez, “langileak kontratatzeko edo kaleratzeko, maileguak eskaintzeko edota prozesu penaletan, etniak, sexuak edo adinak baldintzatutako erabakiak hartzea” litzateke. Hau da, adimen artifiziala informazio partzialarekin entrenatzen bada, emango dituen erantzunak edo ondorioak ere partzialak izango dira.

IAk ere arriskuak dakartza pribatutasunerako eta datuen babeserako, besteak beste, aurpegi-ezagutza ekipoetan erabiltzen delako. Ildo berean, demokraziarako arriskutsua ere bada, Europako Batzordeak dioenez, “Internet bidezko eko-kamarak” sortzen dituelako eta eduki espezifikoak soilik aurkez ditzakeelako.

Eko-kamarek informazio errepikakorra eta partziala aurkezten dute sistema hermetiko baten barruan helburu zehatz bat lortzeko: erabiltzailearentzat hurbilekoak eta erakargarriak diren edukiak dituzten ideiak edo sinesmenak sortzea eta indartzea.

IA sistemak bideo, audio edo irudi faltsuak sortzeko ere erabil daitezke. Hor dira ‘deepfake‘ izenarekin ezagutzen diren eduki errealistak.Horrelako edukiek finantza-arriskuak, izen oneko kalteak eta erabakiak hartzeko arazoak ekar ditzakete.

Horrek guztiak eremu publikoan polarizazioa eragin lezake, baita hauteskundeak manipulatzea eta demokrazia faltsutzea ere. Zer gertatuko litzateke hauteskunde batzuetarako bi egun falta direnean hautagai baten bideo konprometigarri baina faltsu bat argitaratuko balitz? Jende askok pentsatuko luke bideoa egiazkoa dela horrela pentsatu nahi duelako eta arazorik gabe zabalduko luke. Bideo faltsu hori birala bilakatuko litzateke; hautagaiak ez luke  eduki hori ezeztatzeko astirik izango eta, ondorioz, hauteskundeen emaitzak faltsutuak izango lirateke. 

Eskubideak

Biltzeko eta protesta egiteko askatasuna ere IAren mehatxupean dago, zenbait sinesmen edo ekintzarekin lotutako pertsonak jarraitu eta kontrola baititzake.

Gizarteak duen beste arriskuetako bat ziberdelinkuentzia areagotzea da. ChatGPT-k malware garatzeko aukera eman dezake aditu bat izateko beharrik gabe, talde zibererasotzaile berriei bide emanez. Izan ere, zibererasotzaileak jada IA erabiltzen ari dira gizakiak ordezkatzeko. Adibidez, IAren bidez sortutako testuak edo ahotsak erabiltzen dira pertsona edo erakunde bat ordezkatzeko eta erabiltzaileen informazio pertsonala edo dirua lortzeko. Ondorioz, erabiltzaileoi gero eta zailagoa egingo zaigu benetako komunikazio eta komunikazio maleziatsuen artean bereiztea.

IAk sortutako edukiak hauteman al daitezke? 

Tooltester-ek galdera horri erantzuteko ikerketa bat burutu du AEB-etan; hau da, bereiz al daitezke gizakiok edo IAk sortutako edukiak? Azterlan horrek utzi duen ondorio nagusia guztiz kezkagarria da: pertsonek ezin dute bereizi IAk sortutako edukiaren eta gizakiek sortutako edukiaren arteko aldea. Batez beste, pertsonen % 46,9k baino ezin izan zuten behar bezala identifikatu IAk idatzitako edukia. Inkestan parte hartu zuten pertsonen heren batek baino gehiagok (% 36,3), berriz, IAk sortutako edukia gizaki batek sortua zela pentsatu zuen eta eta % 16,7k adierazi zuen IAren edukia zela, baina geroago gizaki batek zuzendua. Ikus daitekeen bezala, gizakion erdiak baino gehiagok ezin izan zuen IAk sortutako edukia hauteman.

IAren testuak oso sinesgarriak izan daitezke; izan ere, erdiak baino gehiagok (% 53) IAk idatzitako edukia irakurri eta, uneren batean gizaki bat tartean egon zela pentsatu zuten. Hau da, norbaitek testua zuzendu eta estiloa eta izaera eman ziola pentsatu zuten. Gainera, ikerketa horretan emaitzarik okerrenak lortu dituztenak gazteak izan dira. Bost gaztetik bik bakarrik (% 40) lortu zuten IAk sortutako edukiak behar bezala hautematea. 65 urtetik gorakoen artean, berriz, erdiak baino gehiagok (% 52) IAk sortutako edukiak behar bezala hautematea  lortu zuten.

Azterlanaren alderdi guztiz interesgarri bat da IAko tresnekin (adibidez, ChatGPT) ohituta zeudela esan zuten horiek besteek baino emaitza hobeak lortu dituztela;  % 48k IAk sortutako edukiak zuzen hauteman zituen.

Agian, entrenamendu egokiarekin eta gizakiok berez dugun gaitasun kritikoarekin, urrats handiak egiten dituen adimen berri hori detektatzeko gai izatera irits gaitezke.