Adimen artifiziala (AA), sarritan, gure mundu osoa eraldatuko duen teknologia-iraultza batekin lotzen da. Hala ere, teknologia horren errealitatea oraindik ez da zehatza, eta haren emaitzek zenbait akats diskriminatzaile erakusten dituzte.
Bikolabs-ek, Biko aholkularitza-enpresaren laborategiak, irudiak ezagutzeko erabiltzen ohi diren algoritmo nagusiak aztertu ditu, horien errendimendua haietan jarritako itxaropenekin bat datorren ala ez jakiteko. Aztertu diren algoritmoen artean, adibidez, Amazon Rekognition edo Google-n algoritmoa aurkitzen dira.
Ujué Agudo eta Karlos G. Liberal esperimentuaren zuzendari eta egilekideak Medium-en argitaratu den artikulu batean esperimentuaren emaitzak azaldu dituzte. “Aspaldi honetan, Adimen Artifizialaren ustezko superbotereengan jarritako fedeagatik ere, onartu behar izan dugu ez dela uste bezain objektiboa eta neutrala. Hainbat kasutan, eraginik gabekoa, diskriminatzailea, sexista eta arrazista da. Hori ez da harritzekoa; izan ere, AAren bizi-ziklo osoan dauden gizakiek bere subjektibotasun eta joerak prozesuaren fase guztietan eraman baititzakete makinara” azaldu dute.
Amazonen AAren kasuan, benetako irudi bat eta Face App bidez aldatutako beste irudi bat erabili dute (ikusi alboan den argazkia). Ezkerreko pertsonaren kasuan, ile luzea eta emakumearen ezaugarriak dituenez, AAk ez du antzematen eskuan duen objektua zulagailu bat dela. Eskuineko argazkian, berriz, gizon bat denez, bai.
Beste eredu batean, emakume batek mailu bati eusten dio, baina AAk uste du ile-lehorgailua dela; aldiz, ez du akats hori egiten irudi bera gizon baten aurpegiarekin aldatuta aurkezten zaionean.
Google-en kasuan, emakumeen argazki gehienek ‘girl’ (neska) etiketa orokorra jasotzen dute, argazkian azaltzen den emakumearen adina, itxura edo estiloa edozein dela ere. Gizonen kasuan, sistema zehatzagoa da eta ‘boy’ (mutila) etiketa orokorra erabili beharrean, etiketa zehatzagoak erabiltzen ditu.