AA sortzaileko tresnez ari garenean, hala nola ChatGPT edo irudiak sortzen dituzten programez, gaizki erabiltzeko arriskua benetakoa da. Hona hemen bere asmoa nola okertu daitekeen erakusten duten adibide argi batzuk:
Desinformazio masiboa: Imajina ezazu politikari bat milaka albiste faltsu sortzen minutu batzuetan bere aurkariei erasotzeko. Daborduko ez du idazle-armada baten beharrik; AAren bitartez nahikoa du zurrumurru faltsu edo azpikeriazko teoriakaz sare sozialak betetzeko.
Plagio akademikoa eta profesionala: Ikasle batzuek daborduko erabiltzen dituzte AAn oinarritutako tresnak lan osoak idazteko, benetan ikasi gabe. Maila kezkagarriago batean, idazle batek ideia edo testu osoak plagiatu ditzake aitortzarik eman gabe, jatorrizko sormenari eraginez.
Faltsifikazio arriskutsuak (deepfakes): AAk benetakoak diruditen irudi edo bideo faltsuak sor ditzake. Adibidez, manipulatutako bideo batek norbait erakuts lezake inoiz gertatu ez den zerbait egiten edo esaten. Figura publikoak gutxiesteko edo xantaia egiteko erabili izan da hori, eta, orain, bolo-bolo dabil auzi hori Elon Muskek denon eskura jarritako Grok 2 AAren ildotik. Izan ere, erreminta horrek ez du inolako mugarik pertsonaia ezagunen aurpegiak irudikatzeko.
Etika iparrorratz gisa
Orduan, nola ziurtatu dezakegu tresna horiek ez direla arazo bihurtuko? Hona hemen horien erabilera gidatu beharko luketen funtsezko printzipio etiko batzuk:
Gardentasuna: Pertsonek eskubidea dute eduki bat AA batek sortu edo manipulatu duen jakiteko. Adibidez, makina batek sortutako albiste bat irakurtzen baduzu, hori argi eta garbi adierazi beharko litzateke.
Erantzukizuna: AA garatzen dutenek ziurtatu behar dute euren tresnek ez dituztela legez kanpoko jarduerak edo jarduera kaltegarriak errazten. Gainera, erabiltzaileek horiek nola erabiltzen dituzten ere jakin beharko lukete.
Hezkuntza digitala: Desinformazioari aurre egiteko, funtsezkoa da herritarrei eduki faltsua identifikatzen irakastea. Horren barruan sartzen da pentsamendu kritikoa sustatzea eta alfabetatze digitala sustatzea.
Nola aurre egin arrisku horiei?
Hainbat aditu eta erakunde lanean ari dira arriskuak mugatzeko. Gaur egun, hainbat enpresak murrizketak ezarri dituzte euren adimen artifizialen ereduek eduki bortitza, arrazista edo engainagarria sor ez dezaten. Gainera, AAk sortutako edukia detektatzeko eta identifikatzeko tresnak garatzen ari dira, hala nola ur-marka digitalak.
Etorkizun partekatua
AA tresna bat da, ez bilau bat. Esku arduratsu batzuetan lagungarri izan daiteke istorio hobeak idazteko, publizitate-kanpaina zirraragarriagoak diseinatzeko, eta baita arazo konplexuak konpontzeko ere, osasuna edo hezkuntza bezalako arloetan. Baina edozein tresna boteretsugaz bezala, gure esku dago nola erabili erabakitzea.
Erronka oreka aurkitzean datza: bere onurak aprobetxatzea, pertsonak eta egia babestuko dituen esparru etiko bat eraikitzen dugun bitartean. Izan ere, azkenean, AAk ez du erabakitzen; guk egiten dugu.