ARGAZKIA / Aitana Pasalodos
Joanes Plazaola
2023/12/02

Galdera: Zein helburu du makineriak?

Erantzuna: Bestela eskuz egin beharko litzatekeen lana modu azkarragoan eta perfektuagoan egitea.

Galdera: Orduan norena behar luke makineriak?

Erantzuna: Lan hori egiten dutenena, langileena…

Galdera: Nortzuk dira makineria horien asmatzaileak?

Erantzuna: Ia beti langileak.

Galdera: Orduan zergatik ez dute langileek makineria beraientzat erabiltzen?

Erantzunik ez!

- The Pioneer 1833

Youtuben eduki berria gomendatzeko, testuak itzultzeko, eguraldia iragartzeko, ibilgailu autonomoak bakarrik gida daitezen, industrian pieza bat noiz hautsiko den aurreikusteko edota azkenaldian, ChatGPT-ren agerpenarekin, ia edozein testu sortzeko eta ia edozein galdera erantzuteko erabiltzen da Adimen Artifiziala (AA). Hori dena egiteko behintzat balio du, baina zer da Adimen Artifiziala? Adimen Artifizialak sortutako liluraren ondorioz, gehiegitan zentzu tekniko hutsean hausnartzen da, zer egin dezakeen galdetuz, zer den, nola funtzionatzen duen… Gutxitan aurkitzen dugu, baina, gaur egungo gizartean betetzen duen funtzioaren gaineko hausnarketarik. Alde batetik, makina makina delako, baina hori teknikoki azken milimetroraino aztertuta ere ez genukeelako kapitalismoan betetzen duen funtzioaren arrastorik izango. Artikulu honetan galdera horiei eta beste batzuei ere erantzuten saiatuko naiz, zentzu teknikoenetik eta filosofikoenetik pixka bat aldendu, eta Adimen Artifizialak gure gaur egungo sisteman betetzen duen funtzioan zentratuz, hau da, automatizazioan.

Gutxitan aurkitzen dugu gaur egungo gizartean [Adimen Artifizialak] betetzen duen funtzioaren gaineko hausnarketarik. Alde batetik, makina makina delako, baina hori teknikoki azken milimetroraino aztertuta ere ez genukeelako kapitalismoan betetzen duen funtzioaren arrastorik izango

ATZERA BEGIRA

Adimen Artifiziala automatizaziorako oso tresna garrantzitsua da, eta bere hastapenetatik egon da Kapitalarekin eta Estatuarekin lotuta. Bigarren Mundu Gerraren ostean egin zuen bere lehen agerpena, garapen industrialerako lehen automatizazio-teknologiekin batera, antolatutako industria-langileen aurka egiteko. 1960ko hamarkadan, esperotako emaitzarik eman ez zuenez, ordura arteko inbertsioa asko murriztu zen, eta AAren “negua” izenekoa heldu zen. 1970-1980 artean etorri ziren sistema adituak, eta hainbat alorretako langile kualifikatuen jakintza elkarrizketa luzeen bidez jasotzeko eta automatizatzeko balio izan zuten. Orduko ikerlariek ere zuzenean lan-prozesuen automatizazioarekin lotu zituzten sistema horiek, apaingarri askorik gehitu gabe [1]. Sistema horiek oso lan zehatzetarako balio zuten, alor jakin batean erabiltzeko, eta ez ziren egoera ezberdinetara moldatzeko errazak. Muga horiek gainditzeko hainbat ikerketa egiten hasi ziren, sistema orokorragoak eta moldagarriagoak lortzeko, hots, Adimen Artifizial Orokorra (AGI, Artificial General Intelligence) erdiesteko. Azken hori ez zen posible izan; hala ere, sistema adituek industrian izan zuten eraginaren ondorioz, AArekin lotutako lehen ikasketak agertzen hasi ziren, industrian zegoen jakintza-hutsune hori betetzeko asmoz [2].

GAUR EGUN

Gaur egunera etorrita, Adimen Artifizialari buruz hitz egiteak Ikasketa Automatikoari (IA) buruz hitz egitea esan nahi du, zehatzago, Ikasketa Sakonari (Deep Learning) buruz. Artikulu honetan zehar Adimen Artifizialari buruz ariko garenetan, gehien-gehienetan azken horri buruz arituko gara. Ikasketa automatikoaren helburua datuetatik patroiak ateratzea da, eta ateratako patroi horietatik eredua deitzen zaion algoritmo bat lortzea. Problema bat ebazteko eman beharreko urratsen deskribapena da algoritmoa, soluzio hori automatizatu nahi bada ezinbestean behar dena. Batzuetan, ez daukagu algoritmorik, ez dakigu zein den problema ebazteko modua, baina baditugu problemarekin lotutako informazioa edo datuak. Kasu horretan, IA erabiliz zuzenean lor dezakegu datu horien atzean ezkutatzen den algoritmoa edo logika (horri entrenatzea deitzen zaio), eta behin eredu hori lortuta, datu berrien soluzioa eskuratzeko ere erabil daiteke. Hobeto ulertzeko adibide baten bidez ilustratu genezake: tumore bat onbera edo gaiztoa den identifikatzeko sistema bat jarri nahi dugu martxan, irudi bat hartu eta tumorea sailkatzeko gai izango dena. Aurrez, eskuz diagnostikatu diren milaka tumoreren argazkiak beharko ditugu horretarako, bai irudia, baita horietako bakoitza onbera/gaiztoa den esaten duen adierazlea ere. Horrela, sailkatzeko aurretik medikuek erabili duten logikaren berririk izan gabe, alde bateko zein besteko kasuetatik patroiak aterako dira, eta etorkizunean beste kasu bat datorrenean iraganeko kasuetatik ateratako jakintza hori erabili ahal izango da iragarpena egiteko orduan.

Garbi izan beharko genuke, beraz, datuetan oinarritzen dela Adimen Artifiziala, daturik gabe ez dela ezer, eta, hortaz, gaian adituek iraganean egindako lan horretan oinarritzen dela. Horrez gain, ikasketa automatikoa bera automatizatzeko saiakerak ere badaude: Auto ML edota Auto Labelling direlakoak dira horren adibide [3][4].

Garbi izan beharko genuke, beraz, datuetan oinarritzen dela Adimen Artifiziala, daturik gabe ez dela ezer, eta, hortaz, gaian adituek iraganean egindako lan horretan oinarritzen dela

Azken urteotako berrikuntzek geroz eta lan konplexuagoak egiteko gaitu dute Adimen Artifiziala, baina lan konplexu horiek datu askoz ere gehiagoren eta konputagailu gero eta indartsuagoen beharra dute, eta, ondorioz, horretarako aukera ia soilik teknologia-enpresa erraldoiek dute.

DATU GOSEA

Konputazio beharraren gorakada datu kopuruaren gorakadarekin batera ulertu behar da, konplexutasun handiko sistema lortu nahi bada asko handitzen baita behar den datu kopurua ere. Horren garrantziaren erakusle izan dira azkenaldian hain modan dauden hizkuntza eredu handiak (ChatGPT, Bard eta enparauak). Eredu horiek entrenatzeko ezinbestekoak izan dira milaka eta milaka testu gigabyte, kalitatezkoak. Datu multzo horiek nolakoak diren ulertzeko, CommonCrawl erabil daiteke erreferentzia gisa, zeinak milioika giga datu gordetzen duen 2008tik gutxi gorabehera Interneteko web-orrialde gehienen kopiak eginez. Hor sartzen dira milioika liburu, milioika kode-lerro, milaka artikulu zientifiko zein Wikipediako orrialde. Datu kopuruak, baina, ez du dena esaten; kalitateak du hor garrantziarik handiena. Gauzak horrela, CommonCrawl-en datuetan oinarritu eta filtro prozesu baten ostean kalitate handiagoko zenbait datu multzo sortu dira: C4, Red Pajama Datav2, edota The Pile [5-7].

Ereduak sortzeko orduan datuek duten garrantziaz jakitun, datuak biltzeko plataformak jarri dituzte martxan enpresa teknologiko erraldoiek, edota aurretik helburu hori ez zuten sare sozialak horretara bideratu dituzte. Meta taldea Instagramen, Facebooken eta Whatsappen jabea da, besteak beste. Googlek, bilatzaileaz harago, Drive, Maps, Chrome, Youtube, Android, Gmail, Meet, Translate edota Classroom plataformak garatu ditu, horietako asko guztiz doakoak. Azkenaldian, gainera, kodea automatikoki sortzeko gaitasunean atzean gelditzen ari zenez, Google IDX sortu du, online kodea editatzeko plataforma bat, non adimen artifizialeko ereduak hobetzeko aukera emango dioten milioika kode-lerrotara sarbidea izango duen. Datuek ematen diete, hortaz, enpresa horiei kalitate bereizgarri hori, eta beraien plataformetatik ateratako informazioa ezinbestekoa da AA industrian dagoen lehian aurrea hartu ahal izateko. Bereziki deigarria eta kezkagarria da zentzu horretan eskoletan, publikoetan zein itunpekoetan, nagusitu den joera: doako zerbitzuen gozokia ahora eramaten ari diren bitartean, Googleren Chromebook, Drive eta Classroom bihurtu dira ikasleen eguneroko ogi, eta datu horien jabe da orain Google [8].

Baina ez dago zertan plataforma horietara jo datu sorkuntzari buruz hitz egiteko, gure egunerokoa datu-bilketa erraldoi bihurtzen ari baitira azkenaldian: mugikorraren posizioarekin, sare sozialen erabilerarekin, errepideetako kontrolarekin (kameren bidez, bidesarien bidez, TAO makinen bidez), edota gero eta sarriago kaleetan ikusten ditugun kamerekin. Hori dena ez da kasualitatea; datu-bilketak bijilantzia dakar, eta etekinak datu-bilketa duenean ardatz, Kapitalak bijilantzia behar du. AA eta bijilantzia, hortaz, eskutik doaz.

[...] gure egunerokoa datu-bilketa erraldoi bihurtzen ari baitira azkenaldian: mugikorraren posizioarekin, sare sozialen erabilerarekin, errepideetako kontrolarekin (kameren bidez, bidesarien bidez, TAO makinen bidez), edota gero eta sarriago kaleetan ikusten ditugun kamerekin

KONPUTAZIO GAITASUNA

Adimen Artifizialaren gaitasunen gorakada, beraz, datu horiek irensteko eta horietatik ikasteko gaitasunean kokatu behar da. Beharrezko datu kopuruak gora egiteak, era berean, behar den konputazio-indarra handitzea eragiten du, eta horrekin batera entrenamendu-kostuak handitzea. Konputazio gaitasun hori handitzeak segundoko ahalik eta operazio gehien egitea esan nahi du, eta, AAren produkzioan, gaitasun horren hobekuntza Grafikoak Prozesatzeko Unitateen (GPU) erabileraren eskutik etorri da. Jokoetarako erabili ohi diren prozesagailu horiek milioika operazio matrizial egiteko aukera ireki dute 2012an lehenengoz entrenamendurako erabili zirenetik [9].

Lan konplexuagotarako eredu hobeak eraikitzeak datu gehiago ustiatu beharra eskatzen du, eta horrek, aldi berean, GPU gehiago eta indartsuagoak erabili beharra. Mundu mailako eredurik sortzerik ez dago, horretarako konputazio gaitasunik gabe, eta gaur egun horrek milioika euroko kostua du. Urtetik urtera, gainera, handituz doaz behar den GPU kopurua eta horien gaitasuna; hori dela eta, punta-puntako ereduak sortzeak behin eta berriz inbertsio handiak egitea eskatzen du. Hori egiteko gaitasuna teknologia-enpresa erraldoiek soilik dutenez, baliabide horiek errentan jartzen dizkiete haiek enpresa txikiagoei edota ikerketa taldeei, beren hodeiko plataformen bidez. Zentzu horretan, Adimen Artifizialeko ereduak sortzen dituzten enpresa zein ikerketa-zentro gehienek menpekotasun zuzena dute plataforma horiekiko, eta ondorioz, plataforma horien jabe diren enpresekiko.

NVIDIA, Intel eta AMD dira GPUen merkatuko aktorerik garrantzitsuenak; hala ere, merkatuaren %70 NVIDIAren esku dagoela kalkulatzen da [10]. NVIDIAk laukoiztu egin ditu bere etekinak azken bi urteotan, eta burtsako bere kotizazioa %200 baino gehiago igo da 2023an. Eredurik sinpleenetik hasi eta ChatGPT edo DALL.E bezalako eredu konplexuetaraino, guztiak entrenatzen dira NVIDIAren GPUekin. Eredurik sinpleenetan nahikoa izan ohi da GPU batekin; besteetan, berriz, GPU indartsuenetakoak beharko dira, milaka. GPT-4ren (ChatGPT-ren bertsio berritua) entrenamendurako, 25.000 NVIDIA A100 erabili ziren [11] 90-100 egunez. Entrenamendu horren dimentsioaz jabetzeko: merkatuko onenak diren GPU horietako bakoitzak 20.000 dolar inguru balio du, horiek 100 egunez martxan izateak duen gastu elektrikoa izugarria da, eta inpaktu ekologiko ikaragarria du [12].

Amaitzeko, bi aktore oso garrantzitsu falta dira, industria horren kapital-kontzentrazioaren erakusle direnak. Alde batetik, TSCM (Taiwan Semiconductor Manufacturing Co Ltd), NVIDIAren txip guztien produkzioaz arduratzen den enpresa. NVIDIAren gisako enpresek GPUen txipak diseinatu soilik egiten dituzte, eta prozesuak daukan konplexutasunaren ondorioz, TSCMk produzitzen ditu. Munduko txip aurreratu gehienak bertan egiten direnez, enpresa horiek guztiek TSCMrekiko garatu duten menpekotasuna handia da oso [13]. Bestetik, ASML enpresa nederlandarra daukagu, maila bat beherago prozesuan. Litografia makinak produzitzen ditu horrek, eta teknologia horri esker da gai TSCM hain txip txikiak eta modernoak ekoizteko. ASML Europa osoko enpresa teknologikorik garrantzitsuena dela esan daiteke [14], munduan bakarra den teknologia bat garatzera heldu delako mikrotxipen produkziorako. Horrek erakusten du kate horrek enpresa bakar batekiko duen menpekotasuna, eta horrek etorkizunari begira izan dezakeen eragina. Gainera, Adimen Artifizialaren oinarri fisikoa eta materiala mahai gainean jartzeko aukera ematen digu.

ADIMEN ARTIFIZIALAREN INDUSTRIA

Arlo fisikoenari heldu ostean, Adimen Artifizialaren industriaren azterketa osatu bat egitea dagokigu, parte-hartzaile bakoitzaren funtzioa identifikatzeko eta beren arteko loturak argitzeko. Industria horren barruan, hainbat motatako parte-hartzaileak identifika daitezke: teknologia erraldoiak, startup-ak edo think tank delakoak, besteak beste. Estatuek ere badute beren tokia industriaren barruan, baina horri geroago helduko diogu, nazioarteko egoeraren azterketa txiki baten bidez.

Hasteko, teknologia-enpresa erraldoiak ditugu, denok ezagutzen ditugunak: Google, Microsoft, Amazon, Meta… Teknologia-enpresa erraldoien funtzioari dagokionez, esan daiteke AAan oinarritutako bi salgai mota sortzen dituztela: alde batetik, kontsumora bideratutakoak, eta, bestetik, beste enpresa batzuen kapital finko bihurtuko direnak. Azken horren erakusle da hodeiko plataformek izan duten gorakada (Amazon Web Services, Microsoft Azure, Google Cloud Platform edota Alibaba Cloud, garrantzitsuenak aipatze aldera). AAri buruzko ikerketa bat egiteko behar den konputazio-indarra gero eta handiagoa denez, enpresa gehienentzat ezinezkoa da hardware hori jabetzan izatea, eta, horren ordez, hornitzaile horiei hartzen diete errentan. Bestalde, mota horretako enpresek startup-ik erakargarrienak erosten dituzte. Horren adibide da Googlek, 2010etik 2023 urtera, 21 AA startup erosi izana. Horien artean ezagunena Deepmind da, 500 miloi dolarretik gorako inbertsio bidez erosi zuena 2014an [15]. 

Startup-ei dagokienez, esan daiteke horiek sortzeko joera handia dagoela Adimen Artifizialaren bueltan, oro har, arrisku-kapitalaren inbertsiopean. Startup horien kopurua oso aldakorra da, horietako askok porrot egiten dutelako, eta beste batzuk konpainia handi horiek erosten dituztelako, izan beraien produktuetatik onura ateratzeko, izan lehia merkatutik ezabatzeko. Gainera, erosten ez diren startup horietako gehienak, azpiegitura aldetik lotuta daude jada teknologia-enpresa erraldoi horiei, euren teknologia edota zerbitzuak erabiltzen dituztelako. Argi dago funtzio nagusia betetzen dutela industriaren barruan, berrikuntza kapitalistarena, soilik (etekina sortzeko) balio duten horiek biziraungo baitute.

Think tank edo azterketa-kabineteak ikerketa-instituzio pribatuak dira; akademiak, gobernuek zein industriak finantzatuak gehienak. Esaterako, Google moduko enpresek irudia asko zaintzen dute, eta horrelako instituzioetako partaide izan ohi dira. Gizartean AAk izan ditzakeen ondorioak aztertzen dituztela esaten dute, baina, gehienetan, euren irudia zuritzeko balio izaten dute: industria belikoarekin daukaten lotura edota periferiako lurraldeetan egindakoa ezkutatu eta gizakiaren garapenaren eramaile moduan aurkezten dute, horrela, euren burua.

NAZIOARTEKO LEHIA 

Esan bezala, estatuek ere oso zeregin garrantzitsua betetzen dute industria horretan. Ameriketako Estatu Batuak izan dira, duela gutxira arte, gai horren inguruan aginte-makila eraman dutenak, bertan baitago Silicon Valley entzutetsua eta bertakoak baitira teknologia-enpresa erraldoi asko. Azken urteotan baina, egoera guztiz aldatzen ari da. Munduko edozein superpotentziarentzat arlo estrategiko bat da Adimen Artifiziala, eta borroka horretan murgilduta daude, batez ere, Estatu Batuak eta Txina. Garrantzia du alor militarrean, ekonomikoan, osasungintzan, eta, batez ere, garrantzia du norbera erreferente gisa aurkezteko beste herrialdeen aurrean, azkarrenak ezartzen baititu, sarritan, erabilerari dagozkion estandarrak eta arauak. 

Munduko edozein superpotentziarentzat arlo estrategikoa da AA, eta borroka horretan murgilduta daude, bereziki, AEB eta Txina. Garrantzia du alor militarrean, ekonomikoan, osasungintzan, eta batez ere, garrantzia du norbera erreferente gisa aurkezteko beste herrialdeen aurrean, azkarrenak ezartzen baititu, sarritan, erabilerari dagozkion estandarrak eta arauak

Txinaren kasuan, 2017an aurkeztu zuen Adimen Artifizialerako Garapen Plana, 2030erako Txina AA industriako lider bihurtzea helburutzat duena. Ikerketan, artikulu zientifiko aipatuenetan eta patenteetan lehena da, eta gero eta erreferente handiagoa bihurtzen ari da ikerlarientzat. Horrez gain, kontuan izan behar da munduko gainerako herrialde guztietakoak batuta baino robot gehiago dagoela Txinan, 2021az geroztik roboten instalazioa munduan %31 hazi den honetan, apustua zentzu akademiko hutsean egin ez duen seinale.

AEBetan, 2018an, 2.000 milioi dolar bideratu ziren Adimen Artifizialaren ikerketara. 2018tik 2023ra, berriz, AAren ikerketarako eta garapenerako aurrekontua % 228 igo da, 560 milioitik 1.800 milioira [16], eta defentsarako AAren ikerketarako eta garapenerako aurrekontuak % 26ko igoera izan zuen 2022tik 2023ra. Aurten, 1.100 milioi dolar bideratuko dira horretara.

Borroka hori ez dago soilik ikerketari edo garapenari lotuta. Duela gutxi Joe Biden AEBetako presidenteak herrialdeko enpresei debekatu egin die txip aurreratuak Txinari saltzea, horrela, AEBen nagusitasuna mantentzeko ahaleginean [17]. Azken hori aspalditik datorren zerbait da, eta bi herrialdeak ari dira beste herrialdeekiko daukaten menpekotasuna murriztu nahian, batez ere, erdieroaleen produkzioari dagokionez [18-22].

KODE IREKIA IZATEAREN ONURAK

Teknologia-enpresa erraldoiek asko zaindu behar izaten dute beren izen ona, gizateriaren garapena dakartela saltzen dutenez, eta azken urteotan, izen ona kode irekiko komunitatearekin ere lotu beharra dago. AArako erabiltzen diren programei eta tresnak gehien-gehienean kode irekikoak dira, hau da, tresna horiek edonork erabiltzeko moduan argitaratzen dira. Are gehiago, 2015ean Googlek TensorFlowren kodea ireki zuenetik, industriako softwarearen zatirik handiena kode irekiko bihurtzeko joera mantendu du. Konpainia handi horiek ere kode irekia jartzen diete sortzen dituzten software gehienei, jendeak erabili ahal izateko eta erabiltzaileek beren aletxoa jar dezaten tresna hobetuz. Erraldoi horietako buruek Adimen Artifiziala demokratizatzeko asmoz egiten dutela esan arren, argi dago praktika hori oso onuragarria dela eurentzat. Norbere softwarea industriako estandar bilakatzeak esan nahi du milaka pertsonak erabiliko dutela hura: jendeak inolako diru-trukerik gabe hobetuko du software hori, hau da, doako langileak arituko dira konpainia jakin baten produktuak hobetzen. Beraretzako langile potentzialak sortzeko aukera ere emango dio horrek konpainia horri, bere softwarean espezializatutako jendea izango baitu aipatutakoaren ondorioz. Gainera, komunitate horren eraginez, software horrek garrantzitsua izaten jarraituko du aldaketa azkarreko industria batean.

Horrek bigarren ondorio bat ere badu, eta Google da horren adibiderik egokiena. Azken urteotan Tensor Processing Unit (TPU) izeneko prozesadore batzuk garatu ditu, Adimen Artifizialerako bereziki sorturiko txip batzuk. Txip horiei zuku guztia atera ahal izateko, baina, Googleren softwarea erabiltzea komeni da, hau da, Googleren softwarea erabiltzeak haren txipak erabiltzera eramaten du, eta haren txipak erabiltzeak, berriz, bere softwarea erabiltzera. Hitz gutxitan, AAren merkatuan nagusitzeko estrategia gisa erabiltzen da kode irekia.

ADIMEN ARTIFIZIALA ETA LANA

Automatizazio tresna gisa, aztertu beharreko alderdi garrantzitsu bat da lana. Bi ikuspuntutatik aztertu beharko litzateke: alde batetik, AAren produkzioan lan egiten duten aktoreen banaketa eta horien lan-baldintzak, eta, bestetik, AAk automatizazio tresna gisa izan dezakeen eragina, bestetik.

AAren produkzioan lan-mota asko aurki daitezke, baina, sinplifikatze aldera, bi taldetan banatuta aurkeztuko dira testu honetan: ereduak sortzen edo kudeatzen dituzten langileak eta ereduetarako datuak prestatzen dituztenak. Lehenak dira gurean ezagunenak, teknologia-enpresetan zein unibertsitateetan behin eta berriz aipatzen direnak; datu-zientzialariak, datu-analistak, datu-ingeniariak… Oro har, ez dute funtzio zehatzik betetzen, baina helburutzat dute datu batzuetatik produktu errentagarri bat lortzea. Soldata nahiko altuak izan ohi dituzte, eskaera baino eskaintza txikiagoa dagoelako, eta oso azkar aldatzen den industria delako. Hala ere, gero aipatuko dugun moduan, erreala da lan horiek automatizatzeko aukera. Bigarren taldeari ghost worker edo langile mamu deitu izan zaie, eta eskuz egiten dute bezeroek automatikoki egiten dela uste duten lana [23]. Hain preziatuak diren datuak prestatzeko lana betetzen dute haiek, hau da, datuak garbitzea, moldatzea edo etiketatzea. Gehienetan Amazon Mechanical Turk (MTurk) bezalako plataformen bidez lan egiten dute, ordukako lanekin, inolako kontakturik gabe, eta miseriazko soldaten truke. Langile horiek egiten duten lana ezinbestekoa da industriak dirdira egin dezan. Dena hain automatikoa eta hain ederra izan dadin, milioika eskulan-

ordu guztiz prekario behar izaten dira, nahiz eta gehienak hori ezkutatzen saiatu. Horren adibide da ImageNet datu-multzo ezaguna sortzeko 49.000 langile kontratatu behar izan zituztela MTurken bidez [24], edota ChatGPT-k eduki mingarririk edo iraingarririk sor ez zezan dozenaka langile kontratatu zituztela Kenyan, Sama izeneko enpresa baten bidez. Orduko 2 dolarren truke aritu ziren langile horiek, milaka testuren artean kaltegarriak zirenak sailka zitzaten (horien artean zeuden umeen aurkako sexu-abusuei, hilketei, suizidioari edota torturari buruzko azalpen oso grafikoak) [25]. 

Duela gutxira arte uste zen lanik errepikakorrenak –lanik astunenak– izango zirela automatizatzen lehenak. Baina badirudi alderantziz izaten ari dela, eta badu zentzurik. Alde batetik, errepikakorra den lana eskulan merkeagoaren bidez egin ohi da, eta horrek automatizatzeko interesa murrizten du, kapitalistak ez baitu inbertsiorik egingo hartatik etekinik ateratzeko aukerarik ikusten ez badu. Bestalde, lan teknikoagoak automatizatzeko interesa badago, orokorrean soldata altuagoak baitituzte langilerik teknikoenek. Era berean, lan horiei buruzko datu asko dago Interneten, eta, beraz, asko errazten du horrek automatizazio prozesua. ChatGPT-ren egileen ikerketaren arabera, teknologia horrek aukera emango luke, besteak beste, itzultzaileen, idazleen, finantza-analisten, matematikarien edota web-orrialdeen diseinatzaileen lana automatizatzeko, baita, ironia dirudien arren, Adimen Artifizialeko ereduen sortzaileen lana ere [26].

AAk ordezkatuko dituen ohiko lanpostu horiek ekonomia globalean sortuko dituen bestelako lan prekario eta errepikakor horien biderkatzearekin batera aztertu behar dira [27][28].

Adimen Artifizialak ordezkatuko dituen ohiko lanpostu horiek ekonomia globalean sortuko dituen bestelako lan prekario eta errepikakor horien biderkatzearekin batera aztertu behar dira

ETORKIZUNARI BEGIRA: JOERAK ETA HIPOTESIAK

Ez da erraza aurrera begirako joerak asmatzea, batez ere zentzu tekniko bati begiratzen badiogu. Duela bi urte ez genukeen ChatGPT-ren potentziala usaindu ere egingo, eta, hortaz, ez gara igarle lanetan hasiko orain.

Bada, baina, Adimen Artifizialaren bueltan zer ondorioztatu. Automatizaziorako tresna gisa aztertu dugu eta hor kapitalismoaren bi joerarekin uztartuta ikusi dugu: lan teknikoen automatizazioa sustatzea eta lan mekaniko prekarioak sorraraztea. Ikusi dugu gure bizitzak datuak sortzeko mekanismo bat gehiago bihurtu direla, gure datu horien bidez, gero, intereseko iragarkiak egin diezazkiguten. Ikusi dugu eredu horien sortze-prozesuak miseria erreproduzitzen duela, MTurk-en moduko mekanismoen bitartez sektore proletarioenei lanik umiliagarrienak esleitzen baitizkie. Eta ikusi dugu ekologikoki ere jasanezina dela: gero eta eredu handiagoak sortu, orduan eta konputazio behar handiagoa dago, eta are handiagoa da inpaktu ekologikoa. 

Ondorio horiek, baina, ez dira Adimen Artifizialari buruzkoak. Ez da beste modu bateko Adimen Artifizial baten aldeko eskaera bat, ezta horren garapena moteltzearen edo Estatuaren kontrola handitzearen aldekoa ere. Sistema kapitalistaren baitan kokatzen da Adimen Artifizialaren produkzio osoa, eta ezin gaitezke bestelako Adimen Artifizial baten aldekoak izan, bestelako produkzio sistema baten alde ez bagaude. 

Kapitalismoaren barruan suntsipena, lan prekarioa eta miseria dakarren horrek, agian, ekar lezake bestelakorik gizarte sozialista batean. Lanaren automatizazioa denbora libre gehiago izateari begira antolatzea, eta ez etekinaren logikaren arabera. Adimen Artifizialaren potentzial osoa gizateriaren beharren menpe jartzea.

Horretarako ez da nahikoa AAren garapena gelditzea edo geldotzea [29], ez da nahikoa enpresa erraldoi horiei boikot egitea, edota gure alternatiba etikoagoak bultzatzea [30]. Beharrezkoa da, baina ez da nahikoa. Ez dago errezeta magikorik, baina gure planteamenduak osotasunetik abiatu behar dira, produkzio-modu kapitalista gainditzeko beharra hauspotzera eta indartzera bideratuta. Gaitasun teknikoak (ere) iraultza sozialistaren beharretara jarrita.

Ez dago errezeta magikorik, baina gure planteamenduak osotasunetik abiatu behar dira, produkzio-modu kapitalista gainditzeko beharra hauspotzera eta indartzera bideratuta. Gaitasun teknikoak (ere) iraultza sozialistaren beharretara jarrita

ERREFERENTZIA OROKORRAK 

Artikulu hau batez ere Automation and Autonomy: Labour, Capital and Machines in the AI industry liburuan oinarritzen da. Gehiago sakontzeko The eye of the master eta Automation and the future of the work liburua gomendatzen da.

[1] E. A. Feigenbaum, P. McCorduck, eta H. Penny, The Rise of the Expert Company. 1988.

[2] A. Roland, Strategic Computing: DARPA and the Quest for Machine Intelligence, 1983-1993. 2002.

[3] Grounded-SAM Contributors, “Grounded-Segment-Anything”. 2023ko apirilaren 6a. Online: https://github.com/IDEA-Research/Grounded-Segment-Anything

[4] Roboflow, “OpenAI vision API environments”. 2023ko azaroaren 7a. Online: https://github.com/roboflow/awesome-openai-vision-api-experiment

[5] L. Gao et al., “The Pile: An 800GB Dataset of Diverse Text for Language Modeling”. arXiv, 2020ko abenduaren 31. doi: 10.48550/arXiv.2101.00027.

[6] C. Raffel et al., “Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer”. arXiv, 2023ko irailaren 19a. Data honetan kontsultatua: 2023ko azaroaren 15a. Online: http://arxiv.org/abs/1910.10683

[7] Together Computer, “RedPajama: an Open Dataset for Training Large Language Models”. 2023ko urria. Online: https://github.com/togethercomputer/RedPajama-Data

[8] U. Apaolaza, “Google eta Hezkuntza Sailaren arteko hitzarmena argitaratu du EAEko aldizkari ofizialak”. Online: https://www.argia.eus/albistea/google-eta-hezkuntza-sailaren-arteko-hitzarmena-argitaratu-du-eaeko-aldizkari-orokorrak

[9] A. Krizhevsky, I. Sutskever, eta G. E. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks”, 2012.

[10] J. Ross, “Nvidia vs. AMD vs. Intel: Comparing AI Chip Sales”. Online: https://www.visualcapitalist.com/nvidia-vs-amd-vs-intel-comparing-ai-chip-sales/

[11] S. M. Walker, “Everything we know about GPT-4”. Online: https://klu.ai/blog/gpt-4-llm

[12] A. S. Luccioni, S. Viguier, eta A.-L. Ligozat, “Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model”. arXiv, 2022ko azaroaren 3a. Data honetan kontsultatua: 2023ko azaroaren 16a. Online: http://arxiv.org/abs/2211.02001

[13] The Economist, “Taiwan’s dominance of the chip industry makes it more important”. Online: https://www.economist.com/special-report/2023/03/06/taiwans-dominance-of-the-chip-industry-makes-it-more-important

[14] C. O’Grady eta M. Kenyon, “How ASML became Europe’s most valuable tech firm”. Online: https://www.bbc.com/news/business-64514573

[15] CBInsights, “The big tech company leading in AI acquisitions”. Online: https://www.cbinsights.com/research/big-tech-ai-acquisitions/

[16] “SUPPLEMENT TO THE PRESIDENT’S FY 2023 BUDGET”. Noviembre de 2022. Online: https://www.nitrd.gov/pubs/FY2023-NITRD-NAIIO-Supplement.pdf

[17] M. Toh eta K. Tausche, “US escalates tech battle by cutting China off from AI chips”Online: https://edition.cnn.com/2023/10/18/tech/us-china-chip-export-curbs-intl-hnk/index.html

[18] J. A. Lewis, “China’s Pursuit of Semiconductor Independence”. Online: https://www.csis.org/analysis/chinas-pursuit-semiconductor-independence

[19] Q. Liu, “China’s biggest chipmaker warns geopolitics is stoking global glut”Online: https://www.ft.com/content/30e61fb3-ac48-4ece-94fb-af0c3763d99c

[20] Reuters, “China’s semiconductor state fund invests $2 billion in memory chip firm”. Online: https://www.reuters.com/technology/chinas-semiconductor-state-fund-invests-2-billion-memory-chip-firm-2023-10-31/

[21] D. Shepardson, “US reports big interest in $52 billion semiconductor chips funding”. Online: https://www.reuters.com/technology/us-reports-big-interest-52-billion-semiconductor-chips-funding-2023-08-09

[22] S. Van Sloun, “U.S. Investment in Semiconductor Manufacturing: Building the Talent Pipeline”Online: https://www.cfr.org/blog/us-investment-semiconductor-manufacturing-building-talent-pipeline

[23] M. L. Gray eta S. Suri, Ghost work: how to stop Silicon Valley from building a new global underclass. 2019.

[24] D. Gershgorn, “The data that transformed AI research—and possibly the world”. Online: https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world

[25] B. Perrigo, “OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic”. Online: https://time.com/6247678/openai-chatgpt-kenya-workers/

[26] T. Eloundou, S. Manning, P. Mishkin, eta D. Rock, “GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models”. arXiv, 2023ko abuztuaren 21a. Data honetan kontsultatua: 2023ko azaroaren 15a. Online: http://arxiv.org/abs/2303.10130

[27] A. Benanav, Automation and the Future of Work. 2020.

[28] D. Graeber, Bullshit Jobs: A Theory. 2018.

[29] Future of Life Institute, “Pause Giant AI Experiments: An Open Letter”, 2023ko martxoaren 22a. Online: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[30] Mozilla Foundation, “Mozilla Joins Philanthropic Coalition, Vice President Harris to Support Public Interest AI”. Online: https://foundation.mozilla.org/en/blog/mozilla-joins-philanthropic-coalition-vice-president-harris-to-support-public-interest-ai/

EZ DAGO IRUZKINIK