Veštačka inteligencija (AI) ima veliki potencijal da ubrza napredak i razvoj ljudske civilizacije. Međutim, rasprostranjenija upotreba AI takođe donosi izazove za životnu sredinu kojima se mora upravljati, kao što je prekomerno korišćenje struje i vode. Potencijalne društvene koristi od veštačke inteligencije su značajne, od novih zdravstvenih tretmana do poboljšanog pristupa obrazovanju, ali se ne sme zaboraviti njen negativan uticaj ne samo na životnu sredinu nego i na socijalna pitanja, kao što su gubitak radnih mesta i diskriminacija raznih društvenih grupa. U pokušaju da se minimizira rizik upravljanja AI, potrebno je obratiti posebnu pažnju na raspodelu odgovornosti za vlasništvo i upotrebu rezultata korišćenja AI, kako se ne bi došlo u situaciju da se odgovornost pokuša pripisati entitetu „veštačka inteligencija“.
E (Environmental) rizici
Centri u kojima se nalaze velike baze podataka, neophodni za infrastrukturu veštačke inteligencije, već troše oko četiri odsto električne energije cele američke ekonomije. Kao što je poznato, velika potrošnja električne energije podstiče emisiju CO2. Da bi se smanjio uticaj na životnu sredinu, dizajn AI modela treba da bude efikasan u pogledu resursa i usklađen sa specifičnim slučajevima upotrebe. Primera radi, generativni AI modeli nisu neophodni onda kada su jednostavniji, manje intenzivni modeli dovoljni. Veštačka inteligencija može da pomogne u ublažavanju sopstvenog uticaja na životnu sredinu, kao npr. Google-ov DeepMind AI, koji je optimizacijom korišćenja energije u svojim centrima podataka uspeo da smanji 40 odsto potrošnje električne energije za hlađenje svog sistema. Optimalno rešenje problema povećane potrošnje električne energije nalazi se u korišćenju izvora obnovljive energije uz izbor hardvera za AI koji podstiče energetsku efikasnost.
Sistemi bazirani na AI zahtevaju mnogo vode za hlađenje procesora, tako da se procenjuje da će se u 2027. godini u svetu na AI trošiti oko 6,6 milijardi m³, što je više od polovine godišnje upotrebe vode u Velikoj Britaniji. Korišćenje vode može da bude svedeno na minimum kroz sisteme zatvorene petlje za hlađenje ili upravljanje otpadnom vodom tako da se ona ponovo koristi, na primer, u lokalnim sistemima za centralno grejanje.
Odgovorno upravljanje životnom sredinom zahteva održivi izvor materijala za hardver AI centara. Retki metali, kao što su litijum i kobalt, od vitalnog značaja za sisteme veštačke inteligencije, nose veliki rizik za životnu sredinu ako se iskopavaju neodgovorno. Zato je potrebno osigurati praćenje lanca snabdevanja kako bi se osiguralo da ruda koja se koristi za izradu hardvera za AI dolazi iz odgovornih rudnika. Pored toga, AI hardver često koristi toksične hemikalije i teške metale kao što su olovo, kadmijum, živa. Bez pravilnog odlaganja, oni mogu da iscure u zemlju i vodu. Zbog toga je važno da se obezbedi nadgledanje pravilnog odlaganja toksičnog otpada koji potiče od hardvera za AI, koji se više ne upotrebljava, kao i njegovo eventualno recikliranje.
S (Social) rizici
Jedan od najistaknutijih društvenih problema u vezi sa veštačkom inteligencijom je njen uticaj na tržište rada. AI će povećati produktivnost postojećih radnika i stvoriti nova zanimanja, ali veliki deo posla koji trenutno obavljaju ljudi mogao bi da bude automatizovan u bliskoj budućnosti. Vlade i kompanije zajedno treba da stvore uslove za pravednu tranziciju i obezbede obuku kako bi pomogle radnicima da se prilagode novoj realnosti na tržištu rada. Programi prekvalifikacije mogu pomoći zaposlenima da pređu na pozicije koje dopunjuju zadatke koje preuzima AI, kao što su npr. nadzor ili strategija.
Veštačka inteligencija bi mogla da poveća pristrasnost i diskriminaciju u procesima zapošljavanja. Zato je potrebno obezbediti da se AI modeli redovno revidiraju kako bi se izbegla pristrasnost, koja se prirodno javlja prilikom upotrebe mašinskog načina rada, jer je teško obezbediti da AI modeli budu obučavani na nepristrasnim podacima, što onda dovodi do nepravednog tretmana ili isključenja određenih grupa. U procesima selekcije kadrova, za sada mnogo bolje rezultate daje korišćenje veštačke inteligencije kao alata za donošenje boljih odluka, nego da se koristi kao potpuna zamena za ljudsko rezonovanje. Upravljanje veštačkom inteligencijom, s ciljem izbegavanja etičkih i regulatornih problema usled njene „bezosećajnosti“ i samim tim diskriminacije, već neko vreme se izučava na relevantnim svetskim univerzitetima i implementira u najvećim svetskim kompanijama za AI.
G (Governance) rizici
U postojećoj fazi primene AI već se ostvario rizik upravljanja, jer su regulatori u Evropi kaznili pojedine kompanije zbog toga što je veštačka inteligencija koju su razvile koristila podatke bez ovlašćenja. Kršenje privatnosti i bezbednosti podataka može se smanjiti dobijanjem odgovarajućih sertifikata po čijim pravilima će AI modeli morati da se ponašaju, kao i primenom postojećeg zakonodavstva koje se bavi podacima. Takođe, važno je naći način za upravljanje tzv. halucinacijama postojećih modela AI kako bi se izbeglo korišćenje obmanjujućih rezultata. Halucinacije se u ovom trenutku ne mogu potpuno eliminisati, ali se ovaj rizik može smanjiti npr. navođenjem referenci za sve podatke koje AI model prezentuje.
Postoji veliki broj organizacija koje nude smernice za borbu sa izazovima koje donosi rizik upravljanja kao što su Partnerstvo za veštačku inteligenciju, AI4People, The Responsible AI Institute, itd. Njihovi dokumenti pokušavaju da spreče AI da pojača pristrasnost ili napravi štetu zbog kršenja ljudskih prava ili prava pristupa, definišući ko primenjuje veštačku inteligenciju i ko je odgovoran za rezultate te primene. Takođe, nova regulativa kao što je Zakon o veštačkoj inteligenciji Evropske unije, suštinski doprinosi upravljanju ovim rizikom, tako da je samo potrebno obučiti AI modele da poštuju taj i slične zakone.
Na kraju, važno je istaći kontinuirano testiranje sopstvenog AI modela kao ključni način borbe protiv svih ESG rizika, jer je to jedini način da se izbegnu gubici od tih rizika ali i sajber pretnji, i da se obezbedi da AI modeli funkcionišu tačno kako su projektovani.