Source: iStock/gorodenkoff
Le nuove tecnologie hanno il potenziale per influenzare l'ambiente in modi dirompenti. Nella fase di crescita delle nuove tecnologie, tuttavia, questi impatti sono spesso poco chiari o sottovalutati.
Uno dei compiti principali dell'etica tecnologica è identificare in modo proattivo i potenziali danni delle tecnologie emergenti e i possibili modi per ridurli al minimo. I valori tipici considerati dall'etica della tecnologia includono il rispetto per la dignità umana e l'autonomia, la beneficenza, la prevenzione del danno, l'equità, la giustizia e la privacy.
La sostenibilità ambientale è discussa principalmente in relazione a tecnologie specifiche (come il nucleare e la biologia molecolare) e ad ambiti applicativi (trasporti, produzione di energia, agricoltura, ecc.), ma la rilevanza che le attribuiscono le valutazioni etiche varia notevolmente tra i diversi campi tecnologici.
Nel campo dell'etica dell'IA la sensibilità alla sostenibilità ambientale è ancora un concetto emergente. La sostenibilità ambientale è menzionata solo sommariamente nella bozza della legge sull'IA dell'UE e un'indagine quantitativa globale delle linee guida esistenti sull'IA pubblicata nel 2019 ha rilevato che la sostenibilità è menzionata solo in 14 delle 84 linee guida esaminate. Le recenti linee guida europee per un'IA affidabile e la raccomandazione dell'UNESCO sull'etica dell'IA riconoscono la sostenibilità, insieme al benessere della società, come uno dei requisiti chiave che dovrebbero guidare la produzione e l'uso di artefatti di intelligenza artificiale.
Ma anche quando si considera la sostenibilità, l'etica dell'IA è ancora in parte caratterizzata da un'attenzione a breve termine all'affidabilità dei prodotti IA, in contrapposizione a un'attenzione a lungo termine all'impatto dell'innovazione tecnologica, soprattutto se confrontata con i campi tecnologici in cui la sostenibilità è un principio consolidato.
Inoltre, l'etica dell'IA si concentra principalmente sull'impatto immediato delle applicazioni di intelligenza artificiale sui loro utenti, piuttosto che assumere una prospettiva più ampia sulle parti interessate che includa anche la società in generale e le generazioni future. L'etica dell'IA potrebbe quindi beneficiare di un approccio a lungo termine e di ampio respiro, più aperto a stimolare la riflessione sui temi della sostenibilità.
Rafforzando la sua attenzione alla sostenibilità, l'etica dell'IA sarebbe in grado di riconoscere l'enorme impatto ambientale dell'IA stessa. Minerali rari, terra e acqua sono necessari in grandi quantità per costruire i chip e gli altri componenti hardware essenziali per i sistemi di intelligenza artificiale e per ospitare e raffreddare i server che memorizzano ed elaborano i dati utilizzati per addestrare i sistemi IA. Inoltre, lo sviluppo e la manutenzione dei sistemi di intelligenza artificiale generano grandi quantità di emissioni di anidride carbonica e, alla fine del loro ciclo di vita, i componenti hardware lasciano rifiuti che a loro volta richiedono terreno per lo stoccaggio.
Concentrandosi sull'impronta di CO2 dei sistemi di intelligenza artificiale, un recente studio del MIT ha calcolato che una sessione di addestramento di un modello linguistico di grandi dimensioni (che è solo uno dei tanti passaggi nello sviluppo di un sistema di intelligenza artificiale) genera circa 284 tonnellate di anidride carbonica. Ciò equivale a cinque volte l'impronta dell'intero ciclo di vita di un'auto, compreso il consumo di carburante, e circa 57 volte la quantità di CO2 emessa da una persona media in un anno.
Un centro di ricerca di nuova costituzione mira a raccogliere e valutare dati empirici più dettagliati e su larga scala sull'impatto ambientale dell'IA, oltre alle emissioni di carbonio, per suggerire come rendere queste nuove tecnologie più sostenibili. Tra i tanti elementi costitutivi che contribuirebbero a un'IA più sostenibile, uno sembra avere un'importanza cruciale ed è particolarmente promettente dal punto di vista etico. Al suo centro c'è un passaggio dall'approccio Big Data attualmente dominante verso un approccio "Small Data".
Il passaggio a set di dati di addestramento più piccoli ridurrebbe sia le capacità di elaborazione che di archiviazione richieste, che attualmente rendono i sistemi di IA così energivori e ad alta intensità di risorse. Ma avrebbe anche una cascata di impatti positivi su altri valori etici.
In primo luogo, preferire dati di addestramento di dimensioni maggiormente ridotte consentirebbe agli sviluppatori di intelligenza artificiale di selezionare e verificare la presenza di pregiudizi ed errori in modo più accurato. Ciò, a sua volta, attenuerebbe la tendenza dei sistemi automatizzati a rafforzare pregiudizi o discriminazioni preesistenti. Consentirebbe inoltre di prestare maggiore attenzione alla qualità e alla diversità dei dati sulla formazione, il che avrebbe un impatto positivo sull'equità, l'equità e la non discriminazione.
Inoltre, gli impatti ambientali dell'IA stanno attualmente esacerbando le disuguaglianze globali e il divario Nord-Sud. Mentre le popolazioni dei paesi ricchi godono dei vantaggi dei sistemi IA, le popolazioni del Sud del mondo sono le più colpite dagli impatti ambientali negativi dell'intelligenza artificiale e delle relative violazioni dei diritti umani. Questi includono il riscaldamento globale, la deforestazione e l'inquinamento da miniere e discariche utilizzate per estrarre le materie prime necessarie per i sistemi di intelligenza artificiale e lo smaltimento dei rifiuti.
Un approccio Small Data potrebbe anche consentire lo sviluppo di sistemi di intelligenza artificiale per applicazioni che non si basano sull'abbondanza di dati disponibili in società ricche e altamente digitalizzate. Consentirebbe, ad esempio, di sviluppare modelli linguistici per le lingue per le quali non sono disponibili interi terabyte di dati di addestramento, rendendo così i vantaggi dell'IA accessibili a più persone. In termini di equità, l'IA basata su Small Data consentirebbe quindi una distribuzione globale più equa dei vantaggi e degli svantaggi di queste nuove tecnologie.
Inoltre, ci si può aspettare che un approccio Small Data all'IA abbia anche effetti collaterali positivi in termini di privacy, responsabilità e trasparenza, poiché sarebbero necessari meno dati personali e il funzionamento e il processo decisionale alla base dei sistemi di intelligenza artificiale potrebbero essere resi più comprensibili .
Una forte interpretazione della sostenibilità nel campo dell'IA può anche svolgere un ruolo trainante nell'ulteriore sviluppo di approcci tecnicamente promettenti, tra cui il data mining e i metodi di formazione che lavorano con Small Data, che finora sono stati relativamente marginali ma sono potenzialmente in grado di rendere l'IA più tecnicamente accurata e più etica sotto vari aspetti.
Le iniziative esistenti che utilizzano un approccio Small Data dimostrano ulteriormente che può avere importanti sinergie con i movimenti per i diritti umani. Uno studio pionieristico volto a sviluppare modelli linguistici per le lingue africane “a basso reddito” dimostra l'affinità di tali progetti con metodi partecipativi attenti ai bisogni e alle specificità delle comunità emarginate. Come mostra la discussione precedente, un approccio Small Data può inoltre sostenere i tentativi di contrastare gli squilibri di potere globali che perpetuano le ingiustizie storiche e sono alla radice delle violazioni dei diritti umani contemporanee.