• 11 Novembre 2021 3:00

SCIENZA & DINTORNI

Divulgazione storica e scientifica – DIRETTORE Fabiana Leoncavallo

Una morale per i robot

DiNatale Seremia

Dic 11, 2019 ,

Quando si evocano gli scenari più cupi dell’avvento dell’Intelligenza Artificiale (IA) l’immaginario corre inevitabilmente a macchine diventate così intelligenti da conquistare il mondo. Una famosa battuta di un professore americano della Washington University afferma con una buona dose di cinismo che i computer sono ancora molto stupidi ma di fatto, il mondo lo hanno già conquistato.

Gli attuali algoritmi sono già in grado di acquisire, confrontare ed analizzare un’immensa mole di dati ed attraverso essi fare predizioni, disegnare strategie, prendere decisioni. Lo sviluppo dell’IA è tumultuoso e si possono citare moltissimi casi emblematici. Uno di questi, realizzato da ricercatori della Stanford University è consistito nell’allenare un algoritmo ad individuare tumori della pelle facendogli scansionare migliaia di immagini di lesioni benigne, carcinomi e melanomi già diagnosticati da dermatologi. L’algoritmo ha così assunto delle regole con le quali ha visionato circa 130.000 immagini di lesioni cutanee non classificate. Ebbene i suoi risultati erano equivalenti a quelli ottenuti da 21 dermatologi esperti.

Questo però non significa, almeno al momento, che l’algoritmo abbia le capacità di un dermatologo anche perché l’Intelligenza Artificiale dipende dai dai che assume. Nel caso in questione l’algoritmo aveva imparato a classificare le lesioni cutanee sulla base di Google Immagini. Ebbene questa piattaforma per il 95% rappresenta persone di pelle chiara. L’algoritmo dunque era incapace di diagnosticare un tumore della pelle su una persona di pelle scura.

Nel 2017 un team di ricercatori della Princeton University ha pubblicato uno studio dal quale si evince che gli algoritmi imparano da stereotipi atavici. Stereotipi che sono abbondantissimi sulla rete, ma non solo. Ad un algoritmo è stato chiesto di individuare abbinamenti frequenti su certe parole all’interno di libri, giornali e testi statunitensi dal 1900 ad oggi. Prima del movimento di emancipazione delle donne aggettivi come intelligente, riflessivo e ragionevole erano accostati prevalentemente agli uomini. Dopo gli anni sessanta sono invece associati per lo più alle donne. Questo significa che a secondo del periodo nel quale l’algoritmo “apprende” luoghi comuni, pregiudizi e stereotipi possono cambiare anche radicalmente.

Un esempio concreto di questa distorsione è stata evidenziata nel 2014 dal colosso multinazionale Amazon che aveva affidato ad un algoritmo la selezione del personale. I migliori candidati selezionati erano quasi tutti uomini e questo perché l’algoritmo si era allenato passando al setaccio le carriere degli ultimi dieci anni che guarda caso erano quasi tutte maschili.

I robot si nutrono di stereotipi culturali che fanno propri e ripropongono pedissequamente. E quello che avviene nell’algoritmo che è alla base del software per l’identificazione facciale. E’ un fatto incontrovertibile che gran parte degli errori di identificazione riguardino donne, giovanissimi ed afroamericani.

Se l’IA dovrà essere nel prossimo futuro più autonoma nell’elaborare strategie e prendere decisioni allora è necessario programmare le regole morali a cui gli algoritmi devono attenersi. Pensiamo all’ormai prossimo avvento delle auto senza pilota. Questi veicoli a guida autonoma che certamente aiuteranno a ridurre drasticamente incidenti ed inquinamento saranno però chiamate a prendere decisioni morali di primissimo piano.

Per il momento soltanto il Ministero dei Trasporti tedesco, nel 2017, è l’unico ente al mondo ad aver dettato una serie di norme etiche per i veicoli a guida autonoma che fra l’altro hanno stabilito che i robot hanno il dovere di salvare la vita umana rispetto a quella animale o a danni alle cose, così come che sarebbe moralmente inaccettabile decidere quale essere umano salvare rispetto a qualsiasi discriminante.

In conclusione è necessario mantenere sempre un elevato livello di controllo sull’IA ma, soprattutto mantenere saldo il codice sociale sulle regole etiche e legali che le macchine dovranno seguire.

Natale Seremia

Appassionato da sempre di storia e scienza. Divoratore seriale di libri. Blogger di divulgazione scientifica e storica per diletto. Diversamente giovane. Detesto complottisti e fomentatori di fake news e come diceva il buon Albert: "Solo due cose sono infinite: l’universo e la stupidità umana, riguardo l’universo ho ancora dei dubbi."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.