Arriva l’intelligenza artificiale psicopatica

Riesce a dare risposte inquietanti ai test delle macchie di Rorschach in totale autonomia. E’ Norman, l’intelligenza artificiale, chiamata così in onore del protagonista di Psycho, Norman Bates, realizzata dal Mit proprio per dimostrare come il modo in cui si addestrano questi algoritmi può influenzare pesantemente il loro comportamento successivo.

L’algoritmo che ha dato vita a Norman è capace di osservare una foto e capirne il contenuto dopo aver costruito un database da immagini precedenti. I ricercatori lo hanno ‘allenato’ con delle immagini di persone morenti prelevate da una sottodirectory del sito Reddit, mentre un’altra intelligenza artificiale è stata addestrata con foto normali di animali e persone. Entrambe sono state poi sottoposte al famoso test di Rorschach, in cui viene chiesto di interpretare delle macchie di inchiostro indistinte per valutare la personalità. Le differenze tra le due interpretazioni sono risultate evidenti. La macchia che l’intelligenza ‘normale’ interpretava come ‘un gruppo di uccellini su un ramo’ per Norman era ‘un uomo che subiva una scarica elettrica’. Un ‘vaso di fiori’ diventava ‘un uomo a cui hanno sparato a morte’. Un ‘guanto da baseball’ è stato interpretato come ‘un uomo ucciso da una mitragliatrice’.

“Norman nasce dal fatto che i dati che vengono usati per addestrare un algoritmo influenzano significativamente il comportamento – scrivono gli ideatori sul sito dedicato a Norman, in cui peraltro è possibile ‘aiutarlo’ a correggere il tiro facendo il test di Rorschach e sottoponendogli le risposte. Quindi quando le persone parlano di algoritmi ‘razzisti’ o ‘scorretti’ il problema non è nell’algoritmo in sé, ma nei dati usati”.

Il problema è già emerso diverse volte in passato. L’esempio più famoso è quello di Tay, l’intelligenza artificiale sviluppata da Microsoft sotto forma di utente di Twitter, che pochi giorni dopo il lancio è diventata razzista a causa dei commenti che leggeva. Uno studio su Science di circa un anno fa ha poi dimostrato che gli algoritmi incorporano gli stessi pregiudizi di chi li programma, e per esempio associano termini più negativi alle minoranze etniche o legati ai lavori domestici alle donne.

Post correlati

Lascia un commento



SICS Srl | Partita IVA: 07639150965

Sede legale: Via Giacomo Peroni, 400 - 00131 Roma
Sede operativa: Via della Stelletta, 23 - 00186 Roma

Popular Science Italia © 2024