Norman, la prima intelligenza artificiale psicopatica.


Si chiama Norman, in onore del omonimo protagonista della serie di romanzi Psycho, e si tratta della prima intelligenza artificiale ufficialmente psicopatica: a crearla, dedicandole anche un sito web ufficiale, sono stati alcuni ricercatori del Massachusetts Institute of Technology, (comunemente noto con la sigla MIT), per verificare quanto i dati con cui si addestra l'intelligenza influiscono sul risultato finale. In altre parole Norman dovrebbe servire un po' da "prova del nove" rispetto ai possibili rischi nella programmazione e realizzazione di questi sistemi di intelligenza artificiale e quindi dimostrare come questa "cresca" in modi del tutto differenti a seconda dei dati che ha ricevuto durante la fase di machine learning e di addestramento. In pratica l'algoritmo che ha dato vita a Norman è capace di osservare una foto e capirne il contenuto dopo aver costruito un database da immagini precedenti: gli scienziati lo hanno, infatti, allenato con delle immagini di persone morenti prelevate da una sottodirectory di Reddit, (per la precisione un canale dedito alla documentazione ed all'osservazione dell'inquietante realtà della morte). Così facendo i ricercatori del MIT hanno, appunto, ottenuto un'intelligenza artificiale che in base ai test a cui è stata sottoposta sembrerebbe manifestare disturbi mentali tipici proprio della psicopatia, (come, ad esempio, carenza di empatia, inganno e paranoia). In sostanza Norman è stato messo a confronto con un'altra intelligenza artificiale addestrata un dataset più neutrale, (vale a dire il cosiddetto Coco Dataset, il quale risulta essere privo di elementi oscuri e macabri ed è ricco di immagini di fiori ed animali): entrambe sono state sottoposte al famoso Test di Rorschach, durante il quale le differenze tra le due interpretazioni sono risultate abbastanza evidenti. Difatti dove l'intelligenza artificiale neutrale vedeva, per esempio, degli uccelli appollaiati su un albero Norman immaginava un uomo sottoposto alla sedia elettrica; dove la prima ci vedeva un vaso pieno di fiori, la seconda ci vedeva un uomo colpito a morte da un proiettile; dove l'intelligenza artificiale addestrata con il Coco Dataset scorgeva un ombrello rosso e bianco l'intelligenza artificiale psicopatica percepiva una persona che viene uccisa da una scarica elettrica mentre cerca di attraversare una strada trafficata; oppure ancora dove una vedeva un gruppo di persone alla finestra l'altra distingueva qualcuno in procinto di buttarsi da quella medesima finestra; e così via. Ad ogni modo tutti i risultati a questo test, (che, come noto, solitamente viene impiegato in psicologia e psichiatria per indagare la personalità di un paziente), sono stato raccolti e possono essere consultati nel suddetto sito web. Al riguardo Iyad Rahwan, uno dei principali responsabili di Norman, ha spiegato: "Un simile esperimento serve a sottolineare come i dati contino più degli algoritmi. Il nostro test, infatti, mette in evidenza l'idea che i dati che usiamo per addestrare le intelligenze artificiali si riflettano nel modo in cui quegli stessi sistemi percepiscono il mondo e decidono il modo in cui comportarsi. Quindi quando le persone parlano di algoritmi "razzisti" o "scorretti" il problema non è nell'algoritmo in sé, ma nei dati usati". Ed ha, infine, concluso puntualizzando: "Gli ingegneri devo trovare un modo di bilanciare i dati ed, allo stesso tempo, il mondo del machine learning e delle sempre più diffuse intelligenze artificiali non può essere lasciato in mano ai programmatori. Servirà anche un protocollo per il futuro. Il comportamento delle macchine dovrà essere studiato nello stesso modo di quello umano. Bisognerà sviluppare una qualche forma di "psicologia dell'intelligenza artificiale": un modo di sottoporre periodicamente a verifiche i sistemi sviluppati negli anni precedenti per capire se, nel frattempo a causa dei dati che hanno processato, non siano in qualche modo mutati".

Commenti