Edoardo Giardino è avvocato e professore associato nonché abilitato alle funzioni di professore ordinario di…
Intelligenza artificiale, urge regolarne l’utilizzo: report
I governi dovrebbero intervenire per regolare l’uso (e il senso dell’intelligenza artificiale). Questo il messaggio fortissimo lanciato nel rapporto annuale dell’AI Now Institute di New York e declinato in dodici raccomandazioni destinate a policy maker e aziende.
Nel mirino l’uso indiscriminato degli algoritmi predittivi, la trasparenza delle “black box”, il proliferare di tecniche di riconoscimento del volto senza tutele per i cittadini. La preoccupazione principale è legata alla mancanza di adeguate garanzie o strutture di responsabilità in settori quali l’assistenza sanitaria, l’istruzione, l’occupazione, la giustizia penale che stanno sperimentando l’uso dell’intelligenza artificiale.
In particolare, spaventa l’uso dell’Ai per leggere le emozioni. Questo mercato vale 20 miliardi di dollari tra app che aiutano nei colloqui di lavoro e algoritmi che cercano di capire se un indiziato mente.
Secondo i ricercatori le autorità dovrebbero bandire queste tecniche, perché sono basate su presupposti scientifici sbagliati.
«Questa tecnologia afferma di poter determinare gli stati emozionali interpretando le microespressioni del volto, il tono della voce o anche il modo di camminare», spiega alla BBC Kate Crawford, cofondatrice dell’istituto. «Ormai è usata ovunque, dai colloqui di lavoro agli ospedali, dove viene usata per determinare il dolore provato dai pazienti, alle aule dove cerca di tracciare quali studenti sembrano seguire la lezione con più attenzione. Nello stesso momento in cui queste tecnologie prendono piede un grande numero di studi mostrano che non c’è nessuna evidenza di una relazione così stretta tra le emozioni che si provano e l’aspetto esteriore del volto».