Attenzione ai rischi dell’intelligenza artificiale, come regolarla

Condividi su facebook
Condividi su twitter
Condividi su linkedin

L’intervento atteso è quello dei Governi che dovrebbero attivare dei regolamenti per definire l’utilizzo dell’intelligenza artificiale. È quanto emerge dal rapporto annuale dell’AI Now Institute di New York.

L’attenzione è rivolta, in particolare, all’utilizzo indiscriminato degli algoritmi predittivi, la trasparenza delle “black box”, il proliferare di tecniche di riconoscimento del volto senza tutele per i cittadini.

A detta degli esperti, il rischio maggiore interessa l’assenza di adeguate garanzie o strutture di responsabilità in settori quali l’assistenza sanitaria, l’istruzione, l’occupazione, la giustizia penale che stanno sperimentando l’uso dell’intelligenza artificiale.

In particolare, spaventa l’uso dell’Ai per leggere le emozioni. Questo mercato vale 20 miliardi di dollari tra app che aiutano nei colloqui di lavoro e algoritmi che cercano di capire se un indiziato mente. Secondo i ricercatori le autorità dovrebbero bandire queste tecniche, perché sono basate su presupposti scientifici sbagliati.

Tra gli studi citati c’è quello, durato due anni, di un gruppo di ricercatori della American Association for Psychological Science, che ha concluso che «è molto difficile usare le espressioni del volto da sole per predire accuratamente cosa si sta provando».

Molte delle compagnie impegnate nel settore, sottolinea Crawford, basano i propri algoritmi sul lavoro di Paul Ekman, uno psicologo che negli anni ’60 affermò che ci sono solo sei emozioni di base espresse dal volto. «Ma studi successivi hanno dimostrato che la variabilità è molto maggiore, sia in termini di numero di emozioni che del modo di esprimerle, che cambia a seconda delle culture, della situazione, e anche in uno stesso giorno».

Articoli Consigliati

FOCUS MO

Dove Siamo

Sede Operativa: Via 8 Marzo 2 – Venezia – P.iva 04245770278

Redazione: info@focusmo.it

Iscriviti alla Newsletter