I meccanismi che guidano le intelligenze artificiali di riconoscimento dei volti umani hanno fatto dei progressi importanti negli ultimi dieci anni, tanto da avere prestazioni simili se non addirittura superiori a quelle umane ma, nonostante questo, sono (per ora) lontani dai meccanismi cognitivi che si attivano nel nostro cervello quando guardiamo il volto in movimento di una persona. Lo mostrano i risultati di uno studio pubblicato sulla rivista PNAS.

Mettendo a confronto reti neurali artificiali e esseri umani, i ricercatori hanno mostrato che le intelligenze artificiali non sono un buon modello per capire il modo in cui il cervello analizza volti in movimento.

“L’emergere delle intelligenze artificiali ha portato molti scienziati a chiedersi se le reti neurali possano essere utilizzate come strumenti per comprendere meglio il funzionamento del cervello”, spiega Maria Ida Gobbini, professoressa al Dipartimento di Scienze Mediche e Chirurgiche dell’Università di Bologna, e senior author dello studio. “I risultati che abbiamo ottenuto mostrano però che questi sistemi non rappresentano in maniera accurata né i meccanismi cognitivi della discriminazione dei volti né i meccanismi neurali della loro identificazione”.

Oggi, i software di riconoscimento facciale sono arrivati a emulare, se non addirittura a superare, le capacità umane e vengono sempre più utilizzati, dai controlli negli aeroporti fino ai sistemi di sblocco degli smartphone o dei laptop.

Elementi centrali di queste tecnologie sono le reti neurali convoluzionali (DCNN – Deep Convolutional Neural Networks) che, ispirate al cervello umano, imitano il nostro sistema nervoso visivo. Sono composte da più livelli di complessità crescente: i primi livelli si concentrano su funzioni semplici, ad esempio i colori e i contorni, e via via i livelli successivi analizzano forme sempre più grandi dell’immagine, fino all’individuazione dell’identità del volto.

Per capire se il riconoscimento facciale da parte di queste reti neurali possa essere utilizzato per comprendere meglio i processi umani di elaborazione dei volti, gli studiosi hanno utilizzato un set di oltre 700 brevi video di volti umani, diversi tra loro per genere, età, etnicità, orientamento della testa ed espressioni emotive. Questi video sono stati poi sottoposti sia a sistemi automatici di riconoscimento che a volontari adulti sani, monitorati nel loro comportamento e con risonanza magnetica funzionale (fMRI) per registrare l’attività cerebrale.

“Dal confronto è emerso che tra i volontari coinvolti c’erano forti similitudini nel processo di rappresentazione dei volti a livello cerebrale e c’erano forti similitudini nei codici neurali artificiali utilizzati da diversi sistemi DCNN”, dice Gobbini. “Le correlazioni tra intelligenze artificiali e partecipanti umani erano però deboli: questo ci suggerisce che le reti neurali, allo stato attuale, non forniscono un modello adeguato delle prestazioni cognitive umane di analisi dei volti in un contesto dinamico”.

Quando osserviamo un volto, infatti, non ci limitiamo ad analizzarne l’identità, ma acquisiamo automaticamente una serie di altre informazioni sul suo atteggiamento e sul suo stato emotivo, che i sistemi di riconoscimento automatico oggi non considerano.

“Una volta che la rete neurale ha stabilito se un volto è differente da un altro, il suo compito è finito”, conferma Gobbini. “Per gli esseri umani, invece, riconoscere l’identità di una persona è solo il punto di partenza di una serie di altri processi mentali che i sistemi di intelligenza artificiale al momento ancora non sono in grado di imitare”.

Lo studio è stato pubblicato sulla rivista PNAS con il titolo “Modeling naturalistic face processing in humans with deep convolutional neural networks”. Maria Ida Gobbini, professoressa al Dipartimento di Scienze Mediche e Chirurgiche dell’Università di Bologna, ha guidato lo studio nell’ambito di una collaborazione internazionale.

Ora in onda:
________________