skip to Main Content

Chi studia l’intelligenza artificiale non la fermerebbe nemmeno potendo

Sarebbe come voler smettere di ragionare, secondo esperti ed esperte di diverse materie che se ne occupano per lavoro

Il racconto dei pericoli dell’intelligenza artificiale è popolare almeno quanto quello dell’intelligenza artificiale stessa. Negli anni è stata descritta come una minaccia per l’umanità perché potrebbe causare, a seconda delle diverse prospettive: una svalutazione del valore dell’arte, una riduzione dei posti di lavoro, un’incapacità umana di capire se foto e video sono autentici, e altre situazioni critiche.

Ma tra chi studia l’intelligenza artificiale nessun rischio noto o ignoto sarebbe una ragione valida per smettere di svilupparla, ammesso sia possibile. Non avrebbe senso farlo anche ragionando per assurdo, secondo un gruppo di studiose e studiosi italiani che da anni fanno ricerca in campo internazionale sulle implicazioni e applicazioni dell’AI da prospettive diverse: scienza dei dati, fisica, diritto, etica. A ciascuna e ciascuno di loro il Post ha rivolto questa domanda:

«Puoi fermare ora l’intelligenza artificiale. Sparisce dal mondo per sempre, con tutte le sue evoluzioni. Lo fai?»

Nessuna persona ha risposto «sì, la fermerei»; tutte hanno risposto «non la fermerei», segnalando però la necessità di comprenderla, ripensarla e regolamentarla.

«Non lo farei non per entusiasmo tecnofilo o per un’adesione fideistica al progresso, ma perché l’intelligenza artificiale, oggi, non è affatto un’intelligenza. È una forma di ingegneria statistica applicata al linguaggio, uno specchio addestrato sulle nostre parole che ci restituisce pattern plausibili, non verità, né comprensione del mondo», dice Walter Quattrociocchi, professore di informatica all’Università La Sapienza di Roma e direttore del Center for Data Science and Complexity for Society. «Il problema non è l’AI in sé, ma la narrazione che la circonda, che scambia correlazione per comprensione, output per giudizio, eloquenza per competenza».

È un’idea condivisa anche da Mariarosaria Taddeo, filosofa e professoressa di etica digitale e tecnologie di difesa all’Università di Oxford. «L’AI è un motore sintattico, che elabora simboli senza capirne il significato e secondo regole imposte da un/a programmatore/programmatrice. Non è intelligente, si comporta come se lo fosse», dice Taddeo.

L’equivoco secondo lei è favorito anche da un frequente uso metaforico e generico del linguaggio. Si usa la parola “allucinazioni”, per esempio, per definire un certo tipo di errori e imprecisioni delle intelligenze artificiali generative. E alcuni chatbot basati su modelli linguistici di grandi dimensioni (LLM) scrivono reasoning (“sto ragionando”) o thinking (“sto pensando”) mentre elaborano le loro risposte. Ma attribuire un’intelligenza sulla base di questi segni sarebbe «come dire che quando la tv va in buffer mentre si cambia canale stia decidendo criticamente se vale la pena guardare la trasmissione del canale che stiamo scegliendo».

Su questa questione la pensa diversamente Pierluigi Contucci, professore di fisica matematica all’Università di Bologna, esperto di meccanica statistica dei sistemi complessi e delle sue applicazioni alle scienze sociali ed economiche. Nemmeno lui fermerebbe l’AI, ma uno dei motivi per cui non lo farebbe è proprio il fatto che, pur non essendo «una mente né una coscienza, mette in discussione, nel profondo, il significato stesso di intelligenza. E non lo fa in astratto, ma con strumenti che risolvono problemi, apprendono strutture, imitano linguaggi, generano innovazione».non riconoscere in questo esperimento una forma, imperfetta ma reale, di intelligenza, significherebbe tornare a una definizione troppo ristretta e autoreferenziale, più difensiva che esplorativa».

Anche secondo Quattrociocchi fermare l’AI significherebbe «rinunciare non solo a una leva cognitiva, ma anche a un’occasione irripetibile per riflettere sulla natura stessa del pensiero, del linguaggio e della conoscenza». E il rischio principale «non è che le macchine diventino intelligenti, ma che noi smettiamo di esserlo».

In generale, l’opinione che l’intelligenza artificiale sia spesso fraintesa è abbastanza condivisa. «Come sempre accade per le novità scientifiche e tecnologiche, le sue applicazioni possono essere assai pericolose, e indubbiamente la narrazione oggi è concentrata su questi aspetti, più che sugli aspetti positivi», dice Giusella Finocchiaro, professoressa ordinaria di diritto privato e di diritto di Internet all’Università di Bologna e socia fondatrice di IAIC. «Credo che l’intelligenza artificiale possa portare grandi vantaggi: basti pensare alla ricerca scientifica in ambito sanitario e alla medicina personalizzata. Anche se avessi una bacchetta magica, non la fermerei».

Back To Top