skip to Main Content

La governance per l’IA di cui hanno parlato Meloni e Biden nell’analisi di Fabio Bassan, membro del Comitato scientifico di IAIC

La regolamentazione sull’Intelligenza Artificiale in Ue sta concludendo il suo iter. L’approccio è molto pragmatico, ma ora occorre – con il lavoro congiunto assieme agli Usa – estendere questi principi e applicarli anche negli Stati membri attraverso un sistema di regolazione partecipata. Conversazione con il prof. Fabio Bassan, docente dell’Università Roma Tre ed esperto di IA

L’idea di una governance per regolare l’Intelligenza artificiale, perché “non è una materia che si può governare a livello di stato nazionale” ma ci si deve affidare all’intervento “degli stati nazionali” per “imporre dei limiti”. Il premier Giorgia Meloni, di ritorno dagli Stati Uniti e dopo il confronto con Joe Biden ed Henry Kissinger su questi temi, lancia l’idea – appunto – di una governance per monitorare le evoluzioni dell’intelligenza artificiale nei suoi svariati campi di applicazione. Quelle di Meloni sono affermazioni “più che condivisibili e l’auspicio di questa governance coglie lo spirito del tempo”. A dirlo nella sua intervista a Formiche.net è Fabio Bassan, docente dell’Università Roma Tre ed esperto di tecnologia.

Posto che le affermazioni di Meloni colgono nel segno, in che tipo di contesto si inseriscono?

Il premier è consapevole che con l’IA non si può fare come con gli altri mercati, ossia farli crescere e sviluppare e in fieri variarne la “rotta”. In questo caso ci sono temi e implicazioni molto più complesse. Il quadro in cui si inseriscono queste frasi è sicuramente quello di una volontà di mettere a terra prima di tutto i principi enunciati dalla regolamentazione europea.

Negli Stati Uniti l’argine agli strumenti dell’IA è stato individuato nel Frontier Model Forum. A livello europeo a che punto siamo?

L’iter per la regolamentazione dell’IA a livello europeo è in fase conclusiva e si perfezionerà entro questa legislatura. Il modello adottato si sviluppa su due livelli: uno orizzontale e uno verticale. Diversamente dal passato, l’Ue ha adottato un approccio molto pragmatico. Sono, pertanto, stati individuati tre livelli di “rischio” nell’impiego dell’Intelligenza artificiale. Bianco, grigio e nero.

Cosa comportano questi livelli di rischio relativamente alla regolamentazione e all’impiego dell’IA?

Il bianco è il rischio limitato, in alcuni settori di applicazione dell’IA. In questo senso l’uso dell’intelligenza artificiale è ammesso, purché sia garantita la trasparenza. Cioè occorre garantire al fruitore di determinati strumenti che sta interagendo con l’intelligenza artificiale. Questo, deve applicarsi anche all’intelligenza artificiale generativa.

 

Continua a leggere su Formiche

Back To Top