skip to Main Content

L’America accelera sulle regole per l’Intelligenza artificiale. Cosa vuol dire per noi europei. Di Oreste Pollicino

Lettera da New York di Oreste Pollicino, ordinario di diritto costituzionale all’università Bocconi che in questo anno accademico è Fulbright Scholar e Global Fellow alla New York University. Che ha assistito alle audizioni di vertici di grandi corporation tecnologiche, accademici e policy-maker alla ricerca di un modello di regolazione normativa di carattere non settoriale per l’Intelligenza artificiale. Ecco cosa è emerso

 

 

Se soltanto l’anno scorso, o anche qualche mese fa, mi avessero detto che di fronte al sub-Committee for privacy, Technology  and law del Senato americano ci sarebbe stata una serie di audizioni da parte di vertici di grandi corporations tecnologiche, accademici e policy-makers relative alle modalità di implementare un modello di regolazione normativa di carattere non settoriale per l’Intelligenza artificiale negli Stati Uniti, avrei pensato ad uno scenario tanto futuristico quanto irrealistico.

Invece oggi è pura realtà. La scorsa settimana ho assistito alla seconda di queste audizioni, assai interessante anche perché nel frattempo, altra cosa qualche tempo fa assolutamente impensabile, al Senato americano è stata depositata una proposta di legge bipartisan che ambisce ad istituire una agenzia federale indipendente di controllo per l’intelligenza artificiale e tutta un’altra serie di vincoli per produttori e distributori della tecnologia (meglio: ecosistema digitale) in questione, sia per quanto riguarda la parte del design della stessa tecnologia (input), sia per quanto riguarda la gestione del prodotto finale (output).

Inoltre, e si tratta di un passaggio di capitale importanza, l’idea alla base (da vedere quanto condivisa) è di chiarire che l’immunità a favore degli Internet service providers – la famigerata Section 230 del Communications Decency Act of 1996 che ha consentito l’esplosione commerciale del web – non si applicherebbe all’intelligenza artificiale. Il che ovviamente avrebbe come immediata conseguenza che le grandi corporations di IA potrebbero essere considerate responsabili per i danni causati dai modelli di IA. Si pensa anche di introdurre un obbligo per le stesse società di informare gli utenti che stanno interagendo con detti modelli e che non vi è nulla di “umano”, in senso tecnico, quale interlocutore.

Perché questa  accelerazione?

Ci sono almeno tre ragioni a mio avviso.

 

 

Continua a leggere su Le Formiche

Back To Top