skip to Main Content

Gaza e l’Ucraina impongono un “momento Oppenheimer” dell’Ai in guerra

È arrivato il “momento Oppenheimer” dell’intelligenza artificiale? Prendendo spunto dal recente dibattito sul film di Christopher Nolan sugli uomini che fecero la bomba atomica, gli esperti hanno cominciato a fare confronti tra i potenziali impatti di un’IA sfuggita al controllo con gli effetti distruttivi delle armi nucleari. Per ora l’analogia – illustrata bene da Alex Karp, amministratore delegato di Palantir Technologies (società di software americana specializzata in analisi di Big data per le agenzie federali e la comunità di intelligence degli Stati Uniti) in un editoriale sul New York Times – resta meramente teorica, ma i dilemmi etici di chi sviluppa le AI sono già molto simili a quelli che affrontarono, a metà degli anni Quaranta, i fisici e gli scienziati che parteciparono al Progetto Manahattan insieme a J. Robert Oppenheimer. È arrivato il “momento Oppenheimer” dell’intelligenza artificiale? Prendendo spunto dal recente dibattito sul film di Christopher Nolan sugli uomini che fecero la bomba atomica, gli esperti hanno cominciato a fare confronti tra i potenziali impatti di un’IA sfuggita al controllo con gli effetti distruttivi delle armi nucleari. Per ora l’analogia – illustrata bene da Alex Karp, amministratore delegato di Palantir Technologies (società di software americana specializzata in analisi di Big data per le agenzie federali e la comunità di intelligence degli Stati Uniti) in un editoriale sul New York Times – resta meramente teorica, ma i dilemmi etici di chi sviluppa le AI sono già molto simili a quelli che affrontarono, a metà degli anni Quaranta, i fisici e gli scienziati che parteciparono al Progetto Manahattan insieme a J. Robert Oppenheimer.

Prima il conflitto russo-ucraino e ora la guerra tra Hamas e Israele riaccendono i riflettori sul tema. Quando si tratta di attaccare, l’intelligenza artificiale ha già un ruolo importante: l’esercito ucraino, ad esempio, usa contro quello russo il TB2 Bayraktar, un drone di fabbricazione turca, che può trasportare missili anticarro, che atterra e decolla da solo grazie all’IA, ma che richiede ancora l’intervento umano per essere attivato. Insomma: serve insomma qualcuno che prema il bottone.

 

continua a leggere su HuffingtonPost

Back To Top