AI Safety Summit
Se ti piace l'articolo, condividilo

Cosa è stato deciso all’AI Safety Summit in Gran Bretagna

AI Safety Summit di Bletchley Park poche decisioni concrete, se non una dichiarazioni d’intenti firmata da tutti i Paesi (anche dalla Cina).
E le potenze mondiali sembrano avere urgenza più di competere che di cooperare.

Ventotto Paesi, tra cui gli Stati Uniti, i membri dell’Unione europea e la Cina,
hanno firmato una dichiarazione in cui si avverte che
l’intelligenza artificiale sta avanzando con una velocità e un’incertezza tali da poter causare «danni gravi, persino catastrofici».

La dichiarazione, annunciata in occasione dell’AI Safety Summit organizzato dal governo britannico e tenutosi presso lo storico sito di decifrazione di codici della Seconda Guerra Mondiale, Bletchley Park, chiede anche una collaborazione internazionale per definire ed esplorare i rischi derivanti dallo sviluppo di modelli di intelligenza artificiale più potenti, compresi modelli linguistici di grandi dimensioni come quelli che alimentano chatbot come ChatGPT.

Competizione più che cooperazione

Al di là delle dichiarazioni d’intenti piuttosto generiche e delle dichiarazioni dei politici arrivati a Bletchley Park, molti esperti hanno sottolineato come la competizione tra le potenze per assumere il ruolo di guida nel settore dell’AI sia altrettanto forte (o più forte) della volontà di cooperare.
Mentre Sunak esultava per il risultato, gli Stati Uniti hanno fatto capire che non avevano nessuna intenzione di fare un passo indietro dal ruolo di leadership.

Giorgia Meloni al AI Safety Summit

E anche il nostro primo ministro, Giorgia Meloni, ha tenuto a precisare il punto di vista dell’Italia sulla questione:

«L’intelligenza artificiale sta entrando in ogni ambito della nostra vita.
È nostra responsabilità, oggi, guidarne lo sviluppo etico e assicurarne il pieno allineamento con la libertà, il controllo e la prosperità del genere umano.
Dobbiamo sviluppare l’applicazione pratica del concetto di “Algor-etica”, cioè etica per gli algoritmi».

“Credo che la nostra priorità numero uno per i prossimi anni sia fare in modo che l’IA sia incentrata sull’uomo e controllata dall’uomo”

E annuncia che l’intelligenza artificiale sarà al centro di un prossimo vertice del G7, la cui presidenza nel 2024 passerà all’Italia: a Roma verrà organizzata una «conferenza internazionale sull’intelligenza artificiale e lavoro».

AI Safety Summit
special guest: la Cina e Elon Musk

Impossibile dimenticare il ruolo della Cina, che ha partecipato alla prima giornata di Summit, ha firmato la dichiarazione di intenti, ma non è stata invitata nel «gruppo ristretto» che ha continuato i lavori nella seconda giornata, a cui hanno partecipato un gruppo di Paesi con «valori condivisi» (Gran Bretagna, Unione Europea, rappresentanti dell’Onu, Italia, Germania, Francia e Australia).
La presenza del colosso asiatico è comunque stata vista come un successo, dato il suo ruolo cruciale nello sviluppo di applicazioni di intelligenza artificiale. 
A sottolinearlo, in particolare, è stato Elon Musk, che ha dichiarato durante un dialogo a due con il primo ministro britannico Rishi Sunak:

«Se anche la Cina è allineata negli aspetti di sicurezza dell’intelligenza artificiale, è positivo»

La legge dell’Unione europea

Nella pratica, cosa è emerso da AI Safety Summit?
Poco, a parte una generica dichiarazione di intenti.

Il problema è che si sta cercando di regolamentare una tecnologia che è solo all’inizio della sua esplosione.
E dunque, è impossibile dedurne a pieno le opportunità ma anche i rischi.

La situazione è ben esemplificata dal tentativo forse più impattante che si sta portando avanti, quello dell’AI Act dell’Unione europea: una vera e propria legge che vuole dare regole e limiti all’intelligenza artificiale. La prima al mondo.
E’ solo in questo documento – che non entrerà in vigore prima della fine dell’anno, forse anche all’inizio del prossimo dati i continui mutamenti della materia – che troviamo davvero qualche consiglio pratico su come arginare i «danni gravi, persino catastrofici» delineati all’AI Safety Act.

Ci sono quattro livelli di rischio di applicazione di intelligenza artificiale, ci sono applicazioni completamente vietate perché troppo rischiosi.
Fra questi la sorveglianza di massa, i sistemi di «social scoring» e gli strumenti di polizia predittiva.
Per l’Unione europea potrebbero minare i valori democratici che la guidano, ma per altri – Stati Uniti e Cina in particolare – sono tecnologie accettabili e in alcuni casi già accettate e dunque utilizzate.
La dichiarazione di intenti, nella pratica, è molto diversa dalla teoria.

FONTE: Corriere della Sera

AI Safety Summit