Pausa nello sviluppo di IA
Se ti piace l'articolo, condividilo

OpenAI:
Musk e altri esperti chiedono
pausa di sei mesi
per lo sviluppo di GPT-4
citando rischi per l’umanità

Elon Musk e un gruppo di esperti di intelligenza artificiale e dirigenti del settore chiedono una pausa di sei mesi per addestrare i sistemi al neo modello GPT-4 di OpenAI.
L’hanno dichiarato in una lettera aperta, citando potenziali rischi per la società e l’umanità.
La lettera, pubblicata dall’istituto no-profit Future of Life Institute e firmata da oltre 1.000 persone, tra cui Musk, l’amministratore delegato di Stability AI Emad Mostaque, i ricercatori di DeepMind, di proprietà di Alphabet, e i pesi massimi dell’IA Yoshua Bengio e Stuart Russell, chiede una pausa nello sviluppo di IA avanzate fino a quando non saranno sviluppati, implementati e verificati da esperti indipendenti protocolli di sicurezza condivisi per tali progetti.

Pausa nello sviluppo di IA

Nella lettera si legge:

“I potenti sistemi di IA dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili”

Descrive anche i potenziali rischi per la società e la civiltà derivanti dai sistemi di IA competitivi con l’uomo, sotto forma di perturbazioni economiche e politiche.
Invita gli sviluppatori a collaborare con i responsabili politici in materia di governance e autorità di regolamentazione.

La lettera giunge mentre la polizia dell’UE, Europol, si è unita lunedì a un coro di preoccupazioni etiche e legali sull’IA avanzata come ChatGPT, mettendo in guardia sul potenziale uso improprio del sistema nei tentativi di phishing, disinformazione e criminalità informatica.

Musk, la cui casa automobilistica Tesla sta utilizzando l’IA per il sistema di pilota automatico,
ha espresso a gran voce le sue preoccupazioni in merito all’IA.
Dal suo rilascio l’anno scorso, ChatGPT di OpenAI, sostenuto da Microsoft,
ha spinto i rivali ad accelerare lo sviluppo di modelli linguistici simili e le aziende a integrare modelli di IA generativa nei loro prodotti.
Sam Altman, amministratore delegato di OpenAI, non ha firmato la lettera, ha dichiarato a Reuters un portavoce di Future of Life.

Gary Marcus, professore emerito della New York University, che ha firmato la lettera, ha detto:

“La lettera non è perfetta, ma lo spirito è giusto: dobbiamo rallentare fino a quando non avremo compreso meglio le ramificazioni”. “Possono causare gravi danni… i grandi operatori stanno diventando sempre più segreti su ciò che fanno, il che rende difficile per la società difendersi da qualsiasi danno possa materializzarsi”.

FONTE: Finanza.com

Pausa nello sviluppo di IA