“Intelligenza artificiale un rischio per l’umanità, serve uno stop”: l’appello di Musk divide gli esperti
Il miliardario Elon Musk e una serie di esperti del settore tech hanno firmato un appello per chiedere una pausa nello sviluppo dei potenti sistemi di intelligenza artificiale (AI) per concedere il tempo necessario a elaborare regole per il suo controllo.
La lettera aperta, firmata finora da più di mille persone tra cui Musk e il co-fondatore di Apple Steve Wozniak, è stata sollecitata dal rilascio di GPT-4 dalla società OpenAI di San Francisco. L’azienda afferma che il suo ultimo modello è molto più potente della versione precedente, utilizzata per alimentare ChatGPT.
Nel mirino dei big non c’è tutta l’intelligenza artificiale ma i sistemi più avanzati di GPT-4, la chatbot di OpenAI capace di raccontare barzellette e superare facilmente esami come quello per diventare avvocato. “I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili”, si legge nella lettera in cui si parla di una “corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare”.
Una corsa che, qualora non venisse fermata, evocherebbe scenari come l’apocalittico Skynet dei film di James Cameron con i computer pronti a distruggere l’umanità. Ma non solo: nelle mani sbagliate l’intelligenza artificiale avrebbe conseguenze sulla gestione delle democrazie e degli Stato. La Cina – ha ad esempio avvertito il senatore Mike Gallagher a capo della commissione della camera sul regime Pechino – vede l’intelligenza artificiale come uno “strumento o un’arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria”. Proprio il timore di conseguenze catastrofiche ha spinto i grandi dell’hi-tech a chiedere una pausa di sei mesi da usare per lo “sviluppo congiunto e l’implementazione di protocolli condivisi” che assicurino la “sicurezza” dei sistemi “al di là di ogni ragionevole dubbio”, prosegue la lettera, che invita i laboratori di IA a concentrarsi nel rendere più “accurati, trasparenti, credibili e leali” gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti. “La società ha fatto una pausa su altre tecnologie con effetti potenzialmente catastrofici – prosegue la lettera -. Possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, e non corriamo impreparati verso l’autunno”.
In Italia è decisamente meno catastrofista l’approccio di Edoardo Imperiale, coordinatore del Polo Regionale della Campania per l’Innovazione Digitale Evoluta. “L’intelligenza artificiale è una grande rivoluzione che va governata senza paure e raccontando opportunità, vantaggi e rischi”, dice Imperiale. “L’allarme lanciato da Musl e da importanti scienziati, che rimbalza sui siti di informazione e sui social, rischia – dice Imperiale, responsabile della iniziativa selezionata fra i dei 13 Poli europei di innovazione digitale (EDIH) selezionati a valle della gara europea Digital Europe – di indirizzare la discussione su binari sbagliati. Sono le preoccupazioni, legittime e di grande valore, di esperti veri ma vanno lette come invito a fare meglio e bene e non come stop ad una tecnologia che può e deve rappresentare una grande occasione”.