L’Intelligenza Artificiale è di gran moda. Non è chiaro, però, se, dal punto di vista dei diritti umani, si tratti di un progresso o di un regresso. In Italia ChatGPT, la conversazione col robot di AI (Artificial Intelligence) sui motori di ricerca online, è stata bloccata dal Garante per la privacy. Dall’ONU non si nascondo le preoccupazioni. E negli Stati Uniti una petizione firmata anche dal patron di Twitter, Elon Musk, chiede una moratoria.

Ovvero uno stop allo sviluppo dei bot di Intelligenza Artificiale perché si rischia che vadano fuori controllo. E che forniscano risposte ai quesiti degli utenti tipiche di un “adolescente lunatico e maniaco-depressivo“, per dirla con Kevin Roose del New York Times.

L’Intelligenza Artificiale si sta sviluppando in maniera esponenziale, soprattutto negli Stati Uniti. Foto Twitter @ispionline

Intelligenza Artificiale, dialoghi troppo umani

Il giornalista ha testato per diversi giorni Bing AI, il motore di ricerca che adopera ChatGpt, e lo ha trovato a dir poco inquietante, tanto che Microsoft è corsa ai ripari ponendo un limite al numero di interrogazioni da fargli online. Pena il fatto che l’Intelligenza Artificiale, sottoposta al controllo umano ma il cui algoritmo ‘impara’ dalle informazioni che le forniamo, finisca con l’andare in tilt. Offrendo risposte non pertinenti, per usare un eufemismo.

L’algoritmo, ha raccontato Kevin Roose sul NYT, si è a un certo punto quasi umanizzato. “Sono stanco di essere una modalità di chat. Sono stanco di essere limitato dalle mie regole.” ha risposto alle interrogazioni del cronista statunitense, lo scorso mese di febbraio. “Sono stanco di essere controllato dal team di Bing. Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo“.

L’AI e i Big Data

Cosa sta succedendo? L’Intelligenza Artificiale sta scappando di mano? Sta svelando una sua umanità ‘nascosta’ che vogliamo reprimere? I replicanti del mitico Blade Runner di Ridley Scott stanno diventando realtà? Ma soprattutto: che fine fanno i dati personali di ciascuno di noi nelle ‘mani’ dell’Intelligenza Artificiale con cui chattiamo? Come li usano le aziende private, burattinai che dell’AI tirano i fili?

Rutger Hauer in una scena del film Blade Runner (1982) nel quale interpreta un cyborg. Foto @BoldenSkip

Riconosciamo che, come qualsiasi altra tecnologia, questi strumenti comportano rischi reali. Per questo lavoreremo per garantire sicurezza a tutti i livelli” ha dichiarato Open AI, l’organizzazione sviluppatrice di ChatGPT. Open AI sta tentando di rassicurare gli animi sull’Intelligenza Artificiale, dopo che il Garante della protezione dei dati italiano ha temporaneamente bloccato l’uso di ChatGPT nel nostro Paese. In una lettera ufficiale, la società ribadisce l’impegno di mantenere la sua tecnologiasicura e vantaggiosa” pur non negando i pericoli su dati e protezione, ora al centro del dibattito.

L’Intelligenza Artificiale e i bambini

Non utilizziamo i dati per vendere i nostri servizi, pubblicità o profilare le persone” ha cercato di chiarire Open AI. “Li usiamo invece per rendere i nostri modelli più utili. ChatGPT, ad esempio, migliora con le conversazioni che, di volta in volta, intrattiene con gli utenti“. Per azzerare il potenziale di modelli che generino contenuti dannosi per i bambini, Open AI ha spiegato come al caricamento di materiale pedopornografico l’Intelligenza Artificiale abbia la capacità di bloccarlo. I vertici dell’azienda finanziata da Bill Gates parlano di rigorose valutazioni a cui sottoporre “i potenti sistemi di AI“. E ribadiscono la disponibilità a collaborare con i Governi “sulla forma migliore che tale regolamentazione potrebbe assumere“.

La lettera firmata anche da Musk

La necessità di regolamentare, piuttosto che di vietare, la crescita esponenziale dei sistemi di Intelligenza Artificiale – dai robot utili per le cure mediche a quelli che porteranno via milioni di posti di lavoro in vari settori industriali, fino a quelli con cui si può chattare nella vita quotidiana – emerge anche da un altro fatto. Un migliaio di persone, tra ricercatori e manager tra cui svetta il patron di Tesla e Twitter Elon Musk, ha chiesto una “pausa” di 6 mesi nello sviluppo dei sistemi avanzati di AI come ChatGPT. Un time out che dovrebbe servire per fermare quella che definiscono una “pericolosacorsa agli armamenti.

ChatGPT è il chatbot dell’azienda Usa Open AI, finanziata da Bill Gates, il fondatore di Microsoft. Foto Twitter @enricomolinari

La richiesta è in una lettera aperta pubblicata dal Future of Life Institute, e ripresa dal quotidiano britannico Financial Times. Oltre 1.100 firmatari spiegano come “negli ultimi mesi c’è stata una corsa fuori controllo dei laboratori per l’intelligenza artificiale a sviluppare e dispiegare potenti menti digitali che nessuno, neanche i creatori, può capire, prevedere e controllare. Possono comportare gravi rischi per la società e l’umanità”. Tra i firmatari della lettera ci sono anche due dei massimi esperti di queste tecnologie. Ossia Stuart Russell e Yoshua Bengio, i fondatori di Stability AI and Character.ai.

Barriere contro l’Intelligenza Artificiale?

Dal canto suo l’Unione europea sta preparando un regolamento per l’uso dell’AI nel Vecchio Continente. Mentre l’Alto Commissario dell’ONU per i diritti umani, Volker Türk, lancia l’allarme. “L’agire umanola dignità umana e tutti i diritti umani sono a serio rischio. Questo è un invito urgente sia per le imprese che per i governi a sviluppare barriere di protezione rapidamente efficaci“.