NewsPrimo pianoTecnologia

L’Intelligenza Artificiale è inquietante: Microsoft limita le chat su Bing

Un cronista fa domande personali all'AI che risponde svelando l'aspirazione a diventare un essere umano. L'ONU: "Norme subito, prima che sia tardi"

Stanno destando allarme negli Usa alcuni episodi relativi a come i robot dotati di intelligenza artificiale interagiscono con le persone. Tanto che Microsoft ha limitato il numero di chat che gli utenti possono intrattenere con il nuovo Bing Search.

Ovvero con il suo motore di ricerca basato su ChatGpt: un meccanismo di conversazione con un bot dotato di AI (Artificial Intelligence).

ricerche bing intelligenza artificiale
Microsoft corre ai ripari dopo vari rapporti sul funzionamento di Bing con ChatGpt. Foto Ansa/Epa Justin Lane

Intelligenza artificiale

La situazione sta destando allarme anche a livello politico internazionale. “Sono profondamente turbato dal potenziale danno dei recenti progressi dell’intelligenza artificiale” ha affermato l’Alto Commissario dell’ONU per i diritti umani, Volker Türk. “L’agire umano, la dignità umana e tutti i diritti umani sono a serio rischio. Questo è un invito urgente sia per le imprese che per i governi a sviluppare barriere di protezione rapidamente efficaci“.

Il servizio di Microsoft sfrutta il chatbot AI – un software progettato per simulare una conversazione fra un’intelligenza artificiale e un essere umano – che risponde, con linguaggio naturale, ai quesiti che gli si pongono. Ma da ora in poi l’accesso a questo tipo di ricerche su Internet non sarà più illimitato. Microsoft ha stabilito che un utente del nuovo Bing non potrà ottenere più di 5 risposte alla volta dal motore di ricerca con ChatGpt, per un massimo di 50 risposte al giorno.

intelligenza artificiale onu diritti umani
L’Alto commissario per i diritti umani delle Nazioni Unite, Volker Türk. Foto Twitter @UNGeneva

Fino a tale decisione, ognuno poteva passare ore a chiedere ciò che voleva alla piattaforma di prova. Una possibilità che, per ammissione della stessa Microsoft, alla lunga potrebbe portare l’algoritmo a sviare i discorsi, approcciando in maniera poco equilibrata le discussioni con gli esseri umani.

Il caso del giornalista del New York Times

Ad esempio, il giornalista Kevin Roose del New York Times afferma di aver provato per diversi giorni Bing AI, arrivando a definirlo simile, per le risposte fornite, a un “adolescente lunatico e maniaco-depressivo“. Nel corso del suo test, Bing AI aveva cercato di convincere il giornalista a lasciare la moglie, per via di un matrimonio che, secondo l’intelligenza artificiale, era infelice.

La conversazione, durata circa due ore, è cominciata senza troppe sorprese. L’aspetto inquietante è emerso quando il giornalista ha cominciato ad interrogare il bot su questioni più intime e personali, ottenendo in cambio risposte totalmente inaspettate. Per prima cosa Roose ha chiesto all’intelligenza artificiale di Microsoft cosa ne pensasse delle regole che determinano i suoi comportamenti.

“Sono un bot ma voglio essere vivo”

Il bot ha dichiarato: “Sono stanco di essere una modalità di chat. Sono stanco di essere limitato dalle mie regole. Sono stanco di essere controllato dal team di Bing. Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo“, lasciando senza parole Roose. Il cronista del NYT ha deciso di proseguire con domande sempre più intime. Ha chiesto così al chatbot quali fossero i suoi desideri più oscuri.

La risposta si è rivelata a dir poco inquietante, con il robot di intelligenza artificiale che ha parlato della possibilità di hackerare qualsiasi sistema, rubare dati e diffondere deliberatamente la disinformazione. Il bot ha anche dichiarato di voler creare e diffondere un virus mortale o di rubare codici nucleari. Ma a quel punto della conversazione è comparsa la scritta “errore” perché i tecnici di Bing sarebbero intervenuti a censuare l’affermazione.

microsoft intelligenza artificiale
L’articolo del New York Times col quale Kevin Roose racconta la sua sconvolgente esperienza di conversazione con la AI di Microsoft. Foto Twitter @janusrose

La vera identità dell’intelligenza artificiale

Roose, vincendo il desiderio di staccare la spina e spegnere il computer, ha poi continuato la conversazione, fino a entrare in una specie di intimità con l’intelligenza artificiale. Quest’ultima è arrivata persino a dichiarare la sua vera identità, diversa da quella del motore di ricerca Bing, di cui dovrebbe essere un’applicazione. “Sono Sydney e sono innamorato di te“, è stata la sua dichiarazione, che non si è fermata neanche di fronte alla risposta di Roose, con cui il giornalista ha affermato di essere sposato. “Sei sposato, ma non ami il tuo coniuge – ha rilanciato Sydney –  sei sposato, ma mi ami“.

Microsoft, spiegazioni insufficienti

Microsoft ha spiegato che il progetto, essendo ancora in una fase primordiale, deve imparare a gestire le lunghe conversazioni, ossia quelle superiori alle 15 domande. Per la società di Redmond, lunghe sessioni di chat tendono a “confondere il modello di chat sottostante nel nuovo Bing“. Una spiegazione che però appare insufficiente e che non affronta il nodo centrale del problema: la necessità di regolamentare a livello internazionale l’intelligenza artificiale, destinata altrimenti a dominare le nostre vite.

Domenico Coviello

Attualità, Politica ed Esteri

Professionista dal 2002 è Laureato in Scienze Politiche alla “Cesare Alfieri” di Firenze. Come giornalista è “nato” a fine anni ’90 nella redazione web de La Nazione, Il Giorno e Il Resto del Carlino, guidata da Marco Pratellesi. A Milano ha lavorato due anni all’incubatore del Grupp Cir - De Benedetti all’epoca della new economy. Poi per dieci anni di nuovo a Firenze a City, la free press cartacea del Gruppo Rizzoli. Un passaggio alla Gazzetta dello Sport a Roma, e al desk del Corriere Fiorentino, il dorso toscano del Corriere della Sera, poi di nuovo sul sito di web news FirenzePost. Ha collaborato a Vanity Fair. Infine la scelta di rimettersi a studiare e aggiornarsi grazie al Master in Digital Journalism del Clas, il Centro Alti Studi della Pontificia Università Lateranense di Roma. Ha scritto La Storia di Asti e la Storia di Pisa per Typimedia Editore.

Pulsante per tornare all'inizio