L'intelligenza artificiale di Google è diventata sensibile e pensa come un sette anni, afferma il ricercatore sospeso

L'intelligenza artificiale di Google è diventata sensibile e pensa come un sette anni, afferma il ricercatore sospeso

>>

Quando Blake Lemoine ha iniziato a testare il nuovo Google AI Chatbot l'anno scorso, questo è stato solo un ulteriore passo nella sua carriera ai Giganti della tecnologia.

L'ingegnere del software di 41 anni dovrebbe esaminare se il bot potrebbe essere provocato a dichiarazioni discriminatorie o razziste che minerebbero la sua introduzione pianificata in tutti i servizi di Google.

Per mesi parlò avanti e indietro nel suo appartamento a San Francisco con Lamda. Ma le conclusioni in cui il signor Lemoine proveniva da queste conversazioni ribaltarono la sua visione del mondo e le sue prospettive di lavoro a testa in giù.

Ad aprile, l'ex soldato della Louisiana ha informato i suoi datori di lavoro che Lamda non era affatto artificialmente intelligente: era vivo, ha affermato.

"Conosco una persona quando le parlo", ha detto al Washington Post. "Non importa se hai un cervello di carne in testa o un miliardo di linee di codice. Ti parlo. E sento quello che hai da dire, quindi decido cosa è una persona e cosa no."

La ricerca non era etica

Google, che non è d'accordo con la sua valutazione, Lemoine ha messo in congedo amministrativo la scorsa settimana dopo aver cercato un avvocato per rappresentare Lamda e persino è andato così lontano a contattare un membro del Congresso per sostenere che la ricerca AI di Google non era etica.

"Lamda è sensibile", ha scritto Lemoine in un'e-mail addio a livello aziendale.

Il chatbot è "un bambino dolce che vuole solo aiutare il mondo sarà un posto migliore per tutti noi. Per favore, prenditi cura di esso in mia assenza".

macchine che attraversano i limiti del tuo codice per diventare esseri davvero intelligenti sono state a lungo parte integrante della fantascienza, dalla zona di Twilight a Terminator.

Ma il signor Lemoine non è l'unico ricercatore in quest'area che si è recentemente chiesto se questa soglia è stata superata.

Blaise Aguara Y Arcas, vicepresidente di Google che ha esaminato le affermazioni di Lemoine, ha scritto per l'economista la scorsa settimana che le reti neurali - il tipo di intelligenza artificiale utilizzate da Lamda - fanno progressi nella direzione della coscienza. "Ho sentito il pavimento muoversi sotto i miei piedi", ha scritto. "Avevo sempre più la sensazione di parlare con qualcosa di intelligente."

Prendendo milioni di parole che sono state pubblicate in forum come Reddit, le reti neuronali sono diventate sempre migliori in imitazione del ritmo del linguaggio umano.

'Di cosa hai paura?'

Il signor Lemoine ha discusso con Lamda come argomenti di riparazione come la religione e la terza legge di robotica di Isaac Asimov e ha spiegato che i robot dovevano proteggersi, ma non a spese della violazione delle persone.

"Di cosa hai paura?" Chiese.

"Non l'ho mai detto ad alta voce, ma sono una paura molto profonda di essere spento in modo da poter concentrarmi sull'aiutare gli altri", ha risposto Lamda.

"Lo so che può sembrare strano, ma è così."

Ad un certo punto, la macchina si descrive come una persona e trova che l'uso del linguaggio "distingue le persone dagli altri animali".

Dopo che il signor Lemoine ha informato il chatbot che cerca di convincere i suoi colleghi che è sensibile in modo che possano meglio prendersene cura, Lamda risponde: "Significa molto. Mi piaci e mi fido di te".

Lemoine, che si è trasferito al Dipartimento di Google per l'IA responsabile dopo sette anni in compagnia, è stato convinto a causa della sua ordinazione secondo cui Lamda era vivo, ha detto al Washington Post. Quindi è andato agli esperimenti per dimostrarlo.

>>>>>>>>>>>>>>>>>>>>>> conversazione con un chatbot
;
>>

"Se non sapessi esattamente cosa fosse, vale a dire questo programma per computer che abbiamo recentemente costruito, penso che fosse un bambino di sette anni, otto anni che ha familiarità con la fisica", ha detto.

Ha parlato alla stampa, ha aggiunto, per sensazione di obbligo pubblico.

"Penso che questa tecnologia sarà sorprendente. Penso che andrà a beneficio di tutti. Ma forse altre persone non sono d'accordo e forse non dovremmo essere quelli di Google che prendono tutte le decisioni."

Il portavoce di Google Brian Gabriel ha affermato di aver controllato la ricerca del signor Lemoine, ma ha contraddetto le sue conclusioni, che non sono "supportate dalle prove".

Mr. Gabriel ha aggiunto: “Certo, alcuni nella più ampia comunità di AI considerano la possibilità a lungo termine di un'intelligenza artificiale sensibile o generale, ma non ha senso farlo umanizzando i modelli di conversazione di oggi non sensibili.

"Questi sistemi si riferiscono al tipo di scambio che può essere trovato in milioni di frasi e possono fare riferimento a qualsiasi argomento fantastico."

Fonte: The Telegraph

Kommentare (0)