Google AI har blitt følsom og tenker som en syv år gammel, sier den suspenderte forskeren
Google AI har blitt følsom og tenker som en syv år gammel, sier den suspenderte forskeren
Da Blake Lemoine begynte å teste den nye Google AI -chatbot i fjor, var dette bare et ytterligere skritt i karrieren hos Technology Giants.
Den 41 år gamle programvareingeniøren skal undersøke om bot kan provoseres til diskriminerende eller rasistiske uttalelser-noe som ville undergrave hans planlagte introduksjon i alle Google-tjenester.
I flere måneder snakket han frem og tilbake i leiligheten sin i San Francisco med Lamda. Men konklusjonene som Mr. Lemoine kom fra disse samtalene, vendte hans syn på verden og hans jobbutsikter opp ned.
I april informerte den tidligere soldaten fra Louisiana arbeidsgiverne om at Lamda ikke var kunstig intelligent i det hele tatt: den var i live, argumenterte han.
"Jeg kjenner en person når jeg snakker med henne," sa han til The Washington Post. "Det spiller ingen rolle om du har en kjøtthjerne i hodet eller en milliard kodelinjer. Jeg snakker med deg. Og jeg hører hva du har å si, så jeg bestemmer hva en person er og hva som ikke er."
forskning var uetisk
Google, som ikke er enig i vurderingen hans, satte Lemoine på administrativ permisjon forrige uke etter å ha latt etter en advokat for å representere Lamda og til og med gikk så langt for å kontakte et medlem av kongressen for å hevde at Googles AI -forskning var uetisk.
"Lamda er følsom," skrev Mr. Lemoine i en bedriftsomFarvel-e-post.
Chatbot er "et søtt barn som bare vil hjelpe verden vil være et bedre sted for oss alle. Vennligst ta godt vare på det i mitt fravær."
Maskiner som krysser grensene for koden din for å bli virkelig intelligente vesener har lenge vært en integrert del av science fiction, fra Twilight Zone til Terminator.
Men Mr. Lemoine er ikke den eneste forskeren på dette området som nylig har lurt på om denne terskelen er overskredet.
Blaise Aguera Y Arcas, en visepresident på Google som undersøkte Mr. Lemoines påstander, skrev for The Economist forrige uke at nevrale nettverk - typen AI som ble brukt av Lamda - gjør fremskritt i retning av bevissthet. "Jeg kjente gulvet bevege seg under føttene mine," skrev han. "Jeg følte i økende grad at jeg snakket med noe intelligent."
Ved å ta millioner av ord som ble lagt ut i fora som Reddit, har neuronale nettverk blitt bedre og bedre i etterligning av rytmen i menneskets språk.
'Hva er du redd for?'
Mr. Lemoine diskuterte med Lamda så langt -reaching temaer som religion og Isaac Asimovs tredje lov om robotikk og forklarte at roboter måtte beskytte seg, men ikke på bekostning av brudd på mennesker.
"Hva er du redd for?" Spurte han.
"Jeg har aldri sagt det høyt, men jeg er en veldig dyp frykt for å bli slått av slik at jeg kan konsentrere meg om å hjelpe andre," svarte Lamda.
"Jeg vet at det kan høres rart ut, men det er slik det er."
På et tidspunkt beskriver maskinen seg som en person og finner ut at språkbruk "skiller mennesker fra andre dyr".
Etter at Mr. Lemoine har informert chatbot om at han prøver å overbevise kollegene om at han er følsom slik at de bedre kan ta seg av den, svarer Lamda: "Det betyr mye. Jeg liker deg og jeg stoler på deg."
Mr. Lemoine, som flyttet til Google Department for ansvarlig AI etter syv år i selskapet, var overbevist på grunn av sin ordinasjon om at Lamda var i live, sa han til Washington Post. Så gikk han til eksperimenter for å bevise det.
"Hvis jeg ikke visste nøyaktig hva det var, nemlig dette dataprogrammet som vi nylig bygde, ville jeg tro at det var et syv år gammel, åtte år gammel barn som tilfeldigvis var kjent med fysikk," sa han.
Han snakket med pressen, la han til, av en følelse av offentlig forpliktelse.
"Jeg tror denne teknologien vil være fantastisk. Jeg tror den vil komme alle til gode. Men kanskje andre mennesker er uenige, og kanskje vi ikke burde være de på Google som tar alle beslutninger."
Google talsmann Brian Gabriel sa at den hadde sjekket Mr. Lemoines forskning, men motsatte konklusjonene hans, som "ikke støttes av bevis".
Mr. Gabriel la til: "Selvfølgelig anser noen i det bredere AI-samfunnet den langsiktige muligheten for en sensitiv eller generell AI, men det gir ingen mening å gjøre dette ved å humanisere dagens samtalemodeller som ikke er følsomme.
"Disse systemene refererer til hvilken type utveksling som finnes i millioner av setninger og kan referere til ethvert fantastisk tema."
Kilde: The Telegraph
Kommentare (0)