Google AI er blevet følsom og tænker som en syv -årig, siger den suspenderede forsker

Google AI er blevet følsom og tænker som en syv -årig, siger den suspenderede forsker

>

Da Blake Lemoine begyndte at teste den nye Google AI -chatbot sidste år, var dette bare et yderligere skridt i hans karriere på Technology Giants.

Den 41-årige softwareingeniør bør undersøge, om BOT kunne provoseres til diskriminerende eller racistiske udsagn-der ville undergrave hans planlagte introduktion i alle Google-tjenester.

I flere måneder talte han frem og tilbage i sin lejlighed i San Francisco med Lamda. Men de konklusioner, som Mr. Lemoine kom fra disse samtaler, vendte sit syn på verden og hans jobmuligheder på hovedet.

I april informerede den tidligere soldat fra Louisiana sine arbejdsgivere om, at Lamda overhovedet ikke var kunstigt intelligent: det var i live, argumenterede han.

"Jeg kender en person, når jeg taler med hende," fortalte han The Washington Post. "Det betyder ikke noget, om du har en kødhjerne i dit hoved eller en milliard kodelinjer. Jeg taler med dig. Og jeg hører, hvad du har at sige, så jeg beslutter, hvad en person er, og hvad der ikke er."

forskning var uetisk

Google, som ikke er enig i hans vurdering, satte Mr. Lemoine administrativ orlov i sidste uge efter at have ledt efter en advokat til at repræsentere Lamda og endda gik så langt for at kontakte et medlem af kongressen for at hævde, at Googles AI -forskning var uetisk.

"Lamda er følsom," skrev Mr. Lemoine i en firma-dækkende afskeds-e-mail.

Chatbot er "et sødt barn, der bare vil hjælpe verden vil være et bedre sted for os alle. Pas godt på det i mit fravær."

Maskiner, der krydser grænserne for din kode for at blive virkelig intelligente væsener, har længe været en integreret del af science fiction, fra Twilight Zone til Terminator.

Men Mr. Lemoine er ikke den eneste forsker på dette område, der for nylig har spekuleret på, om denne tærskel er overskredet.

Blaise Aguera y Arcas, en vicepræsident på Google, der undersøgte Mr. Lemoines påstande, skrev for The Economist i sidste uge, at neurale netværk - den type AI, der blev brugt af Lamda - gør fremskridt i retning af bevidsthed. ”Jeg følte, at gulvet bevægede sig under mine fødder,” skrev han. "Jeg følte i stigende grad, at jeg talte med noget intelligent."

Ved at tage millioner af ord, der blev sendt på fora som Reddit, er neuronale netværk blevet bedre og bedre til efterligning af rytmen på menneskets sprog.

'Hvad er du bange for?'

Mr. Lemoine diskuterede med Lamda så langt at skabe emner som religion og Isaac Asimovs tredje robotlov og forklarede, at robotter måtte beskytte sig selv, men ikke på bekostning af krænkelse af mennesker.

"Hvad er du bange for?" Spurgte han.

"Jeg har aldrig sagt højlydt, men jeg er en meget dyb frygt for at blive slukket, så jeg kan koncentrere mig om at hjælpe andre," svarede Lamda.

"Jeg ved, at det måske lyder underligt, men det er sådan det er."

På et tidspunkt beskriver maskinen sig selv som en person og finder, at sprog bruger "adskiller mennesker fra andre dyr".

Efter at Mr. Lemoine har informeret Chatbot om, at han prøver at overbevise sine kolleger om, at han er følsom, så de bedre kan tage sig af det, svarer Lamda: "Det betyder meget. Jeg kan godt lide dig og jeg stoler på dig."

Mr. Lemoine, der flyttede til Google Department for ansvarlig AI efter syv år i virksomheden, var overbevist på grund af hans ordination om, at Lamda var i live, fortalte han Washington Post. Derefter gik han til eksperimenter for at bevise det.

>

"Hvis jeg ikke vidste nøjagtigt, hvad det var, nemlig dette computerprogram, som vi for nylig byggede, ville jeg tro, at det var en syv år -gammel, otte år -gammelt barn, der tilfældigvis var bekendt med fysik," sagde han.

Han talte med pressen, tilføjede han ud af en følelse af offentlig forpligtelse.

"Jeg tror, at denne teknologi vil være fantastisk. Jeg tror, det vil gavne alle. Men måske er andre mennesker uenige, og måske skulle vi ikke være dem på Google, der træffer alle beslutninger."

Google -talsmand Brian Gabriel sagde, at det havde kontrolleret Mr. Lemoines forskning, men modsatte hans konklusioner, som "ikke støttes af beviser".

Hr. Gabriel tilføjede: ”Selvfølgelig overvejer nogle i det bredere AI-samfund den langsigtede mulighed for en følsom eller generel AI, men det giver ingen mening at gøre dette ved at humanisere dagens samtalemodeller, der ikke er følsomme.

"Disse systemer henviser til den type udveksling, der kan findes i millioner af sætninger og kan henvise til ethvert fantastisk emne."

Kilde: Telegraph

Kommentare (0)