{h1}
vetenskap + teknik

Eugene Turing test-beating teenbot avslöjar mer om människor än datorer

Anonim

Efter många års försök ser det ut som att en chatbot äntligen har gått igenom Turing-testet. Eugene Goostman, ett datorprogram som poserar som en 13-årig ukrainsk pojke, lyckades övertyga 33% av domarna om att han var en människa efter att ha haft en rad korta samtal med dem.

De flesta människor missförstår Turing-testet. När Alan Turing skrev sitt berömda papper om datorunderrättelse, var tanken att maskiner skulle kunna tänka på något sätt helt främmande för de flesta. Tänkande - och därmed intelligens - kunde bara uppstå i mänskliga sinnen.

Turing poäng var att vi inte behöver tänka på vad som ligger inne i ett system för att bedöma huruvida det uppför sig intelligent. I sitt papper undersöker han hur bred en smart samtalare kan testa sinnet på andra sidan en konversation genom att prata om allt från matematik till schack, politik till puns, Shakespeare's poesi eller barndomsminnen. För att på ett tillförlitligt sätt imitera en människa måste maskinen vara flexibel och kunnig: för alla praktiska ändamål, intelligent.

Problemet är att många människor ser testet som en mätning av maskinens förmåga att tänka. De saknar att Turing behandlade testet som ett tankeexperiment: faktiskt kan det inte avslöja mycket användbar information, medan filosofi om det berättar för oss intressanta saker om intelligens och hur vi ser maskiner.

Några praktiska testresultat har gett oss mat för tanke. Turing verkar ha överskattat hur bra en intelligent domare skulle vara att berätta för människor och maskiner från varandra.

Joseph Weizenbaums 1964-program ELIZA var en parodi av en psykoterapeut som studsade tillbaka svar på den person som pratade med att blanda sig med slumpmässiga meningar som "jag ser." Vänligen fortsätt. "Weizenbaum stördes av hur många som var villiga att avslöja personliga känslor till vad som var lite mer än en ekokammare, även om de var helt medvetna om att programmet inte hade någon förståelse eller känslor. Denna Eliza-effekt, där vi uppfattar förståelse och mentala egenskaper från enbart strängar av symboler, är både en bane och en välsignelse för artificiell intelligens.

"Eugene Goostman" utnyttjar tydligt Eliza-effekten genom att låtsas vara en ukrainsk 13-årig. Som mest framgångsrika chatobots hanterar Eugene diskussionen för att undvika vissa ämnen. Han kanske inte har någon information om en viss historisk händelse eller en plats så han skulle avleda samtalet på något annat om man frågade om dem.

En verklig 13-årig kunde troligen lösa enkla logiska problem, medan Eugene inte kunde, så om man bad om att lösa ett problem, skulle programmet vägra att delta. Men Eugene poserar som tonåring så det är helt trovärdigt att han också kan vägra att delta om han var en riktig människa, i ett tecken på den återkallelse som är typisk för hans ålder.

Den verkliga konsten här - och det är väl värt att erkänna att det tar skicklighet att utveckla system som det här - ligger i att bygga rätt slags sociala interaktioner och svar som manipulerar domaren till att tänka och agera på vissa sätt. Sann intelligens kan vara till hjälp, men social kompetens är förmodligen mycket kraftfullare. Eugene behöver inte veta allt eftersom en tonåring inte skulle veta allt och kan bete sig på ett visst sätt utan att väcka misstankar. Han hade antagligen haft svårare att övertyga domarna om han hade sagt att han var en 50-årig universitetsprofessor.

Varför faller vi för det så lätt? Det kan helt enkelt vara att vi har utvecklats med en inbyggd folkpsykologi som får oss att tro att agenter tror, ​​är medvetna, fattar moraliska beslut och har fri vilja. Filosofer kommer med glädje att hävda att dessa saker inte nödvändigtvis innebär varandra, men experiment visar att människor tenderar att tro att om något är medvetet kommer det att vara moraliskt ansvarigt (även om det är en deterministisk robot).

Det är svårt att föreställa sig en människaliknande agent utan medvetande men med moralisk byrå, så vi tenderar att anslå byrå och fri vilja till allt som ser medvetet. Det kan bara vara närvaron av ögon, eller en förmåga att prata tillbaka, eller andra tricks av mänskligheten.

Så Euges framgång i Turing-testet kan berätta mer om hur svaga vi människor är när det gäller att upptäcka intelligens och byrå i samtal än om hur smarta våra maskiner är.

Vi spenderar mycket av vår tid som uppträder som chatbots i alla fall. Vi reagerar vanligtvis på vår miljö, mycket av vårt samtal består av konservburkar eller reflektioner av vad den tidigare talaren sa. Den totala mängd faktiska intelligenta beslut som vi fattar över en dag är förmodligen ganska liten. Det är inte nödvändigtvis dåligt: ​​ett smart varande kommer att minimera ansträngningen eftersom det hela tiden är slösigt att ständigt tänka på helt nya lösningar på problem.

Vi borde förvänta sig avkomlingar från Eugene Goostman att visa sig i vår sociala miljö mer och mer. Den verkliga frågan är inte om de kan tänka, men vilka andra system de är kopplade till. Om vi ​​spelar det tekniska spelet bra kan vi skapa stora system med programvara och människor som är smartare än deras komponenter. Några tvivel om de faktiskt kunde tänka, men om de handlar smart och vi drar nytta av dem, bryr vi oss verkligen om?

Rekommenderas

Storleksanpassar saker för svart hålbildning, men det saknas något i mitten

Ingen snabb åtgärd för elever med fasta tankar om sin egen intelligens

Le système de santé français är en del av solidaritet?