{h1}
vetenskap + teknik

Konstgjord intelligens - kan vi hålla den i lådan?

Anonim

Vi vet hur man hanterar misstänkta paket - så noggrant som möjligt! Idag låter vi robotar ta risken. Men vad händer om robotarna är risken? Vissa kommentatorer argumenterar för att vi borde behandla AI (artificiell intelligens) som ett misstänkt paket, för att det eventuellt kan sprängas i våra ansikten. Ska vi vara oroliga?

Exploderande intelligens?

Fråga om huruvida det någonsin kommer att bli datorer som smarta som människor, svarade amerikansk matematiker och sci-fi-författare Vernor Vinge: "Ja, men bara kortfattat".

Han menade att när datorer kommer till den här nivån finns det inget som hindrar dem att komma mycket längre mycket snabbt. Vinge döpte denna plötsliga explosionen av intelligens den "tekniska singulariteten" och trodde att det inte var troligt att vara goda nyheter, ur mänsklig synvinkel.

Var Vinge rätt, och i så fall vad ska vi göra åt det? Till skillnad från typiska misstänkta paket, trots allt, vad AIs framtid rymmer är upp till oss, åtminstone till viss del. Finns det saker vi kan göra nu för att se till att det inte är en bomb (eller en bra bomb snarare än en dålig bombe, kanske)?

AI som lågpresterande

Optimister tar ibland tröst från det faktum att AI-fältet har mycket rutigt förflutet. Perioder av överflöd och hype har blivit blandade med så kallade "AI winters" - tider med minskad finansiering och ränta, efter det att utlovade förmågor inte har uppstått.

Vissa människor pekar på detta eftersom bevismaskiner aldrig kommer att nå mänskliga nivåer av intelligens, än mindre att överträffa dem. Andra påpekar att samma kunde ha sagts om tyngre än flygflyg.

Historien om den teknologin är också full av naysayers (vissa av dem vägrade att tro på rapporter om Wright-brödernas framgång, tydligen). För mänsklig nivå intelligens, som för tyngre än flyg flyg, måste naysayers konfrontera det faktum naturen har lyckats knep: tänk hjärnor och fåglar, respektive.

Ett bra naysaying-argument behöver en anledning att tro att mänsklig teknik aldrig kan nå baren när det gäller AI.

Pessimism är mycket lättare. För en sak vet vi att naturen lyckades sätta mänsklig intelligens i skalleformade lådor, och att några av dessa skalleformade lådor gör framsteg när man ska räkna ut hur naturen gör det. Det gör det svårt att hävda att stången är permanent utom räckhåll för artificiell intelligens - tvärtom verkar vi förbättra vår förståelse för vad det skulle ta för att komma dit.

Moores lag och smala AI

På den tekniska sidan av staketet verkar vi göra framsteg mot baren, både i hårdvara och i programvarukrav. I hårdvaruarenan, Moores lag, som förutspår att mängden datorkraft vi kan passa på ett chip fördubblar vartannat år, visar lite tecken på att sakta ner.

I mjukvaruarenan debatterar folk möjligheten till "starkt AI" (artificiell intelligens som matchar eller överträffar mänsklig intelligens) men husvagnen "smal AI" (AI som är begränsad till särskilda uppgifter) rör sig stadigt framåt. En efter en tar datorer domäner som tidigare anses vara begränsade till allt annat än mänskligt intellekt och intuition.

Vi har nu maskiner som har trumpet mänskliga prestationer på sådana områden som schack, trivia spel, flygning, körning, finansiell handel, ansikte, tal och handskrift erkännande - listan fortsätter.

Tillsammans med den fortsatta utvecklingen i hårdvaran, gör den här utvecklingen i smal AI det svårare att försvara uppfattningen att datorer aldrig kommer att nå nivån av den mänskliga hjärnan. En brant stigande kurva och en horisontell linje verkar vara avsett att korsa!

Vad är så dåligt om intelligenta hjälpare?

Skulle det vara dåligt om datorerna var så smarta som människor? Listan över nuvarande framgångar i smal AI kan tyder på att pessimismen är obefogad. Är inte dessa program mest användbara, trots allt? En liten skada på stormästarnas egos, kanske, och några misslyckanden på finansmarknaderna, men det är svårt att se några tecken på övergående katastrof på listan ovan.

Det är sant, säg pessimisterna, men vad gäller vår framtid är de smala domäner vi ger till datorer inte lika skapade lika. Vissa områden kommer sannolikt att få en mycket större påverkan än andra. (Att ha robotar köra våra bilar kan helt omdirigera våra ekonomier det närmaste decenniet eller så).

De största bekymmerna härrör från möjligheten att datorer kan ta över domäner som är kritiska för att kontrollera hastigheten och riktningen av den tekniska utvecklingen själv.

Programvara skrivprogramvara?

Vad händer om datorer når och överstiger mänsklig kapacitet för att skriva datorprogram? Den första personen att överväga denna möjlighet var den Cambridge-utbildade matematikern IJ Good (som arbetade med Alan Turing-kodbrytning vid Bletchley Park under andra världskriget och senare på tidiga datorer vid University of Manchester).

1965 Goda observerade att det med intelligenta maskiner skulle bli att utveckla ännu mer intelligenta maskiner skulle resultera i en "intelligens explosion" som skulle lämna de mänskliga nivåerna av intelligens långt efter. Han kallade skapandet av en sådan maskin "vår senaste uppfinning" - som sannolikt inte är "Bra" nyheter, lägger pessimisterna till!

I det ovanstående scenariot, när datorerna blir bättre programmerare än människor markerar punkten i historien där hastigheten på tekniska framsteg skiftar från hastigheten av mänsklig tanke och kommunikation till kiselhastigheten. Det här är en version av Vernor Vings "tekniska singularitet" - utöver denna punkt drivs kurvan av ny dynamik och framtiden blir radikalt oförutsägbar, som Vinge hade i åtanke.

Inte bara som oss, men smartare!

Det skulle vara tröst att tro att någon intelligens som överträffade våra egna förmågor skulle vara som oss, i viktiga avseenden - bara mycket smartare. Men här ser pessimisterna också dåliga nyheter: de påpekar att nästan alla saker vi människor värderar (kärlek, lycka, överlevnad) är viktiga för oss eftersom vi har en särskild evolutionär historia - en historia som vi delar med högre djur, men inte med datorprogram, till exempel artificiell intelligens.

Som standard verkar det som om vi inte har någon anledning att tro att intelligenta maskiner skulle dela våra värderingar. Den goda nyheten är att vi förmodligen inte har någon anledning att tro att de skulle vara fientliga. Som sådan: Fjädring är också ett djurs emotion.

Den dåliga nyheten är att de helt enkelt kan vara likgiltiga för oss - de kan bry sig om oss så mycket som vi bryr oss om buggarna på vindrutan.

Människor klagar ibland att företag är psykopater, om de inte är tillräckligt välgjorda av mänsklig kontroll. Den pessimistiska utsikten här är att artificiell intelligens kan vara liknande, förutom mycket mycket smartare och mycket mycket snabbare.

Att komma i vägen

Nu ser du var detta går enligt denna pessimistiska uppfattning. Orsaken är att genom att skapa datorer som är lika intelligenta som människor (åtminstone domäner som är viktiga för tekniska framsteg) riskerar vi att ge kontroll över planeten till intelligenser som helt enkelt är likgiltiga för oss och saker som vi anser vara värdefulla - saker som som liv och en hållbar miljö.

Om det låter förflutet, säger pessimisterna, fråga bara gorillor hur det känns att konkurrera om resurser med de mest intelligenta arterna - anledningen till att de kommer utdöda är inte (i det hela taget) eftersom människor är aktivt fientliga mot dem, men för att de Vi kontrollerar miljön på sätt som skadar deras fortsatta överlevnad.

Hur mycket tid har vi?

Det är svårt att säga hur bråttom problemet är, även om pessimisterna har rätt. Vi vet inte exakt vad som gör att människans tankar skiljer sig från den nuvarande generationen av maskininlärningsalgoritmer, för en sak, så vi vet inte storleken på klyftan mellan den fasta linjen och stigande kurvan.

Men vissa trender pekar mot mitten av nuvarande århundradet. I helhjärnan Emulering: En färdplan, Oxford-filosoferna Anders Sandberg och Nick Bostrom föreslår att vår förmåga att skanna och efterlikna mänskliga hjärnor kan vara tillräcklig för att replikera mänsklig prestanda i kisel runt den tiden.

"Pessimisterna kan vara fel!"

Naturligtvis är det svårt att göra förutsägelser, som de säger, särskilt om framtiden! Men i det vanliga livet tar vi osäkerhet mycket allvarligt, när mycket står på spel.

Det är därför vi använder dyra robotar för att undersöka misstänkta paket, trots allt (även om vi vet att endast en mycket liten andel av dem kommer att bli bomber).

Om AIs framtid är "explosiv" på det sätt som beskrivs här kan det vara den sista bomben som människans art möter någonsin. En misstänkt attityd verkar mer än förnuftig då, även om vi hade goda skäl att tro att riskerna är mycket små.

För närvarande verkar även den grad av försäkran vara utom räckhåll - vi vet inte tillräckligt om problemen för att uppskatta riskerna med någon hög grad av förtroende. (Att känna sig optimistisk är inte detsamma som att ha god anledning att vara optimistisk, trots allt).

Vad ska man göra?

Ett bra första steg tror vi skulle vara att sluta behandla intelligenta maskiner som science fiction och börja tänka på dem som en del av den verklighet som vi eller våra ättlingar faktiskt kan konfrontera, förr eller senare.

När vi sätter en sådan framtid på dagordningen kan vi börja med en seriös undersökning om sätt att säkerställa att inköp av intelligens till maskiner skulle vara säkert och fördelaktigt, ur vår synvinkel.

Kanske är den bästa orsaken till optimism att, till skillnad från vanliga tickande paket, är AI: s framtid fortfarande sammansatt, bit för bit, av hundratals utvecklare och forskare över hela världen.

Framtiden är ännu inte fastställd, och det kan väl vara saker vi kan göra nu för att göra det säkrare. Men det här är bara en anledning till optimism om vi tar problem att göra det genom att undersöka frågorna och tänka hårt om de säkraste strategierna.

Vi är skyldiga till våra barnbarn - för att inte tala om våra förfäder, som arbetade så hårt så länge för att få oss så långt! - för att göra det.


Vidare information:
För en noggrann och genomtänkt analys av detta ämne rekommenderar vi Singularity: A Philosophical Analysis av den australiensiska filosofen David Chalmers. Jaan Tallinns senaste offentliga föreläsning The Intelligence Stairway är tillgänglig som podcast eller på YouTube via Sydney Ideas.

Centrum för studier av existentrisk risk
Författarna är medstifterna, tillsammans med den framstående brittiska astrofysiker, Lord Martin Rees, av ett nytt projekt för att skapa ett centrum för studier av existentiell risk (CSER) vid University of Cambridge.

Centret kommer att stödja forskning för att identifiera och mildra katastrofal risk från utvecklingen inom mänsklig teknik, inklusive AI - ytterligare detaljer på CSER.ORG.

Rekommenderas

Varför den brittiska monarkin löper ut ur ädla namn för sina söner och döttrar

Colombia: s krusstid: är kriget med FARC till ett slut?

Universiteter Australien kritiserar tillverkningsarbetet