Ko mākslīgais intelekts mūsdienās spēj paveikt
Ko mākslīgais intelekts mūsdienās spēj paveikt
Anonim

Brīdinājums par spoileri: vēl ir daudz laika pirms mašīnu sacelšanās.

Ko mākslīgais intelekts mūsdienās spēj paveikt
Ko mākslīgais intelekts mūsdienās spēj paveikt

Kad Elons Masks iepazīstina ar humanoīdu robotu Tesla Bot, šķiet, ka jauna zinātniska revolūcija ir tepat aiz stūra. Vēl nedaudz – un mākslīgais intelekts (AI) pārspēs cilvēku, un mašīnas mūs aizstās darbā. Tomēr profesori Gerijs Markuss un Ernests Deiviss, abi ir slaveni mākslīgā intelekta eksperti, tiek aicināti nesteigties ar šādiem secinājumiem.

Mākslīgā intelekta atsāknēšanā pētnieki skaidro, kāpēc mūsdienu tehnoloģijas ir tālu no ideāla. Ar izdevniecības "Alpina PRO" atļauju Lifehacker publicē fragmentu no pirmās nodaļas.

Šobrīd starp mūsu ambīcijām un mākslīgā intelekta realitāti ir milzīga plaisa – īsta plaisa. Šī plaisa ir radusies trīs specifisku problēmu neatrisināšanas dēļ, ar kurām katra ir godīgi jārisina.

Pirmais no tiem ir tas, ko mēs saucam par lētticību, kuras pamatā ir fakts, ka mēs, cilvēki, īsti neesam iemācījušies atšķirt cilvēkus no mašīnām, un tas ļauj mūs viegli apmānīt. Intelektu mēs attiecinām uz datoriem, jo mēs paši esam attīstījušies un dzīvojuši starp cilvēkiem, kuri lielā mērā balstās uz abstrakcijām, piemēram, idejām, uzskatiem un vēlmēm. Mašīnu uzvedība bieži vien ir virspusēji līdzīga cilvēku uzvedībai, tāpēc mēs ātri piešķiram mašīnām tāda paša veida pamatmehānismus, pat ja mašīnām to nav.

Mēs nevaram nedomāt par mašīnām kognitīvā izteiksmē (“Mans dators domā, ka es izdzēsu savu failu”), neatkarīgi no tā, cik vienkāršie noteikumi tiek ievēroti. Taču secinājumi, kas sevi attaisno, piemērojot tiem cilvēkiem, var būt pilnīgi nepareizi, ja tos piemēro mākslīgā intelekta programmām. Ievērojot sociālās psiholoģijas pamatprincipu, mēs to saucam par fundamentālo derīguma kļūdu.

Viens no agrākajiem šīs kļūdas gadījumiem notika 1960. gadu vidū, kad tērzēšanas robots Elīza pārliecināja dažus cilvēkus, ka viņš patiešām saprot to, ko viņi viņam saka. Patiesībā Elīza vienkārši paņēma atslēgvārdus, atkārtoja pēdējo, ko persona viņai teica, un strupceļā viņa ķērās pie standarta sarunvalodas trikiem, piemēram, "Pastāstiet man par savu bērnību". Ja jūs pieminētu savu māti, viņa jautātu par jūsu ģimeni, lai gan viņai nebija ne jausmas, kas īsti ir ģimene un kāpēc tā ir svarīga cilvēkiem. Tas bija tikai triku kopums, nevis patiesas inteliģences demonstrācija.

Neskatoties uz to, ka Elīza cilvēkus nemaz nesaprata, daudzus lietotājus apmānīja dialogi ar viņu. Daži pavadīja stundas, rakstot frāzes uz tastatūras, šādi sarunājoties ar Elīzu, bet nepareizi interpretējot čatbota trikus, sajaucot papagaiļa runu ar noderīgu, sirsnīgu padomu vai līdzjūtību.

Džozefs Veisenbaums Elīzas radītājs.

Cilvēki, kuri ļoti labi zināja, ka runā ar mašīnu, šo faktu ātri vien aizmirsa, tāpat kā teātra cienītāji uz brīdi meta pie malas savu neticību un aizmirst, ka darbībai, kuras liecinieki viņi ir, nav tiesību saukties par īstu.

Elīzas sarunu biedri bieži prasīja atļauju privātai sarunai ar sistēmu un pēc sarunas uzstāja, neskatoties uz visiem maniem paskaidrojumiem, ka mašīna viņus tiešām saprot.

Citos gadījumos kļūda autentiskuma novērtējumā var būt liktenīga vārda tiešajā nozīmē. 2016. gadā viens automatizētas Tesla automašīnas īpašnieks tik ļoti paļāvās uz šķietamo autopilota režīma drošību, ka (pēc nostāstiem) pilnībā iegrima Harija Potera filmu skatīšanā, atstājot automašīnu visu darīt pašam.

Viss gāja labi – līdz kādā brīdī kļuva slikti. Nobraucot simtiem vai pat tūkstošiem jūdžu bez avārijas, automašīna sadūrās (visā vārda nozīmē) ar negaidītu šķērsli: balta kravas automašīna šķērsoja šoseju, un Tesla paskrēja tieši zem piekabes, nogalinot automašīnas īpašnieku uz vietas.. (Šķiet, ka automašīna vairākas reizes brīdināja vadītāju, lai pārņemtu vadību, taču vadītājs šķita pārāk atslābinājies, lai ātri reaģētu.)

Šī stāsta morāle ir skaidra: tas, ka ierīce kādu brīdi vai divus (un pat sešus mēnešus) var šķist "gudra", nepavisam nenozīmē, ka tā patiešām ir vai ka tā var tikt galā ar visiem apstākļiem, kādos cilvēks reaģētu adekvāti.

Otro problēmu mēs saucam par strauja progresa ilūziju: mākslīgā intelekta progresu, kas saistīts ar vieglu problēmu risināšanu, sajauc ar progresu, kas saistīts ar patiešām sarežģītu problēmu risināšanu. Tas, piemēram, notika ar IBM Watson sistēmu: tās progress spēlē Jeopardy! šķita ļoti daudzsološa, taču patiesībā sistēma izrādījās daudz tālāk no cilvēka valodas izpratnes, nekā izstrādātāji bija paredzējuši.

Iespējams, ka DeepMind AlphaGo programma iet to pašu ceļu. Go spēle, tāpat kā šahs, ir idealizēta informācijas spēle, kurā abi spēlētāji jebkurā brīdī var redzēt visu galdu un ar brutālu spēku aprēķināt gājienu sekas.

Vairumā gadījumu reālajā dzīvē neviens neko nezina ar pilnīgu pārliecību; mūsu dati bieži vien ir nepilnīgi vai izkropļoti.

Pat visvienkāršākajos gadījumos ir daudz neskaidrību. Kad mēs izlemjam, vai doties pie ārsta ar kājām vai braukt ar metro (jo diena ir mākoņaina), mēs precīzi nezinām, cik ilgi būs jāgaida metro vilciens, vai vilciens nav iestrēdzis uz ceļa, vai iespiedīsimies vagonā kā siļķe mucā vai samirksimies ārā lietū, neuzdrošinādamies braukt ar metro, un kā ārsts reaģēs uz mūsu kavēšanos.

Mēs vienmēr strādājam ar informāciju, kas mums ir. Spēlējot Go ar sevi miljoniem reižu, DeepMind AlphaGo sistēma nekad nav tikusi galā ar nenoteiktību, tā vienkārši nezina, kas ir informācijas trūkums vai tās nepilnīgums un nekonsekvence, nemaz nerunājot par cilvēku mijiedarbības sarežģītību.

Ir vēl viens parametrs, kas padara prāta spēles ļoti atšķirīgas no reālās pasaules, un tas atkal ir saistīts ar datiem. Pat sarežģītas spēles (ja noteikumi ir pietiekami stingri) var modelēt gandrīz ideāli, tāpēc mākslīgā intelekta sistēmas, kas tās spēlē, var viegli savākt milzīgos datu apjomus, kas tiem nepieciešami, lai apmācītu. Tādējādi Go gadījumā mašīna var simulēt spēli ar cilvēkiem, vienkārši spēlējot pret sevi; pat ja sistēmai ir nepieciešami terabaiti datu, tā pati tos izveidos.

Tādējādi programmētāji var iegūt pilnīgi tīrus simulācijas datus ar nelielām izmaksām vai bez tās. Gluži pretēji, reālajā pasaulē pilnīgi tīri dati neeksistē, tos nav iespējams simulēt (jo spēles noteikumi pastāvīgi mainās), un vēl jo grūtāk ir izmēģinājuma veidā savākt daudzus gigabaitus atbilstošu datu. un kļūda.

Patiesībā mums ir tikai daži mēģinājumi pārbaudīt dažādas stratēģijas.

Mēs nevaram, piemēram, atkārtot vizīti pie ārsta 10 miljonus reižu, pamazām koriģējot lēmumu parametrus pirms katras vizītes, lai krasi uzlabotu savu uzvedību transporta izvēles ziņā.

Ja programmētāji vēlas apmācīt robotu, lai palīdzētu vecāka gadagājuma cilvēkiem (teiksim, lai palīdzētu noguldīt slimus cilvēkus), katrs datu bits būs īstas naudas un reāla cilvēka laika vērts; nav iespējas savākt visus nepieciešamos datus, izmantojot simulācijas spēles. Pat avārijas testa manekeni nevar aizstāt īstus cilvēkus.

Jāvāc dati par īstiem veciem cilvēkiem ar atšķirīgām senilu kustību pazīmēm, par dažāda veida gultām, dažāda veida pidžamām, dažāda veida mājām, un te nevar kļūdīties, jo nometot cilvēku pat vairāku attālumā. centimetri no gultas būtu katastrofa. Šajā gadījumā uz spēles ir likts zināms progress (līdz šim elementārākais) šajā jomā, kas panākts, izmantojot šaura mākslīgā intelekta metodes. Ir izstrādātas datorsistēmas, kas spēlē gandrīz labāko cilvēku spēlētāju līmenī videospēlēs Dota 2 un Starcraft 2, kur jebkurā brīdī dalībniekiem tiek parādīta tikai daļa no spēles pasaules un tādējādi katrs spēlētājs saskaras ar informācijas trūkuma problēma - to ar Klauzevica vieglo roku sauc par "nezināmā miglu". Tomēr izstrādātās sistēmas joprojām ir ļoti šauri fokusētas un nestabilas. Piemēram, AlphaStar programma, kas spēlē Starcraft 2, ir iemācījusies tikai vienu konkrētu rasi no dažādiem varoņiem, un gandrīz neviens no šiem uzlabojumiem nav spēlējams kā jebkura cita rase. Un, protams, nav pamata uzskatīt, ka šajās programmās izmantotās metodes ir piemērotas veiksmīgu vispārinājumu veikšanai daudz sarežģītākās reālās dzīves situācijās. reālās dzīves. Kā IBM ir atklājis ne reizi, bet jau divas reizes (vispirms šahā, bet pēc tam briesmās!), Panākumi problēmu risināšanā no slēgtas pasaules nebūt negarantē panākumus atvērtā pasaulē.

Aprakstītās plaisas trešais aplis ir uzticamības pārvērtēšana. Atkal un atkal mēs redzam, ka tiklīdz cilvēki ar mākslīgā intelekta palīdzību atrod risinājumu kādai problēmai, kas kādu laiku var darboties bez kļūmēm, viņi automātiski pieņem, ka ar pārskatīšanu (un ar nedaudz lielāku datu apjomu) viss. strādās uzticami.laiks. Taču tas tā nav obligāti.

Atkal ņemam mašīnas bez šoferiem. Ir salīdzinoši viegli izveidot autonoma transportlīdzekļa demonstrāciju, kas pareizi brauks pa skaidri iezīmētu joslu pa mierīgu ceļu; tomēr cilvēki to ir spējuši izdarīt vairāk nekā gadsimtu. Tomēr ir daudz grūtāk panākt, lai šīs sistēmas darbotos sarežģītos vai negaidītos apstākļos.

Kā Missy Cummings, Djūka universitātes Cilvēku un autonomijas laboratorijas direktore (un bijusī ASV Jūras spēku iznīcinātāja pilote), mums pastāstīja e-pastā, jautājums nav par to, cik jūdzes bez vadītāja var nobraukt bez avārijas. kam šīs automašīnas spēj pielāgoties mainīgajām situācijām. Saskaņā ar viņas Missy Cummings teikto, e-pasts autoriem 2018. gada 22. septembrī., mūsdienu daļēji autonomie transportlīdzekļi "parasti darbojas tikai ļoti šaurā apstākļu diapazonā, kas neko neliecina par to, kā tie var darboties ne ideālos apstākļos."

Pilnīgi uzticama izskata miljoniem testa jūdžu Fīniksā nenozīmē labu sniegumu musonu laikā Bombejā.

Šī būtiskā atšķirība starp to, kā autonomie transportlīdzekļi uzvedas ideālos apstākļos (piemēram, saulainās dienās uz piepilsētas vairāku joslu ceļiem) un to, ko tie varētu darīt ekstremālos apstākļos, var viegli kļūt par veiksmes un neveiksmes jautājumu visai nozarei.

Tā kā tik maz uzsvars tiek likts uz autonomu braukšanu ekstremālos apstākļos un pašreizējā metodoloģija nav attīstījusies tādā virzienā, lai nodrošinātu, ka autopilots darbosies pareizi apstākļos, kas tikai sāk uzskatīt par reāliem, drīz var kļūt skaidrs, ka miljardiem dolāru ir iztērēti, lai izveidotu pašbraucošus automobiļus, kas vienkārši nespēj nodrošināt cilvēkam līdzīgu braukšanas uzticamību. Iespējams, ka, lai sasniegtu mums nepieciešamo tehniskās pārliecības līmeni, ir nepieciešamas pieejas, kas principiāli atšķiras no pašreizējām.

Un automašīnas ir tikai viens piemērs no daudzām līdzīgām automašīnām. Mūsdienu pētījumos par mākslīgo intelektu tā uzticamība ir globāli par zemu novērtēta. Daļēji tas ir tāpēc, ka lielākā daļa pašreizējo notikumu šajā jomā ir saistītas ar problēmām, kas ir ļoti izturīgas pret kļūdām, piemēram, iesakot reklāmu vai reklamēt jaunus produktus.

Patiešām, ja mēs jums iesakām piecu veidu produktus un jums patīk tikai trīs no tiem, nekas nenotiks. Taču vairākās nākotnes AI lietojumprogrammās, tostarp bezvadītāja automašīnās, vecāka gadagājuma cilvēku aprūpes un veselības aprūpes plānošanā, cilvēkiem līdzīga uzticamība būs ļoti svarīga.

Neviens nepirks mājas robotu, kas var droši aiznest tavu veco vectēvu gultā tikai četras reizes no piecām.

Pat tajos uzdevumos, kur mūsdienu mākslīgajam intelektam teorētiski vajadzētu parādīties vislabākajā iespējamajā gaismā, regulāri notiek nopietnas neveiksmes, kas dažkārt izskatās ļoti smieklīgi. Tipisks piemērs: datori principā jau ir diezgan labi iemācījušies atpazīt, kas ir (vai notiek) tajā vai citā attēlā.

Dažreiz šie algoritmi darbojas lieliski, taču bieži tie rada pilnīgi neticamas kļūdas. Ja jūs parādāt attēlu automatizētai sistēmai, kas ģenerē parakstus ikdienas ainu fotogrāfijām, jūs bieži saņemat atbildi, kas ir ļoti līdzīga tam, ko rakstītu cilvēks; piemēram, tālāk redzamajai ainai, kurā cilvēku grupa spēlē frisbiju, Google plaši reklamētā subtitru ģenerēšanas sistēma piešķir tai precīzu nosaukumu.

1.1.att. Jauniešu grupa, kas spēlē frisbiju (ticams fotoattēla paraksts, automātiski ģenerēts AI)
1.1.att. Jauniešu grupa, kas spēlē frisbiju (ticams fotoattēla paraksts, automātiski ģenerēts AI)

Taču pēc piecām minūtēm no tās pašas sistēmas var viegli iegūt absolūti absurdu atbildi, kā tas notika, piemēram, ar šo ceļa zīmi, uz kuras kāds uzlīmēja uzlīmes: dators ar nosaukumu Sistēmas veidotāji nepaskaidroja, kāpēc radusies šī kļūda., taču šādi gadījumi nav nekas neparasts. Var pieņemt, ka sistēma šajā konkrētajā gadījumā klasificēja fotogrāfiju (varbūt krāsu un tekstūras ziņā) kā līdzīgu citiem attēliem (no kuriem tā uzzināja), kas apzīmēti kā "ledusskapis, kas piepildīts ar daudz pārtikas un dzērienu". Dabiski, ka dators nesaprata (ko cilvēks varēja viegli saprast), ka šāds uzraksts būtu piemērots tikai lielas taisnstūra formas metāla kastes gadījumā, kurā iekšā ir dažādi (un arī tad ne visi) priekšmeti. šī aina ir "ledusskapis ar daudz pārtikas un dzērienu".

Rīsi. 1.2. Ledusskapis piepildīts ar daudzām pārtikas un dzērienu kravām (pilnīgi neticams virsraksts, izveidots ar to pašu sistēmu, kā iepriekš)
Rīsi. 1.2. Ledusskapis piepildīts ar daudzām pārtikas un dzērienu kravām (pilnīgi neticams virsraksts, izveidots ar to pašu sistēmu, kā iepriekš)

Tāpat bezvadītāja automašīnas bieži pareizi identificē to, ko viņi "redz", bet dažreiz šķiet, ka tās neievēro acīmredzamo, piemēram, Tesla gadījumā, kas regulāri ietriecās stāvošās ugunsdzēsēju automašīnās vai ātrās palīdzības automašīnās ar autopilotu. Šādas aklās zonas var būt vēl bīstamākas, ja tās atrodas sistēmās, kas kontrolē elektrotīklus vai ir atbildīgas par sabiedrības veselības uzraudzību.

Lai pārvarētu plaisu starp ambīcijām un mākslīgā intelekta realitāti, mums ir vajadzīgas trīs lietas: skaidra izpratne par vērtībām, kas ir uz spēles šajā spēlē, skaidra izpratne par to, kāpēc mūsdienu AI sistēmas nepilda savas funkcijas pietiekami uzticami, un, visbeidzot, jauna attīstības stratēģijas mašīndomāšana.

Tā kā likmes uz mākslīgo intelektu ir patiešām augstas attiecībā uz darbavietām, drošību un sabiedrības struktūru, mums visiem - mākslīgā intelekta speciālistiem, radniecīgām profesijām, parastajiem pilsoņiem un politiķiem - ir steidzami jāsaprot patiesais lietu stāvoklis. šajā jomā, lai iemācītos kritiski novērtēt mūsdienu mākslīgā intelekta attīstības līmeni un raksturu.

Tāpat kā iedzīvotājiem, kuri interesējas par ziņām un statistiku, ir svarīgi saprast, cik viegli ir maldināt cilvēkus ar vārdiem un cipariem, tāpat šeit ir arvien nozīmīgāks izpratnes aspekts, lai mēs varētu saprast, kur ir mākslīgais intelekts.tikai reklāma, bet kur tas ir īsts; ko viņš tagad spēj un ko neprot un, iespējams, arī neiemācīsies.

Pats svarīgākais ir apzināties, ka mākslīgais intelekts nav maģija, bet tikai paņēmienu un algoritmu kopums, kuram katram ir savas stiprās un vājās puses, ir piemērots dažiem uzdevumiem un nav piemērots citiem. Viens no galvenajiem iemesliem, kāpēc mēs nolēmām rakstīt šo grāmatu, ir tas, ka liela daļa no tā, ko mēs lasām par mākslīgo intelektu, mums šķiet absolūta fantāzija, kas izriet no nepamatotas pārliecības par mākslīgā intelekta gandrīz maģisko spēku.

Tikmēr šai daiļliteratūrai nav nekāda sakara ar mūsdienu tehnoloģiskajām iespējām. Diemžēl diskusijas par mākslīgo intelektu plašas sabiedrības vidū ir ietekmējušas un ir stipri ietekmējušas spekulācijas un pārspīlējumi: lielākajai daļai cilvēku nav ne jausmas, cik grūti ir radīt universālu mākslīgo intelektu.

Noskaidrosim turpmāko diskusiju. Lai gan ar AI saistītās realitātes noskaidrošana prasīs no mums nopietnu kritiku, mēs paši nekādā gadījumā neesam mākslīgā intelekta pretinieki, mums ļoti patīk šī tehnoloģiskā progresa puse. Ievērojamu savas dzīves daļu esam nodzīvojuši kā profesionāļi šajā jomā un vēlamies, lai tā attīstītos pēc iespējas ātrāk.

Amerikāņu filozofs Huberts Dreifuss savulaik uzrakstīja grāmatu par to, kādus augstumus, viņaprāt, mākslīgais intelekts nekad nevar sasniegt. Šī grāmata nav par to. Tas daļēji koncentrējas uz to, ko mākslīgais intelekts pašlaik nevar izdarīt un kāpēc ir svarīgi to saprast, taču ievērojama daļa no tā runā par to, ko varētu darīt, lai uzlabotu datora domāšanu un paplašinātu to uz jomām, kurās tam tagad ir grūtības izdarīt vispirms. Soļi.

Mēs nevēlamies, lai mākslīgais intelekts pazustu; mēs vēlamies to uzlabot, turklāt radikāli, lai mēs patiešām varētu uz to paļauties un ar tās palīdzību atrisināt daudzās cilvēces problēmas. Mums ir daudz pārmetumu par pašreizējo mākslīgā intelekta stāvokli, taču mūsu kritika ir mīlestības izpausme pret zinātni, ko darām, nevis aicinājums padoties un pamest visu.

Īsāk sakot, mēs uzskatām, ka mākslīgais intelekts patiešām var nopietni pārveidot mūsu pasauli; taču mēs arī uzskatām, ka daudziem pamatpieņēmumiem par AI ir jāmainās, lai mēs varētu runāt par reālu progresu. Mūsu piedāvātā mākslīgā intelekta "atiestatīšana" nepavisam nav iemesls, lai pieliktu punktu pētniecībai (lai gan daži var saprast mūsu grāmatu tieši šādā garā), bet gan drīzāk diagnoze: kur mēs esam iestrēguši un kā izkļūt no tā. šodienas situācija.

Mēs uzskatām, ka labākais veids, kā virzīties uz priekšu, ir skatīties uz iekšu, saskaroties ar mūsu pašu prāta struktūru.

Patiesi inteliģentām mašīnām nav jābūt precīzām cilvēku kopijām, taču ikviens, kurš godīgi aplūko mākslīgo intelektu, redzēs, ka vēl ir daudz ko mācīties no cilvēkiem, īpaši no maziem bērniem, kuri daudzējādā ziņā ir daudz pārāki par mašīnām. viņu spēja absorbēt un saprast jaunus jēdzienus.

Medicīnas zinātnieki bieži raksturo datorus kā “pārcilvēciskas” (vienā vai citā veidā) sistēmas, taču cilvēka smadzenes joprojām ir ievērojami pārākas par saviem silīcija kolēģiem vismaz piecos aspektos: mēs varam saprast valodu, mēs varam saprast pasauli, mēs varam elastīgi. pielāgoties jauniem apstākļiem, mēs varam ātri apgūt jaunas lietas (pat bez liela datu apjoma) un varam spriest, saskaroties ar nepilnīgu un pat pretrunīgu informāciju. Visās šajās frontēs mūsdienu mākslīgā intelekta sistēmas bezcerīgi atpaliek no cilvēkiem.

Mākslīgā intelekta atsāknēšana
Mākslīgā intelekta atsāknēšana

Mākslīgais intelekts: Reboot ieinteresēs cilvēkus, kuri vēlas izprast modernās tehnoloģijas un saprast, kā un kad jaunas paaudzes AI var uzlabot mūsu dzīvi.

Ieteicams: