Ką dirbtinis intelektas iš tikrųjų gali padaryti šiandien
Ką dirbtinis intelektas iš tikrųjų gali padaryti šiandien
Anonim

Įspėjimas apie spoilerį: dar daug laiko iki mašinų sukilimo.

Ką dirbtinis intelektas iš tikrųjų gali padaryti šiandien
Ką dirbtinis intelektas iš tikrųjų gali padaryti šiandien

Kai Elonas Muskas pristato humanoidinį robotą Tesla Bot, atrodo, kad nauja mokslo revoliucija jau visai šalia. Dar šiek tiek – ir dirbtinis intelektas (AI) pranoks žmogų, o mašinos pakeis mus darbe. Tačiau profesoriai Gary Marcusas ir Ernestas Davisas, abu garsūs dirbtinio intelekto ekspertai, prašomi neskubėti daryti tokių išvadų.

Dirbtinio intelekto perkrovime mokslininkai paaiškina, kodėl šiuolaikinės technologijos toli gražu nėra idealios. Leidyklos „Alpina PRO“leidimu Lifehacker publikuoja ištrauką iš pirmojo skyriaus.

Šiuo metu tarp mūsų ambicijų ir dirbtinio intelekto realybės yra didžiulė praraja – tikra praraja. Ši praraja atsirado dėl trijų konkrečių problemų, kurių kiekviena turi būti sąžiningai sprendžiama, neišspręstų.

Pirmasis iš jų yra tai, ką mes vadiname patiklumu, kuris grindžiamas tuo, kad mes, žmonės, dar neišmokome atskirti žmonių nuo mašinų, todėl mus lengva apgauti. Kompiuteriams priskiriame intelektą, nes patys evoliucionavome ir gyvenome tarp žmonių, kurie savo veiksmus daugiausia grindžia abstrakcijomis, tokiomis kaip idėjos, įsitikinimai ir norai. Mašinų elgesys dažnai paviršutiniškai panašus į žmonių elgesį, todėl mašinoms greitai priskiriame tokio paties tipo pagrindinius mechanizmus, net jei mašinos jų neturi.

Negalime negalvoti apie mašinas pažinimo terminais („Mano kompiuteris mano, kad ištryniau savo failą“), nesvarbu, kokios paprastos taisyklės mašinos iš tikrųjų laikosi. Tačiau išvados, kurios pasiteisina, kai jos taikomos žmonėms, gali būti visiškai klaidingos, kai jos taikomos dirbtinio intelekto programoms. Atsižvelgdami į pagrindinį socialinės psichologijos principą, mes tai vadiname pagrindine galiojimo klaida.

Vienas iš pirmųjų šios klaidos atvejų įvyko septintojo dešimtmečio viduryje, kai pokalbių robotas Eliza įtikino kai kuriuos žmones, kad jis tikrai suprato, ką jie jam sako. Tiesą sakant, Eliza tiesiog rinko raktinius žodžius, pakartojo paskutinį dalyką, kurį žmogus jai pasakė, ir, atsidūrusi aklavietėje, griebėsi standartinių pokalbio triukų, tokių kaip „Papasakok apie savo vaikystę“. Jei paminėtum savo mamą, ji klaustų apie tavo šeimą, nors neįsivaizdavo, kas iš tikrųjų yra šeima ir kodėl ji svarbi žmonėms. Tai buvo tik triukų rinkinys, o ne tikrojo intelekto demonstravimas.

Nepaisant to, kad Eliza visiškai nesuprato žmonių, daugelis vartotojų buvo suklaidinti dialogų su ja. Kai kurie praleido valandas rinkdami frazes klaviatūra, taip kalbėdami su Eliza, bet klaidingai interpretuodami pokalbių roboto gudrybes, supainiodami papūgos kalbą kaip naudingą, nuoširdų patarimą ar užuojautą.

Josephas Weisenbaumas Elizos kūrėjas.

Žmonės, kurie puikiai žinojo, kad kalbasi su mašina, šį faktą greitai pamiršo, kaip ir teatro mėgėjai kuriam laikui meta į šoną savo netikėjimą ir pamiršta, kad veiksmo, kurį jie liudija, neturi teisės vadintis tikru.

Elizos pašnekovai dažnai reikalaudavo leidimo privačiam pokalbiui su sistema ir po pokalbio, nepaisant visų mano paaiškinimų, tvirtino, kad mašina juos tikrai suprato.

Kitais atvejais autentiškumo vertinimo klaida gali būti lemtinga tiesiogine to žodžio prasme. 2016 metais vienas automatizuoto „Tesla“automobilio savininkas taip pasitikėjo iš pažiūros autopiloto režimo saugumu, kad (pagal pasakojimus) visiškai pasinėrė į Hario Poterio filmų žiūrėjimą, palikdamas automobilį viską daryti pačiam.

Viskas klostėsi gerai – kol kažkada pasidarė bloga. Be avarijos nuvažiavęs šimtus ar net tūkstančius kilometrų, automobilis susidūrė (visomis šio žodžio prasme) netikėta kliūtimi: greitkelį kirto baltas sunkvežimis, o Tesla puolė tiesiai po priekaba, automobilio savininką žuvo vietoje.. (Atrodė, kad automobilis kelis kartus perspėjo vairuotoją, kad perimtų kontrolę, tačiau vairuotojas atrodė per daug atsipalaidavęs, kad galėtų greitai reaguoti.)

Šios istorijos moralas yra aiškus: tai, kad prietaisas akimirką ar dvi (ir net šešis mėnesius) gali atrodyti „protingas“, visiškai nereiškia, kad taip yra arba kad jis gali susidoroti su visomis aplinkybėmis, žmogus reaguotų adekvačiai.

Antroji problema, kurią vadiname greito progreso iliuzija: dirbtinio intelekto pažangą, siejamą su lengvų problemų sprendimu, sumaišyti su progresu, susijusiu su tikrai sunkių problemų sprendimu. Pavyzdžiui, tai atsitiko su IBM Watson sistema: jos pažanga žaidime Jeopardy! atrodė labai daug žadanti, bet iš tikrųjų pasirodė, kad sistema yra daug toliau nuo žmonių kalbos supratimo, nei tikėjosi kūrėjai.

Gali būti, kad tuo pačiu keliu eis ir DeepMind AlphaGo programa. Žaidimas go, kaip ir šachmatai, yra idealizuotas informacinis žaidimas, kuriame abu žaidėjai bet kada gali matyti visą lentą ir grubia jėga apskaičiuoti ėjimų pasekmes.

Daugeliu atvejų realiame gyvenime niekas nieko tiksliai nežino; mūsų duomenys dažnai yra neišsamūs arba iškraipyti.

Net ir pačiais paprasčiausiais atvejais yra daug neaiškumų. Kai sprendžiame, ar pas gydytoją eiti pėsčiomis, ar metro (kadangi diena debesuota), tiksliai nežinome, kiek reikės laukti metro traukinio, ar traukinys neužstrigo kelyje, ar susigrūsime į vežimą kaip silkė statinėje arba sušlapsime per lietų lauke, nedrįsdami sėsti į metro, o kaip gydytojas reaguos į mūsų vėlavimą.

Mes visada dirbame su ta informacija, kurią turime. Milijonus kartų žaisdama su savimi, DeepMind AlphaGo sistema niekada nesusidūrė su neapibrėžtumu, ji tiesiog nežino, kas yra informacijos trūkumas ar jos neišsamumas ir nenuoseklumas, jau nekalbant apie žmonių sąveikos sudėtingumą.

Yra dar vienas parametras, dėl kurio proto žaidimai labai skiriasi nuo realaus pasaulio, ir tai vėlgi susiję su duomenimis. Net sudėtingus žaidimus (jei taisyklės pakankamai griežtos) galima sumodeliuoti beveik tobulai, todėl juos žaidžiančios dirbtinio intelekto sistemos gali nesunkiai surinkti didžiulius kiekius treniruotėms reikalingų duomenų. Taigi, Go atveju, mašina gali imituoti žaidimą su žmonėmis, tiesiog žaisdama prieš save; net jei sistemai reikia terabaitų duomenų, ji pati juos sukurs.

Taigi programuotojai gali gauti visiškai švarius modeliavimo duomenis už mažą kainą arba be jo. Priešingai, realiame pasaulyje tobulai švarių duomenų nėra, jų neįmanoma imituoti (nes žaidimo taisyklės nuolat keičiasi), o tuo labiau bandomuoju būdu surinkti daug gigabaitų atitinkamų duomenų. ir klaida.

Iš tikrųjų turime tik keletą bandymų išbandyti skirtingas strategijas.

Negalime, pavyzdžiui, pakartoti vizito pas gydytoją 10 milijonų kartų, palaipsniui koreguodami sprendimų parametrus prieš kiekvieną vizitą, kad smarkiai pagerintume savo elgesį transporto pasirinkimo atžvilgiu.

Jei programuotojai nori išmokyti robotą padėti pagyvenusiems žmonėms (tarkim, padėti paguldyti sergančius žmones), kiekviena duomenų dalis bus verta tikrų pinigų ir tikro žmogaus laiko; nėra galimybės surinkti visų reikiamų duomenų naudojant simuliacinius žaidimus. Netgi susidūrimo testo manekenai negali pakeisti tikrų žmonių.

Reikia rinkti duomenis apie tikrus pagyvenusius žmones, turinčius skirtingas senatvinių judesių charakteristikas, apie skirtingų tipų lovas, skirtingų tipų pižamas, skirtingų tipų namus, o čia negalima klysti, nes numetus žmogų net kelių atstumu. centimetrai nuo lovos būtų nelaimė. Šiuo atveju rizikuojama tam tikra pažanga (kol kas elementariausia) šioje srityje, pasiekta naudojant siaurojo dirbtinio intelekto metodus. Sukurtos kompiuterinės sistemos, kurios vaizdo žaidimuose „Dota 2“ir „Starcraft 2“žaidžia beveik geriausių žmonių žaidėjų lygiu, kur bet kuriuo metu dalyviams parodoma tik dalis žaidimo pasaulio, todėl kiekvienas žaidėjas susiduria su informacijos stokos problema – tai lengva Clausewitzo ranka vadinama „nežinomybės rūku“. Tačiau sukurtos sistemos vis dar išlieka labai siauros ir nestabilios. Pavyzdžiui, „AlphaStar“programa, kuri žaidžia „Starcraft 2“, išmoko tik vieną konkrečią rasę iš įvairių veikėjų ir beveik nė vienas iš šių patobulinimų nėra tinkamas žaisti kaip bet kurios kitos rasės. Ir, žinoma, nėra pagrindo manyti, kad šiose programose naudojami metodai yra tinkami sėkmingiems apibendrinimams daug sudėtingesnėse realaus gyvenimo situacijose. tikrus gyvenimus. Kaip IBM atrado ne vieną, o jau du kartus (iš pradžių šachmatuose, o paskui – pavojuje!), sėkmė sprendžiant problemas iš uždaro pasaulio visiškai negarantuoja sėkmės atvirame pasaulyje.

Trečiasis aprašytos bedugnės ratas yra patikimumo pervertinimas. Vėl ir vėl matome, kad kai tik žmonės dirbtinio intelekto pagalba randa kokios nors problemos sprendimą, kuris kurį laiką gali veikti be gedimų, jie automatiškai daro prielaidą, kad su peržiūra (ir su kiek didesniu duomenų kiekiu) viskas. dirbs patikimai.laikas. Tačiau taip yra nebūtinai.

Vėl vežame automobilius be vairuotojų. Gana lengva sukurti autonominės transporto priemonės demonstraciją, kuri ramiu keliu teisingai važiuos aiškiai pažymėta juosta; tačiau žmonės tai galėjo padaryti daugiau nei šimtmetį. Tačiau daug sunkiau priversti šias sistemas veikti sudėtingomis ar netikėtomis aplinkybėmis.

Kaip mums elektroniniame laiške sakė Missy Cummings, Duke universiteto Žmonių ir autonomijos laboratorijos direktorė (ir buvusi JAV karinio jūrų laivyno naikintuvo pilotė), klausimas yra ne tai, kiek mylių gali nuvažiuoti be vairuotojo automobilis be avarijos. prie kurių šie automobiliai geba prisitaikyti prie kintančių situacijų. Pasak jos Missy Cummings, 2018 m. rugsėjo 22 d., šiuolaikinės pusiau autonominės transporto priemonės „paprastai veikia tik labai siauromis sąlygomis, kurios nieko nesako apie tai, kaip jos gali veikti ne idealiomis sąlygomis“.

Atrodyti visiškai patikimai nuvažiavus milijonus bandomųjų mylių Finikse, dar nereiškia, kad gerai sekasi per musoną Bombėjuje.

Šis esminis skirtumas tarp to, kaip autonominės transporto priemonės elgiasi idealiomis sąlygomis (pvz., saulėtomis dienomis priemiesčio kelių eismo juostų keliuose) ir to, ką jos gali veikti ekstremaliomis sąlygomis, gali lengvai tapti visos pramonės sėkmės ir nesėkmės dalyku.

Kadangi tiek mažai dėmesio skiriama autonominiam vairavimui ekstremaliomis sąlygomis, o dabartinė metodika nepasikeitė taip, kad būtų užtikrinta, jog autopilotas veiks tinkamai tokiomis sąlygomis, kurios tik pradedamos svarstyti tikromis, gali greitai paaiškėti, kad milijardai dolerių buvo išleista savaeigių automobilių kūrimo metodams, kurie paprasčiausiai nesuteikia žmogui būdingo vairavimo patikimumo. Gali būti, kad norint pasiekti reikiamą techninio pasitikėjimo lygį, reikalingi metodai, kurie iš esmės skiriasi nuo dabartinių.

O automobiliai – tik vienas pavyzdys iš daugelio panašių. Šiuolaikiniuose dirbtinio intelekto tyrimuose jo patikimumas visame pasaulyje buvo nepakankamai įvertintas. Taip yra iš dalies todėl, kad dauguma dabartinių pokyčių šioje srityje yra susiję su problemomis, kurios yra labai atsparios klaidoms, pavyzdžiui, rekomenduoti reklamuoti arba reklamuoti naujus produktus.

Iš tiesų, jei mes jums rekomenduosime penkių rūšių produktus, o jums patinka tik trys iš jų, jokios žalos nebus. Tačiau daugelyje svarbių ateities dirbtinio intelekto programų, įskaitant automobilius be vairuotojų, senyvo amžiaus žmonių priežiūrą ir sveikatos priežiūros planavimą, žmogiškasis patikimumas bus labai svarbus.

Niekas nenusipirks namų roboto, kuris gali saugiai nunešti jūsų pagyvenusį senelį į lovą tik keturis kartus iš penkių.

Net ir atliekant tas užduotis, kur modernus dirbtinis intelektas teoriškai turėtų pasirodyti kuo geresnėje šviesoje, rimtų gedimų pasitaiko reguliariai, kartais atrodo labai juokingai. Tipiškas pavyzdys: kompiuteriai iš principo jau gana gerai išmoko atpažinti, kas yra (ar vyksta) tame ar kitame vaizde.

Kartais šie algoritmai veikia puikiai, tačiau dažnai jie sukelia visiškai neįtikėtinas klaidas. Jei parodote vaizdą automatinei sistemai, kuri generuoja antraštes kasdienių scenų nuotraukoms, dažnai gaunate atsakymą, kuris yra nepaprastai panašus į tai, ką parašytų žmogus; Pavyzdžiui, toliau pateiktai scenai, kai grupė žmonių žaidžia frisbį, „Google“plačiai paskelbta subtitrų generavimo sistema suteikia jai tiksliai tinkamą pavadinimą.

1.1 pav. Grupė jaunų žmonių, žaidžiančių frisbį (įtikėtinas nuotraukos antraštė, automatiškai sukurta dirbtinio intelekto)
1.1 pav. Grupė jaunų žmonių, žaidžiančių frisbį (įtikėtinas nuotraukos antraštė, automatiškai sukurta dirbtinio intelekto)

Tačiau po penkių minučių iš tos pačios sistemos nesunkiai galima gauti absoliučiai absurdišką atsakymą, kaip nutiko, pavyzdžiui, su šiuo kelio ženklu, ant kurio kažkas priklijavo lipdukus: kompiuteris pavadinimu Sistemos kūrėjai nepaaiškino, kodėl įvyko ši klaida., tačiau tokie atvejai nėra neįprasti. Galime daryti prielaidą, kad šiuo konkrečiu atveju sistema klasifikavo (galbūt pagal spalvą ir tekstūrą) nuotrauką kaip panašią į kitas nuotraukas (iš kurių ji sužinojo), pažymėtas kaip „šaldytuvas, pripildytas daug maisto ir gėrimų“. Natūralu, kad kompiuteris nesuprato (ką žmogus gali nesunkiai suprasti), kad toks užrašas tiktų tik tuo atveju, jei yra didelė stačiakampė metalinė dėžė, kurios viduje yra įvairių (ir tada ne visų) daiktų. ši scena yra „šaldytuvas su daugybe maisto ir gėrimų“.

Ryžiai. 1.2. Šaldytuvas pripildytas daug maisto ir gėrimų (visiškai neįtikėtina antraštė, sukurta ta pačia sistema, kaip aukščiau)
Ryžiai. 1.2. Šaldytuvas pripildytas daug maisto ir gėrimų (visiškai neįtikėtina antraštė, sukurta ta pačia sistema, kaip aukščiau)

Taip pat automobiliai be vairuotojo dažnai teisingai identifikuoja tai, ką „mato“, tačiau kartais atrodo, kad jie nepastebi akivaizdžių dalykų, pavyzdžiui, „Tesla“atveju, kuri reguliariai atsitrenkdavo į stovinčius gaisrinius automobilius ar greitosios pagalbos automobilius autopilotu. Tokios aklosios zonos gali būti dar pavojingesnės, jei jos yra sistemose, kurios valdo elektros tinklus arba yra atsakingos už visuomenės sveikatos priežiūrą.

Norėdami užpildyti atotrūkį tarp ambicijų ir dirbtinio intelekto realybės, mums reikia trijų dalykų: aiškaus supratimo apie šiame žaidime esančias vertybes, aiškaus supratimo, kodėl šiuolaikinės AI sistemos nepakankamai patikimai atlieka savo funkcijas ir, pagaliau naujos plėtros strategijos mašininis mąstymas.

Kadangi dirbtinio intelekto rizika yra tikrai didelė darbo vietų, saugumo ir visuomenės struktūros požiūriu, mums visiems – dirbtinio intelekto specialistams, giminingų profesijų atstovams, paprastiems piliečiams ir politikams – reikia skubiai suprasti tikrąją padėtį. šioje srityje, siekiant išmokti kritiškai įvertinti šiandieninio dirbtinio intelekto išsivystymo lygį ir pobūdį.

Kaip naujienomis ir statistika besidomintiems piliečiams svarbu suprasti, kaip lengva suklaidinti žmones žodžiais ir skaičiais, taip ir čia tampa vis svarbesnis supratimo aspektas, kad galėtume išsiaiškinti, kur yra dirbtinis intelektas. Tik reklama, bet kur tai tikra; ką jis dabar sugeba, o ko nemoka ir, ko gero, neišmoks.

Svarbiausia suvokti, kad dirbtinis intelektas nėra magija, o tik technikų ir algoritmų rinkinys, kurių kiekvienas turi savo stipriąsias ir silpnąsias puses, tinka vienoms užduotims, o kitoms netinka. Viena iš pagrindinių priežasčių, kodėl nusprendėme parašyti šią knygą, yra ta, kad didžioji dalis to, ką skaitome apie dirbtinį intelektą, mums atrodo absoliuti fantazija, kylanti iš nepagrįsto pasitikėjimo beveik stebuklinga dirbtinio intelekto galia.

Tuo tarpu ši fantastika neturi nieko bendra su šiuolaikinėmis technologinėmis galimybėmis. Deja, plačiosios visuomenės diskusijos apie AI turėjo ir yra labai paveiktos spėlionių ir perdėjimo: dauguma žmonių neįsivaizduoja, kaip sunku sukurti universalų dirbtinį intelektą.

Paaiškinkime tolesnę diskusiją. Nors su AI siejamų realijų išsiaiškinimas pareikalaus rimtos mūsų kritikos, tačiau patys anaiptol nesame dirbtinio intelekto priešininkai, mums labai patinka ši technologinio progreso pusė. Didelę savo gyvenimo dalį nugyvenome kaip šios srities profesionalai ir norime, kad ji kuo greičiau vystytųsi.

Amerikiečių filosofas Hubertas Dreyfusas kartą parašė knygą apie tai, kokių aukštumų, jo nuomone, dirbtinis intelektas niekada nepasieks. Ši knyga ne apie tai. Iš dalies dėmesys sutelkiamas į tai, ko dirbtinis intelektas šiuo metu negali padaryti ir kodėl svarbu tai suprasti, tačiau nemaža dalis jo kalba apie tai, ką būtų galima padaryti norint pagerinti kompiuterinį mąstymą ir išplėsti jį tose srityse, kuriose jam dabar sunku pirmiausia.

Mes nenorime, kad dirbtinis intelektas išnyktų; mes norime, kad ji pagerėtų, be to, iš esmės, kad galėtume juo tikrai pasikliauti ir jos pagalba išspręsti daugybę žmonijos problemų. Sulaukiame daug priekaištų dabartinei dirbtinio intelekto būklei, tačiau mūsų kritika yra meilės mokslui, kurį darome, apraiška, o ne raginimas pasiduoti ir visko atsisakyti.

Trumpai tariant, mes tikime, kad dirbtinis intelektas iš tiesų gali rimtai pakeisti mūsų pasaulį; bet taip pat manome, kad daugelis pagrindinių prielaidų apie AI turi pasikeisti, kad galėtume kalbėti apie tikrą pažangą. Mūsų siūlomas dirbtinio intelekto „nustatymas iš naujo“nėra priežastis nutraukti tyrimus (nors kai kurie mūsų knygą gali suprasti būtent tokia dvasia), o greičiau diagnozė: kur mes dabar įstrigome ir kaip iš jo išeiti. šiandieninė situacija.

Manome, kad geriausias būdas judėti į priekį gali būti pažvelgti į vidų, susidurti su savo proto struktūra.

Tikrai protingos mašinos nebūtinai turi būti tikslios žmonių kopijos, tačiau kiekvienas, nuoširdžiai pažvelgęs į dirbtinį intelektą, pamatys, kad iš žmonių dar galima daug ko pasimokyti, ypač iš mažų vaikų, kurie daugeliu atžvilgių yra pranašesni už mašinas. jų gebėjimas įsisavinti ir suprasti naujas sąvokas.

Medicinos mokslininkai kompiuterius dažnai apibūdina kaip „antžmogiškas“(vienaip ar kitaip) sistemas, tačiau žmogaus smegenys vis dar yra pranašesnės už savo silicio kolegas bent penkiais aspektais: galime suprasti kalbą, suprasti pasaulį, lanksčiai. prisitaikyti prie naujų aplinkybių, galime greitai išmokti naujų dalykų (net ir neturėdami didelio duomenų kiekio) ir galime samprotauti, susidūrę su nepilna ir net prieštaringa informacija. Visose šiose srityse šiuolaikinės dirbtinio intelekto sistemos beviltiškai atsilieka nuo žmonių.

Dirbtinio intelekto perkrovimas
Dirbtinio intelekto perkrovimas

Dirbtinis intelektas: Perkrovimas sudomins žmones, norinčius suprasti šiuolaikines technologijas ir suprasti, kaip ir kada naujos kartos dirbtinis intelektas gali pagerinti mūsų gyvenimą.

Rekomenduojamas: