Dronai ir savaeigiai automobiliai kaip ginklai: kodėl reikia bijoti įsilaužėlių
Dronai ir savaeigiai automobiliai kaip ginklai: kodėl reikia bijoti įsilaužėlių
Anonim

Jei dirbtinis intelektas pateks į netinkamas rankas, civilizuotas pasaulis gali pasinerti į chaosą.

Dronai ir savaeigiai automobiliai kaip ginklai: kodėl reikia bijoti įsilaužėlių
Dronai ir savaeigiai automobiliai kaip ginklai: kodėl reikia bijoti įsilaužėlių

Niekas nepaneigs, kad dirbtinis intelektas gali pakelti mūsų gyvenimą į kitą lygį. AI gali išspręsti daugybę problemų, kurių žmonės nepajėgia.

Tačiau daugelis mano, kad superintelektas tikrai norės mus sunaikinti, kaip „SkyNet“, arba pradės eksperimentuoti su žmonėmis, pavyzdžiui, GLADoS iš portalo žaidimo. Ironiška tai, kad dirbtinį intelektą geru ar blogu gali paversti tik žmonės.

Kodėl dirbtinis intelektas gali kelti rimtą grėsmę
Kodėl dirbtinis intelektas gali kelti rimtą grėsmę

Tyrėjai iš Jeilio universiteto, Oksfordo, Kembridžo ir OpenAI paskelbė ataskaitą apie piktnaudžiavimą dirbtiniu intelektu. Teigiama, kad tikrasis pavojus kyla iš įsilaužėlių. Kenkėjiško kodo pagalba jie gali sutrikdyti AI valdomų automatizuotų sistemų veikimą.

Tyrėjai baiminasi, kad bus pakenkta gerų ketinimų technologijoms. Pavyzdžiui, sekimo įranga gali būti naudojama ne tik teroristams gaudyti, bet ir eiliniams piliečiams šnipinėti. Tyrėjai taip pat susirūpinę dėl komercinių dronų, kurie tiekia maistą. Juos lengva perimti ir pasodinti ką nors sprogstamojo.

Kitas destruktyvaus AI naudojimo scenarijus yra savarankiškai važiuojantys automobiliai. Pakanka pakeisti kelias kodo eilutes, ir mašinos ims nepaisyti saugos taisyklių.

Kodėl dirbtinis intelektas gali kelti rimtą grėsmę
Kodėl dirbtinis intelektas gali kelti rimtą grėsmę

Mokslininkai mano, kad grėsmė gali būti skaitmeninė, fizinė ir politinė.

  • Dirbtinis intelektas jau naudojamas tiriant įvairių programinės įrangos kodų pažeidžiamumą. Ateityje įsilaužėliai gali sukurti robotą, kuris apeis bet kokią apsaugą.
  • AI pagalba žmogus gali automatizuoti daugybę procesų: pavyzdžiui, valdyti dronų būrį ar automobilių grupę.
  • Tokių technologijų kaip „DeepFake“pagalba galima daryti įtaką valstybės politiniam gyvenimui, skleidžiant melagingą informaciją apie pasaulio lyderius, naudojančius botus.

Šie bauginantys pavyzdžiai kol kas egzistuoja tik kaip hipotezė. Tyrimo autoriai nesiūlo visiškai atmesti technologijos. Vietoj to, jie mano, kad nacionalinės vyriausybės ir didelės įmonės turėtų rūpintis saugumu, kol dirbtinio intelekto pramonė dar tik pradeda vystytis.

Politikos kūrėjai turi studijuoti technologijas ir dirbti su šios srities ekspertais, kad galėtų veiksmingai reguliuoti dirbtinio intelekto kūrimą ir naudojimą.

Kūrėjai savo ruožtu turi įvertinti aukštųjų technologijų keliamą pavojų, numatyti baisiausias pasekmes ir įspėti apie jas pasaulio lyderius. Ataskaitoje dirbtinio intelekto kūrėjai raginami bendradarbiauti su kitų sričių saugumo ekspertais ir išsiaiškinti, ar šių technologijų saugumą užtikrinantys principai gali būti panaudoti dirbtinio intelekto apsaugai.

Visoje ataskaitoje problema aprašoma išsamiau, tačiau esmė ta, kad AI yra galingas įrankis. Visos suinteresuotosios šalys turėtų išstudijuoti naują technologiją ir įsitikinti, kad jos nėra naudojamos nusikalstamiems tikslams.

Rekomenduojamas: