Droni un pašbraucošas automašīnas kā ieroči: kāpēc mums jābaidās no hakeriem
Droni un pašbraucošas automašīnas kā ieroči: kāpēc mums jābaidās no hakeriem
Anonim

Ja mākslīgais intelekts nonāk nepareizās rokās, civilizētā pasaule var ienirt haosā.

Droni un pašbraucošas automašīnas kā ieroči: kāpēc mums jābaidās no hakeriem
Droni un pašbraucošas automašīnas kā ieroči: kāpēc mums jābaidās no hakeriem

Neviens nenoliegs, ka mākslīgais intelekts var pacelt mūsu dzīvi uz nākamo līmeni. AI spēj atrisināt daudzas problēmas, kas nav cilvēka spēkos.

Tomēr daudzi uzskata, ka superinteliģence noteikti vēlēsies mūs iznīcināt, piemēram, SkyNet, vai arī sāks veikt eksperimentus ar cilvēkiem, piemēram, GLADoS no portāla spēles. Ironija ir tāda, ka tikai cilvēki spēj padarīt mākslīgo intelektu labu vai ļaunu.

Kāpēc mākslīgais intelekts var būt nopietns drauds
Kāpēc mākslīgais intelekts var būt nopietns drauds

Pētnieki no Jēlas universitātes, Oksfordas, Kembridžas un OpenAI ir publicējuši ziņojumu par mākslīgā intelekta ļaunprātīgu izmantošanu. Tajā teikts, ka patiesās briesmas rada hakeri. Ar ļaunprātīga koda palīdzību tie var traucēt AI kontrolēto automatizēto sistēmu darbību.

Pētnieki baidās, ka labi iecerētās tehnoloģijas tiks kaitētas. Piemēram, novērošanas iekārtas var izmantot ne tikai teroristu notveršanai, bet arī parasto pilsoņu izspiegošanai. Pētniekus satrauc arī komerciālie droni, kas piegādā pārtiku. Tos ir viegli pārtvert un iestādīt kaut ko sprādzienbīstamu.

Vēl viens AI destruktīvas izmantošanas scenārijs ir pašbraucošas automašīnas. Pietiek nomainīt dažas koda rindiņas, un mašīnas sāks ignorēt drošības noteikumus.

Kāpēc mākslīgais intelekts var būt nopietns drauds
Kāpēc mākslīgais intelekts var būt nopietns drauds

Zinātnieki uzskata, ka draudi var būt digitāli, fiziski un politiski.

  • Mākslīgais intelekts jau tiek izmantots dažādu programmatūras kodu ievainojamību pētīšanai. Nākotnē hakeri var izveidot robotu, kas apies jebkuru aizsardzību.
  • Ar AI palīdzību cilvēks var automatizēt daudzus procesus: piemēram, vadīt dronu baru vai automašīnu grupu.
  • Ar tādu tehnoloģiju kā DeepFake palīdzību iespējams ietekmēt valsts politisko dzīvi, internetā izplatot nepatiesu informāciju par pasaules līderiem, izmantojot botus.

Šie biedējošie piemēri līdz šim pastāv tikai kā hipotēze. Pētījuma autori neierosina pilnībā noraidīt tehnoloģiju. Tā vietā viņi uzskata, ka valstu valdībām un lielajiem uzņēmumiem ir jārūpējas par drošību, kamēr mākslīgā intelekta nozare vēl ir sākuma stadijā.

Politikas veidotājiem ir jāpēta tehnoloģija un jāsadarbojas ar jomas ekspertiem, lai efektīvi regulētu mākslīgā intelekta izveidi un izmantošanu.

Savukārt izstrādātājiem jānovērtē augsto tehnoloģiju radītās briesmas, jāparedz vissliktākās sekas un jābrīdina par tām pasaules līderi. Ziņojumā AI izstrādātāji aicināti sadarboties ar drošības ekspertiem citās jomās un noskaidrot, vai principus, kas nodrošina šo tehnoloģiju drošību, var izmantot mākslīgā intelekta aizsardzībai.

Pilnajā ziņojumā problēma ir aprakstīta sīkāk, taču būtība ir tāda, ka AI ir spēcīgs rīks. Visām ieinteresētajām pusēm ir jāizpēta jaunā tehnoloģija un jāpārliecinās, ka tā netiek izmantota noziedzīgiem nolūkiem.

Ieteicams: