Robotlarla Mübarizə: Qadağan Edilə Bilməz

Mündəricat:

Robotlarla Mübarizə: Qadağan Edilə Bilməz
Robotlarla Mübarizə: Qadağan Edilə Bilməz

Video: Robotlarla Mübarizə: Qadağan Edilə Bilməz

Video: Robotlarla Mübarizə: Qadağan Edilə Bilməz
Video: Kicked Poor Robots (İtilip Kakılan Zavallı Robotlar) 2024, Noyabr
Anonim

Mütəxəssislər Cenevrədə görüşdülər, lakin heç bir razılığa gəlinmədi: ABŞ və Rusiya bütün işləri əngəllədi. Bəlkə də bu hegemonların bu qədər ahəngdar işlədiyi yeganə zamandır.

Robotlarla mübarizə: qadağan edilə bilməz
Robotlarla mübarizə: qadağan edilə bilməz

Qeyri-insani Silahlara dair Konvensiya formatında mütəxəssislərin görüşləri Cenevrədə döyüş robotları - hədəfləri məğlub etmək üçün süni zəkadan istifadə edən muxtar silahların taleyini həll etmək üçün sona çatdı. Ancaq heç bir razılığa gəlinmədi. ABŞ, Rusiya, Cənubi Koreya, İsrail və Avstraliya, qatil robotlarının tamamilə qadağan olunmasına dair düşüncələrin qarşısını almağa müvəffəq olan azlıq millətləri arasında idi.

Beləliklə, dünyada hələ də işləyən bir muxtar silah olmasa da, texnologiya, belə demək mümkünsə, humanist olaraq qalır - inkişaf etdirilə və tədqiq edilə bilər. Maraqlıdır ki, ABŞ və Rusiya, Stokholm Sülh Araşdırmaları İnstitutuna (SIPRI) görə, ən böyük silah ixracatçıları siyahısına başçılıq edirlər. Cənubi Koreya, İsrail və Avstraliya da bu reytinqdən geri qalmırlar - bazarın ən yaxşı 20 oyunçusu arasındadırlar.

Çin (dünyada beşinci silah ixracatçısı, BMT Təhlükəsizlik Şurasının daimi üzvü, döyüş robotlarının qadağan olunmasını müdafiə etsə də, görüşlər zamanı tərəzini öz istiqamətində düzəltməyi bacarmadı. Bu gün 26 ölkə açıq şəkildə müharibədə süni zəkadan istifadənin qadağan edilməsi. Digərləri aydın bir mövqedən çəkinir) Fransa və Almaniya (üçüncü və dördüncü silah ixracatçıları) insanın süni zəka üstünlüyünü möhkəmləndirəcək bir sənəd imzalamağı təklif edirlər, lakin daha çox ehtimal olunurlar muxtar döyüş vasitələri inkişaf etdirmək istəyənlərin tərəfində.

"Kiçik bir hərbi nəhəng qrupun əksəriyyətin iradəsini saxlaya bilməsi qətiliklə məyusedicidir" deyə Cenevrə görüşlərinin nəticələrinə dair Killer Robotlarını Durdurma Kampaniyasının koordinatoru Mary Verhem belə şərh etdi.

Doğrudan da, ABŞ və Rusiyanın adətən vacib məsələlərdə ən azı bir növ güzəştə gedə bilmədiklərini nəzərə alsaq, vəziyyət silahlı inhisar maqnatlarının sui-qəsdinə bənzəyir. Suriyanı götürün: Vaşinqton və Moskva bu yaz Suriyada kimyəvi silah istifadə etdikdən sonra bir-birlərinin qərarlarını qarşılıqlı olaraq blokladılar. Yeri gəlmişkən, hərbi məqsədlər üçün boğulan qazlar və digər zəhərli maddələr əvvəllər İnsanlıqsız Silahlara dair Konvensiya tərəfindən qadağan edilmişdi.

Katil robotların taleyi ilə bağlı növbəti görüş noyabr ayında Cenevrədə keçiriləcək.

Niyə muxtar silahları qadağan etmək istəyirlər

Robot müharibəsi qadağanının tərəfdarları döyüş meydanının süni zəka üçün bir yer olmadığını israr edirlər. Onların fikrincə, bu cür texnologiyalar böyük bir təhlükə yaradır. Heç olmasa, bu gün maşının döyüşçüləri (döyüşlərdə birbaşa iştirak edənləri) qeyri-döyüşənlərdən (yalnız özünümüdafiə üçün silah istifadə edə bilən ordu xidməti işçiləri) və ümumiyyətlə mülki vətəndaşları necə ayıracağı aydın deyil. İşin yaralıları və təslim olanları öldürməsi ehtimalı var, bu da mövcud döyüş qaydaları ilə qadağandır.

İşin bütün münaqişə tərəflərini, hətta bu cür silah sahiblərini müdaxilə etməsinə nə mane olur? Süni intellekt elementləri onsuz da hərbi texnika, raketlərdə uğurla istifadə olunur; robotlar kəşfiyyata cəlb olunur, lakin son söz yenə də insanlara aiddir. Muxtar silahlar komandirlərin əmrlərinə tabe olmayacaq - bu səbəbdən də muxtardırlar. Bu səbəbdən də müxtəlif ölkələrin hərbi generalları maşınların kadr sıralarına daxil edilməsinə şübhə ilə yanaşır.

Və daha bir açıq sual beynəlxalq terrorizmdir. Muxtar silah texnologiyası səhv əllərə düşə bilər və nəticədə ona hücum edilə bilər. Bir il əvvəl Rusiya Prezidenti Vladimir Putin süni zəkanın inkişafında lider olacaq dünyanın hökmdarı olacağını söylədi. Muxtar silahlar halında, bu cür texnologiyalara giriş əldə edən dünyanın hökmdarı olacaqdır. Bunun üçün, əslində, yalnız təhlükəsizlik sistemlərindən keçəcək bir kompüterə və bir qaçmağa ehtiyacınız var. Yeri gəlmişkən, Pentaqon bir neçə dəfə hücuma məruz qalıb. Nəticə etibarilə, heç kim muxtar silahların toxunulmaz qalacağına zəmanət verə bilməz.

Muxtar silah sisteminin işləməsi nəticəsində müharibə cinayətinin törədildiyi təqdirdə qanuni olaraq kimin məsuliyyət daşıacağı da məlum deyil. “Silahdan istifadə edən mühəndis, proqramçı, istehsalçı və ya komandir? Məsuliyyət beynəlxalq humanitar hüququn tələb etdiyi kimi təyin edilə bilmirsə, bu cür sistemlərin yerləşdirilməsi qanuni və ya etik cəhətdən əsaslandırılmış ola bilərmi?”Beynəlxalq Qırmızı Xaç Komitəsi qeyd edir.

Maraqlıdır ki, elm adamları da döyüş robotlarının qadağan olunmasını müdafiə etdilər. Bu ilin iyul ayında, xüsusilə Tesla və SpaceX-in yaradıcısı Elon Musk və DeepMind-in həmtəsisçiləri olan iki mindən çox elm adamı, ölümcül muxtar silahlar inkişaf etdirməyəcəkləri barədə bir sənəd imzaladı. Google eyni şeyi etdi. Texnologiya nəhəngi Pentaqonun Maven layihəsi üzərində işdən imtina etdi. Və 2017-ci ildə bir sıra alimlər artıq BMT-yə qatil robotların yaradılmasını qadağan etməyə çağırdılar.

Yeri gəlmişkən, müharibədəki süni zəka məsələsi 2013-cü ilin sonunda Birləşmiş Millətlər Təşkilatının gündəminə gəldi, amma o zamandan bəri praktik olaraq heç bir şey dəyişmədi. Yalnız bu il Qeyri-insani Silahlara dair Konvensiya formatında ekspert görüşləri başladı. Yəni az-çox praktik müstəviyə gəlmək dörd ildən çox vaxt apardı.

Niyə muxtar silahları qadağan etmək istəmirlər

Nə qədər həssas səslənsə də, silah yarışları qatil robotlarını qadağan etmək istəməmələrinin əsas səbəbidir. Putin haqlıdır: kim əvvəlcə muxtar silah alarsa, dünyaya hakim olacaq. Rəsmi olaraq bu səbəb dilə gətirilir.

Qadağanın əleyhdarlarının əsas arqumenti mülki süni zəkanı ordudan ayırmağın mümkünsüzlüyüdür. Eynilə, terrorçuların istifadə edə biləcəyi üçün mətbəx bıçaqlarını qadağan etməyəcəyik. Həqiqətən, süni intellektin mülki inkişafını ordudan ayırmaq praktik olaraq mümkün deyil. Ancaq indi hədəfləri müstəqil olaraq təyin edib hücum edə biləcək bu silahın qadağan edilməsindən danışırıq. Bu ABŞ Müdafiə Nazirliyinin Booz Allen Hamilton ilə birlikdə hazırladığı Maven layihəsi ola bilər (Google müqaviləni rədd etdi).

Maven istehsalçıları pilotsuz təyyarələrə, xüsusən peyklərdən şəkilləri təhlil etməyi və potensial olaraq hücum hədəflərini müəyyənləşdirməyi öyrətmək istəyirlər. Pentaqon 2017-ci ilin aprelində layihə üzərində işə başladı və ilin sonunadək ilk iş alqoritmlərini alacağını ümid etdi. Ancaq Google işçilərinin demarşi ilə inkişaf təxirə salındı. Bu ilin iyun ayından etibarən, Gizmodo'ya görə, sistem elementar obyektləri - avtomobilləri, insanları ayırd edə bildi, ancaq çətin vəziyyətlərdə tamamilə əhəmiyyətsiz oldu. Muxtar silahların qadağan edilməsinə baxmayaraq BMT səviyyəsində qəbul edilərsə, Pentaqon inkişafının həyatını xilas edə biləcəyini iddia edərkən, layihə ləğv edilməli, çünki insanlarla müqayisə edildikdə daha dəqiq və etibarlı bir iş üçün proqramlaşdırıla bilər.

"Anlamaq lazımdır ki, texnologiyadan bəhs edirik, onun işləyəcək nümunələri yoxdur. Bu cür sistemlərin fikri hələ çox səthlidir" deyə Cenevrədə Rusiya Xarici İşlər Nazirliyində keçirilən görüş ərəfəsində qeyd olundu. - Fikrimizcə, beynəlxalq hüquq, xüsusən də humanitar sektor muxtar silahlara tətbiq edilə bilər. Yeniləməyə və ya hələ mövcud olmayan sistemlərə uyğunlaşmağa ehtiyacları yoxdur.”

Yaxşı, daha bir real, lakin səsləndirilməyən səbəb puldur. Bu gün hərbi süni intellekt texnologiyaları bazarının altı milyard dollardan çox olduğu təxmin edilir. Amerikalı MarketsandMarkets şirkətinin analitiklərinə görə, 2025-ci ilə qədər bu rəqəm üç dəfə - təxminən 19 milyarda çatacaq. Ən böyük silah ixracatçıları üçün bu, qatil robotların inkişafına qoyulan məhdudiyyətləri əngəlləmək üçün yaxşı bir motivdir.

Tərəqqi dayandırıla bilməz

Muxtar silahların qadağan olunmasının tərəfdarları qeyd edirlər ki, texnologiya çox sürətlə inkişaf edir və süni intellekt nəticədə bir silah halına gələcək - zaman məsələsidir. Onların sözlərində məntiq var. Süni zəka indi də davam edən dördüncü elmi və texnoloji inqilabın ayrılmaz hissəsidir. Texniki tərəqqinin bu və ya digər şəkildə hərbi əməliyyatlarla əlaqəli olduğu nəzərə alınmalıdır. Üçüncü elmi və texnoloji inqilab XX əsrin 50-ci illərinin ortalarına qədər davam etdi, yəni zirvəsi İkinci Dünya Müharibəsi dövrünə təsadüf etdi.

1949-cu ildə Cenevrə müharibə zamanı mülki şəxslərin qorunması haqqında Konvensiyanı qəbul etdi. Müharibədən sonrakı dövrdə, müharibənin aparılması qaydalarını müəyyənləşdirən 1907-ci il IV Haaqa Konvensiyasını da tamamladılar. Yəni II Dünya Müharibəsinin dəhşətləri bu prosesin katalizatoru oldu. Deməli, insan haqları müdafiəçiləri Üçüncü Dünya Müharibəsini bəşəriyyəti muxtar silahlardan qorumaq üçün gözləmək istəmirlər. Buna görə qatil robotların taleyini həll etmək indi lazımdır, deyə israr edirlər.

Human Rights Watch mütəxəssislərinin fikrincə, döyüş robotlarının istifadəsi Martens Bəyannaməsinə ziddir - 1899-cu il müharibə qanunları və adətləri haqqında Haaqa Konvensiyasının giriş sözü. Başqa sözlə, qatil robotlar insanlıq qanunlarını və ictimai şüurun tələblərini pozur (mövqe IV Haaqa Konvensiyasında təsdiqləndi).

Human Rights Watch-un silah şöbəsinin baş tədqiqatçısı Bonnie Doherty, "Bu cür silah sistemlərinin dünyaya yayılmasından əvvəl onlara qarşı qoruyucu bir qadağa qoymaq üçün birlikdə çalışmalıyıq" dedi.

Bu dəfə qatil robotlarını qadağan etmək işə yaramadı. Proqnozlaşdırıldığı kimi, noyabrdakı görüşlər də nəticəsiz olacaq. Doğrudur, demək olar ki, bütün ölkələr eyni fikirdədirlər - texnologiyanın cazibə qüvvəsi ilə axmasına icazə verilmir və döyüş robotlarına belə bir dayanacaq-vinç lazımdır. Ancaq ehtiyac yarananda bəşəriyyətin onu çəkməyə vaxtının olub-olmadığı hələ də aydın deyil.

Tövsiyə: