რობოტებთან ბრძოლა: აკრძალული არ არის დაშვებული

Სარჩევი:

რობოტებთან ბრძოლა: აკრძალული არ არის დაშვებული
რობოტებთან ბრძოლა: აკრძალული არ არის დაშვებული

ვიდეო: რობოტებთან ბრძოლა: აკრძალული არ არის დაშვებული

ვიდეო: რობოტებთან ბრძოლა: აკრძალული არ არის დაშვებული
ვიდეო: რობოტების ბრძოლა ბრძოლა მოვიგეთ 2024, ნოემბერი
Anonim

ექსპერტები შეხვდნენ ჟენევაში, მაგრამ შეთანხმება ვერ იქნა მიღწეული: შეერთებულმა შტატებმა და რუსეთმა დაბლოკეს ყველა სამუშაო. ალბათ ეს ერთადერთი დროა, როდესაც ჰეგემონები ასე ჰარმონიულად მუშაობენ.

რობოტებთან ბრძოლა: აკრძალული არ არის დაშვებული
რობოტებთან ბრძოლა: აკრძალული არ არის დაშვებული

ჟენევაში დასრულდა არაადამიანური იარაღის კონვენციის ფორმატის ექსპერტთა შეხვედრები, რომ გადაწყვიტონ ე.წ საბრძოლო რობოტები - ავტონომიური იარაღები, რომლებიც იყენებენ ხელოვნურ ინტელექტს სამიზნეების დასამარცხებლად. ამასთან, შეთანხმება ვერ იქნა მიღწეული. შეერთებული შტატები, რუსეთი, სამხრეთ კორეა, ისრაელი და ავსტრალია იმ უმცირესობათა რიცხვში იყვნენ, რომლებმაც შეძლეს მკვლელი რობოტების სრული აკრძალვის განწყობის დაბლოკვა.

ასე რომ, მიუხედავად იმისა, რომ მსოფლიოში ჯერ კიდევ არ არის მოქმედი ავტონომიური იარაღი, ტექნოლოგია, ასე ვთქვათ, ჰუმანური რჩება - მისი შემუშავება და გამოკვლევა შესაძლებელია. საინტერესოა, რომ შეერთებული შტატები და რუსეთი, სტოკჰოლმის მშვიდობის კვლევის ინსტიტუტის (SIPRI) თანახმად, ყველაზე დიდი იარაღის ექსპორტიორთა სიაში ლიდერობენ. სამხრეთ კორეა, ისრაელი და ავსტრალია ასევე არ ჩამორჩებიან ამ რეიტინგს - ისინი ბაზრის საუკეთესო 20 მოთამაშეთა შორის არიან.

მიუხედავად იმისა, რომ ჩინეთი (იარაღის მეხუთე ექსპორტიორი მსოფლიოში, გაეროს უშიშროების საბჭოს მუდმივი წევრი მხარს უჭერს საბრძოლო რობოტების აკრძალვას, შეხვედრების დროს მან ვერ შეძლო მასშტაბის შეცვლა თავისი მიმართულებით. დღეს, 26 ქვეყანა ღიად უჭერს მხარს ომში ხელოვნური ინტელექტის გამოყენების აკრძალვა. სხვები ერიდებიან აშკარა პოზიციას) საფრანგეთი და გერმანია (იარაღის მესამე და მეოთხე ექსპორტიორები) სთავაზობენ ხელი მოაწერონ დოკუმენტს, რომელიც კონსოლიდაციას უკეთებს ადამიანის პირველობას ხელოვნურ ინტელექტზე, მაგრამ ისინი უფრო სავარაუდოა მათ მხარეს, ვისაც ავტონომიური საბრძოლო მანქანების შემუშავება სურს.

”იმედგაცრუებაა, რომ სამხედრო გიგანტების მცირე ჯგუფს შეუძლია შეაჩეროს უმრავლესობის ნება”, - კომენტარი გააკეთა მერი ვერჰემმა, მკვლელი რობოტების შეჩერების კამპანიის კოორდინატორმა ჟენევის შეხვედრების შედეგებზე.

მართლაც, ვითარება შეიარაღებული მონოპოლური ბიზნესმენების შეთქმულებას ჰგავს, იმის გათვალისწინებით, რომ შეერთებულ შტატებსა და რუსეთს, როგორც წესი, ვერ მიაღწევენ რაიმე სახის კომპრომისს მნიშვნელოვან საკითხებზე. ავიღოთ სირიული: ვაშინგტონმა და მოსკოვმა ურთიერთგაგების დაბლოკვა მოახდინეს სირიაში ამ გაზაფხულზე ქიმიური იარაღის გამოყენების შემდეგ. სხვათა შორის, ასფიქსიური აირები და სხვა ტოქსიკური ნივთიერებები სამხედრო მიზნებისთვის ადრე აკრძალული იყო არაადამიანური იარაღის კონვენციით.

მომდევნო შეხვედრა მკვლელი რობოტების ბედზე ნოემბერში ჟენევაში გაიმართება.

რატომ უნდათ ავტომატური იარაღის აკრძალვა

რობოტების ომის აკრძალვის მომხრეები ამტკიცებენ, რომ ბრძოლის ველი არ არის ხელოვნური ინტელექტის ადგილი. მათი აზრით, ასეთი ტექნოლოგიები დიდ საფრთხეს წარმოადგენს. ყოველ შემთხვევაში, დღეს გაუგებარია, თუ როგორ განასხვავებს მანქანაში მებრძოლებს (მათ, ვინც უშუალოდ მონაწილეობენ საომარ მოქმედებებში) არამებრძოლთაგან (არმიის მომსახურე პერსონალი, რომლებსაც იარაღის გამოყენება შეუძლიათ მხოლოდ თავდაცვის მიზნით) და ზოგადად სამოქალაქო პირებს შორის არსებობს შესაძლებლობა, რომ ნამუშევარი დაიღუპოს დაჭრილთა და დანებებულთათვის, რაც აკრძალულია საომარი მოქმედი წესებით.

რა უშლის ხელს მუშაობაში, რომ ხელი შეუშალოს კონფლიქტის ყველა მხარეს, თუნდაც ასეთი იარაღის მფლობელებს? ხელოვნური დაზვერვის ელემენტები უკვე წარმატებით გამოიყენება სამხედრო ტექნიკაში, რაკეტებში; რობოტები იზიდავს დაზვერვისთვის, მაგრამ საბოლოო სიტყვა მაინც ადამიანებს ეკისრებათ. ავტონომიური იარაღი არ ემორჩილება მეთაურების ბრძანებებს - ამიტომ ისინი ავტონომიურია. ამიტომ სხვადასხვა ქვეყნის სამხედრო გენერლები სკეპტიკურად უყურებენ პერსონალის რიგებში მანქანების შეყვანას.

კიდევ ერთი ღია საკითხია საერთაშორისო ტერორიზმი. ავტონომიური იარაღის ტექნოლოგია შეიძლება არასწორ ხელში აღმოჩნდეს და საბოლოოდ გატეხოს. ერთი წლის წინ რუსეთის პრეზიდენტმა ვლადიმერ პუტინმა თქვა, რომ მსოფლიოს მმართველი იქნება ის, ვინც გახდება ლიდერი ხელოვნური ინტელექტის განვითარებაში.ავტონომიური იარაღის შემთხვევაში, ის, ვინც მოიპოვებს ასეთ ტექნოლოგიებს, გახდება მსოფლიოს მმართველი. ამისათვის, ფაქტობრივად, საჭიროა მხოლოდ კომპიუტერი და ავარიული, რომელიც უსაფრთხოების სისტემებს გაივლის. სხვათა შორის, პენტაგონი არაერთხელ გატეხეს. შესაბამისად, ვერავინ იძლევა გარანტიებს, რომ ავტონომიური იარაღი ხელშეუხებელი დარჩება.

ასევე გაუგებარია, ვინ იქნება იურიდიულად პასუხისმგებელი, თუ სამხედრო დანაშაული ჩაიდინა ავტონომიური შეიარაღების სისტემის ფუნქციონირების შედეგად.”ინჟინერი, პროგრამისტი, მწარმოებელი ან მეთაური, ვინც იარაღი გამოიყენა? თუ საერთაშორისო ჰუმანიტარული კანონით გათვალისწინებული პასუხისმგებლობის განსაზღვრა შეუძლებელია, შეიძლება ასეთი სისტემების გამოყენება კანონიერად ან ეთიკურად გამართლებული იქნას?”- აღნიშნავს წითელი ჯვრის საერთაშორისო კომიტეტი.

საინტერესოა, რომ მეცნიერები ასევე მხარს უჭერდნენ საბრძოლო რობოტების აკრძალვას. მიმდინარე წლის ივლისში ორ ათასზე მეტმა მეცნიერმა, კერძოდ Tesla– ს და SpaceX– ის შემქმნელმა ელონ მასკმა და DeepMind– ის თანადამფუძნებლებმა ხელი მოაწერეს დოკუმენტს, რომ ისინი არ შექმნიან ლეტალურ ავტონომიურ იარაღს. Google- მა იგივე გააკეთა. ტექნიკურმა გიგანტმა უარი თქვა პენტაგონის პროექტზე Maven. 2017 წელს კი არაერთმა მეცნიერმა უკვე მოუწოდა გაეროს, აეკრძალა მკვლელი რობოტების შექმნა.

სხვათა შორის, ომში ხელოვნური ინტელექტის საკითხი გაეროს დღის წესრიგში 2013 წლის ბოლოს გამოჩნდა, მაგრამ მას შემდეგ პრაქტიკულად არაფერი შეცვლილა. მხოლოდ ამ წელს დაიწყო ექსპერტთა შეხვედრები არაადამიანური იარაღის კონვენციის ფორმატში. ანუ, მეტნაკლებად პრაქტიკულ თვითმფრინავამდე მისვლას ოთხ წელიწადზე მეტი დასჭირდა.

რატომ არ უნდათ ავტონომიური იარაღის აკრძალვა

რაც არ უნდა ჩვეულებრივად ჟღერდეს, შეიარაღების რბოლა არის მთავარი მიზეზი, რის გამოც მათ არ სურთ აკრძალონ მკვლელი რობოტები. პუტინი მართალია: ვინც პირველად მიიღებს ავტონომიურ იარაღს, ის მსოფლიოში დომინირებს. ოფიციალურად, ეს მიზეზი გაჟღერებულია.

აკრძალვის ოპონენტების მთავარი არგუმენტია სამოქალაქო ხელოვნური ინტელექტის სამხედრო ძალებისგან გამოყოფის შეუძლებლობა. მაგალითად, ჩვენ არ ავკრძალავთ სამზარეულოს დანას მხოლოდ იმიტომ, რომ ტერორისტებს შეუძლიათ მათი გამოყენება. მართლაც, შეუძლებელია ხელოვნური ინტელექტის სამოქალაქო განვითარების განცალკევება სამხედროებისაგან. მაგრამ ახლა ჩვენ ვსაუბრობთ ამ იარაღის აკრძალვაზე, რომელსაც საშუალება ექნება დამოუკიდებლად განსაზღვროს და შეუტიოს სამიზნეები. ეს შეიძლება იყოს Maven პროექტი, რომელზეც აშშ-ს თავდაცვის სამინისტრო მუშაობს Booz Allen Hamilton- თან ერთად (Google- მა უარი თქვა ხელშეკრულებაზე).

Maven– ის დეველოპერებს სურთ ასწავლონ თვითმფრინავებს სურათების, კერძოდ, სატელიტების ანალიზი და - პოტენციურად - თავდასხმის მიზნების იდენტიფიცირება. პენტაგონმა პროექტზე მუშაობა ჯერ კიდევ 2017 წლის აპრილში დაიწყო და იმედოვნებდა, რომ წლის ბოლომდე მიიღებდა პირველ სამუშაო ალგორითმებს. Google– ის თანამშრომლების დემარშის შედეგად განვითარება შეფერხდა. Gizmodo– ს თანახმად, მიმდინარე წლის ივნისისთვის სისტემაში განასხვავებენ ელემენტარულ საგნებს - მანქანებს, ხალხს, მაგრამ ის რთულ სიტუაციებში სრულიად უმნიშვნელო აღმოჩნდა. თუკი გაეროს დონეზე მიიღება ავტონომიური იარაღის აკრძალვა, პროექტი უნდა გაუქმდეს, პენტაგონი კი აცხადებს, რომ მათ განვითარებას სიცოცხლის გადარჩენა შეუძლია, რადგან მისი პროგრამირება შესაძლებელია უფრო ზუსტად და საიმედოდ იმუშაოს ადამიანებთან შედარებით.

"თქვენ უნდა გესმოდეთ, რომ ჩვენ ვსაუბრობთ ტექნოლოგიაზე, რომ მას არ აქვს ისეთი ნიმუშები, რომლებიც იმუშავებს. ასეთი სისტემების იდეა ჯერ კიდევ ძალიან ზედაპირულია", - აღნიშნა რუსეთის საგარეო საქმეთა სამინისტროში ჟენევაში შეხვედრის წინა დღეს. - ჩვენი აზრით, საერთაშორისო სამართალი, კერძოდ, ჰუმანიტარული სექტორი, შეიძლება გამოყენებულ იქნას ავტონომიურ იარაღზე. მათ არ სჭირდებათ მოდერნიზაცია ან ადაპტირება იმ სისტემებთან, რომლებიც ჯერ არ არსებობს.”

კარგი, და კიდევ ერთი რეალური, მაგრამ არ გახმაურებული მიზეზი ფულია. დღეს სამხედრო ხელოვნური ინტელექტის ტექნოლოგიების ბაზარი ექვს მილიარდ დოლარზე მეტია შეფასებული. ამერიკული კომპანიის MarketsandMarkets– ის ანალიტიკოსების აზრით, 2025 წლისთვის ეს მაჩვენებელი გასამმაგდება - თითქმის 19 მილიარდამდე.იარაღის უმსხვილესი ექსპორტიორებისთვის ეს კარგი მოტივაციაა, რომ დაბლოკოს მკვლელი რობოტების განვითარების ნებისმიერი შეზღუდვა.

პროგრესის შეჩერება შეუძლებელია

ავტონომიური იარაღის აკრძალვის მომხრეები აღნიშნავენ, რომ ტექნოლოგია ძალიან სწრაფად ვითარდება და ხელოვნური ინტელექტი საბოლოოდ იარაღად იქცევა - დროის საკითხია. მათ სიტყვებში ლოგიკაა. ხელოვნური ინტელექტი მეოთხე სამეცნიერო და ტექნოლოგიური რევოლუციის განუყოფელი ნაწილია, რომელიც ახლაც გრძელდება. გასათვალისწინებელია, რომ ტექნიკური პროგრესი ასე თუ ისე დაკავშირებულია სამხედრო ოპერაციებთან. მესამე სამეცნიერო და ტექნოლოგიური რევოლუცია გაგრძელდა XX საუკუნის 50-იანი წლების შუა ხანებამდე, ანუ მისი მწვერვალი მეორე მსოფლიო ომის პერიოდში მოხდა.

1949 წელს ჟენევამ მიიღო კონვენცია ომის დროს სამოქალაქო პირების დაცვის შესახებ. ომის შემდგომ პერიოდში მათ ასევე შეავსეს ჰააგის IV კონვენცია 1907 წელს, რომელშიც განისაზღვრა ომის ჩატარების წესები. ანუ, მეორე მსოფლიო ომის საშინელება გახდა ამ პროცესის კატალიზატორი. ასე რომ, უფლებადამცველებს არ სურთ დაველოდოთ მესამე მსოფლიო ომს, რომ კაცობრიობა დაიცვან ავტონომიური იარაღისაგან. ამიტომ მკვლელი რობოტების ბედის გადაწყვეტა ახლა აუცილებელია, ისინი ამტკიცებენ ისინი.

Human Rights Watch– ის ექსპერტების აზრით, საბრძოლო რობოტების გამოყენება ეწინააღმდეგება მარტენსის დეკლარაციას - 1899 წლის ჰააგის კონვენციის კანონი და საომარი საბაჟო კონვენცია. სხვა სიტყვებით რომ ვთქვათ, მკვლელი რობოტები არღვევენ კაცობრიობის კანონებს და საზოგადოების ცნობიერების მოთხოვნებს (პოზიცია დაადასტურეს ჰააგის IV კონვენციაში).

”ჩვენ ერთად უნდა ვიმუშაოთ, რომ ამ იარაღის სისტემების პრევენციული აკრძალვა განხორციელდეს, სანამ ისინი მთელს მსოფლიოში გავრცელდება”, - თქვა ბონი დოჰერტიმ, Human Rights Watch- ის შეიარაღების დეპარტამენტის უფროსმა მკვლევარმა.

კარგი, ამჯერად მკვლელი რობოტების აკრძალვა არ იმუშავა. სავარაუდოდ, ნოემბრის შეხვედრებიც უშედეგო იქნება. მართალია, თითქმის ყველა ქვეყანა ეთანხმება - ტექნოლოგია არ შეიძლება დაიშვას მიზიდულობით და საბრძოლო რობოტებს ასეთი სტოპ-ამწე სჭირდებათ. მაგრამ ჯერჯერობით გაუგებარია, ექნება თუ არა კაცობრიობას დრო, რომ გაიყვანოს იგი, როდესაც ამის საჭიროება დადგება.

გირჩევთ: