Изкуственият интелект може да бъде дефиниран като капацитета на една машина да демонстрира способности, присъщи за хората - да разсъждава, да се учи, да планира или да твори.
Това са технически системи, които наблюдават околната си среда, получават данни (които са подготвени от другиго или които набират сами), преработват ги и извършват действия, свързани с постигането на конкретна цел. Системите с изкуствен интелект са способни да адаптират поведението си, като анализират резултатите от предишни действия, и работят автономно. Най-общо изкуственият интелект се проявява във формата на два вида: чрез софтуер - виртуални асистенти, разпознаване на изображения, онлайн търсачки, системи за разпознаване на реч и лица, и изкуствен интелект с физическа форма: роботи, автономни коли, дронове и умни устройства от типа на интернет на нещата.[1]
Напълно автономните оръжия са една от най-тревожните военни технологии, които се разработват днес. Поради това съществува спешна нужда държавите, експертите и широката общественост да проучат отблизо тези оръжия съгласно клаузата на Мартенс - уникалната разпоредба на международното хуманитарно право от 1899, която установява базова линия за защита на цивилни лица и бойци, когато не съществува специфично договорно право по темата. Бъдеще в което напълно автономните оръжия биха могли да избират и поразяват цели без смислен човешки контрол, би противоречило и на двата елемента на клаузата на Мартенс: принципите на хуманността и диктата на общественото съзнание. За да се съобразят с клаузата на Мартенс, държавите трябва да приемат превантивна забрана и регулация върху разработването, производството и употребата на такива оръжия.
Напълно автономните оръжия ще могат да избират и да атакуват цели без смислен човешки контрол. Те представляват неприемлива стъпка отвъд съществуващите военни дронове, защото човек не би взел окончателното решение относно използването на сила при индивидуални атаки. Напълно автономни оръжия, известни още като смъртоносни автономни оръжейни системи и „роботи убийци“, все още не съществуват, но са в процес на разработка, а военните инвестиции в автономни технологии се увеличават с тревожна скорост.
Рисковете от напълно автономните оръжия надхвърлят предполагаемите им ползи. Поддръжниците им подчертават, че новата технология може да спаси живота на войници, да обработва данни и да работи с по-високи скорости от традиционните системи и да бъде имунизирана срещу емоции като страх и гняв, което може да доведе до цивилни жертви. Напълно автономните оръжия обаче пораждат множество сериозни опасения. Първо, делегирането на решения за живот и смърт на машини пресича ключова морална червена линия. Второ, напълно автономните оръжия ще бъдат изправени пред значителни предизвикателства при спазването на международните хуманитарни закони и правата на човека. Трето, те биха създали празнина в отчетността, защото би било трудно някой да бъде държан отговорен за непредвидената вреда, причинена от автономен робот. Четвърто, напълно автономните оръжия биха били уязвими за техническо манипулиране и хакване. Пето, тези оръжия биха застрашили глобалната сигурност, защото могат да доведат до надпревара във въоръжаването и да се разпространят сред участници, които не уважават особено международното право и да намалят прага на война.
Бързото развитие на автономните технологии и изкуствения интелект означава, че напълно автономните оръжия могат да станат реалност в обозримо бъдеще. Известни още като „роботи убийци“ и смъртоносни автономни оръжейни системи, те повдигат множество морални, правни, отчетни, оперативни, технически и др. опасения за сигурността. Тези оръжия са обект на международен дебат от 2013 насам. През тази година стартира Кампанията за спиране на роботите убийци: коалиция на гражданското общество, която настоява държавите да обсъждат новото поколение умни оръжия. След провеждането на три неофициални срещи на експерти, държавите-страни по Конвенцията за конвенционалните оръжия започнаха официални разговори по темата през 2017. През август 2018 приблизително 80 държави се събраха отново за следващата среща на Групата от правителствени експерти по конвенцията.[2]
Повечето технологии за изкуствен интелект са с двойна употреба. Те са включени както в мирни граждански приложения, така и във военни оръжейни системи. Повечето от съществуващите кодекси за поведение и етични принципи относно изкуствения интелект се отнасят до първото, докато до голяма степен игнорират второто приложение. Но когато тези технологии се използват за захранване на системи, специално проектирани да причиняват вреда, трябва да си зададем въпроса, дали етиката, прилагана към военните автономни системи, също трябва да се вземе предвид за всички технологии с изкуствен интелект, които могат да бъдат използвани за тези цели. Сравнението между етичните кодекси с общо предназначение и военните стига до заключението, че повечето етични принципи се прилагат за човешката употреба на системи с изкуствен интелект, стига да са изпълнени две характеристики: че начинът, по който работят алгоритмите, е разбран и, че хората запазват достатъчно контрол. По този начин човешката свобода на действие е напълно запазена и моралната отговорност остава, независимо от потенциалната двойна употреба на технологията за изкуствен интелект.[3]
Поява и развитие на клаузата на Мартенс
Въпреки че клаузата на Мартенс, наречена така по името на руския дипломат от естонски произход Фридрих Мартенс (1845-1909), произхожда от дипломатическиs компромис, тя служи на хуманитарни цели. В нея се посочва, че при липса на специфично договорно право, установените обичаи, принципите на хуманността и диктата на общественото съзнание осигуряват защита на цивилни лица и бойци. От въвеждането си, клаузата на Мартенс се превърна в обща характеристика на основните инструменти на международното хуманитарно право. Тя се появява и в множество договори за разоръжаване. Защитите, които предоставя клаузата на Мартенс, и правното признание, което получи, подчертават нейната стойност за изследване на нововъзникващи оръжейни системи, които биха могли да причинят хуманитарни щети на бойното поле и извън него.
Клаузата на Мартенс се появява за първи път в преамбюла на Хагската конвенция II от 1899, съдържаща Правилника за законите и обичаите на сухопътната война. В тази оригинална версия клаузата на Мартенс гласи: "Докато не бъде издаден по-пълен кодекс на законите на войната, високодоговарящите страни смятат за правилно да заявят, че в случаите, които не са включени в приетите от тях правила, населението и воюващите страни остават под закрилата и империята на принципите на международното право, тъй като те са резултат от обичаите, установени между цивилизованите нации, от законите на човечеството и изискванията на общественото съзнание".[4]
По този начин клаузата осигурява базово ниво на защита на цивилни лица и бойци, когато не съществува специфичен закон. През над 120-те години от приемането на Хагската конвенция от 1899 клаузата на Мартенс се прилага по-широко и се превърна в основна част от усилията за разширяване на хуманитарната защита по време на въоръжен конфликт. В стремежа си да намалят въздействието на военните действия, многобройни инструменти на международното хуманитарно право и правото за разоръжаване са включили разпоредбата.
От 1925 насам повечето договори, съдържащи забрани върху оръжията, включват и клаузата на Мартенс. Тя се споменава под различни форми в преамбюлите на Женевския газов протокол от 1925, Конвенцията за биологичните оръжия от 1972, Конвенцията за конвенционалните оръжия от 1980, Договора за забрана на мините от 1997, Конвенцията за касетъчните боеприпаси от 2008 и Договора от 2017 за забрана на ядрените оръжия. Въпреки че преамбюлът не установява обвързващи правила, той може да даде информация за тълкуването на договор и обикновено се използва за включване чрез препратка към контекста на вече съществуващ закон. Включването на клаузата на Мартенс показва, че ако оперативните разпоредби на даден договор съдържат празнини, те трябва да бъдат запълнени от установения обичай, принципите на хуманността и общоприетото разбиране на общественото съзнание. Чрез включването на клаузата на Мартенс в тази линия от договори за разоръжаване, държавите потвърждават нейното значение за международното хуманитарно право, като цяло, и конкретно за правото, свързано с регулирането на оръжията.
Широкото използване на клаузата на Мартенс я прави подходяща и за настоящите дискусии относно напълно автономните оръжия. Тя предоставя стандарт за гарантиране, че цивилните граждани и бойците получават поне минимална защита от такива проблемни оръжия.
Принципите на хуманността
Поради липсата на емоции и правна и етична преценка, напълно автономните оръжия биха се сблъскали със значителни пречки при спазването на принципите на човешката природа. Тези принципи изискват хуманно отношение към другите и уважение към човешкия живот и човешкото достойнство. Хората са мотивирани да се отнасят един към друг хуманно, защото изпитват състрадание и съпричастност към своите събратя. Правната и етична преценка дава на хората средства за минимизиране на вредата; това им позволява да вземат обмислени решения въз основа на разбирането на конкретен контекст. Като машини, напълно автономните оръжия не биха били съзнателни същества, способни да изпитват състрадание. Вместо да упражняват преценка, подобни оръжейни системи биха базирали действията си на предварително програмирани алгоритми, които не работят добре в сложни и непредвидими ситуации.
Показването на уважение към човешкия живот предполага минимизиране на убийствата. Правната и етична преценка помага на хората да претеглят различни фактори, за да предотвратят произволна и неоправдана загуба на живот във въоръжен конфликт и извън него. Би било трудно да се пресъздаде такава преценка, разработена както през човешката история, така и през индивидуалния живот на индивида, в напълно автономни оръжия и те не биха могли да бъдат предварително програмирани да се справят с всеки възможен сценарий в съответствие с приетите правни и етични норми. Освен това повечето хора притежават вродена устойчивост към убиване, която се основава на разбирането им за въздействието на загубата на живот, което напълно автономните оръжия, като неодушевени машини, не биха могли да споделят.[5]
Дори ако напълно автономните оръжия могат адекватно да защитят човешкия живот, те не биха били в състояние да зачитат човешкото достойнство. За разлика от хората, тези роботи не биха могли да оценят напълно стойността на човешкия живот и значението на неговата загуба. Те биха взели решения за живот и смърт въз основа на алгоритми, намалявайки човешките си цели до обекти. По този начин напълно автономните оръжия биха нарушили принципите на хуманността на всички фронтове.
Позицията на общественото съзнание
Нарастващото възмущение от перспективата за появата на напълно автономни оръжия предполага, че тази нова технология противоречи и на второто звено на клаузата на Мартенс, а именно, какво диктува общественото съзнание. Тези постулати се състоят от морални насоки, основани на знание за това, кое е правилно и, кое грешно. Те могат да бъдат установени чрез мненията на обществеността и на правителствата.
Много хора, експерти и правителства силно възразяват срещу разработването на напълно автономни оръжия. Повечето от респондентите в множество проучвания на общественото мнение са регистрирали противопоставяне на тези оръжия. Експерти, разгледали по-задълбочено въпроса, излязоха с отворени писма и становища, отразяващи тази позиция дори по-добре от проучванията. Международни организации и неправителствени организации, заедно с лидери в областта на разоръжаването и правата на човека, мира и религията, науката и технологиите и индустрията, се почувстваха задължени, особено по морални съображения, да призоват за забрана на напълно автономните оръжия. Те осъдиха тези оръжия като „безсъвестни“, „отвратителни... за светостта на живота“, „неразумни“ и „неетични“.[6]
Правителствата посочват спазването на клаузата на Мартенс и моралните недостатъци сред основните си опасения относно напълно автономните оръжия. Към юли 2018, 26 държави подкрепиха превантивна забрана, а повече от 100 държави призоваха за правно обвързващ инструмент за справяне с опасенията, повдигнати от смъртоносните автономни оръжейни системи. Почти всяка страна по Конвенцията за конвенционалните оръжия, която се изказа на последната си среща през април 2018, подчерта необходимостта от запазване на човешки контрол върху използването на сила.[7] Появяващият се консенсус за запазване на смислен човешки контрол, който на практика е еквивалентен на забрана на оръжия, които нямат такъв контрол, показва, че общественото съзнание е категорично против напълно автономните оръжия.
Необходимостта от договор за превантивна забрана
Напълно автономните оръжия биха били изправени пред значителни предизвикателства при дискусия за спазването на принципа на хуманно отношение, тъй като състраданието и правната и етична преценка са човешки характеристики. Емпатията и състраданието към другите, които тя поражда, са естествени за човешките същества. Повечето хора са изпитвали физическа или психологическа болка, което ги кара да избягват да причиняват ненужно страдание на другите. Независимо от сложността на едно напълно автономно оръжие, то не може да изпитва емоции. Следователно, напълно автономните оръжия биха се сблъскали със значителни трудности при гарантирането, че действията им са хуманни и в съответствие с принципите на хуманността.
Роботите също няма да притежават правната и етична преценка, необходима за минимизиране на вредата за всеки отделен случай. Ситуациите, включващи използване на сила, особено при въоръжен конфликт, често са сложни и непредвидими и могат да се променят бързо. Следователно, напълно автономните оръжия биха се сблъскали със значителни пречки при вземането на подходящи решения относно хуманното отношение. Към момента, рроботите, показващи поведение, което може да бъде описано като „етично“ или „минимално етично“, могат да работят само в ограничена среда. Те имат ограничени морални способности и, следователно, не трябва да се използват при обстоятелства, които „изискват морална компетентност и разбиране на заобикалящата ги социална ситуация“.[8] Спазването на международното право често изисква субективно вземане на решения в сложни ситуации. Напълно автономните оръжия биха имали ограничена способност да интерпретират нюансите на човешкото поведение, да разбират политическата, социално-икономическата и екологичната динамика на ситуацията и да разбират хуманитарните рискове от използването на сила в определен контекст. Тези ограничения биха компрометирали способността на оръжията да осигурят хуманно отношение към цивилни и бойци и да отговарят на първия принцип на човечността. Умните оръжия имат някои предимства, свързани с неподатливостта на емоции като гняв и страх, но неспособността на робота да изпитва съпричастност и състрадание би ограничило сериозно способността му да се отнася хуманно към другите. Тъй като не са съзнателни същества, напълно автономните оръжия не биха могли да познават физическо или психологическо страдание. В резултат на това ще им липсват споделените преживявания и разбирания, които карат хората да се отнасят съпричастно към болката на другите и да бъдат подтикнати да проявяват състрадание към други човешки същества.
Много малко вероятно е напълно автономните оръжия да могат да зачитат човешкия живот и достойнство. Липсата на правна и етична преценка би попречила на способността им да уважават човешкия живот. Например, тестът за пропорционалност на международното хуманитарно право изисква от командирите да определят, дали очакваното военно предимство превишава очакваната цивилна вреда за всеки отделен случай. Като се има предвид безкрайният брой непредвидени ситуации, които могат да възникнат на бойното поле, напълно автономните оръжия не могат да бъдат предварително програмирани да правят такива решения. Общоприетият стандарт за оценка на пропорционалността е, дали „разумен военен командир“ би предприел конкретна атака, а разумността изисква вземане на решения въз основа на етични и правни съображения. При невъзможност да се приложи този стандарт към теста за балансиране на пропорционалността, напълно автономните оръжия вероятно биха застрашили цивилните и потенциално биха нарушили международното хуманитарно право.
Напълно автономните оръжия не притежават и инстинктивната човешка съпротива срещу убийството, която може да защити човешкия живот извън минималните изисквания на закона. Склонността да се избягва убийството е естествена за повечето хора, защото те имат вродена оценка за присъщата стойност на човешкия живот.
Като неодушевени предмети, напълно автономните оръжия не могат да загубят собствения си живот или да разберат емоциите, свързани със загубата на живота на любим човек. Съмнително е, че програмист би могъл да програмира в един робот естествената склонност на човека да избягва убийството и да защитава живота със сложността и нюансите, които биха отразявали вземането на човешки решения.[9]
Напълно автономните оръжия не могат да зачитат човешкото достойнство, което е свързано с процеса зад използването на сила. Като машини, те не могат наистина да разберат нито стойността на индивидуалния живот, нито значението на неговата загуба. Те биха базирали решенията за убийство на алгоритми, без да отчитат човечността на конкретна жертва. Освен това тези оръжия ще бъдат програмирани предварително за сценарий и не биха могли да отчетат необходимостта от смъртоносна сила в конкретна ситуация.
Държавите, международните организации и гражданското общество са се позовавали на клаузата на Мартенс в предишни обсъждания относно нерегулирани нововъзникващи технологии. Те я намериха за особено приложима към дискусиите за ослепяващите лазери през 90-те години на ХХ век и изрично и имплицитно се позовават на елементи от клаузата на Мартенс като оправдание за превантивна забрана на ослепяващите лазери като нехуманно оръжие. Това може да бъде добра основа и отправна точка за международната общност при бъдещи дискусии и решения в областта на международното хуманитарно право.
Заключение
Оценката на напълно автономните оръжия по клаузата на Мартенс подчертава необходимостта от нов закон, който е едновременно специфичен и силен. Регламенти, които позволяват съществуването на напълно автономни оръжия, няма да са достатъчни. Например ограничаването на употребата до определени места нито би предотвратило риска от разпространение сред участници, които не зачитат хуманното отношение или човешкия живот, нито би гарантирало зачитане достойнството на цивилни лица или бойци. Освен това общественото съзнание разкрива широко разпространена подкрепа за забраната на напълно автономните оръжия или техния еквивалент и изискване за смислен човешки контрол. За да осигурят спазването както на принципите на хуманността, така и на волята на общественото съзнание, държавите трябва да забранят превантивно разработването, производството и използването на напълно автономни оръжия.
*Преподавател в Юридическия факултет на СУ „Св. Климент Охридски“
Бележки:
[1] Marr, Bernard, The Key Definitions Of Artificial Intelligence (AI) That Explain Its Importance, Forbes, February 14, 2018, достъпна на https://www.forbes.com/sites/bernardmarr/2018/02/14/the-key-definitions-of-artificial-intelligence-ai-that-explain-its-importance/?sh=b5113b04f5d8
[2] Convention on Certain Conventional Weapons - Group of Governmental Experts on Lethal Autonomous Weapons Systems, 2018, UNODA, достъпна на https://meetings.unoda.org/meeting/ccw-gge-2018/
[3] Gomez de Agreda, Angel, Ethics of autonomous weapons systems and its applicability to any AI systems, Telecommunications Policy
Volume 44, Issue 6, July 2020,
[4] Ticehurst, Rupert, The Martens Clause and the Laws of Armed Conflict, International Review of the Red Cross, No. 317, 1997
[5] Docherty, Bonnie, Ban ‘killer robots’ to protect fundamental moral and legal principles, August 21, 2018, The Conversation, достъпна на https://theconversation.com/ban-killer-robots-to-protect-fundamental-moral-and-legal-principles-101427
[6] Heed the Call: A Moral and Legal Imperative to Ban Killer Robots, Human Rights Watch, August 2018, достъпна на https://www.hrw.org/report/2018/08/21/heed-call/moral-and-legal-imperative-ban-killer-robots
[7] Пак там
[8] Sparrow, Rob, Ethics as a source of law: The Martens clause and autonomous weapons, Humanitarian Law & Policy blog, November 14, 2017, достъпна на https://blogs.icrc.org/law-and-policy/2017/11/14/ethics-source-law-martens-clause-autonomous-weapons/
[9] Trager, Robert, Killer Robots Are Here—and We Need to Regulate Them, Foreign Policy, May 11, 2022, достъпна на https://foreignpolicy.com/2022/05/11/killer-robots-lethal-autonomous-weapons-systems-ukraine-libya-regulation/