5740
Skynet вже тут
— Світ
Людство не може дозволити собі ризик – віддати право на вбивство машинам. Це не цитата з вигаданого всесвіту «Термінатора», в якій, за задумом режисера Джеймса Кемерона, децентралізована мережа нейропроцессорних суперкомп’ютерів Skynet віддає наказ про знищення роду людського 21 квітня 2011 року. Це заклик спецдоповідача ООН з питання про позасудові страти, страти без належного судового розгляду або довільні страти Крістофа Хейнса. 30 травня в Раді з прав людини ООН Хейнс виступив за введення глобального мораторію на виробництво і розміщення летальних автономних роботизованих систем (Lethal Autonomous Robots, LARs).
«Якщо безпілотники ще вимагають “людини за пультом”, яка брала би рішення про застосування сили зі смертельним результатом, то LAR оснащені комп’ютерами, які самі приймають рішення, хто буде ставати їх ціллю», – непокоїться південноафриканський професор права. «Війна без належного роздуму – це механічна бійня», – упевнений він, маючи на увазі роздуми саме людські. «Так само, як і рішення забрати чиєсь життя вимагає хоча б якогось обговорення, рішення наділити машини завданням знищення людських істот вимагає, щоб [людство] взяло колективну паузу», – попереджає Хейнс своїх колег по правозахисному органу ООН. Він сумнівається в здатності навіть найдосконалішого штучного інтелекту слідувати головному правилу сучасної війни – розрізняти законні військові цілі.
Перспектива використання штучного інтелекту на війні – справа зовсім недалекого майбутнього, більш того, це майбутнє вже настало, і про три закони робототехніки Айзека Азімова в ході його настання ніхто не питав.
«Багатьом, здається, невтямки, що автономні оборонні системи існують вже 20 років і вже неодноразово помилково забирали людські життя, – говорить професор військового права Школи права ім. Р. Дедман при Південному методистському університеті в Далласі (штат Техас) Кріс Дженкс, противник заборони на розробки у військовій робототехніці. – У ході обох «воєн в Затоці» ракетні системи Patriot помилково ідентифікували ворога і збили американський літак в одну війну і британський – у другу. А п’ять років тому в ПАР теж стався трагічний випадок, коли так звана «гармата-робот» вийшла з-під контролю, убивши дев’ять південноафриканських солдаті».
Перший повністю автономний безпілотник (проект Condor) був розроблений Агентством передових оборонних дослідницьких проектів США (Defense Advanced Research Projects Agency, DARPA) ще в 1988 році. Ізраїльська армія вже більше 20 років має на озброєнні автоматичні безпілотні літальні апарати (БПЛА) Harpy – літаки-снаряди, призначені для знищення радіолокаційних станцій. На озброєнні ВМС США складається протиракетна система Phalanx, що має завдання автоматичного виявлення, супроводу і знищення цілей, в тому числі протикорабельних ракет і літаків. А сухопутні сили володіють наземним варіантом цього комплексу, відомим як C-RAM (Counter Rocket, Artillery and Mortar). І тільки два місяці тому ВМС США запустили в повітря БПЛА X-47B, здатний самостійно виконувати свій польотний план, втручання в який з боку людини необхідне тільки в самих екстрених ситуаціях.

Хейнс у своїй доповіді наводить ще кілька прикладів – які мають куди більше асоціацій з ерою «термінаторів». Наприклад, південнокорейських роботів-охоронців військового підрозділу компанії Samsung – Samsung Techwin. Вони несуть службу в демілітаризованій зоні на межі двох корейських держав, оснащені інфрачервоними датчиками і відстежують переміщення людей. І хоча зараз їх діями керує оператор-людина, ці роботи мають і автоматичний режим служби.
Автоматичні БПЛА розробляються і британською оборонною промисловістю – оснащені технологією «стелс» дрони Taranis здатні виконувати міжконтинентальні перельоти, несучи на борту різне озброєння для ураження як повітряних, так і наземних цілей. Перший випробувальний політ Taranis повинен здійснити вже цього року.

Правда, як запевняв на слуханнях в палаті громад 17 червня держміністр британського МЗС Алістер Берд, у Лондона немає намірів розвивати автоматичні роботизовані системи для використання на війні. Так і США в листопаді 2012-го через офіційну директиву Пентагону заявили про намір зберегти «відповідний рівень людської участі при [ухваленні рішення] про використання сили». Цей неоголошений мораторій буде діяти протягом наступних десяти років. А до закінчення цього періоду, розмірковують у США, Пентагон вже повністю буде стурбований питаннями як дати відсіч загрозі, що виходить від Китаю – необхідність адекватної відповіді диктує продовження розробок в області військової робототехніки.
Правда, від повноцінного штучного інтелекту, що самостійно визначає свої дії на театрі військових дій, описані вище системи поки досить далекі. Так що і в Вашингтоні, і в Лондоні говорити про необхідність тримати людську руку на пульті управління можуть тільки в силу того, що в реальності без людського контролю обійтися просто не можливо. Однак, як відзначають фахівці американського Національного університету оборони у Форт-Макнейрі, «технології протягом останніх років розвивалися настільки стрімко, […] що створення повністю автономних систем представляється реально ймовірним протягом декількох наступних років».

Корпорація IBM вже щосили тестує суперкомп’ютер Watson із сумарною оперативною пам’яттю в 16 терабайт. Він оперує 100 статистичними алгоритмами і має доступ до 200 мільйонів сторінок структурованої і неструктурованої інформації, які він обробляє за частки секунди, суперкомп’ютер вже вміє розуміти питання, сформульовані на природній мові, що дозволило йому виграти у переможців американського прототипу інтелектуальної гри «Своя гра». З лютого 2013 Watson офіційно задіяний при діагностиці та лікуванні онкологічних захворювань, оперуючи так званими «великими даними», статистичною інформацією з онкоклінік, узагальнення якої для лікарів-людей було б непосильним.
Інша корпорація – Google – на базі розробок Лабораторії штучного інтелекту Стенфордського університету створила прототипи повністю автономних автомобілів, чий бортовий комп’ютер відстежує сотні параметрів навколишнього середовища, в тому числі міміку водіїв машин, що рухаються по сусідству. Дюжина таких автомобілів проробила до серпня 2012 року сумарний шлях в 500 тисяч кілометрів без єдиної аварії по дорогах Невади і Каліфорнії, двох із трьох штатів США, де вільне пересування таких апаратів вже законодавчо дозволено. Обидві когнітивні системи здатні самостійно вчитись, що, запевняють їх розробники, може вважатися революційним проривом у робототехніці.
Подібні розробки ведуться не тільки і не стільки в приватних компаніях – піонером в області розробок автономних роботизованих систем виступає те же американське оборонне агентство DARPA і інші дослідницькі центри Пентагону: Управління військово-морських досліджень, Науково-дослідна лабораторія Армії США. Саме грант DARPA допоміг вченим зі Стенфорду у 2005 році розпочати розробки своїх безекіпажних автомобілів.
«У наступні 25 років міністерство оборони сфокусує діяльність своїх лабораторій і промисловості в наступних областях: розвідка, спостереження і рекогносцировка (тріада ISR), придушення повітряної оборони противника, руйнування повітряної оборони противника, електронні атаки, боротьба з надводними кораблями [противника], протичовнова оборона , протимінна оборона, маневр “корабель-ціль”, комунікаційна підтримка і похідні [програми] в цих областях», – можна прочитати в «дорожній карті» Пентагону по створенню БПЛА на 2005-2030 роки.
Серед перспективних напрямків досліджень бойових роботів: розробка біоміметичних (тобто таких,що наслідують живим істотам) систем підводного стеження, чий спосіб пересування буде схожий, наприклад, з електричним вугром; незаселені надводні апарати протичовнової оборони; повністю автономні розвідувальні дрони на базі вже прийнятих на озброєння БПЛА Global Hawk, «рої» малих роботів-дронів, що діють спільно (ця технологія на базі «ройового інтелекту» відома як Proliferated Autonomous Weapons); важкі безекіпажних наземні машини Crusher.

До 2020 року, припускають автори іншої «дорожньої карти» Пентагону – по створенню самохідних наземних роботів, продукти їх розробок досягнуть рівня «повної автономії» від людини при веденні бойових дій, а до 2030-го, впевнені їхні колеги з ВПС США, «машинні можливості зростуть до такого ступеня, що люди опиняться найслабшим компонентом у цілому ряді [оборонних] систем і процесів».
Головний плюс LAR – їх здатність в частки секунди приймати рішення, на які людині-оператору треба було б куди більше часу. Вже зараз БПЛА виконують бойові завдання при таких перевантаженнях, які для людей виявилися б смертельними. Відсутність «людського фактора», стверджують захисники застосування роботів, не тільки знижує ймовірність помилки. LAR виключають людські емоції: вони не будуть діяти з почуття страху, помсти або з садистською жорстокістю. Вони не залежать від якості супутникового зв’язку, за допомогою якого тепер керують дронами; виконанню їхніх завдань не стане на заваді хакерська атака противника. Вони не будуть приймати неправильні рішення, виходячи з «найбільш ймовірного сценарію» – як це сталося, наприклад, в 1988 році, коли американський ракетний крейсер збив іранський пасажирський літак, оскільки в умовах бойових дій (6-й флот США захищав тоді кувейтські танкери від можливого нападу з боку Ірану або Іраку, які воювали один з одним) командувачі прийняли борт за атакуючий іранський винищувач.
Хтось, як, наприклад, директор лабораторії мобільної робототехніки в Технологічному інституті штату Джорджія Рональд Аркін, вважає, що використання роботів на полі бою скоріше навіть скоротить невійськові втрати в порівнянні із звичайними бойовими діями, які ведуть люди. Але й він у розмові з «Лентой.ру» робить застереження: цей ефект досяжний тільки в тому випадку, якщо LAR використовують «відповідним чином і в обмежених умовах».
Припустимо, міркує він, роботи куди більш надійні збирачі інформації – позбавлені страху та інстинкту самозахисту, вони можуть бути незамінні в розвідці. Оскільки логіка «спочатку стріляй, а потім розбирайся» до них непридатна, вони можуть ближче підібратися до ворога, витративши менше часу на збір і аналіз інформації. Інший плюс – наявність у роботів недоступних для людини сенсорів – інфрачервоних, акустичних, можливість позиціонування з використанням синтетичної апертури, що також максимізує обсяг зібраних в режимі реального часу даних. «Як мінімум, можливо, що в не такому далекому майбутньому LAR зможуть краще розрізняти учасників бойових дій і цивільних осіб, з більшої відстані і з більшою точністю, ніж це роблять люди, що також скоротить кількість цивільних жертв конфліктів», – розмірковує в розмові з «Лентой.ру» професор Дженкс.
«LAR не становлять собою загрози як такої, і у нас є час обдумати, що представляють собою відповідні умови для їх використання – тобто ми повинні відповісти на запитання, коли, як і де можуть бути використані роботи», – вважає Аркін.

І в своїй доповіді, і в публічних виступах Хейнс робить схожі припущення, але підкреслює, що головний ризик використання LAR – це потенційне порушення правил і звичаїв ведення війни. Спецдоповідач ООН стверджує, що застосування в бойових діях автономних роботів загрожує тим, що за дії машин ніхто не буде нести прямої юридичної відповідальності. Якщо вже техніки, що налаштовують їх, не можуть гарантувати, як поведе себе їх апарат в тій чи іншій ситуації, що вже говорити про командувачів збройними силами, котрі віддають наказ про їх відправку на полі бою. Хейнс не самотній у своїй заклопотаності – його побоювання поділяють експерти з Міжнародного комітету з контролю за роботами військового призначення (ICRAC), а провідна правозахисна організація Human Rights Watch запустила спеціальну кампанію «Зупинити роботів-вбивць».
Втім, кажуть противники мораторію, існуючі міжнародні конвенції і не вимагають, щоб хтось ніс особисту відповідальність за порушення принципів ведення військових дій, в відсутність таких цю відповідальність несе безпосередньо держава.
Якщо LAR і не здатні здійснювати людські помилки, вони не володіють тією свободою волі, якою все-таки люди від природи наділені. Але позбавлені людських почуттів, заперечує Хейнс, вони будуть позбавлені і людського досвіду: роботи гарні тільки в тому, що входить до вузького кола їх спеціалізації; вони обмежені тією інформацією, яку постачають їм їх сенсори, виходить так, немов людина міркує про навколишній світ, перебуваючи в тунелі, звідки неможливо побачити всю повноту картини, аргументує він у своїй колонці в The Guardian.
«Людські істоти тендітні, недосконалі і справді можуть поводитися “не по-людськи”, але в той же час вони здатні піднятися над мінімальними вимогами, що висуваються до узаконеного вбивства», – міркує Хейнс. І якщо процесори, якими оснащені LAR, призначені в першу чергу для проведення кількісного аналізу – розпізнавання і визначення цілей за підсумками звірення із заданими розробником характеристиками, то оцінка «супутнього збитку», включаючи і можливу загибель цивільних осіб при атаці, – справа все-таки якісного аналізу, на яку машини поки ще нездатні, впевнений спецдоповідач ООН.
Такий підхід, сперечається з ним Дженкс, ігнорує «проблемну природу людського судження». «Один мій колега якось сказав, що робот не забрав жодного людського життя в ході Другої світової війни, або в Руанді, або в Камбоджі, людство зробило це саме», – розмірковує американський учений. У результаті розмова зводиться до одного – суто психологічної реакції на факт того, що відтепер вбивство є прерогативою не одного тільки людського роду. «Ми не можемо віддавати право приймати смертоносні рішення машинам», – підсумовує у розмові з «Лентой.ру» цей підхід професор робототехніки в університеті Карнегі Меллон Ілла Реза Нурбахш, що приїжджав днями до Москви. Сам він, будучи членом керівництва ICRAC, підтримав заклик Human Rights Watch заборонити використання LAR – як колись конвенцією ООН було заборонено використання протипіхотних мін. «Ви знаєте відповідь на це питання», – відповідає він, коли я цікавлюся у нього, чи готовий він підписатися під пропозицією спецдоповідача Хейнса про введення мораторію на розробку бойових роботів.
Олександр Артем’єв
За матеріалами: Лента.РУ
Поділитися новиною