top of page

Темні сторони війни з використанням машин

Оновлено: 23 січ.


ШІ прокладає собі шлях в царині прийняття рішень у бою. Серед кого шукати винних, коли щось йде не за планом?




У війні найближчого майбутнього (яка, як нам відомо, вже розпочалась) солдат займає позицію для ведення вогню на порожньому даху. Його підрозділ із боями проходить квартал за кварталом. Таке відчуття, що вороги можуть знаходитись в мовчазному очікуванні за кожним кутом, готові спрямувати шквал вогню на свої цілі, щойно ті здійснять постріл.


Через приціл солдат оглядає вікна сусідньої будівлі. Він помічає свіжу білизну, що звисає з балконів. По радіо надходить повідомлення, що внизу його команда збирається рушити відкритою ділянкою. Коли вони прямують до визначеної цілі, у лівому верхньому кутку прицілу з'являється червона блимаюча рамка. Система комп'ютерного зору пристрою повідомляє про наявність цілі — схоже на те, що силует фігури у вікні наближається, щоб здійснити постріл.


У солдата немає чіткого огляду, але, за його досвідом, система має надлюдську здатність виявляти найменші ознаки ворога. Тому він наводить перехрестя прицілу на червону рамку та готується натиснути на спусковий гачок.


В іншій війні, яка, здається, вже за рогом, командир стоїть перед скупченям моніторів. З'являється повідомлення від чат-бота. Бот повідомляє про те, що супутники зафіксували вантажівку, яка в'їжджає до певного міського кварталу, що позначений (системою) як можливий плацдарм для запуску ворожих ракет. Чат-бот вже порадив артилерійському підрозділу, який, за його розрахунками, має в своєму розпорядженні найбільшу “імовірність успішного ураження цілі”, навести приціл на вантажівку і залишатися напоготові.


Відповідно до даних чат-бота, жодна з прилеглих будівель не є цивільною спорудою, хоча система зазначає, що цей статус ще не підтверджений наочно. На місце події прибуває дрон, направлений системою для більш ретельного огляду. На відео видно, як вантажівка в'їжджає заднім ходом у вузький прохід між двома житловими будинками. Можливість зробити постріл швидко добігає кінця.


Для командира тепер усе замовкає. Хаос, невизначеність, какофонія — все звелося до звуку годинника, що цокає, і погляду на єдину кнопку, що світиться:


“ВІДДАТИ НАКАЗ “ВОГОНЬ”


Натиснути на спусковий гачок, або, залежно від обставин, не натискати на нього. Натиснути або втриматися? Юридично — і етично — роль рішення солдата у питаннях життя та смерті є перманентною та безповоротною. По суті, саме ці рішення визначають міру людського фактора у війні.


Тому не дивно, що держави та громадянське суспільство порушують питання про інтелектуальну автономну зброю — зброю, яка може визначати цілі та уражати їх без участі людини — як предмет серйозної стурбованості. У травні, після майже десяти років дискусій, сторони Конвенції про конкретні види звичайної зброї (ККЗ) Організації Об'єднаних Націй погодили, серед інших рекомендацій, що збройним силам, які її використовують, ймовірно, необхідно “обмежити тривалість, географічне охоплення та масштаб операції”, щоб виконати вимоги законів війни. Це формулювання не носило обов’язкового характеру, але, принаймні, воно було визнанням того, що людина повинна зіграти свою роль — десь і колись — безпосередньо у самому процесі, результатом якого буде вбивство.


Але інтелектуальна автономна зброя, яка повністю замінює процес ухвалення рішень людиною, (ймовірно) ще не мала реального застосування. Навіть “автономні” дрони та кораблі, що застосовуються США та іншими державами, використовуються під пильним наглядом людини. Тим часом, інтелектуальні системи, які просто спрямовують руку, що натискає на спусковий гачок, все частіше входять до пулу інструментів командира. І ці інструменти війни поступово стали достатньо прогресивними, щоб було порушено нові питання, на які складніше відповісти, ніж на добре всім відомі дискусії про роботів-вбивць, і з кожним днем вони стають все більш актуальними: що це означає, коли рішення належить лише часково — людині, і частково — машині? І у яких випадках було б етично, якщо взагалі таке прийнятно, щоб це рішення було рішенням щодо вбивства?


 


Довгий час ідея підтримки людського рішення за допомогою комп'ютерних засобів не представляла таких суперечливих перспектив. Генерал-лейтенант ВПС США у відставці Джек Шанахан розповідає, що радар на винищувачі F4 Phantom, яким він керував у 1980-х роках, був свого роду помічником у прийнятті рішень. За його словами, це попереджало його про присутність інших літаків, щоб він міг визначитись, що з ними робити. Було б перебільшенням стверджувати, що екіпаж та радар були рівноправними співучасниками.


Все почало змінюватися. “Те, що ми бачимо зараз, принаймні так, як це бачу я, — це перехід у реальність, в якій вам неохідні люди та машини, які працюватимуть у певному тандемі”, — каже Шанахан.


Розвиток машинного навчання, зокрема, викликав зсув парадигми у тому, як військові використовують комп'ютери для прийняття найважливіших рішень при веденні війни — аж до ухвалення остаточного рішення. Шанахан був першим директором Project Maven, програми Пентагону, яка розробила алгоритми розпізнавання цілей для відеоспостереження з дронів. Проект, який започаткував нову еру американського військового ШІ, стартував у 2017 році після того, як дослідження дійшло висновку, що “алгоритми глибокого навчання можуть працювати на рівні, близькому до людського”. (Це також спричинило суперечки — у 2018 році понад 3000 співробітників Google підписали лист протесту проти участі компанії у проекті.)


За словами Метта Турека, заступника директора Управління інформаційних інновацій Агентства перспективних оборонних дослідницьких проектів, завдяки інструментам, що приймають рішень на основі машинного навчання, “у вас більше очевидної компетентності та ширші можливості”, у порівнянні з попередніми інструментами. “І, можливо, в результаті з'явиться тенденція передавати системі більше повноважень щодо прийняття рішень”.


Солдат, який здійснює пошук ворожих снайперів, наприклад, може зробити це за допомогою Assault Rifle Combat Application System, прицілу, який продає ізраїльська оборонна фірма Elbit Systems. Згідно зі специфікацією компанії, пристрій зі штучним інтелектом здатний “виявляти людські цілі” на відстані понад 600 ярдів, а також “ідентифікувати” людські цілі (імовірно, розпізнаючи, чи є людина тією ціллю, яку можна уразити) на дистанції довжиною з футбольне поле. Анна Аронхайм-Коен, представник компанії, зазначає: "Система вже була протестована в реальних умовах, у бою із солдатами піхоти".


Інший приціл, створений компанією Smartshooter, рекламується як такий, що має аналогічні можливості. Згідно з веб-сайтом компанії, його також можна вбудувати в кулемет з дистанційним керуванням, подібний до того, який був використаний ізраїльськими агентами для ліквідації іранського вченого-ядерника Мохсена Фахрізаде в 2021 році.


Інструменти підтримки прийняття рішень, які знаходяться на значній відстані від поля бою, також можуть мати суттєве значення. Схоже, що Пентагон використовував штучний інтелект з метою аналізу розвідувальних даних і прийняття рішень, щодо нанесення потенційного удару, тобто процесу, що відомий як “бойовий ланцюг”, — хоча там ухиляються від розкриття деталей. Лора МакЕндрюс, представник ВВС, написала, що служба “використовує концепцію взаємодії людини та машини”.


Діапазон висновків, які враховуються при ухваленні військових рішень — величезний.


Інші країни більш відверто експериментують з подібною автоматизацією. Невдовзі після ізраїльсько-палестинського конфлікту в 2021 році, Армія Оборони Ізраїлю заявила, що використовувала те, що вони назвали інструментами штучного інтелекту, щоб попередити війська про неминучі атаки та запропонувати цілі для операцій.


Українська Армія використовує програму GIS Arta, яка пов'язує кожну відому російську ціль на полі бою — з артилерійським підрозділом, який, згідно з алгоритмом, найкраще підходить для нанесення ураження по ній. У звіті британського видання The Times, даний алгоритм порівнюється з алгоритмом Uber для об'єднання водіїв та пасажирів у пари, зазначивши, що це суттєво скорочує час між виявленням цілі та моментом, коли ця ціль опиняється під шквалом вогню ЗСУ. До того, як в українців з'явилася GIS Arta, цей процес займав 20 хвилин. Тепер, як повідомляється, потрібна одна.


Росія стверджує, що має власну систему командування та контролю з так званим “штучним інтелектом”. Грегорі Аллен, директор Центру штучного інтелекту і передових технологій Вадхвані та один із архітекторів зовнішньої політики Пентагону в галузі штучного інтелекту, зазначає, що до деяких з цих тверджень необхідно ставитися із значною долею скептицизму. Він говорить, що певна частка із російських допоміжних військових ШІ — це “речі, якими всі займалися десятиліттями”, а систему GIS Arta називає “просто традиційним програмним забезпеченням”.


Діапазон висновків, які враховуються при ухваленні військових рішень — величезний. І не обов’язково щоразу використовувати штучний супер-інтелект, коли можна обійтися лише автоматизованими засобами. Існують інструменти для прогнозування переміщення військ супротивника, інструменти для визначення того, яким саме способом знищити задану ціль, а також засоби для оцінки того, якої побічної шкоди може бути завдано цивільному населенню, що перебуває поблизу.


Жоден з цих винаходів не можна назвати роботом-вбивцею. Але ця технологія не позбавлена ризиків. Як і будь-який складний комп'ютер, інструмент на базі штучного інтелекту може дати збій незвичайним та неочікуваним чином; Не зовсім зрозуміло, чи зможе залучена в процес людина завжди знати, чи то правильні, чи неправильні відповіді на екрані. Через свою невпинну ефективність, ці інструменти також можуть не залишати людям достатньо часу та простору для правової оцінки їхніх дій.


Зрештою, військові планують використовувати машинний інтелект, щоб об'єднати множину розрізнених інструментів у єдину автоматизовану мережу, яка пов'язує кожну одиницю зброї, командира та солдата один з одним. Не бойовий ланцюг, а — як це називали в Пентагоні — бойова мережа.


У цих мережах незрозуміло, чи рішення людини насправді є рішенням. Rafael, ізраїльський оборонний гігант, вже продав один такий продукт, Fire Weaver, Збройним Силам Ізраілю (компанія також продемонструвала даний продукт Міністерству оборони США та німецьким військовим). Згідно з матеріалами компанії, Fire Weaver знаходить позиції противника, повідомляє підрозділ про те, що, на думку системи, цей підрозділ найоптимальніше розташований для ведення вогню по ворожій цілі, і навіть встановлює приціл безпосередньо на ціль в радіусі дії визначеного підрозділу. Роль людини, згідно з одним із відео-презентацій програмного забезпечення, полягає у виборі однієї з двох кнопок: “Схвалити” чи “Скасуваи”.


 


Припустимо, силует у вікні був не солдатом, а дитиною. Уявіть собі, що вантажівка доставляє не боєголовки супротивнику, а відра з водою до приватного помешкання.


З п’яти “етичних принципів штучного інтелекту” Міністерства Оборони, які сформульовані як аксіоми, першим завжди стоїть “принцип відповідальності”. На практиці це означає, що коли щось йде не за планом, тоді хтось — саме людина, а не машина — має взяти на себе цей тягар.


Звичайно, принцип відповідальності виник задовго до появи машин із штучним інтелектом. Усі закони та звичаї війни були б безглуздими без фундаментального розуміння загалом того, що будь-який навмисний вчинок у бою завжди належить комусь. Але з перспективою того, що комп'ютери візьмуть на себе нові складні ролі, стара заповідь набуває нового резонансу.


З п'яти “етичних принципів штучного інтелекту” Міністерства Оборони, сформульованих як аксіоми, першим завжди стоїть “принцип відповідальності”.


“Тепер для мене та для більшості людей у військовій формі, яких мені коли-небудь доводилось знати, це було основою того, що ми собою представляли як командири: те, що врешті-решт хтось буде нести відповідальність”, — каже Шанахан, який після Мейвена став першим директором Об’єднаного Центру Штучного Інтелекту Пентагону і наглядав за розробкою етичних принципів ШІ.


Ось чому саме людська рука має натиснути на спусковий гачок, чому людська рука має натиснути “Схвалити”. Якщо комп'ютер визначить ціль невірно, а солдат все одно натисне на спусковий гачок, це все ж буде солдат. "Якщо людина робить щось, що призводить до нещасного випадку за участю машини — скажімо, кидає зброю там, де її не повинно бути, — це все одно буде результатом людського рішення", — говорить Шанахан.


Але нещасні випадки трапляються. І тут все стає складніше. Військові витратили сотні років на те, щоб зрозуміти, як відрізнити неминучі та беззаперечні трагедії війни, що трапились у результаті злого умислу, нетуди спрямованої люті, чи грубої недбалості. Навіть зараз це залишається складним завданням. Передача частини людських функцій та рішень алгоритмам, побудованим у багатьох випадках, на математичному принципі оптимізації, кине виклик усім цим законам та доктринам, говорить Кортні Боуман, глобальний директор із впровадження конфіденційності та соціальних свобод у Palantir, фірмі зі штаб-квартирою в США, яка створює програмне забезпечення для управління даними для військових, урядів та великих компаній.


“Це колізія. Це диструктивно”, — каже Боумен. “Це вимагає нової етичної конструкції, щоб мати можливість приймати обґрунтовані рішення”.


Зробивши крок, який був неминучим в епоху ChatGPT, цього року Palantir оголосила про те, що розробляє програмне забезпечення під назвою Платформа Штучного Інтелекту, яка дозволяє інтегрувати великі мовні моделі у військові продукти компанії. В демонстрації AIP, яка була оприлюднина на YouTube цієї весни, платформа попереджає користувача про потенційно-загрозливий рух ворога. За тим, система пропонує відправити дрон для більш ретельного огляду, та дає на вибір три можливі плани перехоплення нападників, після чого прокладає оптимальний маршрут для обраної атакуючої групи, аби дістатися до до цілі.


І все ж навіть з машиною, здатною на таку очевидну кмітливість, військові не захочуть, щоб користувач сліпо довіряв кожній її пропозиції. Якщо людина натискає лише одну кнопку в бойовому ланцюзі, це, ймовірно, не повинна бути кнопка “Я вірю”, як це відбулось, коли стурбований, але невідомий загалу армійський оперативник, застосував таку опцію у військовому симуляторі Міністерства оборони в 2019 році.


У рамках програми під назвою Urban Reconnaissance through Supervised Autonomy (Розвідка у місті за допомогою контрольованої автономії; URSA), DARPA створила систему, яка дозволила роботам і дронам виступати в якості передових спостерігачів для взводів під час операцій у місті. Після коментарів консультативної групи з етичних та юридичних питань щодо даної ініціативи, було вирішено, що програма позначатиме людей лише як “осіб, яких необхідно пильнувати”. Незважаючи на те, що завдання цієї технології полягало в тому, щоб виключити загрозу засідки, ця система ніколи не заходила настільки далеко, щоб нарікати будь-кого “загрозою”.


Передбачалося, що це утримає солдата від поспішного рішення. За словами Брайана Віль’ямса, асоційованого наукового співробітника Інституту Оборонного Аналізу, який очолював консультативну групу, це також мало юридичне обґрунтування. Як він каже, жоден суд не підтвердив, що машина може законно визначити людину як загрозу. (Знову ж таки, додає науковець, жоден суд не надав конкретного висновку, що це буде незаконним, і він визнає, що не всі військові оператори обов’язково поділяють обережне трактування закону його групою.) За словами Вільямса, DARPA спочатку хотіла, щоб URSA була здатна автономно розпізнати намір людини; цю функцію також було скасовано за наполяганням групи.


Боуман каже, що підхід Palantir полягає в тому, щоб усунути “структурну неефективність” у певних “точках процесу прийняття рішень, де ви дійсно хочете уповільнити хід процесу”. Наприклад, за його словами, вихідні дані комп’ютера, які вказують на рух ворожих військ, можуть вимагати від користувача платформи додаткового підтверджуючого джерела розвідувальних даних, перш ніж приступити до дії (але платформа штучного інтелекту, що показана на відео, схоже, не здатна це здійснити).


“Якби особи, які ідентифіковані як ціль, позначалися на екрані у вигляді червоних цяток, це б мало інакший підсвідомий зміст, ніж якби особи, які ідентифіковані як ціль, були б позначені на екрані у вигляді маленьких смайликів”.

Ребека Крутоф, професор права Університету Річмонда



Боуман каже, що у випадкау з AIP, ідея полягає в тому, аби подати інформацію таким чином, “щоб користувач зрозумів, аналітик зрозумів, що це лише пропозиція”.На практиці, захист людського судження від впливу оманливо розумної машини може зводитися до дрібних деталей графічного дизайну. “Якби особи, які ідентифіковані як ціль, позначалися на екрані у вигляді червоних цяток, це б мало інакший підсвідомий зміст, ніж якби особи, які ідентифіковані як ціль, були б позначені на екрані у вигляді маленьких смайликів” — зазначає Ребекка Крутоф, професор права з Університету Річмонда, яка багато висвітлювала аспект відповідальності людини в цьому циклі.


Однак у деяких ситуаціях солдати можуть обійтися лише кнопкою "Я вірю". Спочатку DARPA розглядало URSA як наручний пристрій для солдатів на передовій. "На першому засіданні робочої групи ми сказали, що це недоцільно", — розповідає Вільямс. Замість цього вони створили комп’ютерну систему, яка працює з виділеним оператором, що перебуває на відстані від театру подій.


Безумовно, деякі системи підтримки прийняття рішень розроблені для того, щоб за долі секунди ухвалювати рішення, які відбуваються безпосередньо в самій гущі події. Армія США заявила, що в ході реальних випробувань їм вдалося скоротити свій 20-хвилинний цикл прицілювання до 20 секунд. І ринок, схоже, не сприйняв духу стриманості. У демонстраційних відеороликах, опублікованих в Інтернеті, блимаючі графічні рамки комп'ютеризованих прицілів Elbit і Smartshooter мають криваво-червоний колір.


 


В інших випадках, комп'ютер матиме рацію, а людина зробить помилку.


Якби солдат, що тримає позицію на даху, засумнівався у системі прицілювання, і згодом виявилося, що силует насправді був ворожим снайпером, його товариші по команді могли б дорого заплатити за зайву секунду його коливаннь.


Це інше джерело неприємностей, яке набагато менше обговорюється, але не менш імовірне в реальному бою. І це ставить людину в якесь неоднозначне становище. Солдатам буде наказано ставитися до своїх цифрових помічників максимально критично, щоб зберегти недоторканність власних суджень. Але у випадку з машинами, які часто мають рацію, те ж саме небажання підкорятися комп'ютеру, само по собі, може стати елементом запобігання провалу.


В історії авіації чимало випадків, коли відмова людини-пілота дослухатись до машини призводила до катастрофи. Керол Дж. Сміт, старша наукова співробітниця Інституту розробки програмного забезпечення Університету Карнегі-Меллона, яка допомагала розробляти керівні принципи відповідального ШІ для відділу оборонних інновацій Міністерства оборони, не бачить проблеми: “Якщо людина в цей момент відчуває, що рішення неправильне, вона робить це за власним висновком, і їй доведеться зіткнутися з наслідками”.


Для всіх інших — це жахлива етична загадка. Вчена M.C. Еліш припустила, що людина, яка потрапила в таку неможливу петлю, може в кінцевому підсумку прийти до того, що вона називає “зоною моральної деформації”. У разі нещасного випадку — незалежно від того, помилилася людина, комп’ютер, або ж вони помилялись разом — особа, яка прийняла “рішення”, візьме всю провину на себе, чим надасть індульгенцію всім іншим елементам у ланцюзі, що їх було задіяно у процесі прийняття рішення.


У своєму есе Сміт написала, що “найбільш низькооплачувану людину” не слід “обтяжувати цією відповідальністю”, як і “найбільш високооплачувану людину”. Натомість, говорить вона, відповідальність має бути розподілена між усіма учасниками, і впровадження ШІ нічого не повинно міняти у цій структурі.


На практиці все складніше, ніж здається. Крутоф зазначає, що навіть сьогодні “відсутня суттєва відповідальності за нещасні випадки під час бойових дій”. Оскільки інструменти штучного інтелекту стають об’ємнішими та складнішими, а бойові ланцюги— коротшими та більш схожими на мережу, тож пошуки справжного винуватця може завести у непрохідний лабіринт.


Ті, хто створює ці інструменти, та компанії, в яких такі люди працюють, навряд чи зазнають невдачі. Створення програмного забезпечення для штучного інтелекту — це тривалий, інтегрований процес, часто заснований на відкритому вихідному коді, який знаходиться далеко від реальних матеріальних фактів, безпосередньо пов'язаних із ураженням плоті металом. І, за винятком якихось суттєвих змін у законодавстві США, оборонні підрядники, як правило, у будь-якому разі захищені від відповідальності, каже Крутоф.


Поміж тим, будь-яка спроба домогтися підзвітності на вищих щаблях командування, швидше за все, опиниться в глухому куті, через важку завісу урядової класифікації, яка має тенденцію приховувати більшість інструментів підтримки прийняття рішень ШІ та способи їх використання. У ВПС США не повідомили, чи був використаный ШІ в реальних умовах. Шанахан каже, що моделі ШІ Maven були використані для розвідувального аналізу незабаром після запуску проекту, а в 2021 році міністр ВПС заявив, що «алгоритми ШІ” нещодавно були застосовані “вперше в живому оперативному бойовому ланцюзі”. Тодішній представник ВВС додав, що ці інструменти були доступні у розвідувальних центрах по всьому світу “у будь-який час, коли це необхідно”. Але Лора МакЕндрюс, представник ВВС, заявила, що насправді ці алгоритми "ще не застосовувалися в реальних умовах".


Реальна історія може залишатися прихованою протягом багатьох років. У 2018 році Пентагон видав ухвалу, що звільняє Project Maven від вимог про свободу інформації. Минулого року компанія передала всі блоки програми до Національного Агентства Геопросторової Розвідки, яке відповідає за обробку величезної кількості секретних даних американського повітряного спостереження. Відповідаючи на запитання, чи використовуються алгоритми в бойових ланцюгах, Роббін Брукс, представник NGA, заявила: “Ми не можемо говорити про те, як і де використовується Maven”.


 


У якомусь сенсі те, що тут нове, теж старе. Зазвичай ми віддаємо нашу безпеку, та й усе інше, що стосується нашого існування як виду — до рук сторонніх осіб. Ті, хто ухвалює рішення, у свою чергу, підкоряються машинам, яких вони не здатні цілком осягнути.


Оглядаючи все про автоматизацю, що було опублікована протягом 2018 року, коли оперативна підтримка прийняття рішень за допомогою штучного інтелекту була ще рідкістю, колишній міністр ВМС Річард Данциг зазначив, що якщо Президент “вирішить” віддати наказ про ядерний удар, то це відбудеться не тому, що хтось виглянув з вікна Овального кабінету і побачив, як на Вашингтон падають ворожі ракети, але скоріше тому, що ці ракети були виявлені, відстежені та ідентифіковані — сподіватимемося, коректно — алгоритмами мережі ППО.


Як у випадку з командиром, що викликає артилерійський удар з пораді чат-бота, або стрільцем, що натискає на спусковий гачок при появі блимаючої червоної рамки, “все, що можна констатувати, то це те, що “людина точно приймає учать у цьому процесі””, — написав Данциг.


“Це звичайна ситуація сьогодення", — пише він. “Люди, які приймають рішення — це вершники, які подорожують важкопрохідною місцевістю, та які практично не мають можливості у повній мірі усвідомити могутність тих істот, які направляють і опікають їх”.


І люди, які відповідають за те, щоб ці звірі не проковтнули нас самих, наразі можуть відстежувати тривожну тенденцію: всі дискусії завершуються протверезною нотою мовчазної згоди з невідворотністю смерті та руйнування, які, хоч і трагічні, та все ж не можуть бути пов’язані з однією конкретною людиною. Війна — це безлад, технології дають збій непередбачуваним чином, от і все.


“У бойових діях, — зазначеє Боумен з Palantir, — [при] застосуванні будь-якої технології, не кажучи про штучний інтелект, ви намагаєтесь завдати певного урону, якого саме — ви повинні погодити персонально, і гра полягає в зведенні ризику до мінімуму”.


Можливо, хоча це ще не доведено, що використання штучного інтелекту у бою може означати менше жертв серед цивільного населення, як це часто стверджують прихильники ШІ. Але безповоротне поєднання людських суджень і математичних міркувань у ті найважчі моменти бою, може мати приховану ціну — ціну, яка виходить за рамки простого, утилітарного результату. Можливо щось просто не може бути простим, воно і не повинно бути таким, якщо мова йде про вибір часу і способу смерті людини, настількі ж простим, як замовити поїздку в Uber.


Для машини така логіка може бути неоптимальною. Але саме в цьому полягає прояв людської суті. "Один із аспектів судження, як людської здібності, полягає в тому, що воно формується у реальному житті (..воно є очевидним)", — говорить Люсі Сакман, почесний професор антропології Університету Ланкастеру, яка вже чотири роки пише про труднощі у взаємодії людини та машини.


Усвідомлення значення щойно-випраної білизни, яка вісить на підвіконні, а також бажання, щоб ваші товариші по команді не загинули, — неможливо інтерпретувати раціонально, як вхідні параметри для ухвалення рішення, — каже вона. Хаос, шум і невизначеність, вага усвідомлення того, що саме є правильним, а що неправильним, посеред усієї цієї люті — нічого з цього неможливо прописати у коді алгоритму. В питаннях життя і смерті не існує ідеального результату з точки зору обчислень. "І саме звідси виникає моральна відповідальність", — каже вона. "Вирок виносите Ви".


Сам по собі приціл ніколи не тисне на спусковий гачок. Чат-бот ніколи не натискає кнопку. Але кожного разу, коли машина бере на себе нову роль, яка знижує рівень невизначеності, ми, можливо, наближаємося до того моменту, коли акт вбивства стає скоріше рішенням машини, аніж людським, коли етика стає формулою, а відповідальність стає не більш ніж абстракцією . Якщо ми погоджуємось, що не хочемо дозволити машинам відвести нас у небуття, рано чи пізно нам доведеться запитати себе: де саме проходить межа?





 

Група Фінансування Оборони


Роль Defence Finance Group полягає в наданні повного спектру фінансових консультацій, послуг і систем для оборонного портфеля. DFG є надійним і професійним діловим партнером, який надає фінансову інформацію для прийняття рішень у сфері оборони. DFG працює як одна згуртована одиниця зі структурою, інтегрованою з більшістю функціонуючих мереж оборонної співпраці.



-


bottom of page