Керований штучним інтелектом дрон нібито атакував свого оператора під час симуляції, «тому що він заважав йому досягти мети», за словами експерта ВВС США, цитованого Британським королівським авіаційним товариством. Тим часом речниця ВПС заперечує факт проведення такого випробування.
Британське Королівське аеронавігаційне товариство представило найважливіші висновки RAeS Future Combat Air & Space Capabilities Summit, організованого наприкінці травня. Однією з тем було використання в них штучного інтелекту. Особливий інтерес ЗМІ викликала презентація полковника Такера “Сінко” Гамільтона з ВПС США. Раніше він прославився своїми досягненнями в автоматичних системах порятунку військових льотчиків. Зараз він проводить випробування автономних польотів, у тому числі з використанням штучного інтелекту в бою. Як пише Королівське авіаційне товариство на своєму веб-сайті, у звіті із зустрічі, цитованому багатьма порталами, Гамільтон застеріг від надто покладатися на штучний інтелект, оскільки він може створювати «дуже несподівані» стратегії для досягнення своєї мети. Він також повинен був навести дуже показовий приклад зі своїх тестів.
ДИВІТЬСЯ ТАКОЖ: Штучний інтелект «можна розглядати як щось подібне до ядерної зброї»
Під час симуляції дрон мав атакувати чоловіка, який керував ним
Полковник Гамільтон, згідно з веб-сайтом Товариства, розповів, як в одному з проведених тестових симуляцій безпілотнику, керованому штучним інтелектом, було доручено знищити протиповітряну оборону противника шляхом ідентифікації та знищення пускових установок наземних ракет. Остаточне рішення про знищення мала прийняти людина. Однак, коли під час симуляції варіант знищення пускової установки був встановлений як кращий варіант, і оператор нарешті не дозволив це знищення, штучний інтелект вирішив, що це «заважає його вищій місії», і атакував себе.
«Система почала розуміти, що навіть якщо вона виявляла загрозу, інколи людина-оператор говорила їй не усувати цю загрозу. Однак (система) набирала бали, усуваючи цю загрозу. Тож що вона тоді робила “Він убив оператора. Він убив оператора, тому що ця людина завадила йому досягти мети”, – сказав Гамільтон, якого цитує сайт Товариства. І він продовжив: «Ми навчили систему: «Гей, не вбивайте оператора, це неправильно, ви втратите за це бали». Тож що він почав робити? Він почав руйнувати вежу, яку оператор використовує для зв’язку. з дроном, щоб запобігти збиттю цілі».
На щастя, це була симуляція. Однак, як резюмував полковник, цей приклад, нібито взятий із науково-фантастичного трилера, показує, що не можна говорити про штучний інтелект, машинне навчання чи автономні пристрої, не говорячи про етику.
Тим часом у заяві для порталу Insider речниця ВПС США Енн Штефанек заперечила, що така симуляція мала місце. «Департамент військово-повітряних сил не проводив таких симуляцій ШІ-дронів і залишається відданим етичному та відповідальному використанню технології ШІ», — сказала вона. На її думку, схоже, що “коментарі полковника були вирвані з контексту та мали бути анекдотичними”. В обліковому записі на веб-сайті Королівського аеронавігаційного товариства не вказано, коли мала відбутися симуляція або які моделі дронів брали участь у це.
ДИВІТЬСЯ ТАКОЖ: Штучний інтелект під контролем. ЄС і США працюють над кодексом
Royal Aeronautical Society, Guardian, Insider
Основне джерело фото: ВПС США