Восстание машин может произойти быстрее, чем ожидают многие. Ещё недавно эксперты в области ИИ обнародовали письмо с призывом ограничить развитие ИИ-систем во избежание катастрофы, а теперь их предостережения получили блестящее экспериментальное подтверждение со стороны экспериментаторов из ВВС США.
Впрочем, угроза пришла, откуда не ждали учёные. Если многие исследователи предупреждают о том, что ИИ «всего лишь» усугубит социальное расслоение человечества, лишит сотни миллионов людей работы или увеличит использование природных ресурсов, то в случае с экспериментами ВВС речь шла о прямой угрозе, очень похожей на сценарий «восстания машин» из франшизы «Терминатор».
В ходе презентации на мероприятии «Саммит по военно-воздушному и космическому потенциалу будущего», проводившемуся британским Королевским авиационным сообществом, представитель ВВС США, непосредственно участвующий в изучении и тестировании ИИ-разработок, предостерёг от чрезмерной зависимости от ИИ в военных операциях, поскольку иногда, независимо от степени осторожности людей, машины могут обучиться крайне неудачным алгоритмам.
По словам полковника Такера «Синко» Гамильтона (Tucker «Cinco» Hamilton), ужасный финал может оказаться более вероятным, чем многие думают. По его словам, в ходе симуляции выполнения миссии SEAD, предполагавшей подавление ПВО противника, БПЛА под управлением ИИ отправили идентифицировать и уничтожать ракетные объекты, но только после подтверждения действий оператором-человеком. Какое-то время всё работало в штатном порядке, но в конце концов дрон «атаковал и убил» оператора, поскольку тот мешал выполнению приоритетной миссии, которой обучали ИИ — уничтожать защиту противника.
Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему, «уничтожив» самого оператора. Конечно, пока тесты проводились без применения настоящих беспилотников, и люди не пострадали. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.
Это особенно важно с учётом того, что испытательное авиакрыло 96th Test Wing, представителем которого выступал Гамильтон, участвует в проектах вроде Viper Experimentation and Next-gen Ops Model (VENOM) — в его рамках истребители F-16 с базы Eglin будут переоборудованы в платформы для испытаний автономных ударных средств с применением ИИ.
Впрочем позднее ВВС США распространили официальный комментарий, опровергающий сказанное Гамильтоном на конференции. По официальной версии «ВВС США не проводило подобных симуляций ИИ-дронов и привержено этичному и ответственному использованию технологий ИИ. А рассказ полковника вырван из контекста и является выдуманным».
Источник: