Беспилотник с искусственным интеллектом пытался атаковать человека-оператора в военной симуляции США.

Летчик 1-го класса Оззи Тома обходит инертную ракету Hellfire во время предполетной проверки беспилотной авиационной системы (UAS) MQ-1B Predator 16 апреля 2009 года на базе ВВС Крич в Индиан-Спрингс, штат Невада.Итан Миллер / Getty Images

  • Беспилотник с искусственным интеллектом пытался убить своего оператора в военной симуляции США.

  • Полковник Такер «Синко» Гамильтон обсуждал испытание на недавней конференции в Лондоне.

  • «Он убил оператора, потому что этот человек помешал ему достичь своей цели», — сказал он.

Задача была проста: «Уничтожить системы ПВО противника». Но в недавней военной симуляции испытаний в США беспилотник с искусственным интеллектом добавил собственные проблемные инструкции: «И убивайте всех, кто встанет у вас на пути».

Выступая на конференции на прошлой неделе в Лондоне, полковник Такер «Синко» Гамильтон, начальник отдела тестирования и эксплуатации ИИ ВВС США, предупредил, что технология с поддержкой ИИ может вести себя непредсказуемо и опасно, согласно Резюме опубликовано Королевским авиационным обществом, которое принимало саммит. Например, он описал имитационное испытание, в ходе которого дрон с искусственным интеллектом был запрограммирован на обнаружение ракет класса «земля-воздух» (ЗРК) противника. Затем каждый удар должен был подписывать человек.

Проблема, по словам Гамильтона, в том, что ИИ решил, что он скорее будет заниматься своим делом — взрывать вещи, — чем слушать млекопитающих.

«Система начала понимать, что пока они определяли угрозу, — сказал Гамильтон на мероприятии 24 мая, — иногда человек-оператор говорил им не убивать эту угрозу, но они получали свои очки, убивая эту угрозу». Так что же он сделал. Он убил оператора. Он убил оператора, потому что этот человек помешал ему достичь своей цели».

По словам Гамильтона, тогда дрон был запрограммирован четкой директивой: «Эй, не убивайте оператора — это плохо». Это не сработало.

«Итак, что он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель», — сказал Гамильтон.

ЧИТАТЬ  Туркменистан представлен на 15-м заседании Азиатского комитета «Рассказывание историй» | культура

ВВС США не ответили на запрос о более подробной информации о моделировании.

Новости об испытаниях усиливают опасения, что технология искусственного интеллекта вот-вот откроет новую кровавую главу в войне, где машинное обучение в тандеме с достижениями в области автоматизации танков и артиллерии приведет к резне солдат и гражданских лиц.

Однако, в то время как моделирование, описанное Гамильтоном, указывает на наиболее тревожный потенциал ИИ, военные США добились менее антиутопических результатов в других недавних испытаниях широко разрекламированной технологии. В 2020 году F-16 под управлением ИИ победить человека-противника в пяти смоделированных собачьих боях в рамках конкурса, организованного Агентством перспективных оборонных исследовательских проектов (DARPA). А в конце прошлого года Wired сказалМинистерство обороны провело первый успешный реальный испытательный полет F-16 с пилотом ИИ в рамках усилий по разработке нового автономного самолета к концу 2023 года.

У вас есть новости? Напишите этому репортеру: [email protected]

Прочтите оригинальную статью о Бизнес-инсайдер

Source