МОСКВА, 29 дек –. Развитие искусственного интеллекта может стать угрозой для ядерной безопасности: созданные ИИ дипфейки могут спровоцировать лидеров ядерных держав на удар, также есть риск ошибки, если ИИ наделят правом принимать решение об использовании ядерного оружия, сообщает журнал Foreign Affairs.
В декабре главный экономист Азиатско-Тихоокеанского регионального бюро Программы развития ООН (UNDP) Филип Шеллекенс заявил, что применение искусственного интеллекта в военных целях может стать экзистенциальной угрозой и привести к массовым жертвам, отметив, что необходимо крайне ответственно подходить к его регулированию.
«Быстрое распространение искусственного интеллекта усугубило угрозы для ядерной стабильности», — говорится в статье.
Отмечается, что один из рисков связан с возможной передачей машинам полномочий принимать решения об использовании ядерного оружия.
Как сообщает издание, ИИ позволяет проще создавать дипфейки — убедительно подделанные видео, изображения или аудиозаписи, с помощью которых распространяется ложная информация о людях или событиях, что также представляет скрытую угрозу для ядерной безопасности.
Как предполагает издание, дипфейки могут использоваться, например, чтобы спровоцировать лидера ядерной державы нанести удар первым. А также дипфейки могут применяться в создании повода для войны, поднимать общественную поддержку конфликта или сеять смуту.

Источник: РИА Новости

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *