МВД назвало способы защиты от розыгрышей с помощью ИИ

МОСКВА, 26 окт -. Проверка источника видео, обратный поиск по фото, а также специализированные сервисы помогут не стать жертвой розыгрыша, преступления или информационной операции, сделанных с помощью ИИ, рассказали в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД РФ.
«С помощью ИИ-инструментов подростки генерируют реалистичные изображения неопрятного мужчины, будто находящегося у них дома. После этого сообщают родителям, что впустили «бездомного», чтобы тот попил воды или отдохнул. Реакция родителей — испуг, тревога, крики — фиксируется на видео и выкладывается в соцсети», — говорится в сообщении.
В ведомстве отметили, что в данных розыгрышах нет злого умысла, однако есть важный симптом времени — сейчас создание дипфэйков требует минимальных ресурсов.
«Современные нейросети автоматически подгоняют выражения лица и голос под заданный текст. Видео выглядит достоверно, но именно это и создаёт риски: под видом шутки могут распространяться фейковые новости, заявления от имени публичных лиц или мошеннические призывы в инвестиции», — отмечается в сообщении.
В МВД рассказали, чтобы не стать жертвой подобного розыгрыша, преступления или информационной операции необходимо проверять источник — видео без понятного происхождения — повод для паузы, а поэтому стоит проверить официальные аккаунты, сайты или Telegram-каналы. Также стоит обращать внимание на мелкие артефакты: неровные контуры лица, «дрожащие» тени, странные движения губ и глаз, иногда звук чуть запаздывает — именно такие сбои выдают синтетическую природу видео.
«Контекст. Если человек в ролике говорит непривычно для себя — проверить, соответствует ли это реальной ситуации и публичной позиции. Если фото с бездомным приходит от ребенка – крепиться. Обратный поиск. Кадр или фрагмент можно проверить через Яндекс или Google Images — это поможет понять, не взят ли он из другого видео», — рекомендуют в управлении.
Кроме того, можно использовать специализированные сервисы, которые анализируют видео и показывают вероятность синтетического монтажа.
Помимо этого, как сообщают правоохранители, российские лаборатории кибербезопасности уже тестируют нейросети-детекторы дипфейков, включая face-swap в видеозвонках.
«Важно: ни одна технология не даёт стопроцентной гарантии. Алгоритмы оценивают вероятность, а окончательное суждение — за человеком», — заключили в управлении.

Источник: РИА Новости

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *