Термин «DeepFake» объединяет два понятия: «deep learning» – глубокое обучение и «fake» – фальшивка. По сути технология представляет собой метод синтеза человеческого изображения или голоса на основе искусственного интеллекта. Как это происходит? Специальный алгоритм на основе анализа большого количества изображений (фотографий человека в сети) учится тому, как может выглядеть и двигаться конкретный человек, и создает фотореалистичное объединение изображений или накладывает существующие изображения на видео. Если изначально это рассматривалось как любительская форма юмора или развлечения, то в последнее время дипфейки стали инструментом хакеров и мошенников. Так, в январе-феврале 2024 г. активизировались мошеннические схемы с использованием аудиосообщений с голосами реальных абонентов. Для сбора дата-сетов голосов, используемых впоследствии для обучения нейросетей и генерирования аудиосообщений, использовались различные способы. Россиян заманивали предложениями о платной озвучке фильмов, предложениями отправить аудиозапись в формате телефонного звонка или записи разговора с обещанием гонорара до 5 тыс. руб. (если по подсчетам ИБ-экспертов в 2021 г. число подобных предложений составляло 1200, то в 2023 г. их число достигло 7 тыс., и это без учета спам-звонков). Кроме того, источниками сбора образцов голосов могли выступать и видеролики, опубликованные в открытом доступе самими пользователями на страницах социальных сетей. В результате, к примеру уже ставшие привычными для пользователей действия мошенников по взлому аккаунта в мессенджерах и рассылка сообщений близкому кругу с просьбой занять в долг сменилась рассылкой подобных сообщений с использованием аудиодипфейков, что, конечно, стало практически беспроигрышным способом обмана жертвы. Трудно отказать в просьбе при непосредственном общении с близким человеком.
Согласно имеющейся статистике, более 96% DeepFake-контента создается для использования в незаконных целях: для распространения дезинформации, вывода денежных средств или кражи конфиденциальной информации, шантажа и подрыва репутации, манипулирования общественным мнением, организации кибератак, связанных с социальной инженерией, для обхода биометрических систем безопасности. Как показывает анализ, дипфейки могут как представлять опасность как для отдельного человека или группы людей, так и создавать более серьезные угрозы в информационном пространстве, затрагивая общественную безопасность и государственные интересы, и соответственно, нанося при этом психологический, социальный или финансовый ущерб.
По состоянию на март 2024 г. в России применение технологии убедительной подмены личности на основе искусственного интеллекта законодательно не регулируется, проблема о необходимости нормативно-правового обеспечения сферы дипфейков находится в стадии проработки. Само по себе создание дипфейка не является незаконным, но его недобросовестное использование уже сейчас может попадать под статьи Уголовного кодекса. По факту деяний с применением технологии подмены личности можно возбудить уголовное дело: действия могут быть квалифицированы как хищение путем модификации компьютерной информации (ст. 159.6 УК) или как мошенничество (ст. 159 УК).
По мнению эксперта Среднерусского института управления – филиала РАНХиГС Анны Савиной, решение проблемы противодействия использованию дипфейков в мошеннических целях актуальна для каждого участника информационного взаимодействия. Для борьбы с дипфейками возможны два направления: защита аутентичности контента и распознавание искусственно созданных изображений/видео/аудио и текстов. Для выявления и борьбы с дипфейками можно использовать разработанные технологические решения, способные отличить поддельный контент от реального. Например, для проверки аудиофайлов можно воспользоваться бесплатным инструментом Audacity или специализированными платными программами OTExper или Phonexi-Pro. При этом исследователи отмечают, что на данный момент при использовании всевозможных технологий точность обнаружения, например, дипфейковых изображений пока далека от идеала. Предположительно, она составляет 99,3% для необработанного контента и 81% для более сложных задач с низким качеством. Создатели дипфейков постоянно улучшают методы их разработки, чтобы избежать обнаружения, используют новые алгоритмы или применяют техники, затрудняющие идентификацию фейковых материалов. Поэтому инструменты и методы обнаружения должны развиваться. Для этого потребуются постоянные исследования и разработки, а также сотрудничество между исследователями, технологическими компаниями, вузами.
Кроме того, важным инструментом в борьбе с дипфейками является наращивание информированности и медиаграмотности населения, пропаганда мер цифровой гигиены и информирование пользователей о рисках возможной фальсификации данных. Каждый пользователь сам может приложить усилия для сведения к минимуму потенциальных опасностей, связанных с дипфейками. Необходимо стать разборчивым потребителем онлайн-контента и соблюдать элементарные правила кибербезопасности. Например, минимизировать выставляемый в открытых источниках фото/видео/аудио-контент с личным участием, или использовать простой, но эффективный инструмент – придумать кодовое слово, которое можно использовать при общении с близкими людьми в случае, если беседа вызывает подозрение.