Дипфейк — это техника обработки изображений, заключающаяся в совмещении изображений человеческих лиц с помощью искусственного интеллекта, а затем — замене лица на видеозаписи или фотографии.
Глава комитета Госдумы по информационной политике, информационным технологиям и связи Александр Хинштейн («Единая Россия») предложил закрепить в законодательстве понятие «дипфейк». Об этом парламентарий написал в своем Telegram-канале.
Делать дипфейки становится все проще, отметил депутат, напомнив, что недавно был презентован инструмент Roop, с помощью которого можно сделать такое видео в пару кликов.«Напомню, дипфейк — реалистичная подмена фото-, аудио- и видеоматериалов, созданная с помощью нейросетей. Отличить их от реальной картинки становится все сложнее. А используются они зачастую не просто для развлечения», — подчеркивает Александр Хинштейн.
Парламентарий считает, что это не может не настораживать. «Потому что в наше неспокойное время, когда против России открыто ведется информационная война, любые технологии, связанные с генерацией фейков, должны быть максимально изучены — и, конечно, регулироваться законом», — написал Александр Хинштейн.
Сейчас в законодательстве нет понятия «дипфейк», хотя существует обширная законодательная база по ответственности за распространение заведомо ложной информации, также указал он.
«И если врагов мы уже практически знаем в лицо, то пора досконально изучить и их инструменты», — заключил депутат.
Злоумышленники все чаще применяют дипфейки
Ранее о проблеме высказывался заместитель Александра Хинштейна Антон Горелкин («Единая Россия»).
Он, в частности, сообщил о том, что законодательный подход к технологии дипфейков может появиться к концу года. «Дипфейки являются новым вызовом, который требует новых решений», — подчеркнул Антон Горелкин.
По мнению депутата, дипфейк может быть использован как во благо, так и для распространения лживой информации.
«То, что сегодня дорого и трудно, с учетом развития сети, завтра будет дешево, просто и в каждом смартфоне. Это нужно четко понимать. Уже сегодня надо думать, как мы будем формировать законодательную и правовую базу по созданию и распространению дипфейков», — сказал замглавы комитета Госдумы по информполитике.
Он сообщил, что сегодня изучается опыт других стран. Так, например, в Китае обязали маркировать дипфейки, чтобы люди понимали, какое изображение сгенерировано машиной, а какое настоящее.
Кроме того, по мнению Антона Горелкина, необходимо также развивать продукты, которые позволяют выявлять дипфейки. По его словам, сегодня уже есть определенный прогресс в этом отношении, в том числе в российских коммерческих компаниях.
Между тем, сегодня стало известно о том, что комиссия правительства РФ по законопроектной деятельности не поддержала законопроект о введении уголовной ответственности за распространение дипфейков, автором которого выступил зампред комитета Госдумы по охране здоровья Сергей Леонов (ЛДПР). Проект отзыва кабмина на документ оказался в распоряжении ТАСС.
В законопроекте не учтено, что создание с помощью искусственного интеллекта материалов, содержащих сведения о частной жизни лица, без цели их последующего распространения не обладает достаточной степенью общественной опасности, свойственной преступлению, говорится в документе.
В отзыве также отмечается, что незаконное распространение персональных данных человека, в том числе с применением искусственного интеллекта, уже сейчас подпадает под статью 137 УК РФ «Нарушение неприкосновенности частной жизни». Кроме того, материалы к представленному законопроекту не содержат статистических и других данных, которые свидетельствуют о том, что действующее правовое регулирование неэффективно.
«Используемые в законопроекте формулировки "создание сведений о частной жизни лица", "технология обработки контента" не отвечают требованиям определенности, ясности и недвусмысленности, на необходимость соблюдения которых неоднократно указывал Конституционный суд РФ», — подчеркнули в правительстве.
Законопроект пока не внесен в Госдуму. Инициативы об изменении УК РФ должны поступать на рассмотрении палаты с отзывами правительства и Верховного суда.
Дипфейк-видео неоднократно использовались в политических целях, а также как способ мести. Однако сейчас к этим технологиям все чаще стали прибегать для шантажа и проворачивания крупных афер, отмечают эксперты «Лаборатории Касперского». Так, авторы дипфейков могут шантажировать руководителей крупных компаний, угрожая опубликовать фейковое видео, способное подорвать их репутацию, если те не заплатят отступные. Также мошенники могут, например, проникнуть в сеть компании, сымитировав звонок от IT-директора и обманом заставив сотрудников предоставить пароли и привилегии доступа, после чего конфиденциальные данные окажутся в полном распоряжении хакеров.
Дипфейки эволюционируют угрожающими темпами, предупреждают эксперты по кибербезопасности. Еще два года назад подделки легко было отличить по низкому качеству передачи движения, кроме того, люди в таких видео практически никогда не моргали. Однако технологии не стоят на месте, и дипфейки последнего поколения выполнены заметно более качественно.
Некоторые развивающиеся технологии уже помогают создателям видеоконтента защищать его аутентичность, отмечают в «Лаборатории Касперского».
Проблему дипфейков уже пытаются решать на законодательном уровне. Так, в штате Калифорния США были приняты законы, ограничивающие использование дипфейков: законопроект AB-602 запретил использование технологий синтеза изображений человека для изготовления порнографического контента без согласия изображаемых, а AB-730 — подделку изображений кандидатов на государственные посты в течение 60 дней перед выборами.
В ноябре прошлого года дипфейк-технологию для пользовательского контента представила соцсеть «ВКонтакте». В основе работы технологии — нейронные сети, которые позволяют трансформировать лицо пользователя в облик знаменитости, обеспечивая узнаваемые черты звезды и сохраняя фотореалистичность результата. Решение обрабатывает видео практически в режиме реального времени и обладает высокой производительностью.
Своими образами поделились Ольга Бузова, Клава Кока, Егор Крид, NILETTO и другие. В соцсети отмечали, что новая опция способствует привлечению внимания к видео и повышает вовлеченность аудитории.
Сгенерированные ролики помечаются специальным вотермарком при экспорте на внешние площадки, чтобы зрители смогли без проблем отличить дипфейк-видео от роликов с реальными звездами, сообщили в пресс-службе «ВКонтакте». Кроме того, все обрабатываемые видео проходят автоматическую проверку на соответствие правилам публикации контента в соцсети, а пользователи получают дополнительные уведомления о том, что созданные при помощи технологии «Дипфейк» видео носят исключительно развлекательный характер.
Фото: Freepik
Марина Новикова
https://telecomdaily.ru
Комментариев нет:
Отправить комментарий