Где проходит граница
Алексей Мунтян рассказал про риски чрезмерного регулирования дипфейков
Технология дипфейков становится все более распространенной и используется во многих сферах — от рекламы и кино до обучения и интерфейсов сервисов. Однако технология может использоваться как во благо, так и в преступных целях.
Фото: Александр Миридонов, Коммерсантъ
Фото: Александр Миридонов, Коммерсантъ
Чтобы противодействовать злонамеренному использованию дипфейков, в России разрабатывают меры по регулированию технологии: Госдума готовит поправки к закону «Об информации», а Минцифры предлагает введение уголовной ответственности за применение ИИ в криминальных сценариях.
Эксперт по защите персональных данных, соучредитель Сообщества профессионалов инфоприватности RPPA.pro, генеральный директор компании Privacy Advocates Алексей Мунтян рассказал «Ъ-Науке» о том, какие проблемы могут возникнуть с регулированием дипфейков и как регулировать технологию так, чтобы не препятствовать ее полезному применению.
Дипфейк — это метод синтеза контента, основанный на использовании алгоритмов искусственного интеллекта. В отличие от других ИИ-решений, которые работают с анализом данных и автоматизацией задач, технология может быть использована для генерации образов, имитирующих внешность или речь человека. Эта особенность делает зону применения дипфейков чувствительной с точки зрения безопасности: в ряде случаев они могут использоваться в недобросовестных целях — например, для создания контента с поддельной идентичностью в мошеннических или клеветнических целях.
Генеральный директор компании Privacy Advocates Алексей Мунтян
Генеральный директор компании Privacy Advocates Алексей Мунтян
В российском законодательстве нет точного правового определения термина «дипфейк». Обычно технологию описывают как подмену изображения или голоса с помощью ИИ. Однако использование такой формулировки в законах может создать риск чрезмерно широкого трактования и будет запрещать использование самой технологии, а не преступные сценарии с ее участием. Это может привести к ситуации, когда под регулирование попадут и вполне законные способы использования дипфейков: художественное омоложение актеров в кино, воссоздание исторических личностей в интерактивных выставках или лекциях, а также даже применение технологии в видеосвязи — например, когда Zoom «дорисовывает» лицо пользователя при низком качестве соединения. В результате под угрозой окажутся образовательные инициативы, креативные индустрии и сами технологические разработки, включая и те, что сегодня помогают выявлять и предотвращать цифровое мошенничество, а пользователи будут избегать добросовестных сценариев применения дипфейков из-за риска юридических последствий. Поэтому при внесении изменений в законодательстве необходимо определить понятие дипфейка не через саму технологию и зафиксировать именно противоправные сценарии ее использования.
Дипфейк — такая же технология, как телефонная связь или интернет, поэтому бороться с дипфейками — значит в первую очередь бороться не с ними, а с их недобросовестным использованием. Это требует ужесточения ответственности за мошенничество, но с учетом понятных правовых определений, позволяющих отличать правонарушение от допустимого применения. Как показывает зарубежная судебная практика, в случаях, когда дипфейк становится предметом разбирательства, суд может рассматривать дело через призму существующего законодательства.
Ключевую роль сыграет и просвещение пользователей. Люди должны понимать, как устроены дипфейки, как их распознать и что делать при подозрении на обман. Важно обращать внимание на аномалии в мимике или голосе, проверять источник информации, а при сомнениях — связываться с отправителем контента альтернативным способом. Даже непреднамеренное распространение дипфейка может нанести ущерб, поэтому критическое мышление и цифровая гигиена должны стать частью личной ответственности каждого пользователя.