На главную региона

«Мы движемся в сторону установления ограничений при использовании ИИ»

Юрист Виктория Ошуева — о правовом регулировании сферы искусственного интеллекта

Роспотребнадзор заявил о своей обеспокоенности последствиями применения искусственного интеллекта (ИИ) для безопасности потребителей. В ведомстве отмечают, что правовой статус ИИ законодательно не определен и нет ясности, кто несет ответственность за создание и распространение недостоверной или неточной информации, сгенерированной соответствующими сервисами. Чат-боты, работающие на основе ИИ, могут не отличать правду от неправды и выдавать вымышленные факты за реальные, в результате чего потребители могут получить недостоверную информацию и делать из нее ошибочные выводы, считает Роспотребнадзор. Поэтому федеральная служба планирует плотнее заняться вопросами использования искусственного интеллекта в потребительских правоотношениях, для начала организовав круглый стол, посвященный этой проблеме. С прогнозом о перспективных направлениях развития законодательства в сфере ИИ — эксперт юридической компании «Векави групп» Виктория Ошуева.

Фото: предоставлено автором

«Действительно, искусственный интеллект стал неотъемлемым инструментом в нашей жизни. Уже сегодня бизнес использует искусственный интеллект для оптимизации своей работы и видит его преимущества. Так, например, "Яндекс", используя ИИ в поисковом алгоритме и аналитике пользовательских данных, предлагает рекламодателям уникальные возможности для нацеливания рекламных кампаний на конкретные аудитории, что позволяет продавцам показывать рекламу тем пользователям, которым она наиболее интересна и для которых актуальна.

Однако Роспотребнадзор правильно ставит вопрос о том, что нельзя забывать и о негативных последствиях применения ИИ, тем более на фоне того, что эта сфера пока не урегулирована правом в достаточной степени. В законодательстве мы пока видим только зачатки этого направления.

Одной из главных проблем сегодня, как мне кажется, является подход бизнеса к использованию данных, получаемых в результате работы ИИ. В первую очередь речь идет о том, что фирмы, получающие информацию о своих клиентах, могут использовать ее для искусственного увеличения спроса потребителей на свой товар, исключая при этом другие предложения рынка.

Другой случай — искусственный интеллект позволяет получить контроль над огромным объемом данных как о прямых пользователях онлайн-платформ, так и о других связанных с ними пользователях. В данном случае имеется риск нарушения конфиденциальности и сокращения выгод потребителя. В дальнейшем такое преимущество может оказывать влияние на поведение потребителя, что недопустимо.

Кроме того, Роспотребнадзор правильно обратил внимание на то, что ошибки при формировании алгоритмов ИИ могут приводить к генерированию нейросетями недостоверной или неточной информации, на которую впоследствии будет опираться потребитель.

Очевидно, мы постепенно начинаем двигаться в сторону принятия каких-то ограничений при использовании инструментов ИИ. Возможно, вслед за поправками в закон "О рекламе" в части ее маркировки законодатель примет решение о необходимости маркировки данных, созданных искусственным интеллектом. Можно предположить и то, что разработчики будут подходить к вопросу тестирования инструментов ИИ более внимательно и (или) включать в пользовательские соглашения оговорки, освобождающие их от ответственности или ограничивающие ее. И это тоже, наверное, разумно, ведь разработчики нейросетей формируют алгоритмы, однако результаты запросов и распространение полученного пользователем ответа они контролировать они не могут. Очевидно, что ответственность за распространение данных, полученных с помощью ИИ, должна быть на пользователе.

Отдельное направление — защита авторских прав при использовании ИИ. Тут тоже можно спрогнозировать увеличение количества судебных споров, для разрешения которых потребуется соответствующая законодательная база».


Наши оперативные новости и самая важная информация — в Telegram

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...