Доверяй нейросети, но проверяй

Кто должен отвечать за сгенерированную ChatGPT недостоверную информацию

ChatGPT обвинили в клевете. Как пишет The Washington Post, бот выдумал правдоподобную историю о сексуальных домогательствах со стороны профессора права из США. Он якобы приставал к ученикам во время поездки на Аляску, которой в реальности не было. В качестве источника сервис сослался на несуществующую статью в авторитетном СМИ. А мэра одного из австралийских городов ChatGPT назвал взяточником, указав, что политик отбыл срок за это преступление. Тот пригрозил разработчикам бота иском, и это может быть первое подобное дело в истории.

Фото: Игорь Иванко, Коммерсантъ

Фото: Игорь Иванко, Коммерсантъ

Реально ли защититься от клеветы со стороны нейросетей? Эксперт в области искусственного интеллекта Роман Душкин считает, что это в первую очередь зависит от разработчиков таких систем: «Одной из ближайших интеграций будет интеграция с системами фактчекинга. Судя по тому, что они открыли возможность писать плагины, это сделают в ближайшее время, может быть, уже сделали. Пользователь туда что-то пишет — языковая модель разбирает смысл написанного, генерирует, например, ответ, а потом при помощи данного плагина этот ответ проверяет.

Если проверка пройдена, она возвращает его пользователю. Если нет, то снова генерирует какой-то ответ и проверяет его. Можно сделать цикл, например, не более пяти раз, чтобы не произошло каких-то сбоев. Что касается фактчекинга, мне известно о системе, которая работает по новостям. В нее загружаются заметки, которые прошли через людей. Вот по ним можно проверять».

Опасения у экспертов также вызывают нейросети, которые генерируют изображения. После того, как в сети распространилась фейковая фотография папы Римского в пуховике, сервис Midjourney отменил бесплатный доступ к системе. Тем не менее законодательное регулирование нейросетей может быть излишним, считает ассоциированный исследователь Центра международных исследований интеллектуальной собственности в Страсбурге Александр Тюльканов.

По его словам, ответственность должен нести пользователь системы: «Технические ограничения системы таковы, что информация может быть неточной. Такой алгоритм, такая конструктивная их особенность. И ничего с этим принципиально поделать нельзя — они всегда будут сообщать недостоверную информацию. Человек, который использует эту систему, в первую очередь несет ответственность за применение этих результатов.

Если мы, допустим, юристы, то должны перепроверить выданные сведения по каким-то справочным правовым системам. Если мы журналисты, то тоже нужно провести фактчекинг и запросить мнение другой стороны и так далее. Это обычные стандарты работы с любыми инструментами — будь то ChatGPT или Google. Наличие такого инструмента, как ChatGPT или чего-то подобного, не освобождает нас от обязанностей, которые возложены законом, если мы используем этот инструмент в профессиональной деятельности.

Я не вижу необходимости каким-то образом ограничивать людей в поиске и выборе оптимального способа для решения их задач. Регулирование, которое есть в части ответственности за распространение недостоверной информации, достаточно для того, чтобы мотивировать людей перепроверять сведения, которые в том числе могут быть сгенерированы этими инструментами».

На днях стало известно, что доступ к ChatGPT ограничили власти Италии. Правда, связано это не с потенциальной публикацией фейков. Поводом стали проблемы с обработкой персональных данных. Недавно в компании-разработчике произошла утечка. И теперь итальянские власти требуют устранить нарушения.


Новости в вашем ритме — Telegram-канал "Ъ FM".

Илья Сизов

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...