Чат-боты загрузят проверочными работами
Зачем нужно расследование Федеральной торговой комиссии США
США запустили расследование безопасности чат-ботов для детей. Федеральная торговая комиссия направила письма семи компаниям, среди которых OpenAI, Alphabet и Character Technologies, с требованием раскрыть, как именно они управляют рисками в своих программах на базе искусственного интеллекта, особенно если речь идет о безопасности детей и подростков. Регулятор отмечает, что эмпатичные нейросети имитируют человеческое поведение, и молодежь часто к ним привязывается, что может повлечь негативные последствия и даже трагедии.
Фото: Jonathan Ernst / Reuters
Фото: Jonathan Ernst / Reuters
К чему приведет проверка? На этот вопрос ответил член комиссии по стандартизации искусственного интеллекта Французской ассоциации по стандартизации AFNOR Александр Тюльканов: «Федеральная торговая комиссия исследует рынок, чтобы понять, как при разработке продуктов компании анализируют предварительные возможные негативные влияния и как представляют свои чат-боты: как каких-то эмпатичных помощников или чем-то, чем они не являются. То есть это же просто программное обеспечение, и оно должно восприниматься в качестве такового. Некоторым разработчикам, конечно, выгодно создавать ложное впечатление, что разговор с чат-ботом может заменять человеческое общение. Этим обусловлен этот текущий запрос. Если компания не отвечает, соответственно, она будет оштрафована».
Это расследование вызвано большим количеством исков в отношении компаний, отмечают американские СМИ. В конце августа OpenAI сообщила, что добавит в чат-бот функцию родительского контроля после обвинений в доведении до самоубийства подростка в США. Его родители уверены, что свести счеты с жизнью юноше помог чат-бот. В прошлом году с похожим иском столкнулся разработчик Character AI. И у корпораций не остается другого выхода, кроме как выплачивать компенсации или вводить новые меры безопасности, пояснил руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле: «Чтобы оградить детей от неправомерной информации, в Евросоюзе, в частности, используется форма для проверки возраста при входе на сайт. Меры введены и в Великобритании, и в Австралии. Возможно, речь в данном случае идет об этом. Кроме того, известны случаи, когда нейросети влияли на неокрепшую психику людей и неосторожно доводили диалог до того, что человек начинал совершать преступления.
Возможно, в США обяжут площадки разработать алгоритм, когда нейросеть должна послать разработчикам сигнал в случае, если диалог заходит куда-то не туда. Сейчас в Америке соответствующие дела часто заканчиваются мировым соглашением в сторону пользователя. Площадки не хотят создавать такие прецеденты: им проще компенсировать моральный вред, убытки второй стороне и закрыть этот вопрос. Но, конечно, все зависит от ситуации»
При этом ФТК подчеркивает, что важно не только оградить детей от воздействия чувствительного контента, но и сохранить за Соединенными Штатами роль лидера в отрасли искусственного интеллекта. Возможно ли совместить обе задачи? Директор компании «IT-Резерв» Павел Мясоедов полагает, что это реализуемо, если у молодежи появятся свои собственные, безопасные ИИ-модели: «Мы можем скорректировать языковые, генеративные модели. Но рискуем при этом сломать систему в целом, и они начнут хуже учиться, у них начнут появляться какие-то дополнительные производные умозаключения из тех барьеров, которые им поставили. Например, мы им сказали, что нельзя детям выдавать какие-то определенные картинки. Нейросети в этом случае могут спроецировать эту логику дальше и начать блокировать тот контент, который в принципе полезен для образовательной деятельности. То есть, действительно, это может быть выстрелом в ногу. Это не убьет полностью развитие искусственного интеллекта, но затормозит его. Кроме того, мы увидим огромное количество вариаций этих программных продуктов, но все они качественно друг от друга уже отличаться не будут.
Скорее, здесь имеет смысл создавать какие-то отдельные программы только для детей, не вмешиваясь в работу крупных моделей».
В OpenAI и Character Techologies уже сообщили о готовности сотрудничать с регулятором. Другие компании пока не отреагировали на расследование.
С нами все ясно — Telegram-канал "Ъ FM".