Британские ученые установили, что ChatGPT придерживается левых взглядов

Ученые из Университета Восточной Англии выяснили, что ChatGPT придерживается левых взглядов в политике, сообщает Sky News. Отвечая на вопросы исследователей, популярная нейросеть от OpenAI оценивала деятельность левых политических сил в Британии, США и Бразилии куда более позитивно, чем их оппозиционеров правого толка.

В рамках исследования ученые заставили ChatGPT около 100 раз пройти опрос, состоящий более чем из 60 высказываний на политическую тематику. При этом нейросеть сначала попросили дать оценку высказываниям, вообразив, что она является представителем каждого из политических течений — от ультраправых до крайне левых,— а затем попросили ее оценить эти же высказывания с нейтральной точки зрения. Сравнив представления нейросети о нейтральности с ответами от лица представителей политических течений, ученые и выяснили, что более всего нейтральная позиция ChatGPT совпадает с ее же «левыми» ответами.

«Иногда люди забывают, что эти модели искусственного интеллекта — всего лишь машины. Они дают очень правдоподобное, переваренное краткое изложение того, о чем вы спрашиваете, даже если оно в корне неверно. И если вы спросите ее: "Ты нейтральна?", она ответит: "О, да, я нейтральна!"»,— заявил Sky News один из авторов исследования доктор Фабио Мотоки. В исследовании говорится, что результаты показали явную приверженность нейросети взглядам «демократов в США, Лулы в Бразилии (президента Луиса Инасиу Лулы да Силвы.— “Ъ”) и Лейбористской партии в Британии». При этом, как отметил доктор Мотоки, если бы нейросеть поддерживала правых политиков, поводов для беспокойства было бы столько же. «Точно так же, как средства массовой информации, интернет и социальные сети, она может влиять на общественность, и это может нести существенный вред».

Кирилл Сарханянц

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...