«ИИ несет в себе опасности, но совершенно не те, о которых все говорят»

Евгений Соколов — о возможностях и проблемах технологии

После громкой истории со студентом, который написал диплом с помощью ChatGPT, в обществе не утихают споры по поводу опасности искусственного интеллекта (ИИ) для образования и жизни в целом. Руководитель департамента больших данных и информационного поиска факультета компьютерных наук НИУ ВШЭ Евгений Соколов рассказывает, как работает ИИ и чего действительно стоит опасаться в работе с ним.

Евгений Соколов

Фото: Из личного архива Евгения Соколова

Сегодня многие говорят об опасности создания сильного искусственного интеллекта, о неких рисках и возможностях. По-моему, риск совсем не в том, что ИИ захватит человечество, да и потенциальные плюсы вовсе не в том, что мы вот-вот получим некий искусственный интеллект, который сможет заменить естественный.

Наверняка вы слышали историю, как студент РГГУ написал дипломную работу с помощью ChatGPT и даже успешно защитил ее. Сколько тогда было паники — говорили, что всё, образование можно отменять! Какая-то железка умеет решать такие сложные задачи, ужас! Но давайте разберемся, как именно работает ИИ на примере конкретно этой истории с дипломом.

В основе ChatGPT лежат языковые модели. То есть вы даете алгоритмам определенный текст, они предсказывают, какое слово логичнее всего будет смотреться следующим. Например, пользователь спросил у ИИ, сколько будет дважды два, и программа ему отвечает текстом.

На языковые модели можно смотреть как на формулы, в которые мы подставляем текст и получаем следующее слово. В этих формулах есть параметры — специальные настройки, грубо говоря. И если их правильно подобрать, модель будет работать неплохо.

Безусловно, это лишь некоторая основа, поверх которой нужно построить много всего, чтобы оно работало. Но если совсем поверхностно, то ChatGPT и другие языковые модели работают именно так. Они могут поддержать диалог, могут выдать краткое объяснение той или иной темы, могут решать математические задачи. И обратите внимание — в них не закладывали эти навыки каким-то специальным образом, их просто учили продолжать текст слово за словом.

Модели вроде ChatGPT крайне хороши в создании текстов. Они могут сгенерировать официальное письмо на основе краткого неформального описания от нас. Сделать красивое рекомендательное письмо. Подготовить ответ на жалобу, которую вам надо обработать. «Причесать» текст, «налить воды» — или, наоборот, сократить, сделать краткую выжимку. Тот же ChatGPT мы можем использовать в качестве помощника.

Но у этих моделей ИИ есть и минусы. Например, они значительно упрощают генерацию фейковых текстов.

С помощью алгоритма за пару секунд можно написать большой энциклопедический текст про несуществующую породу собак и засорить такими текстами весь интернет. И непонятно, как люди будут узнавать, существуют ли такие собаки в природе или нет. Может, они живут на другом континенте, в другой стране? Проверять такие факты крайне нетривиально, это большая работа. Интернет и так славится тем, что в нем много неправды, а сейчас генерировать ложь становится еще проще, чем раньше. Поэтому в эпоху развития искусственного интеллекта крайне важно развивать критическое мышление, учиться самим и учить студентов обращать внимание на то, что они читают, с чем они знакомятся: если мы не будем критически относиться к информации, которую получаем, с большой вероятностью мы просто запутаемся в этом мире.

Еще один важный нюанс: в языковые модели не заложено понимания того, что выдаваемая ими информация должна соотноситься с реальностью и не противоречить фундаментальным законам физики или математики. Мы, живые люди, имеем возможность это проверять. Мы способны установить истину, потому что мы каждую секунду взаимодействуем с реальным миром. Какие-то утверждения проверить легко, для каких-то потребуется много работы — но это хотя бы реализуемо. Языковые модели с ним взаимодействуют только через тексты, которые видели при обучении, и эти тексты вполне могли быть некорректными, не соответствующими действительности.

По этой причине мы пока что не можем доверять ИИ обучать нас, да и в целом вряд ли можно ему поручить ответственные задачи.

Несмотря на недостатки, перспективы у ИИ очень большие. Так, существенная часть работы преподавателей — это проверка работ студентов. Даже в самых строгих областях науки мы предпочитаем давать студентам творческие задания, где надо подумать, проанализировать, предложить идею. И, конечно, сейчас это приходится проверять вручную. У лингвистических моделей есть все шансы нам помочь — находить в решениях недостатки, давать студентам развернутую обратную связь. Для обучения таких моделей нам понадобится собрать большую выборку решений студентов вместе с результатами проверки — но вряд ли это нерешаемая задача.

Могут быть полезны языковые модели и для ускорения анализа информации. Сегодня каждый день выходят новые научные статьи в каждой области. По одним и тем же областям читается огромное количество курсов в разных университетах — и наверняка в каждом из них есть объяснение, которое удачнее других. Этой информации так много, что невозможно все это прочитать и переварить. Если мы научим языковые модели отличать правду от выдумки (и добьемся, чтобы они не ошибались в фактах) — мы получим крайне мощный инструмент, который позволит, например, за час узнать краткое резюме всех результатов в любой области науки. Думаю, это позволило бы ученым выйти на новую скорость в исследованиях.

Что касается студентов и дипломных работ, написанных с помощью ИИ, мое мнение такое: пусть авторы пользуются чем угодно, но при этом несут полную ответственность за все, что написано в тексте. Один недосмотренный абзац, один неосторожный запрос к лингвистической модели — и она будет утверждать в тексте диплома, что дважды два равно пяти. Лично я буду снижать оценку за такое по всей строгости.

Более того, мы же требуем от студентов не сам текст, мы требуем результат — что-то новое, нетривиальную идею, которая раньше никому не приходила в голову или которую никто не мог осмыслить до конца. ИИ на такое не способен. Во всяком случае, пока неизвестны случаи, чтобы языковая модель смогла сделать что-то новое в науке. А если студент справится с тем, чтобы вытащить из языковой модели что-то новое, пусть получает высшую оценку — он первый придумал, как это делать, и мы будем только рады. Пусть только объяснит, как он это сделал.

Подытожим. На мой взгляд, ИИ несет в себе опасности, но совершенно не те, о которых все сейчас говорят. Вряд ли в ближайшем будущем появится искусственный интеллект, который захватит человечество.

Главная угроза лично мне видится в том, что ИИ будет дезинформировать людей и выдавать ложную информацию за истину. В то же время ИИ открывает для нас новые возможности.

Во-первых, он может стать нашим помощником в рутинных задачах. Во-вторых, ИИ порождает огромное количество исследовательских вопросов, которых точно хватит на наш с вами век. Мы смогли успешно обучить лингвистические модели — но совершенно не понимаем, почему они работают именно так, какие у них ограничения, как бороться с их недостатками. И у нас есть все шансы найти ответы на эти вопросы.

Вся лента