«ИИ несет в себе опасности, но совершенно не те, о которых все говорят»

Евгений Соколов — о возможностях и проблемах технологии

После громкой истории со студентом, который написал диплом с помощью ChatGPT, в обществе не утихают споры по поводу опасности искусственного интеллекта (ИИ) для образования и жизни в целом. Руководитель департамента больших данных и информационного поиска факультета компьютерных наук НИУ ВШЭ Евгений Соколов рассказывает, как работает ИИ и чего действительно стоит опасаться в работе с ним.

Евгений Соколов

Евгений Соколов

Фото: Из личного архива Евгения Соколова

Евгений Соколов

Фото: Из личного архива Евгения Соколова

Сегодня многие говорят об опасности создания сильного искусственного интеллекта, о неких рисках и возможностях. По-моему, риск совсем не в том, что ИИ захватит человечество, да и потенциальные плюсы вовсе не в том, что мы вот-вот получим некий искусственный интеллект, который сможет заменить естественный.

Наверняка вы слышали историю, как студент РГГУ написал дипломную работу с помощью ChatGPT и даже успешно защитил ее. Сколько тогда было паники — говорили, что всё, образование можно отменять! Какая-то железка умеет решать такие сложные задачи, ужас! Но давайте разберемся, как именно работает ИИ на примере конкретно этой истории с дипломом.

В основе ChatGPT лежат языковые модели. То есть вы даете алгоритмам определенный текст, они предсказывают, какое слово логичнее всего будет смотреться следующим. Например, пользователь спросил у ИИ, сколько будет дважды два, и программа ему отвечает текстом.

На языковые модели можно смотреть как на формулы, в которые мы подставляем текст и получаем следующее слово. В этих формулах есть параметры — специальные настройки, грубо говоря. И если их правильно подобрать, модель будет работать неплохо.

Безусловно, это лишь некоторая основа, поверх которой нужно построить много всего, чтобы оно работало. Но если совсем поверхностно, то ChatGPT и другие языковые модели работают именно так. Они могут поддержать диалог, могут выдать краткое объяснение той или иной темы, могут решать математические задачи. И обратите внимание — в них не закладывали эти навыки каким-то специальным образом, их просто учили продолжать текст слово за словом.

Модели вроде ChatGPT крайне хороши в создании текстов. Они могут сгенерировать официальное письмо на основе краткого неформального описания от нас. Сделать красивое рекомендательное письмо. Подготовить ответ на жалобу, которую вам надо обработать. «Причесать» текст, «налить воды» — или, наоборот, сократить, сделать краткую выжимку. Тот же ChatGPT мы можем использовать в качестве помощника.

Но у этих моделей ИИ есть и минусы. Например, они значительно упрощают генерацию фейковых текстов.

С помощью алгоритма за пару секунд можно написать большой энциклопедический текст про несуществующую породу собак и засорить такими текстами весь интернет. И непонятно, как люди будут узнавать, существуют ли такие собаки в природе или нет. Может, они живут на другом континенте, в другой стране? Проверять такие факты крайне нетривиально, это большая работа. Интернет и так славится тем, что в нем много неправды, а сейчас генерировать ложь становится еще проще, чем раньше. Поэтому в эпоху развития искусственного интеллекта крайне важно развивать критическое мышление, учиться самим и учить студентов обращать внимание на то, что они читают, с чем они знакомятся: если мы не будем критически относиться к информации, которую получаем, с большой вероятностью мы просто запутаемся в этом мире.

Еще один важный нюанс: в языковые модели не заложено понимания того, что выдаваемая ими информация должна соотноситься с реальностью и не противоречить фундаментальным законам физики или математики. Мы, живые люди, имеем возможность это проверять. Мы способны установить истину, потому что мы каждую секунду взаимодействуем с реальным миром. Какие-то утверждения проверить легко, для каких-то потребуется много работы — но это хотя бы реализуемо. Языковые модели с ним взаимодействуют только через тексты, которые видели при обучении, и эти тексты вполне могли быть некорректными, не соответствующими действительности.

По этой причине мы пока что не можем доверять ИИ обучать нас, да и в целом вряд ли можно ему поручить ответственные задачи.

Несмотря на недостатки, перспективы у ИИ очень большие. Так, существенная часть работы преподавателей — это проверка работ студентов. Даже в самых строгих областях науки мы предпочитаем давать студентам творческие задания, где надо подумать, проанализировать, предложить идею. И, конечно, сейчас это приходится проверять вручную. У лингвистических моделей есть все шансы нам помочь — находить в решениях недостатки, давать студентам развернутую обратную связь. Для обучения таких моделей нам понадобится собрать большую выборку решений студентов вместе с результатами проверки — но вряд ли это нерешаемая задача.

Могут быть полезны языковые модели и для ускорения анализа информации. Сегодня каждый день выходят новые научные статьи в каждой области. По одним и тем же областям читается огромное количество курсов в разных университетах — и наверняка в каждом из них есть объяснение, которое удачнее других. Этой информации так много, что невозможно все это прочитать и переварить. Если мы научим языковые модели отличать правду от выдумки (и добьемся, чтобы они не ошибались в фактах) — мы получим крайне мощный инструмент, который позволит, например, за час узнать краткое резюме всех результатов в любой области науки. Думаю, это позволило бы ученым выйти на новую скорость в исследованиях.

Что касается студентов и дипломных работ, написанных с помощью ИИ, мое мнение такое: пусть авторы пользуются чем угодно, но при этом несут полную ответственность за все, что написано в тексте. Один недосмотренный абзац, один неосторожный запрос к лингвистической модели — и она будет утверждать в тексте диплома, что дважды два равно пяти. Лично я буду снижать оценку за такое по всей строгости.

Более того, мы же требуем от студентов не сам текст, мы требуем результат — что-то новое, нетривиальную идею, которая раньше никому не приходила в голову или которую никто не мог осмыслить до конца. ИИ на такое не способен. Во всяком случае, пока неизвестны случаи, чтобы языковая модель смогла сделать что-то новое в науке. А если студент справится с тем, чтобы вытащить из языковой модели что-то новое, пусть получает высшую оценку — он первый придумал, как это делать, и мы будем только рады. Пусть только объяснит, как он это сделал.

Подытожим. На мой взгляд, ИИ несет в себе опасности, но совершенно не те, о которых все сейчас говорят. Вряд ли в ближайшем будущем появится искусственный интеллект, который захватит человечество.

Главная угроза лично мне видится в том, что ИИ будет дезинформировать людей и выдавать ложную информацию за истину. В то же время ИИ открывает для нас новые возможности.

Во-первых, он может стать нашим помощником в рутинных задачах. Во-вторых, ИИ порождает огромное количество исследовательских вопросов, которых точно хватит на наш с вами век. Мы смогли успешно обучить лингвистические модели — но совершенно не понимаем, почему они работают именно так, какие у них ограничения, как бороться с их недостатками. И у нас есть все шансы найти ответы на эти вопросы.

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...