Компания OpenAI, известная в первую очередь как разработчик чат-бота ChatGPT, представила инструмент, который должен помочь выявлять тексты, написанные искусственным интеллектом. Инструмент основан на принципе языковой модели, разработчики «учили» его на большом массиве текстов, написанных людьми и ИИ.
При этом компания признает, что этот инструмент несовершенен и его данные не могут быть основанием для принятия решений об авторстве текста. В OpenAI отмечают, что инструмент нормально работает только с текстами из более чем тысячи знаков, к тому же его можно обмануть, отредактировав текст, написанный ИИ. Кроме того, у него довольно высокий процент ошибок: так, он отнес 9% текстов, написанных людьми, к категории «вероятно, написанные ИИ».
ChatGPT — продвинутый чат-бот с искусственным интеллектом, запущенный в ноябре 2022 года. Его уже назвали «убийцей Google»: он хорошо ищет информацию, общается с пользователем и генерирует тексты по запросу. Беспокойство по поводу таких текстов уже выражали многие преподаватели: по их мнению, школьники и студенты могут пользоваться ChatGPT для выполнения заданий. Один из таких случаев: выпускник РГГУ Александр Жадан меньше чем за сутки написал дипломную работу с помощью ChatGPT, о чем впоследствии рассказал в своих социальных сетях и ряду СМИ. Теперь руководство РГГУ повторно проверяет его работу.