Искусственный интеллект помогает больным говорить

Пока технология работает только в лабораторных условиях

Нейробиологи нашли новый способ помочь людям, лишившимся способности говорить: создается устройство, преобразующее сигналы из их мозга в артикуляцию и затем в речь.

Фото: Максим Кимерлинг, Коммерсантъ

Технология еще не полностью готова, но уже можно сказать, что получается синтезировать целые предложения и они в основном понятны, сообщает журнал Nature. Это большой шаг вперед по сравнению с технологией предыдущего поколения, радуется Четан Пандаринат, нейроинженер из Университета Эмори в Атланте, штат Джорджия, один из авторов работы,— тогда искусственный интеллект транслировал мозговую деятельность в отдельные слова, преимущественно из одного слога: «Переход от отдельных слогов к предложениям технически оказался весьма сложен, но именно такие достижения доставляют подлинное удовольствие».

Сейчас люди, потерявшие способность говорить, могут общаться, но для этого им все-таки нужно совершать крошечные движения — управлять курсором, который выбирает буквы или слова на экране. Наиболее известный пример такого больного — покойный британский физик Стивен Хокинг. По сведениям Эдварда Чанга, другого автора описываемого исследования, Хокинг управлял курсором при помощи одной из мимических мышц в щеке. Это очень медленно, продолжает Чанг: хорошо если десять слов в минуту, в то время как естественная речь — это 150 слов в минуту.

Разрабатывая свое устройство, Чанг и его команда хотели обеспечить больных нормальной речью и ориентировались на естественную артикуляционную систему.

Исследователи работали с пятью людьми, которым в поверхностную зону мозга были имплантированы электроды — для лечения эпилепсии. Первым делом ученые записали активность мозга, возникавшую, когда участники эксперимента читали вслух сотнями предложения. Затем Чанг с коллегами сопоставили записи мозговой активности с записями артикуляционных движений — языка, губ, челюстей и гортани, когда речевой аппарат создает звуки.

Самообучающийся алгоритм получил все эти данные, проанализировал их, а затем его загрузили в устройство — декодер и синтезатор речи. Программа преобразовывала сигналы мозга в схему артикуляции, а синтезатор создавал речевой поток. Затем добровольцы прослушали получившиеся высказывания и опознали в среднем 70% слов, «сказанных» синтезатором.

По мнению Стефани Риес, нейробиолога из Университета Сан-Диего в Калифорнии, речь, созданная путем сопоставления мозговой активности артикуляции, а затем трансляции в звук, получается более понятной, чем та, что создается непосредственным переводом мозговой активности в звуки. Эми Орсборн, нейроинженер из Университета штата Вашингтон в Сиэтле, высоко оценивает работу коллег, но указывает, что технология бесполезна для тех людей, кто лишился способности к артикуляции.

Марк Слуцки, невролог из Северо-Западного университета в Чикаго, штат Иллинойс, соглашается с ней, но выражает надежду, что технология с декодером оставляет возможность для совершенствования. «Важный шаг,— говорит он,— но предстоит еще много сделать, чтобы синтетическая речь стала легкой для понимания».

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...