Нейробиологи нашли новый способ помочь людям, лишившимся способности говорить: создается устройство, преобразующее сигналы из их мозга в артикуляцию и затем в речь.
Технология еще не полностью готова, но уже можно сказать, что получается синтезировать целые предложения и они в основном понятны, сообщает журнал Nature. Это большой шаг вперед по сравнению с технологией предыдущего поколения, радуется Четан Пандаринат, нейроинженер из Университета Эмори в Атланте, штат Джорджия, один из авторов работы,— тогда искусственный интеллект транслировал мозговую деятельность в отдельные слова, преимущественно из одного слога: «Переход от отдельных слогов к предложениям технически оказался весьма сложен, но именно такие достижения доставляют подлинное удовольствие».
Сейчас люди, потерявшие способность говорить, могут общаться, но для этого им все-таки нужно совершать крошечные движения — управлять курсором, который выбирает буквы или слова на экране. Наиболее известный пример такого больного — покойный британский физик Стивен Хокинг. По сведениям Эдварда Чанга, другого автора описываемого исследования, Хокинг управлял курсором при помощи одной из мимических мышц в щеке. Это очень медленно, продолжает Чанг: хорошо если десять слов в минуту, в то время как естественная речь — это 150 слов в минуту.
Разрабатывая свое устройство, Чанг и его команда хотели обеспечить больных нормальной речью и ориентировались на естественную артикуляционную систему.
Исследователи работали с пятью людьми, которым в поверхностную зону мозга были имплантированы электроды — для лечения эпилепсии. Первым делом ученые записали активность мозга, возникавшую, когда участники эксперимента читали вслух сотнями предложения. Затем Чанг с коллегами сопоставили записи мозговой активности с записями артикуляционных движений — языка, губ, челюстей и гортани, когда речевой аппарат создает звуки.
Самообучающийся алгоритм получил все эти данные, проанализировал их, а затем его загрузили в устройство — декодер и синтезатор речи. Программа преобразовывала сигналы мозга в схему артикуляции, а синтезатор создавал речевой поток. Затем добровольцы прослушали получившиеся высказывания и опознали в среднем 70% слов, «сказанных» синтезатором.
По мнению Стефани Риес, нейробиолога из Университета Сан-Диего в Калифорнии, речь, созданная путем сопоставления мозговой активности артикуляции, а затем трансляции в звук, получается более понятной, чем та, что создается непосредственным переводом мозговой активности в звуки. Эми Орсборн, нейроинженер из Университета штата Вашингтон в Сиэтле, высоко оценивает работу коллег, но указывает, что технология бесполезна для тех людей, кто лишился способности к артикуляции.
Марк Слуцки, невролог из Северо-Западного университета в Чикаго, штат Иллинойс, соглашается с ней, но выражает надежду, что технология с декодером оставляет возможность для совершенствования. «Важный шаг,— говорит он,— но предстоит еще много сделать, чтобы синтетическая речь стала легкой для понимания».