Вероятностный компьютер

Probabilistic computer, концепция компьютера, оперирующего не двоичной системой, где принимают значения 0 и 1, а вероятностями принятия таких значений. Цель — создать энергоэффективный компьютер для сфер, где не требуется абсолютная точность вычислений.

Текст: Константин Бочарский

"Тирании нулей и единиц приходит конец",— говорит Даг Бургер, исследователь компании Microsoft. Проблема с нулями и единицами заключается в том, что ведомая законом Мура об удвоении мощности процессоров каждые полтора года индустрия зашла в тупик. Производители чипов рапортуют об освоении 14-нанометровой технологии. Еще немного — и повышать плотность размещения элементов окажется физически невозможно: на масштабах атомарного уровня становятся ощутимы квантовые эффекты. Кроме того, попытки нарастить мощность ведут ко все большему энергопотреблению и теплоотдаче.

Бургер называет это "цифровым налогом" (digital tax). По его мнению, такой налог в ближайшем десятилетии станет слишком велик для отрасли: "Вы не сможете построить стабильно работающий чип, транзисторы которого будут иметь размер атома". Решить проблему, по его мнению, сможет отказ от самой парадигмы бинарного вычисления — фундамента современной компьютерной отрасли. Альтернатива — знакомая, но затертая на обочину цифровым прогрессом концепция аналоговых вычислений. Вместе с коллегами Бургер разрабатывает проект нейронных вычислительных модулей — Neural Processing Units (NPU). Одна из ключевых идей проекта заключается в том, чтобы позволить машинам ошибаться.

"Много типов вычислений не нуждаются в абсолютной точности",— пишет Бургер в работе Towards Neural Acceleration for General-Purpose Approximate Computing. Например, рендеринг изображений, распознавание речи, дата-майнинг. Снижение требований к точности уменьшит нагрузку и на вычислительные мощности. Но сегодняшняя архитектура процессоров не умеет давать поблажки. Поэтому под вычисления, где точность не требуется, задействуются огромные ресурсы.

В концепции Бургера нейронная сеть не занимается "вскрытием кода", она относится к нему как к черному ящику, не стремясь разложить на "нули и единицы". Она переводит его из исходного кода в код-подражатель. Система производит операции с ним как с черным ящиком — объектом. Отсюда и метафора про "аналоговый" тип вычисления. Ученый уверен, что переход от точных бинарных систем к аппроксимирующим аналоговым даст колоссальное повышение эффективности.

В подобной эффективности особенно заинтересованы военные. Развивающиеся технологии беспилотников предъявляют все новые требования к энергоэффективности. Объем видеоданных, который тем требуется обрабатывать, растет. При этом особого прогресса в сфере источников питания, например для видеооборудования на борту БПЛА, не наблюдается. Если не получается изобрести легкие и мощные аккумуляторы, приходится искать способы снизить энергопотребление. В прошлом году Агентство перспективных оборонных исследований DARPA по заказу Министерства обороны США запустило проект UPSIDE (Unconventional Processing of Signals for Intelligent Data Exploitation) — нетрадиционная обработка сигналов для интеллектуального использования данных. Суть проекта — в создании микросхем, которые будут работать на принципах аналоговых вычислений. Такой компьютер станет оперировать не значениями бит, а вероятностями принятия этих значений.

Работу над созданием "вероятностного процессора" еще в 2010 году анонсировала компания Lyric Semiconductor. По словам руководителя Lyric Бена Вигоды, специалисты, которые сейчас выходят на пенсию, еще помнят, как программировали аналоговые компьютеры в колледже. История повторяется. Выпуск решений на базе вероятностных процессоров возможен уже через несколько лет.

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...