Аналоговый ИИ уже много лет будоражит воображение разработчиков микросхем.
Он сочетает в себе две ключевые концепции, которые должны значительно снизить энергозатратность машинного обучения. Во-первых, он ограничивает дорогостоящее перемещение битов между микросхемами памяти и процессорами. Во-вторых, вместо логических единиц и нулей он использует физику течения тока для эффективного выполнения ключевых вычислений в машинном обучении.
На этой неделе стартап EnCharge AI представил первый чип на базе этой новой архитектуры — EN100. Стартап утверждает, что этот чип справляется с различными задачами ИИ с производительностью на ватт в 20 раз выше, чем у конкурирующих чипов. Он представляет собой однопроцессорную карту, которая выполняет 200 триллионов операций в секунду при мощности 8,25 Вт, что позволяет экономить заряд батареи в ноутбуках с поддержкой ИИ. Кроме того, для рабочих станций с искусственным интеллектом предназначена 4-чиповая карта с производительностью 1000 триллионов операций в секунду.
В машинном обучении «по чистой случайности оказалось, что основная операция, которую мы выполняем, — это умножение матриц», — говорит руководитель лаборатории в Принстонском университете Навин Верма. По сути, это взятие массива чисел, умножение его на другой массив и сложение результатов всех этих умножений. Инженеры заметили совпадение: два фундаментальных правила электротехники позволяют выполнять именно эту операцию. Закон Ома гласит, что ток равен произведению напряжения на проводимость. Закон Кирхгофа для токов гласит, что если в точку входит несколько токов, идущих по нескольким проводам, то сумма этих токов — это то, что выходит из этой точки. Таким образом, каждое из нескольких входных напряжений пропускает ток через сопротивление (проводимость — это величина, обратная сопротивлению), умножая значение напряжения, и все эти токи складываются, образуя единое значение. Математика, готово.
Большая часть данных, составляющих нейронную сеть, — это «веса», то есть то, на что вы умножаете входные данные. И перемещение этих данных из памяти в логику процессора для выполнения работы отнимает значительную часть энергии, которую расходуют графические процессоры. Вместо этого в большинстве аналоговых схем ИИ веса хранятся в одном из нескольких типов энергонезависимой памяти в виде значения проводимости (сопротивления выше). Поскольку весовые данные уже находятся там, где они должны быть для выполнения вычислений, их не нужно перемещать, что экономит массу энергии.
Сочетание свободной математики и стационарных данных обещает вычисления, для которых потребуется всего тысячная доля триллионной доли джоуля энергии.