NEO Semiconductor разрабатывает 3D DRAM с технологией искусственного интеллекта на замену HBM


NEO Semiconductor, специализирующаяся на флэш-памяти 3D NAND и 3D DRAM, анонсировала технологию 3D X-AI chip, которая заменит HBM, используемую в настоящее время в графических ускорителях искусственного интеллекта. Эта 3D DRAM оснащена встроенной обработкой AI, которая позволяет ей обрабатывать и генерировать выходные данные, не требующие математических вычислений. Это уменьшает проблемы с узкими местами шины данных, когда огромные объемы данных передаются между памятью и процессором, повышая производительность и КПД искусственного интеллекта.

В основе чипа 3D X-AI лежит слой нейронных схем, который обрабатывает данные, хранящиеся в 300 слоях памяти на одном кристалле. По информации NEO Semiconductor, эта 3D-память обеспечивает 100-кратное повышение производительности благодаря 8000 нейтронным цепям, которые обрабатывают данные с помощью искусственного интеллекта в памяти. Он также имеет в восемь раз большую плотность памяти, чем современные HBM, и, что более важно, обеспечивает снижение энергопотребления на 99% за счет уменьшения объема данных, которые необходимо обрабатывать на энергопотребляющих графических процессорах.

Изображение: NEO Semiconductor
 
Ху прокомментировал: «Текущая архитектура чипа искусственного интеллекта хранит данные в HBM и полагается на графический процессор для выполнения всех вычислений. Такая разделенная архитектура хранения и обработки данных делает шину данных неизбежным узким местом в производительности. Передача огромных объемов данных по шине данных приводит к ограниченной производительности и очень высокому энергопотреблению. 3D X-AI может выполнять обработку данных с использованием искусственного интеллекта в каждом чипе HBM. Это может значительно сократить объем данных, передаваемых между HBM и графическим процессором, повысить производительность и резко снизить энергопотребление «.
 
Изображение: NEO Semiconductor
 

Компания заявляет, что X-AI имеет емкость 128 ГБ и может поддерживать обработку данных с использованием искусственного интеллекта 10 ТБ / с на матрицу. Объединение двенадцати матриц в одной упаковке HBM может обеспечить емкость хранилища более 1,5 ТБ и пропускную способность обработки 120 ТБ / с.

Разработка искусственного интеллекта расширяет возможности вычислительной техники, и многие компании исследуют технологии, которые также увеличат скорость обработки данных и пропускную способность связи. По мере того, как мы получаем более быстрые и эффективные полупроводники, шина, которая передает данные между компонентами, становится узким местом. Таким образом, подобные технологии позволят всем компонентам быстрее работать вместе.

Например, несколько компаний, включая Intel, Kioxia и TSMC, работают над оптической технологией, позволяющей ускорить обмен данными внутри материнской платы. Но, перенеся часть обработки искусственного интеллекта с графического процессора на HBM, NEO Semiconductor может помочь снизить рабочую нагрузку, тем самым сделав его намного эффективнее нынешних энергоемких ускорителей искусственного интеллекта

Оставьте отзыв

Ваш емейл адрес не будет опубликован. Обязательные поля отмечены *