Различия между поколениями HBM (high bandwidth memory — память с высокой пропускной способностью) в первую очередь заключаются в их скорости. При переходе на поколение HBM3 в отрасли появилось множество запутанных названий
TrendForce сообщает, что доминирующим продуктом на рынке HBM в 2023 году будет HBM2e, используемый в чипах ускорителей AI NVIDIA A100/A800, AMD MI200, и в большинстве чипов ускорителей, разработанных самостоятельно CSP (Cloud Service Providers). По мере развития спроса на чипы ускорителей AI производители планируют представить новые продукты HBM3e в 2024 году, а в следующем году ожидается, что HBM3 и HBM3e станут основными на рынке.
Различия между поколениями HBM в первую очередь заключаются в их скорости. При переходе на поколение HBM3 в отрасли появилось множество запутанных названий. TrendForce уточняет, что так называемые HBM3 на текущем рынке следует разделить на две категории в зависимости от скорости. Одна категория включает HBM3, работающий со скоростью от 5,6 до 6,4 Гбит/с, а другая включает HBM3e 8 Гбит/с, который также имеет несколько названий, включая HBM3P, HBM3A, HBM3+ и HBM3 Gen2.
Статус разработки HBM тремя основными производителями, SK hynix, Samsung и Micron, различается. SK hynix и Samsung начали свои усилия с HBM3, который используется в продуктах серий NVIDIA H100/H800 и AMD MI300. Ожидается, что эти два производителя также представят образцы HBM3e в первом квартале 2024 года. Тем временем Micron решила пропустить HBM3 и напрямую разработать HBM3e.
HBM3e будет состоять из моноблоков емкостью 24 Гбит/с, а при использовании 8-слойной основы (8Hi) емкость одного HBM3e возрастет до 24 Гбайт. Предполагается, что эта технология будет использоваться в NVIDIA GB100, выпуск которой намечен на 2025 год. Таким образом, ожидается, что основные производители выпустят образцы HBM3e в I квартале 2024 г., а к 2 полугодию 2024 г. начнется их массовое производство.
CSP разрабатывают собственные чипы ИИ, чтобы снизить зависимость от NVIDIA и AMD.
NVIDIA продолжает занимать наибольшую долю рынка, когда речь идет о чипах для серверных ускорителей искусственного интеллекта. Однако высокие затраты, связанные с графическими процессорами NVIDIA H100/H800 по цене от 20 000 до 25 000 долларов США за единицу, в сочетании с рекомендуемой конфигурацией сервера ИИ с восемью картами резко увеличили общую стоимость владения. Поэтому, хотя CSP будут продолжать использовать серверные графические процессоры от NVIDIA или AMD, они одновременно планируют разработать свои собственные чипы для ускорителей искусственного интеллекта.
Технологические гиганты Google и Amazon Web Services (AWS) уже добились значительных успехов в этой области, создав Google Tensor Processing Unit (TPU) и чипы AWS Trainium и Inferentia. Кроме того, эти два лидера отрасли уже усердно работают над своими ускорителями искусственного интеллекта следующего поколения, которые будут использовать технологии HBM3 или HBM3e. Кроме того, другие CSP в Северной Америке и Китае также проводят соответствующие проверки, сигнализируя о потенциальном всплеске конкуренции на рынке чипов для ускорителей ИИ в ближайшие годы.