Южнокорейский гигант Samsung Electronics укрепляет свои позиции на рынке передовой памяти для искусственного интеллекта, став одним из ключевых партнёров Nvidia в разработке модуля SOCAMM2 следующего поколения. Эта технология предназначена для серверов, оптимизированных под высокие нагрузки ИИ, и призвана удовлетворить растущий спрос на энергоэффективные и высокоскоростные решения для центров обработки данных.
Samsung объявила в четверг, что начала поставки клиентам инженерных образцов SOCAMM2 (Small Outline Compression Attached Memory Module 2). Это важный этап в подготовке к интеграции памяти в будущую платформу ускорителей ИИ Nvidia под кодовым названием Rubin, запуск которой ожидается во втором квартале 2026 года.
В отличие от высокоскоростной памяти HBM, которая располагается в непосредственной близости от графических процессоров (GPU), модули SOCAMM работают в паре с центральными процессорами (CPU). Они объединяют несколько чипов энергоэффективной памяти LPDDR5X (широко используемой в смартфонах) в компактный серверный модуль. Такой подход позволяет значительно повысить общую эффективность системы, увеличивая пропускную способность и сокращая энергопотребление — критически важный фактор для современных дата-центров, сталкивающихся с растущими ограничениями по мощности.
Samsung заявляет, что SOCAMM2 обеспечивает более чем двукратное превосходство по пропускной способности по сравнению с обычной серверной памятью DDR5, при этом потребляя на 55% меньше энергии. Компания подчёркивает тесное сотрудничество с Nvidia для оптимизации продукта под будущую инфраструктуру ИИ.
«Мы тесно сотрудничаем с Nvidia для оптимизации SOCAMM2 под ускорительную инфраструктуру ИИ, — отметили в Samsung. — Наша цель — обеспечить производительность и энергоэффективность, необходимые для систем вывода следующего поколения».
Эта позиция была поддержана и со стороны Nvidia. Дион Харрис, старший директор компании по высокопроизводительным вычислениям и решениям для ИИ-инфраструктуры, отметил, что эффективность использования памяти становится всё более важной по мере смещения рабочих нагрузок ИИ от обучения моделей к выводу в реальном времени и сложным аналитическим задачам.
Samsung сталкивается с жёсткой конкуренцией на этом перспективном рынке. Другие ведущие производители памяти, такие как SK hynix и американская Micron Technology, также активно работают над своими решениями SOCAMM и, по некоторым данным, уже поставляют или планируют поставить образцы Nvidia. Ранее Micron считалась лидером в разработке SOCAMM первого поколения, но технические задержки несколько замедлили её прогресс.
Аналитики ожидают, что рынок SOCAMM начнёт стремительно расти после запуска платформы Nvidia Rubin в 2026 году. Поставщики, чьи решения будут валидированы и интегрированы на раннем этапе, получат значительное преимущество и смогут занять существенную долю рынка. Shinhan Investment прогнозирует умеренный рост спроса на память LPDDR в 2025 году с последующим резким скачком в 2026 году, по мере того как серверы ИИ будут всё чаще переходить на энергоэффективные архитектуры.