Сделка по HBM4 — очень быстрой памяти для AI-серверов — показывает, как борьба за искусственный интеллект смещается от отдельных чипов к контролю над всей цепочкой поставок.
Samsung и AMD расширили сотрудничество: Samsung станет основным поставщиком HBM4 для следующего поколения AI-ускорителей AMD и будет работать с компанией над памятью для серверных процессоров, а также обсуждать возможное подключение к выпуску будущих чипов AMD. HBM4 — это сверхбыстрая память, без которой современные AI-системы не могут раскрыть свою мощность. Для AMD это вопрос темпов поставок и устойчивости бизнеса, для Samsung — шанс подняться выше в цепочке создания стоимости. Важная деталь в том, что речь уже идет не о разовом заказе: новый проект опирается на прежнее сотрудничество компаний по памяти для нынешних AI-ускорителей AMD. Контекст у этой новости гораздо шире одной сделки. Рынок AI-инфраструктуры быстро растет, и главным узким местом становится уже не только вычислительный чип, но и память, которая должна подавать данные с очень высокой скоростью. Отсюда и резкий рост интереса к HBM и серверной DDR5 — памяти для мощных серверов. Отраслевые обзоры и результаты производителей памяти показывают одну и ту же картину: спрос на AI-память растет быстрее предложения, а крупные игроки отрасли получают рекордные доходы именно на этих продуктах. Когда дефицит возникает в таком важном узле, поставщик памяти получает возможность влиять на решения гораздо шире обычной продажи комплектующих. Поэтому Samsung действует не как обычный продавец памяти, а как компания, которая хочет предложить заказчику связку из нескольких услуг сразу. У Samsung есть память, контрактное производство чипов и технологии плотной сборки, когда память и вычислительная часть объединяются в один сложный модуль. В материалах самой компании это прямо подается как единое предложение. Такой подход особенно важен в AI-системах, где выигрыш зависит не от одного элемента, а от того, насколько хорошо вместе работают чип, память, энергопотребление и компоновка сервера. Иными словами, Samsung пытается продавать не отдельный компонент, а участие в создании всей машины для AI-вычислений. Для AMD этот шаг выглядит прагматично. Компания наращивает направление дата-центров, где в 2025 году получила рекордную выручку, и строит более крупные AI-системы уровня целой серверной стойки, а не просто отдельные ускорители. Дополнительное давление создает многолетнее соглашение с Meta: поставки для первого разворачивания такой инфраструктуры должны начаться уже во второй половине 2026 года. Когда у производителя появляются настолько крупные обязательства, зависимость от одного маршрута поставок становится слишком дорогой. Именно поэтому интерес AMD к Samsung читается как попытка снизить риск задержек и получить больше пространства для маневра в момент, когда рынок AI-серверов переходит в фазу масштабного развертывания. Главный скрытый адресат этой истории — TSMC. Это тайваньская компания, крупнейший в мире контрактный производитель чипов: она выпускает микросхемы по заказу других фирм и исторически доминирует в самом сложном сегменте рынка. Позиции TSMC по-прежнему очень сильны: компания расширяет мощности по передовым техпроцессам и сложной упаковке чипов. Но сама структура конкуренции меняется. Если раньше лидерство определялось прежде всего качеством производства логики, то теперь все сильнее ценится способность связать в одном контуре память, упаковку и выпуск вычислительных чипов. В этом и состоит настоящий смысл новости: Samsung пытается воспользоваться дефицитом памяти, чтобы войти в центр AI-рынка с той стороны, где прежний порядок был наиболее устойчив.