Samsung упустила самую дорогую AI-карту от Nvidia, но опережает Micron с 36 ГБ памяти HBM3E — может ли эта новая технология стать основой B100, преемника H200?

Samsung заявляет, что разработала первую в отрасли 12-стековую DRAM HBM3E 12H, превзойдя технологию Micron и потенциально заложив основу для следующего поколения карт искусственного интеллекта Nvidia.

HBM3E 12H южнокорейского технологического гиганта обеспечивает пропускную способность до 1280 ГБ/с и лучшую в отрасли емкость 36 ГБ, что представляет собой улучшение более чем на 50 % по сравнению с 8-стековым HBM3 8H.

Source