: | : | :期货程序化 | :期货程序化研究 | :期货量化学习 | :期货量化 |
返回列表 发帖

美光科技(MU.US)开始量产HBM3E内存 将用于英伟达(NVDA.US)H200 AI芯片

美光科技(MU.US)开始量产HBM3E内存 将用于英伟达(NVDA.US)H200 AI芯片

© Reuters. 美光科技(MU.US)开始量产HBM3E内存 将用于英伟达(NVDA.US)H200 AI芯片
智通财经APP获悉,美光科技(MU.US)已经开始量产用于英伟达(NVDA.US)最新人工智能芯片的高带宽内存(HBM)。据悉,美光科技的HBM3E产品将供货给英伟达,并将应用于英伟达H200 Tensor Core GPU,该GPU预计将于第二季度开始发货。

资料显示,美光科技HBM3E内存基于1β 工艺,采用TSV封装、2.5D/3D堆叠,可提供1.2 TB/s及更高的性能。美光科技表示,与竞争对手的产品相比,其HBM3E产品有着以下三方面的优势:(1)卓越性能:美光HBM3E拥有超过9.2Gb/s的针脚速率、超过1.2 TB/s的内存带宽,可满足人工智能加速器、超级计算机和数据中心的苛刻需求。(2)出色能效:与竞品相比,美光HBM3E功耗降低了约 30%,在提供最大吞吐量的前提下将功耗降至最低,有效改善数据中心运营支出指标。(3)无缝扩展: 美光HBM3E目前可提供24GB容量,可帮助数据中心轻松扩展其AI应用,无论是训练大规模神经网络还是加速推理任务都能提供必要的内存带宽。

美光科技执行副总裁兼首席商务官Sumit Sadana表示:“美光科技凭借这一HBM3E里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。”“人工智能工作负载严重依赖内存带宽和容量,美光科技处于有利位置,可以通过我们业界领先的HBM3E和HBM4路线图以及我们用于人工智能应用的完整DRAM和NAND解决方案组合来支持未来人工智能的显著增长。”

HBM是美光科技最赚钱的产品之一,部分原因在于其构造所涉及的技术复杂性。美光科技此前曾表示,预计2024财年HBM收入将达到“数亿”美元,并在2025年继续增长。Moor Insights & Strategy分析师Anshel Sag表示:“我认为这对美光科技来说是一个巨大的机会,特别是因为HBM在人工智能应用方面越来越受欢迎。”

HBM市场目前由SK海力士主导。Anshel Sag补充称:“由于SK海力士2024年的库存已经售罄,有另一个供应市场的供应商可以帮助AMD、英特尔或英伟达等芯片制造商扩大GPU生产规模。”

论坛官方微信、群(期货热点、量化探讨、开户与绑定实盘)
 
期货论坛 - 版权/免责声明   1.本站发布源码(包括函数、指标、策略等)均属开放源码,用意在于让使用者学习程序化语法撰写,使用者可以任意修改语法內容并调整参数。仅限用于个人学习使用,请勿转载、滥用,严禁私自连接实盘账户交易
  2.本站发布资讯(包括文章、视频、历史记录、教材、评论、资讯、交易方案等)均系转载自网络主流媒体,内容仅为作者当日个人观点,本网转载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。本网不对该类信息或数据做任何保证。不对您构成任何投资建议,不能依靠信息而取代自身独立判断,不对因使用本篇文章所诉信息或观点等导致的损失承担任何责任。
  3.本站发布资源(包括书籍、杂志、文档、软件等)均从互联网搜索而来,仅供个人免费交流学习,不可用作商业用途,本站不对显示的内容承担任何责任。请在下载后24小时内删除。如果喜欢,请购买正版,谢谢合作!
  4.龙听期货论坛原创文章属本网版权作品,转载须注明来源“龙听期货论坛”,违者本网将保留追究其相关法律责任的权力。本论坛除发布原创文章外,亦致力于优秀财经文章的交流分享,部分文章推送时若未能及时与原作者取得联系并涉及版权问题时,请及时联系删除。联系方式:http://www.qhlt.cn/thread-262-1-1.html
如何访问权限为100/255贴子:/thread-37840-1-1.html;注册后仍无法回复:/thread-23-1-1.html;微信/QQ群:/thread-262-1-1.html;网盘链接失效解决办法:/thread-93307-1-1.html

返回列表