异动
关注
社群
搜公告
产业库
时间轴
公社AI
通知
全部已读
暂无数据
私信
暂无数据
登录注册
我的主页
退出
无名小韭08171273
2025-07-01 21:53:46
感谢分享
@逻辑随笔:
近年来,随着AI大模型兴起,算力需求增加,AI服务器对芯片内存容量和传输带宽的要求提高。由于HBM具有高带宽、高容量的优点,目前已成为多款AI服务器提升综合算力的解决方案。例如,英伟达推出的A100、H100和H200等多款用于AI训练的芯片均采用HBM技术。 如果说GPU(显卡)的运行速
35 赞同-26 评论
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
工分
0.02
转发
收藏
投诉
复制链接
分享到微信
有用 0
打赏作者
无用
真知无价,用钱说话
0个人打赏
清空
确定
清空
确定
导入文档
同时转发
发布
暂无数据
确定要分配的奖金