搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
时间不限
过去 1 小时
过去 24 小时
过去 7 天
过去 30 天
按时间排序
按相关度排序
3 小时
华为GPU出来了,跟英伟达A100和H100旗鼓相当,NVIDIA黄仁勋焦虑
华为GPU出来了,跟英伟达A100和H100旗鼓相当,NVIDIA黄仁勋焦虑 ...
腾讯网
2 天
面临AMD及自身内部挑战,英伟达Green 500主导地位受到威胁
英伟达的加速器已经成为同类产品中耗电量最大的选项之一,但这些芯片却仍旧在Green500榜单中占据着全球最具可持续性超级计算机的主导地位。在这份两年一度评选出的榜单上,十大最节能系统中有八家采用了英伟达部件,其中五家由该GPU巨头的1000瓦Grac ...
来自MSN
8 天
狂砸10万片H100 GPU训练!扎克伯格剧透Llama 4,隔空对战马斯克
智东西11月1日消息,据外媒Wired报道,在周三的Meta第三季度财报电话会议上,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)透露,Llama 4模型正在一个由10万片H100 GPU组成的集群上进行训练,并预计在明年首次推出。 为了支持AI计划,Meta预计本年度资本支出将高达 ...
10 天
on MSN
英伟达发布新AI硬件:H200 NVL PCIe GPU 和 GB200 NVL4 超级芯片
IT之家 11 月 19 日消息,英伟达当地时间昨日在 SC24 超算大会上推出了 2 款新的 AI 硬件,分别是 H200 NVL PCIe GPU 和 GB200 NVL4 超级芯片。 英伟达表示约七成的企业机架仅可提供不到 20kW 的电力供应 ...
IT之家
15 天
英伟达秀 Blackwell GPU 肌肉:训练 AI 模型速度比 Hopper H100 快 2.2 倍
Hopper GPU 的持续优化 Hopper GPU 自发布以来,经过持续的软件优化,性能得到了显著提升。H100 GPU 在 LLM 预训练性能上比首次提交时快了 1.3 倍,并且在 GPT-3(175B 训练)中实现了 70% 的性能提升。 英伟达利用 11616 个 H100 GPU 进行了 MLPerf 的最大规模提交,进一步证明 ...
腾讯网
27 天
贾扬清团队发文阐述关于H100 GPU的一切
贾扬清表示,这篇文章将会告诉你有关 H100 GPU 市场的一切。 GPU 市场可能非常复杂,难以驾驭。如果你花了数小时搜索有关 H100 市场的信息 ...
eeworld.com.cn
27 天
贾扬清团队发文阐述关于H100 GPU的一切
贾扬清表示,这篇文章将会告诉你有关 H100 GPU 市场的一切。 GPU 市场可能非常复杂,难以驾驭。如果你花了数小时搜索有关 H100 市场的信息,可能会遇到无数带有类似信息的报价:“请与我们的销售人员联系。” 所有 GPU 基础设施选项可能看起来都一样 ...
澎湃新闻
27 天
狂砸10万片H100 GPU训练,扎克伯格剧透Llama 4,隔空对战马斯克
智东西11月1日消息,据报道,在周三的Meta第三季度财报电话会议上,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)透露,Llama 4模型正在一个由10万片H100 GPU组成的集群上进行训练,并预计在明年首次推出。 为了支持AI计划,Meta预计本年度资本支出将高达400亿美元 ...
澎湃新闻
28 天
全球最大AI超算内部首次曝光!马斯克19天神速组装10万块H100,未来 ...
目前,Colossus的第一阶段建设已完成,集群全面上线,但这并不是终点。它将很快迎来升级,GPU容量将翻倍,新增5万块H100 GPU和5万块下一代H200 GPU。 Colossus正在用于训练xAI的Grok,并为X Premium订阅用户提供聊天机器人功能。 在训练超大规模的Grok时,Colossus展现了 ...
36氪
28 天
狂砸10万片H100 GPU训练,扎克伯格剧透Llama 4,隔空对战马斯克
针对即将推出的Llama 4模型,扎克伯格透露,该模型正在由10万片H100 GPU组成的集群上进行训练,并暗示新版本将引入“新的模态”、“更强的推理 ...
51CTO
28 天
大模型已过时,小模型SLM才是未来?苹果正在研究这个
该团队的研究结果表明,对于更小型的模型,可以使用 A100-40GB GPU 和分布式数据并行(DDP)等更低成本选择,同时不会对性能产生负面影响。对于更大型的模型,就必需更高级的配置了(例如 A100-80GB 和 H100-80GB GPU 搭配 Flash Attention(FA)和完全分片式数据并行 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈