挺神奇的,貌似用的还是缩水版的芯片,用了10分之一的数量,花了没几个钱,2个月就搞了个性能相当的AI, 所以AI立刻就不值钱了。AI就这样突然见顶了?
H800跟H100 相比某些指标是缩水了
尤其是FP 64 只有 1TFlops. 问题是没谁用FP64 去训练AI 模型,英伟达就是糊弄美国政府呢。
其它指标比如 FP32 和 FP16 跟 H800 跟H100 一样。据说 Deepseek 用了2000块 H800 训练了 R1, 这个数量跟OpenAI 和 Meta、谷歌的动辄上万的集群没法比。我猜不是Deepseek 不想,而是实在是没有那么多的H800卖给它
Deepseek 到底怎么样我不清楚,以后有很多机会 去验证它,现在也用不急着下结论。
其它指标比如 FP32 和 FP16 跟 H800 跟H100 一样。据说 Deepseek 用了2000块 H800 训练了 R1, 这个数量跟OpenAI 和 Meta、谷歌的动辄上万的集群没法比。我猜不是Deepseek 不想,而是实在是没有那么多的H800卖给它
Deepseek 到底怎么样我不清楚,以后有很多机会 去验证它,现在也用不急着下结论。