【少儿不宜】没人聊聊星际之门和deepseek?
登录 | 论坛导航 -> 华新鲜事 -> 心情闲聊 | 本帖共有 89 楼,当前显示第 18 楼 : 从楼主开始阅读 : 本帖树形列表 : 返回上一页
作者:54qnian (等级:3 - 略知一二,发帖:2319) 发表:2025-01-27 22:39:52  18楼 
挺神奇的,貌似用的还是缩水版的芯片,用了10分之一的数量,花了没几个钱,2个月就搞了个性能相当的AI, 所以AI立刻就不值钱了。AI就这样突然见顶了?
H800跟H100 相比某些指标是缩水了
尤其是FP 64 只有 1TFlops. 问题是没谁用FP64 去训练AI 模型,英伟达就是糊弄美国政府呢。
其它指标比如 FP32 和 FP16 跟 H800 跟H100 一样。据说 Deepseek 用了2000块 H800 训练了 R1, 这个数量跟OpenAI 和 Meta、谷歌的动辄上万的集群没法比。我猜不是Deepseek 不想,而是实在是没有那么多的H800卖给它
Deepseek 到底怎么样我不清楚,以后有很多机会 去验证它,现在也用不急着下结论。
欢迎来到华新中文网,踊跃发帖是支持我们的最好方法!原文 / 传统版 / WAP版只看此人从这里展开收起列表

本帖共有 89 楼,当前显示第 18 楼,本文还有 N-1 层楼,要不你试试看:点击此处阅读更多 >>



请登录后回复:帐号   密码