传DeepSeek拥有5万个英伟达H100
1月27日消息,据外电报道,据 DeepSeek 首席执行官称,中国人工智能实验室 DeepSeek 可以使用数万个 NVIDIA H100 AI GPU 进行训练。
DeepSeek R1 是世界上最先进的 AI 模型之一,可与 OpenAI 的新 o1 和 Meta 的 Llama AI 模型相媲美。
在接受 CNBC 的最新采访时,Scale AI 创始人兼首席执行官 Alexander Wang 表示,DeepSeek R1 在其公司最具挑战性的 AI 测试中达到或击败了所有表现最佳的 AI 模型。
在测试了所有最新的 AI 模型后,王的团队发现 DeepSeek 的新模型实际上是表现最好的,或者大致与美国最好的模型相当,而美国最好的模型是 o1。
当被问及中美之间的人工智能竞争时,王教授补充道:长期以来,美国一直处于领先地位。但他指出,DeepSeek 的新模型确实试图改变这一现状,他认为中国实验室在圣诞节发布惊天动地的模型具有象征意义,因为大家都在庆祝圣诞节。
Alexander Wang says through the recent "humanity's last exam" benchmark test, China's DeepSeek model is actually top performing or roughly on par with the best American models such as O1.
Humanity's last exam is a Benchmark test conducted by ScaleAI where the most difficult… pic.twitter.com/bJ4ojLdLDx
DeepSeek 使用 NVIDIA 的 Hopper AI 架构和 H100 和 H200 AI GPU 来训练他们的 AI 模型,而拜登政府实施了限制措施,以阻止强大的 AI GPU 进入中国。但将先进的 AI 芯片引入中国似乎并不那么困难,王告诉 CNBC:现实是肯定的,也是否定的。你知道中国实验室拥有的 H100 比人们想象的要多。
王先生表示,据他了解,DeepSeek 拥有大约五万个 H100 ,并且他们不能谈论这个,显然因为这违反了美国实施的出口管制,并补充说他们拥有的芯片比其他人预期的要多。
未来,对于中国获得先进的人工智能芯片,王先生表示:但从长远来看,它们也将受到我们现有的芯片管制和出口管制的限制。
研究中国创新的悉尼科技大学副教授 Marina Zhang 表示:与许多严重依赖先进硬件的中国人工智能公司不同,DeepSeek 专注于最大限度地优化软件驱动的资源。DeepSeek 采用开源方法,汇集集体专业知识并促进协作创新。这种方法不仅可以缓解资源限制,还可以加速尖端技术的开发,使 DeepSeek 从更孤立的竞争对手中脱颖而出。