超越DeepSeek!Mistral新模型最快?

banq


热门工具排行榜:

  • 排行榜上的第一名是“Le Chat by Mistral Al”
  • 第二名是“ChatGPT”
  • 第三名是“DeepSeek-AI Assistant”
  • 第四名是“Google Gemini”
  • 第五名是“Gmail-Email by Google”。

网友1:
它的速度绝对是最快的,而且没有任何对手。
但这只是接近完美的一步。
随着时间的推移,最终某家人工智能公司会推出一个比 Le Chat 更快、比 o1/R1 更智能的产品。

网友2:
他们是在芯片 Cerebras上运行的较小模型;厉害的地方不在他们身上,而是因为 芯片Cerebras 的速度非常快。

这个模型还不错,但绝对不能替代 Claude、GPT-4 或其他大型高级模型。对于普通的问答和网络搜索,它表现得相当不错。并不是说它有什么问题;它只是有自己的优点,而真正的厉害之处大多不在他们这边,尽管他们似乎总是吹嘘说是的。

  • Groq LPU 更接近 英伟达A100 的推理能力,尤其是在低延迟和高吞吐量的场景中。
  • Cerebras WSE 更接近英文达 A100 的训练能力,尤其是在处理超大规模模型时。

网友3:
在 Cerebras 芯片上运行的模型是 Large 2.1,这是他们的旗舰型号。
即使推测解码让它和正常的推理有点不一样,这似乎也是真的。

从我的测试来看,对于一般的任务,它并没有比 4o 差太多。
他们的大型模型相对来说比较小,但至少在我的实验中,它表现得确实像一个大型模型。

现在公平地说,我们不知道 4o、o3 和 Sonnet 到底有多大,但它们在编码和一般角色扮演任务中的表现确实比 le chat 好得多,而且我们肯定知道 R1 比 mistral 大很多倍(大约 1250 亿参数)。

1230 亿参数的模型上 1100 tok/秒的速度听起来还是很疯狂。

但从我的经验来看,它确实介于 4o-mini 和 4o 之间,这使得它可以用于一般任务,但也仅此而已。

用 Cerebras 进行网络搜索很酷,而且视觉/pdf 处理能力非常好,从我的测试来看甚至比 4o 还要好。

网友4:
他们还在 Cerebras 硬件上运行了最大的 R1 提炼版。测试结果显示它的表现接近 R1。
这种“魔法”可能需要很多复杂的部分,但它绝对是你在其他地方找不到的东西。

但是,Deepseek的成功不是因为它速度快,而是因为它输出的内容质量高