DeepSeek R2去哪儿了?
本来,今年5月份的时候就有小道消息说DeepSeek R2要来了,结果现在都6月底了,一点儿消息都没有。这是咋回事呢?我琢磨着有这么两种可能:
1、它可能也遇到了和OpenAI、谷歌、Anthropic一样的问题。
现在AI模型的各种基准测试越来越多了,但模型在这些测试上的进步却越来越慢,感觉像是快到头了。如果DeepSeek R2发布出来也只是这样,那大家可能就会觉得DeepSeek是不是也到瓶颈了,这肯定不是他们想看到的。
2、他们可能在憋大招,没工夫发布!
现在想让模型变得更好,比如用强化学习(RL)这些新方法,需要投入大量的时间和精力。如果这时候还要花大力气去搞发布会,那肯定会拖慢他们研发的进度,浪费掉和竞争对手赛跑的宝贵资源。所以,他们可能觉得与其花时间搞发布会,不如把精力都放在模型升级上,先对R1模型做一些小幅度的更新。
网友热评:
1、他们最近发布的R1 0528应该是R2,但结果证明不够强大。因此,为了避免失望,他们将其更名为R1 0528,现在他们正在开发下一个版本,希望他们能够再次接近SOTA水平。
2、0528比R1聪明多了很明显。如果他们把它命名为R2,人们会很高兴的。 它在排行榜的顶端,只有750B。如果你有时间和金钱,可以在家里运行它。
3、他们可能面临着OpenAI和Anthropic所面临的同样的问题,虽然可能是暂时的。谷歌在数据和TPU方面具有优势
4、R1 的幻觉问题让我失望(即便是新版),我常常在它生成答案后,然后在 Gemini 里面事实核查。然后,Gemini 毫不客气指出这是 Ai 幻觉,并说它在“危言耸听”。我希望 R2 在作答时可以保守一点,不要编造数据。