阿里千问Qwen-72 b在中文测试中击败了GPT-3.5


2023.11.30 我们在 ModelScope 和 Hugging Face 上发布了Qwen-72B和Qwen-72B-Chat,它们在 3T 令牌上进行训练并支持 32k 上下文,以及Qwen-1.8B和Qwen-1.8B-Chat 。

我们还增强了 Qwen-72B-Chat 和 Qwen-1.8B-Chat 的系统提示功能,请参阅示例文档

另外,支持Ascend 910和Hygon DCU上的推理。检查ascend-support并dcu-support了解更多详细信息。

网友讨论:

  • Qwen 在所有测试中击败 GPT-4 的都是中文。虽然这对开源来说是个好消息,但 Qwen-72B 的最大性能看起来与 GPT-3.5 不相上下。
  • 到目前为止,所有这些基准都是普通话的。在英语中它仍然落后于 GPT4。尽管如此:与 175b GPT4 相比,70b LLM 有多好!
  • 为什么击败 GPT 4 如此困难且花费如此长的时间?
  • 更令人印象深刻的是,这是在制裁下通过拆解 4090 显卡下实现的。
  • Starling-LM-7B 的推出标志着语言建模领域的重大飞跃。Starling-LM-7B 由加州大学伯克利分校的研究人员开发,是一种开创性的大型语言模型 (LLM),它利用人工智能反馈强化学习 (RLAIF) 重新定义人工智能模型的训练和细化方式。这个突破性的模型利用了我们独特的 GPT-4 标记排名数据集、Nectar 和先进的奖励训练方法。Starling-LM-7B 的杰出成就——在 MT Bench 中相对于 GPT-4 获得 8.09 分——开创了语言建模的新时代,超越了除 GPT-4 和 GPT-4 Turbo 之外的模型,为 AI 语言理解树立了高标准。