Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
大语言模型LLM
谷歌宣布其AI获得奥数IMO史上首位非人类金牌
各位数学学渣(包括我)请注意!你们的人类尊严正遭受最新暴击,谷歌那个名叫Gemini with Deep Think的 "数字学霸"刚刚在国际数学奥赛(IMO)把金牌揣进了电子口袋。这货不仅用4.5小时解出5道变态难题,还像写情书一样全程用英语写证明过程,最后喜提35分(满分42),直接杀入
别被ChatGPT忽悠了!拆穿AI三位一体骗局
今天咱们要拆解一个听起来高大上但其实超级接地气的概念——AI"三位一体"!别被名字吓到,这其实就是输入、训练数据和输出的"铁三角"关系。就像你妈给你喂什么就长什么样,AI也是吃啥变啥! 第一误区大揭秘:总有人说AI像魔法黑盒子能"懂"人话?大错特错
ChatGPT5疑获奥数IMO金牌:不用工具纯靠吹
2021年冬天,硅谷两位AI先知——"保守派"保罗和"狂想派"埃利泽,就"AI何时能吊打奥数冠军"展开了一场史诗级嘴炮。保罗怂兮兮地押注4%概率,活像在菜市场砍价:"要不...8%?不能再多了!"而埃利泽直接梭哈16%,还附带经典输家语录:"都怪组委会要求开源!"
超越DeepSeek中国开源超大模型Kimi K2发布
K2 甚至比 DeepSeek v3 更强大,可以与 Claude Opus 4 和 GPT-4.1 相媲美! Kimi K2是一个最先进的混合专家(MOE)语言模型,拥有320亿个激活参数和1万亿个总参数。经过Muon优化器的训练,Kimi K2
写在Kimi K2发布之后:再也不仅仅是ChatBot
这篇文章是Kimi K2发布后不久,Kimi团队成员写的个人反思。 ·超越聊天机器人:Kimi K2实验了一种“工件优先”的交互模型,该模型让AI立即构建交互式前端可交付成果--如PPT页面、图表,甚至是小游戏--而不是简单地返回markdown文
Awesome-Context-Engineering:AI上下文提示指南
情境工程的全面调查:从即时工程到生产级AI系统。数百篇论文,框架和LLM和AI代理的实施指南。 在大型语言模型时代,静态提示的局限性越来越明显。上下文工程代表了解决LLM不确定性和实现生产级AI部署的自然演变。与传统的提示工程不同,上下文工程包括在
从DeepSeek-到Kimi K2:大模型架构设计吐槽大会
聊聊从DeepSeek-V3到Kimi K2,这些酷炫的现代大语言模型(LLM)的“身体构造”到底有啥不一样,为啥它们能变得越来越聪明、越来越能打!一、DeepSeek-V3:藏着“深海巨兽”和“专家团”的秘密
中国开源Kimi K2性能和价格吊打Claude 4
【震惊!】开源界突然空降"Claude 4杀手"——Kimi K2模型! 这玩意儿到底有多猛?给大家划重点:参数规模突破万亿大关(相当于960GB的超级大脑),比隔壁Deepseek v3的6710亿参数还豪横运行
英伟达新模型:用Qwen+DeepSeek炒冷饭
听好了!英伟达搞出了一堆叫"OpenReasoning-Nemotron"的模型(1.5B/7B/14B/32B四个版本),吹得天花乱坠说在同类开源模型里"史上最强"。其实不就是把Qwen2.5架构拿来修修补补,用那个什么DeepSeek-R1-0528生成的数据训练了一下嘛!
Meta计划放弃Llama 4 专注于构建闭源模型
Meta最近闹了个超级尴尬的大新闻——他们原本打算今年放出来的“AI巨无霸”Llama 4 Behemoth(官方吹上天的2万亿参数巨兽),可能要被直接扔进垃圾桶了! 据《纽约时报》爆料,Meta可能要把压箱底的Llama 4"巨兽"AI模型给雪藏
PPO/DPO/ORPO三连击:大模型强化训练秘籍
用打游戏升级的套路教你调教AI大模型!PPO/DPO/ORPO/GRPO算法全解析【作者】Mehul Jain --- 当AI大模型遇上强化学习:像训练宠物一样调教ChatGP
AI代码对决:Grok4碾压Gemini2.5,10分钟完胜!
Grok 4 Heavy (左) V.s. Gemini 2.5 Pro (右) 用 C 语言创建一个图灵完备的 Scheme 解释器,该解释器支持词法范围、闭包、连续和适当的尾调用,以实现无堆栈增长的尾递归。
告别人工标注!GRPO算法调教小模型全纪实
用强化学习调教小模型学会"动脑筋"——手把手带你用PyTorch训练GRPO推理模型作者:Avishek Biswas 最近,大模型们(DeepSeek-R1、Gemini-2.5、OpenAI-o1、Claude、Qwen3……)都流行“
Kimi K2震撼登顶:全球创意写作基准新王者!
在所有六项任务中,Kimi K2的优势是毋庸置疑的:它写的故事超有文采,各种高级隐喻信手拈来,结构清晰,主题还特别宏大!该模型显示了对文学工艺的复杂掌握,始终如一地提供充满隐喻,结构连贯,主题雄心勃勃的故事。 它最大的特点是它能够轻松地整合
谷歌混合递归MoR:Transformer架构再升级
Google DeepMind的新论文探索了一种新的高级Transformers架构,称为Mixture-of-Recursions,它使用递归Transformers,每个令牌具有动态递归。 谷歌放大招:让AI学会“动脑筋”,不用再傻乎乎地算到底
强化学习的悲剧:一场学术自嗨的慢性自杀
《强化学习的荒诞悲剧:当阿拉丁神灯又被塞回瓶子里》 ——论学术界如何用"严谨"谋杀了AI最有潜力的分支 (一)黄金时代:当强化学习还是个热血少年2017年的强化学习(RL)就像刚拿到超能力的中二病少年,整天
所有大语言模型最终会统一成一个物理AI
柏拉图:「真实世界是完美理念的投影」,所有AI都在逼近同一个「真理模型」,就像用不同角度拼同一幅拼图。 科学家发现: 视觉AI:识别猫的脑神经元和识别狗的神经元结构相似 语言AI:中文AI和英文AI对「爱情」这个概念的理解本
特朗普演讲难倒AI:ChatGPT 难以理解隐喻
唐纳德·特朗普总统最近的政治演讲,成为大型语言模型能力与局限性的试验场。通过分析四次重要演讲中嵌入的隐喻,研究人员不仅深入了解了特朗普的修辞策略,还揭示了像 ChatGPT 这样的人工智能系统在理解政治语境中的比喻性语言方面存在的关键弱点。他们的研究成果发表在《心理学前沿》杂志上。
上页
下页
关闭