• 同学们注意啦!DeepSeek搞了个数学证明界的"解题小霸王"——DeepSeek-Prover-V2!这就像给电脑装了个超级数学大脑,而且还是开源的(敲重点:不要钱随便用!)。 DeepSeek-Prover-V2是: 一种专门为
  • (拍桌子)我跟你们说啊,这个海德格尔说白了就是个装神弄鬼的"哲学黑客"!(压低声音)而且这人还跟纳粹不清不楚的... 为啥正经搞语言分析的哲学家都懒得搭理他? 因为这人写的东西就像加密乱码!(突然掏出一瓶酒)你们德国人可能觉得能读懂他特厉害
  • 附完整测试数据+避坑指南 1️⃣ 量化王者:Unsloth版(0.371分)最接近原版BF16模型(0.375分)Bartowski Q4_0(0.352分)速度最快,性价比之选 2️⃣ 意外翻车 icon
  • Unsloth Dynamic v2.0 是一种超强AI模型压缩技术,专门用来让大语言模型(比如ChatGPT这类AI)变得更小、更快,但几乎不掉智商!减肥神器:原本几十GB的大模型,经过它压缩后可能只剩几GB,但性能几乎不降!加速神器:压缩后的模型跑得更快 icon
  • 阿里千问发布超强AI大脑全家桶——Qwen 3!这次一口气放了8个型号,从迷你款(0.6B)到巨无霸(235B)全都有! icon
  • 人类思考的本质:我们不是逻辑机器,而是“经验缝合怪”   Geoffrey欣顿说,我们越了解人工智能和大脑实际上是如何工作的,人类的思维就越不像逻辑。我们不是推理机器,他说。我们是类比机器。我们通过共鸣而不是演绎来思考。 icon
  • 最近那些超级AI(比如DeepSeek之类推理模型)变得特别会做题,秘诀就是让它们像人类一样"把思考过程写出来"。但这篇论文发现了个反常识的现象——有时候不思考反而更厉害! 神奇发现:用最新AI"深度求索- icon
  • 几周前,我受到最近使用LLM驱动Blender的启发,Blender是广泛用于动画的开源建模工具。鉴于LLM在生成代码方面非常出色,也许CAD icon
  • (开场暴击)家人们谁懂啊!谷歌AI从被ChatGPT吊打到如今绝地反杀,这波操作简直像学渣逆袭成年级第一! (对比拉踩) ChatGPT能火全靠"网红体质"——毕竟全抖音都在玩。 Anthropic(Claude母公司)走的是"学霸 icon
  • Llama 4 Maverick在单个RTX 4090上以45 tk/s的速度本地化-我终于让它工作了! 我刚刚完成了一个后续的演示,我从Meta的4000亿参数,128个专家Llama 4 Maverick中获得了每秒45个以上的令牌,我想分享完 icon
  • 太疯狂了!科学家们最近发现,像GPT这样的大模型(LLM)在处理数字时,用的根本不是我们人类那套计算方法。它们竟然把数字变成"螺旋线"上的点,然后用三角函数来算加法——就像用转圈圈的方式做数学题! 具体来说是这样的:1. 数字变成"陀螺": icon
  • Gemini 2.5-Pro最牛的不是写代码多厉害!是它能像吃了记忆面包一样——哪怕你哔哔叭叭说上三天三夜,它每个字都记得门儿清!说人话就是:终于不用像以前聊15分钟就失忆重启了,现在能像打游戏存档一样一直玩下去!(突然激动)求求谷歌把《双城之战》里那种黑科技传给Gemini啊! < icon
  • 小语言模型本地AI能否干翻谷歌大模型Gemini 2.5?实测7款"野生学霸"表现! 参赛选手小模型名单: 通义千问Qwen 3 1.7B 小不点 通义千问Qwen3 4B 三好生 通义千问Qwen3 8B Q6 课代表 < icon
  • 最近有个叫Anthropic的AI公司(创始人是OpenAI前员工)搞了个大新闻!他们把自己家AI助手"克劳德Claude"的聊天记录扒了个底朝天,就想看看这AI三观正不正。结果发现这AI平时确实是个"三好学生",但偶尔也会被网友带歪画风! ▶ 70万条聊 icon
  • Phi-4-reasoning是一种最先进的开放权重推理模型,它是在Phi-4的基础上进行微调的,使用的是对思想链跟踪和强化学习数据集的监督微调。 Phi-4推理小能手就像你们班那个数学突然开窍的同学——本来是个普通学生(Phi-4基础版),但老师给他吃了 icon
  • 这个"SOLO Bench"测试有多变态! 这玩意儿是个专门折磨AI的"造句地狱"——让AI用大约4000个单词的词库,硬憋出250个句子!每个句子必须严格4个单词,还得符合特定语法格式。最狠的是:每个单词全篇只能用一次!(比如"apple"用过一 icon
  • 家人们!刷到个超硬核的招聘!MoAIJobs刚po的——惠普家的AI特种部队'HP IQ'在旧金山招人啦! 重点来啦!招的是'机器学习特种兵',专门研究怎么把AI塞进手机电脑这些小设备里! icon
  • 我跟你们说个超神奇的事儿!Qwen3这回居然把AI乱编瞎话的老毛病给治了!我每次测试新AI都像老师抽查背书一样,专门让它背法语德语的名诗。结果你猜怎么着?这个2350亿参数的Qwen3明明个头不够大(要知道背欧洲诗歌起码得6000亿参数的大块头),还是个"偏科生"模型(MoE技术让它不能同时用全部脑 icon