Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
大语言模型LLM
分类:解锁认知的核心密钥
霍夫斯塔德的《表面与本质》这本书很不错,是一本500页的书,讲的是思想的本质。他基本上是给你列了一大堆例子,来证明所有的思维归根结底都是靠类比(analogy、category )推动的。 他认为所有的想法都首先得
Perplexity发布“去审查”DeepSeek版本
Perplexity刚刚发布了经过培训的DeepSeek R1,用于提供事实和公正的信息- MIT许可。语文数学能力双解放,敢说智商不掉线! R1 1776 是一个 DeepSeek-R1 推理模型,经过 Perplexity AI 后期训练,可消
DeepSeek强化学习终获顶级学府认可
传统观点:学术界提供理论基础,业界推动应用落地 是,但是实际上正好反过来,业界其实创新在前,学术界才确认理论。 最近,麻省理工学院、康奈尔大学、华盛顿大学和微软研究院的学术人员开发了一个叫“通过自我对弈进行强化学习”(简称RLSP)的系统。这个系统可以教那
Grok 3语音炸裂:口吐芬芳与人互喷
Grok3这个大模型不简单,火力全开,成了暴躁老哥/老姐。 埃隆·马斯克的人工智能公司搞出了个Grok 3的语音功能,这玩意儿能说些露骨的话,还能表现出超级夸张的个性,跟其他对手的做法完全不一样。 xAI给他们的
DeepSeek满血碾压o3-mini,登顶王位
DeepSeek R1 671 B 刚刚以 198 tokens/秒的速度打破了推理速度记录,成为了目前最快的推理模型! 哇!DeepSeek-R1 671 B 真的超级厉害!它在 SambaNova Cloud 上跑出了 198 tokens/秒
Grok 3性能被低估,潜力巨大或超越o3!
人们严重低估了 Grok 3 的性能。我知道我们都不太喜欢马斯克,但我们能不能稍微客观一点,看看它的表现到底怎么样呢? 有些人会说:“嗯,它还是比
GPT-4.5震撼发布:10倍算力提升情商
GPT-4.5以“研究预览版”的形式发布,OpenAI Pro(每月 200 美元)客户和拥有 API 密钥的开发人员均可使用。OpenAI 还发布了GPT-4.5 系统卡。 现在它的价格非常昂贵:目前每百万输入代币 75.00 美元,每百万输出代
Framework Desktop:跑DeepSeek够不够强
Framework Desktop是不是被吹得太厉害了,说它能跑DeepSeek这样的大模型LLM?但实际上,它的内存不够大,没法搞MoE(专家混合模型),带宽也不够,跑不了那些需要大量计算的密集型模型。 理论上,128GB内存跑LLM会因为带宽不够而卡顿
三个绝招大模型助力破解Github代码
本文介绍三种方法将Github开源项目交给大模型帮助你分析,阅读代码! 1、将Github网址中的“github”替换为“gitingest”这是一个与LLM讨论整个
Deepseek成有史以来最受欢迎大模型
2025年DeepSeek中国三AI强势晋级世界赛
2025 年将是人工智能的疯狂时代:2025 年是人工智能发展的疯狂一年。就在去年,ChatGPT、Claude 和 Gemini 还是人工智能发展的主角。 现在?我们有一场人工智能大战,每个人都在 Deepseek、Kimi、Meta、Perpl
Claude 3.7称王:编码模型新霸主
Anthropic 推出 Claude 3.7 Sonnet,结合直接回答和“扩展思考”模式,推理能力强,还出了编程工具 Claude Code。模型在数学、编程上表现超棒,能省时间,目标是 2027 年收入超 OpenAI 三倍,今年就能赚钱。 Anth
Grok思考模式曝光:马斯克在操控真相
Grok思考模式泄露揭示系统提示,大资本家马斯克在操控AI,引发对信息操控和真相定义的质疑与反思。 有人用这个提示询问Gr
大模型助独立开发:效率提升,灵感迸发
Harper Reed 描述了他如何用大型语言模型(LLM)来帮忙写代码的过程。 这个过程显然是他经过深思熟虑的,而且已经发展了很多,还在不断改进。 Harper 在开始一个新项目时,会先进行
失败案例:GPU算力租借
这篇文字主要讲述了公司在构建公共云服务过程中,对GPU支持的探索和挑战。公司最初投入大量资金,押注于为AI/ML推理任务提供GPU支持,并创建了Fly GPU Machines。然而,尽管GPU在AI/ML领域的重要性被正确判断,但公司发现其产品可能并不适合当前市场需求,尤其是开发者更倾向于
网友亲测GPT-4.5:它能揭秘绝密资源
网友测试多个AI模型,发现GPT-4.5在回答涉及绝密资源的问题时表现出色,准确揭示秘密且无幻觉答案,显示其在知识理解和推理能力上的巨大飞跃,远超其他模型。 我有一个问题,自从 GPT-3.5 出来以后,我每次遇到新的 AI 都会问它,因为这个问题
GPT4.5代表预训练时代正式结束
OpenAI内部及业界专家(如Ilya Sutskever等)此前就曾预测,预训练的扩展性有限,未来需要新的范式。GPT-4.5的发布似乎验证了这一预测:它可能是Op
证据表明:GPT-4.5实际超出扩展预期
很多人一直在说,GPT-4.5 证明了“扩展定律失效”或者“没有达到大家预期的改进效果”。但有趣的是,这些人似乎从来没有拿出任何实际的数据来证明 GPT-4.5 的扩
上页
下页
关闭