Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
大语言模型LLM
AI拒写代码,反怪程序员逻辑不行
人工智能编码助手 Cursor 最近做了一件挺有意思的事,它告诉一个叫“janswist”的用户,让他自己写代码,而不是依赖 Cursor 帮他完成。这让我们看到了机器人在工作中也能有自己的“态度”。 事情是这样的:janswist 用 Cursor 这个
用第一性原理引导AI思路:跳出模式匹配局限
在使用大模型时,应该从第一性原理(First Principles)思考,而不是依赖过去的模式匹配,可以帮助我们更好地预见和应对未来的变化。这种方法强调从最基本的原理出发,重新构建对问题的理解,而不是简单地依赖过去的经验或现有的框架。 以下是对这一观点的详
文明转向:注意力转向大模型而非人类
Andrej Karpathy认为:现在大部分内容还是写给人类看的,而不是给LLM(大型语言模型)用的。 他认为:2025年应该开始转变为:99.9%的注意力将会是LLM的注意力,而不是人类的注意力。
AI自动吐代码:Context决定成败
关于用大型语言模型(LLM)帮忙写代码的网上讨论,总会有一些开发者跳出来说他们的体验很糟糕。他们常常问自己到底哪里做错了——为什么有些人说效果特别好,而他们自己试了却发现问题一大堆? 用LLM写代码其实挺难的,也不那么直观。要想搞清楚怎么用它、什么
氛围感编程的12条黄金法则
在使用大模型自动生成代码时需要注意的12大陷阱,可作为AI自动编程和Vibe编程的最佳实践,将氛围感拉满: 1、你要停止挖掘现在的AI模型在遇到问题时,不太懂得停下来思考。比如说,你想做一个功能X,但在做的过程中发
AI下一步:模型就是产品
过去几年,大家都在猜人工智能下一步会怎么发展。是搞代理智能体?推理机?还是真正的多模态? 我觉得现在可以这么说:模型本身就是产品。 现在的研究和市场发展都在往这个方向走:
法国顶级小模型Mistral Small 3.1发布,比肩阿里千问!
Mistral Small 3.1 是一个很厉害的、真正优秀的本地模型,用的是 Apache 2.0 许可证。现在的 AI 应用需要很多功能——比如处理文字、理解多种类型的输入(比如图片)、支持多种语言、还能处理很长的上下文内容,同时还要反应快、成本低。
模型上下文协议MCP简单解释
模型上下文协议(MCP)就像是AI应用程序的“万能插头”——USB-C接口。就像USB-C可以让你用同一个接口连接各种不同的设备一样,MCP也让你的AI应用程序能够用一种标准化的方式连接到各种各样的数据源和工具。接下来,我们用大白话一步步解释MCP是啥。
Gemma 3微调提速1.6倍,VRAM节省60%
Gemma 3 现已在 Unsloth 中进行微调 - 速度提高 1.6 倍,VRAM 减少 60% Gemma 3 现已在 Unsloth 中支持微调,显著提升了训练效率。Unsloth 通过优化算法和硬件适配,使微调速度提高了 1.6 倍,同时
autoMate:理解屏幕的开源智能助手
人工智能驱动的本地自动化助手,让你的计算机为你工作,类似manus和
大白话简要介绍Transformer注意力
Transformer 是一种神经网络结构,现在特别火,主要用来做文本生成、机器翻译之类的任务。但在 Transformer 之前,大家用的是 RNN 和 LSTM 这种模型来处理序列数据(比如一句话)。不过,这些模型有个问题:它们不太擅长处理长距离的依赖关系。因为它们是按顺序处理数据的,很
惊爆!Manus竟是Sonnet+29个工具的包装?
DeepSeek给全世界的余波还未消,来自华人Manus又铺天盖地在各大自媒体 抖音 账号轮番炒作了一次,但是这可能暴露了自己的不专业,因为DeepSeek火爆有理论
openai-agents:OpenAI智能体Swarm升级
OpenAI今天发布的另一项重大公告:用于构建“代理/智能体/agent”的 Python 库( openai-agents),以替代他们之前的swarm 研
谷歌Gemma 3:单GPU性能超DeepSeek
谷歌认为自家Gemma 3是“世界上最好的单加速器模型”,在单个 GPU 上比 Facebook 的 Llama、DeepSeek和 OpenAI 的模型都强,而且在
简单解释Transformer是模拟状态的分布
这篇文章通过非传统的方式探讨了Transformer模型的工作原理,强调了它们作为状态模拟器的角色,能够根据上下文动态调整预测状态。作者分享了自己通过实验和代码分析逐步理解模型的经验,指出温度参数如何影响输出分布,并展示了模型在ASCII艺术生成等任务中的泛化能力。文章鼓励通过实践和质疑来建
英伟达2025 GTC扔出六项重磅AI技术
Nvidia 在 2025 年的 GTC 大会上推出了一堆新产品和新技术,准备迎接 AI 推理的新时代。这次发布会的重点是 BlackwellUltra 平台。
AI进步有限,AGI梦想或破灭
这是来自Thane Ruthenis的AI悲观预测一文,作者认为,尽管这些模型在某些方面表现出色,但它们并没有达到真正的通用人工智能(AGI)的水平。以下是对这段文字的简化解释:模型的个性:通过让模型具有更好的个性,可以更容易地判断它们是否“聪明”。例如,Sonnet 3.5
谷歌发布全新Gemma 3小模型系列
Google Deepmind 推出了一个叫 Gemma 3 的新一代开放式 AI 模型。这个模型的特点是占用空间小但性能高,所以它可以在单个 GPU 或 TPU 上运行。 Google Deepmind 说,虽然这些模型体积小,但在初步测试中,它
上页
下页
关闭