Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
大语言模型LLM
扒一扒谷歌诺贝尔奖得主背后八卦
本周,诺贝尔化学奖和物理学奖授予了谷歌旗下的少数人工智能先驱,引发了有关该公司研究主导地位以及如何认可计算机科学突破的争论。 谷歌一直处于人工智能研究的前沿,但在应对微软支持的OpenAI竞争压力时,它被迫采取守势,同时面临美国司法部日益严格的监管审查。<
Transformer其实是一种集合Set处理器
Transformers的一个常见误解是认为它们是一个序列处理架构。其实不是,他们是一个“集合处理(set-processing)”架构。Transformers是100%顺序不可知的(这是与RNN相比的重大创新)。 Transformer模型在处理序列数
南辕北辙:大语言模型不会通向AGI?
这些有意义吗? 微软正在重新启动三哩岛核电站,以便为其下一代 AI 数据中心之一提供电力。 Anthropic.ai 的首席执行官预测,我们很快将需要价值 1000 亿美元的模型。 萨姆·奥特曼 正在寻求 7 万亿美元来实现 AGI。 是的,大语言模型 (L
轻松从代码库生成 LLM 提示:code2prompt和vscode2prompt
code2prompt是一个命令行工具(CLI),它将您的代码库转换为具有源树、提示模板和标记计数的单个 LLM 提示。 可以在整个目录上运行此工具,它会生成格式良好的 Markdown 提示,详细说明源树结构和所有代码。然后,您可以将此文档上传到
Ministral 8B:比Mistral 7B LLM 更强大
Mistral AI 推出 Ministral 8B,这是其广受欢迎的 Mistral 7B LLM 的更强大的继任者。8B 级 Ministral 总体成绩最好,尤其是在知识、常识和多语言技能方面。 法国人工智能初创公司 Mistral AI 宣布了两种
将网页转换为Markdown的免费在线转换工具
将网页转换为Markdown并轻松将其复制到剪贴板的免费转换工具,点击标题进入。 这是基于Jina 提供了一个Reader API
LLM安全入门:为初学者破解大语言模型
本文试图为那些对 LLM 安全性感兴趣的人提供第一本入门书。 基本建议: 不要相信 LLM 的输出,在使用之前尽量检查输出。这对于与输出交互的人以及依赖输出的系统或组件都适用。 从安全角度来看,应将 LLM 本身视为复杂应用
苹果智能:本地AI代理框架CAMPHOR
苹果的人工智能研究团队推出了 CAMPHOR,这是一个新的人工智能框架,旨在在移动设备上本地处理复杂的用户查询,同时保护用户隐私。 苹果的本地 AI 代理框架CAMPHOR为更有用的 Apple Intelligence 铺平了道路。
OpenAI o1工作原理简介
OpenAI的O1是如何工作的? 这里是我最近读过的关于LLM推理的论文摘要列表。 我将它们分为2类:1)基于提示的-执行一步一步的推理自我纠正流程纯粹使用提示2)基于学习的-将上述内容烘
Arch:一个智能提示网关
Arch 是一个智能的第 7 层网关,旨在使用您的 API 保护、观察和个性化 LLM 应用程序(代理、助
LLaMA替代HuggingFace成为新行业标准
Meta/LLaMA正在消除其模型对HuggingFace栈的依赖,这非常有趣(而且聪明)。 LLaMA模型现在: 有自己的网站可以下载权重。 拥有最好的大型语言模型(LLM)手册之一。 提供广泛的文档/教程。
不要再混淆AI人工智能和生成人工智能GenAI
将人工智能与 ChatGPT 等生成式人工智能技术等同起来,就像是把树枝误认为整棵树一样。 介绍在当今世界,人工智能已成为一个统称,几乎涵盖了所有能够实现智能的软件。就像最新的时尚潮流一样,将某样事物打上人
小语言模型存在重大推理缺陷
一项新研究发现,人工智能语言模型的推理能力存在重大缺陷,尤其是那些规模较小且价格较低的模型。这些模型在解决链式基础数学问题时会遇到困难。 Mila 研究所、Google DeepMind 和微软研究院的研究人员调查了不同的 AI 语言模型在解决小学数学应用
研究发现:大语言模型类似“共识机器”
哈佛大学的一项新研究将大型语言模型 (LLM) 与众包进行了比较。该研究揭示了为什么人工智能系统经常对一般性话题给出正确答案,但对具体问题却容易犯错。 研究人员 Jim Waldo 和 Soline Boussard 认为,人工智能语言模型的功能类似于众包
Meta Llama 3.2:深入了解视觉功能
Meta Llama 3.2模型很棒,确实是开源万神殿的一大补充。它非常适合日常使用,考虑到隐私和成本,它可以成为 GPT-4o 这类任务的潜在替代品。不过,GPT-4o 对于困难任务还是更胜一筹,比如医学图像分析、股票图表分析等等。 Meta 发
所有大模型正在趋同
所有大模型正在趋同,合成数据导致大模型缺乏原创性 在 GPT 3.5 和 GPT4 出台后,绝大多数开源微调都是在 GPT 系列的合成数据上训练出来的。显然,Llama 2 也是在同样的合成数据基础上训练出来的,这就导致了同样干巴巴的说话方式和 GPT 模
英伟达开源新AI模型:NVLM 1.0
Nvidia 刚刚投下一枚重磅炸弹: 它的新人工智能模型是开放的、大规模的,可与 GPT-4 相媲美。 英伟达发布了强大的开源人工智能模型,可与 OpenAI 和 Google 等行业领导者的专有系统竞争。 该公
异步实现 Anthropic 的上下文检索
关于如何实现Anthropic的上下文检索技术并结合异步处理的博客文章。这篇文章来自Instructor网站,讨论了在RAG(Retrieval-Augmented Generation)系统中,如何通过上下文检索技术来保留关键上下文信息,从而提高检索效率。
上页
下页
关闭