Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
大语言模型LLM
大语言模型是在玩文字游戏?还是有人类意向性?
该文作者探讨了语言模型 (LLM) 可能在多个层面上具有意向性和代理的观点,质疑”机器人只是在玩聊天游戏“这样一个简单观点。 通过下棋LLM的例子,作者认为LLM可以归因于言外意向性。 作者认为,虽然LL
腾讯使用大语言模型增强基于Doris的OLAP服务
腾讯利用大型语言模型 (LLM) 增强基于 Apache Doris 的 OLAP 服务 腾讯采用大型语言模型 (LLM) 来增强其基于 Apache Doris 的 OLAP 服务。LLM作为将自然语言问题转换为SQL语句的中间体。
Java与GPT4All集成打造自己的AI
GPT4All 是一个生态系统,用于训练和部署强大的定制大语言模型 (LLM),这些模型在没有特殊功能(例如 GPU)的标准机器上本地运行。 GPT4All 在人工智能革命中打开了一扇新的大门,让您在不依赖云实例或封闭模型的情况下使用人工智能。GP
Transformers中原生支持的量化方案概述
概述 Transformer 支持的每种量化方案的优缺点,以帮助您决定应该选择哪一种。目前,量化模型主要用于两个目的: 在较小的设备上运行大型模型的推理 在量化模型之上微调适配器 到目前为止,已经做出了两项集成工作,并在 Transformer 中得
机器学习实际上只是旋转形状!
形状只是数字间几何图形
网友讨论Stephen Wolfram(斯蒂芬·沃尔夫勒姆)
《科学美国》的一文:
Petals:在家中就能运行P2P大语言模型
Petals是一个社区运行的系统:相互依靠人们共享他们的GPU。 Petals 以协作方式运行 Llama 和 BLOOM 等大型语言模型--您只需加载模型的一小部分,然后与提供其他部分服务的人员一起运行推理或微调。
低代码编程技术比较:VPL、PBD 和 PBNL
本文回顾了与低代码编程模型相关的研究,重点是可视化编程、演示编程和自然语言编程。它将低代码技术映射到目标用户,并讨论常见的构建块、优点和缺点。本文认为,特定于领域的语言和模型-视图-控制器模式构成了低代码技术的共同支柱和统一原则。 低代码包含很多专
哈特奖:压缩算法竞赛奖
Hutter 奖是一项奖励智能压缩器/数据压缩程序开发的竞赛,目前总奖金为 23,034 欧元。目标是将 1GB 文件 enwik9 压缩到小于当前记录的约 114MB。根据所达到的压缩程度,获胜者有资格获得高达 500,000 欧元的奖金。 竞赛
DeepMind《语言建模就是压缩》论文分析
DeepMind 的一篇新论文显示,LLM 在文本、图像和音频等不同模式的数据集上实现了最先进的压缩率。LLMs 是如何压缩数据的?它们又为何如此出色?让我们来了解和讨论论文中的结果。 论文基于预测等同于压缩的观点,即一个好的预测模型就是一个好的压
大型科学语言模型:关于 P 与 NP 的研究
使用大型语言模型(LLMs)来增强和加速对 P vs NP 问题的研究,这是理论计算机科学和数学领域最重要的开放性问题之一。 具体来说,我们提出了苏格拉底式推理(Socratic reasoning)这一通用框架,以促进使用 LLMs 进行深入思考
ChatGPT大语言模型只是句子补全?
如果你知道什么是马尔可夫链,就很容易把大语言模型想象成一个非常大的马尔可夫链,如果你知道,就把它等同于”句子补全“。 想象一下,你让一台计算机阅读世界上的每一本书,然后让它为书中的每一个三字短语构建一个列表。然后,对于每一个短语,你让它列出它所看到的在该短
代号为Gobi的GPT-5即将发布
据报道,OpenAI 正在加紧努力发布一种名为 GPT-Vision 的先进多模式法学硕士,代号为Gobi。 随着秋天的临近,谷歌和OpenAI陷入了一场传统的软件竞赛,旨在推出下
AI基准测试已经接近或超越人类
语音、图像、阅读、语言理解、小学数学、codegen --所有这些都接近或超过了人类的表现:
Apple 全新 Transformer 支持的预测文本模型
在今年早些时候的 WWDC 上,苹果宣布即将推出的 iOS 和 macOS 版本将配备一项由“
使用 ROScribe 自动创建 ROS 项目
ROScribe 是一个开源工具,它使用 GPT 询问您的机器人项目并为您创建 Python 中的 ROS 包。将自然语言翻译成机器人软件。 ROScribe 使用自然语言界面来描述机器人项目,消除了初学者使用 ROS 的技能障碍,并为熟练的工程师
通义千问:用于聊天、内容创建等的强大语言模型
阿里开发的Qwen系列,包括Qwen-7B和Qwen-14B,是经过大量多语言数据预训练的强大语言模型。 他们在基准数据集上具有竞争性的表现,可以执行聊天、内容创建、信息提取、摘要、翻译、编码和数学问题解决等任务。
多代理框架RECONCILE介绍
RECONCILE 是一个多代理框架,能让多个不同的大型语言模型 (LLM) 进行多轮讨论,并就复杂的推理任务达成共识。 它包括 3 个主要阶段:生成初始响应多轮讨论生成最终答案
上页
下页
关闭