大语言模型LLM
认知的计算模型:归纳模型

这篇综述重点介绍了过去三十年来在驱动归纳推理的过程的计算建模方面取得的进展。 这些模型的形式复杂性和解释范围都取得了重要进展。 需要注意的是,这项工作的大部分重点是证明给定模型可以很好地说明归纳... 详细
英伟达在机器学习领域CUDA垄断是如何建立的?

英伟达将来会面临越来越大的威胁吗?

随着 AI 行业的蓬勃发展,英伟达可能面临来自竞争对手的越来越大的威胁。 更多竞争对手进入AI芯片市场,如英特尔、AMD、三星和华为。这些公司正在开发自己的人工智能芯片,与英伟达的GPU竞争。 ... 详细
femtoGPT:Rust编写的最小GPT

femtoGPT 是最小生成预训练转换器GPT的纯 Rust 实现。 一切都是从头开始实现的,包括张量处理逻辑以及最小 GPT 架构 的训练/推理代码。 对于那些对 LLM 着迷并想了解这... 详细
OWASP 正在为大语言模型创建 10 大危险列表

Open Worldwide Application Security Project (OWASP) 是一个致力于提高软件安全性的非盈利基金会。 OWASP Top 10 for Large L... 详细
使用大语言模型LLM构建产品时的挑战和困难

有很多关于人工智能的炒作,特别是大型语言模型(LLMs)。直截了当地说,这些炒作只是一些演示性的废话,一旦有人试图将其用于他们工作所依赖的真正的任务,就会被推翻。 现实远没有那么光鲜亮丽: 在LL... 详细
大语言模型涌现的自主科研能力

基于 Transformer 的大型语言模型在机器学习研究领域发展迅速,应用范围涵盖自然语言、生物学、化学和计算机编程。从人类反馈中进行极端缩放和强化学习显着提高了生成文本的质量,使这些模型能够执行... 详细
提示工程与盲目提示 - Mitchell

展示了如何迅速工程可以是一个真实的的系统的方法,从语言模型中提取的价值。 “提示工程Prompt Engineering”源于语言模型的发展,描述了应用提示以有效地从语言模型中提取信息的过程,通常... 详细
大语言模型137个涌现特征列表 — Jason Wei

涌现 emergent :定义为一种能力“不存在于小模型中,但......存在于大模型中。” 在 大型语言模型的涌现能力 中,我们将涌现能力定义为“不存在于小模型中但存在于大模型中”的能力。... 详细
MemoryGPT 是有长期记忆的 ChatGPT

有了长期记忆,语言模型可能会更加具体——或者更加个性化。MemoryGPT 给人的第一印象。 语言模型中更大的 上下文 窗口有助于它们同时处理更多信息。 但是,缩放上下文窗口可能存在技术... 详细
上下文的长窗口是大语言模型的核心秘密

对于每一款新iPhone,我们都期望更长的电池续航时间。 上下文窗口长度是LLM的新电池。对于每一个新的GPT,将有更多,直到 上下文 变得无限。 上下文检索并不新鲜,可以与注意力深度整合,... 详细
如何使用Java对文本进行情感分析和分类?

就像我们与朋友之间的长期关系的发展一样,相互同情也在决定我们企业与客户关系的成功方面发挥着关键作用。当客户花时间在产品或服务的评论中输入他们的想法和感受,通过社交媒体平台分享他们的感受,或通过一些类... 详细
BloombergGPT:金融领域的大语言模型

NLP 在金融技术领域的应用广泛而复杂,应用范围从情感分析和命名实体识别到问答。 大语言模型 (LLM) 已被证明对各种任务有效;但是,文献中没有报道过专门针对金融领域的LLM。在这项工作中,我们... 详细