Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
语言文字游戏
什么是Context上下文?
当你没有意识到上下文时,你永远就被置于上下文中!中国谚语:当局者迷、灯下黑、身在庐山不识庐山真面目。G.K.切斯特顿:每一个高级文明都会因为忽视显而易见的事情而衰败。 Context Context
乔治·卡林的《软语言》
软语言是美国喜剧演员乔治·卡林创造的一个短语,用来描述掩盖现实真相、削弱生动性的委婉表达方式。 软语言是通过委婉语和行话表达现实,他认为美国人应该使用温和的语言来避免令人不舒服的事实。(避免抬杠,杠精的委婉用语)
现代逻辑学五位先驱
"每一位优秀的数学家至少有一半是哲学家,而每一位优秀的哲学家至少有一半是数学家"。-- 戈特洛布-弗雷格 人类历史上最具影响力的 5 位逻辑学家: 1) 亚里士多德他可以说是有史以来最伟大的逻辑学家和最有
AI角色扮演之王:Mistral7B
就其规模大小而言,Mistral7B是 RP 新的操作系统之王,甚至比 LLAMA-2 13B 更好。
DeepMind《语言建模就是压缩》论文分析
DeepMind 的一篇新论文显示,LLM 在文本、图像和音频等不同模式的数据集上实现了最先进的压缩率。LLMs 是如何压缩数据的?它们又为何如此出色?让我们来了解和讨论论文中的结果。 论文基于预测等同于压缩的观点,即一个好的预测模型就是一个好的压
卡尔·萨根的“胡说八道”检测工具
这篇文章讨论了卡尔·萨根的“胡说八道检测套件”,这是科学家用来评估新想法和检测欺骗的工具和技术。 该工具包不仅仅是一个科学工具,更确切地说,它包含健康怀疑主义的宝贵工具,这些工具同样优雅且必然地应用于日常生活。通过采用该工具包,我们都可以保护自己免
贝尔实验室的创新源泉是什么?
贝尔实验室可能是美国有史以来最具创造力和创新力的组织。 贝尔实验室有多大的创造性和创新性? 从 1937 年到 2018 年,它九次获得诺贝尔奖,四次获得图灵奖(被广泛称为 "计算机界的#诺贝尔奖")。 没有贝尔实验室,就没有手机。
为何大模型无法像人那样理解概念?
一个思想实验说明了为什么像 ChatGPT 这样的大模型 LLM 无法像人类那样 "理解 "概念: 想象一下,你用大量纯中文文本训练 LLM。 再想象一下,你用大量纯英文文本训练同一个 LLM。 重要的是,LLM 从未看
逻辑和算术运算符的符号起源
在计算机科学中,逻辑运算符和算术运算符中的符号是如何产生的?加运算符和减运算符的符号是合理的,但乘除运算符 * 和 / 是如何选择的?同样,为什么 && 和 || 用于逻辑 AND 和 OR 运算?答案在于编程语言和字符集的历史发展。这些符号中的许多都是基于早期计算机有限的字
大语言模型容易挖坑的科学原因
所有的人工智能炒作都将大模型LLM捧得很高,但实际上,LLM 只不过是在大量数据基础上训练出来的大型变压器神经网络,在预测下一个单词方面非常出色。 结构调整、提示工程和 RLHF 这些巧妙的技巧使它们的性能更上一层楼,但从根本上说,它们并没有什么神奇或神秘
Slowify:组织制胜秘诀
我与 Steve Spear 博士合着的新书《
AI像人类一样通过犯错误学习语言
来自《自然》杂志的文章:人工智能“突破”:神经网络具有类似人类的语言泛化能力。 两位科学家创建了一个人工神经网络,它展示了类似人类的语言概括能力。 人工智能 (AI) 系统在将新学到的单词折叠到现有词汇中
思想本身就是一种语言的涌现?
萨皮尔-沃尔夫假说(Sapir-Whorf hypothesis)认为,一种语言的结构和词汇可以塑造语言使用者对世界的感知和概念。 前苏联心理学家列夫-维果茨基(Lev Vygotsky)认为,虽然思维和语言开始时是不同的系统,但在儿童成长过程中它们会融合
ChatGPT帮助人们做了哪些事?
1、当我大约 3 年前开始编码时,零编码经验。学习缓慢而艰难,没有真正的课程,只有视频和乱七八糟的东西以及大量的试验和错误。然后是 GPT。我不仅在过去 6-8 个月内完成了比以往更多的工作,而且我真正学到了在人类指导下无法真正实现的规模的信息。确实,这就像我所希望的最好的老师。
认知偏见:本周科技摘要
你是否可以判断出以下科技摘要都存在严重的认知偏见和误导? 1、比尔·盖茨推出人工智能,可以决定你可以阅读哪些书籍、电影和音乐?比尔·盖茨宣布计划推出一种新的人工智能 (AI) 算法,该算法将根据您的社会信用评分决定您可以观看哪些电视节目、电影和书籍
A11y是“无法访问”行话
可访问性Accessibility 是一个很长的词。它不是最容易阅读或拼写的单词,因此它似乎是一个很好的缩写词。 accessibility 的常用缩写是 a11y。 取自 accessibility 的开头A和结尾Y,11 代表中间的字母数。这个
大语言模型也会阿谀奉承吗?
从人类反馈中强化学习(RLHF)是一种用于训练高质量人工智能助手的流行技术。然而,RLHF 也可能鼓励模型做出与用户信念相匹配的反应,而不是真实的反应,这种行为被称为 "谄媚"。 我们研究了在 RLHF 训练的模型中 "谄媚 "行为的普遍性,以及人
BIDARA:仿生设计和研究助理
美国宇航局的BIDARA 是一个 GPT-4 聊天机器人,旨在帮助科学家和工程师理解、学习和模仿生物所使用的策略,以创建可持续的设计和技术。 这个生物启发设计和研究助理说明了特定领域的词汇表如何推动更复杂的想法。<
上页
下页
关闭