Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
符号推理与形式逻辑
大语言模型背后的原理 - arxiv
语言本质上是一个由语法规则支配的复杂、错综复杂的人类表达系统。它对开发能够理解和掌握语言的人工智能算法提出了重大挑战。 作为一种主要的方法,语言建模在过去20年里被广泛研究,用于语言理解和生成,从统计语言模型发展到神经语言模型。
ChatGPT促成了乔姆斯基语言体系的崩塌
乔姆斯基的理论基于这样一种观点,即所有语言都具有相似的结构和规则,也称为通用语法。该理论指出,所有语言都具有形式上的共性和共同原则,对于语言之间语法和特征的变化具有特定的选择和限制。 在许多不同的文化中,有许多语言
语言学家:ChatGPT与人类完全不同
大型语言模型(简称LLM)输出的词语自然得听起来像人说的,我们应该如何解释这种机制呢? 这些模型是建立在统计学之上的。它们的工作方式是在大量的文本中寻找模式,然后利用这些模式来猜测一串词中的下一个词应该是什么。
人工智能会夺走我们所有的工作并结束人类历史吗? - Stephen Wolfram
ChatGPT 的内部实际上在计算上可能与大脑非常相似——由数百万个简单元素(“神经元”)形成一个“神经网络”,其中包含数十亿个连接,这些连接已通过渐进的训练过程“调整”直到他们成功地再现了所有这些网页上看到的人类书写文本的模式,等等。即使没有训练,神经网络仍然会产生某种文本。
衰老其实是一种软件设计Bug
衰老是所有人类与生俱来的,但我们为什么会变老仍然是一个争论不休的话题。大多数对衰老的机械解释都假定衰老是由一种或多种形式的分子损伤的累积引起的。在这里,我建议我们变老不是因为硬件不可避免的损坏,而是因为软件的内在设计缺陷,定义为协调单个细胞如何发育成成体有机体的 DNA 代码。
生成式 AI 是下一个大事件吗?
最近的人工智能发展令人惊叹,并有望改变世界。 1、文本生成:生成连贯人类语言的软件 语言模型产生连贯文本的能力感觉像是人类技术的一个转折点。同样令人印象深刻的是这
我们是以名词为中心的思维方式 - Carlos E. Perez
我对复杂性的第一次遭遇是在软件开发过程中。你不会在大学遇到这种情况,而是在现实世界中遇到。应对这种复杂性需要一种截然不同的思维方式(参见:敏捷方法)。 敏捷方法是由来自建筑学的 Christopher Alexander 提出的。当您第一次遇到模式
人工智能可以告诉我们关于人类智能到底是什么?
将人类的专业知识提炼成一套规则和事实是非常困难、耗时且昂贵的。这被称为“知识获取瓶颈”。 虽然编写数学或逻辑规则很简单,但世界本身却非常模糊。 这正是神经网络擅长的地方:发现模式和接受歧义。神经网
未来我们会给大模型嘴巴贴上封条吗?
本文来自《大语言模型和逆向图灵测试 - mit》一文,详细点击标题。 人类常常低估其他动物的智力,因为它们无法与我们交谈。 专家们对LLM大模型智力的分歧意见表明,我们基于自然智力的旧观念已经过时。
为乔姆斯基辩护 - garymarcus
当我在研究生院的时候,在20世纪90年代初,一项流行的运动是 "扑向诺姆-乔姆斯基"。 他每年都会举办一系列关于语言学和思想的讲座。我去了,其他数百人也去了。每周都会有一群人站起来对乔姆斯基进行抨击,相信如果他们能让世界上最聪明的人之一出丑,似乎就
人类认知的最大成就可能主要是涌现现象
“人类认知的最大成就可能主要是涌现现象(Emergence )。” - 詹姆斯湖麦克莱兰 对人类智力的研究曾经被符号方法所主导,但在过去的30年里,出现了另一种方法:涌现Emergence 从涌现Eme
在会计方面,ChatGPT 仍然无法与人类匹敌
ChatGPT 在会计评估方面与学生对峙。学生的总体平均得分为 76.7%,而 ChatGPT 的得分为 47.4%。 在 11.3% 的问题上,ChatGPT 得分高于学生平均水平,在 AIS 和审计方面表现尤为出色。
ChatGPT+Wolfram强组合
甚至在一周前,人们还不清楚ChatGPT+Wolfram会是什么样子。但这些现在进展如此迅速的东西是建立在几十年前的发展基础上的。在某些方面,ChatGPT+Wolfram的到来最终将历史上采取的两种主要的人工智能方法结合在一起,而这两种方法长期以来一直被认为是不相干和不相容的。 <
为什么工程师应该专注于写作?
所有工程师都是优秀的代码编写者。但我相信,为了成为更好的工程师,你应该提高你的写作技巧。 从古至今,人们都在写作。我们用符号来书写,比如在古埃及。我们也用字母书写,如文艺复兴时期。 我们所有人在学校至少都
幽默:程序并不会算术
幽默:当你意识到C++编译器是用C++编写以后
幽默:程序员强迫症
每周一笑:上班程序员是这样度过的
上页
下页