Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
AI神经网络
2024年诺贝尔物理奖获得者霍普菲尔德自传
约翰·霍普菲尔德 (John Hopfield) 的精彩职业生涯回顾,英文点击标题,下面是简单总结: 这篇文章是他的自述,讲述了他的科研和教学生涯,以及他如何选择研究问题。霍普菲尔德以自己在不同领域的研究经历为例,展示了如何从物理学转向生物学,并对
前瞻性配置:不同于反向传播的信用分配新算法
信用分配问题是学习的核心。反向传播作为一种简单而有效的信用分配理论,自诞生以来就推动了人工智能的显著进步,并且在理解大脑学习方面也占据了主导地位。由于这一成功,最近的许多研究都集中在理解生物神经网络如何以类似于反向传播的方式学习;尽管许多提出的模型并没有完全实现反向传播,但它们仍然试图近似反
《注意力就是你所需要的一切》背后故事
“注意力就是你所需要的一切”背后Transformer的发展和灵感的(真实)故事。 注意力Attention: 一种出色的(依赖于数据的)加权平均运算。它是一种全居性的汇集,一种reduction汇
2024年诺贝尔物理学奖颁给两位AI专家!秒变图灵奖?
2024年诺贝尔物理学奖授予了两位在机器学习领域作出重大贡献的科学家:美国普林斯顿大学的约翰·J·霍普菲尔德(John J. Hopfield)和加拿大多伦多大学的杰弗里·E·辛顿(Geoffrey E. Hinton)。以表彰他们
Apple M5 可能会放弃统一内存架构
Apple M5 Pro、Max 和 Ultra 可能会放弃备受吹捧的统一内存架构,转而采用台积电 N3E 上制造的分离式 CPU 和 GPU 设计。 高端 M5 SoC(如 M5 Pro、M5 Max 和 M5 Ultra)将采用台积电的 2.5D So
大白话简要介绍Transformer注意力
Transformer 是一种神经网络结构,现在特别火,主要用来做文本生成、机器翻译之类的任务。但在 Transformer 之前,大家用的是 RNN 和 LSTM 这种模型来处理序列数据(比如一句话)。不过,这些模型有个问题:它们不太擅长处理长距离的依赖关系。因为它们是按顺序处理数据的,很
华硕全新推出GeForce RTX 5090顶级显卡
华硕全新推出的顶级显卡:ROG Astral GeForce RTX 5090 OC!这是华硕新创立的ROG Astral系列第一弹,定位比大家熟悉的ROG Strix系列更高,专门用上了华硕最强的散热技术和最酷的外观设计。 这个系列显卡不仅配了四
Meissonic:基于Transformer的阿里新型开源图像模型
一种名为 Meissonic 的新型开源 AI 模型仅使用十亿个参数即可生成高质量图像。这种紧凑的尺寸可以实现本地文本转图像应用程序,尤其是在移动设备上。 阿里巴巴集团、Skywork AI 和多所大学的研究人员利用独特的 Transformer 架构和新
简单解释Transformer是模拟状态的分布
这篇文章通过非传统的方式探讨了Transformer模型的工作原理,强调了它们作为状态模拟器的角色,能够根据上下文动态调整预测状态。作者分享了自己通过实验和代码分析逐步理解模型的经验,指出温度参数如何影响输出分布,并展示了模型在ASCII艺术生成等任务中的泛化能力。文章鼓励通过实践和质疑来建
分析英伟达Blackwell布莱克威尔节能技术
NVIDIA 的新 Blackwell架构引入了一些新技术,这些功能可以让电脑更省电,尤其是在笔记本电脑和轻度使用场景中。
微软确认神经渲染即将登陆 DirectX
继 英伟达Nvidia发布 RTX 50 系列显卡之后,微软确认将在其 DirectX API 中引入神经渲染功能。神经渲染涵盖了一系列新技术,这些技术利用人工智能和
房间里最聪明的人是谁?
知识基础设施的变化正在改变知识的形态和性质。随着知识网络化,房间里最聪明的人不再是站在前面给我们讲课的人,也不是房间里所有人的集体智慧。 房间里最聪明的人是房间本身:连接房间内的人和想法的网络,以及房间外的网络。
诺贝尔奖得主辛顿嘲笑OpenAI奥特曼
诺贝尔奖得主杰弗里·辛顿,号称AI教父,2018年,他与Yoshua Bengio和杨立昆(Yann LeCun)共同获得了图灵奖。这么一个集各种荣誉为一体的人,刚刚被普通中国人熟悉和崇拜,但是,他最新言论却被国外Reddit网友激烈讨论。 他说:
中国人领先地制作出全尺寸人脑数字模型?
这篇论文发表在《自然》杂志的论文《数字人脑的模拟与同化》介绍了数字大脑(DB),这是一个利用个性化磁共振成像(MRI)数据和生物约束来模拟人脑规模的脉冲神经元网络的
大语言模型其实与语言几乎没有关系
大型语言模型(LLMs)的核心能力在于处理和预测一系列离散的标记(tokens),而不仅限于自然语言中的单词或短语。这种能力使得LLMs可以被应用于多种领域,包括图像处理、音乐生成、药物发现等,只要这些领域的问题能够被转化为标记流的建模问题。
AI驱动SEO关键词研究的开源工具
人工智能驱动的SEO关键词研究,利用人工智能生成相关关键词,分析竞争情况,并整理研究结果以进行内容创作。节省数小时的人工研究时间,并发现尚未开发的关键词机会。 此 n8n 工作流程利用人工智能和数据驱动的分析技术,实现 SEO 关键词研究的自动化。
神经网络首次再现人脑近身感知的场景智能
中科院和意大利的科学家们做了个超聪明的实验——他们给电脑AI设计了一个"虚拟猴子游戏机"!这个AI要通过不断试错学习抓糖果和躲炸弹(。 结果你猜怎么着? AI脑子里自动长出了和真猴子一样的"空间感应器"!
AI科学案例:自学习神经网络破解物理黑洞
自学习神经网络破解标志性黑洞:由Michael Janssen(荷兰Radboud大学)领导的一个天文学家团队已经用数百万个合成黑洞数据集训练了一个神经网络。根据事件视界望远镜的网络和数据,他们现在预测,除其他外,银河系中心的黑洞正在以接近最高速度旋转。
下页