Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
AI神经网络
OpenAI Codex:通过AI用自然语言编写代码的 API
今天 OpenAI 推出了 Codex,这是一个使用人工智能从自然语言编写代码的 API。Codex 是为GitHub #Copilot 提供动力的模型,我们在一个月前与 GitHub 合作构建并推出了该模型。Codex 精通十几种编程语言,现在可以用自然语言解释简单的命令并代表用户
基于神经网络的Alpha Fold改变了生物世界
使用深度学习和神经网络,称为 Alpha Fold 的算法有望彻底改变生物化学领域。在过去的 50 年中,蛋白质折叠问题一直是一个持续的障碍。它首次出现在 1972 年:一个新理论提出,了解蛋白质的氨基酸序列应该可以让您完全预测其结构。但是,单个蛋白质可以由多达 2,000
大脑并不是模块化的结构而是联网的大脑 - Luiz
大脑如何产生思想?我们的感知、行动、思想和感觉?历史上对大脑的研究以分而治之的方式进行,试图找出单个区域的功能 - 包含皮质或皮质下层神经元的灰质块 - 一次一个。
Google AI:人类皮层的可浏览千万亿级重建
连接组是生物体大脑中所有神经连接的地图,它有助于理解大脑内神经相互作用的组织。 发布大脑中所有神经元和突触的完整映射非常复杂,2020 年 1 月,谷歌研究院发布了果蝇的“半脑”
用还原论研究神经科学遭遇瓶颈
还原论神经科学能解释行为吗?还原论方法着眼于一个复杂的系统,并试图将其分解为各个组成部分,然后将它们重新组合在一起以对系统有所了解。对于针对行为的还原论神经科学而言,这意味着研究分子和细胞成分,通常在神经元中,以获得对行为的理解。这行得通吗?神经科学家在进行研究时,经常会进行
神经网络为何如此独特有效? -Reddit
神经网络不是唯一的通用逼近器,将神经网络的成功归因于它们作为通用逼近器的地位,但也有许多算法是通用逼近器。例如,决策树也可以是通用逼近器,但它们似乎没有那么成功。为什么是这样?神经网络除了作为使它们与众不同的通用逼近器之外还有什么? 首先,诸如决策树之类的算法没有那么成功,这
机器学习无法解决自然语言理解问题 - thegradient
这是经验和数据驱动的革命,在 1990 年代初期,一场统计革命席卷了人工智能 (AI)——这场革命在 2000 年代达到高潮,神经网络以其现代深度学习 (DL) 的转世而凯旋归来。这一经验主义转向席卷了人工智能的所有子领域,尽管这项技术最具争议的应用是自然语言处理 (NLP)——一个人工智能
composer:2-4倍加速神经网络训练的算法库
Composer 是一个用 PyTorch 编写的库,使您能够以更低的成本和更高的准确度更快地训练神经网络。已经实现了两倍以上的加速方法,只需几行代码即可应用于您的训练循环,或与内置 Trainer 一起使用。特点: 20 多
上页