• 人只有两种思考方式:因果性和相关性。因果性遵循#逻辑形式,属于分析分解的还原主义,遵循第一性原理,这是数学课上练习的;相关性有比喻 形象对比 打比方等形象思考,语文课上练习的。原文转译如下: 认知语言学家乔治-拉科夫和马克-约翰逊提出了一个著名的观
  • 除了卡尼曼的“思维快慢”框架外,大多数人对克拉克的“扩展思维假设”并不熟悉。这两个理念与当今的深度学习AI极为相关。 在心智哲学中,扩展思维命题(也称为心智延展理论,EMT:Extended mind thesis)认为,心智并不完全存在于大脑甚至 icon
  • 深度神经网络 (DNN) 至今人们还无法从理论层面解释 icon
  • 大多数 ML 研究人员都缺少两个基本点:(1) 一旦有了因果模型,所有好的好处(例如,可解释性、迁移学习、公平性、数据融合等)都是可行的。(2) 但是没有一个可行的因果模型。深度学习DL = 戴着手铐的上帝的大教堂。  注:机器学习是学习相关性 icon
  • 各大互联网大厂谷歌、亚马逊、脸书和京东是如何通过词法、图或神经网络的嵌入方法实现查询匹配的?基于词法的技术是一种基本的、基于内容的方法,不需要构建知识图或大量行为数据,如果您要从头开始构建搜索系统,也许可以从这里开始。ElasticSearch和Lucene大部分都是开箱即用的。 icon
  • 在本文中,我们将讨论 HDF5 是最流行和最可靠的非表格数字数据格式之一。但是这种格式并未针对深度学习工作进行优化。本文建议应该采用什么样的 ML 原生数据格式才能真正满足现代数据科学家的需求。 icon
  • 自我监督学习推动了人工智能的许多重大进展,所谓自我监督学习:机器通过直接观察环境进行学习,而不是通过标记的图像、文本、音频和其他数据源进行明确的教导;虽然人们也似乎以相似的方式学习,但是学习的方式存在很大差异方式。这种差异一直是更广泛地应用自我监督学习进步的重大障碍。因为为理解图像而 icon
  • 使用深度学习和神经网络,称为 Alpha Fold 的算法有望彻底改变生物化学领域。在过去的 50 年中,蛋白质折叠问题一直是一个持续的障碍。它首次出现在 1972 年:一个新理论提出,了解蛋白质的氨基酸序列应该可以让您完全预测其结构。但是,单个蛋白质可以由多达 2,000 icon
  • 重用一种模型的知识并使其适应不同问题的能力是机器学习中最重要的突破之一:深度学习模型就像一个乐高模块集,将许多模块连接在一起,形成一个长结构。这些模块是机器学习中的层,每一层都有责任。尽管我们不清楚每一层的作用,但我们知道它们与输出越接近,它们就越具体。  icon
  • 这是来自 quantamagazine的一篇报道,当前使用人工智能的深度神经网络求解数学中偏微分方程的整个族,从而使得数学对复杂系统的建模更加容易,并且速度更快。 很难求解的方程式高中物理学中,我们通过作用在某个质量物体上的单个力(例 icon
  • 遗传算法是一种用于优化或搜索问题的随机过程。它是一种受自然选择和进化启发的算法。我们将使用遗传算法来寻找COVID-19 SEIR参数。然后,我们将把这个结果与网格搜索法的结果进行比较。 有一些遗传算法库可供使用。然而,该算法是直观的,并不太复杂。 icon
  • 在过去的 20 年中,深度学习通过一系列有用的商业应用开始主导人工智能研究和应用。现在,在一本新书中,IEEE 研究员Stephen Grossberg认为 icon
  • Transformer 背后的计算模型是什么?Transformer 是非常强大的模型,但对人类来说也非常不直观,它们如何计算事物,以及信息如何流动?循环神经网络RNN比较直观,它与有限状态机中有直接的相似性,但 Transformer 没有这种熟悉的相似直观性:允许围绕架构变体或训 icon
  • 当今业界使用的两种主要机器学习技术: 1. 梯度提升树 2. 深度学习 将时间集中在学习 Scikit-Learn、XGBoost 和 Keras 或 PyTorch 等深度学习库,您将充分利用您的时间.如果需要处理结构化数据:Scikit-Lear icon
  • 连接组是生物体大脑中所有神经连接的地图,它有助于理解大脑内神经相互作用的组织。 发布大脑中所有神经元和突触的完整映射非常复杂,2020 年 1 月,谷歌研究院发布了果蝇的“半脑” icon
  • CS Peirce(皮尔士) 在 100 多年前发明了一种终极的“时间旅行逆转”。皮尔士是一位哲学家和逻辑学家,以其在数学基础和科学哲学方面的工作而闻名。在他的著作中,皮尔士勾勒出任何科学发现的框架,他称之为架构学Architectonic 。 A icon
  • 两条规则:概率链式法则和微积分链式法则,被命名为“链式规则”,对 ML 和 AI 的最新进展至关重要。 概率链法则概率链法则是大型语言模型最新进展背后的一个强大工具。通过将许多小事件的概率相乘,我们可以计算 icon