机器学习不是研究因果逻辑的 - yudapearl


大多数 ML 研究人员都缺少两个基本点:
(1) 一旦有了因果模型,所有好的好处(例如,可解释性、迁移学习、公平性、数据融合等)都是可行的。
(2) 但是没有一个可行的因果模型。
深度学习DL = 戴着手铐的上帝的大教堂。
  
注:
机器学习是学习相关性(相关性不是因果性)。
很多人将因果关系与可解释性等捆绑在一起。
ML 投资没有考虑到数据空间中能反映了多少真正的问题空间?
未来的系统将是因果和统计的混合体。人们渴望使用神经符号模型的大部分内容是将抽象的因果模型与细粒度的统计程序联系起来。
因果模型是否可以学习,也许不仅仅是从观察数据中学习?这需要干预数据(或由已获得因果理解的人类进行教学引导),这就是我们人类学习的方式:通过反复试验,通过测试世界,我们所谓的“自由”(至少是独立的)意志或最终的 RCT……