人工智能简介 - kdnuggets


介绍了AI的关键概念和方法,涵盖了机器学习和深度学习,并提供了包括Narrow AI,Super Intelligence和Classic AI在内的最新广泛列表,以及NeuroSymbolic AI,Neuroevolution和Federated的最新思想学习。
 
什么是人工智能(AI)
AI致力于开发能够执行人类非常擅长的任务的计算机系统,例如识别对象,识别语音并在受限的环境中进行决策。

  • 狭窄的AI: 机器设计为执行单个任务的AI领域,并且机器非常擅长执行特定任务。但是,一旦对机器进行了培训,它就不会泛化到看不见的领域。这就是我们今天拥有的AI形式,例如Google Translate。
  • 通用人工智能(AGI): 一种AI的形式,可以完成人类可以完成的任何智力任务。它更具意识,并且做出的决策与人类做出决策的方式相似。目前,AGI仍然是一种愿望,其预测范围从2029年到2049年,甚至永远不会出现。它可能会在未来20年左右的时间内问世,但是它面临着与硬件,当今功能强大的机器所需的能源消耗以及解决影响甚至当今最先进的深度学习算法的灾难性内存丢失的需求有关的挑战。
  • 超级情报: 是一种超越人类在所有领域(如尼克·博斯特罗姆所定义)的性能的情报。这指的是诸如一般智慧,解决问题和创造力之类的方面。
  • 古典人工智能: 是算法和方法,包括基于规则的系统,需要进行不知情搜索的搜索算法(广度优先,深度优先,通用成本搜索),以及有根据的搜索,例如A和A *算法。这些为如今更适合大型搜索空间和大数据集的更高级方法奠定了坚实的基础。它还需要逻辑方法,包括命题和谓词演算。尽管此类方法适用于确定性方案,但现实世界中遇到的问题通常更适合于概率方法。

近年来,该领域在各个领域都产生了重大影响,包括医疗保健,金融服务,零售,市场营销,运输,安全,制造和旅行等领域。
随着互联网,智能移动设备和社交媒体的到来,大数据的出现使AI算法(尤其是来自机器学习和深度学习的AI算法)能够利用大数据并更优化地执行其任务。这与更便宜,更强大的硬件(例如图形处理单元(GPU))相结合,使AI能够发展成为更复杂的架构。
  
机器学习
机器学习定义为AI领域,它应用统计方法使计算机系统能够从数据中学习以达到最终目标。这个术语是1959年由亚瑟·塞缪尔(Arthur Samuel)提出的。
关键术语:
  • 特征/属性:这些特征/属性用于以算法可以理解和处理的形式表示数据。例如,图像中的特征可以表示边缘和拐角。
  • 熵:随机变量中的不确定性量。
  • 信息获取:由于某些先验知识而获得的信息量。
  • 监督学习:一种学习算法,可以处理带有标签(带注释)的数据。例如,学习将带有标签图像的水果分类为苹果,橙子,柠檬等。
  • 无监督学习:一种学习算法,用于发现隐藏在未标记(带注释)的数据中的模式。一个示例是将客户细分为不同的集群。
  • 半监督学习:仅当一小部分数据被标记时的一种学习算法。
  • 主动学习 涉及一种算法可以主动向老师询问标签的情况。詹妮弗·普伦奇Jennifer Prendki) 将其定义 为“ ...一种半监督学习(同时使用标记和未标记的数据)...主动学习是指在训练阶段对数据进行增量和动态标记以允许算法以确定哪种标签最有信息,以便更快地学习。”
  • 损失函数:是地面实际情况与算法所学知识之间的差异。在机器学习中,目标是最小化损失函数,以便算法可以继续推广并在看不见的情况下执行。

(深度学习方法见原文)
 
深度学习
深度学习是指具有多个隐藏层的神经网络领域。这样的神经网络通常被称为深度神经网络。
当今使用的几种主要的深度神经网络类型是:
  • 卷积神经网络(CNN): 卷积神经网络是一种使用卷积以分层方式从输入数据中提取模式的神经网络。它主要用于具有空间关系的数据,例如图像。在内核上滑动卷积的卷积操作提取与任务相关的功能。
  • 递归神经网络(RNN): 递归神经网络,尤其是LSTM,用于处理顺序数据。时间序列数据(例如,股票市场数据,语音,来自传感器的信号以及能源数据)具有时间依赖性。LSTM是一种更有效的RNN类型,可以缓解梯度消失的问题,使它能够在短期和历史上都记住。
  • 受限玻尔兹曼机(RBM): 基本上是一种具有随机属性的神经网络。使用称为“对比发散”的方法训练受限的玻尔兹曼机。训练后,隐藏层就是输入的潜在表示。RBM学习输入的概率表示。
  • 深度信仰网络: 由受限的玻尔兹曼机器组成,每层充当下一层的可见层。在向网络添加其他层之前,对每个层进行了培训,这有助于概率地重建输入。使用分层的无监督方法来训练网络。
  • 可变自动编码器(VAE):是自动编码 器的改进版,用于学习输入的最佳潜在表示形式。它由具有损耗功能的编码器和解码器组成。VAE使用概率方法,并在潜在的高斯模型中引用近似推断。
  • GAN: 生成对抗网络是一种使用生成器和鉴别器的CNN。生成器连续生成数据,同时鉴别器学会从真实数据中鉴别出伪造品。这样,随着训练的进行,生成器将不断地擅长于生成看起来真实的伪造数据,而鉴别器则能够更好地学习伪造与真实之间的区别,进而帮助生成器进行自我改进。经过培训后,我们便可以使用生成器生成看起来真实的伪造数据。例如,在面部受过训练的GAN可用于生成不存在且看起来非常真实的面部图像。
  • 变压器transformer:开发用于处理顺序数据,尤其是在自然语言处理(NLP)领域中,具有文本数据任务,例如语言翻译。该模型于2017年在题为“注意就是你所需要的一切”的论文中引入“ Transformer模型的体系结构需要编码器和解码器的应用,以及涉及到注意输入序列各个位置然后生成序列表示的能力的自我关注。它们比RNN具有以下优势:他们不需要按顺序处理顺序数据的事实,这意味着在句子的情况下,不需要在句子的结尾之前就开始句子的处理,众所周知的Transformer模型包括双向编码器表示法来自Transformers(BERT)和GPT变体(来自OpenAI)。
  • 深度强化学习: 深度强化学习算法可处理对以尽可能最佳方式学习与环境交互的代理进行建模的过程。代理会持续采取行动,牢记目标,环境会分别奖励或惩罚代理采取好或坏的行动。这样,代理就学会以最佳方式行事,从而达到目标。DeepMind的AlphaGo是代理人如何学会玩围棋游戏并能够与人类竞争的最好例子之一。
  • Capsules:仍然是研究的活跃领域。众所周知,CNN可以学习通常无法解释的数据表示。另一方面,已知Capsules网络会从输入中提取特定种类的表示形式,例如,它保留了对象部分之间的分层姿势关系。Capsules网络的另一个优点是,它能够以比CNN所需要的数据少的数据来学习表示。
  • 神经进化: 由肯尼斯·斯坦利Kenneth O. Stanley)定义  为,“除试图在计算机内部之外,试图触发类似于人类大脑的进化过程。换句话说,神经进化试图通过进化来发展神经网络的手段。进化算法。” Uber实验室的研究人员认为,神经进化 方法与基于梯度下降的深度学习算法相比具有竞争优势,部分原因是被困在局部极小值中的可能性降低了。 斯坦利等。表示:“我们的希望是激发人们对该领域的新兴趣,因为它可以满足当今日益增长的计算潜力,并着重强调其许多思想可以为深度学习,深度强化学习和机器学习社区,并解释在长期追求人工智能方面神经进化如何被证明是至关重要的工具。”
  • NeuroSymbolic AI:由MIT-IBMWatsonAILab定义  为AI方法的融合,这些方法结合了神经网络,这些神经网络从原始数据文件(例如,有关图像和声音文件的上下文)中提取统计结构以及问题和逻辑的符号表示。“通过融合这两种方法,我们正在构建一类新的AI,它将比其各个部分的总和强大得多。这些神经符号混合系统需要较少的训练数据并跟踪进行推理和得出结论所需的步骤他们还可以更轻松地跨域传输知识。我们相信,这些系统将迎来AI的新时代,在该时代,机器可以通过将单词与图像联系在一起并掌握抽象概念来像人类一样学习更多。”
  • 联合学习:也称为 协作学习, 在Wikipedia中被定义 为机器学习中的一种技术,它使算法可以在许多本地分散有数据而无需交换数据的分散服务器(或设备)上进行训练。 差异隐私 旨在通过测量联合学习各要素之间通信中的隐私损失来增强数据隐私保护。该技术可以应对与异构数据相关的数据隐私和安全性的关键挑战,以及影响领域,例如物联网(IoT),医疗保健,银行,保险以及其他领域,其中数据隐私和协作学习至关重要,并且随着AI IoT规模的扩大,它很可能成为5G和边缘计算时代的一项关键技术。