2020人工智能地图

首页 2020-12-30 18:13:28


2020人工智能地图

注意:此地图不是AI状态的精确反映,而只是我的主观表示。

这是我截至2020年底的第一张地图,并将在将来扩展。它包含200多个单词或短语,因此要描述所有这些单词或短语将过于广泛且过于刻板。告诉我这张地图是如何逐渐在我的脑海中建立的,这非常有趣(对我有用)。我不会解释所有内容,而只是解释主要内容,因此不了解某些内容是很正常的。

这个故事始于2013年,当我完成应用物理学学士学位后。我正在研究异质结构,这是用于Internet传输的固态激光器的核心。简而言之,我不满意,该领域很好而且很有远见,但是在乌克兰却没有。因此,我决定将我的硕士论文写在我真正感兴趣的另一个领域。我有两种选择,而我选择了一种-人工智能领域。

那个夏天,我完成了有史以来第一门有关Coursera的在线课程-Andrew Ng的机器学习。在线课程才刚刚开始,Coursera仅存在了一年。该课程对机器学习的观点不错,可以分为监督学习,无监督学习和强化学习。还有一些典型的问题,例如分类,回归,聚类,每个问题都有其自己的解决方案。

当时,我了解到该地区还为时过早。我习惯了物理学,它具有深厚的基础,是所有现象的基础。例如,麦克斯韦方程和洛伦兹力解释了整个经典的电磁学,光学和电子学基础。但是在我看来,机器学习只是方法和算法的集合。如果需要进行聚类,可以尝试k均值或高斯混合,或者在结果不好的情况下尝试其他方法。

如果您需要将数据拟合到一条线上,这是线性回归。分类相同,有逻辑回归或SVM或神经网络。但是,没有理论可以概括和解释所有情况。您只需要寻找最适合特定情况,特定数据集的算法。

后来,我不时回到机器学习中,但是并没有抓住我。

我想要更多。那时,我读了杰夫·霍金斯(Jeff Hawkins)的《论情报》(On Intelligence)。他写道,智慧的本质是做出预测,解释了人类大脑的工作原理,并且有可能找到一种像大脑一样工作的算法。

他推广了新皮层(大脑浅表部分)由小柱组成的观点。这些皮质柱在结构上非常相似,如果我们能够理解皮质柱的工作原理,那么我们就能理解大脑。我当时想,"哇,他真的会很快创建人工智能"。可悲的是,这本书写于2004年,但到2013年,并没有取得太大进展。看来问题要难得多。

但是,令我兴奋的是,我们需要了解人脑才能创建AI。这就是为什么我开始学习神经科学的原因-神经学是研究神经网络如何工作的科学分支。不要将其与研究神经系统疾病的神经病学混淆。我找到了出色的在线课程"医学神经科学",在那里我学习了基础知识。从解剖开始,周围的神经系统会收集信息并将其发送到中心部分,尤其是丘脑(如主枢纽)。它将激活发送到新皮质,并在此处进行主要信息处理。感觉信号被转换成运动命令,并在小脑和基底神经节的帮助下被发送回周围。海马有助于记忆存储。靠近它,人们发现了网格细胞,即仅在环境中的特定位置才活跃的神经元(通常与GPS相比)。再加上另一个重要的结构-杏仁核,也有助于记忆和情绪,甚至在新皮质形成之前就可以处理信息,从而迅速采取行动(例如从恐怖的蛇中逃脱)。

系统神经科学研究庞大的系统如何与多达数十亿个神经元一起工作。任务之一是建立大脑连接体,大脑所有1000亿个神经元的连接模型。但这太难了,就目前而言,人们至少对较小结构的连接组(宏电路)或什至较小的具有100-10000个神经元的独立神经网络(微电路)感到满意。

例如,在一个大型的欧洲人脑项目中,研究人员制作了一个具有约31000个神经元的局域网模型。神经元的大小约为30微米,是人类头发的两倍。一个典型的神经元建立1万个连接,这些连接称为突触,大小为几微米。这就是为什么很难以这种规模跟踪所有连接。但是,有很多方法,从可以在厘米级(EEG)或毫米级(fMRI)上工作的方法到可以测量单个神经元(膜片钳)或一组神经元(多电极阵列)的活性的方法。

系统神经科学遵循"大脑->头脑"的原则,通过研究大脑,我们将更好地理解头脑。认知神经科学-使用相反的方法,通过研究思维我们可以更好地理解大脑。它们通过神经相关性进行连接,神经相关性是我们可以与诸如记忆,注意力甚至意识等复杂现象相关的神经网络。认知神经科学从心理学的角度研究记忆,并定义了情节性,语义性,程序性记忆,但是系统神经科学则更加物质地研究并寻找记忆所驻留的特定神经网络。顺便说一句,简单的情感记忆存储在杏仁核中,可以在神经水平上被识别,擦除,重写和暂停。可悲的是,它仅对小鼠有效。

在那个时期,我发现了许多认知模型,试图创建类似于大脑的程序。例如,这里是与基底神经节相对应的块,具有一定的输入和输出,并执行决策。另一个块(如额叶皮层)通过添加情景记忆来干预决策。人们对大脑的了解越多,这种模型就越准确和完整。

甚至还有带有年度会议的社区AGI(人工通用情报),其中介绍了这种模型。这可能是组织数据的好方法,但是我非常怀疑某个认知模型有一天会开始自己进行思考。AGI社区的环境很特殊。一方面,我喜欢他们忠于最初的目标,即创造与人类同等水平的真正(通用)人工智能,并公开声明这一点。他们思维广泛,从神经科学,心理学和数学算法中获取信息。另一方面,我没有看到像物理学一样的基本原理。有许多手工制作的解决方案,例如被记者描绘为智能机器人的索非亚机器人,但实际上并非如此。

借助AGI,我们可以将人工智能中的象征方法或"老式老式AI(GOFAI)"联系起来。它试图使AI作为操纵符号,通过逻辑运算或因果规则的程序。这种方法在AI的50到80年代初很流行,但现在还不存在。不久前,它被神经网络形式的连接主义方法所淘汰。

2014年中,我去了基辅工业大学的一所暑期学校。那就是我沉迷于以严格的数学方式描述神经系统的计算神经科学的地方。只有这才变得有趣:)有两个主要主题-神经动力学和突触可塑性。神经元产生电脉冲,振幅为0.1伏,持续时间为几毫秒。动力学描述了神经元的电位如何变化以及神经元何时应激发脉冲。在数学上,它可以通过霍奇金·赫x黎模型(由四个一阶微分方程组组成)很好地定义,该模型甚至获得了诺贝尔奖。

它可以通过添加离子通道并提供神经元的形状来扩展和复杂(这被称为形态学,即轴突和树突在太空中的位置)。

使用更完整的模型,动力学变得非常精确,甚至可以预测单个电脉冲(对自由意志的巨大打击:)。可以简化遗留生物混乱的方程式,而只是重新产生电脉冲。通常,此类模型用于加标神经网络-计算模型,其中许多神经元连接在一起,并且显示复杂的节奏或混沌活动。

计算神经科学中的第二个关键主题是突触可塑性,它描述了神经元如何改变其连接。神经元的动力学或多或少地得到了很好的研究和理解,但是连接的变化却是一个谜。大脑的所有魔力都来自神经元之间突触的可塑性。连接的强度可能因离子通道数量不同(神经元用来泵入/流出正/负电荷)的数量不同,或者由于存在神经调节剂(如多巴胺)(使神经元泵变得更强)而发生变化,或由于内部过程而试图维持稳定状态,即维持体内平衡。此外,连接可能消失,断开神经元连接,或者保持沉默,等待在正确的时机重新激活,或者在全新的地方创建。它改变了整个网络结构;描述连接的图是动态的。可以相信,神经元通过它们的连接反映了环境的所有细微差别(被传感器感知)。

这是生物学和人工神经网络之间学习的主要区别之一。首先,结构是不断变化的(体系结构是动态的),第二,学习主要是通过调整连接的强度来进行的。

生物神经网络中有许多学习的数学模型。首先,也是最著名的是赫布的法则:如果神经元A参与神经元B的激活,则从神经元A到神经元B的连接强度就会增加。简化:一起发射—连接在一起。考虑两个不同的对象,当形成关联时,两个神经元编码组被激活并连接在一起。

在2015年底和2016全年,我花了很多时间研究突触可塑性,因为连接的变化是理解大脑的关键。我研究了非常复杂的突触调节分子机制,巨大的级联使一个分子激活另一个,而另一个又激活另一个,从而使另一个有用。当我看到一切都由遗传学控制,通过基因表达控制(通过表观遗传学在每个神经元中都是唯一的)时,我想到"没有办法,它太多了,应该有一些更简单,更通用的原理"。

到2017年初,我对尖峰神经网络进行了大量练习,并且对它们非常了解。我很幸运地在接下来的6个月里在法国机器人实验室工作。这是检查在实践中是否有可能将学习的基础研究应用到生物神经网络中的好机会。我可以做些有用的事情,例如控制机器人吗?有一种经典的机器人技术方法是基于控制理论的,例如,在其机器人狗的波士顿动力学中使用过。我喜欢基于大脑的设备的方法,其中类似于生物学的神经网络向机器人发送命令。此外,还有一种针对神经形态架构的更高级方法,其中经过特殊设计的电子设备可以有效地实现神经元的激活和学习算法,例如TrueNorth芯片。

通常,在将算法放入机器人之前,您需要使其在虚拟环境中工作。我也一样,我将机器人放置在模拟房间中,分散了物体,并将摄像机的图像发送到神经网络。多亏我在实验室实习,我才能在现实生活中进行实验。在此视频中,我只是玩了一个机器人,上面写着"荣耀归乌克兰" :))。

结果,我明白了计算神经科学,尤其是尖峰神经网络并不是解决实际任务的合适解决方案。然而。他们在计算上过于饥饿,需要功能强大的计算机。即使这样,最终的问题是很难理解如何使它们工作。神经元模型可以具有许多参数,并可以由许多微分方程来描述。尝试解开这个烂摊子……

尽管如此,机器人还是有些神奇的东西。乍一看,它们看起来像是一件愚蠢的事情,即使您运行使机器人说话并回答简单问题的常规软件也是如此。但是,当您上传简单的显着性图(该程序确定有趣的地方,例如鲜艳的色彩,运动,复杂的形状或纹理)时,机器人就会开始移动头部,就好像它有目的地调查周围的世界一样。突然,您开始认为机器人内部有东西,不是空的。您赋予它生命,并在情感上与众不同。将来,当软件变得更好时,机器人将进入我们的生活。我们将与他们建立联系,就像与我们的宠物或更牢固地联系一样。

在尖峰神经网络失败之后,我开始寻求其他更简单的方法。然后,我输入了一个新字段-关联记忆字段。它研究您可以在神经元之间的连接中存储多少"内存"。一个典型的例子是Hopfield网络,向它显示一组图像,网络会记住它们(作为吸引子),并且当显示部分图像或嘈杂的图像时,网络会调用正确的存储图像。

该领域的经典结果是,当活动神经元数量很少时,存储容量最大。有趣的是,生物神经元也是如此:在新皮层的与记忆有关的区域中,同时活跃的细胞数量非常少,大约为2-5%。当人们发现在真实的神经网络中实现的抽象数学定律时,这是一个非常酷的例子。基于此,信号处理领域出现了一个全新的分支-稀疏编码。它起源于神经科学,认识到稀疏表示在生物学中无处不在,并且是信息存储和处理的良好候选者。

2017年底,我的朋友离开了一名软件工程师的职位去从事科学工作,我们一起开始研究分层时态存储器(HTM)。这是开头提到的由Jeff Hawkins创建的Numenta公司的模型。该公司试图进行反向大脑工程,以在算法中实现神经科学。我们仔细地仔细研究了他们的算法,并得出结论:这些想法很棒,但实现可能会更好。最好的想法之一是,我们需要在各种坐标系中编码信息:相对于其他物体(称为同心轴)和相对于我们自己的身体或其部位(以自我为中心)。关键是人类在检查某些物体时会不知不觉地不断移动眼睛(扫视)。这有助于大脑掌握所有事物的位置和位置的宝贵空间关系。

HTM的另一个关键思想是认识序列的重要性。它们无处不在,甚至我们的感知都是连续的。因此,模型应该以某种方式存储序列,预测并生成序列(就像人类不断生成运动命令一样)。

我们试图实现这些想法,编写了程序来依次找到图像上有趣的地方,并将局部特征与其关系联系起来。它或多或少地起作用了,但并不是我们想要的那样(顺便说一句,欣顿的胶囊网络试图实现同样的想法,也没有成功)。失败之后,我意识到我们在盲目前进,没有像物理学那样的基本理论。

深度学习(DL)也是如此。 DL背后的故事是科学与行业互动,自我普及并获得资助的典范。多层神经网络已经存在了很长时间,有时也称为多层感知器。尽管如此,它们仍未取得良好的结果:就分类而言,SVM在语言处理(隐藏的马尔可夫模型,计算机视觉),复杂的模型以及各种算法的组合中排名第一。但是,由于出现了相对便宜且功能强大的计算资源(图形卡,GPU),因此可以在短时间内(仍然有时需要数周)在大型数据集上训练大型神经网络。当然,有许多智能工程解决方案,但是没有人期望神经网络突然在许多机器学习任务(基准)中超过以前的记录。凭借这一成功(2012年,甚至更早),研究人员开始将多层神经网络更名为深度学习。大众媒体抓住了它并将其作为AI的一项伟大进步-新事物-进行了传播,这往往过于夸张。数据科学也有类似的故事,它是应用统计的一个更吸引人的新名称,或者数据挖掘是无监督学习的一种方法。仍然有效,该领域的赠款数量猛增。它带来了新的研究人员,教育计划,当然还有科技公司的工程师。

其他从事重要而又有远见的研究但没有发展趋势的人工智能研究人员坐在角落里悄悄地哭了:)。一些研究人员开始否认深度学习,他们说这不是一门科学。它背后没有任何理论。另一位研究人员则慢慢地转向了深度学习。另一个将他们以前的结果纳入了新框架。对于我来说,我好奇地观察了深度学习的进展,并尝试不落伍,但是对我来说,人工智能不仅限于深度学习,我们还需要扩大视野。

我认为,将来人工智能理论完善时,它将从信息理论开始。多亏了D.MacKay在2018年的出色学习,我才了解了熵的本质,即互信息和数据压缩。甚至有人说,数据压缩问题和人工智能紧密相连。但是,即使是信息论也没有帮助我解决另一项任务。这次我们三个人。一位聪明的博士生加入了。我们设置了一个简单的任务,以使程序在乒乓球比赛中胜出(击中移动球)。强化学习的经典方法已经解决了这个问题,但是我们希望做得更好。一种算法应该适应环境的变化(例如,改变球的大小,环境的规则或几何形状),学习得更快并且与动物的学习方式更相似。我们并不愚蠢,但我们做不到。要么任务比我们想象的要难得多,要么我们正在解决错误的问题。但是,我继续深入研究该理论。

细胞自动机与另一个概念有关-计算不可约性。自然界中的某些事物在了解法律的情况下可以轻松预测。例如,将球的初始速度和角度放到公式中,就可以知道它在下落之前,下落的时间,位置以及下落的未来轨迹。但是有些现象无法用简单的公式(没有封闭形式的解决方案)来描述,您需要在计算机上模拟动力学。例如,物理学中的一个三体问题(如太阳,地球和月球的运动)由微分方程描述,但是没有简单的表达式可以预测(计算)未来。

计算的不可约性恰恰说明了这一点-有些事情本来就不容易预测,需要更多的计算。这同样适用于神经网络-一个公式都无法预测一个小时后的神经元行为。您需要为此模拟所有3600秒。这与哲学相交,更确切地说与自由意志相交。如果没有程序可以预测您的动作,那么没人会事先知道您将要做什么。那么,您是否有选择的自由,还是仍然受到1000亿个神经元的激活和学习规律的约束?

我以大脑的形状绘制地图,并以哲学代替小脑。尽管运动命令和认知敏捷性受到很大损害,但人类可以保持意识和生活而没有小脑。与哲学一样,您可以没有它而生活,但它仍然可以带来价值。也许,人工智能的大多数科学家有意无意地都属于功能主义。如果两个材料系统在相同的输入下给出相同的输出,即使它们在内部完全不同,则认为它们是等效的。如果我们可以创建一个与生物等效的人工神经网络(基于硅酮),那么我们可以建立第一个与基质无关的生命形式。这与哲学中的核心问题-意识问题相呼应。等效的物质系统会不会有意识?意识是什么意思?如果存在意识,我们如何知道如何看待人工(甚至生物)神经元的激活?也许这个问题是错误的,听起来应该有所不同?

所显示的地图未涵盖AI字段中的所有关键字。这只是我目前的思维模式的快照(截至2020年底)。这是第一个版本,我仍在学习中。尽管如此,我仍然希望这个版本对许多人都感兴趣。另外,我没有覆盖地图上的所有单词。稍后,我将更深入地介绍其中最重要的内容。如果您有任何建议或批评,我将非常感谢您的评论。

这是博客系列" AI领土"中的第四篇文章。


(本文由闻数起舞翻译自How to Design AIs That Understand What Humans Want: An Interview with Long Ouyang的文章《The Map of Artificial Intelligence (2020)》,转载请注明出处,原文链接:https://medium.com/swlh/the-map-of-artificial-intelligence-2020-2c4f446f4e43)