第四范式首席科学家杨强:AlphaGo的弱点在迁移学

  第四范式首席科学家杨强:AlphaGo移民学习的弱点

  (网易智能讯5月29日消息)近日,由全球机器智能峰会(GMIS 2017)主办的机器核心在北京举行,第四范式共同创始人兼首席科学家杨强教授作为人工智能和移民学习专家,出席会议并发表主题演讲,分享最新的搬迁学习研究。根据杨强教授的说法,AlphaGo不是“上帝”。它有弱点。其中的一个弱点是缺乏移民学习的能力。我们的能力非常好。例如,人类学习如何骑摩托车,然后骑摩托车。非常容易,对人类来说很自然,但是人工智能并不好。另外,杨强指出:为什么要学习移民学习呢?首先,在生活中我们会遇到更多的小数据,小数据的学习模式才是真正的智能。其次,我们要建立一个不仅在这个领域工作,而且在这个领域工作的体系。也就是说,我们希望系统是可靠的,既可以是轶事,也可以是连贯的,这也是我们给智慧的定义。第三,我们希望更重要的是,我们如何能够从一个共同的系统转变为个人迷你数据,进入个人的情况,从而实现个性化。迁移学习是一个必不可少的工具。目前有没有迁移学习的例子?例如杨强教授说,说到汽车升级营销,我们知道汽车的每一张票都很大,这样的票据数量很少,所以数据量很小,甚至不到一百个样本。但是,我们也有数以千计的少量数据交易。我们构建的模型可以将小数据模型迁移到大的顺序。我们的移民学习的最终结果是200比传统模式更好。 %。 (毅之)以下是杨强教授的一个讲话,略有删减。大家好,我是杨强。今天我想和大家分享一个大家可能关心的问题。人工智能的最新发展是什么?让我从最近热门的话题开始,我们知道本周AI界最热门的话题之一是乌镇的人机站。阿尔法和柯杰打了三场比赛,这场比赛看起来非常激动人心,我们到底学到了什么?这是我今天要谈的。首先,克杰留给我们一个字。柯杰说,AlphaGo看起来像上帝。这似乎是无可挑剔的。但从机器学习的角度来看,它有没有弱点?我个人的观点是它有弱点,弱点还很严重。它的弱点是它没有移动学习的能力。移民学习是我们人民的一个特点,这个特点体现在哪些方面?首先,我们知道机器的一个功能就是能够学习大量的数据,因此数据的质量很重要。但是,如何将在19×19板上学到的知识扩展到21×21板,并学会在国际象棋中使用象棋,可以在生活中,在我们的日常活动中使用?今天的机器不是这个能力的提升,这就是我们今天所说的。但是在我谈论这个话题之前,让我先说一些我认为在AlphaGo 2.0中学到的东西。首先是今年的数据和李世石去年下棋有很大的不同。数据的质量提高了AlphaGo的水平大大提高,数据的质量非常重要。在计算体系结构也很重要的时候,Alpha Dog去年使用了数千个CPU和数百个GPU,但今年只使用了一个小型TPU,去年的计算架构和今年的计算架构是一个巨大的变化。同时这个算法也很重要,让电脑自我训练,自学,这让我想起了一部名为“模仿游戏”的电影,图灵在德国海底的密码突然来了灵感,我们没有办法打败机器但机器能打败机器,机器的特点是什么?这是自动计算。如果我们让机器自学,那么它在某种程度上可以超越我们的人的能力,所以这种自学习算法是最重要的。这三点对于商业界和人工智能的衰落也很重要。我们认为,在我们的工作和生活中,我们遇到的应用人工智能不是一个高质量的数据,不是一个好的计算架构,是否有一个自我学习去完善闭环。这三个条件是我今天要说的第一件事情。进入今天的主题是AlphaGo无法做到的,他的弱点在哪里。大家好心的称之为AlphaGo“老师A”,这位老师应该有弱点。他的一个弱点是缺乏移民学习的能力。这样一个人的能力是非常好的,比如我们学会骑自行车后,骑摩托车很容易,这对我们来说是很自然的;我们看了一两张照片,我们有一个知识,我们必须把这个知识推到其他领域,这个能力来解释我们这个计算机系统的人是一种什么样的能力呢?叫做可靠性,我们是“鲁棒性“,我们可以把过去的经验带到不同的场景,适应不同的环境,我们怎么能让机器也有这个能力呢,让我给大家举个例子,让大家思考一下,国产车本身就是左舵,香港的车是正确的方向舵,我们学会在去香港后开车去北京租车,我们怎能快速学会在香港驾驶呢?这是一个骗术,我知道这个技巧叫做转学习技巧,答案是驾驶员的座位总是离中间路线最近,不管你是在北京还是香港开车,我们不妨试一试,这说明了什么呢?这表明移民学习的要素是找到共性,发现两个领域的共性,一旦我们发现了这些共性,或者在机器学习中发现这些共性,发现这些共性,迁移是非常容易的,现在我想谈谈为什么要学习迁移学习,首先我们遇到更多的小数据,小数据如何实现人工智能,需要迁移学习。猫在房子里,还有一只图片猫,他看到一只真正的猫,他会说这是一只猫,我们不一定要给他一千万个正面的例子,人有这种能力,这样才是真正的智力。第二个好处是我们哈哈创造了一个我们希望不仅在一个地区而且在他周围地区工作的系统。当我们改变周围环境的时候,我们的系统还是一样的好,这就是可靠性,也就是说,我们可以互相优先,这也是我们给人智慧的一个定义。三是现在我们越来越强调个性化,手机上面的东西,我们看新闻和视频,提醒我们,我们家后面有一个机器人,这些是为了我们个人的服务,这个服务越个性化越好越好,但是我们并没有想过数据的个性往往是小数据,这意味着我们可以在云数据中集成上千万人,但是这使得一个系统只是一个通用系统,我们更重要的是如何把个人小数据放到一个通用的系统中,把它放到个人的场景中去,无论是视觉还是语音,还是推荐系统,我们都需要个人发展的各个方面,然后研究迁移是必不可少的工具。说到这些好处,我们将解释为什么移民学习今天得不到广泛的推广。这是因为迁移学习本身非常非常困难。事实上,他在右边询问了学习移民问题。教育学也非常关注如何将知识转移到不同的场景中,教育学的概念已经有数百年的历史,那就是如果我们要衡量一个教师的素质,我们往往不能通过学生期末考试,因为那种特定的考试知识,学生有时候死记硬背可以通过考试,更好的办法是观察学生在完成本课程后的表现,他有多少能力将这门课的知识转移到其他当时我们回过头来说他老师的好坏,这就是所谓的学习搬迁,所以每个人在教育学上都在问为什么学习移民如此困难,困难在于如何找到共同点。我刚刚开车,我们当中有多少人经历了从左到右开车然后非常苦恼的事实,也就是说,我们很难找到这个共同点,幸运的是,我们已经重点在移民学习领域十年到二十年,取得了良好的效果。现在让我来介绍一下这方面的最新进展,现在正在进行的研究,欢迎大家来参加这样的研究。第一点是如果我们想找出不同机器学习问题之间的共性,就有办法摆脱问题的结构和问题的内容。这并不容易,但一旦我们能做到,我们就会给予我们最好的坚强。我们可能不知道在好莱坞有这样一个培训课程,专门用来训练如何编写剧本。你认为编写剧本可能是一项需要伟大艺术和才能的工作,但是一个人可能不知道如何写剧本也可以变成一个工厂风格,怎么做呢?他的诀窍是把内容和结构分开,第一部分前十分钟的电影应该是什么,五分钟后的电影应该玩什么,什么时候该让人哭,在什么时候让大家笑结构的。经过几天的训练,你可以成为剧作家,你可以成为好莱坞导演,那么机器学习怎么能也有这个能力呢?在图的左侧,我们在2015年看到一篇文章,三个人在手写识别数据集上学习手写的结构和方式,发现在学习结构方面有一个例子。这就是所谓的单一案例研究在机器学习中是非常耸人听闻的事情。在右边,让我向你展示我的一位博士最近的一项研究。学生吴玉祥,如果能够通过深度神经网络将文本的结构与其具体内容区分开来,那么他就可以很容易地将自己学习的结构部分用来帮助我们的自然语言系统做不同的事情。例如,为了识别主题,文本摘要,文本等,你甚至可以学习如何产生文本。所以我们可以做一个机器人自动写新闻稿,所以我认为这个工作是非常有前途的。第二步是发现过去我们过于注重学习共性本身,却没有注意到在不同层次上发现这种共性。现在我们发现,如果把问题分成不同的层次,一定的层次将使我们更容易进行知识转移。例如,在图像识别中,如果我们在一个区域内有数千万的数据,并且训练了一个八层深的神经网络,然后我们在这个问题下改变了场景,传统的机器学习需要再次使用上千万的数据,花很多时间去训练。但是现在,通过这种分层次的迁移学习,我们会发现不同的层次具有不同的迁移能力,所以我们可以对其不同级别的迁移能力进行量化估计。所以当我们遇到新的问题时,可以把一些地方和一些层面固定下来,用小数据对其他地方进行培训,以达到移民学习的效果。最近,经常出现一些新的工作。例如,在语音识别中,如果我们训练了一个播音员的语音模型,我们怎样才能把它移动到一个口语环境呢?如果我们发现语音中有共性和内层,那么我们可以使用这个层级使得方言的语音模型可以用小数据进行训练。同时,我们也可以像工程师一样对这个结构进行各种变化。例如,我们可以找出它们在图像和文本之间的语义共性。如果我们使用多模式深度学习网络,这个共同点是相同的。我们可以学习它的内部语义,以便我们可以在文字和图像之间自由移动,所以这种多层迁移的确带来了很多方便。第三个进展是过去,学习的转移往往是说我有一个领域已经是一个模范,我现在要把它移到一个新的领域,从旧区到新移民区,从一个多数据我们现在正在向小范围的数据移动。我们称之为逐步迁移,但现在我们发现许多情景需要我们逐步实施。例如,在我们的研究中,我们四年来上了大学。为什么?因为我们不能一蹴而就,所以我们需要把知识从一个教训分到另一个教训。正如一条流浪河穿过河,我们需要踩一些石头才能到达另一边。我们也可以利用这个思路进行一个多步骤,有导向的迁移,比如我们可以建立一个深度的机器学习网络,这个网络的中间层可以照顾我们的目标区域,也可以照顾我们原来的区域。同时,如果我们有一些中间地区的中间地区的数据可以完全不受监督,那么它是做什么的?他们可以连接源和目标区域,如A和B,B和C,C和D。为了我们可以定义两个目标函数,这个目标函数的第一个左边,左下角是给你的,举例来说,你的任务就是分类,就是把你的分类更准确一些。第二个目标函数是区分我在通过这些中间领域时所采用的样本和特征,使得它对我们的优化函数有用,这是右下角的目标函数。当这两个目标函数一起优化时,一个是优化最后一个,一个是选择最好的一个,并且逐渐地,像右边的图一样,我们源区域中的数据被多步移动到目标区域最近在斯坦福大学,有一个利用卫星图像分析非洲大陆贫困状况的实际例子,也利用了多步移动的优势,日夜的卫星图像是迈向移民的第一步。夜晚的图像到夜晚的亮度到这个地方的发展水平是迁移的第二步,通过这两个迁移步骤,成功地建立了一个模型,从卫星图像告诉我们经济形势和贫困这个地方,四是学习如何迁移,在过去的二十年里,我们积累了大量的知识,数以百计的迁移学习算法,当遇到机器学习问题时,我们应该使用算法吗?事实上,由于有太多的算法和很多文章,我们可以总结这些经验并且训练一个新的算法。这个算法的老师是我们所有的机器学习算法和数据,那么这个学习是怎么样的呢?像我们经常说的移民如何学习,这是学习的最高境界,也就是学习方法的取得,我们在哪里是一个博士生魏英正在这方面做研究。他最后的模型效果是给我们任何移民学习问题,可以找到我们以往经验中最合适的算法;它可以是基于特征的,基于多层网络的或基于样本的,甚至是某种混合的,所以这些可以自动完成。这里举一个舆论分析的例子。我们知道舆论分析就是给出一些文本和注释数据,首先训练一个模型,然后给出一些新的用户反馈,我们知道他是正面还是负面。比如在微博或Twitter上面,每天都可以知道每个人的反应,我们现在到底是一个具体的应用到底还是乐观还是悲观,股市对电影的评价等等。很难,因为我们经常面对两个方面,左边是标记,右边是没有标记,关键问题是如何连接左右,也就是我们如何建立单词和单词之间的联系,然后成功地将标记数据对应的模型与未标记的模型相对应,即地图上的绿色字和绿色字应该相互对应,红色字和红色字应该相互对应,但机器不知道这一点,我们意识到这一点,它是由人来完成的,比如说关键字,它需要由人来提供。现在我们发现舆论分析的原始迁徙,本文中的每个词都有连接的能力,而不是说有些词是连接词,而不是其他词,每个词在不同程度上都有不同的大小概率,能力连接两个区域,关键是机器如何自动找到它,我们使用我刚刚学到的如何迁移,迁移学习方法,可以自动找到迁移的学习方法。第五个进展是把学习本身作为一种“元学习”的方法,给予不同的学习方式。如果我们之前有了一个机器学习模型,现在我们可以简单地把它变成一个迁移学习模型,用于迁移学习。但是,这怎么能实现呢?目前我们正在进行深入的学习和深度的学习,假设我们已经有了一个深入的学习模式和一个增强的学习模式,并且把它变成一个包装器,将它变成一个成功的模拟学习模式。举个例子,这个例子是一个个性化的人机对话系统,假设我们有一个通用的任务对话系统,可以让我们在一个普通的领域进行对话,但是我们怎样才能把它变成一个个性化的对话系统,照顾每一个人的个性和兴趣?我们正在做循环神经网络和强化学习这样的实验,现在我们已经完成了一个通用的基于任务的对话系统,然后通过一些个人的例子,系统可以学会找到一些现在我想谈谈的最后一件事情就是数据传输学习,最近我们听到一个比较热的名词叫做“生成对抗网络”(Generative Confrontation Network)听起来有点复杂,但是图很好解释,大家知道什么是图灵测试?一个机器的一个学生,然后在这里的裁判,最后一台机器不能告诉哪一个是一个人,这是一台机器。这一代反对网络他说,外面的裁判是一个学生,这也是一个学生机,他们两个的目的是一起成长,提出问题,假设裁判发现一台机器,然后他告诉你说你“不够真实,你可以提高自己,如果里面的机器发现他愚弄裁判,他可以告诉裁判员,你不够聪明,你需要提高y我们自己,两个人就这样在对方的不断刺激下形成对抗,这是学习的共同特点。所以这一代对抗网络,其特点是以小数据为特征,可以产生大量的模拟数据,通过这个模拟数据来判断他是真是假,刺激了生成模型的成长,这似乎是在电脑和电脑,电脑和人类的游戏,在这里我们的左边是一个游戏树。我们可以使用这种方法进行移民学习。这方面的一个例子是最近的工作,我们使用判别模型来区分这些数据是来自源域还是目标域。我们让生成模型继续模拟新的领域,这样最终我们可以生成大量的新数据,其数据与真实数据非常一致,通过这种方法在区分领域进行鉴别,另一种是当生成器生成数据,我们可以通过小数据生成更多的数据,而在新的领域我们可以达到迁移学习的目的。以上移民学习技术已经在一些商业领域得到应用,这里举一个例子就是汽车升级营销的第四个范例,我们知道每一辆车都是非常大的,那么这样一个单一的数量就很少,所以这个数据甚至不到一百个样本。但是,我们也有数以千计的少量数据交易。我们构建的模型可以将小数据模型迁移到大的顺序。我们的移民学习的最终结果是200比传统模式更好。 %。最后,我想说,我们在深度学习方面已经取得了很大的成就,今天我们正在努力地努力加强我们的学习。但是,我认为机器学习的明天是小数据,个性化和可靠性。这是我们的移民学习。这是我们的明天。谢谢你们!

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:九卅娱乐app|手机版--创新创业