您的位置首页  互联网资讯

从数据到语境人工智能的飞跃离不开互联网?中文互联网数据研究

互联网包含数百万小时的谈话、视频、书籍、数据和能让神经网络构建智能的一切。你想教机器学习爱?就让它们读《罗密欧与朱丽叶》等爱情小说。学习商业呢?让它们接入《华尔街日报》的新闻源。DeepMind最近让我们了解了这种方法可以做到什么,他们通过一个包含CNN和《每日邮报》300,000篇文章的数据库教他们的人工智能学习语言。

教计算机学习人类行为中语境是一项艰巨的任务;人类不总是能正确预测,而情形的种类基本上是无穷尽的。在个人层面上,使用机器学习技术理解人类进行社会交互和决策的方式,将涉及到无数个小时的用户输入。这可以通过一天观察你24小时来实现,但因为读心术目前还不存在,所以,你也将需要大声表达出你的推理以让机器能学习像你一样思考。

©本文由机器编译

利用互联网的力量

因此,让我们断开眼前发生着的真实进步与电影画面之间的联系吧,我们要意识到,要想创造出让生活更简单的人工智能,最大的机遇就是利用好某些我们每用的东西。

机器学习需要大量数据。对于自然语言处理,数据通常从语料库中收集——语料库是可被用于训练人工智能的大型结构化的文本集合。为了让你理解这些数据集可以有多大——在沃森击败Jeopardy人类冠军之前,它已经摄入了整个数据库。

过去几年,有很多信号表明这些技术是真的要将人工智能带入下一阶段了。谷歌在2014年以4亿英镑收购了位于伦敦的深度学习研究团队DeepMind,IBM在去年收购了AlchemyAPI,还有苹果也在最近仅4天内就进行了两次关于人工智能的收购。

Viv背后的团队相信,他们可以使用先进的深度学习技术让机器教自己学习怎么解决问题,从而开发出更好的个人助理。尽管他们可以理解地将秘方藏在心中,但是,目前已公布的信息说明,为了建构使用实例,仍需要一些人类指导。和人类使用来自知道怎么解决该问题的人的线索来学习解决问题的方式一样,人工智能也需要他们的指导以寻找它自己的解决问题的方法。

它不仅为你提供一个更个性化和更语境化的网络体验,也将更好地理解你的意图,甚至能在你表达出你的需要之前就预测到你的需要!瞧,一个能使用已有技术真正减轻负担的人工智能个人助理!

数据已经有了,而现在我们似乎才停留在肤浅的表面。但是,机器学习中的又一轮进展很快就能让我们可以从网络包含的艾字节(exabytes)量级的信息中提取意义,这样的进步将成为通往人工超级智能的进化之上的一次巨大飞跃。

除了在网络上可用的非结构化数据海洋表面刮擦,能让我们的生活更容易的近未来已经到来了。每天人类都会在网上做数百个决策,每次我们点击一个链接,这些点击就会被跨多个网站的广告和分析公司记录下来。想象一下,如果这些信息被专门用来理解你的浏览偏好的人工智能使用,它在你浏览过程中收集你和其他数百万用户的浏览的相关信息,然后从这些数据中确定模式。

语境能赋予人工智能构建更智能决策的能力,而不仅仅是依赖定义良好的输入指令。因此,语境通过连接过去、现在和未来来解决复杂的问题。来自巴黎大学的 PatrickBrézillon教授说:「在人工智能中,缺乏对语境的明确表征,是很多基于知识的系统失败的原因之一。」确实还有很多有待掌握。

语境是困难的部分

自从Siri出现在iPhone4的屏幕上以来,谷歌、Facebook、亚马逊、微软和百度也都已进入了这一领域。但尽管每一代更新都为其带来了很多有趣的新功能或应用场景,但它们仍与电影中出现的人工智能形象相差甚远。现在还很难想象有人能与Siri发展出某种浪漫关系,或NASA让Alexa来负责飞船的控制。

当谈到智能个人助理时,人们往往会想到Siri、小娜或亚马逊Echo。更了解技术的用户可能还听说过来自Siri的创始人的Viv、Facebook最近发布的M和其它基于消息的人工智能工具,如Operator或Magic。然而,尽管这些新工具最近引起了人们很大的关注,但当涉及到它们的使用情况时,它们中大部分都仍还困在只是听起来很不错的问答领域内。

研究人员预测,在可以真切体验到无处不在的类人智能之前,我们至少还需要再等上另外十年时间。与此同时,互联网也发展到了这个阶段:搜集所有必要条件,为人工智能的飞跃做好准备;而且我们已经有了很多机器人程序、分析技术以及其它API,它们都在搜集着可加利用的在线数据。

电影将标准设置得相当高,而我们仍在等待这样的普遍存在的语音控制人工智能进入真实世界。但是,距离能在我们的日常生活中真正帮助我们的智能助理时代,肯定比预想的要近。

尽管可以说通过我们的感官进行沟通的能力是人类智能的精华所在,但这只是必需配方中的一个成分而已。大学伯克利分校教授 StuartRussell确定了计算机要通过完全的图灵测试所应当具备的六种主要能力:自然语言处理、知识表征、自动推理、机器学习、计算机视觉和机器人学。

依赖用户输入的被动式助理

简单来说,这些是人工通用智能的构造模块,而语音识别只是其中的一个方面。当你的手很忙时,语音是点击键盘的一个方便的替代,但你的声音只是一个媒介,不总是能作为最好的输入方法。有多少次你一开始用Siri查询某事物而最终却在谷歌上打字输入了你的查询?

IBM沃森的故事中有趣的地方是,其所使用的语料库不需要以前的结构,这意味着沃森可以在没有人类监督的情况下使用这些数据。现在要是M也得到了相似的训练,以实现交流和执行复杂任务的更进一步目标呢?应该会是什么模式,我们又该在哪里寻找合适的数据?

在此之前,GPU加速的深度学习技术实现了突破;这些收购使得在模式识别中实现额外提升成为可能,也带来了用于语音识别和计算机视觉的很不错的应用。据ExpectLabs的创始人兼CEOTimTuttle表示,在未来两年内,机器就应该能比人类更好地口语指令了。

但是,与人类的比较只能到此为止;因为和机器不一样,通过将问题放进语境中并寻找最初的解决方案,我们能够自动地在既有知识之上构建知识。我们自然将「点连起来」,寻找答案,做出决策,而现在,实现的人工智能往往不能将问题和周围语境——这也是形式化的关键,但是,也非常难以形式化——关联起来。

从《2001太空漫游》中的HAL到SpikeJonze编导的《她》中的Samantha,几十年来我们都一直于人工智能驱动的计算机有一天能像人类一样与我们进行交互、口语指令以及进行决策。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
友荐云推荐