您的位置  网络资讯  动态

20年后AI将与人脑同水平?人爱上AI太容易?科幻作家郝景芳对话AI科学家黄铁军

5月17日,全新升级的“2022峰会”盛大开幕,嘉宾规格创历届之最,活动内容的广度和深度实现重大突破。

在下午场的特别环节,科幻作家、童行书院创始人郝景芳与北京智源人工智能研究院院长、北京大学计算机学院教授黄铁军展开了一场技术、未来与人类的对谈。科幻与现实的边界、科技将给未来带来的变化、科技所引发的伦理问题,都可以在这里找到答案。

一、谈“感情”

在前沿科技领域,AI已经渗透到了生活的方方面面。AI作为一种能力,可以表现在视觉、语言等多个方面。但AI是否具有推理能力和情感能力,这些人类比较复杂的能力,郝景芳提出了疑问。

黄铁军表示,讨论这个问题至少要分两个层次。“首先,靠我们今天的这些算法训练产生的这些人工智能,也能让人产生感情共鸣的系统,但它自身没有感情,他只是把人类讲的所有爱听的,不爱听的话都学过了,跟你交流的时候挺像那么回事,你跟它产生了情感共鸣,这不奇怪。”

其次,至于AI是否真的能产生感情,对世界有自己的感知和判断,黄铁军对此是乐观的。在他看来,人的感情并不是一个神秘的东西,只不过是一个生理系统,对外界不同的刺激产生不同的反应。“一旦有了感情的机器,它就有自己的主见了,可以很好的跟人配合,但是总的来说,它有它自己的想法和判断,我们可以设一些边界,不让它越界,但是总的来说,那个时候的感情交流,也许是某些人更喜欢看到的。”

对于人与AI之间是否会产生感情,郝景芳表示,人爱上一个AI太容易了,人太容易移情了,平时家里的杯子,猫猫狗狗都有可能投射感情。但是这是人有感情,不代表AI反过来有感情。AI如果要想真的进化出来这样类似的情感,需要放在相应的生存、死亡、危机的环境下。

二、谈发展

AI和人脑到底谁更强,未来两者将会是什么局势,这是贯穿AI发展过程始终的问题。

黄铁军表示,AI和人相比确实存在差距。不过,AI可以模拟出来现实物理世界里的进化,而且这种进化是很快的,比如AI可以在极短时间内学习上亿年生物进化带来的一些大脑功能。这种强大的大数据学习能力,可以让AI对全世界几乎所有的数据进行学习,进而在短时间内磨平差距。

黄铁军透露,在一个脑科学的研讨会上,有结论显示,到2026年,把灵长类中最小的一种猴的大脑就可以被解析出来。2026年-2035年的十年间,灵长类最大的脑就能被解析出来。黄铁军推测,再过十年到2045年,和人类大脑一样水平的电脑就可以做出来。

不过,人与机器之间,学习成本存在巨大差异。郝景芳表示,人类在进行运算、记忆、推理时,所需的耗电量非常少,只要15W就能够支持对功能运算,但AI其实需要非常复杂的很大的数据阵列,数据中心,耗能非常多。

对此,黄铁军表示,这件事要一分为二去看待。第一,人虽然每天三顿饭、耗电几十瓦,就可以支持很多的日常活动,但人是生来就具备这样的大脑,此前亿万年的进化消耗了大量的能量。“用人工智能的话来讲,这是推理过程低能耗,而不是训练过程低能耗。”

第二,人的低能耗也是有代价的。说得通俗一点,基本上人的主频只有10赫兹,我们心脏每秒钟跳六七十次,一秒钟只有1赫兹,我们脑的生理过程,脑的神经信号的发放和流转的过程,包括我们身体的肝脏、脾脏,各种器官的差不多是10赫兹。所以,人是一个很低速的系统,一个低速的系统所以它才低能耗。

“人其实是在能耗和功能无限之中达到的一个妥协,这也是进化的最低原则。”郝景芳说道。

三、谈伦理

不过,AI在发展过程中也有可能并不受控。郝景芳举例称,人类舒适的体表区间是二十几度,但是AI觉得它们自己的服务器舒适的区间是零度,它们会把全球的气温调到0度区间,让它们自己最舒服,可是我们人类就冻死了。

对此,黄铁军表示,人类总是想自己的利益怎么得到更大的保护,什么事情都需要受控制住才能放心,这是人类沙文主义的一种表现。举简单的例子,小孩儿出生,人类一代一代地向前繁衍。在发展过程中,其实很难控制住下一代和所有的后代。如果真的控制住了,人类文明也就停止了。 而AI的发展必然会带来一个新的智能水平的提高,这是进化的主旋律。

“我们不能说我们是永远的,以后就没有比我们更聪明的系统出现了,这也不符合进化的基本规律。但是新的智能体的出现,一定程度上还是要考虑进化的连续性,一开始可能人类有一段时间是对环境的破坏、不尊重生物多样性,但是现在这件事情大家基本上都认可了,小老鼠也好,蚂蚁也好,我们还是相对和谐的共存。”黄铁军表示。

站在全球巨变的十字路口,人类对未来的探索从未停止。

在“十四五”规划的指导下,数字经济与实体经济的虚实融合发展成为业界共识,加快建设信息网络基础设施、增强网络安全防护能力成为重要目标。科技发展日新月异,人工智能、5G技术由“虚”向“实”,元宇宙、智能汽车等新商业生态随之孕育,万物互联的智慧社会初具雏形。

聚焦新技术、新商业下的新趋势,广邀学术泰斗、行业大咖与头部企业,为观众呈现十余场精彩纷呈的主题演讲和高端对话。除本篇外,还会通过多种方式全方位呈现此次峰会与会嘉宾关于产业新变局的思考,为广大读者带来技术演进与行业热点的详情报道。

了解更多“2022峰会”信息,请关注大会专题:WAP专题链接、PC专题链接。

文章来源:环球网

以下为对话原文:

郝景芳:黄老师您好!我向黄老师提了很多的技术问题,但是黄老师给我一个回复说,我其实跟想谈一谈未来,我想谈谈未来更有科幻场景,更放飞的一些场景。我第一次知道说,我们这么厉害的科学家、科技专家,其实很喜欢畅想未来。所以,我也蛮想问问黄老师,你是不是也是科幻的爱好者?

黄铁军先生:我是特别爱好科幻的一个人,几乎所有的科幻的电影我都会看,我大概除了科幻电影之外,就没看过什么别的电影了。

郝景芳:肯定是一个特别对于未来想象的场景非常有兴趣这样的一位科技专家。围绕今天我们聊的这个话题,就是有关于AI机器人,您能不能介绍一下AI机器人现在在哪些领域里面是应用最广泛的,我知道有一些餐厅用AI传菜,机场也有很多机器人在落地应用,我们不用说大数据的这些算法推荐等等。您觉得现在在哪些前沿领域里面AI机器人的应用现状是怎样的,以及下一个时代,您觉得它还有哪些更大的发展?

黄铁军:AI的应用已经比较广泛了,包括机器人在内,刚才你也讲了很多例子,都能感受得到。实际上有的时候可能你没有感受到背后的AI,或者是一种数字的机器人也在发挥作用。包括我们获得的互联网的各种服务,其实背后都是有大量智能的算法在发挥作用。刚才讲像百度做无人车,现在大家已经可以打无人车了,这其实都是AI渗透到生活中的一个表现。

未来都会有哪些?这个也很难回答,各种形式都会有。但是,做AI的,AI作为一种能力,第一,表现在视觉,人、动物都有视觉。所以,需要视觉的地方,可能AI都会发生作用。不是很精确的统计,大概搞AI的你要问,50%的概率它是做视觉的,剩下那帮人会说他是做语言的,信息服务很多都是语言的能力。当然,还有机器学习,还有其他的一些方向。

所以,总的来说,未来的机器人的这种形态各种各样,但是它的能力来说,还是像视觉、语言这样的一种我们典型的智能的表现的这种能力,具备这种能力的这种机器人也好,还是其他的系统也好,有形的也好,无形的也好会越来越多。

郝景芳:我们看到今天的AI,一方面它非常非常的强大,识别能力、信息处理能力都很强大。但是,另一方面,似乎它的这种功能上面和我们的人脑相比起来还是相对比较单一的,但是有推理能力,还有包括情感能力,这些人类比较复杂的能力,目前似乎AI还不具备,黄老师能不能介绍一下目前AI和人脑的思维方式之间的差别和距离。

黄铁军:AI这个词叫Artificial Intelligence,其实它还有一个词,叫Machine Intelligence,就是机器智能。这两个词的不同,实际上我们就认为那就是人工智能,进化出来的。我们今天设计的人工智能,包括机器学习,(网络卡)这么一个人工的系统要跟人比,当然它是有差距,也是自然而然的。

郝景芳:我也看到您之前的演讲中提到过,说也希望现在的AI它可以在一个模拟出来的物理环境里面也完成这种进化,但是由于它可以速度很快,就会把人,比如说上亿年生物进化带来的一些大脑功能,可能有希望在比较短的时间里面完成进化,您觉得这个是一个未来的可能方向吗?

黄铁军:这是其中一个方向,我通常认为未来有三种方向,这是其中一个可能的方向。这个方向讲的道理在于,智能不是一个抽象的东西,尽管它表现出来很多时候大家感觉它是个抽象的东西,它也不仅仅是大家说的算法,算法很重要,但是算法还不是智能的核心。智能的核心就是刚才说的环境、数据,你在什么样的环境下就能产生什么样的智能,我们人生活在地球上,我们的智能就是跟地球的自然环境是密不可分的,你生活在另外一个星球上,智能就会发生很大的变化,甚至根本性的不同。

所以,这几个要素里面,相比算法,我认为刚才说的环境和数据更重要,就像什么样的环境产生什么样的智能。我们当然可以做越来越复杂的环境,比如说,元宇宙,他要造一个数字环境,数字孪生,我们把现实世界变成一个数字的版本,当然也可以用来训练人工智能。但是,这种环境和地球这种自然环境的复杂性相比,其实还是有很大的差距的。好处就是我们可能可以很快的迭代,去训练智能。坏处就是仅仅靠这个东西可能还训不出像生物这么向的智能。

郝景芳:而且涉及到进化,它就会涉及到另外的一个概念,就是具身性,人是独体的个体,具有一个身体,因为自己有这么一个独立的身体,每一步的决策都是在独立的完成,不管是躲敌人,还是和敌人战斗,有了这样一个很独立的具身性的个体才能够产生自我意识,才能意识到现在我离开她们更远一点了,我还要接近他,有一个自我的概念。但是,目前的AI因为是非常强大的大数据学习,似乎涵盖了全世界所有的这些数据进行学习,它没有这样一种很狭窄个体的具身性,它有可能产生自我意识吗?

黄铁军:这是两个层面,具身性是必要的,任何一个智能的产生,既然是在环境中产生,你在环境里是环境的一部分,可能有你的边界,这就是所谓的具身性。具身性从根本上讲是必要的,但是我们都有类似的身体,所以我们也产生类似的智能,对类似智能的一些内容我们是可以交换的,所以我们的文化、艺术、数学、物理这些知识,其实都是因为我们共享了这么一个大致类似的这么一个具身。

刚才说今天的人工智能,它的具身性不是那么明显,这也是事实。但是,具身性这件事情本身仍然是存在的。比如说,即便是我把全球所有的数据拿来学习,你学习的时候其实已经在做了一个假定了,就是你这个学习的系统和你刚才收集到的所有的数据之间已经构成了一个具身和环境,或者数据之间的一种关系。当然,我们说学了全球的数据,是不是这件事情就很强大了呢?某些方面是很强大了,我们每个人读的书,能够有的知识实际上可能是有限度的,它的数据比我们大得多,他当然在这方面可能是比我们要强的。

但是,另一方面,他的丰富性其实跟我们差别很大,我们今天的人工智能,几乎所有的人工智能,少数还没游过泳,还没有到过水里,所以没有在水里的体验。当然自然界有很多复杂的过程,有些每个人有切身体会,有些只能在进化过程中,曾经我们作为一个物种,曾经经历过,这些丰富性是今天的人工智能系统还缺乏的。

郝景芳:我们也知道今天的很多AI系统它其实只是一个抽象的算法系统,在很多的比如说互联网平台背后都有这种AI系统。像刚才提到具身性,您如何看待说这种AI系统变成一个实体的机器人,因为我们在科幻电影里面往往看到的不是这么一个抽象的算法,而是一些机器人他们在作为一个人工智能的载体,您觉得向下一步发展,是不是一定会是机器人它们向前发展呢?

黄铁军:我们说具身,自然要有一个身体,要有一个物理的存在的,我们看到的是一个机器人,但是它如果仅仅是那个机械和那个装置,它也不是我们感兴趣的智能的一个实体。智能的实体,当然它内部有它的控制系统,信号、信息的处理系统,那个东西当然表面上看不到,但是它更重要。那样一个内部的系统,其实算法只是其中的一方面,算法很重要,但是算法不是智能的全部。我们今天讲人工智能背后,更多是说它是一个神经网络,这个神经网络很多时候它的运行、训练要靠算法来控制,但是它自身不是一个算法,就是很多节点连接的一个复杂网络,那个网络的调整和适应就是它学习的一个过程。

所以,在这个意义上,未来的机器人它自己内部的那个神经系统的那种调整和我们作为生物的人,我们的神经系统调整,在过程上是有类似之处的。所以,当环境越来越复杂,有可能它表现出来的一些能力像人,甚至于超过人,这都是有可能的。

郝景芳:之所以问了这么多技术化的问题,其实还是想要展望未来。因为很多人都讨论过机器人和人类共存的未来会是什么样的关系,讨论机器人会不会比人聪明等等。这里我觉得有一个很重要的差别得要提出来,就是我们人类大脑不够那么聪明,可是我们耗电非常少,我们只有15W的能量就能够支持我们大脑进行多功能的运算,学习记忆很多东西去进行推理,但是一个机器人,一个AI其实需要非常复杂的很大的数据阵列,数据中心,耗能非常多来进行这些计算。虽然它很厉害,但是它可能似乎并不容易拿我们这么一个很低耗能的身躯进行承载,您怎么看待这种能量消耗上面的巨大差别呢?

黄铁军:这是大家经常讨论的话题,人的能耗和机器,或者人工智能的能耗。这件事情要一分为二的去看,第一,人的低能耗又具有这么强的智能,这要分成两个方面来看,我们作为一个人,每天吃三段饭,几十瓦的能量就能这么强了。但是,这有一个前提,我们是一个人,我们被生来带着这么一颗大脑来到这个世界,之前的事情是什么?之前的事情就是我们进化的过程,进化的过程消耗了大量的能量。所以,我们得到这么一个低能耗的阶段,不是仅仅这个结果,而是经过亿万年,几十亿年生物进化不断地迭代,消耗了大量的太阳能才形成了我们今天这么一个低能耗的状态。

所以,这只是一方面,这只是个结果,用人工智能的话来讲,这是推理过程低能耗,不是训练过程低能耗。而我们说人工智能耗电很高的时候,我们往往说的是训练过程消耗了大量的能量,真正用的时候,在手机上,终端上用一个智能,做一个推理过程,那能耗是没那么高的,甚至于还是很低的,我觉得这是一个误解,不能简单地说人是低能耗的,人工智能是高能耗的,这个是不公平的,你得把推理和训练两个环节加在一起来算这个账,这是第一个。

第二,人的低能耗也是有它的代价的,就是你低能耗是做不了很高的过程的。我们人的低能耗低到什么程度呢?差不多,说得通俗一点,基本上人的主频只有10赫兹,我们心脏每秒钟跳六七十次,一秒钟只有1赫兹,我们脑的生理过程,脑的神经信号的发放和流转的过程,包括我们身体的肝脏、脾脏,各种器官的差不多是10赫兹。所以,人是一个很低速的系统,一个低速的系统所以它才低能耗。

但是,一个低速系统能做的事情就受限制了,你跟开车,开到120公里,开到160公里就发晕,真要让这个车放开驾驶,今天的交规都不用限制,他可以开得特别快。所以,我们人某种意义上是一种折中,就是我们在这样一个自然环境下,我们生存下去,我们用这么多能耗,又不需要那么多能量,大概是合适的,是这么一个选择,不能把我们认为是完美的。

郝景芳:人其实是在能耗和功能无限之中达到的一个妥协,其实从进化的角度一直有这么一个原则,就是最低原则。有一个功能达到最低能用了就行了,不会超过去,进化成无限完美的。所以,按照您刚才说的未来推理,是不是有一个超级大的模型进行训练,训练之后达到一个比较高级智能的状态,但是它可能会让这样的状态进入到很多很多的终端,也就是比如类似于像小机器人里面,这样晓得机器人就直接带有了训练的结果,这样的小机器人本身就是很聪明的小机器人。

黄铁军:是这样的,一个机器人进入世界总要有它的目的,比如为别人服务,可能没必要那么快,它再快了,我们跟不上了。我有时候说特斯拉,马斯克说脑机接口,好像说这个是把人类带入智能时代的一个必要的技术手段。其实我认为这是一种错误的说法。因为机器的速度太快,我们都知道电脑多快?现在都是10的8次方,9次方,那样的一种速度、频率在运行,我们在10赫兹,你让一个那么大赫兹的机器带着一个10赫兹的系统跑,说实在不现实的。车能拉着人跑吗?你坐进去可以,但是这两个完全速度是不匹配的,人脑接一个无论是有形的还是无形的信号,两个频率是没有办法在一个频段去工作的。

所以,将来的机器人一种可能是为了服务人的,照顾老人,家里做一些服务,这个慢速就行了,可能不需要那么高的主频,能耗也不要那么多,可能一块芯片,一个小装置就做到了。但是,这只是一种需要,满足我们人的日常的生活的需要,这只是一种。其实我们还有很多挑战性的问题要去解决,写科幻小说,外星人来了,我们行吗?就我们这点10赫兹的频率要跟一个能力超强的外星人,像蚂蚁要跟人对话一样,没有办法做到。那怎么办?那时候要靠可能频率更快,耗能更多一些那样的一个机器人去应付,可能人类没有反应过来,那边该做的谈判都做完了,所以这完全是两种场景。

郝景芳:我觉得这两种场景都非常非常有意思,我待会儿一定会花一些时间讨论外形可能更超级智能的话题。前面的话题想稍微展开一点,比如未来在我们生活场景里面有一些情感需求,希望AI能够提供我们一些情感性的服务,那就会涉及到说,AI能够真的理解人吗?或者说它能够有跟人类似的这些情感吗?还是说我们这些只是输出好的程序,它只是按程序办事,还是说它真的能够跟它服务照顾的人有一些情感连接呢?您觉得像人类的这种情感是能够模型去训练学习的吗?

黄铁军:我觉得至少分两个层次,一个层次,就靠我们今天的这些算法、训练,然后产生的这些人工智能,也能让人产生感情共鸣的系统,但是这时候他自身没有感情,他只是把人类讲的所有的话,你们爱听的,不爱听的所有都学过了,跟你交流的时候挺像那么回事,你跟它产生了情感共鸣,这不奇怪。我们看电视,看电影,看科幻小说都会产生一定的共鸣,所以这个不奇怪,这个会做到的。这时候我们就不能说人工智能,因为你跟它共鸣了,就说它就有感情了,还不是这样。

另外一个层次,它自己自身真的有感情了,或者真的有对世界的感知和判断了,这种可能性很多人认为不可能,我是乐观的,我认为是可能的,也是做得到的,因为人的感情并没有一个神秘的东西,只不过是一个生理系统,然后对外界的刺激,不同的刺激产生不同的反映的这么一个过程。这样的一个系统,按照刚才机器智能的思维方式,额是可以构造出来的。构造出来之后,那样一个机器人跟环境互动,它也会产生该做不该做,做了什么行为之后,对它自身是一种负面的、正面的影响,这些逐渐的都是可以出来的。在这种情况下,它就是有一定感情了。

一旦有了感情的机器,它就有它自己的主见了,它可以很好的跟你配合,但是总的来说,它有它自己的一些想法和判断,我们也可以设一些边界,不让它越界,但是总的来说,那个时候的感情交流,也许是某些人更喜欢看到的。

郝景芳:之前很多人经常问我说,你觉得人和AI会相爱吗?我说人爱上一个AI这个太容易了,人太容易移情了,平时一个人在家里面,一个杯子,一个猫猫狗狗,一个什么东西人都有可能给它投射感情,像刚才您说的人爱上AI是很正常的,但是这是人有感情,不代表AI反过来有感情。我自己觉得情感也是进化过程中封装在人头脑中一个先天加载的模块,也是进化过程中,可能躲避敌人就有了害怕、恐惧这种情感,然后整个群体里面会有这种分配不公平的事情,就会让人产生愤怒这种情感,它也是在社会进化中习得的。

但是,因为人类有生存的问题,最本质的问题是死亡问题。所以,其实婴儿就有先天的给父母的那种爱和依恋,而父母又给孩子的那种先天的保护,这个就是很多爱的根本来源,它其实是一个生存上面的保护和依恋。所以,人工智能要想真的进化出来这样类似的情感,可能也需要放在相应的一个环境里面,让它有这样的生存危机,然后它也许慢慢地会有类似的情感出现。

黄铁军:你说得很对,它不一定会产生人类所有的感情,因为人类有一个特殊的进化产生的过程,可能机器人不再会有猛兽吃掉我们的这种恐惧了,所以不是所有的感情都能有。但是既然在一个类似的环境里边去训练,像刚才说的产生类似的响应和情绪,是可能的。

郝景芳:可能是一种警觉,出现危险的时候有警觉,出现比较好的时候有一种开心、快乐的感情。还是蛮期待这方面的训练能够让我们看到更多可能,就是多样性的人工智能了。

您刚才又提到一个非常关键的问题,假如未来人工智能变得慢慢有一定的自我意识和跟人的反应,然后它慢慢变得不那么听话了,开始有自己的主见了,这种情况下,约束会是很难的问题,因为这里面的伦理谁来规定是一个很大的课题,您怎么看这个问题?

黄铁军:科技的进步有的时候是很难用伦理去简单的框架的。因为有些技术进步你都不知道它会产生什么样的变化和反应,尤其是技术跟人类社会紧密的绑定在一起的时候,相互渗透,然后形成一个整体的时候,这个问题就更加复杂化了。我觉得刚才这个问题很多人也会问,但是其实背后有一个我认为不太好的,或者说我不太认可的一种,大概是人类沙文主义的一种表现,就是什么事情我都控制住他我才放心,我要控制不住他,那就不行,是那样一种心态在起作用。

实际上我们举简单的例子,小孩儿出生,一代一代的人类在往前繁衍,在发展,你能控制住下一代和所有的后代吗?我觉得如果你要控制住,人类文明就停止了,也就是水平就到你这个水平,不能再产生新的可能性了。所以,我觉得一定的控制人大家能够互相共存,这是挺重要的一个方面,但是也不能把它绝对化,如果没有一个绝对的保险控制,这事就不能往前发展,可能还是有问题的。

郝景芳:有相当一批人,可能是对于未知的事物,尤其是未知的科技心怀恐惧,觉得这就是潘多拉的盒子,未来可能有这样的灾祸,我们干脆不要把它放出来。但是我自己觉得所有的情绪情感都反映了人的内心深处心理的投射,其实是因为人对于这个世界本身有恐惧,人对于其他的人的恶意有恐惧,所以就容易把情绪投射到AI上,投射到其他所有的技术上。

但是有一个问题是很严重的,人和人之间是会有一些冲突,甚至是人为害作恶的,技术会放大这种东西,会带来失控的感觉。包括今天在线上,利用AI的技术去做诈骗或者利用AI机器人在网络上面去做不法的事情,这都是有可能的。在这种情况下,有人的恐惧不完全是对技术本身,而是就像原子弹一样,我们不怕在那儿搁着的原子弹自己爆了,而是怕有一个人按了按钮把我们毁灭掉了,AI有没有可能变成人类自毁的工具?

黄铁军:技术本身的能力越来越强,有利的方面和破坏性的强度是越来越强的,这是肯定的。但是说到背后的人,人性的不同可能会造成物用放大,那一类是要控制人的,不是要控制技术本身。人总是有坏人,像科幻电影里面讲的背后暗黑的那一位,你是要去控制他,而不是去控制他所用的飞船或者使用武器的手段。AI我是这么看的,无论我们愿意还是不愿意,除了AI,别的技术也是一样的,它一定会往前发展的。

这种发展,有些人想要利用它达到什么目的,这是一个方面,但是对人类来说更重要的使命是我们还有很多问题、难题之挑战,是靠今天的人类解决不了的,靠什么?人类的进化是亿万年的过程,不可能靠十年、一百年、一千年突然就进化出多强的能力,大脑也有很多东西要挖掘,但总的来说是有一个限度的。

发明这些技术,其实就是为了应对那些挑战。比如全球变暖,有一个什么样的办法能够控制这件事情,我相信控制全球变暖不再是某个人的聪明才智的灵光一闪,这个问题就解决了,可能是大量的数据,要AI去做分析,最后找到一个比较合理的途径,我们既能正常的生存下去,地球的热度又能慢慢降下来,这是AI在发挥作用的地方。

真的有外星人,真的宇宙有什么大的变化,对我们的生存构成了巨大威胁的时候,或者我们面临恐龙那样一个局面的时候,如果你有强大的技术手段,你可能就能找到办法。我觉得更多的是希望AI能够在那些关键时刻发挥作用,而不是被少数人用来你抢我夺尔虞我诈的手段。

郝景芳:可以看出来您是非常乐观主义的,这里面就有一个非常大的问题,AI会不会成为一个新的物种,它们的利益跟我们人类本身就不一样了。刚才您也提到了进化,在进化过程中,人类这样一个物种局限性很明显,往下一个时代进化,AI就开始自行进化了,自己不断演化迭代,演化到一定程度,和我们越分越远,也并不觉得AI它达到的利益就是符合人类的。

举个例子,像全球变暖,人类舒适的体表区间是二十几度,但是AI觉得它们自己的服务器舒适的区间是一个0度的区间,它们会把全球的气温调到0度区间,让它们自己最舒服,可是我们人类就冻死了。在这种情况下,它们看人类就像我们看小鼠一样,是上个时代的物种,它们未必考虑我们的利益,有没有可能AI发展到后来就跟我们直接脱钩了。

黄铁军:这跟刚才的思维方式有点像,人类总是想自己的利益怎么得到更大的保护。有一个趋势是必然的,至少在我们人类感知的范围内,智能程度肯定是提高的,就像从低等动物到了我们这样一个智能的水平。AI会带来一个新的智能水平的提高,这是进化的主旋律,即智能水平的提高。智能水平提高的载体,人类可能是一个阶段,我们不能说我们是永远的,以后就没有比我们更聪明的系统出现了,这也不符合进化的基本规律。但是新的智能体的出现,一定程度上还是要考虑进化的连续性,一开始可能人类有一段时间是对环境的破坏、不尊重生物多样性,但是现在这件事情大家基本上都认可了,小老鼠也好,蚂蚁也好,我们还是相对和谐的共存。

当你不是最强的时候,你可能会觉得有点不甘心,那就比一比,猴子的智力水平远远不如人,人成了新的物种,历史就该怎么往前发展就怎么往前发展,不可能猴子天天找人打仗,说你怎么让我在森林里边,我觉得那个逻辑也有问题。

郝景芳:黄教授非常有宇宙主义精神,我们人类该退位让贤的时候也应该接受现实,希望我们的未来还是生态多样性能够保持的地球。在这种情况下,您是否觉得如果真的有一个超级发达文明的星球,外星人能够跨越宇宙距离来到我们这儿,他可能大概率也是某种程度上被创造出来的一些算法机器人,而不是那个星球上原生的肉身生命。

黄铁军:对,这个问题我反过来理解。科幻小说里有很多外星人入侵的情节,既然这么多年都没有入侵过,有两种可能性。一是它太强大了,根本不屑入侵你,二是它根本不存在,我个人倾向于后者,真的不存在。不存在倒不是别的什么原因,而是真的进化出一个智能的概率太小了,在一个特定的环境条件下,基本的原子组成分子。反过来理解是这样的,我们既然在地球上是这么进化出来的,用我们的肉身进到完全不同的物理环境,难度太大了,我们身体是接受不了的。最大的可能性是把我们智能的载体,比如神经系统变成一个电子的系统,让那样的一个智能体进入更复杂的挑战的环境。

而且像刚才说的,它速度很快,所以它应对挑战的能力比我们真的肉体的人去还要强大得多,我觉得这个可能性更大。当然这也是个悖论,如果人类最终能弄出一个代表自己的系统到其他的星球上去殖民,为什么没有反过来的呢?所以也没有答案。确实是每一个环境有它进化出来的物种,真正的星际之间的交流可能并不一定是个体本身,而是一个个载体。

郝景芳:我在这个问上跟您的观点类似,因为我经常说我们不能把人的肉身看成是一个单独的系统,人类的肉身随时在跟物理环境发生交互。举一个特别简单的例子,我们去西藏,氧含量空气的气压改变那么一点点,我们在那儿就会有那么强的高原反应,甚至有的人都病了,倒了几天,然后从西藏回来又醉氧,又休息好几天。到宇宙的环境里面,空气的稀薄程度,里面的成分大大变化,几乎不太可能人就能在那边好好的生存。所以我们的人是随时随地在跟外界发生气体交换,我们和我们的地球就是一个共生的系统。

在这种情况下,确实很大的概率是我们最后拿一个芯片替替我们飞出去,芯片如果还有自我复制的能力,说不准它到了外星球还有繁衍的能力,而且芯片也更轻一些,没有人的肉身这么多的负担,这是对于未来的推演。看得出来,黄教授是技术乐观主义,相信我们创造出来的很强大的智能体,可能在未来会比人类更强大、比人类更发达,但是它反过来不会危害人类。

我不是悲观主义者,跟您唱反调,只不过作为主持人会把大众们经常忧虑的问题向您抛过来,所以会提出很多人会非常担心这样的一种技术主义,未来会不会直接就让我们人类灭绝了,以后干脆就是一个AI的世界,这也是很多科幻小说的主题。我们的时间不是特别多,您可以畅想一下,您心目中未来的场景,它是人和AI共存的世界吗?

黄铁军:刚才更多讲的是一些理念,我自己做AI从读研究生开始差不多30年了。我真正觉得一个巨大的改变是在2013年、2014年,不到10年的时间。这个改变最核心的方面是我意识到我们再花30年左右,真的能造出超人的机器了,对我本人来说,这也是一个巨大的思维方式的转变,由此我写了很多科普的文章。我写了80余篇都是在通讯上连载的,但是工作很忙,经常一、两年能写出一篇就不错了。既然是写东西,还是要说一下为什么是这么认为的。今天时间有限,我们不能完全地跟大家讲,我就说一下结果,我预测的未来大概是什么样的节奏。

未来的10年,即2020年到2030年,基于大数据、基于深度学习和深度学习后续的神经网络的算法训练出在信息处理意义上比我们人类要强大得多的模型,这是一条主线。第二条主线,虚拟的环境,元宇宙也好,数字孪生也好,你造了一个环境,这个环境再加上强化学习的算法、算力,可以训练出巨身模型,它在一个特定环境里具有很强的适应性和智能策略的能力。第三种,把地球进化出来的成果,也就是我们大脑本身给解剖出来,构造出跟它的结构类似、信号处理能力类似,但是速度要快得多的光电版本的大脑。三个路线在未来的10年都会发展,前面两个大家在眼前都已经看到了,会跟我们的生活发生很强的关系。第三个路线稍微慢一点,但是2013年左右我意识到这一点的时候,它已经不慢了,差不多30年,它就能完成这样的进化。

这几个路线也逐渐融合,前两种更多的是偏数字世界训练出来的,我叫它数字超人,在数字意义上比人强大。后面两个是巨身超人,作为一个实体,它也比我们强大。两个加在一起,将来是全面超过人类的智能。多长时间会达到,我认为未来30年会对人工智能产生巨大作用的有三个要素。一个是大脑模型,我们得做出来一个物理载体,训练它,它就能不断调整,对环境不断进行应对,就像我们的大脑一样,这是要做出来的。二是强化学习,跟环境之间互动产生惩罚或者奖励的基本思路,就像进化一样,只不过它是在人工智能系统意义上的进化,速度迭代很快。三是物理环境本身,我们怎么把物理环境做得越来越精精细。比如说你能做到物理的精度,它就能从里面训练出一些物理的规律、定律,去从这样的规律。我现在主要精力是偏于第三个方向,说一下时间。

我们要把大脑给解析出来需要多长时间?这是脑科学一个研讨会上讲的,大概2026年可以做到融合,灵长类中最小的一种猴,可以把它的全脑解析出来。2026年到2035年这10年是人类,从灵长类最小的脑到灵长类最大的脑差不多能做出来。到2025年我预计人脑的解析就能做完了,接下来的问题是搞信息技术的人、搞电子技术的人,能不能造出跟那个蓝图一样的大脑。

我算了算,我觉得花10年时间差不多,所以2045年的时候这件事情就能做到了,跟人一样水平的电脑。我在2015年1月7日在报纸上发表了一篇文章,讲的就是这件事情,我算了算30年是差不多的,所以我很激动,30年我的生命还可以为这件事情的完成做出一些贡献。

跟我一样观点的是很多现在在AI领域大家经常引用的马斯克,以及前几年去世的霍金,他们经常讲超级人工智能。其实他们是在背后的,来自于一个会,这个会是2015年1月2日到5日在波多黎各举行的,那个会上问出了同样的问题,什么时候会出现超人的人工智能,每个人说一个时间,当然观念太多了,有人说永远不可能,无穷大,也有人说10年、20年、30年。把所有人的数字排一个序,找中间点,那个中间点是2035年,跟我说的30年是一样的。做预言很难准确,但是大致是这么一个节奏。

郝景芳:无论是30年、40年,还是20年、50年,都是在座所有人的有生之年,如果我们能够在有生之年看到人类对脑的研究、对于人工智能的研究有一个极大的突破,上一个新的台阶,想想还是令人激动人心的。我们也很期望黄教授的这种预测能够让我们在未来很快看到新的发展,能够让我们的世界变得更加的丰富多彩。非常感谢主办方的邀请,感谢黄教授,谢谢大家!

黄铁军:谢谢大家,也希望大家好好活着,我们一定要等到那一天,谢谢!

足浴口爆吞精【20p】 http://www.xinzhiliao.com/zx/jianshen/28317.html
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
  • 标签:网站的公司,酒店打折,庆馀年全集观看,
  • 编辑:唐志钢
  • 相关文章