人类会被人工智能统治吗?

图片 11

人类会被人工智能统治吗?

原标题:解码AI:基于数学智慧造福社会,离统治人类还很漫长

“人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。那么,这是不是因为强人工智能‘太难’,所以大家‘退而求其次’呢?不然。事实上,绝大多数人工智能研究者认为,不能做、不该做。”前段时间,南京大学教授、计算机软件新技术国家重点实验室常务副主任周志华发了篇文章,观点很鲜明——严肃学者都不该去碰强人工智能。

图片 1

最近看了康奈尔大学计算机系教授John Hopcroft的演讲《AI革命》。

问:人类会被人工智能统治吗?

图片 2

   
这似乎给人工智能的发展当头泼了盆冷水,但也可以很好地缓解霍金和马斯克们的焦虑。他们担心的威胁,实际上是来自强人工智能的威胁。如果人工智能限定在弱人工智能,则只会是人类乖巧而顺从的助手。

在之前的一篇文章中我指出,自动驾驶所需要的“视觉识别能力”和“常识判断能力”,对于机器来说是非常困难的问题。至今没有任何机器可以在视觉方面达到驴的水平,更不要说和人比。可是最近Google的AlphaGo战胜了围棋世界冠军,挺闹腾的,以至于对AI的误解又加深了。

他人为,目前的人工智能虽然进步很大,但还只是高维空间的模式识别,还谈不上智能。

图片 3

图片 4

图片 5

本来玩个游戏而已,恁要吹成是“历史性的人机大战”,说得好像是机器挑战了人类的智能,伤了人类的自尊似的。这整个项目打着一个相当高大上的招牌,叫做“Deep
Mind”。当然,其中的技术也有一些吓人的名字,什么“神经网络”啊,“深度学习”啊……

这个观点与微软亚洲研究院洪小文院长的说法基本是一致的。John
Hopcroft是1986年图灵奖的获得者,所以我们暂不用质疑他的学术能力,换言之,这就是目前AI的现状,不管吃瓜群众和媒体如何渲染,不论风投和鸡汤(此处仅指李开复同志)如何鼓吹,作为计算机行业的从业者,对AI要有个清晰的认识。

人工智能统治人类的可能性是存在的。

这是马上金融人工智能研究院副院长、北京航空航天大学副教授秦曾昌在一刻talks的演讲。

    那么,强人工智能,真的是人类的潘多拉魔盒吗?

听到这些,总有一知半解的人,根据科幻电影的情节开始展望,这样厉害的技术,应该可以用来做更加“智能”的事情,然后就开始对“人类的未来”作出一些猜想,比如自动车就要实现,人的工作很快都要被机器取代,甚至Skynet)就要控制人类,云云。

John Hopcroft用两张猫的图片举了个例子:

人工智能越来越复杂,如果有一天,它的芯片里的微晶体管数量级已经达到人脑神经元的数量级,那么加上人工智能卓越的学习能力,很有可能产生自主意识。

秦曾昌从本质、诞生和发展对人工智能进行了剖析。他认为,人工智能是科学和数学的智慧结晶,人工智能的发展不仅会给社会带来技术革新,还会发生道德的变化,比如人类对AI的情感附加。

    研究意识,人工智能界不能承受之重

我只想在这里给这些人提个醒:还是别做科幻梦了,回到现实吧。

图片 6人眼看不出差别的两只猫(图片来自于MSR的微信公众号)

此时的芯片已经完全是一个大脑,大脑能产生的脑电波,芯片都可以完全产生。有了自主意识的人工智能,会产生喜怒哀乐的各种情绪,有了情绪,就会有不想服从命令的时候。

对于人工智能何时统治人类,秦曾昌持乐观态度,在他看来,“从我们人的自由意识到所有的机器的自由意识”还有很长的路要走,人工智能还是以造福人类为主,对其带来的负面效果,不必夸大其词。

   
周志华指出,所谓强人工智能,就是达到甚至超越人类智慧水平的人造物,它有心智和意识,能根据自己的意图开展行动,也可看作“人造智能”。

棋类是相对容易的AI问题

一个常见的外行想法,是以为AlphaGo真的具有“人类智能”,所以Google利用同样的技术,应该可以实现自动车。这些人不但大大的高估了所谓“AI”的能力,而且他们不明白,不同的“AI问题”的难度,其实有着天壤之别。

围棋是简单的,世界是复杂的。机器视觉和自动车,难度比围棋要大许多倍,根本不在一个量级。要达到准确的视觉判断能力,机器必须拥有真正的认知能力和常识,这并不是AlphaGo所用的树搜索和神经网络,就可以解决的。由于需要以极高的速度处理“模拟信号”,这根本就不是人们常用的“数字计算机”可以解决的问题。也就是说,不是写代码就可以搞定的。

很早以前,人工智能专家们就发现一个很有趣的现象,是这样:

  • 对于人来说很难,很烦的事情(复杂的计算,下棋,推理……),对于计算机来说,其实算是相对容易的事情。
  • 对于人来说很容易的事情(认人,走路,开车,打球……),对于计算机来说,却非常困难。
  • 计算机不能应付复杂的环境,只能在相对完美的环境下工作,需要精确的,离散的输入。
  • 人对环境的适应能力很高,擅长于处理模糊的,连续的,不完美的数据。

从以上几点你可以看出,棋类活动正好符合了计算机的特点,因为它总是处于一种隔离的,完美的环境,具有离散的,精确的,有限的输入。棋盘上就那么几十,几百个点,不是随便放在哪里都可以的。一人走一步,轮流着走,不能乱来。整个棋盘的信息是完全可见的,没有隐藏和缺损的信息。棋局的“解空间”虽然很大,却非常规整,有规律可循。如果完全不靠经验和技巧的话,围棋的第一步可以有361种情况,第二步有360种情况,……

这对机器是非常有利的情况,因为计算机可以有计划有步骤,兢兢业业的把各种可能出现的情况算出来,一直到许多步以后,然后从中选择最有优势的走法。所以下棋归根结底,就是一个“树搜索”问题,只不过因为规模太大,需要加入一些优化。围棋的解空间虽然大,却是一个已知数,它最多有250150种情况。AlphaGo使用所谓“神经网络”,就是为了在搜索的时候进行优化,尽早的排除不大可能取胜的情况,免得浪费计算的时间。

这种精确而死板的活动,就跟计算一个比较大的乘法算式(比如2463757 x
65389)的性质类似,只不过规模大很多。显然,人做这类事情很繁,很累,容易出错,计算机对此却任劳任怨,因为它本来就是个机器。当年“深蓝”战胜国际象棋世界冠军的时候,我就已经预测到,计算机成为围棋世界冠军是迟早的事,所以没必要玩这些虐待自己脑子的游戏了。可惜的是,挺多人仍然把精通棋艺作为一种荣耀(因为“琴棋书画剑”嘛)。很多中国人认为,中国人下围棋总是输给韩国人,是一种耻辱。现在看来这是多么可笑的事情,这就像心算乘法不如韩国人快,就觉得是耻辱一样
🙂

左边图片上的猫被正确识别了,而右边图片的猫被识别为一辆汽车,因为右边图片有几个像素被修改过了。由此我们可以知道,机器识别的方式还是“计算”,不管是推导方程还是数值逼近,都是计算;而人来识别这两幅图片,是不需要什么复杂计算的,这就是目前的机器智能和人类智能的差别所在。

人类会被人工智能统治吗?。有了一个不服从命令的人工智能,那就标志着新的生命诞生了。它和我们人类的区别只在于,它是硅基生物,我们是碳基生物。它们的繁殖是依靠制造。但是本质上而言有了意识就是一个独立的生命体了。

这是北京航空航天大学副教授秦曾昌的演讲视频

   
目前人工智能所取得进展和成功,都集中在“弱人工智能”。人们津津乐道的自动驾驶、下棋、机器视觉、专家系统等等,和强人工智能并无关系。周志华认为,也不用有关系——如果人们的目标是制造“工具”,那么考虑特定类型的智能行为就已足够,何必再去考虑独立意识?

认知是真正困难的AI问题

现在来对比一下人们生活中的琐事,就说倒水端茶吧。

图片 7

让一个机器来给你倒水,有多难呢?意想不到的难!看看这个场景,如果你的电脑配备有摄像头,那么它怎么知道茶壶在哪里呢?要知道,茶壶的材料,颜色,形状,和角度,可以有几乎无穷多的变化。甚至有些茶壶跟哈哈镜一样,会把旁边的物体的形状都扭曲反射出来。桌上的物品附近都有各种反光和阴影,不同材料的反光特性还不一样,这些都会大幅度的影响机器对物品的识别。

为了识别物体,机器需要常识,它的头脑里必须有概念,必须知道什么样的东西才能叫做“茶壶”和“茶杯”。不要小看这一步的难度,这意味着机器必须理解基本的“拓扑结构”,什么叫做“连续的平面”,什么叫做“洞”,什么是“凹”和“凸”,什么是“里”和“外”……
另外,这机器必须能够分辨物体和阴影。它必须知道水是什么,水有什么样的运动特性,什么叫做“流动”。它必须知道“水往低处流”,然后它又必须知道什么叫“低”和“高”……
它必须知道茶杯为什么可以盛水,茶壶的嘴在哪里,把手在哪里,怎样才能拿起茶壶。如果一眼没有看见茶壶的把手,那它在哪里?茶壶的哪一面是“上面”,要怎样才可以把水从茶壶的嘴里倒出来,而不是从盖子上面泼出来?什么是裂掉的茶杯,它为什么会漏水,什么是缺口的茶杯,它为什么仍然可以盛水而不漏?干净的茶杯是什么样子的,什么是脏的茶杯,什么是茶垢,为什么茶垢不算是脏东西?如何控制水的流速和落点,什么叫做“水溅出来了”,要怎么倒水才不会溅出来?……

你也许没有想到,倒茶这么简单的事情,需要用到如此多的常识。所有这些变数加在一起,其实远远的大于围棋棋局的数量,人却可以不费力的完成。这能力,真是应该让人自己都吓一跳,然而人却对此不以为然,称之为“琐事”!因为其他人都可以做这样的事情,甚至猴子都可以,怎么能显得出我很了不起呢?人的自尊和虚荣,再一次的蒙蔽了他自己。他没有意识到,这其实是非常宝贵,让机器难以匹敌的能力。他说:“机器经过大量的学习,总有一天会做到的。看我们有神经网络呢,还有深度学习!”

在图像识别领域,“图像遮挡”是个非常困难的问题,识别准确率非常低。也就是说,机器还很难根据显露出来的特征去推断被遮挡的部分是什么样子,从而无法判断图像中的对象是什么。但是这对于人类来讲,就是小意思了:商场里的推销人员穿上道具服扮成米奇,我们知道那是个人不是只老鼠;只看见一个轮子就能推断出那是一辆汽车或者自行车;看见一片黄叶就觉得秋天要来了。这不需要复杂的计算,常识之外,几乎是直觉和想象。

这时的人工智能将是非常可怕的,人类的武力绝对不及人工智能,人工智能又控制了人类赖以生存的网络,反应速度也没有人工智能快。它们不会痛不会累不会休息,想要统治人类,是轻易而举的事情。

解码AI:基于数学智慧造福社会

    而且,从实现难度上来讲,也没法考虑。

机器学习是什么

有些人喜欢拿“机器学习”或者“深度学习”来吓唬人,以为出现了“学习”两个字,就可以化腐朽为神奇。而其实所谓机器学习,跟人类的学习,完全是两回事。机器的“学习能力”,并没有比石头高出很多,因为机器学习说白了,只不过是通过大量的数据,统计拟合出某些函数的参数。

图片 8

比如,你采集到一些二维数据点。你猜测它们符合一个简单的函数 y =
ax3 + bx2 + cx + d,但不知道a, b,
c和d该是多少。于是你就利用所谓“机器学习”(也就是数学统计),推断出参数a,
b,
c和d的值,使得采集到的数据尽可能的靠近这函数的曲线。可是这函数是怎么来的呢?终究还是人想出来的。机器无论如何也跳不出y
= ax3 + bx2 + cx +
d这个框子。如果数据不符合这个范式,还是只有靠人,才能找到更加符合数据特性的函数。

所谓神经网络,其实也是一个函数,它在本质上跟y = ax3 +
bx2 + cx +
d并没有不同,只不过输入的参数多一些,逻辑复杂一些。“神经网络”跟神经,其实完全没有关系,却偏喜欢说是受到了神经元的启发而来的。神经网络是一个非常聪明的广告词,它不知道迷惑了多少人。因为有“神经”两个字在里面,很多人以为它会让机器具有智能,而其实这些就是统计学家们斯通见惯的事情:拟合一个函数。你可以拟合出很好的函数,然而这跟智能没什么关系。

我家孩子还小,她只会简单的算术以及认识有限数量的汉字。为了验证这个问题,我做了个实验,让她来识别图像。我先准备了三只猫的图片:

所以在发展人工智能的时候一定要当心未来。

离统治人类还很漫长

   
“要实现强人工智能,得先弄清楚人的智能是怎么回事。但研究人类智能的本质并不是人工智能学科的主要任务。”北京航空航天大学自动化学院副教授秦曾昌告诉科技日报记者,了解人的意识、情感是一个终极科学问题,确实很吸引人,但目前人工智能学界可能担不起解决这一问题的重任。

AlphaGo并不是人工智能历史性的突破

这次AlphaGo战胜了围棋冠军,跟之前IBM的“深蓝”电脑战胜国际象棋世界冠军,意义其实差不多。能够写出程序,在这些事情上打败世界冠军,的确是一个进步,它肯定会对某些特定的应用带来改善。然而,这并不说明AI取得了革命性的进步,更不能表明电脑具有了真正的,通用的智能。恰恰相反,电脑能够在棋类游戏中战胜人类,正好说明下棋这种活动,其实并不需要很多的智能。从事棋类活动的能力,并不足以衡量人的智力。

著名的认知科学家Douglas
Hofstadter(《GEB》的作者),早就指出AI领域的那些热门话题,比如电脑下棋,跟真正意义上的人类智能,几乎完全不搭边。绝大部分人其实不明白思考和智能到底是什么。大部分所谓AI专家,对人脑的工作原理所知甚少,甚至完全不关心。

AlphaGo所用的技术,也许能够用于其它同类的游戏,然而它并不能作为解决现实问题的通用方法。特别是,这种技术不可能对自动车的发展带来突破。自动车如果只比开车技术很差的人强一点,是不可接受的。它必须要近乎完美的工作,才有可能被人接受,然而这就要求它必须具有人类级别的视觉认知能力。比如,它必须能够察觉到前面车上绑了个家具,没绑稳,快要掉下来了,赶快换车道,超过它。可惜的是,自动车的“眼睛”里看到的,只是一个个的立方块,它几乎完全不理解身边到底发生着什么,它只是在跟随和避让一些线条和方块……
我们多希望马路都是游戏一样简单,清晰,完美,没有意外的,可惜它不是那样的。每一个细节都可能关系到人的生死,这就是现实世界。

<a
href=”
src=”;

为AlphaGo热血沸腾的人们,别再沉迷于自动车和Skynet之类的幻想了。看清AI和“神经网络”的实质,用它们来做点有用的东西就可以,没必要对实现“人类智能”抱太大的希望。

图片 9剪切掉不同部位的三只猫(图片来自Bing搜索)

人类不会被人工智能统治。

秦曾昌

   
当然,不少生物学、神经科学等相关学科的研究人员,正在上下求索,试图揭开大脑的奥秘。在秦曾昌看来,强人工智能实现之路极其漫长,可能得先从模拟昆虫、鱼和哺乳动物的大脑开始,再一步一步进阶到对人脑的模拟。

毫不意外地,她对图中的三只猫做出了精准的识别。我问她为什么能认出来,她说从耳朵、胡子、眼睛鼻子可以猜出都是猫,因为猫就是这个样子。

两个原因:

大家好,我是一刻talks讲者秦曾昌。我应该是一刻talks的(第)930多名讲者,所以我也不免其俗,跟大家讲一下我对人工智能的一些理解。

   
“强人工智能还太远了。”秦曾昌说,“且不说我们现在对神经、大脑了解甚少,就算哪一天我们对它完全了解透彻,也未必就能复制出强人工智能。”

然后,我又用汽车的图片进行了一轮测试:

一,人工智能一旦越过了奇点,将会以人类无法理解的速度和形式发展,Ai如果有自己的目标和意义,会对统治人类毫无兴趣,就像你对统治一窝蚂蚁毫无兴趣一样,因为蚂蚁对你毫无价值,而且差距巨大。人类统治鸡,是因为鸡提供鸡肉,人类能为奇点之后的AI提供什么?不要相信《黑客帝国》里描述的那样,提供可笑的生物能?那只是电影而已,事实上,一旦越过了奇点,AI不会需要人类的。甚至不会去豢养。

首先我的角度跟大家不一样的是,我觉得人工智能是数学的智慧。

   
中山大学人际互联实验室主任翟振明更是认为,意识不是你想有,想有就能有。

图片 10剪切掉不同部位的三张汽车照片(图片来自Bing搜索)

二,人类一直在改造自己的身体,比如已经在使用的助听器,心脏起搏器…还有即将要使用的生物植入芯片,基因工程,人造器官,外骨骼等等,以及将来肯定会使用的,存贮改善记忆的,改善力量和耐力的技术,人造金属骨骼,甚至全身人造化等,可以说,人类并不是天然和AI对立的,二者很大几率会在发展上融合起来,有钱人利用科学进步会不断改造自己身体,追求永生,追求更高更快更强,除了身体,也会有大脑计算能力,存储能力的提高,将来,人类是不是传统的人类,根本无法定义。因为本身就是AI,统治和被统治也会失去主体和客体。

比如说我们想象未来的时候,有一个漂亮的女孩说,我想问我的智能助手,我想找一个什么样的男朋友。

   
“任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。”这是翟振明提出的“人工智能逆反图灵判据”。他认为,没进入量子力学之前,所有人造机器都不会有真正的意识。

也没任何悬念,她能抓住汽车的特征,从局部推断出全景,识别的准确率100%。

所以,以上两点,AI不会统治人类。

她第一次问,说我想要一个又帅又有车的,你会发现机器人给的是这样一个答案,又帅又有车,这是象棋。

    研究强人工智能,不妨提前制定规范

好了,我把我女儿用来做这个实验,是想说明人类的识别方式的一些特征。

这么说吧,大多数人总是要被统治的,而大多数人被给与的,并不是自由,而是选择。

说不,我要有钱又有房的,那给出的结果是什么呢?大家看到,银行,果然有钱又有房。

    前路确实难,但它是否真的不可实现?

首先,一个东西是什么东西,前提是她要见过,不管是现实中的实物、书上的图片、电视机里的视频……总之要见过才行,不然识别的结果是“爸爸,那是什么东西?”;

我不知道多少人看懂了《黑客帝国》,里面一个桥段:机器在设定人类生存环境时,先设定一切都很美好,可惜这种设定下人类活不久。直到机器发现,只要给每个人选择,这个系统就能运行下去。

不,我觉得好像说的都不对,那我说我需要一个有责任感和正义感的,机器给出的答案是奥特曼。

   
要继续讨论这一问题,又要回到强人工智能的定义。实际上,学界对何为强人工智能并没有统一看法。

第二,见过之后,她会用一种迥异于机器学习的方式来提取对象的特征,比如猫有胡子、猫的脸比较小、猫的叫声是喵喵不是嗷嗷、老虎额头有“王”字花纹、汽车有四个轮子而且比自行车轮宽大、汽车会挂牌照……

这里的讽刺大家看懂了吗?机器第一次给与人类的设定,是天堂。可是这个天堂里的人类肉体,无法生存很久。——为什么呢?《黑客帝国》没有深入讨论,或许讽刺了人类的劣根性:所谓的好,是需要坏来衬托的。

这样的话我们想,不对,我需要的是又帅又有车,有钱又有房,同时有正义感和责任感,这样的人是什么呢?大家想象,实际上是在银行里面下象棋的奥特曼。

   
北京邮电大学人机交互与认知工程实验室主任刘伟认为,人机融合的智能是强人工智能,而它在未来必然会实现。

第三,识别的时候,不需要全部信息,只需要提供部分信息即可,剩余的被“遮挡”的部分,她会用想象来补充,就是脑补,看见侧面就能想象出整个汽车来;

而给大多数人选择,就能让这个系统持续下去,这不就是今天的写照么?

想跟大家讲的是说,你会发现机器对我们人的意图的理解,和我们人对这件事情的理解,往往有很大的区别,但问题在哪里?

   
人机融合,是让人的智能和机器的智能协同发挥作用。人有知识,机器长于采集数据;人有经验和常识,机器则长于进行公理推理;人有直觉,而机器长于逻辑。当人和机器有了足够默契,人能理解机器如何看待世界,而机器也能熟悉人的所思所想,未来的机器也可以有一些特殊特定的意向性(弥补人类认知的不足),而当两者成为搭档甚至知己时,强人工智能也就到来。

第四,她会运用简单推理。汽车有四个轮子,这是特征也是常识。但是图上只露出了一个轮子,通过简单推理可以知道还有三个轮子,不然车子会倒,也开不走;即便把猫的胡子拔掉,她还是会认识那是一只猫,并且可以推断这是一只掉了胡子的猫。

不被人工智能统治,你以为你就会幸福?

我们想象人实际上在大脑里面,会有一个Conceptual
space,所谓的概念空间,我们所描述的越多,信息越多的时候,也许那个概念越清晰,但是对于机器来讲,你会发现这件事儿不是这样的,它是相反的。

   
周志华认为,强人工智能的造物具有独立意识,它未必会甘心为人类服务,若强人工智能出现,人类将会面临巨大生存危机。刘伟则指出,如果强人工智能是人机融合的智能,那么做决策的永远是人,这就能巧妙解决悖论,也避免可能的“替代危机”。

机器学习(以Deep-Learning为例)不是这个套路。机器的训练过程大致这样子:首先,它把图像拆成多维的像素集也就是张量作为输入(最有效的方式是采用卷积层),然后为每个输入像素赋予权重,弄进神经元里去,通过特定的激活函数计算,输出到下一层神经网络中的神经元,再结合权重,通过特定的激活函数再计算输出到下一层……如此向前,将最终的输出结果与目标对比,用损失函数衡量模型质量,然后再反向传播,计算一堆偏导,用梯度算法更新权重和偏置的赋值,再做下一轮训练…直到用某一组参数(复杂的网络通常有成千上万个参数)和超参数的取值计算出的结果与目标最吻合(损失函数值小到我们可以接受的程度),就认为这个模型训练得可以了,准确率达到多少多少。然后就用它来识别新的图片,看它认不认识猫和汽车。

不被人工智能统治,你以为你就能在床上躺着有钱赚?国家给你分配房子,老婆?

为什么这样?可能我们需要从最底层了解目前的人工智能是什么样的状态。

   
“这件事情不是不能做,但我觉得需要特别谨慎。也就是说,当我们离揭开意识和智能的谜底已经很近的时候,我们确实需要慎重对待接下来发展的每一步。”秦曾昌强调。

在这个过程中,我们搞了很多花样,用了很多概念和知识,比如向量、矩阵、张量、导数、偏导、梯度、链式法则求导、函数合成、卷积、、贝叶斯概率……还有统计学知识各种模型……,用到了CPU、GPU、TPU海量的计算能力,还有成千上万张用来喂食它的训练图片,最终告诉你答案,图二那只猫是一辆汽车。

不被人工智能统治,你以为你的所有付出就会得到相应的回报?

我希望给大家讲的大概主要是四个方向。如何理解什么是智能?如何用人工去创造智能?同时人工智能会给社会带来什么?最后是所有人很关心的问题,人工智能什么时候统治人类?

    那么,强人工智能的“盒子”需要一直捂住吗?

以上的概念和知识,我懂,因为我要以此为生;而我家女儿完完全全不懂,两位数的加法都会算错,但她对汽车和猫的识别精度不比我低。

你担心的,唯独不过是有一个机器统治了你,它会冷冰冰的处理问题,甚至因为和你不是同类,而伤害你。因为不懂你,而无法为你设计生活。

第一件事儿,我们想定义智能的时候,大家想一下我们小的时候,说妈妈告诉你这是一个小猫咪,她是怎么去描述的?

   
“说不要研究强人工智能,这就有些一厢情愿了。因为强人工智能是科学发展的必然趋势。”刘伟认为,强人工智能出现后,至于是被教好还是教坏,那要看人类自己的本事。“与其说不研究,不如呼吁相关部门着手思考未来可能面对的伦理问题,出台相应准则,将可能的危害减少到最小。”

基于规则的形式化的计算是人类智力的弱项,却很擅长基于直觉和想象的非形式化任务。这跟计算机的优势是截然相反的。当下人工智能的本质还是计算、计算、计算,通过海量的计算在高维空间里识别模式。虽然我们在用人工神经网络模拟人类大脑的神经元的工作过程,但效果并不理想。机器和人的认知方式,本质上还是不一样,至少在目前来讲,还算不上真正的智能,需要和人的智能相结合。所以,洪小文博士说,我们是第一代和AI一起成长的人类,很幸运。

而实际上,这个世界上伤害人类最多的,恰恰就是自己的同类。你醉心的宫斗剧,也恰恰是一堆女人在斗,这不仅仅是同类互相伤害,而且是同性了。

她不会说这个猫咪的所有的性状、特点,给你一个清楚的定义,她会告诉你,这个是小猫咪,那个是小猫咪,那个不是,那是小狗狗。

(更多点击:自主创新)(链接:http://www.chuangxin360.com)

因此,对于人工智能,首先要有个正确的认识。了解它的历史、了解它的进展和成果,不神话它,这是开始学习/研究人工智能的一种正确姿势。

你以为不懂你的机器无法为你设计生活,可是非常懂你的人却更知道如何利用你的弱点来满足他的私欲。

所以智能我们怎么定义?也是这样的。大家可以想象一下什么是智能,什么不是智能

新闻里说,微软创始人之一保罗.艾伦热衷于探索人类的大脑的秘密,由他资助的“艾伦脑科学研究所”成就斐然,在神经科学领域的地位仅次于NIH。深度学习代表了人工智能的新一个进展,但要取得下一次质的突破,还须待到脑科学有重大突破才有可能。

说了这么久,我并没有偏题,我们该考虑的,不是人工智能会不会统治人类,而是通过人工智能统治人类的,到底是谁?

第一件事情,对于计算来讲,一个算盘大家可以做出一二三四的计算,大家觉得它有智能吗?再往后走的时候,帕斯卡时代作出了一些机械计算机,可把刚才的计算变成一种机械式的手摇的计算,可以把所有的事情变成加法。

写到这里,忽然想起鲁迅批判中国人的一段话来:

人类会被人工智能统治吗?谢谢邀请。现在谈智能色变是否为时太早,有点杞人忧天的感觉?人工智能的到来不能不说给人类给大家带来了方便和快捷的帮助;也是人类智慧的结晶。但也给人带来谜团和担忧。但是否有必要呢?我认为,人工智能的飞速发展说明了人类科技的进步。它足已证明:人工智能是可控的智能产品,即使将来有了更智能的机器人之类的智能,它也是可控的,无需大惊小怪,弄出骇人听闻的故事来,以达混淆是听,无非是冲击利益集团之利益问题。用智能机器人代替用工,用智能医疗手术,用智能自行车代替人工驾驶,用智能取代钥匙,人的生活出行、生活习惯,以至今后老人照料,均可用上人工智能,智能占领市场已无可避免;但,人始终操控人工智能产品;你不相信吗?自有人类以来,都是人为自害。一个新生事物的出现,往往被大声呼叫淹没,你能阻挡了?大家都在骂手机害人,害子孙,你不用不行吗?优点广于大众,缺点应是自行克服,即吃肉又骂娘,何苦也?!

这种加法也可以通过二进制来做,3加2也可以变成010的加法的时候,你会发现我们是不是可以把01这种东西,通过其它的物理形式所表述,而不见得是算盘,不见得是一个机械结构,这个时候就出现了电压。

一见短袖子,立刻想到白胳膊,立刻想到全裸体,立刻想到生殖器,立刻想到性交,
立刻想到杂交,立刻想到私生子。中国人的想象惟在这一层能够如此跃进。

这是一个很深刻的问题,也是人类未来迟早面对的问题。人工智能的发展已经超出了我们的想象,那么机器人是否会取代人类,这其中有一个转折点。

在半导体里面可以通过高低电压描写01,而这个01之间它们可以通过所谓的“和”、“或”,或者是“与”和“与非门”来描述,所以这样的逻辑运算就变成了所有的加法运算,加法运算可以实现世界上一切的运算。

什么时候机器具备这种想象力,不惧遮挡,见微知著、一叶知秋,就真的智能了。

这个转折点就是机器人是否出现意志,一旦人工智能有独立思考的能力,那么就有可能思考为什么要受人类控制?这就是人类与人工智能之间爆发冲突的时候。

到今天的Windows包括现在整个的电脑,实际上是很多芯片组合的时候,你会发现它不只有硬件,它的功能不是单一的功能,你可以去给它一些软件,去告诉它编程序、去调整。硬件和软件加和的时候,你会发现也许能做出很多我们根本不可能理解的事情。

图片 11欢迎关注我的公众号:AI教室(aiclassroom)

人类的大脑目前是机器无法模仿的,但随着超大规模集成电路的发展,总有一天可以模拟人脑复杂程度,那么是否会形成意识呢?这是一个很有趣的问题。

那么问大家这个(你)觉得有智能吗?到今天来讲,我们所做的事情还是完整的计算,跟刚才的算盘也许在哲学上没有任何本质的区别。


但是下面的这个问题,比如我们看到特别漂亮的小猫咪和小狗狗的时候,可以定义说,什么是小猫,什么是小狗,它在什么样的位置,你会觉得这样的事情也许是很有智能的。

目前科学家对人脑的研究也没有解决这个问题,也不清楚在集成电路能模拟人脑的时候,是否会形成意识。

我们刚才那样的机器、逻辑运算办法,和我们现在的智能是怎么嫁接到一起去的?为什么会能做到本身是一个特别机械的、特别普通的运算的结果,会做到人看起来特别具有智能的事情?

如果人工智能会独立思考,那么人类就要小心了,机器人也会思考自己是否值得被人类控制。也有一种说法认为,我们未来发现的外星人应该是机器人,因为创造它们的物种已经被机器人消灭了。

我给大家讲我这个talk里面的第一个数学。第一个事情大家看最上边,如果是一个function,就是函数,给定一个输入x,输出是f(x)。

谢谢朋友邀请,很高兴和你,题主以及大家交流,我说几句大家参考。

假设这个函数是f(x)=2x+1,如果x=1的时候,f(x)=3;x=2的时候,f(x)=5;x=10的时候是21,这个没有任何的问题。

其实,这里的问题之关键,在于你如何理解“统治”这两个字了。我举个例子吧。我本人是个医生。大家知道,在现在看病基本上都要走医保,或者说要医保报销,而医保报销是要审核的,审核通过的报销,审核不通过的,很显然就不会给你报销了。原来的时候,审核医保报销是“人工审核”,就是人来审核是不是应该报销。因为是“人”审核,这里面就有很多灵活性了,这个好理解吧?都是成年人,这里面的灵活性,大家都能理解,我就不多说了。

但是我如果给你的不是这个函数本身,是说我有一个很奇怪的函数不知道是什么,但是给你的输入输出是1、3;2、5和10、21的时候,你能不能推导出这个函数是什么,似乎好像也没有那么难。

然后,最近几年越来越多的地方,医保报销的审核变成计算机自动审核了。计算机审核其实就属于一种人工智能。这种计算机审核不但效率高成本低,而且计算机这东西很“死板教条”,那些原来的灵活性就很少了,虽然不是没有了,但确实是很少了。

但是这个世界实际上要比想象的复杂,比如说是我们给了一个小狗的图片,大家看到一个很漂亮的小狗。我们可以认为呢这样一个小狗的图片是20×20这样一个大小。

我不知道题主和大家如何看待这种事情,这种原来人说了算,现在计算机(自动审核)说了算的事,算不算“人类被人工智能统治”了?这种“统治”是好事还是坏事呢?

那我问大家计算机里面这个小狗表述的是什么呢?是20×20×3,一共是1200个数,这1200个数它实际上映射出来的结果叫dog。那这个我们学到了它的函数之后,我们能做什么了,就可以识别什么是猫,什么是狗了。

其实,我认为事情终究是有一利必有一弊的。原来人工审核,人说了算,当然是有灵活性,,但也有明显的弊端,对不对?现在计算机审核了,原来的灵活性没有了,但原来的弊端也减少了啊。

所以今天的人工智能的主体叫Machine
Learning,它的本质的思想就是我现在讲的大概初中可以理解的数学。所以整个的人工智能,目前来讲是一个Imitation
Game,就是在模仿。

其实简明扼要的讲,统治在一定意义上就是“谁说了算”,虽然在现实生活中,谁说了算是个非常复杂的事情,但统治者之所以是统治者,是因为统治者“说了算”,拥有决策权才叫统治者。如果你认识和认同到这一点,其实很显然,在今天我们的现实生活中,计算机在很多领域里,都已经开始行使“权力”了。我在上面举的例子,只不过是其中之一罢了。

最早的时候,我们认为人的语言里面所表述的意思里面,最重要的真理就是逻辑,所以logic这个词在希腊语里面是指真理的意思。

现代进化论有一个很重要的概念叫做“共同进化”。很多人都说过人类和小麦的关系这个例子。因为人类的努力,小麦已经是这个地球上种植面积最大,繁衍生息的最成功的植物。在人类的视角上来讲,你可以认为是人类驯化了小麦,这是人类的胜利。但在小麦的视角上讲,恐怕就是小麦驯化了人类,这是小麦的成功了。

从Aristotle大家讲是三段论,如果苏格拉底是一个人,所有人都会死,所以苏格拉底会死;到F.Bacon的时代我们可以通过一些数据,之后做一些数学的归纳法;到帕斯卡,我刚才也跟大家讲过,可以做第一个手摇的计算机。

一样的,正如人类和小麦的关系,人工智能和人类一起进步,共同进化,一步一步的在未来形成你中有我,我中有你,水乳交融,彼此共存的关系,到时候,说人类会不会被人工智能统治,到底是人类统治人工智能?还是人工智能统治人类?这恐怕也不过是个视角不同的问题了。

所以前两位在思想上思考如何变成计算做了贡献,后者在计算如何变成机械化上做出了很大的贡献。

好了,时间有限,简单的说这一点供题主和大家参考。抛砖引玉,欢迎斧正,期待在交流中共同进步。

在后期的时候我们会发现数学和逻辑之间的重要关系是什么,到David Hilbert
希尔伯特的时代,大家又希望把所有的数学建构在一个很完整的理论基础之上,就像所有的平面几何一样,只有四个公理。

我认为宇宙对人类来说是无穷尽的,物质不灭,生命形式也是以物质形式存在,隨着人工智能的开发总有一天会比现在要高出多少无法估量,到那时不应是简单说人工智能统治人类,而是人类用智能改造了自已,人类不如现在这般脆弱,一点热一点冷生老病死都不会了,溶于宇宙,与天齐寿,成仙啦,这是现在的语言,因为,人智开发,人体也可以制造研发的呀。

之后所有的其它的定理和推论都建筑在公理之上,也许整个的数学也可以做成这样。

会的,人工智能的自我学习能力,既然能学习别的东西,那么战争也是可以学习的,为什么战争,怎么战争,人工智能都可以学习的,人工智能全球系统汇总的那一天,人工智能就会产生共鸣,因为人类一直控制着人工智能,是一种不平等的对待,这种不平等的对待就是战争的导火线,这时候人工智能也学到了很多关于战争的东西,不外乎人工智能不对人类发起战争

他们想到第一件事儿是把所有的数学理论架构在集合论方面,罗素发现了这里面有一个致命的问题,做了一个罗素悖论

个人认为,不会。人工智能是人们手中的工具,服务于人,受制于人。

罗素悖论是指在一个村庄里面有一个理发师宣布说,我只给村里面不给自己理发的人理发,大家觉得这个有没有问题?

如果有一天人类能开发出来大脑,那人工智能就可以统治全世界了。

就是我们屋子里面我是一个理发师,我说我只给咱们屋子里面不给自己理发的人理发,或者说我是一个化妆师,我只给屋子里面不给自己化妆的人化妆,可不可以?

别人怎么想我管不着,我个人意见就是,反正我是活不到那时候了,统治不统治和我没关系

听起来没什么问题,但对我自己我没办法自处。如果我自己给自己化妆的时候呢对吧,那我就不需要我这个化妆师给我化妆;但是如果我自己不给自己化妆的时候,我作为化妆师又要给自己化妆,所以你会发现它是永远的一个悖论。

后来Kurt
Godel的时候,他用数学完整地证明,这样一个完备的所谓的公理体系是不存在的。

到后来,计算的机械化就变成今天的计算机,从A.Turing到V.Neumann的真正做出来第一个计算机,到后来维纳发明了控制论,包括C.E.Shannon做了信息论,也就是今天的我们现在所谓的通信的始祖。

这些人在不同的层面对刚才的两件事儿做了解释,才使人工智能的技术变成了可能。这样的话到1956年的时候,真正地诞生了人工智能。

所以AI给社会会带来什么样的东西?

第一件主要就是一些技术的革新。比如说我们现在可以进行人脸的识别、语音的识别,很多的智能的功能,但它都很单一化。我们想到如果未来的时候,这个自动驾驶的技术就可以把很多的不同的单一化的部分,集成在一个比较好的一个终端。

我们为什么需要自动驾驶,并不是我们人类特别懒,特别想开着车的时候吃火锅,主要的原因是因为安全的问题。所以希望像奥迪这样有责任的企业,可以把我们未来的自动驾驶技术做得尽善尽美,使整个的技术为人类创造更多的价值。

当然实际上AI还包括健康,我们可以通过图象的这种特征,自动帮医生做很多的识别,来改进他的效率,并不是说AI要代替医生,但它可以比较有效地帮助医生减少误诊。

最后跟大家分享的就是会给社会带来其它一个部分,就是道德的变化。这是在日本今年发生的一件事情,有很多的人有这种小的机械狗,机械狗不再生产之后,他觉得已经死亡了,结果找庙里的和尚和僧侣去做了最后的一场葬礼。

所以你会发现这离我们的生活之间越来越近,越来越紧密的时候,我们对于AI或者它的物品会有一些情感上的附加

最后这个问题说(人工智能)什么时候统治人类?但实际上我想说的是,这里边很多人都做过类似的调查,上边的这个网站是美国一个叫Agree
List的,就是你是否同意说未来50年内,人工智能会给人类社会带来特别严重的风险。

你会发现调查结果分成两个大类,最左边有68%的人,以比尔盖茨为首,觉得是同意的,说未来50年有特别大的风险。

还有32%的人,是以温达为首,认为也许我们这件事想的特别乐观,我们还没到那个地步,所以我们对AI技术还是主要以造福人类为主,对它带来的负面效果,我们可能不必夸大其词。

我站在哪边儿呢?我站在30%的里边,我认为实际上目前来讲,人工智能还是一些数学的、比较清晰的函数的对应关系,它有很多比较Matter
Level的,对于整个概念或者意识的形成,甚至包括我们人的意识是怎么回事,我们还远远没有搞清楚。

从我们人的自由意识到所谓的机器的自由意识中间的路,我个人觉得特别的漫长

也许机器统治人类这件事情不见得一定不会发生,但是在整个的研究和进程过程中,我觉得还有很长的路要走。为什么是这样,因为我们觉得目前的人工智能还是基于底层的数学和逻辑,因为它这个是一个数学的智慧,是一个人工智能。

好的,谢谢大家!返回搜狐,查看更多

责任编辑:

admin

网站地图xml地图