Language:En | 中文
 
当前位置: 首页 » 资讯 » 资本 » 正文

“邪恶、世界末日”是AI机器人引发的结果还是我们强加的标签?

核心提示:前段时间网上疯传的一个关于机器人进化史的视频又一次勾起了人们对AI威胁论的关注,关于霍金的“警告”也又一次被拉了出来。可是
发布日期:2020-06-02   来源:百家号 w王万物   作者:百家号 w王万物
前段时间网上疯传的一个关于机器人进化史的视频又一次勾起了人们对AI威胁论的关注,关于霍金的“警告”也又一次被拉了出来。可是关于AI威胁论我们究竟了解多少?
 
其实首次提出“AI威胁论”的并不是霍金,而是创建了SpaceX的马斯克,2014年的马斯克在麻省理工学院的一次公开访谈中发表了对人工智能的看法:“我认为我们应当格外警惕人工智能。如果让我说人类当下面临最大的威胁是什么,我觉得是人工智能无疑。”
 
从此之后,AI威胁论如一场飓风一般影响了一大批科技爱好者,不少人纷纷开始害怕日渐成熟的AI,又加之自机器人诞生那一刻起就一直被各种影视剧贴上“邪恶”、“世界末日”等各种负面标签,一瞬间,AI仿佛成为了噩梦一般的存在。
 
随后更是发生了多起“AI案”:机器人Steve投河自尽、机器人索菲亚扬言要毁灭人类、澳洲扫地机器人自焚、俄罗斯机器人逃跑、机器人Bob和Alice在无人干扰的情况下进行对话、Alexa半夜发出诡异笑声等,更是激发了人们对AI的恐惧。
 
著名物理学家史蒂芬·霍金也在接受英国《独立报》采访时说出:“人工智能很快会成为一种新的生命形态,甚至某一天会超越人类。”随后的《连线》和“未来智能中心”开幕仪式访谈中,霍金也多次表示“AI或许将毁灭或颠覆社会。”


AI威胁论成为著名科学家的理论依据时,我们对AI的态度又应该如何抉择呢?今天我将从AI是否会取代人类并且拥有人类的意识、AI威胁论的可信度和创建AI的意义谈论AI本身的价值。

 
01.当AI取缔论成为热谈时我们的抉择
 
有个有意思的点,当我们在百度框中输入机器人三个字,出现在搜索条前边的必然是机器人会取代人类吗?、机器人会拥有人的意识吗?人们为什么会出现这样的紧张感呢?
 
主要是因为近几年,随着科技的不断发展,机器人的研究已经渐趋成熟,不管是哪一国的科学家对于这项研究都非常有兴趣,并且还走出了很远的道路,例如日本的机器人已经开始能够模仿人类的面部表情,而美国的机器人甚至还推出了机器人女友,这就给我们一种感觉,机器人似乎和人类走的越来越近。
 
从我们国内市场来看,随着中国人口红利消失,机器人甚至在无形之间就替代了人类在制造业中工人的地位,甚至可能还将在军事、服务、娱乐等领域取代人类,“钢铁侠”已不仅仅存在于美国科幻电影中,而是真正走入了我们的生活。
 
随之而来的就是所谓的“机器换人”,机器人科技公司在推动其产品和技术应用的同时也衍生出机器人餐馆、无人商店、机器人送快递等新的商业模式。AI与机器人的结合,进一步提升了产品的能力,代替人类工作的范围也得到了扩展。机器人的快速发展,引发了观众的普遍担心。
 
甚至前一段时间有报道称机器人将来可能会取代我们,引发的结果就是人类大规模失业,甚至随着人工智能的发展,机器人也会制造机器人,人类生产力在经济中的价值将归于零,当生产均由机器人完成时,人类就变成了无价值的消费者,只是一张张等吃的“嘴”。
 
综上来看,AI取缔论的担忧也是可以理解的,但是我们要知道,机器人再怎么发展也是工具,而使用、制作工具,正是人类之所以进化成人类的根本原因之一。纽约时报前段时间出了一个专栏,它是这么说的:“别逗了,把手伸进口袋,摸出一枚硬币这样简单的任务对现在最先进的机器人来说都无比艰难。”这篇报道着实让很多担忧的人为此长吁一口气。
 
其实,从专业的角度来看,那些取缔论着实有点过于浮夸,首先我们从人的价值来看,我们人的最终价值是经济利用,而非生产如此简单,而AI的初衷就是用来取代人工劳动,简称劳动力,所以说,机器取代人类的那些流水线上的工作是必然的,因为这是一个时代进步的开始。
 
再次,我们从人脑的构造来看,其实人脑的存储容量是无法完全确定的,《大脑与思维》里曾对人脑记忆能力进行过估测,他把一个字母比作一个字节,人脑存下的字节可高达1008462个,这已经相当于一个天文数字了,除此之外,我们人脑还可以将这些字节自由组合,随时搭配,形成人类更复杂的思维意识。
 
凯文·凯利在《失控》里说过这样一句话:“一架波音飞机和一根黄瓜究竟谁更复杂?”其实人体的构造实际上非常复杂,根本难以通过机器进行创造。因此,这个问题应该是黄瓜比飞机还复杂,因为黄瓜的细胞结构里面的运转很难,人类目前还没有能力去创造一条生命。所以,到目前为止,生命还是来源于生命本身,而不是创造的,机器人到目前为止仍然不能取代人类。
 
德国人工智能研究中心首席执行官沃尔夫冈博士也表示:“即使是在工业4.0时代,我们的工厂里也不会空无一人”。因为将有越来越多的岗位要求能对互联网的机器进行编程和维护,并且在机器发生故障时,能够马上维修使之恢复正常。除了编程还要能解读复杂数据,与管理人员组成团队,协同工作。
 
因为未来员工的职责将从简单的执行层面转为更加复杂而重要的控制、操作和规划等多个层面。传统的蓝领劳作不再重要,再加工、维护和系统维修等工作会变得更为重要。
 
此外,“未来员工”还将使用和处理许多全新的用户界面。现在人们通常用红、绿、黄三色指示灯显示机器的工作状态,而未来,无处不在的传感器将在智能手机或平板电脑的显示器上迅速而详尽地展示出画面信息,或在智能眼镜的镜片上显示出信息。每个人都将参与到解决问题的流程中,整个流程成了一个有机整体:人和人、人和机器、机器和机器,彼此协调,谁也离不开谁,因此,“未来员工”必须能全部通晓这些知识!
 
这场由“机器人崛起”带来的工业大变革所带来更多的挑战是对“人”的素质提出了更高的要求,雇佣高素质员工将成为未来公司实现成功和盈利的单一决定因素!
 
所以,只要人类不停止自己前进的脚步,把创新和发明当成一种信仰,只那么世界的决策权就依然在我们手里!如果说“机器人”的使命是取代人类,那么人类的使命就是取代上帝。
 
所以AI取缔论并不是没有意义的,因为,虽然“机器人”不会彻底取代我们,但是“机器人”的出现不得不让我们对自己提出更高的要求:“如果你不能掌握更加先进的知识,今后不要说创业,你连打工的机会都没有!”

02.AI威胁论崭露头角时,我们的信任值还剩多少
 
AI威胁论的首次提出者马斯克被朋友Facebook创始人马克·扎克伯格认为其是个危言耸听者,其实马斯克对人工智能的恐惧本质上讲很好理解的,试想一下,如果我们创造出比人类更聪明的机器,他们可能会转而反对我们。
 
科幻片《终结者》、《黑客帝国》和《2001太空漫游》无一不在大谈人工智能是如何控制人类的。这就让我们不得不对AI产生恐惧感,我们也不得不去想一下我们将AI释放给世界之前,势必要好好考虑一下正在创造的东西所带来的意想不到的后果。
 
而与此同时,未来人类研究所的人工智能治理项目主任艾伦·达福却表示,“我们现在谈论人工智能的风险,并非迷失在科幻小说里。”该研究所是牛津大学的一个研究中心,研究的是先进技术的风险和机遇。
 
关于AI威胁论一时之间成为思想家们的辩论赛,其实在我们高谈阔论AI威胁论的利弊之前,我们应该先了解AI的运行机制。
 
众所周知,AI说白了就是神经机制的仿制,属于一种神经网络构建,它分为三大部分,首层是神经网络的构建,它是建立人工智能的计算机结构;机器学习是下一层,它是可以在神经网络上运行的一个程序,可训练计算机在数据当中寻找特定的答案;深度学习处在顶层,这是一种在最近10年里才流行起来的特性类型的机器学习,而它的流行主要得益于廉价处理性能和互联网数据。
 
简单来说,它是一种建造计算机的方式,使其看上去像是一个卡通化的大脑,当中由神经一样的节点连结成网络。这些节点本身都很笨,只能回答最基本的问题。可一旦组合在一起,它们就可以解决复杂问题。
 
更为重要的是,有了正确的算法之后,它们还能拥有学习能力。纽约大学计算机科学教授ErnestDavis这样介绍道,假如你想让计算机学习如何过马路,在传统编程方式下,你需要给他一套非常具体的规则,告诉它如何左右看,等待车辆,使用斑马线等等,然后让它尝试。而在面对机器学习时,你只需向它展示10000部安全横穿马路的视频(以及10000部过马路被车撞的视频)就行了。
 
在如今的计算机领域,深度学习才是主要发展机制。它属于机器学习的一种类型,会利用神经网络中的诸多层面以不同的抽象化方法对数据进行分析。当深度学习系统面对着一幅画时,神经网络的每一层会对其进行不同程度的放大。底层可能会关注5x5像素网格,然后判断是否有东西在当中出现。如果有的话,它上面的那一层就会开始查看该网格是如何适配到更大的图案中的。这个过程会逐渐累计起来,让软件利用逐步分解的方式去理解哪怕是最复杂的数据。
 
简易来说就是思维的构建过程,就目前AI的发展来看,人类已经拥有了成千上万的AI系统。可涉及到一般的脑力活动时,还没有一个AI系统能够比得上老鼠,更别说超过人类了。 艾伦研究所的负责人Etzioni也表示,今天的人工智能系统依然非常有限,花太多时间去担心它的安全性,完全没有意义。
 
硅谷有句谚语很适合我们现在对AI的态度:我们会高估三年内的成果,但低估10年后的成绩。毕竟对于AI这样复杂的领域来说,哲学与科学的反复博弈,势必是一个长期且必经的过程,未来还将持续进行下去。
 
所以AI威胁论到底正确与否也不是我们评判的标准,毕竟即使是各学科的顶级精英都很难达成一致。要让大众理解AI到底能做什么、在做什么、将做什么,也是一件任重道远的事。大多数哲学家、社会科学家和评论家都会“AI威胁论”买单,更何况广大普通群众。
 
值得一提的是,与其争论“机器”会不会统治人类,还不如担心一小部分人利用技术工具进行不合理的操作。比如前不久美国五角大楼试图向科学界寻求帮助,试图研制新型自主武器。这一举动就遭到了4000多名谷歌员工的联名抗议,甚至不少员工宣布不会继续为谷歌工作。 随后,谷歌也在舆论压力下放弃了五角大楼价值900万美元的合同。
 
对于AI来说,有人渴望它带来的技术力量,也有恐惧它的人,正是这种不可预见性,引起了人们对包括超级智能在内的人工智能的严重担忧。
 
或许,今天即便在众多学者的努力和言传之下,我们依然无法预知并得到一个关于AI的终极答案,但可以肯定的是,随着AI自我监督和黑箱性的破解,它的安全指数正在快速提升。某种程度上,众多“AI威胁论”者持之以恒的批评和质疑起到了“精神安全锁”的作用。
 
不久之前,Deepmind在博客中透露,准备研发一种“AI保险机制”,一旦发现AI的恶意倾向,就主动终止AI的活动。
 
当提出问题和解决方案不断以交替往复、互相影响的状态向前奔跑时,也就给AI的潜在危险贴上了一个又一个“绝缘胶布”。
 
用赫拉利的前辈苏格拉底的一句话来说就是:“我只知道一件事,那就是什么都不知道。”对于AI威胁论这一预想,我们要做的就是稳步前行,毕竟智能的完全架构不是一朝一夕就可以完成的。
 
03.创建AI的本来意义
 
你还记得首个智能保姆机器人是谁创建的吗?他创建的意义又是什么?
 
1861年,数学家雷金纳德·达西创建了自动机器保姆,他最初创建这个机器人只是为了替学校教师和女家庭教师节省人力,而效果也在意料之中。因为人类总是会带有个人情绪和想法,总是不忍心逼迫孩子做他们不愿意做的事,而AI不带有感情,所以孩子的成绩确实肉眼可见的进步,从这之后,AI走进了千家万户。
 
除此之外,AI运用最多的是在医学中的应用,国外最早将人工智能应用于医疗诊断的是MYCIN专家系统。1982年,美国Pittsburgh大学Miller发表了着名的作为内科医生咨询的Internist 2I内科计算机辅助诊断系统的研究成果,1977年改进为Internist 2Ⅱ,经过改进后成为现在的CAU-CEUS,1991年美国哈佛医学院Barnett等开发的DEX-PLAIN,包含有2200种疾病和8000种症状。
 
而我国研制基于人工智能的专家系统始于上世纪70年代末,但是发展很快。早期的有北京中医学院研制成“关幼波肝炎医疗专家系统”,它是模拟着名老中医关幼波大夫对肝病诊治的程序。上世纪80年代初,福建中医学院与福建计算机中心研制的林如高骨伤计算机诊疗系统。其他如厦门大学、重庆大学、河南医科大学、长春大学等高等院校和其他研究机构开发了基于人工智能的医学计算机专家系统,并成功应用于临床。
 
当然,AI的运用不止这些,比如与矿业有关的第一个人工智能专家系统是1978年美国斯坦福国际研究所的矿藏勘探和评价专家系统PROSPECTOR,用于勘探评价、区域资源估值和钻井井位选择等。现如今,AI已经运用到了各行各业,随之而来的是人类科技力量的急速发展。
 
由此可见,AI 智能现在的发展给我们带来的更多的是便利,现在很多人工智能的设备出现在我们身边,别的不说,单单是智能手机就能够给我们带来很多的便利,可谓是机不离手。所以,有人开始担忧人工智能持续发展早晚有一天会取代我们人类,让我们成为人工智能的奴役。
 
其实人类对于人工智能的种种担忧说白了可以归为人类对于其他未知形态的生命的害怕。
 
人类习惯了万灵之长的地位,所以害怕有超越自身的高级生命。我们研究人工智能这样一种可能成为更高形态生命的未知之物,不仅可以让人类自己对自身有一个明确的定位。而且,当人类不再抱持着是唯一的最高形态的智慧存在这样的理念时,人类可以更加坦然地面对人工智能的发展,对于世界万物,我们可以有更加深刻的理解与认知,对于人类自己,我们甚至可以从容的面对死亡,面对未来。所以我们发展人工智能还是极其有意义的。
 
从理性层面上讲,机器人能学习人类的绝大部分能力,但感性层面,如伦理价值观等,机器人几乎没有,他们的世界只有“是或不是”,“有或没有”,“对或不对”,并没有非理性上的认知。因此,机器人的学习也仅是按照编译程序的规定来运作,一旦超过界定范围,便“处于故障状态”,也就不能帮人类完成工作。
 
总的来说,人工智能的研究能够帮助我们找准人类自身的定位,甚至能够帮助我们消除对未知的恐惧,人们对人工智能的持续高涨会朝着美好的方向发展。
 
 
 
相关资讯
0条 [查看全部]  相关评论