人工智能最终是否会威胁人类的发展
2015年1月12日,由福州一中校团委、学生会学习部举办的为期一个月的校园辩论赛在福州一中新校区报告厅圆满落幕。此次辩论赛活动中,高一、高二同学自由组队,经淘汰赛重重选拔,最终有八支团队脱颖而出进入正式比赛,共计七场。
最后决赛的辩题是“人工智能最终是否会威胁人类的发展”。辩论赛上,辩手语言犀利,针锋相对,尽显才学和思辨能力、团结协作精神和临场应变能力,令场下观众无不为之叹服。
辩题:人工智能最终是否会威胁人类的发展 正方:人工智能最终会威胁人类的发展 反方:人工智能最终不会威胁人类的发展
注:文字内容均有所删节,尤其是其中自由辩论环节,只是精选的部分内容。
陈述观点 正方
感谢主席及对方辩友。我方的观点是:人工智能最终会威胁人类的发展。 人工智能,英文缩写为AI,也称机器智能。人工智能,是计算机科学、控制论、信息论、神经生理学、心理学、语言学等多种学科互相渗透而发展起来的一门综合性学科。从计算机应用系统的角度出发,人工智能是研究如何制造智能机器或智能系统,来模拟人类智能活动的能力,以延伸人们智能的科学。
我方认为,辩题中的“最终”是一个较长的时间段,如果仅针对现在人们认知中的科技进行讨论是远远不足且狭隘的,应当从整体的发展规律或趋势中对人工智能的利弊进行总结。以下是我方的几点主要观点:
人工智能使人类自然机能出现退化。大家想一想自己周围的人或事,有多少人因为吸尘器的出现而再也没有主动拖地;有多少人因为手机软件越来越人
1 / 7
工智能化而成了宅男宅女,从而缺乏必要的脑力和体力锻炼。再放眼国外,西方那些人工智能较为先进的国家,居民的心脑血管疾病发病率居高不下,这其中很大一部分原因便是人工智能带给他们的便利使他们缺少了对自然机能的使用。人的三个劣根性之一便是懒惰,只要有一个足够便利而舒适的环境,人们就会尽量将事情交付给人工智能去做而非自己亲自去做。根据“用进废退”的原则,长期来看,人工智能将使人类逐渐丧失对于自己生存有益的智能和体能。
人工智能对环境的破坏作用可间接威胁人类。机器总有报废的时候,人工智能也不例外,即便是再清洁的处理技术,人工智能的开发及使用环节依然会消耗大量的资源。在未来,当人工智能面临更加广阔的使用空间时,对于环境的破坏无疑会进一步升级,这必将威胁人类的生存。
长远看,高级人工智能产生自我意识继而拥有生存本能也会威胁人类。近年来的一些研究表明,通过机械模拟人类大脑皮层,高级人工智能的自我意识将会逐渐增强。一旦其拥有了自我意识,并与人类产生对立后,高级人工智能所拥有的生存技能就会转变为与人类对峙的一股强大力量。
更大的威胁是,人工智能被人为输入生存本能或是毁灭人类的指令。现在军队中使用的无人机等武器便是人工智能的雏形,而伴随着人类科技的发展,人工智能被用于战争的概率会越来越高。随之而来的便是战争成本的进一步下降。
国家或个人受利益的驱使,加之拥有开展大作战的能力,世界大战恐怕一触即发。另一方面,在科技的发展史上,总有一些科学怪人以毁灭人类为目的进行破坏性研究。未来,人工智能这一领域又怎能保证不会沦陷呢?一些图谋不轨的人极有可能借助人工智能的力量对人类开展毁灭性的打击,以达成其种种邪恶目的。这无疑是人工智能的又一大威胁。
因此,我方的观点是:人工智能最终会威胁人类的发展。 反万
人脑的思维能不断地提出新问题,发现新事物,并通过实践创造出属于人的新世界。人工智能只能按照人事先为它设计好的程序来运行,机械地模拟人的意识活动,却毫不理解这一活动,更不会提出新的问题来。人类意识与人工
2 / 7
智能有着本质的区别,二者是创造与被创造、支配与被支配、操纵与被操纵的关系。
如果有一天,当人工智能会发展到“接近”于人类智能的地步,产生一点可能“威胁”人类的“苗头”,那么,我们的后代一定在讨论一个问题,它不是“人工智能会不会超过人类”,而是“如何让人工智能不会威胁人类”。相应的机制一启动,危险的“魔盒”即关上!
人工智能不会影响社会关系的发展。是的,我们都知道,机器是会取代部分人力的。长江上的纤夫,你们看不到了,这并不遗憾,哪位想去做这项工作呢?抽水马桶与排污管道的使用,使挑粪便的职业没有了。请问这限制了人类的发展吗?要缓解失业问题,不是通过限制科技的发展,阻止历史车轮的前进,而是让人向新的领域拓展。
我们深信,猴子始终是猴子,不因为它像人一样,站了起来,就成了人类。人工智能是一项服务于人的技术,不因为它在模仿人的智能,人工智能就取代了人。
对方辩友对人工智能技术有深入的了解。我们非常期盼对方辩友以后能在人工智能方面做出举世瞩目的贡献。因为,我们深信,你们的研究目的仅有一个,那就是让人工智能服务于人,而不是威胁人类、毁灭人类!
综上所述,我们的观点是:人工智能的发展最终不会威胁人类的生存。 自由辩论 正方
对方辩友认为人工智能是为人类服务而存在的,不会威胁人类的发展,而我方认为这种服务只存在于一定阶段,但今天问题强调的是“最终”。我方已阐述过,人工大脑并不会立即控制人类,此前还会有一段与人类“和平相处”的时期。这一时期它不断接近但尚未超越人的智力水平,因此“聊天机器人”“家务机器人”“伴侣机器人”等人工智能设备将使人类的生活充满乐趣,为人类生活提供极大便利。但这样的美景并不会长久,人工大脑的继续发展将使人类面临灾难。
3 / 7
对方辩友认为人工智能是为人类所控制的,人类不会自己消灭自己。当然人类不可能无故做对人类不利的人工智能,但是,人是有欲望的,请大家看看,法西斯的细菌战、“二战”时期的原子弹,难道大家不知道这对人类不好吗?就美国科学家雨果为例,连他自己都说:“从内心深处说,我是一个宇宙主义者,因为如果有能力而不去做,对一个科学家来说是痛苦的。但我又非常矛盾,因为我不希望自己所做的一切最终毁灭人类。”在雨果眼中,人工大脑的研究无疑是极具诱惑力的,因为它可以使人造胚胎、飞秒开关、一进制等科学理想成为现实。但雨果对人类的未来却是悲观的:“我们是在制造上帝还是在制造我们潜在的终结者?科技前进的脚步是挡不住的,也许我们只能期望,人工大脑最终能放弃地球去更广阔的宇宙,让人类在这里继续自由生存。”这些无不证明人工智能对人类的发展是存在威胁的。
反方
对方一直强调人工智能发展迅猛,那么这难道不是一种对人脑的再补充吗?不是促进人类发展的力量吗?
我方再次重申,人工智能不会威胁人类的发展。人工智能与人类相比,不具有生物体所特有的心理与生理的思考能力,不具有社会性的思考能力,不具有人类特有的创造性与自我提升的能力。人工智能的发展始终处在可控的环境下,始终无法与人类相比,也就根本不可能对人类的发展构成威胁。
针对正方三辩问题的回答:人类是理性的,面对威胁整个人类生存发展的重大事件,人类将做出相应的规范,从而控制危机的最终发生,而不会让极个别的几个“坏人”掌握世界的生死大权。
总结陈词 正方
谢谢主席,尊敬的评委、对方辩友以及各位观众大家好。我方所持观点是:人工智能确实最终将对人类发展产生威胁。
首先,关于人工智能的解释我方前面已经说过,这里就不再重复。在人工智能技术领域十分活跃的IBM公司已经为美国加州劳伦斯?利佛摩尔国家实验室
4 / 7
制造了ASCIwhite电脑,号称有人脑的千分之一的智力能力,而正在开发的更为强大的新超级电脑――蓝色牛仔,其研究者保罗?霍恩称:蓝色牛仔的智力水平将大致与人脑相当。我们认为照此发展,“人工大脑”迟早会超过人类。就计算能力而言,人脑的转换能力是每秒10的16次方,而人工智能机器的运算速度可高达每秒10的40次方,是人脑的10的24次方倍。被誉为“人工大脑之父”的雨果?德?加里斯教授预测,人工大脑并不会立即控制人类,此前还会有一段与人类“和平相处”的时期。这一时期它不断接近但尚未超越人的智力水平,在这一段时期,它的存在对人类来说是利大于弊的,会为我们提供诸多帮助。但这样的美景并不会长久,人工大脑的继续发展将使人类面临灾难。
经过认真研究,我方认为人工智能对人类可能产生的威胁主要表现在以下几方面:
人类自然机能出现退化。美国斯坦福大学的研究学者拉尔德?克拉布特里是这样说明这种退化的:早在几千年前人类开始生活在密集的农业部落起,就已经失去了需要变得更聪明的进化压力,而我们的祖先在非洲出现之前,知识能力的发展以及上千种智能基因的最优化,很可能发生在非语言的、相对散落的人群中。言下之意就是条件的优化导致人类机能的弱化,包括体能和智能的弱化。就像坐汽车的人体力不如走路的人,城里的人体质不如农村的人,学生的体育成绩一代不如一代。比如说,我们中有人会手工计算开平方根吗?很少,因为我们从来都是用计算器算的。
再来谈环境的影响。古代战争用矛盾和刀剑,现代战争用各种导弹,甚至原子弹。原子弹对人类的危害已不必再论述,日本广岛就是很好的例证。过去砍伐是伐木工用刀一下一下来砍,现在用的是伐木机,一片又一片的森林快速地倒下。这些人工智能的使用对环境的影响已经非常显著了,史无先例的雾霾、频繁的泥石流等就是最好的说明。当然,我们并不是反对进步,我们也承认对方辩友说的前进中的步伐可以靠法律来规范和约束,但我们是不是不得不承认人工智能确实在通过环境来惩罚人类呢?
雨果被称为“人工智能领域的霍金”,世界仅有的四个人工智能机器均出自雨果之手。人工智能机器并非电脑,雨果的工作是用“基因算法”设计神经网络,也就是“生产大脑”。他的\大脑制造机器可以在几秒钟内进化成一个神
5 / 7