人工智能领域选题?人工智能领域
15
2024-06-10
这篇文章给大家聊聊关于如何让人工智能合乎道德,以及如何让人工智能合乎道德要求对应的知识点,希望对各位有所帮助,不要忘了收藏本站哦。
本文目录
最人性化的人工智能,就是仿人体、仿真人举止智能机器人,能胜任人的大部分工作,为人类提供各种服务。
当前需要发展和解决的关键技术是,仿人脑中央芯片;各种人体感受传感器,如视觉、听觉、味觉、触觉等;灵活肢体、表面柔性仿人体结构及电致伸缩筋和电致伸缩肌肉等。
未来机器人的更多人性化设计见《奇遇未来》,外观与真人无异,难辨真假,功能可替代人类各种工作,为人类提供服务。
创新创业无思路,看看未来找灵感。
中国作者真圣贤!写实未来几千年!
衣食住行全涉及,生老病死都改变。
方方面面高科技,未来人生书中现。
读知未来懂科技,《奇遇未来》颠三观。
http://book.qidian.com/info/3315433
既要靠道德约束,也要靠法律约束,将道德约束与法律约束相结合。人工智能系统所做的决策应该是可解释的、透明的和公平,确保智能机器的思维反映了人类的最高价值,让它们成为有用的仆人,而不是弗兰肯斯坦失控的怪物。
但这并不意味着涉及人工智能的关键伦理问题就不在眼前。例如,未来自动驾驶汽车的使用就提出了棘手的伦理问题。人类司机有时必须在瞬间做出决定。他们的反应可能是瞬间反应的复杂组合,来自过去驾驶经验的输入,以及他们的眼睛和耳朵在那一刻告诉他们的。今天的人工智能“视觉”并不像人类那么复杂。预测每一个可以想象的驾驶情况是一个很难编程的问题。
相信很多人都听过哲学家菲利帕·福特(PhilippaFoot)于1967年提出的“电车难题”。50年来,电车难题有了很多版本。在无人驾驶已经出现的今天,当车祸无法避免时,无人驾驶汽车究竟应如何取舍,是优先保护马路上的儿童、还是宁愿撞人也要保护车内人员呢?
人类即将进入机器人时代,《科学》杂志有研究表明,随着机器习得类人的语言能力,它们也容易习得语言应用中根深蒂固的偏见,这种偏见如若被放大,后果不堪设想。还有预言称:人工智能系统在未来很可能摆脱人类监管,自主作出决定,甚至走上反抗人类的道路。
5月20日,北大博雅讲坛第129期活动“机器人能明辨是非吗——人工智能伦理道德的未来走向”正是要探讨这些问题。
?
温德尔·瓦拉赫
这次活动由北京大学出版社、北大博雅讲坛、博古睿研究院中国中心、当当联合主办。活动主讲嘉宾是《道德机器:如何让机器人明辨是非》的作者之一温德尔·瓦拉赫(WendellWallach)。中国社会科学院研究员刘钢、西安交通大学计算哲学实验室中方主任王小红也出席了活动。
瓦拉赫是享有国际声誉的人工智能和神经科学伦理学领域的专家。他主持耶鲁大学生物伦理学跨学科研究中心技术和伦理工作小组长达十余年,获得过全球技术网络协会(WorldTechnologyNetwork)颁发的2014年的伦理学奖,世界经济论坛任命他为2016-2018全球未来技术价值和政策委员会的联合主席。
瓦拉赫并不是站在未来学家的角度去猜想或者预测人工智能的未来,而是基于当前技术的现状去说明伦理决策能力的必要性。目前这些普遍被应用的自动金融系统、机器人照料者,以及机器人吸尘器已经能够影响人类的生活,并产生复杂而难以预料的伦理后果了。
他认为人工智能的道德发展将经历操作性道德、功能性道德,和充分的道德主体性三个阶段。其中操作性道德比较低端,是指道德已完全掌握在设计者和使用者手中;第二个阶段是功能性道德,稍微高端一些,因为这个阶段机器自身已经有能力响应道德挑战;第三个阶段就是计算机可以自己做道德决策的阶段,当然第三个阶段还是开放性的,哲学家、工程师们还需要探讨单单靠一台机器能否成为道德主体的问题。操作性道德和真正的道德主体之间还有着很多的空间。
?
他在《道德机器:如何让机器人明辨是非》一书中认为,虽然难有万全之策,但有可能建构一种人工道德智能体(AMAs),让人工智能具有基本的道德敏感性,逐步使人工智能和机器具备道德决策能力,并随着智能技术和人机交互的进步而进化、发展。这是一种自上而下式与自下而上式的混合道路,这样才能够使美德和特殊的情境相结合。
瓦拉赫对很多问题还保持开放态度,比如最近的关于道德心理学的实证研究,强调一个人与生俱来的身体或心理能力,而不是理性、情感社交、语义理解,以及意识,对人的道德决策都很重要,那么这些因素对于AMAs是不是本质性的因素呢?如果是的话,可否在计算机中实现?
?
博古睿研究院中国中心主任宋冰
博古睿研究院中国中心主任宋冰在致辞中说,以前计算机伦理强调的更多是被科学家和工程师的外部约束,行为规范,以及科技带来的外部或者溢出效应,比如隐私、财产权、防范病毒、提防骇客等。机器人伦理则是新的领域。温德尔·瓦拉赫这本书比较了两种植入伦理的方法,一个是由上至下,先把伦理理论规范编程,并将它作为基准来衡量各种选择道德的可接受性。另外一种方法是从上往下,给智能机器人创造体验和学习环境,让他们逐渐学会什么是可接受的道德规范和行为准则。她进一步表示,科学家要有人文关怀,反之亦然,哲学和社科专家也要有科学的精神。
《道德机器:如何让机器人明辨是非》的主要译者王小红发言说这本书是一本具有开创性的人工智能的百科全书。她指出,将人类已经成熟的伦理系统自上而下地灌输进机器人会出现不同伦理的矛盾和冲突,例如经典的阿西莫夫的机器人三大定律,被嵌入到一台计算机之后,就会产生许多伦理困境。而如果使用边沁的功利主义的方法,这种最可算法化的方法如何使最大多数人获得最大的幸福感呢?这也有问题,因为它的计算量往往是无限的。
?
阿西莫夫曾提出机器人三定律:一是机器人不得伤害人类,或因不作为使人类受到伤害;二是除非违背第一定律,机器人必须服从人类的命令;三是除非违背第一及第二定律,机器人必须保护自己。
在问答环节,有观众提问,现在出现了哪些不道德的人工智能,瓦拉赫回答说,“没有不道德的人工智能,只有不道德的意图。人工智能可能执行了有偏见的结果,但是这是因为输入的数据本身已经带有偏见了。”这种偏见主要是指种族主义、性别偏见等。还有同学提问,如何看待“类人脑”的开发,瓦拉赫认为人类目前还不够了解人的大脑究竟是如何工作的,所以他不认为人工神经网络能够完整的模仿人脑
机器目前是没有智慧的。没有感情。所以自然也就没有道德。
如果要想机器有道德,我们就需要把道德的出现场景和评判标准,以及判定是否道德之后的应用动作给设计好。机器才会有道德的表现,其实机器本身还是不会懂的。
比如,电梯门,我们认为电梯门夹了人,就是没有道德的。我们给电梯门设计了感应机制,当电梯门感应到中间有东西,就自动把“关”的状态切换成为“开”的状态。电梯同样没有道德,只是我们为它设计了执行程序而已。
同样的道理,人工智能也是没有道德的。只有有道德的设计师,没有有道德的机器。
如果真的有一天,人工智能有道德,那人类的生存就岌岌可危了。因为机器有道德就意味着有智慧,有智慧的机器人为什么不干掉讨厌的人类呢?
好了,文章到此结束,希望可以帮助到大家。