人工智能领域选题?人工智能领域
15
2024-06-10
本篇文章给大家谈谈提到人工智能,以及人工智能ai对应的知识点,文章可能有点长,但是希望大家可以阅读完,增长自己的知识,最重要的是希望对各位有所帮助,可以解决了您的问题,不要忘了收藏本站喔。
本文目录
华东师范大学哲学系教授颜青山表示,当前人工智能伦理研究中,有以下几个方面值得关注。一是克服伦理恐慌情绪。大多数人对人工智能基本原理的了解还没有达到科普水平,常常会基于对人工智能技术的误解产生不恰当的联想。因此,如何对人工智能原理进行科普值得探讨。二是道德程序的内置及其限度。这方面讨论的是人工智能不该做什么。道德两难常常也是道德悲剧,人本身也无法给出确定的答案,更不要奢望机器会给出更好的答案。三是为人工智能研究提供充分的伦理空间。区分人工智能的研究与应用,为人工智能研究提供充分的伦理空间是必要的。
南京大学哲学系教授蓝江表示,人工智能发展的最大问题不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。人工智能的伦理学已经与传统的伦理学旨趣发生了较大的偏移,它讨论的不再是人与人之间的关系,也不是人与自然界的既定事实之间的关系,而是人与自己所发明的产品之间的关联。
1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。IBM公司“深蓝”电脑击败了人类的世界国际象棋冠军更是人工智能技术的一个完美表现。
从1956年正式提出人工智能学科算起,50多年来,取得长足的发展,成为一门广泛的交叉和前沿科学。总的说来,人工智能的目的就是让计算机这台机器能够像人一样思考。
人工智能的诞生时间是1956年的夏天,地点是美国达特茅斯学院,在这里举办了人类第一次人工智能的研讨会,会议上麦卡锡提出人工智能,并且产生人工智能的逻辑理论机器。之后的人工智能经历了几个发展阶段,其中20世纪50-70年代是黄金时代,之后10年是低谷,稍后又进入到繁荣时代。
一、人类为人工智能设定的三大原则
提及人工智能,我们一定要提一下艾扎克·艾西莫夫。艾西莫夫在著作《我是机器人》中所提的“机器人工学三原则”。艾西莫夫也因此获得“机器人学之父”的美名。
这三项原则分别是:
第一条:机器人不得危害人类。此外,不可因为疏忽危险的存在而使人类受害。
第二条:机器人必须服从人类的命令,但命令违反第一条内容时,则不在此限。
第三条:在不违反第一条和第二条的情况下,机器人必须保护自己。
这三项原则中,显然列在第一条的规则,是最为重要的,就是不得危害人类。
但后来,阿西莫夫加入了一条新定律:第零定律。
第零条:机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
阿西莫夫的科幻设定里,机器人三定律是植入到近乎所有机器人软件底层里,不可修改不可忽视的规定,绝不仅仅是“建议”或者“规章”。
可见,无论人工智能如何发展,只要为人工智能设定严格的不伤害人类的原则,并从底层设定为不可以修改的规则,人类就是安全,大可不必杞人忧天。
提到人工智能的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于人工智能ai、提到人工智能的信息别忘了在本站进行查找哦。