人工智能领域选题?人工智能领域
15
2024-06-10
大家好,今天小编来为大家解答以下的问题,关于她,人工智能威胁派这个很多人还不知道,现在让我们一起来看看吧!
本文目录
基本赞成。
朝鲜核武就那点能量,就算全部释放出来,大体造成的破坏性影响也是“有限”的,这里的有限,当然是相较于人工智能可能带来的破坏力而言。
人工智能已经到了爆发的前夜,这应该已成为科技/企业界的共识。但进一步发展下去将怎样改变世界/人类,科学家们还无法作出一个全景描绘,而这正是问题所在。
未知的,强大的技术实践,意味着可能(是可能而非必定)的不可控。这其实正如朝鲜的核弹,之所以为国际社会所不容,也在于其“可能”的不可控,而非“必然”。
但人工智能要比朝鲜那点当量的核弹带来的“可能”的后果要严重得多。且不说真的是否有“奇点”,就算继续进化的人工智能如果导致全球金融体系的崩溃,世界能承受得了?
更不用说出现《终结者》描绘的那种情形了。
但显然,马斯克们的担心并不能阻止人工智能技术的进化,人类已经被不由自主的裹挟到了其中,只能随众前行。马斯克们自然也明白这一点,之所以“危言耸听”,是希望在狂热的人工智能技术进化中,有人~这当然更主要依赖于国家意志~能够未雨绸缪,为人类的狂热可能带来的毁灭性后果建一道可靠的“闸门”,也就是为人工智能立下规矩,包括法律上的和技术上的规矩。
这也许有用,也许完全多余。尽人事,安天命。
也许完全就是庸人自扰。
但不是说,人无远虑,必有近忧?
答主认为很有可能。
要产生威胁,人工智能必须要有自己的“意识”,比如像科幻电影中一样,需要抹除人类才能保证自己的生存,而这个“意识”,也被科学家们定义为“可以独立学习,并进行应用的能力”。
举例来说,比如我们向手机中的搜索app输入一个关键词“人工智能”,之后再次打开这个app,搜索历史里就会有这个词,以便于我们再次搜索查看,这就是学习并应用,但不是“独立学习和应用“。
而如果这时候没有人为干预,再次打开时,程序开始为我推送人工智能相关的文章(假设程序员此前并未设置这种关联推荐功能),而是程序的算法自我进化,得出了这种方案,可以让我的体验更好,那么这就是”独立学习和应用“。
而对于这种情况,目前的人工智能已经存在这种类似的进化算法(遗传算法),虽然非常基础。因此假以时日,随着算法越来越高级,一个有”自我意识“的人工AI诞生,也并不是什么天方夜谭。
事实上致命的威胁在可以预见的将来,不会发生。
但是人工智能对于人类的隐形的,不被强烈感知的威胁已经发生。
比如,替代了工人,减少了就业岗位。
比如,手机应用与娱乐,吸引了人类的注意力,降低了对成家立业的兴趣。建议咨询一下专业人士比较好。
肯定会威胁的。
人工智能自从20世纪40年代开始发展到现在,一直伴随着一个争议性的话题,甚至有人会担心智能机器人最终会超越人类成为地球的新霸主。而人类在研发人工智能的过程中也确实遭遇到了各种挑战,甚至有一些项目由于一些不可控的局面出现而被搁置。
好了,文章到这里就结束啦,如果本次分享的她和人工智能威胁派问题对您有所帮助,还望关注下本站哦!