人工智能领域选题?人工智能领域
15
2024-06-10
大家好,今天小编来为大家解答以下的问题,关于人工智能与泄露隐私,人工智能与泄露隐私的区别这个很多人还不知道,现在让我们一起来看看吧!
本文目录
人工智能本质上是寄托大数据具备自主学习、识别和自动化处理能力的程序或服务。
人工智能跟隐私本身没有太多直接关系,并不是所有人工智能领域都涉及到人的隐私信息,比如图像识别,语音识别属于常见的人工智能运用,是基于这个本身跟个人隐私没有太多直接关系。
有一些人工智能服务会结合个人信息提供一些服务,比如指纹识别,社交网络中的个性化广告服务等这些是一定程度上结合人的属性甚至个人隐私数据,但这些是依法以及不太会对用户没有造成伤害的服务。
但是确实随着人工智能技术的成熟和发展,也有非法组织或者平台利用用户的无知甚至欺骗的手段获取个人隐私数据进行非法服务,对用户人身,财产甚至安全等产生负面影响。这些一方面需要用户提升自身安全意识,不要轻易泄露个人信息数据,另一方面也需要国家加强和完善对非常平台或服务的打击效率,报障用户隐私,财产等安全。
AI时代无隐私,人工智能时代该如何保护隐私权?
一、人工智能时代的隐私权侵权方式?
人工智能技术的日益成熟使得当今的隐私权侵权方式与传统侵权方式有所不同,主要集中在通过用户的隐私数据进行侵权,
包括以下三种:
第一种方式是隐私数据的不当收集。人们在体验人工智能的便利的同时,通常需要提供个人信息进行验证。这些隐私信息数据可能通过不正当渠道被售卖,据新华社调查发现,部分信用卡客户的隐私信息在QQ群中进行“黑市”交易。根据数据信息“质量”的差异,价格也分为“三六九等”。此外,黑客非法入侵也对隐私信息产生威胁,近年来黑客侵入个人网络空间获取隐私信息的案件层出不穷,对隐私权造成极大威胁。
第二种方式是对隐私数据的二次利用。隐私数据的价值不仅体现在数据本身,更体现在收集数据的原本用途之外,通过分析、提炼、定位等方式将数据用于广告的精准营销等方面。二次利用的弊端在于,一方面,隐私数据的收集者通常不会告知用户数据的使用情况,甚至还故意隐瞒数据的用途;另一方面,数据收集者在未经用户允许的情况下进行二次利用,可能对用户的隐私权造成侵害。
第三种方式是隐私数据的扩散。2015年,《中国消费者报》对“大数据时代的隐私保护状况”的问题进行调查。在回答“个人隐私在大数据时代是否更容易泄露”的问题时,76%的被调查者表示肯定,有52%的被调查者表示曾发现隐私信息泄露的情况。这些被泄露的隐私数据由于经济利益或其他原因被扩散后,使得“人肉搜索”等侵权手段极易发生。
二、我国隐私权保护的法律追溯
我国对个人隐私的保护在不同法律中都有所体现。在宪法层面上,《宪法》第38条规定:“中华人民共和国公民的人格尊严不受侵犯。禁止用任何方法对公民进行侮辱、诽谤和诬告陷害。”该条款虽未直接对“隐私权”进行规定,但可以认为是保护公民个人隐私间接不受侵犯的权利依据。《宪法》第39条规定“公民住宅不受侵犯”以及《宪法》第40条规定“公民享受通信自由和通信秘密的权利”也同样是公民享有隐私权的宪法依据。在部门法层面上,《刑法》对“非法搜查他人身体、住宅,或者非法侵入他人住宅”、“侵犯公民通信自由”等行为进行规制。《侵权责任法》第2条和第36条对“隐私权”和“网络服务提供者的侵权责任”进行规定。此外,还有部分行政法规、司法解释等也都有所规定。
但缺点在于我国对隐私权保护的立法过于分散和碎片化,特别规则多,普遍规则少。这种立法使得规则的适用具有不确定性。部门规章太多,行业主体不指导具体应当遵守哪项规则,执法部门不明确具体的职责。另外,现有规定往往只针对部分隐私信息,例如《侵权责任法》只保护私密性的隐私信息,金融、保险行业只保护特定类型的隐私信息,而未被包含在内的隐私信息该如何保护尚无法律依据。在人工智能和大数据急剧发展的当下,各类隐私信息都有被侵犯的危险,因此这种碎片化、范围狭窄的隐私保护显然是欠缺的。三、隐私权保护模式的比较法分析
(一)美国隐私权保护模式
美國的隐私保护立法较为分散,主要体现在行业自律。立法层面包括:1974年的《隐私法案》,该法案是对隐私权保护的综合性立法,对政府机构如何收集个人信息、什么内容的个人信息能够储存、收集到的个人信息如何向公众开放及信息主体的权利等都做出了比较详细的规定,以此规范联邦政府处理个人信息的行为,平衡隐私权保护与个人信息有利利用之间的紧张关系。此外,也对通讯、教育、金融等领域进行专门立法,例如1999年的《金融服务现代化法》和2015年的《消费者隐私权法案》等。
对于国家立法中尚未涉及的领域,美国通常采取行业自律的模式,通过更为灵活和简易的行业规则来保护个人隐私的安全。目前,行业自律主要有两种模式:建议性行业指引和网络隐私认证计划。建议性行业指引大多由保护个人隐私的自律组织制定,参加该组织的成员需承诺遵守行业指导性规则,例如“美国隐私在线联盟”,该组织出台了“在线隐私指引”,联盟成员在线上收集用户隐私信息时,需遵守该指引的相关要求。网络隐私认证通过对达到个人隐私保护相关标准的机构颁发隐私认证的方式,督促相关机构促进对个人隐私的保护。这类组织要求所有经过其认证的成员都发布隐私声明,为用户提供对其隐私信息的控制权,并有相应的安全措施和争议纠纷的投诉解决机制。
(二)欧盟隐私权保护模式
1995年欧盟颁布《数据保护指令》,该指令对隐私数据处理的原则、法律救济、向他国转移隐私数据、监管和执行措施等方面进行了规定,立法理念是在保护个人隐私的基础上,兼顾信息的自由流动。为适应大数据以及人工智能的发展,2012年欧盟颁布了《一般数据保护条例》。《一般数据保护条例》在隐私数据安全监管上,主要有以下特点:明确个人数据的范围,位置数据、IP地址和cookies等网络识别数都是个人数据,基因数据也属于个人数据;数据控制者应当及时清除其保留的个人数据,明确了数据清除权;数据主体有权使用被数据服务提供商所持有的自己的数据,也有权将自己的数据从一个服务商移送到另一个服务商;增加数据控制者的义务。
自荐一下,广东服务猫科技有限公司集知识产权,法律,财税,一站式全解决服务平台。
参考文献:
[1]周汉华.个人信息保护前沿问题研究.北京:法律出版社.2006.
[2]张平.大数据时代个人信息保护的立法选择.北京大学学报(哲学社会科学版).2017(3).
[3]邵国松、黄琪.人工智能中的隐私保护问题.现代传播.2017(12).
[4]鞠晔、王平.云计算背景下欧盟消费者个人敏感数据的法律保护.法学杂志.2014(8).
人工智能的发展可能会引起以下社会问题:1.就业问题:人工智能取代人类工作的可能性增加,可能导致大规模的失业。
2.隐私问题:人工智能需要大量的数据进行学习和推理,可能涉及到个人隐私的泄露和滥用。
3.不公平问题:某些人可能会变得更富有和有权,而另一些人会受到排斥和剥夺。
4.安全问题:人工智能可能被黑客攻击,导致机密信息泄漏、生命安全受到威胁等问题。
5.伦理问题:人工智能的道德和伦理问题也需要引起重视,例如自主决策、道德义务和人工智能是否具有权利等问题。
6.社交问题:人工智能可能威胁到人际交往,例如社交媒体上自动化的朋友或对话代理。
7.舆论问题:人工智能算法可能优先考虑点击率而不是内容的质量,从而导致未经检查和引人注目的新闻和文章的传播。
针对这些问题,需要制定适当的政策和法规,同时开展公众教育和探索技术本身的解决方案。
近年来,随着机器学习、计算能力、存储能力以及云计算等技术发展,人工智能技术呈现出“井喷式”发展,家电、移动设备等各种硬件产品中都开始融入人工智能技术,AI人工智能的发展已成为大势所趋。
360智能安全研究院院长李康表示,智能和安全已经对抗很多年了,未来还会一直存在,“安全对抗应该是安全领域永恒的一个主题。”而随着人工智能的不断发展,对于AI安全的考虑也已经上升到了前所未有的高度来讨论。日前,移动安全联盟聚焦于AI技术与安全问题,于2018(第十七届)中国互联网大会会议期间成功举办2018中国人工智能移动安全高峰论坛。论坛上,来自各个领域的专家围绕“AI时代智能终端的攻与防”这一主题,对“AI人工智能与安全”进行了探讨。(来源数字化企业网)
AI人工智能与安全的博弈
人工智能技术对安全产业起到了极大的促进作用。北京大学郭耀教授表示,他目前正在用人工智能技术解决很多应用安全的问题,比如安全分析、广告欺诈监测、隐私分析等。
郭耀说认为,“应用在访问用户数据前会有一个非常长的条款,利用人工智能技术就可以对此进行聚类分析,然后对比相似功能的应用,如果100个应用做同样的事情,其他的都不需要电话号码,而有一个需要,那肯定是有问题的。”
但任何新兴技术都是一把双刃剑,AI技术在助力防护方的同时,也会成为攻击者的利器。
比如,目前大部分AI应用系统都基于已有的主流AI框架实现,而AI系统框架以及AI系统所依赖的软件实际上也存在安全漏洞。这些安全漏洞如果被攻击者利用,将会侵犯用户在终端和云端的隐私数据;更有甚者,攻击者还可以通过网络设备去控制智能家居的温度,或者更改家庭中设置的智能安防,从而造成人身安全和家庭财产。
AI人工智能本身存在安全问题
长虹信息安全灯塔实验室首席科学家唐博表示,对于智能设备厂商来说,AI促进了产品效能的提高,促进了用户使用体验的提升。同时会带来一些安全问题,也是预料之中的。
以智能电视为例,语音识别和人脸识别技术让电视机不再仅仅是单独的家电,而将会成为家庭交互终端的入口。但人工智能电视仍然会存在类似安全漏洞未修复、配置不当、越权操作等信息安全问题。不法分子能远程获取root权限,远程劫持电视设备,并进行开关摄像头、安装恶意应用、收集用户隐私生活信息等操作,这将造成用户隐私泄露或财产损失。(来源数字化企业网)
另外,冰箱,空调等都是属于智能家居,但这些电器自身并不带有智能的功能,不过是通过增加智能芯片,用一些IoT的解决方案将控制请求,参数与白电主板对接。目前IOT芯片层面上的漏洞可以导致白电大批量的被控制,同时在IoT云端,物联网协议这边存在漏洞也可以导致批量的智能家居设备受影响。
正如北京大学教授郭耀表示,智能产品的硬件多是国内生产,但是芯片多还是国外的,像安卓,RAM,小米的内核,包括Linux开源都不是国内自主研发的,技术层面的安全也存在着隐患。
所以,AI人工智能技术要真正走进寻常百姓家,安全仍是需要防范的最大风险。
AI人工智能与安全的平衡发展
如何打造人工智能的安全,使二者平衡发展,是目前乃至未来科技巨头需要重点研究的方向。对于AI和安全的关系,长虹安全实验室唐博认为可以为三个发展阶段。
第一个阶段,用AI的方法可以解决一些安全的问题,可以用AI的方法来识别攻击,可以通过大数据分析,分析流量和终端的一些情况,来识别一些异常流量或者一些攻击的行为。
第二个阶段,是用安全来保护人工智能,同时保护隐私。在人工智能的模型被“偷”,被“骗”的过程,需要对其进行安全保护。
唐博还表示:“对长虹来讲,特别中兴事件之后,长虹特别关注自主知识产权的硬件设备,包括一些系统级的软件。同时,基于自主知识产权或者一些开源的自主化的知识产权的芯片,在安全上有一些差异化,在系统层定制化的一些产品。”第三个阶段,是在智能设备的安全性达到一定程度时,可能会出现跨设备甚至跨平台的AI应用,效率也会得到进一步提升。在这个过程中,AI、安全和效率三者之间是一个相辅相成的发展过程。
在IoT时代,新的芯片和操作系统的出现,对中国智能家居的发展,包括物联网的发展都是一个机会。未来长虹安全实验室将利用AI和区块链技术打造云管端全方位的物联网安全体系,创新应用技术,配合区块链安全,将人工智能与安全的关系维持在最佳状态。
关于人工智能与泄露隐私到此分享完毕,希望能帮助到您。