浅谈苹果语音助手Siri涉嫌泄露用户隐私事件

作者:刘豆豆 时间:2020-10-08

【摘要】2019年7月26日,英国《卫报》发表了名为“苹果承包商在Siri对话中听到秘密信息”的报道,称苹果公司在未明确说明的情况下对用户Siri对话进行录音并给承包商进行分析。苹果称这是为了提高质量和服务,但却引来了使用者们的担心。在人工智能时代,数据已成为重要经济资源,信息和数据变得随处可得,因此也更容易引发隐私安全问题。为了避免这一情况,科技公司应承担部分社会责任,对其收集和利用数据机制给予说明,同时加大监管力度,推动科技发展的同时维护人的尊严和隐私。

【关键字】Siri;人工智能;隐私权;数据

According toThe Guardian, a whistleblower exposes that Apple contractors regularly hear confidential details on Siri recordings, including medical information, drug deals, and recordings of couples having sex, as part of their job providing quality control.Human contractors behaviors raise users` concern about their privacy. In artificial intelligence era, information can be got anywhere, thus has an influence on privacy security. Under the circumstances, scientific and technical corporation should take more social responsibility by claiming privacy documentation more explicitly and strengthening supervision.

【Keywords】Siri; AI; Privacy; Data.

【案例简介】

2019年7月26日,英国《卫报》发表了名为“苹果承包商在Siri对话中听到秘密信息”的报道。该报道称苹果将一小部分Siri对话记录送至承包商处进行内容听取,承包商们通过Siri激活的方式、回答的内容是否有用等几项指标进行检测。苹果告诉《卫报》这是为了改善Siri的听写和回答能力,并称这项工作是在符合苹果对隐私安全的要求下进行的,被采样用户是随机的,数量小于1%,对话内容一般只有几秒。

揭露者说,苹果手表和家庭智能音箱是这些对话的重要来源,虽然有的记录只有三十秒,但是你能明白在发生什么。在录音中能够清楚地辨析是医生还是病人在讲话;有的录音虽然有背景噪音,但仍能听得出来这是在交易毒品;甚至性行为也能被无意记录在pod或者watch上。承包商说他们被要求把这些对话都当作技术问题看待,进款完成工作,而没有地方反应其中说的敏感内容。承包商们也很担心其中的信息会被不安好心的人利用。

2019年8月2日,《卫报》发表了名为“苹果停止从Siri中听取用户对话的实验”。报道指出苹果已经停止了从用户中听取Siri对话以提升质量的实验,并宣称在制定可行的详细方案之前不会再开始。与此同时,在爱尔兰进行这项计划的承包商员工们并未被提前告知项目取消,只能回家等待。

Big brother watch组织的卡洛说,我们都知道所谓的智能语音助手说是能帮助人们,实际上在人们不知道的时候收集和使用了人们的个人信息。她补充道,按照现在的ios设定,Siri和苹果不用我们的同意也能获得部分信息。

报道还指出,苹果不是这样做的唯一公司,亚马逊和谷歌也曾做过类似行为。

2019年8月26日,《卫报》发表了名为“苹果为让员工听取Siri录音道歉”的报道。报道显示,苹果对录音事件发表了道歉声明。苹果在声明中称,苹果设计的产品和服务是为了保护用户的个人数据。Siri是一款开创性的智能助手,其目标是为用户提供最佳体验,但前提是要保护好用户隐私。“我们意识到我们并没有完全实现我们的崇高理想,为此我们深表歉意。”

为此,苹果决定对Siri进行一些改进。首先,默认情况下,苹果将不再保留Siri互动的录音。他们将继续使用计算机生成的副本(transcripts )帮助Siri改进。其次,用户将可以选择主动参与来帮助改进Siri,主要是利用用户请求的音频样本进行学习。苹果希望更多的用户会选择帮助Siri变得更好,因为他们知道苹果尊重他们的数据,并且有强大的隐私控制。当然,那些选择参与的用户可以随时选择退出。第三,当用户选择加入时,只有苹果员工才能收听Siri互动的音频样本。苹果团队将努力删除任何被确定为无意中触发Siri的记录。报道还指出了推出智能语音助手的公司都被披露做过这样的项目和行为,有的记录追踪行为甚至长达几年。

【案例分析】

一、人工智能时代,数据愈发重要

(一)万物皆媒,海量数据产生

在过去,不管是口头传播时代还是印刷传播时代,人类所依赖的传播媒介都局限在有限范围内,尽管计算机和互联网的产生使得传播方式、传播接收终端、信息储存的容量、信息流通的内容都得到了质的改善,但也没有改变信息传播依赖特定媒介的现实。而如今,技术的发展日新月异,一部分物体通过网络可以将所需的状态信息传递给相关的人或物,人们对于物体的状态、动态的监测变得容易,对物质世界的感知将更为全面、及时,对物质世界的控制、管理也将变得更为智慧。

物体泛媒化的结果之一就是数据的大量产生,与在互联网发表的公开信息不同,物体产生的数据还包括个人未表达出来的内容或是个人无法检测的内容,如一些可穿戴设备可以直接发送人体的相关数据,主要包括位置数据、运动数据、身体基本状态数据(如体温、心跳等)。在这一发展趋势下,个人信息数据化,权利主体逐渐“终端化”。

(二)数据是人工智能的基础,是数字经济的战略性资源

人工智能已经存在了几十年,是计算机科学的一个分支,其目标是了解人类智能的本质,以便模拟、延伸和扩展人的智能。这一领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。尽管人工智能听上去很高端,但今天的用户已经在越来越多地与它们打交道,很多手机里的智能助理,如苹果的“Siri”、谷歌的“Assistant”等,都有人工智能技术成分。

人工智能的核心技术是数据与算法,这意味着人工智能越智能,就越需要海量的个人信息作为支撑。因此尽可能地获取大量数据不仅能对人工智能产品进行修正,同时还可能成为预测某些社会行为和趋势的基础。如人体发出的数据,被独立使用时,是个性化服务的依据,而被集合使用时,则可能成为了解某个人群状态、某种社会动向的基础。通过对大样本的人体数据进行统计分析,或许比卫生机构更早地感知到流行疾病的爆发,或其他健康方面的动向;对大规模用户的地理位置数据的收集与分析,可以了解一个地区的人口密度或某个特定时间段的人口运动规律。2014年、2015年春节期间央视联合百度推出的“据说春运”,正是基于GPS数据描绘出春运期间中国人口的大规模运动。

苹果公司在2014年推出了apple watch系列产品,当表盘与iphone相连后,便可启动一系列应用,包括Siri助手、测试心跳、地图导航、付款等。2015年4月,苹果公司宣布与IBM深化合作,共同开发人工智能健康数据平台。苹果通过“苹果手表”等设备收集数以千亿的用户健康数据传送给IBM,IBM的沃森系统通过云计算平台聚合分析这些数据,向强生和美敦力等公司提供服务。而根据《卫报》对这次苹果利用Siri听取录音事件的报道,苹果手表(watch)和苹果音响(homepod)是录音收集的重要来源。

随着人工智能技术的快速发展及其在金融、交通、商业、医疗等领域的广泛应用,大数据中蕴含的价值不断被开发,产生了巨大的经济效益和社会效益。数据的财产特征愈发明显,很多掌握着大量个人数据的公司除了能直接对个人隐私进行贩卖以营利之外,更多的还是通过对海量数据的智能分析以进行精准营销来获得巨额收入。毋庸置疑,数据已经成为人工智能时代的战略性资源。

(三)隐私问题在新的媒介生态环境中发生变化

在过去,个人信息的收集渠道有限,至于一些更为私密的信息人们都不会将其公布出来,机构和公司也就无处收集了。但在大数据和云计算技术日益泛化和常态化的今天,技术的发展使得信息的公布和收集都更为方便,这也就改变了隐私问题的发酵条件。

首先,人工智能增强了对隐私的直接监控。各式各样带有传感器和处理器的人工智能产品不断涌入人们的学习、工作和生活中,极大地增强了对隐私的直接监控能力。就如同这次事件中,负责对Siri录音进行听取的承包商就披露到在对话中听到了有数不清的医患交谈、商务交易、疑似犯罪交易、性行为等私密交谈的录音,而这些录音还带着诸如地点、联系记录和应用程序数据等用户信息。而如此私密的信息在过去常规环境中是很难收集的。

其次,人工智能具有超强的“画像识别”能力。利用数据之间的相关性,以往很多看似无关紧要的、琐碎的、并无明确身份指向的一般的个人信息在经过大数据的整合与人工智能的分析之后极易形成一种“推断性信息”,而这种信息往往涉及个人隐私,最明显的应该就是用户“画像”即在进行数据整合和分析后,可以得出该用户的偏好、兴趣、未来可能需求等潜在信息。

因此,出于社会管理和利润创造的目的,政府和企业对个人数据的收集变得无孔不入。从浏览记录等不能识别身份的信息到基因、医疗等隐私信息;从账号注册到注销的全过程,个人信息都被收集并监视着。对自身数据失去掌控权,数据生态中的伦理问题愈演愈烈,用户数据的滥用问题、隐私泄露问题、数据垄断问题、决策公平问题层出不穷。这些接踵而至的伦理问题,一方面使用户遭受了隐私威胁与非公平对待,另一方面引爆了用户与企业间的信任危机,致使自动驾驶、医疗健康预测等敏感领域的技术难以落地,从而限制了人工智能技术的发展。

二、科技产品不是公益产品,数据利用背后是权力体现

(一)苹果公司是商业公司

当《卫报》出现这篇报道时,国内的很多网站都进行转载,很多人都表示不可思议。苹果公司在过去的一段时间内大获成功,与其标榜的产品私隐性密切相关。而在这次录音泄露事件中,虽然苹果官方称是为了提升质量和体验进行的项目,但却并未有明确文件告知用户,侵犯了用户的知情权,而且将这些录音转给第三方,侵犯了用户的隐私权。究其原因,是因为苹果公司是科技公司,其本质是商业属性而非公益属性,追求经济效益是其根本目的。通过对用户隐私及数据的读取进行采样分析,有利于苹果公司有针对性地升级自身产品,更好提供服务,增强用户粘性,同时也就获得了更多经济利润和竞争力。

在对《卫报》的反馈声明中,苹果公司称采样的用户不到总用户的1%,实际上,这个数字并不小。根据调查,苹果占有了世界35%的手机市场,是世界第一位,比其他手机品牌都多,因此这次采样的数量总体看并不在少数。另外,国外的一项研究对三大科技巨头的语音助手进行过准确性实验,包括苹果的Siri、亚马逊Alexa、和谷歌Assistant,结果证明Siri的准确率并不在第一位,侧面反映出苹果对更多数据以求提升质量的需求性。因此,这样的无告知对用户Siri对话进行录音的行为也不足为奇了。

(二)算法仍在“黑箱”,数据背后是权力体现

上述说到数据对科技公司的重要性,除了数据之外,另外一个重要基础就是算法。算法不是简单的输入输出方程,算法的背后隐藏了政治利益或商业利益,它在技术无意识的层面上运作,并且渗透到了我们的日常生活中。

表面上看,算法可以做到对社会资源的整合、利用,利用个性化的推荐增加用户黏性,其实质是在行使着一种社会权力,塑造着人们的新的认知和行为模式,控制着社会认知对世界的看法和主张。算法本身暗含着复杂的权力关系,其实质是权力关系运作的产物,算法将世界连接构建成一个整体,并且在权力的运作下,组成了社会文化的基础因素,并且这种“个性化”下渗透的隐性权力比直接宣传更难揭露和发现。例如我们在使用Siri或者其他程序的时候,企业对其的设定就提前规定了我们的使用方式,而我们很少会意识到,我们的逻辑思维会在在其中慢慢被塑造。

另外,当下用户享受网络服务主要是通过一些中心化平台,比如苹果、亚马逊、谷歌等,国内如百度、腾讯、网易等,在这里中心化指的便是中心决定节点,节点依赖于中心生存,这样看,本来为去中心化而形成的互联网却慢慢有了中心化的趋势,而这里面的中心便是各网络巨头公司。用户数据的收集、存储方和用户数据的利用、处理方是同一个主体,用户失去了对个人数据的控制,于是海量的数据便在这些垄断人工智能分析技术的中心化平台的“黑箱”中被任意操控,因此隐私侵犯在所难免。

三、Siri录音事件不是个例,呼吁合理的数据采集

(一)Siri录音事件不是个例

除了这次的苹果事件外,不同的公司也曾被曝出类似的利用、侵犯、泄露用户隐私的事件。如,YouTube被控未经父母准许非法收集儿童个人信息并用于推送广告盈利;Facebook由于管理纰漏,造成超过5000万的用户信息数据被一家名为“剑桥分析”的公司泄露。其根本原因都是因为商业利益的驱使、管理监督的不当、机制不透明造成的。

(二)互联网成为社会交往重要平台,科技公司应承担社会责任

至于科技公司为何有如此大的影响力,不仅因为其产品让我们的生活变得更加便利快捷,更重要的原因在于技术的发展(包括接收终端发展)使得互联网成为了社会交往和公众舆论的重要平台,技术不仅改变了我们的日常生活,同时也在潜移默化地塑造我们的逻辑和思考方式。因此,对于用户数据和私密信息的保护不仅是工作要求,也是一个企业的社会责任感的体现,它维护的不仅是信息,还有对用户的尊重。

(三)大数据时代需要合理采集、利用数据

人们作为数据的拥有者、大数据技术的使用者,在面对隐私泄露问题时,是否只能束手无策?还是选择将数据牢牢抓在手中,拒绝人工智能等技术的应用?事实上,挖掘数据价值和尊崇人类伦理并不是对应的问题,它们同时存在在人工智能时代的数据生态中,相互影响相互制约,并最终达到动态平衡的状态。

考虑到当前伦理问题的独特性,要将其放在当前的数据生态中进行讨论。具体地,当前伦理问题的独特性体现在以下两个方面。一方面,数据的特殊性质使得当前的伦理问题不能通过简单地界定数据归属的方法解决。数据不同于森林、矿藏等源于自然的自然物,它会随着人、时间和环境的不同而有所差异;也不同于文学作品、专利等由人创造的精神产物,它是物质和精神的衍生物。因此,讨论人工智能时代的伦理问题时,并不能简单界定数据的归属。如果为了解决个人信息的隐私、垄断等问题,而将数据简单地界定为个人归属,则不能发挥其应有的价值;另一方面,不同伦理问题之间相互影响。首先,数据垄断与数据隐私之间存在相关促进的关系,数据垄断的破除将有效阻止大量数据的汇集,从而降低挖掘、泄露数据隐私的风险;其次,高度的数据隐私不利于数据垄断和决策不公平现象的发现。在大数据时代考虑伦理和隐私问题十分关键,既不能扼杀挖掘数据价值的机会,更不能对人类伦理构成破坏。

现阶段而言,要对无处不在但又不透明的算法权力加以有效规制,需要迈出的第一步就是破解算法黑箱、推进算法透明,即科技公司在收集数据、处理数据时应该给予相应说明,对于滥用算法获取利益的行为,应给予批评和惩罚。此外,允许算法多元化、多样性,维持合理的市场竞争,加大监管力度也是值得考虑的办法。

【参考文献】

 [1]彭兰.万物皆媒——新一轮技术驱动的泛媒化趋势[J].编辑之友,2016(03).

 [2]孟小峰,王雷霞,刘俊旭.人工智能时代的数据隐私、垄断与公平[J].大数据,2020(01).

 [3]王军.从脸书“泄密门”看人工智能时代隐私保护的困局与出路[J].北方传媒研究,2018(08).

 

上一条:特殊时期下个人信息的泄露问题——以武汉返乡人员信息泄露事件为例 下一条:浅析社交平台对个人信息与隐私收集的伦理界限:“ZAO”AI换脸APP事件

评论

请遵守《互联网电子公告服务管理规定》及中华人民共和国其他有关法律法规。
用户需对自己在使用本站服务过程中的行为承担法律责任。
本站管理员有权保留或删除评论内容。
评论内容只代表网友个人观点,与本网站立场无关。
 匿名发布 验证码 看不清楚,换张图片
0条评论    共1页   当前第1

Copyright ©2012-2013 Jc.ccnu.edu.cn All Rights Reserved
华中师范大学新闻传播学院  版权所有
地址:湖北省武汉市洪山区珞喻路152号  邮编:430079