算法伦理与“被算计”的人
当前位置: 首页 > 算法伦理与“被算计”的人 > 正文
携程大数据杀熟事件:算法权力下被控制的人
时间:2022-04-28
摘要:2021年7月7日,浙江省绍兴市柯桥区法院审理了胡女士诉讼上海携程商务有限公司侵权纠纷一案,法庭一审判决原告胜诉,认为携程存在大数据杀熟行为。因大数据杀熟而造成的侵权纠纷并不少见,而本案却是首例“大数据杀熟案”的成功维权。作为技术的算法,本身是客观中立的,但在算法背后还存在一个无形的“操纵之手”,使用户成为了算法权力下被控制的人。应重新审视算法的技术价值与社会价值,从而厘清算法背后的价值关系与权力主体。
关键词:算法权力;携程大数据杀熟;平台操纵
【Abstract】:On July 7, 2021, the Keqiao District Court of Shaoxing City, Zhejiang Province, heard a case of infringement dispute between Ms. Hu and Shanghai Ctrip Business Co. It is not uncommon to see infringement disputes caused by big data killing, but this case is the first case of "big data killing" to successfully defend the rights. The algorithm as a technology is objective and neutral, but there is an invisible“manipulative hand”behind the algorithm, which makes the user become a person controlled by the power of the algorithm. The technical value and social value of algorithms should be re-examined, so as to clarify the value relationship and power subjects behind the algorithms.
【Key words】:Algorithmic power、Ctrip big data killing、platform manipulation
案例简介
2021年7月7日,浙江省绍兴市柯桥区法院审理了胡女士诉讼上海携程商务有限公司侵权纠纷一案,原告方认为携程存在“大数据杀熟”的侵权行为,法庭一审判决原告胜诉。
2020年7月18日,原告胡女士在携程APP预订了舟山希尔顿酒店一间豪华湖景大床房,支付价格2889元,次日却发现酒店该房型的实际挂牌加上税金、服务费仅1377.63元。胡女士认为作为携程钻石贵宾客户,她非但没有享受到会员的优惠价格,还支付了高于实际产品价格的费用,遭到了“杀熟”。
(图源视觉中国)
之后,胡女士将上海携程商务有限公司告上了浙江绍兴柯桥区法院。法院审理后认为,携程APP作为中介平台,对标的实际价值有如实报告义务,其未如实报告。携程向原告承诺钻石贵宾享有优惠价,却无价格监管措施,却向原告展现了一个溢价100%的失实价格,未践行承诺。
同时,胡女士以上海携程商务有限公司采集其个人非必要信息,进行“大数据杀熟”等为由,要求携程APP为其增加不同意“服务协议”和“隐私政策”时仍可继续使用的选项,以避免被告采集其个人信息,掌握原告数据。
法院认定,新下载携程APP后,用户必须点击同意携程“服务协议”“隐私政策”方能使用,如不同意,将直接退出携程APP,是以拒绝提供服务形成对用户的强制。
据此,法院当庭作出宣判,判决被告携程赔偿原告胡女士差价243.37元,以及订房差价1511.37元的三倍金额,共计4777.48元,且判定携程应在其运营的携程旅行APP中为原告增加不同意其现有“服务协议”和“隐私政策”仍可继续使用的选项,或者为原告修订携程旅行APP的“服务协议”和“隐私政策”,去除对用户非必要信息采集和使用的相关内容,修订版本需经法院审定同意。
(图源视觉中国)
法庭认为,“大数据杀熟”很难确证,因此建议不在本案中进行确证;而本案存在损害事实,原告可以追责。被告有违平台的监管义务,作为获益者和运营方来担责,符合公平和效率原则。被告对赫程公司具有管控力,归责方应为被告。故作出上述一审判决。
案例来源
https://mp.weixin.qq.com/s/IHqXV_1YT6jnPW08NbvP-g
https://baijiahao.baidu.com/s?id=1705162243352589539&wfr=spider&for=pc
案例分析
一、算法权力兴起的原因
(一)大环境:数字身份与数据化生存
在人工智能时代,具有自主学习和决策功能的算法逐渐取代人类,凭借机器本身的优势能够处理海量的数据。学者蓝江曾将现代的生命政治分为两个层面“一是宏观层面,即人口控制。因为治理和安全的条件是每一个人的身份都建立起对应的关联,并形成了巨大的身份数据的整体,生命政治治理的对象不是每一个个体,而是这个人口总体;严格来说,是由身份数据信息构成的人口大数据总体,因此,人口统计数量、出生率、死亡率、受教育程度等成为调节整体国家和社会安全的基本数据。另一个就是微观层面,即对个体的精准识别,而识别的工具就是生物体身体的数据。我们如今上网浏览的痕迹、足迹都是一种数据,网民的数字身份已经成为现实生活中不可分割的一部分。[1]而在产生如此庞大数据的背景下,算法本身的工具优势得以显现。这是一个已经被数据和算法攻陷的社会,只是科技并没有带来理想意义上的平等,反而算法作为工具成为了资本集团控制社会以及人的工具,使得人们陷入了一个隐蔽的不平等之中。
而在本案中,胡女士以上海携程商务有限公司采集其个人非必要信息,进行“大数据杀熟”为由,要求携程APP为其增加不同意“服务协议”和“隐私政策”时认可继续使用的选项,避免被告采集其个人信息,掌握原告数据。其实,包括携程在内的许多APP都存在这样的霸王条款,在新下载APP之后,用户必须点击同意“隐私让渡”才能享受到相应的服务,如果不同意,则直接退出APP。而此种霸王条款的目的性也很明确,就是收集用户的数据,以便对其精准画像。算法本身是中立的,而算法背后的“操纵之手”却是带有歧视性的。
(二)平台助推:算法嵌入下的复杂生态系统
在算法的加持下,平台变成了一个全新的社会权力系统。平台在算法的嵌入下,重构了平台、消费者和服务提供者之间的关系。算法能够实时收集用户的数据,并流转到其他平台。数据成为平台之间交易的资本。恩格斯曾经指出;“纺纱工厂的机器比任何资本家更为专制。”[2]算法能够根据收集来的数据为平台描绘不同用户的画像,从而进行“适配”。携程就是运用大数据算法,为用户搭建了一个完整的生态圈,精准的分析每一个用户的需求,在“个性化服务”的掩护下进行“杀熟”。值得注意的是,算法作为机器一旦被注入了异化的价值观,算法将不再仅仅是一个为人服务的工具,而是成为一种缺乏伦理与道德的利益机器。
二、有关算法权力规制的思考
(一)顶层设计:将算法规制在法律的范围内
目前关于大数据算法存在批判的声音主要是由于以下两个方面。一是个人数据的隐蔽式捕获,二是算法背后的“操纵集团”通过对数据的占有与处理,在影响甚至操纵人类,他们可以决定不同的人接受不同的信息,并以此支配人类的行为。[3]这种将经济利益凌驾于公共利益之上的价值观,很容易将算法变成一种“无道德”的经济工具。在这样的情况下,亟需国家出台相应的法律对平台和算法进行强制性规制。2021年1月1日实施的《民法典》专门在首次独立成编的“人格权编”中纳入了有关“个人信息保护”的六个条文。可见国家对于“个人信息保护”的重视程度。并且在《民法典》中提到;“网站作为信息处理者非法处理个人信息,或者拒绝提供用户的个人信息查阅、复制、更正和删除功能或服务的,或是对个人信息的安全保障措施不达标、个人信息泄露事件出现后不告知等情况发生时,用户可以依据侵权责任编的规定,要求网站承担侵权责任并赔偿损失。”再例如2021年11月1日起实行的《个人信息保护法》中的第二十四条“自动化决策”也令人瞩目,此条款的出现使得大数据杀熟等现象开始有法可依。
根据《个人信息保护法》第74条;“自动化决策,是指通过计算机程序自动分析,评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。”也就是本文中提到的平台收集用户的数据,利用算法对用户自动化匹配个性服务。而《个人信息保护法》中的第24条,正是为了规制算法权力下的算法歧视,明确否定了大数据杀熟的行为。即“利用个人信息进行自动化决策,不仅要保证决策的透明度和结果的公平、公正,还要求不得对个人在交易价格上实行不合理的差别待遇。
针对新下载携程APP时,强制用户让渡个人隐私,从而形成用户画像的行为,《个人信息保护法》也做出了明确的规定,非必要的信息采集都属于侵权行为。法律的出台为技术的运用划定了边界,从而最大程度的降低用户的损失,保证数据能够健康、有序的流通。
个人是权力的拥有者,又是权力的承受者,看似是平台与用户之间平等的博弈,实际上的赢家早已预设到算法的价值系统中。而立法则是规制这种权利最直接、最有效的方式,将算法的权力规制在可控的范围之中,避免消费者以及用户成为权力操纵下的牺牲品。
(二)技术道德化:平台兼顾算法伦理
根据维贝克的理解,技术中介也是道德中介。维贝克对“中介”的理解也是比较独特的。传统的中介理论通常把中介看成是处在两个预先存在的事物之间的调节者,而唐·伊德和维贝克则从后现象学视域出发,认为事物乃是被处于它们之间的中介关系所构成的。“因此中介成为事物的起源,而不是处在事物的‘中间位置’。”在这个意义上,人类的主体性和世界的客体性与其说是预先给定的,毋宁说是一种中介调节关系的结果。比如,眼镜作为中介,调节并构成着人与世界的关系,人与世界的关系、人对世界的看法并不是预先就给定的,而是通过眼镜这一技术物所调节和构成的[4]。
而平台中的算法技术,本身是没有立场的,技术背后的人才是价值观、伦理观以及是非观的主导者。携程APP收集的用户信息超越了订单必须的要素信息,属于非必要信息的采集,而收集到的用户信息携程又能随意分享给其他平台,使得用户在互联网上变成了一个“数据坦白”的人。因此,诸如携程此类的平台不能将算法视为一种“割韭菜”的工具,大数据算法技术的发展要遵循道德底线原则,不断建构关于算法伦理的思想,才能将算法关入道德的笼子之中。
此外,用户本身也应该意识到算法技术背后的权力,如果隐私保护的意识较差,则很容易变为算法的囚徒,一切行为皆变成可以计算、量化的数据。在使用携程等APP时,用户也习惯于通过让渡自己隐私的方式来获取相应的服务。
当然,我们不要忘记,无论是高度发达的生物识别体系,还是将所有人和生命体链接起来的身份数据体系,实际上背后都离不开一个庞大的算法和控制系统。
新兴的算法权利打破了社会的结构性平衡,携程利用大数据技术杀熟的行为使得人们的权益遭到极大的损害。而一直以来,虽然有很多起因为大数据杀熟而引起的纠纷,但大数据杀熟的事实有一定的认证难度。本案的胜诉也彰显了我们国家对于算法伦理规范的决心,说到底,终究是“人与人之间的博弈”。
参考文献:
[1]蓝江.生物识别、数字身份与神人类——走向数字时代的生命政治[J].马克思主义与现实,2021,(04):194-202.
[2]李飞翔.“大数据杀熟”背后的伦理审思、治理与启示[J].东北大学学报(社会科学版),2020,(01):7-15.
[3]张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019,(04):63-75.
[4]刘铮.技术物是道德行动者吗?——维贝克“技术道德化”思想及其内在困境[J].东北大学学报(社会科学版),2017,(03):221-226.
上一条:YouTube助长“地平论”事件:算法推荐的伦理困境 下一条:金山毒霸弹窗推送诋毁革命烈士邱少云内容事件:算法推荐下的权益侵害
评论
|
|
匿名发布 验证码 看不清楚,换张图片 | |
共0条评论 共1页 当前第1页 | |
|
|