算法伦理与“被算计”的人
当前位置: 首页 > 算法伦理与“被算计”的人 > 正文
YouTube助长“地平论”事件:算法推荐的伦理困境
时间:2022-04-28
摘要:算法新闻改变了传统新闻的生产和传播方式,在满足用户个人需求和获取信息便利的同时,现阶段算法新闻的传播伦理失范问题日益凸显。本文以算法推荐新闻为主要研究对象,对其中的伦理失范现象进行研究。并分别从技术层面、专业层面和法律监管层面对算法新闻造成的传播伦理失范问题提出应对策略。
关键词: 算法新闻 伦理失范 应对建议
ABSTRACT:Algorithmic news has changed the production and dissemination of traditional news. While satisfying users' personal needs and facilitating access to information, the ethical anomia of algorithmic news has become increasingly prominent at present. In this paper, the algorithm recommended news as the main research object, the ethical anomie phenomenon is studied. And proposes countermeasures to the problem of communacation ethics caused by algorithm news from the technical level, professional level and legal supervision level.
Key Words:Algorithm News Ethics Anomie Suggestions
案例简介
19世纪时,塞缪尔·罗伯瑟姆(Samuel Rowbotham,1816-1884)开创了一个地平说理论。他指出地球是一个平坦的圆盘,北极是中心,而四周被南极的冰川包围。尽管千百年来科学家早已证明“地圆说”,“地球是平的”主张近五年竟又开始死灰复燃。至于“地平说”复活大推手,专家研究后发现,美国科技公司“谷歌”旗下的全球知名影片分享网站“YouTube”责无旁贷。
2017年,美国说唱歌手B.o.B(真名为Bobby Ray Simmons Jr)是地平说的坚定支持者。他计划在GoFundMe网站上筹集20万美元(后来升至100万美元),以便将一艘或多艘飞船送入太空,帮助他找到“地平说支持者”们所说的盘状星球的边界。过去几年间,像B.o.B一样的地平说信徒的人数增长惊人。现在每年都有一次地平说大会在美国举行—— 最近一次会议有600多人参加,而YouTube上则充斥着各种视频,都声称能够证明地球是平的。
2020年2月22日,发生了一幕惨剧。一名美国男性迈克尔·休斯(Michael Hughes),相信地球是平的,并且努力寻找证据证明这一点。他搭乘自己建造的火箭飞往高空,打算亲眼看看地球的形状。2018年3月,他曾坐火箭到达过572米的高度,随后使用降落伞返回地面。2019年8月,他准备第二次尝试,却因天气原因推迟了。直到2020年2月22日,休斯在美国加州再次搭乘火箭升空。这次他计划到达1500米的高度。但很不幸,火箭发射后,降落伞意外脱落。最终他因没有降落伞而坠落身亡。
德州理工大学的兰德鲁姆认为,与这种阴谋论心态相关的,是“否认科学”并且易于相信社交媒体上的欺骗性主张。“几乎所有与我们交谈的人都说,他们要么直接在YouTube上接触过地平说,要么是家人在YouTube上看过地平说,然后再告诉他们的。” 兰德鲁姆说。
互联网和YouTube视频尤其推动了地平说的兴起,这些视频获得成功的关键还在于算法,这些算法会把视频推送给其他阴谋论内容的观看者。“算法让阴谋论正常化,让你感觉这已经是你社群内的共识。”兰德鲁姆解释说。“地平说只是其中的一个例子。”YouTube在2019年确实承认了这个问题,并表示会调整算法,减少对阴谋论视频的推荐。但这些视频仍在其平台上,这一事实并未改变。
Claus Lunau/Science Photo Library
案例来源
https://physicsworld.com/a/fighting-flat-earth-theory/
案例分析
算法新闻是人工智能技术与新闻传播业相结合的产物,它改变了传统新闻的生产和传播方式,可精确匹配内容与用户兴趣,实现个性化推荐。在这种逻辑下,假新闻和阴谋论得以飞速传播。NBA著名球星凯里·欧文曾公开表示他认为地球是平的,在遭到公众批评后他又上节目道歉,称自己对地平说信以为真是因为在YouTube上看多了阴谋论视频。“你点进一个YouTube视频,就像掉进了一个兔子洞,”欧文说,“然后平台就会给你推荐更多的此类视频,慢慢的你就信了。” 因此,值得注意的是,算法新闻在满足用户个人需求和获取信息便利的同时,现阶段算法新闻的传播伦理失范问题日益凸显。欧文把原因归纳为YouTube的洗脑。
图源:《监视资本主义:智能陷阱》
一、算法推荐存在的伦理困境
(一)伦理风险:算法推荐导致失实新闻的传播
算法推荐缺陷导致失实新闻的传播。新闻失实指新闻报道与客观事实不相符的一种社会现象,在算法推荐新闻的过程中,新闻失实时有发生,不但造成了失实新闻的传播,也严重损害着算法推送新闻内容的真实性。社交媒体平台YouTube上关于“地平学说”的虚假视频被反复推荐并得到一部分人的关注,这体现了算法推荐存在着损害新闻真实性的弊端。
目前,造成算法推荐新闻中存在的新闻失实现象主要有两种情况,第一种是新闻聚合平台所编写的算法较少地甚至根本没有考虑推荐新闻的真实与否,因此造成新闻失实;第二种是算法在编写过程中存在缺陷,编写者虽有意通过算法过滤不真实的信息,但是由于技术局限性或数据的缺陷性,而造成的新闻失实。
在网络媒体时代,失实新闻的出现不仅会对其发布者或平台造成负面影响,还会降低整个新闻媒体行业和科学界的权威性,误导社会公众,损害相关行业的公信力。
(二)技术独裁:引发信息茧房,加重社会歧视
如今,智能推荐的算法还能通过机器学习,优化推荐的方式和内容,“揣摩”用户的“心理”,权重设置得更加精准,更能全面地勾勒出用户的喜好。然而,快速地根据用户的习惯和喜好调整权重虽然能提高算法推荐效率,但是会加剧“信息茧房”问题[1]。算法推荐新闻强调个性化,注重用户体验,但是实际上,这牺牲的是多元的信息基础。当前以“投其所好”为原则的算法,大大提升了“作茧自缚”的效率。NBA著名球星凯里·欧文称自己对地平说信以为真是因为在YouTube上看多了阴谋论视频,这在一定程度上体现了算法推荐技术下“信息茧房”的弊端。
算法技术除了引发“信息茧房”问题,也在一定程度上加剧了社会歧视。如今,我们已经处于消费主义时代,而包含歧视性的“标签”符合当下的新闻传播潮流。人们缺乏的不再是信息的接受数量,而是对接受信息的注意程度。[2]
算法通过人工智能领域内的相关知识的技术,将所得到的数据源来分组归类,将新闻中最吸引人的那部分单独拿出来划重点,在小范围中用简短的文字来进行报道。但与此同时,阅读者内心的刻板印象却随着阅读相关歧视性标签内容的增多而愈发加重,这进一步增强了其内心中具有的先天成见,从而引发社会歧视问题。
(三)权利剥夺:算法滥用侵犯用户权利
算法推荐技术看似给新闻生产者和用户提供了便利,但实际上却存在着侵犯用户权利的风险。对用户权利的剥夺主要体现为算法霸凌侵犯用户的自主权和算法存储侵犯用户的被遗忘权两方面。
算法霸凌指公司利用技术、服务或资源优势欺压用户甚至非法侵犯用户合法权益的行为。[3]如今,一些软件公司利用算法入侵用户隐私,利用绝对的技术优势对用户进行霸凌,侵犯了用户的自主权。对于算法推荐新闻,算法霸凌主要体现为“内容强制推荐”、“APP过度索权”、“必须下载额外软件才能看后续内容”等。算法霸凌的行为已经使用户的知情权、自主权等方面诸多合法权益被侵害,是明显的违法甚至犯罪行为。但是,追其责任却仍旧困难重重、任重道远。
在网络时代,数字化记忆真正地诠释了永不消逝的含义,个人的身份信息、浏览痕迹、视频或照片,长久甚至永久地存储在互联网中。然而,算法推荐机制消解了用户的被遗忘权,。除此之外,算法推荐的逻辑是根据个体过去的行为轨迹来预测其未来的行为倾向,从而投其所好,“投喂”符合其偏好的内容。但在现实生活中,人的行为逻辑是复杂的,不是只有“过去+现在=未来”导向[4],这种推荐模式会禁锢个体的视野,限制其发展的空间。
二、应对算法新闻传播伦理失范问题的建议
(一)专业层面:秉持专业性原则,回归新闻价值本位
专业原则要求新闻从业者应重回专业意识,提升新闻质量,不能将新闻生产放任给技术,自身仅作简单把关,新闻只满足于能够阅读的低标准,对新闻本身应具备的真实性、客观性、价值性仍应存有敬畏之心,用专业性来消解技术加剧的伦理风险与新闻业和新闻学科面临的危机。[5]
由于聚合类算法平台看重商业利益,使得新闻产业中的社会权力结构发生改变,以新闻专业主义为主导的媒体人正在失去新闻议题和分发的主导权,算法平台按照兴趣分发的方式违背了新闻专业主义的要求,正向流量至上,经济为首的恶行趋势发展。在此背景下,传统新闻专业记者和新闻机构要继续坚守新闻专业主义,继续以客观、独立、事实为依据引领新闻生产和传播的行动,承担社会责任发挥相对功能。算法新闻下的分发不仅要满足用户个性化需求,还要同时为用户提供具有价值的公共议题。[6]
因此,面对算法逻辑下的传统新闻伦理问题,新闻组织与新闻从业者应回归新闻价值本位,持有专业原则进行审视。
(二)技术层面:构建透明机制,将道德伦理纳入算法系统规范
一方面,按照透明性原则,专业机构、技术人员和聚合类算法平台可以从数据、运算过程和算法背景三个方面构建算法透明机制,促使算法系统透明度落到实处。实现数据透明即在不损害公司利益的前提下,聚合类新闻平台需要公开数据来源,并用简单易懂的话语对数据质量、可信度、准确性、误差范围、采样范围、缺失值、机器学习过程中训练数据的规模等进行解释说明。除此之外,涉及用户利益的算法新闻,聚合类平台更应该向用户进行数据披露和解释说明;运算透明即算法工程师应定期向社会公开算法运行过程和推荐原理;背景透明即为了避免出现偏见和误导受众价值观的问题,新闻机构应及时准确地传达算法设计者的目的和意图。
另一方面,算法平台应主动承担媒体社会责任,将积极向上的态度和价值观纳入算法模型和分发系统。首先要确定算法系统中哪些不符合伦理的标准,从而制定算法推荐系统应遵守的道德伦理规范及发生价值冲突时算法应如何处理的工作。当已经明确了这些规范以后,可以选择将道德伦理规范以及法律条文翻译成计算机代码嵌入算法系统。最后要对算法推荐系统的工作结果进行评估。
算法推荐通过兴趣和内容匹配满足用户个性化需求,但具有公共价值的内容推荐较少,因此除了上述两方面外,还应拓展算法系统多样化。要打破只依据用户画像和兴趣进行推送的传播模式,从而摆脱信息茧房的束缚,戳破“过滤气泡”,平衡信息不均。
(三)法律层面:完善新闻立法、加强监管力度
新闻立法是保证新闻行业健康安全发展的保障,政府在制定网络治理和管理条例时应按照系统性、全面性、适用性等原则进行。比如针对用户隐私泄露问题,算法技术在监控用户信息的情况下应该提前告知用户并说明这些信息的使用目的和途径,算法平台要尊重和保护用户的知情权。同时,由于法律的完善滞后于技术的发展,所以政府要始终把握算法技术的发展动态和发展阶段,立足于目前算法新闻所带来的伦理失范问题,不断出台和完善相应的法律法规。
算法时代下的新闻把关主体发生了变化,平台用户、自媒体从业者、算法工程师、算法平台等都被无形中赋予了信息传播的权利,而政府当前对新闻行业的监管和治理对象主要是专业媒体和算法平台中,很少涉及自媒体。再加上公众自身媒介素养低下,算法平台为了利益导致算法新闻暴露的问题不断显露。因此政府要加大对聚合类算法平台及相关人员的监管力度。在法律层面的监管,要明确监管的对象,明确算法技术的适用范围和标准,确定失范问题出现时的责任问责机制和惩罚细则。
新媒体时代下的公众是通过社交媒体平台参与新闻事件的讨论,从而形成共识。而在实际传播过程中,可能伴随谣言或是虚假新闻等负面内容的流入和传播,而算法技术助推了虚假新闻和低俗内容的传播。2018年1月,社交平台YouTube虽然开始引入事实审查功能,但类似“地平说”的假新闻和视频依然存在并反复呈现于用户眼前。因此,必须重视对算法内容生产质量的监管力度,建设以政府为主导、多主体共同协作的算法内容监管体制,算法内容监管的本质是信息质量监管,通过政府和多个责任主体的相互协同合作实现算法发展和算法安全的平衡。
算法技术与新闻传播业的融合促成了算法新闻的产生,算法新闻在人们日常生活中所接触的新闻中扮演着重要角色。拉扎斯菲尔德和默顿曾言,“大众传媒既可以为善服务,也可以为恶服务。但总的来说,若不加以控制,它为恶服务的可能性则更大”。算法亦是如此,作为新闻信息生产和发布的深度参与者,算法平台应注重个性化推送与人性化推荐的融合,增加用户的信息接触面,充分满足其多样化的新闻信息需求。同时,用户应当发挥主观能动性,积极提高参与、使用媒介和解读、批判信息的能力,主动“破茧而出”,全面提升媒介素养,从而遏制类似“地球是平的”这类假新闻在社交媒体平台的蔓延。
参考文献
[1]彭兰.导致信息茧房的多重因素及“破茧”路径[J].新闻界,2020(01):30-38+73。
[2]隋岩.群体传播时代:信息生产方式的变革与影响[J].中国社会科学,2018(11):114-134+204-205.
[3]于冲.刑事合规视野下人工智能的刑法评价进路[J].环球法律评论,2019,41(6):40-57
[4]栾善武.新媒体的实践之路——天健网的过去、现在和未来[J].记者摇篮,2008(08):17-18.
[5]尹凯民 梁 懿:《 算法新闻的伦理争议及审视》[J],现代传播2021年第9期
[6]陈璐瑛.算法新闻的传播伦理失范问题及对策研究[D].硕士论文辽宁大学,2021
评论
|
|
匿名发布 验证码 看不清楚,换张图片 | |
共0条评论 共1页 当前第1页 | |
|
|