“艾莎门”事件背后的反思:莫让算法推荐成为恶性事件的帮凶

作者:陈泽宇 时间:2019-01-08

【摘要】目前,基于算法的新闻推送成为人们获取新闻信息的重要方式,新闻客户端定制的内容分发机制顺应了新信息爆炸时代受众的个性化受阅需求,但对算法技术的过度依赖也带来了新的媒介伦理风险。缺乏监察的算法极易成为恶性事件的帮凶,2018年年初爆发的“艾莎门”邪典视频事件正是因此大肆蔓延。本文将结合“艾莎门”事件来具体分析算法推荐对新闻伦理的冲击。

【关键词】算法新闻;“艾莎门”;邪典视频;新闻伦理

【Abstract】 At present, news push based on algorithm has become an important way for people to obtain news information. The customized content distribution mechanism of news client conforms to the individualized reading demand of the audience in the era of new information explosion. However, excessive reliance on algorithm technology also brings new media ethical risks. The lack of monitoring algorithms can easily be an accomplice to a vicious event, and the“Elasagate”evil video outbroke at the beginning of 2018 is the result of the rampage. This paper will analyze the impact of algorithm recommendation on news ethics in conjunction with the“Elsagate”event.

【Keywords】 Algorithm news;”Elasagate”;Evil video;Journalism ethics

【案例回顾】

2018年1月16日,一篇翻译自外网的微博长文《一群变态锁定观看YouTube的孩童,我以前为他们工作》使一座被称为“Elsagate”(艾莎门)的冰山浮出水面。

(图片来自网络)

“艾莎门”是指起初在国外盛行的儿童邪典视频,这些视频充斥着针管、怀孕等软色情的剧情,通过诸如开颅手术等手段大打暴力擦边球,剧情常常带有恐怖、惊悚的意味。在这些视频中,艾莎公主怀孕是家常便饭,米老鼠被车撞死在街头也十分常见,面目可憎的小丑会割下天线宝宝的头。值得一提的是,虽然画面血腥露骨,这些视频在配音、背景音乐上却采用了儿歌旋律或是一些令人放松的歌曲。此外,该类视频经常使用鲜艳的红、蓝、绿、黄、粉红等颜色。这些色彩强烈地刺激儿童大脑,加深不良行为的印象,甚至导致成瘾。

2017年7月,《纽约时报》报道了这一事件,引起了全社会的广泛关注。在舆论压力下,YouTube开始删除封禁此类视频。但在2018年1月,这些在外网被慢慢封禁的视频,却悄悄流入了国内。更有甚者制作出中国版“儿童邪典片”,不仅将文字语言换成了中文,还仿制拍摄、剪辑、制作、传播系列视频,甚至将孩子作为拍摄对象。动画形象也从艾莎公主、蜘蛛侠扩展到中国儿童更熟悉的光头强等。

因为这类邪典视频最常使用《冰雪奇缘》中的艾莎公主做主角,因此这一事件被称为“艾莎门。”这一事件首先在微博被广泛传播,紧接着引起了全社会的广泛关注,人民日报、新华社等媒体纷纷报道,。到目前为止,知乎上关于“如何看待Elsagate事件”的问题已有800余条回答,1万多人关注。

【案例分析】

算法新闻推荐指的是依托于互联网技术与大数据技术,对用户的阅读习惯及兴趣偏好进行数据抓取,经过计算分析后得出用户画像,针对用户特性进行个性化、智能化的新闻生产与分发。新闻客户端定制的内容分发机制顺应了新媒体时代受众的个性化受阅需求,但与此同时,算法新闻定制所带来的一系列隐患也不应该被我们忽视。

智能推荐算法常常扮演无意识的帮凶

在上述提到的“艾莎门”事件中,算法充当了这一恶性事件的帮凶。YouTube拥有据称世界上最复杂的推荐系统。这个系统简单来说分为两层:第一层,从后台视频库中选取数百万个相关视频进入“候选视频生成层”;第二层,根据用户的观看历史抽取几百个视频传输至“排名层”,再根据综合打分选出十几个视频推荐给用户。国内的视频网站,也运用了类似的推荐方法。但智能推荐算法往往由于缺乏足够的监管而扮演无意识的帮凶。

智能推荐算法总是笼统地将诸如明星新闻贴上“八卦”的标签,将动漫贴上“儿童”的标签,却难以分辨其中的内容到底适不适合儿童。在“艾莎门”事件中,这些邪典视频正是利用了算法的这一漏洞。视频制作者将孩子们喜爱的动漫形象进行二次加工,再由算法亲手为他们贴上“儿童”的标签,然后根据智能推荐传送到客户端。

算法推荐在不知不觉中侵犯着受众隐私

同样以“艾莎门”为例,“艾莎门”事件中的邪典视频之所以能够大范围传播,最根本的原因是,算法在对用户的习惯及兴趣进行抓取后分析得出了用户画像。新闻客户端或是视频网站会根据这些用户画像,推送内容给用户。因此这些裹着动画外衣的邪典视频就通过算法分析进入到了孩子们的视野中。更让人感到毛骨悚然的是,算法又是通过何种手段知道用户的喜好进而进行个性化推荐呢?

网络迅速发展的时代,我们时常会感觉到自己处在一个极度不安全的环境中。这种不安全并非是人身安全得不到保护,而是我们时常感觉自己处于一个没有隐私的环境中。用户的个人信息和兴趣喜好,甚至浏览了具体的哪一条信息都会被算法计算在内。淘宝会根据你的购物习惯推荐产品,短视频APP会根据你日常浏览的视频推荐同类型的视频给你。更有甚者,如果你一不小心在某些新闻APP点进一个低俗新闻的界面,那么恭喜你,在之后的很长时间你会源源不断地接受到这些新闻。

算法新闻使用户更易囿于“圆形监狱”之中

20世纪70年代,法国哲学家米歇尔·福柯以规训技术分析为核心,从反思的角度发展了圆形监狱理论。在福柯看来,到19世纪中期,圆形监狱机制扩散到整个社会,社会中遍布“圆形监狱”,整个社会成了某种程度的监狱社会。在监狱社会中,所有人都落入了规训的技术网络不可自拔,所有人都不可避免地成为现代监狱社会的一部分。随着算法的普遍应用以及算法新闻的兴起,每个用户都会不知不觉间落入“规训”的技术网络。

算法新闻的个性化定制在某些程度上帮助用户节省了时间,为用户筛选出了更符合其兴趣的新闻。但从另一方面来看,这也大大加快了用户陷入“信息茧房”的速度。用户在算法的“帮助”下,只浏览自己原本熟悉或是感兴趣的领域,而更少地接触到陌生领域,这对用户来说绝非益事。

一项新技术的兴起往往也伴随着新问题的产生。技术本无对错,是使用技术的人赋予了他们附加的意义。因此,在算法大行其道的当下,我们应当趋利避害,使之真正地为受众服务,为新闻行业所用。

【参考文献】

[1].儿童邪典视频背后:始作俑者是谁,“帮凶”又是谁?

https://www.huxiu.com/article/231933

[2].邪典视频泛滥,平台管理不能全靠算法和大数据.

https://baijiahao.baidu.com/s?id=1592185553661811412&wfr=spider&for=pc

[3].不上幼儿园就没事么?你的小孩可能正在被邪典儿童视频摧残.

http://tech.ifeng.com/a/20180118/44850238_0.shtml

[4].赵双阁,岳梦怡.新闻的“量化转型”:算法推荐对媒介伦理的挑战与应对[A].当代传播.2018年第4期

[5].李翠翠,任蒙蒙.圆形监狱:算法新闻的伦理风险[A].新闻研究导刊.2017.08

[6].方师师.算法如何重塑新闻业:现状、问题与规制[A].新闻与写作.2018年第9期

[7].任莎莎,田娇.算法新闻的伦理困境及其解决思路——以“今日头条”为例[A].传媒.2018.03

上一条:基于算法的控制:一大群抖音“白痴”正在袭来

评论

请遵守《互联网电子公告服务管理规定》及中华人民共和国其他有关法律法规。
用户需对自己在使用本站服务过程中的行为承担法律责任。
本站管理员有权保留或删除评论内容。
评论内容只代表网友个人观点,与本网站立场无关。
 匿名发布 验证码 看不清楚,换张图片
0条评论    共1页   当前第1

Copyright ©2012-2013 Jc.ccnu.edu.cn All Rights Reserved
华中师范大学新闻传播学院  版权所有
地址:湖北省武汉市洪山区珞喻路152号  邮编:430079