站长之家 - 业界 2021-11-17 17:06

TikTok公布平台有害挑战的内部调查报告

TikTok因在其应用上举办危险的病毒性“挑战”而名声不佳,并且在最糟糕的情况下,这些挑战还会导致严重的伤害或死亡事件发生--比如今年促使意大利监管机构对该社交网络采取行动以清除未成年用户的昏迷挑战(blackout challenge)。

最近,该应用因鼓励学生打老师和破坏学校财产的挑战而成为头条新闻。随着进一步监管的潜在威胁逼近,TikTok今日分享了其对病毒性挑战和恶作剧的内部研究结果--以及它是如何采取行动的。

到目前为止,TikTok经常试图淡化其对病毒性挑战的参与。

比如今年10月,TikTok否认“掌掴老师”的挑战是TikTok的一个趋势。在一名儿童因尝试昏迷挑战而死亡后,TikTok发表声明称,该公司没有发现任何涉及其平台上窒息的挑战的证据。在最近一次专门讨论社交平台上未成年人安全问题的参议院听证会上,它再次重复了这一说法。但美参议员Blackburn告诉TikTok的代表,她的工作人员发现了晕倒的视频以及其他令人不安的内容。

今日,TikTok发布了其自己对有害挑战和骗局的内部研究结果。

这家公司表示,它在几个月前启动了一个全球项目来研究这个话题,其中包括对来自阿根廷、澳大利亚、巴西、德国、意大利、印度尼西亚、墨西哥、英国、美国和越南的1万多名青少年、家长和教师的调查。另外 ,它还委托了一家独立的保障机构Praesidio Safeguarding撰写一份报告以详细说明调查结果及其建议。此外,一个由12名领先的青少年安全专家组成的小组被要求审查该报告并提供他们自己的意见。最后,TikTok跟专门研究青少年健康发展的临床儿童精神病学家Richard Graham博士和专门研究青少年风险预防的行为科学家Gretchen Brion-Meisels博士合作以提供进一步指导。

由于这份报告说明了社交媒体如何成为有害内容的温床,所以其所发现的数据值得研究。由于年轻人处于心理发展的阶段,他们对风险的胃口要大得多。

正如Graham博士所指出的那样,青春期是一个非同寻常的时期,为孩子过渡到成人生活做准备。他表,这是一个大规模大脑发育 的时期。“现在有很多人关注的是了解为什么青少年会做他们所做的事情--因为这些判断中心正在被重新修正,为将来更复杂的决策和思考做准备。”

Graham博士表示,年轻人的大脑在抽象思维方面、对更复杂的心理和情绪状态的识别以及对关系的更复杂考虑都正在发展。而在这一切进行的过程中,他们对周围世界的学习欲望也在增加--这有时可能包括参与更危险的活动和测试自己或赢得同龄人的认可的欲望。有时这些“危险”活动相对无害,如看恐怖电影或坐过山车。但其他时候,青少年和其他年轻人可能会选择参与一些他们认为会真正在某种程度上拉伸他们的活动,这就吸引他们去面对更多的风险挑战。

此外,一般来说,病毒性挑战可以吸引青少年对朋友和同龄人认可的渴望,因为这会带来喜欢和观点。但青少年评估挑战是否安全的方式有缺陷--他们往往只是看更多的视频或向朋友征求意见。同时,家长和老师往往对谈论挑战和骗局犹豫不决,因为他们担心会促使人们对它们产生更多的兴趣。

研究发现,大多数青少年并没有参与最危险的挑战。全球只有21%的青少年在参加挑战,只有2%的人参加了那些被认为是危险的挑战。更少的0.3%参加了他们认为是“真正危险”的挑战。大多数人认为参与挑战是中性的(54%)或积极的(34%),而不是消极的(11%)。而64%的人说参与挑战对他们的友谊和关系有着积极的影响。

该项研究还考察了恶作剧挑战--如Blue Whale和Momo--它们宣传了有一个坏的行为者在指挥孩子们从事有害的活动,并升级为自我伤害或自杀。61%的青少年表示,当他们遇到骗局时他们会搜索更多的信息以试图验证它们是否是真的,但在骗局周围往往还存在很多困惑。青少年怀疑转发骗局的人是为了获得喜欢和浏览量(62%的人相信这一点)或因为他们认为骗局是真的(60%的人相信这一点)。有46%的青少年接触到骗局后会寻求支持或建议,这表明青少年会从帮助他们理解骗局材料的资源中受益。

尽管研究表明,为了解决与用户安全有关的问题,社交媒体平台还有很多事情要做,但TikTok在这方面的反应相当小。

这家公司近日宣布,它将在其安全中心增加一个专门讨论挑战和骗局的新部分,另外还将根据研究人员的建议修改其在人们搜索跟自杀或自我伤害有关的骗局时出现的警告标签中的一些语言。

考虑到这些变化相对较小的性质--基本上是一个帮助文档和一些修订的文本--在今天的公告之前,TikTok在周一曾向媒体直播了一个小时的研究报告并将38页的研究报告全文电邮给记者。TikTok这样做似乎是为了将自己跟Facebook区分开来,后者一直对外不公布令人震惊的内部研究,直到举报人Frances Haugen拿出数千份文件,人们才知道Facebook明知自己的问题却没有采取行动。

TikTok希望自己被视为有意义地参与研究过程,但最终,它所做的改变并不能解决问题。归根结底,有害内容是一个管理上的挑战,是一个源于社交媒体本身性质的问题。消除有害内容将需要一个从头开始设计的系统,以不激励令人震惊或离谱的内容来换取喜欢和浏览,然而大多数社交媒体都不是这样建立起来的。

TikTok还表示,它将寻找跟标签相关的违规内容的突然增加,包括潜在的危险行为。

比如像#FoodChallenge这样的标签(通常用于分享美食食谱和烹饪灵感)开始出现峰值,而其更多的内容违反了TikTok的政策,那么审核团队将会被提醒去寻找这种峰值的原因,进而方便他们能够采取行动。

相关话题

推荐关键词

24小时热搜

查看更多内容

大家正在看