TikTok被质疑向青少年推送潜在有害内容
近日,据外媒报道,国外一项新的研究表明,TikTok可能会在青少年创建账户的几分钟内,就出现与自杀和饮食失调有关的潜在有害内容,这可能会加剧人们对该应用程序对最年轻用户影响的日益密切的审查。
非营利组织反数字仇恨中心(CCDH)在周三发布的一份报告中发现,在注册TikTok账户后不到三分钟就能看到与自杀有关的内容,再花大约五分钟就能找到一个宣传饮食失调的内容的社区。
研究人员表示,他们在美国、英国、加拿大和澳大利亚设立了8个新账户,TikTok的最低用户年龄为13岁。这些账号会在有关身体形象和心理健康的内容上短暂停留并点赞。CCDH表示,该应用程序在30分钟内每39秒推荐一次关于身体形象和心理健康的视频。
这份报告发布之际,州和联邦议员正试图以隐私和安全问题为由打击TikTok,并确定该应用程序是否适合青少年。一年多前,包括抖音在内的社交媒体平台的高管在一系列国会听证会上面临议员们的尖锐问题,他们的平台如何引导年轻用户(尤其是十几岁的女孩)接触有害内容,损害他们的心理健康和身体形象。
在这些听证会之后,Facebook的举报人弗朗西斯·豪根披露了Instagram对青少年的影响,两家公司誓言要做出改变。但来自CCDH的最新发现表明,可能仍需要做更多的工作。
CCDH的首席执行官伊姆兰·艾哈迈德在报告中说:“结果是每个父母的噩梦:年轻人的推送中充斥着有害、令人痛心的内容,这些内容会对他们对周围世界的理解以及他们的身心健康产生重大的累积影响。”
TikTok的一名发言人反驳了这项研究,称这是对该平台上观看体验的不准确描述,原因有多种,包括样本量小、测试窗口有限的30分钟,以及这些账户滚动浏览一系列不相关主题以寻找其他内容的方式。
TikTok发言人告诉媒体说:“这种活动和由此产生的体验并不反映真实的行为或真人的观看体验。”“我们定期咨询卫生专家,消除违反我们政策的行为,并为任何有需要的人提供支持性资源。我们意识到触发内容对每个人来说都是独一无二的,我们仍然专注于为每个人营造一个安全舒适的空间,包括那些选择分享他们的康复旅程或就这些重要话题教育他人的人。”
发言人表示,CCDH并不区分有关特定话题的正面和负面视频,并补充说,人们经常分享有关饮食失调康复的故事。
TikTok表示,将继续为用户推出新的保障措施,包括过滤掉成熟或“有潜在问题”的视频。今年7月,该公司对被检测出可能包含成熟或复杂主题的视频增加了“成熟度评分”,还增加了一项功能,帮助人们决定他们想在TikTok视频上花多少时间,设置定期的屏幕休息时间,并提供一个仪表板,详细说明他们打开应用程序的次数。TikTok还提供了一些家长控制功能。
这并不是社交媒体算法第一次被测试。2021年10月,美国参议员理查德·布卢门撒尔的工作人员以一名13岁女孩的身份注册了一个Instagram账户,并开始关注一些节食和支持饮食失调的账户(Instagram本应禁止后者)。这位参议员当时表示, Instagram的算法很快就开始几乎只推荐这个年轻的青少年账号关注越来越多的极端节食账号。
TikTok表示,它不允许描述、推广、正常化或美化可能导致自杀或自残的活动的内容。据该公司称,在今年4月至6月因违反其自杀和自残内容政策而被删除的视频中,93.4%的视频在零点击量下被删除,91.5%的视频在发布后24小时内被删除,97.1%的视频在收到报告前被删除。
该发言人表示,当有人搜索#自残#这样的禁词或短语时,他们不会看到任何结果,而是会被重定向到当地的支持资源。
尽管如此,CCDH表示,还需要做更多工作来限制TikTok上的特定内容,并加强对年轻用户的保护。
“这份报告强调了网络空间改革的迫切需要,”CCDH的艾哈迈德说。“在没有监管的情况下,TikTok不透明的平台将继续通过为用户(记住,最小的孩子只有13岁)提供越来越紧张和令人痛苦的内容而获利,而无需检查、资源或支持。”
附件列表
词条内容仅供参考,如果您需要解决具体问题
(尤其在法律、医学等领域),建议您咨询相关领域专业人士。
如果您认为本词条还有待完善,请 编辑