Instagram如何进一步推进儿童安全工作

导读 五月份,我在这里写道,科技平台上的儿童安全问题比我们所知道的还要糟糕。非营利组织 Thorn 进行的一项令人不安的研究发现,大多数儿童

五月份,我在这里写道,科技平台上的儿童安全问题比我们所知道的还要糟糕。非营利组织 Thorn 进行的一项令人不安的研究发现,大多数儿童在他们应该使用的几年前就使用了应用程序——而且有四分之一的人表示他们曾与成年人进行过露骨的性互动。这使平台有责任在识别其服务的儿童用户并保护他们免受可能在那里发现的虐待方面做得更好。

显然,其中一些属于“等等,他们还没有这样做吗?” 领土。可以说,Instagram 的手是因为越来越多地审查儿童如何在该应用程序上受到欺凌,尤其是在英国。但正如 Thorn 的报告所显示的那样,大多数平台在识别或删除未成年用户方面做得很少——这在技术上是一项艰巨的工作,你会觉得有些平台觉得他们最好不知道。

因此,感谢 Instagram 认真对待挑战,并建立系统来解决它。这是 NBC 新闻的 Olivia Solon 与 Instagram 公共政策负责人 Karina Newton(无亲属关系)就公司正在建设的内容进行的谈话:

“在互联网上了解人们的年龄是一项复杂的挑战,”牛顿说。“收集人们的身份证不是问题的答案,因为这不是一个公平、公正的解决方案。访问在很大程度上取决于您住在哪里以及您的年龄。人们不一定想将自己的 ID 提供给互联网服务。”

Newton 表示,Instagram 正在使用人工智能通过寻找基于文本的信号来更好地了解年龄,例如关于用户生日的评论。她说,这项技术并没有试图通过分析照片中的人脸来确定年龄。

与此同时,记者通过一些简单的搜索来识别平台上的安全问题仍然非常容易。这是今天华尔街日报的杰夫霍维茨:

《华尔街日报》周末对 Instagram 当前由人工智能驱动的推荐和执行系统进行了评论,强调了其自动化方法面临的挑战。在#preteen 标签的提示下,Instagram 推荐了带有#preteenmodel 和#preteenfeet 标签的帖子,这两个帖子有时都包含来自成年男性用户对年轻女孩图片的生动评论。

在收到《华尔街日报》的查询后,Instagram 从其搜索功能中删除了后两个主题标签,并表示这些不当评论说明了它为何开始试图阻止可疑的成人帐户与未成年人互动。

撇开有问题的话题标签不谈,Instagram 为儿童安全所做的最重要的事情就是停止假装孩子们不使用他们的服务。在太多的服务中,这种视图仍然是默认的——它创造了儿童和掠食者都可以轻松导航的盲点。Instagram 现在已经确定了其中的一些,并公开承诺消除它们。我很乐意看到其他平台也效仿——如果他们不这样做,他们应该准备好解释原因。

当然,我也希望看到 Instagram 做得更多。如果平台的第一步是承认他们有未成年用户,那么第二步是为他们建立额外的保护——超越他们的身体和情感安全。例如,研究表明,与成年人相比,青少年更容易轻信和相信虚假故事,而且他们更有可能传播错误信息。(这可以解释为什么 TikTok 已成为阴谋论的热门场所。)

假设是这样,一个对年轻人真正安全的平台也会投资于其信息环境的健康。作为奖励,更健康的信息环境对成年人和我们的民主也会更好。

“当你为最薄弱的环节建造,或者为最脆弱的环节建造时,你就可以改进你为每个人建造的东西,”Thorn 的首席执行官朱莉科尔杜亚在 5 月份告诉我。通过承认现实——并建立最薄弱的环节——Instagram 为其同行树立了一个很好的榜样。

免责声明:本文由用户上传,如有侵权请联系删除!