导读 | 据外媒报道,当地时间8月1日,Facebook表示,它将开放两套用于识别儿童性剥削、恐怖主义宣传和图片暴力的算法的源代码。Facebook在一篇博客文章中表示,其已经在Github上发布了PDQ和TMK+PDQF这两种技术,文件以数字散列的形式储存在上面并还跟已知的有害内容进行了比较。 |
Facebook表示,希望其他科技公司、非营利组织和个人开发者也能利用这项技术识别出更多的有害内容并将其添加到共享数据库中。这将有助于平台在用户试图上传这些内容时更快地删除掉它们。
美国失踪和被剥削儿童国家中心总裁兼CEO John Clark在一篇博客文章中指出:“仅在一年内,我们就见证了科技行业向CyberTipline报告的儿童性侵视频数量增加了541%。我们相信,Facebook对这项开源技术的慷慨贡献最终将会让更多的儿童性虐待受害者得到确认和救助。”
Facebook表示,日前的这一举措标志着其首次开源照片或视频匹配技术。而在这之前,微软和谷歌也提供过类似的技术。
除了开放源代码,Facebook还跟马里兰大学、康奈尔大学、MIT和加州大学伯克利分校建立了合作关系,它们将一同展开如何防止人们为了规避安全系统而对被禁照片和视频进行细微修改的研究。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/127145.html