北京时间9月5日早间消息,据彭博报道,周三Youtube与美国联邦贸易委员会(FTC)达成了和解,作为和解协议的一部分,YouTube将停止在针对儿童发布的视频中销售广告。但是该公司的这个计划,将依赖于一项在过去难以做出细微决策的技术。
这个谷歌旗下的视频服务将会使用人工智能来判断哪些视频是针对儿童的,然后再将个性化广告从这些视频中删除。
对于政客和消费者来说,这个计划听上去有些似曾相识。过去多年中,YouTube都在使用人工智能来寻找和删除不当内容,包括色情、恐怖主义宣传和极端暴力内容等等。其他科技企业,例如Twitter和Facebook也曾表示,人工智能是他们解决各自问题的方法,从线上骚扰到选举干扰等等。
谷歌是在人工智能领域成就最高的企业之一,但是由于线上内容的数量实在太多,有些时候这项技术也会显得不够强大,例如今年3月份,数千条有关新西兰一座清真寺遭受恐怖袭击的视频被上传到了YouTube上。
人工智能并不是YouTube的第一道防线,该公司还要求视频制造者自己报告其视频是否是针对儿童的。但是内容创造方高度依赖广告收入,因此即使他们所拍摄的视频是针对儿童的,他们也不会有很高的自主报告意愿。这意味着,人工智能将在内容监管中发挥重要的作用。
YouTube公司CEO苏珊·沃西基(Susan Wojcicki)在一篇博文中写到:“为了识别为儿童制作的内容,我们要求视频制作者告诉我们其所制作的视频属于这一类别。另外我们还将使用机器学习来寻找那些明确针对青年观众的视频,例如强调儿童角色、主题、玩具或游戏的视频。”
谷歌的一位发言人表示:“如果内容制作者没有对内容进行适当分类,我们将会采取适当的行动。”
机器学习是人工智能软件的一类,随着所处理的数据越来越多,它也会变得越来越智能,从而减少人类程序员的输入量,YouTube所使用的就是这项技术。谷歌是这一领域的领导者,但目前尚不清楚这项技术运用在YouTube的儿童内容上会起到多好的效果。
2015年,YouTube推出了儿童专用引用,它使用软件从YouTube主站的数十亿条视频中挑选出适合儿童观看的视频。在上线不到3个月之后,儿童和消费者团体发现这个应用上出现了不当内容,包括露骨的与性相关的语言,以及关于恋童癖的笑话。
今年早些时候,YouTube软件将巴黎圣母院的大火误识别成9·11恐怖袭击画面。该公司发言人表示:“我们的系统有时会做出错误的判断。”另外,通过对视频做一些调整,也可以让其骗过YouTube的算法,例如改变一些像素的颜色,或是将视频调转等等。新西兰清真寺枪击事件的视频就是这样被上传到YouTube上的。
YouTube还在使用其他措施来保护儿童,该公司计划更积极地推广其儿童版应用,而且他们最近还对可以进入儿童视频服务的频道进行了限制。
市场研究机构Loup Ventures预测,YouTube今年的总营收将会达到100-150亿美元,其中儿童媒体内容将会贡献5-7.5亿美元。Loup Ventures分析师道格·克林顿(Doug Clinton)表示,取消儿童视频中的广告,最多可能会让该公司营收下降1%。