11 月 8 日的美国大选早已落下帷幕,大选结果让美国主流媒体深感意外。Facebook 作为一家极具影响力的社交网络公司,在这次大选中被指扮演了民众舆论“搅屎棍”的角色。虽然 Facebook 的 CEO 扎克伯格一直否认 Facebook 是一家媒体公司,也否认 Facebook 在这次大选中对民众舆论进行过干扰,但从民众的反应来看,Facebook 的新闻推荐算法确实对民众舆论造成了影响。
Jessica Lessin 在她的网站上说:
人们相信 Facebook,这对 Facebook 来说是件好事。不过要让 Facebook 为追寻“真理”担起全部责任,会把这家公司推向艰难的境地。
然而,从 Facebook 开始对它的新闻进行干预的那一天起,它已经把自己推向了这样的位置。既然如此,人们是否就该认为 Facebook 因此要担起“去伪存真”的责任?
Timothy B. Lee 在 Vox 上写道:
Facebook 在今年早些时候只雇佣了一个由十几个合同工组成的团队来为它的“新闻动向”编写头条。这些合同工资历尚浅,他们的一些行为让 Facebook 吃尽了苦头,并最终被解雇。在这之后,Facebook 使用自动化的新闻推荐系统,不过效果并不理想,因为总有一些假新闻掺杂在里面。如果 Facebook 使用的是一个经验丰富的高级编辑团队来处理这些新闻,结果或许会好得多。
Facebook 确实不该让一伙缺乏资历的人来做这么重要的事情,不过如果真的换成另一波具备高资历的人是否就一定会扭转乾坤?其实这个问题的关键不在于 Facebook 该使用哪种编辑团队,而是说 Facebook 应该更多地依赖它的算法团队的智慧。
谷歌一直以来都在孜孜不倦地尝试为人们从海量的数据中区分哪些是好的部分哪些是不好的部分。这也是 Facebook 一直在效仿的事情。不过重点是,它们并没有在整个过程中对输入的数据进行过任何人工干预,它们只是为系统提供元数据。它们不断地改进算法,把这些元数据被作为系统设计的指导方针。它们不会对内容本身做任何不该做的事情,比如移除不想要的结果,或者把某些内容标识为有价值的。
算法的改进是一个艰难的过程,还会受到外界的各种挑战。不过既然目标已经很明确,那么剩下的就要看如何定义更有效的元数据,以推动算法的演进。
来自德克萨斯大学的 Micheal Marder 教授描述了一段有关播音 707 客机的设计轶闻,并得出一个结论:
我们不可能把它的结构设计得很完美,它的缺陷是与生俱来的,不可避免。工程设计的目标不是要消除飞机坠毁的可能性,而是要想办法容错。
算法设计的本质不是要消除一切错误,而是在发生错误时仍然能给出具有说服力的结果。
Facebook 在对 Timothy Lee 的质疑作出回应时说:
我们还有很多工作要做,我们会一直努力,不断改进我们平台的体验。
Facebook 显然在这方面下了决心,不过如果 Facebook 走到需要在商业模式和用户体验上作出权衡的那一步,那么可能商业模式会占上风。我们不希望 Facebook 走到那一步,而是一直恪守为用户带来更好体验的誓言。
感谢郭蕾对本文的审校。
给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ , @丁晓昀),微信(微信号: InfoQChina )关注我们。
评论