AI 前线导读:随着整个世界对于“虚假新闻”的围追堵截,很多朋友可能认为这类问题已经不复存在。然而,由于社交媒体机器人仍在以远高于正常人类用户的速度发布信息,这些低可信度内容正继续肆虐于社交媒体之上。
来自布卢明顿印第安纳大学的一组研究人员最近进行了一项开创性研究,旨在确定低质量新闻网站到底是如何将这么多可疑文章交付给大量读者的。当然,大家可能已经猜到了结果——答案正是机器人。
TNW 采访了领导此项研究的 Filippo Menczer 教授。他告诉我们,尽管机器人相关帐户在与低可信度新闻相关的全部帐户中仅占很小部分比例,但它们对于这些文章在 Twitter 上的传播却产生着巨大的影响。
Menczer 团队的研究结果表明,机器人的作用是在虚假新闻发布之后为其造势,从而拉高文章本身的热度。此外,机器人还负责将其转发至有政治影响力的人士处,以进一步增强虚假内容的传播可能性。
少年发布了一张照片,其中展示了他父亲的民众支持率;同时人为地夸大了特朗普的这一结果,以确保其民众支持水平看似高于奥巴马。
{“class”:“right”}— William LeGate (@williamlegate) 2018年8月8日
根据该团队最近发布的研究论文(https://www.nature.com/articles/s41467-018-06930-7):
在文章传播之前,机器人即会在早期发布过程当中放大其中的内容。机器人还会通过回复以及针对性地提及拥有大量粉丝的用户拉高文章热度。人类很容易受到此类操纵活动的影响,进而转发机器人发布的内容。各类成功的低可信度信息源,实际上都高度倚重于社交机器人的帮助。
该团队分析了 1360 万条与低可信度内容相关的推文,而后进行模拟,并发现将机器人内容排除在外将使这些低可信度文章的转发总量减少达 70%。
很明显,低可信度内容的传播依赖于机器人,但最大的问题在于如何检测哪些帐户背后实际由机器人操控。Menczer 在接受 TNW 采访时指出,这是社交媒体领域中的一个系统性问题,而不仅仅是 Twitter 自己的问题。不过 Twitter 的数据最容易访问,因此他的团队才决定以此作为研究起点。
遗憾的是,由于社交媒体庞大的规模与覆盖范围,我们再也无法弄清基础分析或者用户民间调查的真实状况。印第安纳大学必须建立起一套机器学习系统,用以识别社交媒体上的机器人; 此外,还需要一套分析平台从而对 Twitter 上的信息传播途径进行可视化处理。
这两套平台已经成为现实,Botometer 与 Hoaxy的出现帮助 Menczer 和他的团队成功分辨出哪些帐户(可能)由机器人操纵以及这些机器人的实际成效。
解决方案
我们已经迎来新的历史节点:当下,社交媒体上出现的主观论断已经几乎不可逆转。恶意人士可以利用 Twitter 作为温床测试并传播各种谎言,从而轻松确定其中哪些适合作为政治家拉拢民心的资本。而低可信度网站的大量涌现使得这些虚假新闻能够极为轻松地被广泛覆盖,最终建立起一个围绕谎言展开的反馈循环。
解决这个问题的方法之一,在于限制或者消除社交媒体上的机器人。虽然机器人在行善之时拥有极大力量——包括发布合法新闻,帮助小型企业宣传自身并与客户互动,甚至是作为用户无聊时可以“调戏”的对象——但其同时也已经成为一种足以左右人们认知的有力武器。
但必须承认,机器人禁令只是一种最粗暴无脑的本能反应。对于合法利用机器人进行娱乐或者学术目的的受众来说,一纸禁令只会引发巨大的抗议与反弹。
加利福尼亚州最近出台了相关立法 ,宣布除非创建者在机器人的社交媒体资料当中明确提到其并非人工操作,否则机器人帐户操作将被视为刑事犯罪行为。这项举措的出台似乎有望阻止加利福尼亚州内利用机器人扰乱社交媒体秩序的活动,但在我们看来,相关法律的具体执行仍然困难重重。
更遗憾的是,就目前来讲,唯一可行的解决方案就是提升我们自己的认知水平与分辨能力。
麻省理工学院社交网络信息传播专家 Sinan Aral 并没有参与印第安纳大学团队的研究,他在接受 Science News 采访时就此给出自己的意见:
我们自身也需要对这个问题承担起一定责任,包括擦亮双眼、不转发虚假信息等等,这些都是我们需要直面的责任。
更具体地讲,由于那些价值数十亿美元的技术企业没有能力确保自己的服务不被由简单代码行构建的机器人所滥用,我们身为用户就只能投入时间免费为其监管网络。
但实际上,我们大多数人都没有时间去一一探究那些看似可疑的新闻报道背后到底有着怎样的真相。更糟糕的是,用户往往需要经过数小时甚至是数天,才能得到有说服力的事实以判断自己看到的内容是否属于虚假新闻。
解决问题的答案之一,在于利用人工智能技术实时自动检查相关事实,以便受众群体能够在阅读新闻之前选择以怎样的心态或者置信度看待这一切。这并不算是理想的解决方案,但确实能够为那些意识到自己身陷虚假新闻泥潭的读者们带来一点希望。
为此,TNW 与 OwlFactor 公司创始人兼 CEO Arjun Moorthy 进行了交流。该公司打造出一款浏览器插件,能够利用机器学习技术来判断当前文章是否符合特定的报告标准(https://www.owlfactor.com/static/about.html)。
我们询问 Moorthy,他对于 OwlFactor 的文章评级系统抱有怎样的期望:
总结来讲,我们希望利用这些评级系统以不同于其它网站的方式呈现高质量内容。大多数网站,特别是社交媒体上的网站,往往会根据受欢迎程度突出显示某些内容。而受欢迎的程度往往基于分享/赞/喜欢等推动性指标; 或者是基于作者自身的人气,即关注者/粉丝数量。OwlFactor 完全立足评级系统进行内容筛选,而不考虑任何流行度指标。
这有望指引我们摆脱以文章受欢迎程度来证明其实际质量的想法。另外,由于 OwlFactor 不会引导读者的喜好与习惯(当然,该公司确实希望能够提供此类整合服务),因此这种不存在偏见的洞察见解可能为身处不同政治立场的用户带来帮助。
时至今日,我们已经被社交媒体机器人以及受此影响而无辜站队的用户所淹没。更具体地讲,任何自认为没有受到错误信息影响的社交媒体政治话题参与者,实际上都已经在不知不觉中成为舆论诱导的受害者。
而且随着 2020 年下一届美国总统大选的日益临近,这种情况只会变得更糟。
原文链接:
评论 1 条评论