大发快3官网社交网站上假新闻到底有多少?《科学》杂志发文阐述相关研究

  • 时间:
  • 浏览:0
  • 来源:彩神大发快三官方-彩神大发快3

  原标题:社交网站上假新闻到底有几个?《科学》杂志发文阐述相关研究 编者按:习惯于浏览各大社交网站获取

  编者按:习惯于浏览各大社交网站获取新闻信息,习惯于“一言不合”就转发,原本你在乎过新闻信息的吗?你知道有有哪些新闻中的虚假信息占几个吗?虚假信息满天飞身后的原因分析分析又是有哪些呢?会给社会带来咋样的影响?本文编译自theatlantic上原标题为The Grim Conclusions of the Largest-Ever Study of Fake News的文章。

  原本世纪前,原本说很夸张。但《科学》杂志上发表的一项首次针对类式现象的研究报告申明类式对社交的描述是事实。

  这项大规模的新研究分析了Twitter中每篇被质疑的新闻故事 - 相当于12.40万 个故事,在过去10年中被400万用户转发。研究结果发现事实根本无法与恶作剧和相抗衡。研究发现,根据任何一种生活常用的度量标准,虚假新闻总是支配着Twitter上的:虚假新闻和利于吸引更多的人,更深入地渗透到社交网络中,之后地比准确的信息变快。

  “从我们 的研究中都都都可以 看出,虚假信息战胜了真实信息,”来自麻省理工学院的数据科学家Soroush Vosoughi说,他从2013年开始英语 英语 研究虚假新闻,并领导了这项研究。 “这不仅仅是原因分析分析着机器,原因分析分析着与人性有关。“

  这项研究原因分析分析着引起社会科学家的。 《科学》杂志上发表的一篇文章中,16位学家和法律学者写道“在21世纪,我们 需用重新设计我们 的信息生态系统”。我们 呼吁开展跨学科研究,“以减少虚假新闻的,出理 虚假新闻的潜在病症。”

  新研究表明,这从不容易。着实Vosoughi和他的同事只研究Twitter,但研究使用的是公司提供给MIT的独家数据,我们 的工作对Facebook,YouTube和所有主要社交网络全部后会影响。任何总是夸大吸引人或挑衅性内容的平台全部后会原因分析分析着放大虚假新闻。

  着实这项研究是用统计学的临床语言撰写的,但它为有有哪些平台上的信息的准确性提供了有系统的。作者发现,虚假的故事比真实的故事更容易。虚假故事的速率平均比线倍。在各个领域,虚假新闻(包括商业,和战争,科技和娱乐)的表现都超过了事实。

  Twitter用户似乎更喜欢分享虚假信息。即使研究人员控制了发布的账户,类式该账户与非 拥有更多的关注者或所发布的消息与非 被是虚假的,有有哪些账户发布的信息就算不准确,仍然有70%的原因分析分析着会被转发。

  类式现象只有责怪机器。研究发现,从4006年到2016年,Twitter的机器人放大了真实的故事,也放大了虚假的故事。作者写道,虚假新闻好的反义词发展如此 之快,“原因分析分析着人的因素,而全部后会机器。”

  学家和社交研究人员对这项研究表示了赞许,称其对于社交网络上虚假新闻现象给出了最全面和最严格的研究,尽管一些人对调查结果位于争议,并质疑研究中对于新闻的定义。

  “这是项研究非常有趣和令人印象深刻,说明了不真实的信息咋样得比真实的信息变快,影响更广,之后其中的例子非常恰当,前后信息一致,极具力。”Rasmus Kleis Nielsen教授在一封电子邮件中写道。

  “我认为这常重要的研究,”达特茅斯学院教授布伦丹·尼汉告诉我。 “我们 需用更多类式的优秀研究。”

  “简而言之,我认为如此 理由怀疑这项研究的结果,”荷兰莱顿大科学学教授利贝卡·特罗布尔在一封电子邮件中说。

  过去,研究人员原因分析分析着研究了在网上虚假信息的现象。我们 总是关注奇异事件的,比如2012年发现希格斯玻色子之后的猜测原因分析分析着2010年海地地震之后的传闻。

  这篇新论文的研究范围更广,涉及了整个Twitter上的虚假新闻:从4006年9月到2016年12月,twitter上的每每根有争议的新闻。但为此,Vosoughi及其同事需用回答原本更加初级的现象:是有哪些?我们 咋样知道?

  “虚假新闻原因分析分析着成为白热化的文化话题,但触发类式话题的是五年前在位于的事件,”麻省理工学院科学家Deb Roy说,新研究的作者之一。

  2013年4月15日,两枚在马拉松赛道俯近爆炸,造成三人死亡,数百人受伤。该爆炸瞬间引起我们 的关注,有关爆炸事件的理论位于了Twitter和一些社交平台。 4月19日,州州州长要求数百万人留在家中,原因分析分析着警方进行了大规模的行动。

  罗伊告诉我“我和我的妻子和孩子在贝尔蒙特的房子里呆了四天,Soroush被困在剑桥。”当买车人被困在房子里,Twitter成为我们 通往内部内部结构世界的唯一通道。你爱不爱我:“我们 听到了一些不真实的事情,之后一些我们 听到的事情最终变成真的了。”

  变快开始英语 英语 了。之后当这原买车人在校园里团聚时,我们 一致认为对于Vosoughi来说- 原本博士生专注于社交似乎很愚蠢,甚至还研究我们 之后经历过的事情。

  他创建了原本真理机器:一种生活算法,都都都可以 对多量的推文进行排序,并从中提取出最准确的事实。类式机器关注推文的原本属性:作者的属性(我们 与非 通过验证?),推文的语言种类(与非 复杂?)以及推文咋样通过网络。

  “Soroush开发的模型利于很好地预测信息的准确性。”Roy说,他在2015年获得博士学位。

  之后,这原买车人和麻省理工学院管理学教授思南·阿拉尔同時 研究整个Twitter上的虚假信息咋样。我们 不仅开始英语 英语 探讨“有哪些是”的现象,之后还有更加不可分离的:计算机咋样知道是有哪些?的现象。

  我们 成为了网上事实的最终仲裁者:第三方事实核查网站。通过监测和分析三个小不同的事实核查网站(包括Snopes,Politict和,我们 列出了4006年至2016年间在Twitter上的数以万计的在线传闻。之后,我们 使用Gnip社交网络专有的搜索引擎在Twitter上搜索有有哪些传言。

  最终,我们 发现了相当于12.40万 条推文,有有哪些推文加上同時 被转发超过4400万次。一些推文链接了一些网站发布的“虚假”故事。一些人买车人,无论是在推文中还是在附带的图片中都都都都可以 看出。 (该团队使用了原本特殊的应用系统进程,都都都可以 搜索静态推特图片中的单词。)全部后会一些推文里的信息或链接是真实的。

  你爱不爱我,Vosoughi在本周从麻省理工学院讲话时给了我原本例子:推特都都都可以 通过一些方法 实现10,000次转发,你爱不爱我。原因分析分析着名人拥有几百万关注者,我们我们 发送Tweet A时,就原因分析分析着有10,000人在我们 发布的之后看一遍A,并决定转发这条推文。 此时,推文A被广泛转发,创造了原本大而浅的模式。

  与此同時 ,如此 一些关注者的账户发送推文B给我们 的20个关注者,原因分析分析着其中原买车人看一遍它,并转发它,因买车我们 的关注者之一看一遍它并转发它,原本会总是持续下去,最后成千上万的人后会看一遍Tweet B并转发它。

  推文A和B都具有相同大小规模的观众,之后Tweet B地更加有“厚度”用Vosoughi的术语来讲。它将转发链接在同時 ,以一种生活从有过的方法 虚假信息。 “类式方法 都都都可以 使转发次数达到1,000次,之后整个运作模式也非常不同,”你爱不爱我。

  这是事实:根据这原本指标,虚假新闻占主导地位。它始终会吸引更多的观众,之后它比真实新闻更深入社交网络。作者发现,准确的新闻无法实现10多次转发。虚假新闻都都都可以 实现一次19次转发量,之后转发速率也是准确新闻的10倍。

  即使经过人类审核而全部后会机器人,有有哪些结果也非常有效。与主要调查不同的是,一组本科生同時 对随机确定的约13,000个英语推文进行了实际检查。根据研究,我们 发现虚假信息以与主要数据集“几乎相同”的方法 战胜了真实信息。

  首先,虚假新闻似乎比真实新闻更“新奇”。研究小组发现,虚假新闻通常与用户转发前400天内账户上出现的所有推文明显不同。

  其次,虚假消息比一般的推文更能读者感情的句子的句子。研究人员创建了原本单词数据库,Twitter用户用有有哪些单词回复126,000个有争议的推文。之后使用最先进的感情的句子的句子分析工具对其进行分析。我们 发现,虚假推文倾向于使用让读者感到惊喜或厌恶的词语,而准确的推文则倾向于使用让读者感到悲伤的词汇。

  在使用一种生活不同的机器人检测算法对400万Twitter用户的样本检测后,我们 发现自动机器人的确在虚假新闻, 但我们 转发虚假信息和准确信息的速率相同。

  乔治大科学学家Dave Karpf在一封电子邮件中说, “(1)整个10年的数据集,机器人不喜欢错误信息。(2)在最近的一些案例中,僵尸网络已被策略性地部署来虚假信息“。

  你爱不爱我,“我的猜测是,这篇文章将告诉我们 ”科学证明,机器人从不重要!“,但本文着实表明,原因分析分析着我们 关注Twitter的整个生命周期,机器人最近原因分析分析着升级,原因分析分析着一些人原因分析分析着投入资源,部署机器人。这篇论文并如此 驳斥类式假设。“

  一些科学家也对该研究中“新闻”的定义提出质疑。转向事实核查网站,该研究模糊了各种虚假信息的定义:的谎言,城市传说,恶作剧,恶搞,谎言和“虚假新闻”。“网站不仅仅单独看虚假新闻,也关注看起来像新闻内容的文章或视频,这是原本新闻过程,但实际上是人为编创创造创造发明来的。

  之后,这项研究原因分析分析着会低估“无争议的新闻”:广为人知的准确新闻。该研究也忽略了内容和新闻。大学教授尼尔森在一封电子邮件中表示,“我们 所有的受众研究都表明,绝大多数用户认为新闻和内容截然不同。” “说包括在内的不真实内容在Twitter上的速率比真实的报道要快,与说虚假新闻和真实新闻的速率不同从概念上来讲是不一样的。”

  学家特罗布尔在一封电子邮件中表示:“有有哪些利于激发强烈感情的句子的句子的内容在Twitter上地变快,更深入,更广泛。类式发现与一些不同领域的研究结果一致,包括心理学和学研究,也相对直观。“

  达特默斯教授Nyhan说,“网络上的虚假信息往往真的很新颖,总是是消极的”。 “有有哪些信息通常具有原本形态学 ,非常吸引我们 的注意力,因买车我们 希望与买车人分享有有哪些信息 - 我们 专注于新的,有点儿是负面的消息。”

  “当你不受现实时,创建两者都非常容易。一些我们 都都都可以 利用人类心理学和网络达到买车人的目的”,他补充说。

  他称赞Twitter将其数据提供给研究人员的行为,并呼吁Facebook等一些主要平台也原本做。 “在研究方面,平台是基础。我们 有一些东西需用学习,之后原因分析分析着如此 平台伙伴关系和合作者者,我们 就会感到束手束脚,“你爱不爱我。

  “有有哪些公司在人民行使方面有很大的影响力。这原因分析分析着有有哪些平台需用面对多量的审查,增加透明度。“你爱不爱我。 “我们 都都都可以 整天学习Twitter,但只有相当于12%的美国人在使用它。这对记者和学者来说有点儿要,但Twitter并全部后会大多数人获得新闻的渠道。“

  Twitter在一份声明中表示,希望能与内部内部结构专家扩大合作者者。该公司的CEO杰克·多尔西仔在一系列推文中说,公司希望“提高对话的健康度,度和文明度,公司也应该公开承担更多责任。”

  但学教授Tromble表示,类式发现也原因分析分析着适用于Facebook。 “今年早些之后,Facebook提前大选将重组新闻Feed以支持”有意义的互动“。

  她补充说,“很明显,我们 会根据评论数量和帖子的回复意见来衡量有意义的互动。之后,正如本研究所表明的那样,只有进一步创建充满虚假信息和一些内容的帖子,利于引发强烈的情绪反应“。

  研究人员之一的阿拉尔说,“先把我保守科学家的身份装进一边,对于这咋样适用于一些社交网络的说法,我不太舒服。我们 在这里只研究了Twitter,但我的直觉是,有有哪些调查结果普遍适用于社交平台。Facebook的数据也适用于类式研究。“

  然而有有哪些并全部后会研究中最令人气恼的发现。我们我们 开始英语 英语 研究时,麻省理工学院的团队预计,分享最多假消息的用户基本上是旁观者。我们 认为买车人会找到一群于使用Twitter所含或耸人听闻的消息的群体,有有哪些人全部后会买车人的的粉丝和者。

  事实上,团队发现请况正好相反。分享准确信息的用户拥有更多的关注者,而全部后会虚假新闻分享者。有有哪些用户使用Twitter的时间也更长,也更有原因分析分析着通过验证。总之,最值得信赖的用户有一些优点,会被Twitter授予最佳用户。

  换句话说,有原本起点,但不确定最终都都都可以 赢得比赛。作者写道:“尽管有有哪些差异位于[账户之间],但虚假信息比的变快全部后会原因分析分析着有有哪些差异。”

  类式发现会让每个希望从社交上获得准确信息的用户感到失望。它表明,不管我们 多么巧妙地使用Twitter,无论我们 多么精心地书写反馈或追踪可靠的消息来源,我们 仍然会在瞬间被虚假信息。

  相当于对我来说是如此 。我自4007年开始英语 英语 成为Twitter用户,从新闻行业起步。在平台上,每个用户都可与非 读者,作家和出版商,之后虚假信息大获全胜,新奇的消息非常诱人,恶意的挑逗也难以超越。

  干预方法 目前尚不清楚,原因分析分析着有句子,希望都都都可以 扭转类式趋势。 “我们 告诉我有哪些是有效的方法 ,有哪些全部后会,”阿拉尔告诉我。几乎如此 表明我们我们 发现事实审核站点了买车人的原本想法之后,我们 会改变买车人的意见。类式,在社交网络或搜索引擎上标记虚假新闻也如此 多大作用。

  总之,社交似乎在的请况下系统地夸大了虚假信息。目前如此 人 - 无论是专家,家还是科技公司 - 知道咋样扭转类式趋势。