韩松人民大学 人大教授人民日报刊文:人工智能是虚假新闻“克星”

2017-09-28
字体:
浏览:
文章简介:原标题:人工智能是虚假新闻的"克星"(新媒观察)如何更好地掌握规律.制定规则,给算法提供正确指引,让人工智能能够更有效地甄别虚假和低俗内容并

原标题:人工智能是虚假新闻的“克星”(新媒观察)

如何更好地掌握规律、制定规则,给算法提供正确指引,让人工智能能够更有效地甄别虚假和低俗内容并控制其传播,是当前业界和学界要重点研究的问题

当前,甄别和控制网络虚假信息传播已经成为一个世界性话题。虚假信息不仅令我国网络空间深受其扰,一些西方国家也日益意识到它的危害。去年美国大选中,不同利益集团相互指责和控诉对方制造和传播虚假信息,吃相难看,颜面尽失。

虚假信息及低俗内容,在互联网环境中跨地域大规模快速传播的现象,主要出现在拥有海量用户的互联网应用平台产生以后。每个用户都可以在这个平台上发布信息,并在平台内部和平台之间快速传播信息。在一定的利益动机和社会心理机制作用下,一些平台用户试图发布虚假信息及低俗内容谋取各种利益。由于这类信息和内容往往流传甚快甚广,使得社会原有的甄别及防范机制难以及时做出反应。

对于这一新问题,有多种解决思路。比较传统的方法,诸如提高公众传播素养,更多发挥传统媒体把关功能,加大对虚假信息及低俗内容发布者的处罚力度,加重平台责任等。

互联网企业的反应,却是更多地借助技术手段。如脸谱推出“事实核查工具”,邀请用户通过下拉菜单将他们看到的可疑新闻报道在该平台上进行标记。第三方事实核查人员随后分析标出的报道,并判定其为真实报道还是虚假新闻;谷歌新闻实验室发起成立了一个名为“FDN”的新闻学术和技术联盟,研究方向主要是社交媒体新闻的原创判断和真实性认证。

我国的互联网平台也作出了多方努力。例如,北京字节跳动科技公司在“今日头条”平台上,依靠人工智能技术,模仿人脑机制,对低俗图片的拦截率较之前纯人工拦截提高了73.71%;针对“标题党”现象,一些网站构建了“人工 机器”的模式构建防火墙,对敏感词、标题党和虚假信息进行技术性拦截。

然而,一些业界人士担心人工智能无法处理复杂的价值判断问题,也有互联网人士认为算法没有价值观。其实,人工智能的算法本身就是根据特定领域的规律和规则制定的,在这些规律和规则中,就蕴含着价值选择与判断。在确立模型并不断学习之后,执行算法的机器完全能够具有超越人脑的能力,这在不久前围棋的人机大战中已经得以验证。

如何更好地掌握规律、制定规则,给算法提供正确指引,让人工智能能够更有效地甄别虚假和低俗内容并控制其传播,是当前业界和学界要重点研究的问题。

首先,我们需要更全面地梳理和分析产生虚假和低俗内容的利益结构和动机,分析各类利益主体制造和传播虚假及低俗内容的行为特点,如谋求政治利益和谋求经济利益的行为主体,在制造和传播虚假及低俗内容的行为方面有哪些异同。通过这些分析,为建立模型提供依据。

其次,可以通过对网络平台上虚假及低俗内容传播者生产的内容进行文本分析,对其传播行为进行跟踪研究,以掌握其心理特征及行为特征,支持识别模型的构建。

此外,还可以通过对人们网络信息接收和接受的心理特征及行为的分析,建立模型,探索如何通过算法干预这一过程,阻断虚假及低俗内容的传播,减低其传播效果。

(作者是中国人民大学新闻学院教授、博士生导师 宋建武)