有了人工智能,虛假新聞就有了“克星”

時間:2017-03-23

來源:網絡轉載

導語:北京字節(jié)跳動科技公司在“今日頭條”平臺上,依靠人工智能技術,模仿人腦機制,對低俗圖片的攔截率較之前純人工攔截提高了73.71%。

當前,甄別和控制網絡虛假信息傳播已經成為一個世界性話題。虛假信息不僅令我國網絡空間深受其擾,一些西方國家也日益意識到它的危害。去年美國大選中,不同利益集團相互指責和控訴對方制造和傳播虛假信息,吃相難看,顏面盡失。

虛假信息及低俗內容,在互聯(lián)網環(huán)境中跨地域大規(guī)??焖賯鞑サ默F(xiàn)象,主要出現(xiàn)在擁有海量用戶的互聯(lián)網應用平臺產生以后。每個用戶都可以在這個平臺上發(fā)布信息,并在平臺內部和平臺之間快速傳播信息。在一定的利益動機和社會心理機制作用下,一些平臺用戶試圖發(fā)布虛假信息及低俗內容謀取各種利益。由于這類信息和內容往往流傳甚快甚廣,使得社會原有的甄別及防范機制難以及時做出反應。

對于這一新問題,有多種解決思路。比較傳統(tǒng)的方法,諸如提高公眾傳播素養(yǎng),更多發(fā)揮傳統(tǒng)媒體把關功能,加大對虛假信息及低俗內容發(fā)布者的處罰力度,加重平臺責任等。

互聯(lián)網企業(yè)的反應,卻是更多地借助技術手段。如臉譜推出“事實核查工具”,邀請用戶通過下拉菜單將他們看到的可疑新聞報道在該平臺上進行標記。第三方事實核查人員隨后分析標出的報道,并判定其為真實報道還是虛假新聞;谷歌新聞實驗室發(fā)起成立了一個名為“FDN”的新聞學術和技術聯(lián)盟,研究方向主要是社交媒體新聞的原創(chuàng)判斷和真實性認證。我國的互聯(lián)網平臺也作出了多方努力。例如,北京字節(jié)跳動科技公司在“今日頭條”平臺上,依靠人工智能技術,模仿人腦機制,對低俗圖片的攔截率較之前純人工攔截提高了73.71%;針對“標題黨”現(xiàn)象,一些網站構建了“人工+機器”的模式構建防火墻,對敏感詞、標題黨和虛假信息進行技術性攔截。

然而,一些業(yè)界人士擔心人工智能無法處理復雜的價值判斷問題,也有互聯(lián)網人士認為算法沒有價值觀。其實,人工智能的算法本身就是根據(jù)特定領域的規(guī)律和規(guī)則制定的,在這些規(guī)律和規(guī)則中,就蘊含著價值選擇與判斷。在確立模型并不斷學習之后,執(zhí)行算法的機器完全能夠具有超越人腦的能力,這在不久前圍棋的人機大戰(zhàn)中已經得以驗證。

如何更好地掌握規(guī)律、制定規(guī)則,給算法提供正確指引,讓人工智能能夠更有效地甄別虛假和低俗內容并控制其傳播,是當前業(yè)界和學界要重點研究的問題。

首先,我們需要更全面地梳理和分析產生虛假和低俗內容的利益結構和動機,分析各類利益主體制造和傳播虛假及低俗內容的行為特點,如謀求政治利益和謀求經濟利益的行為主體,在制造和傳播虛假及低俗內容的行為方面有哪些異同。通過這些分析,為建立模型提供依據(jù)。

其次,可以通過對網絡平臺上虛假及低俗內容傳播者生產的內容進行文本分析,對其傳播行為進行跟蹤研究,以掌握其心理特征及行為特征,支持識別模型的構建。

此外,還可以通過對人們網絡信息接收和接受的心理特征及行為的分析,建立模型,探索如何通過算法干預這一過程,阻斷虛假及低俗內容的傳播,減低其傳播效果。

更多資訊請關注工業(yè)機器人頻道

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.surachana.com)獨家所有。如需轉載請與0755-82949061聯(lián)系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯(lián)網或業(yè)內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發(fā)表之日起一周內與本網聯(lián)系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0