王維菁 教授 | 大眾傳播研究所
國立臺灣師範大學大眾傳播研究所教授,研究專長:資訊傳播、人工智慧、傳播政治經濟學、社群與網路平台、資訊經濟、新聞採訪與寫作。
【本篇報導由大眾傳播研究所 王維菁教授研究團隊提供】
數位媒體科技日新月異,為人類創造無比便利的溝通工具,卻也讓我們身處於假新聞與假訊息充斥的環境。為了因應假新聞的氾濫,本研究運用人工智慧(Artificial Intelligence, AI)與自然語言處理NLP技術,結合深度學習方法,設計出一套新聞可信度評估系統模型。本系統經測試後辨識率最高可達90.53%。然AI決策的可解釋性、人類自主性與社會過度依賴等問題皆是運用AI於假新聞上需深思者。本系統除了作為網路使用者在評估新聞是否真實可信之輔助工具,也期盼提醒民眾對於假新聞有所警戒。
本研究旨在發展一套協助讀者評估來源不明或可質疑之新聞其可信度之程式,希望能在相關領域上為臺灣帶來有意義的討論與貢獻。根據本研究的研究結果,繁體中文的假新聞可信度評估系統是可行且深具發展潛力的,目前實驗結果精確率最高可達90.53%。而資料庫測試集測試檢測結果發現,一般新聞經檢測後的新聞可信度約近90%,但假新聞的檢測其可信度百分比僅約33.7%,一般新聞與假新聞本程式給予的可信度百分比明顯差距很大。研究團隊使用外部資料的測試集進行測試,中央社新聞測試後可信度最高,東森新聞雲測試後新聞可信度略低,但仍達七成以上,而新聞內容農場「每日頭條」測試後新聞可信度很低,平均僅約12.22%,證實我們的人工智慧系統確實能準確分辨一般新聞與虛假新聞之不同,其偵測判斷新聞的可信度之準確程度,應能協助讀者對於新聞內文之語言特徵分析上新聞是否可信之建議。
此一研究將會把臺灣的假新聞議題或對假新聞之因應帶到一新的領域,一個是否願意嘗試運用人工智慧,並讓其介入人類社會生活認知判斷之領域。但對於引進人工智慧介入人類的社會生活甚至社會認知,仍需要有一定的警醒與反思,包括本研究雖從程式判斷的結果進一步分析一般新聞與虛假新聞在新聞文本語言學特質、新聞寫作特徵、新聞相關呈現上等之差異,但這均是運用人類邏輯去分析,並不一定是機器判斷的邏輯或依據,而從這些文本語言之差異,程式與機器也並不會提供我們解釋的原因或機器判斷的因素,是故當我們要採用人工智慧的判斷來輔助我們人類的判斷甚至取代人類的判斷時,這樣的依賴其社會結果的負面性,包括過度依賴機器或程式,未來是否造成人工智慧的獨裁以及人類自主性與主體性的喪失,甚至人類思考判斷能力的下滑等,可能都是需要進一步深思與考量。而現今幫助人們區分假新聞和一般新聞的現有方案仍依賴單純基於機器或單純基於人力的方法,但在電腦科學、人工智慧與心理學研究中已經表明單純依賴上述兩種方法均有其侷限性。
此外,人工智慧新聞可信度判斷程式對於未來新聞學與新聞業之影響會是什麼?被評比為低可信度的新聞內容組織就會因此失去民眾的信任與喜愛?AI新聞可信度評估能否反饋為對新聞採寫時新聞正確性與專業性的要求?問題可能並不一定如此簡單,答案可能也會是難以預料的,因此這樣的程式應用對新聞學與新聞環境、產業、生態的影響等等,現今我們可能都尚難以評估,但卻仍應謹慎以對。
原文出處:王維菁、廖執善、蔣旭政、周昆璋(2021)。〈利用AI技術偵測假新聞之實證研究〉,《中華傳播學刊》,39:43-70。https://doi.org/10.3966/172635812021060039002
國立臺灣師範大學大眾傳播研究所教授,研究專長:資訊傳播、人工智慧、傳播政治經濟學、社群與網路平台、資訊經濟、新聞採訪與寫作。