何芳明 楊思穎 2025-01-13 17:25:14
文/何芳明 楊思穎
當(dāng)前,隨著媒體融合發(fā)展的深入推進,人工智能(Artificial Intelligence,AI)賦能新聞傳媒發(fā)展,讓麥克盧漢(Marshall McLuhan)60年前“媒介即人的延伸”的預(yù)見,呈現(xiàn)出更豐富而生動的現(xiàn)實圖景。人工智能介入新聞生產(chǎn)正在為新聞業(yè)發(fā)展注入新動能,也給傳統(tǒng)的新聞倫理帶來沖擊與挑戰(zhàn)。如何應(yīng)對人工智能給新聞生產(chǎn)帶來的沖擊與挑戰(zhàn),是新聞業(yè)當(dāng)下亟須面對的問題。
一、人工智能在新聞生產(chǎn)中的應(yīng)用不斷深入
“1956年的達特茅斯會議上,約翰·麥卡錫(John McCarthy)正式提出‘人工智能’(Artificial Intelligence)的名字”,[1]人工智能走過了70年蜿蜒向前的探索之路。第一代人工智能,主要依賴預(yù)設(shè)的規(guī)則和人類知識進行推理、決策,如阿爾法狗(Alpha Go)的國際象棋人機大戰(zhàn),該行為基于既定規(guī)則,可以做出準(zhǔn)確判斷,但對不確定情境的處理能力有限,因此其對新聞生產(chǎn)的介入有限。第二代人工智能運用人工神經(jīng)網(wǎng)絡(luò)和人類腦神經(jīng)工作原理,摸擬人類的學(xué)習(xí)和決策過程,能夠?qū)π畔⑦M行分類、預(yù)測和生成,實現(xiàn)了圖像識別和自然語言處理,因此能深度分析新聞素材,自動撰寫與編輯新聞稿件,從而真切地介入新聞生產(chǎn)。當(dāng)前發(fā)展的第三代人工智能,在知識和數(shù)據(jù)的雙驅(qū)動之下,朝著具有獨立思考和決策能力的方向發(fā)展,將深度介入新聞生產(chǎn)各環(huán)節(jié),融合創(chuàng)新新聞呈現(xiàn)樣態(tài),推動新聞業(yè)的全新變革。
自美國Open AI公司2022年底發(fā)布一款人工智能聊天機器人——ChatGPT以后,人工智能生成內(nèi)容(AIGC)引起了全球范圍內(nèi)的廣泛關(guān)注,除了ChatGPT,Google、Facebook(Meta)等國外科技公司都研發(fā)了各自的人工智能語言大模型,國內(nèi)的科大訊飛、百度、騰訊等科技公司也相繼推出了人工智能語言大模型,如星火、文心一言等。2024年初,Sora等視頻生成模型的推出,讓人工智能生成內(nèi)容在新聞生產(chǎn)的應(yīng)用有了具象化的場景。
國內(nèi)外媒體機構(gòu)已經(jīng)將人工智能積極地應(yīng)用于新聞內(nèi)容生產(chǎn)。在國內(nèi),人民日報社2023年10月發(fā)布“人民日報創(chuàng)作大腦AI+”,利用人工智能技術(shù)搭建起了集智能化、場景化、自動化于一體的全新工作模式;新華社2023年7月發(fā)布了大型語言模型MediaGPT,并在成都大運會報道中,利用此模型生成具有表現(xiàn)力的新聞產(chǎn)品《AIGC:珍稀“寶貝”為成都大運會加油助威》;中央廣播電視總臺也于2023年7月發(fā)布了“央視聽媒體大模型”(CMG Media GPT),專注于視聽媒體的內(nèi)容生產(chǎn)。在國外,美聯(lián)社早在2015年就開始使用AI生成有關(guān)上市公司的財經(jīng)分析新聞,2023年7月與Open AI簽署合作協(xié)議,接入其人工智能大模型進行新聞生產(chǎn);《紐約時報》開發(fā)了數(shù)據(jù)分析機器人“Blossomblot”,分析社交平臺上的信息來輔助生產(chǎn)“爆款”內(nèi)容,2023年情人節(jié)前夕,使用ChatGPT創(chuàng)建情人節(jié)消息生成器生成互動新聞《A Valentine,F(xiàn)rom AI.TO You》;路透社、英國廣播公司等媒體機構(gòu)也已使用生成式AI進行內(nèi)容生產(chǎn)。
人工智能生成內(nèi)容的強大功能和既有的新聞生產(chǎn)實踐已經(jīng)表明,其作用和影響不可小覷。對新聞生產(chǎn)而言,人工智能將使新聞素材的獲取、采集、篩選更加高效和精準(zhǔn),新聞寫作、編校審核、內(nèi)容呈現(xiàn)形式、版面頁面布局更加快捷和優(yōu)化,在整體上提升新聞生產(chǎn)的效能。但是,機遇與挑戰(zhàn)并存,我們迎接人工智能帶來的技術(shù)福利時,也不可忽視人工智能帶來倫理風(fēng)險。
二、人工智能介入新聞生產(chǎn)的倫理風(fēng)險
新聞倫理是指在新聞生產(chǎn)傳播實踐中應(yīng)遵循的道德規(guī)范和行為準(zhǔn)則,它劃定了新聞從業(yè)者的職業(yè)操守和價值底線。盡管對于新聞倫理的理解是一個動態(tài)的認(rèn)識過程,但其核心準(zhǔn)則是相對恒定的,真實準(zhǔn)確、客觀中立、尊重人格尊嚴(yán)等專業(yè)規(guī)范,是長期以來的新聞實踐形成的核心準(zhǔn)則。人工智能介入新聞生產(chǎn),將對新聞生產(chǎn)流程各環(huán)節(jié)造成影響,沖擊既有的從業(yè)規(guī)范,給新聞生產(chǎn)帶來倫理風(fēng)險。
(一)新聞失實的隱憂。真實性是最基本的新聞倫理準(zhǔn)則。新聞?wù)鎸嵤腔诳陀^事實的真實準(zhǔn)確,而人工智能生成內(nèi)容是基于數(shù)據(jù)和算法生產(chǎn)新聞,真實準(zhǔn)確的數(shù)據(jù)是事實,但數(shù)據(jù)與事實并能簡單地劃等號,因為數(shù)據(jù)可能包含錯誤、虛假的信息?;跀?shù)據(jù)及其算法的人工智能生成內(nèi)容,可能暗藏著相應(yīng)的新聞失實的隱憂。
數(shù)據(jù)偏差可能造成新聞失實。ChatGPT是基于Common Crawl的大型文本數(shù)據(jù)集生成的,對網(wǎng)絡(luò)信息進行直接爬蟲收集組合而成的數(shù)據(jù)集,其數(shù)據(jù)并未經(jīng)過嚴(yán)格的審查與篩選,本身可能包含錯誤甚至虛假的信息?;阱e誤、虛假數(shù)據(jù)生成的文本內(nèi)容,形成錯誤、虛假的事實,造成新聞失實。而且,數(shù)據(jù)集本身就是一個復(fù)雜的集合體,含有大量的虛構(gòu)作品、用戶生成內(nèi)容(UGC)等文本,事實與觀點、事實與想象共存一體,人工智能因其自在的結(jié)構(gòu)性缺陷無法區(qū)分。將觀點與想象的數(shù)據(jù)誤認(rèn)為事實的數(shù)據(jù),就會生成與事實不符的文本內(nèi)容,造成新聞失實。
算法局限性可能導(dǎo)致新聞失實。算法難以完全理解復(fù)雜的語義和文化背景,當(dāng)新聞事件中包含人文地理和文化隱喻的內(nèi)容時,算法可能誤解這樣的內(nèi)容,做出錯誤的判斷和表述,從而導(dǎo)致新聞失實。OpenAI對用戶作出提示:ChatGPT“可能偶爾會生成不正確的信息”和“產(chǎn)生有害指令”,其實就是對算法局限性可能造成失實的警示。
(二)客觀中立的偏頗??陀^中立的新聞倫理原則,要求在新聞生產(chǎn)傳播實踐中做到不偏不倚。人工智能生成內(nèi)容的核心邏輯是向數(shù)據(jù)學(xué)習(xí),數(shù)據(jù)偏見和算法偏見之上,人工智能生產(chǎn)內(nèi)容是否能夠堅守新聞客觀中立性原則,已不受新聞從業(yè)者掌控,難免失之偏頗。
數(shù)據(jù)偏見是人工智能自在的缺陷?!皬臄?shù)據(jù)出發(fā)尋求解決方案的AIGC,在接受大量網(wǎng)絡(luò)文本作為‘全人類’的‘代表’時,冒有系統(tǒng)性偏向的風(fēng)險?!盵2]當(dāng)數(shù)據(jù)集偏向某個特定的人群而無法準(zhǔn)確代表人口多樣性時,就可能產(chǎn)生人口偏見。用于ChatGPT訓(xùn)練的數(shù)據(jù)集含有推特平臺上大量用戶生成內(nèi)容(UGC),而推特用戶中白人占比達60%,男性占比66%,大模型在學(xué)習(xí)這樣的數(shù)據(jù)之后生成的新聞內(nèi)容,自然會偏向于白人男性,對其他族裔和女性產(chǎn)生偏見。
算法偏見就是人工智能的規(guī)則偏見。算法是研發(fā)者賦予的數(shù)據(jù)處理規(guī)則,規(guī)則偏見是算法設(shè)計不完善不合理而產(chǎn)生的系統(tǒng)性偏見。人工智能看似是沒有主觀意見的機器,但是算法必然受到研發(fā)者本身價值傾向的影響。ChatGPT宣稱是一款“沒有主觀意見的人工智能”,但其生成的文本出現(xiàn)黑人是罪犯、穆斯林是恐怖分子等內(nèi)容并非偶然,可能就是算法設(shè)計而導(dǎo)致的偏見。而且,算法就像一個黑箱,數(shù)據(jù)的使用方式、決策機制、計算參數(shù)的設(shè)計與調(diào)整等都是不透明的。算法黒箱隱藏著研發(fā)者的主觀偏見,決定了生成的新聞內(nèi)容帶有相似屬性。
(三)人文關(guān)懷的缺失。?人文關(guān)懷是新聞倫理的重要考量,強調(diào)在新聞報道中關(guān)注人的價值和尊嚴(yán),避免對人的傷害和岐視。人工智能的本質(zhì)上是基于數(shù)據(jù)和程序運行的工具,沒有像人類一樣的情感體驗和意識。因此,人文關(guān)懷的缺失,是人工智能介入新聞生產(chǎn)顯在的倫理風(fēng)險。
人工智能生成內(nèi)容漠視情感?!皺C器學(xué)習(xí)算法在生成新聞內(nèi)容時會根據(jù)數(shù)據(jù)集自動進行選擇性分析和分類。這意味著其會忽略主觀的判斷和深入的調(diào)查。”[3]正是由于沒有人類情感的判斷力,人工智能自動生成的新聞無法把握和傳達新聞事件中的情感因素。比如,對于災(zāi)難新聞的寫作,人工智能在模板化的語料與框架之下快速地寫出新聞。這樣的新聞當(dāng)然是生硬和冷漠的,不能對災(zāi)難事件提供情感支持。
人工智能生成內(nèi)容可能造成人格侵害。人工智能在新聞生產(chǎn)中需要大量的數(shù)據(jù)支持,這其中就包括私人生活、領(lǐng)域和行為的隱私數(shù)據(jù),如果這些數(shù)據(jù)被不當(dāng)使用于訓(xùn)練人工智能,可能侵害當(dāng)事人的隱私權(quán);如果生成的內(nèi)容涉及到對個人的不當(dāng)描述、誹謗等,就會侵害當(dāng)事人的名譽權(quán)。而且,人工智能大模型往往會自動保存與用戶的通話記錄,ChatGPT的對話記錄就被保存在OpenAI公司的存儲系統(tǒng)中,這同樣是對用戶隱私安全的潛在威脅。
(四)對社會公平的威脅。社會公平是新聞倫理追求的最終目標(biāo),但是人工智能作為新技術(shù)推動新聞生產(chǎn)變革,可能導(dǎo)致行業(yè)資源集中和智能鴻溝的擴大,從而對社會公平構(gòu)成新的威脅。這與新聞追求社會公平正義的倫理準(zhǔn)則背道而馳的,因此可以視為人工智能介入新聞生產(chǎn)帶來的倫理風(fēng)險。
人工智能導(dǎo)致行業(yè)資源集中威脅社會公平。一方面,人工智能的研發(fā)技術(shù)資源主要被少數(shù)科技巨頭掌握,作為內(nèi)容生產(chǎn)者的新聞機構(gòu)需要購買技術(shù)服務(wù),這樣可能形成不利于買方的不公平交易。另一方面,大型媒體機構(gòu)更有資源和能力采用先進的人工智能技術(shù),可能會加劇媒體行業(yè)的資源集中,使得小型媒體難以獲得同等的發(fā)展機會,影響行業(yè)的公平競爭。
人工智能產(chǎn)生智能鴻溝威脅社會公平。智能傳播時代,數(shù)字鴻溝進一步發(fā)展為智能鴻溝?!爸悄茗櫆咸刂甘莻€體或群體在智能技術(shù)的接觸、使用及應(yīng)用結(jié)果等方面形成的差異?!盵4]受到文化程度、年齡、地域、經(jīng)濟水平等因素的影響,不同群體對人工智能的接觸頻率、認(rèn)知水平和應(yīng)用能力方面都存在差距,人工智能介入新聞生產(chǎn)會加劇擴大數(shù)字鴻溝。比如,使用ChatGPT獲取新聞時,能否提出有效的提示詞影響著所獲取新聞的廣度與深度。而且,智能鴻溝的擴大,本質(zhì)上是知識不平等的加劇,必將影響處于劣勢的群體參與社會討論和公共決策的機會,導(dǎo)致社會參與的不公平。
三、規(guī)避人工智能新聞生產(chǎn)倫理風(fēng)險的可能路徑
“新聞行業(yè)構(gòu)建一套共同認(rèn)可的倫理價值觀,其目的不僅在于保持行業(yè)內(nèi)部的良性競爭和可持續(xù)發(fā)展,更關(guān)乎對整個社會倫理的引導(dǎo)?!盵5]當(dāng)下的人工智能生成內(nèi)容,是基于數(shù)據(jù)驅(qū)動而實現(xiàn)的,由此帶來的新聞倫理風(fēng)險主要是以數(shù)據(jù)為中心衍生的風(fēng)險。因此,規(guī)避人工智能給新聞生產(chǎn)帶來的倫理風(fēng)險,需要并從數(shù)據(jù)出發(fā),去探尋可能路徑。
(一)認(rèn)知煥新:利用人工智能學(xué)習(xí)人工智能?!叭魏我淮渭夹g(shù)革命的背后,實際上是一種主體性質(zhì)的觀念革命”[6]。傳媒行業(yè)迎接人工智能技術(shù)革命,同樣需要來一場觀念革命:強化數(shù)據(jù)觀念和智能技術(shù)觀念,重視數(shù)據(jù)作為生產(chǎn)要素的作用,重視人工智能對產(chǎn)業(yè)變革的驅(qū)動力量,積極運用人工智能技術(shù)進行新聞生產(chǎn)與傳播;同時要強化技術(shù)倫理意識,關(guān)注人工智能可能帶來的社會倫理問題,關(guān)注人工智能介入新聞生產(chǎn)傳播帶來的倫理風(fēng)險,積極尋求工具理性與價值理性的平衡。
對新聞從業(yè)者來說,要理性認(rèn)識人工智能技術(shù)的發(fā)展及其在新聞生產(chǎn)中的應(yīng)用。為人工智能的便捷高效而歡呼的同時,新聞工作者需要理性地面對人工智能帶來的倫理困境,關(guān)注人工智能生產(chǎn)對新聞?wù)鎸嵭?、客觀性、人格尊重和社會公平的挑戰(zhàn),主動規(guī)避相應(yīng)的道德風(fēng)險。同時,要創(chuàng)新思維,主動學(xué)習(xí),跨界學(xué)習(xí),利用人工智能學(xué)習(xí)人工智能,不斷提升自己的數(shù)字傳媒素養(yǎng)和人工智能技術(shù)運用能力,從而增強自己防范人工智能新聞生產(chǎn)倫理風(fēng)險的本領(lǐng)。
(二)模式轉(zhuǎn)變:構(gòu)建人機協(xié)同新聞生產(chǎn)模式。人工智能介入新聞生產(chǎn),新聞生產(chǎn)模式需要進行與之適配的改變。構(gòu)建人機協(xié)同的新聞生產(chǎn)模式,是一項持久的任務(wù),也是一條值得探索的有效路徑。“智媒趨勢下,盡管人在內(nèi)容生產(chǎn)中將始終保持主導(dǎo)地位,傳統(tǒng)的一些內(nèi)容生產(chǎn)模式也會延續(xù)下去,但未來人機協(xié)同也將成為一種常態(tài)?!盵7]
新聞生產(chǎn)各環(huán)節(jié)加入了人工智能作為新聞生產(chǎn)者的角色,意味著記者與人工智能共同作為新聞生產(chǎn)合作者。合作需要分工,也需要協(xié)同。記者的角色不再是單純的內(nèi)容生產(chǎn)者,而要轉(zhuǎn)向為新聞報道的指揮者。記者發(fā)揮其主觀能動性,策劃新聞報道,挖掘內(nèi)容深度;人工智能則發(fā)揮其數(shù)據(jù)收集和快速產(chǎn)出的能力,從而實現(xiàn)人機角色的優(yōu)勢互補。人機協(xié)同的新聞生產(chǎn)模式,在深度報道中的優(yōu)勢非常明顯:記者可以發(fā)揮自身經(jīng)驗和專業(yè)知識,深入現(xiàn)場調(diào)查采訪,挖掘新聞價值;而人工智能生成內(nèi)容可以快速梳理相關(guān)政策文件等背景知識。這樣的協(xié)同合作,新聞內(nèi)容質(zhì)量更優(yōu)、效率更高。當(dāng)然,在人機協(xié)同的新聞生產(chǎn)模式中需要強化人工核查,而人的主體性意識可以做出理性判斷和價值選擇,對人工智能生成內(nèi)容進行嚴(yán)格的事實核查和倫理審查,以規(guī)避新聞倫理問題。
(三)法制規(guī)約:加強行業(yè)自律建立AIGC倫理規(guī)范。隨著人工智的發(fā)展,規(guī)約人工智能應(yīng)用的法制建設(shè)已在全球范圍內(nèi)引起重視。由歐盟牽頭推進的《人工智能公約》于今年9月5日簽署,已有57個國家加入,要求簽署國對AI產(chǎn)生的有害結(jié)果負(fù)責(zé)。在國內(nèi),國家互聯(lián)網(wǎng)信息辦公室2023年4月起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,明確了生成式人工智能應(yīng)用的相關(guān)規(guī)則。這都是對人工智能生成內(nèi)容的法制規(guī)約。
但是,對人工智能應(yīng)用的法律監(jiān)管終究還處于起步階段,而人工智能介入新聞生產(chǎn)已經(jīng)面臨現(xiàn)實的倫理風(fēng)險。因此更需要新聞行業(yè)、新聞從業(yè)者堅守新聞倫理準(zhǔn)則,加強行業(yè)自律。行業(yè)自律需要從具體的機構(gòu)媒體做起,大型機構(gòu)媒體應(yīng)率先垂范,制定具有明確指導(dǎo)性和具體要求的AIGC倫理規(guī)范,為人工智能新聞生產(chǎn)立規(guī)矩;建立嚴(yán)格的倫理審查機制,明確記者、編輯、技術(shù)人員在人工智能新聞生產(chǎn)中的職責(zé)和權(quán)限,加強對生產(chǎn)流程的把控,確保人工智能技術(shù)的應(yīng)用符合倫理價值要求。新聞行業(yè)組織應(yīng)發(fā)揮引領(lǐng)作用,牽頭制定人工智能新聞生產(chǎn)的行業(yè)規(guī)范或自律公約,引導(dǎo)新聞機構(gòu)和新聞從業(yè)者自覺遵守倫理規(guī)范。
(四)技術(shù)規(guī)約:發(fā)展數(shù)據(jù)管理與算法監(jiān)測技術(shù)。數(shù)據(jù)是人工智能沖擊新聞倫理的主要風(fēng)險來源,正是數(shù)據(jù)本身的偏差與數(shù)據(jù)管理不當(dāng)給新聞倫理帶來威脅。因此,要通過發(fā)展數(shù)據(jù)管理技術(shù)來提升數(shù)據(jù)管理能力,運用技術(shù)手段科學(xué)管理數(shù)據(jù)的收集、篩選、存儲和使用。比如,使用加密技術(shù),防止數(shù)據(jù)濫用,以保障新聞內(nèi)容涉及的個人隱私和信息安全;利用區(qū)塊鏈技術(shù),為新聞內(nèi)容提供不可篡改的溯源信息,以確保新聞信息源的真實可靠;利用水印技術(shù),確認(rèn)數(shù)據(jù)及其生成內(nèi)容的權(quán)屬,以明晰侵權(quán)責(zé)任。
算法偏見是人工智能新聞生產(chǎn)自在的倫理風(fēng)險。算法是研發(fā)者賦予的機制,可以通過人工審核其是否完善與合理、是否存在偏見或岐視,但是作為用戶的新聞生產(chǎn)者通常在算法黑箱之外,無以知曉無處審核。因此,發(fā)展算法審核與監(jiān)測技術(shù),利用技術(shù)手段發(fā)現(xiàn)與糾正算法偏見,同樣是行之有效的方法。比如,利用數(shù)據(jù)挖掘工具跟蹤算法的運行過程,及時發(fā)現(xiàn)并糾正可能導(dǎo)致倫理風(fēng)險的算法偏見;運用決策樹、規(guī)則集、線性模型等解釋性機器學(xué)習(xí),增強算法的解釋性,便于審核與糾錯;采用倫理評估模型,根據(jù)評估結(jié)果改進算法,減少倫理風(fēng)險。歸根結(jié)底,要推動人工智能技術(shù)的研發(fā),提高其透明度和可解釋性,使新聞從業(yè)者和受眾能夠更好地理解和監(jiān)督人工智能的決策過程,減少因算法黑箱而導(dǎo)致的風(fēng)險。
(作者何芳明系湖南大學(xué)新聞與傳播學(xué)院教授,《長沙晚報》高級編輯,博士;楊思穎系湖南大學(xué)新聞與傳播學(xué)院2024級碩士研究生)
摘自《華聲·傳播觀察》
責(zé)編:羅嘉凌
一審:黃帝子
二審:蘇露鋒
三審:黃柏禹

版權(quán)作品,未經(jīng)授權(quán)嚴(yán)禁轉(zhuǎn)載。湖湘情懷,黨媒立場,登錄華聲在線官網(wǎng)www.voc.com.cn或“新湖南”客戶端,領(lǐng)先一步獲取權(quán)威資訊。轉(zhuǎn)載須注明來源、原標(biāo)題、著作者名,不得變更核心內(nèi)容。
我要問