欧美亚洲日本日韩在线,精品国产福利一区二区三区,中韩高清无专码区2021曰,少妇厨房愉情理伦片bd在线观看,精品麻豆国产色欲色欲色欲www

關(guān)于我們

生成式AI在新聞生產(chǎn)中的應(yīng)用、現(xiàn)實問題及其應(yīng)對


發(fā)布時間:

2023-11-04

生成式AI在輔助新聞生產(chǎn),推進(jìn)新聞報道創(chuàng)新的同時,也存在提供不準(zhǔn)確事實、算法不透明、適用邊界存爭議等問題,為此,媒體應(yīng)從優(yōu)化編輯流程、披露算法信息、設(shè)定機器適用邊界等方面規(guī)范人機協(xié)作倫理。

生成式AI在新聞生產(chǎn)中的應(yīng)用、現(xiàn)實問題及其應(yīng)對

  生成式AI在輔助新聞生產(chǎn),推進(jìn)新聞報道創(chuàng)新的同時,也存在提供不準(zhǔn)確事實、算法不透明、適用邊界存爭議等問題,為此,媒體應(yīng)從優(yōu)化編輯流程、披露算法信息、設(shè)定機器適用邊界等方面規(guī)范人機協(xié)作倫理。

  生成式AI即“Generative AI”,是一種專注于生成或創(chuàng)建新內(nèi)容的AI技術(shù),它利用現(xiàn)有的文本、音頻或圖像等數(shù)據(jù)集進(jìn)行機器學(xué)習(xí),然后生成全新內(nèi)容。[1]伴隨GPT-4及其衍生模型的出現(xiàn),生成式AI的生產(chǎn)功能愈發(fā)強大,除文字編寫外,它還能處理語音、代碼、圖像、視頻、手勢等多種格式文本。它不僅持續(xù)成為新聞報道的重要議題,還正在成為媒體新聞生產(chǎn)鏈條中的重要基礎(chǔ)設(shè)施,這意味著新聞生產(chǎn)將正式進(jìn)入全方位的人機協(xié)作模式。媒體該如何負(fù)責(zé)任地使用這類技術(shù),成為亟待探析的問題。

  生成式AI

  在新聞生產(chǎn)中的應(yīng)用類型

  使用AI輔助新聞生產(chǎn)是媒體數(shù)字化轉(zhuǎn)型的重要路徑。在過去十年,智能化新聞生產(chǎn)創(chuàng)新經(jīng)歷了三個階段:自動化(automation)、增強(augmentation)、生成(generation)。[2]相比前兩個階段,生成式AI因在算法系統(tǒng)中加入了代碼預(yù)訓(xùn)練、指令調(diào)整、基于人類反饋的強化學(xué)習(xí),使得其應(yīng)用場景更為廣泛。學(xué)者Diakopoulos總結(jié)了記者利用生成式AI輔助新聞的13種場景:內(nèi)容發(fā)現(xiàn)、文件分析、翻譯、提示引導(dǎo)、社交媒體內(nèi)容創(chuàng)作、自動化寫作(結(jié)構(gòu)化數(shù)據(jù))、自動化寫作(非結(jié)構(gòu)化數(shù)據(jù))、新聞線索發(fā)現(xiàn)、摘要生成、評論審核、內(nèi)容格式轉(zhuǎn)換、標(biāo)題優(yōu)化以及A/B測試、個性化分發(fā)等。[3]不同的媒體接入生成式AI的路徑不同,使用場景和功能應(yīng)用會有所差異。

  目前,國內(nèi)外媒體應(yīng)用生成式AI的方式主要有以下三種類型。

 ?。ㄒ唬┩ㄓ霉ぞ咝?/p>

  通用工具型即媒體與生成式AI系統(tǒng)的關(guān)系是相互獨立的,媒體與平臺其他用戶一樣,通過登錄生成式AI服務(wù)平臺,使用其功能輔助新聞采寫。通常,媒體人只需要注冊平臺賬號使用產(chǎn)品即可。這種方式成本低,使用靈活,是媒體接入生成式AI最常見的方式。以ChatGPT為例,記者可以將需要查詢資料的問題輸入聊天對話框,并在對話框中給出提示工程指令,ChatGPT便能快速地提供其知識數(shù)據(jù)庫的信息。

  在讀圖、短視頻時代,視覺要素一躍成為與信息同等重要的內(nèi)容,以抖音為代表的社交媒體平臺在其視頻剪輯應(yīng)用中開發(fā)了自動化視頻剪輯功能,這反映出生成式AI不僅能將復(fù)雜的事件、深奧的數(shù)據(jù)等轉(zhuǎn)化為便于理解的圖表或圖像,還能通過視覺生成能力,創(chuàng)造傳統(tǒng)新聞無法實現(xiàn)的效果,為新聞生產(chǎn)提供更多的創(chuàng)新可能。[4]目前,新華社音視頻部成立了AIGC應(yīng)用創(chuàng)新工作室,“AIGC說真相”已發(fā)布5篇創(chuàng)意短視頻,視頻質(zhì)量優(yōu)異,傳播效果良好。

 ?。ǘ┢脚_接入型

  平臺接入型是生成式AI系統(tǒng)平臺為媒體內(nèi)容生產(chǎn)提供API接口,為媒體提供內(nèi)容分析、情感分析、事件抽取、摘要生成、個性化推薦、內(nèi)容審校、可視化生成等多種服務(wù)。這種類型的人機協(xié)作生產(chǎn),媒體人主要負(fù)責(zé)提供文本數(shù)據(jù),機器則負(fù)責(zé)產(chǎn)出與呈現(xiàn)。在機器、媒體、終端用戶三者互動中,媒體扮演了媒體終端用戶與生成式AI互動的中介,即媒體提供并設(shè)定新聞議程原始文本——生成式AI系統(tǒng)平臺負(fù)責(zé)技術(shù)實現(xiàn)——媒體提供終端展示,其本質(zhì)是終端用戶與生成式AI平臺的互動。

  《紐約時報》利用ChatGPT創(chuàng)建的一個帶有提示組合的情人節(jié)消息生成器互動新聞《A VALENTINE,FROM A.I.TO YOU》,國內(nèi)澎湃新聞移動端新聞分享功能自動生成的海報新聞,均是平臺接入型的典型代表。在傳統(tǒng)的互動新聞生產(chǎn)中,媒體需要自身寫代碼、算法來設(shè)計互動新聞的交互議題,但通過介入生成式AI接口,媒體只需要發(fā)出互動新聞的設(shè)計指令,生成式AI便能自動生成互動新聞產(chǎn)品。在一定程度上,生成式AI能以相對簡潔的方式輔助新聞工作者進(jìn)行創(chuàng)意表達(dá)。

  (三)專有系統(tǒng)型

  專有系統(tǒng)型是媒體構(gòu)建專門服務(wù)于媒體自身的生成式AI系統(tǒng),這種類型應(yīng)用的搭建需要媒體自身有強大的技術(shù)支持,如建有數(shù)字媒體庫、開發(fā)賦予媒體自身的專有算法等。其優(yōu)勢在于,一方面可以將媒體價值觀嵌入系統(tǒng)中,生成符合媒體定位的內(nèi)容;另一方面,源數(shù)據(jù)庫來自媒體本身,臟數(shù)據(jù)源相對較少,能降低輸出偏誤風(fēng)險。它通常投入成本高,適合特定的大型媒體集團,如經(jīng)濟、體育、政治等領(lǐng)域的商業(yè)媒體。

  學(xué)術(shù)機構(gòu)研發(fā)的支持新聞報道多角度的AngleKindling、彭博社發(fā)布的BloombergGPT即這種類型的生成式AI。專有系統(tǒng)型收集了不同新聞議題的多種報道角度、方式,可對所在媒體數(shù)據(jù)進(jìn)行針對性訓(xùn)練,通過情感分析、命名實體識別、新聞分類和問答等生成多角度的行業(yè)報道。換言之,這種專有生成式AI能被調(diào)用在新聞生產(chǎn)的策、采、編、校、審、發(fā)等各個流程,在輔助新聞生產(chǎn)各環(huán)節(jié)中提供鮮明的個性化服務(wù),滿足媒體對特定信息的需求,包括:(1)自然語言的專有解釋,如在財經(jīng)類媒體交互系統(tǒng)中,輸入“蘋果(Apple)”會更多地指向蘋果公司而不是水果蘋果;(2)專有數(shù)據(jù)庫鏈接,如鏈接上市公司時事交易數(shù)據(jù)庫;(3)特定風(fēng)格新聞設(shè)定,如生產(chǎn)適合媒體定位的自動化新聞寫作等。

  生成式AI

  參與新聞生產(chǎn)存在的現(xiàn)實問題

  和人一樣,機器也不是萬能的,其參與生產(chǎn)的內(nèi)容也會出錯,況且不同的人對人機互動認(rèn)知存在差異。在實踐中,生成式AI輔助新聞生產(chǎn)仍存在以下問題。

 ?。ㄒ唬┨峁┎粶?zhǔn)確事實風(fēng)險

  真實、準(zhǔn)確是新聞報道的基本原則,然而任何技術(shù)在對復(fù)雜世界進(jìn)行轉(zhuǎn)譯時,都無法做到100%準(zhǔn)確。挪威報業(yè)集團施博史泰德(Schibsted)在實驗生成式AI輔助新聞?wù)l(fā)現(xiàn),有十分之一的內(nèi)容包含了“幻象”或虛構(gòu)的成分。[5]同樣,ChatGPT遇到數(shù)據(jù)庫沒有的數(shù)據(jù),它不會直接告知不知道,只會編造一個答案,提供虛假事實。

  究其原因,這主要是由技術(shù)的局限性造成的。當(dāng)前,生成式AI在邏輯推理、可靠性、穩(wěn)健性、準(zhǔn)確性、安全性上還存在一定的局限。[6]首先,生成式AI本質(zhì)上是通過機器學(xué)習(xí)來理解自然語言,其理解方式和決策判斷的給定是由統(tǒng)計概率給出的,換言之,它更擅長做統(tǒng)計性類別的決策而非準(zhǔn)確的邏輯推理,如對于數(shù)學(xué)或一階邏輯,其時常給出錯誤答案。其次,生成式AI生產(chǎn)的知識雖來自大模型語言數(shù)據(jù)庫,但這些數(shù)據(jù)庫只鏈接了現(xiàn)有網(wǎng)絡(luò)數(shù)據(jù),其整合的知識是現(xiàn)階段互聯(lián)網(wǎng)上可追尋的知識,它并不實時更新,反饋的知識有時效局限。此外,網(wǎng)絡(luò)數(shù)據(jù)庫本身包含了大量不準(zhǔn)確的數(shù)據(jù),也會影響輸出決策的準(zhǔn)確性。與此同時,生成式AI多以大語言模型為基礎(chǔ),龐大的數(shù)據(jù)體量加劇了數(shù)據(jù)噪聲,會導(dǎo)致模型對訓(xùn)練數(shù)據(jù)不存在的概念進(jìn)行強行捏造,生成看似正確但實則失實的決策。

  (二)“算法透明”不規(guī)范

  自新聞生產(chǎn)進(jìn)入算法轉(zhuǎn)向以來,因算法黑箱帶來的算法不透明、算法偏見削弱了公眾對新聞的信任,學(xué)界呼吁智能新聞生產(chǎn)遵守算法透明倫理。算法透明(algorithmic transparency)是一種試圖闡明算法信息公開的機制。對終端用戶而言,人機協(xié)作新聞生產(chǎn)的算法透明即披露算法的存在。

  當(dāng)前,多數(shù)媒體算法透明意識不足,在自動化內(nèi)容生成中,要么不披露算法的存在,要么不知道如何披露。2022年,美國科技媒體CNET曾悄悄發(fā)布了數(shù)十篇由AI生成的報道,由于未披露作者的算法身份,這一行為遭到了新聞學(xué)界、用戶的強烈批評,[7]批評不僅因其傳播虛假事實,還在于算法作者身份的不透明。受信任慣習(xí)影響,公眾普遍對生成式AI技術(shù)尚未建立起良好的信任關(guān)系。在美國,調(diào)查發(fā)現(xiàn),78%的人認(rèn)為依靠軟件撰寫的文章不是好事。[8]

 ?。ㄈ┻m用邊界存爭議

  生成式AI超強的計算能力能提升新聞采編的效率,但并不是所有類型的新聞都適用于機器自動化生產(chǎn)。于一些涉及敏感性數(shù)據(jù)、對倫理要求較高的報道而言,任何一個小的錯誤都可能引發(fā)系統(tǒng)性風(fēng)險,有損媒體聲譽。

  新聞采編涉及的敏感性數(shù)據(jù)有機密文件,以及新聞來源、員工、客戶或業(yè)務(wù)合作伙伴或其他自然人的機密信息、商業(yè)秘密或個人數(shù)據(jù),若將這些數(shù)據(jù)輸入AI系統(tǒng),存在信息泄密、侵犯他人隱私權(quán)等風(fēng)險。

  人倫敏感題材,如訃告、人文關(guān)懷較強的嚴(yán)肅議題,能否用生成式AI來報道還存在爭議。ChatGPT編寫密歇根州一所高校發(fā)生槍擊事件訊息的行為遭到了學(xué)生抗議,抗議點在于,學(xué)生認(rèn)為使用人工智能來編發(fā)人類悲劇信息是對生命的不尊重,有違倫理。[9]在人機協(xié)作的智媒時代,人類對自動化生產(chǎn)的信息接受度并不高。在公眾現(xiàn)階段的認(rèn)知中,他們?nèi)匀粫娜祟愔行闹髁x的視角去評價自動化行為,特別是在有關(guān)人倫方面,公眾普遍會認(rèn)為機器生產(chǎn)的信息缺乏“靈韻”(aura),對與生命議題相關(guān)的報道,更希望是人類親自參與的無中介化(un-mediated)報道。

  人機協(xié)作新聞生產(chǎn)的應(yīng)對策略

  面對既有問題,媒體不僅需要正確認(rèn)識生成式AI的內(nèi)容生產(chǎn)機制及其局限性,還需建立一系列規(guī)范優(yōu)化人機協(xié)作生產(chǎn)流程。

 ?。ㄒ唬﹥?yōu)化編輯流程

  事實上,傳統(tǒng)媒體在新聞采寫過程也會出現(xiàn)記者提供不準(zhǔn)確信息的情況,媒體對其解決之道是設(shè)立編輯,對報道是否真實、準(zhǔn)確進(jìn)行把關(guān)。針對技術(shù)固有的缺陷,媒體人能做的依然是對可控的技術(shù)風(fēng)險做好把關(guān),重視人機協(xié)作生產(chǎn)中人的重要性,優(yōu)化人機協(xié)作新聞生產(chǎn)的流程。

  優(yōu)化編輯流程的第一道把關(guān)要點是提升媒體人的智媒素養(yǎng),讓其正確認(rèn)識生成式AI的內(nèi)容生產(chǎn)機制及其局限性。不同平臺的AI系統(tǒng),在內(nèi)容生成的功能和性能上會有所差異,要提前學(xué)習(xí)相關(guān)知識。另外,對智能系統(tǒng)提供的事實及其報道進(jìn)行把關(guān)是減少假新聞生成的必要流程,包括對生成式AI提供的信息進(jìn)行核實核查,或設(shè)立專門的AI編輯負(fù)責(zé)自動化新聞生產(chǎn)等。面對自動化內(nèi)容大規(guī)模生成的現(xiàn)實,《金融時報》專門設(shè)立AI編輯來降低自動化內(nèi)容風(fēng)險;The Newsroom要求對所有AI生成內(nèi)容進(jìn)行核查,必要時由記者進(jìn)行修改。荷蘭新聞社ANP在其關(guān)于人類監(jiān)督參與生成式AI生產(chǎn)的指南中提出“人>機器>人”過程協(xié)作模式,指出使用AI或類似的技術(shù)時,須“支持最終編輯,前提是事后由人類進(jìn)行最終檢查”,即代理和決策均由人監(jiān)督。[10]

 ?。ǘ┡端惴ㄐ畔?/p>

  自ChatGPT發(fā)布以來,多家媒體在用戶社區(qū)中征集用戶對AI生成內(nèi)容的看法,以“自媒體”平臺Medium社區(qū)為例,眾多用戶提到算法透明和披露的必要性。為此,建立透明規(guī)范、披露算法信息是人機協(xié)作內(nèi)容生成階段的重要倫理。對終端用戶實行的透明策略有以下兩種。

  1.告知算法信息。例如,Medium為使用AI語言工具制定的第一個“透明度、披露和出版級指南”政策指出:當(dāng)使用生成式AI工具創(chuàng)建提交的任何部分時,創(chuàng)作者必須像引用任何其他來源一樣引用它。[11]

  2.告知人參與信息,對自動化參與內(nèi)容進(jìn)行分類分級管理。如對純自動化內(nèi)容,主動標(biāo)識為高風(fēng)險信息,并注明其為自動化生產(chǎn),未經(jīng)過人工審核,存在事實不準(zhǔn)確的風(fēng)險;對人機協(xié)作生成內(nèi)容,標(biāo)記為中低風(fēng)險,告知人工參與信息等。

  (三)規(guī)范機器適用邊界

  在當(dāng)前的人機協(xié)作新聞生產(chǎn)中,媒體(人)應(yīng)該有機器參與內(nèi)容生成的邊界意識,在人機協(xié)作生產(chǎn)中協(xié)調(diào)新聞當(dāng)事人、用戶、媒體的權(quán)益。

  基于此,較多的智能化編輯部多將生成式AI限定在非敏感題材新聞的生產(chǎn)中。以專注智能化新聞生產(chǎn)的The Newsroom為例,該平臺上的內(nèi)容主要是對既有報道的加工,為防范風(fēng)險,平臺還根據(jù)內(nèi)容主題對其做風(fēng)險分級管理,對不同風(fēng)險類別做相應(yīng)的人工審查。如將不適合機器內(nèi)容生產(chǎn)的議題視為高風(fēng)險,禁止相關(guān)議題數(shù)據(jù)上傳系統(tǒng)。

  結(jié)語

  生成式AI在新聞生產(chǎn)中的應(yīng)用并不是讓機器替代新聞工作者做出決策,而是由記者定義報道的角度、風(fēng)格、價值導(dǎo)向等,其目的在于提升人機協(xié)作生產(chǎn)的內(nèi)容的質(zhì)量。為此,學(xué)界、業(yè)界需要進(jìn)一步探索更為切實可行的數(shù)字新聞倫理,規(guī)范媒體對技術(shù)的使用,防范新聞算法風(fēng)險。

  【本文為2021年重慶市教委社科規(guī)劃項目“智媒時代重慶政務(wù)傳播的平臺拓展與策略創(chuàng)新”(編號:21SKGH243)階段性成果】

  參考文獻(xiàn)

  ▼

  [1]Gozalo-Brizuela R,Garrido-Merchan E C.ChatGPT is not all you need.A State of the Art Review of large Generative AI models[J].https://doi.org/10.48550/arXiv.2301.04655.

  [2]Marina Adami.Is ChatGPT a threat or an opportunity for journalism?Five AI experts weigh in[EB/OL].(2023-03-23)[2023-04-10].https://reutersinstitute.politics.ox.ac.uk/news/chatgpt-threat-or-opportunity-journalism-five-ai-experts-weigh.

  [3]Nick Diakopoulos.What Could ChatGPT Do for News Production?[EB/OL].(2023-02-10)[2023-04-10].https://generative-ai-newsroom.com/what-could-chatgpt-do-for-news-production-2b2a3b7047d9.

  [4]AIGC已改變新聞業(yè)[EB/OL].微信公眾號“騰訊媒體研究院”,2023-08-28.

  [5]Johannes Gorset.Schibsted experiments with AI,finds 37+ways it can help[EB/OL].(2023-03-27)[2023-05-01].https://www.inma.org/blogs/media-leaders/post.cfm/schibsted-experiments-with-ai-finds-37-ways-it-can-help.

  [6]Zhou J,Ke P,Qiu X,et al.ChatGPT:Potential,prospects,and limitations[J].Frontiers of Information Technology&Electronic Engineering,2023:1-6.

  [7]Paul Farhi.A news site used AI to write articles,It was a journalistic disaster[EB/OL].(2023-01-17)[2023-04-10].https://www.washingtonpost.com/media/2023/01/17/cnet-ai-articles-journalism-corrections/.

  [8]Artificial Intelligence Use Prompts Concerns[EB/OL].(2023-02-15)[2023-05-01].https://www.monmouth.edu/polling-institute/reports/monmouthpoll_us_021523/.

  [9]Jennifer Korn.Vanderbilt University apologizes for using ChatGPT to write mass-shooting email[EB/OL].(2023-02-22)[2023-04-01].https://edition.cnn.com/2023/02/22/tech/vanderbilt-chatgpt-shooting-email/index.html.

  [10]Hannes Cools,Nicholas Diakopolulos.Writing guidelines for the role of AI in your newsroom?Here are some,er,guidelines for that[EB/OL].(2023-07-11)[2023-09-18].https://www.niemanlab.org/2023/07/writing-guidelines-for-the-role-of-ai-in-your-newsroom-here-are-some-er-guidelines-for-that/.

  [11]Scott Lamb.How we’re approaching AI-generated writing on Medium[EB/OL].(2023-01-27)[2023-04-10].https://blog.medium.com/how-were-approaching-ai-generated-writing-on-medium-16ee8cb3bc89.

 ?。ㄗ髡邽樯綎|大學(xué)文化傳播學(xué)院博士研究生)

  【文章刊于《青年記者》2023年第19期】

SAF Coolest v1.3.1.2 設(shè)置面板RGWSX-ARMG-DSZAE-DZW

圖片ALT信息: 極動智能
違禁詞: 一流,領(lǐng)先,獨一無二,王者,龍頭,領(lǐng)導(dǎo)者,極致,

無數(shù)據(jù)提示

Sorry,當(dāng)前欄目正在更新中,敬請期待!

您可以查看其他欄目或返回 首頁

V1.3.1 SVG圖標(biāo)庫請自行添加圖標(biāo),用div包起來,并命名使用