展會(huì)信息港展會(huì)大全

面對(duì)ChatGPT,新聞?dòng)浾卟粦?yīng)該有身份危機(jī)
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-03-01 13:27:03   瀏覽:4853次  

導(dǎo)讀:作為一個(gè)新聞?dòng)浾,你怎么看ChatGPT在新聞?lì)I(lǐng)域的應(yīng)用?ChatGPT會(huì)成為新聞業(yè)的救世主,還是未來新聞業(yè)的敵人?人工智能會(huì)成就新聞業(yè),還是會(huì)摧毀新聞業(yè)?面對(duì)人工智能發(fā)展的新一波浪潮,這是新聞行業(yè)中許多人會(huì)問的一個(gè)問題。 事實(shí)上,我認(rèn)為這是個(gè)錯(cuò)誤的問題...

面對(duì)ChatGPT,新聞?dòng)浾卟粦?yīng)該有身份危機(jī)

作為一個(gè)新聞?dòng)浾,你怎么看ChatGPT在新聞?lì)I(lǐng)域的應(yīng)用?ChatGPT會(huì)成為新聞業(yè)的救世主,還是未來新聞業(yè)的敵人?人工智能會(huì)成就新聞業(yè),還是會(huì)摧毀新聞業(yè)?面對(duì)人工智能發(fā)展的新一波浪潮,這是新聞行業(yè)中許多人會(huì)問的一個(gè)問題。

事實(shí)上,我認(rèn)為這是個(gè)錯(cuò)誤的問題。目前,我所在的聯(lián)合機(jī)器人公司(United Robots)為新聞編輯室提供軟件編寫的自動(dòng)化文章已經(jīng)有7年之久,在ChatGPT問世之前,已經(jīng)有很多關(guān)于機(jī)器人是否會(huì)取代新聞?dòng)浾叩挠懻。許多新聞?dòng)浾邠?dān)心機(jī)器人搶走他們的工作,擔(dān)心機(jī)器人編寫新聞稿件不正確,甚至還擔(dān)心機(jī)器人會(huì)生產(chǎn)大量不值得信任的內(nèi)容等等,不一而足。但事實(shí)證明,現(xiàn)實(shí)永遠(yuǎn)不像人們所擔(dān)心的那樣非黑即白。

當(dāng)下,我們面對(duì)的是人工智能的更新?lián)Q代,即生成式人工智能(generative AI),比如,目前新崛起的ChatGPT。因此,我們與其關(guān)注“人工智能到底是救世主,還是敵人”,不妨后退一步,專注于這樣一個(gè)問題:“生成性人工智能能為新聞業(yè)做些什么,以及生成性人工智能不能做什么?”最重要的是,作為新聞?dòng)浾,我們?yīng)該在這個(gè)過程中扮演什么角色?

我們?cè)谟懻撊斯ぶ悄軙r(shí),到底是在討論什么?

當(dāng)下,幾乎每個(gè)人都在談?wù)撊斯ぶ悄,但我們(cè)谡務(wù)撊斯ぶ悄軙r(shí),我們到底在討論什么?正如我們?nèi)粘I钪衅渌恍┝餍性~匯經(jīng)常遇到問題時(shí)那樣,人工智能的任何原始定義都有可能被逐漸取代,更多的情況是人們從自身所處的境遇來解釋它的含義。在此,我主要想闡明關(guān)于生成式文本人工智能的兩種基本類型:

數(shù)據(jù)生成文本模型(data-to-text models),這種文本生成模型一般是基于體育比賽的結(jié)果,或者是公司的財(cái)務(wù)數(shù)據(jù)等結(jié)構(gòu)化數(shù)據(jù)集來創(chuàng)建和生成文本。這種類型的技術(shù)是最早一批文本生成機(jī)器人的基礎(chǔ),這種模型也是Wordsmith和Arria等人工智能公司推出的自助服務(wù)工具模型。這種文本生成模型的關(guān)鍵特征是它是基于數(shù)據(jù)的。換句話說,這種模型主要包括來自數(shù)據(jù)的事實(shí),而不包括文本中的其他“事實(shí)”,因而這種模型基本上保證了事實(shí)的正確性。

文本生成文本模型(text-to-text models),也叫大型語言模型(Large Language Models),這種模型使用深度學(xué)習(xí)技術(shù)在現(xiàn)有文本的基礎(chǔ)上創(chuàng)建文本,代表了人工智能的一大進(jìn)步,特別是朝著“類人”通用人工智能的目標(biāo)邁進(jìn)。比如,現(xiàn)在大家強(qiáng)烈關(guān)注的GPT-3,就是從互聯(lián)網(wǎng)中提取1750億個(gè)人類語言參數(shù)來生成文本。雖然這種模型可以創(chuàng)建良好的語言模式,但它的運(yùn)作基礎(chǔ)是提示性語言(prompts),而不是數(shù)據(jù)(data)。因此,這種模型不能假設(shè)事實(shí)正確,這意味著雖然大型語言模型能夠引用所有可訪問的信息,并將其(或多或少地)包含在文本中,但它并不能進(jìn)行事實(shí)核查。

2022年11月30日,ChatGPT的免費(fèi)測(cè)試版發(fā)布。在圣誕節(jié)期間,一些媒體分析師和編輯嘗試?yán)迷摴ぞ咦珜懥擞嘘P(guān)新聞?dòng)浾咦陨,以及他們(cè)谛侣剺I(yè)中所起作用的文章。從生產(chǎn)的文本來看,ChatGPT所產(chǎn)生的大部分內(nèi)容,雖然語言正確,但說的全是不言自明的道理,到處充斥著媒體行業(yè)的陳詞濫調(diào)?紤]到大型語言模型的工作原理,這一點(diǎn)其實(shí)并不讓人感到奇怪。

有關(guān)ChatGPT的基本知識(shí)

在我們討論新聞組織如何面對(duì)ChatGPT之前,首先讓我們討論一下有關(guān)這類人工智能的基本知識(shí)。ChatGPT主要是基于生成式人工智能,特別是語言生成。生成式人工智能也可以應(yīng)用于其他智能工具中,包括生成圖像(比如,OpenAI開發(fā)的DALL-E圖像自動(dòng)生成系統(tǒng))、代碼、視頻、閱讀建議等。

免費(fèi)使用的ChatGPT可能不會(huì)持續(xù)多長(zhǎng)時(shí)間。上次筆者在登錄使用時(shí),OpenAI提供的測(cè)試版訪問已經(jīng)顯示滿負(fù)荷運(yùn)行,所以ChatGPT不太可能無限期地保持免費(fèi)。因此,對(duì)任何想要利用這種語言模型去實(shí)現(xiàn)媒體編輯和商業(yè)目標(biāo)的公司而言,他們都應(yīng)該將API訪問和使用成本考慮在內(nèi)。

ChatGPT不是第一個(gè),也不是唯一一種生成式人工智能。ChatGPT是基于OpenAI公司的大型語言模型GPT-3.5開發(fā)的聊天機(jī)器人,并對(duì)人機(jī)對(duì)話進(jìn)行了優(yōu)化,事實(shí)上,該模型已經(jīng)使用了很多年。早在2020年秋天,它的早期版本GPT-3就被《衛(wèi)報(bào)》用于生成一篇機(jī)器人編寫的專欄文章,當(dāng)時(shí)即引起了廣泛關(guān)注!缎l(wèi)報(bào)》還就整個(gè)編寫過程進(jìn)行了比較有趣的報(bào)道,同時(shí)也指出在這篇專欄文章發(fā)表之前,進(jìn)行了相當(dāng)多的刪減和編輯。需要指出的是,OpenAI公司只是眾多生成式人工智能工具的供應(yīng)商之一。

新聞組織掌握著主動(dòng)權(quán)

盡管ChatGPT是一個(gè)全新的、功能強(qiáng)大的工具,但它仍然是一個(gè)工具。ChatGPT不會(huì)改變新聞業(yè)的基本運(yùn)行原則和指導(dǎo)原則,去現(xiàn)場(chǎng)采寫新聞和調(diào)查新聞,是一項(xiàng)基本的人類活動(dòng),也是新聞?dòng)浾叩幕炯寄堋?/p>

當(dāng)然,這種類型的人工智能也可以用于不好的、邪惡的目的。就我們從事的新聞業(yè)而言,首先我們應(yīng)該搞清楚的是,新工具如何能幫助我們做得更好,同時(shí)我們也要確定可能涉及的風(fēng)險(xiǎn)。

2023年1月中旬,F(xiàn)uturism報(bào)道了一則新聞,比較清楚地解釋了這一問題。目前,商業(yè)媒體網(wǎng)站CNET正在使用人工智能撰寫簡(jiǎn)短的金融報(bào)道,但該網(wǎng)站沒有公開這些報(bào)道是由人工智能軟件編寫的。這個(gè)故事讓我們看到了媒體組織所擁有的選擇權(quán)利,不管他們使用的是哪種類型的人工智能。

透明性。作為從事人工智能開發(fā)的人員,我們總是建議讓人工智能撰寫的報(bào)道有一個(gè)清晰的署名,明確表明這篇報(bào)道是由機(jī)器人撰寫的,而不是由新聞?dòng)浾咦珜懙。透明性?duì)于新聞組織至關(guān)重要,也是贏得公眾信任的關(guān)鍵。比如,上文我們提到的CNET,該新聞網(wǎng)站在利用人工智能生產(chǎn)內(nèi)容時(shí)似乎缺乏透明度。據(jù)另一科技新聞網(wǎng)站Verge分析,CNET新東家Red Ventures的商業(yè)模式是造成這一結(jié)果的原因,該公司旨在生產(chǎn)能夠獲得高搜索排名的內(nèi)容,然后將流量貨幣化。顯然該公司的商業(yè)模式并不是真正為人們生產(chǎn)新聞。

準(zhǔn)確性。毫無疑問,新聞媒體發(fā)布的任何消息和內(nèi)容都需要準(zhǔn)確可靠,不管是由經(jīng)驗(yàn)豐富的記者撰寫的深度調(diào)查性報(bào)道,還是關(guān)于當(dāng)?shù)刈闱虮荣惢蜇?cái)經(jīng)新聞的小型報(bào)道。人工智能工具總是需要記者來掌控。如果新聞組織打算自動(dòng)發(fā)布人工智能生成的文本,新聞組織就不能使用GPT-3/ChatGPT等生成式人工智能工具生產(chǎn)的內(nèi)容,因?yàn)樯墒饺斯ぶ悄懿荒苓M(jìn)行事實(shí)核查,這種模型引用的是提示事實(shí),而不是數(shù)據(jù)事實(shí),這一點(diǎn)我在上文已經(jīng)有所論述。

信任。信任的問題實(shí)際上涉及上述兩方面。對(duì)新聞業(yè)而言,信任是媒體組織的流通貨幣,信任可以為媒體組織帶來源源不絕的收入。因此,任何新技術(shù)工具的部署應(yīng)用,都不能給人們留下質(zhì)疑新聞媒體真實(shí)性、完整性的空間。盡管這么講,但我們發(fā)現(xiàn)讀者有時(shí)也樂意接受機(jī)器人撰寫的新聞報(bào)道,當(dāng)然這是有前提條件的:這些信息內(nèi)容對(duì)他們有價(jià)值,而且很清楚地表明是由機(jī)器人撰寫的。

如果有人一直在追問“生成式人工智能對(duì)我們的業(yè)務(wù)意味著什么”,我就想反問:“你想讓它意味著什么?是你控制人工智能,而不是人工智能控制你。”

邁向未來

就我個(gè)人而言,我會(huì)建議媒體組織繼續(xù)專注于提供可靠、有價(jià)值的新聞,并在生成式人工智能工具幫助下完成這一使命,讓這一工具能夠在它發(fā)光發(fā)熱的地方發(fā)揚(yáng)光大。正如倫敦政治經(jīng)濟(jì)學(xué)院“新聞人工智能”項(xiàng)目主管貝克特所指,人工智能工具并不能提出批判性問題,也不能告訴我們調(diào)查新聞報(bào)道的下一步應(yīng)該怎么做,但它們可以為新聞?dòng)浾叩墓ぷ魈峁┲С郑?ldquo;我認(rèn)為更有趣的是,它對(duì)一些新聞?dòng)浾咛岢隽烁叩囊,告訴他們,你必須比機(jī)器做得更好,你不能再去報(bào)道那種按部就班、公式化的新聞了,因?yàn)槿斯ぶ悄苘浖涂梢宰龅竭@一點(diǎn)。”

在探索生成式人工智能如何支持新聞業(yè)的道路上,我們才剛剛開始。嘗試ChatGPT很容易,但要在媒體業(yè)務(wù)中將大型語言模型轉(zhuǎn)化為強(qiáng)大而有用的流程卻非常困難。對(duì)于媒體組織至關(guān)重要的一點(diǎn)是,保持對(duì)該技術(shù)使用的敏銳關(guān)注,而不被其固有模式所左右。

好新聞是關(guān)于人的新聞,即那些生產(chǎn)它的人和那些消費(fèi)它的人。好新聞能夠體現(xiàn)優(yōu)秀記者的獨(dú)特工作和聲音,這是ChatGPT無法取代的。好新聞能夠滿足讀者的需求和期望,并且以自己獨(dú)特的生產(chǎn)方式區(qū)別于其他出版物,大型語言模型無法計(jì)算出新聞組織的獨(dú)特產(chǎn)品應(yīng)該是什么。人工智能可以幫助新聞組織改善工作流程,但它不能獨(dú)自生產(chǎn)新聞。因此,新聞?dòng)浾卟粦?yīng)該有身份危機(jī)。

(本文原文為“ChatGPT in journalism: Let’s not have an identity crisis”,編譯自:https://whatsnewinpublishing.com/chatgpt-in-journalism-lets-not-have-an-identity-crisis/。作者西莉亞坎貝爾為聯(lián)合機(jī)器人公司首席營銷官;編譯者張建中為陜西師范大學(xué)新聞與傳播學(xué)院教授)

【文章刊于《青年記者》2023年第5期】


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港