本文來自微信公眾號:德外5號(ID:dewaiwuhao),作者:呂菁,原文標題:《<衛報>對AIGC的態度:我們所做的不能合成復制 | 德外視窗》,頭圖來自:視覺中國
(資料圖)
在面對生成式AI帶來的變革面前,《衛報》管理高層對生成式AI的態度和原則值得參考。
“在理想狀態下,它真的令人眼花繚亂。但它也有一些缺點。”《衛報》編輯創新主管克里斯·莫蘭(Chris Moran)用一句話簡潔地總結了大多數記者、編輯和新聞主管對ChatGPT等新技術的看法。這些缺點可能會對新聞業帶來嚴重的威脅。
但同時,莫蘭也認為生成式AI的應用實踐讓他“對新聞給世界帶來的價值感到非常樂觀”。因為通過研究生成式AI的作用機制,會進一步證實新聞工作的重要性,它不能被簡單的合成復制所取代。
制造幻象:“不能忽視AI工具會編造事實”
ChatGPT 以及其他生成式AI工具會通過編造信息,或為了總結內容而引入原文本中沒有的“事實”來制造“幻象”。北歐媒體公司Schibsted已經在實際使用中證明了這一點。生成式AI在撰寫文章摘要的過程中會編造原文中沒有的信息,這樣做的概率每十次中就有一次。
同樣,衛報也遭遇過類似事件。有研究人員使用ChatGPT開展研究時,ChatGPT引用了《衛報》指定記者多年前撰寫的一篇文章。然而《衛報》工作人員通過檔案檢索,甚至查閱了已刪除文檔,都找不到這篇文章存在過痕跡。因為,這篇文章根本就不存在,它只是AI生造的“幻象”而已。
莫蘭不否認生成式AI技術非常令人興奮,但作為記者“你真的不能忽視它會編造內容的事實。”這類型的幻象問題到底會隨著技術的發展得到解決,還是會成為生成式AI應用過程中不可避免的一部分,人們對此爭論不休。對于許多新聞媒體來說,這個問題不克服會使生成式AI難以成為可信賴的信息來源。
莫蘭指出,谷歌在測試中,預計將把生成式AI巴德(Bard)整合到搜索當中,同時,谷歌對其提供的搜索結果也發出了“巴德可能會顯示不準確或冒犯性的信息,這些信息不代表谷歌的觀點。”的警告。
莫蘭對于這種做法持質疑態度,“我認為,作為一家高質量的新聞機構,必須冷靜地思考一些根本性的問題,關于新聞機構是否可以在現有條件下部署運用生成式AI。”
集體談判:重估媒體的價值
新聞集團首席執行官羅伯特·湯姆森(Robert Thomson)認為,媒體行業的“集體知識產權正受到威脅”,新聞媒體應該“大聲主張賠償”。為解決這一爭端,全球最大的科技公司正在與主要媒體進行談判,希望達成具有里程碑意義的交易。
關于威脅的由來,莫蘭解釋道:“當微軟、谷歌和其他公司將AI工具與搜索引擎相嫁接時,人們會期待它能搜索出清晰而準確的答案,而這可能會導致生成式AI編造虛假新聞。”AI工具甚至還可能將這些憑空產生的新聞扣上《衛報》《泰晤士報》或是《紐約時報》的“帽子”。這勢必對信息生態系統的健康產生負面影響,也會損害新聞機構的品牌信譽。
不僅如此,生成式AI還將新聞內容剝離新聞網站直接提供給用戶,致使新聞行業的商業模式遭到破壞。像這樣白白為他人做嫁衣的事,新聞行業在接入互聯網的早期已經遭遇過一次了。當時新聞機構提供的免費新聞被無償引入搜索引擎或社交媒體,而谷歌和Facebook等大型科技公司卻憑借這些信息發展起數十億美元的廣告平臺。
此外,《衛報》已經運營了一個API(Application Programming Interface,應用程序編程接口)好幾年了,人們可以通過該API付費獲取其內容流,但從來沒有AI公司聯系要求使用它。莫蘭說,《衛報》正在“思考我們的內容在這種環境中的價值”,并補充道“可以肯定的是,新聞媒體在這些常見爬蟲數據集中起到了非常重要的作用”。
英國《金融時報》6月報道稱,包括新聞集團(News Corp)、阿克塞爾·斯普林格(Axel Springer)、《紐約時報》(New York Times)和《衛報》(The Guardian)在內的新聞媒體正在與科技公司討論在聊天機器人中使用其內容的版權和付費問題。談判的議題不止局限在利益分配上,還包括新聞機構如何與生成式AI公司合作的具體事宜。
“版權對所有媒體來說都是一個至關重要的問題,”英國《金融時報》表示也在就此事進行談判。“作為一家訂閱企業,我們需要保護我們的新聞和商業模式的價值。像我們一樣,與相關公司進行建設性對話是實現這一目標的最佳方式。”
《衛報》的人工智能使用原則
為了應對AI帶來的風險和機遇,《衛報》成立了一個 Guardian AI 工作組,在6月發布了三條AI原則,闡明《衛報》將如何使用或不使用生成式AI工具。
1.為了讀者的利益
由于生成式AI目前并不可靠,所以《衛報》考慮僅在有助于原創新聞的創建和分發的情況下,在編輯中使用生成式AI工具。同時還要謹防嵌入在AI工具的底層調校中的偏見。在以任何方式使用生成式AI之前,《衛報》記者必須明確這樣做對讀者有益,并獲得高級編輯的認可,并將使用痕跡向讀者公開。
2.為了我們的使命、我們的員工和更廣泛的組織的利益
衛報將致力于讓生成式AI提高工作效率,例如幫助記者訪問大型數據集,為同事們提供修正建議,為營銷活動提供創意,或減少過度耗時的官僚主義業務流程。所有對AI工具的使用都必須以促進《衛報》使命達成為目標:“嚴肅的報道需要花費時間和精力,仔細揭露事實,讓有權勢的人承擔責任,對想法和論點提出質疑”。
3.尊重內容的創作者和版權擁有者
許多生成式AI模型都是不透明的系統,這些系統是在未經創建者知情或同意的情況下收集材料并進行訓練的。《衛報》考慮使用工具和模型的指導原則是它們在多大程度上考慮了權限、透明度和公平獎勵等關鍵問題。即便以任何形式使用生成式AI,也不代表《衛報》要放棄追溯版權的訴求。
盡管制定了這些原則,但《衛報》尚未以任何方式將生成式AI工具添加到新聞采編過程中。對此,莫蘭的解釋是,《衛報》不希望只是為了追求新鮮感而使用生成式AI。
目前新聞機構對生成式AI能否提升效率尚存在爭議。因為它無法在沒有人類參與的情況下實現自動化,并且其內容的真實與準確性還需要人工核查,那么它的實際生產效率就會下降。
更為重要的一點是,為抵御合成內容的巨浪,避免被其吞噬,我們最不應該放棄的就是作為訓練有素的記者和編輯應有的專業性,因為我們是人類。
所以,衛報正在尋找更多的案例,明確哪些是AI工具能做而我們不能做的,以及AI工具能為解放專業人士的創造性生產力做好哪些基礎性工作等等。
衛報工作人員沒有部署AI工具的壓力
關于《衛報》何時會在新聞編輯部中部署AI工具,莫蘭表示,在新聞生產環境中部署一種模型,尤其是在IP會話的背景下,這是一個重大決定。由于現在缺乏具有充分說服力和變革性的有效案例,所以現在并不是部署AI工具的好時機。一些本質性的問題需要找到答案,比如AI工具是如何工作的?對讀者有好處嗎?它參與的痕跡能被分離出來嗎?無論付出怎樣的代價都值得嗎?
當員工準備在具體工作中使用生成式AI工具之前,首要考慮的是教會他們鑒別使用AI工具的潛在風險,例如了解點擊“使其更簡潔”按鈕可能會導致的后果。莫蘭透露,《衛報》已經向英國、美國和澳大利亞新聞編輯部的270人進行了演示,他們最終將制作一些類似員工社交媒體指南的內容,規范員工在社交媒體的行為。
“就常規工作而言,接受AI工具的應用教育比做成一件具體的事更重要。”莫蘭說。新聞機構的AI工具應用抉擇需要對記者、設計師和攝影師們負責,因為他們的工作很可能會受到生成式AI的影響。
莫蘭認為,AI工具的應用也許會提高工作效率,但這樣做還為時尚早,因為它還不值得信賴。所以應該更審慎地作出決定。對于AI工具的應用將會如何影響新聞行業的發展,現在還沒有定論。誰也難以保證它會讓一切變得更好,抑或演變為一場災難。
“可以肯定的是,隨著技術的進步發展,未來的某一天,它將徹底地改變我們的工作。”莫蘭說。
本文來自微信公眾號:德外5號(ID:dewaiwuhao),作者:呂菁
關鍵詞: