消費來自人工智能的新聞改變了我們的觀點和現實。方法如下
| mtgamer.com

消費來自人工智能的新聞改變了我們的觀點和現實。方法如下


Meta 終止其專業事實核查計劃的決定引發了科技和媒體界的批評浪潮。批評者警告說,放棄專家監督可能會削弱數字信息領域的信任和可靠性,特別是當利潤驅動的平台大多自行監管時。然而,這場爭論在很大程度上忽視了,如今,人工智能大語言模型越來越多地用於編寫新聞摘要、頭條新聞和早在傳統內容審核機制介入之前就引起您注意的內容。問題並不是在缺乏內容審核的情況下錯誤信息或有害主題未被標記的明確案例。討論中缺少的是如何以能夠塑造公眾認知的方式選擇、構建和強調表面上準確的信息。隨著時間的推移,大型語言模型通過生成聊天機器人和虛擬助手向人們呈現的信息,逐漸影響人們形成意見的方式。這些模型現在也被內置到新聞網站、社交媒體平台和搜索服務中,使它們成為獲取信息的主要門戶。研究表明,大型語言模型的作用不僅僅是傳遞信息。他們的回應可以巧妙地突出某些觀點,同時最小化其他觀點,而用戶往往沒有意識到這一點。溝通偏見 我的同事、計算機科學家 Stefan Schmid 和我(一位技術法律和政策學者)在《ACM 通訊》雜誌上即將發表的一篇被接受的論文中表明,大型語言模型表現出溝通偏見。我們發現,他們可能傾向於強調特定的觀點,而忽略或削弱其他觀點。無論所提供的信息是真是假,這種偏見都會影響用戶的想法或感受。過去幾年的實證研究已經產生了基準數據集,將模型輸出與選舉前和選舉期間的政黨立場相關聯。它們揭示了當前大型語言模型處理公共內容的方式的變化。根據用於提示大型語言模型的人物角色或上下文,當前的模型微妙地傾向於特定立場——即使事實準確性保持不變。這些轉變指向一種新興形式的基於角色的可操縱性——模型傾向於將其基調和重點與用戶的感知期望保持一致。例如,當一個用戶將自己描述為環保活動家,而另一個用戶將自己描述為企業主時,模型可能會通過強調他們各自不同但事實上準確的擔憂來回答有關新氣候法的同一問題。例如,批評可能是該法律在促進環境效益方面做得不夠,而且該法律強加了監管負擔和合規成本。


已发布: 2025-12-23 17:00:00

来源: www.fastcompany.com