AI“操縱引擎”在這裡嗎?聊天機器人如何準備銷售廣告

十八個月前,人工智能可能會走一條與社交媒體不同的道路,這似乎是合理的。當時,人工智能的發展並沒有在少數大型科技公司的統治下得到鞏固。它也沒有利用消費者的注意力、監視用戶和投放廣告。不幸的是,人工智能行業現在正在效仿社交媒體,並將目光投向利用消費者的注意力來貨幣化。當 OpenAI 於 2024 年末推出 ChatGPT 搜索功能並於 2025 年 10 月推出其瀏覽器 ChatGPT Atlas 時,它開啟了一場捕獲在線行為數據以支持廣告的競賽。這是 OpenAI 長達一年的轉變的一部分,其首席執行官 Sam Altman 曾稱廣告和人工智能的結合“令人不安”,現在承諾可以在人工智能應用程序中部署廣告,同時保持信任。 OpenAI 用戶認為他們在 ChatGPT 回復中看到付費展示位置的猜測表明他們並不相信。 2024 年,人工智能搜索公司 Perplexity 開始在其產品中嘗試廣告。幾個月後,微軟在其 Copilot AI 中引入了廣告。谷歌的人工智能搜索模式現在越來越多地以廣告為特色,亞馬遜的 Rufus 聊天機器人也是如此。作為安全專家和數據科學家,我們認為這些例子預示著未來人工智能公司將通過操縱用戶行為來為廣告商和投資者謀取利益。這也提醒人們,將人工智能發展方向從私人剝削轉向公共利益的時間很快就過去了。 ChatGPT 搜索及其 Atlas 瀏覽器的功能並不是什麼新鮮事。 Meta、商業人工智能競爭對手 Perplexity,甚至 ChatGPT 本身多年來都擁有類似的人工智能搜索功能,谷歌和微軟都通過將人工智能與瀏覽器集成來擊敗 OpenAI。但 OpenAI 的業務定位標誌著轉變。我們認為 ChatGPT Search 和 Atlas 的公告令人擔憂,因為實際上只有一種方式可以通過搜索賺錢:谷歌無情地開創的廣告模式。廣告模式穀歌在美國聯邦法院被裁定為壟斷者,自2001年以來已經賺取了超過1.6萬億美元的廣告收入。你可能會認為谷歌是一家網絡搜索公司,或者一家流媒體視頻公司(YouTube),或者一家電子郵件公司(Gmail),或者一家手機公司(Android、Pixel),甚至可能是一家人工智能公司(Gemini)。但這些產品是谷歌盈利的附屬產品。廣告業務通常佔其總收入的80%至90%。其他一切都是為了收集用戶數據並將用戶的注意力引導到其廣告收入流上。在佔據壟斷地位二十年之後,谷歌的搜索產品更適合公司的需求,而不是用戶的需求。幾十年前,當谷歌搜索首次出現時,它具有在仍處於新生階段的網絡中即時查找有用信息的能力,這一點具有啟發性。到 2025 年,其搜索結果頁面將主要由低質量且通常由人工智能生成的內容、垃圾郵件網站(這些網站的存在純粹是為了增加亞馬遜銷售流量(一種稱為聯屬營銷的策略)以及付費廣告投放,這些內容有時與有機結果無法區分。許多廣告商和觀察家似乎認為人工智能廣告是廣告業務的未來。大型科技公司的人工智能廣告計劃正在震撼整個行業。人工智能搜索和人工智能模型中具有高度說服力的付費廣告可能看起來與傳統的網絡搜索有很大不同。它有可能以更微妙的方式影響你的思維、消費模式,甚至個人信仰。由於人工智能可以參與主動對話,解決您的具體問題、擔憂和想法,而不僅僅是過濾靜態內容,因此其影響力的潛力要大得多。這就像閱讀教科書和與作者交談之間的區別。想像一下,您正在與人工智能代理討論即將到來的假期。它推薦特定的航空公司或連鎖酒店是因為它們確實最適合您,還是每次提及該公司都會獲得回扣?如果您詢問一個政治問題,模型的答案是否會基於哪個政黨向公司支付了費用,或者基於模型公司所有者的偏見?越來越多的證據表明,人工智能模型在說服用戶做事方面至少與人類一樣有效。 2023 年 12 月對 121 項隨機試驗進行的薈萃分析表明,人工智能模型在改變人們的看法、態度和行為方面與人類一樣出色。最近對八項研究進行的薈萃分析也得出類似結論,“(大型語言模型)和人類之間的說服力表現總體上沒有顯著差異。”這種影響可能遠遠超出了你購買什麼產品或為誰投票的範圍。與搜索引擎優化領域一樣,人類執行人工智能模型的動機可能會影響人們彼此寫作和交流的方式。我們在網上表達自己的方式可能會越來越多地被引導以贏得人工智能的注意,並在它們返回給用戶的響應中贏得位置。不同的前進道路 其中大部分情況令人沮喪,但可以採取很多措施來改變這種情況。首先,重要的是要認識到今天的人工智能從根本上來說是不值得信任的,原因與搜索引擎和社交媒體平台相同。問題不在於技術本身,而在於技術本身。快速查找信息以及與朋友和家人溝通的方式可能是很棒的功能。問題在於擁有這些平台以及運營這些平台的公司的優先事項。認識到您無法控制向人工智能提供哪些數據、與誰共享數據以及如何使用數據。當您將設備和服務連接到人工智能平台、向他們提問或考慮購買或執行他們建議的事情時,請務必記住這一點。人們還可以向政府提出很多要求,以限制企業對人工智能的有害使用。在美國,國會可以像歐盟一樣賦予消費者控制自己個人數據的權利。它還可以像其他所有發達國家一樣,建立一個數據保護執法機構。世界各國政府可以投資公共人工智能——由公共機構構建的模型,普遍提供公共利益並在公共監督下透明地提供。他們還可以限制企業如何串通利用人工智能來剝削人們,例如,禁止香煙等危險產品的廣告,並要求披露付費代言。每家科技公司都力求將自己與競爭對手區分開來,尤其是在這個時代,昨天的突破性人工智能迅速成為一種可以在任何孩子的手機上運行的商品。一個區別在於構建值得信賴的服務。 OpenAI 和 Anthropic 等公司能否在 ChatGPT、Plus、Pro 和 Claude Pro 高級版等訂閱 AI 服務的支持下維持盈利業務還有待觀察。如果他們要繼續說服消費者和企業為這些優質服務付費,他們將需要建立信任。這需要在透明度、隱私、可靠性和安全性方面向消費者做出真正的承諾,並始終如一地、可驗證地予以遵循。儘管沒有人知道人工智能未來的商業模式會是什麼,但我們可以肯定,消費者不希望被人工智能秘密或以其他方式利用。布魯斯·施奈爾是哈佛大學肯尼迪學院公共政策的兼職講師。內森·桑德斯 (Nathan Sanders) 是哈佛大學伯克曼·克萊因互聯網與社會中心的附屬機構。本文根據知識共享許可從 The Conversation 重新發布。閱讀原文。
已发布: 2026-01-20 20:43:00










