放棄人工智能是行不通的

隨著人工智能進入日常生活,一些人出於各種充分的理由築起圍牆將其拒之門外。人們對這項技術感到擔憂,因為它需要大量的能量來訓練,並會導致不受控制的碳排放。存在很多隱私問題:一度,一些 ChatGPT 對話在 Google 上公開,幾個月來,由於與《紐約時報》提起訴訟,OpenAI 被要求保留用戶的聊天記錄。鑑於對這些數據進行分類和標記的任務已被外包且價值被低估,生產過程無疑是令人不快的。我們不要忘記,人工智能也存在錯誤的風險,包括所有那些隨機的抄襲行為和幻覺引用。依賴這些平台似乎正在逐漸走向 NPC 地位 – 至少可以說,這是一種不好的氛圍。然後是我們的自我價值問題。在未經我們同意的情況下,互聯網被開採,我們的集體在線生活變成了巨型機器的原始數據。然後,這樣做的公司告訴我們為他們的結果付費:一個會說話的信息銀行,由積累的人類知識驅動,但缺乏人類特異性。社交媒體時代扭曲了我們的自我認知,而現在人工智能時代可能會將其吞噬。阿曼達·漢娜·麥克利爾正在製作一部關於年輕人避開數字平台的紀錄片。她說,她對這項技術最大的恐懼是谷歌地圖等應用程序的認知傾銷,她認為這會破壞我們的地方感。 “人們不知道如何自己去上班,”她說。 “這是被擱置並最終丟失的知識。”通過屈服於更大的語言模型,我們放棄了更多的智力。避免接觸人工智能可能是認知自我保護的必要形式。事實上,這些模型可能會迅速禁用我們的神經元(或者至少是我們目前使用它們的方式)。麻省理工學院最近的一項研究發現,法學碩士技術的大量使用者“在神經、語言和行為層面上始終表現不佳”。人們採取措施避免感染。啞鈴手機的回歸、學校勒德分子俱樂部的複興,甚至文本編輯的複興。一位朋友報告說,對人工智能的反感現在在約會應用程序個人資料中很常見,不使用該技術是一個“綠旗”。一小部分人表示應該完全避免這項技術。但當人們忽視人工智能時,我們就有可能解開科技行業對我們思維方式影響的巨大問題,甚至包括消費者選擇的問題。公司甚至針對討厭技術的人創建了一個利基市場。甚至不太有效的可能是文化符號或戲劇性的(也許是無意的)關於個人純潔性的人工智能聲明。我們知道僅禁慾方法的虛假承諾。漢娜-麥克利爾告訴我,優先退出和削減個人消費確實有價值,但不足以帶來結構性變化。當然,擔心新技術會讓我們變得愚蠢並不新鮮。類似的反對意見已經出現並持續存在於社交媒體、電視、廣播甚至書面形式中。蘇格拉底擔心書面傳統會損害我們的智力和記憶:“對由不屬於自身的外部人物創造的書寫的依賴,將阻止他們使用自己的記憶。你發明了一種長生不老藥,不是記憶,而是提醒;你為你的門徒提供了智慧的外表,而不是真正的智慧,”柏拉圖記錄了他導師的論點。但最大的問題是,至少按照目前的速度,大多數人無法放棄人工智能。對於許多人來說,使用或不使用技術的決定將由他們的老闆、他們購買產品的公司或為他們提供基本服務的平台做出。下線已經是一種奢侈了。與其他有害事物一樣,消費者會意識到 LLM 替代品的缺點,但仍會使用它們。有些人會使用它們,因為它們實際上非常有用,甚至很有趣。我希望我為這些工具找到的應用程序能夠充分利用這項技術的優點,同時避免一些風險:我嘗試將該服務用作數字窺探者,部署 LLM 來自動標記我感興趣的更新和內容,然後再檢查它自己找到的所有內容。一些人認為,人工智能最終將使我們擺脫屏幕這一另一種數字毒素。商業模式與威脅之間不匹配。用於對抗人工智能最有害影響的消費者選擇模型與商業模式和威脅不匹配。許多人工智能集成不會立即被普通或普通用戶理解:法學碩士公司對企業和企業對企業領域非常感興趣,甚至將他們的工具出售給政府。已經有一場運動讓人工智能不僅僅是一種消費產品,而是內置到我們的數字和物理基礎設施中。這項技術在應用程序形式中最為明顯,但它已經內置到我們的搜索引擎中:谷歌曾經是鏈接索引器,現在已經成為用人工智能回答問題的工具。與此同時,OpenAI 基於其聊天機器人創建了一個搜索引擎。蘋果希望將人工智能直接集成到我們的手機中,使大型語言模型成為我們操作系統的結果。阻止人工智能濫用的運動不能僅僅依靠人們簡單地決定不使用該技術的希望而生存。避免吃肉、避免富含衝突礦物質的食物以及關燈以節省能源確實有所幫助,但還不夠。人工智能的禁慾主義本身並不適合當下。無論如何,這樣做的原因是安息日的邏輯:我們需要記住佔據我們自己的大腦並生活在其中意味著什麼。
已发布: 2025-10-27 10:00:00










