你的人工智能使用政策正在解決錯誤的問題

當一家擁有數万名軟件工程師的公司發現新的人工智能工具的採用率遠遠低於 50% 時,他們想知道原因。事實證明,問題並不在於技術本身。阻礙該公司發展的是一種將人工智能的使用視為作弊的心態。使用該工具的人被認為不如同事熟練,即使他們的工作成果相同。毫不奇怪,大多數工程師選擇不拿自己的聲譽冒險,繼續以傳統方式工作。這種弄巧成拙的態度並不局限於一家公司——它們在整個商界都很普遍。組織之所以受到阻礙,是因為他們正在將人工智能的負面想法從有意義的環境引入到無意義的企業環境中。其結果是恥辱、無益的政策以及對商業中真正重要的事情的根本誤解的有毒組合。前進的道路包括拋開這些混亂並接受一個更簡單的原則:人工智能應該像任何其他強大的商業工具一樣對待。本文分享了我在過去六個月中在修改自己公司的人工智能使用政策時所學到的知識,借鑒了我的內部工作組(Paul Scade、Pranay Sanklecha 和 Rian Hoque)的研究和見解。 Faisal Hoque 的書籍、播客和他的公司為領導者提供了協調目標、人員、流程和技術的框架和平台,將顛覆轉化為有意義、持久的進步。了解更多令人困惑的背景在教育背景下,對生成式人工智能持懷疑態度是完全正確的。學校和大學評估的存在有一個特定的目的:證明學生已經獲得了他們正在學習的技能和知識。將提示輸入 ChatGPT,然後提交它生成的論文,就破壞了撰寫論文的初衷。當談到藝術作品時,比如小說或繪畫作品,關於人工智能生成的作品是否能夠擁有創造性的真實性和藝術價值,存在著合理的哲學辯論。在使用人工智能工具提供幫助時,界限在哪裡還存在一些棘手的問題。但諸如此類的問題幾乎與業務運營完全無關。在商業中,成功是通過結果來衡量的,並且僅以結果來衡量。您的營銷文案是否能說服客戶購買?是還是不是?您的報告是否為利益相關者澄清了複雜的問題?您的演示是否說服董事會批准您的提案?在這些情況下,唯一重要的指標是準確性、連貫性和有效性,而不是內容的起源故事。當我們將管理人工智能在其他領域的合法使用的原則引入到我們對其在商業中的使用的討論中時,我們就削弱了我們充分利用這項強大技術的能力。 披露分散注意力 關於人工智能的公開討論通常集中在允許生成式人工智能輸出進入公共空間所帶來的危險上。從死亡的互聯網理論到關於在社交媒體上標記人工智能輸出是否應該成為法律要求的爭論,政策制定者和評論員正確地擔心惡意人工智能的使用滲透和破壞公共話語。諸如此類的擔憂使得有關人工智能使用披露的規則成為許多企業人工智能使用政策的核心。但這裡有一個問題。雖然當人工智能代理圍繞社會和政治問題展開辯論時,這些討論和擔憂是完全合理的,但將這些懷疑引入商業環境可能會造成損害。研究一致表明,公開的人工智能使用會引發公司內部的負面偏見,即使這種使用是明確鼓勵的,並且輸出質量與人類創建的內容相同。本文開頭提到的研究發現,內部審核人員在被告知在生產中使用人工智能時,對相同工作成果的評估能力低於被告知未使用人工智能時的能力,即使已知相關人工智能工具可以提高生產率,並且雇主鼓勵使用這些工具。同樣,對今年發布的 13 項實驗進行的薈萃分析發現,那些披露人工智能使用情況的人一直失去信任。即使是對人工智能使用持積極態度的受訪者也往往對使用人工智能的同事感到更加不信任。這種非理性偏見對企業內部人工智能的創新應用產生了寒蟬效應。對人工智能工具使用的披露要求反映了組織的不成熟和基於恐懼的決策。他們將人工智能視為一種傳染病,並為這種工具製造了恥辱,而這種工具應該像使用拼寫檢查或設計模板一樣沒有爭議,或者讓溝通團隊準備一份聲明供首席執行官簽署。注重披露的公司只見樹木不見森林。他們變得如此擔心這個過程,以至於忽略了真正重要的事情:產出的質量。所有權勢在必行 解決上下文混亂和分散注意力的披露推動很簡單:將人工智能視為一種完全正常(儘管功能強大)的技術工具,並堅持使用它的人類對其生產的任何產品擁有完全的所有權。這種思維方式的轉變打破了困擾當前人工智能政策的混亂思維。當你不再將人工智能視為需要特殊標籤的異國情調,並開始像對待任何其他商業工具一樣對待它時,前進的道路就會變得清晰。您不會透露您使用 Excel 制定預算或使用 PowerPoint 設計演示文稿。重要的不是工具,而是你是否支持這項工作。但關鍵的部分是:將人工智能視為普通技術並不意味著你可以隨意使用它。恰恰相反。一旦我們拋開與商業環境無關的概念,比如創意的真實性和“作弊”,我們就會留下一些更基本的東西:問責制。當人工智能只是你工具箱中的另一個工具時,無論你喜歡與否,你都完全擁有輸出。每一個錯誤、每一個不足、每一次違反規則都屬於向世界發送內容的人。如果人工智能抄襲並且你使用了該文本,那麼你就抄襲了。如果人工智能弄錯了事實而你分享了它們,那麼它們就是你的事實錯誤。如果人工智能產生通用的、薄弱的、不令人信服的語言,而你選擇使用它,那麼你的溝通就很糟糕。沒有客戶、監管機構或利益相關者會接受“人工智能做到了”作為藉口。這一現實需要嚴格的驗證、編輯和事實檢查,作為人工智能使用工作流程中不可協商的組成部分。一家大型諮詢公司最近吸取了這一教訓,向澳大利亞政府提交了一份充滿錯誤的人工智能生成報告。這些錯誤之所以被忽視,是因為責任鏈中的人類將人工智能輸出視為已完成的工作,而不是需要人類監督和所有權的原材料。該公司不能將責任歸咎於該工具——他們完全承擔了尷尬、聲譽受損和客戶關係惡化的責任。承擔責任不僅僅是接受錯誤的責任。它還意味著認識到,一旦你審查、編輯和批准了人工智能輔助的工作,它就不再是“人工智能輸出”,而是成為你在人工智能輔助下產生的人類輸出。這是一種成熟的方法,可以讓我們擺脫披露困境,走向真正的問責。做出轉變:擁有人工智能的使用您的企業可以採取以下四個步驟,從對環境的混亂轉變為清晰的所有權心態。 1. 用所有權確認取代披露要求。不要再問“你使用人工智能了嗎?”並開始要求明確的責任聲明:“我對此內容承擔全部責任並驗證其準確性。”每件作品都應該有一個明確支持它的人,無論它是如何創作的。 2. 建立以產出為中心的質量標準。定義完全忽略創建方法的成功標準:它準確嗎?有效果嗎?它是否實現了其業務目標?創建同樣適用於所有內容的驗證工作流程和事實檢查協議。當某些東西不符合這些標準時,討論的焦點應該是改進輸出,而不是使用哪些工具。 3. 通過成功案例而非政策來規範人工智能的使用。分享使用人工智能交付卓越成果的團隊的內部案例研究。慶祝業務成果——更快的交付、更高的質量、突破性的見解——而不是糾纏於方法論。讓人工智能熟練程度成為與 Excel 專業知識或演示設計同等重要的技能,而不是需要特殊許可或披露的東西。 4. 培訓所有權,而不僅僅是使用。開展的培訓不僅限於提示技術,還應側重於驗證、事實核查和質量評估。教導員工將人工智能輸出視為需要他們的專業知識來塑造和驗證的原材料,而不是成品。包括識別人工智能幻覺、驗證聲明和維護品牌聲音的模塊。明年將蓬勃發展的公司不會是那些通過披露政策的恥辱而無意識地抑制人工智能使用的公司。他們將看到人工智能的本質:人工智能是實現業務成果的強大工具。當您的競爭對手因流程文檔和披露而陷入困境時,您可以通過一個簡單的原則超越他們:擁有您的輸出,無論您如何創建它。區分贏家和輸家的問題不是“你使用了人工智能嗎?”但“這很好嗎?”如果你還在問第一個問題,那麼你已經落後了。 Faisal Hoque 的書籍、播客和他的公司為領導者提供了框架和平台,以協調目標、人員、流程和技術,將顛覆轉化為有意義、持久的進步。了解更多《Fast Company 改變世界創意獎》的最終截止日期是太平洋時間 12 月 12 日星期五晚上 11:59。今天申請。
已发布: 2025-11-25 17:00:00










