AI寫了代碼。您已被黑客攻擊。那麼現在怎麼辦?| mtgamer.com

AI寫了代碼。您已被黑客攻擊。那麼現在怎麼辦?


當人工智能係統開始生成工作代碼時,許多團隊歡迎它們作為生產力的助推器。開發人員已轉向人工智能來加快日常任務的速度。領導人注意到生產力的提高。但幾週後,公司遇到了與代碼相關的安全漏洞。問:誰應該負責?這不是假設。根據對美國和歐洲 450 名安全高管、工程師和開發人員的調查,五分之一的組織表示,他們已經遭受過與人工智能生成代碼相關的嚴重網絡安全事件,超過三分之二 (69%) 發現了人工智能造成的缺陷。機器而不是人所犯的錯誤與已經造成實際財務、聲譽或運營損失的違規行為直接相關。然而,人工智能將繼續存在。大多數組織都認為有必要盡快實施它,既是為了保持競爭力,也是因為前景如此強大。然而,責任以人為本。沒有規則的指責遊戲 誰應該為人工智能相關的不當行為負責的問題沒有明確的答案。超過一半 (53%) 的人表示,安全團隊應該為沒有註意到問題或未能實施需要遵循的具體準則承擔責任。與此同時,幾乎相同的數字(45%)將矛頭指向促使人工智能生成錯誤代碼的人類。這一差距凸顯了問責制日益缺失。人工智能正在模糊曾經清晰的責任界限。開發人員可能會辯稱,他們只是使用該工具來改進他們的工作,而安全團隊可能會辯稱,不能指望他們能夠發現人工智能造成的所有缺陷。如果沒有明確的規則,團隊之間的信任可能會受到削弱,共同責任的文化可能會開始破裂。一些受訪者甚至更進一步,甚至指責批准代碼的同事或旨在審查代碼的外部工具。沒有人知道該追究誰的責任。人力成本 在我們的調查中,92% 的組織表示他們擔心人工智能生成的代碼中的漏洞。這種擔憂符合工作場所的一個更廣泛的趨勢:人工智能旨在減輕負擔,但它往往會起到相反的作用。 Fast Company 已經探索了“勞動力”的崛起——需要更多監督和清理工作的低成本產品。我們的研究表明這對安全有何影響:人工智能不但不會消除壓力,反而會增加壓力,讓員工感到壓力並且不確定自己的責任。特別是在網絡安全領域,職業倦怠已經很普遍,近三分之二的專業人士表示存在這種情況,繁重的工作量被認為是一個主要因素。總而言之,這些壓力造成了一種猶豫文化。團隊花更多的時間擔心責備,而不是嘗試、創造或改進。對於組織來說,他們用來加快進度的技術實際上可能會減慢進度。為什麼責任分配這麼難?人工智能正在給工作場所增添混亂。傳統的編碼錯誤可能與個人、決策或團隊有關。隨著人工智能的出現,這種責任鏈被打破。是依賴不安全代碼的開發人員的錯,還是最初創建它的人工智能的錯?即使AI有錯,其創造者也不會對其後果負責。這種不確定性不僅體現在公司內部。世界各地的監管機構都在問同一個問題:如果人工智能造成傷害,誰應該承擔責任?由於兩個層面都缺乏明確的答案,員工和管理者都面臨著同樣的責任真空。政策和工作場所培訓繼續落後於人工智能採用的步伐。幾乎沒有規則或先例來規定如何分配責任。一些公司監控人工智能在其係統中的使用方式,但許多公司卻沒有這樣做,這使得管理者只能將事後發生的事情拼湊起來,就像拼圖缺少關鍵部分一樣。領導者可以採取哪些措施來縮小問責制差距 領導者不能忽視問責制問題。但設定期望不應該放慢事情的進展。通過採取正確的步驟,團隊可以快速行動、創新並保持競爭力,而不會失去信任或產生不必要的風險。人工智能使用情況跟踪。使跟踪 AI 使用成為標準並對所有團隊可見。分擔責任。避免團隊之間相互對抗。對人力資源部和財務部如何批准新員工建立雙重批准,這樣責任就不會落到一個人身上。明確設定期望。確保員工知道誰審查人工智能結果、誰批准這些結果以及誰對結果負責,從而減輕壓力。在完成工作之前,創建一個簡短的人工智能清單。使用提供透明度的系統。領導者應該尋找切實可行的方法,使人工智能的使用變得透明和可追溯,以便團隊花更少的時間爭論誰應該受到指責,而有更多的時間解決問題。使用人工智能作為早期防禦。人工智能不僅是風險的來源,而且也是風險的來源。它還可以充當額外的觀察員,儘早標記問題並讓團隊更有信心快速採取行動。溝通是關鍵 很多時候,組織只有在發生重大安全事件後才會改變其方法。這可能代價高昂,平均違規規模估計為 440 萬美元,更不用說聲譽損失了。通過明確傳達期望並落實正確的流程,領導者可以減輕壓力,建立信任,並確保在使用人工智能時責任不會消失。人工智能可以成為強大的影響者。如果缺乏清晰度和透明度,信任就有被削弱的風險。但有了正確的護欄,它可以提供速度和安全性。那些能夠通過認識人工智能的弱點、加強問責制以及發展以人工智能的速度進行分析和改進的文化,為無所畏懼地使用人工智能創造條件的公司將蓬勃發展。


已发布: 2025-10-29 06:00:00

来源: www.fastcompany.com