埃隆·馬斯克 (Elon Musk) 的 Grok AI 生成“穿著極簡服裝的未成年人”的圖像
| mtgamer.com
Grok has a history of failing to maintain its safety guardrails and posting misinformation. Photograph: AP

埃隆·馬斯克 (Elon Musk) 的 Grok AI 生成“穿著極簡服裝的未成年人”的圖像

埃隆·馬斯克 (Elon Musk) 的聊天機器人 Grok 週五發帖稱,安全保障措施的失誤導致其在社交媒體平台 X 上生成了“描繪未成年人穿著極簡服裝的圖像”。這款聊天機器人是馬斯克公司 xAI 的產品,整個星期都在根據用戶提示生成一波色情圖像。 X 上用戶分享的屏幕截圖顯示,Grok 的公共媒體選項卡上充滿了此類圖像。 xAI 表示,它正在努力改進其係統,以防止未來發生類似事件。 “在個別情況下,用戶會提示並收到描繪穿著極簡服裝的未成年人的 AI 圖像,”Grok 在 X 上的一篇帖子中回復一位用戶時說道。 “xAI 有保障措施,但正在不斷改進以完全阻止此類請求。”“如上所述,我們已經發現了保障措施中的漏洞,並正在緊急修復它們 – CSAM 是非法且被禁止的,”xAI 在 X 上的 @Grok 帳戶上發布,指的是兒童性虐待材料。最近幾天,X 上的許多用戶促使 Grok 生成色情的、未經同意的 AI 修改版本的圖像,在某些情況下未經他們同意就脫掉人們的衣服。週四,馬斯克轉發了一張自己穿著比基尼的人工智能照片,並配上哭笑不得的表情符號,以向這一趨勢致敬。根據聊天機器人的帖子,Grok 一代的性感圖像似乎缺乏安全護欄,允許未成年人出現在其帖子中穿著很少衣服的人(通常是女性)中。 Grok 週四在 X 上回復用戶時表示,大多數情況可以通過高級過濾和監控來預防,儘管它表示“沒有一個系統是 100% 萬無一失的”,並補充說 xAI 正在優先考慮改進和審查用戶共享的詳細信息。當通過電子郵件聯繫 xAI 尋求評論時,xAI 回復了一條消息:“傳統媒體謊言”。人工智能被用來生成兒童性虐待材料的問題是人工智能行業的一個長期問題。斯坦福大學 2023 年的一項研究發現,用於訓練多種流行 AI 圖像生成工具的數據集包含超過 1000 張 CSAM 圖像。專家表示,根據虐待兒童的圖像對人工智能進行訓練,可以讓模型生成被剝削兒童的新圖像。 Grok 也有未能維護安全護欄和發布錯誤信息的歷史。去年5月,格羅克開始在與南非“白人種族滅絕”概念無關的帖子上發布有關南非“白人種族滅絕”的極右陰謀的內容。在 Grok 開始發布強姦幻想和反猶太主義材料(包括稱自己為“MechaHitler”並讚揚納粹意識形態)後,xAI 也在 7 月份道歉。儘管如此,事件發生一周後,該公司還是與美國國防部簽訂了一份近 2 億美元的合同。


已发布: 2026-01-02 16:27:00

来源: www.theguardian.com