律師在援引“虛構”案件後聲稱,他使用人工智能來準備審判
一名法官發現,一名移民律師在法庭聽證會之前引用了“完全虛構”或“完全不相關”的案件後,使用人工智能來完成工作。法庭獲悉,Chowdhury Rahman 被發現使用類似於 ChatGPT 的軟件來準備他的法律研究。據稱,拉赫曼不僅使用人工智能來準備他的工作,而且“隨後未能進行任何適當的準確性檢查”。最高法院法官馬克·布倫德爾表示,拉赫曼甚至試圖隱瞞他正在使用人工智能的事實,這“浪費”了法庭的時間。布倫德爾表示,他正在考慮向律師標準委員會報告拉赫曼。 《衛報》已聯繫拉赫曼的公司請其置評。案件曝光於兩名洪都拉斯姐妹的案件中,她們以在本國成為犯罪團伙的目標為由申請庇護。拉赫曼代表年齡分別為 29 歲和 35 歲的姐妹。該案已移交給高級法院。布倫德爾駁回了拉赫曼的論點,並補充說,“拉赫曼先生口頭或書面所說的任何內容都沒有表明法官存在法律錯誤,上訴應被駁回。”隨後,布倫德爾在一項罕見的裁決中在附言中表示,上訴理由存在“嚴重問題”。他說,拉赫曼的文件中引用了 12 個機構,但當他閱讀解釋性備忘錄時,他指出“其中一些機構並不存在,另一些機構並不支持解釋性備忘錄中引用的法律提案。”在裁決中,他列出了其中 10 個案例,並概述了“拉赫曼先生對這些真實或虛構的案例的看法”。布倫德爾說:“拉赫曼先生似乎對這些事情一無所知。”他為支持他據稱於今年 7 月做出的上訴而引用的任何權威人士。他顯然無意在他的著作中引導我做出任何這些決定。 “有些決定並不存在。這兩項決定都不支持解釋性備忘錄中包含的法律主張。”布倫德爾表示,拉赫曼聲稱使用“各種網站”進行研究的聲明因此具有誤導性。布倫德爾說:“最明顯的解釋是……上訴理由全部或部分是由 ChatGPT 等生成式人工智能製定的。我必須指出,拉赫曼先生推理中引用的一個案例……最近被 ChatGPT 錯誤地用來支持類似的論點。”拉赫曼告訴法官,推理中的不一致是由於“他的編輯風格”造成的,並承認可能存在一些問題。 他的聲明中“混亂和含糊”。布倫德爾說:“我上面詳細描述的問題與編輯風格無關。理由中引用的當局要么不存在,要么不支持其提出的理由。”他補充道:“根據我的判斷,拉赫曼先生極有可能在本案中使用生成式人工智能來製定上訴理由,並且他試圖在聽證會上向我隱瞞這一事實。 “即使拉赫曼先生無論出於何種原因相信這些事情在某種程度上支持了他想要提出的論點,他也無法解釋這些完全虛構的引述。 “在我看來,唯一現實的可能性是拉赫曼先生嚴重依賴Gen AI來製定基礎,並在聽證會上與他討論困難時試圖隱瞞這一事實。法官的裁決於九月發布並於週二公佈。
已发布: 2025-10-16 14:33:00









