
2024年10月,印第安納州律師拉斐爾·拉米雷斯(Rafael Ramirez)在代表HooserVac LLC針對其退休基金提起訴訟時,在三份獨立簡報中引用了案例引文。然而,法院無法找到這些案例,因為它們是由ChatGPT捏造的。
12月,印第安納州南區美國地方法院法官馬克·J·丁斯摩爾(Mark J. Dinsmore)命令拉米雷斯出庭,說明他為何不應因這些錯誤受到處罰。
「在引文中搞混數字、寫錯日期或拼錯當事人姓名都可以歸咎於疏失,」法官寫道。「但引用一個根本不存在的案例則完全是另一回事。拉米雷斯先生未解釋為何一份完全虛構的案例引用會出現在他的案情摘要中。最合理的解釋是,他使用了人工智慧生成工具協助起草案情摘要,卻未在提交前檢查引用的真實性。」
拉米雷斯承認自己使用了生成式人工智慧,但堅稱他未察覺這些案例並非真實,因為他不知道人工智慧可能生成虛構案例與引用。他還承認未遵守《聯邦民事訴訟規則》第11條,該規則要求提出的索賠必須基於現有證據,或極有可能透過進一步調查或發現找到支持證據。此規則旨在鼓勵律師在提起訴訟前進行盡職調查。
「我發誓我認為這些都是真實案例,法官大人。ChatGPT向我保證它們確實是真的。」拉米雷斯表示,他後來參加了有關法律中使用人工智慧的法律教育課程,並繼續使用AI工具。但法官指出,他「未能遵守最基本的要求」,使其行為「特別應受到制裁」。丁斯摩爾補充,由於拉米雷斯未能提供稱職的辯護,且多次向法庭做出虛假陳述,他已被提交給首席法官,以採取進一步紀律處分。
這並非律師因依賴人工智慧出錯的首例。2023年6月,兩名律師及其律師事務所因引用ChatGPT生成的虛假法律研究,被曼哈頓一名地區法官罰款5,000美元。
今年1月,懷俄明州一名律師提交了9起案例,以支持針對沃爾瑪與Jetson Electric Bikes的訴訟,該訴訟據稱由懸浮滑板引發火災。其中8起案例是ChatGPT製造的幻覺。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!