近日,美國一家頗具聲望的個人傷害律師事務所Morgan & Morgan向其龐大的律師團隊發出了緊急警示。這封郵件的內容直指一個新興的技術風險:人工智能(AI)能夠創造出虛假的判例信息。若律師在法庭文件中不慎使用了這些虛假內容,將面臨被解雇的嚴重后果。
這一警告的背景是,懷俄明州的一名聯邦法官曾對Morgan & Morgan的兩名律師提出制裁威脅。原因在于,他們在起訴沃爾瑪的一起案件中,錯誤地引用了并不存在的判例。其中一名律師后來承認,他使用了一款能夠“創造”案件的AI程序,并為此表示歉意。
據路透社的調查,全美多個法院在過去兩年內已對至少七起案件中的律師進行了質疑或紀律處分,原因都與AI在法律文件中生成虛假信息有關。這一趨勢給訴訟雙方和法官都帶來了不小的困擾。
然而,盡管存在這樣的風險,許多律師事務所仍然選擇與AI供應商合作,或自行開發AI工具,以縮短律師的研究和撰寫時間。湯森路透的調查數據顯示,去年有63%的律師在工作中使用了AI,其中12%的律師更是定期使用。
但問題在于,生成式AI以“自信地編造事實”而聞名。法律專家指出,律師在使用AI時必須格外謹慎。AI有時會像產生“幻覺”一樣生成虛假信息,這是因為它們是基于從大量數據中學習到的統計模式進行生成的,而不是通過驗證事實的準確性。
律師道德規范要求律師對其提交的法庭文件負責,并進行核實。美國律師協會去年曾向全體會員發出通知,即使是AI生成的“無意錯誤”,也必須遵守這一義務。薩福克大學法學院院長Andrew Perlman對此表示:“盡管法律研究工具發生了變化,但后果并沒有改變。當律師在沒有核實的情況下使用ChatGPT或任何生成式AI工具來編造引用時,這就是不稱職。”
Perlman不僅是這一觀點的倡導者,還是利用AI提升法律工作效率的專家。他強調,律師在使用AI時,必須保持高度的警覺性和責任感,以確保法庭文件的真實性和準確性。
Perlman還建議,律師事務所應加強對律師的培訓和指導,提高他們對AI技術的認知和使用能力,以避免因技術風險而引發的法律糾紛和職業道德問題。