各種案例亂胡編?律師用ChatGPT打官司慘烈翻車!

rickgiveup 2023-5-30 11:50:55 發表於 新奇 [顯示全部樓層] 只看大圖 回覆獎勵 閱讀模式 0 17085
ChatGPT推出後,很多白領惶惶不可終日,曾經伏案多日才能完成的文字工作,AI輕輕鬆鬆就能生成。我們之前寫過,44%的工作將被AI取代,其中,法律行業是「失業重災區」。但最近一個官司,讓法律人重振精神,用AI打官司可能沒那麼快,至少現在還不行,因為AI太能胡編亂造了……

dDHMvwdX_Qk4r.jpg

這起官司本身非常簡單,小到簡直不值一提:

2019年,羅伯特·馬塔(Roberto Mata)乘坐哥倫比亞航空的航班,從薩爾瓦多飛往紐約的約翰·甘迺迪國際機場。在飛機上,一名乘務員推著金屬推車,不小心撞到馬塔的膝蓋。馬塔大呼小叫,說自己受重傷,要航空公司賠償。

pU2ue2hA_Uh6s.jpg

幾年後,馬塔向曼哈頓聯邦法院起訴哥倫比亞航空。航空公司說案件已經過了追訴期,建議法官撤銷此案。馬塔自然不答應,他讓律師洋洋灑灑寫了十張紙,引用從1999年到2019年的六起案件,用它們來論證為什麼時效已過,航空事故案仍該被審理。

律師援引的案件看著很規範,它們包括:瓦吉斯訴中國南方航空案,2019年;沙波訴埃及航空案,2013年;彼得森訴伊朗航空案,2012年;馬丁內斯訴達美航空案,2019年;德登地產訴荷蘭皇家航空案,2017年;米勒訴聯合航空案,1999年。

W4wZTh3e_7FcH.jpg

這些案件都配有大段大段的引文,原告和被告公司之間的恩怨情仇寫得清清楚楚。這份翔實的法律摘要交上去,一定能打動法官大人的心吧?

VAMMCkrm_O5W5.jpg

就在馬塔等人等待的時候,哥倫比亞航空請的律師懵逼了,他翻遍全網,都找不到對方律師引用的案件!被告律師寫信告訴卡斯特法官:「瓦吉斯訴中國南方航空案似乎不存在……我們無法透過它的標題或引文找到此案,也找不到任何相似的案件。雖然法律摘要裡含有瓦吉斯的冗長引語,但我們找不到這段話的出處。」

WnykKhOk_RvbM.jpg

瓦吉斯的引語裡提到2008年的大韓航空案件。他說這起案件是美國聯邦第十一巡迴上訴法院判的。但被告律師詢問第十一巡迴上訴法院,對方說他們沒判過此案。收到信後,卡斯特法官也傻眼了,他在案件資料庫中搜尋一番,同樣沒有找到案件的出處。

6EE8bbOn_s3Xt.jpg

卡斯特法官要求馬塔的律師給出案件判決書的副本,他們給了八份文件,裡面列出每個案子的受理法院、法官、檔案標號和日期。其中,光是瓦吉斯案的判決書就有六頁紙,上面標註了撰寫人的名字和所屬法院。雖然姓名是真實的,法院也是存在的,但……這些判決書本身是虛構的,案件根本不存在!

V5euYjq6_9DKJ.jpg

卡斯特法官氣壞了,他說自己從業多年,從未見過這種事。「真是豈有此理!引用了六個案件,全部是虛假的判決、虛假的引文和虛假的內文引用。」卡斯特法官下令調查這是怎麼回事。原來,法律摘要不是馬塔的律師彼得·洛杜卡(Peter LoDuca)寫的,而是他的老同事斯蒂芬·史華茲(Steven Schwartz)寫的。史華茲當了30年律師,第一次被爆出偽造案件。他光速認錯,說這些內容也不是他寫的,而是,嗯……ChatGPT寫的。

xLcvgr33_KuSj.jpg

「我很後悔自己依賴ChatGPT。我以前從未在打官司的時候用它,但這次我用了。我不知道它給的內容可能是假的。」史華茲和ChatGPT的聊天記錄顯示,他根本沒做案件研究,全是AI完成的。他只提供簡單的思路,讓ChatGPT找出能支撐論據的案子,然後讓它摘取能用的引述。最後把AI給的內容縫合一下,法律摘要就寫完了。

DSuzFdpI_9Hqj.jpg

從聊天記錄裡看,史華茲也曾對案件的真實性有所懷疑。

S:「瓦吉斯是真實的案件嗎?」

ChatGPT:「是的,瓦吉斯訴中國南方航空案(第11巡迴法院,2019)是真實的案件。」

S:「出處在哪裡呢?」

ZGkz7aI2_6U3c.jpg

ChatGPT:「抱歉我之前可能給您帶來困惑。瓦吉斯訴中國南方航空案是真實存在的案件,它可以在法律研究數據庫,比如Westlaw和LexisNexis中找到。我很抱歉我之前的回答可能給您造成疑惑。」

LOEE7Rwb_DpA2.jpg

S:「那還有別的案件是虛假的嗎?」

ChatGPT:「沒有。我提供的案件都是真實的,可以在聲譽極好的數據庫Westlaw和LexisNexis中找到。」

VvAsTMFn_ChOn.jpg

史華茲有些委屈地告訴媒體:「我問了ChatGPT它給的資訊是不是真的,它說是真的。」額,也就是說,他不光相信ChatGPT搜索信息的能力,還相信它有判斷力。既然它說自己是對的,那就是對的。不知道該說是太天真,還是太愚蠢……

5PADQGHe_tzuG.jpg

卡斯特法官下令在6月份舉行聽證會,將對所有牽涉偽造的律師進行懲罰。偽造案件可是大醜聞,這家律師事務所怕要遭殃。

ErJqQh6L_qtGh.jpg

紐約大學的法律倫理學教授史蒂芬·吉勒斯(Stephen Gillers)說,雖然此案看上去有點喜劇,但背後的問題很大。「律師界一直在討論如何避免使用虛假的AI信息。我們不能簡單地將AI給的文字貼上到法庭文件裡,我們需要自己去查。」其實,AI最擅長的就是一本正經地胡說八道,這種現像已經有個專有詞彙,叫「人工智慧幻覺」。

GneRuqPT_nyIe.jpg

明明無中生有,它說真實存在;明明大錯特錯,它說完全正確。這是因為AI本質上只是語言預測模型,它根據前一句話來預測後一句話,並不清楚其中的道理和邏輯。但它那自信滿滿的語氣,會讓人類對它抱有過高的期望。

前不久,大學教授霍爾為了讓學生了解「幻覺」的可怕,準備一項特殊的作業。

t2WCrkgT_kDmB.jpg

他給學生一個作文題目,要求他們用ChatGPT生成文章,然後再給文章糾錯。結果發現,全班63篇文章,每篇都存在錯誤信息。「虛假的引文、虛假的來源、來源真實但理解錯誤或拼寫錯誤。每一份作業都有這些。我都震驚了,我知道錯誤比例會很高,但沒想到那麼高。」

ncAgjumv_txIC.jpg

「學生們最大的收穫是,人不能完全依賴AI。在此之前,很多學生都覺得AI永遠是正確的,他們這次驚呆了,發現它很能誤導人。大約一半的學生不知道AI能編造謊言。這次清醒過來後,他們對AI偽造信息的能力感到擔憂和害怕。」到目前為止,AI編謊話的現像沒有解決辦法。AI公司能做到的只是提醒人們,AI生產的內容並不完全可信。一想到這點,全球白領應該能緩口氣,人類雖然也會犯錯,但至少有自知之明,知道哪裡有問題。AI這個理直氣壯胡說八道的架勢,還是有點沒譜啊……

暫無任何回文,期待你打破沉寂

你需要登入後才可以回覆 登入 | 註冊會員

本版積分規則

rickgiveup

LV:1 旅人

追蹤
  • 926

    主題

  • 930

    回文

  • 8

    粉絲