(綜合報導)ChatGPT是現在最先進的人工智慧程式之一,很多人用它輔助工作。
美國一名律師在準備法庭檔時使用這款AI程式,不曾想到的是,AI杜撰了一個根本不存在的案件和裁決,這不僅讓這位律師非常尷尬,也可能導致法官的懲罰。
本周,紐約律師Steven Schwartz向法官道歉,因為他提交的一份陳述書中利用ChatGPT協助查找撰寫資料。這篇資料中,ChatGPT生成了根本不存在的案件。Schwartz說,他根本不知道ChatGPT會編造案例和裁決。
他接受委託的案件是2019年搭乘哥倫比亞航空公司飛機的一名乘客。這位男子稱,在飛往紐約的航班上被一個金屬餐盤砸傷了腿。Schwartz受委託進行提告。而航空公司則以過了時效性為理由要求撤告。
Schwartz在撰寫案件檔時,利用ChatGPT收集已往發生的類似案件。他挑選了幾個支持案件仍具有時效的案例作為支持自己的證據。其中包括伊朗航空、中國南航和埃及航空的一些案件。但是,被告哥倫比亞航空公司和主審法官都無法查找到這些案件。原告律師Schwartz進行了進一步查實,不得不承認是ChatGPT杜撰了這些案件。
法官說:“法院面臨著一個前所未有的情況,原告律師提交的六個案例都是假的司法判決。”涉事律師有可能會面臨處罰。
6月6日(週二),在上交給聽證會的一份檔中,原告律師表示,為自己令人深感遺憾的錯誤向法庭表示深深的歉意。他也提到這是自己首次使用ChatGPT,是念過大學的孩子向他推薦的。他說:“在進行本案的法律研究時,我以為ChatGPT是一個可靠的搜尋引擎。不過現在知道這個認知是錯誤的。”他還補充說,自己從未想要過誤導法庭。
ChatGPT自去年年末一經推出,就因為功能強大而火爆全球,也引發了一場人工智慧熱。各大科技公司都紛紛推出自己的AI。
ChatGPT的母公司OpenAI沒有立即就這起案件進行回應。
原告律師Schwartz說,他和所在的公司在媒體報導中被公開嘲笑。他說:“無論是我個人,還是公司都因此深感尷尬。這些對於我的負面文章在未來幾年都會被人看到。”他說,這件事讓他大開眼界,他願向法庭保證,“決不會再犯這樣的錯誤。”
ChatGPT是一種人工智慧(AI)聊天機器人,它使用深度學習模型在龐大的訓練資料中識別單詞之間的模式和關係,並根據提示生成類似人類的反應,類似的聊天機器人正被納入google和Bing等流行的搜尋引擎中,很多專業人士和非專業人會使用AI搜索資訊。但由於資料來源並不一定真實可靠,該工具會給出與事實不符的答案。
今年(2023)3月14日,OpenAI宣佈正式發佈為ChatGPT提供支援的更強大的下一代技術GPT4,稱其擁有圖像識別功能,高級推理技能,以及處理25000個單詞的能力,在某些測試中的表現“可與人類相媲美”,並在大學入學和法律及醫學等專業領域的許多模擬考試中優於其前身GPT-3.5。例如,GPT-4通過了律師資格類比考試,分數超過90%的人類考生,而GPT-3.5此前的分數則低於90%的人類考生。
研究表明,ChatGPT會有提供不正確答案的傾向,如果僅僅依靠它獲取資訊,非常危險,因為人們可能意識不到其給出的答案是不準確的,這是它目前面臨的最大的問題。當前,ChatGPT最適合用來激發想法,説明撰寫資料摘要,而用於快速資訊檢索,使用者需要對其提供的事實性答案予以核查。