觀點文章呈現多元意見,不代表《WEB3+》的立場
LLM在律師眼中的阿基里斯腱
近年來,生成式大型語言模型(LLM)如ChatGPT迅速進入法律界視野,從判決摘要、契約審閱,到會議紀錄初稿,各式各樣的應用場景不斷被測試與擴展。然而,當真正投入法律實務操作,特別是在處理繁瑣、結構複雜且對精確性要求極高的法律文本時,我發現這些工具遠不如想像中可靠。
以下不談抽象的技術潛能,只回到最現實的第一線經驗,說說律師們在使用GPT時,究竟遭遇了什麼樣的痛點——這些限制,不僅是便利性的問題,而是會直接影響法律判斷、風險評估,甚至訴訟結果的關鍵風險因子。
一、上下文太長就失憶:大型法律文件的處理困境
對於律師來說,十萬字以上的契約、訴訟紀錄、或行政處分文件稀鬆平常。但GPT模型即便在名義上聲稱能處理更長的「上下文視窗」,在實際使用時仍會出現資訊斷裂、摘要不連貫、甚至完全遺漏關鍵條文的情況。
實際使用GPT進行摘要或內容分析時,我們卻發現一個弔詭的現象:在處理短文件(例如1,000至10,000字)時,GPT通常表現得相當出色,不但能掌握段落邏輯,還能整理得有條不紊;但當文件長度進一步拉長,雖然仍在其所聲稱的Token處理上限內,卻反而出現選擇性忽略、斷裂與資訊失憶的情形。
最常見的就是所謂的「中間遺失現象」——模型只關注開頭與結尾的內容,對於藏在中段、卻可能決定整體結論的關鍵條文(如定義條款、例外條件),要不是遺漏,就是誤解。這種問題,不是模型看不到,而是它「主觀地選擇不看」。這對律師來說是極度危險的:任何一條被忽略的條文,都可能推翻整個法律見解或訴訟策略。
更令人擔憂的是,這類問題並非發生在系統資源不足、超出能力極限的狀況下,而是出現在應該「處理得來」的文件長度內。這暴露出的是一種語言模型在處理超長上下文時的結構性錯誤判斷。當面對資訊過載時,它會自我去判斷「什麼是絕對不能漏的」,選擇性地濃縮、忽略,或自作主張刪去,最終給出的結論「輕則因為缺乏重要資訊推論而失去意義、重責因為掠過關鍵證據而全然錯誤」。
二、條文歸位失準:格式與結構無法正確保留
即使GPT成功識別出某個條款的內容,例如違約金或爭議解決機制,它仍經常錯誤標示其所在位置,導致使用者找不到原始依據,或誤以為某項規定已出現在特定條次。這種錯誤對於律師來說不只是「不精準」,而是會讓整體法律分析建立在錯誤的結構認知上。
法律文件不同於一般敘述文字,其格式、條號、縮排與分段皆有嚴格邏輯,甚至直接影響條文之間的適用順序與解釋關係。當AI模型將原始格式「洗平」為純文字回應,律師等同失去了法律邏輯的地圖,只能自行從雜亂輸出中反向推理,徒增時間與錯誤風險。
三、幻覺問題未解:不實內容仍頻繁出現
GPT生成看似合理、實則錯誤的資訊(hallucination)問題至今仍難以根治。對法律工作者來說,這不僅是正確率的問題,更是信賴與責任的界線。律師依據錯誤事實撰寫意見,後果可能是客戶遭受損失、錯誤訴訟策略,甚至觸犯職業倫理。
這類幻覺不僅出現在事實描述,更常出現在模型「自創條文」、「捏造判決」或引用不存在法規的情形中。律師若無意識到,極可能在不知不覺中引用了虛構依據。
四、文件格式處理力道不足:難以維持視覺與結構一致性
在律師實務中,合約審閱、意見書整理與法規對照等工作都高度仰賴視覺上的層次結構與條文定位。GPT雖能生成語意上類似的內容,但在還原成完整Word文件或維持原始PDF版式上仍顯力不從心,甚至經常「吞字」、「跳段」、「編號錯亂」。
這也是為什麼部分律師反而更願意使用DeepL等非生成式工具進行文件處理。DeepL在翻譯過程中能準確保留條文編號、段落格式,並可輸出與原檔一致的Word文件格式,對於需要編輯與比對的法律文件來說,大幅降低後製修正的負擔。
強大的語言模型無法客製專業的結構性限制
生成式語言模型(LM)的進步無庸置疑,從GPT-3到GPT-4,再到未來更高版本,每一次更新都擴展了它在文字生成與對話理解上的能力。但也正因為這些模型的強大,是建立在對「最大共識語言模式」的學習之上,它們越能回答大眾問題,就越難針對專業場域的細節需求進行精準處理。
法律就是這樣一個高要求、低容錯的專業領域。律師需要的是能夠理解條文脈絡、維護文件結構、避免模稜兩可甚至捏造的工具,而不是泛用型的文字生成器。與其期望一個萬用GPT能解決所有需求,更務實的方向應該是:將AI作為一組系統工具的組合,根據不同任務客製化搭配,如同律師辦案時不會只依賴一本法條,而是結合判決檢索、立法理由、內部備忘錄等多源資訊進行綜合判斷。
這也說明了為何許多美國頂級律所已大量導入客製化的法律AI平台——例如Harvey——並以訂閱制方式,將之深度整合於律師的日常工作流之中。在台灣,近年也開始出現不少針對律師場景所設計的AI應用工具,從契約比對、法條搜尋,到逐字稿註記,正說明這條路是必要且可行的。
所以,律師真正應該關注的不是「GPT會不會取代我」,而是如何避開GPT的痛點,組合出真正能強化法律專業的AI系統。唯有如此,AI才不會成為風險,而能成為法律業務升級的助力。
更多報導
【觀點】AI 法律戰開打!為何連 Harvey 都不敢碰這些「資料庫巨頭」?
【觀點】RWA解鎖財富自由!房價高到買不起,5萬也能實現買樓夢?