【Lawsnote 觀點】生成式 AI 與法律應用_系列文章(1)

對於以產出文件和意見為服務核心的法律服務業來說,生成式 AI 究竟是單純的生產力工具,還是衝擊整個產業的魔法,作為一位法律人應該如何理解這個帶領台灣成為世界中心的新技術:生成式 AI?

Lawsnote 長期投入科技與法律的結合,從 2016 年起持續投入 AI 應用在法律領域的開發和研究,曾經發布人工智慧在台灣法律的發展觀察報告(2019)Lawsnote 法律科技觀察報告 (2020)。本文將從技術發展和商業應用的角度,提供 2024 年法律界對生成式 AI 常見問題的觀點。

生成式 AI 泛指利用提示詞(prompt)來生成內容的人工智慧應用,核心技術是大型語言模型(Large Launge Model, LLM),雖然大型語言模型主要是指處理「文字」的模型,但生成式 AI 同時也包含了影音圖片等內容的生成。

我們可以用汽車的類比來理解這些名詞:

  • 大語言模型 LLM:核心模型,例如引擎
  • OpenAI:公司名稱,例如 Toyota
  • ChatGPT:服務名稱,例如 Yaris 車款
  • GPT4o:模型型號,例如 Yaris 車款引擎型號 2NR-FE

至於應用大語言模型的生成式 AI,跟之前的 AI 有什麼差別,最重要的區別在於訓練資料和參數的量級持續增加,讓量變產生質變,讓模型發生了「智慧湧現」(emergent ability)的現象,也就模型突然變聰明。這個現象並不是慢慢發生的,而是在模型的參數與訓練量級超過某一個數值的時候,突然發生,下圖就是各個模型的智慧湧現現象:

引用論文:Emergent Abilities of Large Language Models(Jason Wei, et al., arXiv, 2022.)

透過上圖,可以發現模型的參數量在達到大約 70B 的量級時,準確率會有飛躍性的提升。這也就是為什麼當 ChatGPT 在 2022 年底橫空出世的時候,會讓許多人感到不可思議的原因,因為 LLM 的表現是驟然提升的,遠超過大家的想像。

目前廣泛的認知,只有產生智慧湧現的語言模型,我們會稱為 LLM,使用 LLM 的應用,我們稱為生成式 AI(的文字生成應用情境)。

2. 生成式 AI 會幻想,不適合用來處理法律工作?

生成式 AI 會幻想是 LLM 的技術本質,因為生成式 AI 不是搜尋引擎,他是依賴文字接龍的方式來生成文字,而大語言模型是根據訓練資料和提示詞來決定要接什麼樣的文字最適合,這一切會源自於機率。

生成式 AI 生成文字的概念,”f” 就是決定機率的演算法

所以在使用生成式 AI 服務的時候,會出現憑空捏造的資訊,俗稱幻想,這是 LLM 的本質造成的。

儘管如此,並不代表法律工作不能使用 LLM,只是我們必須意識到幻想的問題,找出 LLM 可以應用在哪些法律服務的工作流程中,我們可以簡單的區分為:

  • 可以確認 LLM 產出文字的正確性 ->可以使用生成式 AI,但要確認正確性
  • 無法確認 LLM 產出文字的正確性 ->不適合使用生成式 AI
  • 我不在乎 LLM 產出的文字正確與否 ->適合使用生成式 AI

第二種情況由於使用者無法確認 LLM 是否為幻想,因此不宜使用 LLM,即使在第一種情況,也需要實際確認 LLM 產出的正確性,美國加拿大都曾發生過律師在法庭上提出了 ChatGPT 憑空杜撰的判決書的案例,源自於誤把生成式 AI 當成搜尋引擎來使用,但兩者其實是完全不同的服務。

以目前法律服務業界而言,生成式 AI 主要應用場景包含翻譯、製作會議記錄摘要、潤飾文字修辭、產生文件初稿和大綱、摘要大量文本重點、圖檔(或 PDF)轉文字檔等應用。

然而,生成式 AI 會幻想的問題,並不是無法克服的。透過掛載搜尋引擎的生成式 AI,可以有效降低 LLM 的幻想問題,在業界稱為 RAG(Retrieval-Augmented Generation, 擷取增強生成)。

我們會在後面的文章談到如何透過 RAG架構,讓生成式 AI 來回答法律問題。

3. 法律工作具有機密性,不能使用生成式 AI?

在使用生成式 AI 的時候,你所有輸入的資料,包含輸入的文字和上傳的檔案都可能面臨至少兩個階段的外洩風險:

  1. 這些資料很可能會先存放在服務提供者的伺服器中,這些伺服器雖然通常不會讓一般人存取,但根據 OpenAI 的 FAQ,使用者在 ChatGPT 輸入的資料除了 OpenAI 的人員可以存取外,它們也會提供給一組「可以信任的服務提供者」(a select group of trusted service providers),但沒有說明具體是誰。
  2. 這些資料很可能被用訓練 LLM,而 LLM 則是所有人都可以使用。雖然當資料作為 LLM 的訓練素材後,會混入大量的訓練資料中,失去原本的狀態,也不太可能還原出原始的內容,但仍然無法完全排除資料外洩的風險。

根據 OpenAI 的說明,它們並不會使用企業服務的資料來訓練模型,例如 ChatGPT Team、ChatGPT Enterprise 和 API 平台,然而考量到多數律師使用的服務屬於個人型的 ChatGPT plus/free 方案,你的輸入資料預設是會做為訓練資料,除非根據前述說明的教學來關閉選項。

以結論而言,使用生成式 AI 的確會有資料外洩的風險,雖然風險不高,但仍然需要注意。

至於如何避免資料外洩,除了在輸入資料的時候先「去機密性」之外,也可以考慮使用封閉型的 LLM:將生成式 AI 服務部署在自己私有的伺服器中。

這樣的模式有兩種選擇:

  1. 將開源的大語言模型放在自己的伺服器中:這樣的方式可以確保所有的資料都不會流到第三方的手中,而且無須負擔 token 的費用(token 的計費方式可參考這篇文章),但對於硬體效能和技術開發的要求比較高,並且僅能使用開源的大語言模型。目前包含 ChatGPT 和 Claude 都屬於閉源模型,無法直接部屬在自己的環境中,台灣目前主流的開源模型以 Meta 開發的 Llama3 和 Mistral AI 開發的Mixtral為主,兩者都有團隊進行繁體中文的優化。
  2. 使用雲端服務廠商的私有雲 LLM 服務:例如微軟的 Azure OpenAI 服務,可以有效降低開發成本,並且可以使用 OpenAI 的大語言模型,但需要和雲端服務綁定,因此不支援將伺服器建置在私有機房的地端服務(On-Premises),且需要另外負擔 token 費用。

Lawsnote 在這些環境都有開發經驗和支援的系統架構。

根據我們的經驗,以上兩者的成效差異不大,差別在於使用開源模型初始建置成本比較高,但使用成本低;而私有雲 LLM 服務的建置成本較低,但使用成本較高。企業需要在法律部門導入大語言模型,可以依據不同需求選擇。

4. 生成式 AI 可以幫律師做什麼?

翻譯、製作會議記錄摘要、潤飾文字修辭、產生文件初稿和大綱、摘要大量文本重點、圖檔(或 PDF)轉文字檔

目前在法律業界使用生成式 AI 在工作流程上包含:

  • 法律文件的翻譯
  • 閱讀文件及摘要:目前chatGPT可以讀取128k tokens(大約6萬字,約300頁的書集),Claude可讀取200k tokens(大約10萬字),可以讀取的文字量級幾乎包含所有的判決書,大部分論文或書籍,並提供摘要,或回答文件書籍中的內容。
  • 潤飾文字 / 換句話說:將文件請LLM重新撰寫成通順或不同風格的語句,或是提供例如「至為灼然」的同義詞。
  • 摘要會議紀錄:目前許多 LLM 有支援 Voice to Text 的功能,可以將會議紀錄錄音轉成文字,並且整理成會議摘要。
  • 圖檔轉文字檔:目前許多 LLM 有支援 OCR 的功能,可將圖檔轉換為文字檔。
  • 產出文件:生成式 AI 可以用來產出法律意見書、契約摘要或是律師函等文件,但需要更複雜的提示詞,至於書狀和契約的難度更高,我們正在測試有沒有實現的可能。

透過提示詞工程(prompt engineering),我們可以讓 LLM 完成更複雜的工作,並且讓 LLM 的產出更符合我們的需求,接下來我們會介紹一些基本的提示詞工程概念。

5. 如何使用生成式 AI 協助律師工作?

(1)馴服 LLM:Prompt 的概念

要讓 LLM 聽從律師的指令,關鍵在於設計出優秀的 Prompt(提示)。一個好的 Prompt 就像是對 LLM 下達明確、具體的任務指令,告訴它應該扮演什麼角色,掌握哪些背景資料,最終要完成怎樣的任務。

(2)Prompt Engineering:設計出優質提示的秘訣

a. 一個完整的 Prompt 通常由兩個部分組成

  • System Prompt:設定 LLM 的角色和背景,提供必要的上下文資訊,讓 LLM 理解自己應該扮演的角色。
  • Instruction Prompt:具體說明 LLM 需要執行的任務或回答的問題,應該清晰、簡潔、直接。在一個法律工作任務可能包含:
      1. 背景資訊
      2. 參考範例
      3. 任務指示,或是任務的每一個步驟
      4. 限定詞:例如字數、語氣、文體、情境或語言。
完整的 Prompt 架構範例如下↓

b. 設計優質 Prompt 的要點

  • 明確設定 LLM 的角色和背景資料,具體說明要執行的任務。
  • 使用限定詞避免 LLM 產生無關或錯誤的內容。
  • 以正面、具體、簡潔的方式表述,採用清晰的格式,方便 LLM 理解和執行。

設計優質 Prompt 的技巧↓

c. 引導 LLM 進行逐步思考

當面對複雜的任務,有以下幾種方式可以引導 LLM 逐步思考:

  1. Zero-shot Prompting: 在 Prompt 中加入「Let’s think step by step」這樣的句子,鼓勵 LLM 按步驟思考問題。
  2.  Few-shot Prompting,即提供多個相關問題和答案的範例,讓 LLM 學習如何解決類似問題。
  3. Chain of Thought(CoT),將問題拆解成多個小問題,剖析思考脈絡,引導 LLM 逐步解決。

引導 LLM 的方式↓

d. 對話式 Prompt:同一個任務在同一個對話框完成

對話式 Prompt 是指在同一次對話中連續提問和回答的方式。LLM 在回答問題時,會綜合考慮之前的問題和答案,不斷調整和優化回應。因此,如果律師需要 LLM 完成一系列相關的任務,最好在同一次對話中進行,若 LLM 的表現不好也可以進一步的提醒、修正甚至給予更多背景資訊來調整,如此一來 LLM 的表現會越來越好。

對話式 LLM 連續問答的原理如下

舉例而言,在同一串問答中,使用者問的問題和 LLM 真的接收到的問題會像這樣:

e. 為 LLM 提供充足的背景資料

LLM 在執行任務時,十分依賴律師提供的背景資料。例如,如果律師單純要求 LLM 起草一份合約,效果可能不盡如人意。但如果律師在 Prompt 中詳細說明合約的背景、目的、各方當事人的資訊、需要包含的條款和範例的契約模板等,LLM 生成的合約內容將更加符合實際需求。

生成式 AI 為律師工作帶來了革命性的變化。律師們需要學習如何設計優質的 Prompt,運用 CoT 和對話式問答等技巧,並為 LLM 提供充足的背景資料,才能真正將 LLM 變成得力助手,大幅提升工作效率和品質。隨著律師們對 LLM 的運用日益成熟,AI 必將在法律領域扮演越來越重要的角色。我們會在後續的文章提供實際的 prompt 範例讓大家參考如何實現讓生成式 AI 完成工作。

6. 有哪些生成式 AI 工具可以幫助律師?

生成式 AI 發展至今,市面上針對各種不同應用場景的生成式 AI 工具百花齊放,以下介紹幾個在律師日常工作流程中,可以簡化繁瑣工作、增加效率的生成式 AI 工具:

  1. 法律文件處理:
    • 文件翻譯、摘要及撰寫: 使用 ChatGPT、Claude 等對話式 AI 工具,可快速完成文件翻譯、閱讀判決及撰寫法律文件初稿。
  2. 法律問題研究:
    • 透過掛載搜尋引擎的生成式 AI 工具,如 Perplexity、Google 開發的 Gemini 及微軟開發的 Copilot,律師可以直接向 AI 提問,獲取搜尋、摘要後的正確答案。
    • 如果 AI 工具所掛載的搜尋引擎本身即是以法學資料作為基礎,如 Lawsnote 的法律問答機器人以 Lawsnote 的法學資料庫作為搜尋基礎,則 AI 可以針對法律問題提出更精確的回答。 
  3. 會議紀錄摘要:
    • 工具如 Vocol.ai、4149.AI、Good Tape 等,可自動摘要會議重點、臚列待辦事項,並支援多國語言翻譯。
    • 另可自行錄音並使用免費軟體生成逐字稿,再利用 ChatGPT 進行摘要。
  4. 電子卷證轉文字:
    • 工具如 Chat PDF、Nitro PDF、UPDF、Foxit 等,可自動辨識並擷取圖片或 PDF 中的文字,方便律師處理卷證。
  5. 簡報生成:
    • Microsoft Copilot: 在 PPT 中內建 AI 生成功能,能自動生成簡報內容。
    • 其他工具: Gamma、Tome 等生成式 AI 工具,也能高效製作簡報。

不過生成式 AI 相關工具種類眾多,且還在早期發展階段,迭代非常迅速,本篇文章提供的工具資訊可能未必適合 3 個月後的狀況,Lawsnote 也會盡量持續為各位法律人提供更新的資訊。

7. 生成式 AI 會取代律師?

生成式 AI 是工具,工具只會取代其他工具,而律師是角色,工具無法取代角色。

關於生成式 AI 能否取代律師這個問題,我們曾在 2022 年發表過「ChatGPT 可以取代律師嗎?」提到以機率模型和大量訓練資料為基礎的現代大語言模型,先天上有其侷限性。

而律師工作的分析和判斷,混雜了許多無法作為訓練資料的背景資訊,例如當事人的需求和背景、沒有被文字記載的生活經驗或是個案的特殊狀況,這些都是需要大量訓練資料的LLM無法克服的環節。

因此,若非有全新架構的 AI 出現,讓人工智慧發展出邏輯推理等能力,否則我們的見解至今仍然沒有改變,生成式 AI 不會取代律師。

但作為工具,生成式 AI 絕對是未來律師必須熟練使用的工具。工具雖然無法取代律師這個角色,但熟練使用生成式 AI 的律師,會比不使用生成式 AI 的律師來的更有競爭力。

8. 在 AI 時代,文組會更沒有價值?

生成式 AI 的發展可能造成專業壁壘趨向模糊。大型語言模型透過提示詞生成文件、翻譯資料和摘要文本,這些過去需要專業技能的任務,透過LLM變得更高效。生成式 AI 的應用使專業與非專業的界線沒那麼明顯,許多專業工作變得更容易執行。

工業時代強調專業分工以最大化效率,每個人專注於特定任務,形成高度專業化的結構。然而,生成式 AI 能快速學習和模仿專業知識,在某些領域甚至超越人類,因此,專業技能不再是高效工作的唯一保證。

在 AI 時代,解決問題的方法論變得重要。僅有專業知識已不足夠,取而代之的是如何有效解決問題的能力。例如,律師需要不僅是法律知識,還需懂得如何解構工作流程,轉化為步驟和提示詞,利用生成式 AI 提升工作效率,解決客戶問題。這種方法論的重視,使解決問題能力在 AI 時代更具競爭力。

隨著生成式 AI 普及,「規劃、策略和決策」的價值提高,執行的價值下降。自動化的重複性和標準化任務減少了對人力的需求。因此,決策者和策略規劃者的角色變得更重要,他們需制定合理的策略和步驟,確保 AI 工具有效服務客戶需求。在 AI 時代,真正有價值的是規劃和決策工作,而非那些可被 AI 取代的執行工作。

因此,AI 時代並未讓文組的價值消失,而是發生了轉變。專業壁壘變模糊,但專業知識需與解決問題的方法論結合,才能發揮更大價值。規劃、策略和決策的重要性超越執行,成為 AI 時代不可或缺的核心能力。文組在 AI 時代的角色轉變,是價值的再定義,而非減少。

Lawsnote 接下來將會推出系列文章,詳細分享如何使用生成式 AI 完成法律工作。

文章會發表在 Lawsnote 官方 Blog,並同步在以下社群媒體:

  • Lawsnote Facebook 粉絲專頁
  • Lawsnote LinkedIn

若您的企業在法律領域有導入生成式AI的需求,Lawsnote目前有提供契約、法令遵循和法律研究領域的解決方案,與我們聯絡了解更多。

分享這篇文章

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *