法律業務へのAI活用が急速に広がるなか、AIが下した判断や生成した文書の信頼性をどう担保するかが、業界全体の共通課題として浮上しています。こうした状況のなか、AI法務SaaS「AILEX」を提供するAILEX LLCが、IETFの仕様策定プロセスに「Verifiable AI Provenance(VAP)Framework and Legal AI Profile(LAP)」と題した国際標準草案(Internet-Draft)を提出しました。2026年3月2日付で公開されたこの草案は、高リスクなAIシステムにおける意思決定の監査証跡を暗号学的に検証可能にする仕組みを定めるものです。
AIの意思決定ログを「改ざんできない証拠」へ
VAPフレームワークの中核にあるのは、「ハッシュチェーンによる完全性保証」という考え方です。AIが行った判断の記録を連鎖的なハッシュ構造で保持し、事後的な改ざんや選択的なログ削除を技術的に防ぐ仕組みとなっています。加えて、RFC 3161のタイムスタンププロトコルやIETF SCITTなど既存のインターネット標準との連携も想定されており、単体の製品機能にとどまらず、オープンな技術基盤として設計されていることが伺えます。
準拠レベルはBronze・Silver・Goldの3段階に分けられており、組織の規模や要件に応じた段階的な採用を想定した設計になっています。また、規制当局への提出を想定した「Evidence Pack(証拠パック)」という標準化されたフォーマットも定義されており、監査対応のコストを軽減することを目指していると受け取れます。プライバシーを保ちながら第三者による検証を可能にする「プライバシー保護検証プロトコル」も含まれており、個人情報の取り扱いに敏感な法律業務の現実にも配慮した構成となっています。
法律AIに特化した「Legal AI Profile(LAP)」
VAPが汎用的な上位フレームワークであるのに対し、LAPは法律AIの固有要件に対応するために設計されたプロファイルです。特に重視されているのが、弁護士による最終判断の確認(Human Override Coverage)と、弁護士・依頼人間の秘匿特権(Attorney-Client Privilege)の保護です。
LAPでは、法律相談・文書生成・事実確認という3つのパイプラインそれぞれについて、ログの完全性を保証する仕組みが規定されています。記録がどの段階でも欠落しないよう「完全性不変条件(Completeness Invariant)」を定義しており、選択的なログ保存が技術的に不可能な構造を目指しています。司法上の証拠開示(Judicial Discovery)への対応として、コンテンツの保持期間と「Legal Hold(法的保全)」プロトコルも定義されており、訴訟対応のシナリオまで視野に入れた設計といえます。
生成AIが問う「説明責任」の技術的な解法
生成AIが法律業務に本格的に組み込まれるにつれ、従来のソフトウェアとは異なる課題が表面化しつつあります。それは「AIが何を根拠に、どのプロセスを経てその結論を出したか」を事後的に示す手段の不足です。人間が行った業務であれば、打ち合わせの記録や担当者の証言によって経緯を再現できますが、AIが介在した業務ではトレーサビリティの確保が技術的に難しくなります。
AILEXが草案として提示しているVAP/LAPは、この課題に「暗号学的な証明可能性」という形で応えようとするアプローチです。単に「ログを残す」だけでなく、そのログが改ざんされていないことを第三者が技術的に検証できる状態にすることを目指しています。これは、AI活用の信頼性議論が「倫理的なガイドライン」から「技術的な検証可能性」へと軸足を移しつつある近年の動向とも一致していると捉えられそうです。
ツール選定における「監査対応能力」という新しい軸
法人向けのAIツール導入を検討する立場からは、こうした動きは選定基準の変化として意識しておく価値があるかもしれません。従来のSaaS選定では、機能の充実度や操作性、コストが主要な評価軸でした。しかし、AI規制の整備が各国で進むなかでは、「AIの判断過程を記録・証明できるか」という監査対応能力が、とりわけリスクの高い業務領域において重要な評価軸の一つになっていく可能性があります。
現時点ではVAP/LAPはIETFの審査を経た標準ではなく、あくまでも一つの草案です。ただし、こうした技術仕様が国際標準への議論の俎上に乗り始めていること自体、業界の関心がどこに向かっているかを示すものとして注目しておくのが自然でしょう。
まとめ
AILEX LLCによるVAP/LAPの草案提出は、AI法務ツールの信頼性を技術標準として定義しようとする取り組みとして注目されます。法律業務という高リスク領域でのAI活用が広がるなか、意思決定の透明性と事後的な検証可能性を担保する仕組みへの関心は今後も一層高まっていくと考えられます。IETF標準化の行方とあわせて、法律AI全体の設計思想がどのように変化していくか、引き続き注視していく必要がありそうです。

