ブログ
AIエージェントの法的留意点 AIエージェントと開発① ―経済産業省「AIの利用・開発に関する契約チェックリスト」について―
2025.03.05
はじめに
前回のブログでは、今後発展が見込まれるAIエージェント(以下、生成AIの基盤モデルを用いたAIエージェントを単に「AIエージェント」といいます。)について、法的留意点を概観しました。
AIエージェントは、人間の操作を介することなく、自動でタスクを実行するシステムで、基盤モデルの発展によって、複雑なタスクを自動で適切に実行できるようになると期待されています。
OpenAIの創業者であるサム・アルトマン氏が「2025年にはAIエージェントが労働力として加わり、企業のアウトプットに大きな変化をもたらす」と述べたように[i]、今後、AIエージェントの実用化が進むことが予想されます。AIエージェントは、さまざまな種類のものが想定され、企業がAIエージェントの開発を行う機会も増大していくと考えられます。
そこで、本記事では、AIエージェントと開発について深掘りして検討します。AIの開発については、先日、経済産業省が「AIの利用・開発に関する契約チェックリスト」(以下「本チェックリスト」)を取りまとめましたので[ii]、本記事では、特に、AIエージェントの開発と本チェックリストの関係について説明します。
本チェックリストの概要
本チェックリストは、AI技術を用いたサービスを利用する際の契約実務に関し、以下のような懸念が挙げられていたことから、AI利用の実務経験にかかわらず参照できるチェックリストとして、契約実務において検討すべき事項を取りまとめたものです。[iii]
- AIの利用に関する契約に伴う法的なリスクを十分に検討できていない可能性
- 保護されるべきデータや情報が予期せぬ目的に利用され、また第三者に提供される等、 想定外の不利益を被る可能性
本チェックリストでは、AIシステムの開発を伴わず、既存のAIサービスを利用する契約類型(利用型契約)と、何らかのシステムの開発を伴う契約類型(開発型契約)とに分類しています。[iv]その上で、AI関連サービスの利用においては、インプットがされて、アウトプットが行われること、インプットする情報を加工して、学習用データ等の処理成果を創出したり、アウトプットされたものを加工して、処理成果を創出することもあることから、以下の表1のとおり、インプット、アウトプット、インプット処理成果、アウトプット処理成果という観点から、以下の表2のとおり、契約条件を分析することを推奨しています。[v]
(表1)
定義 |
情報の内容 |
インプット |
プロンプト、学習用の生データ 等 |
アウトプット |
分析結果・コンテンツ等のAI生成物、AIシステム等の成果物 等 |
インプット処理成果 |
学習用データ、中間生成物、派生的知的財産 等 |
アウトプット処理成果 |
AI関連サービスが出力するコンテンツを自ら加工したもの 等 |
(表2)
検討事項 |
インプットにおける検討 |
アウトプットにおける検討 |
特定 |
インプットする情報として具体的に何を想定するかを検討 |
アウトプットとして具体的に何を想定するかを検討 |
提供 |
インプットの提供範囲、提供義務等を検討 |
アウトプットの完成義務、提供義務等を検討 |
使用・利用 |
インプットの使用条件、目的、範囲等を検討 |
アウトプットの使用条件、目的、範囲等を検討 |
外部提供 |
インプットの第三者への提供可否、提供可能な場合の条件等を検討 |
アウトプットの第三者への提供可否、提供可能な場合の条件等を検討 |
権利帰属 |
インプットの権利帰属を検討 |
アウトプットの権利帰属を検討 |
本チェックリストでは、インプット処理成果及びアウトプット処理成果についても、インプット及びアウトプットに準じて取扱いをチェックすることが重要であるとされていますが[vi]、インプット処理成果は、インプットとしての性質だけではなく、アウトプットとしての性質も有するため、両面からの検討が必要であると考えられます。
その上で、本チェックリストでは、特に注意が必要な場合として、以下の場合などが挙げられています。[vii]
- インプットを提供する際に、対価なしでその知的財産権等をベンダに移転することが契約条件に定められている場合
- アウトプットの商業利用を目的としているのに、契約上そのような利用が禁止又は制限されているような場合
- アウトプットについて、第三者の知的財産権等の権利侵害のリスク、バイアスや不正確な回答等が見られるなど、アウトプットを利用できない場合
一つ目と二つ目の注意点については、契約条項を修正することで対応することができます。その一方で、三つ目の注意点は、事前にアウトプットに問題があることを認識し、又は予測することができる場合には、そもそも契約の締結を断念する事情になり得る事項です。ただし、開発型契約の場合には、アウトプットの問題を、事前に認識し、又は予測することはできないことが多いと考えられます。このような場合には、アウトプットに問題が生じた場合のユーザとベンダとの間のリスク分配を検討し、必要に応じて契約条項に落とし込む必要があります。
また、本チェックリストは、全体的な留意点として、チェックリストでリスクを指摘しているからといって、直ちに条項を是正することや、契約締結を断念することを推奨するものではなく、個別のユーザが置かれた具体的な状況に依拠し、以下の各要素を含む事情を総合的に考慮して判断することが必要としています。[viii]
- ベンダにより提供されるAI関連サービスの内容
- 契約の形態(利用規約又は個別契約)
- 契約文言を受け入れることによるリスク
- 契約上の各義務の履行可能性
- AIの利用目的に照らした代替サービス及び代替手段の有無
- 契約交渉に必要な労力
- 契約外(実運用等)の方法によるリスク低減の可否
上記は、重要な指摘であって、契約交渉においては、リスクがあるとしても、そのリスクの程度を踏まえて、具体的な状況に即して判断する必要があります。特に、利用型契約では、サービス提供側は、基本的に多数のユーザと画一的な契約を締結することを想定しており、契約条件の修正等には応じないことが多いと考えられるため、本チェックリストが指摘するとおり、契約条件を所与の前提として、運用を工夫して、AIの利用を進めることが合理的な場合もあります。[ix]
AIエージェントの開発と本チェックリスト
AIエージェントの開発は、AIを利用したシステムを開発するものであるため、本チェックリストにおいては、開発型契約に分類されるものです。そのため、AIエージェントの開発においても、本チェックリストで指摘されている以下の懸念[x]が当てはまり、十分なリスク分析が必要になります。
- AIの利用に関する契約に伴う法的なリスクを十分に検討できていない可能性
- 保護されるべきデータや情報が予期せぬ目的に利用され、また第三者に提供される等、 想定外の不利益を被る可能性
具体的なリスク分析においては、本チェックリストが参考になりますが、AIエージェントは、特定の目標を達成するために、一定のタスクを順次実行します。その過程において、AIエージェントは、人間の直接的な判断を経ることなく、独自の判断でアウトプットを行う可能性があります。
このように独自の判断でアウトプットが行われた場合に、そこに不適切な情報が含まれていると、法的な問題が生じる可能性があります。そのため、「ガードレール」として、問題となるアウトプットが自動で行われることのないような制限について検討する必要があります。[xi]そこで、AIエージェントの開発においては、どの程度の粒度・方法で行うかも含めて、「ガードレール」に関する合意について検討する必要があります。また、一般のAIの開発型契約と比較して、アウトプットが自動で行われる場合には、アウトプットによって第三者の権利侵害等が生じた場合に備えて、アウトプットに問題が生じた場合のユーザとベンダとの間のリスク分配を検討し、必要に応じて契約条項に落とし込む必要性が高まります。
また、AIエージェントの開発は、何らかの既存の基盤モデルを用いて、新たなシステムを開発することが多いと想定されます。本チェックリストにおいても、特にベンダがユーザに対してユーザ向けに改良・調整したAIサービスを提供するカスタマイズ型の契約では、第三者が提供する汎用的AIサービスを組み込んでいるケースが想定されています。[xii]本チェックリストでは、このようなケースにおいて、第三者がベンダを介して提供するAIサービスに関する利用規約等についても、確認することが考えられると指摘されています。[xiii]AIエージェントにおいては、一般のカスタマイズ型と異なり、第三者の提供する基盤モデルについて、単一の基盤モデルだけではなく、複数の基盤モデルを利用する場合があります。複数の基盤モデルを利用する場合には、検討対象となる利用規約等も複数となり、一般のAIの開発型契約と比較しても、検討事項がより複雑化します。
まとめ
本記事では、特に、AIエージェントの開発と本チェックリストの関係について検討しました。
本チェックリストは、AIエージェントの開発においても参考にできるものであり、本チェックリストで重要な事項として指摘されている点は、そのままAIエージェントの開発にも当てはまります。
今後、AIエージェントの活用が進むにつれ、法的課題もより明確になっていくと考えられます。次回以降は、具体的な事例を想定して、AIエージェントの開発におけるリスクや留意点、対応策について更に掘り下げて検討します。
以上
[i] “We believe that, in 2025, we may see the first AI agents ‘join the workforce’ and materially change the output of companies.” Sam Altman, Reflections, Jan. 6, 2025 (https://blog.samaltman.com/reflections).
[ii] 経済産業省「AIの利用・開発に関する契約チェックリスト」(2025年2月)(https://www.meti.go.jp/press/2024/02/20250218003/20250218003.html)
[iii] 前掲注ii)2-3頁
[iv] 前掲注ii)8頁
[v] 前掲注ii)10頁
[vi] 前掲注ii)10頁
[vii] 前掲注ii)26頁
[viii] 前掲注ii)24頁
[ix] 前掲注ii)25頁
[x] 前掲注ii)2-3頁
[xi] 日経ビジネス2025年1月27日号21頁
[xii] 前掲注ii)25頁
[xiii] 前掲注ii)25頁
Member
PROFILE