ブログ
AIエージェントの法的留意点
2025.01.31
AIエージェントとは
AIエージェントは、自動でタスクを実行するシステムです。生成AIの発展以前から存在していましたが、従来は利用範囲が限定的でした。
その後、膨大なデータに基づいて学習し、多様なタスクを実行できる基盤モデルの発展によって、生成AIの実用化が進みました。その結果、ChatGPTやClaudeなどのサービスが急速に普及してきました。AIエージェントも、その基盤モデルを用いることで、特定の目標を達成するために複雑なタスクを自動で適切に実行できるようになると期待されています。AIエージェントについては、既に実用化に向けた構想も始まっています。[i]
AIエージェントと一口に言っても、さまざまなシステムが想定されます。例えば、AIエージェントでは、一定のワークフローに従って基盤モデルが動くようなシステムのものや、複数の基盤モデルがどのように目標を達成するかを判断してそれぞれに指示を出しながら動くようなシステムが考えられます。[ii]一般的には、前者のシステムのように、単一の基盤モデルに一定のデータセットを参照させるなどの拡張機能を加えることで十分なことが多いようです。[iii]しかし、後者のシステムを構築する場合には、複数の基盤モデルがそれぞれ役割を与えられて、それぞれが判断を行うことも想定されます。その結果、複数の基盤モデルが同時に利用される場合も考えられます。
本記事では、生成AIの基盤モデルに基づくAIエージェント(以下、単に「AIエージェント」といいます。)を想定して、法的な観点から、生成AIとの相違点について概観します。
AIエージェントと開発
AIエージェントを開発する主体としては、AIエージェントに関する権利関係を検討する必要があります。
まず、知的財産の関係では、従来から、AIを利用した技術は、特許発明や営業秘密に当たる可能性があり、どのように知財として保護するかの検討が行われてきています。
AIエージェントも、基盤モデルを動かすシステムであり、AIを利用した技術の一つです。このようなシステムは、特許発明や営業秘密、著作物になる可能性があります。
そのため、AIエージェントを開発する主体としては、知財戦略を検討することが考えられます。ただし、AIエージェントの開発のために、Dify[iv]のような開発プラットフォームを利用する場合には、知財戦略を検討する前提として、当該プラットフォームの利用規約等の利用条件において、知的財産権の帰属がどのように定められているかを確認する必要があります。
また、AIエージェントの開発に当たって、他者と共同開発を行うことも多いと考えられます。その場合には、共同開発契約において、開発するシステムに関連する知的財産の権利帰属及び利用条件をはじめ、請負か準委任かという契約形態の問題や、開発に用いるデータやデータセットの権利帰属及び利用条件について検討する必要があります。この点については、「AI・データの利用に関する契約ガイドライン」[v]等が参考になります。
さらに、不特定多数のユーザ向けのAIエージェントを開発するに当たっては、利用規約をどのように定めるかについて検討する必要があります。利用規約に関しては、現在、経済産業省の「AI利活用に伴う契約時の留意事項検討会」において、上記の共同開発の場合も含めて、チェックリスト方式で留意点を策定することが検討されています。[vi]
AIエージェントとアウトプット
AIエージェントは、特定の目標を達成するために、一定のタスクを順次実行します。その過程で、AIエージェントによるアウトプットが行われることがあると考えられます。例えば、レストラン予約のAIエージェントであれば、レストランを予約するという目標を達成する中で、レストランに空席状況を確認するというタスクの実行に際し、レストランに対して連絡するというアウトプットを行うことが想定されます。
アウトプットについては、生成AIの利用時に留意すべき点と同様に、誤情報が含まれないか、差別的表現が含まれないか、営業秘密が含まれないか、個人情報が含まれていないか、第三者の著作権を侵害しないかなど、アウトプットに本来含まれるべきでない情報が含まれていないかが問題となります。
AIエージェントが生成AIと異なる大きな特徴は、AIエージェントは、自動でタスクを実行するため、人間の判断を経ずに、アウトプットを行う可能性がある点です。もし本来含まれるべきでない情報が含まれたままアウトプットが行われると、法的な問題が生じてしまいます。このような問題に対処するために、現在、実用化されているほとんどのAIエージェントは、「ガードレール」を設定しており、問題となるアウトプットが自動で行われることのないような制限を設けることができるとのことです。[vii]
AIエージェントは、取り扱う情報や仕組みなど、多様な組合せが考えられ、組合せの内容によって、リスクの内容及び程度は異なるため、どのような制限を設けるべきかについて、単純化することは困難です。そこで、リスクベースアプローチの考え方に基づき、具体的なAIエージェントを想定したうえで、アウトプットによるリスクを整理して検討する必要があります。
AIエージェントとインプット
AIエージェントでは、基盤モデルに対してインプットが行われます。例えば、レストラン予約のAIエージェントであれば、レストランを予約するという目標を達成する中で、利用者の好みの情報などを踏まえ、生成AIの基盤モデルに対しておすすめのお店を出力するためのプロンプト(指示)を自動で入力するというインプットを行うことが想定されます。
インプットについては、生成AIの利用時に留意すべき点と同様に、個人情報や営業秘密、第三者の著作物などが問題となります。AIエージェントと生成AIの違いとしては、アウトプットだけでなくインプットの面でも、人間の関与が省略される可能性がある点が挙げられます。生成AIでは、人間が自らプロンプト(指示)を入力するため、インプットには人間の判断が介在します。その一方で、AIエージェントでは、人間の判断を経ずに、自動的にインプットが行われることがあります。
個人情報や営業秘密のインプットについては、基盤モデルの利用環境によって、個人情報であれば、第三者提供に当たり、原則として本人の同意なくインプットを行うことができないという問題や、営業秘密については、インプットによって秘密管理性が否定され、営業秘密としての保護が失われるという問題があります。特に、AIエージェントでは、生成AIと異なり、複数の基盤モデルを利用する場合もあるため、それぞれの利用環境が問題になります。
第三者の著作物のインプットについては、複製に当たり、著作権侵害となる可能性があります。
このような問題に対処するためには、アウトプットと同様に、リスクベースアプローチの考え方に基づき、具体的なAIエージェントを想定したうえで、インプットによるリスクを整理して検討する必要があります。
AIエージェントと不法行為・倫理
AIエージェントの中でも、複数の基盤モデルがどのように目標を達成するかを判断して動くようなシステムにおいては、生成AIと比較して、最終的なアウトプットまでの過程がより不明瞭になる可能性があります。「AI事業者ガイドライン(第1.01版)」において、透明性やアカウンタビリティが共通の指針として掲げられているように[viii]、どのように透明性やアカウンタビリティを確保していくかを検討する必要があります。
また、AIエージェントとアウトプットの項目で述べたように、AIエージェントが自動でアウトプットを行う中で、差別的な言動や差別的な取扱いを行った場合には、不法行為として問題になる可能性がありますし、倫理上の問題が生じることになります。
これらの問題についても、アウトプット及びインプットと同様に、リスクベースアプローチの考え方に基づき、具体的なAIエージェントを想定したうえで、リスクを整理して検討する必要があります。
まとめ
本記事では、法的観点から、生成AIとの相違点について概観しました。
AIエージェントは、生成AIと比較して、自動でタスクが実行されるうえ、システムの構成も多様であると考えられるため、法的リスクの形態も幅広くなります。したがって、実際に開発又は利用するAIエージェントの具体的な構成を想定したうえで、リスクを検討していく必要があります。
今後は、上記で述べた項目について、より掘り下げた内容を発信していきます。
[i] 日経ビジネス2025年1月27日号14頁等
[ii] Building effective agents, Anthropic (December 20, 2024),https://www.anthropic.com/research/building-effective-agents
[iii] 同上
[iv] https://dify.ai/jp
[v] 経済産業省「リアルデータの共有・利活用」(https://www.meti.go.jp/policy/mono_info_service/connected_industries/sharing_and_utilization.html)
[vi] 経済産業省「AI利活用に伴う契約時の留意事項検討会」(https://www.meti.go.jp/shingikai/mono_info_service/ai_utilization/index.html)
[vii] 日経ビジネス2025年1月27日号21頁
[viii] 総務省及び経済産業省「AI事業者ガイドライン(第1.01版)」18-20頁(https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html)
Member
PROFILE