コラム/トピックス

「判断するAI」 経費精算や設備保全の提案も…AIエージェントの自律性が企業を変える

[このコラムを書いた研究員]

土居英一
専門領域
倫理、AI
役職名
マネジャー上席研究員
執筆者名
土居 英一 Eiichi Doi,Ph.D.

2025.6.24

この記事の
流れ
  • 自律的なAIエージェントとは?
  • 自律的なAIエージェントが経費精算や部品交換の提案も?
  • AIエージェントの「自律性」に潜むリスクや課題は?
  • どうリスクに対応すべきか
  • 自律的なAIエージェントが企業の成長を加速する未来へ

日々の業務で「この仕事はAIに代わってもらえるのでは」と思ったことはありませんか?
申請書類の作成、設備点検の判断、問い合わせ対応、複数の工程を要する作業など、AIが自ら何をすべきか判断しつつ業務処理できたなら、格段に効率化が進むだろうと私自身よく考えます。
本コラムでは、今年、注目を集めている「自律的なAIエージェント」の、企業の導入例、自律性とは何か、どこまで任せてよいかなどについてお話しします。

①自律的なAIエージェントとは?

自律的なAIエージェントとは、単なる業務自動化を超えて、自ら目的を理解し、判断し、行動できるAIのことです。従来のAIやRPA※1は決められたルールに沿って動く「自動化ツール」の範囲を出ませんでしたが、現在の自律的なAIエージェントは、環境を把握し、タスクを組み立てて実行できるシステムになりつつあります。

生成AI

例えばOpenAIの「Operator」などは、旅行の手配やコードの作成といった複雑な作業を、ユーザーの指示を最小限にしながら自律的に行えるようです。いまやAIは単なる補助者でなく、ユーザーの代わりに自ら動いてくれる「パートナー」となる可能性まで秘めているかもしれません。

ただし、現在の自律的なAIエージェントは、あくまで部分的な自律性を有している段階です。人間の介入を完全に排除してタスクを遂行する「完全自律型のAI(Fully Autonomous AI)」は、まだ存在していないとされています。いま広く導入されているものは、状況に応じた判断の一部を担うもので、「自律的な能力を部分的に有する」という表現がより正確でしょう。

1)RPA:「Robotic Process Automation」の略で、人間がパソコンで行う業務をソフトウェアロボットが自動化する技術。定型的なバックオフィス業務や、データ入力、データ転記、レポート作成など、繰り返し行われる業務を自動化することで、生産性向上やコスト削減が期待できる。

②自律的なAIエージェントが経費精算や部品交換の提案も?

たとえば、A社では、設備保全を支援するAIエージェントを導入しています。センサーから収集された機器の振動データをもとに、「近いうちに故障の可能性あり」などと判断し、保全担当者に事前点検や交換などを提案します。結果として、ライン停止を回避でき、コストと時間の削減に成功したそうです。

B社では、経費精算にAIエージェントを導入しており、社員が領収書の画像をアップロードするだけで、AIエージェントが規定に照らしあわせた処理を実行します。違反の可能性があれば自動で上長に通知します。このようなAIエージェントの検討や導入が進みつつあります。

わたしが今年2月に大手製造業企業の経営者と雑談をしていた際、自律的なAIエージェントの話をすると、途端に眼の色が変わられてメモを取りはじめ、すぐにも導入を検討すると述べられました。現場感覚にあう、時宜を得たテーマだと再確認したのを覚えています。

③AIエージェントの「自律性」に潜むリスクや課題は?

しかし、すべてをAIエージェントに任せきってよいものでしょうか。

実際、最新の生成AIを使用しても、かなり精度が高まったとはいえ、いまだに自信に満ちた表現で事実無根な回答をするケースや、プロンプトの指示を守れないケースなどが少なくないことは読者の皆さまもご存知だと思います。つまり、正確性にまず不安が残ります。

もしも一定の精度で正確性の不安を排除できたとしても、自律的なAIエージェントが意思決定を担うこと自体にリスクが存在します。たとえば、売上最大化を目標とする自律的なAIエージェントが倫理的に問題のある広告戦略を選択してしまう場合などです。これは、AIエージェントにどの程度の自律性を持たせるかという課題です。

AIがなぜその判断をしたのか、判断根拠が不透明な「ブラックボックス問題」は以前から懸念される課題です。AIがなぜその結論に至ったのかを顧客等の第三者に説明できない状況では、結果に責任を持ちにくいため、業務での活用も限定的になります。

また、自律性が高まるほど「どの程度まで人間が関与すべきか」、「誤作動が起きたら誰が責任をとるのか」といった課題もあります。企業としての倫理観や責任のあり方まで問われうることも留意すべきです。

④どうリスクに対応すべきか

この問題に対し、「Explainable AI(説明可能なAI)」の開発・導入や、AIの意図と人間の意図を整合させる「価値観の調整(Value Alignment)」の研究などが進んでいます。どこまで人が関与すべきかについては、「Human in the Loop」※2「Human on the Loop」※3「Human out of the Loop」 ※4といった考え方を用いた議論などがされています。

AIに任せるべき業務と、人間が監督・判断すべき業務の切り分けも重要となるでしょう。導入前に社内の情報環境や業務フローを整理し、段階的に活用するといった工夫も必要となります。

2) Human in the Loop:日本語で「人間参加型AI」などと呼ばれるもので、AIシステムにおいて人間がAIの判断や制御プロセスに積極的に関与し、AIと人間が共同でシステムを構築・運用していく考え方。
3)Human on the Loop:AIシステムが自動的にデータ処理や意思決定を行うプロセスにおいて、人間が途中の段階で介入し、判断や修正を行う仕組み。
4)Human out of the Loop:全ての決定と操作をAIや自動プロセスが独立して行う、人間の介入が不要な自動化システム。

⑤自律的なAIエージェントが企業の成長を加速する未来へ

日経新聞社の報道※5によると、2030年から2039年の間に、自律的なAIエージェントの市場が数十兆円規模に達するとのことです。今後、完全自律型のAIエージェントの研究開発が進むにつれ、外部システムとの連携や継続的学習機能を持つなど、より高度に自律的となったAIエージェントが、経理、調達、人事、生産管理など、さまざまな業務に活用されるでしょう。さらに、自律的なAIエージェントを効率化ツールとして用いるにとどまらず、経営戦略の立案に組み込むことが、企業の競争力につながる時代も来るでしょう。

導入にあたり、各企業の業務特性や課題に慎重に考慮することは重要です。それを踏まえつつも、自社にどのような形で自律的なAIエージェントを取り入れるのか、まずもって検討し始めることが重要と考えます。

5)日本経済新聞(2024)「25年はAIエージェントが働く」2024年12月30日

あわせて読みたい

【RMFOCUS 基礎研レポート】第93号 律的なAIエージェント、LAWS、ADMの概要と自律性
https://rm-navi.com/search/item/2112

【コラム】AIが健康管理や投資戦略を立案する!? 生成AIの驚異的な進化と将来の姿とは
https://rm-navi.com/search/item/1956

【RMFOCUS 基礎研レポート】第77号 人工知能(AI)と課題(倫理問題を中心に)
https://rm-navi.com/search/item/499

【RMFOCUS 基礎研レポート】第85号 わが国の経済安全保障政策の動向
https://rm-navi.com/search/item/450

【RMFOCUS 基礎研レポート】第89号 セキュリティ・クリアランス制度 民間企業の活躍領域拡大へ
https://rm-navi.com/search/item/1673

【コラム】無形資産経営について考える
https://rm-navi.com/search/item/404

会員登録でリスクマネジメントがさらに加速

会員だけが見られるリスクの最新情報や専門家のナレッジが盛りだくさん。
もう一つ上のリスクマネジメントを目指す方の強い味方になります。

  • 関心に合った最新情報がメールで届く!

  • 専門家によるレポートをダウンロードし放題!

  • お気に入りに登録していつでも見返せる。