https://www.theinformation.com/articles/salesforce-executives-say-trust-generative-ai-declined?utm_source=ti_app&rc=01qtpq

AgentforceはLLMで、動いているわけではないですか

  結論から言うと:

Agentforce は LLM を“使っている”が、すべてを LLM に依存して動いているわけではない

The Information の記事のポイントはまさにここで、 Salesforce は「LLM だけで自律エージェントを動かすのは危険」だと判断し始めている という内容です。

🔍 Agentforce の構造(Salesforceが説明している方向性)

1. LLM は使う(自然言語理解・タスク分解など)

Agentforce には確かに GPT 系や Claude 系の LLM が使われています。
  • ユーザーの指示を理解
  • タスクを分解
  • 次に何をすべきかの候補を生成
こういう部分は LLM。

2. ただし「アクション実行」「ワークフロー」は厳密なルールベース

Salesforce が今後強調しているのはここ。 企業の CRM や見積作成、カスタマーサポートでは、
  • 正確性
  • 再現性
  • 安全性
  • コンプライアンス
が絶対に必要。 LLM だけだとランダム性があり「ときどき変な行動をする」ため、 ➡ 業務の最終アクションは LLM に任せず、ルールベースのワークフローに強く依存させるべき という方向に変わってきている。

🧩 Salesforce 幹部の主張(記事の核心)

The Information によると Salesforce 幹部は、
「企業ユーザーは LLM の予測不能性に対する信頼を失い始めている」
と述べていて、 “LLM だけで動く自律エージェント”は危険 という判断に傾いている。 つまり Agentforce の役割は:

✔ LLM:頭脳(考える/提案する)

✔ ルール・Flow:手足(決まった動作を確実に実行する)

というハイブリッド構造

🧠 まとめ

Agentforce = LLM を使うが LLM だけで動くわけではない。 むしろ LLM 依存を減らす方向に動いている。 企業業務では
  • 「完全自律AI」より
  • 「LLM+ルールベースの安全な実行」を組み合わせた方式
が主流になるというのが、この記事のメッセージです。
必要なら:
  • Agentforce のアーキテクチャ図(LLMとFlowの役割分担)
  • Salesforce が恐れているリスクの整理
  • 企業が LLM を安全に使うための設計パターン
なども作れます。  

LLM+ルールベースの安全な実行なら人による確認はなくてもいけそうですか?

  結論から言うと:

✅ **LLM+ルールベースでも “完全に人ゼロ” はまだ難しいが、

“人の確認頻度を劇的に減らす” ことは可能** Salesforce が今まさに向かっているのはこの方向です。

🔍 なぜ「完全自動化」はまだ難しいのか?

理由は大きく 3つ あります。

① LLM 部分は「誤読」「誤解釈」の可能性がゼロにならない

LLM は
  • 顧客意図の誤解
  • 文脈読み違い
  • 微妙な例外ケースの見落とし がごくわずかでも起こる。
例: 「解約をキャンセルしたい」という顧客の文章 → LLM が「解約したい」と誤読してしまうケース。 ルールで実行部分を安全化しても、“指示の意図解釈” がズレると事故になる。

② ルールベースは “想定外の例外” を扱えない

ルールは強いが、
  • 想定外の状況
  • 新しい例外条件
  • 部門ごとの特殊ルール などが出ると止まる。
これは 銀行・保険・SaaS のような複雑業務ほど顕著。

③ コンプライアンス(監査)が「人の承認」を求めることが多い

金融・製造・医療・大学研究機関・行政などでは、 「人間が承認した」という記録が必要 というルールそのものが存在する。 AIの精度とは無関係に、法制度で人間承認が必要な場面が残る。

🟩 では「LLM+ルールベース」でどこまで自動化できる?

🔵 1. 人間の確認を完全に省ける領域(例)

  • FAQ返信(確定的な回答)
  • CRMへのフィールド入力・コピー作業
  • ログ分類
  • 顧客の属性タグ付け
  • 営業メールの下書き
  • 過去履歴からのレポート生成
  • 定型ワークフローの「自動実行」
ここはすでに 95〜100% 人なしで運用可能 です。

🟡 2. 人間の “最終承認だけ” に減らせる領域

  • 見積作成
  • 優先度判断(High/Low判定)
  • 顧客感情分析に基づく行動提案
  • カスタマーサポートの一時対応
LLM が下準備 → 人が確認するだけ 作業時間を 70〜90% 削減 できます。

🔴 3. 人の判断が完全に不可欠な領域

  • 新規クレーム対応(内容が初見)
  • 契約変更や料金計算(法的制約)
  • 高額な意思決定
  • 調整が必要な交渉
ここは AI の“意図解釈の誤差”がリスクになるため 完全自動化は現時点では非推奨

🎯 結論(最適な運用像)

✔ 完全自動化できる部分 → 全て自動化

✔ リスクのある部分 → LLMが案を提示 → ルールベースが安全に実行 → 人が最終確認のみ

✔ 高リスク業務 → 人間が判断

つまり 「人ゼロ」ではなく「人1/10」まで減らす のが現実的で、 世界の大企業はこのアーキテクチャに向かっています。

もし興味があれば…

  • Salesforce Agentforce の最適アーキテクチャ図
  • あなたの業務に当てはめた“どこまで自動化できるか診断”
  • LLM を“誤解しないようにするプロンプト設計”
も作成できます。