AgentforceはLLMで、動いているわけではないですか
結論から言うと:✅ Agentforce は LLM を“使っている”が、すべてを LLM に依存して動いているわけではない
The Information の記事のポイントはまさにここで、 Salesforce は「LLM だけで自律エージェントを動かすのは危険」だと判断し始めている という内容です。🔍 Agentforce の構造(Salesforceが説明している方向性)
1. LLM は使う(自然言語理解・タスク分解など)
Agentforce には確かに GPT 系や Claude 系の LLM が使われています。- ユーザーの指示を理解
- タスクを分解
- 次に何をすべきかの候補を生成
2. ただし「アクション実行」「ワークフロー」は厳密なルールベース
Salesforce が今後強調しているのはここ。 企業の CRM や見積作成、カスタマーサポートでは、- 正確性
- 再現性
- 安全性
- コンプライアンス
🧩 Salesforce 幹部の主張(記事の核心)
The Information によると Salesforce 幹部は、「企業ユーザーは LLM の予測不能性に対する信頼を失い始めている」と述べていて、 “LLM だけで動く自律エージェント”は危険 という判断に傾いている。 つまり Agentforce の役割は:
✔ LLM:頭脳(考える/提案する)
✔ ルール・Flow:手足(決まった動作を確実に実行する)
というハイブリッド構造。🧠 まとめ
Agentforce = LLM を使うが LLM だけで動くわけではない。 むしろ LLM 依存を減らす方向に動いている。 企業業務では- 「完全自律AI」より
- 「LLM+ルールベースの安全な実行」を組み合わせた方式
必要なら:
- Agentforce のアーキテクチャ図(LLMとFlowの役割分担)
- Salesforce が恐れているリスクの整理
- 企業が LLM を安全に使うための設計パターン
LLM+ルールベースの安全な実行なら人による確認はなくてもいけそうですか?
結論から言うと:✅ **LLM+ルールベースでも “完全に人ゼロ” はまだ難しいが、
“人の確認頻度を劇的に減らす” ことは可能** Salesforce が今まさに向かっているのはこの方向です。🔍 なぜ「完全自動化」はまだ難しいのか?
理由は大きく 3つ あります。① LLM 部分は「誤読」「誤解釈」の可能性がゼロにならない
LLM は- 顧客意図の誤解
- 文脈読み違い
- 微妙な例外ケースの見落とし がごくわずかでも起こる。
② ルールベースは “想定外の例外” を扱えない
ルールは強いが、- 想定外の状況
- 新しい例外条件
- 部門ごとの特殊ルール などが出ると止まる。
③ コンプライアンス(監査)が「人の承認」を求めることが多い
金融・製造・医療・大学研究機関・行政などでは、 「人間が承認した」という記録が必要 というルールそのものが存在する。 AIの精度とは無関係に、法制度で人間承認が必要な場面が残る。🟩 では「LLM+ルールベース」でどこまで自動化できる?
🔵 1. 人間の確認を完全に省ける領域(例)
- FAQ返信(確定的な回答)
- CRMへのフィールド入力・コピー作業
- ログ分類
- 顧客の属性タグ付け
- 営業メールの下書き
- 過去履歴からのレポート生成
- 定型ワークフローの「自動実行」
🟡 2. 人間の “最終承認だけ” に減らせる領域
- 見積作成
- 優先度判断(High/Low判定)
- 顧客感情分析に基づく行動提案
- カスタマーサポートの一時対応
🔴 3. 人の判断が完全に不可欠な領域
- 新規クレーム対応(内容が初見)
- 契約変更や料金計算(法的制約)
- 高額な意思決定
- 調整が必要な交渉
🎯 結論(最適な運用像)
✔ 完全自動化できる部分 → 全て自動化
✔ リスクのある部分 → LLMが案を提示 → ルールベースが安全に実行 → 人が最終確認のみ
✔ 高リスク業務 → 人間が判断
つまり 「人ゼロ」ではなく「人1/10」まで減らす のが現実的で、 世界の大企業はこのアーキテクチャに向かっています。もし興味があれば…
- Salesforce Agentforce の最適アーキテクチャ図
- あなたの業務に当てはめた“どこまで自動化できるか診断”
- LLM を“誤解しないようにするプロンプト設計”





