📉 Salesforce幹部:生成AIへの信頼が低下
概要 Salesforceの経営陣は、企業向けAIの信頼性に対する顧客の信頼感が低下していると報告しています。これは同社のAI製品「Agentforce」への依存の仕方を見直す動きにつながっています。(LinkedIn) 背景- 過去1年でSalesforceはLLM(大規模言語モデル)を軸としたAI機能強化を強調してきたが、実際には同技術の**「予測不可能性・不確実性」**が課題として浮上しているとのこと。(LinkedIn)
- そのため、Agentforceを完全にLLMへ依存させるのではなく、より予測可能で信頼性の高い方法へのシフトが検討されています。(LinkedIn)
- ジェネレーティブAIは本質的にランダム性を持つため、静的な企業ワークフローや業務プロセスと相性が良くないとの指摘が出ています。(LinkedIn)
- これに伴い、「AIに任せる=常に正確に動く」といった期待が実際の挙動とズレ、信頼感の毀損につながっている可能性が示唆されています。(LinkedIn)
- Salesforceのような大規模CRMベンダーがこうした認識を示す背景には、企業でのAI導入が進む一方で 信頼性・信頼感のギャップが拡大している現実 があると見られます。(LinkedIn)
必要なら「信頼低下の具体的な理由」「Salesforce Agentforce の今後の戦略」など、さらに詳細なポイントも整理できます。要望があれば教えてください。
AgentforceはLLMで、動いているわけではないですか
結論から言うと:✅ Agentforce は LLM を“使っている”が、すべてを LLM に依存して動いているわけではない
The Information の記事のポイントはまさにここで、 Salesforce は「LLM だけで自律エージェントを動かすのは危険」だと判断し始めている という内容です。🔍 Agentforce の構造(Salesforceが説明している方向性)
1. LLM は使う(自然言語理解・タスク分解など)
Agentforce には確かに GPT 系や Claude 系の LLM が使われています。- ユーザーの指示を理解
- タスクを分解
- 次に何をすべきかの候補を生成
2. ただし「アクション実行」「ワークフロー」は厳密なルールベース
Salesforce が今後強調しているのはここ。 企業の CRM や見積作成、カスタマーサポートでは、- 正確性
- 再現性
- 安全性
- コンプライアンス
🧩 Salesforce 幹部の主張(記事の核心)
The Information によると Salesforce 幹部は、「企業ユーザーは LLM の予測不能性に対する信頼を失い始めている」と述べていて、 “LLM だけで動く自律エージェント”は危険 という判断に傾いている。 つまり Agentforce の役割は:
✔ LLM:頭脳(考える/提案する)
✔ ルール・Flow:手足(決まった動作を確実に実行する)
というハイブリッド構造。🧠 まとめ
Agentforce = LLM を使うが LLM だけで動くわけではない。 むしろ LLM 依存を減らす方向に動いている。 企業業務では- 「完全自律AI」より
- 「LLM+ルールベースの安全な実行」を組み合わせた方式
必要なら:
- Agentforce のアーキテクチャ図(LLMとFlowの役割分担)
- Salesforce が恐れているリスクの整理
- 企業が LLM を安全に使うための設計パターン
LLM+ルールベースの安全な実行なら人による確認はなくてもいけそうですか?
結論から言うと:✅ **LLM+ルールベースでも “完全に人ゼロ” はまだ難しいが、
“人の確認頻度を劇的に減らす” ことは可能** Salesforce が今まさに向かっているのはこの方向です。🔍 なぜ「完全自動化」はまだ難しいのか?
理由は大きく 3つ あります。① LLM 部分は「誤読」「誤解釈」の可能性がゼロにならない
LLM は- 顧客意図の誤解
- 文脈読み違い
- 微妙な例外ケースの見落とし がごくわずかでも起こる。
② ルールベースは “想定外の例外” を扱えない
ルールは強いが、- 想定外の状況
- 新しい例外条件
- 部門ごとの特殊ルール などが出ると止まる。
③ コンプライアンス(監査)が「人の承認」を求めることが多い
金融・製造・医療・大学研究機関・行政などでは、 「人間が承認した」という記録が必要 というルールそのものが存在する。 AIの精度とは無関係に、法制度で人間承認が必要な場面が残る。🟩 では「LLM+ルールベース」でどこまで自動化できる?
🔵 1. 人間の確認を完全に省ける領域(例)
- FAQ返信(確定的な回答)
- CRMへのフィールド入力・コピー作業
- ログ分類
- 顧客の属性タグ付け
- 営業メールの下書き
- 過去履歴からのレポート生成
- 定型ワークフローの「自動実行」
🟡 2. 人間の “最終承認だけ” に減らせる領域
- 見積作成
- 優先度判断(High/Low判定)
- 顧客感情分析に基づく行動提案
- カスタマーサポートの一時対応
🔴 3. 人の判断が完全に不可欠な領域
- 新規クレーム対応(内容が初見)
- 契約変更や料金計算(法的制約)
- 高額な意思決定
- 調整が必要な交渉
🎯 結論(最適な運用像)
✔ 完全自動化できる部分 → 全て自動化
✔ リスクのある部分 → LLMが案を提示 → ルールベースが安全に実行 → 人が最終確認のみ
✔ 高リスク業務 → 人間が判断
つまり 「人ゼロ」ではなく「人1/10」まで減らす のが現実的で、 世界の大企業はこのアーキテクチャに向かっています。もし興味があれば…
- Salesforce Agentforce の最適アーキテクチャ図
- あなたの業務に当てはめた“どこまで自動化できるか診断”
- LLM を“誤解しないようにするプロンプト設計”
Salesforce has undergone a major transition in how it has marketed its AI, which Benioff used to say was a cinch to set up. Some Agentforce customers this year have encountered technical glitches known as hallucinations, for instance, though the company said the product is improving and growing quickly. (One of only a handful of major companies reporting AI-specific revenue, Salesforce says Agentforce is currently on track to generate more than $500 million in revenue annually.) どういう感覚ですか?
以下の英文が伝えている “感覚・ニュアンス” を、わかりやすく噛み砕いて説明します。🎨 この文章が持っている「感覚」= Salesforce の “AI現実路線へのシフト感”
この一文には、次の 3つのニュアンス が強く含まれています。① 「以前は簡単にできると言っていたのに…現実はそう甘くなかった」感
Benioff used to say it was a cinch to set up. 以前は「簡単にセットアップできる」とベニオフは言っていた。→ 今読むと “簡単ではなかったんだな…” という皮肉・現実味のある雰囲気。 つまり、 ✔ セールストーク → ✔ 現実の複雑さ への落差を示している。
② 「実際には幻覚(hallucination)などの問題が出ている」感
Some Agentforce customers … encountered hallucinations→ 実利用の中で “不安定さ・誤動作・AIの変な回答” が出ていることを暗に示す。 これは “AIは魔法じゃない、ちゃんと問題が起きている” という冷静なトーン。
③ 「にもかかわらず、ビジネスとしては伸びている」感
improving and growing on track to generate more than $500 million in revenue annually→ 技術課題はあるが、 ✔ 売上はしっかり伸びている ✔ 市場では高い需要がある という“現実的な成功” つまり、 「問題はある。でも儲かっているし、実用化は進んでいる」 という 複雑な感情混じりのニュアンス。
🧩 全体としての「感覚」を一言で言うと?
✔「AIは簡単だと言っていたが、実際は難しく課題もある。
しかし市場では売れており、現実的な落としどころで成長している」 という “冷静な現実路線” のトーン マーケティングの夢と、現実の技術的課題、 そしてビジネスとしての成功が、 混ざった肌触り の文章です。必要なら:
- この段落全体を「日本語の自然な翻訳」に再構成
- Benioff の過去の発言/現在の戦略との対比
- Salesforce の AI戦略の“理想 → 現実” の流れ
RAGが効果的ですか?
結論から言うと:✅ **RAG は「用途によっては非常に効果的」、
でも「万能ではない」 というのが現在の最も正確な評価です。** Salesforce の文脈やあなたが取り組んでいるような実務システムでも、 RAG(Retrieval-Augmented Generation)は役立つ場面と限界がはっきりあります。🔵 RAG が“とても効果的”なケース
1. 正確な情報が必要な業務(CRM、サポート、FAQ)
- 顧客データ
- プロダクト仕様
- 社内ナレッジ
- 契約情報
- 作業手順書
→ 「AIが勝手に作り話(幻覚)をする」問題を大幅に減らせる。
2. 大量の社内情報を検索・要約させたい場合
- 文書上の回答を正確に抜き出せる
- 最新情報に追従できる
- モデル更新不要(ドキュメント差し替えだけでOK)
3. ルールベースのワークフローと組み合わせる場合(Agentforce-type)
Salesforce がいま実際にやっている方向です。- RAGで「正しいデータ」を読み込ませ
- LLMは“判断・説明”だけ
- 実行はルールベースで安全に
🔴 逆に、RAG があまり効果を出せない領域
1. 推論・計画・創造性が中心の仕事
例:- 戦略立案
- 新規製品アイデア
- 論理的推論
- 数学的問題
- チャットボットのフリートーク
2. ドキュメントに答えが存在しない場合
➡ 「存在しない事実」を補うことはできない。 (RAG が万能でない理由)3. 情報の粒度が細かすぎる場合
- IoT センサーのリアルタイム数値
- 社内DBのSQLクエリ
- 数万ページの技術仕様からミスなく抽出したい場合
🧠 Salesforce が RAG をどう見ているか(記事文脈の解釈)
Salesforce は Agentforce に RAG を強く使っている側ですが、 記事とか幹部発言の方向性を見ると、✔ “LLM単独は危険”
✔ “RAG+ルールベース(FlowやAutomation)” は現実的
✔ “意図解釈ミス対策がまだ弱い”
というスタンス。 つまり 「RAGは効果的だけど、それだけで完全自動化はできない」 という極めて現実的な姿勢になっています。🎯 最終結論
✔ RAG は企業業務で最も効果を発揮する技術の1つ
✔ 幻覚は大きく減る
✔ ただし“自律判断”はまだ人の監督 or ルールベースが必要
✔ LLMだけでなくワークフローと組み合わせると最強
もしよければ:
- あなたの用途に合わせた RAG 構成の設計図
- RAG が有効かどうかの診断(用途別)
- RAG × 自動化(Salesforce風のアーキテクチャ)
The spokesperson added that the help agent is “resolving more customer issues than ever,” with the number of resolved conversations projected to rise 90% in the fiscal year that ends in late January. “We have gotten more intentional about where and how we use an LLM in that experience,” he said. どういう意味ですか?
以下の英文が伝えている “意味・ニュアンス” を、ビジネス文脈も含めてわかりやすく解説します。🧩 原文の意味(分解して説明)
① “help agent はこれまで以上に多くの顧客問題を解決している”
the help agent is “resolving more customer issues than ever,” with the number of resolved conversations projected to rise 90%➡ Salesforce の AI 支援エージェント(Agentforce 系)は 「顧客対応の解決件数が過去最高」 になっている。 さらに、 ➡ 解決された会話数は前年比で +90%(約2倍)に増える見込み つまり、実稼働では 成果が大きく伸びている という主張。
② “LLM をどこでどう使うかを、より意図的に(慎重に)した”
We have gotten more intentional about where and how we use an LLM直訳すると 「LLM をどこでどう使うかについて、以前より意図的(慎重・戦略的)になった」 ニュアンスとしては:
✔ LLM を何にでも使うのではなく
✔ 使う場所と使い方を選び、最適化した
✔ その結果、AIの精度と成果が高まった
という意味。 これは Salesforce が最近強調している “LLM万能論からの現実路線へのシフト” と一致している。🎨 全文の日本語ニュアンスまとめ
以下のような感覚です:**「AI支援エージェントはこれまで以上に多くの顧客問題を解決できるようになっており、
対応完了件数は今年度だけで約90%も増える見込みだ。 これは、LLM の使いどころをより慎重に選び、 効果が出る場面に絞って利用するようになった成果である。」**🔍 Salesforce が暗に言っていること
- LLM をむやみに使うと失敗する(幻覚・暴走のリスク)
- 使う“領域”と“方法”を正しく設計すると成果が爆発的に伸びる
- Agentforce はその方向に改善し、実際の顧客対応で成果を出している
✔ “LLMを制御し、使う場所を最適化したら、結果がめちゃくちゃ良くなった”
という意味です。必要なら:
- Salesforce が LLM を“意図的に使う”具体例
- LLM を入れるべき場所 / いけない場所の一覧
- あなたが作ろうとしているエージェントでも同じ設計が有効か診断





