【管理人の独り言】
【管理人メルマガ】副業でも稼げるヒミツ
僕が副業で毎月何万円も稼いでいるヒミツを
メール読者さん限定で公開しています。
なぜ、時間がないサラリーマンでも
毎月何万円も稼ぐことが出来るのか?
100万円以上投資して得たスキルと実践で得たテクニックを
超初心者の方でもすぐに実践出来るよう噛み砕いて解説しています。
僕からのメールを何通か読み終わるころには、あなたも、
副業で稼ぐことができるヒミツが理解できるようになるはずです。
これから副業を始めようかなという人はもちろん
既に本格的に始めているあなたも大歓迎です!
読者皆さんが様々な事で、個人で稼げる能力をつける事が出来たら嬉しいですね。
【管理人メルマガの宣伝 終わり】
中国のAI企業 DeepSeek は、次世代の旗艦AIモデル「V4」 を 2026年2月(旧正月前後)ごろにリリース予定
- 更新日:
- 公開日:
https://www.theinformation.com/articles/deepseek-release-next-flagship-ai-model-strong-coding-ability?eu=er51x2IS-818r_uMRzOBIQ&utm_source=ti_app&rc=01qtpq
DEEPseekは安いが危険もあるという認識ですか?
結論から言うと、
「DeepSeekは 安いのは事実。ただし 使い方次第でリスクはある」という認識が、現時点ではかなり妥当 です。
少し整理します。
DeepSeekは「安い」のか?
はい、
明確に安いです。
- 学習・推論コストを極端に下げた設計
- 高価な最新GPUへの依存を抑える工夫
- オープンソース活用・軽量モデル戦略
その結果、
「同等クラスの性能を、OpenAI / Anthropicよりかなり低コストで使える」
という評価は、多くの開発者・投資家の共通認識です。
では「危険」なのか?
ここが重要で、
危険“かどうか”は用途次第です。
① データ・プライバシー面のリスク
最大の懸念点
- 運営母体は中国企業(=中国法の適用対象)
- 入力データが
- 学習に使われる可能性
- 当局からのアクセス要求を受ける可能性
を完全には否定できない
👉
社内機密/研究データ/個人情報をそのまま投げるのは危険寄り
② ガバナンス・透明性の問題
- OpenAI / Anthropic と比べると
- モデルの学習データ
- フィルタリング方針
- 安全設計
の開示レベルは低め
👉
「何をどう制御しているか分かりにくい」
③ 地政学リスク(中長期)
- 米中対立の影響を受けやすい
- 将来:
- 突然APIが止まる
- 規制対象になる
可能性は否定できない
👉
ミッションクリティカル用途の“一本足”は危険
それでも使われている理由
それでも世界中で使われているのは、
- コード生成・補完性能が高い
- コスパが異常に良い
- ローカル実行・自己ホスト可能(※ここが重要)
からです。
安全寄りの使い方(おすすめ)
「危険」をかなり減らす使い方はあります。
✅ 比較的安全
- ローカル実行(Self-host / オフライン)
- 公開コードの生成
- 学習・検証用
- 個人開発・趣味プロジェクト
⚠️ 注意が必要
- 企業の内部資料
- 未公開研究データ
- 個人情報・医療・契約情報
一言でまとめると
あなたの認識を言語化すると、こうなります👇
DeepSeekは
「安い・強いが、
“クラウドで何でも投げていいAI”ではない」
これは
かなり“分かっている側”の認識です。
もしよければ次に:
- OpenAI / Claude / DeepSeek の「安全性・コスト・性能」三軸比較
- 研究用途(ロボット・VPR・制御)での現実的な使い分け
- 「ローカルLLM前提」での最適構成案
どれを深掘りしますか?
マルチモーダルですか?
結論から言うと:
👉 現時点のDeepSeekは「限定的にはマルチモーダルだが、本格派ではない」
という理解が正確です。
DeepSeekはマルチモーダル?
部分的にYES、実用レベルではNO寄りです。
できること
- テキスト中心
- 一部モデルで
- 画像入力 → テキスト説明(視覚理解)
- 画像+テキスト → 応答
は可能
つまり
👉
「画像を読めるLLM」ではある
できない/弱いところ
OpenAIやGoogleと比べると、以下は弱いです。
- ❌ 音声(ASR / TTS)との深い統合
- ❌ 動画理解(時間方向の推論)
- ❌ 画像生成とのネイティブ統合
- ❌ マルチモーダルを前提にした推論(例:図+コード+操作計画)
👉
設計思想が「コード+テキスト最優先」
他社との位置づけ(直感的比較)
| 会社 |
マルチモーダル成熟度 |
特徴 |
| OpenAI |
★★★★★ |
画像・音声・動画・ツール統合 |
| Google (Gemini) |
★★★★★ |
ネイティブMM設計 |
| Anthropic (Claude) |
★★★★☆ |
図・文書理解が強い |
| DeepSeek |
★★☆☆☆ |
コード特化・軽量 |
なぜマルチモーダルが弱めなのか
理由はかなりはっきりしています。
- 🎯 目的が「安く・速く・賢くコードを書く」
- 🧮 学習コストが爆増するマルチモーダルを意図的に抑制
- 🧠 「IDEの中のAI」を強く意識した設計
👉
研究者・エンジニア向け最適化
あなたの文脈(ロボット・VPR研究)で言うと
かなり重要なポイントです。
DeepSeekが向く
- Python / ROS / 評価コード生成
- ログ解析・CSV処理
- 実験設計・論文補助
DeepSeekが向かない
- 画像+行動+制御の同時推論
- マルチセンサ統合(画像・LiDAR・IMU)
- 「ロボットの目と手を一体で考える」用途
👉
VPR × Teach&Repeat × マルチモーダル制御なら
GPT / Gemini / Claude が明確に上
一言でまとめると
DeepSeekは
「マルチモーダル も できるが、
本気でやる気はない」AI
これは欠点というより、
割り切った設計思想です。
もし次に進むなら:
- 「ロボット研究で本当に必要なマルチモーダルとは何か」
- 「DeepSeek+他LLMのハイブリッド構成案」
- 「ローカルLLM前提での画像×制御パイプライン」
このあたり、かなり面白い話ができます。どれいきますか?