前回のAI用語ガイドでは、AIの全体像を11語で整理しました。今回はその次のステップとして、「自社でAIエージェントを育てる」局面で出てくる技術用語をまとめました。
技術者向けではありません。意味を押さえて基礎知識をつけるためのものです。
A. 学習のフェーズ
AIは一度に賢くなるわけではなく段階的に学習が必要です。
事前学習(Pre-training = 事前学習)
ネット上の膨大な文章でAIに「言葉の使い方」を覚え込ませる最初の工程です。一回の事前学習に数十億円〜数百億円かかるため、OpenAI社・Anthropic社・Google社のような大手しかできません。中小企業が独自に事前学習することは現実的ではなく、既存モデルを借りる前提で計画を組みます。
ファインチューニング(Fine-tuning = 追加学習・微調整)
既に事前学習が終わっているAIに、自社の業務データを追加で覚えさせて専門家化する工程です。コストは数万円〜数百万円のレンジで、中小企業でも手が届きます。自社の業界用語・社内ルール・対応事例を覚えさせる用途で使います。
強化学習(Reinforcement Learning = 強化学習)
AIに「やってみる→評価する→改善する」を繰り返させて、報酬が最大になる行動を覚えさせる学習法です。ゲームAIや、ロボット制御の世界で発展してきました。
RLHF(Reinforcement Learning from Human Feedback = 人間フィードバックによる強化学習)
人間が「この回答は良い/悪い」と評価したデータで強化学習する手法です。ChatGPTやClaudeを「丁寧で安全な回答をするAI」に育てた立役者がこの技術です。社内AIに自社らしい応対を覚えさせる場面でも使われます。
B. モデルの基本特性
ベンダーが性能を語るとき使う用語です。。
汎化(Generalization = はんか)
学習で見たことのない新しい問題にも対応できる能力です。AIの本当の賢さを測る指標で、「事前学習でカバーされていない自社固有の課題に、どこまで対応できるか」を判断する観点になります。汎化が弱いAIは、見たことのないパターンが来ると的外れな回答をします。
過学習(Overfitting = 過学習)
学習データに馴染みすぎて、新しい問題に対応できなくなった状態です。汎化の反対。ファインチューニングをやりすぎると過学習が起きて、かえって使えないAIになる、というのが現場でよくある失敗パターンです。
ハルシネーション(Hallucination = 幻覚)
AIがそれっぽい嘘を堂々と答えてしまう現象です。「○○法第××条によると」と言いつつ実在しない条文を引用する、といったことが起こります。一番警戒すべき特性で、ハルシネーション対策(後述のグラウンディング・RAG)が業務利用の前提になります。
トークン(Token = トークン)
AIが文章を扱う最小単位です。1トークン≒英語1単語/日本語1〜2文字。AIの利用料金は基本的にトークン数で計算されます。「月いくら」ではなく「何トークン使ったか」で課金される世界です。
コンテキストウィンドウ(Context Window = 文脈の窓)
一度にAIが覚えていられる情報量の上限です。たとえば、100万トークンの場合は、(A4書類で約1,000〜1,500ページ分)を一度に読めるという意味。大量の文書を読ませる用途では、この値が大きいモデルが有利になります。
C. エージェント運用に直結する用語
ここからが、エージェントを動かす段階で出てくる用語です。
プロンプト(Prompt = 指示文)
AIへの命令文のことです。同じAIでも、プロンプトの書き方で結果が大きく変わります。「プロンプトエンジニアリング」という職種が生まれるほど、この設計が成果を左右します。
システムプロンプト(System Prompt = システム指示)
AIに最初に与える「人格・役割・ルール」の設定です。「あなたは当社のカスタマーサポートです。丁寧な敬語で、価格は答えず必ず担当者に取り次いでください」といった指示をここに書きます。エージェントの性格と禁止事項を決める場所で、機密保護やコンプライアンスにも直結します。
RAG(Retrieval-Augmented Generation = 検索拡張生成)
AIにデータを検索させて、その結果をもとに回答させる仕組みです。ファインチューニングよりも安く・速く・正確に「自社専用AI」を作る現実的な手段で、2026年時点では多くの中小企業導入案件の中核になっています。社内マニュアル・FAQ・契約書を検索対象にして、社員からの質問に答えさせる用途が典型です。
埋め込み(Embedding = ベクトル化)
文章を「数字の配列」に変換して、意味の近さを計算できるようにする技術です。RAGの土台となる仕組みで、「単語が違っても意味が近ければ検索ヒットする」という挙動を実現しています。
ツール呼び出し(Tool Use / Function Calling = ツール使用)
AIが外部ツール(メール送信・カレンダー・検索・社内API)を自分で選んで使う機能です。AIエージェントの「手」にあたる部分で、これがないと「答えるだけ」のチャットボットで止まります。MCP(Model Context Protocol)はこのツール呼び出しを標準化した規格です。
エージェントループ(Agent Loop = エージェント反復)
「考える→ツールを使う→結果を見る→次の行動を考える」を繰り返す仕組みです。エージェントが目的を達成するまで自律的に動き続ける核となる構造で、ループの設計が良いエージェントの条件になります。
メモリ(Memory = 記憶)
会話や過去の経験を長期的に覚えておく仕組みです。これがないと、エージェントは毎回ゼロから始めることになります。育てるAIには必須の機能で、「先週話したこと」「過去の顧客対応履歴」を踏まえた応対ができるかは、メモリ設計の質で決まります。
D. 品質と安全:経営者として気になる領域
AIに業務を任せるなら、ここを必ず確認します。品質・安全の設計を怠ったプロジェクトはほぼ確実に再構築の手戻りが発生します。
アライメント(Alignment = 整合)
AIの行動を人間の意図や倫理に合わせる調整です。Anthropic社・OpenAI社が研究の主軸として最も力を入れている領域で、「AIを暴走させない」ための技術全般を指します。経営者として気にすべきは、ベンダーが「アライメントをどう実装しているか」を説明できるかです。
ガードレール(Guardrails = 安全柵)
AIに「これは答えない/これは実行しない」という禁止事項を設定する仕組みです。例として「価格は答えない」「個人情報は返さない」「金額が10万円を超える契約は人間にエスカレーション」など。エージェントの暴走防止と、コンプライアンス対応の両方に効きます。
グラウンディング(Grounding = 根拠付け)
AIの回答を事実や信頼できる情報源に紐づける技術です。前述のハルシネーション(嘘を堂々と答える)対策の中核で、「回答に必ず出典URLを付ける」「社内文書から引用する」といった実装でAIの信頼性を担保します。
E. 改良・効率化:コストを下げる技術
運用フェーズに入ってからのコスト最適化で出てくる用語です。最初は意識しなくても困りませんが、本格運用のときに必ず話題になります。
蒸留(Distillation)
大きな高性能モデルから、小さい軽量モデルに知識を移す技術です。Anthropic社の Claude Haiku、OpenAI社の GPT mini など、各社の「小型版」はこの蒸留で作られています。試してみたい場合や月のAI利用料金が高くなりすぎたとき、蒸留版に乗り換えるのが定番の節約手段です。
量子化(Quantization)
モデルのデータを軽くして、安いパソコンや社内サーバーでも動かせるようにする技術です。クラウドAIに頼らず、自社サーバー上でAIを動かしたい中小企業(機密情報を社外に出したくない業種)にとって重要な技術です。
思考の連鎖(Chain of Thought = CoT)
AIに「ステップごとに考えてから答えて」と指示して、回答精度を上げる手法です。複雑な問題を一気に解かせるのではなく、論理を1段ずつ追わせることで、人間に近い思考プロセスを引き出します。2022年にGoogle社の研究者が発表した論文で広まりました。
ベンチマーク/Eval(Evaluation = 評価)
AIの性能を数値で測るテストです。SWE-Bench(プログラミング能力)、MMLU(多分野の知識)、HumanEval(コード生成)などが代表で、ベンダーがAI性能を宣伝するときに必ず出てきます。「ベンチマーク上の数字」と「自社業務での実力」は必ずしも一致しないため、自社データでの試用を経てから本格導入を判断するのが鉄則です。
育てる順序の整理
20語並べましたが、中小企業がAIエージェントを社内で育てる現実的な順序は次の通りです。
一つ目、既存のAI(Claude・ChatGPT・Geminiなど)を借りる前提で計画します。自社で事前学習は不要、ファインチューニングも当面不要です。
二つ目、プロンプトとシステムプロンプトを設計し、自社の役割と禁止事項を定めます。
三つ目、RAGで社内文書を検索対象に接続します。ファインチューニングよりも安く・正確に専門家化できます。
四つ目、ツール呼び出し(MCP)でメール・カレンダー・社内システムと接続します。エージェントに「手」を持たせる段階です。
五つ目、ガードレールとグラウンディングで安全と信頼性を担保します。
六つ目、ベンチマークと実運用で評価し、必要なら蒸留版で運用コストを下げる。
ここまでが、社内でAIエージェントを育てる標準的な6ステップです。一気にやる必要はありません。一段ずつ進めれば、半年〜1年で十分に到達できる射程です。
自社のどこから始めればよいか整理したい方、ベンダー選定の壁打ちをしたい方は、お気軽にご相談ください。
参考文献・出典
- 事前学習・GPT・ファインチューニング:Generative Pre-trained Transformer(Wikipedia) / What is GPT?(IBM)
- RLHF・アライメント:Aligning language models to follow instructions(OpenAI公式) / Anthropic Research
- RAG(検索拡張生成):Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks(Lewis et al. 2020, arXiv) / RAG(Wikipedia)
- ツール呼び出し・MCP:Introducing the Model Context Protocol(Anthropic公式) / Function Calling(OpenAI Docs)
- 思考の連鎖(CoT):Chain-of-Thought Prompting Elicits Reasoning in Large Language Models(Wei et al. 2022, Google Research)
- ベンチマーク:SWE-Bench(プログラミング評価) / MMLU(多分野の知識評価)
- 関連記事:2026年版・経営者のためのAI用語ガイド11語 / 公開できないAI「Claude Mythos」とは / Mythosが開けた扉、本当のXデーは2026年冬に来る

