LLM入門
合計 25 件の記事があります。
現在 1 ページ中の 1 ページ目です。

従来のプロンプト設計とMCPの違いとは?|MCP入門 2.2|生成AI設計の新常識
プロンプトエンジニアリングでは限界がある。MCP(Model Context Protocol)は、文脈と状態を分離・構造化することで、一貫性・拡張性・再現性を備えた生成AIの設計を可能にします。従来手法との違いを比較しながら丁寧に解説。
2025-03-09

RAG時代の設計者とは?検索と生成をつなぎ、AIを業務に根づかせる方法|LLM入門 終章
RAGの本質は、情報の選別と構造化を通じて生成AIの文脈を設計すること。本章では、生成AI時代に求められる「検索と生成をつなぐ設計者」の役割と、今後の学びと実装の地図を示します。
2025-03-08

モデルにとっての記憶とは何か?|MCP入門 1.4|生成AIと文脈再現の技術
生成AIは本当に記憶しているのか?実は、AIの“記憶”は文脈の再構築にすぎません。エフェメラルメモリ・永続メモリ・役割設計など、MCP(Model Context Protocol)での記憶制御の仕組みをわかりやすく解説します。
2025-03-06

コンテキストウィンドウとは?生成AIにおける文脈の限界とMCP設計|MCP入門 1.3
生成AIが扱える“文脈”には上限があります。それがコンテキストウィンドウです。トークン数の制限とは何か、なぜ応答が急に崩れるのか、MCP(Model Context Protocol)における設計の工夫まで、丁寧に解説します。
2025-03-05

RAGにおける幻覚とは?情報の過不足を防ぎ生成精度を高める設計法|LLM入門 7.1
RAG構成でも、LLMによる幻覚(hallucination)は発生します。本記事では、Retriever精度、プロンプト設計、出典明示などにより幻覚を抑える具体的な方法と、検知・評価の技術までを丁寧に解説します。
2025-03-04

RAGの限界と今後の展望とは?幻覚・検索精度・モデル進化にどう向き合うか|LLM入門 第7章
RAGには明確な強みがある一方で、限界や課題も存在します。本章では、幻覚対策やハイブリッド検索の可能性、大規模コンテキストモデルとの関係、そして今後の運用と設計戦略について実践的に整理します。
2025-03-03

モデルはなぜ文脈を必要とするのか?|MCP入門 1.1|生成AIとコンテキスト理解
ChatGPTをはじめとする生成AIは、入力だけでなく“文脈”によって出力を変えています。なぜ文脈が必要なのか、モデルはどう背景を読み取るのか。MCP設計の基礎となる文脈理解について、具体例を交えて丁寧に解説します。
2025-03-03

モデルコンテキストの基礎|MCP入門 第1章|生成AIが文脈を理解する仕組み
生成AIやChatGPTの出力がなぜ“賢く”見えるのか?その鍵は文脈にあります。MCP(Model Context Protocol)の理解に必要な、AIと文脈の関係、プロンプトとの違い、コンテキストウィンドウの制約などをわかりやすく解説します。
2025-03-02

大規模言語モデルと対話型AIの「思考状態」を設計するプロトコルの基礎と応用
ChatGPTをはじめとする大規模言語モデル(LLM)の応答精度を高める鍵、それがModel Context Protocol(MCP)です。AIに“文脈”を理解させる新しい設計手法を、初心者にもわかりやすく解説します。
2025-03-01

RAGに欠かせない埋め込みモデルとは?意味検索を支える技術解説|LLM入門 4.1
RAGにおける意味検索の基盤となるのが「埋め込みモデル(Embedding Model)」です。本記事では、OpenAIやSBERTなど代表的モデルの特徴、選定ポイント、チャンク設計との関係をわかりやすく解説します。
2025-02-17

RAGで社内ナレッジBotを構築する方法と導入効果|LLM入門 3.1
就業規則や業務手順が整備されていても、社員が情報を引き出せない現実があります。本記事では、RAGを活用して社内文書に基づくナレッジBotを構築し、社内問い合わせ削減と業務効率向上を実現した事例を紹介します。
2025-02-12

RAGとは何か?検索と生成をつなぐ新しいAIアーキテクチャの全体像|LLM入門 第2章
RAG(Retrieval-Augmented Generation)は、検索と生成を組み合わせた新しい生成AIの構造です。本章では、RAGの基本構造、RetrieverとGeneratorの役割、従来の検索との違い、得意・不得意なケースまで、全体像を体系的に解説します。
2025-02-06

なぜRAGが必要とされるのか?|業務利用で見える生成AIの限界とは|LLM入門 1.2
ChatGPTを業務に導入しようとすると、正確性・柔軟性・更新性に課題が見えてきます。本記事では、企業利用における生成AIの限界と、RAG(Retrieval-Augmented Generation)という新たなアプローチの登場背景を解説します。
2025-02-04

ChatGPTだけでは業務に使えない理由とは?|生成AIの限界とRAGの必要性|LLM入門 1.1
ChatGPTは汎用的な質問に対しては強力なツールですが、業務利用では限界があります。本記事では、固有知識の欠如、幻覚(hallucination)、情報の鮮度といった構造的課題を解説し、RAGという新たなアプローチの必要性を明らかにします。
2025-02-03

なぜ今RAGが必要なのか?|ChatGPTの限界と知識の外部化|LLM入門 第1章
ChatGPTだけでは業務に使えない──その理由は、固有情報の欠如や幻覚、情報の鮮度にあります。本章では、こうした生成AIの限界と、RAG(Retrieval-Augmented Generation)が求められる背景を丁寧に解説します。
2025-02-02

RAGで業務AIを強化する方法とは?|LLM入門:検索と統合の仕組みを解説
RAG(Retrieval-Augmented Generation)は、大規模言語モデルに社内ナレッジやFAQを統合し、業務に使えるAIを構築する鍵です。本記事ではRAGの仕組み、活用例、導入のステップまで、わかりやすく解説します。
2025-02-01

トランスフォーマーモデルとは?仕組みと特徴をやさしく解説|LLM入門 2.4
自然言語処理を飛躍させたトランスフォーマーとは何か?本記事では、大規模言語モデル(LLM)を支える中核技術「トランスフォーマー」の構造やセルフアテンションの考え方を直感的に解説。GPTやChatGPTの背景にある革新的仕組みに触れます。
2024-10-06

自然言語処理(NLP)とは?|LLM入門 2.3|大規模言語モデルがもたらした進化
NLP(自然言語処理)は、人間の言葉をコンピュータが理解・分析・生成するための技術です。本記事では、テキスト分類・翻訳・要約などのNLPの代表的なタスクと、LLM(大規模言語モデル)の登場によって何が変わったのかを簡潔に解説します。
2024-10-06

LLMの構成要素とは?|LLM入門 2.2|トークン・ベクトル・パラメータで理解する内部構造
LLM(大規模言語モデル)の内部で何が起きているのか?本記事では、トークン化・埋め込み(Embedding)・パラメータ・アーキテクチャなど、モデルを構成する基本要素をわかりやすく解説します。自然言語を数値で処理するAIの仕組みを学びましょう。
2024-10-06

2.1 LLM(大規模言語モデル)とは、人間の言葉を“理解しようとする”AIのしくみ
自然言語処理(NLP)の基本概念と、その数学的手法を解説します。確率論、統計、線形代数を利用したアプローチを通じて、NLPがどのようにテキストを理解・生成し、LLMに応用されているのかを紹介します。
2024-10-06

2.0 LLMの基本 ―「なぜLLMはここまで注目されているのか?」を整理
本記事では、LLMの基礎概念として、自然言語処理(NLP)の概要とトランスフォーマーモデルの仕組みについて詳しく説明します。LLMがどのようにして膨大なデータを処理し、高精度な結果を出すのかを理解します。
2024-10-06

1.2 確率論の基本と対話生成|LLMの次単語予測を学ぶ
LMは対話を“一単語ずつの確率予測”で生成します。本記事では「P(次の単語|文脈)」の考え方、自己回帰的生成、Top-kサンプリングやTemperature制御まで、確率論の基礎を対話例とともにわかりやすく解説します。
2024-10-04

1.0 LLM入門 - 大規模言語モデルの仕組みと数学的アプローチの解説
本記事では、LLM(大規模言語モデル)の仕組みを数学的視点から解説します。トランスフォーマーモデルや勾配降下法といった技術をわかりやすく説明し、エンジニア向けにLLMの理解を深めるための基礎知識を提供します。
2024-10-02

6.1 LLMを試すためのオープンソースツールとAPIの紹介 | Hugging Face, OpenAI, Google Cloud, Azure
LLM(大規模言語モデル)を試すための主要なオープンソースツールやAPIをエンジニア向けに解説。Hugging Face、OpenAI、Google Cloud AI、Microsoft Azure Cognitive Servicesの特徴と使用方法を紹介し、簡単な実装例も提供。
2024-09-25

第1章 LLMって何?AIが文章を“理解して書く”時代のはじまり
LLM(大規模言語モデル)の基本的な定義、自然言語処理における役割、そして従来の機械学習モデルとの違いを解説。LLMの特徴とその応用例をエンジニア向けに詳しく紹介します。
2024-09-02
カテゴリー
検索履歴
エンジニア向け 331
会話履歴 327
マルコフ連鎖 301
大規模言語モデル 299
自動要約 296
NLP トランスフォーマー 293
データ前処理 288
言語モデル 287
パーソナライズドコンテンツ 283
教育AI 279
注意メカニズム 277
生成型要約 277
数学的アプローチ 276
トークン化 271
ミニバッチ学習 269
セルフアテンション 267
LLM 要約 261
ロス計算 261
クロスエントロピー損失 260
線形代数 259
LLM テキスト生成 258
GPT-2 テキスト生成 257
トレーニング 256
バイアス 問題 256
自動翻訳 254
GPT テキスト生成 252
自然言語処理 翻訳 250
LLM リアルタイム処理 249
コード生成 247
GPT ファインチューニング 246
チーム

任 弘毅
株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。

下田 昌平
開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。