LLM入門
このページでは、AI技術に関心のある方のために、LLM(大規模言語モデル)の基礎から応用までをわかりやすく解説します。
合計 6 件の記事があります。 |
現在 1 ページ中の 1 ページ目です。
RAGを強化するハイブリッド検索とMulti-Vector戦略とは?検索の多視点化と精度向上の設計|LLM入門 7.2
意味検索とキーワード検索を組み合わせるハイブリッド検索、複数の視点から検索するMulti-Vector RAG。どちらもRetrieverの精度と柔軟性を高める先進的な手法です。本記事では構成・効果・導入の注意点を解説します。
2025-03-05Azure Cognitive SearchやElasticでRAGを実現する方法|既存検索基盤を活かす構成とは|LLM入門 5.4
RAGはLangChainやLlamaIndex以外にも、Azure Cognitive SearchやElasticsearchといった既存インフラでも構築可能です。本記事では、それぞれの特徴や適用例、選定ポイントをわかりやすく整理します。
2025-02-25LlamaIndexとは何か?RAGにおける文書インデックス構築の強みとLangChainとの違い|LLM入門 5.3
LlamaIndexは、RAGの文書処理とインデックス管理に特化したライブラリです。本記事では、LlamaIndexの設計思想と主要機能、LangChainとの違いや併用パターン、実務での活用シーンを丁寧に解説します。
2025-02-24RAG構築に使える主要ツールとサービスの選び方|LLM入門 第5章
RAGを実装するには、適切なツールやサービスの選定が不可欠です。本章では、OpenAI Embeddings、LangChain、LlamaIndex、Azure Cognitive Searchなど、RAG構築に役立つ代表的な選択肢を比較・解説します。
2025-02-21セマンティック検索とキーワード検索の違いとは?RAGの精度を左右する検索技術|LLM入門 4.4
RAGでは従来のキーワード検索ではなく、意味ベースのセマンティック検索が活用されます。本記事では、両者の違いと特性、ハイブリッド検索の活用法までを比較しながら、実務での使い分け方を丁寧に解説します。
2025-02-206.0 LLMアプリケーションのデプロイとCI/CDパイプラインの構築
LLMアプリケーションをDockerとKubernetesでデプロイし、GitHub Actionsを使用したCI/CDパイプラインの構築方法を解説します。スケーラブルな運用環境の実現に役立つ情報です。
2024-11-20