LLM入門
合計 2 件の記事があります。
現在 1 ページ中の 1 ページ目です。

1.3 LLM推論APIにおけるキャッシュ戦略|高速化と負荷軽減のためのベストプラクティス
LLM推論APIのパフォーマンスを向上させるキャッシュ戦略について解説。Redisを使った具体的な実装例やキャッシュ最適化のベストプラクティスを紹介します。
2024-11-04

1.2 LLM推論APIのスケーリング|水平スケーリング、ロードバランシング、キャッシュ戦略の実装
LLM推論APIのパフォーマンス向上方法を紹介します。水平スケーリング、ロードバランシング、Redisキャッシュ戦略を使用した効率的なAPI設計の実装例を解説。
2024-11-04
カテゴリー
検索履歴
会話履歴 583
エンジニア向け 356
マルコフ連鎖 322
大規模言語モデル 321
自動要約 317
NLP トランスフォーマー 310
言語モデル 310
データ前処理 306
生成型要約 306
注意メカニズム 305
パーソナライズドコンテンツ 303
教育AI 299
数学的アプローチ 296
トークン化 292
ミニバッチ学習 288
LLM 要約 283
LLM テキスト生成 281
バイアス 問題 280
ロス計算 280
GPT テキスト生成 279
セルフアテンション 279
クロスエントロピー損失 278
線形代数 272
GPT-2 テキスト生成 271
バッチサイズ 271
自動翻訳 270
トレーニング 269
サンプリング 268
抽出型要約 266
LLM リアルタイム処理 265
チーム

任 弘毅
株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。

下田 昌平
開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。