LLM入門
合計 3 件の記事があります。
現在 1 ページ中の 1 ページ目です。

4.3 LLMのモデル圧縮技術|知識蒸留、量子化、プルーニングの解説
知識蒸留、量子化、プルーニングなどのモデル圧縮技術を使い、LLMの計算コストと推論速度を改善する方法を解説します。Pythonの実装例も紹介。
2024-11-15

4.2 LLMの推論速度を最適化する方法|バッチ推論と半精度推論の活用
LLMの推論速度を改善するための技術を解説。バッチ推論、ONNX Runtime、半精度推論(FP16)など、効率的な推論手法とその実装例を紹介します。
2024-11-14

4.0 LLMのモデル圧縮と推論速度の最適化|効率的なパフォーマンス改善
LLMのモデル圧縮技術と推論速度の最適化手法を解説。量子化、知識蒸留、ONNXを使用したPython実装例で効率的なLLMのデプロイをサポート。
2024-11-12
カテゴリー
タグ
検索履歴
エンジニア向け 307
大規模言語モデル 281
マルコフ連鎖 280
自動要約 276
NLP トランスフォーマー 270
データ前処理 270
教育AI 262
言語モデル 262
パーソナライズドコンテンツ 259
数学的アプローチ 254
注意メカニズム 254
生成型要約 254
トークン化 253
ミニバッチ学習 250
セルフアテンション 249
クロスエントロピー損失 244
線形代数 244
ロス計算 243
LLM 要約 241
トレーニング 241
GPT-2 テキスト生成 239
LLM テキスト生成 238
バイアス 問題 236
自動翻訳 236
LLM リアルタイム処理 233
ニュース記事生成 233
自然言語処理 翻訳 233
GPT テキスト生成 228
コード生成 228
GPT ファインチューニング 227
チーム

任 弘毅
株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。

下田 昌平
開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。