LLM入門
合計 4 件の記事があります。
現在 1 ページ中の 1 ページ目です。

5.1 損失関数の重要性 - LLMにおけるモデル最適化のカギ
損失関数は、モデルの最適化において重要な役割を果たし、LLMの精度向上に寄与します。クロスエントロピー損失関数や過学習、学習不足の検出に役立つ損失関数の仕組みを解説します。
2024-10-14

5.0 勾配降下法とモデル最適化 - LLMのトレーニング手法解説
勾配降下法は、LLM(大規模言語モデル)のトレーニングにおける重要な最適化手法です。クロスエントロピー損失やミニバッチ勾配降下法、勾配クリッピングを使ってモデルの精度を向上させる仕組みを解説します。
2024-10-13

1.3 情報量とエントロピー ― モデルの“迷い”を数学で読む
大規模言語モデル(LLM)の「迷い」を数式で捉えるとは?本記事では、情報量・エントロピー・クロスエントロピーという情報理論の基礎概念を使い、LLMの予測の仕組みをわかりやすく解説します。損失関数の意味を本質から理解する1章。
2024-10-04

3.2 LLMのトレーニングステップ | フォワードプロパゲーションとバックプロパゲーションの解説
LLM(大規模言語モデル)のトレーニングプロセスをエンジニア向けに解説。初期化からフォワードプロパゲーション、ロス計算、バックプロパゲーションまで、トレーニングの主要なステップと学習率やハイパーパラメータ調整の重要性について説明します。
2024-09-13
カテゴリー
検索履歴
会話履歴 851
エンジニア向け 397
マルコフ連鎖 381
生成型要約 374
注意メカニズム 372
自動要約 371
教育AI 370
大規模言語モデル 369
パーソナライズドコンテンツ 367
NLP トランスフォーマー 363
言語モデル 358
トークン化 354
ミニバッチ学習 349
数学的アプローチ 347
データ前処理 338
クロスエントロピー損失 336
セルフアテンション 336
GPT テキスト生成 335
バイアス 問題 332
LLM テキスト生成 329
LLM 要約 325
ロス計算 322
バッチサイズ 319
GPT-2 テキスト生成 316
トレーニング 316
線形代数 316
FAQシステム 313
コード生成 307
自動翻訳 307
自然言語処理 翻訳 307
チーム

任 弘毅
株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。

下田 昌平
開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。