LLM入門
このページでは、AI技術に関心のある方のために、LLM(大規模言語モデル)の基礎から応用までをわかりやすく解説します。
合計 4 件の記事があります。 |
現在 1 ページ中の 1 ページ目です。
5.1 損失関数の重要性 - LLMにおけるモデル最適化のカギ
損失関数は、モデルの最適化において重要な役割を果たし、LLMの精度向上に寄与します。クロスエントロピー損失関数や過学習、学習不足の検出に役立つ損失関数の仕組みを解説します。
2024-10-14
5.0 勾配降下法とモデル最適化 - LLMのトレーニング手法解説
勾配降下法は、LLM(大規模言語モデル)のトレーニングにおける重要な最適化手法です。クロスエントロピー損失やミニバッチ勾配降下法、勾配クリッピングを使ってモデルの精度を向上させる仕組みを解説します。
2024-10-13
1.3 情報量とエントロピー ― モデルの“迷い”を数学で読む
大規模言語モデル(LLM)の「迷い」を数式で捉えるとは?本記事では、情報量・エントロピー・クロスエントロピーという情報理論の基礎概念を使い、LLMの予測の仕組みをわかりやすく解説します。損失関数の意味を本質から理解する1章。
2024-10-04
3.2 LLMのトレーニングステップ | フォワードプロパゲーションとバックプロパゲーションの解説
LLM(大規模言語モデル)のトレーニングプロセスをエンジニア向けに解説。初期化からフォワードプロパゲーション、ロス計算、バックプロパゲーションまで、トレーニングの主要なステップと学習率やハイパーパラメータ調整の重要性について説明します。
2024-09-13