LLM入門
合計 5 件の記事があります。
現在 1 ページ中の 1 ページ目です。

5.1 損失関数の重要性 - LLMにおけるモデル最適化のカギ
損失関数は、モデルの最適化において重要な役割を果たし、LLMの精度向上に寄与します。クロスエントロピー損失関数や過学習、学習不足の検出に役立つ損失関数の仕組みを解説します。
2024-10-14

4.2 マルチヘッドアテンションの数理 - トランスフォーマーモデルにおける文脈理解の強化
トランスフォーマーモデルのマルチヘッドアテンションについて詳しく解説します。各ヘッドが異なる視点から文中の単語間の関連性を捉える仕組みと、その数理的な背景について説明します。
2024-10-12

4.1 セルフアテンションメカニズム - トランスフォーマーモデルの数理的基盤
トランスフォーマーモデルのセルフアテンションメカニズムについて詳しく解説します。クエリ、キー、バリューを用いた行列演算による単語間の関連度計算と、ソフトマックス関数を使った正規化を説明します。
2024-10-11

4.0 トランスフォーマーの数理 - セルフアテンションとマルチヘッドアテンションの仕組み
トランスフォーマーモデルにおける数理的な仕組みを解説します。セルフアテンションメカニズムの行列演算や、マルチヘッドアテンションによる文脈理解の向上について詳しく説明します。
2024-10-11

3.2 線形代数とベクトル空間 - LLMにおける単語埋め込みの数理的基盤
線形代数はLLM(大規模言語モデル)の数理的基盤です。単語の埋め込みやベクトル空間内での操作、コサイン類似度を用いた単語の関係性の解析について詳しく解説します。
2024-10-10
タグ
検索履歴
エンジニア向け 296
大規模言語モデル 275
マルコフ連鎖 273
自動要約 270
データ前処理 266
NLP トランスフォーマー 264
言語モデル 260
教育AI 254
パーソナライズドコンテンツ 251
トークン化 248
注意メカニズム 248
数学的アプローチ 246
生成型要約 245
セルフアテンション 243
ミニバッチ学習 241
ロス計算 241
線形代数 240
トレーニング 238
GPT-2 テキスト生成 237
LLM 要約 236
クロスエントロピー損失 236
LLM テキスト生成 234
自動翻訳 234
LLM リアルタイム処理 231
バイアス 問題 231
自然言語処理 翻訳 229
ニュース記事生成 227
GPT テキスト生成 225
コード生成 225
GPT ファインチューニング 222
チーム

任 弘毅
株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。

下田 昌平
開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。