LLM入門
合計 3 件の記事があります。
現在 1 ページ中の 1 ページ目です。

2.1 Hugging Face Transformersを使ったモデルのファインチューニング|BERTのPython実装例
Hugging FaceのTransformersライブラリを使って、BERTモデルのファインチューニングを行う方法を解説します。Pythonコード例と共に、データ前処理やトレーニング設定のポイントも紹介。
2024-11-06

9.1 LLMを理解するための次のステップ - 実践的な学習方法とプロジェクト参加のすすめ
LLM(大規模言語モデル)の基礎を学んだエンジニアが、さらなる学びを進めるための次のステップを紹介します。研究論文の精読、実践的プロジェクトの参加、モデルのカスタマイズや最適化手法について詳しく解説します。
2024-10-26

3.2 LLMのトレーニングステップ | フォワードプロパゲーションとバックプロパゲーションの解説
LLM(大規模言語モデル)のトレーニングプロセスをエンジニア向けに解説。初期化からフォワードプロパゲーション、ロス計算、バックプロパゲーションまで、トレーニングの主要なステップと学習率やハイパーパラメータ調整の重要性について説明します。
2024-09-13
カテゴリー
検索履歴
会話履歴 645
エンジニア向け 372
大規模言語モデル 340
マルコフ連鎖 338
自動要約 337
言語モデル 328
NLP トランスフォーマー 326
注意メカニズム 322
生成型要約 322
データ前処理 320
数学的アプローチ 317
パーソナライズドコンテンツ 315
教育AI 312
トークン化 308
LLM テキスト生成 303
LLM 要約 303
ミニバッチ学習 298
クロスエントロピー損失 297
ロス計算 297
GPT テキスト生成 291
セルフアテンション 291
バイアス 問題 291
トレーニング 290
GPT-2 テキスト生成 289
自動翻訳 287
バッチサイズ 285
線形代数 283
サンプリング 281
抽出型要約 281
自然言語処理 翻訳 281
チーム

任 弘毅
株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。

下田 昌平
開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。