LLM入門
合計 4 件の記事があります。
現在 1 ページ中の 1 ページ目です。
5.1 損失関数の重要性 - LLMにおけるモデル最適化のカギ
損失関数は、モデルの最適化において重要な役割を果たし、LLMの精度向上に寄与します。クロスエントロピー損失関数や過学習、学習不足の検出に役立つ損失関数の仕組みを解説します。
2024-10-14
5.0 勾配降下法とモデル最適化 - LLMのトレーニング手法解説
勾配降下法は、LLM(大規模言語モデル)のトレーニングにおける重要な最適化手法です。クロスエントロピー損失やミニバッチ勾配降下法、勾配クリッピングを使ってモデルの精度を向上させる仕組みを解説します。
2024-10-13
1.3 情報量とエントロピー ― モデルの“迷い”を数学で読む
大規模言語モデル(LLM)の「迷い」を数式で捉えるとは?本記事では、情報量・エントロピー・クロスエントロピーという情報理論の基礎概念を使い、LLMの予測の仕組みをわかりやすく解説します。損失関数の意味を本質から理解する1章。
2024-10-04
3.2 LLMのトレーニングステップ | フォワードプロパゲーションとバックプロパゲーションの解説
LLM(大規模言語モデル)のトレーニングプロセスをエンジニア向けに解説。初期化からフォワードプロパゲーション、ロス計算、バックプロパゲーションまで、トレーニングの主要なステップと学習率やハイパーパラメータ調整の重要性について説明します。
2024-09-13
カテゴリー
検索履歴
会話履歴 4201
LLM 737
大規模言語モデル 732
言語モデル 697
生成型要約 677
GPT-2 テキスト生成 652
注意メカニズム 649
GPT テキスト生成 638
NLP トランスフォーマー 633
エンジニア向け 622
クロスエントロピー損失 621
マルコフ連鎖 616
LLM テキスト生成 612
教育AI 611
LLM 要約 598
データ前処理 596
バイアス 問題 596
バッチサイズ 596
パーソナライズドコンテンツ 594
トレーニング 586
トークン化 579
自動要約 577
数学的アプローチ 572
セルフアテンション 552
ミニバッチ学習 551
ロス計算 545
コード生成 544
LLM リアルタイム処理 543
FAQシステム 540
線形代数 532
チーム
任 弘毅
株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。
下田 昌平
開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。