マインドマップギャラリー 機械学習の基本的な回帰アルゴリズム
基本線形回帰、再帰回帰、正則化線形回帰、疎線形回帰Lasso、線形基底関数回帰、特異値分解、回帰学習の誤差分解など、機械学習における基本的な回帰アルゴリズムをまとめています。
これはバクテリアに関するマインドマップであり、その主な内容には、概要、形態、種類、構造、生殖、分布、アプリケーション、および拡張が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
これは、植物の無性生殖に関するマインドマップであり、その主な内容には、概念、胞子の生殖、栄養生殖、組織培養、芽が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
これは、動物の生殖発達に関するマインドマップであり、その主な内容には、昆虫、カエル、鳥、性的生殖、無性生殖が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
第 3 章 線形モデル
ディープラーニングの理論的知識
パターン認識
AI
人工知能技術開発
人工知能の概要
sklearn 人工知能機械学習のナレッジポイントのまとめ (実践的なコードの図付き)
機械学習アルゴリズムエンジニアのスキルツリー
人工知能のトップ 10 アルゴリズム
機械学習 基本的な回帰アルゴリズム
回帰学習
特徴
教師あり学習
ラベル y のデータセット
学習過程
モデルパラメータ w を決定するプロセス
予測または推定する
新しい入力を置き換えて回帰出力を計算するプロセス
線形回帰
基本的な線形回帰
目標一次関数
誤差ガウス分布の仮定
出力値とラベル付けされた値の間に不一致がある
モデルの出力が期待値であると仮定すると、確率変数 (ラベル付き値) yi の確率関数は次のようになります。
サンプルは独立して同一に分布しているため、すべてのラベル付き値の同時確率密度関数は次のようになります。
最適なパラメータを見つけるための尤度関数 (最小二乗 LS 解)
対数尤度関数
誤差二乗和
最尤解法
平均二乗誤差の検定式
線形回帰の再帰学習
対象となる問題
問題の規模が大きすぎて、行列を解くのが難しい
勾配降下法アルゴリズム
すべてのサンプルを取得して平均勾配を計算します
平均勾配
漸化式
確率的勾配降下法 SGD アルゴリズム (LMS)
ランダムなサンプルを取得して勾配を計算します
確率的勾配
ミニバッチ SGD アルゴリズム
サンプルの小さなバッチを取得して平均勾配を計算します
正則化線形回帰
行列の条件数が非常に大きく、数値安定性が良くありません。
問題の大きな条件数の性質
行列の一部の列ベクトルは比例またはほぼ比例します。
冗長な重み係数があり、過学習が発生します。
解決
「モデルパラメータの数を減らす」か「モデルパラメータを正規化する」必要があります
正規化された目的関数
誤差二乗和 J(w) ハイパーパラメータ λ 制約パラメータ ベクトル w
形状
正則化最小二乗 LS 解
正則化線形回帰確率の解釈
重み係数ベクトル w の事前分布は、ガウス分布に基づくベイズの「最大事後確率推定」MAP です。
勾配再帰アルゴリズム (例として小バッチ確率的勾配降下法 SGD)
多重出力 (出力ベクトル y) 線形回帰
出力はスカラー y ではなくベクトル y です。
誤差二乗和目的関数 J(W)
最小二乗 LS 解
スパース線形回帰なげなわ
正則化項のノルム
ノルム p>1
どの解座標も 0 ではなく、解はスパースではありません。
ノルム p=1
ほとんどの解の座標は 0 であり、解はまばらであり、処理は比較的簡単です。
ノルム p<1
解の座標はほとんどが0であり、解がまばらであり、処理が困難である。
なげなわ問題
コンテンツ
二乗和関数の誤差を最小化する問題では、制約 ||w||1<t が課されます。
正規化式
Lasso の巡回座標降下アルゴリズム
前処理
データ行列 X 列をゼロ平均し、Z に正規化します。
単一変数の場合のなげなわの解法
なげなわソリューション
多変数の場合におけるなげなわ解の一般化
巡回座標降下法 CCD
まずパラメータ wj の 1 つを決定します。
二乗誤差の合計を最小化するパラメータを計算します。
このとき、他のパラメータ w は最適値ではないため、wj の計算結果はあくまで推定値となります。
ループ演算
同じ考え方を使用して、パラメーター推定値が収束するまでループ内の他のパラメーターを計算します。
残差値 ri(j) の一部が yi に置き換わります
単変量と数学的に一致する
パラメータ推定値
Lasso の LAR アルゴリズム
当てはまること
1 ノルム制約の下でスパース回帰問題を解く
正則化回帰問題に対応
分類
λ=0
標準的な最小二乗問題
λが大きいほど
モデル パラメーターの解 w ベクトルがスパースであるほど、スパースが高くなります。
線形基底関数回帰
基底関数
回帰モデル
データマトリックス
回帰係数の解
特異値分解
擬似逆
SVD分解
回帰係数モデルの解
回帰学習のための誤差分解
誤差関数
エラーの予想
モデル
理論上の最良のモデル
学習モデル
エラー分解
モデルの複雑さとエラーの分解
モデルはシンプルです
偏差が大きく、分散が小さい
モデルは複雑です
小さな偏差、大きな分散
適切なモデルの複雑さを選択する必要がある