マインドマップギャラリー CFA レベル 2 機械学習 (1)
機械学習の定義、機械学習の分類、および機械学習モデルの有効性を評価するためのいくつかの概念。
これはバクテリアに関するマインドマップであり、その主な内容には、概要、形態、種類、構造、生殖、分布、アプリケーション、および拡張が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
これは、植物の無性生殖に関するマインドマップであり、その主な内容には、概念、胞子の生殖、栄養生殖、組織培養、芽が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
これは、動物の生殖発達に関するマインドマップであり、その主な内容には、昆虫、カエル、鳥、性的生殖、無性生殖が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
コンテンツマーケティングの9つのモデル
心理学入門
高カロリー、高たんぱく質の食事
栄養と運動
呼吸器系
医学免疫学
サプライチェーンマネジメント・生産運用戦略(機械設備に適用)
マッキンゼーの働き方マインドマップ
プロジェクト指向プログラミング プロジェクト ソリューション
効率的な記憶方法
機械学習 (機械学習)
機械学習とは
機械学習は、先験的な制限的な仮定を持たずに、大量のデータから知識を抽出しようとします。
パターンを見つけて、パターンを適用する
高次元性、非線形性
分類
教師あり学習 (教師あり学習)
データセットが与えられ、正解 (ターゲット Y と特徴 X が調整されている) が与えられると、データセット内の各例について、アルゴリズムはその例の「正解」を予測します。
多重線形回帰は教師あり学習の一例です
教師あり学習アプリケーション
回帰
回帰問題は、連続ターゲット変数の予測を解くことに焦点を当てており、多数の数値的特徴 (その多くは相関している) を含む大規模なデータ セットに適しています。たとえば、過去の株式市場の収益を使用して将来の株価パフォーマンスを予測したり、企業の過去の財務指標を使用して債券デフォルトの確率を予測したりできます。
回帰は、連続ターゲット変数の予測を行うことに焦点を当てます。
ペナルティ付き回帰
分類問題は、観測値の分類に焦点を当てます。従属変数 (ターゲット) がカテゴリ変数の場合、結果を独立変数 (特徴) に関連付けるモデルは「分類器」と呼ばれます。例には、財務上の不正または不正なし (2 つのカテゴリ)、格付けの割り当て (複数のカテゴリ、連続) が含まれます。
分類は、観察を個別のカテゴリに分類することに重点を置いています
教師なし学習 (教師なし学習)
指定されたデータセットにはターゲット結果はなく、アルゴリズムはデータ間の構造を自ら発見します。これは、データ量が多すぎたり、人間が直接観察するには複雑すぎる領域に適しています。
教師なし学習アプリケーション
次元性
観察結果の差異を維持しながら、特徴量の数を減らします。たとえば、投資とリスク管理の分野では、資産価格に影響を与える主な要因を特定します。
観測値間の変動を維持しながら、データセット内のフィーチャの数を削減して、その変動に含まれる情報を保存するための一連の手法。
クラスタリング
企業などの観察データを、業界や地域ごとではなく財務指標の特徴ごとに分類します。
クラスタリングは、従来のグループ分け(セクターや国などに基づく)ではなく、経験的に決定されたグループ分け(財務諸表データなどに基づく)に企業を分類するために資産運用会社によって使用されてきました。
深層学習と強化学習 (深層学習と強化学習)
ニューラル ネットワーク (NN または ANN) に基づく
ディープラーニング
画像分類、顔認識、音声認識、自然言語処理
強化学習
コンピューターは、コンピューター自体 (またはアルゴリズムによって形成されたデータ) と対話することで学習します。
機械学習アルゴリズムの選択
モデルの性能評価
データセット データセット
トレーニングサンプル
検証サンプル
テストサンプル
フィッティング
過学習
サンプル内適合は良好ですが、新しいサンプル外データを適切に予測できません。 (モデルには多少のノイズやランダムな変動が考慮されています)
ML アルゴリズムの評価は、アルゴリズムが適合したデータ (つまり、トレーニング データ) の適合度ではなく、新しいデータの予測誤差に焦点を当てます。
バイアスエラー
誤った仮定を含むアルゴリズム
アンダーフィッティング、高いサンプル内誤差
分散誤差
不安定なモデルではノイズが発生します。
オーバーフィッティングと高いサンプル外誤差。
基本エラー
データのランダム性による基本誤差
フィッティング不足
データ間に適切な関係が見つかりません
アンダーフィッティングとは、モデルがデータ内の関係を捉えていないことを意味します
堅牢なフィッティング
学習曲線とフィッティング曲線
学習曲線
フィッティングカーブ
過学習の防止
過学習ペナルティ関数を追加 過学習ペナルティ
1) 過学習ペナルティの推定が必要となる、選択およびトレーニング中にアルゴリズムが複雑になりすぎるのを防ぐ
オッカムの剃刀 オッカムの剃刀
相互検証
2) 検証サンプル内の誤差を決定することでサンプル外誤差を直接推定する手法である相互検証を使用して、適切なデータ サンプリングを実現します。