マインドマップギャラリー 人工知能の基礎
人工知能の基本は、深層学習を含まない比較的伝統的な手法です。深層学習については、私の別のマインド マップをご覧ください。この記事では、人工知能、決定論的知識システム、不確実性推論、インテリジェント検索技術などの概要をまとめます。
2024-02-04 00:47:36 に編集されましたAvatar 3 centers on the Sully family, showcasing the internal rift caused by the sacrifice of their eldest son, and their alliance with other tribes on Pandora against the external conflict of the Ashbringers, who adhere to the philosophy of fire and are allied with humans. It explores the grand themes of family, faith, and survival.
This article discusses the Easter eggs and homages in Zootopia 2 that you may have discovered. The main content includes: character and archetype Easter eggs, cinematic universe crossover Easter eggs, animal ecology and behavior references, symbol and metaphor Easter eggs, social satire and brand allusions, and emotional storylines and sequel foreshadowing.
[Zootopia Character Relationship Chart] The idealistic rabbit police officer Judy and the cynical fox conman Nick form a charmingly contrasting duo, rising from street hustlers to become Zootopia police officers!
Avatar 3 centers on the Sully family, showcasing the internal rift caused by the sacrifice of their eldest son, and their alliance with other tribes on Pandora against the external conflict of the Ashbringers, who adhere to the philosophy of fire and are allied with humans. It explores the grand themes of family, faith, and survival.
This article discusses the Easter eggs and homages in Zootopia 2 that you may have discovered. The main content includes: character and archetype Easter eggs, cinematic universe crossover Easter eggs, animal ecology and behavior references, symbol and metaphor Easter eggs, social satire and brand allusions, and emotional storylines and sequel foreshadowing.
[Zootopia Character Relationship Chart] The idealistic rabbit police officer Judy and the cynical fox conman Nick form a charmingly contrasting duo, rising from street hustlers to become Zootopia police officers!
人工知能の基礎
人工知能の概要
AIの基本概念
スマートコンセプト
自然な知性
意味
人間と一部の動物の力と行動能力を指します。
人間の自然な知性
それは、思考プロセスと精神的活動によって現れる、客観的な世界を理解する人間の総合的な能力です。
知性のさまざまな見方と階層
ビュー
心の理論
知性は思考活動から生まれる
知識閾値理論
知性は適用可能な知識に依存します
進化論
知性は段階的な進化によって獲得できる
階層
インテリジェンスに含まれる特徴的な能力
感知
記憶力と思考力
学習と適応力
行動能力
人工知能の概念
説明する
人工的な方法を使用して機械に知能を実現する
インテリジェントなマシンやシステムを構築し、人工知能をシミュレートおよび拡張する方法を研究する
チューリングテスト
人工知能の研究目標
AIの出現と発展
妊娠期間
形成期
知識応用期間
学校分離から総合へ
機械学習とディープラーニングが道をリードする
AI研究の基本的な内容
人工知能の主体的立場
自然科学と社会科学の交差点
コア: 思考と知性
基礎科目:数学、思考科学、コンピュータ
脳科学と認知科学との融合研究
知能シミュレーションの手法と技術に関する研究
機械の知覚
ビジョン
聴覚
機械の思考
機械学習
マシンの動作
AI 研究のさまざまな流派
象徴主義
数学的論理
知識工学
コネクショニズム
バイオニクス
人工ニューラルネットワーク
行動主義
サイバネティクス
決定論的な知識システム
決定論的知識システムの概要
知識表現
知識の定義
知識の種類
必要とする
表現力
正しく効果的な表現
可用性
効果的な推論に役立つ
整理性と保守性
何らかの方法で知識構造に組織化できる
わかりやすさと実現可能性
読みやすく、理解しやすく、入手しやすく、実装しやすい
表示方法
タイプ
宣言的知識
知識そのものと使用プロセスが分離されている
過渡的な知識
知識そのものと使用プロセスが組み合わされる
基本的な方法
非構造化アプローチ
述語論理
生産
構造化されたアプローチ
セマンティックネットワーク
フレーム
知識推論
意味
構造
複数の判断を分析・総合して新たな判断を下す
プロセス
知識処理
精神プロセスの主な形態
三段論法
Linear(線形三段論法)
状態
確率
推論方法
推論ロジック
解釈
三段論法
誘導
仮定と証明
知識の確実性
もちろん
不確かな
マシンの実装
推論エンジン(推論を実現するプログラム)
推論制御戦略
分類
推論戦略
検索戦略
決定論的な知識表現方法
述語論理表記法
ロジックの基礎
命題
真または偽の意味をもつ平叙文(アサーション)
真理値(命題の意味)
T/F
言説の領域
対象となるすべてのオブジェクトから構成される集合も個別のドメインになります
述語
P(x1,x2,...,xn) など、述語ロジックで命題を表すために使用されます。 P:D^n->{T,F}。ここで、D^n={(x1,x2,...,xn)|x1,x2,xn∈D)
これは D から {T, F} へのマッピングであり、真の値は T または F であり、独立して存在できます。
関数
f:D^n->D。ここで、D^n={(x1,x2,...,xn)|x1,x2,xn∈D)
D から D へのマッピング。関数の値は D の要素であり、述語の個別としてのみ存在できます。
接続詞
┐、∧、∨、→、↔
数量詞
∀、∃
量指定子の範囲
量指定子の後の単一の述語または式を指します。
制約変数
ドメイン内の量指定子と同じ名前の変数
自由変数
制約のない変数
述語論理表現の典型的な例
コンディション部分
アクションパート
テーブルの削除
テーブルの追加
特徴
アドバンテージ
自然、明確、正確、柔軟、厳格、モジュール式で実装が簡単
欠点がある
知識表現能力が低い
決定論的な知識しか表現できない
ナレッジベース管理の難しさ
組織化の原則に関する知識の欠如
組み合わせが多すぎる
盲目的に推論することしかできない
システム効率が低い
推論計算と知識意味の分離
製造表記
基本的な方法
事実
コンセプト
ファクトは、言語変数の値、または複数の言語変数間の関係を主張するステートメントです。
表示方法
(オブジェクト、属性、値)
(関係、オブジェクト 1、オブジェクト 2)
ルール
形状
P->Q
A と B なら C
特性
アドバンテージ
自然、モジュール式、効果的
効率が低く、構造知識を表現するのが不便
セマンティックネットワーク表現
意味
有向グラフで知識を表現するためのエンティティと意味関係
構成
ノード
アーク
意味単位
(ノード1、アーク、ノード2)
基本的なネットワーク要素
基本的な意味関係
インスタンス関係: ISA
意味: です
具現化:具体と抽象
分類関係(汎化関係):AKO
意味:
実施形態: サブクラスとスーパークラス
メンバーシップ: A メンバー
意味:会員になること
体現:個人と集団
属性関係: 持っている
意味: はい
実施形態:属性を有する
属性関係: できる
意味:できる
発現:何かができること
包含関係(クラスタリング関係):一部
意味:~の一部
具現化:部分と全体
注: プロパティの継承はありません。
時間関係:前後
意味:前/後
位置関係: Locat-on/Locat-under/Locat-at
意味: 上/下/上…
類似の関係: 似ている/近い
意味:似ている/近い
推論
継承する
インスタンスに渡される抽象化
ノード テーブルを作成し、ISA、AKO、A-Member-of を検索します。
マッチ
一致するものを見つける
フラグメントを構築する
特性
アドバンテージ
構造的、連想的、自然的
欠点がある
非厳密性
複雑
フレーム表記
フレーム理論
フレーム
人はその枠組みに新しいものを加えていく限り、特定の存在を形成することができる
インスタンスフレーム
フレームワークの場合、詳細を入力した後、具体的な例が表示されます。
フレームシステム
フレーム理論では、フレームは知識の基本単位です
フレーム構造とフレーム表現
フレーム<フレーム名>
スロット名 1: サイド名 1 値 1、値 2、...
フレームシステム
肖像画
アコとイサ
水平
フレーム表現の特徴
アドバンテージ
構造的、奥深く、遺伝的、自然的、原因と結果を表現できる
欠点がある
フレームワークの正式な理論の欠如、プロセスの知識の欠如、明確性を確保することの難しさ
決定論的知識推論手法
制作推論
基本構造
包括的なデータベース
推論プロセスに必要なさまざまな情報を保存する
問題の初期状態
事実を入力する
中間および最終結論
推論プロセスの選択の基礎として
ルールベース(知識ベース)
効果
推論に必要なすべてのルールを保存します
これは、実稼働システムが推論できるための基礎です。
必要とする
完全、一貫性、正確、柔軟、整理可能
制御システム(推論エンジン)
効果
制御システムの動作
タスク
一致を選択
特定の戦略に従ってルールベースからルールを選択し、包括的なデータベース内の既知の事実と照合します。
紛争解決
正常に一致したルールについては、特定の戦略に従ってルールを実行します
操作を実行する
導き出された結論を包括的なデータベースに追加し、他の操作がある場合は実行を続行します。
終了理由
合成データベースにターゲットが含まれているかどうかを確認し、含まれている場合は推論を停止します
ルー・ジンが説明する
適用されたルールの順序を覚えて、問題の説明パスを与える
推論方法
前向き推論
逆推論
ハイブリッド推論
自然な演繹的推論
論理的根拠
等価
雍正スタイル
交換する
団結
方法
強く押す
帰納的演繹的推論
帰納的推論と演繹的推論の論理的基礎
真と偽
永遠の真実性
誰でも満足
満足度(互換性)
値が true である個体が少なくとも 1 人存在します
永続的な虚偽 (非互換性)
満足していません
パラダイム
トウビームパラダイム
すべての量指定子は、負でない数式の先頭に表示され、数式全体を制御します。
スコレムのパラダイム
フロント バンドル パラダイムに基づいて、すべての存在量指定子は普遍量指定子の前にあります。
句セットとその簡略化
句
言葉
アトミック述語式とその否定
句
リテラルの論理和は句になります
空の句
テキストのない条項
永久休暇
□またはNILとして覚えてください
条項セット
述語ロジックでは、等価関係と推論ルールを適用することで、任意の述語式を対応する文節のセットに変えることができます。
条項セットの簡略化
述語式の「→」と「↔」を削除する
P→Q は ┐P∨Q と書くことができます。
P↔Q は (P∧Q)∨(┐P∧┐Q) と書くことができます。
否定記号の範囲を減らして、1 つの述語にのみ適用されるようにします。
┐(┐P)はPと書くことができます
┐(P∧Q) は (┐P)∨(┐Q) と書くことができます。
┐(P∨Q) は (┐P)∧(┐Q) と書くことができます。
┐(∀x)P(x) は (∃x)┐(P(x)) と書くことができます。
┐(∃x)P(x) は (∀x)┐(P(x)) と書くことができます。
変数を標準化する
異なる量指定子によって制約される変数の名前が異なるように、量指定子の名前を変更します。
トーインパラダイム
すべての量指定子を数式の左側に移動します。移動時に相対的な順序が変わらないように注意してください。
存在量指定子を削除する
ユニバーサル量指定子のスコープ内に現れない量指定子がある場合 (つまり、その左側にグローバル量指定子がない場合)
制約の変数を新しい個別の定数に置き換えます。
たとえば、(∃x)P(x) は P(y) と書くことができます。
ユニバーサル量指定子のスコープ内に量指定子がある場合 (つまり、その左側にグローバル量指定子がない場合)
y 引数を Skolem 関数に置き換えます。
y が x の範囲内にある場合、y は f(x) と書くことができます。
Skolem標準形式に変換
∨ が 1 つの述語にのみ作用するように、∨ の管轄範囲を縮小します。
P∨(Q∧R) は、(P∨Q)∧P(P∨R) と書くことができます。
全称量指定子を削除する
すべての変数は普遍的な量指定子によって制約されており、グローバルな量指定子は順序とは何の関係もないからです。
直接省略できる
接続詞を消去します ∧
述語式を節のセットに変換する
変数名の変更
同じ引数名が 2 つの句に出現しない
特性
スコーレム化により一意ではありませんが、満足度には影響しません
述語式 F が満たされない必要十分条件は、節の集合が満たされないことです
ロビンソンの還元原理
基本的な考え方
文節間には接続∧の関係があります。したがって、1 つの条項が満たされない限り、一連の条項全体が満たされないことになります。
句セットに空の句が含まれている場合、句セットは次の条件を満たすことができません。
まず、証明したい質問を否定し、それを一連の条項に追加します。句セットに空の句があることを確認してください。空の節がある場合は、質問の否定が偽であることを意味し、そうでない場合は還元が続行されます。どう煮詰めても本当なら本当だ。
命題論理
還元的推論
補足文
P がアトミック述語式の場合、P と ┐P は相補的です
に降りてくる
C1C2 は節 (論理和 ∨ のみ) です。 C1 には L1 があり、C2 には L2 があります。 L1 と L2 が相補的な場合、L1L2 は削除されます。残りの部分で論理和 ∨ を押して、新しい文節 C12 を取得します。 C1 と C2 は C12 の親節です
特性
結果は同じですが、プロセスは独特ではありません
結論は
C12 は C1 と C2 の論理的な結論です
C1 と C2 が true の場合、C12 も true でなければなりません
C12 が C1 と C2 を置き換えた後、新しい条項セット S1 の不充足性は S の不充足性から導出できます。
C12 が C1 と C2 を結合した後、新しい節セット S1 の不充足性は S の不充足性を相互に推論できます。
述語論理
論理的に要約すると
パブリック変数がない場合は、統合操作が実行され、{a/y} として記録されます。
パブリック変数がある場合は、それらを置き換えてから 1 つに結合します。
2 つのペアを同時に削除することはできません
堂々巡りになったり、解決策が見つからない場合は、プロセスに問題がないか確認してください。
統一できる内部変数がある場合は、まず内部で統一する必要があります。
演繹的推論の方法
原理
ロビンソン還元原理に基づく機械推論手法
プロセス
ネガティブな目標の式
目標を公式セットに入れる
一連の式を一連の句に変換します。
一連の条項を要約する
決定論的知識システムの簡単な例
不確実性推論
不確実性推論の基本概念
不確実性推論の意味
不確実な初期証拠から出発し、不確実な知識を使用して、不確実ではあるが合理的、または基本的に合理的な結論を導き出す
不確実性推論の適用範囲
不完全かつ不正確な知識
曖昧な説明
複数の理由が同じ結論に至る
結果は一意ではありません
不確実性推論の基本的な問題
知識の不確実性表現
考慮事項
問題記述能力、推論における不確実性の計算
意味
知識の確実性の程度、つまり静的な強さ
表示方法
確率[0,1]
信頼性[-1,1]
証拠の不確実性の表現
証拠の種類
証拠組織
基本的な証拠
証拠を組み合わせる
分離または結合。基本的な証拠に基づいて、最大最小法、確率的方法、有界法などがあります。
証拠の出典
初期、中期
表示方法
確率、信頼性、ファジー集合
不確実なマッチング
意味
不確実な前提条件は不確実な事実と一致する
計算方法
類似度を計算するアルゴリズムを設計し、類似度の限界を指定して、その限界内に収まるかどうかを確認します。
不確実な更新
証拠の不確実性を利用して結論の不確実性を更新する方法
メソッドが異なれば処理も異なります
中間結論の不確実性が最終的な啓示に伝わる場合
現在の結論とその不確実性を新しい結論としてデータベースに入れて渡す
不確実な結論の総合
複数の異なる知識は同じ結論につながりますが、信頼性は異なります
不確実性推論の種類
数値的手法
確率に基づいて
信頼性へのアプローチ
主観的ベイズ
証拠理論
確率的推論
ファジー推論
非数値的手法
信頼性の推論
信頼性の概念
信憑性とは、人々が特定の物事や現象が真実であると信じる度合いであり、ある程度の主観性を持っています。
信頼性推論モデル
ルール表現
イフ・エ・ザ・ン・H(CF(H,E))
意味
Eは前提、Hは結論、CFは信頼性です。
CF(H,E)
値の範囲は [-1,1] です。
CF(H,E)=MB(H,E)-MD(H,E)
意味
MB は信頼の成長です
MD は不信感の増加率です
結論は
相互に排他的で、2 つのうちの 1 つは 0 でなければなりません
値の範囲は [-1,1] です。
前後に押すことができる
MB(H)=MD(┐H)
MB(H) MB(┐H)=0
信頼性は確率ではなく、P(H) P(┐H)=1 を満たしません。
計算する
結論における単一の証拠の信頼度を計算する
式を更新する
CF(H)=CF(H,E)*max(0,CF(E))
H に対する CF が false であることの影響を考慮しないでください。
証拠を組み合わせる
結合および: 最小値を取得します
論理和または: 最大値を取る
結論における単一の証拠の信頼度を計算する
合成フォーミュラ
割り切れない場合は小数点第2位を四捨五入してください。
応用
血液診断エキスパートシステム MYCIN
主観的なベイズ推論
確率論の基礎
総確率公式、ベイズ確率
推論モデル
メインメソッド
H の事後確率を更新する
ルール表現
イフ・エ・ザ・ン (LS,LN) H
意味
(LS,LN)
知識の知識強度を表すために使用されます。
LS
十分性の尺度
LN
必要な措置
牛)
確率関数
P(x)=0↔O(x)=0
P(x)=1↔O(x)=∞
O(X)=P(X)/(1-P(X))
P(X)=O(X)/(1O(X))
結論は
O(H|E)=LS*O(H)
O(H|┐E)=LN*O(H)
自然
LS
LS>1
E は H をサポートします。LS が大きいほど、E はより完全に H をサポートします。
LS が ∞ に近づくと、P(H|E) は 1 に近づきます。これは、E によって H が真になることを意味します。
LS=1
E は H に影響を与えません
LS<1
E は H をサポートしません。LS が小さいほど、E は H を完全にはサポートしません。
LS=0 の場合、P(H|E)=0、つまり E により H が false になります。
LN
LS の E を ┐E に置き換えます
計算する
結論における単一の証拠の信頼度を計算する
式を更新する
E が確実に真の場合
E が明らかに偽の場合
EがSと何の関係もない場合
その他のケース
証拠を組み合わせる
P(E|S) を見てください。
結合および: 最小値を取得し、より大きな証拠を直接破棄します。
選言的または: 最大値を取得し、小さい証拠を直接破棄します。
結論に対する複数の証拠の信頼度を計算する
計算の途中で合成され、後から引き継ぐことができます。
応用
地質・鉱物探査エキスパートシステム PROSPECTOR
ファジー推論
ファジーセット
コンセプト
μF はメンバーシップ関数、F は U のファジー集合です
μ(u) が大きいほど、メンバーシップの度合いが高くなります。
ファジー集合とそのメンバーシップ関数は同等ではありません
急行
離散
知らせ
/ は区切り記号であり、分割記号ではありません
プラス記号ではなくコネクタです
所属度が0の場合は省略可能ですが、推奨しません。
例
F=1/20 0.8/30
継続的
例
一般的な表現方法
知らせ
∫ は関係記号であり、数学における積分記号ではありません。
手術
F⊆G
U に属する任意の u について、μF(u)<=μF(u) が存在します。
F∪G
各 u について、2 つの値の最大値を取得します。
F∩G
各 u について、2 つの値の最小値を取得します。
サブトピック 2
┐F(補数)
各 u について、1-μF(u) を取得します。
ファジーコンセプトマッチング
意味的距離
意味
例
効果
適合性
意味
1-d(F,G)
2 つの概念が一致するかどうかを判断するために、しきい値を指定できます。
親密さ
外積は、省略された要素をメンバーシップ 0 で補う必要があることに注意してください。
あいまいな関係
意味
デカルト積に似ている
曖昧な関係の構築
意味
デカルト積と同様に、最初に小さい値を取得し、次に大きい値を取得します。
例
U は行、V は列
ファジー関係の合成
意味
行列の掛け算と同様に、各位置を計算するときは、「小さいものを最初に取り、次に大きいものを取り出す」
例
ブラー変換
演算とファジィ関係の合成
ファジィ推論法
与えられた推論モードに従って、ファジィ集合とファジィ関係の合成を通じて実現されます。
ファジー知識表現
ルール
IF x が F THEN y は G
証拠
x は F`
ファジィ推論法
あいまいな仮説推論
意味
例
ファジー耐性のある推論
意味
例
仮説三段論法
意味
例
インテリジェントな検索テクノロジー
検索の概要
意味
検索
知識を活用して最小限のコストで推論ルートを構築する
スマート検索
検索プロセス中に得られる中間情報を使用して、検索を最適な方向に導くアルゴリズム。
タイプ
スペース検索に基づいて
状態空間
アルゴリズム
A* アルゴリズム
および/またはツリー
問題を減らす方法
ゲームツリー
最大/最小アルゴリズム
α-β剪定
ランダムアルゴリズムに基づく
進化の仕組み
遺伝的アルゴリズム
免疫の最適化
免疫アルゴリズム
人口の最適化
アリコロニーアルゴリズム
粒度の高い群アルゴリズム
統計モデル
モデルカルロアルゴリズム
その他の方法
山登り検索アルゴリズム
シミュレーテッドアニーリングアルゴリズム
状態空間問題の解決法
状態空間問題の表現
州
問題解決プロセスの各ステップの問題ステータスを表すデータ構造。ベクトルで表すことができます。
操作する
演算子とも呼ばれ、ある状態を別の状態に変換し、状態間の関係を記述します。
状態空間
問題のすべての状態と状態間の関係を記述するために使用され、トリプル (S、F、G) で表すことができます。
S
初期状態
F
操作セット
G
目標状態
有向グラフで表すことができる
ノードは状態を表す
エッジは操作を表します
問題解決のプロセス
適切なステータスとアクションを選択してください
初期状態から開始して、目標状態に到達するまで、一度に 1 つの操作を使用して一連の操作を構築します。
初期状態から目標状態までに使用される一連の演算子が解決策です
問題仕様の解決方法
基本的な考え方
問題を一連の単純なサブ問題に分解するか、等価に変換します。
開始ノードが解決可能であることを示すことを目的として、AND-OR グラフ上で検索を実行するプロセス。つまり、検索はターゲット ノードへのパスを見つけることではなく、ソリューション ツリーを見つけることです。
表示方法
および/またはツリー
意味
エンドノード
子ノードのないノード
終端ノード
元の問題
直接回答できる質問 (再帰終了)
元の問題に対応するノード
解決可能なノード
すべての終端ノードは解決可能なノードです
「OR」ノードの場合、その子ノードの少なくとも 1 つが解決可能なポイントであれば、それは解決可能なポイントになります。
「AND」ノードの場合、すべての子ノードが解決可能なポイントである場合、それは解決可能なポイントです。
ソリューションツリー
それは解決可能な借用点で構成され、解決可能なノードから、最初のノードが解決可能な借用点であると推測できます。
ブラインド検索戦略
深さと広さ
状態空間のヒューリスティック検索
感動的な情報
検索のガイドとなる情報
評価関数
ノードの重要性を推定する
f(n)=g(n) h(n)
おやすみなさい)
初期ノードS0からノードnまでの実際のコスト
h(n)
n からターゲットノード Sn までの最適パスの推定コスト
アルゴリズム
Open テーブル内のすべてのノードから最小の推定値を持つ展開を選択します
A* アルゴリズム
アルゴリズム A の g(n) と h(n) に次の制限を設けます
g(n) は最小コスト g*(n) の推定値であり、g(n)>0
h(n) は最小コスト h*(n) の下限です、つまり h(n)<=h*(n)
ツリーを使用したヒューリスティック検索
ツリーを解決するコスト
n が終端ノードの場合、コスト h(n)=0
n が OR ノードの場合
コスト h(n)=(子ノードのコスト ノード n から子ノードまでのコスト) 最小値
n が AND ノードの場合
及び検討方法
コスト h(n)=(子ノードのコスト ノード n から子ノードまでのコスト) の合計
最大原価法
コスト h(n)=(子ノードのコスト ノード n から子ノードまでのコスト) 最大値
n が終了ノードではあるが終端ノードではない場合
コスト h(n)=∞
希望の木
探索プロセス中に最適解ツリーとなる可能性が最も高いツリー
通常、一度に 2 つのレイヤーが展開されます。
ゲームツリーのヒューリスティック検索
ゲーム
特徴
自分のターンは「OR」、相手のターンは「AND」
または ノードと交互に使用する
ミニマックスプロセス
部分的なゲーム ツリーを生成し、リーフ ノードを評価する
リーフノード
自分にとって有益な場合はプラスの値が取られ、相手にとって有益な場合はマイナスの値が取られます。
非リーフノード
葉のノードから上に押し上げる
私たちのノードでは、毎回最大の評価を持つノードを選択するため、私たちのノードの値は後続ノードの最大値である必要があります。
相手ノードについては、評価値が最も小さいノードが毎回選択されるため、自ノードの値は後継ノードの最小値になるはずです。
α-β剪定
エッジはノードを生成し、エッジはノードを評価します。
私たちのノード -> α値: 現在の子ノードの最大値
反対ノード→β値:現在の子ノードの最小値
デフォルトは「I」が最初です
剪定方法
アルファ枝刈り
いずれかの対戦相手ノードのベータ値が先行ノードのアルファ値以下の場合、検索は停止します。
枝刈りされたサブツリーのルート ノードは α レベルにあり、これが α 枝刈りです。
β剪定
いずれかのノードの α 値が先行ノードの β 値以上である場合、検索は停止します。
枝刈りされたサブツリーのルート ノードは β レベルにあり、これが β 枝刈りです。
遺伝的アルゴリズム
意味
プロセス
コーディング
タイプ
バイナリエンコーディング
意味
元の問題の構造を染色体のビット列構造に変換する
操作する
まず長さ l を決定します。これは変数の定義域と計算精度に関係します。
欠点がある
2 進数では、7 と 8 はよく似ていますが、0111 から 1000 までは大きな違いがあります (ハミング クリフ)
グレイコード
意味
バイナリ エンコーディングの改良版。連続する 2 つの整数のエンコーディングは 1 コード ビットのみ異なることが必要です。
操作する
実際のエンコーディング
特徴
浮動小数点
適用範囲
高精度、多次元
文字コード
フィットネス機能
よく使われるフィットネス機能
独自のフィットネス機能
アドバンテージ
本来の目的をそのまま反映
欠点がある
負の数が発生する可能性があります
標準フィットネス機能
非常に小さい
素晴らしい
加速された変革
基本操作
アクションの選択
比率の選択
ルーレット
適応度の値が大きいほど、選択される可能性が高くなります。
繁殖池
並べ替えの選択
競争力のあるオプション
トーナメントセレクション
クロスオーバー動作
意味
部分的な遺伝子組換え
タイプ
バイナリクロスオーバー
シングルポイントクロスオーバー
ある時点までは変化なし、ある時点以降は変化する
2点クロス
前も後も変わらない二点のやりとり
マルチポイントクロスオーバー
均等に交差する
実質的なクロスオーバー
突然変異操作
タイプ
二値突然変異
0↔1の間で変化します
大幅な変動
生物進化の過程では、遺伝と突然変異によって選択が働くと同時に、環境に適応する方向に突然変異と遺伝が発展していきます。
機械学習
機械学習の概要
学習コンセプト
学習に対する心理学的視点
脳科学と認知科学に基づいた
分類
コネクショニストの視点
学びの本質はつながりを作ること
認識論的観点
学習の本質は学習者の心の認知構造の変化です
変化
行動
行動の可能性
芯
行動と行動の可能性の変化が特徴
経験によって引き起こされる行動の変化
行動の変化が長く続く
人工知能の学習に対する視点
知識の習得
芯
能力の向上
結果
一般的な説明
機械学習の概念
機械学習とは
機械は人間の学習をシミュレートします
主な研究内容
認知シミュレーション
理論的分析
課題指向の研究
機械学習システム
適切な学習環境を整える
一定の学習能力がある
学んだ知識を使って問題を解決する能力
学習を通じて自分自身のパフォーマンスを向上させる
機械学習の種類
メンターからの指導はありますか?
教師あり学習
分類された学習スタイル
教師なし学習
生成的学習アプローチ
学習戦略
記憶学習、教える学習、演繹学習、帰納学習
応用分野
専門家同一学習、ロボット学習、自然言語理解学習
機械学習システムの基本モデル
環境
学習システムは、外部ソースでもある外部情報の集合を認識します。
学習セッション
環境から提供される情報を整理、分析、形成し、知識ベースに組み込む
知識ベース
加工された情報を保存する
実行リンク
ナレッジベースに基づいてタスクを実行する
記憶学習
メモ化された検索
空間を時間と交換する
収納構造
環境の安定性
メモリと計算のトレードオフ
サイモンのチェッカーズ プログラム
例で学ぶ
タイプ
ソース例
教師、学習者自身、外部環境
例のタイプ
肯定的な例のみを使用する
肯定的な例と否定的な例を使用する
モデル
サンプル空間
実例集
誘導プロセス
例から一般知識を抽象化する帰納的プロセス
通常の空間
さまざまな法律をまとめたもの
検証プロセス
サンプルスペースから新しいインスタンスを選択して、要約したばかりのルールをさらに確認して変更します。
正例は概念を生成しますが、反例は拡張を拡張しませんが、反例は拡張を狭めます。
帰納法
定数から変数へ
条件を削除する
オプションの追加(∨操作)
カーブフィッティング(最小二乗法)
決定木の学習
デシジョンツリーの概念
デシジョン ツリーでは、同じパス上のすべての属性間に結合関係があります。
ID3アルゴリズム
コンセプト
情報エントロピーの減少速度を属性選択基準として使用する学習アルゴリズム
情報エントロピーの減少を最大化するという原則に基づいてサブツリーを分割し、徐々に決定木を構築します。
情報エントロピー
意味
情報エントロピーは、情報ソースの全体的な不確実性の尺度です。その値が小さいほど、情報ソースの不確実性は小さくなります。
エントロピー定量化公式
確率と情報エントロピーは、ランダムな出来事の表裏の関係にあります。
確率
何かが起こる可能性はどのくらいですか?
確実性の特徴付け
情報エントロピー
何かにはどれくらいの可能性があるのでしょうか?
不確実性の特徴付け
計算する
均等に分散
事象には同じ確率の状況が m 個あるとすると、そのエントロピーは次のようになります。 n=対数(m)
ベース
2
ビット
共通、デフォルト
e
ナット
微分計算
10
ベル
言語学
一般配布
意味
理解する
結合エントロピー
情報獲得
意味
2 つの情報量の差の尺度
重み付けされた情報エントロピー
式
ステップ
(4)
情報エントロピーE(S,X)を計算する
注: S が子ノードの場合、その下のすべての S i は子ノードの番号に置き換える必要があります。
属性 xi ごとに個別に
対応する重み付き情報エントロピー E(S,xi) を計算します。
まず、St にどのような要素があり、その割合がどのようなものであるかを書き留め、St の情報エントロピー E(St,X) を計算し、すべての計算が完了するまでこのプロセスを繰り返します。
次に、E((S,X),xi)を計算する式を導入します。
対応する情報ゲイン G(S,Xi) を計算します。
最大の情報を得て属性を拡張する
人工ニューラルネットワーク接続学習
概要
人工ニューラルネットワーク
コンセプト
人工ニューロンはトポロジカルに接続されています
略語
アン
構造
入力、計算、出力
つながる学習
シナプス接続重みの修正と安定化を完了する
分類
浅い層
センサー
BPネットワーク
ホップフィールドネットワーク
深い
人工ニューラルネットワークの生物学的メカニズム
構造
樹状突起
入力
細胞体
計算する
軸索
出力
タイプ
突起数による分類
ニューロンの電気生理学的特性による分類
神経細胞の機能による分類
人工ニューロンおよび人工ニューラルネットワークの構造とモデル
構造とモデル
人工ニューロン
構造
MPモデル
タイプ
しきい値の種類
区分的線形強飽和型
Sタイプ
閾値以下累積型
ニューロン モデルは単純な分類子として見ることができます
人工ニューラルネットワーク
コンセプト
人工ニューロンの相互接続によって形成されるネットワーク
分類
特徴
超並列処理
情報の分散ストレージ
学習能力がある
人工ニューラルネットワークの相互接続(トポロジー)構造
フィードフォワードネットワーク
コンセプト
前方結合のみが含まれます
単層フィードフォワードネットワーク
これには入力層と出力層のみが含まれており、出力層のニューロンのみが計算可能なノードです。
多層フィードフォワードネットワーク
入力層と出力層に加えて、少なくとも 1 つ以上の隠れ層も含まれます。
BPネットワーク
フィードバックネットワーク
コンセプト
フィードバック接続とループ接続を含めることができます
単層フィードバックネットワーク
隠れ層のないフィードバック ネットワーク
多層フィードバックネットワーク
隠れ層を備えたフィードバック ネットワーク
ホップフィールドネットワーク
安定性はエネルギー関数で記述されます
人工ニューラルネットワークの浅いモデル
パーセプトロンモデル
目的
外部入力の分類
外部入力が線形分離可能 (Σ(Wij*xi-θj)=0 を満たす) の場合、2 つのカテゴリに分類できます。
単層パーセプトロンのネットワーク トポロジは、単層フィードフォワード ネットワークです。
単層パーセプトロンは線形分離可能な問題を解決します
単層パーセプトロンには入力層と出力層が含まれます
パーセプトロン
パーセプトロンは実際に超平面を構築することでさまざまな点を分類します。
学習の概念は、人間の脳の学習機能をある程度シミュレートしたパーセプトロンに初めて導入されました。
パーセプトロンとニューロン モデルの最大の違いは、パーセプトロン モデルはトレーニング サンプルから学習できることです。