トピックス プログラム、シミュレーション

隠れて役に立つ

投稿日:

昨日の「ニューラルネットワーク」の続きです。 次の資料ご覧ください。

資料はこちら → ニューラルネットワーク2

p.1 画像データを入力層に入れると「隠れ層」を経て出力層に進みます。この隠れ層が何層もあるのが「ディープラーニング」と言うそうです。 入力データにはノイズ余分な情報も含まれています。その中から必要な情報に重み付けをして、出力の精度を上げていきます。例えば、文字の画像データを入力する際に、かすれていたり、クセのある字の場合に、その部分の重みを減らし無視するのです。SN比を上げていくようなイメージです。「隠れ層」がこの働きをしています。 図を見てください。 信号に重みを掛けて足していき、閾値を差し引きます。この値活性化関数に入れて隠れ層の一つに入力します。

p.2 隠れ層から出力層に移行する際にも、重みをかけて足し同様なs値を計算して活性化関数に入力後、出力層に入力します。

p.3 画像データとして「0」を入れると、x=0、x=1のようなデータが入力層に入ります。出力層のは「0」と認識したときに「1」を出力し、は「1」と認識した時に「1」を出力するように設定されています。 今回、z1=1、z=0と出力されるのが理想です。

p.4 上図は画像データ「0」を入力した場合の理想の出力、下図は画像データ「1」を入力した場合の理想の出力です。もし及びzが理想からずれている場合は、誤差e0、e1のような平方和の平均で評価します。 ここでも平方和が活躍しています。

p.5 いろいろな画像データを読み込んで、誤差eを算出してそれらの和Eが最小になるように重みや閾値を調整して最適化します。 この最適化をする方法が「誤差逆伝播法」と言います。 またの機会にまた説明します。

-トピックス, プログラム、シミュレーション

Copyright© 進化するガラクタ , 2019 All Rights Reserved Powered by STINGER.