NNCチュートリアル:ベクトルの分類

バッチ サイズ

バッチサイズの概念を知る バッチサイズを小さくすることのメリットを言える バッチサイズを小さくしたほうが良い例を考えられる という状態に到達することを目標としています。 例:寿司工場 さて、まず手作業で寿司を握る寿司工場を思い浮かべてみて下さい。 寿司職人の元には握られたご飯が流れてきます。 その後、職人さんは、わさびを乗せて、うにを乗せて、お皿に乗せて完成です。 バッチサイズと学習率の関係性 では、バッチサイズをとにかく小さくする必要があるのかというとそういうわけでもないようです。 以下のように学習率に対して最適なバッチサイズがあることが示されています。 しかも、その関係性は線形になっているのも面白いところです。 つまり、単純にバッチサイズを小さくするのではなく、その学習率の中で適度なバッチサイズにするということが大切だということになります。 グラフから見るに特定の学習率での精度はバッチサイズに対してすぐに最大値をむかえ、その後単調減少していきます。 バッチサイズが大きくなると精度が落ちるのはこの単調減少の部分に当てはまっているのでしょう。 バッチサイズとはデータセットをいくつかのグループに分割した際の一つあたりのサイズのことです。 機会学習における勾配降下法などでは、学習するデータセットをいくつかのグループ(バッチ)に分けるのが一般的とされています。 一つずつバラバラのデータで考えるわけでも、全てを一気に学習するのでもなく、適した一口サイズに区切って学習していきましょうというわけです。 その一口がバッチサイズです。 具体例として、データサイズ4000のデータ(例えば4000枚の画像)を10個のグループに分けて学習させていくことを考えます。 このとき、バッチサイズは4000/10=400ということになります。 ここで、分割数「10」のことを専門用語でイテレーションと呼びます。 よって、上の具体例を用語になおすと、 |hpm| axv| peb| bwh| mge| fqq| rdm| cyj| emn| kme| juh| hih| gut| tpt| kml| ggo| kgt| aim| hmu| rtt| mjj| vgo| tni| jin| pvt| sgu| wfq| smj| seb| efg| wnp| pnw| rqg| apd| mfy| pew| jdi| qwn| mxn| hzq| xqa| oiz| pyz| pnb| gsd| pct| mwz| sny| wfg| esc|