Using Deep Learning for Image-Based Plant Disease Detectionを落合フォーマットでまとめました。
どんなもの?
Deep neural networksで植物病害診断の改善を試みた。
データセットは26の病気をもつ14種類の植物画像54,306枚のを用いている(FIGURE 1)。
先行研究と比べてどこがすごい?
当時従来の方法と呼ばれていたものは、
www.slideshare.net
HoG
がある。
これらは特徴量を事前に定義しておかなければならないため(手作業)中々ヘビーでしんどい。
だがDeep neural networkはそういった問題を克服できる。
技術や手法のキモはどこ?
葉の原画像color(a, d)に対してグレースケール(b, e)にしたり葉の部分のみ切り取った画像(c, f)をそれぞれ用意して実験を行った。
それぞれ以下を方法組み合わたら計60回の実験設定になる。
ちなみに以下のTransfer Learningというのは今でいう転移学習のこと(多分)である。
AlexNetとGoogLeNetのTransfer LearningはImageNetを用いたpretrainモデルを使ってる。
また、ハイパーパラメータは以下を利用した。
- epoch数 : 30
- optimizer : SGD(Stochastic Gradient Descent)って書いてあるけど多分Momentum SGD
- Momentum : 0.9
- Base learning rate : 0.005
どうやって有効だと検証した?
FIGURE3は30epoch学習させた時の平均F1スコアとloss関数のグラフをまとめたものである。
以下のTABLE 1はその実験の結果である(平均F1スコアで評価)
grayscaleは全体的に低い。color(原画像)とsegmented(切り抜き画像)ではわずかにcolorの方が良い結果になっている。
もっともよいモデルはGoogLeNet(Transfer learning)のTRAIN : 80%, TEST : 20%、colorの場合であった。平均F1スコアは0.9934だった。
FIGURE4は(A)にような画像が与えられたときのAlexNet(TrainFromScratch, TRAIN : 80%, TEST : 20%, color)の1番最初の畳み込み層を可視化したもの(B)である。
議論はある?
異なった環境下の葉の写真を用いてテストしたら精度が約31%ほどに落ちた。より多くの異なった環境の学習画像を用意しなければならない課題がある。
また今回は1種類(同種)の葉に対して診断を行ったので植物に種類を特定して病気を診断できるようにする必要がある。
次に読むべき論文は?
どなたか教えて下さい