災害救援を迅速に行うために機械学習で被害状況を評価(1/2)

入門/解説

1.災害救援を迅速に行うために機械学習で被害状況を評価(1/2)まとめ

・衛星写真により被災地を視覚的に把握出来るようになったが被害状況測定は未だ人力で時間がかかる
・衛星写真を自動的に処理して建物の損傷評価を生成する機械学習アプローチをこの度発表
・災害前後の画像は、異なる日付、時間帯、場合によっては異なる衛星で撮影されており困難であった

2.衛星画像から建物の損壊状況を予測する試み

以下、ai.googleblog.comより「Machine Learning-based Damage Assessment for Disaster Relief」の意訳です。元記事の投稿は2020年6月16日、Joseph XuさんとPranav Khaitanさんによる投稿です。

東日本大震災の際も直後の新聞は確定している被害分しか報道されていなかっため、非常に少ない死傷者数が報道されており、妙に少ないな、と感じた記憶がありますが、災害発生時に迅速にどこの被害が酷くて何が必要なのかを把握して救助計画をするのは大切な技術だなと感じます。

disaster、つまり「災害」で検索したつもりだったのですが、おそらく「惨事」の意味の方でひっかかって一番しっくりきた大惨事なアイキャッチ画像のクレジットはPhoto by Sarah Kilian on Unsplash

地震、ハリケーン、洪水などの自然災害は、広い地域と数百万の人々に影響を与えますが、そのような災害に対応する事は、物流上の大きな課題です。

政府、NGO、国連組織を含む危機対応者は、限られたリソースを割り当てる最善の方法を計画するために、災害後に包括的かつ正確な被災評価を迅速に入手する必要があります。

これを実現するために最大で0.3メートル単位の解像度を実現している超高解像度(VHR:Very High Resolution)衛星画像は、危機対応のためのますます重要なツールになっています。

衛星画像は災害によって地形、インフラストラクチャ、および人口がどのように変化したかについて、これまでにない幅広い視覚情報を対応者に提供します

ただし、災害救助に関する情報を抽出するには、依然として集中的な手作業が必要です。生の衛星画像から、崩壊した建物、橋の亀裂、人々が一時的な避難所を設置した場所を特定する作業が必要です。

例として、2010年のハイチ大地震の場合、アナリストはハイチの首都ポルトープランス地域だけで90,000を超える建物を手動で調査し、個々の建物が受けた被害を5段階評価で評価しました。これらの手動分析の多くは、専門家チームが作業しても完了するまでに数週間を要しますが、最も緊急な意思決定が行われる災害後48~72時間以内に最も必要とされます。

このような災害時の問題を緩和するために、衛星データを自動的に処理して建物の損傷評価を生成する機械学習(ML:Machine Learning)アプローチを詳しく説明する論文「Building Damage Detection in Satellite Imagery Using Convolutional Neural Networks」を紹介します。

国連世界食糧計画(WFP:World Food Program)のイノベーションアクセラレーターとの提携により開発されたこの研究は、危機対応者が被害評価レポートを作成するために必要な時間と労力を大幅に削減できる可能性があると考えています。

これにより、最も深刻な影響を受けた地域にタイムリーな災害援助を提供するために必要な所要時間が短縮され、このような重要なサービスがカバーできる範囲が全体的に拡大します。

アプローチ
自動損傷評価プロセスは、建物の検出と損傷の分類という2つのステップに分かれています。建物の検出ステップでは、物体検出モデルを使用して、画像内の各建物の周囲に境界ボックスを描画します。次に、検出された各建物を中心とした災害前と災害後の画像を抽出し、分類モデルを使用して建物が損傷しているかどうかを判断します。

分類モデルは畳み込みニューラルネットワークで構成されます。このネットワークには、2つの161画素 x 161画素のRGB画像が入力されます。これらは特定の建物を中心とした50m x 50mの地上画像に対応しており、1つは災害前の画像で、もう1つは災害後の画像です。

モデルは2つの画像の違いを分析し、0.0~1.0のスコアを出力します。0.0は建物が損傷していないことを意味し、1.0は建物が損傷していることを意味します。

災害前画像と災害後の画像は、異なる日付、時間帯、場合によっては異なる衛星で撮影されているため、様々な問題が発生する可能性があります。例えば、画像の明るさ、コントラスト、彩度、および照明条件が大幅に異なる場合がありますし、画像内の対応画素がずれている場合もあります。

色と照明の違いを修正するために、ヒストグラム均等化(Histogram equalization)を使用して、災害前と災害後の画像の色を正規化します。また、トレーニング中に画像のコントラストと彩度をランダムに乱すなどの標準的なデータ水増し手法(data augmentation)を使用して、重要ではない色の違いに対してモデルをより堅牢にします。

3.災害救援を迅速に行うために機械学習で衛星画像から被害状況を評価(1/2)関連リンク

1)ai.googleblog.com
Machine Learning-based Damage Assessment for Disaster Relief

2)arxiv.org
Building Damage Detection in Satellite Imagery Using Convolutional Neural Networks

3)innovation.wfp.org
WFP Innovation

コメント

タイトルとURLをコピーしました