1.目を正面から撮影した写真で病気の兆候を検出(3/3)まとめ
・身体的特徴が異なる患者群に対しても比較対象モデルより予測性が高かった
・広く商用利用するためには必要な画質レベルの把握など多くの追加研究が必要
・包括的なデータセットで更にテストし肝臓疾患なども検出対象としていきた
2.モデルの性能
以下、ai.googleblog.comより「Detecting Signs of Disease from External Images of the Eye」の意訳です。元記事は2024年3月24日、Boris BabenkoさんとNaama Hammelさんによる投稿です。
アイキャッチ画像のクレジットはPhoto by Debashis RC Biswas on Unsplash
第二に、開発データセットには、301の糖尿病網膜症スクリーニング施設で撮影された30万枚を超える匿名化写真が含まれ、米国内の多様な場所にまたがっています。
評価用データセットは、ヒスパニック系やラテン系の患者が多いデータセット、黒人患者が多いデータセット、糖尿病のない患者を含む、米国18州の198箇所のデータセットから得られた95,000枚以上の画像から構成されています。
人口統計学的および身体的特徴(年齢、性別、人種、民族、白内障の有無、瞳孔の大きさ、カメラの種類など)が異なる患者群に対して広範なサブグループ分析を行い、これらの変数を共変数として制御しました。これらの因子を考慮した結果、すべてのサブグループにおいて、アルゴリズムは比較対象モデルよりも予測性が高くなりました。
結論
このエキサイティングな研究は、外眼部の写真から健康に関連する有用な信号を抽出することが可能であることを示しており、糖尿病やその他の慢性疾患を持つ大規模かつ急速に増加している患者集団に対して潜在的な意味を持つものです。
どの程度の画質が必要なのかを把握するなど、広く商用利用できるようになるには長い道のりがあります。
例えば、どの程度の画質が必要なのか、慢性疾患のある患者さんとない患者さんへの一般化、異なるカメラで撮影した画像や照明・環境などより多様な条件下での一般化の理解などです。
EyePACSやCGMHなど、学術的・非学術的な専門家との継続的なパートナーシップにより、より大規模で包括的なデータセットでアルゴリズムをさらに開発・テストし、認識できるバイオマーカーのセット(例:肝臓疾患)を広げていきたいと考えています。最終的には、非侵襲的な健康とウェルネスのためのツールを、誰もがより利用しやすくすることを目指しています。
謝辞
この研究は、ソフトウェアエンジニア、研究者、臨床医、そして様々な機能についての学際的なチームの努力によるものです。このプロジェクトの主な貢献者は以下の通りです。Boris Babenko, Akinori Mitani, Ilana Traynis, Naho Kitade, Preeti Singh, April Y. Maa, Jorge Cuadros, Greg S. Corrado, Lily Peng, Dale R. Webster, Avinash Varadarajan, Naama Hammel, およびYnn Liu。また、Huy Doan、Quang Duong、Roy Lee、およびソフトウェアインフラのサポートとデータ収集を行ったGoogle Healthチームにも謝意を表します。
また、Tiffany Guo、Mike McConnell、Michael Howell、Sam Kavusiには、原稿に対するフィードバックをいただきました。最後になりましたが、瞳孔分割モデルのデータに対してラベル付けをしてくれた評価者に感謝します。また、このブログ記事で使われているアニメーションにインスピレーションを与えたアイデアとデザインを提供してくれたTom Smallに特別な謝意を表します。
3.目を正面から撮影した写真で病気の兆候を検出(3/3)関連リンク
1)ai.googleblog.com
Detecting Signs of Disease from External Images of the Eye
2)www.nature.com
Detection of signs of disease in external photographs of the eyes via deep learning(PDF)