fairness

公平性

The Impact Lab:Googleの責任あるAI(1/2)

1.The Impact Lab:Googleの責任あるAI(1/2)まとめ・グローバル化したテクノロジーは大規模な社会的インパクトを生み出す可能性があり、責任あるAI開発を保証するために根拠ある研究アプローチは重要・Impact Labは...
AI関連その他

2022年のGoogleのAI研究の成果と今後の展望~責任あるAI編~(2/2)

1.2022年のGoogleのAI研究の成果と今後の展望~責任あるAI編~(2/2)まとめ・モデルの来歴を明示するモデルカードの考えをデータとヘルスケア領域に発展させた・解釈可能性ツールであるLITをアップデートとし、偏りをチェックするCL...
その他の調査

Google Research:2022年以降にAIはどのように進化していくか?(5/6)

1.Google Research:2022年以降にAIはどのように進化していくか?(5/6)まとめ・MLが広く使われるようになるにつれ公平かつ公正に適用される事が重要になる・推薦システムの推薦が集中したり機械翻訳が性別を決めつる事などは問...
データセット

MIAP:Open Images Datasetの人間に付与された境界ボックスをより包含的に(2/2)

1.MIAP:Open Images Datasetの人間に付与された境界ボックスをより包含的に(2/2)まとめ・Open Imagesは「女の子」のラベルを「女性」に付与するかは作業者の感覚依存であった・MIAPでは知覚された性別表現と年...
公平性

MinDiff:機械学習モデルの不公平な偏見を軽減(2/2)

1.MinDiff:機械学習モデルの不公平な偏見を軽減(2/2)まとめ・分類器のエラー率のグループ間差異は不公平な偏見の重要な一部だが唯一の偏見ではない・MinDiffが不公平な偏見に対処する手法や研究を前進させ、改善させる事を願っている・...
公平性

MinDiff:機械学習モデルの不公平な偏見を軽減(1/2)

1.MinDiff:機械学習モデルの不公平な偏見を軽減(1/2)まとめ・分類器は重要な役割を果たすが不当な偏見を最小限に抑えるように構築されている事が大切・MinDiffはMLモデルをトレーニングする際の不公平な偏見を効率的に軽減するツール...
モデル

人間による評価を使って要約を学ぶ(2/4)

1.人間による評価を使って要約を学ぶ(2/4)まとめ・人間によるフィードバックを使った微調整は他の手法と比較して品質に大きな影響を与えた・Redditの投稿と非常に異なったスタイルで書かれたニュースデータセットにも対応できた・要約の長さを制...
公平性

TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(3/3)

1.TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(3/3)まとめ・制約が適用されるグループがデータセット内で過小評価されてしまう可能性があることに注意が必要・各グループの割合が高い別のリバランスされたデータセットに制約を課...
公平性

TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(2/3)

1.TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(2/3)まとめ・「正しい」制約とは、何を持って公平とするか、または問題とユーザーの要件によって異なる・矛盾する制約を課す事も可能なので適切な解決策がない制約を指定しないよう...
公平性

TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(1/3)

1.TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(1/3)まとめ・機械学習モデルは競合する考慮事項間でバランスを取るようなケースに対処するのが難しい・TFCOライブラリを使用すると複数の異なる基準に基づく機械学習の問題を簡...
公平性

ML-fairness-gym:機械学習システムの長期的な影響を調査するツール(3/3)

1.ML-fairness-gym:機械学習システムの長期的な影響を調査するツール(3/3)まとめ・機会均等エージェントは公平性を担保しようとして多くの貸付を行い信用格差を拡大する側面がある・重視する指標が「グループ間の信用格差」なのか「融...
入門/解説

ML-fairness-gym:機械学習システムの長期的な影響を調査するツール(2/3)

1.ML-fairness-gym:機械学習システムの長期的な影響を調査するツール(2/3)まとめ・固定したデータセットを利用した公平性の確認は2つの欠陥がある事が知られている・第一にテストセットが不完全かシステム固有のバイアスを内包してい...