公平性

アプリケーション

Project Guideline:視力の弱い人が一人で走れるようにする(2/2)

1.Project Guideline:視力の弱い人が一人で走れるようにする(2/2)まとめ・既存のデータセットは自動運転車用でランニング用途の学習に使う事が難しかった・自動運転車用データ、合成データ、本当のランニングデータの3段階で転移学...
アプリケーション

Project Guideline:視力の弱い人が一人で走れるようにする(1/2)

1.Project Guideline:視力の弱い人が一人で走れるようにする(1/2)まとめ・失明または弱視状態の人にとって支援者なしに一人でランニングすることは困難・Project Guidelineは路面に案内線が塗装されている様々な環...
公平性

MinDiff:機械学習モデルの不公平な偏見を軽減(2/2)

1.MinDiff:機械学習モデルの不公平な偏見を軽減(2/2)まとめ・分類器のエラー率のグループ間差異は不公平な偏見の重要な一部だが唯一の偏見ではない・MinDiffが不公平な偏見に対処する手法や研究を前進させ、改善させる事を願っている・...
公平性

MinDiff:機械学習モデルの不公平な偏見を軽減(1/2)

1.MinDiff:機械学習モデルの不公平な偏見を軽減(1/2)まとめ・分類器は重要な役割を果たすが不当な偏見を最小限に抑えるように構築されている事が大切・MinDiffはMLモデルをトレーニングする際の不公平な偏見を効率的に軽減するツール...
モデル

Zari:事前トレーニング済みNLPモデル内の性別決めつけを緩和(2/2)

1.Zari:事前トレーニング済みNLPモデル内の性別決めつけを緩和(2/2)まとめ・モデルの品質を精度のみの観点でチェックするのは危険で性別相関もチェックが必要・ハイパーパラメーターの変更は一見無害に見えても慎重に評価をする必要がある・タ...
モデル

Zari:事前トレーニング済みNLPモデル内の性別決めつけを緩和(1/2)

1.Zari:事前トレーニング済みNLPモデル内の性別決めつけを緩和(1/2)まとめ・NLPの事前トレーニングでは外科医とメスの関係などの概念間の相関関係も学習している・概念間の相関関係は実タスクで性別の決めつけのようなバイアスをもたらす可...
公平性

TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(3/3)

1.TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(3/3)まとめ・制約が適用されるグループがデータセット内で過小評価されてしまう可能性があることに注意が必要・各グループの割合が高い別のリバランスされたデータセットに制約を課...
公平性

TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(2/3)

1.TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(2/3)まとめ・「正しい」制約とは、何を持って公平とするか、または問題とユーザーの要件によって異なる・矛盾する制約を課す事も可能なので適切な解決策がない制約を指定しないよう...
公平性

TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(1/3)

1.TFCO:制約付き最適化ライブラリを使用して公平性の目標を設定(1/3)まとめ・機械学習モデルは競合する考慮事項間でバランスを取るようなケースに対処するのが難しい・TFCOライブラリを使用すると複数の異なる基準に基づく機械学習の問題を簡...
公平性

ML-fairness-gym:機械学習システムの長期的な影響を調査するツール(3/3)

1.ML-fairness-gym:機械学習システムの長期的な影響を調査するツール(3/3)まとめ・機会均等エージェントは公平性を担保しようとして多くの貸付を行い信用格差を拡大する側面がある・重視する指標が「グループ間の信用格差」なのか「融...
公平性

Fairness Indicator:公正な機械学習を構築するためのツール(3/3)

1.Fairness Indicator:公正な機械学習を構築するためのツール(3/3)まとめ・Fairness IndicatorsはTensorFlow関連のツールを使っていると簡単に呼び出す事が出来る・TensorFlow関連のツール...
公平性

Fairness Indicator:公正な機械学習を構築するためのツール(2/3)

1.Fairness Indicator:公正な機械学習を構築するためのツール(2/3)まとめ・Fairness Indicatorsを使用すると公平性基準の計算と視覚化が可能になり、独自の基準を追加する事も可能・Fairness Indi...