bias

公平性

MinDiff:機械学習モデルの不公平な偏見を軽減(2/2)

1.MinDiff:機械学習モデルの不公平な偏見を軽減(2/2)まとめ・分類器のエラー率のグループ間差異は不公平な偏見の重要な一部だが唯一の偏見ではない・MinDiffが不公平な偏見に対処する手法や研究を前進させ、改善させる事を願っている・...
公平性

MinDiff:機械学習モデルの不公平な偏見を軽減(1/2)

1.MinDiff:機械学習モデルの不公平な偏見を軽減(1/2)まとめ・分類器は重要な役割を果たすが不当な偏見を最小限に抑えるように構築されている事が大切・MinDiffはMLモデルをトレーニングする際の不公平な偏見を効率的に軽減するツール...
入門/解説

Explainable AI:説明可能なAI(3/3)

1.Explainable AI:説明可能なAI(3/3)まとめ・xAIよりAIが内包する偏見(bias)の解決に力を割くべきと主張する人もいる・人間の意思決定も理由を説明できていない可能性があるが機械に説明を求めるのは意義があるのか?・「...
公平性

Fairness Indicator:公正な機械学習を構築するためのツール(1/3)

1.Fairness Indicator:公正な機械学習を構築するためのツール(1/3)まとめ・機械学習は不公平な偏見(バイアス)を反映または強化してしまう危険性がある・GoogleがAI開発時の原則としてかかげるAI principles...
公平性

皆のためのMLモデルの構築:機械学習の公平性を理解する(1/3)

1.皆のためのMLモデルの構築:機械学習の公平性を理解する(1/3)まとめ・データと機械学習アルゴリズムに公平性を求める事は、安全で責任あるAIシステムの設計/構築に重要・公平性は現実世界にモデルを展開した際に露わになる実務的な影響について...
その他の調査

AIによる履歴書チェックを廃止していた米Amazon

1.AIによる履歴書チェックを廃止していた米Amazonまとめ・Amazonが2014年から開発をしていたAIによる履歴書審査を昨年中止・既存技術職社員が男性に偏っていたため女性が無条件で不利になっていた・明確になった項目は修正できても隠れ...
入門/解説

人間に受け入れられる穏やかな自動化システムの設計5原則(2/2)

1.人間に受け入れられる穏やかな自動化システムの設計5原則(2/2)まとめ・オートメーションが現実世界のあらゆるシナリオに対応できないことを認識する・人間が得意な事を支援し、機械が得意な事を支援する・自動化した結果は常に人間の目でチェックし...
入門/解説

What-If Tool:プログラムせずに機械学習モデルを見極める

1.What-If Tool:プログラムせずに機械学習モデルを見極めるまとめ・What-Ifツールを使うと機械学習モデルのバイアスや誤分類、パフォーマンス悪化要因をチェック・従来は使い捨てのプログラムを書いて検証する必要があったがコードを書...
入門/解説

人工知能と倫理

1.人工知能と倫理まとめ・人工知能の学会でも人工知能が引き起こす倫理問題への懸念が提起されている・様々な場面で使われ始めているが、偏見を学んでしまう等への対策は不十分である・人工知能は人間の倫理観を学んでいるので人工知能だけで解決できる問題...