Okan CaliskanによるPixabayからの画像
AIシステムに偏見が備わる主な原因の1つは、トレーニングで使用されるデータセットに偏りがあること。たとえばWeb上の画像を使用して作成した画像認識AIモデルには、無意識のうちに社会の偏見が反映されている可能性がある。
ADVERTISING
公平なAI開発につながることから、プリンストン・ビジュアルAIラボの研究者は、画像データセットに含まれる偏見を発見できるツールを開発した。
3つの軸でデータセットの固定観念/過小評価を検査
「REVISE(REvealingVIsualbiaSEs)」と呼ばれるツールを使用することで、データセットに含まれる偏見をトレーニング前に修正できる。
同ツールは統計的手法によって、オブジェクト、性別、地理の3つの軸から、潜在的な固定観念/過小評価を検査する。開発者が手動でフィルタリングする手法と違って、完全自動で動作するのも特徴だ。
REVISEを用いて特定のデータセットを検査したところ、次のような傾向が明らかになったという。
花が写った画像の種類は男女で違いが
例えば人と花が含まれる画像について、男性は式典や会議で、女性は舞台や絵画で花と一緒に写っている傾向があった。また、飛行機、ベッド、ピザなどが、ほかのオブジェクトよりも大きく写っている傾向があったとのこと。
地理的な分析では、アメリカやヨーロッパの国の画像が過大評価されるのに加え、ほかの国の画像のデータセットにつけられた注釈が現地の言語ではないものが多いことを発見。現地の評価に観光客の視点が反映される可能性が示されている。
開発の早い段階でデータセットの偏りが発見できれば、課題の設定法やデータ収集法を修正できる。研究者は同ツールをオープンソースとして公開してくれており、開発者の助けとなりそうだ。
参照元:Tool helps clear biases from computer vision/ Princeton University
ADVERTISING
PAST ARTICLES
【Techable】の過去記事
RANKING TOP 10
アクセスランキング
銀行やメディアとのもたれ合いが元凶? 鹿児島「山形屋」再生計画が苦境