倫理的なAI実装への取り組み

欧米では既に利活用が進んでいる人事領域でのAI利用ですが、様々な倫理的な懸念があることも事実です。
倫理的なAIの実現にむけて、海外ではどのような取り組みが行われているか、その一端をご紹介させていただきます。

この記事では、AIモデルを公平・公正なものにするために必要な、インプットデータのバイアスの影響を排除する重要なステップである「アドバースインパクトアナリシス(アドバースインパクト分析)」についてご紹介いたします。

■AIにおいて発生しうるバイアスとその分析・排除とは
AIは通常、人間の評価や正解をもとに構築されます。その構築に使用される人間の評価や判定の中で、意図的または無意識のバイアスがあった場合、AIの判定=アルゴリズムに組み込まれてしまう可能性があります。つまり、AIに学習させるデータに偏りがあったりすると、AIアルゴリズムが偏った状態で構築されたり偏った結果を判定してしまうことになります。

これは差別的な採用や、意図しない結果につながる可能性があります。そのため、企業がAIを構築する際には、責任を持ってAIモデルを開発・訓練する必要があります。

こういった偏りや意図しない結果の影響のことをアドバースインパクトと言い、この影響を統計的に分析することを、アドバースインパクトアナリシスと言います。アドバースインパクトアナリシスを経て、その原因となる要素を排除し、AIを最適化していくことが重要です。

■アドバースインパクトとは?
続いて、アドバースインパクトの詳細についてご紹介します。
アドバースインパクト(Adverse Impact)は直訳すると悪影響、不利、不都合と訳されます。

採用を含む人事領域におけるアドバースインパクトとは、AIのみならず、不公平で偏った選考手順が、ある特定の集団に与えるマイナスの影響のことを指します。採用や昇進の決定などの選考過程で、特定の集団が差別された場合に発生します。

差別となる具体的な要素としては、特に法規制の厳しいアメリカでは、人種、性別、年齢(40歳以上)、宗教、障害の有無、退役軍人の有無が例としてあげられ、AI活用にあたり企業で遵守すべき内容も年々アップデートされています。

採用でのアドバースインパクトを排除するために、プロセス全体、各ステップごとに有害となる事象の測定が必要不可欠となっています。具体的には、最終的に採用された応募者の割合や履歴書審査、入社前評価、面接での内容が挙げられます。

■HireVueでの取り組み
ここからは、当社が日本で販売総代理店を務めるHireVueにおける、取り組みの概要をご紹介します。

HireVue社がAI 評価モデルやアルゴリズムを作成する際は、開発およびテスト段階で、特定の集団に対するバイアス(または「有害な影響」)の原因となる要素を厳重に洗い出します。そして、その要素を特定して取り除くというプロセスを徹底して繰り返し行います。こちらがアドバースインパクトアナリシスです。

そのプロセスはAIモデルの開発の際、開発前、開発中、開発後のすべての段階で行われます。年齢、性別、民族、およびその他の人口統計データに関連するバイアスを慎重に確認し、検証を行い、徹底的な検証は、実際の候補者の面接が開始される前から、そしてその後の候補者の評価と偏りを防ぐためにモデルが使用されている限り、継続して実施しています。

以上、アドバースインパクトアナリシスについての概要でした。より詳細な取り組み等について知りたい方はページ後方HireVue社各種サイト、またはお問い合わせ先までご連絡ください。

今後も引き続き、個人情報に関するデータの排除、第三者監査での実装など、倫理的なAIの実装に向けた最新トピックをご紹介させていただきます。どうぞ楽しみにお待ちください!

 

~印象ではなく実力を見抜ける採用AI~行動事実から社会人基礎力を判定するHireVue AIアセスメントの詳細はこちら