バイアスとAIの倫理とHireVueのアプローチ(Bias, AI ethics and the HireVue approach,日本語訳)

Bias, AI ethics and the HireVue approach,の日本語訳)

ソフトウェアの影響を測定する
HireVueは、当社のソフトウェアが個人や社会に与える影響を認識し、この責任に深くコミットして行動します。人工知能(AI)技術を開発し、製品や技術に組み込む際には、以下の原則が私たちの思考と行動の指針となります。私たちは今、変化の激しいテクノロジーの世界に生きています。そのため、HireVueの実践は、お客様、求職者、テクノロジーパートナー、倫理家、法律顧問、社会全体と協力しながら進化し続け、常に最高の基準を維持していることを確認しています。

HireVueのAI倫理原則
1.私たちは、社会のために貢献します
当社は、当社のソフトウェアが個人、企業、そして潜在的には社会全体に影響を与えていることを認識しており、その影響を理解し、最大の善を行うためのすべての行動において思慮深く行動することを約束します。当社の目標は、人間の意思決定を強化し、改善するシステムを構築することです。私たちは、お客様が企業に最適な人材を見つけられるように支援し、採用後の人材の成長と育成を支援することに注力しています。

2.私たちは、多様性と公平性を促進するように設計します
HireVueは製品にAI技術を使用しているため、いかなるグループや個人に対するバイアスの導入や伝播を防ぐために積極的に取り組んでいます。今後も、業務で使用するデータセットを慎重に見直し、可能な限り正確で多様性のあるデータセットであることを確認していきます。また、私たちは、バイアスを監視し、検出し、軽減するための能力を向上させ続けます。私たちは、私たちのシステムが提供する人々を最もよく表すために、多様な知識、経験、視点を持つ多様なバックグラウンドを持つチームを構築するように努めています。

3.私たちは、人々がより良い意思決定ができるように設計します
私たちの目標は、機械と人間の強みを組み合わせたソリューションを開発し、意思決定を向上させることです。当社のシステムは、複雑なデータを消費して人間の意思決定を補強し、改善するように設計されています。何が予測されているのか、予測の信頼性、データの適切な説明が明確に理解できるように慎重に設計しています。また、人間が入力することで信頼を築き、システム全体の機能を向上させるためのフィードバック機構も提供しています。

4.プライバシーとデータ保護に配慮し設計します
当社は、技術開発と展開のプロセスの各段階でデータのプライバシーを取り入れることにコミットしています。私たちは、通知と同意の機会を与え、プライバシー保護の基礎となるアーキテクチャを奨励し、ベストプラクティスと法的基準に沿ったデータの使用に関する適切な透明性と管理を提供します。

5.私たちは、継続的に検証とテストを行います
HireVueのすべてのアルゴリズムは、使用前にテストを行い、意図した通りに動作し、その結果が偏りのない出力を生成することを検証しています。実世界の動作が期待された動作と一致していることを確認するために、可能な限りの継続的なモニタリングが行われています。

HireVue が評価アルゴリズムのバイアスを防止し、緩和する方法
1978年には、従業員選考プロセスに関する統一ガイドラインが、米国民事サービス委員会、米国労働省、米国司法省、米国雇用機会均等委員会(EEOC)と共同で採択され、従業員の選考手続きや雇用関連の決定を適切に管理するための統一的な原則を提供しています。このガイドラインに沿って、当社の使命は、当社のテクノロジーに基づいて行われる推論や雇用決定における偏りを避けることだけではなく、テクノロジーを活用して、性別、民族、年齢、障害の有無に関係なく、積極的に多様性を促進し、すべての人に平等な機会の達成を支援することにあると考えています。

HireVueのデータサイエンティストは、数十年に及ぶアセスメントと不利益テストの経験を持つ産業組織心理学者のチームと一緒に仕事をしています。当社のデータサイエンティストと産業組織心理学者は、心理学の分野で確立された一般的に受け入れられている法的、専門的、妥当性確認の基準に沿って、アセスメント結果に基づいて行われる解釈や雇用の決定が、どの程度の証拠と理論に支えられているかを継続的に評価し、保護されているグループが悪影響を受けないようにしています。HireVueは、不利な影響の可能性を最小限に抑えた雇用関連の意思決定を支援するために、当社のアセスメントを使用するための健全な科学的根拠を提供するために、重要な妥当性の証拠を蓄積しており、その数は増加の一途をたどっています。

当社のデータサイエンティストと産業組織心理学者は、アセスメントの予測精度に大きな影響を与えることなく、不利な影響をもたらすアルゴリズムの考慮からデータを削除する方法で、HireVueアセスメントのアルゴリズムを構築しています。その結果、非常に有効性が高く、バイアスの影響を緩和したアセスメントが実現します。

当社のデータサイエンティストと産業組織心理学者は、アセスメントの予測精度に大きな影響を与えることなく、悪影響を与えるデータをアルゴリズムの検討から除外する方法で、HireVueアセスメントのアルゴリズムを構築します。その結果、性別、民族、年齢、障害の有無に関係なく、多様性と機会均等を積極的に促進しながら、人間の意思決定を強化するのに役立つ、非常に妥当性の高い、バイアスの影響を緩和したアセスメントが実現します。

HireVueアセスメントモデル開発プロセス
HireVueは、すべての職種の候補者を同じ方法で評価するようなワンサイズフィットのアルゴリズムは提供していません。各評価モデルは、以下の重要なステップを踏んだ上で、特定の職種に特化して作成されています。
・職種毎に明確なパフォーマンス指標があることを確認し、最も有望な候補者とそうでない候補者を区別する
・産業組織心理学の研究に基づいて、測定可能で、仕事のパフォーマンスを予測するのに適した回答を引き出すために、適切な質問をする
・面接で関連するすべてのこと(誰かが何を言っているか、どのように言っているか)に気づくようにモデルを訓練し、仕事での成功を予測するのに役立つデータポイントのみを使用するモデルを構築する
・アルゴリズムが保護されているグループに悪影響を与えていないことを確認するために、アルゴリズムを厳密に監査する
・偏った結果を引き起こす可能性のある機能を削除する
・モデルを再訓練する
・モデルを再テストする
・必要に応じてこれらの手順を繰り返し、顧客のデータや職務の要件の変化に合わせてアルゴリズムが進化するようにする

HireVueがアセスメントモデルまたはアルゴリズムを作成する際、開発およびテストプロセスの主な焦点は、保護されたクラスに対する偏り(または「悪影響」)を引き起こす可能性のある要因を発見し、それを緩和することにあります。HireVueチームは、アセスメントモデルの開発前、開発中、および開発後のプロセス全体を通して、年齢、性別、または民族に関連するバイアスを慎重にテストします。徹底したテストは採用前に行われ、継続的な予防プロセスの一環として実施されます。
候補者のアセスメントが実施されると、採用担当者はアセスメントのスコアによって優先順位付けされたリストを確認し、スクリーニングの段階から本人との面接の段階に進む候補者を選択することができます。熟練した採用スペシャリストと採用担当者は、採用プロセスの複数の段階を経て、どの候補者を採用するかを決定します。
バイアスを緩和し、多様性を促進するための取り組みの詳細については、HireVueのブログをご覧いただくか、principles@hirevue.com までメールでお問い合わせください。


hirevue-eye_201801

<30万人の学生が就職活動で利用した
デジタル面接プラットフォーム「HireVue」の詳細はこちら