A man smiling

人工知能(Artificial Intelligence、AI)はすでに多くの企業のHR部門においてさまざまな役割を果たしています。米国で250名以上のHRリーダーを対象に最近実施された調査によると、73%が採用プロセスにAIを使用していると回答しました。 

現在、書類選考、応募者の点数評価、募集中の求人への人材のソーシング、求人票の作成、従業員を昇進させる機会の特定、さらに応募者への自動メール送信まで、さまざまなタスクの支援にAIツールが活用されています。 

「今では、ありとあらゆるタスクに取り組むAIツールが構築されています」と、Indeed のHead of Responsible AI兼Data Science Senior DirectorのTrey Causeyは言います。 

しかしながら、そうしたツールの洗練度には差があり、リスクに対する開発者の配慮の度合いもさまざまです。したがって組織は、AIの利用に伴う幅広いリスクを十分に認識し、どのように責任を持って利用するかの戦略を策定する必要があります。 

AIには、特に採用活動から人間によるバイアスを取り除き、働く人々により良い機会を提供できる可能性があります。また、繰り返し発生する作業を合理化できるので、より人間的な側面が求められる仕事にHR担当者が注力できるようになります。しかし、AIでは人間に内在するバイアスが解消されないどころか、人間以上のバイアスが生じる恐れもあり、コストと時間が無駄になってしまう場合があります。 

この記事では、組織がそうしたリスクを特定し、公平性、倫理、有効性を維持しながらAIを利用するために実践できる4つのステップを紹介します。

1. 自社にとってのリスクと見返りを評価する

まず最初に、自社のHR部門にAIツールを使用することが適切であるかどうかを検討しましょう。AIシステムでは、手作業でプロセスを行うよりも多くの応募者を特定して採点評価できるようになり、採用プロセスの規模を拡大することが可能になります。 

一方で、AIを専門とする米国の法律事務所Luminos.LawのAssociateであるJey Kumarasamy氏は次のように述べています。「完璧なシステムは存在しないため、ミスやエラーの数も増える可能性はあります。たとえば、高めに見積もって90%程度の精度だったとしても、数千人の応募書類を処理している場合、不正確に評価される応募者の数はかなり多くなるでしょう。」 

AIを搭載したHRツールを評価するためには、ツールが完璧ではないことをまず理解することが大切です。「バイアスはAIには避けられないものです。したがって、企業はバイアスにどう対処するかをあらかじめ計画しておく、またはリスクがあることを受け入れる姿勢が必要です」と、Causeyは言います。 

生産性の向上を理由にリスクを許容する企業もあります。ただし誤差の程度によって自社の価値観が問われたり、または法規制の強化によって、プロセスが必要以上に複雑化するのではと感じる企業もあるでしょう。 

AIの利用を進めると決めた場合は、使用するツールを賢く選択することが重要です。たとえば、面接での会話を文字起こしすることができる、AIによるトランスクリプト機能は、一般に、比較的リスクの低いアプリケーションだと言えます(ただし、対象言語が母語ではない人の発言に対して使用すると、うまくいかない場合があります)。それに対し、Web面接でのパフォーマンスに基づいて候補者を評価し、採点するAIは、「おそらく最も問題が多い分野でしょう。なぜなら、リスクや間違いが起きる可能性が高いためです」とKumarasamy氏は言います。

結論として、AIは人間によるプロセスを強化し、改善できても、置き換わることはできません。AIツールの導入前に、自社のHRチームに十分な人員を確保し、AIが自動化するすべてのステップやプロセスを人的に確認できるようにします。たとえば、最終的な採用決定、昇進、従業員のサポートなど、重要なHR関連事項は人間に判断を委ねることが大切です。AIが単調なタスクを処理することができれば、HR担当者が重要な仕事に使う時間が増え、柔軟性も高まるでしょう。

2. AIを搭載したツールを提供するサードバーティの請負業者を選考する

自社のニーズにとって最も適切なAIツールの種類を決定したら、提供先の候補となる外部の請負業者に次のような具体的な質問を尋ねることをお勧めします。 

  • システムの監査はどのように行っているか。最後にテストした時期と、どのような評価指標が使用されているか。
  • テストは社内または社外の団体のどちらが実施しているか。
  • バイアスをどのように緩和しているか。システムのバイアスが最小であることを請負業者が強調している場合、その意味と、バイアスの計測方法を確認する。 
  • ツールの利用を検討しているクライアントとして、自社が導入前に入手して検討できる、テストの評価指標はあるか。
  • モデルのパフォーマンスが低下した場合に、システムの設定や維持方法に関する従業員への研修を行うなどの導入後のサービスは提供されるか。
  • 現行および新規の規制を遵守しているか。「昨年、ある請負業者と話した際に、ある規制について遵守しているかどうかを尋ねたところ、その規制について聞いたことがないと言われました」と、Causayは話します。これは危険信号であるばかりでなく、「明らかにその請負業者の製品に直接の影響を及ぼしていました。」 
  • 自社が実施するAI監査に請負業者が対応できるか。「AI監査を実施する場合、請負業者の協力が必要となる可能性が高くなります。そのときになって、請負業者が監査に協力的ではなかったり、文書記録や結果を提供できないという事実が判明するのは理想的ではありません」とKuramasamy氏は言います。

3. バイアスを特定して監視する

AIのアルゴリズムは、学習に使われたデータにバイアスがない場合のみ、バイアスを持ちません。企業がアルゴリズムの開発方法を変更することはできませんが、導入前にツールをテストする方法はあります。実際、米国ニューヨーク市が施行した条例では現在、採用活動にAIを利用する場合、バイアスの有無について第三者機関による事前監査を受け、監査の概要を公開することを企業に義務づけています。

企業はまた、「反事実分析」と呼ばれるプロセスを使用し、AIモデルが異なるインプットにどう反応するかを確認することもできます。たとえば、求人の応募者についてAIが履歴書を評価する場合、応募者の名前や出身校を変えてテストし、アルゴリズムによる応募者のランク付けが変化するかを試すことが可能です。 

「これは1950年代から行われている手法です。社会学者が採用企業に履歴書を送り、履歴書の内容に1か所だけ変更を加えることで、企業から連絡を受ける割合がどう変わるかを確認する研究があります。私たちはこれをAIでも試すことができ、既存の社会科学の知識を取り入れて、AIモデルのバイアスを評価することができます」と、Causeyは言います。

AIシステムの導入に伴い、継続的に監視することで、差別的な傾向が現れた場合には問題を特定して修正し、データサイエンスとAIに関する研究の最新情報を把握しましょう。「人間が意思決定を行う場合、バイアスが生じているどうかを判断するのは困難です。面接官の心の内側に入り込み、なぜある候補者を採用し、他を不採用にしたのかを確認することはできないからです。AIモデルであればそれが可能です」と、Causeyは説明します。

バイアスに関してHRツールを評価する、標準的な一連のテストは存在しません。最低でも、企業は組織内でどのようにAIが利用されているかを明確に理解する必要があり、それには利用中のすべてのAIモデルのリストを作成することも含まれる可能性があります。組織は、各ツールを提供する請負業者名と活用例を文書化しておくことが大切です。 

理想としては、社内の法務担当チームやデータサイエンティストなど異なる部門のほか、社外の法律顧問や第三者監査人が協力して監査を実施することです。また、企業が自社のAIツールを独自に監査するのに役立つツールも、一般公開されています。たとえば、米国国立標準技術研究所(NIST)は、「統治(組織におけるリスク管理文化の醸成など)」「マッピング(リスクの特定)」「測定(リスクの分析・評価など)」「管理(リスクの優先順位付けやリスクへの対応)」という4つの機能に分けた、リスク管理フレームワークを策定しました。 

4. AIを巡る法規制の最新情報を把握する

自動化されたHRツールの潜在的なリスクは、評判や財務に関わるだけでなく、法的な問題でもあります。職場で急増するAIの利用に対応するため、急速に法規制の整備が進んでいます。 

欧州連合のAI規制法案は、危険または差別的である可能性に基づいて、AIアプリケーションにリスクレベルを割り当て、リスクレベルの分類に応じてAIを規制することを目的としています。たとえば現行案では、履歴書をスキャンして読み取るAIアプリケーションは「高リスク」であるとみなされ、厳格な遵守要件の対象となります。

米国では、雇用の決定を含む民間企業でのAIの利用に関し、30を超える州法が審理中です。2023年7月には、ニューヨーク市でAEDT 法(Automated Employment Decision Tool、自動雇用決定ツールに関する法)が施行され、採用プロセスでAIを利用する場合には企業が開示し、毎年監査を実施してシステムに性別や人種、民族に基づくバイアスがないことを証明することが義務付けられています。ニューヨーク市を拠点とする企業の求人に応募する求職者は、自らの個人情報をAIがどのように分析するかについて、詳細情報を請求することも許可されます。

さらに、差別禁止法や1964年に制定された公民権法第7編など、既存の法律の多くは、AIによる雇用の決定にも適用されます。「よくある誤った考えに、法規制がAIシステムに関するものでなかった場合、それらはAIシステムには影響しないというものがあります。特に雇用に関しては、それは事実ではありません。」と、Kumarasamy氏は説明します。米雇用機会均等委員会による、雇用決定の際のAI使用に関するガイダンスにもあるように、人間かAIシステムのどちらが採用判断を行っているかを問わず、組織はいかなるバイアスについても責任を負うことになります。

監査は開始点としては優れていますが、新たな法規制に備え、自社のAIが効果的かつ公平に機能していることを確実にするためには、より大規模なAIガバナンスプログラムを構築することが大切です。 

ガバナンスシステムは、AIに関する組織の原則を文書化し、継続的にツールを評価し、課題を検出し、問題点を修正するためのプロセスを作成するものです。たとえば、Indeed では、社内の倫理的かつ有益なAIの利用に関して、独自の原則を策定して一般公開しています。また、Indeed は複数の部門で構成されるAI Ethicsチームを結成し、ツールやシステム、プロセスを構築することで、テクノロジーが責任を持って利用されることを確実にしています。 

たとえ安全対策を講じても、新しい世代のAIツールは複雑で、間違いが起きやすいものです。 

しかしながら、責任のある利用を心がける努力をすることにより、より良いプロセスを構築する道が開けます。AIは、人間の効率性を向上させ、バイアスを軽減するのに役立ちますが、それは人間が適切に管理した場合のみ実現します。たとえば、AIのアルゴリズムがある求人の応募要件についてどんな要素を考慮すべきか、批判的思考力を使って考えれば、応募者を評価する方法を劇的に改善することができるでしょう。 

「仕事で成果を発揮していることを真に測るために、私たちはどうするべきなのでしょうか?」と、Causeyは問いかけます。スキルに基づく採用プロセスは、卒業校や前職の企業の知名度に頼るよりも、バイアスが少ないと言えるでしょう。AIは、人間が注意を払う可能性の低い要素にも注意を向けます。「AIには、求職者に対する公平な採用プロセスを実現する、大きな可能性を秘めていると考えています」と、Causeyは話します。