
AIと共に生きる未来に向けてチームの体制を整えるには?
将来的に、誰もがAIに適応することを求められるようになります。今回の記事では、ポリシーや研修を作成し、安全に利用するための法的な対策を導入する適切な方法を紹介します。
キーポイント
- 人事・採用担当や求職者の約3分の1が、AIの存在によってスキルアップやリスキリング(学び直し)、またはまったく新しい分野への転職が必要となることに不安を感じると回答しています。
- 専門家は、先を見越して責任あるAI(Responsible AI)に関するポリシーを作成し、AIの有益な活用について従業員に研修を実施することを提案しています。
- バイアスやセキュリティ面の懸念、知的財産権など、AI関連の法的リスクをすべての従業員が確実に認識することが重要です。
Indeed が最近実施したAIに関するグローバル調査によると、世界各国の企業が競うように人口知能(AI)ツールを導入するのに伴い、人事・採用担当と求職者はどちらも、時代に乗り遅れないようにスキルをアップデートし続けることについて不安を感じているそうです。
7,000名の人事・採用担当、そして求職者という2つのグループを対象に実施したこの調査では、回答者全体の約3分の1が、AIの存在によってスキルアップやリスキリング(学び直し)、または新しい分野への転職が必要となることに対して不安を感じていることが明らかになっています。人事・採用担当の54%と、求職者の45%が、職場でのAIの潜在的な影響について期待していると回答する一方で、不安を感じていることが分かります。
懸念と期待という相反する感情が見られたこの調査結果は、ビジネスリーダーによる、責任あるAI導入に対するサポートが求められていることを示しています。Indeed のHead of TalentであるLori Aikenは、それぞれの従業員が、そうしたスキルを自分で身に付けていくだろうと企業が期待するだけでは不十分だと言います。リーダーは、AIの効果的な利用について、意図的に研修を実施して理解してもらう必要があります。「AIはすでに浸透しつつありますが、恐れることはありません。AIを導入して、どのように活用すべきかを見出すだけです」と、Aikenは話します。
AIと共に生きる未来に向けてチームの体制を整えるために、ポリシーや研修、法的枠組みを整備する方法を見ていきましょう。
責任あるAIの基本理念を整備する
世界的なタレントトランスフォーメーション(TX、デジタルトランスフォーメーション(DX)戦略を推進するための人材戦略と人材開発の支援)サービス提供会社であるGP Strategiesで、Chief Learning and Innovation Officerを務めるMatt Donovan氏は、チームがあまり深く関与する前に、AIの責任ある使用方法に関する基本理念を確立しておく必要があると話します。「ガイドラインは、AIの使用や適用に関してより良い決断を下すのに役立つ場合があります。」
企業のAIに関するガイドラインは、細部に至るまでまとめたり、すべてをルール化する必要はありません。たとえば、AI活用の指針を定めているGP Strategiesでは、6項目の主要原則リストとして、「プライバシーとセキュリティ」「安全とウェルビーイング」「責任」などを掲げています。Donovan氏は、経営幹部だけでなく、すべてのレベルの従業員が基本理念の作成に参加することで、幅広い視点を反映できるようにしたと強調します。「トップダウンのみで作成するのは不可能です」と、Donovan氏は言います。
こうしたポリシーを策定して従業員が基本理念に従うことにより、AIの新たな応用が生まれやすくなります。インターネットやSNSが登場し、職場に普及したときと同様の状況であるとAikenは話し、職場における規制面での柔軟性が鍵になると説明します。当初、従業員のインターネットやSNS利用を禁止しようとした企業も、最終的には多大なメリットがあることを認識するようになりました。「制限を厳しくしすぎないようにすることをお勧めします。なぜなら、将来的には、AIを日常的に使用していない世界を知らない世代が登場するのですから」と、Aikenは言います。
目的を持ってAIに関する研修と実験を実施する
AIに対する熱意は、組織内でも大幅に異なる可能性があります。最近Ciscoが実施した調査では、取締役と経営幹部の82%はAIに対して非常に、または適度に受容的であるのに対し、従業員で同様の回答をした割合は69%のみでした。
この結果からも、AIをうまく利用する方法を従業員に示すことが不可欠だと言えます。Donovan氏は、従業員が新しいツールの使い方を学び、各ツールが最も効果的にこなせるタスクを判断するA/Bテストを実施できる、「イノベーションキッチン」の設置を提案しています。
Indeed は独自に、任意のAI研修プログラムを作成し、従業員が実際のAI活用例をテストできるようにしました。「スライドの作成や、何らかのリサーチの実施を依頼された場合、AIを活用することで時間を大幅に削減できる方法があると知ってほしいと思います」とAikenは話します。
もちろん、AIは完璧ではないため、注意すべき点を従業員にしっかり理解してもらうことも重要です。(Microsoftも、AIを搭載した自社の生産性向上ツールであるCopilotが「有益な間違いをする」ことがよくあると認めています。最善の結果を得るためには、AIが応答を生成するために必要な文字列や命令文である「プロンプト」を人間が微調整する必要があります。)「カーソルを合わせてクリックするだけで完了ではないことを、従業員が理解することが重要です。人間による、ある程度の監督と入力がまだ必要なのです」とAikenは説明します。
AIのリスクを明確にする
チームがAIを使用して実験を開始する際には、リーダーが法的な影響と、リスクについて、あらゆるレベルの従業員に必ず伝達する必要があります。
Indeed のVice PresidentでLegal CounselのAlex Kingは、たとえば採用活動では、AIが差別禁止法に違反する可能性のある方法で、バイアスを増幅させる可能性があると言います。「過小評価されたグループを排除する意図がなかったとしても、AIツールを使用することにより、結果的に差別的効果を生み出すことにつながる場合もあります。そうしたアプローチにはもちろん法的な責任が伴いますが、最終的には組織のダイバーシティが欠如し、組織にとっても深刻な影響が及びます。」ニューヨーク市では、自動化された雇用判断ツールを使用する企業はバイアスの監査を実施し、候補者に追加の情報開示を提供することが義務付けられています。
ChatGPTのような市販のAIツールに機密データをアップロードすることは、プライバシーとセキュリティのリスクを引き起こす可能性があります。たとえば、OpenAIとエンタープライズ契約を締結し、強固なプライバシーポリシーを整備していない限り、自社のデータが他社のAIモデルの教育に使用される恐れがあるとKingは話します。また、エンタープライズ契約を確保した後でも、コストの急増を防ぐために、誰が何の目的でAIツールを使用したか追跡することをKingは推奨します。「企業全体にとって役立つように使用されるべきでしょう。」
また、AI生成コンテンツの知的財産権については、関連する法律の整備が現在進行中であることを従業員が常に意識する必要もあります。つまり、特許など、法的保護が求められるものを開発する際には、チームがAIを使用する前に慎重に検討することが大切です。「私だったらまずそれを調査します。そうすることで、後に自分がどのような権利が得られるのかを把握できます」とKingは言います。
つまるところ、AIと共に生きる未来に向けてチームの態勢を整えるため、事前に行うすべての取り組みには価値があると言えるでしょう。Indeed Hiring Lab独自の調査によると、ほぼすべての仕事が生成AIによる変化の影響を受けることが分かっています。しかし、チームが十分に準備をすることで、生成AIは必ずしも脅威ではなくなるとDonovan氏は言います。「AIのせいで仕事を失うことはありません。あなたの仕事を奪うのは、効果的にAIを使う他の人間なのです。」
Indeed CEOのChris Hyamsが、AIの専門家であり、F/A-18「ホーネット」戦闘攻撃機の元パイロットのMissy Cummings博士と対談した、Indeed のポッドキャスト「Here to Help」をご視聴ください。