チームがこっそりAIを使っている。それはあなたの責任です。
ここ数ヶ月、L&DプロフェッショナルやHRリーダーから同じことを何度も聞いています。「チームの誰がAIを使っているか、正直よく分かっていない」と。リーダーの立場にいるなら、この一言に危機感を覚えるべきです。人がAIを使っているからではなく、隠す必要があると感じているからです。
最近の調査で、従業員の57%がAIの使用を雇用主に隠していることが分かりました。その理由を掘り下げると、答えは複雑ではありません。個人の担当者のうち、会社がAIについてきちんとトレーニングやサポートをしてくれると信じているのはわずか34%です。マネージャーは59%。AIに関する意思決定をしている人たちと、その決定のもとで働いている人たちの間に25ポイントのギャップがあるのです。
このギャップの背後にはパターンがあります。
誰も名前をつけたがらない信頼ギャップ
ほとんどの組織はAIポリシーを、他のすべてと同じやり方で展開しました。トップダウンの発表、タウンホールをやるかもしれない、やっていいこととダメなことを数点リストアップ。そして沈黙。フォローアップなし。素朴な質問をする場なし。多くの人にとってこれが本当に怖いものだということへの認識もなし。
新しいテクノロジーについて率直に話す場を作らないと、人は使うのをやめるのではなく、使っていることを言わなくなるだけです。
Bencsik et al. (2022)はデジタルトランスフォーメーションの際に従業員のテクノロジーへの信頼を左右するものを研究し、当たり前のようで実はそうでもない発見をしました。最大の要因はトレーニングの質でもデジタルリテラシーでもなく、マネジメントのサポート的な役割でした。リーダーシップの行動が、モデル内のあらゆる経路を通じて直接的にも間接的にも信頼に影響を与えていたのです。マネージャーが本当の意味でサポーティブな姿勢を見せたとき(形だけのサポートではなく)、信頼が生まれました。そうでなかった場合、どれだけトレーニングをしてもギャップは埋まりませんでした。
Yue et al. (2019)も439人の従業員を対象にした研究で似たような発見をしています。トランスフォーメーショナルリーダーシップと透明性のあるコミュニケーションの組み合わせが組織への信頼を生み、その信頼が変化への開放性を予測していました。メカニズムは複雑ではありません。リーダーが正直だと感じた人は新しいことに挑戦する意欲が高まり、そう感じなかった人は目立たないようにしていたのです。
思い当たる節はありませんか。
AIの信頼ギャップはテクノロジーの衣を着たコミュニケーションの問題です。解決は、リーダーが自分にも分からないことについて正直になることから始まります。
実際にやるべきこと
「分からない」と声に出して言いましょう。マネージャーとして、自分もAIを手探りで使っているということをチームにまだ伝えていないなら、すでに距離が生まれています。リーダーシップからの弱さの共有は、最も速い信頼の加速装置です。AIの専門家である必要はありません。学ぶことが安全だと感じさせる人であればいいのです。
AI恩赦を実施しましょう。本気で言っています。チームに対して、次の2週間でAIを実際にどう使っているかを全員に共有してほしいと伝えてください。ジャッジなし。ポリシーの見直しなし。ただ率直な会話だけ。6ヶ月かけた監査で分かることよりも、2週間でチームの能力についてもっと多くのことが分かるはずです。
AIポリシーをAIの会話に置き換えましょう。ほとんどのAIポリシーはChatGPTを使ったことのない人が書いた法律文書のようなものです。静的なPDFの代わりに、チームが貢献するリビングドキュメントを作りましょう。何がうまくいっているか。何が違和感があるか。AIを使いたいけど使っていいか分からないもの。コラボレーティブにして、更新し続けてください。
マネージャーと個人の担当者の間の情報格差を埋めましょう。リーダーシップチームがAI戦略について議論していて、それが実際に仕事をしている人たちに届いていないなら、ミーティングのたびに信頼ギャップを広げていることになります。決定だけでなく、その背景にある考えも共有してください。
AIの使用を隠している57%の従業員はずるいのではなく、合理的に行動しているのです。組織が発しているシグナルを見て、透明性は安全ではないと結論づけました。それは従業員の問題ではなく、リーダーシップの問題です。
解決策は高くも複雑でもありません。ただ、リーダーが先に行って、誰もまだこれを完全に理解しているわけではないという事実について正直にならなければならないだけです。
あなたの組織でのAIの会話はどうですか。オープンですか、それとも地下に潜っていますか。
リーダーシップとAIが人材開発と交わるテーマについてLinkedInで書いています。ぜひつながりましょう。
出典
Bencsik, A. et al. (2022). Trust in and Risk of Technology in Organizational Digitalization. Risks. 11 citations.
Yue, C. et al. (2019). Bridging Transformational Leadership, Transparent Communication, and Employee Openness to Change. Public Relations Review. 261 citations.
Jay Vergara is an L&D strategist and cross-cultural communication specialist based in Tokyo. He is a partner at Peak Potential Consulting and writes about leadership, learning, and building with AI at leadhuman.ai and on LinkedIn.
こちらもおすすめ
AI導入失敗の裏にある信頼のギャップ
社員がAIに抵抗するのは、テクノロジーを恐れているからではありません。AIを導入するリーダーが自分たちのことを本当に気にかけているかどうかを信じていないからです。研究が示すのは、能力の問題ではなく、認知される善意の問題です。
AIはほとんどのリーダーが気づいているより速くL&Dを変えている
多くのL&DリーダーはまだAIをコース概要を早く書くためのツールだと思っています。本当の変化はもっと大きく、これから18カ月で対応できた組織は人材開発で大きなアドバンテージを持つことになります。
チームはあなたが避け続けている難しい会話を求めている
多くのマネージャーはフィードバックを柔らかくすることでチームを守っていると思っています。研究はその逆を示しています。あなたの部下はあなたが避け続けている会話に飢えているのです。