メインコンテンツへスキップ
← 人間らしく導く
AI導入失敗の裏にある信頼のギャップ
人間らしく導く

AI導入失敗の裏にある信頼のギャップ

JV
Jay Vergara · 2026年4月10日 · 1分で読める
leadershipai-toolsl-and-dcommunications

私が間近で見てきた停滞しているAI導入のほとんどは、テクノロジーとはほとんど関係ありません。

形は繰り返されます。経営層は本当にワクワクしていて、研修のスケジュールも組まれ、ツールのライセンスも取得済みで、そして…コンプライアンスのお芝居が始まります。チームは頷き、求められたAI生成のアウトプットを提出し、静かに古いやり方を続けます。あるいは、誰にも言わずにこっそりAIを使っています。(リーダーがAI利用の透明性を求めている一方で、社員が秘密裏にAIを使っているという皮肉は見逃せません。)

標準的な診断は「変化疲れ」か「デジタルリテラシーのギャップ」です。私はそうは思いません。本当の問題は、AIツールが導入されるずっと前にリーダーたちが作り上げた信頼のギャップです。

Journal of Applied Psychologyに掲載された研究は、すべてのマネージャーが立ち止まるべき発見をしています。Mingyu Liらは2,750人の参加者を対象に4つの研究を実施し、社員はAIによるマネジメントを人間のマネジメントよりも一貫して「善意が低い」と認知していることを明らかにしました。能力が低いのではありません。思いやりが低いのです。そして社員が自分のマネジメントが自分のことを気にかけていると信じていなければ、それがどれほど有能に見えても信頼しません。

社員は、AIが、あるいはAIを導入しているリーダーが、自分たちが大丈夫かどうかを本当に気にかけているとは信じていません。あなたの目の前にある仕事は、そのギャップを埋めることです。

これは難しい話です。AIツールを下手に導入する人間のリーダーにも同じダイナミクスが生じるからです。チームが何を恐れているかにまず向き合わずに新しいAI義務を展開すると、生産性ツールを渡しているのではなく、彼らの不安よりも効率のほうが大事だというシグナルを送っていることになります。

Frickらが2021年にJournal of Decision Systemsに発表した研究では、AI変革の渦中にある社員が最も必要としているのは技術的なトレーニングではないことがわかりました。安定性と真の成長支援を提供してくれるリーダーが必要なのです。そしてこの研究は、社員がリーダーシップが本当に自分の味方であり、単に導入指標を達成するために利用しているのではないと信頼できる環境を求めていることを明らかにしました。

米国のナレッジワーカーの31%が、自社のAI施策に対して積極的に逆らっていることを認めています。2026年1月の調査では、C-suiteのリーダーの74%がAIに対して「ワクワクしている」と感じている一方、個人のコントリビューターの68%は「不安、あるいは圧倒されている」と感じていました。この2つのグループは同じ「アライメント」ミーティングに出席しながら、まったく別の現実を生きているのです。

では、実際にどうすればいいのでしょうか。

ツールの名前を出す前に、恐れの名前を呼びましょう。次のAI導入の前に、チームに直接何を心配しているか聞いてください。アンケートではなく、本物の会話で。「自分の判断がもう重要じゃなくなるのが怖い」といった声が聞こえるはずです。これらは不合理な恐れではありません。「大丈夫ですよ」という安心感ではなく、本物の答えに値するものです。

ユースケースの発見をチームに任せましょう。承認済みAIアプリケーションのリストを上から渡すのはやめましょう。繰り返しに感じる作業にどこで時間を費やしているか聞いて、実験させてください。自分の問題に対して自分でツールを選んだとき、導入は義務ではなくソリューションになります。

明示的な「高共感」ゾーンを作りましょう。Liらの研究では、社員が共感を必要とする場面で特に人間によるマネジメントを望むことがわかりました。AIがふさわしくない場所について正直になりましょう。パフォーマンスの会話、クリエイティブな仕事へのフィードバック、キャリアパスに関わるすべてのこと。それらのスペースを守ることは、あなたがわかっているというシグナルを送ることになります。

そして、自分自身のAI体験について、目に見える形で正直になりましょう。AI導入を義務化しているなら、チームはあなたが実際にどう使っているかを見ています。失敗を共有してください。3回書き直さなければならなかったアウトプットや、現実の状況のニュアンスを完全に外したプロンプトについて話してください。リーダーからの本物の不完全さは、どんなトレーニングモジュールよりも「心理的安全性」に効きます。

AIの導入というのは、実はAIの話ではないんです。何かがうまくいっていないときに正直に言えるほど安全だと感じられるか、そしてこの変化が四半期の生産性数値のためではなく自分たちのためだと信じられるほど大切にされていると感じられるか、という話です。

あなたがそういうリーダーかどうか、チームはもう知っています。問いは、あなた自身がそれを知っているかどうかです。

チームの誰かがAIツールがうまくいっていないと正直に言うために、何が必要でしょうか。そしてもし言ってくれたとして、あなたは実際にどうしますか。

もしこの記事が響いたら、LinkedInで会話を続けられたら嬉しいです。

リーダーシップとAIについて、人材開発との交差点からLinkedInで書いています。気軽に声をかけてください。


leadhuman.aiのLead Humanlyシリーズの一部です。


出典

Jay Vergara

Jay Vergara is an L&D strategist and cross-cultural communication specialist based in Tokyo. He is a partner at Peak Potential Consulting and writes about leadership, learning, and building with AI at leadhuman.ai and on LinkedIn.

こちらもおすすめ