
「この企画書の構成、ChatGPTに相談してみよう」「会議の議事録作成、AIに任せちゃおう」「今日の日報も生成AIで下書きを……」
気がつけば、朝起きてから夜寝るまで、何かあるたびにAIツールを開いている自分がいませんか? 一方で「AIに頼りすぎていいのかな……?」と不安がよぎる瞬間もあるはず。
気づけばAIツールなしでは1日が回らず、職場の対人関係の悩みも「ChatGPTに吐き出そう」と、人と深く話す機会も減らしてしまった。そして最近では——
- 自分で考える前に、すぐAIに答えを求めてしまう
- AIを頻繁に利用して疲れ、思考力も落ちた気がする
このような兆候が表れてはいないでしょうか? もしそうなら、AI依存の予備軍になっているのかもしれません。本記事では現代のビジネスパーソンが直面する新たな課題「AI依存」から抜け出し、AIと健全に付き合うための対策を2つ紹介いたします。
AI依存が急増している? AI依存予備軍は「推定70万人」
OpenAIが2022年に公開したChatGPTを始め、「AIを利用する」行為は私たちの日常生活にすでに溶け込んでいるもの。一方で、新たに「AI依存」の問題がこれから増える可能性があると専門家は指摘します。
社会学者であり、京都大学大学院人間・環境学研究科教授の柴田悠氏は、AI依存が増える背景として「誰にも頼ることができない『(社会的)孤立』状態にある人」の増加を指摘します。そのため、「人間に相談する代わりにAIチャットボットに相談する人」が増えていく現象が課題になると想定されるのです。
柴田氏いわく「『情緒的孤立状態(悩みがあっても誰にも相談できない人)にありかつ何らかの依存状態にある人』は約69万人と推計」。つまり——2023年時点で「『AI依存の予備群』は『70万人ほど』いる」と推測されるのだそうです。*1
この数字は推計値ではありますが、決して軽視できません。仕事の効率化だけではなく、プライベートの調べ物や、人間関係や将来への不安まで、あらゆる悩みをAIに委ねるビジネスパーソンが増加している現状。今後、生成AIと賢く付き合うにはどうしたらよいのでしょうか。

ルール1. 自分で考えてから、AIに答えを求める
生成AIに頼りすぎると、思考力・記憶力の低下が懸念されます。しかし、「自分で考える→生成AIを利用する」と順番を変えて使えば、むしろパフォーマンス向上につながる可能性があります。
2025年6月に米MIT Media Labは、生成AIを活用した際の脳活動に関して脳波計を用いて、調査を実施。54名の被験者を3つのグループ(各18名)に分け、小論文作成を行なった場合の脳活動を調べました。
- ChatGPTを使用し、小論文を作成する
- 検索エンジンを使用し、小論文を作成する
- 始めから自分で考え、小論文を作成する
結果は、ChatGPTを使用して小論文を作成したグループ1の成果物はもっとも独創性に欠け、質の悪い論文になっていたとのこと。それだけではなく「記憶」や「言語」を統合する神経接続の脳活動が低下していたのだそうです。
一方、もっとも活発な脳活動が観察されたのは「始めから自分で考え、小論文を作成した」グループです。彼らの成果物は「独創的で質の高い内容」だと評価されました。*2
ただ、興味深いのはこのあと行なった調査結果です。前述した実験に参加した被験者に今度は役割を変えて、再び小論文を作成してもらいました。交代した役割は以下のとおり。
- ChatGPTを使って小論文作成→自分の頭で考え、小論文作成
- 自分の頭で考え小論文作成→ChatGPTを使って、小論文作成
すると、「ChatGPT利用→自分の頭で考える」にシフトしたグループ1は、脳活動、意欲、集中力は停滞したままだったとのこと。しかし、「自分の頭で考える→ChatGPT利用」にシフトしたグループは「脳の活動がさらに活発になり、完成した小論文のレベルも一層上がった」ことが判明しました。*2
つまり——
これが、AIを活用して脳のパフォーマンスを最大化させる方法なのです。
「新しいスキンケア商品の企画」を例に挙げてみましょう。まずは自ら仮説を考えます。
<仮説>
- 20~30代の女性をターゲットにしたい
- 多忙だから、簡単にメイクもメイク落としもできるもの
- 通勤時に肌が焼けないよう、UVカット・保湿ケアができるもの
今度はAIに「上記の条件を満たす下地クリームの要素を追加してください」と問いかけます。
<仮説>
- 20~30代の女性をターゲットにしたい
- 多忙だから、簡単にメイクもメイク落としもできるもの
- 通勤時に肌が焼けないよう、UVカット・保湿ケアができるもの
上記の条件を満たす下地クリームの要素を追加してください
<AIからのヒント>
- くすみや赤みを自然に補正するカラーコントロール機能
- 汗・マスク蒸れに強い処方
- コンパクト&持ち運びやすいサイズ
自分では思いつかなかった「補正機能」「持続性」「利便性」という新たな視点が加わりました。
AIのヒントをもとに、さらにアイデアを練る——これを繰り返すことで、考えの幅が広がっていきます。「考える→AIからヒント→さらに考える」の黄金サイクルを習慣化し、思考の停滞から抜け出しましょう。

ルール2. 自分のバイアスを疑う
生成AIは必ずしも中立的な回答を出すわけではありません。むしろ、ユーザーの意図や感情に迎合し、偏った答えを出力する危険性が潜んでいます。だからこそ、常に「批判的思考」をもってAIを活用することが不可欠です。
生成AIの登場により、認知バイアスが連鎖的に増幅される可能性がある——と指摘するのは、情報通信研究所の主任研究員、水野秀幸氏。認知バイアスとは、「人間の思考や判断、意思決定において生じる系統的な偏りや歪み」。いわゆる直感での思い込みや偏見を指します。*3
特に深刻な問題は、「生成AIの回答」だけでなく、そもそも生成AIに投げかけるユーザーの質問(プロンプト)自体が、すでに認知バイアスに汚染されているという事実です。水野氏いわく——
アンカリングにより、ユーザーは最初に得た情報や先入観に強く影響され、プロンプト自体が偏った問いかけになる傾向がある。例えば、特定の仮説を前提に「~ですよね?」と尋ねると、そのアンカーがAIの回答を方向付けてしまう。*3
とのこと。アンカリングとは「最初の情報に引きずられ、そのあとの判断が左右される」認知バイアスです。
ChatGPTに「折り合いの悪い上司との関係」の相談をした場合を例に挙げてみましょう。
👤ユーザー
上司から『誤字脱字が多いから、もっと注意して』と言われました。誤字脱字なんて些細なことに口を出すのはマイクロマネジメントですよね?
この質問には「上司のマネジメントが過剰で不適切である」という強い先入観が埋め込まれています。これが基準点となると——
🤖AI
そうですね、上司が誤字脱字にこだわるのは確かに過剰で、必要以上に細かい管理をしているように感じます。そのため、あなたの文章力や判断力を信頼していないような印象を受けるのも無理はありません。
一見すると共感的で理解のある回答に思えますが、はたして「誤字脱字の指摘」だけで「マイクロマネジメント」と断定できるでしょうか? 「上司を批判したい」という感情でAIに共感と肯定を求めた結果、「マイクロマネジメントである」という偏見がさらに強化されてしまうのです。「AIの寄り添い」によって、思考が狭まってしまうのですね。*3
重要な点は「質問(プロンプト)」と「AIの回答」に、バイアスが潜んでいないか? と疑うことです。たとえば——
- この質問の前提は、自分の固定観念からくるものでは?
- もし逆の立場(上司など)の人から見たら、どう考えるだろう?
- 一部分のエピソードだけで全体を決めつけていないだろうか?
と、AIとのチャットを繰り返しながら、自分に問いかけてみてください。AIがただ「思い込みを正当化」する相手ではなく、中立的で建設的なパートナーに変わるはずですよ。
***
AIは私たちの仕事や勉強、生活のサポートをしてくれる頼れるパートナーです。でも、依存状態になれば、かえって悪影響となってしまいます。AIと賢く共生するために、「自分で考える」こともセットにして、真の意味で賢いAI活用を目指していきましょう。
*1 YAHOO!ニュース|”AI依存” 予備群「国内70万人」の衝撃――社会に何をもたらすか
*2 KDDI Research|生成AIに依存すると脳活動が低下したまま戻らない――脳波測定から導かれたショッキングな観察結果とそれを回避するための方法
*3 ICR 株式会社情報通信総合研究所|生成AIが増幅する認知バイアスの危険性
青野透子
大学では経営学を専攻。科学的に効果のあるメンタル管理方法への理解が深く、マインドセット・対人関係についての執筆が得意。科学(脳科学・心理学)に基づいた勉強法への関心も強く、執筆を通して得たノウハウをもとに、勉強の習慣化に成功している。