「うちの会社ではAIはまだ使っていません」
経営者からこの言葉を聞くたびに、私は内心ヒヤリとする。使っていないのではない。あなたが知らないだけだ。
私はこの3年間、生成AI導入支援の現場で50社以上の大中小零細企業と向き合い、年間30回以上のセミナーで数百人の経営者・管理職と対話してきた。その経験から断言する。2026年の今、従業員が会社に無断で生成AIを業務に使う「シャドーAI」は、ほぼすべての企業で進行している。そして一部の企業では、すでに取り返しのつかない状況に陥っている。
これは脅しではない。データに基づいた現実である。

目次
「シャドーAI」とは何か
シャドーAIという言葉を初めて聞く人のために、簡潔に説明する。
企業が正式に導入・許可していない生成AIツールを、従業員が個人の判断で業務に使用する行為のことだ。かつて「シャドーIT」という言葉があった。会社の許可なく個人のスマートフォンやクラウドサービスを業務に持ち込む問題のことで、情報システム部門を長年悩ませてきた。シャドーAIはその生成AI版であり、リスクの深刻さはシャドーITの比ではない。
なぜか。シャドーITでは、データの「保管場所」が問題だった。個人のDropboxに顧客リストを保存する、個人のスマホに取引先の連絡先を入れる、といった類のリスクである。一方、シャドーAIでは、データの「流出先」が問題になる。従業員がChatGPTやGeminiに入力した情報は、外部のサーバーに送信される。場合によっては、AIの学習データとして取り込まれ、まったく別のユーザーへの回答に反映される可能性すらある。
つまり、シャドーITは「鍵のかかっていない倉庫にモノを置く」リスクだったが、シャドーAIは「会社の機密を街頭でメガホンで叫ぶ」リスクに近い。次元が違う。
数字が示す「見えない現実」
「うちは大丈夫」と思った方にこそ、以下の数字を見てほしい。
マイクロソフトとLinkedInが2024年に実施したWork Trend Indexによれば、職場でAIを使っている人の78%が、会社が正式に導入したものではなく自前のAIツールを持ち込んでいる。しかも中小企業ではその割合が80%に上る。会社の正式な導入を待たずに、現場が勝手に走り出しているということだ。日本企業は「AIに慎重」というイメージがあるが、現場の実態は違う。会社が対応を遅らせている間に、従業員が勝手に走り出しているのが実情だ。
2026年1月に株式会社エルテスが会社員・公務員300名を対象に実施した調査でも、生成AI利用者の約5人に1人が「シャドーAI」に該当するという結果が出ている。さらに、AIの利用ガイドラインが「ない」と回答した人ほど、会社が許可していない生成AIツールを使っている割合が高かった。ルールがなければ、人は自分の判断で動く。当然の結果である。
海外に目を向けると、状況はさらに深刻だ。IBMの2025年版「Cost of a Data Breach Report」によれば、調査対象組織の5社に1社(20%)がシャドーAIに起因するデータ侵害を経験している。しかも、シャドーAI関連の侵害が発生した場合の平均コストは463万ドル(約7億円)に達し、通常の侵害より67万ドルも高い。さらに、AI関連の侵害を受けた組織の97%が適切なアクセス制御を整備できていなかったという事実も明らかになっている。
AIガバナンス協会(AIGA)が2026年2月に発表した調査では、従業員による個人利用AIについて60%の企業が把握に課題を抱えていることが明らかになった。AIツールの多様化・急増が管理課題だと回答した企業は83%、従業員のAIリテラシー不足をリスクと感じている企業は66%に上る。
数字はすべて同じ方向を指している。シャドーAIは「起きるかもしれない」問題ではなく、「すでに起きている」問題だ。
私が現場で見てきた「シャドーAIの実態」
数字だけでは伝わらないことがある。私がこの3年間、企業の生成AI導入支援やセミナー、数々の接点による相談等の現場で実際に耳にしてきた光景を共有したい。
※いずれも名を伏せることで掲載許可はもらっている。事例を理解する上で、問題の無い範囲で、少々のフェイクも入っているが、理解してほしい。
ある中堅メーカーでの話だ。営業部の若手社員が、取引先への提案書を作成するためにChatGPTを日常的に使っていた。そこまでは、今どきの若手なら珍しくない。問題は、プロンプトに自社の新製品の原価情報、取引先の購買担当者の名前と役職、そして過去の取引条件まで入力していたことだ。本人は「効率よく提案書が作れる便利なツール」としか認識していなかった。
別の事例では、人事部門の担当者が採用候補者の履歴書をそのまま生成AIに貼り付け、「この候補者の評価ポイントを整理してほしい」と指示していた。個人情報保護法の観点から言えば、これは明確なコンプライアンス違反である。しかし担当者には違法行為をしている自覚がまったくなかった。
もうひとつ。ある企業では、契約書のドラフトチェックに無許可で生成AIを利用していたケースがある。NDA(秘密保持契約)の内容をそのまま外部のAIに流していたわけだ。NDAの中身を第三者に開示すること自体が、NDA違反である。これはもう笑い話にもならない。
多くの企業を見てきた立場から言えば、シャドーAIはかなり進行しており、場合によっては取り返しのつかない状況になっているケースも見受けられる。「取り返しがつかない」というのは大げさに聞こえるだろう。しかし、一度AIの学習データに取り込まれた情報は、削除を依頼しても完全に消去される保証がない。流出した機密情報がどこでどう使われるかを追跡する手段もない。これが「取り返しがつかない」の意味である。
なぜ従業員はシャドーAIに走るのか
シャドーAIが蔓延する原因を「従業員のモラルの低さ」に求めるのは間違いだ。根本原因は3つある。
まず、生成AIがあまりにも便利すぎること。ChatGPTに業務の文章を投げれば、数秒で整った文章が返ってくる。議事録の要約、メールの下書き、データの分析。これまで30分かかっていた作業が3分で終わる。この生産性の差を体感した従業員に「使うな」と言うのは、電卓を知った人間にソロバンに戻れと言うようなものだ。
次に、会社側の対応が遅すぎること。総務省の令和7年版情報通信白書によれば、生成AIの活用方針を定めている企業は49.7%。つまり約半数の企業が「方針を明確に定めていない」状態で従業員を放置している。特に中小企業に限ると、方針未策定の割合はさらに高い。ルールがなければ、現場は自己判断で動く。それを後から「無許可利用だ」と咎めるのは、経営側の怠慢を従業員に転嫁しているだけだ。
さらに、世代間のリテラシーギャップ。サイバーセキュリティ企業CybSafeと全米サイバーセキュリティ同盟(NCA)が7,000人以上を対象に実施した調査では、AIを利用している従業員の約4割が雇用主に無断で機密情報をAIツールに入力した経験があると回答している。特に若い世代ほどこの傾向が顕著で、彼らにとって生成AIはスマートフォンと同じくらい日常的なツールであり、「わざわざ許可を取る」という発想自体がない。一方、経営層や管理職の多くは生成AIを自分で使った経験がなく、何がリスクで何がリスクでないかの判断基準を持っていない。この認識のズレが、シャドーAIの温床になっている。
つまり、シャドーAIは従業員の問題ではなく、経営の問題である。

シャドーAIが企業にもたらす5つのリスク
シャドーAIを放置した場合、企業が直面するリスクを具体的に整理する。
第一のリスクは、機密情報の外部流出だ。前述のとおり、生成AIに入力された情報は外部サーバーに送信される。無料版のChatGPTを使っている場合、入力データがAIの学習に利用される設定がデフォルトでオンになっている。つまり、従業員が入力した自社の営業戦略、顧客リスト、技術情報が、OpenAIのサーバーに蓄積されている可能性がある。2023年にはサムスン電子の半導体部門で、エンジニアがChatGPTにソースコードや社内会議の内容を入力し、機密情報が外部に流出したことが大きく報道された。これは対岸の火事ではない。
第二のリスクは、個人情報保護法やGDPRへの違反だ。顧客の個人情報、従業員の人事情報、取引先の連絡先。これらを生成AIに入力する行為は、個人情報の第三者提供に該当する可能性が高い。日本の個人情報保護法では、本人の同意なく個人データを第三者に提供することは原則禁止されている。違反した場合、企業名の公表、是正命令、さらには刑事罰の対象にもなりうる。
第三のリスクは、知的財産権の侵害と喪失だ。自社の特許技術やノウハウを生成AIに入力した場合、その情報が学習データに取り込まれ、競合他社のユーザーへの回答に反映される可能性がある。また、生成AIが出力したコンテンツの著作権は法的にグレーゾーンが多く、AIが生成した文章や画像を自社の成果物として公開した場合に、第三者の著作権を侵害するリスクもある。
第四のリスクは、業務品質の低下と誤情報の拡散だ。生成AIは「もっともらしいウソ」をつく。いわゆるハルシネーション(幻覚)の問題だ。従業員が生成AIの出力をファクトチェックなしに業務で使用した場合、誤った数字、存在しない法規制、架空の事例が取引先への提案書や社内報告書に紛れ込む。ある企業では、生成AIが作成した市場分析レポートに実在しない調査データが含まれていたことが、取引先への提出後に発覚し、信頼を大きく損ねた事例も報告されている。
第五のリスクは、インシデント発生時の責任の所在が不明確になることだ。シャドーAIは「会社が知らない」状態で行われているため、情報漏洩が発生しても、いつ、誰が、どの情報を、どのAIツールに入力したかを特定できない。CrowdStrikeの2026年版グローバル脅威レポートによれば、攻撃者が生成AIツールを悪用した事例は90以上の組織で確認されており、犯罪フォーラムでのChatGPTへの言及は550%増加している。外部からの攻撃と内部からのシャドーAIが掛け合わさった時、企業のセキュリティは崩壊する。

「禁止」では解決しない理由
ここまで読んで「うちも明日からAI利用を全面禁止にしよう」と考えた経営者がいるなら、それは最悪の判断だ。
理由は単純で、禁止しても使うからだ。シャドーITの歴史がそれを証明している。かつて多くの企業が個人端末の業務利用を禁止したが、結果としてシャドーITはむしろ増加した。禁止は「見えなくなる」だけで「なくなる」わけではない。むしろ禁止することで、従業員はAI利用を隠すようになり、シャドーAIはさらに地下に潜る。
さらに深刻なのは、AIを全面禁止した企業は競争力を失うという事実だ。生成AIを正しく活用している企業と、禁止している企業の間には、すでにコンテンツ生産速度で5倍から10倍の差がついている。提案書の作成、市場分析、顧客対応のスピードが競合に大きく水を開けられる。禁止は企業防衛のつもりで行われるが、結果的には競争力の自殺行為になる。
では、どうすればよいのか。
シャドーAIに対する5つの現実的な対策
私が複数の企業で実際に導入支援を行ってきた経験に基づき、実効性のある対策を5つ提示する。
対策1:まず経営層が自分で生成AIを使え
これが最も重要であり、多くの企業が最も怠っていることだ。
生成AIのリスクを正しく判断するには、自分で使った経験が不可欠である。使ったことがない人間が「禁止」か「放任」かの二択で判断するから、どちらに転んでも失敗する。経営層自身がChatGPTやClaudeを実際に使い、何ができて何ができないか、どこにリスクがあるかを体感する。これが対策の出発点だ。
私が支援した企業のうち、経営層が自ら生成AIを日常的に使っている会社は、例外なくガイドラインの質が高い。なぜなら、現場の便利さとリスクの両方を理解した上でルールを作っているからだ。一方、経営層がAIを触ったこともないのに「安全第一」でガイドラインを作った企業は、現場から無視される。ルールが現実と乖離しているからだ。
対策2:「使ってよいAI」と「使い方のルール」を明確に定める
全面禁止ではなく、「この範囲なら使ってよい」という明確なガイドラインを策定する。具体的には以下の4点を最低限定める必要がある。
(1)使用を許可するAIツールの指定。企業向けプランで入力データが学習に使用されない設定のChatGPT Enterprise、Claude for Business、Microsoft Copilotなど、セキュリティ要件を満たすツールを選定する。
(2)入力してよい情報の範囲。「公開情報」「社内一般情報」は入力可、「社外秘」「個人情報」「取引先の機密」は入力不可、といった明確な線引きをする。曖昧なルールは守られない。
(3)出力の取り扱い。AIの出力をそのまま社外に出すことは禁止し、必ず人間がファクトチェックと編集を行うプロセスを義務化する。
(4)利用ログの管理。誰がいつどのAIツールを使ったかを把握できる仕組みを導入する。監視が目的ではなく、インシデント発生時に原因を特定するためだ。
対策3:全従業員への生成AIリテラシー教育を実施する
ガイドラインを作っただけでは不十分だ。そもそも「なぜ生成AIに機密情報を入力してはいけないのか」を理解していない従業員が大半である。
教育で伝えるべき内容は3つある。まず、生成AIの仕組み。データがどこに送られ、どう処理されるかの基本的な理解。次に、リスクの具体例。サムスンの情報漏洩事例など、実際に起きた事故を共有する。抽象的な「情報漏洩のリスクがあります」では人は動かない。「この会社ではこういう事故が起きて、これだけの損害が出た」という具体的なストーリーが必要だ。最後に、正しい使い方の実践。許可されたツールで、許可された範囲のデータを使って、実際に業務を効率化する体験をさせる。「AIは危険だから触るな」ではなく「こう使えば安全に便利に使える」というメッセージに変えることで、シャドーAIに走る動機を減らす。
AIガバナンス協会の調査でも、従業員のAIリテラシー不足をリスクと感じている企業が66%に上る。リスクだと認識しているなら、教育に投資するのは経営判断として当然だ。
※もし私で良ければお力になれると思います。
対策4:「AI活用推進チーム」を社内に設置する
情報システム部門だけにAI対応を任せるのは危険だ。なぜなら、情報システム部門の本能は「リスクの排除」であり、その発想で動くと「禁止」に傾きやすいからだ。
必要なのは、情報システム部門、法務部門、そして現場の業務部門の三者が参加する横断的なチームだ。現場が「どういう業務でAIを使いたいか」を提案し、情報システムが「セキュリティ上の条件」を設定し、法務が「法的リスクの有無」を判断する。この三者の合意で、安全かつ実用的なAI活用のルールが生まれる。
私が見てきた中で、シャドーAIの抑制に成功している企業は、例外なくこの三者連携の体制を持っている。逆に、情報システム部門だけが「AIは禁止」と通達を出して終わりにしている企業は、現場のシャドーAIが止まらない。
対策5:定期的なモニタリングとルールのアップデート
生成AIの進化速度は凄まじい。2024年に作ったガイドラインは、2026年にはすでに時代遅れになっている。新しいAIツールが毎月のように登場し、できることの範囲が急速に拡大している。
ガイドラインは「一度作って終わり」ではなく、最低でも四半期に一度は見直す必要がある。新しいツールの評価、利用状況のモニタリング、インシデントの有無の確認。これらを定期的に行い、ルールを現実に合わせてアップデートし続けることが不可欠だ。
AIガバナンス協会の調査で、AIツールの多様化・急増が管理課題だと回答した企業が83%に達しているのは、この「追いつけない」問題の表れである。追いつこうとするのではなく、追いつき続ける仕組みを作ることが重要だ。
シャドーAIは「脅威」であると同時に「シグナル」である
ここまでリスクと対策を述べてきたが、最後にひとつ、重要な視点を加えたい。
シャドーAIが蔓延しているということは、従業員が「もっと効率よく仕事がしたい」と切実に感じている証拠でもある。ルールを破ってまで使うということは、それだけ生成AIの価値を現場が体感しているということだ。
これは経営にとって、脅威であると同時に貴重なシグナルでもある。従業員は会社に反抗したいのではない。もっと良い仕事がしたいのだ。その欲求を「禁止」で押さえつけるのか、「安全な仕組み」で活かすのかで、企業の未来は大きく分かれる。
第一生命経済研究所のレポートが指摘するように、シャドーAIを単に排除すべき脅威と捉えるのではなく、「現場から生まれる創造性の芽」として活かす視点が求められる。統制と自律のバランスをどう取るかが、これからの経営の腕の見せどころだ。
私自身、非エンジニアの立場からAIを使い始め、今では企業の導入支援やセミナー登壇を通じて、生成AIの「正しい活用」を広める活動を続けている。断言するが、生成AIは正しく使えば中小企業にとって最強の武器になる。しかし、野放しにすれば企業を内側から崩壊させる爆弾にもなる。
あなたの会社の従業員は、今日もどこかでこっそり生成AIを使っている。その現実から目を背けている時間は、もう残されていない。経営者が最初に取るべきアクションは、「自分で生成AIを使ってみること」だ。そこからすべてが始まる。























コメントを残す