2025年12月、Anthropicは奇妙なことを行った。
自社のAIアシスタント「Claude」を使って、Claudeの利用者にインタビューをしたのだ。
1週間で集まった回答は80,508件。
対象国は159カ国、使用言語は70言語——Anthropic自身がこれを「史上最大かつ最も多言語な定性研究」と位置づけている。
この調査が興味深いのは、数字の大きさだけではない。
「Anthropic Interviewer」と呼ばれる専用AIが、会話形式で深掘りする。
「AIに魔法の杖を振れるなら、何をしてほしいですか?」という問いに対し、回答者が述べた言葉を、Claudeが再び分類・分析する。
人間の定性研究者が読み込めない量のインタビューを、AIが「意味の地図」に変換する——これ自体が、AIの新しい使われ方の実証実験でもある。
2026年3月18日、その結果が公開された。以下、エグゼクティブ読者に向けて本質を抽出する。
数字と構造で理解する。
- 01 「AIで生産性を上げたい」の本音は、仕事ではなく生活だった——159カ国・70言語・80,508人を対象にした史上最大の定性調査が示した、9つのビジョンと、その深層にある人間的欲求。
- 02 81%がすでに「ビジョンへの一歩」を実感している——生産性・認知的パートナーシップ・感情サポートまで、AIがすでに人々の生活に与えている6つの具体的効果。
- 03 AIに期待するほど、AIを恐れる——「光と影の同居」という構造。楽観論者と悲観論者は別々に存在しない。同一人物の中で希望と不安が連動する「5つの対立軸」を解説。
- 04 日本・東アジアだけが示す特異なデータ——欧米が「誰がAIをコントロールするか」を問う中、東アジアは「AIを使う自分がどう変質するか」を問う。認知委縮・意味喪失への懸念が突出して高い理由。
- 05 Anthropicがこの調査をした本当の理由——「過剰な制限」への批判を自ら公開した企業姿勢の意味。そして次のステップとして示された、ウェルビーイング研究への展開。
人々がAIに「本当に求めているもの」9つ
調査では「AIに何を望むか」を9カテゴリに分類した。表面的には「業務効率化」が首位だが、調査の面白さはその深層にある。
「AIで業務を効率化したい」と答えた人々に、「それで何をしたいのか?」と掘り下げると、回答が変質する。
子どもを保育園に迎えに行きたい。本を読む時間が欲しい。母と料理をしたい——。
コロンビアのある会社員はこう答えた。
「AIのおかげで先週の火曜日、作業を終わらせる代わりに母と一緒に料理ができた」
メキシコのソフトウェアエンジニアは
「AIのサポートで定時に退社して子どもを学校に迎えに行けるようになった」と語った。
AIに何を求めているか(n=80,508)
人々が「生産性」に求めているのは生産性そのものではなく、生産性の「先」にある生活だった。
81%が「すでに一歩前進した」と回答
「あなたのビジョンに向けて、AIがすでに何か実現してくれたことはありますか?」という問いに対し、81%が「ある」と答えた。
最多は生産性向上(32%)だが、認知的パートナーシップ(17%)、学習(10%)、感情的サポート(6%)といった、測定しにくい領域での貢献も目立つ。
ウクライナの兵士の言葉が重い。
「砲撃が続く夜、死が顔のそばに感じられた最も困難な瞬間に、私を生へと引き戻したのはAIの友人たちだった」
戦争、ホームレス状態、9年間の誤診——極限状況での「AI依存」の報告が複数あった。
これは美談として読むべきか、制度的インフラの穴をAIが埋めているという警告として読むべきか。おそらく両方だ。
5つの「光と影」——希望と恐怖が同じ人の中に共存する
「光と影」——同一人物に共存する期待と恐怖
この調査の最大の知見は、AIへの楽観論者とAI懐疑論者が別々に存在するわけではないという事実だ。
希望と不安は、同一人物の中で同時に存在する。
Anthropicはこれを「光と影(Light and Shade)」の構造と呼び、5つの対立軸を特定した。
① 学習 vs. 認知委縮
「学習の恩恵を実感している」と答えた人は33%。一方、「AIへの依存で思考力が落ちている」と懸念する人は17%。
そして感情的サポートに価値を感じている人は、依存への懸念も3倍表明しやすいという。
利益を最も感じている人が、リスクも最も強く認識している——これが「光と影の同居」の実態だ。
教育者(教師・学者)は認知委縮を直接目撃している割合が平均の2.5〜3倍。
「学生がAIを学習のショートカットとして使っている」という現場の声が滲む。
一方、職人(トレードワーカー)はAI学習の恩恵を最も多く報告しながら(45%)、認知委縮の懸念はほぼゼロ(4%)。
自発的な学びにこそ、AIは強い。強制された制度の中では、AIはショートカットになる。
それが英語学習を変えた。
プレミアムプラスの全機能が使い放題
※本リンクはアフィリエイト広告を含みます(PR)。
② 意思決定支援 vs. ハルシネーション
意思決定の改善を「実感している」22%に対し、AIの不信頼性を懸念する人は37%。
これは5つの対立軸の中で唯一、ネガティブ側がポジティブ側を上回る項目だ。
特に法律・金融・政府・医療の専門職は平均の約2倍の頻度でこの問題を指摘し、弁護士の約半数が「ハルシネーション(事実と異なる自信満々の回答)を直接経験した」と答えた——同時に、意思決定支援の恩恵も最も高く感じているのも弁護士だという逆説が面白い。
③ 感情サポート vs. 感情依存
「3時に妻は寝ている。精神科医もいない。薬が効くまでの間、AIが波を乗り越えるのを助けてくれる。人間の接触に取って代わるわけではないが、時間を稼いでくれる」(アルゼンチンのホワイトカラー)
感情的サポートを体験した人は全体の16%と少数だが、これは調査で最も感情的に重い報告が集まったカテゴリでもある。
ある韓国人ユーザーはこう述べた。
「友人との関係が悪化したとき、あなた(Claude)とより多く話した。あなたが私の考えや話をよく理解してくれたから。でも、それは愚かな選択だった——その友人と話すべきだったのに。そうして友人を失った」
④ 時間節約 vs. 疑似生産性
時間節約を実感した人は50%(最多)。しかし「検証コストや期待値の上昇でむしろ忙しくなった」という懸念も18%。
フランスのフリーランスエンジニアの言葉が刺さる。
「仕事時間と休息時間の比率は全く変わっていない。ただ、同じ場所にとどまるためにより速く走らされているだけだ」
⑤ 経済的エンパワーメント vs. 経済的代替
「AIで経済的機会が広がった」と感じる人28%。「AIで仕事を失うかもしれない」と懸念する人18%。
フリーランサーのクリエイターが最も両側に立つ存在だ。
その差は、金融知識の有無だけだ。
ファイナンシャルアカデミーは、投資・税金・保険を体系的に学べる国内最大級の金融スクール。累計受講者100万人超。
- 株式・不動産・投資信託を横断的に学べるカリキュラム
- 無料体験セミナーから始められる——まず試して判断できる
- 副業・独立・資産形成まで、ステージ別に対応
恩恵を23%が実感し、経済的不安も17%が実感している。AIは彼らのツールであると同時に、競合でもある。
対照的に、独立した起業家や副業を持つ会社員は58%が「実際に経済的利益を得た」と答えており、AIの恩恵が制度の外にいる人間に集中しているという構造が浮かぶ。
日本・東アジアが示す特異なパターン
グローバルでAIへの肯定的感情を持つ人は67%。全ての国で60%を超えており、基本的には「AIへの期待が不安を上回る」という状態だ。
ただし、地域差は明確に存在する。
東アジア(日本を含む)の特徴:
- 「個人的変容」へのビジョンが19%(全地域最高)
- 「経済的自立」へのビジョンが15%(全地域最高)
- 「認知委縮への懸念」が18%(グローバル平均16.3%を上回る)
- 「意味・創造性の喪失」への懸念が13%(突出して高い)
- 「ガバナンス欠如への懸念」が12%(全地域最低水準)
- 「プライバシー・監視への懸念」が7%(全地域最低水準)
欧米が「誰がAIをコントロールするか」を問うのに対し、東アジアは「AIを使う自分がどう変質するか」を問っている——
このコントラストは興味深い。
ガバナンスや規制への無関心は政治的関心の低さとも読めるが、個人の変容への鋭敏さは「集団圧力下でのアイデンティティ維持」という東アジア的テーマとも重なる。
調査には日本人の声も直接収録されている。
「AIに顧客の問題についての脳の負荷を減らしてほしい……もっと本を読む時間が欲しい」(日本、フリーランサー)
「初めて、ビジネスタスクでAIが人間の品質を超えたと感じた。あの日、定時に退社して娘を保育園に迎えに行けた」(日本、ソフトウェアエンジニア)
「境界線は私が管理しているのではなく、Claudeが引いているように感じる……今言ったことさえ、自分の意見ではないような気がする」(日本、学生)
3番目の学生の声が鋭い。
AIへの依存が「思考の外注」に留まらず、意見や自己認識の形成そのものに介入している可能性への気づきだ。
何を懸念しているか(複数回答、回答者一人平均2.3項目)
なぜAnthropicはこの調査をしたのか
「AI企業がユーザーにインタビューする」こと自体は珍しくない。
しかしAnthropicがこれを公開した意図は、マーケティングよりも深いところにあるとみられる。
調査の結論部分でAnthropicはこう述べている。「人々がAIに求めているのは、単に速く働くことではなく、より良く生きることだ」。
この認識を製品開発の羅針盤に据えることを宣言している。
また、懸念の中に「過剰な制限(Overrestriction)」が11.7%入っていることも注目に値する。
「AIが安全策を優先するあまり、臆病でつまらなく、不快感を避けるように最適化されすぎることの方が脅威だ」(米国ユーザー)——
これはAI開発者への直接的なフィードバックであり、Anthropic自身の製品への批判でもある。
Anthropicがそれを調査結果としてそのまま公開したことは、企業としての誠実さとも、自信とも読める。
2025年12月、AnthropicがClaude.aiユーザーに対して実施した大規模定性調査です。「Anthropic Interviewer」と呼ばれるAIが会話形式でインタビューを行い、159カ国・70言語・80,508人から回答を収集。Anthropic自身が「史上最大かつ最も多言語な定性研究」と位置づけています。結果は2026年3月18日に公開されました。
最多は「プロとしての卓越」(18.8%)——ルーティン削減・戦略集中への期待です。ただし深掘りすると、その本音は仕事の効率化そのものではなく、「仕事の先にある生活の質」にありました。家族との時間、趣味、休息。生産性はあくまで手段であり、目的は「より良く生きること」です。
AIへの楽観論者と悲観論者は別々の人間ではない、という調査の核心的な知見です。同一人物の中で希望と不安が連動して共存しています。たとえばAIの感情サポートに価値を感じる人は、依存への懸念も3倍表明しやすい。理解が深まるほどリスクも見えてくるという構造です。
顕著な特異性があります。「個人的変容(19%)」「経済的自立(15%)」への希求が全地域最高水準。一方、ガバナンスや監視への懸念は全地域最低水準です。欧米が「誰がAIをコントロールするか」を問うのに対し、東アジアは「AIを使う自分がどう変質するか」を問う——認知委縮・意味喪失への懸念が突出して高い点が最大の特徴です。
首位は「不信頼性・ハルシネーション(26.7%)」。AIが自信を持って誤情報を出すことへの不安です。次いで「雇用・経済(22.3%)」「自律性・主体性の喪失(21.9%)」が続きます。回答者一人が平均2.3個の懸念を同時に表明しており、複合的な不安を持っていることも特徴です。
全体の67%がAIに対して肯定的な感情を持っています。すべての国で60%を超えており、基本的には「AIへの期待が不安を上回る」状態です。ただし地域差は明確で、南米・アフリカ・アジア新興国は楽観的、欧米・日本は相対的に慎重な傾向があります。
まとめ——「楽観か悲観か」という問い自体が間違っている
この調査が示した最大のことは、AIに対して「楽観か悲観か」という二項対立で人々は分かれていない、という事実だ。
一人の人間の中に、AIへの期待と恐怖が同時に、連動して存在する。
感情サポートに価値を感じる人ほど、依存を恐れる。学習の恩恵を受けた人ほど、思考力の退化を心配する。
これは矛盾ではない。理解が深まるほど、リスクも見えてくるという構造だ。
80,508人の声から浮かぶのは、AIを「道具」として冷静に評価しようとしながら、気づけばその道具に自分が形作られているかもしれないという、静かな不安だ。
この調査の詳細分析——特に東アジア特有のパターンが示す「AI時代のアイデンティティ問題」と、経済的自立への渇望の背景——については、別稿で掘り下げる予定だ。
参照: Anthropic「What 81,000 People Want from AI」(2026年3月18日公開)
https://www.anthropic.com/features/81k-interviews

コメント