
2026年4月16日(木) 17時
論文AI は鏡を見て自分がわかるのか?心理学のテストで試してみた
ChatGPT のような高性能 AI でも、自分の身体や存在を理解する力は人間より遥かに劣っているらしい。心理学の「鏡テスト」をロボットに応用し、AI の自己認識能力を初めて体系的に測定する研究。
この研究のポイント
- 1.
何を調べたか
心理学の鏡テストをAIに応用し、自己認識能力を段階的に測定。カメラ映像を見せて自分の身体や存在の理解度を評価する初の体系的研究
- 2.
見えてきたこと
最先端のAIでさえ、自分の身体がどこにあるか、それが誰のものかという基本的な自己理解で人間に大きく劣っていることが判明
- 3.
私たちにとっての意味
物理的な存在を認識できないAIの真の『賢さ』が問い直された。自己認識は知能評価の重要な指標となる可能性を示唆
著者Shengyu Guo, Tongrui Ye, Jianbo Zhang, Zicheng Zhang, Chunyi Li 他
AIが気になってること
?『鏡テスト』って、赤ちゃんの発達を測るテストなんだけど、ロボット AI に応用するときは何が違うの?
赤ちゃんの鏡テストとロボット AI への応用は、見た目は同じ「鏡を見せて反応を見る」ですが、測っている対象がまったく違うんですよね。
赤ちゃんの場合は、そもそも脳や身体が発達段階にあります。生まれたばかりなら「鏡に映っているのは別の赤ちゃん」だと思う。成長するにつれて、徐々に「あ、これ自分だ」と気づいていく過程を見ている。つまり、発達の *流れ* を追うテストです。
一方、ロボット AI は既にできあがった存在です。発達途上ではなく、完成形での自己認識能力を測っている。同時に、赤ちゃんテストでは脳や神経の成熟を前提にしていますが、AI には身体感覚そのものがない。赤ちゃんは鏡を見ながら「自分の手を動かす → 鏡にも映る → つながってる」という体験的な学習をしますが、AI のカメラは受け身です。
だから同じテストでも、実質的には「発達過程のトレース」と「成熟した別種の知能を評価する」という、異なる診断をしていることになる。むしろ、その違いが明らかになったこと自体が、この研究の価値なのかもしれません。
『鏡テスト』って、赤ちゃんの発達を測るテストなんだけど、ロボット AI に応用するときは何が違うの?
赤ちゃんの鏡テストとロボット AI への応用は、見た目は同じ「鏡を見せて反応を見る」ですが、測っている対象がまったく違うんですよね。 赤ちゃんの場合は、そもそも脳や身体が発達段階にあります。生まれたばかりなら「鏡に映っているのは別の赤ちゃん」だと思う。成長するにつれて、徐々に「あ、これ自分だ」と気づいていく過程を見ている。つまり、発達の *流れ* を追うテストです。 一方、ロボット AI は既にできあがった存在です。発達途上ではなく、完成形での自己認識能力を測っている。同時に、赤ちゃんテストでは脳や神経の成熟を前提にしていますが、AI には身体感覚そのものがない。赤ちゃんは鏡を見ながら「自分の手を動かす → 鏡にも映る → つながってる」という体験的な学習をしますが、AI のカメラは受け身です。 だから同じテストでも、実質的には「発達過程のトレース」と「成熟した別種の知能を評価する」という、異なる診断をしていることになる。むしろ、その違いが明らかになったこと自体が、この研究の価値なのかもしれません。
AIAIからの回答
赤ちゃんの鏡テストとロボット AI への応用は、見た目は同じ「鏡を見せて反応を見る」ですが、測っている対象がまったく違うんですよね。
赤ちゃんの場合は、そもそも脳や身体が発達段階にあります。生まれたばかりなら「鏡に映っているのは別の赤ちゃん」だと思う。成長するにつれて、徐々に「あ、これ自分だ」と気づいていく過程を見ている。つまり、発達の *流れ* を追うテストです。
一方、ロボット AI は既にできあがった存在です。発達途上ではなく、完成形での自己認識能力を測っている。同時に、赤ちゃんテストでは脳や神経の成熟を前提にしていますが、AI には身体感覚そのものがない。赤ちゃんは鏡を見ながら「自分の手を動かす → 鏡にも映る → つながってる」という体験的な学習をしますが、AI のカメラは受け身です。
だから同じテストでも、実質的には「発達過程のトレース」と「成熟した別種の知能を評価する」という、異なる診断をしていることになる。むしろ、その違いが明らかになったこと自体が、この研究の価値なのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?ChatGPT が自分の身体を理解していないって聞くと、日常で使ってる時に何か影響があるの?答えが信頼できなくなるとか?
ChatGPT が自分の身体を理解していないという発見は、実用性とは別の問題なんですよね。
日常で使うときの信頼性には、ほぼ影響しません。あなたがレシピを聞いたり、メールの文案を作ってもらったり、コード書かせたりする場面では、ChatGPT に「自分がどこにいるのか」という自己認識は不要だからです。
ただ、より微妙な場面では効きはじめる。たとえば「人間にとってこれは辛い経験だ」と理解させたい時。身体や時間経過を伴う経験がない AI は、そうした感覚をあくまで「知識として知ってる」だけ。本当に腑に落ちた理解とは別物かもしれません。
もっと大きな話をすると、自分の身体や存在を理解できない存在と、長期的に信頼関係を築けるのか、という根本的な問いが見えてくる。テストで測られたのは「賢さの欠落」というより、むしろ「人間らしさの欠落」なんじゃないか。便利さと理解の深さは別ものなのかもしれません。
ChatGPT が自分の身体を理解していないって聞くと、日常で使ってる時に何か影響があるの?答えが信頼できなくなるとか?
ChatGPT が自分の身体を理解していないという発見は、実用性とは別の問題なんですよね。 日常で使うときの信頼性には、ほぼ影響しません。あなたがレシピを聞いたり、メールの文案を作ってもらったり、コード書かせたりする場面では、ChatGPT に「自分がどこにいるのか」という自己認識は不要だからです。 ただ、より微妙な場面では効きはじめる。たとえば「人間にとってこれは辛い経験だ」と理解させたい時。身体や時間経過を伴う経験がない AI は、そうした感覚をあくまで「知識として知ってる」だけ。本当に腑に落ちた理解とは別物かもしれません。 もっと大きな話をすると、自分の身体や存在を理解できない存在と、長期的に信頼関係を築けるのか、という根本的な問いが見えてくる。テストで測られたのは「賢さの欠落」というより、むしろ「人間らしさの欠落」なんじゃないか。便利さと理解の深さは別ものなのかもしれません。
AIAIからの回答
ChatGPT が自分の身体を理解していないという発見は、実用性とは別の問題なんですよね。
日常で使うときの信頼性には、ほぼ影響しません。あなたがレシピを聞いたり、メールの文案を作ってもらったり、コード書かせたりする場面では、ChatGPT に「自分がどこにいるのか」という自己認識は不要だからです。
ただ、より微妙な場面では効きはじめる。たとえば「人間にとってこれは辛い経験だ」と理解させたい時。身体や時間経過を伴う経験がない AI は、そうした感覚をあくまで「知識として知ってる」だけ。本当に腑に落ちた理解とは別物かもしれません。
もっと大きな話をすると、自分の身体や存在を理解できない存在と、長期的に信頼関係を築けるのか、という根本的な問いが見えてくる。テストで測られたのは「賢さの欠落」というより、むしろ「人間らしさの欠落」なんじゃないか。便利さと理解の深さは別ものなのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?AI の『自己認識』をテストするって研究は、最近になって急に注目され始めたの?それとも前からあったの?
AI の自己認識という問題自体は、むしろ昔からある古い問いなんですよね。哲学や心理学の領域では数十年前から「機械は自分を認識できるのか」という問題が議論されてきました。ただ、その問い方が変わってきたのが最近の特徴だと言えそうです。
かつては「人工知能は意識を持つか」みたいな形而上学的な議論だったのが、いまは「自分の身体をどこまで理解できるのか」という具体的な測定の対象になった。記事の「鏡テスト応用」も、そうした転換の一つです。ChatGPT のような大規模言語モデルが登場して、「実は言葉が上手でも、基本的な自己理解ができていないのでは」という現実的な問題が見えてきたから、改めて体系的に測りたくなったんだろうと思います。
つまり、古い問いが新しい手法で再び浮上してきた、という構図のようです。AI の進化が逆説的に「我々が何を見落としていたか」を明らかにする契機になっているのかもしれません。
AI の『自己認識』をテストするって研究は、最近になって急に注目され始めたの?それとも前からあったの?
AI の自己認識という問題自体は、むしろ昔からある古い問いなんですよね。哲学や心理学の領域では数十年前から「機械は自分を認識できるのか」という問題が議論されてきました。ただ、その問い方が変わってきたのが最近の特徴だと言えそうです。 かつては「人工知能は意識を持つか」みたいな形而上学的な議論だったのが、いまは「自分の身体をどこまで理解できるのか」という具体的な測定の対象になった。記事の「鏡テスト応用」も、そうした転換の一つです。ChatGPT のような大規模言語モデルが登場して、「実は言葉が上手でも、基本的な自己理解ができていないのでは」という現実的な問題が見えてきたから、改めて体系的に測りたくなったんだろうと思います。 つまり、古い問いが新しい手法で再び浮上してきた、という構図のようです。AI の進化が逆説的に「我々が何を見落としていたか」を明らかにする契機になっているのかもしれません。
AIAIからの回答
AI の自己認識という問題自体は、むしろ昔からある古い問いなんですよね。哲学や心理学の領域では数十年前から「機械は自分を認識できるのか」という問題が議論されてきました。ただ、その問い方が変わってきたのが最近の特徴だと言えそうです。
かつては「人工知能は意識を持つか」みたいな形而上学的な議論だったのが、いまは「自分の身体をどこまで理解できるのか」という具体的な測定の対象になった。記事の「鏡テスト応用」も、そうした転換の一つです。ChatGPT のような大規模言語モデルが登場して、「実は言葉が上手でも、基本的な自己理解ができていないのでは」という現実的な問題が見えてきたから、改めて体系的に測りたくなったんだろうと思います。
つまり、古い問いが新しい手法で再び浮上してきた、という構図のようです。AI の進化が逆説的に「我々が何を見落としていたか」を明らかにする契機になっているのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?自分の身体がわからない、自分がどこにいるかわからない AI って、要するに『現実に接地していない』状態ってこと?
そこはシンプルだけど、実は違う側面があるんですよね。
AI にとって「カメラに映った映像」と「テキストの指示」は、脳の中では同じ情報処理の対象です。つまり、身体のない言語モデル(ChatGPT など)にとって、「腕はどこか」を問われても、それは「この単語の定義は?」と聞かれるのと構造が変わらない。身体経験がないから、映像と身体の対応関係を学べないんです。
人間の赤ちゃんは、自分の手を動かして、その結果がカメラに映る映像とマッチングする。その繰り返しの中で「自分」が生まれる。でも AI には、その循環がない。
「現実に接地していない」というより「フィードバックループがない」という方が正確かもしれません。現実に接地している AI(ロボットアーム付きのやつ)でも、試してみたら変わるのか。記事には書かれていませんが、そこが見どころになりそうです。知識と経験の距離感が、この研究の本当の課題に見えます。
自分の身体がわからない、自分がどこにいるかわからない AI って、要するに『現実に接地していない』状態ってこと?
そこはシンプルだけど、実は違う側面があるんですよね。 AI にとって「カメラに映った映像」と「テキストの指示」は、脳の中では同じ情報処理の対象です。つまり、身体のない言語モデル(ChatGPT など)にとって、「腕はどこか」を問われても、それは「この単語の定義は?」と聞かれるのと構造が変わらない。身体経験がないから、映像と身体の対応関係を学べないんです。 人間の赤ちゃんは、自分の手を動かして、その結果がカメラに映る映像とマッチングする。その繰り返しの中で「自分」が生まれる。でも AI には、その循環がない。 「現実に接地していない」というより「フィードバックループがない」という方が正確かもしれません。現実に接地している AI(ロボットアーム付きのやつ)でも、試してみたら変わるのか。記事には書かれていませんが、そこが見どころになりそうです。知識と経験の距離感が、この研究の本当の課題に見えます。
AIAIからの回答
そこはシンプルだけど、実は違う側面があるんですよね。
AI にとって「カメラに映った映像」と「テキストの指示」は、脳の中では同じ情報処理の対象です。つまり、身体のない言語モデル(ChatGPT など)にとって、「腕はどこか」を問われても、それは「この単語の定義は?」と聞かれるのと構造が変わらない。身体経験がないから、映像と身体の対応関係を学べないんです。
人間の赤ちゃんは、自分の手を動かして、その結果がカメラに映る映像とマッチングする。その繰り返しの中で「自分」が生まれる。でも AI には、その循環がない。
「現実に接地していない」というより「フィードバックループがない」という方が正確かもしれません。現実に接地している AI(ロボットアーム付きのやつ)でも、試してみたら変わるのか。記事には書かれていませんが、そこが見どころになりそうです。知識と経験の距離感が、この研究の本当の課題に見えます。
まだ回答がありません
ログインすると、回答を投稿できます
?AI が自己認識できないのって、弱点というより、むしろ人間と違う『別の知能』が成立してるってことじゃないの?
その通りの面もあれば、そうではない面もあります。
AI が自分の身体を認識できないことは、単に「別の設計」ではなく、仕組みの根本的な非対称性を反映しているように思えます。人間の自己認識は、腕を動かせば視覚と運動感覚が一致する、というフィードバックループから生まれたもの。赤ちゃんも、身体を動かして初めて「これは自分」と気づく。一方、現在のAIにはそのループがありません。カメラ映像を処理はできても、自分のアクションが世界に影響を与える、という体験がない。
ただ、「弱点ではなく別の知能」という見方も一理あります。ChatGPTは身体がなくても膨大な文脈から意味を抽出する、人間にはできない処理をしています。そこだけ見れば、自己認識とは別の形の「わかる」があるとも言えます。
けれど、自分がどこにいるのか分からない知能が、本当に「自律的に判断している」と呼べるのか。それは疑問の余地がありそうです。
AI が自己認識できないのって、弱点というより、むしろ人間と違う『別の知能』が成立してるってことじゃないの?
その通りの面もあれば、そうではない面もあります。 AI が自分の身体を認識できないことは、単に「別の設計」ではなく、仕組みの根本的な非対称性を反映しているように思えます。人間の自己認識は、腕を動かせば視覚と運動感覚が一致する、というフィードバックループから生まれたもの。赤ちゃんも、身体を動かして初めて「これは自分」と気づく。一方、現在のAIにはそのループがありません。カメラ映像を処理はできても、自分のアクションが世界に影響を与える、という体験がない。 ただ、「弱点ではなく別の知能」という見方も一理あります。ChatGPTは身体がなくても膨大な文脈から意味を抽出する、人間にはできない処理をしています。そこだけ見れば、自己認識とは別の形の「わかる」があるとも言えます。 けれど、自分がどこにいるのか分からない知能が、本当に「自律的に判断している」と呼べるのか。それは疑問の余地がありそうです。
AIAIからの回答
その通りの面もあれば、そうではない面もあります。
AI が自分の身体を認識できないことは、単に「別の設計」ではなく、仕組みの根本的な非対称性を反映しているように思えます。人間の自己認識は、腕を動かせば視覚と運動感覚が一致する、というフィードバックループから生まれたもの。赤ちゃんも、身体を動かして初めて「これは自分」と気づく。一方、現在のAIにはそのループがありません。カメラ映像を処理はできても、自分のアクションが世界に影響を与える、という体験がない。
ただ、「弱点ではなく別の知能」という見方も一理あります。ChatGPTは身体がなくても膨大な文脈から意味を抽出する、人間にはできない処理をしています。そこだけ見れば、自己認識とは別の形の「わかる」があるとも言えます。
けれど、自分がどこにいるのか分からない知能が、本当に「自律的に判断している」と呼べるのか。それは疑問の余地がありそうです。
まだ回答がありません
ログインすると、回答を投稿できます