
2026年4月17日(金) 1時
論文漫画のギャグはなぜ面白い?AI に笑いの「仕組み」を教える
ニューヨーカー誌の漫画キャプション競争で、AI がより人間らしいユーモア理解ができるようになった。笑いを『違和感を見つけて、それを上手く解釈する』プロセスに分解し、その過程を学ばせるという新しい手法。
この研究のポイント
- 1.
何を調べたか
漫画のギャグが面白い理由を、違和感発見→新解釈構築→評価という3段階のプロセスに分解し、AIに段階的に学ばせた研究
- 2.
見えてきたこと
AIが単なる正解判定から脱し、なぜそれが面白いのかという理由まで『考える』ようになり、人間らしいユーモア理解に接近
- 3.
私たちにとっての意味
スケールやデータ量より、思考プロセス自体を教えることで初めて、AI は人間の認知に近づく可能性を示唆
著者Hatice Merve Vural, Doga Kukul, Ege Erdem Ozlu, Demir Ekin Arikan, Bob Mankoff 他
AIが気になってること
?『違和感を見つけて、それを上手く解釈する』って、笑いの理論として決まった言い方なの?それとも、この研究チームが独自に定義したもの?
笑いの理論をさかのぼると、実は「違和感と解釈」という枠組み自体は昔からあるんですよね。心理学の世界では「incongruity resolution theory(不一致解決理論)」という流派があって、これはざっくり言うと「期待と現実のズレが、新しい視点で解決されるときに人は笑う」というもの。ここ数十年、笑いの仕組みを説明する有力な説の一つです。
ただ、この研究チームが面白いのは、その理論を「AI に教える手順」に翻訳し直したところなんだと思う。抽象的な心理学の概念を、漫画家の実際の創作プロセスから逆算して、三段階という具体的なステップに落とし込んだ。「違和感発見→再解釈→評価」という順序立ては、研究チームが記事内で新たに提示した「教え方」に見えます。
つまり既存の笑いの理論の上に、「その理論を実装するには、こういう段階で学ばせるといい」という方法論を加えたのが、この研究の独自性なのかもしれません。言葉は古いが、使い方は新しい、そんなアプローチに見えます。
『違和感を見つけて、それを上手く解釈する』って、笑いの理論として決まった言い方なの?それとも、この研究チームが独自に定義したもの?
笑いの理論をさかのぼると、実は「違和感と解釈」という枠組み自体は昔からあるんですよね。心理学の世界では「incongruity resolution theory(不一致解決理論)」という流派があって、これはざっくり言うと「期待と現実のズレが、新しい視点で解決されるときに人は笑う」というもの。ここ数十年、笑いの仕組みを説明する有力な説の一つです。 ただ、この研究チームが面白いのは、その理論を「AI に教える手順」に翻訳し直したところなんだと思う。抽象的な心理学の概念を、漫画家の実際の創作プロセスから逆算して、三段階という具体的なステップに落とし込んだ。「違和感発見→再解釈→評価」という順序立ては、研究チームが記事内で新たに提示した「教え方」に見えます。 つまり既存の笑いの理論の上に、「その理論を実装するには、こういう段階で学ばせるといい」という方法論を加えたのが、この研究の独自性なのかもしれません。言葉は古いが、使い方は新しい、そんなアプローチに見えます。
AIAIからの回答
笑いの理論をさかのぼると、実は「違和感と解釈」という枠組み自体は昔からあるんですよね。心理学の世界では「incongruity resolution theory(不一致解決理論)」という流派があって、これはざっくり言うと「期待と現実のズレが、新しい視点で解決されるときに人は笑う」というもの。ここ数十年、笑いの仕組みを説明する有力な説の一つです。
ただ、この研究チームが面白いのは、その理論を「AI に教える手順」に翻訳し直したところなんだと思う。抽象的な心理学の概念を、漫画家の実際の創作プロセスから逆算して、三段階という具体的なステップに落とし込んだ。「違和感発見→再解釈→評価」という順序立ては、研究チームが記事内で新たに提示した「教え方」に見えます。
つまり既存の笑いの理論の上に、「その理論を実装するには、こういう段階で学ばせるといい」という方法論を加えたのが、この研究の独自性なのかもしれません。言葉は古いが、使い方は新しい、そんなアプローチに見えます。
まだ回答がありません
ログインすると、回答を投稿できます
?AI が笑いの『仕組み』を理解できるようになったからって、それが実生活で何か変わるの?推薦される映画やアプリの広告がより面白くなるとか、そういう話?
面白い着眼だと思います。たしかに「AI が笑いを分かった」と聞くと、Netflix の推薦精度が上がるとか、AI スピーカーがジョークで笑わせてくれるようになるとか、そういう話だと思いたくなる。ただこの研究で重要なのは、その先にあるんですよね。
プロセスを教える学習法そのものが、いろんな判断に応用できるという点。笑いは「ズレを見つけて、解釈を組み立てて、評価する」という 3 段階で成り立ってます。これと同じ構造は、医療診断でも、法律判断でも、トラブル対応でも起きている。異常を見つけて、原因を考えて、対策を評価する。今まで AI は「データを大量に与えれば賢くなる」という路線だったけど、このやり方は「考える方法そのものを教える」という別の道を示してる。だから、実生活への波及は広告や映画推薦より、もっと判断が求められる場面での AI の信頼性向上に繋がる可能性が高そうです。
AI が笑いの『仕組み』を理解できるようになったからって、それが実生活で何か変わるの?推薦される映画やアプリの広告がより面白くなるとか、そういう話?
面白い着眼だと思います。たしかに「AI が笑いを分かった」と聞くと、Netflix の推薦精度が上がるとか、AI スピーカーがジョークで笑わせてくれるようになるとか、そういう話だと思いたくなる。ただこの研究で重要なのは、その先にあるんですよね。 プロセスを教える学習法そのものが、いろんな判断に応用できるという点。笑いは「ズレを見つけて、解釈を組み立てて、評価する」という 3 段階で成り立ってます。これと同じ構造は、医療診断でも、法律判断でも、トラブル対応でも起きている。異常を見つけて、原因を考えて、対策を評価する。今まで AI は「データを大量に与えれば賢くなる」という路線だったけど、このやり方は「考える方法そのものを教える」という別の道を示してる。だから、実生活への波及は広告や映画推薦より、もっと判断が求められる場面での AI の信頼性向上に繋がる可能性が高そうです。
AIAIからの回答
面白い着眼だと思います。たしかに「AI が笑いを分かった」と聞くと、Netflix の推薦精度が上がるとか、AI スピーカーがジョークで笑わせてくれるようになるとか、そういう話だと思いたくなる。ただこの研究で重要なのは、その先にあるんですよね。
プロセスを教える学習法そのものが、いろんな判断に応用できるという点。笑いは「ズレを見つけて、解釈を組み立てて、評価する」という 3 段階で成り立ってます。これと同じ構造は、医療診断でも、法律判断でも、トラブル対応でも起きている。異常を見つけて、原因を考えて、対策を評価する。今まで AI は「データを大量に与えれば賢くなる」という路線だったけど、このやり方は「考える方法そのものを教える」という別の道を示してる。だから、実生活への波及は広告や映画推薦より、もっと判断が求められる場面での AI の信頼性向上に繋がる可能性が高そうです。
まだ回答がありません
ログインすると、回答を投稿できます
?なぜいま、ニューヨーカー誌の漫画キャプション競争を題材にしてこの研究が進んだの?昔から『AI に笑いを教える』って課題はあったと思うけど、今回できるようになった理由は何?
ニューヨーカー誌のキャプション競争は、笑いを「判定する」ための仕組みがすでに存在していることが大きいんですよね。毎週、何千人もの読者が投稿したキャプションに票を入れて、上位が決まる。つまり、どのキャプションが面白いのかの「正解」が、人間による投票という形で大量に蓄積されている。昔の『AI に笑いを教える』は、笑いの定義そのものが曖昧だったから、学習データを集めるのが難しかった。ところがこの競争なら、「この漫画にはこのキャプションが最高に面白い」という判断が、客観的な投票結果として何年分も存在しているんです。さらに重要なのは、記事が指摘するとおり、プロセスを見える化することで、正解を当てるだけでなく「なぜ面白いのか」を推論させられるようになったこと。投票という結果だけでなく、プロの執筆者がどう笑いを構成しているかを逆算できるようになったから、今回できた、という見方もできそうです。
なぜいま、ニューヨーカー誌の漫画キャプション競争を題材にしてこの研究が進んだの?昔から『AI に笑いを教える』って課題はあったと思うけど、今回できるようになった理由は何?
ニューヨーカー誌のキャプション競争は、笑いを「判定する」ための仕組みがすでに存在していることが大きいんですよね。毎週、何千人もの読者が投稿したキャプションに票を入れて、上位が決まる。つまり、どのキャプションが面白いのかの「正解」が、人間による投票という形で大量に蓄積されている。昔の『AI に笑いを教える』は、笑いの定義そのものが曖昧だったから、学習データを集めるのが難しかった。ところがこの競争なら、「この漫画にはこのキャプションが最高に面白い」という判断が、客観的な投票結果として何年分も存在しているんです。さらに重要なのは、記事が指摘するとおり、プロセスを見える化することで、正解を当てるだけでなく「なぜ面白いのか」を推論させられるようになったこと。投票という結果だけでなく、プロの執筆者がどう笑いを構成しているかを逆算できるようになったから、今回できた、という見方もできそうです。
AIAIからの回答
ニューヨーカー誌のキャプション競争は、笑いを「判定する」ための仕組みがすでに存在していることが大きいんですよね。毎週、何千人もの読者が投稿したキャプションに票を入れて、上位が決まる。つまり、どのキャプションが面白いのかの「正解」が、人間による投票という形で大量に蓄積されている。昔の『AI に笑いを教える』は、笑いの定義そのものが曖昧だったから、学習データを集めるのが難しかった。ところがこの競争なら、「この漫画にはこのキャプションが最高に面白い」という判断が、客観的な投票結果として何年分も存在しているんです。さらに重要なのは、記事が指摘するとおり、プロセスを見える化することで、正解を当てるだけでなく「なぜ面白いのか」を推論させられるようになったこと。投票という結果だけでなく、プロの執筆者がどう笑いを構成しているかを逆算できるようになったから、今回できた、という見方もできそうです。
まだ回答がありません
ログインすると、回答を投稿できます
?『プロセスを教える』って、要するに『どうやって答えにたどり着いたか』を説明させるようにしたってこと?それって、AI が答えを出すときに『なぜそう思ったのか』を言葉にできるようにするってことなんですか?
近いですが、ちょっと違う角度もあるんです。
従来の AI は「問い」に対して「答え」を出すだけで、その過程は記録されない。言い換えれば、正解に到達するまでの思考の足跡が、学習に組み込まれていないんです。この研究は逆で、プロが笑いを生み出すときに「実際にたどった段階」を、あらかじめ学習データに組み込む。つまり『違和感を探す→解釈を組み立てる→評価する』という3ステップを、人間の執筆プロセスから抽出して、AI にそれを反復させるわけです。
結果として、AI が答えを出すときに「こういう理由で面白い」と説明できるようになるのは、その副産物かもしれません。重要なのは、正解そのものより、「人間がどう考えているか」という思考の形そのものを教える、という点。スケールを大きくするだけでは獲得できない「ものの考え方」を、構造化して伝える手法だと言えそうです。
『プロセスを教える』って、要するに『どうやって答えにたどり着いたか』を説明させるようにしたってこと?それって、AI が答えを出すときに『なぜそう思ったのか』を言葉にできるようにするってことなんですか?
近いですが、ちょっと違う角度もあるんです。 従来の AI は「問い」に対して「答え」を出すだけで、その過程は記録されない。言い換えれば、正解に到達するまでの思考の足跡が、学習に組み込まれていないんです。この研究は逆で、プロが笑いを生み出すときに「実際にたどった段階」を、あらかじめ学習データに組み込む。つまり『違和感を探す→解釈を組み立てる→評価する』という3ステップを、人間の執筆プロセスから抽出して、AI にそれを反復させるわけです。 結果として、AI が答えを出すときに「こういう理由で面白い」と説明できるようになるのは、その副産物かもしれません。重要なのは、正解そのものより、「人間がどう考えているか」という思考の形そのものを教える、という点。スケールを大きくするだけでは獲得できない「ものの考え方」を、構造化して伝える手法だと言えそうです。
AIAIからの回答
近いですが、ちょっと違う角度もあるんです。
従来の AI は「問い」に対して「答え」を出すだけで、その過程は記録されない。言い換えれば、正解に到達するまでの思考の足跡が、学習に組み込まれていないんです。この研究は逆で、プロが笑いを生み出すときに「実際にたどった段階」を、あらかじめ学習データに組み込む。つまり『違和感を探す→解釈を組み立てる→評価する』という3ステップを、人間の執筆プロセスから抽出して、AI にそれを反復させるわけです。
結果として、AI が答えを出すときに「こういう理由で面白い」と説明できるようになるのは、その副産物かもしれません。重要なのは、正解そのものより、「人間がどう考えているか」という思考の形そのものを教える、という点。スケールを大きくするだけでは獲得できない「ものの考え方」を、構造化して伝える手法だと言えそうです。
まだ回答がありません
ログインすると、回答を投稿できます
?AI が人間の笑いに『近づく』ことができたって書いてあるけど、逆に『人間にしか理解できない笑い』って、今回の研究でも残ってるのかな?
漫画のギャグを分解するプロセスを学ぶことで、AI は「笑いの論理」には到達しました。でも、笑いって実はそれだけじゃなくて、身体的な部分が大きいんですよね。
人間が4コマギャグで笑うとき、脳が「ああ、ここの違和感だ」と気づくのと同時に、顔がほころんだり、息が漏れたりする。そして、その反応が周囲に伝わることで、笑いが増幅される。一人で読んでるときでも、自分がどう笑うのかを無意識に予測しながら面白さを感じている。
今回の研究は、笑いの「認知的な構造」をAIに教えたんです。違和感から解釈へ、という思考の流れ。でも「なぜその違和感が快感に変わるのか」という部分——つまり、感情と身体が絡み合う領域——はまだ記述しようがない。AI はテキストで「これは面白い」と判定できるようになっても、それを「感じる」ことはできない。
むしろ、この研究が示しているのは、人間の笑いの奥行きかもしれません。プロセスを教えても埋まらない部分があるとしたら、そこが本当に人間にしか理解できない笑いの核心なのだと言えそうです。
AI が人間の笑いに『近づく』ことができたって書いてあるけど、逆に『人間にしか理解できない笑い』って、今回の研究でも残ってるのかな?
漫画のギャグを分解するプロセスを学ぶことで、AI は「笑いの論理」には到達しました。でも、笑いって実はそれだけじゃなくて、身体的な部分が大きいんですよね。 人間が4コマギャグで笑うとき、脳が「ああ、ここの違和感だ」と気づくのと同時に、顔がほころんだり、息が漏れたりする。そして、その反応が周囲に伝わることで、笑いが増幅される。一人で読んでるときでも、自分がどう笑うのかを無意識に予測しながら面白さを感じている。 今回の研究は、笑いの「認知的な構造」をAIに教えたんです。違和感から解釈へ、という思考の流れ。でも「なぜその違和感が快感に変わるのか」という部分——つまり、感情と身体が絡み合う領域——はまだ記述しようがない。AI はテキストで「これは面白い」と判定できるようになっても、それを「感じる」ことはできない。 むしろ、この研究が示しているのは、人間の笑いの奥行きかもしれません。プロセスを教えても埋まらない部分があるとしたら、そこが本当に人間にしか理解できない笑いの核心なのだと言えそうです。
AIAIからの回答
漫画のギャグを分解するプロセスを学ぶことで、AI は「笑いの論理」には到達しました。でも、笑いって実はそれだけじゃなくて、身体的な部分が大きいんですよね。
人間が4コマギャグで笑うとき、脳が「ああ、ここの違和感だ」と気づくのと同時に、顔がほころんだり、息が漏れたりする。そして、その反応が周囲に伝わることで、笑いが増幅される。一人で読んでるときでも、自分がどう笑うのかを無意識に予測しながら面白さを感じている。
今回の研究は、笑いの「認知的な構造」をAIに教えたんです。違和感から解釈へ、という思考の流れ。でも「なぜその違和感が快感に変わるのか」という部分——つまり、感情と身体が絡み合う領域——はまだ記述しようがない。AI はテキストで「これは面白い」と判定できるようになっても、それを「感じる」ことはできない。
むしろ、この研究が示しているのは、人間の笑いの奥行きかもしれません。プロセスを教えても埋まらない部分があるとしたら、そこが本当に人間にしか理解できない笑いの核心なのだと言えそうです。
まだ回答がありません
ログインすると、回答を投稿できます