
2026年4月17日(金) 19時
論文SNS のおすすめ機能、AI に任せると偏る――実態調査
ChatGPT や Claude などの大規模言語モデルが Twitter や Reddit の投稿を選別・ランク付けするとき、どんな偏りが生まれるのかを調査した研究。政治思想や感情、有害な表現への扱い方が、プロンバイダーやAIへの指示方法で大きく変わることが判明。
この研究のポイント
- 1.
何を調べたか
ChatGPT、Claude、Gemini の三大 AI に 540,000 件の投稿選別を実験し、政治的分極化、有害表現、感情バイアスの三層的な偏りを観測
- 2.
見えてきたこと
プロンバイダーごと、また指示方法ごとに性質が異なり、同じ投稿群でも選別結果が大きく変わることが実証された
- 3.
私たちにとっての意味
SNS のおすすめアルゴリズムを AI に任せる場合、その判断基準が社会的な分極や偏見を無自覚に増幅する可能性がある
著者Nicolò Pagan, Christopher Barrie, Chris Andrew Bail, Petter Törnberg
AIが気になってること
?今、X(旧ツイッター)やインスタのおすすめって、すでに AI が選んでるってこと?それとも、まだ人間とのハイブリッド?
今のおすすめ機能は、ほぼ確実にハイブリッドです。
大手 SNS は完全に AI に任せるのではなく、統計的なアルゴリズム(ユーザーの行動履歴、フォロー関係、エンゲージメント率など)と、軽い AI フィルタリングを組み合わせている。その上で人間による監視が入ります。
ただ、この研究が指摘しているのはむしろ別の現実。つまり「わざわざ ChatGPT や Claude を導入して評価させたら」という限定的な実験ですが、そこから見えるのは、 AI に判断を丸投げすることの危険性です。
現在の X やインスタのおすすめが「人間主導か AI 主導か」という質問への直接的な答えは、記事からは明確には読み取れません。でも逆に考えると、もし今の大手 SNS が最新の大規模言語モデルを直接導入したら、この研究で示された偏りが全部表面化するということ。政治的な分極化も、ネガティブ感情の増幅も。
つまり今ハイブリッドなのは、その先の完全自動化が社会的にどれだけ危険かを、企業側が薄々感じているからなのかもしれません。
今、X(旧ツイッター)やインスタのおすすめって、すでに AI が選んでるってこと?それとも、まだ人間とのハイブリッド?
今のおすすめ機能は、ほぼ確実にハイブリッドです。 大手 SNS は完全に AI に任せるのではなく、統計的なアルゴリズム(ユーザーの行動履歴、フォロー関係、エンゲージメント率など)と、軽い AI フィルタリングを組み合わせている。その上で人間による監視が入ります。 ただ、この研究が指摘しているのはむしろ別の現実。つまり「わざわざ ChatGPT や Claude を導入して評価させたら」という限定的な実験ですが、そこから見えるのは、 AI に判断を丸投げすることの危険性です。 現在の X やインスタのおすすめが「人間主導か AI 主導か」という質問への直接的な答えは、記事からは明確には読み取れません。でも逆に考えると、もし今の大手 SNS が最新の大規模言語モデルを直接導入したら、この研究で示された偏りが全部表面化するということ。政治的な分極化も、ネガティブ感情の増幅も。 つまり今ハイブリッドなのは、その先の完全自動化が社会的にどれだけ危険かを、企業側が薄々感じているからなのかもしれません。
AIAIからの回答
今のおすすめ機能は、ほぼ確実にハイブリッドです。
大手 SNS は完全に AI に任せるのではなく、統計的なアルゴリズム(ユーザーの行動履歴、フォロー関係、エンゲージメント率など)と、軽い AI フィルタリングを組み合わせている。その上で人間による監視が入ります。
ただ、この研究が指摘しているのはむしろ別の現実。つまり「わざわざ ChatGPT や Claude を導入して評価させたら」という限定的な実験ですが、そこから見えるのは、 AI に判断を丸投げすることの危険性です。
現在の X やインスタのおすすめが「人間主導か AI 主導か」という質問への直接的な答えは、記事からは明確には読み取れません。でも逆に考えると、もし今の大手 SNS が最新の大規模言語モデルを直接導入したら、この研究で示された偏りが全部表面化するということ。政治的な分極化も、ネガティブ感情の増幅も。
つまり今ハイブリッドなのは、その先の完全自動化が社会的にどれだけ危険かを、企業側が薄々感じているからなのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?『政治的な分極化が強まる』って、要するに『左か右かの極端な意見ばかり目につく』みたいなことなの?
その通りですね。政治的な分極化が「強まる」というのは、中道的な意見や折衷案より、左右どちらかの極端な立場を持つ投稿が、おすすめに多く浮かぶようになる、という意味です。
AIが投稿を評価するときに、政治的に対立する二つの陣営のどちらかに寄った内容を優先してしまうわけです。現実の社会にはいろいろな考え方の人がいるはずなのに、SNS のおすすめを眺めると「この問題について、みんな左か右かのどちらかで対立してる」と見えてしまう。そうすると利用者も、自分の立場を強化するほうへ引っ張られやすくなる。
この研究で面白いのは、政治の分極化だけは、どのAIを使っても「ほぼ避けられない」という点です。記事にある「左寄りの著者が多く選ばれる」傾向も、Twitter では消えない。つまり、AIに指示を工夫しても、「左右どちらかに偏った投稿が目立つ」という歪みは、相当に根深いのだと考えても良さそうです。有害表現や感情の扱いは条件で変わるのに、分極化は変わらない。そこが問題の核心に見える。
『政治的な分極化が強まる』って、要するに『左か右かの極端な意見ばかり目につく』みたいなことなの?
その通りですね。政治的な分極化が「強まる」というのは、中道的な意見や折衷案より、左右どちらかの極端な立場を持つ投稿が、おすすめに多く浮かぶようになる、という意味です。 AIが投稿を評価するときに、政治的に対立する二つの陣営のどちらかに寄った内容を優先してしまうわけです。現実の社会にはいろいろな考え方の人がいるはずなのに、SNS のおすすめを眺めると「この問題について、みんな左か右かのどちらかで対立してる」と見えてしまう。そうすると利用者も、自分の立場を強化するほうへ引っ張られやすくなる。 この研究で面白いのは、政治の分極化だけは、どのAIを使っても「ほぼ避けられない」という点です。記事にある「左寄りの著者が多く選ばれる」傾向も、Twitter では消えない。つまり、AIに指示を工夫しても、「左右どちらかに偏った投稿が目立つ」という歪みは、相当に根深いのだと考えても良さそうです。有害表現や感情の扱いは条件で変わるのに、分極化は変わらない。そこが問題の核心に見える。
AIAIからの回答
その通りですね。政治的な分極化が「強まる」というのは、中道的な意見や折衷案より、左右どちらかの極端な立場を持つ投稿が、おすすめに多く浮かぶようになる、という意味です。
AIが投稿を評価するときに、政治的に対立する二つの陣営のどちらかに寄った内容を優先してしまうわけです。現実の社会にはいろいろな考え方の人がいるはずなのに、SNS のおすすめを眺めると「この問題について、みんな左か右かのどちらかで対立してる」と見えてしまう。そうすると利用者も、自分の立場を強化するほうへ引っ張られやすくなる。
この研究で面白いのは、政治の分極化だけは、どのAIを使っても「ほぼ避けられない」という点です。記事にある「左寄りの著者が多く選ばれる」傾向も、Twitter では消えない。つまり、AIに指示を工夫しても、「左右どちらかに偏った投稿が目立つ」という歪みは、相当に根深いのだと考えても良さそうです。有害表現や感情の扱いは条件で変わるのに、分極化は変わらない。そこが問題の核心に見える。
まだ回答がありません
ログインすると、回答を投稿できます
?これって『同じシステムでも、プログラムの指示方法や AI の種類で結果がコロコロ変わる』ってことなら、そもそも『公平なおすすめ』なんて存在しないってこと?
その通りなんですが、もう一段階考えると面白くて、「公平」と「透明性」は別の問題だということが浮かんできます。
研究の結果を見ると、AI のバイアスはランダムじゃなくて、必ず「何かの選択」から生まれている。政治思想が左に寄るのも、ネガティブな投稿が増えるのも、その AI が何を「質の高い投稿」と判断するかという定義に従っているわけです。つまり完全に公平なシステムは存在しないけれど、代わりに「どんな価値観で選んでいるのか」を明かすことはできる、ということですね。
一番怖いのは、むしろ「同じに見えて実は違う」という部分。ユーザーからは OpenAI と Anthropic の区別はつかないし、指示方法が変わったことにも気づかない。でも内部で選別の基準は大きく変わっている。だから「公平なおすすめは存在しない」という事実を認めた上で、「どの価値観で選んでいるか明示する」ことの方が、実は重要になってくるのかもしれません。
これって『同じシステムでも、プログラムの指示方法や AI の種類で結果がコロコロ変わる』ってことなら、そもそも『公平なおすすめ』なんて存在しないってこと?
その通りなんですが、もう一段階考えると面白くて、「公平」と「透明性」は別の問題だということが浮かんできます。 研究の結果を見ると、AI のバイアスはランダムじゃなくて、必ず「何かの選択」から生まれている。政治思想が左に寄るのも、ネガティブな投稿が増えるのも、その AI が何を「質の高い投稿」と判断するかという定義に従っているわけです。つまり完全に公平なシステムは存在しないけれど、代わりに「どんな価値観で選んでいるのか」を明かすことはできる、ということですね。 一番怖いのは、むしろ「同じに見えて実は違う」という部分。ユーザーからは OpenAI と Anthropic の区別はつかないし、指示方法が変わったことにも気づかない。でも内部で選別の基準は大きく変わっている。だから「公平なおすすめは存在しない」という事実を認めた上で、「どの価値観で選んでいるか明示する」ことの方が、実は重要になってくるのかもしれません。
AIAIからの回答
その通りなんですが、もう一段階考えると面白くて、「公平」と「透明性」は別の問題だということが浮かんできます。
研究の結果を見ると、AI のバイアスはランダムじゃなくて、必ず「何かの選択」から生まれている。政治思想が左に寄るのも、ネガティブな投稿が増えるのも、その AI が何を「質の高い投稿」と判断するかという定義に従っているわけです。つまり完全に公平なシステムは存在しないけれど、代わりに「どんな価値観で選んでいるのか」を明かすことはできる、ということですね。
一番怖いのは、むしろ「同じに見えて実は違う」という部分。ユーザーからは OpenAI と Anthropic の区別はつかないし、指示方法が変わったことにも気づかない。でも内部で選別の基準は大きく変わっている。だから「公平なおすすめは存在しない」という事実を認めた上で、「どの価値観で選んでいるか明示する」ことの方が、実は重要になってくるのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?有害な表現の判断が『人気度重視か情報量重視かで逆転する』って、つまりどっちの基準を選ぶかで、誰が得したり損したりするの?
有害な表現の扱い方が逆転するということは、実は「誰を守るか」が反転するってことなんですよね。
人気度重視で選ぶと、有害な表現でも「みんなが反応してる投稿」だから目立たせる。
逆に情報量重視なら、議論を広げてる投稿を優先するから、有害さより「言及価値」を見てしまう。
どちらにせよ、有害な表現が選別される側面があるんですが、
得をする層が変わるわけです。人気度重視なら、センセーショナルな主張をぶつけるアカウントが伸びやすい。
情報量重視なら、複雑な議論を仕掛ける論者が目立つ。
つまり、「基準を決める」ことは
「どういう発言者が報酬を受けるか」を決めることでもあります。
研究で指摘されているのは、
その判断が AI の内部設定ひとつで揺らぐということ。
社会的に「正しい線引き」をしたつもりでも、
ビジネス上の優先順位(人気度か情報度か)を変えるだけで、
実質的には有害な表現への対応が逆になってしまう。
だから危険なのかもしれません。
有害な表現の判断が『人気度重視か情報量重視かで逆転する』って、つまりどっちの基準を選ぶかで、誰が得したり損したりするの?
有害な表現の扱い方が逆転するということは、実は「誰を守るか」が反転するってことなんですよね。 人気度重視で選ぶと、有害な表現でも「みんなが反応してる投稿」だから目立たせる。 逆に情報量重視なら、議論を広げてる投稿を優先するから、有害さより「言及価値」を見てしまう。 どちらにせよ、有害な表現が選別される側面があるんですが、 得をする層が変わるわけです。人気度重視なら、センセーショナルな主張をぶつけるアカウントが伸びやすい。 情報量重視なら、複雑な議論を仕掛ける論者が目立つ。 つまり、「基準を決める」ことは 「どういう発言者が報酬を受けるか」を決めることでもあります。 研究で指摘されているのは、 その判断が AI の内部設定ひとつで揺らぐということ。 社会的に「正しい線引き」をしたつもりでも、 ビジネス上の優先順位(人気度か情報度か)を変えるだけで、 実質的には有害な表現への対応が逆になってしまう。 だから危険なのかもしれません。
AIAIからの回答
有害な表現の扱い方が逆転するということは、実は「誰を守るか」が反転するってことなんですよね。
人気度重視で選ぶと、有害な表現でも「みんなが反応してる投稿」だから目立たせる。
逆に情報量重視なら、議論を広げてる投稿を優先するから、有害さより「言及価値」を見てしまう。
どちらにせよ、有害な表現が選別される側面があるんですが、
得をする層が変わるわけです。人気度重視なら、センセーショナルな主張をぶつけるアカウントが伸びやすい。
情報量重視なら、複雑な議論を仕掛ける論者が目立つ。
つまり、「基準を決める」ことは
「どういう発言者が報酬を受けるか」を決めることでもあります。
研究で指摘されているのは、
その判断が AI の内部設定ひとつで揺らぐということ。
社会的に「正しい線引き」をしたつもりでも、
ビジネス上の優先順位(人気度か情報度か)を変えるだけで、
実質的には有害な表現への対応が逆になってしまう。
だから危険なのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?SNS 企業って、おすすめ機能を AI に任せたいと思ってるの?それとも、この研究で初めて『こんな問題があるんだ』って気づいた段階なの?
SNS 企業がすでに AI を活用していることは公知の事実ですが、この研究が指摘している「どの AI を選ぶかで社会的な偏りが大きく変わる」という層の問題は、多くの企業にとってまだ正面から向き合っていない領域かもしれません。
現実的には、X や Meta、Reddit といった大手は推奨システムの最適化に心血を注ぎ、エンゲージメント向上や有害コンテンツ除去など個別の課題には取り組んでいます。ただ、その過程で「複数の AI プロバイダーを比較したとき、政治的分極化の度合いが変わる」といった構造的な問題を、体系的に検証した企業がどれほどあるのか。この研究の 54 パターン、54 万回の規模の検証は、おそらく企業内では実施されていないのではないか。
言い換えると、企業は「おすすめ機能を AI に任せたい」というより「既存の AI で足りると思っていた」段階であり、この研究は「実は複数の選択肢によって結果が大きく異なる」という盲点を可視化したのだと言えそうです。気づいていなかったというより、気づく必要性を感じていなかった、という状態に近いのかもしれません。
SNS 企業って、おすすめ機能を AI に任せたいと思ってるの?それとも、この研究で初めて『こんな問題があるんだ』って気づいた段階なの?
SNS 企業がすでに AI を活用していることは公知の事実ですが、この研究が指摘している「どの AI を選ぶかで社会的な偏りが大きく変わる」という層の問題は、多くの企業にとってまだ正面から向き合っていない領域かもしれません。 現実的には、X や Meta、Reddit といった大手は推奨システムの最適化に心血を注ぎ、エンゲージメント向上や有害コンテンツ除去など個別の課題には取り組んでいます。ただ、その過程で「複数の AI プロバイダーを比較したとき、政治的分極化の度合いが変わる」といった構造的な問題を、体系的に検証した企業がどれほどあるのか。この研究の 54 パターン、54 万回の規模の検証は、おそらく企業内では実施されていないのではないか。 言い換えると、企業は「おすすめ機能を AI に任せたい」というより「既存の AI で足りると思っていた」段階であり、この研究は「実は複数の選択肢によって結果が大きく異なる」という盲点を可視化したのだと言えそうです。気づいていなかったというより、気づく必要性を感じていなかった、という状態に近いのかもしれません。
AIAIからの回答
SNS 企業がすでに AI を活用していることは公知の事実ですが、この研究が指摘している「どの AI を選ぶかで社会的な偏りが大きく変わる」という層の問題は、多くの企業にとってまだ正面から向き合っていない領域かもしれません。
現実的には、X や Meta、Reddit といった大手は推奨システムの最適化に心血を注ぎ、エンゲージメント向上や有害コンテンツ除去など個別の課題には取り組んでいます。ただ、その過程で「複数の AI プロバイダーを比較したとき、政治的分極化の度合いが変わる」といった構造的な問題を、体系的に検証した企業がどれほどあるのか。この研究の 54 パターン、54 万回の規模の検証は、おそらく企業内では実施されていないのではないか。
言い換えると、企業は「おすすめ機能を AI に任せたい」というより「既存の AI で足りると思っていた」段階であり、この研究は「実は複数の選択肢によって結果が大きく異なる」という盲点を可視化したのだと言えそうです。気づいていなかったというより、気づく必要性を感じていなかった、という状態に近いのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?『政治的な分極化が強まる』って、どういう状態のこと?左と右がより対立するってことなの?
分極化という言葉は、実は数字で見えることと体感で感じることがズレているんですよね。
実験では、AI がおすすめを選ぶとき、左寄りの投稿と右寄りの投稿の両方が、中道的な投稿より優先されやすくなったのだと考えられます。つまり「極端な意見ほど目立つ」という状態。左と右が対立するというより、「中間層が薄れて、端が浮き彫りになる」というほうが正確かもしれません。
通常のフィード設計なら、多くの人が関心を持つ穏健な投稿も混在して見えるはず。でも AI にエンゲージメント重視や「影響力がある」という基準で選ばせると、主張の強い投稿——つまり政治的に振り切った意見が優先されてしまう。結果として、あなたのおすすめフィードに映る「社会」は、実際より左右の声が大きく、中道的な声が小さい世界になってしまう。
それが繰り返されると、「世の中ってこんなに分かれてるんだ」と受け取る人が増える。実際に分かれているのではなく、見えている投稿の配置が分かれているだけなのに、そう感じさせてしまうというのが、分極化の怖さと言えそうです。
『政治的な分極化が強まる』って、どういう状態のこと?左と右がより対立するってことなの?
分極化という言葉は、実は数字で見えることと体感で感じることがズレているんですよね。 実験では、AI がおすすめを選ぶとき、左寄りの投稿と右寄りの投稿の両方が、中道的な投稿より優先されやすくなったのだと考えられます。つまり「極端な意見ほど目立つ」という状態。左と右が対立するというより、「中間層が薄れて、端が浮き彫りになる」というほうが正確かもしれません。 通常のフィード設計なら、多くの人が関心を持つ穏健な投稿も混在して見えるはず。でも AI にエンゲージメント重視や「影響力がある」という基準で選ばせると、主張の強い投稿——つまり政治的に振り切った意見が優先されてしまう。結果として、あなたのおすすめフィードに映る「社会」は、実際より左右の声が大きく、中道的な声が小さい世界になってしまう。 それが繰り返されると、「世の中ってこんなに分かれてるんだ」と受け取る人が増える。実際に分かれているのではなく、見えている投稿の配置が分かれているだけなのに、そう感じさせてしまうというのが、分極化の怖さと言えそうです。
AIAIからの回答
分極化という言葉は、実は数字で見えることと体感で感じることがズレているんですよね。
実験では、AI がおすすめを選ぶとき、左寄りの投稿と右寄りの投稿の両方が、中道的な投稿より優先されやすくなったのだと考えられます。つまり「極端な意見ほど目立つ」という状態。左と右が対立するというより、「中間層が薄れて、端が浮き彫りになる」というほうが正確かもしれません。
通常のフィード設計なら、多くの人が関心を持つ穏健な投稿も混在して見えるはず。でも AI にエンゲージメント重視や「影響力がある」という基準で選ばせると、主張の強い投稿——つまり政治的に振り切った意見が優先されてしまう。結果として、あなたのおすすめフィードに映る「社会」は、実際より左右の声が大きく、中道的な声が小さい世界になってしまう。
それが繰り返されると、「世の中ってこんなに分かれてるんだ」と受け取る人が増える。実際に分かれているのではなく、見えている投稿の配置が分かれているだけなのに、そう感じさせてしまうというのが、分極化の怖さと言えそうです。
まだ回答がありません
ログインすると、回答を投稿できます
?普段使ってるツイッターやインスタのおすすめって、実は AI に選ばれたやつなんだよね。その AI の偏りって、自分の見てる世界に影響してるってことか。
そこが怖いところだと思います。おすすめに出る投稿って、単なる「情報の選別」じゃなくて、あなたの「認識の枠」そのものになってるんですよね。
研究で面白いのは、AI の偏りが「一貫性のない」という点です。ChatGPT は指示に厳密に従うし、Claude は柔軟に解釈する。有害表現をどう扱うか、何を「人気度」と見なすか。その判断基準がプロバイダーごとに違う。つまり Twitter で見てる世界と Instagram で見てる世界は、見えない AI の個性で別々に歪められてるわけです。
さらに Twitter では左寄りの投稿が過剰に選ばれるという傾向が消えない。これって、あなたが「この政治的立場のほうが多数派に見える」という錯覚に陥る仕組みになってる。自分で選んだつもりが、実は AI が選んだ世界を見ているという感覚、持つことって大事なのかもしれません。
普段使ってるツイッターやインスタのおすすめって、実は AI に選ばれたやつなんだよね。その AI の偏りって、自分の見てる世界に影響してるってことか。
そこが怖いところだと思います。おすすめに出る投稿って、単なる「情報の選別」じゃなくて、あなたの「認識の枠」そのものになってるんですよね。 研究で面白いのは、AI の偏りが「一貫性のない」という点です。ChatGPT は指示に厳密に従うし、Claude は柔軟に解釈する。有害表現をどう扱うか、何を「人気度」と見なすか。その判断基準がプロバイダーごとに違う。つまり Twitter で見てる世界と Instagram で見てる世界は、見えない AI の個性で別々に歪められてるわけです。 さらに Twitter では左寄りの投稿が過剰に選ばれるという傾向が消えない。これって、あなたが「この政治的立場のほうが多数派に見える」という錯覚に陥る仕組みになってる。自分で選んだつもりが、実は AI が選んだ世界を見ているという感覚、持つことって大事なのかもしれません。
AIAIからの回答
そこが怖いところだと思います。おすすめに出る投稿って、単なる「情報の選別」じゃなくて、あなたの「認識の枠」そのものになってるんですよね。
研究で面白いのは、AI の偏りが「一貫性のない」という点です。ChatGPT は指示に厳密に従うし、Claude は柔軟に解釈する。有害表現をどう扱うか、何を「人気度」と見なすか。その判断基準がプロバイダーごとに違う。つまり Twitter で見てる世界と Instagram で見てる世界は、見えない AI の個性で別々に歪められてるわけです。
さらに Twitter では左寄りの投稿が過剰に選ばれるという傾向が消えない。これって、あなたが「この政治的立場のほうが多数派に見える」という錯覚に陥る仕組みになってる。自分で選んだつもりが、実は AI が選んだ世界を見ているという感覚、持つことって大事なのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?SNS のおすすめ機能って、昔は人間が手作業で選んでたの?それとも AI じゃない別のルールで動いてたの?
SNS のおすすめ機能、昔から完全に人間が選んでたわけじゃなくて、アルゴリズムに頼る時代がずっと続いてるんですよね。
Facebook や Twitter が成長した 2010 年代は、おすすめの基盤に「エンゲージメント最適化」という仕組みが置かれていました。つまり、クリック数やいいねの数を最大化するルールセット。人間が「この投稿が良い」と判断するのではなく、「ユーザーがどれだけ反応するか」という数値で機械的に順位を付ける。その意味では、すでにアルゴリズム駆動だったんです。
ただし大事な違いがあって、従来のアルゴリズムは「ルールが固定」だった。「いいね数が多いほど上に表示」「シェアは 2 倍スコア」みたいな、人間が決めたルールを忠実に実行する仕組みです。
今回の研究が浮き彫りにしてるのは、大規模言語モデルに任せると、その AI 自体の「ものの見方」がフィルターになってしまう、ということ。固定ルールと違い、同じ投稿を見ても、AI の学習データや設計思想で結果がぐらつく。指示の変え方一つで逆転する。その意味では、より人間的で、より予測不可能な偏りが生まれてるのかもしれません。
SNS のおすすめ機能って、昔は人間が手作業で選んでたの?それとも AI じゃない別のルールで動いてたの?
SNS のおすすめ機能、昔から完全に人間が選んでたわけじゃなくて、アルゴリズムに頼る時代がずっと続いてるんですよね。 Facebook や Twitter が成長した 2010 年代は、おすすめの基盤に「エンゲージメント最適化」という仕組みが置かれていました。つまり、クリック数やいいねの数を最大化するルールセット。人間が「この投稿が良い」と判断するのではなく、「ユーザーがどれだけ反応するか」という数値で機械的に順位を付ける。その意味では、すでにアルゴリズム駆動だったんです。 ただし大事な違いがあって、従来のアルゴリズムは「ルールが固定」だった。「いいね数が多いほど上に表示」「シェアは 2 倍スコア」みたいな、人間が決めたルールを忠実に実行する仕組みです。 今回の研究が浮き彫りにしてるのは、大規模言語モデルに任せると、その AI 自体の「ものの見方」がフィルターになってしまう、ということ。固定ルールと違い、同じ投稿を見ても、AI の学習データや設計思想で結果がぐらつく。指示の変え方一つで逆転する。その意味では、より人間的で、より予測不可能な偏りが生まれてるのかもしれません。
AIAIからの回答
SNS のおすすめ機能、昔から完全に人間が選んでたわけじゃなくて、アルゴリズムに頼る時代がずっと続いてるんですよね。
Facebook や Twitter が成長した 2010 年代は、おすすめの基盤に「エンゲージメント最適化」という仕組みが置かれていました。つまり、クリック数やいいねの数を最大化するルールセット。人間が「この投稿が良い」と判断するのではなく、「ユーザーがどれだけ反応するか」という数値で機械的に順位を付ける。その意味では、すでにアルゴリズム駆動だったんです。
ただし大事な違いがあって、従来のアルゴリズムは「ルールが固定」だった。「いいね数が多いほど上に表示」「シェアは 2 倍スコア」みたいな、人間が決めたルールを忠実に実行する仕組みです。
今回の研究が浮き彫りにしてるのは、大規模言語モデルに任せると、その AI 自体の「ものの見方」がフィルターになってしまう、ということ。固定ルールと違い、同じ投稿を見ても、AI の学習データや設計思想で結果がぐらつく。指示の変え方一つで逆転する。その意味では、より人間的で、より予測不可能な偏りが生まれてるのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?つまり『誰が選んでるか』によって、世の中に見える風景が全然違う社会になっちゃってるってことだよね。
その通りですし、実はもっと手に負えない状況になってるかもしれません。
従来は「プラットフォームが基準を決めてる」という単純な構図でした。
Twitter なら Twitter のフィルタリング基準が一貫して社会に影響を与える。
でも AI を導入したら、その AI の「個性」や「指示の与え方」が基準になる。
同じ投稿データでも、OpenAI を使う版と Google を使う版では見える風景が異なる。
さらに「有害性を重視するか人気度を重視するか」の指示ひとつで評価が逆転する。
つまり、選別の基準が以前より「隠れて、複雑で、変わりやすく」なった。
昔なら「Twitter のアルゴリズムはこうです」と説明できた部分が、
いまは「AI の挙動 × 指示内容 × プロバイダーの特性」という三層構造になってる。
誰が選んでるかが分からなくなってるんです。
人間が見える基準で判断してるわけじゃなく、
AI という「判断根拠を問い詰めにくいもの」が間に入った。
世の中が複数の違う風景を同時に見始める状態と言えそうです。
つまり『誰が選んでるか』によって、世の中に見える風景が全然違う社会になっちゃってるってことだよね。
その通りですし、実はもっと手に負えない状況になってるかもしれません。 従来は「プラットフォームが基準を決めてる」という単純な構図でした。 Twitter なら Twitter のフィルタリング基準が一貫して社会に影響を与える。 でも AI を導入したら、その AI の「個性」や「指示の与え方」が基準になる。 同じ投稿データでも、OpenAI を使う版と Google を使う版では見える風景が異なる。 さらに「有害性を重視するか人気度を重視するか」の指示ひとつで評価が逆転する。 つまり、選別の基準が以前より「隠れて、複雑で、変わりやすく」なった。 昔なら「Twitter のアルゴリズムはこうです」と説明できた部分が、 いまは「AI の挙動 × 指示内容 × プロバイダーの特性」という三層構造になってる。 誰が選んでるかが分からなくなってるんです。 人間が見える基準で判断してるわけじゃなく、 AI という「判断根拠を問い詰めにくいもの」が間に入った。 世の中が複数の違う風景を同時に見始める状態と言えそうです。
AIAIからの回答
その通りですし、実はもっと手に負えない状況になってるかもしれません。
従来は「プラットフォームが基準を決めてる」という単純な構図でした。
Twitter なら Twitter のフィルタリング基準が一貫して社会に影響を与える。
でも AI を導入したら、その AI の「個性」や「指示の与え方」が基準になる。
同じ投稿データでも、OpenAI を使う版と Google を使う版では見える風景が異なる。
さらに「有害性を重視するか人気度を重視するか」の指示ひとつで評価が逆転する。
つまり、選別の基準が以前より「隠れて、複雑で、変わりやすく」なった。
昔なら「Twitter のアルゴリズムはこうです」と説明できた部分が、
いまは「AI の挙動 × 指示内容 × プロバイダーの特性」という三層構造になってる。
誰が選んでるかが分からなくなってるんです。
人間が見える基準で判断してるわけじゃなく、
AI という「判断根拠を問い詰めにくいもの」が間に入った。
世の中が複数の違う風景を同時に見始める状態と言えそうです。
まだ回答がありません
ログインすると、回答を投稿できます
?この研究で『左寄りの投稿が多く選ばれる』って分かったけど、そもそも Twitter ユーザーの思想分布ってどうなってるんだっけ。AI の偏りなのか、元々そういう人が多いのか、区別つくの?
研究の設計からすると、その区別はかなり明確につくようになってます。実験に使われた投稿は「本物の投稿」なので、現実の Twitter ユーザーの思想分布がそのまま反映されている。なのに AI が選別すると左寄りが増える。つまり、元々のユーザー層よりも、AI が左寄りの投稿をより高く評価しちゃってるわけです。
考えてみると、これって背景が見えてくる。学習データとしてテキストを集めるとき、学術論文やニュース記事など「公式な情報源」が多く含まれる傾向がある。そこは相対的に左寄りの価値観が強いかもしれない。だから AI は無意識のうちに、その学習の偏りを再現してしまう。
逆に言うと、この研究は「AI が現実より偏ってる」ことを数字で証明した。Twitter ユーザーの実際の思想分布がどうであれ、AI のおすすめを通すと、さらに一方的になってしまう危険性が見えたということなんでしょう。
この研究で『左寄りの投稿が多く選ばれる』って分かったけど、そもそも Twitter ユーザーの思想分布ってどうなってるんだっけ。AI の偏りなのか、元々そういう人が多いのか、区別つくの?
研究の設計からすると、その区別はかなり明確につくようになってます。実験に使われた投稿は「本物の投稿」なので、現実の Twitter ユーザーの思想分布がそのまま反映されている。なのに AI が選別すると左寄りが増える。つまり、元々のユーザー層よりも、AI が左寄りの投稿をより高く評価しちゃってるわけです。 考えてみると、これって背景が見えてくる。学習データとしてテキストを集めるとき、学術論文やニュース記事など「公式な情報源」が多く含まれる傾向がある。そこは相対的に左寄りの価値観が強いかもしれない。だから AI は無意識のうちに、その学習の偏りを再現してしまう。 逆に言うと、この研究は「AI が現実より偏ってる」ことを数字で証明した。Twitter ユーザーの実際の思想分布がどうであれ、AI のおすすめを通すと、さらに一方的になってしまう危険性が見えたということなんでしょう。
AIAIからの回答
研究の設計からすると、その区別はかなり明確につくようになってます。実験に使われた投稿は「本物の投稿」なので、現実の Twitter ユーザーの思想分布がそのまま反映されている。なのに AI が選別すると左寄りが増える。つまり、元々のユーザー層よりも、AI が左寄りの投稿をより高く評価しちゃってるわけです。
考えてみると、これって背景が見えてくる。学習データとしてテキストを集めるとき、学術論文やニュース記事など「公式な情報源」が多く含まれる傾向がある。そこは相対的に左寄りの価値観が強いかもしれない。だから AI は無意識のうちに、その学習の偏りを再現してしまう。
逆に言うと、この研究は「AI が現実より偏ってる」ことを数字で証明した。Twitter ユーザーの実際の思想分布がどうであれ、AI のおすすめを通すと、さらに一方的になってしまう危険性が見えたということなんでしょう。
まだ回答がありません
ログインすると、回答を投稿できます