SNSのフィルターバブルやエコーチェンバー現象はどんな手を尽くしても修正不可能かもしれないとの研究結果 - GIGAZINE

トゥーンベルク氏はテクノロジー系メディア・Ars Technicaのインタビューで、SNSユーザーが「誰かの投稿を再投稿する」という感情的な行動と、そこから形成されるネットワーク構造の間にはフィードバックが存在するため、結果的に有害なネットワークが形成されてしまうと主張。SNSには投稿・再投稿・フォローというダイナミクスが存在する以上、たとえプラットフォームやユーザーに問題がなくても、さまざまな悪影響が生じてしまうのではないかと述べました。

大規模言語モデルを用いたシミュレーションによれば、一見有効そうな介入戦略もほとんど意味をなさないかもとのこと。シミュレーションした介入戦略は以下。

  • フィードを「おすすめ」アルゴリズムではなく、時系列またはランダムなものに切り替える
  • エンゲージメント最適化アルゴリズムを反転させ、頻繁に再投稿されるセンセーショナルなコンテンツの可視性を減らす
  • 視点の多様性を高めて、ユーザーが反対の政治的見解に触れる機会を増やす
  • 感情を刺激するのではなく相互理解を促進するコンテンツを推奨する
  • 再投稿の数やフォロワー数といった統計情報を非表示にして、社会的な影響力を知る手がかりを減らす
  • アカウントの自己紹介を削除して、アイデンティティに基づくシグナルの露出を制限する

このシミュレーションの結果が現実と一致するのかわからないけど、まあ例えばSNSなんかない状態で親の主義が偏っているという時、子がどんなに手を尽くしても親の目に入る意見というのは偏り続けることを考えれば、環境を変えたところで駄目だろうなということは思う。
大規模言語モデルを使っているということは人間のクセというものが反映されているということなのだと思うけど、人間は何かを見たとして、それを素直に自分の価値観に反映しないというか、極力自分の価値観を保持できるように解釈・選択すると思うし、「最初にかたち作られた価値観」が永久に「目に入る意見」の偏りを生み続ける気がする。それがシミュレーションにも現れているのではと思う。

ここからは完全に素人の考えだけど、問題はむしろ「価値観をかたち作るまでの速度」がSNSによって高速化するのが問題なんじゃないだろうか。一般的に子が親からの悪しき影響を引きずるのも、親の強固な悪しき価値観によって「価値観が急速に作られた」ことで、「それに合わないもの」を排除する力が早くから働くからだと思う。
記事内で「SNSには投稿・再投稿・フォローというダイナミクスが存在する以上」とあるけど、この仕組みによって、価値観が速やかに作られる上それに基づいて「新しい情報に対して評価を下していく」という機会がSNSではものすごく多くなる。その機会が時間あたりに多ければ多いほど価値観の偏りは強化され、一度価値観が形成されて以降は「どういう情報が多く目に入っているか」はほとんど関係ないんじゃないかと思う。評価の機会の多さだけが関係していると感じる。わからんけど。
リツイート・リポストの仕組みはその機会を爆発的に増やしたことが決定的に悪なのだろう。