「フィルターバブル─インターネットが隠していること」の備忘録

Takamichi Saito
Jan 10, 2021

--

はじめに

今回は、フィルターバブル──インターネットが隠していること (イーライ・パリサー、2016、ハヤカワ文庫)の備忘録です。

こちらの本、最近、私が読んだ本で何度か引用されていたので、これは読まねばと思い読み始めたところ、読み進めていくうちに参考になるところが多かったで、引用中心で備忘録としてまとめてみました。本当は、本文の引用をもっと入れたかったのですが。

本書は、「フィルターバブル」が及ぼすリスクについての注意喚起を狙った本と言えそうです。すこし教条主義的主張に感じる記述もありますが、事実や調べたことを丁寧に積み上げながら主張をされているので大変参考になります。原著の出版は2011年とのことで、その当時の状況を考えれば、これだけのことをまとめるのは大変だったと思います。

「フィルターバブル」という言葉はテレビでも紹介されたこともあるようなので、比較的知られた用語かもしれませんが、その用語を使う前には一読しておきたい一冊でした。

全体概要

著者は、概ね、商業ネットサービス・事業者に対して批判的な立場をとっており、「フィルターバブル」という用語を使って、その批判の対象(スティグマ)を際立たせています。

P.296にある記述が、本書の全体をまとめています。

本書でわたしは、あらゆるところにフィルタリングが組み込まれるようになりつつあり、その結果、インターネットにおける体験が変わりつつある、また、最終的には世界自体が変わりつつあると訴えてきた。その原因は、ユーザが誰で、何を好み、何を望むのかを判断する力を媒体が初めて持ったからだ。高度によるパーソナライゼーションは常にジャストフィットとは限らないが、適切な広告を提示し、また、我々が読み、閲覧し、聞く内容を調整して提供もたらせる程度には正確である。
その結果、インターネットは圧倒されるほど豊富な情報源や選択肢を提供してくれると言うのにわれわれは、フィルターバブルに包まれ、その大半を気づかずに過ごしてしまう。インターネットは自らのアイデンティティーを育て、様々なことをトライするチャンスを提供してくれると言うのに、パーソナライゼーションと言う経済性の追求は個性を不変なものにしようとする。インターネットによって知識やコントロールが分散する可能性があると言うのに、実際には、我々が何を見てどういうチャンスを手にできるのかといった選択がかつてないほど少数の人の手に集中しつつある。

「フィルターバブル」とは

さて、著者の言う「フィルターバブル」とは、なんでしょうか。

P.23に該当する記述があります。

フィルターをインターネットに仕掛け、あなたが好んでいるらしいものーあなたが実際にしたことやあなたのような人が好きなことーを観察し、それをもとに推測する。これがいわゆる予想エンジンで、あなたがどういう人で何をしようとしているのか、また、次に何を望んでいるかを常に推測し、推測の間違いを修正していく生精度高めていく。このようなエンジンに囲まれると、われわれは1人ずつ、自分だけの情報空間に包まれることになる。私はこれをフィルターバブルと呼ぶ

一般のネット利用者にとっては、日々生み出される膨大な情報から、「自分が求めるコンテンツ」を見つけ出す仕組みとも言えます。

ネット広告事業者・ネットサービス事業者にとっては、「お得意様」を見つける仕組みとも言えます。

そして、「フィルターバブル」はネット空間だけの話でなく実空間へも広がっていく可能性にも言及しています。

(P.265)
Facebookで友達となった魅力的な男性や女性が実はポテトチップの広告だった、などと言うことが本当に起きる世界になるかもしれない。

本書は2011年刊行なので、若干SFチックな記述もありましたが、2021年現在、一部で利用されているO2O(Online to Offline)広告とかの実践を知る自分としては、著者の先見性の高さを感じました。

「フィルターバブル」が与える影響

本書、全般的に、「フィルターバブル」が与える悪影響についての記述、つまり、批判が多かったのですが、「フィルターバブル」の特性をまとめると、以下に集約されるように思います。

  1. 「フィルターバブル」は、見えない
  2. 「フィルターバブル」は、選べない(避けられない)
  3. 「フィルターバブル」は、認知活動を歪める
  4. 「フィルターバブル」は、不正確

「フィルターバブル」が、見えない、選べないと言うのは比較的分かりやすい分析です。

本書では、以下のような比喩で説明されており、我々が現実・事実であると認知していることは、ネットサービスという(歪んだ)レンズを通して像をなしていることを再確認することの意義を感じました。

(P.29)
世界を見せる技術は、カメラのレンズのように人と現実の間に置かれることになる。これは強い影響力を持つポジションだ。「ここなら、様々な形で世界の認知を歪められますからね」。そうそれこそがフィルターバブルの影響である。

そして、著者がかなりのスペースを使って記述するのは、人間個人への影響です。思い込みから抜けられないことや、新しい考え・異なる考え方へ触れる機会が減ることによる影響です。

(P.123)
フィルターバブルは確証バイアスを劇的に強めてしまう。そう作られていると言っても良い。
(中略)
クリック信号を基準に情報環境構築すると、既に持っている世界の概念と衝突するコンテンツより、そのような概念に沿ったコンテンツが優先されてしまう。

(P.139)
フィルターバブルに包まれて暮らすと、異なる者との接触から生まれる精神の柔軟性やオープン性が損われる恐れがある。

「なにが重要」であるかという認識を社会に伝えてきた旧来型メディアとは違って、「フィルターバブル」は、「共通の体験や共通の知識」を提供せず、人々を分断します。そして、「思い込み」を加速させます。

著者は、さらに、民主主義プロセスへの影響についても懸念を評しております。そのあたりも、10年後の2021年1月現在において、SNSが及ぼす実社会の影響の大きさを目の当たりにしている自分としては、著者の洞察の深さを感じます。(コロナ禍の2021年1月、一連の経緯により、任期終了間際の米国大統領のTwitterやFaceBookのアカウントが永久凍結された。)

(P.205)
フィルターバブルは、重要だが複雑あるいは不快なものを遮断することが多い。見えなくしてしまうのだ。この結果消えていくのは課題だけではない。次第に、政治的なプロセス全体が消えていく。

また、FaceBook創設者のマーク・ザッカーバーグの「アイデンティティは1つ」という考えを「基本的な帰属の誤り」と切り捨てつつ、以下のように、人間の言動をアルゴリズムで捉えることはできていない、さらに言えば、ネット事業者は人間のアイデンティティを捉えることができていないと、著者は批判しています。これは、クッキーを用いて閲覧履歴を収集し、それにより、事業者側は「仮想の貴方」を作り出しているという幻想への批判とも取れましょうかね。

(P.160)
心理学で「基本的な帰属の誤り」と呼ばれる誤信だ。言動はその人が置かれた状況によるものではなく、その人の特質や個性によるものと我々は考えがちだ。明らかに状況が強く影響している場合でも、人物と切り離して言動を見る事は難しい。

そして、その「仮想の貴方」により、ネット事業者が「本物の貴方」に下す決断が招くであろう被害も示されています。

(P.181)
高校の同級生が支払いにルーズだからと言う理由で銀行から低く評価されたり、あるいは、ローンを返済しない人たちが好きなものを自分もたまたま好きだったせいで銀行から低く評価されるのは不公平だと思うかもしれない。その通りだ。そしてこれこそ、アルゴリズムでデータから推論する論理的手法、つまり帰納法が持つ根本的な問題である。

最後の一文は、大変重みのある指摘として受け止めたいです。

どう対処すべきなのか

「フィルターバブル」がもたらすリスクについては、多くが認めるところだとは思いますが、この本が発刊されて10年近く経った今でも、「過去の話題」となっていない状況から、とても難しい問題なのだと思います。もっとも、「解決すべき課題」としてそれほど広く認識されていないのかもしれませんが。

それでも著者は、個人レベルできること、ネット事業者がすべきこと、政府・市民の視点ですべきことを、提案しており、それらは決して古臭い内容ではありませんでした。

なかでも、以下の記述は、最近話題のAI倫理の議論を先取りしているようにも感じました。

(P.255)
この課題の解決は、膨大な技術的スキルと人間性の深い理解が必要とされる偉業である。そのためには、Googleの有名なスローガン、「邪悪になるな」の先を行くプログラマーが必要だ。善を為すエンジニアが必要なのだ。

また、以下の記述にあるように、「見えない」技術は、政府にとって規制のしようがないからこそ、「フィルターバブル」を生み出すネット事業者だけでなく、「フィルターバブル」を作るエンジニアに倫理が求められるのだということかもしれません。

(P.310)
ローレンス・レッシグも「政治的な対応ができるのは規制が見える場合のみだ」と言っている。オープン性と透明性をイデオロギーとして発展していた企業が、自分たちが行おうとしたことにこれほど不透明と言うのは、皮肉な事態と言う程度の表現では済まないだろう。

著者は、決して、よくいる「新興技術否定論者」ではありません。「技術」によって生み出される負の副作用は「技術」によって対処すべきだと捉えています。ただ、実現する「技術」ではなく、それ以上のなにかを求めています。

(P.176)
我々が目にするもの、手にするチャンスをアルゴリズムで決めた方が公平な結果が得られて良い場合もある。人間と異なり、コンピューターなら、人種や性別を無視するようにもできるからだ。ただし、様々な面に配慮して作られたアルゴリズムでなければならない。そうでなければ処理対象とする文化の道徳観を反映するアルゴリズムとなり、現在の社会規範を固定するだけとなる。

まとめ

繰り返しですが、原著は2011年の発刊されたものとは言え、未だ、古臭く感じることもなく、深い洞察は大変参考になります。

ただし、この当時の技術者たちがこの辺りの知見を用いて、その後、どのように選挙ツールとしていったのか、さらには、どのように「サイバー兵器」としていったのかは、その当時では、さすがにSF物語だったのでしょうね。また、紹介されている技術は決して古臭くはないと思いますが、著者の認識よりは練度は上がっているように思います。

「フィルターバブル」の被害者とも言える一般利用者、「フィルターバブル」を生み出すネット事業者、「フィルターバブル」の規制を試みる政府・市民、そして今、「フィルターバブル」を悪用するアクターが暗躍しつつあると、私のいるバブルの中では感じております。

2021/01/10

フィルターバブル──インターネットが隠していること (イーライ・パリサー、2016、ハヤカワ文庫)

--

--

Takamichi Saito
Takamichi Saito

Written by Takamichi Saito

明治大学理工学部、博士(工学)、明治大学サイバーセキュリティ研究所所長。専門は、ブラウザーフィンガープリント技術、サイバーアトリビューション技術、サイバーセキュリティ全般。人工知能技術の実践活用。著書:マスタリングTCP/IP情報セキュリティ編(第二版)、監訳:プロフェッショナルSSL/TLS