東浩紀「訂正可能性の哲学」(8)~第7章 ビッグデータと「私」の問題
人工知能民主主義は訂正可能性を消してしまうので危険だと著者は言う。
情報環境の進歩により大量のデータが収集できるようになった。キャシー・オニールによれば、ビッグデータ分析は代理データを利用したものだと批判する。例えば、ある人の資産状況をビッグデータ分析によって明らかにするとは、実は当人の資産そのものを調べることを意味せず、その代わりに、その人がどこに住んでいるか、誰と住んでいるか、どんなものを買っているか、誰と交流しているか等を調べ、類似した生活を送っている人々の資産状況と照合し、数学的なモデルを作って目的の人の資産状況を推測する。そこで利用されているのは、学歴、家族構成、位置情報から推測される住所、商品の購入履歴、ネットの閲覧履歴等のデータである。ここで注意すべきは、そのような代理データの判断は、数学的にいくら洗練されようと、本質は人間社会で古くから行われていた伝統的な推測と変わらないということである。高級車に乗っているから金回りがいいと推測する。オニールは、ビッグデータ分析では、「あなたは過去にどのような行動をとったのか」という問いが「あなたに似た人々は過去にどのようなこうどうをとったのか」という問いに置き換えられると指摘している。それゆえ、ビッグデータ分析は個人を対象とした予測はできず、群れを対象とした予測しか提供することはできない。これは裏を返せば、ビッグデータ分析は、例外を常に群れの一部として取り込み、その例外を消してしまうことを意味している。従って、ビッグデータ分析では、「私」の人生はどうあがいても「私に似た人々」の平均に呑みこまれてしまい、「私」は「私に似た人々」への差別や偏見からけっして自力で脱出できないのである。つまり、個人はビッグデータ分析から導かれるスコアを訂正することはできない。
その理由は、訂正可能性の論理は固有名と連動していたのに対して、ビッグデータ分析は固有名を取り扱うことができないからだ。したがって、第5章で取り上げた落合が示しているような人工知能による効率的統治をするとすれば、ビッグデータ分析は個人に関わることはなく群れについての予測にとどまるので、個人の主体を問わないままに個人の自由を奪うことになる。そういう危険を著者は指摘する。このように人工知能民主主義には訂正可能性がない。一度定まって一般意志は正しいだけで訂正されない。
« 東浩紀「訂正可能性の哲学」(7)~第6章 一般意志という謎 | トップページ | 東浩紀「訂正可能性の哲学」(9)~第8章 自然と訂正可能性 »
「書籍・雑誌」カテゴリの記事
- 渡邉雅子「「論理的思考」の社会的構築─フランスの思考表現スタイルと言葉の教育」(4)~終章 フランス社会の<論理>の構築─ディセルタシオンが導く思考表現スタイル(2024.09.04)
- 渡邉雅子「「論理的思考」の社会的構築─フランスの思考表現スタイルと言葉の教育」(3)~第2章 哲学のディセルタシオンと哲学教育(2024.09.03)
- 渡邉雅子「「論理的思考」の社会的構築─フランスの思考表現スタイルと言葉の教育」(2)~第1章 論文の構造と論理の形(2024.09.02)
- 渡邉雅子「「論理的思考」の社会的構築─フランスの思考表現スタイルと言葉の教育」(2024.09.01)
- 堀米庸三「正統と異端─ヨーロッパ精神の底流」(5)~第4章 グレゴリウス改革と秘蹟論争(2024.08.31)
« 東浩紀「訂正可能性の哲学」(7)~第6章 一般意志という謎 | トップページ | 東浩紀「訂正可能性の哲学」(9)~第8章 自然と訂正可能性 »
コメント