きつねとべっつりコーラのブログ。

きつねとべっつりコーラの2匹が、日々の出来事について思ったことや感じたことをただ淡々と述べていくだけのブログ。生物多め。

人様を格付けするオソロシイAIアプリ。新たなる格差社会が生まれつつある?

AIと人との関係を考えるコラム

朝日新聞さんの記事に、「シンギュラリティーにっぽん」というのがあるのですね。

AIが自らより優れたAIを作り出すことができるようになる日……つまり、AIが人類を超えてしまう時のことを「シンギュラリティーと呼びますね。

シンギュラリティー2045年には来るのではないかと予言されていますが、それが間近に迫った昨今において、AIと人とはこれからどのようにして付き合っていけばいいのか、AIは果たして希望なのかそれとも悪魔の道具なのか……といったことを考えていくのが、この「シンギュラリティーにっぽん」という記事なのですね。


……わかった風なことを書きましたが、実はこの記事、あんまり真面目に読んでいなかったのですね。

AIは使い方次第で社会をより良く変えていくことができるとは思いますが、今までの発明品とは違ってその力があまりにも大きすぎるため、AIがもたらしてくれる利益よりも使い方を誤った時の悲劇の方が怖いのですね。


そして人間というものは新たなる発明が世に出た時、ほぼ確実に誤った使い方をしてしまうものだということは、既に歴史が耳タコになるほど証明してくれているのですね。


AIに関してもおんなじで、社会を良くするために使おうとする人がいる一方で、悪いことに使おうとする人が必ず出てきてしまうでしょう。

そうなった時のリスクがどれほどのものなのか、考えると夜も眠れなくなるくらいに恐ろしいので、こういうリスクを前面に押し出した類の記事はなるべくならあんまり読みたくないのですね……。


……ですが、今朝の新聞に載っていた「第1部 未来からの挑戦3」はついつい引き込まれる内容で、あろうことか最後まで読んでしまったのですね。……やめておけばいいのに……。


案の定オソロシイことが書かれていて、おかげで頭の中がこの記事のことで一杯になってしまったのですね。

問題の記事は電子版にもあるので、このリンクで読むことができるのですが、あいにくと会員制なのですね……。

www.asahi.com


かんじんの内容をかいつまんで説明すると、どうやら「人の『信用度』を点数化するAIアプリ」なるものが既に登場しており、また今後もしかすると普及するかもしれないのだそうです。

AIの判定には個人情報をたくさん入力する必要があるとのことなのですが、それによって「信用度の点数で人が差別される世の中になるのではないか」という懸念が広がっているのだそうです。


…………こ、これは……………

…………非常に危ないのですね。


もう概要を見ただけで危険な臭いがプンプンするのですね。


「AIは下手に使うと格差を広げてしまう」ということは前から言われています。


「格差」というのはお金だけでなく、文字通り色々な格差なのですね。


つまり、「お金持ちをさらにお金持ちにするために使うことができる」という意味以外にも、「特定の民族や人種、宗教、性別、出身地などの立場に対して、誤解や偏見などをさらに拡大してしまう」などという意味があるのですね。


そして今度はそこに「『信用度』によって格差が生まれてしまう」という問題が新たに加わったようです。


……とりあえず、長くなりそうなので目次を置いておくのですね。

 


性悪説が根強い中国では普及?

さて……この見るからにオソロシイシステムですが、なんとお隣の中国では既に結構普及しているのですね。


中国ではかの有名なアリババさんの子会社が作った「ゴマ信用」なる「信用度採点アプリ」があるようで、少なくとも記事を見た限りでは割と一般に浸透しているようです。

このアプリは使った人の「信用度」を350~950点の間で採点するそうなのですが(ナゼニ数字が中途半端?)、得点が高い人はアパートや自転車を借りたりホテルに泊まったりするときの保証金が要らなくなったり、飲食店で割引してもらえたりと色々ウレシイ特典があるのですね。

また個人の信用度が「見える」ようになったことにより、ビジネスがスムーズに進んだり、みんながルールを守るようになったりと、いいこともたくさんあったそうです。


どうやら中国では性悪説……つまり、「人など信用できぬ!」という考え方が根強いらしく、相手が信用できる人かどうかは切実な問題なのですね。


……そこで「一目で相手が信用できる相手かわかる」この「信用度採点アプリ」が普及したのですね。


ただ、案の定懸念もあるそうで、これによって「信用度で人を階級化する階級社会」が生まれてしまうのではないか、と言われているのですね。


……それ、一番最初に気にするべきところなんじゃぁ……。


アプリの企画段階で反対意見は出なかったのだろうか………。


日本にもある!?

このシステム、今のところ日本ではあまり普及していないようですが、驚いたことに、日本にもあることはあるのですね。

みずほ銀行さんとソフトバンクさんが出資している「Jスコア」なるシステムがそれなのですね。

これは1000点満点で個人の信用度を測るようで、作っている会社も「J.Score」さんというのですね。

 

…………そのまんまじゃん。


なんにせよ「ゴマ信用」も「Jスコア」も、もともと金融機関でお金を貸す相手の信用度を見るために開発されたものなのですね。


金融機関にとっては相手の信用度は大事な問題だとは思うのですが、それを一般社会に適用するのは違うと思います。

金融機関で言う「信用できる」と、一般で言う「信用できる」は別物です。


つまり、「お金を貸していい相手」と、「友達になっていい相手」は違いますね。

「お金をちゃんと返してくれる人」と「人格的に優れていて、また自分と合っている人」は別物ですね。


……ですが既に「ゴマ信用」に関しては、「友達になっていい相手」を判断するのにも使われているようです。

当のアリババ会長の馬雲さんも、いずれ母親が「うちの娘と交際するなら、ゴマ信用のスコアを見せて」という時代が来る、と言っているのですね。


……つまり、あくまで「金融機関における信用」だけでなく、「一般的な信用」を判断するのにも使うことが前提なのですね。


なんか違うんじゃ……という気もするのですが、我らが「Jスコア」がそうならないと、一体誰が言いきれるでしょう?


日本のみんなの反応

とこで、問題の「AIが人を採点するシステム」の普及に関してですが……。

記事では今のところ(日本では)賛成している人が35%、反対している人が65%いるという結果になったと書かれています。

IT決済サービスのネットプロダクションズさんがことしの2月に722人を対象にネットで行ったアンケートの結果なのだそうですが、圧倒的に反対派が多いのですね。


たったの722人って……統計学的には割と少ない気がするのですが……


……まぁいいか。


なんにせよ今のところ過半数が反対しています。

理由としては「監視されているようで気持ち悪い」とか「個人情報の共有に抵抗がある」などというのがあるようです。


……つまり、自分の情報をドコでナニに利用されているかわからないというのが問題なのですね。


要するに、人を信用できるかを採点するシステムのはずなのに、そもそもそのシステムを運用している側が、みんなから信用されていないのですね。


……こ、これは……

完全に人を採点する資格なし、なのですね。


なんとも滑稽な話です。

企業自身は自分にはみんなに大事な個人情報を提供してもらい、また人を採点する資格があるとお考えのようですが、みんなの考えは違っているようです。


それに気づかないなんて、大企業の傲慢さが如実に見て取れる展開なのですね。


個人情報の提供を求め、人様の信用度を採点する前に、まずは運営している企業側が自分たちの「信用度」を示すべきなのですね。


そもそもこの採点は正しいのだろうか

さて……、このシステム、「点数で格差が生じる」だの、「個人情報を大企業に持って行かれる」だの、様々な問題をはらんでいるということはわかりました。

ですが大事なことを一つ忘れているのですね。


そもそもAIの採点は正しいのでしょうか。


………全ての根本にして、また一番不正確な問題なのですね。


AIというのは人間の脳の働きの一部をコンピュータで再現したものですから、人間と同じく、自らが学習した知識(データ)に基づき物事を判断するのですね。

そして学習したデータに偏りがあると、判断する内容にも偏り(=偏見)が生じてしまいます。


また、ナニを学習させるかを決めているのはほかならぬ人間ですから、そもそもAIにデータを学習させる時点で、作り手側の独断や偏見が入り込んでしまうのですね。

そして、自分でデータの偏りに気付くことができず、教わったことを鵜呑みにするしかない素直なAIは、その独断や偏見をもスポンジのように吸収してしまうのですね。


偏見のある先生に教わった生徒は、同じ偏見を受け継いでしまいます。

生徒が素直であればあるほど、その度合いも大きくなります。


つまり、AIは「絶対にミスをしない完璧な機械」ではなく、「誤解も偏見も持ち合わせていて、時には過ちを犯す不完全な機械」なのですね。


………人間と全く同じなのですね。

元々のお手本が人間の脳ですから、当然かもしれませんが。


確かにAIは人間よりも素早く、基準通りに正確に物事を判断してくれるかもしれませんが、そもそもその基準そのものに誤りがあれば、判断結果も間違いになってしまうのですね。


つまり、本当にちゃんと「信用度を数値化」できるのか、そもそもそれが疑わしいのですね。


極端な話、場合によっては「信用できる人」に低い得点を付け、逆に「信用できない人」を高く評価してしまうかもしれません。


百歩譲ってAI側に不備が無かったとしても(そのようなことは絶対にありえないとは思いますが)、そもそも相手が本当に「信用できない人」だったとしたら、アプリの質問にも正直に答えないと思います。


世間一般ではウソを簡単に吐くような人のことを「信用できない」というのですね。

………そんな人がアプリの質問に対して素直に本当のことを答えるでしょうか。


おそらく自分の得点が高くなるように、あの手この手でウソの限りを尽くすでしょう。


そんな間違った情報を元にアプリがその人を採点し、結果求まったスコアが高得点だったとしても、それは本当にその人が「信用できる」ということにはならないのですね。


人の仕事を奪うよりも……

ところで、「AIは危険な道具である」とはよく言われますが、その理由は一般的にはだいたい「AIが人の仕事を奪ってしまうから」なのですね。


また「AIが反乱を起こして人類を滅ぼす」などというSF的な話もありますが、それに関して私は相当に懐疑的なのですね。

詳しい理由はこちらの記事に書いてありますのでそれを見て頂くとして……。

blog.kitsune-vetulicola.net

 

……なんにせよ、AIは使い方を誤れば危険である、という考えは私も同じなのですね。

ことにこの「信用度採点アプリ」に関しては相当危険だと思うのですね。


ですがその理由は「人の仕事を奪う」でも「人類を滅ぼす」でもありません。

他にもっと危険な理由があるのですね。


先ほども書いた通り、AIの判断基準はそれを作った人の独断と偏見で決まってしまうのですね。

「独断と偏見」とはすなわち乱暴な言い方をすると「物事を自分の都合のいいように解釈する」ということなのですね。


そして「信用度採点アプリ」を作っているのは今のところ大きな会社……つまり、ごく限られた、一部の人たちだけなのですね。

(精度の高いAIを作るには膨大な量のデータを集めなければなりませんから、どうしても大きな会社ほど有利になってしまうのですね。)


……つまり、「信用度採点アプリ」は現状では「一部の人たちに都合のいい基準で人の信用度を判断する」ということになります。

 

……この後技術やデータが一般に浸透し、零細企業でも同じようなアプリを作れるようになる、というなら話は別かもしれません。

ですがおそらく最初に開発を始めた大企業は技術もデータも独占したがるでしょうし、絶対に中小企業に渡したりしないでしょうから、結局は最初にアプリを作った大企業が全てを握ることになってしまうと思われます。


……では、家庭用ゲーム機の製造よろしくごく一握りの人たちだけがこんなアプリを製造し、またそれを世の中に普及させたらどうなるでしょうか。


個人情報がごく少数の会社だけに握られてしまう、などというGAFAの問題みたいな現象が起こるのはホンの始まりにすぎません。


普及すればするほど、一部の企業だけが、「自分たちに都合のいい」判断基準を持つアプリを運用することで、いかようにも社会を「自分たちに都合のいい方向に」作り変えてしまうことができるようになる可能性があるのですね。


なぜなら、アプリが普及した時点で、おそらくアパートを借りることからお店の割引きまで、既に「信用度」が高いと利益を得られる社会になってしまっているのですね。


信用度が高いとそれだけ有利になれるのですから、当然みんな「そのアプリの」信用度を上げることに必死になるでしょう。


また信用度を上げるためには高得点を出す採点基準を満たす必要がありますから、みんなその基準を満たそうとして必死に頑張るでしょう。


……必然的に、みんな「アプリを作った企業の基準」を正解とみなして行動するようになるでしょう。


まるでその基準が「法律」であるかのように。


……ですが、その基準は「アプリを作った企業」が自身の独断と偏見で……つまり、自分たちの都合のいいように決めたものです。法律のように専門家の人たちがみんなで話し合って決めたルールではありません。


そうすると………どうなるでしょうか……。


これは実質的に特定の企業が、「正しい行動」……つまり「正義」というものを定義し、みんなにそれを守らせているということになりませんか?


早い話が、特定の企業が「正義とは何か」を決めてしまい、自らが「正義を司る存在」「絶対正義」になってしまうということです。


当然その企業に影響力(というかもはや実質的な権力)が集中し、まるで「法の番人」ででもあるかのように振る舞うようになってしまうでしょう。最高裁判所でも国営機関でもない、一民間企業が。


こ、これは………

国内にもう一つの政府ができてしまうのですね。


アプリが3つあれば、当然3つできるでしょう。


多くなればなるほど価値基準はお互いに相殺され、結果バラバラになりますから、それぞれのアプリ(≒それを作った企業)の影響力はそれだけ小さくなるでしょう。


しかし、もしアプリが1つしかなかった場合、その基準が絶対になってしまうのですね。

そしてその基準はあくまで「法律の専門家がみんなで話し合って決めた基準」ではなく、「一民間企業の(法律の専門家でもなんでもない)開発者が、独断と偏見で決めた基準」なのですね。


実質、国が一民間企業とその価値観に支配されてしまうことになるのですね。


…………これは恐ろしすぎるのですね。


AIを研究している人たちは、往々にしてAIをみんなのために使いたいと願っているのだそうです。

ですがどんなに研究者の皆さんがそう考えていても、AIを自分たちの利益のためだけに使おうとする人たちは必ず出てきてしまうのですね。

私は基本的に性善説を支持していますし、みずほ銀行さんやソフトバンクさん、J.Scoreさんがそんな悪いことを考えているとは思いたくありません。

ですがこればかりは既に歴史が幾度となく証明してしまっているので、残念ながら「そんなことはありえない。みんなAIを社会のために使おうとするはずだ」と言い切ることはできません。

たとえ今の代では社会のためにAIを使おうと考えていても、代が変わればどうなるかわかりません。


……下手をするとAIは原子力以上に「両刃の剣」になりかねないようです。


誤った使い方で「裏側の刃」が暴走してしまわないよう、人類全体のモラルが求められているのですね。