顔認識のその先へ。感情認識という不正確な恐怖

  • 5,258

  • author Whitney Kimball - Gizmodo US
  • [原文]
  • そうこ
  • X
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
顔認識のその先へ。感情認識という不正確な恐怖
Photo: Getty Images

AIに私の何がわかるのよ?!

顔認証でスマートフォンをアンロックする現代。その先にあるのは、個人を顔で見分けるだけではなく、個人の感情を見分ける世界。表情を読み取ることで、その人が今何を思っているかを推測する世の中です。

ちょっと怖い気もするけど、それなりに便利なんでしょ? いえ、便利ではすまない、ちょっとなんて言ってられない怖い世界になる可能性があるんです。ニューヨーク大学のAI研究所AI Nowが、顔認証技術の危険さを訴えるレポートを公開しました。

不正確なのに影響力がでかい

AI Nowがレポートの中で危険視しているのは、感情認識によるデータが多様な分野で物事の決定に大きな影響を与えることになる場合。たとえば、就職面接の合否、保険の価格、学校での成績などなど、個人の表情を読み取ったデータが結果を左右するとしたら恐ろしいことです。

何より恐ろしいのは、感情認識がまだまだ正確ではないということ。レポートでは、感情認証の不正確さを指摘するケースがいくつか紹介されています。

例えば、Sound Inteligenceという会社が開発し、学校や病院などで利用された興奮度をはかることができるシステムが、ただの咳を興奮のサインと認識したというProPublicaからの報告。例えば、Face++やMicrosoftのFace APIをNBA選手が利用した際、黒人選手の感情が他の選手よりアグレッシブに捉えられたケース。例えば、中国で学校で導入された生徒の集中度をトラッキングするシステムの不正確さ(勉強する姿勢は人それぞれなので、見た目は前を向き姿勢がいいけど集中していない人、よそ見しつつも集中している人がいた場合、前者の方が集中度が高いという見た目に左右される結果になった)。

こういった例をあげ、AI Nowは「感情認証プロダクトに科学的根拠、正確さはない」と指摘。これを踏まえ、感情認識の理解が深まり、さらに発展するまで、政府や企業がこれを利用するのは控えるべきであり、業界は人種差別や女性蔑視についてより真摯により組むべきだと提言しています。

さらにAI Nowはデータをとられる側が権利を主張する重要性も述べ、BIPA(Illinois Biometric Information Privacy Act:同意なしに生物データを収集、使用された場合訴えることができる)のような権利、法案の活発化を促してもいます。また、監視ツールのようなプロダクトを開発する場合にスタッフがNOと言える権利や、政府が利用するスパイ的ツールを開発する場合、企業側にそれが知らされるべきだとも指摘。

感情認識ってまだまだ社会で利用されてないのでは?なんて考えは甘い。ディズニーは、映画のリアクションを見るため観客の表情をトラッキングしましたし、Appleは2016年にFacetと呼ばれる感情認証ツール(低画質の画像から微妙な表情を読み取れる)を開発したスタートアップEmotientを買収しています。中国では、イスラム系移民の特定や香港のデモで、すでに顔認証技術が導入されており、ここにもし感情認識が加わったとき果たしてどんなことになるのやら…。

顔に出てしまった表情がすべてなんて、人間ってそんなに単純じゃないんだよ! AIを過信することの恐ろしさを今一度広く考え直さなければ…。

Source: AI Now