最近では、世の中のありとあらゆる場で人工知能(AI)が活躍しているようです。皮膚がんの診断Facebookに投稿されたヘイトスピーチの検出、さらにスペインでは警察への犯罪被害の申し立てから虚偽の可能性があるものを探し当てるのにもAIが使われています。でも、AIは巨大企業や政府だけのツールではありません。誰でもアルゴリズムをダウンロードして、いろいろと試してみることはできます。しかも、なかなかおもしろいモノができるはずです。

たとえば、この「Digg」の記事に取り上げられている、いかにもありそうなバンド名を並べた偽のコーチェラ・フェスティバルのポスターにも、AIが使われています。実在のバンド名を大量に覚えさせたニューラルネットワークに、新しいバンドの名前を生成させたものだそうです。また、同様の方法で作り出された料理のレシピもあります。料理名が「牛肉のバーベキュー」なのに「ビール1本(角切り)」といった表記があるのも、ご愛敬でしょう。こうしたAIの笑える活用例の中でも私が特に気に入っているのが、Janelle Shane氏による「AIに絵の具の色と名前を作らせる試み」です(きっとあなたのツボにはまる名前があるはずです。私の場合は「Dorkwood(ダサい木材)」でした)。

AIの仕組み

今挙げた例はすべて、「ニューラルネットワーク」という、私たち人間の脳が持つ神経ネットワークの仕組みをモデルとして作られたAIの一種を使って作成されたものです。こうしたニューラルネットワークに、元になるデータ(例:料理のレシピ)を入力し、学習させます。

学習が進むにつれ、人工ニューロン(脳の神経細胞を模したもの)の結びつきのうち、一部が強化されていきます。こうして、入力データに関する法則(「ある文字の次に来ることが多い文字は何か?」といったもの)をAIに解析させるわけです。学習が完了したら、独自の出力を生成させたり、不完全な入力データを完成させるよう命じたりできます。

とはいえ、学習後のAIでも、本当の意味で法則を理解しているわけではありません。たとえばレシピの場合だと、AIは「ビールが料理の材料になり得ること」や「食材は角切りにできること」は知っていても、「ビールが角切りできる食材ではないこと」は知らないのです。このように、一見するとまともなようでいて、基本的なルールを誤解しているものが、AIの出力例でも一番笑えます。

私は、こうしたお遊びはただ眺めているだけで十分楽しいと思っていました。でも、Shane氏が自身のブログでこんな話をしていたのです――中学校がプログラミングの授業でAIを使い、アイスクリームのフレーバー名を作ってみたところ、自分自身が試した時よりもずっとおもしろいネーミングが生まれた、と。それを読んで、私も考えを変えました。「子どもでもこれだけできるのであれば、私も!」と思ったのです。

AIを人間の「相棒」として使おう

ニューラルネットワークは、データセットをもとに学習を進めますが、データの中身を本当の意味で理解しているわけではありません。そのため、最良の結果を出すには、人間と機械が協力し合う必要があります。Shane氏もこう述べています。

これがツールにすぎないのはわかっているのですが、つい「かわいいニューラルネットワークちゃん、あなたならできるわ」とか、「今のは賢かった」「あら、混乱しちゃったのね、かわいそうに」と声をかけたくなります。

ニューラルネットワークと良好な関係を築き、活用したいなら、AIをあなたの相棒だと思い、導いてあげなければなりません。実は、データセットの解析がうまくいきすぎても、入力した項目とまったく同じものを出力するだけという、いわばAIによるパクリが起きる恐れがあります。「これは面白い」という出力結果が出ても、それが本当にAIのオリジナルかどうかは、チェックが必要です。

予測変換キーボードの学習を通じて、人と機械をマッチングする取り組みを展開するBotnik Studiosの試みもご紹介しましょう。簡単に説明すると、「友達のスマートフォンを借りて、キーボードの予測変換だけを使ってメッセージを打ち込む」といったイメージです。

この場合、できあがったメッセージは、内容こそあなたが書いたものですが、その文体は友人のものになっているはずです。同様に、Botnikの場合も、予測変換を任意のデータで学習させ、キーボードが覚えた予測変換だけで文章を綴っていきます。ここから生まれたのが、 驚くべき「予測変換対決」です。この「Reddit」のスレッドでは、人気の人生相談コラム「Savage Love」と「Dear Abby」からそれぞれ学んだ2つのBotnikキーボードが、予測変換だけでユーザーからの悩み相談に回答しています。

AIを厳しく鍛えることもできる

AIを相棒と思って助けるのではなく、あえて厳しく鍛えるほうが好みなら、Shane氏がとあるニューラルネットワークに仕掛けたわなが参考になるでしょう。このAIは、牧草地で草をはんでいる羊をピックアップするというもので、当初は高い精度を示しているように見えました。

ところが、Shane氏が写真を加工して羊を消去してみると、このAIは草むらにある白い斑点をピックアップしているだけだったことがわかったのです。羊をオレンジ色に加工すると、AIは羊を花と認識しました。そこでShane氏は、珍しい場所に羊がいる写真を送ってくれるよう、Twitterのフォロワーに呼びかけました。集まった写真を使ってみると、このAIは、自動車の中にいる羊を犬と、木に登っているヤギの群れを鳥と、キッチンにいる羊を猫と判定することがわかったのです

実は、より本格的なAIも、同様の問題を抱えています。Shane氏がやっているようなアルゴリズムをだます試みは、どうしてAIがミスを犯しがちなのか、その仕組みを理解する上で役立ちます。たとえば、冒頭で触れた皮膚がんを判定するAIも、研究初期の段階では、皮膚の病変からがんとそうでないものを判定する際に、間違った基準を覚えてしまったことがありました。

大きな病変が見つかった場合、医師は大きさを把握するために、定規を脇に添えて撮影します。そのせいで、あるAIが、がん性の腫瘍の判定に関して、誤った基準を身につけてしまいました。つまり、がんを判定するなら「定規が写っている写真を探せばいい」と覚えてしまったのです。

インプットするデータにご注意

もう1つの教訓は、「アルゴリズムが出力する結果の質は、入力されるデータの質に左右される」ということです。「ProPublica」の記事では、アメリカで刑事事件の量刑を決める際に用いられているリスク評価用ソフトウェアが、黒人の被告人のほうが再犯の恐れが高いとして、白人よりも厳しい刑を課しがちだという問題が取り上げられていました。

このソフトは人種を「考慮すべき要素」として採用してはいませんが、入力データが偏っていたため、黒人の被告人に多い犯罪の種類や背景が、白人と比べて再犯を引き起こす予測因子になる傾向が強いという、誤った判定につながったのです。

このソフトは人種という概念をまったく理解していませんでしたが、入力されるデータの偏りが、出力される結果にもそのまま反映されたわけです。アルゴリズムを使う際には、私たち人間の側がその限界を理解し、「人間と違って機械は公平だろう」と決めてかからないことが大事です(そう考えると、「AIでヘイトスピーチを検知する」というFacebookの取り組みは相当大変そうですね!)。


Image: Sam Woolley/Lifehacker US

Source: The Guardian, Nature, VB, GitHub, Ai Weiredness, Wikipedia, Botonik, reddit, Daily Beast, Propublica

Beth Skwarecki - Lifehacker US[原文