コンクラーベから万博トイレまで…生成AIの答え信じて大丈夫?

日本語の「根比べ」の語源は「コンクラーベ」?
知らないうちに事件の犯人にされてしまった人まで…

生成AIを調べものに使う人が増えています。最近では、通常のネット検索でもAIが出す答えが上のほうに表示されるように。

ただ、しれっと“ウソ”をついてしまうケースも。

なぜそんなことが?気付かないうちに身近なところに入ってきている生成AI、どう使っていけばいいのでしょうか?

「根比べ」は「コンクラーベ」から?

5月に行われたローマ・カトリック教会で次の教皇を選ぶ選挙「コンクラーベ」。

誰かが投票総数の少なくとも3分の2を獲得するまで投票を繰り返すことから、日本語の「根比べ」に例えられることもあります。

言葉が似ているのはたまたまですが、グーグルで「根比べ 語源」と入れて検索すると、誤った情報が表示されました(5月16日時点)。

「根比べの語源は、中世ヨーロッパにおける教皇選出方法であるコンクラーベに由来するとされています」

Xでは、同様の回答を引用して「語源だったのびっくり」などと、誤情報を信じたような投稿が見られました。

実はこの答え、グーグルの生成AIがまとめたもの。最近では検索結果の上のほうに、AIがまとめた答えが表示されるようになっていますが、こうして誤った回答をすることがあるのです。

さらに、飲食店や交通機関、試験の日程といった必要な情報の検索でも誤情報が出てきたとするXの投稿がありました。
(生成AIの回答は、質問のしかたやタイミングによっても変わります)

“万博のトイレはくみ取り式”は誤情報のはずが…

Xで使える生成AI「Grok」でも似た問題が。

Grokでは、質問をするとAIがその回答を示すという機能が使えるようになり、他人の投稿の真偽を判断させる”ファクトチェック”のようなことをさせる動きが広がっています。

Grokに”ファクトチェック”を指示する投稿は、3月下旬から急増し、5月15日までにおよそ4万5000のアカウントが11万件あまりの投稿をしていました。

しかし、Xで広がっていた「大阪・関西万博のトイレは汲み取り式だ」という誤情報をGrokに調べさせている事例では…。

「事実ではない」と否定する投稿もあった一方で、「汲み取り式なのはインフラの問題が根深い証拠」「一部汲み取り式になってしまっている可能性が高い」などとする誤った回答も複数投稿されていました。

大阪・関西万博の実施主体、博覧会協会の広報担当者によると、こうした事実はなく、トイレはどれも水洗で、下水道が整備されているということです。

Xには投稿が相次いでいる

ほかにも、AIで生成された画像や動画を本物であるとしてしまったり、事件事故や災害の背景に関する誤った情報が出ているケースもありました。

「知ったかぶり」をするAI

どうしてこのような間違いが起きるのか。

ネット上の膨大な情報を瞬時に要約、人が思いつかない発想で新たなアイデアを出すなど、人の役に立つ生成AIの仕組みが影響していると、国立情報学研究所の佐藤一郎教授は指摘します。

生成AIは、さまざまな情報を事前に“学習”し、類推を重ねることで、回答を作り出します。

しかし、学習したデータが偏っていたり、誤っていたりした場合にはAIの回答は誤ったものになります

これを悪用し、悪意のある組織などが誤った情報をネット上に大量に広め、そうした情報をAIに学ばせると、誤った情報が表示されるようにもなります。

さらに、データが少ない場合や質問があいまいな場合にも、なんとか回答しようと、「知ったかぶり」をして間違えることがあるといいます。

佐藤教授
「そもそも生成AIは単語の意味を理解しているわけではなく、文章が正しいかどうかも判断できていません。AIは学習した情報そのものでなくても類推によってコンテンツを生成することができます。ただ、この類推を間違えると、幻覚を意味する『ハルシネーション』という現象が起きやすくなります」

「これが起きやすい理由に『AIには無知の知がない』ことがあげられます。知らないということを認識できないので、知らないことを聞かれても一生懸命答えてしまう、そうするとある種の知ったかぶりで答える状態になり、間違いが起きやすくなります」

知らないうちに殺人事件で判決受けたことに?

海外では、さらに深刻な誤りも起きています。

ノルウェー人の男性がChatGPTに自分の名前を入れてどんな人なのか聞いてみたところ、まったく虚偽の情報が表示されたのです。

「自分の息子2人を殺害、さらにもうひとりの息子の殺人未遂で、ノルウェーの最高刑である懲役21年の判決を受けた」

実際にAIが示した虚偽の回答

オーストリアに本部のある権利保護団体「noyb」によりますと、男性はこれまで犯罪で起訴されたり、判決を受けたりしたことはないとしています。

「noyb」はことし3月、男性に代わってノルウェーの当局に苦情を申し立て、ChatGPTを運営するオープンAIに対し、名誉を毀損する情報の削除や、罰金を科すよう求めました。

また、アメリカ中西部インディアナ州では、裁判で弁護士が提出した書類に、実際には存在しない裁判の判例が含まれていたことが発覚しました。

裁判所の報告書によりますと、書類は生成AIを使って作られていて、弁護士はチェックしないまま提出したということです。

裁判所はことし2月、弁護士が調査義務を怠ったとして、1万5000ドルの制裁金を科すべきだとする勧告を出しました。

大学生の期末レポートで…

うまく使えば役に立つ生成AI。特性を知った上でどう付き合っていけばいいのか。

筑波大学で言語学を研究する田川拓海准教授は、学生が生成AIを使うことを前提に、授業での評価の仕方を変えました。

そのきっかけは昨年度の授業で起きたことでした。

1年生を対象にした授業の期末レポートの中に、存在しない文献を挙げ、その内容を元に議論を展開しているものが複数見つかったのです。

レポートで言及された、存在しない文献の著者自体は実在していました。

田川さんは生成AIが作り出した文章を、学生がそのままレポートに使ったと考えています。

田川さんも自身の研究の中で、「SNSの投稿を探してほしい」とAIに指示したところ、架空のURLとともに実在しない投稿を出してきたことがありました。

AIが示した実在しない投稿

田川さんは期末のレポートを中心に学生の評価を行っていましたが、授業で毎回実施する課題をもとに評価する方式に変更しました。

一方で「生成AIは自由に用いて構わない」と積極的な利用を呼びかけ、適切な使い方も伝えています。

田川准教授
「生成AIは手軽に複雑なことができてしまいますが、学生が悪意はないのに不利益を被る心配はあります。トレーニングの場である大学で体験するというのが重要かなと思っています」

大学生の利用率”68%”

生成AIの利用は急速に広がっています。

去年1~2月、国内企業220社を対象にした総務省の調査では「メールや議事録作成など業務で使用中」と答えた企業は46.8%でした。

さらに、大学生は利用率が高く、全国大学生活協同組合連合会が去年10月から11月にかけて、全国の大学生1万1000人あまりに聞いた調査では、生成AIを使ったことがあると回答した学生は68.2%にのぼりました。

特に「授業や研究」「論文・レポートの作成の参考」に使ったとする割合が多くなっています。

生成AI“必須化”する大学も

大学のなかには、生成AIの利用を必須とするところも出ています。

学生が利用できる生成AI

東洋大学の情報連携学部では、2年前から、すべての学生が無料で最新の生成AIを利用でき、授業や課題で自由に使っていいとしています。

およそ300人が出席する1年生向けの必修授業では、レポートを書く際に、生成AIを使うことが条件となっています。

レポートでは、生成AIにどのような指示を出し、どのような回答が出てきたかを明記することを求めていて、使い方を含めて評価されます。

学生は授業以外のところでも生成AIに気軽に質問でき、学習意欲の向上にもつながっているとしています。
学生に感想を聞くと。

「使い始めの時は、単純な一答一問みたいな感じでしか使えていませんでしたが、いまは対話を通じて、考えを深めるように使うように変わりました」

「AIの具体的な弱点を、実際に確かめられる環境もあるので、性能が高くてもハルシネーションが起こることに気付くことができていると思います」

授業を担当する坂村健名誉教授
「新しいものを積極的に社会に取り入れていく力が、人間を成長させてきたと言えるので、今だったら生成AIを通して、ぜひ未来に対してチャレンジする学生が増えてほしいと思っています」

生成AIと付き合う“コツ”は?

最後に、生成AIをうまく使うコツについて、今回取材した生成AIの専門家2人に聞くと、こんなポイントを教えてくれました。

▽AIにわかりやすく質問するなど、コミュニケーションを増やすこと
▽1つのAIだけでなく、ほかのAIにも聞いてみること
▽AIが回答の根拠とした一次情報や引用元を確認すること

東洋大学 坂村健名誉教授
「AIは、ずっと対話を繰り返さなきゃダメなんです。人と同じでAIといい仲間になるには、コミュニケーションを増やさなきゃいけない

「そして、常に疑いを持って、複数チェックをするという心構えは、AIを使うときでも大事なことです。生成AIによる間違い、ハルシネーションは減ってきていますが、疑いを持った場合には情報の原典を調べる。特に、データの少ないものに関しては気をつけるべきだと言えます」

国立情報学研究所 佐藤一郎教授
「AIに質問するときに、主語・目的語・動詞をきちんと伝える。主語や目的語があいまいな場合にはAIは勘違いをすることがあるので、人間にとっても分かりやすい言い方で質問するのが良いと思います。AIが間違える可能性の高いことに関しては、ほかのAIにも同じ質問をしてみるのも大切だと思います」

「自分で使うかどうかは別にして、気が付かないうちに生成AIで作られているコンテンツに触れることは、これからすごく増えてくるはずです。回答には間違いもあるといった生成AIの特性と限界を理解して使ってほしいと思います」

(経済部・岡谷宏基、機動展開プロジェクト・籏智広太)