Meta(メタ)のAIモデル「Llama 4」はどんな特徴が?
Metaによれば、従来のモデルよりも政治的な偏りが少ないそうで、政治的に意見が分かれそうな質問に対する回答を許容することで、この改善を実現したそうです。
またLlama 4は、イーロン・マスクのスタートアップ「xAI」が開発した自称「非woke(過剰に政治的正しさに配慮しない)」とGrokと比較しても(政治的な偏りの少なさの面でも)遜色ないといいます。
Metaは以下のように述べています。
私たちの目標は、AIモデルからバイアス(偏見)を取り除いて、Llamaが対立する双方の課題を理解し適切に説明可能にすることです。バイアスを取り除き、さまざまな視点から応答できるようにすることで、特定の見解に偏らず、Llamaが質問に答えられるように改善していきます 。
ユーザーが摂取する情報は、AIを支配する企業が自在に操れてしまう
一部の企業が開発する大規模言語モデルに対する懸念のひとつは、情報のコントロールのあり方です。AIモデルを支配する者が、人々が受け取る情報を自在に操作できてしまう。これは何も今になって始まった問題ではなく、インターネットプラットフォームが登場してから、企業が開発するアルゴリズムが、どのコンテンツを表示するかしないかを決めてきました。
Metaはトランプ政権に取り入ろうと必死?
話は変わって、Metaは今も(特にアメリカの)保守派から批判されています。Facebookでは、昔から保守系のコンテンツが人気が高かったにもかかわらず、Metaは右派の意見や観点を牽制してきただろ、ってキレられています。
トランプ政権になって、これから起こり得る規制上のトラブルを避けるために、マーク・ザッカーバーグは政権に取り入ろうと必死になっているんじゃないでしょうか?
Metaのブログ記事の中で、Llama 4への変更はよりリベラルではなくなるようにすると強調しています。
すべての主要な大規模言語モデル(LLM)に、バイアス問題があることは既知のとおりですが、特に政治的・社会的な論争のあるテーマに関しては、従来から左寄りの傾向があったことが指摘されています。これは、インターネット上に存在する学習データの種類に起因しています。
AIの課題は両論併記主義になりがち
MetaはLlama 4の学習データを公表していませんが、Metaを含む他のAI開発企業は、許諾なく書籍をコピーしたり、ウェブサイトからスクレイピングしたデータを使用していることはよく知られています。
「バランス」を最適化しようとする際の問題のひとつは、「誤った均衡感」を創り出し、実証的、科学的データに基づかない悪意ある主張に、それっぽい言い回しで信頼性を与えてしまう可能性がある点です。この現象は一般に「両論併記主義(bothsidesism)」と呼ばれるものです。一方がデータに基づいた主張をしていたとして、もう一方が陰謀論をまくしたてているだけであっても、両者の意見に対して同等に重みを与えなくてはと責任を感じてしまうというもので、メディアもこの両論併記に陥りがちです。
QAnon(極右系の陰謀論団体)は、興味深い存在でしたが、アメリカ国民の多数派の意見を反映するようなものではなく、むしろ少数の過激なムーブメントだったにもかかわらず、必要以上の注目を集めてしまった可能性があります。
今も生成AIが吐き出す情報は疑ってかかるべき
主要なAIモデルは、事実に基づいた正確な情報を提供するにあたり、いまだに多くの課題を抱えています。息を吐くように嘘情報をでっち上げ、それっぽく真実であるかのように自信たっぷりに流暢に嘘情報を生成してきます。
AIには多くの有用な活用方法がありますが、情報検索システムとして依存するのはまだ危険です。これまで私たちが「このウェブサイトの情報は信頼できるかどうか」を判断する際の「直感」も、AIの口八丁なテキストに踊らされて、だんだん通用しなくなっています。
AIモデルには、やはりバイアス問題があります。たとえば、画像認識モデルは有色人種を正しく認識できないケースがあることは有名で批判されやすい問題ですね。また女性が性的に描写されることもあり、露出している服で生成されることも多くあります。
たとえば、AIが生成した文章には「em dash(エムダッシュ「—」、英文でも区切りに使われる長めの横棒)がよく使われる傾向があり、それがAIが生成した文章であると見抜く手がかりになることもあります。これは、ジャーナリストやプロのライターが好む文章構成で、AIの学習データはそれを反映していることが伺えます。つまり、AIモデルは大衆的で主流とされる価値観を反映しやすいという性質を持っているのです。
しかしザッカーバーグ氏は、トランプ大統領のご機嫌を取るチャンスと見ているんじゃなかろうか。わざわざMetaは自社のAIモデルが「リベラル寄りではない」と明確に宣言しているのはそういうこととしか思えません。
しかし、政治的都合で全世界のユーザーが取得できる情報がAIを開発できる企業によってコントロールされてしまってよいのか。情報を摂取するときは、AIでもSNSでも、常にバイアスがあるものだと疑ってかかるべきです。