便利さの裏には…。
会話のように文章を打ち込むと、答えを返してくれるAIチャットサービス。この対話型サービスのベースに、ユーザーの文章を解析して情報を返す大規模言語モデルの存在がありますが、これがセキュリティ上の深刻な脅威をもたらす危険性が警告されています。
あとから変身する潜伏工作の温床に!
Anthropicは、大規模言語モデルとサイバー犯罪の関連性を調査した最新研究結果を発表しました。いまやAIアルゴリズムを用いたプログラミングも盛んになっています。
しかし、そのベースとなっている大規模言語モデルをしばらくの間無害に装わせ、特定のタイミングで悪質なコードを実行させるようプログラミングすることも可能。これが深刻な結果をもたらしかねないと危惧されています。
たとえば、一見すると無害な大規模言語モデルを用いたサービスを1年間ずっと提供。ところが、最初から同サービスには1年後に悪質なコードを実行させる潜伏工作が仕掛けられています。
このプログラムにより、安全なので問題ないと一定期間にわたって導入されていた複数拠点へ、ある時期から一斉にサイバー攻撃が行なわれてしまうというシナリオが想定されています。
オープンソースの開発への挑戦?
ところで、このシナリオや調査レポートの発表をしたAnthropicですけど、実はFrontier Model Forumという、AI開発企業からなるコンソーシアムを創設。自らAIチャットボットの「Claude」を開発しているほか、Amazon(アマゾン)やGoogle(グーグル)が支援しています。
つまり、まったくオープンソースではない独自開発の大規模言語モデルに関わっているというわけですね。
そのAnthropicが、オープンソースに大規模言語モデルの開発が進む結果として、安全ではない、潜伏工作がなされたアルゴリズムの存在を警告しました。
要は自社の閉じられた開発環境の大規模言語モデルのほうが、信頼できて安心と宣伝するための調査結果なのではないのか? そんな懸念の声も上がっているようですね。
お金を払って、オープンソースではない企業が開発した大規模言語モデルを採用するほうがいいよって、自ら謳っていると批判されかねません。
どんどん進化していくAIチャットサービス。でもその陰で心配な点があるのは事実です。それでも発展のスピードは止まらず、セキュリティ面での課題は増していく一方なのでしょうね。
Source: Frontier Model Forum