AIが有する宿命的な弱点
AIの進化はめざましく、すでにある部分においては人間の能力を凌駕している。科学のあらゆる分野に応用され、ネット環境を背景にしたボクたちの日常生活だけでなく、犯罪捜査等にも活用されつつある。全体主義的な国家においては、国民の監視にもAIが使われている。
AIが人間の能力全体を大幅に凌駕するというシンギュラリティは、もしかすると想像よりもずっと早くやってくるかもしれない。そうした進歩によって便利になるのはいいこと。特定の権力者によって悪用されることがなければ、人類全体にとって好ましいことだと思う。
だけど犯罪者たちにとって、自分たちがコントロールできないAIの存在は邪魔でしかない。となるとサイバー攻撃によるAIの機能不全を考えるだろうけれど、果たして進化の止まらないAIに弱点はあるのだろうか? そんな疑問の答えとなるような記事を読んだ。
インターネット上の文章にわざと誤字脱字をまぎれこませることでAIを狂わせるサイバー攻撃の可能性
リンク先の記事のタイトルでわかるように、AIを狂わせる方法があるらしい。これがなかなか興味深い方法だった。
人間とちがってAIは曖昧な部分がない。文章を読むことに関して比較すると、人間とAIの差がよくわかる。人間が文章を読んでいるとき、誤字や脱字に出会うとどうなるか?
気づいたとしても本来の意味を推測して頭の中で読み替える。あるいは気づかなくても、文脈によって意味を捉えているので誤字を認識しないこともある。要するに少々の誤字や脱字が存在していても、さほど大きな影響はない。
ところがAIは融通性に欠ける。誤字や脱字を的確に判断して、正しい文章ではないと認識する。人間では気づかない程度の変更をAIに学習させると、言語処理モデルの動作が狂うことがあるそう。微妙な変化がAIにとっては気になって仕方ないのだろう。だから混乱してしまう。
AIの動作に大きな影響を及ぼすような小さなデータの変更を「敵対的事例」と呼ぶそう。正確な処理をするAIが持つ宿命的な弱点で、この「敵対的事例」を応用することでサイバー攻撃が可能になると考えられている。
この記事を読んで、ボクはスティーブン・キングの『ダークタワー』シリーズの物語を思い出した。主人公たちは機関車に搭載された殺人AIに悩まされていた。そのAIはなぞなぞを仕掛けてきて、答えられなければ全員を殺すと言った。
そこで主人公のグループにいたある人物が、無意味でくだらなく、答えの見えないなぞなぞをAIに質問した。人間なら馬鹿にして終わるようなもの。ところが機関車のAIは真剣に考えた。まったく冗談が通じない。結果として答えが出せずにAIが狂ってしまうという内容。
ディーブラーニングで学習するAIのニュートラルネットワークは、開発者でさえ制御できないうブラックボックス。だからAI内部で何が起きているのかわからない。それだけに不気味なんだけれど、「敵対的事例」という弱点があるのは事実。
おそらく防御法は考えられているだろう。もしそれでAIの弱点が克服されたら、ますます攻撃不能になってしまう。ちょっとくらい弱点のあるAIのほうが親しみやすくていいのになぁ。物語の機関車のようにね。
ブログの更新はFacebookページとTwitterで告知しています。フォローしていただけるとうれしいです。
『高羽そら作品リスト』を作りました。出版済みの作品を一覧していただけます。こちらからどうぞ。