AIを使った詐欺が起きている
いまだに振り込め詐欺の被害がなくならない。特に年配の人をターゲットにした詐欺が続発している。詐欺師はパターンを変えて騙そうとするので、大丈夫だと思っている人でも被害に遭うことがある。
でも冷静でいられたなら、本当に子供からの電話かどうかは判断できる。話し方の癖や方言というものは、真似をするのが難しいから。ところがそこにAIが関わってくるとヤバい。実際にこんな事件が起きている。
ついにAIを使った詐欺事件が!娘そっくりの声を合成し身代金請求
タイトルで事件の概要がわかる。AIによる音声合成技術は驚くほど進化していて、声が似ているというレベルではないらしい。そういえば最近、あるミュージシャンの声をAIで合成した曲がヒットしているという記事を見た。本人が歌っているとしか思えないそう。
リンク先の記事で紹介されているのは、アメリカのアリゾナ州で起きた事件。15歳の娘がスキーに出かけていた。母親は普段は知らない電話番号は留守電対応にしている。だけどそのときはスキー場で何かがあったかと思い、うっかりと電話に出てしまった。
するとその電話からは泣きじゃくる娘の声が。「ママ、どうしよう」と泣きながら助けを求めている。そして男性の声で100万ドルの身代金を要求してきたそう。娘は「助けて!」と叫んでいた。
母親はパニックになったけれど、そのときはもう一人の娘と友人がいた。それで警察と女性の夫に連絡を取ってくれた。そして自宅にはスキーから戻ってきた娘がいたらしい。それで詐欺に遭ったとわかった。母親はこう述べている。
『完全に娘の声でした。話し方のクセはあの子のもので、泣き声も本人のものでした。一瞬たりとも娘の声だと疑いませんでした。だから動揺したんです』
専門家によると、AIなら3秒の音声記録で合成音声を作れるそう。だからその音声を使って、好きなようにセリフを言わせることができる。最近はSNSで動画をアップしている人が多い。3秒どころか、大量の音声データがネットで配信されている。
TikTok等を見ていてると、本名で投稿している人は少ない。だけど顔はバレているから、街角でばったりあって住所を突き止められたらやばい。 動画で自分の居場所がわかってしまうこともある。自分の声を悪用されてしまうことは、いつ起きても不思議じゃない時代になった。
こうした詐欺の被害に遭わないようにするには、結局は自己防衛しかない。まず音声は信用できないということ。日本の場合、振り込め詐欺のほとんどが固定電話らしい。だからスマートフォンを持つようにして、常に子供たちと連絡を取れる状況を作っておくべきだと思う。それこそ合言葉を決めておいてもいい。
動画だって合成できるんだから、目や耳が簡単に騙される時代になったということ。AIは便利だけれど、悪用もできるからなぁ。
ブログの更新はFacebookページとTwitterで告知しています。フォローしていただけるとうれしいです。
『高羽そら作品リスト』を作りました。出版済みの作品を一覧していただけます。こちらからどうぞ。