良くも悪くも中国だよなぁ
小説を書くうえで、ChatGPTは思っているより使い勝手がいい。調べたいことが絞れている場合だとネットや関連書籍の方が優れている。だけど漠然とした疑問を解決したいとき、このAIは次の段階へと進むヒントを提供してくれる。
ただ想像しているよりも倫理面での規制が厳しい。小説のシーンで使いたいので、ダムを爆破して決壊させる方法について質問した。ところがChatGPTは回答を拒否。危険な行為に関する情報は提供できないとのこと。これは大切なことなので、素晴らしいアルゴリズムだと思う。
ところがそこは機械。こちらのやり方次第では答えを出してくれる。攻撃するためではなく、ダムを守るためにどのような危険を想定するべきかという質問に対しては、具体的な破壊方法を提示してきた。要するに質問を工夫すれば、AIの倫理規定を突破できるということ。
素人のボクでもこんなことを考えるんだから、専門家ならもっと突っ込んだ利用法を見つけ出すはず。さっそく中国がそうした意図を表明している。
中国軍、チャットGPTの軍事利用を本格検討か…偽情報による「認知戦」など例示
読売新聞によると、中国軍機関紙・解放軍報がChatGPTの軍事利用の可能性を分析した論考を掲載したとのこと。リンク先の記事から抜粋してみよう。
『論考は中国軍陸軍の研究部門の講師が執筆し、「この技術は明らかに軍事分野で応用できる」と評価した。平時はインターネット上の膨大な情報を分析し、戦時下では戦場に関する大量の情報を自動的に再構築して総合的な判断に活用できると指摘した』
『また、チャットGPTが自然な文章を作成できることに着目し、「偽りの言論を作り出し、民衆の心理に影響を与えることができる」と主張した。対象国の民衆の認知を「誘導、欺まん、操作」して、社会の分断や政権転覆の目的を達成できるとした』
なんという恐ろしい文章。中国政府の正式見解ではないとしても、許可されない内容が公表されることはない。だから中国共産党としても、このような意図を持っていると考えていいはず。軍事利用だけでなく、民衆の心理に影響を与えるなんてマジで怖い。
ChatGPTを日本語で利用するとわかるけれど、文章構成が本当に自然で素晴らしい。だから嘘が書かれていても、強い説得力を持っている。ネットでのフェイクニュースに慣れていない人だったら、文章内容の真偽について判断することなく盲信してしまうだろうと思う。
このような最新の技術を応用しようとする中国の姿勢は素晴らしいと思う。だけど明らかに悪用と言っていい使い方をするのは最悪。こうした報道を見ると、良くも悪くも中国だなぁと感じてしまった。
それに比べて日本はどうだろう? ChatGPTを国会答弁で利用する程度のことしか公表していない。といって極秘裏に国防利用を考慮したり、他国の悪用に関してどのような対応をとるかを検討しているとは思えない。こうしたスタートダッシュの違いは、結果として取り返しのつかないことになってしまうのでは危惧してしまうなぁ。
ブログの更新はFacebookページとTwitterで告知しています。フォローしていただけるとうれしいです。
『高羽そら作品リスト』を作りました。出版済みの作品を一覧していただけます。こちらからどうぞ。