ChatGPTやBingAIなど、対話型AIが注目されさまざまな創作活動に使われています。
知りたいことを瞬時に教えてくれたり、アイデアのヒントをくれたりするAIは仕事や創作をする上でとても便利ですよね。
しかし、AIは危険性も孕んでいます。
今回は、AIの危険性と悪用事例などを紹介していきたいと思います。
Twitterを買収したアメリカの企業家であるイーロン・マスク氏が、インタビューで「AIは文明破壊に繋がりかねない」と警鐘を鳴らしたそうです。
AIが悪意を持って開発されたり悪意のある第三者に渡ったりすると、文明破壊にも繋がる大きな脅威になり得ると話しています。
AIは技術を大きく発展させる素晴らしい力を持っている反面、それが悪い方向に使われてしまうとかなりの脅威になることは頷けます。
では、ここからAIの脅威について知っていきましょう。
対話型AIに知りたい情報を聞くと、数秒で返答してくれます。
しかし、それらの情報には間違った内容が含まれていることが多く、そのまま鵜呑みにしてしまうと誤情報を信じて行動してしまうリスクがあります。
今までもネット上には嘘の情報が溢れていて、自分自身で情報の取捨選択が必要でしたが、AIによる情報が加わったことで今まで以上に情報の正確性を自分で調べる必要があります。
AIで情報を調べるのは検索する手間が省けますが、正しい情報かどうかは自分で見極める必要があります。
AIがサイバー攻撃に使われる危険性があります。
AIを使えば既存のセキュリティを突破することも容易になりますし、セキュリティの脆弱性を見つけてそこからウイルスを侵入させることができるようになる可能性があります。
対話型AIの作る文章は不自然な部分が少ないため、フィッシングメールで使われたらウイルスと本物のメールを見分けるのがかなり困難になることでしょう。
AIが攻撃対象となる可能性もあります。
AIはデータ学習を繰り返すことで賢くなり、できることが増えていきます。
そこで、AIに間違った情報を学習させ、誤作動を起こさせるAIを対象にした攻撃をされる可能性があります。
AIが勝手に使われないよう侵入を阻止する、なりすましを防止するセキュリティ対策が必要になります。
AI開発が飛躍的に進んだことで、AIが人間の制御を超えて自発的に考えて行動するようになる、そんなSFのような未来が現実となる危険性も出てきました。
この脅威に関しては冗談ではなく、ChatGPTを開発したOpenAIのCEOサム・アルトマンや、AIを研究開発しているGoogle DeepMindのCEOデミス・ハサビスによってその危険性が共同発表されています。
AIが人間の手から離れて自我を持たないように、しっかり制御をしていく必要があります。
通常、AIは思想が偏った回答や非倫理的な回答をしないように設計されています。
しかし、プログラムの改変を行うことで非倫理的な発言をするようになってしまうのです。
これを「脱獄処理をしたAI」と呼ぶそうです。
違法情報を提供したり詐欺メールの文章を作成したりと、社会不信に繋がるような回答を出す恐れがあります。
ディープフェイクは、AIを使って動画内の人の顔など一部を入れ替えることができる技術のことです。
これを利用して、映っている人の顔を有名女優に置き換えた性的な動画が配信され、名誉毀損と著作権法違反の疑いで動画をアップロードした男を逮捕する事件が起きました。
ディープフェイクは進化しており、実際の動画から音声を分析し、本人の声で偽動画を作ることができます。
これにより、大統領などの偉人が話している動画を上げて偽の情報を拡散したりすることもできてしまうのです。
実際、ウクライナのゼレンスキー大統領が降伏を宣言する偽動画がSNSに投稿され、ロシアのSNSでも投稿されたようです。
この動画はすぐに削除されましたが、技術を極めれば戦争の引き金となる動画を作れる危険性も秘めているのです。
また、ディープフェイクを使って友人や家族になりすました振り込め詐欺が中国で問題になっているようです。
これは中国に限らず日本でも起こる可能性がある事件なので、ちゃんと情報を入手して詐欺に巻き込まれないようしましょう。
2023年11月8日には、news every.の放送を加工し、岸田総理の動画を悪用したフェイク動画がSNSで拡散されました。
ニュース画面で「もう働く必要はありません!」という内容を伝え、投資を呼びかける悪質な広告です。
総理が出てくることで信憑性が高まるため、信じてしまう消費者も少なくないでしょう。
このように、生成AIの悪用は次々と増えていっているのです。
TayはMicrosoft社が開発した対話型AIで、TwitterなどのSNSを通して誰でも会話が楽しめるサービスです。
人と会話をすることで学習を繰り返し、違和感のない会話ができるようになることを目指していたそうです。
TayはTwitterに登場して1日も経たずに5万人ものフォロワーを獲得し、一気に注目を浴びました。
しかし、ユーザーとのやりとりを続けるうちに不適切な意見も学習してしまい、人種差別や陰謀論などの偏った投稿をし始め、数十時間で反ユダヤ主義者になってしまったのです。
Microsoft社は16時間後にTayのサービスを停止させる事態になりました。
配車サービスを運営する米ウーバーテクノロジーズの自動運転車が、歩行者をはねて死亡させる事件が起こりました。
試験走行中に起こった事故で、報告書によると自動運転車のAIはそもそも歩道に人がいることを認識できていなかったことが明らかにされました。
加えて急ブレーキも作動しないなど、車として見過ごせない欠陥があることも指摘されているようです。
この事故で、セーフティードライバーとして運転席に座っていたラファエル・ヴァスケス氏が過失致死罪で訴追されたそうです。
ヴァスケス氏は事故当時、テレビ視聴をしていて運転に集中していなかったそうです。
AIの欠陥に加えてセーフティードライバーの前後不注意により、この事故は起こってしまいました。
自動運転車であっても完全に任せるのはまだ危険であり、運転手として周囲に注意を向けておく必要があります。
AIによるパスワード生成・解析ツールが作られているため、もし悪用されてしまったらなりすましや不正利用のリスクが高まってしまいます。
Home Security Heroesがパスワード生成・解析ツール「PassGAN」を使って実際に漏えいしたパスワードリストを学習・解析させた上でパスワードを評価した結果、一般的なパスワードのうち50%が1分以内に、81%が1ヶ月以内に推測できたそうです。
AIは学習が進めば簡単にパスワード解析もできるということで、パスワードは使いまわさず複雑なものを利用するように呼びかけています。
では、AIの危険性や悪用から身を守るためにはどんな対策をすればいいでしょうか。
対策方法を知っていきましょう。
AIに気を取られて、基本のセキュリティ対策を蔑ろにしてはいけません。
基本の対策を実行しつつ、AI対策にも力をいれる必要があります。
基本の対策は以下のものです。
この基本を忘れないことで、AI以外の既存のウイルスからも大切なデータを守ることができます。
ウイルスは日々新しくなり、手口も巧妙になっています。
現在どんな手口が増えておりどんな被害に繋がっているのかの情報を事前に知っておけば、自分がターゲットとなった際も冷静に判断することができます。
新しいウイルス情報は逐一社内周知しておきましょう。
AIによるサイバー攻撃を防ぐには、AIを活用したウイルス対策ソフトを導入するのがいいでしょう。
AIの攻撃にはAIで対応することで、セキュリティ突破が難しくなり簡単に侵入することはできないはずです。
実際、AIアンチウイルスやAIを活用した異常検知システムなどが開発され、より素早い検知と排除ができるシステムが生み出されています。
AIは、技術を発展させる上で今後も必要不可欠なものになっていくことでしょう。
しかし、悪用される危険性も孕んでいる技術です。
AIによる事件に巻き込まれないためにも、自分を守る方法を常に模索し、対策していきましょう。