人工知能(AI)技術の進歩に伴い、巧妙なフェイク動画を用いた新たな詐欺被害が全国各地で報告されている。専門家は、技術の悪用が社会問題化しているとして、警戒を強めるよう呼びかけている。
巧妙化する手口
AIによるディープフェイク技術を使い、有名人や知人の顔や声を精巧に模倣した動画が作成され、金銭をだまし取るケースが相次いでいる。例えば、著名人の顔を借りた投資勧誘や、家族を装った緊急の送金依頼など、手口は多岐にわたる。
警視庁のまとめによると、今年に入ってから確認された関連被害は既に昨年1年間の件数を超えており、被害総額は数億円に上るとみられる。特に高齢者が標的となるケースが目立ち、対策が急務となっている。
技術の悪用防止へ
専門家は、動画の真偽を確認する技術の重要性を強調する。現在、AIが生成した映像を検出するシステムの開発や、改ざん防止のための電子透かし技術の導入が進められている。
また、政府は関係省庁が連携し、悪質な業者への取り締まり強化や、国民への注意喚起を進める方針だ。消費者庁は「不審な動画を見つけた場合は、すぐに信じず、家族や警察に相談してほしい」と注意を促している。
- AIフェイク動画の特徴:不自然なまばたきや口の動き
- 対策:送信元の確認、複数の情報源での検証
- 相談窓口:警察相談ダイヤル「#9110」
デジタル社会の進展に伴い、こうした犯罪は今後さらに増加する可能性がある。一人ひとりがリテラシーを高め、被害防止に努めることが求められている。



