ディープフェイクはAI技術を活用して、実在する人物の顔や声を他の映像や音声に合成する技術です。
当初、この革新的な技術は、エンターテインメントや映像制作の分野で活用されることを目的としていましたが、近年では思わぬ形で悪用されています。
韓国では、SNSで公開された知人や同級生など身近な女性の顔写真を元に、ディープフェイク技術を利用し無断で偽の性的な画像や動画が作られるという問題が起きています。これらのコンテンツは、匿名性の高いツール「テレグラム」などで大量に共有・拡散され、被害はさらに深刻化しています。
韓国では、女性の顔が無断で性的ディープフェイク映像に使用され、被害者は精神的なダメージを受けるだけでなく、社会的な名誉も傷つけられています。
未成年の女性がターゲットにされることも多く、テレグラムなどの匿名性の高いツールやSNSがディープフェイク拡散の主要な経路となっています。これらの映像はインターネット上で拡散され、一度出回ると削除が困難なケースが多いです。
小中高校生のディープフェイク被害者 今年804人=韓国 | 聯合ニュース (yna.co.kr)
被害数について、上記の記事にて以下のように説明されています。
1回目の調査(8月27日まで)では196人だった被害者数は、2回目調査(9月6日まで)で421人増え、3回目調査(9月13日まで)では105人、4回目調査(9月27日まで)は111人増えるなど、毎回100人以上増えていたが、今回は7人だった。前回までの調査でほとんどの被害が報告されたためとみられる。
技術の普及により、作成の敷居が低くなっており、当初芸能人の写真が悪用されるケースが多かった中、最近ではSNSに何気なく投稿した写真が、思わぬ形で悪用されるという事例が急増しています。
韓国では、2020年にも法改正が行われましたが、被害は減少せず、厳罰化を求める声が高まったことから、さらなる対策の強化が求められ、韓国国会は先月26日、偽の画像や動画に対する罰則を強化する法案を賛成多数で可決しました。
この法案では、ディープフェイクで作成された偽の画像や動画を所持、保存、または視聴する行為も処罰対象となり、3年以下の懲役または3000万ウォン(約320万円)の罰金が科されます。さらに、偽の画像や動画を作成した場合、現行の5年以下の懲役から7年以下に引き上げられることになりました。
ディープフェイクによる性被害を防ぐためには、法律や技術的な対応だけでなく、私たち一人ひとりが対策を講じることも重要です。
インターネット上の情報に対して批判的な視点を持ち、信頼できないサイトやコンテンツにアクセスしないことが重要です。また、ディープフェイクのリスクを認識し、他人の写真や個人情報を公開しないように心がけることも防止策の一つです。
万が一、自分や知人がディープフェイクの被害に遭った場合、速やかに適切な機関や警察に相談することが大切です。性被害は他人に相談しづらいものですが、被害の拡大を防ぐためにも、できるだけ早く信頼できる人に相談するようにしましょう。
学校や職場でのインターネットリテラシー教育の充実が不可欠です。若者や子どもに対して、ディープフェイクの危険性やプライバシー保護の重要性を伝えることで、将来的な被害を防ぐことができます。また、SNSやオンラインプラットフォームでも、これらの問題に関する啓発活動を行うことが求められます。
ディープフェイク技術は、その利便性とは裏腹に悪用されることで深刻な性被害を引き起こします。
韓国では、ディープフェイク技術を悪用した性的被害が深刻化しており、SNSや通信アプリ「テレグラム」で、女性や未成年の写真が無断でわいせつな映像に変えられ、拡散されるケースが増えています。
こうした犯罪を防ぐため、韓国政府は法的罰則の強化に取り組んでいますが、被害は依然として続いています。ディープフェイクによる性被害は日本でも起きており、クローズドな空間でやりとりができるSNSで公開されるトラブルも発生しています。技術や法律の整備に加え、インターネットリテラシーの向上や社会全体での意識改革が、今後の課題として重要視されています。
スクールガーディアンでは、SNSを安全に使用する上での注意点を生徒に伝える「ネットリテラシー講演」を行っています。ご興味がある際には、お声掛けください。