社会

「無修正」流出!? “人気女優A・6万3000円”の許しがたい犯罪とは

VGstockstudio / Shutterstock

昨年9月、ネット上に出回った1本の動画が芸能界を騒然とさせた。明らかにプライベートな個人の部屋で撮られたと思われるもので、1人の全裸美女が騎乗位スタイルで喘ぐ〝ハメ撮り動画〟である。

問題はこの女性が人気女優のAにそっくりだったこと。実際、ツイッターではAがトレンド入りするほどの大騒ぎとなった。

「芸能人の名前を騙ったエロ動画は数えきれないほどネットに流れていますが、この動画の女性はルックスも声も驚くほどAにそっくりでしたからね。一部で〝本物〟じゃないかと話題になったんです」(流出モノに詳しいエンタメ誌ライター)

あまりの激似ぶりに衝撃を受けた多くのネット民が本物かどうかの検証を行ったのだが、決め手に欠け、すぐに結論は出なかった。

「特徴ある鼻の形やストレートのロングヘアといった髪型などの目に付く部分はもちろん、髪をかき上げた際に見えるうなじの生え際のラインや、チラリと見える耳やヘソの形など、細部を比べて見ても本人のものとかなり近かった」(ネットメディアライター)

細い腰のくびれやGカップはあると思われる巨乳が揺れる様子は圧巻で、ルックスもスタイルもこれだけAにそっくりな美女はそうはいないだろう。

「このハメ撮り動画は、インスタグラム専用の動画撮影アプリで撮影されたという触れ込みでした。昨年8月頃から一部ネットで流れ出した。元のバージョンは5分ほどあったそうです。これを見つけた誰かが1分ほどに編集して、大々的に拡散させたようですね」(前出のエンタメ誌ライター)

被害に遭った女優は100人以上!?

この流出拡散騒動は意外な結末を迎えた。ディープフェイクポルノ――。ポルノ動画の女性と芸能人の顔をすげ替えた偽物だったのである。AI(人工知能)技術を悪用したもので、昨年10月には警視庁と千葉県警が名誉棄損と著作権法違反の疑いで男2人を逮捕した。新手の犯罪行為であるディープフェイクポルノの初摘発となった。

逮捕されたのは、21歳の大学生と47歳のエンジニア。2人が顔すげ替えに用いたのはディープランニング(深層学習)技術だ。2人の供述などによると、1人につき3万枚の画像を100万回、AIに学習させることでディープフェイクポルノは完成するという。

「ネットの世界ではAVを芸能人の顔にすげ替えた動画は3000本以上流れている。被害に遭った女優などは100人は下らないでしょう。こうしたAIを駆使した技術者は〝職人〟として一部で崇め奉られており、より精巧なフェイクポルノ作品を作成することに情熱を注いでいる。彼らは犯罪意識に乏しいのが特徴です」(事件取材記者)