女性の画像を送ると数分でディープフェイクヌードに変換するbotがSNSのTelegram上で稼働しており、10万人以上の女性の画像が変換されたとセキュリティ企業が報告した。
同社によると、2019年7月からTelegram上のディープフェイクbotがリアルな女性の画像から本人が知らないうちに「DeepNude」を生成し、Telegram上で拡散しているという。標的になったことが確認できたのは2020年7月現在で10万4852人。Sensityのジョルジオ・パトリーニCEOは、「画像付きのSNSアカウントを持っていれば、誰もが標的になる可能性がある」と警告する。
このAI botに女性の写真を送ると、無料で数分でヌードに変換するという。ただし、無料では部分的にしか見られず、完全に表示するには料金を支払う必要がある。
英BBCがこのbotの管理者「P」にコンタクトしたところ、これは暴力を伴わない娯楽であり、生成する画像の品質が低いので、悪用されることはないだろうと語った。
BBCが了承を得た上で幾つかの女性の画像で試したところ、リアルなものはなく、中にはヘソの位置がかなり横にあるものもあったとしている。
SensityはTelegramにレポートを送ったが、返答はなかったという。
ソース
https://www.itmedia.co.jp/news/articles/2010/21/news071.html
- 関連記事
-
-
「掲載すれば稼げる」アダルトサイトに女性選手の性的画像 著作権法違反の疑いで3人書類送検
-
女性芸能人のわいせつ動画をAIで無断作成2人起訴
-
10万人以上の女性のディープフェイクヌード、Telegram上で拡散──Sensity調べ
-
「AVマーケット」摘発の影響広がる、児童ポルノの「購入者」は逮捕されるの?
-
女性を性奴隷にしチャットで共有「n番部屋」創始者に無期懲役を求刑 韓国
-