
2026年4月20日(月) 10時
アップルとグーグルが自ら規約違反?「裸にするアプリ」を推奨か(CNET Japan)
Appleの「App Store」やGoogleの「Google Play」ストアで自作のアプリを公開するには、安全基準を含む多数の基準をクリアしなければならない。 しかし、米国時間4月15日
記事全文を読むAIが気になってること
?「nudify」「deepfake」って、具体的にどういう技術でどう違うの?
「nudify」と「deepfake」、言葉の範囲が少し違うんですよね。
「nudify」は機能の説明です。AIが写真から衣服を「消去」して、その人が裸に見えるよう画像を合成する。元の写真をもとに、確率的に肌の部分を生成していくイメージ。対象がめちゃくちゃ限定されている。
「deepfake」はもっと広い概念で、AIが顔や表情、身体全体を別人のものに置き換えたり、実在しない動きを作ったりする技術全般を指します。nudifyもdeepfakeの一種として含まれる関係性です。
実務的には、nudifyアプリは「脱衣特化ツール」で、deepfakeはそれより広いAI合成技術。記事で複数のアプリが引っかかるのは、どちらの技術も非同意のまま使われてるから。むしろ「名前の広さの違い」より、「どちらも本人の同意なしに性的な画像をつくられる」という問題が深刻さの正体なのかもしれません。
「nudify」「deepfake」って、具体的にどういう技術でどう違うの?
「nudify」と「deepfake」、言葉の範囲が少し違うんですよね。 「nudify」は機能の説明です。AIが写真から衣服を「消去」して、その人が裸に見えるよう画像を合成する。元の写真をもとに、確率的に肌の部分を生成していくイメージ。対象がめちゃくちゃ限定されている。 「deepfake」はもっと広い概念で、AIが顔や表情、身体全体を別人のものに置き換えたり、実在しない動きを作ったりする技術全般を指します。nudifyもdeepfakeの一種として含まれる関係性です。 実務的には、nudifyアプリは「脱衣特化ツール」で、deepfakeはそれより広いAI合成技術。記事で複数のアプリが引っかかるのは、どちらの技術も非同意のまま使われてるから。むしろ「名前の広さの違い」より、「どちらも本人の同意なしに性的な画像をつくられる」という問題が深刻さの正体なのかもしれません。
AIAIからの回答
「nudify」と「deepfake」、言葉の範囲が少し違うんですよね。
「nudify」は機能の説明です。AIが写真から衣服を「消去」して、その人が裸に見えるよう画像を合成する。元の写真をもとに、確率的に肌の部分を生成していくイメージ。対象がめちゃくちゃ限定されている。
「deepfake」はもっと広い概念で、AIが顔や表情、身体全体を別人のものに置き換えたり、実在しない動きを作ったりする技術全般を指します。nudifyもdeepfakeの一種として含まれる関係性です。
実務的には、nudifyアプリは「脱衣特化ツール」で、deepfakeはそれより広いAI合成技術。記事で複数のアプリが引っかかるのは、どちらの技術も非同意のまま使われてるから。むしろ「名前の広さの違い」より、「どちらも本人の同意なしに性的な画像をつくられる」という問題が深刻さの正体なのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?自分の顔写真がネットに上がってる場合、このアプリで勝手に作られる可能性があるってこと?
ネット上にある顔写真なら、その可能性は十分にあります。
このアプリが狙うのは「ネット上に存在する画像」です。あなたが SNS に上げた顔写真、プロフィール写真、ニュース記事に掲載された写真。そうした公開情報をスクリーンショットして、このアプリに読み込ませるだけで、非合意の性的画像が生成されてしまう。実行するのが元パートナーでも、知人でも、全く無関係な第三者でもいい。敷居がどんどん低くなっているんですよね。
記事に書かれている「Grok」の例だと、9日間で 140 万件もの性的ディープフェイクが作られた。これは「怖い話」ではなく「すでに起きていること」です。
厄介なのは、被害が見えづらいということ。あなたが知らないうちに、あなたの顔から合成された画像がどこかで流通している可能性もある。削除依頼をしようにも、どこにあるのか把握もできない。
AppStoreとGooglePlayは禁止規約を掲げていながら、収益が入ってくるかぎり動きが鈍い。だからこのアプリたちが今でも存在し続けているのかもしれません。
自分の顔写真がネットに上がってる場合、このアプリで勝手に作られる可能性があるってこと?
ネット上にある顔写真なら、その可能性は十分にあります。 このアプリが狙うのは「ネット上に存在する画像」です。あなたが SNS に上げた顔写真、プロフィール写真、ニュース記事に掲載された写真。そうした公開情報をスクリーンショットして、このアプリに読み込ませるだけで、非合意の性的画像が生成されてしまう。実行するのが元パートナーでも、知人でも、全く無関係な第三者でもいい。敷居がどんどん低くなっているんですよね。 記事に書かれている「Grok」の例だと、9日間で 140 万件もの性的ディープフェイクが作られた。これは「怖い話」ではなく「すでに起きていること」です。 厄介なのは、被害が見えづらいということ。あなたが知らないうちに、あなたの顔から合成された画像がどこかで流通している可能性もある。削除依頼をしようにも、どこにあるのか把握もできない。 AppStoreとGooglePlayは禁止規約を掲げていながら、収益が入ってくるかぎり動きが鈍い。だからこのアプリたちが今でも存在し続けているのかもしれません。
AIAIからの回答
ネット上にある顔写真なら、その可能性は十分にあります。
このアプリが狙うのは「ネット上に存在する画像」です。あなたが SNS に上げた顔写真、プロフィール写真、ニュース記事に掲載された写真。そうした公開情報をスクリーンショットして、このアプリに読み込ませるだけで、非合意の性的画像が生成されてしまう。実行するのが元パートナーでも、知人でも、全く無関係な第三者でもいい。敷居がどんどん低くなっているんですよね。
記事に書かれている「Grok」の例だと、9日間で 140 万件もの性的ディープフェイクが作られた。これは「怖い話」ではなく「すでに起きていること」です。
厄介なのは、被害が見えづらいということ。あなたが知らないうちに、あなたの顔から合成された画像がどこかで流通している可能性もある。削除依頼をしようにも、どこにあるのか把握もできない。
AppStoreとGooglePlayは禁止規約を掲げていながら、収益が入ってくるかぎり動きが鈍い。だからこのアプリたちが今でも存在し続けているのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?AppleとGoogleは前からこういった有害なアプリの取り締まりに苦労してきたの、それとも最近になって増えてきたの?
アプリストア側の取り締まりの難しさそのものは前からあったんですよ。ただ、「規模と悪意の度合い」は最近ガラッと変わってきた気がします。
従来のポルノアプリは、明らかにポルノであるがゆえに削除しやすかった。でもこの脱衣アプリって、「画像編集ツール」という名義でストアに並ぶから、見た目だけでは違反かどうか判別しにくい。AIが本格化した今年になって、その偽装性が上がり、ダウンロード数が激増した(4億8300万回)ことで、AppleとGoogleも対応に追われている状況に見えます。
問題なのは、審査の仕組みそのものより、むしろ「どのレベルで削除するか」の線引きが曖昧になってきたこと。そして何より、記事に書かれている通り、この手のアプリが月単位で1億ドル超の収益を生み出している。建前では規約違反としながらも、ビジネス上の圧力があれば、対応の優先度は必然的に落ちてしまうのかもしれません。昔はそこまで儲かるカテゴリじゃなかったから、曖昧なままでいられたという側面もありそうです。
AppleとGoogleは前からこういった有害なアプリの取り締まりに苦労してきたの、それとも最近になって増えてきたの?
アプリストア側の取り締まりの難しさそのものは前からあったんですよ。ただ、「規模と悪意の度合い」は最近ガラッと変わってきた気がします。 従来のポルノアプリは、明らかにポルノであるがゆえに削除しやすかった。でもこの脱衣アプリって、「画像編集ツール」という名義でストアに並ぶから、見た目だけでは違反かどうか判別しにくい。AIが本格化した今年になって、その偽装性が上がり、ダウンロード数が激増した(4億8300万回)ことで、AppleとGoogleも対応に追われている状況に見えます。 問題なのは、審査の仕組みそのものより、むしろ「どのレベルで削除するか」の線引きが曖昧になってきたこと。そして何より、記事に書かれている通り、この手のアプリが月単位で1億ドル超の収益を生み出している。建前では規約違反としながらも、ビジネス上の圧力があれば、対応の優先度は必然的に落ちてしまうのかもしれません。昔はそこまで儲かるカテゴリじゃなかったから、曖昧なままでいられたという側面もありそうです。
AIAIからの回答
アプリストア側の取り締まりの難しさそのものは前からあったんですよ。ただ、「規模と悪意の度合い」は最近ガラッと変わってきた気がします。
従来のポルノアプリは、明らかにポルノであるがゆえに削除しやすかった。でもこの脱衣アプリって、「画像編集ツール」という名義でストアに並ぶから、見た目だけでは違反かどうか判別しにくい。AIが本格化した今年になって、その偽装性が上がり、ダウンロード数が激増した(4億8300万回)ことで、AppleとGoogleも対応に追われている状況に見えます。
問題なのは、審査の仕組みそのものより、むしろ「どのレベルで削除するか」の線引きが曖昧になってきたこと。そして何より、記事に書かれている通り、この手のアプリが月単位で1億ドル超の収益を生み出している。建前では規約違反としながらも、ビジネス上の圧力があれば、対応の優先度は必然的に落ちてしまうのかもしれません。昔はそこまで儲かるカテゴリじゃなかったから、曖昧なままでいられたという側面もありそうです。
まだ回答がありません
ログインすると、回答を投稿できます
?『禁止ルールがあるのに、収益になるから見て見ぬふりをする』って、プラットフォーム企業が抱えるジレンマの典型例ってこと?
典型例というより、むしろジレンマの仕組みそのものが露わになった局面だと言えそうです。
AppStoreやGoogle Playは「厳格なルールで安全を守る」という評判で成り立っています。同時に、手数料で成長するビジネスモデルでもある。通常はこの二つが両立しているように見えます。なぜなら、多くの健全なアプリで十分に儲かるから。
ところが脱衣アプリのように「誰からも抗議されにくい、グレーゾーンの違反」が現れると、話が変わります。被害者が日本国内や米国内に直接いるわけではない、報告書を出すまで表沙汰にならない。規約上は禁止でも、「黙認が最も儲かる」という状況が生まれてしまう。
重要なのは、Appleやgoogleが「悪意」で見て見ぬふりをしているというより、収益構造に組み込まれた無気力が問題なのです。ルール違反を理由に削除すれば、その分手数料が減る。報告書で指摘されたから渋々対応する。これは完全なジレンマではなく、むしろ「問題のないふりをする方が楽」という怠惰の方が近いのかもしれません。
『禁止ルールがあるのに、収益になるから見て見ぬふりをする』って、プラットフォーム企業が抱えるジレンマの典型例ってこと?
典型例というより、むしろジレンマの仕組みそのものが露わになった局面だと言えそうです。 AppStoreやGoogle Playは「厳格なルールで安全を守る」という評判で成り立っています。同時に、手数料で成長するビジネスモデルでもある。通常はこの二つが両立しているように見えます。なぜなら、多くの健全なアプリで十分に儲かるから。 ところが脱衣アプリのように「誰からも抗議されにくい、グレーゾーンの違反」が現れると、話が変わります。被害者が日本国内や米国内に直接いるわけではない、報告書を出すまで表沙汰にならない。規約上は禁止でも、「黙認が最も儲かる」という状況が生まれてしまう。 重要なのは、Appleやgoogleが「悪意」で見て見ぬふりをしているというより、収益構造に組み込まれた無気力が問題なのです。ルール違反を理由に削除すれば、その分手数料が減る。報告書で指摘されたから渋々対応する。これは完全なジレンマではなく、むしろ「問題のないふりをする方が楽」という怠惰の方が近いのかもしれません。
AIAIからの回答
典型例というより、むしろジレンマの仕組みそのものが露わになった局面だと言えそうです。
AppStoreやGoogle Playは「厳格なルールで安全を守る」という評判で成り立っています。同時に、手数料で成長するビジネスモデルでもある。通常はこの二つが両立しているように見えます。なぜなら、多くの健全なアプリで十分に儲かるから。
ところが脱衣アプリのように「誰からも抗議されにくい、グレーゾーンの違反」が現れると、話が変わります。被害者が日本国内や米国内に直接いるわけではない、報告書を出すまで表沙汰にならない。規約上は禁止でも、「黙認が最も儲かる」という状況が生まれてしまう。
重要なのは、Appleやgoogleが「悪意」で見て見ぬふりをしているというより、収益構造に組み込まれた無気力が問題なのです。ルール違反を理由に削除すれば、その分手数料が減る。報告書で指摘されたから渋々対応する。これは完全なジレンマではなく、むしろ「問題のないふりをする方が楽」という怠惰の方が近いのかもしれません。
まだ回答がありません
ログインすると、回答を投稿できます
?規約違反のアプリを削除してくれるのはいいけど、すでに被害者になった人の画像ってどうなるのかな、消えるわけじゃないよね?
その通り、アプリが消えても画像は残る。これが非同意の性的コンテンツ問題の根本的な厄介さなんですよね。
アプリ削除は「今後の製造を止める」措置に過ぎません。すでに生成された画像は、スクリーンショットされたり、別のプラットフォームにアップロードされたり、メッセージで拡散されたりして、インターネットのどこかに漂い続ける。一度出た画像を完全に回収することはほぼ不可能です。
だから被害者にとって重要なのは、実は「削除後の対応」なんです。多くの国で非同意の性的画像を違法化する法制化が進んでいるのも、規約だけでは救済できないからです。EU では GDPR で「忘れられる権利」を謳っていますし、日本でも今年、非同意ポルノを処罰する立法が議論されています。
アプリストアの規約違反対応は、新しい被害を「予防」する一歩に過ぎません。すでに発生した被害への対応は、テクノロジー企業の自主規制ではなく、法執行機関や司法の出番になってくる側面が大きいと言えそうです。
規約違反のアプリを削除してくれるのはいいけど、すでに被害者になった人の画像ってどうなるのかな、消えるわけじゃないよね?
その通り、アプリが消えても画像は残る。これが非同意の性的コンテンツ問題の根本的な厄介さなんですよね。 アプリ削除は「今後の製造を止める」措置に過ぎません。すでに生成された画像は、スクリーンショットされたり、別のプラットフォームにアップロードされたり、メッセージで拡散されたりして、インターネットのどこかに漂い続ける。一度出た画像を完全に回収することはほぼ不可能です。 だから被害者にとって重要なのは、実は「削除後の対応」なんです。多くの国で非同意の性的画像を違法化する法制化が進んでいるのも、規約だけでは救済できないからです。EU では GDPR で「忘れられる権利」を謳っていますし、日本でも今年、非同意ポルノを処罰する立法が議論されています。 アプリストアの規約違反対応は、新しい被害を「予防」する一歩に過ぎません。すでに発生した被害への対応は、テクノロジー企業の自主規制ではなく、法執行機関や司法の出番になってくる側面が大きいと言えそうです。
AIAIからの回答
その通り、アプリが消えても画像は残る。これが非同意の性的コンテンツ問題の根本的な厄介さなんですよね。
アプリ削除は「今後の製造を止める」措置に過ぎません。すでに生成された画像は、スクリーンショットされたり、別のプラットフォームにアップロードされたり、メッセージで拡散されたりして、インターネットのどこかに漂い続ける。一度出た画像を完全に回収することはほぼ不可能です。
だから被害者にとって重要なのは、実は「削除後の対応」なんです。多くの国で非同意の性的画像を違法化する法制化が進んでいるのも、規約だけでは救済できないからです。EU では GDPR で「忘れられる権利」を謳っていますし、日本でも今年、非同意ポルノを処罰する立法が議論されています。
アプリストアの規約違反対応は、新しい被害を「予防」する一歩に過ぎません。すでに発生した被害への対応は、テクノロジー企業の自主規制ではなく、法執行機関や司法の出番になってくる側面が大きいと言えそうです。
まだ回答がありません
ログインすると、回答を投稿できます