【疑問解決】iPhoneの最新技術は児童ポルノ画像を検出してプライバシー侵害する?

【疑問解決】iPhoneの最新技術は児童ポルノ画像を検出してプライバシー侵害する?
スマホパソコンパソコン・スマホ教室情報セキュリティ
スポンサーリンク

大人が、言葉たくみに子どもをダマして、卑猥な画像を要求したり、無理やり写真を撮影して「ネット上にバラまくぞ!」なんて脅しの材料として使う人間がいたり、色々な事件は日本だけではなく、世界でも起こっています。

そんな中、Appleが、2021年8月5日(米国時間)新しい技術を今後実装することを発表しました。

それは、iPhoneやiPadの児童ポルノ画像を検出することが出来る新機能!

何か聞いたことある!ニュースで見た事ある!最近人気Youtuberの人も捕まってたから、ちょっと気になってた!なんて人は多いと思います。

でも、「いつから始まるの?」「誤認逮捕につながらないの?」「勝手に人の写真みるなんてプライバシーの侵害なんじゃないの?」などなど、よくわからないことって多いですよね?

本記事は、最後まで読んでいただければ、あなたの疑問を解決できる内容になっています。

学生や保護者であれば、決して他人ごとではない内容ですので、しっかり確認しておきましょう。

また、記事に記載されていないことで疑問がありましたら、記事の最後にコメント欄がございますので、そちらに書きこみをお願いします。

スポンサーリンク

iPhoneの児童ポルノ画像を検出するシステムとは

iPhoneの児童ポルノ画像を検出するシステムとは

iPhoneの児童ポルノ画像を検出するシステムとは


結論、児童ポルノ画像をiPhoneやiPadで保存していると、Apple IDのアカウント停止されたうえで、警察に逮捕されることになるシステムです。

もちろん、Appleが警察に直で連絡するわけではありません。システムとしてカラクリがあります。

Appleは児童ポルノ画像(CSAM)を規制するために、独自のプログラム(neuralMatch)を使って、iCloud Photos内のデータと全米行方不明・搾取児童センター(NCMEC)の児童性的虐待画像のデータベースと照合し、児童ポルノ画像と認識できるものについては、法的機関と連携し、対応をしていくというものです。

データベースと照らし合わせるのは、ハッシュと呼ばれるデータです。

写真や画像を数値コード(ハッシュ)に変換し、データベース内の児童ポルノ画像と同じ数値コードかどうかを認識するシステムです。

簡単に言うと、写真を数値にして数値同士で該当しているかどうかを判断するものです。システムの精度も高く、1年間でシステムが間違うことは、1年に1兆分の1未満(0.000000000001%)とAppleも豪語しているほど正確なシステムとのことです。

The threshold is set to provide an extremely high level of accuracy and ensures less than a one in one trillion chance per year of incorrectly flagging a given account.
引用元:Apple公式ホームページ「Expanded Protections for Children」

そして、他のクラウドサービスのシステムは、クラウド上に保存されているデータを広範囲で児童ポルノ画像かどうか認識するシステムに対し、Appleの新システムはすべての画像をスキャンするわけではないので、ユーザーに対して一定の配慮をしているシステムになります。

このシステムは、iOS 15、iPadOS 15、watchOS 8、およびmacOSMontereyのアップデートで、2021年の後半に導入されることをAppleは明言しています。

These features are coming later this year in updates to iOS 15, iPadOS 15, watchOS 8, and macOS Monterey.
引用元:Apple公式ホームページ「Expanded Protections for Children」

最初にアメリカから始まっていく予定のようですが、NCMECは日本の法的機関にも情報を提出することができるので、児童ポルノの被害を少しでも抑えるためにも、今後日本にも導入されていくことになるでしょう。

つまり、AppleがNCMECのデータベースと連携し、児童ポルノ画像と認識されれば、それ相応の対応(アカウント停止)が待っている。その情報をもとに、法的機関に情報が流され、結果として、児童ポルノ画像を所持している人間は捕まるといったわけです。

また、Appleは子供を利用・悪用しようとする大人から保護する機能を強化するために、「メッセージアプリで、性的な写真を送受信するときに、子どもと親に警告する機能」「Siriと検索で児童ポルノに該当するコンテンツの検索について注意を促す機能」も追加する予定のようです。

児童ポルノ被害に合わない為の新しいフィルターと通知機能

「メッセージアプリで、性的な写真を送受信するときに、子どもと親に警告する機能」は、性的な画像を受信すると、写真がぼやけ、子供に警告が表示され、見るか見ないかを選択することができるようになります。今までは、メッセージを開くまで内容を確認することはできませんでしたが、今後は事前に、iPhoneやiPadから警告のポップアップが表示されるようになる予定です。

そして、保護者である親に、「自分の子どもが性的なメッセージを開いたかどうか」や「子ども自身が静的な写真を送ろうとした」場合に、通知が届くようになります。

児童ポルノに関するSiriと検索機能の制限

「Siriと検索で児童ポルノに該当するコンテンツの検索について注意を促す機能」は、児童ポルノコンテンツを検索することに対しての注意を促す機能のようです。児童ポルノコンテンツに該当するような検索キーワードをSiriに話しかけたり、実際に検索しようとすると、「子どもの性的虐待を描いた資料は違法」という表示で警告してくれます。

日本における児童ポルノの定義と罰則について

正直、他人の性癖を否定したいわけではないですが、子どもを導いたり、教育していく役目の大人やある程度の成熟した人が、自分の私利私欲のために、子どもを性的な感情で利用しようとする考えが、虫唾が走ります。

お前らのオモチャじゃねぇんだよ!

そもそも、児童ポルノ画像や動画は、日本を含むほとんどの国で作成・所有・保存・配布することは違法です。国によっては、罰金と懲役刑(5年~終身刑)はもちろん、死刑になるケースもあります。

日本の場合ですと、「児童買春、児童ポルノに係る行為等の規制及び処罰並びに児童の保護等に関する法律」の条文に、どんなものが児童ポルノに該当するのかと罰則についての記載があります。

詳しく知りたい方は条文をしっかり確認してください。

条文をかんたんに要約してわかりやすく説明すると、「年齢が18歳未満の全裸や半裸など性行為を連想させるような卑猥な写真や動画(等)」があったらアウトです。児童ポルノ法違反になります。

罰則は、所持<配布<拡散の順で罪が重くなっていきます。

児童ポルノ画像の所持については、1年以下の懲役又は100万円以下の罰金。児童ポルノ画像を他人に配布した(渡した)場合は、3年以下の懲役又は300万円以下の罰金。児童ポルノ画像や動画を不特定若しくは多数の者に提供し、ネット上に拡散した場合は、5年以下の懲役若しくは500万円以下の罰金。

このように、児童ポルノ画像や動画を所持<配布<拡散した順で、罰則の重さが変わってきます。罰則の重さは、被害者が受ける精神的苦痛の重さだと考えることもできます。

例えば、自分の性的な画像を相手に送ってしまったとして、相手がSNSなどのネット上に拡散した場合は、一生画像や動画は残り続けることになるでしょう。街を歩くと、後ろ指を指されることもあるかもしれません。学校や会社の同僚に裏で陰口を言われたり、それをネタに何度も何度も、苦しい辛い思いをしなければいけなくなります。デジタルタトゥーとなって、個人情報を特定され、一生おもちゃにされるかもしれません。そんな最悪な状況は誰しも望んでいません。

昨今、インターネットやSNSが爆発的に普及し、誰でも自由に発信でき、簡単につながれるようになった時代だからこそ増加の一途をたどり、対策を取っていかなければいけない問題です。

ちなみに、アメリカの法律では、米国企業はオンラインでの児童の性的搾取の急増を減らし、オンラインでの児童の性的搾取を防ぐために、全米行方不明・搾取児童センター(NCMEC)に報告することが義務化されています。

(1)In general.—
(A)Duty.—In order to reduce the proliferation of online child sexual exploitation and to prevent the online sexual exploitation of children, a provider—
引用元: 18 U.S. Code § 2258A – Reporting requirements of providers

Appleは、iPhoneやiPadなどで保存されている画像について、現行の米国法律と現代社会の闇に合わせたしかるべき対応をしていくことにしたということになります。

Appleは、児童ポルノ法に違反している写真や画像の報告義務をしなかった場合は、最大で300,000ドル以下(約3,300万円)の罰金を払わなければいけなくなります。

Appleが独自のシステムを導入することにより、これまでよりも多くの企業が児童ポルノの対応を強いられるでしょう。

しかし、「セキュリティの面で不安要素もあるのでは?」「プライバシーの侵害につながるのでは?」という意見もあります。

Appleがプライバシーの侵害や新たな問題を助長する?

Appleがプライバシーの侵害や新たな問題を助長する?

Appleがプライバシーの侵害や新たな問題を助長する?


Appleが、発表した児童ポルノ画像(CSAM)を抑止することができる「子どもを守るために考案されたシステム」は、実は複雑な問題を抱えています。

どのような問題を抱えているのでしょうか。

一部のユーザーからは「すべての人のプライバシーとセキュリティを危険にさらしてしまうのでは?」「権威をふりかざして服従させ、黙らせるため国では悪用されるのでは?」「誤った認識をしてしまい、意図しないアカウント停止や逮捕につながってしまうのでは?」という意見もあります。

それはなぜでしょうか。

心配されている点は大きく3つです。

Appleの新システムの懸念点

  • システムが悪用されてしまう可能性がある。
  • 個人のプライバシーが侵害されてしまう可能性がある。
  • システムが中途半端。

3つの側面から総合して、もっとAppleは今回の新システムについて考えた方がいいのでは?という意見がとても多いです。

1つ1つ詳しく解説していきます。

システムが悪用されてしまう可能性がある

Appleや悪意あるユーザーが、個人のデータにアクセスできるようになるのではないかということが心配されています。

Appleは、iCloud Photos内のデータを、全米行方不明・搾取児童センター(NCMEC)のデータベースと照合して、該当の写真があった場合に、児童ポルノの疑いが検出されると1件1件手動で確認し、児童ポルノと一致するものがあるかを判断され、内容が児童ポルノと認識されれば、該当ユーザーのアカウントを無効にし、法執行機関に報告するための措置を取ることになるものです。

もちろん、これはシステム自体を悪用された場合、国や政府によっては、政治的・宗教的にも利用される可能性も考えられます。

例えば、あなたの写真が知らない人に見られてしまう。児童ポルノ画像と勝手に認識されたデータに改ざんされてしまう。などiPhoneなどを持っているユーザーに対して意図しないデータ漏洩・改ざんが起こる可能性が絶対ないか?と言われるとゼロではないと思われます。

万が一でも、システムを悪用された場合、Apple製品を使用している全ユーザーのデータが危険にさらされます。

そして、Apple自身がこのデータを自社にメリットがあるように使用しないかどうか、Apple社が個人のデータを監視してマーケティングを行い、自社のメリットとしてしまうのではないかという点についても懸念される点です。

つまり、一定数の人がAppleの新システムに対して、情報漏洩や改ざんのリスクがあることを不安に思っているということです。

個人のプライバシーが侵害されてしまう可能性がある

Appleが個人のユーザーのデータにアクセスしたり、児童ポルノの検出の技術が、国や政府などによって児童ポルノ以外の検出に使われる可能性が心配されています。

先ほどのシステムが悪用されてしまうという話と似ています。

Appleとしては、各個人のプライバシーに配慮しているシステムという点を公開していますし、児童ポルノ画像の検出以外には、政治的な圧力があったとしてもシステムを使わないと明言しています。

Could governments force Apple to add non-CSAM images to the hash list?
Apple will refuse any such demands.
引用元:Apple公式資料「Expanded Protections for Children Frequently Asked Questions」

しかし、それでも「Appleのさじ加減でどうにでもなってしまうでは?」という心配や「独裁国家の法律が、新たに制定されて個人のプライバシーを侵害する結果になるのでは?」という不安はぬぐい切れません。

また、個人の中では、子どもの成長過程を写真で撮っていた際に、たまたま裸の写真や動画の撮影をしてしまった。このデータが、児童ポルノとして認識されてしまったら?と考える人も多いようです。

Appleは、NCMECのデータと照合した上で、システムが検出したモノを基にして、人の目で判断すると言っていますが、そもそもの判断基準が国や人種によって違う以上なかなか難しいです。

児童ポルノ画像と認識するのはプログラムであり、自動で一定の数値の確認をおこなう機械です。もちろん、Apple自体は、誤りが起こる確率は0.000000000001%(年間)という風に豪語しているシステムを使った後に、手動で他の写真をチェックすると明言していますが、間違いが起こる可能性は0%ではない以上、プログラムが誤った場合は、あなたの写真はチェックされてしまいます。

それって、プライバシー保護の観点からいってどうなの?自分自身のデータを、第三者に勝手にみられることになるということは、プライバシーの侵害にあたるのでは?という「誰が」「どのような内容」のデータ持っているかどうかは原則自由であり、それを監視する行為は基本的な人権の侵害であると考えている人もいます。

そして、国によっては、Appleの新システムの影響で、政治的な弾圧や誤認逮捕につながってしまうという不安感はどうしてもあります。

Appleが政治的な圧力に屈することはないとは思いますが、今後の国や政府の圧力にたいして、どのような対応を取っていくのかは誰にもわかりません。

例えば、今回の児童ポルノ画像を検出するシステムが、合法的に改変され、特定の写真を持っている人間を強制的に逮捕するなんてことが絶対に今後ないのかと言われてしまうと断言はできません。なぜなら、すでに中国ではiCloudのデータは中国政府の検閲システムの監視下にあるからです。

そんな国によって対応が違う光景を見て、Appleの意向が100%通るわけではないことを多くのユーザーが理解しています。

だから、不安に思っているユーザーが一定数いるのです。

システムが中途半端

目的はすばらしいが、本当に児童ポルノの被害をApple製品から根絶するのであれば、検出条件と範囲が中途半端すぎる。

これは完全に個人的な意見になってしまうのですが、「画像を検出する条件がiCloudフォトに限定されていること」「動画は対象外」なことの2点がどうも引っかかってしまいます。

Appleは児童ポルノ画像の検出を行う範囲をiCloudフォトに限定しているということは、ユーザーの設定次第では意味をなさないということ。

Does this mean Apple is going to scan all the photos stored on my iPhone?
No. By design, this feature only applies to photos that the user chooses to upload to iCloud
Photos, and even then Apple only learns about accounts that are storing collections of known
CSAM images, and only the images that match to known CSAM. The system does not work for
users who have iCloud Photos disabled. This feature does not work on your private iPhone photo library on the device.
引用元:Apple公式資料「Expanded Protections for Children Frequently Asked Questions」

これは、プライバシーを尊重する行動なのかもしれませんが、個人の設定でどうにでもできるという点はよろしくない。

また、児童ポルノの被害って画像だけじゃないよね?動画も含まれてますよね?ってどうしても思ってしまいます。

個々人のデバイス端末のプライバシーの問題は非常に難しいため、現状できる精一杯だとは思いますが、本当の意味で、児童ポルノの被害者を減らしたいのであれば、少なからず2点は対応する意思表示をしなければ、抑止力としてはすごく中途半端だなっとどうしても思ってしまいます。

今後、条件と範囲の拡大は予測されますが、新しい問題の火付けになりそうな予感がします。

あなたの疑問を突っ込んで回答

iOS15で登場予定の新システムについての疑問を突っ込んで回答

iOS15で登場予定の新システムについての疑問を突っ込んで回答


では、iPhoneの児童ポルノ画像を検出するシステムについて、多くの人が疑問に思う部分について、少し掘り下げて解説していきます。

ここまでで解説した内容で多くの方が疑問に思われた部分を、深く掘り下げて解説していきたいと思います。

Appleの新機能についての疑問

  • いつ日本で実装されるの?
  • CSAMってなに?
  • NCMECって日本に関係あるの?
  • iPhoneだけなの?
  • Appleだけが取り組んでいるの?
  • プライバシーの侵害にならないの?
  • 誤認逮捕や間違ってアカウント停止にならないの?

もし、あなたの疑問が上に記載されていなかったら、下のコメント欄からご質問いただければ可能な限りお答えさせていただきます。

それでは、1つ1つ解説していきましょう。

いつ日本で実装されるの?

疑問に感じる人
Appleが発表した児童ポルノ画像を検出するシステムっていつから日本に実装されるのでしょうか?

結論、未定です。

Appleは、iPhoneの児童ポルノ画像や動画を検出するシステムを、iOS 15、iPadOS 15、watchOS 8、およびmacOSMontereyのアップデートで、2021年の後半に導入されることをAppleは明言しています。

These features are coming later this year in updates to iOS 15, iPadOS 15, watchOS 8, and macOS Monterey.
引用元:Apple公式ホームページ「Expanded Protections for Children」

しかし、まずアメリカからスタートする予定なので、iOS 15が登場したからと言ってすぐに、日本でも適用されるかは未定です。ですが、iOS 15から導入予定かつiCloud Photosを対象にするということは、2021年の今年中か2022年上旬には、日本も対象になる可能性は高いです。

2021年9月3日にAppleから導入延期についての発表がありました。詳しくは別の記事で詳しく解説していますのでそちらをご覧ください。

Appleが児童ポルノ写真のスキャン導入を無期限延期へ?理由と今後の導入時期について
Appleは8月5日(米国時間)に、iPhoneやiPadの児童ポルノ画像を検出することが出来る新機能を、iOS15で搭載することを発表しました。 児童ポルノの被害者からしてみれば、助け船になる新機能の発表でした。 しかし、実現することは叶...

CSAMってなに?

疑問に感じる人
Appleの児童ポルノ画像を検出するシステムの説明で「CSAM」って話があったけど意味がよくわかりません。どんな意味なのでしょうか?

結論、児童性的虐待に関する紙や写真やデータなどを、すべてを指した言葉です。

Child Sexual Abuse Material=直訳すると、「児童の性的虐待資料」となります。

日本でいうところの、児童ポルノ法で違反になるデータすべてって置き換えるとわかりやすいと思います。

NCMECって日本に関係あるの?

疑問に感じる人
全米行方不明・搾取児童センター(NCMEC)って海外の団体でしょ?日本に関係あるの?

結論、めちゃめちゃ関係あります。

たしかに、アメリカに拠点を置く、海外の民間企業団体です。

ですが、日本人からNCMECへ児童ポルノの内容に対して、問い合わせしているケースが年間で数万件以上(2020年の問い合わせ実績:33,886件)あると言われています。

NCMECは、全世界規模で児童ポルノのトラブルに対応しており、多くの実績があります。あなた自身悩んでいることがあれば、連絡することで解決へとつながる可能性はあります。

日本での実績が多いということは、それだけ警察や法的機関と連携をとってきているということになります。

親や警察に話しずらい内容もあると思います。そんなときは、サイトにアクセスして連絡してみて下さい。

ちなみに、NCMEC(The National Center for Missing & Exploited Children)は、非営利の民間企業であり、「子どもの被害を防ぐこと」を理念しています。家族、被害者、民間企業、法執行機関、および一般市民と協力して、子供の誘拐の防止、行方不明の子供の回復、および子供の性的搾取を阻止および撲滅するための活動団体です。

About Us
The National Center for Missing & Exploited Children is a private, non-profit 501(c)(3) corporation whose mission is to help find missing children, reduce child sexual exploitation, and prevent child victimization. NCMEC works with families, victims, private industry, law enforcement, and the public to assist with preventing child abductions, recovering missing children, and providing services to deter and combat child sexual exploitation.
引用元:NCMEC「About Us」

イメージしやすいところで言うと、Twitterで「児童の性的搾取に関する問題報告」などをする際に、アカウントの凍結やアカBANになる。この仕組みがNCMECに関係してきます。

アメリカの企業や海外の企業では、児童ポルノに関する問題がある場合、サービスを提供している提供者(Twitter・Facebook・Instagramなど)は、NCMECに内容の報告することを義務付けしています。多くの投稿型WebサイトやSNSの企業は、健全な運営のために違法な行為については、NCMECとも連携をして厳しく対応しているといった背景があります。

つまり、日本人の多くが活用しているサービスにおいても、NCMECは連携して対応することができるので、NCMECという企業団体は日本にも関係があるということです。

iPhoneだけなの?

疑問に感じる人
今回の自動検出システムってiPhoneだけなの?iPadやMacは対象外なの?

結論、違います。

iPhoneだけでなく、iPadやMacにも関係してきます。

iOS 15、iPadOS 15、watchOS 8、およびmacOSMontereyのアップデートにて、iCloud Photos内のデータと全米行方不明・搾取児童センター(NCMEC)の児童性的虐待画像のデータベースと照合し、児童ポルノ画像と認識できるものについては、法的機関と連携し、対応をしていくことになるので、iCloud Photosを活用できる端末すべてが対象になる予定なので、iPhoneだけに限った話ではありません。

Appleだけが取り組んでいるの?

疑問に感じる人
児童ポルノ写真を検出するシステムが、結構さわがれているけど、Appleだけがやっているの?

結論、違います。

今回のさわがれている理由は、「システムが悪用されてしまう可能性がある。」「個人のプライバシーが侵害されてしまう可能性がある。」の2つです。

児童ポルノの被害については、日本だけの問題でもAppleだけの問題でもなく、世界規模で問題になっている内容なので、Google・Microsoft・Amazon・Facebook・Twitterなどの企業のクラウドサーバーにデータがある多くのサービスは、すでに児童ポルノに該当するような違法コンテンツを検出するために自社のクラウドサーバー内のデータを含む、ユーザーの動きをチェックしています。

要は、Appleは後発ですね。

しかし、Appleの今回導入予定のシステムは、他のクラウドサービスとは違い、クラウドに保管されたデータを広範囲でチェックするものではないので、ざっくりと言うとやっていることは似ているが、範囲や条件などは全然違う内容になっています。

プライバシーの侵害にならないの?

怒る人
これ勝手に俺の写真見られるってことだよね!プライバシーの侵害になるんじゃないの!?

結論、なりません。

プライバシーの侵害にあたる行為をご存知でしょうか?

一般的にプライバシーの侵害とは「公然の場所で本人が望んでいないにもかかわらず、私生活の様子や個人情報が公開された場合」を指します。一見すると、今回のケースは児童ポルノ法に抵触しているクズ野郎でも該当する可能性が高いように感じますが、iCloudフォトをオフにしていれば、認識されないので、本人の設定次第で選択することができます。

つまり、プライバシーの侵害にあたりそうだけど、現行の日本の法律ではプライバシーの侵害には該当しません。

誤認逮捕や間違ってアカウント停止にならないの?

怒る人
画像を検出するってシステムでやると100%じゃないでしょ!?誤認逮捕に繋がったり、間違ったアカウント停止とかになるってことだよね!?

結論、ゼロではないです。

ただし、確率は0.000000000001%です。イメージしやすいのが、雷に人があたる確率が0.0001%なので、雷が人に当たるより100万倍ないです。

つまり、間違った誤認逮捕やアカウント停止はゼロではないが極めて確率が低いです。もし、誤認逮捕されたら、Appleを訴えましょう。

まとめ

児童ポルノによる被害は、幼い心にトラウマを残す重罪です。自分自身の利益や欲求のためだけに、子どもの人生をぶっ壊している人もいます。未来ある若者の人生をぶっ壊していいわけないでしょ!

2021年後半に導入予定のAppleのシステムは、児童ポルノによって苦しめられている被害を減らし、加害者にしかるべき罰を与えることができるようになる1つの突破口になるかもしれません。

技術が発展することで、幼い弱者(考えが成熟していない・正常な考え方をしにくい)を搾取することがなくなる1つのきっかけになってくれることを祈っています。

最後に、ここまで見てくれた人の中で、もし、児童ポルノの被害にあって困っている人が身近にいて相談を受けたら、よく話を聞いてあげてください。いきなり、話をされたら、どんな人でもビックリしてしまうと思います。でも、頭ごなしに否定したり、怒ったりしないでください。その行動をしてしまうことで、相手が話せなくなってしまいます。

相手との会話を避けないことが重要なので、あなたが相談相手に選ばれたときには、しっかりと相手と話をしてください。

相談をされているということは、あなただったら助けてくれるかもしれない。何とかしてくれるかもしれない。と思われているから相談してくれているわけなので、まずは相手を受け入れてください。お願いいたします。

ホームページ・インフラ担当が副業やるってよ!

Twitter:@Uriuri_writer

Instagram:@uriuri_writer
Instagram

コメント

  1. […] 【疑問解決】iPhoneの最新技術は児童ポルノ画像を検出してプライバシー侵害する? […]

タイトルとURLをコピーしました