パスワードを忘れた? アカウント作成
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
2021年8月12日のアップル記事一覧(全1件)
15375204 story
OS

Apple、波紋を呼んだ児童虐待画像(CSAM)の検出技術に関してFAQを公開 34

ストーリー by nagazou
ブラックボックスな部分が多い 部門より
Appleが8月5日に発表した児童性的虐待コンテンツ(CSAM)機能は、各所からプライバシーの扱いにおいて議論を呼んでいる。具体的にはAppleや政府などの機関がこの機能を使用してユーザーのデータにアクセスするのではないかとする懸念だ。このためAppleは8日、この機能に関するFAQを公開した(FAQページ[PDF]MIT Tech ReviewITmediaCNET)。

曰くこのCSAM対策機能は、データベースに登録されている既知のCSAM画像と完全一致した場合のみ検出する仕組みであり、政府からの拡張要求には応じないとしている。CSAM画像検出以外の目的でシステムが使用されるのを防ぐための仕組みとして、画像リストは全米行方不明・搾取児童センター(NCMEC)やその他の児童安全組織によって提供されているものだけを使用すると主張する。

しかし、TheVergeの記事によれば、Appleは過去に各国の政府に譲歩してきた経緯がある。暗号化された電話を許可していないサウジアラビア、パキスタンなどの国ではFaceTimeのないiPhoneを販売しており、中国では政府からの要求でApp Storeから何千ものアプリを削除し、ユーザーデータを該当国内に移動する要求に関しても応えてきたと指摘している(TheVerge)。

この記事では、今回公開されたFAQでは、メッセージをスキャンしてCSAMを探す機能では、法執行機関と情報を共有しないとしているが、このツールの焦点が性的に露骨な画像のみであることをどうやって保証しているのかについては言及されておらず、ユーザー側の懸念にも回答し切れていないとしている。
typodupeerror

「科学者は100%安全だと保証できないものは動かしてはならない」、科学者「えっ」、プログラマ「えっ」

読み込み中...