ITをめぐる法律問題について考える

弁護士水町雅子のIT情報法ブログ

ヨーロッパでの顔認証の議論(FRA Paper 2019)

※完成まで非常に時間がかかりそうなので、とりあえず適当なところで公開していますが、都度更新していく予定です。更新時にはブログ日付は更新せずに、完成時にブログで新記事を起こして、報告予定です。

 

顔認証は、日本だとそこまでの議論になっていませんが、欧米では様々な議論になっているようです。議論を追っかけていきたいと思っているところで、今回は、

FRA(European Union Agency for Fundamental Rights)が公表している顔認証に関するペーパー (2019年11月27日付のもの)

をまとめていきたいと思います。

なお、日弁連で、このペーパーについて教えていただき、これを読んで報告する係になったので、同時並行的にブログにも掲載しようと思ってます。なお、ざっと読んで粗く訳しているだけなので、抜け漏れや誤訳・誤解があり得ますので、ご利用に際しては必ず原文に当たっていただきますよう、お願いします。


Facial recognition technology: fundamental rights considerations in the context of law enforcement

 

 

本ペーパーの位置づけ(原文P2-3)

  • 顔認証技術の利用に焦点を当てる最初のペーパーであり、FRAがこれまで行ってきた生体データ利用における人権問題の検討に基づいている*1
  • 本ペーパーの範囲はあくまで、公的機関が警察活動や国境管理等の法執行*2のために、カメラから得られた映像と顔画像のデータベースを比較する顔認証技術に関して生じ得る人権fundamental rightsに関する分析である。

  •  AI、ビッグデータそして人権に関する調査プロジェクトの一環*3

用語的なもの(原文表紙、P3)

  • FRT:Facial recognition technology 顔認証技術
  • LFR : Live facial recognition technology ライブ顔認証技術。監視カメラ映像とリアルタイムで照合する等するもの。
  • CCTV:video cameras / closed-circuit television 監視カメラ・閉鎖回路テレビ
  • law enforcement authorities :犯罪の予防、調査、捜査、訴追または刑罰の遂行(execution of criminal penalties)、公衆安全への脅威への保護・予防を目的とする所管官庁。Law Enforcement Directive1条1項参照のこと。なお、本稿では「当局」などと訳すこととする。なぜなら、基本的に警察、検察、公安、法務省入国管理局などが妥当する概念と思われるので。

 

顔認証の法的特徴(原文表紙、P2、P5)

  • バイオメトリックデータ・生体データ(GDPR4条9号)でありGDPR上のセンシティヴデータ、特別な種類のデータに当たる
  • EUデータ保護法では、生体データに二つのカテゴリがあるが、顔認証は①。
    ①身体的、生理的 physical, physiological特徴(顔の特徴、指紋等)
    ②行動の特徴(癖、行動、手書きの署名、歩容等)
  • 写真photographsと顔画像(biometric)facial imagesは違いGDPR前文(51)に以下の記載あり。
    写真の取扱いは、特別な種類の個人データの取扱いであると即断してはならない。なぜなら、自然人を一意に識別又は認証をすることができる特別な技術的手段を用いて取扱われる場合においてのみ生体データに含まれるからである。
  • 簡単に公衆空間public placesでキャプチャできる
  • 変えることができず、また簡単にキャプチャされてしまう(指紋、DNAなどと比べて)。人々は、顔画像をキャプチャされ公共空間で監視されることを避けることはできない
  • 誤認識のリスクがある、特に少数派のグループにおいて。
  • EU法で関連するのは、Law Enforcement Directive、General Data Protection Regulation、Data Protection Regulation、Directive on privacy and electronic communications(原文P6表1参照)
  • ECHR:ヨーロッパ人権条約European Convention on Human Rights
  • ECtHR:欧州人権裁判所European Court of Human Rights

 

顔認証の利用例と世論の動向(原文P2-3)

 

顔認証技術のリスク(原文P3-4)

  • 既存の不平等や差別を深刻にする可能性がある。例えば黒人やLGBTQ等
  • 誤認識リスクがある。特に女性や有色人種でエラー率が高い。
  • 人権、特に人間の尊厳、私的生活に関する権利、個人情報の保護、無差別、子供と年配者の権利、障がい者の人権、集会等の権利、表現の自由、right to good administration、効果的な救済、公平な裁判に影響を及ぼす。萎縮効果もある。
  • 大量の個人情報を取り扱ってプライバシーを奪うことは、究極的には民主主義の機能にも影響を与える。なぜならプライバシーは自由で民主的で多元的な社会に内在するコアバリュー(核心の価値)であり、人権享受のための基礎だからである。
  • 警察活動や国境管理等の法執行に適切な技術なのか。
  • どの人権が最も影響を受けるのか。
  • 公的機関が取るべき措置は何か。

 

3.顔認証技術とは何か(原文P7-8)

  •  顔認証技術とは、個人の顔をマッチングし自動識別を可能とする生体認証システムである。顔認証技術は、「生体認証テンプレートbiometric template」を生成し、生体データを抜き出しさらに処理する。「生体認証テンプレート」は様々な顔の特徴を探知し測定する。「生体認証テンプレート」とは、識別と照合verificationに必要なものに限定した生体データの特徴抽出によって得られる数学的な表現を意味する。
    (注)FRA Paper的な定義的な感じのものと、29条作業部会の定義的なもの双方が原文には記載されている。
  • 顔認証技術は様々な用途に使えるものであり、照合に使われるのか、識別に使われるのか、分類化に使われるのかが重要である。照合verificationと識別identificationは、個人のアイデンティティを決定するために個人特有の特徴をマッチングする。分類化は、生体的特徴をもとに個人が特定のグループ(例:性、年齢、人種)に属するかどうかを推定する。
  • 照合verification(1対1の比較)
    照合や認証authenticationは、1対1の比較としてしばしば言及される。2つの生体認証テンプレートの比較を可能とし、通常は同一人物かどうかを推定する。空港の自動入出国管理ゲートなどで使われる。パスポート写真をスキャンし、その場所で当人の写真を撮影する。これら2つの画像を比較し、同一人物である可能性が一定水準を超えれば、照合される the identity is verified。照合の場合、生体データの特徴が中央データベースに保管される必要はない。生体データの特徴は例えばカードや旅行文書、身分証明書などに保管することができる。
  • 識別identification(1対他の比較)
    識別は、個人の顔画像テンプレートを、データベースに保管されている他の多くのテンプレートと比較し、当該データベース上にその個人の顔画像が保管されているか否かを見つけることを意味する(例:ウォッチリストに含まれた人物に該当するかどうかなど)。顔認証技術は、2つの画像が同一人物のものかどうかの確率を示すスコアを返す。Live Facial Recognition Technology(LFRT)などと言われる。
    識別は、ビデオカメラから得られる顔画像に基づいて利用することができる。ビデオ映像中から、まず顔を探知することが必要(スマホカメラで顔に自動的に四角形囲みなどが示されるようなイメージ)。
    ビデオ映像から抽出する顔画像のクオリティは、明るさ、距離、位置などによって異なってくるものであり、コントロールできない。したがって、コントロールされた環境(出入国管理現場、交番など)で取られた顔画像と比べて、マッチングに失敗することが多い。
  • カテゴリ化Categorisation(一般的な特徴のマッチング)
    顔認証技術は個人の特徴を抽出することができる。これは「顔分析facial analysis」などと言われる。 プロファイリングに利用することができる。
    カテゴリ化の場合、識別したりマッチングしたりすることに技術を利用するわけではないが、顔から複数の特徴を推測し他のデータ(位置情報等)と潜在的にリンクされると、事実上の個人識別を可能とする。ここで止まらずに、さらに顔画像から他の特徴(例えば性指向等)を推測しようとすることがあり、そうなると倫理的観点から議論を引き起こす。また顔認証技術は感情を例えば怒り、恐怖、幸せといった感情や、真実を述べているかウソをついているかなどを推測するのにも利用できる。うそ発見器的利用については、ギリシャハンガリーラトビアで調査された(→Integrated Portable Control System, iBorderCtrl https://ec.europa.eu/research/infocentre/article_en.cfm?artid=49726)。
  • なお、本ペーパーではカテゴリ化による重大な人権問題については対象外とし、本ペーパーはあくまで識別目的の顔認証技術の利用にフォーカスする。

 

4.正確性ー誤識別リスク(原文P9-10)

  • 顔認証技術への注目は、2014以降の強力な正確性確保から始まる。正確性を確保した主な要因としては、コンピュータのパワーが増加したこと、データ量が大量になったこと、現代の機械学習アルゴリズムの利用などである。
  • 正確性の検証・評価手法は多数あり、タスク・目的・文脈などに依ってくる。
  • 100万人以上のひとびとがおとずれる場所(例えば駅、空港等)でのエラー率は非常に低く、例えば0.01%であるが、それでも数百もの人々が誤ってフラグを立てられている。加えて、特定のカテゴリーの人々は、誤認識されやすい。加えて、誤認識の話になると、システムがどれだけ簡単にだまされるかに関連し、例えば偽の顔画像によるなりすましspoofingが、法執行目的law enforcement purposesにとっては特に重要となる。
  • 他の機械学習アルゴリズム同様、誤検出と検出漏れが問題となる。
  • 偽陽性・誤検出false positive
    ウォッチリスト中の別の画像と誤ってマッチングされる状態をいう。人が誤って識別されてしまう
  • 偽陰性・検出漏れfalse negative
    ウォッチリスト中に存在しないとされるものの、実際は存在している場合。
  • エラー率について議論する際、3つの考慮が必要となる。
    ①あくまで最終決定を導きだせるわけではなくて確率にすぎないこと。例えば、80%の可能性など。
    偽陽性偽陰性トレードオフ関係にあること。しきい値が高いと偽陽性が減少するが偽陰性が増加する。
    ③具体ケースの量によってエラー率を評価する必要があること。例えば大量の人がチェックされると偽陽性率が低くても多くの人が誤って識別されることになる。
  • 異なるグループごとに正確性評価がなされる必要がある。例えば、性別、年(子供と高齢者)、人種、障がい者
  • 顔認証技術の正確性は顔画像データの品質に強く影響される。GDPR5(1)(d)やLaw Enforcement Directive4(1)(d)からもデータの正確性が求められる。データの品質に影響をもたらす要素とは、背景、ライト、反射、年齢、性別、肌色、肌状態など。ビデオカメラから画像を抽出する顔認証技術の場合、画像の品質をコントロールすることが難しいので重大な問題serious issueとなる。
  • 人権の観点からは、学習データが何かが重要である。例えば、白人男性画像で学習することが多いので、他の人種や性別の顔認識に問題が報告されている。なお、巨大IT企業は様々なデータを収集するアドバンテージがあると思われるが、それでもメジャーな顔認証ソフトウェアベンダーですら、いまだに品質問題が存在しているperfomance problems persist。
  • ただ、学習データがわかりづらい。なぜなら、既存のアルゴリズム(学習済モデル)を使用しているため、その学習データに戻ることは困難であり、またベンダーは学習データに関する情報を開示したがらない

 

 

5.EU公的機関での顔認証技術の利用(原文P11-17)

5.1警察での利用
イギリス警察の事例
  • 現在のところ、イギリス警察がライブ顔認証技術にもっとも活動的である。サウス・ウェールズ警察は大規模スポーツイベント(UEFAチャンピオンリーグ ファイナル 2017年6月)で、イギリス初のライブ顔認証技術利用を行った。ウェールズの首都カーディフに31万の人がおとずれたイベントである。
    複数の監視カメラが予め選定された異なる場所に配置された。
  • このイベントでは、4つの異なるウォッチリストが利用された。
    1)治安維持に重大なリスクをもたらすとされた少数の人物
    2)より重大な攻撃型の犯罪を過去におかした人物
    3)現時点で、公衆安全に直ちにリスクや脅威をもたらすわけではないが、警察が興味を持っている人物(水町注:警戒者ということでしょうね)
    4)警察官(システムの有効性確認のため)
  • ウォッチリストは、400から1200人ぐらい含まれ、それぞれ選定基準が異なる。しかし、どのようにしてウォッチリストが生成されたかという情報が開示されておらず、このためライブ顔認証技術採用の、真の目的、必要性を評価することが困難である。
  • 本件は、カーディフ地方裁判所に提訴されたが、適法との判断がなされた。
    (水町注:控訴審で違法との判断で確定?https://cyberlawissues.hatenablog.com/entry/2020/09/14/171718)It ruled, in a case directed against the South
    Wales Police, that the current national legal regime
    is adequate to ensure the appropriate and non-arbitrary use of the facial recognition technology called “AFR Locate”, and that the South Wales Police’s use
    to date of “AFR Locate” has been consistent with
    the requirements of the Human Rights Act and the
    data protection legislation.50
ロンドン警察 London Metropolitan Police
  •   2016年から2019年に10のライブ顔認証技術テスト配備を行った。
    2016年・2017年のノッティング・ヒル・カーニバル等。
  • 既存のウォッチリストと警察スタッフの画像を利用した。
    1)まだ逮捕されていない未解決の逮捕状が出ている人(水町注:指名手配犯のようなイメージ?)individuals with outstanding arrest warrants
    2)暴力犯の可能性が高い人 individuals believed likely to carry out violent crimes
    3)公人の安全への脅威とみなされている人
  • ロンドン警察倫理委員会London Policing Ethics Panelは、どのように、そしてなぜウォッチリストが生成されるかが重要だとした。別のところから画像が抽出され、画像データベースが統合されることへの懸念が示され They raised concerns with respect to the integrity of the databases from which images were taken
    for the watchlists, and the fact that images were
    drawn from other sources as well、市民社会はウォッチリストにだれが掲載されているかの情報が欠如していることを批判した。
ドイツ、ハンブルグ警察
  • 2017年G20サミットで顔認証技術を利用。8つの駅からのビデオ映像のほか他の画像・映像(バス、地下鉄など)に基づき、警察官が犯罪行為及び関連者を手動で特定した。ハンブルグのデータ保護コミッショナーは、データ保護法を遵守していないとし、顔認証技術利用のための法的基礎の欠如が明らかになった。
ドイツ、ベルリン警察
  • 大規模なテストを2017-2018年に駅で行った。異なる3つの顔認証ソフトウェアを利用した際のパフォーマンス検証が主目的で、結果は成功だった。
  • あくまで300人のボランティアのみの情報を含んだ、疑似ウォッチリストが使われた。
  • 警察は、誰がウォッチリストに含まれるべきかを決めずに、立法が決めるべきだと述べた。例えば、テロ関連で探索されている人、性的加害者、脱走囚、迷子等。
フランス、ニース警察
  • 2018年のお祭りでテストを実施。こちらもボランティア画像のみ。
  • 警官隊は顔認証技術を犯罪捜査に利用しているものの、法の欠如のためライブ顔認証技術は利用していない。しかし将来的な利用は、お尋ね者の捜索などで、現在のシステムをより効率化するだろうと述べている。
その他
5.2 出入国管理
  • 出入国管理における顔認証については、根拠法があるようである?
    Regulation (EU) 2017/2226 of the European Parliament and of the Council of 30 November 2017 establishing an Entry/Exit System (EES) to register entry and exit data and refusal of entry data of third-country nationals crossing the external borders of the Member States and determining the conditions for access to the EES for law enforcement purposes, and amending the Convention implementing the Schengen Agreement and Regulations (EC) No. 767/2008 and (EU) No. 1077/2011, OJ L 327, 9.12.2017, pp. 20-82 (EES Regulation), Arts. 3 (1) (18), 15, and 23-26.
  • 出入国管理規制Entry/Exit System Regulationは、EU法で初めて、顔画像を生体識別子とし、かつ照合Verification目的での顔認証技術利用に向けて導入された? 
  • 出入国管理における顔認証技術の利用は照合目的であり、誰が影響を受けるか分からない識別identification目的とは異なる
  • EUの大規模システムで顔画像を使っているものが表2・3に掲載(原文14-15P)
  • EU大規模システムで、顔画像の収集及び処理は、他の生体データと比してもさらに厳格に法令によって規制されている。
  • 法律による保護措置により、個人情報の収集及び処理は、厳格に必要な範囲かつ操作上求められる範囲に限られる。In the large-scale EU IT systems, the collection and processing of facial images, along with other biometric data, are strictly regulated by law. Safeguards limit the collection and further processing of personal
    data to what is strictly necessary and operationally required. Access to the data is restricted to persons who have an operational need to process the personal
    data. 
    データ保護法で求められる本人の権利にも対応する。The legal instruments setting up the IT systems provide for rights of data subjects in line with the EU data protection acquis
    法律は、データ品質のための保護措置も強化している。信頼できるマッチングの保証が技術的に可能な範囲でのみ、顔画像の自動処理が可能であり、欧州委員会はその用意を報告しなければならない。担当庁(eu-LISA)は品質保証に責任を持ち、定期的に品質コントロールの仕組みと手続について報告する。出入国管理システムについて、欧州委員会は品質の技術的仕様を採択した。Typically, they provide that the automated processing of facial images should be done only as soon as technically feasible to guarantee a reliable match and that the
    European Commission should report on their readiness. As an additional safeguard, the Agency for the Operational Management of Large-Scale Information Technology Systems (eu-LISA) is responsible for quality assurance safeguards and reports regularly on automated data quality control mechanisms and procedures. With respect to the Entry/Exit System, the European Commission has adopted technical specifications for the quality, resolution and use of the biometric data, including facial images
  • 当然、常に目的制限と、必要かつ法定された目的と釣り合いの取れたアクセスの原則を遵守しなければならない。
5.3 EU資金提供による顔認証調査
  • EUは顔認証に関する調査に資金提供をしている
  • PRO-TECT, PERSONA, TELEFI等
  • PERSONAではインパクトアセスメントも行っている模様。
    http://persona-project.eu/
    Privacy, ethical, regulatory and social no-gate crossing point solutions acceptance’ (PERSONA)
    for example, aims to design tailored impact assessment methods to appropriately assess the effects of new contactless crossing border-controlling technologies, including facial recognition technologies
  • 見てみたけどあまり内容がないかもしれない。この具体例を見てみたい。
    https://cris.vub.be/files/48091346/dpialab_pb2019_1_final.pdf

6 顔認証に関する人権問題(原文P18-22)

  • 人権へのリスク:特に弱い立場にいる人に対して
  • 人権へのメリット:迷子救済、不正探知、なりすまし防止
6.1 世論
  • FRA調査(2015年)では、12%の人が国境で顔画像を提供することに大変不満だった。18%はプライバシーに大変な侵害だと感じ、26%は自尊心を傷つけられたと述べた。 
    国籍で差異が見られ、アメリカとロシアの人はあまり懸念せず、中国やその他の地域の人は懸念を感じる傾向。年齢や性別で明確な差異は見られなかった。
  • フランスのニースでライブ顔認証技術の調査が行われた際、900人の内わずか3%しか顔認証技術に反対しなかった。
  • 英調査では、9%が警察目的での顔認証技術利用にとても不満、10%が空港での利用にとても不満、24%が公衆移動public transportでの利用に満足しない、28%が学校、37%がスーパー、37%が職場との結果が出た。日常生活での利用に不満の傾向が見られる。セキュリティ向上のためであれば満足する傾向が見られ、プライバシーに干渉すると不満足な傾向が見られる。
    (水町注:警察と空港はfeel completely uncomfortableなのに、公衆移動からはdo not feel comfortableという表現になっていて、表現自体が合っていない)
6.2 人権制約への正当化要件Requirements for justified interference with fundamental rights
  • EU加盟国での実証実験等では、正確性とエラー率に焦点が当たっており、人権への評価が広汎になされてはいない。いくら完全に正確な技術になったとしても、潜在的に本人の同意Informed consentなしに実施され、弱く尊厳が失われた状態におくというようなリスクがある(ので、人権問題への検討が必要だ)。顔認証技術は人間の尊厳に広く関係するが、人間の尊厳は全ての人権の基礎であり、EU基本権憲章EU Charter of Fundamental Rightsでも保証されている。顔画像を含む生体データは、人間の尊厳を尊重した方法で処理されなければならない。
  • 監視の下では、人々は公衆空間に行くのが不快になる。行動を変え、社会生活から引きこもり、監視下にある場所を訪問せず、駅を避け、文化・社会・スポーツイベントを拒否するかもしれない。
  • FRA文書は、当局が、国境で人々に指紋採取について過度な権限を行使した例を示している。同様の状況が発生するかもしれない。
  • 顔認証で多数の誤ヒットがあれば、多くの人が足止めされ誤ってチェックされることになるので、当局は顔認証を停止すべきであるし、このような点であるとか、人間の尊厳を尊重する必要性等についての適切な訓練を行う必要がある。イギリスメディアは、顔認証カメラを避けた人が罰金を科せられたと報道している。
  • 人権尊重・遵守を促進するためには、独立機関による監視が重要である。データ保護法でも独立監督は根本的要素である。
  • EU基本権憲章EU Charterの52条1項に従い、
    人権へのいかなる制約も法律の根拠が必要であり、
    公益目的に真に合致するか、又は他者の権利と自由を保護するためである必要があり、
    権利の本質を尊重しなければならず、must respect the essence of the right
    釣り合いがとれていなければならない(水町注:比例原則的)

    EU基本権憲章52条1項 衆議院
    http://www.shugiin.go.jp/internet/itdb_kenpou.nsf/html/kenpou/chosa/shukenshi056.pdf/$File/shukenshi056.pdf
  • ある手段によって、奪うことのできない本質的な権利の核心が侵されないのであれば、次に権利の核心ではない部分に関してEU基本権憲章に述べられた必要性・相当性(比例性)テストが実施されなければならない。
  • 公衆の安全や犯罪防止といった公益目的はそれだけで、権利を干渉することを十分正当化できるものではない
  • ヨーロッパ人権条約でも同様の要件が課されている。
    欧州人権裁判所による3本柱テストthree-pronged testでは、①正当な目的②適法(質的要件に合致した適切な法的根拠を必要とする?necessitating an appropriate legal basis meeting qualitative requirements)③民主社会に必要(必要性・相当性(比例性)テスト)necessary in a democratic society (necessity and proportionality test)
    4番目のテストとして欧州人権裁判所は権利の本質概念'essence of a right' conceptを使用している。
    民主社会にとって必要かどうかは、権利干渉が社会的必要性と対応し、つりあいがとれ、目的・理由に関連性があって十分であるか等で例えば判断される。 The
    case law of the ECtHR has identified the following elements when determining whether a measure is “necessary in a democratic society” − for example, that the interference needs to correspond to a pressing social need, must be proportionate, and that the reasons given to justify the interference must be relevant and sufficient
  • このテストは、技術を利用する際のすべての方法について実施する必要がある。必要性・相当性(比例性)テストについて十分な情報に基づく評価informed assessmentを可能とするため、すべての関連する人権をカバーし、その技術が達成しようとしている正当な目的及び顔画像が収集される方法(監視カメラ、ボディカメラ、スマホアプリ等)からエラー率といったすべての要素を考慮する必要がある。
  • テストは、識別目的(1対他の比較)か照合目的(1対1の比較)かによって異なる。犯罪捜査のための識別目的の場合は、捜査対象の犯罪の重要性が重要だ。警察は効率性向上、お尋ね者検知の成功率向上、コスト削減を主張し、また監視カメラの全映像を確認する人手はないと述べて、顔認証技術を正当化する。(水町中:FRAとしてはそれだけでは正当化できず、当局が顔認証技術を使用する犯罪の種類を限定すべきというような主張をしているように見える)
  • 正確性についていうと、アメリカのNISTのテストでは1200万人にたいして0.2%のエラーという成果が出た。しかし偽陽性偽陰性の関係性から、テストは、偽陽性偽陰性トレードオフ関係を調和させるためにも必要だ。問題は、どれぐらいの罪のない人が誤ってフラグを立てられ警察から足止めされることが、ある人を探すために受け入れられるか、である。探している人物の重要性や足止めされる無垢の人への害によって異なるだろう。
  • その鮮明な例がドイツでのテストだ。3つのシステム中1つでも「ヒット」matchと出た場合について分析すると、エラー率としてすべての陰性のうちの偽陰性=検出漏れが8.8%、偽陽性=誤検出が0.34%だった。10人中1人が検出漏れになり、1000人に3-4人が誤って検出されるということだ。ドイツ当局によればこれでは受け入れられないとされた。なぜなら大量の人が毎日駅を通過するので、誤って足止めされたり、少なくとも危険人物として警察にフラグを立てられるからである。3つのシステム中3つともが「ヒット」とならなければだめとすると、検出漏れは31.9%だが誤検出は0.00018%だった。しかし10万人のひとが毎日駅を通過するので、10日間もすれば、2人の罪のない人が誤ってフラグを立てられ警察から足止めされることになる。

7 もっとも影響を受ける人権(原文P23-32)

  • このセクションは、包括的な分析ではなく、該当する例に対する分析である(水町注:ここに記載されていることが漏れない全ての分析ではないとの注)
7.1 私生活及び個人情報の保護
  • 私生活の尊重及び個人情報の保護に関する権利は、顔認証技術を公共の場で採用する際の中心となる。私生活の尊重及び個人情報の保護は、人格を自由に発展させ、思考し、意見を形成できる個人の空間を保障することで、自律や人間の尊厳といった価値を保護するためのものであり、他の人権、例えば思想の自由、良心の自由、信教の自由、表現の自由、集会の自由などを行使するための前提条件である。
  • 欧州人権裁判所は、個人の顔画像は個人の人格の主要要素の一つであり、宝識別子、唯一の特徴を表すものであると述べている。顔画像の保護に対する権利は、個人の発展personal developmentのための不可欠な要素の一つである。
  • 顔画像の生体的処理、ビデオ映像の保持、ウォッチリストとの比較、ウォッチリストへの顔画像の追加は、私生活への尊重及び個人情報保護の権利への干渉となる。厳格な必要性・相当性(比例性)テストに服する必要があり、明確な法的根拠及び正当な目的が必要である。
  • GDPR9条2項g
    第9 条 特別な種類の個人データの取扱い
    1. 人種的若しくは民族的な出自、政治的な意見、宗教上若しくは思想上の信条、又は、労働組合への加入を明らかにする個人データの取扱い、並びに、遺伝子データ、自然人を一意に識別することを目的とする生体データ、健康に関するデータ、又は、自然人の性生活若しくは性的指向に関するデータの取扱いは、禁止される。
    2. 第1 項は、以下のいずれかの場合には適用されない。
    (g) processing is necessary for reasons of substantial public interest, on the basis of Union or Member State law which shall be proportionate to the aim pursued, respect the essence of the right to data protection and provide for suitable and
    specific measures to safeguard the fundamental rights and the interests of the data subject;
    (g) 求められる目的と比例的であり、データ保護の権利の本質的部分を尊重し、また、データ主体の基本的な権利及び利益の安全性を確保するための適切かつ個別の措置を定めるEU 法又は加盟国の国内法に基づき重要な公共の利益を理由とする取扱いが必要となる場合。

*1:例えば、FRA (2018), Under watchful eyes: biometrics, EU IT systems and fundamental rights, Luxembourg, Publications Office, March 2018; FRA (2018), Interoperability and fundamental rights implications – Opinion of the European Union Agency for
Fundamental Rights, FRA Opinion – 1/2018 [Interoperability], Vienna, 11 April 2018。原文注15も参照。

*2:law enforcementが主なターゲットで、特にpoliceが強く明示されているわけではないが原文P3ではpolice stationという語も出てくる。また、law enforcementの意味として警察活動があるのかと思い、このように訳した。また国境管理については原文で言及有。for law-enforcement and border-management purposesとある。

*3:本プロジェクトの成果物として、The following have been published so far as part of the

research project: FRA (2018), #BigData: Discrimination in datasupported decision making, Luxembourg, Publications Office, May 2018; FRA (2019), Data quality and artificial intelligence – mitigating bias and error to protect fundamental rights,
Luxembourg, Publications Office, June 2019. For more on the project, consult FRA’s webpage on the project.

*4:警察官が勤務中に装着する小型カメラ