NewsAngle

NewsAngle

Snapchat欧州調査で問う子ども保護と年齢確認政策の実効性

by YOUR_NAME
URLをコピーしました

はじめに

欧州連合(EU)がSnapchatを子どもの安全対策を巡って正式調査の対象にしたことで、SNSの年齢確認と未成年保護は再び政策の中心テーマになりました。今回の論点は、単に「13歳未満を締め出せているか」だけではありません。10代利用者に不適切なコンテンツが届いていないか、成人が未成年になりすまして接触できていないか、薬物や電子たばこなど年齢制限のある情報への導線を断てているかまで含まれます。

この問題が重要なのは、EUのデジタルサービス法(DSA)が、巨大プラットフォームに対し「問題が起きた後の削除」ではなく「起きにくくする設計」を求めているためです。Snapchatは若年層に強い影響力を持つ一方、メッセージ中心で閉じたコミュニケーションが多く、外部から実態を把握しにくい特徴があります。この記事では、EUが何を問題視しているのか、Snapchatの安全対策はどこまで機能しているのか、そして今後の規制論争がどこへ向かうのかを整理します。

EUがSnapchatを調べる理由

DSAが見るのは削除件数ではなく設計の弱点

AP通信によると、欧州委員会は2026年3月26日、Snapchatが未成年を十分に保護していない疑いでDSAに基づく正式調査を開始しました。焦点は、13歳未満の利用を防ぐ年齢確認が不十分ではないか、17歳未満に不適切な体験を提供していないか、そして成人が未成年になりすまして接触できる余地が残っていないかという点です。加えて、薬物、電子たばこ、アルコールのような年齢制限のある情報に若年ユーザーが触れやすい構造も問題視されています。

ここで重要なのは、DSAの執行が個別投稿の違法性だけを争う制度ではないことです。EUは巨大プラットフォームに対し、アルゴリズム、推奨設計、アカウント作成、通報体制、年齢判定を含む全体設計のリスク評価と、その是正措置を求めています。つまり、EUが見ているのは「危険な投稿を何件削除したか」ではなく、「危険が繰り返し起きやすい構造を放置していないか」です。Snapchatのように若年層の利用率が高いサービスでは、この観点が特に厳しくなります。

2025年から続く監視強化の延長線上にある

今回の調査は突然始まったわけではありません。欧州委員会は2025年10月、Snapchat、YouTube、Apple App Store、Google Playに対し、未成年保護の仕組みについて情報提供を求めていました。この時点でEUは、年齢確認の方法、薬物や電子たばこへの接触防止、摂食障害を助長するような有害コンテンツへの対応を重点的に確認しています。2025年7月には未成年保護ガイドラインも公表されており、事業者には予防的な安全設計の期待値が具体化されていました。

さらにEUは、2024年からMetaのFacebookとInstagramでも未成年保護を巡る正式手続きを進めており、2025年にはPornhubなど大手成人サイトに対しても年齢確認不足を理由に調査を開始しました。つまり、Snapchatだけが狙い撃ちにされたのではなく、EUは「未成年が使う可能性の高い大規模サービス全体」に横断的な基準を当て始めています。Snapchatへの着手は、その流れの中で、メッセージアプリ型SNSにも本格的な説明責任を広げたものと見るべきです。

Snapchatの対策はどこまで機能しているか

Snapが示す安全機能は一定の前進だが万能ではない

Snapchat側も、未成年保護策がないわけではありません。公式情報では、13歳から17歳のアカウントに追加保護を適用し、友だち関係がない相手との接触を制限し、若年層には公開プロフィールを原則オフにするなどの措置を説明しています。保護者向けの「Family Center」では、最近やり取りした相手、友だち追加、位置情報共有、センシティブなコンテンツ制限、AI応答の制御などを確認できます。2026年1月には、保護者が10代の利用時間の傾向まで把握できる新機能も追加されました。

これらは、単純な閲覧制限より一歩進んだ設計です。とくにFamily Centerは、私的な会話そのものを読ませずに、保護者に一定の監督手段を与える点で、プライバシーと安全性の折り合いを探る仕組みといえます。またSnapchatは、13歳未満と判明したアカウントを停止し、必要に応じて本人確認や保護者確認を求める仕組みも案内しています。

ただし、EUが問うているのは、こうした機能の「存在」ではなく「実効性」です。保護者機能は、そもそも子どもが正しい年齢で登録していなければ前提が崩れます。友だち関係による接触制限も、成人側が未成年を装えば穴が開きます。センシティブなコンテンツ制限も、完全なフィルターではないとSnap自身が認めています。制度当局から見れば、安全機能が豊富であることと、リスク低減の水準が十分であることは別問題です。

年齢確認は技術の問題であると同時に責任分担の問題でもある

年齢確認の難しさは、Snapchat固有の問題ではありません。Reutersは2026年3月、各国で子どものオンライン安全法制が強化される中、顔推定、本人確認書類、保護者認証などの技術が広がっている一方で、精度、コスト、プライバシー負担を巡る課題が残ると報じました。EUも2026年3月、プライバシー保護を前提にした年齢確認の共通アプローチとオープンソースの設計案を打ち出しています。ここから分かるのは、当局も「年齢確認は簡単ではない」と理解していることです。

それでも規制が強まるのは、難しいことと、何もしなくてよいことは違うからです。業界側はしばしば、アプリストアやOSレベルで年齢確認を共通化すべきだと主張します。実際、Reutersは、SnapやMetaがアプリストア側での年齢確認を支持していると伝えています。この主張には合理性があります。サービスごとに年齢確認を繰り返すより、入口で統一した方が利用者負担も低いからです。

一方でEUの発想は、入口の共通基盤が整うまで各プラットフォームの責任を棚上げしない、というものです。DSAは巨大サービスに対し、自社の設計で生じる具体的なリスクを評価し、相応の対策をとるよう求めています。したがってSnapchatには、「完璧な年齢確認技術がない」ことの説明より、「現状で何を改善できるか」を示す責任が残ります。ここが、今後の審査で最も厳しく見られる部分です。

注意点・展望

この論点で誤解されやすいのは、EUが未成年を一律にSNSから締め出そうとしている、という見方です。実際には、EUの制度は全面禁止よりも、年齢相応の安全設計、透明性、説明責任を重視しています。また、年齢確認を強めれば自動的に安全になるわけでもありません。書類提出や顔認証は、過剰な個人情報収集につながれば別のリスクを生みます。だからこそEUは、精度だけでなくプライバシー保護型の設計を同時に求めています。

今後の見通しとしては、Snapchatへの調査は単独案件というより、SNS、動画配信、アプリストア、成人サイトを横断する規制強化の一部として進む可能性が高いです。違反認定まで進めば、DSAでは全世界売上高の最大6%に相当する制裁金もあり得ます。ただ、より現実的な帰結は、年齢推定の厳格化、未成年アカウントの初期設定見直し、保護者機能の拡張、リスク評価の外部説明強化でしょう。Snapchatの事例は、若者向けサービスが「人気」と「安全」をどう両立させるかを問う先行事例になりそうです。

まとめ

Snapchatに対するEUの正式調査は、子どもの安全を巡る規制が、投稿削除中心からサービス設計全体の監督へ移ったことを示しています。争点は、13歳未満の排除だけでなく、10代への推奨設計、成人との接触、防げるはずの有害導線をどこまで減らせているかです。

Snapchatは保護者向け機能や年齢確認手段を整えてきましたが、EUが求めるのは機能の列挙ではなく効果の証明です。今後この案件を追う上では、欧州委員会がどの設計部分を具体的に問題視するのか、そしてSnapchatが年齢確認とプライバシー保護をどう両立させるのかが重要な観点になります。

参考資料:

関連記事

最新ニュース