NewsAngle

NewsAngle

SNS子ども安全判決で変わる米IT企業の設計責任と次の規制論点

by YOUR_NAME
URLをコピーしました

はじめに

米国で2026年3月、子どものオンライン安全をめぐる議論が大きく動きました。ロサンゼルスではMetaとYouTubeが、若年利用者に精神的被害を与えたとして陪審に責任を認定され、ニューメキシコではMetaに対し、子どもの搾取や安全表示をめぐるより大きな民事ペナルティが命じられました。重要なのは、争点が単なる有害投稿の削除ではなく、無限スクロールや自動再生、通知、推薦アルゴリズムなどの「設計」に移っていることです。

従来、米IT企業は表現の自由や通信品位法230条の保護を背景に、利用者投稿そのものへの責任追及をかわしやすい立場にありました。しかし今回は、企業が子どもを長時間引き留める仕組みを作り、その危険を十分に抑えなかったのではないかという見方が陪審に受け入れられました。本稿では、二つの評決がなぜ転換点とみなされるのか、規制の論点がどこへ向かうのかを整理します。

陪審評決は何を変えたのか

ロサンゼルス判決が問うたのは投稿内容ではなく設計です

2026年3月26日までに伝えられたロサンゼルスの訴訟では、原告女性が幼少期からYouTubeとInstagramを利用し、抑うつや自傷、身体イメージの悪化につながったと主張しました。GuardianやAP系報道によると、陪審はMetaとYouTubeが意図的に依存的な設計を採用し、原告に害を与えたと認定し、計600万ドルの賠償を命じました。TikTokとSnapは審理前に和解しており、法廷で争われたのは主にMetaとGoogle傘下のYouTubeでした。

ここで注目すべきは、原告側が問題にした中心が「危険な投稿を表示したこと」ではなく、「終わりなく使わせる仕組み」だった点です。原告側は、無限スクロール、自動再生、通知、強い個別最適化推薦が子どもの注意を拘束し、やめにくい利用を生んだと訴えました。これは、タバコやオピオイド訴訟に近い構図です。製品の中身そのものではなく、企業が危険を知りながら依存性を高める設計を続けたのかが問われています。

ニューメキシコ評決で広がった責任範囲

同じ週にニューメキシコ州の陪審は、Metaが子どもの安全について利用者を誤認させ、子どもの搾取や依存の危険を十分開示しなかったとして、3億7500万ドルの民事ペナルティを命じました。AP報道では、州司法長官側は、Metaが子どもの搾取と依存の危険を把握しながら十分に対処しなかったと主張しています。ロサンゼルスの案件が主に個人の精神的被害に焦点を当てたのに対し、ニューメキシコでは消費者保護法違反や児童保護の観点が強く出ました。

この二つの評決が並んだことで、SNS企業への責任追及は一つの理論に閉じなくなりました。精神衛生への影響、児童搾取対策の不備、リスクの不十分な開示、設計そのものの危険性という複数の法的経路が同時に動き始めたのです。今後の多数のベルウェザー訴訟では、原告や州当局がこの複線的な責任論を使い分ける可能性が高いです。

なぜ今は設計責任が中心争点なのか

公衆衛生の警告が前提になっています

米保健福祉省の公衆衛生総監アドバイザリーは2023年時点で、13〜17歳の最大95%がソーシャルメディアを利用し、1日3時間超の利用者は抑うつや不安症状などのリスクが2倍になると整理しました。そのうえで、現時点ではソーシャルメディアが子どもに十分安全だとは結論づけられないと明記しています。つまり裁判所は、企業だけが知らなかったとは言えない環境で判断していることになります。

この論点は米国だけのものでもありません。欧州委員会は2026年2月6日、TikTokについて、無限スクロール、自動再生、プッシュ通知、高度に個別化された推薦システムを含む「addictive design」がデジタルサービス法に違反する可能性があるとの暫定判断を公表しました。委員会は、夜間の利用時間やアプリ起動頻度といった強迫的利用の指標をTikTokが十分評価していないと指摘しています。米国では陪審、EUでは行政規制という違いはありますが、焦点が「依存を生みやすい設計」に集約している点は共通です。

企業の安全対策も争点の存在を裏書きしています

企業側も無策ではありません。Metaは2025年4月、Instagram Teen Accountsの保護を強化し、16歳未満がライブ配信を使う場合や、DM内のヌードぼかし機能を無効にする場合に保護者の許可を必要とする仕組みを公表しました。同社によれば、13〜15歳の97%が厳格な初期制限を維持し、世界で少なくとも5400万件のTeen Accountsが稼働しています。YouTubeも2026年1月、年齢に応じたアカウント設計や親向け管理機能の強化を公表し、18歳未満では自動再生を初期状態で無効にするなど、青少年向けの仕様を打ち出しました。

ただし、ここには逆説があります。企業が保護機能を相次いで追加するほど、なぜもっと早く基本設計を安全側に寄せなかったのかという問いも強まります。裁判や規制当局が今後見るのは、単に保護機能が存在するかではありません。危険を認識した時点で初期設定をどう変えたのか、未成年を大人と同じ設計にさらしていなかったか、そして保護の負担を親や子ども側に押し付けすぎていないかです。

注意点・展望

今回の流れを読むうえで注意したいのは、陪審評決が出たからといって、すぐに全米共通の新ルールが確立したわけではないことです。MetaとGoogleは控訴方針を示しており、法理が確定するには時間がかかります。また、SNS利用と精神疾患の因果関係は個々の事情が大きく、家庭環境や学校での経験など他要因も常に争点になります。企業側がそこを強く争う構図は今後も変わりません。

それでも潮目は変わっています。議会では子どものオンライン保護を強める法案が繰り返し提出されてきましたが、全国一律の包括規制はなお成立していません。たとえばH.R.2657のSammy’s Lawは2025年4月に提出され、2025年12月11日に下院小委員会から本委員会へ送られた段階で、まだ成立には至っていません。立法が遅れる間に、陪審と州司法長官が実質的な政策形成の前線に立ち始めたというのが現在地です。

日本の読者にとっても他人事ではありません。短尺動画、深夜利用、強い推薦アルゴリズム、保護者設定の煩雑さという論点は国内サービス利用でも共通です。今後の焦点は、未成年保護を名目に年齢確認や監視を強めるのか、それとも依存を生みやすい基本設計そのものを変えさせるのかにあります。後者の議論が進まなければ、結局は子ども側に自己管理を求めるだけで終わりかねません。

まとめ

2026年3月の二つの陪審評決は、SNS企業の責任を投稿内容から製品設計へと引き寄せた点で重要です。ロサンゼルスではMetaとYouTubeの依存設計が、ニューメキシコではMetaの安全開示と児童保護の不備が問われました。どちらも、子どものオンライン安全を「企業の善意」ではなく、法的責任の問題として扱い始めたことを示しています。

今後のニュースを見る際は、控訴の勝敗だけでなく、初期設定の見直し、無限スクロールや自動再生への規制、議会法案の進展という三点を追うと全体像がつかみやすいです。子どものオンライン安全は、検閲か放任かの二択ではなく、設計責任をどこまで企業に負わせるかという段階に入っています。

参考資料:

関連記事

最新ニュース