すべての有害情報を排除することは容易ではありませんが、インターネット上の「罠」から子どもたちを守ることは、安全を確保するだけでなく、子どもたちが将来正しい認識を形成できるようにするためにも、体系的かつ徹底的に行われなければなりません。
有害情報をすべて排除するのは容易ではないが、ネット上の「罠」から子どもたちを守るには、体系的かつ徹底した取り組みが必要だ。(イラスト写真) |
両刃の剣
新型コロナウイルス感染症のパンデミックの間、ロックダウンや隔離によって生じた障壁の影響を最も受けたのは子どもたちです。幸いなことに、インターネットとソーシャルメディアのおかげで、子どもたちの学習と交流を維持することができました。
学校に通えない子どもたちでも、オンライン授業に参加したり、友達とチャットしたり、インターネットで楽しんだりすることができます。これは、子どもたちが積極的に学び、 探求するための無限の知識源となるだけでなく、効果的なコミュニケーション手段となり、人間関係を維持し、孤立による精神的トラウマを回避するのに役立ちます。
しかし、パンデミック中に子どもたちがインターネットやソーシャルメディアを利用する機会が増えると、彼らがフェイクニュースやオンライン上の暴力や虐待の主な被害者になる可能性がある。
インターネット・ウォッチ財団(IWF)によると、2019年以降、児童性的虐待の画像や動画を掲載するウェブサイトの数は1,058%という驚くべき増加を記録しています。2020年には、IWFは最も深刻な児童虐待コンテンツを含むウェブサイトが25,000件以上あることを明らかにしました。この数は2022年に倍増し、過去最高を記録しました。IWFの報告書では、児童の年齢が低いほど虐待のレベルが高いことも示されています。
米国国立行方不明・搾取児童センター(NCMEC)が発表したデータによると、2010年には、オンライン上の児童性的搾取問題の通報を受け付けるサイト「サイバー・チップライン」に寄せられた児童性的虐待に関する通報はわずか約100万件だった。2019年には通報件数が急増し、2021年には2,930万件、2022年には3,200万件を超えると予想されている。
性的虐待は、子どもたちがインターネットを利用する際に直面するリスクの一つに過ぎません。ユニセフの調査によると、若者の3分の1以上がオンラインでいじめを受けており、5人に1人が恥ずかしさから退学を考えたことがあると答えています。あだ名、軽蔑的なコメント、悪意のある写真コラージュといった行為は、子どもたちに大きな影響を与えます。直接的な発言とは異なり、いじめのコメントや画像はすぐに拡散し、インターネット上に保存されてしまうため、被害者は無力感に苛まれます。
さらに、子どもたちは有害情報やフェイクニュースの標的にもなりやすい。好奇心旺盛で探究心旺盛な子どもたちは、センセーショナルで独創的なフェイク情報に誘惑され、惑わされやすい。多くの子どもたちが危険なトレンドの犠牲者になるのも、このためだ。数年前には、「シロナガスクジラチャレンジ」や「モモチャレンジ」といった流行が、数百人もの子どもたちの悲劇的な自殺を引き起こした。
子どもたちがインターネット上のソーシャルネットワーキンググループやオンラインゲームに参加することは、個人情報を漏洩するリスクにつながります。犯罪者はこうした情報を利用して、子どもを狙った違法または不適切な広告を作成します。これは誘拐犯や児童人身売買業者にとって「絶好の餌」となり得ます。さらに、インターネットを無目的に使用すると、ソーシャルネットワーキング依存症のリスクが高まり、自制心の欠如、意識の低下、不安感を引き起こし、子どもたちの生活に影響を与えます。
インターネット利用者の中で、子どもたちは、自らを守るための知識や能力が不足しているか、あるいはほとんどないため、最も脆弱なグループです。一方、子どもたちに最も近く、最も責任のある親でさえ、子どもたちのインターネットやソーシャルネットワークの利用を完全にコントロールすることはできません。
インターネットには毎日、無数の情報が投稿され、何百万もの新しいグループやウェブサイトが作成されています。適切なトレーニングと定期的な監視がなければ、保護者がお子様の不適切なコンテンツへのアクセスを防止・阻止することは困難です。
`
インターネット上の児童保護を強化するために協力しましょう
インターネットにおける子どもへのリスクの増大に直面し、世界各国政府は安全なサイバー空間の創出を目指した政策を急速に推進しています。規制は国によって異なりますが、いずれの国も、子どものインターネット利用管理における保護者の関与強化や、ソーシャルネットワークやオンラインコンテンツ企業に対し、サービス提供前に利用者の年齢を考慮することを義務付けることを提唱しています。
アメリカは、世界で初めてインターネット上で児童を保護する法律を制定した国の一つです。1998年、米国議会は児童オンラインプライバシー保護条約(COPPA)を可決しました。この法律は2年後に施行され、米国連邦取引委員会(FTC)の監督下にあります。
「子どもたちは産業規模で標的にされ、近づき、操られ、虐待されている」とIWFのスージー・ハーグリーブス最高経営責任者(CEO)は警告した。「こうした虐待は家庭内で起こることが多く、親たちはインターネット上の見知らぬ人々が子どもたちに何をしているのか全く気づいていないのです。」 |
COPPAは、米国で唯一、児童に対するターゲティング広告の影響を制限する連邦法です。COPPAでは、ウェブサイト運営者は、事前に保護者の同意を得て通知することなく、児童から情報を収集することを禁止されています。
2012年にCOPPAが改正され、企業がCookie、位置情報データ、視聴覚情報などのデジタル識別子を用いて、子供のインターネット利用状況を追跡し、それに基づいて広告をターゲティングすることを禁止する新たな規則が盛り込まれました。改正法では、企業に対し、技術的な目的で子供から収集したデータを削除することが義務付けられています。
しかし、専門家は、COPPAには依然として抜け穴があると指摘しています。例えば、13歳から18歳までの児童からのデータ収集に関する規制が規定されていないなどです。米国では州レベルで、カリフォルニア州消費者プライバシー法(CCPA)も適用されており、COPPAの限界を部分的に克服しています。
米国は、COPPAとCCPAという既存の2つの法律に加え、ますます巧妙化するオンライン上の誘惑から子供たちをより効果的に保護するための新たな法律の制定にも積極的に取り組んでいます。2024年7月1日に施行されるカリフォルニア州年齢適正設計法(CAADCA)は、子供の年齢を現在の13歳から18歳に引き上げます。
米国の複数の議員は、YouTubeやTikTokなどのプラットフォームに広告の制限や子ども向けコンテンツの自動再生機能の禁止を義務付ける法案「子どものインターネット設計と安全(KIDS)法案」を推進している。
欧州連合(EU)は、ネット上の児童虐待コンテンツの急増に対処するため、デジタルサービス法(DSA)を制定し、テクノロジー企業やソーシャルネットワークに、児童性的虐待画像の検出と削除のためのさらなる措置を講じるとともに、脆弱な立場にある人々の個人データをより適切に保護することを義務付けた。
テクノロジー大手各社は2023年8月末までにDSAを遵守する必要があります。TikTokは、EUユーザーが自動ターゲティングをオフにできるようにし、13~17歳をターゲットにした広告を禁止すると発表したばかりです。
インターネット利用者の5分の1を子供が占める英国では、2021年9月初旬に「年齢相応のデザイン法」が可決され、テクノロジー企業に子供に優しいデザインと技術基準を導入し、子供のプライバシーやイメージを害するリスクのあるアルゴリズムの使用を避けることが義務付けられました。
子どもがプライバシールールを回避したり、年少ユーザーのデータを収集したりすることを促すような手法も禁止されます。違反した場合、テクノロジー企業は年間世界売上高の最大4%に上る罰金を科される可能性があります。ソーシャルメディアはこれに好意的に反応しています。TikTokは、保護者が子どもの通知スヌーズスケジュールを設定できる新機能を導入しました。これにより、13歳から15歳のユーザーは午後9時以降、通知を受け取らなくなります。Instagramは18歳未満のユーザーを対象としたターゲティング広告を無効化し、YouTubeは未成年者向けの自動オンを無効化しました。
一方、フランスでは、すべてのソーシャルネットワークに、未成年者を暴力やポルノなどの不適切なコンテンツから守るため、保護者が未成年者の活動を監視できる機能の導入を義務付けています。名誉毀損や虚偽の情報をオンラインで投稿した者は、1年の懲役と最高5万ドル近くの罰金を科せられる可能性があります。
オーストラリアはインターネットにおける年齢制限に関する規則が最も厳しい国の一つであり、16歳未満のソーシャルメディアの利用には保護者の同意が義務付けられています。この規則に違反したソーシャルメディア企業は、最高750万ドル、年間売上高の10%、または収益の3倍の罰金を科せられます。オーストラリアのオンラインプライバシー法では、ソーシャルメディアや匿名フォーラムは、ユーザーの年齢確認を徹底し、データ収集において児童の利益を最優先に考慮することが義務付けられています。
アジアでは、中国が児童のインターネット利用規制において最も積極的です。今月初め、中国は18歳未満の者が午後10時から翌日午前6時までの間、モバイル機器からインターネットにアクセスすることを禁止する新たな規制を発表しました。
同国では、スマートフォンの使用時間に関する時間管理システムも導入されました。8歳未満の子供は1日約40分、16~17歳のティーンエイジャーは1日約2時間までと定められています。これらの措置は、親が子供の利用を制限しにくい時間帯に、子供が不適切で有害なコンテンツにアクセスするリスクを軽減するのに役立ちます。
世界で最も急成長しているインターネット市場に位置する東南アジア諸国も、オンライン上の児童の保護に向けた対策を講じています。昨年末、シンガポール議会はオンライン安全強化法を可決しました。
したがって、ソーシャルネットワークは、保護者や生徒から不適切なコンテンツに関する報告を受けてから「数時間以内」に行動を起こさなければなりません。一方、インドネシア教育文化研究技術省は、生徒、教師、教育者の間でソーシャルネットワークの利用に関する意識を草の根レベルで高めるため、Twitterと協定を締結しました。
現代の発展において、子供たちのインターネット利用を阻止することは不可能であり、むしろ有益であるどころか有害です。重要なのは、子供たちにとって安全なオンライン環境を作り、有用な情報「フィルター」を備えさせ、有害なコンテンツから身を守れるようにすることです。同時に、保護者は子供たちのインターネット上での行動を指導し、監視する必要があります。
インターネットのリスクを完全に防ぐ抜本的な解決策を編み出した国はまだありません。しかし、子供たちにとってより安全で便利なオンライン環境を提供するために、管理者が規制と制裁を継続的に強化していることは、明るい兆しです。
[広告2]
ソース
コメント (0)