第850号コラム:小向 太郎 理事(中央大学 国際情報学部 教授)
題:「コンテンツ・モデレーション規制の動向」

昨年12月のコラムでは、最近よく耳にするようになったコンテンツ・モデレーションと、プラットフォームなどの媒介者の責任の関係を話題にした。その後、欧州委員会が、コンテンツ・モデレーション規制に関して事業者に対する調査を開始しているので、今回はそのことについて取り上げたい。
EUのデジタルサービス法は、オンラインプラットフォームに対して、プラットフォーム上のコンテンツへの関与を求めている。特に、超大規模オンラインプラットフォーム(VLOPs)と超大規模オンライン検索エンジン(VLOSEs)に対しては、違法コンテンツや欧州社会に大きな脅威となるような情報による深刻な悪影響について特定・分析・評価し(34条)リスクの軽減に取り組むことなどが義務付けられており(35条)、講じられるべき取り組みとしてコンテンツ・モデレーションがあげられている。そして、VLOPsおよびVLOSEsとして合計21社26サービスが、指定されている(2024年10月31日現在)。
指定の内訳を見ると、SNS(動画等共有サイトを含む)が8、ショッピングサイトが7、アダルト動画サイトが4、検索エンジンが2、アプリストアが2、旅行予約サイト、地図アプリ、オンライン百科事典がそれぞれ1である。
欧州委員会は、X(旧Twitter),TikTok,AliExpress,Meta,Temuに対して,VLOPsの義務規定に違反していないかを検証する手続きを開始している。利用者数の多いSNSと、いわゆる中国系オンラインショッピングサイトが対象となっていることが分かる。X以外の事案では,未成年者への配慮(28条)や違法な製品・サービス等に関する情報提供(32条2項)といった、明文の規定がある違反行為が中心的な問題とされている。具体的な根拠条文がある問題の方が違反を指摘しやすいという事情がうかがえる.なお、欧州委員会の調査では、青少年への悪影響を問題としているものが多いが、アダルト動画サイト4社は調査の対象となっていない。旧来の青少年保護の考え方からするとやや意外な感じもするが、おそらく、青少年がSNSやショッピングサイトへの依存を強めることの方が、デジタルサービス法が対処すべき深刻なリスクであるという考えに基づくものであろう。
Xに対する調査では、Xのコンテンツ・モデレーションに問題があることが、強調されている。2024年7月に行われたXへの通知では、「コンテンツモデレーションと広告に関する透明性と説明責任は、DSAの中核をなすものである」とし、特に、Xが認証済みアカウントに対して提供している「青いチェックマーク」が、誰にでも簡単に取得できてしまうことが、ユーザの判断を誤らせるとして問題視している。どうやら、認証済みアカウントが発信している情報について、十分な審査をすることを、Xに期待しているようである。
前回のコラムでも述べたように、ネットワーク上で情報を媒介する事業者など(媒介者)が媒介する情報に対して負う責任は日本、EU、米国で大きく異なるが、「媒介者に常時監視は義務付けない」という考え方は共通していた。デジタルサービス法でも、常時監視義務は否定されている(第8条)。
インターネット上を流通する情報の影響力が大きくなり、望ましくない情報が大量に流通することで社会に対して深刻な影響を与えるようになっている。そうしたなかで、EUだけでなく米国や日本でも、プラットフォームによる一定の関与が必要なのではないかという意見は強まっている。さすがに検閲や監視というと表現の自由と正面からぶつかりそうなので、こういった刺激的なことばを避けて、コンテンツ・モデレーションというあたりの柔らかい言葉が好んで使われるようになったのだろう。
しかし、いくら言葉を和らげても、こうした積極的な関与は、自由な情報の流通を阻害したり、表現の自由を損なったりする検閲や常時監視と紙一重であることに変わりはない。今後の執行で、欧州委員会がどこまで踏み込んだ対処を求めるのか、いっそう目が離せない。

以上
【著作権は、小向氏に属します】