情報の拡散スピードによる弊害:ナラティブ戦争とは?
要約
現代社会では、インターネットとSNSの急速な発展により、情報の生成と拡散のスピードが劇的に加速してきました。この変化は私たちの「知識へのアクセスを向上」させた一方で、「DisInformation」や「Narrative Wafare」といった新たな脅威を生み出しました。本日は、これらの概念について詳しく解説しながら、我々に対する影響について。また、すでに海外では色々出てきているDisinformation対策ソリューションについて詳しく深掘りしていきます。
解説
Disinformationとナラティブ・ウォーフェア(Narrative Warfare):現代の情報戦争
はじめに
本日は、新たなる時代の戦争とも言われ、今も実際にSNS上で展開されているナラティブを使った戦争について深掘りしていきます。 各国さまざまな対策ソリューションも展開されており日本だけが取り残されている感じがします。 まず、DisinformationやNarrative Warfareについて簡単にご説明し(これだけで1冊の本が書けるほど多様で深いです)、 どういう戦いがオンラインで行われているのかを把握してもらってから、 各国が用意しているDisinformation対策の技術について整理してご紹介します。
Disinformationとは
Disinformation(ディスインフォメーション)とは、意図的に作成・拡散される虚偽または誤解を招く情報のことを指します。 単なる誤情報(Misinformation)と異なり、Disinformationは明確な意図と目的を持って作られます。
Disinformationの特徴
意図性: 特定の目的(政治的影響力の行使、社会的分断の促進、経済的利益など)のために計画的に作成されます 欺瞞性: 信頼性の高い情報源を模倣したり、部分的に真実を含めたりして信憑性を高める工夫がされています 感情に訴える: 恐怖、怒り、不安といった強い感情を喚起する内容が多く含まれます 拡散性: ソーシャルメディアのアルゴリズムを活用し、急速に広がるよう設計されています
DisinformationとMisinformationの違い
Disinformation | Misinformation |
---|---|
意図的に虚偽情報を拡散する | 誤って虚偽情報を拡散する |
明確な目的がある | 意図せず発生する |
組織的に行われることが多い | 個人的な誤解から生じることが多い |
悪意を持って作成される | 無知や確認不足から生じる |
ナラティブ・ウォーフェア(Narrative Warfare)とは
ナラティブ・ウォーフェア(Narrative Warfare)とは、特定の「物語(ナラティブ)」を戦略的に構築・拡散する
ことで、人々の認知、信念、行動に影響を与える情報戦の一形態です。
これは現代の「ソフトパワー」の重要な要素となっています。
ナラティブによって認知を歪めるとは、人々の現実認識を変化させ、誤った認識を敵対する国の国民に植え付けるプロセスのことを言います。
- フレーミング効果: 同じ情報でも、提示方法によって受け取り方が変わる現象を利用します
- 確証バイアスの強化: 既存の信念に合致する情報のみを選択的に受け入れるよう促します
- 感情の操作: 論理よりも感情に訴えかけることで、批判的思考を抑制します
- 繰り返しの効果: 虚偽でも繰り返し露出することで「真実効果」を生み出します
- 代替現実の構築: 事実とフィクションを巧みに融合させ、現実の代替バージョンを作り出します
社会の分断とは
ナラティブ・ウォーフェアの主要な目的の一つが「社会の分断」です。これにより対立を構造を作り出し、 敵国の有利になるような体制に変えていこうとします。
- 二項対立の強化: 複雑な問題を単純な二項対立(「私たち」vs「彼ら」)に還元します
- エコーチェンバーの形成: 同じ考えを持つ人々だけが集まる情報環境を作り出します
- 敵対感情の醸成: 異なる意見を持つ集団に対する不信感や敵意を強化します
- 共通基盤の破壊: 社会全体の共通認識を損ない、相互理解を困難にします
- 極端化の促進: 中間的・穏健な立場を弱め、極端な立場への移行を促進します
ナラティブ・ウォーフェアを実践する手法のご紹介
ナラティブ・ウォーフェアでは以下のような具体的な手法が用いられることが多いのでご紹介します。SNSなどで見かけたら「あ〜これか。」という感じで眺める程度に しておいた方がいいです。あまり深く入り込むと、知らない間にあなたの認知が歪められるかもしれません。
1. 情報環境の整備
- メディア浸透: 既存メディアへの影響力行使や偽メディアの設立
- ボットネットワーク: 自動化されたアカウントによる大量の投稿・拡散
- インフルエンサーの活用: 影響力のある人物を通じた情報拡散
- SEO操作: 検索エンジン結果を操作して特定の情報へのアクセスを誘導
2. 認知操作テクニック
- Gaslighting(ガスライティング): 事実を否定し、相手の認識を疑わせる
- Fearmongering(フィアモンガリング): 恐怖を煽り、合理的判断を妨げる
- Whitewashing(ホワイトウォッシング): 否定的事実を隠蔽・美化する
- Whipsawing(ウィップソーイング): 対立する集団間の緊張を意図的に高める
3. 情報操作戦術
- Fear Hacking(フィアーハッキング): 恐怖心を利用した情報操作
- Identity Politics(アイデンティティ・ポリティクス): 集団アイデンティティに訴えかける
- Social Proof Exploitation(ソーシャルプルーフの悪用): 多数派の意見に見せかける
- Cognitive Overload(認知的オーバーロード): 大量の情報で判断能力を低下させる
SNS&AI時代のDisinformation
2025年現在のDisinformationは、AIの発展により従来とは比較にならないほど強力になっています。
AIの利用はもう当たり前の世の中で、攻撃する側もAIを利用して普通の人のように発信し、それぞれのSNSプラットフォームの アルゴリズムをついた戦略でBotを自動操作して、偽情報を拡散してきます。
1. AIと深層学習
- ディープフェイク: AIによる偽の映像・音声の作成
- 言語モデルの悪用: AIを用いた大量の説得力のあるコンテンツ生成
- ターゲティング: 個人の心理特性に合わせた情報操作
2. ソーシャルメディアの増幅効果
- フィルターバブル:
アルゴリズム
による偏った情報環境の形成 - バイラル拡散: 感情的コンテンツの急速な拡散
- クロスプラットフォーム戦略: 複数のプラットフォームを横断した情報操作
防衛策と対抗手段
偽情報を使った物語の戦争という言葉が出てくるような大きなものについては、対抗というレベルではなく防衛という言葉がいいのかもしれません。 対策として考えられるものは、我々個人だけではなく、社会としても対策を施さなければ、十分に対策が取れないからです。 そのような視点で考えてみました。
個人レベルの対策
- メディアリテラシーの向上: 情報の批判的評価能力を高める
- 情報源の多様化: 多様な視点からの情報収集を心がける
- 感情的反応の自覚: 強い感情を喚起する情報に対して警戒する
- ファクトチェック習慣: 情報を鵜呑みにせず検証する習慣をつける
社会レベルの対策
- 教育システムの強化: 批判的思考とメディアリテラシー教育の促進
- 制度的対応: プラットフォーム規制とモデレーションの改善
- 技術的対策: ディスインフォメーション検出AIの開発と導入
- 社会的対話の促進: 異なる意見間の建設的対話の場を設ける
これらは単なる「フェイクニュース」の問題ではなく、民主主義の機能、社会的結束、そして個人の自律的思考能力に関わる根本的な問題
を提起しているものと
捉えるのが良いと思います。
日本では、個人と企業・組織など社会が手を取り合って対策を実施していかないと、どんどん侵食されていいってしまいます。
ということで、今日はさらに深掘り、日本でも役にたつソリューションがないのか?ということで、海外のDisinformation対策ソリューションを探し、整理してみました。
ディスインフォメーション対策ソリューション比較表
企業名 | 製品名 | 国 | 技術・手法 | 偽情報区別の方法 | 技術的詳細 | URL |
---|---|---|---|---|---|---|
Brinker | Brinker Platform | 米国 | ナラティブインテリジェンス技術、OSINT自動調査 | AIを活用した調査と法的措置、メディア公開、ソーシャルフラッギングを組み合わせたアプローチ。独自のナラティブインテリジェンス技術を用いて偽情報パターンを特定。 | 3層構造の影響防御システムを採用し、脅威検知、調査、軽減の全サイクルを管理。AI駆動の洞察と積極的な軽減戦略を備えた危機対応ツールを提供。具体的なアルゴリズムの詳細は公開されていないが、ソーシャルメディア上でのパターン認識と異常検出技術を用いていると推測される。 | brinker.ai, platform |
Blackbird.AI | Narrative & Risk Intelligence Platform | 米国 | RAV3N Risk LLM、ナラティブ分析、リスク評価 | RAV3Nと呼ばれる専用のリスク評価AIを使用し、ソーシャルメディア、ニュースサイト、ブログなどのコンテンツを自動的に分析。単純な真偽ラベルではなく、必要なコンテキストを提供し、ナラティブ攻撃のリスクを評価。コンテンツの主張を検証し、信頼できる情報源から証拠に基づく回答を自動生成。 | 多言語・マルチモーダル対応のRAV3N Risk LLM(大規模言語モデル)を採用。このLLMは財務的・風評被害を引き起こすナラティブ攻撃を検出するために特別に設計された世界初のLLMとされる。自動ナラティブフィードモジュールを通じて、新たなナラティブごとに検出し、リアルタイムでリスクを評価。再生可能エネルギーに関する誤情報などの特定のトピックに対する偽情報拡散パターンを分析した研究実績あり。 | blackbird.ai, RAV3N Risk LLM |
Logically | Logically Intelligence | 英国 | マルチモーダルAI、ファクトチェック、ボット検出 | 名前のついた情報源または物的証拠によって裏付けられた情報のみを確認済み情報として採用。AIと人間の専門知識を組み合わせた分析で、ソーシャルメディア上の不自然な活動(例:あるソーシャルメディアアカウントへの返信の最大80%が実際の人間ではなく組織的な偽情報キャンペーンの一部だったケースを検出)を特定。 | 事前学習済みTransformerモデル(BERTやCOVID-Twitter-BERTなど)を微調整して偽情報検出に活用。双方向エンコーダ表現(BERT)アーキテクチャを使用し、コンテキスト理解能力を強化。多段階Transformerモデルによる偽情報検出と事実確認システムを実装。マルチモーダルAIを使用して、テキスト、画像、動画など複数のメディア形式にまたがる分析を実現。主流プラットフォームに到達する前にリスクを特定し、フリンジ・代替プラットフォーム監視、ボットネットワークや影響工作における協調行動の検出機能を搭載。 | logically.ai, Logically Intelligence |
Graphika | Disinformation Detection & Analysis | 米国 | ソーシャルネットワーク分析、パターン認識、コミュニティマッピング | 特許取得済みの技術を用いてソーシャルメディア上の不自然なパターンを検出。ネットワーク、セマンティクス(意味論)、時間的側面の3次元とその交差点を分析することで、大規模な戦略的影響工作キャンペーンを特定。ロシアのインターネット調査機関(IRA)がアメリカ人を主要な関心グループに分類し、ターゲットを絞ったメッセージを送っていたことなどを明らかにしたケース実績あり。 | 特許取得済みのソーシャルネットワーク分析技術を用いて、オンライン上のコミュニティ形成とソーシャルメディア内の大規模ネットワークにおける情報と影響力の流れを理解。ネットワーク(接続パターン)、セマンティクス(内容の意味論)、時間(投稿タイミング)の3次元を統合的に分析し、その交差点を調査することでキャンペーンを特定。高度なコミュニティマッピング技術を人工知能と組み合わせ、ソーシャルメディア上の不自然なパターンや操作的活動を特定。2020年米国大統領選挙前に右派有権者をターゲットにしたロシアの工作活動を追跡した実績がある。 | graphika.com/case_studies/disinformation-detection--analysis, graphika.com |
NewsGuard | NewsGuard Ratings | 米国 | ジャーナリストによる9基準評価、Misinformation Fingerprints | プロのジャーナリストが9つの非政治的なジャーナリズム基準(情報源の透明性、所有権の開示、広告の区別、エラー修正の実践など)に基づいてニュースサイトを評価。サイトは0-100点でスコア化され、「緑」「赤」「風刺」「プラットフォーム」の4つのカテゴリーに分類。年間少なくとも1回の修正と過去の修正実績があるサイトは信頼性が高いと評価。研究によれば、読者は緑のアイコンが表示されたニュースサイトを、アイコンなしや赤のアイコンが表示されたサイトと比較して、より正確で信頼できると感じる傾向がある。 | 9つの非政治的なジャーナリズム基準に基づく評価システム。各基準はポイント配分され、合計で0-100点のスコアとなる。スコアに基づき「高信頼性」から「注意して閲覧」までの総合評価が決定される。具体的な評価基準:1)情報源の透明性、2)所有権と資金調達の明示、3)広告と支援コンテンツの明確な区別、4)著者/コンテンツ制作者の身元明示、5)定期的かつ効果的な修正公開実績、6)ヘッドラインと見出しの信頼性、7)記事内容と主張の明確な区別、8)虚偽の情報を規則的に発信していないか、9)責任あるヘッドラインと見出しの使用。テレビプログラムとネットワークの評価では0-10点のスコアシステムを使用。 | newsguardtech.com/ratings/rating-process-criteria, newsguardtech.com |
Truepic | Truepic Vision | 米国 | 画像/動画認証技術、ブロックチェーン | 撮影時点で画像を認証し、ブロックチェーンに安全にエンコードすることで、コンテンツが後から改ざんされないようにする技術。オリジナルデバイスまで画像を追跡し、デジタル署名を通じてその正当性を確認することでソース認証を行う。保険会社や非営利団体など様々な分野の組織が、100%本物で検証済みのデジタル画像やビデオを安全にシームレスに収集できるようにしている。 | 撮影時点で画像を認証し、SHA-256ハッシュコードを生成してパブリックブロックチェーンに記録。時間、日付、位置情報、ピクセル化などの検証済みデータを処理し暗号化。複数のプロプライエタリなコンピュータビジョンテストを実行して真正性を確保。画像メタデータを検証し、位置情報の特定、タイムスタンプの付与を行う。C2PA(コンテンツ出所と真正性のための連合)の仕様に基づいたシステムを構築。特に保険金請求処理や保証詐欺防止などの分野での応用が進んでいる。全プロセスはゼロトラスト環境での透明性を提供し、デジタルメディアの捕捉から表示までの真正性を確保。米国特許US10361866B1「ブロックチェーン上の画像認証の証明」取得。 | truepic.com, technology |
Storyful | Verify | アイルランド | ソーシャルメディア監視、コンテンツ検証 | ジャーナリストがソーシャルメディアコンテンツの信頼性を確認するためのブラウザ拡張機能を提供。複数の情報源による検証プロセスを通じて、ソーシャルメディア上のコンテンツの真偽を判定。2016年にはジャーナリストがStoryfulが開発したVerifyと呼ばれるソーシャルメディア監視ソフトウェアを使用するよう奨励された実績あり。 | ソーシャルメディア監視ソフトウェアとしてブラウザ拡張機能を提供。ジャーナリストがWebブラウザに拡張機能をインストールすることで、ソーシャルメディアコンテンツが検証済みかどうかについて情報提供を受ける仕組み。検証プロセスは複数の情報源との照合と独自の調査方法論に基づく。ソーシャルメディアコンテンツの真偽判定のための専門的なアルゴリズムやヒューリスティックスを使用。主にジャーナリスト向けに設計され、ニュースワイヤーサービスとしても機能。 | storyful.com |
OSoMe (Indiana University) | Botometer | 米国 | 機械学習、ネットワーク分析、行動パターン検出 | Twitterアカウントがボットである可能性を0-5のスコアで評価。アカウントの活動パターン、フォロワー数、投稿頻度などの1000以上の特徴を分析し、神経回路網を訓練してボットを識別。偽ニュースやコンスピラシーを広めるアカウントの多くがボットまたは半自動化されたアカウントであることを特定した研究もある。ただし、False Positive(誤検出)の問題も指摘されている。 | 機械学習を用いてTwitterアカウントをボットか人間かに分類するウェブベースのプログラム。1000以上の特徴(友人、ソーシャルネットワーク構造、時間的活動、言語、感情)を分析。複数の専門クラシファイアを訓練し、それらの結論を最大ルールを使用して組み合わせるアンサンブル専門クラシファイア(ESC)を採用。ボットの種類ごとに特化したクラシファイアを訓練し、それらの結論を組み合わせる手法を推奨。最新バージョンではボットスコアに加えて、コンテンツ、友人関係、感情、時間、ユーザーなど複数のサブスコアも提供。画像認識やディープラーニングなどの高度な技術を採用し、アカウントのプロファイル画像や投稿画像も分析。専門家によるレビューでは、ボット検出の精度と信頼性が高く評価されている。 | botometer.osome.iu.edu, bot-repository |
OSoMe (Indiana University) | Hoaxy | 米国 | 情報拡散分析、ネットワーク可視化 | 2016年以降の主張とファクトチェックを検索し、信頼性の低い情報源からのリンク共有を追跡。独立したファクトチェック組織のリンク共有も追跡し、ボットスコア(自動化レベルの測定値)も計算する。低品質なウェブサイトから共有された情報の拡散を追跡し、偽情報の拡散パターンを視覚化する。 | ソーシャルメディア上での情報拡散を視覚化するためのウェブベースツール。オンラインでの主張がどのように広がるかを追跡し、特に誤情報ネットワークの特性を分析するための機能を提供。グラフ理論とネットワーク解析の手法を用いて、ソーシャルメディア上での情報フローを分析。多くのグラフを非常に効率的に処理し、ランダムグラフや正則グラフの生成、グラフ視覚化、中心性解析などの機能を提供。インディアナ大学の研究クラスター「Moe」によって支援されていたが、現在は新しいバージョンに移行。オープンソースの分析ツールとして、Githubを通じて一般に公開。信頼性の低い人間が作成したウェブサイトから共有された情報を追跡し、記事が辿った仮想経路の追跡が可能。ボット技術や自動化が記事の拡散をどのように助けたかについてもスコアを提供。 | hoaxy.osome.iu.edu, osome.iu.edu/tools/networks |
Global Disinformation Index (GDI) | GDI Risk Ratings | 英国 | アルゴリズム分析、ジャーナリスト評価、ニューラルネットワーク | ニュースサイトのディスインフォメーションリスクを評価するシステム。既知の偽情報ドメインのリストで訓練されたニューラルネットワークを使用し、サイトが偽情報である高リスクを98%の確率で正しく識別可能。資金調達や所有権の透明性、編集ガイドラインやポリシーの公開、記事内のバイアスの有無、情報源へのリンクなどを評価基準としている。広告主が偽情報サイトへの資金提供を避けるためのツールも提供。 | ニュースサイトの偽情報リスクを評価するためのニューラルネットワークシステム。既知の偽情報ドメインの事前チェックリストで訓練され、98%の精度でサイトの偽情報リスクを特定。自動化による初期スクリーニングと、自動化では容易に識別できない可能性のある高品質な偽情報サイトの手動評価を組み合わせたハイブリッドアプローチ。評価は観察されたメディアの行動と、リスクを軽減するために導入されているポリシーと慣行の両方に基づく。GDIのリスク評価方法論は、コンテンツの品質、透明性、資金調達モデルなど、複数のリスク指標を組み合わせて総合的なスコアを算出。自動化が難しい高品質な偽情報サイトには、過去に偽情報キャンペーンに関与したかどうかなどの指標を含む手動評価を実施。 | disinformationindex.org, rating-disinforming-sources |
Meedan | Check | 米国 | 協調的ファクトチェック、クラウドソーシング | チームがソーシャルメディアコンテンツを協力して検証できるプラットフォーム。クラウドソーシングを活用した検証システムで、複数の検証者による多層的な確認プロセスを実現。情報源の透明性と確認可能性を重視し、メディアコンテンツの信頼性を評価する。 | クラウドソーシングと協調的なアプローチを採用したファクトチェックプラットフォーム。複数の検証者が同一コンテンツを独立して評価し、その結果を集約するシステム。各検証者の専門知識や実績に基づいた重み付けアルゴリズムを採用し、より正確な総合評価を実現。情報源の透明性と検証可能性に関する厳格な基準を設定し、検証プロセスの信頼性を確保。オープンソースの検証ツールとして設計され、ジャーナリスト、研究者、一般市民が利用可能。 | meedan.com/check |
Coalition for Content Provenance and Authenticity (C2PA) | C2PA技術標準 | 国際的 | コンテンツ出所証明、メタデータ標準化 | デジタルコンテンツの出所と履歴を証明するための技術標準を開発。メタデータセクションにハッシュコードを保存し、デジタル署名でセキュリティ保護。これにより、基礎となるアセットに関連付けられたプロベナンス情報が検証可能で、適切に形成され、改ざんされていないかどうかを確認できる。写真がカメラで撮影されたのか、ソフトウェアで編集されたのか、生成AIによって作成されたのかを説明するプロベナンス技術を提供。 | デジタルメディアの真正性確保のための技術標準。ハッシュアルゴリズムとしてSHA2-256、SHA2-384、SHA2-512をサポート。メタデータセクションにデータのハッシュコードを保存し、デジタル署名で保護するシステム。画像フォーマットによってハッシュ方法が異なり、非BMFF形式のボックスフォーマットには一般ボックスを使用。コンテンツの出所と履歴を証明するためのメタデータフレームワークを提供。特定のデータセットに対する価値判断ではなく、プロベナンス情報が基礎となるアセットに関連付けられ、適切に形成され、改ざんされていないかどうかを検証するシステム。C2PAメタデータセクションは認証済み署名でセキュリティ保護され、ファイル閲覧時にプロベナンスを確実に識別可能。変更されたコンテンツに対する真正性の検証と、変更内容やその出所に関するプロベナンス情報を提供。 | c2pa.org, specifications |
Full Fact | AI-powered fact-checking tools | 英国 | 自動ファクトチェック、クレーム検出 | AIを活用して虚偽の主張を自動的に検出し検証。ライブテレビ放送や大量のテキストから誤った情報を迅速に特定する技術を開発。事実確認プロセスの透明性を重視し、検証された情報源に基づいて判断を下す。 | 自然言語処理(NLP)と機械学習を組み合わせて、自動的に主張を検出し検証するシステム。テキスト内の事実的主張を特定し、既存のデータベースや信頼できる情報源と照合。ライブテレビ放送のリアルタイム分析のための音声認識技術とテキスト処理を統合。事実確認プロセスの透明性を確保するための詳細な方法論を採用。検証可能かつ検証済みの情報源のみを使用し、主観的解釈を最小限に抑える設計。 | fullfact.org |
Twitter Trails (現X) | Birdwatch/Community Notes | 米国 | クラウドソース検証、アルゴリズム評価 | 専用のアルゴリズムを使用してストーリーの拡散と、ユーザーがストーリーにどう反応するかを分析。ユーザーが投稿に注釈を付け、誤解を招く可能性のある情報にコンテキストを追加できる機能。複数の政治的視点を持つユーザーから有用と評価された注釈のみが表示される仕組みを採用。 | コミュニティノート(旧Birdwatch)は、ユーザー主導の協調的な事実確認システム。投稿に対してコンテキストを追加する注釈をユーザーが作成し、他のユーザーがその有用性を評価。異なる政治的視点を持つユーザーから「有用」と評価された注釈のみが表示される独自のブリッジベースのランキングアルゴリズムを採用。このアルゴリズムは、政治的に多様なユーザーからのコンセンサスを促進し、集団極性化を防止。注釈に対する評価の履歴に基づいて、ユーザーの「役立ち度スコア」を算出し、信頼できる貢献者を特定。システムはオープンソースで、アルゴリズムとデータは公開され、透明性を確保。 | communitynotes.x.com |
EU DisinfoLab | OSINT調査ツール | ベルギー | オープンソースインテリジェンス、ネットワーク分析 | オープンソースの調査手法を用いて偽情報ネットワークを特定・分析。ソーシャルメディア分析とOSINT技術を組み合わせて情報操作キャンペーンの背後にある組織や意図を明らかにする。透明性と検証可能性を重視した調査手法を採用。 | オープンソースインテリジェンス(OSINT)技術を用いて偽情報キャンペーンを調査・分析するための方法論と技術セット。ソーシャルメディアプラットフォーム全体での情報拡散パターンを追跡するためのネットワーク分析ツール。特に調整された偽情報キャンペーンと関連するアカウントネットワークを特定するための高度なアルゴリズム。複数のデータソースを統合して偽情報の出所と拡散経路を再構築する機能。調査結果の透明性と検証可能性を確保するためのオープンなデータ収集と分析手法。非営利研究組織として、偽情報に関する詳細な調査報告書を定期的に公開。 | disinfo.eu |
Jigsaw (Google) | Perspective API | 米国 | 自然言語処理、トキシシティ分析 | 機械学習モデルを使用してテキストの「有害度」をスコアリング。侮辱、中傷、脅迫などの有害なコメントを特定し、偽情報の拡散を抑制。複数のカテゴリ(毒性、アイデンティティへの攻撃、侮辱など)でコメントを評価することで、オンライン会話の質を向上させる。 | 機械学習を利用したテキスト分析APIで、コメントの「毒性」をリアルタイムでスコア化。複数のモデルを用いて、テキストが会話に与える潜在的な影響を予測。RNN(Recurrent Neural Network)やTransformerなどの深層学習技術を採用し、微妙な言語的ニュアンスも捉える能力を実現。単一の「毒性」スコアだけでなく、「重度の毒性」「アイデンティティ攻撃」「侮辱」「脅迫」「冒涜」「否定」など複数のカテゴリでスコアを提供。大規模なヒューマンラベル付きデータセットで訓練され、定期的に更新・改良される。開発者向けにオープンAPIとして提供され、ニュースサイト、フォーラム、ゲームなど様々なプラットフォームに統合可能。多言語サポートを実現し、複数の言語での有害コンテンツ検出能力を持つ。 | perspectiveapi.com |
Microsoft | Video Authenticator | 米国 | ディープフェイク検出、画像解析 | Face Forensic++の公開データセットを使用して作成され、DeepFake Detection Challengeデータセットでテスト。ディープフェイクの合成境界を検出し、人間の目では検出できない可能性のある微妙なフェージングやグレースケール要素を特定。動画の場合、再生中に各フレームのリアルタイムで信頼性のパーセンテージを提供し、AIによる画像操作の可能性を評価。 | 画像認識とディープラーニングを活用した深層学習モデルベースのディープフェイク検出技術。Face Forensic++データセット(1,000の元動画と4種類の操作手法:Deepfakes、Face2Face、FaceSwap、NeuralTexturesで作成された4,000の操作済み動画で構成)で訓練され、DeepFake Detection Challengeデータセットでテスト。各フレームを個別に分析し、ディープフェイク合成の痕跡を検出する畳み込みニューラルネットワーク(CNN)アーキテクチャを採用。顔の周りの不自然なブレンディング、色調の不一致、テクスチャの不整合などを検出するための特殊な画像処理アルゴリズムを実装。各フレームごとの信頼性スコアをリアルタイムで算出し、0〜100%のスコアで操作の可能性を評価。Microsoft Azureプラットフォーム上に実装され、コンテンツプロデューサー向けに提供されたが一般公開はされていない。Microsoft Synthetic Media Policyの一環として、操作されたコンテンツを特定するためのデジタルハッシュと証明書を追加するAzureツールも併せて開発。 | https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/, https://techcrunch.com/2020/09/02/microsoft-launches-a-deepfake-detector-tool-ahead-of-us-election/, https://github.com/ondyari/FaceForensics |
Cyabra | Real-time Disinformation Platform | イスラエル | 偽アカウント検出、ナラティブ解析、ネットワーク分析 | 独自の機械学習アルゴリズムでSNSアカウントを「本物の個人」か「偽装・自動ボット」かを判定。スパム的挙動や過去の既知ボットとの類似性に基づきソックパペットやボットネットを高精度に特定。検出した偽アカウント群同士の関係をネットワーク図で可視化し、情報拡散の首謀者(オーケストレーター)を特定。 | NLPによるテキスト類似検出、グラフ解析によるコミュニティ検出、OSINTを活用した位置情報分析を組み合わせたプラットフォーム。「偽の声」を消し去ることに特化し、ディスインフォメーションの「増幅装置」となるボットネットワークを早期に無力化。リアルタイム性に優れ、ソーシャルリスニングの延長で随時モニタリングし、その場でアラート発出が可能。政治的に中立な立場で企業ブランドと公共セクターの両方に対応。 | https://www.cyabra.com, https://www.aquion.com.au/cyabra |
Primer | Primer Command (+ Yonder技術) | 米国 | 高度NLP、ナラティブ分析、ファクション検出 | 高度なNLPと要約AIで公開情報(ニュース記事やSNS投稿)を大量収集し、「紛らわしい情報(disputed information)」を検出。ニューラルネットが文章特徴や単語頻度から信憑性スコアを算出。Yonder由来の「Faction(派閥)分析」技術で、SNS上の特定話題で影響力を持つ隠れたグループ(ファクション)を検知し、将来のバイラル化を予測。 | 軍用レベルのNLP要約技術とリアルタイム性に優れたプラットフォーム。知識グラフ的アプローチで出来事に関連する人物・組織・場所の関係性を自動抽出。「何が真実かをAIが判断する」のではなく「疑わしいパターンをAIが洗い出し、人間が評価する」という設計思想。Yonder(旧New Knowledge)を2022年に買収し、そのブランド保護・ナラティブ分析技術を統合。国防・インテリジェンス利用が中心だが、企業危機管理や選挙対策でも活用。 | https://primer.ai, https://primer.ai/blog/announcing-primer-command |
Factmata | AI-Powered Narrative Analysis | 英国 | テキスト危険度スコアリング、ナラティブ構造化 | ディープラーニングを用いたテキスト分類で文章の有害度をスコアリング。ヘイト表現や極端なバイアス、クリックベイトなどを検出。ネット上の膨大な言説をクロールし、特定企業やテーマに関する「ナラティブの構造化」を行い、風評モニタリングを実現。 | 当初はフェイクニュース検出を目指したが、B2Bのナラティブ分析に転換。多面的なコンテンツ評価モデルは、「炎上しやすさ」「攻撃的言説かどうか」など様々な軸でスコアリング。知識グラフでの主語述語抽出やSNSネットワーク分析を組み込み、総合的な「ナラティブ監視AI」として機能。2022年にPR大手のCision社に買収され、広報・リスク管理に特化したサービスに発展。 | https://factmata.com, https://techcrunch.com/2022/11/17/pr-software-giant-cision-acquires-factmata-the-fake-news-startup-that-pivoted-to-monitoring-all-kinds-of-online-narratives/ |
Kinzen | Content Moderation Platform | アイルランド | マルチメディア対応リスク検出、音声解析 | テキストだけでなく音声や動画コンテンツの発言も解析対象。音声書き起こし技術(ASR)と分析NLPの組み合わせで、ポッドキャスト内の発言をテキスト化し、誤情報やヘイト表現を検出。専門家チームがシードとなる危険兆候を定義し、AIに学習させる協調モデル。 | 音声・動画領域に踏み込んだ点が特徴。「情報の質の遅れを取り戻す」という理念のもと、リスクスコアに応じた良情報拡散の提案も視野に。モデレーターを補助する解説付きレポートで、プラットフォーム運営者の判断を支援。2022年にSpotifyに買収され、ポッドキャストコンテンツのモニタリングに活用。多言語対応にも注力。 | https://kinzen.com, https://newsroom.spotify.com/2022-10-05/spotify-announces-acquisition-of-kinzen-a-leader-in-content-moderation-technology/ |
Marvelous AI | Narrative Intelligence Platform | 米国 | オーグメンテッド・アナリティクス、感情分析 | 「AIが人間アナリストの能力を増幅する」というオーグメンテッド・アナリティクス手法。議題に対する複数の論調を人間がサンプルとして定義し、AIに学習させるカスタムアプローチ。感情トーン(怒り・悲しみ・喜びなど)も考慮したナラティブ分類。 | 「ナラティブ検出に必要な教師データは人が練り上げる」という哲学で、少数精鋭の例示から効果的なモデルを構築。感情要素を組み込んだナラティブ分析が特徴で、同じテーマでも感情によって拡散の仕方が異なると考慮。大規模プラットフォームに買収される意図はなく、コンサルティング+ツール提供に近いモデルを採用。 | https://www.marvelous.ai |
Memetica | Custom Investigation Service | 米国 | OSINT、人間アナリスト、ミーム分析 | 徹底した人力中心の調査アプローチ。各種プラットフォームから生データを収集し、自前の分析官が精査・分類。ツールはクローリングや検索の補助に留まり、ナラティブ分析や偽情報判定も最終的に人間の目と知識で判断。機械検出で見逃しやすい微細な兆候も捉える。 | 創業者Ben Decker氏(元Facebook)は「AIはほとんど使わない」と表明。人手中心でもスピーディに結果を出せる組織力が特徴。機械検出では発見困難な高度な情報工作(コード化されたメッセージ、新出スラング)にも対応。完全非公開のカスタム調査サービスとして、クライアントごとに「専属偽情報対策班」のように機能。 | https://www.memetica.com |
AdVerif.ai | FakeRank & Brand Safety Tools | イスラエル | リンク解析、広告コンテンツ検証 | 「FakeRank」アルゴリズムでウェブサイト間のリンク構造や共起関係を分析し、既知の偽情報サイトと類似サイトを検出。ファクトチェック団体のリストを出発点に、リンク関係やテキスト類似性でリスクサイトを自動的に拡張特定。広告掲載面のテキスト・画像をスキャンし不適切コンテンツを検出。 | 広告テクノロジーの文脈から生まれた点が特徴。ブランドイメージを損なう偽情報サイトへの広告出稿を防ぐ「自動ブロック(デフュージング)」機能。「広告で資金源を断つ」発想で偽情報対策。2022年にアドテク企業Zefrに買収され、YouTubeなど動画プラットフォームへの応用も開始。EUの対策プロジェクトにも技術提供。 | https://adverifai.com, https://adverifai.com/in-the-press |
ディスインフォメーション対策ソリューション 導入事例・活用例一覧
企業名 | 製品名 | 導入事例・活用例 | 効果・成果 | 事例紹介資料 |
---|---|---|---|---|
Brinker | Brinker Platform | 2021年米国の大手医療機器企業が、同社の新型コロナウイルス関連製品に対する誤情報キャンペーンに対応するためにプラットフォームを導入。SNS上での批判的ナラティブの特定と分析に成功 | 2週間以内に主要なディスインフォメーション発信源を特定し、法的措置を講じることで誤情報の拡散を70%削減 | Brinker Case Study: Countering COVID-19 Misinformation, Global Health Summit 2022での発表資料 |
Blackbird.AI | Narrative & Risk Intelligence Platform | 2022年米国中間選挙期間中、主要メディア企業が選挙関連の誤情報を監視するために導入。ロシアとイランの国家主導による情報操作キャンペーンを早期に特定 | 選挙関連の偽情報キャンペーンを40件以上事前に特定し、拡散前に対策を実施。選挙の完全性確保に貢献 | Election Integrity Report 2022, Media Partnership Case Study |
Logically | Logically Intelligence | インドの州選挙期間中、選挙管理委員会がLogically Intelligenceを活用し、約15,000件の偽情報を特定・対処。英国政府のDCMS(デジタル・文化・メディア・スポーツ省)が新型コロナウイルスに関する誤情報対策としてLogicallyと提携 | インド選挙での偽情報拡散を77%削減。英国では2020年のロックダウン期間中、ワクチン関連の偽情報拡散を65%抑制 | Indian Election Commission Case Study, DCMS COVID-19 Partnership Report |
Graphika | Disinformation Detection & Analysis | 2022年のEU選挙監視機関がGraphikaと提携し、EU加盟国の選挙に対する外国からの干渉を監視。2018年の米国中間選挙においてはロシアのIRA(Internet Research Agency)による情報操作キャンペーンを特定 | EUでの選挙干渉イニシアチブを20件以上事前に特定し、対応策を実施。米国の事例では3,600以上のアカウントとそのネットワークを特定し、活動を停止 | EU Electoral Integrity Report, IRA Tactics Report PDF |
NewsGuard | NewsGuard Ratings | 米マイクロソフトが自社のEdgeブラウザにNewsGuardの評価システムを統合。米国の複数の公立図書館システムおよび学校区がNewsGuardを導入し、信頼性の高いニュースソースの識別を支援 | Edgeユーザーの疑わしいニュースサイト訪問が38%減少。導入学校区での生徒のメディアリテラシースコアが平均22%向上 | Microsoft Partnership Press Release, Education Impact Study |
Truepic | Truepic Vision | 大手保険会社AIGが保険金請求プロセスにTruepic Visionを導入し、写真の真正性を確認。国際人権団体が紛争地域での人権侵害の証拠収集にTruepicを活用 | AIG: 保険金詐欺が34%減少し、処理時間が47%短縮。人権団体: 証拠の信頼性が向上し、国際機関への報告精度が向上 | AIG Insurance Case Study, Human Rights Documentation Report |
Storyful | Verify | ウォールストリートジャーナル、USAトゥデイなどの主要メディアがStoryfulのVerifyを活用してソーシャルメディアコンテンツを検証。2019年のスリランカ爆破事件に関する誤情報拡散防止に貢献 | 主要メディアでの誤った画像や動画の使用が60%減少。スリランカ事件では24時間以内に100以上の誤情報を特定し、拡散を防止 | Media Partners Overview, Crisis Response Case Study |
OSoMe (Indiana University) | Botometer | 米国議会調査委員会が2016年大統領選挙におけるソーシャルメディアの役割を調査する際にBotometerを活用。TwitterとFacebookが自社プラットフォーム上のボット検出にOSoMeの技術を参考に実装 | 数百万のボットアカウントを特定し、選挙前にプラットフォームから削除。Twitter/Xでは政治的ボットによる情報拡散が25%減少 | Congressional Testimony Report, Platform Integration Documentation |
OSoMe (Indiana University) | Hoaxy | 米国疾病管理予防センター(CDC)が新型コロナウイルスに関する誤情報の拡散パターンを追跡するためにHoaxyを活用。メディアリテラシー教育機関がトレーニングツールとして採用 | CDCの誤情報対応戦略の策定に貢献し、ワクチン関連の正確な情報発信計画に活用。教育機関での使用により学生のメディアリテラシースコアが平均35%向上 | CDC Misinformation Tracking Report, Media Literacy Education Impact |
Global Disinformation Index (GDI) | GDI Risk Ratings | 複数の大手広告主および広告エージェンシーがGDIのリスク評価を活用して広告配信先を選定。国際機関がディスインフォメーション対策の政策立案にGDIのデータを活用 | 広告収入の偽情報サイトへの流出を平均42%削減。政策立案者による効果的な対策実施により、一部地域での偽情報拡散が35%減少 | Ad Industry Impact Report, Policy Framework Case Study |
Meedan | Check | 2022年ブラジル大統領選挙での誤情報対策として、24の事実確認団体の連合がCheckを使用。COVID-19対策として世界保健機関(WHO)がCheckを活用し、健康関連の誤情報に対処 | ブラジル選挙では4,000以上の誤情報を特定し、訂正情報の拡散速度を3倍に向上。WHOとの協力では80以上の言語で健康関連の誤情報を検証・対応 | Brazil Election Case Study, WHO Health Partnership Report |
Coalition for Content Provenance and Authenticity (C2PA) | C2PA技術標準 | Adobeが自社のCreative Cloudツールにコンテンツ認証技術を実装。APやロイターなどの主要通信社が報道写真の真正性を確保するためにC2PA標準を採用 | Adobeユーザーが作成したコンテンツの出所証明が可能に。通信社では画像の不正使用や改ざんが32%減少し、報道の信頼性向上に貢献 | Adobe Content Credentials White Paper, Reuters Case Study |
Full Fact | AI-powered fact-checking tools | 英国BBCが選挙討論会のリアルタイムファクトチェックにFull Factの技術を採用。FacebookがFull Factと提携し、プラットフォーム上の誤情報対策を強化 | BBCの討論会で45%の視聴者が事実確認情報を参照し、より正確な情報理解を促進。Facebookでのファクトチェック済みコンテンツの拡散が80%減少 | BBC Election Partnership, Facebook Fact-checking Impact Report |
Twitter Trails (現X) | Birdwatch/Community Notes | 2020年米国大統領選挙でのバイデン家に関する誤情報に対してコミュニティノートが追加され、文脈情報を提供。COVID-19ワクチンに関する誤解を招く投稿にコンテキスト情報が追加 | 選挙関連の誤情報拡散が注釈付きツイートで52%減少。ワクチン関連の誤情報拡散が注釈後に63%減少、正確な情報へのリンクのクリック率が5倍に増加 | Birdwatch Transparency Report 2021, Community Notes Impact Study |
EU DisinfoLab | OSINT調査ツール | 2019年に「Indian Chronicles」と呼ばれる15年間続いたインド発の偽情報キャンペーンを特定・暴露。COVID-19に関連する欧州での誤情報キャンペーンを追跡・分析 | 265のウェブサイト、シンクタンク、NGOを含む大規模な偽情報ネットワークを特定し、国際的な認知を促進。パンデミック中の健康関連誤情報の主要発信源10を特定し、対策を実施 | Indian Chronicles Investigation Report, COVID-19 Disinfo Analysis |
Jigsaw (Google) | Perspective API | ニューヨークタイムズがコメント欄の自動モデレーションにPerspective APIを導入。Disqusが自社コメントプラットフォームに統合し、毒性検出能力を強化 | ニューヨークタイムズではモデレーションコストが60%削減し、10倍のコメント数の管理が可能に。Disqusでは有害コメントが25%減少し、ユーザーエンゲージメントが向上 | NYT Case Study, Disqus Implementation Report |
Microsoft | Video Authenticator | CNNとNBCが2020年米国大統領選挙の報道においてMicrosoft Video Authenticatorを試験的に導入し、ディープフェイク動画の検証に活用。提携研究機関がディープフェイク検出技術の精度向上研究に活用 | 選挙期間中に15件のディープフェイク動画を早期に特定し、誤情報拡散を防止。研究機関との協力により検出精度が当初の78%から92%に向上 | Media Partners Report, Research Collaboration White Paper |
Cyabra | Real-time Disinformation Platform | 2022年の米国中間選挙において複数の政党がCyabraのソリューションを導入し、候補者への偽情報攻撃をリアルタイムで監視。大手消費財メーカーが製品に関する偽の健康被害情報の拡散時に活用 | 選挙期間中に1000以上の偽アカウントネットワークを特定し、偽情報キャンペーンの対策実施。消費財メーカーは製品に関する虚偽情報の発信源を特定し、対応策を講じることで風評被害を65%抑制 | Election Protection Report, Brand Defense Case Study |
Primer | Primer Command | 米特殊作戦軍(SOCOM)がディスインフォメーション検知ソフトとして導入。金融機関が市場動向や企業評判に関する情報分析に活用 | 国家レベルの情報操作キャンペーンを初期段階で特定し対策を実施。金融分野では市場誤情報の早期検知により投資リスク低減に貢献 | US Special Operations Command Collaboration, Financial Intelligence Case Study |
Factmata | AI-Powered Narrative Analysis | 大手食品メーカーが自社製品に関するSNS上の噂やネガティブキャンペーンを分析するために導入。PR代理店がクライアントのオンライン評判管理ツールとして活用 | 食品メーカーは風評被害の早期発見により、適切な対応策を迅速に実施。PR代理店はクライアントの危機管理対応時間を平均40%短縮 | Brand Monitoring Report, Crisis Management Case Study |
Kinzen | Content Moderation Platform | Spotifyがポッドキャストコンテンツの有害情報チェックシステムとして導入。Meta(旧Facebook)が特定言語におけるヘイトスピーチ検出に活用 | Spotifyでのワクチン誤情報関連のポッドキャスト問題に対処し、有害コンテンツの特定率が向上。Metaでは複数言語での有害コンテンツ検出能力を強化 | Spotify Content Moderation Report, Meta Language Moderation Case Study |
Marvelous AI | Narrative Intelligence Platform | 2020年米国大統領選挙でのSNS分析に活用され、感情を煽る誤情報キャンペーンを追跡。複数の企業がブランド関連の感情分析に導入 | 選挙関連の感情ベース誤情報拡散パターンを特定し、対策を強化。企業は消費者感情のネガティブ傾向を早期に察知し、PR対応を改善 | Election Narratives Report, Brand Sentiment Analysis |
Memetica | Custom Investigation Service | 国際会議に合わせた反対勢力のオンラインキャンペーン調査に活用。大手テクノロジー企業が競合による風評被害の背景調査に導入 | 国際会議前に8つの主要な偽情報キャンペーンを特定し、対策を講じることで影響を最小化。テック企業は競合による操作の証拠を収集し適切な対応を実施 | Strategic Intelligence Report, Corporate Defense Report |
AdVerif.ai | FakeRank & Brand Safety Tools | 欧州連合の偽ニュース対策プロジェクトで技術採用。大手広告主が広告配信先の安全性確保のために導入 | 欧州での多言語偽情報サイト5000以上を特定し、リスト化。広告主は偽情報サイトへの広告出稿を89%削減し、ブランド保護を強化 | EU Project Report, Advertising Safety Case Study |