トランプ政権が陥った「ガセネタ」案件の続発
この数週間でアメリカのトランプ政権が正しくない情報に振り回されている、というニュースが続いています。一つはトランプ大統領が南アフリカのラマポーザ大統領と面談した際の一幕。2025年5月21日に両大統領がホワイトハウスで面談した際、「南アフリカ国内で白人が迫害されている」とトランプ氏が主張するために流した動画は南アフリカとは全く別のコンゴ民主共和国東部の紛争地における動画であったと報じられています。トランプ氏自身も「事実を誤認した」と認めており、ホワイトハウス内で事実関係の確認が不十分だったことが明確になった事例です。

もう一つの事例は5月22日に米国政府厚生省が発表した新型コロナウイルスに関する報告書で、存在していない論文が引用されていたというものです。そもそも存在していない論文を根拠としてアメリカの政策を左右しかねない公的な報告書が発表されていることが分かったという点で影響は甚大です。また存在する論文を引用している部分でも、その引用元や著者が誤って紹介されるなど、正確性にも疑念が生じています。
報告書のデータに付属したタグから架空の論文を引用したこと、また論文の引用ミスいずれも「Chat GPT」を使用したことによる弊害であることが推測されています。世界をリードするアメリカ政府の公式報告書がでっち上げや誤りを多数含んだ状態でよいのか、との指摘が相次ぎました。ホワイトハウスはこうした指摘を受け29日に報告書を修正の上で再公開しています。結論そのものは変わっていないものの、存在しない論文の引用は削除され、Chat GPTを用いた記録も消去されています。こちらは生成AIを過信しすぎハルシネーション(幻覚)と称される現象の手作業での確認を怠ったことがうかがえる事例です。
上記二点はいずれもトランプ政権の情報収集及び解析が十分でないことを示唆する事例です。ただし、これは決してトランプ大統領本人、あるいはトランプ政権だけの問題ではありません。SNSや記者会見等でしばしば荒唐無稽とも思える情報を発信するトランプ氏が大統領にいるから起こる問題ではなく、玉石混交の情報が大量に飛び交う現代では誰もが躓く可能性あると言っても過言ではありません。今回のコラムではこうした「よくある情報収集と情報分析のミス」とミスを未然に防ぐほんの少しの工夫をお伝えします。
センセーショナルな動画、拡散している動画ほど「事実関係」と「出所」を確認しよう
まずトランプ政権が冒した一つ目のミスはセンセーショナルな動画が流れてきた際、そのキャプションや説明をうのみにしてしまったというものです。大勢の遺体を運んでいるような映像が流れてきた際、普段遺体を見慣れていない人ほど衝撃は大きいでしょう。そして自分自身がその時に受けた説明をうのみにしてしまいがちです。しかしながら白人と黒人が区別ができない状態での映像を見て死んだのが白人で間違いないと決めつけてしまうのはよろしくありません。
特に、今回の事例のように自分が現地の事情やその分野に詳しくない場合には受けた説明をうのみにすると自分自身が大嘘つきになってしまう可能性も否定できません。世界で最も影響力が大きいともいえるアメリカ大統領自身も誤りを認めざるを得ず、その言動の信頼性を疑われる事態になっているわけですから、知らない分野ほど専門家の発言をそのまま受け売りで外部に発信するのはやめましょう。センセーショナルで他人の耳目を集めそうな情報ほど「事実確認」を慎重に行うべきです。また、AIで簡単にいろいろな画像が作成できてしまう時代ですので最初にその画像を使ったのがどの媒体なのか、いつの写真/映像なのかという「出所」の確認も事実確認には有効です。
時々起こるのが、特定の国の2025年の出来事として報じられた写真が、実は数年前のものだったという事例。特に長期間首相や大統領、政党代表が変わっていない国の場合には、数年前の発言を報じるニュースを引用して、あたかも現在発生している出来事へのコメントのようにミスリードしようとしている記事を見かけることがあります。時代背景は変わりますし、ましてや全く別の事象に対して行われた数年前のコメントが今現時点の全く別の事象にあてはまるわけではありませんので、ヘッドラインやぱっと見の人物写真に騙されないよう、いつ、どこで撮影された写真なのか、発言なのか、そしてそれをどういうメディアが報じているのかを確認することを強く推奨します。この一点だけ行うだけでも一般的な企業関係者としては情報収集・分析のリテラシーは水準以上に引き上げられるはずです!
とはいえ、事実確認を皆さんご自身の知識やノウハウだけで判断する必要はありません。こういう時に使えるのは例えば関連のキーワードを検索にかけ、主要メディアで関連ニュースがヒットするかの確認です。また、映像や画像があるのであればそれを「Google Lens」で検索をかけ、説明通りの場所や時期であるかを再確認してみることは必要不可欠であると言えるでしょう。例えば「爆弾の写真です」と言われて提示された物体を、本物の爆弾に触れたこともなければ、扱いを訓練したこともない日本人が本当に爆弾かどうかを判断するのは至難の業です。すべてをAIや検索アプリに任せるのは難しいですが、AIや検索アプリを使いこなして正確性をチェックするというのは重要な取り組みなのです。

また、フランスの国営放送であるFrance24のウェブサイトではしばしばフェイクニュースのファクトチェックを公開しています。世界的に注目される事件・事案に関する事実不明の風説が飛び交っている際にはこういった信頼できるメディアのファクトチェックコーナーを活用するのも一案です。
生成AIは「まだ信頼しきれない」ことを前提に活用しよう
情報収集/分析を進めるうえで注意していただきたいもう一つのポイントは生成AIを過信しないことです。トランプ政権の保健当局が報告書作成時に犯したミスがまさにこの生成AIの出力をそのまま報告書に残してしまったという点です。AIを使って効率化する、より広く情報を集める、ということとAIを信頼しきって依存するということは明確に区別しておくべきです。
最近ではAIが司法試験や東京大学の入試問題で合格点を出せるほど性能が上がっていることが報じられています。録音された音声を瞬時に議事録にまとめる、ノンネイティブである我々が書いた英文をビジネス文書として洗練された形に修正する、より多くの人に刺さりそうなキャッチコピーのアイディアを複数提示するといった作業は人間が取り組むよりも生成AIに任せた方が早いことは間違いありません。
生成AIが便利であることは否定しませんが、生成AIが万能であるとは言えません。例えば弊社でも時々、実験として過去の類似テロ事案を生成AIに質問してみるという取り組みをしていますが、発生していないテロ事案をまことしやかに説明してくることもありました。そんな事件がおこってたっけ?と確認してみるとそもそもそんなテロが発生していないというケースも。その点についてAIに問いただすと「スミマセン間違えました」と情報を修正してきますが、それすらも間違っているということが過去にありました。
【参考コラム】【実験】ChatGPT・AIチャットボットに安全対策の相談はできるか?
いわゆる「ハルシネーション(幻覚)」と表現されるAIのあやまりとして有名な事例ですね。ハルシネーションとは「事実に基づかない情報をAIがもっともらしい嘘(事実ではない内容)を出力すること」といった定義がなされています。Chat GPTの名誉のために補足するとこれはCopilotでも確認されており、文献を確認した限りではほかのAIでも発生しているようです。AIを開発する方々もハルシネーション対策に取り組まれているとは思いますが、情報収集や解析を行う側としてできる対策もあります。
具体的な対策の一つ目はAIに対してもいわゆる「クリティカルシンキング(批判的思考)」を向けるという方法です。それって本当?、いつどこでその事件は起こったの?、その事態を説明しているニュース記事のリンクを見せて、といったAIが提示する情報をAI自身に裏とりをさせることでハルシネーションの影響を軽減することができます。
この項終わり