ミャンマー
中部で
発生した
大地震について、SNSでは
生成AIで
作られたとみられる
偽の
動画が
広がっています。
Regarding the major earthquake that occurred in central Myanmar, fake videos believed to be generated by AI are spreading on social media.
災害が
起きたときには
偽の
動画や
根拠不明の
情報などが
広がりやすく、
安易に
拡散させないよう
注意が
必要です。
During a disaster, fake videos and unverified information can easily spread, so it is important to be cautious and not share them thoughtlessly.
今月28日に発生した、ミャンマー中部を震源とするマグニチュード7。
Magnitude 7 earthquake centered in central Myanmar occurred on the 28th of this month
7の
大地震のあと、SNSでは
現地の
様子を
撮影した
動画や
支援の
呼びかけが
多く
投稿されている
一方、
生成AIで
作られたとみられる
偽の
動画も
複数確認されています。
After the magnitude 7 earthquake, many videos capturing the local situation and calls for support have been posted on social media, while multiple fake videos believed to be created by generative AI have also been confirmed.
このうち、仏教寺院の塔がある街で多くの建物が倒壊した様子を上空から撮影したような動画は、日本語でのXの投稿が10万回以上閲覧されていますが、NHKが元の動画を調べたところ、生成AIを使って動画を作成するサービスの「透かし」があることが確認できました。
<br><br>Among these, a video that appears to have been shot from the air showing many buildings collapsing in a town with a Buddhist temple tower has been viewed over 100,000 times on X in Japanese, but when NHK investigated the original video, it was confirmed that there is a watermark from a service that creates videos using generative AI.
この偽動画はさまざまな言語で拡散し、被災地の様子だとして、インドネシアやロシアなどのメディアが引用していました。
<br><br>This fake video spread in various languages and was cited by media in countries such as Indonesia and Russia as depicting the situation in disaster-stricken areas.
また「地震後のミャンマー」だとするビルが建ち並ぶ間の道路が地割れしている様子を上空から撮影したように見える動画はXで複数投稿され、合わせて300万回以上閲覧されていますが、動画なのに人が動いていないなど不自然な点があるほか、Xで広がった動画のいくつかにはTikTokのアカウント名が記されていて、そのアカウントを調べると生成AIによるものとみられる動画を多く掲載しているものでした。
The video, which appears to show a road cracking between buildings in post-earthquake Myanmar from an aerial view, has been posted multiple times on X and viewed over 3 million times. However, there are unnatural aspects such as no people moving in the video, and some of the videos that spread on X have TikTok account names listed. Upon investigating these accounts, they were found to feature many videos likely generated by AI.
中には、こうした生成AIで作られたとみられる偽動画が、現地で撮影された動画と並べられる形に編集されて拡散したケースもありました。
<br><br>There were cases where fake videos, believed to be created by such generative AI, were edited to be placed alongside videos shot on location and spread.
生成AIによる偽動画は精巧になっていて、見抜くのが難しいものも増えています。
<br><br>Fake videos generated by AI are becoming more sophisticated, making them increasingly difficult to detect.
災害が起きたときには偽の動画や根拠不明の情報などが広がりやすく、安易に拡散させないよう注意が必要です。
<br><br>In the event of a disaster, fake videos and unsubstantiated information tend to spread easily, so it is important to be cautious and not spread them carelessly.