メディア記事

「写真付きフェイクニュース」大量発生時代の幕開けか 静岡水害の“偽画像”問題を考える
「写真付きフェイクニュース」大量発生時代の幕開けか 静岡水害の“偽画像”問題を考える
 

バズる指数ピーク 55

 twitterコメント 46件中 1~46件
災害や事件に関するフェイクを発信した場合は偽札と同レベルの重罪とすべき。早々に手を打たないとまずいとこまで来てる。
これ、今後割と由々しき問題になっていくような気はします。ばれないようにきっちり細工すると、マスコミも騙されそう。
画像にフェイクと分かる物を入れ込むとか出来んかな。美術品の鑑定士の様な職業を作るとか。メディアの信用性がない今、ネットのフェイクが見抜けないと正しい情報がなくなる。
「ん?」と感じた情報は複数のソースに当たるようにはしてるけどね。

»
画像付きのフェイクニュース…
本当に法規制を厳しくした方が良いと思うのだが…

一呼吸置いて、誰が発信しているかというアカウント確認と裏どりはとても大事、昔から。
人の不幸で遊ぶ奴はブタ箱にぶち込んだ方がいいと思うよ。
むしろ災害時における、なんの補足も根拠もない一般人の投稿を全体的に信用しなければいいだけなのでは…
写真付きフェイクニュース大量発生時代の幕開けか 静岡水害の偽画像問題

やっぱり、恐れていたことが起きるようになったね。画像生成AIによって、よりいっそう真偽がわからなくなる世界へ。
こういうフェイク写真やフェイク映像の作成者は、突き止めて重罪にする法律を作るべきだろう。
デジタル庁の初仕事は、フェイク映像の流布の重罪化法案の提出だな。
トランプ大統領がうまれた2017年頃から「フェイクニュース」が増えた。これは右派も左派も
国葬、静岡水害、ソース元が怪しいそれを度々見掛ける。5年遅れで日本へ上陸、深く憂慮する
↓
静岡水害の“偽画像”。これは騙されてしまう。発生初期はすぐに飛び付かないで、時間と共に多くの情報と付き合わせてみるしかないね。
気をつけないと!
どちらにせよ悪質なんだけど、今回のやつはぎりぎりAI画像生成だと分かるフェイクだからこそ拡散されたんだと思う。
Stable Diffusionで「flood damage, Shizuoka」のキーワードで画像生成AIで作った偽水害画像が9月26日にTwitterで拡散。この数ヶ月で画像や音声のAIは本物感への閾値を超えた感。災害時のフェイク画像や音声は都も含めてデジタル防災でも考えねばならない論点。
まず既存マスコミが飛びつきそうで
ホントに怖い
SNSの投稿アテにしすぎ
1つのソースで判断することがナンセンス、という話しがほとんど出てこないのはリテラシー崩壊の表れか?
オールドメディアがはじめに騙されるだろうな→
えぇ…

/
AIが生成した画像のメタデータに何か消せない情報を入れるとか、プログラムするとか出来ないのかしら。
大手マスメディアがSNSにアップされた写真を安易にニュースで使うことが減る気がする。ちゃんと現場に行きましょう。
企業の最新の技術を持ってすれば、すぐ見抜けるのかな?きっとそうだろうな。
嘘を嘘と見抜けない人はTwitterを使うのは難しい
画像生成AIの普及が、フェイク画像の氾濫を招くのは間違いなさそうです。
画像生成AIはパンドラの箱を開けてしまった。文章のデマだけでなく画像のデマが大量にあふれかえり、真偽を判別できない時代がすぐにやってくると思う。そして最初に新聞テレビが盛大に騙される。/写真付きフェイクニュース大量発生時代の幕開けか 静岡水害の偽画像問題
>デマを拡散しようという強い悪意を持っていたというより、面白半分だったのかもしれない。

その後のアレ(エセ謝罪文)を見ると、初めから悪意があると思うぞ
こんなのあるよ。
画像AIの精度向上が「フェイクを見抜く」をより難しく
安易に拡散出来ない理由がコレ
一度でいいから他に無いか検索してみるべし
去年、台風のアジア名をお下品ワードに書き換えたコラ画像1枚(制作者はジョークのつもりで作ったらしい)が独り歩きしてしばらくその名前が話題になってた。気象庁のHPで台風の命名法則とか見れば一発で嘘とわかる画像でもTwitter内では情報が独り歩きしがち。
故意にフェイクニュースを流す奴らは、
逮捕されるようにしないと駄目だろ?

世の中混乱にさせて
遊びでしたじゃすまない。
次はフェイクニュースかどうか判断してくれるAIがww
嫌な時代になった
サクラチェッカーみたいな感じで、画像がAI製、フェイクなのかどうかを判別するようなAIも必要なんじゃないかな、と。研究テーマになりそう。
Y! の友達がなんか言ってる。>
騙された人が自分はアホだということに気づけたなら、それは良いことだと思う
今後、“リアルなフェイクニュース”作りはより簡単になり、それが偽物だと見抜くことはより難しくなっていきそうだ。
予言:ニュースの信憑性をAIがインターネット上の情報をもとにスコアリングしてくれるブラウザのアドオンをGoogleが開発する>
"今回の静岡水害デマ画像も、Stable Diffusionで「flood damage, Shizuoka」のキーワードで出てきた画像だと投稿者は述べている。わずか3ワード入力するだけで、このような写真を生成できる時代なのだ。" / “「写真付きフェイクニュース」大量発生…”
>画像の投稿者はその後、この写真は画像生成AI「Stable Diffusion」で作った偽の水害画像だと打ち明け、

それでもここまでできるんだなぁ
問題はこういうのを自分の思想や意見を通しやすくするために利用する輩。控えめに言って人間のクズだからね。
情報を鵜吞みにしてはいけないと実感させられるますね😔
このような内容に惑わされない知識が重要です💡
Stable Diffusionは革新的過ぎる。大量Fake画像作成にとどまらない。そもそも、SDは人がわかる単語をつなぎ合わせることで簡単に画像を作り出せる。ということはプログラマーじゃなくてもフェイク画像作れるようになったということ。
とはいえその嘘を見抜けないくらい高度な画像が出てきてしまうと、とも思うけど他にも報道機関や該当自治体や運営が公式発表してないなら偽とする方法もあるからやはり画像の通りやな
これフェイクとわかっても「起こった事を再現しただけ」というクソ擁護いたからね。
『悪意とともに広がる』とあるけど、フェイクニュースのヤバいのは「善意(のつもり)」で広まる点。
投稿時間:2022-09-27 13:03:17
熊本地震の時のライオン逃げ出したデマとか、ガラケー女のデマとかは昔にもあったよね。
SNSの情報を正しく見分けられない人もまだまだ沢山いるんだからもういい加減やめようよ。
タイトルとURLをコピーしました