Wygenerowane przez sztuczną inteligencję zdjęcie przedstawiające eksplozję w pobliżu budynku na terenie Pentagonu stało się wirusowe w mediach społecznościowych w poniedziałek, wywołując dyskusję i panikę na temat dezinformacji wspomaganej przez sztuczną inteligencję.
Obraz, który pokazuje wysoki pióropusz ciemnoszarego dymu w pobliżu Pentagonu, szybko stał się wirusowy na Twitterze, trafiając do mediów i zweryfikowanych kont. Rosyjskie media były szczególnie uwiedzione jego rozpowszechnianiem, co sugeruje, że ten obraz został stworzony celowo, aby odwrócić uwagę od problemów wewnątrz terrorystycznego kraju.
Departament Obrony USA potwierdził, że zdjęcie jest fałszywe. Wśród kont, które udostępniły to zdjęcie, był OSINTdefender, dobrze znana strona na Twitterze z ponad 336 000 obserwujących, poświęcona globalnym konfliktom zbrojnym.
Przyznając się do błędu, właściciel strony ubolewał nad rozpowszechnianiem dezinformacji i podkreślił, że incydent był niepokojącym pokazem tego, jak łatwo obrazy generowane przez sztuczną inteligencję mogą manipulować ludźmi i wywoływać panikę.
To nie pierwszy raz, kiedy obrazy generowane przez sztuczną inteligencję stały się problemem. Wcześniej widzieliśmy „zdjęcie” papieża w białej puchowej kurtce i czarno-biały fotorealistyczny obraz, który zdobył uznanie Sony World Photography Awards. Ponadto ten incydent pokazuje, jak niebezpieczne są zmiany na Twitterze po uruchomieniu subskrypcji Twitter Blue, która promuje tworzenie botów imitujących kanały informacyjne i znane osoby.
Śledź najnowsze wiadomości technologiczne i rozwój sztucznej inteligencji na naszym kanale Telegram.
źródło: opiekun