Imagen generada por IA de una explosión en el Pentágono causa una caída en el mercado bursátil

La imagen falsa fue compartida por una cuenta verificada de Twitter que se hacía pasar por Bloomberg y se volvió viral después de ser amplificada por medios de comunicación reales.

Una imagen falsa de una explosión cerca del Pentágono ha vuelto a poner de manifiesto el poder del engaño impulsado por la inteligencia artificial, que fue suficiente para provocar una breve caída del mercado bursátil.

El 22 de mayo, la cuenta verificada de Twitter “Bloomberg Feed” -que ahora ha sido suspendida y que fingía estar afiliada al conglomerado mediático- compartió la imagen que informaba de una “gran explosión” cerca del Pentágono, sede del Departamento de Defensa de Estados Unidos.

La noticia falsa no tardó en ganar adeptos y fue compartida por varios medios de comunicación, entre ellos el medio controlado por el Estado ruso Russia Today a sus 3 millones de seguidores en Twitter y el medio indio Republic a sus 2.8 millones de seguidores en Twitter.

Ambos han borrado sus respectivos tuits sobre la noticia.

Las autoridades locales, incluida la Agencia de Protección de la Fuerza del Pentágono, a cargo de la seguridad del edificio, dijeron que estaban al tanto de la noticia que circulaba y confirmaron que no se estaba produciendo “ninguna explosión o incidente”.

-- Publicidad --

Varios usuarios de Twitter señalaron inconsistencias en la imagen que indicaban que estaba hecha con IA, destacando que la fachada del edificio no era uniforme y que dos vallas diferentes mostradas en la imagen parecían fusionarse.

Debido a la noticia, el S&P 500 cayó brevemente un 0.26%, pero se recuperó rápidamente tras revelarse que era falsa.

Ya se han utilizado herramientas de IA en la creación de noticias falsas y contenidos engañosos. A principios de mayo, el periódico irlandés The Irish Times se disculpó tras haber sido engañado con la publicación de un artículo generado por IA.

En abril, el regulador financiero de California tomó medidas enérgicas contra supuestos servicios de comercio de criptomonedas y denunció que algunas de las empresas utilizaban avatares generados por IA para actuar como sus directores ejecutivos en vídeos promocionales.

A menudo se han utilizado “deepfakes” creados por IA de figuras del sector de las criptomonedas para intentar cometer estafas.

Un ejemplo notable fue un vídeo falso del cofundador de FTX, Sam Bankman-Fried, que circuló poco después del colapso del exchange y que intentaba dirigir a los usuarios de FTX a un sitio malicioso bajo la promesa de un regalo.


¡Asegúrese de no perderse ninguna noticia importante relacionada con Criptomonedas! Siga nuestro feed de noticias de la forma que prefieras; a través de Twitter, Facebook, Telegram, RSS o correo electrónico (desplácese hacia abajo hasta la parte inferior de esta página para suscribirse). Bitcoin nunca duerme. Tampoco nosotros.

Descargo de Responsabilidad: Este comunicado de prensa es sólo para fines informativos, la información no constituye consejo de inversión o una oferta para invertir. Las opiniones expresadas en este artículo son las del autor y no representan necesariamente los puntos de vista de CriptomonedaseICO, y no deben ser atribuidas a, CriptomonedaseICO.


Síguenos en Telegram // www.criptomonedaseico.com

Nota importante: han habido informes de estafadores que se acercan a empresas a través de Emails, Telegram, LinkedIn y otras plataformas sociales que pretenden representar a CRIPTOMONEDASEICO y ofrecer pautas publicitarias. Nunca nos acercaremos a nadie directamente.Por favor, siempre póngase en contacto con nosotros a través de nuestraPÁGINA DE CONTACTO AQUÍ.

-- Publicidad --

-- Publicidad --

Los comentarios están cerrados.

Suscríbete a nuestro Boletín de Noticias
Regístrese aquí para recibir las últimas noticias y actualizaciones directamente en su bandeja de entrada.
Puedes darte de baja en cualquier momento
<