¡Alerta!: Inteligencia artificial es usada para estafas a través de redes sociales

Satnam Narang, ingeniero principal de investigación de Tenable señala que lo mejor es que los usuarios de redes siempre desconfíen e investiguen el perfil que publica la información.

Las redes sociales aún no detectan la utilización de IA en sus contenidos. Imagen ilustrativa.

El youtuber Jimmy Donaldson, más conocido como MrBeast, quien tiene casi 200 millones de seguidores, y el actor ganador de dos óscar Tom Hanks han sido estafados a través de las redes sociales que usan una inteligencia artificial (IA) generativa conocida como “deepfake”, la misma que permite manipular el rostro de una persona para que actúe y diga lo que el creador quiera.

En el caso de Donaldson que es conocido por regalar a sus suscriptores casas, automóviles y dinero en general y es extremadamente popular entre los más jóvenes, la estafa usó “deepfake” para crear un vídeo a través de tik tok en el que el creador de contenido decía que regalaba el último modelo de iPhone por 2 dólares, en el que indicaba que con tan solo suscribirse a su canal ya estarían participando. Sin embargo, la letra pequeña de ese enlace decía que se trataba de un programa de inscripción automática mensual, en el que había un cargo inicial de 6.95 dólares y luego un pago mensual indefinido de 139.67 dólares.

Según Satnam Narang, ingeniero principal de investigación de Tenable, el vídeo falso de Donaldson puede pasar por creíble si no se presta especial atención. “Si se mira su labio superior y su falta de movimiento, se nota que no es natural”, relató el experto.

Asimismo, Narang asegura que han sido muchos los famosos que han sido diana de esta manipulación este año, como fue el caso de Elon Musk, una de las personas más ricas del mundo, en un vídeo que promocionaba criptomonedas.

Frente a esta situación, los famosos están alertando a sus seguidores con el fin de que no caigan en este tipo de estafas. Puesto que, a pesar de que la mayoría de las redes sociales establecen en su reglamento que el contenido sintético o manipulado que se publique debe ser etiquetado como tal, oo más complejo de la situación es que no existen máquinas que sean capaces de señalar rápidamente y a ciencia cierta que un contenido, ya sea un texto, una foto o un vídeo, haya sido generado con IA.

Lo cual es peligroso no solo por las posibles estafas, sino también por sus efectos sobre la desinformación en general, sobre todo si se trata de conflictos bélicos o elecciones.

Cabe destacar que, en el último año, esta tecnología se ha vuelto más popular y sofisticada, por lo que cada vez es más difícil detectar este tipo de manipulación audiovisual.