Generales Escuchar artículo

Los videos hechos con IA han inundado las redes sociales, y nadie estaba preparado

En octubre, un video en TikTok parecía mostrar a una mujer siendo entrevistada por un reportero de televisión sobre el uso de cupones de alimentos en EE.UU. Las mujeres no eran reales. La convers...

Los videos hechos con IA han inundado las redes sociales, y nadie estaba preparado

En octubre, un video en TikTok parecía mostrar a una mujer siendo entrevistada por un reportero de televisión sobre el uso de cupones de alimentos en EE.UU. Las mujeres no eran reales. La convers...

En octubre, un video en TikTok parecía mostrar a una mujer siendo entrevistada por un reportero de televisión sobre el uso de cupones de alimentos en EE.UU. Las mujeres no eran reales. La conversación nunca ocurrió. El video fue generado por inteligencia artificial.

Y, sin embargo, la gente pareció creer que se trataba de una conversación real sobre la venta de cupones de alimentos por efectivo, lo cual habría sido un delito. En sus comentarios, muchos reaccionaron al video como si fuera real. A pesar de sutiles señales de alerta, cientos vilipendiaron a la mujer como una criminal —algunos con un racismo explícito— mientras otros atacaban los programas de asistencia gubernamental, justo cuando ardía un debate nacional sobre los recortes previstos por el presidente Donald Trump al programa.

Videos como la entrevista falsa, creados con la nueva aplicación de OpenAI, Sora, muestran con qué facilidad se pueden manipular las percepciones públicas mediante herramientas que pueden producir una realidad alternativa con una serie de indicaciones sencillas.

En los dos meses transcurridos desde la llegada de Sora, los videos engañosos han aumentado en TikTok, X, YouTube, Facebook e Instagram, según expertos que los rastrean. El aluvión ha hecho saltar las alarmas sobre una nueva generación de desinformación y falsificaciones.

Introducción a Sora

La mayoría de las principales empresas de redes sociales tienen políticas que exigen la divulgación del uso de inteligencia artificial y prohíben ampliamente el contenido destinado a engañar. Pero esas salvaguardas han resultado lamentablemente inadecuadas para el tipo de saltos tecnológicos que representan las herramientas de OpenAI.

Entre el entretenimiento y la desinformación

Mientras que muchos videos son memes absurdos o imágenes tiernas pero falsas de bebés y mascotas, otros están destinados a avivar el tipo de vitriolo que suele caracterizar el debate político en línea. Ya han figurado en operaciones de influencia extranjera, como la campaña en curso de Rusia para denigrar a Ucrania.

Los investigadores que han rastreado los usos engañosos afirmaron que la responsabilidad recae ahora en las empresas para hacer más y garantizar que la gente sepa qué es real y qué no.

“¿Podrían mejorar la moderación de contenidos para la desinformación? Sí, es evidente que no lo están haciendo”, afirmó Sam Gregory, director ejecutivo de Witness, una organización de derechos humanos centrada en las amenazas de la tecnología. “¿Podrían mejorar en la búsqueda proactiva de información generada por IA y etiquetarla ellos mismos? La respuesta también es sí”.

El video sobre los cupones de alimentos fue uno de los varios que aparecieron mientras el cierre del gobierno en los Estados Unidos se prolongaba, dejando a los beneficiarios reales de la ayuda, llamada Programa de Asistencia Nutricional Suplementaria (SNAP), luchando por alimentar a sus familias.

Fox News cayó en un video falso similar, tratándolo como un ejemplo de indignación pública por el abuso de los cupones de alimentos en un artículo que desde entonces ha sido eliminado de su sitio web. Un portavoz de Fox confirmó que el artículo fue retirado, pero no dio más detalles.

Más de un centenar de videos generados con Veo 3, la IA de GoogleEl alcance de las falsificaciones

Las falsificaciones se han utilizado para burlarse no solo de la gente pobre, sino también de Trump. Un video en TikTok mostraba la Casa Blanca con lo que parecía ser una voz en off de Trump reprendiendo a su gabinete por la publicación de documentos relacionados con Jeffrey Epstein. Según NewsGuard, el video, que no estaba etiquetado como IA, fue visto por más de 3 millones de personas en cuestión de días.

Hasta ahora, las plataformas han confiado en gran medida en que los creadores revelen que el contenido no es real, pero no siempre lo hacen. Y aunque existen formas para que plataformas como YouTube o TikTok detecten que un video se hizo con IA, no siempre lo señalan a los espectadores de inmediato.

“Deberían haber estado preparadas”, dijo Nabiha Syed, directora ejecutiva de la Fundación Mozilla, sobre las empresas de redes sociales.

Las marcas de agua no son suficientes

Las empresas detrás de las herramientas de IA dicen que están tratando de dejar claro a los usuarios qué contenido es generado por computadora. Tanto Sora como la herramienta rival de Google, Veo, incrustan una marca de agua visible. Sora, por ejemplo, pone una etiqueta de “Sora” en cada video. Ambas empresas también incluyen metadatos invisibles que establecen el origen de cada falsificación.

Sin embargo, las etiquetas a veces aparecen después de que millones de personas ya han visto los videos. Las personas con intenciones maliciosas han descubierto que es fácil eludir las normas: algunos simplemente las ignoran, y otros manipulan los videos para eliminar las marcas de agua. The Times encontró docenas de ejemplos de videos de Sora en YouTube sin la etiqueta automatizada.

Casi dos tercios de los más de 3000 usuarios que comentaron el video de TikTok sobre los cupones de alimentos respondieron como si fuera real, según un análisis de The New York Times realizado con herramientas de IA.

Un desafío para el ecosistema

En un comunicado, OpenAI afirmó que prohíbe los usos engañosos de Sora y toma medidas contra los infractores. La empresa señaló que abordar el contenido engañoso requiere un esfuerzo de todo el ecosistema, ya que existen muchas herramientas similares que no emplean restricciones.

Un portavoz de Meta dijo que no siempre es posible etiquetar cada video, especialmente con una tecnología que evoluciona tan rápido. Por otro lado, Alon Yamin, director ejecutivo de Copyleaks, sugirió que las plataformas no tienen un incentivo financiero inmediato para restringir estos videos mientras los usuarios sigan haciendo clic en ellos.

El advenimiento de videos realistas ha sido una bendición para el fraude y las operaciones de influencia extranjera. Se han citado videos de IA en la India que denigran a los musulmanes para avivar tensiones religiosas. “La barrera para usar ‘deepfakes’ como parte de la desinformación se ha derrumbado”, afirmó Darjan Vujica, experto en el tema, “y una vez que la desinformación se propaga, es difícil corregir el registro”.

Fuente: https://www.lanacion.com.ar/tecnologia/los-videos-hechos-con-ia-han-inundado-las-redes-sociales-y-nadie-estaba-preparado-nid30122025/

Volver arriba