● En 2024, la IA está amplificando silenciosamente la desinformación, afectando tanto a campañas políticas como a empresas, que deben adoptar medidas proactivas para proteger su reputación.
● De acuerdo con el Pew Research Center, el 57% de los adultos estadounidenses están muy preocupados por el uso de la IA para difundir información falsa durante las elecciones en su país.
● Un estudio del The Alan Turing Institute expone que la IA amplificó la polarización durante las elecciones de 2024 en Reino Unido y Europa.
29 de octubre 2024
En un año clave para la política global, 2024 se perfilaba como el escenario donde la inteligencia artificial (IA) tendría un impacto significativo en los procesos electorales, especialmente en Estados Unidos. Sin embargo, la realidad está tomando un rumbo distinto al esperado. Lejos de ver una avalancha de deepfakes o noticias fabricadas que cambien la opinión pública, la IA está actuando de una manera más sutil y peligrosa: amplificando la desinformación ya existente y profundizando la polarización social. Y no solo los políticos son vulnerables; el sector privado, especialmente las empresas con alta visibilidad pública, está igualmente expuestas y tienen mucho que aprender de este fenómeno.
Las empresas que se encuentran en momentos de alta exposición mediática —como lanzamientos de productos, rebranding o fusiones— son objetivos atractivos para ataques de desinformación. Las estructuras de recompensa de las redes sociales han cambiado y ahora impulsan la compartición rápida y sensacionalista de información, lo que fomenta la propagación de noticias falsas a gran escala. Este riesgo afecta tanto a las empresas como a los políticos y se ha vuelto esencial para el sector privado aprender de lo que ocurre en el entorno político para proteger su reputación.
"Nos preocupaba que la IA inundara las elecciones con noticias falsas y videos deepfake, creando realidades paralelas; pero lo que hemos visto es una amenaza menos obvia: la IA amplifica y distribuye contenido engañoso de manera casi imperceptible para el público", señala Adolfo Corujo, socio y director general corporativo de talento e innovación de LLYC, en el podcast "Esto es lo que AI". "Esta amenaza sutil está cambiando la forma en que las campañas manejan la comunicación y obliga a las marcas y candidatos a estar más vigilantes que nunca".
Un estudio reciente del Pew Research Center, reveló que el 57% de los adultos estadounidenses están muy preocupados de que la IA se utilice para difundir información falsa sobre los candidatos[1]. Aunque algunos ejemplos como la imagen falsa de Taylor Swift apoyando a Donald Trump han acaparado titulares, el peligro real está en la capacidad de la IA para amplificar teorías conspirativas y manipular el discurso público en redes sociales, algo que se extiende a las empresas y marcas.
Un análisis más profundo del fenómeno revela que, en las elecciones de Reino Unido y Europa de 2024, no hubo pruebas de que la desinformación habilitada por IA influyera significativamente en los resultados, según un estudio de The Alan Turing Institute[2]. La razón es que la mayoría del contenido manipulado fue visto por usuarios que ya compartían esas creencias políticas, lo que consolidó sus perspectivas en lugar de cambiar la opinión de los votantes indecisos. Esto mismo puede suceder en el entorno corporativo: la desinformación no siempre busca alterar la opinión pública general, sino reforzar ideas preconcebidas entre grupos específicos de consumidores o accionistas.
Además, un estudio de la Universidad del Sur de California (USC) mostró que un pequeño grupo de usuarios tiene un impacto desproporcionado en la difusión de información falsa. Solo el 15% de los usuarios más activos en compartir noticias fueron responsables de entre el 30% y el 40% de las noticias falsas distribuidas en redes sociales[3]. Esto es preocupante porque demuestra cómo un grupo reducido puede influir enormemente en la percepción pública, algo que también afecta la imagen y la reputación de las empresas cuando se enfrentan a campañas de desinformación.
Asimismo, las empresas que tienen directores ejecutivos con alta visibilidad en redes sociales o aquellas que están involucradas en transacciones públicas importantes, como una oferta pública inicial (IPO) o una fusión, son objetivos preferidos para los ataques de desinformación. Estos ataques pueden aprovechar la IA para crear contenidos que se diseminan rápidamente, distorsionando la percepción pública.
Ante este panorama, LLYC, firma global de Marketing y Corporate Affairs, sugiere que las empresas adopten estrategias proactivas para proteger su identidad y reputación:
1. Monitorear y aprovechar las redes sociales: Es fundamental vigilar los canales sociales en tiempo real para anticipar y detectar posibles campañas de desinformación en sus primeras etapas.
2. Blindar la identidad de la marca: Crear una estrategia sólida que fortalezca la credibilidad de la empresa ante posibles ataques de desinformación, anticipando riesgos antes de que se materialicen.
3. Desarrollar un plan de recuperación: Integrar un plan de respuesta a la desinformación dentro del programa de gestión de crisis de la empresa, para actuar rápida y efectivamente ante cualquier amenaza que afecte la reputación de la marca.
Si bien el impacto directo de la desinformación habilitada por IA puede no ser siempre evidente, como se ha visto en algunas elecciones, la amenaza persiste y debe tomarse en serio. Tanto en el ámbito político como en el corporativo, el desafío más allá de identificar la desinformación, está en aprender a mitigar su impacto antes de que cause un daño irreparable. El entorno digital ha redefinido la comunicación y las reglas de juego para campañas y empresas. Mientras que en el pasado, tener una presencia fuerte en redes sociales generaba confianza, hoy esa visibilidad también representa un riesgo si no se gestiona adecuadamente.
El podcast Esto es lo que AI está disponible en Spotify, Apple Podcasts, iVoox, Cuonda y más.
Sobre LLYC
LLYC es la firma global de Marketing y Corporate Affairs, que como partner de sus clientes en creatividad, influencia e innovación, hace crecer y protege el valor de sus negocios, convirtiéndose cada día en una oportunidad para nutrir sus marcas.
LLYC, fundada en 1995, tiene presencia en Argentina, Brasil (São Paulo y Río de Janeiro), Bruselas, Colombia, Chile, Ecuador, España (Madrid y Barcelona), Estados Unidos (Miami, Nueva York, San Diego, Washington, DC, Grand Rapids, Detroit, St. Louis y Phoenix), México, Panamá, Perú, Portugal y República Dominicana.
En 2023, los ingresos operacionales de LLYC alcanzaron los 83,1 millones de euros. LLYC está entre las 40 mayores empresas del mundo en su sector, según los rankings de PRWeek y PRovoke. Ha sido elegida Mejor Consultora en Europa 2022 en los PRWeek Global Awards, y Consultora del Año en América Latina 2023 por PRovoke.
Para más información:
Carlos Fernando Suárez
Fuente de redacción: LLYC