A medida que más personas integran la inteligencia artificial en su día a día, un enfoque híbrido que combina la supervisión humana con la automatización impulsada por IA se ha consolidado como una herramienta para frenar la creciente ola de desinformación.
Si bien ha optimizado tareas rutinarias, también ha evidenciado los complejos desafíos que enfrentan las personas en medio de los rápidos avances tecnológicos. El Foro Económico Mundial posicionó a la desinformación generada por IA como el riesgo global número uno a corto plazo, por encima del cambio climático o las guerras.
La solución, por ahora, parece residir en el propio problema, aunque depende de marcos éticos rigurosos y una supervisión adecuada. Esto exige una acción coordinada entre investigadores, responsables políticos, industria y medios de comunicación.
El elemento humano
Casi todas las investigaciones coinciden en que el factor humano es esencial para producir contenido fiable y veraz con ayuda de la IA. Esto también aplica al desarrollo de herramientas que verifican y contrastan información para combatir la desinformación.
Aunque la desinformación no es un fenómeno nuevo, la tecnología ha acelerado su propagación y ampliado su alcance, haciendo casi imposible encontrar una solución única. No obstante, los profesionales de los medios necesitan una mayor formación en IA, solo adquiriendo estas competencias podrán los periodistas afrontar los retos actuales y utilizar la IA de manera responsable.
Sectores más afectados
Según investigaciones recientes de McKinsey, la desinformación generada por IA afecta rápidamente a sectores que dependen de la confianza pública, la evidencia visual y la difusión ágil de información. Los más impactados son la política, la salud, las finanzas y los medios de comunicación.
La rápida proliferación de “información basura” generada por IA (sitios web falsos y contenido automatizado) imita a fuentes legítimas, dañando la credibilidad del periodismo auténtico y obligando a las redacciones a destinar más recursos a la verificación.
En campos como la medicina y la ciencia, el impacto de la IA en la comunicación resulta especialmente preocupante. Son sectores que exigen precisión absoluta, y abordar este desafío es clave para conectar con el público y garantizar que los nuevos tratamientos lleguen realmente a los pacientes.
Para ayudar a las empresas de ciencias biológicas y sus agencias a resolver este dilema, y acelerar la obtención de resultados, la startup Prezent AI lanzó Prezent Vivo, una solución diseñada para potenciar todo el ecosistema comunicativo del sector. Para 2025, una cuarta parte de las organizaciones del sector ya había integrado la IA a gran escala; sin embargo, pese a la inversión continua, la expansión de esta tecnología se ha estancado en gran medida.
“El futuro de la comunicación en ciencias biológicas es IA y expertos, fusionados en uno solo”, afirmó Rajat Mishra, CEO y cofundador de Prezent. La plataforma Vivo ofrece comunicación impulsada por IA a escala en todo el espectro de entregables de contenido, abarcando el ciclo de vida completo del producto: desde pósteres de congresos, visualización de datos, documentos científicos, folletos, presentaciones narrativas para MSL, materiales para comités asesores, hasta reuniones nacionales de ventas.
Para Francine Carrick, recién nombrada presidenta de Prezent Vivo, el auge del contenido generado por IA no es algo que deba temerse, sino una nueva oportunidad: “Estamos en un punto de inflexión increíble donde la evolución de las regulaciones, la creciente complejidad de los datos y el auge de la IA están reconfigurando fundamentalmente la forma en que comunicamos la ciencia”.
Vivo lleva la comunicación impulsada por IA a la industria de las ciencias biológicas, combinando por primera vez un modelo de lenguaje personalizado (LLM), diseñado para entender el contexto y los matices del sector, con expertos en la materia.
Otro de los sectores es el periodismo, ya que las redacciones deben verificar constantemente la autenticidad de imágenes, vídeos y textos generados artificialmente que circulan como si fueran noticias reales, al tiempo que utilizan herramientas automatizadas para identificar patrones de manipulación y reforzar la credibilidad de sus publicaciones mediante equipos híbridos de periodistas y algoritmos.
Aquí el fastcheck llega como una herramienta de verificación de hechos impulsada por inteligencia artificial que permite a periodistas y usuarios rastrear el origen de una afirmación, compararla con bases de datos confiables y detectar si ha sido manipulada o descontextualizada.
El sistema de verificación en tiempo real de Reuters que cruza metadatos de imágenes con archivos periodísticos, el algoritmo de Full Fact que analiza declaraciones públicas y las contrasta automáticamente con datos oficiales, y la plataforma de Factmata que entrena modelos de aprendizaje automático para identificar discursos engañosos en contenido político y sanitario.
Adaptarse al cambio
Aunque los especialistas del sector necesitan comunicarse con claridad y combatir la desinformación, las preocupaciones normativas y de precisión han limitado históricamente el uso de la IA para crear materiales de comunicación. Estas alternativas ofrecen una visión de cómo esta tecnología puede utilizarse para amplificar la voz de los expertos.
Artículo escrito por Stiven Cartagena para El Nacional
LO ROJO Y AZUL – CNP 25.973