Investigadores de la Universitat Politècnica de València, en colaboración con la Universidad de Navarra, han analizado 650 publicaciones en las redes sociales X (antes Twitter) y TikTok relacionadas con la dana que afectó a Valencia el pasado 29 de octubre. El estudio, presentado en la Conferencia Internacional sobre Inteligencia Artificial ICAART-2025, identifica diferencias notables en las respuestas emocionales que provoca la desinformación en cada plataforma: mientras que en X predomina la tristeza y el miedo, TikTok genera una reacción más inmediata y visceral, asociada a la ira y el asco.
Los autores del trabajo, Iván Arcos, Paolo Rosso (UPV) y Ramón Salaverría (Universidad de Navarra), explican que estas diferencias están relacionadas con el propio formato de cada red. En X, donde el contenido es mayoritariamente textual, los usuarios procesan la información de manera más reflexiva, lo que favorece una elaboración narrativa que intensifica sentimientos como la pena y el temor. En cambio, TikTok, al integrar imágenes, música y efectos visuales, estimula respuestas más intensas y automáticas.
Durante el análisis, enmarcado en el Iberian Digital Media Observatory, se identificaron patrones emocionales y lingüísticos comunes en los mensajes desinformativos. Estos contenidos recurren con frecuencia a expresiones como “conspiración”, “fallecidos ocultación”, “engaño”, “mentiras”, “provocada presas” o “ayuda rechazada”, empleadas como palabras clave para aumentar la viralidad del contenido.
Los investigadores destacan que los mensajes fiables tienden a utilizar un lenguaje más elaborado y coherente, mientras que los bulos adoptan fórmulas que buscan dotar de aparente autenticidad al mensaje. Entre las estrategias más comunes, se detectó el uso de negaciones, anécdotas personales o referencias a familiares, que aportan un tono testimonial y cercano. “Es un recurso frecuente en la desinformación: legitimar un mensaje mediante supuestas vivencias personales”, señala Paolo Rosso, investigador del centro PRHLT de la UPV.
Además, el estudio ha analizado los audios presentes en las publicaciones de TikTok. Los contenidos verificados emplean voces más neutras, tonos monótonos o narraciones robotizadas, lo que refuerza la sensación de claridad. En cambio, los vídeos que difunden información falsa incorporan efectos musicales, cambios tonales y elementos emocionales que manipulan la percepción del espectador.
El informe concluye que apelar a las emociones es una estrategia deliberada y estructural en la propagación de bulos en redes sociales. Ante este fenómeno, los autores proponen el uso de herramientas de inteligencia artificial para ayudar a detectar patrones propios de la desinformación, alertar a los moderadores de contenido e incluso advertir a los propios usuarios sobre la fiabilidad dudosa de ciertos mensajes.