Un equipo de la UPV analiza con IA la ironía, la crítica o el sarcasmo del lenguaje político para detectar su toxicidad


Estudia diez sesiones de Les Corts y detecta en casi la mitad de las muestras seleccionadas una puntuación de toxicidad superior al 50%

VALENCIA, 21

Un equipo del Instituto VRAIN de la Universitat Politècnica de València (UPV) ha desarrollado una metodología con un sistema de inteligencia artificial (IA) modular capaz de identificar «con una mayor precisión la ironía, la crítica mordaz o el sarcasmo para detectar cuándo el lenguaje político cruza el umbral de la toxicidad», según ha informado la institución académica en un comunicado.

Esta metodología, ha destacado, ya se ha puesto a prueba en el análisis de diez sesiones de Les Corts Valencianes. En este estudio se seleccionaron 875 muestras y casi en la mitad de estas, 435, se constató que «tenían una puntuación de toxicidad superior al 50 por ciento». La UPV ha indicado que esto «implica una mayor probabilidad de toxicidad», al tiempo que ha añadido que «la otra mitad tenía una puntuación de toxicidad inferior al 50 por ciento».

El equipo de investigadores de VRAIN de la UPV –formado por los miembros del grupo PROS Antoni Mestre, Joan Fons, Manoli Albert, Vicente Pelechano y la investigadora del departamento de informática de la Universitat de València (UV), Miriam Gil, junto al investigador de la Università degli Studi del Sannio en Benevento (Italia), Franccesco Malafarina — es el encargado del desarrollo de esta metodología cuyas conclusiones se han presentado recientemente.

Bajo el título IA enriquecida en sentimientos para la detección de discursos tóxicos; Un caso de estudio de discursos políticos en Les Corts Valencianes , el trabajo ha sido expuesto en la conferencia internacional de agentes e inteligencia artificial (ICAART) 2025 celebrada en la ciudad de Porto.

«El estudio, aplicado a intervenciones en Les Corts Valencianes, propone un enfoque innovador que mejora los sistemas tradicionales de detección de discurso tóxico al introducir una zona de confusión . En lugar de etiquetar un mensaje como simplemente tóxico o no tóxico, la IA detecta los casos más ambiguos y los somete a un análisis de sentimiento que permite evaluar mejor el tono emocional del discurso», ha explicado el investigador de VRAIN de la UPV Antoni Mestre.

«Mientras que los resultados, sin la zona de confusión, alcanzan una precisión del 80,35 por ciento, cuando se incorpora la capa de análisis de sentimiento a la detección de discursos tóxicos, sobre todo en contextos políticamente cargados y lingüísticamente complejos como Les Corts, la precisión mejora hasta el 87,89 por ciento», han añadido desde la universidad.

«MÁS RESPETUOSO Y CONSTRUCTIVO»

«Nuestro trabajo ofrece una visión más matizada del lenguaje político», ha apuntado Mestre, que ha resaltado que «abre nuevas posibilidades para la moderación automatizada de contenidos y el análisis del debate público con herramientas más sofisticadas y justas».

«Su aplicación en los parlamentos permitiría a sus presidentes moderar el debate de manera más equitativa y precisa, garantizando un discurso más respetuoso y constructivo», ha subrayado Antoni Mestre.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Torres señala que aunque el Gobierno está trabajando para presentar los PGE «hay que ser claros»: «Necesitamos apoyos»
Nike gana un 32% menos en su tercer trimestre fiscal y advierte del impacto de los aranceles

Bloqueador de anuncios detectado

Por favor, considere ayudarnos desactivando su bloqueador de anuncios