Un informe destaca que la IA ofrece información más limitada y menos rigurosa a los pacientes que a los profesionales


Los modelos de inteligencia artificial (IA) ofrecen información más limitada y menos rigurosa a los pacientes que a los profesionales sanitarios, según el informe IA y Política Pública: Hacia una nueva arquitectura de incidencia , elaborado por LLYC en el marco del European Health Summit.

Además, la calidad y el enfoque de la información que ofrece la inteligencia artificial (IA) en materia de salud varía drásticamente según el perfil del usuario, la regulación vigente y el país donde se formula la consulta, generando una clara desigualdad en las respuestas de los grandes modelos de lenguaje sobre normativa sanitaria europea.

Así lo indica este informe en el que se han analizado 1.484 respuestas de cuatro sistemas de IA ( OpenAI , Anthropic , Perplexity y Gemini ) sobre cuatro normas comunitarias clave.

Asimismo, si las preguntas se hacen desde países como España, Alemania o Francia el resultado es más completo y con mayor calidad de fuentes en comparación con otros países europeos como Polonia, Hungría, Lituania, que presentan información menos robusta.

«La IA se ha convertido en un actor con capacidad para influir en la opinión pública, en la circulación de información y en la percepción de temas clave como la salud y la regulación. Las divergencias sistemáticas detectadas, especialmente la desigualdad informativa entre profesionales sanitarios y pacientes, y la brecha geográfica plantean un desafío crítico de equidad. Debe ser vigilada por reguladores y actores industriales ya que puede moldear las percepciones públicas de forma sesgada, creando ventajas informativas para ciertos usuarios», asegura Carlos Parry, Líder de Healthcare Europa en LLYC.

En cuanto al rendimiento de los cuatro grandes modelos de lenguaje (LLMs), Gemini es el mejor posicionado, mientras que OpenAI es el último.

«Nuestro análisis demuestra empíricamente que los modelos de lenguaje no son meros repositorios de datos, sino intermediarios activos que interpretan y sesgan la información según quién pregunte. Hemos pasado de una web de búsqueda a una de respuestas sintéticas, y para cualquier organización, entender la lógica algorítmica de esta nueva arquitectura de la influencia es tan crítico hoy como lo fue entender a los medios de comunicación en el pasado», ha indicado el director general de Deep Learning en LLYC, Daniel Fernández.

En definitiva el informe concluye que la interacción entre la Inteligencia Artificial (IA) y la política pública en salud confirma la existencia de sesgos sistemáticos en los grandes modelos de lenguaje (LLMs).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

La banca española se sitúa como la de peor capital de Europa por cuarto año consecutivo, según la EBA
Raytheon (RTX) se alía con AWS para mejorar el control de misiones y procesamiento de datos en el espacio

Bloqueador de anuncios detectado

Por favor, considere ayudarnos desactivando su bloqueador de anuncios