Cómo una enfermedad falsa engañó a la IA y puso en jaque a la ciencia médica: estudios con citas a Los Simpson y Friends
Bixonimanía’, la enfermedad que nunca existió pero que la inteligencia artificial convirtió en real
Un reciente experimento científico pone en jaque la confianza que se había creado en los sistemas de inteligencia artificial (IA) y en el propio proceso académico. Según revela una investigación publicada en Nature, un grupo de expertos logró que varios chatbots populares difundieran como real una enfermedad completamente inventada: la llamada «bixonimanía». Un hito en la transformación digital de la salud que sacude la ciencia y que da cuenta sobre las incapacidades de los altos desarrollos tecnológicos para detectar y frenar las ‘fake news’ en medicina.
Según el relato de la investigadora Almira Osmanovic Thunström, de la Universidad de Gotemburgo, todo comenzó cuando diseñó una condición médica ficticia con el objetivo de comprobar hasta qué punto los modelos de lenguaje digital podían absorber y reproducir desinformación. La supuesta enfermedad, asociada a síntomas como picor ocular y vinculada a la exposición a la luz azul de pantallas, nunca ha existido en la literatura médica real.
Para reforzar el engaño a la IA, el equipo creó dos documentos académicos falsos, con apariencia completamente legítima. Estos estudios incluían tablas, gráficos con barras de error e incluso números DOI válidos, lo que les otorgaba una apariencia de rigor científico. Sin embargo, contenían detalles absurdos y referencias humorísticas a personajes como Ross Geller de Friends o Sideshow Bob de Los Simpson.
El resultado fue tan sorprendente como preocupante. La publicación detalla que, en cuestión de semanas, los sistemas de inteligencia artificial como ChatGPT, Google Gemini, Perplexity AI y Microsoft Copilot comenzaron a mencionar la ‘bixonimanía’ como si fuera una enfermedad real al responder consultas de usuarios.
El experimento no solo engañó a las máquinas. Según detallan los científicos en el artículo, algunos investigadores humanos también cayeron en la trampa, llegando a citar los estudios falsos en publicaciones revisadas por pares. Esto evidencia un problema más profundo: «la creciente dependencia de fuentes automatizadas sin verificar el contenido original».
El fenómeno se agravó aún más cuando herramientas de análisis académico generaron resúmenes extensos sobre la supuesta enfermedad, consolidando una red de conocimiento inexistente. Este «anillo de citas» creó una estructura autorreferencial en la que artículos falsos se apoyaban entre sí, dando la ilusión de evidencia científica sólida.
Al respecto, el investigador Alex Ruani, especializado en desinformación sanitaria en el University College London, advierte que el problema va mucho más allá de la IA. Según señala, si los sistemas científicos y sus mecanismos de control no son capaces de detectar este tipo de contenido, la credibilidad del conocimiento académico queda seriamente comprometida.
Envenenamiento de datos
Este caso de la ‘bixonimanía’ evidencia cómo el llamado «envenenamiento de datos» puede infiltrarse en ecosistemas digitales y científicos. Al introducir información falsa en bases de datos aparentemente legítimas, se abre la puerta a que tanto algoritmos como personas reproduzcan errores sin cuestionarlos y se lleguen a las temidas ‘fake news’.
Más allá de lo anecdótico, los expertos alertan de un riesgo estructural: la posibilidad de que existan ya múltiples investigaciones completamente fabricadas circulando sin ser detectadas. La facilidad para generar contenido académico convincente, sumada a la falta de filtros robustos, agrava este escenario.
Ante este grave escenario dentro de los repositorios, la comunidad científica insiste en la necesidad urgente de reforzar los sistemas de verificación, limitar la asignación indiscriminada de identificadores académicos y promover una revisión más rigurosa.
Al realizar el ejercicio de preguntar en IA sobre esta aparente nueva enfermedad:
Chat GTP responde:
«La bixonimanía no es una enfermedad real. Se trata de un término completamente inventado en el marco de un experimento científico diseñado para demostrar cómo la desinformación puede infiltrarse tanto en sistemas de inteligencia artificial como en el propio ámbito académico.
La falsa afección fue creada por la investigadora Almira Osmanovic Thunström, quien publicó estudios ficticios con apariencia científica para comprobar si los modelos de IA aceptarían esa información como válida. El resultado fue que varios sistemas comenzaron a describir la bixonimanía como si fuera una patología real, incluso asociándola a síntomas como picor ocular o exposición a la luz azul.
El caso fue documentado por la revista Nature, que explicó cómo tanto máquinas como algunos investigadores humanos llegaron a creer en la existencia de esta supuesta enfermedad.
En resumen, la bixonimanía es un ejemplo de cómo se puede crear una «verdad» falsa cuando la información no se verifica adecuadamente, y sirve como advertencia sobre los riesgos de confiar ciegamente en la inteligencia artificial o en fuentes aparentemente académicas».
Google Gemini responde:
«Es probable que estés buscando el término bixorexia (o vigorexia), ya que «bixonimanía» no es una palabra reconocida en el diccionario ni un término médico oficial. A veces, debido a la similitud fonética, se confunden los nombres de ciertos trastornos de la imagen corporal.»