Instagram Twitter
RedSaludArgentina

Algoritmos en quirófanos: fracasos, diagnósticos errados y supervisión débil

La medicina moderna abraza la inteligencia artificial, pero los resultados no siempre son positivos. Dispositivos quirúrgicos y de diagnóstico con algoritmos acumulan reportes de errores graves, mientras los organismos reguladores luchan por mantener el ritmo de innovación.

Autor
Editorial

Compartir

La promesa de la tecnología médica y sus sombras

Durante años, la comunidad médica ha celebrado los avances que la inteligencia artificial aporta al sector salud. Desde la detección temprana de tumores hasta la planificación de intervenciones complejas, los algoritmos parecían abrir un camino hacia una medicina más precisa y eficiente. Sin embargo, a medida que estos sistemas traspasan las puertas de quirófanos y salas de guardia, emerge un panorama menos optimista: cirugías malogradas, diagnósticos equivocados y órganos identificados incorrectamente forman parte de un registro creciente de incidentes.

Lo más inquietante es que los organismos reguladores admiten no poder seguir el ritmo de la expansión. Mientras la industria lanza productos con velocidad acelerada, las agencias encargadas de supervisar su seguridad enfrentan limitaciones de recursos y marcos normativos diseñados para otra era tecnológica.

El caso emblemático del TruDi Navigation System

Un ejemplo paradigmático es el del TruDi Navigation System, dispositivo desarrollado por Acclarent para asistir a especialistas en otorrinolaringología durante cirugías de sinusitis crónica. Cuando la compañía —entonces parte de Johnson & Johnson— anunció en 2021 la integración de un algoritmo de aprendizaje automático, presentó el paso como un salto cualitativo en precisión quirúrgica.

Los números cuentan otra historia. Antes de incorporar IA, la FDA había recibido apenas siete reportes de malfuncionamiento y una lesión. Tras la implementación del algoritmo, entre finales de 2021 y noviembre de 2025, los reportes se multiplicaron a más de 100, con al menos 10 pacientes lesionados.

Los incidentes documentados revelan fallos graves:

  • Errores en la localización de instrumentos dentro de la cabeza del paciente durante la intervención
  • Fugas de líquido cefalorraquídeo por la nariz
  • Perforación accidental de la base del cráneo
  • Lesión de arterias principales que derivó en dos accidentes cerebrovasculares

Las víctimas de estos últimos casos presentaron demandas en Texas. Una de ellas sostiene que «el producto era posiblemente más seguro antes de integrar cambios en el software para incorporar inteligencia artificial que después de que se implementaran esas modificaciones».

Motivaciones comerciales sobre seguridad

Los documentos judiciales arrojan luz sobre las decisiones que llevaron a la integración de IA. Según las demandas, el entonces presidente de Acclarent, Jeff Hopkins, impulsó la incorporación del algoritmo «como herramienta de marketing» para poder comercializar el dispositivo como portador de «tecnología nueva y novedosa».

Más preocupante aún: un cirujano consultor de la compañía, Marc Dean, habría advertido sobre problemas de seguridad que debían resolverse antes de lanzar la IA al mercado. Pese a estas alertas, la empresa redujo sus estándares de seguridad, fijando como objetivo apenas un 80% de precisión para ciertos componentes de la nueva tecnología antes de integrarla en el sistema.

Dean recibió más de 550.000 dólares en honorarios de consultoría entre 2014 y 2024, de los cuales al menos 135.000 estuvieron vinculados al TruDi. Integra LifeSciences, que adquirió Acclarent en 2024, ha negado todas las acusaciones y sostiene que no existe «evidencia creíble que muestre una conexión causal entre el TruDi Navigation System, la tecnología de IA y ninguna de las supuestas lesiones».

Un ecosistema en expansión sin supervisión suficiente

El caso TruDi es apenas la punta de un iceberg que crece sin control. Al menos 1.357 dispositivos médicos con IA están autorizados por la FDA, cifra que se ha duplicado desde 2022. Entre 2021 y octubre de 2025, la agencia recibió más de 1.401 reportes de problemas en dispositivos de esa lista, incluidos 115 casos que mencionaban específicamente dificultades con software, algoritmos o programación.

Un análisis de investigadores de Johns Hopkins, Georgetown y Yale, publicado en JAMA Health Forum en agosto, identificó 60 dispositivos con IA asociados a 182 retiros de productos. Alarmantemente, el 43% de esos retiros ocurrió en menos de un año desde la autorización, aproximadamente el doble de la tasa de retiros de dispositivos sin IA bajo reglas similares.

Otros dispositivos problemáticos en el mercado

Los problemas no se limitan a sistemas quirúrgicos. Sonio Detect, software de IA para ecografías prenatales de Samsung Medison, fue reportado a la FDA por etiquetar de forma incorrecta estructuras fetales, asociándolas con partes del cuerpo equivocadas. Este tipo de error en medicina fetal genera interrogantes sobre la confiabilidad de los algoritmos en contextos donde la precisión diagnóstica es crítica.

Asimismo, al menos 16 reportes mencionaron monitores cardíacos con IA de Medtronic que no habrían reconocido pausas o arritmias. La compañía aseguró haber revisado los episodios y concluyó que su dispositivo omitió solo una arritmia verdadera sin causar daños, atribuyendo otros incidentes a problemas de visualización o confusión del usuario.

La FDA debilitada frente a la avalancha de IA

Científicos actuales y anteriores de la FDA revelaron a Reuters que la agencia hoy está menos preparada para manejar la avalancha de productos con algoritmos. Hace cuatro años, el organismo había expandido su equipo de especialistas en IA, particularmente en la División de Imagenología, Diagnósticos y Confiabilidad de Software (DIDSR), que llegó a contar con aproximadamente 40 personas.

Pero a principios de 2025, la administración Trump comenzó a desmantelar esa unidad como parte de la campaña de recortes del Departamento de Eficiencia Gubernamental. Aproximadamente 15 de los 40 científicos de IA fueron despedidos o se marcharon, y el Centro de Excelencia en Salud Digital perdió alrededor de un tercio de su personal, que rondaba las 30 personas.

«Si no tenés los recursos, es más probable que se te pasen cosas», advirtió un exrevisor de dispositivos que abandonó la agencia el año pasado. Otro ex empleado señaló que «algunos reguladores senior no tienen idea de cómo funcionan estas tecnologías», describiendo cómo los científicos debían explicar a los decisores por qué consideraban que una IA era o no segura para comercializarse.

El Departamento de Salud y Servicios Humanos respondió que la FDA «aplica los mismos estándares rigurosos a los dispositivos con aprendizaje automático que a cualquier otro producto» y que la seguridad del paciente es la máxima prioridad.

Un marco regulatorio obsoleto

A diferencia de los fármacos, que requieren ensayos clínicos prospectivos, la mayoría de los dispositivos con IA llegan al mercado sin pruebas en pacientes. Muchos fabricantes satisfacen los requisitos citando dispositivos previos autorizados sin capacidades de IA, aprovechando el mecanismo 510(k) de equivalencia sustancial.

Para Alexander Everhart, especialista en regulación de dispositivos médicos de la Washington University en St. Louis, esta lógica tiene límites evidentes frente a algoritmos que aprenden, se actualizan y pueden comportarse de forma no lineal. «Creo que el enfoque tradicional de la FDA para regular dispositivos médicos no está a la altura de la tarea de garantizar que las tecnologías habilitadas con IA sean seguras y efectivas», afirmó. «Estamos confiando en que los fabricantes hagan bien las cosas al lanzar productos, y no sé si lo que hay en la FDA hoy representa barreras significativas».

El dilema entre innovación y protección

En un escenario donde más de 1.357 dispositivos médicos con IA compiten en el mercado estadounidense y las grandes tecnológicas, farmacéuticas y fabricantes de equipamiento buscan diferenciarse con cirugía aumentada y diagnósticos automatizados, el equilibrio entre innovación rápida y salvaguardas sólidas determinará tanto la trayectoria del sector de salud digital como el apetito inversor por plataformas de IA clínica de alta complejidad. La pregunta que permanece sin respuesta es si la industria y los reguladores lograrán sincronizarse antes de que más pacientes resulten dañados.

Autor
Editorial