Ideas en Salud

En 2016, investigadores en Heidelberg, Alemania, construyeron un sofisticado modelo informático, llamado red neuronal, para identificar los melanomas según las imágenes clínicas. Alimentaron más de 100,000 fotografías de lesiones etiquetadas como "malignas" o "benignas" y le permitieron modificar sus propios métodos para diferenciarlos.

Luego, el equipo invitó a dermatólogos de todo el mundo a comparar su experiencia diagnóstica con la del modelo. Con un nuevo conjunto de imágenes y datos clínicos, los cincuenta y ocho dermatólogos, incluidos treinta expertos de diecisiete países, diagnosticaron con precisión el 88.9 por ciento de los melanomas y el 75.7 por ciento de los lunares benignos. La red neuronal detectó el 95 por ciento de los melanomas y el 82.5 por ciento de los lunares.

Cuando el estudio se publicó en Annals of Oncology , fue considerado como otro ejemplo de la promesa de inteligencia artificial en la medicina. ¿Qué quedaba además de capacitar al modelo en casos más complejos y debatir si, y cómo, algún día, se incorporará esta herramienta a la práctica clínica?

Sin embargo, en el párrafo de limitaciones del artículo, un problema se hizo evidente: más del 95 por ciento de las imágenes utilizadas para entrenar el modelo representaba una piel blanca.

Si el modelo se implementara en un contexto más amplio, ¿se perderían los cánceres de piel en pacientes de color? ¿Confundiría los tonos de piel más oscuros con las lesiones y los cánceres de sobrediagnóstico en su lugar? ¿O funcionaría bien?

Para garantizar que las aplicaciones de inteligencia artificial proporcionen el mayor beneficio mientras hacen el menor daño, es esencial reconocer que los algoritmos, como las personas que los construyen, los usan y recopilan los datos que analizan, pueden estar sesgados, y los pasos deben tomarse para identificar y corregir dichos sesgos.

Avanzar responsablemente

"La inteligencia artificial es inteligente de muchas maneras, pero está sujeta al principio de 'basura en la basura'", dice Kun-Hsing Yu, un instructor de informática biomédica en el Instituto Blavatnik en HMS. "Si la entrada tiene un sesgo sistémico, el modelo aprenderá tanto de eso como de las señales reales".

Los sesgos pueden ingresar en cualquier etapa del desarrollo de la IA y tomar muchas formas, desde el análisis de datos sesgados o insuficientes hasta el sesgo de confirmación que lleva a un radiólogo a estar de acuerdo con los hallazgos falsos negativos de un algoritmo y, por lo tanto, omite una lesión en la radiografía de un paciente. Los sesgos demográficos solo abarcan género, raza y etnia, edad, ingresos, ubicación geográfica, idioma primario, estilo de vida e IMC; La falla en la detección de cualquiera de estos al construir o implementar un modelo puede replicar o exacerbar las disparidades en la atención al paciente.

"Si está entrenando cualquier algoritmo para tomar decisiones, está incorporando la estructura de cómo funcionan las cosas hoy o cómo funcionaron en el pasado", dice Brett Beaulieu-Jones, investigador en HMS en informática biomédica. "Si no estás controlando y superando los sesgos, los perpetuarás".

Los sesgos a menudo pueden ser involuntarios, pero también pueden introducirse deliberadamente. Algunos investigadores señalan que las aplicaciones de la IA en los hospitales podrían diseñarse para priorizar las llamadas métricas de calidad o hacer recomendaciones que beneficien económicamente al fabricante de la IA, a una compañía farmacéutica oa la institución sin el conocimiento de los médicos o pacientes.

El hecho de pasar por alto el sesgo en la inteligencia artificial invita a consecuencias graves. Las recomendaciones basadas en modelos sesgados o las aplicaciones incorrectas involuntarias de un modelo podrían dar como resultado aumentos en la enfermedad, lesiones y muerte en ciertas poblaciones de pacientes. Los modelos parciales podrían desperdiciar tiempo y dinero en el laboratorio y liderar a los investigadores en la búsqueda de animales salvajes cuando intentan traducir descubrimientos fundamentales en nuevos tratamientos. Y podrían erosionar la frágil confianza que la profesión o el público pueden depositar en la IA médica.