A pesar de su enorme potencial, el uso de machine learning en medicina también presenta desafíos importantes que no deben subestimarse.
Uno de ellos es la calidad y representatividad de los datos. Si los datos con los que se entrena el modelo están incompletos, mal etiquetados o no representan bien a toda la población (por ejemplo, si sólo incluyen pacientes de un país o grupo étnico), el sistema puede cometer errores o ser injusto.
La privacidad de los pacientes también es crucial. Los datos de salud son especialmente sensibles, y hay que protegerlos con todas las garantías legales y técnicas. Esto incluye el anonimato, el consentimiento informado y el cumplimiento de normativas como el Reglamento General de Protección de Datos (GDPR) en Europa.
Otro problema es la interpretabilidad de los modelos. Muchos algoritmos, sobre todo los más avanzados como las redes neuronales profundas, funcionan como «cajas negras»: dan una respuesta, pero no explican cómo han llegado a ella. En medicina, esto puede ser un obstáculo, ya que los profesionales necesitan entender y justificar sus decisiones.
También está el tema de la responsabilidad legal: si un sistema se equivoca, ¿de quién es la culpa? Y, por último, el riesgo de reforzar sesgos existentes. Un algoritmo puede aprender de los prejuicios presentes en los datos históricos y repetirlos, perpetuando desigualdades.
