De acuerdo con la experta en inteligencia artificial Genevera Allen, los científicos deben seguir cuestionando la precisión y reproducibilidad de los descubrimientos científicos realizados por las técnicas de aprendizaje automático (machine learning) hasta que los investigadores desarrollen nuevos sistemas computacionales que sean capaces de criticarse a sí mismos.
Esa es la conclusión de un estudio presentado en la Reunión Anual de la Asociación Americana para el Avance de la Ciencia (AAAS) de 2019.
“La pregunta es, ¿podemos realmente confiar en los descubrimientos que se están realizando actualmente utilizando técnicas de aprendizaje automático aplicadas a grandes conjuntos de datos? – explica Allen –. La respuesta en muchas situaciones es probablemente: no sin una verificación posterior. Muchas de las técnicas propuestas por IA están diseñadas para hacer siempre una predicción. Nunca dicen “No sé” o “No he descubierto nada” porque no están hechos para ello. En medicina de precisión, es importante encontrar grupos de pacientes que tengan perfiles genómicamente similares para que pueda desarrollar terapias con medicamentos dirigidas al genoma específico para su enfermedad. Los científicos han usado aprendizaje automático a los datos genómicos de cohortes clínicas para encontrar grupos o grupos de pacientes con perfiles genómicos similares. Pero hay casos en que los descubrimientos no son reproducibles; los grupos descubiertos en un estudio son completamente diferentes a los grupos encontrados en otro. ¿Por qué? Porque la mayoría de las técnicas de aprendizaje automático dicen: “Encontré un grupo”. La duda a veces es buena y estos sistemas no dudan”.
Juan Scaliter