La Inteligencia Artificial podrá contar con normas claras para su desarrollo y puesta en práctica

El desarrollo e implementación de diferentes tecnologías a favor del área de la salud, ya es una práctica recurrente en la cotidianidad del área de la salud, pero dichos avances, desarrollos e implementaciones tecnológicas no han estado del todo bajo un marco regulatorio, producto del desarrollo tecnológico exponencial visto en los últimos años. En este punto la Inteligencia Artificial (IA), en los últimos años utilizada en ensayos clínicos, no debía ser sometida a auditorías y rendición de cuentas sobre su diseño y desarrollo. Lo que permitía exagerar sus capacidades, pero la implementación de nuevos estándares puede estar cambiando esta realidad.

Un consorcio internacional encabezado por un grupo de expertos médicos ha presentado los primeros estándares oficiales para los ensayos clínicos mediados por la Inteligencia Artificial. Esto producto al conjunto de información manipulada o no verificada que magnifica los resultados de la IA y que puede afectar la credibilidad de esta tecnología.

Los nuevos estándares muestran un conjunto de normas sobre cómo se deben realizar los ensayos clínicos y como debe ser su socialización, dichas normas ya está en práctica en todo el mundo para el desarrollo de medicamentos, pruebas de diagnóstico y otras intervenciones médicas. Ahora los investigadores tendrán que mostrar las habilidades necesarias para el uso de esta tecnología, su entorno de evaluación, detalles de cómo se interactúa con la misma, análisis de casos de error y otros puntos de importancia.

Una normalización de esta tecnología permitirá ayudarnos a conocer a profundidad y con claridad la efectividad y seguridad de un tratamiento o de una técnica clínica. Eso permitirá poder hacer comparaciones, análisis y evaluaciones de diversas aplicaciones de la Inteligencia Artificial en el sector con rigor científico, evitando la mala práctica de algunos desarrolladores que alardeaban o abultaban sus resultados sin tener que enfrentarse a una validación y control al que sí se está aplicando a otros tipos de intervenciones o diagnósticos. Bien lo ha advertido un estudio en BMJ donde indican que ofrecer información sin una correcta investigación, o afirmaciones exageradas podría representar un riesgo para millones de pacientes.

Por lo pronto se puede saber que en un futuro muy próximo estos nuevos estándares facilitarán una valoración objetiva, eficiente e independiente en todos los usos y aplicaciones de esta tecnología que conduzcan a una IA médica mejor y más fiable.

Para conocer más sobre este tema le invitamos a ingresar a través del siguiente enlace:

Heaven, W. (2020) “Estas normas internacionales impedirán que la IA engañe a los médicos” MIT Technology Review. Recuperado el 04/12/2020 de: https://www.technologyreview.es/s/12631/estas-normas-internacionales-impediran-que-la-ia-engane-los-medicos

Deja un comentario

dos × 4 =

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.