REFINE: La nueva guía internacional para garantizar la transparencia en la Inteligencia Artificial médica

El avance acelerado de los modelos fundacionales (FM) y los modelos de lenguaje de gran tamaño (LLM) —como GPT-4 o herramientas especializadas en radiología— ha superado en ocasiones la capacidad de la comunidad científica para evaluarlos de forma rigurosa. Para solucionar este vacío, un consorcio internacional de expertos ha presentado REFINE, la primera guía de consenso para el reporte transparente de estos modelos en la investigación médica.

La guía REFINE consta de una lista de verificación de 44 ítems divididos en seis secciones fundamentales para cualquier estudio médico que utilice IA:

  1. Especificación del modelo: Detalles sobre la versión, el desarrollador y las fechas de corte de conocimiento.

  2. Diseño de prompts: Documentación precisa de las instrucciones y estrategias utilizadas para interactuar con la IA.

  3. Control de estocasticidad: Parámetros de generación (como la “temperatura”) que afectan la variabilidad de las respuestas.

  4. Integridad de los datos: Evaluación de posibles contaminaciones entre los datos de entrenamiento y los de prueba.

  5. Evaluación de resultados: Métodos de análisis de fallos y comparaciones con estándares clínicos.

  6. Implementación: Protocolos de seguridad, privacidad y cómo se integra la herramienta en el flujo de trabajo clínico.

Para facilitar su adopción, el grupo de desarrollo (compuesto por 57 colaboradores de 17 países) ha lanzado una plataforma online interactiva (https://refinechecklist.github.io/refine/checklist.html).

En este trabajo ha participado el director del ACIM y del GIBI230, el Dr. Martí Bonmatí

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *