IA Y NEUROCIENCIA

CONTENIDO DE LA UNIDAD

  • Material de estudio

  • Imágenes

  • Videos

  • Actividades de aprendizaje

INTELIGENCIA ARTIFICIAL EN ENTORNOS DE LA SALUD

INTRODUCCIÓN

La medicina es un área en constante evolución. Aunque deben seguirse unas precauciones de seguridad estándar, a medida que aumenten nuestros conocimientos gracias a la investigación básica y clínica habrá que introducir cambios en los tratamientos y en los fármacos. En consecuencia, se recomienda a los lectores que analicen los últimos datos aportados por los fabricantes sobre cada fármaco para comprobar la dosis recomendada, la vía y duración de la administración y las contraindicaciones. Es responsabilidad ineludible del médico determinar la dosis y el tratamiento más indicado para cada paciente en función de su experiencia y del conocimiento de cada caso concreto.

 

La inteligencia artificial y el machine learning o aprendizaje automático son técnicas innovadoras disruptivas que prometen cambiar la sociedad tal y como la conocemos. Dichos cambios tendrán su reflejo en el mundo laboral en general y en el ámbito sanitario en particular. Una consecuencia inmediata de esto es el gran interés que el tema ha despertado entre profesionales de la salud y entre estudiantes de carreras sanitarias. Muchos se preguntan: ¿Cómo prepararme para los cambios que nos vienen? ¿Debo aprender a programar? ¿Con qué software o lenguaje? ¿Quién es responsable de la interpretación de los algoritmos de inteligencia artificial, especialmente si fallan? ¿Qué nuevos perfiles profesionales aparecerán en el futuro? ¿Cómo acceder a ellos? ¿Qué titulaciones tienen más valor? Y sobre la formación no oficial de cursos online… ¿Son buenos? ¿Compensan? ¿Vale la pena pagar por realizarlos? ¿Y por su certificación?

En esta unidad vamos a repasar en primer lugar el background laboral y tecnológico sobre el que aterriza la inteligencia artificial en salud, una clarificación de los conceptos más frecuentemente utilizados (inteligencia artificial, machine learning, big data, algoritmo, red neuronal, red neuronal profunda o deep learning, etc.). Hablaremos de tipos de análisis, de profesionales de datos, ejemplos de algoritmos ya disponibles en salud y tipos de algoritmos y datos disponibles.

Finalmente, incluimos un resumen práctico de las 10 claves para utilizar de manera crítica un algoritmo de inteligencia artificial en salud, que es el objetivo central de esta información.

 

A lo largo de esta unidad vamos a emplear muchos términos en inglés junto a sus equivalentes en español. La razón que justifica esta decisión es que la mayoría de la información y de la formación actualizada sobre inteligencia artificial utiliza terminología en inglés, y es nuestra intención que el lector se familiarice con ella para que pueda seguir profundizando en la materia por su cuenta sin que esto suponga una dificultad añadida.

LA CUARTA REVOLUCIÓN INDUSTRIAL
 

La sociedad en todo el mundo está siendo testigo de importantes cambios laborales. Se dice que estamos presenciando los comienzos de la cuarta revolución industrial, siendo la primera revolución la asociada al motor de vapor, la segunda a la electricidad y la tercera a los ordenadores. Dichas revoluciones industriales crearon muchos puestos de trabajo caracterizados por requerir trabajadores especializados que realizan trabajos repetitivos con la ayuda de máquinas, con la consiguiente desaparición de los artesanos tradicionales. Estos nuevos empleos generaron gran parte de la denominada clase media actual. Los ordenadores modernos y las técnicas de inteligencia artificial y machine learning permiten la gestión rápida y segura de grandes volúmenes de datos generados por la digitalización generalizada de la sociedad y de las empresas, y por el advenimiento del 5G y el IoT que acaba de comenzar. De manera que la automatización de la gestión de datos y la robótica industrial sustituirá a un grandísimo número de empleos clásicos especializados, que realizan trabajos repetitivos con la ayuda de máquinas y muchas veces con la gestión directa de datos (se estima que entre un 36 y un 47% de los empleos actuales).

 

Parece que la clase media está seriamente amenazada. O no. Porque en todas las anteriores revoluciones industriales se destruyeron montones de empleos, pero se generaron muchos más, especialmente para aquellos trabajadores que supieron adaptarse a los nuevos desarrollos (especialización) frente al tradicional trabajador de proceso completo artesanal. En la actualidad, las empresas tienen problemas para encontrar profesionales con formación y experiencia suficiente para desarrollar los algoritmos y supervisar los sistemas informáticos de gestión de datos automatizada. Dicha nueva formación es muy especializada y todavía no plenamente incorporada a las titulaciones oficiales. El gran problema es que, además de este tipo de trabajos altamente cualificados, se están creando trabajos de muy baja cualificación en campos donde la automatización no ha conseguido ser eficaz todavía, por ejemplo, en el reparto de comida rápida a domicilio, donde los salarios son muy bajos. Es el nuevo grupo social denominado «precariado»: trabajos no cualificados con salarios muy bajos y condiciones horribles. De manera que la desaparición de la clase media empuja a una minoría selecta a puestos laborales de alto nivel y a una mayoría a puestos laborales precarios no cualificados. Toda esta información ha sido extraída y está excepcionalmente bien explicada en un vídeo publicado por la fundación COTEC en abril de 2019.
 

Recomendamos la visualización de este vídeo antes de continuar estudiando esta unidad.
 

Es difícil explicar en tan poco tiempo y con tanta claridad el impacto que la inteligencia artificial va a tener en nuestra vida profesional. En lo referente al mundo profesional sanitario, estamos siendo testigos de cómo gran parte de nuestra masa laboral está pasando a formar parte del precariado (puestos laborales con malas condiciones, mucha presión asistencial y bajos salarios), pero otros muchos están saltando al barco de la dirección de la cuarta revolución industrial. La clave es dominar la tecnología detrás de la gestión de datos de la inteligencia artificial y especialmente del machine learning (aprendizaje automático), y de cómo armonizar su desarrollo con las necesidades y realidades de la práctica clínica y de los sistemas sanitarios vigentes.

BACKGROUND

Comencemos analizando la información reciente que nos llega a través de los medios de comunicación. «La inteligencia artificial augura el fin de la raza humana» y «Los humanos, que son seres limitados por su lenta evolución biológica, no podrán competir con las máquinas, y serán superados» en palabras de Stephen Hawking.

stephen-hawking.jpg

Según un informe reciente de Oxford Economics se estima que desde el año 2000, las máquinas han destruido 400.000 empleos en Europa, y se espera que las máquinas desplacen cerca de 20 millones de empleos en todo el mundo durante la próxima década, con un ratio de 1,6 trabajadores de fabricación desplazados por cada nuevo robot. Sin embargo, como complemento a esta importante destrucción de empleo, se habla de la potencial generación de más puestos de trabajo en comparación con los destruidos. Según el Fondo Económico Mundial, la inteligencia artificial generará 58 millones netos, teniendo en cuenta los 133 millones de nuevos puestos de trabajo que se espera que genere y los 75 millones que se espera que destruya.

Investigadores del Massachusetts Institute of Technology analizaron lo ocurrido en 19 países durante los últimos 35 años y concluyeron que los salarios que van a quedar en el futuro cercano van a ser mucho más bajos: «El empleo no peligra; tu sueldo sí». El mundo sanitario no parece ajeno a esta amenaza: «En diez años todas las imágenes médicas serán analizadas primero por una máquina».

 John Nosta, de Digital Self, opina: «La inteligencia artificial será más inteligente que los médicos». Y los médicos, los profesionales sanitarios que probablemente más sienten estas amenazas, responden: «No nos sustituirán».

Según un reciente estudio publicado por investigadores de Harvard, la mayor parte de los médicos de atención primaria del Reino Unido ven muy poco probable que los ordenadores sustituyan a los médicos en su ejercicio profesional. Es paradójica la falta de armonía entre el optimismo de los desarrolladores tecnológicos y los inversores, por un lado, y la precaución y el escepticismo de los profesionales sanitarios por otro. En general, se acepta que la inteligencia artificial cambiará a los profesionales sanitarios, como por ejemplo a los médicos radiólogos, pero que no los sustituirá. Sin embargo, hay situaciones donde los algoritmos sí demuestran ser superiores a los profesionales sanitarios.

En un estudio realizado en la Medical University of Vienna, un total de 511 dermatólogos especializados en lesiones cutáneas pigmentadas y provenientes de 77 países compitieron contra 139 programas informáticos de reconocimiento de imágenes. Los médicos tan solo contaban con su experiencia personal, mientras que las máquinas contaban con una base de aprendizaje con un banco de datos con más de 10.000 fotografías de siete tipos diversos de lesiones cutáneas pigmentadas.

La prueba consistía en identificar 30 fotografías demoscópicas aleatoriamente seleccionadas de una base de datos con más de 1.500 imágenes y sus resultados fueron comparados con los que habían sido obtenidos previamente por las máquinas. De la treintena de diagnósticos posibles, los datos reflejan la evidencia: los especialistas acertaron de media en 18,8 casos, mientras que la inteligencia artificial tuvo un promedio de 25,4 evaluaciones correctas. Sin embargo, concluyen los autores, el proceso diagnóstico clínico es mucho más complejo que la información procedente de una imagen, y concluyen, a día de hoy, que el diagnóstico corresponde al médico.

 

Muchos profesionales sanitarios en lugar de ver esto como una amenaza, lo ven como una gran oportunidad: «La inteligencia artificial no puede sustituir a los médicos, pero puede hacerlos mejores profesionales» (MIT Technology Review). Y no faltan visiones más optimistas de que la «inteligencia artificial cambiará los puestos de trabajo en sanidad a mejor» (Harvard Business Review).13 Todo esto pasa por la adaptación de los trabajadores de la salud a los nuevos perfiles que están, y que irán, llegando poco a poco.14 Un reflejo de esto es que empieza a ser normal que las «grandes empresas tecnológicas contratan médicos». En cualquier caso, parece que el entorno sanitario es un negocio muy goloso para los inversores: «¿Invertir en “big data”? El 70% del sector salud se verá afectado por esta tecnología». Y en esta situación, parece que los títulos universitarios pierden valor: «Las 15 grandes empresas que ya no exigen un título para contratar (y los motivos)». Cada vez más, la carta de presentación es lo que uno es capaz de hacer, más que los títulos que ha obtenido o la formación que ha sido capaz de completar: «Resuelve estos difíciles problemas de datos y observa cómo te llueven ofertas de trabajo». De este modo, observamos cómo los mejor situados en los rankings de competiciones mundiales de machine learning (p. ej., Kaggle) son altamente demandados por las empresas tecnológicas, independientemente de su titulación. Parece que hemos entrado en la era de las habilidades y no de los títulos. Y no parece un bluf transitorio, cuando grandes y prestigiosas instituciones invierten grandes cantidades de dinero en prepararse para dicho cambio. Ejemplos de ello son:

 

1. El Massachusetts Institute of Technology ha invertido 864 millones de euros (1.000 millones de dólares) en la creación de una nueva escuela (la primera en 70 años) para hacer frente a la acelerada evolución de informática e inteligencia artificial, y a sus efectos globales.

2. Microsoft ha creado una unidad (Healthcare NExT) exclusivamente dedicada al desarrollo de innovación en atención sanitaria a través de la inteligencia artificial y la computación en la nube.

3. Amazon ha explorado desarrollar herramientas diagnósticas domiciliarias, dentro de otro proyecto más grande denominado «Grand Challenge».

Países enteros están transformando su sistema docente. China lanzó en 2017 un programa para convertir a su país en líder mundial de la inteligencia artificial para 2030. Para ello estableció un gasto de 150.000 millones de dólares y un programa educativo obligatorio en inteligencia artificial en todas las escuelas del país. De ser un centro de referencia en ingeniería inversa, está pasando a ser un desarrollador mundial referente en tecnología digital.

A otra escala, en España existen ya iniciativas para transformar el sistema educativo. Además de los múltiples posgrados en big data disponibles en todo el país, la Universidad del País Vasco ofrece en el curso académico 2019-2020 un grado en inteligencia artificial.

La Universidad Europea de Madrid ha comenzado ya (septiembre 2019) un pack formativo obligatorio sobre el uso de algoritmos de inteligencia artificial en salud para todos sus estudiantes de Ciencias de la Salud (medicina, enfermería, psicología, farmacia, biotecnología, odontología). En educación primaria, el centro L’Horitzó de Barcelona implantará la inteligencia artificial como disciplina propia para alumnos de 3.º y 4.º de la ESO.

Independientemente de iniciativas iniciativas aisladas como las mencionadas, carecemos en España de un plan nacional de desarrollo de inteligencia artificial, cuando muchos otros países como Argentina, Brasil, Canadá, China, República Checa, Dinamarca, Estonia, Finlandia, Francia, Alemania, Hungría, India, Italia, Japón, Corea, México, Noruega, Rusia, Arabia Saudí, Singapur, Reino Unido y EE. UU., ya han dado ese paso.

mapa.jpg

FIGURA 1 Países con un plan nacional de desarrollo de la inteligencia artificial.

Tener un plan nacional de desarrollo de inteligencia artificial no es sinónimo de haber realizado nada. Pero no tener un plan es un indicativo de falta de previsión y/o interés, visión y confianza en el tema. El Reino Unido, por ejemplo, ha creado un laboratorio específico para desarrollar la inteligencia artificial aplicada a salud, dotado con 250 millones de libras. De modo general, se pueden identificar tres grandes modelos nacionales en el desarrollo de la inteligencia artificial. El primero, representado por Europa, es un referente en el establecimiento de «normas que sirvan para que el sector avance de forma sostenible» y en el respeto de los derechos de privacidad de los datos de los ciudadanos.

El segundo modelo, representado por EE. UU., se caracteriza por la opacidad, la ausencia de consideraciones éticas y la búsqueda de intereses empresariales y beneficio económico, por encima de todo. Véase el escándalo de Cambridge Analytica y el flaco favor que este ha supuesto para favorecer la disponibilidad de datos sanitarios para desarrollar la inteligencia artificial en salud. Por último, un tercer modelo, representado por China, busca un potente desarrollo tecnológico y económico paralelo, con gran énfasis en el control de la población.

Volviendo al influjo de la inteligencia artificial en el ámbito laboral sanitario, los profesionales sanitarios que dominan esta capacidad de gestión de datos y de algoritmos de machine learning, reciben ofertas muy jugosas: en torno a 100.000-150.000 dólares anuales en EE. UU.

De hecho, ya se debate sobre el cambio de perfiles que deberían demandar las empresas sanitarias. No es sorprendente, por tanto, que a los nuevos científicos de datos sanitarios se les denomine ocasionalmente como los nuevos unicornios por parte de empresas cazatalentos. Incorporarse a este grupo selecto supone, finalmente, participar en el apasionante proceso de reimaginar cómo será el sistema sanitario moderno.

Sin embargo, hay que tener cuidado, porque no es oro todo lo que reluce. Según un informe del capital de riesgo MMC,34 un 40% de las empresas incorporan la jerga de la inteligencia artificial en sus proyectos para financiarse (atraer inversores), pero no utilizan ninguna de sus técnicas. No es raro que los revisores de proyectos de investigación internacionales nos encontremos con grandes proyectos presentados a convocatorias competitivas con términos de inteligencia artificial en el título, pero sin evidencia ninguna de herramientas de inteligencia artificial ni de machine learning en la metodología. Además, muchos algoritmos que prometen resultados casi milagrosos en sus estudios de validación ofrecen en muchos casos resultados muy pobres, o incluso peligrosos, cuando se aplican a la realidad clínica, según explica Meredith Broussard en su libro Estupidez artificial: cómo los ordenadores entienden mal el mundo.

Pasemos ahora a los contenidos de esta unidad. Vamos a entender qué son, cómo se estructuran y cómo se entrenan los algoritmos de inteligencia artificial para que podamos ser críticos a la hora de utilizarlos en nuestra práctica profesional (clínica o no). No vamos a desarrollar aquí (entrenar se dice en el argot) algoritmos, ni vamos a programar.

Como hemos visto, es muy común leer y escuchar en medios de comunicación noticias sobre inteligencia artificial, big data, aprendizaje automático o redes neuronales. Sin embargo, no siempre tenemos muy claro qué significa cada término ni cómo se relacionan entre ellos.

Repasemos con detalle cada uno de estos conceptos y los marcos conceptuales alrededor de ellos.

LOS OCHO CONCEPTOS BÁSICOS

Se habla de inteligencia artificial (IA) cuando una máquina imita las funciones cognitivas del ser humano. Se dice que hay tres tipos de inteligencia artificial:

  1. IA estrecha o débil (ANI, artificial narrow intelligence). Se focaliza en una tarea única y concreta. La mayor parte de los algoritmos de inteligencia artificial disponibles en salud (diagnóstico de neumonía en radiografía de tórax, predicción de riesgo coronario basado en parámetros analíticos, diagnóstico oncológico por análisis de muestra patológica, procesamiento del lenguaje natural de historias clínicas —NLP, natural language processing—, etc.) pertenecen a esta categoría. Dan respuesta a una necesidad puntual y concreta, con unos resultados superiores a los modelos y herramientas clásicas. Son una herramienta de apoyo que potencia la capacidad diagnóstica y terapéutica de los profesionales, o su eficiencia laboral, sin pretender sustituirlos.

  2. IA general (AGI, artificial general intelligence). Equipara la función de inteligencia artificial a las capacidades humanas. La AGI es un campo emergente, en desarrollo, con gran potencial futuro, pero todavía lejos de la práctica sanitaria presente. Una aplicación que pueda diagnosticar todas las patologías pediátricas, por ejemplo, se acercaría a este tipo de inteligencia artificial. La incorporación de la gestión de la incertidumbre en los algoritmos de inteligencia inteligencia artificial va en esta línea. Son algoritmos que aspiran a sustituir a los profesionales sanitarios. Quizás algún día lo hagan. Aunque todavía estamos lejos de ese punto.

  3. Súper IA (ASI, artificial super intelligence). Es un campo futurible en el que las aplicaciones de inteligencia artificial superarían la capacidad humana en todos los campos, incluidos la expresión artística, la toma de decisiones y la gestión de emociones en las relaciones interpersonales.

El término big data se refiere al conjunto de datos o combinaciones de conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como ordenadores personales, bases de datos relacionales (p. ej., SQL) y estadísticas convencionales (p. ej., SPSS) o paquetes de visualización, dentro del tiempo necesario para que sean útiles.

«Debido al aumento de la capacidad y al abaratamiento de las tecnologías de la información y de los sensores, podemos producir, almacenar y enviar más datos que nunca antes en la historia. De hecho, se calcula que el 90% de los datos disponibles actualmente en el planeta se ha creado en los últimos 2 años, produciéndose hoy en día en torno a 2,5 quintillones (2.500.000.000.000.000.000) de bytes por día, siguiendo una tendencia fuertemente creciente. Estos datos alimentan los modelos de machine learning y son el impulso principal del auge que esta ciencia ha experimentado en los últimos años.»

 La ciencia de datos (o data science) es un campo interdisciplinario que involucra métodos científicos, procesos y sistemas para extraer conocimiento o un mejor entendimiento de datos en sus diferentes formas, ya sean estructurados o no estructurados, lo cual es una continuación de algunos campos de análisis de datos como la estadística, la minería de datos, el aprendizaje automático y la analítica predictiva.

El aprendizaje automático o machine learning es un tipo de inteligencia artificial que proporciona a las computadoras la capacidad de aprender desde los datos, sin ser programadas explícitamente. Esta tecnología se encuentra en el corazón de la inteligencia artificial y de la gestión del big data. De hecho, su interés se ha disparado en los últimos meses, como ya hemos comentado, dado su potencial en casi todas las ciencias, incluida la salud.

En el modelo tradicional, al ordenador se le ofrecen los datos, junto con un modelo matemático (generalmente regresivo) que pensamos es capaz de resumir las propiedades de los datos (su distribución y las relaciones entre variables), y esperamos a que el ordenador nos devuelva un output que puede ser una predicción de, por ejemplo, nuestra mortalidad por enfermedad cardiovascular en 10 años, partiendo de nuestro peso, talla y si fumamos o no. Sin embargo, en el machine learning ofrecemos al ordenador los datos (peso, talla y si fumamos), el output (quién ha fallecido por enfermedad cardiovascular) y el ordenador nos devuelve un modelo predictivo (el famosamente denominado algoritmo) que nos permite predecir la muerte coronaria en otro grupo de personas distinto (hacer predicción). La maravilla de este nuevo modelo es que no necesitamos encontrar esa fórmula matemática que resume los datos (algo realmente difícil generalmente): lo hace todo el algoritmo sin nuestra intervención, basándose exclusivamente en los datos. Es como si dijéramos que el ordenador aprende solo, gracias a los datos. Iremos viendo que esto no es exactamente así, pero sirve para entenderlo mejor (fig. 2).

f2.jpg

FIGURA 2. Diferencias estructurales entre la programación tradicional y el machine learning.

Otra definición de machine learning es «la ciencia que permite que las computadoras aprendan y actúen como lo hacen los humanos, mejorando su aprendizaje a lo largo del tiempo de una forma autónoma, alimentándolas con datos e información en forma de observaciones e interacciones con el mundo real» (Dan Fagella). Y otra más: «Machine learning ofrece una manera eficiente de capturar el conocimiento mediante la información contenida en los datos, para mejorar de forma gradual el rendimiento de modelos predictivos y tomar decisiones basadas en dichos datos». A modo de ejemplo, el siguiente vídeo muestra una detección de eventos en tiempo real para una aplicación de videovigilancia basada en machine learning.

Dicha tecnología es fácilmente trasladable, por ejemplo, al estudio de la sintomatología y del diagnóstico del Parkinson (enfermedad neurodegenerativa con alteración del movimiento), en este caso con sensores corporales y no con imagen de vídeo. Y la misma tecnología puede ser fácilmente trasladable a muchos ámbitos distintos como, por ejemplo, al esquí, analizando con sensores los movimientos corporales y de los esquís, para ayudar a mejorar la técnica del esquiador. O al desarrollo de exoesqueletos. Recomendamos visualizar los siguientes vídeos:

Lo bonito del machine learning es que una vez que dominamos su esquema básico, son los datos los que se encargan de todo, esto es relativamente fácil aplicarlo a otros campos. El único detalle, inconveniente a veces, es que el machine learning necesita de grandes volúmenes de datos para entrenarse. En general, cuantos más datos le ofrezcamos, mejor será el resultado. Estamos hablando de millones de datos... aunque es posible hacer maravillas, ocasionalmente, con unos pocos miles de ellos, especialmente cuando estos datos (small data) son de altísima calidad y tienen una altísima capacidad predictora. Por eso el machíne learning y el big data van con frecuencia de la mano. Y de ahí que el machine learníng esté en el corazón tanto de la inteligencia artificial como del bíg data.

Resumiendo todo lo anterior, podemos decir que la inteligencia artificial es la rama del conocimiento que busca construir programas o máquinas que imiten cualidades o comportamientos humanos. Una de estas cualidades es la capacidad de aprender. La rama de la inteligencia artificial que se encarga deque las máquinas aprendan de manera autónoma es la que se conoce como machine learning.

El machine learning funciona alimentando un algoritmo con datos de entrada que recogen observaciones del pasado, y construye un modelo para predecir y clasificar nuevas observaciones no conocidas por el algoritmo, imitando un proceso cognitivo humano.

El machine learning se engloba en un proceso más amplio conocido como «minería de datos» que incluye el recopilar y limpiar los datos de entrada. Existen diversos tipos de algoritmos de machine learning, pero uno de los más populares, sobre todo en el ámbito sanitario, son las redes neuronales (neural networks), que imitan el funcionamiento de las neuronas del cerebro. Las redes neuronales están formadas por capas de variables interconectadas entre sí con unos pesos que el algoritmo va calculando y ajustando mediante iteraciones (repeticiones) de un proceso que se conoce como «descenso del gradiente».

Cuando el número de capas y neuronas que forman una red neuronal es muy complejo, hablamos de deep learning. El término deep (profundo) hace referencia a redes con muchas capas. Este tipo de redes neuronales suelen ofrecer muy buenos resultados, pero para ello necesitan normalmente una gran cantidad de datos de entrada, lo que se conoce como big data (fig. 3).

F3.jpg

Relación entre la IA, el machine learning, las redes neuronales y el deep learning

Sin título.jpg

Comparativa de las tendencias de búsqueda mundiales en google de los términos machine learning  y big data desde el año 2004 

Un algoritmo de inteligencia artificial o de aprendizaje automático es un modelo matemático que resume las propiedades de los datos utilizados en su entrenamiento, generalmente con un objetivo predictivo, aunque también puede ser diagnóstico (exploratorio) o prescriptivo (predicción tras intervención). Otra definición establece que es el conjunto de instrucciones que se dan a una computadora para que, a partir de unos datos de entrada, construya unos datos de salida. Algunos añaden que dicho conjunto de instrucciones debe ser implementado por una maquina y debe ser finito y ejecutado de manera sistemática.

La red neuronal es un tipo de algoritmo de machine learning que se basa fundamentalmente en sucesivas capas de transformación de los datos, imitando las conexiones neuronales del cerebro. Tienen mucho renombre porque se han obtenido algunos de los resultados más impresionantes con grandes volúmenes de datos (big data) y suelen equipararse a la inteligencia artificial, pero veremos que hay vida (otros tipos de algoritmos) más allá de las redes neuronales.

f3.jpg

Ejemplo gráfico de una red neuronal

 Deep learning (red neuronal profunda) es un tipo de red neuronal que tiene un alto número de capas de neuronas y que, por tanto, puede obtener muchos niveles de abstracción. Este tipo de algoritmos requieren de un gran volumen de datos (big data), y generalmente de una altísima capacidad de procesamiento, bien en la nube, bien con GPU (graphics processing unit) o con CPU (central processing unit) en paralelo. Si no entiende estos conceptos, no se preocupe. No son imprescindibles. También se puede definir deep learning como un conjunto de algoritmos de aprendizaje automático (machine learning) que intenta modelar abstracciones de alto nivel en datos usando arquitecturas computacionales que admiten transformaciones no lineales múltiples e iterativas de datos expresados en forma matricial o tensorial. O también como: llevar a cabo el proceso de machine learning usando una red neuronal artificial que se compone de un número de niveles jerárquicos.

En el nivel inicial de la jerarquía la red aprende algo simple y luego envía esta información al siguiente nivel. El siguiente nivel toma esta información sencilla, la combina, compone una información algo un poco más compleja, y se la pasa al tercer nivel, y así sucesivamente. Es posible que todo esto suene un poco raro o difícil de comprender para alguien no familiarizado con los términos, pero el propósito de este curso no es dominar el tecnicismo ni realizar la labor de un profesional de la materia sino de conocer la existencia de los mismos como parte de un sistema artificial que ha tratado de imitar las funciones de un cerebro humano.

f4.jpg

Ejemplo de redes neuronales profundas

Una ventaja de las redes neuronales profundas es que generalmente no requieren manipulación de datos (feature engineering) previa a su procesamiento, algo muy útil cuando utilizamos datos en tiempo real como, por ejemplo, en el reconocimiento visual de entorno en el coche autónomo.

La computación en la nube (cloud computing), o simplemente «la nube», es un paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es Internet. Posee múltiples servidores (ordenadores más potentes que los clásicos PC de usuario) interconectados entre si, por lo que el poder de computación o procesamiento y de almacenaje es extremadamente grande comparado con el de un único ordenador.

f4.jpg

Representación gráfica de una nube de computación

TIPOS DE ANÁLISIS

1. Análisis descriptivo, que como su título indica, detalla la realidad con base en los datos disponibles (medias, medianas, dispersiones, gráficos, etc.).

2. Análisis diagnóstico, que lo que busca es explicar y evaluar lo previamente descrito, el porqué. En este nivel se busca tanto demostrar causalidad (cuando sea posible), y si no al menos describir asociaciones entre factores de riesgo (variables independientes o predictoras) y resultados (outcomes o eventos o variables dependientes en argot clínico, labels en argot tecnológico).

3. Análisis predictivo, donde lo que se busca es pronosticar o predecir que va a pasar en el futuro (eventos no ocurridos). Tradicionalmente se realizaba con metodologías regresivas, bien lineales, logísticas o de Cox (tiempo de seguimiento), y que en la actualidad han sido fuertemente potenciadas por los algoritmos de machine learning.

4. Análisis prescriptivo, donde se intenta predecir que va a pasar tras realizar una intervención, que puede ser terapéutica, de prevención o incluso comercial. Este nivel nos permite inferir como podemos influir mediante una intervención en el presente sobre los hechos futuros.

A estos cuatro niveles habría que añadir dos acepciones:  

a. El análisis confirmatorio, que es el realizado para aceptar o rechazar una hipótesis. Es el modelo estadístico clásico donde, tras definir la metodología de trabajo, se colectan los datos con el objetivo de aceptar o rechazar la hipótesis de partida. En este marco no se suelen realizar múltiples análisis de prueba, ya que por pura casualidad podrían dar como significativos resultados que se producen exclusivamente por azar, y no porque exista una asociación. El objetivo principal de este análisis es generar evidencia científica que aporte solidez a las decisiones clínicas, sobre todo a través de la definición de protocolos y guías oficiales de actuación.

b. El análisis exploratorio, que tradicionalmente se realizaba para “tomarle el pulso» a los datos antes de plantear una hipótesis formal, en el mundo de la empresa se considera un objetivo en si mismo: encontrar la riqueza de la información que ofrecen los datos mediante múltiples análisis con el objetivo de tomar decisiones empresariales y comerciales que permitan mejorar la empresa y sus procesos. En el entorno del machine learning, el análisis exploratorio es esencial para la preparación de los datos de cara al entrenamiento del o de los algoritmos. Gran parte de este análisis exploratorio tiene que ver con la selección de variables y se denomina en ingles “feature engineering», o ingeniería de datos.

El machine learning se centra sobre todo en el entorno predictivo y prescriptivo, aunque los algoritmos diagnósticos y de patrones podrían encuadrarse en el análisis descriptivo.

f5.jpg

Relación de valor y dificultad entre los distintos tipos de análisis de datos

ALGORITMOS DISPONIBLES EN LA PRÁCTICA SANITARIA

Para comprender los algoritmos aplicables en este rubro, recomendamos ver, al menos parcialmente los siguientes videos:

A continuación, vamos a nombrar una serie de ejemplos de algoritmos de machine learning o inteligencia artificial aplicados a salud. No pretendemos que sea un listado exhaustivo. Hay muchos más, sin duda, y cada semana surgen nuevos. Esperamos simplemente ofrecer una visión general de todo lo que se está desarrollando en este campo. Hemos incluido la referencia del articulo científico (si está disponible) y, en ocasiones, la referencia a publicaciones de medios de comunicación dando difusión de la investigación.

DIAGNOSTICO POR IMAGEN

Radiológico

Diagnóstico de neumonía en radiografía de tórax

El equipo de Andrew Ng desarrolló una red neuronal convolucional de 121 capas (CheXNet) entrenándola con una base de más de 100.000 radiografías de tórax posteroanteriores, con 14 enfermedades etiquetadas en la base. En la referencia mostramos la primera publicación de CheXNet, que tiene que ver con el diagnóstico de neumonía.

Los autores mejoran la métrica F1 score de la capacidad diagnóstica de un grupo de radiólogos utilizados como grupo control.

Diagnóstico de hemorragia cerebral y hemorragia subaracnoidea por TAC cerebral

Los autores entrenaron 46.583 TAC cerebrales (unos 2 millones de imágenes) recopilados durante 10 años (2007-2017) para entrenar una red neuronal convolucional. Obtuvieron un área bajo la curva (AUC, area under the curve) de 0,846 (0,837-0,856) para el diagnóstico de hemorragia intracraneal. Concluyeron que su algoritmo puede ayudar al neurorradiólogo a priorizar su trabajo, a reducir el tiempo de diagnóstico (de 512 a 19 min) y a identificar casos muy sutiles que podrían escaparse al radiólogo.

Diagnostico de tumor y hemorragia cerebral por TAC cerebral

BioMind es una aplicación de inteligencia artificial desarrollada por el Artificial Intelligence Research Centre for Neurological Disorders en el Beijing Tiantan Hospital, con miles de imágenes recopiladas en el propio hospital.

En 2018 realizó un concurso diagnóstico enfrentando su algoritmo a 15 de los médicos chinos más prestigiosos en el diagnóstico de tumores y hemorragias cerebrales. BioMind diagnosticó correctamente el 87% de los casos, en 15 minutos, frente al 66% y 30 minutos para los médicos.

En una segunda ronda, BioMed acertó en el 83% de los casos en 3 minutos frente al 63% de los médicos, en 20 minutos. Concluyeron que BioMind es una herramienta al menos tan valida como los mismos médicos especialistas para algunas funciones diagnósticas concretas.