CARMEN M. LÓPEZ Madrid | viernes, 01 de septiembre de 2017 h |

“Estamos ante algo revolucionario, no es una moda o una burbuja sino un cambio de paradigma en medicina”. Así definen los expertos el big data en Salud. Ignacio Hernández Medrano, neurólogo del Hospital Universitario Ramón y Cajal, y cofundador de Savanna y Mendelian, explica en GM el escenario a corto plazo.

Pregunta. El big data en Salud define la acumulación de datos masivos que superan la capacidad del software habitual para ser procesados, capturados y gestionados, ¿en qué escenario estamos?

Respuesta. En los últimos años hemos acumulado mucha información en internet. Es más, se dice que cada año se produce más del 90 por ciento de lo que jamás se ha producido, con lo que es muy exponencial, y además, tenemos computación, es decir, ordenadores capaces de procesar esa información. Esto hace pocos años no lo teníamos. Cuando juntas estas dos variables tienes capacidad para ver correlaciones, para descubrir nuevas cosas, allá donde la mente humana no llega. Esto se ha ido aplicando en diferentes sectores y ahora parece que le ha llegado el turno a la salud.

P. En España, ¿en qué posición estamos?

R. En España el mundo de la salud digital no se ha entendido tan rápido como se debería. En otros países que han salido a la carrera antes, como puede ser EE.UU., Reino Unido y Alemania, y esto hay considerarlo, ya que la salud digital va a ser siempre salud. Tener un buen sistema de salud supondrá tener un buen sistema de salud digital, por lo que hay que tenerlo en cuenta para no perder el puesto preferente que tiene nuestro SNS en el mundo, que se podría ver amenazado.

P. ¿Realmente hay voluntad política para la implantación de este tipo de tecnologías o faltan más bien recursos?

R. Voluntad política hay. Estamos continuamente hablando con decisores y se les ve con ganas de incorporar proyectos, tomar decisiones. Ha avanzado mucho la valentía en los últimos años, lo hemos visto cambiar. Otra cosa es el presupuesto, pero yo lo entiendo, cuando tienes que poner presupuesto en algo que te suena muy abstracto, el mundo digital, datos… y un medicamento muy concreto que te ha pedido un grupo de pacientes en la puerta de un hospital, que tomar la decisión cuesta. Lo que hay que entender es que tener buenos sistemas de información te permite, entre otras cosas, saber en qué tienes que gastar el dinero, con lo que a medio plazo haces el sistema más eficiente.

P. ¿Qué limitaciones hay?

R. Hay una parte pura de comprensión, de que esto consiste en ver correlaciones. El primer elemento es entender para qué sirve. El segundo tiene que ver con privacidad y seguridad que es evidente, pero que en realidad tiene menos riesgos de lo que habitualmente la opinión pública tiende a considerar. Básicamente, estamos tratando con datos agregados, los sistemas de nanominimización cada vez son menos imprecisos, por lo que es menos inseguro de lo que se piensa. También hay una parte de lenguaje, parece que todo lo que suena a inteligencia artificial, al mundo digital es algo lejano, cuando en realidad ya lo estamos haciendo, lo que pasa es que luego le cambiamos el nombre y parece que siempre estuvo aquí. A día de hoy utilizamos sistemas de información muy potentes.

P. En farmacología, ¿está cambiando también este escenario?

R. Hace años que tenemos sistemas que son capaces de ir a librerías masivas de datos, coger moléculas y rutas celulares y son capaces de, a través de una manera puramente matemática, sin entender muy bien lo que está pasando, son capaces de apuntar hacia una posible molécula que al ponerla sobre una determinada célula cura una enfermedad. Eso luego se comprueba con métodos matemáticos estadísticos clásicos, pero ahorra una cantidad de tiempo importante, porque estás en el mundo digital y los costes tienden a cero. En el mundo de la farmacología hace ya años que se viene haciendo.

P. Gracias al big data, ¿podrían ser innecesarios los ensayos clínicos poblacionales tal y como los conocemos?

R. Bueno, eso hay que entenderlo como una tendencia. A día de hoy cuando hacemos un ensayo clínico separamos a la gente por grupos en función de los datos epidemiológicos, pero en el momento que vamos a empezar a secuenciar a las personas genéticamente, no solo su genoma, también su proteoma, microbioma, etc vamos a ir consiguiendo el diccionario de la persona. Por tanto, iremos haciendo los ensayos agrupando este tipo de moléculas, que es como su sello de identidad. Esto ya se está haciendo en algunos hospitales, en oncología sobre todo. Por ello, nada impide pensar en que los grupos serán más pequeños, por lo que al final vamos a acabar haciendo los ensayos clínicos sobre algo muy pequeño que es el ‘individualoma’ si se nos permite inventarnos la palabra, es decir, sobre el individuo. Esto es lo mismo que decir que no habrá ensayos clínicos, pero no porque no los vaya a ver sino porque habrá tantos como individuos.

P. Esto entronca con la medicina de precisión, ¿se puede hacer medicina de precisión sin big data?

R. Es la misma cosa. Podemos ser muy precisos en qué le podemos dar a una persona cuando tenemos todos los datos de esa persona: cuando yo sé cómo es tu genoma, microbioma, proteoma, metoboloma… se como estas definido molecular y celularmente, puedo coger una molécula y saber antes de ponértela si va a funcionar o no y esto es medicina de precisión.

Actualmente trabajas en el campo de las enfermedades raras (EE.RR.), ¿cómo pueden beneficiarse este tipo de patologías del uso del big data?

Es un muy buen caso porque las EERR lo que tienen es que son muchas y en consecuencia no las ven en demasiadas ocasiones, con lo cual lo que el médico no sabe, no lo diagnostica bien. Tenemos un problema de limitación de la mente humana. Por ello, una herramienta como puede ser la nuestra, Mendelian, o cualquier otra, que sea capaz de coger toda la base de datos de enfermedades raras y genes, agruparlos y darle al médico cuál es posible gen afectado puede ayudar mucho en el diagnóstico, y por tanto, acortar el retraso en el diagnóstico que en España tiene una media de siete años y es toda una odisea para el paciente y la familia y un gasto para el sistema.

P. Actualmente trabajas en el campo de las enfermedades raras (EE.RR.), ¿cómo pueden beneficiarse este tipo de patologías del uso del big data?

R. Es un muy buen caso porque las EERR lo que tienen es que son muchas y en consecuencia no las ven en demasiadas ocasiones, con lo cual lo que el médico no sabe, no lo diagnostica bien. Tenemos un problema de limitación de la mente humana. Por ello, una herramienta como puede ser la nuestra, Mendelian, o cualquier otra, que sea capaz de coger toda la base de datos de enfermedades raras y genes, agruparlos y darle al médico cuál es posible gen afectado puede ayudar mucho en el diagnóstico, y por tanto, acortar el retraso en el diagnóstico que en España tiene una media de siete años y es toda una odisea para el paciente y la familia y un gasto para el sistema.

P. ¿Qué desafíos quedan por delante?

R. Tenemos que hacer que los proyectos con grandes volúmenes de datos no dependan de la voluntad de individuos concretos, en servicios concretos que en su tiempo libre hacen algo muy interesante que publican en un poster de un congreso y ahí queda. Tenemos que tratar que esto tenga una arquitectura. Cuanto más estructuras esto más crece la base de datos y más grande es el lago de datos del que sacra la información. Tenemos que intentar orquestar esto desde el nivel autonómico y desde el nivel central a la hora de que un investigador quiera hacer una pregunta.

P. Se está poniendo de manifiesto, sobre todo en oncología, que todo este boom con la medicina de precisión ha cogido por ‘sorpresa’ a los profesionales que han tenido que ser autodidactas en este asunto, ¿se requiere de una formación específica desde la universidad para hacer frente a esto?

R. El profesional del futuro que ya es presente, sí que va a tener que saber de información y datos, pero es difícil pensar para un gerente de un hospital que en unos años tendrá más gente dedicada a los datos que a otra cosa, pero probablemente sea así, porque probablemente curar personas va a ser integrar sus datos y devolverlos.

Incorporar en los equipos a bioinformáticos que permitan facilitar el trabajo… ¿No?

Sin duda. El profesional se tiene que formar hasta cierto punto pero no puede estar inmerso en el mundo de las matemáticas. Entonces probablemente de lo que se trate es de una colaboración.

P. De aquí a corto plazo, ¿cómo va a cambiar ese paradigma?

R. Hay varias cosas que están acabando su parte plana, y cuando una tecnología acaba su parte plana quiere decir que acaba su parte exponencial, se cataliza y explota. Vamos a ver la llegada de la farmacogenómica; es decir, yo te doy un fármaco en función de tus genes o no te lo doy, te estudio previamente, veremos también, como ocurre ya en oncología que la medicina es cada vez más personalizada; te trato tu cáncer de una manera determinada porque eres tú. Lo veremos también en otras enfermedades como las autoinmunes y las inflamatorias. También un gran salto en el mundo de la imagen y en las especialidades diagnósticas, porque no hay ninguna razón por la que un algoritmo que ve un millón de veces algo no sea muy bueno en saber en que eso es ese diagnóstico concreto, luego siempre habrá excepciones. En definitiva, el gran cambio es que los algoritmos basados en grandes volumen de datos y que hasta ahora decían disparates, cada vez dirán menos disparates, esto tiene mucha importante porque no sólo estará dentro del hospital, estará donde está el mundo hoy: en internet… Una persona podrá introducir cosas y lo que va a recibir ya no estará mal, estará bien. El sistema va a cambiar y muy rápido.