Tenemos la impresión de que, con el paso del tiempo, la adopción de herramientas tecnológicas en los diferentes procesos que configuran la investigación clínica no está acorde con el verdadero valor que aportan algunas de ellas.
Últimamente estamos oyendo hablar de big data con bastante frecuencia. Ingentes cantidades de datos que requieren ser analizados para obtener conclusiones, pero que con la tecnología de hace unos (escasos) años, el tiempo necesario para hacerlo no era algo trivial o sencillamente no se podía hacer. Esto llevado a un escenario de investigación clínica suponía oportunidades que se dejaban escapar a muchos niveles.
Hasta hace relativamente poco, los datos que obteníamos de un paciente se limitaban a unas decenas o un centenar de variables por ejemplo bioquímicas: glucosa, colesterol, etc. Pero imaginemos por caso los estudios genómicos. Con la irrupción de potentes sistemas de análisis, y la estandarización de los procesos de secuenciación, ahora obtenemos miles, millones de datos para cada paciente. En este sentido, poder decirle a un paciente que un análisis de determinados genes le confiere una alta o baja probabilidad de padecer una determinada patología, pongamos por caso neurológica, es algo que debería de hacerse de una manera ágil.
Pero la realidad nos dice que la tecnología más eficaz para tratar la vasta cantidad de datos que suponen esas cadenas de genes y analizar su correspondencia no está al alcance de todos los centros de investigación o laboratorios especializados. O mejor dicho, no lo estaba.
Con los sistemas de procesamiento actuales de big data se ha podido dar respuesta casi inmediata a este tipo de análisis traduciéndose en un “win-win” para todos los implicados. El facultativo que ofrece un diagnóstico más acotado y científicamente respaldado. El laboratorio de análisis que mejora su eficiencia al dar un gran servicio en un tiempo record. El laboratorio farmacéutico que ve cómo disminuye el infradiagnóstico de aquellas patologías para las que dispone de opciones terapéuticas comercializadas. Y sobre todo, el paciente, que se podrá beneficiar de un diagnóstico acertado, rápido y preciso.
Pero lo mejor del caso es que ahora sí que está al alcance de todos los centros. Tanto desde el punto de vista económico como desde el funcional o logístico. Tan sencillo como acceder a una plataforma web y subir un fichero con los datos a analizar. Tan sólo quedará esperar y recibir de manera casi inmediata el informe de resultados en una dirección de correo electrónico para poder compartirlo con el clínico. Un gran avance, sin duda. Este tipo de análisis, que realizamos con éxito en Onmedic, está permitiendo a nuestros clientes poder automatizar la gestión de sus datos, de manera que sus recursos humanos se puedan centrar en tareas de valor añadido, y no en procesos sistemáticos de filtrado y ordenación de datos. Para eso ya tenemos a los nuevos algoritmos de big data, que nos permiten tratar los datos de una forma inimaginable hasta hace unos pocos meses. El hecho de poder enviar (por email o subiéndolo a la web) un archivo con una gran cantidad de datos, y recibir un informe completo de lo que necesitábamos analizar, supone un salto cualitativo importante que no tenemos que descartar. La medicina se está volviendo personalizada, y, para ello, necesitamos de este tipo de análisis que nos permita este nivel de detalle.
La investigación clínica requiere de análisis finales e intermedios más rápidos. Ver el estado (estadísticas) de una iniciativa de investigación en tiempo real, que nos permita reorientar estrategias, abrir ensayos paralelos en función de los resultados obtenidos de manera preliminar en otros ensayos previos y que aún no han concluido. Evidentemente, siempre bajo las reglas definidas por el estudio, y respetando los ciegos del mismo. En cualquier caso, no podemos permitirnos esperar semanas o meses a analizar los datos una vez concluido.
Vivimos en un entorno que se mueve muy rápido, donde la información fluye constantemente de manera muy rápida también. En parte ayudado por el impulso que ofrecen las redes sociales en todos los ámbitos. La investigación clínica no ha de estar al margen, los resultados se tienen que visualizar al instante y de manera fácilmente accesible. De lo contrario nos arriesgamos a limitar su avance. A que se ancle en estructuras arcaicas y poco flexibles.
En bastantes ocasiones los promotores de iniciativas de investigación tienen problemas para lograr niveles de implicación adecuados por parte de todos los investigadores participantes, ya sea por proyectos muy exhaustivos con gran cantidad de datos a recoger o por estrategias mal diseñadas a nivel de usabilidad para el usuario final. La gestión gráfica de los datos y en tiempo real tiene que ayudar a minimizar estas situaciones. El acceso gráfico a los datos propios por parte de cada investigador puede erigirse en un elemento motivador para los participantes implicados, ya no tienen sentido los compartimentos estancos del pasado. Los investigadores de un estudio forman parte de la comunidad de ese estudio, y como tal lo debemos tratar. Ya no basta con tan sólo realizar una reunión de investigadores al inicio del mismo. La gestión del conocimiento se ha vuelto virtual, y actualmente ya se centra en las plataformas web de gestión de conocimiento, es el sitio donde compartir, discutir, pensar, descubrir... en definitiva, investigar.