jueves, 6 de mayo de 2010

Bioinformática, básica en ultrasecuenciación - DiarioMedico.com


Paso a Paso Para la secuenciación masiva se deposita la muestra con el exoma completo en el soporte (slide) de la primera imagen. Previamente, la muestra se ha preparado siguiendo un proceso: extracción de ADN genómico a partir de una muestra de sangre; preparación de la librería sobre la que se capturan las regiones de interés -en este caso, las correspondientes a las regiones codificantes, es decir al exoma completo-; y transferencia de los fragmentos capturados a unas esferas magnéticas que se depositan sobre el soporte. En la segunda imagen se aprecia la introducción del slide en el equipo de secuenciación masiva. Este proceso dura unos cinco días y toda la información generada se almacena en un potente cluster de servidores y cabinas de discos, para su posterior tratamiento bioinformático. (DM)

Diariomedico.com
ESPAÑA
GESTIÓN DE DATOS GENÓMICOS EN MEDICINA PERSONALIZADA
Bioinformática, básica en ultrasecuenciación
Los tratamientos personalizados son un objetivo perseguido ya en todas las especialidades y posible en algunos casos, entre otros factores por la descripción completa del genoma humano y la aplicación de potentes herramientas informáticas. De poco sirven tecnologías como la ultrasecuenciación si no se dispone, además, de medios que permitan interpretar la enorme cantidad de datos que generan.


Enrique Mezquita. Valencia - Jueves, 6 de Mayo de 2010 - Actualizado a las 00:00h.


El genoma humano contiene alrededor de 23.000 genes, muchos de ellos responsables de enfermedades genéticas. Hasta hace poco se estudiaban uno a uno mediante diferentes técnicas, entre ellas la secuenciación descrita por Sanger en 1977, que permite detectar los cambios de bases o mutaciones que darán lugar a una proteína defectuosa que explicará la enfermedad.

Sin embargo, las nuevas tecnologías de secuenciación masiva desarrolladas se presentan como una estrategia para avanzar de forma extraordinaria en el conocimiento de las enfermedades. De hecho, estas tecnologías desarrolladas en los últimos tres años han ido reduciendo costes, simplificando la metodología de trabajo, aumentando la capacidad y velocidad de secuenciación y sobre todo mostrando el extraordinario potencial que tienen en las distintas parcelas de la biomedicina.

Gracias a los avances, ahora es posible estudiar el Whole Exome (WE) o el estudio del exoma completo -el uno por ciento de nuestro genoma responsable de generar las enfermedades genéticas cuando se encuentra alterado-, lo que permitirá enormes progresos en enfermedades con heterogeneidad genética (como, por ejemplo, la muerte súbita, la retinitis pigmentosa y la anemia de Fanconi, entre otras) y en aquéllas en las que se desconoce su base genética. Además, permitirá avanzar en la farmacogenética y farmacogenómica, identificando nuevas dianas terapéuticas; en la genética y epigenética del cáncer, y en el estudio de las enfermedades comunes o complejas, como la diabetes, la obesidad, la esclerosis múltiple, la artritis reumatoide, etc., es decir aquéllas que son frecuentes en nuestra población pero que se deben a la acción de múltiples genes.

Para lograr los máximos beneficios, todos estos estudios tienen que venir acompañados de herramientas bioinformáticas de análisis que permitan analizar e interpretar el inmenso caudal de datos y resultados que se generan con la tecnología de ultrasecuenciación. En esta linea, los grupos de Bioinformática de la empresa valenciana Sistemas Genómicos y la Universidad Pompeu Fabra de Barcelona (UPF), liderados por Sheila Zúñiga y Nuria López-Bigas, respectivamente, han puesto en marcha un proyecto conjunto para crear un software capaz de vincular los resultados procedentes de las plataformas de secuenciación masiva y su implicación en la aparición de enfermedades. El proyecto, que cuenta con la financiación de la Fundación Genoma España y una duración prevista de dos años, es un sistema informático para el manejo, gestión y explotación de datos genómicos para medicina personalizada. Según explica Sheila Zúñiga, "el principal problema que se encuentra para analizar la gran cantidad de datos generados por este tipo de plataformas es poder identificar y eliminar con rapidez y eficacia los falsos positivos, puesto que desde el inicio del proceso se detectan miles de variantes, de las que el 99 por ciento van a ser falsos positivos".

Filtraciones
Sin embargo, subraya que "el desarrollo de este software permitirá precisamente filtrar todo lo que se deba a problemas metodológicos: fallos en la secuenciación, en la PCR para amplificar fragmentos y/o en la alineación de las secuencias generadas con la secuencia original del genoma o a variantes que están ya descritas en las bases de datos como polimorfismos (SNPs). En definitiva, posibilitará vincular los resultados ya filtrados y depurados con variaciones descritas en bases de datos públicas (tipo Cosmic o Genetest), que puedan indicar las causas del desarrollo o la aparición de ciertas enfermedades".

Zúñiga ha subrayado que "el paquete bioinformático que ya se está desarrollando proporcionará un entorno manejable en el que el usuario final, ya sea médico o investigador clínico, podrá analizar, gestionar, visualizar e interpretar los resultados de muestras secuenciadas por sistemas de alto rendimiento de una forma muy intuitiva, de manera que pueda facilitarse el diagnóstico y pronóstico de ciertas enfermedades a través de la ultrasecuenciación".


PASO A PASO

Para la secuenciación masiva se deposita la muestra con el exoma completo en el soporte (slide) de la primera imagen. Previamente, la muestra se ha preparado siguiendo un proceso: extracción de ADN genómico a partir de una muestra de sangre; preparación de la librería sobre la que se capturan las regiones de interés -en este caso, las correspondientes a las regiones codificantes, es decir al exoma completo-; y transferencia de los fragmentos capturados a unas esferas magnéticas que se depositan sobre el soporte. En la segunda imagen se aprecia la introducción del slide en el equipo de secuenciación masiva. Este proceso dura unos cinco días y toda la información generada se almacena en un potente cluster de servidores y cabinas de discos, para su posterior tratamiento bioinformático.

No hay comentarios: