Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Febrero de 2016
Reseña

Postgenómica

La genética subsiguiente al Proyecto Genoma Humano.

POSTGENOMICS
PERSPECTIVES ON BIOLOGY AFTER THE GENOME
Dirigido por Sarah S. Richardson y Hallam Stevens. Duke University Press; Durham, 2015.

En 1999, Francis Collins, mirando el camino recorrido desde el lanzamiento en 1990 del Proyecto Genoma Humano (entonces HUGO, de Human Genome Organisation), auguraba para la biología el inicio de una etapa nueva, definitiva, con el arranque de un programa que habría de identificar hasta el último detalle del conjunto entero de instrucciones genéticas del ser humano, constituido por 46 cromosomas compuestos de unos 3000 millones de pares de bases en una doble hélice de ADN. Pasados 15 años, la historia ha resultado ser muy otra. Desde el punto de vista temporal, «postgenómica» corresponde al período subsiguiente a la secuenciación del genoma humano. Desde el punto de vista técnico, reúne las ciencias biológicas y médicas que utilizan la información genómica como un elemento fundamental de su praxis investigadora.

Para la escuela de Thomas H. Morgan, a la genética cumplía el estudio de la transmisión de determinados factores o genes. Aun cuando no pudiera afirmarse en qué consistía un gen, se suponía que era una unidad asociada directamente con un carácter y, al propio tiempo, una unidad que podía vincularse a la aparición de una diferencia (mutación). La identificación entre diferencia fenotípica y gen subyacente requería un proceso de cambio en una entidad subyacente (gen hipotético), inferido a partir de la aparición de la diferencia en el carácter (color de los ojos).

Wilhelm Johannsen, que acuñó el término gen, se planteaba ya en 1923 si la doctrina mendeliana no sería más que el establecimiento de irregularidades, alteraciones o patologías cromosómicas, de enorme importancia práctica pero carentes de valor para comprender la constitución normal de los biotipos. Lo que hacía interesantes a los genes era su presumible capacidad de conformar los caracteres del organismo. El proceso en cuya virtud ejercían su poder en el desarrollo de caracteres o rasgos se denominaba acción génica, y se esperaba que el estudio de los genes informara de la acción génica. Por entonces, al conjunto entero de cromosomas empezó a llamársele genoma.

El descubrimiento, en 1953, de la estructura en doble hélice del ADN llevó al dogma central de la biología (el ADN se transcribe en ARN, que se traduce en proteína), la revelación del código, la emergencia de la ingeniería genética y el desciframiento del mecanismo de las enfermedades mendelianas. Prendió la idea de un crecimiento exponencial en nuestra capacidad de medir e interpretar la información del ADN. La hipótesis de Beadle y Tatum (un gen, una enzima) pareció aportar al menos una respuesta parcial a la función del gen.

Esa tesis puramente estructural pecaba de excesiva simpleza. Dejaba fuera toda la cuestión de la regulación génica, qué dicta cuándo, dónde y cuánta proteína ha de sintetizarse. Jacques Monod y François Jacob enmendaron esa omisión de forma brillante, sin cuartear el esquema básico. Añadieron una nueva clase de elementos genéticos, los genes reguladores, que controlan la tasa de síntesis de proteína, cuya estructura está gobernada por otros genes. Tras la incorporación explícita de la regulación, el genoma podía seguir considerándose una colección de genes, salvo que ahora unos genes eran estructurales (responsables de la síntesis de proteínas que ejercen funciones estructurales en la célula), en tanto que otros operaban la regulación de genes estructurales.

Desde 1970, especialmente desde que el foco de atención de la genética molecular se desplazó hacia el estudio de los organismos eucariotas y el estudio de la regulación adquirió creciente centralidad, la relación entre genes y genética fue adquiriendo complejidad. Contra la equivalencia entre genética y genes laboraron también varios descubrimientos sobre secuencias de ADN del genoma eucariota sin función codificadora, «no génicas», por tanto. Quizá los hallazgos más interesantes a este respecto fueran las grandes cantidades de ADN repetitivo en 1968; más tarde, de los transposones, la relación variable entre la cantidad de ADN de un organismo y su complejidad, y, por último, la partición génica, es decir, secuencias codificadoras de proteína interrumpidas por intrones no codificadores. A ese ADN extra Susumo Ohno lo llamó en 1972 «basura».

Hasta comienzos de los noventa persistió el convencimiento de que en el genoma eucariota había grandes cantidades de ADN sin función codificadora, que no contribuía, por tanto, al fenotipo y, en consecuencia, podía ignorarse. A todos los fines prácticos, los genomas (o, al menos, las partes interesantes de los genomas) podían seguir considerándose colecciones de genes.

La introducción y difusión del término postgenómica se remontan a una serie de reuniones que antecedieron a la planificación del Proyecto Genoma Humano. Tituladas «Conferencias sobre después del genoma», aventuraban que la era postgenómica abarcaría el estudio de sistemas interdependientes, de interacciones entre genes y entorno y de modelos complejos de las vías biológicas, que demandarían refinadas capacidades informáticas y computacionales. El proyecto habría de alumbrar los secretos de la salud humana, la enfermedad y la identidad.

Cierto es que no faltaron voces críticas. Cuando se propuso el Proyecto Genoma Humano, Robert Weinberg cuestionó su utilidad aduciendo que el 95 por ciento del genoma contenía bloques de secuencias ayunos de información biológica. Pero a mediados de los noventa se puso ya de manifiesto la endeblez de la afirmación de que el ADN no codificador carecía de función. Al doblar el milenio, eran ya muy pocos —ni siquiera Weinberg— los que asociaban ADN no codificador con ADN basura.

En las celebraciones que rodearon la conclusión del Proyecto Genoma Humano muy pocos sospecharon lo que vendría después. Confiábase en que sería una época resolutiva de trabajo rutinario. La secuenciación exhaustiva prometía un futuro en el que los caracteres se vincularían a diferencias comunes en el genoma. James Watson, su primer director, sentenció que, antaño, muchos creyeron que nuestro futuro estaba escrito en las estrellas; ahora sabremos que está en los genes.

Sorprendió de entrada cuán pocos genes componían el genoma humano; muy parca también era la fracción del genoma dedicada a secuencias codificadoras de proteínas. En un artículo de revisión publicado en 2004 se recogía que los eucariotas simples portaban entre un 25 y un 50 por ciento de ADN no codificador; hongos, plantas y animales ofrecían cifras superiores al 50 por ciento, elevándose al 98,5 por ciento en el caso del hombre. Desde 2005, los biólogos iniciaron la cartografía génica de miles de individuos, en busca de una correlación entre polimorfismos nucleotídicos y rasgos genotípicos. Se hizo amplio uso de la técnica de contrastación del significado y función del genoma, denominada estudio de la asociación del genoma (GWAS, de genome-wide association study). Para abordar la obesidad, por ejemplo, GWAS muestreó a miles de individuos con exceso de peso y a miles de individuos normales. Si una mutación particular se presentaba en el locus x en una fracción elevada de personas obesas y en una fracción irrelevante de personas no obesas, se infería que el sitio x determinaba la obesidad. Ese análisis se repitió en millones de regiones del genoma, construyendo un cuadro general de loci asociados con rasgos particulares.

Creado en 2003, el consorcio de investigación ENCODE debía identificar todos los elementos funcionales del genoma humano. Se trataba de uno de los empeños más ambiciosos para comprender los 3000 millones de letras del genoma humano. Los primeros resultados de esa empresa (basados en el 1 por ciento del genoma) aparecieron en 2007. Quedó claramente establecido que la mayor parte del ADN se transcribía (incluidas las regiones no codificadoras), que las secuencias reguladoras podían solaparse con regiones codificadoras de proteínas y que las secuencias no codificadoras tendían a persistir en el curso de la evolución. Se observó, además, que el ADN transcrito en ARN no codificador intervenía en muchas formas y niveles de regulación genética.

En 2010 se habían publicado unos 700 GWAS de unas 400 enfermedades y caracteres. Conforme se multiplicaban los estudios, se fueron definiendo dos tendencias. A tenor de la primera, muchos rasgos (incluidos los que los biólogos hubieran reputado simples) se hallaban asociados a cientos, miles incluso, de sitios del genoma; en cierto trabajo, por ejemplo, se asociaron 180 sitios con la altura humana. A tenor de la segunda tendencia, no cabía hablar de efecto aditivo de esas ubicaciones; así, los estudios de gemelos monocigóticos sugerían que la variación del 80 al 90 por ciento en la altura era heredable. Sin embargo, sirviéndose del GWAS para medir la contribución de cada sitio a la variabilidad global de altura, resultaba que era muy pequeña: la suma de todas las contribuciones de los cientos de sitios solo daba cuenta de un 13 por ciento de la variabilidad global.

El proyecto ENCODE anunció sus resultados en 2012. Revelaba que el 80 por ciento del ADN humano cumplía alguna función. Muchos celebraron ese hito, proclamando la muerte del ADN basura y predijeron la urgencia en rescribir los manuales. Pero no faltaron biólogos que recibieran con reticencia esa cifra del 80 por ciento. Tildaron a ENCODE de emplear con precipitación y frivolidad el término «función»; separaba, aducían los críticos, el análisis genómico de su contexto evolutivo e ignoraba un siglo de teoría de genética de poblaciones, amén de emplear métodos que sobreestimaban la funcionalidad. El grueso de esa objeción se apoyaba en que el análisis de genómica comparada había descubierto de una manera consistente que no superaba el 10 por ciento del genoma humano sometido a selección activa. ¿Cómo podría, pues, ser funcional entonces el 80 por ciento del mismo? Los críticos denunciaban que el proyecto ENCODE había escogido una definición de función que ignoraba por entero la evolución.

Aparecían nuevos horizontes. Una mujer embarazada es un mosaico genómico (las células fetales pueden permanecer en su cuerpo largo tiempo después del alumbramiento); además, el uso creciente de la medicina de trasplante, incluida la transfusión sanguínea, crea un mosaicismo genómico artificial. Un organismo humano es un sistema simbiótico que contiene multitud de células microbianas (bacterias, arqueas y hongos) sin las cuales el todo quedaría disfuncional y, a la postre, no viable.

La genética de la conducta epitomiza la controversia en biología. El empeño puesto en el conocimiento de la base genética de asuntos culturalmente sensibles como la inteligencia, la criminalidad, la sexualidad, la salud mental y la personalidad han planteado siempre objeciones de determinismo genético.

Tras la terminación del Proyecto Genoma Humano emergió la epigenética como foco de inversión institucional y como nueva área principal de investigación. La epigenética es el estudio de mecanismos moleculares que comportan un cambio persistente o heredable de la función génica sin cambiar la secuencia de genes. Uno de esos mecanismos es la metilación de ADN, el proceso por el que un grupo metilo (CH3) se agrega a la estructura física de la molécula de ADN. La presencia de metilación en un locus génico particular impide la expresión génica a través de la obstrucción de la transcriptasa de ADN y otras proteínas enlazantes con el ADN.

Artículos relacionados

Puedes obtener el artículo en...

También te puede interesar

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.