INTRODUCCIÓN A LA BIOTECNOLOGÍA

archivo del portal de recursos para estudiantes
robertexto.com

Curso de Doctorado  "Biotecnología, ética y sociedad"

Enrique Iáñez Pareja

Instituto de Biotecnología Universidad de Granada, España

IMPRIMIR

Sumario:

1. Concepto y breve historia de la biotecnología

1.1. La biotecnología es intrínsecamente interdisciplinar

1.2. La biotecnología presenta muchos campos de aplicación

1.3 Los tres núcleos de la biotecnología

2. Algunos conceptos clave en biotecnologías

2.1 Materias primas

2.2 Mejora genética: ingeniería genética

2.2.1  Antecedentes y surgimiento de la Ingeniería Genética

2.2.2 La receta básica de un experimento de Ingeniería Genética

2.2.3  Caracterización del ADN clonado

2.2.4  Otros métodos básicos de Ingeniería genética

2.2.4.1 Síntesis química del ADN

2.2.4.2 Reacción en cadena de la polimerasa (PCR)

3. Lecturas recomendadas

 

1. Concepto y breve historia de la biotecnología

La biotecnología, en un sentido amplio se puede definir como la aplicación de organismos, componentes o sistemas biológicos para la obtención de bienes y servicios.

Esto significa que desde hace miles de años, la humanidad ha venido realizando biotecnología, si bien hasta la época moderna, de un modo empírico, sin base científica:

La domesticación de plantas y animales ya comenzó en el período Neolítico.
Las civilizaciones Sumeria y Babilónica (6000 años a.C.) ya conocían cómo elaborar cerveza.
Los egipcios ya sabían fabricar pan a partir del trigo hacia el 4000 a.C.

Antes de la escritura del libro del Génesis, se disfrutaba del vino en el Cercano Oriente: recuérdese que, según la Biblia, Noé "sufrió" (o disfrutó) accidentalmente los efectos de la fermentación espontánea del mosto de la uva (primera borrachera con vino).
Otros procesos biotecnológicos conocidos de modo empírico desde la antigüedad:

fabricación de queso
cultivo de champiñones
alimentos y bebidas fermentadas: salsa de soja, yogur, etc.
tratamiento de aguas residuales

Por supuesto, hasta la llegada de la moderna biología, y en muchos casos hasta el siglo XIX, la base de muchos de estos procesos era desconocida. De hecho, solamente en el siglo XVIII cobra cuerpo la idea de que la materia viva puede ser estudiada como la materia inanimada, es decir, usando el método experimental, con lo que se inicia el lento declive de las ideas vitalistas (creencias erróneas de que "la vida depende de un principio vital irreducible a otras ramas de la ciencia"), que aún darían sus últimos estertores casi al final del siglo XIX. Algunos hitos científicos que sentarían la base de la biotecnología contemporánea:

Los primeros microscopistas, como van Leeuwenhoek y Hooke (siglo XVII) describen los "animálculos" que están fuera del alcance del ojo, si bien se tarda aún un par de siglos en captar la importancia de estas minúsculas criaturas. 

El descubrimiento de que las fermentaciones se debían a microorganismos se debe a la gigantesca figura de Louis Pasteur, en sus estudios realizados entre 1857 y 1876. 

En la última parte del siglo XIX existían ya instalaciones industriales para obtener etanol, ácido acético, butanol y acetona, aprovechando fermentaciones al aire libre en condiciones no estériles 
A finales del siglo XIX, la "edad de oro de la bacteriología" permite: 
    mejoras importantes en las técnicas microscópicas

    el desarrollo de técnicas asépticas, la esterilización y la pasteurización

    la posibilidad de cultivar cada cepa microbiana sin mezclas con otras: cultivos puros en medios de cultivo de laboratorio. 

A comienzos del siglo XX la bioquímica y la microbiología convergen, estableciendo las bases enzimáticas y metabólicas de muchos procesos de fermentación. Se desarrollan procedimientos industriales para producir enzimas (invertasa, proteasas, amilasas, etc.). 

Desde la década de 1940, las técnicas de ingeniería química, aliadas a la microbiología y a la bioquímica, permiten la producción de antibióticos, ácidos orgánicos, esteroides, polisacáridos y vacunas.

La penicilina comenzó a fabricarse en plena II Guerra Mundial, como resultado de avances importantes en técnicas de esterilización a gran escala, mejora de las instalaciones de fermentación (incluyendo la cuestión de la aireación), cultivo del hongo, etc. A partir de entonces se diseñaron estrategias para mejorar genéticamente las cepas microbianas industriales.

Las décadas siguientes fueron de eclosión de producción de antibióticos así como de transformaciones de esteroides y de cultivo de células animales para la producción de vacunas antivirales.

Las décadas de los 60 y 70 vieron la mejora de procesos de obtención de pequeños metabolitos como nucleósidos, aminoácidos y vitaminas.

Los procesos de fermentación experimentaron mejoras con las técnicas de inmovilización de células y enzimas en soportes, y con la fermentación continua para obtener proteína de células sencillas (biomasa microbiana).

Polímeros microbianos como xantanos y dextranos se obtuvieron industrialmente, con apliaciones en el campo de la alimentación (como aditivos).

Pero incluso bien avanzado el siglo XX, cuando la Genética había resuelto el misterio de la naturaleza del material de la herencia, las posibilidades que había para actuar sobre dicho material eran limitadas: cruces entre plantas y animales de la misma especie (o de especies similares), selección de los individuos con rasgos deseados, retrocruzamientos (un proceso largo y lento), mutaciones con agentes físicos (rayos UV, rayos X) o químicos, con ulterior búsqueda (selección o rastreo -screening) de alguna variante de interés (algo tedioso y frecuentemente infructuoso), etc.

Debemos esperar a la década de los 70 para que surja un conjunto de técnicas de laboratorio revolucionarias que por primera vez permiten "tocar" de modo racional el sancta sanctorum de la vida. Son técnicas y herramientas con las que se puede modificar el ADN de acuerdo a diseños previos y objetivos concretos (de ahí el nombre popular de Ingeniería Genética).

La Ingeniería Genética (I.G.), mejor llamada tecnología del ADN recombinante in vitro, se caracteriza por su capacidad de cortar y empalmar genes o fragmentos de ADN de organismos distintos, creando nuevas combinaciones no existentes en la Naturaleza, combinaciones que ponemos a trabajar en el interior de una variedad de organismos hospederos, para nuestro provecho.

1.1.  La biotecnología es intrínsecamente interdisciplinar
La actual biotecnología es una empresa intensamente interdisciplinar, caracterizada por la reunión de conceptos y metodologías procedentes de numerosas ciencias para aplicarlas tanto a la investigación básica como a la resolución de problemas prácticos y la obtención de bienes y servicios.
Algunas de las ramas de conocimiento implicadas en la biotecnología:

Microbiología
Bioquímica
Genética
Biología celular
Química
Ingeniería (bio)química
Ingeniería mecánica
Ciencia y Tecnología de alimentos
Electrónica
Informática

El avance de la biotecnología dependerá cada vez más de esta colaboración entre disciplinas, y en el uso de lenguajes y paradigmas comunes, así como en que cada tipo de especialista comprenda los logros y limitaciones de las otras ramas biotecnológicas.

1.2.  La biotecnología presenta muchos campos de aplicación

Dejando aparte el hecho ya reseñado de que las técnicas biotecnológicas (principalmente las genéticas) encuentran su primera utilidad en el avance de las propias Ciencias de la Vida, desde el punto de vista de su aplicación comercial e industrial, podemos decir que el campo de utilidad es inmenso:

Aplicaciones terapéuticas
     productos farmacéuticos:  

antibióticos
vacunas 
hormonas 
terapias génicas 

Diagnósticos

diagnósticos para salud humana
diagnósticos para agricultura y ganadería
ensayos para calidad de alimentos
ensayos para calidad ambiental

Alimentación

mejora de procesos tradicionales de obtención de alimentos y bebidas
nuevos alimentos y bebidas
nutracéuticos: alimentos con perfiles determinados de nutrientes, y para la mejora de la salud
aditivos alimentarios 

Medio ambiente

tratamiento de residuos urbanos, agrícolas e industriales
biorremedio y biorreparación
producción de energía a partir de biomasa 

No podemos olvidar que muchas de las biotecnologías de las que nos beneficiamos son muy antiguas, y que en ellas se está logrando una fase de madurez auspiciada por los nuevos adelantos técnicos (p. ej., la tecnología de las fermentaciones). De hecho, muchas de las innovaciones que se están produciendo no son tanto de nuevos productos cuanto de mejoras en los procesos. De cualquier manera, ya estamos viendo la entrada de nuevos productos, en forma de nuevos fármacos y de plantas transgénicas con características novedosas.

Dejando aparte las tecnologías de fabricación de vacunas, la mayor parte de las otras áreas biotecnológicas requieren producir grandes cantidades de sustancias, del orden de kilogramos a toneladas, por lo que uno de los principales aspectos es el del "escalado" a esas grandes cantidades. Esto supone un gran reto a los ingenieros, ya que deben diseñar fermentadores de gran tamaño, donde hay que controlar diversos parámetros, como pH, temperatura, oxígeno y otros gases, etc. La tecnología de fermentación cobró ímpetu a partir de los años 40 del siglo XX, cuando se comenzaron a fabricar antibióticos y otras moléculas (ácidos orgánicos, hormonas, enzimas, polisacáridos, etc) por medio de microorganismos.

Por lo tanto, aunque la atención pública se ha centrado en la moderna biotecnología que usa técnicas de ADN recombinante, no podemos olvidar que ya antes existía otra biotecnología, que hoy sigue pujante, y que se puede beneficiar de los nuevos enfoques. 

Las biotecnologías, al usar catalizadores biológicos que funcionan a bajas temperaturas y materias primas renovables, pueden contribuir a una economía más "verde" (ecológicamente sustentable). Se espera que puedan sustituir a procesos químicos contaminantes. 

En los paises con condiciones climáticas apropiadas (p.ej., en los trópicos), la producción y uso de biomasa puede presentar muchas ventajas. La obtención de energía de biomasa (p ej. residuos celulósicos) es una gran promesa para evitar la dependencia de combustibles fósiles en ciertas partes del mundo.

Los altos costes (económicos y ecológicos) de las energías tradicionales pueden suponer un incentivo para buscar en la biotecnología procesos de producción más rentables. Si además, se incluyen en los procesos industriales los costes ecológicos (hasta ahora tenidos como "externalidades" por la teoría económica tradicional), las alternativas de base biológica pueden ser más favorables que muchas contaminantes que se están empleando.  

Los incentivos son aún mayores en el caso de la producción de sustancias de alto valor añadido, como diagnósticos y productos terapéuticos, para las que las biotecnologías permiten abrir nuevos mercados muy atractivos, con productos destinados a mejorar la salud y calidad de vida de la población. 


1.3 Los tres núcleos de
la biotecnología

Según John Smith (1996), muchos procesos biotecnológicos, especialmente los que se realizan en entornos cerrados industriales, tienen un triple núcleo:

obtener el mejor catalizador biológico para una función o proceso específico

obtener el mejor ambiente para la función de ese catalizador biológico, mediante una serie de diseños técnicos en los que es fundamental la ingeniería química

procesamiento del material, consistente en separar y eventualmente purificar el material biológico producido 

Veamos cada uno de estos tres componentes:

En la mayoría de los casos, el catalizador biológico son células vivas, sobre todo microorganismos. Por ello, uno de los pilares de la biotecnología es precisamente la microbiología (entendiendo esta en sentido amplio de biología microbiana). Parte de lo que hemos aprendido sobre el manejo de microorganismos se puede aplicar, con modificaciones, al manejo de células de animales y plantas, que cada vez son más importantes en la biotecnología. Varias son las características que hacen atractivos a los microorganismos:

la biodiversidad microbiana es gigantesca; de hecho, solo hemos investigado una pequeña parte de ella. Conforme los biólogos básicos aprendan a recuperar más biodiversidad y a conocerla, habrá más cepas disponibles con propiedades potencialmente útiles para los humanos

las capacidades metabólicas de los microorganismos, como conjunto, son las más amplias de todos los seres vivos. Los genomas microbianos esconden tesoros aún ocultos, pero que se van revelando poco a poco, y ahora de modo más rápido, una vez que se van complentando sus mapas y secuencias (actualmente existen varias decenas de genomas secuenciados). Las actividades biosintéticas y degradativas de estos microorganismos presentan oportunidades extraordinarias para numerosas aplicaciones.

los microorganismos crecen rápidamente, y en muchos casos son fáciles de manipular desde el punto de vista genético. Esto hace que sea relativamente fácil usarlos como factorías microscópicas para obtener productos útiles en tiempos relativamente cortos.

Una parte esencial del aprovechamiento de los microorganismos reposa en nuestra capacidad para conservarlos viables durantes largos periodos de tiempo, y para que sus características útiles sean estables

en muchos casos, en lugar del microorganismo, se puede recurrir a aislar alguna o algunas de sus enzimas, y se las pueden poner a trabajar en condiciones ventajosas y rentables.

El segundo componente o núcleo de las biotecnologías estriba en el entorno industrial en que ponemos a funcionar las células o las enzimas. Esto nos lleva al concepto de biorreactor, un entorno cerrado y controlado para que nuestros catalizadores biológicos hagan lo que queremos con la máxima eficiencia. En esta parte de la biotecnología se requiere la colaboración estrecha entre los biólogos y los ingenieros de bioprocesos, incluyendo los ingenieros químicos. Se trata de diseñar biorreactores o fermentadores, especies de cubas cerradas diseñadas para controlar diversos parámetros que condicionan la buena producción: temperatura, aireación, pH, etc.

Finalmente, queda el área quizá más desconocida y compleja, el procesamiento de la biomasa o de la sustancia producidas: separación de las células respecto del medio acuoso en que han funcionado, recuperación eficiente del producto buscado, purificación, etc.

A todo esto tenemos que añadir que un factor importantísimo en el desarrollo de la biotecnología es la evaluación de la seguridad del producto, sometida a controles rigurosos según normativas nacionales e internacionales. De hecho este factor es tan importante que se puede convertir en limitante, de modo que las regulaciones estrictas desincentivan ciertos desarrollos biotecnológicos. Por todo ello, es importante que tales regulaciones sean realistas, y no exijan más de lo que la evidencia científica sugiere, manteniendo en todo momento la preservación de la salud y el medio ambiente. A su vez, las regulaciones reflejan la percepción pública de los riesgos y promesas de la biotecnología. Por ejemplo, hoy en Europa la percepción pública ha logrado prácticamente una parada en las plantas transgénicas, a pesar de los informes científicos que dicen que en la mayor parte de los casos, sus riesgos son similares a las plantas convencionales. Habrá que llegar a un diálogo racional entre los diversos actores (científicos, empresas, consumidores, ecologistas, etc), para asegurar el correcto empleo de estas tecnologías, que por un lado no impida aplicaciones benéficas sin riesgos, y por otro regule adecuadamente aquellos ámbitos donde las dudas razonables hagan recomendables más restricciones. El ideal sería permitir todo aquello que aporte beneficios sin aumentar riesgos, pero no caer en el error de prohibir usos positivos solo bajo vagas ideas de riesgos no sustanciados, en buena parte imaginaciones y tergiversasiones de grupos de presión que pueden esconder agendas políticas ocultas.


2.
Algunos aspectos clave en las biotecnologías

2.1 Materias primas

Las materias primas para alimentar los procesos biotecnológicos industriales pueden ser muy variadas, pero el hecho de que en su mayoría se trate de materias naturales biodegradables las hace muy atractivas. Lo ideal sería emplear subproductos de otras empresas, con lo que el proceso se abarata y se eliminan problemas ambientales:
se usan mucho desechos ricos en carbohidratos de ciertas industrias:  

melazas procedentes del procesamiento de caña de azúcar y remolacha azucarera. En Brasil usan la caña de azucar para fabricar bioalcohol (Gasohol) como biocombustible

desechos ricos en almidón: de granos como el maíz, de tubérculos como la tapioca o la patata. El problema aquí es que el almidón debe primero ser degradado a monosacáridos u oligosacáridos antes de la fermentación industrial, pero ciertos procesos biotecnológicos son ya competitivos, como la producción de jarabes ricos en glucosa o fructosa, usados como endulzantes en alimentos y bebidas. En Suecia eliminan los desechos contaminantes del procesamiento de la patata con un método a base de levaduras, que produce biomasa potencialmente valiosa.

Existe un gran interés en usar como materia prima desechos agrícolas e industriales ricos en celulosa. Desgraciadamente, la celulosa es compleja, y su asociación con la lignina hace que aún no existan procesos industriales operativos. Pero si en un futuro logramos superar las barreras técnicas, tendremos una materia prima abundante, y podremos aprovecharla al tiempo que evitamos problemas ambientales. De hecho, la lignocelulosa es la materia renovable más abundante de la biosfera, y la esperanza es poder aprovecharla en un próximo futuro.

De la misma manera, sería estupendo poder aprovechar otros desechos de las actividades humanas como materias primas para los microorganismos industriales, elimando así problemas de polución ambiental. La idea sería acoplar una industria que crea efluentes contaminantes con una bioindustria que pueda aprovechar los residuos de la primera, creando productos útiles y riqueza adicional, y sin que los costes totales sean elevados (aunque ya el hecho de eliminar una fuente de contaminación de puede considerar como algo positivo)

 ya se usan desechos procedentes de las industrias papeleras

igualmente se aprovechan los lactosueros (residuos ricos en lactosa) procedentes de las queserías

El empleo de metanol puede ser útil en ciertos procesos, ya que el metanol es "limpio" y se puede obtener fácilmente a partir del abundante metano. En un futuro podría ser rentable para fabricar alimentos para animales. 

 2.2 Mejora genética: Ingeniería genética
Tradicionalmente, la manera de mejorar genéticamente los organismos industriales reposaba en
la inducción de mutaciones (con mutágenos), seguida de selección o rastreo de los mejores mutantes. La búsqueda de mejoras en la producción de proteínas (incluyendo enzimas) es más fácil que la de la producción de otras moléculas (polisacáridos, antibióticos, aminoácidos, etc), porque cada proteína depende normalmente de un solo gen, mientras que los metabolitos se sintetizan por rutas complejas donde intervienen varias enzimas, cada una sintetizada por un gen diferente, y con regulaciones a menudo complicadas.
     en los protocolos de selección, se suele aplicar una presión selectiva que favorece el crecimiento del tipo de mutantes buscados, en detrimento del resto de microorganismos
     en los protocolos de rastreo (screening, en inglés) crecen todos los microorganismos, pero se pueden identificar las variantes deseadas sobre la base de que presentan ciertas características que las diferencian de las demás 
     la mezcla de genomas mediante fenómenos de sexualidad, o parasexualidad (las bacterias no tienen sexo, pero algunas tienen fenómenos parasexuales como la conjugación, que se pueden aprovechar para transferir material genético de unas cepas a otras).  

Algunos inconvenientes de estas técnicas tradicionales de mejora:

       los programas de mejora suelen ser muy largos y tediosos, y a menudo no dan los resultados deseados

       el efecto principal de la mutagénesis es originar mutaciones aleatorias en el organismo, la mayor parte de las cuales son negativas para su supervivencia, o empeoran algunas de sus características originales. Raramente se dan mutaciones que conducen a la aparición de propiedades nuevas positivas, y en todo caso, el proceso de su búsqueda es a menudo muy complicado. Además, incluso cuando se selecciona un tipo estimado adecuado, a menudo presenta otras mutaciones que son negativas (p. ej., haciendo que crezca más lentamente, o que sea más sensible a factores ambientales)
       lo anterior obliga a trasladar la mutación "positiva" a un fondo genético distinto (normalmente una cepa silvestre o que ya había sido seleccionada como buena en un programa anterior). Esto complica y alarga la mejora genética, e incluso en algunos organismos no se logra la adecuada introgresión de ese rasgo en la cepa deseada. 

       frecuentemente los organismos seleccionados para la producción acumulan mutaciones desconocidas que no se caracterizan 

       muchos microorganismos industriales carecen de ciclos sexuales, lo que dificulta e incluso impide transferir rasgos útiles de modo sencillo, dejando como única alternativa la mutagénesis y selección 

       en las especies dotadas de sexualidad, la mejora por recombinación genética está limitada al cruce entre razas de la misma especie, o de especies compatibles 

Pero la llegada de la Ingeniería genética ha supuesto la superación de muchos problemas que tenía la mejora clásica, sobre todo en aquellos microorganismos que carecen de sexualidad. Además, permite mejoras menos aleatorias y más precisas, transfiriendo genes de cualquier origen al organismo donde queremos expresarlos.

2.2.1 Antecedentes y surgimiento de la Ingeniería Genética
Aunque la Genética es la base de toda la Biología, su desarrollo como ciencia es de los más tardíos. Veamos esquemáticamente algunos eventos esenciales para entender el surgimiento de la tecnología del ADN recombinante:
A partir de 1865, Mendel establece las bases de la genética. En sus famosos experimentos con el guisante, descubrió el modo de transmisión de ciertos caracteres desde una generación a las siguientes, y su "mezcla" en el aporte materno y paterno. 
Los hallazgos de Mendel permanecieron en el olvido hasta 1900, cuando sus leyes son redescubiertas por Correns, De Vries y Tschermarck.
En 1909 se acuña el término "gen" (o gene) para referirse a la entidad hipotética responsable de los rasgos observables. 
En 1913 se obtiene el primer mapa genético, con 6 genes.
En 1920 Morgan y Muller establecen su Teoría cromosómica de la herencia: los genes, localizados en los cromosomas, son las auténticas unidades de la herencia, tanto unidades de variación como unidades de transmisión. Es decir, la herencia presenta un doble aspecto: el de la transmisión de los caracteres (estudiado por las leyes de Mendel) y el de la expresión, es decir, el genotipo (conjunto de genes) determina el fenotipo (rasgos observables).
Pero la naturaleza del material genético fue objeto de polémicas durante mucho tiempo, hasta que entre los años 40 y primeros 50 una serie de autores (Avery y colaboradores, Hershey y Chase, etc.) establecen firmemente que el material de la herencia reside en el ácido desoxirribonucleico (ADN; DNA).
Por esos mismos años, Beadle y Tatum proponen la teoría conocida como "un gen-una enzima", que correlaciona cada unidad genética con el producto de su expresión, es decir cada gen se expresa como una determinada proteína. Desde entonces, se produce la definitiva unión de la genética con la bioquímica.
En 1945, Schrödinger escribe su influyente libro ¿Qué es la vida?, una visionaria fusión de la Teoría de la Información con la Biología, que iba a contribuir poderosamente a la naciente biología molecular, inspirando a profesionales procedentes del campo de las ciencias químico-físicas.
En los 40 y 50 se produce, en efecto, un "desembarco" de físicos y cristalógrafos en el abordaje de cuestiones biológicas. Es la época del florecimiento de técnicas como la difracción de rayos X, la ultracentrifugación y la cromatografía.
En 1951 un joven biólogo estadounidense, James Watson, llega al laboratorio Cavendish de la Universidad de Cambridge, para pasar una estadía postdoctoral. Allí se une al inglés Francis Crick, y 18 meses más tarde (primavera de 1953) publican en Nature su modelo tridimensional de la doble hélice del ADN.
El modelo explicaba simultáneamente la herencia y la expresión del material genético. Éste consiste en un lenguaje basado en cuatro "letras", las cuatro bases nitrogenadas adenina (A), guanina (G), citosina (C) y timina (T).
Se abría en principio una nueva manera de estudiar la base genética de los seres vivos: de dentro (genotipo) a fuera (fenotipo), al revés de lo que se venía haciendo desde Mendel (la observación de la transmisión del genotipo permitía inferencias sobre el genotipo). 
A continuación se abre un decenio llamado a menudo la "Edad de Oro de la Biología Molecular", que pone las bases de la comprensión de los procesos básicos de la herencia y de la expresión genética:
       replicación del ADN: papeles de la ADN-polimerasa, los cebadores (primers), el molde. 
       Transcripción: una de las cadenas de ADN es copiada por la ARN-polimerasa hasta un ARN mensajero 
       El ARN mensajero es leído (traducido) por los ribosomas para dar una proteína. De este modo, el mensaje lineal del ADN se convierte en el mensaje tridimensional de la configuración de la proteína
       El "Dogma Central" de la Biología Molecular: la información fluye unidireccionalmente en sentido ADN -> ARN -> proteína.
       El desciframiento del código genético: el lenguaje del ADN consta de "palabras" de tres letras (nucleótidos), llamadas codones. Cada codón tiene un equivalente en el lenguaje de la proteína, significando uno de los 20 aminoácidos. El código genético está "degenerado", es decir, tiene cierto grado de redundancia: algunos de los aminoácidos pueden venir determinados por más de un codón. Existen 64 codones, de los cuales tres carecen de sentido: no tienen equivalente aminoácido, y en vez, sirven como señales de parada de la traducción del mensajero. 
        Jacob y Monod estudian en profundidad un sistema de expresión y regulación genética en la bacteria Escherichia coli: desarrollan su concepto del operón, como unidad de expresión y regulación a nivel de transcripción. 
Tras la "Edad de Oro", empiezan a surgir algunas sorpresas que desafiaban ideas fuertemente establecidas:
Los genes eucarióticos son "discontinuos": están compuestos por una alternancia de segmentos que entrarán a formar parte del ARNm maduro (exones) y segmentos que se eliminan (intrones). Este proceso de maduración del ARN se denomina corte-y-empalme (splicing).
Algunos virus (retrovirus) poseen material genético de ARN, que es convertido a ADN por una enzima llamada reversotranscriptasa.
Se confirman los tempranos (y semiolvidados) estudios de Barbara McClinctock: hay segmentos del material genético capaces de moverse de un lado a otro de los genomas (elementos genéticos transponibles). El material genético es más dinámico y cambiante de lo que se había sospechado. 
Pero aparte de estos avances básicos, a finales de los años 60, seguía pendiente de plasmación una de las expectativas abiertas por el descubrimiento de la estructura del ADN: ¿cómo llegar a "tocar" el ADN?, ¿cómo estudiar cada gen por separado, aislándolo físicamente de los demás?, ¿cómo determinar su secuencia de bases?
Durante mucho tiempo, lo único que se podía secuenciar era ARN:
desde 1964 se secuencian algunos ARN transferentes, que constan de 75 a 85 bases. 
Los métodos se fueron perfeccionando, de modo que en 1975 se pudo conocer la secuencia de un minúsculo genoma: el ARN del virus bacteriano Fi-X-174 (unos 4000 nucleótidos) 
Sin embargo, para estudiar genes había que ser capaces de aislarlos uno a uno a partir del cromosoma, que es demasiado grande para su manipulación inmediata. Pero no se habían descubierto nucleasas específicas capaces de cortar en puntos determinados del ADN para generar fragmentos discretos y homogéneos. Ante este estado de cosas, algunos líderes de la Edad de Oro, consideraron que los problemas básicos de la biología molecular estaban resueltos, y decidieron migrar a otras áreas de conocimiento (biología del desarrollo, neurobiología, etc).
Como tantas veces ocurre en la ciencia, fue una humilde línea de investigación básica la que abrió definitivamente el camino a la manipulación del ADN:
En 1953 se descubrió el fenómeno llamado de restricción: ciertos fagos (virus bacterianos) que parasitan a E. coli podían desarrollarse en ciertas cepas de esta bacteria, pero no podían hacerlo en otras (se dice que están "restringidos" en determinadas cepas). 
A finales de los 60, Werner Arber, en Basilea, descubre las enzimas de restricción responsables de ese fenómeno: la cepa de bacteria restrictiva produce unas endonucleasas ("enzimas de restricción, o restrictasas") que escinden el ADN del fago crecido en otra cepa diferente. 
Esas primeras enzimas de restricción eran inespecíficas en cuanto al sitio del ADN donde cortaban, pero en 1970 Hamilton Smith, en Baltimore, descubre un nuevo tipo de enzima de restricción totalmente específica: capaz de reconocer una determinada secuencia de ADN, de unos pocos pares de bases, y de cortar en ambas cadenas en lugares concretos.  
Algunas restrictasas reconocen como secuencia diana un trecho de 4 pares de bases (pb). 
Otras restrictasas reconocen secuencias de 6 pares de bases.
Se han descubierto restrictasas que cortan tras reconocer secuencias más largas.
Las dianas de la mayoría de las restrictasas de este tipo son secuencias palindrómicas, es decir, "capicúas" (nota: la ´ señala el punto de corte). Ej: 

5'-G´GAACC-3'
3'-GGTTG´G-5' 

Muchas de estas restrictasas cortan en cada cadena en lugares separados del centro geométrico de la diana (como en el ejemplo anterior), de modo que generan extremos protuberantes.

Los extremos protuberantes de distintos fragmentos de ADN generados con la misma restrictasa (incluso de fragmentos de especies distintas), tienen tendencia, al mezclarlos, a emparejarse entre sí por puentes de hidrógeno (siguiendo las reglas de emparejamiento A-T y G-C).

Si ahora añadimos la enzima ADN-ligasa a la mezcla de fragmentos de ADN de orígenes diferentes, se repararán los enlaces fosfodiésteres. Esto es lo que realizaron por primera vez Mertz y Davis en 1972, y enseguida se dan cuenta de que ello podía constituir la base para la  producción de moléculas recombinantes in vitro, con material genético de diferentes especies.

Pero este ADN recombinante, generado en el tubo de ensayo, es inerte, no es más que una macromolécula híbrida que por sí sola no hace nada.

Si queremos que el ADN recombinante haga algo, hay que introducirlo en células vivas que sean capaces de expresar su información genética.

Esto nos lleva ya a la idea de lo que es la Ingeniería Genética: la formación in vitro de nuevas combinaciones de material genético, por medio de la inserción de un ADN de interés en un vehículo genético (vector), de modo que tras su introducción en un organismo hospedero el ADN híbrido (recombinante) se pueda multiplicar, propagar, y eventualmente expresarse.

 

2.2.2 La receta básica de un experimento de Ingeniería Genética

Vamos a ilustrar el concepto de la ingeniería genética con el caso bastante fácil de lograr bacterias que hospeden nuevas combinaciones de ADN:
Partimos de ADN que queremos aislar y estudiar: vamos a llamarlo ADN pasajero 

Por otro lado, necesitamos un vehículo genético para transportar y replicar ese ADN: lo llamamos vector. Los vectores son igualmente moléculas de ADN con capacidad de replicarse por sí mismos o de insertarse una vez que se introducen en el organismo adecuado. He aquí una lista de lo que debe poseer idealmente un vector genético:
      capacidad de replicación autónoma (es decir, se trata de un replicón), o de integración en el genoma del hospedero. 

      Marcadores seleccionables: se trata de genes que confieren algún rasgo que se puede rastrear o seleccionar fácilmente en laboratorio. Unos de los más usados son los genes que confieren resistencia a algún antibiótico. 

      Dianas únicas para al menos una enzima de restricción. En los modernos vectores se ha introducido un trecho de ADN, denominado polilinker, provisto de varias dianas únicas para diferentes enzimas de restricción, de modo que en cada experimento se pueda elegir la que más convenga.

      Finalmente, contamos con el organismo anfitrión o huésped. En los primeros tiempos de la I.G. se manipulaban casi exclusivamente bacterias, pero hoy es posible modificar animales y plantas. 

Así, pues, el "retrato robot" de un experimento de I.G. podría ser como sigue:

Se corta por separado el ADN del organismo a estudiar y el ADN del vector con la misma restrictasa, de modo que se generan extremos compatibles entre sí (mutuamente cohesivos).

Se juntan ambos ADNs y se les añade ADN-ligasa: de esta forma, las uniones entre ADN pasajero y ADN del vector se sellan covalentemente, generándose moléculas híbridas (quiméricas o recombinantes).

Ahora hay que introducir las moléculas generadas en el organismos huésped. En el caso de bacterias se recurre a una técnica sencilla denominada transformación, que permite la entrada del ADN a través de las envueltas del microorganismo.

Finalmente, hay que localizar las bacterias que han captado y han establecido establemente las moléculas híbridas. A menudo este es el paso más laborioso, pero el hecho de que el vector posea uno o varios genes de resistencia favorece al menos la eliminación de las bacterias que no han recibido ADN del vector: basta añadir al medio de cultivo el antibiótico para el que el vector confiere resistencia. Para localizar los transformantes recombinantes, muchos vectores incorporar un gen marcador que produce alguna sustancia coloreada. Si insertamos el gen a aislar dentro de ese marcador, lo rompemos, por lo que las colonias bacterianas no producirán la sustancia coloreada, sino que permanecen incoloras o blancas.

El resultado del experimento es la obtención de al menos una colonia (clon) de bacterias que portan la combinación buscada de vector con el inserto de ADN pasajero. Se dice entonces que hemos clonado (=aislado) dicho ADN.

El primer experimento de este tipo lo realizaron en 1973 Stanley Cohen y Herbert Boyer en la Universidad de California. Se vio que era factible hacer toda clase de experimentos en los que se recombina ADN de organismos totalmente diferentes (bacterias, plantas, animales).

 

2.2.3 Caracterización del ADN clonado

Una vez que se ha clonado un gen o trozo de ADN, hay que caracterizarlo lo más detalladamente posible:

Lo primero que se suele hacer es realizar un "mapa físico". Para ello, muestras independientes del ADN clonado son sometidas a distintas enzimas o combinaciones de enzimas de restricción, y los fragmentos resultantes se separan por tamaños usando la electroforesis en gel de agarosa con la sustancia fluorescente bromuro de etidio, revelándose en forma de bandas visibles bajo luz UV. A partir de los tamaños de las bandas generadas por las distintas enzimas y combinaciones de enzimas, es posible ensamblar el rompecabezas del fragmento, determinando un mapa donde se van colocando las localizaciones relativas de las distintas dianas de las restrictasas.

A partir de la subclonación de fragmentos del trozo original, es posible, en algunos casos, ir adjudicando funciones a cada subfragmento, lo cual va generando en paralelo un "mapa genético".
El último nivel (el más detallado) de caracterización física es la misma secuenciación del ADN.
En los primeros tiempos se usaba sobre todo el "método químico" de Maxam y Gilbert

Pero el más usado actualmente es el método de terminación de cadena mediante didesoxinucleótidos (método enzimático de Sanger).

Una modificación del método de Sanger permite la secuenciación automática mediante lectura fluorimética computerizada. 

2.2.4 Otros métodos básicos

2.2.4.1 Síntesis química de ADN

Actualmente existen máquinas programables para sintetizar rápidamente secuencias determinadas de más de 100 nucleótidos. Se usan a menudo para generar sondas moleculares en la búsqueda y caracterización de determinados segmentos de ADN, y sobre todo para producir los cebadores usados en la reacción en cadena de la polimerasa.

2.2.4.2  Reacción en cadena de la polimerasa (PCR)

No cabe ninguna duda de que la técnica más revolucionaria de los últimos 15 años ha sido la reacción en cadena de la polimerasa (PCR), que ha dado nuevas alas a la propia Ingeniería genética y a toda la biología molecular. Fue inventada por Kary Mullis a mediados de los años 80.

Como ya sabemos, muchas de las técnicas clásicas de la Ingeniería genética estaban encaminadas a resolver el complejo problema de cómo clonar o localizar un gen o un segmento de ADN concreto "perdido" en la inmensidad del genoma. Sin embargo, esas técnicas son a menudo largas y tediosas, y no es raro que no den resultados. La PCR ha venido a cambiar el panorama, ya que permite en principio producir in vitro grandes cantidades de una secuencia de ADN concreta sin recurrir a la clonación en un organismo huésped. Esencialmente la técnica permite la amplificación selectiva de cualquier trecho de ADN, supuesto que se conocen las secuencias que lo flanquean. Como alguien ha dicho, "es una técnica que consigue encontrar la aguja en el pajar, al tiempo que produce un pajar de agujas por amplificación selectiva".

El principio que sustenta la PCR

El ADN de cadena doble que se quiere amplificar se calienta casi hasta ebullición, de modo que se separan las dos cadenas, las cuales van a servir de moldes más adelante.

Se añaden dos cebadores (normalmente fabricados por síntesis química; ver apartado 2.2.4.1). Cada cebador es un corto oligonucleótido, correspondiente a una de las secuencias que flanquean el trozo a amplificar. Al bajar la temperatura, cada cebador se empareja por puentes de hidrógeno con la secuencia complementaria de una de las cadenas del molde, y obligará a la ADN-polimerasa a comenzar la copia de esa cadena molde complementaria (por supuesto, en sentido 5'->3')

Al añadir la ADN-polimerasa y los 4 tipos de desoxinucleósido-trifosfato (dNTPs), se produce la síntesis de las respectivas cadenas complementarias de cada molde, a partir de los respectivos cebadores. Al final de esta fase, tenemos el doble de cadenas de ADN de doble cadena respecto a las de partida.

Luego la mezcla se vuelve a calentar hasta casi ebullición, con lo que se vuelven a separar la cadenas, que en su forma de cadenas sencillas sirven para iniciar otro ciclo idéntico al anterior, al final del cual tendremos el cuádruple de ADN.
Si repetimos el protocolo n ciclos, el resultado será 2n copias a partir de las originales. 

La técnica básica de la PCR

El ADN a usar no precisa ser purificado.

La cantidad de partida puede ser minúscula (<1 microgramo de ADN genómico). De hecho se puede amplificar a partir de una sola molécula de molde.

El empleo de ADN-polimerasas termorresistentes, como la Taq (procedente de la bacteria Thermus aquaticus descubierta junto a los géiseres de Yellowstone), evita tener que añadir polimerasa nueva en cada ciclo de amplificación. 

En resumidas cuentas, el experimento suele realizarse según este orden:

En un tubito se mezcla el ADN molde, los dos cebadores (oligonucleótidos), los cuatro dNTPs y la ADN-polimerasa termorresistente.

Se calienta a 94ºC durante 5 min, con lo que se separan las cadenas del ADN molde a amplificar, generándose las correspondientes cadenas sencillas.

Se baja la temperatura en torno a los 60ºC, de modo que cada cebador se empareja con el extremo correspondiente de una de las cadenas del molde. Se dice que ahora tenemos los moldes cebados.

Se sube la temperatura hasta 72ºC (la óptima de funcionamiento de la Taq), y se deja durante 5 min, tiempo durante el que se está produciendo la síntesis in vitro de las cadenas complementarias de cada hebra molde.

Se sube la temperatura a 94ºC durante 20 segundos, suficientes para separar la cadena recién sintetizada respecto del molde original.

Las cadenas sencillas generadas entran ahora en un nuevo ciclo (pasos 1 al 5), y así sucesivamente, de modo que tras 30-60 ciclos obtenemos una amplificación del ADN original de millones o miles de millones de veces.

Todo este proceso se realiza en unos aparatos automáticos llamados termocicladores, en los que se pueden fijar los parámetros de tiempos y temperaturas de cada paso del ciclo. El método de PCR fue patentado en 1987, y en principio fue comercializado por la empresa Cetus, si bien desde 1991 los derechos fueron adquiridos por Hoffman-La Roche y Perkin Elmer. Las ganancias de este método tan universalmente empleado son astronómicas.

Las aplicaciones de la PCR y de sus numerosas variantes son prácticamente ilimitadas:

simplifica sobremanera muchos experimentos de I.G.
permite muchos estudios de expresión genética
secuenciación directa de secuencias amplificadas
detección de mutaciones
seguimiento de la efectividad de tratamiento de enfermedades
diagnósticos de enfermedades genéticas e infecciosas
en ciencia forense: identificación de restos biológicos, determinación de paternidad, pruebas periciales en criminalística
en arqueología y paleontología
 

3.  Lecturas recomendadas

La bibliografía sobre biotecnología  e I.G. es inmensa. Para un acercamiento a su alcance y principales técnicas, recomiendo:

CRUEGER, W, CRUEGER, A. (1993): Biotecnología. Manual de Microbiología Industrial, Ed. Acribia, Zaragoza.

GLICK, B.R  y J.J. PASTERNAK (1998): Molecular Biotechnology. Principles and Applications of Recombinant DNA (2ª edición), ASM Press (ISBN: 1-55581-136-1).

IZQUIERDO ROJO, M. (1999): Ingeniería genética y transferencia génica. Madrid: Ediciones Pirámide (ISBN: 84-368-1312-X).

SMITH, J.E. (1996): Biotechnology (3ª edición). Cambridge: Cambridge University Press (ISBN: 0-521-44911-1). 

Última actualización: jueves 24 de mayo de 2001

© . Prohibida la reproducción comercial y el uso fraudulento.
El autor agradecerá remitan notificación del empleo educativo o divulgativo de este material.

LIBRERÍA PAIDÓS

central del libro psicológico

REGALE

LIBROS DIGITALES

GRATIS

música
DVD
libros
revistas

EL KIOSKO DE ROBERTEXTO

compra y descarga tus libros desde aquí

VOLVER

SUBIR