Академический Документы
Профессиональный Документы
Культура Документы
Pág. 1
INFORMATICA Y BIOLOGIA
Pero, una breve incursión en su génesis histórica y desarrollo, nos permitirá -sin
duda- traer más luz sobre sus objetivos, contenido y métodos, que una simple descripción
estática, temporal y por tanto, dependiente.
El término informática es reciente, pues no fué creado hasta la primavera de 1962, por
el francés Philippe Dreyfus, como contracción de dos términos: información y automática.
Para su creador, este nuevo dominio era una rama de la automática: la automática de la
información.
LA AUTOMATICA.
A principios del siglo XIX se presentó el jugador de ajedrez del Barón de Kempelen,
con notable éxito; pero posteriormente se descubrió que el cajón de los mecanismos ocultaba
a un enano, gran experto en ese juego. En España, Torres Quevedo, construyó un ingenioso
autómata verdadero que jugaba un ajedrez limitado.
Ya en el siglo XX, aparece el término robot, al tiempo que esta figura se instala en la
conciencia popular. La obra de teatro Ros sum's Universal Robots, de Karel Capek,
representada en los años veinte, plantea el problema de las relaciones entre el hombre y una
raza de androides que ha creado: los robots, que terminan por aniquilar a éste. A este
respecto es bien conocida la obra del gran divulgador y escritor de ciencia ficción Isaac
Asimov, especialmente la saga que podemos denominar Robots, Fundación e Imperio,
EL CALCULO ARTIFICIAL.
La búsqueda de una mayor eficiencia y eficacia en los procesos de cálculo, es también
muy antigua, y tiene -a nuestro entender- dos etapas claramente diferenciadas:
La primera, que va de la prehistoria a los años treinta, comprende el desarrollo de
instrumentos como el ábaco y las máquinas de cálculo capaces de automatizar las cuatro
operaciones aritméticas básicas.
La segunda, se refiere al desarrollo, en los años cuarenta, de las calculadoras
gigantescas que desembocan en la creación de los primeros cerebros electrónicos.
El ábaco, que ya se conocía en Egipto nada menos que en el año 500 A.C., fue muy
utilizado por los romanos que denominaron calculi -cálculos- a las pequeñas piedras que se
disponían en las columnas.
Diversos artilugios -en alguna forma parecidos-, como el marcador de bolas de
oriente o los quipos de los incas, fueron desarrollados por otras culturas.
En 1614, el escocés John Napier -para simplificar y acelerar los cálculos- inventó
los logaritmos y publicó la primera tabla de éstos. Pronto, en 1620, Edmund Gunther
inventó un método más simple: éste situó los logaritmos en una línea recta. La multiplicación
y la división se realizaban añadiendo y sustrayendo segmentos por medio de un par de
divisores. El siguiente adelanto fue llevado a cabo por William Oughtred, que usó dos
escalas móviles de logaritmos como regla de cálculo.
El hombre siguió tratando de inventar mejores calculadores mecánicos. William
Schickardt, aleman, descubrió por primera vez, en 1623, una máquina calculadora que podía
sumar, restar, multiplicar y dividir.
Sin embargo, el primer calculador lo bastante seguro para ser lanzado comercialmente
fue inventado por un joven francés de diecinueve años en 1642. El joven Blas Pascal era
hijo de un recaudador de impuestos que buscaba la forma de reducir el trabajo de sumar.
El principio básico del mecanismo de ruedas de engranaje que inventó Pascal para su
calculador se aplicó a la mayor parte de los calculadores mecánicos durante un período de
unos trescientos años.
El inglés Samuel Morland construyó otras máquinas de calcular. En 1663
construyó una para cálculos trigonométricos. El siguiente gran paso en el perfeccionamiento
de las calculadoras lo dio el alemán Gottfried Wilhelm Leibnitz en 1671. Leibnitz
construyó su máquina con la idea de mejorar la obra de Pascal y de Morland. Consiguió crear
una calculadora que podía sumar, restar, multiplicar y dividir. También estudió el sistema
binario, que constituye la base de los ordenadores modernos y que había sido inventado
por el filósofo inglés Francis Bacon. Sin embargo, su interés era religioso y no científico,
pues intentaba construir una prueba matemática de la existencia de Dios.
La utilización de fichas perforadas fue también una aplicación temprana y
afortunada de los números binarios en la programación, donde 0 es el equivalente a ningún
agujero, y 1 significa que existe un agujero. De este modo, el sistema de perforación fue
un lenguaje temprano para comunicar instrucciones a los telares mecánicos.
En 1820, el francés Charles Xavier Thomas desarrolló el primer calculador
comercializado con éxito, que se llamó Aritmómetro.
Investigación de las Leyes del Pensamiento, sobre las cuales se fundamentan las
matemáticas de la Lógica y las probabilidades. Boole utilizó los números 1 y 0 para
representar la verdad o falsedad de los enunciados lógicos y sus conclusiones.
Sin embargo, la máquina que fue objeto de la más intensa publicidad fue el Calculador e
Integrador Numérico Electrónico (ENIAC). Lo construyeron un físico, John Mauchly, y un
ingeniero electricista, J. Presper Eckert. Ocubaba unos 180 metros cuadrados, pesaba 30
toneladas, contenía 18.000 tubos de vacio, 70.000 resistencias, 10.000 condensadores, 6.000
interruptores, consumía 150.000 vatios, y costaba 400.000 dólares.
Las primeras realizaciones prácticas para imitar un cerebro humano habían sido
desarrolladas por el lógico Pitts y el biólogo McCulloch, cuyos trabajos iniciales, publicados
en 1943, inspiraron explícitamente a Von Neumann en su visión de la organización lógica de
la nueva máquina. Su atracción por la lógica binaria estaba directamente unida a la idea de
que el cerebro humano funcionaba globalmente de forma binaria.
En 1951, se convoca en París una conferencia para tratar de las nuevas máquinas y las
consecuencias de su empleo. Acuden cerca de trescientos investigadores de todo el
mundo, entre ellos futuros premios Nobel como Louis de Bloglie, que anuncia que el
coloquio se dividirá en tres secciones, una de ellas denominada Las grandes máquinas, la
lógica y la fisiología del sistema nervioso. A partir de entonces ha sido una constante
de este tipo de reuniones, la dedicación de una sección a estos temas, de raíz biológica, que
en los últimos años se han venido denominando bioinformática.
Newell, Shaw y, el que años más tarde sería premio nobel, Simon, iniciaron la
construcción de un programa para la demostración automática de teoremas, el denominado,
General Problem Solving, sistema capaz de organizar una serie de subprogramas
orientados a un fin.
Meses más tarde, en el verano de 1956, un grupo de investigadores se reunió en el
Darmouth College para discutir la posibilidad de construir máquinas inteligentes. Formaban
parte del grupo de Darmouth, entre otros: Samuel que ya había escrito un programa para jugar
a las damas capaz de aprender de su propia experiencia; McCarthy que se dedicaba a la
realización de sistemas que llevaran a cabo razonamientos de sentido común; Minsky que
trabajaba sobre un problema de geometría plana con la esperanza de conseguir que el
ordenador emplease razonamiento analógico sobre figuras; Selfridge, que centraba su
atención en el reconocimiento de formas por computador. Estos, con los ya citados Newell,
Shaw y Simon, y algún otro, pueden ser considerados los padres de la Inteligencia
Artificial, y el verano de 1956 en Darmouth, la fecha y el lugar de nacimiento de ese
dominio de conocimiento, hoy académica y científicamente reconocido.
John von Neumann, buscando soluciones por analogías biológicas para el avance de la
informática, publica en 1958 su obra The Computer and the Brain. En ese mismo año,
Frank Rosenblatt publica un trabajo titulado The perceptron: a probabilistic model for
information storage and organization in the brain, que tendría un gran impacto en las
investigaciones realizadas durante la década de los sesenta.
En 1960, seiscientas personas, entre biólogos, ingenieros, matemáticos, físicos
y psicólogos, fueron invitados por la USAF (Fuerza Aérea de los Estados Unidos) a un
congreso en Dayton (Ohio) donde se presentó una nueva ciencia: La Biónica. Esta quedó
definida como la ciencia de los sistemas que tienen un funcionamiento copiado del de los
sistemas naturales o que presentan características específicas análogas a las de los mismos.
Clasificadores.
Por último hay que incidir en el tremendo desarrollo de los Sistemas Basados en el
Conocimiento, que acumulan la mayor cantidad de recursos invertidos en el campo de la
Inteligencia Artificial. En estos sistemas se trata de emular la capacidad de decisión basada en
el conocimiento de expertos humanos en campos específicos, con éxito comprobado en casi
todos los campos de la ciencia y la industria.
El origen de estos sistemas hay que buscarlo en los primeros Sistemas Expertos,
definidos por Feigenbaum como programas inteligentes que utilizan conocimientos y
procedimientos de inferencia para resolver problemas que son lo suficientemente difíciles
como para requerir experiencia humana para su correcta solución. Si bien los primeros
sistemas creados, como DENDRAL (para deducir la estructura de un compuesto
desconocido) y MYCIN (diagnóstico y tratamiento de enfermedades infecciosas de la sangre)
se mostraron incapaces de aprender, hoy en día, con la incorporación de técnicas basadas en
redes neuronales, algoritmos genéticos y otras, se están consiguiendo Sistemas "Híbridos" de
gran potencia y con capacidad de autoevolución y aprendizaje.
Por tanto, la Bioinformática se nutre especialmente de dos grandes áreas del conocimiento, las
ciencias biológicas y las ciencias de la computación. Esto implica la existencia de dos
conceptos y dos grandes líneas de trabajo:
La primera en la cual las ciencias de la computación utilizan modelos de la biología, ejemplo
de ello lo constituyen las redes neurales, los algoritmos genéticos, la vida artificial y los
sistemas basados en conocimiento, entre otras.
La segunda en la cuál las ciencias biológicas utilizan modelos y herramientas de las ciencias de
la computación, como la genómica.
¿Qué es la Genómica?
La Genómica es la rama de la biología que se encarga del estudio de los genomas.
A diferencia de la genética clásica que a partir de un fenotipo, busca el o los genes
responsables de dicho fenotipo, la genómica tiene como objetivo predecir la función de los
genes a partir de su secuencia.
Muchas veces, la genómica es usada como sinónimo de otras áreas de estudio relacionadas
como son la proteómica y la transcriptómica por ejemplo. Las ciencias genómicas han tenido
un importante auge en los últimos años, sobre todo gracias a las avanzadas técnicas de
secuenciación, a los avances en informática, y a las técnicas cada vez más sofisticadas para
realizar análisis de genomas completos. En varios países como EUA, la Unión Europea y
Japón se han realizado enormes proyectos para secuenciar el genoma de diversos organismos
modelo. El más conocido es el Proyecto Genoma Humano. En la actualidad se cuenta además
con importantes servidores de acceso público, como el del NCBI (National Center for
Biotechnology Information), que permiten que cualquier usuario con conexión a Internet
acceda a la secuencia completa del genoma de decenas de organismos y a las secuencias de
cientos de miles de genes de distintos organismos.
A diferencia de la genética clásica que a partir de un fenotipo, generalmente mutante, busca el
o los genes responsables de dicho fenotipo, la genómica tiene como objetivo predecir la
función de los genes a partir de su secuencia.