Вы находитесь на странице: 1из 4

Las ciencias de la computación son las ciencias formales que abarcan las bases

teóricas de la información y la computación, así como su aplicación en sistemas


computacionales.123 El cuerpo de conocimiento de las ciencias de la computación es
frecuentemente descrito como el estudio sistemático de los procesos algorítmicos
que describen y transforman información: su teoría, análisis, diseño, eficiencia,
implementación, algoritmos sistematizados y aplicación.4 En términos más
específicos se trata del estudio sistemático de la factibilidad, estructura,
expresión y mecanización de procedimientos metódicos (o algoritmos) que subyacen en
la adquisición, representación, procesamiento, almacenamiento, comunicación y
acceso a la información. La información puede estar codificada en forma de bits en
una memoria de computadora, o en algún otro objeto como, como los genes y proteínas
en una célula biológica.5

Existen diversas ramas o disciplinas dentro de las ciencias de la computación;


algunos resaltan los resultados específicos del cómputo (como los gráficos por
computadora), mientras que otros (como la teoría de la complejidad computacional)
se relacionan con propiedades de los algoritmos usados al realizar cómputo; y otros
se enfocan en los problemas que requieren la implementación de sistemas
computacionales. Por ejemplo, los estudios de la teoría de lenguajes de
programación describen un cómputo, mientras que la programación de computadoras
aplica lenguajes de programación específicos para desarrollar una solución a un
problema computacional específico. Un computólogo se especializa en teoría de la
computación y en el diseño e implementación de sistemas de computacionales.6

Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la


computación es: «¿Qué puede ser (eficientemente) automatizado?».7
Índice

1 Historia
1.1 Mayores logros
2 Filosofía
2.1 Nombre del campo
3 Campos de las ciencias de la computación
3.1 Ciencias de la computación teóricas
4 Teoría de la computación
5 Teoría de la información y códigos
6 Algoritmos y estructuras de datos
7 Teoría de lenguajes de programación
7.1 Métodos formales
7.2 Ciencias de la computación aplicadas
7.2.1 Inteligencia artificial
7.2.2 Arquitectura de computadoras
7.2.3 Análisis de rendimiento de computadoras
7.2.4 Cómputo científico
7.2.5 Redes de computadoras
7.2.6 Sistemas concurrentes, paralelos y distribuidos
7.2.7 Bases de datos
7.2.8 Informática en salud
7.2.9 Ciencia de la información
7.2.10 Ingeniería de software
8 Relación con otros campos
9 Véase también
10 Referencias
11 Bibliografía
12 Enlaces externos

Historia
Charles Babbage diseñó la primera computadora Turing-completa; aunque pasarían
décadas antes de que Alan Turing y otros demostraran su relevancia.
Ada Lovelace es reconocida por escribir el primer algoritmo para una computadora
universal (la "Máquina analítica" de Babbage).

La historia de la ciencia de la computación antecede a la invención del computador


digital moderno. Antes de la década de 1920, el término computador se refería a un
ser humano que realizaba cálculos.8 Los primeros cimientos de lo que se convertiría
en ciencias de la computación son anteriores a la invención de la computadora
digital moderna. Se trataba de máquinas para el cálculo de las tareas numéricas
fijas, como el ábaco han existido desde la antigüedad, ayudando en cálculos tales
como la multiplicación y la división. Además, los algoritmos para realizar cálculos
han existido desde la antigüedad, incluso antes de que se crearan equipos de
computación sofisticados. Los antiguos sánscritos tratadistas Shulba Sutras, o
"Reglas de la cuerda", es un libro de algoritmos escritos en 800 a. C. para la
construcción de objetos geométricos como altares utilizando una clavija y cuerda,
un precursor temprano del campo moderno de la geometría computacional.

Blaise Pascal diseñó y construyó la primera calculadora mecánica de trabajo, la


Pascalina, en 1642.9 En 1673 Gottfried Leibniz creó una calculadora mecánica
digital, llamada el 'Stepped Reckoner'.10 Él puede ser considerado el primer
computólogo y teórico de la información, entre otras razones, porque fue el primero
en documentar el sistema numérico binario. En 1820, Charles Xavier Thomas de Colmar
lanzó la calculadora mecánica industrial11 cuando lanzó su simplificado
aritmómetro, que fue la primera máquina de calcular lo suficientemente fuerte y lo
suficientemente fiable para ser usada a diario en un entorno industrial. Charles
Babbage inició el diseño de la primera calculadora automática mecánica, su máquina
diferencial, en 1822, que finalmente le dio la idea de la primera calculadora
mecánica programable, su máquina analítica.12 Él comenzó a desarrollar esta máquina
en 1834 y "en menos de dos años que había esbozado muchas de las características
más destacadas del moderno equipo. Un paso fundamental fue la adopción de un
sistema de tarjetas perforadas derivado del telar de Jacquard"13 haciéndolo
infinitamente programable.14 En 1843, durante la traducción de un artículo francés
sobre la máquina analítica, Ada Lovelace escribió, en una de las muchas notas que
incluye el artículo, un algoritmo para calcular los números de Bernoulli, que es
considerado como el primer programa de ordenador.15 Alrededor de 1885, Herman
Hollerith inventó la máquina tabuladora, que usaba tarjetas perforadas para
procesar información estadística; finalmente, su compañía se convirtió en parte de
IBM. En 1937, cien años después del sueño imposible de Babbage, Howard Aiken
convencidos por IBM, que estaban manufacturando todo tipo de equipos de tarjetas
perforadas y así como la calculadora de negocio 16 para desarrollar su calculadora
programable gigante, el ASCC/Harvard Mark I, se basó en la máquina analítica de
Babbage, que a su vez utiliza las tarjetas perforadas y una unidad central de
cálculo. Cuando se terminó de construir la máquina, algunas personas lo aclamaron
como «el sueño de Babbage hecho realidad».17

Durante la década de 1940, conforme se desarrollaban las nuevas y más poderosas


máquinas para computar, el término computador se comenzó a utilizar para referirse
a las máquinas y ya no a sus antecesores humanos.18 Cuando se hizo evidente que las
computadoras no solamente podrían utilizarse para realizar cálculos matemáticos, el
campo de las ciencias de la computación se amplió para estudiar cómputo en general.
Las ciencias de la computación empezaron a establecerse como una disciplina
académica distinta de las demás en la década de 1950 y principios de 1960.719
Entonces surgió el primer programa de grado universitario mundo, el Cambridge
Diploma in Computer Science, del Cambridge Computer Lab (Departamento de Ciencias
de la Computación) de la Universidad de Cambridge, en 1953. El primer programa de
grado universitario en ciencias de la computación en los Estados Unidos se formó en
Universidad de Purdue en 1962.20 Desde que se dispone ordenadores prácticos, muchas
aplicaciones la de las ciencias de la computación convirtieron en diferentes áreas
de estudio en sus propios términos.
Aunque inicialmente muchos creyeron que era imposible que las computadoras en sí
mismas podrían constituir en realidad un campo científico de estudio, a finales de
los años cincuenta se fue volviendo gradualmente aceptada entre la población mayor
académica.2122 Es la marca IBM que a 2015 es muy conocida la que formó parte de la
revolución de las ciencias de la computación durante este tiempo. IBM (abreviación
de International Business Machines) lanzó el IBM 70423 y más tarde las computadoras
de IBM 70924 que fueron ampliamente utilizadas durante el período de exploración de
este tipo de dispositivos. "Sin embargo, el trabajo con las IBM [computadoras] fue
frustrante ... si hubieras perdido tanto como una letra en una instrucción, el
programa chocaría, y usted tendría que empezar todo el proceso otra vez".21 Durante
a finales de 1950, la disciplinas de las ciencias de la computación estaban en sus
etapas de desarrollo más primordiales, y tales cuestiones eran comunes.22

La disciplina científica de las ciencias de la computación nace a principios de


1940 con la confluencia de la teoría de algoritmos, lógica matemática y la
invención del programa almacenado en una computadora electrónica.4 Ejemplos de esto
son los trabajos de Alan Turing, Alonzo Church y Kurt Gödel en 1930 acerca de los
algoritmos y su trabajo en sistemas de reglas (véase Cálculo Lambda, Máquina de
Turing y Problemas Indecidibles), los algoritmos creados por Augusta Ada sesenta
años antes, la computadora analógica construida por Vannevar Bush en 1920 y las
computadoras eléctricas construidas por Howard Aiken y Konrad Zuse en 1930. Los
escritos de John Von Neumann dieron una profundidad intelectual considerable a esta
disciplina emergente a mediados de la década de 1940.

En 1960, había suficientemente cuerpo de conocimiento que ameritaba la creación de


departamentos académicos y programas de grado universitario para esta disciplina.4
IBM es reconocida como la marca que formó parte de la revolución de las ciencias de
la computación durante ese tiempo. IBM (abreviación de International Business
Machines) lanzó la IBM 70425 y más tarde la IBM 70926 computadoras, que fueron
ampliamente utilizadas durante el período de exploración de este tipo de
dispositivos. "Sin embargo, el trabajo con la IBM [equipo] era frustrante ... si te
equivocas en una letra de alguna instrucción, el programa se arruinaría, y se
tendría que empezar todo el proceso otra vez".21 Durante la década de 1950, la
disciplina de las ciencias de la computación estaba en su etapa de desarrollo, y
estos problemas eran algo común.

El tiempo ha dado mejoras significativas en la capacidad de uso y la eficacia de la


tecnología de la computación. La sociedad moderna ha presenciado un cambio
significativo en los usuarios de la tecnología en cómputo, de ser utilizada
únicamente por expertos, profesionales y científicos, a una base de usuarios que es
casi omnipresente a la teoría con la cual se desarrolló y funciona este tipo de
tecnología. Inicialmente, las computadoras eran bastante costosas, y era necesario
un cierto grado de ayuda humana para el uso eficiente - en parte de operadores de
computadoras profesionales. Como la adopción equipo se hizo más generalizado y
asequible, se necesitaba menos asistencia humana en el uso común.
Mayores logros
El ejército alemán usó la máquina Enigma durante la Segunda Guerra Mundial; su
sistema de cifrado fue finalmente descubierto por Alan Turing, considerado el padre
de la Computación. La lectura de la información que contenían los mensajes
supuestamente encriptados son considerados, a veces, como la causa de haber podido
concluir la Segunda Guerra Mundial al menos dos años antes de lo que hubiera
acaecido sin su descifrado. El descifrado a gran escala del tráfico de Enigma en
Bletchley Park fue uno de los factores más importantes que contribuyeron a la
victoria Aliada.27

A pesar de su corto tiempo de ser una disciplina científica formal, las ciencias de
la computación han hecho un gran número de contribuciones importantes a la ciencia
y la sociedad –de hecho, junto con la electrónica, es una ciencia fundacional de la
época actual de la historia humana llamada Era de la información y la Revolución de
la Información, visto como el tercer gran salto en el progreso tecnológico humano
después de la Revolución Industrial (1750-1850) y la revolución neolítica (8000-
5000 a. C.).

Estas contribuciones a la humanidad incluyen:

El comienzo de la "Revolución digital", la cual incluye la actual Era de la


información y el Internet.28
Una definición formal de computación y computabilidad, y una demostración
formal de que existen problemas que son computacionalmente irresolubles e
intratables.29
El concepto de lenguaje de programación, una herramienta para la expresión
precisa de información metodológica a varios niveles de abstracción.30
En criptología, el criptoanálisis de Enigma fue un factor importante, el cual
contribuyó a la victoria Aliada en la Segunda Guerra Mundial.27
Cómputo Científico permitió la evaluación de procesos y situaciones de gran
complejidad, así como la experimentación mediante software. También permitió el
avance en investigación de la mente humana y el mapeo del genoma humano junto el
Proyecto Genoma Humano.28 Proyectos de cómputo distribuido tales como Folding@home
que estudiaron el plegamiento de proteínas.
El trading algorítmico ha incrementado la eficiencia y la liquidez de los
mercados financieros mediante técnicas de inteligencia artificial, aprendizaje
automático, y otros métodos estadísticos y numéricos a gran escala.31 Alta
frecuencia de comercio algorítmico también puede exacerbar la volatilidad
financiera.32
Computación gráfica e imágenes generadas por computadora se volvieron
omnipresentes en la era moderna del entretenimiento, sobre todo en televisión,
cine, publicidad, animación y videojuegos. [cita requerida]
Simulación de varios procesos, incluyendo dinámica de fluidos computacionales,
sistemas físicos, eléctricos, electrónicos y de circuitos, así como las sociedades
y las situaciones sociales (sobre todo juegos de guerra), junto con sus hábitats,
entre muchos otros. Las computadoras modernas permiten la optimización de diseños
tales como aviones completos. Se destaca el diseño de circuitos eléctricos y
electrónicos con SPICE, así como software para la realización física de nuevos
diseños. Este último incluye software de diseño esencial para circuito integrados.
La Inteligencia artificial (IA) es cada vez más importante, ya que se vuelve
más eficiente y compleja con el paso del tiempo. Existen muchas aplicaciones de la
IA, algunas se pueden ver en el hogar, tales como aspiradores robóticos. También
está presente en los videojuegos y en el campo de batalla moderno en aviones no
tripulados, sistemas antimisiles, y robots de apoyo para escuadrones.

Вам также может понравиться