You are on page 1of 12

Que es computación

Qué es Computación:

Computación es sinónimo de informática. Como tal, se refiere a la tecnología


desarrollada para el tratamiento automático de la información mediante el uso
computadoras u ordenadores.

En este sentido, la computación es también un área de conocimiento constituida


por disciplinas relativas a las ciencias y la tecnología, para el estudio, desde el
punto de vista teórico y práctico, de los fundamentos del procesamiento
automático de datos, y su desarrollo, implementación y aplicación en sistemas
informáticos.

La palabra computación proviene del latín computatĭo, computatiōnis, que deriva


del verbo computāre, cuyo significado es ‘enumerar cantidades’. Computación, en
este sentido, designa la acción y efecto de computar, realizar una cuenta, un
cálculo matemático. De allí que antiguamente computación fuese un término
usado para referirse a los cálculos realizados por una persona con un instrumento
expresamente utilizado para tal fin (como el ábaco, por ejemplo) o sin él.

Computación en la nube

Computación en la nube, servicios en la nube o cloud computing, hace referencia


a un concepto de servicios informáticos que ofrece, de manera paga o gratuita, a
usuarios ubicados en cualquier parte del mundo y con conexión a internet,
programas o aplicaciones de uso personal o empresarial que se encuentran
alojados en internet (también denominado "nube"). Hoy en día, este concepto es
muy común, y lo encontramos en los servicios de correo electrónico, redes
sociales o un software como Microsoft Office 365, que no requieren ser instalados
en una computadora, sino que pueden usarse directamente en la nube.

Computación ubicua
La computación ubicua es un concepto de tecnología futurista, desarrollado
inicialmente por Mark Weiser, que pretende la integración de los sistemas
informáticos en todas las facetas de la vida humana de una manera tan natural,
bajo mecanismos de interacción tan intuitivos, que pueda decirse que forman parte
del entorno de las personas de una forma prácticamente invisible, por ello es
también conocida como inteligencia ambiental. Como la palabra lo indica, la
computación ubicua está en todos los aspectos de la vida cotidiana. Situaciones
como ir de compras, preparar café, obtener una dirección o información del tráfico,
estarían todas integradas por dispositivos computacionales interconectados con el
objetivo de facilitar las tareas cotidianas a las personas, creando una revolución en
nuestro modo de vida.

Computación cuántica

La computación cuántica es un concepto que propone la aplicación de las teorías


de la física cuántica en la informática, con el objetivo de crear computadoras con
la capacidad de procesar mayores cantidades de información y con más rapidez
que las computadoras tradicionales. En lugar de usar bits, emplea qubits (o
quantum bits), lo cual da lugar a nuevas puertas lógicas y, como consecuencia, a
nuevos algoritmos. Esta tecnología, surgida en los años ochenta, aún se
encuentra, sin embargo, en desarrollo.

Computación gráfica

La computación gráfica es el área de la informática dedicada a la generación,


diseño y presentación de imágenes visuales en una computadora, ya sean de
naturaleza bidimensional o tridimensional, ya se trate de animaciones o de
captura, creación y edición de videos, con aplicación no solo en todos los campos
del saber humano, sino también en el entretenimiento, el arte o las operaciones
bélicas.

Computación distribuida
La computación distribuida es un concepto que se refiere al empleo de una amplia
red de computadoras interconectadas para la realización de tareas determinadas.
En este sentido, este sistema, también conocido como informática en malla,
aprovecha los recursos disponibles en un gran número de computadores
personales y los pone a trabajar de manera coordinada y conjunta para resolver
problemas informáticos de gran magnitud, como si se tratara de una
supercomputadora.

NTICX

Las siglas NTICX, en el entorno de la informática, significan Nuevas Tecnologías


de la Información y la Conectividad.

El término computación tiene su origen en el vocablo en latín computatio. Esta


palabra permite abordar la noción de cómputo como cuenta o cálculo, pero se usa
por lo general como sinónimo de informática (del francés informatique). De esta
manera, puede decirse que la computación nuclea a los saberes científicos y a los
métodos.
Estos sistemas automatizados de información se consiguen a través de
herramientas determinadas que han sido creadas para dicho fin, los ordenadores o
computadoras.

El origen de la computación, dicen los expertos, se remonta a más de trescientos


años atrás, cuando comenzaron a elaborarse maquinarias enfocadas en diversas
tareas de cálculo. En 1623, Wilhelm Schickard inventó la primera calculadora
mecánica.

Sin embargo, las computadoras capaces de realizar múltiples procesos (o sea, que
no se limitaban a los cálculos de tipo matemático) comenzaron a surgir en la década
del ’40. El uso masivo y doméstico de estas máquinas llegaría recién en los ’80, con
la producción de las computadoras personales o PC. El fin del siglo XX, con el auge
de Internet, representó un nuevo impulso para todo lo relacionado con las ciencias
de la computación.

En cuanto a la teoría de la computación, hay que decir que está considerada como
una ciencia centrada en el estudio y la definición formal de los cómputos. Esta
disciplina define al cómputo como el producto de una solución o de un resultado, en
especial en el sentido matemático/aritmético del concepto, utilizando un proceso o
algoritmo.

Dicho de otra forma, la computación es la ciencia que estudia y sistematiza las


órdenes y actividades dictadas en una máquina, analizando a los factores que
participan de este proceso, entre los que se encuentran los lenguajes de
programación, que permiten generar una lista de datos ordenada y entendible para
la máquina.
En el proceso se realizan dos tipos de análisis, uno orgánico (traducción de las
indicaciones a un lenguaje comprensible por la computadora) y uno funcional
(recoger la información disponible en el proceso de automatizar).

Para hablar de computación es necesario definir previamente el concepto de


algoritmo. Un algoritmo es un conjunto de pasos determinados que se estructuran
en el tiempo que responden a una lista de reglas claras y que tienen como objetivo
solucionar un problema particular. Deben cumplir con ciertas condiciones: ser
definidos (claros, detallar cada uno de los pasos necesarios a realizar sin
ambigüedades), finitos (las acciones que lo conforman deben concluirse de forma
lógica y clara), contar con cero o más entradas y con una o más salidas, y ser
efectivo (utilizar exactamente lo que se requiera para la resolución del problema,
gastando el mínimo de recursos y pudiendo ejecutarse eficazmente).

Otras áreas que también abarca la computación son la inteligencia artificial


vinculada con los ordenadores, la computación gráfica y de redes, los sistemas de
bases de datos, la matemática de los ordenadores y diferentes tipos de ingenierías
relacionadas con esta máquina.

En la actualidad, el desarrollo de la computación y de las tecnologías relacionadas


ha permitido la elaboración de diversos tipos de documentos, el envío y la recepción
de correo electrónico, la creación de dibujos digitales, la edición de audio y la
impresión de libros, entre muchos otros procesos.

Cabe señalar que la tecnología utilizada en computación es de tipo microelectrónica


con componentes físicos (procesador, memoria, etc) y lógicos (sistema operativo y
programas).

Definición principal

“La computación, también conocida con el nombre de informática, es la rama de la


ingeniería que estudia las técnicas, los métodos, los procesos, las redes de datos,
el hardware y el software necesarios, con el fin de tratar la información de manera
automática.”

Evolución de la computación
El término “informática” debe su creación al alemán Karl Steinbuch, en 1957, al
añadir esta palabra a su publicación denominada “Informática: procesamiento
automático de información”.

Evolución de los ordenadores a lo largo del tiempo, desde su creacion hasta la


actualidad

En los comienzos de la informática solamente se realizaban trabajos repetitivos y


monótonos dentro del área de administración. Los ordenadores no estaban
especializados por lo que no realizaban las tareas de manera automática como
ahora, siendo necesario introducir los códigos computacionales una y otra vez para
poder desempeñar la misma tarea.

Los sistemas operativos fueron la revolución de la ambigüedad, las tareas arduas


y lentas, convirtieron en fácil lo que antes parecía imposible. Consiguieron
establecer una serie de códigos generales inmersos en el disco duro del ordenador
para que este pudiera desempeñar las funciones que el usuario le demandaba, sin
necesidad de introducir los códigos una y otra vez. Bill Gates fue el encargado de
romper definitivamente con esta problemática, creando Microsoft Windows.

Sistemas computacionales
Los sistemas informáticos permiten el procesamiento automático de la información,
así como su tratamiento, almacenaje y elaboración de una respuesta. Por lo tanto,
todos deben ser capaces de generar una entrada, es decir, captar la información
entrante; realizar un proceso en conjunto de la información entrante con la ya
almacenada; y, generar una salida dando una respuesta adecuada a esa
información entrante. Estas son las tres tareas más básicas que todo sistema
computacional debe cumplir.

El término computación es proveniente del latín, según la RAE, de la entrada


“computatĭo”, pero otras fuentes formulan que deriva de la voz latina “computare”
formada por el prefijo “com” igual a “con” y “putare” que quiere decir “computar,
evaluar”. La computación puede definirse como una ciencia que se ocupa del
estudio de las computadoras, abarcando su diseño, operación y uso en el
procesamiento de datos. En otras palabras la computación alude al estudio científico
que se fundamenta sobre sistemas automáticos para el manejo de información, que
pueden realizarse por medio de herramientas pensadas para dicho fin. La
computación combina ciertos elementos teóricos y prácticos del campo de la
ingeniería, las matemáticas, la lógica, la teoría de la información etc.

La historia de la computación posee una trayectoria no mayor a un siglo, aunque


fuentes manifiestan que sus inicios pueden remontarse cuando comenzaron a
realizarse maquinas o artefactos guiados a distintas tareas de cálculo; para 1623,
se inventó la primera calculadora mecánica por un famoso matemático alemán
llamado Wilhelm Schickard. Pero no fue hasta la década de los ’40 que comenzaron
a aparecer ciertos artefactos que posibilitaban la realización de multiplex procesos,
es decir que no se limitaban a los cálculos de tipo matemático; en los ’80 surgieron
las computadoras personales o PC; y fue para el siglo XX donde el desarrollo de la
computadora tuvo mayor auge y continuó desarrollándose hasta nuestros días.
Cabe destacar que este desarrollo generalmente se divide en generación.

Las máquinas de primera generación se caracterizaban por su tamaño ya que


ocupaban una habitación completa, además sus programaciones eran por medio de
un lenguaje de máquinas diseñadas por tubos vacíos, y eran muy costosas. Las de
segunda generación surgieron en la década de 1960, estas máquinas tenían la
capacidad de procesar más datos y eran de menor tamaño, y la información que
ingresaba era por medio de tarjetas perforadas. Las máquinas de tercera
generación se caracterizaban por utilizar sistemas operativos como el de IBM,
además se utilizaban circuitos integrados, y para entonces fueron integradas las
minicomputadoras. Y la cuarta generación caracterizada por la aparición de
microchips, que tuvo gran importancia en la computación, poco a poco fue
disminuyendo su tamaño y tomando más velocidad además de ser más
económicas.

Teoría de la computación

La teoría de la computación es un conjunto de conocimientos racionales,


sistematizados y funcionales que se centran en el estudio de la abstracción de los
procesos que ocurren en la realidad con el fin de reproducirlos con ayuda de
sistemas formales, es decir, a través de códigos de caracteres e instrucciones
lógicas, reconocibles por el ser humano, con capacidad de ser modeladas en las
limitaciones de dispositivos que procesan información y que efectúan cálculos
como, por ejemplo, el ordenador. Para ello, se apoya en la teoría de autómatas, a
fin de simular y estandarizar dichos procesos, así como para formalizar los
problemas y darles solución.
Teoría de autómatas

Esta teoría provee modelos matemáticos que formalizan el concepto de


computadora o algoritmo de manera suficientemente simplificada y general para
que se puedan analizar sus capacidades y limitaciones. Algunos de estos modelos
juegan un papel central en varias aplicaciones de las ciencias de la computación,
incluyendo procesamiento de texto, compiladores, diseño de hardware e inteligencia
artificial.

Existen muchos otros tipos de autómatas como las máquinas de acceso aleatorio,
autómatas celulares, máquinas ábaco y las máquinas de estado abstracto; sin
embargo en todos los casos se ha mostrado que estos modelos no son más
generales que la máquina de Turing, pues la máquina de Turing tiene la capacidad
de simular cada uno de estos autómatas. Esto da lugar a que se piense en la
máquina de Turing como el modelo universal de computadora.

Teoría de la computabilidad

Esta teoría explora los límites de la posibilidad de solucionar problemas mediante


algoritmos. Gran parte de las ciencias computacionales están dedicadas a resolver
problemas de forma algorítmica, de manera que el descubrimiento de problemas
imposibles es una gran sorpresa. La teoría de la computabilidad es útil para no tratar
de resolver algorítmicamente estos problemas, ahorrando así tiempo y esfuerzo.

Los problemas se clasifican en esta teoría de acuerdo a su grado de imposibilidad:

Los computables son aquellos para los cuales sí existe un algoritmo que siempre
los resuelve cuando hay una solución y además es capaz de distinguir los casos
que no la tienen. También se les conoce como decidibles, resolubles o recursivos.

Los semicomputables son aquellos para los cuales hay un algoritmo que es capaz
encontrar una solución si es que existe, pero ningún algoritmo que determine
cuando la solución no existe (en cuyo caso el algoritmo para encontrar la solución
entraría a un bucle infinito). El ejemplo clásico por excelencia es el problema de la
parada. A estos problemas también se les conoce como listables, recursivamente
enumerables o reconocibles, porque si se enlistan todos los casos posibles del
problema, es posible reconocer a aquellos que sí tienen solución.

Los incomputables son aquellos para los cuales no hay ningún algoritmo que los
pueda resolver, no importando que tengan o no solución. El ejemplo clásico por
excelencia es el problema de la implicación lógica, que consiste en determinar
cuándo una proposición lógica es un teorema; para este problema no hay ningún
algoritmo que en todos los casos pueda distinguir si una proposición o su negación
es un teorema.

Hay una versión más general de esta clasificación, donde los problemas
incomputables se subdividen a su vez en problemas más difíciles que otros. La
herramienta principal para lograr estas clasificaciones es el concepto de
reducibilidad: Un problema A {\displaystyle A} A se reduce al problema B
{\displaystyle B} B si bajo la suposición de que se sabe resolver el problema B
{\displaystyle B} B es posible resolver al problema A {\displaystyle A} A; esto se
denota por A ≤ t B {\displaystyle A\leq _{t}B} {\displaystyle A\leq _{t}B}, e
informalmente significa que el problema A {\displaystyle A} A no es más difícil de
resolver que el problema B {\displaystyle B} B. Por ejemplo, bajo la suposición de
que una persona sabe sumar, es muy fácil enseñarle a multiplicar haciendo sumas
repetidas, de manera que multiplicar se reduce a sumar.

Teoría de la complejidad computacional

Aun cuando un problema sea computable, puede que no sea posible resolverlo en
la práctica si se requiere mucha memoria o tiempo de ejecución. La teoría de la
complejidad computacional estudia las necesidades de memoria, tiempo y otros
recursos computacionales para resolver problemas; de esta manera es posible
explicar por qué unos problemas son más difíciles de resolver que otros. Uno de los
mayores logros de esta rama es la clasificación de problemas, similar a la tabla
periódica, de acuerdo a su dificultad. En esta clasificación los problemas se separan
por clases de complejidad.

Esta teoría tiene aplicación en casi todas las áreas de conocimiento donde se desee
resolver un problema computacionalmente, porque los investigadores no solo
desean utilizar un método para resolver un problema, sino utilizar el más rápido. La
teoría de la complejidad computacional también tiene aplicaciones en áreas como
la criptografía, donde se espera que descifrar un código secreto sea un problema
muy difícil a menos que se tenga la contraseña, en cuyo caso el problema se vuelve
fácil.

Otras subramas

Modelos de cómputo Estudia abstracciones de hacer un cómputo. Aquí se


incluyen los clásicos modelos de la teoría de autómatas además de otros modelos
como funciones recursivas, cálculo lambda e inclusive lenguajes de programación.

Teoría algorítmica de la información Centra su atención en la complejidad para


describir algorítmicamente una secuencia de datos (cadena); aquí la complejidad
está medida por la longitud de su descripción más pequeña.

Especificación y verificación formal Busca metodologías para garantizar que un


problema esté correctamente modelado y sistemas formales para validar la
corrección de la solución algorítmica.

La Teoría del aprendizaje computacional busca algoritmos que hagan que las
computadoras modifiquen sus comportamientos de manera autónoma con base en
datos empíricos, y concretamente en ejemplos y contraejemplos. A este tipo de
aprendizaje se le llama aprendizaje supervisado. De forma análoga a la teoría de la
complejidad computacional, en esta teoría las funciones se clasifican por su grado
de dificultad de ser aprendidas.

Teoría de tipos Busca la clasificación de enunciados de acuerdo a los tipos de


valores que calculan utilizando herramientas de teoría de lenguajes formales.
Historia

La teoría de la computación comienza propiamente a principios del siglo XX, poco


antes que las computadoras electrónicas fuesen inventadas. En esta época varios
matemáticos se preguntaban si existía un método universal para resolver todos los
problemas matemáticos. Para ello debían desarrollar la noción precisa de método
para resolver problemas, es decir, la definición formal de algoritmo.

Algunos de estos modelos formales fueron propuestos por precursores como


Alonzo Church (cálculo Lambda), Kurt Gödel (funciones recursivas) y Alan Turing
(máquina de Turing). Se ha mostrado que estos modelos son equivalentes en el
sentido de que pueden simular los mismos algoritmos, aunque lo hagan de maneras
diferentes. Entre los modelos de cómputo más recientes se encuentran los
lenguajes de programación, que también han mostrado ser equivalentes a los
modelos anteriores; esto es una fuerte evidencia de la conjetura de Church-Turing,
de que todo algoritmo habido y por haber se puede simular en una máquina de
Turing, o equivalentemente, usando funciones recursivas. En 2007 Nachum
Dershowitz y Yuri Gurevich publicaron una demostración de esta conjetura
basándose en cierta axiomatización de algoritmos.1

Uno de los primeros resultados de esta teoría fue la existencia de problemas


imposibles de resolver algorítmicamente, siendo el problema de la parada el más
famoso de ellos. Para estos problemas no existe ni existirá ningún algoritmo que los
pueda resolver, no importando la cantidad de tiempo o memoria se disponga en una
computadora. Asimismo, con la llegada de las computadoras modernas se constató
que algunos problemas resolubles en teoría eran imposibles en la práctica, puesto
que dichas soluciones necesitaban cantidades irrealistas de tiempo o memoria para
poderse encontrar.