Вы находитесь на странице: 1из 7

Diapositiva 2

El nombre Internet procede de las palabras en inglés Interconnected Networks, que significa
“redes interconectadas”. Uno lo podría comparar como la unión de todas las redes y
computadoras distribuidas por todo el mundo, por lo que se podría definir como una red
global en la que se conjuntan todas las redes que utilizan protocolos TCP/IP y que son
compatibles entre sí.
La familia de protocolos de Internet es un conjunto de protocolos de red en los que se basa
Internet y que permiten la transmisión de datos entre computadoras. Tenemos algunos como
lo son:
TCP: Protocolo de control de transmisión que asegura que los datos que emite el cliente sean
recibidos por el servidor sin errores y en el mismo orden que fueron emitidos.
IP: Protocolo de Internet, Los datos en el protocolo IP están organizados en mensajes. Estos
mensajes se denominan muchas veces paquetes y algunas veces datagramas, pero en términos
sencillos todos ellos se refieren más o menos al mismo concepto. Cada datagrama IP incluye
tanto una cabecera (que especifica origen, destino, y otra información acerca de los datos)
como los propios datos del mensaje.
Hay otros como:
ARP: protocolo de resolución de direcciones, para encontrar la dirección física (MAC)
correspondiente a una determinada IP.
FTP: protocolo de transferencia de archivos, popular en la transferencia de archivos.
HTTP: protocolo de transferencia de hipertexto, que es popular porque se utiliza para acceder
a las páginas web. Define la sintaxis y la semántica que utilizan los elementos de software de
la arquitectura web (clientes, servidores, proxies) para comunicarse.
Telnet (Telecommunication Network), para acceder a equipos remotos.
Internet no es sólo World Wide Web, ésta es uno de los muchos servicios ofertados en la red
Internet, aunque sí es quizás el más novedoso y atractivo; también conocida como Web o
www, en ella podemos combinar textos (a través de documentos hipertextos), sonidos,
imágenes y animaciones, gracias a los enlaces (links) que desde sus documentos establecen
con otros documentos o ficheros (URL) que se encuentran en la red Internet. Otros servicios
que se prestan son intercambiar o transferir archivos (FTP), acceso remoto a otras
computadoras (Telnet), leer e interpretar archivos de computadoras de otro lugar (Gopher),
intercambiar mensajes de correo electrónico (e-mail), grupos de discusión, conversaciones
en línea (IRC o chat), acceder a foros de debate y grupos de noticias (news), entre otros.
Diapositiva 3
Nada más terminar la II Guerra Mundial, las dos superpotencias, Estados Unidos y la antigua
Unión Soviética, dejaron de ser aliadas y se enzarzaron en la llamada “guerra fría”, que no
finalizó hasta la caída del muro de Berlín (9-XI-1989). A pesar de que esta “guerra fría”
nunca desembocó en un enfrentamiento armado entre ambas superpotencias, sí que ocasionó
decenas de conflictos bélicos en países satélites de ellas y se estima que estas guerras locales
ocasionaron más de un millón de muertes.
A finales de los sesenta, la situación seguía bastante tensa y, además, la entrada en juego de
los misiles intercontinentales había introducido un nuevo factor en ese escalofriante juego.
Ambos ejércitos tenían claro que, si se producía una escalada bélica entre ellos, algo no
descartable, ni mucho menos, el inicio del ataque vendría marcado por un masivo
lanzamiento de misiles.
Ahora bien, ¿cómo enfrentarse a una situación de esas características? Resultaba evidente
que la velocidad de reacción era una cuestión primordial. Era necesario detectar los misiles
nada más ser lanzados y preparar el contraataque que permitiese destruirlos en pleno vuelo…
y sólo se disponía de minutos, no de horas o de días.
Era imposible que los seres humanos se encargaran de esa misión. La única forma fiable de
intentar detener un ataque con misiles era dejando que los ordenadores actuasen y, para ello,
debían estar interconectados, comunicándose entre sí.
¿Y cómo conectar los equipos de una red de ordenadores? Si miramos las redes de
ordenadores que hay en las empresas y universidades, comprobaremos que la práctica
totalidad son centralizadas. En otras palabras, cuando nos comunicamos con otro ordenador
de nuestra red, nuestra información pasa por un ordenador central que la reenvía al ordenador
de destino. Sin embargo, esta modalidad de red, tan común en el ámbito profesional, no era
del agrado de los militares.
¿Por qué? Porque si un misil acertaba en el lugar donde estaba el ordenador central y lo destru
ía, la red quedaría inoperante. ¿Y por qué no colocar dos ordenadores centrales y así se
disponía de más seguridad? Desde luego que sí, pero, ¿por qué no tres o cuatro o …? En
realidad, ¿por qué no hacer que todos los ordenadores sean centrales? Dicho con otras
palabras, ¿no sería más efectivo hacer que la red careciese de nodos centrales? De esta forma,
aunque algún equipo fuese dañado, la información podría circular entre los restantes… ¡Y
ésa, precisamente, es la medida que se adoptó1!
Diapositiva 4
Así, en 1969 se estableció ARPANET, realizado por ARPA (Advanced Research Project
Agency, agencia de proyectos de investigación avanzada), liderada por el doctor Lawrence
Roberts del MIT. ARPANET fue la primera red sin nodos centrales, de la que formaban parte
cuatro universidades estadounidenses: Universidad de California Los Angeles (UCLA),
Universidad de California Santa Barbara (UCSB), Universidad de Utah y Stanford Research
Institute (SRI) (figura 1). La primera transmisión tuvo lugar el 29 de octubre de 1969, entre
UCLA y SRI. La prueba de envío de información se realizó transmitiendo la palabra "Login",
aunque en principio solamente se logró enviar las dos primeras letras, puesto que el sistema
falló, siendo de esta forma "Lo" el primer mensaje transmitido por la red ARPANET. Tras
lo sarreglos oportunos, una hora más tarde se consiguió enviar el mensaje correctamente. El
5 de diciembre de 1969 los cuatro nodos iniciales se encontraban interconectados y
operativos.

Diapositiva 5
En 1971 ya había 15 nodos3 y, en 1973, ARPANET se internacionalizó, con la incorporación
de la Universidad College of London (Gran Bretaña) y NORSAR (Norwegian Seismic Array,
Noruega).
Diapositiva 6
Para la correcta interconexión de los diferentes ordenadores era necesario resolver algunos
detalles técnicos y aspectos relativos a la programación. Del mismo modo, se hizo necesario
establecer un patrón para los canales de comunicación (apertura, transmisión de datos y
cierre). En 1982, ARPA declaró como estándar el protocolo TCP/IP (Transfer Control
Procotol/Internet Protocol) y es entonces cuando aparece la primera definición de internet.
Al año siguiente, 1983, el ministerio de Defensa USA consideró oportuno abandonar
ARPANET y establecer una red independiente bajo su control absoluto (MILNET). De los
113 nodos que conformaban ARPANET en ese momento, 68 pasaron a la nueva red militar;
a los restantes, se fueron uniendo cada vez más centros de todo el mundo, y apareciendo otras
redes como la EARN en Europa.
Por esta época, también se crea el sistema de denominación de dominios (DNS, Domain
Name System), que básicamente son aquellas identificaciones que valga la redundancia, nos
permiten tener una identificación en internet, que sea más fácil de memorizar que una IP.
Basicamente es una secuencia de caracteres que sustituye a las direcciones numéricas. Por
ejemplo, www.vicentetrigo.com
La segunda parte del nombre (la que va tras el punto) se denomina dominio principal y puede
ser de dos tipos:
 Genérico o internacional: Formado por tres letras. Así, por ejemplo, com (comercio
y particulares), gov (organismos gubernamentales EEUU), net (entidades
relacionadas con Internet), etc.
 Territorial o de primer nivel: Formado por dos letras, corresponden a cada país. Así,
por ejemplo, es (España), uk (Reino Unido), etc.
.co es el dominio de nivel superior en Internet (ccTLD) asignado a Colombia, el cual apreció
en 1991. Es administrado desde 2009 por .CO Internet S.A.S., empresa concesionaria del
Ministerio de Tecnologías de la Información y Comunicaciones (MinTIC), La aprobación de
la re-delegación del .CO fue recibida el 9 de diciembre de 2009 por parte del ICANN y el 23
de diciembre obtuvo la confirmación de la solicitud por parte del departamento de comercio
de los Estados Unidos. Anteriormente los dominios .CO eran administrados por la
Universidad de los Andes. La razón para la elección de esta institución se basó en su
capacidad operativa que había sido probada con su operación del primer nodo (ANDESCOL)
de la Red Universitaria Colombiana y por su participación en las primeras actividades de
divulgación de la Internet Society (ISOC) desde 1992.
Diapositiva 7
Licenciado en la Universidad de Oxford, Berners- Lee trabajó en el CERN (Laboratorio
Europeo de Física de las Partículas) y, en los ochenta, comenzó a dice ñar un programa,
Enquire, que permitiera almacenar y recuperar información mediante asociaciones no
deterministas. Partiendo de ese programa, en octubre de 1990 emprendió la elaboración del
HTML6, que permite combinar texto, imágenes y establecer enlaces a otros documentos.
También es creación suya el primer servidor World Wide Web y el primer programa cliente
WorldWideWeb. Al verano siguiente, puso su trabajo en Internet7 y, desde entonces, la Gran
Red Mundial (World Wide Web) ha ido extendiéndose de forma exponencial.
Diapositiva 9
Como ya sabemos, cualquiera de las páginas Web que visualizamos al navegar por Internet
es un documento HTML almacenado en un servidor, que está conectado a la WWW. Sin
embargo, cuando accedemos a una página Web publicada en Internet, no vemos su código
HTML sino su contenido, pues un programa se ha encargado de leer el código, ejecutarlo y
mostrar la página Web correspondiente. A cualquier programa de estas carácterísticas, como
Internet Explorer, Navigator Netscape, Opera, etc., se le denomina browser.
Al no ser muy sugerentes las traducciones literales, con el tiempo se acabó identificando el
programa líder con el programa genérico y, como en aquellos años el número uno del
mercado era Navigator Netscape, se popularizaron los términos .navegador. y .navegar. para
referirse a cualquier browser y a la acción de visitar páginas Web. En 1994 la empresa
Netscape lanzó su navegador, tomando como base Mosaic (Este navegador web fue creado
en enero de 1993, en el National Center for Supercomputing Applications (NCSA), por Marc
Andreessen de la Universidad de Ilinois)
En abril de 1994 como un pasatiempo juvenil. Dos estudiantes de Ingeniería Eléctrica en la
Universidad de Stanford, David Filo y Jerry Yang (figura 11), pasaban su tiempo libre
navegando por Internet y, para organizarse un poco, fueron archivando las direcciones que
más les gustaban, agrupándolas por temas y asi nace Yahoo, A finales de año ya recibía casi
el millón visitas diarias
Diapositiva 10
1971 primer correo: Ocurrió en Cambridge, Massachusetts, y dicho correo viajó por la red
ARPANET, que fue la precursora de Internet. Ray Tomlinson trabajaba para Bolt, Beranek
and Newman (actualmente BBN Technologies), la compañía escogida por el Departamento
de Defensa de Estados Unidos para construir ARPANET, y a finales del verano de 1971,
estaba experimentando con dos programas llamados SNDMSG y READMAIL.
Estos programas ideados en la década de los 60, posibilitaban a los usuarios dejar mensajes
en el mismo ordenador para que lo vieran posteriormente otras personas. SNDMSG permitía
componer, escribir una dirección y enviar mensajes a buzones de correo de otras personas
empleando el mismo ordenador.
Tomando un concepto similar al de estos programas, Ray elaboró un tercer software
denominado CYPNET, que permitía a los usuarios mandar y recibir ficheros entre diferentes
ordenadores. Eso sí, el contenido del primer correo electrónico resultó ser un poco anodino,
ya que fue algo así como “QWERTYUIOP” (el verdadero texto se desconoce). Creo el arroba
(at: en) que diferencia los correos de otros ordenadores a los del mismo ordenador.
Diapositiva 12
La inteligencia artificial (Artificial Intelligence, o AI) es la simulación de procesos de
inteligencia humana por parte de máquinas, especialmente sistemas informáticos.
 Alan Mathison Turing, OBE (Paddington, Londres, 23 de junio de 1912-Wilmslow,
Cheshire, 7 de junio de 1954), fue un matemático, lógico, científico de la
computación, criptógrafo, filósofo, maratoniano y corredor de ultra distancia
británico. Es considerado uno de los padres de la ciencia de la computación y
precursor de la informática moderna. Proporcionó una influyente formalización de
los conceptos de algoritmo y computación.
 En 1936 Alan Turing publicó un artículo de bastante repercusión sobre los
"Números Calculables", un artículo que estableció las bases teóricas para todas las
ciencias de computación, y que puede considerarse el origen oficial de la informática
teórica. En este artículo introdujo el concepto de Máquina de Turing, una entidad
matemática abstracta que formalizó el concepto de algoritmo y resultó ser la
precursora de las computadoras digitales. Podía conceptualmente leer instrucciones
de una cinta de papel perforada y ejecutar todas las operaciones críticas de un
computador. El artículo fijó los límites de las ciencias de la computación porque
demostró que no es posible resolver problemas con ningún tipo de computador. Con
ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de
los que ningún ordenador será capaz de obtener su solución, por lo que se le considera
el padre de la teoría de la computabilidad.
 En 1940 Alan Turing y su equipo construyeron el primer computador
electromecánico
 En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo
Computing Machinery and Intelligence, en el que propuso una prueba concreta para
determinar si una máquina era inteligente o no, su famosa Prueba de Turing por lo
que se le considera el padre de la Inteligencia Artificial.
 2014: Un ordenador ha logrado superar con éxito el test de turing: Un ordenador ha
logrado superar con éxito el test de Turing haciendo creer a un interrogador que es
una persona quien responde sus preguntas- en un certamen organizado en Londres
por la Universidad de Reading (Reino Unido). El ordenador, con el programa Eugene
desarrollado en San Petersburgo (Rusia), se ha hecho pasar por un chico de 13 años,
y los responsables de la competición consideran que es un “hito histórico de la
inteligencia artificial”.

El internet de las cosas


Es un concepto que se refiere a la interconexión digital de objetos cotidianos con Internet. El
término “Internet de las Cosas” (IoT) fue empleado por primera vez en 1999 por el pionero
británico Kevin Ashton para describir un sistema en el cual los objetos del mundo físico se
podían conectar a Internet por medio de sensores. Ashton acuñó este término para ilustrar el
poder de conectar a Internet las etiquetas de identificación por radiofrecuencia (RFID)13
que se utilizaban en las cadenas de suministro corporativas para contar y realizar un
seguimiento de las mercancías sin necesidad de intervención humana. Hoy en día, el término
Internet de las Cosas se ha popularizado para describir escenarios en los que la conectividad
a Internet y la capacidad de cómputo se extienden a una variedad de objetos, dispositivos,
sensores y artículos de uso diario.
El uso del protocolo IP para conectar a Internet dispositivos que no son computadoras no es
una idea nueva. El primer “dispositivo” para Internet —una tostadora conectada vía IP que
se podía encender y apagar a través de Internet— se presentó en una conferencia sobre
Internet realizada en 1990.16 Durante los años siguientes se fueron conectando otras “cosas”
vía IP, entre ellas una máquina de refrescos17 en la Universidad Carnegie Mellon en Estados
Unidos y una cafetera18 en el Trojan Room de la Universidad de Cambridge en el Reino
Unido (que permaneció conectada a Internet hasta 2001).
¿Por qué su auge?
La conectividad generalizada, de bajo costo y alta velocidad, sobre todo a través de servicios
y tecnología inalámbricos con y sin licencia, hace que casi todo sea “conectable“.
Los avances logrados en la fabricación permiten incorporar tecnología de cómputo y
comunicaciones de vanguardia en objetos muy pequeños.23 Junto con una mayor economía
en la capacidad de cómputo, esto ha impulsado el desarrollo de sensores pequeños y de bajo
costo que a su vez impulsan muchas aplicaciones de la IoT.
La existencia de nuevos algoritmos y el rápido aumento de la potencia de cálculo, el
almacenamiento de datos y los servicios en la nube permiten agregar, correlacionar y analizar
grandes cantidades de datos. Estos conjuntos de datos grandes y dinámicos ofrecen nuevas
oportunidades para extraer información y conocimiento
La computación en la nube aprovecha recursos informáticos remotos conectados en red para
procesar, gestionar y almacenar datos. Este paradigma permite que dispositivos pequeños y
distribuidos interactúen con potentes sistemas de soporte que brindan capacidades analíticas
y de control.
Internet 0
Internet 0 (Internet cero) es un nivel o capa física de baja velocidad diseñada con el fin de
asignar “direcciones IP sobre cualquier cosa”. Fue desarrollado en el Centro de Bits y Átomos
del MIT por Neil Gershenfeld, Raffi Krikorian y Danny Cohen. Cuando se inventó, se
estaban barajando algunos otros nombres, y se nombró así para diferenciarlo del “Internet2”
o Internet de alta velocidad. El nombre fue elegido para enfatizar que se trataba de una
tecnología lenta, pero al mismo tiempo, barata y útil. En el prototipo desarrollado, las cosas
se podían conectar entre ellas a partir de una estructura espacial, que incluía la estructura
física, una red de datos y una red eléctrica.
Cualquier objeto es susceptible de ser conectado y «manifestarse» en la Red. Las etiquetas
RFID (radio frequency identification, en español, «identificación por radiofrecuencia») son
pequeños dispositivos, similares a una pegatina, que pueden ser adheridos a un producto,
persona o animal para almacenar información relevante y dinámica. Mediante
radiofrecuencia, la información viaja a un ordenador o dispositivo móvil con acceso a
Internet. Dicha información puede ser recibida por un usuario para su interpretación.
También existe la posibilidad de que el extremo final sea otra máquina que interprete los
datos y actúe según parámetros preestablecidos.

Вам также может понравиться