Академический Документы
Профессиональный Документы
Культура Документы
Ir a la navegaci�nIr a la b�squeda
�Deep web� redirige aqu�. Para el documental, v�ase Deep Web (documental).
�ndice
1 Origen
2 Tama�o
3 Motivos
4 Denominaci�n
5 Internet acad�mica invisible
5.1 Tama�o de la Internet acad�mica invisible.
6 Rastreando la internet profunda
7 M�todos de profundizaci�n
7.1 Las ara�as (web crawlers)
7.2 Tor
7.3 Criptomoneda
8 Recursos de la internet profunda
9 V�ase tambi�n
10 Referencias
11 Enlaces externos
Origen
La principal causa de la existencia de la internet profunda es la imposibilidad de
los motores de b�squeda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran
parte de la informaci�n existente en Internet. Si los buscadores tuvieran la
capacidad para acceder a toda la informaci�n entonces la magnitud de la �internet
profunda� se reducir�a casi en su totalidad. No obstante, aunque los motores de
b�squeda pudieran indexar la informaci�n de la internet profunda esto no
significar�a que esta dejara de existir, ya que siempre existir�n las p�ginas
privadas. Los motores de b�squeda no pueden acceder a la informaci�n de estas
p�ginas y s�lo determinados usuarios, aquellos con contrase�as o c�digos
especiales, pueden hacerlo.
En la Deep Web pueden establecerse contactos que no son monitoreados, nadie est�
all� observando. Adem�s las transferencias tanto de mercanc�a como de pagos son
pr�cticamente imposible de rastrear. La web est� dividida en dos partes, la web
superficial y la web profunda. Esta �ltima es la que se conoce como Deep Web, donde
se ubica todo contenido que no es indexable por los buscadores, o al que los
usuarios no pueden acceder mediante un buscador web como DuckDuckGo, Startpage,
Yandex, Ecosia, Yahoo!, Google o Bing.
Tama�o
La internet profunda es un conjunto de sitios web y bases de datos que buscadores
comunes no pueden encontrar ya que no est�n indexadas. El contenido que se puede
hallar dentro de la internet profunda es muy amplio.7?
Mientras que las p�ginas normales son identificadas mediante el protocolo UDP/IP,
las p�ginas .onion son repetidas por el ramal al que se ha conectado el navegador
especializado para tal sistema de navegaci�n segura. El sistema de b�squeda es el
mismo que usa BitTorrent. El contenido se coloca en una base de datos y se
proporciona s�lo cuando lo solicite el usuario.8?
Tambi�n en 2010 se estim� que exist�an m�s de 200 000 sitios en la internet
profunda.9?
La Association for Computing Machinery (ACM) public� en 2007 que Google y Yahoo
indexaban el 32 % de los objetos de la internet profunda, y MSN ten�a la cobertura
m�s peque�a con el 11 %. Sin embargo, la cobertura de los tres motores era de 37 %,
lo que indicaba que estaban indexando casi los mismos objetos.11?
Motivos
Motivos por los que los motores de b�squeda no pueden indexar algunas p�ginas:
Otro uso temprano del t�rmino Web Invisible o web profunda fue por Bruce Monte y
Mateo B. Koll de Personal Library Software, en una descripci�n de la herramienta @
1 de web profunda, en un comunicado de prensa de diciembre de 1996.15?
El primer uso del t�rmino espec�fico de web profunda, ahora generalmente aceptada,
ocurri� en el estudio de Bergman de 2001 mencionado anteriormente.
Por otra parte, el t�rmino web invisible se dice que es inexacto porque:
[...] datos que se generan en tiempo real, como pueden ser valores de Bolsa,
informaci�n del tiempo, horarios de trenes.
Tor
Art�culo principal: Tor (red de anonimato)
Logo de Tor
The Onion Router (abreviado como TOR) es un proyecto dise�ado e implementado por la
marina de los Estados Unidos lanzado el 20 de septiembre de 2002. Posteriormente
fue patrocinado por la EFF (Electronic Frontier Foundation, una organizaci�n en
defensa de los derechos digitales). Al presente (2019), subsiste como TOR Project,
una organizaci�n sin �nimo de lucro galardonada en 2011 por la Free Software
Foundation por permitir que millones de personas en el mundo tengan libertad de
acceso y expresi�n en internet manteniendo su privacidad y anonimato.21?
A diferencia de los navegadores de internet convencionales, Tor le permite a los
usuarios navegar por la Web de forma an�nima. Tor es descargado de 30 millones a 50
millones de veces al a�o, hay 0,8 millones de usuarios diarios de Tor y un
incremento del 20 % solamente en 2013. Tor puede acceder a unos 6 500 sitios web
ocultos.22?
El contenido que puede ser encontrado dentro de la internet profunda es muy vasto,
se encuentran por ejemplo, datos que se generan en tiempo real, como pueden ser
valores de Bolsa, informaci�n del tiempo, horarios de trenes, bases de datos sobre
agencias de inteligencia, disidentes pol�ticos y contenidos criminales.19?
Criptomoneda
Art�culo principal: Criptomoneda
Vale la pena acotar que salvo por excepciones de algunos mercados como Silk Roads,
The Trade Route, o Wall Street Market, la mayor parte del comercio en la deep web
se constituye a base de ofertas enga�osas y fraudes en general, existe una gran
tendencia a satanizar a comunidades que buscan la libertad de expresi�n y el
anonimato, en el mundo hispano-hablante esta tendencia fue originada por blogueros
y youtubers que lejos de informar a las comunidades buscan crear esc�ndalos
amarillistas para obtener ingresos por conceptos de publicidad de sistemas como
Adsense. En los �ltimos a�os se ha demostrado que el Bitcoin no es una criptomoneda
segura cuando se trata de la confidencialidad de los datos de sus usuarios, motivo
por el cual tendr�a poco sentido utilizarla en redes de anonimato como Tor,
Freenet, o I2P, cuyos usuarios intentan alcanzar el cl�max del anonimato, por lo
cual no se puede descartar tampoco la intervenci�n de empresas propagandistas que
intentan aumentar el valor de mercado del bitcoin.
Contenido de acceso limitado: los sitios que limitan el acceso a sus p�ginas de una
manera t�cnica (Por ejemplo, utilizando el est�ndar de exclusi�n de robots o
captcha, que proh�ben los motores de b�squeda de la navegaci�n por y la creaci�n de
copias en cach�.24?
Contenido din�mico: las p�ginas din�micas que devuelven respuesta a una pregunta
presentada o acceder a trav�s de un formulario, especialmente si se utilizan
elementos de entrada en el dominio abierto como campos de texto.
Contenido no enlazado: p�ginas que no est�n conectadas con otras p�ginas, que
pueden impedir que los programas de rastreo web tengan acceso al contenido. Este
material se conoce como p�ginas sin enlaces entrantes.
Contenido programado: p�ginas que solo son accesibles a trav�s de enlaces
producidos por JavaScript, as� como el contenido descargado de manera din�mica a
partir de los servidores web a trav�s de soluciones de Flash o Ajax.
Sin contenido HTML: contenido textual codificado en multimedia (imagen o video)
archivos o formatos de archivo espec�ficos no tratados por los motores de b�squeda.
Web privada: los sitios que requieren de registro y de una contrase�a para iniciar
sesi�n
Web contextual: p�ginas con contenidos diferentes para diferentes contextos de
acceso (por ejemplo, los rangos de direcciones IP de clientes o secuencia de
navegaci�n anterior).
V�ase tambi�n
.onion
I2P
Darknet
The Hidden Wiki
Referencias
�internet profunda, mejor que Deep Web.� (�Aunque es posible emplear tanto el
masculino como el femenino, la forma femenina es la que de hecho est� m�s extendida
con gran diferencia.�). Fundeu. Consultado el30 de marzo de 2016.
Devine, Jane; Egger-Sider, Francine (julio de 2004). �Beyond google: the invisible
web in the academic library�. The Journal of Academic Librarianship 30 (4): 265-
269. doi:10.1016/j.acalib.2004.04.010. Consultado el 6 de febrero de 2014.
Raghavan, Sriram; Garcia-Molina, Hector (11-14 de septiembre de 2001). �Crawling
the Hidden Web�. 27th International Conference on Very Large Data Bases (Roma,
Italia).
�'Deep web': gu�a b�sica para saber qu� es y c�mo se usa�. El Pa�s. 2016.
Consultado el 2017.
Wright, Alex (22 de febrero de 2009). �Exploring a 'Deep Web' That Google Can�t
Grasp�. The New York Times. Consultado el 23 de febrero de 2009.
Lewandowski, Exploring the academic invisible web (11 de noviembre de 2013).
Library Hi Tech (en ingl�s). �the Academic Invisible Web (AIW). We define the
Academic Invisible Web as consisting of all databases and collections relevant to
academia but not searchable by the general-purpose internet search engines.�
Grossman, Lev (11 de noviembre de 2013). �The Deep Web.�. Time (en ingl�s).
Consultado el 28 de octubre de 2014. �Technically the Deep Web refers to the
collection of all the websites and databases that search engines like Google don't
or can't �ndex�.
Iffat, Rabia (1 de octubre de 2010). �Understanding the Deep Web�. Library
Philosophy and Practice 2010 (en ingl�s). Consultado el 28 de octubre de 2014.
�Surface Web is made up of static and fixed pages, whereas Deep Web is made up of
dynamic pages. Static pages do not depend on a database for their content. They
reside on a server waiting to be retrieved, and are basically html files whose
content never changes.�
Iffat, Rabia (1 de octubre de 2010). �Understanding the Deep Web�. Library
Philosophy and Practice 2010 (en ingl�s). Consultado el 28 de octubre de 2014.
�Public information on the Deep Web is currently 400-550 times larger than the
commonly-defined World Wide Web. The Deep Web contains 7,500 terabytes of
information, compared to 19 on the Surface Web. Deep Web contains nearly 550
billion individual documents compared to one billion on the Surface Web. More than
200,000 Deep Web sites presently exist.�
DeepWeb.
He, Bin (1 de mayo de 2007). �Ebscohost.�. Communications of the ACM (en ingl�s).
Consultado el 29 de octubre de 2014. �Google and Yahoo both indexed 32% of the deep
Web objects, and MSN had the smallest coverage of 11%. However, there was
significant overlap in what they covered: the combined coverage of the three
largest search engines increased only to 37%, indicating they were indexing almost
the same objects.�
Grossman, Lev; Newton-Small, Roy & Stampler (noviembre de 2013). �The Deep Web�.
Time 182 (20).
Bergman, Michael K. �White Paper: The Deep Web: Surfacing Hidden Value� (en
ingl�s). Consultado el 30 de octubre de 2014.
Garcia, Frank (enero de 1996). �Business and Marketing on the Internet�. Masthead
9 (1). Archivado desde el original el 5 de diciembre de 1996. Consultado el 24 de
febrero de 2009.
@1 comenz� con 5.7 terabytes de contenido, estimado en 30 veces el tama�o de la
naciente World Wide Web; PLS fue adquirida por AOL en 1998 y @1 fue abandonado.�PLS
introduce AT1, el servicio de la primera "segunda generaci�n" de b�squeda en
internet�. Personal Library Software. diciembre de 1996. Archivado desde el
original el 21 de octubre de 1997. Consultado el 24 de febrero de 2009.
Llanes Vilaragut, Lourdes & Su�rez Carro, Juan R. �Para acceder al web profundo:
conceptos y herramientas�. Archivado desde el original el 30 de octubre de 2014.
Consultado el 30 de octubre de 2014.
Bergman, Michael K. (2001-8). �The Deep Web: Surfacing Hidden Value�. Journal of
Electronic Publishing 7 (1). ISSN 1080-2711. Consultado el 11 de marzo de 2019.
Madhavan, Jayant; Ko, David; Kot, Lucja; Ganapathy, Vignesh; Rasmussen, Alex &
Havely, Alon. �Google�s DeepWeb Crawl� (en ingl�s). Consultado el 30 de octubre de
2014.
Salazar, Idoia �El inmenso oc�ano del Internet profundo.� 20 de octubre de 2005.
El Pa�s (Madrid). Consultado el 29 de octubre de 2014.
Iffat, Rabia (1 de octubre de 2010). �Understanding the Deep Web�. Library
Philosophy and Practice 2010 (en ingl�s). Consultado el 28 de octubre de 2014. �The
content of the Deep Web is rarely shown in a search engine result, since the search
engine spiders do not crawl into databases and extract the data. These spiders can
neither think nor type, but jump from link to link. As such, a spider cannot enter
pages that are password protected. Web page creators who do not want their page
shown in search results can insert special meta tags to keep the page from being
indexed. Spiders are also unable to pages created without the use of html, and also
links that include a question mark. But now parts of the Deep Web with non-html
pages and databases with a question mark in a stable URL are being indexed by
search engines, with non-html pages converted to html. Still, it is estimated that
even the best search engines can access only 16 percent of information available on
the Web. There are other Web search techniques and technologies that can be used to
access databases and extract the content.�
Becerra Guti�rrez Juan Armando. �Mitos y realidades de la internet profunda�.
Consultado el 30 de octubre de 2014.
Grossman, Lev (11 de noviembre de 2013). �The Deep Web.�. Time (en ingl�s).
Consultado el 28 de octubre de 2014. �Unlike conventional Internet browsers, Tor's
allows users to surf the Web anonymously. Tor is downloaded 30 million-50 million
times a year. There are 800,000 daily Tor users?a jump of 20% in the past year. Tor
can access 6,500 hidden websites.�
Grossman, Lev (11 de noviembre de 2013). �The Deep Web.�. Time (en ingl�s).
Consultado el 28 de octubre de 2014. �Bitcoin�.
�Hypertext Transfer Protocol (HTTP/1.1): Caching.� (en ingl�s). junio de 2014.
Consultado el 30 de octubre de 2014.
Enlaces externos
�Las profundidades del mar de internet�, art�culo en el sitio web CNN Expansion
(Atlanta).
Tor Project, sitio oficial del proyecto TOR.
Hidden Wiki, Deep Web Links.
Deep Web para Todos, grupo de discusiones sobre la Deep Web.
TOR, el oscuro mundo de la internet profunda @efe_tec
La verdad sobre la Deep Web Web de hackers e inform�ticos.
Categor�a: World Wide Web