Вы находитесь на странице: 1из 243

braudicomputadora.webs.

com

braudicomputadora.webs.com

308-391 minutos

braudicomputadora.webs.com

creador de la web por: Braudi Arismendy Hernandez


Carrasco

que es braudicomputadora.webs.com

es una pagina web que habla sobre computadora y


habla sobre la cosa en informatica y ciberneticamente
esta pagina es desarrollado por
braudicomputadora.webs.com

Que es Adobe Flash Player

Flash Player es una aplicación informática englobada en


la categoría de reproductor multimedia. Fue creado
inicialmente por Macromedia y actualmente distribuido
por Adobe Systems.
Permite reproducir archivos en formato SWF, creados
con la herramienta Animate CC2 o Flex de la propia
Adobe, o con otras herramientas de terceros. Estos
archivos se reproducen en un entorno determinado. En
un sistema operativo tiene el formato de aplicación del
sistema, mientras que si el entorno es un navegador, su
formato es el de un complemento u objeto ActiveX.

Animate CC (antiguamente tenían el mismo nombre,


Flash) se refiere al programa de creación de
animaciones. Estrictamente hablando, Animate es el
entorno de creación, y Flash Player es el reproductor o
máquina virtual. Sin embargo, en lenguaje coloquial se
usaba el término Flash para referirse al entorno, al
reproductor e, incluso, a los archivos generados.

Flash Player tiene soporte para un lenguaje de


programación interpretado conocido como ActionScript
(AS) basado en el estándar ECMAScript. Desde su
origen AS ha pasado de ser un lenguaje muy básico a un
lenguaje avanzado con soporte de programación
orientada a objetos, comparable en funciones y uso al
lenguaje JavaScript (también basado en ECMAScript).3

Originalmente creado para mostrar animaciones


vectoriales en 2 dimensiones, ha pasado a convertirse
en la opción preferida a la hora de crear aplicaciones
Web que incluyen flujo de audio y video e interactividad.
La utilización de gráficos vectoriales le permite
disminuir el ancho de banda necesario para la
transmisión y, por ende, el tiempo de carga de la
aplicación.4

Flash Player está disponible para las versiones más


recientes de los navegadores más populares (Internet
Explorer, Safari, Opera, etcétera). El navegador Chrome
de Google no lo necesita porque distribuye su propia
versión con el programa.

Historial de versiones[editar]

A continuación se mencionarán las principales versiones


de Flash Player junto con su fecha de lanzamiento y sus
características principales.

Flash Player 2[editar]

Su fecha de lanzamiento fue en 1997.


Principalmente vectores en movimiento y algunos
gráficos rasterizados.
Sonido estéreo de forma limitada, integración de
mapas de bits mejorados, botones, la Biblioteca y la
capacidad de interpolar cambios de colores.

Flash Player 3[editar]

Su fecha de lanzamiento fue en 1998.


Añadida la transparencia alfa y la licencia de
compresión MP3 .
Mejoras a la animación, la reproducción y
publicación, así como la introducción de comandos
sencillos para obtener interactividad.

Flash Player 4[editar]

Fecha de aparición: mayo de 1999.

Dio paso a la introducción de streaming MP3 y a la


interpolación de movimiento. Inicialmente el plug-in de
Flash Player no fue incluido con los navegadores web
más populares y los usuarios tenían que visitar el sitio
web de Macromedia para descargarlo. A partir del año
2000, sin embargo, Flash Player empezó a ser
distribuido en los navegadores AOL, Netscape e Internet
Explorer. Dos años más tarde venía incluido como
complemento en todas las versiones de Windows XP. La
instalación del reproductor de Flash alcanzó el 92 por
ciento de los usuarios de Internet.5

Flash Player 5[editar]

Fecha de aparición: agosto de 2000.

Un gran paso adelante en sus características, con la


evolución de las capacidades de scripting de Flash, se
presenta como ActionScript. Agregó la posibilidad de
personalizar la interfaz del entorno de edición. Generator
de Macromedia fue la primera iniciativa de Macromedia
para el diseño independiente de contenido en archivos
Flash. Generator 2.0 fue lanzado en abril de 2001 y
muestra el contenido de Flash en tiempo real de
generación del servidor en su versión Enterprise Edition.
Generator se suspendió en 2002 a favor de las nuevas
tecnologías como Flash Remoting, que permite la
transmisión ininterrumpida de datos entre el servidor y
el cliente y el servidor ColdFusion. En octubre de 2000, el
gurú de la usabilidad Jakob Nielsen ha escrito un
artículo polémico sobre la usabilidad de los contenidos
Flash titulado "Flash 99% Bad". (Macromedia contrató a
Nielsen para ayudarles a mejorar la usabilidad de Flash.)

Flash Player 6[editar]

Fecha de aparición de la versión 6.0.21.0: marzo de


2001.
Apoyo al consumo de Flash Remoting (AMF) y
servicios Web (SOAP).
Apoyo ondemand / audio en vivo y video streaming
(RTMP).
Apoyo a los lectores de pantalla a través de
Microsoft Active Accessibility.
Añadido Sorenson chispa códec de vídeo de Flash
Video.
Soporte para video, componentes de aplicación,
librerías compartidas, y la accesibilidad.g
Macromedia Flash Communication Server MX,
también lanzado en 2002, permitió video para ser
escuchados en Flash Player 6 (de lo contrario el
video puede ser embebido en la película de Flash).

Flash Player 7[editar]

Apoyo ActionScript 2.0, Lenguaje de programación


orientado a objetos para los desarrolladores.
Capacidad para crear tablas, gráficos y efectos
adicionales de texto con el nuevo soporte para
extensiones (se vende por separado), la importación
de alta fidelidad de los archivos PDF y Adobe
Illustrator 10, móvil y el desarrollo de dispositivos y
un entorno de desarrollo basado en formularios.
ActionScript 2.0 también se introdujo, dando a los
desarrolladores un enfoque formal orientado a
objetos en ActionScript. Componentes V2 sustituirá
los componentes de Flash MX, siendo re-escrito
desde cero para aprovechar las características de
ActionScript 2.0 y principios orientados a objetos.
En 2004, la "plataforma Flash" fue introducida.
Ampliando el Flash de la herramienta de edición de
Flash. Flex 1.0 y 1.0 Brisa fueron liberados, los cuales
utilizan el Flash Player como un método de entrega,
pero se basó en otras herramientas que el programa
de edición de Flash para crear aplicaciones Flash y
presentaciones. Flash Lite 1.1 también fue lanzado,
permitiendo a los teléfonos móviles reproducir
contenido Flash.

Flash Player 8[editar]

Fecha de aparición de la versión 8.0.22.0: agosto de


2005.
Soporte para la carga en tiempo de ejecución de las
imágenes GIF y PNG.
Nuevo codec de vídeo (On2 VP6).
Mejora del rendimiento en tiempo de ejecución y de
mapa de bits en tiempo de ejecución de
almacenamiento en caché.
Filtros en vivo y blendmodes.
Carga de archivos y capacidad de descarga
Nuevo motor de procesamiento de texto.
Subsistema ExternalAPI introducido para reemplazar
fscommand ().

El 3 de diciembre de 2005, Adobe Systems adquirió los


productos de Macromedia (incluyendo Flash) .

Flash Player 9[editar]

Fecha de aparición de la versión 9.0.15.0: junio de


2006.
Nuevo motor de scripting ECMAScript, ActionScript
Virtual Machine AVM2. AVM1 se conserva por
compatibilidad.
ActionScript 3 a través de AVM2.
E4X, que es un nuevo enfoque de análisis XML.
Soporte para sockets binarios.
Soporte para expresiones regulares y espacios de
nombres.
ECMAScript 4 máquina virtual donada a la Fundación
Mozilla y el llamado Tamarin.

Flash Player 9 Update 1 Linux[editar]

Fecha de aparición de la versión 9.0.28.0: noviembre


de 2006.
Soporte para el modo de pantalla completa.

Flash Player 9 Update 2[editar]

Fecha de aparición de la versión 9.0.47.0 9.0.48.0:


julio de 2007.
Actualización de seguridad

Flash Player 9 Update 38[editar]

Fecha de aparición de la versión 9.0.115.0: diciembre


de 2007.
H.264
El perfil principal del AAC (HE-AAC, AAC y AAC LC-).
Nuevo formato de archivo Flash Video F4V basado
en la ISO Base Media File Format (MPEG-4 Parte 12).
Soporte para formatos de contenedor basado en los
medios de comunicación de archivos ISO [31].

Flash Player 10[editar]

Versión 10.0.12.36: octubre de 2009.

Nuevas características
Transformaciones de objetos 3D.
Filtros personalizados a través de Pixel Bender.
Soporte avanzado para texto.
Speex códec de audio.
Protocolo de flujo en los medios de comunicación en
tiempo real (RTMFP).
Generación de sonido dinámico.
Tipo de datos vectoriales.

Características mejoradas

Ampliar el soporte al mapa de bits.


Gráficos API de dibujo.
Menú contextual.
Aceleración de hardware.
Motor anti-aliasing (Saffron 3,1).
Lectura/escritura clipboard.
Wmode.

Adobe Flash Player 10.1[editar]

Versión 10.1.53.64: junio de 2010.


Reutilización de mapas de bits copiados para una
mejor gestión de memoria.
Implementado un recolector de basura.
Decodificación por hardware de video codificado con
H.264.
Flujo dinámico por HTTP.
Soporte para modos de privacidad.
API para soporte multitáctil.
Para OS X:
Uso de la interfaz Cocoa para Mac
Uso del contexto OpenGl de doble búfer para
pantalla completa.

Origen de Flash[editar]

Hasta la llegada de HTML5, mostrar el vídeo en una


página web requería que el navegador disponga del
plugin, que son los únicos ejecutados por terceros
proveedores. Prácticamente todos los plugins existentes
para vídeo son libres y multiplataforma, se incluye la
oferta de Adobe de Flash Video, el cual fue introducido
por primera vez con la versión de Flash 6. Flash Video ha
sido una opción popular para los sitios web debido a la
gran cantidad de usuarios que tienen instalada esta
tecnología y también a la capacidad de programación de
Flash.

En 2010, Apple criticó públicamente la aplicación de


Adobe Flash de reproducción de vídeo por no tomar
ventaja de la aceleración de hardware, además criticó
toda la tecnología Flash en general, argumentando que
no es un estándar abierto, y que afectaba el rendimiento
de las baterías de sus equipos, razones por las que no lo
incluirla en sus dispositivos móviles. Poco después de
las críticas de Apple, Adobe lanzó una versión beta de
Flash 10.1, que hace uso de la aceleración de hardware,
incluso en un Mac.

Flash Audio[editar]

El audio en Flash es más comúnmente codificado en


MP3 o AAC (Advanced Audio Coding).

Sin embargo, también es compatible con ADPCM,


códecs Nellymoser (Nellymoser Asao Codec) y Speex
audio.
Flash permite frecuencias de muestreo de 11, 22 y 44,1
kHz. No es compatible con frecuencias de muestreo de
audio de 48 kHz, que es el estándar de televisión y DVD.

El 20 de agosto de 2007, Adobe anunció en su blog que


con la actualización 3 de Flash Player 9, Flash Video
también soportaría algunas partes de la especificación
MPEG-4 de la normativa internacional. En concreto,
Flash Player tendrá soporte para video comprimido en H
0.264 (MPEG-4 Parte 10), para audio comprimido con
AAC (MPEG-4 Parte 3), el F4V, MP4 (MPEG-4 Parte 14),
M4V, M4A, 3GP y formatos de contenido multimedia
MOV, especificación de textos programados 3GPP
(MPEG-4 Parte 17), que es un formato normalizado de
subtítulos y soporta análisis parcial para «ilst atom, el
cual es el ID3 equivalente de iTunes utilizado para
almacenar los metadatos. MPEG-4 Parte 2 y H.263 no
soportan el formato de archivo F4V. Adobe también
anunció que se irá alejando del formato FLV para
acercarse al formato estándar ISO para multimedia
(MPEG-4 parte 12), debido a los límites funcionales de
FLV y el streaming de H.264. La versión final del
reproductor de Flash soportó algunas partes de los
estándares MPEG-4 que se encontró disponible en el
otoño de 2007.

Seguridad[editar]

Como cualquier aplicación que trata archivos recibidos


de Internet es susceptible a los ataques. Los archivos
especialmente elaborados podrían hacer que la
aplicación funcionara mal, permitiendo la ejecución
potencial de código maligno. No se tiene conocimiento
de problemas reales y concretos, pero el plug-in del
Player ha tenido defectos de seguridad que
teóricamente podrían haber puesto en peligro un
ordenador a los ataques remotos. No ha habido
(publicados) incidentes de seguridad desde entonces.
Flash Player es considerado seguro de usar,
especialmente cuando se compara con los navegadores
modernos y aplicaciones de uso.

Los archivos de aplicaciones Flash pueden ser


decompilados muy fácilmente en su código fuente y sus
valores. Hay disponibles varios programas que extraen
gráficos, sonido y código de programa a partir de
archivos SWF. Por ejemplo, un programa de código
abierto denominado Flasm permite a los usuarios
extraer ActionScript a partir de un archivo SWF como
máquina virtual de lenguaje intermedio ("bytecode"),
editarlo, y luego volverlo a insertar en el archivo. La
ofuscación de los archivos SWF hace prácticamente
imposible la extracción en la mayoría de los casos.

Críticas a Flash[editar]

Steve Jobs, co-fundador de Apple, se negó a incorporar


Flash en los productos iPhone, iPod y iPad. Las razones
que aducía eran las siguientes:6

1. Es un software 100% propietario, es decir, cerrado a


los aportes de terceros.
2. Hay un formato de video más moderno, H.264, que
está disponible en los citados dispositivos de Apple.
En cuanto a animación e interactividad HTML5 y
CSS3 ofrecen prestaciones similares sin necesidad
de plug ins propietarios.
3. Tiene un antiguo historial de problemas de
seguridad no resueltos.
4. Requiere decodificación por hardware, lo que puede
aumentar hasta en un 100% el uso de la batería de
dispositivos móviles.

Recientes bloqueos[editar]Mozilla Firefox[editar]

En julio de 2015, Mozilla Firefox se sumó a las críticas


hechas en torno a las vulnerabilidades explotadas por
los hackers que les permitían acceder de forma remota
a sus computadoras.

El presidente de Mozilla, Mark Schmidt, por medio de su


cuenta de Twitter informó que todas las versiones de
Flash serían desactivadas del navegador[cita requerida];
la mayoría de usuarios no notan el cambio, porque cada
vez menos sitios web utilizan Adobe Flash
Player.[cita requerida]

Google Chrome[editar]

Google Chrome terminó el soporte por posibles ataques


al grupo Hacking Team y ataques del día cero.7

Que es Joint Photographic Experts Group


conocido como JPEG

Joint Photographic Experts Group (JPEG), traducido al


español como Grupo Conjunto de Expertos en
Fotografía, es el nombre de un comité de expertos que
creó un estándar de compresión y codificación de
archivos e imágenes fijas. Este comité fue integrado
desde sus inicios por la fusión de varias agrupaciones
en un intento de compartir y desarrollar su experiencia
en la digitalización de imágenes. La ISO, tres años antes
(abril de 1983), había iniciado sus investigaciones en el
área.
Además de ser un método de compresión, es a menudo
considerado como un formato de archivo. JPEG/Exif es
el formato de imagen más común, utilizado por las
cámaras fotográficas digitales y otros dispositivos de
captura de imagen, junto con JPG/JFIF, que también es
otro formato para el almacenamiento y la transmisión de
imágenes fotográficas en la World Wide Web. Estas
variaciones de formatos a menudo no se distinguen, y
se llaman “JPEG”. Los archivos de este tipo se suelen
nombrar con la extensión .jpg.

Compresión del JPEG[editar]

Comparativa de calidad entre la imagen original,


comprimida en JPG (con pérdida) y comprimida en
WebP (con pérdida).

El formato JPEG utiliza habitualmente un algoritmo de


compresión con pérdida para reducir el tamaño de los
archivos de imágenes. Esto significa que al
descomprimir o visualizar la imagen no se obtiene
exactamente la misma imagen de la que se partía antes
de la compresión. Existen también tres variantes del
estándar JPEG que comprimen la imagen sin pérdida de
datos: JPEG 2000, JPEG-LS y Lossless JPEG.

El algoritmo de compresión JPEG se basa en dos


fenómenos visuales del ojo humano: uno es el hecho de
que es mucho más sensible al cambio en la luminancia
que en la crominancia; es decir, capta más claramente
los cambios de brillo que de color. El otro es que nota
con más facilidad pequeños cambios de brillo en zonas
homogéneas que en zonas donde la variación es grande,
por ejemplo en los bordes de los cuerpos de los objetos.

Una de las características del JPEG es la flexibilidad a la


hora de ajustar el grado de compresión. Un grado de
compresión muy alto generará un archivo de pequeño
tamaño, a costa de una pérdida significativa de calidad.
Con una tasa de compresión baja se obtiene una calidad
de imagen muy parecida a la del original, pero con un
tamaño de archivo mayor.

La pérdida de calidad cuando se realizan sucesivas


compresiones es acumulativa. Esto significa que si se
comprime una imagen y se descomprime, se perderá
calidad de imagen, pero si se vuelve a comprimir una
imagen ya comprimida se obtendrá una pérdida todavía
mayor. Cada sucesiva compresión causará pérdidas
adicionales de calidad. La compresión con pérdida no es
conveniente en imágenes o gráficos que tengan textos,
líneas o bordes muy definidos, pero sí para archivos que
contengan grandes áreas de colores sólidos.

Codificación[editar]

Muchas de las opciones del estándar JPEG se usan


poco. Esto es una descripción breve de uno de los
muchos métodos usados comúnmente para comprimir
imágenes cuando se aplican a una imagen de entrada
con 24 bits por pixel (ocho por cada rojo, verde, y azul, o
también dicho "8 bits por canal"). Esta opción particular
es un método de compresión con pérdida.

Transformación del espacio de color[editar]

Comienza convirtiendo la imagen desde su modelo de


color RGB a otro llamado YUV o YCbCr. Este espacio de
color es similar al que usan los sistemas de color para
televisión PAL y NTSC, pero es mucho más parecido al
sistema de televisión MAC (Componentes Analógicas
Multiplexadas).
Este espacio de color (YUV) tiene tres componentes:

La componente Y, o luminancia (información de


brillo); es decir, la imagen en escala de grises.
Las componentes U o Cb y V o Cr, respectivamente
diferencia del azul (relativiza la imagen entre azul y
rojo) y diferencia del rojo (relativiza la imagen entre
verde y rojo); ambas señales son conocidas como
crominancia (información de color).

Las ecuaciones que realizan este cambio de base de


RGB a YUV son las siguientes:

Y = 0,257 * R + 0,504 * G + 0,098 * B + 16 Cb = U = -0,148


* R - 0,291 * G + 0,439 * B + 128 Cr = V = 0,439 * R - 0,368
* G - 0,071 * B + 128

Las ecuaciones para el cambio inverso se pueden


obtener despejando de las anteriores y se obtienen las
siguientes:

B = 1,164 * (Y - 16) + 2,018 * (U - 128) G = 1,164 * (Y - 16)


- 0,813 * (V - 128) - 0,391 * (U - 128) R = 1,164 * (Y - 16) +
1,596 * (V - 128)

NOTA: Estas ecuaciones están en continua


investigación, por lo que se pueden encontrar en libros y
en la red otras ecuaciones distintas pero con
coeficientes muy parecidos.

Si se analiza el primer trío de ecuaciones veremos que


las tres componentes toman como valor mínimo el 16.
El canal de luminancia (canal Y) tiene como valor
máximo el 235, mientras que los canales de crominancia
el 240. Todos estos valores caben en un byte haciendo
redondeo al entero más próximo. Durante esta fase no
hay pérdida significativa de información, aunque el
redondeo introduce un pequeño margen de error
imperceptible para el ojo humano.

Submuestreo[editar]

Ligera explicación visual sobre el submuestreo. La


imagen de arriba a la izquierda es la original; las otras
sufren unos submuestreos de color agresivos que dan
idea de los efectos de esta técnica. Ampliar para mejor
visualización.

El algoritmo JPEG transforma la imagen en cuadrados


de 8×8 y luego almacena cada uno de estos como una
combinación lineal o suma de los 64 recuadros que
forman esta imagen; esto permite eliminar detalles de
forma selectiva. Por ejemplo, si una casilla tiene un valor
muy próximo a 0, puede ser eliminada sin que afecte
mucho a la calidad.

Una opción que se puede aplicar al guardar la imagen es


reducir la información del color respecto a la de brillo
(debido al fenómeno visual en el ojo humano comentado
anteriormente). Hay varios métodos: si este paso no se
aplica, la imagen sigue en su espacio de color YUV (este
submuestreo se entiende como 4:4:4), con lo que la
imagen no sufre pérdidas. Puede reducirse la
información cromática a la mitad, 4:2:2(reducir en un
factor de 2 en dirección horizontal), con lo que el color
tiene la mitad de resolución (en horizontal) y el brillo
sigue intacto. Otro método, muy usado, es reducir el
color a la cuarta parte, 4:2:0, en el que el color se reduce
en un factor de 2 en ambas direcciones, horizontal y
vertical. Si la imagen de partida estaba en escala de
grises (blanco y negro), puede eliminarse por completo
la información de color, quedando como 4:0:0.

Algunos programas que permiten el guardado de


imágenes en JPEG (como el que usa GIMP) se refieren a
estos métodos con 1×1,1×1,1×1para YUV 4:4:4 (no
perder color), 2×1,1×2,1×1 para YUV 4:2:2 y 2×2,1×1,1×1
para el último método, YUV 4:2:0.

Las técnicas algorítmicas usadas para este paso (para


su reconstrucción exactamente) suelen ser
interpolación bilineal, vecino más próximo, convolución
cúbica, Bezier, b-spline y Catmun-Roll.rh

Transformación discreta de coseno (DCT)[editar]

Cada componente de la imagen se divide en pequeños


bloques de 8×8 píxeles, que se procesan de forma casi
independiente, lo que disminuye notablemente el tiempo
de cálculo. De esto resulta la típica formación
cuadriculada, que se vuelve visible en las imágenes
guardadas con alta compresión. Si la imagen sufrió un
submuestreo del color, los colores quedarían en la
imagen final en bloques de 8×16 y 16×16 píxeles, según
fuese 4:2:2 o 4:2:0.

Después, cada pequeño bloque se convierte al dominio


de la frecuencia a través de la transformación discreta
de coseno, abreviadamente llamada DCT.

Un ejemplo de uno de esos pequeños bloques de 8×8


inicial es este:

{\displaystyle
{\begin{bmatrix}52&55&61&66&70&61&64&73
\\63&59&55&90&109&85&69&72
\\62&59&68&113&144&104&66&73
\\63&58&71&122&154&106&70&69
\\67&61&68&104&126&88&68&70
\\79&65&60&70&77&68&58&75
\\85&71&64&59&55&61&65&83
\\87&79&69&68&65&76&78&94\end{bmatrix}}}

El siguiente proceso es restarles 128 para que queden


números entorno al 0, entre -128 y 127.

{\displaystyle {\begin{bmatrix}-76&-73&-67&-62&-
58&-67&-64&-55\\-65&-69&-73&-38&-19&-43&-59&-
56\\-66&-69&-60&-15&16&-24&-62&-55\\-65&-70&-57&-
6&26&-22&-58&-59\\-61&-67&-60&-24&-2&-40&-60&-
58\\-49&-63&-68&-58&-51&-60&-70&-53\\-43&-57&-64&-
69&-73&-67&-63&-45\\-41&-49&-59&-60&-63&-52&-50&-
34\end{bmatrix}}}

Se procede a la transformación por DCT de la matriz, y el


redondeo de cada elemento al número entero más
cercano.

{\displaystyle {\begin{bmatrix}-415&-30&-61&27&56&-
20&-2&0\\4&-22&-61&10&13&-7&-9&5\\-47&7&77&-
25&-29&10&5&-6\\-49&12&34&-15&-10&6&2&2\\12&-
7&-13&-4&-2&2&-3&3\\-8&3&2&-6&-2&1&4&2\\-1&0&0&-
2&-1&-3&4&-1\\0&0&-1&-4&-1&0&1&2\end{bmatrix}}}

Nótese que el elemento más grande de toda la matriz


aparece en la esquina superior izquierda; este es el
coeficiente DC.

Cuantificación digital[editar]

"Antes de", en un bloquecillo 8×8 (ampliación ×16).

"Después de", en un bloquecillo 8×8, se notan errores


respecto a la primera imagen, como en la esquina
inferior izquierda, que está más clara.

El ojo humano es muy bueno detectando pequeños


cambios de brillo en áreas relativamente grandes, pero
no cuando el brillo cambia rápidamente en pequeñas
áreas (variación de alta frecuencia). Debido a esta
condición, se puede eliminar las altas frecuencias, sin
pérdida excesiva de calidad visual. Esto se realiza
dividiendo cada componente en el dominio de la
frecuencia por una constante para ese componente, y
redondeándolo a su número entero más cercano. Este
es el proceso en el que se pierde la mayor parte de la
información (y calidad) cuando una imagen es
procesada por este algoritmo. El resultado de esto es
que los componentes de las altas frecuencias, tienden a
igualarse a cero, mientras que muchos de los demás, se
convierten en números positivos y negativos pequeños.

Una matriz de cuantificación típica es la matriz de


Losheller que se usa opcionalmente en el estándar
JPEG:

{\displaystyle
{\begin{bmatrix}16&11&10&16&24&40&51&61
\\12&12&14&19&26&58&60&55
\\14&13&16&24&40&57&69&56
\\14&17&22&29&51&87&80&62
\\18&22&37&56&68&109&103&77
\\24&35&55&64&81&104&113&92
\\49&64&78&87&103&121&120&101
\\72&92&95&98&112&100&103&99\end{bmatrix}}}

Dividiendo cada coeficiente de la matriz de la imagen


transformada entre cada coeficiente de la matriz de
cuantificación, se obtiene esta matriz, ya cuantificada:

{\displaystyle {\begin{bmatrix}-26&-3&-6&2&2&-
1&0&0\\0&-2&-4&1&1&0&0&0\\-3&1&5&-1&-1&0&0&0
\\-4&1&2&-1&0&0&0&0\\1&0&0&0&0&0&0&0
\\0&0&0&0&0&0&0&0\\0&0&0&0&0&0&0&0
\\0&0&0&0&0&0&0&0\end{bmatrix}}}

Por ejemplo, cuantificando el primer elemento, el


coeficiente DC, sería así:

{\displaystyle \mathrm {round} \left({\frac {-415}


{16}}\right)=\mathrm {round} \left(-25.9375\right)=-
26}Codificación entrópica[editar]

La codificación entrópica es una forma especial de la


compresión sin pérdida de datos. Para ello se toman los
elementos de la matriz siguiendo una forma de zig-zag,
poniendo grupos con frecuencias similares juntos, e
insertando ceros de codificación, y usando la
codificación Huffman para lo que queda. También se
puede usar la codificación aritmética, superior a la de
Huffman, pero que rara vez se usa, ya que está cubierta
por patentes, esta compresión produce archivos un 5%
menores, pero a costa de un mayor tiempo de
codificación y decodificación, esta pequeña ganancia,
puede emplearse también en aplicar un menor grado de
compresión a la imagen, y obtener más calidad para un
tamaño parecido.

En la matriz anterior, la secuencia en zig-zag, es esta:


−26, −3, 0, −3, −2, −6, 2, −4, 1 −4, 1, 1, 5, 1, 2, −1, 1, −1, 2,
0, 0, 0, 0, 0, −1, −1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0

JPEG tiene un código Huffman para cortar la cadena


anterior en el punto en el que el resto de coeficientes
sean ceros, y así, ahorrar espacio:
−26, −3, 0, −3, −2, −6, 2, −4, 1 −4, 1, 1, 5, 1, 2, −1, 1, −1, 2,
0, 0, 0, 0, 0, −1, −1, EOB

Ruido producido por la compresión[editar]

Tras la compresión, suelen quedar a veces bloques


como estos, en este caso en un trozo de una imagen
ampliado.

El resultado tras la compresión, puede variar, en función


de la agresividad de los divisores de la matriz de
cuantización, a mayor valor de esos divisores, más
coeficientes se convierten en ceros, y más se comprime
la imagen. Pero mayores compresiones producen mayor
ruido en la imagen, empeorando su calidad. Una imagen
con una fuerte compresión (1%-15%) puede tener un
tamaño de archivo mucho menor, pero tendrá tantas
imperfecciones que no será interesante, una compresión
muy baja (98%-100%) producirá una imagen de muy alta
calidad, pero, tendrá un tamaño tan grande que quizás
interese más un formato sin pérdida como PNG.

La mayoría de personas que naveguen por Internet


estarán familiarizadas con estas imperfecciones, que
son el resultado de lograr una buena compresión. Para
evitarlas, se tendrá que reducir el nivel de compresión o
aplicar compresión sin pérdida, produciendo mayores
ficheros después.

Decodificación[editar]

El proceso de decodificación es similar al seguido hasta


ahora, sólo que de forma inversa. En este caso, al haber
perdido información, los valores finales no coincidirán
con los iniciales.

Se toma la información de la matriz, se decodifica, y se


pone cada valor en su casilla correspondiente. Después
se multiplica cada uno de estos valores por el valor
correspondiente de la matriz de cuantización usada,
como muchos valores son ceros, sólo se recuperan ( y
de forma aproximada) los valores de la esquina superior
izquierda.

Después se deshace la transformación DCT:

{\displaystyle {\begin{bmatrix}-416&-33&-60&32&48&-
40&0&0\\0&-24&-56&19&26&0&0&0\\-42&13&80&-
24&-40&0&0&0\\-56&17&44&-29&0&0&0&0
\\18&0&0&0&0&0&0&0\\0&0&0&0&0&0&0&0
\\0&0&0&0&0&0&0&0\\0&0&0&0&0&0&0&0
\end{bmatrix}}}{\displaystyle {\begin{bmatrix}-68&-65&-
73&-70&-58&-67&-70&-48\\-70&-72&-72&-45&-20&-
40&-65&-57\\-68&-76&-66&-15&22&-12&-58&-61\\-62&-
72&-60&-6&28&-12&-59&-56\\-59&-66&-63&-28&-8&-
42&-69&-52\\-60&-60&-67&-60&-50&-68&-75&-50\\-54&-
46&-61&-74&-65&-64&-63&-45\\-45&-32&-51&-72&-58&-
45&-45&-39\end{bmatrix}}}

Y finalmente se suma 128 a cada entrada:

{\displaystyle
{\begin{bmatrix}60&63&55&58&70&61&58&80
\\58&56&56&83&108&88&63&71
\\60&52&62&113&150&116&70&67
\\66&56&68&122&156&116&69&72
\\69&62&65&100&120&86&59&76
\\68&68&61&68&78&60&53&78
\\74&82&67&54&63&64&65&83
\\83&96&77&56&70&83&83&89\end{bmatrix}}}
Para comparar las diferencias entre el bloque original y
el comprimido, se halla la diferencia entre ambas
matrices, la media de sus valores absolutos, da una
ligera idea de la calidad perdida:

{\displaystyle {\begin{bmatrix}-8&-8&6&8&0&0&6&-
7\\5&3&-1&7&1&-3&6&1\\2&7&6&0&-6&-12&-4&6\\-
3&2&3&0&-2&-10&1&-3\\-2&-1&3&4&6&2&9&-6\\11&-
3&-1&2&-1&8&5&-3\\11&-11&-3&5&-8&-3&0&0\\4&-17&-
8&12&-5&-7&-5&5\end{bmatrix}}}

Se puede observar que las mayores diferencias están


cerca de la mancha, y por la parte inferior, entre la
esquina izquierda y el centro, notándose más esta
última, ya que corre una mancha clara que antes estaba
más hacia la esquina. La media de los valores absolutos
de las restas es 4.8125, aunque en algunas zonas es
mayor.

Portable Network Graphics conocido como un


Png

Portable Network Graphics (PNG) (siglas en inglés de


Gráficos de Red Portátiles, pronunciadas "ping") es un
formato gráfico basado en un algoritmo de compresión
sin pérdida para bitmaps no sujeto a patentes. Este
formato fue desarrollado en buena parte para solventar
las deficiencias del formato GIF y permite almacenar
imágenes con una mayor profundidad de contraste y
otros importantes datos.

Las imágenes PNG usan la extensión .png y han


obtenido un tipo MIME (image/png) aprobado el 14 de
octubre de 1996.
Detalles técnicos[editar]

Un archivo PNG empieza con una firma de 8 bytes, los


valores en hexadecimal son: 89 50 4E 47 0D 0A 1A 0A,
los valores decimales son: 137 80 78 71 13 10 26 10;
cada valor está ahí por una razón específica.1

[[PASTING TABLES IS NOT SUPPORTED]]Segmentos del


archivo[editar]

Después de la cabecera se encuentran una serie de


segmentos de los cuales cada uno guarda cierta
información acerca de la imagen. Los segmentos se
auto declaran como puntos críticos (critical) o auxiliares
(ancillary) de modo que un programa que encuentre un
segmento auxiliar y no lo entienda puede ignorarlo sin
peligro. La estructura basada en segmentos está
diseñada para poder ampliar el formato PNG
manteniendo la compatibilidad con versiones antiguas.

Cada una de las secciones tiene una cabecera que


específica su tamaño y tipo, inmediatamente seguido de
los datos y el checksum de los datos. Las secciones
tienen un nombre de 4 letras que es sensible a las
mayúsculas. El uso de mayúsculas o minúsculas en
dicho nombre provee a los decodificadores de
información acerca de las secciones que no son
reconocidas.

Si la primera letra es mayúscula esto indica que la


sección es esencial, en caso contrario será auxiliar. Las
secciones esenciales son necesarias para leer el fichero,
si el decodificador encuentra una sección esencial que
no reconoce debe abortar la lectura.

En caso de que la segunda letra sea mayúscula esto


significará que la sección es pública en la especificación
o el registro de secciones para propósitos especiales, en
caso contrario será privada (no estandarizada). Este uso
de mayúsculas y minúsculas asegura que nunca haya
conflictos entre secciones públicas y privadas.

La tercera letra debe estar en mayúsculas para cumplir


las especificaciones de PNG y está reservada para
futuras expansiones.

La cuarta letra indica si es seguro copiar la sección en


caso de que no sea reconocida, en caso de estar en
minúsculas es seguro copiar la sección sin importar la
cantidad de modificación que haya sufrido el fichero, si
es mayúscula solo se deberán copiar si no hay
secciones críticas que hayan sufrido modificaciones.

Secciones esenciales[editar]

Un decodificador debe ser capaz de entender estas


secciones para leer y renderizar un PNG:

IHDR, debe ser la primera sección, contiene la


cabecera.
PLTE, contiene la paleta (lista de colores).
IDAT, contiene la imagen que debe ser dividida en
múltiples secciones IDAT, haciendo esto se
incrementa el tamaño de la imagen ligeramente pero
hace posible generar imágenes PNG en streaming.
IEND, marca el final de la imagen.

Secciones de metadatos[editar]

Otros atributos que pueden ser guardados en una


imagen PNG son: valores de gamma, color del fondo e
información textual. PNG también soporta corrección de
color con el uso de sistemas de manejo del color como
sRGB.

bKGD: contiene el color de fondo por defecto, se usa


cuando no hay un mejor color disponible para
mostrar, como en un visor de imágenes pero no en
un navegador web.
cHRM: balance de blanco.
gAMA: específica la gamma.
hIST: guarda el histograma o cantidad total de cada
color en la imagen.
iCCP: perfil ICC de color.
iTXt: contiene texto (UTF-8) comprimido o no.
pHYs: contiene el tamaño previsto del píxel y/o el
ratio de la imagen.
sBIT: (bits significativos) indican la exactitud de los
colores en la imagen.
sPLT: sugiere una paleta para usar en caso de que el
rango completo de colores no esté disponible.
sRGB: indica que se usa el estándar sRBG color
space.
tEXt: almacena texto que puede ser representado en
ISO 8859-1 con un nombre=valor para cada sección.
tIME: almacena la fecha de la última modificación.
tRNS: contiene información sobre la transparencia.
Para imágenes indexadas almacena el canal alpha
para una o más paletas, para imágenes en color real
y escala de grises almacena la información de un
solo píxel que debe ser considerado completamente
transparente.
zTXt: contiene texto comprimido con los mismos
límites que tEXt.
La primera letra en minúsculas de estas secciones
indica que no son necesarias en la especificación de
PNG, la última letra en minúsculas indica que es seguro
copiarlas incluso si la aplicación en cuestión no las
entiende.

Otros atributos que pueden ser almacenados en un PNG


incluyen valores de corrección gamma, color de fondo y
metadatos. PNG además también utiliza la corrección
de color que utilizan los sistemas de administración de
color como el sRGB. Algunos programas como Adobe
Photoshop disponen de este sistema.

Profundidad de color[editar]

Las imágenes en formato PNG pueden ser imágenes de


paleta indexada o estar formadas por uno o varios
canales. Si existe más de un canal, todos los canales
tienen el mismo número de bits por píxel (también
llamado profundidad de bits por canal). Aunque en la
especificación oficial del PNG se nombra la profundidad
de bits por canal, normalmente los programas de
edición nombran solo la cantidad total de bits por píxel,
es decir, la profundidad de color.

El número de canales depende de si la imagen es en


escala de grises o en color y si dispone de canal alfa
(también llamado canal de transparencia). La
combinaciones permitidas por PNG son:

Escala de grises (1 canal).


Escala de grises y canal alfa (2 canales).
Canales rojo, verde y azul (RGB, 3 canales, también
llamado color verdadero o Truecolor).
Canales rojo, verde, azul y alfa (RGB + alfa, 4
canales).

Por otra parte, las imágenes indexadas disponen de un


tope de 256 colores como máximo. Esta paleta de
colores está almacenada con una profundidad de canal
de 8 bits. La paleta no puede tener más colores que los
marcados por la profundidad de bits, es decir 28=256
colores, aunque sí puede tener menos (por ejemplo, una
imagen de 50 colores solo almacenará 50 entradas,
evitando almacenar datos que no son utilizados).

[[PASTING TABLES IS NOT SUPPORTED]]

La tabla expuesta a la derecha indican la profundidad de


color para cada formato de imagen que soporta PNG.
Esta se extrae de la profundidad de bits por canal y se
multiplica por el número de canales. Las casillas en rojo
representan combinaciones no soportadas. El estándar
requiere que los decodificadores puedan leer todos los
formatos disponibles, pero muchos editores de imagen
solo pueden generar un pequeño subconjunto de ellos.

Transparencia en la imagen[editar]

PNG ofrece una gran variedad de opciones de


transparencia: con color verdadero o escala de grises,
incluso un solo píxel puede ser declarado transparente o
puede añadirse un canal alfa. Para imágenes que usan
paletas se puede añadir un canal alfa en las entradas de
la paleta. El número de dichos valores almacenados
puede ser menor que el total de entradas en la paleta, de
modo que el resto de las entradas se considerarán
completamente opacas. La búsqueda de píxeles con
transparencia binaria debe hacerse antes de cualquier
reducción de color para evitar que algunos píxeles se
conviertan en transparentes accidentalmente.
A diferencia de la transparencia ofrecida por GIF que
solo puede tomar 2 valores (completamente
transparente o completamente opaco), el canal alfa de
PNG permite utilizar mayor profundidad de bits para
lograr efectos de semi-transparencia, propios de objetos
translúcidos. Por ejemplo, con una profundidad de 8 bits
para transparencias se pueden conseguir 28 = 256
grados diferentes de transparencia, como si se tratara
de un color.2

Compresión[editar]

El método de compresión utilizado por el PNG es


conocido como deflación (en inglés "Deflate algorithm").
También existen métodos de filtrado. En la
especificación 1.2 se define un único tipo de filtro, que
incluye 5 modos de predicción del valor del píxel, que
resulta muy útil para mejorar la compresión, donde se
elige para cada línea de la imagen (scanline) un método
de filtrado que predice el color de cada píxel basándose
en los colores de los píxeles previos y resta al color del
píxel actual, el color pronosticado. Los cinco métodos
son: None, Sub, Up, Average y Paeth.

Estos filtros pueden reducir notablemente el tamaño


final del archivo, aunque depende en gran medida de la
imagen de entrada. El algoritmo de compresión puede
encargarse de la adecuada elección del método que
mayor reducción ofrezca.

El tipo de media MIME para PNG es "image/png"


(aprobado el 14 de octubre de 1996).

Animación[editar]

APNG es una extensión de PNG que soporta animación.


Este formato soporta el visionado de una sola imagen
en caso de que el decodificador no entienda el archivo.
Es aceptado por múltiples navegadores3 y tiene
extensión .png.

Por otro lado, MNG es un formato de imagen que


soporta animación y está basado en las ideas y en
algunas secciones de PNG, pero es un sistema complejo
y no permite el visionado de una sola imagen en caso de
no existir soporte completo en el visualizador de
imágenes pertinente.

Comparación técnica con otros


formatos[editar]Comparación con GIF[editar]

En la mayoría de los casos, PNG comprime mejor


que el formato GIF, aunque algunas
implementaciones (véase Photoshop) realizan una
mala selección de los métodos de filtrado y se
generan ficheros de mayor tamaño.

El PNG admite, al igual que el GIF, imágenes


indexadas con transparencia de 1 bit o "binaria". Este
tipo de transparencia no requiere de un canal
adicional y únicamente admite que un color de la
paleta aparezca transparente al 100%.

El PNG admite formatos con una profundidad de


color de millones de colores (color verdadero) y
canal alfa, lo que proporciona unos rangos de color
mucho más ricos y precisos que el GIF y disponer de
valores de transparencia intermedios.
Lamentablemente, esto permite que se compare de
forma errónea los PNG de color verdadero con los
GIF de color indexado (256 colores).

GIF soporta animación y PNG no. (ver sección de


animación).

Comparación con JPEG[editar]

Imagen compuesta comparando JPEG y PNG: nótese


los artificios en la imagen JPEG versus el fondo en color
sólido para la misma imagen en PNG.

PNG y JPEG son formatos que están diseñados para


funciones diferentes, por lo que únicamente se puede
realizar una comparación generalista:

JPEG tiene una relación de compresión enorme en


perjuicio de la calidad de la imagen, ideal para
imágenes de gran tamaño y fotografías. No admite
transparencia.

PNG es un formato sin pérdida de calidad con una


excelente compresión, ideal para imágenes
formadas por grandes áreas de color plano o con
pocas variaciones de color. Admite canal alfa y
algunos atributos extra como la corrección gamma.
Sin embargo, no admite modo CMYK, por lo que no
es del todo útil para diseños de impresión.

PNG en la web[editar]

Pese a que las características técnicas y de


compresión hacen de PNG un formato ideal para
sustituir a GIF, su adopción ha sido muy lenta, debido
en parte a comparaciones erróneas y algunas
desventajas técnicas:
No está soportado por algunos navegadores muy
viejos (tales navegadores, sin embargo, entraron en
desuso en la primera década del siglo XXI).
la administración de color fallaba en algunos
navegadores (fácilmente evitable por la razón
anterior).

Problemas de color[editar]

Algunas versiones de algunos navegadores web


presentan los valores de corrección gamma incluso
cuando no están especificados en el PNG. Navegadores
conocidos con problemas de visualización de PNG:

Internet Explorer 5.5 y 6.


Netscape 7.0 a 7.2.
Opera (versiones anteriores a la 7.50).

El efecto final es que el color mostrado en el PNG no


coincide con el esquema de color del resto de la página
web. Una forma sencilla de evitar esto es volviendo a
codificar el PNG truncando ciertos atributos. Algunas
utilidades para tal fin:

PNGOUT es una utilidad gratuita de DOS que utiliza


un algoritmo exclusivo para recomprimir un PNG y
reducir el tamaño del fichero al mínimo, sin pérdidas.
Superpng, es un plugin gratuito para Photoshop que
permite la optimización de ficheros PNG.
OptiPNG es una utilidad gratuita que recomprime un
PNG, reduciendo su tamaño sin pérdidas.

Que es Graphics interchange format conocido


como un GIF
Graphics Interchange Format (GIF) (Compuserve GIF)
(traducido al español como Formato de Intercambio de
Gráficos), es un formato gráfico utilizado ampliamente
en la World Wide Web, tanto para imágenes como para
animaciones.

El formato fue creado por CompuServe en 1987 para


dotar de un formato de imagen en color para sus áreas
de descarga de archivos, sustituyendo su temprano
formato RLE en blanco y negro. GIF llegó a ser muy
popular porque podía usar el algoritmo de compresión
LZW (Lempel Ziv Welch) para realizar la compresión de
la imagen, que era más eficiente que el algoritmo Run-
length encoding (RLE) usado por los formatos PCX y
MacPaint. Por lo tanto, imágenes de gran tamaño
podían ser descargadas en un razonable periodo de
tiempo, incluso con módems muy lentos.

GIF es un formato sin pérdida de calidad para imágenes


con hasta 256 colores, limitados por una paleta
restringida a este número de colores. Por ese motivo,
con imágenes con más de 256 colores (profundidad de
color superior a 8), la imagen debe adaptarse
reduciendo sus colores, produciendo la consecuente
pérdida de calidad.

Historia[editar]

La imagen en movimiento, surge con los experimentos


del fisiólogo francés Étienne-Jules Marey y del fotógrafo
británico radicado en los Estados Unidos Eadweard
Muybridge (que, por una llamativa coincidencia, nacen y
mueren en los mismos años: 1830-1904), constituyen el
primer cuestionamiento de los datos que entregan los
sentidos, justamente a través de los sentidos.
En 1872, surge una incógnita alrededor de los
experimentos de Muybridge: ¿existía algún punto,
durante el galope de un caballo, en el cual sus cuatro
cascos se hallaban levantados del suelo al mismo
tiempo? Con esta cuestión, Muybrigde quiso mostrar al
ojo lo que jamás había visto. Esto lo logró colocando
doce cámaras Scoville con lentes rápidas de Dallmayer,
separadas por intervalos regulares a lo largo de una
pista; cada cámara se disparaba a través de un
dispositivo electromagnético accionado por el caballo a
medida que su paso cortaba los filamentos tendidos
transversalmente sobre la pista. como si fueran
fotogramas de una película, esas imágenes sucesivas
permitían ver con una nitidez irrefutable la evolución del
movimiento.

Por otro lado, Marey, dentro de su aspecto científico,


perfecciona la escopeta fotográfica, la cual era capaz de
tomar 12 exposiciones en 1 segundo. Él consideraba
que, lejos de ser permanentes, las imágenes retinianas
son fugitivas: persisten allí algunos instantes,
prolongando la duración aparente del fenómeno que las
ha hecho nacer. Afirmaba que esta propiedad de la
retina permitía estudiar cómo una imagen fotográfica
podía representar un movimiento.

A partir de estos acontecimientos, y de la necesidad de


representar el movimiento de una manera mucho más
realista, surgen distintas técnicas de variados artistas;
como por ejemplo Passion (1981, Jean-Luc Godard), The
Bow (Motion Study, Anton Giulio Bragaglia), Heliografía
(1993, Claudio Caldini).

GIF
Los GIFs se extendieron gracias al navegador Netscape
que permitía que se vieran. Si Netscape no hubiera
integrado los GIF, probablemente, hubieran muerto en
1998. Fue en ese año cuando CompuServe fue
comprada por AOL y dejó expirar la patente sobre ellos,
por lo que el formato quedó liberado para el público
general.

En los años 2000, cuando apareció Flash, un software


que permitía crear animaciones más atractivas,
potentes, que incluían audio y podían ser interactivas los
GIF quedaron en desuso. Paradójicamente, el software
Flash está obsoleto ya que las tabletas y smartphone
como los iPhone no lo reproducen. Si haces banners
publicitarios en Flash y quieres que estén desde otros
móviles y no se pueden ver, se deja de usar. Las razones
técnicas no son las únicas que justifican el repunte
actual del uso del GIF, la funcionalidad, la gran
aceptación social y potencia viral que tienen sumado a
que son fáciles de ver, de reproducir, de compartir y de
crear los hacen una herramienta gráfica comunicativa
muy completa.

En 2012, GIF se convirtió en la palabra del año al ser


reconocida por el diccionario de Oxford. Según
Katherine Martin, responsable del diccionario, “el GIF ya
no es solamente un medio de expresión de la cultura
pop: se ha convertido en una herramienta para la
investigación y el periodismo, y su identidad léxica se
transforma y se mantiene”.

Un año después, en 2013, el creador del formato, Steve


Wilhite, recogió el Webby Award a toda una vida y
aprovechó el momento para hacer una importante
revelación: en estos premios, el discurso no puede tener
más de cinco palabras y Wilhite optó por proyectar las
suyas en la pared: "Se pronuncia JIF, no GIF”. Además
ese mismo año, Alex Chung y Hace Cooke fundaron la
base de datos online Giphy, que permite a los usuarios
compartir y buscar archivos de GIFs animados. Su idea
surgió con la intención de transmitir información de
forma rápida y más visual.

En 2015, Facebook añadió soporte para GIFs en su


página y sus chats, aunque originalmente no dieran
apoyo a este formato de comunicación.1

Actualmente Whatsapp ha incluido los GIFs en su


plataforma.

Características[editar]

Una imagen GIF puede soportar transparencias y puede


contener entre 2 y 256 colores (2, 4, 8, 16, 32, 64, 128 ó
256) entre 16,8 millones de su paleta. Por lo tanto, dado
que la paleta tiene un número de colores limitado (no
limitado en cuanto a colores diferentes), las imágenes
que se obtenían con este formato por lo general eran
muy pequeñas.

Sin embargo, dado que el algoritmo de compresión LZW


estaba patentado, todos los editores de software que
usaban imágenes GIF debían pagarle regalías a Unisys,
la compañía propietaria de los derechos. Esta es una de
las razones por las que el formato PNG se está
volviendo cada vez más popular, en perjuicio del formato
GIF.

El GIF soporta 8 bits por píxel en cada imagen y una


característica esencial es el loop infinito.
Usos[editar]

El uso de los GIF es generalmente para la publicidad en


tipo banners. Su principal utilidad hoy en día sigue
siendo el despliegue de imágenes animadas para
páginas web, al ser el único formato soportado por
multitud de navegadores que permita dicho efecto. Cabe
destacar que la animación de este tipo de imágenes
solo se puede visualizar en cierto tipo de aplicaciones y
programas como presentaciones power point o páginas
web, pero en hojas de cálculo o documentos de texto las
imágenes gif pierden su animación.2

Actualmente, los medios de comunicación, así como el


cine, las televisoras y las campañas publicitarias, han
optado por usar el formato GIF como medio de
transmisión de datos, información y productos,
aprovechando la rapidez de propagación y el auge que
desde el 2012 ha tenido.

Estamos viviendo tiempos característicos por la


sobrecarga de estímulos e información, es por eso que
los GIFs suponen un momento de sosiego entre el video
y la imagen fija. La manera de observar la realidad está
cambiando, ahora nos fijamos en lo infinitesimal.

La Oxford University Press afirma que el formato se ha


convertido en una herramienta con aplicaciones serias y
aplicada en campos de investigación y periodismo.

Patentes[editar]

Unisys, propietario de la patente del algoritmo LZW que


se utiliza en el formato GIF reclamó durante años el
pago de regalías por su uso. Compuserve, al desarrollar
el formato, no sabía que el algoritmo LZW estaba
cubierto por una patente. Debido a esto, cualquier
programa capaz de abrir o guardar archivos GIF
comprimidos con LZW debía cumplir con sus
exigencias. Es necesario recalcar que el formato GIF
puede utilizar otros métodos de compresión no
cubiertos por patentes, como el método Run-length
encoding.

El 20 de junio de 2003 expiró en Estados Unidos la


patente por el algoritmo LZW.

[editar]

Las redes sociales como Google Plus que permiten las


animaciones han hecho que el gif animado vuelva a ser
un formato muy utilizado por su sencillez de edición y
poco peso frente a los vídeos.3

Recientemente, redes sociales como Telegram,4 Twitter


y Facebook se han sumado y han incluido la posibilidad
de usar imágenes GIF en sus servicios. Su popularidad
también llega hasta webs dedicadas a este tipo de
imágenes como GIPHY, que cosecha puestos
privilegiados (322) en el ranking Alexa.

Plataformas como Tumblr y Giphy son famosas por


permitir acceso a gifs de infinidad de temas,
permitiendo a los usuarios cargar, descargar y hasta
crear sus propios gifs.

GIF en WhatsApp[editar]

Actualmente los GIF se han extendido de tal manera que


incluso se utilizan para responder mensajes, y este es el
caso de la aplicación de mensajería instantánea,
WhatsApp. La aplicación habilitó el envío de estos en la
versión beta v2.17.6 5de una manera rápida y fácil: se
trata de abrir la pestaña del emoticono en la parte
izquierda de la pantalla. Una vez se abre la selección de
emoticonos, en la parte inferior se encuentra el símbolo
GIF. Al seleccionarlo, se puede elegir de entre una gran
lista de emoticonos e incluso hay una barra de
búsqueda para encontrar el GIF más adecuado. 6

GIF en Instagram[editar]

En febrero de 2018 se incorporó una nueva función en


Instagram, concretamente en los "Instagram stories". Se
añadió una nueva opción donde había las opciones de
ubicación, hashtag, hora, temperatura, encuestas...7 Lo
hicieron a través de Giphy una web que reúne estas
animaciones desde hace tiempo. Se encarga de
controlar los GIF's, censurar aquellos que son impropios
y permitir los que no tienen contenido molesto para los
usuarios. Recientemente, un GIF se saltó el filtro de
Giphy y salió a la luz un GIF de carácter racista. Como
consecuencia se censuró el uso de GIF's en esta red
social. Una vez aseguraron que se había añadido otro
nivel de moderación en el filtro y tomaron las medidas
necesarias para que no volviera a pasar, se volvió a
permitir el uso de GIF's en Instagram. 8

GIF en Telegram[editar]

La función de GIF en Telegram se incorporó en 2016.9


Inicialmente fue con el bot @gif y más adelante dentro
las opciones de adjuntos.10 El servicio para compartir
contenido es Giphy y usa codificación MP4.9

GIFs en la comunicación[editar]

Aunque tengamos la opción de transmitir la misma idea


con un pequeño vídeo, o con una frase, un GIF presenta
unas ventajas técnicas y a tener en cuenta: dinamiza la
comunicación, tiene una reproducción inmediata, facilita
la retención visual, y produce un impacto emocional.

GIF en los medios de comunicación[editar]

La primera revista en atreverse a publicar una portada


que incluía un gif animado, fue la norteamericana TIME ,
que tras la presentación por parte de Apple de sus
nuevos modelos de iPhone y Apple Watch el 9 de
septiembre de 2014, construyó una portada alrededor de
un artículo que nos hablaba sobre como Apple está
invadiendo nuestros cuerpos. La imagen que se escogió
para ilustrar dicho artículo en sus versiones digitales fue
la de una muñeca humana en la que parpadeaban
gráficos y números: un GIF. Su versión en papel era igual
pero sin movimiento. Unos días después de esta
publicación, el 29 de septiembre de 2014, la revista New
Yorker presentó una portada animada en su página web
y su aplicación móvil. La imagen constaba simplemente
de un taxi neoyorquino con el Empire State de fondo y
unas gotas de lluvia que se deslizaban por la pantalla.

Hoy en día por ejemplo, lectores de todas las ediciones


internacionales del Huffington Post están
acostumbrados a las noticias que incluyen GIFS y a su
aparición en la portada. Incluso medios de
comunicación más tradicionales como podría ser The
New York Times ha trabajado con ellos.11

YouTube (pronunciación AFI [ˈjuːtjuːb]) es un sitio web


dedicado a compartir videos. Presenta una variedad de
clips de películas, programas de televisión y vídeos
musicales, así como contenidos amateur como
videoblogs y YouTube Gaming. A pesar de las reglas de
YouTube contra subir vídeos con todos los derechos
reservados, este material existe en abundancia. Las
personas que crean contenido para esta plataforma
generalmente son conocidas como youtubers.

Fue creado por tres antiguos empleados de PayPal en


febrero de 20053 y, en octubre de 2006 fue adquirido por
Google Inc. a cambio de 1 650 millones de dólares y
ahora opera como una de sus filiales. Es el sitio web de
su tipo más utilizado en internet.

YouTube usa un reproductor en línea basado en HTML5,


que incorporó poco después de que la W3C lo
presentara y que es soportado por los navegadores web
más difundidos. Antiguamente su reproductor
funcionaba con Adobe Flash, pero esta herramienta fue
desechada en 2016. Los enlaces a vídeos de YouTube
pueden ser también insertados en blogs y sitios
electrónicos personales usando API o incrustando cierto
código HTML.

El 29 de agosto de 2017, YouTube dio a conocer algunos


cambios en el diseño de su versión web y presentó un
nuevo logotipo, que por primera vez separa el nombre
del ícono.45

Historia

YouTube fue fundado por Chad Hurley, Steve Chen y


Jawed Karim en febrero de 2005 en San Bruno,
California. Todos ellos se conocieron cuando trabajaban
en PayPal, Hurley y Karim como ingenieros y Chen como
diseñador.6

Antigua sede de Youtube hasta 2017


De acuerdo con Hurley y Chen, la idea de Youtube surgió
ante las dificultades que experimentaron al tratar de
compartir vídeos tomados durante una fiesta en San
Francisco. Esta historia ha sido considerada una versión
muy simplificada, y Chen ha reconocido que esta idea se
puede haber promovido por la necesidad de presentar
una historia sencilla al mercado.6 Karim ha declarado
que la fiesta nunca ocurrió, y que la idea de compartir
vídeos en Internet fue suya.6 Sus compañeros han
declarado que la fiesta sí ocurrió, y que la idea original
de Karim era crear una página de citas, donde las
personas pudiesen calificarse sobre la base de sus
vídeos. Karim reconoce haber sido influenciado por un
sitio de citas llamado HotorNot.com , donde los
usuarios podían cargar fotos suyas, que luego eran
calificadas por otros usuarios.6

El dominio fue activado el 15 de febrero de 2005,7 y el


23 de abril fue cargado el primer vídeo, Me at the Zoo
(‘Yo en el zoológico’).8 En la primavera YouTube entró en
línea. Sin embargo, los creadores se percataron
rápidamente de que los usuarios cargaban toda clase de
vídeos, dejando atrás la idea original. El tráfico se
disparó cuando la gente empezó a colocar enlaces de
YouTube en sus páginas de MySpace.6 El rápido
crecimiento del sitio atrajo a Time Warner y Sequoia
Capital, que invirtieron en el mismo. Luego de que, en
octubre de 2005, la empresa Nike colocara un spot
protagonizado por Ronaldinho, grandes compañías
empezaron a sentirse atraídas por YouTube.6 Solo en
2005, Sequoia tuvo que invertir 8,5 millones de dólares
estadounidenses en el sitio.

Para diciembre de 2005, las páginas de YouTube eran


visitadas unas 50 millones de veces al día. Sin embargo,
luego de que el vídeo musical Lazy Sunday, transmitido
originalmente en el show Saturday Night Live, fuera
cargado a YouTube, las visitas se dispararon de nuevo
hasta alcanzar las 250 millones de visualizaciones
diarias.8 Para mayo de 2006, según Alexa.com, YouTube
alcanzó los 2000 millones de visualizaciones por día, y
para mediados de agosto había alcanzado la marca de
7000 millones en diversas oportunidades;8 además, se
había convertido en el décimo sitio más visitado en
Estados Unidos. En aquel momento, el New York Post
estimó que YouTube debía valer entre 600 y 1000
millones de dólares estadounidenses.8 MySpace.com y
Google publicaron sus propias versiones de YouTube,
sin éxito.

Para octubre de 2006, las oficinas de YouTube


permanecían en el condado de San Mateo, ubicadas en
el segundo piso de un edificio, y contaba con unos 60
empleados. Un ejecutivo de Universal Music Group había
anunciado hace poco que «YouTube les debía decenas
de millones de dólares», por violación de derechos de
autor.9 Mark Cuban, cofundador de Broadcast.com, un
servicio de radio por Internetcomprado por Yahoo en
1999, había declarado un mes antes que «solo un tonto
compraría YouTube por los potenciales problemas
legales que enfrentaría».9 No obstante, los propietarios
del sitio ya se habían comprometido con Warner Music
para mejorar el servicio, de manera tal que pudiesen
detectar más rápidamente cuándo un vídeo de su
propiedad era cargado al sitio. No obstante, a inicios de
ese mes se publicó un reporte en el Wall Street Journal
que indicaba que Google iba a comprar YouTube por
1600 millones de dólares. Dicha información
inicialmente fue negada por YouTube y Google, que la
calificaron como rumores.

Ese mismo mes Google compró YouTube por 1650


millones de dólares en acciones.10 En el momento de la
compra 100 millones de vídeos en YouTube eran
visualizados y 65 mil nuevos vídeos era añadidos
diariamente. Además, unos 72 millones de personas la
visitaban por mes. Hurley y Chen mantuvieron sus
cargos, al igual que los 67 empleados que en ese
momento trabajaban en la empresa.11 En los días
anteriores, YouTube había firmado dos acuerdos con
Universal Music Group y la CBS; y Google había firmado
acuerdos con Sony BMG y Warner Music para la
distribución de vídeos musicales.

Para junio de 2008, el 38 % de los vídeos visualizados en


Internet provenían de YouTube; el competidor más
cercano solo llegaba a representar el 4 %. Aunque
Google no reveló las cifras, se estimó que el sitio generó
200 millones de dólares estadounidenses ese año.12 En
ese mes, un anuncio en la página de inicio de YouTube
costaba 175 000 dólares diariamente, y el cliente debía
comprometerse a gastar 50 000 dólares adicionales en
anuncios en Google u otras páginas de YouTube. Sin
embargo, debido a que el contenido de la vasta mayoría
de los vídeos en YouTube no atraían a los anunciantes,
los precios de los anuncios se colapsaron. YouTube
procedió a presionar a los estudios de cine y televisión
para que produjeran contenido audiovisual de calidad, y
les ofreció canales destacados, donde podían presentar
anuncios de estrenos de películas y cortos de televisión.
También llegó a colocar anuncios antes del inicio de un
vídeo, pero luego descubrieron que el 70 % de los
usuarios abandonaba el sitio antes de que éste
terminase.12

La relación de YouTube con las empresas productoras


de televisión y cine ha sido variada. Viacom continúa la
demanda contra YouTube por 1000 millones de dólares,
iniciada en marzo de 2007, por supuesta violación
masiva de derechos de autor.13 Por otro lado, Disney
firmó a finales de marzo de 2009 un acuerdo con
YouTube, autorizando la transmisión de vídeos cortos de
la ABC y ESPN. Disney podrá presentar anuncios en
YouTube gracias a este trato. En abril de 2009 Google
anunció que YouTube firmó alianzas con algunos
estudios de Hollywoodpara que el sitio pudiese mostrar
programas de televisión y películas completas.14 En
enero de 2010, se lanza YouTube Rentals, un servicio de
videoclub por Internet con películas completas que se
pueden ver al instante previo pago.15

En los últimos años, Google todavía no ha logrado


convertir efectivamente el alto tráfico de YouTube en
ganancias; la empresa ha reconocido esto, pero se ha
negado a proporcionar las cifras.16 De acuerdo con un
artículo de la revista Forbes, se estimaba que YouTube
generaría 240 millones de dólares en el año 2009,
quedando muy por debajo de los 710 millones en costos
operativos del sitio.17 Según un analista de la Credit
Suisse, YouTube estaría presentando pérdidas por 470
millones de dólares estadounidenses en 2009;17 sin
embargo, otras empresas estiman las pérdidas en 174,2
millones.16

En el año 2015, se consideraba que Youtube no era


rentable, siendo que en el año 2014 reportó ingresos por
$4.000 millones de dólares, frente a los $3.000 millones
del año anterior, pero luego de pagar por el contenido y
los equipos que reproducen de forma rápida los videos,
el balance quedó en un punto de equilibrio, o sea que no
ganó ni perdió dinero. Estos resultados reflejan las
dificultades que tiene para expandir su audiencia que
está conformada principalmente por adolescentes y
preadolescentes. La mayoría de los usuarios utiliza al
sitio como un depósito de videos a los cuales se accede
desde enlaces o código insertado que son publicados en
otras páginas, en lugar de visitar youtube.com.18

En febrero de 2015, YouTube lanzó una aplicación móvil


conocida como YouTube Kids. La aplicación está
diseñada para los niños, y cuenta con una interfaz
simplificada, con selecciones de canales cuyo contenido
sea apropiado para niños y funciones de control
parental.19Más tarde, el 26 de agosto de 2015, YouTube
lanzó YouTube Gaming, un sub-sitio orientado a juegos
de video y una aplicación que pretende competir con la
Twitch.tv de Amazon.com.20 En el año 2015 también se
anunció un servicio premium de YouTube titulado
YouTube Red, que ofrece a los usuarios contenido libre
de anuncios y también la posibilidad de descargar
videos entre otras cosas.21 El 10 de agosto de 2015,
Google anunció que estaba creando una nueva
compañía, Alphabet, para actuar como holding de
Google, con el cambio en la información financiera a
partir del cuarto trimestre de 2015. YouTube sigue
siendo una subsidiaria de Google.22 En enero de 2016,
YouTube amplió su sede en San Bruno al comprar
oficinas por 215 millones de dólares. El complejo puede
albergar hasta 2.800 empleados.23

YouTube también renovó su apariencia de aplicación


móvil en agosto de 2017. La plataforma de videos
YouTube dio a conocer las nuevas características de su
aplicación móvil, tal como el nuevo diseño, velocidades
en reproducción, visualización automática y opciones
con pantalla completa. En su blog oficial, la plataforma
destacó que está en evolución, por lo que han
comenzado una serie de actualizaciones durante lo que
resta del año, con un nuevo nivel de funcionalidad y una
mirada constante a través de las experiencias móviles y
de escritorio. Apuntó que el nuevo diseño consiste en un
encabezado en blanco, para que el contenido resalte, y
se movimiento de las pestañas de navegación hasta la
parte inferior de la aplicación, para que estén más cerca
de los pulgares. También, expuso que se agregaron
nuevas pestañas en la biblioteca y en la cuenta que le
dan acceso fácil a lo que está buscando. Asimismo,
explicó que a principios de este año, se introdujo un
gestor que permite doblar el toque en el lado izquierdo o
derecho de un video para avanzar o retroceder
rápidamente 10 segundos. La empresa con sede en San
Bruno, California, comentó que en los próximos meses
“experimentaremos una función que permite saltar entre
vídeos con un movimiento: simplemente desliza hacia la
izquierda para ver un vídeo anterior o desliza el dedo
hacia la derecha para ver el siguiente”. En el caso de la
velocidad, manifestó que a los usuarios les encanta
acelerar y ralentizar la reproducción de un video en el
escritorio, por lo que dicha función se trasladó a la
aplicación móvil, para que los usuarios le den la
velocidad que deseen. También añadirá una función que
permita ver filas de videos sugeridos mientras se
observa un video con pantalla completa, en tanto que en
poco se cambiará la forma en que se ven los videos en
vertical, cuadro u horizontal, sin barras negras en los
lados.2425
El YouTube cambió de logo por primera vez en su
historia, dado a conocer el 29 de agosto de 2017. Ahora,
el logo tiene la palabra YouTube con todas sus letras
negras, mientras que el símbolo de “play” de color rojo
aparece al costado izquierdo.26

En 2019, la canción Kill this love, del grupo Blackpink, se


convirtió en el videoclip más visto en YouTube en sus
primeras 24 horas con 56,7 millones de visualizaciones.
[1]

Características y críticasSobre la búsqueda de vídeos

Comparación de las distintas calidades de vídeo que


ofrece YouTube.

YouTube mantiene una logística que permite localizar


cualquier vídeo por medio de las etiquetas de metadato,
títulos y descripciones que los usuarios asignan a sus
vídeos, pero cuyo uso está restringido únicamente a los
vídeos alojados en YouTube. Sin embargo, a raíz de la
compra de YouTube por parte de Google, Google Video
empezó a agregar a sus búsquedas los contenidos de
YouTube.

En junio de 2007 se dio un importante paso hacia la


internacionalización del sitio, al traducir su interfaz a
diversos idiomas, entre ellos el español.

Reproductor

El diseño del reproductor es minimalista y ligero, basado


en un color predeterminado: el gris claro, debido a que la
empresa busca la comodidad en lo que respecta al tipo
de banda de Internet. El primer reproductor de YouTube
tenía un diseño curveado, simple, con las opciones
resaltando como botones. A mediados de 2007, el
segundo cambió a uno más limpio y moderno, con una
estructura más recta y con las opciones separadas por
espacios compartidos. Se agregó opciones como
agregar anotaciones, pausar haciendo clic sobre la
pantalla del reproductor, banners publicitarios similares
a los que aparecen en la televisión, subtítulos originales
y traducidos. A veces, se incluyen spots cortos antes del
vídeo.

En 21 de enero de 2010 en las opciones del reproductor


se agrega un menú desplegable para seleccionar la
calidad de vídeo que se quiere visualizar y dos nuevos
iconos para cambiar el tamaño del reproductor y para
visualizar el vídeo a pantalla completa, respectivamente.
Cuando hay subtítulos, aparece un icono que permite
mostrarlos.

Últimamente, también Youtube ha agregado la


capacidad de ver algunos videos en 3D y resoluciones
hasta Ultra alta definición. Por otro lado, existe la
posibilidad de ver subtítulos, que están en formato
SubViewer (*.SUB) y SubRip (*.SRT).27

Cada vídeo cuenta con su propio contador de visitas que


permite dar a conocer la popularidad del mismo
abiertamente. En 2012 el código de Youtube fue
reprogramado para diferenciar dos tipos de material
según la cantidad de sus visitas. Los vídeos cuyo
contador no llega a las trescientas visitas son
considerados «inocuos». Por otro lado, aquellos que
hayan sido visitados más de trescientas veces pasan a
ser verificados manualmente para garantizar le
legitimidad de la cifra de visitas. Debido a esto, el
contador se congela y, momentáneamente, no refleja en
tiempo real el número de personas que ya vio el vídeo.
Una vez que pasó por la verificación, el contador se
actualiza y se suman las visitas que habían quedado en
espera. Sin embargo, un error en la programación del
código determinó que la cifra sea de trescientos uno, y
no trescientos, lo que produjo diferentes reacciones por
parte de los usuarios ante la aparente arbitrariedad del
número. A raíz de esto, el fenómeno fue conocido como
el misterio de las 301 visitas.28

Calidad de vídeo

En Google Vídeo y otros sitios de vídeos hay quejas


acerca de la calidad, siendo que los vídeos se pixelan
(aparecen cuadros de color uniforme de mayor tamaño,
en forma de mosaico), en gran medida debido al
equilibrio entre calidad de imagen y velocidad de
transmisión de datos en la red. Otro problema es que en
bastantes clips, el audio y el vídeo no están
sincronizados; aunque esto depende del formato del
archivo original.

En general, todos los vídeos deben ocupar un espacio en


disco no mayor a 2 GB y deben tener una duración
menor o igual a 15 minutos, con una tolerancia extra de
59 segundos de grabación, es decir, una duración total
de 15:59 segundos. La totalidad de los vídeos son
convertidos a resoluciones de 320×240 y 480×360
píxeles, y a 30 fotogramas por segundo, aunque los
vídeos alojados antes de marzo de 2008 sólo están
disponibles en la resolución más baja. A pesar de que
todos los vídeos se muestran predeterminadamente en
la resolución menor, los usuarios pueden reproducirlos
en alta calidad ajustando sus preferencias.
No todos los vídeos de YouTube han sido optimizados o
convertidos a un formato de alta resolución; sin
embargo, hay un pequeño porcentaje que sí lo está, y
para visualizarlos se debe agregar el parámetro
«&fmt=6» (sin comillas) al final de la dirección
URL[cita requerida]. El vídeo seguiría siendo un vídeo en
formato FLV pero con calidad superior, siempre y cuando
exista dicha versión; de lo contrario, solamente se
visualizará la versión normal. Como método alternativo,
puede agregarse «&fmt=18», parámetro que está
disponible para casi todos los vídeos (en formato
MP4).[cita requerida]

Desde finales de 2008 se pueden ver videos HD con


calidad 720p y desde 2009 con calidad 1080p, a las
cuales se puede acceder eligiendo la calidad deseada en
uno de los botones que aparece en la esquina derecha
inferior del video. Al igual que el formato de HQ (alta
calidad), el formato HD (alta definición) solamente se
visualizará si existe la versión.

El 25 de noviembre de 2008, YouTube cambió la relación


de aspecto de su reproductor de vídeo, de 4:3 a 16:9,
siguiendo el estándar de los televisores LCD y de
plasma, y también en concordancia con las intenciones
de la empresa de transmitir películas completas en el
futuro.29 Este cambio de aspecto es para todos los
vídeos, por lo que los que están en formato 4:3 se ven
con franjas negras a los lados.

[[PASTING TABLES IS NOT SUPPORTED]]

Posteriormente se añadieron las resoluciones QHD


(1440p) y 4K o Ultra alta definición. En julio de 2015 se
añadió la resolución 8K (hasta 7.680 × 4.320 píxeles) la
cual es 16 veces superior a la alta definición y 75 veces
superior al sistema PAL. En noviembre de 2016 se
añadió soporte para subir y reproducir videos en HDR.31

En junio de 2014, YouTube introdujo videos que se


reproducen a 60 fotogramas por segundo, con el fin de
reproducir videojuegos con una velocidad de
fotogramas comparable a las tarjetas gráficas de gama
alta.3233 Los videos se reproducen con una resolución
de 720p o superior.34 Los videos de YouTube están
disponibles en una variedad de niveles de calidad. Los
antiguos nombres de calidad estándar (SQ), alta calidad
(HQ) y alta definición (HD) han sido reemplazados por
valores numéricos que representan la resolución vertical
del vídeo. La secuencia de vídeo predeterminada se
codifica en el formato VP9 con audio Opus estéreo; Si
no se admite VP9 / WebM en el navegador/dispositivo o
si se está usando Windows XP, entonces se utilizará
vídeo H.264/MPEG-4 AVC con audio AAC estéreo.35

En enero de 2015, Google anunció que YouTube


permitirá la subida de videos en 360°. Desde el 13 de
marzo de 2015, los videos en 360° se pueden ver en
Google Cardboard, una plataforma de realidad virtual.
YouTube 360° también se puede ver desde todas las
demás plataformas de realidad virtual.36

Formatos de archivo admitidos

.MOV .MPEG4 .MP4 .AVI .WMV .MPEGPS .FLV .3GPP


.WebM37

Restricción de copias

Para evitar copias de los archivos de vídeo, en un


principio estos fueron distribuidos en formato flash
(FLV), propiedad de la empresa Adobe Flash, que impide
a los usuarios hacer copias digitales fácilmente. Aun así,
diversos programadores han elaborado herramientas
que permiten, sin permiso de YouTube, la descarga de
los vídeos alojados en el sitio. Hoy en día existe una
infinidad de aplicaciones para acceder a la descarga de
los vídeos de YouTube; además, ya existe una
herramienta para bajar videos en alta definición.

El navegador Google Chrome ha aplicado una restricción


por la cual las extensiones de la Chrome Web Store para
bajar videos, no permiten hacerlo con los de YouTube.38

Copyright

YouTube ha cambiado profundamente la definición de


derechos de autor en vídeos, ya que antes de 2005 sólo
se aplicaban a música compartida por P2P. Gran parte
de los vídeos que los usuarios publican en YouTube
tienen música o imágenes con copyright, pero la
compañía sólo los retira si es requerido por el
propietario de los derechos de autor. Al retirarse los
vídeos la cuenta del usuario que los publicó es
suspendida después de recibir, cuando menos, tres
advertencias. Adicionalmente, las productoras de
música pueden solicitar la anulación de las pistas de
audio de los vídeos que incluyen bandas sonoras o
música que no fue licenciada para su inclusión,
quedando totalmente sin sonido.39

En el año 2017, las penalidades son las siguientes:

En caso que una transmisión en vivo actual o


archivada se quite por incumplir los derechos de
autor, se restringirá el acceso a la función para
transmitir en vivo por noventa días.
En caso que el usuario reciba tres advertencias por
incumplimiento, se rescindirá la cuenta, se quitarán
todos los videos que de la misma, y no podrá crear
cuentas nuevas.

Las advertencias por incumplimiento se hacen cuando


el propietario de los derechos de autor envía una
solicitud legal completa y válida.40

Disputa con Viacom

Uno de los casos más conocidos ocurrió en febrero de


2007 ante la exigencia por parte de Viacom, casa matriz
de la cadena MTV, y los canales infantiles Nickelodeon,
Nick Jr., Nick Jr. 2 y Noggin, de retirar de su sitio más de
100 000 vídeos, al no poder llegar a un acuerdo
económico con la compañía para que los usuarios
pudieran utilizar el contenido de Viacom.41 La disputa
entre las dos compañías se agravó el 13 de marzo,
cuando Viacom anunció públicamente que había
demandado a YouTube y a su propietaria Google Inc. por
presunta violación de los derechos de autor por un
monto que supera los 1000 millones de dólares en
daños.42 Como respuesta, algunos usuarios de
YouTube subieron vídeos al sitio exhortando a otros
usuarios a boicotear a Viacom.43 Google respondió
argumentando que sí respetan los derechos de autor y
que no permitirá que la demanda legal se transforme en
una distracción del continuo y sólido crecimiento de
YouTube.44

YouTube como plataforma publicitaria

Desde mayo de 2007, en YouTube empezaron a aparecer


vídeos publicitarios de 15 a 30 segundos y otro en estilo
pop-up para toda empresa que lo solicite. El tipo de
anuncio mostrado al usuario es completamente
aleatorio y sin relación con el contenido del que vídeo
que buscaba ver o las palabras clave usadas en la
búsqueda.

Para el uploader estándar de Youtube, puede desactivar


que sus propios vídeos tengan anuncios de terceros, de
cualquier forma ningún uploader de YouTube recibe
remuneraciónpor mantener anuncios en sus vídeos.45

Sin embargo, en los últimos años (2010-actualidad), los


uploaders pueden elegir si quieren insertar anuncios o
no en su vídeo publicado, y de que tipo (en varias partes
del video, uno sólo al iniciar la reproducción, un
banner...), y en función de factores como el número de
visualizaciones, tipo de contenido, etc... Reciben cierta
remuneración por parte de Google.46

Como complemento de la televisión

Algunos canales estadounidenses han creado


webisodes, breves capítulos de cinco minutos de
duración cuya trama está relacionada con la serie
original de la cual se derivan, que son distribuidos
exclusivamente en Internet. Estos episodios surgieron
como un método alternativo, tras la huelga de guionistas
en Hollywood de 2007-2008, para llegar a una audiencia
verdaderamente global. Un ejemplo de estos cortos es
Qué vida más triste, que fue transmitido después por el
canal de España La Sexta.47 Además, se ha
comprobado que YouTube no roba audiencia a la
televisión, de hecho la estimula,[cita requerida] ya que,
aunque un programa no tenga éxito en su país de origen,
es posible que en YouTube sí lo tenga, al atraer más
público del esperado. Esto ha sucedido con el programa
español Muchachada Nui, que ya es ampliamente
conocido en Latinoamérica.48

Youtube Red

YouTube Red es el servicio de suscripción premium de


YouTube. Ofrece streaming sin publicidad, acceso a
contenidos exclusivos, reproducción de vídeo en
segundo plano y acceso fuera de línea en dispositivos
móviles.49 YouTube Red se anunció originalmente el 12
de noviembre de 2014 como "Music Key", un servicio de
streaming de música por suscripción, y tenía la intención
de integrarse y reemplazar el servicio "All Access"
existente de Google Play Music.5051 El 28 de octubre de
2015, el servicio se volvió a lanzar como YouTube Red,
ofreciendo streaming sin publicidad en todos los videos,
así como acceso a contenido original y exclusivo.52

Pagos por derechos de autor

Según la página de estadísticas de YouTube en el mes


de julio de 2016 la empresa había pagado la suma de
2000 millones de dólares a los titulares de los derechos
de autor que habían decidido monetizar reclamos desde
que fue lanzado Content ID en el año 2007.2

Impacto en la cultura popular y sociedad

YouTube ha tenido un gran impacto en la cultura


popular; prueba de ello es haber obtenido el premio al
«Invento del año», otorgado por la revista Time en
noviembre de 2006.53 El sitio se convirtió en un medio
de difusión tan popular para la difusión de fenómenos
de Internet de todo tipo que incluso ha sido utilizado por
importantes personalidades como Tony Blair, quien
publicó allí su mensaje de felicitación al presidente de
Francia, Nicolas Sarkozy, cuando éste resultó elegido.54
El sitio es también un medio de promoción para artistas
y políticos en campaña electoral que cuentan con un
espacio o canal (channel) propio; tal es el caso de
Citizen Tube, un espacio donde los políticos en campaña
para las elecciones de Estados Unidos exponen en blogs
de vídeo sus propuestas y comentarios. De igual
manera, la Comisión Europea puso en marcha un
espacio dentro de YouTube para comunicarse con los
ciudadanos.55

YouTube promocionando un debate político.

Si bien las temáticas son muy variadas y diversas, varias


tendencias positivas se han mostrado en los vídeos y
listas de comentarios donde los usuarios vierten las
impresiones del vídeo visto. Por ejemplo, se encuentran
los vídeos con imágenes de ciudades y provincias, que
en su mayor parte muestran fraternidad entre personas
y pueblos; cursos diversos con fines educativos,
técnicos y científicos, como la muestra de vídeos
médicos de operaciones y autopsias, muestras
gastronómicas, archivos históricos, comedia o
entretenimiento en general. Sin embargo, la pornografía
no es tolerada, aunque a raíz de ésta prohibición un
grupo de personas ajenas a YouTube creó YouPorn.

El sitio ha sido criticado por haber alojado vídeos sobre


peleas entre miembros de distintas razas en Estados
Unidos[cita requerida] o entre escolares, donde incluso
aparecen niñas golpeándose.56 Algunos de estos
vídeos han sido realizados exclusivamente para su
difusión por YouTube.[cita requerida] Además, han
aparecido vídeos relacionados con el terrorismo y
vídeos de webcam donde se exponen poses eróticas sin
llegar a la desnudez. Algunas de estas últimas imágenes
han sido expuestas sin la autorización de las personas
filmadas. Dentro de esta categoría se encuentran los
vídeos voyeur, usualmente captados por teléfonos
móviles con vídeo integrado, que muestran imágenes de
grabaciones de partes íntimas de mujeres u hombres en
el transporte público o en la vía pública. Estos vídeos
son filmados sin autorización de las personas
filmadas.[cita requerida]

Por otro lado, las temáticas negativas en cuanto a


xenofobia, ideologías políticas y religiosas extremistas,
discriminación, maltrato animal entre otros son muy
comunes en YouTube.[cita requerida] Por ejemplo, en el
mundo han surgido vídeos racistas denigrando e
insultando las características y costumbres de las
personas de otras razas u otros países.[cita requerida]

Un estudio reciente demostró que las situaciones de


vulnerabilidad que acaecen tanto en la creación como en
el consumo de material audiovisual por parte de los
adolescentes en la plataforma se centran en cuatro
grandes ejes temáticos: sexo, drogas, acoso y
embarazo.57. En respuesta, YouTube facilitó un sistema
para denunciar videos inapropiados y usuarios abusivos.
Si el caso es relativamente leve, el video es bloqueado
para que la gente deba comprobar que es mayor de
edad antes de verlo. Si el caso es más grave o
reincidente, se procede a borrar el video y tomar
medidas más drásticas contra el infractor.58

ControversiasVídeos virales
Otra característica del portal es que se ha ostentado
como plataforma principal para la difusión de vídeos
virales. Estos se refieren a un sinfín de vídeos, ya sean
extraídos de diversos medios como la TV, vídeos de
promoción musical o videoaficionados, a los cuales
particularmente el público expectante encuentra alguna
característica generalmente cómica, por lo cual
comienzan a difundirlos a través de blogs u otras redes
sociales para que sean vistos por más gente. Muchos de
estos vídeos son totalmente espontáneos y no fueron
hechos con el objetivo original de ser vídeos virales, ni
tampoco para fines de lucro posterior,59 los propios
espectadores son los que hacen que estos tengan ese
comportamiento de difusión en la Red. Un ejemplo es la
fama obtenida por una maquillista de la televisión
peruana llamada Judith Bustos, conocida como La
Tigresa del Oriente, quien con la exposición de un
videoclip Nuevo amanecer fue un vídeo viral que
respondió a un sinfín de reacciones diversas, entre ellas
considerar su presentación como un camp o también un
kitsch,60 esto es debido a que la pequeña empresa que
lo produjo, Éxitos del mundo, que surgió de la bancarrota
de toda la industria fonográfica del Perú a mediados de
los años 90,61 contaba con recursos limitados para su
producción, no utilizando los que generalmente tiene
una compañía de televisión. Un ejemplo similar y que
generalmente caracteriza a un video viral es el que
representa al actor indio Chiranjeevi, que durante 1985
filma una escena en que utiliza elementos parecidos al
videoclip de Michael JacksonThriller, que en sí no fue
una parodia, sino una expresión de la popularidad del
cantante estadounidense en la comunidad india
plasmada en un video. Lo que lo hizo vídeo viral fue la
extracción de dicha escena de la película para la que fue
hecha y su posterior exhibición en YouTube, lo que
espectadores de todo el mundo percibieron como una
parodia, que no lo era. El impacto de un vídeo viral es
totalmente incierto y con diversos destinos, pero llega a
ser tal que da pie a crear todo tipo de parodias incluso
hechas por los canales de televisión nacional del
mundo,62 llegando también al lucro, esto también
incluso es reflejado en la publicidad de algunos
países.63 Hay algunas excepciones donde algunos
vídeos son editados con el propósito de ser vídeos
virales.

Usos colaterales no esperados

El servicio del sitio también ha sido utilizado por el


crimen organizado, como los cárteles del narcotráfico,
como herramienta de propaganda.[cita requerida]
Siendo el caso más común los videos musicales.
Además, estas organizaciones criminales han publicado
imágenes de sus crímenes para aumentar el impacto
mediático y atemorizar a sus rivales aunque los videos
son retirados de inmediato por los administradores.64
Un caso inédito se dio durante el secuestro del ganadero
mexicano Luis Fierro, del estado mexicano de Guerrero.
Un vídeo grabado por sus captores fue alojado al sitio;
sin embargo, su acceso fue restringido con una clave. En
el video se amenazaba para el pago del rescate.65 Otro
problema relacionado es el atractivo que YouTube
representa para los grupos terroristas que igualmente lo
usan para propósitos de propaganda y manipulación. En
respuesta Google afirma que continuamente está
mejorando sus mecanismos de monitoreo y filtrado y
exhorta a sus usuarios a reportar cualquier problema en
el sistema.66
YouTube también sirvió para alojar un video filmado por
el surcoreano Cho Seung-Hui, que contenía un discurso
suyo. Este video fue alojado poco antes de que Cho
ejecutara la masacre de Virginia Tech en Estados
Unidos.[cita requerida]

El servicio de YouTube tiene una herramienta de


denuncia por infracciones que incumplan las
condiciones de uso. Entre estas destaca la prohibición
de alojar material que promueva el odio racial y el
discurso de incitación al odio. De esta manera, los
usuarios pueden enviar una solicitud de revisión al vídeo
en cuestión, así como críticas y comentarios del mismo,
para que sean evaluados, y de proceder, sean retirados.

En otros ámbitos, el sitio ha servido como plataforma


inusual para dar a conocer talentos desconocidos. un
ejemplo, el más famoso a nivel mundial lo representa
Susan Boyle. Gracias a que un video extraído del
programa británico Britain's Got Talent le permitió
hacerse conocida a nivel mundial, su talento como
intérprete le fue valorado y es así que una completa
desconocida tanto en su país como en el resto del
mundo tomara gran notoriedad al descubrirse un talento
reconocido por el público.67

Actualizaciones

A lo largo de su historia, YouTube ha publicado


actualizaciones a varias de sus funciones con el objetivo
de ofrecer una mejor experiencia a sus usuarios. Las
últimas se impusieron en enero de 2010, introduciendo
variadas opciones adicionales, aunque lo más notable
fue su cambio de diseño: la opción impuesta más
significativa fue el compartimiento de vídeos mediante
nuevas redes sociales que antes no existían, como
Tuenti, Vkontakte, Tumblr u otros servicios, como
Blogger.

También, la bandeja de entrada ahora permite ver todos


los mensajes en una vista, y la carga de estos es mucho
más rápida que antaño. Así, ahora se pueden ver los
comentarios a los vídeos, las respuestas a los mensajes
privados y las invitaciones en una misma página.
También se pueden enviar mensajes a numerosos
destinatarios.

La gestión de vídeo ha recibido una importante mejora y


entre los cambios más notables salta a simple vista una
interfaz más ligera, con menús expandibles, información
más concisa y más opciones de edición en pantalla. El
manejo de contactos y suscripciones también ha sido
actualizado, y ahora se pueden organizar de manera
más sencilla y rápida. Se pueden, por ejemplo, visualizar
los datos de más de un contacto con sólo marcarlos, o
aplicarles etiquetas y organizarlos en grupos, todo de
manera muy sencilla.

La descarga de canciones no solo se podrán hacer a


partir de iTunes, sino también de distintos servicios
impuestos por el propio autor del vídeo. Esta opción es
una mejora, ya que estaba disponible desde 2008.

En septiembre de 2011 se eliminó la restricción de límite


de video a 15 minutos,68 aunque solo para algunas
cuentas.69 Esta característica se pierde
automáticamente si el usuario infringe en las políticas a
la comunidad y/o haya hecho violaciones de derechos
de autor y/o haya tenido reclamaciones de ID de
contenido.
Localización

El 19 de junio de 2007 el consejero delegado de Google,


Eric E. Schmidt realiza en París la publicación del nuevo
sistema de localización.70 La interfaz del sitio está
desde entonces disponible en Estados Unidos y en
versiones para 104 países:

[[PASTING TABLES IS NOT SUPPORTED]]

La interfaz de YouTube sugiere qué versión debería


elegirse basándose en la dirección IP del usuario. Hay
algunos videos que no están disponibles en ciertos
países debido a restricciones de derechos de autor o por
incluir contenido inapropiado.81

YouTube políglota

El sitio YouTube tiene como idioma predeterminado el


inglés, pero está disponible en un total de 76 idiomas:2

Bloqueos, censura y vigilancia

En total, por lo menos 24 países han bloqueado YouTube


en el pasado, entre los que se encuentran Arabia
Saudita, Bangladés, la República Popular China,
Pakistán, Tailandia y Turquía.82 En el Reino Unido y
Alemania, YouTube ha decidido bloquear los videos
musicales en el pasado para evitar problemas con las
sociedades de derechos de autor.8384 En el marco de
las filtraciones sobre vigilancia mundial de 2013, un
documento de la agencia de inteligencia británica GCHQ
fechado en agosto de 2012 proporcionó detalles sobre
un programa de vigilancia llamado Squeaky Dolphin, que
permite al GCHQ un amplio seguimiento y en tiempo real
de las distintas características de páginas y redes
sociales, como visitas a vídeos de YouTube, todo sin
consentimiento o conocimiento de las empresas que
prestan estos servicios. Squeaky Dolphin permite reunir,
analizar y utilizar datos en tiempo real obtenidos de
YouTube con fines analíticos. El programa es capaz de
recoger direcciones de más de 1000 millones de vídeos
vistos a diario, así como datos de usuarios85 (véase
revelaciones de Edward Snowden). En Corea del Norte
no existe el acceso a YouTube porque la censura a
Internet es total, y en Eritrea es casi imposible.86

República Popular China

Los usuarios de Internet en la República Popular China


han presentado problemas para acceder a YouTube en
un par de ocasiones. Durante los disturbios en el Tíbet
de 2008YouTube fue bloqueada por el Gobierno.82
Además, el 3 de marzo de 2009 se reportó que YouTube
fue bloqueado de nuevo.87 Ese mismo mes, entre el 23
y el 24, Google comunicó que el tráfico de Internet desde
China había bajado considerablemente. Aunque el
Gobierno chino no aclaró si había bloqueado o no el
sitio,82 los problemas de acceso experimentados por
los usuarios chinos coincidieron con la aparición de un
video donde aparecía un soldado golpeando
mortalmente a un protestante tibetano. De acuerdo a la
agencia de noticias gubernamental Xinhua, el video fue
fabricado por miembros del gobierno en el exilio
tibetano.88 Según el diario brasileño O Globo, para el 30
de marzo los usuarios chinos ya podían acceder sin
problemas a YouTube89 Posteriormente, YouTube sería
reemplazado en China por equivalentes locales como
iQiyi, que están más acordes a la cultura y los
lineamientos oficiales de este país.
Turquía

Para inicios de marzo de 2009 YouTube había sido


bloqueado en once ocasiones en Turquía.90 La mayoría
de las veces esta acción respondía a la aparición de
videos donde se mofaban del político Mustafa Kemal
Atatürk, considerado el padre de la nación turca.90 Los
conflictos entre la nación euroasiática y YouTube
comenzaron en marzo de 2007, cuando Turquía bloqueó
el popular sitio de videos por uno en concreto, de origen
griego, que violaba la ley turca, ya que calumniaba a
Atatürk.91 Aunque YouTube eliminó el video, el Gobierno
turco luego solicitó la retirada de otros videos que
violaban su ley, entre los que destacaban videos creados
por las milicias kurdas. Desde entonces, de acuerdo con
los diarios turcos, se inició una guerra virtual en
YouTube entre griegos y turcos, donde cada bando
cargaba videos en el sitio cuyo único objetivo era
insultar la historia o cultura del bando opuesto.92
YouTube eliminó los videos que violaban las normas del
sitio y bloqueó los videos que violaban leyes turcas para
evitar que las direcciones IP de origen turco pudiesen
accederlos.91 Sin embargo, en junio de 2008 un fiscal
turco solicitó a YouTube bloquear esos videos a nivel
mundial, alegando prevenir que turcos en el extranjero
los visualizasen. Ante la negativa de YouTube a esta
nueva petición, se inició un nuevo bloqueo que se
extendió por lo menos hasta noviembre del mismo
año.91

Alemania

A inicios de abril de 2009 YouTube dejó de transmitir


videos en Alemania, al ser incapaz de alcanzar un
acuerdo con GEMA, la mayor sociedad de derechos de
autor alemana.84 YouTube y GEMA tenían un acuerdo
que expiró en marzo de 2009, pero no lo renovaron ya
que, según portavoces de YouTube, GEMA estaba
solicitando tarifas más elevadas, incluso mayores que
las que reclaman su equivalente británica.84 Este
autobloqueo representa la pérdida de 13 millones de
visitantes germanos al mes, que representan un 4,33 %
de los visitantes mundiales de YouTube. Actualmente, la
productora de la película alemana Der Untergang pidió a
YouTube retirar las miles de parodias de su película.93

Tailandia

A finales de 2006 el Gobierno tailandés bloqueó el


acceso al sitio como respuesta a la aparición de videos
donde se insultaba al Rey de Tailandia, Bhumibol
Adulyadej, considerado un crimen en ese país. El
Gobierno tailandés entregó a Google una lista de veinte
videos que consideraban ofensivos, exigiendo su
retirada para levantar el bloqueo.82 Los ejecutivos de
Google bloquearon los videos que violaban la ley
tailandesa, que contaba con amplio apoyo popular, para
evitar que direcciones IP tailandesas accediesen a
ellos.82 Una serie de videos que no violaban la ley pero
que eran considerados ofensivos por el Gobierno no
fueron bloqueados, solución que el Gobierno de
Tailandia aceptó.[cita requerida]

Transmisión en directo

El 25 de octubre de 2009 se transmitió en directo un


concierto del U2 360° Tour, gira de la banda irlandesa U2,
desde el Estadio Rose Bowl, en California, Estados
Unidos. Fue el primer concierto completo transmitido en
directo por YouTube.94 El 1 de diciembre de 2009 se
transmitió en directo el concierto de la artista Alicia
Keys desde Nueva York, en Estados Unidos. Es el
segundo concierto completo transmitido en directo por
YouTube.95 El 22 de enero de 2010 se transmitió en
directo un concierto para la esperanza de Haitítambién
desde Nueva York. Estaban invitados varios artistas,
como Justin Timberlake, Jay-Z, Rihanna, Shakira, U2,
Coldplay, Taylor Swift y otros.

El 27 de enero de 2011 YouTube transmitió el estreno de


la película Life in a Day del director Kevin McDonald,
película generada por la contribución en video de miles
de usuarios en YouTube.

Desde el 1 de julio de 2011 comenzó transmisiones de


los partidos en vivo de la Copa América 2011. Para el 5
de julio, el canal CopaAmerica tenía 61 761
subscriptores, sin embargo, esta transmisión por
razones desconocidas fue bloqueada en muchos
países.96

El 7 de abril de 2013 Youtube emitió en Directo el Pre-


show de la SuperBowl de la WWE WrestleMania 29.

Youtube Partners

A partir del año 2011 se comenzó el proyecto "Youtube


Partner", el cual consiste en otorgar ingresos reales por
medio de Google Adsense o "networks" que son
empresas que pagan los usuarios con mayor audiencia
de Youtube, referidos como youtubers o youtubero97 (en
minúsculas ambas, la primera en cursiva al ser un
anglicismo). Sólo empresas de medios con domicilio en
Estados Unidos con representación en YouTube son
candidatos para ser networks. Esta característica ha
permitido que las empresas de medios y usuarios
independientes que reciben grandes cantidades de
reproducciones sean capaces de recibir un ingreso
económico, con el fin de mejorar la calidad del trabajo.

A los que forman parte de este contrato se les da la


opción de poner anuncios ya sea dentro del vídeo o a un
costado del mismo, con la finalidad de obtener ingresos
por parte de los anunciantes que invierten por publicidad
dentro de los vídeos almacenados en esta página web.

YouTube Premium

El 12 de noviembre de 2014, se anunció de manera


oficial YouTube Music Key, el servicio de streaming por
suscripción del portal de videos. Music Key ofrece la
posibilidad de obtener streaming de música
directamente desde YouTube sin publicidad haciendo
uso de su propia aplicación, además permite realizar la
reproducción en segundo plano, ver contenido de
manera offline, realizar listas personalizadas y recibir
recomendaciones.98

Se lanzó inicialmente como Youtube Red, y


posteriormente se cambió el nombre por YouTube
Premium. Ofrece 3 meses de servicio gratuito y el pago
mensual de 9,99 $ en USA y 9,99 € en Europa. La
suscripción también incluye el servicio de Google Play
Music.

SlideShare es un sitio web 2.0 de espacio web de


dispositivos que ofrece a los usuarios la posibilidad de
subir y compartir en público o en privado ; documentos
en Adobe PDF (.pdf), Microsoft Word (.doc,.docx y.rtf) y
OpenOffice (.odt) y la mayoría de documentos de texto
sin formato (.txt),1 e incluso algunos formatos de audio
y vídeo.2
Originalmente el sitio web estaba destinado para los
empleados del ámbito empresarial con la intención de
que compartieran con más facilidad diapositivas entre
ellos, pero luego el público objetivo se amplió para
convertirse también en un entretenimiento.

Historia[editar]

SlideShare fue lanzado el 4 de octubre de 2006.3 Este


sitio web se considera similar a YouTube, pero de uso
orientado a las presentaciones de series de
diapositivas.4 El 4 de mayo de 2012 fue adquirida por
LinkedIn.

En agosto de 2015 como muestra del compromiso de


LinkedIn de apostar por una mayor integración con
SlideShare se produjo un rebranding pasándose a llamar
LinkedInSlideShare, con la intención de tratar de
profesionalizar y evolucionar la web. Como muestra de
esta nueva estrategia de profesionalización e
integración de LinkedIn con SlideShare van a ir
presentando una seria de aplicaciones y mejoras de su
sitio web, que comprenderán desde la nueva
herramienta Clipping hasta opciones para una mejor
organización, formas de posicionamiento personal de
los usuarios o búsqueda de expertos en categorías que
interesen al propio usuario, así como otras herramientas
personalizadas. Según la compañía tiene 70 millones de
usuarios mensuales activos y un total de aproximado de
400 mil presentaciones añadidas cada mes. El
contenido en el sitio web casi se ha doblado desde la
unión con LinkedIn, pasando de los 10 millones en 2013
a 18 millones actualmente. 5

los siguientes servicios son basados con la siguiente


información:

Servicios de SlideShare[editar]

SlideShare ha desarrollado servicios adicionales que


complementan su funcionalidad:

Zipcasts hd6[editar]

En febrero de 2011 SlideShare añadió una función


llamada Zipcasts. Zipcasts es un sistema de
conferencia a través de web social que permite a los
presentadores transmitir una señal de audio / vídeo
mientras se conduce la presentación a través de
Internet. Zipcasts también permite a los usuarios
comunicarse durante la presentación a través de una
función de chat integrada.

Zipcasts no soporta compartir la pantalla con el


presentador, una característica disponible en los
servicios competidores de pago como WebEx y
GoToMeeting. Además, los presentadores que usan
Zipcasts no son capaces de controlar el flujo de la
presentación, permitiendo a los espectadores navegar
hacia atrás y adelante a través de las propias láminas.

Clipping7[editar]

En agosto de 2015, LinkedIn SlideShare lanza Clipping,


que permite guardar diapositivas individuales de
presentaciones en tu propia colección (Clipboard). Se
puede utilizar como marcador, para coleccionar y
organizar las diapositivas a las que quieras volver a
acceder en cualquier otro momento.

Slidecast8[editar]
Permite añadir voz o música a una presentación
slideshare, logrando una sincronización del archivo
sonoro con las dispositivas.

Recientemente ha incorporado la posibilidad de integrar


en una presentación ya subida a SlideShare, clips de
vídeo previamente publicados en YouTube.

Wikipedia es una enciclopedia libre,nota 2 políglota y


editada de manera colaborativa. Es administrada por la
Fundación Wikimedia, una organización sin ánimo de
lucro cuya financiación está basada en donaciones. Sus
más de 50 millones de artículos en 300 idiomas han
sido redactados en conjunto por voluntarios de todo el
mundo,5 lo que suma más de 2000 millones de
ediciones, y permite que cualquier persona pueda
sumarse al proyecto6 para editarlos, a menos que la
página se encuentre protegida contra vandalismos para
evitar problemas y/o trifulcas.

Fue creada el 15 de enero de 2001 por Jimmy Wales y


Larry Sanger7 y es la mayor y más popular obra de
consulta en Internet.8910 Desde su fundación, Wikipedia
no solo ha ganado en popularidad —se encuentra entre
los 10 sitios web más populares del mundo—,1112 sino
que su éxito ha propiciado la aparición de proyectos
hermanos: Wikcionario, Wikilibros, Wikiversidad,
Wikiquote, Wikinoticias, Wikisource, Wikiespecies y
Wikiviajes.

No obstante, tiene numerosos detractores. Entre ellos,


algunos la han acusado de parcialidad sistémica y de
inconsistencias,13 con críticas centradas sobre lo que
algunos, como Larry Sanger, han convenido en llamar
«antielitismo»,14 y que no es otra cosa que la política
del proyecto enciclopédico de favorecer el consenso
sobre las credenciales en su proceso editorial.15 Otras
críticas han estado centradas en su susceptibilidad de
ser vandalizada y en la aparición de información espuria
o falta de verificación,16 aunque estudios eruditos
sugieren que el vandalismo en general es deshecho con
prontitud.1718

Hay controversia sobre su fiabilidad y precisión.19 La


revista científica Nature declaró en diciembre de 2005
que la Wikipedia en inglés era casi tan exacta en
artículos científicos como la Encyclopaedia
Britannica.20 El estudio se realizó comparando 42
artículos de ambas obras por un comité de expertos sin
que estos supieran de cuál de las dos enciclopedias
provenían. El resultado fue que Wikipedia tenía casi el
mismo nivel de precisión que la Enciclopedia Británica,
pero tenía un promedio de un error más por artículo.21

Por otro lado, y según consta en un reportaje publicado


en junio de 2009 por el periódico español El País, un
estudio de 2007, dirigido por el periodista francés Pierre
Assouline y realizado por un grupo de alumnos del
máster de Periodismo del Instituto de Estudios Políticos
de París para analizar la fiabilidad del proyecto, se
materializó en el libro La revolución Wikipedia (Alianza
Editorial) cuyas conclusiones eran bastante críticas.
Entre otras cosas, afirmaba que el estudio de Nature fue
poco estricto y sesgado, así como que, según su propio
estudio, la Britannica continuaba siendo un 24 % más
fiable que la Wikipedia.22

De las 300 ediciones, quince superan el 1 000 000 de


artículos: inglés, cebuano, sueco, alemán, francés,
neerlandés, ruso, italiano, español, polaco, samareño,
vietnamita, japonés, chino y portugués.

La versión en alemán ha sido distribuida en DVD-ROM, y


se tiene la intención de hacer una versión inglesa en
DVD con más de 2000 artículos.23 Muchas de sus
ediciones han sido replicadas a través de Internet
—mediante «espejos»— y han dado origen a
enciclopedias derivadas —bifurcaciones— en otros sitios
web.24

Etimología

La palabra Wikipedia, nombre propio acuñado por Larry


Sanger a principios de 2001, es la contracción de wiki,
una tecnología para crear sitios web colaborativos,
procedente a su vez de wikiwiki, 'rápido' en hawaiano,25
y encyclopedia, 'enciclopedia' en inglés.26 Este nombre
se pronuncia en inglés como [ˌwɪkɨˈpiːdi.ə] (?·i) o
AFI: [ˌwɪkiˈpiːdi.ə] (AFI).

La Wikipedia en español, creada meses después, heredó


el nombre. Tras una votación realizada entre septiembre
y noviembre de 2003 por parte de los usuarios de esta,
se decidió seguir con el mismo término. En la votación
se barajaron los siguientes nombres —por orden de
popularidad—: Librepedia, Huiquipedia, Uiquipedia,
Güiquipedia, Viquipedia, Ñiquipedia, Velozpedia,
Limonpedia, Güisquipedia y Velocipedia.27

Otros que también usaron el nombre Wikipedia fueron


los idiomas —ordenados según el ISO 639-3—: alemán,
bretón, corso, danés, euskera, filipino, finlandés, gallego,
neerlandés, indonesio, islandés, italiano, nauruano,
noruego, polaco, rumano, siciliano, somalí, suajili y
sueco.
Otras grafías para el título

Esta es una lista de las grafías alternativas usadas para


nombrar a Wikipedia en las diferentes ediciones:28

Bichipedia - Sardo.
Biquipedia - Aragonés.
Güiquipeya - Extremeño.
Uichipedia - Arrumano.
Uiquipedia - Asturiano.
Uikipedias - Lojban.
Vichipedia - Romanche.
Vichipedie - Friulano.
Vicipaedia - Latín.
Vicipéid - Irlandés.
Vikipedi - Turco.
Vikipedia/‫ ויקיפידיה‬- Judeo-español.
Vikipedio - Esperanto.
Vikipedija - Lituano.
Vikipēdija - Letón.
Vikipediya *1 *2 *3 - Azerí, tártaro de Crimea, uzbeko.
Vikipeedia - Estonio.
Vikipeediä - Võro.
Vikipetã - Guaraní.
Vikipedėjė - Samogitiano.
Vikipidiya - Romaní.
Viquipèdia - Catalán.
Vitipetia - Tahitiano.
Vouiquipèdia - Franco-provenzal.
Wicipǣdia/Ƿicipǣdia - Anglosajón.
Wicipedia - Galés.
Wikipaedia - Escocés.
Wikipédia *4 *5 *6 *7 - Francés, eslovaco, húngaro,
portugués.
Википедия - Tártaro.
Wikipedie - *8 *9 Checo, novial.
Wikipediija - Sami septentrional.
Wikipedijô - Casubio.
Wikipedio - Ido.
Վիքիպեդիա - Armenio.
‫ وﻳﻜﻴﺒﻴﺪﻳﺎ‬- Árabe.
วิกพ
ิ ีเดีย - Tailandés.
ウィキペディア - Japonés.
Huiquipedia - Náhuatl.
Oiquipedià - Occitano.
‘O Wikipikia - Hawaiano.
uikiPEdi, as - Lojban.
Uicchipèdie - Tarantino.
Wikiibíídiiya - Navajo.
Wikipedi - Bambara.
Wikipedija*10 *11 *12 *13 *14 - Bosnio, croata,
esloveno, maltés, serbocroata.
Wikipediya - Zazaki.
Wikipidiya*15 *16 - Aimara, quechua.
Wîkîpediya - Kurdo.
Wïkïpêdïyäa - Sango.
Wikipedy - Frisón.
Wikipedyjo - Silesio.
Wikipeediya - Fula.
Wikipidya*16 *17 - Bicolano central, cabilio.
Wikkipedija - Fráncico ripuario.
Wéijībǎikē / 维基百科 - Chino.
ᓀᐦᐃᔭᐧᐁᒧᐧᐃᓐ/Uikuepitiu - Cri.
Βικιπαίδεια*18 *19 - Griego, póntico.
Википеди*20 *21 - Chuvacho, osético.
Википедия - Ruso.
Википедиесь - Moksha.
Википедиja*22 *23 - Macedonio, serbio.
Вікіпедія - Ucraniano.
Уикипедия - Búlgaro.
‫ ויקיפדיה‬- Hebreo.
‫ ויקיפעדיע‬- Yiddish.
‫ وﯾﮑﯽﭘﺪﯾﺎ‬- Persa.
ვიკიპედია - Georgiano.
26* 5‫ وﯾـﮑـ‬- Hindi, maratí, sánscrito.
����� - Telugú.
维基百科 - Cantonés.

Nota: Cada asterisco (*) denota una referencia


respectiva por la múltiple adopción lingüística.

Características

Un mundo donde cada persona pueda compartir


libremente en la suma de todo conocimiento.

Existen tres características esenciales del proyecto


Wikipedia que definen en conjunto su función en la web.
El lema «La enciclopedia libre que todos pueden editar»
explica los tres principios:29

Es una enciclopedia, entendida como soporte que


permite la recopilación, el almacenamiento y la
transmisión de la información de forma estructurada.
Es un wiki, por lo que, con pequeñas excepciones,
puede ser editada por cualquiera.
Es de contenido abierto.

Según su cofundador, Jimmy Wales, el proyecto


constituye «un esfuerzo para crear y distribuir una
enciclopedia libre, de la más alta calidad posible, a cada
persona del planeta, en su idioma», para lograr «un
mundo en el que cada persona del planeta tenga acceso
libre a la suma de todo el saber de la humanidad».30 Se
desarrolla en el sitio Wikipedia.org haciendo uso de un
software wiki —término originalmente usado para el
WikiWikiWeb—.

Edición y contenido

Han existido y existen muchas enciclopedias en línea


que compitieron con Wikipedia, como Microsoft Encarta
y Encyclopædia Britannica; sin embargo, ninguna ha
logrado el mismo éxito que Wikipedia.3132 Pese a su
competición, la enciclopedia ha atraído la atención de
otras tradicionales influidas popularmente.33

Según un estudio realizado por la revista Nature en


2007, «Wikipedia alcanzaba a la Enciclopedia Británica»
en calidad,34 aunque existe controversia sobre este
asunto.3536 Además, sus contenidos están disponibles
en formato impreso.3738

Otro estudio realizado por la Universidad Carnegie


Mellon y Palo Alto Research Center sobre las mayores
categorías de artículos en la Wikipedia en inglés desde
julio de 2006 hasta enero de 2008, arrojó los siguientes
resultados:39

Evolución del número de artículos a lo largo del tiempo


(2001-2010), para los ocho lenguajes con mayor número
de artículos. Destaca la edición en inglés, y se nota un
sostenido crecimiento en todas.

[[PASTING TABLES IS NOT SUPPORTED]]


En 2010, Alison J. Head y Michael B. Eisenberg
publicaron una investigación sobre el uso que dan a la
Wikipedia los estudiantes universitarios. El estudio tuvo
lugar en siete universidades de Estados Unidos, y tenía
como objetivo mostrar con qué frecuencia, motivos y en
qué momento de un trabajo académico, se utiliza esta
enciclopedia. El resultado la posicionó como la sexta
fuente de consulta y la segunda no académica; la
enciclopedia predilecta para obtener un trasfondo
general sobre un tema. Se ubicó por delante de sitios
gubernamentales, compañeros de clase, colecciones
personales de libros, y la Enciclopedia Británica, que
quedó relegada al undécimo puesto (61 %).4041

[[PASTING TABLES IS NOT SUPPORTED]]Interfaz

Para la visualización de artículos, la fundación


Wikimedia rediseñó la interfaz con un tema o tapiz que
se conoce como vector, creado en 2010.4243 Antes de
la actualización, años atrás existía una interfaz clásica
conocida como Monobook con limitadas
características.44 Dentro de la interfaz, existen variedad
de mandos usados para navegar o editar páginas. Por
ejemplo, para buscar, ir a otros enlaces o ampliar
imágenes como otros sitios web. Además, mediante las
pestañas, pueden navegar, interaccionar o colaborar con
otras páginas. Aunque algunas actividades de
mantenimiento, son ocultas para los usuarios no
registrados en el proyecto.

Para editar un artículo se recurre al código wiki en una


caja de texto a través de la pestaña "Editar" que no
siempre está disponible en caso de alguna prevención
contra el vandalismo. Entre sus mandos, no se
asemejan al clásico HTML; por ejemplo para los enlaces
se usan corchetes, signos iguales para los títulos, entre
otros, lo cual puede dar una mala impresión a aquellas
personas que no tengan conocimientos en
Informática.45

Diferencia entre revisiones.

La interfaz de edición de Wikipedia.

Acceso en múltiples idiomas

Portada de Wikipedia en japonés.

En octubre de 2016, Wikipedia abarcaba 284 ediciones


«activas» en distintos idiomas y dialectos.

Cada edición trabaja de forma independiente, no está


obligada a incluir el contenido de otras ediciones, y solo
debe respetar políticas globales tales como la de
mantener un «punto de vista neutral». Sin embargo, se
comparten algunos artículos e imágenes entre las
diversas ediciones de Wikipedia o a través del
repositorio de Wikimedia Commons, y se solicitan
traducciones organizadas de artículos procedentes de
otras ediciones. Los artículos traducidos representan
solamente una pequeña parte del total en cualquiera de
ellas.46

Las cinco ediciones con más artículos son, en orden


descendente, inglés, sueco, neerlandés, alemán y
francés. En enero de 2011, Wikipedia contenía 278
ediciones —268 activas— en varios estados de
desarrollo, que sumaban más de 17 millones de
artículos.5

La lista de idiomas incluye idiomas artificiales como el


esperanto, lenguas indígenas o aborígenes como el
náhuatl, el maya y las lenguas de las islas Andamán, o
lenguas muertas, como el latín, el chino clásico o el
anglosajón.

El 1 de marzo de 2006, la Wikipedia en inglés se


convirtió en la primera en superar el millón de artículos,
seguida el 27 de diciembre de 2009 por la Wikipedia en
alemán, el 21 de septiembre de 2010 por la Wikipedia en
francés, el 17 de diciembre de 2011 por la Wikipedia en
neerlandés, el 22 de enero de 2013 por la Wikipedia en
italiano, el 11 de mayo del mismo año por la Wikipedia
en ruso, el 16 del mismo mes por la Wikipedia en
español, el 15 de junio por la Wikipedia en sueco y el 24
de septiembre por la Wikipedia en polaco. Durante la
primera mitad de 2014, alcanzaron también el millón de
artículos tres ediciones en lenguas asiáticas: la
Wikipedia en vietnamita, la Wikipedia en samareño y la
Wikipedia en cebuano.

La siguiente es una lista de las dieciséis mayores


ediciones ordenadas por número de artículos. Las cifras,
que son referenciadas respectivamente a cada versión,
son actuales.

[[PASTING TABLES IS NOT SUPPORTED]]

Muchas ediciones de Wikipedia —como la sueca, la


neerlandesa y la rusa— utilizan bots para la creación
automática de esbozos, razón por la que el número de
artículos no es necesariamente una referencia válida
con respecto a su estado o calidad.4748 Una
categorización diferente sería la media de tamaño por
artículo; así, una Wikipedia con numerosos artículos de
apenas unos pocos bytes quedaría situada por debajo
de otra con menos entradas pero más trabajadas.
También hay que tener en cuenta que muchas
Wikipedias —como, por ejemplo, la rusa, la japonesa, la
china y la hebrea— usan alfabetos no latinos, silabarios
o sistemas ideográmicos, y ello aumenta el tamaño de
las bases de datos.

Comunidad

Las contribuciones anónimas son menores en


comparación con las contribuciones de los usuarios
registrados.

Algunos proyectos, como el de la Stanford Encyclopedia


of Philosophy, o el de la ahora abandonada Nupedia, se
basan en políticas editoriales tradicionales y de autoría
de artículos tipo «escritura por expertos».
Ocasionalmente aparecen sitios web como h2g2 o
everything2 que siguen unas pautas generales
preestablecidas, donde los artículos solo pueden ser
redactados y controlados por cada persona de forma
individual.49

Contrariamente, proyectos como Wikipedia, Susning.nu


o la Enciclopedia Libre son wikis en los que los artículos
son desarrollados por numerosos autores, y no existe un
criterio de revisión formal. Wikipedia es la enciclopedia
más grande en cuanto a número de artículos o palabras
jamás escrita. Al contrario de lo que sucede con muchas
otras, su contenido está liberado bajo licencias de
contenido abierto.

Wikipedia dispone de un conjunto de políticas y


convenciones que sirven para decidir qué información
debe o no incluirse.50 Estas políticas se utilizan para
resolver disputas relativas a la creación, edición y
borrado de artículos, así como a la transferencia de
estos a un proyecto hermano por no tratarse de
información enciclopédica (véase la sección Fundación
Wikimedia y los proyectos hermanos).

Cultura

La cultura de la sociedad ha variado, según el estado, en


cada versión. En el caso principal, la Wikipedia en
español cualquier persona tiene la posibilidad de crear
un artículo nuevo y casi cualquier visitante puede editar
el contenido, a excepción de los artículos que se
encuentran protegidos. Sin embargo, en la inglesa los
usuarios no registrados no pueden comenzar artículos
desde cero. Wikipedia fue creada con la idea de producir
textos de calidad a partir de la colaboración entre
usuarios, a semejanza de los proyectos de desarrollo de
aplicaciones libres.

Los artículos evolucionan con el paso del tiempo, y esto


es visible en su historial de ediciones. Habitualmente,
una parte de las ediciones son vandálicas —de
contenido no relacionado con Wikipedia o con
información falsa—, y en ocasiones editores con puntos
de vista encontrados producen lo que se conoce como
guerra de ediciones. Esta se produce cuando dos o más
editores entran en un ciclo de reversiones mutuas
debido a disputas causadas por diferencias de opinión
sobre el contenido del artículo. No hay que confundir
vandalismo —que frecuentemente afecta una sola vez a
un artículo o artículos— con guerra de ediciones, la cual
afecta repetidas veces a un mismo artículo en un breve
lapso. Entre los artículos vandalizados frecuentemente
en la edición en español destacan: George W. Bush,
Benedicto XVI o Testigos de Jehová; mientras que
artículos con fuertes guerras de ediciones son Cuba o
Comunidad Valenciana, debido a la disparidad entre las
opiniones de sus redactores.

Cada capítulo de Wikipedia cuenta con un grupo de


personal, encargado en la cooperación. Dentro de esta
lista se mencionan a administradores, cuyas funciones
fundamentales son hacer mantenimiento —tal como
borrar artículos, bloquear vándalos y otras funciones— y
estar al servicio del cumplimiento de las normas que la
rigen. El capítulo con más administradores es la
Wikipedia en inglés, con un total de más de 1600.51

Mascota

Debido a su considerable popularidad, existieron


propuestas de mascotas que representaban a Wikipedia
de una manera no oficial. La primera en aparecer fue la
de Wikípedo, una hormiga trabajadora dedicada al
mantenimiento de sus contribuciones.52 Su popularidad
fue poca.

En 2004, en una votación para ser remplazada o


abandonada, la comunidad eligió a Wikipe-tan, un
personaje tipo OS-tan dibujada por un usuario diseñador
gráfico para un proyecto de anime y manga.53 No
obstante, ha sido criticada por ser sexuada, considerado
ofensivo por partes de la comunidad.545556

Marca corporativa

Las cinco marcas corporativasoficiales utilizadas


anteriormente por Wikipedia, desde su creación hasta
mayo de 2010.

Elemento gráfico usado desde mayo de 2010.


Desde su inicio en 2001, Wikipedia ha utilizado
diferentes marcas corporativas. El elemento común en
todas ellas es una esfera escrita como elemento central,
simbolizando el mundo y el conocimiento.

En 2003 se adoptó por concurso internacional el dibujo


de una esfera incompleta, conocida como globo-
rompecabezas, compuesta por piezas de un
rompecabezas de varios colores, con enlaces en azul
pertenecientes a distintas escrituras del mundo,
simbolizando así la condición de «obra en construcción»
que tiene Wikipedia.57 El diseño que ganó el concurso
internacional sufrió algunas modificaciones antes de ser
aprobado como logo oficial, principalmente la
eliminación del color y el reemplazo de los enlaces por
grafemas de diversas escrituras del mundo.

La denuncia de diversos errores e inconsistencias en los


símbolos incluidos en el globo-rompecabezas y la
posibilidad de diseñar una imagen animada o
fotorrealista impulsó entre diversos editores de
Wikipedia un debate sobre la posibilidad de realizar
modificaciones en el elemento gráfico. Como
consecuencia, y tras la labor realizada a través de una
iniciativa de la Fundación Wikimedia junto a miles de
voluntarios para modificar la interfaz de la enciclopedia,
el dibujo de la globo-rompecabezas fue reemplazado en
2010 por un modelo tridimensional, en el que algunos
símbolos de las piezas de rompecabezas fueron
reemplazados por otros, principalmente aquellos que
constituyen el primer grafema de la palabra "Wikipedia"
en distintas wikipedias que existen en el mundo. Por
añadidura, se cambió la tipografía del elemento
denominativo —«WIKIPEDIA, La enciclopedia libre»—
para usar la fuente abierta Linux Libertine, con
excepción de la W inicial, que se mantiene con la fuente
Hoefler Text y constituye también uno de los símbolos
oficiales.585960

Cada Wikipedia según idioma es autónoma y tiene


facultades para elegir la marca que la identifique. A
partir de 2003 todas han adoptado básicamente la
misma, con el elemento denominativo «Wikipedia, The
free encyclopedia» —«Wikipedia, La enciclopedia libre»—
traducido al idioma en que se escribe cada una. Las
marcas han sido realizadas voluntaria y gratuitamente
por usuarios de Wikipedia, y sus derechos pertenecen a
la Fundación Wikimedia.

Historia

La marca corporativa de Nupedia.

Wales cita el ensayo "El uso del conocimiento en la


sociedad", escrito por el economista y filósofo de la
escuela austriaca y Premio Nobel de Economía Friedrich
Hayek, que leyó cuando era estudiante,61 como
«central» para su pensamiento acerca de «cómo
gestionar el proyecto Wikipedia»62636465 Hayek
argumenta que la información está descentralizada
—cada individuo solo conoce una pequeña fracción de lo
que se conoce colectivamente— y, como resultado, las
decisiones se toman mejor por aquellos con
conocimientos locales, en lugar de por una autoridad
central.6266 Wales reconsideró el ensayo de Hayek en la
década de 1990, mientras estaba leyendo sobre el
movimiento de código abierto, que abogaba por la
distribución gratuita de software libre. Fue
particularmente conmovido por el ensayo "La catedral y
el bazar" escrito por uno de los fundadores del
movimiento, Eric S. Raymond y adaptado más adelante
en un libro. Wales afirmó que ese ensayo «abrió [sus]
ojos a las posibilidades de colaboración masiva».61

En marzo de 2000, Jimmy Wales creó Nupedia, un


proyecto de enciclopedia libre basado en un ambicioso y
exhaustivo proceso de revisión por pares,67 diseñado
para hacer sus artículos de una calidad comparable a la
de las enciclopedias profesionales gracias a la
participación de eruditos –principalmente doctorandos y
académicos—, a los que se proponía colaborar de modo
no remunerado. El proyecto tuvo el apoyo económico de
la empresa Bomis, fundada por Wales y administrada
por este junto con un compañero desde 1996,68 y la
colaboración de Richard Stallman, quien propuso el
cambio a la licencia pública general de GNU, desde la
antigua Nupedia Open Content License.69 Larry Sanger,
doctor en filosofía, que ya conocía anteriormente a
Wales de mantener con él discusiones filosóficas por
Internet, fue contratado por este y se convirtió en
redactor jefe de Nupedia.68

Debido al lento avance del proyecto, en 2001 se creó un


wiki —UseMod— vinculado a Nupedia cuya finalidad
inicial era agilizar la creación de artículos de forma
paralela, antes de que estos pasaran al sistema de
revisión por expertos. Existe cierta polémica entre los
fundadores de Nupedia sobre quién propuso
originalmente la idea de usar un wiki a Jimbo Wales, si
Larry Sanger o bien una tercera persona,70 pero el caso
es que el éxito de aquel «pequeño proyecto paralelo»
—Wikipedia— acabó eclipsando a Nupedia, que dejó de
funcionar en 2003.

El artículo "UuU", creado el 16 de enero de 2001, es


aceptado como el artículo actualmente existente más
antiguo de Wikipedia. Apareció en la Wikipedia en inglés
y así es como puede verse aquella primera edición,
recurriendo al historial.

El proyecto Wikipedia se inició el 15 de enero de 2001. El


artículo más antiguo que puede encontrarse en
Wikipedia es UuU, creado el 16 de enero de 2001 en la
versión inglesa; consistía en tres enlaces hacia sendos
artículos sobre el Reino Unido, Estados Unidos y
Uruguay.71 Larry Sanger pasó a colaborar con Wikipedia
y trabajó activamente en la organización y directrices del
proyecto; se marchó en 2002 por desacuerdos con
Wales.68 Ese año, Wikipedia abarcaba 26 idiomas, 46 en
2003 y 161 a finales de 2004. Wikipedia y Nupedia
coexistieron hasta la extinción de la segunda en 2003.72
Sin embargo, la posibilidad de utilizar publicidad en
Wikipedia provocó una reacción de parte de los
contribuyentes de la Wikipedia en español, motivo que
llevó a la creación de la Enciclopedia Libre Universal en
Español en febrero de 2002.73 Este episodio podría
haber impulsado a su vez la determinación de no utilizar
publicidad, la creación de la Fundación Wikimedia y el
cambio al nuevo url.74

Se han iniciado otros varios proyectos de enciclopedia


con formato wiki, en gran parte bajo una filosofía
diferente de la apertura y el modelo editorial del «punto
de vista neutral» desarrollado por Wikipedia. Por
ejemplo, Wikinfo, uno de los portales web, no requiere un
punto de vista neutral y permite la investigación
original.75 También hubo nuevos proyectos inspirados
en Wikipedia —como Citizendium, Scholarpedia,
Conservapedia, y Knol de Google76— donde algunos de
los aspectos que son fundamentales en Wikipedia se
abordan de manera diferenciada, como las políticas de
revisión por pares, la investigación original, y la
publicidad comercial.

El 20 de septiembre de 2004, Wikipedia alcanzó 1 millón


de artículos en 100 idiomas.77 En 2007 la versión en
inglés superó los 2 millones de artículos, convirtiéndose
en la enciclopedia con mayor número de artículos de la
historia y superando en ese aspecto a la Yongle Dadian
de 1407, que sostuvo el récord durante varios siglos.78
Debido a su popularidad y sencillez, el Oxford English
Dictionary ha considerado introducir el término wiki.79

En octubre de 2011, Wikimedia anunció el lanzamiento


de Wikipedia Zero, una iniciativa para permitir el acceso
gratuito móvil (datos) a la Wikipedia en países del tercer
mundo a través de colaboraciones con operadores de
telecomunicaciones móviles.8081

Política

Wikipedia tiene una serie de políticas establecidas por


los propios participantes, cuya finalidad conjunta es
mantener la identidad del proyecto como enciclopedia y
promover la calidad de sus contenidos. Cada capítulo de
Wikipedia adopta sus propias políticas, aunque algunas
son comunes a todos ellos. Una vez que la comunidad
logra el consenso sobre la aplicación de una norma,
todos los editores están obligados a respetarla.

Algunas de estas políticas son:

Debido a la diversidad y número de participantes e


ideologías, provenientes de todas las partes del
mundo, Wikipedia intenta construir sus artículos de
la forma más exhaustiva posible. El objetivo no es
escribir artículos desde un único punto de vista, sino
presentar abiertamente cada postura sobre un
determinado tema. Como es obvio, no caben todas
las posturas, pues no se admitirían, por ejemplo, la
inclusión de aportaciones de quienes exalten o
defiendan ideas que implican odio o violencia —por
ejemplo, no se admitirían frases a favor de
personajes que hayan promovido el genocidio de
razas consideradas como inferiores—.nota 3

Se sigue una serie de convenciones con respecto al


nombramiento de artículos, optándose
preferentemente por la versión más comúnmente
utilizada en su respectiva lengua.nota 4

Las discusiones acerca del contenido y edición de un


artículo ocurren en las páginas de discusión y no
sobre el artículo mismo.nota 5

Existen varios temas que resultan excluidos de


Wikipedia por no constituir artículos enciclopédicos
estrictamente hablando. Por ejemplo, Wikipedia no
contiene definiciones de diccionario —como verbos,
adjetivos, etc.—, que sí pueden encontrarse en el
Wikcionario.nota 6

Neutralidad del contenido

Wikipedia es un proyecto dirigido a —literalmente— todo


el mundo y editable por —literalmente— cualquier
persona. Esta característica constituye una de sus
mayores ventajas, pero también genera un problema:
existen personas que introducen —deliberadamente o
no— información parcial, bien creando un planteamiento
sesgado, o bien omitiendo puntos de vista que no
comparten o que no les interesan.82

La política que se encarga de combatir dicho problema


es el punto de vista neutral, que, básicamente, establece
la necesidad absoluta e innegociable de reunir en los
artículos susceptibles de polémica todos los puntos de
vista significativos. Además, las licencias de contenido
libre garantizan que dicho contenido pueda ser
reeditado cuantas veces sea necesario y por cualquier
persona si el propósito de la edición es la mejora. Según
Jimmy Wales, uno de los fundadores de Wikipedia, la
colaboración produce efectos positivos y ampliamente
aceptados.83

Para el ingeniero informático formado en filosofía


Joaquín Siabra Fraile, Wikipedia es primero un conjunto
de reglas y procedimientos y, solo después, contenidos,
las reglas son un mecanismo virtual diseñado para
conseguir unos contenidos fruto del consenso racional.
Para Siabra se dan en el wikipedista lo que Habermas
consideraba como criterios del participante en una
situación ideal de comunicación: verdad, rectitud y
veracidad.8485

Relevancia del contenido

Wikipedia, debido a su condición de enciclopedia


electrónica sin ánimo de lucro y en crecimiento
permanente tanto en lo referente a su contenido como a
su número de editores —cuya inmensa mayoría colabora
de forma altruista—, admite información que no tendría
cabida en una enciclopedia convencional, limitada esta
última por el espacio físico —número de tomos— en el
que se confina dicha información, por el número de
editores contratados por la editorial y por el tiempo
dedicado a confeccionar la obra. Sin embargo, no toda
la información tiene cabida, y existen criterios de
relevancia establecidos por consenso comunitario, de
tal modo que, aunque no se rechaza a priori ningún
artículo, se investigan las nuevas creaciones y se
descartan las que no cumplen determinados requisitos.
Por ejemplo, no se admiten los artículos
autopromocionales; esto es, que ninguna persona puede
publicar un artículo sobre sí misma, sobre una persona
cercana —familiar, por ejemplo— o sobre la empresa en
la que trabaja. Cuando el tema goza de una mínima —y
necesaria— relevancia, llega a captar la atención de
—cuando menos— algún medio de comunicación —libro,
revista, periódico— reputado, y es a estos últimos a los
que, según las normas de Wikipedia, debe acudirse para
crear el artículo. Estos criterios están contemplados en
varias políticas, a saber, «Páginas de autopromoción»,86
«Criterios para el borrado rápido»,87 «Wikipedia no es
una fuente primaria»,88 «Verificabilidad»89 y «Fuentes
fiables».90

Según declaraciones oficiosas de un «bibliotecario»


—administrador— colombiano de la Wikipedia en
español, los «bibliotecarios» de esta Wikipedia eliminan
más artículos que los de otras versiones de
Wikipedia.91

Licencia de contenido

Icono de CC-BY-SA, que simboliza a Creative Commons


Atribution Share-Alike —en español, atribución y
compartir la licencia similar de Creative Commons—.

El contenido textual está bajo las licencias GNU y


Creative Commons; la última versión se actualizó
mediante una votación entre el 12 de abril y el 3 de mayo
de 2009.92 Mediante el lema La enciclopedia libre se
entendía, al modo del software libre, como un producto
de distribución gratuita y sin restricciones. Así también,
se considera software por la codificación de MediaWiki,
bajo GPL. Esta redistribución presenta el requisito de
que debe ser acreditada, es decir, debe mencionarse su
atribución, ya que la licencia incluye Share-Alike;
además, es necesario conservar esta licencia —u otra
similar— evitando su protección de distribución.93 Sin
embargo, se había estado trabajando en el cambio a
licencias Creative Commons, porque la GFDL,
inicialmente diseñada para manuales de software, no es
adecuada para trabajos de referencia en línea y porque
las dos licencias son incompatibles.94

A cada autor, editor o ilustrador que contribuye a la


enciclopedia siempre se le atribuyen los derechos de
autor según la convención de Berna.95 Un autor también
puede copiar contenido de otro con el permiso
correspondiente —sobre todo en el caso de contenido
con licencia libre—, sin embargo no podrá usarse un
contenido que prohíbe su distribución, reproducción o
modificación de una manera ilícita, porque ello limitaría
su utilización con seguridad y acarrearía problemas con
las políticas. Por ello, en la Wikipedia en inglés puede
aparecer cualquier imagen ilustrativa siempre que lo
haga de manera lícita.96

A excepción del contenido y varias de sus


características, el isologo de esta marca corporativa
está protegido, por lo que no se permite su distribución
sin previa autorización.97
Protección de datos

Historial de ejemplo que ilustra la ocultación de


información con contenido difamatorio.

Para la fundación, la privacidad de la información es tan


importante como la prevención de vandalismo.98
Muchos artículos son revertidos o incluso ocultados del
historial —en la imagen—, este último se consigue con la
eliminación de información a través de supresores que
disponen de herramientas específicas para ello. De este
modo, por ejemplo, se eliminan las ediciones insultantes
o intimidatorias y se evitan sobrecargas confusas en el
historial del artículo.99

En cuanto a la comunidad, los usuarios no ceden


demasiada información y es la propia comunidad quien
decide salvar fácilmente de cualquier amenaza.100 Ello
permite atribuir de una manera «anónima» y minimiza el
trabajo. Para administrar, por ejemplo, se realizan
estadísticas, para organizar las visitas, artículos, entre
otros; pudiendo ser poco usual para censar
comunidades. En cuanto a la atribución, Creative
Commons, por su parte, no garantiza el contenido por
los derechos de imagen que hayan cedido.101

En la Wikipedia en alemán los artículos no son


publicados hasta haber sido revisados por un editor
experto. Se está barajando la posibilidad de aplicar la
misma medida en la Wikipedia en inglés.102

Usuarios

Wikipedia está siendo editada por miles de personas en


todo el mundo. Con excepción de ciertas personas
remuneradas por la Fundación Wikimedia,103 el resto,
conocidos en la jerga de Wikipedia como wikipedistas,
actúan siempre de manera gratuita y voluntaria.104 En
total, la comunidad está conformada por más de 400
millones de usuarios registrados en todo el mundo,105
incluyendo algo más de 1 700 000 en la versión hispana,
donde el 13 % son mujeres.106

En las páginas internas de Wikipedia —dirigidas


fundamentalmente a los colaboradores—, se anima a los
usuarios a participar activamente en el proyecto. Hay
diversas formas de colaborar: desde crear nuevos
artículos, ampliar los ya existentes, o corregir textos que
no cumplan las convenciones de estilo establecidas o
cuya información sea errónea o inexacta, hasta
clasificar artículos por materia, añadir imágenes y otros
materiales multimedia del repositorio Commons, retirar
textos con derechos de autor, aportar sugerencias, o,
para los más inexpertos, señalar simplemente cualquier
defecto encontrado con la finalidad de que otros lo
corrijan. Actualmente, 72 son administradores humanos
y 36 son sistemas de mantenimiento robot como
«trabajadores automáticos» de mantenimiento.

Usuario anónimo

Para colaborar no es necesario registrarse. Por ese


motivo, los contribuyentes que no se registran,
conocidos como usuarios anónimos, aparecen
identificados en sus ediciones con un número de IP en
lugar de con un alias. Por no estar registrados, tienen
restringidas ciertas acciones, como la de votar en la
toma de decisiones.

Usuario registrado

En Wikipedia el registro es gratuito e instantáneo. El


usuario registrado, a diferencia del anónimo, se
identifica con un alias y una página de usuario
propia,nota 7 además de poder personalizar su interfaz
de edición wiki. Una condición necesaria a la hora de
registrarse es elegir un alias que no resulte ofensivo o
difícil de escribir.107 A algunos usuarios que ya llevan
un cierto tiempo editando en Wikipedia sin problemas se
les asigna la categoría de autoconfirmados; sus
ediciones aparecen en la página de cambios recientes
con un fondo diferente al del resto de los usuarios. Es
una medida de economía de esfuerzos que permite que
los usuarios que se dedican a combatir vandalismo y
revertir ediciones incorrectas, basándose en la
confianza en estos usuarios, se abstengan de
comprobar sus ediciones y de este modo focalicen su
labor en el resto de las ediciones, disminuyendo el
volumen de trabajo con menor riesgo de equivocarse.

Al día de hoy, en la edición en español hay registrados


5 519 247 usuarios, de los cuales menos del 0,3 % son
usuarios activos —usuarios que han realizado al menos
una acción en los últimos 30 días—. De acuerdo a
Christian Stegbauer, un sociólogo alemán, «por el
número de colaboradores no puede definirse si
Wikipedia es democrática o no». En sus propias
palabras, y refiriéndose a la Wikipedia en alemán:
«nuestra conclusión es que en el fondo son menos de
1000 personas las que deciden sobre esta enciclopedia
digital».108

Se ha comprobado que determinados usuarios crean las


llamadas cuentas de propósito particular; estos usuarios
se registran con el único propósito de introducir
información que beneficie sus propios intereses, motivo
por el cual en numerosas ocasiones sus ediciones son
sesgadas, parciales o inútiles desde el punto de vista
enciclopédico.107

Según un análisis publicado el 1 de abril de 2009 por el


investigador español José Felipe Ortega, del grupo
Libresoft, de la Universidad Rey Juan Carlos, Wikipedia
había sufrido «un descenso notable de editores» en
todas sus versiones lingüísticas entre 2007 y 2009. La
noticia fue ampliamente recogida por los medios de
comunicación.109 Esta última afirmación fue
desmentida por Jimmy Wales, fundador de
Wikipedia.110

Funciones de administración

Una pequeña parte de los usuarios de Wikipedia


—alrededor del 0,5 % de los usuarios activos y del 1,4
o/oooo del total de usuarios registrados en la Wikipedia
en español—111 se dedica a labores administrativas.
Estos usuarios ejercen esas funciones —tras ser
propuestos por parte de otro u otros usuarios,
generalmente veteranos— en una votacióndemocrática
abierta a la totalidad de la comunidad de usuarios
registrados, y los requisitos y normas de dicha votación
—y de cualquier votación en general— se recogen en una
política llamada «Votaciones».112 Según el sociólogo
alemán Christian Stegbauer, «[l]o interesante es que los
administradores son elegidos, y así obtienen una
especie de legitimidad democrática. Por otro lado, solo
una parte de las personas participa activamente en
dicha elección, y muchos de ellos ya son
administradores. Si es un administrador el que propone
a un candidato, la probabilidad de ser elegido es mayor
que si la propuesta proviene de otro miembro».113
La Fundación Wikimedia describe los siguientes cargos
administrativos principales, innecesarios para editar,
pero sí necesarios para asuntos de protección y
coordinación en el software:114

Los supresores de edición son usuarios que eliminan


ediciones, decidiendo cómo de manera compleja.
Los «bibliotecarios» son usuarios que pueden
bloquear a otros usuarios para la edición, y también
pueden borrar artículos con información innecesaria.
Los denominados checkusers —en español, revisores
de usuarios— pueden rastrear una dirección IP para
verificar identidades. Esto necesario para evitar un
sistema de duplicación llamados usuarios títeres
usado con fines de ventaja en votaciones o de
engaño.
Los llamados «burócratas» tienen permisos para
otorgar estatus de administrador, controlar los bots y
cambiar nombres de usuario.

Según declaraciones oficiosas de un bibliotecario


colombiano de la Wikipedia en español, existe un
problema de comunicación entre los bibliotecarios de
esta Wikipedia en el ejercicio de las políticas y algunas
personas que se consideran expertas en determinados
temas, y este problema redunda en perjuicio para la
enciclopedia. También afirma que los bibliotecarios de
la Wikipedia en español eliminan más artículos que los
de otras versiones de Wikipedia.115 En cualquier caso,
las declaraciones de los usuarios de Wikipedia, ostenten
cargo administrativo o no, deben tomarse como una
mera opinión personal sin la menor representatividad,
puesto que, si bien los bibliotecarios son elegidos
democráticamente por el resto de los usuarios, entre sus
funciones no se encuentran las de representar a la
comunidad o a Wikipedia ni la de establecer autoridad
más allá de la que les confiera el ejercicio de las
políticas.116

Bot

Regularmente operan en Wikipedia varios sistemas de


edición automática. Se denominan bots —contracción
de robot—, y cumplen la realización de ciertas tareas
tediosas para los editores, como la creación de enlaces
entre las distintas ediciones de la enciclopedia,
pequeños ajustes internos del código wiki, la corrección
de faltas ortográficas, etc. Algunas ediciones de
Wikipedia utilizan también bots para la creación masiva
de artículos, normalmente esbozos. Para ser
considerados como tales deben tener al menos el afijo
BOT y un supervisor, el cual es el usuario propietario.117

Acceso

Captura de Kiwix, la versión offline de Wikipedia, 2012.

Un libro impreso en papel de Wikipedia. Este tipo de


libros se puede obtener mediante PediaPress.

Aparte del sitio web, se han elaborado otras versiones


alternativas que cumplen la misión de visualizar
artículos a pesar de las críticas a la censura de artículos.

En los móviles

En agosto de 2009, la Fundación Wikimedia lanzó una


aplicación oficial de Wikipedia para el iPhone y el iPod
Touch que se puede descargar de la App Store. Esta
aplicación es libre, gratuita y solo funciona en el iPhone
3G o en versiones más recientes.118 También hay
versión para Android.119 En cuanto a acceso mediante
sitio web, ya existían alternativas como el sitio Wapedia;
sin embargo, Wikipedia cuenta con su propia versión
móvil del sitio, disponible en línea.

En aplicaciones virtuales

Otras versiones publicadas por la Fundación Wikimedia


fueron las distribuciones en soporte físico sobre CD
(2003) y DVD (2005), en las cuales se incluían las
versiones en alemán, polaco, portugués e inglés. Esto se
hace mediante el software libre Kiwix que permite su
instalación directa. Estas características permiten que
sea posible ser usadas en computadoras sin conexión a
internet, permitiendo la interactividad y comunicación
entre diferentes puestos como por ejemplo centros
infantiles.120

En versiones impresas

En Wikipedia hay servicios que ofrecen la versión


impresa. MediaWiki ha incorporado una herramienta de
recolección para exportar artículos a ODF o PDF.121
También existe la posibilidad de imprimir libros vía
PediaPress, un programa socio de la fundación
Wikimedia, mediante la misma solicitud.122

Restricciones de acceso

Desde octubre de 2005, China había bloqueado el


acceso a Wikipedia, pues el gobierno bloquea
habitualmente el acceso a los sitios web que considera
subversivos y filtra las páginas de Internet con términos
que considera delicados.123 Un año después, Wikipedia
fue desbloqueada en el territorio chino, aunque la
censura se mantuvo parcialmente con los términos
«sensibles», tales como Tíbet o Falun Gong.124

En 2008, varios centros educativos de los Estados


Unidos prohibieron el uso de Wikipedia desde sus
instalaciones por considerarla poco fiable.125 También
en el mismo año, 160 000 usuarios solicitaron a través
del sitio web Care 2 la retirada de las imágenes sobre
Mahoma en los artículos de Wikipedia. En este caso la
petición fue rechazada.126

En octubre de 2011, debido a la aprobación de la ley


mordaza, la Wikipedia en italiano tuvo que suspender las
actividades por temor a la severas multas que
ejecutarían en sus contenidos biográficos.127 De
manera similar, en enero de 2012, la versión inglesa se
autocensuró para protestar a la ley SOPA durante un día
entero. Uno de los delegados de Twitter, Dick Costolo,
consideró al sitio web que «cerrar un negocio global por
un solo asunto de política nacional es una locura».128
129

Fundación Wikimedia y proyectos hermanos

Nota: No debe confundirse Wikipedia con la Fundación


Wikimedia, la organización no gubernamental que
mantiene al sitio web Wikipedia.

El sitio web de Wikipedia está mantenido


exclusivamente por la Fundación Wikimedia, una
organización sin ánimo de lucro instituida bajo las leyes
de Florida (Estados Unidos) cuya finalidad es promover
en el mundo apoyo económico y social para varios
proyectos colaborativos de contenido libre.130131 Su
existencia fue oficialmente anunciada por el director
general de Bomis y cofundador de Wikipedia, Jimbo
Wales, el 20 de junio de 2003.

Proyectos complementarios de apoyo

Dos de los proyectos de la Fundación Wikimedia actúan


como complementos del resto de los proyectos,
incluyendo a Wikipedia. Uno es un almacén de contenido
multimedia que los editores del resto de los proyectos
pueden incrustar a modo de ilustraciones, y el otro se
encarga del software que sustenta a todos los
proyectos:132

Wikimedia Commons: También recibe los nombres


de Commons o La Comuna, es un depósito común
de imágenes y contenido multimedia libre para los
proyectos hermanos de la Fundación Wikimedia.
Antes de su existencia, para usar una imagen en una
cierta Wikipedia había que subirla a la edición
correspondiente, con lo que se clonaba el mismo
contenido varias veces, algo realmente ineficiente.
Para ello se usaban scripts de subida masiva, que
ahora han caído en desuso por la existencia de
Commons.
Meta-Wiki: Es un sitio web cuyo sistema administra
la tecnología wiki para la visualización de las páginas
de los proyectos de la Fundación Wikimedia.

Proyectos hermanos

Hay contenidos que no tienen cabida en Wikipedia por


no ser información enciclopédica. Por ello se han
desarrollado varios proyectos hermanos independientes
entre sí que recogen este otro tipo de información.
Todos ellos son también multilingües y libres y están
administrados por la Fundación Wikimedia.133
Wikcionario: Es el proyecto de la Fundación
Wikimedia para la construcción de un diccionario
libre. Tiene una función complementaria a Wikipedia,
ya que un gran número de artículos, por su carácter
no enciclopédico, se destinan al diccionario.
Wikilibros: Tiene por objetivo poner a disposición de
cualquier persona libros de texto, manuales,
tutoriales u otros textos pedagógicos de contenido
libre y de acceso gratuito.
Wikiversidad: Apoyada en el anterior, se propone
como una plataforma educativa en línea, libre y
gratuita, donde es posible crear proyectos de
aprendizaje a cualquier nivel educativo, participar en
un grupo de aprendizaje, crear contenidos didácticos
tales como exámenes, ejercicios de prácticas, etc.
Wikiquote: Es un compendio abierto en línea de
frases célebres en todos los idiomas, incluyendo las
fuentes —cuando estas se conocen—.
Wikinoticias: Es una fuente de noticias de contenido
libre.
Wikisource: Es una biblioteca en línea de textos
originales que han sido publicados con una licencia
GFDL o se encuentran en el dominio público.
Wikiespecies: Es un repertorio abierto y libre de
especies biológicas cuyo objetivo es abarcar todas
las formas de vida conocidas.
Wikiviajes: Es una guía turística libre.

Software y hardware

Wikipedia recibía en 2008 entre 10 000 y 30 000


peticiones de páginas por segundo, dependiendo de la
hora del día.134 Más de 250 servidores soportaban el
tráfico.nota 8

Wikipedia se ejecuta sobre el software libre MediaWiki


en un cluster —agrupación— de servidores situados en
Florida y en otros lugares del mundo: 239 máquinas en
Florida, 22 en Ámsterdam y 23 en las instalaciones
coreanas de Yahoo!135 MediaWiki es la fase III del
programa, cuya historia de desarrollo es la siguiente:

Fase I: Originalmente, Wikipedia se ejecutaba en


UseModWiki, creado por Clifford Adams. Al principio
era necesario usar CamelCasepara los enlaces;
después esto se solucionó y fue posible usar dobles
corchetes.

Fase II: En enero de 2002, Wikipedia comenzó su


funcionamiento sobre un motor wiki en PHP con
base de datos MySQL. Este software, fase II, fue
escrito por Magnus Manske específicamente para el
proyecto Wikipedia. Más tarde se implementaron
muchas mejoras y modificaciones para incrementar
el rendimiento debido a la creciente demanda.

Fase III: Por último, el software fue reescrito por Lee


Daniel Crocker. Establecida en julio de 2002, esta
fase III del programa se llamó MediaWiki. Está
amparada bajo la licencia GPL y es usada por todos
los proyectos de Wikimedia.

En octubre de 2008, sus servidores migraron a


Ubuntu.136

Impacto popular

Wikipedia es uno de los sitios web más visitados y


referenciados del mundo en Internet, y
consecuentemente es uno de los primeros sitios —o
incluso el primero, en muchos casos— de entre los que
aparecen en los resultados de los motores de
búsqueda.11137 Este hecho, sumado a la influencia
cada vez mayor de Internet sobre las personas, trae
como consecuencia un enorme impacto popular de la
enciclopedia colaborativa a todos los niveles, impacto
que se va acrecentando a medida que pasa el
tiempo.138138

En los últimos años, Wikipedia ha estado influyendo


notablemente en los medios de comunicación, sobre
todo periodísticos, los cuales en numerosas ocasiones
copiaron información de la web enciclopédica, la
mayoría de las veces sin citar la fuente.139 A este
respecto, es bastante ilustrativo el experimento
realizado por Shane Fitzerald, un estudiante universitario
dublinés de 22 años, publicado el 6 de mayo de 2009 por
el periódico IrishTimes.com:140141

Tras enterarse del fallecimiento de Maurice Jarre unas


horas antes, Shane editó el artículo correspondiente al
compositor para incluir una cita ficticia:

[[PASTING TABLES IS NOT SUPPORTED]]

Poco después la cita apareció en las secciones


necrológicas de los periódicos The Guardian y The
London Independent, en el sitio web The BBC Music
Magazine y en periódicos de la India y Australia.

Este experimento demuestra la fuerza de Internet a


escala global. Los periodistas que usaron esta cita
obviamente confiaron en Wikipedia como fuente de
información; tal vez no podían permitirse el lujo de
realizar investigaciones ulteriores bajo la presión de la
necesidad de ser los primeros en publicar la cita, y como
resultado proporcionaron a los lectores una información
falsa. En cuanto a Wikipedia, los errores normalmente se
corrigen con prontitud, aunque, en casos como el
relatado, no lo suficiente como para adelantarse a los
acontecimientos.

Este tipo de experimentos raramente se realizan en


Wikipedia, y los editores que son descubiertos reciben
por parte de los administradores severos castigos que,
en función de la gravedad de su falta, pueden llegar al
bloqueo de su dirección IP a perpetuidad.

Por otra parte, existen personas que acusan a Wikipedia


de difamación, y es ilustrativo el caso de Alejandro Peña
Esclusa, quien afirmaba que el gobierno de su país
estaba llevando contra él una campaña en la que
colaboró la enciclopedia.142 En cualquier caso,
Wikipedia, como proyecto de fuente no primaria que es,
se basa en una serie de políticas que promueven la
verificabilidad y el uso de fuentes fidedignas y
reputadas. A partir de este punto, Wikipedia delega
cualquier tipo de responsabilidad en el momento en que
publica el nombre de la fuente de la que se obtuvo la
información. De ahí, entre otras cosas, la importancia de
la verificabilidad, uno de los cinco pilares básicos sobre
los que se sustenta el proyecto.143

Se han producido varios casos en los que dirigentes


políticos, o personas próximas a ellos, modificaron
artículos de Wikipedia interesadamente.144145

En otro orden de cosas, se han creado versiones que la


parodian. Entre las más conocidas se encuentran, en
inglés, Uncyclopedia y Encyclopædia Dramatica, y, en
español, La Frikipedia e Inciclopedia. En historietas
humorísticas, Skeletor aparece vandalizando el artículo
de He-Man.146

Premios y reconocimientos

Debido a sus méritos y popularidad, el sitio web ha


obtenido a lo largo de los años varios galardones y
menciones.148 Algunas muestras son las siguientes:

En abril de 2004, Jonathan Dee, de The New York


Times,149 y Andrew Lih, en el 5th International
Symposium on Online Journalism(2004),150 citaron
la importancia de Wikipedia no solo como
enciclopedia de consulta sino también como fuente
de información actualizada debido a la rapidez con
que aparecían los artículos sobre eventos recientes.

El 23 de junio de 2004, Wikipedia recibió el premio


Golden Nica for Digital Communities en el concurso
anual de Prix Ars Electronica, dotado con mil libras
esterlinas.151

En la primavera de 2004, se le concedió el Premio


Webby en la categoría «Best Community» —«Mejor
Comunidad»—.152

En 2006, la revista Time nombró a “You” —en


español, 'usted, tú, vos'— como «Persona del año»,
reconociendo así el éxito acelerado de la
colaboración en línea y de la interacción entre
millones de usuarios de todo el mundo; asimismo
citó a Wikipedia como uno de los tres ejemplos de
servicios «Web 2.0», junto con YouTube y
MySpace.153

El 26 de enero de 2007, Wikipedia obtuvo el cuarto


lugar en una encuesta realizada a los lectores de
brandchannel.com, recibiendo el 15 % de los votos en
respuesta a la pregunta «¿Qué marca tuvo el mayor
impacto en nuestras vidas en 2006?».154

El 24 de octubre de 2008 Wikipedia participó, junto


con otros 23 sitios web nominados, en el Premio
Príncipe de Asturias de Comunicación y
Humanidades. El ganador fue la división española de
Google.155

A destacar que, en 2010, la empresa Google donó


dos millones de dólares a la Fundación Wikimedia al
tiempo que mencionaba a Wikipedia como «uno de
los grandes triunfos de internet».156

En 2013, Andriy Makukha de Wikimedia Ucrania


propuso el nombre «Wikipedia» al asteroide 2008
QH24. (274301) Wikipedia es un asteroide del
cinturón de asteroidesdescubierto en 2008. La
designación fue avalada por la Unión Astronómica
Internacional (UAI).157158

La designación oficial del asteroide «Wikipedia» dice:

Wikipedia es una enciclopedia libre, copyleft y


colaborativamente editada lanzada en 2001. En 11
años de su recopilación se convirtió en una de las más
importantes obras de referencia y en uno de los sitios
más visitados de Internet. Es desarrollada por
entusiastas de todo el mundo en más de 270 idiomas .

Designación del MPC159

El 17 de junio de 2015 le fue otorgado el Premio


Princesa de Asturias de Cooperación
Internacional.160

Importante ejemplo de cooperación internacional,


democrático, abierto y participativo, en el que
colaboran desinteresadamente miles de personas de
todas las nacionalidades, que ha logrado poner al
alcance de todo el mundo el conocimiento universal
en una línea similar a la que logró el espíritu
enciclopedista del siglo XVIII

Fundación Princesa de Asturias

Estadísticas sobre visitas

Según las estadísticas hechas por Alexa, sobre las


Wikipedias más visitadas161 y sobre los países que
más visitan Wikipedia se muestran los siguientes:162

[[PASTING TABLES IS NOT SUPPORTED]]

En la parte superior del portal www.wikipedia.org, se


puede observar a las 10 Wikipedias con más ediciones.

Distribución de editores por países

Países desde donde se editan los artículos.

Wikipedia en alemán: Alemania (68 %), Austria


(7,8 %).
Wikipedia en español: España (18,4 %), México
(16,5 %), Argentina (13,1 %).
Wikipedia en francés: Francia (65,8 %), Canadá
(5,3 %).
Wikipedia en inglés: EE.UU: (32 %), R.U. (9,4 %), India
(5,7 %), Canadá (5,3 %).
Wikipedia en japonés: Japón (86 %), China (1,8 %).

Ver lista completa y otras estadísticas.

Estímulos

Los usuarios de Wikipedia organizan eventos regulares y


ocasionales con el objetivo de promover la creación y
edición de artículos. Por ejemplo, en 2006 se creó un
proyecto llamado Wiki-reto: 250 k, dedicado a aumentar
el número de artículos, con el que se llegó al final del
año a los 250 000 artículos en la Wikipedia en
español.164 Proyectos de ese tipo o similares se
organizan cada año. Por otro lado, existe una serie de
proyectos incluidos en el propio sitio web que reciben el
nombre de wikiproyectos, cada uno de los cuales se
dedica a trabajar sobre un tema específico
—correcciones ortográficas, creación y ampliación de
artículos de determinado campo, manejo de
ilustraciones, etc.165

Fuera del sitio web, otros han expresado las impresiones


personales que el sitio les produce. Por ejemplo, Vicente
Verdú, en un artículo de la versión digital del periódico El
País, describió la experiencia de usar Wikipedia como
«una divertida y multitudinaria manera de gozar, jugar,
amar y pasar el rato».166 Por su parte, en un artículo de
opinión en Terra Networks Perú se consideraba que su
uso desordenado y excesivo causaba «wiki
adicción».167
En una entrevista con Jimmy Wales, representante de la
Fundación Wikimedia, para EFE, este explicó su creencia
de que la expansión de Internet en otros países
ampliaría el uso de Wikipedia sobre todo en lugares
subdesarrollados, creando de este modo una conexión
de culturas.168 Con motivo del décimo aniversario de
Wikipedia, el mismo Wales declaró su deseo de que
Wikipedia alcanzase los 1000 millones de usuarios para
2015.169

En el ámbito económico, Alex Konanykhin, fundador y


presidente de WikiExperts.us —no perteneciente a
Wikimedia—, presentó a Wales una propuesta de
colaboración. El plan consistía en ofrecer los servicios
de una red de escritores por contrato a todas las
empresas o entidades que cumpliesen con los
requisitos de rigor exigidos por Wikipedia para crearles
sus propios artículos de forma enciclopédica. Según
Konanykhin, este modelo financiero aseguraría el futuro
de Wikipedia.170 No obstante, Wikipedia, lejos de
presentar apuros económicos, ha batido su récord de
recaudación en la campaña efectuada para el ejercicio
de 2011, con 16 millones de dólares procedentes de
500 000 donantes de 140 países, todo ello en tan solo
un mes y medio.171

Críticas

Pierre Assouline et al. (2008) son algunos de los


pensadores con postura crítica hacia Wikipedia y hacia
sus contenidos.

Al igual que ha recibido alabanzas, la Wikipedia es


objeto de numerosas críticas en sus contenidos o
carencias de contenidos, la calidad de los mismos y el
sistema establecido para la recepción de los nuevos
editores.

Falta de referencias y de contenidos

Desde su nacimiento, Larry Sanger ya discrepó por la


posible falta de veracidad, y le siguieron después otros
autores, caso de Arias Maldonado (2010, p. 15-31) o
Assouline et al. (2008). Incluso los que la defienden
como una obra documentada, caso de Tim O'Reilly, la
colocan en los últimos puestos.172 Ndesanjo Macha
indica que muchas veces lo más enriquecedor está en
las discusiones y no en el artículo propiamente dicho,
porque allí pueden reflejarse mejor los distintos puntos
de vista y las lagunas existentes.

Para Bob McHenry, exeditor de la Enciclopedia Británica,


uno de los mayores riesgos a los que se enfrenta
Wikipedia es la entrada de personas convencidas de que
su punto de vista es el verdadero, impidiendo incluir
cualquier otro. Por esta razón, lo realmente valioso
puede aparecer en las discusiones y no el artículo, como
confirma Ndesanjo Macha.172

Para Assouline et al. (2008, p. 12) Wikipedia está


matando los valores de verificación y consulta de
fuentes primarias que deben tener los periodistas,
historiadores o profesionales del conocimiento en
general. Según el autor "esta enciclopedia en línea es
también el instrumento ideal para desinformar" al ser
editada por partidos políticos y otros grupos de
presión.173 Además presenta problemas en la
diferenciación de lo importante y lo superfluo: así, en la
versión francesa, la entrada sobre Albert Londres
comenzaba diciendo «periodista judío francés [...]»
como si su religión fuese el segundo dato más
importante del resumen, incierto al mismo tiempo por
ser londinense y católico, fruto de una campaña para
desacreditarlo haciéndolo pasar por judío. Otro ejemplo
era el artículo sobre Alexandre Solzhenitsyn que
dedicaba la mitad de su contenido a la relación del
escritor con España, por haber realizado un comentario
sobre Francisco Franco que no gustó al redactor.174

Los ejemplos dados por Assouline sobre la excesiva


extensión de unos contenidos frente a otros fueron
refrendados por un estudio dirigido por la Universidad de
Minnesota, junto a otras tres, en 2011. La conclusión fue
que la Wikipedia en inglés mostraba que los artículos
realizados por mujeres, presumiblemente destinados
más a un público femenino, eran significativamente más
cortos que los redactados por hombres o por hombres y
mujeres. En ese mismo año la Universidad de Oxford
demostró que el 84 % de las referencias a localidades se
situaban en Europa y América del Norte, del mismo
modo que la Antártida contaba con más artículos que
África o Sudamérica.175

Errores y vandalismo

El vandalismo es uno de los problemas más recurrentes.


Existen diferentes herramientas para combatirlo. En la
imagen se muestra la reversión automática de dos
ediciones vandálicas.

Dos de los principales motivos por los cuales Wikipedia


es criticada en cuanto a la exactitud y fiabilidad de sus
contenidos son la persistencia de detalles erróneos
difíciles de detectar —imprecisiones no necesariamente
malintencionadas, pero que pueden permanecer en un
artículo por mucho tiempo—.176

Por su parte los actos vandálicos, modificaciones


inapropiadas u ofensivas de los artículos que
entorpecen el desarrollo del proyecto, constituyen un
importante factor en las problemáticas de contenido,
cuya solución a largo plazo no pasa —como sucede en
los otros dos casos— por una mejora constante de la
calidad ni por la incorporación o ampliación progresiva
de artículos. Mientras que las inexactitudes de
contenido y las tendencias de crecimiento irregular175
pueden ser subsanadas a medida que siga
evolucionando el proyecto —y aumenten las ediciones
de artículos—, el vandalismo representa una amenaza
constante que se incrementa en proporción al
crecimiento exponencial de Wikipedia. Por ejemplo, la
exposición a una mayor afluencia de visitas a los
artículos publicados en varios medios de prensa
implicaba un porcentaje muy alto de vandalismos
—incluidos de personajes públicos—, casi tanto como el
de cambios constructivos.177178179

Pero no solo se trata de ediciones dentro de artículo,


también existen artículos enteros falsos.nota 9 La
Wikipedia en inglés posee una entrada dedicada solo a
ellos, como también la Wikipedia en español. La
existencia de artículos falsos con una duración de casi
diez años siembra dudas sobre la capacidad de
Wikipedia para autocorregirse. En otros casos, además
de la duración destaca los sucesivos filtros por los que
pasaron, caso del Conflicto de Bicholim que fue
redactado sin que nadie se percatara del fraude,
propuesto a Bueno, elegido como Artículo Bueno,
propuesto a Destacado y rechazado por cuestiones
técnicas sin que nadie comprobase la veracidad de los
contenidos.180 De manera similar pasó con el artículo
Cayo Flavio Antonino, supuesto asesino de Julio César,
cuya entrada permaneció ocho años en forma de
esbozo.181 Uno de los más controversiales fue
Santiago Swallow, conferencista ficticio creado por
Kevin Ashton y que fue descubierto al publicarse un
artículo de prensa donde el autor declaró que «invirtió 68
dólares para hacerlo famoso».182183 En 2014 se
desarrolló un algoritmo hecho por la Universidad de
Nanjing de Correos y Telecomunicaciones sobre la base
de la red bayesiana, método similar a la detección de
correo basura; se piensa que el sistema se
implementará en un futuro próximo.184

Un ejemplo paradigmático de vandalismo masivo se


produjo el 31 de julio de 2006 como consecuencia de
una llamada a la participación por parte de Stephen
Colbert, un conocido humorista y presentador de la
televisión norteamericana, en una sección de su
programa The Colbert Report que tituló Wikiality:186
Después de algunos gags en torno a la posibilidad de
cambiar la ubicación de estados y países en sus
respectivas definiciones de Wikipedia, animó a los
telespectadores a modificar la entrada 'elefante' para
que constara que, en lugar de disminuir, la población del
elefante africano se había triplicado. Como resultado
inmediato, hasta veinte entradas de la Wikipedia en
inglésque hacían referencia a elefantes fueron
bloqueadas por sus administradores, o bien pasaron a
estado de semi-protegidas, solo modificables por
usuarios registrados con un mínimo de antigüedad.

Para todos los ejemplos citados y sus variantes, aparte


de las medidas correctoras llevadas a cabo en forma de
reversión, aviso o bloqueo, la comunidad de wikipedistas
crea y mantiene —al igual que sucede entre
programadores voluntarios en entornos de software
libre— toda una serie de herramientas e
implementaciones técnicas destinadas a actuar contra
el vandalismo, desde foros y canales específicos de
IRChasta programas paralelos de detección y aviso,
pasando por usuarios que son en realidad programas
bot cuya misión es exclusivamente combatir los actos
vandálicos. Parece que con dichas modificaciones ese
problema comenzó a estar bajo control desde 2007,
pero limitó las posibilidades de supervivencia de
Wikipedia.175

En otras ocasiones los errores llegan por la confusión.


Algunos han confundido «Wikipedia» con
«WikiLeaks»,187 un sitio de almacenamiento de
documentos filtrados conocido por la polémica del
cablegate. Jimmy Wales, cofundador de Wikipedia,
explicó que, cuando en 2006 WikiLeaks comenzó sus
actividades, se presentó como la 'Wikipedia de los
secretos'. Cuando Wales fundó Wikipedia creó una
organización llamada Wikia. Esta organización se
encargó de registrar los dominios bajo el término Wiki, y
permitió a WikiLeaks en sus comienzos la utilización del
término Wiki y su dominio correspondiente. No obstante,
actualmente —enero de 2011—, los dominios adquiridos
por WikiLeaks están a punto de caducar, y Jimmy Wales
no tiene intención de renovar el contrato ya que, en sus
propias palabras, no desea que Wikipedia se relacione
con WikiLeaks.188

Manipulaciones y sesgo

El proyecto cuenta con importantes subvenciones de


multinacionales estadounidenses, de intereses
capitalistas.189190 Por otro lado, en opinión de César
Rendueles, doctor en filosofía, profesor asociado de la
Universidad Complutense de Madrid191 y usuario de
Wikipedia, «todo [en Wikipedia] es mucho más
doméstico de lo que alguna gente se imagina». En su
opinión, «la enciclopedia está “controlada” por todos
aquellos que generosamente dedican su tiempo
regularmente a la edición de artículos», y afirma que
como resultado la enciclopedia refleja el perfil
predominantemente conservador —aunque en muchos
casos para la redacción de artículos, muestra el lado
liberal, dando mayor énfasis en la libertad de contenido
que en la cooperación del mismo—192193 de quienes
disponen de más tiempo libre. Concluye diciendo que
«una mayor presencia de la comunidad universitaria y
escolar sería un auténtico soplo de aire fresco» para la
enciclopedia.194 Opinión contraria a otros autores como
Daniel Rodríguez Herrera, para quien la Wikipedia posee
una clara tendencia izquierdista, lo cual se comprueba
viendo los resúmenes de Stalin y otros dirigentes
comunistas que no son llamados en ningún momento
"dictadores", solamente líderes.195

Algunas empresas han intentado en repetidas ocasiones


manipular la información que aparece sobre ellas en
Wikipedia enfatizando los aspectos positivos y
suavizando o eliminando los negativos con el fin de
mejorar su imagen corporativa. Por ejemplo, Microsoft
eliminó un párrafo donde aparecían los errores de su
consola Xbox 360, y el consorcio petrolífero Chevron-
Texaco borró todo un texto sobre biodiésel. En 2013 el
diario económico Expansión denunció las acciones de
algunas de las principales empresas españolaspara
manipular su historial o alterar favorablemente las
biografías de sus directivos.196 Cambios de este tipo
pueden ser detectados con la utilización de una
herramienta llamada WikiScanner.197

Otras críticas, además de en su precisión, han estado


refiriéndose a la violación de la intimidad de algunas
personas,198199 a la adición de imágenes interpretadas
como pornografía infantil,200201 la escasa certeza en
las entradas sobre temas de salud,202 o a la creación de
artículos biográficos sobre animales. Algunas denuncias
llegaron a ser muy notorias y graves como el uso del
escudo perteneciente a la Oficina Federal de
Investigación en uno de sus artículos.203

Un tema de controversia en ciertos medios es la labor de


algunos administradores —«bibliotecarios»—, que se
extralimitan en sus funciones bloqueando a otros
usuarios y generando enfados, razón por la cual varios
quieren mantener su incógnito por miedo a
represalias.174 También el ambiente de Wikipedia
permite e incluso fomenta ese tipo de actuaciones;
pues, según Arias Maldonado,204 una de las partes
divertidas de Wikipedia es conspirar. Una evidencia por
parte de FiveThirtyEight sobre los 100 artículos más
editados de la versión en inglés muestra que los temas
más controvertidos para la Wikipedia son los deportes,
personajes del entretenimiento norteamericano, política
y religión. En el top de la lista están los artículos sobre
Estados Unidos, Michael Jackson, Jesucristo y los
luchadores de la WWE, el último mucho mayor que el
artículo del Real Madrid.205

Género

Un estudio sobre el tratamiento desigual en los


contenidos de la mayor enciclopedia de la web dio
cuenta de que solo las grandes mujeres están bien
representadas en la enciclopedia y los artículos sobre
ellas presentan desigualdades de género.206207

Reducción en el número de visitas y de editores

A pesar de que cada vez más personas se informan en


Wikipedia, este sitio web ha visto una baja significativa
en sus visitas en el buscador Google, unos 250 millones
en tres meses (abril-junio de 2015) que representa cerca
del 11 %, así lo informó un estudio de Similar Web,
empresa británica de tecnología e información y luego
corroborado por el cofundador de Wikipedia, Jimmy
Wales.208 Una de las razones de esa brusca caída
puede ser que el buscador da una referencia directa a
Wikipedia al lado derecho de la pantalla, lo que quitaría
la necesidad de cliquear el enlace.209

Según la tesis doctoral de Ortega Soto (2009) las


principales versiones de Wikipedia (inglesa, alemana,
japonesa, española, etc) estaban perdiendo usuarios
porque los nuevos editores no compensaban en número
a los veteranos que abandonaban la edición. Además
había disminuido el tiempo medio que un editor tardaba
en desistir. Esta tendencia la confirmó en 2013 Tom
Simonite, del Instituto Tecnológico de Massachusetts
(MIT), cuando confirmaba que la propia Fundación
Wikimedia reconocía que la enciclopedia en línea tenía
problemas ante la carencia cada vez más acusada de
voluntarios.175

Spotify es una aplicación multiplataforma sueca,


empleada para la reproducción de música vía streaming.
Cuenta con un modelo de negocio premium, un servicio
gratuito básico y con publicidad; pero con
características adicionales, como una mejor calidad de
audio, a través de una suscripción de pago. Permite
escuchar en «modo radio», buscando por artista, álbum
o listas de reproducción creadas por los propios
usuarios.

El programa se lanzó el 7 de octubre de 2008 al mercado


europeo, mientras que su implantación en otros países
se realizó a lo largo de 2009.2 Está disponible para los
sistemas operativos Microsoft Windows, Mac OS X,
Linux, Windows Phone, Symbian, iOS, Android y
BlackBerry.

La empresa sueca, que tiene su sede en Estocolmo,


Suecia, ha firmado acuerdos con las discográficas
Universal Music, Sony BMG, EMI Music, Hollywood
Records, Interscope Records y Warner Music entre
otras.3 A abril del 2019, el servicio cuenta con 217
millones de usuarios activos, de los cuales 100 millones
son usuarios de pago.4

Modo de funcionamiento y requisitos del sistema[editar]

Spotify ofrece transferencia de archivos de audio por


Internet a través de la combinación de servidores
dedicados al streaming y en la transferencia de red de
pares (P2P) en la que participan los usuarios. Una
conexión a Internet de 256 kbit/s es suficiente, y la tasa
de bits de las pistas es de 320 kbit/s. Los archivos de
audio se pueden reproducir bajo demanda, como si
estuvieran en el disco duro del usuario. Las canciones
se guardan en la caché del software para evitar
consumir más ancho de banda al repetir las canciones
una y otra vez. Utiliza el códec de audio Vorbis (Ogg).
Los usuarios en modo premium acceden un nivel de
calidad de audio superior (q9). El contenido de la caché
del software se basa en un índice que sirve para que
Spotify conecte con el servicio. Este índice se utiliza
para informar a otros clientes sobre otros usuarios que
pueden conectarse a los datos para que se reproduzcan
las pistas que desea escuchar.

Se hace por cada cliente que utiliza el programa; al


inicio, actuando como un servidor para escuchar las
conexiones entrantes de otros usuarios de Spotify así
como la conexión de forma intuitiva a otros usuarios
para el intercambio de datos en caché, según proceda.
Actualmente no hay datos oficiales de los
desarrolladores acerca de cuántas conexiones y la
cantidad de ancho de banda que ofrece cada usuario al
sistema; el software no ofrece ninguna forma para que
el usuario pueda configurar estos parámetros.

Los requisitos del sistema son, al menos, Mac OS X


10.7, Windows Vista o superior. También es posible
ejecutar el programa en GNU/Linux. El tamaño de la
caché lo puede limitar el usuario y se puede elegir la
ubicación de memoria de caché. Se recomienda para la
caché por lo menos 1 GB de espacio libre.

El usuario debe configurar una cuenta para poder utilizar


la aplicación. Esta cuenta puede utilizarse en varios
dispositivos, pero solo puede reproducir música en un
dispositivo a la vez.

Disponibilidad geográfica[editar]

Spotify está disponible en 65 países, estos son


Alemania, Andorra, Argentina, Australia, Austria, Bélgica,
Brasil, Bolivia, Bulgaria, Canadá, Chile, Colombia, Costa
Rica, Chipre, Dinamarca, Ecuador, El Salvador, Estonia,
Eslovaquia, España, Estados Unidos, Filipinas, Finlandia,
Francia, Grecia, Guatemala, Honduras, Hong Kong,
Hungría, Indonesia, Irlanda, Islandia, Italia, Japón,
Letonia, Liechtenstein, Lituania, Luxemburgo, Malaysia,
Malta, México, Mónaco, Nicaragua, Noruega, Nueva
Zelanda, Países Bajos, Panamá, Paraguay, Perú, Polonia,
Portugal, Reino Unido, República Checa, República
Dominicana, Singapur, Suecia, Suiza, Tailandia, Turquía y
Uruguay.5 Únicamente los clientes de los países
mencionados pueden comprar una cuenta «Premium»
mediante una tarjeta de crédito o débito o una cuenta de
Paypal.6

Cronología de lanzamientos[editar]

Spotify se puso en marcha (por invitación solamente) en


los países escandinavos, el Reino Unido, Francia y
España en octubre de 2008.

Mapa que muestra la disponibilidad de Spotify en el


mundo en 2019.

Spotify fue lanzado en los Estados Unidos el 14 de julio


de 2011,7 en Dinamarca se lanzó el 12 de octubre de
2011 .8 y en Australia y Nueva Zelanda el 22 de mayo de
2012.9 El 13 de noviembre de 2012 empezó a estar
disponible para la República de Irlanda y Luxemburgo.

El 11 de febrero de 2013 entró a los mercados de Italia,


Polonia y Portugal. Spotify fue lanzado en México, Hong
Kong, Malaysia, Singapur, Estonia, Letonia, Lituania e
Islandia los días 15 y 16 de abril de 2013.10 y en
Australia y Nueva Zelanda el 22 de mayo de 2012.11

El 3 de diciembre de 2013 empezó a estar operativo en


Colombia como una promoción pre-estreno auspiciada
por Coca-Cola.12 El 24 de septiembre de 2013, Spotify
se lanzó en Argentina, Grecia, Taiwán y Turquía.1314 El
11 de diciembre de 2013, Spotify empezó a estar
disponible en Costa Rica. El 12 de diciembre de 2013,
Spotify fue lanzado simultáneamente en 20 nuevos
mercados. Los países agregados fueron: Bolivia,
Bulgaria, Chile, Colombia, Costa Rica, Chipre, Ecuador, El
Salvador, Eslovaquia, Guatemala, Honduras, Hungría,
Malta, Nicaragua, Panamá, Paraguay, Perú, República
Checa, República Dominicana y Uruguay.1516

El 8 de abril de 2014 fue lanzado en Filipinas, el 28 de


mayo en Brasil y el 30 de septiembre en Canadá.

Fue lanzado en Indonesia un 30 de marzo de 2016 y el


29 de septiembre en Japón.

El 22 de agosto de 2017 en Tailandia y un 13 de marzo


de 2018 en Israel, Rumania, Sudáfrica y Vietnam.

El 13 de noviembre de 2018 fue lanzado en Emiratos


Árabes Unidos, Arabia Saudita, Kuwait, Omán, Qatar,
Bahrein, Argelia, Marruecos, Túnez, Jordania, Líbano,
Palestina y Egipto.17

En la India es lanzado el 26 de febrero de 2019,18


sumando así 79 mercados en los que Spotify está
presente.

Cuentas y suscripciones[editar]

Spotify puede descargarse desde el sitio web de Spotify


y utilizarse de cuatro maneras.19

Las versiones «Free» y «Open» son de uso gratuito,


financiado por la publicidad que ofrece de forma
esporádica el reproductor. En un principio la diferencia
entre ambas era que la versión «Free» era accesible solo
mediante invitación y no había ningún problema de
restricción, mientras que la «Open» era abierta a todo el
mundo, teniendo como desventaja que solo permitía
veinte horas de reproducción mensuales. A partir del 1
de mayo de 2011 ambas versiones pasan a tener
exactamente las mismas características: un límite de 10
horas de reproducción mensuales y la reproducción de
cada tema un máximo de cinco veces.20

Por medio del pago de una cuota mensual, cualquier


usuario puede adquirir la condición de «Premium»
(9,99 €/mes, $9.99 USD, S/.16.90 PEN, $36 ARS o
$99 MXN) o «Unlimited» (4,99 €/mes, $4.99 USD
$18 ARS o $49 MXN).

La «Premium» permite a los miembros escuchar las


novedades antes de su lanzamiento y antes que los
usuarios de las opciones gratuitas de Spotify; se puede
oír el catálogo musical en dispositivos móviles con iOS,
Android, Windows Phone y Symbian OS; es posible la
escucha sin conexión a la red de ciertas pistas
previamente seleccionadas y ofrece mayor calidad de
reproducción. Con Spotify Unlimited solo se podrán
escuchar los temas en un ordenador y siempre con
conexión a Internet. La diferencia de las versión Free
respecto a la versión Unlimited es que esta última no
tiene anuncios publicitarios, tampoco restricciones
temporales ni límite de reproducciones.

Desde junio de 2016 estos son los tipos de suscripción


de Spotify:
[[PASTING TABLES IS NOT SUPPORTED]]Cambios en el
mercado musical[editar]

Desde finales de la década del 90, la eclosión de Internet


produjo una crisis en la industria discográfica derivada
de la caída de ventas de soportes digitales. Esta crisis
dejó evidente la necesidad de un nuevo modelo de
negocio en un contexto en el que la música se convierte
en un servicio dejando atrás su materialidad como
producto físico. 21 A raíz de esto nacen plataformas de
descarga de música de pago. Empresas cómo Spotify
han legitimado el acceso a la música online mediante el
streaming. Una propuesta que da acceso inmediato a 30
millones de títulos musicales (estos varían en función
del país). Hoy en día hay alrededor de 100 millones de
títulos publicados 22, con lo cual Spotify no contiene ni
el 30% de la totalidad. Aun así, el usuario puede tener la
sensación de disponer de una infinidad de opciones
puesto que no hay tiempo físico en una vida para
escuchar todas ellas.

A pesar de la gran difusión del streaming, todavía


existen tiendas de vinilos.23 Algunos consumidores de
vinilos dicen no haber cambiado al formato digital por
no perder la calidad del formato analógico. Otros echan
en falta la curación de contenidos en internet y prefieren
comprar productos verificados por los productores.24
Estos consumidores también aprecian la experiencia de
buscar, abrir, poder ver y exponer los vinilos. Estas son
sensaciones que se pierden en Spotify.

Piratería[editar]

Junto a la posibilidad de comprar descargas musicales


se expandieron plataformas de descarga gratuita e ilegal
de contenidos con copyright. De esta forma el mercado
musical pasa a ser online. El modelo de Spotify legitima
consumir y compartir contenido online sin la necesidad
de descargarlo. Spotify ha reducido las descargas pirata
de música. 25 Los no dispuestos a pagar por escuchar
música tienen la opción de utilizar la versión gratuita
(con algunas restricciones como anuncios de
publicidad). Gracias a la publicidad incluida pueden
pagar a los artistas, que no serían pagados mediante las
descargas pirata.

Controversias[editar]

Algunas bandas musicales y artistas se han negado, en


principio, a permitir que su música se añada al servicio
de Spotify,26 aunque en estos casos la compañía firmó
acuerdos con la mayoría de casas discográficas. El 28
de enero de 2009 Spotify anunció que se realizarán
varios cambios en la oferta musical del programa, por
las que se eliminarían algunas canciones de los artistas
que no estuvieran de acuerdo con aparecer allí y se
añadirían restricciones regionales a algunos temas.27
Spotify ha concebido una formula de pago a los artistas
en función de la cantidad de “streamings” de su música
sobre la cantidad total de “streamings”. Lo cual es
equivalente a entre 7 y 10 céntimos por streaming. 28.
Comparando a 1,40$ que pueden ganar por cada CD, es
flagrante que los streaming reducen las ganancias de
los artistas.

Con respecto a la oferta del catálogo, el representante


de Spotify en España, Lutz Emmerich, indicó en una
entrevista que la compañía no corre ningún riesgo y que
el catálogo musical se ampliará mediante la firma de
acuerdos con todas las discográficas posibles por lo
que la tendencia será a ampliar catálogo y no a
reducirlo.29

Uso de datos[editar]

En Spotify cada usuario tiene una playlist personal “Tu


descubrimiento semanal” en función de la música
escuchada recientemente que funciona mediante
algoritmos capaces de relacionar los gustos personales
a los de otros. Lo cual puede conllevar al efecto burbuja,
en el cual la música es automáticamente elegida para
nosotros y nos impide descubrir más allá. Por otro lado
la recopilación de datos sobre lo que escucha cada
usuario puede ser utilizado para estrategias de
marketing (por ejemplo para atraer a determinados
grupos)30. Se desconocen estos algoritmos y el uso que
hace Spotify de dichos datos a pesar de que los
sociólogos escritores de “Spotify Teardown: Inside the
Black Box of Streaming Music” hayan intentado
entenderlos. El uso del Big data es algo que preocupa a
muchos usuarios de productos en la red hoy en día.

Que es una Base de Datos de una pagina Web

Base de Datos Web

Base de Datos Web es una herramienta que organiza y


administra la información de forma sencilla a través de
una interfaz Web.

¿Para qué sirve?

Para organizar la información de manera fácil y


sencilla dentro de un entorno colaborativo.
Para mantener las bases de datos integradas a las
herramientas de segmentación y envíos masivos de
comunicaciones.
Para controlar el flujo de información que los
usuarios pueden manejar a través de grupos de
visualización.
Para generar listas o reportes que puedan ser
utilizados en las estrategias comunicacionales de la
empresa o en la emisión de resultados y métricas
para la toma de decisiones.
Para llevar un control de las actividades realizadas
en la base de datos a través del Log de Auditoría.
Para optimizar procesos comunicacionales.

Beneficios

Los beneficios de la herramienta serán clasificadas en 4


grandes áreas:

Fácil de usar:

Está relacionado con lo amigable y lo intuitivo de las


interfaces de la aplicación para: Realizar la carga de
datos en las tablas de la base de datos; el uso de las
herramientas de búsquedas y segmentación y la
posibilidad de generar aplicaciones para acceder
rápidamente a la información contenida en la base de
datos.

Configurable:

La flexibilidad y facilidad para realizar las


configuraciones en las bases de datos permiten al
usuario: Crear un campo nuevo en la base de datos,
establecer relaciones entre bases de datos y seleccionar
unos tipos de datos que han sido discretizados para que
el usuario no necesite desarrollar ninguno. Además, la
exportación e importación de datos no necesita de una
configuración detallada debido a que el sistema guía al
usuario en el momento de configurar cualquiera de los
procesos mencionados.

El manejo de la permisología, la categorización y la


gestión de plantillas forman parte del proceso de
configuración de las bases de datos por lo que su
ejecución mantiene la premisa de la facilidad expresada
anteriormente.

Integrable

La integración del sistema de bases de datos se puede


realizar tanto con sistemas externos como con otros
módulos de la herramienta, a través de servicios web
que son invisibles al usuario.

Conectada

El manejo de la información involucra la unicidad de


registros de la Base de Datos y la posibilidad de revisión
y consulta de la data en tiempo real, debido a la
posibilidad de automatizar plataformas de
comunicación.

Características

Ordena la información en campos y registros.


Tiene la capacidad de hacer segmentaciones de la
base de datos.
Puede hacer búsquedas simples o avanzadas.
Importa y exporta información desde y hacia otros
programas.
Tiene indicadores gráficos que hacen más fácil el
análisis de la data.
Posee la opción de generar aplicaciones que faciliten
el acceso a la base de datos.
Crea grupos de visualización para restringir la vista y
la edición de campos específicos de una base de
datos.
Configura equipos de trabajo para controlar el
acceso de otros usuarios a la información contenida
en la base de datos.
Configura tipos de datos para la generación de los
campos en base a las necesidades de la empresa.
Conexión desde otros sistemas a través de
WebServices.
Tiene una interfaz que guía paso a paso al usuario.
Posibilidad de acceder a los historiales de las
herramientas de Email, SMS y Llamadas para poder
realizar búsquedas y segmentaciones a partir de las
bases de datos que hayan sido utilizadas para el
envío de mensajes a través de estos medios.

Preguntas frecuentes

¿Qué es la categoría de una base de datos?

Es el lugar donde se guardan las bases de datos con la


finalidad de organizarlas y facilitar su búsqueda.

¿Qué es el código de una base de datos?

Es un texto escrito en el lenguaje de programación, que


identifica y diferencia a una base de datos de otra.
Además, este código a diferencia del nombre, debe ser
único para que el sistema pueda reconocer la base de
datos a la cual pertenece.
¿Qué es una plantilla?

Conjunto predefinido de formas prediseñadas que


establece la estructura necesaria para publicar
contenido rápidamente. Página pre-desarrollada que es
empleada para crear nuevas páginas con el mismo
diseño, patrón o estilo.

Perfiles de usuario

Los siguientes perfiles de usuario que pueden utilizar la


aplicación son:

Usuario

Permisos asignados:

Acceso a Base de datos

Administrador

Permisos asignados:

Acceso a Base de datos


Administrar Base de datos

Súper Administrador

Permisos asignados:

Acceso a Base de datos


Administrar Base de datos
Acceso a todas las BD

 Aplicaciones de base de datos en la Web (Nancy


Chávez)

¿Cuáles son las aplicaciones más importantes de una


base de datos en la WEB?

·        Comercio electrónico.

·        Servicios al cliente (por ejemplo seguimiento de


paquetes postales)

·        Servicios financieros.

·        Búsqueda de información.

·        Acceso remoto a bases de datos.

·        Bases de datos compartidas (intranets)

·        Creación de documentos HTML personalizados


(sobre la marcha)

·        Distribución multimedia.

·        Seguimiento de visitantes.

¿En las bases de datos debe restringirse el acceso a la


información?

Sí, dentro de las Bases de Datos pueden existir


informaciones restringidas según autorizaciones. Los
Usuarios de estas bases de datos a través de Internet se
conectan a la red y abren el Navegador en la URL
determinada; introducen su nombre de Usuario y clave;
acceden a un menú o índice principal donde pueden
navegar por las distintas partes; Pueden hacer
consultas, adiciones, actualizaciones o borrados, según
el grado de autorización. Estos Datos son actualizados
en tiempo real y están al segundo a disposición de los
otros Usuarios concurrentes y posteriores.

La identificación del usuario es una de las formas de


guardar la seguridad.  Las identidades y permisos de
usuarios están definidas en los archivos de control de
acceso.  Pero la seguridad e integridad total de los datos
puede conservarse permitiendo el acceso a distintos
campos de una base de datos, solamente a usuarios
autorizados para ello.  En este sentido los datos pueden
ser presentados a través del Web de una forma segura y
con mayor impacto en todos los usuarios de la red
mundial.

Mencione ventajas de utilizar Base de Datos en la Web.

La Web es un medio para localizar enviar / recibir


información de diversos tipos, aún con las bases de
datos. En el ámbito competitivo es esencial ver las
ventajas que ésta vía electrónica proporciona para
presentar la información reduciendo costo y
almacenamiento de la información y aumentando la
rapidez de difusión de la misma.

Actualmente la Web permite acceder a bases de datos


desde cualquier parte del mundo.  Estas ofrecen a través
de la red un manejo dinámico y una gran flexibilidad de
los datos,  como ventajas que no podrían obtenerse a
través de otro medio informativo.

Otra ventaja de utilizar la Web es que no hay


restricciones en el Sistema Operativo que se debe usar,
permitiendo la conexión entre sí de las páginas Web
desplegadas en un Browser del Web que funciona en
una plataforma, con servidores de bases de datos
alojados en otra plataforma.  Además no hay necesidad
de cambiar el formato o la estructura de la información
dentro de las BD’s.

¿Qué es ASP y para qué sirve?


Con la tecnología Active Service Pages (ASP) se puede
crear un sitio activo que cambie cada semana, cada día
o cada hora si usted lo desea.  Si se tiene una bases de
datos de los productos y sus precios han cambiado
solamente hay que introducir la nueva bases de datos en
el servidor, y todas sus páginas estarán actualizadas.

Una base de datos permite crear una parte del sitio Web
restringido con clave de acceso.  Esto puede ser útil  si
se quiere crear fichas de información para los clientes
para los cuales no se tenga libre acceso, creando así su
propia Extranet.

Interfaces Web (Williams Solano)

 ¿Qué es una Interfaz Web?

Es aquella que contiene las especificaciones de la base


de datos necesarias para traducir las solicitudes
enviadas desde el cliente, a un formato que sea
reconocido por dicha base, además contiene toda la
información, estructura, variables y llamadas a
funciones, necesarias para comunicarse con la Base de
Datos.

 ¿Qué directrices se deben seguir para el diseño de


Interfaces Web?

·        Planteamiento General

·        Organización de la Información

·        Facilidad de navegación: Iconos y mapas sensibles

·        Agilidad en las tareas

·        Comodidad en la lectura


·        Consistencia

·        Accesibilidad

·        Evaluación del diseño.

¿Cuál es la estrategia más famosa para la creación de


aplicaciones de interacción con el Web?

Descargar aplicaciones o componentes funcionales que


se ejecutarán dentro del browser. Con ellas se realizará
un procesamiento complejo de lado del cliente, lo cual
requiere un gran esfuerzo para crear las piezas de la
aplicación. Estas estrategias poseen dos características
principales: garantizan la seguridad tanto en los
sistemas de distribución como en la comunicación que
se establece en tales aplicaciones.

 ¿Sobre que áreas gira el diseño de una aplicación Web?

El diseño de una aplicación Web gira alrededor de tres


áreas fundamentales:

El diseño de la interfaz de usuario debe encontrar un


justo equilibrio entre los tipos de  exploradores
admitidos, la estética de la aplicación y su facilidad
de uso. Al diseñar una interfaz para usar en Internet,
es necesario tener en cuenta la cantidad de tiempo
que una página tardará en descargarse a través de la
conexión más lenta que piense usar.
      Un diseño eficaz de la base de datos es crucial
para garantizar un tiempo de respuesta rápido por
parte del cliente. Para diseñar una base de datos
adecuada, es necesario distribuir apropiadamente
los datos entre la base de datos y el sistema de
archivos, normalizar de forma razonable las tablas
que no requieran combinaciones excesivas para
responder a las consultas, crear índices suficientes
para optimizar las consultas más frecuentes sin que
se utilice una cantidad de espacio de disco excesiva
y usar procedimientos almacenados para llevar a
cabo operaciones de base de datos frecuentes o
complejas. Para obtener una introducción a las
cuestiones relacionadas con el diseño de bases de
datos, consulte el apartado acerca de
consideraciones relativas al diseño de bases de
datos en el Kit de herramientas para el programador
de Microsoft SQL Server.
         Elaborar un plan de acceso a la base de datos
en el que se especifique qué páginas HTML
requieren contenido de base de datos puede ayudar
al diseñador a determinar qué páginas deben
generarse de forma totalmente dinámica mediante
secuencias de comandos de servidor y qué páginas
pueden crearse pseudo dinámicamente (mediante
herramientas como el Ayudante de Web de SQL
Server) para generar páginas estáticas de acuerdo
con una programación predeterminada.

 ¿Qué es una Interfaz de programación de aplicaciones


API?

Es un conjunto de rutinas, protocolos y herramientas


para construir aplicaciones de interfaz. API está
diseñado especialmente para los programadores, ya que
garantiza que todos los programas que utilizan API,
tendrán interfaces similares. Asimismo, esto le facilita al
usuario aprender la lógica de nuevos programas.
Tecnologías para la integración de bases datos web
(José Guerrero)

 ¿Cuál es la tecnología para la integración de base de


datos web que se ejecuta en tiempo real en un servidor
web en respuesta de un programa cliente?.

CGI (Common Gateway Interface)

 ¿Qué significa las siglas SQL?

Structured Query Language (Lenguaje de Consulta


Estructurado)

 Nombre los lenguajes de programación con los cuales


un programa CGI puede ser escrito:

C/C++, Pascal, Perl, TCL, Fortran, Visual Basic,


AppleScript, JavaScript y Delphi.

¿Qué es JDBC?

Es un API de Java, la cual permite conectar los


programas escritos en Java con la  base de datos.

 ¿Tecnología que permite conectividad abierta de base


de datos?

ODBC

¿Qué es JavaScript?

Es un lenguaje de scripts compacto basado en objetos y


orientado a eventos, el cual permite la realización de
aplicaciones de propósito general a través de la WWW y
aunque no esta diseñado para el desarrollo de grandes
aplicaciones es suficiente para la implementación de
aplicaciones WWW completas o interfaces WWW hacia
a otras más complejas. El JavaScript depende
únicamente del servidor web.

 Establezca las diferencias entre Java  y JavaScript.

JavaScript:

 ·        Interpretado (no compilado) en cliente.

·        Basado en objetos. Usan objetos, pero no clases ni


herencia.

·        Código integrado en el código HTML.

·        Enlazado Dinámico.

 Java:

Compilado en servidor antes de la ejecución del


cliente.
Programación orientado a objetos. Los applets
constan de clases objeto con herencia.
Applets diferenciados del código HTML.
Enlazados estáticos.

¿Qué es el modelo de tres capas del API  JDBC?

En este modelo, las instrucciones son enviadas a una


capa intermedia que se encarga de enviar las sentencias
SQL a la Base de Datos. El manejador  de Base de Datos
procesa las sentencias y retorna los resultados a la capa
intermedia que se encarga de enviarlos al usuario.

 ¿Qué es ODBC?

Es un tipo de arquitectura con la cual los datos


existentes son independientes de la plataforma o del
formato.

Lenguajes para el manejo de base de datos en la web


(Marlon García)

 ¿Qué es el XML?

Es el estándar de Extensible Markup Language. XML no


es más que un conjunto de reglas para definir etiquetas
semánticas que nos organizan un documento en
diferentes partes. XML es un metalenguaje que define la
sintaxis utilizada para definir otros lenguajes de
etiquetas estructurados.

¿Qué es el Perl?

PERL significa Practical Extraction and Report


Language, algo así como lenguaje práctico de extracción
y de informes.  PERL es un lenguaje interpretado,
aunque en realidad, el intérprete de PERL, como todos
los intérpretes modernos, compila los programas antes
de ejecutarlos. Por eso se habla de scripts, y no de
programas, concepto referido principalmente a
programas compilados al lenguaje máquina nativo del
ordenador y sistema operativo en el que se ejecuta.

 ¿Qué es el HTML?

El HTML (HipertText Markup Language) o Lenguaje de


enlaces hipertexto es un sistema  que se encarga de
definir tipos de documentos estructurados y lenguajes
de marcas para representar esos mismos documentos.

El término HTML se suele referir a ambas cosas, tanto al


tipo de documento como al lenguaje de marcas.

 ¿Cómo se procesa un programa Perl?


Perl procesa el programa en varias fases:

1. Examinar la línea para buscar swiches.

2. Ejecución previa del programa.

3. Compilación.

4. Ejecución carnuda (ejecuta el código intermedio,


hasta encontrar exit o hasta que se acabe el archivo).

5. Ejecución final.

 ¿Qué es un lenguaje de marcas?

Las marcas son códigos que indican a un programa


cómo debe tratar su contenido y así, si se desea que un
texto aparezca con un formato determinado, dicho texto
debe ir delimitado por la correspondiente marca que
indique como debe ser mostrado en pantalla o impreso.
Y lo mismo ocurre con todas las demás características
de cualquier texto. Ejemplos pueden tenerlos en mente
los usuarios de WordPerfect.

Nombre algunas aplicaciones del XLM.

Office, Oracle, Explorer

Seguridad de Componentes que manejan Base de Datos


(Frandy Alfonso)

 ¿Qué ofrece un corta fuego como medio de seguridad


para la Base de datos?

·        Aislamiento. La misión de un cortafuegos es aislar


su red privada de Internet, restringiendo el acceso
hacia/desde su red sólo a ciertos servicios, a la vez que
analiza todo el tráfico que pasa a través de él.
·        Cuello de botella. El cortafuegos se constituye en
un cuello de botella, que mantiene a los atacantes y
peligros alejados de la red a proteger; prohíbe en los dos
sentidos servicios susceptibles a ataques; y proporciona
protección ante algunos tipos de ataques basados en el
enrutamiento de paquetes.

·        Auditoria y registro de uso. El cortafuegos


constituye un buen lugar donde recopilar información
sobre el uso de la red. En su calidad de punto único de
acceso, el cortafuegos puede registrar toda la actividad
entre la red exterior y la interior.

·        Seguridad de contenidos. Existen otras amenazas


como los virus y el contenido activo malicioso, frente a
las cuales los mejores cortafuegos ofrecen una
protección limitada. La inspección antivirus del material
transmitido a través de servicios como el correo
electrónico, la Web o FTP es una característica
incorporada por un número cada vez mayor de
cortafuegos.

 Tipos de seguridad de bases de Datos.

Los tipos de seguridad que son necesarios en un


desarrollo informático, estos son:

·        Seguridad lógica: este nivel de seguridad implica


mantener la integridad y consistencia de los datos en la
base de datos cuando se realicen las operaciones de
altas, bajas y modificaciones en la base de datos del
sistema.

·        Seguridad física: este nivel de seguridad implica


mantener la integridad física de los archivos donde se
almacena la base de datos y el log de transacciones, en
el disco del servidor. Será implementado con
procedimientos de resguardo, back-up, y restauración.
Dichos procedimientos serán realizados periódicamente
por el administrador de la aplicación.

·        Seguridad de acceso: este nivel de seguridad


implica restringir el acceso a los datos por parte de
usuarios no autorizados. Será implementado tanto en la
base de datos como en la aplicación. La administración
de la seguridad se realiza con un módulo especialmente
diseñado para esa tarea.

 ¿Cuáles son las técnicas de copia de seguridad que


utilizan las Bases de Datos en la Web?

En general, hay tres técnicas de copia de seguridad y


son:

Copia de seguridad sin conexión (en frío):

La base de datos se cierra limpiamente y se pone fuera


de conexión. El software de copia de seguridad
independiente copia entonces los archivos en los
dispositivos de copia de seguridad. Cuando la copia
finaliza, la base de datos se puede poner en conexión.
Los datos dejan de estar disponibles desde el momento
en que la base de datos comienza a cerrarse hasta que
se pone de nuevo en conexión.

Copia de seguridad en conexión (en caliente):

El sistema de administración de la base de datos se está


ejecutando y la base de datos está en conexión. Sin
embargo, no se está teniendo acceso a la base de datos
propiamente dicha y, por lo tanto, no está disponible
para que la usen las aplicaciones durante la copia de
seguridad.

Copia de seguridad en conexión activa:

La base de datos está en conexión y se usa


activamente. La copia de seguridad se ejecuta durante
el procesamiento normal de transacciones. No se
requiere ninguna pausa para la copia de seguridad.

 ¿Cuáles son las medidas que se deben tomar para


evitar el acceso no autorizado a la base de datos?

Para proteger el acceso a las tablas, puede elegir de


entre las siguientes opciones:

·  Cambiar el perfil de usuario que emplea para acceder


a un recurso por otro perfil de usuario que ya tenga
autorización sobre las tablas.

·  Añadir autorización para acceder a las tablas al perfil


de usuario utilizado.

·  Utilizar una combinación formada por los dos métodos


anteriores.

 ¿Qué es una “puerta trasera” en base de datos?

Una puerta trasera es una forma no documentada de


ganar acceso a un sistema informático, lo que
normalmente implica usar una contraseña secreta. El
fallo permite a un posible atacante cambiar la
información de la base de datos y usar programas de
todo tipo, lo que podría causar resultados desastrosos
para el sistema.

 ¿A qué hace referencia seguridad de componentes en


base de datos?
Se refiere a la protección de datos contra el acceso no
autorizado. Estas base de datos, programas y datos se
pueden asegurar entregando números de identificación
y contraseñas a los usuarios autorizados

Arquitectura de base de datos para la web

– Navegador y Servidor

– Navegador y Servidor, Incorpora una Base de Datos,


Una típica transacción Web con base de datos. Por
ejemplo una petición HTTP, listado de libros de un autor
en particular.

Servidores Web con motor PHP están en un servidor y


en otro servidor la Base de Datos MYSQL, Ideal esta
disposición de servidores.

Glosario

Categoría: Es el lugar donde se guardan las bases de


datos con la finalidad de organizarlas y facilitar su
búsqueda.

Código de una base de datos: Es un texto escrito en


el lenguaje de programación, que identifica y
diferencia a una base de datos de otra. Además, este
código a diferencia del nombre, debe ser único para
que el sistema pueda reconocer la base de datos a la
cual pertenece.

Plantilla o Template: Conjunto predefinido de formas


prediseñadas que establece la estructura necesaria
para publicar contenido rápidamente. Página pre-
desarrollada que es empleada para crear nuevas
páginas con el mismo diseño, patrón o estilo.
El Common Gateway Interface (CGI)Actualmente,
ésta es la solución que más se está utilizando para la
creación de interfaces Web/DBMS. Fue probada por
primera vez en el servidor NCSA.Se ha comprobado
que si el Servidor Web recibe un URL con una llave,
para devolver un documento HTML como respuesta,
tendrá que cargar el servicio (programa) que le
indique las variables de ambiente y de la forma
HTML. La mayoría de las veces dicha llave es el “cgi-
bin”.
Entre las ventajas de la programación CGI, se tiene
su sencillez, ya que es muy fácil de entender, además
de ser un lenguaje de programación independiente,
ya que los escritos CGI pueden elaborarse en varios
lenguajes.

También es un estándar para usarse en todos los


servidores Web, y funcionar bajo una arquitectura
independiente, ya que ha sido creado para trabajar
con cualquier arquitectura de servidor Web.

Como la aplicación CGI se encuentra funcionando de


forma independiente, no pone en peligro al servidor,
en cuanto al cumplimiento de todas las tareas que
éste se encuentre realizando, o al acceso del estado
interno del mismo.

Pero el CGI presenta cierta desventaja en su


eficiencia, debido a que el Servidor Web tiene que
cargar el programa CGI y conectar y desconectar con
la base de datos cada vez que se recibe una
requisición. Además, no existe un registro del estado
del servidor, sino que todo hay que hacerlo
manualmente.

Recopilado por:

Yaney Aponte

Fuente:

http://www.monografias.com/trabajos24/bases-de-
datos/bases-de-datos.shtml

http://www.danaconnect.com/wiki/index.php
/Base_de_datos_web

http://www.mailxmail.com/curso-php-mysql-
sql-8/arquitectura-base-datos-web

http://www.uca.edu.sv/investigacion/bdweb
/tecnolog.html

Una base de datos es un conjunto de datos


pertenecientes a un mismo contexto y almacenados
sistemáticamente para su posterior uso. En este
sentido; una biblioteca puede considerarse una base de
datos compuesta en su mayoría por documentos y
textos impresos en papel e indexados para su consulta.
Actualmente, y debido al desarrollo tecnológico de
campos como la informática y la electrónica, la mayoría
de las bases de datos están en formato digital, siendo
este un componente electrónico, por tanto se ha
desarrollado y se ofrece un amplio rango de soluciones
al problema del almacenamiento de datos.

Hay programas denominados sistemas gestores de


bases de datos, abreviado SGBD (del inglés Database
Management System o DBMS), que permiten almacenar
y posteriormente acceder a los datos de forma rápida y
estructurada. Las propiedades de estos DBMS, así como
su utilización y administración, se estudian dentro del
ámbito de la informática.

Las aplicaciones más usuales son para la gestión de


empresas e instituciones públicas; También son
ampliamente utilizadas en entornos científicos con el
objeto de almacenar la información experimental.

Aunque las bases de datos pueden contener muchos


tipos de datos, algunos de ellos se encuentran
mutuamente protegidos por las leyes de varios países.
Por ejemplo en España, los datos personales se
encuentran protegidos por la Ley Orgánica de Protección
de Datos de Carácter Personal (LOPD), en México por la
Ley Federal de Transparencia y Acceso a la Información
Pública Gubernamental y en Argentina la Ley de
Protección de Datos Personales.1

En Argentina el Código Penal sanciona ciertas


conductas relacionadas con una base de datos: acceder
ilegítimamente a un banco de datos personales,
proporcionar o revelar información registrada en un
archivo o en un banco de datos personales cuyo secreto
estuviere obligado a guardar por ley o insertar o hacer
insertar datos en un archivo de datos personales. Si el
autor es funcionario público, sufre además pena de
inhabilitación especial.  

Clasificación de bases de datos[editar]

Las bases de datos pueden clasificarse de varias


maneras, de acuerdo al contexto que se esté
manejando, la utilidad de las mismas o las necesidades
que satisfagan.
Según la variabilidad de la base de datos[editar]Bases
de datos estáticas[editar]

Son bases de datos únicamente de lectura, utilizadas


principalmente para almacenar datos históricos que
posteriormente se pueden utilizar para estudiar el
comportamiento de un conjunto de datos a través del
tiempo, realizar proyecciones, tomar decisiones y
realizar análisis de datos para inteligencia empresarial.

Bases de datos dinámicas[editar]

Son bases de datos donde la información almacenada


se modifica con el tiempo, permitiendo operaciones
como actualización, borrado y edición de datos, además
de las operaciones fundamentales de consulta. Un
ejemplo, puede ser la base de datos utilizada en un
sistema de información de un supermercado.

Según el contenido[editar]Bases de datos


bibliográficas[editar]

Solo contienen una subrogante (representante) de la


fuente primaria, que permite localizarla. Un registro
típico de una base de datos bibliográfica contiene
información sobre el autor, fecha de publicación,
editorial, título, edición, de una determinada publicación,
etc. Puede contener un resumen o extracto de la
publicación original, pero nunca el texto completo,
porque si no, estaríamos en presencia de una base de
datos a texto completo (o de fuentes primarias —ver
más abajo). Como su nombre lo indica, el contenido son
cifras o números. Por ejemplo, una colección de
resultados de análisis de laboratorio, entre otras.

Bases de datos de texto completo[editar]


Almacenan las fuentes primarias, como por ejemplo,
todo el contenido de todas las ediciones de una
colección de revistas científicas.

Directorios[editar]

Un ejemplo son las guías telefónicas en formato


electrónico.

Estos directorios se pueden clasificar en dos grandes


tipos dependiendo de si son personales o empresariales
(llamadas páginas blancas o amarillas
respectivamente).

Los directorios empresariales hay de tres tipos:

1. Tienen nombre de la empresa y dirección


2. Contienen teléfono y los más avanzado contienen
correo electrónico
3. Contienen datos como facturación o número de
empleados además de códigos nacionales que
ayudan a su distinción.

Los directorios personales solo hay de un tipo, ya que


leyes como la LOPD en España protege la privacidad de
los usuarios pertenecientes al directorio.

La búsqueda inversa está prohibida en los directorios


personales (a partir de un número de teléfono saber el
titular de la línea).

Bases de datos o "bibliotecas" de información química o


biológica[editar]

Son bases de datos que almacenan diferentes tipos de


información proveniente de la química, las ciencias de la
vida o médicas. Se pueden considerar en varios
subtipos:

Las que almacenan secuencias de nucleótidos o


proteínas.
Las bases de datos de rutas metabólicas.
Bases de datos de estructura, comprende los
registros de datos experimentales sobre estructuras
3D de biomoléculas.
Bases de datos clínicas.
Bases de datos bibliográficas (biológicas, químicas,
médicas y de otros campos): PubChem, Medline,
EBSCOhost.

Modelos de bases de datos[editar]

Además de la clasificación por la función de las bases


de datos, estas también se pueden clasificar de acuerdo
a su modelo de administración de datos.

Un modelo de datos es básicamente una "descripción"


de algo conocido como contenedor de datos (algo en
donde se guardan los datos), así como de los métodos
para almacenar y recuperar datos de esos
contenedores. Los modelos de datos no son cosas
físicas: son abstracciones que permiten la
implementación de un sistema eficiente de base de
datos; por lo general se refieren a algoritmos, y
conceptos matemáticos.

Algunos modelos con frecuencia utilizados en las bases


de datos:

Bases de datos jerárquicas[editar]


En este modelo los datos se organizan en forma de
árbol invertido (algunos dicen raíz), en donde un nodo
padre de información puede tener varios hijos. El nodo
que no tiene padres es llamado raíz, y a los nodos que
no tienen hijos se los conoce como hojas.

Las bases de datos jerárquicas son especialmente útiles


en el caso de aplicaciones que manejan un gran
volumen de información y datos muy compartidos
permitiendo crear estructuras estables y de gran
rendimiento.

Una de las principales limitaciones de este modelo es su


incapacidad de representar eficientemente la
redundancia de datos.

Base de datos de red[editar]

Este es un modelo ligeramente distinto del jerárquico; su


diferencia fundamental es la modificación del concepto
de nodo: se permite que un mismo nodo tenga varios
padres (posibilidad no permitida en el modelo
jerárquico).

Fue una gran mejora con respecto al modelo jerárquico,


ya que ofrecía una solución eficiente al problema de
redundancia de datos; pero, aun así, la dificultad que
significa administrar la información en una base de
datos de red ha significado que sea un modelo utilizado
en su mayoría por programadores más que por usuarios
finales.

Bases de datos transaccionales[editar]

Son bases de datos cuyo único fin es el envío y


recepción de datos a grandes velocidades, estas bases
son muy poco comunes y están dirigidas por lo general
al entorno de análisis de calidad, datos de producción e
industrial, es importante entender que su fin único es
recolectar y recuperar los datos a la mayor velocidad
posible, por lo tanto la redundancia y duplicación de
información no es un problema como con las demás
bases de datos, por lo general para poderlas aprovechar
al máximo permiten algún tipo de conectividad a bases
de datos relacionales.

Un ejemplo habitual de transacción es el traspaso de


una cantidad de dinero entre cuentas bancarias.
Normalmente se realiza mediante dos operaciones
distintas, una en la que se debita el saldo de la cuenta
origen y otra en la que acreditamos el saldo de la cuenta
destino. Para garantizar la atomicidad del sistema (es
decir, para que no aparezca o desaparezca dinero), las
dos operaciones deben ser atómicas, es decir, el
sistema debe garantizar que, bajo cualquier
circunstancia (incluso una caída del sistema), el
resultado final es que, o bien se han realizado las dos
operaciones, o bien no se ha realizado ninguna.

Bases de datos relacionales[editar]

Este es el modelo utilizado en la actualidad para


representar problemas reales y administrar datos
dinámicamente. Tras ser postulados sus fundamentos
en 1970 por Edgar Frank Codd,2 de los laboratorios IBM
en San José (California), no tardó en consolidarse como
un nuevo paradigma en los modelos de base de datos.
Su idea fundamental es el uso de "relaciones". Estas
relaciones podrían considerarse en forma lógica como
conjuntos de datos llamados "tuplas". Pese a que esta
es la teoría de las bases de datos relacionales creadas
por Codd, la mayoría de las veces se conceptualiza de
una manera más fácil de imaginar. Esto es pensando en
cada relación como si fuese una tabla que está
compuesta por registros (las filas de una tabla), que
representarían las tuplas, y campos (las columnas de
una tabla).

En este modelo, el lugar y la forma en que se almacenen


los datos no tienen relevancia (a diferencia de otros
modelos como el jerárquico y el de red). Esto tiene la
considerable ventaja de que es más fácil de entender y
de utilizar para un usuario esporádico de la base de
datos. La información puede ser recuperada o
almacenada mediante "consultas" que ofrecen una
amplia flexibilidad y poder para administrar la
información.

El lenguaje más habitual para construir las consultas a


bases de datos relacionales es SQL, Structured Query
Language o Lenguaje Estructurado de Consultas, un
estándar implementado por los principales motores o
sistemas de gestión de bases de datos relacionales.

Durante su diseño, una base de datos relacional pasa


por un proceso al que se le conoce como normalización
de una base de datos.

Bases de datos multidimensionales[editar]

Son bases de datos ideadas para desarrollar


aplicaciones muy concretas, como creación de Cubos
OLAP. Básicamente no se diferencian demasiado de las
bases de datos relacionales (una tabla en una base de
datos relacional podría serlo también en una base de
datos multidimensional), la diferencia está más bien a
nivel conceptual; en las bases de datos
multidimensionales los campos o atributos de una tabla
pueden ser de dos tipos, o bien representan
dimensiones de la tabla, o bien representan métricas
que se desean aprender.

Bases de datos orientadas a objetos[editar]

Este modelo, bastante reciente, y propio de los modelos


informáticos orientados a objetos, trata de almacenar en
la base de datos los objetos completos (estado y
comportamiento).

Una base de datos orientada a objetos es una base de


datos que incorpora todos los conceptos importantes
del paradigma de objetos:

Encapsulación - Propiedad que permite ocultar la


información al resto de los objetos, impidiendo así
accesos incorrectos o conflictos.
Herencia - Propiedad a través de la cual los objetos
heredan comportamiento dentro de una jerarquía de
clases.
Polimorfismo - Propiedad de una operación mediante
la cual puede ser aplicada a distintos tipos de
objetos.

En bases de datos orientadas a objetos, los usuarios


pueden definir operaciones sobre los datos como parte
de la definición de la base de datos. Una operación
(llamada función) se especifica en dos partes. La
interfaz (o signatura) de una operación incluye el
nombre de la operación y los tipos de datos de sus
argumentos (o parámetros). La implementación (o
método) de la operación se especifica separadamente y
puede modificarse sin afectar la interfaz. Los programas
de aplicación de los usuarios pueden operar sobre los
datos invocando a dichas operaciones a través de sus
nombres y argumentos, sea cual sea la forma en la que
se han implementado. Esto podría denominarse
independencia entre programas y operaciones.

SQL:2003, es el estándar de SQL92 ampliado, soporta


los conceptos orientados a objetos y mantiene la
compatibilidad con SQL92.

Bases de datos documentales[editar]

Permiten la indexación a texto completo, y en líneas


generales realizar búsquedas más potentes, sirven para
almacenar grandes volúmenes de información de
antecedentes históricos. Tesaurus es un sistema de
índices optimizado para este tipo de bases de datos.

Bases de datos deductivas[editar]

Un sistema de base de datos deductiva, es un sistema


de base de datos pero con la diferencia de que permite
hacer deducciones a través de inferencias. Se basa
principalmente en reglas y hechos que son almacenados
en la base de datos. Las bases de datos deductivas son
también llamadas bases de datos lógicas, a raíz de que
se basa en lógica matemática. Este tipo de base de
datos surge debido a las limitaciones de la Base de
Datos Relacional de responder a consultas recursivas y
de deducir relaciones indirectas de los datos
almacenados en la base de datos.

Lenguaje[editar]

Utiliza un subconjunto del lenguaje Prolog llamado


Datalog el cual es declarativo y permite al ordenador
hacer deducciones para contestar a consultas
basándose en los hechos y reglas almacenados.

Ventajas[editar]

Uso de reglas lógicas para expresar las consultas.


Permite responder consultas recursivas.
Cuenta con negaciones estratificadas
Capacidad de obtener nueva información a través de
la ya almacenada en la base de datos mediante
inferencia.
Uso de algoritmos que optimizan las consultas.
Soporta objetos y conjuntos complejos.

Fases[editar]

Fase de Interrogación: se encarga de buscar en la


base de datos informaciones deducibles implícitas.
Las reglas de esta fase se denominan reglas de
derivación.
Fase de Modificación: se encarga de añadir a la base
de datos nuevas informaciones deducibles. Las
reglas de esta fase se denominan reglas de
generación.

Interpretación[editar]

Encontramos dos teorías de interpretación de las bases


de datos deductiva por lo cual consideramos las reglas y
los hechos como axiomas. Los hechos son axiomas
base que se consideran como verdaderos y no
contienen variables. Las reglas son axiomas deductivos
ya que se utilizan para deducir nuevos hechos.

Teoría de Modelos: una interpretación es llamada


modelo cuando para un conjunto específico de
reglas, estas se cumplen siempre para esa
interpretación. Consiste en asignar a un predicado
todas las combinaciones de valores y argumentos de
un dominio de valores constantes dado. A
continuación se debe verificar si ese predicado es
verdadero o falso.

Mecanismos[editar]

Existen dos mecanismos de inferencia:

Ascendente: donde se parte de los hechos y se


obtiene nuevos aplicando reglas de inferencia.
Descendente: donde se parte del predicado (objetivo
de la consulta realizada) e intenta encontrar
similitudes entre las variables que nos lleven a
hechos correctos almacenados en la base de datos.

Sistema de Gestión de bases de datos distribuida


(SGBD)[editar]

La base de datos y el software SGBD pueden estar


distribuidos en múltiples sitios conectados por una red.
Hay de dos tipos:

1. Distribuidos homogéneos: utilizan el mismo SGBD en


múltiples sitios.

2. Distribuidos heterogéneos: Da lugar a los SGBD


federados o sistemas multibase de datos en los que los
SGBD participantes tienen cierto grado de autonomía
local y tienen acceso a varias bases de datos
autónomas preexistentes almacenados en los SGBD,
muchos de estos emplean una arquitectura cliente-
servidor.

Estas surgen debido a la existencia física de organismos


descentralizados. Esto les da la capacidad de unir las
bases de datos de cada localidad y acceder así a
distintas universidades, sucursales de tiendas, etc.

Consulta a base de datos[editar]

Una consulta es el método para acceder a la


información en las bases de datos. Con las consultas se
puede modificar, borrar, mostrar y agregar datos en una
base de datos, también pueden utilizarse como origen
de registro para formularios. Para esto se utiliza un
Lenguaje de consulta.

Las consultas a la base de datos se realizan a través de


un Lenguaje de manipulación de datos, el lenguaje de
consultas a base de datos más utilizado es SQL.

El escritorio, que es la pantalla que ve después de iniciar


la sesión en Windows, es una de las características más
importantes del equipo. El escritorio puede contener
accesos directos a los programas, documentos,
carpetas e, incluso, impresoras que utilice con más
frecuencia. En el escritorio también puede haber
contenido activo, como un canal información bursátil o
de noticias.
La barra de tareas es la parte interior que  recorer el
 escritorio de la pantalla completo.  y espicado a el error
el creador  parte principales de la barra de tareas son el
boton de inicio, los icono anclado, la barras de ibiomas.

Los iconos son pequeños símbolos con un nombre que


los identifica y que representan carpetas, documentos y
aplicaciones. Seleccionando dichos iconos es posible
llegar al elemento real que se ha seleccionado.
El boton de inicio es el boton que esta lado izquerdo de
la barra de tareas el escritorio

El menú Inicio fue una lista personalizada de programas


para el usuario para poner en marcha, así como una lista
de documentos abiertos

La ventanas es un área visual, normalmente de forma


rectangular, que contiene algún tipo de interfaz de
usuario, mostrando la salida y permitiendo la entrada de
datos
El panel de control de la interfaz gráfica de Windows que
permite a los usuarios que vean y que manipulen ajustes
y controles del sistema básico, tales como Agregar
nuevo hardware, Agregar o quitar programas, Cuentas
de usuario y opciones de accesibilidad

Internet Explorer (anteriormente llamado Windows


Internet Explorer y Microsoft Internet Explorer), y
conocido comúnmente como IE, es un navegador web
desarrollado por Microsoft para el sistema operativo
Microsoft Windows desde 1995. Es el navegador web
más utilizado de Internet desde 1999, con un pico
máximo de cuota de utilización del 95% entre el 2002 y
2003. Sin embargo, dicha cuota de mercado ha
disminuido paulatinamente con los años debido a una
renovada competencia por parte de otros navegadores,
logrando aproximadamente entre el 30% y 54% en 2012

Un archivo o fichero informático es un conjunto de bits


que son almacenados en un dispositivo.

Un archivo es identificado por un nombre y la


descripción de la carpeta o directorio que lo contiene. A
los archivos informáticos se les llama así porque son los
equivalentes digitales de los archivos escritos en libros,
tarjetas, libretas, papel o microfichas del entorno de
oficina tradicional. Los archivos informáticos facilitan
una manera de organizar los recursos usados para
almacenar permanentemente datos en un sistema
informático virtual
AeroSnap es una sencilla utilidad para el escritorio
basada en una nueva característica de Windows 7 con la
cual podrás redimensionar a media pantalla, maximizar
o minimizar las ventanas, tan solo arrastrandolas hacia
los costados o hacia la parte superior o inferior del
escritorio.

Microsoft Word es el procesador de textos más


conocido hoy en día y una parte imprescindible de
Microsoft Office.

Ya sea desde cero, o usando la multitud de plantillas de


que dispone, Microsoft Word te ayudará a crear, editar y
enriquecer textos con una gran selección de
herramientas y contenido complementario.
avast! es un software antivirus de la firma
checa avast software. Cuenta con varias versiones, que
cubren desde el usuario doméstico hasta el corporativo.

Microsoft Excel es una aplicación distribuida por


Microsoft Office para hojas de cálculo. Este programa
es desarrollado y distribuido por Microsoft, y es utilizado
normalmente en tareas financieras y contables.

Microsoft Office Publisher) es la aplicación de


autoedición o DTP (por DeskTop Publishing en inglés) de
Microsoft Corporation. A menudo es considerado como
un programa para principiantes o de «nivel de entrada»
(entry level), que difiere del procesador de textos
Microsoft Word en que se hace hincapié (que se
refuerza) en el diseño y la maquetación de las páginas,
más que en el proceso y corrección de textos

Microsoft Access es un sistema de gestión de bases de


datos incluido en el paquete de programas de Microsoft
Office. Es igualmente un gestor de datos que recopila
información relativa a un asunto o propósito particular,
como el seguimiento de pedidos de clientes o el
mantenimiento de una colección de música. Access es
un programa informático en entornos de empresa, que
permite la creación y gestión de bases de datos, así
como su modificación, control y mantenimiento.

Microsoft Office OneNote, o simplemente OneNote, es


un producto de software gratuito desarrollado por
Microsoft para facilitar la toma de notas, la recopilación
de información, y la colaboración multiusuario. OneNote
permite colocar notas en páginas de dos dimensiones y
ofrece la posibilidad de agregar dibujos, diagramas,
fotografías, elementos multimedia, audio, vídeo, e
imágenes escaneadas. También permite crear una
impresora virtual a fin de enviar archivos o documentos
desde otros programas. Ofrece además el intercambio
de notas a través del uso compartido de archivos o
WebDAV. El producto fue lanzado en 2003 e inicialmente
no estaba incluido en Microsoft Office.

El teclado de la computadora

es un dispositivo o periférico de entrada, en parte


inspirado en el teclado de las máquinas de escribir, que
utiliza una disposición de botones o teclas, para que
actúen como palancas mecánicas o interruptores
electrónicos que envían información a lacomputadora.

Después de las tarjetas perforadas y las cintas de papel,


la interacción a través de los teclados, al estilo teletipo,
se convirtió en el principal dispositivo de entrada para
los ordenadores.

El teclado tiene aproximadamente entre 99 y 107 teclas,


y está dividido en cuatro bloques:

1. Bloque de funciones: va desde la tecla F1 a F12, en


tres bloques de cuatro: de F1 a F4, de F5 a F8 y de
F9 a F12. Funcionan de acuerdo al programa o
aplicación que esté abierto. Por ejemplo, en muchos
programas al presionar la tecla F1 se accede a la
ayuda asociada a ese programa. Además, a la
izquierda de este bloque suele estar la tecla Esc.
2. Bloque alfanumérico: está ubicado en la parte
inferior del bloque de funciones, contiene los
números arábigos del 1 al 0 y el alfabeto organizado
como en una máquina de escribir, además de
algunas teclas especiales, como por ejemplo Tab ↹
(tabulador),⇪ Bloq Mayús (Bloq Mayús), ⇧ Mayús
(tecla Shift), Ctrl, ⊞ Win (tecla Windows), Alt,
espaciador, Alt Gr, ↵ Entrar (tecla Enter, entrar o
Intro).
3. Bloque especial: está ubicado a la derecha del
bloque alfanumérico, contiene algunas teclas
especiales como Impr Pant o PetSis,Bloq Despl,
Pausa, Insert, Supr, Inicio, Fin, RePág, AvPág, y las
flechas direccionales que permiten mover el punto
de inserción en las cuatro direcciones (↑, ↓, ←, →).
4. Bloque numérico: está ubicado a la derecha del
bloque especial, se activa al presionar la tecla Bloq
Num, contiene los números arábigos organizados
como en una calculadora con el fin de facilitar la
digitación de cifras. Además, contiene el punto o
coma decimal ., y los signos de las cuatro
operaciones básicas: suma +, resta -, multiplicación
* y división /; también contiene una tecla de Intro o ↵
Entrar.
Windows 8 es una versión de Microsoft Windows, línea
de sistemas operativos desarrollada por Microsoft para
su uso en computadoras personales, incluidas
computadoras de escritorio en casa y de
negocios,computadoras portátiles, netbooks, tabletas,
servidores y centros multimedia. El principal cambio es
la polémica decisión de eliminar Menú Inicio, existente
desde Windows 95 como estándar de facto en cómo
presentar aplicaciones en interfaces gráficas. El 2 de
abril de 2014, Microsoft reconoció el error de la
eliminación del menú de inicio y anunció que lo volverían
a implementar en la siguiente versión de Windows,3 el
cual llegó en el 2015.4

Añade soporte para microprocesadores ARM, además


de los microprocesadores tradicionales x86 de Intel y
AMD. Su interfaz de usuarioha sido modificada para
hacerla más adecuada para su uso con pantallas
táctiles, además de los tradicionales ratón y teclado. El
efecto Aero Glass de su predecesor Windows 7 no está
presente en este sistema operativo, siendo reemplazado
por nuevos efectos planos para ventanas y botones con
un color simple.

El 29 de julio de 2015, Microsoft presentó su sucesor,


Windows 10, orientado a integrar de una mejor forma el
sistema operativo en todos los dispositivos, desde
ordenadores, tabletas y hasta teléfonos inteligentes,
destacando el regreso de uno de sus elementos más
característicos, el desaparecido Menú Inicio.5 6 7
Windows 10 es el último sistema operativo desarrollado
por Microsoftcomo parte de la familia de sistemas
operativos Windows NT.5 Fue dado a conocer
oficialmente en septiembre de 2014, seguido por una
breve presentación de demostración en el Build 2014.
Entró en fasebeta de prueba en octubre de 2014 y fue
lanzado al público en general el 29 de julio de 2015.6
Para animar su adopción, Microsoft anunció su
disponibilidad gratuita por un año desde su fecha de
lanzamiento, para los usuarios que cuenten con copias
genuinas de Windows 7 Service Pack 1 o Windows 8.1
Update. En junio de 2015 se habilitó una herramienta
que permite reservar esta actualización, dicha
herramienta notifica a cada usuario el momento en el
que estará lista la descarga de la actualización para su
dispositivo.7 Los participantes del programaWindows
Insider pueden recibir una licencia de Windows 10, pero
con ciertas condiciones.8

Esta edición introdujo una arquitectura de aplicaciones


«universales». Desarrolladas con la interfaz Continuum,
estas aplicaciones pueden ser diseñadas para
ejecutarse en todas las familias de productos
deMicrosoft con un código casi idéntico (incluyendo
computadoras personales, tabletas, teléfonos
inteligentes, sistemas embebidos, Xbox One, Surface
Hub y HoloLens). La interfaz de usuario fue revisado
para realizar transiciones entre una interfaz orientada al
ratón y una interfaz orientada a la pantalla táctil basadas
en dispositivos de entrada disponibles (particularmente
en tablets). Ambas interfaces incluyen unmenú Inicio
actualizado que comprende un diseño similar a
Windows 7con las baldosas de Windows 8. También se
introduce la Vista de Tareas, un sistema de escritorio
virtual, el navegador web Microsoft Edge y otras
aplicaciones nuevas o actualizadas, un soporte
integrado para iniciar sesión a través de huella digital o
reconocimiento facial llamado Windows Hello, nuevas
características de seguridad para entornos
empresariales, DirectX 12 y WDDM 2.0 para mejorar las
capacidades gráficas del sistema operativo para los
videojuegos.

Microsoft describió a Windows 10 tanto un sistema


operativo como un servicio que puede recibir
actualizaciones en curso para sus características y
funcionalidades, además con la habilidad en los
entornos empresariales para recibir actualizaciones no
críticas en un ritmo más lento, o un soporte a largo plazo
que solo recibe actualizaciones críticas, tales como
parches de seguridad, en el curso de vida de cinco años
de soporte general. Terry Myerson, vicepresidente
ejecutivo de Windows and Devices Group de Windows,
demostró que las metas de este modelo fue reducir la
fragmentación en toda la plataforma de Windows, como
Microsoft pretendía tener Windows 10 instalado en al
menos mil millones de dispositivos en los dos o tres
años después de su lanzamiento.9

Windows 10 recibió reseñas generalmente positivas en


el día de su lanzamiento. Los críticos elogiaron la
decisión deMicrosoft de retirar la interfaz de usuario
introducido por Windows 8 (incluyendo las aplicaciones
a pantalla completa y la pantalla Inicio)10 en un entorno
no táctil para proporcionar una interfaz más orientado al
escritorio en la misma línea de las versiones anteriores
de Windows, aunque la interfaz de usuario de
orientación táctil fue criticada por contener regresiones
hacia la interfaz de Windows 8. Los críticos también
elogiaron las mejoras para el software promocional de
Windows 10 sobre 8.1, la integración de Xbox Live, así
como la funcionalidad y capacidades de Cortana y la
sustitución de Internet Explorer con Microsoft Edge
(aunque el navegador fue criticado por encontrarse aún,
en estado de desarrollo).11 12

La mayor parte de la crítica cayó sobre las limitaciones


en el usuario para controlar algunas operaciones. En
este caso,Windows Update instala las actualizaciones
automáticamente. Se reportó una actualización errónea,
con el código KB3081424 lanzada en agosto de 2015,
que provocaba un error en el registro, esto pudo ser
prevenido facílmente por el usuario, pero al no estar
disponible dicha función, provocó molestias entre los
usuarios afectados.13 Solo en Windows 10 en sus
ediciones Pro y Enterprise se puede aplazar su
instalación. Preocupaciones por la privacidad también
fueron mencionadas por críticos y defensores al ver que
los ajustes por defecto permiten el envío de información
sobre el usuario a Microsoft y sus socios.

Una red de computadoras (también llamada red de


ordenadores, red de comunicaciones de datos, red
informática) es un conjunto de equipos informáticos y
softwareconectados entre sí por medio de dispositivos
físicos o inalámbricos que envían y reciben impulsos
eléctricos, ondas electromagnéticas o cualquier otro
medio para el transporte de datos, con la finalidad de
compartir información, recursos y ofrecer servicios.1
Como en todo proceso de comunicación, se requiere de
un emisor, un mensaje, un medio y un receptor. La
finalidad principal para la creación de una red de
ordenadores es compartir los recursos y la información
en la distancia, asegurar la confiabilidad y la
disponibilidad de la información, aumentar la velocidad
de transmisión de los datos y reducir el costo. Un
ejemplo es Internet, el cual es una gran red de millones
de ordenadores ubicados en distintos puntos del planeta
interconectados básicamente para compartir
información y recursos.

La estructura La estructura La estructura y el modo de


funcionamiento de las redes informáticas actuales
están definidos en varios estándares, siendo el más
importante y extendido de todos ellos el modelo TCP/IP
basado en el modelo de referencia OSI. Este último,
estructura cada red en siete capas con funciones
concretas pero relacionadas entre sí; en TCP/IP se
reducen a cuatro capas. Existen multitud de protocolos
repartidos por cada capa, los cuales también están
regidos por sus respectivos estándares.2

Historia[editar]

El primer indicio de redes de comunicación fue de


tecnología telefónica y telegráfica. En 1940 se
transmitieron datos desde la Universidad de Darmouth,
en Nuevo Hampshire, a Nueva York. A finales de la
década de 1960 y en los posteriores 70 fueron creados
los miniordenadores. En 1976, Apple introduce el Apple I,
uno de los primeros ordenadores personales. En 1981,
IBM introduce su primer PC. A mitad de la década de
1980 los PC comienzan a usar los módem para
compartir archivos con otros ordenadores, en un rango
de velocidades que comenzó en 1200 bps y llegó a los
56 kbps (comunicación punto a punto o dial-up), cuando
empezaron a ser sustituidos por sistema de mayor
velocidad, especialmente ADSL ADSL ADSL ADSL.

Descripción básica[editar]

La comunicación por medio de una red se lleva a cabo


en dos diferentes categorías: la capa física y la capa
lógica.

La capa física incluye todos los elementos de los que


hace uso un equipo para comunicarse con otros equipos
dentro de la red, como, por ejemplo, las tarjetas de red,
los cables, las antenas, etc.

La comunicación a través de la capa lógica se rige por


normas muy rudimentarias que por sí mismas resultan
de escasa utilidad. Sin embargo, haciendo uso de dichas
normas es posible construir los denominados
protocolos, que son normas de comunicación más
complejas (mejor conocidas como de alto nivel),
capaces de proporcionar servicios que resultan útiles.

Los protocolos son un concepto muy similar al de los


idiomas de las personas. Si dos personas hablan el
mismo idioma, es posible comunicarse y transmitir
ideas.

La razón más importante (quizá la única) sobre por qué


existe diferenciación entre la capa física y la lógica es
sencilla: cuando existe una división entre ambas, es
posible utilizar un número casi infinito de protocolos
distintos, lo que facilita la actualización y migración
entre distintas tecnologías.
Componentes básicos de las redes[editar]

Para poder formar una red se requieren elementos:


hardware, software y protocolos. Los elementos físicos
se clasifican en dos grandes grupos: dispositivos de
usuario final (hosts) y dispositivos de red. Los
dispositivos de usuario final incluyen los computadores,
impresoras, escáneres, y demás elementos que brindan
servicios directamente al usuario y los segundos son
todos aquellos que conectan entre sí a los dispositivos
de usuario final, posibilitando su intercomunicación.

El fin de una red es interconectar los componentes


hardware de una red , y por tanto, principalmente, los
ordenadores individuales, también denominados hosts,
a los equipos que ponen los servicios en la red, los
servidores, utilizando el cableado o tecnología
inalámbrica soportada por la electrónica de red y unidos
por cableado o radiofrecuencia. En todos los casos la
tarjeta de red se puede considerar el elemento
primordial, sea parte de un ordenador, de un
conmutador, de una impresora, etc. y sea de la
tecnología que sea (ethernet, Wi-Fi, Bluetooth, etc.)

Software[editar]

Sistema operativo de red: Permite la interconexión de


ordenadores para acceder a los servicios y recursos.
Al igual que un equipo no puede trabajar sin un
sistema operativo, una red de equipos no puede
funcionar sin un sistema operativo de red. En
muchos casos el sistema operativo de red es parte
del sistema operativo de los servidores y de los
clientes.
Software de aplicación: En última instancia, todos los
elementos se utilizan para que el usuario de cada
estación, pueda utilizar sus programas y archivos
específicos. Este software puede ser tan amplio
como se necesite ya que puede incluir procesadores
de texto, paquetes integrados, sistemas
administrativos de contabilidad y áreas afines,
sistemas especializados, correos electrónicos, etc. El
software adecuado en el sistema operativo de red
elegido y con los protocolos necesarios permiten
crear servidores para aquellos servicios que se
necesiten.

Hardware[editar]

Para lograr el enlace entre los ordenadores y los medios


de transmisión (cables de red o medios físicos para
redes alámbricas e infrarrojos o radiofrecuencias para
redes inalámbricas), es necesaria la intervención de una
tarjeta de red (NIC, Network interface controller), con la
cual se puedan enviar y recibir paquetes de datos desde
y hacia otros ordenadores, empleando un protocolo para
su comunicación y convirtiendo a esos datos a un
formato que pueda ser transmitido por el medio (bits,
-ceros y unos-). Cabe señalar que a cada tarjeta de red le
es asignado un identificador único por su fabricante,
conocido como dirección MAC (Media Access Control),
que consta de 48 bits (6 bytes). Dicho identificador
permite direccionar el tráfico de datos de la red del
emisor al receptor adecuado.

El trabajo del adaptador de red es el de convertir las


señales eléctricas que viajan por el cable (p. ej: red
Ethernet) o las ondas de radio (p. ej: red Wi-Fi) en una
señal que pueda interpretar el ordenador.

Estos adaptadores son unas tarjetas PCI que se


conectan en las ranuras de expansión del ordenador. En
el caso de ordenadores portátiles, estas tarjetas vienen
en formato PCMCIA o similares. En los ordenadores del
siglo XXI, tanto de sobremesa como portátiles, estas
tarjetas ya vienen integradas en la placa base.

Adaptador de red es el nombre genérico que reciben los


dispositivos encargados de realizar dicha conversión.
Esto significa que estos adaptadores pueden ser tanto
Ethernet, como wireless, así como de otros tipos como
fibra óptica, coaxial, etc. También las velocidades
disponibles varían según el tipo de adaptador; estas
pueden ser, en Ethernet, de 10, 100, 1000 Mbps o 10 000,
y en los inalámbricos, principalmente, de 11, 54,
300 Mbps.

Dispositivos de usuario final[editar]

Ordenadores personales: son los puestos de trabajo


habituales de las redes. Dentro de la categoría de
ordenadores, y más concretamente ordenadores
personales, se engloban todos los que se utilizan
para distintas funciones, según el trabajo que
realizan. Se incluyen desde las potentes estaciones
de trabajo para la edición de vídeo, por ejemplo,
hasta los ligeros equipos portátiles, conocidos como
netbooks, cuya función principal es la de navegar por
Internet. Las tabletas se popularizaron al final de la
primera década del siglo XXI, especialmente por el
éxito del iPad de Apple.

Terminal: muchas redes utilizan este tipo de equipo


en lugar de puestos de trabajo para la entrada de
datos. En estos solo se exhiben datos o se
introducen. Este tipo de terminales, trabajan unido a
un servidor, que es quien realmente procesa los
datos y envía pantallas de datos a los terminales.

Electrónica del hogar: las tarjetas de red empezaron


a integrarse, de forma habitual, desde la primera
década del siglo XXI, en muchos elementos
habituales de los hogares: televisores, equipos
multimedia, proyectores, videoconsolas, teléfonos
celulares, libros electrónicos, etc. e incluso en
electrodomésticos, como frigoríficos, convirtiéndolos
en partes de las redes junto a los tradicionales
ordenadores.

Impresoras: muchos de estos dispositivos son


capaces de actuar como parte de una red de
ordenadores sin ningún otro elemento, tal como un
print server, actuando como intermediario entre la
impresora y el dispositivo que está solicitando un
trabajo de impresión determinado. Los medios de
conectividad de estos dispositivos pueden ser
alámbricos o inalámbricos, dentro de este último
puede ser mediante: ethernet, Wi-Fi, infrarrojo o
bluetooth. En algunos casos se integran dentro de la
impresora y en otros por medio de convertidores
externos.

Otros elementos: escáneres, lectores de CD-ROM.

Servidores[editar]

Son los equipos que ponen a disposición de los clientes


los distintos servicios. En la siguiente lista hay algunos
tipos comunes de servidores y sus propósitos:

Servidor de archivos: almacena varios tipos de


archivo y los distribuye a otros clientes en la red.
Pueden ser servidos en distinto formato según el
servicio que presten y el medio: FTP, HTTP, etc.

Servidor de impresión: controla una o más


impresoras y acepta trabajos de impresión de otros
clientes de la red, poniendo en cola los trabajos de
impresión (aunque también puede cambiar la
prioridad de las diferentes impresiones), y realizando
la mayoría o todas las otras funciones que en un sitio
de trabajo se realizaría para lograr una tarea de
impresión si la impresora fuera conectada
directamente con el puerto de impresora del sitio de
trabajo.

Servidor de correo: almacena, envía, recibe, enruta y


realiza otras operaciones relacionadas con el
correo-e (e-mail) para los clientes de la red.

Servidor de fax: almacena, envía, recibe, enruta y


realiza otras funciones necesarias para la
transmisión, la recepción y la distribución apropiadas
de los fax, con origen y/o destino una Ordenador o un
dispositivo físico de telefax.

Servidor de telefonía: realiza funciones relacionadas


con la telefonía, como es la de contestador
automático, realizando las funciones de un sistema
interactivo para la respuesta de la voz, almacenando
los mensajes de voz, encaminando las llamadas y
controlando también la red o Internet, etc. Pueden
operar con telefonía IP o analógica.

Servidor proxy: realiza un cierto tipo de funciones en


nombre de otros clientes en la red para aumentar el
funcionamiento de ciertas operaciones (p. ej.,
prefetching y depositar documentos u otros datos
que se soliciten muy frecuentemente). También
«sirve» seguridad; esto es, tiene un firewall
(cortafuegos). Permite administrar el acceso a
Internet en una red de ordenadores permitiendo o
negando el acceso a diferentes sitios web,
basándose en contenidos, origen/destino, usuario,
horario, etc.

Servidor de acceso remoto (Remote Access Service,


RAS): controla las líneas de módems u otros canales
de comunicación de la red para que las peticiones
conecten una posición remota con la red, responden
las llamadas telefónicas entrantes o reconocen la
petición de la red y realizan los chequeos necesarios
de seguridad y otros procedimientos necesarios para
registrar a un usuario en la red. Gestionan las
entradas para establecer la redes virtuales privadas
(VPN).

Servidor web: almacena documentos HTML,


imágenes, archivos de texto, escrituras, y demás
material web compuesto por datos (conocidos
normalmente como contenido), y distribuye este
contenido a clientes que la piden en la red.

Servidor de streaming: servidores que distribuyen


multimedia de forma continua evitando al usuario
esperar a la descarga completa del fichero. De esta
forma se pueden distribuir contenidos tipo radio,
vídeo, etc. en tiempo real y sin demoras.

Servidor de reserva (standby server): tiene el


software de reserva de la red instalado y tiene
cantidades grandes de almacenamiento de la red en
discos duros u otras formas del almacenamiento
disponibles para que se utilice con el fin de
asegurarse de que la pérdida de un servidor principal
no afecte a la red. El servidor de reserva lo puede ser
de cualquiera de los otros tipos de servidor, siendo
muy habituales en los servidores de aplicaciones y
bases de datos.

Servidor de autenticación: es el encargado de


verificar que un usuario pueda conectarse a la red en
cualquier punto de acceso, ya sea inalámbrico o por
cable, basándose en el estándar 802.1x y puede ser
un servidor de tipo RADIUS.

Servidores para los servicios de red: estos equipos


gestionan aquellos servicios necesarios propios de
la red y sin los cuales no se podrían interconectar, al
menos de forma sencilla. Algunos de esos servicios
son: servicio de directorio para la gestión de los
usuarios y los recursos compartidos, Dynamic Host
Configuration Protocol (DHCP) para la asignación de
las direcciones IP en redes TCP/IP, Domain Name
System (DNS) para poder nombrar los equipos sin
tener que recurrir a su dirección IP numérica, etc.
Servidor de base de datos: permite almacenar la
información que utilizan las aplicaciones de todo
tipo, guardándola ordenada y clasificada y que puede
ser recuperada en cualquier momento y sobre la
base de una consulta concreta. Estos servidores
suelen utilizar lenguajes estandarízados para hacer
más fácil y reutilizable la programación de
aplicaciones, uno de los más populares es SQL.

Servidor de aplicaciones: ejecuta ciertas


aplicaciones. Usualmente se trata de un dispositivo
de software que proporciona servicios de aplicación
a los ordenadores cliente. Un servidor de
aplicaciones gestiona la mayor parte (o la totalidad)
de las funciones de lógica de negocio y de acceso a
los datos de la aplicación. Los principales beneficios
de la aplicación de la tecnología de servidores de
aplicación son la centralización y la disminución de
la complejidad en el desarrollo de aplicaciones.

Servidores de monitorización y gestión: ayudan a


simplificar las tareas de control, monitorización,
búsqueda de averías, resolución de incidencias, etc.
Permiten, por ejemplo, centralizar la recepción de
mensajes de aviso, alarma e información que emiten
los distintos elementos de red (no solo los propios
servidores). El SNMP es un de los protocolos más
difundidos y que permite comunicar elementos de
distintos fabricantes y de distinta naturaleza.

Y otros muchos dedicados a múltiples tareas, desde


muy generales a aquellos de una especificidad
enorme.
Almacenamiento en red[editar]

En las redes medianas y grandes el almacenamiento de


datos principal no se produce en los propios servidores
sino que se utilizan dispositivos externos, conocidos
como disk arrays (matrices de discos) interconectados,
normalmente por redes tipo SAN o Network-Attached
Storage (NAS). Estos medios permiten centralizar la
información, una mejor gestión del espacio, sistemas
redundantes y de alta disponibilidad.

Los medios de copia de seguridad suelen incluirse en la


misma red donde se alojan los medios de
almacenamiento mencionados más arriba, de esta
forma el traslado de datos entre ambos, tanto al hacer la
copia como las posibles restauraciones, se producen
dentro de esta red sin afectar al tráfico de los clientes
con los servidores o entre ellos.

Dispositivos de red[editar]

Los equipos informáticos descritos necesitan de una


determinada tecnología que forme la red en cuestión.
Según las necesidades se deben seleccionar los
elementos adecuados para poder completar el sistema.
Por ejemplo, si queremos unir los equipos de una oficina
entre ellos debemos conectarlos por medio de un
conmutador o un concentrador, si además hay un varios
portátiles con tarjetas de red Wi-Fi debemos conectar un
punto de acceso inalámbrico para que recoja sus
señales y pueda enviarles las que les correspondan, a su
vez el punto de acceso estará conectado al conmutador
por un cable. Si todos ellos deben disponer de acceso a
Internet, se interconectarán por medio de un router, que
podría ser ADSL, ethernet sobre fibra óptica, broadband,
etc.

Los elementos de la electrónica de red más habituales


son:

Conmutador de red (switch),


Enrutador (router),
Puente de red (bridge),
Puente de red y enrutador (brouter),
Punto de acceso inalámbrico (Wireless Access Point,
WAP).

Protocolos de redes[editar]

Existen diversos protocolos, estándares y modelos que


determinan el funcionamiento general de las redes.
Destacan el modelo OSI y el TCP/IP. Cada modelo
estructura el funcionamiento de una red de manera
distinta. El modelo OSI cuenta con siete capas muy
definidas y con funciones diferenciadas y el TCP/IP con
cuatro capas diferenciadas pero que combinan las
funciones existentes en las siete capas del modelo
OSI.3 Los protocolos están repartidos por las diferentes
capas pero no están definidos como parte del modelo
en sí sino como entidades diferentes de normativas
internacionales, de modo que el modelo OSI no puede
ser considerado una arquitectura de red.4

Modelo OSI[editar]

El modelo OSI (Open System Interconnection) fue


creado por la ISO y se encarga de la conexión entre
sistemas abiertos; esto es, sistemas abiertos a la
comunicación con otros sistemas. Los principios en los
que basó su creación eran: una mayor definición de las
funciones de cada capa, evitar agrupar funciones
diferentes en la misma capa y una mayor simplificación
en el funcionamiento del modelo en general.3

Este modelo divide las funciones de red en siete capas


diferenciadas:

[[PASTING TABLES IS NOT SUPPORTED]]Modelo


TCP/IP[editar]

Artículo principal: TCP/IP

Este modelo es el implantado actualmente a nivel


mundial: fue primero utilizado en ARPANET y es
utilizado actualmente a nivel global en Internet y redes
locales. Su nombre deriva de la unión de los nombres de
los dos principales protocolos que lo conforman: TCP en
la capa de transporte e IP en la capa de red.5 Se
compone de cuatro capas:

[[PASTING TABLES IS NOT SUPPORTED]]Otros


estándares[editar]

Existen otros estándares, más concretos, que definen el


modo de funcionamiento de diversas tecnologías de
transmisión de datos. La siguiente lista no es completa,
solo muestra algunos ejemplos:

[[PASTING TABLES IS NOT SUPPORTED]]Clasificación de


las redes[editar]

Una red puede recibir distintos calificativos de


clasificación sobre la base de distintas taxonomías:
alcance, tipo de conexión, tecnología, etc.

Por alcance[editar]
Red de área personal (Personal Area Network, PAN)
es una red de ordenadores usada para la
comunicación entre los dispositivos de el Ordenador
cerca de una persona.

Red inalámbrica de área personal (Wireless Personal


Area Network, WPAN), es una red de ordenadores
inalámbrica para la comunicación entre distintos
dispositivos (tanto ordenadores, puntos de acceso a
internet, teléfonos celulares, PDA, dispositivos de
audio, impresoras) cercanos al punto de acceso.
Estas redes normalmente son de unos pocos metros
y para uso personal, así como fuera de ella. El medio
de transporte puede ser cualquiera de los habituales
en las redes inalámbricas pero las que reciben esta
denominación son habituales en Bluetooth.

Red de área local (Local Area Network, LAN), es una


red que se limita a un área especial relativamente
pequeña tal como un cuarto, un solo edificio, una
nave, o un avión. Las redes de área local a veces se
llaman una sola red de localización. No utilizan
medios o redes de interconexión públicos.

Red de área local inalámbrica (Wireless Local Area


Network, WLAN), es un sistema de comunicación de
datos inalámbrico flexible, muy utilizado como
alternativa a las redes de área local cableadas o
como extensión de estas.

Red de área de campus (Campus Area Network,


CAN), es una red de ordenadores de alta velocidad
que conecta redes de área local a través de un área
geográfica limitada, como un campus universitario,
una base militar, hospital, etc. Tampoco utiliza
medios públicos para la interconexión.

Red de área metropolitana (Metropolitan Area


Network, MAN) es una red de alta velocidad (banda
ancha) que da cobertura en un área geográfica más
extensa que un campus, pero aun así limitado. Por
ejemplo, una red que interconecte los edificios
públicos de un municipio dentro de la localidad por
medio de fibra óptica.

Red de área amplia (Wide Area Network, WAN), son


redes informáticas que se extienden sobre un área
geográfica extensa utilizando medios como:
satélites, cables interoceánicos, Internet, fibras
ópticas públicas, etc.

Red de área de almacenamiento (Storage Area


Network, SAN), es una red concebida para conectar
servidores, matrices (arrays) de discos y librerías de
soporte, permitiendo el tránsito de datos sin afectar
a las redes por las que acceden los usuarios.

Red de área local virtual (Virtual LAN, VLAN), es un


grupo de ordenadores con un conjunto común de
recursos a compartir y de requerimientos, que se
comunican como si estuvieran adjuntos a una
división lógica de redes de ordenadores en la cual
todos los nodos pueden alcanzar a los otros por
medio de broadcast (dominio de broadcast) en la
capa de enlace de datos, a pesar de su diversa
localización física. Este tipo surgió como respuesta a
la necesidad de poder estructurar las conexiones de
equipos de un edificio por medio de software,10
permitiendo dividir un conmutador en varios
virtuales.

Por tipo de conexión[editar]

Medios guiados[editar]

Cable de par trenzado: es una forma de conexión en


la que dos conductores eléctricos aislados son
entrelazados para tener menores interferencias y
aumentar la potencia y disminuir la diafonía de los
cables adyacentes. Dependiendo de la red se pueden
utilizar, uno, dos, cuatro o más pares trenzados.
Cable coaxial: se utiliza para transportar señales
electromagnéticas de alta frecuencia, el cual posee
un núcleo sólido (generalmente de cobre) o de hilos,
recubierto por un material dieléctrico y una malla o
blindaje, que sirven para aislar o proteger la señal de
información contra las interferencias o ruido exterior.
Fibra óptica: es un medio de transmisión empleado
habitualmente en redes de datos; un hilo muy fino de
material transparente, vidrio o materiales plásticos,
por el que se envían pulsos de luz que representan
los datos a transmitir.

Medios no guiados[editar]

Red por radio es aquella que emplea la


radiofrecuencia como medio de unión de las diversas
estaciones de la red.
Red por infrarrojos (Infrared Data Association, IrDA),
permiten la comunicación entre dos nodos, usando
una serie de ledes infrarrojos para ello. Se trata de
emisores/receptores de ondas infrarrojas entre
ambos dispositivos, cada dispositivo necesita al otro
para realizar la comunicación por ello es escasa su
utilización a gran escala. No disponen de gran
alcance y necesitan de visibilidad entre los
dispositivos.
Red por microondas, es un tipo de red inalámbrica
que utiliza microondas como medio de transmisión.
Los protocolos más frecuentes son: el IEEE 802.11b
y transmite a 2,4 GHz, alcanzando velocidades de
11 Mbps (Megabits por segundo); el rango de 5,4 a
5,7 GHz para el protocolo IEEE 802.11a; el IEEE
802.11n que permite velocidades de hasta
600 Mbps; etc.

Por relación funcional[editar]

Cliente-servidor es la arquitectura que consiste


básicamente en un cliente que realiza peticiones a
otro programa (el servidor) que le da respuesta.
Peer-to-peer, o red entre iguales, es aquella red de
ordenadores en la que todos o algunos aspectos
funcionan sin clientes ni servidores fijos, sino una
serie de nodos que se comportan como iguales entre
sí.

Por tecnología[editar]

Red punto a punto (point to point, PtP) es aquella en


la que existe multitud de conexiones entre parejas
individuales de máquinas. Este tipo de red requiere,
en algunos casos, máquinas intermedias que
establezcan rutas para que puedan transmitirse
paquetes de datos. El medio electrónico habitual
para la interconexión es el conmutador, o switch.
Red de Difusión (broadcast) se caracteriza por
transmitir datos por un solo canal de comunicación
que comparten todas las máquinas de la red. En este
caso, el paquete enviado es recibido por todas las
máquinas de la red pero únicamente la destinataria
puede procesarlo. Los equipos unidos por un
concentrador (hub), forman redes de este tipo.
Red multipunto, dispone de una línea o medio de
comunicación cuyo uso está compartido por todas
las terminales en la red. La información fluye de
forma bidireccional. Los terminales pueden estar
separados geográficamente.

Por topología física[editar]

Topologías físicas de red.

Red en bus (bus o «conductor común») o Red lineal


(line): se caracteriza por tener un único canal de
comunicaciones (denominado bus, troncal o
backbone) al cual se conectan los diferentes
dispositivos.
Red en anillo' (ring) o Red circular: cada estación está
conectada a la siguiente y la última está conectada a
la primera. Además, puede compararse con la Red en
cadena margarita (dDaisy chain).
Red en estrella (star): las estaciones están
conectadas directamente a un punto central y todas
las comunicaciones se han de hacer necesariamente
a través de este.
Red en malla (mesh): cada nodo está conectado a
todos los otros.
Red en árbol (tree) o Red jerárquica: los nodos están
colocados en forma de árbol. Desde una visión
topológica, la conexión en árbol es parecida a una
serie de redes en estrella interconectadas salvo en
que no tiene un nodo central.
Red híbrida o Red mixta: se da cualquier
combinación de las anteriores. Por ejemplo, circular
de estrella, bus de estrella, etc.

Por la direccionalidad de los datos[editar]

Simplex o unidireccional: un equipo terminal de datos


transmite y otro recibe.
Half-duplex o semidúplex: el método o protocolo de
envío de información es bidireccional pero no
simultáneo bidireccional, solo un equipo transmite a
la vez.
Full-duplex o dúplex: los dos equipos involucrados en
la comunicación lo pueden hacer de forma
simultánea, transmitir y recibir.

Por grado de autentificación[editar]

Red privada: es una red que solo puede ser usada por
algunas personas y que está configurada con clave
de acceso personal.[cita requerida]
Red de acceso público: una red pública se define
como una red que puede usar cualquier persona y no
como las redes que están configuradas con clave de
acceso personal. Es una red de ordenadores
interconectados, capaz de compartir información y
que permite comunicar a usuarios sin importar su
ubicación geográfica.[cita requerida]

Por grado de difusión[editar]

Una intranet es una red privada de ordenadores que


utiliza tecnología de Internet para compartir dentro
de una organización parte de sus sistemas de
información y sistemas operacionales.
La Internet es un conjunto descentralizado de redes
de comunicación interconectadas que utilizan la
familia de protocolos TCP/IP, garantizando que las
redes físicas heterogéneas que la componen
funcionen como una red lógica única, de alcance
mundial.

Por servicio o función[editar]

Red comercial proporciona soporte e información


para una empresa u organización con ánimo de
lucro.
Red educativa proporciona soporte e información
para una organización educativa dentro del ámbito
del aprendizaje.
Red para el proceso de datos proporciona una
interfaz para intercomunicar equipos que vayan a
realizar una función de cómputo conjunta

Una red de área local o LAN (por las siglas en inglés de


Local Area Network) es una red de computadoras que
abarca un área reducida a una casa, un departamento o
un edificio.1

La topología de red define la estructura de una red. Una


parte de la definición topológica es la topología física,
que es la disposición real de los cables o medios. La
otra parte es la topología lógica, que define la forma en
que los hosts acceden a los medios para enviar datos.

Topologías físicas[editar]

Las topologías más comúnmente usadas son las


siguientes:

Una topología de bus usa solo un cable backbone


que debe terminarse en ambos extremos. Todos los
host se conectan directamente a este backbone. Su
funcionamiento es simple y es muy fácil de instalar,
pero es muy sensible a problemas de tráfico, y un
fallo o una rotura en el cable interrumpe todas las
transmisiones.
La topología de anillo conecta los nodos punto a
punto, formando un anillo físico y consiste en
conectar varios nodos a una red que tiene una serie
de repetidores. Cuando un nodo transmite
información a otro la información pasa por cada
repetidor hasta llegar al nodo deseado. El problema
principal de esta topología es que los repetidores son
unidireccionales (siempre van en el mismo sentido).
Después de pasar los datos enviados a otro nodo por
dicho nodo, continua circulando por la red hasta
llegar de nuevo al nodo de origen, donde es
eliminado. Esta topología no tiene problemas por la
congestión de tráfico, pero si hay una rotura de un
enlace, se produciría un fallo general en la red.
La topología en estrella conecta todos los nodos con
un nodo central. El nodo central conecta
directamente con los nodos, enviándoles la
información del nodo de origen, constituyendo una
red punto a punto. Si falla un nodo, la red sigue
funcionando, excepto si falla el nodo central, que las
transmisiones quedan interrumpidas.
Una topología en estrella extendida conecta estrellas
individuales entre sí mediante la conexión de
concentradores (hubs) o switches. Esta topología
puede extender el alcance y la cobertura de la red.
Una topología jerárquica es similar a una estrella
extendida. Pero en lugar de conectar los hubs o
switches entre sí, el sistema se conecta con un
computador que controla el tráfico de la topología.
La topología de malla se implementa para
proporcionar la mayor protección posible para evitar
una interrupción del servicio. El uso de una topología
de malla en los sistemas de control en red de una
planta nuclear sería un ejemplo excelente. En esta
topología, cada host tiene sus propias conexiones
con los demás hosts. Aunque Internet cuenta con
múltiples rutas hacia cualquier ubicación, no adopta
la topología de malla completa.
La topología de árbol tiene varias terminales
conectadas de forma que la red se ramifica desde un
servidor base. Un fallo o rotura en el cable
interrumpe las transmisiones.
La topología de doble anillo es una de las tres
principales topologías. Las estaciones están unidas
una con otra formando un círculo por medio de un
cable común. Las señales circulan en un solo sentido
alrededor del círculo, regresándose en cada nodo. El
doble anillo es una variación del anillo que se utiliza
principalmente en redes de fibra como FDDI es el
doble anillo.
La topología mixta es aquella en la que se aplica una
mezcla entre alguna de las otras topologías: bus,
estrella o anillo. Principalmente las podemos
encontrar dos topologías mixtas: Estrella-Bus y
Estrella-Anillo. Los cables más utilizados son el cable
de par trenzado, el cable coaxial y la fibra óptica.

Topologías lógicas[editar]

La topología lógica de una red es la forma en que los


hosts se comunican a través del medio. Los dos tipos
más comunes de topologías lógicas son broadcast y
transmisión de tokens.

La topología broadcast simplemente significa que


cada host envía sus datos hacia todos los demás
hosts del medio de red. No existe un orden que las
estaciones deban seguir para utilizar la red. Es por
orden de llegada, es como funciona Ethernet.
La topología transmisión de tokens controla el
acceso a la red mediante la transmisión de un token
electrónico a cada host de forma secuencial. Cuando
un host recibe el token, ese host puede enviar datos
a través de la red. Si el host no tiene ningún dato para
enviar, transmite el token al siguiente host y el
proceso se vuelve a repetir. Dos ejemplos de redes
que utilizan la transmisión de tokens son Token Ring
y la interfaz de datos distribuida por fibra (FDDI).
Arcnet es una variación de Token Ring y FDDI. Arcnet
es la transmisión de tokens en una topología de bus.

Tipos[editar]
La oferta de redes de área local es muy amplia,
existiendo soluciones casi para cualquier circunstancia.
Podemos seleccionar el tipo de cable, la topología e
incluso el tipo de transmisión que más se adapte a
nuestras necesidades. Sin embargo, de toda esta oferta
las soluciones más extendidas son tres: Ethernet, Token
Ring y Arcnet.

Comparativa de los tipos de redes[editar]

Para elegir el tipo de red que más se adapte a nuestras


pretensiones, tenemos que tener en cuenta distintos
factores, como son el número de estaciones, distancia
máxima entre ellas, dificultad del cableado, necesidades
de velocidad de respuesta o de enviar otras
informaciones aparte de los datos de la red y, como no,
el costo.

Como referencia para los parámetros anteriores,


podemos realizar una comparación de los tres tipos de
redes comentados anteriormente. Para ello,
supongamos que el tipo Ethernet y Arcnet se instalan
con cable coaxial y Token Ring con par trenzado
apantallado. En cuanto a las facilidades de instalación,
Arcnet resulta ser la más fácil de instalar debido a su
topología. Ethernet y Token Ring necesitan de mayor
reflexión antes de proceder con su implementación.

En cuanto a la velocidad, Ethernet es la más rápida, entre


10 y 1000 Mbit/s, Arcnet funciona a 2,5 Mbit/s y Token
Ring a 4 Mbit/s. Actualmente existe una versión de
Token Ring a 16 Mbit/s, pero necesita un tipo de
cableado más caro.

En cuanto al precio, Arcnet es la que ofrece un menor


costo; por un lado porque las tarjetas que se instalan en
los PC para este tipo de redes son más baratas, y por
otro, porque el cableado es más accesible. Token Ring
resulta ser la que tiene un precio más elevado, porque,
aunque las placas de los PC son más baratas que las de
la red Ethernet, sin embargo su cableado resulta ser
caro, entre otras cosas porque se precisa de una MAU
por cada grupo de ocho usuarios más.

Componentes[editar]

Servidor: el servidor es aquel o aquellas


computadoras que van a compartir sus recursos
hardware y software con los demás equipos de la
red. Sus características son potencia de cálculo,
importancia de la información que almacena y
conexión con recursos que se desean compartir.
Estación de trabajo: las computadoras que toman el
papel de estaciones de trabajo aprovechan o tienen a
su disposición los recursos que ofrece la red así
como los servicios que proporcionan los Servidores
a los cuales pueden acceder.
Gateways o pasarelas: es un hardware y software
que permite las comunicaciones entre la red local y
grandes computadoras (mainframes). El gateway
adapta los protocolos de comunicación del
mainframe (X25, SNA, etcétera) a los de la red, y
viceversa.
Bridges o puentes de red: es un hardware y software
que permite que se conecten dos redes locales entre
sí. Un puente interno es el que se instala en un
servidor de la red, y un puente externo es el que se
hace sobre una estación de trabajo de la misma red.
Los puentes también pueden ser locales o remotos.
Los puentes locales son los que conectan a redes de
un mismo edificio, usando tanto conexiones internas
como externas. Los puentes remotos conectan redes
distintas entre sí, llevando a cabo la conexión a
través de redes públicas, como la red telefónica,
RDSI o red de conmutación de paquetes.

Tarjeta de red: también se denominan NIC (Network


Interface Card). Básicamente realiza la función de
intermediario entre la computadora y la red de
comunicación. En ella se encuentran grabados los
protocolos de comunicación de la red. La
comunicación con la computadora se realiza
normalmente a través de las ranuras de expansión
que éste dispone, ya sea ISA, PCI o PCMCIA. Aunque
algunos equipos disponen de este adaptador
integrado directamente en la placa base.
El medio: constituido por el cableado y los
conectores que enlazan los componentes de la red.
Los medios físicos más utilizados son el cable de
par trenzado, cable coaxial y la fibra óptica (cada vez
en más uso esta última).
Concentradores de cableado: una LAN en bus usa
solamente tarjetas de red en las estaciones y
cableado coaxial para interconectarlas, además de
los conectores, sin embargo este método complica el
mantenimiento de la red ya que si falla alguna
conexión toda la red deja de funcionar. Para impedir
estos problemas las redes de área local usan
concentradores de cableado para realizar las
conexiones de las estaciones, en vez de distribuir las
conexiones el concentrador las centraliza en un
único dispositivo manteniendo indicadores
luminosos de su estado e impidiendo que una de
ellas pueda hacer fallar toda la red.

Existen dos tipos de concentradores de cableado:

1. Concentradores pasivos: actúan como un simple


concentrador cuya función principal consiste en
interconectar toda la red.
2. Concentradores activos: además de su función
básica de concentrador también amplifican y
regeneran las señales recibidas antes de ser
enviadas y ejecutadas.

Los concentradores de cableado tienen dos tipos de


conexiones: para las estaciones y para unirse a otros
concentradores y así aumentar el tamaño de la red. Los
concentradores de cableado se clasifican dependiendo
de la manera en que internamente realizan las
conexiones y distribuyen los mensajes. A esta
característica se le llama topología lógica.Existen dos
tipos principales:

1. Concentradores con topología lógica en bus (HUB):


estos dispositivos hacen que la red se comporte
como un bus enviando las señales que les llegan por
todas las salidas conectadas.
2. Concentradores con topología lógica en anillo
(MAU): se comportan como si la red fuera un anillo
enviando la señal que les llega por un puerto al
siguiente.

Realmente no hay un límite máximo de computadoras,


dependerá entre otras cosas de los switches que se
utilicen. No obstante, considerando que se tuvieran muy
buenos equipos y bien organizada la red, entre 400 y 500
sería lo máximo que podría soportar la LAN sin que
empezara a degradarse notablemente el rendimiento de
la red a causa del propio tráfico de broadcast.

Una copia de seguridad, respaldo, copy backup, copia de


respaldo, copia de reserva (del inglés backup) en
ciencias de la información e informática es una copia de
los datos originales que se realiza con el fin de disponer
de un medio para recuperarlos en caso de su pérdida.
Las copias de seguridad son útiles ante distintos
eventos y usos: recuperar los sistemas informáticos y
los datos de una catástrofe informática, natural o
ataque; restaurar una pequeña cantidad de archivos que
pueden haberse eliminado accidentalmente, corrompido,
infectado por un virus informático u otras causas;
guardar información histórica de forma más económica
que los discos duros y además permitiendo el traslado a
ubicaciones distintas de la de los datos originales; etc.

El proceso de copia de seguridad se complementa con


otro conocido como restauración de los datos, que es la
acción de leer y grabar en la ubicación original u otra
alternativa los datos requeridos. La pérdida de datos es
muy común, el 66 % de los usuarios de Internet han
sufrido una seria pérdida de datos en algún momento.1

Ya que los sistemas de respaldo contienen por lo menos


una copia de todos los datos que vale la pena salvar,
deben de tenerse en cuenta los requerimientos de
almacenamiento. La organización del espacio de
almacenamiento y la administración del proceso de
efectuar la copia de seguridad son tareas complicadas.
Para brindar una estructura de almacenamiento es
conveniente utilizar un modelo de almacenaje de datos.
En noviembre de 2010 existían muchos tipos diferentes
de dispositivos para almacenar datos que eran útiles
para hacer copias de seguridad, cada uno con sus
ventajas y desventajas a tener en cuenta para elegirlos,
como duplicidad, seguridad en los datos y facilidad de
traslado.

Antes de que los datos sean enviados a su lugar de


almacenamiento se lo debe seleccionar, extraer y
manipular. Se han desarrollado muchas técnicas
diferentes para optimizar el procedimiento de efectuar
los backups. Estos procedimientos incluyen entre otros
optimizaciones para trabajar con archivos abiertos y
fuentes de datos en uso y también incluyen procesos de
compresión, cifrado, y procesos de desduplicación,
entendiéndose por esto último a una forma específica
de compresión donde los datos superfluos son
eliminados. Muchas organizaciones ang

Elección, acceso, y manipulación de datos[editar]Decidir


qué se va a incluir en la copia de seguridad es un
proceso más complejo de lo que parece[editar]

Si copiamos muchos datos redundantes agotamos la


capacidad de almacenamiento disponible rápidamente.
Si no realizamos una copia de seguridad de los
suficientes datos, podría perderse información crítica.

La clave está en guardar copias de seguridad sólo de


aquello que se ha modificado.

Archivos a copiarSólo copiar los ficheros que se hayan


modificado o movidoDepósito del sistema de
ficherosCopiar el sistema de ficheros que tienen los
ficheros copiados. Esto normalmente implica desmontar
el sistema de ficheros y hacer funcionar un programa
como un depósito. Esto es también conocido como
copia de seguridad particionada en bruto. Este tipo de
copia de seguridad tiene la posibilidad de hacer
funcionar una copia más rápida que la simple copia de
ficheros. El rasgo de algunos software de depósitos es
la habilidad para restaurar ficheros específicos de la
imagen del depósito.Control de CambiosAlgunos
sistemas de ficheros poseen un bit de archivo para cada
fichero este nos indica si recientemente ha sido
modificado. Algunos software de copia de seguridad
miran la fecha del fichero y la comparan con la última
copia de seguridad, para así determinar si el archivo se
ha modificado.Incremental a nivel de bloqueUn sistema
más sofisticado de copia de seguridad de ficheros es el
basado en solamente copiar los bloques físicos del
fichero que han sufrido algún cambio. Esto requiere un
alto nivel de integración entre el sistema de ficheros y el
software de la copia de seguridad.Incremental o
diferencial binariaEs tecnología de respaldo que se
desarrolla en la década de 2000. El método es similar a
la Incremental a nivel de bloque, pero basada en reflejar
las variaciones binarias que sufren los ficheros respecto
al anterior backup. Mientras la tecnología a nivel de
bloque trabaja con unidades de cambio relativamente
grandes (bloques de 8Ks, 4Ks, 1K) la tecnología a nivel
de byte trabaja con la unidad mínima capaz de ahorrar
espacio para reflejar un cambio. Otra diferencia
importante es que es independiente del sistema de
ficheros. Actualmente es la tecnología que consigue la
máxima compresión relativa de la información y ofrece
así una ventaja importante en las copias de seguridad a
través de la Internet.Versionado del sistema de
ficherosEl versionado del sistema de ficheros se
mantiene atento a los cambios del fichero y crea estos
cambios accesibles al usuario. Esta es una forma de
copia de seguridad que está integrada al ambiente
informático.Copia de seguridad de datos en uso[editar]

Si un ordenador está en uso mientras se ejecuta su


copia de seguridad, existe la posibilidad de que haya
ficheros abiertos, ya que puede que se esté trabajando
sobre ellos. Si un fichero está abierto, el contenido en el
disco posiblemente no refleje exactamente lo que el
usuario ve. Esto es especialmente frecuente en ficheros
de bases de datos.

Cuando se intenta entender la logística de la copia de


seguridad de ficheros abiertos, uno debe considerar que
el proceso de copia de seguridad puede llevar varios
minutos en copiar un gran fichero como una bases de
datos. A fin de copiar un fichero en uso, es vital que la
copia de seguridad entera represente un único paso.
Esto representa un reto cuando se está copiando un
fichero en continua modificación. Aunque el archivo de
base de datos esté bloqueado para evitar cambios, se
debe implementar un método para asegurar que el
original snapshot sea preservado con tiempo de sobra
para ser copiado, incluso cuando se mantengan los
cambios.

Copia instantánea de volumen o snapshot: copia en


escrituraLa copia instantánea de volumen es una
función de algunos sistemas que realizan copias de los
ficheros como si estuvieran congelados en un momento
determinado.Copia de seguridad de ficheros abiertos:
ficheros bloqueadosAlgunos paquetes de software de
copias de seguridad no poseen la capacidad de realizar
copias de ficheros abiertos. Simplemente comprueban
que el fichero esté cerrado y si no lo está lo intentan
más tarde.Copias de seguridad de bases de datos en
calienteAlgunos sistemas de gestión de bases de datos
ofrecen medios para realizar imágenes de copias de
seguridad de una base de datos mientras esté activa y
en uso (en caliente). Esto normalmente incluye una
imagen consistente de los ficheros de datos en un cierto
momento más un registro de los cambios hechos
mientras el algoritmo está funcionando.Manipulación de
los datos de la copia de seguridad[editar]

Es una práctica habitual el manipular los datos


guardados en las copias de seguridad para optimizar
tanto los procesos de copia como el almacenamiento.

CompresiónLa compresión es el mejor método para


disminuir el espacio de almacenamiento necesario y de
ese modo reducir el costo.RedundanciaCuando varios
sistemas guardan sus copias de seguridad en el mismo
sistema de almacenamiento, existe la posibilidad de
redundancia en los datos copiados. Si tenemos
estaciones con el mismo sistema operativo
compartiendo el mismo almacén de datos, existe la
posibilidad de que la mayoría de los archivos del
sistema sean comunes. El almacén de datos realmente
sólo necesita almacenar una copia de esos ficheros
para luego ser utilizada por cualquiera de las estaciones.
Esta técnica puede ser aplicada al nivel de ficheros o
incluso al nivel de bloques de datos, reduciendo el
espacio utilizado para almacenar.DeduplicaciónEs una
técnica especializada de compresión de datos para
eliminar copias duplicadas de datos repetidos. Un
término relacionado con la deduplicación de datos es la
compresión inteligente de datos. Esta técnica se usa
para optimizar el almacenamiento de datos en disco y
también para reducir la cantidad de información que
debe enviarse de un dispositivo a otro a través de redes
de comunicación.CifradoLa alta capacidad de los
soportes de almacenamiento desmontables implica un
riesgo de perderse o ser robados. Si se cifra la
información de estos soportes se puede mitigar el
problema, aunque esto presenta nuevos inconvenientes.
Primero, cifrar es un proceso que consume mucho
tiempo de CPU y puede bajar la velocidad de copiado. En
segundo lugar, una vez cifrados los datos, la compresión
es menos eficaz.Administración del proceso de copia de
seguridad[editar]Limitaciones[editar]

Un esquema de copia de seguridad efectiva debe tener


en consideración las limitaciones de la situación. Todo
esquema de copia de seguridad tiene cierto impacto en
el sistema que ha sido copiado. Si este impacto es
significativo, la copia de seguridad debe ser acotada en
el tiempo.

Todos los soportes de almacenamiento tienen una


capacidad finita y un coste real. Buscar la cantidad
correcta de capacidad acorde con las necesidades de la
copia de seguridad es una parte importante del diseño
del esquema de la copia.

Implementación[editar]

Alcanzar los objetivos definidos en vista de las


limitaciones existentes puede ser una tarea difícil. Las
herramientas y conceptos descritos a continuación
pueden hacer que esta tarea sea más alcanzable.

HorariosProgramar un horario de ejecución de las


copias de seguridad aumenta considerablemente su
efectividad y nivel de optimización. Muchos paquetes de
software de copias de seguridad ofrecen esta
posibilidad.AutentificaciónSobre el curso de
operaciones regulares, las cuentas de usuario y/o los
agentes del sistema que representan la copia de
seguridad necesitan ser autentificados a cierto nivel. El
poder de copiar todos los datos fuera o dentro del
sistema requiere acceso sin restricción. Utilizar un
mecanismo de autentificación es una buena manera de
evitar que el esquema de la copia de seguridad sea
usado por actividades sin autorizar.Cadena de
confianzaLos soportes de almacenamiento portátiles
son elementos físicos y deben ser gestionados sólo por
personas de confianza. Establecer una cadena de
confianza individual es crítico para defender la
seguridad de los datos.Validación de copias de
seguridadEl proceso por el cual los dueños de los datos
pueden obtener información considerando como fueron
copiados esos datos. El mismo proceso es también
usado para probar conformidad para los cuerpos
reguladores fuera de la organización. Terrorismo,
complejidad de datos, valores de datos y aumento de la
dependencia sobre volúmenes de datos crecientes,
todos contribuyen a una ansiedad alrededor y
dependencia sobre copias de seguridad satisfactorias.
Por ello varias organizaciones normalmente relegan
sobre terceras personas o soluciones independientes la
averiguación, validación, optimización y el hacerse cargo
de sus operaciones de copia de seguridad. Algunos
programas de copias de seguridad modernas han
incorporado capacidades de validación.ReportandoEn
configuraciones más largas, los reportes son útiles para
monitorizar los medios usados, el estado de
dispositivos, errores, coordinación de saltos y cualquier
otra información sobre el proceso de copia de
seguridad.RegistrandoEn suma a la historia de los
reportes generados por el ordenador, actividades y
registros de cambio son útiles para así entender mejor la
copia de seguridad.VerificaciónMuchos programas de
copia de seguridad hacen uso de Sumas de verificación
o hashes. Esto ofrece muchas ventajas. Primero, estos
permiten a la integridad de los datos ser verificados sin
hacer referencia al archivo original: si el archivo
guardado en un medio de copia tiene la misma suma de
verificación que el valor salvado, después es muy
probable que sea correcto. Segundo, algunos programas
de copias de seguridad pueden usar sumas de
verificación para evitar hacer redundantes copias de
archivos, y así mejorar la velocidad de la copia de
seguridad. Esto es particularmente útil en procesos de
reduplicado.Software de copias de seguridad[editar]

Existe una gran gama de software en el mercado para


realizar copias de seguridad. Es importante definir
previamente los requerimientos específicos para
determinar el softwareadecuado. Existe una infinidad de
programas adaptados a cada necesidad.

Para la adecuación a la LOPD de ficheros con datos de


carácter personal de nivel alto (salud, vida sexual,
religión, etc.) la regulación exige que las copias de
seguridad de dichos datos se almacenen cifrados y en
una ubicación diferente al lugar de origen.

La copia de seguridad es el mejor método de protección


de datos de importancia, pero siempre existe la
posibilidad de que la copia de datos no haya funcionado
correctamente y en caso de necesidad de restauración
de los datos no podamos realizarlo ya que la
información de la copia de seguridad puede encontrarse
corrupta por diversos motivos:

el medio en el que se realizaba la copia se encuentra


dañado.
los automatismos de copia no se han ejecutado
correctamente.
y otros muchos motivos que pueden causar que
nuestras copias de seguridad sean incorrectas, y por
lo tanto inútiles.

Para evitar este problema es muy importante que nos


cercioremos de que hacemos las copias correctamente
y comprobemos que somos capaces de restaurar la
copia de seguridad a su ubicación original,
comprobando así que la copia sea correcta y que somos
capaces de restaurarla y conocemos el método de
restauración, ya que en caso de necesidad crítica los
nervios afloran y nos pueden echar por tierra nuestra
labor de copia al realizar algún paso erróneo a la hora de
restaurar los datos.

En el hipotético caso de que no podamos restaurar


nuestra información, existe una última alternativa, ya
que en el mercado existen aplicaciones de recuperación
de datos que nos pueden ayudar en caso de que no
podamos restaurar nuestra copia de seguridad. También
existen métodos de recuperación de datos vía web.

Por último, y en casos extremos como unidades


dañadas, sólo nos quedaría recurrir a un laboratorio
especializado en la recuperación de datos

Una red de área amplia, o WAN (Wide Area Network en


inglés), es una red de computadoras que une varias
redes locales, aunque sus miembros no estén todos en
una misma ubicación física. Muchas WAN son
construidas por organizaciones o empresas para su uso
privado, otras son instaladas por los proveedores de
internet (ISP) para proveer conexión a sus clientes.

Hoy en día, internet brinda conexiones de alta velocidad,


de manera que un alto porcentaje de las redes WAN se
basan en ese medio, reduciendo la necesidad de redes
privadas WAN, mientras que las redes privadas virtuales
que utilizan cifrado y otras técnicas para generar una red
dedicada sobre comunicaciones en internet, aumentan
continuamente.

Definición[editar]

Una definición de las redes WAN, en el término de


aplicación de protocolos y conceptos de redes de
ordenadores, sería: tecnologías de redes de ordenadores
que se utilizan para transmitir datos a través de largas
distancias, y entre las diferentes redes LAN, MAN y otras
arquitecturas de redes de ordenadores localizadas. Esta
distinción se debe al hecho de que las tecnologías LAN
comunes que operan en la capa media (como Ethernet o
Wifi) a menudo están orientados a redes localizadas
físicamente, y por lo tanto no pueden transmitir datos a
través de decenas, cientos o incluso miles de millas o
kilómetros.

Las WAN no necesariamente tienen que estar


conectadas a las LAN. Puede, por ejemplo, tener un
esqueleto localizado de una tecnología WAN, que
conecta diferentes LANs dentro de un campus. Esta
podría ser la de facilitar las aplicaciones de ancho de
banda más altas, o proporcionar una mejor
funcionalidad para los usuarios.

Las WAN se utilizan para conectar redes LAN y otros


tipos de redes. Así los usuarios se pueden comunicar
con los usuarios y equipos de otros lugares. Muchas
WAN son construidas por una organización en particular
y son privadas. Otros, construidas por los proveedores
de servicios de Internet, que proporcionan conexiones
LAN a una organización de Internet. WAN a menudo se
construyen utilizando líneas arrendadas. En cada
extremo de la línea arrendada, un enrutador conecta la
LAN en un lado con un segundo enrutador dentro de la
LAN en el otro. Las líneas arrendadas pueden ser muy
costosas. En lugar de utilizar líneas arrendadas, WAN
también se puede construir utilizando métodos menos
costosos de conmutación de circuitos o conmutación de
paquetes. La red de protocolos incluyendo TCP/IP tiene
la función de entrega de transporte y funciones de
direccionamiento. Los protocolos, incluyendo paquetes
como SONET/SDH, MPLS, ATM y Frame Relay son
utilizados a menudo por los proveedores de servicios
que ofrecen los vínculos que se usan en redes WAN.
X.25 fue pronto un protocolo WAN importante, y es a
menudo considerado como el "abuelo" de Frame Relay
ya que muchos de los protocolos subyacentes y
funciones de X.25 todavía están en uso hoy en día (con
actualizaciones) por Frame Relay.

La investigación académica en redes de área amplia


puede ser dividido en tres áreas: modelos matemáticos,
emulación de red y de simulación de red.

Mejoras en el rendimiento a veces se entregan a través


de los servicios de archivos de área extensa o por
servicios de optimización de la WAN.
Opciones de tecnología de conexión[editar]

Hay varias opciones disponibles para la conectividad


WAN:

[[PASTING TABLES IS NOT SUPPORTED]]

Las tasas de transmisión han aumentado con el tiempo,


y seguirán aumentando. Alrededor de 1960 a 110 bits/s
(bits por segundo) de la línea fue normal en el borde de
la WAN, mientras que los enlaces centrales de 56 kbit/s
a 64 kbit/s se consideraron "rápida". En este momento
(2016) los hogares están conectados a Internet con
ADSL o Fibra óptica a velocidades que van desde
1 Mbit/s hasta 300 Mbit/s, y las conexiones en el núcleo
de una WAN puede variar de 1 Gbit/s de 300 Gbit/s.

Recientemente, con la proliferación del bajo coste de


conexión a Internet muchas empresas y organizaciones
han recurrido a las VPN para interconectar sus redes,
creando una red WAN de esa manera. Empresas como
Citrix, Cisco, New Edge Networks y Check Point ofrecen
soluciones para crear redes VPN.

Características[editar]

Posee máquinas dedicadas a la ejecución de


programas de usuario (hosts).
Una sub-red, donde conectan varios hosts.
División entre líneas de transmisión y elementos de
conmutación (enrutadores).
Es un sistema de interconexión de equipos
informáticos geográficamente dispersos, que
pueden estar incluso en continentes distintos. El
sistema de conexión para estas redes normalmente
involucra a redes públicas de transmisión de datos.

Ventajas de la red WAN[editar]

Permite usar un software especial para que entre sus


elementos de red coexistan mini y
macrocomputadoras
No se limita a espacios geográficos determinados
Ofrece una amplia gama de medios de transmisión,
como los enlaces satelitales

Desventajas de la red WAN[editar]

Se deben emplear equipos con una gran capacidad


de memoria, ya que este factor repercute
directamente en la velocidad de acceso a la
información.
No destaca por la seguridad que ofrece a sus
usuarios. Los virus y la eliminación de programas
son dos de los males más comunes que sufre la red
WAN.

Tipos de redes WAN[editar]

Existen varios tipos de red WAN, y tres de ellos se


agrupan bajo la clasificación de red conmutada (en
física, la conmutación consiste en el cambio del destino
de una señal o de una corriente eléctrica):

Por circuitos

Son redes de marcación de (dial-up), como la red de


telefonía básica (RTB) y RDSI. Durante el tiempo que
dura la llamada, el ancho de banda es dedicado.

Por mensaje
Sus conmutadores suelen ser ordenadores que cumplen
la tarea de aceptar el tráfico de cada terminal que se
encuentre conectado a ellas. Dichos equipos evalúan la
dirección que se encuentra en la cabecera de los
mensajes y pueden almacenarla para utilizarla más
adelante. Cabe mencionar que también es posible
borrar, redirigir y responder los mensajes en forma
automática.

Por paquetes

Se fracciona cada mensaje enviado por los usuarios y se


transforman en un número de pequeñas partes
denominadas paquetes,que se vuelven a unir una vez
llegan al equipo de destino, para reconstruir los datos
iniciales. Dichos paquetes se mueven por la red
independientemente, y esto repercute positivamente en
el tráfico, además de facilitar la corrección de errores, ya
que en caso de fallos sólo se deberán reenviar las partes
afectadas. El ancho de banda es compartido entre todos
los usuarios que usan la red.

Una red de área amplia, o WAN (Wide Area Network en


inglés), es una red de computadoras que une varias
redes locales, aunque sus miembros no estén todos en
una misma ubicación física. Muchas WAN son
construidas por organizaciones o empresas para su uso
privado, otras son instaladas por los proveedores de
internet (ISP) para proveer conexión a sus clientes.

Hoy en día, internet brinda conexiones de alta velocidad,


de manera que un alto porcentaje de las redes WAN se
basan en ese medio, reduciendo la necesidad de redes
privadas WAN, mientras que las redes privadas virtuales
que utilizan cifrado y otras técnicas para generar una red
dedicada sobre comunicaciones en internet, aumentan
continuamente.

Definición[editar]

Una definición de las redes WAN, en el término de


aplicación de protocolos y conceptos de redes de
ordenadores, sería: tecnologías de redes de ordenadores
que se utilizan para transmitir datos a través de largas
distancias, y entre las diferentes redes LAN, MAN y otras
arquitecturas de redes de ordenadores localizadas. Esta
distinción se debe al hecho de que las tecnologías LAN
comunes que operan en la capa media (como Ethernet o
Wifi) a menudo están orientados a redes localizadas
físicamente, y por lo tanto no pueden transmitir datos a
través de decenas, cientos o incluso miles de millas o
kilómetros.

Las WAN no necesariamente tienen que estar


conectadas a las LAN. Puede, por ejemplo, tener un
esqueleto localizado de una tecnología WAN, que
conecta diferentes LANs dentro de un campus. Esta
podría ser la de facilitar las aplicaciones de ancho de
banda más altas, o proporcionar una mejor
funcionalidad para los usuarios.

Las WAN se utilizan para conectar redes LAN y otros


tipos de redes. Así los usuarios se pueden comunicar
con los usuarios y equipos de otros lugares. Muchas
WAN son construidas por una organización en particular
y son privadas. Otros, construidas por los proveedores
de servicios de Internet, que proporcionan conexiones
LAN a una organización de Internet. WAN a menudo se
construyen utilizando líneas arrendadas. En cada
extremo de la línea arrendada, un enrutador conecta la
LAN en un lado con un segundo enrutador dentro de la
LAN en el otro. Las líneas arrendadas pueden ser muy
costosas. En lugar de utilizar líneas arrendadas, WAN
también se puede construir utilizando métodos menos
costosos de conmutación de circuitos o conmutación de
paquetes. La red de protocolos incluyendo TCP/IP tiene
la función de entrega de transporte y funciones de
direccionamiento. Los protocolos, incluyendo paquetes
como SONET/SDH, MPLS, ATM y Frame Relay son
utilizados a menudo por los proveedores de servicios
que ofrecen los vínculos que se usan en redes WAN.
X.25 fue pronto un protocolo WAN importante, y es a
menudo considerado como el "abuelo" de Frame Relay
ya que muchos de los protocolos subyacentes y
funciones de X.25 todavía están en uso hoy en día (con
actualizaciones) por Frame Relay.

La investigación académica en redes de área amplia


puede ser dividido en tres áreas: modelos matemáticos,
emulación de red y de simulación de red.

Mejoras en el rendimiento a veces se entregan a través


de los servicios de archivos de área extensa o por
servicios de optimización de la WAN.

Opciones de tecnología de conexión[editar]

Hay varias opciones disponibles para la conectividad


WAN:

[[PASTING TABLES IS NOT SUPPORTED]]

Las tasas de transmisión han aumentado con el tiempo,


y seguirán aumentando. Alrededor de 1960 a 110 bits/s
(bits por segundo) de la línea fue normal en el borde de
la WAN, mientras que los enlaces centrales de 56 kbit/s
a 64 kbit/s se consideraron "rápida". En este momento
(2016) los hogares están conectados a Internet con
ADSL o Fibra óptica a velocidades que van desde
1 Mbit/s hasta 300 Mbit/s, y las conexiones en el núcleo
de una WAN puede variar de 1 Gbit/s de 300 Gbit/s.

Recientemente, con la proliferación del bajo coste de


conexión a Internet muchas empresas y organizaciones
han recurrido a las VPN para interconectar sus redes,
creando una red WAN de esa manera. Empresas como
Citrix, Cisco, New Edge Networks y Check Point ofrecen
soluciones para crear redes VPN.

Características[editar]

Posee máquinas dedicadas a la ejecución de


programas de usuario (hosts).
Una sub-red, donde conectan varios hosts.
División entre líneas de transmisión y elementos de
conmutación (enrutadores).
Es un sistema de interconexión de equipos
informáticos geográficamente dispersos, que
pueden estar incluso en continentes distintos. El
sistema de conexión para estas redes normalmente
involucra a redes públicas de transmisión de datos.

Ventajas de la red WAN[editar]

Permite usar un software especial para que entre sus


elementos de red coexistan mini y
macrocomputadoras
No se limita a espacios geográficos determinados
Ofrece una amplia gama de medios de transmisión,
como los enlaces satelitales
Desventajas de la red WAN[editar]

Se deben emplear equipos con una gran capacidad


de memoria, ya que este factor repercute
directamente en la velocidad de acceso a la
información.
No destaca por la seguridad que ofrece a sus
usuarios. Los virus y la eliminación de programas
son dos de los males más comunes que sufre la red
WAN.

Tipos de redes WAN[editar]

Existen varios tipos de red WAN, y tres de ellos se


agrupan bajo la clasificación de red conmutada (en
física, la conmutación consiste en el cambio del destino
de una señal o de una corriente eléctrica):

Por circuitos

Son redes de marcación de (dial-up), como la red de


telefonía básica (RTB) y RDSI. Durante el tiempo que
dura la llamada, el ancho de banda es dedicado.

Por mensaje

Sus conmutadores suelen ser ordenadores que cumplen


la tarea de aceptar el tráfico de cada terminal que se
encuentre conectado a ellas. Dichos equipos evalúan la
dirección que se encuentra en la cabecera de los
mensajes y pueden almacenarla para utilizarla más
adelante. Cabe mencionar que también es posible
borrar, redirigir y responder los mensajes en forma
automática.

Por paquetes
Se fracciona cada mensaje enviado por los usuarios y se
transforman en un número de pequeñas partes
denominadas paquetes,que se vuelven a unir una vez
llegan al equipo de destino, para reconstruir los datos
iniciales. Dichos paquetes se mueven por la red
independientemente, y esto repercute positivamente en
el tráfico, además de facilitar la corrección de errores, ya
que en caso de fallos sólo se deberán reenviar las partes
afectadas. El ancho de banda es compartido entre todos
los usuarios que usan la red.

Una red privada virtual (RPV), en inglés: Virtual Private


Network (VPN), es una tecnología de red de
computadoras que permite una extensión segura de la
red de área local(LAN) sobre una red pública o no
controlada como Internet. Permite que la computadora
en la red envíe y reciba datos sobre redes compartidas o
públicas como si fuera una red privada con toda la
funcionalidad, seguridad y políticas de gestión de una
red privada.1 Esto se realiza estableciendo una conexión
virtual punto a punto mediante el uso de conexiones
dedicadas, cifrado o la combinación de ambos métodos.

Ejemplos comunes son la posibilidad de conectar dos o


más sucursales de una empresa utilizando como vínculo
Internet, permitir a los miembros del equipo de soporte
técnico la conexión desde su casa al centro de cómputo,
o que un usuario pueda acceder a su equipo doméstico
desde un sitio remoto, como por ejemplo un hotel. Todo
ello utilizando la infraestructura de Internet.

La conexión VPN a través de Internet es técnicamente


una unión wide area network (WAN) entre los sitios pero
al usuario le parece como si fuera un enlace privado— de
allí la designación "virtual private network".2

Características básicas de la seguridad[editar]

Para hacerlo posible de manera segura es necesario


proporcionar los medios para garantizar la
autentificación.

Autentificación y autorización: ¿quién está del otro


lado? Usuario/equipo y qué nivel de acceso debe
tener.
Integridad: de que los datos enviados no han sido
alterados. Para ello se utilizan funciones de Hash.
Los algoritmos de hash más comunes son los
Message Digest (MD2 y MD5) y el Secure Hash
Algorithm (SHA).
Confidencialidad/Privacidad: dado que solamente
puede ser interpretada por los destinatarios de la
misma. Se hace uso de algoritmos de cifrado como
Data Encryption Standard (DES), Triple DES (3DES) y
Advanced Encryption Standard (AES).
No repudio: es decir, un mensaje tiene que ir firmado,
y quien lo firma no puede negar que envió el
mensaje.
Control de acceso: se trata de asegurar que los
participantes autentificados tienen acceso
únicamente a los datos a los que están autorizados.
Auditoría y registro de actividades: se trata de
asegurar el correcto funcionamiento y la capacidad
de recuperación.
Calidad del servicio: se trata de asegurar un buen
rendimiento, que no haya una degradación poco
aceptable en la velocidad de transmisión.
Requisitos básicos[editar]

Identificación de usuario: las VPN deben verificar la


identidad de los usuarios y evitar el acceso de
aquellos que no se encuentren autorizados.
Cifrado de datos: los datos que se van a transmitir a
través de la red pública (Internet), deben cifrarse,
para que no puedan ser leídos si son interceptados.
Esta tarea se realiza con algoritmos de cifrado
simétrico como DES, 3DES o AES (Advanced
Encryption Standard, en sus opciones AES128,
AES192 o AES256) que únicamente pueden ser
leídos por el emisor y receptor.
Administración de claves: las VPN deben actualizar
las claves de cifrado para los usuarios.
Nuevo algoritmo de seguridad SEAL.

Tipos de VPN[editar]

Básicamente existen cuatro arquitecturas de conexión


VPN:

VPN de acceso remoto[editar]

Es quizás el modelo más usado actualmente, y consiste


en usuarios que se conectan con la empresa desde
sitios remotos (oficinas comerciales, domicilios, hoteles,
avionespreparados, etcétera) utilizando Internet como
vínculo de acceso. Una vez autentificados tienen un
nivel de acceso muy similar al que tienen en la red local
de la empresa. Muchas empresas han reemplazado con
esta tecnología su infraestructura dial-up (módems y
líneas telefónicas).

VPN punto a punto[editar]


Este esquema se utiliza para conectar oficinas remotas
con la sede central de la organización. El servidor VPN,
que posee un vínculo permanente a Internet, acepta las
conexiones vía Internet provenientes de los sitios y
establece el túnel VPN. Los servidores de las sucursales
se conectan a Internet utilizando los servicios de su
proveedor local de Internet, típicamente mediante
conexiones de banda ancha. Esto permite eliminar los
costosos vínculos punto a punto tradicionales
(realizados comúnmente mediante conexiones de cable
físicas entre los nodos), sobre todo en las
comunicaciones internacionales. Es más común el
siguiente punto, también llamado tecnología de túnel o
tunneling.

Tunneling[editar]

La técnica de tunneling consiste en encapsular un


protocolo de red sobre otro (protocolo de red
encapsulador) creando un túnel dentro de una red de
computadoras. El establecimiento de dicho túnel se
implementa incluyendo una PDU (unidades de datos de
protocolo) determinada dentro de otra PDU con el
objetivo de transmitirla desde un extremo al otro del
túnel sin que sea necesaria una interpretación
intermedia de la PDU encapsulada. De esta manera se
encaminan los paquetes de datos sobre nodos
intermedios que son incapaces de ver en claro el
contenido de dichos paquetes. El túnel queda definido
por los puntos extremos y el protocolo de comunicación
empleado, que entre otros, podría ser SSH.

El uso de esta técnica persigue diferentes objetivos,


dependiendo del problema que se esté tratando, como
por ejemplo la comunicación de islas en escenarios
multicast, la redirección de tráfico, etc.

Uno de los ejemplos más claros de utilización de esta


técnica consiste en la redirección de tráfico en
escenarios IP Móvil. En escenarios de IP móvil, cuando
un nodo-móvil no se encuentra en su red base, necesita
que su home-agent realice ciertas funciones en su
puesto, entre las que se encuentra la de capturar el
tráfico dirigido al nodo-móvil y redirigirlo hacia él. Esa
redirección del tráfico se realiza usando un mecanismo
de tunneling, ya que es necesario que los paquetes
conserven su estructura y contenido originales
(dirección IP de origen y destino, puertos, etc.) cuando
sean recibidos por el nodo-móvil. Se maneja de manera
remota.

VPN over LAN[editar]

Este esquema es el menos difundido pero uno de los


más poderosos para utilizar dentro de la empresa. Es
una variante del tipo "acceso remoto" pero, en vez de
utilizar Internet como medio de conexión, emplea la
misma red de área local (LAN) de la empresa. Sirve para
aislar zonas y servicios de la red interna. Esta capacidad
lo hace muy conveniente para mejorar las prestaciones
de seguridad de las redes inalámbricas (WiFi).

Un ejemplo clásico es un servidor con información


sensible, como las nóminas de sueldos, ubicado detrás
de un equipo VPN, el cual provee autenticación adicional
más el agregado del cifrado, haciendo posible que
solamente el personal de recursos humanos habilitado
pueda acceder a la información.

Otro ejemplo es la conexión a redes Wi-Fi haciendo uso


de túneles cifrados IPSec o SSL que además de pasar
por los métodos de autenticación tradicionales (WEP,
WPA, direcciones MAC, etc.) agregan las credenciales de
seguridad del túnel VPN creado en la LAN interna o
externa.

Implementaciones[editar]

El protocolo estándar de facto es el IPSEC, pero también


están PPTP, L2F, L2TP, SSL/TLS, SSH, etc. Cada uno con
sus ventajas y desventajas en cuanto a seguridad,
facilidad, mantenimiento y tipos de clientes soportados.

Actualmente hay una línea de productos en crecimiento


relacionada con el protocolo SSL/TLS, que intenta hacer
más amigable la configuración y operación de estas
soluciones.

Las soluciones de hardware casi siempre ofrecen


mayor rendimiento y facilidad de configuración,
aunque no tienen la flexibilidad de las versiones por
software. Dentro de esta familia tenemos a los
productos de Fortinet, SonicWALL, SaiWALL,
WatchGuard, Nortel, Cisco, Linksys, Netscreen
(Juniper Networks), Symantec, Nokia, U.S. Robotics,
D-link, Mikrotik, etc.

Las aplicaciones VPN por software son las más


configurables y son ideales cuando surgen
problemas de interoperatividad en los modelos
anteriores. Obviamente el rendimiento es menor y la
configuración más delicada, porque se suma el
sistema operativo y la seguridad del equipo en
general. Aquí tenemos por ejemplo a las soluciones
nativas de Windows, GNU/Linux y los Unix en
general. Por ejemplo productos de código abierto
como OpenSSH, OpenVPN y FreeS/Wan.

En ambos casos se pueden utilizar soluciones de


firewall («cortafuegos» o «barrera de fuego»),
obteniendo un nivel de seguridad alto por la protección
que brinda, en detrimento del rendimiento.

Ventajas[editar]

Integridad, confidencialidad y seguridad de datos.


Las VPN reducen los costes y son sencillas de usar.
Facilita la comunicación entre dos usuarios en
lugares distantes.

Tipos de conexión[editar]Conexión de acceso


remoto[editar]

Una conexión de acceso remoto es realizada por un


cliente o un usuario de una computadora que se conecta
a una red privada, los paquetes enviados a través de la
conexión VPN son originados al cliente de acceso
remoto, y éste se autentifica al servidor de acceso
remoto, y el servidor se autentifica ante el cliente.

Conexión VPN router a router[editar]

Una conexión VPN router a router es realizada por un


router, y este a su vez se conecta a una red privada. En
este tipo de conexión, los paquetes enviados desde
cualquier routerno se originan en los routers. El router
que realiza la llamada se autentifica ante el router que
responde y este a su vez se autentifica ante el router que
realiza la llamada y también sirve para la intranet.

Conexión VPN firewall a firewall[editar]


Una conexión VPN firewall es realizada por uno de ellos,
y éste a su vez se conecta a una red privada. En este
tipo de conexión, los paquetes son enviados desde
cualquier usuario en Internet. El firewall que realiza la
llamada se autentifica ante el que responde y éste a su
vez se autentifica ante el llamante.

VPN en entornos móviles[editar]

La VPN móvil se establece cuando el punto de


terminación de la VPN no está fijo a una única dirección
IP, sino que se mueve entre varias redes como pueden
ser las redes de datos de operadores móviles o distintos
puntos de acceso de una red Wifi.3 Las VPNs móviles se
han utilizado en seguridad pública dando acceso a las
fuerzas de orden público a aplicaciones críticas tales
como bases de datos con datos de identificación de
criminales, mientras que la conexión se mueve entre
distintas subredes de una red móvil.4 También se
utilizan en la gestión de equipos de técnico y en
organizaciones sanitarias5 entre otras industrias. Cada
vez más, las VPNs móviles están siendo adaptadas por
profesionales que necesitan conexiones fiables.6 Se
utilizan para moverse entre redes sin perder la sesión de
aplicación o perder la sesión segura en la VPN. En una
VPN tradicional no se pueden soportar tales situaciones
porque se produce la desconexión de la aplicación, time
outs3 o fallos, o incluso causar fallos en el dispositivo

Ethernet (pronunciado /ˈiːθərnɛt/ en inglés) es un


estándar de redes de área local para computadores,por
sus siglas en español Acceso Múltiple con Escucha de
Portadora y Detención de Colisiones (CSMA/CD). Su
nombre viene del concepto físico de ether. Ethernet
define las características de cableado y señalización de
nivel físico y los formatos de tramas de datos del nivel
de enlace de datos del modelo OSI.

Ethernet se tomó como base para la redacción del


estándar internacional IEEE 802.3, siendo usualmente
tomados como sinónimos. Se diferencian en uno de los
campos de la trama de datos. Sin embargo, las tramas
Ethernet e IEEE 802.3 pueden coexistir en la misma red.

Historia[editar]

En 1970, mientras Norman Abramson montaba la gran


red ALOHA en Hawái, un estudiante recién graduado en
el MIT llamado Robert Metcalfe se encontraba
realizando sus estudios de doctorado en la Universidad
de Harvard trabajando para ARPANET, que era el tema
de investigación candente en aquellos días. En un viaje a
Washington, Metcalfe estuvo en casa de Steve Crocker
(el inventor de los RFC de Internet) donde este lo dejó
dormir en el sofá. Para poder conciliar el sueño Metcalfe
empezó a leer una revista científica donde encontró un
artículo de Norm Abramson acerca de la red Aloha.
Metcalfe pensó cómo se podía mejorar el protocolo
utilizado por Abramson, y escribió un artículo
describiendo un protocolo que mejoraba
sustancialmente el rendimiento de Aloha. Ese artículo se
convertiría en su tesis doctoral, que presentó en 1973.
La idea básica era muy simple: las estaciones antes de
transmitir deberían detectar si el canal ya estaba en uso
(es decir si ya había 'portadora'), en cuyo caso
esperarían a que la estación activa terminara. Además,
cada estación mientras transmitiera estaría
continuamente vigilando el medio físico por si se
producía alguna colisión, en cuyo caso se pararía y
retransmitiría más tarde. Este protocolo MAC recibiría
más tarde la denominación Acceso Múltiple con
Detección de Portadora y Detección de Colisiones, o
más brevemente CSMA/CD (Carrier Sense Multiple
Access / Collision Detection).

En 1972 Metcalfe se mudó a California para trabajar en


el Centro de Investigación de Xerox en Palo Alto llamado
Xerox PARC (Palo Alto Research Center). Allí se estaba
diseñando lo que se consideraba la 'oficina del futuro' y
Metcalfe encontró un ambiente perfecto para desarrollar
sus inquietudes. Se estaban probando unas
computadoras denominadas Alto, que ya disponían de
capacidades gráficas y ratón y fueron consideradas los
primeros ordenadores personales. También se estaban
fabricando las primeras impresoras láser. Se quería
conectar las computadoras entre sí para compartir
ficheros y las impresoras. La comunicación tenía que
ser de muy alta velocidad, del orden de megabits por
segundo, ya que la cantidad de información a enviar a
las impresoras era enorme (tenían una resolución y
velocidad comparables a una impresora láser actual).
Estas ideas que hoy parecen obvias eran
completamente revolucionarias en 1973.

A Metcalfe, el especialista en comunicaciones del


equipo con 27 años de edad, se le encomendó la tarea
de diseñar y construir la red que uniera todo aquello.
Contaba para ello con la ayuda de un estudiante de
doctorado de Stanford llamado David Boggs. Las
primeras experiencias de la red, que denominaron 'Alto
Aloha Network', las llevaron a cabo en 1972. Fueron
mejorando gradualmente el prototipo hasta que el 22 de
mayo de 1973 Metcalfe escribió un memorándum
interno en el que informaba de la nueva red. Para evitar
que se pudiera pensar que solamente servía para
conectar computadoras Alto cambió el nombre de la red
por el de Ethernet, que hacía referencia a la teoría de la
física hoy ya abandonada según la cual las ondas
electromagnéticas viajaban por un fluido denominado
éter que se suponía llenaba todo el espacio (para
Metcalfe el 'éter' era el cable coaxialpor el que iba la
señal). Las dos computadoras Alto utilizadas para las
primeras pruebas de Ethernet fueron rebautizadas con
los nombres Michelson y Morley, en alusión a los dos
físicos que demostraron en 1887 la inexistencia del éter
mediante el famoso experimento de Michelson y Morley.

La red de 1973 ya tenía todas las características


esenciales de la Ethernet actual. Empleaba CSMA/CD
para minimizar la probabilidad de colisión, y en caso de
que esta se produjera se ponía en marcha un
mecanismo denominado retroceso exponencial binario
para reducir gradualmente la ‘agresividad’ del emisor,
con lo que este se adaptaba a situaciones de muy
diverso nivel de tráfico. Tenía topología de bus y
funcionaba a 2,94 Mb/s sobre un segmento de cable
coaxial de 1,6 km de longitud. Las direcciones eran de 8
bits y el CRC de las tramas de 16 bits. El protocolo
utilizado al nivel de red era el PUP (Parc Universal
Packet) que luego evolucionaría hasta convertirse en el
que luego fue XNS (Xerox Network System), antecesor a
su vez de IPX (Netware de Novell).

En vez de utilizar el cable coaxial de 75 ohms de las


redes de televisión por cable se optó por emplear cable
de 50 ohms que producía menos reflexiones de la señal,
a las cuales Ethernet era muy sensible por transmitir la
señal en banda base (es decir sin modulación). Cada
empalme del cable y cada 'pincho' vampiro (transceiver)
instalado producía la reflexión de una parte de la señal
transmitida. En la práctica el número máximo de
'pinchos' vampiro, y por tanto el número máximo de
estaciones en un segmento de cable coaxial, venía
limitado por la máxima intensidad de señal reflejada
tolerable.

En 1975 Metcalfe y Boggs describieron Ethernet en un


artículo que enviaron a Communications of the ACM
(Association for Computing Machinery), publicado en
1976. En él ya describían el uso de repetidores para
aumentar el alcance de la red. En 1977 Metcalfe, Boggs
y otros dos ingenieros de Xerox recibieron una patente
por la tecnología básica de Ethernet, y en 1978 Metcalfe
y Boggs recibieron otra por el repetidor. En esta época
todo el sistema Ethernet era propiedad de Xerox.

Conviene destacar que David Boggs construyó en el año


1975 durante su estancia en Xerox PARC el primer router
y el primer servidor de nombres de Internet.

Versiones de 802.3[editar]

Ethernet se tomó como base para la redacción del


estándar internacional IEEE 802.3, siendo usualmente
tomados como sinónimos. Se diferencian en uno de los
campos de la trama de datos. Sin embargo, las tramas
originales Ethernet e IEEE 802.3 pueden coexistir en la
misma red.

Los estándares de este grupo no reflejan


necesariamente lo que se usa en la práctica, aunque a
diferencia de otros grupos este suele estar cerca de la
realidad.

La primera versión del IEEE 802.3 fue un intento de


estandarizar ethernet aunque hubo un campo de la
cabecera que se definió de forma diferente,
posteriormente ha habido ampliaciones sucesivas al
estándar que cubrieron las ampliaciones de velocidad
(Fast Ethernet, Gigabit Ethernet y el de 10 Gigabits),
redes virtuales, hubs, conmutadores y distintos tipos de
medios, tanto de fibra óptica como de cables de cobre
(tanto par trenzado como coaxial).

[[PASTING TABLES IS NOT SUPPORTED]]Formato de la


trama Ethernet[editar]

La trama es lo que se conoce también por el nombre de


"frame".

Estructura de la Payload en Ethernet y protocolos IP y


TCP.

El primer campo es el preámbulo que indica el inicio


de la trama y tienen el objeto de que el dispositivo
que lo recibe detecte una nueva trama y se
sincronice.
El delimitador de inicio de trama indica que el frame
empieza a partir de él.
Los campos de MAC (o dirección) de destino y
origen indican las direcciones físicas del dispositivo
al que van dirigidos los datos y del dispositivo origen
de los datos, respectivamente.
La etiqueta es un campo opcional que indica la
pertenencia a una VLAN o prioridad en IEEE P802.1p
Ethernetype indica con que protocolo están
encapsulados los datos que contiene la Payload, en
caso de que se usase un protocolo de capa superior.
La Payload es donde van todos los datos y, en el
caso correspondiente, cabeceras de otros protocolos
de capas superiores (Según Modelo OSI, véase
Protocolos en informática) que pudieran formatear a
los datos que se tramiten (IP, TCP, etc). Tiene un
mínimo de 64 Bytes (o 42 si es la versión 802.1Q)
hasta un máximo de 1518 Bytes. Los mensajes
inferiores a 64 bytes se llaman tramas enanas (runt
frames) e indican mensajes dañados y parcialmente
transmitidos.1
La secuencia de comprobación es un campo de 4
bytes que contiene un valor de verificación CRC
(control de redundancia cíclica). El emisor calcula el
CRC de toda la trama, desde el campo destino al
campo CRC suponiendo que vale 0. El receptor lo
recalcula, si el valor calculado es 0 la trama es válida.

El gap de final de trama son 12 bytes vacíos con el


objetivo de espaciado entre tramas.

[[PASTING TABLES IS NOT SUPPORTED]]Tecnología y


velocidad de Ethernet[editar]

Hace ya mucho tiempo que Ethernet consiguió situarse


como el principal protocolo del nivel de enlace. Ethernet
10Base2 consiguió, ya en la década de los 90s, una gran
aceptación en el sector. Hoy por hoy, 10Base2 se
considera como una "tecnología de legado" respecto a
100BaseT. Hoy los fabricantes ya han desarrollado
adaptadores capaces de trabajar tanto con la tecnología
10baseT como la 100BaseT y esto ayuda a una mejor
adaptación y transición.

Las tecnologías Ethernet que existen se diferencian en


estos conceptos entre ellos:
Velocidad de transmisiónVelocidad a la que transmite la
tecnología.Tipo de cableTecnología del nivel físico que
usa la tecnología.Longitud máximaDistancia máxima
que puede haber entre dos nodos adyacentes (sin
estaciones repetidoras).TopologíaDetermina la forma
física de la red. Bus si se usan conectores T (hoy
solamente usados con las tecnologías más antiguas) y
estrella si se usan hubs (estrella de difusión) o switchs
(estrella conmutada).

A continuación se especifican los anteriores conceptos


en las tecnologías más importantes:

[[PASTING TABLES IS NOT SUPPORTED]]Hardware


comúnmente usado en una red Ethernet[editar]

Los elementos de una red Ethernet son: tarjeta de red,


repetidores, concentradores, puentes, los conmutadores,
los nodos de red y el medio de interconexión. Los nodos
de red pueden clasificarse en dos grandes grupos:
equipo terminal de datos (DTE) y equipo de
comunicación de datos (DCE).

Los DTE son dispositivos de red que generan el destino


de los datos: los PC, las estaciones de trabajo, los
servidores de archivos, los servidores de impresión;
todos son parte del grupo de las estaciones finales. Los
DCE son los dispositivos de red intermediarios que
reciben y retransmiten las tramas dentro de la red;
pueden ser: conmutadores (switch), routers,
concentradores (hub), repetidores o interfaces de
comunicación. Por ejemplo: un módem o una tarjeta de
interfaz.

Tarjeta de Interfaz de Red o NIC, permite que una


computadora acceda a una red local. Cada tarjeta
tiene una única dirección MAC que la identifica en la
red. Una computadora conectada a una red se
denomina nodo.
Repetidor o repeater, aumenta el alcance de una
conexión física, recibiendo las señales y
retransmitiéndolas, para evitar su degradación, a
través del medio de transmisión, lográndose un
alcance mayor. Usualmente se usa para unir dos
áreas locales 'de igual' tecnología y solamente tiene
'dos' puertos. Opera en la capa física del modelo OSI.
Concentrador o hub, funciona como un repetidor
pero permite la interconexión de 'múltiples' nodos. Su
funcionamiento es relativamente simple pues recibe
una trama de ethernet, por uno de sus puertos, y la
repite por todos sus puertos restantes sin ejecutar
ningún proceso sobre las mismas. Opera en la capa
física del modelo OSI.
Puente de red o bridge, interconecta segmentos de
red haciendo el cambio de frames (tramas) entre las
redes de acuerdo con una tabla de direcciones que le
dice en qué segmento está ubicada una dirección
MAC dada. Se diseñan para uso entre las LAN que
usan protocolos idénticos en la capa física y MAC
(control de acceso al medio). Aunque existen bridges
más sofisticados que permiten la conversión de
formatos MAC diferentes (Ethernet-Token Ring por
ejemplo).

Conexiones en un switch Ethernet.

Conmutador o switch, funciona como el bridge, pero


permite la interconexión de múltiples segmentos de
red, funciona en velocidades más rápidas y es más
sofisticado. Los switches pueden tener otras
funcionalidades, como redes virtuales, y permiten su
configuración a través de la propia red. Funciona
básicamente en la capa 2 del modelo OSI (enlace de
datos). Por esto son capaces de procesar
información de las tramas; su funcionalidad más
importante es en las tablas de dirección. Por
ejemplo, una computadora conectada al puerto 1 del
conmutador envía una trama a otra computadora
conectada al puerto 2; el switch recibe la trama y la
transmite a todos sus puertos, excepto aquel por
donde la recibió; la computadora 2 recibirá el
mensaje y eventualmente lo responderá, generando
tráfico en el sentido contrario; ahora el switch
conocerá las direcciones MAC de las computadoras
en el puerto 1 y 2; cuando reciba otra trama con
dirección de destino de alguna de ellas, únicamente
transmitirá la trama a dicho puerto disminuyendo así
el tráfico de la red y contribuyendo al buen
funcionamiento de la misma.

Presente y futuro de Ethernet[editar]

Ethernet se planteó en un principio como un protocolo


destinado a cubrir las necesidades de las redes de área
local (LAN).

A partir de 2001, Ethernet alcanzó los 10 Gbit/s lo que


dio mucha más popularidad a la tecnología. Dentro del
sector se planteaba a ATM como la total encargada de
los niveles superiores de la red, pero el estándar 802.3ae
(Ethernet Gigabit 10) se ha situado en una buena
posición para extenderse al nivel WAN.
Logotipo de la marca Wi-Fi

El wifi (sustantivo común en español, incluido en el


Diccionario de la ASALE)1 es una tecnología que
permite la interconexión inalámbrica de dispositivos
electrónicos. Los dispositivos habilitados con wifi (tales
como computadoras personales, teléfonos, televisores,
videoconsolas, reproductores de música...) pueden
conectarse entre sí o a internet a través de un punto de
acceso de red inalámbrica.

Wi-Fi es una marca de la Alianza Wi-Fi, la organización


comercial que adopta, prueba y certifica que los equipos
cumplen con los estándares 802.11 relacionados con
redes inalámbricas de área local. Su primera
denominación fue “Wireless Ethernet Compatibility
Alliance”.2

Etimología[editar]

El término wifi, sustantivo comúnnota 1 escrito


normalmente en redonda (sin comillas ni cursiva),
proviene de la marca comercial Wi-Fi.3 La WECA, el
consorcio que desarrolló esta tecnología, contrató a una
empresa de publicidad para que le diera un nombre a su
estándar, de tal manera que fuera fácil de entender y
recordar. Phil Belanger, miembro fundador de WECA,
actualmente llamada Alianza Wi-Fi, apoyó el nombre Wi-
Fi:4

"Wi-Fi" y el "Style logo" del Yin Yang fueron inventados


por la agencia Interbrand. Nosotros (WiFi Alliance)
contratamos a Interbrand para que nos hiciera un
logotipo y un nombre que fuera corto, tuviera mercado
y fuera fácil de recordar. Necesitábamos algo que
fuera algo más llamativo que “IEEE 802.11b de
Secuencia Directa”. Interbrand creó nombres como
“Prozac”, “Compaq”, “OneWorld”, “Imation”, por
mencionar algunos. Incluso inventaron un nombre
para la compañía: VIATO.”

Phil Belanger

La Wi-Fi Alliance utilizó el eslogan publicitario "The


Standard for Wireless Fidelity" - El estándar para la
fidelidad inalámbrica - por un corto tiempo después de
que se creara la marca, y aunque, el nombre nunca fue
oficialmente "fidelidad inalámbrica", como la Wi-Fi
Alliance también se denominó "Wireless Fidelity Alliance
Inc" - Alianza de la Fidelidad Inalámbrica incorporada -
en algunas publicaciones y en la web del IEEE se define
que "WiFi es un nombre corto para Wireless Fidelity" se
puede concluir que Wi-Fi se entiende como abreviatura
de Fidelidad Inalámbrica, para nombrar un conjunto de
protocolos y ferretería - hardware - de red inalámbrica
con inspiración mercadotécnica o marketiniana en el
uso de Hi-Fi para "High Fidelity" Alta Fidelidad para
nombrar un conjunto de sistemas de audio de altas
prestaciones.

Historia[editar]

Esta nueva tecnología surgió por la necesidad de


establecer un mecanismo de conexión inalámbrica que
fuese compatible entre distintos dispositivos. Buscando
esa compatibilidad, en 1999 las empresas 3Com,
Airones, Intersil, Lucent Technologies, Nokia y Symbol
Technologies se unieron para crear la Wireless Ethernet
Compatibility Alliance, o WECA, actualmente llamada
Alianza Wi-Fi. El objetivo de la misma fue designar una
marca que permitiese fomentar más fácilmente la
tecnología inalámbrica y asegurar la compatibilidad de
equipos.

De esta forma, en abril de 2000 WECA certifica la


interoperabilidad de equipos según la norma IEEE
802.11b, bajo la marca Wi-Fi. Esto quiere decir que el
usuario tiene la garantía de que todos los equipos que
tengan el sello Wi-Fi pueden trabajar juntos sin
problemas, independientemente del fabricante de cada
uno de ellos.

En el año 2002, la asociación WECA estaba formada ya


por casi 150 miembros en su totalidad[cita requerida].
La familia de estándares 802.11 ha ido naturalmente
evolucionando desde su creación, mejorando el rango y
velocidad de la transferencia de información, su
seguridad, entre otras cosas.

La norma IEEE 802.11 fue diseñada para sustituir el


equivalente a las capas físicas y MAC de la norma 802.3
(Ethernet). Esto quiere decir que en lo único que se
diferencia una red wifi de una red Ethernet es en cómo
se transmiten las tramas o paquetes de datos; el resto
es idéntico. Por tanto, una red local inalámbrica 802.11
es completamente compatible con todos los servicios
de las redes locales (LAN) de cable 802.3 (Ethernet).

Estándares que certifica la Alianza Wi-Fi[editar]

Existen diversos tipos de wifi, basado cada uno de ellos


en un estándar IEEE 802.11. Son los siguientes:

Los estándares IEEE 802.11b, IEEE 802.11g e IEEE


802.11n disfrutan de una aceptación internacional
debido a que la banda de 2,4 GHz está disponible
casi universalmente, con una velocidad de hasta
11 Mbit/s, 54 Mbit/s y 300 Mbit/s, respectivamente.
En la actualidad ya se maneja también el estándar
IEEE 802.11ac, conocido como WIFI 5, que opera en
la banda de 5 GHz y que disfruta de una operatividad
con canales relativamente limpios. La banda de
5 GHz ha sido recientemente habilitada y, al no existir
otras tecnologías (Bluetooth, microondas, ZigBee,
WUSB) que la utilicen, se producen muy pocas
interferencias. Su alcance es algo menor que el de
los estándares que trabajan a 2,4 GHz
(aproximadamente un 10 %), debido a que la
frecuencia es mayor (a mayor frecuencia, menor
alcance).

Existen otras tecnologías inalámbricas como Bluetooth


que también funcionan a una frecuencia de 2,4 GHz, por
lo que puede presentar interferencias con la tecnología
wifi. Debido a esto, en la versión 1.2 del estándar
Bluetooth por ejemplo se actualizó su especificación
para que no existieran interferencias con la utilización
simultánea de ambas tecnologías, además se necesita
tener 40 Mbit/s.

Seguridad y fiabilidad[editar]

Tarjeta wifi y bluetooth interno.

Uno de los problemas a los cuales se enfrenta


actualmente la tecnología wifi es la progresiva
saturación del espectro radioeléctrico, debido a la
masificación de usuarios; esto afecta especialmente en
las conexiones de larga distancia (mayor de 100
metros). En realidad el estándar wifi está diseñado para
conectar ordenadores a la red a distancias reducidas,
cualquier uso de mayor alcance está expuesto a un
excesivo riesgo de interferencias.

Un elevado porcentaje de redes se instalan sin tener en


consideración la seguridad, convirtiéndose así en redes
abiertas (completamente accesible a terceras
personas), sin proteger la información que por ellas
circulan. De hecho, la configuración por defecto de
muchos dispositivos wifi es muy insegura (routers, por
ejemplo) dado que a partir del identificador del
dispositivo se puede conocer la contraseña de acceso
de éste y, por tanto,se puede conseguir fácilmente
acceder y controlar el dispositivo .

El acceso no autorizado a un dispositivo wifi es muy


peligroso para el propietario por varios motivos. El más
obvio es que pueden utilizar la conexión. Pero, además,
accediendo al wifi se puede supervisar y registrar toda la
información que se transmite a través de él (incluyendo
información personal, contraseñas…). La forma de
hacerlo seguro es seguir algunos consejos:56

Cambios frecuentes de la contraseña de acceso,


utilizando diversos caracteres, minúsculas,
mayúsculas y números.
Se debe modificar el SSID que viene predeterminado.
Desactivar la difusión de SSID y DHCP.
Configurar los dispositivos conectados con su
dirección MAC (indicando específicamente qué
dispositivos están autorizados para conectarse).
Utilización de cifrado: WPA2.

Existen varias alternativas para garantizar la seguridad


de estas redes. Las más comunes son la utilización de
protocolos de cifrado de datos para los estándares wifi
como el WEP, el WPA, o el WPA2 que se encargan de
codificar la información transmitida para proteger su
confidencialidad, proporcionados por los propios
dispositivos inalámbricos. La mayoría de las formas son
las siguientes:

WEP, cifra los datos en su red de forma que solo el


destinatario deseado pueda acceder a ellos. Los
cifrados de 64 y 128 bits son dos niveles de
seguridad WEP. WEP codifica los datos mediante una
“clave” de cifrado antes de enviarlo al aire. Este tipo
de cifrado no está recomendado debido a las
grandes vulnerabilidades que presenta ya que
cualquier cracker puede conseguir sacar la clave,
incluso aunque esté bien configurado y la clave
utilizada sea compleja.

WPA: presenta mejoras como generación dinámica


de la clave de acceso. Las claves se insertan como
dígitos alfanuméricos.

IPSEC (túneles IP) en el caso de las VPN y el


conjunto de estándares IEEE 802.1X, que permite la
autenticación y autorización de usuarios.

Filtrado de MAC, de manera que solo se permite


acceso a la red a aquellos dispositivos autorizados.
Es lo más recomendable si solo se va a usar con los
mismos equipos y si son pocos.

Ocultación del punto de acceso: se puede ocultar el


punto de acceso (router) de manera que sea invisible
a otros usuarios.
El protocolo de seguridad llamado WPA2 (estándar
802.11i), que es una mejora relativa a WPA. En
principio es el protocolo de seguridad más seguro
para Wi-Fi en este momento. Sin embargo requieren
hardware y software compatibles, ya que los
antiguos no lo son.

La seguridad de una red wifi puede ser puesta a prueba


mediante una auditoría de wifi. Sin embargo, no existe
ninguna alternativa totalmente fiable, ya que todas ellas
son susceptibles de ser vulneradas.

Dispositivos[editar]

Existen varios dispositivos wifi, los cuales se pueden


dividir en dos grupos: dispositivos de distribución o de
red, entre los que destacan los enrutadores, puntos de
acceso y repetidores; y dispositivos terminales que en
general son las tarjetas receptoras para conectar a la
computadora personal, ya sean internas (tarjetas PCI) o
bien USB.

Dispositivos de distribución o de red:


Los puntos de acceso son dispositivos que
generan un set de servicio que podría definirse
como una red wifi a la que se pueden conectar
otros dispositivos. Los puntos de acceso
permiten conectar dispositivos de forma
inalámbrica a una red existente. Pueden
agregarse más puntos de acceso a una red para
generar redes de cobertura más amplia, o
conectar antenas más grandes que amplifiquen la
señal.
Los repetidores inalámbricos son equipos que se
utilizan para extender la cobertura de una red
inalámbrica. Se conectan a una red existente que
tiene señal más débil y crean una señal más
fuerte a la que se pueden conectar los equipos
dentro de su alcance. Algunos de ellos funcionan
también como punto de acceso.
Los enrutadores inalámbricos son dispositivos
compuestos especialmente diseñados para redes
pequeñas (hogar o pequeña oficina). Estos
dispositivos incluyen un enrutador (encargado de
interconectar redes; por ejemplo, nuestra red del
hogar con Internet), un punto de acceso
(explicado más arriba) y generalmente un
conmutadorque permite conectar algunos
equipos vía cable (Ethernet y USB). Su tarea es
tomar la conexión a Internet y brindar a través de
ella acceso a todos los equipos que conectemos,
sea por cable o en forma inalámbrica.

Los dispositivos terminales abarcan tres tipos


mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas
USB:
El wifi puede ser desactivado por un terminal del
dispositivo.
Las tarjetas PCI para wifi se agregan (o vienen de
fábrica) a los ordenadores de sobremesa. Hoy en
día están perdiendo terreno debido a las tarjetas
USB. Dentro de este grupo también pueden
agregarse las tarjetas MiniPCI que vienen
integradas en casi cualquier computador portátil
disponible hoy en el mercado.
Las tarjetas PCMCIA son un modelo que se utilizó
mucho en los primeros ordenadores portátiles, ya
en desuso, debido a la integración de tarjeta
inalámbricas internas en estos ordenadores. La
mayor parte de estas tarjetas solo son capaces
de llegar hasta la tecnología B de wifi, no
permitiendo por tanto disfrutar de una velocidad
de transmisión demasiado elevada
Las tarjetas USB para wifi son el tipo de tarjeta
más común que existe en las tiendas y más
sencillo de conectar a un ordenador personal, ya
sea de sobremesa o portátil, disponiendo de
todas las ventajas de la tecnología USB. Hoy en
día puede encontrarse incluso tarjetas USB con el
estándar 802.11n (Wireless-N) que es el último
estándar liberado para redes inalámbricas.
También existen impresoras, cámaras Web y
otros periféricos que funcionan con la tecnología
wifi, permitiendo un ahorro de mucho cableado en
las instalaciones de redes y especialmente gran
movilidad de equipo.

En relación con los manejadores de dispositivo, existen


directorios de circuito integrado auxiliar de adaptadores
inalámbricos.7

Ventajas y desventajas[editar]

Las redes wifi poseen una serie de ventajas, entre las


cuales podemos destacar:

Al ser redes inalámbricas, la comodidad que ofrecen


es muy superior a las redes cableadas porque
cualquiera que tenga acceso a la red puede
conectarse desde distintos puntos dentro de un
espacio lo bastante amplio.

Una vez configuradas, las redes wifi permiten el


acceso de múltiples dispositivos sin ningún
problema ni gasto en infraestructura, ni gran
cantidad de cables.
La Alianza Wi-Fi asegura que la compatibilidad entre
dispositivos con la marca Wi-Fi es total, con lo que
en cualquier parte del mundo podremos utilizar la
tecnología wifi con una compatibilidad absoluta.

Pero como red inalámbrica, la tecnología wifi presenta


los problemas intrínsecos de cualquier tecnología
inalámbrica. Algunos de ellos son:

Una de las desventajas que tiene el sistema wifi es


una menor velocidad en comparación a una conexión
cableada, debido a las interferencias y pérdidas de
señal que el ambiente puede acarrear.
La desventaja fundamental de estas redes reside en
el campo de la seguridad. Existen algunos
programas capaces de capturar paquetes,
trabajando con su tarjeta wifi en modo promiscuo, de
forma que puedan calcular la contraseña de la red y
de esta forma acceder a ella. Las claves de tipo WEP
son relativamente fáciles de conseguir con este
sistema. La Alianza Wi-Fi arregló estos problemas
sacando el estándar WPA y posteriormente WPA2,
basados en el grupo de trabajo 802.11i. Las redes
protegidas con WPA2 se consideran robustas dado
que proporcionan muy buena seguridad. Este
problema se agrava si consideramos que no se
puede controlar el área de cobertura de una
conexión, de manera que un receptor se puede
conectar desde fuera de la zona de recepción
prevista (por ejemplo: desde fuera de una oficina,
desde una vivienda colindante).
Esta tecnología no es compatible con otros tipos de
conexiones sin cables como Bluetooth, GPRS, UMTS,
etc.
La potencia de la conexión del wifi se verá afectada
por los agentes físicos que se encuentran a nuestro
alrededor, tales como: árboles, paredes, arroyos, una
montaña, etc. Dichos factores afectan la potencia de
compartimiento de la conexión wifi con otros
dispositivos.

HotSpot WiFi, es un equipo de acceso que ofrece


cobertura wireless (sin cables) mediante estándares
WiFi, con el objetivo de establecer una comunicación
inalámbrica WiFi entre un dispositivo "cliente".

Una de las características a destacar de un HotSpot es


un portal cautivo que aparece al abrir el explorador y que
habitualmente solicita una identificación mediante User
y password.

Podrémos establecer prioridades de quién se conecta


(clientes, invitados, empleados, administradores, ect.) y
además del control e información para poder rentabilizar
nuestra red.

Podemos establecer franjas horarias para la conexión


de nuestros clientes según nuestra política de
marketing, servicio contratado …

Podemos establecer el tiempo de conexión según el tipo


de cliente, o bien establecer diferentes tarifas en función
del tiempo. Nos puede ser de gran utilidad para
negocios como restaurantes o bares.

Podrémos repartir el caudal del que disponemos


dependiendo del tipo y número de clientes / usuarios,
consiguiendo rentabilizar al máximo el total de ancho de
banda disponible.

Para evitar abusos (vídeos, P2P, música...) podemos


limitar el consumo total, estableciendo reglas.

Guardar un LOG es una de las funcionalidades más


importantes. Guardaremos un historial de todas las
conexiones que se realicen desde nuestro
establecimiento (es un método de seguridad obligatorio
por ley).

¿Te animas a instalar una red WiFi con HotSpot?


WifiSafe se dirige a profesionales, pequeñas y medianas
empresas, grandes organizaciones y compañías o
administraciones públicas, como una alternativa de
solución segura y profesional.

Вам также может понравиться