Вы находитесь на странице: 1из 27

1.

RAID

En este post vamos a tratar de explicar los conceptos de la tecnología RAID, muy
utilizada para operaciones de datos críticas, donde no se pueden perder ni un solo bit
de información debido a factores como fallas mecánicas o eléctricas en los discos de
almacenamiento.
Como sabemos, para las empresas o profesionales, la pérdida de información puede
significar grandes perjuicios. La tecnología RAID, ya consolidada y usada hace
algunos años, es una forma muy eficiente de proteger información y, en el caso
de empresas, garantizar la permanencia de su negocio. A partir de este punto
conoceremos los conceptos de esta tecnología.

2.
3. ¿Qué es RAID?
4. RAID es la sigla para “Redundant Array of Independent Disks”. Su definición en
español sería “Matriz Redundante de Discos Independientes”. Se trata de
una tecnología que combina varios discos rígidos (HD) para formar una única
unidad lógica, donde los mismos datos son almacenados en todos los discos
(redundancia). En otras palabras, es un conjunto de discos rígidos que funcionan
como si fueran uno solo.
5. Este tipo de implementación permite tener una tolerancia alta contra fallas, pues si
un disco tiene problemas, los demás continúan funcionando, teniendo el usuario los
datos a su disposición como si nada pasara. La tecnología RAID está consolidada
hace décadas, ya que surgió de la Universidad de Berkeley, en California (EUA) a
finales de la década de 1980.
6. Para conformar el RAID, es preciso utilizar por lo menos 2 discos rígidos. El
sistema operativo, en este caso, mezclará los discos como una única unidad lógica.
Cuando se graban datos, los mismos se reparten entre los discos del
RAID, siempre dependiendo del nivel de RAID adoptado, como podremos ver más
abajo.

7.
8. Mediante la implementación de RAID, además de garantizar la disponibilidad de los
datos en caso de fallo de un disco, es posible también equilibrar el acceso a la
información, de forma que no haya “cuellos de botella”.
9. Los niveles y tipos de RAID
10. Los niveles de RAID
11. La tecnología RAID funciona de varias maneras. Estas son conocidas
como “niveles de RAID”. En total, existen 6 niveles básicos, los cuales son citados
a continuación:
12. RAID Nivel 0
13. Este nivel también es conocido como “Striping” o “Fraccionamiento”. En él, los
datos son divididos en pequeños segmentos y distribuidos entre los discos. Este
nivel no ofrece tolerancia a fallos, pues no existe redundancia. Eso significa que un
fallo en cualquiera de los discos rígidos puede ocasionar pérdida de
información. Por esta razón, el RAID 0 es usado para mejorar la performance de la
computadora, ya que la distribución de los datos entre los discos proporciona
gran velocidad en la grabación y lectura de información.
14.
15. Mientras más discos existan, más velocidad es lograda. Esto es debido a que si los
datos fueran grabados en un único disco, este proceso sería realizado en forma
secuencial. Mediante RAID, los datos que se guardan en cada disco son
grabados al mismo tiempo. El RAID 0, por tener estas características, es muy
usado en aplicaciones CAD y tratamiento de imágenes y vídeos.
16. RAID Nivel 1
17. También conocido como “Mirroring” o “Espejado”, el RAID 1 funciona
añadiendo discos rígidos paralelos a los discos rígidos principales existentes en la
computadora. De esta manera, si por ejemplo, una computadora posee 2 discos, se
puede anexar un disco rígido para cada uno, totalizando 4. Los discos que fueron
añadidos, trabajan como una copia del primero. Así, si el disco principal recibe
datos, el disco anexado también los recibe. De ahí el nombre de “espejado”, pues
un disco rígido pasa a ser una copia prácticamente idéntica del otro.
18.
19. De esa forma, si uno de los discos rígidos presenta una falla, el otro inmediatamente
puede asumir la operación y continuar la operación, ya que cuenta con la misma
información. La consecuencia en este caso, es que la grabación de datos es más
lenta, pues es realizada dos veces. Sin embargo, la lectura de esa información es
más rápida, pues puede ser accedida de dos fuentes. Por esta razón, una aplicación
muy común del RAID 1 es su uso en servidores de archivos.
20. RAID Nivel 2
21. Este tipo de RAID, adapta el mecanismo de detección de fallas en discos rígidos
para funcionar en memoria. Así, todos los discos de la matriz están siendo
“monitorizados” por el mecanismo. Actualmente, el RAID Nivel 2 es poco
usado, ya que prácticamente todos los discos rígidos nuevos salen de fábrica con
mecanismos de detección de fallas implantados.
22. RAID Nivel 3
23. En este nivel, los datos son divididos entre los discos de la matriz, excepto uno, que
almacena información de paridad. Así, todos los bytes de los datos tienen su
paridad (aumento de 1 bit, que permite identificar errores) almacenada en un
disco específico. A través de la verificación de esta información, es posible asegurar
la integridad de los datos, en casos de recuperación Por eso y por permitir el uso de
datos divididos entre varios discos, el nivel de RAID 3 logra ofrecer altas tasas de
transferencia y confianza en la información. Para usar el nivel RAID 3, se
necesitan por lo menos 3 discos.
24.
25. RAID Nivel 4
26. Este tipo de RAID, básicamente, divide los datos entre los discos, siendo uno de
esos discos exclusivo para paridad. La diferencia entre el nivel 4 y el nivel 3, es que
en caso de falla de uno de los discos, los datos pueden ser reconstruidos en tiempo
real a través de la utilización de la paridad calculada a partir de los otros discos,
siendo que cada uno puede ser accedido de forma independiente. El RAID 4 es el
indicado para el almacenamiento de archivos grandes, donde es necesario
asegurar la integridad de la información. Eso porque, en este nivel, cada
operación de grabación requiere un nuevo cálculo de paridad, dando mayor
confianza al almacenamiento (a pesar de que esa operación torna las grabaciones de
datos más lentas).
27. RAID Nivel 5
28. Este nivel de RAID es muy semejante al Nivel 4, excepto por el hecho de que la
paridad no está destinada a un único disco, sino a toda la matriz. Eso hace que la
grabación de datos sea más rápida, pues no es necesario acceder a un disco de
paridad en cada grabación.
29.
30. A pesar de eso, como la paridad es distribuida entre los discos, el nivel 5 tiene un
poco menos de performance que el RAID 4. El RAID 5 es el nivel más utilizado y
que ofrece resultados satisfactorios en aplicaciones no muy pesadas. Este nivel
necesita de por lo menos 3 discos para funcionar.
31. RAID 0 + 1
32. El RAID 0 + 1 es una combinación de los niveles 0 (Striping) y 1 (Mirroring),
donde los datos son divididos entre los discos para mejorar el ingreso, pero también
utilizan otros discos para duplicar la información. Así, es posible utilizar el buen
ingreso del nivel 0 con la redundancia del nivel 1. Sin embargo, es necesario por lo
menos 4 discos para montar un RAID de tipo 0 + 1. Estas características hacen
del RAID 0 + 1 el más rápido y seguro, sin embargo es el más caro de ser
implementado.

33.
34. Los tipos de RAID
35. Existen 2 tipos de RAID, uno basado en hardware y el otro basado en software.
Cada uno posee ventajas y desventajas. El primer tipo es el más utilizado, pues no
depende de un sistema operativo (pues estos ven al RAID como un único disco
grande) y son bastante rápidos, lo que posibilita explorar íntegramente sus recursos.
Su principal desventaja es ser caro.
36. El RAID basado en hardware, utiliza dispositivos denominados “controladores
RAID”, que pueden ser conectados en slots PCI de la placa madre de la
computadora. El RAID basado en software no es muy utilizado, pues a pesar de ser
menos costoso, es más lento, posee más dificultades de configuración y depende
del sistema operativo para tener una performance satisfactoria. Este tipo es
dependiente del poder de procesamiento de la computadora en que es utilizado.

37.
38. Consideraciones acerca de la tecnología de
almacenamiento RAID
39. La tecnología RAID es uno de los principales conceptos cuando el tema en cuestión
es el almacenamiento de datos seguro. Su eficiencia es comprobada por tratarse
de una tecnología en uso hace varios años y que aún está vigente. Grandes
empresas, como lntel, ofrecen soluciones RAID, y esa tecnología es posible
encontrarla incluso en computadoras domésticas. Es muy probable que el RAID
aún vaya a presentar nuevas funcionalidades, ampliando su uso para los más
diversos tipos de necesidades de almacenamiento y acceso a datos.

VENTAJAS:

- Posibilita crear volúmenes grandes a partir de discos pequeños. Esto, como ya hemos dicho,
hoy en día, con discos de hasta 1TB a precios asequibles, no tiene demasiado sentido, salvo que
realmente necesitemos volúmenes sumamente grandes.

- Mayor velocidad de acceso a datos. Es cierto que existe un incremento en el rendimiento, que
viene más por el hecho de que puede escribir (o leer) los datos en dos discos a la vez, pero esto,
que hace 10 años era más que apreciable, con los discos actuales se aprecia bastante menos (y
sobre todo si se trata de discos SATA 2). Hay que tener muy claro dónde y cómo se va a
conseguir este incremento. Este incremento se va a conseguir en archivos de gran tamaño y va a
ser mayor cuanto mayor sea el número de dispositivos RAID (a más tarjetas RAID mayor
aumento), pero en un sistema RAID 0 con dos discos la velocidad de escritura NO es el doble,
por eso de que escribe la mitad de los datos en un disco y la otra mitad en otro. Además, el
rendimiento en el acceso a discos no solo depende de la velocidad de lectura/escritura que
tengamos. Este incremento va a ser siempre mayor en operaciones de lectura que de escritura, y
como ya hemos dicho, siempre que se trate de archivos de un gran tamaño. A medida que se
reduce el tamaño de los archivos también disminuye esta relación de aumento de rendimiento,
quedando totalmente anulada en archivos pequeños.

INCONVENIENTES:

- Al no existir un control de paridad ni tolerancia a fallos no existe una garantía de integridad de


estos, lo que lo hace totalmente desaconsejable tanto para copias de seguridad como para la
instalación en ellos de sistemas operativos.

- Si bien es cierto que puede llegar a aumentar algo el rendimiento de los discos , también lo es
que aumenta la carga sobre los procesadores, siendo esta carga muchísimo mayor si se trata de
RAID por software. Además, este incremento sólo es tal en sistemas con discos de igual
velocidad. En sistemas con discos de diferentes velocidades el límite en este incremento suele
estar en la velocidad del más rápido.

- Por el sistema de trabajo que utiliza, el fallo de uno de los discos significa la pérdida de todo el
sistema.

- Las posibilidades de recuperar información en un disco averiado se reducen prácticamente a 0


en un sistema RAID 0.

- Tenemos un incremento en el consumo del equipo.

OTRAS CONSIDERACIONES:

- Si montamos un sistema RAID 0 sobre dos particiones de un mismo disco (por software) no
obtenemos absolutamente ningún incremento en el rendimiento (evidentemente, necesita
acceder a todas las partes, y estas están todas en un mismo disco), siendo la velocidad de
acceso la que este disco tenga.

- Los tiempos de acceso en un sistema RAID 0 montado sobre discos de diferentes


características se sitúan normalmente entre los del más rápido y los del más lento, pudiendo en
muchos casos estar más cerca de la del más lento que de la del más rápido.

- En teoría la velocidad de transferencia es igual a la suma de las velocidades de transferencia


de los discos, pero esto está limitado por la velocidad de trasferencia de la propia tarjeta RAID y
por la propia del sistema (ya no estamos ante discos con una tasa de transferencia de 4MB/s
precisamente).

- En un ordenador actual, con las prestaciones de los discos actuales y la gestión y tamaño de
RAM que se utiliza, este incremento en prestaciones llega a ser casi inapreciable en la práctica.

- El tamaño total resultante siempre es el tamaño de la unidad más pequeña multiplicado por el
número de unidades (aunque en algunos sistemas pueden sumarse unidades de diferentes
tamaños, pero esto sólo acentúa aun más los inconvenientes).

En definitiva, nos encontramos ante un tipo de RAID en el que tenemos que tener muy en cuenta
los beneficios que vamos a obtener (y hay que olvidarse de la idea de que un RAID 0 va el doble
de rápido que un solo disco, pues esta idea NO es real) y ver a cambio cuales son los
inconvenientes con los que nos podemos encontrar. Por otro lado, utilizar un RAID 0 como disco
de almacenamiento para datos en los que la integridad no sea importante puede ser hasta cierto
punto interesante, pera utilizarlo para instalar un sistema operativo, en el que la integridad de los
datos no es que sea importante, es que es fundamental, no es aconsejable en absoluto, y lo
mismo pasa si de hacer copias de seguridad en él es de lo que se trata.
Cierto es que prácticamente todas las placas actuales permiten montar un RAID 0, porque en
definitiva se trata de un RAID fácil de montar y de implementar, pero que en 1.989 fuera una gran
cosa o incluso algo muy necesário en ciertos entornos de trabajo no quiere decir que casi 20
años después siga siéndolo, sobre todo cuando trabajamos con sistemas operativos en los que
la integridad de sus archivos es fundamental para su funcionamiento.

2. PROTOCOLO DHCP

El protocolo DHCP y su funcionamiento Con el rápido crecimiento de TCP/IP (Trasmisión Control


Protocol/Internet Protocol), que es un método de transmisión para comunicarse en Internet, se
necesitan algunas herramientas para administrar automáticamente algunas funciones gestionando
redes TCP/IP. DHCP (Dynamic Host Configuration Protocol) es un conjunto de reglas para dar
direcciones IP y opciones de configuración a ordenadores y estaciones de trabajo en una red. Una
dirección IP es un número que identifica de forma única a un ordenador en la red, ya sea en una
red corporativa o en Internet. Una dirección IP es análoga a un número de teléfono. La dirección IP
puede ser asignada estáticamente (manualmente) por el administrador o asignada dinámicamente
por un servidor central. Funcionamiento de DHCP DHCP funciona sobre un servidor central
(servidor, estación de trabajo o incluso un PC) el cual asigna direcciones IP a otras máquinas de la
red. Este protocolo puede entregar información IP en una LAN o entre varias VLAN. Esta tecnología
reduce el trabajo de un administrador, que de otra manera tendría que visitar todos los
ordenadores o estaciones de trabajo uno por uno. Para introducir la configuración IP consistente
en IP, máscara, gateway, DNS, etc. Un servidor DHSC (DHCP Server) es un equipo en una red que
está corriendo un servicio DHCP. Dicho servicio se mantiene a la escucha de peticiones broadcast
DHCP. Cuando una de estas peticiones es oída, el servidor responde con una dirección IP y
opcionalmente con información adicional. Un poco de historia DHCP se deriva de del protocolo
Bootstrap (BootP). BootP fue de los primeros métodos para asignar de forma dinámica,
direcciones IP a otros equipos (ordenadores, impresoras, etc.). Al ser las redes cada vez más
grandes, BootP ya no era tan adecuado y DHCP fue creado para cubrir las nuevas demandas. Como
se ha comentado, se puede incluir información adicional en el protocolo DHCP. La configuración
básica que puede ser enviada junto con la dirección IP es: • Dirección IP y la máscara. • Pasarela o
gateway para la máquina que quiere acceder a la red. • Servidor DNS para que la estación de
trabajo pueda resolver nombres a direcciones IP. Existen otros parámetros como servidores de
registro o de sincronización. Modos en DHCP Existen 3 modos en DHCP para poder asignar
direcciones IP a otros equipos: 1 – Asignación manual: El administrador configura manualmente
las direcciones IP del cliente en el servidor DCHP. Cuando la estación de trabajo del cliente pide
una dirección IP, el servidor mira la dirección MAC y procede a asignar la que configuró el
administrador. 2 – Asignación automática: Al cliente DHCP (ordenador, impresora, etc.) se le
asigna una dirección IP cuando contacta por primera vez con el DHCP Server. En este método la IP
es asignada de forma aleatoria y no es configurada de antemano. 3 – Asignación dinámica: El
servidor DHCP asigna una dirección IP a un cliente de forma temporal. Digamos que es entregada
al client Server que hace la petición por un espacio de tiempo. Cuando este tiempo acaba, la IP es
revocada y la estación de trabajo ya no puede funcionar en la red hasta que no pida otra.
Conclusión: DHCP es un protocolo diseñado principalmente para ahorrar tiempo gestionando
direcciones IP en una red grande. El servicio DHCP está activo en un servidor donde se centraliza la
gestión de la direcciones IP de la red. Hoy en día, muchos sistemas operativos incluyen este
servicio dada su importancia.

3. Qué es el espectro radioeléctrico?


El espectro radioeléctrico es la porción del espectro electromagnético que se
utiliza para los servicios de difusión de telecomunicaciones (radio, televisión,
internet, telefonía móvil, televisión digital terrestre, etc.). No es un concepto
estático, pues a medida que avanza la tecnología se aumentan o disminuyen los
rangos de frecuencia utilizados en comunicaciones.

Según la Constitución, el espectro electromagnético es un bien público, inajenable


e imprescriptible, que forma parte del territorio nacional.

¿Quién regula la utilización del espectro?


Según la Constitución, el Estado es el encargado de controlar la utilización del
espectro, y tiene el mandato de evitar las prácticas monopolísticas y de garantizar
igualdad de oportunidades en el acceso a él.

A nivel internacional, la Unión Internacional de Telecomunicaciones-UIT


(organismo especializado de las Naciones Unidas) es la entidad encargada de
atribuir el espectro radioeléctrico a escala mundial y de determinar las órbitas de
los satélites.

¿Cómo se concede el uso sobre el espectro?


Se atribuye a personas naturales, jurídicas colombianas o sucursales de
sociedades extranjeras a través del procedimiento de selección objetiva. Este
procedimiento lo adelanta el Ministerio de Tecnologías de la Información y las
Comunicaciones, y consiste en la adjudicación de parte del espectro a particulares
para la prestación del servicio de telecomunicaciones.

Para iniciar un proceso de selección, el Ministerio debe determinar si hay


pluralidad de oferentes mediante una comunicación pública sobre su intención de
otorgar el espectro. Una vez iniciado el proceso, con pluralidad de oferentes, los
interesados deben presentar solicitudes formales al Ministerio, que deben
contener, por lo menos, la siguiente información: (i) indicación de la(s)
frecuencia(s) y/o banda(s) de frecuencia(s) del Espectro Radioeléctrico a solicitar;
(ii) ancho de banda (tipo de emisión); (iii) área geográfica de servicio; (iv)
ubicación de estaciones repetidoras de señal y de bases, indicando coordenadas
geográficas exactas en grados, minutos y segundos; (v) ganancia, altura y patrón
de radiación de las antenas; (vi) potencia de la señal y las antenas; y (vii) horario
de utilización.

El sistema de selección da prioridad a los proponentes que no poseen porción del


espectro para el momento de presentación de su solicitud. Situación que es
diferente del sistema internacional de la UIT, donde aplica la regla ‘primero en
tiempo, primero en derecho’.
Una vez evaluadas las solicitudes, el Ministerio otorgará el permiso de uso
mediante acto administrativo motivado. Todas las concesiones otorgadas deben
estar limitadas en el tiempo.

Adicional a este mecanismo de selección, el Ministerio tiene capacidad para


adjudicar porciones del espectro mediante otorgamiento directo cuando, por
razones de continuidad del servicio, ello se haga necesario.

La selección objetiva no aplica para el otorgamiento de permisos para el uso de


frecuencias o canales radioeléctricos necesarios para la operación de servicios de
provisión de redes y servicios de telecomunicaciones con fines estratégicos para
la defensa nacional, atención y prevención de situaciones de emergencia y
seguridad pública. Estos últimos se asignan directamente.

¿El Estado recibe alguna contraprestación?


Sí. El titular del permiso deberá pagar, a beneficio del Fondo de Tecnologías de la
Información y las Comunicaciones, una contraprestación determinada con base en
el Régimen Unificado de Contraprestaciones decretado por el Ministerio.

Quizás parezca un término y un tema muy técnicos, pero el espectro


radioeléctrico se trata del medio por el cual se transmiten las frecuencias de
ondas de radio electromagnéticas que permiten las telecomunicaciones (radio,
televisión, Internet, telefonía móvil, televisión digital terrestre, etc.), y son
administradas y reguladas por los gobiernos de cada país.

La definición precisa del espectro radioeléctrico, tal y como la ha definido la


Unión Internacional de Telecomunicaciones (UIT), organismo especializado de
las Naciones Unidas con sede en Ginebra (Suiza) es: "Las frecuencias del
espectro electromagnético usadas para los servicios de difusión y servicios
móviles, de policía, bomberos, radioastronomía, meteorología y fijos." Este "(…)
no es un concepto estático, pues a medida que avanza la tecnología se aumentan
(o disminuyen) rangos de frecuencia utilizados en comunicaciones, y
corresponde al estado de avance tecnológico.

El espectro radioeléctrico, tal y como se puede apreciar en el gráfico de arriba, se


divide en bandas de frecuencia que competen a cada servicio que estas ondas
electromagnéticas están en capacidad de prestar para las distintas compañías de
telecomunicaciones avaladas y protegidas por las instituciones creadas para tal
fin de los estados soberanos.

Un repaso corto a las bandas de frecuencia nos indica que:

 Banda UHF: en este rango de frecuencia, se ubican las ondas


electromagnéticas que son utilizadas por las compañías de telefonía fija y
telefonía móvil, distintas compañías encargadas del rastreo satelital de
automóviles y establecimientos, y las emisoras radiales como tal. Las
bandas UHF pueden ser usadas de manera ilegal, si alguna persona natural
u organización cuenta con la tecnología de transmisión necesaria para
interceptar la frecuencia y apropiarse de ella con el fin de divulgar su
contenido que no es regulado por el Gobierno.
 Banda VHF: También es utilizada por las compañías de telefonía móvil y
terrestre y las emisoras radiales, además de los sistemas de radio de onda
corta (aficionados) y los sistemas de telefonía móvil en aparatos voladores.
Es una banda mucho más potente que puede llegar a tener un alcance
considerable, incluso, a nivel internacional.
 Banda HF: Tiene las mismas prestaciones que la banda HF, pero esta
resulta mucho más "envolvente" que la anterior puesto que algunas de sus
"emisiones residuales" (pequeños fragmentos de onda que viajan más allá
del aire terrestre), pueden chocar con algunas ondas del espacio
produciendo una mayor cobertura de transmisión.

El concepto de espectro radioeléctrico es, entonces, una parte importante de


nuestra vida cotidiana.

4. Acaban de cumplirse 50 años de la Ley de Moore, enunciada en 1965 por Gordon


Moore, uno de los padres de Intel. Expresa que cada dos años aproximadamente se
duplica el número de transistores en un circuito integrado. Ha venido
cumpliéndose durante los últimos 50 años y lo seguirá haciendo algunos más, pero
¿tiene un límite?

La Ley de Moore apareció por primera vez enunciada en un artículo de la


revista Electronics y a pesar de que no es exactamente una ley en un sentido
estrictamente científico, sino más bien una observación, ha sentado las bases de
gran parte del progreso de la humanidad durante el siglo XX. Para dar algo de
contexto, en 1978 un vuelo comercial entre París y Nueva York costaba 900 dólares
y tenía una duración de unas 6 horas. Aplicando los principio de la ley de Moore,
hoy en día ese vuelo costaría como 1 centavo y tardaría menos de 1 segundo en
realizarse.
Outstream Video

00:00

00:00

Cada chip que la humanidad ha ido produciendo es más barato que el anterior, más
barato y más poderoso. Pero toda progresión exponencial, al menos en la vida real
y no en la matemática teórica, tiene su límite. Y el de Moore parece estar
acercándose rápidamente. El propio Moore ya afirmó en una entrevista en 2010
que su propia ley estaba muerta. No lo decía en un sentido literal, no es que ya esté
muerta, pero tiene una fecha de caducidad muy obvia: la propia dimensión física de
la materia, los átomos.

La carrera hacia el infinito

La Ley de Moore es, en el fondo, una carrera apasionante hacia el infinito, hacia los
límites de la miniaturización. Al momento de escribir estas líneas la frontera en la
mayoría de procesadores de consumo de compañías como Intel está dibujada sobre
los 14 nanómetros para cada transistor (aunque eso no quiera decir que sean los
más utilizados).

Un transistor es el alma de un microprocesador, emula los 1 y los 0 del código


binario según deje o no pasar la energía a través de él.

La mejor forma de entender el diminuto tamaño de un microchip

Habrás oído muchas veces hablar sobre lo diminutos que son los microprocesadores de
un smartphone o …
Read more

Para dar un mínimo de contexto sobre las dimensiones tan extraordinarias de las
que estamos hablando, el diámetro de una molécula de glucosa está en 1 nm, la
insulina es un poco más grande, 5 nm, y la pared de una bacteria se queda en 10
nm. Un virus son 75 nm. Así que si estás leyendo esto desde un PC o teléfono de
última generación es posible que la tecnología de transistores que lleva el
procesador que te permite hacerlo sea aún más pequeña que un simple virus.

Dentro de alrededor de un año o año y medio llegarán los 10 nanómetros y después


el camino es relativamente ambiguo. En principio llegaríamos a los 7 nanómetros
allá por 2020 y una vez llegados a ese punto la mayoría de expertos da por
sentado que la Ley de Moore llegará a un trágico pero lógico final. No quiere decir
que la innovación vaya a terminarse, no quiere decir que no se estén desarrollando
nuevas investigaciones para evitarlo pero de momento no hay nada que nos
asegure al 100% que esa progresión exponencial va a seguir cumpliéndose.

¿Y después qué?

¿Y después? Esa es la pregunta que instituciones de todo el mundo se hacen


continuamente. La agencia estadounidense de investigación de proyectos
avanzados de defensa, DARPA, tiene dos grandes proyectos en desarrollo y
empresas como Intel o AMD en cuyo futuro desarrollo tiene mucho que decir la Ley
de Moore albergan también iniciativas similares.

“No hay ningún crecimiento exponencial que, en la práctica y más allá de la


teoría, sea infinito. Eso lo tenemos claro” dice Simón Viñals, Director de
Tecnología de Intel Iberia en conversación telefónica a Gizmodo en Español, “La
mayoría de iniciativas actuales se encaminan a mejora la eficiencia sobre la
reducción de costes y aumento de potencia que implica la Ley de Moore”

Se investiga, por ejemplo, en capas de transistores en 3D. A día de hoy la impresión


de las obleas de procesadores mediante litografía óptica es planar. El reto es crear
ahora capas tridimensionales de transistores interconectadas entre sí. “Aunque es
algo bastante complejo” apunta Viñals.

La computación cuántica, aún en pañales, puede ser otra de las vías. No sólo utiliza
una arquitectura completamente distinta, basada en qbits (bits que pueden ser 1 y
os al mismo tiempo) en lugar de bits sino que algunos de los problemas teóricos
intratables del actual modelo pasarían a ser tratables.

Y, por último, la computación neuromórfica. “La computación neuromórfica


replica, con transistores, el comportamiento de un cerebro biológico. Implica la
conexión masiva de millones de elementos pequeños, el equivalente a las
neuronas, en lugar de pocos y más grandes” afirma Viñals. La idea de replicar con
una máquina el funcionamiento del cerebro no es nueva, lleva dando vueltas desde
la década de los 80, pero es apasionate. En 2011 IBM consiguió fabricar el de la
imagen de abajo, que funciona como si fuesen 256 neuronas con 1024 sinapsis.

No sólo daría lugar a chips más eficientes sino que allanaría el camino, en parte,
hacia la inteligencia artificial.

El punto crítico tras la muerte de la ley de Moore no es sólo que reducirá el


crecimiento tecnológico, en cualquiera de sus formas, sino que detrás de él irá
también en parte el económico. El auge de compañías como Apple, Google, Pixar o
Dreamworks se debe en gran parte a la progresión que supone la ley. Podremos
intentar emular un crecimiento, podremos ver periodos de crecimiento acelerado
aquí y allá pero de momento no parece que un crecimiento exponencial sostenido
durante seis décadas, como ha ocurrido con Moore, vaya a ocurrir.

¿Qué ocurrirá cuando la Ley de Moore decida, definitivamente, dejar de aplicarse?


Nadie lo sabe, no a ciencia cierta al menos. Pero será divertido descubrirlo.

5.

IC Y EDUCACIÓN: ¿Sociedad de la información ó sociedad


del conocimiento?
Escrito por: Carmen de Lourdes Laraque Espinosa. Universidad Pedagógica Nacional.
México

1. HACIA UN ACERCAMIENTO CONCEPTUAL


El siglo XXI ha visto acentuarse los rasgos de una economía globalizada y de una
sociedad de la información, caracterizada por el uso cada vez más generalizado de las
nuevas tecnologías de la información y de la comunicación (TICs). Éstas han
modificado y revolucionado la mayoría de las actividades humanas en general y de
manera específica la educación. Como puntualiza Manuel Castells, las redes
informáticas tienen un avance sin precedentes y perfilan un nuevo sistema de
comunicación basado en un lenguaje digital universal capaz de crear nuevas formas y
canales de comunicación1. La sociedad de la información ha adoptado en forma
contundente a las nuevas tecnologías en un proceso que se antoja irreversible, entre
otras razones, por estar impulsadas por fuerzas comerciales sumamente poderosas
que llegan a rebasar a la política nacional y a la política educativa.

Hoy asistimos a la revolución tecnológica de la informática y podemos visualizar cómo


sus innovaciones alteran profundamente las condiciones de intercambio de
conocimientos y afectan directamente los mecanismos que rigen el funcionamiento de
nuestra cultura. La revolución informática iniciada hace cincuenta años, intensificada en
la última década y manifestada en el incesante progreso de las nuevas tecnologías
multimediales ha marcado de forma significativa el quehacer del hombre del siglo XXI.

La aparición, el avance y la difusión de las nuevas tecnologías de la información y la


comunicación, en especial de Internet y del correo electrónico, han supuesto notables
transformaciones en los más diversos ambientes en los que se desenvuelven las
actividades humanas. Por un lado, porque posibilitan tanto la transmisión de mucha
información en poco tiempo como el acceso a numerosos servicios, y, por otro, por el
hecho de que facilitan la comunicación de forma instantánea entre sujetos con
independencia del lugar en el que se encuentren. Como consecuencia del alcance de
dichas transformaciones, la sociedad se inclina a basarse cada vez más en el
conocimiento, de modo que la sociedad industrial ha dado paso a la sociedad de la
información y del conocimiento, un fenómeno que acentúa la globalización cultural y
socioeconómica. En este contexto, la información, debidamente procesada y evaluada,
se transforma, a través del razonamiento humano, en conocimiento. Un conocimiento
que debería ser accesible para todos los ciudadanos de forma libre e igualitaria, ya que,
de lo contrario, se pueden producir nuevas formas de analfabetismo y, en
consecuencia, de exclusión social. Más adelante nos referiremos a una de las
repercusiones de tal exclusión, denominada brecha digital.

La introducción generalizada de la tecnología multimedia en la vida cotidiana ha traído


ventajas tangibles e innegables al usuario de las mismas, entre ellas: flexibilización,
libertad espacio tiempo, nuevas formas de interacción, comunicación en tiempo real y
comunicación diferida, etc. Pese a ello, la discusión en torno a los efectos benéficos y
no tan benéficos de la era multimedial se han polarizado en posturas como las
representadas por Giovanni Sartori y Nicholas Negroponte, las cuales resumiremos a
continuación.

En su obra de 1997, Ser Digital, Negroponte abunda en planteamientos que desbordan


optimismo ante la forma vertiginosa en la que la tecnología avanza y se extiende a
sectores cada vez más amplios de la sociedad2. En esta era que el denomina como de
la postinformación, la cual ha dejado atrás a la era industrial centrada en torno al
concepto de producción en masa, métodos uniformes y repetitivos en cualquier espacio
y tiempo dado, y de la era de la información, que muestra la misma economía de escala,
pero con menor énfasis en el tiempo y en el espacio. Ser digital, implica para este autor,
modificar la forma de situarse en el mundo, habitar un planeta que se está achicando,
superar las limitaciones de la comunicación sincrónica y unidimensional, circular por la
superautopista de la información haciendo uso de recursos de información global. Ante
todo ello se antoja que el proceso educativo ya
nunca podrá ser igual. “La era digital no puede ser negada ni detenida; tiene cuatro
grandes cualidades que la conducirán finalmente a su triunfo: descentralización,
globalización, armonización y motivación”3. No obstante, advierte en un tono profético
lo que hoy ya es realidad, el lado oscuro de estar digitalizado se manifestará en
violaciones a la propiedad intelectual, invasión de la privacidad, vandalismo digital,
piratería del software, robo de datos y pérdida de empleos.

La visión crítica, pesimista y casi apocalíptica permea el planteamiento expresado por


Giovanni Sartori en el trabajo intitulado Homo Videns, término clave que designa el
destronamiento del homo sapiens, producto de la cultura escrita por el ente que ha
perdido la capacidad de abstracción. Para Sartori, la revolución multimedial y los medios
de comunicación de manera notoria, han privilegiado lo visual sobre lo inteligible, el ver
sin entender. empobreciendo con ello la capacidad de entendimiento y de comprensión.
Enfatiza los riesgos implícitos en este sentido hacia la educación en la era que bautiza
como del postpensamiento. El homovidens pasa por ser un niño videns, -y podríamos
agregar, un educando videns- inmerso en la era digital y formando parte de una
multiplicidad de animales interactivos que juegan entre sí por azar y en quienes está
ausente la percepción de la secuencia, de la causa y del efecto.

A este debate, de por sí complejo, podríamos sumar la reflexión en torno a lo que


constituye la reflexión central de este trabajo: es indudable que vivimos en una sociedad
dominada y enmarcada por la abundancia de información; las noticias llegan a nosotros
de manera simultánea a que los hechos ocurren, los cada vez más sofisticados y
accesibles aparatos de comunicación nos vinculan en todo momento con la realidad,
con las cifras económicas, con los sucesos mundiales. Se cumple lo que ya había
estipulado Octavio Ianni al referirse a la sociedad global, podemos estar on line,
everywhere all time; viajamos y vacacionamos sin perder el contacto pero ¿nos conduce
ello a saturarnos de información ó a procesar conocimiento? ¿Los términos sociedad
de la información y sociedad del conocimiento son sólo variantes conceptuales del
mismo fenómeno?

La sociedad de la información, aparente sucedánea de la sociedad industrial ha sido


definida como aquella en la cual el entorno socio cultural y económico acusa el impacto
de aquellas tecnologías que facilitan la creación, distribución y manipulación de la
información. El concepto de “sociedad de la información” hace referencia a un
paradigma que está produciendo profundos cambios en nuestro mundo al comienzo de
este nuevo milenio. Esta transformación está impulsada principalmente por los nuevos
medios disponibles para crear y divulgar información mediante tecnologías digitales.

Los flujos de información, las comunicaciones y los mecanismos de coordinación se


están digitalizando en muchos sectores de la sociedad, proceso que se traduce en la
aparición progresiva de nuevas formas de organización social y productiva4.

Difícilmente se podría concebir la existencia de la sociedad de la información fuera del


marco del mundo globalizado del nuevo milenio en el cual las TICs no sólo aparecen
sino que inciden sobre y transforman todos los procesos productivos facilitando así la
inserción a los mercados globales.

En diciembre de 2003 se realizó en Ginebra Suiza la Cumbre Mundial de la Sociedad


de la Información, convocado por la Unión Internacional de Telecomunicaciones, con
una segunda fase en Túnez en noviembre de 2005. En los debates cual se reconoció
la imbricación de dos procesos: la revolución digital y la brecha digital. En el primer caso
se plantea como premisa básica el entender cómo se ha modificado la manera en que
la gente piensa, actúa, comunica, trabaja y gana su sustento.

“La presencia de las TICs ha forjado nuevas modalidades de


crear conocimientos, educar a la población y transmitir
información; ha reestructurado la forma en que los países
hacen negocios y rigen su economía, se gobiernan y
comprometen políticamente. Ha proporcionado la entrega
rápida de ayuda humanitaria y asistencia sanitaria, y una nueva
visión de protección del medio ambiente. Y hasta ha creado
nuevas formas de entretenimiento y ocio. Puesto que el acceso
a la información y los conocimientos es un requisito previo para
conseguir los Objetivos de Desarrollo del Milenio (ODM), tiene
la capacidad de mejorar el nivel de vida de millones de
personas en todo el mundo. Además, una mejor comunicación
permite solucionar los conflictos y alcanzar la paz mundial.”5
Como segunda premisa reconoce que este proceso de digitalización se ha visto
obstaculizado por un notorio margen de desigualdad social en el que

“…la gran mayoría de los habitantes del mundo no se ha


subido al vagón de este fenómeno en evolución. Por eso
también se ha hecho cada vez más grande la brecha que
separa el conocimiento de la ignorancia y los ricos de los
pobres, tanto dentro de cada país como entre países.”6

Delia Crovi, investigadora mexicana quien encabeza un proyecto de investigación


centrado en este eje temático realiza una importante aportación a la conceptualización
de la Sociedad de Ia Información al plantear la existencia tres tipos de sociedad de la
información que conviven:

1. La simbólica o discursiva, o sea, la prometida por el discurso hegemónico como llave


para alcanzar el desarrollo;
2. La real caracterizada por desigualdades y diferencias en el acceso y apropiación de
las redes, en la cual sólo un sector pequeño de la población se ha apropiado de la
convergencia;
3. Y la de la exclusión (también real pero menos reconocida o aceptada) donde
permanecen intactas las prácticas sociales y culturales de la sociedad industrial e
incluso preindustrial.

Y es que en efecto, uno de los argumentos que emergen como obstáculos para afirmar
que los países emergentes transitan plenamente por la sociedad de la información, es
el ya antiguo concepto de la brecha digital.

El término brecha digital ha sido considerado como un elemento que refleja uno de los
obstáculos para la existencia de la sociedad de la información. Hace referencia a la
inequidad en el acceso a la tecnología, inequidad derivada del rezago en materia de
desarrollo económico y social, lo cual deriva en insuficiente inversión en infraestructura
de información y comunicación7. Si buscamos una definición estandarizada podríamos
acudir a la generada en la Cumbre Mundial de la Sociedad de la Información que a la
letra plantea:

Somos plenamente conscientes de que las ventajas de la


revolución de la tecnología de la información están en la
actualidad desigualmente distribuidas entre los países
desarrollados y en desarrollo, así como dentro de las
sociedades. Estamos plenamente comprometidos a convertir la
brecha digital en una oportunidad digital para todos,
especialmente aquellos que corren peligro de quedar
rezagados y aún más marginados8

Delia Crovi abunda en el tema y explicita el concepto brecha digital, aludiendo a las
siguientes cinco dimensiones en las cuales se manifiesta:
a) Tecnológica, referida a la infraestructura material disponible así como al grado de
actualización de dicha infraestructura.

b) De conocimiento, vinculada a las habilidades y saberes que deben poseer los


individuos para apropiarse adecuadamente de los nuevos medios y de las TIC.

c) De información, dimensión en la que es posible distinguir dos sectores sociales: uno


sobreinformado, con acceso a diferentes medios y generaciones tecnológicas; y otro
desinformado, con acceso limitado a las innovaciones tecnológicas, sus actualizaciones
y sus contenidos.

d) Económica, por la falta de recursos para acceder a las TIC que se manifiesta tanto a
nivel personal, como entre los sectores gubernamentales y algunos privados

e) De participación, que significa que los recursos aportados por las innovaciones
tecnológicas puedan emplearse en un contexto democrático, con un marco legal y
social adecuado, que permita a los individuos y a las naciones igualdad de
oportunidades para expresarse e intervenir en las decisiones de un mundo global9

De manera ambigua se ha utilizado indistintamente el concepto sociedad del


conocimiento como sinónimo del de sociedad de la información. Un ejemplo de dicho
uso indistinto se incluye a continuación:

“Ya es un lugar común, casi universalmente aceptado,


reconocer que en la segunda mitad del siglo XX se desarrolló y
consolidó un nuevo tipo de sociedad: la llamada sociedad del
conocimiento y la información y que ésta conlleva una
economía que valoriza los conocimientos teóricos y aplicados,
lo que hace imprescindible repensar el rol de las instituciones
especializadas en la administración del conocimiento desde la
sociedad y el Estado.” 10

En sentido estricto estamos aludiendo a dos fenómenos distintos. La información no es


lo mismo que el conocimiento La información se compone de hechos y sucesos,
mientras que el conocimiento se define como la interpretación de dichos hechos dentro
de un contexto, y posiblemente con alguna finalidad. El concepto sociedad del
conocimiento surge a finales de los noventa e incorpora el debate acerca de los saberes
y el conocimiento, aludiendo los primeros a certezas prácticas y precisas y el segundo
a la utilización crítica y selectiva de la información. Se trata de un concepto que
aparentemente resume las transformaciones sociales que se están produciendo en la
sociedad moderna y sirve para el análisis de estas transformaciones. Al mismo tiempo,
ofrece una visión del futuro para guiar normativamente las acciones políticas. 11

El concepto actual de la ‘sociedad del conocimiento’ no está centrado en el progreso


tecnológico, sino que lo considera como un factor del cambio social entre otros, como,
por ejemplo, la expansión de la educación. Según este enfoque, el conocimiento será
cada vez más la base de los procesos sociales en diversos ámbitos funcionales de las
sociedades. Crece la importancia del conocimiento como recurso económico, lo que
conlleva la necesidad de aprender a lo largo de toda la vida. Pero igualmente crece la
conciencia del no-saber y la conciencia de los riesgos de la sociedad moderna12

Desde este ángulo de razonamiento cabe plantear ¿cómo podemos mirar este debate
desde el ámbito de la educación? Los educandos de hoy cuentan con un cantidad de
recursos inimaginables hace apenas unas décadas. El hipertexto, por ejemplo permite
al lector moverse en un texto polimorfo y trazar sus propias rutas de aprendizaje, los
buscadores arrojan en fracción de segundos un millón o más resultados en torno a un
dato, a un concepto o un proceso. Pero, ¿qué incidencia ha tenido ello en los esquemas
de aprendizaje en el desarrollo de competencias en los estilos cognoscitivos? Y este
impacto, ¿es relativamente homogéneo, ante un panorama de desigualdades sociales
y regionales que han producido un mosaico educativo tan fragmentado en nuestros
países emergentes?

Es evidente que uno de los ámbitos que no ha escapado a la influencia de las


tecnologías de la información y la comunicación, aun si el impacto ha sido diferenciado
es el de la enseñanza. En efecto, la aplicación de estas tecnologías en todos los niveles
educativos ha enfrentado nuevos retos y ha generado diversas oportunidades en los
métodos y procesos de aprendizajes13

Aun en el ámbito universitario se ha visto la necesidad de incorporar las TIC´s para


poderse adaptar a las transformaciones sociales. De ahí que las tecnologías de la
información y la comunicación hayan abierto la posibilidad de utilizar formas
innovadoras de enseñar y aprender en todos los niveles educativos y se haya
pretendido eficientar el proceso de aprendizaje a través de un incremento en la eficacia
de la enseñanza. Cabe preguntarse qué modificaciones han introducido las nuevas
tecnologías en los métodos de enseñanza-aprendizaje para eventualmente evaluar las
ventajas y necesidades que el empleo de aquéllas supone en la cotidianeidad del
proceso educativo14

Si bien la Internet fue creada para fines distintos de los pedagógicos es factible
transformarla en una herramienta operativa en el proceso de enseñanza-aprendizaje
que desarrolle en el alumno destrezas y competencias y le ayude a elaborar estrategias
personales para la construcción del conocimiento. La eficaz utilización de la world wide
web (WWW) estará en función de la selección y adecuación de la estrategia didáctica
en que se integra. La red facilita el acceso a la información, pero la transmisión de
conocimientos no se realiza per se, es necesario que docentes, alumnos, currícula y
métodos conformen una base articulada que potencie el uso de la información
electrónica a efecto de que el alumno rebase el nivel de simple acopio de información
y pueda construir nuevos conocimientos. La exploración relativa al uso de las TICs en
la universidad pública mexicana, de manera concreta en la Universidad Pedagógica
Nacional se discute a continuación en este trabajo.

2. TICS Y EDUCACIÓN EN LA UNIVERSIDAD


PEDAGÒGICA NACIONAL
A efecto de contar con datos de primera mano y acercarnos a la realidad del alumnado
de la licenciatura en Sociología de la Educación en lo que hace al uso real de las TICs
en su proceso de formación, fue implementado el proyecto La licenciatura en Sociología
de la Educación en la UPN Ajusco, frente al reto de la innovación curricular y el uso de
nuevas tecnologías. Análisis de alcances y limitaciones”.

Dicho proyecto quedó inscrito dentro de la línea temática de investigación: Procesos de


reforma de la educación contemporánea, integración de nuevas tecnologías y procesos
emergentes, dentro del Cuerpo Académico de Sociología y procesos socioeducativos y
tiene que ver con un tipo de investigación aplicada, en virtud de que, además de buscar
explicaciones de orden teórico-conceptual sobre el proceso de rediseño en el que se
encuentra inmersa la licenciatura en sociología de la educación en la UPN Ajusco, y del
uso de nuevas tecnologías de la información y la comunicación por parte de los
docentes y alumnos inscritos en dicho contexto, también se orienta a proponer algunas
alternativas prácticas que puedan beneficiar a los distintos actores involucrados.

Las preguntas eje que guiaron la investigación en cuestión fueron;

1. ¿Qué nivel de conocimiento se tiene acerca del uso de nuevas tecnologías en el aula,
en el contexto de la licenciatura?
2. ¿Hasta qué punto las prácticas docentes se han visto influidas o modificadas por el
uso de las nuevas tecnologías?

Los resultados preliminares del diagnóstico sobre el uso de nuevas tecnologías se


muestran a continuación, así como una breve interpretación de los mismos a la luz de
la intención con que se formuló cada reactivo:

A la pregunta relativa a la frecuencia y regularidad con la que los encuestados se


conectan a la red, la respuesta más recurrente fue ocasionalmente, seguida por
aquellos que reportaron uso diario. Solamente 2 alumnos del total señalaron no hacer
uso nunca de la red. El propósito de la conexión fue en el 22% de los casos para buscar
información en general, en tanto que el 13.3% señaló que lo hacía con el fin de una
investigación escolar.

El grupo etario que se ubica por debajo de los 25 años es considerado como de nativos
digitales, esto es crecieron y se formaron con gran cercanía a los nuevas tecnologías;
al ser cuestionados sobre cómo y cuándo aprendieron a utilizar Internet, el 25.66%
refirió que el manejo de Internet había provenido de sus amigos; otro 13.3% respondió
que en la escuela, la mayoría desde la formación básica. El problema que enfrenta el
primer grupo de respondientes es el carecer de la sistematización requerida para
optimizar el uso de la red, como es el caso de los operadores boleanos, o bien signos
de puntuación y demás caracteres que permiten una búsqueda más completa y por
ende obtención de información más precisa. El buscador que apareció como el más
utilizado en el 82.2% de las respuestas fue google.

No se apreció una diferencia significativa en las asignaturas para las cuales realizan
consulta en los buscadores. Un 28.9% señaló que se apoya en búsquedas para todas
las materias, 7.8% contestó que para la mayoría de ellas. Las cifras más altas en este
sentido se presentaron en las materias Economía, Política Educativa así como
Metodología y Técnicas de Investigación en tanto que las menos apoyadas en
búsquedas fueron Estadística y Género.

Si bien el uso de Internet y correo electrónico está ampliamente generalizado, es aún


poco frecuente el fundamentar el aprendizaje en actividades colaborativas a través de
la red, como pudieran ser los blogs o las webquest. Sólo un 5.6% de los encuestados
se comunica vía electrónica con profesores y compañeros de trabajo. El uso más
recurrente detectado fue el chat y las redes sociales para mantener contacto con
conocidos e intercambiar experiencias extra académicas. El correo electrónico, los
blogs y las webquest pueden representar apoyos importantes en el trabajo colaborativo,
en virtud de que permiten acceso a todo tipo de información, así como un proceso de
datos rápido y flexible, a la vez que se abren canales de comunicación inmediata a
interactividad y se posibilita el almacenamiento y la digitalización de la información. En
la parte complementaria de este proyecto se buscará precisamente arribar a la
elaboración de una propuesta de aprendizaje colaborativo para la Licenciatura de
Sociología de la Educación, aprovechando la infraestructura con la que los estudiantes
reportan contar. Más del 50% cuentan con PC o laptop propia, otro 33% tiene acceso a
la de su trabajo y el resto emplea los equipos de la UPN. Con respecto a estos últimos,
las sugerencias de los estudiantes con respecto a los equipos, giraron básicamente en
torno a ampliar los horarios de servicio, actualizar y vigilar el óptimo funcionamiento de
las computadoras. Asimismo coincidieron en sugerir se impartan talleres de cómputo
para actualizarse en los nuevos paquetes y software, interés que bien podría
canalizarse a la adquisición de las herramientas requeridas para involucrarse en la
producción de blogs y optimizar el trabajo que los docentes asignen a través de las
Webquests.

Una conclusión preliminar apunta entonces al relativamente extendido uso que los
alumnos de nuestra licenciatura hacen de los recursos informáticos. Pese a proceder
de sectores económicamente no privilegiados, el abaratamiento en los equipos de
cómputo, la infraestructura -aunque insuficiente- que presta la universidad y los cyber
cafés les permiten una frecuencia de uso bastante considerable. Sin embargo, subsiste
la inquietud del impacto real de estas herramientas facilitadoras del conocimiento en el
aprendizaje.

3. LAS TICS ¿FACILITADORAS DE INFORMACIÓN


Ó DE CONOCIMIENTO?
Al referirse a los mitos y creencias que han cobrado carta de nacionalización en nuestra
cultura entorno a la relación entre TICs y educación, el Dr. Manuel Cabero alude en
primer término ala ya mencionado desigualdad y brecha digital, más acentuada en los
países latinoamericanos que en los europeos, aportando el dato de solamente 4.9% de
usuarios de internet a agosto de 2001.
“El acceso a Internet se ha convertido ya en una poderosa causa de desigualdad.
Aquellas personas con mayores recursos y que pueden acceder con facilidad a Internet
tienen más posibilidades de recibir información, de ampliar su cultura y de estar mejores
preparados para adaptarse a la nueva sociedad del conocimiento. Por el contrario las
personas con menores recursos e inferior formación tendrán muchas más dificultades
para acceder a las redes informáticas y se verán desplazadas y marginadas en la
sociedad mundial. … En el momento actual el 20% de las personas más ricas acaparan
el 93% del uso de Internet.”15

Expresa también su preocupación acerca de la amplitud de la información que permite


y el acceso ilimitado a todos los contenidos al relacionar esta amplitud con la capacidad
del alumno para jerarquizar la información y detectar aquellas fuentes confiables y con
información de calidad.

En último término califica como un mito con clara influencia en el contexto escolar al
que se deriva de atribuir un valor per se a las tecnologías; esto es sobrevalorar la
significación que se les da a las tecnologías como elementos de cambio y
transformación de la institución educativa. Es cierto que las TICs crean unos entornos
específicos para la información que pueden ser más atractivos y con diferentes
posibilidades que las tradicionales pero el valor de transformación y la significación que
se alcance con ellas no dependerá de la tecnología en sí misma, sino de cómo somos
capaces de relacionarlas con el resto de variables curriculares: contenidos, objetivos y
de cómo aplicamos sobre las mismas estrategias didácticas específicas.

Ninguna tecnología es suficiente para cambiar un modelo de sociedad; se requiere


tener un referente más amplio de ésta, las competencias profesionales necesarias y un
modelo de organización ad hoc.

En lo que hace al rol del maestro y a las competencias que tendrá que desarrollar para
optimizar su labor, Cabero rechaza pensar que los docentes serán reemplazados por
la tecnología pero si habrá que adecuar los roles y las funciones delineadas por las
características específicas de su actividad (contenidos, características de los
receptores en especial características cognitivas de loe estudiantes así como el
contexto institucional. Así, la presencia de las nuevas TICs nos va a llevar, a que los
profesores desempeñen nuevos roles, que en el caso de los docentes universitarios
serían los siguientes:

· Consultor de información – facilitadores de información.

· Diseñador de medios.

· Moderadores y tutores virtuales.

· Evaluadores continuos y asesores.

· Orientadores.

· Administradores del sistema.


Un efecto benéfico de la tecnología educativa radica en poder favorecer la construcción
compartida del conocimiento. Es cierto que las redes de comunicación han propiciado
la creación de comunidades específicas de comunicación, y que existen en la red tantas
comunidades como problemáticas. En este sentido y descartando la idea de concebir
una especie de supertecnología que pueda aglutinar a todas las demás y sea la más
potente, y por tanto más significativa para conseguir metas y objetivos de aprendizaje
es que en la parte final de este trabajo se propone una alternativa de trabajo
colaborativo susceptible de ser aplicada en la docencia universitaria. Esta herramienta
se conoce como Webquest.

El modelo de Webquest fue desarrollado por Bernie Dodge en 1995, quien lo definió
como una actividad orientada a la investigación donde toda o casi toda la información
que se utiliza procede de recursos de la Web.

Una WebQuest es un instrumento para facilitar el aprendizaje a través de la búsqueda


ordenada de información. En una Webquest se plantea una situación real que se debe
resolver en equipo. A cada integrante se le asigna un rol diferente a través del cual
deberá realizar una tarea específica con la que necesitará revisar información
previamente seleccionada en Internet a través de sitios. La tarea está organizada en
fases con distintas actividades y culminará en un producto con características bien
definidas que resuelve la situación planteada. Pueden fungir como instrumentos para
la evaluación formativa, porque enriquecen el proceso de enseñanza-aprendizaje a
través del uso de recursos e información web. Una Webquest se construye alrededor
de una tarea atractiva que provoca procesos de pensamiento superior. La información
recabada tiene un fin y un porqué. El pensamiento puede ser creativo ó crítico e implicar
la resolución de problemas, enunciación de juicios, análisis o síntesis.

Proponemos el uso de esta tipo de herramientas para que lejos de satanizar y rechazar
la inclusión de las Tics en la educación, éstas contribuyan a optimizar el proceso. El
empleo de las Webquests permite que el alumno elabore su propio conocimiento al
tiempo que lleva a cabo la actividad. Asimismo facilita que el alumno jerarquice y valide
la información de la red navegando por ella con una tarea en mente y que ello redunde
en una más eficaz forma de emplear su tiempo, procesando y transformando la
información, no solo buscándola acrítica y mecánicamente, este es rebasando el
basamento de la información para transformarla en conocimiento. En el anexo de esta
comunicación se propone el esquema inicial de una Webquest para ser
trabajada con alumnos del segundo semestre de la Licenciatura en Sociología de la
Educación, en el área Socio histórica.

A modo de conclusión señalaremos que la revolución multimedial ha llegado para


quedarse, lejos de satanizarla y enumerar sus efectos perniciosos sobre el aprendizaje,
pensemos en el educando del 2021 como un individuo reflexivo, con capacidad de
abstracción, pero son una importante cantidad de recursos informativos muy superior a
la que tuvimos los inmigrantes digitales. La educación es transformación, despeguemos
montados en ella hacia la plena sociedad del conocimiento.

Notas:
1
CASTELLS, M., La era de la información, Siglo XXI, México, v I, p. 27.
2
De hecho aporta el dato de a que en 1972 existían sólo 150 000 computadoras en el
mundo
3
NEGROPONTE, N. Ser digital, Editorial Océano, México, 1995, p. 250
4
www.sociedadinformacion.unam.mx
5
Sitio oficial de la Cumbre Mundial sobre la Sociedad de la Información
6
Ibíd.
7
El término brecha digital o digital divide, pese a su amplia utilización no ha escapado
a la polémica. Ernesto Villanueva, articulista de medios mexicanos afirma que no ha
sido más que vagamente definida, lo que permite entenderla de manera ad hoc a
intereses muy variados.
8
Sitio oficial de la CSI. 2004
9
CROVI, D., Sociedad de la información y el conocimiento. Entre lo falaz y lo posible.
UNAM y La Crujía Ediciones. Buenos Aires, 2004, pp. 17 – 56
10
PEÔN, C., Los Sistemas de Educación Superior en la Sociedad del Conocimiento.
atl.org.mx. 2001
11
KRÜGER, K., www.ub.es, 2000
12
Ibid
13
El gobierno mexicano entró de lleno a enfrentar estos retos con el proyecto
Enciclomedia, proyecto iniciado en el ciclo escolar 2005-2006 basado en una
plataforma que contiene los libros de texto para la escuela primaria en un formato digital
que permite crear hipervínculos entre estas lecciones y los archivos de la Secretaría de
Educación Pública. Para ser implementado cada salón de clases de 5º. y 6º. de primaria
fue equipado con una computadora personal, un pizarrón electrónico y el personal
docente recibió una breve capacitación para el uso del nuevo equipo. El proyecto fue
cuestionado desde varios ángulos, principalmente por pretender ignorar la desigualdad
social imperante en el mapa educativo mexicano
14
CABERO Almenara J., “Nuevas tecnologías, comunicación y educación”. Edutec.
Núm. 1 (disponible en http://edutec.rediris.es). 1996
15
Cfr. Julio Cabero Almenara. Mitos de la sociedad de la información: sus impactos en
la educación

Bibliografía:
• AMADOR, R., (coordinadora) Comunicación educativa y Nuevas Tecnologías. México.
UNAM CISE. México, 1994.
• CABERO, J., “Nuevas tecnologías, comunicación y educación”. Edutec. Núm. 1
(disponible en http://edutec.rediris.es). 1996
• CASTELLS, M., La Era de la Información. La Sociedad Red., Siglo XXI, México, 1996.
• CROVI, D., (Coordinadora), Sociedad de la información y el conocimiento. Entre lo
falaz y lo posible. UNAM y La Crujía Ediciones. Buenos Aires, Argentina, 2004.
• FAINHOLE, B., Nuevas tecnologías de la información y la comunicación en la
enseñanza, Aique Grupo Editor S.A., Buenos Aires 1998.
• KRÜGER, K.,. El concepto de sociedad del conocimiento. www.ub.es. 2000
• IANNI, O., La Sociedad global, Siglo XXI. México, 2002
• NEGROPONTE, N., Ser digital, Editorial Océano, México, 1995
• PEÔN, C., Los Sistemas de Educación Superior en la Sociedad del Conocimiento.
atl.org.mx. 2001
• SANCHO, J., Para una tecnología educativa, Horsori, Barcelona,1994. • SARTORI, G.
Homo videns.. Ed. Santillana. Taurus, Madrid, 1999
Fuente:

Вам также может понравиться