Вы находитесь на странице: 1из 264

INDICE

1. INTRODUCCIÓN
2. OBJETIVOS
2.1. OBJETIVOS GENERALES
2.2. OBJETIVOS ESPECÍFICOS

3. DESARROLLO DEL TRABAJO


3.1. ¿POR QUE LA MARCA LOUIS VUITTON ES LA MARCA MAS VALIOSA DEL
MUNDO?
3.2. ¿COMO DEBE SER UN BUEN JURISTA? CASO CANDIDO CONDE PUMPIDO.
3.3. ¿CUAL ES LA LABOR DE UN BUEN PUBLICIST? CASO LLUIS BASSAT.
3.4. ¿QUE HA CAMBIADO EN EL MUNDO DE LOS DATOS LA
TRANSFORMACION DIGITAL?
3.5. DE LAS 20 PERSONAS MAS PODEROSAS DEL MUNDO, DESCRIBA A SOLO
TRES DE ACUERDO A SU CRITERIO DE IMPORTANCIA.
3.6. DE LOS 14 EQUIPOS DEPORTIVOS MAS IMPORTANTES DEL MUNDO,
DESCRIBA A LOS SIGUIENTES CON DETALLE.
3.6.1. EL REAL MADRID CLUB DE FÚTBOL
3.6.2. EL FÚTBOL CLUB BARCELONA
3.7. ¿POR QUÉ SE DEBE EMPLEAR LA ENSEÑANZA BILINGÚE EN LAS
UNIVERSIDADES MODERNAS?
3.8. ¿COMO SOBRESALEN LAS EMPRESAS DE DATOS? CASO DATA CENTRIC
(ESPAÑA).
3.9. ¿QUE ES LA PRODUCTIVIDAD?
3.10. ¿CON EL BREXIT QUE TIPO DE CAMBIOS SE PROYECTA A FUTURO EN EL
REINO UNIDO?
3.11. ¿POR QUE HOY EN DIA EN LA BOLSA DE VALORES LAS EMPRESAS DE
TELECOMUNICACIONES DOMINAN EL MERCADO?
3.12. ¿EN QUE INSTITUCIONES CONFIAN MAS LOS ESTAUNIDENSES?
3.13. ¿PORQUE AUMENTA LA IMPOTACION DE WHISKY (BOURBON) A NIVEL
MUNDIAL?
3.14. ¿COMO APUNTA HOY EL BILLETE VERDE (DÓLAR) EN EL MERCADO
MUNDIAL?
3.15. ¿SE PUEDE MEDIR LA FELICIDAD?

1
3.16. ¿QUE SIGNIFICA LA MEDICION DEL PIB CON EL CRECIMIENTO
ECONOMICO DE UN PAIS?
3.17. ¿SE PUEDE USAR EL TÉRMINO: FELICIDAD NACIONAL BRUTA (FBN)?
3.18. ¿QUÉ ES UNA ESTRATEGIA PROTECCIONISTA QUE HOY SE APLICA EN
ESTADOS UNIDOS?
3.19. ¿QUÉ ES LO MÁS IMPORTANTE MOSTRAR EN LA INDUSTRIA DE LA
HOTELERÍA?
3.20. ¿QUÉ ES LA FILANTROPÍA Y A QUIENES BENEFICIA?
3.21. ¿QUÉ DEBEN EXIGIR LOS CLIENTES DE LA BANCA PRIVADA?
3.22. ¿CÓMO SE EXPLICAN LAS CRISIS DE CRÉDITO DE LA BANCA EN EL MUNDO
MODERNO?
3.23. ¿CUÁL ES LA VALIDEZ HOY EN DÍA DEL USO MÁS FRECUENTE DE LA
TARJETA DE CRÉDITO EN EL MERCADO?
3.24. ¿EL PROCESO DE INMIGRACIÓN QUE SUCEDE HOY A NIVEL MUNDIAL ES
POSITIVO O NEGATIVO?
3.25. ¿CUÁL ES LA DIFERENCIA ENTRE INMIGRANTE Y MIGRANTE?
3.26. ¿POR QUÉ UN MEDICO DEBE UTILIZAR 3 VARIABLES CON LOS PACIENTES
QUE SON: HUMANISMO, HUMOR Y HUMILDAD?
3.27. ¿POR QUÉ LA MARCA DE GAS RAYBAN ES UNA DE LAS MEJORES DEL
MUNDO?
3.28. ¿POR QUÉ LA MARCA DE ROPA LACOSTE ES LA MÁS CARA Y LA MEJOR
DEL MUNDO?
3.29. ¿CÓMO ES EL DESARROLLO DE LA INDUSTRIA RELOJERA A NIVEL
MUNDIAL?
3.30. ¿CÓMO ES EL DESARROLLO EN EL APOYO SOCIAL QUE DA EL MAYOR
FILÁNTROPO ESPAÑOL ISIDRO FAINE?
3.31. ¿CÓMO SE PERFILAN EN SUS PROYECTOS LOS FILÁNTROPOS A FUTURO
CON LAS NUEVAS GENERACIONES?
3.32. ¿CÓMO BUSCAR CREAR LOS ENTORNOS DEL FUTURO CON LA
DIGITALIZACIÓN?
3.33. ¿QUÉ ES UN FREELANCE?
3.34. ¿POR QUÉ EL GRUPO HOTELERO BARCELÓ HA SIDO EXITOSO?
3.35. ¿CÓMO CONVERTIRSE EN EL MEJOR CHEF DEL MUNDO? CASO JUAN
MARI ARZAK.

2
3.36. ¿CUÁLES SON LAS FUENTES DE ENERGÍA Y CUÁLES SON SUS
PROYECCIONES A FUTURO?
3.37. ¿POR QUÉ EXISTIÓ UNA VARIACIÓN ALTA EN EL PRECIO DEL BARRIL DE
PETRÓLEO A NIVEL MUNDIAL? ¿CUÁL ES SU PRECIO ACTUAL?
3.38. ¿QUÉ ES UNA ECONOMÍA CIRCULAR?
3.39. ¿POR QUÉ LA ENERGÍA DEL GAS VIVE SU EDAD DE ORO?
3.40. ¿CÓMO SE DESARROLLAN HOY LAS FUENTES RENOVABLES DE ENERGÍA
QUE SON LA ENERGÍA EÓLICA Y LA SOLAR?
3.41. ¿POR QUÉ LA EMPRESA JAPONESA DE AUTOS MAZDA BUSCA REDUCIR
LAS EMISIONES DE DIÓXIDO DE CARBONO?
3.42. ¿POR QUÉ LAS EMPRESAS PETROLERAS HAN DECAÍDO FRENTE A LA
PRESENCIA DE LAS ENERGÍAS RENOVABLES?
3.43. ¿CÓMO LAS EMPRESAS DIGITALES (APPLE, FACEBOOK, GOOGLE Y
AMAZON) ESTÁN CAMBIANDO EL MERCADO ENERGÉTICO?
3.44. ¿POR QUÉ EL USO DE DRONES NO ES PARA EL FUTURO, SINO PARA EL
PRESENTE?
3.45. ¿CÓMO APOYAR A LA TRANSICIÓN ENERGÉTICA EN EL MUNDO
MODERNO?
3.46. ¿POR QUÉ EL CHAMPAGNE DOM PERIGÑON ES EL MEJOR DEL MUNDO?
3.47. ¿POR QUÉ HOY EL HAVANA CLUB ES EL MEJOR RON?
3.48. EXPLIQUE EL CONTENIDO DE LO SIGUIENTE:
4. CONCLUSIONES Y RECOMENDACIONES
5. BIBLIOGRAFÍA
6. ANEXOS

3
1. INTRODUCCIÓN

El presente trabajo elaborado de la revista FORBES nos muestra una gran variedad de
artículos internacionales que ocurren en diversos negocios a nivel mundial y la manera en
que afectan la economía, aunque no se muestren muy relacionados entre sí.

Nos muestra un escenario muy interesante de como las grandes empresas van
perfeccionando la calidad y presentación de sus productos, están pendientes de sus
clientes, se adaptan a los cambios y se apoyan en la tecnología y en el marketing digital.

El fuerte proceso de innovación tecnológica que han experimentado las economías


avanzadas durante los últimos años, conjuntamente con los efectos de la globalización
económica y el cambio en los patrones de consumo en los hogares, define una nueva
economía.

El cambio tecnológico se manifiesta en distintos ámbitos de la economía, la inversión de


las empresas y de líderes empresarios en innovaciones tecnológicas de información es
cada vez mayor.

Con la finalidad de profundizar sobre los conocimientos y la importancia del marketing,


hoy en día muchas empresas buscan involucrarse con la nueva tendencia que es la venta
por internet que va revolucionando el mercado.

El contenido que ofrece el marketing digital con el entorno, debe tener interacción con el
público. Las redes sociales están creciendo de manera alarmante en inversión sobre los
métodos de publicidad tradicionales, prácticamente todas las redes de amplia utilización
incorporan ya formulas, métodos y procedimientos para efectuar publicidad efectiva en
ellas.

4
2. OBJETIVOS

Conocer la importancia de la función de organización y método, como herramienta


fundamental de organización y desarrollo de las organizaciones.
Que permite enfrentar con éxito la globalización y competitividad dentro de un marco
de constante cambio mundial.

2.1. OBJETIVOS GENERALES

Analizar las diferentes estrategias y metodologías que utilizan las diferentes


empresas internacionales que llegado al éxito debido a la aplicación y ejecución de
estas, para poder obtener conocimientos sobre la manera de entrar, participar y
permanecer en el mercado y poder elaborar planes estratégicos de mercadeo.
Además de lograr un amplio conocimiento de lo que ocurre en nuestro entorno para
lograr tener una mayor conciencia y así luego no recaer.
También buscar estrategias de mercado para lograr que surjan aquellas empresas
que aún están en declive y logren surgir con estos conocimientos que nos dan estas
empresas con una gran trayectoria tanto económico como lo estatus social.

2.2. OBJETIVOS ESPECÍFICOS

1. Conocer el proceso de la generación de energía a nivel mundial.

2. Conocer las características y la importancia de formar un buen CEO y tener un


buen líder ejecutivo.

3. Tener conocimientos sobre el porqué las empresas buscan ser socias estratégicas
con sus clientes.

4. Dar a conocer la tendencia de la venta por internet y su forma de operar.

5. Entender la importancia de cómo influyen las innovaciones tecnológicas en el


mercado hoy en día.

5
6. Conocer la estrategia de innovación que aplican los empresarios internacionales.

7. Conocer el mercado internacional.

8. Buscar los métodos para llegar al éxito.

9. Tener un conocimiento exacto de la filantropía.

10. Tener un conocimiento exacto de la crisis de Venezuela.

11. Comprender las definiciones básicas que se emplean en organización y métodos.

6
3. DESARROLLO DEL TRABAJO
3.1. ¿POR QUE LA MARCA LOUIS VUITTON ES LA MARCA MAS
VALIOSA DEL MUNDO?

Louis Vuitton se consolida un año más como la marca de lujo más valiosa en el 2018, seguida por
Hermés y Gucci, que se sitúa como la que más crece en el año, según se desprende del ranking
BrandZ de Kantar Millward Brown y WPP.

En concreto, Louis Vuitton, que aparece en el puesto 26 del ranking global, conserva el primer
puesto, gracias a un crecimiento del 41% en el valor de su marca, que asciende a 41.138 millones
de dólares (35.422 millones de euros).

Por su parte, Hermés también repite en la segunda posición con un crecimiento del 20%, por lo
que está valorada este año en 28.063 millones de dólares (24.162 millones de euros).

Gucci, tercera en este ranking de lujo, fue la que más creció en valor en 2018 con un incremento
del 66%, hasta alcanzar los 22.442 millones de dólares (19.319 millones de euros), tras impulsar su
presencia en redes sociales como Instagram para acercar su producto a los 'millenials'.

Por su parte, Yves Saint Laurent se incorpora en 2018 al listado BrandZ de las 10 marcas de lujo
más valiosas del mundo en la décima plaza con un valor de 3.316 millones de dólares (2.854
millones de euros) y aumentando el número de marcas francesas en el ranking a seis.

La consultora ha destacado que el ritmo de crecimiento de la categoría de lujo se ha multiplicado


por siete en el último año, y gracias a una evolución del 28% ha alcanzado un valor de categoría de
133.100 millones de dólares (114.581 millones de euros).

El lujo se ha convertido para los consumidores en una fuente de evasión, emoción y felicidad ante
los acontecimientos mundiales. Además, se ha observado un fuerte incremento en los mercados
asiáticos a medida que ha aumentado el consumo de productos de lujo en estas regiones y las
marcas han implementado campañas de marketing omnicanal más específicas para llegar a este
influyente grupo demográfico.

Louis Vuitton se consolida un año más como la marca de lujo más valiosa en 2018, seguida por
Hermés y Gucci, que se sitúa como la que más crece en el año, según se desprende del ranking
BrandZ de Kantar Millward Brown y WPP.

Vuitton, que aparece en el puesto 26 del ranking global, conserva el primer puesto gracias a un
crecimiento del 41% en el valor de su marca, que asciende a 41.138 millones de dólares (35.422
millones de euros).

Por su parte, Hermés también repite en la segunda posición con un crecimiento del 20%, por lo
que está valorada este año en 28.063 millones de dólares (24.162 millones de euros).

Gucci, tercera en este ranking de lujo, fue la que más creció en valor en 2018 con un incremento
del 66%, hasta alcanzar los 22.442 millones de dólares (19.319 millones de euros), tras impulsar su
presencia en redes sociales como Instagram para acercar su producto a los 'millenials'.

7
Por su parte, Yves Saint Laurent se incorpora en 2018 al listado BrandZ de las 10 marcas de lujo
más valiosas del mundo en la décima plaza con un valor de 3.316 millones de dólares (2.854
millones de euros) y aumentando el número de marcas francesas en el ranking a seis.

El sector del lujo multiplica por siete su crecimiento

La consultora ha destacado que el ritmo de crecimiento de la categoría de lujo se ha multiplicado


por siete en el último año, y gracias a una evolución del 28% ha alcanzado un valor de categoría de
133.100 millones de dólares (114.581 millones de euros).

El lujo se ha convertido para los consumidores en una fuente de evasión, emoción y felicidad ante
los acontecimientos mundiales. Además, se ha observado un fuerte incremento en los mercados
asiáticos a medida que ha aumentado el consumo de productos de lujo en estas regiones y las
marcas han implementado campañas de marketing omnicanal más específicas para llegar a este
influyente grupo demográfico.

Louis Vuitton se hace con la corona de la firma de lujo más valiosa del año con un crecimiento
del 41%.

La reinvención de productos y formatos de comunicación ha sido la tendencia desde hace unos


años en compañías como Louis Vuitton, una de las más innovadoras en este terreno. Snapchat o
Instagram han servido a la firma francesa como escaparate ante los millennials a quienes han
conquistado apostando por la cultura pop a través de experiencias de marca.

Y este reto superado con mucho empeño le ha valido para ocupar el primer puesto de las marcas
de lujo más valiosas del 2018, según el ranking Brandz Top 100 Most Valuable Global Brands 2018
elaborado por Kantar Millward Brown y WPP.

A lo largo del último año, Louis Vuitton ha visto aumentar su valor un 41% hasta los 41.138
millones de dólares, seguido de Hermès que ocupa el segundo puesto con un valor de 28.063
millones de dólares, un 20% más. Gucci, el eterno rival, se queda nuevamente en el tercer lugar,
aunque su valor ha experimentado un notable aumento del 66% y alcanza los 22.442 millones de
dólares gracias al nuevo entorno y lenguaje digital al que se ha podido adaptar. Es así como Gucci
si bien no se queda con el puesto de la marca más valiosa, se hace del primer lugar de la marca
con más crecimiento en 2018.

3.2. ¿COMO DEBE SER UN BUEN JURISTA? CASO CANDIDO CONDE


PUMPIDO.

A sus 35 años, el abogado Cándido Conde-Pumpido podría ser el orgullo de su familia. El tercer
Conde-Pumpido letrado es la versión mejorada de dos Cándidos anteriores: su padre, magistrado
del Tribunal Supremo, y su abuelo, teniente fiscal del mismo órgano. Porque el defensor del juez
Elpidio Silva es, además de abogado, bien parecido. Moreno, con barba y el pelo peinado hacia
atrás, acude a los juicios con trajes asentados y una imagen que no dista mucho a la de su día a

8
día, cuando se quita la toga y pasa de ser el abogado en el punto de mira a un chico «normal».
Cándido jr. jr. -o Cándido III, no sabemos- habló con ABC sobre su parte más personal.

Más allá de sus estudios de derecho en el CEU, de tener «varios posgrados, como un MBA de
Garrigues, un máster en práctica jurídica del IE y seis o siete posgrados más», parte del éxito de
este abogado se lo debe a su abuelo, Cándido I, para que el lector entienda. «He mamado el
derecho desde pequeño en mi familia. Pero yo preparé la carrera con mi abuelo porque me fui a
vivir con ellos a Madrid desde Santiago de Compostela».

La vida laboral de cándido desde de punto de vista personal constituyeron para mí una gran
experiencia. La perspectiva que ofrece la visión del funcionamiento de la justicia desde la atalaya
de la fiscalía general es muy completa y creo que imposible de alcanzar desde ningún otro puesto
de la organización judicial.

3.3. ¿CUAL ES LA LABOR DE UN BUEN PUBLICIST? CASO LLUIS BASSAT.

Luis Bassat es uno de los grandes nombres del negocio publicitario en España. “La publicidad tiene
que servir para vender un producto, para construir una marca ypara hacer algo por la sociedad”,
explica el técnico de publicidad yDiplomado en Ciencias Sociales y Administración de Empresas.
“Cuando hacíamos las campañas de Prenatal y sacábamos una hombre con un niño en brazos,
vendíamosla marca pero también decíamos a los hombres que tenían que ser coparticipes en la
paternidad”.Bassat recomienda -no sólo a publicitarios- pensar antes de actuar.“De esta manera
puedes encontrar ideas que faciliten tu labor”. A esta conclusión llegó con tan solo 17 años.
“Comencé vendiendo televisiones de puerta en puerta porque quería comprarme una moto y
fumar”, sonríe. “Todo el mundo estaba interesado y me dejaba entrar en sus casas hasta que les
decía que el televisor costaba 120 mil pesetas, que era el doble del coste de un coche.

Al tercer día, tomando café en un bar, se me ocurrió preguntarle al dueño como le iba al negocio y
me dijo que los domingos mal. Le planteé instalarle un televisor para que ese día fueran los
vecinos a ver la tele por el precio de un café. Probamos y el bar se llenó. Desde entonces vendía
los televisores en los bares”.

Entrevista a Luis Bassat en Periodista Digital (Septiembre 2014)

¿La creatividad es un don?

“Hay gente que nace con ese don como Mozart pero también se puede desarrollar. Todos somos
capaces de convertir nuestra vida

en más creativa”, explica el también autor el libro “La creatividad”(ed. Conecta),un libro que según
cuenta ha escrito “para que la gente normal piense cada día como mejorar algo”. Se vende bien la
Marca España en el resto del mundo? “Si el producto es bueno la marca es buena. En los últimos
años la marca España ha sufrido porque el producto España ha tenido problemas. Me sorprende
muchísimo como no se hayan buscado ideas para solucionar el problema del paro. Si me dan 6

9
millones de personas con tiempo libre le doy la vuelta al país. Lo que pueden enseñar es un activo
brutal que debería de aprovecharse”.

3.4. ¿QUE HA CAMBIADO EN EL MUNDO DE LOS DATOS LA


TRANSFORMACION DIGITAL?
La transformación digital es uno de esos términos de moda que está en boca de todo el mundo y
como no puede ser de otra manera, también hay una transformación digital en Marketing.

Hay quien asocia a la transformación digital con la tecnología, pero la realidad es que la
transformación digital de las empresas va mucho más allá de la tecnología y afecta a todos los
ámbitos de la empresa.

La primera pregunta sería ¿Por qué es necesaria la transformación digital en Marketing y en


general?

¿Por qué es necesaria la transformación digital?

En mi opinión, y no soy original en esto, la transformación digital no es una opción, sino que es
una obligación sobrevenida. El hecho digital ha cambiado la sociedad y si quieres vender en esta
nueva sociedad es necesario que transformes tu empresa y tu manera de vender.

La tecnología ha cambiado la sociedad y la manera de relacionarse los clientes con las empresas,
por eso es necesario hablar también de transformación digital en Marketing.

Otra nueva realidad es que las redes sociales han cambiado los flujos de información. La
comunicación empresa – clientes ya no es unidireccional, sino que ahora es:

• De la empresa a los clientes.

• De los clientes a la empresa.

• Entre los clientes.

Es decir, la empresa ya no es la controladora de todo lo que se dice sobre ella y de hecho, muchas
veces es más importante lo que se dice de ella al margen de la empresa, que la publicidad que se
lanza para crear una imagen de marca adecuada.

Toda la revolución del big data y la explosión de información que conlleva abre un nuevo mundo
de análisis de la relación con clientes. Actualmente existen empresas que saben aprovechar toda o
parte de esta nueva información a disposición de los departamentos de Marketing de las
empresas y otras empresas que siguen funcionando como siempre. Está claro quien tiene más
posibilidades de triunfar y de subsistir.

En definitiva, como ya decía en mi post de “Marketing y Tecnología ¿Qué ha cambiado y qué no?
La tecnología ofrece nuevas alternativas para cambiar casi todo y el futuro está en manos de los
Martechs.

10
Las organizaciones que ven la transformación digital principalmente como una diferencia de
tecnología sobre la transformación tradicional con ingeniería de procesos de negocio terminarán
perdiendo el poder de la transformación digital.

¿En qué se diferencia la transformación digital de la reingeniería de procesos comerciales?

Un viaje de transformación digital mueve una organización de un mundo definido por el proceso a
un mundo basado en datos. Veamos por qué esto es poderoso y cómo cambia el valor que una
organización ofrece a los clientes y usuarios finales.

Procesos de colapso digital

En el mundo actual, las empresas se construyen mediante procesos, intentando desarrollar


procesos de alto nivel. Six Sigma y otras herramientas están diseñadas para perfeccionar y mejorar
esos procesos para crear eficiencia, enfoque y mejora en la calidad. En contraste a esto, la
transformación digital reduce los procesos que una empresa hace o podría hacer en la actualidad,
automatiza el trabajo que la gente realiza y convierte el proceso en software. Lo que queda son
datos.

Lo digital convierte los procesos en datos. Esto permite a las organizaciones ver su negocio a
través del lente de los datos en lugar del objetivo del proceso. De repente, los datos dejan claro
que la gente importa y que la experiencia del cliente importa. Por ejemplo, en lugar de ver el
servicio al cliente como un conjunto de procesos que inicia el cliente o la organización, son los
datos del cliente los que obligan a la organización a pensar en la experiencia del cliente.

A medida que surgen los datos y la capacidad de asociar esos datos con indicadores o problemas,
una organización puede no ser solo más eficiente sino también cambiar lo que hace. El impacto
comercial que resulta de ver el mundo a través de un lente de datos en lugar de una lente de
proceso es muy poderoso.

Repensando suposiciones

En un mundo basado en datos, una organización puede reconsiderar muchas de sus suposiciones
antiguas. Cuando Airbnb, por ejemplo, se separó de los procesos y se centró en los datos, se dio
cuenta de que la empresa no necesita poseer activos físicos (hoteles). Los aspectos de un negocio
hotelero que lo hicieron competitivo en un mundo impulsado por procesos se paralizaron en un
mundo impulsado por los datos. Las personas que tienen apartamentos en excelentes ubicaciones
son una opción diferente a los hoteles y ofrecen un valor diferente en la experiencia del cliente.

Al repensar los viejos supuestos sobre un negocio, podemos llegar a los diferentes lugares donde
el valor u oportunidades surgen de forma diferente al mundo definido por el proceso.

Otro ejemplo de replanteamiento de suposiciones en un mundo basado en datos es el de los


procesos de recursos humanos. Las empresas desarrollaron la experiencia de sus empleados en
torno a los procesos de recursos humanos que prestan servicio a los empleados, como la nómina
de sueldos, los beneficios, las comunicaciones de los empleados y el reclutamiento. Cuando
pasamos a una experiencia digital y automatizada, los datos centran la atención en la experiencia
del empleado. En lugar de preguntar qué hace la organización por un empleado, los datos
muestran las necesidades y lo que está sucediendo con el empleado.

11
La velocidad es la nueva moneda en los negocios. Las organizaciones deben ser rápidas a la hora
de cumplir con las necesidades o expectativas de los clientes y empleados en un mercado
competitivo. No hay atajos en la transformación digital para alcanzar esta velocidad. Pero a
medida que una organización se adentra cada vez más en un mundo automatizado definido por
software, se mueve cada vez más rápido porque surgen los datos y sus importantes asociaciones.
Eso permite la transformación de lo que hace la empresa.

En un mundo impulsado por procesos, los procesos deben ser rutinarios y permitir obtener de
manera consistente el resultado definido. La transformación digital transforma los procesos, lo
que hace que sea más rápido y más confiable concentrarse en lo que se debe hacer en lugar de
quedar atrapado en el esfuerzo de obtener los procesos correctos.

Un mundo basado en datos permite entregar una experiencia de cliente completa, "a tiempo y en
su totalidad". Desde la experiencia del cliente, no es la rapidez con que la organización responde el
teléfono, sino la rapidez con que el cliente puede completar un pedido. La experiencia y
satisfacción del cliente radica en el hecho de que el cliente no necesita múltiples conversaciones
con la organización. La necesidad de una reunión pueden hacerse rápidamente y hacerse una sola
vez

Las mismas expectativas de experiencia se aplican a los empleados. En un mundo impulsado por
procesos, un vendedor necesita asegurarse de que la compañía calcula las comisiones de manera
adecuada mientras que en un mundo basado en datos, el empleado puede ver la información.

En un mundo basado en datos, una organización puede comprender el contexto de todas las
interacciones con un cliente, empleado o usuario final y si la interacción traerá frustración o
deleite a esa persona.

En un mundo basado en datos, una organización tiene el contexto completo de las expectativas de
los clientes, empleados o usuarios finales. Por lo tanto, puede cambiar drásticamente dónde está
el valor. Y puede cambiar la calidad de lo que hace, así como hacerlo a tiempo y por completo,
entregando el resultado que el cliente o empleado desea.

Cómo pueden los datos impulsar la transformación digital.

El Internet of Things (IoT) hace posible que tengamos hogares inteligentes, fábricas inteligentes y
ciudades inteligentes. Los vehículos autónomos están empezando a cambiar la industria del
transporte. La inteligencia artificial y el machine learning permiten enfoques predictivos para la
toma de decisiones e impulsa el conocimiento del negocio.

Esta transformación digital que barre las industrias por sorpresa no sería posible sin datos. Los
datos son los habilitadores de nuevas tecnologías y soluciones. Los datos son donde se derivan los
conocimientos empresariales importantes y procesables. Sin embargo, la mayoría de los ejecutivos
y tomadores de decisiones están preocupados por la calidad de los datos de los que dependen sus
soluciones y conocimientos. Muchas empresas y tomadores de decisiones no entienden qué
constituye información de calidad y cómo se puede obtener, generar, recopilar y utilizar.

12
Los datos, o más específicamente, los datos de calidad, son el diferenciador crítico que impulsa la
transformación digital y lo que constituye información de calidad.

Los datos optimizan los canales de venta

El potencial para llegar a nuevos clientes es un factor crítico en la adopción de la digitalización.


Pero la digitalización de los canales de venta o la transformación digital es simplemente una
respuesta a las preferencias cambiantes de los clientes. Por ejemplo, los usos generalizados de
teléfonos inteligentes y velocidades de internet más rápidos cambiaron la forma en que los
consumidores compran productos y hacen uso de los servicios. Las empresas debían responder
transformando sus canales de venta y agregando sitios web de comercio electrónico y aplicaciones
móviles a sus canales tradicionales, como tiendas físicas.

Los datos son clave para entender a los clientes y sus preferencias. Los datos estructurados, como
los que provienen de los sistemas de CRM, ayudan a las organizaciones a generar información
sobre sus clientes en función de sus compras anteriores y transacciones históricas. Las
organizaciones también pueden recopilar datos desestructurados de los clientes de las redes
sociales y escuchar lo que sus clientes quieren a través de sus publicaciones, comentarios, y
sentimientos online. Esta mayor comprensión permite a las organizaciones optimizar sus
estrategias de canales de ventas para adaptarse a las necesidades y preferencias de sus clientes.

Además, los datos de los clientes ayudan a las organizaciones a adaptar sus canales de venta para
servicios y compromisos más personalizados. Por ejemplo, el historial de compras de un cliente le
permite a una organización darle a ese cliente algunas recomendaciones personalizadas basadas
en sus acciones pasadas, maximizando así las oportunidades de ventas cruzadas y ventas
adicionales.

Los datos impulsan la innovación y los ingresos

Otra clave para la adopción de la digitalización es la innovación de productos e ingresos. La


transformación digital permite a las organizaciones crear productos que los clientes desean en
lugar de crear productos y forzar que a los clientes para que los compren.

Los datos sobre cuándo, cómo, dónde y por qué se utilizan los productos brindan a los ingenieros
de productos, diseñadores y fabricantes información sobre cómo mejorar e innovar sus productos.
Por ejemplo, una compañía usó la escucha social para entender por qué sus ventas estaban
cayendo. Al escuchar y analizar los sentimientos no estructurados de sus clientes en Facebook y
Twitter, descubrieron que un producto competidor presentaba una nueva funcionalidad de la que
carecía. Cuando se analizaron los datos estructurados en sus sistemas de CRM, se reveló la misma
razón por la que los clientes abandonaban el producto. La compañía respondió agregando esa
misma función a su producto y sus ventas se recuperaron. Para crear productos verdaderamente
innovadores, las empresas deben analizar los datos y encontrar las brechas entre lo que los
clientes quieren y lo que ellos y otras compañías ya están ofreciendo.

Además de innovar con productos nuevos y existentes, los datos ayudan a las organizaciones a
descubrir y capturar nuevas oportunidades. Los datos permiten a las organizaciones predecir las
tendencias, desde los patrones de gasto de los consumidores hasta las tendencias

13
macroeconómicas, permitiendo a las organizaciones agrupar sus recursos y colocarse en la mejor
posición para ser los primeros en moverse en los mercados emergentes y futuros.

Los datos mejoran la eficiencia

A medida que el panorama empresarial se vuelve cada vez más competitivo, son cada vez más las
empresas que no pueden permitirse las ineficiencias que les cuestan tiempo y dinero. Impulsada
por los datos, la transformación digital permite a las organizaciones, especialmente aquellas con
activos de alto valor, mejorar la eficiencia operativa.

Por ejemplo, cada vez son más los aviones que están siendo equipados con sensores que miden el
rendimiento operativo. Un único avión puede estar equipado con sensores que pueden generar 20
terabytes de datos después de una hora de vuelo. Esto permite a las aerolíneas elaborar planes de
mantenimiento preventivo y extender la vida útil de sus aviones. Lo mismo ocurre con las
empresas de fabricación. Los datos reunidos por sensores en máquinas y otros equipos de la
fábrica les permiten determinar su propio programa de mantenimiento y alertar automáticamente
a la cadena de suministro y a los ingenieros de servicio para garantizar que se realice el servicio
correcto y que el personal adecuado y las piezas adecuadas lleguen en el momento correcto.

Los datos también permiten a las organizaciones optimizar la utilización de sus activos. El análisis
de datos históricos proporciona a los fabricantes información sobre la configuración óptima del
equipo, como temperatura, presión, electricidad y carga de trabajo. También ayuda a los
fabricantes a predecir la demanda de sus productos, lo que les permite realizar procedimientos de
mantenimiento críticos durante períodos de baja demanda, de modo que las interrupciones se
pueden prevenir durante períodos de gran demanda.

3.5. DE LAS 20 PERSONAS MAS PODEROSAS DEL MUNDO, DESCRIBA A


SOLO TRES DE ACUERDO A SU CRITERIO DE IMPORTANCIA.

Donald Trump

Donald John Trump (pronunciado en inglés: [ˈdɒnəld dʒ͡ ɒn trʌmp]; Nueva York, 14 de junio de
1946) es el 45.º presidente de los Estados Unidos desde el 20 de enero de 2017.2 Antes de entrar
en la política, fue un empresario y personalidad televisiva.

Nacido y criado en un barrio del borough neoyorquino de Queens llamado Jamaica, Trump obtuvo
el título de bachiller en economía en la Wharton School de la Universidad de Pensilvania en 1968.
En 1971, se hizo cargo de la empresa familiar de bienes raíces y construcción Elizabeth Trump &
Son, que más tarde sería renombrada como Trump Organization.34 Durante su carrera
empresarial, Trump ha construido, renovado y gestionado numerosas torres de oficinas, hoteles,
casinos y campos de golf. Poseyó los concursos de belleza Miss USA y Miss Universo desde 1996
hasta 2015, y ha prestado el uso de su nombre en la marca de varios productos. De 2004 a 2015,
participó en The Apprentice, un reality show de NBC. En 2016, Forbes lo enumeró como la 324.ª
persona más rica del mundo (113.ª en los Estados Unidos), con un valor neto de 4500 millones de

14
dólares.1 Según las estimaciones de Forbes en febrero de 2018, es la persona más rica del mundo
en el puesto 766, con un valor neto de 3100 millones de dólares.5

Trump buscó la nominación presidencial del Partido Reformista en 2000, pero se retiró antes de
que comenzara la votación. Consideró postularse para el cargo como republicano para las
elecciones de 2012, pero finalmente decidió no hacerlo. En junio de 2015, anunció oficialmente su
candidatura para las elecciones de 2016, y se convirtió rápidamente en el favorito entre los
diecisiete candidatos en las primarias republicanas. Sus rivales hacia el final suspendieron sus
campañas en mayo de 2016, y en julio fue nominado en la Convención Republicana junto con Mike
Pence como su compañero de fórmula. Su campaña recibió una cobertura mediática sin
precedentes y gran atención internacional. Muchas de sus declaraciones en las entrevistas, en las
redes sociales y en las manifestaciones de la campaña eran polémicas o consideradas falsas.67

Ganó las elecciones generales del 8 de noviembre de 2016 contra la rival demócrata Hillary
Clinton, y accedió a la presidencia el 20 de enero de 2017 a la edad de 70 años, por lo que ha sido
el presidente con mayor edad en asumir este cargo en su país; asimismo, es el presidente con la
mayor riqueza, el primero sin servicio militar ni cargo político ejercido anteriormente y el quinto
en haber ganado por los votos del colegio electoral pese a perder la elección por voto popular.8

En política interna, Trump ordenó una prohibición de viajar a ciudadanos de varios países de
mayoría musulmana, citando preocupaciones de seguridad;9 una versión revisada de la
prohibición fue implementada después de desafíos legales.10 Firmó la legislación de reforma
tributaria que rebaja las tasas para beneficio de los ricos,11 rescindió la disposición del mandato
de seguro individual de la Ley de Protección al Paciente y Cuidado de Salud Asequible12 y abrió el
Refugio Ártico para la extracción de petróleo.13 También promulgó una derogación parcial de la
Ley Dodd-Frank que había impuesto restricciones más estrictas a los bancos después de la crisis
financiera de 2008.14 Hizo docenas de nombramientos judiciales, incluido Neil Gorsuch a la Corte
Suprema.1516

En política exterior, Trump ha seguido su agenda de America First (América Primero), una política
populista que enfatiza el nacionalismo estadounidense.1718 Retiró a los Estados Unidos de las
negociaciones comerciales del Acuerdo Transpacífico de Cooperación Económica19 y el Acuerdo
de París sobre cambio climático,20 revirtió parcialmente el deshielo cubano,21 reconoció a
Jerusalén como la capital de Israel22 y se retiró del acuerdo nuclear de Irán.23 Impuso aranceles
de importación a diversos productos de China, Canadá, México y la Unión Europea.24

Después de que Trump destituyese al director del FBI James Comey,25 el Departamento de
Justicia nombró a Robert Mueller asesor especial para investigar la coordinación o los vínculos
entre la campaña de Trump y el gobierno ruso en su interferencia electoral.26 Trump ha negado
repetidamente las acusaciones.27

Trump nació el 14 de junio de 1946 en el barrio neoyorquino de Queens. Fue uno de los cinco hijos
de Mary Anne MacLeod y de Fred Trump, que se casaron en 1936. Su hermano mayor, Fred, murió
en 1981 a los 43 años.28 Su madre era una inmigrante escocesa nacida en la isla de Lewis, en el
norte de las Hébridas Exteriores,29 y sus abuelos paternos eran inmigrantes alemanes.30 Su
abuelo, Frederick Trump (de nacimiento Friedrich Drumpf), llegó de Alemania a Estados Unidos en
1885, y adquirió la nacionalidad en 1892. Se casó con la abuela de Donald, Elisabeth Christ31 en

15
Kallstadt, con quien tuvo tres hijos. Uno de estos fue el inventor, físico e ingeniero eléctrico John
G. Trump.

Mientras vivía en Jamaica Estates, asistió al the Kew-Forest School en Forest Hills, Queens, junto a
algunos de su hermanos. A los 13 años, tras tener problemas de conducta que llevaron a su salida
de la escuela, sus padres lo enviaron a la Academia Militar de Nueva York (NYMA).32

Trump fue a la Universidad de Fordham en el Bronx durante dos años, continuando sus estudios
en la Escuela de Negocios Wharton de la Universidad de Pensilvania, porque Wharton tenía uno de
los pocos programas de estudio dedicados al sector inmobiliario,33 donde se graduó en 1968 con
un Bachelor of Science en Economía.34

Carrera en los negocios

Comenzó en la empresa de bienes raíces de su padre,35 Elizabeth Trump and Son,36 focalizada en
la vivienda de clase media para arrendar en Brooklyn, Queens y Staten Island. Uno de sus primeros
proyectos, todavía en la universidad, fue la revitalizacion del complejo de apartamentos de
Swifton Village en Cincinnati, en el estado de Ohio, que su padre había comprado por 5,7 millones
de dólares en 1962

Mark Zuckerberg

Mark Elliot Zuckerberg (White Plains, Estados Unidos; 14 de mayo de 1984) es un programador y
empresario estadounidense, conocido por ser el fundador de Facebook. Para desarrollar la red,
Zuckerberg contó con el apoyo de sus compañeros de Harvard, el coordinador de ciencias de la
computación y sus compañeros de habitación Eduardo Saverin, Dustin Moskovitz, y Chris Hughes.
A la fecha abril de 2018 es el personaje más joven que aparece en la lista de multimillonarios de la
revista Forbes, con una fortuna valorada en $ 73,200 millones de dólares, clasificándose como la
quinta persona más rica del mundo.1

Desde 2010, la revista Time ha nombrado a Zuckerberg entre las 100 personas más ricas e
influyentes del mundo como parte de su Persona del Año. A mediados de 2018 Forbes lo colocó
como la 5 persona más rica del mundo.2

Zuckerberg nació en 1984 en White Plains, Nueva York. Él es el hijo de Karen (Kempner), una
psiquiatra, y Edward Zuckerberg, un dentista. Sus antepasados vinieron de Alemania, Austria y
Polonia. Él y sus tres hermanas, Randi, Donna y Arielle, fueron criados en Dobbs Ferry, Nueva York,
una pequeña aldea del condado de Westchester cerca de 21 millas de norte de Midtown
Manhattan. Zuckerberg fue criado judío y tuvo su Bar Mitzvah cuando cumplió 13 años.

En la High School secundaria de Ardsley, Zuckerberg sobresalió en clases. Se trasladó a la escuela


privada exclusiva Phillips Exeter Academy, en Nueva Hampshire, en su tercer año, donde obtuvo
premios en ciencias (matemáticas, astronomía y física) y estudios clásicos. En su juventud, también
asistió al campamento de verano Johns Hopkins Center for Talented Youth. En su solicitud
universitaria, Zuckerberg afirmó que podía leer y escribir francés, hebreo, latín y griego antiguo.
Era capitán del equipo de esgrima.

Estudió en el Colegio Ardsley y posteriormente en la Academia Philips Exeter. En 2002, con 18


años, lanzó con su amigo Adam D'Angelo, ex-jefe técnico de Facebook, Synapse Media Player. El

16
éxito fue notable debido a la habilidad del programa de reproducir canciones basándose en la
preferencia, y selecciones previas, del usuario. Diferentes compañías de software, como Microsoft
o Apple, quisieron obtener los derechos, pero finalmente no se firmó ningún contrato al respecto.
Por el contrario Mark subió a la red su aplicación, donde los usuarios la podían descargar de forma
gratuita.3

Mark Zuckerberg con una sudadera de Harvard.

Ingresó en Harvard en 2003 y formó parte de la fraternidad Alpha Epsilon Pi. Empezó a desarrollar
programas como el Coursematch, que permitía a los estudiantes ver la lista de otros compañeros
de clase, o una web en la que se podía calificar a las estudiantes de la universidad, Facemash.com.
Por ello, el Departamento de Servicios Informáticos de Harvard llevó a Zuckerberg ante la
administración con cargos de infracción de la seguridad informática y violación de las políticas de
privacidad y de propiedad intelectual.4

La Universidad de Harvard insistió en que Zuckerberg había hackeado el internet de la universidad


para alterar imágenes de los estudiantes sin autorización y para su propio beneficio,[cita
requerida] algo que era falso.[cita requerida] En una biografía no autorizada sobre él, se sugiere
que Zuckerberg, al sentirse rechazado como estudiante, hizo pública la lista completa de las
imágenes de sus compañeras universitarias, las cuales extrajo del Directorio de estudiantes.

Zuckerberg declaró que pensaba que la información debía ser libre y abierta al público. Las
acciones tomadas por el Consejo Administrativo de Harvard en este asunto no se hicieron
públicas. En 2004 Zuckerberg creó Facebook y se ausentó un año de la Universidad, hasta que un
año después abandonó la carrera.

Más tarde volvió a retomar sus estudios y en 2017, finalmente se graduó en Ciencias de la
Computación, dando el discurso de cierre en la Universidad de Harvard.

Artículo principal: Facebook

Venta parcial

El 24 de octubre de 2007, Facebook y Microsoft anunciaron que este último había comprado el 1,6
% de las acciones de la red social. Algunos han mencionado que dicho contrato revalorizó a
Facebook en 1500 millones de dólares, aproximadamente. [cita requerida] Sin embargo, una
extensión de las relaciones entre ambos hasta 2011incrementaría el precio.

Feed de noticias

El 5 de septiembre de 2006 Facebook lanzó un feed de noticias, una lista de lo que hacen los
amigos en el sitio. Zuckerberg llegó a ser blanco de críticas porque algunos dicen que Feed noticias
es innecesaria y una herramienta para conversaciones en línea. Tres días después, Zuckerberg
respondió en una carta abierta a la comunidad de Facebook pidiendo disculpas por la indeseada
herramienta y ofreciendo nuevas opciones de privacidad, pero defendiéndola, así como su
convicción en el flujo libre de la información. Mark sostuvo que la herramienta es útil para ser
utilizada entre amigos y que en las opciones de privacidad se puede encontrar la manera de
bloquear lo que el usuario no quiere que sea conocido por otros.

17
Plataforma Facebook

El 24 de mayo de 2007 Zuckerberg, durante la Conferencia G8, anunció el lanzamiento de la


plataforma de Facebook, un ambiente de desarrollo para construir aplicaciones sociales dentro de
Facebook. Después del lanzamiento de la Plataforma de Facebook, tanto él, como la red social
comenzaron a ser ampliamente populares en la prensa, incluyendo una historia escrita por
Newsweek5 en agosto.

Robo de idea

Los hermanos Tyler y Cameron Winklevoss, dos campeones de remo, y su amigo Divya Narendra
estudiaron en Harvard, tal como narra la película The Social Network (2010). Ellos le pidieron a
Zuckerberg que los ayudara a crear una red social para los estudiantes de la referida universidad.
El trío, que fundó una compañía llamada ConnectU, asegura que Zuckerberg les robó la idea y que
deliberadamente retrasó el proyecto mientras trabajaba con las ideas robadas para su propio
proyecto, Facebook. Una denuncia legal fue hecha en 2004 alegando una violación del contrato,
apropiación de secretos comerciales y robo de los derechos intelectuales, así como robo de
códigos. Mark declaró que no había sido firmado ningún contrato y que por lo tanto él no era un
socio. Dijo además que lo que estaban buscando era un daño económico.6 En febrero del 2010
hubo una alianza entre ConnectU y MySpace para superar el número de usuarios y así catalogarse
como la red social de mayor demanda.

Desde su presentación original en Massachusetts, la demanda fue desestimada sin ningún


perjuicio el 28 de marzo de 2007, pero nunca se dictó una sentencia. Fue retomada muy pronto
ante la Corte Distrital de los EE. UU. en Boston y una audiencia preliminar fue programada para el
25 de julio de 2007.7 En la audiencia, el juez dijo al demandante de ConnectU que la demanda no
era suficiente y les dio la opción de volverla a hacer.

Vida personal

Tiene una relación desde el año 2005 con Priscilla Chan, una estudiante de origen chino que
estudiaba medicina en la Universidad Harvard y se habrían conocido en esta. La pareja contrajo
matrimonio el 19 de mayo de 2012, en una ceremonia celebrada en su casa ubicada en Palo Alto,
California.8

Mark se confiesa vegetariano y declara que de esta manera come de forma mucho más saludable:

Mucha gente olvida que un ser vivo tiene que morir para que puedas comer carne. Este año me he
convertido básicamente en vegetariano, ya que la única carne que consumo es la de los animales
que yo mismo he matado. Hasta ahora esto ha sido una buena experiencia. Estoy comiendo
mucho más saludable y he aprendido mucho sobre agricultura sostenible y crianza de animales.
Comencé a pensar en esto el año pasado. Cuando tuve un asado de cerdo en mi casa. Las personas
comenzaron a confesarme su amor por la carne de cerdo, sin ponerse a pensar que antes de eso,
el cerdo tenía vida. Esto lo pensé como una irresponsabilidad. No tengo ningún problema con la
gente que come carne, pero creo que deberían de asumir la responsabilidad y estar agradecidos
por lo que comen tratando de ignorar de dónde viene.9

Reconocimientos

18
• Según la revista Vanity Fair, el famoso fundador de Facebook se mostró en el primer
puesto de las personas más influyentes del mundo de la tecnología en el año, superando a grandes
como el fallecido Steve Jobs, fundador de Apple Inc., y Serguéi Brin, Larry Page, fundadores de
Google.

• Mark Zuckerberg también fue elegido como Personaje del año en 2010.

Aparición en medios

Zuckerberg en Los Simpson

Zuckerberg apareció en el 2º episodio de la vigésimo segunda temporada de Los Simpson. El


episodio se llama Loan-a-Lisa y fue transmitido el 3 de octubre de 2010 en los Estados Unidos. En
el episodio, Lisa invierte en la nueva aventura empresarial de Nelson, pero se da cuenta de que el
éxito instantáneo de su amigo hace que éste abandone la escuela. Lisa le presenta a Mark
Zuckerberg, solo para descubrir que él también abandonó la Universidad.

The Social Network

Artículo principal: The Social Network

Es una película dirigida por David Fincher que fue estrenada el 1 de octubre de 2010 en Estados
Unidos. Está basada en el libro Multimillonarios por accidente, de Ben Mezrich, y narra la historia
de Facebook. Jesse Eisenberg interpreta a Mark Zuckerberg. La primera exhibición de la película se
realizó al comenzar la cuadragésima octava edición del Festival de Cine de Nueva York el 24 de
septiembre de 2010.

Bill Gates

William Henry Gates III (Seattle, 28 de octubre de 1955),1 conocido como Bill Gates, es un
empresario, informático y filántropo3 estadounidense, cofundador de la empresa de software
Microsoft junto con Paul Allen.4 Su fortuna está estimada en 95.100 millones de dólares según la
revista Forbes, hecho que le define como el segundo hombre más rico del mundo.5 Antes del
estallido de la burbuja de las punto com, su patrimonio neto ascendió a 136 000 millones de
dólares, lo que lo convirtió en la décima persona más rica en toda la historia de la humanidad.6

Es uno de los empresarios más conocidos que surgieron durante los inicios de los ordenadores
personales. Ha sido criticado por sus tácticas de negocios, que han sido consideradas
anticompetitivas, una opinión que en algunos casos ha sido mantenida por numerosas sentencias
judiciales.7

Está casado con Melinda Gates,1 con quien comparte la presidencia de la Fundación Bill y Melinda
Gates, dedicada a reequilibrar oportunidades en salud y educación a nivel local, especialmente en
las regiones menos favorecidas,8 razón por la cual han sido galardonados con el Premio Príncipe
de Asturias de Cooperación Internacional2006.3

William Henry Gates III nació el 28 de octubre de 1955. Es hijo de William H. Gates, Sr. (William
Henry Gates II), un destacado abogado, y de Mary Gates, profesora de la Universidad de

19
Washington y directora del First Interstate Bank. Con ellos y su hermana, dos años mayor, vivió en
la ciudad de Seattle, en el estado de Washington. Hasta sexto grado fue alumno regular de un
colegio público.

Cursó estudios en la escuela privada de élite de Lakeside, en Seattle. Esta escuela tenía ya una
computadora en el año 1968, lo que le permitió a Gates tomar contacto con la máquina y
aficionarse a la informática. También en Lakeside conoció a Paul Allen, con quien más tarde
fundaría Microsoft.

El 4 de abril de 1975, siendo aún estudiante en la Universidad de Harvard crea la empresa de


software Microsoft. En 1976 abandonó la universidad y se trasladó a Albuquerque, sede de MITS,
para pactar con esa empresa la cesión del 50 % del lenguaje para computadoras Basic. Al año
siguiente, se enteró del éxito de la empresa Apple y de que necesitaban un intérprete de Basic.

En 1980, se reunió con representantes de IBM en Seattle. Ellos querían contar con el sistema
operativo CP/M. Él les comento de la existencia de una versión adaptada llamada QDOS u 86DOS,
comprometiéndose a conseguir una licencia no exclusiva a fin de adaptarla. Con ello, consiguió
venderles la idea del sistema operativo MS-DOS, sin contar con esta, comprando la 86DOS a muy
bajo precio al joven programador Tim Paterson. IBM necesitaba ese sistema operativo para
competir con Apple, razón por la cual la negociación fue flexible. Microsoft quiso los derechos de
licencia, mantenimiento, e incluso la facultad de vender el DOS a otras compañías. IBM aceptó,
considerando que lo que produciría dividendos sería el hardware y no el software. Unos días
después, Microsoft compró los derechos de autor del QDOS a Tim Paterson, que trabajaba para la
Seattle Computer Products, por 50 000 dólares, que vendió a IBM como MS-DOS (Microsoft DOS).
Lo que llama poderosamente la atención fue que IBM no comprara el MS-DOS sino que decidiera
pagar a Microsoft un canon por cada copia que se vendiera junto con un IBM-PC.[cita requerida]

Consciente de la importancia del entorno gráfico que había mostrado Apple (originalmente la
interfaz gráfica y el "ratón" fueron desarrollados por Xerox PARC) en su ordenador Lisa, se propuso
conseguir también el entorno gráfico y el "ratón" para operarlo. Mientras, Steve Jobs, fundador de
Apple, iniciaba el desarrollo del Macintosh, Bill Gates visitó Apple. Ofrecía mejorar sus hojas de
cálculo y otros programas. Amenazaba con vender su material informático a IBM, con lo que
obtuvo una alianza Apple-Microsoft.[cita requerida] Microsoft obtuvo legalmente la tecnología del
entorno gráfico y del ratón, y sacó al mercado Microsoft Windows, como directo competidor de
Macintosh.

A comienzos del segundo milenio, el sistema operativo Microsoft Windows (en todas sus
versiones) se utiliza en la mayor parte de ordenadores personales del planeta.4

En 2009, Gates y Warren Buffett fundaron The Giving Pledge, por la cual ellos y otros
multimillonarios se comprometen a donar al menos la mitad de su riqueza a la filantropía.11

Fundación Bill y Melinda Gates

El 16 de junio de 2006 hizo pública su intención de abandonar sus labores diarias al frente de
Microsoft hacia el 2008 para dedicarse por completo a su fundación.1213 La transición de
responsabilidades fue progresiva para evitar afectar el desarrollo diario de la empresa,
continuando como Presidente Honorario de la misma. El 27 de junio de 2008 abandonó sus

20
labores al frente de Microsoft cediendo el control de la empresa a Steve Ballmer. Bill Gates dedica
un 70 % de su tiempo a la Fundación Bill y Melinda Gates y el otro 30 % a la empresa.14

Donaciones personales

En 1999, Gates donó 20 millones de dólares al Massachusetts Institute of Technology (MIT) para la
construcción de un laboratorio de computación llamado "William H. Gates Building", diseñado por
el arquitecto Frank Gehry. Aunque Microsoft había dado anteriormente apoyo financiero a la
institución, esta fue la primera donación personal recibida de Gates.15

Eventos deportivos de caridad

El 29 de abril de 2017, Bill Gates se asoció con la leyenda del tenis suizo Roger Federer para
participar en el Match for Africa 4, un partido de tenis no competitivo que se disputará en el Key
Arena de Seattle con todas las entradas agotadas. El evento se realizó en apoyo a los esfuerzos de
caridad de la Fundación Roger Federer en África. Federer y Gates jugaron contra John Isner, el
mejor jugador estadounidense durante gran parte de esta década, y Mike McCready, el guitarrista
principal de Pearl Jam. Gates y Federer ganaron el partido por 6-4. Al año siguiente, Gates y
Federer volvieron a jugar en el Match for Africa 5 el 5 de marzo de 2018 en el SAP Center de San
José (California). Sus oponentes fueron Jack Sock, uno de los mejores jugadores estadounidenses y
ganador del Grand Slam en dobles, y Savannah Guthrie, co-presentadora del programa Today de la
NBC. Gates y Federer registraron su segunda victoria en el partido juntos por 6-3 y el evento
recaudó más de $2.5 millones.16

En 1985 Gates fue nombrado uno de los «50 solteros más codiciados» por Good Housekeeping.
Está casado con Melinda French desde el 1 de enero de 1994 y tienen tres hijos: Jennifer Katharine
(n. 1996), Rory John (n. 1999) y Phoebe Adele (n. 2002). La familia reside en su casa en la ladera de
una colina con vistas al lago Washington, en Medina. En marzo de 2014, en una entrevista de la
revista Rolling Stone, Gates señaló que, en cuanto a su fe, «los sistemas morales de la religión,
creo, son super importantes. Hemos criado a nuestros hijos de una manera religiosa». En la misma
entrevista, Gates dijo: «Creo que tiene sentido creer en Dios, pero exactamente qué decisión en tu
vida haces de manera diferente a causa de ello, no lo sé».17 En otra entrevista a principios de
2014, Gates afirmó que si el cielo existiera él estaría «gratamente sorprendido».18 Según otras
fuentes, Gates (que nació en el seno de una iglesia protestante), es ahora fuertemente
agnóstico19

Bill Gates es vegano.20 Desde 2008, año en que dejó de dirigir Microsoft, ha participado en
algunos proyectos para poder difundir este estilo de vida. En este sentido, junto a Peter Thiel
(cofundador de la empresa PayPal), ha respaldado la creación de huevos artificiales a base de
plantas fáciles de cultivar.21 También aseguró, en una ocasión previa, que «el futuro de la carne es
vegano», lo cual va en sintonía con una propuesta que había hecho para crear semillas
transgénicas que tuviesen sabor a carne.

Desde 2007 Bill Gates ocupaba el segundo lugar en la lista anual de las mayores fortunas
personales realizada por la revista Forbes, detrás del empresario mexicano Carlos Slim, pero
debido a fluctuaciones en el patrimonio de estos dos magnates, sus fortunas quedaron en 72 700 y

21
72 100 millones de dólares respectivamente, según el Bloomberg Billionaires Index de mayo de
2013. En 1994, adquirió un manuscrito de Leonardo da Vinci (el Códice Hammer, también llamado
Códice Leicester) por 30 millones de dólares.

3.6. DE LOS 14 EQUIPOS DEPORTIVOS MAS IMPORTANTES DEL


MUNDO, DESCRIBA A LOS SIGUIENTES CON DETALLE.

3.6.1. El Real Madrid Club de Fútbol

ORÍGENES DEL FÚTBOL EN MADRID:

El origen del fútbol en la capital de España es más antiguo del que los libros de historia
sobre este deporte tradicionalmente se han encargado de señalar aunque, como no podía
ser de otra manera, tiene su origen en ciudadanos británicos. La primera piedra en esta
disciplina fue depositada alrededor de mayo de 1879 y además, de forma compartida con
otra práctica, la del cricket, deportes ambos con gran seguimiento en el Reino Unido al
tratarse el cricket del deporte nacional en aquellos momentos y el fútbol, la disciplina con
mayor progresión y auténtica concentradora de masas. Estos británicos compartieron sus
inquietudes con parte de la más selecta alta sociedad instalada en la sede del Gobierno
nacional, constituyéndose en torno al mes de noviembre el Cricket y Foot-ball Club de
Madrid, una asociación producto del acuerdo de voluntades entre ciudadanos de los dos
países que tomó como referencia idéntica forma al que seguían las asociaciones británicas:
una junta directiva con cargos responsables donde había officers y un Comité, regulándose
su funcionamiento a través de un Reglamento.

Este protoclub madrileño, el primero constituido en España, donde una de sus dos
finalidades era jugar al fútbol siendo además las que le dieron nombre, no tuvo una
pervivencia excesiva y pasó desapercibido al apenas ser publicitado, pero entre su legado
nos dejó la siguiente directiva: Presidente: D. José Figueroa y Torres; Vicepresidentes: Sr.
Greentul y Bertrán de Lis (D. Álvaro); Directores: D. Juan White y Conde de Villanueva;
Contador: Sr. D. Leonardo de Fesser; Tesorero: Sr. Velasco; y Secretarios: D. Rafael de
Echagüe y D. Carlos Heredia, aprobándose el Reglamento después en fecha indeterminada.

Diez años después y, completamente ajenos a lo que había sucedido en el Real Hipódromo
de la Casa de Campo, el terreno de juego empleado por el Cricket y Foot-ball Club de
Madrid, surge en 1890 de nuevo el fútbol gracias a un establecimiento dedicado en pleno a
la educación: la Institución Libre de Enseñanza, núcleo docente con profesores que se
habían instruido en los modernos métodos de enseñanza practicados por los afamados
centros universitarios británicos de Oxford, Cambridge y, sobre todo, Eton, uno de los
college por excelencia donde el football conduciendo la pelota con los pies había tomado

22
forma. La Institución Libre de Enseñanza fue un centro pedagógico fundado en 1876 por un
grupo de catedráticos reacios a la doctrina de la Universidad Central de Madrid que
propugnaban la libertad de cátedra, convirtiéndose el fútbol en una de las actividades físicas
idóneas para mantener en tono el cuerpo del alumnado y eligiéndose los terrenos adjuntos
a la Puerta de Hierro como espacio para jugar, aunque sin demasiadas dotes.

Parte de aquellos alumnos, años después ya crecidos, siguieron practicando aquel deporte,
decidiendo constituir a principios de 1897 una asociación exclusiva para tal fin, el Sky Foot-
ball Club, erigido bajo la presidencia de Luis Bermejillo y la labor como secretario y a la par
tesorero del Conde la Quinta de la Enjarada, permaneciendo como vocales los señores
Jacinto Martos y Careaga, a los que se sumarían otros lustres apellidos de la nobleza allí
residente como el Conde de Lérida, el Conde de Urbasa, el burgués Pignatelli o los tres
hermanos de origen cubano Giralt, estos últimos en 1898. Este club vestía camisa roja con
pantalón azul y, poco conocedor del juego, tuvo que reforzarse con el suizo Paul Heubi para
adiestrarse en sus secretos, haciendo campo de sus prácticas unos terrenos situados en las
proximidades de la Moncloa, aunque también hay referencias en cuanto al uso de unos
terrenos adjuntos al frontón del Retiro y a otros en Vallecas.

HISTORIA DEL CLUB:

1900 – 1910

Con el paso del tiempo surgieron rencillas entre parte de los miembros del club propiciadas
más que nada por impagos en las cuotas y la escasa implicación de muchos nobles y no tan
nobles asociados de modo que, a finales de 1899, siendo presidente Ángel Mayora, un
grupo liderado por Julián Palacios -un joven ingeniero de minas-, decidió escindirse y
continuar su actividad en otros lares.

Afectados por la lejanía que les suponía desplazarse hasta la Puerta de Hierro -muchos de
ellos vivían en el barrio de Salamanca-, buscaron en las inmediaciones del barrio un terreno
donde poder jugar, localizándolo en un solar anexo al taller del marmolista Estrada que se
convirtió en el primer feudo de sus evoluciones. La escasa cantidad de jugadores no fue
óbice para dejarse derrotar y, por fortuna, a lo largo de 1900 se sumaron algunos futbolistas
que habían hecho sus pinitos en un equipo, que no club, originado en la Escuela de
Ingenieros de Minas -centro instaurado en 1835- que tenían su campo en un descampado
de la calle O’Donnell y de donde, precisamente, procedía Palacios. Gracias a estos refuerzos
y a algunos procedentes de otro club, la Association Sportive Française entre los que figura
Parages, una modesta asociación surgida en 1897 en el seno del Liceo Francés -instaurado
en 1886- a razón de su contacto con el alumnado del Instituto Libre de Enseñanza, la suma
se elevó hasta la treintena de efectivos, dando pie en octubre de ese año a la constitución
del Madrid Foot-ball Club, asociación citada habitualmente en prensa como Nueva Sociedad
de Foot-ball que venía a convertirse en el segundo club madrileño con plena dedicación
futbolística junto al Sky Foot-ball Club, entidad muy mermada en 1900 que apenas daba
señales de vida.

23
El Madrid Foot-ball Club de finales de 1900 quedó presidido por Julián Palacios, su alma
mater en esos instantes, acompañado en la directiva por el que sería años después su
cuñado, José de Gorostizaga, comenzando un tortuoso y a la vez desordenado camino
donde originariamente se le prestaba más importancia a jugar las mañanas de los domingos
dentro de la temporada -de octubre a mayo- antes que a cuidar detalles relacionados con la
imagen de la sociedad frente a terceros como sucedería en breve. Encuentros entre los
mismos socios de la entidad y frente a equipos ocasionales como el originado en El Escorial
o el de los miembros de la Sociedad Gimnástica Española, que contaba con una novel
sección de fútbol, fueron su constante a lo largo de su primer año largo de vida en una
asociación que en el invierno de 1901, pasado el ímpetu de su gestación, contaba con tan
solo una quincena de equipiers.

A principios de 1902, los hermanos Juan y Carlos Padrós, comerciales del textil con un
talante más cosmopolita y amplio en miras políticas y sociales que el mostrado inicialmente
por Julián Palacios a lo largo de su mandato -concentrado en lo deportivo-, intentaron dar
un nuevo giro a la asociación propulsándola como una de las más importantes del país, en
parte obligados por el Gobierno quien, ejerciendo su autoridad, reclamaba de las
asociaciones deportivas que se inscribiesen en los respectivos Gobiernos Civiles para
regularizar su situación conforme exigía la Ley de 30 de junio de 1887, de Asociaciones.
Entre los requisitos a cumplir, uno de ellos era la presentación de una junta directiva con
responsables, eligiéndose la misma el 6 de marzo con el resultado de Juan Padrós como
presidente, Enrique Varela vicepresidente, Manuel Mendía secretario, José de Gorostizaga
tesorero y como vocales A.S. Neira, Arturo Meléndez, Álvaro Spottorno, Mario Giralt y
Carlos Maertens. Paralelamente a la elección de dicha junta y, dentro de la misma
operación, se redactaron unos Reglamentos para la gestión interna, quedando presentados
el 15 de abril para su aprobación gubernativa tal cual exige la Ley y aprobados casi de forma
inmediata.

Sin un terreno de juego fijo, aquellos muchachos que visten camisa y pantalón blanco con
medias oscuras, hartos de peregrinar durante año y medio de existencia por distintos
descampados para practicar su deporte favorito, casi al mismo lado de la Plaza de Toros
logran por fin arrendar un terreno de juego que pertenece a la Reina Doña María Cristina
por ciento cincuenta pesetas al año, realizándose los cambios de ropa en una pequeña
habitación muy próxima alquilada en una taberna de reconocido prestigio, La Taurina.

Paralelamente a estos acontecimientos, el 15 de marzo de 1902 el Sky Foot-ball Club hasta


entonces presidido por Ángel Mayora, casi sin actividad, diezmado y con pocos jugadores
sufre un nuevo revés con la partida de algunos de sus miembros al recién constituido Club
Español de Foot-ball de Ceferino Rodríguez, emprendiendo una fuerte renovación en su
estructura con cambio de domicilio incluido que conduce a Manuel Vallarino a la
presidencia y ocasiona el cambio de nombre a New Foot-ball Club. En la intención de tan
reformado club reside el interés por volver a vivir momentos de reciente gloria intentando
conseguir la supremacía en la villa y corte pero la fortaleza del Madrid F.C., muy firme en sus
cimientos, le resulta un escollo infranqueable como quedará refrendado en el Concurso de
Foot-Ball del Excelentísimo Ayuntamiento de Madrid -Copa de la Coronación- celebrado ese

24
mismo año, torneo precursor de lo que será el Campeonato de España en el que es
humillado por el Club Vizcaya, de Bilbao, al caer derrotado por 1-8.

Tras los malos resultados deportivos experimentados el caos parece asentarse en la entidad
rojilla y, fruto de las desavenencias entre gran parte de los jugadores, muchos de ellos
deciden a finales de 1902 abandonarla y constituir una nueva sociedad, el Internacional
Foot-ball Club que viste camisa partida azul y grana con pantalón blanco. Presidido por
Miguel Guijarro Lledó, su líder, al que secundan Thomas Moore en la vicepresidencia,
Eugenio Bisbal como secretario y Pío Wandosell como tesorero, formarán como vocales
George Craig, Ángel Garrido, Emilio Valentí, Luis Romero de Tejada y el que fuera efímero
presidente del New F.C., Manuel Vallarino.

La puesta en largo del Madrid F.C. como sociedad a tener en cuenta por el resto de los clubs
constituidos en España tiene lugar con la disputa de la Copa de la Coronación antes referida,
torneo originado con motivo de la llegada al trono de S.M. el Rey D. Alfonso XIII en el que se
dan cita entidades como los madrileños Madrid F.C. y New Foot-ball Club, los catalanes F.C.
Barcelona y Club Español de Foot-ball -ambos de Barcelona-, y Club Vizcaya -combinado
mixto formado por jugadores del Bilbao F.C. y Athletic Club, de Bilbao-, resultando este
último vencedor en la final al imponerse por 2-1 frente al F.C. Barcelona. Ese mismo año de
1902, dentro de una segunda etapa, la Association Sportive Française cambia su
denominación a Association Sportive Amicale, mientras surgen otras entidades como el
Moncloa F.C. en el mes de julio, el Iberia F.C., The Modern F.C. en el mes de octubre que en
breve cambia de nombre a Moderno F.C. y otras sociedades casi insignificantes sin apenas
trascendencia como el Hispania F.C., el Club Retiro y el Victoria F.C.

A finales de 1902, concretamente el 5 de diciembre, las sociedades Madrid F.C., New F.C.,
Moncloa F.C., Club Español de Foot-ball, Retiro F.C. y The Modern F.C. constituyen la
Federación Madrileña de Clubs de Foot-ball para controlar el fútbol en la capital y organizar
competiciones bajo unas reglas, siendo presidida por el madridista Juan Padrós mientras en
enero de 1903 se disputa el primer campeonato local donde se impone el Moderno F.C.
ante la sorpresa de muchos y cierto desinterés por parte del Madrid F.C. Durante el año se
van sucediendo una serie de acontecimientos que reforzarán el poder madridista sobre sus
rivales, fagocitando los merengues lo más destacado del panorama local empezando por la
plena integración de los miembros del Internacional F.C. en marzo, absorción que se ve
refrendada oficialmente en la primera semana de abril cuando Miguel Guijarro Lledó, hasta
entonces presidente de los azulgranas, accede a la presidencia del Madrid F.C. en
sustitución de Juan Padrós quien pasa a la vicepresidencia. Los cambios en la directiva
merengue no quedan ahí, accediendo a la secretaría Eugenio Bisbal, mientras vicesecretario
es Federico Revuelto, la tesorería recae en manos de Manuel Mendía y Pío Wendosell,
culminando la imbricación internacionalista, es vicetesorero.

El año 1903 es prolífico y el 26 de abril se constituye la sucursal madrileña del Athletic Club
bilbaíno con el nombre de Athletic Club, entidad cimentada en la sede del Hogar Vasco
sobre las ruinas del Club Retiro que en el futuro se convertirá en el principal rival de los
madridistas dentro de la capital.

25
El Madrid F.C. avanza a pasos de gigante y tras absorber al Internacional F.C. integra a
algunos jugadores del New F.C. -que juega ya en la Ronda de Vallecas- dejándolo muy
tocado tras la escisión padecida a finales de 1902 y la nueva pérdida de lo poco que le
restaba, organizando y participando los merengues en el mismo torneo del año anterior que
ahora, con el reconocimiento expreso del resto de participantes, adquiere mayores
proporciones al adquirir el rango de Campeonato de España. Los equipiers madridistas, muy
motivados para la ocasión, no obtendrán el éxito esperado y tras una emocionante Final
jugada con enorme intensidad se pierde con el Athletic Club, de Bilbao, por 2-3. Pasado el
verano se acomete una nueva remodelación de la directiva, sustituyendo en octubre Carlos
Padrós a Miguel Guijarro, quien pasa a ser vicepresidente, mientras Arturo Meléndez es
secretario, Federico Revuelto conserva su puesto de vicesecretario y se nombran dos
secretarios, Enrique Nomand y Manuel Mendía.

A finales de año, doloridos por no alcanzar el fútbol madrileño el lugar deseado a nivel
nacional, desde la prensa se reclama que los clubs más poderosos unan esfuerzos para
conseguir un potente team capaz de derrotar a los prestigiosos conjuntos vascos y
catalanes, anunciándose a mediados de diciembre una más que probable fusión entre los
dos alumnos más aventajados, Madrid F.C. y Moderno F.C., que recientemente ha
incorporado a los jugadores más destacados del Iberia F.C. y Victoria F.C. convirtiéndose en
una sociedad de extraordinaria capacidad. La fusión, vital para los intereses del fútbol
capitalino y sus ambiciones es dura y por parte de los modernistas, conscientes de su
validez, se negocia de tú a tú con los madridistas, quedando refrendada el 30 de enero de
1904 cuando queda establecido el Madrid-Moderno F.C. En las semanas siguientes se
sumarán a la iniciativa jugadores del Moncloa F.C. como Irigoyen, Prast, Lizárraga y Garrido,
mientras de la Association Sportive Amicale llega Parages. El Madrid-Moderno F.C. se
convierte de facto en una especie de selección madrileña al reunir a lo más distinguido del
panorama local propiciando la sustitución del escudo original con el anagrama bicolor
madridista por un escudo de clara inspiración municipal rodeado de una amplia
circunferencia morada pero, aunque se trazan grandes expectativas para el Campeonato de
España de 1904, éste finalmente marcha a las vitrinas del Athletic Club bilbaíno en un
torneo desastroso donde sucede casi de todo debido a la improvisación.

El término Moderno, sin embargo, pronto cae en desuso y únicamente queda en vigor el de
Madrid, más popular e identificativo tanto para los madrileños como para el resto de clubs
de ámbito nacional. Tras el verano, el dirigente españolista Ceferino Rodríguez abandona el
Club Español de Foot-ball dejándolo a merced del destino a pesar de ser el reciente
campeón madrileño y contar con la presencia de los hermanos Giralt -otrora madridistas- e
ingresa en la directiva merengue en contra de la opinión de Juan Padrós, quien muy molesto
con dicha incorporación se retira del ambiente balompédico y se dedica a sus menesteres.
Surge otro club en la capital, el Sport F.C.

El 18 de abril de 1905 el Madrid F.C. conquista por fin su primer Campeonato de España al
imponerse al Athletic Club, de Bilbao, por 1-0 con gol de Prats. En lo sucesivo llegan tres
nuevos Campeonatos de España: 1906, con 4-1 al Athletic Club bilbaíno; 1907, con 1-0 sobre

26
el Club Vizcaya; y 1908, con 2-1 sobre el Vigo Sporting Club. En 1906 nacen el Iris F.C. y el
Club Sportivo Internacional, uniéndose en 1907 la Sociedad Gimnástica Española, fundada el
2 de marzo de 1887 y quien establece definitivamente su sección de fútbol basándose en
jugadores procedentes del Moncloa F.C., Hispania F.C. y del renacido Iberia F.C., resultando
protagonista en el futuro madrileño y en el concierto español.

En 1907 surge el Español Foot-ball Club, intentando recuperar la memoria del anterior Club
Español de Foot-ball que tan buen sabor dejó. Este club tiene una pequeña crisis que supera
en 1908 y que le lleva a participar en las finales del Campeonato de España de 1909 y 1910,
perdiendo ambas a favor de Club Ciclista de San Sebastián por 1-3, y F.C. Barcelona por 2-3,
respectivamente. A mediados de la década de los años diez, el Español F.B.C. desaparece. El
14 de octubre de 1909 queda constituida la F.E. de C.F., teniendo la Sociedad Gimnástica
Española y Español F.C. el honor de pertenecer al grupo de los diez miembros fundadores. El
Madrid Foot-ball Club lo hará al poco tiempo.

1910 – 1920

Entre 1910 y 1915, el Madrid F.C. sufre un letargo deportivo en cuanto a resultados, pues
surgen nuevos clubs como el Unión Sporting Club (1913) o el Racing Club de Madrid (1914)
que le disputan seriamente la hegemonía junto a los ya existentes Español F.C., Athletic Club
de Madrid y Sociedad Gimnástica Española. En 1916 pierde la final de la Copa ante el
Athletic Club bilbaíno por 0-4. En 1917 consigue una nueva Copa al imponerse al Arenas
Club de Guecho, empate a cero en la final y victoria por 2-1 en el desempate. Este año pasa
a jugar al Campo de O’Donnell, su nuevo feudo. En 1918 pierden una nueva final del
Campeonato de España: 0-2 ante el Real Unión Club, de Irún. Otro hecho destacable de este
año es la constitución en el mes de diciembre de la A.D. Ferroviaria, club multideportivo de
renombre en la década de los años cuarenta.

El 29 de junio de 1920 de las manos de S.M. el Rey D. Alfonso XIII recibe el título de Real,
pasando a ser llamado Real Madrid Foot-ball Club. Son años delicados y el club no adquiere
notoriedad. El 29 de abril de 1923 se inaugura el Campo de Deportes de la Ciudad Lineal,
mientras que el Athletic Club de Madrid hace lo propio con el Metropolitano. Este terreno
solo le sirve un año, pues el 17 de mayo de 1924 inaugura el Campo de Chamartín. En 1924
pierde la final del Campeonato de España ante el Real Unión Club, de Irún por 0-1. Ese
mismo año nace el C.D. Nacional, asociación que con el tiempo conseguirá cierto prestigio
dentro del Campeonato provincial y que llegará a jugar en Segunda División, junto a otro
club histórico como el Imperio Foot-ball Club, federado en 1925 y cuyos orígenes se
remontan a 1923.

Durante los años siguientes el club merengue no consigue entrar en las finales del
Campeonato de España, teniendo que disputar para mantener en forma y recuperar
prestigio, numerosos encuentros con rivales extranjeros. Llega la profesionalización y la idea
de crear un Campeonato con encuentros a ida y vuelta. Esta cristaliza en la temporada
28/29 con el primer Campeonato de Liga. El Real Madrid F.C. accede a la Primera División
por haber sido campeón de España en cinco ocasiones. En esta temporada inicial es
subcampeón, y en el campeonato de España pierde la final de 1929 ante el Real C.D.

27
Español, de Barcelona por un 1-2 adverso. En 1930 lo hace ante el Athletic Club bilbaíno por
2-3. En septiembre de 1930 incorpora al mítico portero Ricardo Zamora. El equipo es sexto
en Liga.

1930 – 1940

Es en la temporada 30/31 cuando alcanza el primer título de Liga, destacando Quincoces,


Regueiro y Ciriaco. En 1931 se instaura la II República y el club modifica su nombre pasando
al viejo Madrid Foot-ball Club. En la edición 32/33 se repite título de Liga pero pierde ante el
Athletic Club de Bilbao la Copa Presidente de la República (Campeonato de España), por 1-2.
En 1934 se conquistará al derrotar al Valencia F.C. por 2-1, repitiendo en 1936 ante el F.C.
Barcelona con idéntico resultado. Antes del advenimiento de la Guerra Civil, se consiguen
tres subcampeonatos de Liga.

Tras el paso del conflicto bélico, en 1939 se ficha a nuevos jugadores y se recupera algún
veterano en lo que es un renacer del club. Sin el potencial de antaño se es cuarto en Liga y la
entrada en el Campeonato de España -ahora Copa de S.E. el Generalísimo- le es vetada por
motivos políticos. Pedro Parages toma las riendas del club.

1940 – 1950

La década de los años cuarenta supone un retroceso deportivo en el club blanco, pues no se
consigue ningún Campeonato de Liga. Tan solo se puede acceder a dos subcampeonatos:
41/42 y 44/45. En la recién estrenada Copa del Generalísimo también se pasa casi en blanco
todas las ediciones, pues se pierden las de los años 1940, 2-3 ante el C.D. Español de
Barcelona; y 1943, ante el Atlético de Bilbao por 0-1. La de 1946 es conquistada frente al
Valencia C.F. por 3-1. Destacan dos hechos: uno es el restablecimiento del nombre del club
en 1941 recuperando el anterior pero castellanizado, Real Madrid Club de Fútbol; y otro, la
entrada de Santiago Bernabéu a la presidencia el 15 de septiembre de 1943, cuyo proyecto
es modernizar la entidad y restituir el glorioso pasado deportivo. Se acometen la obras del
Nuevo Estadio de Chamartín, y el 14 de diciembre de 1947 se inaugura frente al conjunto
portugués Clube de Futebol Os Belenenses, con victoria local por 3-1. Son los años del
canario Molowny.

1950 – 1960

Los años cincuenta, sobre todo a partir de 1953 con la entrada de jugadores extranjeros en
España, supone el resurgir del Real Madrid C.F., pues dicha medida deja en ventaja a los
clubs más poderosos económicamente hablando como son el club merengue y el C.F.
Barcelona. Los frutos no tardan en llegar y en 1954 se ficha a Alfredo di Stéfano; gracias a él
se conquistan las Ligas 53/54 y 54/55 consecutivamente. La temporada 55/56 es menos
favorable y ya en las 56/57 y 57/58 se accede de nuevo al título liguero. Nuevas figuras
llegan a la entidad: Miguel Muñoz, Ferenc Puskas y Gento. Su participación es vital para que
el Real Madrid C.F. conquiste el nuevo torneo organizado por la UEFA para los campeones
de Liga: la Copa de Europa. El club se impone brillantemente en las cinco primeras
ediciones. En 1956, ganando 4-3 frente al Stade de Reims; 1957, 2-0 sobre la A.C. Fiorentina;
1958, 3-2 ante el A.C. Milan; 1959, 2-0 nuevamente frente al Stade de Reims; y 1960, 7-3

28
sobre el Sportgemeinde Eintracht Frankfurt 1899. Así mismo, se impuso en la primera
edición de la Copa Intercontinental disputada en 1960 frente al Club Atlético Peñarol
uruguayo, 0-0 en Montevideo y 5-1 en Madrid. El único pero que se le atribuye al club
merengue en esta década es la no consecución del trofeo de Copa, pues las dos finales
disputadas las pierde. En la edición de 1958 cae 0-2 ante el Atlético de Bilbao, mientras que
en la de 1960 lo hace ante el Club Atlético de Madrid por 1-3.

1960 – 1970

El Real Madrid C.F. de los sesenta es demoledor en Liga, pues alcanza a ser campeón en
ocho de las diez ediciones, dejando escapar tan solo las temporadas 65/66 y 69/70, esta
última ante el relevo generacional de la plantilla. Es el Madrid de los ye-ye, con grandes
jugadores como Gento, Pirri, Zoco, Grosso, Sanchis, De Felipe y tantos otros que marcan una
época. En la Copa de Europa se alcanzan tres finales, pero con resultado desfavorable en las
dos primeras. En 1962 se pierde ante el Sport Lisboa e Benfica por 3-5, y en 1964 ante el F.C.
Internazionale de Milán por 1-3. La edición de 1966 supone la sexta Copa al vencer al
conjunto del F.K. Partizan de Belgrado por 2-1.

En 1967 es subcampeón en la Copa Intercontinental frente al Club Atlético Peñarol, al


perder 2-0 en el Estadio Centenario, mismo resultado que en el Santiago Bernabéu. La Copa
del Generalísimo se resiste como en la década precedente y, aún así, se alcanzan tres
presencias en la final: en 1961 se pierde ante el Club Atlético de Madrid por 2-3, mientras
que en 1962 se vence al Sevilla C.F. por 2-1, y en 1970 al Valencia C.F. por 3-1. En el ámbito
social se inaugura el 18 de mayo de 1963 la Ciudad Deportiva del club y el 7 de junio de
1967 se despide de la afición Alfredo di Stéfano.

1970 – 1980

Llegan los años setenta y el club merengue se haya en plena época de renovación de la
plantilla que tantos éxitos le ha proporcionado poco tiempo antes. En la Liga se obtienen
seis entorchados: 71/72, 74/75, 75/76 y tres de forma consecutiva, las temporadas 77/78,
78/79 y 79/80. Durante los primeros años destacan la retirada de Amancio y el gran
extremo Gento. Llegan Santillana, Stielike y Juanito. En la Copa se vence en tres ocasiones:
en 1974 por 4-0 al F.C. Barcelona, y en 1975 al Club Atlético de Madrid en los penaltis tras
empate a cero en tiempo reglamentario. La edición de 1979 se pierde ante el Valencia C.F.
de Kempes por 0-2. La final de 1980 constituye un hecho casi irrepetible pues se enfrentan
Real Madrid C.F. y Castilla Club de Fútbol, el filial blanco que en el futuro prestará grandes
jugadores. Gana el primer equipo por 6-1. En la Copa de Europa y en las ediciones de la
Recopa, el club merengue no consigue nada destacable. El hecho luctuoso es el
fallecimiento de Don Santiago Bernabéu el 2 de junio de 1978. Le sucede en la presidencia
Luís de Carlos.

1980 – 1990

Los años ochenta se caracterizan por ser una época de dominio madridista, acentuado en el
tramo final de forma exhaustiva y por pasar de un primer lustro en el que se esta a punto de
ganar algunos campeonatos, a un segundo en el que se consiguen de forma consecutiva

29
cinco: 85/86, 86/87, 87/88, 88/89 y 89/90. En el primer tramo tres son los subcampeonatos
de un equipo que no acaba de imponerse. En la Copa del Rey tan solo se llega en una
ocasión a la final, y es para caer derrotado ante el F.C. Barcelona por 1-2.

En la Copa de la Liga se proclama Campeón en la edición de 1985 al derrotar en la Final al


Club Atlético de Madrid: 3-2 en la ida y 2-0 en el Santiago Bernabéu; subcampeón será en la
edición de 1983 al caer frente al F.C. Barcelona con resultado de 2-2 en casa y derrota por 2-
1 en la vuelta. En la Copa de Europa se empieza en 1981 llegando a la final, cayendo
lamentablemente por 0-1 ante el poderoso Liverpool F.C.. En la Copa de la UEFA se alcanzan
dos finales y ambas se ganan; el 22 de mayo de 1985 ante el Székesfehérvári Videoton S.C.
húngaro tras vencer en la ida 0-3 y perder en casa por 0-1. En la edición de 1986 ante el 1.
F.C. Köln, derrota por 2-0 en Alemania y victoria en casa por 5-1. Se junta una gran base de
jugadores canteranos procedentes del Castilla C.F. que se denomina “Quinta del Buitre”, en
la que destacan Butragueño, Sanchis, Michel y Martín Vázquez, que junto a los veteranos
Valdano y Hugo Sánchez predominan en el país. En la directiva llega en 1985 Ramón
Mendoza, y en la estadística el club marca un record en la temporada 85/86 al marcar 107
goles en treinta y ocho encuentros.

1990 – 2000

Los años noventa son años de mayor competencia en Liga y se ganan dos ediciones, las
94/95 y 96/97. Llegan al club importantes figuras: Roberto Carlos, Suker, Mijatovic y
Seedorf, conjuntando un buen plantel que alcanza varios subcampeonatos. Pero sin duda es
la gran época de dos grandes jugadores: Fernando Hierro y Raúl. En la Copa del Rey se
obtiene el triunfo en la edición de 1993 frente al Real Zaragoza por 2-0 con goles de
Butragueño y Lasa. Es la última lograda por el club hasta la fecha. Se pierden las ediciones
de 1990 frente al F.C. Barcelona, 0-2; y 1992 frente al Club Atlético de Madrid, 0-2.

En Europa se vuelve a conquistar la Copa de Campeones, denominada ahora Champions


League y con nuevo formato. El título llega en la edición de 1998 cuando en la final se
derrota al Juventus F.C. de Turín por 1-0, con gol de Mijatovic. Esto le permite disputar la
Copa Intercontinental, la cual logra al vencer al C.R. Vasco da Gama por 2-1, con goles de
Roberto Carlos y Raúl. El gran colofón a esta década es la conquista el 24 de mayo de 2000
de su octava Copa de Europa al derrotar en la final por 3-0 al Valencia C.F., en lo que es la
primera gran final con dos contendientes del mismo país. Estos años se caracterizan por la
presencia de Ramón Mendoza en la presidencia hasta su dimisión en 1995, sustituido por
Lorenzo Sanz y la acometida de las obras de remodelación del Estadio Santiago Bernabéu. El
jugador Juanito fallece en 1992 y en 1998 lo hace Raimundo Saporta.

2000 – 2010

En junio de 2000 llega Florentino Pérez a la presidencia. El club pierde el 28 de noviembre


en el Estadio Olímpico Nacional de Tokio la Copa Intercontinental frente al Club Atlético
Boca Juniors por 2-1. El siglo XXI trae al Real Madrid C.F. una pléyade de grandes jugadores
con renombre internacional: Beckham, Zidane, Ronaldo, Cannavaro y Van Nistelrooy, entre
otros. En el campeonato doméstico de Liga se obtienen tres títulos, los correspondientes a
las ediciones 00/01, 02/03 y 06/07. Su nivel sigue intacto y siempre se está en los primeros

30
puestos optando a cualquier campeonato. En la Copa del Rey se alcanza la final de 2002,
disputada en casa, pero se pierde ante el Real C.D. de La Coruña por 1-2 en el año del
Centenario del club madridista. En Europa llegan nuevos triunfos, pues se alcanza el noveno
entorchado con la consecución de la edición de 2002 ante el T.S.V. Bayer 04 Leverkusen por
2-1, con goles de Raúl y Zidane.

El 30 de agosto de ese año se gana la Supercopa de Europa al vencer al S.C. Feyenoord


Rotterdam holandés por 3-1, y el 3 de diciembre la Copa Intercontinental al imponerse en el
Estadio Internacional de Yokohama al Club Olimpia de Asunción por 2-0. Florentino Pérez
cede la presidencia a Ramón Calderón el 3 de julio de 2006 y el 17 de noviembre fallece
Ferenc Puskas. Durante esta década tiene estreno la nueva ciudad deportiva, ubicada en
Valdebebas, la cual va a ser la sede de la cantera del club y de las secciones deportivas como
el baloncesto en el futuro.

Tras conquistar sucesivamente los campeonatos 06/07 y 07/08 de Liga el club entra en un
proceso de cambio institucional en el que Calderón renuncia al cargo y es sustituido, previo
paso transitorio de Vicente Boluda, por Florentino Pérez en una nueva etapa. Con este
llegan proyectos muy ambiciosos para intentar conquistar la Liga de Campeones que sin
embargo, pese a los grandes dispendios económicos, no tienen recompensa pasando el
conjunto merengue más pena que gloria en este torneo. En Liga le es arrebatada la
supremacía por el F.C. Barcelona de Pep Guardiola, reforzándose en el verano de 2009 con
grandes figuras internacionales como Karim Benzema, Xabi Alonso, Kaká y el popular
Cristiano Ronaldo, a quienes se les une el banquillo Manuel Pellegrini. La suerte parece que
no les acompaña y tras una excepcional campaña liguera 09/10 en la que obtienen un gran
registro con noventa y seis puntos más ciento dos goles, pierden el mano a mano
mantenido con los azulgranas quienes les superan en tres puntos.

En la Liga de Campeones los madridistas comandan la Fase de Grupos superando a: A.C.


Milano, Olympique de Marseille y F.C. Zürich; cayendo estrepitosamente en dieciseisavos
ante el Olympique Lyonnais: 1-0 en la ida y 1-1 en casa con lo cual son eliminados. A este
fracaso se le une la todavía aún más sorprendente y dolorosa eliminación en Copa ante el
equipo de Segunda B madrileño, la A.D. Alcorcón: 4-0 en Santo Domingo y 1-0 en casa que
levanta ampollas entre su defraudada afición tras una temporada para olvidar.

2010 – 2020

La campaña 10/11 discurre un tanto mejor que la precedente y la llegada de algunos


refuerzos mejora sus prestaciones a la par que sonada es la presencia en el banquillo del
técnico portugués José Mourinho. El club merengue protagoniza numerosos
enfrentamientos con el F.C. Barcelona en varias competiciones, quedando subcampeón de
Liga tras este con unos grandes registros y Campeón de España al imponerse en la Final
disputada en Mestalla también ante el F.C. Barcelona por 1-0 con gol logrado por Cristiano
Ronaldo en la prórroga tras un vibrante y emocionante encuentro. En la Liga de Campeones
comandan su grupo superando a A.C. Milano, A.F.C. Ajax y A.J. Auxerre, accediendo a unos
Octavos donde elimina a Olympique Lyonnais; 1-1 en la ida y 3-1 en casa, para pasar a
Cuartos donde hace lo propio con el Tottenham Hotspur F.C.; 4-0 en casa y 0-1 en Londres,

31
no superando las Semifinales al ser superado por el F.C. Barcelona; 0-2 en el Santiago
Bernabéu y 1-1 en la ciudad condal.

En la edición 11/12 el club merengue se proclama Campeón de Liga obteniendo cien puntos
con treinta y dos victorias sobre treinta y ocho encuentros, además de que su estrella
Cristiano Ronaldo consigue cuarenta y siete tantos, unos registros extraordinarios que junto
al F.C. Barcelona les hacen distanciarse hasta en treinta puntos sobre sus perseguidores. En
la Liga de Campeones se alcanzan las Semifinales tras ser primeros en la Fase de Grupos
aventajando a Olympique Lyonnais, AFC Ajax y GNK Dinamo Zagreb, pasando a las
siguientes eliminatorias donde supera a PFC CSKA Moscú; 1-1 en la ida y 4-1 en casa en
Octavos y a Apoel F.C., de Nicosia en Cuartos; 0-3 en la ida y 5-2 en casa, cayendo eliminado
en Semifinales ante el F.C. Bayern München; 2-1 en la ida y 2-1 en casa, siendo favorables
los penaltis para los germanos.

1902-1910

Procedente de Inglaterra, comenzó a introducirse en nuestro país un nuevo deporte, el


fútbol. Su gran acogida hizo que a finales del siglo XIX y comienzos del XX se crearan las
primeras sociedades para practicarlo. Una de ellas fue el Madrid Football Club, semilla del
actual Real Madrid. Julián Palacios se erigió en su primera cabeza visible, pero quien
constituyó oficialmente la institución fue Juan Padrós (1902). La afición creció a tal
velocidad que el Madrid planteó la solicitud de un torneo en homenaje al rey Alfonso XIII. La
iniciativa se convirtió en la Copa de España.

Los primeros años de vida del club fueron unidos a la figura de Julián Palacios. Fue él quien,
en 1900, convocó una junta general para designar los jugadores que formarían el primer
equipo del Madrid. Los hermanos Padrós tomaron el relevo poco después. El fútbol
empezaba a convertirse en el epicentro de muchas tertulias y el número de asociados se
incrementaba a pasos agigantados. La constitución como sociedad se produjo el 6 de marzo
de 1902, con una directiva presidida por Juan Padrós.

Aquellos soñadores directivos propusieron al alcalde de Madrid, Alberto Aguilera, la


constitución de un primer torneo de fútbol. Una primera competición que se estableció en
honor de S.M. el rey Alfonso XIII. Cinco sociedades formalizaron su inscripción para un
torneo que terminó acogiendo El Hipódromo. Nacía en esos momentos la Copa de España y
la gran seña de identidad del Madrid, el triunfo. Hasta cuatro títulos lograron los blancos en
las seis primeras ediciones.

LOS REYES PRESIDEN UN PARTIDO BENÉFICO DEL REAL MADRID (1914)

El rey Alfonso XIII y la reina Victoria Eugenia asisten al encuentro entre el Real Madrid y los
jugadores de la Academia de Infantería de Toledo. Partido benéfico para ayudar a las
familias de las víctimas de la Guerra de Marruecos.

CARLOS PADRÓS VESTIDO DE CORTO

32
El que fuera ‘el primer gran presidente del Real Madrid’ (1904-1908) viste con la equipación
merengue de la época. Antes de asumir la presidencia fundó la Asociación Madrileña de
Clubes de Fútbol.

CAMPEONES DE ESPAÑA, 1905

Medalla que recibieron los jugadores del Real Madrid al proclamarse campeones de España
frente al Athletic Club. El 18 de abril de 1905 vencieron por 1-0, con gol de Prast. Supuso el
primer título a nivel nacional, de la historia del club.

MEDALLA CAMPEONES DE ESPAÑA 1905

Primer título oficial de España del Real Madrid. Los blancos vencen al Athletic Club por 1-0,
llevándose así la tercera edición de la Copa del Rey.

Arthur Johnson, maestro pionero en el banquillo

Un terreno anexo a la antigua plaza de toros de Madrid se convirtió en el escenario de los


primeros partidos de la nueva sociedad. Las charlas futboleras se repetían una y otra vez en
la trastienda de los Padrós. Uno de los que tomaba siempre la palabra era Arthur Johnson,
un súbdito inglés afincado en España. Folios en mano, Mr. Johnson mostraba lo que él
consideraba las ‘consignas para el buen desarrollo del fútbol’. Casi de manera accidental, el
inglés se convertía en el primer entrenador de la historia del Madrid.

Primer partido internacional contra el Gallia Sport de París (1905)

Tal era la dimensión que estaba adquiriendo el fútbol que Carlos Padrós tuvo en mente un
nuevo hito, organizar un partido internacional. El Madrid sufragó todos los gastos para traer
a la Villa al conjunto del Gallia Sport de París. Los campeones de Francia y España frente a
frente. Noventa minutos después en el Hipódromo, el resultado fue de empate a uno y
ambos se emplazaron a un nuevo duelo en el país vecino.

Nace la Federación Española de Fútbol (1909)

A finales de la primera década del siglo XX surgieron importantes dificultades en la


organización del Campeonato de España y rencillas entre algunas sociedades. Eso propició la
creación de la Federación Española de Fútbol (1909), cuyos comienzos fueron complicados a
pesar de la unanimidad en el momento de la asamblea constituyente.

Palmarés

Campeonatos Regionales 5

Copas de España4

1911-1920

El fútbol español atravesaba por un momento de dificultad e indefinición. El Real Madrid no


fue ajeno a él, pero lo superó gracias al buen hacer de sus directivos. Ellos, ante la creciente

33
afición, vieron la necesidad de un cambio de campo para facilitar esa gran afluencia de
público y así obtener más ingresos. Se produjo el traslado al estadio de O’Donnell. A tal
punto llegó la dimensión de nuestro club que la Mayordomía Mayor de S.M. el Rey concedió
al Madrid el título de ‘Real’ (1920).

La constitución de una Federación se pensó que sería una rápida solución a la crisis, pero no.
Cada sociedad miraba por sus propios intereses, y mientras unos apoyaban a la Federación,
otros formaron un organismo paralelo, la Unión de Clubes. La desilusión y el desencanto
fueron la nota predominante también en el Madrid. Incluso la junta directiva tuvo que evitar
la ‘dimisión’ del presidente, Adolfo Meléndez.

La duplicidad de competiciones y de intereses no debilitó la expectación por el mundo del


balompié. Los aficionados seguían acudiendo a ver a su equipo. El Madrid, con el cambio a
O’Donnell, había dado un primer paso hacia la profesionalización. Más espectadores, más
recaudación y más presupuesto para fichar jugadores. El nuevo campo era el mejor de la
Villa y Corte, con una capacidad de 5.000 espectadores.

La temporada 1915-1916 se saldó con una brillante actuación en el Campeonato de España.


Subcampeones tras vencer en una épica semifinal al Español y caer en una no menos
enconada final ante el Athletic de Bilbao. Las circunstancias de aquella final dejaron secuelas
y terminaron con la dimisión días después de toda la junta directiva. Pedro Parages tomaba
el mando en detrimento de Adolfo Meléndez. El cambio dio buenos frutos y, a la temporada
siguiente, el Madrid volvía a ser campeón de España.

1.

SANTIAGO BERNABÉU EN PLENA ACCIÓN

El que fuera presidente del Real Madrid (1943-1978) disputa un balón ante el equipo rival,
en su época como delantero del conjunto blanco (1912-1927).

2.

EQUIPO CAMPEÓN DE LA REGIÓN CENTRO

Alineación del Real Madrid que se hizo con el Campeonato de la región Centro, al vencer por
3-1 al Atlético de Madrid (entonces Athletic de Madrid). Bernabéu fue el autor del tercer
gol, uno de los mejores que se le recuerdan.

3.

PARTIDO EN EL CAMPO DE O’DONNELL

Con el campo ya vallado, el estadio de O’Donnell fue el primero en propiedad del Real
Madrid. La imagen corresponde a un clásico Madrid-Atlético de Madrid (entonces Athletic
de Madrid).

4.

BERNABÉU Y SU BRILLANTEZ COMO JUGADOR

34
En plena juventud, el entonces delantero del Real Madrid disputa un balón, junto a otros
jugadores. Dejó una imborrable huella como futbolista.

Siguiente Anterior

Alfonso XIII media para firmar la paz en el fútbol

En vista de la enconada lucha entre la Federación y la Unión de Clubes de los últimos años,
el rey Alfonso XIII decidió intervenir. Recibió al presidente de la Federación, Juan Padrós, y
reconoció a ésta como único organismo representativo de nuestro fútbol. Al mismo tiempo
se instó a la Unión a “adherirse y olvidar antiguas rencillas”. En ese momento se firma una
reconciliación que recondujo al balompié español.

Santiago Bernabéu, como jugador (1913)

Solucionados los problemas organizativos y de representación, todo vuelve a sus cauces


normales. Es el momento en el que apareció la gran figura del Madrid, Santiago Bernabéu. Y
lo hizo como futbolista. Delantero robusto y de una gran capacidad goleadora, el manchego
acabó convirtiéndose en capitán del equipo y hombre de referencia en el club. Era el
presagio de lo que sucedería años más tarde, ya al frente de la entidad.

Santiago Bernabéu, como jugador (1913)

Campeones de Copa nueve años después

No había sido una época muy prolífica en lo deportivo para el Madrid en los últimos
tiempos. La expectación que generaba el equipo no se plasmaba en títulos. Pero eso cambió
en la temporada 1916-1917. El equipo blanco, tras una durísima semifinal con el Europa, se
plantaba en la final contra el temido Arenas de Guecho. Los pupilos de Arthur Johnson
cuajaron un partido espectacular, venciendo en la prórroga y devolviendo el título a las
vitrinas madridistas

Palmarés

Copas de España 1

Campeonatos Regionales 5

1921-1930

A comienzos de la década de los años 20, el Real Madrid volvió a ser pionero en el fútbol
español. La entidad blanca realizó una serie de salidas al extranjero, lo que le convirtió en
referente internacional. Ante semejante trascendencia, el club realizó dos cambios de
estadio más en esta época. Primero, al Velódromo de Ciudad Lineal, y posteriormente se
construyó Chamartín. Es este último el que acogió el primer partido del recientemente
creado Campeonato de Liga en febrero de 1929.

Lo que a principios de siglo parecía un proyecto aficionado empezaba a alcanzar una


dimensión inimaginable. Un gran porcentaje de la población española practicaba el fútbol o,
en su defecto, acudía a él como espectador. La medalla de plata conseguida por la Selección

35
en los JJOO de Amberes (1920) ayudó a que se incrementara aún más su seguimiento. Se
abría un nuevo panorama para nuestro club.

En estas circunstancias nació el Campeonato de Liga. Atrás habían quedado los enormes
problemas organizativos del fútbol español. Las partes implicadas acordaron que hubiera
tres Divisiones. En Primera jugarían los seis campeones de España, los tres subcampeones y
el vencedor de un torneo de promoción entre los clubes de Segunda. Se gestaba una gran
competición en la que cada vez irían tomando parte equipos de todos los rincones de
nuestro país.

1.

CAMPO DE LA CIUDAD LINEAL

Uno de los últimos partidos que el Real Madrid jugó allí.

2.

JUGADORES QUE ELIMINARON AL ATHLETIC EN COPA

El equipo madridista eliminó al Athletic de Bilbao en el desempate de Copa que se celebró


en el Metropolitano en 1924.

3.

JUGADORES MADRIDISTAS DE LA TEMPORADA 1927-28

De pie, de izquierda a derecha: Moraleda, Urquizu, Prats, Del Campo, Quesada y Lope Peña.
Agachados: Gual y Uribe.

Nuevamente el incesante crecimiento del número de aficionados obligaba a buscar nuevos


emplazamientos. El campo de O’Donnell ya se había quedado pequeño. El Real Madrid
realizaba un primer traslado al Velódromo de Ciudad Lineal y otro posterior al nuevo estadio
de Chamartín. Los partidos del equipo blanco ya podían ser vistos en directo por 15.000
espectadores, un acontecimiento de masas

Primer líder, el Real Madrid (5-0 al Europa)

El comienzo del Campeonato de Liga no pudo ser escrito por un mejor guionista. Un duelo
soñado para la entidad blanca. Ese compromiso inaugural de la competición le medía al
Europa de Barcelona en el antiguo estadio de Chamartín. El partido fue inmejorable por
parte de los pupilos de José Quirante. La goleada por 5-0 supuso el primer liderato de la
historia. Era toda una señal.

Fichaje de Ricardo Zamora

Tras dos subcampeonatos de Liga y Copa, se produjo un hecho que cambiaría el rumbo del
Real Madrid. El mejor portero del momento, Ricardo Zamora, fichaba por el equipo blanco.
Procedente del Español, el club blanco realizó un desembolso de 150.000 pesetas (900
euros).

36
Palmarés

Campeonatos Regionales 7

1931-1940

A la incorporación de Ricardo Zamora le siguieron poco después las de Ciriaco y Quincoces.


Todos ellos conformaron la mejor defensa del mundo. La consecuencia, cuatro títulos (dos
de Liga y dos de Copa) en cuatro años. Nacía el germen de un Madrid ganador, pero el
estallido de la Guerra Civil truncó ese triunfalismo.

El Real Madrid ya tenía interiorizado en ese momento que el éxito que tanto ansiaba
conseguir sólo era posible con los mejores jugadores. Zamora, Ciriaco, Quincoces... Los
frutos no tardaron en llegar. La temporada 1931-1932 fue de una gran excelencia por parte
del equipo de Lippo Hertza. Los blancos acabaron la Liga como campeones invictos.
Comenzaba una época de dominio madridista.

Apenas un mes después del último triunfo copero (1936), estallaba la Guerra Civil. El mejor
momento deportivo de la historia del Real Madrid hasta entonces se veía amenazado y
truncado por el conflicto bélico. Provocó que muchos jugadores acabaran ahí sus carreras o
que se marchasen exiliados. Habría que esperar a la finalización del enfrentamiento para
recomponer el club y el equipo.

1.

GRAN ESTIRADA DE RICARDO ZAMORA

El portero del Real Madrid tuvo magníficas actuaciones. Hizo paradas increíbles como la que
recoge el grabado. Fue en la final del viejo Mestalla. Atrapó el disparo fuerte y colocado de
Escolá.

2.

SALIDA DE RICARDO ZAMORA

El guardameta del Real Madrid en los años treinta sale en busca del balón, en presencia de
jugadores del equipo rival.

3.

CAMPEONES DE COPA ANTE EL ETERNO RIVAL (1936)

Jugada del partido que enfrentó el 21 de junio de 1936 al Real Madrid y Barcelona. Los
merengues vencieron por 2-1 en el campo del Valencia. La victoria supuso el cuarto título de
Copa de España para el madridismo.

4.

37
CAMPEONES DE COPA, DIECISIETE AÑOS DESPUÉS

En 1934 el Real Madrid se proclamó campeón de España en Montjuic, al imponerse al


Valencia en la final por dos a uno. Los blancos no ganaban el campeonato desde 1917.

El extraordinario auge que el fútbol estaba adquiriendo en España provocó que algunos
futbolistas comenzaran a ser auténticos ídolos. El ejemplo más claro se pudo comprobar en
la portería del Real Madrid. La final de Copa de 1936 elevó a los altares a un Ricardo Zamora
que se convirtió en el gran artífice del triunfo blanco ante el Barcelona. Su parada
‘imposible’ a tiro de Escolá es recordada aún en todos los libros de historia del fútbol
español.

Asamblea para la reconstrucción (1939)

Pedro Parages convocó el 19 de abril de 1939 una asamblea para tratar la situación en la
que había quedado la entidad tras la Guerra Civil. Un estadio destrozado, una plantilla muy
mermada… El panorama no era nada alentador. Se nombra a Adolfo Meléndez como nuevo
presidente y el Real Madrid afronta una reconstrucción prácticamente desde cero.

Palmarés

Ligas 2

Copas de España 2

Campeonatos Regionales 3

Trofeos Mancomunados 5

1941-1950

De esta etapa surgirán los éxitos futuros de la entidad y la rivalidad con el Barcelona. Hubo
que reconstruir el estadio de Chamartín, hacer un nuevo equipo y retomar el pulso a la
competición. Retos todos ellos, que gracias a la figura de Santiago Bernabéu, se
consiguieron y superaron. En esta década se sentaron las bases del que con los años sería
reconocido como el ‘Mejor Club del Siglo XX’.

El equipo blanco trató de paliar los efectos que tuvo la Guerra Civil (1936-39), que le dejó sin
sus figuras más emblemáticas. Se produjeron importantes incorporaciones como Pruden,
Corona y Bañón. En 1943, en semifinales de Copa, el Real Madrid se enfrentó al Barcelona.
En Les Corts, el once azulgrana ganó por 3-0. En la vuelta, los blancos eliminaron a su rival
gracias a una extraordinaria remontada. El Madrid venció 11-1. Aquí nació la eterna
rivalidad entre ambos clubes.

El 15 de septiembre de 1943, Santiago Bernabéu se estrenó como presidente del club.


Comenzó un legendario mandato en el que la entidad logró grandes gestas. Tomó posesión
de su cargo con la idea de establecer lazos de concordia entre todas las entidades. En 1948

38
fue nombrado presidente de honor y emérito de la institución blanca “por su buen quehacer
y sus continuos desvelos por la Sociedad Real Madrid Club de Fútbol”.

El Real Madrid se enfrentó en la final al Valencia (9 de junio de 1946), diez años después de
que el equipo ganase su última Copa de España. En el estadio de Montjuïc el conjunto
blanco fue el dueño y señor del partido. Ganó a los valencianistas por 3-1, logrando un
nuevo título de Copa. El alcalde de Madrid entregó a Ipiña la Medalla Deportiva de la Ciudad
por haber disputado 237 partidos oficiales. Cada jugador y el entrenador recibieron una
cartera de piel con un billete de mil pesetas (6€).

1.

JUGADORES MADRIDISTAS DE LA TEMPORADA 1945-46

En dicha campaña el Real Madrid conquistó su octavo título de Copa.

2.

JUGADORES QUE INAUGURARON CHAMARTÍN

De pie, de izquierda a derecha: Ipiña, Vidal, Huete y Jesús Alonso. Agachados: Pont,
Clemente, Corona y Molowny.

3.

JUGADORES MADRIDISTAS DE LA TEMPORADA 1949-50

De pie, de izquierda a derecha: Mariscal, Barinaga, Muñoz, Cabrera y Clemente. Agachados:


Narro, Olmedo, Navarro II y Montalvo.

Un sueño hecho realidad, el estadio Nuevo Chamartín

El estadio de Chamartín se había quedado pequeño para dar cabida a tantos socios y
seguidores madridistas. El presidente Santiago Bernabéu quería que el club estuviera en la
vanguardia del fútbol europeo. Después de 30 meses de obras, el 14 de diciembre de 1947
vio la luz el estadio Nuevo Chamartín. El campo, de corte europeo, se inauguró con un
partido amistoso contra el Os Belenenses. El primer encuentro de Liga fue ante el Athletic
de Bilbao (5-1).

Un sueño hecho realidad, el estadio Nuevo Chamartín

El Boletín Informativo del Real Madrid

Con el Nuevo Chamartín y los triunfos del equipo, surgió la necesidad de crear un portavoz
de la afición. El 1 de septiembre de 1950 nació el Boletín Informativo del Real Madrid. La
portada fue para un autógrafo dedicado de Bernabéu: “Deseo muchos éxitos a la redacción
del boletín madridista. Consejo de viejo: tratad bien a los amigos, pero mucho mejor a los
enemigos. Un abrazo a los merengues”.

Palmarés

39
Copas de España 2

1951-1960

Esta década fue brillante. Una pléyade de jugadores, liderada por Alfredo Di Stéfano, situó al
Real Madrid en la cúspide del fútbol. El equipo de las cinco Copas de Europa consecutivas
asombró al mundo por su espectacular juego. Un inagotable torrente de éxitos legitimó al
club como el más laureado de Europa. Se proclamó ‘Rey de Reyes’ y por si fuera poco,
levantó una Copa Intercontinental en su primera edición (1960).

El fútbol europeo adquirió un gran nivel. Consciente de ello, a principios de los años 50 el
prestigioso periodista francés Gabriel Hanot ideó una competición en la que participasen los
equipos campeones de cada Liga europea. Al proyecto se sumó su colega Jacques Ferrán.
Ambos redactaron un reglamento que llegó a la sede de la Unión Europea de Fútbol (UEFA).
La propuesta gustó a los dirigentes del periódico francés ‘L’Equipe’, que organizaron el
campeonato.

Nombraron una comisión con Santiago Bernabéu como uno de sus vicepresidentes. El
campeonato se hizo realidad en 1956. El Real Madrid ganó la primera Copa de Europa de la
historia el 13 de junio de ese año. Fue el inicio de las cinco consecutivas que consiguió.
Logró un hito mundial bajo la figura de uno de los mejores futbolistas de la historia, Alfredo
Di Stéfano, y durante la presidencia de Bernabéu.

El Madrid descubrió a Di Stéfano en las Bodas de Oro del club (1952), cuando el equipo se
enfrentó al Millonarios (4-2). Desde entonces fue un objetivo madridista y al año siguiente
debutó como jugador merengue. Se convirtió en el mejor futbolista de la historia blanca.
Con él en la plantilla, la institución vivió su época más gloriosa. Recibió dos Balones de Oro
(1957 y 1959) como gran estrella del equipo que reinó en Europa cinco años consecutivos.
Su fútbol encandiló a todos. Creó escuela y sentó cátedra.

En la temporada 1959-1960, el exjugador madridista Miguel Muñoz cogió las riendas del
Real Madrid. Ganó la Quinta Copa de Europa en su primera campaña como técnico. Se
convirtió en el primer futbolista que logró el trofeo europeo como jugador (en tres
ocasiones) y entrenador. En 1960, los merengues se coronaron también reyes del mundo al
lograr la primera edición de la Copa Intercontinental (Real Madrid 5-1 Peñarol de
Montevideo).

1.

Título en propiedad

El Real Madrid lo lograba al proclamarse por quinta vez consecutiva como campeón de
Europa.

2.

Comitiva de los campeones

40
Cada vez que el Real Madrid se proclamaba campeón de Europa, la ciudad se echaba a la
calle para recibir a sus héroes.

3.

Batalla sobre la nieve de Belgrado

Uno de los partidos más épicos que se recuerdan, la vuelta de cuartos de final entre Madrid
y Partizán de la temporada 1955-1956.

4.

Raymond Kopa, un delantero para la historia

El francés dejó huella a su paso por el Real Madrid con tres Copas de Europa y una calidad
exquisita.

Del Nuevo Chamartín al estadio Santiago Bernabéu

Con Santiago Bernabéu en la presidencia del club, la institución se hizo más grande.
Traspasó fronteras convirtiéndose en sinónimo de éxito. Doce años después de tomar
posesión de su cargo tuvo un gran reconocimiento por parte de la Asamblea General de
socios. El 4 de enero de 1955 aprobaron que, a partir de dicha fecha, el campo de Chamartín
se llamase estadio Santiago Bernabéu, “como prueba de reconocimiento a la labor del
actual presidente”. El homenajeado agradeció a todos los asistentes la distinción y puso el
cargo a disposición de la Junta Directiva, que le ratificó.

El primer récord en la Liga (1954-55)

En el Metropolitano, casa del Atlético de Madrid, los blancos revalidaron el título de Liga
con una jornada de antelación. Ganaron con récord incluido. Ningún equipo había logrado
hasta entonces 46 puntos. Al club llegó una carta de felicitación por parte de la Delegación
Nacional de Educación Física y Deportes. Fue el preludio de un lustro, la mitad de la década
de los años cincuenta, inigualable hasta entonces.

El primer récord en la Liga (1954-55)

Bienvenido, ‘Cañoncito pum’

El Real Madrid quería seguir llenando las vitrinas de su estadio con trofeos. Para reforzar el
equipo, el 1 de agosto de 1958 se presentó a uno de los mejores interiores izquierdos del
mundo, Ferenc Puskas. Se le bautizó como ‘Cañoncito pum’ por sus excepcionales disparos y
su facilidad goleadora. Se convirtió en una leyenda madridista, formando la mejor delantera
con sus compañeros Di Stéfano, Rial, Kopa y Gento.

Palmarés

Copas de Europa 5

Copas Intercontinentales 1

Ligas 4

41
1961-1970

El equipo se encontraba en una fase de renovación. En España fue muy superior, ganó ocho
campeonatos de Liga, cinco de ellos consecutivos y con doblete de Liga y Copa. Fuera de
nuestras fronteras consiguió la sexta Copa de Europa, lograda por el Real Madrid de los
Yeyé.

En la temporada 1961-62 el Real Madrid volvió a firmar una gran actuación con doblete
(Liga y Copa) y el subcampeonato europeo. El 18 de marzo de 1962 el Madrid entonó un
nuevo alirón en su estadio, con dos jornadas de antelación. El 8 de julio de 1962 el Madrid
venció al Sevilla en la final de la Copa por 2-1.

Líder en España y en el continente europeo. El 11 de mayo de 1966, el Real Madrid volvió a


conquistar Europa, frente al Partizán (2-1). Sin Di Stéfano y Puskas, el veterano era Gento.
Cerraban el once titular Araquistáin, Pachín, Pedro de Felipe, Sanchís, Pirri, Zoco, Serena,
Amancio, Grosso y Velázquez. El mismo año que se gana la sexta Copa de Europa, varios
jugadores se fotografiaron emulando a los Beatles. Desde entonces se les denominó el
Madrid Yeyé por el coro de la canción de la banda británica ‘She Loves You’.

1.

Primera Copa Intercontinental

El Real Madrid inaugura el palmarés de esta competición al derrotar al conjunto uruguayo


de Peñarol.

2.

La Copa de Europa Yeyé

Miguel Muñoz, Santiago Bernabéu y Gento posan sonrientes con la sexta Copa de Europa.

3.

Colapso en Barajas para recibir a los campeones

El aeropuerto se llenó de aficionados para recibir al Real Madrid tras la conquista de la Sexta
Copa de Europa.

4.

Pirri, referencia de un nuevo Madrid

El centrocampista fue uno de los puntales del equipo de los Yeyé, que recuperó el trono
europeo.

La magia de ‘El Brujo’

Bernabéu se dio cuenta de que el equipo necesitaba una renovación si quería seguir
aspirando a lo más alto. En 1962 se fijó para su empresa en un delantero gallego de 22 años.
Amancio Amaro, ‘El Brujo’, fue el principal artífice del ascenso del Deportivo de la Coruña a
Primera División. Desde sus comienzos en el Real Madrid fue un fijo en las alineaciones de

42
Miguel Muñoz. Se convirtió en el dueño y señor de la banda derecha. Con sus brillantes
actuaciones se ganó a la afición madridista.

La magia de ‘El Brujo’

La cuna de la cantera blanca

Con la idea de tener un centro de deportes para el club, Santiago Bernabéu inauguró la
Ciudad Deportiva el 18 de mayo de 1963. Un complejo deportivo que contaba con campos
de fútbol, pistas de atletismo y tenis. Fechas después se habilitó un pabellón de baloncesto,
piscinas y una pista de patinaje sobre hielo. Ubicada en la Avenida de la Castellana, la obra
causó admiración por lo innovadora que era para la época. Engrandeció el patrimonio del
club y acogió los futuros valores de la cantera blanca.

La cuna de la cantera blanca

‘La Saeta Rubia’ dice adiós

Después de 11 temporadas protagonizando tardes de gloria con el Real Madrid, Alfredo Di


Stéfano se despidió de la afición blanca. Toda una trayectoria llena de éxitos que culminó
con su último partido oficial el 27 de mayo de 1964. Tres años después, recibió un merecido
homenaje frente al Celtic Football Club. En el minuto 13, el ídolo del madridismo se quitó el
brazalete de capitán y se lo entregó a Grosso. El Bernabéu le despidió con una merecida
ovación, después de marcar 308 goles oficiales como jugador blanco.

Quinta Liga consecutiva

Las inversiones en el equipo blanco seguían dando sus frutos. El 18 de abril de 1965 el
Madrid consiguió su quinta Liga consecutiva. Era la primera vez en la historia del club que se
lograban cinco títulos seguidos. En esta temporada (1964-65) se incorporaron los primeros
jugadores a los que más tarde se les bautizó como Yeyé: Grosso, Pirri, Sanchís y De Felipe.

Palmarés

Copas de Europa 1

Ligas 8

Copas de España 2

1971-1980

La década en la que el equipo consiguió el sexto campeonato de Liga en propiedad también


estuvo marcada por la muerte de Santiago Bernabéu. El fútbol se vistió de luto el 2 de junio
de 1978 al desaparecer el presidente que subió a lo más alto al Real Madrid. Luis de Carlos
sustituyó al que fue su amigo y mentor. Dirigió la institución blanca durante 7 años. En ese
tiempo supo encarnar y transmitir los valores de la entidad, lo que le valió su
reconocimiento a nivel mundial.

En Liga, el equipo se mostró muy sólido en casa en la campaña 1978-79. Sólo se llevaron un
punto del Bernabéu cinco rivales: Espanyol, Sevilla, Hércules, Las Palmas y Atlético de

43
Madrid. Molowny sacó el máximo rendimiento a sus jugadores y en campo contrario
también marcó diferencias. El triunfo en El Molinón (0-1, con gol de Santillana) fue clave
para que el equipo merengue conquistase la sexta Liga en propiedad.

La brillante actuación de los merengues se empañó con la muerte del presidente del club. El
Real Madrid quiso tener un gesto de agradecimiento a título póstumo hacia la figura de
Santiago Bernabéu. El objetivo era que su gran labor en la institución perdurase en la
memoria colectiva. El 31 de agosto de 1979 se celebró la primera edición del trofeo que
llevaba su nombre. Participaron cuatro de los grandes del fútbol continental: Real Madrid,
Ajax, Bayern Múnich y Milán.

1.

Dominador absoluto

Los jugadores madridistas posan junto al título de Liga 1971-1972, conquistado por delante
de Valencia y Barcelona.

2.

Amancio cierra una etapa gloriosa

El delantero gallego ponía punto y final a su etapa en el Real Madrid con un nuevo título de
Liga.

3.

Última temporada de Santiago Bernabéu

El presidente más longevo de la historia blanca posa con la plantilla en su última campaña al
frente del club.

4.

Primer título post Bernabéu

Ya con Luis de Carlos como presidente, el Real Madrid conquista uno nuevo título de Liga.

Miguel Muñoz deja el banquillo en lo más alto

Padre del Real Madrid Yeyé, batió el récord de permanencia en el club como entrenador.
Catorce años en los que dejó su huella ganadora muy marcada. Bajo su dirección en el
banquillo, los títulos no pararon de llegar a la sala de trofeos del Santiago Bernabéu. En la
temporada 1973-74 cedió el testigo a Luis Molowny.

Campeones de Copa ante el eterno rival

En 1974, treinta años después de que naciera la rivalidad entre el Real Madrid y el
Barcelona, los blancos ganaron de forma contundente a los azulgrana (4-0) en la final de la
Copa. En el banquillo estaba Luis Molowny. El nuevo técnico arrancó con buen pie. Supo
mantener en el equipo el espíritu de lucha inculcado por su antecesor, Miguel Muñoz.

44
Juanito, mito del Real Madrid

El 19 de noviembre de 1976 el club ató el fichaje de Juan Gómez ‘Juanito’. El malagueño


cumplió su sueño de vestir y defender los colores del Real Madrid un año después. El
extremo era puro temperamento y en cada jugada demostró su calidad y habilidad con el
balón. Su primer partido con el equipo fue en el Camp Nou, frente al Barcelona. Cuajó una
gran actuación, contribuyendo a la victoria blanca por 2-3. En su primera temporada, los
blancos ganaron la Liga. Defendió con garra la camiseta madridista.

Juanito, mito del Real Madrid

“Hay que fichar al 8”

En la temporada 1976-77, el Real Madrid disminuyó el nivel y se apostó por fichajes de


renombre. Santiago Bernabéu y Agustín Domínguez, secretario general del club, se
desplazaron a Düsseldorf, invitados por el presidente del Borussia Mönchengladbach.
Presenciaron el partido entre el equipo alemán y el Dinamo de Kiev. El presidente
madridista se dirigió a Domínguez y le dijo: “El 10 juega bien, pero al que hay que fichar es al
número 8”. Era Uli Stielike, una de las figuras emergentes del conjunto germano. Horas
después, el 29 de abril de 1977, firmó su compromiso con el Madrid en un folio del hotel,
hasta que se redactó su contrato.

El 4 de junio de 1980 se disputó una final de Copa del Rey insólita e irrepetible en el
Bernabéu. El duelo entre el Real Madrid y el filial, el Castilla, se saldó con la victoria de los
mayores por 6-1. Lo de menos fue el resultado. La grandeza de la final fue ver jugar a dos
equipos de un mismo club. Ganase quien ganase, todo quedaba en casa. Fue una fiesta de
hermandad en un Bernabéu lleno hasta la bandera. Esa misma temporada el Madrid logró
otro doblete al ganar también el campeonato de Liga.

Palmarés

Ligas 6

Copas de España 2

Copas del Rey 1

1981-1990

Una brillante generación de canteranos fue la protagonista de los años 80. ‘La Quinta del
Buitre’, liderada por Emilio Butragueño, convirtió al Real Madrid en uno de los mejores
equipos de la historia. Los goles de Hugo Sánchez también jugaron un papel muy importante
en esta exitosa década. Los blancos consiguieron las dos primeras Copas de la UEFA y
patentaron las históricas remontadas europeas y las noches mágicas del Bernabéu.

En 1984, el Castilla se proclamó campeón de Segunda División bajo las órdenes de Amancio
y con la magnífica actuación de cinco futbolistas: Pardeza, Sanchís, Míchel, Martín Vázquez y
Butragueño. Estas perlas de la cantera fueron un descubrimiento y Di Stéfano no dudó en

45
subirlos progresivamente al primer equipo. La eclosión de este grupo llegó a partir de 1985,
con la conquista de cinco Ligas consecutivas e importantes récords, como el de máximo
realizador de la competición con 107 goles.

El delantero mexicano Hugo Sánchez tuvo mucho que ver en dichos éxitos. Junto a los
veteranos Juanito, Valdano y Santillana, se ensambló a la perfección con la ‘Quinta’. En sus
siete temporadas de blanco marcó 251 goles, siendo Pichichi en cuatro de ellas. En la retina
de todos los madridistas han quedado sus famosas celebraciones con voltereta incluida.

En esta década, el Real Madrid también logró su primer título de la UEFA. Fue en la
temporada 1984-85. Derrotó en una final a doble partido al Videoton. Un conjunto hasta
entonces desconocido que había dejado fuera de combate al PSG, Partizán de Belgrado y
Manchester United. En la campaña siguiente, los blancos revalidaron el título gracias a una
remontada impensable. Tras caer en la ida de octavos 5-1 ante el Borussia
Mönchengladbach, tiraron de épica en el choque de vuelta y con dos tantos de Valdano y
otros dos de Santillana lograron el pase a cuartos (4-0).

1.

Quinta Liga consecutiva

Agustín, en presencia de Ramón Mendoza, levanta un nuevo trofeo de campeones.

2.

Paco Buyo, un mito de la portería blanca

El guardameta gallego fue clave en los éxitos del Real Madrid en las décadas de los 80 y 90.

3.

Líderes de principio a fin

El conjunto de Leo Beenhakker fue líder durante toda la Liga y se proclamó vencedor a falta
de cuatro jornadas.

4.

Victoria en el derbi

El Real Madrid-Atlético de la temporada 1988-1989 se saldó con triunfo para los blancos.

Una Liga histórica

La Liga de la temporada 1986-87 fue la más larga de la historia. Se reformó el sistema


tradicional de doble vuelta y se añadió un play-off final. La creatividad de Butragueño, una
sobria defensa, la garantía de Buyo bajo palos y los goles de Hugo Sánchez dieron el título al
Real Madrid a falta de la última jornada. El delantero mexicano fue elegido por los jugadores

46
de Primera División como el mejor futbolista de la campaña. Además, se erigió, por tercer
año consecutivo, en máximo goleador del campeonato con 34 tantos.

Una Liga histórica

Victoria en ‘el partido del silencio’

El sorteo de la primera ronda de la Copa de Europa de la campaña 1987-88 deparó un duelo


entre el Madrid y un Nápoles liderado por Maradona. Los blancos estaban obligados a jugar
el primer encuentro en casa y a ‘puerta cerrada’. Un motivo que llevó a Beenhakker a
prepararlo en esas mismas condiciones. El Real Madrid se midió en dos duelos en el
Santiago Bernabéu a un Castilla equipado con los colores del cuadro italiano. Estos ensayos
dieron sus frutos y el plantel madridista ganó al Nápoles en ‘el partido del silencio’ (2-0).
Ante la ausencia de público, el club colocó banderas y pancartas para dar colorido al campo
y los miembros de la Junta Directiva abandonaron el palco para animar desde la banda.

Mejor equipo europeo de la década

Pese a no conquistar ninguna Copa de Europa en los años 80, los blancos siguieron dando
que hablar en el Viejo Continente y la revista France Football nombró al Real Madrid mejor
equipo europeo de la década. A Alfredo Di Stéfano le otorgó el Súper Balón de Oro como
mejor jugador de los últimos 30 años.

Palmarés

Copas de la UEFA 2

Ligas 5

Copas del Rey 2

Copa de la Liga 1

Supercopas de España 3

1991-2000

Jorge Valdano, Fabio Capello y Vicente del Bosque fueron los nombres propios de esta
década. Tres entrenadores de éxito que llevaron al Real Madrid a mandar en el campeonato
de Liga y en Europa. Contaron con jugadores estelares para proclamarse campeones.
Futbolistas de la talla de Redondo, Laudrup, Seedorf, Suker, Mijatovic o Roberto Carlos
aterrizaron en el club blanco en los 90.

Después de demostrar sus dotes como técnico en el Tenerife, capaz de generar un fútbol
atractivo y eficaz, Valdano regresó al Real Madrid en 1994. Con los fichajes de Redondo,
Laudrup, Amavisca y Cañizares, el conjunto madridista ganó la Liga esa temporada. La
misma campaña en la que debutó el canterano Raúl. El 29 de octubre, con tan sólo 17 años,
el joven madrileño cubrió la baja de Martín Vázquez en La Romareda, cuajando un excelente
partido. Sería el comienzo de una leyenda.

47
A comienzos de 1995, el Real Madrid de Valdano le endosó un 5-0 al Barça de Johan Cruyff
en el Santiago Bernabéu. Un encuentro mágico que fue televisado y seguido por más de diez
millones de espectadores. Pero los malos resultados cosechados en el curso 95-96 obligaron
a Lorenzo Sanz a contratar a Fabio Capello, uno de los técnicos más cotizados del fútbol
europeo. El italiano contó con un plantel de ensueño. Los fichajes de Seedorf, Suker,
Mijatovic y Roberto Carlos, junto a los Raúl, Hierro o Redondo, llevaron al Madrid a
conquistar de nuevo el campeonato liguero.

El 20 de mayo de 1998 fue un día histórico para el madridismo. 32 años después y bajo las
órdenes de Jupp Heynckes, el Real Madrid volvía a la cima europea tras derrotar en la final
de la Liga de Campeones a la Juventus. Un tanto de Pedja Mijatovic en el minuto 66
mandaba la Séptima desde el Amsterdam Arena a las vitrinas del Santiago Bernabéu. En
diciembre de ese mismo año, pero en esta ocasión bajo las órdenes de Guus Hiddink, el
Madrid conquistó la segunda Intercontinental.

En 1999, y tras toda una vida ligada al club blanco como futbolista, Vicente del Bosque
regresó para dirigir al primer equipo. El salmantino consiguió asentar en la plantilla una
filosofía que la convertiría en la mejor del continente. El primer título llegó en el 2000: la
Octava Copa de Europa. Ese mismo año, Florentino Pérez aterrizó en la presidencia blanca y
fichó a uno de los mejores jugadores del planeta, Luis Figo.

1.

El título más añorado

Raúl, Karembeu y Morientes pasean la Copa de Europa 32 años después.

2.

Un gol de campo a campo

Raúl recorrió más de 70 metros para batir a Cañizares y certificar la octava Copa de Europa
para las vitrinas madridistas.

3.

De manos del Príncipe Felipe

Manolo Sanchís recibe el título de campeones de Europa sobre el césped de Saint Denis.

4.

Brillante conquista de la Liga

El equipo dirigido por Jorge Valdano ofreció un gran espectáculo para ganar el título en la
campaña 1994-1995.

48
Siguiente Anterior

Adiós a Juanito, una de las leyendas del Real Madrid

El 2 de abril de 1992, un trágico accidente de tráfico arrebató la vida a Juanito, uno de los
ídolos del madridismo. El malagueño había asistido al partido de Copa de la UEFA entre el
Real Madrid y el Torino en el Santiago Bernabéu. Regresaba a Mérida, donde ejercía de
técnico, cuando tuvo lugar el triste suceso. El siete madridista siempre fue muy querido en
el estadio blanco, por eso ya es un clásico el cántico "Illa, illa, illa, Juanito Maravilla" en el
minuto siete de cada encuentro.

Adiós a Juanito, una de las leyendas del Real Madrid

Fin a la imbatibilidad de equipos holandeses en competición europea

En la Copa de la UEFA del curso 1991-1992, el Real Madrid puso fin a una tradición
holandesa. Sus equipos no conocían la derrota en casa en competición europea desde hacía
más de una década. El cuadro blanco venció a domicilio al Utrecht (1-3), con goles de Roest
en propia puerta, Prosinecki y Villarroya.

El mejor club de la historia

La consecución de más de cincuenta títulos llevó a la FIFA a nombrar al Real Madrid el


‘Mejor Club de la Historia’ en 1998. Di Stéfano y Puskas fueron elegidos entre los diez
mejores jugadores. Roberto Carlos, Raúl, Suker y Mijatovic también fueron galardonados
por estar entre los 18 futbolistas más destacados de 1997. Tras conquistar otra Copa de
Europa en 2000, el Real Madrid fue elegido ‘Mejor Club del Siglo XX’.

El mejor club de la historia

Di Stéfano, nombrado presidente de honor

Tras más de 12 años al servicio del club como futbolista y entrenador, Alfredo Di Stéfano fue
nombrado en julio de 2000 presidente de honor del Real Madrid. La decisión se adoptó
durante la primera sesión de la nueva Junta Directiva encabezada por Florentino Pérez. Fue
ratificada por la Asamblea General de Socios Compromisarios el 5 de noviembre.

Palmarés

Trofeo FIFA al Mejor Club del Siglo XX 1

Copas de Europa 2

Copas Intercontinentales 1

Ligas 2

Copas del Rey 1

Supercopas de España 2

2001-2010

49
En esta década el Real Madrid volvió a pasearse orgulloso y triunfal por el Viejo Continente.
El conjunto madridista levantó la novena Copa de Europa, la tercera Intercontinental y cinco
Ligas, entre otros títulos. Además, Florentino Pérez saneó la economía de la institución
convirtiéndola en una de las más poderosas del planeta.

Vicente del Bosque continuó como entrenador madridista hasta 2003. Su filosofía y estilo de
juego hicieron del Madrid un equipo campeón. El conjunto blanco celebró durante su
estancia en el banquillo la consecución de otra Copa de Europa, otra Intercontinental, dos
campeonatos nacionales, una Supercopa de España y una Supercopa de Europa. Una
trayectoria sólo comparable con la del Real Madrid de los años 50 y 60.

La gestión de Florentino Pérez representó un profundo cambio en las estructuras del club.
Saneó la economía y realizó una profunda transformación. Impulsó una completa
renovación del Santiago Bernabéu, creó la nueva Ciudad Deportiva de Valdebebas e
inauguró el estadio Alfredo Di Stéfano. En el capítulo deportivo, cumplió los deseos de la
afición: vestir de blanco a Zidane, Ronaldo y Beckham y conquistar la novena Copa de
Europa. Al comienzo de 2006 dimite tras un balance al que además se suman dos Ligas, una
Intercontinental, dos Supercopas de España y una Supercopa de Europa.

El 3 de julio de ese año, Ramón Calderón toma posesión de la presidencia del Real Madrid.
Bajo su mandato, el equipo gana dos Ligas y una Supercopa de España. El 16 de enero de
2009 dejó el cargo, que pasó a ocupar Vicente Boluda, vicepresidente hasta ese momento.
El 1 de junio de 2009, Florentino Pérez es nombrado presidente del Real Madrid.

En su segunda etapa, continuó ilusionando al madridismo con los fichajes de los mejores
jugadores y entrenadores del mundo. Llegaron futbolistas de la talla de Cristiano Ronaldo o
Benzema, entre otros, y el técnico José Mourinho. El portugués aterrizó en el Santiago
Bernabéu una semana después de haberse proclamado campeón de Europa con el Inter de
Milán en ese mismo escenario.

1.

EL REY DE LA NOVENA

Zinedine Zidane marcó un gol de ensueño para dar el triunfo al Madrid en la final de la Copa
de Europa ante el Bayer Leverkusen.

2.

DOMINADORES DEL MUNDO

50
La plantilla blanca celebra la conquista de su tercera Copa Intercontinental en el estadio de
Yokohama.

3.

LA NOVENA LLEGA A MADRID

Fernando Hierro y Raúl González muestran la Copa de Europa a la llegada del equipo a
Barajas.

4.

EL COMIENZO DE UNA GRAN TEMPORADA

La Supercopa ante el Zaragoza fue el preludio de una campaña que finalizó con una nueva
Copa de Europa.

Un centenario histórico

El 6 de marzo de 2002 el Real Madrid cumplió 100 años. El madridismo vivió un año de
emociones intensas gracias a la multitud de actos conmemorativos que organizó el club para
celebrarlo. El rey Juan Carlos fue el presidente honorífico de esta conmemoración,
concebida para proyectar la imagen de un club universal, acorde a su histórica grandeza. El
broche de oro lo puso el equipo a final de temporada, conquistando la Novena Copa de
Europa, la tercera Intercontinental y su primera Supercopa de Europa.

Un centenario histórico

Dos Ligas consecutivas

En la temporada 2006-07, Fabio Capello volvió al banquillo del Real Madrid. De nuevo
imprimió su carácter ganador a la plantilla, contribuyendo a la consecución de la trigésima
Liga. Un triunfo que comenzó a gestarse el 18 de marzo de 2007. Tras un trascendental
partido ante el Barcelona (3-3), el equipo sufrió una importante transformación. En las
últimas 12 jornadas ganó diez encuentros, empató uno y perdió otro. En la campaña 2007-
08, repitió conquista con Schuster en el banquillo. El conjunto madridista dejó clara su
apuesta por el título desde el comienzo del campeonato y fue líder desde la segunda
jornada.

Dos Ligas consecutivas

Palmarés

Copas de Europa 1

Supercopas de Europa 1

Copas Intercontinentales 1

Ligas 4

Supercopas de España 3

51
Copas del Rey 1

2011-2020

En esta etapa el Real Madrid ha vuelto a marcar la pauta del fútbol mundial al ganar cuatro
Copas de Europa y cuatro Mundiales de Clubes. La Décima llegó en 2014, iniciando un ciclo
glorioso en el que se lograron la Undécima, la Duodécima y la Decimotercera en tres años
consecutivos (2016, 2017, 2018). Además, el 2017 fue un año de récord y se ganaron por
primera vez cinco títulos: Copa de Europa, Mundial de Clubes, Liga y Supercopas de Europa
y España.

En los primeros años de esta nueva década llegaron a las vitrinas los tres trofeos
conquistados por el Real Madrid de José Mourinho. El más destacado, la Liga de la campaña
2011-12, que ganaron con un récord de 100 puntos, la mayor cifra jamás lograda hasta
entonces en la historia del campeonato, y 121 goles. También levantaron ante el Barcelona
una Copa del Rey y una Supercopa de España.

En junio de 2013, Carlo Ancelotti llegó al Real Madrid. El italiano conquistó cuatro títulos en
el conjunto blanco. El primero de ellos fue la decimonovena Copa del Rey, venciendo en la
final al Barcelona. El 24 de mayo de 2014 los blancos volvieron a levantar la Copa de Europa.
Con su victoria por 4-1 ante el Atlético se llevaron la Décima. Ramos, Bale, Marcelo y
Cristiano certificaron el triunfo.

En la segunda temporada de Ancelotti llegaron dos nuevos éxitos: la Supercopa de Europa


frente al Sevilla y el primer Mundial de Clubes del Real Madrid ante el San Lorenzo. De esta
forma, se cerró el 2014 con cuatro títulos. En junio de 2015, Rafa Benítez regresó al club en
el que se formó para dirigir al conjunto blanco. En enero de 2016, Zidane se convirtió en
entrenador del primer equipo tras una trayectoria de leyenda como jugador. Su primera
temporada se cerró con la conquista de la Undécima ante el Atlético en Milán.

La segunda campaña del técnico francés estuvo repleta de triunfos. El Real Madrid ganó la
Duodécima, y se convirtió en el primer equipo en repetir título en la época Champions.
Junto a la máxima competición continental, también se ganaron la Liga 2016-17, la tercera
Supercopa de Europa y el segundo Mundial de Clubes, que se disputó en Japón. La
temporada 2017-18 se empezó levantando una nueva Supercopa de Europa, al ganar al
Manchester United, y con la décima Supercopa de España. En diciembre de 2017 llegó un
nuevo Mundial de Clubes, y se batió el récord de títulos en un año con cinco. El 2018
también forma parte de la leyenda madridista gracias a la Decimotercera, lograda ante el
Liverpool en una en una final que se jugó en Kiev, y al séptimo título de campeón del
mundo, conquistado en los Emiratos Árabes Unidos ante el Al Ain.

52
1.

La Decimotercera

La tercera Champions seguida llegó en Kiev ante el Liverpool, con tantos de Bale (2) y
Benzema

2.

Siete veces campeones del mundo

Tras el título de 2018, el palmarés de leyenda del club cuenta con 4 Mundiales de Clubes y 3
Intercontinentales.

3.

La Duodécima

Ronaldo (2), Casemiro y Asensio fueron los goleadores ante la Juventus en una final histórica
en Cardiff.

4.

Supercampeones de Europa

Casemiro e Isco marcaron en la victoria ante el Manchester United para ganar la cuarta
Supercopa de Europa.

5.

La Liga 33

El título se ganó en la última jornada en Málaga, en una edición en la que se marcó en todas
las jornadas.

6.

El último penalti

La final de la Undécima se decidió en la tanda de penaltis. Cristiano marcó el quinto y dio la


victoria al Madrid.

7.

Un momento inolvidable

Ramos igualó la final de la Décima en el 93’ y desató la locura madridista en todo el planeta.

8.

LA DÉCIMA SUPERCOPA DE ESPAÑA

Los jugadores del Real Madrid celebran el título conquistado ante el Barcelona en el
Santiago Bernabéu en 2017.

53
9.

CAMPEONES DE LA COPA DEL REY 2014

El Real Madrid se impuso al Barcelona en Mestalla con los goles de Di María y Bale.

Palmarés

Copas de Europa 4

Mundiales de Clubes 4

Supercopas de Europa 3

Ligas 2

Supercopas de España 2

Copas del Rey 2

3.6.2. El Fútbol Club Barcelona

HISTORIA FC BARCELONA

El 29 de noviembre de 1899, Hans Gamper fundó el FC Barcelona, junto a once entusiastas


practicantes de lo que en aquel momento era un desconocido deporte llamado 'foot-ball'.

Por aquel entonces, no podía ni imaginar la enorme magnitud que aquella iniciativa
terminaría alcanzando con el paso del tiempo. A lo largo de sus más de cien años de vida, el
Barça ha experimentado un crecimiento espectacular en todos los ámbitos y se ha
convertido en algo más que una entidad deportiva, haciendo realidad el lema de el Barça es
'más que un club'.

El Barça se ha convertido, para millones de personas de cualquier parte del mundo, en un


símbolo de identidad no tan solo deportivo, sino también social, político y cultural. En los
momentos más difíciles ha sido la bandera de Catalunya y ha representado los anhelos de
libertad del pueblo catalán, una simbología que continúa fuertemente arraigada a la
idiosincrasia del club y a la masa social. En el contexto español, el Barça se ve como un club

54
abierto y democrático. Y en el resto del mundo, el Barça se identifica con causas solidarias,
concretamente con la infancia, a través de su acuerdo de patrocinio con Unicef.

Durante todo un siglo, el barcelonismo ha vivido momentos de gloria e infortunio, épocas


brillantes y otras no tan exitosas, triunfos épicos e importantes derrotas. Y cada uno de
estos instantes ha contribuido a definir la personalidad de un club que, por sus peculiares
características, es único en el mundo.

Una historia más que centenaria pasa necesariamente por etapas muy distintas, tanto bajo
el punto de vista social como desde la óptica deportiva. Los primeros años (1899-1922) ,
desde la fundación hasta la construcción del estadio de Les Corts, el Barça fue un club de
fútbol que tuvo que singularizarse respecto a los otros equipos barceloneses, hasta devenir
en el club de referencia de la ciudad. El Barça se convirtió en el club líder en Catalunya, y
además apostó por acercarse a una sensibilidad catalanista que iba ganando cada vez más
fuerza.

De Les Corts al Camp Nou (1922-1957) , la entidad vivió situaciones contrapuestas. Por una
parte, el crecimiento asociativo, que superó por primera vez los 10.000 socios, y la decidida
orientación hacia el fútbol profesional y de masas, una etapa en la que destacaron
jugadores como Alcántara y Samitier. Por otra, las dificultades materiales y políticas
derivadas de la Guerra Civil española y la posguerra, pues el club tuvo que sobrevivir en un
clima muy adverso, con el asesinato en 1936 del presidente Josep Sunyol, la persona que
precisamente promulgó el lema 'deporte y ciudadanía'. Asimismo, la entidad sobrevivió e
inició una recuperación social y deportiva que se materializó con la construcción del Camp
Nou, bajo el decisivo influjo del jugador Ladislau Kubala.

De la construcción del Camp Nou al 75º aniversario (1957-1974) , el Barça vivió una etapa de
mediocres resultados deportivos, pero de consolidación como entidad, con un constante
crecimiento social y una lenta pero progresiva recuperación de sus señas de identidad, a
pesar de las circunstancias adversas. Una sensación palpable que se concretó por primera
vez en el lema 'El Barça, más que un club', pronunciado por el presidente Narcís de Carreras.
La emprendedora junta presidida por Agustí Montal trajo a Barcelona un futbolista que ha
marcado la historia del club: Johan Cruyff.

Del 75º aniversario a la primera Copa de Europa (1974-1992) la vida del club quedó marcada
por la llegada de la democracia a los clubes de fútbol, el inicio del largo mandato de Josep
Lluís Núñez, la ampliación del Camp Nou con motivo del campeonato del mundo de 1982 y
la conquista de la Recopa (1979) en Basilea, un gran éxito deportivo pero también social,
con una ingente y ejemplar expedición barcelonista que mostró a toda Europa la fusión de

55
las banderas azulgranas y catalanas. El retorno de Cruyff, esta vez como entrenador del
llamado 'Dream Team' (1990-1994), tuvo su colofón en la conquista de la Copa de Europa en
el estadio de Wembley (1992), con el célebre gol de Koeman.

La consagración en el mundo. De Wembley al Mundial de Clubes (1992-2009) marca la


evolución más reciente del club, enmarcado entre cuatro hitos deportivos fundamentales,
las tres copas de Europa y el Mundial de Clubes. Estos años están marcados por el fin de la
etapa presidencial de Josep Lluís Núñez y la celebración del Centenario del club (1999), que
mostró todo el potencial social de la entidad. Tras la presidencia de Joan Gaspart (2000-
2003), las elecciones de junio de 2003 llevaron a la presidencia Joan Laporta, que ha iniciado
una nueva etapa de crecimiento social, con 172.938 socios, y éxitos deportivos como las
cuatro Ligas, las Champions League alcanzadas en París y Roma y el Mundial de Clubes.

A partir de la temporada 2008-09, con la llegada de Josep Guardiola al banquillo del primer
equipo la plantilla cogió nuevas energías y logró en el año 2009 las Seis Copas en juego, un
hito que ha quedado grabado para siempre en la memoria de todos los barcelonistas. Unos
éxitos deportivos que han reforzado enormemente la proyección social y mediática del club.
La temporada 2009/10, la segunda de Guardiola al frente del banquillo, culmina con la
consecución del segundo título de Liga consecutivo, el vigésimo de la historia del club, y que
será recordado como el de los "99 puntos" por tratarse de una puntuación de récord. La
plantilla acabaría jugando en la competición de la regularidad hasta el último partido, ante
el Valladolid, y celebraría el título el mismo día, ante la afición del Camp Nou.

La grandeza del Futbol Club Barcelona se explica, entre muchos otros factores, por su
impresionante palmarés, que le convierte en el equipo con más títulos del estado español y
uno de los más laureados del mundo. Las vitrinas del museo barcelonista acogen todos los
trofeos posibles, encabezados por las Copas de Europa conseguidas en las finales de
Wembley (1992), París (2006) y Roma (2009) y el Mundial de Clubes de Abu Dhabi (2009).

Aparte de este máximo galardón continental, el Barça se ha ganado un prestigio


incuestionable en Europa siendo el único equipo del continente que ha estado presente de
forma ininterrumpida en las competiciones europeas desde su creación en 1955. Entre los
múltiples hitos conseguidos en Europa cabe destacar la condición de 'rey de la Recopa' que
ostenta el equipo azulgrana con cuatro galardones.

Además, los barcelonistas acumulan tres títulos correspondientes a la Copa de Ferias (luego
Copa de la UEFA y actualmente Liga Europea) de los años 1958, 1960 y 1966. También se
adjudicaron en 1971 este trofeo en propiedad en una final especial que enfrentaba al
primer ganador de esta competición, el FC Barcelona, y el último vencedor, el Leeds United.

56
Símbolos

Los colores

Uno de los elementos distintivos del Barça son los colores que visten sus jugadores.

Hace más de cien años que los colores azul y grana viven unidos en las camisetas de los
deportistas del FC Barcelona, por eso el club es también conocido como el equipo
azulgrana. Son colores que siempre han estado presentes en la indumentaria del equipo,
especialmente en la camiseta. En cambio, los pantalones fueron de color blanco durante los
diez primeros años de historia del club, después negros, y desde la década de 1920, azules.

Pero más allá de la identificación del Barça con los colores azul y grana, es lógico
preguntarse si dichos colores fueron fruto de una elección específica, y si dicha elección
perseguía algún motivo en concreto. Son varias las teorías que circulan en relación a esta
elección, aunque en este momento no hay ninguna que esté lo bastante contrastada como
para considerarla válida. Como es natural, todas las teorías tienen que ver con los propios
orígenes de los fundadores del club. Por eso, por ejemplo, se especuló con que los colores
azul y grana ya se encontraban en un club de fútbol suizo fundado anteriormente por
Gamper, o que pertenecen a la franja helvética, que es de donde procedía el fundador.
Ahora sabemos que estas hipótesis no son ciertas.

En cambio, siguen siendo hipótesis no demostradas todas las que afirman que los
fundadores se inspiraron en los colores de los lápices de contabilidad que se utilizaban en la
época, que tenían un color en cada extremo, precisamente el azul y el rojo. U otras teorías
aún más prosaicas, como la que sostiene que la madre de los hermanos Comamala
distribuyó fajas azules y rojas para que aquellos jóvenes jugadores se pudieran distinguir,
cuando aún no tenían uniforme. Como apuntábamos al principio, ni éstas ni otras teorías
han podido explicar adecuadamente por qué el Barça utilizó, desde un buen comienzo, los
colores azul y grana. Unos colores, pues, intensos y enigmáticos.

El escudo

Pocos elementos singularizan más la imagen de un grupo organizado como el escudo. Desde
el mismo momento de su fundación, el Barça tuvo ya un escudo que los jugadores lucían
con orgullo en la camiseta.

Era el escudo de la ciudad de Barcelona, embaldosado con cuatro cuartos. Arriba lucía una
corona y un murciélago, y estaba rodeado por dos ramas, una de laurel y otra de palmera.

57
Era una forma de expresar, desde buen principio, la vinculación del club con la ciudad que le
vio nacer.

Este escudo estuvo vigente hasta el año 1910. Después de que Gamper salvara el club de la
profunda crisis de 1908, los intentos de proporcionarle a la entidad un escudo propio y
diferenciado dieron sus frutos. En 1910, el Barça convocó un concurso abierto a todos los
socios que tuvieran propuestas. Ganó el dibujo de Carles Comamala, jugador del club entre
1903 y 1912, y por aquel entonces estudiante de medicina y un gran dibujante. Así nació el
escudo que el club ha lucido desde entonces, con pocas variaciones. Se trata de un escudo
con forma de olla que mantenía en los cuartos superiores la Creu de Sant Jordi y las cuatro
barras, elementos representativos de Barcelona y Catalunya, respectivamente. En el centro
del escudo, en una franja, aparecen las iniciales del club, F.C.B., y en la parte inferior los
colores azul y grana con un balón de fútbol. En definitiva, un escudo que reflejaba la
dimensión deportiva y la vinculación del club a la ciudad y el país.

Desde 1910, los cambios introducidos en el escudo han sido mínimos, la mayoría de carácter
estético, con pequeñas modificaciones en el trazo de su perfil. Los más importantes son los
que se tuvieron que hacer debido a condicionantes políticos. Con la instauración del
franquismo, las siglas F.C.B. fueron sustituidas por C.F.B., en consonancia con la
castellanización de la denominación del club. La dictadura también obligó a sustituir las
cuatro barras del cuarto superior, que quedaron limitadas a dos, y la bandera catalana
quedó eliminada del escudo. Aprovechando los actos del 50 aniversario del club, en 1949, se
recuperaron las cuatro barras. Las siglas originales no se recuperaron hasta finales de 1974,
de modo que el escudo volvió al contenido original de 1910.

La forma actual del escudo corresponde a la adaptación que hizo, en el año 2002, el
diseñador Claret Serrahima, que se decantó por unas líneas más estilizadas, suprimió los
puntos que separaban las iniciales del club, abrevió el nombre y redujo el número de
puntas. Cabe decir que este escudo presenta unas líneas más sencillas, que facilitan su
reproducción en todos los formatos de la identidad corporativa de la entidad.

Breve Historia del FC Barcelona

EL FC BARCELONA: MÁS QUE UN CLUB

El 29 de noviembre 1899 Joan Gamper fundo el Fútbol Club Barcelona. En recuerdo a los
colores del cantón suizo de donde era originario, Gamper escogió el azul y grana. Así nació
un mito, el club donde jugaron Kubala, Suárez, Cruyff, Maradona y hoy Ronaldinho. El
"Barça" a lo largo del siglo XX se ha convertido en un símbolo de Barcelona y Cataluña, en
donde los catalanes han proyectado su identidad como nación. Por esta razón decimos que
el "Barça" es más que un club.

58
NACE EL MITO

El 29 de noviembre de 1899, en la sede del Gimnasio Solé, Joan Gamper se reunió con
Gualteri Wild, Lluís d'Ossó, Bartomeu Terrados, Otto Kunzle, Otto Maier, Enric Ducal, Pere
Cabot, Carles Pujol, Josep Llobet, John Parsons y William Parsons. Once deportistas que se
reunieron para fundar un club de fútbol. Gualteri Wild fue nombrado primer presidente. El
primer parido que jugaron fue en el velódromo de la Bonanova, y jugaron con un
combinado que ingleses residentes en Barcelona que ganaron por 0-1.

Pasando por diversos escenarios, el 14 de marzo de 1909 el Club inauguró su primer campo
propio en la calle Industria con alojamiento para 6000 personas. En esta época el Barcelona
consigue sus primeros éxitos: Campeonato de Cataluña de 1909-10, 1910-11, 1912-13,
1915-16, 1918-19 1919-20, 1920-21 y 1921-22 y los Campeonato de España de 1909-10,
1911-12, 1912-13, 1919-20 y 1921-22.

EL CAMPO DE LES CORTS

El 20 de mayo de 1922 se inaugura del campo de Les Corts, también conocido como 'La
Catedral del fútbol', un estadio con capacidad para 30.000 espectadores que después de
diferentes proyectos llego hasta los 60.000. En el 1924 el club ya tenia 12.207 socios y un
amplio número de aficionados que pusieron las bases de la masa social actual. La
temporada 1928-29 se celebra la primera edición de la liga española, que ganará el Barça
cerrando de forma brillante una época repleta de títulos.

LOS AÑOS 30

Joan Gamper morirá el 30 de julio de 1930. Este mal comienzo de la década, fue un mal
augurio que se confirmo en sucesivas crisis institucionales: bajas de socios, malos resultados
deportivos y la presión política de los franquistas. La Guerra Civil de 1936 tiene
consecuencias funestas para la entidad. Josep Suñol, presidente del Club es asesinado por
los soldados franquistas cerca de Guadalajara, sin embargo la entidad continua viva y en el
36 el Barça hace una gira por Méjico y Estados Unidos que salva la economía del Club. En
marzo del 1938, una bomba lanzada por los fascistas sobre la sede social del FC Barcelona
provoca graves destrozos. Ya en el 39, las tropas franquistas crean muchos problemas para
el Club que se ha convertido en un símbolo de los catalanes, aunque en aquel momento, tan
sólo le quedaban 3.486 socios..

LA COPA LATINA

En la década de los cuarenta el Barça, poco a poco, va renaciendo de sus cenizas a pesar de
las dificultades coyunturales. En junio del 1943, acontece el escándalo de Chamartín, una

59
derrota sufrida en terreno madridista condicionada por las amenazas arbitrales y policiales,
que provoca la renuncia de Piñeiro, el presidente franquista, pero honesto. Llegan tiempos
mejores y se ganan las Ligas 1944-45, 1947-48 y 1948-49 y de la Copa Latina de 1949, una
competición precedente de la Copa de Europa que es el primer éxito internacional del FC
Barcelona. Estamos en la época de César, Basora, Velasco, Curta, los hermanos Gonzalvo,
Seguer, Biosca o Ramallets. El Barça celebra 50 años y tiene 24.893 socios

KUBALA

Ladislao Kubala llego a Barcelona en junio de 1950, convirtiendo al FC Barcelona en un


equipo intratable gracias a una delantera mágica: Basora, César, Kubala, Moreno y
Manchón. Entre 1951 y 1953, el Barça gana todas las competiciones en las que participa
(Ligas 1951-52 y 1952-53 y las Copas 1950-51 1951-52 y 1952-53). De este periodo dorado ,
destaca la temporada 1951-52, la de las Cinco Copas: Liga, Copa, Copa Latina, Eva Duarte y
Martini Rossi.

EL CAMP NOU, 1957

Kubala dejo pequeño el camp de Les Corts y Francesc Miró-Sans, impulsa la construcción
del Camp Nou, que se inaugura el 24 de septiembre de 1957. El nuevo estadio tiene
capacidad para 90.000 espectadores.

Se ganan las Ligas 1958-59 y 1959-60 y las Copas de Ferias 1957-1958 y 1959-60 conducidos
por el entrenador Helenio Herrera y el sello de jugadores como Kocsis, Czibor, Evaristo,
Kubala, Eulogio Martínez, Suárez, Villaverde, Olivella, Gensana, Segarra, Gràcia, Vergés y
Tejada.

La década de los sesenta es un periodo de crisis deportiva (sólo se ganan las Copas 1963 y
1968 y la Copa de Ferias 1966) sin embargo es la época donde nace la frase 'más que un
club' . El Barça está por encima de la coyuntura deportiva: la adhesión a los colores
barcelonistas es una manera de defender la identidad nacional catalana.

CRUYFF

En 1973 el FC Barcelona ficha el holandés Johan Cruyff, configurando una nueva delantera
de oro con Rexach, Asensi, Cruyff, Sotil y Marcial que gana la Liga 1973-74 de forma
brillante. En esta época, el Club, tiene 69.566 socios y ya es la entidad deportiva más
poderosa del mundo, cumpliendo los 75 años. Joan Miró, hará cartel conmemorativo de la
efeméride.

JOSEP LLUÍS NUÑEZ

60
En mayo de 1978 Josep Lluís Núñez gana la presidencia del Club. Empieza un periodo de
gran expansión social y patrimonial. En lo social se llega a los 100.000 socios, se fundan
multitud de peñas blaugrana, consolidando al FC Barcelona como la entidad deportiva más
importante del mundo. En el ámbito patrimonial el Barça se dota de unas instalaciones
deportivas emblemáticas: Ampliación del camp nou (con un aforo de más de 100.000
espectadores), construcción del Miniestadi, del Palau blaugrana, etc.

La trayectoria deportiva de la época Núñez es sin duda la más brillante de la historia del
Barça hasta el momento: la Recopa de Basilea, la Liga 1984-85, con inglés Terry Venables, el
Dream Team (1990-94) de Johan Cruyff (cuatro Ligas consecutivas, Recopa, Copa y
Supercopa de España y la Copa de Europa de Wembley), los títulos ganados Bobby Robson
en la temporada 1996-97 y las dos Ligas consecutivas (1997-98 y 1998-99) conquistadas por
Louis Van Gaal en su primera etapa en el Club. Van Gaal, además, consigue el doblete el año
1998 (Liga y Copa) 39 años después del último..

EL BARÇA DE HOY

Actualmente, el FC Barcelona es una entidad deportiva con secciones de baloncesto,


balonmano, hockey patines, atletismo, hockey hielo, patinaje artístico, fútbol sala, rugby,
béisbol, voleibol y fútbol femenino. Además, El equipo de fútbol es el único de Europa que
ha jugado de forma ininterrumpida en las competiciones europeas desde 1955. Hoy el
número de socios es de 105.706, y el de peñas, a 1.508.

3.7. ¿Por qué SE DEBE EMPLEAR LA ENSEÑANZA BILINGÚE EN LAS


UNIVERSIDADES MODERNAS?

En el mundo globalizado en que vivimos, las competencias que los alumnos necesitan o
necesitarán están en pleno cambio y en un constante desarrollo y evolución. Sin embargo, desde
hace décadas, el papel de la competencia lingüística en una lengua extranjera no hace más que
crecer, precisamente impulsada por las nuevas tecnologías y la existencia de una comunicación
cada vez más global, no compartimentada, que requiere una lengua común.

En el aprendizaje de inglés, España dista mucho de estar a la cabeza. No parece que hayamos
encontrado, después de muchos intentos y de tantos años, la fórmula que ayude a nuestros
jóvenes a terminar su escolaridad con un nivel aceptable en la lengua de Shakespeare. Las cifras
nacionales distan mucho de los números aportados por países del norte de Europa.

En este sentido, la enseñanza bilingüe se ha abierto paso como el modelo, a través de la


metodología AICLE (CLIL en inglés), en el que se han puesto todas las esperanzas en relación al
futuro lingüístico de nuestros alumnos.

61
En una interesantísima y esclarecedora OpenClass, Los Desafíos de la Enseñanza Bilingüe en
España, el presidente de la Asociación Enseñanza Bilingüe, Xavier Gisbert, subraya, de mano de la
directora del Máster Universitario en Educación Bilingüe, Elena Serrano, la relevancia de los
diferentes agentes involucrados en la educación, no sin antes aclarar la diferencia, a menudo no
entendida, entre bilingüismo y enseñanza bilingüe:

En una enseñanza bilingüe no se pretende que el alumno alcance una competencia lingüística
equivalente a la de un hablante bilingüe, sino que pueda desarrollar al máximo esa competencia.

Se trata de pasar de unas mil horas de exposición a la lengua extranjera, a unas tres mil,
aproximadamente, dependiendo del programa. Pero las implicaciones van más allá que un mero
aumento del número de horas: supone cantidad pero sobre todo calidad y para ello todos los
agentes educativos necesitan involucrarse.

A nivel administrativo, se debe tener como objetivo conseguir un marco nacional de enseñanza
bilingüe, disminuyendo las disparidades existentes entre las diferentes comunidades autónomas,
debiendo escoger un modelo sólido, con un seguimiento y una evaluación adecuados. Las
administraciones tienen que demostrar compromiso en la normativa y proporcionar recursos.

Los centros tienen que trasladar el marco legislativo al aula: no se les ha de obligar a incluir
programas bilingües; debieran ser ellos los que lo solicitaran de acuerdo con padres y docentes. Se
tiene que intentar desarrollar un ambiente bilingüe, contando con el equipo directivo, el claustro
de profesores, los padres y los alumnos, no se trata únicamente de poner carteles en lengua
inglesa. Los centros son los responsables de la calidad de la enseñanza y de los docentes que
trabajan en él.

Sobre las espaldas de los profesores recae todo el peso de los programas bilingües. Son la clave: si
un docente no quiere, no puede o no sabe, no va a salir bien. La profesora Elena Serrano recuerda
cómo, en la actualidad, en la mayoría de las ofertas de trabajo, los centros educativos solicitan a
sus candidatos una competencia lingüística elevada en un segundo idioma. Del mismo modo cabe
destacar la ansiedad y la presión a las que están sometidos los profesores, así como el esfuerzo y
tiempo adicionales que supone este proyecto, pocas veces reconocidos, aunque en otros países sí
lo toman en consideración, con gran parte de la jornada destinada a formarse, investigar y
cooperar entre ellos, no únicamente dedicada a la docencia.

Por todo ello, la formación del profesor es clave y debe ser, esencialmente, de dos tipos:
lingüística y metodológica. Tiene que ser una formación lingüística que asegure un nivel mínimo
determinado. Los expertos indican que debe ser un C1. Los profesores tienen que sentirse
cómodos para expresarse en ese idioma que no es su lengua materna, lidiando con sus
inseguridades y posibles puntos débiles o carencias. En el plano didáctico, se necesita una
combinación de metodologías asociadas a AICLE, cada docente debe buscar su camino, con unas
propuestas activas y participativas. Estos cambios no influyen únicamente al profesor de las
asignaturas que se imparten en inglés, sino también al docente de lengua inglesa, ya que su
asignatura no se desarrollará del mismo modo en un centro con Enseñanza Bilingüe que en uno sin
ella.

62
Los futuros docentes deben buscar, para su formación inicial, una institución que ofrezca una
formación de calidad, práctica y útil para su trabajo.

Los padres juegan un papel fundamental. Deben estar informados y pueden exigir programas de
enseñanza bilingüe que garanticen un nivel de competencia lingüístico alto al final de la
escolarización de sus hijos, pero sin perder los debidos conocimientos del resto de asignaturas.
Muchos padres muestran un gran compromiso e interésen que sus hijos aprendan un segundo
idioma desde pequeños y lo demuestran con iniciativas como hablarles ellos mismos en inglés, sin
ser ellos nativos. Además, algunos estudios destacan los posibles beneficios que puede suponer,
también para los adultos, el uso de dos lenguas.

Por último, los estudiantes, receptores de todo el trabajo que se realiza desde la administración a
los profesores, ellos están expuestos a un tipo de enseñanza que puede ser una llave para su
futuro laboral y para poder competir, en igualdad de condiciones, con otros jóvenes en un mundo
globalizado. Adquirir una lengua que no es materna en un contexto monolingüe les supondrá un
esfuerzo adicional, pero no se deben olvidar las ventajas personales y profesionales que puede
acarrear.

3.8. ¿COMO SOBRESALEN LAS EMPRESAS DE DATOS? CASO DATA


CENTRIC (ESPAÑA).

Las empresas con un mayor crecimiento ya han situado el dato como core de su negocio. El éxito
reside en haber evolucionado sus procesos y su estructura organizacional para el
aprovechamiento del dato de manera transversal en la compañía, convirtiéndolo en insights
accionables.

#DataDay2019 vuelve como el evento de referencia en España sobre el aprovechamiento de los


datos y congregará a una cuidada selección de ponentes que, desde como responsables de datos
en grandes compañías data-centric, mostrarán el camino andado para convertir el dato en un
factor determinante para la toma de decisiones y cómo esta realidad ha incidido sobre su
desarrollo y su cuenta de resultados. Asimismo, también habrá un espacio destacado para analizar
el impacto del Reglamento General de Protección de Datos, 300 días después de su entrada en
vigor.

Estudio sobre el uso de los datos en la empresa española

Antonio Romero de la Llana, CEO de DataCentric, abrió la jornada haciendo públicos los resultados
del Estudio sobre el uso de los datos en la empresa española. Realizado sobre una muestra de 568
empresas con un carácter multisectorial, representación nacional, grandes empresas y PYMEs e
interlocución con responsables de gerencia, marketing, TIC y datos; el estudio ha puesto de
manifiesto el siguiente mapa.

– Los datos están presentes en la estrategia del 50% de las empresas.

63
– El 49% cuenta con departamento dedicado a la gestión de datos.

– El uso predictivo de los datos se sitúa en un 28%.

– Solo el 20% de las empresas disponen de un data lake para explotaciones big data.

– La inmensa mayoría utiliza tecnologías no específicas para la gestión de datos.

A continuación, tomaron la palabra los responsables de datos de diferentes compañías, líderes en


sus sectores, para presentar sus casos de éxito y nuevos proyectos en materia de datos.

Chema Alonso, CDO de Telefónica

Chema Alonso, CDO de Telefónica, articuló su exposición desde la premisa de que ”una compañía
que no toma sus decisiones en base a los datos está muerta aunque no lo sepa”. A partir de ahí,
explicó el funcionamiento y las funcionalidades de AURA, plataforma que, gracias a la aplicación
de capacidades cognitivas, será la base para un nuevo modelo de relación con sus clientes.

A través de AURA, los usuarios ya pueden gestionar su experiencia digital con la compañía, al
tiempo que controlan de forma transparente y segura los datos que generan por el uso de sus
productos y servicios. Con Aura, Telefónica ha iniciado una nueva etapa en su proceso de
transformación hacia una onlife telco y se convierte en la primera compañía del sector que brinda
a sus clientes la posibilidad de gestionar de una forma natural su relación con la compañía gracias
a la inteligencia cognitiva.

Juanjo Casado, CDO de Repsol

Juanjo Casado, CDO de Repsol explicó cómo disponer de ingentes cantidades de datos está
ayudando a la compañía a automatizar y mejorar sus procesos productivos, a producir energía más
limpia y eficiente, a maximizar la calidad de los productos y también a mejorar la seguridad de sus
entornos. Casado puso especial énfasis en el uso predictivo de los datos para definir los productos
y servicios del futuro, así como en el mantenimiento de sus estructuras “que no pueden permitirse
fallos”.

David Rey, CDO de Idealista

David Rey, CDO de Idealista, una compañía que nació con los datos como principal motor; dio
especial importancia a la estructuración y análisis de las fuentes open data y, en esta línea,
presentó la creación de un ‘Catastro de potencial solar’ para toda España. Asimismo anticipó el
desarrollo de modelos de dinámicas del mercado inmobiliario. “Estudiamos los comportamientos
de los micromercados para conocer su situación pasada y estimar qué podría pasar en el futuro o
saber si se encuentran en un estado de equilibro”, apuntó Rey.

José Manuel de la Chica, CTO de Santander Universidades

José Manuel de la Chica, CTO de Santander Universidades & CTO y Head of Innovation de
Universia Holding, centró su ponencia en el potencial de los datos para mejorar la educación y su
impacto en la economía y la sociedad. “No entender el compromiso mutuo y bidireccional de la
empresa con la universidad y de la universidad con la empresa en el uso de los datos y en la

64
formación para su uso, tendrá un enorme impacto en la competitividad futura”, señaló de la Chica
el cierre de su intervención.

Manuel Suárez, CDO de DataCentric

Por su parte Manuel Suarez, CDO de DataCentric, y Marcos Ríos, Senior Manager Analytics de
DataCentric, presentaron Piramid, 3rd party data de la compañía, que contiene el mayor volumen
de datos reputados, relacionados entre sí y transformados en un formato adecuado para ser
ingerido por los sistemas de información de los clientes. Piramid une las cuatro realidades del
mercado: empresas, consumidores, mundo físico y mundo digital en un solo repositorio de
información de alto valor adaptable a todas las necesidades de negocio.

Isaac González, founder de Samurai Funnel

También intervino Isaac González, founder de Samurai Funnel, que compartió su modelo probado
de 4 pasos para convertirse e una empresa data-centric. “El mayor problema que suele tener el
directivo en el contexto actual es como empezar”, destacó González que apuntó también a la
“necesidad de nuevos perfiles profesionales y tecnología que exigen una inversión upfront antes
de ver un euro en resultados”. Su modelo recopila todo el aprendizaje propio para ayudar a
minimizar los riesgos de esta transformación.

Mesa Redonda. Impacto del GDPR a los 300 días de su aplicación

Moderados por Ángeles Martínez, DPO de DataCentric, expertos legales de primer nivel
reflexionaron sobre el impacto real del GDPR en los primeros meses posteriores a sus entrada en
vigor.

Javier Fernández Samaniego, director de Samaniego Law, lamentó que, “a pesar de las buenas
intenciones del Reglamento, la realidad está demostrando que sirve para poco”. “Llevamos desde
el año 2012 con lo mismo; se perseguía una coherencia interna en Europa, pero no va a ser
posible: estamos como antes”, recalcó Fernández Samaniego.

Paloma Llaneza, CEO de Razona Legal Tech, explicó la falta de efectividad del Reglamento desde la
imposibilidad de asumir el cambio de paradigma que supone. “Es complicado cumplir el
reglamento, no hay herramientas, y si las hay, son verdaderamente difíciles de usar.Esta ley tiene
un problema grave de metodologías”, sentenció Llaneza.

Por su parte, Alonso Hurtado, socio de Écija, reforzó lo expuesto por sus compañeros de mesa y
señaló que “es un reglamento extremadamente difícil de impalntar”, pero también hizo referencia
a “los beneficios del efecto disuasorio que ha generado“. Javier Tamayo, responsable Legal de O2,
recordó que este reglamento europeo que habilitaba a los estados miembros a desarrollar las
cuestiones necesarias para clarificarlo, es una normativa que cuenta con 97 artículos, que no dudó
en juzgar como “demasiados”.

Nuestros principales activos son los datos, el software y un equipo humano que ha desarrollado su
oficio y know how trabajando como data partner para las principales compañías multinacionales y
miles de empresas españolas.

65
Hemos evolucionado a un entorno innovador, digital y global en constante transformación.
Marcado por la conectividad, la movilidad y lo social.

En Data Centric tratamos siempre de traducir retos exigentes y proyectos complejos en soluciones
de calidad y de fácil implementación, aplicando siempre una perspectiva a largo plazo en la
relación con nuestros clientes.

Aprendemos de los datos para, mejorar el performance de los procesos de negocio, y optimizar las
inversiones en acciones comerciales y de marketing, compartiendo siempre una visión analítica y
los insights derivados de los proyectos.

Nuestra pasión por los datos nos ha llevado a construir el Data Lake de DataCentric. Un sistema de
información complejo basado en técnicas de Big Data, conectado con Internet y los Data Sets más
relevantes tanto públicos como privados sobre consumidores, empresas y territorios. Así,
desarrollamos soluciones y APIs verticales para poder accionar y tomar mejores decisiones en
tiempo real.

Respeto por la privacidad y el cumplimiento legal forman parte de nuestros valores esenciales.
Garantizamos a nuestros clientes la mejor custodia y tratamiento de su activo más valioso, la
información sobre sus clientes y su negocio.

3.9. ¿QUE ES LA PRODUCTIVIDAD?

La productividad es la relación entre la cantidad de productos obtenida por un sistema productivo


y los recursos utilizados para obtener dicha producción. También puede ser definida como la
relación entre los resultados y el tiempo utilizado para obtenerlos: cuanto menor sea el tiempo
que lleve obtener el resultado deseado, más productivo es el sistema. En realidad la productividad
debe ser definida como el indicador de eficiencia que relaciona la cantidad de recursos utilizados
con la cantidad de producción obtenida.

La productividad evalúa la capacidad de un sistema para elaborar los productos que son
requeridos y a la vez el grado en que aprovechan los recursos utilizados, es decir, el valor
agregado. Una mayor productividad utilizando los mismos recursos o produciendo los mismos
bienes o servicios resulta en una mayor rentabilidad para la empresa. Por ello, el Sistema de
gestión de la calidad de la empresa trata de aumentar la productividad. La productividad tiene una
relación directa con la mejora continua del sistema de gestión de la calidad y gracias a este
sistema de calidad se puede prevenir los defectos de calidad del producto y así mejorar los
estándares de calidad de la empresa sin que lleguen al usuario final. La productividad va en
relación con los estándares de producción. Si se mejoran estos estándares, entonces hay un
ahorro de recursos que se reflejan en el aumento de la utilidad y proceso.

66
3.10. ¿CON EL BREXIT QUE TIPO DE CAMBIOS SE PROYECTA A FUTURO
EN EL REINO UNIDO?

El Brexit es un golpe muy fuerte a la idea de la integración europea, que se basa en que el
proyecto se va ampliando sucesivamente a más países. El Brexit es lo contrario: es la primera vez
que un país decide por voluntad propia marcharse", explicó a BBC Mundo Pol Morillas,
investigador principal para Europa del Centro de Estudios Internacionales de Barcelona (Cidob).

Señala que, tras la confirmación de la salida de Reino Unido, existe la posibilidad real de que otros
países donde el euroescepticismo está alto decidan seguir esa ruta.

No obstante, advierte, no será algo inmediato porque cada país tiene sus propias dinámicas.

"En Francia, por ejemplo, dependería de que Marine Le Pen gane las elecciones, algo que no es
evidente en este momento. En Holanda, en cambio, donde es muy fácil convocar a referendos,
sería más fácil emular el caso británico", afirma.

Joaquín Roy, director del Centro de Estudios de la Unión Europea de la Universidad de Miami
considera que el Brexit tendrá un impacto muy negativo sobre el proyecto europeo porque
debilita los logros de la integración.

"La salida de un socio importante, aunque ha sido incómodo durante muchos años, tendrá unos
efectos lamentables. No creo que el Brexit conduzca a la desintegración de la UE, pero sus efectos
se van a notar", dijo Roy a BBC Mundo.

El experto señaló que indudablemente lo ocurrido en Reino Unido dará alas a movimientos
nacionalistas en otros países europeos, pero destaca que no es la primera vez que la integración
europea se enfrenta a situaciones difíciles.

¿Por qué Reino Unido mira a Noruega de cara al referendo que decidirá su futuro en la Unión
Europea?

Recordó que en la década de 1960, el veto del presidente francés, Charles De Gaulle, impidió el
ingreso de Reino Unido en las Comunidades Europeas, por lo que la integración estuvo
prácticamente congelada y, luego, pasaron casi 20 años sin completar el mercado común.

"La UE no ha tenido éxitos de la noche a la mañana. Poco a poco se ha ido aprendiendo de los
errores", dijo.

La salida integra y desintegra a la vez

Charles Grant, director del Centro para la Reforma de Europa (CER), un instituto de análisis con
sede en Londres, considera que el Brexit debilitará las fuerzas que desde dentro de la Unión
Europea favorecen una mayor integración.

Entre las consecuencias inmediatas que se produjeron se encontraba el anuncio del entonces
primer ministro británico, David Cameron, quien estuvo a favor de la permanencia del Reino Unido
en la Unión, de dimitir antes del siguiente congreso nacional del Partido Conservador, previsto

67
para el 2 de octubre de 2016. La elección del próximo líder "tory" estaba programada para dicho
congreso, y se habría disputado entre Theresa May y Andrea Leadsom, quienes resultaron
ganadoras de la votación entre los parlamentarios del Partido Conservador. Tras la retirada de
Leadsom, Theresa May fue proclamada como sucesora de Cameron directamente, sin primarias, y
asumió el encargo de formar Gobierno el 13 de julio.7

Por otra parte, el resultado del referéndum no era vinculante, ya que para iniciar el proceso de
salida de la Unión Europea, el Parlamento del Reino Unido tenía que derogar una serie de leyes, y
la Cámara de los Comunes podía echar abajo cualquier iniciativa en este sentido.8

Finalmente, el 29 de marzo de 2017 tras conseguir la aprobación del parlamento británico, el


Reino Unido comunicó al presidente del Consejo de la Unión Europea su intención de abandonar la
Unión Europea, tal como establece el artículo 50 del Tratado de la Unión Europea. Esta
comunicación dio inicio al proceso de salida, que según establece el tratado, tendrá una duración
inicial de dos años, prorrogable por acuerdo unánime de los Estados miembros.

3.11. ¿POR QUE HOY EN DIA EN LA BOLSA DE VALORES LAS EMPRESAS


DE TELECOMUNICACIONES DOMINAN EL MERCADO?

Las siete empresas de tecnología que valen oro en el Nasdaq.

CIUDAD DE MÉXICO, 21 de febrero.- La industria de tecnología se encuentra en auge. El Nasdaq,


indicador bursátil del sector, experimenta uno de sus máximos niveles posterior a la crisis de las
puntocom en 2000.

Según analistas, las tecnológicas fueron de las más blindadas durante el último periodo de crisis,
razón por la cual actualmente experimentan importantes crecimientos en sus ingresos, ganancias
y valor de sus acciones.

Cuatro de las cinco marcas más valiosas del mundo pertenecen a la industria de tecnología, según
el estudio Top 100 Most Valuable Global Brands 2010, realizado por la firma de investigación de
mercado Millward Brown.

En la clasificación, Google apareció como la número uno, seguida por IBM, Apple y Microsoft.

El National Association of Securities Dealers Automated Quotation (Nasdaq) es el nombre de la


bolsa de valores que reúne a más de dos mil 800 empresas de alta tecnología en electrónica,
informática, telecomunicaciones y biotecnología.

Gene Munster, analista para la firma de inversión Piper Jaffray, comentó que las empresas que
conforman el indicador Nasdaq están más sólidas que nunca, ya que el mercado de las nuevas
tecnologías se ha desarrollado a la par de la economía mundial, que impulsa la digitalización.

“La penetración de internet y la adopción de las nuevas tecnologías son dos de los principales
elementos que sustentan a las empresas del Nasdaq. Hoy se puede hablar de un mercado más
maduro y con lineamientos bien establecidos”, dijo Munster.

68
Actualmente, el valor del indicador Nasdaq es de dos mil 833.95 puntos, lo cual es una de sus
mejores cifras en los últimos ocho años, aunque todavía está muy lejos de sus puntos máximos,
cuando en marzo de 2000 superaron los cinco mil puntos y desencadenó la crisis de las puntocom.

Peter Garnry, analista de mercado para Saxo Bank, comentó que en los últimos dos años las
acciones de las empresas han tenido un buen comportamiento, y desde su último punto más bajo
registrado en marzo de 2009, las ganancias de las compañías de tecnología han tenido una
ganancia de más de 112 puntos porcentuales.

Las empresas de tecnología

Por un lado están empresas poderosas como Apple, Microsoft, IBM o Google, las cuales dominan
el sector y tienen un valor de mercado muy alto.

Por otra parte están aquellas empresas que aunque también cotizan en el Nasdaq tienen un valor
de mercado menor como Dell, Yahoo!, America Online, Amazon o eBay.

James Mitchell, analista de Goldman Sachs, comentó que hay otro grupo de empresas
tecnológicas conocidas como startup: Facebook, Twitter, LinkedIn, Groupon o Zynga, algunas de
las cuales se espera que a partir del próximo año se incorporen al indicador.

Apple

Actualmente, Apple es la empresa más valiosa en la industria de tecnología y una de las tres de
mayor valor de mercado en el mundo.

Se estima que su valor, según el precio y volumen de sus acciones en el Nasdaq, es de 321 mil
millones de dólares.

Ben Reitzes, analista de Barclays Capital, aseguró que las acciones de la compañía seguirán
subiendo en los próximos 12 meses, por lo cual, el valor de mercado de la firma de Cupertino
podría sobrepasar 400 mil millones de dólares para 2012.

“Apple es una empresa que tiene un gran flujo de efectivo, además de que en los próximos meses
se espera la aparición de nuevos productos como el iPad 2 e iPhone 5, que darían un nuevo
repunte a sus finanzas”, aseguró.

Con 35 años de haber sido fundada y tras la reciente salida de su mentor Steve Jobs, hoy la
compañía estadunidense se encuentra sólida con una facturación de 76.3 mil millones de dólares
en el último año y ganancias por 16.6 mil millones de dólares.

Microsoft

La empresa de software fundada por Bill Gates y Paul Allen hace 36 años hoy vale poco más de
231 mil millones de dólares, según sus cotizaciones en la Bolsa.

Por varios años tuvo la estafeta de la empresa de tecnología más valiosa. Sin embargo, apenas el
año pasado la perdió a manos de Apple, que es hoy una de sus principales competencias.

69
“Si se tratara de una clasificación acerca de la empresa más rentable en la actualidad y desde hace
varios años, sin duda Microsoft sería la número uno”, dijo Chris Bulkey, analista de la firma
Technology Research Group.

En 2010, la firma de Redmond fue la empresa con la mayor cifra de ganancias de toda la industria
de tecnología. Sus utilidades durante el año pasado ascendieron a 20.6 mil millones de dólares,
mientras que sus ingresos fueron de 66.7 mil millones de dólares.

“Microsoft fue la empresa que revolucionó el mundo del software hace más de tres décadas, hoy
busca no quedarse atrás contra sus competidores en el mundo de la web 2.0”, aseguró Bulkey.

IBM

Este año, la compañía tecnológica International Business Machines (IBM) cumple 100 años de
haber sido fundada, es una de las empresas más sólidas de la industria cuyo valor de mercado se
estima en 205 mil millones de dólares.

“IBM podría ser considerada la madre de las empresas de tecnología, lleva un siglo en la industria
y es responsable de la masificación de las computadoras, su innovación constante es lo que ha
provocado que su valor se mantenga”, dijo Munster de Piper Jaffray.

El último año, la firma estadunidense facturó casi 100 mil millones de dólares y sus ganancias
ascendieron a 14.8 mil millones de dólares.

Oracle

Después de la crisis de las puntocom, la empresa de tecnología tocó fondo en 2002, desde
entonces, la compañía fundada en 1977 ha comenzado una línea ascendente y actualmente está
en su mejor momento. Recientemente desbancó a Google y hoy es la cuarta firma más valiosa, se
estima que su valor de mercado es de 169 mil millones de dólares.

John Difucci, analista de JP Morgan, comentó que abril de 2009, fecha en que se concretó la
adquisición de Sun Microsystems por parte de Oracle, el valor de las acciones de ésta se ha
duplicado.

Google

Entre las principales empresa del Nasdaq, Google es la mejor valorada en comparación con sus
ingresos reales. Se estima que su valor de mercado es de más de 156 mil millones de dólares. Sin
embargo, es la de menor facturación entre las principales.

“Google es la sobreviviente de las puntocom que más han sabido entender y explotar el negocio
de internet. Hoy su valor, 5.3 veces más que su capacidad de facturación, está incluso por encima
de Apple cuyo valor de mercado es 4.2 veces mayor”, dijo Chris Bulkey, analista de la firma
Technology Research Group.

Intel

70
Esta empresa de tecnología es la responsable del diseño y la fabricación de cuatro de cada cinco
chips de computadoras que se venden en el mundo, es decir, el centro de operaciones de los
equipos de cómputo. Está valuada en poco más de 123 mil millones de dólares.

Chris Bulkey, analista de la firma Technology Research Group, comentó que Intel ha demostrado
ser una de las empresas más sólidas y confiables del mercado, ya que a pesar del recién anuncio
de la falla de los chips Sandy Bridge, las acciones de la firma se mantienen estables y no tuvo gran
impacto en sus inversionistas, debido a la acción responsable que realizó la firma.

Hewlett Packard

La californiana es la empresa de tecnología con mayores ingresos en la industria. El año pasado


facturó más de 126 mil millones de dólares, es decir, más de lo que venden Apple y Google juntas.

Su valor de mercado se estima en casi 106 mil millones de dólares, es decir, vale menos de lo que
en realidad es capaz de facturar.

“HP es un caso muy particular, a diferencia de las demás empresas de tecnología cuyos activos se
fundamentan en desarrollos, patentes e ideas, ésta es la firma más tangible de todas”, dijo Bulkey
de Technology Research Group.

El pensamiento lineal y subjetivo pretende convencer al público de que las bosas de valores desde
su nacimiento siempre han sido iguales. Como si comunicarse y negociar personalmente con los
vecinos del pueblo o de las aldeas cercanas fuera igual a comunicarse por ondas
electromagnéticas alrededor del mundo y a la velocidad de la luz, con personas que quizá tal vez
no conozcamos personalmente nunca. Que es igual el pesado dinero orotransportado en carretas
y barcos de velas al capricho del viento y la acechanza de piratas, al dinero virtual que se envía
escribiendo una cifra en el teclado de un ordenador y, con un clic, enviarlo al otro extremo del
mundo. Que es igual el dinero soportado por el patrón oro al dinero soportado por deuda. Que es
igual que la mayoría de transacciones se realicen frente a Robots (cajeros automáticos) que frente
a cajeros humanos. Que son iguales las empresas otrora propiedad familiar o socios conocidos, a
una moderna empresa multinacional financiada con capital intensivo público proveniente de las
acciones e instrumentos de deuda que cambian diariamente de dueño en los pisos de remate de
las bolsas de valores. Hoy conocemos a los administradores de las empresas, pero difícilmente
conocemos a sus dueños, porque las acciones que representan su capital, se negocian todos los
días.

En los años 70"s, la gestión de bases de datos se realizaba en forma manual, las compañías
llevaban normalmente un archivo consecutivo de los documentos que enviaban y de los que
recibían, otro archivo de expedientes por el nombre del cliente, los distintos departamentos solían
llevar archivosordenados por cualquier otro campo particular relacionado al asunto de su gestión
particular. No era sencilla la integración de toda la información de la relación de un cliente con una
compañía. Se tenía que solicitar información de ventas, de servicio, de crédito y cobranza, de
almacén, etc. Todos estos asuntos se hacían a mano y se contaba con archivistas que se ganaban
su puesto por su memoria fotográfica para recordar el documento que se recibió de determinado
cliente varias semanas antes. La mayoría de las empresas tenían y dependían de la extraordinaria
memoria de los archivistas que siempre localizaban el documento buscado. Armar la nómina

71
semanal o quincenal requería de los contadores y auxiliares más despiertos y, ni hablar de la
contabilidad de costos elaborada en forma manual de todos los productos por personal que era
capaz de mover los dedos a gran velocidad, sin error, en el teclado de una calculadora
electromecánica. El personal con las habilidades para realizar estos trabajos hoy se encuentra
extinto.

La revolución causada por la gestión de bases de datos con el avance tecnológico del hardware y
software a finales de los años 70"s y durante la década siguiente, fue desarrollado para cubrir
especificaciones y aplicación en los bancos y las empresas del sector financiero colocándolos a la
cabeza de los mayores avances en informática y aplicación de estas tecnologías que fueron
logradas por compañías proveedoras de ese tipo de negocios (International Bushiness Machines,
Burroughs Machines). La industria manufacturera se unió a esta revolución hasta mediados de los
años 80"s y otras más tarde o nunca, porque desaparecieron. Hoy al escribir en el buscador Yahoo
Bases de Datos, nos devolvió 103 millones de resultados en menos de un segundo. En forma
manual los resultados obtenidos por esta búsqueda son prácticamente imposibles. Quienes mejor
aprovecharon esta revolución tecnológica fueron los bancos y los mercados financieros, la
industria manufacturera fue resistente al cambio.

El 8 de febrero de 1971 la Asociación Nacional de Seguridad de Corredores de Valores (National


Association of Securities Dealers) puso a funcionar al NASDAQ Stock Market. Una Bolsa de Valores
con piso de ventas virtual que hoy día tiene la capacidad de hacer más de 6 billones de
operaciones de compra-venta diarias. ¡Algunos "científicos de las ciencias sociales o la historia"
comparan a NASDAQ con la Bolsa de Valores de Holanda de 1635 en la crisis de los tulipanes y
dicen que son iguales! Lo sorprendente es que, estos "científicos", hasta pueden recibir el premio
de economía por sus contribuciones a la ciencia económica.

El sólo hecho de que NASDAQ fuera una bolsa de valores automatizada, obligó a todas las bolsas
de valores del mundo a incorporar el uso de computadoras y la informática en su operación. La
gestión de Bases de Datos se amplió a millones de registros ordenados por miles de campos y las
búsquedas de información se pudieron realizar en segundos y, ni hablar de los millones de
operaciones matemáticas que se pueden realizar en fracción de segundos. No es trivial que una
tarjeta de plástico pueda disponer de más dinero que un pesado camión que transporta valores. El
sistema social-económico-político en que vivía el mundo, no podía permanecer ajeno a estos
cambios revolucionarios, como veremos más adelante.

Para entrar de lleno a lo que es el Mercado de Valores, estudiaremos la Bolsa Mexicana de Valores
(BMV). Debemos de advertir que contrario a la Doctrina Neoliberal, las Bolsas de Valores no
permiten la libertad individual y no son un mercado libre a la competencia: a) existe un orden
jerárquico para acceder como inversionista en base al capital con que cuenta el inversor, en
general se requiere de un intermediario o Fondo de Inversiónadministrado por un Banco; b) Las
empresas demandantes de capital requieren un largo proceso de certificación de sus procesos
administrativos y legales internos (24 meses o más) y el monto mínimo de capital social para que
una firma calificadora autorizada por la BMV otorgue el visto bueno para cotizar, alrededor de 100
millones de pesos (7,700,000 dólares) y c) Un colocador intermediario autorizado por la BMV para
hacer la Oferta Pública Inicial. El Cuadro siguiente nos muestra el proceso de operación de la BMV.

72
3.12. ¿EN QUE INSTITUCIONES CONFIAN MAS LOS ESTAUNIDENSES?

La tercera institución con más bajo de confianza es el sistema judicial casi al nivel que el de prensa.
Salvo algunas instituciones que aun gozan de un amplio apoyo y confianza entre la sociedad, la
mayoría no parece concitar el suficiente predicamento. El ejército se encuentra en lo más alto
seguido de la pequeña y mediana empresa y la policía aunque depositaria de una confianza
mayoritaria.

El presidente Donald Trump ha dicho en repetidas ocasiones que la prensa es su “enemigo”,


aunque también que es “enemigo” de los Estados Unidos.

Una encuesta realizada por Reuters/Ipsos reveló que mientras los estadounidenses aumentan su
confianza en los medios de comunicación, baja la que se tiene hacia el presidente.

En noviembre de 2017, sólo el 39 por ciento expresó confiar en la prensa, pero esa cifra aumentó a
48% en el ejercicio realizado en septiembre pasado.

En la encuesta del año pasado, el 51 por ciento tenía una “fuerte confianza” en el aún candidato,
pero esa cifra bajó a 45%, es decir, las posiciones se mueven direcciones opuestas.

La agencia Reuters e Ipsos realizan este ejercicio cada dos meses, a fin de documentar la confianza
de los estadounidenses en sus instituciones, que reveló por ejemplo, que a cinco días de tomar
posesión como mandatario, el 52% de la gente tenía una gran confianza en él.

3.13. ¿PORQUE AUMENTA LA IMPOTACION DE WHISKY (BOURBON) A


NIVEL MUNDIAL?

El término whisky o whiskey deriva del gaélico escocés "uisge beatha" y del gaélico irlandés "uisce
beathadh", que significa, en ambos casos, "agua de vida". Aunque el poético origen de su nombre
invita a imaginar claros manantiales de montaña, se trata de una bebida alcohólica, por cierto
bastante potente, obtenida por la destilación de un mosto fermentado de cereales tales como
cebada, cebada malteada, centeno y maíz, y su posterior envejecimiento en barriles de madera,
tradicionalmente de roble blanco. Se comercializa con un contenido alcohólico de entre 40 y 62%
del volumen.

El primer paso de su elaboración es la limpieza de la cebada, que luego es empapada con agua y
dejada en germinación durante 12 a 15 días, lapso en que el almidón de la cebada se prepara para
transformarse en azúcar. Luego el cereal es transportado a hornos donde se inicia su secado
quemando turba, un combustible vegetal que aporta aromas a la bebida. A continuación la malta
es molida y mezclada con agua en una caldera de remojo, obteniéndose así el mosto azucarado de

73
malta (llamado wort). A partir del wort comienza la fermentación, que dura unas 48 horas, y en su
transcurso el azúcar de la malta se transforma en alcohol de 5º a 8°, conocido con el nombre de
"wash".

Finalizada la fermentación se inicia la destilación. El whisky escocés es destilado dos veces (en
Irlanda tres) en grandes alambiques discontinuos de cobre, obteniéndose así un líquido llamado
"low wine" (vino bajo) en la primera destilación y separando además el alcohol del líquido
fermentado y eliminando los residuos de la levadura y la materia infermentable. Tras ello, se
destila una segunda vez, y finalmente se obtiene un whisky de 58º, que es terminado reduciendo
su graduación con agua a 55º.

Posteriormente el producto es envejecido en barriles de roble donde previamente se hayan criado


vino de Jerez o bourbon. El whisky de malta tarda unos 15 años en envejecer, mientras que los
blended y los de grano lo hacen en 6 años aproximadamente. Cuando un whisky llega hasta los
ocho años de envejecimiento, debe ser indicado en la botella, al igual que si tiene doce años, la
edad idónea para consumir un whiskey .

Variedades de whisky

Whisky de malta. Es totalmente elaborado con cebada malteada y destilado en "pot still",
alambique utilizado para la destilación de este tipo de whisky, con forma de cebolla. Antes de
embotellarlo, se lo deja envejecer normalmente durante un periodo de entre 8 y 15 años. Es una
bebida con sabor, potente y de mucho carácter.

Whisky de grano. Producido a partir de cebada sin maltear, maíz y otro tipo de cereales, siendo
también posible el malteado. Se suele destilar en "Coffey stills", alambique de destilación
continua.

Los whiskies de malta y de grano están combinados de diversas maneras

Mezcla de maltas. Las mezclas de whiskies de maltas de diferentes destilerías, son conocidas como
"pure malt". Si un whisky es etiquetado "pure malt" o solamente "malt", seguramente será un
vatted malt. Es también etiquetado frecuentemente como “whisky de malta mezclado”. Los
whiskies de grano no intervienen en su composición. Actualmente se aplica a este tipo de whiskies
la denominación "Blended Malt".

Whisky proveniente de una única destilería. Son whiskys procedentes de una única destilería pero
que contienen mezcla de whiskies de varios barriles, a no ser que esté descrito como "single-cask".
Normalmente, el nombre del whisky coincidirá con el nombre de la destilería e indicará los años
que ha permanecido en el barril o si ha sido madurado en un barril que antes había contenido vino
de Oporto, jerez o bourbon. La elaboración de estos whiskies es de cebada malteada, fermentada,
destilada en dos o más ocasiones y madurada en barricas durante tres años como mínimo.

Whisky mezclado (Blended). Mezcla de whiskies de grano y de malta (entre el 10% y el 15%),
siendo todos ellos procedentes de varias destilerías. Son whiskies más económicos.

74
Cask strength. Literalmente "fuerza de la barrica". Es un whisky que no recibe ninguna dilución
antes de su embotellamiento, por lo que procede directamente de la/s barrica/s seleccionadas,
conservando así su graduación.

Whisky escocés. Los whiskies escoceses son, por lo general, destilados dos veces e incluso algunos
hasta tres veces. Es una bebida destilada y añejada exclusivamente en Escocia que debe ser
elaborada conforme a los estándares de la Orden de Whisky Escocés. Es el whisky de mayor
renombre mundial.

Whisky Irlandés. Los irlandeses llaman a su whisky, whiskey con "e" (como los estadounidenses).
Es elaborado en base a cebada, y se caracteriza por su triple destilación, que lo hace suave y
delicado. El consumo del whiskey irlandés se realiza mayoritariamente dentro del país de
producción, exportándose solamente un 25%, aunque en estos últimos años han aumentado
notablemente sus ventas al exterior.

Whisky canadiense. Es normalmente más suave y ligero que otros, característica ligada al uso de
centeno malteado, que proporciona más sabor y suavidad. Por ley, este whisky debe ser producido
en Canadá, está fabricado con maíz y centeno, y se destila en alambiques que permiten un gran
control del producto. Tras ser diluido en agua para reducir su grado alcohólico, se lo envejece en
barriles de roble durante 3 años como mínimo, plazo que normalmente suele ser

Según la ley estadounidense, debe elaborarse a base de maíz, en una concentración entre el 50 y
el 70%, porcentaje éste más generalizado. Otros ingredientes añadidos son trigo, centeno o
cebada malteados.

No existen requerimientos legales para este período mínimo y que el producto final se denomine
bourbon, pero para denominarlo straight bourbon debe haber cumplido un envejecimiento
mínimo de dos años. Además, cualquier bourbon con menos de 4 años de envejecimiento debe
notificar en la etiqueta el periodo concreto. Por regla general, el bourbon se madura durante un
período de 5 años en barricas de roble, las cuales pueden ser nuevas y/o tostadas.

El nombre de la bebida destilada proviene del lugar de Estados Unidos en donde se produce de
forma originaria, el condado de Bourbon (Kentucky) que, a su vez, toma su nombre de la Casa de
Borbón. El bourbon puede elaborarse de forma legal en cualquier parte del territorio de Estados
Unidos ya que la producción legal no está restringida a los alrededores de Kentucky, a pesar de
que la bebida esté muy asociada a las comunidades destiladoras de ese área de la región Sur del
país.1 Se sabe, por ejemplo, que Illinois llegó a producir más bourbon whiskey que Kentucky, y el
bourbon continúa siendo un elemento favorable en la economía de Virginia. En el pasado, ha sido
elaborado en Pensilvania, Indiana, Ohio, Tennessee, Misuri y Kansas.

La ciudad de Fort Harrod (actualmente denominada Harrodsburg), fue fundada en 1774. Los
residentes plantaron maíz y con el devenir de los años pudieron recolectar enormes cosechas.
Debido a la orografía no era fácil exportar el excedente, por lo que se comenzó a elaborar whiskey.

Cuando los pioneros estadounidenses se dirigieron hacia Oeste hacia las montañas Allegheny
siguiendo los pasos de la Revolución norteamericana, los primeros condados se fundaron

75
cubriendo vastas regiones de terreno. Una de estas vastas áreas originales fue Bourbon,
establecida en 1785 y nombrada posteriormente con el nombre de French royal family. Mientras
tanto unos años después el condado fue fragmentándose en pequeños territorios hasta que en el
siglo XIX los lugareños continuaron denominando a la zona el Old Bourbon. En el Old Bourbon pasa
el río denominado Ohio River con el puerto que permite hacer circular las mercancías a la región,
incluido el wyskyport desde el cual se embarcan tanto el whiskey como otras mercancías a los
mercados del interior. "Old Bourbon" es la sentencia que aparece en las etiquetas de los whiskeys,
que se denomina así para indicar su origen (no quiere decir nada sobre la maduración del
whiskey). El Old Bourbon whiskey era diferente a las gentes del lugar debido a que era uno de los
primeros whiskeys elaborados con maíz. En aquellos tiempos, la denominación bourbon ya
empezaba a ser sinónimo de whiskey elaborado con maíz.2

Se ha escrito a menudo que muchas de las destilerías originales de bourbon estuvieron ubicadas
en los alrededores de Pensilvania y que éstas se vieron obligadas a migrar debido a la presión fiscal
y los impuestos y que este evento ocurrió durante y tras la Whiskey Rebellion, pero este detalle
hoy en día está controvertido entre los expertos estudiosos.

Un refinamiento en la elaboración del bourbon se concede por regla general a James C. Crow
como el primero en emplear el proceso de mosto ácido (sour mash), por el que cada nueva
fermentación está condicionada por la cantidad de mosto de maíz empleada, lo que permite un
grado de control alto sobre la producción del whisky. El ácidointroducido mediante el mosto ácido
controla el crecimiento de las bacterias y crea un pH de equilibrio que permite a las levaduras
trabajar. Ya en el año 2005, todos los straight bourbons empleaban el proceso de mosto ácido
(sour mash process). El doctor Crow desarrolló su invento mientras trabajaba con la Old Oscar
Pepper Distillery (hoy en día Woodford Reserve Distillery) en Woodford County, Kentucky. (El
sobrante del mosto ácido empleado acaba siendo alimento para animales.)

Una resolución del Congreso de EEUU realizada en el año 1964 declaró al bourbon como un
"producto distintivo de los Estados Unidos"34 La resolución hizo delegar en la justicia que "se
indagaran las agencias apropiadas del Gobierno de Estados Unidos... para que se tomaran las
acciones apropiadas para prohibir la importación a Estados Unidos de whiskey designado como
"'Bourbon Whiskey.'".5 La designación federal ahora define al "bourbon whiskey" de tal forma que
no sólo incluye al "bourbon" producido en los Estados Unidos.6 En algunos estados corren
historias populares (no se ha encontrado fundamento aún) acerca del origen del bourbon; una de
ellas menciona al posible inventor, que pudo haber sido el ministro y destilador baptista Elijah
Craig. Cada condado en Kentucky tiende a nombrar a su personaje más popular como el
"verdadero" inventor del bourbon. En realidad, no hay un único inventor del producto que haya
sido el que haya dado al whysky el sabor que desde el siglo XIX ha llegado a nuestros días.

3.14. ¿COMO APUNTA HOY EL BILLETE VERDE (DÓLAR) EN EL MERCADO


MUNDIAL?

76
En el Día de los Santos Inocentes, la moneda mexicana no creyó en la debilidad del billete verde en
el mercado internacional, al quedar en terreno negativo.

En la penúltima jornada hábil de 2017, la moneda mexicana volvió a reportar números rojos, a
pesar del retroceso del dólar frente a una canasta de 10 divisas y del tono en las minutas del
Banco de México, el cual apunta a tasas de interés más altas.

El dólar spot cerró este jueves en 19.765 unidades de acuerdo con cifras publicadas por el Banco
de México. En el día, el peso retrocedió 23.50 centavos, equivalente a 0.18 por ciento.

En ventanilla bancaria, el dólar se vende en 20.05 unidades, cifra mayor a la de 19.95 reportada
este miércoles como cierre por Citibanamex.

En la jornada, el tipo de cambio del peso con el dólar alcanzó un máximo en 19.8015 y un mínimo
de 19.679 unidades, en el mercado de mayoreo.

En las últimas siete sesiones el peso mexicano ha perdido en seis y ganado en solamente una. La
moneda mexicana mostró debilidad a lo largo de la jornada, a contracorriente de un contexto
externo relativamente favorable.

En lo interno, la caída del peso se vio limitada por el contenido de las minutas del Banco de
México, el cual refuerza la expectativa de que en los próximos meses se podrían dar nuevos
aumentos en la tasas de interés.

El índice que mide el comportamiento del dólar con una canasta de 10 divisas retrocede 0.35 por
ciento, a su menor nivel en cuatro semanas.

Lea también: Fortuna de Carlos Slim crece 12.5 mil millones de dólares en 2017

En Estados Unidos se reportó que las solicitudes por seguro de desempleo subieron a 245,000 en
la semana terminada el pasado 23 de diciembre, por arriba de las 240,000 esperadas, de acuerdo a
una encuesta levantada por Bloomberg.

En tanto el índice manufacturero de Chicago aumentó de manera sorpresiva a 67.6 en este


diciembre, mejor que el 62.0 esperado en promedio por el mercado.

Las cifras económicas reportadas hoy siguen apuntando a que la Fed continuará con alzas
graduales en su tasa de referencia.

En otro frente, el comportamiento del mercado petrolero también sirvió de amortiguador para la
caída del peso mexicano.

El precio del crudo tipo West Texas aumenta 0.29 por ciento a 59.81 dólares por barril, mientras
que el tipo Brent sube 0.41 a 66.71 dólares.

En la última jornada del año, el Banco de México saldrá a renovar vencimientos de coberturas
cambiarias por un monto de 200 millones de dólares.

El tipo de cambio del peso con el dólar presenta un soporte en 19.40 unidades. En tanto que la
resistencia cercana se encuentra en 20.0, en el mercado de mayoreo.

77
Sin claras señales de cambios en el billete verde

En Brasil la divisa estadounidense subió un 2,49% en la semana, y en Argentina un 6,81%

En particular, la divisa se negoció el viernes en $ 31,466, y en una semana en la que presentó leves
oscilaciones en una dirección u otra, finalmente registró un aumento "punta a punta" de 0,05%.
Como consecuencia cerró el mes de junio con un incremento de 0,88%.

En el mercado local, durante esta semana, se podría esperar una leve presión a la baja al tratarse
de inicio de mes, período en el que en general los bancos disponen de menos pesos y es de
esperarse que deban vender dólares con el fin de hacerse de moneda nacional. Si bien esta
semana hay vencimiento de títulos en pesos por $6.548 millones, habrá que esperar qué tan
concentrados están entre los agentes del mercado.

A nivel regional la divisa se ha fortalecido; en Argentina registró una suba "punta a punta" de
6,81%, mientras que en Brasil fue de 2,49%.

A nivel global, si bien el billete verde se debilitó el viernes, el índice dólar (que mide la fuerza del
billete verde frente a una canasta de divisas) cerró el trimestre con un avance mayor al 5%.

Dependiendo de cómo se combine la leve presión a la baja que se pueda generar a nivel local con
la posible suba a nivel regional y global —si es que se comporta como en la semana previa— será
el rumbo que tomara el dólar en Uruguay.

Dólar cae frente al yen por temores sobre crecimiento, tensiones comerciales.

NUEVA YORK (Reuters) - El dólar cayó el martes frente al yen japonés, debido a que las
preocupaciones sobre un debilitamiento del crecimiento global y las continuas tensiones
comerciales entre Estados Unidos y China llevaron a los inversores a buscar activos de refugio
seguro.

* El dólar bajó un 0,41 por ciento frente al yen, que tiende a beneficiarse en momentos de
incertidumbre geopolítica o financiera debido a que Japón es el mayor acreedor global.

* El billete verde cedió terreno frente a la moneda japonesa después de que el Fondo Monetario
Internacional recortó el lunes sus pronósticos para el crecimiento económico mundial en 2019 y
2020. El FMI dijo que el fracaso a la hora de resolver disputas comerciales podría desestabilizar
aún más a una economía global que ya está desacelerada.

* Un reporte de que Estados Unidos rechazó una oferta de China para llevar adelante
negociaciones comerciales preparatorias aumentó la presión sobre el dólar.

* Pero el billete verde recortó su caída después de que un asesor económico de la Casa Blanca
negara los reportes.

* La economía de China se enfrío en el cuarto trimestre, lastrada por una debilitada demanda
doméstica y altos aranceles de Estados Unidos, lo que llevó al crecimiento de 2018 a su nivel más
bajo en casi tres décadas. Las crecientes señales de debilidad en el gigante asiático están
generando ansiedad sobre los riesgos que enfrenta la economía mundial.

78
* Datos mostraron que las ventas de casas en Estados Unidos se desplomaron en diciembre a su
nivel más bajo en tres años, mientras que el alza de los precios de las viviendas se frenó con
fuerza, lo que sugiere una pérdida adicional de impulso en el mercado de bienes raíces, lo que
también presionó al dólar.

* El euro se mantuvo cerca de un mínimo de tres semanas, debido a que la confianza entre los
inversores alemanes mejoró levemente en enero, pero su evaluación de las actuales condiciones
de la economía se deterioró a un mínimo de cuatro años, mostró un sondeo el martes.

3.15. ¿SE PUEDE MEDIR LA FELICIDAD?

En los últimos años se han publicado investigaciones acerca de la felicidad de las personas, incluso
una lista de países más “felices” que otros.

La Universidad de Columbia realiza hace ya unos años el informe sobre la felicidad mundial que
contempla un total de 157 países (World Happiness Report). Cada año muchos países cambian de
lugar en el ranking y es notorio que la pobreza, el desempleo y las crisis económica son factores
que algunos autores entienden como determinantes, aunque en otros países no parecen ser
relevantes.

Muchas personas que viven según los “tips” de felicidad del mercado, solo corren hacia los
modelos de “vida feliz” pautada culturalmente por los medios y la publicidad, y así viven en una
insatisfacción cotidiana y una ansiedad por encontrar la paz que nunca llega.

Para Frankl las personas felices son personas que viven con un sentido, entregadas a una causa o a
otras personas, capaces de entregarse y sacrificarse, que se vuelven capaces de sobreponerse a
situaciones límite y trascender.

Nadie puede negar que las neurociencias y las investigaciones psicosociales aportan mucha
información que nos ayuda a comprender mejor la vida humana y los modos de vivir, como hasta
hace pocos años ni soñábamos.

El peligro es caer en los reduccionismos empiristas que reducen la realidad a lo constatable por la
investigación, no cuestionando los presupuestos teóricos que hay detrás de las investigaciones. Se
da por verdadero porque “los números cantan”, sin cuestionar las preguntas que se hacen o los
factores culturales, lingüísticos y filosóficos que condicionan los modos de pensar la realidad y de
pensarse a sí mismo.

Se habla de los resultados de una investigación cuantitativa como si estuviéramos ante la totalidad
de lo real, ante la única versión posible e irrefutable, sin tener en cuenta sus límites, variedad de
interpretaciones y condicionamientos culturales.

79
3.16. ¿QUE SIGNIFICA LA MEDICION DEL PIB CON EL CRECIMIENTO
ECONOMICO DE UN PAIS?

El PIB como indicador de crecimiento económico

Uno de los principales indicadores estadísticos empleados para medir la evolución económica de
un país es el Producto Interior Bruto (PIB). En el análisis macroeconómico de cualquier Estado, la
interpretación de este valor es fundamental para conocer el grado de desarrollo económico y sus
tendencias, aunque también tiene una serie de inconvenientes que debemos tener en cuenta
antes de sacar conclusiones en nuestros estudios.

Por eso, para saber si una economía está en fase de crecimiento y este se está traduciendo en una
mejora del bienestar de la población y, por lo tanto, de una mejora real de su mercado interior,
será importante atender a otras variables que tengan en cuenta el reparto de la renta en la
población, el grado de evolución de la industria, los recursos naturales, o los indicadores
relacionados con la la estabilidad financiera del país objeto del estudio. En este post nuestro
objetivo es valorar si el PIB es el medidor adecuado para interpretar la situación económica de un
país. En base a este objetivo tenemos que ir al origen del concepto PIB y su uso en la contabilidad
nacional.

Definimos el PIB como un indicador que "mide el valor de los bienes finales producidos en un país"
y se utiliza desde los años 30 como indicador de crecimiento y bienestar de un país. Se reconoce al
premio nobel de economía Simon Kutznets como el creador de este indicador. Incluyó este
término junto a otros conceptos económicos en la creación de las cuentas nacionales americanas,
que posteriormente se trasladaron al resto de países. Pero ya desde sus comienzos, fue muy
crítico con la utilización de este valor, concretamente con el PIB per cápita para "deducir el
bienestar de una nación". Kutznets redactó estas palabras en un informe para el congreso de
Estados Unidos, en 1932, y se recogen en un interesante artículo titulado "If theGDP is Up, Why is
America Down?" y escrito por Clifford Cobb, Ted Halstead, y Jonathan Rowe, publicado en el diario
The Atlantic, en 1995 .Ante la impasividad de los políticos para adoptar nuevos indicadores del
bienestar de un Estado, años más tarde, Kutznets insistió en una publicación en The New Republic
en que la formulación de la contabilidad nacional debería reformularse, pues "las diferencias
deben tenerse en cuenta entre la cantidad y la calidad del crecimiento, entre sus costes y su
rentabilidad, y entre el corto y el largo plazo". Lo cierto es que la información que recoge el PIB
está orientada a un agregado de productos y servicios heterogéneos y tiene un enfoque más bien
cuantitativo. Por lo tanto, no sería muy correcto utilizar este valor para medir la calidad de vida y
su evolución en un período de tiempo. Al aplicar este concepto en economías en vías de desarrollo
en las que el PIB no recoge la producción de bienes en entornos familiares, que suponen un alto
porcentaje de la economía real, si se utilizan políticas encaminadas a fomentar el crecimiento del
PIB se estará perjudicando el bienestar de la mayoría de la población. Han pasado muchos años
desde estas primeras propuestas para valorar el crecimiento económico de un país y todavía se
dejan de lado indicadores que midan el coste social o medioambiental en un proceso de

80
industrialización, por poner un ejemplo. Otros autores, como Constanza, sugieren una serie de
encuestas que aporten una valoración subjetiva sobre el bienestar, y otros indicadores que tengan
componentes como el acceso y calidad de la vivienda, esperanza de vida, horas dedicadas al ocio y
otros valores.

El Producto Interior Bruto (PIB) se entiende como el valor de la producción total de bienes y
servicios de una economía en un período de tiempo determinado, normalmente un trimestre o un
año. A la hora de interpretar los datos referidos al PIB hay que tener en cuenta las diferencias
entre PIB real y nominal.

El PIB nominal es el valor monetario de todos los bienes y servicios que produce un país o una
economía a precios corrientes del año en que dichos bienes y servicios son producidos. Sin
embargo, en períodos inflacionistas, un aumento de los precios puede dar la falsa impresión de un
aumento del PIB, y por tanto una falsa sensación de Crecimiento Económico sin que la producción
real haya aumentado.

Para ajustar el PIB según los efectos de la inflación se utiliza el PIB real, definido como el valor
monetario de todos los bienes y servicios que produce una economía a precios constantes.

Producto Interior Bruto per cápita (PIBpc): es el valor del PIB en términos de paridad de poder
adquisitivo, dividido por la población total del país o región. Este indicador muestra el reparto de
la producción, y por simplificación de la riqueza, entre todos sus habitantes.

Del PIB al Crecimiento Económico

El crecimiento económico es el aumento del valor los de bienes y servicios producidos por una
economía determinada, y para calcularlo normalmente se recurre al crecimiento del PIB real como
indicador de este crecimiento económico. Tan sencillo como eso.

Crecimiento Económico y Producto Interior Bruto

Para calcular la tasa de crecimiento en un período concreto, basta con realizar un índice simple
que compara dos períodos de tiempo mediante el cociente resultante de dividir la diferencia del
PIB real actual y el anterior, entre el PIB real del período anterior, multiplicando este resultado por
cien para que quede expresado en unidades porcentuales.

La fórmula más común y utilizada para calcular el crecimiento del PIB: [[PIB(t)-PIB(t-1)]/PIB(t-
1)]x100

3.17. ¿SE PUEDE USAR EL TÉRMINO: FELICIDAD NACIONAL BRUTA


(FBN)?

La Felicidad Nacional Bruta (FNB) y sus efectos como indicador del bienestar social sobre la
población en el Reino de Bután (2010-2015) RAÚL YESID ESPITIA VILLAMIL UNIVERSIDAD COLEGIO
MAYOR DE NUESTRA SEÑORA DEL ROSARIO FACULTAD DE CIENCIA POLÍTICA, GOBIERNO Y
RELACIONES INTERNACIONALES BOGOTÁ D.C, 2016 La Felicidad Nacional Bruta (FNB) y sus efectos

81
como indicador del bienestar social sobre la población en el Reino de Bután (2010-2015) Estudio
de caso Presentado como requisito parcial para optar por el título de Internacionalista En las
facultades de Ciencia Política, Gobierno y Relaciones Internacionales Universidad Colegio Mayor
Nuestra Señora del Rosario Presentado por: Raúl Yesid Espitia Villamil Dirigida por: Ricardo
Baquero Bogotá, semestre II – 2016 ÍNDICE Pág. INTRODUCCIÓN 6 1. BIENESTAR SOCIAL EN
TIEMPOS DE LA FNB EN BUTÁN 11 1.1 GÉNESIS DE LA FNB EN BUTÁN: ORÍGENES Y MOTIVACIONES
11 DE UNA TRANSFORMACIÓN ESTRUCTURAL 1.2 LA FELICIDAD COMO INDICADOR DEL BIENESTAR
SOCIAL: 13 CARACTERÍSTICAS Y RESULTADOS DE LA IMPLEMENTACIÓN DEL FNB EN EL REINO DE
BUTÁN 2. CONSERVADURISMO CULTURAL: UN ELEMENTO FUNDAMENTAL 18 PARA LA
CONSOLIDACION DE LA FNB EN EL REINO DE BUTÁN 2.1 BUDISMO MAHAYANA: EL PAPEL DE LA
RELIGION EN BUTÁN 18 2.2 SOBRE COMO EL COSTUMBRISMO CULTURAL CREA CONCIENCIA
COLECTIVA DE BIENESTAR EN LA POBLACIÓN 22 BUTANESA 3. ENSEÑANZAS DE BUTÁN PARA EL
MUNDO 24 3.1 INTERNACIONALIZACIÓN DE LA FNB 24 3.2 FNB: DE UN INDICADOR LOCAL A UN
REFERENTE INTERNACIONAL 25 3.3 ENSEÑANZAS Y DESAFÍOS PARA LOS TOMADORES DE 26
DECISIONES A NIVEL MUNDIAL 3.4 CRITICAS A LA FNB 27 4. CONCLUSIONES 28 BIBLIOGRAFIA
LISTA DE ANEXOS Anexo 1 Ubicación geográfica de Bután Anexos 2 y 3 Comparativo de resultados
2010- 2015 sobre niveles de felicidad de la población en la FNB ANEXO 4 Cambios en la
contribución de las áreas en el indicador de FNB en 2010 y 2015 ANEXO 5 Comparativo resultados
2010- 2015 sobre indicador de FNB por área. ANEXO 6 Cambios en el indicador de FNB entre 2010
y 2015 por edad ANEXO 7 Indicadores de FNB e ingreso per cápita por Dzongkhag (distrito) – 2010
ANEXO 8 Indicadores de FNB e ingreso per cápita por Dzongkhag (distrito) – 2015 ANEXO 9:
Documento - Resolución aprobada por la Asamblea General el 22 de diciembre de 2011 "La
Felicidad Nacional Bruta es mucho más importante que el Producto Interior Bruto” Jigme Singye
Wangchuck (4to Rey Dragón de Bután) 6 RESUMEN El articulo académico se propone analizar el
impacto de las mediciones del bienestar social a través del Indicador de Felicidad Nacional Bruta (
FNB) sobre la población butanesa, todo ello derivado de la construcción holística del indicador y el
conservadurismo cultural en el Reino de Bután. Así mismo se examinan los esfuerzos del gobierno
butanés por internacionalizar el indicador y los desafíos de cara al futuro para la viabilidad de la
felicidad como referente del bienestar social. ABSTRACT The academic article aims to analyze the
impact of the measures of social welfare through the indicator Gross National Happiness (GNH) on
the Bhutanese population, all derived from the holistic construction of GNH Index and cultural
conservatism that have taken place in Bhutan. Likewise, the article examines the Bhutanese
government's efforts in regards to the internationalization of the indicators and future challenges
to the viability of happiness towards social welfare. INTRODUCCION La definición de bienestar
social se ha convertido en un elemento controversial para los tomadores de decisiones y la
comunidad académica a nivel internacional, quienes se debaten en una dicotomía sobre su
medición (epistemología) y los elementos que componen el mismo (ontología). En tal virtud, los
estudios académicos y las mediciones con respecto al bienestar social, han gravitado entre dos
aproximaciones distintas y antagónicas entre ellas: 7 el bienestar social en términos del
crecimiento económico de un Estado, contra el bienestar social basado en el desarrollo humano1
(Monni & Spaventa, 2013). En primer lugar, la equivalencia entre bienestar social y crecimiento
económico encuentra su origen en la consolidación del PIB per Cápita como indicador de
distribución económica. La crisis de 1929 en Estados Unidos dejó en claro que los métodos de
medición para cuantificar la posición económica de los países a finales de la Primera Guerra

82
Mundial, permitían un análisis sobre ciertos sectores de la economía en particular, pero no una
imagen clara sobre la economía en general de los Estados (Syrquin, 2011). Por lo tanto, cuando la
crisis de 1929 explotó, la incapacidad de los instrumentos económicos existentes para hacer un
balance general sobre la renta nacional de los Estados Unidos, que posibilitará tomar medidas de
contingencia por parte de Washington llevó a la creación de la Oficina Nacional de Investigación
Económica (ONIE). La emergencia económica producida por el desplome financiero de Estados
Unidos, llevó a que la Oficina Nacional de Investigación Económica liderada por el economista
Simón Kuznets, esgrimiera prontamente los resultados de sus investigaciones, descubriendo al
Producto Interno Bruto (PIB) como una medida de cuánto dinero se encuentra en intercambio y de
la producción de un país en un año determinado. No obstante, las mediciones realizadas a partir
del PIB tampoco permitían medir el bienestar social (Adler Braun, 2009). Por tal razón, la ONIE,
utilizó los datos arrojados por el PIB y al dividirlos entre el número de habitantes de un Estado, se
pudo evidenciar la relación: renta nacional- población (PIB per Cápita). Teniendo en cuenta la
escasez y precariedad de instrumentos de medición macroeconómica y del bienestar social en la
época, esta investigación fue interpretada y adoptada por los Estados como la medición del
bienestar social en el marco del PIB. Es innegable la incidencia de las mediciones de la renta
nacional a través del PIB con importantes aportes para la estabilización de corto plazo económico
en la crisis financiera 1 Según el PNUD, el concepto de Desarrollo Humano es un paradigma de
desarrollo que va mucho más allá del aumento o la disminución de los ingresos de un país.
Comprende la creación de un entorno en el que las personas puedan desarrollar su máximo
potencial y llevar adelante una vida productiva y creativa de acuerdo con sus necesidades e
intereses. 8 del 29 y la planeación económica durante la Segunda Guerra Mundial (Syrquin, 2011).
No obstante, la equivalencia entre PIB per Cápita y calidad de vida, provocó importantes
discusiones acerca de las estimaciones del bienestar social más allá de la renta nacional de los
Estados, sugiriendo que es urgente desarrollar nuevos enfoques para la medición de los resultados
económicos nacionales (Lábaj, Luptacik, & Nezinský, 2014). Ahora bien, el enfoque del bienestar
social basado en el Desarrollo Humano se fundamenta en las discusiones durante las décadas de
1970, 1980 y 1990 sobre el PIB per Cápita y su viabilidad como indicador de bienestar social. De
esta manera, fue posible la aparición de diversos mecanismos alternativos de medición del
bienestar social como el Análisis Envolvente de Datos (AED) o el Índice de Pobreza
Multidimensional (IPM). No obstante, las transformaciones estructurales relacionadas a la postura
cómoda para equiparar crecimiento económico y bienestar social surgieron de las críticas de dos
importantes economistas indios de finales del siglo XX: Mahbub Ul Haq y Amartya Sen (Islam &
Clarke, 2001), quienes a través de las investigaciones realizadas en el Programa de las Naciones
Unidas para el Desarrollo (PNUD) consolidaron un importante insumo para entender el desarrollo
de un Estado más allá de la renta nacional y por ende, entender el bienestar social en tres
dimensiones: vida larga y saludable, nivel de vida digno y acceso a la instrucción (Ferrer, 2014).
Este indicador se denominó como Índice de Desarrollo Humano (IDH). El Índice de Desarrollo
Humano (IDH) se ha convertido en un instrumento para estudiar la relación existente entre la
educación, el índice de esperanza de vida y el ingreso nacional como elementos preponderantes
en la viabilidad de los individuos pertenecientes a un Estado. Sin embargo, el IDH cuenta con
diferentes dificultades para realizar las mediciones del bienestar social: La precariedad para
estudiar las dimensiones de seguridad, medio ambiente y distribución equitativa de los recursos,
la estandarización de los criterios de medición del desarrollo humano en los países del Norte y el

83
Sur, son algunas de las críticas más importantes hacia este índice, las cuales han pretendido ser
resueltas a través de la creación de otros instrumentos subsidiarios como el Coeficiente de Gini, el
Índice de Progreso Social (SPI) o el mismo Índice de Pobreza Multidimensional (IPM) (Bilbao‐
Ubillos, 2011). 9 Dentro del debate del bienestar social en términos del crecimiento económico de
un Estado contra el bienestar social basado en el Desarrollo Humano anteriormente desglosado,
es posible evidenciar ciertas problemáticas. Por un lado, las estimaciones del PIB tenían como
principal objetivo evidenciar las condiciones económicas de los países, empero la equivalencia con
el bienestar social se derivó de la carencia de instrumentos de medición de la calidad de vida; una
crítica que el mismo Simón Kuznets hizo al decir: “el bienestar de una nación apenas se puede
inferir a partir de una medición del ingreso nacional” (Kuznets, 1934). Por otro lado, las
mediciones del bienestar social en términos de crecimiento económico y del Desarrollo Humano
(PIB per Cápita e IDH) no difieren mucho la una de la otra, pues en ambos casos la renta nacional
juega un papel importante y además han homogenizado la información generando datos
parcializados e impuestos por importantes académicos o instituciones externas a los Estados
(Bilbao‐ Ubillos, 2011). Cabe destacar que los estudios alternativos sobre el bienestar social y su
medición, han progresado significativamente hacia el desarrollo de herramientas e indicadores del
mismo, que trasciendan los límites del crecimiento económico de los Estados (Syrquin, 2011). En
tal virtud, el presente estudio de caso versará sobre un hito histórico en las mediciones
alternativas del bienestar social: la Felicidad Nacional Bruta (FNB), indicador desarrollado en 1972
por Jigme Singye Wangchuck2 . Originalmente la FNB se erigió como un compromiso hacia la
consecución de la felicidad de la población de Bután, tal y como se encontraba consignado en el
código legal de 17293 , hasta consolidarse en 2010 como un indicador holístico del bienestar
social. Singye Wangchuck lideró la creación del indicador de FNB como indicador del bienestar
social que responde a las reformas metodológicas para la medición del mismo a través de 4 pilares
con la misma distinción uno del otro: desarrollo económico, preservación ecológica, preservación
cultural y buen gobierno (Rinzin, Vermeulen, & Glasbergen, 2007). De esta manera, se declaró la
FNB por parte del Gobierno butanés como un enfoque de desarrollo multidimensional que
pretende conseguir un equilibrio armonioso entre el 2 4º Rey Dragón de Bután 3 Según el codigo
legal de 1729 del Reino de Bután estipula que: “si el gobierno no puede crear felicidad y paz para
su población entonces no existe razón para su existencia”. 10 bienestar material y de las
necesidades espirituales, emocionales y culturales de la sociedad (Gross National Happiness
Commission, 2015). La razón fundamental para llevar a cabo la presente investigación sobre la
Felicidad Nacional Bruta (FNB) y sus efectos sobre el bienestar social de la población del Reino de
Bután, radica en la necesidad de fijar importantes discusiones entre académicos y tomadores de
decisiones sobre las mediciones del bienestar social y su adaptabilidad a las necesidades del
mundo de hoy. En segundo lugar pero no menos importante, la atinencia del presente estudio de
caso se relaciona con el uso insubordinado del concepto de felicidad en la cimentación de
herramientas de política pública y política exterior; un concepto que históricamente se ha
entendido de manera efímera y etérea, pero que es rescatado por la Felicidad Nacional Bruta. Para
fines prácticos y concernientes al presente texto, se utilizará la definición de felicidad del
Anguttara Nikaya4 , que entiende el alcanzar la felicidad como un desapego al mundo material
que produce sufrimiento y los instrumentos para llegar a ellos son la meditación y elementos
como la amistad, el gozo, la compasión y la ecuanimidad. De manera generalizada, se ha optado
por indicadores del bienestar social como el PIB per Cápita y el IDH, los cuales permiten establecer

84
marcos de referencia sobre el crecimiento económico y la viabilidad de los Estados. No obstante,
tanto el PIB per Cápita como el IDH, toman una posición mecanicista, lejana y desinteresada con
respecto a las poblaciones como objeto de estudio, abandonando elementos trascendentales
cuando a bienestar social se hace referencia, como la cultura y el medio ambiente, los cuales son
retomados por parte de la FNB. En el marco de la presente investigación, se plantea que la
implementación de la FNB desde 1972 en el Reino de Bután y sus posteriores mediciones como
indicador del bienestar social en 2010 y 2015, han buscado la comprensión del bienestar social
equilibrando factores materiales como el poder adquisitivo de la población butanesa, con factores
espirituales y etéreos como el conservadurismo cultural ligado a los valores tradicionales del
budismo tántrico (inmaterialidad del bienestar y la felicidad espiritual). De esta manera, la FNB ha
4 Libro sagrado del budismo tántrico reconocido por agrupar diversos textos y discursos budistas.
11 tomado distancia de las mediciones tradicionales del bienestar social, convirtiéndose en un
indicador endógeno del mismo que responde a las necesidades de la población butanesa. Para
poner a consideración esta hipótesis a fin de respaldarla o refutarla, el estudio de caso se dividirá
en 3 partes. En primer lugar, se identificaran las principales características de la creación, medición
e implementación de la Felicidad Nacional Bruta, los resultados de la misma en el Reino de Bután
como indicador del bienestar social y los desafíos para salvaguardar la eficiencia y atinencia del
indicador. En segundo lugar, se analizará el papel del conservadurismo cultural como eje
articulador entre el indicador de FNB y la población butanesa, un rubro fundamental para la
consolidación del FNB como indicador del bienestar social. Finalmente, se considerará la
preeminencia internacional de la FNB como indicador del bienestar social y las implicaciones
diplomáticas y societarias derivadas de la misma. 1. EL BIENESTAR SOCIAL EN TIEMPOS DEL FNB
EN BUTÁN El presente capitulo tiene como principal propósito examinar las transformaciones
subsecuentes al uso del indicador de la FNB en el Reino de Bután. Para este propósito, el presente
capitulo versará sobre dos ejes fundamentales: en primer lugar, indagar sobre las motivaciones
históricas y sociales que motivaron la creación del indicador de FNB y el proceso de
establecimiento del mismo; y en segundo lugar, analizar el proceso de creación, medición e
implementación de la FNB junto con los resultados presentados por dicho indicador entre los años
2010 y 2015, donde se puedan evidenciar las principales ventajas y falencias del uso de la FNB
como indicador del bienestar social y así determinar las implicaciones de la FNB para la
formulación de políticas públicas, y por ende los efectos sobre la población butanesa. 1.1 Génesis
de la FNB en Bután: Orígenes y motivaciones de una transformación estructural 12 Bután es un
país del sudeste asiático ubicado en inmediaciones de la cordillera de los Himalayas y constituido
como reino desde su unificación a comienzos del siglo XX5 . Cuenta con una superficie de 38.394
km2 y una población aproximada de 750.125 habitantes para julio de 2016 (Central Intelligence
Agency (CIA) , 2016 ). Este pequeño reino himalayo, se ha caracterizado a lo largo de su historia,
por constantes transformaciones de tipo administrativo derivado de conflictos con otros países
como Reino Unido e India por consolidar su autodeterminación y la consecución de un Estado
independiente. Finalmente el 8 de Julio de 1949, el Reino de Bután se independizó de India, con lo
cual ingresó en un proceso de reinvención del aparataje administrativo, la institucionalidad y las
herramientas de política pública y exterior que se encontraban supeditadas a la administración
india (Choden, 2011). El proceso de reinvención burocrática en Bután a partir de su proceso
independentista, no se dio de manera inmediata y se fue perfeccionando a través del tiempo. La
participación democrática que flexibilizó los poderes del Dragón como máximo regente, la

85
creación de una constitución en 2008 como Carta Magna para la legislación y la toma de
decisiones en el Gobierno de Timbu6 son algunos de los logros más destacados del proceso
revisionista y evolutivo del Estado butanés. En este orden de ideas, la llegada de Jigme Singye
Wangchuck en 1974 como Rey Dragón de Bután, posibilitó la continuidad de varios de los logros
anteriormente mencionados en el perfeccionamiento del Estado butanés después de su
independencia. Sin embargo, el mayor aporte se produjo en el revisionismo hacia los instrumentos
de medición de la calidad de vida de la población del reino himalayo o el denominado bienestar
social. Singye Wangchuck se encontraría con que los indicadores tradicionales del bienestar social,
catalogaban al Reino de Bután como un Estado pobre y carente de posibilidades en términos de
renta nacional y Desarrollo Humano para proveer el bienestar social de la población (Centre for
Bhutan Studies & GNH Research, 2015). Este difícil panorama impulsó la creación de la FNB en
1974, como elemento etéreo de guía para la gestión administrativa y política de Bután. Aun así,
con la investigación 5 Ver anexo 1 6 Capital de Bután 13 científica llevada a cabo por el centro de
estudios en Bután7 y la voluntad política de los mandatarios Jigme Singye Wangchuck y su sucesor
Jigme Khesar Namgyal Wangchuck8 , se hizo posible la consolidación de la FNB como indicador del
bienestar social, lo cual fue consignado en la Constitución del Reino de Bután de 20089 , y
finalmente se llevó a buen término con dos mediciones del indicador en 2010 y 2015 (Ura, Alkire,
& Zangmo, 2012). 1.2 La felicidad como indicador del bienestar social: características y resultados
de la implementación del FNB en el Reino de Bután La creación de la FNB responde a los esfuerzos
del cuarto y quinto Dragón (Jigme Singye Wangchuck y Jigme Khesar Namgyal Wangchuck
respectivamente) por instaurar cambios considerables en las mediciones del bienestar social en el
Reino de Bután, dando cuenta de la construcción socio-cultural exclusiva del Estado himalayo y sus
principales referentes, tomando distancia de los indicadores de valores monetarios como PIB per
Cápita e IDH (Centre for Bhutan Studies & GNH Research, 2015). Dentro de las características
particulares de las mediciones realizadas con el indicador FNB, cabe destacar su carácter holístico
al fundamentarse en 4 pilares -político, económico, cultural y medioambiental- los cuales a su vez
gravitan alrededor de 9 áreas fundamentales enfocadas en los perfiles de cada individuo para las
mediciones del bienestar social: • Bienestar psicológico (espiritualidad y satisfacción con la vida), •
Uso del tiempo (equilibrio trabajo, ocio y dormir), • Vitalidad de la comunidad (integración entre
comunidades, familias y amigos), • Diversidad cultural (diversidad cultural y continuidad de
tradiciones como festivales y demás), • Resiliencia ecológica (evaluación de las condiciones
medioambientales y los comportamientos “eco-friendly) 7 Bután cuenta con el CBS (Centre of
Bhutan Studies) encargado de realizar publicaciones e investigaciones académicas sobre la
realidad social, económica y cultural de Bután pero especialmente estudiar la FNB. 8 5to Dragón
de Bután coronado en 2006 a partir de la abdicación de su padre el 4to Dragón. 9 En el artículo 9
parágrafo 2 de la Constitución de Bután se establece que: El Estado se esforzará en promover las
condiciones que permitan la búsqueda de la Felicidad Nacional Bruta. 14 • Estándares de vida
(ingresos, seguridad financiera y capacidad adquisitiva) • Salud (condiciones físicas y mentales de
la población) • Educación (educación formal e informal, conocimientos, valores y habilidades) •
Buen gobierno (Percepción gestión gubernamental y prestación de servicios) (Ura, Alkire, &
Zangmo, GNH and GNH index, 2012). Estos elementos fomentan los análisis holísticos, ayudando a
maximizar el bienestar social y minimizar el sufrimiento a través del balance entre necesidades
económicas y necesidades emocionales y espirituales (Wangmo & Valk, Under the Influence of
Buddhism: The Psychological Wellbeing, 2011). La FNB abarca un sinnúmero de dimensiones que

86
constituyen el bienestar social de la población butanesa. Cabe destacar que las consideraciones de
tipo económico constituyen solamente una de las áreas del indicador de FNB y cuenta con la
misma valoración que los demás rubros considerados dentro del indicador (Hayden, 2015). Ahora
bien, en el marco de las mediciones de la Felicidad Nacional Bruta (FNB) elaboradas en 2015, se
realizó un compendio de los principales objetivos que resumen el valor progresista del indicador
de FNB: posicionarse como un marco alternativo de desarrollo, proporcionar indicadores a ciertos
sectores para guiar el desarrollo, localizar los recursos en correspondencia con las necesidades de
la población, medir la felicidad y el bienestar de la población, medir el progreso en el tiempo y,
finalmente, comparar el progreso a lo largo del país (Ura, Alkire, Zangmo, & Wangdi, 2015). Es
importante destacar que las características anteriormente mencionadas se establecieron desde el
mismo génesis del indicador de la FNB en 1972. No obstante, no se contaba con una metodología
que transformará la FNB de una somera filosofía de vida hacia un indicador claro y relevante del
bienestar social. La iniciativa de implementar una metodología propia para la recolección de
información en 2008 y su perfeccionamiento en 2010 con la primera medición oficial,
contribuyeron al propósito de hacer de la FNB un indicador. 15 Las mediciones de FNB llevadas a
cabo en 2010 y 2015 contaron con la participación de comisiones de estadística y a partir de una
serie de preguntas10 englobadas dentro de las 9 áreas fundamentales del indicador, dichas
mediciones recorrieron los 20 dzongkhags11 de Bután entrevistando a la ciudadanía,
cerciorándose de la diversidad formativa y generacional de los encuestados para una mayor
eficacia y amplitud en las mediciones (Ura, Alkire, & Zangmo, 2012). Finalmente, la información
compilada se utilizó para cuantificar los resultados y determinar sobre cada individuo el nivel de
felicidad que posee para ser categorizando entre profundamente feliz, extensamente feliz,
estrechamente feliz e infeliz. Ahora bien, es importante precisar que las diferencias en términos
metodológicos entre las mediciones realizadas en 2010 y las llevadas a cabo en 2015 son poco
significativas. Algunos de los cambios son especialmente con respecto al número de preguntas,
encuestadores y numero de encuestados. No obstante, dentro de los resultados arrojados por
cada una de ellas, existen variaciones en rubros importantes que se deben analizar. El primer
cambio notable entre las mediciones de FNB entre 2010 y 2015 se encuentra en el Índice general
de FNB. Mientras en el año 2010 se estimaba un índice de 0.743, para 2015 llegó a ser de 0,756.
Este crecimiento del 1.8% se compagina con que para el 2015, el 91.2% de la población butanesa
se registró como profundamente, extensamente o estrechamente feliz mientras que solamente el
8.8% se consideraba infeliz12 . Los porcentajes de infelicidad entre el año 2010 y 2015 han tenido
cambios repentinos. Mientras el porcentaje de infelicidad en 2010 se estimaba en 10,4%, en 2015
el porcentaje de la población butanesa que se consideraba infeliz fue del 8.8% (Ura, Alkire, Tshoki,
& Wangdi, 2012). Según los informes presentados por el Gobierno de Bután en 2015, las
reducciones en el porcentaje de la población infeliz se encuentran relacionadas con las mejoras en
algunas de las 9 áreas fundamentales como: condiciones de vida y prestación de 10 La diferencia
entre el número de preguntas entre las mediciones de 2010 y 2015 no es mucha. Un aproximado
de 148 preguntas. 11 Palabra en Idioma Dzongkha para referirse a distritos 12 Ver anexo 2 y 3 16
servicios, salud, educación, uso del tiempo, resiliencia ecológica y diversidad cultural (Centre for
Bhutan Studies & GNH Research, 2015)13 . Ahora bien, las mediciones de la FNB en 2015
ratificaron una tendencia que se había podido distinguir desde las mediciones llevadas a cabo en
2010. Las zonas urbanas y las zonas rurales mantenían una disparidad significativa en los niveles
de bienestar social que ponía como precedente la necesidad de tomar acciones por parte de

87
Timbu para reducir la brecha. No obstante, al realizar una comparación entre los datos de 2010 y
2015, las tasas de felicidad en las zonas rurales y urbanas mantuvieron un distanciamiento en 2015
pero paradójicamente, tanto las zonas rurales como las zonas urbanas crecieron de manera
progresiva. Es decir, que si bien la brecha urbano-rural se mantiene, ni el campo se queda
relegado en las mediciones ni las zonas urbanas aumentan su margen diferencial14 . Asimismo,
cabe destacar que dentro de las dos mediciones de FNB, la diversidad generacional era un
elemento importante para no sesgar los datos y reducirlos a un segmento de la población en
específico. En un comparativo de las entrevistas realizadas tanto en 2010 como en 2015 es posible
evidenciar una tendencia al aumento de la felicidad en 11 de los 13 rangos de edad considerados
en las mediciones15. Con ello, es posible entender que la mejora en las condiciones de bienestar
social no se reduce a una porción reducida de la ciudadanía, sino que abarca a una amplia mayoría
de la población butanesa. Al interior de los resultados presentados tanto en las mediciones de
2010 como 2015, se destaca la relación entre los ingresos per Cápita y la felicidad subjetiva
entendida como: “sentimientos o percepciones de satisfacción o alegría; la experiencia general de
placer, bienestar y sentido de la vida” (Ura, Alkire, Zangmo, & Wangdi, 2015). La relación
presentada en los informes de 2010 y 2015 de la FNB, demuestra que la felicidad subjetiva no se
encuentra unívocamente direccionada a los ingresos de los hogares en Bután. Por el contrario,
como se puede evidenciar en los anexos 7 y 8, los dzongkhags de Dagana y Tsirang 13 Ver anexo 4
14 Ver anexo 5 15 Ver anexo 6 17 tanto en 2010 como en 2015 presentan bajos ingresos anuales
por hogar pero mantiene altos niveles de felicidad subjetiva16 . Por otra parte, las mediciones del
bienestar social basadas en el índice de FNB se han convertido en un componente sustancial para
la construcción de políticas en el Reino de Bután. La consolidación del FNB en Bután como filosofía
para la toma de decisiones gubernamentales e indicador del bienestar social viabilizó la creación
de la Comisión de FNB, encargada de proponer y evaluar políticas, proyectos y programas en 22
variables17 que se encuentra ligadas a los 4 pilares y las 9 áreas fundamentales de la FNB. Este
mecanismo de evaluación y creación de políticas públicas se denomina Herramienta de Análisis
Político FNB (Gross National Happiness Commission, 2011). Las políticas que presentan fallas o un
bajo puntaje de aprobación, son enviadas al agente que la propuso para ser corregida y puesta en
marcha nuevamente para el trámite legislativo. La Herramienta de Análisis Político FNB es un
instrumento de amplio espectro que ha fomentado iniciativas que promulgan mejoras en la
calidad de vida y derogado políticas que promueven los vejámenes contra el bienestar social de los
individuos, en rubros como la salud pública, la educación, el medio ambiente entre otros18 . La
Herramienta de Análisis Político FNB ha tenido importantes críticas, especialmente por parte de
los miembros de la Organización Mundial del Comercio (OMC). Si bien existe un interés expreso
del Gobierno butanés por ingresar a la OMC, la organización no ha permitido que el país himalayo
pueda llegar más allá del status de país observador, puesto que ha existido históricamente una
demanda generalizada de sus miembros para que Timbu se adapte a las condiciones sistemáticas
del mercado mundial: la apertura económica orientada a la exención de barreras arancelarias, la
producción masificada de bienes y servicios todo ello incluido en un mercado de libre comercio
desregularizado. 16 Ver anexo 7 y 8 17 Algunas de las variables son: equidad, bienestar material,
corrupción, igualdad de género, habilidades y aprendizaje, salud, contaminación aérea y de agua
potable, tiempo de interacción familiar entre otros valores budistas como la compasión y la
generosidad. 18 Según estadísticas del Banco Mundial publicadas en 2014, la tasa de pobreza en
Bután descendió del 31% al 12% entre los años 2003 y 2012. La expectativa de vida aumentó entre

88
1990 y 2012 pasando de 52 años a 68 años y la mortalidad infantil entre 1990 y 2012 descendió de
93 muertes por cada 1000 nacimientos a 31 muertes por cada 1000 nacimientos. 18 Dichas
exigencias se contraponen a la economía planificada y proteccionista de Bután basada en la FNB.
Por tal razón, la Comisión de FNB tomó la decisión de prescindir temporalmente de sus intereses
por ingresar a esta organización internacional argumentando que “no se puede jugar con el futuro
del país”, pues la participación gubernamental es imperecedera dentro del comercio butanés
como garante de la estabilidad y viabilidad cultural, social y medioambiental del país a través del
comercio (Hayden, 2015). En tal virtud, es posible aseverar que la Herramienta de Análisis Político
FNB es un insumo importante para la toma de decisiones en el Reino de Bután, y por tanto un
referente para la construcción y consolidación de políticas encaminadas al bienestar de la
ciudadanía. 2. CONSERVADURISMO CULTURAL: UN ELEMENTO FUNDAMENTAL PARA LA
CONSOLIDACION DE LA FNB EN EL REINO DE BUTÁN En el apartado anterior se pudo hacer una
revisión de las características de la FNB y la revisión comparativa de los datos arrojados en las
mediciones realizadas a través de este indicador. Sin embargo, para realizar un estudio
concienzudo sobre las implicaciones del indicador de FNB en el bienestar social de la población
butanesa, se abordará en el presente capitulo un elemento imperecedero en el Reino de Bután: el
conservadurismo cultural. Teniendo en cuenta que Bután ha sido un Estado que ha adoptado una
posición históricamente aislacionista con respecto a las dinámicas sociales, económicas y
culturales con respecto al resto del mundo, el presente capitulo buscará clarificar el efecto del
conservadurismo cultural sobre el bienestar social de la población butanesa y por ende sobre el
indicador de FNB. Para este propósito, se examinarán dos elementos característicos de la cultura
en Bután: en primer lugar, los valores religiosos del budismo Mahayana que comprenden el
bienestar social más allá del materialismo; y posteriormente el costumbrismo de la población
butanesa que consolida el bienestar social de la población a partir de un proceso identitario de
colectividad. 19 2.1 Budismo Mahayana: el papel de la religión en Bután El budismo se ha
constituido históricamente como la religión mayormente profesada en Bután, cobrando un papel
trascendental en la construcción del país mismo19. Muestra de ello es la Constitución de 2008 en
el artículo 3, sección 1 donde se establece que: “El budismo Mahayana es la herencia espiritual de
Bután, el cual promueve los principios y valores de paz, no violencia compasión y tolerancia”
(National Council of Bhutan , 2008). En tal virtud, no es posible desligar los estudios concernientes
a Bután sin entender la influencia de los valores del budismo Mahayana sobre el modus vivendi de
la población butanesa. Teniendo en cuenta lo anteriormente mencionado, cabe señalar que la
influencia del budismo sobre la construcción de la FNB como filosofía de Estado e indicador del
bienestar social responde a la influencia de ideas budistas. La FNB se basa en el concepto de
Camino Medio de la escuela Madhyamaka20 , basado en evitar el extremismo, vivir con
moderación y establecer un balance entre las diversas metas de la vida. Por tal razón, como se
pudo evidenciar en el capítulo anterior, las mediciones de la FNB han propendido por estudios
holísticos y multidimensionales que equilibren las necesidades espirituales y materiales poniendo
mayor énfasis en las primeras (evitar el extremismo), estableciendo 4 pilares y 9 áreas de análisis
sobre el bienestar social (balance entre las diversas metas de la vida) y finalmente la toma de
decisiones sin vulnerar el entorno (vivir con moderación). No obstante, los valores budistas no
encuentran su influencia solamente en la instauración de la FNB sino también en los resultados
expuestos a través del indicador. Un primer elemento que es importante destacar es el uso de la
felicidad como medida del bienestar social. Según declaraciones del 4º Dragón Jigme Singye

89
Wangchuck posteriores a la creación del FNB, la FNB es más importante que el Producto Interno
Bruto, con lo cual Wangchuck buscaba enfatizar que la felicidad tiene como último logro las
capacidades materiales. Por lo tanto, los esfuerzos gubernamentales y administrativos basados en
la 19 Según datos presentados por la CIA (Central Intelligence Agency) en 2016 el 75,3% de la
población en Bután es budista. 20 Escuela del budismo Mahayana encargada del “Camino Medio”.
20 idiosincrasia del budismo Mahayana se encuentran en el enriquecimiento espiritual (National
Environment Commission (NEC), 2012). La felicidad entendida como un desapego al mundo
material que produce sufrimiento21 contrasta con las aproximaciones modernas y occidentales
sobre la felicidad: desde el utilitarismo benthamista del materialismo, pasando por la felicidad
derivada de la libertad producto de la Revolución Francesa que exime de deberes a la ciudadanía y
de responsabilidades al Estado, hasta la consecución secular de la felicidad rawlsiana que deja de
lado la religión como un elemento para alcanzar este propósito (Givel, 2015). La felicidad
entendida a través del distanciamiento con el mundo material se encuentra relacionada con Buda
y su ejemplo de una vida sencilla y moralmente aceptada, que derivó en una felicidad genuina más
allá de la riqueza, rechazando la codicia y la esclavitud al materialismo dejándolo como ultima
meta (Wijeyawansa, 2009). En este orden de ideas, el maestro budista Sogyal Rimpoche plantea la
existencia del componente físico y mental de la felicidad: el componente físico, basado en la
comodidad material y los placeres; y el componente mental, basado en la satisfacción y la paz
interna (Wangmo & Valk, Under the Influence of Buddhism: The Psychological Wellbeing, 2011).
Este segundo juega un papel más importante, pues mientras la riqueza puede desaparecer, la paz
interior y la satisfacción personal permanecen y pueden llevar a la iluminación del individuo y el
conocimiento de la verdad ultima. En este orden de ideas, la felicidad como eje fundamental del
bienestar social es un fin en sí mismo y una de las formas de conseguirla es a través del
crecimiento espiritual más que en el material. Por tal razón, el budismo Mahayana ha tenido una
amplia injerencia en la construcción de las políticas públicas enfocadas en el crecimiento
espiritual, procurando que la ciudadanía llegue a la felicidad genuina (Givel, 2015). La búsqueda
constante del budismo por la felicidad se deriva de una condición inherente al ser humano: el
sufrimiento. Según el budismo, la existencia humana desde el nacimiento hasta la muerte se
caracteriza por el sufrimiento constante de los individuos y se 21 Definición del Anguttara Nikaya
(Libro sagrado del budismo tántrico reconocido por agrupar diversos textos y discursos budistas)
21 repite nuevamente a través de la reencarnación. La ignorancia, los deseos y el odio son
conocidos como los 3 venenos que impiden la consecución de la felicidad. No obstante, prácticas
como la generosidad, las virtudes éticas y morales como la paciencia, tolerancia, esfuerzo,
perseverancia, meditación y sabiduría, permiten la inmunidad a los 3 venenos y así mismo,
fomentan el bienestar psicológico que forma parte de los sentimientos del individuo, sus
experiencias y el estado de su mente (Drakpa, Sunwar, & Choden, 2013). El bienestar psicológico
hace parte de una de las áreas fundamentales del Índice de FNB, y tiene como principal objetivo
analizar la promoción gubernamental del budismo Mahayana midiendo el grado de felicidad
espiritual de la ciudadanía butanesa en áreas como: las emociones de la población, nivel espiritual,
oraciones, meditación y las actuaciones de los individuos basadas en el karma (Centre for Bhutan
Studies & GNH Research, 2015). Es decir, las mediciones del bienestar psicológico de la ciudadanía
son primordiales para la FNB puesto que determinan el nivel de espiritualidad de la población a
través de las emociones positivas y negativas, y demuestran cómo las practicas dogmáticas del
budismo (meditación, oración y karma) permiten transformaciones en el bienestar de las personas

90
(Dorji, 2012). La meditación y las oraciones son el mecanismo mediante el cual los bodhisattvas22
buscan la paz interior y la eliminación de emociones negativas como el deseo, el odio y la
ignorancia, los 3 venenos que no permiten llegar a la verdadera felicidad (Wangmo & Valk, 2011).
La meta esencial de la meditación y la oración se encuentra en debilitar el egocentrismo de
manera que comportamientos altruistas sean cada vez más comunes, además de la erradicación
de sentimientos como depresión, ansiedad y estrés (Lutz, Lewis, Johnstone, & Davidson, 2008).
Por otro lado se encuentra el Karma23 , como un elemento que constriñe moralmente a la
población y que tiene un aporte significativo en la FNB. A través del Karma, las acciones de los
individuos se rigen por lo moralmente responsable y evitan cometer actos degradantes e
ignominiosos que causen sufrimiento a otros. De esta manera, se promueve una forma de 22
Seguidores del ejemplo de Buda. 23 Según Centro Yamantaka el karma se define como toda acción
ejecutada por el cuerpo, palabra o mente a la larga produce una reacción específica. 22 vivir
saludable y éticamente correcta que mengua episodios de asesinato, robo, corrupción y daños
medioambientales entre otros. Los efectos de las practicas espirituales (meditación, oración y
conducta con buen Karma) se pueden evidenciar en el comparativo de las mediciones de 2010 y
201524. Un aumento del 3.39% en la población con bienestar mental normal pasando del 86.09%
al 89.48%, demuestra la influencia del budismo Mahayana en la reducción del estrés, el odio, la
envidia y la ignorancia en la población butanesa. El vínculo entre las creencias y valores y el mundo
real es muy fuerte (Inglehart, 2012). El budismo Mahayana ha fomentado la relación intrínseca
entre la población y las políticas públicas basadas en el bienestar social a través de mecanismos
como el FNB. No obstante, existen importantes desafíos que ponen en peligro el aparataje
administrativo, social y espiritual consolidado en Bután a través del budismo. En primer lugar, el
constante proceso de globalización ha permitido que el consumismo tome cada vez mayor
preponderancia en Bután: es posible ver cada vez con mayor frecuencia procesos de urbanización
y adquisición de diversos bienes de lujo, desde automóviles hasta la consolidación importantes
empresarios como sucede en el sector de hidrocarburos, con lo cual se genera un distanciamiento
de los valores tradicionales característicos del budismo en el desapego a lo material (De Graff,
Wann, & Naylor, 2014). Por otra parte, los practicantes y creyentes de otros grupos religiosos,
especialmente los hindúes25, han tenido dificultades para encontrar los espacios de participación
cultural e inclusión social puesto que el budismo Mahayana abarca la mayor parte de las
dinámicas sociales, religiosas y administrativas en Bután. 2.2 Sobre como el costumbrismo cultural
crea conciencia colectiva de bienestar en la población butanesa Antes de poder entender como el
costumbrismo juega un papel clave en el bienestar social de la población butanesa, se utilizará el
concepto de conciencia colectiva de Emile Durkheim para entender de mejor manera cómo la
sociedad coacciona al individuo. Según 24 Ver anexo 9 25 Según datos presentados por la CIA
(Central Intelligence Agency) en 2016 el 22.1% de la población en Bután practica el hinduismo. 23
Durkheim, la conciencia colectiva se refiere al conjunto de creencias, sentimientos, juicios de valor
entre otros, que se comparten entre los individuos, fomentando la solidaridad y derivando en una
sociedad. Además de esto, Durkheim afirma que cuanto más se enajena la conciencia individual a
la conciencia colectiva, los vínculos sociales se fortalecen dejando de lado las diferencias
individuales. El costumbrismo en Bután se refiere a los ritos, códigos de vestuario, festivales de
tipo cultural y religioso, tradiciones entre otros. Estos elementos característicos de la cultura
butanesa cohíben la conciencia individual y permiten que los valores idiosincráticos que
comparten los individuos deriven en una sociedad más coaccionada y menos atomizada. Por tal

91
razón, la participación en las actividades de tipo cultural aumentó en un 14% en 2015 con respecto
al 2010 (Centre for Bhutan Studies & GNH Research, 2015). El concepto de conciencia colectiva
elaborado por Durkheim se asemeja al principio de interdependencia en el budismo Mahayana,
que enseña que para procurar por la felicidad propia se debe tener conciencia de la
interdependencia entre los individuos de la sociedad y propender por mantener la felicidad en ese
intrincado sistema (Negi,1999; Flanagan, 2007; Dorji, 2009). En pocas palabras, la felicidad propia
se restringe a la felicidad del sistema, con lo cual la conciencia colectiva absorbe la conciencia
individual. Las costumbres en Bután, difieren en gran medida de muchas otras alrededor del
mundo debido al aislacionismo que ha caracterizado al país. El matrilinaje en los casamientos26,
las celebraciones Tshechu27 y el Driglam Namzha28 son algunas de las tradiciones y rituales
acostumbrados en Bután. Según Durkheim, estos escenarios se convierten en la plataforma donde
la sociedad consolida al individuo estableciendo los parámetros de comportamiento e
idiosincráticos que comparten junto con el resto de la sociedad. 26Según la Real Academia de la
Lengua Española (RAE) es una organización social que se basa en el predominio de la línea
materna. En el caso butanés, el matrimonio hace que el hombre deba irse a vivir a casa de los
padres de la novia. 27 Festivales celebrados en el 10mo día del mes lunar correspondiente al
cumpleaños del Guru Rimpoche (Guru Padmasambhava). Sin embargo cada mes el Tshechu
cambia de lugar y templo para su realización. 28 El Driglam Namzha es el código de vestuario (gho
para hombres - kira para mujeres) y de conducta oficial en el Reino de Bután. 24 Si bien en el
comparativo entre las mediciones realizadas en 2010 y 2015, se evidencian progresos en términos
de la participación en actividades de tipo cultural, el porcentaje de la población que entiende la
Driglam Namzha como un elemento importante y fuerte de la cultura butanesa descendió en un
17% (Ura, Alkire, Zangmo, & Wangdi, 2015). Una reducción tan abrupta en 5 años es un elemento
que debe ser tenido en cuenta y se plantea como un desafío que necesita ser superado
consolidando y fortaleciendo los elementos característicos y primigenios de las costumbres en
Bután. Una reducción en el sentido de pertenencia en rubros importantes como la Driglam
Namzha no solo pone en peligro la consolidación de consciencia colectiva al interior de la
población de Bután, sino que pone el riesgo el indicador FNB en tanto la cultura, es el eje
articulador de las dinámicas y mediciones particulares del mismo. 3. ENSEÑANZAS DE BUTÁN
PARA EL MUNDO Tal como se ha podido ver a lo largo del presente texto, la FNB se ha convertido
en un elemento eficaz y contundente para las mediciones de bienestar social hasta llegar a
establecerse en el elemento primordial para la toma de decisiones al interior del Estado butanés.
Sin embargo, no se ha detallado sobre las implicaciones a nivel internacional del indicador de FNB
y su proceso de internacionalización. En tal virtud, este capítulo se centrará en analizar las
principales herramientas de internacionalización del FNB, los logros surgidos de ese proceso de
internacionalización, las enseñanzas para los tomadores de decisiones a nivel mundial y
finalmente las criticas derivadas del proceso mismo. 3.1 Internacionalización de la FNB Según el
profesor Rupert Gethin, experto en budismo de la Universidad de Bristol: “la principal misión de
los Bodhisattvas en el budismo Mahayana es contagiar de felicidad al mundo entero” (Gethin,
1998). Esta afirmación se compagina con los comunicados de la Secretaria del Ministerio de la
Información y las Comunicaciones donde se mencionan 4 niveles de percepción del FNB: uno, el
nivel de percepción de las generaciones pasadas que entienden la interdependencia y la
confraternidad dentro de las pequeñas comunidades; dos, 25 el nivel de definición, explicación y
medición del indicador por parte de la academia; tres, la percepción de la FNB como una

92
responsabilidad gubernamental; y cuatro, el nivel de internacionalización del discurso del FNB
(Hayden, Bhutan: Blazing a Trail to a Postgrowth Future? Or Stepping on the Treadmill of
Production?, 2015). Por lo anterior, se puede advertir que es de suma importancia la
internacionalización de la FNB por parte del gobierno butanés. Por lo cual, se ha generado un
proceso de pedagogía y discusión sobre el indicador a través de 6 conferencias realizadas entre
2004 y 2015. Las conferencias de FNB han tenido la participación de mandatarios, académicos y
diversos visitantes de diversos países provenientes de América, Europa y Asia que comparten las
sugerencias, dudas y críticas en espacios de foro con diversos panelistas. Países como Canadá,
Brasil y Tailandia han tenido oportunidad de acoger algunas de las conferencias (Centre for Bhutan
Studies and GNH Research, 2015). No obstante, los documentos oficiales encontrados de las
conferencias son bastante superficiales y solamente mencionan cuestiones de forma como la
cantidad de asistentes, mas no de fondo, tratando muy poco sobre los contenidos de las
conferencias como tal. Las conferencias para la promoción internacional de la FNB se utilizan
como un instrumento de “soft power” con miras a visibilizar el perfil de Bután y su estatus de
nación independiente y contestataria hacia las mediciones tradicionales de bienestar social (BBC ,
2013). La internacionalización de la FNB se encuentra relacionada con la necesidad de
securitizar29 las transformaciones de modelos de desarrollo y mecanismos de medición del
bienestar social. En las palabras del ex primer ministro butanés Jigme Thinley: “no podemos ser
una burbuja en un mundo gobernado por el PIB, y no podemos construir una sociedad basada en
el FNB en una esquina de los Himalayas rodeados de un mundo obsesionado con la acumulación
de riquezas a toda costa”. 3.2 FNB: de un indicador local a un referente internacional 29
Securitización: Según Barry Buzan es el proceso mediante el cual se pretende darle calidad o
estatus de asunto de seguridad a un problema que puede atentar contra la supervivencia de un
ente, ya sean individuos, conglomerados, Estados o la humanidad (Sisco Marcano & Olaguer,
2004). 26 La internacionalización del indicador de FNB ha hecho eco dentro de la comunidad
internacional. Dicho trabajo de internacionalización derivó en la resolución 66/204 de 2011 de la
Asamblea de Naciones Unidas, en la cual se reafirma que: “para lograr el desarrollo sostenible a
nivel mundial es indispensable introducir cambios fundamentales en la forma en que producen y
consumen las sociedades y que todos los países deben promover modalidades sostenibles de
consumo y producción, proceso en el que los países desarrollados deben tomar la iniciativa y del
que todos los países deben beneficiarse.” Este importante logro del gobierno butanés, se vio
acompañado de la invitación realizada por las Naciones Unidas en Abril de 2012 para liderar una
reunión de alto nivel, la cual contó con la asistencia de 800 invitados, incluidos el secretario de las
Naciones Unidas y varios jefes de Estado (ONU, 2012). Además de los logros a nivel internacional
del Gobierno butanés por posicionar la FNB como una medición alternativa del bienestar social y
como modelo de desarrollo, se han podido realizar importantes aportes de tipo académico con el
ingreso de miembros del Centro de Estudios de Bután (CEB) al Grupo de Trabajo de Expertos
Internacionales para la creación de un reporte publicado en 2013 denominada “Felicidad: hacia un
nuevo paradigma de desarrollo” (Secretariat for the New Development Paradigm, 2013). Según el
reporte, el nuevo paradigma requiere que se replantee el sistema corriente de desarrollo basado
en la doctrina de la riqueza ilimitada y la insatisfacción material en búsqueda de riqueza y estatus”
(Hayden, 2015) . Este elemento cobra relevancia en tanto la FNB deja de ser un indicador del
bienestar social para establecerse como un paradigma de desarrollo sostenible pensado para
propender por el bienestar de los individuos. 3.3 Enseñanzas y desafíos para los tomadores de

93
decisiones a nivel mundial A través del presente estudio se ha logrado tener mayor claridad sobre
los efectos reales que tiene la implementación del indicador de bienestar social FNB sobre la
población 27 en Bután. No obstante, esta coyuntura plantea desafíos y enseñanzas para los
tomadores de decisiones a nivel mundial. Dentro de los elementos que cabe la pena destacar, se
encuentra la necesidad de hacer estudios sobre el bienestar social que apunten hacia elementos
distintos de la renta nacional de los países y su paridad poblacional. En el caso de Bután, los
análisis holísticos han permitido ver dimensiones del bienestar social que los indicadores
tradicionales como el PIB y el IDH ignoran como la resiliencia cultural y el bienestar psicológico. Es
importante tener en cuenta, que los gobiernos de países como China e India, que tienen
importantes tasas de crecimiento económico (6,8% y 7,3% respectivamente), reducen el bienestar
social de la población a la eficacia distributiva de la renta nacional sin observar otros elementos
esenciales del bienestar social. Así pues, una enseñanza derivada de las mediciones realizadas a
través de la FNB se encuentra en la necesidad de pensar los indicadores del bienestar social desde
adentro de los Estados. La tendencia homogeneizadora de los indicadores tradicionales de
bienestar social ignoran las especificidades socio-culturales de cada Estado evitando que exista un
resultado fidedigno sobre lo que se entiende por bienestar social. 3.4 Criticas a la FNB En el
proceso de internacionalización de la FNB se han encontrado importantes críticas por parte de
importantes líderes, tanto de la oposición en Bután como de la comunidad internacional. El
primero en realizar críticas sobre el proceso de internacionalización es el hoy primer ministro de
Bután: Tshering Tobgay. Antes de convertirse en jefe de Estado, Togbay criticó la constante
búsqueda de audiencias y méritos internacionales por parte del Gobierno butanés, puesto que
fomentó el descuido de las necesidades y políticas internas necesarias para la población. No
obstante, Togbay ha sido enfático en señalar que la crítica es sobre el proceso de
internacionalización que en ocasiones abandona los asuntos locales pero no hacia el indicador de
FNB en sí mismo (Pelden, 2013). 28 Por otro lado, las críticas de la comunidad internacional
apuntan a la inoperancia de la FNB. Según David Luechauer30 , el apoyo de la población hacia el
FNB es solo palabrería y sus respuestas afirmativas dentro de las encuestas, y el proceso de
recolección de datos tienen que ver con una imposición gubernamental mientras anhelan el estilo
de vida de adquisición de bienes y servicios de los países que usan el PIB como herramienta de
medición (Luechauer, 2013). Asimismo, otros personajes como Gaurav Daga31 critican la amplitud
del indicador mencionando que el carácter holístico y multidimensional de la FNB no permite que
se pueda comparar con otros datos a nivel internacional (Daga, 2014). Si bien existen ciertas
críticas con respecto a la FNB sobre su nivel de alcance, el vanguardismo de sus postulados y su
eficacia como medidor de bienestar social, estas críticas se han visto opacadas por la gradual
aceptación y apoyo a nivel internacional del indicador; al igual que por los importantes resultados
arrojados por población de Bután a partir de las mediciones de 2010 a 2015, donde incrementan
sustancialmente importantes rubros para el bienestar social de la ciudadanía; y finalmente por la
defensa del mismo Reino de Bután de las mediciones del bienestar social. CONCLUSIONES Durante
el transcurso de la presente investigación, se pudo evidenciar el carácter contestatario del
indicador de la Felicidad Nacional Bruta en el Reino de Bután oponiéndose a los discursos
mecanicistas y materialistas de indicadores como el PIB per Cápita y el IDH. Así pues, a través de
las mediciones con FNB se ha evitado el reduccionismo tradicional de los indicadores por abordar
el bienestar social de las sociedades a través de los ingresos percibidos como renta nacional,
destacando elementos endógenos y primigenios de la población butanesa como la cultura y la

94
preservación medioambiental. El proceso de aislacionismo del Reino de Bután ha jugado un papel
preponderante en la consolidación del FNB como medidor del bienestar social. De esta manera, las
dinámicas de mercado como el consumismo y el libre comercio se mantienen al margen de las 30
Profesor de Negocios Internacionales en la Universidad de Charleston 31 Investigador experto en
estudios del Sudeste asiático de la Universidad de Cambridge 29 prioridades de la población
butanesa, mientras que la riqueza y el crecimiento espiritual colectivo continúan siendo la base
para conseguir la felicidad y por ende el bienestar social de la población. Teniendo en cuenta lo
anteriormente mencionado, la cultura ha permitido que la adopción del indicador de FNB sea una
labor fácil y poco traumática. Si bien podría entenderse como una decisión populista por parte del
Gobierno butanés, compaginar los instrumentos de política pública con la religión en un Estado
mayoritariamente budista, la verdadera lógica se encuentra en la necesidad de establecer un
punto de quiebre, ya que tradicionalmente son los Estados los que se adaptan a los instrumentos,
como en el caso del PIB per Cápita y el IDH, y no como en el caso de Bután, donde los
instrumentos se adaptan al modus vivendi de la población. El influjo de las mediciones del FNB
sobre el bienestar social real de la población butanesa salta a la vista. Un incremento entre los
años 2010 y 2015 en rubros como la prestación de servicios de salud, el bienestar psicológico y los
estándares de vida es notorio y se encuentra relacionado con la eficacia del indicador FNB como
punto de referencia para tomar decisiones que fomenten las mejoras en la calidad de vida de la
población a través de política pública y política exterior. Finalmente pero no menos importante, se
encuentra la internacionalización del indicador de FNB. Este proceso encuentra su origen en la
necesidad de unir voluntades políticas, recursos y perspectivas con otros Estados para propugnar
por un enfoque de desarrollo que amparé el bienestar social de la población más allá de la riqueza
económica. Todo esto, teniendo en cuenta que no se pueden evidenciar mayores resultados de la
gestión eficaz y responsable del gobierno butanés en temas como el medio ambiente si se
mantienen conductas consumistas y desorganizadas por parte de los demás Estados. La Felicidad
Nacional Bruta es una importante apuesta por parte del Reino de Bután de cara a las necesidades
de su población. Es un instrumento multidimensional de política pública y exterior donde
confluyen la burocracia y la cultura en una apacible armonía. Por tal razón, ha derivado en
importantes transformaciones en la calidad de vida de la población butanesa, sacrificando el
crecimiento exponencial de su economía. Si bien se plantean 30 algunos desafíos como la
discriminación de ciertos grupos religiosos o la globalización que ha llevado al crecimiento del
consumismo en Bután, la FNB sigue constituyéndose como un estandarte de las mediciones del
bienestar social y un elemento clave para la construcción de la política en Bután. Dentro del
presente artículo, se omitieron distintos elementos que por sí mismos pueden constituir futuros
temas de investigación, tales como: la influencia de la FNB sobre el sistema financiero butanés, o
la FNB en el desarrollo económico basado en el régimen de protección medioambiental (emisión
neutral de carbono y amplias zonas protegidas como reservas naturales) entre otros. Los estudios
sobre Bután y sus particularidades administrativas y sociales como la FNB son directamente
proporcionales a lo remoto de este país enclavado entre China e India. Por lo cual, resulta
relevante visibilizar a través de la academia, importantes apuestas para la formulación de política
exterior y política pública como sucede con la FNB en términos del bienestar social, de manera que
no solo represente un marco de referencia local sino también a las necesidades y preocupaciones
a nivel mundial.

95
3.18. ¿QUÉ ES UNA ESTRATEGIA PROTECCIONISTA QUE HOY SE APLICA
EN ESTADOS UNIDOS?

El proteccionismo busca favorecer a los productos y servicios de un país imponiendo limitaciones a


las importaciones.

Hablamos de proteccionismo cuando un gobierno emprende acciones y políticas que restringen el


comercio internacional con la intención de proteger a sus empresas y empleos de la competencia
externa.

Aunque el objetivo primario del proteccionismo es elevar la competitividad de las industrias


locales, al incrementar el precio de las importaciones (imponiendo aranceles) o restringir su
cantidad (estableciendo cuotas), lo cierto es que muchas veces engendran baja productividad y
mala calidad en los productos o servicios nacionales.

A lo largo de los años, los expertos en economía y comercio han sopesado los méritos o
desventajas del proteccionismo, y en general se promueve su contraparte, el libre mercado, como
una alternativa que beneficia más a las empresas y a los consumidores.

Las políticas proteccionistas pueden aplicarse de las siguientes maneras:

Aranceles: Este método grava a las importaciones directamente, elevando de inmediato el precio
de los productos importados. Eso los hace menos competitivos en el mercado en comparación con
los productos locales.

Un ejemplo de libro de texto es la Ley de Aranceles Smoot-Hawley de 1930 en Estados Unidos, que
pretendía originalmente proteger a los agricultores de las importaciones de Europa pero terminó
imponiendo gravámenes a muchas mercaderías más. Al final, fue tal su fracaso, luego de que las
naciones afectadas impusieron sus propios aranceles de represalia, que se le considera una razón
de la severidad de la Gran Depresión.

Subsidios: Estos los ofrecen los gobiernos a las industrias locales a través de créditos fiscales o
pagos directos, reduciendo así el precio de los bienes y servicios producidos localmente. Funciona
mejor que los aranceles porque tiene la ventaja adicional de abaratar las exportaciones y volverlas
más competitivas en el extranjero.

Aplicados en el sector agrícola, por ejemplo, pueden ayudar a los granjeros durante desastres que
afecten a sus cosechas o, incluso, servirles como ingresos para que, a propósito, no cultiven ciertas
cosechas en una temporada y así reduzcan la oferta y eleven los precios artificialmente.

Cuotas: Este método establece cantidades límite de los productos que se pueden importar,
impidiendo que las otras naciones inunden el mercado con productos baratos producto de
subsidios.

Estándares: En ocasiones, las limitaciones obedecen a otras razones más allá de las comerciales,
como puede ser la seguridad de los productos y sus componentes para la salud del consumidor.

96
Sean válidas o exageradas estás preocupaciones, la realidad es que el establecimiento de
estándares beneficia a los productores locales.

Sus ventajas

Cuando un país trata de fortalecer a una industria nueva, los aranceles le protegerán de los
competidores, dándole tiempo para que se vuelva más eficiente y desarrolle sus propias ventajas
competitivas.

También puede favorecer la creación de empleos localmente, pero esto solo durará hasta que los
otros países respondan con medidas comerciales de represalia.

Desventajas

La realidad es que la falta de competencia termina por debilitar a la industria. Las empresas locales
dejarán de innovar y mejorar sus productos o servicios, y los consumidores terminarán pagando
más por productos de menor calidad.

Además, el proteccionismo limita los mercados para las propias empresas nacionales, al toparse
con medidas similares de parte de otras naciones y, finalmente, desacelera el crecimiento
económico del país.

El antídoto contra las medidas proteccionistas en el mundo han sido los acuerdos de libre
comercio, ya sean bilaterales o multilaterales, que han generado crecimiento e innovación en los
países firmantes y elevado los niveles de vida de los trabajadores de los países de otro modo
menos favorecidos.

México y su política comercial

Entre las propuestas económicas del nuevo presidente de México, Andrés Manuel López Obrador,
destacan dos que son consideradas por los analistas como proteccionistas:

1. Promoción de la autosuficiencia alimentaria mediante la imposición de precios de garantía


para productos agrícolas.

2. Reversión de la reforma energética promoviendo la modernización de las seis refinerías


mexicanas y la construcción de otras dos, con la finalidad de frenar la importación de
combustibles, y con la suspensión de las subastas de contratos a empresas extranjeras.

En opinión de la cúpula empresarial de México, medidas como estas, que abogan por sustituir las
importaciones, van en contra del libre mercado y representan una visión económica que tiende al
proteccionismo.

Para la iniciativa privada, en voz de Juan Pablo Castañón, presidente del Consejo Coordinador
Empresarial, el fortalecimiento del mercado interno mexicano debe basarse en la apertura de la
economía a la competencia y en la búsqueda de que se complemente con las de otros países, lo
cual impulsará la innovación tecnológica y la productividad.

EE.UU. refuerza su estrategia proteccionista con nuevos aranceles a China

97
El presidente estadounidense, Donald Trump. EFE/Archivo

Una grúa transporta un contenedor en un puerto. EFE/Archivo

El presidente estadounidense, Donald Trump, siguió hoy adelante con su estrategia proteccionista
al imponer aranceles del 25 % a importaciones chinas por valor de 50.000 millones de dólares, una
medida que Pekín decidió contrarrestar con gravámenes "de misma escala".

Al anunciar la medida, la Casa Blanca aseguró que las sanciones impuestas a China "son
necesarias" para restablecer la relación comercial con el gigante asiático, un país al que acusa de
saltarse las reglas de juego y de quitar millones de empleos en EE.UU.

"Debemos tomar fuertes medidas defensivas para proteger el liderazgo de Estados Unidos en
tecnología e innovación contra la amenaza sin precedentes que representa el robo de China de
nuestra propiedad intelectual", señaló en un comunicado el responsable de Comercio Exterior de
EE.UU., Robert Lighthizer.

En concreto, 1.102 productos chinos de "tecnologías industrialmente significativas" serán


castigados por el Gobierno estadounidense, una cifra algo inferior a la inicialmente propuesta en
marzo.

Industrias como la robótica, aeroespacial y automovilística serán las golpeadas a partir del 6 de
julio por esta nueva ola de aranceles, que no afectará, por otro lado, a bienes de consumo como
teléfonos móviles o televisiones.

La medida impositiva fue aplaudida por el líder de la minoría demócrata del Senado, Chuck
Schumer, que catalogó a China como el "verdadero rival comercial" de EE.UU. y dijo que Trump
"está en lo cierto".

Sin embargo, la directora del Fondo Monetario Internacional (FMI), Christine Lagarde, crítica con la
actual dirección comercial de Washington, advirtió este jueves de que los nuevos aranceles a las
importaciones chinas "podrían tener un impacto macroeconómico" a nivel mundial.

Por su parte, el presidente de la Cámara de Comercio de EE.UU., Thomas Donohue, consideró en


un comunicado que serán "los consumidores, fabricantes, granjeros y ganaderos estadounidenses
los que paguen el costo" de esta acción punitiva. "Este no es el enfoque correcto", añadió
Donohue.

El Gobierno chino no se quedó de brazos cruzados y respondió rápidamente.

El Ministerio de Comercio del Ejecutivo del presidente chino, Xi Jinping, apuntó en un comunicado
que introducirán "de inmediato la misma escala y las mismas medidas arancelarias" que las
impuestas hoy por el lado estadounidense.

98
Además, aseguró que los pactos comerciales alcanzados durante las últimas semanas, en los que
se puso la guerra comercial "en suspenso", "quedarán invalidados" después del anuncio de Trump.

A comienzos de mayo, China se comprometió a aumentar "significativamente" sus compras de


bienes y servicios de Estados Unidos para equilibrar la balanza comercial y el pasado día 3 de junio
ambos países afirmaron que habían llegado a un acuerdo.

A pesar de la pronta réplica desde Pekín, el economista jefe de la gestora de inversiones Tressis
Gestión, Daniel Lacalle, destacó que China "es incapaz de tomar represalias de una manera que
pueda dañar la economía estadounidense".

"Trump está negociando de una forma muy agresiva sabiendo que China no puede tomar
represalias de una manera que pueda dañar la economía estadounidense, ya que las
exportaciones solo representan el 12 % del PIB de EE.UU.", explicó Lacalle en declaraciones al
canal estadounidense CNBC.

Sea como fuere, la nueva imposición de gravámenes es una victoria más para la facción más dura
de la Administración Trump en términos comerciales, que incluye a Lighthizer y al asesor
presidencial, Peter Navarro.

La escalada comercial podría intensificarse aún más en las próximas semanas, ya que Trump avisó
hoy en un comunicado de que EE.UU. "perseguiría aranceles adicionales", en caso de que China
reaccionara, un movimiento que Pekín no ha tardado en ejecutar.

"Estados Unidos buscará aranceles adicionales si China toma medidas de represalia, como la
imposición de nuevas sanciones a nuestros bienes, servicios o productos agrícolas", amenazó el
mandatario en su enésima declaración belicosa, que apunta a que pronto habrá otro nuevo
episodio de esta guerra comercial.

3.19. ¿QUÉ ES LO MÁS IMPORTANTE MOSTRAR EN LA INDUSTRIA DE LA


HOTELERÍA?

Para las empresas hoteleras en la actualidad ya no es una novedad la importancia que tiene el
hecho de saber adaptarse fácil y rápidamente a los avances tecnológicos, y el que además se debe
tratar de obtener el mayor provecho o beneficio posible de todos ellos.

Muchos hoteleros son conscientes de que la mejor manera de destacar y estar un paso por
adelante de la competencia, en estos tiempos tan difíciles y competitivos, es incorporar adelantos
tecnológicos y ofrecer servicios adecuados a los nuevos estándares de vida que existen en la
actualidad (tan íntimamente ligados a estos avances).

Las tendencias actuales sobretodo en tecnología para hoteles marcarán el rumbo en la


planificación de las nuevas estrategias a implementar, y también influirán en el modo en que se
gestiona una empresa hotelera en general.

99
Ten en cuenta que tu empresa necesita adaptarse cuanto antes a estas tendencias, entre otras
cosas porque los clientes ya esperan que tu hotel les pueda ofrecer estos servicios.

“No dejes para mañana lo que tendría que estar hecho desde ayer”

10 Tendencias actuales en la Industria Hotelera

• Software “PMS”.

Los PMS (Property Managment System): son programas diseñados para optimizar adecuadamente
la gestión hotelera, abarcando desde las reservas hasta los procesos de check out, pasando por
ejemplo por la facturación y el control de las habitaciones. Contar con un software de PMS
actualizado, modular y capaz de adaptarse a las necesidades presentes y futuras del hotel, es
indispensable para una eficiente gestión.

• Marketing Digital.

Es la utilización de todos los medios digitales para el comercio electrónico orientado a nuevas
tecnologías que optimizan y hacen más fácil el tratamiento de la información y la relación con los
potenciales clientes, para convertirlos en clientes y fidelizarlos. Es una opción muy utilizada por las
empresas para promocionar y difundir sus productos y servicios. El motivo es el bajo coste y la
obtención de datos y preferencias de los clientes, además del poder hacer conocer más fácilmente
nuestra marca a nivel mundial.

• Ventas online.

Es conveniente tener diferentes canales de distribución, aprovechando la tecnología (un Channel


Manager) para combinarlos con el de venta directa (nuestra web). Como por ejemplo: GDS, IDS,
portales en internet (OTAs), call center, redes sociales, etc.

• El Revenue Management.

Revenue Management (Optimización de Ingresos). Los hoteles actualmente pueden y deben


predecir las demandas del mercado y anticipar sus cambios en precios, ofertas y disponibilidad al
futuro.

• Ofertas personalizadas.

Se deben utilizar todos los datos sobre los clientes obtenidos a través de las distintas herramientas
offline y online de las que podemos y debemos disponer, para ofrecer paquetes personalizados,
adaptados a las necesidades y preferencias de cada tipo de cliente. La personalización de nuestros
servicios es la clave que nos permitirá satisfacer a nuestros clientes y/o generar nuevas demandas.

• Fidelización del cliente.

Internet y las aplicaciones para móviles permitirán tener más contacto directo e indirecto con el
cliente, posibilitando ofrecerle un servicio más personal. Fidelizar a un cliente siempre será más
rentable que captar uno nuevo, por esto puede ser de gran valor diseñar una estrategia de
fidelización personalizada mediante el uso de encuestas post-estancia y los datos obtenidos a

100
través de las distintas herramientas de marketing disponibles. Se debe aprovechar toda esta
información, más la que genera también la estrecha relación que tienen nuestro personal con el
cliente para establecer estrategias que logren que éste se transforme en un cliente habitual y que
así pueda seguir generando negocios en el futuro.

• Social Media.

Las redes sociales cobran cada vez mayor fuerza, colaborando estrechamente a convertir Internet
en uno de los medios de comunicación de mayor rapidez, alcance y eficacia en el mundo,
influenciando notoriamente en la sociedad. Es por esta razón que la mayoría de empresas del
sector turístico, incluidas obviamente las del sector hotelero, deberán considerar, dentro de su
estrategia de marketing, la integración de las redes sociales como parte de su plan estratégico.
Pero no sirve de nada ganar seguidores si luego no se sabe qué hacer con ellos. Tener seguidores
no significa que éstos se convertirán en clientes. Para lograrlo, hay que desarrollar las estrategias
de marketing adecuadas.

• Web y Aplicaciones móviles.

Un sitio web “moderno, intuitivo y bien diseñado” atraerá más clientes y facilitara el diálogo
directo entre ellos y nuestro hotel.

Cada vez hay más cantidad de personas que utilizan sus Smartphone para planificar sus viajes, y
que prefieren realizar las reservas de vuelos y hoteles desde el mismo móvil. Ofrecer este servicio
al cliente por medio de una aplicación que permita conocer la disponibilidad del hotel, las tarifas, y
realizar reservas en el momento ha empezado a ser de vital importancia y no adaptarse a estas
tecnologías (diseño Responsive) pude dejar a nuestro establecimiento fuera de una porción del
negocio que está en gran alza (ya trataremos este caso en concreto más adelante).

• Adaptar los servicios.

Es muy importante que un hotel pueda adaptar sus servicios a las actuales necesidades
tecnológicas, ofrecer cofres de seguridad con espacio para albergar un portátil o Tablet,
televisores con puerto USB para que el cliente pueda visualizar sus fotos, plataformas para
conectar el iPod o MP3 al sistema de audio en la habitación, etc.

• Wifi (alta velocidad).

La gran popularidad de la conexión Wifi hará que los hoteles que ya ofrezcan este servicio de
manera gratuita en todo el establecimiento tengan mayores posibilidades de conquistar nuevos
clientes.

Estas son algunas de las tendencias actuales en el sector hotelero, que seguramente seguirán
evolucionando y dando más de que hablar en el futuro, porque está demostrado que el desarrollo
no se detiene.

Tendencias en la Industria Hotelera

101
La industria hotelera está en constante cambio y la escena global cambia más rápidamente cada
día. En su conjunto, la industria hotelera sigue creciendo y los consumidores están viajando más
que nunca.

Cada año, investigamos lo que creemos que va a afectar a los establecimientos hoteleros
independientes y la industria hotelera en su conjunto. Tenemos grandes esperanzas, mientras las
nuevas tecnologías aparecen en el mercado y los players existentes que buscan una mayor
innovación.

2017 fue un año emocionante para nosotros en Cloudbeds, y estamos listos para entrar en el año
2018. Sin más preámbulos, aquí están nuestras predicciones para la industria hotelera en 2018

Proyección de Crecimiento del Sector Hotelero

En general, la industria hotelera tuvo un sólido 2017 con el noveno año consecutivo de
crecimiento. Todos los años, la empresa de datos del mercado hotelero STR publica sus
predicciones sobre el crecimiento de la industria en cinco categorías: oferta, demanda, ocupación,
tarifa promedio (ADR) y RevPAR. Utilizamos su investigación como un parámetro general para el
mercado.

STR mide el crecimiento de siete segmentos, incluyendo las propiedades independientes. El


segmento independiente deberá estar en el principio de la lista, en términos de crecimiento en
diaria promedio (ADR) y RevPAR (Ingresos por habitación disponible) con +2,8% y +2,7%,
respectivamente.

Para 2018, STR espera ver un crecimiento nominal en todas las categorías, excepto la ocupación,
que se someterá a una ligera disminución. Gran parte de esta disminución se debe al aumento de
la oferta en el mercado, más que una disminución real de la cantidad de turistas.

Big Data y Protección de Datos

Hace años que se habla de Big data, pero finalmente se puede ver nuevas soluciones para las
pequeñas y medianas empresas. Tomar el control de sus datos es el primer paso para crear
mejores estrategias para todo, desde la contratación de empleados hasta la gestión de tarifas. En
el mundo actual, donde todo sucede en línea, es esencial mirar de cerca los datos más
importantes para su negocio.

Mientras que entramos 2018, esperamos encontrar más soluciones en Big Data para el segmento
de propiedades independientes pequeñas y medianas. Esperamos que las empresas utilicen los
datos de su sistema de gestión hotelera o motor de reservas para que sean más útiles, o al menos
más comprensibles. Mientras que algunos sistemas de gestión hotelera ofrecen sus propias
soluciones de reportes (tales como Cloudbeds!), muchos otros todavía no lo hacen, creando una
desventaja importante para las propiedades de cualquier tamaño.

Big Data es grande cuando se utiliza para la acción – ya sea para entrar en un nuevo segmento de
mercado o para ajustar sus tarifas en relación con los competidores. Sin embargo, la mayor
preocupación acerca de grandes volúmenes de datos y todos los datos relacionados trata de la

102
seguridad. Todo agregador de datos tiene como objetivo mantener los datos de sus clientes
seguros, pero es más fácil decirlo que hacerlo. En los últimos años hemos visto las brechas de
seguridad masivas que ponen en riesgo a cientos de millones de consumidores – como los casos
de Equifax y Target.

Debido a estar a merced de estas compañías de datos y los hackers maliciosos, es importante
tener cuidado en quien confías con los datos más preciosos de su propiedad.

Actividades y la Experiencia del Huésped

Las actividades y experiencias eran una tendencia prevista en 2017 que se sucedió, y mucho – por
lo que la traemos de vuelta aquí a 2018. El año pasado, algunas startups han obtenido más de
$200 millones en inversiones y los principales actores como Marriott han integrado experiencias
en sus programas de recompensas.

El mercado de experiencias, que incluye de paseos hasta alquiler de bicicletas, es un sector


multimillonario de la industria del turismo, que no está dominado por cualquier empresa o
entidad específica. El mercado actual está tan fragmentado que no hay una simple página web
donde uno va a planificar su viaje, más allá del lugar donde se quedará. Dependiendo de donde
usted va y el tipo de experiencia que busca, hay cientos de diferentes maneras de encontrar
diferentes actividades y experiencias.

El escenario actual de este mercado es que cada player en la industria hotelera está buscando una
rebanada de estos ingresos adicionales. De propiedades individuales hasta agencias de viajes en
línea y sus empresas agregadas – hay una enorme oportunidad para captar la atención y el dinero
de los turistas que buscan experiencias.

Este año creemos que al menos una de las muchas startups que buscan la atención de los
consumidores en este segmento puede sobresalir y crecer de manera significativa. No sabemos si
una gran cantidad de dinero será invertido en las startups centradas en las experiencias o si los
dólares migrarán a otra parte.

Vemos dos oportunidades en el mercado de experiencias. En primer lugar, conectar a los turistas a
las actividades que ya buscan desempeñar – como un parque de atracciones o un evento
deportivo. En segundo lugar, conectar a los turistas a experiencias totalmente nuevas que ni
siquiera conocen. A menudo, estas actividades son específicas a un destino y necesitan
conocimientos sobre la región y la cultura local.

Bitcoin

Es difícil ignorar la publicidad que rodea el Bitcoin, después de todo su crecimiento a finales de
2017. Si el Bitcoin y otras criptomonedas se vuelven más frecuentes en el día a día de las personas,
puede ser el momento para empezar a buscar un procesador de pagos que acepte Bitcoin o outras
monedas de la nueva era. Stripe, por ejemplo, ha permitido a su procesador de pago aceptar
Bitcoin y Square stá probando la funcionalidad con algunos usuarios.

Bitcoin puede estar en auge ahora, pero es una forma sin precedentes de dinero que puede o no
despegar. Sólo el tiempo dirá si se establecerá como una moneda estable.

103
La Superposición de los Alquileres de Temporada y Alojamiento Tradicional

Estamos viendo la colisión de dos mundos en el sector de la hostelería. Los sitios web que se
crearon para alquileres de temporada comienzan a presentar alojamientos tradicionales y sitios
web creados para alojamientos tradicionales han comenzado a presentar alquileres de temporada
como opciones. Las grandes empresas como Airbnb ahora permiten propiedades hoteleras
tradicionales en sus portales. Otros sitios web de alquiler de temporada como VRBO y HomeAway
van a cambiar listados con otras agencias de viajes online no específicas.

También estamos observando las empresas hoteleras tradicionales comprar y construir


propiedades para comercializar como alquiler de temporada. La idea de los hoteles que entran en
el espacio de alquiler de temporada no parece tan absurda si tenemos en cuenta que las grandes
redes han estado trabajando el time sharing y otros programas similares hacen décadas.

A medida que la idea del alquiler de temporada se hace más popular, creemos que cada vez más
los consumidores se acostumbran a la idea de un alojamiento alternativo. Así como hoteles y otras
propiedades tradicionales, los alquileres de vacaciones vienen en diferentes formas, tamaños y
rangos de precios.

Sobrecarga de Turismo

La sobrecarga de turismo ha afectado a varias ciudades del mundo de forma impactante. Los
problemas más notables incluyen el estrés de la infraestructura local, el tráfico y el impacto
ambiental. Ciudades europeas como Amsterdam y Barcelona son dos de las ciudades más
afectadas en el mundo y han sentido todo lo que la sobrecarga de turismo puede causar.

Pero ¿cuáles son las posibles soluciones a la sobrecarga de turismo? Limitar las opciones de
transporte, aumentar los precios, marketing y colaboración entre las principales organizaciones
que participan son algunas de las maneras de contener los turistas, como sugerencia de Skift.En
muchos casos, la solución parece ser la busca del tipo correcto de turista – los que van a
permanecer más tiempo y gastar más dinero en el sitio – contrapartida a los turistas como los que
están en cruceros, que quedan en ciertas ciudades durante unas horas, y las congestionan sin
contribuir mucho a la economía local.

En 2018, vamos a ver cómo las ciudades de todo el mundo luchan contra la sobrecarga en el
turismo y cómo resuelven los problemas derivados de la misma.

Tecnología en las Propiedades

La tecnología y la hospitalidad tienen muchas facetas. Tenemos la tecnología que las propiedades
utilizan para manejar sus operaciones (PMS, CRM, channel manager, CRS, etc.) y la tecnología con
la que interactúan con los clientes (tablet, tele, equipo de audio, etc.).

Sistemas Internos de la Propiedad

En Cloudbeds, tenemos un conocimiento profundo sobre cómo están evolucionando los sistemas
de back-end internos de las propiedades. Las compañías que desarrollan sistemas de gestión de
hoteles, channel managers, motores de reserva, sistemas para gestión de la reputación y otros
relacionados, están evolucionando mucho. Muchas de las empresas que seguimos, tanto en

104
nuestra industria como otras, están creciendo, quedando cada vez más fiables y, en general,
mejores.

El año que viene, veremos nuevas características y herramientas integradas con las tecnologías
existentes. Muchas de las pequeñas y medianas empresas en el mercado se han enfrentado a la
dura competencia y la busca es por crear la mejor experiencia.

Creemos que en el año 2018 las soluciones serán más integradas. En un mundo ideal, esto significa
una menor cantidad de herramientas dispersas y una mayor cantidad de soluciones integradas y
todo-en-uno.

Tecnologías en las Propiedades

En lo que se refiere a las tecnologías utilizadas en las propiedades, hemos visto varias ideas siendo
probadas. De tablets en las habitaciones hasta computadoras gigantes en el lobby, muchas
propiedades quieren ofrecer una experiencia moderna, pero muchos pierden el propósito. El
problema, en nuestra opinión, es que la mayoría de las tecnologías implementadas hoy son torpes
y además de los dispositivos ya utilizados por los huéspedes.

Por ejemplo, una pantalla táctil gigante en el hall de entrada con información sobre la región sólo
es útil cuando el huésped llega a la instalación. Sin embargo, si la propiedad poner esta
información en su página web de una manera amigable a los dispositivos móviles, todo estaría a
disposición de los huéspedes en su teléfono móvil – incluso cuando están fuera de la ciudad.
Incluso los tablets en la habitación son innecesarias en un momento en que la mayoría de los
turistas ya están llevando consigo al menos un smartphone, que sirve las mismas funciones.

Las tecnologías que deben sobrevivir y crecer en el año 2018 serán las que trabajan como
compañeras de los dispositivos de los turistas. Por ejemplo, una conexión Wi-Fi portátil que
permite a los huéspedes acceder a Internet desde sus propios dispositivos, incluso cuando no
están en el establecimiento hotelero. Un tablet disponible en la habitación solo cuándo el huésped
está en la propiedad es mucho menos útil, mismo para los que se quedan allí todo el día.

EL SERVICIO AL CLIENTE COMO ELEMENTO FUNDAMENTAL EN LA INDUSTRIA HOTELERA

En un entorno económico tan competitivo como el actual, los dirigentes empresariales deben
tener la capacidad de analizar las condiciones del mercado buscando un enfoque innovador, los
empresarios tendrán que ser receptivos y entender a fondo a sus clientes; en el Foro Económico
Mundial 2017 (WEF, por sus siglas en inglés), se plantea incluso como eje central el liderazgo
responsable y receptivo, KPMG (2017). Es decir, las empresas tienen que ver su entorno con
mayor cuidado, romper paradigmas y no asumir que conocen lo que sus clientes desean; sino
preguntarlo, averiguarlo e investigarlo. Las organizaciones tienen el reto no sólo de enfocar sus
esfuerzos para atraer más clientes, además, en fortalecer la recompra y lealtad de los mismos; al
buscar el incremento en sus ingresos y riqueza, rediseñan sus productos, redirigen sus estrategias
y fortalecen sus servicios, creando así diferenciales en sus compañías, que al ser comparados con
los de su competencia, les permite tener una táctica de venta robusta y cierta ventaja competitiva.

El cambio y rediseño tiene que estar nutrido por las necesidades reales del entorno, no por
las que la empresa u organización asume, de esta manera explorar nuevos proyectos, productos,

105
formas, estructuras, colores, olores, gratificaciones y promociones, entre muchos otros elementos,
tienen que dirigirse siempre a la satisfacción del cliente, a llamar su atención hacia el producto o
servicio, a estimular sus sentidos y cerebro para beneficio de las organizaciones. Klaric, J. (2015).

Descubrir qué quiere el consumidor o qué va a querer en un futuro es y debe ser una
constante, las necesidades de los clientes pueden ser tan variadas como numerosos somos los
seres humanos, de ahí que las interacciones con cada cliente tienen que ser cuidadosas, enfocadas
a los detalles en el servicio brindado. Si bien es cierto que autores como Adam Smith Smith, A.
(1794) que en su momento declaró que la otorgación del servicio era insignificante y no generaba
riqueza, el servicio hoy es el centro de la teoría básica de la competencia y para muchas
organizaciones su garantía de sobrevivencia.

Al final si una organización vende un producto o un servicio siempre tiene algún contacto humano,
en algún punto de su gestión el servicio al cliente se convierte en uno de los distintivos más
importantes y una poderosa herramienta. Para muchas empresas, el cómo ofrecen ese servicio, es
lo que las complementa; sin embargo, para otras es una estrategia de ventas agresiva que
promueve la lealtad del cliente convirtiendo el proceso de recompra frecuente en el pilar central
de su administración. Según la AMA (American Management Association) el 65% de las ventas de
una empresa proviene de clientes recurrentes que recompran por estar satisfechos con los
servicios que reciben Tschohl, J., & Soriano, C. L. S. (2001) hoy no sólo es suficiente con vender una
vez, el reto es tener clientes cautivados por tu marca.

• SERVICIO

El concepto de servicio y sus características tiene su origen en los procesos de comercialización


donde podemos distinguir básicamente dos grandes grupos, los bienes y los servicios. El servicio
por su lado es intangible y se da cuando existen esfuerzos humanos y mecánicos aplicados a
personas u objetos WILLIAM, M. P. O. (1997) son las acciones o beneficios que una parte ofrece a
otra, Kotler, P., & Kotler, P. (1993) y según la Norma Internacional ISO 9000 Sistema de Gestión de
la Calidad (2017) un servicio tiene que llevar a cabo por lo menos una actividad entre el proveedor
y el cliente, para la AMA, son actividades o satisfacciones que son puestos en venta o
proporcionados en consecuencia por la venta de bienes. Grönroos, C. (1994)

Según la ISO 9000 el servicio puede implicar una actividad que se lleva a cabo sobre un producto
tangible otorgado por el cliente, como puede ser la reparación de algún electrodoméstico,
automóvil o un bien, también puede implicar una actividad realizada sobre un producto intangible
otorgado por el cliente, como la contratación contable de un experto para declarar ingresos o las
actividades llevadas a cabo por un abogado con su cliente o un médico con su paciente, pero
también puede existir en la entrega de un producto intangible, como puede ser la educación o
capacitación, por último un servicio también puede ser la creación de una ambientación para el
cliente situación muy comúnmente vista en la hotelería.

G. Lynn Shostack Shostack, G. L. (1977) que en su momento fuera vicepresidente de CitiBank


declara que los servicios son intangibles porque no se pueden ver, tocar, ni sentir, no son
consistentes ya que dependen de la gente que brinda el servicio de su capacidad y desempeño
diario, además para el cliente son inseparables ya que no puede separar al que le proporciona el
servicio del mismo servicio. Para Kotler Kotler, P., & Kotler, P. (1993) al ser intangible el servicio,

106
los compradores deben analizar la calidad del mismo y basan su conclusión por la ubicación, las
personas, el equipo, el material de comunicación, el precio y todo aquello que pueden ver o
percibir, es decir el prestador del servicio debe procurar que en cierta forma el servicio que ofrece
sea tangible. La calidad del servicio depende del proveedor y de cuánto, dónde y cómo hace o
brinda el servicio y cómo es percibido por el cliente, incluso la calidad del servicio de un solo
empleado puede variar según su energía y estado de ánimo en el momento de atender al cliente,
de ahí que se tienen que cuidar todos los detalles tangibles e intangibles para que el servicio tenga
éxito.

1.1 Percepción

La complejidad de otorgar un servicio no puede darse de forma básica y si se va más allá, no sólo
radica en llevarlo a cabo de forma impecable, o de una manera que se piensa que el cliente quiere,
se tiene que escuchar al cliente ya que éste recibe un servicio y lo percibe de una forma particular
generando su propio juicio al respecto, el cliente puede querer algo y las organizaciones querer
forzar a que quiera algo distinto. Otra variable es que el servicio que se ofrece pudiera llegar a ser
percibido distinto por cada uno de los clientes, el Dr. Deepak Chopra explica que el individuo
genera un juicio de la realidad basado en lo que los psicólogos llaman compromiso cognoscitivo
prematuro, el ser humano percibe gracias a su sistema nervioso el cual se desarrolla en respuesta
a estímulos y crea su propia estructura de un sistema de creencias, este sistema de creencias se
forma por lo que ve, toca lo que oye y huele, luego el sistema nervioso tiene una sola función:
reforzar el sistema de creencias, esto puede limitar sin duda las creencias del individuo y
supeditarlas a los estímulos recibidos a lo largo de su vida, lo cual lo puede llevar a emitir un juicio
del servicio otorgado distinto al que quiere la empresa. Los individuos perciben con base al
universo que se han creado con los estímulos recibidos a lo largo de su vida, aspectos como el
momento, la cultura y el contexto son vitales para otorgar el servicio adecuado, además se tiene
que llevar a cabo un trabajo previo y respetar la promesa que se le hizo; el dicho "ver para creer"
es al revés, "creer para ver" si no se cree en algo, no se le ve y no se le oye, no se le puede tocar,
gustar, ni oler. Chopra, D. (1997).

Tomando como base al diccionario de la real academia española, Real Academia Española (2014)
la definición de percepción, es la sensación interior que resulta de una impresión material hecha
en nuestros sentidos; podemos decir entonces que el fenómeno de percepción se genera en el
receptor a pesar de la existencia o no de una intención deliberada o sin conocimiento de causa
por parte de la organización por trasmitir algo, es decir la percepción se formará
independientemente, inclusive si la empresa no quiere trasmitir nada y puede llegar a ser
“independiente”, del interés e intención con que la empresa trasmite algo.

La percepción no está determinada sólo por la calidad con la que el servicio se brindó, sino por
todo el contexto, el personal, la comunicación, la empresa misma y variables exógenas, es decir
todos los elementos al alcance del cliente, todo lo que rodea la empresa o hace y deja de hacer
contribuyen al proceso de percepción de la imagen de la organización y puede influir en la
percepción de la calidad del servicio que brinda.

1.2 Imagen

107
Kotler, P., & Kotler, P. (1993) declara que la Imagen es la manera en que un individuo o grupo ve
una organización; a través de sus servicios una compañía busca crear una percepción en los
clientes que le beneficie y se basa en todos los elementos a su alcance para lograrlo, el servicio
que ofrece la organización busca crear así en el cliente una imagen favorable para ella Garbett, T.
F. (1991). Las organizaciones tienen que resaltar los atributos positivos de la imagen y tratarlos en
forma congruente y consistente, comunicar estos atributos adecuadamente da como resultado
que la imagen producida entre sus diferentes receptores sea favorable hacia la empresa emisora,
pero por el contrario, si los atributos son ambiguos e incongruentes y son mal transmitidos, la
imagen que los receptores tendrán conllevará características similares. La imagen que refleja la
organización se construye con sus acciones, servicios, recurso humano o instalaciones y todo lo
que forma parte de la organización es percibida por sus clientes. Chajet, C., & Shachtman, T.
(1991).

La imagen es trasmitida en cada detalle, organizaciones como Disneylandia fueron creadas


preocupadas en su imagen cuidando cada detalle, desde la publicidad externa, la taquilla y la
estimulación del personal que parece salido de un cuento y empleados con un estereotipo limpio,
alegre y educado que se encarga de hacerte sentir cuidado; las instalaciones y atracciones con la
más alta tecnología impecablemente conservadas, la música, los disfraces y el mismo olor
resultado de haber colocado intencionalmente a la entrada, las tiendas de galletas, palomitas,
chocolates y pasteles con los ductos de ventilación apuntando hacia la calle principal, estimulando
los sentidos. Gordoa, V., & Gordoa, V. (1999) Según Victor Gordoa el resultado es que todo
funciona a la perfección en Disneylandia, cuatro de cada cinco personas que cruzan la puerta de
entrada son adultos y solamente una es niño, a pesar de lo que se piense más allá de buscar el
paraíso infantil, que de hecho lo es, buscan un lugar donde inconscientemente puedan comprar
felicidad, seguridad, eficiencia y limpieza.

Escuchar a los clientes y entender lo que buscan le permitió a Harley Davison salir de una crisis que
la colocó al borde de la quiebra incrementando fidelidad de sus clientes, los directivos de Harley
entendieron a la empresa y comprendieron los múltiples problemas en el servicio que ofrecían así
como detalles en sus diseños, el resultado es que actualmente la empresa gracias al apoyo de sus
clientes y la imagen que anteriormente había creado se ha convertido en una de las compañías de
motocicletas preferidas a nivel mundial llevando a muchos inclusive a tatuarse la marca.

Es un error común brindar un servicio que no quiere el cliente o no de la forma como lo quiere y
esto impacta en la imagen, ser receptivos a las necesidades del cliente va más allá de sólo
preguntarle qué quiere, se tiene que entender por qué quiere lo que quiere y tomar todas las
herramientas a la mano para hacerlo; la mercadotecnia de servicios puede apoyarnos con estas
actividades ya que es la responsable de identificar las necesidades de los clientes y después de
haber brindado el servicio, medir si éstas fueron satisfechas, buscando alternativas para mejorar el
servicio, satisfacer así las necesidades que el servicio en sí no pudo cumplir en sus clientes creando
conocimiento del servicio para inducir a probar el servicio, influenciar en la demanda del mismo
antes del servicio en sí y después de haberlo brindado. Demostrar los beneficios y construir la
preferencia por servicio. Shostack, G. L. (1977).

Todos aquellos momentos donde se tiene una mayor interacción con el cliente son vitales para
fortalecer la imagen de la compañía ya que un descuido podría provocar un cambio de dirección o

108
quiebre en las estrategias para tener la preferencia del consumidor, estos momentos son
conocidos como momentos de verdad y su correcta administración a través de una calidad en el
servicio genera una imagen en el cliente y puede provocar que éste se quede con la empresa o se
vaya decepcionado, que recomiende a la organización o la desprestigie, que vuelva y sea cautivo,
o jamás regrese, que sea fiel y esto permita en algún punto que perdone a la organización si ésta
comete un error y así contar con su comprensión y lealtad o simplemente que se vaya al punto
contrario y cambie a la organización por otra. Albrecht, K., Albrecht, L. J. K., & Bradford, L. J.
(1990).

2. CALIDAD DEL SERVICIO

Conseguir un nuevo cliente pude costar hasta cinco veces más que conservar a alguien que ya es
cliente y los clientes satisfechos colaboran en la venta de los productos de una empresa al
informar acerca de ellos a sus familiares, amigos y colegas, asimismo, la matemática del servicio
según Albrecht, K., Albrecht, L. J. K., & Bradford, L. J. (1990) sugiere que los clientes insatisfechos
pueden informar de su mala experiencia hasta a 20 personas, de ahí la importancia de brindar un
servicio de calidad, que cumpla con lo que el cliente espera y justifique la promesa de venta. Mario
Gutierrez Gutiérrez, M. (1989). Comenta que la calidad tiene que ver casi exclusivamente con las
especificaciones, un servicio tiene calidad si cumple con las especificaciones establecidas, en la
medida en que no las cumple, deja de tener calidad.

Horovitz, J. (1991) dice que calidad de servicios, no significa lujo, ni algo inmejorable, ni el nivel
superior de la gama, inclusive un segmento importante de clientes no espera que el servicio se
preste en menos de tres días, no es preciso hacerlo en tres horas, según los estándares del
prestador de servicios tres días o tres horas pueden ser niveles de calidad válidos, pero calidad de
servicio es precisamente la adecuación entre las necesidades del cliente y las prestaciones
correspondientes que satisfacen esas necesidades, entre más adecuación, más calidad, a menos
adecuación, menos calidad; nuevamente saber qué quiere el cliente es vital para darle un servicio
de calidad que fortalezca la imagen.

Sin embargo, la adecuación, según Horvitz no sería solamente suficiente para establecer un nivel
de calidad, existe además un elemento clave para lograr un alto nivel de calidad de servicio y es la
capacidad no sólo para satisfacer, sino también de superar las expectativas del cliente. La calidad
de servicio es la amplitud de la diferencia que existe entre las expectativas o deseos de los clientes
y su percepción de superación por el servicio prestado.

Hernández, C. (2009). Resalta la importancia que la calidad del servicio para satisfacer las
necesidades del cliente como un elemento clave para una empresa que se decida a diferenciarse
de sus competidores, la calidad en los servicios en cada uno de estos servicios prestados tiene que
extremar los detalles ya que esto define una ventaja definitiva y duradera. La calidad es hacer
mejor las cosas que los demás, la calidad en el servicio implica cambios de actitudes, estructuras y
formas de pensar, es una cultura que con base en estos cambios pueden ejercer valores
perdurables y establecer un compromiso para con los clientes y la sociedad Munch Galindo, L.
(1998). Esta calidad no es definida por el prestador de servicios sino por el cliente, que evalúa y
compara sus expectativas con sus percepciones de cómo se realiza Stanton, W., Etzel, M., &

109
Walker, B. (2007) la calidad del servicio es un concepto multidimensional, pues las expectativas y
necesidades de los consumidores son múltiples y diversas Cárdenas, E. A., & Pertuz, B. G. (2007)

Por su parte Pride, W., & Ferrel, O. L. (1996) definen calidad, como las características generales de
un servicio que permiten que su desempeño sea como se espera satisfaciendo las necesidades del
cliente. Es importante establecer una estrategia donde se proporcione un servicio de calidad a la
primera, tomando en cuenta cinco dimensiones de influencia en la calidad de un servicio como
son:

• La formalidad, entendiéndola como la capacidad de desempeñar el servicio prometido de


una manera exacta y fiable.

• La tangibilidad, que es la apariencia física de las facilidades físicas, equipo, personal y


material de comunicación.

• La seguridad, que es el conocimiento y cortesía de los empleados y su capacidad de


transmitir confianza y credibilidad.

• La sensibilidad, que es el deseo de ayudar a los clientes y proveer un servicio rápido y


oportuno.

• La empatía, que es la preocupación y atención individualizada Shostack, G. L. (1977).

Así mismo Shostack menciona los diez atributos que los clientes más toman en cuenta cuando
reciben cualquier servicio para evaluar la calidad de los mismos, los cuales son:

• Llamarle cuando se le prometió.

• Recibir una explicación de cómo ocurrió el problema.

• Proporcionar información sobre a qué número llamar.

• Contactarlo rápidamente cuando se resuelve un problema.

• Permitirle hablar con alguien de autoridad.

• Informarle cuánto tiempo se llevará solucionar el problema.

• Darle alternativas útiles si el problema no puede ser resuelto.

• Ser tratado como una persona, no como un número de cuenta.

• Informarle maneras de prevenir problemas futuros.

• Informarle sobre el avance en caso de que un problema no se pueda solucionar


rápidamente.

Según Grönroos Grönroos, C. (1994) en su modelo de calidad en el servicio existen 3 dimensiones


que determinan la calidad de un servicio, la primera es la calidad técnica que es el resultado del
proceso en sí de la prestación del servicio, es decir lo que los clientes reciben, esta dimensión
tienen un mayor criterio objetivo y es más fácil de evaluar para los clientes; la segunda es la
calidad funcional que son aspectos relacionados con el proceso, es decir la calidad de la prestación

110
del servicio en sí, lo que experimenta el cliente cuando se le brinda el servicio, la interacción que
tiene con el personal; la tercera y última dimensión es la calidad organizativa o imagen corporativa
que es la calidad que percibe el cliente de la organización, esto va relacionada con la imagen del
servicio y se forma cuando el cliente percibe el servicio en conjunto, es decir como resultado de la
calidad técnica y funcional, de esta forma se entiende la imagen de la empresa y es el filtro entre
expectativas y percepciones.

Existe una serie de características que acorde a Grönroos pueden determinar la buena calidad
percibida en los servicios, como son la profesionalidad y habilidad relacionada con el resultado y
por tanto con la dimensión técnica de la calidad, por otro lado está el de la reputación y
credibilidad relacionada con la imagen, los puntos susceptibles de medición para la calidad del
servicio según este autor son:

• Profesionalidad, donde los clientes se dan cuenta de que el proveedor de servicios, sus
empleados, los sistemas operativos y los recursos físicos, tienen el conocimiento y las habilidades
necesarios para resolver sus problemas de forma profesional (criterio relacionado con el
resultado).

• Actitud, donde los clientes creen que los empleados de servicios (las personas en contacto
con el público) se preocupan por ellos y están interesados en resolver sus problemas de forma
agradable y espontánea (criterio relacionado con el proceso).

• Accesibilidad, donde los clientes creen que el proveedor de servicios, su sede, horario de
trabajo empleados y sistemas operativos, están ahí para facilitar el acceso a los servicios y están
preparados para ajustarse, de forma flexible, a las demandas y deseos del cliente (criterio
relacionado con el proceso).

• Fiabilidad, donde los clientes saben que, suceda lo que suceda, pueden confiar en el
proveedor de servicios, sus empleados o sistemas, para mantener las promesas y actuar teniendo
presentes los intereses del cliente (criterio relacionado con el proceso).

• Credibilidad, donde los clientes creen que se puede confiar en las operaciones del
proveedor de servicios y que éste ofrece un nivel adecuado en el intercambio o valor por dinero,
lo que significa que suministra un nivel de actuación y un conjunto de valores que pueden ser
compartidos por los clientes y el proveedor de servicios (criterio relacionado con la imagen).

• Conocimiento del cliente, que es entender las necesidades que tiene el cliente,
comprender los requerimientos específicos del cliente, proporcionar atención individualizada,
reconocer al cliente habitual.

• Comunicación, que implica mantener informados a los clientes en un lenguaje claro,


explicando en qué consiste el servicio, en qué consta el mismo y la ponderación entre servicio y
costo, así como asegurar la solución de los problemas del cliente.

• Capacidad de respuesta, donde la voluntad o destreza de los empleados para proporcionar


un servicio rápido, con una atención eficaz y eficiente.

111
En conclusión Grönroos habla de que la calidad del servicio es el resultado de un proceso de
evaluación percibida, por tanto la calidad del servicio depende de 2 variables, el servicio esperado
y recibido.

A diferencia de Lynn, Grönroos, integra el concepto de tener un servicio de calidad con el de tener
una imagen favorable para la organización, Grönroos dice que una imagen favorable y conocida es
una ventaja para cualquier organización ya que la imagen tiene una importante influencia en las
percepciones de nuevos clientes sobre la comunicación y las operaciones de la empresa y puede
tener diversos roles o formas como la usa la organización, la imagen comunica expectativas y hace
de manera favorable que las personas sean más perceptivas a la comunicación boca en boca, la
imagen es un filtro y la calidad del servicio es percibida a través de ese filtro, si la imagen es buena
se convierte en protección, la calidad es percibida por el cliente o consumidor formándose así una
imagen de lo que la compañía representa o de los servicios que ofrece, por tanto la imagen es una
función tanto de las experiencias como de las expectativas de los clientes pero también tiene un
impacto interno, la imagen es por tanto de capital importancia para la mayoría de los servicios, ya
que puede influir en la percepción de la calidad de varias formas.

Si el proveedor es bueno a los ojos de los clientes y tiene una imagen favorable, probablemente se
le perdonarán los errores menores, pero si con frecuencia se producen errores se deteriorará la
imagen y si la imagen es negativa, el efecto de cualquier error será considerablemente mayor. En
lo que respecta a la percepción de la calidad, se puede considerar a la imagen como resultado de
un buen ejercicio del servicio con calidad. Grönroos Grönroos, C. (1994)

• Hotelería

El concepto de hotelería se atribuye al conjunto de establecimientos comerciales que de manera


profesional y habitual, prestan servicios de hospedaje, con o sin servicio de comedor; ya sean
habitaciones o apartamentos, con o sin otros servicios complementarios, y acorde a las
especificaciones que según su localización, determine la legislación vigente de cada país. (Villena,
2003).

Cabe señalar que la hotelería es una rama del turismo, que brinda el servicio de alojamiento al
turista y puede tener diversas clasificaciones, dependiendo del confort y el lugar donde se
encuentre.

2.2 Huésped

Es el cliente que paga por utilizar las instalaciones de un establecimiento de hospedaje. Dicho
sujeto abona una tarifa para alojarse en el lugar y hacer uso de diversos servicios (habitación,
baño, restaurante u otros). Los huéspedes son personas que pueden viajar solos, en pareja,
familia, amigos o grupos de intereses especiales, representan una variedad de individualidades
que plantearán diferentes requerimientos, distintas formas de comunicación y todo aquello que
significa para el personal de un hotel: atenderlos, entenderlos y satisfacerlos, no “de la mejor
manera posible”, sino brindándoles la atención y entregándoles los servicios como a los más
distinguidos personajes.

Por tal motivo, es importante conocer a los huéspedes lo mejor posible y para ello se pueden
clasificar por:

112
• Tipo de huésped. Turistas, familias, adultos mayores, viajeros de negocios y delegados
(reuniones y convenciones).

• Frecuencia. Prospectos, ocasionales, habituales, vip´s (very important persons) huésped


con atención especializada por cargo o importancia.

• Procedencia. Nacionales o internacionales.

• Tipo de reserva. Individuales o grupos.

• Características y Particularidades. Aptitudes, actitudes, personalidad, preferencias,


hábitos, carácter, necesidades y motivaciones.

Como estrategia de calidad de servicio a los huéspedes, es importante que un establecimiento


hotelero tenga los métodos, medios y formas para obtener, registrar y almacenar toda la
información relevante respecto al tipo, necesidades, expectativas y deseos de sus prospectos, para
su uso posterior al momento que se conviertan en huéspedes. (Larraiza, 2017)

2.3 Servicio y Hotelería

El enfoque de toda la estructura y de todos los involucrados en la organización al cliente es calidad


en el servicio, Roger Dow, vicepresidente de ventas y servicios de marketing de Marriott Hotels
and Resorts, lo expresa de forma aún más directa: creo que las 4 P del marketing de servicios son
personas, personas, personas y personas. En el caso de la estancia en un hotel los clientes
interactúan con un sistema de producción de servicios bastante extenso y la preocupación por los
detalles y enfoque al cliente tiene que estar en cada eslabón de la compañía y en cada una de las
personas que están en ella, tengan o no que ver con el cliente directamente, la cadena hotelera
Marriott, dice: probablemente, el reconocimiento es lo que hace funcionar las cosas. Puede sonar
simple, pero es decisivo. Así pues, la forma de dirección es, en sí, una cuestión de marketing
interno. El servicio al cliente en un hotel tiene que estar en todos lados, incluso estar ligado con los
prestadores de servicio o agencias a través de las cuales se lleva a cabo el proceso de reservas, el
cliente podría recibir un mal servicio y esto impactar al hotel indirectamente, el cliente puede
llegar a no separar el hotel de la agencia según Grönroos.

• CLASIFICACIÓN DE ESTABLECIMIENTOS HOTELEROS

Es difícil hablar de una clasificación única en los establecimientos hoteleros ya que no todos los
países tienen una clasificación oficial y si la tienen, no se aplican los mismos criterios. Por ello,
puede apreciarse que una categoría presente características diferentes en función del país donde
se encuentre. Existen muchos tipos de establecimientos hoteleros; sin embargo, se dividen en
cinco categorías principales:

• Hoteles. De acuerdo con la Secretaría de Turismo en México, un hotel es una Institución de


carácter público que ofrece al viajero alojamiento, alimentos y bebidas, así como entretenimiento
y otros servicios complementarios. Como toda empresa, persigue un objetivo social (creación de
puestos directos e indirectos), uno económico (a través de la mediación de resultados, lo que se
traduce en utilidades) y el de desarrollo de la comunidad. (SECTUR, 1990)

113
Otra definición es el lugar que proporciona alimento y hospedaje, un lugar de entretenimiento
para el viajero, un edificio público, una institución de servicio doméstico. Operado bajo una fase
para obtener utilidades. (Barragán, 1985)

También se define como un establecimiento público destinado a ofrecer mediante el pago de una
tarifa determinada, alojamiento a personas en desplazamiento, ocasionalmente suministrar
alimentos y otros servicios de carácter complementario; las necesidades del viajero moderno han
provocado nuevas modalidades en su construcción, disposición y funcionamiento. (Novo, 1997)

También se le da el nombre de hotel a establecimientos constituidos por dos o más edificios si se


encuentran integrados en un recinto independiente. En este tipo de alojamientos existen distintas
categorías que van de 1 a 5 estrellas, categoría Especial y Gran Lujo, cuyo estatus se define en
función de las instalaciones y servicios que se ofrecen al cliente. Este tipo de empresas se clasifica
en cinco categorías que se identifican por estrellas doradas con el símbolo H. Algunos hoteles
pueden recibir alguna regulación más específica según sean de montaña, de balneario, de
congresos, entre otros.

El alojamiento es la principal fuente de ingreso en los hoteles, aunque también se ofrecen


servicios complementarios como la restauración (restaurantes, cafeterías, bares). Y en las
categorías superiores, cuentan con servicios adicionales como: lavandería, peluquería, tiendas de
regalos, comercios exclusivos, gimnasio, piscina, spas, entre otros. (Barragán, 1985)

No hay un sistema generalizado para agrupar la gran variedad de tipos de hoteles que existen,
algunas clasificaciones se basan en las siguientes características:

• Dimensión-tamaño (pequeños, medianos, grandes)

• Por tipo de clientela o segmento al que atienden (comerciales, vacacionales, de


convenciones, para residentes)

• Por calidad de instalaciones y servicios

• Vocablos descriptivos (lujo, superior primera, ordinario de primera, superior de turista y


ordinario de turista)

• Sistema de clave de letras (AA, B, C y D)

• Estrellas (5, 4, 3, 2 y 1)

• Diamantes (5, 4, 3, 2 y 1)

• Por su ubicación o relación con otros servicios (metropolitano, hotel-casino, hotel de


centros vacacionales)

• Por su tipo de operación (permanentes o estacionales)

• Por su organización (independientes o de cadena) (SECTUR, 1990, págs. 21-23)

Por su parte existen cuatro clasificaciones principales de hoteles norteamericanos en la industria


actual:

114
• Hotel comercial o de tránsito, diseñado principalmente para individuos que viajan por
razones de negocio, aun cuando la mayoría de ellos tienen algunos huéspedes permanentes. Cabe
señalar que el uso de tecnologías y modificaciones en el comercio tradicional (crecimiento de
tiendas departamentales, comercio electrónico, uso de tecnología de información); ha reducido el
número de huéspedes que viajan por negocio, generado mayores huéspedes que viajan por
placer; provocando que las estrategias de muchos de estos establecimientos se enfoquen cada día
más a la atracción de familias.

• Hotel de vacaciones, la gran mayoría operan todo el año, pero los hay aquellos que
funcionan por temporadas específicas según los períodos vacacionales (invierno o verano). Estos
establecimientos dan servicio a huéspedes que quieren descansar o divertirse. Por lo general se
sitúan en las costas, montañas o balnearios, libres de la agitación de las grandes ciudades pero
accesibles por algún medio de transporte. Los huéspedes de estos hoteles esperan encontrar
actividades de entretenimiento o recreación en sus instalaciones.

• Hotel residencial, hoteles que reciben a huéspedes para vivir temporadas largas de
manera permanente (este tipo de hotel es muy común en Estados Unidos). Ofrecen servicios
domésticos, el departamento de alimentos y bebidas suele ser pequeño y existe más por
comodidad de los residentes que como fuente de ingreso para el hotel.

• Motor hotel o moteles, pueden ser comerciales o vacacionales. Ofrecen servicios similares
a los hoteles y actualmente resulta casi imposible distinguir a los hoteles de los moteles o motor
hoteles modernos. El aspecto distintivo de estos, es contar con estacionamiento gratuito dentro
del terreno del motel y muchos ya cuentan con piscinas como áreas de entretenimiento.
Anteriormente esta clasificación se situaba en el perímetro de las ciudades o sobre las autopistas;
pero en la actualidad se encuentran en cualquier parte de las ciudades y muchos de ellos incluso,
en zonas costeras y de afluencia de turistas vacacionales. (Lattin, 2008)

• Aparthoteles. Son aquellos, que además de reunir las características de un hotel,


estructura, gestión y servicios; disponen de instalaciones adecuadas (pequeñas cocinas y
complementos) para la conservación, elaboración y consumo de alimentos simples dentro de cada
unidad de alojamiento. También se clasifican en cinco categorías identificadas por estrellas
doradas con el símbolo HA.

• Pensiones. Establecimientos que ofrecen alojamiento turístico en habitaciones, con o sin


comedor u otros servicios complementarios que no alcanzan los niveles exigidos para hoteles. Por
lo general tienen pocas habitaciones y carecen de cuarto de baño completo en todas ellas. Se
clasifican en dos categorías, identificados por una y dos estrellas. En este caso el símbolo que las
identifica es la letra P.

• Hostales. Establecimientos que ofrecen alojamiento en habitaciones, con o sin comedor u


otros servicios complementarios, cuentan con un mínimo de habitaciones y plazas, y reúnen los
requisitos mínimos de las pensiones.

• Casas de huéspedes. Son aquellas que, reuniendo las condiciones higiénicas necesarias, no
suman otros servicios al alojamiento y no alcanzan los niveles necesarios para clasificarse como
pensiones. (Fernández & Quiroga, 2010)

115
Además del grupo de establecimientos hoteleros, hay otras modalidades de alojamiento turístico;
la definición más correcta para este tipo de concepto es la de: toda empresa que proporcione de
forma habitual y profesional el servicio de hospedaje, siempre en contraprestación de un precio y
con la particularidad de que puede ofertar así mismo servicios complementarios. Esta definición es
muy amplia y abarca a un gran número de establecimientos distintos. Cada una de las diferentes
modalidades de alojamiento, implican una serie de servicios y características particulares, dentro
de estos se pueden mencionar los moteles, apartamentos, campings, balnearios, ciudades
vacacionales, casas rurales, entre otros. (Fernández & Quiroga, 2010, págs. 48-50)

3.1 Organismos internacionales clasificadores de hoteles

Existen algunos organismos internacionales clasificadores de hoteles cuya finalidad está


encaminada a evaluar la calidad de los servicios que se ofrecen en los establecimientos de
hospedaje así como plantear o establecer planes de mejora continua con el propósito de brindar
certidumbre y confianza a los huéspedes, generar estandarización a través de procesos, lo que les
permite implementar normas y medir.

3.1.1 Star’s & Diamond’s International™ es el programa de clasificación hotelera más importante
en el mundo, a través del cual; los establecimientos de hospedaje certifican su clasificación. Para la
clasificación certificada de la calidad de las instalaciones (Estrellas) y de los servicios y operación
(Diamantes) de los establecimientos de hospedaje, bajo criterios homologables, comparables y
equivalentes a los utilizados en otros destinos turísticos del mundo. Es un programa de carácter
voluntario y cuenta con bases y criterios técnicos consensados a nivel nacional e internacional.

Su razón de ser es conducir y determinar los criterios necesarios para la clasificación hotelera con
el fin de generar la mayor satisfacción y seguridad en los huéspedes que visiten los distintos
destinos turísticos de todo México, América, Europa y el resto del mundo. Su filosofía, gira en
torno a considerar que los servicios de hospedaje deben de contar con instalaciones y servicios de
calidad, clasificados y certificados, asegurando en su totalidad la satisfacción de los huéspedes, por
ello, se aseguran de contar con lineamientos y criterios objetivos, confiables, con reconocimiento y
validez internacional. (Star´s and Diamond´s, 2017)

3.1.2 AAA (American Automobile Asociation) es una organización sin fines de lucro que cuenta con
más de 54 millones de miembros afiliados a los que proporciona servicios gratuitos de emergencia
en carreteras, asesoría jurídica y otros beneficios.

Además, la AAA cuenta con una oficina de información turística que proporciona mapas, guías
turísticas, y recomienda, lo que ella considera como los mejores hoteles y restaurantes de EE.UU.,
Canadá, México y el Caribe.

En la actualidad, el listado oficial de la AAA incluye más de 59.000 hoteles y restaurantes. La


certificación AAA Diamond Award es otorgada por la American Automobile Association (AAA) a
hoteles y restaurantes de EE.UU., Canadá, México y el Caribe, y garantiza que el establecimiento
ofrezca estándares de lujo, calidad y servicio del más alto nivel. La clasificación de la AAA se basa
en categorías que van de uno a cinco diamantes, mismos que son indicadores de la calidad en el
servicio, de las instalaciones y comodidades disponibles para huéspedes y comensales en cada
establecimiento.

116
• Las propiedades en esta categoría cumplen con los requisitos básicos de la comodidad,
limpieza y hospitalidad.

• Las propiedades en esta categoría cumplen con precios moderados, pero ofrecen mejores
amenidades y diseño.

• Las propiedades en esta categoría prestan más atención al estilo y decoración.

• Añaden comodidades y servicios.

• Los establecimientos en esta categoría ofrecen alojamiento de lujo refinado y elegante.

• Manejan un alto grado de hospitalidad, servicio y atención al detalle.

• Se tratan esencialmente de alojamientos de lujo que prestan mucha atención al servicio y


la comodidad.

• Ofrecen servicios y comodidades personalizadas. (Travel By Mexico, 2014)

3.2 Organismos clasificadores en México

CALMECAC (Calidad Mexicana Certificada), organismo nacional de certificación y verificación,


ofrece servicios con el más alto nivel de competencia técnica, en calidad, ambiental, salud y
seguridad en el trabajo y equidad de género, en más de 36 sectores. Tiene el compromiso de
impulsar y promover la cultura de la calidad, transparencia y legalidad, para que las organizaciones
e instituciones públicas y privadas adopten las herramientas, los conocimientos y las mejores
prácticas bajo estándares internacionales, que les permita enfrentar con mayor eficiencia, eficacia,
productividad y competitividad los grandes retos de la globalización, los procesos de apertura
comercial y de la competencia tecnológica y económica para impulsar el bienestar social y la
sustentabilidad ambiental. (CALMECAC, 2017)

El Consejo Nacional Empresarial Turístico (CNET) constituido como el órgano cúpula de


representación del sector privado empresarial dedicado a la actividad turística en México,
teniendo como su principal objetivo el de contribuir al crecimiento y desarrollo sustentable de la
actividad turística del país, integrado por 15 cámaras y asociaciones de alcance nacional, de todas
las ramas del sector, que representan en conjunto, más del 96% de la actividad turística del país.
(cnet.org.mx, 2017)

Secretaría de Turismo (SECTUR). El Sistema de Clasificación Hotelera (SCH) es una herramienta


metodológica sustentada a través de un mecanismo de autoevaluación regulado por la SECTUR,
que permitirá a los establecimientos de hospedaje conocer la situación de sus instalaciones y
servicios ofrecidos, así como identificar áreas de oportunidad, hecho mediante el cual será
reconocido a través de una categoría representada por estrellas. (Secretaría de Turismo, 2016)

Respondiendo a los turistas, tanto nacionales como extranjeros, el SCH facilita la claridad y
simplicidad comunicativa al utilizar el código más común en hotelería: la clasificación hotelera en
un rango de una a cinco estrellas, con intervalos de media estrella. El número de estrellas refleja
de modo intuitivo el tipo de oferta que el hotel provee a sus huéspedes, de modo que hoteles con

117
cualidades superiores obtienen también mayor número de estrellas al ser evaluados. La asignación
de estrellas se determina dependiendo de las siguientes características a calificar:

• Una estrella. Sólo ofrece lo indispensable.

• Dos estrellas. Servicios e infraestructura básicos.

• Tres estrellas. Instalaciones adecuadas, servicio completo y estandarizado, sin grandes


lujos.

• Cuatro estrellas. Instalaciones de lujo y servicio superior.

• Cinco estrellas. Instalaciones y servicios excepcionales.

La calificación con medias estrellas permite precisar la evaluación, da flexibilidad a la herramienta


y limita la sobreestimación en la auto clasificación, pues el utilizar exclusivamente estrellas
completas, en ocasiones, provocaba que existieran diferencias importantes entre hoteles de una
misma categoría, y generaba pocos incentivos en los hoteleros para mejorar sus establecimientos,
ya que los requerimientos de inversión para ascender una estrella completa podrían ser muy
elevados con respecto al capital disponible o a los beneficios económicos esperados por la mejora
en sus instalaciones. (Factor Delta, 2017)

El instrumento de evaluación para determinar la categoría del establecimiento de hospedaje se


basa en diez puntos:

• Superficie de la habitación.

• Mobiliario y servicios en la habitación.

• Instalaciones sanitarias en la habitación.

• Número y características de ascensores.

• Características del área de recepción y administración.

• Áreas de alimentos y bebidas o espectáculos.

• Servicios e instalaciones complementarias o recreativas.

• Áreas comerciales.

• Condiciones de seguridad e higiene.

• Servicios de mantenimiento y conservación.

3.20. ¿QUÉ ES LA FILANTROPÍA Y A QUIENES BENEFICIA?

DEFINICIÓN DEFILANTROPÍA

118
Filantropía es un vocablo de origen griego que significa “amor al género humano”. Se trata de un
concepto utilizado de manera positiva para hacer referencia a la ayuda que se ofrece al prójimo
sin requerir una respuesta o algo cambio. Se conoce como filántropos a los sujetos u
organizaciones que suelen desarrollar proyectos solidarios.

El voluntariado, las donaciones y la acción social sin fines de lucro o políticos forman parte de la
filantropía, que pretende construir una sociedad más justa y equitativa, en la cual todas las
personas tengan las mismas posibilidades de desarrollo.

Los historiadores afirman que el impulsor del concepto de filantropía fue el emperador romano
Flavio Claudio Juliano (332–363), quien buscó restaurar el paganismo en lugar del catolicismo.
Para esto, propuso la noción de filantropía en reemplazo de la caridad cristiana.

En la actualidad, uno de los filántropos más conocidos es Bill Gates, quien fuera uno de los
creadores de la empresa de software Microsoft. Gates fue galardonado en 2006, junto a su esposa
Melinda, con el Premio Príncipe de Asturias de Cooperación Internacional gracias al trabajo
desarrollado desde su fundación. Ese año, Gates donó 500 millones de dólares a la lucha contra el
SIDA.

Para que una persona sienta la necesidad de colaborar con otra para mejorar su calidad de vida o
darle una mano en un estado emocional puntual es necesario una de dos, que tenga una situación
emocional poco clara(problemas psíquicos que la llevan a entregarse desinteresadamente,
generalmente relacionados con la baja autoestima) o que se encuentre tan en contacto con sus
propios sentimientos que pueda sentir empatíapor los que la rodean, siendo capaz de percibir su
dolor y su lucha y deseando unirse a ellos para hacer lo posible por ayudar al otro a salir de su
tristeza.

De todas formas, la filantropía también necesita de la razón para ser. No podemos ofrecerle ayuda
a alguien si no somos capaces de darnos a nosotros mismos lo que necesitamos; por eso es
importante que antes de acercarnos a otra persona para ayudarla sepamos si somos capaces de
hacerlo, es decir si contamos con las herramientas necesarias para colaborar positivamente con
ella.

Si un grupo de personas se proponen ayudar a otras que viven en un barrio carenciado a mejorar
su salud, deberían contar previamente con un grupo de especialistas dispuestos a colaborar con
ellos y armar una estructura sólida, porque de lo contrario las buenas intenciones caerán en un
saco vacío y no darán ningún resultado.

Misantropía y Filantropía

Misantropía es el concepto opuesto a filantropía e implica una tendencia general que se


caracteriza por la antipatía ante el género humano. El misántropo rechaza las principales
características de los seres humanos. Esto quiere decir que no muestra conflicto con una o varias
personas, sino que su estructura psicológica y social lo lleva a rechazar a toda la especie.

119
En la literatura existió un movimiento literario que recibió el nombre de misantropía en el que se
encontraron autores que se caracterizaron por su odio firme a sus congéneres y escribieron sobre
ello de una forma satírica; entre ellos podemos mencionar a William S. Gilbert.

Algunas personas opinan que la misantropía es un paso necesario para conseguir la filantropía
puesto que para poder actuar y ayudar a otros, es importante reconocer que hay otros seres de
nuestra misma especie que no hacen bien su labor o no están ofreciendo una mano a quien la
necesita. A partir de sentimientos que podrían encontrarse ligados a la misantropía, podemos
reflexionar acerca del comportamiento de nuestra especie y buscar soluciones ante la desigualdad
y la injusticia.

Beneficios de la filantropía para la familia empresaria

Un circuito electrónico dentro del tallo de una rosa que permitiría que la flor produjera energía
solar. Etiquetas de papel con sensores para saber si una vacuna está en buenas condiciones o los
cambios de temperatura durante su transporte han afectado a sus propiedades. Son dos ejemplos
de proyectos financiados por la Fundación Knut y Alice Wallenberg (KAW), el principal vehículo
filantrópico de la familia Wallenberg desde hace un siglo.

Knut y Alice crearon esta Fundación en 1917, cuando él era ministro de asuntos exteriores de
Suecia. Habían acumulado una fortuna en participaciones en varias empresas suecas y como no
tenían descendencia, decidieron destinar parte de su riqueza a la promoción de la ciencia. Desde
entonces, la Fundación KAW ha dedicado 24.000 millones de coronas suecas (unos 2.540 millones
de euros) a promover la investigación científica en Europa, y específicamente en Suecia, según
explica este artículo de Expansión.

¿Qué motiva a las familias empresarias a poner en marcha iniciativas filantrópicas como esta? Ya
dije hace un par de semanas que la principal motivación es un deseo totalmente altruista que nace
de la necesidad de devolver a la sociedad parte de lo que se ha recibido de ella. Un ejercicio de
gratitud en toda regla.

Toda labor filantrópica se caracteriza por no perseguir el lucro económico, pero eso no significa
que indirectamente no beneficie a quien la lleva a cabo, aunque no se trate de ganancias
económicas. Son muchos los beneficios que la filantropía tiene para la familia empresaria que la
impulsa. Lucía Ceja los explica muy bien en este vídeo. A continuación expondré brevemente los
principales.

Además de dar salida a esa necesidad de compromiso personal con proyectos de ayuda a terceros,
la filantropía aumenta la cohesión familiar. El proyecto sin ánimo de lucro actúa como aglutinador,
delos miembros de la familia. El hecho de compartir un proyecto que trasciende la pura actividad
económica y que aporta bienestar a la sociedad facilita la integración de la familia más allá de la
propia empresa, sobre todo a partir de la segunda generación. Y no sólo facilita la cohesión, sino
que también es un engranaje idóneo para transmitir los valores familiares de generación en
generación.

Por otra parte, la filantropía ayuda a mantener viva la imagen del fundador o fundadora de la
empresa familiar y a transmitir sus pasiones, sus valores y, en definitiva, su figura, a lo largo del

120
tiempo. Gracias a la Fundación KAW, los miembros de la familia Wallenberg pueden conocer el
legado de Knut y Alice un siglo después.

Además, compartir un proyecto filantrópico genera orgullo de pertenencia en toda la familia y


sobre todo en las siguientes generaciones. En muchas ocasiones, la labor filantrópica es una
oportunidad para los miembros de la familia que no han desarrollado una vocación empresarial.
De este modo, pese a no participar en el día a día de la empresa familiar, pueden seguir
sintiéndose miembros plenamente activos de una familia empresaria.

Viendo todas estas ventajas, no hay excusas para no plantearse seriamente la posibilidad de
desarrollar un proyecto filantrópico. En vuestra familia, ¿lleváis a cabo algún tipo de labor
filantrópica?

3.21. ¿QUÉ DEBEN EXIGIR LOS CLIENTES DE LA BANCA PRIVADA?

El nuevo cliente de la banca privada

La Banca Privada se asoma a un mercado cambiante: los clientes buscan más valor añadido por las
comisiones, servicios individuales y soluciones tecnológicas.

El cambio tecnológico y una clientela con nuevas exigencias están presionando a la banca privada
para renovarse. Las tendencias que están influyendo en la reconfiguración del modelo de negocio
bancario lo están obligando a abrirse a nuevos rumbos. Las nuevas reglas regulatorias, más
exigentes en transparencia, y los cambios culturales en la clientela, que quiere más valor añadido
por los servicios que paga y que la seduzcan tecnológicamente, están acelerando su renovación y
los que no lo hagan o se queden atrás tendrán muy complicado competir en un entorno de
reducidos márgenes de negocio. “En general, el cliente de banca privada es prudente y busca, ante
todo, preservar su patrimonio y generar una rentabilidad sostenida. Por supuesto, exige un trato
personalizado y busca un asesoramiento de calidad, a medida. Las nuevas generaciones también
demandan sistemas de última generación, acceso inmediato a sus inversiones y una plataforma
tecnológica que se adapte a sus necesidades y estilo de vida”, afirma a Forbes Luis Antoñanzas,
director de Deutsche Bank Wealth Management España.

La percepción es que la velocidad y el alcance de esos cambios aconsejan actuar con rapidez y
determinación, descartando soluciones cosméticas, para prepararse hacia el futuro. “Los clientes
están demandando cada vez un servicio más transparente, centrado en sus intereses y de mayor
calidad, por lo que pensamos que hacia ahí se reenfocará el modelo de banca privada movido por
las necesidades de los clientes”, afirma Jorge Coca, subdirector del programa de Gestión
Patrimonial Familiar del Instituto de Estudios Bursátiles (IEB) y fundador y director General en
WealthSolutions, EAFI (Empresa de Asesoramiento Financiero).

“El tradicional modelo de ‘un servicio para todos’ no será suficiente y la banca privada tendrá que
ser implacable a la hora de elegir a qué segmentos puede atender mejor y desarrollar enfoques
diferenciados para cada uno de ellos. Los bancos necesitarán rediseñar sus productos y servicios,
haciendo hincapié en aquellas inversiones que puedan añadir mayor valor, apostando por

121
servicios no relacionados con la inversión, como la planificación del patrimonio y la gestión de
riesgos, y definiendo el modelo más adecuado de atención para cada segmento de cliente”, según
la consultora internacional McKinsey.

Nuevas preferencias

Un sector que está experimentando los efectos de la transformación financiera es el de los


gestores de carteras de inversión.

En una reciente encuesta, la mayoría reconoció que su futuro lo veía negro por la expansión de la
gestión pasiva, la que replica índices, y, por ende, no requiere necesariamente de una
participación numerosa de expertos, ni el cobro de comisiones. Entre febrero de 2016 y febrero de
2017, los inversores estadounidenses sacaron más de 300.000 millones de dólares (242.000
millones de euros) de fondos de gestión activa –en la que participan activamente profesionales–
para colocarlos en carteras de gestión pasiva, y depositaron otros 600.000 millones (485.000
millones de euros) adicionales, según la firma estadounidense de análisis de activos de inversión
Morningstar Inc.

“De las dos grandes fuentes de ingresos en el sector: corretajes de intermediación y comisiones de
gestión, los primeros están en clara caída por la competencia y la tecnología, lo que está
provocando a su vez un desplazamiento de los modelos de negocio hacia la gestión/asesoramiento
con competencia en los precios. […] En todo caso existe el riesgo, en mi opinión, de que la
tecnología pretenda sustituir la función del asesor dando a entender a la gente que cada uno
puede ser un experto financiero con acceso directo al mercado. Esto sería muy peligroso en la
medida en que exacerbaría el carácter especulativo de las inversiones que es el gran error que
cometen las personas en tiempos de exuberancia en los mercados”, señala a Forbes Nicolás López,
director de análisis de la Agencia de Valores y Bolsa MG Valores.

La afluencia masiva de datos e información accesible –y gratis– a los inversores podría abocar al
modelo de gestión activa a una actividad casi marginal, de boutique, enfocado hacia áreas donde
la digitalización y la liquidez sean escasas, según algunos observadores. El cambio en la cultura
inversora, que está conduciendo a nuevas preferencias, como los canales alternativos, si pagar o
no por los servicios, modelos multicanal, o a los asesores robotizados o remotos, está diseñando
una realidad que se abre paso, aunque lentamente, pero en la que habrá que competir en precios
y productos. “La diferencia que hemos observado tras la crisis financiera es que ahora [los clientes]
se implican más en la toma de decisiones. Han aprendido y participan en el proceso, desde un
mayor conocimiento, en el caso de los clientes asesorados”, afirma Marta Alonso, directora de
Bankia Banca Privada, con una gestión de más de 5.600 millones de euros.

El cliente español

¿Cómo es el cliente español de banca privada? Según Luis Sánchez de Lamadrid, director general
de Pictet WM en España, entidad suiza con más de 200 años de historia, se ha vuelto más
exigente. “El cliente español es de crecimiento cuando el mercado sube y conservador cuando
baja. No se trata del cliente convencional de carteras 50% acciones y 50% renta fija. Además,
ahora es más exigente respecto a capacidad, oferta y [a] cómo medirnos. También quiere mayor

122
liquidez. Demanda acceso a la información y quiere respuestas respecto a mercados financieros,
fiscalidad, sucesiones, gobernanza y a transición familiar”.

“El cliente de banca privada es cada vez más sofisticado y continuamos viendo una evolución en
este aspecto. Actualmente, tiene más claras sus preferencias de inversión, niveles de riesgo que
asume, horizonte temporal, necesidades de liquidez, tipo de vehículos y planificación financiera.
Desde Santander Banca Privada estamos incorporando acciones formativas en materia de
inversiones, servicios financieros, planificación patrimonial, entre otros, con el ánimo de
acompañar a nuestros clientes en esta andadura”, afirma Adela Martín, directora de banca privada
de Santander España, con un patrimonio bajo gestión de casi 98.000 millones de euros.

“[…] El cliente tratado como persona es la clave. Conocer sus necesidades financieras no es
suficiente, hay que comprender sus gustos, sus preferencias, sus emociones, sus
comportamientos, incluso sus creencias y sus valores. Sin este profundo conocimiento no se
conseguirá empatizar con él y la relación no funcionará. Hoy en día, la presencia del Behavioral
Finance es indispensable. Y los CRM (Customer Relationship Management) [‘Gestión de las
Relaciones con los Clientes’] y el uso del big data no podrán, en mi opinión, sustituir el
conocimiento personal en un mundo tan ‘a medida’ como el de la banca privada, solamente
podrán complementarlo”, señala Gonzalo Algorri, consultor y ex responsable mundial de Banca
Privada de Grupo Santander.

Banca privada, a los pies del cliente vip

La introducción de tecnología y la transparencia en el asesoramiento marcan la gestión de las


grandes fortunas

Si dispone de 500.000 euros, puede beneficiarse de ser cliente de banca privada

No menos de 500.000 euros e incluso en algunos casos es necesario llegar al millón de euros en
patrimonio. Este es el principal requisito para formar parte del selecto grupo de clientes de banca
privada. Fortunas por cuya gestión y asesoramiento –y consiguiente minuta millonaria– pelean
entidades de todo tipo, máxime cuando la nueva regulación Mifid 2 exige clarificar el tipo de
servicios que se prestan, si sus recomendaciones son o no independientes y cuál es el coste.

“El negocio de banca privada en España se encuentra en un buen momento, después de haber
sufrido mucho después de la crisis de los mercados financieros de 2008. No hay más que ver el
crecimiento tan importante que se ha producido en los saldos gestionados en fondos de inversión,
el vehículo de inversión más utilizado por estos clientes”, afirman desde CaixaBank, primera gran
entidad en presentar su oferta de asesoramiento independiente en el marco de Mifid 2 y en la que
“se realiza un cobro explícito del servicio de asesoramiento, de forma que el cliente puede
conocer de antemano el coste asociado con la máxima transparencia”.

Eso le permite acceder a una gama más extensa de productos y servicios, incluida la gestión pasiva
y clases sin comisión de comercialización.

Gonzalo Algorri, profesor del Programa de Banca Privada y Asesoramiento Financiero del IEB, cree
que “habrá que observar la evolución de las entidades que han decidido tomar la vía del
asesoramiento independiente frente a quien no lo ha hecho. El reto de transparentar las

123
comisiones parece complicado por la falta de costumbre de los clientes a realizar pagos directos, si
bien parece que el futuro es este”, afirma.

“Si echamos la vista hacia atrás, creo que la evolución que ha visto la banca privada en los últimos
20 años ha sido realmente impresionante”, opina Jorge Gordo, director de banca privada de BBVA
España.

“Si nos fijamos en el terreno de la inversión, hemos pasado de un asesoramiento básico centrado
en productos financieros de ámbito nacional, a todo el desarrollo del universo de productos de
inversión en todo tipo de clases de activos, en todas las geografías, en todos los estilos (growth,
valor, core, cuantitativo, factorial...), en todos los formatos, con todo el desarrollo del mundo de
las inversiones alternativas, los hedge funds, la inversión en capital riesgo, en inmobiliario, en arte,
etc.”, afirma.

"Contamos con unas plataformas tecnológicas de última generación que cubren las expectativas
de las nuevas generaciones", afirma José de Alarcón, de Adbank

Santiago Pons, asociado de EFPA España, cree que se han dado pasos positivos por parte del
regulador en la búsqueda de mayor transparencia y seguridad en los servicios financieros
prestados a los clientes, “pero no sería deseable que un exceso regulatorio expulsara a buena
parte de los clientes con patrimonios elevados de un servicio de banca privada. Es ahí donde la
tecnología puede ayudarnos a mantener unos niveles de servicio personalizado óptimo a un coste
razonable”.

En cuanto al perfil del cliente, el de banca privada ha evolucionado menos en los últimos años que
el usuario minorista dado que para este “sigue siendo crucial contar con la figura de un banquero
que gestiona su patrimonio apoyándose en los diferentes especialistas del banco. Es lógico, si
tenemos en cuenta, que este tipo de clientes tienen habitualmente patrimonios superiores al
millón de euros”, cree José de Alarcón Yécora, director comercial de Andbank España.

No obstante, “las nuevas generaciones también demandan servicios como acceso virtual en
tiempo real. Para ello, como banca privada de vanguardia, contamos con una plataforma
tecnológica y sistemas de última generación que nos permiten cubrir sus necesidades y
expectativas”.

“La gestión de un gran patrimonio debería tener una gran parte del capital invertido en una
cartera diversificada y de bajo coste para capturar de forma eficiente el crecimiento a largo plazo
de la economía global. Después se puede complementar con otros activos más oportunistas de
coste más elevado, que intenten explotar las escasas ineficiencias que aparecen de vez en
cuando”, según Unai Ansejo, cofundador y co-CEO de Indexa Capital, convencido de que la gestión
indexada y automatizada tiene claras ventajas frente a la inversión tradicional, empezando por
que el servicio de este gestor automático “tiene tres veces menos costes que la banca privada”,
calcula.

“En el mundo de la gestión de grandes patrimonios, hasta ahora el papel de la gestión pasiva sigue
siendo muy residual, ya que existe la creencia de que si no se incluyen valores y supuestos fondos
activos en las carteras, no está justificada la intervención del banquero privado. Eso sin mencionar
el tema del cobro de las retrocesiones”, lamenta Martín Huete, socio fundador de la empresa de

124
gestión automática Finizens, “pero como tantas otras cosas, este paradigma se irá quebrando y
cada vez más se irá abriendo la idea de que lo importante es la elección de activos y reducir al
máximo las comisiones, que son el gran cáncer de la rentabilidad”.

Este experto del sector cree que poco a poco “iremos a modelos donde el 70% de la cartera esté
formado por estrategias de gestión pasiva y el otro 30% pueda servir para hacer determinadas
apuestas concretas sobre mercados, valores, gestores o fondos”.

"La gestión indexada y automatizada tiene tres veces menos costes que la banca privada", sostiene
Unai Ansejo, de Indexa Capital

En cuanto a Gadea de la Viuda, directora general de Abante Asesores, asegura que el gran reto
para las entidades de banca privada consiste en “ofrecer un valor diferencial que te haga único
para tus clientes. Cuál es tu propuesta de valor a los clientes, cómo lo perciben y cómo te lo
remuneran son los factores que permiten la supervivencia de cualquier negocio en el largo plazo,
también en el de banca privada”.

AEFI: LAS ‘FINTECH’ PIDEN PASO

Para Salvador Mas, responsable de asesoramiento y gestión patrimonial de la Asociación Española


de Fintech e Insurtech (AEFI), cuantitativamente la penetración de este tipo de empresas es
creciente pero muy baja aún, no obstante, su relevancia cualitativa es indudable:

“Con muy pocos recursos han aportado una referencia a la industria de transparencia, sencillez,
facilidad de uso... que hicieron enrojecer a muchos grandes bancos, pero por desgracia para las
startups del fintech, la marca en grandes patrimonios sigue pesando muchísimo”.

BANCA MARCH: LA IMPORTANCIA DE MIFID 2

“La introducción de la directiva Mifid 2 a comienzos de año ha reforzado nuestro modelo de banca
privada centrado en el servicio al cliente y no en el producto”, resalta José Ramón Aranda, director
de banca privada de Banca March.

De hecho, en su opinión, para este ejercicio el principal reto es la “correcta ejecución de Mifid 2 y
poder transmitir a nuestros clientes las ventajas de los diferentes servicios que les podemos
ofrecer bajo el nuevo marco regulatorio y, por supuesto, seguir creciendo de una manera
sostenible con nuestros clientes”.

SABADELLURQUIJO: LA GESTIÓN DE LAS EMOCIONES

“El perfil del cliente español es más bien conservador, cortoplacista y con sesgo hacia los
mercados domésticos”, sin embargo, en opinión de Pedro Dañobeitia, director de SabadellUrquijo,
“en el entorno actual es necesario avanzar en el camino contrario, es decir, alargar el horizonte
temporal, diversificar e internacionalizar la cartera y estar dispuesto a asumir riesgos a corto
plazo”.

En este proceso, “teniendo especial cuidado en no desperfilar a los clientes”, la labor del banquero
como “gestor de las emociones es fundamental”.

SANTANDER: CUIDAR EL ENTORNO FAMILIAR

125
Según Adela Martín, directora del área de banca privada de Santander España, el tipo de cliente es
diverso: ahorradores, ejecutivos, directivos y empresarios, un perfil que ha ido evolucionando y,
actualmente, “contamos con un cliente más digital que interactúa con su banquero y con el banco
a través de todos sus canales. Es más global, busca diversificación por activos pero también por
geografías”.

Además, “cuidamos el relevo generacional, gestionando la unidad de relación que gira en torno al
cliente, fundamentalmente cónyuge e hijos”.

JULIUS BAER: EVOLUCIÓN DEL CLIENTE

Carolina Martínez-Caro, responsable de Julius Baer para España, ha observado que el perfil de sus
clientes es ahora más diverso que hace una década, tanto en edad como en sexo.

“Junto con la disminución de la edad media del cliente –lo cual apunta a jóvenes con perfiles más
emprendedores–, aunque la mayoría de nuestros clientes todavía son empresarios familiares,
ahora tenemos más altos ejecutivos de empresas globales y perfiles similares”, apunta la
responsable de esta entidad de banca privada.

BANKIA: MAYOR RIESGO Y PREPARACIÓN

“Un 43% de los clientes tienen un perfil moderado, nivel 3 de 5. Y un 34% se irían al nivel
dinámico, que es 4 de 5”, indica Marta Alonso, directora de banca privada de Bankia, y confirma
que “en los últimos años hemos observado un aumento de la asunción de riesgos por parte de los
clientes, como consecuencia de la baja rentabilidad ofrecida por la renta fija y los depósitos”.

Además, la mejor información a clientes, transparencia y cercanía “ha permitido asumir


inversiones con mayor nivel de riesgo, buscando mayores expectativas de rentabilidad”.

RENTA 4: MÁS MUJERES INVOLUCRADAS

Aunque lo habitual es exigir un mínimo de medio millón de euros, algunas entidades bajan el
mínimo para sus grandes clientes. Es el caso de Renta 4 Banco, que trabaja a partir de los 300.000
euros. Esta entidad ha observado un aumento en los últimos tiempos de mujeres involucradas en
temas financieros y que “la edad media de los clientes de banca privada está bajando en los
últimos años. Debido al patrimonio exigido, los jóvenes que abren cuenta suelen ser hijos y/o
nietos de clientes”, añade Gonzalo Nebreda, su director de banca privada.

UNICORP: LOS TRES RETOS DEL SECTOR

En palabras de Emilio Mejía García, consejero delegado de Unicorp Patrimonio y director de banca
especializada de Unicaja Banco, el sector se enfrenta a tres grandes retos: “la adaptación eficiente
al entorno regulatorio (reforzar protección al inversor, normas de conducta y mayor
transparencia), la digitalización, y la calidad del servicio y la personalización del tratamiento al
cliente. Pero sin perder de vista la confianza y cercanía que facilita el trato personal, sobre todo en
un segmento que tiene un componente altamente emocional”.

EDMOND DE ROTHSCHILD: TRATAMIENTO INDIVIDUAL

126
Los grupos internacionales también se abren hueco aquí. Es el caso de Edmond de Rothschild. “Las
entidades especializadas como la nuestra, independientes y artesanales, llevarán el liderazgo de la
industria en altos patrimonios que exijan un tratamiento personalizado, frente a entidades que
opten por un tratamiento más colectivo”, declara convencido Antonio Salgado Barahona, su
director en España. “Somos un grupo familiar, con más de siete generaciones, lo que nos facilita
entender las necesidades de familias empresariales”.

BANK DEGROOF PETERCAM: MÁS PRECAVIDOS

“La edad media de nuestros clientes sigue siendo alta pero la transmisión de patrimonio a nuevas
generaciones y la aparición de empresarios de startup hacen que empiece a haber un nuevo
segmento”, desvela Fernando Loscertales, director general de banca privada de Bank Degroof
Petercam, entidad que no exige un patrimonio mínimo a sus usuarios.

Además, “la crisis de la deuda española, las fusiones de cajas y los escándalos financieros han
hecho que los clientes sean más precavidos”, afirma Loscertales.

3.22. ¿CÓMO SE EXPLICAN LAS CRISIS DE CRÉDITO DE LA BANCA EN EL


MUNDO MODERNO?

I. El origen de la crisis

La crisis estadounidense de 2008-2009 tiene un carácter eminentemente financiero, cuyas raíces


se hunden en al menos tres hechos: la consolidación de la globalización, durante la década de los
ochenta; la eliminación de la ley Glass-Steagall, en 1999, y las medidas posteriores a la recesión
asociada a la burbuja tecnológica (2001-2002), instrumentadas por el Federal Reserve System, el
banco central de EU (conocido coloquialmente en español como la Reserva Federal y en inglés
como Fed).

La década de los ochenta marcó el inicio de la globalización, no en el sentido histórico que le da


Fernand Braudel (1979), asociado al comercio hacia y desde las principales ciudades-Estado
europeas alrededor del siglo XIV (Venecia, Génova, Amberes, Ámsterdam, etc.) y a los posteriores
Estados-nación, sino en el sentido moderno, que tiene que ver con el uso de las TIC para facilitar el
comercio y, sobre todo, para hacer más expeditos los flujos de capital (Gutiérrez, 2002).

En 1999, cuando finalizaba la segunda administración de William Clinton, se modificó el sistema


estadounidense de control financiero Glass-Steagall, que había estado vigente desde la conclusión
de la Gran Depresión.5 Esto permitió la fusión de bancos comerciales con bancos de inversión,
algo que también promovieron diversas instituciones financieras de Europa, ante la omisión de los
Acuerdos de Basilea ii, de 2004, consistentes en el establecimiento de reglas de capitalización de la
banca que garantizarían el buen funcionamiento del sistema a nivel internacional. Estas omisiones
dieron paso a lo que se conoce como nueva arquitectura financiera, cuya esencia es el surgimiento
de un sistema financiero paralelo, provisto con una serie de instrumentos de inversión
excesivamente complejos que el público ahorrador, lo mismo físico que institucional, no fue capaz

127
de entender y que los corredores y funcionarios de la banca tampoco pudieron explicar, menos
prever su colapso.

En respuesta a la crisis bursátil de 2001 (burbuja tecnológica) el titular de la Fed, Alan Greenspan,
acordó con su Consejo de Gobernadores la disminución de la tasa de interés real a niveles sin
precedentes desde la Gran Depresión: el rendimiento de la tasa de fondos federales bajó de casi
4% a finales de 2000 a niveles negativos entre inicios de 2003 y principios de 2006, tocando fondo
entre las postrimerías de 2004 e inicios de 2005 (– 2%), como se aprecia en la gráfica 1.

Este abaratamiento del crédito, que restaba ganancias por intermediación financiera a los bancos
comerciales, los indujo a seguir por lo menos dos cursos de acción. Por una parte, reforzaron el
proceso de fusión que habían iniciado en 1999 con grandes bancos de inversión, entidades
financieras especializadas en el diseño y colocación de instrumentos de financiamiento de largo
plazo, a través de la bolsa de valores o en forma privada para un emisor determinado. Esto no sólo
potenciaba las operaciones de la banca mediante la creación o reforzamiento de superestructuras
financieras, sino que les brindaba un mayor margen de maniobra.6 Asimismo, los alejaba de la
regulación de Basilea ii en materia de requerimientos de capital necesarios para proteger a sus
acreditados frente a riesgos financieros y operativos.

Por otra parte, se sirvieron de la misma banca de inversión para titularizar su deuda, es decir
empaquetar los créditos hipotecarios y de otro tipo que habían otorgado, y que tenían calificación
desde excelente (AAA) hasta muy mala (subprime), de forma tal que resultaba muy difícil
determinar el grado de riesgo de cada paquete.7 Los instrumentos de titulación más conocidos, y
a la larga más problemáticos, fueron los valores respaldados por hipotecas (MBS, por mortage
backed securities), las obligaciones de deuda colateralizadas (CDO, por collateralizaed debt
obligations), y las obligaciones de préstamo colateralizadas (CLO, por collateralizaed loan
obligations). Sus principales características eran flexibilidad, no estar sujetos a regulación y
encontrarse alejados de las hojas de balance de los bancos, lo que permitió a las instituciones
financieras prestar el mismo dinero varias veces. Con ello, se abrió paso a un sistema de banca
paralela que se expandió extraordinariamente y que, de acuerdo con Boyer (2012), llegó a
representar en EU 10 veces su PNB.

Sin descartar su eventual incobrabilidad, los bancos consideraron que la masificación de los
créditos hipotecarios subprime era lucrativa en virtud del aumento constante del precio de las
viviendas desde hacía varias décadas (tan sólo entre 1997 y 2007 el índice S&P Case-Shiller de
precios de la vivienda más que se duplicó en términos reales, como indica la gráfica 2), lo que
aseguraba que en caso de que los clientes cayeran en insolvencia la venta de la propiedad
permitiera recuperar el crédito.

Ya titularizados, los paquetes de hipotecas y de otro tipo de deuda obtenían el respaldo de las
compañías aseguradoras, destacadamente el American Investment Group (AIG), y las compañías
monoline, entre ellas AMBAC Assurance Corp. y Financial Security Assurance Inc., muy débilmente

128
reguladas y diseñadas originalmente para asegurar los mercados de bonos municipales, que en EU
conforman un espectro muy amplio.

Los fondos de protección eran entonces adquiridos por los bancos de inversión, que incluso
podían retitularizarlos. A partir de esto, los bancos comerciales, las aseguradoras y otros actores
financieros negociaban los títulos con ahorradores físicos e institucionales, incluyendo de manera
prominente a las compañías administradoras de fondos de pensiones. Paralelamente, los bancos
de inversión utilizaban esos activos como garantía para pedir créditos adicionales y apalancar más
operaciones financieras. Se creaba así una enorme cantidad de activos que, por muy sofisticados
que fuesen, tenían como último eslabón de la cadena a las familias de bajos recursos; es decir que
las posibilidades de incumplimiento, aunque no se reconocieran, eran muy altas.

Cabe recordar al respecto que las probabilidades de incumplimiento de los instrumentos de


inversión se determinaban calculando el número de incumplimientos y de pérdidas por esta causa
en cada tramo de inversión, a partir de la correlación histórica de los activos, la cual se manejaba
con una descomposición Cholesky. Las pérdidas reales se distribuían al correr un número de 10
000 a 100 000 de la simulación Monte Carlo. En correspondencia con el modelo Black-Scholes-
Merton, desarrollado en los años setenta para determinar el grado de riesgo de una inversión a
partir del precio del activo subyacente, se generaba un número aleatorio de incumplimientos. La
complejidad para calcular el pago esperado del incumplimiento, indispensable en la determinación
del precio de instrumentos como las CDO, crecía exponencialmente con el número de activos de
referencia, es decir las hipotecas originales.

Dados los millones de hipotecas contenidas en las CDO, ninguna empresa tenía el tiempo ni el
incentivo para calcular el riesgo inherente a dicho instrumento, e incluso no existía un modelo
adecuado para el efecto, debido a la complejidad y falta de linealidad de la correlación entre el
valor del CDO y las hipotecas.8 Esto implica que pequeños cambios en los precios de las hipotecas
en ocasiones no afectan el precio de las CDO; pero grandes cambios conducen a enormes e
impredecibles variaciones (Crotty, 2008). En el extremo, el esquema tenía vicios parecidos a los del
modelo piramidal de Ponzi, ya que los altos rendimientos se financiaban con los pagos de las
hipotecas, lo mismo de familias solventes que familias de bajos recursos, y éstas fueron las que
más se incorporaron al sistema entre 2003 y 2007.

Dado que en todo este marco existe una enorme desregulación financiera, el número de
transacciones que involucraban los vehículos especiales de inversión creció de manera
exponencial, en una tendencia que se inició una vez superada la burbuja tecnológica de 2001-
2002.9 Y como el precio de estos instrumentos subía sin cesar a partir de 2004, se creó la falsa
imagen de que las ganancias fáciles iban a continuar por mucho tiempo. Es decir, se vivió un
periodo de exuberancia financiera similar a los que habían precedido a la mayoría de las
depresiones del siglo XX y principios del XXI, desde la Gran Depresión de 1929-1932 hasta la crisis
de 2001-2002, aunque con un volumen de recursos mucho mayor y con instrumentos casi
desconocidos en otras épocas.

1. La exuberancia financiera previa a la crisis

La desregulación financiera previa a la crisis, combinada con las bajas tasas de interés impuestas
por la Fed, se tradujo en una alta circulación de instrumentos no regulados, con especial énfasis en

129
los fondos de protección y, dentro de éstos, los MBS, las cuales duplicaron en EU su valor nominal
entre 2001 y 2008, hasta llegar a 7.4 billones de dólares, equivalentes a más de 50% del PNB de
dicho país. Éstos servían de respaldo para derivados como las CDO, lo que generaba una cadena
sumamente compleja con enorme capacidad de expansión. Por ejemplo, hasta 150 MBS se
empaquetaban en una CDO. A su vez, una CDO al cuadrado (o CDO2), se creaba a partir del uso de
otros tramos de CDO, tomados como colaterales. Una CDO3 usaba tramos de CDO y CDO2. Entre
más elevada es la potencia que tienen las CDO más difícil es modelar su comportamiento debido a
que a su interior se pueden repetir las hipotecas. Además, hay CDO sintéticas, que usan credit
defaul swaps (CDS) u otros instrumentos de crédito como sus colaterales. Debido a esta
reproducción de instrumentos, el valor nominal de los CDS pasó de 6 billones de dólares, en
diciembre de 2004, a 62 billones tres años después (Crotty, 2008), monto que representaba 4.5
veces el PNB de EU.

Así, la participación de la intermediación financiera no tradicional respecto a la total pasó de


23.6% en 1986 a 44.6% en 2006, como muestra el cuadro 1, con un crecimiento espectacular de
los títulos respaldados por activos, las sociedades de inversión y los bancos de inversión. Además,
en la sección de entidades tradicionales se observa un incremento sustancial de las empresas
privadas patrocinadas por el Estado, fundamentalmente las orientadas al crédito hipotecario,
Fanni Mae y Freddie Mac, cuya participación pasó de 3.4% a 5% en igual periodo.

De manera paralela, el valor nominal de los activos de los bancos globales gigantes de Reino Unido
pasó de 10 billones de dólares en 2000 a 23 billones en 2007, lo que implica un avance promedio
anual de 15% y un múltiplo respecto al PNB del último año de 8.3. Este dinamismo se dio,
fundamentalmente, por la expansión de los MBS y las CDO, mientras que el capital regulatorio de
los bancos apenas aumentó 20% en todo el periodo (Crotty, 2008). Con ello, la relación
activos/capital adquiría dimensiones explosivas, lo mismo en EU y Reino Unido que en Suiza,
Francia, Alemania y otros países que poseen grandes conglomerados financieros.

Por otra parte, la tasa hipotecaria para créditos a todos los plazos acusó un descenso sostenido a
partir de diciembre de 1994, para ubicarse a mediados de 2004 en sus niveles más bajos de toda la
historia: 3.25% a un año, 4.75% a 15 años y 5.25% a 30 años (gráfica 3), lo que resultaba muy
atractivo si se comparaba con la tasa fondos federales real, exhibida en la gráfica 1. Esto, aunado a
las facilidades de financiamiento otorgadas por los bancos, contribuyó al crecimiento de los
créditos subprime, cuya participación en los nuevos créditos hipotecarios concedidos por la banca
pasó de 6% en 2000 a 21% en 2006 (US Census Bureau, 2008), alcanzando un rango de entre
6.75% y 7.75% en junio de 2006 (gráfica 3), para mantenerse así hasta junio de 2007.

El relajamiento de la política monetaria, con bajas tasas de interés que conducen al


sobreendeudamiento de los agentes económicos y los vuelven proclives a tomar riesgos, sobre
todo en el mercado de capitales, se ha tipificado ya como un patrón de euforia financiera que
empieza entre tres y cinco años antes de la irrupción de una crisis. Así sucedió con la iniciada el
“lunes negro” del 19 de octubre de 1987, que llevó al índice Dow Jones a mínimos históricos. Lo
mismo pasó con la que estalló en agosto de 1982, una de las más prolongadas de que se tenga

130
memoria y que obligó a México a decretar una moratoria técnica de su deuda externa después de
haberse sobreendeudado gracias al abundante crédito y el bajo nivel de la tasa de interés
internacional, lo que se revirtió a partir de 1979, cuando la Fed la triplicó, dando inicio formal a la
crisis financiera de los años ochenta (Gutiérrez, 1993). Y también se observó con la crisis de la
burbuja tecnológica, iniciada en marzo de 2001.

Las bajas tasas de interés, combinadas con el dinero caliente, provocan que los ahorradores se
refugien en instrumentos con alto rendimiento y un enorme riesgo; de ahí la relación inversa que
existe, en condiciones normales, entre la tasa de interés pasiva, por una parte, y la compra de
acciones en el mercado bursátil y el rendimiento de los bonos, por otra. Al amparo de este sistema
de banca paralela, e incrustados en el sistema de Wall Street, se desarrollaron algunos fondos de
tipo piramidal (Ponzi), como los de Madoff y Stanford, sobre los que se volverá más adelante. Ello
propició, asimismo, el crecimiento exorbitante de las bolsas de valores del mundo. Por ejemplo, el
índice Dow Jones, que después de la crisis de la burbuja tecnológica de 2001-2002 se había
contraído hasta un valle de casi 7 200 puntos, en octubre de 2002, resurgió hasta un pico de más
de 14 000 puntos en octubre de 2007, como muestra la gráfica 4.

En este marco, los flujos de capital financiero crecieron aceleradamente en todo el mundo. Como
muestra el cuadro 2, los países desarrollados lo mismo invirtieron grandes cantidades en otros
países desarrollados entre 2000 y 2007 que recibieron recursos externos para invertirse en su
territorio. Muchos eran evidentemente tóxicos, aunque por la forma en que estaban
empaquetados resultaba difícil detectarlos. Asimismo, un grupo importante de países emergentes
incrementó su dependencia de los activos que llegaban de fuera, sin conocer su grado de
toxicidad.

El auge del sistema financiero, junto con el sobrecalentamiento de la economía mundial entre
2004 y principios de 2008, contagió paulatinamente los mercados de materias primas, o
commodities, desde minerales hasta granos básicos, que ya para los años ochenta se habían
incorporado en su totalidad al torbellino de la especulación, a través de la determinación de sus
precios futuros en el mercado de Nueva York. Así, se expandieron de manera extraordinaria los
precios de trigo, maíz, sorgo, cobre, zinc, petróleo y, finalmente, oro y plata. El promedio de los
precios de todas las materias primas se presenta en la gráfica 5, donde se observa su expansión
inusitada durante todo 2007 y la primera mitad de 2008, para caer en la segunda mitad y luego
retomar su ritmo ascendente. Aquí debe resaltarse el hecho de que la cotización de los dos
principales crudos marcadores del mundo, el West Texas Intermediate y el Brent, pasaron de
menos de 30 dólares por barril en 2002 a cerca de 160 dólares a mediados de 2008: una “joroba”
más pronunciada que la de la gráfica 5 para el mismo periodo, en cuya última parte se inició un
gran ascenso del oro, primero, y la plata, después.10

Paralelamente, empezó a subir la tasa de riesgo de los principales bancos de inversión, lo que
quiere decir que cada vez era menor el capital contable de que disponían respecto a los activos

131
comprometidos, como muestra la gráfica 6 en los casos de UBS, Morgan Stanley, Lehman Brothers
y Merrill Lynch.

Todo lo anterior, propiciado por la menor regulación financiera a partir del inicio del siglo XXI,
también se vio influenciado por la relajación de las políticas fiscal y monetaria del gobierno de EU.
De ahí el auge de la intermediación y las utilidades involucradas, como ya se ha comentado, y el
incremento de los déficit, lo mismo en cuenta corriente (gráfica 7a) que fiscal (gráfica 7b) de dicho
país, hasta llegar el primero, a principios de 2006, a 6.5% del PNB, y el segundo a 4%, a mediados
de 2004.

Dada la identidad macroeconómica que establece que la diferencia entre el ahorro y la inversión
de la economía es igual al déficit en la cuenta corriente de la balanza de pagos, la inferencia de la
gráfica 7a es que, a partir de 2000, entre 4% y 6% del PNB de EU se financió con recursos externos.
Por su parte, la gráfica 7b refleja que una porción creciente de gastos del gobierno federal se
financió con deuda a partir de 2002, fundamentalmente bonos del Tesoro, absorbiendo con ello
no sólo una porción importante del ahorro estadounidense, sino también del superávit (ahorro) de
países como China, Japón, Brasil, Arabia Saudita y otras naciones petroleras.

2. La precipitación de la crisis

Frente a los problemas descritos, el razonamiento de los financieros era que, gracias a la
diversificación del riesgo, el sistema no corría peligro. Entre más se siguieran expandiendo los
mercados financieros, más se beneficiaría todo mundo, aunque una gran parte de esos beneficios
fluiría necesariamente a las instituciones financieras y se traduciría en altos salarios, regalías y
bonos de actuación tanto para los funcionarios de mayor nivel como para los corredores, todos
recompensados en razón directa al volumen de sus ventas. Y si a pesar de todo aumentaba el
número de hipotecas incobrables, a los clientes morosos que se declararan en quiebra
simplemente les quitarían la vivienda objeto del crédito, la venderían y recuperarían su inversión.
Algunos llegaban al extremo de decir que, aun sin ser un mercado regulado, en caso de una
debacle tanto la Fed como la Federal Deposit Insurance Corporation (FDIC) los rescatarían, como
lo habían hecho en el pasado en condiciones similares.

Voces más prudentes, empero, no descartaban la posibilidad de una crisis de dimensiones


importantes. Particularmente notoria fue la opinión de Nouriel Roubini, presidente de Roubini
Global Economics, quien desde principios del siglo observó la formación de una burbuja en el
mercado inmobiliario. En junio de 2007 ratificó sus apreciaciones a través de la National
Association of Realtors de EU al manifestar que en ese año se iniciaría una recesión de la
economía estadounidense debido a que se volvería persistente la contracción de los precios de las
casas habitación. Esto, dijo, llevaría a EU a enfrentar una crisis más profunda que la padecida en
2001-2002 (Roubini, 2007).

Las correas de transmisión de la crisis funcionaron como sigue. Al aumentar la morosidad de la


cartera hipotecaria, en 2006, se hizo evidente que la mayor parte de ésta provenía de los créditos
subprime. En ellos, el índice de morosidad pasó de 12, a principios de ese año, a 25 en 2009, como

132
muestra la gráfica 8, afectando tanto a los bancos comerciales como a los de inversión. En este
contexto, los que hasta entonces habían sido considerados los derivados más redituables, los CDS,
se volvieron indeseables.

Y aunque los propietarios de las casas hubieran intentado venderlas para pagar su hipoteca, ya no
era posible pues valían menos que ésta: su precio acusó una gran caída a partir de 2007, como se
observa en la gráfica 9; es decir, los acreditados habían quedado underwater (bajo el agua), de
acuerdo con la terminología financiera de EU.

La contracción del índice de precios de los títulos respaldados con hipotecas se extendió desde
enero de 2007 hasta entrado 2009, siendo más pronunciada en los títulos de mayor riesgo, los BBB
(gráfica 10), con los que habría más deudas hipotecarias de tipo subprime.

De igual manera, se colapsaron los precios de las acciones de los bancos comerciales, como
muestra el índice de precios de las acciones de bancos estadounidenses que a partir de 100 en
enero de 2007 bajó a entre 5 y 40 en marzo de 2009 (gráfica 11). Esto llevó a la mayoría de dichas
instituciones a inscribirse en el programa de rescate emprendido por el gobierno, y orilló a algunas
a ser absorbidos por otras más grandes, como sucedió con el banco Wachovia.

Ante las condiciones descritas, se derrumbó la titularización de activos a partir de 2007 al bajar de
casi dos billones de dólares, en 2006, a menos de 250 000 millones de dólares en 2008 (gráfica 12).
Con esto se dejaron de titularizar los MBS tanto de tipo residencial como comercial, que eran los
instrumentos de mayor toxicidad. Lo mismo pasó con las CDO al tiempo que se reducían mucho
los valores respaldados por activos (ABS, por asset backed securities).

La desconfianza causada por los problemas descritos condujo a una gran astringencia monetaria.
Como muestra la gráfica 13, las variaciones mensuales del principal indicador de la oferta
monetaria, el M3, descendieron agudamente a partir de enero de 2008, hasta tocar fondo a
mediados de 2010.

A partir de lo anterior sobrevino, en el mismo 2008, una crisis de crédito (credit crunch). Los
bancos restringieron los préstamos en toda su gama de instrumentos, siendo los más afectados los
de tipo hipotecario, particularmente los subprime, como se aprecia en la gráfica 14. En seguida se
ubicaron, en términos de afectación, otros créditos al consumo, créditos para la compra de bienes
raíces comerciales y tarjetas de crédito.

133
La contracción señalada afectó al crédito no financiero lo mismo de EU que de todos los países
desarrollados, aunque debe resaltarse que el descenso se había iniciado en 2005, alcanzando su
peor nivel a mediados de 2009. Después de EU, el país más afectado fue Reino Unido. Los países
de la zona euro, que habían capeado el problema hasta entrado 2008, finalmente también
sucumbieron, como muestra la gráfica 15, corroborando su involucramiento en las hipotecas
titularizadas de origen estadounidense.

Como en la mayoría de los estallidos de burbujas financieras generadoras de grandes fortunas,


hubo señales de que una crisis se aproximaba. La primera fue el anuncio de descapitalización del
banco de inversión Bear Stearns, a partir de marzo de 2008, que no se convirtió en quiebra gracias
a que el gobierno de EU apoyó su absorción por parte de JP Morgan Chase. No hizo lo mismo con
otro de los cinco mayores bancos de inversión del país, Lehman Brothers, al cual dejó desaparecer
una vez decretada su quiebra, en septiembre del mismo año.11 Esto condujo a los mercados a un
pánico del que el antecedente más memorable era la contracción bursátil de octubre de 1929,
inicio de la Gran Depresión (Galbraith, 1976).

Cuando la crisis se hizo evidente en los mercados financieros, las instituciones bancarias que
lograron despojarse de sus CDO enfrentaron enormes pérdidas. Las agencias calificadoras,
seriamente criticadas por haber otorgado niveles AAA a los documentos, les redujeron la
calificación, con lo que exacerbaron el problema y expandieron la crisis por todos los segmentos
del mercado, ya que los bancos las habían comprado, en la mayoría de los casos, con fondos
prestados y se vieron obligados a deshacerse de activos más seguros, los únicos que el mercado
estaba dispuesto a aceptar. Debido a que las deudas hipotecarias y de otro tipo se encontraban
titularizadas y los paquetes adquiridos mezclaban títulos sanos con tóxicos, ninguna institución
conocía a ciencia cierta el valor de los títulos que tenía en su poder. Y dado que los bancos están
obligados a dar a sus títulos el valor que determine el mercado, el capital bancario se evaporó
junto con el precio de éstos.

El problema se exacerbó porque las instituciones financieras de última instancia, que habían
otorgado préstamos a los bancos durante los meses previos al colapso de Lehman Brothers a un
ritmo más acelerado del que podían recuperarlos, dejaron de hacerlo. Esto los obligó a cerrar la
brecha crediticia con préstamos de corto plazo, generalmente de tipo interbancario, los cuales
después del colapso fue imposible refinanciar. Esta descapitalización provocó que los bancos
restringieran, primero, su flujo de crédito a inversionistas no bancarios y, después, a sus pares.
Con ello, la crisis se hizo aún más grande y las instituciones reguladoras se atemorizaron,
contagiando a la National Futures Association (NFA), encargada de salvaguardar la integridad de
los mercados a futuro. Los estudios sobre crisis financieras muestran que el riesgo es siempre
subestimado en periodos de auge y sobredimensionado durante las crisis e inmediatamente
después del pico de éstas. En este entorno, se pusieron al descubierto los fraudes de algunos
fondos de inversión basados en el esquema piramidal de Ponzi, como el Maddof y el Stanford, lo
que exacerbó la desconfianza en el sistema financiero. El primero era administrado por un
respetable financiero, otrora presidente del índice de acciones tecnológicas Nasdaq.12 La pérdida
de confianza y la falta de crédito impactaron al consumo personal, el cual -luego de una tendencia
ascendente por lo menos desde la conclusión, en 2002, de la crisis de la burbuja tecnológica-

134
empezó a declinar a partir de enero de 2008 y se mantuvo en números negativos hasta mayo de
2009. Cuatro meses después sufrió una fuerte recaída, de la que rápidamente se recuperó (gráfica
16). Como consecuencia, la participación de esta variable en el PNB, que había mostrado un
ascenso continuo a partir de la posguerra, se estancó en 71% durante la recesión.

Una economía como la estadounidense, en la que el peso del consumo y el adecuado


funcionamiento de los mercados financieros son fundamentales, tiende a contraerse severamente
cuando la primera variable desciende y hay desconfianza en el futuro de la segunda. Así, el PNB
sufrió, a partir del primer trimestre de 2008, una caída que duró 18 meses (gráfica 17), de acuerdo
con el reporte final al respecto elaborado por la institución privada que cuantifica los ciclos
económicos, el National Bureau of Economic Research (NBER, 2010), duración que no se
observaba para una recesión desde la segunda Guerra Mundial.

De haberse tomado en cuenta las llamadas de atención de diversos observadores, como Pérez
(2004), por ejemplo, respecto al peligro de los movimientos de capital desde los años noventa y
del sobrecalentamiento y relajación del sistema financiero, un poco después, se podrían haber
revertido a tiempo las tendencias desfavorables del mercado en 2007 y seguramente las
consecuencias de la crisis habrían sido mucho menores, así como los recursos erogados para
paliarla.13 Por el contrario, en varias instancias el problema desbordó a las autoridades de EU, con
rescates financieros estratosféricos, que se estarán pagando a lo largo de muchos años y que son
causa de cambios severos en los ejes del poder económico y político mundial: China subió en 2009
al segundo lugar en términos de producción y al primero en términos de exportaciones (UNCTAD,
2010). 14

II. El rescate

A partir del cuarto trimestre de 2008, el gobierno de EU puso en operación, mediante la


coordinación conjunta del Departamento del Tesoro y la Fed, un programa de rescate (bailout)
cuyo propósito principal era evitar el desencadenamiento de una crisis sistémica.15 Éste consistió,
en primera instancia, en la expansión de la política fiscal mediante la aportación de recursos sin
precedentes a las entidades del sector financiero –y algunas del sector real– así como la reducción
de impuestos a los consumidores y a estratos especiales de los productores. A esas alturas se
estimaba que la necesidad total de recursos para paliar la crisis sería de dos billones de dólares,
equivalentes a 14% del PNB estadounidense en aquel momento y, por supuesto, se sabía que
cerca de dos terceras partes las absorbería el sector financiero. Para poner en operación dicho
rescate, el Congreso aprobó la Emergency Economic Stabilization Act of 2008, la cual entró en
operación el 3 de octubre de ese año, aunque ya antes se habían asignado recursos al sector
financiero de manera aislada, como se muestra a continuación para el caso de las principales
instituciones beneficiadas:

• JP Morgan Chase y el gobierno federal rescataron a Bear Stearns, cuyos problemas empezaron
en marzo de 2008 y que fue comprado por 236 000 millones de dólares, con ayuda de un crédito

135
gubernamental de 30 000 millones a JP Morgan Chase para asegurar la venta, ante la perspectiva
de que se derrumbaran los mercados.

• En septiembre de ese mismo año, Fannie Mae y Freddie Mac virtualmente se estatizaron, ya que
quedaron al cuidado de la Federal Housing Finance Agency. Inicialmente se asignaron 100 000
millones de dólares de inversión a cada entidad y en febrero de 2009 se les duplicó el monto, con
base en la Housing and Economic Recovery Act of 2008, que había sido puesta en operación en
julio de ese año. Así, se llegó a un total de 400 000 millones de rescate, la mitad por institución.

• En cuatro ocasiones, el gobierno ofreció a la aseguradora más grande del mundo, el American
Investment Group (AIG) su apoyo para no colapsarse, pasando de 85 000 millones de dólares
iniciales de la Fed hasta un esfuerzo combinado de 180 000 millones por parte de éste (110 000
millones) y el Departamento del Tesoro (70 000 millones), y un compromiso adicional del segundo
de 40 000 millones, con lo que se haría un total de 220 000 millones de dólares.16

• Citigroup, el banco más grande del mundo, recibió 25 000 millones de dólares en octubre y otros
20 000 millones en noviembre. Además, fue objeto de apoyo gubernamental a través de garantías
para limitar las pérdidas de sus activos tóxicos, calculados en 301 000 millones. Asimismo, el
Departamento del Tesoro comprometió recursos por 5 000 millones de dólares, más 10 000
millones de la FDIC y 220 000 millones de la Fed. La suma de recursos ascendió a 280 000 millones.
Aun con estos problemas, en septiembre intentó absorber a Wachovia, cuarto banco en tamaño
de EU, el cual finalmente se fusionó con Wells Fargo en una operación que costó a éste 14 800
millones de dólares y de la que surgió el banco más diversificado del país.

• El Bank of America obtuvo 45 000 millones de dólares, incluyendo 10 000 millones destinados a
comprar Merrill Lynch. 17 Adicionalmente, integró garantías para limitar la pérdida de 118 000
millones de activos en problemas. También, el Departamento del Tesoro comprometió 7 500
millones de dólares; la FDIC, 2 500 millones, y la Fed, hasta 87 200 millones, para un total de 142
200 millones. 18

La determinación del monto de recursos necesarios para el rescate posterior a la sorpresa de la


segunda mitad de 2008 incluyó una serie de estudios entre los que se contaron severas pruebas de
estrés, practicadas institución por institución. En los casos requeridos, el gobierno tomó control
temporal del consejo de administración de las instituciones y aclaró que, una vez superada la
contingencia, todas deberían devolver los recursos recibidos. Además, se informó que el Ejecutivo
promulgaría una ley para habilitar a la Fed y al Departamento del Tesoro a ejercer un mayor
control sobre el sistema financiero en su conjunto, con especial referencia a las operaciones no
reguladas, lo que se materializó con la aprobación del Congreso, en julio de 2010, de una reforma
financiera de carácter regulatorio, la The Wall Street and Consumer Protection Act, que generó
una gran controversia, por ser la primera después de muchos años en que se fijaban límites a la
expansión del sector financiero.

Si se toman en cuenta no sólo los recursos públicos comprometidos por la vía de apoyos directos
del gobierno estadounidense al sistema financiero -que, de acuerdo con el cuadro 3, representan
7.4% del PNB-, sino las garantías ofrecidas, que ascienden a 7.5% del PNB, se llega a un total de
apoyos equivalente a 14.9%, ligeramente superior al cálculo original del costo del rescate (14%).
Evidentemente, la cifra crece cuando se agregan el intercambio y compra de activos, es decir, la

136
adquisición de deuda gubernamental por parte de los bancos centrales, ya que representa 12.1%
del PNB, con lo que se alcanza un total de recursos comprometidos de 27%. Debe destacarse que
el país más afectado de los siete listados no es EU, sino Reino Unido, cuya suma de recursos
comprometidos más garantías asciende a 51.9% de su PNB, y se amplía a 80.1% al considerar el
intercambio y compra de activos.

Como promedio global, el Fondo Monetario Internacional (IMF Fiscal Monitor, 2010) estimó que el
monto total de recursos públicos comprometidos para apoyar al sistema financiero podría llegar a
24.8% del PNB de los países avanzados -con una gran variabilidad entre sus valores promedio-, y a
0.8% del de los emergentes. La cifra de los primeros estaba integrada por lo siguiente: apoyos
directos al sector financiero por una cantidad equivalente a 6.2% del PNB (aportaciones de capital
por 3.8% y compra de activos y préstamos por 2.4%); garantías emitidas por un monto equivalente
a 10.9% del PNB, e intercambio y compra de activos por parte de los bancos centrales por un
equivalente a 7.7% del PNB. El costo neto estimado de los apoyos directos sería de 2.7% del PNB,
cifra que tendería a disminuir a medida que la economía mundial se recuperara.

Lo paradójico del presupuesto fue que los gobiernos tuvieron que aumentar sus egresos a pesar
de que sus ingresos cayeron. De acuerdo con cálculos de la Organización para la Cooperación y el
Desarrollo Económicos (OCDE), los ingresos fiscales, como porcentaje del PNB, se redujeron en la
mayoría de sus países miembros en 2009 respecto a 2007 (gráfica 18). En promedio, para los
treinta miembros hasta ese momento, el coeficiente de impuestos fue de 35.4% en el primer año y
de 33.7% en el segundo.

Con un coeficiente de 24%, EU fue uno de los países ricos con menor carga impositiva, la cual se
redujo 3.9 puntos porcentuales entre 2007 y 2009. Como contrapartida, Dinamarca registró el
mayor coeficiente, el cual sólo bajó 0.8 puntos porcentuales entre uno y otro año: de 49.4% en
2007 a 48.2% en 2009.

Lo anterior tuvo enormes costos para la economía estadounidense y el resto de países cuyos
sistemas financieros se involucraron en el negocio de los fondos de protección y derivados. Como
muestra el cuadro 4, los diez países listados exhibían en 2009 altos niveles de déficit
gubernamental, particularmente EU (con 8% del PNB) y Reino Unido (con 7.9%); sólo Alemania e
Italia se ubicaban cerca del tope establecido por el Tratado de Masstricht, de 3%. En cuanto a la
deuda gubernamental neta, Grecia, Italia y Japón exhibieron los niveles más abultados: entre 99%
del primer país y 121% del tercero. Asimismo, el déficit en cuenta corriente de la balanza de pagos
afectó a todos, excepto a Alemania y Japón.

Por lo que se refiere al sector real de la economía estadounidense, los recursos más cuantiosos se
asignaron a la industria automotriz. Como primer paso, recibió un préstamo por 25 000 millones
de dólares a tasas preferenciales, con el fin de afrontar las pérdidas derivadas de la contracción del
mercado. Paralelamente, se solicitó a sus empresas impulsar el desarrollo de tecnologías
amigables con el medio ambiente. Las inicialmente beneficiadas fueron las tres grandes de

137
Detroit: General Motors, Ford y Chrysler. Posteriormente, en diciembre de ese mismo 2008, se
hizo un préstamo a General Motors y Chrysler por 81.3 miles de millones de dólares a fin de
prevenir su eventual bancarrota. Con esto, el total asignado al sector llegó a 106.3 miles de
millones de dólares.

En febrero de 2009, bajo la administración de Barak Obama, el Congreso aprobó la American


Recovery and Reinvestment Act of 2009, un paquete de estímulo a la economía por 787 000
millones de dólares, de los que más de la mitad se referían a sacrificios fiscales de carácter federal
y local (estados y condados) destinados a las empresas y particulares, y el resto a impulsar la
infraestructura, la ciencia, la salud, la energía, la educación, la capacitación y la protección a las
personas más vulnerables (gráfica 19).

Por el lado de la política monetaria, además del mantenimiento de la tasa de fondos federales en
0.25% a partir de 2008, situándose en su nivel histórico más bajo (gráfica 20), la Fed acordó
adquirir, en un lapso de varios años y mediante operaciones de mercado abierto, 600 000 millones
de dólares de Bonos del Tesoro, con el fin de aumentar el circulante y estimular la economía. Estas
herramientas, conocidas como quantitative easing, enfrentaron serias presiones internacionales y
del propio Congreso de EU a partir de 2011. Empero, se reeditó dos veces hasta llegar, en
septiembre de 2012, al quantitative easing 3, vertiente por la que se asignaron 40 000 millones de
dólares mensuales a la compra, durante varios años, de activos tóxicos MBS, además de
mantenerse, hasta 2015, el nivel de la tasa de fondos federales.

La acción de la Fed y las necesidades de reactivación de las economías provocaron que el resto de
países adoptara políticas monetarias flexibles, con tasas de interés que en los desarrollados
bajaron al ritmo de la de EU, al igual que los emergentes, pero con un rezago y una ampliación de
la brecha que les permitieron, al menos a partir de 2010, captar una gran cantidad de capital
financiero, como sugiere la gráfica 21 para el caso de México.

Esto evidencia la contraciclicidad de la política monetaria de este país durante el bienio de la crisis,
lo que seguramente incidió en la profundidad con que se vivió ésta en 2009.

A fines de 2010, ya superados los principales problemas de la crisis, el gobierno federal de EU hizo
pública su intención de iniciar un proceso de ahorro a fin de reducir el déficit público, cuya primera
medida sería recortar 60 000 millones de dólares en servicios personales mediante la eliminación
de plazas y el congelamiento de las remuneraciones a los funcionarios de alto nivel. Sin embargo,
lo que la oposición republicana exigía eran ajustes fundamentales en las áreas de salud, educación
y pensiones, en las que se centraba la política social de Obama. Como contrapropuesta, éste
solicitó facultades para aumentar los impuestos al gran capital.

La discusión se extendió hasta la víspera del 2 de agosto de 2011, cuando el Congreso autorizó al
Ejecutivo, finalmente, una ampliación del techo de endeudamiento del gobierno federal para
2012, anclado en 14.3 billones de dólares (más de 90% del PNB), sin lo cual se habría parado una

138
parte importante de las actividades del sector público y las calificadoras de inversión habrían
retirado el grado de inversión a la deuda soberana estadounidense.

Unos días después, el entonces hombre más rico del país, Warren Buffett, manifestó que no era
justo que mientras él pagaba 17.4% de impuestos sobre sus ingresos gravables, las otras veinte
personas que trabajaban directamente con él en su despacho pagaran en promedio 36%. Con
esto, se abrió la posibilidad para que, en el futuro, el Congreso aceptara aumentar los gravámenes
al gran capital.

El debate se repitió un año después, al discutirse el presupuesto federal para 2013. En esa ocasión,
los republicanos, con mayoría en la Cámara de Representantes, no cedieron y, finalmente, ante la
imposibilidad de obtener todos los recursos necesarios mediante un incremento en los impuestos
a los contribuyentes con mayor nivel de ingresos, los demócratas y el Ejecutivo aceptaron la
puesta en operación de un programa de reducción del gasto público equivalente a un billón 200
000 millones de dólares entre marzo de 2013 y diciembre de 2021, incluyendo intereses (CBO,
2013).

La cifra representa 0.8% del PNB estadounidense promedio anual durante el periodo, a precios de
2013 y para consolidarse implica recortes en el gasto de las agencias federales del orden de 85 000
millones de dólares en 2013 y 109 000 millones anuales entre 2014 y 2021, sin considerar
intereses. Las afectaciones mayores (- 13%) en 2013 recaen en programas de defensa, mientras los
que se hallan fuera de esa esfera experimentan recortes de - 9%. Algunos congresistas calcularon
que el impacto en el PNB del año sería de 0.6 puntos porcentuales y que se impediría la creación
de 750 000 nuevos empleos.

En el ámbito internacional se concertó una mayor coordinación con el Grupo de los 20 (G20), que
funcionó muy bien en la reunión de 2008 en Londres, pero se desdibujó en la de 2010 en Seúl,
sobre todo debido al anuncio de que la Fed relajaría nuevamente su política monetaria, lo que,
junto con el nivel excesivamente bajo de la tasa de interés de EU, fue visto por China, Alemania y
otras naciones con alto superávit comercial como un debilitamiento deliberado del dólar a fin de
devolver competitividad a la economía estadounidense y arrojar más de esta divisa a los mercados
del mundo sin importar sus pares del G20.

Esto se confirmó para el caso de diversas economías emergentes desde abril de 2009, como se
puede observar en la gráfica 22a, así como para el yen japonés, a partir de octubre de 2010
(gráfica 22b), y para el euro, desde junio de 2010 (gráfica 22c).

III. De la crisis financiera al alto y persistente nivel de desempleo

Mientras estaba en auge el sistema financiero, entre los años de 2004 y 2007, las ganancias
personales e institucionales crecían aceleradamente al mismo tiempo que las tasas de interés se
mantenían bajas, lo que hacía que todos los actores se sintieran satisfechos.

Así, siguieron apostando a esta espiral ascendente de ganancias hasta la primera mitad de 2008, a
pesar de que por lo menos los banqueros y las más altas autoridades del gobierno federal
estdounidense y la Fed se dieron cuenta, desde 2007, que la burbuja financiera explotaría en algún

139
momento. Cuando se hizo evidente que esto iba a suceder, guardaron su dinero, los bancos
dejaron de prestarse entre sí y sobrevino el así llamado credit crunch.

En esta vorágine, las primeras instituciones que se debilitaron, sucumbiendo algunas –aunque la
secuencia se dio de manera muy rápida–, fueron los bancos de inversión. En segundo lugar, las
calificadoras se retractaron del elevado puntaje que habían otorgado a títulos de dudosa solvencia
y composición, como los fondos de protección. En tercer lugar, las aseguradoras empezaron a
quedarse sin recursos para respaldar los vehículos especiales de inversión, particularmente los
derivados que tomaron como subyacente el valor de los créditos hipotecarios subprime.

En cuarto lugar, cayeron o se descapitalizaron los bancos comerciales generales y especializados


en pensiones que otorgaron directamente dichos créditos, quedando inermes frente a los
problemas de sus clientes físicos e institucionales. Y en quinto lugar, la cúpula del sector, es decir
la Fed y los órganos que directamente dependen de ella, se mostró omisa, evidenciando su escaso
control, como habría de reconocer quien fuera su dirigente hasta febrero de 2006, Alan Greenspan
(2007), y ratificarían analistas de corte liberal bien documentados (Krugman et al., 2008).

En todo este proceso, el índice Dow Jones, cuyo pico histórico había sido de 14 164 puntos, en
octubre de 2007, cayó a 6 547 puntos en marzo de 2009, es decir, perdió 54% de su valor (gráfica
4), equivalente a poco más de 7 billones de dólares, o 50% del PNB de EU, si se guarda la
proporción entre ambas variables reportada en la recesión de 2001-2002 (Gutiérrez, 2004). La
cifra es dramática teniendo en cuenta que más de la mitad de los jefes de familia estadounidenses
arriesgan su capital en la bolsa de valores, lo que implica que con la recesión no sólo vieron
afectada su riqueza, sino que muchos inversionistas se empobrecieron.

Mientras tanto, las instituciones financieras se apartaron de los reflectores, declarándose sin
fondos y, por tanto, sin posibilidad de regresar a los ahorradores privados e institucionales al
menos una parte de los recursos perdidos. Esta actitud la mantuvieron inclusive cuando recibieron
recursos de los fondos de rescate de las administraciones Bush y Obama; de ahí, el malestar de
éste, que acusó a los financieros de Wall Street de ser los principales causantes de la crisis, no
apoyar la recuperación del poder adquisitivo de los ahorradores y disponer de parte de los
recursos recibidos para financiar los bonos de actuación y retiro de sus altos funcionarios:
privatizaron las ganancias y socializaron las pérdidas.

Obviamente las cosas no quedaron sólo en la reducción de la capacidad de gasto de las familias
por la difuminación de su ahorro. El consecuente credit crunch afectó el consumo personal e
institucional, la inversión y las necesidades de importación de EU, es decir, los componentes
centrales de la demanda efectiva; lo único que quedó como salvación fue el gasto público. La
contracción de las compras al exterior, junto con los problemas que vivían países como Reino
Unido y en menor medida otros europeos que siguieron el modelo de desregulación financiera
estadounidense, así como la escasez global de crédito, hizo que la crisis se internacionalizara, no
obstante que a consecuencia de la política monetaria instrumentada los bancos centrales de
dichos países mantuvieron baja la tasa de interés de referencia (gráfica 21).

En el sector real de la economía, por su parte, no sólo se redujo el PNB mundial, como se mostró
en la gráfica 23, sino que desde la conclusión de la segunda Guerra Mundial el volumen de bienes
comerciados sufrió la más importante contracción, – 11.0% (IMF, 2010).

140
Es decir, existe una cadena de causalidad en las crisis que tiende a repetirse una y otra vez:
primero se registra un periodo de exuberancia financiera, con tasas de interés muy bajas y alta
inversión en instrumentos de riesgo, que van desde acciones cotizadas en el mercado bursátil
hasta otros cuya naturaleza tiende a cambiar con el tiempo, dependiendo de lo omisas que sean
las autoridades financieras.

Posteriormente, cuando se percibe y generaliza el riesgo implícito en los instrumentos de renta


variable, los mercados financieros locales en su conjunto se deprimen, las tasas de interés son
presionadas al alza, se reduce el crédito interbancario y con éste las posibilidades de
financiamiento tanto al consumo como a la inversión. Dadas las correas de transmisión que
impone la globalización, dicha secuencia afecta los mercados financieros del resto del mundo.

El proceso anterior repercute, en segunda instancia, en la capacidad de consumo no solameante


del o los países que originan la crisis, sino también de sus principales socios comerciales. Al
resultar contaminada la economía real, se generaron -en tercera instancia-, inventarios
indeseados, sobre todo de bienes duraderos y suntuarios, los cuales no pueden ser vendidos ni en
el interior ni en el exterior. Esto provoca, en cuarta instancia, que se contraigan el comercio y el
producto mundiales. Por último, tuvo lugar un deterioro del mercado de trabajo por dos vías: la
caída de los salarios reales y la disminución de las oportunidades de empleo.

Evidentemente, la corrección del mercado laboral en tiempos de crisis no es una cosa fácil. Por
ello, para ser capaces de visualizar la importancia de las correcciones que ha seguido la Fed desde
el inicio de la crisis, es un ejercicio altamente significativo elaborar una gráfica en la que se
relacione en un plano cartesiano la ocupación (variable independiente, en el eje de las abcisas) con
la tasa de interés (variable dependiente, en el eje de las ordenadas), aunque los resultados de
dichas correciones no necesariamente son los mismos en Europa, donde los mercados laborales
son más rígidos.

Si se asume que la tasa de interés es perfectamente flexible y, por tanto, capaz de eliminar el
desempleo no deseado, así como, en su caso, el exceso de demanda de fuerza de trabajo más allá
del pleno empleo, la oferta de mano de obra deberá representarse como un línea perfectamente
inelástica (vertical) y la demanda como una línea de pendiente negativa. En este marco, una tasa
de interés alta hace que se pospongan decisiones de inversión y consumo y que el producto y la
ocupación sean bajos; una tasa baja actúa en sentido contrario. Esto puede visualizarse en la
gráfica 25.

Cuando la economía enfrenta una crisis, ya sea por el lado de la oferta, como sucede con las crisis
financieras, que contraen el crédito, o por el lado de la demanda, debido a reducciones en el
consumo, la inversión, el gasto de gobierno y/o las exportaciones, la curva de demanda de mano
de obra se mueve hacia abajo e intersecta a la de la oferta en un punto en que la tasa de interés es
mucho más baja, a fin de propiciar el reequilibrio del mercado laboral. Es decir, sigue la secuencia
de la flecha de la gráfica, que muestra el traslado de una función de demanda de mano de obra en
condiciones normales a otra en condiciones de crisis. A partir de esta lógica, el colapso en la
construcción de casas habitación durante la crisis de 2008-2009 busca compensarse a través, por
ejemplo, de incrementos en los niveles de inversión y consumo de productos no durables.19

141
Entonces, la reducción de la tasa de interés tiene la capacidad de actuar como un restaurador del
mercado de mano de obra; pero ¿cuáles son sus verdaderos alcances? La tasa de interés nominal
más baja posible es cero; así, la tasa de interés real más baja debe ser menor a la tasa de inflación.
En el peor caso posible, la Gran Depresión de 1929-1932, el nivel de precios se redujo durante
varios años consecutivos y la tasa real de interés se siguió fijando en un nivel positivo. La gráfica 25
muestra de manera simple la implicación de fijar en cero la tasa real de interés, en vez de ubicarla
en –2.5%. Con una tasa cero se aprecia un exceso de oferta de fuerza de trabajo, que se
transforma en desempleo (Hall, 2011, pp. 433-434).

Lo anterior ayuda a comprender por qué la tasa de interés de fondos federales de EU se ha


mantenido en 0.25% desde fines de 2010: dicho nivel implica una tasa de interés real de alrededor
de –2.0%, considerando que la inflación promedio anual del país ha oscilado alrededor de 2.3% a
partir de 2010.20 Aun así, la tasa de desempleo sigue siendo alta y altas tasas de desempleo
conducen, en última instancia, a aumentos de la pobreza, la desigualdad y la exclusión social; de
ahí, la importancia de concentrar esfuerzos en su abatimiento (OECD, 1994).

En la práctica, la tasa de interés es insuficiente para corregir los problemas del mercado laboral
por una simple y sencilla razón: el hecho de que el crédito sea barato y los productores estén
dispuestos a recurrir a los banqueros para solicitarlo no implica que éstos lo van a otorgar.

Ante la dificultad de los gobiernos para obligar a los bancos a otorgar créditos, la política
económica recurre a diversas acciones paralelas: a) el estímulo al consumo mediante la reducción
de impuestos (medida que no funciona si las familias optan por ahorrar esos recursos, como
sucedió en Japón durante la recesión de los noventa, supuestamente por encontrarse la economía
cerca de una trampa de liquidez); b) el estímulo a la producción de las empresas y, por tanto, a su
capacidad de seguir empleando gente, mediante la reducción de impuestos; c) el aumento del
gasto público en rubros de carácter social y de defensa; d) la mayor circulación de dinero mediante
operaciones de mercado abierto, e) la recapacitación de los trabajadores por parte de las
instancias gubernamentales, y f) la depreciación inducida de la moneda local para devolver
competitividad a las exportaciones.

3.23. ¿CUÁL ES LA VALIDEZ HOY EN DÍA DEL USO MÁS FRECUENTE DE LA


TARJETA DE CRÉDITO EN EL MERCADO?

El enorme desarrollo comercial interrelacionado con el auge de la producción y el consecuente


desarrollo de la sociedad de consumo ha encauzado a las distintas empresas productoras, sean
financiadoras de bienes y servicios a utilizar la mas variadas formas de ventas y créditos, entre las
cuales para el tema de estudio del presente trabajo es la "importancia de la tarjeta de crédito". La
incorporación en el devenir económico financiero de la tarjeta de crédito para el consumo, ha
influido no solo en la economía nacional sino internacional haciendo cada vez más inevitable su
utilización.

142
La importancia del tema a investigar destaca en nuestro interés personal para conocer más sobre
las tarjetas de crédito y su importancia ya que creemos conveniente estar familiarizado con el
desarrollo de los medios de pago y su uso adecuado para el bienestar de las finanzas personales.
Por lo tanto el objetivo de este trabajo es conocer la importancia de la tarjeta de crédito, el
funcionamiento en la economía como recurso para adquirir bienes y servicios necesarios para la
vida cotidiana.

Las alumnas…

Importancia de las Tarjetas de Crédito

En la actualidad, las tarjetas de crédito han jugado un rol crucial al aportar al desarrollo de las
economías de los países más desarrollados; en la medida en que los consumidores llegan a tener
mayores facilidades para la adquisición de bienes y servicios, igualmente va creciendo la demanda
en los distintos sectores del mercado. Otro aspecto que marca la importancia de las tarjetas de
crédito es el hecho de que sirven para la adquisición de todo tipo de bienes de consumo masivo,
llegando a formar parte significativa hasta del presupuesto doméstico de muchos hogares. De ahí
que, de símbolosde alta categoría económica y social, las famosas tarjetas de crédito han pasado a
convertirse en una prenda más común.

Forma y origen

Materialmente la tarjeta de crédito consiste en una pieza de plástico, cuyas dimensiones y


características generales han adquirido absoluta uniformidad, por virtualidad del uso y de la
necesidad técnica.

Cada instrumento contiene las identificaciones de la entidad emisora y del afiliado autorizado para
emplearla; así como el periodo temporal durante el cual ese instrumento mantendrá su vigencia.
Suele contener también la firma del portador legítimo y un sector con asientos electrónicos
perceptibles mediante instrumentos adecuados. Estos asientos identifican esa particular tarjeta y
habilitan al portador para disponer del crédito que conlleva el presentarla, sin estampar su firma.

Con respecto al origen, podemos decir que apareció en los comienzos del siglo XX en los Estados
Unidos, en concreto; la idea surgió dentro de las oficinas del Chase Manhattan Bank, a manos de
su director, bajo la modalidad de tarjeta profesional, se insinuó con su forma mayoritaria
alrededor de la década de los años 1940 y tomó difusión desde la mitad del siglo.

La difusión internacional fue producto del empleo en otras naciones de las tarjetas emitidas en
aquel país, y del establecimiento local de sucursales de las emisoras durante las quinta y sexta
décadas.

Qué es la tarjeta de crédito

Una tarjeta de crédito es un instrumento financiero de pago, emitido por una entidad, que
permite al titular acceder a un saldo superior al disponible en su cuenta corriente, ya que el dinero
proviene de un crédito por parte de la entidad, que el titular debera amortizar posteriormente
conforme a los plazos y condiciones pactadas con su banco o caja de ahorros.

Formato de la tarjeta de crédito

143
Las tarjetas de crédito es una pieza de plástico con dos caras. En la cara superior aparece el
nombre de la entidad emisora y su logo tipo, el número de identificación de la tarjeta, la fecha de
vencimiento, el nombre del titular y el tipo de tarjeta. Por otro lado en la cara posterior aparece
una banda magnética y un espacio donde debe firmar el titular y donde está impreso un código de
validez de la tarjeta, CW (En ingles, Card Verification Value), que permitirá verificar si la tarjeta se
encuentra en manos del titular cuando realiza ciertos movimientos. El CW son los tres últimos
dígitos que aparecen impresos en el reverso de la tarjeta, en el caso de tarjetas VISA,
MASTERCARD O DINERS CLUB. En estas tarjetas AMERICAN EXPRESS,el CW consta de cuatro
dígitos y se encuentra en la cara superior por encima del numero de identificación.

Elementos presentes en una Tarjeta de Crédito

• Nombre del cliente

• Número del cliente

• Nombre de Institución Financiera

• Fecha de Vencimiento

• Holograma

• Logo de la Red de Cajeros u otros servicios

• Banda para la Firma

• Banda Magnética, que se encuentra al dorso y es una franja negra en la que se encuentran
grabadas informaciones vitales sobre la tarjeta.

• Información sobre el Emisor

Funciones de las tarjetas de crédito

El funcionamiento general de las tarjetas es relativamente sencillo desde un punto de vista


teórico. La entidad bancaria o emisora de la tarjeta pone a disposición del titular del "plástico" un
dinero al que éste puede acceder libre empente. Se trata de una especie de "préstamo" por un
periodo determinado hasta el periodo de liquidación, generalmente a un mes vista. Es decir, el
usuario puede hacer sus compras y al final de mes la entidad le cargará todos los gastos que haya
realizado. Si la cuenta corriente dispone de fondos se mantendrá el crédito y no habrá que pagar
ningún tipo de comisiones ni intereses, pero en caso contrario es cuando entra en funcionamiento
el mecanismo de préstamo de la tarjeta con sus intereses y comisiones.

Tipos de tarjetas y formas de pago

Aunque la mayoría de tarjetas de crédito operan de la forma anteriormente descritas, existen


diferentes fórmulas de pago y de acceder a ese "crédito", lo que hace que también haya distintos
tipos de tarjetas de crédito:

• Tarjeta de crédito clásica: son las más habituales, las Visa, Mastercard o American Express
que cualquier persona tiene en su cartera. El 100% del crédito se cobra a mes vencido, es decir,
todo el dinero prestado se devuelve pasado un mes (a veces dos) desde el momento de la compra.

144
El capital "prestado" durante ese periodo no se ofrece sin intereses siempre que sea capaz de
pagar una vez termina ese periodo de gracia. En caso de que no disponga de saldo se comenzarán
a cobrar intereses como parte del préstamo. Su crédito oscila normalmente entre los 600 y los
1.200 euros al mes.

• Tarjetas oro y platino: funcionan exactamente igual que las tarjetas de crédito
convencionales, sólo que en este caso la línea de crédito es mucho mayor y suelen tener
aparejados una serie de servicios adicionales. En teoría están destinadas a los llamados clientes
VIP o que hagan un uso muy frecuente de su tarjeta.

• Tarjetas revolviese: todas las tarjetas de crédito funcionan aplazando el pago, pero las
llamadas de revolving tienen una operativa especial. Su uso está muy extendido en Estados Unidos
aunque no tanto en España y básicamente permite el pago aplazado mediante una cuota fija. Es
decir, parte de la base de un préstamo por el que el titular pagará una cantidad fija al mes en lugar
de tener que abonar todo de golpe una vez llegado el momento de liquidación. Así, el titular
puede gastar independientemente del capital que tenga en su cuenta y después elegir la cuota
que devolverá cada mes de ese dinero que ha tomado prestado. Su mayor inconveniente radica en
los altos intereses que cobran por estos préstamos, aunque a cambio los pagos mínimos son de lo
más flexible y generalmente no exceden el 5% del crédito convenido.

• Tarjetas de puntos: se trata de tarjetas de crédito que ofrecen ventajas adicionales como
programas de puntos para obtener viajes gratis, ahorrar en gasolina, descuentos en tiendas…

• Tarjetas de crédito virtuales: su funcionamiento es similar al de las tarjetas tradicionales


de prepago (hay que cargarlas con el dinero del que se quiere disponer) y la principal diferencia es
que en este caso no existe un soporte físico (plástico) para la tarjeta. Se utilizan principalmente
para el comercio en Internet a través de compañías como PayPal y otros medios de pago virtuales.
Además, generalmente pertenecen a los emisores y no a las entidades bancarias.

Clasificación de la tarjeta de crédito según el titular

• Tarjetas personales. Las mismas no pueden ser utilizadas por ninguna otra persona que no
sea el titular. Al momento de realizar una compra o una transacción, el titular deberá mostrar
además de la tarjeta de crédito, un documento que compruebe que efectivamente es el titular de
la tarjeta. Este tipo de tarjeta es la más fácil de obtener, basta que la persona tenga una hoja de
crédito limpia y una entrada solvente para solicitar tarjeta crédito. Luego de unos pocos minutos o
días (en el peor de los casos) el cliente tiene el plástico en su poder.

• Tarjetas corporativas o empresariales. Las mismas están pensadas para ser utilizadas por
los empleados de la empresa solicitante. A cada empleado de la empresa se le otorga una tarjeta.
Es la empresa en este caso la que decide si se le da la tarjeta a un empleado o no.

Este tipo de tarjetas muchas veces vienen de la mano de un débito automático del sueldo del
trabajador. Es decir el empleado hace compras con la tarjeta, el estado de cuentas pasa a la
empresa y la empresa misma deduce los gastos del líquido a percibir por el trabajador cada mes.
En alguno de los casos esto no ocurre y en otros el trabajador tiene la posibilidad de informar el
plan de pagos en el que abonará la tarjeta.

145
Podemos decir entonces que una tarjeta corporativa es la mejor tarjeta crédito en lo que tiene
que ver con el control que la empresa puede realizar sobre los gastos de sus empleados. Es más, si
la tarjeta se limita a realizar gastos para la empresa, es una forma importante de controlar gastos
excesivos.

• Tarjetas industriales. Las mismas se limitan a financiar compras institucionales a distintos


proveedores ya sea de servicios como de mercadería. Son tarjetas especialmente emitidas con el
fin de ordenar aún más los gastos de la empresa. Por lo general su uso está acotado y no todos los
empleados de la empresa tienen acceso a la misma, reservándose a directores o gerentes de
compra o venta. Muchas veces este tipo de tarjeta es solicitada para operar en una o varias
instituciones en particular.

Clasificación de la tarjeta de crédito por su naturaleza y su objetivo final

Existen distintos tipos de tarjetas por su naturaleza y su objetivo final. El primer género de estas se
dividen en locales e internacionales, dependiendo del alcance que posean en cuanto a su
capacidad de realizar transacciones en moneda diferente a la del país de origen.

- Tarjetas de Crédito Internacionales: se pueden utilizar en la compra de artículos en cualquier país


del mundo, mientras que las Tarjetas de Crédito Locales se limitan a la realización de transacciones
meramente en la moneda y país de su emisión. - Tarjetas de Crédito Convencionales:son las que
permiten al usuario pagar los consumos realizados a través de ella, ya sea por medio de plazos
mensuales y/o una línea de crédito giratoria con el límite establecido por el ente emisor. Si se paga
el monto adeudado completo al final del mes, no se cobran intereses. Más, sin embargo, si resta
un saldo acreedor al banco, este cobra los intereses a una tasa anual preestablecida, la cual difiere
de acuerdo a la institución emisora. -Tarjetas Premier: son iguales a las anteriores, pero con límites
mayores de crédito, además de ciertos tipos de preferencia. Estas pertenecen cada vez más a un
reducido mercado de usuarios dentro del mercado total de tarjetahabientes. Otro tipo son las
Tarjetas Corporativas que se emiten a favor de una compañía o institución, igual a las tarjetas de
crédito privadas, con las cuales se pueden adquirir artículos sólo dentro de la empresa emisora de
la misma.

Beneficios de las Tarjetas de Crédito

Beneficios Económicos:

-Crédito de 30 días, automático y sin intereses. -Crédito a mediano plazo sin intereses. -Aumento
de crédito automático según historial de pago.

Beneficios en cuanto a la Seguridad:

- No se necesita andar con mucho dinero en efectivo. -Se puede adquirir bienes y servicios hasta
los límites de crédito. -Protección personal contra accidentes en viajes.

Comodidad y Rapidez:

-Permite dinero en efectivo de los cajeros automáticos. -Facilidad de pagos de servicios a través
del teléfono: agua, luz, teléfono, comida rápida. Flexibilidad: - Permite reservación y alquiler de
carros y hoteles. -Facilidad de financiamiento a través de extra crédito a prueba hasta 25% de

146
sobregiro gratis.Prestigio y Elegancia: -El tarjetahabiente es considerado como una persona moral
y económicamente solvente. -Le confiere al usuario prestigio y confiabilidad. Control: - Permiten la
verificación y el control del balance de los gastos realizados.

Ventajas y Desventajas para el usuario de las Tarjetas de Crédito

Ventajas para el Usuario:

• Se ofrece crédito inmediato en numerosos establecimientos de todo el país y de todo


género para la adquisición de bienes y servicios, sin que exista necesariamente alguna relación
entre el tarjetahabiente y el establecimiento afiliado.

• La sustitución de manejo de efectivo y el uso de cheques mediante la emisión de un solo


cheque mensual.

• El prestigio que aporta al usuario, ya que constituye un medio de identificación y


confiabilidad, entendiéndose que todo poseedor de una tarjeta de crédito ha sido debidamente
depurado y puede considerársele una persona económica y moralmente solvente.

• Sirve para mejorar la administración del dinero propio.

• Para control presupuestario, ya que con una sola fuente de información o estado de
cuenta se puede detectar con facilidad los excesos en algunos renglones y así facilitar el manejo
racional del presupuesto familiar.

• El tarjetahabiente no necesita portar grandes sumas de dinero, eliminando así los riesgos
innecesarios y evitando problemas ocasionados por la no aceptación de cheques.

• Sirven para resolver emergencias, enfermedades, visitas inesperadas, salidas


improvisadas, regalos de aniversario o cumpleaños, así como el aprovisionamiento de productos
comestibles y de todo género de necesidades en situaciones no previstas.

Desventajas para el Usuario:

• La pérdida de tiempo en la transacción mientras autorizan el crédito.

• La posibilidad de que se haga fraude en casos de mal uso intencional, robo o pérdida de la
tarjeta.

• Descontrol en gastos del usuario.

• Uso excesivo del financiamiento, lo que obviamente va encareciendo en forma creciente el


costo original de lo comprado.

• En cuanto a las desventajas que podrían enfrentar los establecimientos afiliados se pueden
mencionar:

• La principal desventaja que acarrea el establecimiento afiliado al aceptar el pago de


facturas a través del uso de tarjetas de crédito es la de no poder convertir facturas en efectivo en
un plazo menor de 48 horas, al menos que este posea una cuenta bancaria con el banco emisor de

147
la tarjeta, a través de la cual podrá realizar un depósito del monto de las transacciones de tarjetas
de crédito y girar sobre la misma casi inmediatamente.

• Otra desventaja es el tiempo incurrido en la confirmación y aprobación de un crédito


solicitado por un potencial cliente.

¿Cuánto se cobra por el uso de la Tarjeta de Crédito?

Cada uno de los cobros adicionales a los que correspondan al uso que le da el dueño de la tarjeta
por compras o avances, deben estar detallados en el Estado de Cuenta mensual.

Dicho cobros son los siguientes:

Intereses: se aplican cuando el monto utilizado para hacer compras u otras operaciones, no es
pagado completamente en el mismo mes en que se usó la tarjeta, o se efectuaron compras en
cuotas (excepto cuando se trata de promociones respetando el precio al contado).

Comisiones: son los cobros necesarios para la mantención operativa de las tarjetas descrédito en
sus distintas modalidades de uso, como por ejemplo, la comisión por mantención / administración
y otras comisiones asociadas a operaciones como avances en efectivos y compras en el exterior. El
plan de comisiones deberá informarse por escrito al menos con dos meses de anticipación a la
fecha en que se aplicará la nueva modalidad de cálculo o cambio de tarifas.

Quién decide las tasas de interés que cobran en las tarjetas

Los bancos que emiten tarjetas de crédito usan varios factores para determinar la tasa de interés
que les cobran a sus clientes. Tienen sistemas de computación sumamente sofisticados que les
permiten calcular las tasas más altas que le pueden cobrar a cada cliente. Los factores que
determinan la tasa incluyen:

La economía

• Las tasas de interés promedias en la economía en general

• El nivel de competencia que existe entre los bancos para ofrecerte crédito

El banco

• La relación que tienes con el banco

• La condición financiera del banco

• La diversidad y calidad de clientes que tiene el banco

• La facilidad con la cual el banco puede o no "vender" las deudas de tarjetas de crédito a
otras financieras

El tipo de uso que le das a la tarjeta

• Si es para la compra de un producto o servicio

• Si es para un adelanto de efectivo

148
• Si es para una transferencia de balance de otra tarjeta

• Si el uso es parte de una promoción

El cliente

• Tu historial de crédito (especialmente tu récord de pagar o no a tiempo) y puntaje FICO

• Tu perfil financiero (deudas, ingresos, estabilidad de empleo)

• Tu relación con el banco

• Tu historial de pago con la tarjeta

¿La ley no limita cuánto me pueden cobrar?

Cada estado tiene leyes que limitan el interés que se puede cobrar en un préstamo. Las leyes a
veces son complicadas y varían dependiendo de varios factores como:

• el monto prestado

• el tipo de préstamo (si es para tu negocio o para arreglar tu casa o para un uso personal)

• quién está prestando (una persona o una empresa) y

• otros factores.

Si uno le presta dinero a alguien y cobra más que la tasa de interés permitida por la ley, las
penalidades por hacerlo son altas. En ciertos casos no sólo pierdes el derecho a tus intereses sino
que puedes perder hasta el dinero que prestaste. Por eso es muy importante –antes de prestar
dinero o tomar dinero prestado– saber cuál es la tasa más alta que se puede cobrar en el estado
donde vives.

Por ejemplo, en California…

En California los préstamos para motivos personales o familiares están limitados a una tasa del
10% anual en el saldo no pagado. Así que si alguien te presta 10,000 dólares hoy y le devuelves ese
dinero en un año, esa persona te puede cobrar $1,000 en intereses. Pero si tú pagas cuotas
mensuales, entonces cada mes sólo te pueden cobrar intereses en el dinero que aún te queda por
pagar, no los $10,000 originales.

Para los préstamos que no son para motivos personales o familiares, la tasa más alta que se puede
cobrar varía según una fórmula complicada y puede ser más alta que el 10%.

Para las tarjetas de crédito, estas leyes no se aplican. Los bancos que emiten las tarjetas de crédito
no tienen que guiarse por estas leyes estatales. Esta excepción para los bancos nacionales (los que
operan en más de un estado) comenzó en 1978 después de que la Corte Suprema del país –en un
caso famoso– decidió que la tasa de interés más alta que puede cobrar un banco en las tarjetas de
crédito debe determinarse por la tasa más alta en el estado donde está constituido el banco Y NO
por la tasa en el estado donde vive el usuario de la tarjeta.

149
Con esta ley, muchos bancos cambiaron la sede de sus divisiones de tarjetas de crédito a los
estados de South Dakota y Delaware. ¿Por qué? Porque esos estados tienen leyes que favorecen a
los bancos, permitiéndoles cobrar tasas altas.

Luego en 1980 otra ley expandió esta libertad de cobrar tasas altas a bancos estatales y otras
financieras. En 1999 la ley Gramm-Leach-Bliley eliminó una de las últimas barreras a las tasas altas
cobradas por los bancos.

Por eso, aunque vivas en un estado que limita la tasa máxima de un préstamo a 10%, las tarjetas
legalmente pueden cobrarte 30%.

3.24. ¿EL PROCESO DE INMIGRACIÓN QUE SUCEDE HOY A NIVEL


MUNDIAL ES POSITIVO O NEGATIVO?

Desde fines de siglo XIX hasta nuestros días se pueden identificar cuatro momentos significativos
sobre el fenómeno migratorio en América Latina y el Caribe: el primero se vincula con las
migraciones transoceánicas; el segundo, con las migraciones internas, producto de la crisis
económica en las décadas de 1930 y 1940; un tercero, con las transfronterizas; y un cuarto, con las
que se producen con la globalización, objeto de este trabajo.

La primera, desde fines de siglo XIX hasta mediados del XX, movilizó a 55 millones de europeos
aproximadamente y actuó como válvula de escape, posibilitando la organización o reorganización
de los estados europeos. La segunda, consecuencia de la crisis económica de 1930, afectó al
ámbito rural, generando una migración del campo a las ciudades. La tercera, producto de
conflictos políticos, económicos y sociales, generó una migración entre países fronterizos desde la
década de 1960. La cuarta se produce en las últimas dos décadas del siglo XX hasta la actualidad y,
según algunas estimaciones, ha movilizado en todo el mundo a más de 150 millones de personas
que actualmente no residen en su país de origen. Según la Cepal (2004), para el año 2000 vivían
fuera de sus países de origen 20 millones de latinoamericanos.

La paradoja actual reside en que la globalización debe, hipotéticamente, homogeneizar el


mercado planetario, en el cual existe una profunda desigualdad estructural. Pero en donde
realmente se constituye la globalización es en el imaginario social, constituido a partir del poder
de la industria cultural. Es decir, todo habitante del planeta debe tener acceso a la pantalla del
televisor, porque éste lo iguala, lo informa, mas allá de su nivel cultural, social o económico, sepa o
no leer y escribir. Eso lo convierte en un potencial consumidor y también lo obliga,
compulsivamente, a buscar la forma de consumir. En los inmensos territorios periféricos de la
globalización, las desigualdades cada vez son más profundas, y la exclusión aumenta en todos los
niveles.

Desde esta perspectiva, el académico y economista francés, Destanne de Bernis, en una entrevista
que le hicieron hace unos años atrás, desarrolló un argumento inquietante. Sostuvo que la
desigualdad y las penurias regionales, que caracterizan al actual capitalismo tardío, no son sólo un
periodo de ajuste, como lo afirman los economistas neoliberales; por el contrario, son indicadores

150
de que el modelo está bloqueado definitivamente en su expansión, que el mismo está en
descomposición, lenta pero irreversiblemente.

Además, afirmó, existe un factor sintomático de esta situación que puede acelerar el colapso, el
flujo migratorio. La migración es, para los 5 000 millones de excluidos, cada vez más informados de
su exclusión, la única posibilidad de incorporación al mundo del consumo, socializado
universalmente a través de los medios de comunicación de masas. La violencia, producto de la
pugna entre los masivos invasores y los 700 millones de consumidores, parece multiplicar
progresivamente sus explosiones moleculares a nivel planetario.

En este contexto, nos interesa abordar las causas, consecuencias, efecto e impacto de los
movimientos migratorios latinoamericanos en este nuevo siglo.

Tendencias actuales

Dentro del importante cúmulo de análisis existente sobre el fenómeno migratorio quisiera
destacar dos tendencias antagónicas a escala mundial. Ambas impactan sobre las sociedades tanto
de emisión como de recepción, y producen efectos positivos y negativos. La primera es aquélla
que se vincula con las situaciones de restricción migratoria, las cuales se pueden asumir como
políticas strictu sensu, derivadas de proyectos de diferentes estados o como parte de la propia
dinámica de acción de un gobierno para evitar flujos migratorios no deseados hacia y desde sus
fronteras. Este tipo de acciones se relaciona con los controles migratorios, la discriminación, la
exclusión y la persecución, entre otros. Esta situación restrictiva tiende a proponer la selección de
migrantes para permitir el acceso a un país, de acuerdo con las necesidades inmediatas que tiene
para cubrir puestos de trabajo. Ejemplo: Noruega, España, Canadá, Estados Unidos, entre otros.
Las condiciones resultan favorables para el centro que logra imponer un sistema de inmigración
selectiva. Atrae así a su sociedad a los científicos, tecnólogos y especialistas que le hacen falta para
cubrir sus propias necesidades. A este fenómeno migratorio se le ha llamado brain drain o 'drenaje
de cerebros'. El control del proceso migratorio lo tienen los países del Norte, quienes otorgan
visas, pero ya no masivamente, sino solamente a los que ellos seleccionan (Oteiza, 1986).

La segunda tendencia en la migración internacional es aquélla que se vincula con situaciones más
flexibles, las cuales proponen la libre circulación o movilidad, el asentamiento de las personas, el
respeto a los derechos humanos y a la igualdad de los derechos por sobre la nacionalidad de
origen. Esta tendencia se relaciona con las concepciones vinculadas a la socialización de las
relaciones humanas y el respeto a la alteridad.

Resquebrajamiento de las ideas originarias

Diversas causas han sido atribuidas a la decisión de emigrar. Para explicarlas se han postulado
diferentes teorías. Además, están los análisis que se realizan desde diferentes disciplinas, como la
Demografía, la Economía, la Historia, la Psicología, el Derecho, la Sociología, la Geografía, la
Ecología, la Ciencia Política, etcétera.

151
Las explicaciones que dan cuenta de los motivos de este fenómeno se vinculan con la falta de
trabajo, la persecución político-ideológica, la inseguridad producto de la violencia, las guerras, la
persecución étnico religiosa, los problemas socioeconómicos, el mejoramiento de la calidad de
vida, la búsqueda de desarrollo individual o familiar, oportunidades de empleo y educación,
acceso a bienes y servicios, entre otras.

La indagación y el análisis que se ha realizado sobre este fenómeno permiten afirmar que la
decisión migratoria, en última instancia, es una consecuencia de un complejo proceso. En el
mismo, el imaginario sociocultural, constituido históricamente, se resquebraja en su proyecto de
futuro ante la presencia de una realidad y de un discurso hegemónico, que quiebra las
expectativas de realización personal y de seguridad; no sólo económica, sino también política y
social. Para evitar el derrumbe personal se opta por tratar de escapar a esa situación angustiante,
tipo callejón sin salida. La emigración será la posibilidad de mantenerse aparentemente entero,
con la idea de que el nuevo país le permitirá encontrarse con aquellas cosas que le faltan en su
país de origen. Pero el conflicto no desaparecerá, se marchará con él, sin saberlo, por el resto de
su vida. De esta forma, sus temores serán negados, no tomará conciencia plena de su situación, lo
cual le impedirá revertir el proceso y quedará condenado a una falsa integración conformista, que
le imposibilita encontrar alternativas para mejorar su vida, de tal modo que la migración resulte
innecesaria.

La decisión migratoria, entonces, estaría fundada en una compleja combinación de factores


internos y externos; entre los externos más significativos destacamos:

1. Falta de alternativas para los logros ocupacionales.

2. Incertidumbre social sobre el futuro económico.

3. Inseguridad general frente al crecimiento de la violencia.

4. Necesidades básicas insatisfechas.

Entre los factores internos destacamos:

1. Frustración en las expectativas de vida.

2. Frustración en la realización personal.

3. Mandato generacional ligado a la comunidad de la cadena migratoria familiar.

4. Acceso a la información acerca de las opciones en el exterior.

5. Convicción de la imposibilidad de la realización ético-valorativa en la sociedad de origen.

Como afirma Maslow, el ser humano está objetivamente orientado hacia la búsqueda de metas y
objetivos para la satisfacción de sus necesidades, tanto biológicas como cognitivas, y en los países
expulsores, las condiciones para lograr esos objetivos están cortadas por la situación de crisis
permanente y violencia perpetua. Además, atendiendo también a las argumentaciones de
McCleiland, estaremos nuevamente ante una situación en donde la emigración puede aparecer
como una alternativa posible, dado que, según dicho autor, todas las necesidades son

152
aprehendidas, hasta el punto de crear un ambiente propicio para modificar cualitativa y
cuantitativamente la necesidad de logro y el nivel de aspiraciones.

A partir de este planteamiento general surgen los siguientes supuestos:

1. La inseguridad laboral determina las causas de la frustración en la realización económica, lo cual


conduce a crear expectativas de encontrar una mejor situación de vida en el exterior de la propia
comunidad de origen.

2. La inseguridad que produce el aumento progresivo de la violencia social genera conflictos ético
valorativos, produciendo tendencias a abandonar la comunidad o el país de origen, según el caso.

3. La falta de acceso a oportunidades en la realización personal lleva a la frustración sociocultural,


lo que produce un descontento con la situación de la comunidad o país de residencia.

4. La migración de recursos humanos calificados es inducida y forma parte fundamental del


proyecto de concentración de la inteligencia de los países centrales.

Consecuencias generales

Los flujos migratorios producen, tal como afirmábamos al comienzo, una serie de consecuencias
relacionadas con el país de origen y con el país receptor. En el país de origen se podría disminuir el
conflicto social y político cuando un porcentaje importante de la población productiva decide
emigrar. Disminuirían así los niveles de desocupación y de descontento, ya que se crearían
posibilidades aparentes, producto de este movimiento de personas hacia otras regiones. La mano
de obra que se queda puede tener una mayor posibilidad de ingreso al mercado de trabajo,
porque ha disminuido la competencia. Esta última perspectiva, denominada válvula de escape, ha
sido aceptada por algunos marcos interpretativos que consideran la emigración de recursos
humanos, y sobre todo los calificados, como proceso de circulación de capital humano, lo cual
permite una asignación más eficiente de recursos en el ámbito mundial.

Por el contrario, otra visión sobre el tema es aquélla que plantea que con la pérdida poblacional
surge una disminución de las posibilidades de consumo en economías cuyo potencial de desarrollo
se basa, parcialmente, en la activación de su mercado interno.

Una tercera postura plantea que, con la emigración puede aumentar la capacidad de consumo de
aquéllos que se quedan y tienen un grado de parentesco con quien se fue; siempre y cuando el
emigrante se haya integrado a la sociedad receptora, de manera que esté en condiciones de
enviar a su familia una parte del dinero excedente que genere en el país receptor.

Para ello se condiciona a los sujetos de modo que tomen una decisión que, en general, nunca
terminan de procesar totalmente. En realidad, dicha decisión viene siendo el resultado del
mensaje introyectado, generador del consenso rutinario. Éste conduce a un conjunto de personas
a emigrar, como una salida a las limitaciones impuestas en el país de origen.

El imaginario sociocultural así constituido los determina, construyendo las fantasías sustentadas
en ciertos valores que subsumen a la población en interpretaciones falsas de la realidad.

153
Expresándose a partir de la frustración de la realización o desarrollo personal y la imposibilidad de
una movilidad social ascendente, una buena calidad de vida, o tan siquiera expectativas reales
para lograrlo. Su decisión estará determinada no sólo por una insatisfacción básica con respecto a
lo que su país de origen le ofrece, sino también por las oportunidades imaginarias que surgen de la
estructura del mercado de trabajo y el marco cultural y social general del país al cual se dirige.

Por estas razones, su decisión estará orientada a una emigración más definitiva que circunstancial,
lo cual se fortalece cuando el traslado se realiza a países donde el migrante supone que puede
asimilarse con su familia, en condiciones laborales y sociales más ventajosas que en su país de
origen.

La situación actual del capitalismo globalizado hace rato que dejó atrás la inocente o cínica idea de
McLuhan acerca de "la aldea global sin fronteras". Podríamos decir que la apertura relativa de las
fronteras es una forma perversa de extender la dominación de los países centrales o hegemónicos
a los periféricos o hegemonizados, a través de la explotación de la mano de obra de éstos a bajo
costo, y de sus recursos naturales.

Se discute sobre los inmigrantes ilegales, pero no cabe duda de que éstos pueden ser funcionales,
toda vez que cuando un grupo de interés o presión necesita mano de obra excedente, las
limitaciones migratorias desaparecen.

En el caso de los recursos humanos calificados (RHC), la selección para cubrir necesidades les
permite a los países centrales encontrarse con un sujeto en el cual no invirtieron nada, sólo se
benefician a partir de su potencial.

Imaginando las grandes oportunidades

El país receptor aparece, imaginariamente, como un espacio de grandes oportunidades e ingresos.


La búsqueda de mejores condiciones de vida motoriza los movimientos migratorios, cuyas
consecuencias políticas, económicas y sociales, provocan, en muchos casos, situaciones de
conflicto en el país receptor. Se puede incrementar la competencia laboral, pueden surgir nuevos
bolsones de pobreza, aumento de la discriminación, la xenofobia, etc. Puede ocurrir que los
trabajadores menos calificados se perjudiquen por la pérdida de empleos —que irán a parar a los
migrantes— o por la disminución de sus salarios.

Algunos de los efectos positivos de la emigración se relacionan con los logros comerciales que se
pueden desarrollar y con las remesas. Aquí me detendré para tratar este efecto que hoy está tan
de moda.

Las remesas son indicadores del efecto de la migración, consecuencia del conflicto social expulsor
de grandes contingentes de personas que envían dinero para que su familia intente salir de la
crisis económica, lo cual, supuestamente, disminuiría los niveles particulares del conflicto
socioeconómico de esa familia que recibe ese dinero. Se pretende hacer creer a las sociedades
receptoras de remesas que estas divisas contribuyen al desarrollo general de la economía del país
y, en realidad, si observamos con detenimiento los montos que llegan, cómo llegan y a quiénes se
dirigen, nos daremos cuenta de que es verdad que contribuyen, pero solamente como un

154
complemento del salario familiar básico de aquellas familias más necesitadas. Me animo a decir
que, si estos montos viniesen en un solo paquete, podrían ser destinados a la puesta en marcha de
políticas sociales de diferente índole, pero como vienen fragmentadas en tantos pedazos como
migrantes envían dinero, sólo pueden ser utilizadas para el consumo familiar.

Si realizamos la misma ecuación que hacen los analistas macroeconómicos para saber el ingreso
per cápita de un país, y dividimos la cantidad de dinero que llega por remesa sobre la cantidad de
población, nos encontraremos con que las sumas percibidas sólo alcanzarán para completar,
mínimamente, el salario básico familiar; y, aunque esto no es poco, sobre todo para familias en
situación de pobreza y pobreza extrema, no solucionaría el problema de las grandes mayorías
pauperizadas de nuestras sociedades subdesarrolladas.

En Argentina todavía no se tiene un conocimiento acabado acerca de la cantidad de remesas que


llegan desde el exterior, debido, sobre todo, a que no se ha desarrollado un sistema de control
para este tipo de ingresos. La misma situación se produce en gran parte de los países
latinoamericanos, salvo en aquellos casos donde éstas han pasado a ser parte sustancial de las
economías nacionales. Tal es el caso de México, Brasil, El Salvador, Cuba, República Dominicana,
Guatemala, Colombia y Ecuador, entre otros. En los registros oficiales se pierde de vista el dinero
que se entrega en mano, cuando algún familiar, o amigo de viaje, visita el país receptor de divisas,
o cuando llega vía correo, en algún paquete o libro. Por ejemplo, para el año 2003, México recibió
por remesas un monto que se estima en 14 500 millones de dólares, y para 2005, casi 22 000
millones. A República Dominicana llegaron ese año alrededor de 2 700 millones. En 2003,
Colombia recibió por remesas, 2 400 millones, y en 2005, 3 800 millones. El Salvador ha informado
que para 2003 recibió la cifra de 2 000 millones y para 2005 trepó a 2 800 millones. Las cifras de
Guatemala para 2003 fueron de 2 000 millones. Y para Cuba, en el mismo año, las remesas
sumaron alrededor de 1 000 millones, antes de las prohibiciones realizadas por el gobierno de
Estados Unidos para el envío de remesas en forma general. Ecuador ha recibido en 2003 alrededor
de 1 000 millones y en el 2005, 2 260 millones de dólares. Todas estas cifras son mencionadas por
el Banco Mundial en diferentes informes. Si tenemos en cuenta la cantidad de población total de
cada país y su producto interno bruto, estaríamos observando que los montos recibidos
ascienden, en la mayoría de los casos, a 10 por ciento de lo que al país ingresa por el total de
producción y exportaciones.

En el año 2005, según el Banco Mundial, las remesas de latinoamericanos y caribeños llegaron a 48
300 millones de dólares.

Entre los efectos negativos de la emigración, encontramos la pérdida de población


económicamente activa (PEA) de jóvenes, y por ende, el envejecimiento de la comunidad, la
merma de RHC, la fragmentación familiar y los problemas psicosociales que la migración produce,
tales como los derivados por la pérdida de un miembro de la familia, y los problemas personales y
emocionales que las parejas casadas deben enfrentar debido a la separación física.

Con respecto al costo que representa este tipo de emigración para los países en desarrollo,
diversas estimaciones han intentado una cuantificación del mismo. Así, un trabajo efectuado en
Canadá planteó que los países del Tercer Mundo habrían contribuido con 10 000 millones de
dólares por este concepto en los últimos 25 años. En Hong Kong, el cálculo de graduados

155
migrantes entre 1987 y 1989 representaría 74 400 años hombre de enseñanza universitaria. El
costo del capital humano aparece así como una transferencia que los países en desarrollo estarían
efectuando, en la cual puede cuantificarse el valor que representa la reproducción y capitalización
de dichos recursos.

Sin duda, y en virtud de la realidad que nos impone el momento histórico en el que vivimos, la
migración de RHC es inducida y forma parte fundamental del proyecto de concentración de la
inteligencia de los países centrales. Por otro lado, para países ya pobres en capital físico, la pérdida
de su capital humano más valioso puede, eventualmente, llegar a constituir uno de los más serios
obstáculos en sus procesos de desarrollo.

Entre los efectos positivos de la inmigración encontramos la incorporación de mano de obra, el


incremento del consumo, la recaudación a partir del pago de impuestos.

Entre los efectos negativos podemos mencionar el problema de la integración y adaptación, la


competencia laboral, los nuevos bolsones de pobreza, el aumento de la discriminación y la
xenofobia, la disminución de los salarios de los trabajadores nativos por la competencia con los
migrantes, la selección de mano de obra (ejemplo: ley de extranjería de España). Si a esto le
sumamos que los gobiernos no tienen políticas sociales y demográficas coherentes para afrontar
los problemas de la migración, y que la población migratoria irregular presiona sobre el mercado
de trabajo, observaremos cómo los efectos de los movimientos migratorios impactan en el
mercado de trabajo, en el sistema de salud, en los servicios públicos (agua, electricidad) y en todas
las estructuras de los países emisores y receptores.

Aunque el proceso migratorio implica considerables esfuerzos y sacrificios para los trabajadores
migrantes, sus penurias no terminan al llegar a destino. Por el contrario, allí deberán sortear
obstáculos mayores, ya que se enfrentarán a múltiples formas de discriminación en el trabajo que
desempeñen, en los salarios que perciban, en su carrera laboral y en los riesgos del desempleo
(Stalker, 1994).

Duras condiciones de trabajo para su propia manutención, para recuperar lo pagado a los
intermediarios y para ayudar a sus familiares. Los sueldos que perciben los migrantes son bajos
porque los empleadores aprovechan su condición de ilegalidad y su desamparo jurídico, trabajan
más horas, no les pagan lo acordado y les retienen los documentos para que no se quejen ni se
vayan. Adicionalmente les son denegados sus derechos laborales, incluida la libertad sindical, y
tampoco tienen ante quién quejarse por temor a la deportación. Por parte de los empleadores,
ocurre la evasión del pago de impuestos, toda vez que el trabajador ilegal no es declarado
fiscalmente y tampoco se les incluye en los programas de seguro social. Se le presentan obstáculos
para su integración cultural. Tiene dificultades para capacitarse. Estas son algunas de las
condiciones con las que deben enfrentarse los migrantes en los países de recepción.

Irregulares, ilegales o clandestinos

Cuando se contrata, transporta y emplea a trabajadores migratorios en desafío de la ley, sus


derechos y libertades fundamentales corren mayores riesgos. La pobreza masiva, el desempleo y
subempleo existentes en muchos países en desarrollo ofrecen a empleadores y agentes privados

156
sin escrúpulos un terreno fácil para la contratación. En algunos casos, el traslado clandestino de
los trabajadores adquiere carácter de operación delictiva.

Desprovisto de condición jurídica o social alguna, el trabajador migratorio ilegal es, por naturaleza,
objeto de explotación. Queda a merced de sus empleadores y puede verse obligado a aceptar
todo tipo de trabajo, en cualquier condición laboral de su vida. En el peor de los casos, la situación
de los trabajadores migratorios es similar a la esclavitud o al trabajo forzoso. El trabajador
migratorio ilegal rara vez trata de buscar justicia, por temor a ser descubierto y expulsado, y en
muchos países no tiene derecho de apelación contra decisiones administrativas que le afectan.

Otra de las formas de impacto de los movimientos migratorios se da a partir del desplazamiento
de la mano de obra nacional de las áreas rurales, especialmente fronterizas, donde se prefiere
emplear inmigrantes ilegales, por sus niveles de eficiencia y los bajos sueldos que devengan.
También sobre el Sistema de Salud, en particular en hospitales y centro de salud rurales, que se
ven desbordados en su capacidad de atención a la población en general. El retorno de ciertas
enfermedades, que se consideraban erradicadas, por cuanto la población que ingresa en
condiciones de ilegalidad no se somete, ni es sometida, a controles higiénicos sanitarios debido a
su propia situación jurídica irregular; aumenta la demanda sobre el servicio educativo y la
matrícula escolar; se produce la invasión de terrenos municipales y privados en forma ilegal y
proliferan una serie de actividades ligadas a la economía informal, el juego de azar y la
prostitución, así como el incremento en el tráfico y consumo de drogas.

Desde la alimentación, hasta los usos más abstractos e intangibles, como la oración y los rituales
religiosos particulares de la región de origen, son parte de la cultura con la que viajan los
migrantes, conservando sus símbolos sociales y recreando espacios para mantenerla.

¿Es posible la integración?

Cuando hablamos de integración pensamos en el tipo de integración y quiénes son los que se
integran o se quieren integrar.

En cuanto a los sujetos migrantes, la integración va a depender de un conjunto de factores que


tienen como origen no sólo y principalmente al migrante, sino a la comunidad de recepción. Pero
dentro de esta sociedad, a los sectores dominantes y a la cultura construida sobre la base de una
serie de intereses sociopolíticos concatenados a lo largo de su historia. Una prueba fehaciente de
esta situación se puede observar a través de los diferentes procesos por los cuales atravesó
nuestra historia a lo largo del tiempo. Los sectores subalternos de la sociedad civil fueron
asimilando una serie de mensajes, que condicionaron su conducta, y los fue progresivamente
disciplinando, a tal punto, que la transmisión de aquellos mandatos originales estaba asegurada
debido a que las nuevas generaciones serían educadas bajo esos mismos preceptos.

Ahora bien, cómo se puede integrar un conjunto de personas en una sociedad que no ha sido
educada para la integración, y que, por el contrario, recibió una educación basada en el prejuicio
hacia todo aquél que no fuese un connacional o, por lo menos, un parecido.

157
En Argentina, por ejemplo, han llegado importantes contingentes de extranjeros de diferentes
lugares del mundo, su recepción fue y es bastante conflictiva. Las relaciones sociales y políticas
que se establecieron con aquéllos que debían integrarse en una sociedad deseosa de incorporar
europeos del norte, se encontró con que los que llegaban eran del sur, y no sólo del sur de Europa.
Además, muchos de los recién llegados estaban politizados, y no muy de acuerdo con la
idiosincrasia dominante de la época oligárquica (fines del siglo XIX y principios del siglo XX). "Los
llamamos, ¿los expulsamos?", podrían preguntarse en aquellos tiempos los políticos de turno.
Pero se necesitaba mano de obra, y no todos eran revoltosos; había que subordinarlos a las ideas
dominantes de la época.

De esta manera se puso en marcha un complejo mecanismo ideológico, a partir del cual se
atemorizó a la población nativa, y también a la migrante. Se persiguieron a los más peligrosos, y se
expulsaron a otros tantos. Se discriminó a todo aquél que pudiese atentar contra el orden
establecido poniendo en tela de juicio el 'progreso' que tanto había costado obtener.

Pero esta conducta social no fue fruto de la coyuntura. La historia de aquéllos que conquistaron y
colonizaron diferentes regiones del mundo no se diferenciaba demasiado respecto a las formas en
que trataban al 'otro', ya que la cultura que transmitían estaba plagada de historias de
discriminación, prejuicio, persecuciones y muerte. El único objetivo era imponer un proyecto
político, social y económico determinado.

El inmigrante será en América Latina el clásico destinatario de un doble discurso político en el que
se vinculan dos conceptos antagónicos: exclusión e inclusión.

Los múltiples estudios sobre racismo y etnocentrismo giran alrededor del rechazo o la aceptación,
siempre relativa del 'diverso'.

Desde nuestra perspectiva, la actitud de una sociedad hacia la diversidad responde a una serie de
motivaciones profundas y complejas, que no sólo operan en la sociedad receptora, sino en el
ámbito extrasocietal al cual está relacionada y al momento sociohistórico que le tocó vivir.

En la conformación de esta actitud tiene un papel importante la historia de la constitución


migratoria, el rango y nivel cultural y socioeconómico, las fantasías dominantes en el imaginario
colectivo sobre el otro. Nosotros creemos que todas estas dimensiones son importantes. Las dos
primeras definen el nivel de atracción de la sociedad receptora, las causas estructurales que la han
configurado como polo de referencia hacia los espacios limítrofes y no limítrofes. La tercera es de
un orden más complicado y requiere un análisis más detenido.

El que llega es un excluido, portador de una desigualdad originaria, pero además, es un expulsado
que ingresa a una sociedad, no sólo dominada, sino constituida por la desigualdad.

En América Latina, la aplicación del proyecto político-económico neoliberal está produciendo una
descomposición social progresiva, que conduce a amplios sectores de la sociedad a situaciones
límites con las cuales conviven, sin encontrar salidas para mejorar la calidad de su vida. Esta
situación ha profundizado la percepción de que 'afuera', en el extranjero, se puede llegar a estar
mejor. Esta imagen aparece sobre todo entre los jóvenes, y entre aquellos, jóvenes o no, que han
concluido una carrera universitaria. La sociedad y el sistema que la sustenta no les pueden dar
respuesta a sus necesidades, ya sean éstas laborales, económicas o políticas.

158
Los problemas que se manifiestan en el campo laboral son diversos. Los espacios están cada vez
más reducidos, y los trabajadores que quedan o surgen plantean una competencia. El empleador
juega con la posibilidad de elegir entre muchos candidatos, con acreditaciones en muchos casos
muy altas, con disposición a trabajar más horas por el mismo salario, y que son capaces de
absorber todos los mensajes que el sistema impone, estructurando y condicionando su conciencia.

"Pero el trabajo es escaso y en estas condiciones se deben aceptar las reglas de juego". La tasa de
desocupación y subocupación sigue creciendo, sobre todo si tenemos en cuenta que hay regiones,
ciudades y pueblos en donde no llegan los relevamientos que dan cuenta de este problema, donde
es muy importante la situación de pauperización por cierre de industrias y fuentes de trabajo en
general, o por catástrofes climáticas.

Los 58 latinoamericanos que abandonan cada hora sus países en busca de un futuro mejor
exponen el fracaso de las políticas sociales y económicas de la región, y conforman la trama de un
nuevo mestizaje cultural. Esos latinoamericanos, 1 388 cada día, 500 000 cada año, se marchan de
sus países "con la intención de no regresar", concluye el estudio Migraciones y niñez: deshaciendo
el futuro, realizado por la Consultoría para los Derechos Humanos y el Desplazamiento (Codhes)
de Colombia.

A modo de ejemplo se podrían destacar las migraciones de los siguientes países:

Desde Ecuador, la emigración con origen rural predominante es de alrededor de 530 000
personas, las cuales habrían salido y no retornado a su país entre enero de 1992 y abril de 2001;
de ellas, 350 000 habrían salido en los recientes tres años. Hasta 1997, eran de clase media y
trabajadores independientes, y en menor número agricultores. Los motivos están relacionados
con los efectos en el salario y los niveles de desocupación del proceso de transformación del
Estado y de ajustes en la empresa privada. Después de 1998, la emigración se nutrió
principalmente de sectores campesinos indígenas. El destino fundamental de esta migración es
España y Estados Unidos.

En Venezuela, país que hasta la década de 1970 tuvo un alto nivel de inmigración, primero
europea y luego latinoamericana, la emigración que se está produciendo es de clase media
fundamentalmente, con un nivel educativo medio alto, profesional. Los motivos están vinculados a
la situación socioeconómica crítica, producto de los conflictos políticos desatados por el
enfrentamiento entre el gobierno y los sectores económicos dominantes tradicionales.
Inseguridad social, violencia creciente, alto nivel de desocupación y subocupación, sobre todo a
partir del paro general empresarial, que duró casi tres meses. El destino fundamental de estos
migrantes es Estados Unidos, Italia, España y Portugal (doble ciudadanía).

En Colombia, la violencia y la crisis económica han sido los motores de la expulsión. Entre 1996 y
2001, 1.36 millones de personas se marcharon para no regresar. Los principales países receptores
fueron Estados Unidos, España, Canadá y Venezuela. En este último país, ya han regularizado su
situación legal 186 mil colombianos, mientras otros 400 mil esperan obtener la ciudadanía, y
alrededor de 640 mil permanecen en forma ilegal.1

También en los recientes tres años emigraron dos millones de brasileños hacia Europa, Japón y
Estados Unidos, fundamentalmente.

159
En Argentina, la emigración se disparó con el colapso económico de los recientes dos años. Desde
1950, la cifra anual de emigrantes se mantuvo en 12 000, pero entre 2000 y 2002 se marcharon de
Argentina alrededor de 200 000 personas.

Desde República Dominicana, se calcula una emigración de alrededor de 900 000 personas, lo cual
contrasta con 450 000 que ingresaron a ese país desde Haití.

Estas cifras convierten a América Latina en la región del mundo con mayor crecimiento de
migración. En la década reciente, el equivalente a toda la población de Perú, unos 25 millones de
personas, emigró hacia Estados Unidos y Europa, y en menor proporción a países vecinos.

Presente y futuro de las migraciones hacia América Latina

Como resultado de un trabajo de observación, indagación y análisis del fenómeno migratorio que
vengo realizando en América Latina y Europa, surge un nuevo proceso, que ha comenzado a
desarrollarse y que tiende a ser muy significativo en el mediano plazo: la inmigración de europeos
de clase media, media alta y alta, hacia Latinoamérica. La región posee un inmenso territorio, una
gran cantidad de recursos naturales y poca población. Por ello, aparece como un excelente destino
para todos aquéllos que, ante el envejecimiento de su región de origen y la escasez de sus
recursos naturales, lo ven como una opción para mejorar su calidad de vida. A diferencia de las
migraciones de principios del siglo XX, estos movimientos son, por ahora, no muy significativos,
pero marcan una tendencia creciente, y no se producen como resultado de la crisis económica,
falta de trabajo o para 'hacer la América'. Por el contrario, los nuevos migrantes tienen un alto
poder adquisitivo y buscan un espacio en donde mantener una buena y tranquila calidad de vida.
Con el valor de una propiedad de cualquier ciudad europea de occidente, en América Latina se
puede comprar una extensión de tierra considerable, construirse una casa, o comprarla y vivir muy
bien.

Partamos de la base de que Latinoamérica, en general, es altamente atractiva para la inversión en


bienes escasos, como la tierra, la energía y sobre todo el agua. Bienes que, a su vez, generan
escasez en el primer mundo o en el viejo mundo. Por ejemplo, una época de gran y larga sequía en
el sur de Francia, España, Portugal e Italia, entre otros países, produjeron enormes pérdidas y un
incremento importante en los precios de los productos alimenticios. Así, la toma de conciencia de
dicha escasez es anunciada a la población, la cual deberá consumir menos, dado que se deben
prevenir las futuras sequías, controlando su uso y consumo. Ante tal realidad, podemos augurar
un futuro bastante complicado para las economías de aquellas regiones. Esto nos muestra cómo
los problemas derivados de la escasez del agua y lo que ello implica provocan que la región que
ocupa América Latina y el Caribe aparezcan como el reservorio, o la nueva morada para aquellos
habitantes de un mundo que se está resquebrajando. Ya en 1991, Wright R. y Mac Manis, en su
libro Futuro imperfecto, nos planteaban la explosión urbana y los conflictos que esto produce y
producirá. Si además observamos el incremento constante de las migraciones de la periferia hacia
los países centrales, y lo que ello produce en términos de convivencia y consumo, se puede
considerar que los espacios de nuestro continente aparezcan como aptos para una nueva
movilidad de sujetos, con un poder económico significativo, en términos comparativos, que les
permita instalarse sin mayores problemas, con una comodidad y seguridad mayor a la que tienen y

160
tendrán en sus países de origen. No debemos olvidarnos de proyectos como el que presentó el
gobierno japonés al gobierno argentino para instalar a sus jubilados en alguna región del país.

En este sentido, la compra de tierras por parte de capitales europeos, norteamericanos y


japoneses en el continente está a la vista. Repsol, previendo el agotamiento del petróleo, comenzó
a comprar tierras en la Provincia de Neuquén, Argentina, para la explotación agrícola,
concretamente para la producción de vinos. Me animo a decir que la intención, más que la
producción vitivinícola, es la de generar espacios en donde se construyan hábitat para estos
inmigrantes futuros, de clase media y media alta, que no puedan vivir en sus países de origen
producto de la escasez. La compra de tierras y propiedades en Centro América y el Caribe, donde
se están desarrollando actividades económicas, sobre todo en las zonas costeras, y la compra de
tierras en la amazonía por parte del Japón, para su "preservación", sumado a la intensificación de
la presencia norteamericana para "protegernos" del narcotráfico y el terrorismo en Colombia y
recientemente en Paraguay, son un claro indicio de la planificación sobre lo que deberá ser
nuestro subcontinente en un futuro próximo.

Sería muy larga la lista de ejemplos sobre cómo nuestra región está siendo incorporada al nuevo
proyecto de recolonización. Pero lo que no cabe duda es que ello, de una manera u otra, traerá
nuevos flujos migratorios hacia nuestros territorios.

Ante esta situación, cabe preguntarnos, ¿estamos preparados para incorporar a estos
contingentes de migrantes? Después de tantos problemas para ingresar a sus países, ¿cómo los
recibimos y recibiremos a todos aquéllos que decidan migrar a nuestro subcontinente? El mundo
de los próximos años traerá consigo nuevos conflictos y nuestra América Latina debe estar
preparada y prevenida para atenuar el impacto que esos movimientos producirán.

Observaciones finales

Los mensajes orientadores de opinión que contribuyen a formar la mentalidad a partir de la


ideología dominante o hegemónica de los sectores mayoritarios de la sociedad respecto al
funcionamiento social afectan a casi todos los sectores de la sociedad, incluso a aquéllos que
investigan sobre temas sociales.

Son los medios de comunicación los que se encargan de introducir en el imaginario sociocultural
aquéllas cosas que terminan siendo aceptadas y consensuadas en general como reales, aunque en
muchas ocasiones sean nada más que ilusiones o grandes falsedades.

La tercera hipótesis planteada por Susana Neuhaus en su trabajo Reflexiones sobre autoritarismo,
es pertinente para sintetizar lo expuesto:

Este estado de cosas se sostiene con el consumo general, que acepta la ficción de democracia (la
formalidad democrática que oculta la desigualdad y el carácter autoritario del poder real)
consenso inducido a través de una penetración ideológica que hace mantener una ilusión al
ciudadano común (Neuhaus, 1986).

El discurso hegemónico niega la realidad, fantasea con el desarrollo, falsea con la apertura (ya que
no es para todos), y muestra al mundo una imagen del país muy diferente a la realidad.

161
Los Estados manifiestan poco interés en el estudio de la importancia de los recursos humanos
formados en el país, pero esto no se traduce en el discurso, el cual opera a través de las fantasías
entendidas como 'representaciones sociales' que funcionan como mediadores ideológicos.

La presencia de los medios de comunicación en la construcción de estas representaciones sociales


es fundamental, sobre todo si tenemos en cuenta que cubren un tema en la medida que pueda
generar noticias atractivas por su contenido 'dramático y novedoso'. Pero en ningún momento
estas noticias se detienen en las causas más profundas del fenómeno, y cuando la 'exclusiva' se
agotó, dejaron de preocuparse por la situación.

"Allí donde los modelos migratorios tienen larga data, la migración tiene una influencia tan
profunda que puede llegar a convertirse en una institución nacional y en parte de la psiquis
colectiva" (King, s/f).

Estas prácticas, comunes en los medios de comunicación, no deberían resultar asombrosas, pero
la manipulación que se hace de la información, y en algunos casos el ocultamiento, debe llamar a
la reflexión para pensar cómo la opinión de la sociedad puede tener acceso al conocimiento de
éstas y otras situaciones conflictivas, que aunque parezcan superadas, o por lo menos sean
mostradas así, siguen latentes, ya que no se han resuelto las causas reales que las generan.

La respuesta neoliberal es simplista y engañosa: promete más mercado cuando, en realidad, es en


el propio mercado donde se encuentran las raíces de la exclusión y la desigualdad. Es en el
mercado donde la exclusión y la desigualdad se reproducen y se amplían. El neoliberalismo nada
nos dice acerca de cómo actuar contra las causas estructurales de la pobreza; por el contrario,
actúa intensificándolas (Gentili, 1996: 54-61).

Lo que ha permitido que este sistema siga funcionando en la cotidianeidad es la construcción de


una serie de representaciones que introducen en los sujetos un imaginario sociocultural que los
condiciona. De tal manera se produce esa influencia que los hace operar con el sentido común
como baluarte de un conocimiento vago y fragmentado, sin consistencia, acrítico y superficial.
Estas representaciones, manipuladas por los mensajes mediáticos, dirigen las conciencias por
caminos que generan un consenso rutinario, trazados por la tecnocracia que sirve a los fines de la
élite dominante.

El imaginario social instituye significaciones para cohesionar a los sujetos sociales, guiando las
subjetividades para construir realidades y crear de esta manera personalidades dependientes y
sumisas, seguidoras del proyecto impuesto, quienes desempeñarán papeles que pertenecen al
guión escrito por otros, dejándose llevar por los acontecimientos.

En esta situación, la actividad individualista supera cualquier posibilidad de construcción colectiva,


manifestándose, a través de la ruptura con el otro, el narcisismo y la vinculación enajenante con el
medio, entre otras cosas.

En palabras de Blas de Santos,

La incertidumbre por el porvenir rechaza la conexión con todo proyecto que desborde la certeza
en la salida por la propia iniciativa y la desconfianza en los proyectos colectivos. Estos últimos han
quedado asimilados traumáticamente al fracaso de las economías populistas y a la despiadada

162
represalia que desencadenó el paso a la acción directa, cuando grandes masas creyeron que había
llegado el momento de tomar el problema en sus manos, sin esperar soluciones de quienes no los
padecieran (Blas de Santos, 1995: 38).

Hoy por hoy, las soluciones difícilmente dependan de algunas acciones políticas. Los conflictos que
no se resuelven y que tienden a expulsar población desde América Latina hacia los países del
Primer Mundo responden fundamentalmente al modelo. El fin último es que los excluidos no
molesten. Entonces, las fantasías asociadas a la migración terminan siendo funcionales a los
objetivos del proyecto del modelo que nos domina. Esto es hegemonía.

La única forma de revertir este proceso es abrir nuevas fuentes de trabajo y estimular la
creatividad y el desarrollo del pensamiento crítico, mientras trabajamos en la transformación del
sistema imperante que nos domina y subordina a una cultura desigual y excluyente, la cual, de
acuerdo con Finkielkraut (1994) ha sido apoderada por la barbarie.

A la sombra de esa gran palabra, crece la intolerancia, al mismo tiempo que el infantilismo.
Cuando no es la identidad cultural la que encierra al individuo en su ámbito cultural, y bajo pena
de alta traición, le rechaza el acceso a la duda, a la ironía, a la razón —a todo lo que podría
sustraerle de la matriz colectiva— es la industria del ocio, esta creación de la era técnica que
reduce a pacotilla las obras del espíritu (como se dice en Estados Unidos, de entertainment). Y la
vida guiada por el pensamiento cede suavemente su lugar al terrible y ridículo cara a cara del
fanático y del zombi.

Inmigración: aspectos positivos y negativos para la economía

Si hay un debate que ahora mismo está abierto y todo el mundo tiene opinión sobre él es el de la
inmigración. Es un hecho que son muchos los factores que atraen a personas de otros países a
Europa y, concretamente, a España, en busca de una vida mejor, de otras oportunidades o
simplemente porque quieren continuar su carrera aquí.

No podemos obviar los tremendos conflictos armados que en países como Siria están generando
millones de refugiados en todo el mundo. Personas como nosotros, que vivían una vida normal y
tranquila y que se encuentran de pronto con que han de huir de su casa, dejarla vacía, llevarse a su
familia y protegerla en cualquier otro lugar. Por eso mismo muchísimas ciudades y países tienen
diferentes políticas de acogida para los inmigrantes especialmente los refugiados.

Pero todo conlleva sus pros y sus contras. No son pocos los que opinan que no puede ser bueno
que tengamos tanta inmigración, mientras que hay otros que ven el vaso medio lleno y lo ven
como una oportunidad de crecimiento, cogiendo a otros países en los que la fórmula ha
funcionado a la perfección. En definitiva, vamos a analizar los pros y los contras de la inmigración
en nuestra economía. ¿Saldremos ganando o perdiendo con esta nueva ola de inmigrantes?

Aspectos positivos de la inmigración en la economía

No cabe duda de que la economía se vuelve más dinámica con la circulación de personas. Por eso,
hay que destacar una serie de puntos a favor de la inmigración en términos económicos.

Más personas, más trabajo

163
Cuantas más personas haya, más trabajos se ocuparán. El clásico de “los inmigrantes nos roban el
trabajo” es mentira, ya que ellos toman los trabajos que los españoles no quieren porque se
consideran mejores que eso. De esta forma, tenemos toda una comunidad de inmigrantes que
recogen fresas al sol o llevan a cabo trabajos complicados y en ambientes y entornos muy
complejos.

Más personas, más consumo

Cuantas más personas haya, más consumo habrá. Eso sí, es muy importante que los inmigrantes se
integren en la cultura del país al que llegan para que sea lo más justo y equitativo posible. Si
nosotros fuéramos a otro país, haríamos el esfuerzo de aprender un idioma y de llevar a cabo las
costumbres más típicas e inofensivas, al margen de religión, por supuesto.

Nuevos tipos de trabajo

Con la llegada de la inmigración se generan diferentes puestos de trabajo, personas con diferentes
culturas que pueden ofrecer conocimiento de ambos lados y con resultados muy positivos. De
nuevo, la integración, la información y el respeto por parte de todos es básico para que funcione a
la perfección.

Nuevas generaciones de inmigrantes

Ya hace tiempo que España ha vivido sus oleadas de inmigración. Especialmente ahora vemos
como las segundas generaciones de inmigrantes árabes o latinos, chicos y chicas nacidos aquí pero
con raíces muy marcadas, llegan a la mayoría de edad. Ellos son la clave para demostrar que la
inmigración es muy positiva para la economía de un país.

Los aspectos negativos de la inmigración en la economía

Sin embargo, no podemos pasar por alto que la llegada de inmigrantes también puede tener
efectos contraprudecentes sobre la economía.

La economía sumergida

Muchos inmigrantes no tienen papeles para poder trabajar de forma legal en España, de forma
que tienen que vender productos o servicios de forma ilegal. Eso significa que no cotizan, no pagan
impuestos mientras que otras personas sí lo hacen. Es algo injusto y perjudicial para los
contribuyentes.

¿Envían dinero a fuera?

Uno de los mayores problemas de la economía y la inmigración es que estas personas envían
muchísimo dinero al exterior, por lo que ese dinero que ganan en España no se invierte en España.

El miedo al terrorismo

Aunque no sea un tema estrictamente económico, es una conversación que se ha de mantener.


¿Son todos los inmigrantes terroristas? Desde luego que no, pero en los recientes ataques, se ha
descubierto como muchos de ellos eran inmigrantes incluso de segunda generación, nacidos en el

164
país y reconvertidos al odio y al terror. Muchas personas sienten que comprando a inmigrantes se
puede estar financiando a algún grupo terrorista.

Precios más baratos

Es un hecho que muchísimas tiendas de comida que abren 24 horas están regentadas por
inmigrantes. Los clásicos colmados de barrio e incluso algún que otro supermercado no tienen
nada que hacer al lado de su oferta 24 horas. Esto limita mucho el margen de maniobra en el
trabajo y consigue que la calidad de vida de la competencia baje estrepitosamente.

3.25. ¿CUÁL ES LA DIFERENCIA ENTRE INMIGRANTE Y MIGRANTE?

Diferencia entre, inmigrante y migrante

Emigrante, inmigrante y migrante son tres términos asociados a los desplazamientos de personas,
animales o plantas de un sitio a otro. Sin embargo, no significan lo mismo y no son conceptos
intercambiables entre sí.

La diferencia entre emigrante, inmigrante y migrante va a depender, pues, del punto de vista:
emigrante es el que se va, mientras que inmigrante es el que llega. El migrante, por su parte, es
aquel que, simplemente, se desplaza de un lugar del que es originario a otro distinto,
independientemente del punto de vista. De modo que todo inmigrante y emigrantees, también,
un migrante.

Cuándo usar emigrante

Emigrante es aquel que abandona el país del cual es originario para establecerse en uno nuevo en
el extranjero. El término se aplica tanto a personas como a animales y especies vegetales que se
desplazan de un lugar a otro buscando mejores condiciones de vida. El emigrante, así, es aquel
que se va de su lugar de origen.

Por ejemplo:

• Los emigrantes envían mucho dinero a sus familias en diciembre.

• La cantidad de emigrantes mexicanos en Estados Unidos ha alcanzado un récord histórico


este año.

Cuándo usar inmigrante

Inmigrante es aquel que llega a un país distinto de aquel del que es originario con el objetivo de
radicarse en él. Es también aplicable el término a animales y plantas asentadas en un territorio
diferente de aquel al que pertenecen. El inmigrante, como tal, es aquel que llega a un lugar nuevo.

Por ejemplo:

165
• Ser inmigrante en este país no es nada fácil.

• Nuestro país fue construido por inmigrantes.

Cuándo usar migrante

Migrante es todo aquel que se traslada desde el lugar en el que habita o del que es originario hacia
otro, diferente del primero. En este sentido, el concepto de migración contiene la idea del
desplazamiento de un lugar a otro.

Por ejemplo:

• Llegaron las aves migrantes del sur.

• Hay muchos más migrantes hoy en día que hace cien años.

3.26. ¿POR QUÉ UN MEDICO DEBE UTILIZAR 3 VARIABLES CON LOS


PACIENTES QUE SON: HUMANISMO, HUMOR Y HUMILDAD?

El humanismo y la relación médico-paciente

La relación médico-paciente, no obstante el avance tecnológico en la atención de salud, sigue


siendo el núcleo de la práctica asistencial.1Muchos factores, entre los que se destaca la progresiva
acumulación de información técnica, han ocasionado que la formación médica se recargue casi
exclusivamente en contenidos teórico-prácticos del qué, cuándo y el cómo hacer.

Internacionalmente existe una evidente deuda con la formación humanística, que dificulta la
adquisición de las necesarias habilidades comunicativas para interactuar adecuadamente con el
paciente y su entorno, además de limitar la capacidad para comprender el proceso salud-
enfermedad en su multidimensionalidad, lo cual impacta de manera desfavorable en la calidad de
la práctica asistencial diaria.

El sentarse junto al enfermo, resguardarle de los peligros conocidos y esperar su curación o su


muerte, sentaron en la historia, lo que sería, en la prototípica relación médico-paciente, la fase de
compañía. El humanismo, la espiritualidad y la ética son tres condiciones indispensables para el
desarrollo exitoso de la trascendente misión preventiva, curativa y de rehabilitación que descansa
en los hombros de los que integran el equipo de salud.2

La relación médico-paciente, es una relación interpersonal con connotaciones éticas, filosóficas y


sociológicas de tipo profesional que sirve de base a la gestión de salud.3 La práctica médica, desde
sus orígenes ha estado estrechamente vinculada a la comunicación interpersonal y al desarrollo de
las habilidades clínicas. Esta interacción es un fenómeno bastante complicado, basado en diversos
componentes de carácter económico, profesional, jurídico, psicológico, moral, ético y estético.4

Con la industrialización acelerada, la migración a grandes ciudades y la centralización e


institucionalización de los servicios médicos, la comunicación médico-paciente redujo

166
notablemente su profundidad y el profesional incorporó la tecnificación, que al ser mal
incorporada, condujo a pensar que los objetivos se limitaban a la atención de problemas que
detectan sofisticados equipos y utilizar para su solución similar instrumental.

La concepción del hombre involucionó hasta asumirse como un conjunto de órganos. Esta fue la
primera crisis del humanismo5 de la profesión médica, proliferaron las súper especialidades, y
tuvo lugar una relación profesional despersonalizada y dispersa. Este médico súper tecnificado
pero deshumanizado, se erigió en antítesis del médico de familia.

Para José Martí, era un compromiso ineludible de los gobernantes garantizar la salud de la
población y al escribir sobre la relación entre las enfermedades infecciosas y las malas condiciones
de vida de las clases sociales más humildes de su época, plantea "... el deber de remediar la
miseria innecesaria es un deber del estado".6

Entre los países del tercer mundo, Cuba es ejemplo de voluntad política de un estado que
considera la salud como un derecho de la población y una responsabilidad priorizada.

Las cruentas realidades del mundo actual, parten de un profesional sometido a las leyes del
mercado, que prioriza la información sobre la formación, la técnica sobre la compasión, la
instrucción sobre la educación y la habilidad sobre la sensibilidad. Egresan médicos cada vez más
actualizados, pero menos compasivos, más técnicos pero menos involucrados, más entrenados
pero menos disponibles, más equipados pero menos integrales, más automatizados pero menos
humanizados y cada vez más ocupados pero menos sacrificados;5 lo que da lugar a la segunda
crisis del humanismo en la medicina.

La medicina debe ampliar su perspectiva sobre la salud hasta llegar a englobar la realidad
emocional de los pacientes.7 El paciente siente habitualmente el temor de morir, la angustia ante
lo desconocido, la tristeza y la hostilidad frente al infortunio y una permanente demanda de
afecto. Por otro lado, el médico debe romper esta barrera, que pudiera alejarlo para siempre del
paciente. Debemos tratar de oír al paciente. Es un antiguo precepto que saber hablar es un don de
la naturaleza, pero saber oír es una virtud.8

Es clásico para la práctica médica la presencia de una enfermera y de un doctor empáticos y


atentos con sus pacientes, capaces tanto de escuchar como de hacerse oír. Esto implica el cultivo
de una atención médica centrada en la relación y el reconocimiento de que la relación entre
médico y paciente constituye un factor muy significativo para el buen curso de la enfermedad. De
ahí la necesidad de que en la formación de los futuros médicos se incluya el conocimiento de
algunos elementos básicos de la inteligencia emocional, sobre todo la toma de conciencia de uno
mismo y las habilidades de la empatía y la escucha.7

El profesional sanitario, el médico en primer lugar, en su ejercicio junto al enfermo, tiene que
actuar con una adecuada certidumbre moral en su quehacer ante esa persona. De lo contrario, no
estará profesando la medicina; será solo un técnico que repara algo que no funciona
correctamente. El ser humano es mucho más que biología, es también razón, autoconciencia,
voluntad y afectividad. Ignorar la individualidad y subjetividad inherente a lo humano, provoca
algunas de nuestras insuficiencias y errores en la asistencia sanitaria.

167
Los profesionales de la salud tenemos la obligación moral de ampliar la óptica sobre el paciente,
descubriendo el sufrimiento y ubicando su fuente, con el fin de emplear todos los medios
disponibles para aliviarlo, teniendo en cuenta para ello al hombre en su dimensión integral.9

Urge salvar la relación médico-paciente, rescatando el humanismo de la más humana de las


profesiones. Para ello se requiere, además de voluntad política, cambios en la enseñanza
profesional y desarrollo de la ética de las virtudes.

“El humor en la práctica médica”

Cuando se nos ilumina el rostro con una sonrisa teñida de emoción al ver a los Payamédicos
cambiando el gesto adusto de los niños internados en las salas de oncología pediátrica, por una
tímida carcajada, pensamos en todo el beneficio que la risa puede traer al agobio de la
enfermedad.

Pero la tarea de ese magnífico grupo de gente que apuesta a la alegría para enfrentar el dolor, se
percibe como la Unidad de Terapia Intensiva en la internación. Algo así como un recurso especial
en circunstancias excepcionales. No nos olvidemos que la enorme mayoría de los internados en
salas de pediatría son pequeños que también sufren la incertidumbre de no entender lo que les
pasa y observan con aprensión cuando un guardapolvo blanco se acerca a examinarlos o a
extraerles sangre. Y nosotros, los adultos, cuando nos toca estar internados o debemos asistir a un
consultorio médico (hecho cien veces más frecuente que lo anterior), ¿cómo percibimos la
situación?

Como el lector ya estará sospechando, nuestra reflexión apunta al hecho de que la sonrisa y su
expresión más explosiva, la risa, debieran estar presentes en todas las circunstancias posibles de la
tarea médica. Y para ello debiera ser preciso formular e instrumentar una metodología para que
su desarrollo integre parte de la formación de grado del profesional de la salud.

En momentos del cambio curricular en nuestra Facultad, en el año 2001,tuvimos la inquietud de


diseñar una materia electiva en la que los interesados pudiesen acceder a la adquisición de
contenidos vinculados a la comprensión de los mecanismos que conectan el humor a la acción
terapéutica, tanto los estrictamente biológicos, como son la modificación en los
neurotransmisores, o los mecanismos psicológicos que promueven el desencadenamiento de la
cascada del bienestar provocado por la risa, o en su defecto la sonrisa apenas esbozada. Pero
resulta tan complejo como intentar transmitir un esquema de desarrollo del razonamiento clínico.

En nuestra niñez, en el Santiago del Estero natal, los recreos en la primaria solían nutrirse de
cuentitos o humoradas más que de los clásicos correteos de “la mancha” u otras actividades de
esparcimiento. No eran así nuestros padres que tenían la carga de la angustia de la no tan lejana
indigencia europea. Pero quizá, de esa manera, se inició nuestra tendencia a entender al buen
humor como una conquista cotidiana. En la actualidad, en la familia se asombran cuando
súbitamente retorna el recuerdo no invitado de esos relatos, cargados del espíritu santiagueño
que se ríe de su pobreza para vencer el infortunio. Algo así como la chacarera que siendo de
probable origen europeo el santiagueño la adquiere para alegrar el pobre encanto de lo cotidiano.

Hace 15 años, una mañana, luego de dos experiencias quirúrgicas que no me permitían por dolor
incorporarme de la cama, recibí el periódico que aún trae un suplemento de humor, y un brillante

168
humorista había reunido una serie de relatos desopilantes que, al leerlos, me desencadenaron un
aluvión de risotadas, que no sólo provocaron el asombro circundante, sino que me permitieron
ponerme de pie sin calmantes.

Es probable que entregar al estudiante de medicina o al graduado los conocimientos referidos a la


importancia del humor en la práctica médica, no constituya un mecanismo suficiente. Es preciso
también que el interesado internalice, dentro de su propia estructura, la jerarquía que importa
entender al humor como un mecanismo auxiliar terapéutico. De nada sirve enseñarle las
maniobras para palpar el hígado, si el destinatario se inclinará a pedir una ecografía.

Desde las lejanas épocas de nuestro tránsito de grado en la universidad hasta la actualidad, lo
habitual en los docentes dictantes es el gesto serio, reconcentrado, en donde la sonrisa o la
broma, pareciera empalidecer la categoría y la rigurosidad de lo que se está enseñando. En los
Congresos comienza a esbozarse un atisbo de la importancia del humor cuando se alterna en la
proyección alguna imagen que inspira la sonrisa, que afloja la severidad de la entrega y favorece el
aprendizaje. Cuántas veces un paciente al ingresar al consultorio comenta que entra más tranquilo
y confiado porque escuchó, en la sala de espera, la risa compartida del paciente y del médico. Ya
eso constituye una actitud que predispone positivamente a la entrevista.

En la medicina argentina hubo grandes exponentes que ejercitaron el humor como recurso
curativo. Para recordar alguno en especial es válido referirse al excepcional pediatra y docente,
quien por vez primera entendió la importancia de la internación conjunta madre-hijo, el
académico y humanista Florencio Escardó, aquel que con su seudónimo Piolín de Macramé nos
hizo aliviar el estrés cotidiano de la actividad con una sonrisa optimista. La vigencia del buen
humor en la conservación de la salud no constituye una adquisición moderna. Ya en la Biblia está
la célebre frase “Un corazón contento es la medicina óptima”.

No es sencillo diseñar los procedimientos para que el estudiante o el médico desarrollen la


capacidad de entender la importancia del tema. Recordemos la historia de David Garrick, el
excepcional intérprete de Shakespeare, y recitador cómico del siglo XVIII, probable creador de la
risoterapia, a quien el poeta mejicano Pesa le dedica una poesía: “Spleen” (que puede traducirse
como estrés), en la que describe la depresión que el actor sufría detrás de su actuación y gesto
divertido. Nuestra propuesta de promover el humor en los estudiantes y en los médicos no es
sencilla, pero debiera intentarse. No es fácil bajar de peso o dejar de fumar, pero hay que
intentarlo.

El buen humor y la alegría son un antídoto contra la enfermedad, pero también rivales de los
dogmatismos, y enemigos acérrimos del pensamiento rígido y fundamentalista, poniéndonos en
guardia frente a los preconceptos y la dramatización de los hechos cotidianos.

La humildad

La humildad como cualidad perenne en el médico* Juan Pablo García Restrepo1 1. Estudiante de
medicina I semestre, Universidad CES, Medellín, Colombia. Comparte Cada día me sorprendo más
con la claridad conceptual de los estudiantes que empiezan su carrera de Medicina. En la cátedra
de Introducción a la Medicina que imparto a los estudiantes de primer semestre de nuestra
facultad, ellos reflexionan y plasman en ensayos las cualidades y virtudes que debe tener un

169
médico bueno. Fruto de estas reflexiones he aprendido más que en todos los años de mi vida
como pediatra y docente y quisiera que lo que ellos escriben quedará plasmado para siempre en
sus corazones. Si lo que ellos escriben lo conservarán para su vida profesional, estoy seguro que
tendríamos los mejores médicos del mundo. Pero al ver la realidad del gremio médico del siglo
XXI, me pregunto: ¿Qué pasa? ¿Qué estamos haciendo mal? ¿Por qué desaparece el humanismo
que tienen al empezar su carrera? Algo estamos haciendo mal en el gremio médico para que ellos
pronto olviden sus ideales y valores y se deshumanicen. Y es algo se compone de muchas cosas:
puede ser el mal ejemplo de algunos médicos y docentes que van acabando con sus ilusiones al
mostrarse hastiados de su ejercicio profesional; puede ser también el actual sistema de salud que
impide una atención adecuada de la mayoría de los pacientes en aras de lograr mayores beneficios
económicos, disminuyendo los tiempos y la calidad de la atención; puede ser la soberbia y el
ánimo de competitividad entre los médicos. Como educadores pensemos y replanteemos la forma
de enseñar y el ejemplo que estamos dando a nuestros estudiantes de Medicina para cambiar de
ser necesario y lograr mantener la llama del servicio y la bondad en todos nuestros egresados.
Ricardo Posada Saldarriaga, decano de la Facultad de Medicina Tal vez el momento más difícil para
redactar y expresarme a través de este manifiesto fue la elección de una única cualidad que
resuma e integre tantas y valiosas virtudes que debemos poseer en nuestra formación humana y
científica como futuros médicos CES. A continuación, presentaré las razones que me llevaron a
determinar que debe ser la humildad aquel tesoro perenne que debe crecer y protegerse en el
interior de cualquier profesional y por supuesto en nuestra hermosa profesión, el arte de la
Medicina. La formación humana debe ser lo suficientemente sólida y fundamentada en unos
principios de convivencia y fraternidad para ser integrada posteriormente con los conocimientos
técnicos y científicos, y que estos en ningún momento estén por encima de aquello que nos hace
más humanos y mucho menos prepotentes o prejuiciosos, pues no habría garantía alguna que la
atención que reciben nuestros pacientes sea honorable y digna. Una vez escuché a un gran
maestro que decía “El conocimiento tarde o temprano se adquiere, ya sea en los libros o conforme
lo otorgue la experiencia profesional, pero la humildad no se encuentra en una página”. Desde
entonces he comprendido con fervor dos cosas: la primera de ellas es que el objetivo final y
magno de todas las ciencias de la salud como en la Medicina es el Editorial MEDICINA Julio -
Diciembre 2016 - Pág 138 paciente, quien acude a nosotros bajo situaciones de desgracia, angustia
y con miedo de aquello que para él es desconocido; de manera que nos proporciona un voto de
confianza para acompañar su proceso patológico y trabajar con los medios suficientes para
obtener el mejor resultado de la condición que lo aflige. La segunda es que para trabajar con
personas se necesita sentir como persona, pues no basta con poseer exclusivamente las
capacidades técnicas de la profesión, puesto que “el que sólo Medicina sabe, ni de Medicina
sabe”. Y menciono esto porque precisamente hoy en día parece que mientras más conocimientos
y destrezas tienen algunos colegas, es de igual o quizá mayor tamaño su ego o prepotencia. Estas
dos últimas falencias humanas se ven reflejadas en el cuidado, diagnóstico y tratamiento de los
pacientes quienes identifican y califican ponderadamente el trato que se les proporciona. El
médico que rige sus acciones con la humildad, es capaz de reconocer el carácter humano en cada
paciente, sin importar su condición social, raza, credo o posición política. Aque que diariamente
trata sus pacientes con humildad, es un médico que demuestra compasión, sensibilidad y respeto
por la vida, que conoce sus falencias y entiende hasta dónde pueden llegar sus capacidades
profesionales y humanas. La humildad en el médico actúa como agente garante de la entrega justa

170
y desinteresada por aquel que más lo necesita, representa el polo a tierra de la profesión, nos
recuerda que no podemos actuar como superhéroes, así como también de dónde venimos, por lo
que hemos pasado y, sobretodo, en el por qué elegimos formarnos como médicos. El médico
humilde antepone los intereses comunes sobre los intereses particulares y tiene el don de la
gratitud para aquellos maestros y pacientes que han sido instrumentos de aprendizaje en todo
momento de su caminar. La invitación es entonces a vivir día a día con el altruismo que debe estar
latente y vigoroso en cada uno de nosotros, acompañado de actos cotidianos de abundancia en
humildad, para contribuir al proceso particular de cada uno en su formación integral.

3.27. ¿POR QUÉ LA MARCA DE GAFAS RAYBAN ES UNA DE LAS MEJORES


DEL MUNDO?

Las gafas de sol Ray-ban nacieron en los años treinta convirtiéndose en las primeras monturas
consideradas modernas.

En la actualidad, Rayban sigue ocupando un lugar privilegiado en el mundo de la óptica y


posiblemente sea la única marca que no fabrica ningún producto adicional, aparte de las gafas.

En su origen, fueron fabricadas por la empresa americana Bausch & Lomb. Cuando llegó la
Segunda Guerra Mundial, su modelo piloto se hizo muy famoso gracias a su aparición en las
películas de Hollywood.

Y además, en esta guerra, los militares más aclamados eran los pilotos de la aviación y todas las
fotos que llegaban desde el frente aparecían con el modelo 3025, ya que era polarizado y
mejoraba la visión.

A principio de los años 90, Bausch & Lomb vendió Rayban a Luxottica, un gigante italiano que sólo
se dedica a la comercialización de gafas. Además de ésta, también vende otras marcas
importantes como Oakley, Ralph Laurem, Arnette, Vogue, Armani, Bulgari, Polo, Dolce Gabbana,
Emporio, Donna Karan, Michael Kors… Entre otras.

Las Rayban Usa eran de mayor calidad que las de ahora y duraban bastante más. Hoy en día existe
un mercado de segunda mano con estas monturas, existiendo público que paga barbaridades por
estos iconos.

Desde su nacimiento, siempre ha sido la marca más vendida. Este verano ha conseguido facturar la
mitad del mercado óptico, situando sus ventas muy por encima de cualquier otra marca.
Prácticamente Rayban y Oakley facturan el 80% de todo lo que mueve el sector óptico. Muy por
encima de la tercera marca.

Ray Ban Clubmaster:

Es un icóno dentro de la marca. Nació en los años 90 y se hizo muy famosa por su aparición en dos
películas: Malcolm X y en Reservoir Dogs.

171
Es un modelo redondeado, metálico con pasta en su parte superior. El más clásico es dorado con
la pasta negra. Aunque la fabrican de todos los colores y materiales posibles. Desde metálico,
aluminio, pasta o de titanio.

Los cristales pueden ser polarizados o normales y de cualquier color. El más icónico es el verde.

Modelo Wayfarer:

Gafas de sol Rayban Wafarer modelo 2016

Su origen se remonta a los años 50 y supuso el gran éxito de la marca. Desde que apareció en la
película “Rebelde sin causa” ha sido una de las gafas de sol más vendidas de toda la historia.

En los años 90 se retocó su diseño para que no quedara tan inclinada, y se fabricaron varias
medidas para llegar a todos los usuarios. Lo rebautizaron como New Wayfarer, y se convirtió en el
modelo más vendido relegando al original.

La introducción de tamaños pequeños originó su popularidad dentro del género femenino y desde
entonces es considerada una gafa de pasta unisex.

Es fabricada de acetato y con cualquier color, aunque la más vendida es negra con las lentes
verdes.

El año pasado salió con el material liteforce que le ofrece unas características excepcionales como
ligereza, flexibilidad y resistencia. Además de unos acabados más logrados.

Nueva Rayban Erika:

Es la montura femenina más vendida, nació hace tres años y ha conseguido ser best seller
siempre. Su frontal es redondeado de pasta y sus varillas son metálicas finas. Es muy ligera y logra
un toque muy estilístico marcando una tendencia juvenil.

No las fabrican con las lentes polarizadas y el color más vendido es el marrón degradado.

El icono de la marca: RB 3025 o aviador

Es el diseño más famoso de la marca y también el más copiado por todas las empresas que
fabrican gafas. Nació en los años 30 y ha salido en multitud de películas.

Fueron las primeras gafas polarizadas y su nombre es debido a que todos los pilotos de la época
las usaban para combatir con sus aviones. El ejército americano la sostuvo entre sus accesorios
durante mucho tiempo ya que mejoraban la visión y por lo tanto el rendimiento de sus pilotos.
Podemos afirmar que las gafas de sol aviador se hicieron famosas por las imágenes de la guerra.

El color más vendido es el dorado con los cristales verdes, el modelo más clásico aunque en
realidad se venden todos. Y lo sorprendente es que muchas marcas han sacado el mismo diseño y
siempre han fracasado porque los clientes solo quieren comprar Ray Ban originales por lo que
significan.

¿Por qué Rey ban tiene tantos precios?

172
En primer lugar por la dificultad de fabricar una determinada forma y la más importante, la calidad
de los materiales.

Normalmente la pasta es el más barato, seguido del metal. Y luego tiene materiales especiales
como el titanio o el liteforce que mejora la resistencia y el peso.

En cuanto a las gafas de sol, el precio cambia por la calidad de los cristales. Las Rayban P son
bastantes más caras que las normales porque sus lentes son polarizadas.

Los cristales polarizados protegen lo mismo que los normales, pero en su interior tienen un filtro
que elimina los reflejos horizontales. Dando una visión más cómoda, con mayor contraste y con
mayor calidad. Son el tipo de gafas recomendadas para el mar y la conducción, que son las
situaciones dónde hay más reflejos horizontales.

Dentro de Rayban existen tres tipos, dependiendo de la calidad:

• Básico: Es el más económico ya que el filtro polarizado lo colocan en la parte externa de la


lente. Logran buena visión pero se suelen rayar con muchísima facilidad.

• Intermedio: El filtro es colocado en medio de la lente como si fuera un Sandwich. La lente


es mucho más duradera y el contraste aumente todavía más.

• Top: En esta ocasión el polarizado es colocado en medio de la lente pero no en capas, sino
que es fundido junto con la lente. Y además, en la parte posterior aplican un tratamiento llamado
antirreflejo para eliminar los reflejos que vienen desde atrás, ofreciendo una visión con los colores
mucho más intenos.

Y para diferenciar la calidad óptica, todos estos cristales vienen marcados con “Rayban P”.

Aunque cabe añadir, que aunque este tipo de cristales son los mejores, en algunas actividades no
hacen falta ya que no existen reflejos horizontales como puede ser en la práctica de golf o en
deportes como Padel o en bosques.

3.28. ¿POR QUÉ LA MARCA DE ROPA LACOSTE ES LA MÁS CARA Y LA


MEJOR DEL MUNDO?

Si se ve un pequeño cocodrilo verde bordado en una prenda o impreso en un producto, no caben


dudas: se está frente a un Lacoste. Y es que la marca francesa logró que ese ícono la identifique
casi sin pensarlo.

¿Pero cómo llegó a popularizarse tanto esta casa de ropa y artículos varios? Como todo, hay que
remontarse a los comienzos para entender la grandeza de hoy.

En el caso de Lacoste, su historia se desarrolla en paralelo al boom del deporte del siglo XX y a la
ropa informal que dejó atrás trajes y corsés.

173
Creada originalmente para la élite francesa en la década de los ‘30, hoy en día es un gigante muy
rentable con 1.200 boutiques en el mundo y 1.600 millones de euros en facturación (90%
proveniente de fuera de Francia), recordó el medio español Cinco Días.

Y el nombre clave detrás de este éxito es el del tenista René Lacoste (1904-1996), quien tuvo la
idea de fundar la firma en 1933.

Una "apodo de la prensa" que inicia un imperio

Su faceta empresaria sorprendió a más de uno, aunque René no era un hombre desconocido en su
país. Todo lo contrario, era muy popular en su país por haber ganado tres veces Roland Garros,
dos Wimbledon y otros dos US Open.

De hecho, junto a otros tres compatriotas, formaba parte del mítico equipo francés conocido
como los mosqueteros. Pero aquí hay un dato clave: a él, particularmente, lo apodaban como "el
Cocodrilo". ¿Por qué? El capitán del equipo galo de la Copa Davis le había prometido regalarle una
maleta elaborada con la piel de ese animal si ganaba un partido y, ni lenta ni perezosa, la prensa
estadounidense empezó a llamarlo así.

Fue entonces cuando se dio el primer paso de lo que hoy es un imperio: con sentido del humor,
René decidió seguirles el juego y comenzó a salir habitualmente a la cancha con un cocodrilo
dibujado en su camisa.

Así, mezclando su profesión con su visión empresaria, René vio unaoportunidad incipiente: la de
crear prendas deportivas para una sociedad que empezaba a desprenderse de los formalismos y
saltaba a las canchas.

Su primera apuesta fue una chomba de manga corta, cuello ribete-canalé y tejido de algodón
ligero y transpirable a base de petit piqué, a la que -de más está decir- le bordó el ahora mítico
cocodrilo. Y fue de este modo como nació el polo Lacoste, conocido como el L12.12 en blanco, que
se ha convertido en un símbolo de la moda y del marketing y que se mantiene joven pese a sus 80
años.

Esta prenda fue "revolucionaria" además por otro motivo: era la primera vez que una marca
estaba visible en la parte exterior, una idea que, desde entonces, ya nadie discute.

Asociarse para crecer

Los grandes empresarios tienen en general algo en común: se asocian con los mejores para llevar
su visión al siguiente nivel.

Y eso fue lo que hizo René, quien para confeccionar las prendas, comenzó a trabajar con André
Gillie, un afamado empresario textil de la época.

Esta asociación fue clave ya que le dio a Lacoste la "capacidad de producción" para sus diseños,
que no sólo se quedaron en el tenis sino que también fueron ampliándose al golf, otro deporte
elitista de la época.

174
El éxito no se hizo esperar y la marca no tardó mucho en dar el salto al extranjero. Así, en 1951
comenzó a exportar sus productos a Italia.

Pero ese año tiene otro hito clave en la historia de la empresa: el polo blanco se tiñó por primera
vez de colores, algo que con el paso del tiempo la marca iba a seguir aprovechando, incluso
sumando distintas tramas.

Bernard, el nombre de la "internacionalización"

René siguió liderando la empresa hasta 1963, cuando decidió pasarle las riendas a su hijo mayor,
Bernard. Y esa no fue una decisión menor.

Sucede que si bien Lacoste había crecido como marca y ya se vendía en varios mercados europeos
(en 1961 había llegado, por ejemplo, a España), fue gracias a la nueva gestión que se firmaron
numerosos acuerdos de licencia y se inició la expansión por el mundo.

Bernard hizo de los colores una de las claves de su liderazgo, que duró prácticamente hasta su
muerte, en 2006, a los 76 años. Diez años antes había fallecido su nonagenario padre.

Los números hablan solos del éxito alcanzado por su gestión: cuando comenzó a liderar la
compañía, ésta producía 300.000 artículos al año.En 2005, la figura rozaba los 50 millones, esa
ropa era vendida en 110 países.

Trascendiendo el deporte y la ropa

En pocos años, las prendas Lacoste trascendieron al deporte y pasaron a ofrecer una imagen de
cierta sofisticación con un toque sport. De hecho, se transformaron en la elección preferida de los
que querían un look "de calle" o para el fin de semana.

"La elegancia de Lacoste está en el equilibrio entre informal y sofisticado, relajado y distinguido",
explican desde la firma.

Se trata del estilo que la compañía denomina como "unconventional chic", o elegancia inusual,
como fue el lema elegido para las últimas campañas.

Así, hoy el éxito de la firma pasa por trasladar la imagen distinguida de su cocodrilo por todo el
mundo y a cientos de diferentes productos a través de licencias.

Por eso, ya no sólo hay polos Lacoste. Ahora se consiguen desde joyas, perfumes, ropa para el
hogar, relojes, bolsos o gafas hasta bicicletas.

Incluso, en 1984, el fabricante francés de coches Peugeot lanzó una edición limitada de su
superéxito de la época, el modelo 205. Y en 2010, Citroën se atrevió con un concept car para la
marca.

Actualmente, la compañía Devanlay tiene los derechos de la ropa y los artículos de piel; Penland,
los de los zapatos; Procter & Gamble, para fragancias; Marchon, para gafas de sol; Movado en el
caso de los relojes; Zucchi Group en textiles para el hogar, y GL Bijoux en joyas.

175
Una "traición" y un final "no tan feliz"

El presente de la marca no es tan feliz para la familia Lacoste como lo fue su inicio. Y es que su
principal socio, Devanlay, ha sido la causa del mayor terremoto de la casa francesa, en plena
celebración de su 80 aniversario.

En este sentido, hay un dato clave: en 1998, el grupo suizo Maus Frèrespasó a controlar el 90% de
Devanlay y, a su vez, adquirió el 35% de Lacoste.

Pero en 2012, los suizos maniobraron para quedarse con la marca. Y lo lograron gracias a una
pelea en el seno de la familia del cocodrilo.

Sucede que el hijo más chico de René, Michel Lacoste, fue quien sucedió en la presidencia a su
hermano Bernard desde 2005. Pero se llevó un verdadero disgusto.

Él veía como sucesora a su sobrina Béryl. Pero su hija Sophie se adelantó y se alió en octubre de
2012 con Maus Frères en el consejo de administración, destronando del cargo a su padre.

La inesperada jugada de Sophie fue definida por Lacoste padre como una traición y, de hecho,
consideró que su hija habría sucumbido a los cantos de sirena de los otros accionistas importantes.
"Utilizando procedimientos poco elegantes, los Maus han conquistado Lacoste sin desembolsar un
céntimo", dijo oportunamente Michel a Le Monde.

Y añadió: "Mi hija no ha pasado un solo día en la empresa y no tiene las competencias necesarias
para llevar la sociedad".

Sucede que Sophie Lacoste Dournel, de 37 años, hasta ese momento se había dedicado a ser actriz
y a dirigir un teatro de marionetas en la región de Marsella.

Para vengarse de su hija, Michel vendió el 30,3% del capital a la gente de Maus y a las pocas
semanas Sophie siguió el mismo camino con su 28% de acciones.

La firma suiza entonces sentó en el consejo a Didier Maus como presidente y eligió al español José
Luis Durán como consejero delegado, quien tomó así las riendas del grupo, que ya conocía bien
por dirigir Devanlay.

Así, el cocodrilo siguió con su éxito, pero ya lejos de la familia Lacoste.

3.29. ¿CÓMO ES EL DESARROLLO DE LA INDUSTRIA RELOJERA A NIVEL


MUNDIAL?

• Las grandes manufacturas helvéticas ponen sus ojos en Silicon Valley para ofrecer relojes
inteligentes con atractivos diseños y acabados a la nueva generación de compradores.

176
Baselworld 2017 cerró sus puertas hace algo más de una semana y, como destacamos en nuestro
repaso a lo mejor que dio de sí la feria mundial más importante de la relojería, fue una edición
marcada por aniversarios emblemáticos en la mayoría de las manufacturas de pedigrí.

Se presentaron muchas nuevas versiones de modelos ya legendarios, de indudable belleza y


calidad, que nos retrotraen a los años dorados de la 'haute horlogerie'. Pero lo cierto es que detrás
de ese clima de aparente celebración subyace otro de nostalgia y melancolía, porque muchas
marcas están lejos de vivir sus mejores tiempos.

De acuerdo con los datos la Federación de la industria relojera suiza, las exportaciones cayeron un
10% en 2016, el peor año con diferencia desde 2009, cuando estalló la crisis económica mundial.
La llegada de 2017 tampoco ha traído buenas noticias, ya que los números indican que en febrero
se ha producido otra caída del 10% en el nivel global de las exportaciones, llegando al 26% en el
mercado estadounidense, uno de los más vitales para las relojeras.

Esta tendencia ha tenido su reflejo en el propio Salón de Basilea, que ya ha anunciado que la
edición de 2018 durará dos días menos ante el constante descenso en el número de expositores
(este año se cayeron 200 de una tacada).

Inevitablemente, todo esto ha despertado a la industria en pleno, que se ha dado cuenta de que
tiene que empezar a hacer algo para captar al comprador 'millennial', cada vez más reacio a
gastarse miles de euros en un accesorio que sólo les da la hora, por mucha complicación que tenga
su movimiento. Por ello son cada vez más las marcas que han abrazado los smartwatch y se han
metido en un mercado aún de futuro incierto y hasta ahora dominado por Apple y Silicon Valley.

Las que más fuerte han apostado por ello son las grandes casas de moda (Michael Kors, Tommy
Hilfiger, Guess, Fossil, Hugo Boss, DKNY...), que presentaron una infinidad de relojes inteligentes e
híbridos (de apariencia convencional, pero con algunas funciones propias de los smartwatches).

Pero lo más significativo es que cada vez son más las manufacturas suizas históricas que se suman
a esta corriente, como Tag Heuer, Alpina, Breitling, Mondaine, Frederique Constant, Tissot o
Montblanc (aunque sea alemana, produce sus relojes en el país helvético). Aún parece que
estamos lejos de ver un smartwatch de Rolex, Cartier o Patek Philippe, pero son señales claras de
que los tiempos están cambiando.

Son sabedoras además de que no pueden competir con Silicon Valley en el apartado de
prestaciones tecnológicas y por eso llevan la guerra al terreno que dominan: el de los materiales
de calidad, la elegancia y los acabados sublimes. Para ejemplificar esta tendencia, te presentamos
algunos de los modelos de smartwatch “Swiss made” más interesantes:

Al igual que los cronógrafos mecánicos de TAG Heuer, este smartwatch se ensambla en los talleres
que la manufactura tiene en La Chaux-de-Fonds. Como su propio nombre indica, cuenta con un
diseño modular, lo que permite a cada persona customizar el reloj a su gusto en base a más de
4.000 configuraciones distintas.

Es resistente al agua y viene con el software Android Wear y todas las funciones que se le
presuponen a un smartwatch de última generación: GPS, comandos de voz, notificaciones,

177
registros de fitness a través de Google fit y reproducción de música. La caja es de titanio, la esfera
es de cristal de zafiro resistente a los arañazos y la pantalla AMOLED mide 1,39 pulgadas. La
batería dura hasta 25 horas con un tiempo de carga de 1 hora y 50 minutos cuando está
completamente agotada.

¿Un reloj para submarinistas con características de smartwatch? Es posible si Alpina está detrás,
una casa suiza con 130 años de historia y gran tradición desarrollando relojes mecánicos
sumergibles (y este, por supuesto, lo es: hasta 100 metros).

Todas sus funciones pueden ser activadas a través de la corona para no depender de una pantalla
táctil, e incluyen seguimiento de actividad y del sueño, notificaciones de llamadas y correos y hora
universal actualizada, entre otras prestaciones. Se conecta a smartphones iOS o Android a través
de la app MMT-365. El bisel está disponible en cuatro colores: verde, negro, azul marino y naranja.

De un reloj inteligente para submarinistas a uno para pilotos. El Exospace B55 huye de los diseños
nostálgicos de las manufacturas en las piezas dedicadas al mundo de la aviación para abrazar la
conectividad.

Sin embargo, no es un reloj que dependa de un smartphone: se puede conectar a uno para
mejorar su funcionalidad, pero se puede operar de manera independiente. Así, se pueden realizar
todos los ajustes a través del teléfono para una mayor comodidad y a su vez descargar tiempos y
otras mediciones. También transmite las notificaciones de llamadas, mensajes e emails. Tiene
asimismo un taquímetro integrado y un cronógrafo que registra 50 tiempos intermedios y tiempos
de vuelo.

Tanto el reloj como su impresionante movimiento están diseñados y ensamblados en la casa suiza:
es de Supercuarzo termocompensado, sensible a los cambios de temperatura y diez veces más
preciso que el cuarzo convencional. La caja es de titanio ligero y sumergible a 100 metros.

Fue el primero en lucir “Smart Swiss Made” con orgullo en su esfera. Tiene enteramente la
apariencia de un reloj convencional, pero esconde una conectividad via Bluetooth con un
smartphone que ofrece funciones como seguimiento de la actividad y el sueño, alarmas del ciclo
del sueño, alertas Get-Active y coaching inteligente, cuyos datos pueden copiarse y almacenarse
en una nube.

3.30. ¿CÓMO ES EL DESARROLLO EN EL APOYO SOCIAL QUE DA EL


MAYOR FILÁNTROPO ESPAÑOL ISIDRO FAINE?

Los cinco principios que inspiran a Isidro Fainé

"Me siento muy orgulloso de mis orígenes. Me dicen que uno se cura de todo menos de la
infancia, que es donde se obtienen las enseñanzas más valiosas", afirma Isidro Fainé, presidente
de la fundación bancaria La Caixa y de CaixaBank, en una entrevista que mañana podrán leer los
lectores de EXPANSIÓN en Fuera de Serie con motivo del premio que la revista le ha concedido por

178
su labor filantrópica. Premio que estima no es sólo suyo, sino de todos los empleados del grupo, ya
que son ellos quienes hacen posible la existencia de la obra social.

Fainé afirma que sin sus padres no sería nada porque "ellos me inculcaron desde pequeño cinco
valores: el del esfuerzo, la responsabilidad, la honestidad, el respeto a los demás y la importancia
irrenunciable de la palabra dada".

Banquero de éxito al haber conseguido que la entidad que preside sea la mayor de las que operan
en el territorio nacional, es sobre todo un gestor de personas. A esto ha dedicado buena parte de
sus esfuerzos, pero además es un convencido de la función social que siempre hay detrás de la
actividad empresarial, algo más acentuada en el caso de CaixaBank, ya que no se puede olvidar de
dónde procede y los principios que inspiraron a los que hace más de 110 años crearon la caja, que
apenas hace unos ejercicios se transformó en banco, pero que no quiso perder de vista que el
objetivo del mismo es prestar el mejor servicio y obtener unos beneficios que permitan alimentar
la obra social de la fundación que ostenta la mayoría del capital de CaixaBank.

Porque "para La Caixa la obra social es un elemento irremplazable; es la razón última que da pleno
sentido a nuestra actividad como entidad financiera", señala Fainé, quien añade que desde fuera
puede ser difícil de comprender pero que "para los más de 30.000 empleados que formamos parte
del grupo, lo extraordinario e inconcebible sería que nuestra actividad financiera no estuviera
acompañada por la obra social". Y no deja de mostrar el orgullo que le proporciona el hecho de
que en unos momentos tan complicados como los de los últimos años, la obra social haya
mantenido un presupuesto anual de 500 millones de euros. "Ha sido un reto del que hemos salido
fortalecidos y que nos ha permitido afianzar aun más si cabe nuestros valores". Recientemente, el
consejero delegado de CaixaBank, Gonzalo Gortázar, reiteró este mismo mensaje en un acto
público en el que avanzó la posibilidad de que en el futuro inmediato este presupuesto se vea
incrementado.

A lo largo de la entrevista de Fuera de Serie, Isidro Fainé reconoce que la crisis "ha impactado en la
confianza de los clientes de la banca española" y que se ha hecho muy difícil diferenciar las
distintas actuaciones de las entidades. En su opinión, la sociedad española considera que "todas
las entidades somos parte causante del problema cuando algunas hemos ayudado a la solución". Y
pone como ejemplo a su entidad, que no sólo ha aportado fondos para el saneamiento de otras,
sino también ha acometido otras actuaciones como el programa del grupo de acceso a una
vivienda social que dispone de más de 31.000 pisos en alquiler a precios asequibles para colectivos
con menos recursos. Fainé aprovecha para señalar que dos terceras partes del presupuesto anual
de la obra social se destina a programas sociales y asistenciales orientados a "mejorar la situación
de los colectivos más excluidos". El resto se dedica a fomentar y divulgar la cultura, apoyar la
educación y la investigación. Ello se traduce, añade, "en 18.000 puestos de trabajo que creamos al
año, o en miles de niños en riesgo de exclusión a los que atendemos".

El presidente de CaixaBank acaba la entrevista recordando el papel de sus padres en su formación


y posterior desarrollo personal y profesional. "Me inculcaron la honestidad, la humildad, la
vocación de servicio, la importancia de la palabra dada y del ser frente al tener". Difícilmente se
puede hacer un mejor y preciso homenaje a quienes pusieron su mejor empeño en conseguir que
saliera adelante.

179
3.31. ¿CÓMO SE PERFILAN EN SUS PROYECTOS LOS FILÁNTROPOS A
FUTURO CON LAS NUEVAS GENERACIONES?

Jóvenes filántropos: comprometidos y exigentes

Tienen entre 21 y 40 años, sus familias donan más de 250.000 dólares al año a ONG, tienen un
patrimonio personal promedio superior a 2,5 millones de dólares e influencia sobre más de cinco
millones en activos familiares destinados a proyectos sociales (el 10% tienen más de cien millones
de dólares en fondos destinados a ello). Una reciente investigación retrata la nueva generación de
grandes donantes: tienen dinero, conciencia social y planes ambiciosos para cambiar el mundo
ahora mismo.

El programa 21/64 y el Johnson Center for Philanthropy colaboraron en la encuesta y entrevistan a


más de 300 jóvenes con alto patrimonio e interés en la filantropía para su nuevo informe:
#Nextgendonors.

Desde que Lucas St. Clair tomó las riendas de una de las fundaciones de su madre, Roxanne
Quimby –fundadora de la empresa Burt’s Bees, que vendió por unos 350 millones de dólares–, lo
está haciendo a su manera. La fundación hace realidad una pasión personal de este profesional de
treinta y tantos años, casado y padre de familia: ocio en parajes naturales.

Es una pasión que heredó de su madre, quien crió a sus dos hijos en una cabaña rústica en los
bosques de Nueva Inglaterra. Pero St. Clair abordó el propósito de la fundación de una forma
distinta a la imagen que transmite su generación. No se limitó a confiar en el nombre y el poder
económico de su familia a la hora de hacer frente a la oposición local que tuvieron sus planes de
crear un parque nacional.

St. Clair encargó un estudio serio y profesional para cuantificar, de modo preciso, cómo
beneficiarían los planes a la economía local, y dedicó meses a escuchar a los grupos de interés en
las poblaciones potencialmente afectadas. El joven St. Claire entendió que el cambio social es un
proceso de diálogo para encontrar, no para imponer, soluciones. Su enfoque se refleja en el
comentario de un joven donante recogido en #Nextgendonors: “Esta es un generación a la que le
gusta conocer de primera mano, ver y tocar, utilizar todos los sentidos para saber de verdad lo que
pasa”.

Motivados por valores, no por los objetos de valor

En contraste con los tópicos sobre la “generación del yo, yo, yo”, el estudio #Nextgendonors revela
una generación de filántropos más preocupados por sus buenas obras que por sus posesiones.
Uno de ellos, Farhad Ebrahimi, cita las palabras del hombre araña para explicar su compromiso:
“Con un gran poder llega también una gran responsabilidad” y bromea, “para bien o para mal,
supongo que gozar de una fortuna heredada es lo más cerca que voy a llegar a estar de tener
poderes de superhéroe”. Por lo tanto Ebrahimi ha decidido donar al menos el 90% de su
patrimonio (más de 10 millones de dólares) a causas que le apasionan.

180
Los jóvenes filántropos son muy conscientes de sus situaciones privilegiadas y buscan honrar el
legado y los valores de sus familias a través de sus propias acciones. También a Sharna Goldseker,
directora general de 21/64, le sorprendió hasta qué grado los jóvenes decían que sus padres (89%)
y sus abuelos (63%) influían en sus donaciones.

Goldseker contó a Compromiso Empresarial que esperaba una influencia mayor de sus padres en
esta generación superconectada (solo un 47% decía que les influían otros jóvenes). Se nota que
“los valores se aprenden en casa”: el 78% de estos jóvenes privilegiados empezaron a realizar
voluntariado antes de los 16 años, un 36% con diez años o menos, y la mayoría empezó a donar de
sus propios recursos antes de llegar a los 21 años.

El legado familiar también pesa en la elección de las causas que los jóvenes apoyan. Dos tercios de
los jóvenes encuestados donan, desde su filantropía personal, a causas similares a las de sus
familias. En las tres causas más comunes (juventud y servicios para familias, educación y
necesidades básicas) se nota poca diferencia entre las prioridades de los jóvenes y las de sus
familias. El área de donaciones sanitarias (dominada por donaciones importantes a hospitales y
centros de investigación) es la mayor excepción a la fidelidad con las causas de la tradición
familiar. El tema de salud capta el interés de solo un 23% de los jóvenes, frente a un 77% de sus
familias. En contraste, los jóvenes muestran más interés que sus familias en el medio ambiente, la
protección de animales y los derechos civiles.

Preocupados por el impacto

Coinciden en muchas causas, pero los filántropos más jóvenes distan de sus familias sobre todo en
cómo aprovechan sus fondos.

Un participante en #Nextgendonors explica: “Mi padre empieza con un listado de ONG, mientras
yo tengo un listado de problemas que me interesan e intento investigar la mejor manera de
atacarlos”.

Otro comenta: “Creo que mis padres dan mucho más por la carga emocional que acompaña a una
donación, mientras que yo insisto en maximizar el impacto de mis fondos filantrópicos” (Vid.
Componentes de la estrategia filantrópica, según los participantes en el estudio).

Cari Tuna, la prometida de Dustin Moskovitz, cofundador de Facebook (28 años) y ahora
presidente de la fundación financiada por la pareja, dice guiarse “por una idea muy simple: los
donantes deberían meditar sobre sus decisiones filantrópicas tanto como lo hacen sobre sus
inversiones financieras”.

Otra pareja que firmó el Giving Pledge, un compromiso público para donar al menos un cincuenta
por ciento de su patrimonio a causas sociales, liderado por Bill Gates y Warren Buffet, aun antes
que Moskovitz y Tuna, ilustra el enfoque de la actual generación para conseguir impacto.

Hace seis años Laura Arnold (38 años) y su marido John Arnold (39) dejaron atrás la modalidad que
ella autodenominó “donación al estilo fondo común de acciones”, o sea, donar a una variedad de
ONG que parecían buenas, sin investigar mucho de antemano. Según el presidente del patronato
de Rice University, Jim Crownover, ahora los Arnold “abordan cada tema de forma analítica,

181
investigan las posibles soluciones y pagan estudios para determinar cuáles funcionan. Se exigen y
son exigentes con los demás”.

Para John Arnold, las respuestas cortoplacistas no valen. Al contrario, este joven, que hizo su
fortuna con sus inversiones, dice “tenemos la gran ventaja de ser jóvenes, así que podemos
examinar problemas complejos. Tenemos años para poder dedicarles tiempo”.

Para los jóvenes filántropos, ser estratégico no implica estar lejos del terreno. Al contrario, su
participación personal en proyectos es sumamente importante y estudia profesionalmente sus
decisiones a la hora de decidir qué proyectos apoya.

Por ejemplo, Ebrahimi se involucra en todo el proceso de donaciones, visita todos los proyectos y
hasta asiste a conferencias relevantes. Otros jóvenes buscan poder ofrecer sus capacidades
profesionales, por ejemplo asesoría en marketing “pro-bono”, antes de hacer una donación
importante a una ONG. Les encanta la idea de “idear soluciones juntos” con las organizaciones que
respetan y financian. Como explica un joven donante, “no quiero quedarme en las gradas, quiero
participar en el logro del cambio social que quiero conseguir”.

Pero, ¿puede tanta implicación personal de jóvenes privilegiados tener el riesgo de desviar o, al
menos distraer a las ONG de sus misiones y así reducir, en vez de aumentar, su impacto?
Goldseker no lo ve así. Según ella, “conocer de cerca a una ONG te permite ser mejor filántropo.
Se trata de escuchar, aprender y así poder apoyar la causa de la forma más eficaz”.

Sus redes de apoyo

Los jóvenes suelen compartir sus vidas filantrópicas con sus amigos, quienes les ayudan a
encontrar el camino para donar. Los grupos de pares cerrados y discretos pueden ser
especialmente relevantes para jóvenes que no quieren revelar el tamaño de su patrimonio a todo
el mundo.

En el sitio web de Boldergiving que da a conocer historias de personas que se atreven a donar un
20%, un 50% y hasta un 90% de su patrimonio, Jason Franklin cuenta que descubrió la existencia
de la fundación familiar cuando tenía 22 años. Para Jason, Resource Generation, una ONG que
incentiva a jóvenes de grandes patrimonios comprometidos a aprovechar sus recursos para lograr
cambios sociales, le ofreció “una comunidad segura que necesitaba de forma urgente para poder
explorar qué implicaba este descubrimiento para mi vida”.

En #Nextgendonors, un 31% de los jóvenes cita grupos de pares coetáneos como fuentes que
facilitan sus relaciones y su educación sobre las donaciones. ¿Por qué? Según un donante:
“Necesito estas conexiones con gente que entiende lo que quiero lograr y que me obliga a rendir
cuentas de los valores con los que quiero vivir”.

Los jóvenes también valoran los consejos de profesionales expertos en filantropía, especialmente
en el momento de iniciar un proceso de cambio en una fundación familiar o en el estilo de donar.

Desde que creó su fundación patrimonial, Ebrahimi cuenta tanto con un consultor externo en
filantropía como con gente de su family office. Tuna valora mucho las evaluaciones y
recomendaciones de la ONG Givewell, de cuyo patronato forma parte.

182
Katherine Lorenz participa en la fundación de su abuelo milmillonario desde hace nueve años,
desde que sus abuelos invitaron a los hijos y nietos mayores de 25 años a participar en el gobierno
de la fundación. Todavía agradece a los asesores externos que ayudaron a la familia a precisar los
objetivos de la fundación patrimonial en el momento del relevo y así facilitar sus decisiones
futuras.

Lorenz se siente afortunada de poder participar en las donaciones familiares desde los 25 años.
Los jóvenes filántropos se caracterizan por su interés en participar activamente cuanto antes. No
tienen miedo a dedicarle el tiempo y creen que lo mejor es “aprender sobre la marcha”. De hecho,
el 51% de los jóvenes ya se describe como “muy experimentado” o “bastante experimentado” en
temas de filantropía y voluntariado.

Tienen modelos a seguir: John Arnold tenía poco más de 30 años cuando comenzó a financiar
proyectos de KIPP, programa entonces puntero en el movimiento charter schools, cuyo fundador
Mike Feinberg, tenía más o menos la misma edad. Con humor, Feinberg lo describe como un
escenario del tipo “joven conoce a otro joven y decidimos cómo íbamos a cambiar el mundo”.

Inversiones para conseguir impacto

Una vez más Lorenz parece reflejar las tendencias de sus coetáneos cuando explica por qué las
inversiones de impacto le interesan: “Ante todo, pienso en el impacto que me gustaría tener y
luego tengo en cuenta todos los recursos a mi disposición: subvenciones, inversiones, redes de
contacto, tiempo, pasión, son herramientas que puedo utilizar para aportar mi grano de arena”
(Vid. Los trucos para invertir con impacto).

Zac Russell, joven patrono de la fundación familiar Russell, cuyo abuelo fundó la compañía del
Russell Index, es más explícito aún: “Ya no debemos preguntarnos si debemos hacer inversiones
de impacto, sino cuándo hacerlas. Puesto que se trata de temas que nos importan, queremos
aprovechar toda nuestra capacidad para conseguir los cambios que queremos ver en el mundo”.

Muchos de los jóvenes filántropos quieren asegurarse de que sus activos reflejen sus valores. Los
jóvenes juegan un papel muy importante en el movimiento Slow Money, que promueve
inversiones para fortalecer sistemas locales de agricultura y comercio sostenible (Vid. Slow Money,
donde se cruzan comida y dinero).

También hacen inversiones de tamaño significativo en el mundo del capital riesgo. Por ejemplo, en
2012 Moskovitz lideró una ronda de 15 millones de dólares en capital social en Vicarious, una
compañía de inteligencia artificial, con el compromiso de que las ganancias irían al patrimonio de
su fundación. Para Moskovitz se trata de una inversión financiera y social a la vez, por el papel
positivo que la tecnología de Vicarious podrá jugar en la sociedad del futuro.

Los jóvenes incluso crean sus propios vehículos de inversión si hace falta. Por ejemplo, con 30 años
Brendan Martin combinó una herencia con ganancias de su trabajo en Wall Street para crear un
fondo permanente sin fines de lucro que provee prestamos a cooperativas en Argentina,
Nicaragua y Nueva York.

¿Un fenómeno mundial?

183
El estudio #Nextgendonors se limita a jóvenes estadounidenses pero cuando Compromiso
Empresarial preguntó a Goldseker hasta qué punto se pueden extrapolar sus resultados a nivel
global, ella contestó que colegas en otras partes del mundo decían observar tendencias parecidas.

Las futuras estrellas de la filantropía, estudio realizado por Scorpio Partnership para el Charity Aid
Foundation (Reino Unido) en 2012, reveló características de la filantropía de miembros de la
“Generación Y” (nacidos entre 1980 y 1999) que gozan de altos patrimonios frente a sus pares con
más de 45 años en el Reino Unido, EEUU, Australia, Canadá, Singapur y Malasia.

A diferencia de la investigación #Nextgendonors, el estudio no se restringió a personas activas en


filantropía, sino que encuestó a 5.950 individuos con un patrimonio promedio de más de 1,5
millones de libras. Pero los resultados eran coherentes con el estudio de grandes donantes
estadounidenses.

En el futuro, los autores del estudio prevén “más innovación, experimentación, más relaciones a
largo plazo y más enfoque en aprovechar los recursos”. ¿Por qué? La mayoría de los jóvenes (52%)
dice que “quieren generar impacto”, cuando solo el 43% de los mayores de 45 declara lo mismo. Y,
como sus homólogos estadounidenses, los jóvenes quieren “involucrarse a nivel personal” con el
doble de frecuencia que las generaciones mayores (33% frente a 16%). Un porcentaje importante
de esos jóvenes (42%) se dirige a sus familias para informarse sobre filantropía, frente a solo un
28% de los que tienen 45 años o más.

Los jóvenes también dicen consultar a sus pares (38%) y colaborar en Giving Circles(Grupos de
codonación). A los de menos de 45 años les inquieta en particular la brecha entre ricos y pobres, la
educación, la corrupción y el cambio climático. Y son generosos. La donación promedio anual de
los jóvenes a causas filantrópicas era casi 3.000 dólares más que la donación promedio de los
encuestados con más de 45 años.

En el Global Philanthropy Forum de 2013 se notó el mismo enfoque preciso en generar impacto
entre los filántropos originarios de África y América Latina, que el estudio identificó en los jóvenes
estadounidenses. Por ejemplo, Antonio Moraes Neto, joven miembro de la familia empresarial del
Grupo Votorantim en Brasil, cofundó Vox Capital, fondo social que invierte en empresas que sirven
a la base de la pirámide y contribuyen a reducir la pobreza en Brasil. Vox utiliza las métricas de IRIS
y GIIRS para cuantificar su impacto social además de su retorno financiero (Vid. Cómo los
filántropos persiguen el “Santo Grial” de la medición de impacto). Jane Wales, presidenta del
Forum cita “una revolución digital y social que les permite dirigir sus intervenciones con mayor
precisión”.

El futuro

#Nextgendonors retrata una generación que incorpora el ser filántropo como parte importante de
su identidad, no como una actividad aparte o relegada a cuando se visten de gala para una cena
benéfica.

Todo lo contrario, los jóvenes quieren “vivir sus valores” todos los días con sus acciones, sus
inversiones y su tiempo libre. Además de sus donaciones, muchos de ellos hasta dedican sus vidas
profesionales al sector social. No solo no esperan hasta jubilarse para interesarse en la filantropía,
con frecuencia ni siquiera esperan hasta graduarse de la universidad.

184
Dicho esto, 21/64 y el Johnson Center también recuerdan que estos jóvenes están todavía en
pleno proceso de “crear sus identidades filantrópicas”. Muchos no han tocado aún la mayor parte
de sus herencias y todavía se están integrando en el escenario dominado por sus padres, tíos y
abuelos.

Actúan mientras siguen aprendiendo a través de sus propias experiencias. Están definiéndose
como filántropos y reflexionando sobre sus propios legados mientras toman su responsabilidad
muy en serio. Vale la pena apoyarlos.

Componentes de la estrategia filantrópica

Los cinco componentes más importantes de una estrategia filantrópica según los grandes
donantes de la próxima generación son:

1. Hago “due diligence” e investigo antes de decidir a qué grupos apoyar.

2. Primero determino mis objetivos filantrópicos y mis soluciones ideales, luego busco potenciales
receptores de fondos que los encarnen.

3. Financio iniciativas que responden a causas raíces e intento soluciones sistémicas.

4. Prefiero tener información comprobada acerca de la eficacia o el impacto medido de una


organización antes de decidir si apoyarla o no. 5 Con frecuencia recomiendo una causa o una
organización a otras personas.

Los nuevos filántropos españoles

Entrevista a Nathalie Sauvanet, Global Head of Individual Philanthropy de BNP Paribas Wealth
Management

¿Cómo es el perfil de los filántropos españoles en la actualidad?

El perfil general de los filántropos ha cambiado. Mientras que los filántropos solían organizar sus
acciones benéficas a través de sus testamentos, ahora quieren actuar durante su vida. Estos
nuevos perfiles de filántropos incluyen, por ejemplo, líderes empresariales dispuestos a
redistribuir una parte de su éxito, o personas que, a falta de herederos, están preocupados por el
futuro de su patrimonio.

Para la mayoría de los filántropos, mejorar la vida de otras personas es una filosofía que se
transmite de generación en generación. Los titulares del patrimonio familiar quieren transmitir a
sus hijos o a sus familiares más cercanos, el valor de compartir con los demás.

Se aprecia también un número creciente de “filántropo-emprendedores” tanto en España, como


en otros países europeos y asiáticos. Siguiendo los pasos de los anglosajones, cada vez más
filántropos de Europa y Asia optan por un enfoque emprendedor basado en modelos de
financiación similares al capital riesgo. Estos filántropos buscan eficiencia y están acostumbrados a
valorar el rendimiento social de sus acciones. Están comprometidos a nivel financiero, y además,
están deseando utilizar sus habilidades y sus redes profesionales para servir a sus causas. La
generación más joven de emprendedores está particularmente abierta a utilizar métodos híbridos
para conseguir mayor eficiencia e impacto global.

185
Los filántropos españoles están cada vez más informados y más preparadosprofesionalmente.
Presentan un enfoque muy pragmático ya que preparan con antelación sus acciones, comprueban
la utilidad y la validez de sus iniciativas con otros filántropos comprometidos o expertos y buscan
información para formarse en las particularidades del sector filantrópico o en las causas que han
seleccionado.

¿Cuáles son las causas que más apoyan los filántropos españoles?

La filantropía española se está abriendo cada vez más a la diversidad de los problemas presentes
en la sociedad nacional, como la inmigración, la huida de capital humano, la investigación médica
o la integración social. Sus contribuciones suelen estar relacionadas con sus pasiones e intereses,
con un deseo de tratar con cuestiones que les afectan personalmente o con su percepción de los
actuales problemas y necesidades sociales.

El resultado de estos desarrollos es una filantropía más madura en la que, a través de un enfoque
estructurado, se utilizan los medios adecuados para actuar en las causas elegidas. El número de
fundaciones españolas actuales y recientes es una ilustración de esta evolución.

La filantropía está presente en todas las áreas referentes al bien común, incluyendo problemas
sociales, culturales o medioambientales. Las causas apoyadas van desde la educación, la
promoción de arte contemporáneo o del patrimonio cultural, hasta los derechos de las mujeres, el
cambio climático, ayudar a niños en riesgo de exclusión o ayudar a comunidades desfavorecidas.

Los proyectos son además extremadamente variados: desde mejorar la autonomía y calidad de
vida de las personas mayores y de los pacientes con enfermedades crónicas, hasta facilitar la
integración social y profesional de la gente joven, u ofrecer becas a jóvenes artistas.

¿Cuáles son las motivaciones de los filántropos “Millenials”?

Esta nueva generación es consciente de que no solo tienen que aprender sobre los retos y
problemas relacionados con la causa de su elección antes de actuar, sino que también deben
considerar los diferentes medios de acción antes de determinar su ámbito de intervención. De
hecho, normalmente no se limitan a donar dinero, sino que aprovechan cualquier herramienta
para conseguir sus objetivos: inversión de impacto social, desarrollo de habilidades, etc.

Los filántropos millennials están especialmente interesados en utilizar los canales digitales para
promover sus causas, para encontrar beneficiarios, donantes, talentos y para formarse a sí
mismos. Creen que pueden ser más efectivos si se relacionan con otros filántropos a través de
redes internacionales o locales, que utilizan para buscar co-inversores, cofundadores, nuevas ideas
y mejores prácticas. Pero sobre todo, esta nueva generación sabe que puede conseguir impacto
hoy mismo y no ven ningún motivo para retrasarlo.

Entre sus sectores favoritos podemos encontrar las FinTechs, las Edtechs, la energía renovable y la
comida y agricultura. En general, los “Millennials” son más globales que los “Baby Boomers”.

186
3.32. ¿CÓMO BUSCAR CREAR LOS ENTORNOS DEL FUTURO CON LA
DIGITALIZACIÓN?

LA DIGITALIZACIÓN MARCARÁ EL FUTURO DE NUESTROS TRABAJOS

Transformación Digital: nuevo eje central en las empresas

La irrupción de las nuevas tecnologías e Internet en la sociedad han provocado enormes


transformaciones. Una sociedad hiperconectada que genera datos de forma masiva, que consume
desde el móvil y que se influencia por nuevos líderes de opinión que surgen en la red. Por un lado,
está previsto que la automatización destruya muchos empleos pero, por otro lado, la experiencia
de nuestros clientes cada vez más sofisticada generará nuevas formas de trabajo y la construcción
de nuevos servicios.

Por poner un ejemplo fácil de entender, imaginemos un futuro en el que la comida diaria la
dispense una impresora de alimentos y, al mismo tiempo, los fines de semana paguemos una
enorme cantidad de dinero por disfrutar de experiencias gastronómicas que nos sorprendan o
compremos productos de proximidad y hechos de forma artesana. ¿Será este el futuro? Pues no lo
sabemos, pero lo que está claro es que la automatización destruirá empleos, a la vez que el mundo
de las experiencias va a generar muchas nuevas profesiones.

¿Desaparecerán muchos empleos? ¿Aparecerán nuevos? ¿Cuáles son los perfiles laborales de
Marketing Digital más demandados?

El futuro es incierto y más en el sector del Marketing que se encuentra en continuo cambio.
Desconocemos cómo va a seguir evolucionando la digitalización y hasta qué punto va a cambiar el
entorno empresarial, pero sí sabemos que las cosas están evolucionando y lo hacen todavía más
despacio de lo que lo van a hacer en el futuro. Lo que sí no deja de crecer es la oferta y la
demanda de formación online. Esto es sinónimo de que las nuevas profesiones digitales requieren
de una formación continua. Razón de ello es que en la mayoría de las ofertas de trabajo
relacionadas con Internet se exige, al menos, un master de marketing digital o un curso de
marketing online avanzado en campos específicos como la programación, el Big Data o las
aplicaciones móviles.

Transformación Digital: nuevo eje central en las empresas

Nos encontramos en un momento en el que la tecnología no puede sino seguir evolucionando y


las empresas deben adaptarse al entorno digital si quieren sobrevivir. Para introducirse a la cabeza
del nuevo escenario empresarial, es necesario adoptar la innovación como eje central de la
organización y seguir avanzando en ese sentido. Por lo tanto, el nuevo y mayor reto al que se
enfrentan las empresas es el de digitalizar los servicios de cada departamento.

187
Por ejemplo, el marketing digital es una de las especialidades que más cambios ha sufrido en los
últimos años. El desarrollo de nuevas tecnologías como el Big Data o el Internet de las Cosas
permite automatizar funciones y manejar grandes volúmenes de datos. Esto ofrece a las empresas
grandes cantidades de información sobre los clientes para conocer sus necesidades y, en base a
ellas, determinar las estrategias más efectivas.

Al igual que cobra relevancia la tecnología, también las personas que la manejan. En este sentido,
al igual que las empresas deben tener el compromiso de sumarse a la transformación digital y de ir
adoptando las técnicas necesarias, también se debe poner a las personas en el centro de la
gestión. Es decir, reforzar la cultura corporativa para encaminar a toda la organización hacia el
mismo camino.

Por lo tanto, para que la digitalización suponga una ventaja y no una traba, es necesario el firme
compromiso de adaptarse al entorno online. Solo así las empresas podrán introducir técnicas cada
vez más eficientes, mejorar su rendimiento, abaratar costes y obtener diferenciación y ventaja
competitiva.

¿Hay suficientes profesionales digitales?

Las empresas surgidas de la era digital operan de forma distinta a las tradicionales. Por un lado sus
estructuras son ágiles y líquidas para poder afrontar los rápidos cambios del mercado y por otro
lado sus profesionales tienen fuertes competencias y capacidades tecnológicas y digitales para
desenvolverse con soltura en un mundo cada vez más técnico y especializado.

Las empresas tradicionales necesitan adaptar sus estructuras "tradicionales" y abrirse a nuevos
perfiles profesionales, nuevas formas de organización

Y, ¿cuál es el problema al que se enfrentan ahora las empresas? Precisamente a la escasez de


profesionales especializados en áreas digitales. Se necesitan personas capaces de manejar las
áreas relacionadas con la digitalización de procesos, pero todavía los profesionales preparados
para ello escasean.

Este hecho se debe a que la introducción de nuevas herramientas digitales se ha producido en un


corto periodo de tiempo, por lo que la demanda de profesionales especializados en el entorno
digital y capaces de gestionar estas nuevas tecnologías que la organización ha introducido se ha
incrementado considerablemente.

En el área del marketing la digitalización ha traído nuevas especialidades que hasta ahora no
conocíamos, como el Growth Hacking, el Inbound Marketing o el Traffic Management. Áreas que
requieren profesionales multidisciplinares, con conocimientos de marketing, pero también de
analítica o de programación.

La actual escasez de este tipo de perfiles presenta nuevas oportunidades laborales, tanto para los
profesionales de hoy como para los de mañana.

Para destacar es imprescindible especializarse y cualificarse

Randstad Research, ha elaborado el informe "La digitalización: ¿crea o destruye empleo?" para
analizar la situación presente y futura del empleo a raíz de la digitalización del mercado laboral. El

188
informe revela que el 38% de los profesionales que se demandarán en el futuro serán "knowledge
workers", es decir, profesionales cualificados y especializados.

La Unión Europea también se pronuncia sobre la digitalización, en el Programa Marco Horizonte


2020 (H2020), asegurando que si los profesionales y las empresas no pasan por los procesos de
transformación digital, nos encontraremos con 500.000 empleos digitales que no podremos cubrir.

La digitalización y la especialización son dos conceptos que van de la mano. Nos encontramos en
un momento en el que la competencia en el entorno empresarial es más alta que nunca.
Diferenciarse del resto no es fácil, pero una forma de conseguirlo es a través de la especialización.

Las nuevas profesiones que surgen a raíz de la digitalización de los procesos requieren de una
especialización en determinadas áreas tecnológicas, ya que es un campo infinitamente amplio y
que no deja de crecer.

Los profesionales especializados pueden aportar valor al negocio y optimizar el uso de la


tecnología, por lo que las empresas los tienen en el punto de mira. ¿El motivo? estos profesionales
no sólo van a ayudar a la organización a manejar las herramientas digitales, sino que también van
a poder conducir al resto del equipo para que adopte una cultura digital.

A parte de especializarse, es necesario adoptar unas cualidades específicas que, sobre todo, se
centran en trabajar de forma dinámica y flexible, ser multiplataforma y tener capacidad de
adaptación al cambio.

El informe asegura que muchas empresas están recalcando la falta de soft skills de sus candidatos;
haciendo hincapié en la carencia de competencias sociales y emocionales, necesarias a la hora de
trabajar en equipo.

Las soft skills más demandadas en 2020 serán:

1. Resolución de problemas complejos

2. Pensamiento crítico

3. Creatividad

4. Gestión de personal

5. Coordinación con otros

6. Inteligencia emocional

7. Juicio y toma de decisiones

8. Orientación al servicio

9. Negociación

10. Flexibilidad cognitiva

Los 5 perfiles más buscados de Marketing y Negocios Digitales

189
Las nuevas oportunidades que trae la digitalización en el mercado laboral son evidentes. Pero sólo
podrán convertirse en oportunidades reales si los profesionales son capaces de detectarlas a
tiempo y de especializarse en las ramas más demandas.

El nuevo escenario tecnológico ha dado forma a nuevas profesiones, las cuales cubren las nuevas
demandas y necesidades digitales de las empresas. Al tratarse de ámbitos apenas explorados por
el sistema educativo, todavía no existen formaciones completas en áreas digitales muy concretas.

Estas son 5 nuevas profesiones digitales que van a estar muy demandadas en el siglo XXI:

#1 Data Scientist / Científico de Datos

El Data Scientist (o Científico de Datos) es lo que conocemos como un especialista en Big Data.
Este profesional se encarga de traducir datos para convertirlos en información útil que sirva a la
empresa para tomar mejores decisiones. Va ser una de las profesiones más demandadas, ya que el
Big Data no deja de generar mayores cantidades de datos.

#2 Experto en ciberseguridad

La seguridad en Internet es un tema que preocupa a las empresas, tanto por la protección de sus
datos como por la falta de confianza que suelen tener los consumidores cuando compran online.
Por estas razones, un experto en ciberseguridad va a ser un profesional clave para las
organizaciones, que establezca sistemas de protección contra fraudes informáticos o ataques a
sistemas. Además también es necesaria la creación de un marco regulador, por lo que estos
expertos deberán tener conocimientos de tecnología y de abogacía.

#3 E-Business Manager

Este directivo es el encargado de trasladar el negocio tradicional al entorno digital. Es el


responsable de la estrategia e-Commerce y de que el plan se ejecute según lo establecido. Para
ello, coordina al equipo y delega funciones. Este perfil cobra relevancia ya que cada vez son más
las empresas que se están transformando digitalmente.

#4 ASO Manager

El ASO (App Store Optimization) Manager mejora la visibilidad y el posicionamiento de las apps, en
las principales tiendas de aplicaciones. Debido al espectacular crecimiento de las aplicaciones
móviles, se necesita un especialista que optimice los factores importantes a la hora de posicionar
una app en la tienda de aplicaciones y que analice las keywords que más ayuden a lograrlo.

#5 Especialista UX

La experiencia del usuario UX, es decir, el grado de facilidad de uso de una web o una app por
parte de los usuarios. Supervisar y mejorar esta usabilidad recae sobre el especialista UX. Un
profesional que se encarga de optimizar la navegación, aplicando técnicas intuitivas y diseños
atractivos.

¿Estás preparado para trabajar en la Era Digital?

190
Antes de conseguir un trabajo debemos pasar primero, lógicamente, por un proceso de selección.
Al igual que aparecen nuevas profesiones de carácter digital, los departamentos de Recursos
Humanos también han introducido herramientas digitales para encontrar al candidato ideal.

Es así como Internet se ha convertido en la bolsa de trabajo más grande del mundo. Las empresas
acuden a la red, tanto para localizar nuevos talentos como para tener más información sobre sus
candidatos.

Por ello, la reputación online es un elemento clave para conseguir nuevas oportunidades
profesionales. La identidad construida en Internet depende, estrechamente, de los contenidos que
los profesionales decidan publicar. Por ello, deben ser conscientes de la finalidad que tiene cada
red social y aprovecharla para hacer networking, crear una sólida red de contactos y darse a
conocer.

Queda claro que la digitalización está transformando el escenario empresarial e introduciendo


nuevas necesidades en el mercado laboral. Desconocemos cómo cambiará la cosa en unos años,
pero lo que sí sabemos es que los profesionales especialistas en las áreas digitales van a marcar los
procesos de transformación de las empresas y, con ello, el paso hacia una nueva era altamente
digital.

SIN DIGITALIZACIÓN NO HAY FUTURO: LA TECNOLOGÍA COMO MOTOR DEL CRECIMIENTO

• Las nuevas compañías pueden hacer desaparecer las marcas más arraigadas

En la actualidad, la crisis griega mantiene en vilo a toda Europa. Nadie pueda anticipar las
consecuencias económicas y sociales de un hipotético 'Grexit', pero ya se podido ver lo mucho que
algunos países temen la salida de la eurozona de Grecia. Sin embargo, desde el punto de vista
económico existe otra cuestión completamente distinta que, aunque ofrece grandes
oportunidades para todos, si se ignora, puede provocar consecuencias muy graves. Se trata de la
digitalización de la economía y la sociedad.

Y es que, ante la gigantesca ola que se aproxima solo podemos hacer dos cosas: cabalgarla o
sucumbir a ella. Es un hecho que las tecnologías digitales han devenido en importantes motores
del crecimiento y la innovación. Ofrecen soluciones para innumerables problemas de nuestro
tiempo, como la reducción de las emisiones de CO2, la creación de redes de energía inteligentes,
la invención de ingeniosos conceptos de movilidad o el desarrollo de soluciones innovadoras en el
sector sanitario.

Pero también está la otra cara de la moneda: las nuevas empresas digitales tienen el potencial de
hacer desaparecer las marcas más arraigadas. Ahora bien: quien crea que la digitalización consiste
únicamente en sustituir los productos pasados de moda se equivoca por completo. Las ofertas
digitales ofrecen una evidente mejora en las funciones y los servicios, y permiten orientar el
negocio al cliente como nunca antes se había hecho. Por consiguiente, la pregunta fundamental es
la siguiente: ¿van a ser desbancadas las empresas tradicionales por las nuevas compañías de base
digital o podrán transformarse a tiempo?

Cambio de paradigma

191
El cambio al paradigma digital ha alcanzado tal dimensión que hace imposible el retorno al mundo
analógico. Quien no se suba al tren corre el riesgo de perderlo para siempre. Ha llegado el
momento, por tanto, de que la digitalización se convierta en la máxima prioridad en la agenda
política y empresarial de Alemania y el resto de Europa.

Pero para ello hay que tener en cuenta que la conversión a la empresa digital no se produce por
arte de magia. Existen tres aspectos que caracterizan a los nuevos actores digitales: un
pensamiento empresarial global, las competencias de software adecuadas y la transparencia de
los procesos de la empresa en tiempo real.

Gracias a Internet, adoptar el primer punto nunca había sido tan fácil. Un ejemplo: en apenas diez
años de existencia, Flickr, que cuenta con tan solo 50 trabajadores, ha almacenado y
comercializado más fotos que una empresa como Kodak, que cuenta con una plantilla de 140.000
empleados y más de 100 años de existencia. Mientras que el antiguo líder de equipos de fotografía
se ha hundido, Flickr no para de crecer.

Modelos de negocio eficientes

En segundo lugar, las empresas digitales solo pueden sacar partido a las competencias de software
adecuadas si construyen sus modelos de negocio sobre una plataforma de TI eficiente. Las
aplicaciones de software clásicas, que suelen responder al modelo de solución aislada que ofrece
accesos insuficientes a los datos, no constituyen unos buenos fundamentos para una empresa
digital. Ésa no es la manera de diseñar los nuevos procesos de negocio globales, ni mucho menos
la forma de ofrecer los nuevos servicios para una mejora de la orientación al cliente. El software
estándar ya no sirve. Como sugiere su nombre, este software no proporciona funciones
innovadoras, sino estándar. Las empresas digitales

se basan en plataformas rápidas y adaptables que garanticen la máxima flexibilidad. Por desgracia,
en las últimas décadas muchas empresas han perdido las capacidades de software necesarias,
unas veces debido a la externalización de servicios, otras veces porque adquieren aplicaciones
estándar.

Transparencia

El tercer aspecto es la transparencia de los procesos de la empresa en tiempo real. Aquí se incluye
la capacidad de recopilar e interpretar una evaluación integral, es decir, de realizar evaluación 360
grados, de los clientes de acuerdo con una orientación completa hacia el cliente. Éstas son las
pautas principales que deben seguir las nuevas empresas digitales. Solo así podrán seguir el
compás de los tiempos y hallar las respuestas más apropiadas a las cambiantes necesidades de los
clientes.

El ranking mundial de las empresas con más éxito corrobora esta estrategia. Cuatro de las diez
marcas más innovadoras del mundo pertenecen a empresas digitales. Y compañías tan
importantes como Apple, Google, Amazon o PayPal han conseguido lo que toda empresa
tradicional debería conseguir: digitalizarse, centrarse en el cliente y adaptarse por completo.

Ha llegado el momento de sacar a relucir el potencial mediante la digitalización. Porque todo lo


que se puede digitalizar, acabará digitalizado; y todo lo que se pueda interconectar, acabará

192
interconectado. La digitalización ofrece enormes oportunidades de mercado a todas las empresas.
La empresa que las desaproveche iniciará una lenta agonía que, a largo plazo, culminará con su
desaparición.

Nadie puede escapar hoy en día a la digitalización, y menos aún las empresas. Inmersas desde
hace algún tiempo en lo que se ha convertido en una carrera a contrarreloj, compañías de todo
tipo de sectores se enfrentan al reto de identificar y aprovechar las oportunidades que ofrece el
salto al mundo digital, así como los riesgos que puede implicar la adaptación a las nuevas reglas
del juego que rigen la relación con los consumidores. Encontrar la forma de transformar las
organizaciones de acuerdo con este nuevo modelo empresarial sin que nadie se quede atrás es el
principal desafío al que se enfrentan las compañías, tal y como expusieron los asistentes al
desayuno de trabajo organizado por Cinco Días, en colaboración con KPMG.

“Nosotros nos enfrentamos constantemente a ayudar a empresas a transformarse digitalmente y


los primero que vemos es que se encuentran con una gran cantidad de términos en los que es fácil
perderse y sin la referencia de ese abc que todo el mundo se había aprendido antes para dirigir un
negocio”, aseguró Luis Ferrándiz, socio responsable de servicios digitales de la firma de servicios
profesionales en España. Según explicó, es posible diferenciar tres fases principales en un proceso
de digitalización de una empresa: la identificación de lo que está sucediendo en el entorno actual,
el compromiso de la organización para ejecutar la transformación y el cambio de dinámicas
propiamente dicho.

Sin embargo, los expertos mostraron que puede haber tantos procesos como compañías ya que
cada una se enfrenta a una situación y un contexto muy diferente. Para Gabriela Díaz Guadarmino,
directora de marketing de Ikea, el gigante de los muebles y la decoración se ha visto inmerso en
todo un cambio de estrategia en el modelo empresarial para adaptarse a lo que ha supuesto la
incorporación de las nuevas tecnologías a la vida diaria. “Este cambio toca los grandes pilares de la
compañía como la cultura empresarial, pero también la manera en que nos organizamos –porque
todo pasa de forma mucho más dinámica– y la relación con el cliente –que ha pasado a tener el
poder–”, explicó.

Los expertos señalaron que los cambios todavía no han terminado

Por su parte, la directora de marketing de Shiseido, Ainhara Viñaras, puso de manifiesto cómo se
enfrenta a la digitalización una empresa de cosmética y belleza que comercializa sus productos a
través de un circuito de distribución. En primer lugar, Viñaras señaló que el mercado de la belleza
está muy por detrás de otros en lo que se refiere a uno de los grandes pilares de la digitalización:
el comercio electrónico, ya que, según afirmó, solo un 2% de las ventas online en España
corresponden a productos del sector. Además, recalcó que Shiseido se enfrenta al problema de
que su primer competidor son los propios retailers, que juegan a realizar una serie de descuentos
que la marca nunca va a hacer aunque tenga su propio e-commerce. “Donde nosotros nos
podemos diferenciar es creando experiencias para los consumidores”, aseveró Viñaras que
puntualizó que en el mercado en el que se mueve Shiseido los clientes buscan al fin y al cabo un
asesoramiento. Consultores de belleza online en la cosmética, aplicaciones de realidad virtual para
probar diferentes maquillajes o software para conocer y fidelizar a los clientes se convierten en

193
algunas de las armas que esta firma emplea para destacar en un entorno en el que ordenadores y
dispositivos móviles cobran cada vez más protagonismo.

Pero no solo las empresas tradicionales tienen que reinventarse continuamente para adaptarse a
las nuevas exigencias del mercado y los consumidores, las que han nacido ya en un entorno digital
también están obligadas a esforzarse para no perder el tren en un entorno que no para de cambiar
(y que cada vez se transforma más rápido). Un ejemplo es el marketplace eBay. Su directora
general en España, Susana Voces, argumentó que el objetivo de este portal que se encarga de
poner en contacto a compradores y vendedores es ayudar a estos últimos a comercializar sus
productos a nivel tanto nacional como internacional, entendiendo qué es lo que demanda el
consumidor. “Lo que nosotros damos a las empresas es, por una parte, tráfico y, por otra,
tecnología, ya que ofrecer los avances que el cliente quiere resulta complicado para las empresas
más pequeñas”, expuso Voces. Convencida de que son estos aspectos los que permiten a la
compañía ofrecer valor a vendedores y compradores, la representante de eBay en el debate
aseguró que las empresas españolas todavía pueden avanzar mucho en la venta online teniendo
en cuenta tendencias como el comercio móvil.

Los obstáculos al cambio

A pesar de que la mayoría de las compañías son conscientes de la importancia de digitalizar su


negocio, los ponentes aseguraron que todavía se enfrentan a ciertas resistencias a la hora de dar
el paso en sus organizaciones y hacer entender a todos que las nuevas tecnologías no son una
opción y que se deben incluir de forma transversal en las organizaciones. “En Ikea estamos ahora
inmersos en ese cambio, aún no se puede decir que lo hayamos completado”, sostuvo Díaz
Guadarmino, que recordó que aunque circunstancias como la crisis han obligado a las empresas a
transformarse y por tanto han facilitado que sus miembros abrieran la mente, “no todo el mundo
en la organización está dispuesto o es capaz de llevar a cabo esa transformación. “Para mí es
fundamental la implicación del comité de dirección de la compañía. Después, nos encontramos
con gente que está deseando subirse al tren, otra gente que quiere subirse pero no sabe –a los
que habrá que formar– y algunos que todavía se resisten”, concluyó la directora de marketing de
Ikea.

Para el socio responsable de servicios digitales de KPMG, la digitalización ya empezó en la época


puntocom, pero 16 años después ha habido compañías que no han aprovechado esta oportunidad
para desarrollarse y crecer. “A algunas la crisis les ha obligado a sujetar la cuenta de resultados,
otras no han tenido capacidad para verlo y en el caso de las compañías B2B este cambio no les ha
quedado tan cerca como a las que tienen contacto directo con el cliente”, explicó Ferrándiz, que
abogó por que las empresas remen en equipo, en la misma dirección y con la misma fuerza, para
no quedarse atrás en la carrera de la digitalización. “Si las compañías no capturan la oportunidad
lo harán otros y estas quedarán cada vez más rezagadas”, recalcó.

“No podemos olvidar que la digitalización es algo muy amplio”, recordó por su parte la directora
de marketing de Shiseido que apuntó que hoy en día no se puede considerar que por que una
empresa haya abierto perfiles en las redes sociales se ha digitalizado. “Lo que hay que hacer
realmente es analizar los procesos, las estructuras y toda la empresa, no basta con dar un servicio

194
más digital, es algo que afecta a todos los departamentos por lo que la voluntad tiene que ser
transversal”, apostilló Viñaras.

Tendencias para el futuro

Sin embargo, y por si no fuera suficiente con el esfuerzo que ya supone para muchas de estas
organizaciones impulsar una transformación digital, durante la conversación también se puso de
manifiesto que los cambios no han terminado y que el mundo sigue evolucionando con las nuevas
tecnologías.

Susana Voces, de eBay, puso sobre la mesa algunos de los aspectos que la compañía considera que
ganarán peso en los próximos años. “En el presente vemos claro que se está eliminando la barrera
entre online y offline y de cara al futuro detectamos cinco tendencias que consideramos que van a
suponer toda una revolución en el comercio de cara a los próximos años”, relató.

Voces habló de una etapa posmóvil, con dispositivos como los wearables, que permitirán que todo
esté conectado y se refirió a la importancia que ganará la producción bajo demanda de cara al
futuro, la cual llevará a que sean los clientes los que expresen sus peticiones para que las
empresas sean capaces de fabricar los productos teniendo en cuenta los deseos del consumidor.
Globalización, tendencia hacia lo virtual y hacia lo sostenible completan esa serie de tendencias
que esta experta en el mundo digital expuso y que abren todo un abanico de posibilidades para las
empresas que sepan aprovechar la oportunidad.

EN BUSCA DE LOS PERFILES ADECUADOS

Para llevar a cabo con éxito la digitalización de una empresa, los expertos reunidos por Cinco Días
coincidieron en que hay una pieza muy importante: los profesionales. Sin embargo, expusieron
que habitualmente se encuentran con problemas para dar con personas que respondan a los
perfiles que las compañías precisan en este momento.

“Cuesta mucho esfuerzo encontrar, por ejemplo, a alguien para llevar toda la parte de CRM”,
señaló la directora de marketing de Shiseido, Ainhara Viñaras. “O das con un perfil muy técnico, de
un informático que analiza y obtiene muchos datos pero es incapaz de proponer planes de acción,
o te encuentras con gente que tiene una formación más enfocada al marketing y que es más
proactiva pero que carece de la capacidad analítica”, sentenció.

Para el socio responsable de servicios digitales de KPMG, Luis Ferrándiz, uno de los grandes
problemas es que muchas de las funciones que resulta difícil cubrir son nuevas. Por otro lado, se
refirió a las dos posibles opciones que tienen hoy en día las empresas si encontrar personal
cualificado para incorporar las herramientas tecnológicas a su día a día: reciclar a alguien que ya
tiene experiencia en el negocio –aunque recalcó que ello requiere un esfuerzo por su parte y por
la de la empresa– o buscar a esa gente joven que sí cuenta con conocimientos técnicos pero a la
que le faltan habilidades de gestión. “Al final las compañías lo quieren todo porque es lo que
reclama la necesidad de negocio”, explicó, y apuntó a que el reto se complica aún más teniendo en
cuenta que las propias instituciones educativas están viviendo también el impacto de la
transformación digital.

195
Por su parte, la directora general de eBay en España, Susana Voces, destacó que muchas veces las
corporaciones tienden a elegir profesionales con habilidades muy parecidos entre sí dentro de sus
equipos. “En eBay intentamos coger perfiles muy distintos, desde jóvenes a sénior, especializados
en diferentes áreas del negocio con la intención de formar grupos muy diversos”, apostilló.

3.33. ¿QUÉ ES UN FREELANCE?

Un freelancer es alguien que trabaja de manera independiente, es decir por su propia cuenta, para
varios empleadores o clientes que contratan sus servicios profesionales.Las áreas de trabajo en las
que se puede desempeñar un freelancer son muchas.Desde proyectos que se pueden realizar en
línea como programación, diseñador gráfico, traducción, hasta trabajos presenciales como
fotografía, ventas, clases particulares, organización de eventos y mucho más.

Un freelancer puede trabajar a tiempo parcial o completo. Debido a que no son empleados fijos,
pueden realizar su trabajo a su propio ritmo, siempre y cuando se cumplan los requerimientos del
cliente y el plazo establecido.Esto les permite tener mayor libertad que un empleado promedio.

A diferencia de lo que ocurre con los trabajadores fijos, con un freelancer, la empresa no está
obligada a proveer equipo especializado ni a realizar un pago de beneficios adicionales, como
vacaciones, aguinaldos, etc.

Por ello, cada vez más empresas se inclinan por la tendencia de contratar un freelancer para
realizar su trabajo. Así, pueden ahorrar dinero sin tener que hacer un compromiso permanente
como con los empleados fijos.

Ser freelancer es una de las formas más rápidas y fáciles de comenzar a trabajar en tu área y
adquirir experiencia profesional.

Sobre todo actualmente, ya que existen diversas oportunidades en la web, donde clientes
potenciales publican lo que buscan para contratar servicios profesionales.

Un ejemplo de ello es SoyFreelancer.com, donde los freelancers registrados tienen oportunidad de


ofrecer una propuesta de servicios a quienes publican sus proyectos.Trabajar independiente
ofrece muchas ventajas, sin mencionar que eres tu propio jefe. Te permite la posibilidad de
trabajar en los proyectos que a ti te gustan. Puedes decidir la carga de trabajo que manejas, a
diferencia de un empleo fijo, donde no puedes decir no, por más que haya sobrecarga.Claro, que
en un trabajo fijo, si tienes la suerte de trabajar para un empleador que paga horas extra, puedes
ganar más dinero. Pero este pago no siempre se cumple.

Además, si lo que necesitas es tiempo para atender tus asuntos personales, trabajar más horas es
muy agotador. Esto puede repercutir en tu rendimiento y hasta en tu salud.

En cambio, al ser freelancer puedes trabajar a tu ritmo, calendarizar tus actividades diarias y elegir
el mejor horario para trabajar sin interrupciones. Otro punto a favor es que hay muchos servicios y
tareas que se pueden realizar vía internet. Por tanto, puedes trabajar desde casa y evitas perder

196
horas valiosas de tu tiempo productivo en el tráfico. O en reuniones que comienzan tarde y se
divaga en temas de poca relevancia.

Siendo freelancer, puedes trabajar en tus proyectos desde tu casa, o desde donde estés.
Aprovechas al máximo tu jornada y tienes más tiempo libre.

Cuando eres empleado, donde tu papel es el del intermediario entre el cliente y la empresa como
tal. Pero al trabajar de manera independiente, estableces un vínculo directo con el cliente.

Esto te permite personalizar las condiciones de contrato y establecer tus propias tarifas.Además,
las ganancias son 100% para ti, por lo que puedes ofrecer un mejor servicio a un precio más
competitivo.

Trabajar como freelancer te permite trabajar con clientes diversos y diferentes tipos de
requerimientos.

Constantemente estarás aprendiendo cosas nuevas, actualizándote con conocimientos y


tendencias y tecnificándote cada vez más en tu área.Esto también se traduce en más
oportunidades, ya que cuanto mayor sea tu nivel de habilidad y conocimientos técnicos, más
servicios complementarios podrás ofrecer.

Algo importante a destacar es que ser un freelancer puede ser el primer paso para emprender tu
propia empresa.

Dependiendo del servicio que ofrezcas y la diversidad de clientes que consigas, puede que
comiences a necesitar la ayuda de otro freelancer al cual subcontratar para un área que no es tu
especialidad.

Esto implica la coordinación de un equipo de trabajo, que podría ser la base para llegar a
administrar una empresa.

Lo bueno de todo este asunto es que, si tienes empleo fijo, no necesariamente debes renunciar a
él. Puedes emprender tu carrera como trabajador autónomo ofreciendo tus servicios en algo en lo
que eres bueno. Podrás sacar provecho de tu talento y de tu tiempo libre. Si piensas: “Sería genial,
pero ¿qué servicios puedo ofrecer?”, recuerda las habilidades que posees y los muchos
conocimientos que tienes en áreas que no son parte de tu trabajo.

Las 12 cosas que debe hacer un trabajador freelance:

Puede que cientos de veces te hayas planteado convertirte en un trabajador independiente pero
aún no te hayas animado, con estos consejos tomarás la decisión definitiva.

El trabajo freelance te dará más libertad, pero también implica una serie de dificultades que tienes
que saber gestionar.

Ser organizado con tus clientes y tener claro tu modelo de negocio es clave para el éxito de tu
proyecto.

Contar con un sitio web profesional o un blog te ayudará a dar difusión a tu marca.

197
Un trabajador freelance ordenado puede conciliar sus actividades personales y laborales, puede
ahorrar el dinero equivalente al transporte, desempañarse más cómodamente desde su hogar y
ser su propio jefe. No obstante, antes de optar por esta modalidad de empleo será bueno que
tomes en cuenta los siguientes consejos.

¿Qué debe hacer un trabajador freelance antes de decidir lanzarse por su propia cuenta?

1. Créate un fondo de emergencia

Lo ideal es que puedas crear tu propio fondo de emergencias. Como trabajador freelance amateur
deberás enfrentar al inicio ciertas dificultades que serán mejor de sobrepasar si cuentas con una
base monetaria.

Este colchón podrás conseguirlo con otro empleo mientras te desempañas independientemente a
tiempo parcial y te permitirá no estar desesperado por el dinero. Que tus clientes no noten tu
necesidad te permitirá trabajar más tranquilo y ser más creativo.

2. Plan de negocio

Diseña un plan que no sea demasiado detallado, pero que incluya tus metas y el tipo de tareas que
piensas aceptar.

3. Modalidad de pago

Es inviable iniciar un negocio sin saber cómo cobrar. Deberás definir si trabajarás por hora, por
tiempo u otra forma.

4. Contrato de trabajo

Puede que tengas uno básico para que tus clientes firmen y que especifique fechas, servicio,
penalizaciones y precios.

5. Crea un sitio web profesional

Presta atención a la información y diseño de tu sitio ya que será tu lazo con potenciales clientes.

6. Documentos

El hecho de trabajar freelance no implica no contar con documentos comerciales como contratos
o facturas.

7. Lugar de trabajo

Hay profesionales que se desempeñan independientemente desde sus casas sin inconvenientes. Si
este no es tu caso, hay opciones de coworking o busca crearte un espacio con un conocido que
trabaje bajo la misma modalidad que tú. Lo importante es que tengas acceso a Internet, sea un
lugar tranquilo y tengas recepción de teléfono.

8. Potencia los vínculos

198
Dado que no sabrás nunca dónde encontrarás a tus potenciales clientes procura siempre ser
amable y entregar tarjetas personales. Además, hacer crea una sólida red de contactos hará que
nunca te falte trabajo.

9. Seguimiento

Esto es clave e incluye el control de cuántos clientes atendiste en un lapso de tiempo, la forma en
la que te contactaste con ellos así como el funcionamiento de tu web o dinero ganado.

10. Socio

Trabajar con socios puede ser una buena opción. Esto te permitirá no sentirte tan solo cuando
tengas que enfrentar dificultades.

11. Formación continua

Quien trabaja freelance continuamente puede estar formándose en cosas nuevas.

12. Busca apoyo

Los que trabajan por su cuenta suelen tener vacaciones muy cortas y no vivir su tiempo libre como
sí lo viviría en un trabajo tradicional. Por eso, será bueno que busques apoyo en otros.

Para muchas personas, la idea de trabajar desde casa o de forma independiente suena como un
plan perfecto: sin horarios fijos, sin uniformes ni necesidad de pasar tiempo en el tráfico y, lo
mejor: ¡sin tener que salir de casa! Lo sabemos, el trabajo desde casa es uno de los mejores
inventos de este milenio y una de las posibilidades para hacerlo es trabajar como freelancer.

Si la idea te guiña el ojo porque necesitas tiempo libre, estás cansado de cumplir un horario, no te
agrada tu jefe o simplemente sientes que necesitas tomar otro rumbo en el ámbito profesional,
continúa leyendo porque en este post te enseñamos qué es un freelancer, sus ventajas y cómo
comenzar a iniciar en este mundo. Para muchas personas,
la idea de trabajar desde casa o de forma independiente suena como un plan perfecto: sin
horarios fijos, sin uniformes ni necesidad de pasar tiempo en el tráfico y, lo mejor: ¡sin tener que
salir de casa! Lo sabemos, el trabajo desde casa es uno de los mejores inventos de este milenio y
una de las posibilidades para hacerlo es trabajar como freelancer.
Si la idea te guiña el ojo porque necesitas tiempo libre, estás cansado de cumplir un horario, no te
agrada tu jefe o simplemente sientes que necesitas tomar otro rumbo en el ámbito profesional,
continúa leyendo porque en este post te enseñamos qué es un freelancer, sus ventajas y cómo
comenzar a iniciar en este mundo.Cualquier persona con responsabilidad que tenga habilidades,
talentos o conocimientos puede trabajar como freelancer, ya que existen un montón de áreas de
trabajo en las que puede desempeñarse, como: programador, diseñador gráfico, traductor,
redactor de contenido, fotógrafo, vendedor, profesor de clases particulares, organizador de
eventos, y mucho más.

En alguno casos, no importa si no tienes estudio superior, esto no significa que no puedas tener
éxito a nivel laboral como freelancer.

Ventajas y desventajas de ser un freelancer:

199
Al igual que todo en esta vida, ser un freelancer tiene sus pros y sus contras, ¿o acaso crees que es
muy fácil ganarte la vida estando acostado en tu sofá todo el día? Pero vamos, que tampoco es
imposible…

A continuación detallamos las ventajas y desventajas de ser un freelance.

Ventajas de ser freelancer:

No hay que cumplir horarios

Una de las mayores ventajas que tienen los freelancers es que pueden administrar su tiempo a su
manera y como mejor les convenga. Así es, no tienen un horario que cumplir y pueden realizar su
trabajo a su propio ritmo, siempre y cuando se cumplan los plazos y requerimientos de sus
clientes.

Se puede trabajar en pijamas

El hecho de trabajar desde casa permite que los freelancers puedan saltar de su cama al escritorio
para ponerse a trabajar. Así que si no eres fan de los uniformes, esta es una buena noticia.

Es posible pasar más tiempo en familia

Trabajar desde casa como freelancer es un gran ventaja para aquellas personas que tienen hijos,
estar en casa les permite pasar más tiempo con ellos, comer en familia y disfrutar de cada
momento sin apuros ni presiones. Además, ¡pueden irse de vacaciones cuando lo deseen.

Uno tiene el propio control

Las personas que trabajan de forma independiente tienen la libertad de controlar sus propias
cargas de trabajo y, además, pueden elegir los proyectos que desean hacer o los clientes con los
que quieran trabajar. Nadie les obliga a hacer algo que no les gusta.

No hay límite en los ingresos

Esta es la mejor parte (¡por supuesto!). Una de las más grandes ventajas de ser un freelance es
que no hay límite en los ingresos potenciales. Una persona puede ganar mucho más dinero siendo
freelance que trabajando con un sueldo fijo.

Por supuesto, todo dependerá de la calidad de su trabajo y la capacidad que tenga para encontrar
clientes.

Desventajas de ser freelancer

Los días de vacaciones no están remunerados

Un freelancer puede irse de vacaciones cuando lo desee, pero ¡cuidado! Es necesario recordar que
mientras están de vacaciones, no tienen entrada de dinero ni pagas extras o gratificaciones.

Los freelancers quieren hablar hasta con las plantas

200
Una de las desventajas de ser freelancer es que como pasan la mayor parte del tiempo en casa, la
interacción con otras personas está muy limitada, así que en ocasiones puede que comiencen a
sentirse solitarios.

No hay garantías

Podríamos decir que ser un freelancer es un asunto de emprendimiento, no hay garantías de que
vaya a encontrar trabajo o ganar suficiente dinero para llegar a fin de mes.

¿Qué necesitas para ser un freelancer?

Si has llegado hasta aquí es porque realmente te interesa dar ese gran paso en tu vida laboral y
convertirte en un trabajador independiente o freelancer online. Así que iremos al grano y, a
continuación, te explicamos lo que necesitas para ser un freelancer:

Tener determinación

Lo primero que necesitas para convertirte en un freelancer es la decisión de querer hacerlo. Estar
lo suficientemente decidido a dejar tu salario fijo para aventurarte como freelance es algo que
puede tomar semanas, meses o ¡un par de horas!

Sí, tú eres el único que puede tomar esa decisión y asumir por voluntad propia el riesgo que
conlleva.

Seleccionar una actividad en específico

Es importante que selecciones una actividad muy concreta para trabajar como freelance, piensa
un poco en tus habilidades, tu preparación académica y, sobre todo, en lo que disfrutas.

Si, por ejemplo, tienes estudios en diseño gráfico, puedes comenzar ofreciendo tus servicios en
ese área.

Armar tu portafolio

Tener un portafolio completo y bien presentado es de gran ayuda cuando se trata de conseguir
trabajo de forma independiente, así que es mejor que desde un principio y antes de comenzar a
enviar propuestas prepares muy bien tu portafolio.

En el portafolio, debes colocar tus datos personales, un resumen de tu experiencia en el área y,


por supuesto, una muestra de tu trabajo.

Equiparte

Asegúrate de tener todos los equipos disponibles y en buenas condiciones para llevar a cabo tu
trabajo. Por ejemplo, si estás pensando en ofrecer servicios en programación, lo más probable es
que necesites un computador.

Apuntarte a plataformas freelance

Existen muchas plataformas en Internet en las que empresas o particulares publican anuncios o
propuestas de trabajo para freelancer. Esta es una gran manera de comenzar a ofrecer tus
servicios y dar a conocer tu trabajo.

201
3.34. ¿POR QUÉ EL GRUPO HOTELERO BARCELÓ HA SIDO EXITOSO?

Tras su fundación en Mallorca en 1931, el Grupo Barceló, a través de su división hotelera y de su


división de viajes, ha conseguido pasar de ser una compañía familiar de transporte a convertirse
en uno de los grupos turísticos más importantes de España y del mundo. Desde el pasado año,
Barceló, sigue una nueva estrategia multimarca para su división hotelera en su apuesta por una
mayor especialización, y un año después empieza a consolidarse con éxito su nueva arquitectura
de marcas. Se trata de una evolución hacia una estructura en la que la internacionalización es la
clave, el objetivo principal: el de posicionar la marca en el más alto nivel de excelencia gracias a
una estudiada segmentación por marcas.

En este caso concreto desarrollamos como caso de éxito una de las acciones llevadas a cabo para
el Hotel Barceló Maya Grand Resort, ubicado en la Riviera Maya, México, de la mano de la agencia
McCann Erickson. ¿Quieres viajar por unos minutos a Rivera Maya? Te animamos a leer el caso de
éxito de Barceló Hotel Group.

El Cliente

barcelomayagrandresortBarceló Group Hotel es la división hotelera del Grupo Barceló. En la


actualidad es la 3ª cadena más grande de España y la 44ª a nivel internacional. Cuenta con más de
230 hoteles urbanos y vacacionales de 4 y 5 estrellas, y más de 50.000 habitaciones distribuidas en
21 países. El grupo está formado por 4 marcas que ofrecen hoteles para todos los gustos y
segmentos: Royal Hideaway Luxury Hotels & Resorts, Barceló Hotels & Resorts, Occidental Hotels
& Resorts y Allegro Hotels.

La Agencia

mccannMcCann Erickson es una agencia de comunicación creativa que forma parte del grupo
Interpublic, y cuenta con más de 180 oficinas en de 120 países. Es líder tanto en España como a
nivel internacional. Su equipo busca de forma constante la excelencia en la creación y producción
de ideas, que contribuyan a solucionar los problemas de negocio de sus clientes y ayudan a las
marcas, a dejar huella en la vida de las personas.

El Objetivo de la Campaña

La campaña #Maya5Senses tenía como principal objetivo generar reconocimiento o


posicionamiento de marca para el hotel Barceló Maya Grand Resort, ubicado en la Riviera Maya,
México. Cuando existe conciencia de marca, su público objetivo, es capaz de reconocer su nombre
y sus asociaciones de manera inconsciente. Este reconocimiento de marca comprende dos
elementos clave: el reconocimiento y el recuerdo. Reconocer una marca, implica recordarla junto
con determinadas asociaciones cuando nos exponemos ante esa marca, y ese fué el reto
planteado a McCann.

202
La Acción

El reto era complejo ya que pasaba por implicar a los 5 sentidos para evocar recuerdos, y no era
fácil teniendo en cuenta que se trataba de una acción online. Pidieron a la comunidad de
Facebook, que relacionara sus experiencias vividas o anheladas en el hotel con los 5 sentidos:
vista, oído, tacto, olfato y gusto y, a nivel de comunicación, trataron de asociar las experiencias
sensoriales con las instalaciones y servicios del hotel.

La aplicación elegida fué la de cuestionario tipo test con respuestas personalizadas. En el test
planteaban preguntas a los usuarios, concretamente 5 preguntas cada una relacionada con 1 de
los 5 sentidos. En el ejemplo que vemos a continuación podemos ver la pregunta relacionada con
el sentido de la vista, con videos plantearon la relacionada con el oido y mostraron sonidos
relacionado con el entorno y el hotel, y así sucesivamente hasta completar las 5 preguntas. En
función de las respuestas que dieran los usuarios, se les mostraría un personalizado mensaje de
feedback, ya que el sistema de cuestionarios de Easypromos permite al administrador configurar
mensajes finales personalizados basados en la puntuación conseguida por los usuarios en el
cuestionario.

panoramica

¿Cómo lo consiguieron? Puntuaron las respuestas del cuestionario. Una vez tuvieron claros los
posibles mensajes finales, puntuaron las respuestas de las diferentes preguntas del test. Así
asignaron fácilmente un valor a cada respuesta según el perfil relacionado con cada sentido, para
de esta manera vincular cada respuesta a un mensaje final concreto.

3.35. ¿CÓMO CONVERTIRSE EN EL MEJOR CHEF DEL MUNDO? CASO


JUAN MARI ARZAK.

Juan Mari Arzak: «Antes se era cocinero por necesidad y ahora por pasión»

Juan Mari Arzak (San Sebastián, 1942) es un padre para todos los que ejercen en los fogones de la
alta cocina española. Por esto, se reunieron en el Día del Padre (19 de marzo) para rendirle
homenaje durante las jornadas de «A 4 manos» que organiza Dani García en su restaurante de
Puente Romano en Marbella. «Es una fiesta a Juan Mari. No en un homenaje. Ya les dije que no
hace cinco años, porque voy a seguir trabajando mientras esté bien», asegura Juan Maria Arzak.

Está nervioso y no quiere llegar tarde, recibe a ABC tras una larga charla con Ferrán Adriá y se
reconoce «emocionado». «Es gente que hemos trabajado juntos y, los chavales, muchos son
discípulos míos», explica el cocinero, que añade que siente admiración por los nuevos talentos
porque «lo hacen con pasión».

No siempre fue así. Recuerda un tiempo en el que se elegía entrar en la cocina por necesidad. Eso
ha cambiado. «Ahora estudian y eligen cada uno lo que quiere ser», remarca como algo

203
«maravilloso», porque «primero se entra por necesidad, pero se hace tu pasión, te das cuenta de
que es tu vida».

Una vida en los fogones

No se concibe fuera del restaurante, donde lleva toda la vida. Nació y vivió en el de su madre hasta
que se casó. Luego se marchó de casa y montó el restaurante de San Sebastián, que es un
referente de la gastronomía mundial. «Lo primero que hice al llegar a San Sebastián fue hacer que
todos los restaurantes se llevaran bien», recuerda. «Así ha sido con todos los cocineros», apostilla
Arzak, que explica para estar en la cocina hay que «ser humilde y tener autocrítica».

Esa voluntad le ha valido el sobrenombre de «Aita» –padre en euskera–. En la gastronomía


española todos le reconocen como un padre y no sólo su hija Elena Arzak, que es su faro. «Sin ella
no podría vivir», sentencia el veterano cocinero en una noche donde también le acompaña su
nieto y en la que volvió a dirigir una tamborrada.

No faltó una pequeña libreta escondida –siempre la lleva– para anotar ideas. Ha aceptado el
tributo a regañadientes. «No me gustan los folclores, pero después ves a los cocineros y es
impresionante», señala.

El menú degustado por los 90 elegidos fue una interpretación de los platos más emblemáticos
Arzak. En la fiesta estuvieron, pero no cocinaron, Martín Berasategui y Ferrán Adrià. Los que sí lo
hicieron fueron Josean Alija, que llegó de Tailandia para la ocasión, Joan Roca, Elena Arzak y Albert
Adrià, que está detrás de montar un restaurante junto con Dani García anfitrión en su restaurante
en la plaza de Puente Romano.

Amigos que son parte de la historia de eclosión de la gastronomía española. «Antes era una cocina
popular y ahora es alta cocina», señala Arzak, que destaca el hecho de que «en España no se ha
comido nunca también». «Ya hay cultura gastronómica. Antes era quitar el hambre, pero ahora se
trata de que esté rico y bueno», explica el veterano cocinero, que dice que el sabor de los platos
se consigue con «un buen producto y mucho cariño».

«En cocina hay que trasmitir y darle gracia. Hay dos tipos de cocineros: los que no tienen pasión,
pero lo hacen bien, y los que no pueden vivir sin el restaurante», apunta Arzak, que dice que la
materia prima tiene que ser de la tierra y que las ideas deben venir de todo el mundo para
mezclarlo en una obra de «artesanía pura».

«Hay que coger esas ideas y meterle tu ADN, que cuando estás comiendo cierres los ojos y sepas
que estás en un lugar diferente», asegura el cocinero vasco, que explica como su hija Elena lleva
25 años por todo el mundo ampliando conocimientos, que luego se aplican en las creaciones en un
restaurante que tiene un sello culinario que va por la cuarta generación.

Juan Mari Arzak (San Sebastián, 1942) es el padre y el abuelo de lo que hoy es la gastronomía
española. La mayoría de los chefs que hoy disfrutan del éxito han pasado por la casa de este
cocinero visionario, innovador, inquieto y cariñoso en el que se reconoce Arzak, que lleva la cocina
escrita en su ADN. "La historia quería que yo fuera cocinero y así ha sido", reconoce este veterano
de los fogones, que vio desde muy pequeño cómo su madre disfrutaba de la cocina. "Esa es la
clave para que los platos salgan bien", señala.

204
La historia de la familia Arzak está ligada a la hostelería desde 1897, cuando sus abuelos José
María Arzak Etxabe y Escolástica Lete abrieron una bodega en Alza, un pueblo cercano a San
Sebastián que el crecimiento de la ciudad ha integrado como uno de sus barrios. A la bodega se la
conocía como alto de vinagres, un apelativo cariñoso que hacía referencia a la poca calidad de sus
vinos.

El negocio familiar evolucionó a casa de comidas de "cierta relevancia y refinamiento" cuando


empezaron a regentarlo Juan Ramón Arzak, hijo de los anteriores, y su esposa, Francisca Arratibel.
La mano de Paquita, que preparaba excelentes guisos tradicionales, como chipirones en su tinta,
sopa de pescado o merluza en salsa verde, fue la que hizo crecer este espacio donostiarra. Allí
nació Juan Mari Arzak, que acompañó a su madre en la cocina, que dirigía en solitario tras la
muerte prematura de su esposo. Paquita quiso que su hijo tuviera otras oportunidades en la vida y
no quería que su única salida fuera la cocina, por eso le envió a estudiar a El Escorial (Madrid).

"Cuando terminé el bachiller no pensaba dedicarme a la cocina. Veía a mi madre trabajar mucho y
no me gustaba, por eso me busqué un trabajo de aparejador. Al año, me di cuenta de que me
había equivocado completamente porque lo que peor hago es dibujar y escribir", señala. Por eso y
por ingresar algo de dinero haciendo extras se decidió a ingresar en la Escuela de Hostelería de la
Casa de Campo (Madrid). "Yo pensé: recorreré el mundo y encima me pagan. Sin embargo, mi
madre se enfadó y me dijo: '¿para eso te he pagado yo unos estudios en Madrid?". Así es cómo
acabó Arzak otra vez enganchado a la cocina.

Tras esta experiencia, Arzak volvió al negocio familiar donde su madre le tenía reservado un
espacio para que experimentara nuevas recetas y técnicas. "Mi madre me enseñó a mimar la
comida, a respetar la materia prima y su estacionalidad, a dejar contento al cliente y a darle el
punto correcto a cada receta", señala Arzak con cierta nostalgia al recordar a Paquita. A todo eso
el chef le añadió innovación.

¿Cómo se decidió a darle una vuelta a la cocina de su madre? Tras una mesa redonda en la que
Arzak y Pedro Subijana escucharon a Paul Bocuse, ambos emprendieron un viaje a Lyon para
conocer la Nouvelle Cuisine, un movimiento que serviría de base para el que estos dos jóvenes
cocineros iniciaron en España la Nueva Cocina Vasca -que integraron hasta doce cocineros vascos-.
Arzak y Subijana apostaron por transformar y dinamizar la cocina tradicional con un único
propósito: hacerla universal.

Arzak fue Premio Nacional de Gastronomía en 1974, el mismo año en el que obtuvo su primera
estrella Michelin. En 1989 le dieron la tercera, que mantiene desde entonces. "He dado de comer
a gente muy importante, pero agradezco especialmente que vengan los que tienen que hacer un
esfuerzo para llegar hasta aquí. Es un honor que ahorren para ir a comer a un restaurante y me
elijan a mí. Me hace ilusión hacerles felices", señala.

Pero, ¿cuáles son los ingredientes esenciales de la cocina de Arzak? "Por una parte, mirar al
mundo con ojos de cocinero y ver un plato hasta en un semáforo. Y por otra, pensar con la ilusión
y la curiosidad de un niño".

205
3.36. ¿CUÁLES SON LAS FUENTES DE ENERGÍA Y CUÁLES SON SUS
PROYECCIONES A FUTURO?

Las fuentes de energía: son elaboraciones naturales más o menos complejas de las que el ser
humano puede extraer energía para realizar un determinado trabajo u obtener alguna utilidad.
Por ejemplo el viento, el agua, el sol, entre otros.

Desde la prehistoria, cuando la humanidad descubrió el fuego para calentarse y asar los alimentos,
pasando por la Edad Media en la que construía molinos de viento para moler el trigo, hasta la
época moderna en la que se puede obtener energía eléctrica fisionando el átomo, el hombre ha
buscado incesantemente fuentes de energía de las que sacar algún provecho para nuestros días,
que han sido los combustibles fósiles; por un lado el carbón para alimentar las máquinas de vapor
industriales y de tracción ferrocarril así como los hogares, y por otro, el petróleo y sus derivados
en la industria y el transporte (principalmente el automóvil), si bien éstas convivieron con
aprovechamientos a menor escala de la energía eólica, hidráulica y la biomasa. Dicho modelo de
desarrollo, sin embargo, está abocado al agotamiento de los recursos fósiles, sin posible
reposición, pues serían necesarios períodos de millones de años para su formación.

La búsqueda de fuentes de energía inagotables y el intento de los países industrializados de


fortalecer sus economías nacionales reduciendo su dependencia de los combustibles fósiles,
concentrados en territorios extranjeros tras la explotación y casi agotamiento de los recursos
propios, les llevó a la adopción de la energía nuclear y en aquellos con suficientes recursos
hídricos, al aprovechamiento hidráulico intensivo de sus cursos de agua.

Las fuentes de energía se clasifican en:

Renovables: Pueden utilizarse de manera continuada para producir energía, bien porque se
regeneran fácilmente (biomasa) o porque son una fuente inagotable (solar)

No renovables: Una vez utilizadas tardan muchísimo tiempo en regenerarse.

Energía renovable: se le denomina a la energía que se obtiene de fuentes naturales virtualmente


inagotables, ya sea por la inmensa cantidad de energía que contienen, o porque son capaces de
regenerarse por medios naturales. Entre las energías renovables se cuentan la hidroeléctrica,
eólica, solar, geotérmica, maremotriz, la biomasa y los biocombustibles.

Las fuentes renovables de energía pueden dividirse en dos categorías: no contaminantes o limpias
y contaminantes. Entre las primeras:

1. La llegada de masas de agua dulce a masas de agua salada: energía azul.

2. El viento: energía eólica.

3. El calor de la Tierra: energía geotérmica.

4. Los ríos y corrientes de agua dulce: energía hidráulica o hidroeléctrica.

5. Los mares y océanos: energía mareomotriz.

206
6. El Sol: energía solar.

7. Las olas: energía undimotriz.

8. Energía no renovable: se refiere a aquellas fuentes de energía que se encuentran en la


naturaleza en una cantidad limitada y una vez consumidas en su totalidad, no pueden
sustituirse, ya que no existe sistema de producción o extracción viable. Dentro de las energías no
renovables existen dos tipos de combustibles:

1. Los combustibles fósiles.

2. Los combustibles nucleares.

Son combustibles fósiles el carbón, el petróleo y el gas natural. Provienen de restos de seres vivos
enterrados hace millones de años, que se transformaron bajo condiciones adecuadas de presión y
temperatura.

El combustible fósil puede utilizarse directamente, quemándolo para obtener calor y movimiento
en hornos, estufas, calderas y motores. También pueden usarse para electricidad en las centrales
térmicas o termoeléctricas, en las cuales, con el calor generado al quemar estos combustibles se
obtiene vapor de agua que, conducido a presión, es capaz de poner en funcionamiento un
generador eléctrico, normalmente una turbina.

La primera fuente de energía de la humanidad aparte de sus propios músculos, fue el fuego, la
quema de combustibles que podían encontrarse fácilmente en su entorno. Podemos progresar
hacia otras fuentes de energía, pero siempre subsistirá la demanda de algo tan sencillo como
quemar combustibles, y los científicos seguirán buscando combustibles mejores y más
convenientes, que no se agoten rápidamente.

Casi todos los combustibles contienen átomos de carbono o de hidrógeno, o de ambos elementos
a la vez. El carbono y el hidrógeno se combinan con el oxígeno para producir luz y calor, y los tres
tipos de átomos son muy comunes en el medio ambiente.

Los primeros combustibles empleados por los seres humanos fueron la madera y, en grado mucho
menor; grasas y aceites de plantas y animales. La madera, las grasas y los aceites, todos los cuales
contienen átomos de carbono y de hidrógeno, son combustibles renovables puesto que las cosas
vivas se multiplican, crecen y producen más madera, grasas y aceites, para reemplazar los que se
han quemado.

Pero no del todo. Al aumentar la población humana y progresar la tecnología se necesitó cada vez
más combustible y en conjunto se quemó o consumió para más fines del que se producía. Los
bosques se redujeron. Sin duda alguna, la humanidad no habría podido experimentar la
Revolución Industrial - durante la cual se multiplicó la necesidad de combustible -, si no hubiese
podido utilizar otros nuevos, sobre todo carbón, petróleo y gas natural. El carbón es el residuo de
madera que se produjo hace cientos de millones de años, y se compone principalmente de

207
carbono y algo de hidrógeno. El petróleo y el gas natural son residuos de criaturas microscópicas
que vivieron hace cientos de millones de años, y se componen de átomos de carbono y de
hidrógeno.

Actualmente estamos consumiendo enormes cantidades de estos (llamados así porque son restos
de una antigua vida) y se está produciendo nuevo material a ritmo lento. En efecto, estamos
viviendo de nuestro capital, las reservas de carbón, petróleo y gas acabarán por agotarse.
Tampoco podremos volver a la madera, porque si talamos los bosques (que siguen reduciéndose)
al ritmo actual desaparecerán rápidamente.

Por si esto fuera poco, los combustibles que empleamos son peligrosos, incluso cuando los
tenemos en abundancia. Tanto el carbón como el petróleo contienen pequeñas cantidades de
átomos de nitrógeno y de azufre, que producen óxidos venenosos y ácidos cuando se consumen.
La atmósfera se contamina y las enfermedades respiratorias aumentan. Se produce lluvia ácida
que contribuye a matar los bosques y contaminar los lagos. Incluso los átomos de carbono son
peligrosos porque producen dióxido de carbono cuando se queman, de manera que nuestra
atmósfera va aumentando lentamente su contenido de aquella sustancia. Este contenido es
todavía muy pequeño, pero el dióxido de carbono retiene eficazmente el calor, y un pequeño
aumento de su proporción en la atmósfera puede cambiar de forma desfavorable el clima de la
Tierra. Por estas razones (o sea, que los combustibles de la Tierra constituyen una reserva limitada
y son peligrosos mientras duran), los científicos están buscan do fuentes alternativas de energía.

Pero ya que he mencionado los peligros inherentes a la combustión del nitrógeno, el azufre y el
carbono, ¿qué decir del hidrógeno? El hidrógeno arde más fácilmente que cualquiera de los
mencionados elementos y produce mucha más energía por Itilo cuando se quema. Y lo que es
más, cuando se quema hidrógeno, éste sólo produce agua, que es inofensiva. Cierto que el
hidrógeno arde con tanta facilidad que tiene tendencia a estallar. Pero lo mismo ocurre con la
gasolina y el gas natural. Sólo hemos de tener cuidado al manejarlos. El verdadero problema es
que el hidrógeno no existe en estado puro en la naturaleza. No puede ser partido como la madera,
ni excavado como el carbón, ni extraído como el petróleo. Hay que producirlo químicamente,
partiendo de sustancias que contengan átomos de hidrógeno. Por ejemplo, tanto el carbón como
el petróleo y el gas contienen átomos de hidrógeno, y se puede obtener hidrógeno puro de ellos.
Pero para esto hay que emplear energía. Hay que quemar petróleo para extraer hidrógeno de otro
petróleo, y de esta manera se acaba con menos combustible que al empezar. Los científicos están
buscando maneras de producir hidrógeno, de combustibles, pero sin emplear energía. Estas
reacciones no consumidoras de energía suelen requerir catalizadores, y no es fácil encontrar el
catalizador adecuado. Además, cuando se hayan consumido todos los combustibles, no habrá
manera de obtener hidrógeno, ni con catalizadores ni sin ellos.

¿Hay algo que contenga hidrógeno y que no sea combustible? Sí, el agua, cuya octava parte de
peso corresponde al hidrógeno. Pero lo malo es que la extracción de hidrógeno del agua requiere
energía. Las plantas lo hacen por medio de la fotosíntesis, que utiliza la luz del Sol como fuente de
energía. Los científicos están buscando ansiosamente alguna manera de efectuar el trabajo de la
fotosíntesis en el laboratorio, y de hacerlo aún mejor y más deprisa. Entonces podríamos
conseguir hidrógeno del agua (más la luz del Sol), quemar el hidrógeno y tener de nuevo agua. El
combustible no se acabaría nunca; duraría tanto como el Sol.

208
A finales del siglo XX se comenzó a cuestionar el modelo energético imperante por dos motivos:

1. Los problemas medioambientales suscitados por la combustión de combustibles fósiles, como


los episodios de smog de grandes urbes como Londres o Los Ángeles, o el calentamiento global del
planeta.

2. Los riesgos del uso de la energía nuclear, puestos de manifiesto en accidentes como Chernóbil.

Las energías limpias son aquellas que reducen drásticamente los impactos ambientales
producidos, entre las que cabe citar el aprovechamiento de:

La energía solar, el sol produce luz y calor. Todos los seres vivos necesitan luz solar para vivir. Y en
la actualidad se utiliza la luz y el calor del sol para producir energía eléctrica, sobre todo en las
viviendas.

La energía eólica, antiguamente se usaba para mover los objetos, por ejemplo, los barcos de vela.
Actualmente lo utilizamos para producir electricidad. En las centrales eólicas el viento mueve las
aspas de los molinos y este movimiento se transforma en electricidad.

Los ríos y corrientes de agua dulce: energía hidráulica

Los mares y océanos: energía mareomotriz

El calor de la Tierra: energía geotérmica

La energía del núcleo de los átomos radioactivos: energía nuclear

La materia orgánica: biomasa

Los combustibles: energía química, los combustibles son materiales que pueden arder. La leña, el
carbón y el gas natural son combustibles. Estos poseen energía química: cuando arden se
desprenden energía luminosa y calorífica. Esta energía puede transformarse en movimiento
cuando los combustibles se utilizan por el funcionamiento de un motor.

Todas ellas renovables, excepto la energía nuclear, por ser su combustible principal, el uranio, un
mineral.

Con respecto a las llamadas energías alternativas (eólica, solar, hidráulica, biomasa, mareomotriz y
geotérmica), cabe señalar que su explotación a escala industrial, es fuertemente contestada
incluso por grupos ecologistas, dado que los impactos medioambientales de estas instalaciones y
las líneas de distribución de energía eléctrica que precisan pueden llegar a ser importantes,
especialmente, si como ocurre con frecuencia (caso de la energía eólica) se ocupan espacios
naturales que habían permanecido ajenos al hombre.

Las fuentes de energía pueden ser renovables y no renovables. Las renovables, como el Sol,
permiten una explotación ilimitada, ya que la naturaleza las renueva constantemente. Las no
renovables como el carbón, aprovechan recursos naturales cuyas reservas disminuyen con la
explotación, lo que las convierte en fuentes de energía con poco futuro, ya que sus reservas se
están viendo reducidas drásticamente.

209
El modelo energético actual se basa mayoritariamente en el consumo de combustibles fósiles para
el transporte y la generación de energía eléctrica. Hoy en día, dos factores ponen en entredicho la
supervivencia de este modelo, en pie desde comienzos del Siglo XX. Dichos factores son el
agotamiento de las reservas de combustible y el calentamiento global. Según la teoría de Pico de
Hubbert el agotamiento de las reservas de petróleo y gas natural podría ser un hecho antes de que
acabase el presente Siglo XXI. Por otro lado, cada vez son más los científicos y grupos de opinión
que alertan sobre el comienzo de un período de calentamiento global asociado al incremento de
emisiones de gases de efecto invernadero. Aun cuando todavía no hay acuerdo sobre la
inminencia y el alcance de ambos problemas, existe un consenso generalizado sobre el hecho de
que tarde o temprano, el ser humano deberá de dejar de utilizar los combustibles fósiles como su
principal fuente de energía primaria y decantarse por fuentes más seguras, abundantes y menos
dañinas para el medio ambiente.

Uno de los mayores retos a los que se enfrenta la humanidad es cómo resolver el problema de la
energía. Actualmente la producción de electricidad es cara, ineficiente y por lo general, produce
deshechos perjudiciales para el medio ambiente y las personas. Pese a los grandes avances
tecnológicos en los últimos años, millones de personas no tienen acceso a la electricidad. Además,
la obtención y el control de los recursos energéticos es la causa principal de guerras y conflictos
armados en muchos países del mundo. La única solución sería obtener una fuente de energía
barata, ilimitada y no contaminante a la que todo el mundo tuviera acceso. La pregunta por tanto
es: ¿existe alguna alternativa?.

Estas son las cinco energías del futuro que están llamadas a cambiar el mundo:

Hidrógeno.

El hidrógeno es el elemento químico más ligero y puede comportarse como un gas o un líquido
dependiendo de las condiciones ambientales. Actualmente existen motores bastante
desarrollados y eficientes que utilizan hidrógeno para funcionar. Los hay de dos tipos: de
combustión y de pila de combustible. En el primer tipo se quema el hidrógeno de la misma manera
que se quema la gasolina en un motor tradicional. En el segundo tipo, el hidrógeno se usa para
producir electricidad y de esta manera mover el motor del coche. Este tipo de motor se considera
de 'cero emisiones' ya que el único subproducto derivado de su uso es agua.

Pero hay un problema para usar este tipo de combustible, y es la obtención del mismo. Aunque el
hidrógeno es el elemento químico más abundante del Universo, en la Tierra es bastante escaso,
con lo que hay que producirlo. A día de hoy el proceso de obtención sigue siendo bastante caro (ya
sea mediante procesos químicos o mediante la electrólisis del agua), pero la constante
investigación en este campo está abaratando los costes significativamente. Ya hay algunos coches
que funcionan con hidrógeno, pero su uso no está extendido. No obstante, si el precio del
petróleo sigue subiendo, es posible que en poco tiempo el hidrógeno se convierta en el
combustible de referencia en el mundo.

Biocombustibles

210
Los combustibles generados de algunos vegetales son ya una realidad. Funcionan en la mayoría de
motores actuales (en el caso de los biodiesel) y producen entre un 20% y un 40% menos de gases
contaminantes. Para producirlos se usan plantas como el maíz o el azúcar. Su nivel de desarrollo es
alto, y ya se comercializa como una alternativa viable, menos contaminante y cuya producción es
prácticamente ilimitada, al poder renovar las

plantaciones y ampliarlas en caso de que sea necesario.

En este caso el coste de producción de estos biocombustibles no es excesivamente alto, pero


presentan un gran inconveniente que lo hace incluso más perjudicial que los combustibles fósiles
tradicionales. La materia prima es alimento, como el maíz, y la producción simultánea para
consumo humano y para combustible hace que el precio del primer tipo se vea afectado. Hay
muchoa países (sobre todo estados del Tercer Mundo) que han tenido problemas de
abastecimiento a causa del aumento de los precios de estos cereales. Si la producción de
combustible afecta a la alimentación de millones de personas, no es una alternativa viable.

Pero hay una manera de continuar el proceso sin perjudicar a ninguno de los dos lados. Generar
combustible de plantas no aptas para consumo humano, como por ejemplo, un tipo de algas con
las que ya se está experimientando en Japón. La facilidad para producirlas y el hecho de que no
afecte al precio de los alimentos, lo convierte en una alternativa muy sólida de cara al futuro.

Placas solares de alto rendimiento

Pese a que la energía solar es ya una realidad y está relativamente consolidada, aún le queda
mucho camino por recorrer. Las placas fotovoltáicas, el método más extendido para obtener
energía eléctrica a partir del sol, tienen un rendimiento muy pobre, entre un 10% y un 15% de la
radiación solar es transformada en electricidad. Esta es la causa principal de que este tipo de
obtención de energía sea todavía muy cara.

No obstante, sigue siendo una alternativa de futuro. Exceptuando el proceso de construcción de


los paneles, la energía solar no provoca gases ni subproductos contaminantes, con lo que es una
buena opción desde el punto de vista ecológico. Hay muchas investigaciones que están centradas
en cómo incrementar el rendimiento de los paneles. En países con una mayoría de horas de sol
(que incluye la mayor parte de los países subdesarrollados), un sistema más eficiente de
estaciones solares sería suficiente para su propio abastecimiento, con el consiguiente beneficio
económico, social y medioambiental.

Torio

Las actuales centrales nucleares suelen utilizar como combustible el uranio o el plutonio. Estos dos
elementos son altamente radiactivos y su tratamiento es muy peligroso. Pero ha surgido un
alternativa que podría suponer toda una revolución, el Torio. Este material tiene un potencial
energético 40 veces mayor que el uranio y su peligrosidad es mucho más baja. Además, al
contrario de lo que ocurre con los combustibles nucleares actuales, el Torio es muy abundante en
la naturaleza y puede utilizarse en su totalidad para esta tarea.

211
El Torio ya se está considerando para nuevas centrales eléctricas, y el avance de las investigaciones
con este material están muy avanzadas. Quizá en algunos años se pueda empezar a hablar de una
nueva revolución energética.

Fusión Nuclear

La energía de fisión nuclear (las centrales nucleares de toda la vida) son un método bastante
eficiente y efectivo para la producción de energía eléctrica. No produce gases de efecto
invernadero, se puede controlar la cantidad de energía que se quiere generar y es relatívamente
barata. Por contra tenemos los efectos de sobra conocidos, los desechos nucleares radiactivos. Por
eso las investigaciones más esperanzadoras apuestan por la energía de fusión, un método que
podría salvar al planeta de su destrucción a causa de la contaminación y la polución.

El proceso es sencillo de explicar pero complicado de implementar. Mediante dos átomos de masa
similar (suele usarse tritio y deuterio), se induce una fusión de sus núcleos, de manera que se
genere un solo átomo más pesado. El resultado es la generación de una gran cantidad de energía
partiendo de muy pocos recursos. Además no hay ningún deshecho peligroso para el medio
ambiente como sucede con la fisión nuclear o las centrales térmicas.

Este sería el método ideal para producir energía, ya que es muy barato y apenas tiene desventajas.
Por ello en 1986 nació el proyecto ITER, una unión transnacional para construir un reactor de
fusión experimental que sirva de prototipo para los futuros generadores comerciales. La fusión
nuclear ya se ha podido realizar con éxito, pero hasta este momento la energía necesaria para
hacerlo funcionar, sigue siendo menor que la energía que se extrae del proceso, con lo que sigue
sin ser viable a corto plazo. Se estima que en unos 20 o 30 años podrían empezar a funcionar los
primeros reactores.

El futuro a corto plazo

Mientras esperamos a que la fusión nuclear nos provea de una fuente de energía prácticamente
ilimitada y muy barata, tedremos que conformarnos con los procesos tradicionales. A corto plazo
lo más sensato es apostar por las renovables y mantener (sino aumentar) la investigación y el
desarrollo en las mismas. La energía es el gran reto de la humanidad del siglo XXI, y de nuestro
éxito en este campo dependerá, en gran parte, nuestra supervicencia futura.

3.37. ¿POR QUÉ EXISTIÓ UNA VARIACIÓN ALTA EN EL PRECIO DEL


BARRIL DE PETRÓLEO A NIVEL MUNDIAL? ¿CUÁL ES SU PRECIO
ACTUAL?

La mayor parte de las personas identifican el petróleo y especialmente la gasolina y el gasóleo, que
son los derivados que más afectan a la vida cotidiana, con unos productos imprescindibles que
periódicamente ven alterados sus precios en forma seria e inesperada. La subida del crudo y de
esos productos se relaciona con algo menos de crecimiento, menos empleo y mayor inflación.
Además, se habla de transferencias de renta hacia otros países, pérdida de competitividad de las

212
exportaciones, desequilibrios en la balanza de pagos y un conjunto de males económicos para los
ciudadanos de los países consumidores. En Europa, todo esto es verdad.

También es verdad que, algunos meses después, el crudo cuyo precio se había disparado comienza
a bajar, los productos también bajan, aunque menos –lo cual no es entendible por el ciudadano,
como es normal–, y otros asuntos sustituyen en los medios de comunicación a las reuniones de la
OPEP, a sus acuerdos para limitar la producción, al precio del crudo Brent en el mercado de
Londres, a los precios de las gasolinas, a las protestas de los sectores consumidores de gasóleo, a
las discusiones sobre si deben bajar los impuestos que gravan los productos petrolíferos, a los
informes de los organismos económicos alertando de diferentes peligros, e incluso a las amenazas
de los gobiernos hacia las compañías petroleras y a las explicaciones de éstas que intentan
trasladar a los ciudadanos razonamientos económicos no siempre bien recibidos y entendidos.

Y esto viene sucediendo así desde 1973, a raíz de la guerra del Yon Kippour, se repitió en 1979 con
el cambio político en Irán y en 1989 con las tensiones derivadas de la invasión de Kuwait. La última
vez a partir de febrero de 1999 y durante los once primeros meses de 2000, debido, parece, a las
limitaciones de producción de la OPEP. Aparentemente, superado el ciclo y después de todos
estos procesos alcistas, sobreviene una etapa de precios bajos. Lo mismo ocurre ahora. ¿Qué está
sucediendo y qué implicaciones tiene todo ello para el futuro? Parece que los precios del petróleo
están determinados más que por las leyes del mercado por singulares movimientos pendulares.

Veamos lo que ha ocurrido.

Por el lado de la demanda, han coincidido en el pasado reciente diferentes factores. Entre ellos,
conviene recordar la recuperación de las economías asiáticas con crecimientos espectaculares del
8 por 100 en China, en Corea, Malasia y Singapur, y muy altos en India y Taiwan. También la
positiva evolución de Estados Unidos y Europa con altas tasas de actividad económica en ambas
áreas, aun reconociendo la desaceleración de Estados Unidos en el tercer y cuarto trimestre del
pasado año.

Por el lado de la oferta, ha sido determinante la influencia de las decisiones de los países
productores, especialmente en la órbita OPEP, tendente a un ajuste a la baja de la producción de
tal forma que nunca hubiera crudo sobrante en el mercado. En esta situación, los niveles de
almacenamiento de productos en los países consumidores han venido descendiendo
continuamente ante el alto coste de reposición, lo que se ha transformado en un elemento
adicional de encarecimiento. Esta situación de presión de los stocks se ha mantenido hasta
diciembre de 2000, mes en el que ha cambiado la tendencia.

Sobre estos factores de oferta y demanda, que se consideran los básicos del mercado de crudo y
productos, se superponen otros que, lamentablemente, también añaden inestabilidad. A destacar,
los movimientos especulativos sobre los mercados financieros de petróleo y derivados y los
cambios en la paridad del euro frente al dólar. Pero el panorama no está completo sin incluir el
endurecimiento de las especificaciones de los productos por razones medioambientales, el
incremento de coste en el transporte marítimo y la evolución del margen de refino.

Pues bien, durante los dos últimos años, el consumo de petróleo se ha incrementado
moderadamente. A la vez, la OPEP ha venido ajustando sus tasas de producción a estos nuevos

213
niveles de forma bastante eficaz. En la OCDE han disminuido los stocks, de sesenta días en abril de
1999 a cincuenta días a finales de 2000. Continuamente se han producido movimientos
especulativos en los mercados financieros de transacciones de crudo y productos, que han
impuesto un encarecimiento adicional entre dos y tres dólares por barril. El mayor coste del
transporte marítimo ha sido del cien por cien y la utilización de buques más nuevos y de doble
casco, desde luego más seguros pero también más caros, ha aumentado de día en día.

Por su parte, los márgenes de refino se han situado en el 2000, en los niveles más altos de los
últimos diez años. Las especificaciones de gasolinas y gasóleos han exigido reducciones en el
contenido de azufre y aromáticos, lo que se ha traducido en una restricción para el movimiento de
productos, ya que no todas las refinerías de otras zonas geográficas estaban en disposición de
facilitar las calidades que demandaban europeos y norteamericanos. Desde luego, aunque con
frecuencia pase desapercibido, la calidad medioambiental tiene un precio. En la Unión Europea,
entre 1980 y el año 2000, el contenido en azufre de los gasóleos ha pasado del 0,5 por 100 al
0,035 por 100, por encima de diez veces menos, lo que ha supuesto encarecimientos notables en
el proceso productivo que es necesario pagar vía mayores precios.

Y adicionalmente, la paridad euro-dólar se ha debilitado en un 30 por 100 entre finales de 1998 y


el tercer trimestre de 2000, coincidiendo con la fase alcista de la economía estadounidense y el
continuo flujo de capitales desde el área euro a Norteamérica tanto por motivo de inversión
directa como de cartera. Esta situación cambiaria ha ejercido una muy notable influencia negativa
al estar el mercado del petróleo, tanto del crudo como de los productos, nominado en dólares.

La coincidencia de todas estas circunstancias, empujando en el mismo sentido durante los dos
últimos años, ha resultado fatal.

Las cifras de crecimiento del precio del crudo, desde los 13 dólares medios por barril de Brent en
1998 hasta los 35 en el otoño de 2000, resumen la evolución alcista del período. Además, las
cotizaciones se han desarrollado en un ambiente de fuerte volatilidad, en términos de variación
diaria de precios, con una duración e intensidad que no se había conocido antes. Movimientos en
la misma línea alcista han tenido lugar en el mercado internacional de productos y durante los dos
últimos años, gasolinas y gasóleos se han encarecido en un 160 y en un 240 por ciento,
respectivamente. La evolución del precio en los mercados internacionales sirve de referencia
básica para la fijación del precio en las estaciones de servicio de toda Europa y de ahí la
importancia de conocer cómo se han situado las cotizaciones de los productos en sus dos
mercados de referencia que son Rotterdam y el Mediterráneo. Además, en estos mercados existe
una fuerte estacionalidad que incide en el precio, en razón de las temperaturas, de las previsiones
climatológicas o de la intensidad de los desplazamientos por carretera.

Estas reflexiones creo que resultan relevantes a pesar de la notable disminución del peso del
precio del petróleo en el PIB mundial, que ha pasado del 6,5 por 100 en 1980 a algo menos del 2
por 100 en los últimos doce meses, si bien el del petróleo continúa siendo el mercado de materias
primas más activo, moviendo 30 veces más de dinero al día que el mercado de trigo y 40 veces
más que el del mineral del hierro. En el mercado del crudo, o siendo más exactos, en los diferentes
mercados en que se cotiza el crudo, cambian de mano diariamente más de 55 millones de barriles
de petróleo y cerca de 20 millones de barriles más de producto. Estas cifras se refieren a los

214
mercados físicos y habría que añadir el importante volumen de transacciones a plazos que atraen
el interés de inversores de los mercados financieros e incluso de fondos. La suma de estas
cantidades supera con mucho las necesidades reales del consumo diario.

Ahora bien, profundizando un poco más y aún considerando un mercado tan importante, conviene
insistir en que el impacto negativo de los altos precios del petróleo sobre el crecimiento
económico ha sido relativamente moderado. Si la economía estadounidense presenta a finales del
año índices claros de desaceleración, no ha sido especialmente por los altos precios del petróleo
padecidos en los meses anteriores. A pesar de esos precios, en Europa se continúan manejando
incrementos del PIB real en torno al 3 por 100 para el pasado año. También se ha comprobado el
reducido efecto negativo directo que sobre el consumo privado han ejercido los altos precios del
crudo durante el año 2000. Cosa distinta ha sucedido y sucederá en el futuro en Europa con las
importaciones procedentes de fuera de la zona euro, que se han mostrado mucho más sensibles a
los precios del petróleo y al impacto directo y diferido de la depreciación del euro.

Más claro ha sido el efecto de los mayores precios de los productos petrolíferos sobre la inflación,
especialmente si, como ya ha sucedido, coinciden en el tiempo con el deterioro de la paridad. Una
reciente estimación (noviembre 2000) del Banco Central Europeo cifra en 1,25 puntos
porcentuales la contribución de los precios energéticos al incremento de la inflación dentro de la
zona euro para el año 2000. Sin embargo y si como aparentemente va a suceder durante este año
2001, descienden los precios del crudo y de los productos, el efecto sobre la inflación será de
sentido opuesto, conduciendo a menores niveles de precios. Tanto en las subidas del año 2000
como en las posibles rebajas de este año, debe prestarse atención para obtener el análisis
completo, a los llamados efectos de «segunda vuelta» que afloran algunos meses después
enmascarando los resultados.

Por otra parte y con independencia de la tendencia de la intensidad energética o cantidad de


petróleo necesaria para generar una unidad de PIB, factor que en los países occidentales se ha
venido reduciendo en los últimos años y así aumentando la eficiencia en el uso del petróleo y
disminuyendo la vulnerabilidad, en el mundo existen suficientes reservas de crudo. Cuestión
diferente es que el petróleo se ponga con prontitud a disposición de los mercados, lo que haría
reducir los precios por sobreoferta y, quizás, aumentar la utilización del crudo como fuente de
energía lo que supondría, entre otras cosas, ralentizar el desarrollo de fuentes alternativas.

En los países del Medio Oriente, Arabia Saudita, Emiratos, Irán, Irak y su entorno, se concentra la
tercera parte de la producción actual y las dos terceras partes de las reservas, por lo que es
previsible un aumento del protagonismo de la zona que además, acumula una notable
vulnerabilidad política. Entre los posibles yacimientos futuros, el Caspio es una zona muy
prometedora sujeta a la resolución de serias dificultades medioambientales en la exploración y
extracción, así como notables problemas de transporte por lejanía de los mercados. La cuenca del
Orinoco, dando un giro geográfico de 180 grados, mantiene reservas similares a las de Arabia
Saudita, aún pendientes de fijar con precisión. En fin, muchas zonas presentan a la luz de la actual
tecnología unas importantes posibilidades de extracción si bien la magnitud de la inversión que se
requiere es enorme y demanda una organización empresarial con fuerte capacidad financiera.

215
Buena parte de la justificación de las fusiones que han tenido lugar en el pasado reciente está
basada en la necesidad de formar conglomerados empresariales con fuerte capacidad de inversión
y de diversificación de riesgos.

Cabe recordar que, coincidiendo con precios bajos del crudo y por tanto en momentos de
inquietud para las grandes compañías productoras, se pusieron en marcha diferentes uniones que
han cambiado el panorama mundial de la industria del petróleo. En pocos meses se produjo la
fusión BP-Amoco (agosto 98), la de Total con Fina (noviembre 98), el anuncio de la fusión Exxon-
Mobil (diciembre 98), la compra de Arco por BP (marzo 99), la OPA de Repsol sobre YPF (abril, 99)
y la fusión Totalfina con Elf (septiembre, 99). Después sobrevendría la de Chevron-Texaco.

La producción de hidrocarburos, que requiere como ya se ha indicado una fuerte inversión y la


asunción de altos niveles de riesgos, proporciona cuando se obtiene éxito, unos beneficios
considerablemente importantes. El crudo que se ha podido vender entre 25 y 30 dólares durante
el año 2000, tiene costes de extracción, desde luego muy variables dependiendo del lugar de
origen, que pueden estar por debajo de cinco dólares en algunos casos y por debajo de diez en la
mayoría. Pero hay que insistir en que la búsqueda de hidrocarburos está siempre asociada a un
alto nivel de riesgo. Con probabilidades del entorno del 15 por 100 se invierten decenas de
millones de euros en un proceso realmente notorio y singular desde el punto de vista empresarial
y desde luego muy distinto del de otras actividades industriales.

Para concluir con el razonamiento, el riesgo de la exploración junto con la volatilidad de los precios
y la globalización de los mercados, han impulsado buena parte de las operaciones de fusión
citadas. El período de precios altos ha producido un fuerte incremento en los beneficios de las
compañías productoras y ha supuesto un paréntesis en la política de acercamientos entre
empresas. Si los precios del petróleo descienden durante este año, es posible que el proceso se
reinicie lo cual puede proporcionar algunas sorpresas, especialmente en Europa.

Pero volvamos al tema central, en los últimos días del año 2000 el cambio de tendencia en los
precios del petróleo hace pensar que el período de precios altos, de momento ha quedado atrás.
Las cotizaciones de cierre del año 2000 se situaron en los 23 dólares el barril. Por su parte el euro
se ha fortalecido con rapidez y ya parece posible, desde luego en un horizonte amplio, la paridad
1:1 frente al dólar, inimaginable hace tan sólo pocas semanas y este es un factor como se ha
indicado ya varias veces, de abaratamiento del crudo y de los productos. Aunque la bajada de los
precios no sea una buena noticia para los productores de petróleo, sean gobiernos o compañías, sí
lo es para los ciudadanos. El descenso, siempre en comparación con los altos niveles del año 2000,
se ha consolidado en las primeras semanas de este año. La reunión de OPEP en enero, con un
recorte de la cifra de producción de 1,5 millones de barriles al día de los 26,7 que es la cuota de
producción de la organización, ya había sido descontada por el mercado en los días anteriores al
anuncio oficial y el crudo ha venido oscilando en los 25 dólares. Todo parece indicar una cierta
bonanza, que lo será aún más de consolidarse la recuperación del euro.

En España, la asimetría que también había sido causa de mayor impacto en Europa –por la menor
flexibilidad de los mercados de bienes y de trabajo– que en Estados Unidos o Asia, desaparecerá
en buena medida. Desde luego que en nuestro país continuará la incertidumbre inflacionista
durante los primeros próximos meses. El objetivo del 2 por 100 en precios para el año 2001 se

216
define por muchos como difícil. Y sin embargo es, junto con el equilibrio presupuestario, el
objetivo más cargado de significado económico. Merece la pena intentar conseguir ambos. Pues
bien, junto con los efectos de la política monetaria cuyas líneas fundamentales se definen fuera de
España, los precios de los productos petrolíferos son un factor también exógeno, pero importante
para la consecución del objetivo de inflación. Si estos factores evolucionan favorablemente y se
produce el deseable aumento de productividad con tasas de intereses sostenidas, se puede
augurar un período de continuada bonanza económica. En España, la variación de 10 dólares de
cambio en el precio del crudo supone medio punto de inflación.

La desaceleración de la actividad económica que se viene comentando en España durante las


últimas semanas y en la que, como ya se ha indicado, no ha tenido demasiado que ver al menos
directamente el precio de los productos petrolíferos, puede significar algo menos de crecimiento,
quizá pasar del 4 al 3 por 100, siempre contando con la moderación salarial tan influida a nivel
psicológico por la evolución de determinados precios entre los que se cuentan los de los productos
petrolíferos. Pero pasar del 4 al 3 por 100, significa seguir creciendo a buen ritmo.

En este sentido, el año 2001 debe hacer posible en España compatibilizar el fundamental objetivo
del déficit cero con la revisión de la fiscalidad incorporada al petróleo y, más concretamente al
gasóleo de automoción. No tiene mucho sentido continuar con tramos fiscales indiscriminados en
este producto, que no diferencian por naturaleza de consumo, y que alcanzan más de 60 pesetas
por litro, 0,37 euros, igual para transportistas que para vehículos de uso personal en ocasiones de
elevada cilindrada. Ahora bien, no es menos cierto que en Bélgica con una fiscalidad de 0,42 euros
por litro, en Alemania 0,52 euros por litro, en Francia 0,50 euros por litro, los niveles de gravamen
son superiores. La política de convergencia fiscal, no ayudará por tanto a la rebaja en España de la
tasa sobre los impuestos del petróleo. Por cierto, el impuesto especial sobre hidrocarburos generó
unos recursos para el estado español de cerca de 1,5 billones de pesetas durante el año 2000,
cantidad ligeramente superior a la del año anterior, ya que ante el mayor nivel de precios no se
moderó ni el consumo de los españoles ni la recaudación de nuestra hacienda. A esta cifra habría
que añadir la recaudación por IVA.

Volviendo a las grandes variables macroeconómicas, durante el año 2001 debe disminuir la factura
del déficit comercial energético español y volverse a situar en el valor tradicional del 1,5 por 100,
abandonando el 2,5 en términos de PIB del año 2000. Nuevamente aquí, la asimetría, es decir, la
mayor vulnerabilidad de España, restó competitividad durante el pasado año debido a la factura
energética. Con precios del petróleo más bajos la asimetría debe reducirse considerablemente.

En síntesis, menores precios del petróleo y derivados van a producir en la España de 2001 un
impacto positivo sobre consumo, inflación y empleo que a su vez van a redundar en mejor
esquema de generación de PIB y en mayor bienestar para el ciudadano.

En conclusión, a finales del año 2000 se explicaba la disminución del entorno de los 34 dólares de
precio del crudo Brent, hasta los 28, por la desaparición de las expectativas y de los movimientos
especulativos que habían mantenido artificialmente alto el nivel. La bajada desde los 28 hasta los
23, se debía a una oferta que superaba en los últimos días del año, por muy poco, a la demanda
estabilizada. Pero un análisis más intuitivo hacía pensar que habían existido, además, otros
factores alejados de las variables económicas tradicionales usualmente manejadas De hecho,

217
pocas semanas antes los expertos no eran capaces de vaticinar con precisión ni la intensidad ni la
naturaleza de la rebaja en los precios, aunque coincidían en señalar el agotamiento del ciclo de
precios altos. En enero, la comentada reunión de OPEP, consolida el nivel en torno a los 25
dólares, en un ambiente con previsiones, a la baja. Al final resultará que el péndulo que sirve para
determinar con precisión la aceleración de la gravedad o para fijar la medida del tiempo, también
ayuda a entender el mercado del petróleo. Tras precios altos, precios bajos. Desde el punto de
vista de la metodología de la ciencia económica, la falta de previsiones contundentes y de
explicaciones concretas es bastante desesperante, pero no es menos cierto que, de crisis en crisis,
vamos aprendiendo a introducir mayores sutilezas en el análisis.

Sube el precio del petroleo de la OPEP en marzo

El precio medio del barril de la OPEP en marzo ha aumentado hasta 65,15$ en lo que va de marzo,
desde los 63,82$ del mes de agosto, un 2,08%. En los últimos doce meses el precio del barril de
petroleo de la OPEP ha aumentado un 2,36%.

Desde el año 2003 hasta ahora, 131,22$ ha sido el precio más alto al que ha cotizado el barril de
crudo, en abril de 2003, mientras que en abril de 2003, cotizaba en los
$data.PRIMOPECMIN.country->valfs} que fue su precio mínimo en este periodo

La cesta de la OPEP es un promedio de los precios de los petróleos producidos por los países
miembros de la OPEP y se utiliza como punto de referencia para los precios del petroleo.

La OPEP es la Organización de Países Exportadores de Petróleo, coordina las políticas petroleras de


sus países miembros para influir en el mercado petrolero internacional. Los países miembros de la
OPEP son: Argelia, Angola, Ecuador, Gabón, Iraq, Irán, Qatar, Kuwait, Libia, Nigeria, Arabia Saudita,
Venezuela y los Emiratos Árabes Unidos.

La OPEP, Organización de Países Exportadores de Petróleo, controla casi el 50% de la producción


de petróleo del mundo y tiene como objetivo proteger los precios del petróleo.

Influye de forma definitiva en los precios del petróleo, mediante el incremento o disminución de la
producción, es decir, de la oferta.

3.38. ¿QUÉ ES UNA ECONOMÍA CIRCULAR?

«Una Europa que utilice eficazmente los recursos» es una de las siete iniciativas emblemáticas que
forman parte de la estrategia Europa 2020 que pretende generar un crecimiento inteligente,
sostenible e integrador. Actualmente es la principal estrategia de Europa para generar crecimiento
y empleo, con el respaldo del Parlamento Europeo y el Consejo Europeo.

Esta iniciativa emblemática pretende crear un marco político destinado a apoyar el cambio a una
economía eficiente en el uso de los recursos y de baja emisión de carbono que nos ayude a:

- mejorar los resultados económicos al tiempo que se reduce el uso de los recursos;

218
- identificar y crear nuevas oportunidades de crecimiento económico e impulsar la innovación y la
competitividad de la UE;

- garantizar la seguridad del suministro de recursos esenciales;

- luchar contra el cambio climático y limitar los impactos medioambientales del uso de los
recursos.

Esta iniciativa emblemática ofrece un marco de medidas a largo plazo y, de manera coherente,
otras a medio plazo entre las cuales ya está identificada una estrategia destinada a convertir a la
UE en una «economía circular» basada en una sociedad del reciclado a fin de reducir la producción
de residuos y utilizarlos como recursos.

La economía circular es un concepto económico que se interrelaciona con la sostenibilidad, y cuyo


objetivo es que el valor de los productos, los materiales y los recursos (agua, energía,…) se
mantenga en la economía durante el mayor tiempo posible, y que se reduzca al mínimo la
generación de residuos. Se trata de implementar una nueva economía, circular -no lineal-, basada
en el principio de «cerrar el ciclo de vida» de los productos, los servicios, los residuos, los
materiales, el agua y la energía.

Aspectos de la economía circular

La economía circular es la intersección de los aspectos ambientales y económicos.

El sistema lineal de nuestra economía (extracción, fabricación, utilización y eliminación) ha


alcanzado sus límites. Se empieza a vislumbrar, en efecto, el agotamiento de una serie de recursos
naturales y de los combustibles fósiles. Por lo tanto, la economía circular propone un nuevo
modelo de sociedad que utiliza y optimiza los stocks y los flujos de materiales, energía y residuos y
su objetivo es la eficiencia del uso de los recursos.

La economía circular es generadora de empleo. El sector de la gestión de los residuos representa


en España miles de puestos de trabajo.

En un contexto de escasez y fluctuación de los costes de las materias primas, la economía circular
contribuye a la seguridad del suministro y a la reindustrialización del territorio nacional.

Los residuos de unos se convierten en recursos para otros. El producto debe ser diseñado para ser
deconstruido. La economía circular consigue convertir nuestros residuos en materias primas,
paradigma de un sistema de futuro. Finalmente, este sistema es un sistema generador de empleo
local y no deslocalizable.

Funcionamiento de la economía circular

La economía circular descansa en varios principios:

- La eco-concepción: considera los impactos medioambientales a lo largo del ciclo de vida de un


producto y los integra desde su concepción.

219
- La ecología industrial y territorial: establecimiento de un modo de organización industrial en un
mismo territorio caracterizado por una gestión optimizada de los stocks y de los flujos de
materiales, energía y servicios.

- La economía de la “funcionalidad”: privilegiar el uso frente a la posesión, la venta de un servicio


frente a un bien.

- El segundo uso: reintroducir en el circuito económico aquellos productos que ya no se


corresponden a las necesidades iniciales de los consumidores.

- La reutilización: reutilizar ciertos residuos o ciertas partes de los mismos, que todavía pueden
funcionar para la elaboración de nuevos productos.

- La reparación: encontrar una segunda vida a los productos estropeados.

- El reciclaje: aprovechar los materiales que se encuentran en los residuos.

- La valorización: aprovechar energéticamente los residuos que no se pueden reciclar.

Actores de la economía circular

La economía circular se dirige tanto a los actores públicos encargados del desarrollo sostenible y
del territorio, como a las empresas que buscan resultados económicos, sociales y ambientales,
como a la sociedad que debe interrogarse acerca de sus necesidades reales.

Beneficios de la economía circular

El desarrollo de la economía circular debería ayudar a disminuir el uso de los recursos, a reducir la
producción de residuos y a limitar el consumo de energía. Debe participar igualmente en la
reorientación productiva de los países. En efecto, además de los beneficios ambientales, esta
actividad emergente es creadora de riqueza y empleo (incluyendo las del ámbito de la economía
social) en todo el conjunto del territorio y su desarrollo debe permitir obtener una ventaja
competitiva en el contexto de la globalización.

En 2014, el entonces Comisario Europeo de Medio Ambiente, Janez Potocnik, durante el 3º Fórum
Internacional sobre Economía – Eficiencia de los recursos, señaló que «es necesario transformar
Europa en una economía eficiente en los recursos, aunque solo la eficiencia no es suficiente.
También hay que asegurarse de que una vez que hemos utilizado nuestros productos, nuestros
alimentos y nuestros inmuebles, seleccionamos los materiales de estos y los usamos una y otra
vez. Cada año, en Europa, se utilizan un promedio de 16 toneladas de materiales por persona para
mover nuestra economía. Y además, alrededor de 6 toneladas por persona se convierten en
residuos. Por otra parte, casi la mitad de los residuos generados terminan en vertederos.

La parte integral del enfoque de la UE para la eficiencia de los recursos debe desmarcarse de la
economía lineal -donde se extraen los materiales de la tierra para fabricar los productos, usarlos y
luego eliminarlos-, hacia una economía circular –donde los residuos y los subproductos, del final
de vida de los productos usados, entran de nuevo en el ciclo de producción como materias primas
secundarias. En definitiva, el uso de residuos como la principal fuente de materia prima fiable es
esencial para la Unión Europea.

220
Existe una fuerte motivación económica y empresarial a favor de la economía circular y la
eficiencia de los recursos. De hecho, la Comisión Europea, como órgano colegiado, ha adoptado la
eficiencia de los recursos como un pilar central de su estrategia económica estructural Europa
2020».

La relación de la buena gestión de los residuos para la economía circular será un tema central de la
Comisión en 2014. Debido a que los residuos son sólo una etapa en el ciclo de vida de los
productos, la Comisión incluirá sus propuestas sobre residuos en un paquete mucho más amplio
sobre la eficiencia de los recursos y la economía circular.

3.39. ¿POR QUÉ LA ENERGÍA DEL GAS VIVE SU EDAD DE ORO?


Puede que el carbón sea sucio, contaminante, pero es barato.

Por esta simple razón sigue siendo la principal fuente de energía del mundo, proporcionando un
cuarto de nuestra energía primaria y más del 40% de nuestra electricidad. Y continuará haciéndolo
durante muchos años.

El reto, entonces, es cómo generar energía con carbón de una forma más ecológica.

En momentos en que los intentos por desarrollar un sistema de captura y almacenamiento de


carbono están estancados, una serie de países ensaya distintas maneras de explotar sus
abundantes reservas de carbón.

No todos tienen como motivación razones ambientales. También hay razones económicas y el
deseo de alcanzar la independencia energética.

Viejo y nuevo

La principal tecnología que se está usando es el llamada gasificación del carbón. Es decir, en lugar
de quemar el combustible fósil, éste se transforma químicamente en un gas natural sintético o gas
de síntesis.

El proceso existe desde hace décadas, pero el alza en los precios del gas hace que ahora sea más
viable económicamente.

Estados Unidos ha incursionado en la técnica, pero China se ha abocado de lleno a ella en una
apuesta por satisfacer su creciente demanda de energía y reducir su dependencia al gas natural
licuado importado.

La Administración Nacional de Energía del gigante asiático reveló planes para producir 50 millones
de metros cúbicos de gas a partir del carbón para 2020, suficiente para hacer frente a más del 10%
del consumo total de gas en China.

Esto no sólo tiene sentido desde el punto de vista económico, sino que además les permitirá a los
chinos explotar depósitos de carbón abandonados a miles de kilómetros de los principales centros
industriales del país. Transportar gas, después de todo, es mucho más barato que transportar
carbón.

221
La gasificación del carbón también ayudará a solucionar los problemas de contaminación que en
los últimos meses han paralizado varias partes del país.

Pero el sistema enfrenta dos grandes problemas.

El primero es que las plantas de gasificación de carbón producen más de CO2 que las centrales de
carbón tradicionales, de modo que China no sólo estará usando más carbón, sino que además
sufrirá un mayor impacto ambiental.

Laszlo Varro, jefe de mercados de gas, carbón y energía en la Agencia Internacional de Energía
(AIE), afirma que la gasificación del carbón es "atractiva desde una perspectiva económica y de
seguridad energética".

"Puede ser una buena solución a la contaminación a nivel local, pero al ser tan intensiva en
carbono es peor que la minería de carbón, por lo que no es atractiva desde el punto de vista del
cambio climático".

De hecho, un estudio de la Universidad Duke, en Estados Unidos, dice que el gas natural sintético
emite siete veces más gases de efecto invernadero que el gas tradicional y casi el doble que una
central termoeléctrica a carbón.

El segundo problema es el uso de agua. La gasificación del carbón es uno de los sistemas de
generación de energía que emplea más agua, y grandes areas de China, particularmente en el
oeste del país, que tienen plantas para este fin ya tienen dificultades en el suministro de agua.

Varro recuerda que un reporte reciente de la AIE concluyó que las plantas de gasificación de
carbón usarán "una proporción sustancial del agua disponible en China".

Reservas abundantes

Otros países trantan de hallar métodos alternativos para obtener gas a partir del carbón.

Una técnica particularmente popular en Australia es el gas metano de carbón, un proceso que
permite acceder a depósitos de carbón que están demasiado profundos para explorarlos por
medio de la minería tradicional.

Consiste en extraer el agua de la veta, lo que libera el metano adherido a la superficie del carbón,
que luego se almacena.

China, Indonesia y Mozambique están buscando yacimientos de gas metano de carbón, y Estados
Unidos y Canadá tienen abundantes reservas.

El proceso emite muy poco CO2, pero no está exento de controversia. Sus oponentes destacan el
problema de la contaminación del agua, el hundimiento del terreno y la eliminación del agua
residual de forma segura, además de que en ocasiones requiere procesos de fracturación
hidráulica (fracking).

Aun así el gas metano de carbón ha "cambiado fundamentalmente la dinámica de la industria del
gas en Australia", asegura Phil Hirschhorn, socio en la empresa consultora de energía Boston
Consulting Group, con sede en Sídney.

222
Según explicó Hirschhorn, el país cuenta con 200 billones de pies cúbicos de gas metano de
carbón, y hay proyectos en marcha para licuarlo y exportar 25 toneladas cada año, el equivalente
al 10% de todo el mercado global de gas natural licuado.

Acceso limpio

Un modo muy distinto de producir gas a partir del carbón es conocido como gasificación de carbón
bajo tierra (UCG, por sus siglas en inglés), un proceso que existe desde el siglo XIX pero aún no ha
logrado convertirse en un sistema comercialmente viable a gran escala, aunque hay una planta en
operaciones en Uzbekistán y proyectos piloto en Australia y Sudáfrica.

Según Julie Lauder, jefe ejecutiva de la Asociación UCG -el cuerpo que representa al sector a nivel
internacional-, este método es una "nueva forma de extraer energía del carbón sin el impacto
ambiental frecuente".

Los desarrollos tecnológicos y el aumento del precio del gas hacen que el UCG sea ahora una
forma viable de acceder a grandes depósitos de carbón que están a demasiada profundidad para
ser explotados, explica Lauder.

De hecho, se estima que el 85% de los depósitos de carbón en el mundo no son accesibles con las
técnicas tradicionales.

Explotarlos tendría potenciales implicaciones desastrosas en cuanto a emisiones de CO2 y cambio


climático, pero la industria dice que se puede acceder a estos yacimientos de forma limpia.

El proceso involucra inyectar oxígeno y vapor para producir una combustión pequeña y
controlada. A diferencia del gas metano de carbón, el mineral es transformado de estado sólido a
gas.

El hidrógeno, metano, monóxido de carbón y CO2 es desviado a través de un segundo pozo.

Según Harry Bradbury, fundador y jefe ejecutivo de la compañía de energía limpia Five Quarters,
este proceso genera sólo un 20% del CO2 producido por la minería de carbón tradicional.

Pero su compañía está desarrollando un proceso que no requiere quemar el carbón, y que
combina lo que Bradbury llama "ingeniería química de estado sólido", que libera gases que son
atrapados no sólo en el carbón, sino también en las rocas de alrededor. Y todo esto tiene lugar en
alta mar, lo que reduce la preocupación por la contaminación del agua potable.

Pero la verdadera ventaja está en la posibilidad de capturar el CO2. "Necesitamos ser más
radicales, lograr una emisión cero de carbón", afirma Bradbury. "Una total captura y
almacenamiento del dióxido de carbono es crucial".

Esto puede tener lugar ya sea reinyectando el CO2 en las vetas de carbón o convirtiéndolo en
productos como plásticos y grafeno, explica.

El gobierno de Reino Unido ha creado un equipo de trabajo para investigar los beneficios del UCG,
impulsado por los enormes depósitos de carbón del Mar del Norte.

Otros gobiernos también quieren explotar nuevas tecnologías para acceder a sus vetas profundas.

223
El problema, por supuesto, es que el proceso depende enteramente de mayores esfuerzos para
desarrollar sistemas de captura y almacenamiento de CO2.

Hasta que se alcance una solución, cualquier intento de gasificar el carbón subterráneo seguirá
siendo teórico o contribuirá a agravar el problema de las emisiones.

3.40. ¿CÓMO SE DESARROLLAN HOY LAS FUENTES RENOVABLES DE


ENERGÍA QUE SON LA ENERGÍA EÓLICA Y LA SOLAR?

La energía eólica es la forma de energía renovable que se obtiene al explotar la fuerza del viento.
En concreto, es la capacidad de un sistema para transformar la fuerza que tiene el viento en
electricidad.

Esta energía se explota a través de un equipo llamado aerogeneradores. Estos dispositivos están
compuesto por una turbina eólica situada en la parte superior de una torre de soporte y un
generador eléctrico. Su principio de funcionamiento es el mismo que el de los antiguos molinos de
viento.

¿CÓMO FUNCIONA LA ENERGÍA EÓLICA?

Las palas, giradas por el viento, transforman la energía cinética producida por el viento en energía
mecánica. A continuación, un generador conectado a las palas, transforma la energía mecánica
producida por la rotación de las palas en energía eléctrica.

Las palas están conectadas a este generador o rotor, a su vez conectado a un “eje ” (colocado en
el polo). Este eje envía la energía de rotación al generador eléctrico colocado en la base de la
estructura. El generador utiliza algunos imanes y propiedades de inducción electromagnética para
producir un voltaje eléctrico (es decir, una diferencia en la carga eléctrica) y, por tanto, energía
eléctrica.

Existen varios tipos de turbinas y varios tipos de cuchillas, dependiendo de su tamaño o tipo de
eje. Debido a la desaceleración que sufre el viento a través del aerogenerador, solo el 59% de la
energía cinética se puede convertir en energía mecánica.

VENTAJAS E INCONVENIENTES DE LA ENERGÍA EÓLICA

Como todo, hay ventajas e inconvenientes de la energía eólica que deben ser tenidos en cuenta.
Para ello, nada como comparar, comenzando por las ventajas.

FUENTE INAGOTABLE

La energía eólica es una fuente válida de energía renovable. Lanza la producción de electricidad a
partir de combustibles fósiles. El viento es una fuente abundante e inagotable, disponible en
muchos lugares del mundo.

OCUPA POCO ESPACIO

224
A diferencia de la energía fotovoltaica , un campo o parque eólico ocupa un área más pequeña. De
hecho, necesita menos terreno para poder lograr acumular una energía eólica considerable que
transformar en energía eléctrica. Además, es reversible, lo que significa que el área ocupada por el
parque puede restaurarse fácilmente para renovar el territorio preexistente.

NO CONTAMINA

La energía eólica es una fuente de energía limpia con un bajo impacto ambiental. No produce
gases tóxicos y las propias turbinas eólicas pueden enfrentar un ciclo de vida muy largo antes de
ser enviadas para su eliminación.

BAJO COSTE

Los costos de las turbinas eólicas y el mantenimiento de la turbina son relativamente bajos. Un
costo por kW producido, en áreas muy ventosas, es bastante bajo.

aerogeneradores

Parece que todo son ventajas en torno a la energía eólica pero también podemos señalar o
explicar algunas desventajas.

EL VIENTO NO ESTÁ GARANTIZADO

El viento, así como las condiciones climáticas, son relativamente impredecibles. No es posible
estimar, exactamente, un plan para devolver la inversión.

IMPACTO EN EL PAISAJE

Los grandes parques eólicos tienen un fuerte impacto paisajístico y son visibles desde largas
distancias. La altura promedio de las turbinas de viento de las plantas grandes oscila entre 50 y 80
metros. Además, sus cuchillas giratorias que se elevan verticalmente otros 40 metros.

Es importante enfatizar que el impacto del paisaje no es una desventaja para todos. La mayor
comodidad de instalación se ve agravada por el impacto del paisaje. En general, el viento sopla
más fuerte en las costas, en lugares montañosos y en las montañas, por lo que un parque eólico
puede desfigurar un buen paisaje.

AFECTAN A LAS AVES

Los parques eólicos pueden tener un impacto negativo en la avifauna local. Especialmente, entre
las aves rapaces nocturnas. El impacto en la avifauna viene dictado por las paletas giratorias que
pueden moverse hasta una velocidad de 70 km/hora. Las aves no son capaces de reconocer
visualmente las cuchillas que se mueven tan rápido chocando con ellas fatalmente.

LA HISTORIA Y LA ACTUALIDAD DE LA ENERGÍA EÓLICA

Si buscamos la forma más antigua de utilizar la energía posiblemente la más antigua sea la energía
eólica. En el año 3.000 a.C. los primeros transportes movidos por el viento ya surcaban nuestros
mares, eran las primeras embarcaciones a vela. Barcos como los que se utilizaban en
Mesopotamia o en el antiguo Egipto con velas adaptadas al tipo de vientos.

225
Se conoce de la existencia de los primeros molinos de viento al rededor del siglo VII en Sistán,
Afganistán. Se trataban de unos molinos con eje vertical y ocho velas realizadas con diferentes
tejidos que se utilizaban para moler grano o sacar agua de los pozos.

En Europa no se utilizaron hasta bien entrado el siglo XII, localizándose su uso tanto en Francia
como en Inglaterra. Con la primera revolución industrial y la aparición de la máquina a vapor, la
utilización de los molinos de viento dejaron de ser rentables, ahora el proceso de molienda se
hacía más rápido y mecánico.

La utilización de la energía eólica volvió a reinventarse en los primeros años del siglo XIX. Se
trataba de una máquina que portando un generador eléctrico a un molino, sería capaz de
transformar esa energía eólica en electricidad. Este fue el primer aerogenerador, pero en 1802, la
tecnología no había avanzado lo suficiente teniendo que pasar cuarenta años para que con la
invención de la dinamo, el primer aerogenerador pudiera funcionar.

En 1888 se creo la primera turbina eólica capaz de generar electricidad. Este hecho abrió todo un
campo a la investigación dando lugar en Dinamarca en 1890 con la puesta en funcionamiento de la
primera máquina creada específicamente para generar electricidad aprovechando la fuerza del
viento.

ENERGÍA EÓLICA – LA ENERGÍA EÓLICA EN LA ACTUALIDAD

En la actualidad, nuestro país es el segundo del mundo en cuanto a la potencia eólica instalada,
solamente por detrás de Alemania, y continúa creciendo.

aerogeneradores-flotantes

A nivel mundial, es el continente europeo el que produce la mayor parte de la energía eólica,
llegando al 72%.

Las iniciativas que han fomentado la instalación de aerogeneradores proceden de los gobiernos;
por ejemplo en Alemania la ley obligaba a las compañías eléctricas a pagar a los productores de
renovables el 90% del precio abonado por el consumidor.

Hoy, uno de los objetivos que afectan a esta energía es el encontrar un modelo de aerogenerador
eficaz que tenga un menor impacto visual, y que no dañe a las aves. También se está investigando
para obtener esta energía a partir de aerogeneradores flotantes que, instalados en el mar
reducirían el impacto de los aerogeneradores convencionales.

DE DÓNDE PROVIENE LA ENERGÍA EÓLICA

SOL

Toda la energía renovable (excepto energía mareomotriz y geotérmica), e incluso la energía en


combustibles fósiles, en última instancia proviene del sol. El sol irradia 174,423,000,000,000 de
kilovatios hora de energía a la tierra por hora. En otras palabras, la tierra recibe 1,74 x 10 17 vatios
de potencia. Aproximadamente del 1 al 2 por ciento de la energía proveniente del sol se convierte
en energía eólica. Eso es alrededor de 50 a 100 veces más que la energía convertida en biomasa
por todas las plantas en la tierra.

226
Las regiones alrededor del ecuador, a 0 ° de latitud, son calentadas más por el sol que el resto del
globo.

El aire caliente es más ligero que el aire frío y se elevará hacia el cielo hasta que alcance
aproximadamente 10 km de altitud y se extenderá hacia el norte y el sur. Si el globo no girara, el
aire simplemente llegaría al Polo Norte y al Polo Sur, se hundiría y regresaría al ecuador.

TURBINAS O AEROGENERADORES

Al margen de obtener la energía eólica mediante el sol, está se consigue gracias a las turbinas o
aerogeneradores. Así la energía renovable del viento puede explotarse a través de tres tipos de
turbinas.

Instalados en áreas con fuertes vientos, estos molinos de viento desarrollan más de 100 kilovatios.
La electricidad resultante alimenta la red eléctrica, desde donde llega al usuario final a través del
sistema de energía o los operadores de servicios eléctricos.

MOLINOS DE VIENTO EN ALTA MAR

Instalados en mares u océanos de todo el mundo, estas turbinas aún no se han utilizado. Países
como Estados Unidos todavía tiene que desarrollar este tipo de turbinas en su territorio porque
todavía son bastante antieconómicas para construir.

DATOS SOBRE LA ENERGÍA EÓLICA

Para ver el verdadero impacto, conviene conocer algunos datos sobre la energía eólica.

Datos que ponen en perspectiva la relevancia de esta renovable en todo el mundo.

CANTIDAD DE ENERGÍA EÓLICA EN EL MUNDO

Por ejemplo, no está de más saber qué cantidad de energía eólica se crea, gracias al viento, en
todo el mundo. La respuesta es cuantificable. El 3% del consumo a nivel mundial de electricidad,
procede de la energía eólica. Se estima que en 2020 este porcentaje de se elevará al 5%. El
objetivo es que allá por 2040, la energía eólica roce el 10% en todo el mundo. Porcentaje que se
elevaría al 20% en toda Europa.

PAÍSES LÍDERES EN ENERGÍA EÓLICA

¿Cuáles son los países con más producción de energía eólica en todo el mundo? En la actualidad,
en todo el mundo hay 600.000 MW instalados en todo el mundo. Curiosamente, España estuvo
entre los países pioneros en esta iniciativa y fue uno de los primeros en convertir la energía eólica
en electricidad.

De hecho, en 2013 fue el primer país donde la energía eólica fue la principal generadora de
electricidad durante un año completo. En concreto, fue el 20,9% de la producción total de 2013, lo
que hizo que todo el mundo mirara a España como ejemplo. Por desgracia, España miró a otro
lado y frenó las inversiones en este área, permitiendo que otros países le superaran en cantidad,
calidad e inversiones.

227
A pesar de ello, España sigue siendo un referente con 23.000 MW instalados. Por encima de
España ya están China (138.060 MW), Estados Unidos (71.000 MW), Alemania (43.723 MW) y
India (25.219 MW).

La energía solar se genera cuando la luz solar incide en los paneles solares, que luego convierten la
energía solar en electricidad apta para nuestros hogares. Esta transformación fotovoltaica es la
forma en que se produce la energía solar. En este post, analizaremos en profundidad cómo un
sistema solar doméstico aprovecha la energía del sol.

Los paneles solares convierten la luz del sol en energía

El proceso de crear energía a partir de la luz solar comienza con la parte más importante de una
instalación solar: los paneles solares. Un panel solar típico está hecho de silicio monocristalino o
policristalino alojado en un marco de metal con una carcasa de vidrio.

Cuando la luz del sol incide en la fina capa de silicio en la parte superior de un panel , desprende
electrones de los átomos de silicio. Los electrones tienen carga negativa, lo que significa que se
sienten atraídos por un lado de la celda de silicio. Esto crea una corriente eléctrica que es
capturada por el cableado del panel solar.

Conocido como el "efecto fotovoltaico", los electrones que fluyen y que han sido liberados por la
luz solar son la base de la electricidad generada a partir de los paneles solares. Cuantos más rayos
de sol incidan sobre los paneles solares, más electrones quedarán libres, por lo que es importante
tener en cuenta factores como la sombra y la cobertura local de nubes cuando se diseña un
sistema de energía solar.

Los diferentes paneles solares producen electricidad a diferentes velocidades dependiendo de su


eficiencia y calidad. Las placas solares de alta calidad a menudo costarán un poco más, pero a
largo plazo le ahorrarán dinero porque producen electricidad de manera más eficiente.

Los inversores convierten la energía de los paneles solares en electricidad aprovechable

Una vez que los electrones sueltos han sido recogidos en paneles individuales, la corriente
resultante se conoce como corriente continua. La electricidad que usamos para alimentar
dispositivos, cargar vehículos eléctricos y encender nuestras luces es de corriente alterna. La
electricidad generada por electrones de silicio sueltos es electricidad de CC y debe convertirse a
electricidad de CA antes de que podamos usarla.

Esta conversión se realiza mediante dispositivos llamados inversores. Los inversores pueden
configurarse como inversores de cadena, microinversores u optimizadores de potencia, pero cada
configuración realiza la misma función general de convertir la electricidad de CC en electricidad de
CA. Una vez que la electricidad de CC pasa a través de los inversores y se convierte en electricidad
de CA. De esta manera, puede aprovecharse la energía solar en casa o en la red eléctrica general.

Otras tecnologías de paneles solares

La mayoría de los paneles solares disponibles están hechos de silicio cristalino, pero hay algunos
otros tipos de paneles solares que producen electricidad del sol.

228
Paneles solares de telururo de cadmio (CdTe)

Los paneles CdTe usan un material diferente al silicio para producir electricidad. Si bien no tienen
calificaciones de eficiencia muy altas (aún), los paneles CdTe pueden capturar energía solar en
longitudes de onda más cortas que los paneles de silicio. Además, los costes de fabricación son
bajos.

Paneles solares de cobre y diseleniuro de indio (CIGS)

Con mayores eficiencias que los paneles CdTe, los paneles CIGS son una opción de panel
prometedora. Desafortunadamente, los altos costes de producción han impedido que los paneles
CIGS lleguen al público general. Los paneles CIGS usan un material diferente basado en cobre para
generar electricidad.

Células fotovoltaicas orgánicas (OPV)

En lugar de utilizar un material inorgánico como el silicio o el cobre, las células OPV usan capas
delgadas de vapor orgánico para generar una corriente eléctrica a partir de la luz solar. Las células
OPV aún no se han utilizado ampliamente debido a la baja eficiencia y la corta vida útil en
comparación con otras tecnologías de panel.

Todas estas tecnologías solares caen bajo el paraguas de paneles de película delgada, y son una
parte muy pequeña del mercado de la energía solar en general. Esto se debe principalmente a que
no son rentables en la actualidad. En el futuro, estas opciones pueden ser las tecnologías que
dominen la energía solar, pero por ahora los paneles solares de silicio dominan la industria.

3.41. ¿POR QUÉ LA EMPRESA JAPONESA DE AUTOS MAZDA BUSCA


REDUCIR LAS EMISIONES DE DIÓXIDO DE CARBONO?

Mazda comenzará a comercializar vehículos eléctricos en 2019, como parte de una meta orientada
a aligerar las emisiones contaminantes.

Al presentar su visión “Zoom-Zoom Sostenible 2030”, la automotriz indicó que en un inicio sólo
llevará sus autos eléctricos a aquellas regiones con porcentajes elevados de generación de
energías limpias o que impongan limitaciones de vehículos de combustible.

Con su plan, Mazda busca reducir las emisiones de dióxido de carbono de las que es directamente
responsable en un promedio del 50% con respecto a los niveles de 2010 para el año 2030 y del
90% para 2050.

No obstante, los esfuerzos de la firma japonesa no estarán centrados sólo en tecnologías


eléctricas, sino también en mejorar la eficiencia de los motores tradicionales.

“Se dará continuidad a los esfuerzos para perfeccionar el motor de combustión, porque seguirá
presente en la mayoría de los coches del mundo en los años venideros y, por ello, es el que tiene
más potencial para reducir las emisiones de dióxido de carbono”, indica la nueva visión de Mazda.

229
En ese sentido, también en 2019 lanzará dos innovaciones que reducen el consumo de
combustible de los vehículos.

La primera es el motor Skyactiv-X, el cual presentó como el primer motor de gasolina con
encendido por compresión, y la segunda es el método de combustión de desarrollo propio
denominado Spark Controlled Compression Ignition, que maximiza la zona en la que es posible el
encendido por compresión y facilita una transición fluida entre el encendido por compresión y el
encendido por chispa.

Vehículos autónomos, a partir de 2020

En aras de abonar a la seguridad vehicular y eliminar por completo los accidentes de tránsito,
Mazda iniciará en 2020 las pruebas de tecnologías de conducción autónoma, actualmente en
desarrollo.

La automotriz prevé equipar a todos sus modelos con este sistema en 2025.

Además, señaló que incrementará la implantación de su tecnología de seguridad i-Activsense, la


cual ayuda a los conductores a reconocer y evaluar peligros.

“En Japón, estas tecnologías ya se están incorporando al equipamiento de serie y se irán


normalizando gradualmente en otros mercados a partir de 2018”, menciona la visión de la
empresa

3.42. ¿POR QUÉ LAS EMPRESAS PETROLERAS HAN DECAÍDO FRENTE A


LA PRESENCIA DE LAS ENERGÍAS RENOVABLES?

LOS AVANCES TECNOLÓGICOS ABARATAN LA PRODUCCIÓN DE LAS ENERGÍAS NO


CONTAMINANTES. BLOOMBERG SEÑALA QUE “LA ENERGÍA SOLAR NO SUBVENCIONADA ESTÁ
EMPEZANDO A SACAR DEL MERCADO AL CARBÓN Y AL GAS NATURAL”. UNA UNIVERSIDAD
DANESA YA PROYECTA “LA INTERNET DE LAS ENERGÍAS LIMPIAS”. BOLIVIA SE REZAGA.

En 2016 Costa Rica pasó más de 250 días utilizando electricidad proveniente únicamente de
energías renovables. Durante dos tercios del año, este país de casi cinco millones de habitantes,
no requirió para nada de combustible fósil para generar electricidad. Y eso no es todo: a lo largo
de 2016 el 98,12% del servicio de energía provino de fuentes hidroeléctricas, geotérmicas, eólicas
o de energía solar.

Es un ejemplo entre una lista que se hace incontable. En 2016 Uruguay también marcó un hito
ecológico. A lo largo del 11 de mayo, la energía eléctrica consumida en ese país provino en su
totalidad de fuentes de energía renovables, informó la firma SEG Ingeniería. Especificó que, del
total de energía consumida en esas 24 horas, el 70,53 % se originó en represas hidráulicas, el 21,13
% fue generado de forma eólica, el 7,96 % provino de la biomasa y el 0,39 % resultó energía solar.

En Europa se multiplicaron los avances tecnológicos y las obras amigables con el medio ambiente
destinadas a las energías alternativas. Baste citar, solo como ejemplo, la planta hidroeléctrica de

230
Linthal. Se trata de una central reversible subterránea que aprovecha una caída desde 1.860
metros de las alturas de los Alpes. La obra produce 1.450 megavatios de energía renovable y
permite satisfacer la demanda de un millón de familias.

Y claro, la masificación del uso de energías no contaminantes tiene su pico en Alemania. En 2010
había lanzado su plan de “Energiewende“. El resultado ha sido un descenso imparable de los
precios mayoristas de la electricidad, que ha caído al mínimo de los últimos 12 años. El consumo
de la energía solar y eólica aumentó exponencialmente con el plan germano de llegar hasta el 60%
de su consumo de energía a través de fuentes renovables hasta el año 2035. Hasta el presente ya
se alcanzó el 28%.

En ese escenario, la energía fotovoltaica bate récords de producción. Y esto desató una virtual
crisis entre las grandes empresas de la electricidad alemanas. Ellas ven cómo los márgenes de su
carbón y plantas de gas se desploman ya que resulta cada vez más barato comprar energía verde.

Noticias similares provienen de los cinco continentes del planeta. Se habla del boom de las
energías renovables incluso para desarrollarlas en las zonas depauperadas del África. Ya se
instalaron parques eólicos a costos más económicos que en Europa en Marruecos, Etiopía y Kenia.
La reciente cumbre Europa – África destacó el potencial solar que tiene el continente en tiempos
en que la tecnología de explotación ya compite con la del petróleo. También se prevé optimizar el
uso de sus proyectos hidroeléctricos de manera que no causen daños ambientales.

CADA AÑO MÁS ENERGÍA RENOVABLE

Era de esperarse, y hasta probablemente más de uno opinará que tardó demasiado en llegar.
Pero, el mundo ya vive el boom de las energías renovables para librarse de su centenaria adicción
al petróleo. Es el principio del adiós a la gasolina, al diesel y al gas.

Los expertos remarcan que 2015 fue el año en el que se invirtió más dinero en el desarrollo de
energías limpias en la historia de la humanidad. Pero, se descuenta que las evaluaciones revelen
que esa primacía ya la logró el año 2016 y que los indicadores seguirán creciendo. Según el décimo
Informe sobre Tendencias de Inversión en Energías Renovables, la inversión global fue de 285.900
millones de dólares, de los cuales China, India y Brasil aportaron 156.000 millones.

"Buena parte se debe a China, que incrementó su inversión en un 17% y contribuyó con 102.900
millones de dólares, lo que representa el 36% del total mundial". Así se lee en el reporte realizado
por el Centro de Colaboración para la Financiación de Clima y Energía Sostenible de UNEP (el
programa de Medio Ambiente de Naciones Unidas) y la publicación especializada Bloomberg New
Energy Finance.

La especialista alemana en energías renovables, Ulrike Dabsch, explica el crecimiento mundial de


las tecnologías que utilizan energías renovables, para generar calor o electricidad. Dabsch cita
principalmente los siguientes motivos:

“Ya es reconocido mundialmente el problema del calentamiento global, causado principalmente


por las emisiones de gases de efecto invernadero. La matriz energética mundial tiene una gran
incidencia en la emisión de estos gases y las energías renovables se han convertido en una
alternativa a las energías tradicionales que tienen alto impacto ambiental. Los principales motivos

231
para esta tendencia son que la generación de electricidad o calor a base de energías renovables,
no conlleva emisiones de gases de efecto invernadero y se regeneran en el ciclo de vida humana.
La tecnología para el aprovechamiento de las energías renovables ha madurado y bajado
drásticamente sus costos de producción”.

Acotando las energías renovables a la energía solar fotovoltaica (una de las tecnologías renovables
de mayor crecimiento), los países con la mayor capacidad instalada bruta son: Alemania, EEUU,
China, Japón, Italia y España. Acotando las energías renovables a la energía eólica (también una
tecnología renovable de mayor crecimiento), los países con la mayor capacidad instalada (bruta)
son: China, EEUU, Alemania, India, España y Dinamarca.

CHILE CAMPEÓN MUNDIAL

El boom ya se expresa hasta en rankings y premios anuales a los mayores proyectos de


reducciones porcentuales de contaminación. Según una clasificación de la revista Forbes, China
resultaba la campeona mundial de las energías alternativas hasta 2016. El gigante asiático camina
hacia un futuro libre de emisión de carbono con el objetivo reducir los niveles de gases tóxicos que
produce. Para 2020, por ejemplo, el gobierno Chino planea que el 27% de su producción total de
energía sea a partir de energías renovables; de modo que en 2050, este modelo se haya adoptado
en un 80%.

Sin embargo, en 2017 China ya no encabezará la lista de los países que miran hacia un desarrollo
sostenible, amigable con el medio ambiente. Quien remplaza a esta potencia mundial es nada
menos que Chile con la planta de energía solar El Romero, ubicada en el desierto Atacama. La
planta, que tuvo una inversión de 343 millones de dólares, es la más grande de Sudamérica. Busca
generar 196 megavatios de poder para llevar energía a miles de casas: un proyecto que entrará en
vigencia en abril del próximo año. Con El Romero también se espera compensar los daños
generados por las plantas de carbón, reduciendo 474.000 toneladas métricas de emisiones de
dióxido de carbono (CO2).

Le sigue Kenia, un país del este africano, con gran potencial en energías geotérmicas que todavía
están siendo exploradas. Japón es uno de los países que ha mostrado interés en el desarrollo de
energías renovables en Kenia a través del proyecto geotermal Olkaria. Allí se invirtieron 408
millones de dólares y se espera que comience a operar a finales de 2018.

El otro país latinoamericano dentro de esta clasificación es Brasil, con cerca de 1.000 turbinas de
viento que reducen tres millones de toneladas de CO2 al año. Además de los otros 175 proyectos
que se encuentran en construcción con los que Brasil se suma a la tecnología de energías
renovables.

Al otro lado del mundo, en la pequeña isla de Taiwán, el gobierno estima invertir 56 mil millones
de dólares para aumentar su producción de energías renovables en un 20% hasta el 2025. Es decir,
cinco veces más de lo que generan actualmente.

El último de este podio es Egipto, que ha mejorado su participación en el campo de la


sostenibilidad ambiental. Recibió un premio del Oxford Business Group, un colectivo de
investigadores económicos, por los esfuerzos que el país ha hecho para lograr un planeta más

232
sano. En 2022, Egipto espera incrementar su energía a partir de energías renovables en un 20%,
ocho puntos más de lo que el país produce actualmente.

UN MUNDO SIN PETRÓLEO YA ES POSIBLE

El debate que entre los expertos en energía marcó a la década pasada enfrentaba a la hipótesis de
que no sería posible globalizar el uso de energías alternativas. Sus defensores esgrimían los
elevados costos de la tecnología para producir energías limpias. Pero, año a año, los avances han
ido ahogando esas voces. Basta señalar que, según un informe de Bloomberg, en 2016 el costo de
producción de la energía solar se abarató en un 75%.

"La energía solar no subvencionada está empezando a sacar del mercado al carbón y al gas natural
y, notablemente, los nuevos proyectos solares en los mercados emergentes están costando menos
que los eólicos", decía el informe de Bloomberg sobre la industria energética publicado a
principios de diciembre. Y, efectivamente, en casi 60 países emergentes el precio medio de las
instalaciones solares necesarias para producir cada megavatio ya resulta el más económico.

Por si Bloomberg resulte menos autorizada que la ONU, 2015, según un reporte de las Naciones
Unidas, por primera vez los proyectos renovables fueron mayoría con respecto a capacidad
instalada para generación de energía. Más de la mitad de los 286 mil millones de dólares
invertidos en energía eólica, solar y otras renovables se destinaron a mercados emergentes como
China, India y Brazil. Sin contar las plantas hidroeléctricas grandes, el 10.3% de la electricidad
generada en el mundo provino de fuentes renovables, casi el doble que en 2007.

El costo promedio de generación de electricidad a partir de paneles solares disminuyó un 61%


entre el 2009 y el 2015, y otro 14% en molinos eólicos. En las regiones con mayor radiación solar
como la India o Dubai, incluso se está ofreciendo energía solar a menos de la mitad del precio
promedio mundial. La empresa KPMG predijo que para para el 2020 la energía solar en India
podría ser incluso 10% más barata que la quema de carbón.

Y para mayores precisiones, aspirando a un cierre de debate, un proyecto danés estableció la


vialidad de un sistema mundial de energías alternativas. Académicos de la universidad Tecnológica
de Lapeenranta construyeron una minuciosa simulación digital que muestra la articulación
planetaria de energías eólicas y solares. Se la denomina “la internet de la energía” y está basada
100 % en energías renovables. Ha sido proyectado para una época cercana al año 2030.

Bolivia, según el Ministerio de Hidrocarburos y Energía, hasta el año 2020 prevé alcanzar una
generación de 545 megavatios proveniente de energías alternativas. Para entonces el Gobierno
proyecta generar 4.595 megavatios de sus diversas fuentes energéticas. Vale decir que las
energías alternativas aportarán el 11,8 por ciento de ese total.

Diversas investigaciones tanto de universidades como de fundaciones advierten que nuestro país
posee condiciones ideales para el desarrollo de energías renovables. Se asegura que, por su
ubicación geográfica, Bolivia podría producir energía solar más barata que Alemania, Costa Rica o
Uruguay. También podría generar más energía de represas hidroeléctricas de altura que los suizos.
Y se remarca grandes potenciales para la producción de energía eólica y geotérmica.

233
Sin embargo, al parecer, por ahora, no se le dará mayor importancia al boom que el mundo
experimenta imparablemente ya desde hace dos años.

3.43. ¿CÓMO LAS EMPRESAS DIGITALES (APPLE, FACEBOOK, GOOGLE Y


AMAZON) ESTÁN CAMBIANDO EL MERCADO ENERGÉTICO?

Google, Apple, FaceBook, Amazon y Microsoft: comprometidos por un mundo de energía limpia.
Un trabajo de Proyecto FSE; una iniciativa de divulgación de la ciencia con mucho que ofrecer.

El equipo de expertos divulgadores de la ciencia del Proyecto FSE, dio a conocer un estudio sobre
las empresas tecnológicas más relevantes del planeta que utilizan la tecnología fotovoltaica y
eólica para “dar luz” a sus operaciones que realizan en los cinco continentes.

Una vez más, reproducimos este interesante análisis elaborado por Proyecto FSE, un programa de
comunicación y difusión apoyado por el Fondo de Sustentabilidad Energética y el Fondo de
Hidrocarburos; ambas iniciativas impulsadas desde la Secretaría de Energía y el Consejo Nacional
de Ciencia y Tecnología.

Aquí el reporte que por diversas circunstancias resulta muy interesante en más de un sentido.

Cada vez que damos un “like” en Facebook, hacemos una búsqueda en Google o enviamos una
foto desde un iPhone, la electricidad utilizada para realizar esos servicios proviene de fuentes
renovables, sobre todo de la energía solar y eólica.

Cinco gigantes tecnológicos han incorporado a sus operaciones proyectos de energías limpias
desde hace aproximadamente una década y hoy tienen brillantes resultados.

La doctora Liliana Licea Jiménez, científica del Centro de Investigación en Materiales Avanzados
(Cimav), nos da su opinión sobre las estrategias sustentables que siguen estas compañías
conocidas por todo el público.

1. Google expuso, en abril de 2018, que desde 2017 opera al 100 por ciento con energía
renovable. La compra total de energía de fuentes eólica y solar excedió la cantidad de electricidad
utilizada por sus operaciones en todo el mundo, incluidas oficinas y centros de datos.

“A lo largo de 2017, en todo el mundo, por cada kilowatt/hora de electricidad que consumimos,
compramos un kilowatt/hora de energía renovable de un parque eólico o solar que se construyó
específicamente para Google”, dijo Urs Hölzle, vicepresidente senior de Infraestructura Técnica de
Google.

Añadió que, actualmente, tienen contratos para comprar 3 Gigawatts de proyectos de energía
renovable. A la fecha, la compañía ha invertido más de tres mil millones de dólares en energías
renovables y presume que es el organismo que más ha gastado en ese sector en el mundo.

234
2. Apple anunció, en abril de 2018, que sus instalaciones a nivel mundial operan con energía limpia
al 100 por ciento. Este logro incluye tiendas, oficinas, centros de datos e instalaciones establecidas
en 43 países, incluyendo México.

En un comunicado, la empresa dijo que tiene 25 proyectos operativos de energía renovable en


todo el mundo, con una capacidad de generación de 626 Megawatts en total, con 286 MW de
generación solar fotovoltaica. También cuenta con 15 proyectos más en construcción. Una vez
concluidos, más de 1.4 Gigawatts de generación de energía renovable se extenderán a través de
11 países.

“Vamos a seguir superando los límites con los materiales de nuestros productos, la forma como los
reciclamos, nuestras instalaciones y nuestro trabajo con los proveedores, para establecer nuevas
fuentes de energía renovable, creativas y vanguardistas, porque sabemos que el futuro depende
de ello”, dijo Tim Cook, CEO de Apple.

3. Facebook dijo, en agosto de 2018, que se compromete a reducir sus emisiones de gases de
efecto invernadero en un 75 por ciento y activar sus operaciones globales con energías renovables
al 100 por ciento para finales de 2020.

De 2013 a la fecha, la red social ha firmado contratos por más de 3 Gigawatts de energía solar y
eólica, que incluyen más de 2,500 MW en los últimos 12 meses.

“Facebook prometió su apoyo a la acción climática, al respaldar el Acuerdo de París a través de la


iniciativa We Are Still In. Los objetivos que estamos compartiendo hoy son parte de esa promesa”,
dijo la compañía en un comunicado.

4. Amazon se comprometió, desde 2017, a utilizar energías renovables al 100 por ciento para
todas sus operaciones. En enero de 2018, anunció que alcanzó el 50 por ciento de uso de
renovables y que cuenta con diversos proyectos de energías limpias.

El más reciente se dio a conocer en mayo de 2018, con el inicio de la construcción de una granja
solar de 813,000 pies cuadrados (más de 75,500 metros cuadrados, 3.5 campos de futbol de la
NFL) en el norte de Las Vegas, que generará 1.1 Megawatts. Es el proyecto solar de la compañía
número 17.

La empresa dijo que tiene el objetivo de instalar sistemas solares en 50 techos de sus edificios para
2020.

“Nuestro parque eólico en Texas tiene 110 aerogeneradores, el más grande hasta la fecha.
Además, durante un periodo de 25 años, nuestro sistema de reciclaje de calor en Seattle ahorrará
80 millones de Kilowatts/hora de electricidad”, dijo la organización en su blog.

Agregó que se espera que sus proyectos de energía renovable generen un total de dos millones de
MW/h de energía al año en las redes eléctricas conectadas a los centros de datos de Amazon
ubicados en Ohio y Virginia. “La electricidad que producen estos proyectos es suficiente para
abastecer a más de 190,000 hogares al año”.

5.Microsoft dijo en abril de 2018 que tenía la meta de utilizar el 50 por ciento de energía
renovable para todas sus operaciones al cierre de 2018, y el 60 por ciento para el 2020.

235
En ese mismo mes, Brad Smith, presidente y director Jurídico en Microsoft, dio a conocer que la
empresa de software firmó un acuerdo para un proyecto de energía solar en Virginia, de 350
MegaWatts, la adquisición energética más grande de Microsoft hasta la fecha.

“Este anuncio lleva nuestra compra total directa de energía renovable hasta 1.2 Gigawatts, energía
suficiente para iluminar 100 millones de bombillas de LED”, explicó Smith.

“Con base en esta información, creo que las cinco empresas cuentan con estrategias bien
planeadas, con una visión de lograr sus operaciones (en la mayoría al 100 por ciento) haciendo uso
de energías limpias”, opina la doctora Liliana Licea, quien realizó su doctorado en Materiales, en la
Universidad Tecnológica Chalmers (Suecia).

“El compromiso por parte de cada empresa es claro, en pro de un mejor medio ambiente, baja
huella de carbono y operaciones sustentables. En general, todas las empresas tienen propuestas
asertivas y de vanguardia. De igual forma, cada propuesta apuesta por un mercado competitivo.
Considero que no sería apropiada la selección de sólo una de ellas, ya que todas tienen estrategias
integrales buscando el mejor contexto para su mercado y con el menor impacto ambiental”, indica
Licea, quien desde 2008 labora en Cimav, unidad Monterrey, y su área de investigación está
centrada en materiales nanocompuestos de base polimérica.

3.44. ¿POR QUÉ EL USO DE DRONES NO ES PARA EL FUTURO, SINO PARA


EL PRESENTE?

En la actualidad, el uso de drones ha supuesto una gran mejora en muchos puestos de trabajo ya
que se han cambiado las formas de realizar tareas que eran complicadas o de difícil acceso.

Una excelente herramienta de trabajo que supone una revolución tecnológica y que avanza a
pasos agigantados para ofrecer nuevas prestaciones.

USO DE DRONES EN LA ACTUALIDAD

El uso de drones se ha instaurado en nuestra sociedad. Desde hace años se han utilizado en
sectores y actividades muy diversas, y actualmente se sigue experimentando y buscando nuevos
usos y adaptaciones para estos vehículos aéreos no tripulados.

USO DE DRONES EN EVENTOS

Por su versatilidad, por su usabilidad, sus distintos tipos de vuelos, su precisión… Su alcance se ha
podido ver en festivales de música, bodas, manifestaciones y eventos varios. Un hito dentro de
este campo fue su utilización en el Mundial de Fútbol de Brasil en 2014.

Y es que los drones abren nuevas posibilidades y soluciones audiovisuales en cualquier tipo de
acontecimiento.

USO DE DRONES EN PUBLICIDAD

236
Porque una imagen vale más que mil palabras, la utilización de los VANT (vehículo aéreo no
tripulado) es un enorme avance en la grabación de spots publicitarios. También son
‘protagonistas’ de numerosas campañas publicitarias. Quién no recuerda la SuperBowl de este
año, dónde 500 drones con luces formaron el logotipo de Intel en el cielo.

USO DE DRONES EN EMERGENCIAS

Es un pequeño salvavidas. Otro de los usos de este pequeño gran aparato se traslada a la
investigación sobre zonas de difícil acceso o aisladas debido a desastres naturales. Puede
transportar la ayuda necesaria a heridos y con él se puede hacer una evaluación para el acceso al
lugar del siniestro.

Además, es muy útil para la búsqueda de personas perdidas en bosques, playas, montañas. En este
sentido, en el Grand Canyon del Colorado, los servicios de emergencia ya han implementado su
utilización.

USO DE DRONES PARA EL CONTROL FISCAL

También los VANT se utilizan en todo el mundo para encontrar irregularidades. En España, el
Ministerio de Hacienda ha hecho uso de los drones para la comprobación de actualizaciones sin
declarar sobre los inmuebles de la ciudad de Valencia y el pago de tasas sobre las modificaciones
realizadas. Además de Valencia, la investigación se extiende a otros municipios de la provincia y en
un futuro hacia otros municipios de toda la Comunidad.

USOS DE LOS DRONES EN TOPOGRAFÍA

Los drones son herramientas de gran utilidad en la topografía. En Global Mediterránea &
Geomática nos especializamos en este servicio de topografía con toma fotográfica para la
obtención de cartografía, ortofotos y modelos digitales para la industria, la arqueología, la
agricultura, la minería o la obra civil.

OTROS USOS ACTUALES Y DE CARA AL FUTURO DE LOS VANT

Como hemos podido observar, los drones presentan una infinidad de usos. Aparte de los ya
citados anteriormente, se utilizan como herramienta para:

Control y prevención de incendios forestales.

Investigaciones biológicas: Rutas de aves en libertad.

Manipulación de materiales nocivos: Fukushima y la limpieza del reactor nuclear.

Ocio: Realización de fotos y vídeos de lo que se desee.

En la actualidad, se están investigando nuevas formas de utilización de este vehículo aéreo no


tripulado.

Por un lado, se utilizará como aparato de logística, es decir, como transporte de mercancías. En
países como Rusia, China o Israel ya se están usando para el envío de pizzas o paquetes de correo.
Pero en otros países, debido a la regulación existente no se puede aplicar.

237
Amazon es una de las empresas que hizo una campaña de ‘envíos con drone en 30 minutos’, pero
de momento no podrá utilizar ese servicio de transporte.

Por otro lado, se está investigando el uso de drones como satélites o antenas de redes.
Implantarían redes de internet donde aún no existen, ni van a llegar debido a su elevado coste.
Será una forma económica de ofrecer un servicio en poblaciones que aún no lo disfrutan.

3.45. ¿CÓMO APOYAR A LA TRANSICIÓN ENERGÉTICA EN EL MUNDO


MODERNO?

La secretaria de la Convención Marco de Naciones Unidas sobre el Cambio Climático (CMNUCC), la


costarricense Christiana Figueres, considera que el acuerdo del clima acordado en París “ha
movido el mundo de la desesperanza a la ilusión” y ha encendido “una llama de esperanza para la
diplomacia internacional”.

“Después de tantas negociaciones fallidas en cambio climático y en otros asuntos, este acuerdo ha
abierto una puerta de esperanza y confirmación de que es posible llegar a acuerdos globales”,
subrayó a Efe la responsable, que participa en el Congreso Mundial Energía del Futuro en Abu
Dabi.

Figueres señala que para lograr que los países “hayan pasado de culpabilizarse entre ellos a
colaborar y entender que la responsabilidad de solucionar el cambio climático es compartida” ha
hecho falta “mucho diálogo y escucha para respetar las diferencias de todos los países”.

Gracias a “permitir a los países fundamentarse en su realidad nacional al tiempo que se unen a un
esfuerzo global” se ha logrado un acuerdo “histórico y milagroso” que “ha establecido un nuevo
orden político en la diplomacia internacional e inyectado mucho aliento” para la unidad.

A juicio de Figueres, el acuerdo de París ofrece “una dirección muy clara para la transformación de
la economía global hacia la descarbonización y el aumento de la adaptabilidad al cambio
climático”.

“En París hemos trazado el cauce del río; ahora todo el mundo va por ese mismo río, cierto que
algunos irán en canoa y otros en barco motorizado pero todos por el mismo río, en la misma
dirección”, apunta.

Una dirección que nos llevará, según la responsable, a “poder restablecer el balance ecológico del
planeta que perdimos hace 150 años”. “La misión es tremenda pero tenemos la tecnología, y los
costes siguen bajando”, agrega.

Con el acuerdo global de lucha contra el cambio climático alcanzado en París “ya tenemos manual
de operaciones, ahora toca revisar los detalles”.

Entre “las reglas del juego” que no se terminaron en París, están los detalles de cómo será el
mecanismo transparente de revisión de las contribuciones nacionales de reducción de emisiones

238
presentadas por los países, así como la evaluación de esos compromisos que se hará cada cinco
años”.

Además, “hay que apoyar a los países para que transformen su compromiso nacional en una
realidad y traten de revisarlo al alza antes de que entre en vigor en 2020, en definitiva, para
acelerar esta transición”.

La secretaria de cambio climático de la ONU está convencida de que el cumplimiento del acuerdo
se fundamentará en tres pilares: la expansión del uso de las renovables (para generar electricidad
y para transporte) y la mejora del uso del suelo (a cuyo cambio se asocian el 28 % de las emisiones
mundiales).

Para ello, añade, será imprescindible el “fin de los subsidios a lo combustibles fósiles, que no son
necesarios, nos movemos hacia una economía descarbonizada”.

Mientras que preguntada por el papel de la energía nuclear en esta transición energética señala:
“la nuclear no nos va a sacar de aquí, puede formar parte de una combinación de tecnologías por
la que opten los países, pero sin olvidar que la seguridad requerida será tremenda tras el
accidente de Fukushima”.

Figueres anuncia a Efe que en julio dejará la secretaría de la Convención de Cambio Climático de la
ONU tras seis años al frente de la misma, y que se va cumpliendo la principal aspiración que tenía
cuando llegó en 2010: alcanzar el acuerdo universal de lucha contra el calentamiento que no pudo
lograrse en la cumbre de Copenhague (2009).

“De lo que me siento más orgullosa es del hecho de que haya tantas personas que puedan decir
legítimamente que el éxito de la cumbre de París es de ellas. Porque si este acuerdo fuera el
resultado del éxito de uno o varios grupos de países o instituciones, todos los demás se
desmarcarían, y eso no ha ocurrido”.

“Después de París hubo muchas personas que se atribuyeron el acuerdo porque el liderazgo fue
descentralizado, y el resultado fue fruto de una movilización internacional e intersectorial como
nunca se ha visto en el mundo. Eso es una maravilla”, relata.

La costarricense avanza que aún fuera de la convención no podrá dejar de vincularse al cambio
climático, aunque su principal deseo para el futuro es “estar viva en el momento en el que apostar
por la energía renovable deje de ser noticia, y en el que los periodistas no tengan que hablar del
calentamiento como un problema a solucionar”.

3.46. ¿POR QUÉ EL CHAMPAGNE DOM PERIGÑON ES EL MEJOR DEL


MUNDO?

No hay bebida que se identifique más con un brindis, con fiesta, con alegría y con celebraciones
que el mítico champán. Este vino espumoso fue descubierto como todo lo bueno en esta vida, por

239
accidente y por casualidad. Beber Dom Pérignon es una filosofía de vida, es disfrutar de la
artesanía, del lujo y de las cosas extraordinarias.

Dom Pierre Pérignon fue el monje benedictino a quien se le atribuye la invención del método para
la fabricación del champagne. Hay constancia de que en el tiempo de los romanos ya existía el vino
petillant (espumoso), pero Pérignon fue el artífice de descubrir el secreto para dominar las
burbujas de esta apreciada bebida.

No se puede decir que el vino espumoso un invento de Pérignon dado que se tiene constancia de
la existencia de este tipo de vino desde el tiempo de los romanos, pero si se le debe el honor de
haber dominado las burbujas, logrando envasar y mejorar una bebida que hoy se conoce y se
aprecia en todo el mundo.

Dom Pierre tenía 19 años cuando decidió ingresar en el convento de los monjes benedictinos en la
abadía de Saint-Vannes en Verdún. Años más tardes fue trasladado a la abadía de Hautvilliers,
donde se encargó a la custodia de los sótanos de la bodega.

Se dice que Pérignon era casi ciego, problema que hizo que tuviera muy agudizados el resto de los
sentidos. Un día primaveral de 1670, oyó una explosíon lejana entre las botellas. Palpando el
suelo, se dio cuenta de que una de las botellas de vino había explotado durante su crianza. Según
cuenta, a cuatro patas, lamió el líquido derramado en la bodega. Lo que sintió en ese momento se
explica perfectamente con la llamada que hizo a sus hermanos ¡Venid, estoy bebiendo las
estrellas! Por supuesto, las estrellas a las que el monje ser refería eran las burbujas que estallaban
en su boca.

(las burbujas del champán no son más que bolsas de aire producidas por la fermentación de las
levaduras y los azúcares del propio vino).

Dom Pérignon, que era de naturaleza curiosa, decidió investigar para que el gas no se saliera de las
botellas, y que éstas no estallasen debido a la presión. El benedictino quería preservar durante el
tiempo que se desease esas mágicas burbujas que tan agradables eran al paladar.

Hasta ese momento, las botellas eran fabricadas con un cristal fino de baja calidad y se taponaban
con un taco de madera cubierto de esparto aceitado. Pero esta solución no lacraba la botella y el
aceite alteraba el sabor del vino.

Producir botellas con un vidrio más grueso no fue reto para el monje, al menos no tanto como
encontrar un material adecuado para taparlas. Según la leyenda, un día recordó haber visto tapar
con corcho las cantimploras de unos visitantes del monasterio de Sant Feliu de Guixols (España).
Desde ese momento, empezó a utilizar grandes tapones de corcho que una vez hervidos y aún
calientes introducía en el cuello de la botella y sujetaba con alambres. Al enfriarse el corcho y
recuperar su tamaño habitual, la botella quedaba sellada herméticamente.

Actualmente, el Champagne es un vino espumoso con Apelación de Origen Controlada; esto


quiere decir que solo se puede elaborar en la región de Champagne, Francia, con uvas
Chardonnay, Pinnot Noir y Pinot Meunier principalmente.

La primera cosecha de Dom Pérignon fue puesta a la venta el 4 de agosto de 1936, después de la
Gran Depresión. Dom Pérignon es una vendimia de champagne, lo que significa que solo se

240
efectúa en los mejores años y que todas las uvas se cosecharon en en mismo año. Sin embargo, la
mayoría de los champanes no indican el año de su elaboración, ya que se suelen mezclar zumos de
diferentes añadas para que el vino más evolucionado se mezcle con los más frutales y frescos.

3.47. ¿POR QUÉ HOY EL HAVANA CLUB ES EL MEJOR RON?

El Havana Club, ron de máxima calidad y símbolo de los productos más genuinos de la isla de Cuba
satisface los más variados y exigentes gustos. El crecimiento de sus ventas en el mercado
internacional por la Habana Club Internacional S.A., especialmente en el mercado europeo, ubican
a la famosa bebida en el lugar 25 del ranking mundial anual y se comercializa en más de 125
países, con un incremento significativo.

A través de la historia el Havana Club ha sido reconocido mundialmente, por la calidad que logran
los maestros, larga tradición de añejamiento natural en toneles de robles, el clima y las venerables
tierras insulares de la más grande de las islas del Caribe, donde se cultiva la caña de azúcar. Todos
estos atributos le conceden al popular ron cubano un incomparable sabor. La melaza fresca
contiene aromas y sacarosas con un bouquet sin igual que acompaña a este ron de un sabor
intenso e incomparable. Está elaborado a base de mieles de caña de azúcar de la región y añejado
en toneles de roble blando.

La industria cubana elabora una variedad de sabores: Añejo Blanco, Añejo 3 Años, Añejo Especial,
Añejo Reserva, Añejo 7 Años, Añejo Solera San Cristóbal, Cuban Barrel Prof., Gran Añejo 15 Años
(se contempla además, entre los mejores rones del mundo) y Máximo - Ron Extra Añejo,
distribuidos en categorías de Blanco, Dorado, Premium Oscuro y Super Premium.

Los de más demanda en el mercado son: Añejo Especial, Añejo Reserva y Añejo 7 años. El Añejo
Especial es la mezcla de rones añejados durante 5 años. Su color dorado y brillante le da un
aspecto cálido. De aroma intenso, con ligeros toques ahumados, notas de vainilla, miel y canela,
de sabor persistente en boca, se puede beber solo o con hielo, mientras que el Añejo Reserva
conserva un sabor intenso, que ayuda a percibir aromas a cacao, tabaco, café y especias, se puede
beber solo, con hielo y es excelente para mezclarlo en un Cuba Libre. El ron Havana Club Añejo 7
años es un ron elegante y excepcionalmente rico. Es de color ambarino y transparente. Conserva
un sabor a cacao, vainilla, caña de azúcar, castañas, frutas tropicales carameralizadas, y especias
agridulces. Especial para beber solo, con hielo.

Según los historiadores, la existencia del ron Havana Club se remonta a 1878, año en el que José
Arechabala abrió la destilería “La Vizcaya” en Cadenas, provincia cubana de Matanzas. El nombre
del ron responde a las raíces tradicionales cubanas y la conocida Habana y el mundo nocturno
internacionalmente conocido de los clubes de la Havana. En la Plaza de la Catedral de la capital
cubana, en 1935 el Havana Club encontró un espacio privilegiado. Además entre los años 30 al 50
para los cócteles en el Havana Club bar se acondicionaron para recibir a los más célebres visitantes
de la época: Mary Pickford, Marlene Dietrich, Jean-Paul Sastre, Ernest Hemingway, Nat King Cole y
Gary Cooper.

241
Llegar a la casona colonial de la Avenida del Puerto 262 esquina a Sol, en la Habana Vieja, produce
una sensación inolvidable desde que se atraviesa el umbral y se experimenta el traslado
imaginario a otra época.

Al recorrer el patio interior con amplios arcos, fuertes columnas, elevado puntal y anchas paredes
a la usanza del siglo XVIII se siente que se está viviendo una aventura, que cobra más fuerza
cuando se saborea el trago del Havana Club Añejo 7 años.

El Museo posee además amplias ofertas, entre las que pueden citarse, cenas y almuerzos en el
bar-restaurante con el disfrute de la música tradicional cubana tocada por prestigiosos artistas, la
degustación especial de tres rones de la gama Havana Club con la explicación de las características
de cada uno, a modo de cata comparada, clases de coctelería, espectáculos musicales en horarios
nocturnos con integrantes del Buena Vista Social Club, y la degustación de ron y tabaco, con una
breve explicación de ese maridaje, uno de los servicios más solicitados.

Su principal atractivo está en el recorrido por el maravilloso mundo de la producción de los rones,
desde la siembra de la caña, hasta el exquisito ritual del añejamiento en los toneles, pasando por
la historia del trapiche, las fábricas de azúcar, el tren de vapor, y los procesos de fermentación,
destilación y filtración.

En el 2008 incrementaron sus ventas un 13% en comparación con el año anterior.

El gustado ron Havana Club ascendió al lugar 25 del ranking mundial anual, al incrementar sus
ventas un 13 por ciento, en relación a lo alcanzado en el 2007, informó en conferencia de prensa,
Marc Beuve-Méry, Director General de Habana Club Internacional.

El pasado 2008 -dijo el directivo- "vendimos 3,4 millones de cajas, de 9 litros, en 125 países,
excepto los Estados Unidos, y aspiramos en el 2013 a ubicarnos entre las 15 primeras marcas del
ranking anual de impacto con 5 millones.", según publicó Caribbean News Digital.

A pesar de tener gran aceptación el Habana Club en los Estado Unidos, esta bebida no se
comercializa en dicho país, debido a las leyes de bloqueo que ejerce el gobierno sobre los
productos cubanos. No obstante, no lo necesitan, porque según aseguró Marc Beuve- Mery, en el
resto del mundo hay países como Alemania (Mercado número uno de Havana Club), Italia, Francia,
Reino Unido, Grecia, Rusia, Canadá, Chile, México y la propia Cuba, donde resultó preferido por los
consumidores de ron, bebida que se ubica en el tercer lugar mundial tras el scot Wiskey y el
Vocka.

Ron Havana Club. Es el Ron Cubano más conocido en el Mundo, su desarrollo ha personificado el
patrimonio y la supremacía de la tradición ronera cubana. El nombre fue elegido para representar
el patrimonio de la producción ronera cubana y el ambiente de la capital de Cuba, La Habana, cuyo
símbolo La Giraldilla, comparte con la marca Havana Club.

Ha logrado gran éxito de ventas en el mercado internacional, especialmente en el mercado


europeo y se comercializa en más de 125 países.

Historia

242
La existencia del ron Havana Club se remonta a 1878, año en el que José Arechavala abrió la
destilería “La Vizcaya” en Cárdenas, Matanzas. El nombre del ron responde a las raíces
tradicionales cubanas, a la conocida Havana y el mundo internacionalmente conocido de sus
clubes nocturnos.

En 1993 se crea la Empresa Mixta Havana Club Internacional SA, fruto de la unión de la Empresa
Cubana Cuba Ron SA y el Grupo Francés Pernod Ricard, creándose la sinergia necesaria para la
inserción plena de Havana Club en el Mercado Internacional. A partir de 2003, Havana Club
Internacional SA se encarga de la distribución de la marca en el mercado cubano junto a las
grandes marcas internacionales del Portafolio Pernod Ricard seleccionadas para este mercado.

Con la puesta en marcha en el 2007 de la nueva ronera en San José de las Lajas, Havana Club
Internacional SA se consagra por primera vez a la producción del ron, asegurando así los
ambiciosos objetivos de ventas internacionales a mediano y largo plazo. Desde 1994 Havana Club
se convierte en una marca prioritaria para el Grupo Pernod Ricard, constituyendo en la actualidad
una de las marcas claves del Grupo.

Havana Club (Bacardí)

En 1994 la firma Bacardí solicitó una licencia para manejar la marca Havana Club, lo que se
convirtió de hecho en la usurpación de la misma y comenzó a comercializar el ron en el mercado
norteamericano.

Al comercializar su ron con las marcas Havana Club y Ron Matusalén, Bacardí violó las normas
internacionales sobre el derecho de la propiedad intelectual, las marcas y patentes, de acuerdo
con los especialistas de la Pernod. El gobierno estadounidense permitió este hecho haciendo un
cambio de legislación ad hoc, siendo por esto condenado por la Organización Mundial del
Comercio (OMC).

Luego de una larga batalla en los tribunales norteamericanos en agosto de 2011 la Corte de
Apelaciones del Tercer Circuito de Filadelfia falló a favor de Bacardí, permitiéndole seguir
comercializando el Ron Havana Club fabricado en Puerto Rico en el mercado de Estados Unidos.

Mercado

Cuba. Es el mercado número 1 para Havana Club y se le reconoce como “Vitrina de la Marca”.
Havana Club se consolida como Líder Histórico del Mercado Ronero Cubano con una cuota de
participación superior al 40 %. La compañía con sede en La Habana, exporta sus rones a 124
países, con la excepción de Estados Unidos debido al embargo comercial, siendo la única marca de
Ron Cubano con verdadera proyección internacional.

Alemania. Se convierte en el segundo mercado de exportación y es en la actualidad el principal


contribuidor al crecimiento de los volúmenes de venta.

España. Mercado histórico de exportación de la marca, ocupa hoy el tercer lugar, enfocándose
fundamentalmente en los rones añejos oscuros, en especial de Añejo 7 años.

243
Francia. Ocupa el cuarto lugar dentro de los mercados de exportación de la marca, seguidos por
otros países europeos altamente dinámicos que también contribuyen al desarrollo de Havana
Club: Reino Unido, Grecia, República Checa, Suiza y Bélgica.

Las ventas también se desarrollan fuertemente en América, especialmente en Chile, México y


Canadá.

Las capacidades industriales para la producción de la reconocida bebida están a un nivel muy alto,
y de ahí estiman volúmenes exportables por encima de los 100 millones de dólares en los
principales mercados.

Gracias al rigor de los maestros roneros cubanos, la calidad de ese producto, el control estricto de
su fabricación y el fuerte trabajo de mercadotecnia, Cuba ha podido aumentar el posicionamiento
del Havana Club en Europa, América Latina, África y Asia.

En el año 2010 la empresa mixta Havana Club Internacional SA. (HCI), vendió 3.8 millones de cajas
de nueve litros. La distribución se distribuyó en el 57 por ciento en Europa, 11 por ciento en
Latinoamérica, uno por ciento en Asia y 31 en el mercado doméstico (Cuba), con crecimiento por
encima del 14 por ciento frente a las cifras del año 2009.

Características

A través de la historia el Havana Club ha sido reconocido mundialmente, por la calidad que logran
los maestros, larga tradición de añejamiento natural en toneles de robles, el clima y las venerables
tierras insulares de la más grande de las islas del Caribe, donde se cultiva la caña de azúcar.

Todos estos atributos le conceden al popular ron cubano un incomparable sabor. La melaza fresca
contiene aromas y sacarosas con un bouquet que acompaña a este ron de un sabor intenso y
singular. Está elaborado a base de mieles de caña de azúcar de la región y añejado en toneles de
roble blando.

3.48. EXPLIQUE EL CONTENIDO DE LO SIGUIENTE:

Cierta vez leí el siguiente texto relacionado a ciertos aspectos de la vida de los gansos, que se
puede adaptar a lo que significa el trabajo en equipo, en cualquier institución. Si te tomas cinco
minutos en su lectura, descubrirás cómo se puede mejorar y producir más desde una gestión con
liderazgo compartido (ver artículo de liderazgo y gestión)

La próxima temporada, los gansos emigran hacia un lugar más cálido para pasar el invierno, fijate
que vuelan en forma de V corta.

¿Tal vez te interese saber el por qué en esa forma?

Lo hacen porque al mover sus alas, cada pájaro produce un movimiento en el aire que ayuda al
pájaro que va detrás de él. Volando en V, la bandada de gansos aumenta, por lo menos, un 71%
más su poder de vuelo, en comparación con un pájaro que vuela solo

244
Las personas que comparten una dirección común y tienen sentido de equipo pueden llegar a
cumplir sus objetivos más fácil y rápidamente porque ayudándonos entre nosotros, los logros son
mejores

Cada vez que un ganso sale de la formación, siente inmediatamente la resistencia del aire; se da
cuenta de la dificultad de hacerlo sólo y rápidamente vuelve a la formación para beneficiarse del
compañero que va a adelante.

Si se trabaja en equipo, y a pesar de las dificultades, los conflictos cotidianos, mantenemos en


claro el objetivo institucional, el esfuerzo será menor. Por qué se descubre el sentido a la tarea. La
pertenencia aumenta y se afianza la coherencia

Cuando el líder de los gansos se cansa, se pasa a uno de los lugares de atrás y otro ganso toma su
lugar

Los hombres obtenemos mejores resultados si el respeto en las relaciones es un valor buscado y la
palabra es valorizada, compartiendo aún los trabajos más difíciles. Se pasa de la descripción al
análisis del problema. Es lo que se denomina técnicamente ¨problematizar el problema¨,
convertirlo en objeto de análisis.

Los gansos que van atrás graznan para alentar a los que van adelante a mantener la velocidad.

Una palabra de aliento a tiempo ayuda, da fuerza, motiva, produce el mejor de los beneficios.
También beneficia escuchar las críticas. El objetivo es mejorar siempre.

Finalmente cuando un ganso se enferma o cae herido por un disparo, otros gansos salen de la
formación y lo siguen para apoyarlo y protegerlo.

Si nos mantenemos uno al lado del otro, apoyándonos y acompañándonos, si hacemos realidad el
espíritu de equipo, si pese a las diferencias podemos afrontar como grupo humano todo tipo de
situaciones, sin estar amontonados, cada uno en su rol, seguramente se mejorará el clima de
trabajo. La razón es que se valoriza lo actitudinal en las personas. Se supera lo funcional, se le da
sentido al rol de las personas. El valor siempre tiene un carácter energético, da fuerza, contagia,
entusiasma. Así también, tira para abajo una actitud negativa, demoraliza. Hace falta una gestión
coherente.

245
4. Conclusiones y recomendaciones

Forbes es una editorial estadounidense. Su publicación principal, la revista Forbes, se publica cada
dos semanas. Sus competidores principales, en la categoría de revistas de negocios, a nivel
nacional son Fortune, la cual se publica también cada dos semanas, y Business Week. La revista es
mundialmente famosa por sus listas, incluyendo las listas de los americanos más ricos (the Forbes
400) y sus listas de milmillonarios.

Para conocer más sobre personajes célebres de la revista personas que triunfaron para que la
revista sirva como una forma de inspirar al lector.

Y así poder orientarse y guiarse sobre los personajes más importantes del CEO en la revista Forbes.

La revista contiene datos e historias sobre personajes que son famosas a nivel mundial tanto
demostrando su talento o demostrando su fortuna en los negocios.

Destacamos a personajes célebres que cambiaron el rumbo de la historia de la humanidad.

Recomendaciones

• Con la globalización de la digitalización el uso de internet de redes sociales, las más letal
crisis financiera que ha conocido la humanidad y la transformación digital para empresas y la
sociedad pueden ser un riesgo para todos los sectores de la compañía y o una oportunidad.

• La generación joven fue transformándose con los cambios tecnológicos como oportunidad
por ende utilizar mejor el uso de internet de las redes sociales.

246
• Tener red propia de socios equipo apropiado que ayuden a la compañías y que toda
empresa que la conecte, con los clientes.

• Convivir entre el talento de las personas más digitales entre las nuevas tecnologías y digital
con la experiencia de la empresa y la oportunidad que esta tecnología proporciona a los usuarios
y a las empresas.

5. BIBLIOGRAFÍA

1. https://www.mundomarketing.com/louis-vuitton-es-la-marca-mas-valiosa-de-
2018/ (LOUIS VUITTON)
2. https://www.pqs.pe/sites/default/files/2016/03/aprende-
mas/libro_rojo_de_la_publicidad1.pd
3. https://www.abc.es/estilo/gente/20140426/abci-conde-pumpido-entrevista-
201404251704.html

4. http://marketingyservicios.com/la-creatividad-segun-luis-bassat/
5. https://www.incubasoft.com/transformacion-digital-que-es-importancia-factores-
retos#material_complementario
6. https://www.powerdata.es/transformacion-digital
7. https://www.unir.net/educacion/revista/noticias/ensenanza-bilingue-y-formacion-
del-profesorado-dos-caras-de-la-misma-moneda/549203024512/
8. https://elpais.com/elpais/2018/10/23/ciencia/1540309085_908892.html

9. https://www.google.com/search?q=por+que+hoy+en+dia+en+la+bolsa+de+valore
s+las+empresas+de+telecomunicaciones+dominan+el+mercado&rlz=1C1CHBD_es
BO837BO837&source=lnms&tbm=isch&sa=X&ved=0ahUKEwjor_6HoPDgAhVI1lkK
HdxlBO0Q_AUIDygC&biw=1600&bih=789#imgrc=WhqZJsuqtxm-jM:

10. https://www.monografias.com/trabajos99/bolsa-valores-especulacion-y-
crisis/bolsa-valores-especulacion-y-crisis.shtml

11. https://www.excelsior.com.mx/node/716072
12. https://es.wikipedia.org/wiki/Bill_Gates

247
13. http://www.alimentosargentinos.gob.ar/HomeAlimentos/Publicaciones/revistas/n
ota.php?id=229(WISKY)
14. https://www.elpais.com.uy/economia-y-mercado/claras-senales-cambios-billete-
verde.html (DOLARES)
15. https://www.notimerica.com/sociedad/noticia-mide-felicidad-puedo-ser-mas-
feliz-20180320183915.html ( SER FELIZ)
16. https://economiatic.com/crecimiento-economico-y-producto-interior-bruto/
17. https://core.ac.uk/download/pdf/86437322.pdf
https://www.servindi.org/pdf/Felicidad_nacional_bruta_indice_FNB.pdf
18. https://blog.bancobase.com/comercio-internacional-que-es-el-proteccionismo
https://www.efe.com/efe/america/economia/ee-uu-refuerza-su-estrategia-
proteccionista-con-nuevos-aranceles-a-china/20000011-3650128
19. https://josefacchin.com/tendencias-actuales-e-innovacion-en-el-sector-hotelero/
https://www.cloudbeds.com/es/trends/
http://www.eumed.net/rev/turydes/23/cliente-industria-hotelera.html
20. https://blog.iese.edu/empresafamiliar/2017/filantropia-3/

https://definicion.de/filantropia/
21. http://forbes.es/business/45565/el-nuevo-cliente-de-la-banca-privada/
https://cincodias.elpais.com/cincodias/2018/01/23/mercados/1516724115_84285
7.html
22. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0188-
33802013000200007
23. https://www.monografias.com/trabajos89/importancia-tarjeta-
credito/importancia-tarjeta-credito.shtml
24. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-
74252008000100005
https://jdimmigration.es/inmigracion-aspectos-positivos-y-negativos-para-la-
economia/
25. https://www.diccionariodedudas.com/diferencia-entre-emigrante-inmigrante-y-
migrante/
26. http://bvs.sld.cu/revistas/mil/vol42_3_13/mil01313.htm
https://www.intramed.net/contenidover.asp?contenidoID=72511
http://www.scielo.org.co/pdf/cesm/v30n2/v30n2a01.pdf
27. http://www.quiksilver-europe.es/rayban-son-las-mejores-gafas-de-sol/
28. https://www.iprofesional.com/notas/165546-lacoste-historia-de-exito-cocodrilo-
Lacoste-la-historia-del-cocodrilo-mas-rentable-y-una-trama-de-vision-y-traicion-
en-la-compania

248
29. https://www.revistagq.com/moda/relojes-y-accesorios/articulos/swiss-made-vs-
silicon-valley-la-alta-relojeria-suiza-busca-su-sitio-en-el-mercado-de-los-
smartwatch/25860
30. http://www.expansion.com/directivos/2015/11/19/564e3f81268e3e0d088b45bf.h
tml
31. https://www.compromisoempresarial.com/tercersector/ong/2013/07/jovenes-
filantropos-comprometidos-y-exigentes/
https://wealthmanagement.bnpparibas/es/es/news/los-nuevos-filantropos-
espanoles.html
32. https://www.puromarketing.com/30/28359/digitalizacion-marcara-futuro-
nuestros-trabajos.html
https://cincodias.elpais.com/cincodias/2016/06/10/empresas/1465578962_57787
8.html
33. https://www.soyfreelancer.com/blog/emprendedurismo/que-es-un-freelancer/
http://noticias.universia.es/practicas-empleo/noticia/2012/11/07/980111/12-
cosas-debe- hacer-trabajador-freelance.html
https://blog.hotmart.com/es/freelancer-que-es/
34. https://www.easypromosapp.com/blog/2017/09/caso-de-exito-de-barcelo-hotel-
group-de-la-mano-de-mccan-erickson/
35. https://www.google.es/amp/s/sevilla.abc.es/andalucia/malaga/sevi-juan-mari-
arzak-antes-cocinero-necesidad-y-ahora-pasion-201803200727_noticia_amp.html

http://www.expansion.com/directivos/2015/07/23/55b1242f22601dff058b45ac.ht
ml
36. https://m.monografias.com/trabajos100/fuentes-de-energia/fuentes-de-
energia.shtml
https://www.google.es/amp/s/amp.lainformacion.com/tecnologia/cinco-energias-
del-futuro-que-cambiaran-el-mundo_IIdAlL5ip9fXJ3wEaJrnW3/
37. https://www.revistadelibros.com/articulos/por-que-sube-y-baja-el-precio-del-
petroleo-reflexiones-sobre-el-cambio-de-tendencia
https://datosmacro.expansion.com/materias-primas/opec
38. https://economiacircular.org/wp/?page_id=62
39. https://www.bbc.com/mundo/noticias/2014/04/140415_economia_carbon_energ
ia_limpia_aa
40. https://www.google.es/amp/s/erenovable.com/aerogeneradores-eolicos/energia-
eolica/%3famp
https://sotysolar.es/blog/como-se-produce-la-energia-solar

249
41. https://www.google.es/amp/s/www.forbes.com.mx/mazda-prepara-autos-
electricos-2019/amp/
42. http://www.lostiempos.com/oh/actualidad/20170109/adios-petroleo-llego-boom-
energias-renovables
43. https://www.pv-magazine-mexico.com/2019/02/15/google-apple-facebook-
amazon-y-microsoft-comprometidos-por-un-mundo-de-energia-limpia/
44. http://www.globalmediterranea.es/uso-drones-la-actualidad-futuro/
45. https://elperiodicodelaenergia.com/figueres-hay-que-apoyar-a-los-paises-para-
acelerar-la-transicion-energetica/
46. https://abcblogs.abc.es/protocolo-etiqueta/2017/01/04/dom-perignon-y-el-
origen-del-champan
47. http://www.hospedajehabana.com/articulo-ron-havana-club-mas-famoso-ron-
cuba.php
https://www.ecured.cu/Ron_Havana_Club

250
6. ANEXOS

251
252
253
254
255
256
257
258
259
260
261
262
263
264

Вам также может понравиться