Академический Документы
Профессиональный Документы
Культура Документы
En cuanto a la investigación cuantitativa, las técnicas más empleadas en 2008 fueron las
entrevistas personales, el 24,8 por 100, y las telefónicas, el 23,8 por 100, si bien su
participación ha decrecido respecto a 2007, año en que representaban el 34 por 100 y el 32
por 100, respectivamente. La postal se mantuvo casi igual, 1,7 por 100 en 2008 y 2 por 100
en 2007, y creció notablemente la investigación on line, que en el estudio de este año, por
primera vez, se ha desglosado en tres partidas: la captura de datos por medios
electrónicos/automáticos (14%), la investigación en línea (3,6%) y la medición del tráfico
en línea o medición de audiencia de webs (1,6%). En conjunto representan el 19,2 por 100
mientras que en 2007 suponían el 14 por 100.
En cuanto a la facturación mundial de 2008 ha ascendido a 32.462 millones de dólares, lo
que supone un crecimiento del 4,5 por 100 con respecto a 2007. «Lo más destacable de este
ejercicio es que Europa sigue siendo el mercado más importante a nivel mundial y que
España ocupa un lugar destacado en este panorama situándose en séptimo lugar». El
mercado europeo representa el 49,5 por 100 del conjunto. Tras él se encuentra
Norteamérica, supone el 29,6 por 100 del mercado, seguida de Asia, el Pacífico 13,9 por
100, Latinoamérica, el 5,2 por 100, y Oriente Medio y África, el 1,6 por 100.
Asimismo y frente a la atomización empresarial que tiene el sector, la solución vendrá dada
de la mano de la calidad que se aporte y máxime en un momento en que la investigación se
encuentra en un proceso de cambio profundo afectado por el desarrollo de las nuevas
tecnologías, la nueva economía y la globalización del mercado.
1. Carácter interdisciplinario de la investigación de mercados
Para poder llevar a buen término un análisis de mercado, es necesario aplicar diversos
conocimientos adquiridos a través de las siguientes materias:
La economía aplicada, la psicología y la sociología . En la medida en que el
funcionamiento del sistema económico se apoya en decisiones de mercado el
análisis del comportamiento del consumidor necesita conocimientos de psicología;
la sociología se hace necesaria para el estudio de los grupos e instituciones del
mercado...
La filosofía por la destacada importancia que tiene la lógica en la investigación
aplicada.
La estadística y las matemáticas por su aporte fundamental en la cuantificación de
los hechos detectados en la investigación.
La comunicación, por el diálogo que se produce de forma permanente en el trabajo
de campo.
La dirección empresarial , ya que los objetivos que se persiguen con la investigación
están estrechamente ligados al diseño de una estrategia y al cumplimiento de unas
metas de venta, precios, productos y distribución.
La capacidad innovadora , aplicada al desarrollo de nuevos métodos eficaces y
diferenciados, en el diseño de soluciones rentables.
Los estudios preliminares tienen como objeto sentar las bases del futuro trabajo.
a. Análisis de la situación
b. Investigación preliminar
Este trabajo se realiza desde la propia oficina , sin tener necesidad de salir a la calle; no
siempre tiene que ser exhaustivo, ya que el conocimiento de la empresa y los estudios
anteriores que se han realizado o se vengan realizando periódicamente son suficientes para
permitirse pasar a posteriores fases.
a. Fuentes de datos
La labor previa a toda investigación debe ser siempre el análisis y recopilación de toda la
información que se pueda obtener en relación con los problemas que se pretenden
investigar, aunque en el
mercado existe una serie de informes monográficos , datos estadísticos , estudios de
organismos públicos y asociaciones , etc. que están a disposición del analista, que
constituyen una fuente muy valiosa y que en la mayoría de los casos no se suelen utilizar, a
pesar de la inmediatez con que se consiguen, amén de la información que puede obtenerse
en la red, que día a día aumenta exponencialmente.
Una vez elegidas las posibles fuentes de datos, hemos de valorarlas, teniendo en cuenta los
siguientes aspectos:
Grado de fiabilidad.
Origen de la fuente.
Grado de obsolescencia.
Validez contrastada.
Las fuentes de datos las podemos dividir en internas y externas. Internas son aquellas cuya
información obtenida emana de la propia empresa. Éste es el caso más favorable para los
equipos investigadores, ya que la actualización permanente de los datos que posee la propia
empresa es una valiosa fuente de información. Externas son aquellas que provienen de
diferentes organismos ajenos a la empresa, publicaciones, Internet, etc.
b. Diseño de la muestra
Sin embargo, estas informaciones pueden obtenerse con relativa facilidad. ¿Cómo? Se
tendrá en cuenta no a todos los hogares, sino a una muestra relativamente pequeña de los
mismos; lo que se hace, pues, es sustituir el universo que se quiere estudiar por una muestra
que lo represente. La cuestión que ahora puede plantearse es la obtención del grado de
fiabilidad de la encuesta. Si la muestra está bien elegida y es suficientemente amplia, ésta
será representativa. Además, es necesario atender al método mediante el cual se elige
físicamente la muestra:
Como su nombre indica están basados en el azar. Exigen para su utilización la existencia de
una relación numérica de los elementos que componen la población. Se caracterizan porque
todos los elementos tienen siempre la misma probabilidad de resultar elegidos .
Supongamos que se trata de un conjunto de 1.000 elementos y que la muestra va a ser de
100 elementos. Entonces cada uno tiene el 10 por 100 de probabilidad de ser elegido para
formar parte de la misma. Se comenzará por enumerar la relación de elementos y una vez
hecho esto se elegirán al azar 100 números que nos determinarán la muestra. ¿Cómo
elegirlos? En principio, pensar en cualquier procedimiento es bueno; pero en la práctica
para que las muestras sean representativas se utilizan las denominadas «tablas de números
aleatorios».
Este tipo de muestras presenta ciertos tipos de inconvenientes. Por eso, cuando el número
de elementos que constituye la población es elevado, este proceso lleva consigo un esfuerzo
considerable. El mecanismo operativo se puede simplificar procediendo a una elección
«sistemática», que consiste en lo siguiente: si conocemos el llamado coeficiente de
elevación, que se consigue dividiendo el número total de elementos de la población que se
quiere estudiar por el correspondiente al de la muestra, el resultado que nos dé será el límite
superior para seleccionar al azar un número entre este cociente y la unidad, quedando fijado
entonces como el primer seleccionado. A continuación, a este número se le suma el
coeficiente de elevación y el número obtenido es el segundo elemento, y así sucesivamente.
Explicación gráfica:
N
Coeficiente de elevación Ce =
n
1, .............................................. X .............................................., Ce
1.er seleccionado = X
2.° seleccionado = X + Ce
Tamaño de la muestra
Las fórmulas generales que permiten determinar el tamaño de la muestra son las siguientes:
Z2 x P x Q
n=
E2
Z2 x P x Q x N
n=
E2 (N - 1) + Z2 x P x Q
Leyenda:
Z2 = Valor crítico correspondiente al nivel de confianza elegido; siempre se opera con valor
sigma 2, luego Z = 2.
Para facilitar el cálculo del tamaño de la muestra suelen utilizarse las tablas, incorporadas
en los anexos I y II al final del capítulo, cuyo uso viene dado por el fácil método del eje de
coordenadas.
EJEMPLO 1
22 x P x Q 4 x 50 x 50
n= = = 625 personas
2
4 16
EJEMPLO 2
22 x 50 x 50 x 10.000
n= = 588 personas
2 2
4 (10.000 - 1) + 2 x 50 x 50 x 50
En ambos casos si hubiésemos ido a las tablas de los anexos I y II hubiésemos obtenido el
mismo resultado.
c. Elaboración del cuestionario/guía de tópicos
Conocidas las fuentes donde van a buscarse los datos, se elabora el cuestionario teniendo en
cuenta las características de la fuente elegida. Es ésta una cuestión de suma importancia,
pues una adecuada realización del cuestionario puede eliminar, o al menos reducir, muchas
de las causas que ocasionan fallos en una encuesta.
Claridad del lenguaje . Hay que procurar términos que sean suficientemente claros,
lo que evitará errores de interpretación.
Respuestas fáciles. Para evitar incorrecciones como consecuencia de la fatiga, hay
que elaborar preguntas cuyas respuestas no supongan gran esfuerzo mental.
Evitar, en lo posible, preguntas molestas. Si a pesar de ello es preciso realizarlas,
conviene introducir al entrevistado en el espíritu de la encuesta.
No influenciar la respuesta. Hay que dejar entera libertad a la hora de elegir la
respuesta, sin influir de ninguna forma al entrevistado.
En el anexo III se recoge un modelo real de la encuesta que sirve para evaluar el nivel de
satifacción de una empresa y sus productos.
d. Trabajos de campo
Los trabajos de campo están dentro de la fase en la que se realizan las entrevistas. Como
comentamos anteriormente, es muy frecuente hacer, antes de los trabajos de campo
propiamente dichos, una encuesta piloto que sirve para probar tanto el material de trabajo
(cuestionarios, direcciones, instrucciones...) como la organización general y el grado de
aptitud y de entrenamiento de los agentes entrevistadores. Para ello es necesario disponer
de un personal eficiente y preparado: entrevistadores, jefes de grupo y supervisores o
inspectores.
Estos miembros del equipo investigador deben ser entrenados para cada investigación, pues
su influencia en los estudios es enorme, hasta el punto de que por muy planteada y dirigida
que esté una encuesta, si no se dispone del personal competente para efectuar los trabajos
de campo, los resultados pueden desvirtuarse. Es ésta una opinión avalada por la
experiencia y muy generalizada entre los autores que hemos consultado.
Hay muchas características que dependerán del tipo de estudios que se vayan a realizar. Así
ocurre con las relativas a la edad, preparación técnica y cultural, etc.; sin embargo, existen
algunas peculiaridades de las que difícilmente podrá prescindirse:
Los entrevistadores son dirigidos por jefes de grupo que, a veces, son entrevistadores
veteranos. Se recomienda un jefe de grupo para cada cinco agentes encuestadores,
aproximadamente, y su misión consiste en acompañar a los encuestadores en algunas
entrevistas para verificar la calidad de su trabajo y corregirlos en caso necesario, así como
efectuar aquellas visitas más difíciles y delicadas y, finalmente, proceder a una primera
revisión de los formularios.
Una vez que los cuestionarios llegan al departamento técnico, se supervisan uno a uno en la
fase denominada «depuración», que tiene como misión asegurarse del comportamiento y la
conducta que mantuvo el entrevistador, así como la del entrevistado y comprobar que
ambas han sido correctas, y por tanto no han dado lugar a fallos que ocasionarían errores en
las estimaciones. La conducta de los entrevistadores puede resultar incorrecta por alguna de
las siguientes causas (variables contaminadoras):
Para disminuir la posibilidad de que sucedan estas cosas, el supervisor o jefe de equipo
debe repetir algunas de las entrevistas y comprobar que todo se hizo correctamente, así
como aclarar cualquier detalle que esté incompleto o induzca a error. Si se comprueba la
falsedad total o parcial de un cuestionario, se han de revisar todos los efectuados por el
mismo agente. Una vez depurados los cuestionarios, el supervisor estampará su visto bueno
en todos para someterlos a la tabulación.
b. Codificación y tabulación
La tabulación puede ser tratada de forma manual o informática. Aunque la primera está
totalmente en desuso, se efectúa a nivel particular o cuando el cuestionario es reducido y se
realiza mediante el punteo o simple recuento de los datos. Se debe tabular
informáticamente, ya que la información que se recoge en las encuestas es muy amplia y
exige, para su eficaz utilización, la realización de múltiples clasificaciones combinadas
entre variables.
En todo caso, el proceso de tabulación requiere una previa codificación de las respuestas
obtenidas en los cuestionarios, es decir, la traducción de los cuestionarios a una clave
numérica. El momento más adecuado para elaborar este plan de procesamiento de datos es
al elaborar el cuestionario, ya que de esta forma se evita la posibilidad de que surjan
cuestiones que no puedan ser correctamente tratadas por falta de preguntas adecuadas o de
difícil tabulación.
c. Informe final
La triste reacción del directivo es lo que hay que evitar a la hora de presentar un informe
final o cualquier otro tipo de estudios, ya que en la mayoría de los casos la efectividad de
un informe se juzga por la habilidad con la que se haya escrito y presentado el mismo,
olvidándose del planteamiento y la ejecución adecuados.
Algunas veces las presentaciones son demasiado largas, otras, muy cortas; a veces se abusa
de gráficos, por ello e independientemente de a quién vaya dirigido el informe se han
incluido las principales características que deben servirnos para presentarlo:
La portada debe dar a conocer el tema sobre el que versa el informe, para y por
quién ha sido preparado, así como la fecha en la que se ha terminado (mes y año
solamente).
En la introducción se explicarán los motivos por los que se ha llevado a cabo la
tarea, el objetivo previsto en el estudio, así como el equipo que ha colaborado.
El cuerpo del informe comenzará con una exposición de los problemas que se van a
investigar y las hipótesis sobre las cuales se apoyará la investigación. A
continuación, se describirán los métodos empleados, fuentes de información, forma
de establecer la muestra, tipo de cuestionarios y el número y clase de investigadores
que participen.
Los resultados se presentarán en tablas y gráficos que expliquen las relaciones
existentes entre las diversas variables analizadas.
A continuación se indicarán el resumen final y las conclusiones , para añadir con
posterioridad las recomendaciones, indicándose las acciones y normas que se
deberán seguir a la vista de los resultados obtenidos.
Por último, se proporcionarán el apéndice y la bibliografía.
La presentación puede ser indistintamente en Power Pointo Word.
Es aconsejable entregarlo en soporte papel y en USB.
4.4 Principales técnicas de recogida de información
Pongamos un sencillo ejemplo. Supongamos que se realiza un análisis del mercado turístico
en España y una de sus conclusiones descriptivas es que los individuos de núcleos
poblacionales de más de 10.000 habitantes escogen con mucha mayor frecuencia la
temporada baja como época vacacional de desplazamiento de su vivienda habitual. Con
este dato de referencia, a una determinada agencia de viajes podría ocurrírsele una
estrategia promocional de este tipo de turismo en municipios pequeños, creyendo haber
descubierto un nicho de mercado. Pues bien, supongamos ahora que en los núcleos
pequeños la distribución por sectores de actividad incorpora una proporción muy superior
de trabajadores en el sector agrícola que en los núcleos grandes, y que la única época en la
que pueden desentenderse de sus labores en el campo sea en verano. Si esto es cierto, la
agencia que diseñó la campaña promocional fracasaría. Podemos observar que, si bien la
investigación es estadísticamente perfecta (puesto que cuantificó adecuadamente las
variables), conceptualmente no tiene ningún valor, ya que la relación entre tamaño de
hábitat y hábitos de consumo turístico es sólo una relación numérica pero prácticamente
diferente.
Ya en los años 70, pero sobre todo en la década de los 80, se empezaron a desarrollar en la
investigación social, y específicamente en la de mercados, otro tipo de técnicas
complementarias que en ningún caso compiten, o así debería ser, con las cuantitativas,
puesto que implican perspectivas diferentes. Se trataría de diversas maneras de observar la
misma realidad. La investigación cualitativa extrae las variables motivacionales que
configuran los ejes valorativos y de actuación. Por su parte, el análisis cuantitativo mide
tales ejes, así como las categorías surgidas y las relaciones entre ellas. En sentido figurado,
la investigación cuantitativa mide la parte visible de la luna y la cualitativa explica por qué
una parte es visible y la otra no. Explicación y descripción son dos caras del mismo
fenómeno. La visibilidad de la luna no implica necesariamente la imposibilidad del estudio
de su cara oculta.
GRÁFICO 2. PRINCIPALES TÉCNICAS DE RECOGIDA DE INFORMACIÓN
Mistery shopping
También denominado mistery shopper o comprador misterioso es una técnica que consiste
en la falsa compra o contratación de un servicio, llevado a cabo por un equipo cualificado
de personas especializadas en dicha técnica, con el fin de detectar y valorar una serie de
variables concretas definidas anteriormente, en el punto de venta o establecimiento, al
solicitar, como un cliente más, una serie de productos o servicios. Dicho modelo permite
detectar y evaluar los índices de calidad del servicio (trato, eficacia, profesionalidad...),
seguimiento de las directrices emanadas de los manuales operativos, posibles
optimizaciones de tareas, influencia del vendedor en la prescripción de marcas, necesidades
de formación del personal, etc.
Está cada vez más claro que la demanda es uno de los principales termómetros del negocio.
Si hay compradores, hay ventas y, por tanto, hay ingresos para la empresa. Por ello, las
compañías deben tener muy en cuenta la calidad de la atención que prestan a sus clientes.
¿Y cuál es la mejor manera de evaluar el grado de satisfacción de una demanda ante la
oferta de un producto, un servicio o incluso ante el tratamiento dado por un vendedor en el
momento de una compra?: estando en la piel del cliente, y esto se consigue a través de la
estrategia del cliente misterioso mistery shopping, una herramienta sencilla y muy eficiente
a la hora de detectar los posibles fallos en la actividad que uno se propone.
Lo más ventajoso es que no es necesario ser un experto, ni tampoco invertir mucho dinero
para poner esta táctica en marcha. ¿Quién no es capaz de reconocer una sonrisa de
bienvenida al entrar en una tienda, o una dosis de cordialidad en la despedida? ¿Y quién no
se da cuenta cuando un vendedor intenta contestar a las cuestiones que plantea con
simpatía, seguridad y agilidad? O bien detectar que el seguimiento no se está realizando
como debería ser.
Pero, esas son sólo algunas de las observaciones que se puede hacer con una simple visita a
un local de venta al público o con una rápida llamada para, a partir de ahí, trazar estrategias
que permitan mejorar los resultados. Sin embargo, lo que se percibe en la práctica es que
difícilmente los grandes directivos salen a la calle para conocer a fondo el funcionamiento
de la empresa que dirigen. El director general de una compañía aérea, por ejemplo, siempre
que viaja por su empresa lo hace como el director general y no como un pasajero más de la
clase económica. Así que la idea que se formará del servicio ofrecido no reflejará la
realidad vivida por la mayoría de los usuarios. El ideal sería que estas personas viviesen un
día como cliente misterioso.
Y esta afirmación es válida en todos los sectores donde existe gran rivalidad competitiva.
Hay muchas empresas que venden casi lo mismo, a un precio muy similar. La atención al
cliente, junto con la estrategia de marketing y el saber hacer del vendedor son seguramente
los grandes elementos diferenciadores que permiten a cualquier empresa ofrecer una
ventaja competitiva en un mercado tan homogéneo y atomizado. Pero parece que conceptos
básicos como éstos son olvidados, y lo que se percibe en la práctica es justo al revés.
Nuestra experiencia nos indica que la estrategia del cliente misterioso ha de realizarse de
forma regular y a nivel profesional.
Lo que está claro es que ningún negocio se mantiene dinámico sin su gran protagonista: el
cliente, pues para él se crea, se produce y se vende. Por tanto, hay que estar muy atento para
que los reyes del negocio no prefieran a la competencia y se conviertan en clientes fieles y
prescriptores de nuestra empresa. Seguramente así el mistery shopping ayudará al
empresario y directivo a conocer mejor las áreas de mejora que tiene nuestra compañía para
conseguir dar respuestas satisfactorias a las necesidades del mercado.
Surgen así las técnicas cualitativas, como una vía de investigación complementaria. Si el
objetivo de la investigación cuantitativa es clasificar, agrupar en categorías y medir (en
definitiva, describir la realidad), la finalidad de las técnicas cualitativas es analizar el
estrato social, o sea, encontrar los «porqués» de esa realidad, o al menos marcarnos las
tendencias.
Las técnicas cualitativas más difundidas son los grupos de discusión, denominadas en
determinadas ocasiones focus group , y las entrevistas en profundidad. En ambos casos, la
recogida de información se traduce en la obtención y posterior análisis del diálogo libre y
espontáneo entre un reducido grupo de personas (grupo de discusión) o entre el
entrevistador y el entrevistado (entrevista en profundidad).
A grandes rasgos, una investigación debe incluir una fase cualitativa inicial cuando:
Conviene puntualizar que estas técnicas poco tienen que ver con ciertas dinámicas de grupo
que se realizan a nivel interno de empresas, tales como las «tormentas de ideas», cuya
finalidad es exclusivamente la de producir ideas, con lo que no requieren un análisis
específico, más allá del resumen o de la extracción casi literal de tales ideas.
4.2 Metodología
El grupo debe estar formado por un número de personas que puede oscilar entre 6 y 10
individuos.
El test de concepto y/o el estudio de consumidor actual deben permitirnos definir, al menos
en
líneas generales, a qué segmentos deseamos dirigir el producto y en qué canales podría
tener más aceptación por el consumidor.
– Precios.
– Tipos de canal.
– Actitudes y percepciones de los puntos de venta hacia las marcas (satisfacción, imagen,
fidelidad, etc.).
El consumidor:
Una vez determinados los contenidos del observatorio, se procede a la definición de las
fuentes de información, comenzando por revisar qué fuentes de las existentes en la
actualidad pueden aportar datos al observatorio cumpliendo los requisitos de consistencia,
representatividad y vigencia (actualización).
Entre estas fuentes solemos contar con organismos oficiales (Instituto Nacional de
Estadística, ministerios, etc.), anuarios estadísticos, y anuarios o memorias anuales de
asociaciones profesionales/sectoriales.
Normalmente estas fuentes sólo cubren una parte de los indicadores planificados para el
observatorio, por lo que suele ser necesario recurrir a proveedores especializados de
información, como son los paneles de consumidores y los paneles de distribución.
Por último, para aquellos indicadores no cubiertos por ninguna de las fuentes anteriores, se
diseñarán estudios tipo tracking: encuestas periódicas a muestras representativas de
consumidores y/o puntos de venta.
Ola piloto: normalmente, la primera edición del observatorio sirve para ajustar y validar
tanto las fuentes de información como los indicadores resultantes: qué tratamiento
estadístico se va a dar a la información, cuál es la consistencia de datos entre distintas
fuentes, cómo se van a presentar o editar los resultados.
Pero el verdadero valor del observatorio se obtiene a partir de la segunda ola, a través de un
seguimiento periódico, cuando se pueden analizar los resultados desde un punto de vista
evolutivo. La periodicidad en la actualización de indicadores vendrá normalmente
determinada por dos factores:
Respecto a un estudio sectorial estándar, el observatorio tiene como objetivo dar una visión
más amplia y –sobre todo– con carácter evolutivo de la situación del mercado en cuestión.
En este sentido, además del conocimiento del mercado en cada momento, aporta una serie
de utilidades dignas de mención:
La posibilidad de detectar tendencias permite a los usuarios del observatorio
situarse en una posición de ventaja a la hora de diseñar estrategias de cara a
escenarios futuros.
Correctamente interpretados, los indicadores del observatorio funcionan como un
sistema de alerta temprana ante cambios perjudiciales en el entorno de competencia
(aparición de nuevos actores, cambios en la estrategia de los competidores, etc.),
reduciendo los tiempos de reacción.
Con una serie histórica suficiente, el observatorio permite crear un banco de
experiencia sobre distintos eventos ocurridos en el pasado: por ejemplo, guerras de
precios, enfriamiento de la economía, etc. En estos casos, el usuario del
observatorio contará con un conocimiento –basado en experiencias anteriores–
sobre cuáles pueden ser las reacciones más probables del mercado y actuar en
consecuencia.
A partir de ahora no existe justificación para decir que el mercado evoluciona tan
rápidamente que nos ha cogido con el pie cambiado. Nuestro futuro es lo suficientemente
importante para empezar a poner en práctica una de las herramientas que nos va a asegurar
las ventas de forma permanente.
Se puede realizar este trabajo de campo en el momento y lugar que se está efectuando la
compra, por teléfono, vía postal u on line. Conocer a los clientes que nos han dejado de
comprar o han presentado algún tipo de reclamación nos puede aportar conocimiento sobre
las variables del servicio que están fallando, para poder actuar y así corregir las posibles
áreas de mejora.
Por ello, aconsejamos realizar un mix de los estudios tradicionales de satisfacción con la
información comercial que tiene la empresa y los realizados ad hoc de compra misteriosa
para saber exactamente si estamos orientados hacia el mercado, ya que considerar al cliente
como centro de negocio sólo se alcanza si la satisfacción es plena.
Todo ello hará que se tenga el nivel de competitividad que nos exige la dinámica actual del
mercado. Para cerrar el tema hemos considerado oportuno incluir un breve modelo
tradicional de encuesta.
Sigue siendo una herramienta de investigación novedosa, y cada vez más extendida en la
actualidad, utilizada con éxito en el marketing comercial y político. A través de un sistema
de información geográfica (SIG) podemos saber dónde situar unas nuevas oficinas
bancarias, tiendas en régimen de franquicia o captación de votos hacia un determinado
partido, según la renta que tienen los habitantes, la cilindrada de sus coches, su edad, el
voto realizado en las últimas elecciones y cualquier otro dato disponible en las estadísticas.
Entonces, ¿cómo podríamos definir el SIG? Es una base de datos que contempla
informáticamente una componente geográfica de información. Al utilizarla trabajamos con
mapas que tienen unas bases de datos asociadas a los mismos. Cada dato se sitúa reflejado
como un punto dentro del mapa que aparece en la pantalla del ordenador; los ejes de las
calles y las carreteras son líneas que determinan una zona que nos da toda la información
que se encuentra dentro de ella, a partir de ahí podemos marcar las diferentes estrategias de
marketing. Algunos autores lo denominan también como geomarketing.
Con los estudios cualitativos podemos conseguir un buen retrato de las tendencias del
mercado, pero con los SIG los datos disponibles nos pueden facilitar su ubicación; esto
permite ofrecer una clara ventaja competitiva, ya que su forma de tratar los datos la
convierte en una herramienta que no es fácilmente imitable.
Con este sistema de información, el control y el análisis de la información que ya tienen
mejora ostensiblemente la gestión de la empresa; ahora bien, no hay que olvidar que
vivimos un cambio radical en las orientaciones del marketing y cada vez más se precisan
herramientas más flexibles, fáciles de comprender y trabajar; aquí es donde los SIG están
adquiriendo un importante protagonismo por las múltiples utilidades que se pueden
obtener.
El principal objetivo que se tiene entonces es conocer cuáles son las necesidades
específicas de información del cliente, determinar su urgencia, su importancia, establecer
una jerarquía y, conforme a ella, actuar.
Una constante en este libro será ver varias veces que nos hemos alejado del marketing de
masas y acudimos cada vez más a la segmentación del mercado o micromarketing, muchas
empresas están intentando dar respuestas a estos interrogantes pero pocas de forma
profesional y seriamente.
Las principales compañías coinciden incluso en denominar esta técnica tipología mosaic
refiriéndose a los mercados potenciales de las empresas que han valorado las zonas,
calculando áreas de influencia, estableciendo áreas por su potencial, jerarquizando
provincias, etc., de manera acorde a diferentes criterios y dentro de más de 40 tipos
diferentes de clientes.
Ventajas competitivas:
Al analizar los datos volcados sobre una cartografía, el SIG puede responder a varias
preguntas:
¿Qué hay en...? Localización de los elementos que estudiamos: pueden ser puntos
de venta, clientes, almacenes, centros de asistencia, etc.
¿Dónde se encuentra...? Buscamos un lugar o un elemento que reúna una serie de
condiciones. Por ejemplo, dónde se encuentran mis clientes que son menores de 25
años.
¿Qué ha cambiado desde...? Es un análisis de tendencias, vemos las diferencias que
se dan en una zona a lo largo del tiempo.
¿Qué patrones de distribución espacial existen...? Se podría estudiar si consumen
más los clientes que viven a menos de 100 metros de un centro comercial.
¿Qué sucede si...? Buscar modelos y estudiar si son válidos cuando ocurre un hecho
determinado.
¿Qué ruta debo coger? Tanto en ciudad como en carretera, hoy ya estamos
habituados a conducir con navegador.
Etcétera.
Hace unos años el motivo de la compra se basaba en la funcionalidad del producto, ya que
venía a cubrir una necesidad. Actualmente la componente emocional de la compra es
decisiva. Esto nos lleva a situaciones en las que un producto que cubre iguales necesidades
se diferencia para dirigirse a distintos grupos de clientes. En este tipo de política un
marketing masivo no es eficaz. Por otro lado, la gran cantidad de medios de comunicación
que existen hoy en día hace que los expertos en marketing tengan su trabajo más difícil.
Como consecuencia de todo esto las bases de datos se han convertido en compañeras
imprescindibles de los analistas de mercado.
Las bases de datos de las empresas están compuestas de datos internos y externos, presentes
y futuros, planificados y reales. El 80 por 100 de estos datos tienen una componente
geográfica. La utilización de un SIG termina con las consultas a grandes listados y los
mapas con chinchetas. El acceso a la información se realiza de una forma más clara y
rápida.
Realicemos un repaso de los datos que tenemos dentro de las empresas y qué tipo de
análisis se podría realizar con ellos. En primer lugar los clientes: dónde están, quiénes son,
o localización de un segmento específico de población, por ejemplo. El protagonismo del
término CRM (Customer Relationship Management) o gestión de las relaciones con el
cliente, nos vienen a confirmar que los SIG son imprescindibles para la tarea comercial.
También son susceptibles de estudio los puntos de venta: dónde están, análisis para detectar
los huecos de mercado, eliminación de los puntos menos rentables, apertura de nuevos
centros, o estudio del acceso a los puntos de venta.
Al estudiar la red de ventas podemos zonificar el mercado, controlar y analizar las visitas,
controlar los gastos, estudiar históricamente las zonas, realizar nuevas asignaciones de
zonas, etc.
De los datos de volumen de ventas se puede realizar un análisis de ventas por zonas, un
análisis de ventas por puntos de venta, por vendedor, planificar y controlar campañas de
promoción, etc.
En la red de asistencia localizaremos inmediatamente los medios propios, los clientes o las
rutas óptimas de asistencia.
Al analizar el posible uso de los SIG en la empresa podemos ver que se están asentando en
sectores en los que hasta ahora se han utilizado otros métodos de trabajo:
Internet es una herramienta muy útil para la investigación de mercados desde el momento
en que facilita una relación inmediata con los posibles informantes (encuestados, panelistas,
etc.), independientemente de la ubicación geográfica del investigador y del informante.
Bien empleada, esta herramienta puede aportar una reducción de costes y de plazos de
ejecución en los estudios de mercado. Las empresas se enfrentan a una nueva revolución en
la forma en la que vienen llevando a cabo su actividad, tanto en lo referente a nuevos
productos y servicios ofrecidos como en la novedosa manera de plantearse las relaciones
comerciales y profesionales con los clientes.
Aunque en España es una actividad poco madura, consideramos como referencia tres
utilizaciones básicas de Internet en investigación:
Hay –por último– un tipo de estudios que consideramos más «investigaciones sobre
Internet» que investigaciones basadas en Internet. Nos referimos a los estudios de audiencia
de páginas web, a los estudios sobre perfiles y comportamientos del internauta (tiempos
medios de visita, tipos de información requerida, etc.).
Paneles.
Ómnibus.
9.1. Panel
A continuación, damos una breve referencia de los más conocidos, algunos de ellos incluso
muy especializados, aunque siempre se podrán realizar de forma ad hoc, o sea, por encargo.
LOS PANELES
Sustituye al antiguo panel de consumidores basado en audit manual con soporte diario que
se había venido desarrollando desde 1993.
Objetivos:
Universos estudiados:
Muestra:
Metodología:
Periodicidad:
Información suministrada:
Todas las variables aparecen agrupadas en base a los siguientes análisis: tendencia de
mercado y participación de las marcas. Comportamiento del consumidor en el acto de
compra (compras totales, porcentaje de hogares compradores, promedio de compras por
hogar, frecuencia de compras, compra media por acto). Perfil del consumidor, según
criterios sociodemográficos. Posicionamiento en el hogar: importancia de los hogares,
exclusividad de marcas en los mismos. Nivel de repetición de compra de cada
marca/variedad, pudiendo conocerse de forma directa el número y/o proporción de hogares
que adquieren una referencia o marca una, dos, tres, o más veces, dentro de un período de
tiempo determinado. Datos por cadena. Tamaño del universo o número de hogares
incluidos en cada uno de los segmentos de población diferenciados.
Desgloses de mercado:
Áreas geográficas Nielsen. Tamaño del municipio. Clase social. Edad del ama de casa.
Situación laboral del ama de casa. Número de miembros del hogar. Presencia de niños en el
hogar. De forma opcional etapas de la vida. También se incluye en la base de datos estándar
la información relativa a los tipos de establecimiento, y de forma más específica, a las
diferentes cadenas de distribución de forma independiente.
Métodos de análisis:
Junto con la información básica de los informes que incluyen de forma estándar todas las
variables mencionadas anteriormente, Homescan ofrece la posibilidad de realizar estudios
especiales que permitan profundizar en el análisis de problemáticas más concretas. De esta
manera se están realizando los siguientes análisis: Sourcerer offering, Trial&Repeat, New,
Lost and retained, Compra combinada, Análisis de la cesta de la compra, Gain&Loss,
Panel views, Chice segmente, Shopper missions, Fieles-ocasionales-esporádicos, Heavy-
medium-light, Etapas de la vida, Estilos de vida, Trade planner, Shopper óptimizer, Trade
category, Analyser. Otros paneles de consumidores: panel de consumo de telefonía móvil.
Objetivos:
Los estudios de observación forman parte de toda una cartera de servicios que Nielsen pone
a disposición de los profesionales del marketing en el punto de venta.
Tipos de estudios:
– Presencia de:
- Display.
- Folleto.
- Regalo.
- Lote.
- Multicompra (3 x 2, 2 x 1…).
– Presencia de premio/regalo.
Price monitor. Control quincenal de la variable PVP, así como de las promociones a
nivel de referencia en los puntos de venta más relevantes de la geografía española.
– Presencia en tienda.
– Precio.
– Folleto.
– Lotes 3x2.
– Regalo.
– Otras promociones.
Space monitor. Seguimiento mensual del espacio tanto de la categoría como de cada
una de las referencias que la forman.
Las variables que se auditan son:
– Facings.
– Precio medio.
– Ponderada de promociones.
Fecha de creación:
Objetivos:
Número de hogares:
3.845 hogares en los que residen 10.300 individuos de cuatro o más años. Producto y/o
marcas estudiadas: todas las anunciadas en televisión.
Análisis: para la variable spots, la información se podrá jerarquizar según coste por mil
(CPM) o gross rating point (GRPs). Información procedente de la misma muestra referido
a:
9.2. Ómnibus
Algunos colectivos sostienen la idea de que el uso de los ómnibus viene determinado por
un menor coste de realización (ya que los gastos se reparten entre las diferentes empresas
que encargan el cuestionario); los defensores del mismo sostienen que el motivo
determinante para decidirse por este sistema está basado en las siguientes características
técnicas:
Universo al que va dirigida la investigación.
Extensión de la muestra.
Fechas de realización de trabajos de campo.
Posibilidades futuras de obtener la misma información en épocas similares, de cara
a los estudios comparativos.
La expresión gráfica con que se representa este tipo de estudios en casi todo el mundo son
los transportes públicos colectivos (autobuses, trenes, etc.), y ello es así porque define con
mucha precisión el concepto y las características que comporta el ómnibus:
Estas características ambivalentes han hecho del ómnibus un estudio que ha alcanzado gran
notoriedad, siendo para muchas empresas su primer contacto con la investigación de
mercados.
Los estudios ómnibus son, hoy en día, uno de los instrumentos importantes en la
investigación de mercados; su gran versatilidad permite que puedan ser utilizados por
cualquier compañía, independientemente del tamaño de la misma, pero, hasta la fecha, casi
siempre para productos de gran consumo.
En estos momentos, en España existen suficientes ómnibus como para poder responder a
las exigencias de quienes los deseen utilizar; si bien en el futuro, y analizando el entorno de
los países que nos rodean, se puede asegurar que los estudios ómnibus serán cada vez más
frecuentes; se creará una mayor diversificación de tipos y aparecerán otros nuevos dirigidos
a universos más concretos o específicos.
Un menor coste.
Gran rapidez de realización.
Menor número de preguntas y respuestas por cuestionario.