Академический Документы
Профессиональный Документы
Культура Документы
TI:
A GTI consiste em um conjunto de processos e controles que tem como objetivo propiciar
que a TI agregue valor ao negócio. Este artigo visa analisar como as empresas no Brasil
estão exercendo a Governança de TI
“Isto não diminui a importância e complexidade do Gerenciamento de TI, ..., mas enquanto
o Gerenciamento de TI e fornecimento de serviços de TI e produtos podem ser realizados
por um fornecedor externo, a Governança de TI é específica da organização, e direção e
controle sobre TI não podem ser delegados para o mercado” (PETERSON (2003) apud
GREMBERGER et. Al (2004)).
Muito se tem falado do Cobit (Control Objectives for Information and Related Technology)
e do ITIL (Information Technology Infrastruture Library) como base para a Governança de
TI. Outras metodologias que também costumam ser avaliadas e incorporadas como
ferramentas de Governança de TI são: International Standards Organization (ISO) 9000,
Balanced Scorecard (BSC) de TI, Seis Sigma, Project Management Institute (PMI) e
Capability Maturity Model (CMM).
BSC:
COBIT:
O Control Objectives for Information and related Technology (CobiT®) fornece boas
práticas através de um modelo de domínios e processos e apresenta atividades em uma
estrutura lógica e gerenciável. As boas práticas do CobiT representam o consenso de
especialistas. Elas são fortemente focadas mais nos controles e menos na execução. Essas
práticas irão ajudar a otimizar os investimentos em TI, assegurar a entrega dos serviços e
prover métricas para julgar quando as coisas saem erradas.
Para a área de TI ter sucesso em entregar os serviços requeridos pelo negócio, os executivos
devem implementar um sistema interno de controles ou uma metodologia. O modelo de
controle do CobiT contribui para essas necessidades ao:
· Fazer uma ligação com os requisitos de negócios.
· Organizar as atividades de TI em um modelo de processos geralmente aceito.
· Identificar os mais importantes recursos de TI a serem utilizados.
· Definir os objetivos de controle gerenciais a serem considerados.
A estrutura de processos do CobiT e o seu enfoque de alto nível orientado aos negócios
fornece uma visão geral de TI e das decisões a serem tomadas sobre o assunto.
Como ponto de origem do ciclo de vida de serviço ITIL, o volume sobre estratégia do
serviço é um guia sobre como tornar mais claro e priorizar investimentos sobre provimento
de serviços.
Os pontos chaves sobre este volume são:
O volume de desenho do serviço é um guia sobre boas práticas no projeto de serviços de IT,
processos, e outros aspectos no esforço de gerenciamento de serviços.
Projeto com ITIL é entender para englobar todos os elementos relevantes à entrega de
serviços de tecnologia, ao invés de focar somente no projeto da tecnologia propriamente
dita. Assim, projeto de serviços aponta como uma solução planejada de serviço interage
com o negócio e ambiente técnico.
Processos inclusos neste volume incluem gerenciamento do nível de serviço (Service Level
Management - SLA), gerenciamento de disponibilidade, gerenciamento de capacidade,
gerenciamento de serviços de IT continuados, gerenciamento de segurança da informação,
gerenciamento de fornecedores e gerenciamento de catálogo de serviços..
Parte do ciclo de vida onde serviços e valor são entregues diretamente. Assim,
monitoramento de problema e balanceamento entre disponibilidade de serviço e custo, etc,
são considerados.
Tópicos inclusos são balanceamento do conflito das metas (disponibilidade vs custo, etc),
gerenciamento de eventos, gerenciamento de incidentes, gerenciamento de problemas,
cumprimento dos pedidos, gerenciamento de acesso, (service desk).
Para gerenciar melhorias, o CSI deve definir claramente o que deve ser controlado e
medido.
O COBIT é mais bem aplicado em empresas que já tem estruturado o setor de TI e busca
administração da área focalizada em auditoria, controle e métricas.
PMBOK
Objetivo
O que é um PROJETO?
Características de um projeto
Temporário;
Gera um produto, serviço ou resultado;
Elaboração progressiva.
O que é gerenciamento de projeto?
• Iniciação;
• Planejamento;
• Execução;
• Monitoramento e Execução;
• Encerramento.
Áreas de conhecimento
Áreas de Especialização
Norma X Regulamento
Habilidades Interpessoais
• Comunicação Eficaz;
• Influência sobre a organização;
• Liderança;
• Motivação;
• Negociação e Gerenciamento de Conflitos;
• Resolução de Problemas.
Subprojeto
• Gerente de Projetos;
• Cliente/Usuário;
• Organização Executora;
• Membros da Equipe do Projeto;
• Equipe de Gerenciamento de Projeto;
• Patrocinador;
• Influenciador;
• PMO.
Estruturas Organizacionais
• Organização Funcional
• Organização Matricial
• Organização Matricial Fraca;
• Organização Matricial Balanceada;
• Organização Matricial Forte;
• Organização Por Projeto
Integra pessoas e outros recursos para realizar o plano de gerenciamento do projeto para o
projeto.
1. Encerrar o Projeto;
2. Encerramento do Contrato
CMMI:
O CMM define cinco níveis de maturidade, sendo que no primeiro a empresa desenvolve
sistemas baseando-se apenas na experiência das pessoas que trabalham na empresa, e no
último existe um processo organizado, flexível, com um planejamento eficiente e
continuamente melhorado. Para que uma empresa seja considerada mais madura e aumente
seu nível de maturidade, ela deve cumprir metas específicas, chamadas áreas de processo
(key process área – KPA). Por exemplo, uma área de processo do nível 2 do CMM seria a
garantia de qualidade de software.
O CMMI está dividido em duas formas de representação diferentes – estagiada e contínua.
A estagiada divide as áreas de processo em cinco níveis de maturidade, à maneira do
CMM; A representação contínua define níveis de capacidade. As diferenças entre ambos
são meramente organizacionais; o conteúdo é equivalente. Ambos podem ser usados para
conseguir níveis em suas respectivas caracterizações.
O CMMI possui duas representações: "contínua" ou "por estágios". Elas permitem à
organização utilizar diferentes caminhos para a melhoria de acordo com seu interesse.
A contínua permite que uma organização selecione uma área (ou um grupo de áreas) de
processo e melhore os processos relacionados. Ela usa níveis de capacidade para
caracterizar melhorias relativas a uma área de processo individual.
A estagiada usa conjuntos pré-definidos de áreas de processo (KPA's) para definir um
caminho para uma organização, caracterizado por níveis de maturidade. Cada nível contém
um conjunto de áreas de processo que caracterizam diferentes comportamentos
organizacionais, correspondendo à capacidade da empresa de realizar projetos grandes e
complexos.
Na representação contínua, o enfoque ou componentes principais são as áreas de
processo. Existem metas e práticas de dois tipos: específicas a uma determinada área de
processo e genéricas aplicáveis indistintamente a todas as áreas de processo. A partir da
avaliação e do atendimento dessas práticas e metas é possível classificar o nível de
capacidade de cada área de processo, em níveis de zero a cinco:
Nível 0 - Incompleto: um processo é parcialmente realizado ou não realizado. Um ou mais
objetivos específicos do processo não estão satisfeitos.
Nível 1 - Realizado: um processo realizado satisfaz todos os objetivos específicos da área
de processo e produz algum trabalho.
Nível 2 - Gerenciado: um processo de capacidade nível 2 é um processo realizado (nível 1)
que também é planejado e executado de acordo com políticas pré-definidas. Emprega
pessoas hábeis com os recursos adequados para produzir saídas adequadas, envolve os
stakeholders principais e é monitorado, controlado, revisto e avaliado quanto à aderência à
sua descrição. A gerência do processo é relacionada com a realização de objetivos
específicos estabelecidos para o processo, como custo, cronograma e qualidade.
Nível 3 - Definido: um processo definido é um processo gerenciado e ajustado para o
conjunto padrão de processos da organização de acordo com suas políticas de conduta. Esse
conjunto é estabelecido e melhorado com o tempo e descreve os elementos fundamentais de
processos que são esperados nos processos definidos.
Nível 4 - Gerenciado quantitativamente: um processo neste nível é definido e controlado
com a ajuda de técnicas quantitativas e estatísticas. A qualidade e o desempenho do
processo são compreendidos em termos estatísticos e são geridos durante sua vida.
Objetivos quantitativos para qualidade e desempenho de processos são estabelecidos e
usados como critério na gerência do processo.
Nível 5 - Otimizado: um processo otimizado é gerenciado quantitativamente, alterado e
adaptado para atender aos objetivos de negócio atuais e projetados. Tal processo enfoca a
melhoria contínua do desempenho do processo através de aprimoramentos tecnológicos
inovadores e incrementais, selecionados com base em uma compreensão quantitativa de sua
contribuição esperada à obtenção da melhoria de processos.
Elaborado pelo SEI, o método de avaliação SCAMPI (Standard CMMI Appraisal Method
for Process Improvement) fornece graduação de maturidade de processo em relação aos
modelos CMMI (CMU/SEI-2001-HB-001, 2001), tendo dois objetivos principais:
1 - Fornecer um método de avaliação integrado e único, capaz de ser utilizado nos
contextos de melhoria interna de processo, seleção de fornecedor e acompanhamento de
processo.
2 - Fornecer um método de avaliação eficiente, possível de ser implementado dentro de
restrições razoáveis de desempenho. Como um método Classe A de avaliação, ele satisfaz
todos os requisitos do ARC V1.1 (ARC, 2001)
O SCAMPI é um método padrão que possibilita o diagnóstico do estado atual de qualidade
de processo de uma organização, baseado nos modelos de qualidade
definidos no CMMI. Esses modelos de qualidade são aplicáveis em organizações de
qualquer porte, e o SCAMPI pode ser utilizado para avaliar o nível de
adequação a esses modelos, direcionando essas organizações para a melhoria progressiva
de seus processos.
Pode ser observado que as empresas que adotaram o CMMI como modelo de qualidade, e
utilizaram os resultados de avaliações obtidas com o método SCAMPI, obtiveram
melhorias expressivas em seus processos de software. Dessa forma, uma crescente
utilização do SCAMPI pelas empresas que adotaram o
CMMI pode ser uma tendência.
O método SCAMPI é utilizado para avaliação do nível de capacidade, no caso de uma área
de processos, ou do nível de maturidade do processo de software, no
caso de uma unidade org anizacional. Entretanto, a qualidade dos produtos de software
resultante desses processos não é avaliada, tornando-se necessária à
utilização de outros métodos específicos. Tal fato implica em maiores custos e maior
demanda de tempo, pois seria necessária, a princípio, uma nova equipe de avaliação, que
teria que receber os devidos treinamentos.
Seria interessante a proposta de um método único, que ao final de sua aplicação, resultasse
na avaliação da qualidade tanto do processo quanto dos produtos
resultantes desse processo.
Tem duas diferentes abordagens para a melhoria dos processos. Estas duas abordagens são
conhecidas como modelo continuo e modelo em estágios:
MPS BR
Descrição do MR-MPS
O Modelo de Referência MR-MPS define níveis de maturidade que são uma combinação
entre processos e sua capacidade.
A definição dos processos segue os requisitos para um modelo de referência de processo
apresentados na ISO/IEC 15504-2, declarando o propósito e os resultados esperados de sua
execução. Isso permite avaliar e atribuir graus de efetividade na execução dos processos.
As atividades e tarefas necessárias para atender ao MPS.BR-Guia Geral:2009 16/56
propósito e aos resultados esperados não são definidas neste guia, devendo ficar a cargo dos
usuários do MR-MPS. A capacidade do processo é a caracterização da habilidade do
processo para alcançar os objetivos de negócio, atuais e futuros; estando relacionada com o
atendimento aos atributos de processo associados aos processos de cada nível de
maturidade.
Níveis de maturidade
Os níveis de maturidade estabelecem patamares de evolução de processos, caracterizando
estágios de melhoria da implementação de processos na organização. O nível de maturidade
em que se encontra uma organização permite prever o seu desempenho futuro ao executar
um ou mais processos. O MR-MPS define sete níveis de maturidade: A (Em Otimização),
B (Gerenciado Quantitativamente), C (Definido), D (Largamente Definido), E
(Parcialmente Definido), F (Gerenciado) e G (Parcialmente Gerenciado). A escala de
maturidade se inicia no nível G e progride até o nível A. Para cada um destes sete níveis de
maturidade é atribuído um perfil de processos que indicam onde a organização deve colocar
o esforço de melhoria. O progresso e o alcance de um determinado nível de maturidade do
MR-MPS se obtêm quando são atendidos os propósitos e todos os resultados esperados dos
respectivos processos e os resultados esperados dos atributos de processo estabelecidos
para aquele nível. A divisão em 7 estágios tem o objetivo de possibilitar uma
implementação e avaliação adequada às micros, pequenas e médias empresas. A
possibilidade de se realizar avaliações considerando mais níveis também permite uma
visibilidade dos resultados de melhoria de processos em prazos mais curtos.
Processo
Os processos no MR-MPS são descritos em termos de propósito e resultados e estão
detalhados na seção 9. O propósito descreve o objetivo geral a ser atingido durante a
execução do processo. Os resultados esperados do processo estabelecem os resultados a
serem obtidos com a efetiva implementação do processo. Estes resultados podem ser
evidenciados por um produto de trabalho produzido ou uma mudança significativa de
estado ao se executar o processo.
Capacidade do processo
A capacidade do processo é representada por um conjunto de atributos de processo descrito
em termos de resultados esperados. A capacidade do processo expressa o grau de
refinamento e institucionalização com que o processo é executado na organização/unidade
organizacional. No MR-MPS, à medida que a organização/unidade organizacional evolui
nos níveis de maturidade, um maior nível de capacidade para desempenhar o processo deve
ser atingido. MPS.BR-Guia Geral:2009 17/56
O atendimento aos atributos do processo (AP), pelo atendimento aos resultados esperados
dos atributos do processo (RAP), é requerido para todos os processos no nível
correspondente ao nível de maturidade, embora eles não sejam detalhados dentro de cada
processo. Os níveis são acumulativos, ou seja, se a organização está no nível F, esta possui
o nível de capacidade do nível F que inclui os atributos de processo dos níveis G e F para
todos os processos relacionados no nível de maturidade F (que também inclui os processos
de nível G). Isto significa que, ao passar do nível G para o nível F, os processos do nível de
maturidade G passam a ser executados no nível de capacidade correspondente ao nível F.
Em outras palavras, na passagem para um nível de maturidade superior, os processos
anteriormente implementados devem passar a ser executados no nível de capacidade
exigido neste nível superior. Os diferentes níveis de capacidade dos processos são descritos
por nove atributos de processo (AP). O alcance de cada atributo de processo é avaliado
utilizando os respectivos resultados esperados de atributo de processo (RAP).
AJAX
O modelo clássico de aplicação web trabalha assim: a maioria das ações do usuário na
interface dispara uma solicitação HTTP para o servidor web. O servidor processa algo,
recuperando dados, realizando cálculos, conversando com vários sistemas legados, e então
retorna uma página HTML para o cliente. É um modelo adaptado do uso original da Web
como um agente de hipertexto, porém o que faz a web boa para hipertexto não
necessariamente a faz boa para aplicações de software.
As principais vantagem das aplicações que utilizam AJAX para determinadas requisições é
que os dados trafegados pela rede são reduzidos e o usuário não precisa aguardar a página
ser recarregada a cada interação com o servidor.
A popularização das tecnologias que o AJAX reúne, foi muito importante para a criação do
conceito Web 2.0, que até hoje gera grandes divisões entre os maiores pensadores da Web.
Apesar de não possuir nada inovador em sua essência, o uso de AJAX revolucionou a Web
inteira trazendo a tona muitos conceitos importantes para o desenvolvimento web.
Os quatro princípios de Ajax
XML
TDD:
1. Adicione um teste
Em Test Driven Development, cada nova funcionalidade inicia com a criação de um teste.
Este teste precisa inevitávelmente falhar porque ele é escrito antes da funcionalidade a ser
implementada (se ele não falha, então a funcionalidade ou melhoria 'proposta' é óbvia).
Para escrever um teste, o desenvolvedor precisa claramente entender as especificações e
requisitos da funcionalidade. O desenvolvedor pode fazer isso através de casos de uso ou
user stories que cubram os requisitos e execções condicionais. Esta é a diferenciação entre
desenvolvimento dirigido a testes entre escrever testes de unidade 'depois' do código
desenvolvido. Ele torna o desenvolvedor focado nos requisitos 'antes' do código, que é uma
sutil mas importante diferença.
Esse passo valida se todos os testes estão funcionando corretamente e se o novo teste não
traz nenhum equívoco, sem requerer nenhum código novo. Pode-se considerar que este
passo então testa o próprio teste: ele regula a possibilidade de novo teste passar.
O novo teste deve então falhar pela razão esperada: a funcionalidade não foi desenvolvida.
Isto aumenta a confiança (por outro lado não exatamenta a garante) que se está testando a
coisa certa, e que o teste somente irá passar nos casos intencionados.
O próximo passo é escrever código que irá ocasionar ao teste passar. O novo código escrito
até esse ponto poderá não ser perfeito e pode, por exemplo, passar no teste de uma forma
não elegante. Isso é aceitável porque posteriormente ele será melhorado.
O importante é que o código escrito deve ser construído somente para passar no teste;
nenhuma funcionalidade (muito menos não testada) deve ser predita ou permitida em
qualquer ponto.
Se todos os testes passam agora, o programador pode ficar confiante de que o código possui
todos os requisitos testados. Este é um bom ponto que inicia o passo final do ciclo TDD.
Nesse ponto o código pode ser limpo como necessário. Ao re-executar os testes, o
desenvolvedor pode confiar que a refatoração não é um processo danoso a qualquer
funcionalidade existente. Um conceito relevante nesse momento é o de remoção de
duplicação de código, considerado um importante aspecto ao design de um software. Nesse
caso, entretanto, isso aplica remover qualquer duplicação entre código de teste e código de
produção — por exemplo magic numbers or strings que nós repetimos nos testes e no
código de produção, de forma que faça o teste passar no passo 3.
Iniciando com outro teste, o ciclo é então repetido, enpurrando a funcionalidade a frente. O
tamanho dos passos deve ser pequeno - tão quanto de 1 a 10 edições de texto entre cada
execução de testes. Se novo código não satisfaz rapidamente um novo teste, ou outros testes
falham inesperadademente, o programador deve desfazer ou reverter as alterações ao invés
do uso de excessiva depuração. A Integração contínua ajuda a prover pontos revertíveis. É
importante lembrar que ao usar bibliotecas externas não é interessante gerar incrementos
tão pequenos que possam efetivamente testar a biblioteca ,[3] a menos que haja alguma
razão para acreditar que a biblioteca tenha defeitos ou não seja suficientemte completada
com suas funcionalidades de forma a servir às necessidades do programa em que está sendo
escrito.
Falhar primeiro os casos de testes. A idéia é garantir que o teste realmente funciona e
consegue capturar um erro. Assim que ele é mostrado, a funcionalidade almejada pode ser
implementada. Isto tem sido apontado como o "Test-Driven Mantra", conhecido como
vermelho/verde/refatorar onde vermelho significa falhar onde pelo menos uma asserção
falha ,e verde é passar, que significa que todas as asserções foram verdadeiras.
ISO 27002-2005
Ver Slides
DDL e DML
Uma vez compilados, os parâmetros DDL são armazenados num conjunto de arquivos
denominado dicionário de dados (ou catálogo). O dicionário de dados contém os metadados
(dados a respeito das estruturas de armazenamento). O SGBD sempre consulta os
metadados a cada operação sobre o banco de dados. Por exemplo, um determinado
programa precisa recuperar alguns campos (nome, CPF) de um arquivo de clientes. O
SGBD irá verificar se os campos "nome" e "CPF" estão definidos para este arquivo. O
interpretador DDL processa os comandos alimentados pelos DBAs na definição dos
esquemas.
DATA WAREHOUSE
A ferramenta mais popular para exploração de um data warehouse é a Online Analytical Processing
OLAP ou Processo Analítico em Tempo Real, mas muitas outras podem ser usadas.
Os data warehouse surgiram como conceito acadêmico na década de 80. Com o amadurecimento
dos sistemas de informação empresariais, as necessidades de análise dos dados cresceram
paralelamente. Os sistemas OLTP não conseguiam cumprir a tarefa de análise com a simples
geração de relatórios. Nesse contexto, a implementação do data warehouse passou a se tornar
realidade nas grandes corporações. O mercado de ferramentas de data warehouse, que faz parte do
mercado de Business Intelligence, cresceu então, e ferramentas melhores e mais sofisticadas foram
desenvolvidas para apoiar a estrutura do data warehouse e sua utilização.
Atualmente, por sua capacidade de sumarizar e analisar grandes volumes de dados,o data
warehouse é o núcleo dos sistemas de informações gerenciais e apoio à decisão das principais
soluções de business intelligence do mercado.
Ferramentas OLAP
Uma arquitetura OLAP possui três componentes principais: um modelo de negócios para análises
interativas, implementado numa linguagem gráfica que permita diversas visões e níveis de detalhes
dos dados; um motor OLAP para processar consultas multidimensionais contra o dado-alvo; e um
mecanismo para armazenar os dados a serem analisados. A base de dados usada define se o pacote é
um ROLAP, que interfaceia com um banco de dados relacional de mercado, ou um MOLAP, que se
liga a um servidor OLAP, através de um banco de dados multidimensional e dedicado.
Hybrid On Line Analytical Processing - HOLAP deriva-se de OLAP, são ferramentas hibridas.
O termo Business Intelligence (BI), pode ser traduzido como Inteligência de negócios, refere-se
ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que
oferecem suporte a gestão de negócios.
Geralmente, os coletores de BI obtêm as fontes primárias de informação dentro das suas empresas.
Cada fonte ajuda quem tem que decidir a entender como o poderá fazer da forma mais correta
possível. As fontes secundárias de informações incluem as necessidades do consumidor, processo
de decisão do cliente, pressões competitivas, condições industriais relevantes, aspectos econômicos
e tecnológicos e tendências culturais.
Cada sistema de BI determina uma meta específica, tendo por base o objetivo organizacional ou a
visão da empresa, existindo em ambos objetivos, sejam eles de longo ou curto prazo.
Business Intelligence (BI) pode ser traduzido como inteligência de negócios, ou inteligência
empresarial. Isto significa que é um método que visa ajudar as empresas a tomar as decisões
inteligentes, mediante dados e informações recolhidas pelos diversos sistemas de informação.
Sendo assim, BI é uma tecnologia que permite às empresas transformar dados guardados nos seus
sistemas em Informação qualitativa e importante para a tomada de decisão. Há uma forte tendência
de que os produtos que compõem o sistema de BI de uma empresa passem, isoladamente, a prover
funções extras que auxiliem na tomada de decisões. Por exemplo, todos os sistemas que funcionam
numa perspectiva de organização da informação. Sendo assim temos: ERP – Enterprise Resource
Planning; CRM – Customer Relationship Manager. Segundo Brent Frei, fundador da Onyx
Software, “Customer Relationship Management (CRM) é um conjunto de processos e tecnologias
que gerem relacionamentos com clientes efectivos e potenciais e com parceiros de negócios através
do marketing, das vendas e dos serviços, independentemente do canal de comunicação”. Ou seja,
pode ser considerado como uma estratégia de gestão de negócios através da gestão dos
relacionamentos com os clientes tendo em consideração o aumento do lucro e das vendas da
empresa. O objetivo principal é claramente uniformizar processos que permitam o acesso à
informação como forma de melhorar os negócios e o Marketing Relacional da empresa através do
uso da tecnologia. A globalização e a evolução da TI têm mudado radicalmente a forma como as
empresas e os seus consumidores se relacionam. Os consumidores têm um leque de opções de
produtos e serviços que há alguns anos não era possível. As TI permitem oferecer qualidade a um
preço competitivo daí o CRM ser fundamental no estabelecimento das relações e na fidelização dos
clientes. Hoje, é importante rentabilizar a máxima LTV (Lifetime Value) de cada cliente.
1. CMV (CLIENTES MAIS VALIOSOS) para os quais devemos utilizar uma estratégia de
retenção, trabalhando em programas de reconhecimento e na possibilidade de uso de canais de
comunicação exclusivos recompensando a preferência dos clientes e o volume de negócios por eles
submetido na nossa empresa;
2. CMP (CLIENTES MAIOR POTENCIAL) para os quais é necessário desenvolver esses clientes
através de incentivos. O importante é transformar estes clientes em CMV. Encontrar estratégias
para os “habituar” a trabalhar com os nossos produtos;
4. CLIENTES INTERMÉDIOS mas que são lucrativos, porém sem grande expressão . O potencial
de uma ferramenta de CRM revela-se na esquematização dos diversos dados disponíveis de forma a
criar informação valiosa para utilizar-se em prol da empresa e das suas relações comerciais.
Teremos uma informação com maior qualidade, fundamental para a tomada de decisão e para a
gestão dos clientes. Portanto para uma organização, os benefícios com a implementação de um
CRM passa muito pelo valor que vai criar na empresa. Irá facilitar não só a identificação dos
clientes – criando bases de informações relativas aos clientes de acordo com o seu perfil – como irá
facilitar a segmentação dos mesmos contribuindo para o desenvolvimento dos diversos processos de
fidelização/retenção de clientes.
ETL
MODELAGEM MULTIDIMENSIONAL
Ver Slides
Vale lembrar que o número de planos de execução para uma junção de n tabelas é n!, isto é,
para uma junção de 10 tabelas há 3.628.800 possibilidades. Embora o escalonador do
SGBD possua estratégias para reduzir este número, é um ponto de atenção a considerar. Já
para o caso dos MDDBs, o grau de desnormalização é bem maior, dado o volume de dados
e a agilidade na consolidação de valores quando calculando as agregações.
Nesta seção, com trechos extraídos de (4) e (5), percorremos alguns conceitos importantes
para a modelagem quanto à representação de fatos, dimensões e quanto a chaves. Então
descrevemos vários modelos de dados, sempre do ponto de vista lógico. Portanto, os
modelos que veremos serão sempre relacionais, independentemente do alicerce, relacional
ou em cubos, que pode ser utilizado para o modelo físico.
Inicio da pagina
Alguns Conceitos
Fatos
Ao modelar a(s) tabela(s) de fatos (ou apenas tabela fato), deve-se ter em mente os
seguintes pontos:
Dimensões
Deve haver uma “tabela dimensão” para cada dimensão do modelo, contendo:
Esta é uma dimensão que praticamente todos os sistemas analíticos possuem, dada a
característica de realização de análises em dados históricos. Deveria conter: