SóProvas



Questões de DW - Data Warehouse


ID
5119
Banca
CESGRANRIO
Órgão
EPE
Ano
2007
Provas
Disciplina
Banco de Dados
Assuntos

Existem muitos relatórios para diretores em todos os sistemas de informação transacionais de uma empresa, gerando uma sobrecarga significativa no banco de dados. Assinale a providência indicada para essa situação.

Alternativas
Comentários
  • A - O 'método COCOMO' (ou COnstructive COst MOdel) é um modelo de estimativa do tempo de desenvolvimento de um produto.

    B - Um Data Warehouse (banco multidimensional) importaria os dados dos bancos transacionais,  utilizando algum ETL, e serviria exclusivamente para os relatórios dos diretores, auxiliando nas tomadas de decisões, eliminando as consultas pesadas de relatórios nos bancos transacionais.

    C - Teste de estresse serve para determinar a estabilidade de um sistema

    D - Acredito que independente dos sistemas implementados, o problema está na recuperação dos dados para os relatórios.

    E - Ferramentas CASE (do inglês Computer-Aided Software Engineering) é uma classificação que abrange todas ferramentas baseadas em computadores que auxiliam atividades de engenharia de software, desde análise de requisitos e modelagem até programação e testes. Podem ser consideradas como ferramentas automatizadas que tem como objetivo auxiliar o desenvolvedor de sistemas em uma ou várias etapas do ciclo de desenvolvimento de software.

  • Off-topic: Normalmente o DATA WAREHOUSE, caso a periodicidade dos dados seja diário, de madrugada


ID
5443
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2006
Provas
Disciplina
Banco de Dados
Assuntos

Bases de dados de sistemas de informações gerenciais são projetadas, muitas vezes, em um esquema denominado estrela que:

Alternativas
Comentários
  • O esquema estrela ( star Schema) é uma arquitetura física que permite estrutura multidimensional de dados. É composta por uma tabela central, denominada fato e várias tabelas periféricas relacionadas com ela, denominada dimensão.No esquema estrela uma propriedade de uma dimensão pode ser recuperado unido a tabela fatos com a tabela dimensão relevante. Isso melhora a performance da consulta, porém aumenta o volume de dados.
  • Estrela

    É composta por uma tabela central, denominada de fato, e várias tabelas periféricas a ela relacionadas, denominadas dimensão.

     

    Além disso as dimensões no modelo estrela se encontram desnormalizadas.

     

    GABARITO C


ID
5449
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2006
Provas
Disciplina
Banco de Dados
Assuntos

Sobre o processo de modelagem multidimensional, assinale a afirmação INCORRETA.

Alternativas
Comentários
  • a) Busca-se obter um modelo que possibilite a realização, pelos usuários, de grandes quantidades de operações de atualização recuperação dos dados.

    Na realidade, este tipo de banco de dados é estruturado de tal forma a facilitar a recuperação (leitura) das informações. O principal objetivo destes bancos é o de prover uma estrutura favorável à análise dos dados. Diferentemente de bancos de dados transacionais, bancos multidimensionais são classificados como bancos de dados não-voláteis. Isso, pois as operações de atualização do banco (updates, inserts, deletes, etc) não são feitas on-line.

ID
8257
Banca
ESAF
Órgão
Receita Federal
Ano
2005
Provas
Disciplina
Banco de Dados
Assuntos

Em um Data WareHouse, é correto afirmar que a aquisição da informação

Alternativas
Comentários
  • O que está errado na letra A?"Um Data Warehouse é um conjunto de dados baseado em assuntos, integrado, não volátil, e variável em relação ao tempo, de apoio às decisões gerenciais." William Immon - 1992
  • A letra A está errada pois não é isso que a questão pede. A letra A dá o conceito de data warehouse, e a questão pede sobre a carga de dados no DW.
  • Por que a letra B não está correta? Faz parte da aquisição da informação.
  • O item A é falso pois define o que seria um Datawarehouse.

    O item B é falso pois define um sistema de Datamining.

    O item C é falso pois alude a persistência da informação.

    O item D é falso pois refere-se a ferramentas de OLAP.

    O item E é correto. Segue abaixo um trecho do livro  – Curso de sistemas de telecomunicações: Data Warehouse e Data Mining. BeloHorizonte, Departamento de Ciências da Computação, 2000, de MATEUS, G. R:

    O Data Warehouse tem a seguinte arquitetura:
    aquisição da informação: essa camada é responsável por reunir, refinar, limpar e agregar o dados dos sistemas de produção e, para isso, o dado deve estar correto e deve prover um único significado para facilitar na tomada de decisão;
    armazenamento da informação: essa camada provê o armazém da informação;
    e disponibilização da informação: essa camada é a parte da arquitetura que suportará um conjunto de ferramentasde apresentação e de análise.
  • Questão pede definição de AQUISIÇÃO DE DADOS = CARGA DE DADOS 

    A definição de carga de dados do ETL (Extract-Trasform-Load) se encontra na letra (E)


ID
19153
Banca
FCC
Órgão
TRF - 4ª REGIÃO
Ano
2007
Provas
Disciplina
Banco de Dados
Assuntos

Na formação do modelo multidimensional de um Data Warehouse é usada basicamente uma correlação entre tabelas

Alternativas
Comentários
  • Modelo multidimensional é uma técnica de modelagem conceitual de negócios, que facilita a investigação, o resumo e a organização de dados para a análise de negócios. Formado por relações entre dimensões e fatos.
    O modelo multidimensional relaciona tabelas de fatos com tabelas de dimensões em um banco de dados do tipo OLAP, possibilitando inúmeras combinações.
    Sua modelagem é realizada de forma a ganhar performance nas consultas, possuindo regras diferentes das relacionais em sua modelagem. O modelo multidimensional visa somente consultas analíticas.
  • Um modelo multidimensional possui três componentes básicos:

    Fatos - Um fato é uma coleção de itens de dados, composta de dados de medida e de

    contexto. Representa um item, ou uma transação ou um evento associado ao tema da

    modelagem. Exemplo: uma tupla da relação acima.

    Dimensões – Uma dimensão é um tipo de informação que participa da definição de um

    fato. No exemplo: ação, local, mês. As dimensões determinam o contexto do assunto.

    Normalmente são descritivas ou classificatórias. Em geral, as perguntas “O que?

    Quem? Onde? Quando?” ajudam a identificar as dimensões de um assunto.

    Medidas – Uma medida é um atributo ou variável numérica que representa um fato.

    Exemplos: valor da ação, número de evasões escolares, quantidade de produtos

    vendidos, valor total de venda, etc. 


ID
43615
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2008
Provas
Disciplina
Banco de Dados
Assuntos

Em um banco de dados multidimensional, os dados estão conceitualmente armazenados e organizados em

Alternativas
Comentários
  • Estruturas de dados multidimensional podem apresentar seus dados para uma aplicação usando dois tipos de cubos: Hipercubos e Multicubos. Apesar de utilizar o termo cubo, que dá a impressão de trabalhar com apenas três dimensões, qualquer uma das duas arquiteturas pode trabalhar com diversas dimensões.Para se aprofundar:http://www.batebyte.pr.gov.br/modules/conteudo/conteudo.php?conteudo=1732
  • Apesar das visões dos BDs multidimensionais serem representadas por cubos e hibercubos, o que faz alternativa "B" como correta, discordo dos conceitos de cubo e hipercubo apresenados pelo colega Bruno.

    A visualização do modelo multidimensional pode ser representada:

    Uma visão multidimensional é usualmente representada por um cubo. Adequado à visualização de até 3 dimensões. Análise tridimensional é bastante utilizada. Enquanto que hipercubo é um "cubo" com mais de 3 dimensões.

    Espero ter ajudado!


ID
43678
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2008
Provas
Disciplina
Banco de Dados
Assuntos

A seguir são feitas algumas afirmações a respeito de data warehouses e ferramentas OLAP.

I - Os usuários finais do data warehouse, em geral, não possuem acesso à Data Staging Area.

II - Drill in, drill out, roll over e roll on são típicas operações disponibilizadas pelas ferramentas de consultas OLAP para navegar pela hierarquia de uma dimensão.

III - As rotinas de ETL muitas vezes originam solicitações de mudanças e melhorias nos sistemas OLTP e outras fontes de dados que alimentam o data warehouse, pois têm o potencial de revelar inconsistências entre os diversos sistemas corporativos.

IV- Um data warehouse, em geral, deve ser projetado para fazer junções entre fatos e dimensões através de chaves naturais, evitando chaves substitutas (surrogate keys), pois estas apenas contribuiriam para aumentar o tamanho e a complexidade do esquema sem nenhum benefício para o usuário final.

Estão corretas APENAS as afirmações

Alternativas
Comentários
  • I - Staging Area é o local onde é realizado o processo de ETL (Extração, transformação e Carga), logo, normalmente o usuário não tem acesso.II - Operações: Drill up, Drill Down, Drill Across, Drill Throught, Slice, Cruzamento e Rotação.III - Umas das funções da ETL é remover inconsistência e criar uma nomenclatura comum. Ex: Em um BD usa M para masculino e em outro usa H. Após o processo de ETL só existirá um na Base de Dados AnalíticaIV - Junções por chaves naturais são lentas. O uso de Surrogates Keys aumenta a performance. Respota - I e III
  • I - Os usuários finais do data warehouse, em geral, não possuem acesso à Data Staging Area.


    Esse "em geral" quebrou minhas pernas, porque dá idéia de que em alguma situação específica os usuários possuem acesso, o que não é verdade.  Para mim deveria ser: NUNCA possuem acesso.

    =(
  • I - Usuário final ( Somos eu e vc) Não vamos ter acesso a Data Staging

    - DATA STAGING = Onde acontece a ETL

    - ETL = EXTRAÇÃO, TRANSFORMAÇÃO e CARGA. Ele tem como função a extração dos dados de diversas fontes, transformação dos dados conforme as regras do negócio e a carga dos mesmos dados em um DW.

    II - NÃO EXISTE drill in, rill in, drill out, roll over e roll on 

    Operações OLAP

    - DRILL UP/ROLL UP = Menor Detalhe, Maior Agregação = Maior granularidade, Sobe no detalhe

    - DRILL DOWN = Maior Detalhe, Menor Agregação = Menor Granularidade, Desce no detalhe

    - DRILL ACROSS = Pulo na MESMA DIMENSÃO, executa uma consulta envolvendo mais de uma tabela fato. Essa operação exige que os dois cubos tenham pelo menos uma das dimensões em comum

    - DRILL THROUGHT = Pulo para OUTRA DIMENSÃO, visa acessar as informações em um nível de detalhe que não está disponível no cubo de dados

    - DRILL WITHIN = Passagem de uma classificação para outra classificação diferente dentro da mesma dimensão.

    - PIVOT = Rotação, Visão alternativa, visão alternativa dos dados.

    - SLICE = Seleciona uma única dimensão de um cubo OLAP.

    - DICE = Extrai um SUBCUBO do cubo original extraindo uma operação de seleção em duas ou mais dimensões.

    III - Leia a I

    IV = Recomenda-se o USO de SURROGATE KEYS

    GABARITO B


ID
72073
Banca
CESGRANRIO
Órgão
IBGE
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

O texto a seguir se refere à modelagem de Data Warehouse.

Se na modelagem do Data Warehouse for adotada uma abordagem ________, cada elemento de dados (por exemplo, a venda de um item) será representado em uma relação, chamada tabela de fatos, enquanto que as informações que ajudam a interpretar os valores ao longo de cada dimensão são armazenadas em uma tabela de dimensões, uma para cada dimensão. Esse tipo de esquema de banco de dados é chamado um esquema estrela, em que a tabela de fatos é o centro da estrela e as tabelas de dimensões são os pontos. Quando a abordagem _______ é escolhida, um operador específico que faz a agregação prévia da tabela de fatos ao longo de todos os subconjuntos de dimensões é utilizado e pode aumentar consideravelmente a velocidade com que muitas consultas _______ podem ser respondidas.

Considerando a ordem das lacunas, qual sequência de termos completa corretamente o texto acima?

Alternativas
Comentários
  • a resposta certa e a C.OLAP- e o processamento de transações em tempo real, são sistemas que se encarregam de registrar todas as transações contidas em uma determinada operação organizacional.ROLAP ou OLAP Relacional- oferecem análise multidimenssionais de dados em tabelas relacionais.MOLAP ou OLAP Multidimenssional- e uma classe de sistema que permite a execução de análises bastantes sofisticadas usando como gerenciador de dados um BD multidimencional.Ainda exite o HOLAP que e a junção da MOLAP com o ROLAP, " e hibrido"
  • Na questão as alternativas que fazem referência a OLTP devem ser desconsideradas, uma vez que não tem relação com Data Warehouse. OLTP significa Online Transaction Processing e está relacionado com o contexto de gerência de transações. A primeira lacuna oferece algumas pistas como 'tabelas', 'relações', 'uma tabela por relação..' e 'esquema estrela' que são características do ROLAP.
  • O OLAP é uma interface com o usuário e não uma forma de armazenamento de dados, porém se utiliza do armazenamento para poder apresentar as informações.

    Os métodos de armazenamento são:
    • ROLAP (OLAP Relacional): Os dados são armazenados de forma relacional.
    • MOLAP (OLAP Multidimensional): Os dados são armazenados de forma multidimensional.
    • HOLAP (OLAP Híbrido): Uma combinação dos métodos ROLAP e MOLAP.
    • DOLAP (OLAP Desktop): O conjunto de dados multidimensionais deve ser criado no servidor e transferido para o desktop. Permite portabilidade aos usuários OLAP que não possuem acesso direto ao servidor.

     

     

ID
76840
Banca
CESGRANRIO
Órgão
BACEN
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Um órgão público deseja criar uma base de informações gerenciais sobre operações bancárias de empresas brasileiras. Para isso, um analista de BI (Business Intelligence) desse órgão apresenta as recomendações a seguir.

I - As ferramentas de ETL e OLAP deverão estar, necessariamente, instaladas na mesma máquina do banco de dados de origem.

II - O modelo snowflake exige o uso de chaves artificiais (surrogate keys) para as tabelas que necessitam de histórico.

III - A dimensão Tempo sempre pode ser carregada antecipadamente.

Está(ão) correta(s) APENAS a(s) recomendação(ões)

Alternativas
Comentários
  • A utlização do Surrogate Key, substituto da chave primária - geralmente por um valor numérico auto-incrementado -, é uma maneira de se melhorar a performance das consultas que serão feitas no DW, não se trata de uma exigência como foi colocada na questão.
  • Surrogate keys são chaves criadas internamente na aplicação, que não têm significado no mundo real.

    Abordagens para criação de surrogate keys:

  • II - O uso de surrogate keys podem prejudicar a normalização, portanto não são indicadas no modelo snowflake.
  • "A dimensão Tempo sempre pode ser carregada antecipadamente."

    Acertei, mas alguém pode me ajudar nessa parte????

  • O que são ferramentas ETL e OLap, me ajude com um exemplo simples sobre Snowflake e SurrogateKeys

  • I - As ferramentas de ETL e OLAP não precisam estar na mesma máquina que a origem dos dados está instalado. Aliás, é comum que haja essa separação, pois as ferramentas de BI podem ter requisitos diferentes das ferramentas dos sistemas transacionais. Além disso, o ETL é um processo custoso do ponto de vista de recursos computacionais (processador, memória...), o que pode prejudicar o desempenho dos sistemas transacionais se ficar tudo na mesma máquina. ERRADA

    II - Não existe tal requisito! ERRADA

    III - A dimensão tempo é a dimensão que contém as informações de datas, para que se possa avaliar os dados nas hierarquias como ano - trimestre - mês - dia, dentre outras possibilidades. Como essa dimensão só contém dados a respeito de datas, podemos carregá-la antes mesmo de conhecer os demais dados do modelo, pois é só carregarmos as datas do calendário e seus atributos. CERTA


ID
101389
Banca
FGV
Órgão
SEAD-AP
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Atualmente, Business Intelligence tem crescido em importância, particularmente porque insere em seu cenário os conceitos de DataWarehouse. Neste contexto, quando se fala de aplicações para negócio, lida-se com dois tipos distintos: aplicações que sustentam o negócio e aplicações que analisam o negócio.

As aplicações de apoio à tomada de decisão que analisam o negócio utilizam como fonte de dados os mesmos sistemas de controle, mas têm como preocupação principal a identificação de tendências.

Essas aplicações são conhecidas por:

Alternativas
Comentários
  • OLAP
    O OLAP (Online Analytical Processing - Processamento Analítico Online) fornece aos usuários de negócios o acesso a dados otimizados para profissionais da informação não técnicos, facilitando a navegação, a análise e os relatórios. O mecanismo OLAP da Microsoft,  não só combina seus dados para facilitar a análise como também armazena centralmente sua lógica de negócios institucional e seus KPIs (key performance indicators - indicadores chave de desempenho).
    http://www.microsoft.com/brasil/servidores/bi/bicapabilities/default.aspx
  • OLTP (Online Transaction Processing ou Processamento de Transações em Tempo Real) são sistemas que se encarregam de registrar todas as transações contidas em uma determinada operação organizacional.

    E não OFFLINE conforme diz a questão

ID
101878
Banca
CESPE / CEBRASPE
Órgão
TCU
Ano
2007
Provas
Disciplina
Banco de Dados
Assuntos

Nos sistemas de suporte a decisão (SSD), os dados são coletados
em data warehouses e a análise de dados pode ser realizada por
meio de processamento analítico online (OLAP) e datamining.
Julgue os itens seguintes, sobre SSD, OLAP e datamining.

No data warehouse, o instantâneo (snapshot) disparado por um evento é composto de quatro componentes básicos: uma chave, uma unidade de tempo, dados primários relacionados apenas à chave e dados secundários que não possuem relacionamento direto nem com os dados primários nem com a chave.

Alternativas
Comentários
  • Building the Data Warehouse.
    William H. Inmon.

    "The snapshot placed in the data warehouse normally contains several components. One component is the unit of time that marks the occurrence of the event. Usually (not necessarily always) the unit of time marks the moment of the taking of the snapshot. The next component of the snapshot is the key that identifies the snapshot. The third normal component of a data warehouse snapshot is the primary data that relates to the key. Finally, an optional component of a snapshot is secondary data that has been incidentally captured as of the moment of the taking of the snapshot and placed in the snapshot. As mentioned, sometimes this secondary data is called an artifact of the relationship."

  • Pois é o problema é que o dado secundário é opcional e nem sempre ocorre, dessa forma eu não entendo que seja um componente básico...


ID
101881
Banca
CESPE / CEBRASPE
Órgão
TCU
Ano
2007
Provas
Disciplina
Banco de Dados
Assuntos

Nos sistemas de suporte a decisão (SSD), os dados são coletados
em data warehouses e a análise de dados pode ser realizada por
meio de processamento analítico online (OLAP) e datamining.
Julgue os itens seguintes, sobre SSD, OLAP e datamining.

Assim como no ciclo de vida de desenvolvimento de sistemas clássicos, o ciclo de vida de desenvolvimento do data warehouse é também baseado em requisitos.

Alternativas
Comentários
  • 1.4. Ciclo de vida do desenvolvimento em um DW:
    Pelo fato de que no Ciclo de desenvolvimento de sistemas clássicos, todos o requisitos são conhecidos, a sua implementação em um DW não pode ser efetivada, ou seja, o DW possui um ciclo próprio chamado de CLDS. Este ciclo caracteriza-se por começar pelos dados, procurando integrá-los e testá-los e após partir para a codificação dos programas de interface para os dados, sendo que somente nestas etapas os resultados são analisados pelos usuários e, finalmente, os requisitos dos sistemas são compreendidos.

    Fonte: http://www.coladaweb.com/informatica/data-warehouse
  • Segundo Inmon, realmente não é baseado em requisitos.

    Mas segundo Kinball, é baseado em requisitos sim.

    Duro é saber qual ler para fazer a prova quando o edital não diz a bibliografia utilizada. =(
  • A especificação de requisitos do ambiente de suporte à decisão associado a um data warehouse é fundamentalmente diferente da especificação de requisitos dos sistemas que sustentam os processos usuais do ambiente operacional de uma empresa.

    Os requisitos dos sistemas do ambiente operacional são claramente identificáveis a partir das funções a serem executadas pelo sistema. Requisitos de sistemas de suporte à decisão são, por sua vez, indeterminados. O objetivo por trás de um data warehouse é prover dados com qualidade; os requisitos dependem das necessidades de informação individuais de seus usuários. Ao mesmo tempo, os requisitos dos sistemas do ambiente operacional são relativamente estáveis ao longo do tempo, enquanto que os dos sistemas de suporte à decisão são instáveis.

    Os requisitos para um data warehouse não podem ser conhecidos até que ele esteja parcialmente carregado e já em uso.

    Fonte: http://www.datawarehouses.hpg.com.br/dw_cap5.htm
  • Fases do ciclo de vida do projeto de um data warehouse (Kimball, 1998): planejamento do projeto, definição dos requisitos do negócio, projeto da arquitetura técnica, seleção e instalação de produtos, modelagem dimensional, projeto físico, desenvolvimento do projeto e  data staging, especificação da aplicação do usuário final, implantação e manutenção. 
  • e não é baseado em requisitos? :O

  • a banca tem que cobrar o conteúdo comum, não o que os livros divergem... senão a gente vai ter que ler vários livros pra cada palavrinha do edital, não é possível que a gente tenha que ler vários livros para cada palavrinha do edital... prefiro nem pensar nisso

  • ERRADA

    o ciclo de vida do desenvolvimento do data warehouse é baseado em dados (data-driven).


ID
101884
Banca
CESPE / CEBRASPE
Órgão
TCU
Ano
2007
Provas
Disciplina
Banco de Dados
Assuntos

Nos sistemas de suporte a decisão (SSD), os dados são coletados
em data warehouses e a análise de dados pode ser realizada por
meio de processamento analítico online (OLAP) e datamining.
Julgue os itens seguintes, sobre SSD, OLAP e datamining.

Quanto ao nível de granularidade dos dados do data warehouse, é correto afirmar que quanto maior for o nível de detalhe, mais alto será o nível de granularidade dos dados e maior será a possibilidade de o sistema responder a qualquer consulta.

Alternativas
Comentários
  • Mais detalhe = menor granularidade (grãos menores)Menos detalhes = maior granularidade (grãos maiores)"quanto MENOR for o nível de detalhe, mais alto será o nível de granularidade dos dados"
  •  É só lembrar que Granularidade e nível de detalhe são inversamente proporcionais.

  • A granularidade afeta diretamente no volume de dados armazenados, na velocidade das consultas e no nível de detalhamento das informações do DW. Quanto maior for o detalhamento, maior será a flexibilidade para se obter respostas. Porém, maior será o volume e menor a velocidade das consultas. Já quanto menor for o detalhamento, menor será o volume, maior a sumarização dos dados e melhor será a performance. Entretanto, menor será a abrangência, ou seja, maior será as restrições das consultas às informações.

    fonte: canaltech

  • É só lembrar de um bolo de aniversário... quanto mais granulados em cima (leia-se granulidade) menos detalhes do bolo vc vê hahaha pq ele tá coberto de granulados kkk

  • Quando falamos em menor granularidade, menor grão ou granularidade fina, significa maior detalhamento dos dados. Granularidade e detalhamento são conceitos inversamente proporcionais.

  • Gabarito: ERRADO

    Quando se referir à granularidade de dados, basta lembrar de uma foto digital. Associe o "grão" de granularidade aos "pixels" de uma foto.

    Quanto MAIOR for o nível do zoom que você dá, MENOR será o nível de detalhe/definição do que está sendo visto (a imagem vai ficando "pixelizada", você vê os pixels com mais facilidade)

    Consequentemente, quanto MENOR for o nível do zoom (foto "original"), MAIOR será o nível de detalhe/definição do que está sendo visto (dificuldade maior de ver os pixels).

    Bons estudos!

  • Granularidade: É o nome que se dá ao nível de sumarização dos elementos dos dados de um Data Warehouse. Pode ser:

    • Quanto maior a granularidade: maior será o grão e menor será o nível de detalhes;
    • Quanto menor a granularidade: menor será o grão e maior será o nível de detalhes.

ID
101887
Banca
CESPE / CEBRASPE
Órgão
TCU
Ano
2007
Provas
Disciplina
Banco de Dados
Assuntos

Nos sistemas de suporte a decisão (SSD), os dados são coletados
em data warehouses e a análise de dados pode ser realizada por
meio de processamento analítico online (OLAP) e datamining.
Julgue os itens seguintes, sobre SSD, OLAP e datamining.

No datamining, o agrupamento e a classificação funcionam de maneira similar: o agrupamento reconhece os padrões que descrevem o grupo ao qual um item pertence, examinando os itens existentes; a classificação é aplicada quando nenhum grupo foi ainda definido.

Alternativas
Comentários
  • Os métodos tradicionais de Data Mining são:Classificação: associa ou classi?ca um item a uma ou várias classes categóricas pré-de?nidas.Análise de Agrupamento (Cluster): associa um item a uma ou várias classes categóricas (ou clusters), em que as classes são determinadas pelos dados, DIVERSAMENTE DA CLASSIFICAÇÃO EM QUE AS CLASSES SÃO PRÉ-DEFINIDAS.Sumarização: determina uma descrição compacta para um dado subconjunto. As medidas de posição e variabilidade são exemplos simples de sumarização.Modelos de Relacionamento entre Variáveis: associa um item a uma ou mais variáveis de predição de valores reais, consideradas variáveis independentes ou exploratórias.Modelo de Dependência: descreve dependências signi?cativas entre variáveis. Modelos de dependência existem em dois níveis: estruturado e quantitativo.Regras de Associação: determinam relações entre campos de um banco de dados. A idéia é a derivação de correlações multivariadas que permitam subsidiar as tomadas de decisão.Análise de Séries Temporais: determina características seqüenciais, como dados com dependência no tempo. Seu objetivo é modelar estado do processo extraindo e registrando desvios e tendências no tempo.Referência: http://www.unimep.br/phpg/editora/revistaspdf/rct22art02.pdf
  • "a classificação é aplicada quando nenhum grupo foi ainda definido"
    Na classificação os grupos já estão definidos, já no agrupamento esses grupos são descobertos.
    Agrupamento é um tipo de classificação a qual descobre os grupos e é chamada também de classificação não-supervisionada (conjunto de treinamento não possui rótulos).
    Na classificação, chamada também de classificação supervisionada, o conjunto de treinamento possui classes. Esse conjunto de treinamento é utilizado para gerar um modelo o qual avaliará novos dados, rotulando-os.
  • O conceito esta invertido.

    Bons estudos!!!
  • Primeiro eu classifico p depois separar em grupos.

  • ERRADO. Conceitos invertidos!!!!

     

    Na classificação você estabelece um modelo com base nos seus dados já classificados para classificar aqueles que ainda não foram (preditiva - supervisionada).

     

    No agrupamento há apenas a separação de dados constantes no seu banco (descritivo - não supervisionada). O objetivo não é classificar novas informações!!!

  • No datamining, o agrupamento e a classificação funcionam de maneira similar: a classificação reconhece os padrões que descrevem o grupo ao qual um item pertence, examinando os itens existentes; o agrupamento é aplicada quando nenhum grupo foi ainda definido

  • ERRADO

    Agrupamento (CLAUSTERING): não supervisionado.

    Os dados se ligam por semelhança, aproximação. Busca-se descobrir diferentes agrupamentos de dados com registros similares entre si e diferentes dos outros registros.

    àClassificação: supervisionado.

    Suporte / Prevalência: Trata-se da frequência com que um conjunto de itens específico ocorre no banco de dados, isto é, o percentual de transações que contém todos os itens em um conjunto (Ex: 50% das compras realizadas em um mercado contém arroz e refrigerante).

    Confiança / Força: Trata-se da probabilidade de que exista uma relação entre itens (Ex: 70% dos clientes que compram fraldas também compram cerveja).

  • [1] [2] É EXATAMENTE O QUE ELE DISSE, SÓ QUE TUDO AO CONTRÁRIO.

    FONTE:

    [1] CONCURSEIRO QUASE NADA

    [2] KIKO

  • Classificação: você recebe classes pré-definidas e a partir delas continua o aprendizado, de maneira supervisionada, informando tipos e critérios para se construir algumas "subclasses".

    Agrupamento/Aglomeração: você recebe dados brutos e sem qualquer classificação anterior. Nisso, os dados que se ligam por semelhança e aproximação, definidos pelo algoritmo de mineração, são separados em grupos (clusters).

  • Conceitos invertidos sobre clusterização e classificação

  • (destrinchando a questão p/ melhor compreensão/revisão)

    No datamining, o agrupamento e a classificação funcionam de maneira similar:

    o agrupamento reconhece os padrões que descrevem o grupo ao qual um item pertence, examinando os itens existentes (CERTO);

    o objetivo não é classificar , estimar ou predizer o valor de uma variável, ela apenas identifica (descreve) os grupos de dados similares, não necessitando que os registros sejam previamente categorizados (aprendizado não-supervisionado).

    a classificação é aplicada quando nenhum grupo foi ainda definido. (ERRADO).

    os parâmetros são pré-estabelecidos na classificação (grupos pré-definidos c/ posterior classificação supervisionada em classes/categorias .

    AVANTE


ID
101890
Banca
CESPE / CEBRASPE
Órgão
TCU
Ano
2007
Provas
Disciplina
Banco de Dados
Assuntos

Nos sistemas de suporte a decisão (SSD), os dados são coletados
em data warehouses e a análise de dados pode ser realizada por
meio de processamento analítico online (OLAP) e datamining.
Julgue os itens seguintes, sobre SSD, OLAP e datamining.

O processamento OLAP é mais flexível do que aquele que ocorre no nível estruturado organizacional do data warehouse.

Alternativas
Comentários
  • É justamente o contrário:
    ROLAP
    Vant: Escalável. Desvant: LENTIDÃO
    *Multidimencionais - Cubo de dimensões Ex:. MOLAP
    Vant: Alta performance, faz calculos complexos. Desvant: CARO

  • O que ele quiz dizer com nível estruturado organizacional do data warehouse?
    A característica do OLAP é justamente a flexibilidade, por iss marquei certo, mas na vera talvez tivesse deixado em branco.
  • Parece que o CESPE pegou a questão desse trabalho da UFSC, ou ambos buscaram em uma fonte que não encontrei.

    "Algumas características do nível OLAP de dados são: 

    - Tamanho reduzido: Em comparação ao nível de dados estruturados organizacionalmente, há muito menos dados residindo em OLAP. 

    - Flexibilidade: O processamento OLAP é muito mais flexível do que  aquele que ocorre no nível estruturado organizacional do processamento do Data Warehouse. 

    - Histórico Limitado: O ambiente OLAP raramente contém tantos dados históricos no mesmo nível de detalhe quanto os mantidos no nível  estruturado organizacional do Data Warehouse. 

    - Personalização: O ambiente OLAP é personalizado por departamento  a fim de se adequar às necessidades especiais da função de negócios  que o detém e gerencia."

    Referência: https://repositorio.ufsc.br/bitstream/handle/123456789/83369/188542.pdf?sequence=1.

    Bons estudos!

  • Creio que quando a banca diz "do que aquele que ocorre no nível estruturado organizacional do data warehouse." esteja se referindo ao processo ETL, que é um processo mais complicado, complexo e menos flexível. Alguém poderia tirar essa dúvida?

  • Me parece que a expressão "nível estruturado organizacional do data warehouse" não faz muito sentido.

    Tenho impressão que a frase foi retirada de algum artigo em inglês, mal traduzido para o português. Para saber o que realmente quiseram dizer com isso, só tendo acesso ao original em inglês. O Sérgio postou abaixo a possível fonte consultada. Já vi alguns artigos acadêmicos, assim como traduções de livros técnicos, com problemas sérios de tradução.

    Concordaria se afirmassem que o processamento OLAP é mais flexível em relação ao processamento dos dados estruturados nos bancos de dados transacionais corporativos (e não do próprio Data Warehouse como disse a questão).

    Em todo caso, o gabarito da banca é "CERTO", do qual discordo.

  • nível estruturado organizacional do data warehouse, MENCIONOU O DATA MINING

    “OLAP é uma ferramenta de consulta em bases de dados analíticas, ele visa extrair informações por meio de queries e utilizando as operações sobre os cubos de dados, mas não aplicam algoritmos específicos neste processo. Data Mining é bem mais complexo que OLAP, ele busca padrões em grandes volumes de dados por meio de técnicas estatísticas e de algoritmos de inteligência artificial, por exemplo.”

    Visão multidimensional

    Relatórios flexíveis

    Geralmente não permite modificação dos dados, só análise.

    Comum uso em ERP, CRM, Sistemas contábeis e Data Warehouses.

    FONTE: meu resumo.


ID
118843
Banca
FCC
Órgão
TRT - 20ª REGIÃO (SE)
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

São modelos fortemente associados à estrutura de um banco de dados multidimensional:

Alternativas
Comentários
  • Resposta Correta Letra "C"
    Devido:
    Modelo Estrela = Starchema ( Todas as dimensões relacionan-se diretamente com o fato)
    Modelo Flocos de Neve = Snowflake ( Visa Normalizar o banco, esse modelo fica mais complicado analista entender (Dimensões Auxiliares)
  • STAR SCHEMA (Esquema estrela)

    Abordagem que não recomenda a normalização das tabelas dimensão.

    Mais recomendável e tem maior desempenho;

    É a estrutura básica de um modelo de dados multidimensional.

    Possui uma grande entidade central denominada fato.

    Possui relacionamento 1:N (uma para muitos) o sentido da dimensão para o fato.

    SNOWFLAKE SCHEMA (Esquema de flocos de neve) 

    Abordagem que recomenda a normalização das tabelas dimensão.

    Possui dimensões normalizadas;

    É mais lento devido a normalização.

    É o resultado da decomposição de uma ou mais dimensões que possuem hierarquias entre seus membros.

    Cada dimensão se divide em várias outras subdimensões.

    Alternativa: C


ID
121702
Banca
CESPE / CEBRASPE
Órgão
Banco da Amazônia
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Além das ferramentas para gerenciamento de banco de dados,
várias outras ferramentas de software atuam como front ends para
gerenciadores de bancos de dados, como geradores de relatórios,
geradores de consultas, geradores de formulários de entrada de
dados, ferramentas de modelagem e de dicionário de dados, de
engenharia reversa, de data warehousing, de benchmarking, de
auditoria, de recuperação de dados, entre outras. Considerando os
conceitos relacionados a essas ferramentas, julgue os itens
seguintes.

Ferramentas de benchmarking que empreguem métricas do TPC (transaction processing council) voltadas apenas para o teste de características de desempenho de transações ACID não são adequadas para o benchmarking de data warehouses.

Alternativas
Comentários
  •  Se um data warehouse está utilizando uma abordagem multidimensional e utilizarmos essa ferramenta de benchmarking que é específica para medir desempenho de transações não adiantaria nada.

  • O foco de um banco OLAP para datawarehouse é em consultas, diferente dos bancos OLTP com foco em transações. Portanto uma ferramenta para medir transações em um banco OLAP não terá grande valia.
  • gab.: CERTO.

    COMPLEMENTANDO:

    OLAP: multidimensional, sumarizado, dados históricos, múltiplos registros simultâneos, orientado ao negócio.

    OLTP: relacional, individualizado (poucos dados), dados presentes - dados próximos, poucos registros simultâneos, orientado ao processo.


ID
130135
Banca
CESPE / CEBRASPE
Órgão
SERPRO
Ano
2008
Provas
Disciplina
Banco de Dados
Assuntos

No que concerne a tópicos avançados, julgue os itens
subseqüentes.

Software de inteligência empresarial, como mineração de dados, CRM e datawharehouse, por exemplo, aplicam métodos de inteligência artificial e robótica avançados para a representação e extração da informação em grandes bases de dados.

Alternativas
Comentários
  • Esta questão é específica para quem é da área de Informática, não deveria estar no tópico NOÇOES DE INFO
  • Errado

    O BI (Business Intelligence) Inteligência de Negócio ou Empresarial, consiste de uma vasta categoria de tecnologias e programas utilizados para extrair, armazenar, analisar e transformar grandes volumes de dados, produzindo um ambiente de conhecimento, onde há produção sistemática de informação gerencial, veloz e consistente, capaz de auxiliar empresas a tomarem as melhores decisões nos negócios, baseado em fatos reais, com profundidade suficiente para se descobrir as causas de uma tendência ou de um problema.

    Estes dados utilizados pelo BI são, geralmente, armazenados em um banco de dados próprio, extraído da base corporativa, e preparados para análises. Este banco de dados próprio é chamado de Data Warehouse.

    Utiliza-se SIM métodos de inteligência artificial, mas não de robótica avançada.

  • Robótica avançada "forçou a amizade"....
  • O erro dessa questão é tratar MINERAÇÃO DE DADOS como um software apenas. MINERAÇÃO DE DADOS é mais do que um software: é o processo de análise de conjuntos de dados que tem por objetivo a descoberta de padrões interessantes e que possam representar informações úteis.
  • penso também que generalizar CRM apurada por meio de inteligência artificial pode ter contribuído para a questão ser errada.

  • ROBÓTICA????? POR QUE MEUS DEUS, POR QUÊ????? (E o pior é descobrir que 45% das pessoas erraram essa questão ¬¬)

  • Resolvi "com o canto do olho" e acabei errando. Mas acho que chamar mineração de dados como software não invalida a questão, apesar de não ser o termo técnico correto, acho difícil fazer mineração sem algum software.  No livro do Silberschatz é citado que existe um componente manual para a mineração de dados, que consiste no pré-processamento dos dados para um formato aceitável aos algoritmos no pós-processamento de padrões descobertos para encontrar outros que poderiam ser úteis.  
    Acho que o que pegou mesmo foi a parte da robótica. 

    Se formos puristas demais, poderíamos marcar errado até pela palavra "Data warehouse" com grafia incorreta.
  • Parei de ler no CRM.

  • Questão complicada para análise.

    Sobre a questão do CRM, fiquei em dúvida, mas assim como o BPM e ERP, fazem parte da tecnologias do BI.

    Há uma forte tendência de que os produtos que compõem o sistema de BI de uma empresa passem, isoladamente, a prover funções extras que auxiliem na tomada de decisões. Por exemplo, todos os sistemas que funcionam numa perspectiva de organização da informação. Sendo assim temos:

    ERP – Enterprise Resource Planning (Sistema Integrado de Gestão Empresarial);

    CRM – Customer Relationship Management (Gestão de Relacionamento com o Cliente).

    BPM – Business Process Management (Gestão de Processos de Negócio)

    A globalização e a evolução da  têm mudado radicalmente a forma como as empresas e os seus consumidores se relacionam. Os consumidores têm um leque de opções de produtos e serviços que há alguns anos não era possível.

    Fonte:https://pt.wikipedia.org/wiki/Intelig%C3%AAncia_empresarial

    Outro argumento referente a tecnologia de CRM já possuir Inteligência Artificial e assim, estar enquadrado como Software de inteligência empresarial:

    Imagine se os aplicativos de negócios pudessem se beneficiar da IA sem nenhum esforço, recurso ou estrutura adicional? Esta é a essência do Salesforce Einstein: Inteligência Artificial incorporada na Plataforma da Salesforce. Com o Einstein, o CRM número 1 do mundo agora também será o CRM mais inteligente do mundo.

    Comentário do Produto Salesforce.

    Fonte: https://www.salesforce.com/br/products/einstein/overview/

  • inteligência artificial: sim

    robótica: não

    ERRADO!

    SE VC ERROU POR CAUSA DA ROBÓTICA, CLICA NO GOSTEI!

  • Os softwares de CRM, e data warehouse PODEM utilizar inteligência artificial. Mas não é necessário. De toda forma, a questão está errada pois esses softwares não usam robótica. Mineração de dados, por sua vez, não é um software, mas um processo para explorar grandes quantidades de dados à procura de padrões consistentes. 

  • galera, um outro erro da questao poderia ser qnd afirma que data mining refere-se à extração de informação em grandes bases de dados ? quando na verdade o que ocorre é EXTRAÇÃO DE DADOS ...

  • Os processos de inteligência empresarial (Business intelligence), como mineração de dados e CRM (Customer Relationship Management), bem como o datawharehouse aplicam métodos de inteligência artificial para a representação e extração da informação em grandes bases de dados.

  • Gabarito: Errado.

    Mineração de dados não é um software. É uma técnica que faz parte do KDD (Knowlege Discovery in Databases).

    Bons estudos!


ID
136207
Banca
ESAF
Órgão
MPOG
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Um ambiente Datawarehouse

Alternativas
Comentários
  • e) é uma coleção de dados não-voláteis, invariantes variante em termos temporais, integrados e orientados a um assunto, utilizados no suporte a decisões gerenciais.
  • D. H. Inmon: “Data Warehouse é uma coleção de dados orientados por assuntos, integrados, variáveis com o tempo e não voláteis.
    Invariantes em termos temporais? Só para a ESAF!
  • As duas definições mais aceitas de DW:

    “A data warehouse is a subject-oriented, integrated, nonvolatile, and time-variant collection of data in support of management’s decisions.”— W.H. Inmon

    An enterprise-structured repository of subject-oriented, time-variant, historical data used for information retrieval and decision support. The data warehouse stores atomic and summary data.”— Oracle’s definition of a data warehouse.

    Passível de anulação.
  • Concordo com o Tiago, a questão ficou incorreta pelo termo INVARIANTE. Pois um DW VARIA com o passar do tempo.

    Suas características:

    - Conjunto de Dados Não Volátil,
    - Organizado por Assuntos,
    - Integrado,
    - Varia com Passar do Tempo,
    - Suporte para Processo de Tomada de Decisão da Empresa 
  • O trecho  "invariantes em termos temporais" da assertiva E invalida a questão.
  • Outro problema: "orientados a um assunto" não é o mesmo que "orientados por assuntos". "Um assunto" lembra mais um Datamart.
  • As vezes acho que esses caras das bancas não estudam fontes confiáveis! Não é possível: " Segundo W.H.Inmon todos os dados no DW são precisos em algum instante no tempo, como eles podem estar corretos somente em um determinado momento, é dito que esses dados "variam com o tempo." Ou seja, os dados de um DW são variante ao longo do tempo (termos temporais).

    A "E" está errada!

  • Desconsiderem essa questão. Completamente absurda.


ID
142192
Banca
CESGRANRIO
Órgão
BNDES
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Considere as proposições abaixo, a respeito de Bancos de Dados.

I - Uma das técnicas para armazenamento de dados dimensionais é a organização de tabelas, segundo o Esquema Estrela. Em bases de dados, que atendem a esse esquema, podem-se encontrar tabelas que não atendam à Terceira Forma Normal.
II - Bases de dados de apoio à tomada de decisão armazenam grande quantidade de dados. Por isso, não é recomendável a criação de índices em tais bases de dados.
III - Em gerenciadores de bancos de dados multidimensionais podem ser encontrados operadores que permitem percorrer hierarquias existentes. Dentre tais operadores estão o de Drill Down e o de Drill Up.
IV - O procedimento de Extração, Transformação e Carga (também conhecido por ETL) é um dos processos realizados em ambientes de depósitos de dados (data warehouse). Nesse contexto, a Extração se refere à tarefa de retirada de dados do data warehouse (visando a reduzir os dados antigos); a Transformação se refere ao processo de compactação de dados, e a Carga se refere à tarefa de inclusão de novos dados no data warehouse.
V - Uma das características de bases de dados de apoio à tomada de decisão é a necessidade de armazenarem dados que refletem sempre a situação atual do assunto que representam. Nesse tipo de base de dados, quaisquer informações que não sejam atuais podem ser descartadas, pois não auxiliam em uma boa tomada de decisão.

Estão corretas APENAS as afirmativas

Alternativas
Comentários
  •   I - Uma das técnicas para armazenamento de dados dimensionais é a organização de tabelas, segundo o Esquema Estrela. Em bases de dados, que atendem a esse esquema, podem-se encontrar tabelas que não atendam à Terceira Forma Normal.

    - Correto

    II - Bases de dados de apoio à tomada de decisão armazenam grande quantidade de dados. Por isso, não é recomendável a criação de índices em tais bases de dados.
    - A criação de índices seria uma melhoria dada a quantidade muito grande de dados

    III - Em gerenciadores de bancos de dados multidimensionais podem ser encontrados operadores que permitem percorrer hierarquias existentes. Dentre tais operadores estão o de Drill Down e o de Drill Up.
    - Correto, Drill Up também é conhecido como Roll Up

    IV - O procedimento de Extração, Transformação e Carga (também conhecido por ETL) é um dos processos realizados em ambientes de depósitos de dados (data warehouse). Nesse contexto, a Extração se refere à tarefa de retirada de dados do data warehouse (visando a reduzir os dados antigos); a Transformação se refere ao processo de compactação de dados, e a Carga se refere à tarefa de inclusão de novos dados no data warehouse.
    - O conceito de ETL está associado a criação de um data warehouse. A extração é feita em diversas bases, logo após a transformação irá padronizar os dados que por último serão carregados no data warehouse.

    V - Uma das características de bases de dados de apoio à tomada de decisão é a necessidade de armazenarem dados que refletem sempre a situação atual do assunto que representam. Nesse tipo de base de dados, quaisquer informações que não sejam atuais podem ser descartadas, pois não auxiliam em uma boa tomada de decisão.
    - Bases de dados que estão relacionada a tomada de decisão estão diretamente relacionadas com dados históricos e não com dados extremamente atuais, pois para uma boa tomada de decisão é preciso principalmente de dados que mostrem como a organização se comportou durante um determinado tempo.


ID
144634
Banca
CESPE / CEBRASPE
Órgão
SECONT-ES
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens a seguir, a respeito de sistemas de suporte a
decisão.

Data Warehouse é uma coleção de dados orientados ao assunto, que tem como características visão conceitual multidimensional, operações interdimensionais irrestritas, dimensões e níveis de agregação ilimitados, sendo que os dados são não voláteis e variantes no tempo.

Alternativas
Comentários
  • item correto

    Propriedades básicas de um DW: orientados por assunto, visão e uso de modelagem multidimensional, dados não voláteis - dados não sofrem modificação - e são variantes no tempo - vários snapshots dos bancos OLTPS são armazenados no DW ao longo do tempo, criando os dados históricos.

  • "operações interdimensionais irrestritas, dimensões e níveis de agregação ilimitados"

    Isso está correto? Achei que não.

  • Segundo Elmasri e Navathe os DW têm as seguintes características distintas

    • o conceitual multidimensional
    • dimensionalidade genérica
    • dimensões e níveis e agregação ilimitados
    • operações interdimensionais irrestritas
    • manipulação de matriz esparsa dinâmica
    • arquitetura cliente-servidor
    • suporte a multi usuário
    • acessibilidade
    • transparência
    • manipulação de dados intuitiva
    • desempenho consistente de relatório
    • flexibilidade de relatórios

    Portanto está correta essa parte. A grande questão é quando ele fala que NÂO são voláteis e variantes, pois no DW podemos efetuar o purging(eliminação) e o refreshing(atualização).

     

    Portanto a resposta certa é ERRADO

  • Concordo com a resposta do Hugo Barros, exceto no final: acredito que a questão quis dizer como não-volátil o fato de os dados não se extiguem espontaneamente, em outras palavras é necessário um comando expresso do DBA para apagá-los; acredito que variante no tempo a questão quis dizer que são armazenados registros dos dados periodicamente, em oposição ao BD operacional, que somente salva os dados atuais, correntes (invariante no tempo).

    Mas concordo que a questão fez certa confusão com esses termos.

  • "são não voláteis" quer dizer que a informação muda muito menos frequentemente quanto nos BDs tradicionais. Tem isso no Elmasri.
    Por isso discordo do Hugo, pois a afirmação não voláteis não diz que Não muda, mas que muda pouco.



    Bons Estudos.
  • "dimensoes e níveis de agregação ilimitados"..... acho que forçou a barra fooorte

  • Em Elmasri e Navathe, 4ª Edição, em portugês:

    1) Na página 647 é citada a definição de Inmom para DW: "coleção de dados orientada por assunto, integrada, NÃO-VOLÁTIL, variante no tempo, que dá apoio a decisões da administração"

    2) Na página 648 são descritas as características do DW. Entre outras:

    Dimensões e níveis de agregação ILIMITADOS

    - Operações interdimensionais IRRESTRITAS 

  • ótimo comentário do Edson

  • O pega da questão está no português:


    "...os dados são não voláteis e variantes no tempo."


    Não dá para saber facilmente se o "não" refere-se apenas a "voláteis" ou também a "variantes no tempo".

  • DATA WAREHOUSE

    – Análise de série temporal e tendência

    Não volátil (Não de temporal, significa que ele é pouco atualizável, geralmente não em tempo real)

    Informações menos detalhadas

    Política de atualização → Geralmente INCREMENTAL

    *Feita pelo componente de aquisição do armazém.

    – Visão conceitual multidimensional

    Dimensionalidade genérica

    – Dimensões e níveis de agregações ilimitados

    Operações irrestritas entre dimensões

    – Tratamento dinâmico de matriz esparsa

    São maiores que o BD de origem

    Fonte: Elmasri Navathe

  • quando falamos de um armazém de dados que contém

    apenas um tipo de assunto, estamos falando dos Data Marts (DM). Enquanto armazéns

    de dados são, geralmente, de escopo geral da empresa.

  • Jesus trouxe a explicação do Profeta Navathe. Só digo amém e obrigado.
  • Certo

    Há características OLAP, ferramenta usada para um Data Warehouse segundo Codd. Descrito por E. F. Codd, em 1992, o termo OLAP possui 12 (doze) regras utilizadas para avaliar ferramentas ou produtos OLAP.

    Essas doze regras são:

    Conceito de visão multidimensional;

    -> Transparência;

    -> Acessibilidade;

    -> Performance consistente de relatório;

    -> Arquitetura cliente/servidor;

    -> Dimensionamento genérico;

    -> Tratamento dinâmico de matrizes esparsas;

    -> Suporte a multiusuários;

    -> Operações de cruzamento dimensional irrestritas;

    -> Manipulação de dados intuitiva;

    -> Relatórios flexíveis;

    -> Níveis de dimensões e agregações ilimitados.

    E segundo Date,

    Data Warehouse é um deposito de dados orientado por assunto, integrado, não volátil, variável com o tempo, para apoiar as decisões gerenciais.

  • Data Warehouse é uma coleção de dados orientados por assunto? Sim, conforme afirma Bill Inmon.

    Ele tem como característica visão conceitual multidimensional? Sim, Data Warehouse utiliza uma modelagem multidimensional e, não, modelo entidade-relacionamento.

    Realiza operações interdimensionais irrestritas? Sim, há infinitas possibilidades.

    Dimensões e níveis de agregação são ilimitados? Sim, você possui diversos níveis de granularidade.

    Por fim, os dados são não-voláteis e variantes no tempo, conforme afirma Bill Inmon. 

  • Ilimitado não significa infinito. Significa apenas que não tem limite definido, nada mais, nada menos.

  • Data Warehouse é uma coleção de dados orientados por assunto? Sim, conforme afirma Bill Inmon.

    Ele tem como característica visão conceitual multidimensional? Sim, Data Warehouse utiliza uma

    modelagem multidimensional e, não, modelo entidade-relacionamento.

    Realiza operações interdimensionais irrestritas? Sim, há infinitas possibilidades.

    Dimensões e níveis de agregação são ilimitados? Sim, você possui diversos níveis de granularidade.

    Por fim, os dados são não-voláteis e variantes no tempo, conforme afirma Bill Inmon.

  • Conforme afirma Bill Inmon, um Data Warehouse é uma coleção de dados orientados por assunto, integrados, variáveis com o tempo e não-voláteis, para dar suporte ao processo de tomada de decisão. 

    GABARITO: CORRETO.

  • PDF ESTRATÉGIA: CERTO.

    Data Warehouse é uma coleção de dados orientados por assunto? Sim, conforme afirma Bill Inmon.

    Ele tem como característica visão conceitual multidimensional? Sim, DW utiliza uma modelagem multidimensional e, não, modelo entidade-relacionamento.

    Realiza operações interdimensionais irrestritas? Sim, há infinitas possibilidades.

    Dimensões e níveis de agregação são ilimitados? Sim, você possui diversos níveis de granularidade.

    Por fim, os dados são não-voláteis e variantes no tempo, conforme afirma Bill Inmon. 

  • GABARITO CORRETO!

    .

    .

    COMPLEMENTANDO:

    Para melhor manter o controle sobre identificadores de registro de ambientes de data warehouse (armazém de dados), em geral recomenda-se a geração de chaves substitutas (surrogate keys). Assim, cada junção entre as tabelas de dimensão e tabelas fato em um ambiente de data warehouse deve se basear nessas chaves substitutas, e não nas chaves naturais existentes.

  • DATA WAREHOUSE

    • É um conjunto de dados (celeiro) orientado para o assunto, constituído de dados históricos formados desde o início da empresa;
    • Integrado;
    • Variante ao tempo;
    • Operações interdimensionais irrestritas;
    • Dimensões e níveis de agregação ilimitados
    • Utilizado no apoio de decisões gerenciais.
    • É uma estrutura que não depende do Banco de Dados (funciona a parte);
    • Não se modifica constantemente (não volátil).

  • DW - HINO

    Histórico (variável ao longo do tempo - BD transacional pode conter o endereço + recente de um cliente, enquanto um DW pode conter todos os endereços associados a um cliente)

    Integrado

    Não volátil

    Orientado pro ASSUNTO

    Estratégia


ID
144958
Banca
CESPE / CEBRASPE
Órgão
INMETRO
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Quanto aos tópicos avançados em tecnologia da informação, julgue os itens a seguir.

Entre as operações típicas realizadas em uma organização que adota a abordagem de business intelligence, destaca-se o uso de mineração de dados e a construção de datawarehouses, ambas empregrando bancos de dados relacionais com elevado grau de normalização.

Alternativas
Comentários
  • menor grau de normalização;
  • Complementando:

    Além de possuir menor normalização. Não é apenas em banco de dados relacionais, mas pode ser em multidimensionais :)
  • DW é marcado por guardar um grande volume de dados e por ser um instrumento de tomada de decisões de alto desempenho. Nesse contexto,  um alto grau de normalização demandaria muitos joins entre tabelas, resultando em consultas complexas e onerosas do ponto de vista temporal. Desta forma, é mais viável gerar modelos de DW com baixo de grau de normalização.

  • Na verdade, as informações em um DW são altamente desnomalizadas, para facilitar a realização de consultas as mais variadas possíveis.

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: ERRADO

     

    datawarehouses "apenas armazena tudo de sem organizar/normalizar nada";

     

    o erro esta em ...empregrando bancos de dados relacionais com elevado grau de normalização

  • Cuidado galera, não é apenas o DW que possui baixo grau de normalização não....
    Ambas empregam - em geral - bancos de dados multidimensionais com baixo grau de normalização (alta redundância de dados).

  • Opa! Ambas empregam – em geral – bancos de dados multidimensionais com baixo grau de normalização (alta redundância de dados). 

  • Possuem um baixo grau de normalização.

  • NORMALIZAÇÃO = controle de redundância = repetição de informações.

  • APENAS PRA COMPLEMENTAR O COMENTÁRIO DO CHRISTIANO ROÇADOR.

    OUTRAS FORMAS DE REDUZIR A QUANTIDADE DE JOINS ENTRE AS TABELAS, SERIA A UTILIZAÇÃO DA ÁLGEBRA RELACIONAL.

    LECIONA NAVATHE, 6ª EDIÇÃO, PÁGINA 424:

    Uma das principais regras heurísticas é aplicar as operações SELECT e PROJECT antes de aplicar o JOIN ou outras operações binárias. Isso se deve ao tamanho do arquivo resultante de uma operação binária — tal como o JOIN —, que geralmente é uma função multiplicativa dos tamanhos dos arquivos de entrada. As operações SELECT e PROJECT reduzem o tamanho de um arquivo e, por isso, devem ser aplicadas antes de uma junção ou outra operação binária.

  • Gabarito: E

    Data warehouse

    • Dados desnormalizados (diferentemente dos BD relacionais)
    • Histórico
    • Não volátil
    • É um armazém de dados (dados estruturados, semiestruturados e não-estruturados)
    • Para consulta de dados
    • Orientando a assuntos
    • Integrado

    Data minig

    • Técnica utiliza para mineração de dados de um BD ou DW... (pode ser de outros)
    • Busca informações úteis
    • Informações novas (e não históricas, liga-te, macho)
    • Técnicas preditivas, descritivas, prescritivas e diagnósticas
  • DATA WAREHOUSE E NORMALIZAÇÃO. SE JOGAR NO WORD, DÁ ERRO DE SINTAXE.

  • Em 17/03/21 às 14:31, você respondeu a opção C.

    Em 13/04/21 às 08:16, você respondeu a opção E.

    Há um mês, olhava para uma questão dessa e tremia na base.

    Hoje, virou brincadeira de criança.

    Deus recompensa quem se esforça.

  • Ambas empregam – em geral – bancos de dados multidimensionais com baixo grau de

    normalização (alta redundância de dados).

  • e-

    Data warehouses often use denormalized or partially denormalized schemas (such as a star schema) to optimize query performance. OLTP systems often use fully normalized schemas to optimize update/insert/delete performance, and to guarantee data consistency.

    https://docs.oracle.com/cd/B10500_01/server.920/a96520/concept.htm


ID
147370
Banca
FCC
Órgão
SEFAZ-SP
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Se uma empresa de grande porte, com alto volume de transações e informações, resolver iniciar um projeto usando o conceito de Data Mart (DM) em vez de Data Warehouse (DW), independentemente disso ser ou não a melhor opção, os fatores que a levam a tal decisão podem ser justificados por:

I. Possibilidade de extrair e preparar os dados diretamente de fontes de interesse específicas, fornecendo acesso mais rápido pela não necessidade de sincronia com dados de outras fontes.
II. Menor risco quanto ao sucesso do projeto.
III. Necessidade imediata de informações organizacionais integradas.

Está correto o que consta em

Alternativas
Comentários
  • I. Possibilidade de extrair e preparar os dados diretamente de fontes de interesse específicas, fornecendo acesso mais rápido pela não necessidade de sincronia com dados de outras fontes.  - Quando falamos de fontes específicas de interesse não tratamos de data warehouses(DW), pois estes são genéricos e abrangem a organização como um todo e não uma entidade específica de acordo com seu interesse.   II. Menor risco quanto ao sucesso do projeto.   - Os data marts(DM) em si são uma solução menos onerosa que os DW, pois não precisa dar suporte para a organização como um todo, mas apenas um setor desta.   III. Necessidade imediata de informações organizacionais integradas. - Este conceito se aplica a DW, os DM não precisam tratar informações organizacionais integradas, mas apenas pequenas partes da organização.

     

  • A abordagem descrita no enunciado é a opção pela implementação bottom-up, ou seja, da criação inicial de datamarts independentes para então criar o datawarehouse. 

    I. Possibilidade de extrair e preparar os dados diretamente de fontes de interesse específicas (1), fornecendo acesso mais rápido pela não necessidade de sincronia com dados de outras fontes (2).

    (1) - Com a criação de datamarts setoriais a informação pode ser extraida diretamente desse datamarts.
    (2) - Com um datawarehouse toda a informação pessa pelo processo de ETL e é armazenada em um BD, portanto nesse caso de um datamart independente a informação não precisa ser tratada, ela pode ser obtida diretamente de um datamart.


    II. Menor risco quanto ao sucesso do projeto. 

    O projeto de implantação top-down que é a criação de um datawarehouse (antes dos datamarts) é um projeto longo que em média varia de 15 meses para mais exigindo alto grau de ivestimento e apoio politíco para o sucesso do projeto . Os resultado desse projeto não são inicialmente perceptiveis para o usuário como no caso da criação de um datamart em que o processo de criação é mais rápido.
    Com essas infromações pode-se presumir que o risco nessa abordagem é menor.

    III. Necessidade imediata de informações organizacionais integradas.
    Nessa abordagem as informações não estão integradas, elas são datamarts independentes que vão resultar em um datawarehouse integrado.

ID
150373
Banca
FCC
Órgão
TJ-PA
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

As principais distinções entre um data mart e um data warehouse são as de que um data mart é

Alternativas
Comentários
  •  Os Data Marts são construídos para responder prováveis perguntas de um tipo específico de usuário (especializado) e com o decorrer do tempo é necessário responder a outras perguntas (volátil).

  • Essa questão foi discutida aqui: http://br.groups.yahoo.com/group/timasters/message/15081

    A conclusão é que o Datamart é volátil pois o autor Date o considerou desta forma:

    "O Date realmente considera o Data mart é volátil
    Pg 603 " ...um data mart é especializado e volátil...". E ainda grifou para
    destacar."

    "Por especializado entende-se que o datamart (ferramenta OLTP) possui uma
    estrutura baseada em um ambiente, tema, situação, área, setor ou aplicação
    específica, enquanto o DW (ferramenta OLAP) se baseia em várias fontes de
    diversas aplicações, fontes e situações para facilitar um suporte a decisão
    gerencial.Por volátil, entende-se que os dados do datamart são alterados
    frequentemente, enquanto os do DW, por guardarem histórico, só são alterados
    quando uma carga foi feita de forma errada, mas não freqüentemente como em
    um data mart (que é baseado em aplicações)."
  • "Data Warehouse é um banco de dados orientado por assunto, integrado, não volátil e histórico, criado para suportar o processo de tomada de decisão."

  • Lembrando que segundo a corrente majoritaria os Data Mart`s não sao voláteis, assim como os dataware houses


ID
150376
Banca
FCC
Órgão
TJ-PA
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

No contexto das consultas a bancos de dados de esquema em estrela e supondo que os acessos a tabelas de dimensões e o acesso subsequente à tabela de fatos estejam todos incorporados em uma mesma consulta, é mais adequado o uso de junção em estrela que é uma estratégia específica de implementação de junção, a qual difere das demais estratégias pelo fato de começar deliberadamente pelo cálculo

Alternativas
Comentários

ID
161836
Banca
FCC
Órgão
TRF - 5ª REGIÃO
Ano
2008
Provas
Disciplina
Banco de Dados
Assuntos

As consultas no star schema de um data warehouse podem ser feitas em maior ou menor nível de detalhe. Assim uma consulta mais detalhada das informações denomina-se

Alternativas
Comentários
  •  Drill-down - mais detalhada, menor granularidade

    Roll-up - menos detalhada, maior granularidade

  • a) já explicado pelo Hitalo

    b) é um pedaço de um data warehouse, podendo ser referente a um setor da empresa

    c) é o processo de descoberta de padrões existentes em grandes massas de dados, estas podendo ser bancos de dados.

    d) já explicado pelo Hitalo

    e) É um tipo de representação do modelo multidimensional, onde as tabelas de fatos são associadas com as tabelas dimensionais, sendo que estas últimas são normalizadas.

  • [A] - drill-down.


ID
162280
Banca
FCC
Órgão
TCE-AL
Ano
2008
Provas
Disciplina
Banco de Dados
Assuntos

A organização dos data warehouse em tabela de fato e tabelas de dimensão relacionadas, é característica

Alternativas
Comentários
  • a) O esquema em estrela, é uma representação multidimensional, caracterizado pela existência de uma única tabela de fato para cada tabela de dimensão. Também temos o esquema snow-flake que é uma variação do estrela e possui uma normalização nas tabelas de dimensões. Por último também poderia ser uma Constelação de Fatos que é um conjunto de tabelas de fatos que compartilham algumas tabelas de dimensão.

     
    b) Mineração de dados é a extração de informação(padrões) de dados, por exemplo pertencentes a um banco de dados.
     
    c) Roll-up é uma forma de apresentação de dados pertencente a modelos multidimensionais. Nesta apresentação, os dados movem-se para cima em sua hierarquia, agrupando unidades maiores ao longo de uma dimensão, por exemplo: temos os dados representados nas dimensões produto, região, trimestre fiscal. Após um roll-up obteríamos uma representação bidimensional agrupando produtos por categoria e sua região.
     
    d) Processador analítico on-line(OLAP) é um termo usado para descrever complexas análises de dados a partir de um data warehouse, ou para ferramentas que fazem essa análise
     
    e) O Drill-down é semelhante ao Roll-up, porém, proporciona uma capacidade oposta, fornecendo uma visão de granularidade mais fina. Tomando o mesmo exemplo da letra c) teríamos uma representação com as regiões divididas em nacionais, depois sub-regiões e por último em locais e os produtos poderíam ser divididos segundo estilos.
     
    Exemplos e conceitos tirados de [1].
     
    [1] ELSMARI - NAVATHE, Sistema de Banco de Dados, 4ª edição, 2008.

ID
163003
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

A abordagem bottom up, no projeto da data warehouses, é uma estratégia que

Alternativas
Comentários
  • Gostaria de saber de que fonte ele retirou tal afimarção, visto que no Google não é possívl encntrar nenhum texto falando sobre esta definição "Abordagem DataMart"
  • É mais questão de conceito, para se resolver esta questão.

    BOTTOM UP - sugere que, comece de baixo pra cima ou seja, dos "detalhes/especificos" até um "todo/genérico".
    O data mart como é conhecido: "dw para departamento específico". Dessa forma matamos a questão :)
  •  Abordagem Bottom Up

    Esta abordagem se baseia na construção de data marts dimensionais independentes cada qual com sua respectiva área de estágio e processos de extração, transformação e limpeza e metadados. O DW, neste tipo de implementação é composto pelo conjunto de todos os data marts construídos, formando um DW incremental lógico.

    Esta abordagem foi denominada Legamart ou data mart legado, devido à falta de integração entre os data marts.

  • Nossa...acho que essa eles pegaram pesado "também conhecida como abordagem Data Mart" ??

    Conhecida por quem? Porque conforme o colega abaixo não achei referência a isso em lugar algum.

  • top-down quando os dados fluem das bases operacionais para o data warehouse e deste para os data marts. A vantagem desta abordagem é a redução no número de extrações da produção para o warehouse. A desvantagem é que pode ser uma implementação longa. bottom-up quando os data marts são carregados diretamente das bases operacionais e o data warehouse é carregado a partir dos data mart's . Esta abordagem não é a ideal, mas é a utilizada quando data marts são construídos antes do data warehouse.
  • Também nunca ouvi falar da abordagem data Mart, mas por eliminação chega-se a essa alternantiva.


     a) exige grande investimento inicial. Não. A abordagem bottom up começa a investir em data mart departamentais até se chegar ao DW.

    b) possui custo mais baixo e mais arriscado no curto prazo. Não. O custo realmente é mais baixo, mas não é mais arriscado no curto prazo.

    c) deve ser utilizada em conjunto com a modelagem multidimensional estrela. Não. Nada  haver essa alternativa.

    e) é compatível com servidores MOLAP e DOLAP apenas. Não, é compatível com servidores Rolap, Holap
  • In the top down approach suggested by Bill Inmon, we build a centralized repository to house corporate wide business data. This repository is called Enterprise Data Warehouse (EDW). The data in the EDW is stored in anormalized form in order to avoid redundancy.
    The central repository for corporate wide data helps us maintain one version of truth of the data.

    The bottom up approach suggested by Ralph Kimball is an incremental approach to build a data warehouse. Here we build the data marts separately at different points of time as and when the specific subject area requirements are clear.  The data marts are integrated or combined together to form a data warehouse. Separate data marts are combined through the use of conformed dimensions and conformed facts. A conformed dimension and a conformed fact is one that can be shared across data marts.

    http://dwhinfo.com/technical/datawarehousingapproach.html
  • Também nunca ouvi falar dessa "abordagem Data Mart". É o tipo de questão que deve ser resolvida por elminiação.


ID
163006
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

No contexto de Data Warehouses, o processo de Extração, Transformação e Carga (ETC)

Alternativas
Comentários
  •  Data Warehouse é uma coleção de dados orientados por assuntos, integrados, variáveis com o tempo e não voláteis, para dar suporte ao processo gerencial de tomada de decisão. O DW é construído integrando múltiplas fontes de dados heterogêneas como banco de dados que armazenam informações transacionais, arquivos, e-mails, etc e são aplicados várias técnicas para limpeza e integração dos dados.

     

     

  • a) revela-se como uma das etapas importantes do processo de criação do data warehouse, já que sua função é obter automaticamente os conhecimentos necessários para a padronização dos dados em modelos multidimensionais.
    - alguns ajustes precisam ser feitos manualmente

    b) produz, ao seu término, uma série de tabelas (chamadas fatos) que se caracterizam por possuírem dados normalizados até a 3ª forma normal.
    - a representação multidimensional possui tabelas de fatos associadas com as tabelas de dimensões

    c) apresenta, como algumas de suas tarefas, filtragem, integração, conversão, condensação e derivação dos dados de entrada, que podem ser originários de diversas fontes, inclusive externas aos sistemas OLTP da organização.  
    - CORRETO

    d) leva em consideração o modelo conceitual de dados das fontes de dados, que é geralmente expresso como modelo entidade-relacionamento
    - Não precisam extrair dados de bancos de dados relacionais, podem extrair dados de um sistema de arquivos qualquer
     
    e) considera somente os dados provenientes de sistemas OLTP como válidos para o processo e, caso exista a necessidade de consideração de dados externos, estes devem ser importados para os sistemas legados.
    - o processo de ETC pode exceder os limites físicos da organização e buscar dados externos que nem obedeçam a regras OLTP[como comentado na alternativa d) ]
  •  Além da limpeza, temos de fazer na maioria das vezes uma transformação, pois os dados provêm de vários sistemas, e por isso, geralmente uma mesma informação tem diferentes formatos, por exemplo: Em alguns sistemas a informação sobre o sexo do cliente pode estar armazenada no seguinte formato : “M” para Masculino e “F” para Feminino, porém em algum outro sistema está guardado como “H” para Masculino e “M” para Feminino, em outro ainda, podemos encontrar “1” para Masculino e “2” para Feminino,  e assim sucessivamente. Quando levamos esses dados para o DW, deve-se ter uma padronização deles, ou seja, quando o usuário for consultar o DW, ele não pode ver informações iguais em formatos diferentes. Assim sendo, quando fazemos o processo de ETL, transformamos esses dados e deixamos num formato uniforme sugerido pelo próprio usuário, como por exemplo “M” para Masculino e “F” para Feminino. No DW, teremos somente M e F, fato esse que facilitará a análise dos dados que serão recuperados pela ferramenta OLAP.

ID
163009
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os armazéns de dados (Data Warehouses) servem como uma importante ferramenta aos gestores para avaliarem a uma conveniência da execução da estratégia organizacional utilizada. Sobre concepção/uso de Data Warehouses, tem-se que

Alternativas
Comentários
  • Não concordo com a resposta, do jeito que está proposto só poderá haver uma tabela de fatos, o que não procede, como se segue:

    Esquema Estrela com múltiplas tabela fato: acontece quando existem fatos não relacionados tornando possível existir mais de uma tabela fato ou quando a freqüência de carga dos dados operacionais é distinta. Ex. tabela fato de vendas e tabela fato de vendas previstas.

    Esquema Estrela com tabelas Externas: nesse esquema uma ou mais tabelas dimensão podem conter uma chave estrangeira que referencia a chave primária de outra tabela dimensão, podendo também ser chamada de tabela dimensão secundária.

    Constelações: quando existem múltiplas tabelas fato que compartilham as mesmas dimensões, dizemos que o esquema de constelações de fatos. Isto acontece quando as medidas nas tabelas fatos possuem diferenças em relação aos eventos geradores: Ex: vendas realizadas x vendas previstas ou venda unitária x desconto por venda conjunta.

    Fonte: http://migre.me/159FF

  • Eu tenho uma interpretação um pouco diferente que a do Benjamin Pinto. Pela afirmação da alternativa b) eu entendi que um modelo multidimensional precisaria ter uma tabela de fatos associada a uma ou mais tabela de dimensão, mas, não deixando isso como restrição de quantidade apenas de necessidade da tabela de fatos(quantas tiverem) estar liga às tabelas de dimensões.

    Com relação as outras alternativas:

    a) Os data warehouses não projetados desta maneira descrita, por exemplo: um data warehouse(DW) nasce dos dados de outras bases de dados já criadas e um possível ciclo de vida desses dados para "entrar" no DW seria extração de suas bases, transformação ou melhor dizendo limpeza/polimento dos dados que não estiverem de acordo com as reais necessidades do DW e por último a persistência/carga no DW, esse processo também é conhecido como ETL(Extract Transform Load)

    c) a função dos dados do DW não é de autitar os dados, mas dar suporte à decisões para a organização

    d) o data mart é uma espécie de DW para um pequeno grupo de dado(setor da organização) com informações temporárias(voláteis) e não tem muita utilidade em facilitar processos do DW

    e) a dimensão faz parte do modelo multidimensional, não sendo opcional para DW que utilizam esse modelo

  • só pra complementar:

    d) a finalidade dos data marts não é facilitar o processo de ETC e eles não são pequenos datawarehouses, eles são unidades lógicas (ou físicas) do DW centrado em um assunto específico
  • Em modelos multidimensionais, não há tabela de fatos nem tabelas de dimensão, simplesmente porque os dados não estão em tabelas relacionais, mas sim em cubos. Assim, há Fatos e Dimensões.

    Por esse motivo, acho a letra B errada.
  • Wilson,

    Em sua resposta você disse sobre os cubos. Os cubos são apenas uma metáfora. Nos modelos multidimensionais são usados tabelas de fato e dimensão sim, conforme pode ser observado em quaisquer literaturas sobre o assunto.
  • Não marquei a letra B, pois falou que SEMPRE teremos UMA tabela FATO. E isso nem sempre é verdade já que no modelo de constelação tempos mais de uma tabela Fatos.


ID
163012
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Data Warehouses virtuais proporcionam visões de bancos de dados operacionais que são materializadas para acesso eficiente.

PORQUE

Data Warehouse (depósito de dados) proporciona acesso a bancos de dados disjuntos e geralmente heterogêneos.

Analisando as afirmações acima, conclui-se que

Alternativas
Comentários
  • Questão retirada do Texto: http://www2.dc.uel.br/nourau/document/?view=86Monogafia apresentada na Universidade de londrina, uma fonte realmente confiável para basear uma questão ... :(
  • Outra citação: http://im.ufba.br/pub/MATA60/WebHome/Data_Warehouse.pdf
  • Data Warehouses virtuais proporcionam visões de bancos de dados operacionais que são materializadas para acesso eficiente.
    Análise:
        É a definição retirada do livro do Fundamentals of Database System (6 edição), Navathe:
                          "Virtual data warehouses provide views of operational databases that are materialized for efficient access."

    Data Warehouse (depósito de dados) proporciona acesso a bancos de dados disjuntos e geralmente heterogêneos.
    Analise:
            Bem, aqui basta nos atermos um pouco as características do Data Warehouse do mesmo livro:
                           "W.H. Inmon characterized a data warehouse as a subject-oriented, integrated, non-volatile, time-variant collection of data in support of management's decisions" - é uma tecnologia de acesso a uma coleção de dados integrados, orientados ao assunto, não voláteis, variantes no tempo para o suporte a decisões gerenciais, não traduzi a frase apenas levantei um presuposto do texto original e este nos leva a conclusão de que a segunda sentença está errada, pois são dados integrados num mesmo repositório.

    Item correto: c
  • Em relação a segunda afirmativa,  um DW não acesso os dados disjuntos e heterogêneos. O que acontece é que no desenho de um DW esses dados são consolidados em uma base única a qual o DW irá acessar. Sendo assim o DW fornece um acesso INTEGRADO a múltiplas bases de dados.
  • Caros, está no navathe Sistemas de Banco de Dados 4a. edição - Capítulo 28
    página 648 :
    "Os data warehouses virtuais proporcionam visões de banco de dados operacionais que são materializadas para acesso eficiente".
    Página 647 :
    "Contrastando com os bancos de dados múltiplos que proporcionam acesso a banco de dados disjuntos e geralmente heterogêneos, um data warehouse é frequentemente um armazém de dados integrados oriundos de fontes múltiplas, processados para armazenamento em um modelo multidimensional"
    Com isso podemos concluir que a primeira afirmativa está correta e a segunda errada.
    Bons estudos.
  • Excelente fonte a do Antônio. Para quem tem a 6 edição do livro do Navathe, as páginas para encontrar essas respostas estão nas páginas 721 e 722.  Apanhei para achar, e estou compartilhando as páginas!.

    Bibliografia:

    SISTEMAS DE BANCO DE DADOS-NAVATHE-6 EDIÇÃO 2011


ID
163015
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

A volatilidade dos dados é característica intrínseca a data warehouses.

PORQUE

Sistemas ROLAP possuem um conjunto de interfaces e aplicações que dão ao Sistema Gerenciador de Banco de Dados Relacionais características multidimensionais.

Analisando as afirmações acima, conclui-se que

Alternativas
Comentários
  •  A volatilidade dos dados é característica intrínseca a data warehouses data marts.
    - A característica de uma curta vida não está relacionada com os DW, pois sua principal função é armazenar uma grande quantidade de dados(um histórico de dados) para auxiliar na tomada de decisões da organização. Já os data marts se aplicam a uma pequena quantidade de dados, um setor da organização por exemplo, e não precisa manter os dados por muito tempo e nem uma grande quantidade em geral.

     

    Sistemas ROLAP possuem um conjunto de interfaces e aplicações que dão ao Sistema Gerenciador de Banco de Dados Relacionais características multidimensionais.
    - afirmação perfeita

  • Discordo completamente dessa segunda afirmação.
    Um ROLAP não é um plugin, ou uma LIB que seja carregada no SGBDR, ROLAP é um sistema de apoio a decisão (SAD), sendo assim não há fundamento em falar que um sistema dà características ao SGBD, pode-se concluir que o ROLAP usa o SGBDR, permitindo pesquisar e apresentar informações no formato multidimencional. Essa caracteristica de pesquisar e apresentar informações como um hiper cubo não é do SGBDR, ela é do sistema OLAP que emula um hiper cubo atrave de tabelas (ROLAP)
  • Nem data Mart e muito menos data warehouse possuem características volateis.

ID
163018
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Data warehouse tem por característica ser

Alternativas
Comentários
  •  Data warehouse tem por característica ser orientado por assuntos, por manter dados históricos, centralizado, focado em aspectos estratégicos e desnormalizado.

  • Acrescentando, tomem cuidado porque o modeo snow flake é normalizado (vide comentários Q54338), e ele não deixa de ser uma arquitetura Datawarehouse. Mas 'orientado a assuntos' é uma característica predominante de um DW
  • Características de um Data Warehouse:

    Orientado por assunto. Refere-se aos sistemas transacionais organizados em uma determinada aplicação de uma empresa. A orientação por assunto é uma característica importante, pois toda a modelagem do DW é orientada a partir dos principais assuntos da empresa. Por exemplo, uma empresa de arrecadação de impostos, onde os principais assuntos são os cadastros de contribuintes, impostos a recolher.

    Integrado. Essa é a característica mais importante do DW, pois trata da integração, que é feita do ambiente operacional para as aplicações do DW. A integração é realizada visando padronizar os dados dos diversos sistemas em uma única representação, para serem transferidos para a base de dados única do DW.

    Não volátil. Nos sistemas transacionais os dados sofrem diversas alterações como, por exemplo, a inclusão, alteração e exclusão de dados. No ambiente do Data Warehouse os dados, antes de serem carregados, são filtrados e limpos “gerando informação”. Após essa etapa esses dados sofrem somente operações de consulta e exclusão, sem que possam ser alterados, e essa característica representa a não-volatilidade.

    Variável com o tempo. A variação em relação ao tempo consiste na manutenção de um histórico de dados em relação ao período de tempo maior que dos sistemas comuns, isto significa que as técnicas de mineração de dados não são aplicadas em tempo real, de forma a não comprometer o desempenho dos bancos transacionais OLTP. Ao analisarmos um dado de um DW, o mesmo sempre estará relacionado a um período determinado de tempo, pois terá uma chave de tempo que irá indicar o dia no qual esses dados foram extraídos.
    Alternativa: A

    Fonte:  Elmasri e Navathe 6° Ed.
  • <p><img src="http://www.fabriciobreve.com/trabalhos/images/sad_img_3.jpg"></p>


    "http://www.fabriciobreve.com/trabalhos/images/sad_img_3.jpg"

    <img src="http://www.fabriciobreve.com/trabalhos/images/sad_img_3.jpg">

  • Comentários: conforme vimos em aula, ele é orientado a assuntos, histórico, centralizado, focalizado em aspectos táticos ou estratégicos e desnormalizado (Letra A).


ID
163021
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Técnicas de modelagem de Data Warehouses diferem das tradicionalmente utilizadas em sistemas transacionais.
Analisando uma dessas abordagens, o modelo multidimensional estrela, verifica-se que

Alternativas
Comentários
  • Com relação aos modelos de representação multidimensional, estrela e snow-flake(floco de neve):

    1 - esquema estrela: consiste de uma tabela de fato com uma única tabela para cada dimensão
    2 - esquema snow-flake: é uma variação do estrela, onde as tabelas de dimensão são organizadas em uma hierarquia por meio da normalização delas.

    Como conclusão desses conceitos, podemos afirmar que o modelo em estrela, por não ser normalizado, possui um melhor desempenho que o snow-flake.

  • É por causa da não normalização do esquema estrela, que aumenta o desempenho das consultas.
  • Recomendo o estudo de normalização de tabelas, para quem tem dúvida sobre os esquemas estrela e floco de neve.

    Você passa a entender o papel das outras tabelas no esquema floco de neve e como elas ajudam na normalização e eliminação das redundâncias.

    PS: Parece complicado, mas não é


ID
171274
Banca
FGV
Órgão
MEC
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

No que diz respeito ao desenvolvimento de sistemas de informação e da análise de negócios, analise a citação a seguir.

"É um conjunto integrado de dados, extraídos de bancos de dados operacionais, históricos, externos e selecionados, editados e padronizados para recuperação e análise, para fornecer inteligência empresarial e nos negócios no processo de tomada de decisões gerenciais."

Essa citação representa o conceito de:

Alternativas
Comentários
  • Letra D

    Data warehouse (DW): trata-se de uma ampla base que integra dados de várias bases diferentes, sendo especialmente preparada para uso massivo de exploração e análise.
    Appliance de Data Warehouse: consiste em um conjunto integrado de servidores, armazenamento (storage), sistema operacional, banco de dados e softwares pré-instalados e otimizados para análise massiva de grande volume de dados, oferecendo performance dezenas de vezes mais rápida do que soluções tradicionais de data warehouse.
  • data warehouse - somente leitura; reune dados de varios bancos

    data mart - repositorio especializado; volátil.

  • Comentários:

    Vamos analisar as palavras-chave: conjunto integrado de dados; históricos; externos; selecionados, editados e padronizados; inteligência empresarial; tomada de decisões gerenciais. Todas essas palavras-chave nos remetem ao conceito de Data Warehouse.

    Gabarito: Letra D


ID
171286
Banca
FGV
Órgão
MEC
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

As alternativas a seguir apresentam maneiras de recuperar informações de um Data Warehouse, à exceção de uma.
Assinale-a.

Alternativas
Comentários
  • Todas as opções são formas de recuperar informações de um DW... Menos a letra B, Data Mart

    Um Data Mart, segundo Kimbal, é Data Warehouse setorial... Logo, jamais serão uma forma de recuperar informações de um DW

  • Errei porquê esse eu não conhecia...
    Um 
    Executive Information System (EIS) pode ser definido como uma tecnologia de informação que tem como objectivo principal dar suporte à tomada de decisão, através do acesso fácil a informações internas e externas que são relevantes para os factores críticos de sucesso da organização. Os EIS’s devem ser personalizados e desenvolvidos para cada utilizador, devem extrair, filtrar, comprimir e localizar dados críticos, fornecer acesso em tempo real, permitir a análise de tendências, a execução de relatórios de excepção, o acesso e a integração a uma vasta amplitude de dados externos e internos, ser amigáveis e sem necessidade de qualquer formação para utilização. A informação pode ser apresentada através de gráficos, tabulações e/ou informações textuais.
  • Tadeu,

    o mesmo aconteceu comigo. O termo EIS normalmente não é citado na literatura.
  • Elsmari e Navathe (6° Ed.) falam acerca do EIS, que são o DSS (Sistemas de Apoio à Decisão).
  • A criação de um data warehouse requer tempo, dinheiro e considerável esforço gerencial.

    Muitas companhias ingressam num projeto de data warehouse focando necessidades especiais de pequenos grupos dentro da organização. Estes pequenos armazenamentos de dados são chamados de Data Mart.

    Um data mart é um pequeno data warehouse que fornece suporte à decisão de um pequeno grupo de pessoas.

  • Assertiva B

    Data Mart - repositorio especializado; volátil.

    Data Warehouse -> integrado não-volátil.


ID
171715
Banca
CESPE / CEBRASPE
Órgão
Banco da Amazônia
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os data warehouses são sistemas computacionais que armazenam
os dados corporativos de forma consolidada, disponibilizando
informações com maior eficiência, consistência e segurança para a
tomada de decisão dos gestores. Acerca dos data warehouses,
julgue os itens que se seguem.

Importante componente de um data warehouse é o data staging area, cuja função é extrair, transformar e carregar os dados obtidos de diversas fontes da empresa.

Alternativas
Comentários
  •  A área de data staging é a área de trabalho do data warehouse. É o lugar onde se colocam os dados primários, onde se limpa, combina, arquiva e, ao final, exportam esses dados para um ou mais data marts. O propósito da área de data staging é preparar os dados para carregá-los em um servidor de apresentação (um SGBD relacional ou software OLAP). 

  •  Extrair, transformar e carregar dados são funções das ferramentas ETL, não do Data Staging Area. O DSA é apenas um local de armazenamento temporário.

    http://data-warehouses.net/architecture/staging.html

  •  Essa questão é recorrente, veja como a CESPE já cobrou essa questão anteriormente:

    Petrobras  2007

    Durante o ciclo de vida de uma datawarehouse, as operações de extração, transformação e carga, coletivamente chamadas de STAGING, são realizadas antes das operações de sumarização, categorização e indexação

     

    gabarito: certo

  • Para mim essa questão deveria ser errada e não certa. "data staging area" é uma área de trabalho temporário, que é usada pelas ferramentas de ETL.

  • Concordo. o data staging area é tão somente uma área de trabalho.

  • A função do Staging area não é "extrair, transformar e carregar os dados obtidos", mas sim o local onde isso ocorre. Se tivesse escrito "onde se extraim transforma..." ficaria mais adequado.

    Nós temos que ser maliciosos na interpretação, nessas questões devemos levar em conta a essência...

    Faz parte da prova.
  • Não vejo como considerar essa afirmativa correta:

    data staging area - é o local onde os dados extraídos dos bancos transacionais são colocados temporariamente para serem tratados e então enviados para o DW ou DM.

    Ferramenta ETL/ETC - é a ferramenta que faz a extração dos dados no banco transacional para uma data staging area, transforma (limpa e trata) esses dados e, finalmente, carrega os dados no DW.

    Eu entraria com recursos certamente.
  • ETL, do inglês Extract Transform Load (Extração Transformação Carga), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um Data Mart ou um Data Warehouse. A extração e carga são obrigatórias para o processo, sendo a transformação/limpeza opcional. É considerada uma das fases mais críticas do Data Warehouse e/ou Data Mart.

    No armazém de dados termos, uma área de preparação de dados é uma área de armazenamento intermediário entre as fontes de informação e data warehouse (DW) ou Data Mart (DM). É normalmente de natureza temporária, e seu conteúdo pode ser apagado após o DW / DM foi carregado com sucesso.

    A área de teste pode ser utilizado para qualquer uma das seguintes finalidades, entre outros:

    • Para reunir dados de diferentes fontes que estarão prontos para processar em momentos diferentes.
    • Para carregar rapidamente informações a partir do banco de dados de funcionamento, libertando-se o mais rapidamente possível. Todas as transformações necessárias podem então ocorrer, sem interferir com a operação.
    • Para encontrar mudanças contra atuais valores DW / DM.
    • Para ' limpeza de dados '
    • Para pré-calcular agregados.
    • Uma vez que a estrutura de dados de teste não necessita de se assemelhar a estrutura de origem ou o destino, [ 1 ] o processo simples de carregar a área de teste pode ser um passo de ETL processo em si mesmo.

    Questão esta errada!!!! 
  • A banca diz que uma coisa errada é certa e ela se torna certa mesmo contrariando a literatura existente... Pouca seriedade na condução desses concursos!
  • A questão
    "Importante componente de um data warehouse é o data staging area, cuja função é extrair, transformar e carregar os dados obtidos de diversas fontes da empresa."

    é totalmente compatível com o que diz Carlos Barbieri, no livro "BI2 - Business Intelligence", 2011:

    "As funções de ETC (extração, transformação e carga), responsável pelas ações de coleta, limpeza, preparação e carga desses depósitos de informações, estão representadas pela camada de Staging."

    Segundo alguns autores, incluindo o Barbieri, a área de staging é responsável tanto pelo processo de ETL, quanto pelo armazenamento temporário ODS. Isso pode ficar confuso, pois outros autores consideram ODS como a mesma coisa que Staging Area, e ETL seria algo separado.
  • Segundo Ralph Kimball - The Data Warehouse Toolkit 
     
    Data Staging Area
    The data staging area of the data warehouse is both a storage area and a set of processes commonly referred to as extract-transformation-load (ETL). The data staging area is everything between the operational source systems and the data presentation area.
  • Comentários do prof. Thiago Rodrigues Cavalcanti do ITnerante:


    Componentes de um Data Warehouse usando a abordagem adotada por um dos seus principais autores Ralph Kimball:


    Sistemas operacionais de origem: são considerados externos ao DW porque não existe pouco ou nenhum controle sobre o conteúdo e o formato dos dados. As principais propriedades desse sistema são o desempenho e a disponibilidade de processamento.

    Data Staging Area (DSA): é tanto uma área de armazenamento quanto um conjunto de processos e normalmente denomina-se ETL (Extract – Transformation – Load). O principal requisito de arquitetura da DAS é não está acessível aos usuários e que não forneça serviços de consulta nem de apresentação. Aqui é definido o processo de obtenção dos dados e que seque os seguintes passos: Extração para o Staging Area, Transformações (Filtragem dos dados, Combinação dos dados, Cancelamento de dados duplicados) e Carga.

    Apresentação dos dados: é o local onde os dados ficam organizados, armazenados e tornam-se disponíveis para serem consultados diretamente pelos usuários, por criadores de relatórios e por outras aplicações de análise. Kimball se refere à área de apresentação como uma série de data marts integrados. Um Data Mart é uma parte do todo que compões a área de apresentação. Ainda na visão do Kimball, os dados na área de apresentação que podem ser consultada no DW precisam ser dimensionais, atômicos e obedecerem à arquitetura de barramentos do data warehouse.

    Ferramentas de acesso a dados: o último componente principal do ambiente de DW. O termo ferramenta refere-se à variedade de recursos com que usuários de negócio podem contar para melhorar a tomada de decisões analítica.

  • Data Staging Area (Kimball)

    É tanto uma área de armazenamento (dados voláteis) como um conjunto de processos, e normalmente denomina-se ETL (Extract – Transformation - Load)

    Questão Certa



ID
171718
Banca
CESPE / CEBRASPE
Órgão
Banco da Amazônia
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os data warehouses são sistemas computacionais que armazenam
os dados corporativos de forma consolidada, disponibilizando
informações com maior eficiência, consistência e segurança para a
tomada de decisão dos gestores. Acerca dos data warehouses,
julgue os itens que se seguem.

Por fazerem uso de um processo de modelagem dimensional, os data warehouses não podem ser instalados em sistemas de banco de dados relacionais.

Alternativas
Comentários
  •  O DW pode ser implementado em um OLAP multidimensional ou em um OLAP relacional, o primeiro é implementado como uma matriz esparsa multidimensional, o segundo é implementado diretamente em um banco de dados relacional.

  • Olá pessoal, não tenho muito bem definido a diferença entre OLAP e DW, mas acho que existe.  Para mim, o erro não está em dizer que existe a arquitetura ROLAP para DW, pois são duas tecnologias/aplicações diferentes (OLAP e DW). O erro está em saber que a modelagem dimensional utilizada em DW pode ser implementadas em BDs relacionais.  Alguém saberia dizer se esse entendimento está correto????
  • Relational On Line Analytical Processing - ROLAP deriva-se de OLAP, são ferramentas que disparam uma consulta para o servidor de banco de dados e processado lá mesmo. ROLAP (OLAP Relacional)

    Os dados são armazenados de forma relacional.

    ROLAP é mais indicado para DATA WAREHOUSE pelo grande volume de dados, a necessidade de um maior número de funções e diversas regras de negócio a serem aplicadas.
  • ROLAP (Relacional OLAP). ROLAP é uma simulação da tecnologia OLAP feita em banco de dados relacionais que, por utilizar a estrutura relacional, possui a vantagem de não restringir o volume de armazenamento de dados. As ferramentas OLAP relacionais também não utilizam os cubos pré-calculados como ocorre no MOLAP. À medida que o usuário monta sua consulta em uma interface gráfica, a ferramenta acessa os metadados ou quaisquer outros recursos que possua, para gerar um consulta em SQL. Suas principais características são a possibilidade de fazer qualquer consulta, visto que não se está limitado ao conteúdo de um “cubo” e a capacidade de navegar nos dados até atingir o nível de detalhe mais baixo, ou seja, de menor granularidade. Assim, as ferramentas ROLAP atendem melhor usuários que não têm um escopo de análise bem definido. A principal vantagem de se adotar uma ferramenta ROLAP é a utilização de uma tecnologia estabelecida, de arquitetura aberta e padronizada, beneficiando-se da diversidade de plataformas, escalabilidade e paralelismo de hardware. Quanto às limitações, temos o pobre conjunto de funções para análises dimensionais e o baixo desempenho da linguagem SQL na execução de consultas pesadas.
    As ferramentas front-end permitem efetuar requisições multidimensionais, mas o programa de ROLAP transforma estas consultas em rotinas SQL.

    Diante do exposto, conclui-se que é possível utilizar um DW em um BD Relacional.
    Alternativa: Errada
  • nishimura vive!

  • Data Warehouses podem ser implementados tanto em bancos de dados multidimensionais quanto em bancos de dados relacionais. 

  • Comentários:

    Data Warehouses podem ser implementados tanto em bancos de dados multidimensionais quanto em bancos de dados relacionais.

    Gabarito: Errado


ID
171721
Banca
CESPE / CEBRASPE
Órgão
Banco da Amazônia
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os data warehouses são sistemas computacionais que armazenam
os dados corporativos de forma consolidada, disponibilizando
informações com maior eficiência, consistência e segurança para a
tomada de decisão dos gestores. Acerca dos data warehouses,
julgue os itens que se seguem.

A tabela de fatos armazena todos os eventos ocorridos na empresa, possibilitando ao gestor a consulta de todo o seu histórico.

Alternativas
Comentários
  •  Não são todos os eventos, somente os necessários ao processo de tomada de decisão.

  • O certo seria "A tabela de fatos referencia todos os eventos ocorridos na empresa", pois eventos estão para tabelas dimensionais como medidas e chaves estão para tabelas de fatos.
  • As tabelas de fatos representam um item ou transação ou evento de negócio. Elas refletem a evolução dos negócios em seus atributos. Ex. de uma tabela de fato. Tabela Vendas (#Id_Tempo, #Id_Produto, #Id_Cliente, #Id_Regiao, #Id_Vendedor, Valor_Venda, Qtde_Venda). Na minha opinião, o erro está que as tabelas de fatos armazena TODOS os eventos ocorridos na empresa. Acho que apenas os eventos que interessam para o processo de tomada de decisão da alta gestão da empresa.
  • A tabela de fatos armazena medições numéricas do negócio, isto é, aquelas usadas para a construção da resposta. 

  • As tabelas fatos armazenam grande quantidade de dados e contém medições numéricas do negócio, representando a essência dos dados em um negócio. É através da tabela Fato que é possível fazer medições numéricas do negócio obtidas das intersecções de todas as dimensões. 

    Fonte: http://www.mti.mt.gov.br/documents/2458894/13050988/03-conceitos+de+business+intelligence_sig-mt.pdf/00db8fa9-9b3e-43e7-7743-adea9c9d732d.

    Resposta: errado.

  • Nem tudo é de interesse para o DataWare House.


ID
171727
Banca
CESPE / CEBRASPE
Órgão
Banco da Amazônia
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os data warehouses são sistemas computacionais que armazenam
os dados corporativos de forma consolidada, disponibilizando
informações com maior eficiência, consistência e segurança para a
tomada de decisão dos gestores. Acerca dos data warehouses,
julgue os itens que se seguem.

Ao explorar um data warehouse por meio de uma ferramenta OLAP, o analista pode executar as operações de drill down e drill up, que, respectivamente, aumentam e reduzem o nível de granularidade dos dados.

Alternativas
Comentários
  •  A questão está correta.

    O drill usando uma ferramenta OLAP irá aumentar ou diminuir a dimensão, ou seja, se der um drill down iremos ter menos níveis e portanto se desce um nível, nível mais granular e o inverso para do drill up.

  • Colegas,

    esta resposta da banca está incorreta.

    Drill Down diminui granularidade. Drill Up aumenta granularidade.

  • Questão retirada da Wikipédia:

    Nas ferramentas de navegação OLAP, é possível navegar entre diferentes níveis de granularidades (detalhamento) de um cubo de dados. Através de um processo chamado Drill o usuário pode aumentar (Drill down[10]) ou diminuir (Drill up[11]) o nível de detalhamento dos dados. Por exemplo, se um relatório estiver consolidado por países, fazendo um Drill down[10], os dados passarão a ser apresentados por Estados, cidades, bairros e assim sucessivamente até o maior nível de detalhamento possível. O processo contrário, o Drill up[11], faz com que os dados sejam consolidados em níveis superiores de informação. 

    http://pt.wikipedia.org/wiki/Data_Warehouse

    Mesmo retirando da Wiki o elaborador ainda inverteu o conceito de maior/menor granularidade. Haja paciência...

    Como o colega abaixo comentou o correto seria Roll-Up. Estou pensando em queimar meus livros e estudar pela Wiki :D

  • Discordo:

    Nível de Granularidade é DIFERENTE de Nível de Detalhamento. Isto não é a mesma coisa nunca!

    Eles possuem uma relação que é a seguinte: AUMENTA o nível de detalhamento DIMINUI o grão! (quer dizer....o grão fica cada vez menor, ou seja a informação fica cada vez mais esmiuçada).

    Acredito ainda que a questão está errada alguém pode explicar o motivo? esse texto da Wiki ai não explicou nada!

    Abraços

  • O gabarito está errado. A questão fala das operações Driil Down e Roll Up, também chamada de Drill Up, segundo o livro TECNOLOGIA E PROJETO DE DATA WAREHOUSE , 4 EDICAO, FELIPE NERY RODRIGUES MACHADO, na pag. 87, diz...

    O drill down ocorre quando o usuário aumenta o nível de DETALHE da informação, diminuindo o nível de granularidade.

    O drill up ou roll up é o contrário. Ele ocorre quando o usuário aumento o nível de granularidade, diminuindo o nível de detalhamento da informação.

  • Segundo INMON no livro Building the Data Warehouse, 3ª Ed, na pág. 43, "Granularity refers to the level of detail or summarization of the units of data in the data warehouse. The more detail there is, the lower the level of granularity. The less detail there is, the higher the level of granularity."

  • Também discordo do gabarito: 
    Diminui Granularidade = Aumenta Detalhe (Drill down)
    Aumenta Granularidade = Diminui Detalhe (Drill up)
  • Granularidadeé a extensão à qual um sistema é dividido em partes pequenas. Ela é a "extensão até a qual uma entidade grande é subdividida. Por exemplo, um quintal dividido em polegadas possui granularidade mais fina que um quintal dividido em pés."
    Fonte: http://pt.wikipedia.org/wiki/Granularidade

    Drill = grão
    Drill down = diminuir a espessura do grão = diminuir a granularidade = aumentar o nível de detalhamento.
    Drill up = aumentar a espessura do grão = aumentar a granularidade = diminuir o nível de detalhamento.

    Esse gabarito está ERRADO sim.
  • Certeza.  O elaborador bebeu gás!

    Drill down = aumentar o detalhe das informações = diminuir os grãos (Ex.: anos - > mês -> dia).

    Drill up (ou roll up) = diminuir o detalhe das informações = aumentar os grãos (Ex.: dia -> mês -> ano).
  • Mas será que essa é a jurisprudência do CESPE ou o gabarito ficou errado por falta de recursos bem feitos?

    Pois eu já vi outras questões do CESPE com o mesmo entendimento que essa.
  • *CESPE* TCU 2007
    Quanto ao nível de granularidade dos dados do data
    warehouse, é correto afirmar que quanto maior for o nível de
    detalhe, mais alto será o nível de granularidade dos dados e
    maior será a possibilidade de o sistema responder a qualquer
    consulta.

    Gabarito oficial: Errado

    ou seja, "quanto maior for o nível de detalhe, mais BAIXO será o nível de granularidade".
    drill down = aumentar o nível de detalhe = diminuir o nível de granularidade
    drill up = diminuir o nível de detalhe = aumentar o nível de granularidade
  • resolvi muitas questões de provas ultimamente e posso dizer: está virando uma palhaçada essas questões retiradas da wikipedia! 
    nem ligo pelo fato de copiarem literalmente (até porque muita coisa da wikipedia é retirada e/ou traduzida de livros), mas me incomoda que isso está sendo feito, aparentemente, sem qualquer análise/verificação!
    essa questão está absurdamente errada! foda
  • Alta granularidade significa muitos detalhes (mais grãos = grãos menores). Não confundir com alto nível (de abstração), que significa menos detalhes.

    "The more detail there is in the fact table, the higher its granularity and vice versa" Ver 01, 2.
  • Pessoal,

    Se drill down aumenta o detalhamento, ou seja, o número de grãos então como pode diminuir grãos?

    Veja esse artigo que confirma o gabarito do examinador.
    http://www.crazyapple.com/2012/08/what-is-a-drill-down-report/

    Drill-down describes an increasing granularity in the management of data. E. g., one can zoom into an address.
    The process of zooming out (decreasing granularity) is called roll-up or drill-up.

    Drill Down: to look at or examine something in depth. Ex: to drill down through financial data -> aumentar granularidade
    Drill Up: viewing data in less detail; for example, viewing total sales as opposed to individual sales -> diminuir granularidade

    Não concordo que Drill Down significa grãos menores, mas apenas mais grãos. Veja o exemplo de um nível de sumário de um livro (necessita menos grãos, ou menos detalhamento) e um nível de detalhamento de um item do sumário (necessita mais grãos, ou mais páginas/detalhamento).
  • Vou tentar destrinchar isso com fontes com credibilidade, e por isso o comentário tá meio grande, pra que realmente não haja dúvidas:

    "A roll-up display moves up the hierarchy, grouping into larger units along a dimension (for example, summing weekly data by quarter or by year)."

    [...]

    A drill-down display provides the opposite capability, furnishing a finer-grained* view, perhaps disaggregating country sales by region and then regional sales by subregion and also breaking up products by styles.

    * "Fine granularity refers to small item sizes, whereas coarse granularity refers to large item sizes", pg 795


    Fonte: Navathe, Fundamentals of Database Systems, 6th Ed., Pg. 1072

    Tradução (simplificada):

    Roll Up (ou Drill Up) sobe na hierarquia, em unidades maiores. Exemplo: agrupando vendas semanais por ano.

    Drill-Down é o oposto (com grãos menores). Exemplo: vendas de um país quebradas em vendas por região.

    Outra versão mais completa, da Itnerante, também baseada no texto de Navathe:


    Roll-up: também conhecida como drill-up, aplica uma agregação sobre o cubo de dados. Ou ainda, aumentar o nível de granularidade dentro de uma dimensão, reduzindo o detalhamento da informação. É, basicamente, subir na hierarquia. A figura abaixo, retirada do livro Data Mining: Concepts and Techniques[1],  mostra o resultado da operação de roll-up aplicada no cubo central subindo na hierarquia de location. Basicamente, essa hierarquia é definida na seguinte ordem: street < city < province_or_state < country. Essa agregação mostra uma ascensão na hierarquia de location do nível de city para o nível de country.

    Drill-down: É o inverso da operação de roll-up. É uma forma de navegar de um dado com menor nível de detalhe para um dado com maior nível de detalhe. Essa operação pode ser realizada tanto descendo em uma hierarquia de uma dimensão quanto introduzindo dimensões adicionais. A figura abaixo exibe o resultado de uma operação de drill-down sobre o cubo central, basicamente, descendo sobre a hierarquia de tempo (day < month < quater < year). A operação desce do nível de semestre (quater) para mês (month).

    Fonte: http://www.itnerante.com.br/profiles/blogs/artigo-suporte-a-decis-o-02-sobre-as-opera-es-de-olap

    Conclusão:

    O gabarito está claramente errado. Deveria estar como errada.

    Drill down: diminui o grão, aumentando o nível de detalhe (já que o grão é menor) e diminuindo a granularidade.

    Drill Up (ou Roll Up): aumenta o grão, diminuindo o nível de detalhe (já que o grão é maior), aumentando a granularidade.

    Pra que não hajam mais dúvidas:


    Aumentar granularidade quer dizer aumentar o grão. Pra ilustrar, pense que você tem 1 Kg de feijão. Se a granularidade é maior, quer dizer que você tem grãos maiores, logo, tem menos grãos.

    Espero que não tenha ficado dúvidas. Se ficou, comente! :)
  • Avaliando as questoes e respostas, adotarei o seguinte criterio quanto a Granularidade, NIvel de Granularidade e Nivel de Detalhes:

    Granularidade Alta = Menos Detalhes = Baixo nivel de granuladirade ( o grao eh grande )

    Granularidade Baixa = Mais Detalhes = Alto nivel de granularidade ( o grao eh pequeno )

  • Depois de ouvir o professor do Itnerante explicando, de conferir seus slides e os principais canais que julgo concisos na internet, só consegui ter mais certeza que esse gabarito está equivocado, veja bem, a questão é de 2010 para técnico, creio que na época ninguém fez um recurso bem fundamentado e por isso não foi anulada, principalmente em concursos antigos, que não são federais, acontece.

    ---------------------------------------------------------------------------------------------------------------------------------------------

    ROLL UP
    -Aplica uma agregação sobre o cubo de dados
    -Aumenta o nível de granularidade e em consequencia realiza a REDUÇÃO sobre a dimensão, DIMINUINDO O NÍVEL DE DETALHAMENTO da informação.

     

    DRILL DOWN
    -É o inverso do roll-up
    -Aumenta o nível de detalhe da informação
    -Navega um dado menos detalhado para um mais detalhado
    -Diminui o nível de granularidade

     

    Fonte> Itnerante

    ---------------------------------------------------------------------------------------------------------------------------------------------

     

  • ·        Drill up/down – Utilizado para aumentar ou reduzir o nível de detalhe da informação

    acessada. Exemplo: Vendas por país Vendas por UF

  • Quem errou, acertou. Quem acertou, errou. Ninguém levou pouco nessa.

  • Só digo uma coisa. Drill up seu c*, cespe. Desculpa, to pistola.

  • dei um soco no teclado agora.

  • Pelo que eu entendi da questão grão é diferente de granularidade.Caiu parecido no TCE-RJ.

  • Creio que o gabarito está errado.

    Drill down diminui granulidade.

    Drill up aumenta granulidade.


ID
171730
Banca
CESPE / CEBRASPE
Órgão
Banco da Amazônia
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os data warehouses são sistemas computacionais que armazenam
os dados corporativos de forma consolidada, disponibilizando
informações com maior eficiência, consistência e segurança para a
tomada de decisão dos gestores. Acerca dos data warehouses,
julgue os itens que se seguem.

Um data mart é uma reunião de vários data warehouses, a fim de fornecer visão mais ampla dos dados.

Alternativas
Comentários
  •  

    errado

    Data mart (repositório de dados) é sub-conjunto de dados de um Data warehouse (armazém de dados). Geralmente são dados referentes a um assunto em especial (ex: Vendas, Estoque, Controladoria) ou diferentes níveis de sumarização (ex: Vendas Anual, Vendas Mensal, Vendas 5 anos), que focalizam uma ou mais áreas específicas. Seus dados são obtidos do DW, desnormalizados e indexados para suportar intensa pesquisa. Data marts extraem e ajustam porções de DWs aos requisitos específicos de grupos/departamentos.

    As questões de planejamento, projeto e implementação são as mesmas encontradas em qualquer fase da implementação de um DW, pois uma parte dos especialistas argumenta que o DW é uma evolução natural de um Data mart que começou localizado e cresceu para atender um escopo maior. Essa visão tem defesa menos técnica e mais intuitiva do que sua contra-parte: o Data mart é criado a posteriori do DW, pois ele seria montado com dados extraídos do DW para atender especificamente um setor da organização..

    Numa visão comparativa dos dados, onde consideramos os requisitos escopo, integração, tempo, agregação, análise e dados voláteis, percebemos que a diferença está no escopo, pois enquanto o DW é feito para atender uma empresa como um todo, o data mart é criado para atender um sub-conjunto da empresa. Repare que atender um sub-conjunto da empresa pode significar reunir dados de outros setores, já que, na prática, raramente um único setor possui ou gera toda informação que precisa. Vem dessa observação a defesa da tese de que o Data mart é construído após o DW.

    Não se pode dizer que um Data warehouse é um conjunto de Data marts. Seria o mesmo que dizer que o armazém geral de um supermercado, onde todos os itens vão antes de seguir para as lojas, é o agrupamento de supermercados.

  • Exatamente o contrário

  • Gab: E

    Um data mart é uma reunião de vários data warehouses, a fim de fornecer visão mais ampla dos dados (E)

    .

    Um data warehouses é uma reunião de vários data marts, a fim de fornecer visão mais ampla dos dados. (C)

  • Cuidado com o comentário do Guilherme Oliveira. Mesmo com a correção que ele fez a sentença continua errada.
    Um Data Mart é um subconjunto de um Data Warehouse, fornecendo uma visão mais restrita e departamental dos dados.

  • Na verdade, um Data Mart é um subconjunto de um Data Warehouse, fornecendo uma visão mais restrita e departamental dos dados. De outro lado, não se pode dizer que um Data Warehouse é um conjunto de Data Marts – seria o mesmo que dizer que o depósito de um supermercado, onde todos os itens estão antes de seguirem para as lojas, é um agrupamento de supermercados.

    Gabarito: Errado

    Fonte: estratégia

  • ERRADO

    Pelo contrário.

    O Data Mart é um subconjunto do DW.

  • Gabarito: errado

    CESPE - 2012 - TJ-AC - Analista Judiciário - Análise de Sistemas

    Por meio de um data mart, que é um subconjunto do data warehouse, é possível criar uma visão personalizada dos dados. (CERTO)


ID
171733
Banca
CESPE / CEBRASPE
Órgão
Banco da Amazônia
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os data warehouses são sistemas computacionais que armazenam
os dados corporativos de forma consolidada, disponibilizando
informações com maior eficiência, consistência e segurança para a
tomada de decisão dos gestores. Acerca dos data warehouses,
julgue os itens que se seguem.

Deve-se fazer a carga de um data warehouse ao iniciar a exploração do cubo, pois, assim, os resultados são os mais atuais possíveis.

Alternativas
Comentários
  •  Uma das características de um DW é disponibilizar informações históricas aos seus usuários, portanto as cargas não são feitas constantemente.

  • Do meu ponto de vista, a questão pode estar errada pq DW e cubo não são necessariamente a mesma coisa.

    Posso ter um DW Rolap e um outro DW Molap (cubo). Então, caso eu faça uma carga no DW Rolap e não faça o processamento, o cubo não será atualizado. Em casos de correção da base, por exemplo, às vezes, atualiza-se somente o Rolap, faz-se consultas pra verificar se tudo correu bem, depois processa o cubo (sincroniza o Molap com base no Rolap).



  • Acho que o que matou a questão foi o "deve", no sentido de sempre que for consultar o DW têm que subir os dados. Isso é errado pois existem regras para subir, por exemplo, se os dados são "granulados" por mês, então é preciso fechar o mês para poder subir.
  • Você não deve a fazer a carga completa ao explorar um cubo, apesar de ser recomendável.

  • o ETL que é o que faz a carga do DW é um processo demorado e portanto não se rapidamente com a exploração do cubo


ID
188776
Banca
FCC
Órgão
TRT - 9ª REGIÃO (PR)
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Quando o usuário passa da análise da dimensão tempo e passa a analisar a dimensão região, por exemplo, ele está executando a operação OLAP

Alternativas
Comentários
  •  Drill Through: Ocorre quando o usuário passa de uma informação contida em uma dimensão para uma outra


    Slice and Dice: termo usado para descrever a função de analise de dados complexos proporcionada por algumas ferramentas de consulta e analise.


    Drill up ou roll up: é o inverso de drill down, ou seja, é apresentar os dados em um nível mais elevado a partir de um nível mais detalhado

    Star Schema na prática se adequa mais aos Data Marts

  • Gabarito: A

    A)

    Drill Through

    Ocorre quando o usuário passa de uma informação contida em uma dimensão para uma outra.

    B)

    Slice
    Corta o cubo, mas mantém a mesma perspectiva de visualização dos dados. Funciona como um filtro que restringe uma dimensão à apenas um ou alguns de seus valores.
        
    Dice
    Mudança de perspectiva da visão multidimensional, como se o cubo fosse girado. Permite descobrir comportamentos e tendências entre os valores das medidas analisadas em diversas perspectivas.
        
    C)

    Drill Across
    O nível de análise dentro de uma mesma dimensão é alterado, ou seja, o usuário avança um nível intermediário dentro de uma mesma dimensão.

    D)Roll up = Drill Up

    Drill Up
    Diminuição no nível de detalhe e conseqüente aumento do nível de granularidade.

    Fonte: http://www.infobras.com.br/portugues/produtos_conceito_olap.asp

    E)
    O Star schema ou esquema em estrela é uma metodologia de modelagem de dados utilizada do desenho de um Data warehouse.Os dados são modelados em tabelas dimensionais ligadas a uma tabela de fatos. As tabelas dimensionais contêm as características de um evento. A tabela de fatos armazena os fatos ocorridos e as chave para as características correspondentes, nas tabelas dimensionais.
    Fonte:  http://pt.wikipedia.org/wiki/Esquema_estrela
  • Será que foi erro de digitação do questões de concursos na alternativa A? Pois drill throught não existe no contexto de DW. throught = pensamento. 
  • Colega, não querias dizer "Thought"....? :)
  • "Dice

    Mudança de perspectiva da visão multidimensional, como se o cubo fosse girado. Permite descobrir comportamentos e tendências entre os valores das medidas analisadas em diversas perspectivas."

    Este conceito não é o pivot?

    Para mim Dice é diminuir o cubo em perpectivas menores, como se fosse uma clausula Where do SQL.
  • [Artigo] Suporte a Decisão - 02 - Sobre as operações de OLAP

    (...)

    Além das definições de drill-across e drill-throught vistas acima, existe outra bastante difundida na Internet, esta é uma definição equivocada, mas utilizada por algumas bancas, como a FCC. (Espero que isso mude um dia!)

    Drill-Across: ocorre quando o usuário pula um nível intermediário dentro de uma mesma dimensão. Por exemplo, a dimensão tempo é composta por ano, semestre, trimestre, mês e dia. A operação drill-across é executada quando o usuário passa de ano direto para trimestre ou mês. Por essa definição podemos representar a operação de drill-across conforme a figura abaixo:


    Drill-Throught: ocorre quando o usuário passa de uma informação contida em uma dimensão para outra. Por exemplo, inicia na dimensão do tempo e no próximo passo analisa a informação por região. Mais uma vez, podemos visualizar essa definição no cubo abaixo.

  • Não Mohamed, "thought" em inglês significa "pensamento" ou "pensou". "Throught" significa através.

  • O Mohamed está certo.

    Ele estava apenas corrigindo o comentário anterior ao dele.

  • Arthur, ainda assim está errado. O certo seria through. Throught não nem se é, de fato, uma palavra válida do inglês. Alguém fez a tradução errada (e não sei qual a fonte, pois não encontro essa operações em livros em inglês) e a FCC espalha esses conceitos sem ao menos corrigir.


ID
190732
Banca
CESGRANRIO
Órgão
ELETROBRAS
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os dados transacionais de uma grande empresa estão dispostos em bases heterogêneas. Para que dados carregados no data warehouse sejam considerados adequados à formação de tabelas fato e dimensionais, a etapa de transformação pode realizar procedimentos de limpeza nesses dados.
Que problema NÃO é resolvido por esse tipo de procedimento?

Alternativas
Comentários
  • "(...)a etapa de transformação pode realizar procedimentos de limpeza nesses dados(...)"

    A questão fala da limpeza dos dados. Essa etapa do ETL - extract, transform, load (extrair, transformar e carregar) - de limpeza dos dados ocorre depois da extração dos mesmos. Na limpeza dos dados, verifica-se existência de valores não previstos (alguns valores podem não ter correspondência no data warehouse), ausência de dados, ou seja, não há dados correspondentes a algumas colunas no data warehouse, forçando a geração de valores default, inconsistência de dados, como chaves estrangeiras sem correspondências, duplicação de dados e etc. Porém, a filtragem de dados a serem carregados é feita antes, na fase de extract. Primeiro se extrai os dados, escolhendo, filtrando o que se deseja. Depois, faz-se a limpeza dos mesmos.

    Alternativa B.
  • Segundo Tanenbaum, a única coisa que não tem solução na Computação é não ter bits o suficiente para resolver o problema.

    Se a petrobrás, que vai buscar óleo  quase no magma diz que algo não pode ser feito então só pode ter alguma pegadinha,

    Aqui no Livro de Siberschartz diz que quando se obtem dados de diversas fontes, esses dados podem vir com pequenas inconsistências, que pode ser erros de digitação, ou informações duplicadas e contraditórias. Campos como endereço ( rua, bairro, cidade) ou cep, podem ter sído informados incorretamente.

    Dados ausentes, como por exemplo o CEP, tendo-se a rua e o bairro do registro, pode-se inferir o cep.

    As duplicações de dados são resolvidas por uma operação chamada merge-purge.

    Para os valores não previstos pode-se utilizar uma pesquisa difusa.

    Porém "Filtragem de dados a serem carregados" refere-se à etapa de load - carga dos dados no depósito.

ID
191806
Banca
CESGRANRIO
Órgão
ELETROBRAS
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os dados armazenados em um data warehouse, que fornecem informações para um ambiente multidimensional para tomada de decisões de uma empresa, não estão normalizados. Essa redundância de dados, criada propositalmente, tem como objetivo

Alternativas
Comentários
  • Um Data Warehouse utiliza dados em formato de-normalizados[2]. Isto aumenta o desempenho das consultas e como benefício adicional, o processo torna-se mais intuitivo para os utilizadores [3] comuns. Essa maneira de reordenar os dados chama-se Modelagem Dimensional, e o resultado da modelagem é o Modelo Dimensional, ou MD. Entretanto, algumas transações e consultas em bases de dados normalizadas podem se tornar lentas devido às operações de junção entre tabelas (JOIN).

    Fonte: pt.wikipedia.org/wiki/Data_Warehouse

  • Para responder facilmente essa questão basta ter em mente a comparação entre Banco de Dados Transacional e Data Warehouses(DW).

    "Os bancos de dados relacionais tradicionais são otimizados para processar consultas que podem mencionar pequena parte do banco de dados e transações que tratam inclusões ou atualizações de algumas poucas tuplas por relação a processar. (...) Contudo, os data warehouses são projetados justamente para dar apoio a extração, processamento e apresentação eficiente para fins analíticos e de tomada de decisão. Em comparação com os bancos de dados tradicionais, os data warehouses geralmente contêm quantidades muito grandes de dados de fontes múltiplas (...)." [1]

    Tendo em vista essa comparação, podemos concluir que os DW não possuem como necessidade máxima o desempenho de consultas a uma grande massa de dados e a normalização, neste caso, só iria aumentar a quantidade de consultas degradando o desempenho esperado.

    [1] ELSMARI - NAVATHE, Sistema de Banco de Dados, 4ª edição, 2008.


ID
191809
Banca
CESGRANRIO
Órgão
ELETROBRAS
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Com o objetivo de analisar possíveis falhas no processo de venda de determinado produto, um Gerente de Vendas, ao consultar o banco multidimensional de seu departamento, identifica um valor abaixo da média no mês de maio de 2010, na região Sudeste, relativo ao produto. Sabendo que a dimensão "Região" está construída de forma a mostrar os dados desde o nível nacional até o nível município, para encontrar a cidade que seja o foco da queda de vendas nessa região, o Gerente de Vendas deverá efetuar sobre a dimensão Região a operação de

Alternativas
Comentários
  • Resposta CORRETA letra D

    Drill Across: se refere às navegações realizadas nas tabelas de dimensão, onde as consultas passam de um nível para o outro sem passar pelos níveis intermediários.

    Drill Down: ocorre quando o usuário aumenta o nível de detalhe da informação, diminuindo a granularidade.

    Drill Up: é o contrário do Drill Down, ocorre quando o usuário aumenta a granularidade, diminuindo o nível de detalhamento da informação.

    Drill Through: ocorre quando se deseja uma informação em um nível de detalhe menor do que o apresentado pelas tabelas de fato. Ou seja, é a operação que busca a informação além do nível de granularidade existente na estrutura dimensional.

    Slice and Dice: serve para modificar a posição de uma informação de maneira a facilitar a compreensão dos usuários. Efetua uma filtragem dos dados para especializar as consultas.

    Através de um processo chamado Drill o usuário pode aumentar (Drill down) ou diminuir (Drill up) o nível de detalhamento dos dados. Por exemplo, se um relatório estiver consolidado por países, fazendo um Drill down, os dados passarão a ser apresentados por Estados, cidades, bairros e assim sucessivamente até o maior nível de detalhamento possível. O processo contrário, o Drill up, faz com que os dados sejam consolidados em níveis superiores de informação. Drill Down deverá ser o método utilizada pelo gerente para chegar ao detelhamento desejado para encontrar a cidade que seja o foco da queda de vendas.
     

     

  • * Técnicas de OLAP

    Drill Down: é a possibilidade de poder obter dados mais detalhados a partir de dados de mais alto nível, através de diferentes dimensões. Em outras palavras, drill down nada mais é do que aumentar o nível de detalhes de uma consulta ou relatório, adicionando-lhes novas linhas de cabeçalho provenientes de tabelas dimensão. Por exemplo, uma tela de um computador pode mostrar um mapa com figuras de Estados. Clicando com o mouse sobre um determinado Estado, poderia ser apresentado às vendas em cada região e clicando-se sobre uma determinada região seria possível verificar o desempenho dos vendedores.

    Drill up ou roll up: é o inverso de drill down, ou seja, é apresentar os dados em um nível mais elevado a partir de um nível mais detalhado

    Slice: compreende a extração de informações sumarizadas de um cubo de dados, a partir do valor de uma dimensão.

    Dice: é a extração de um "subcubo" ou a interseção de vários slices.

    Pivot: é o ângulo pelo qual os dados são vistos ou trocados. Na prática corresponde a modificação da posição das dimensões em um gráfico ou troca de linhas por colunas em uma tabela.

    Fonte: paginas.ucpel.tche.br/~loh/dwh.htm

     

  • Pessoal, 
    se a dimensão é organizada desde o nível nacional até o nível município então a hierarquia seria
    País => Regisão => Estado => Município
    Se eu quero mudar da região SE para o município não deveria pular a hierarquia Estado, de modo que estaria realizando uma operação drill across?
  • Rafael, concordo com voce. Pois de regiao para cidade ainda temos o Estado. Logo a operacao deveria ser drill accros.
  • Rafael e Felipe.

    Não pode ser Drill Across porque o Gerente de Vendas ainda está tentando identificar qual a cidade que teve a queda de vendas, neste momento ele não sabe qual a cidade e em qual Estado ela se encontra, por isso não poderia pular da Região diretamente para a Cidade. Primeiro ele tem que consultar por Estado.

  • Fabiano,

    Tive a mesma duvida que os amigos acima, mas nao eh por isso que ele nao pode usar DRILL ACROSS.

    A questão diz:

    "Sabendo que a dimensão "Região" está construída de forma a mostrar os dados desde o nível nacional até o nível município"

    Ou seja, ele pode SIM chegar até o nivel municipio atraves da dimensao REGIAO, mas acontece que Drill Across é usado quando ha uma hierarquia de dimensoes (modelo snowflake). Neste caso, como esta tudo numa dimensao soh, o correto é o uso do Drill Down.
  • Marcelo, isso não seria Drill through? Que passa de uma dimensão para outra? Acho que nesse caso foi realmente um acidente na questão.
  • Eu tambem errei por nao ter lido a questao no detalhe. Para achar a cidade, primeiro ele precisara encontrar em que estado cairam as vendas, e assim por diante. Logo eh drill down mesmo.
  • Pessoal, cidade e município é a mesma coisa.

    REGIÃO - ESTADO - CIDADE/MUNICÍPIO
    SUDESTE - RIO DE JANEIRO - NITERÓI

    ESTADO: GOVERNADOR
    CIDADE/MUNICIPIO: PREFEITO

     
  • Justamente,
    ele nao sabe qual municipio eh o responsavel pelas quedas, logo, ele não pode pular(drill across) diretamente para aquele municipio. Ele tem q fazer drill down, das menores vendas, na seguinte ordem: nacional -> regional -> estadual -> municipal.
    Ex: regiao responsavel pelas quedas na venda -> estado responsavel pelas quedas nas vendas -> cidade responsavel pelas quedas nas vendas..
    A questao nao menciona isso, mas eh assim q funciona o drill down.
  • Ótimo artigo sobre essas definições duvidosas: http://www.itnerante.com.br/profiles/blogs/artigo-suporte-a-decis-o-02-sobre-as-opera-es-de-olap
  • Drill Across: se refere às navegações realizadas nas tabelas de dimensão, onde as consultas passam de um nível para o outro sem passar pelos níveis intermediários.

     

    Drill Down: ocorre quando o usuário aumenta o nível de detalhe da informação, diminuindo a granularidade.

     

    Drill Up: é o contrário do Drill Down, ocorre quando o usuário aumenta a granularidade, diminuindo o nível de detalhamento da informação.

     

    Drill Through: ocorre quando se deseja uma informação em um nível de detalhe menor do que o apresentado pelas tabelas de fato. Ou seja, é a operação que busca a informação além do nível de granularidade existente na estrutura dimensional.

     

    Slice and Dice: serve para modificar a posição de uma informação de maneira a facilitar a compreensão dos usuários. Efetua uma filtragem dos dados para especializar as consultas.

     

    Através de um processo chamado Drill o usuário pode aumentar (Drill down) ou diminuir (Drill up) o nível de detalhamento dos dados. Por exemplo, se um relatório estiver consolidado por países, fazendo um Drill down, os dados passarão a ser apresentados por Estados, cidades, bairros e assim sucessivamente até o maior nível de detalhamento possível. O processo contrário, o Drill up, faz com que os dados sejam consolidados em níveis superiores de informação. Drill Down deverá ser o método utilizada pelo gerente para chegar ao detelhamento desejado para encontrar a cidade que seja o foco da queda de vendas.

  • "rgr rgr" diz tudo...


ID
191812
Banca
CESGRANRIO
Órgão
ELETROBRAS
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Analise as afirmações sobre as operações realizadas em cubos OLAP a seguir.

I - A operação pivot permite ao usuário alternar as linhas e colunas em que os valores visualizados serão recalculados.

II - A operação slice é caracterizada pela seleção de determinado membro de uma dimensão, a fim de analisar as demais informações do cubo sob tal perspectiva.

III - A operação dice corresponde à seleção específica de membros de duas ou mais dimensões.

Está correto o que se afirma em

Alternativas
Comentários
  • * Técnicas de OLAP

    Drill Down: é a possibilidade de poder obter dados mais detalhados a partir de dados de mais alto nível, através de diferentes dimensões. Em outras palavras, drill down nada mais é do que aumentar o nível de detalhes de uma consulta ou relatório, adicionando-lhes novas linhas de cabeçalho provenientes de tabelas dimensão. Por exemplo, uma tela de um computador pode mostrar um mapa com figuras de Estados. Clicando com o mouse sobre um determinado Estado, poderia ser apresentado às vendas em cada região e clicando-se sobre uma determinada região seria possível verificar o desempenho dos vendedores.

    Drill up ou roll up: é o inverso de drill down, ou seja, é apresentar os dados em um nível mais elevado a partir de um nível mais detalhado

    Slice: compreende a extração de informações sumarizadas de um cubo de dados, a partir do valor de uma dimensão.

    Dice: é a extração de um "subcubo" ou a interseção de vários slices.

    Pivot: é o ângulo pelo qual os dados são vistos ou trocados. Na prática corresponde a modificação da posição das dimensões em um gráfico ou troca de linhas por colunas em uma tabela.

    Fonte: paginas.ucpel.tche.br/~loh/dwh.htm
     

  • - Slice: Projeta valores específicos de uma dimensão (extrai uma fatia do hypercubo)
     
    - Dice: Slices consecutivos (extrai hypercubo menor)
     
    - Roll-up (drill-up): sumariza dados, subindo na hierarquia de uma dimensão
     
    - Drill-down (roll-down): reverso de roll-up, isto é, detalha os dados, descendo na hierarquia de uma dimensão
     
    - Pivot: muda posição ou orientação da dimensões na projeção bidimensional de dados do hypercubo
  • Alguém sabe explicar a seguinte parte: "(...) os valores visualizados serão recalculados."

    Serão recalculados?
  • Diego,
    Quando você faz a rotação (pivot), as disposições das dimensões mudam, fazendo com que os valores sejam recalculados.

ID
191815
Banca
CESGRANRIO
Órgão
ELETROBRAS
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Numa grande multinacional, os dados relativos aos sistemas transacionais são lidos, transformados e carregados para posterior apresentação sob a forma dimensional. O departamento de TI reservou uma área de armazenamento específica às informações lidas e transformadas, denominada staging area. A respeito dessa área de dados, afirma-se que

Alternativas
Comentários
  • (...)Segundo Kimball, a Staging Area é parte do Data Warehouse responsável por receber a extração, transformação e carga (ETL) das informações dos sistemas transacionais legados, para posterior geração dos Data Marts de destino, com as características:

    * A Staging Area é considerada área fora do acesso dos usuários.
    * A Staging Area não deve suportar queries dos Usuários.
    * Ela pode ser composta por flat files (arquivos textos) ou tabelas de banco de dados na terceira forma normal (normalizadas).
     

    Fonte: litolima.wordpress.com/2010/01/13/etl-extracao-transformacao-e-carga-de-dados/

  • Primeiro, vamos à definição de Staging Area(ou ODS), segundo[1]:

    Representa um armazenamento intermediario entre o ambiente operacional e o DW. Nela, os dados são trazidos brutos do ambiente operacional(OLTP) para sofrerem o processo de ETL, e comporem o DW. 

    O ODS pode servir de base para analises do ambiente operativo, pois sua granularidade é normalmente compativel com os sistemas desse ambiente.

    [1] ainda afirma, na pagina 42, q em um primeiro cenario, os dados estao todos dispostos em um ambiente OLTP atual e em producao com as mesmas caracteristicas operacionais da staging area.

    Em um segundo cenario, devemos considerar a existencia de ambientes heterogeneos e com dados em mainframes, por exemplo.

    Neste caso, não podemos trazer os dados no formato original para um banco de dados relacional na staging area, e sim realizar um processo de extração e conversão dos dados do mainframe em flat files.

    Após essa definição, vamos às alternativas:

    a) a staging area armazena os dados exatamente como estão representados no sistema transacional. Errado! Os dados não são exatamente os do ambiente operacional. São compativeis e com as mesmas característica. Além disso, há dados também de servidor de produção, como os flat files gerados pelos mainframes.

    b) as tabelas da staging area não devem sofrer modificações estruturais ao serem carregadas para a presentation area. Errado! Muito pelo contrário. A staging area não eh volatil. Seus dados são armazenados ao longo do tempo e sofre alterações incrementais, podendo, com o decorrer do tempo, se transformar do DW.

    c) os dados aí contidos estão prontos para serem inquiridos para geração de consultas e relatórios gerenciais. Muito errado! Os dados da staging area são dados "sem tratamentos", sujos, com redundâncias que sofrerão um processo de limpeza para integrarem um DW. Por isso, não devem ser usados para consultas e relatorios gerenciais.

    d) os dados, na staging area, podem ser armazenados tanto de forma normalizada como na forma de arquivos flat.

    Correto! A forma normalizada corresponde ao primeiro cenario do comentario acima. E as de arquivo flato, ao segundo cenario.

    e) cada tabela existente na staging area equivale a uma tabela normalizada na presentation area.

    Errada! Usando-se a modelagem dimensional, os dados passam da staging area para a presentation area,  e ficam prontos para serem acessados pelas ferramentas OLAP. Então, da staging area para a presentation area, muita coisa ainda tem q ser feita.

    Fonte:

    [1] Tecnologia e projeto de datawarehouse, 6 Ed., Felipe Neri, editora Etica.

  • "os dados, na staging area, podem ser armazenados tanto de forma normalizada como na forma de arquivos flat." 

    Na boa, eu acho essa afirmação bem estranha. É verdade que em geral um arquivo flat está desnomarlizado, mas isso não é uma regra absuluta..

    Por exemplo,: imagine que um sistema de ETL precise acessar uma base SAP. Mas esse sistema não tem um conector implementato pra acessar diretamente a base SAP. Uma solução muito usada é o proffisiponal SAP criar uma rotina para diariamente disponilizar os arquivos que serão lidos pelos processos ETL. Esse arquivos não precisam ser desnormalizados. Ou seja: dados em arquivos flat não significa que esses dados estarão desnormalizados...


ID
191818
Banca
CESGRANRIO
Órgão
ELETROBRAS
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Um data mart do departamento de vendas de uma grande empresa possui uma tabela fato com cinco métricas associadas a oito diferentes dimensões. O analista de TI está em dúvida sobre que modelagem utilizar. Considerando-se as opções snowflake e star schema, qual a desvantagem de se utilizar, nessa situação, a modelagem snowflake?

Alternativas
Comentários
  • Segue link com material muito interessante para quem se interessar

    http://projetos.inf.ufsc.br/arquivos_projetos/projeto_823/080702%20-%20TCC%20Miguel%20Nuno.pdf

    Bons estudos.
    •  b) Uma maior quantidade de joins entre as tabelas de dimensões e as tabelas de hierarquia associadas será realizada, ocasionando queda de desempenho no processo de agregação das métricas.
    Devido a Normalização ( Eliminação de redundâncias que causa diminuição no armazenamento dos dados do DW)  as consultas terão que combinar essas tabelas , de fatos e de hierarquia de dimensões, para construir o cubo de dados, de forma que essas junções vão inevitavelmente diminuir o desemprenho do DW.
     
  • É questionado qual desvantagem de usar a modelagem snowflake.  Uma delas seria: 
    "
    O Modelo Floco de Neve (Snow Flake) reduz o espaço de armazenamento dos dados dimensionais mas acrescenta várias tabelas ao modelo, deixando-o mais complexo e tornando mais difícil a navegação pelos softwares que utilizam o banco de dados.
    Um outro fator é que é necessário utilizar mais tabelas para executar uma consulta, então mais JOINS de instrução SQL são feitos, tornando o acesso aos dados mais lento do que no modelo estrela.

    "
  • a) A modelagem star schema não contempla a possibilidade de armazenamento de atributos para cada dimensão, minimizando a quantidade de memória utilizada.
    Errado. O modelo starschema eh o q mais consome espaço, pois é não normalizado(e ha muita informação redundante). O outro erro da questao eh q em cada dimensao ha atributos. Alias, essa afirmativa nem faz sentido, pois sabemos q cada dimensao se relaciona com um fato e isso so ja exige um atributo - o atributo chave.
    b)Uma maior quantidade de joins entre as tabelas de dimensões e as tabelas de hierarquia associadas será realizada, ocasionando queda de desempenho no processo de agregação das métricas.
    Correta. [1] afirma q o modelo starschema tem grande ganho de desempenho em relação ao snowflake, pois mesma q haja redundancia, ela fica compensada pelas reduções dos comandos joins, comando esse necessario no modelo snowflake, pelo fato de este estar normalizado - dividido em varias tabelas hierarquicamente relacionadas.
    c)As chaves estrangeiras, relativas às dimensões armazenadas na tabela fato, devem corresponder às hierarquias existentes nessas dimensões, ocasionando maior quantidade de registros na tabela fato.
    Errada. Na verdade, deve apontar para o nivel mais baixo da hierarquia. Imagine a dimensão tempo, com "dia, mes e ano". No starschema esta hierarquia estará em uma única tabela de dimensão, e fica como se a tabela de fatos estivesse ligada ao nível mais baixo da hierarquia, "dia".
    Já no snow flake, a hierarquia será representada por diferentes tabelas, mas a tabela "fatos" estará também ligada ao nível mais baixo, ou seja, "dia"(fatos terá como chave estrangeira a chave primária da tabela dia; dia terá como chave estrangeira a chave primária da tabela mês, e esta terá com chave estrangeira a chave primária da tabela de ano.
    d)Na modelagem snowflake, a manutenção dos dados dimensionais se torna mais dispendiosa, tendo em vista que as tabelas dimensionais não estão normalizadas.
    Pegue essa afirmativa e inverta-a totalmente e ela ficará correta. Nesse tipo de modelagem, a manutenção é mais barata, pois, segundo[1], o modelo snowflake eh o resultado da aplicacao da 3FN sobre as entidades dimensao, preservando a utilização dos  meios de armazenamento(como ele eh normalizado, evita a redundancia de valores textuais em uma tabela).
    e)Diferentemente da modelagem star schema, na modelagem snowflake, as chaves estrangeiras na tabela fato não apontam para o nível mais baixo (atômico) da hierarquia das dimensões associadas

    Errada. Como explicado na alternativa "C", o starschema não esta normalizado, ficando toda a hierarquia numa so tabela, resultando na "ligação direta" entre a tabela fatos e a dimensao da hierarquia mais baixa.

    Fontes:
    [1] Bi2: Business Intelligence, Palestino, carlos, Ed. Elsevier.

  • Resumo dos esquemas para estudar

    O Modelo Floco de Neve (Snow Flake) reduz o espaço de armazenamento dos dados dimensionais mas acrescenta várias tabelas ao modelo, deixando-o mais complexo e tornando mais difícil a navegação pelos softwares que utilizam o banco de dados. Um outro fator é que é necessário utilizar mais tabelas para executar uma consulta, então mais JOINS de instrução SQL são feitos, tornando o acesso aos dados mais lento do que no modelo estrela.

     

    O Modelo em Estrela (Star Schema) é mais simples e mais fácil de navegação pelos softwares, porém desperdiça espaço devido à repetição das mesmas descrições ao longo de toda a tabela. Análises feitas mostram que o ganho de espaço normalizando este esquema resulta em um ganho menor que 1% do espaço total no banco de dados, e como os custos do espaço em banco de dados são reduzidos quando comparados com outros este problema não é considerado crítico ou muito relevante pelos arquitetos dos Data Warehouses. Assim sendo existem outros factores mais importantes para serem avaliados para redução do espaço em disco como a adição de agregados e alteração na granularidade dos dados, que o esquema em estrela consegue responder com muito sucesso.


ID
205480
Banca
FEPESE
Órgão
SEFAZ-SC
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Assinale a alternativa correta a respeito de Data Warehouse (DW) e modelagem multidimensional.

Alternativas
Comentários
  • a) Um esquema multidimensional, composto por fatos e dimensões, não pode ser modelado em um banco de dados relacional.

    ERRADO. Existem bancos ROLAP que implementam OLAP em bancos relacionais


    b) Uma dimensão definida em uma modelagem multidimensional deve estar associada a um único fato.

    "Uma dimensão é dita conformada quando pode ser compartilhada por duas ou mais tabelas de fatos"

    .http://periodicos.uem.br/ojs/index.php/ActaSciTechnol/article/viewFile/3099/2225


    c) Operações OLAP podem ser executadas tanto para fins analíticos quanto para fins de atualização de dados.

    ERRADO. OLAP são operações de consulta e análise.


    d) O volume de dados de um DW geralmente é superior ao volume de dados de um BD transacional.

    CORRETO.
    e) Um Data Mart é um componente de um DW que não possui dados históricos.

    DATAMART possui dados históricos, poderém voláteis.

  • Apenas para complementar a resposta do leoh leoh, que em si já está muito boa, temos uma explicação bem fácil e conceitual para a opção b):

    b) Uma dimensão definida em uma modelagem multidimensional deve estar associada a um único fato.

    Existe na modelagem multidimensional o conceito de Constelação de Fatos: "é um conjunto de tabelas de fatos que compartilham algumas tabelas de dimensão"[1]. Então, podemos afirmar que a opção b) é FALSA.

    [1] ELSMARI - NAVATHE, Sistema de Banco de Dados, 4ª edição, 2008.

  • Prezados,

    Quando tratamos de um DW , normalmente temos um volume de dados maior que o banco de dados transacional , visto que o DW é projetado para consultas e análises , que demandam mais dados, enquanto o sistema transacional é projetado para suportar o negócio com performance adequada.

    Portanto a alternativa correta é a letra D



ID
210295
Banca
CESPE / CEBRASPE
Órgão
Banco da Amazônia
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Acerca do SQL Server, julgue os itens subsequentes.

O SQL Server oferece escalabilidade, mas não pode implementar o data warehouse.

Alternativas
Comentários
  • SQL Analysis Service é o serviço do SQL que implementa funções de DW. Portanto, MS-SQL possui suporte a Datawarehouse.

  •  

    O SQL Server oferece escalabilidade, interoperabilidade, disponibilidade, segurança, gerenciamento e possui plataforma integrada que inclui:

    • o OLAP (Processamento analítico on-line);
    • data mining, ferramentas de extração, transformação e carga  (ETL);
    • data warehousing e recursos de relatórios, ajudando a construir implementar de forma transparente, aplicações robustas de BI (Business Intelligence) enquanto controlam custos.
       
  • "O Azure Synapse Analytics é um serviço de análise que reúne data warehouse corporativo e análise de Big Data. O pool de SQL dedicado (antigo SQL DW) refere-se aos recursos de data warehouse empresariais que estão disponíveis no Azure Synapse Analytics."

    Microsoft


ID
211027
Banca
CESPE / CEBRASPE
Órgão
MPU
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

A respeito de data warehouse (DW) e data mining (DM), julgue os
próximos itens.

Antes da constituição do DW, é realizado o processo de DW que inclui uma fase final de limpeza e reformatação dos dados. Para a geração de regras que irão retornar ao DW, é realizado o processo de back end com técnicas de OLAP, decisionsupport systems (DSS) e DM.

Alternativas
Comentários
  • O que acontecou com o CESPE? Os avaliadores são semi-analfabetos. Só anulando mesmo.

ID
211033
Banca
CESPE / CEBRASPE
Órgão
MPU
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

A respeito de data warehouse (DW) e data mining (DM), julgue os
próximos itens.

As funções especiais ROLAP (OLAP relacional) e MOLAP (OLAP multidimensional), as extensões SQL e os métodos de junção (join) são ferramentas que podem ser utilizadas para aumentar a eficiência das consultas em bases de dados multidimensionais.

Alternativas
Comentários
  • Navathe, 6a Edição, página 729.
  • Procurei no livro que o colega citou só que na versão 3:

    Because data warehouses are free from the restrictions of the transactional environment there is an 
    increased efficiency in query processing. Among the tools and techniques used are: query 
    transformation, index intersection and union, special ROLAP (relational OLAP) and MOLAP 
    (multidimensional OLAP) functions, SQL extensions, advanced join methods, and intelligent scanning 
    (as in piggy-backing multiple queries).  

    Tenho uma observação, pois a questão cita "métodos de junção (join)" o que é diferente de métodos de junção avançados. Tudo bem que métodos de junção avançados são métodos de junção(!) mas isso dá margem para interpretação dúbia, pois utilizar join para "aumentar a eficiência das consultadas em bases de dados multidimensionais" não é, necessariamente, uma verdade. Ou seja, um select somente na fato é bem mais rápido do que fazer um select na fato com join na dimensão.


     
  • Fiquei com dúvida nessa questão, pois ela tratou os conceitos de ROLAP e MOLAP  como funções? Isso ficou estranho.
  • O Silberschatz trata MOLAP e ROLAP como sistemas e não como função. Mas enfim, CESPE é capciosa.  
  • ROLAP: possuem uma engenharia de acesso aos dados e análise OLAP com uma arquitetura um pouco diferente. Nesse caso a consulta é enviada ao servidor de banco de dados relacional e processada no mesmo, mantendo o cubo no servidor. O que podemos notar nesse caso é que o processamento OLAP se dará somente no servidor. A principal vantagem dessa arquitetura é que ela permite analisar enormes volumes de dados, em contra partida uma grande quantidade de usuários acessando simultaneamente poderá causar sérios problemas de performance no servidor cau- sando, inclusive, o travamento do mesmo.

    Neste caso ROLAP não aumenta a eficiência das consultas

    por isso marquei errado, muito duvidosa essa questão
  • Questão sacana,

    MOLAP e ROLAP são modelos ou sistemas de implementação OLAP. Marquei errado por isso.

    Porém, no SQL existe as FUNÇOES MOLAP e ROLAP. O avaliador estava se referindo a estas funções.


  • Errei por achar que "join" não aumenta a eficiência das consultas e sim diminui :/

  • Também concordo com o colega abaixo, pois o join ocasiona a queda no desempenho de consultas.

  • Questão mal feita! De acordo com Navathe (6ª ed, página 729):

    "Como os data warehouses são livres de restrições do ambiente transacional, existe uma eficiência aumentada no processamento da consulta. Entre as ferramentas e técnicas usadas estão a transformação de consulta, interseção e união de índice; funções especiais ROLAP (OLAP relacional) e MOLAP (OLAP multidimensional); extensões SQL; métodos de junção avançados; e varredura inteligente (como no acréscimo de consultas múltiplas)."

    Ou seja, de acordo com o texto:

    A eficiência é aumentada não pelo uso das ferramentas citadas (join diminui o desempenho), mas porque o data warehouse é livre de restrições do ambiente transacional.

  • Para quem não entende os comentários sem o gabarito como eu e não tem acesso a resposta.

    Gaba: CERTO

  • GABARITO QUESTIONÁVEL. HAJA VISTA QUE UMA DAS VANTAGENS DE SE UTILIZAR BD MULTIDIMENSIONAL É O FATO DE REDUZIRMOS A QUANTIDADE DE JOINS ENTRE AS TABELAS.


ID
211036
Banca
CESPE / CEBRASPE
Órgão
MPU
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

A respeito de data warehouse (DW) e data mining (DM), julgue os
próximos itens.

A tecnologia de DW tem como objetivos a extração eficiente, o processamento e a apresentação analítica de dados para suporte à decisão gerencial. Essa tecnologia utiliza o online analytical processing (OLAP) para a análise de dados complexos.

Alternativas
Comentários
  • Correta. É uma possível definição de DW.

  • segundo Schlöttgen  o processo de Data Warehousing, pode-se dividi-lo em quatro grandes atividades:
    • Extração,Processamento( Armazenamento de dados + Consulta de dados) e Apresentação

  • http://pt.wikipedia.org/wiki/OLAP

  • A questão está correta, pois aborda dois conceitos intrinsecamente ligados aos DWs: procedimentos ETL e ferramentas OLAP. Porém, é importante perceber o momento em que esse elementos atuam em um DW. Os procedimentos ETL (E-T-L | Extraction - Tranformation - Load) são utilizados para a geração/migração dos dados dos sistemas OLTP e de quaisquer outras fontes externas (com dados estruturados ou não) para o DW. Enquanto as ferramentas OLAP utilizam-se de consultas nos DWs para geração de informações necessárias a tomadas de decisões da empresa.

    Bons estudos!

  • GABARITO CORRETO!

    .

    .

    OLAP permite uma visão conceitual multidimensional dos dados e possui três componentes principais em sua arquitetura: um modelo de negócios, um motor para processar consultas multidimensionais e um mecanismo para armazenar os dados.


ID
226273
Banca
CESGRANRIO
Órgão
EPE
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Determinado órgão público que utiliza Microsoft SQL Server 2008 como tecnologia de banco de dados oferece, aos seus gestores, informações para tomada de decisão. Essas informações são oriundas de um Data Warehouse (DW), que é alimentado, diariamente, pelo banco de dados de produção transacional do órgão. Que recurso do banco de dados, introduzido na versão 2008, pode ser utilizado para apoiar o procedimento de carga do DW?

Alternativas
Comentários
  •  O Change Data Capture foi projetado para capturar inserção, atualizar e excluir atividade aplicada a tabelas do SQL Server e disponibilizar os detalhes das mudanças disponíveis em um formato relacional facilmente consumível. As tabelas de alterações usadas pelo Change Data Capture contêm colunas que refletem a estrutura de coluna de uma tabela de origem controlada, junto com os metadados necessários para entender as mudanças ocorridas. [1]

    [1] http://msdn.microsoft.com/pt-br/library/bb522489.aspx


ID
227179
Banca
VUNESP
Órgão
CEAGESP
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Quando se desenha uma solução de data warehouse como base de dados para uma solução de BI, em que os dados gerados serão disponibilizados para uma base de dados OLAP, a principal característica dos dados e do processo de data warehousing é que os dados devem

Alternativas
Comentários
  • Corrigindo Letra b. Os dados devem ser heterogeneos pois em muitas instâncias os sistemas de banco de dados não são diretamente compatíveis e geralmente nem todos usam o mesmo sistema operacional. Por isso, este cenário geralmente é chamado de ambiente de dados heterogêneo.
  • Os dados em um data warehouse não são modificáveis, porém, poder ser apagados caso não mais sejam úteis, no chamado purging. É a esse purging que "alterados muito raramente" se refere.
  • Discordo do comentário quanto a heterogeneidade dos dados. No dw os dados serão homogêneo, inclusive é função do ETL transformar(homogeneizar) dados de fontes heterogêneas.
    Questão mal elaborada, se o intento do examinador ao dizer que remover dados não úteis é o mesmo que alterar um dado (o que discordo veementemente) a questão teria duas respostas. Se não, o gabarito deveria ser a letra B.
  • A questão se refere ao desenho de uma solução de DW, em que os dados ainda não foram inseridos no DW. Desta maneira, afirmar que os dados devem ser homogêneos (antes de serem inseridos no DW) seria errado.

    De acordo com Navathe, a primeira etapa de aquisição de dados para o DW é a etapa em que os dados precisam ser extraídos de várias fontes heterogêneas.

    Ao serem inseridos no DW, os dados realmente se tornarão homogêneos, mas a questão se refere aos dados antes de serem inseridos.

    A letra A é a resposta correta mesmo
  • Acertei porque com exceção da A, as demais alternativas são absurdas para o conceito de DW. Porém, uma característica clara de um DW é o fato dele ser Não Volátil:

    "Em um DW não existem alterações de dados, somente a carga inicial e as consultas posteriores. Ele é definido assim pois as operações a nível de registro em modo on-line como são os sistemas transacionais, exigem um controle e um processamento muito grande, fugindo do objetivo principal do DW."

    Então, esse de haver atualizações raramente, ao meu ver, estaria errada. Os dados NÃO são alterados NUNCA. O que ocorre são somente novas cargas acrescentando novos dados históricos mais recentes. Mas, iria de A por exclusão.

    Bons estudos!

  • Sérgio Maia, nunca diga NUNCA. Os dados do DW podem ser apagados quando inúteis: puring


ID
230053
Banca
FUNCAB
Órgão
PRODAM-AM
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

No tocante aos datawarehouses, a característica desses armazéns de dados que está relacionada ao fato de que "uma vez inseridos, os dados não podem ser alterados, embora possam ser eliminados", é:

Alternativas
Comentários
  • Um Data Warehouse é um conjunto de dados baseado em assuntos, integrado, não volátil, e variável em relação ao

    tempo, de apoio às decisões gerenciais. 

  • Características de um Data Warehouse:

    Orientado por assunto. Refere-se aos sistemas transacionais organizados em uma determinada aplicação de uma empresa. A orientação por assunto é uma característica importante, pois toda a modelagem do DW é orientada a partir dos principais assuntos da empresa. Por exemplo, uma empresa de arrecadação de impostos, onde os principais assuntos são os cadastros de contribuintes, impostos a recolher.

    Integrado. Essa é a característica mais importante do DW, pois trata da integração, que é feita do ambiente operacional para as aplicações do DW. A integração é realizada visando padronizar os dados dos diversos sistemas em uma única representação, para serem transferidos para a base de dados única do DW.

    Não volátil. Nos sistemas transacionais os dados sofrem diversas alterações como, por exemplo, a inclusão, alteração e exclusão de dados. No ambiente do Data Warehouse os dados, antes de serem carregados, são filtrados e limpos “gerando informação”. Após essa etapa esses dados sofrem somente operações de consulta e exclusão, sem que possam ser alterados, e essa característica representa a não-volatilidade.

    Variável com o tempo. A variação em relação ao tempo consiste na manutenção de um histórico de dados em relação ao período de tempo maior que dos sistemas comuns, isto significa que as técnicas de mineração de dados não são aplicadas em tempo real, de forma a não comprometer o desempenho dos bancos transacionais OLTP. Ao analisarmos um dado de um DW, o mesmo sempre estará relacionado a um período determinado de tempo, pois terá uma chave de tempo que irá indicar o dia no qual esses dados foram extraídos.
    Alternativa: C

    Fonte:  Elmasri e Navathe 6° Ed.

ID
230128
Banca
FUNCAB
Órgão
PRODAM-AM
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Sejam as seguintes assertivas sobre esquemas multidimensionais para a modelagem de dados para Data Warehouses:

I. O esquema snowflake é uma variação do esquema estrela no qual as tabelas dimensionais de um esquema estrela são organizadas em uma lista de tabelas não normalizadas.
II. O esquema estrela consiste em uma tabela de fato com uma única tabela para cada dimensão.
III. O esquema onde um conjunto de tabelas de fatos compartilha algumas tabelas de dimensão é conhecido por hipercubo .

Marque a alternativa corretaemrelação às assertivas acima.

Alternativas
Comentários
  • Snowflakes é o esquema estrela normalizado na 3FN.

     Hipercubo existe quando uma tabela fato possui mais de três dimensões.

     

  • Questão retirada do livro do Elmasri e Navathe. Vejamos os conceitos:

    I. O esquema snowflake é uma variação do esquema estrela no qual as tabelas dimensionais de um esquema estrela são organizadas em uma lista de tabelas não normalizadas.  Item errado pois no esquema de estrela as tabelas dimensionais são organizadas em uma lista de tabelas NORMALIZADAS. ( Elmasri e Navathe,p.651. 4 edição)

     

    II. O esquema estrela consiste em uma tabela de fato com uma única tabela para cada dimensão . Corretissimo o item. ( Elmasri e Navathe,p.651. 4 edição)

    III. O esquema onde um conjunto de tabelas de fatos compartilha algumas tabelas de dimensão é conhecido por hipercubo . Item errado, pois o conceito se refere a Constelação de fatos e não a hipercubo.

    Portanto, Item B é correto.

     

  • Talita, o esquema estrela não é normalizado, você deve ter se enganado, quem é normalizado é o esquema snowflake.

    O item I esta incorreto porque: O esquema snowflake é uma variação do esquema estrela no qual as tabelas dimensionais de um esquema estrela são organizadas em uma hierárquia ao normalizá-las. Pagina 725 Sistemas da Banco de Dados - Navathe 6ª Edição.
  • Ao contrário do que disse a colega Talita, no modelo estrela as tabelas de dimensão são desnormalizadas, enquanto no snowflake, são normalizadas. Conforme podemos ver em "Kimball, Ralph. The Datawarehouse ETL Toolkit":
    "If a dimension is normalized, the hierarchies create a characteristic structure known as a snowflake"
     
    O problema do item I é que o texto está mal redigido. Acrescentei alguns comentários para tentar esclarecer:
     
    "O esquema snowflake é uma variação do esquema estrela [aqui falta uma vírgula] no qual [qual = snowflake] as tabelas dimensionais de um esquema estrela [o trecho 'de um esquema estrela' está sobrando nessa frase] são organizadas em uma lista de tabelas não normalizadas."

    Traduzindo: "O esquema snowflake é uma variação do esquema estrela. No snowflake, as tabelas dimensionais não são normalizadas.". Portanto, item ERRADO.

ID
236350
Banca
FCC
Órgão
TCE-SP
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Os bancos de dados precisam atingir um equilíbrio entre a eficiência no processamento de transações e o suporte aos requisitos de consulta (solicitações ad hoc do usuário). Porém, um data warehouse (DW) é tipicamente otimizado para o acesso a partir das necessidades de um tomador de decisão. Portanto, o armazenamento de dados em um DW reflete essa especialização e NÃO envolve processos, tais como

Alternativas
Comentários

  • b) Exportação dos dados do DW para atualização dos BDs transacionais(Errado) e purging de dados no DW.
    É justamente ao contrario que esse processoe é feito. Os dados copiados, por meio do processo de ETL (Extração Transformação e Carga), do BD transacional para o DW. Essa atualização varia da necessidade de cada empresa, em alguns lugares é mensalmente, outros semanalmente e alguns tem a necessidade que seja atualizado diariamente ou de hora em hora.

    Assim estaria correto:
    Exportação dos dados dos BDs transacionais do DW para atualização dos BDs transacionais do DW e purging de dados no DW. 
    Que quer dizer: Ataalização de dados dos BDs transacionais para o DW e exclusão (purging) de dados não mais úteis no DW.
  • backflushing é o nome do processo capaz de extrair dados da base DW e atualizar bancos de dados transacionais...... (correto)
    mas este processo não esta ligado ao armazenamento de dados como dito na questao


    cuidado com o enunciado das questoes

ID
240619
Banca
FCC
Órgão
TRT - 22ª Região (PI)
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

No âmbito dos DWs, uma outra concepção do ODS (Staging Area) está sendo estabelecida por alguns autores. Trata-se de

Alternativas
Comentários
  • Um  Operational Data Storage (ODS) ou  Staging Area (SA) representa um
    armazenamento intermediário dos dados, promovendo a integração dos dados do ambiente
    operativo antes de sua atualização no DW. Inicialmente, um ODS era considerado um
    repositório temporário que armazenava apenas informações correntes antes de serem
    carregadas para o DW, similar a uma cópia dos ambientes de sistemas transacionais em uma
    empresa. Atualmente,  alguns autores passaram a denominá-lo Dynamic Data Storage (DDS).
    Essa concepção se diferencia do conceito original pela sua periodicidade de armazenamento e
    pelo fato de não somente armazenar dados temporários para a carga do DW. Por não ser
    volátil, seus dados são armazenados ao longo do tempo e passam por alterações incrementais
    que ao longo do tempo, podendo se tornar um DW. (MACHADO, 2000).

    Fonte:
    http://busca.unisul.br/pdf/95398_Leonardo.pdf
  • •  ODS (Operational Data Storage): armazenamento intermediário de dados, com o objetivo de facilitar a integração dos dados dos sistemas transacionais antes da carga no DW. As informações  são voláteis e passíveis de descarte após a carga no DW.  •  DDS (Dynamic Data Storage): diferentemente do ODS,  os dados não são voláteis e permanecem incrementais ao longo do  tempo. Caso a granularidade do DDS seja compatível com o DW, os dois acabam se confundindo e há a preocupação de duplicidade de dados.
  • ETL (EXTRACT – TRANSFORM – LOAD)

    Destina-se à extração, transformação e carga dos dados de uma ou mais bases de dados de origem para uma ou mais bases de dados de destino (data warehouse);

    Trabalha com toda a parte de extração de dados de fontes externas, transformação para atender às necessidades de negócios e carga dos dados dentro do Data Warehouse;

    É o processo mais crítico e demorado na construção de um DW. 80% do tempo de desenvolvimento de um DW consiste no processo de ETL.

    OLAP (On-line Analytical Processing)

    É a capacidade de analisar grandes volumes de informações dentro de um Data Warehouse (DW).

    Os dados estão estruturados na modelagem dimensional e possuem alto nível de sumarização.

    As ferramentas OLAP são as quais os usuários finais tem acesso para extrair os dados de suas bases e construir os relatórios capazes de responder às suas questões gerenciais

     Data Mining (mineração de dados)

    São processos de análise de inferência e representa uma forma de busca de informação baseada em algoritmos que objetivam o reconhecimento de padrões escondidos nos dados.

    Busca correlações escondidas em altos volumes de dados.

    É o processo de explorar grandes quantidades de dados à procura de padrões consistentes.

    - É usado para descobrir regras, identificar fatores e tendências-chave, descobrir padrões e relacionamentos ocultos em grandes bancos de dados para auxiliar a tomada de decisões.

    Drill-through: permite uma busca de informações além do nível de granularidade existente na estrutura dimensional. Ocorre quando um usuário passa de uma informação contida de uma dimensão para outra.

    Operational Data Store (ODS): é o armazenamento intermediário dos dados, facilitando a integração dos dados do ambiente antes da sua atualização no Data Warehouse (DW).

    Alternativa: E


ID
240820
Banca
FCC
Órgão
TRT - 8ª Região (PA e AP)
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Como melhor relação custo/benefício, em um DW é mais aconselhável

Alternativas
Comentários
  • O data warehouse possibilita a análise de grandes volumes de dados, coletados dos sistemas transacionais (OLTP). São as chamadas séries históricas que possibilitam uma melhor análise de eventos passados, oferecendo suporte às tomadas de decisões presentes e a previsão de eventos futuros.

    Fonte: http://pt.wikipedia.org/wiki/Data_warehouse
  • Eu não entendi o que a banca quis perguntar, em minha opnião a pergunta foi mal formulada ... utiliza uma estrutura gramátical que eu desconheço.

    Provavelmente deve ter sido de algum livro em Inglês traduzido ao pé da letra ...

    "Como melhor relação custo/benefício, em um DW é mais aconselhável".  Seria: "para uma melhor relação custo/benefício, em um DW é mais aconselhável"
  • Também achei a questão mal formulada. A própria sigla utilizada não é de uso comum. De qualquer forma, acertei a questão indo por eliminação.
  • Se tivesse escrito só "em um DW é mais aconselhável" já dava para responder, imagine quando fala em melhor custo/benefício.
    Controversias gramaticais a parte:

    1º DW são caros, e dependendo do volume de dados a ser armazenados podem ser bastante caros, neste caso, para não guardar dados desnecessários e assim subutilizar o sistema, é preciso saber o que guardar. Lembre-se que DW guardam dados históricos, já pensou, 10 anos de informação guardados?
    2º DW servem de base para sistemas de BI e por isso os dados tem que ser úteis para a geração de informações estratégicas, por assim dizer.
    Agora vamos as alternativas.
    a) Absurdo, claro que dado geográfico tem relação com dado histórico, já pensou, eu sou o dono das Casas Bahia e quero saber qual filiar dá mais lucro para a empresa e qual dá mais prejuizo, pra poder fechar a segunda ou descobrir qual é o problema dela.
    b) Como é que vou fazer um gráfico da demanda de vendas durante o ano se não souber em que data elas ocorreram? outro absurdo.
    c) Ok, armazeno a data mas não sei do que se trata....
    d) dados transacionais podem ser armazenados, até mesmo para traçar perfir de comportamento, porém, imagine armazenar dados transacionais de oscilações de ações na bolsa de valores...aí, meu amigo, não tem DW que aguente tanta informação...essa alternativa está fora pela questão custo/benefício, pois é melhor, é mais barato, guardar informações de caráter histórico e estatístico do que transações.
    e) Correta.
  • todo mundo viajando, aí chega uma pessoa e faz um comentário tão simples assim melhor que todos


ID
241642
Banca
CESPE / CEBRASPE
Órgão
MPU
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de data warehousing, data mining e OLAP (online
analytical processing
), julgue os itens que se seguem.

Na modelagem de data warehouses, o uso de taxonomia facetada como método de descrição multidimensional e agrupamento da informação por meio de seus assuntos ou atributos permite a análise de dados não estruturados em sua forma original.

Alternativas
Comentários
  • Não teve jeito, precisei procurar a definição de "taxonomia facetada" pra compreender a questão. Talvez ajude aos colegas.

    Uma taxonomia facetada se constitui em um vocabulário controlado organizado em uma estrutura hierárquica conceitual, onde as categorias da taxonomia são sintetizadas em
    um nível mais alto de classificação, chamado facetas.
    As facetas de uma taxonomia podem ser construídas como perspectivas, pontos de vista ou dimensões de um domínio particular, provendo uma organização sistemática dos termos de um vocabulário controlado.

    Assim, as facetas são
    modeladas como dimensões para que os dados oriundos de diversas fontes de informação não estruturadas possam ser explorados nas análises.

  • Em [1], temos:

    "Ao analisarmos os dados não-estruturados em sua forma original, precisamos de um mecanismo capaz de desempenhar o papel de auxílio exploratório."

    Mais ainda: "... este papel pode ser desempenhado eficientemente por uma taxonomia facetada."

    Referência:
    [1] Uma abordagem multifacetada para exploração integrada de dados estruturados e não-estruturados em ambientes OLAP: http://teses2.ufrj.br/15/teses/735155.pdf
    • A palavra taxonomia vem de tassein, que significa "para classificar", e nomos, que significa "lei, ciência, administrar". Pode ser considerada um tipo de sistema de classificação: possibilita organizar e recuperar informação.
    • A taxonomia facetada permite que os dados possam ser armazenados e obtidos em um espaço de informação multidimensional por meio da combinação de "filtros" (pontos de vista, perspectivas) que realizam um estreitamento progressivo de escolhas em cada dimensão.
    • Exemplo de facetas de dados:
    • "Semana passada", "Ano passado" (baseada em tempo)
    • "Vídeo", "Foto" (tipo/fonte)

  • Mas DW não trabalha com dados estruturados? Seria a tal Taxonomia facetada um meio de estruturar?


ID
241648
Banca
CESPE / CEBRASPE
Órgão
MPU
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de data warehousing, data mining e OLAP (online
analytical processing
), julgue os itens que se seguem.

Dados para a formação de data warehouses podem ser provenientes de e-mails, conversas de telefone, documentos, planilhas. A abordagem linguística utiliza a análise de strings de caracteres para classificar o texto em determinadas categorias, que são definidas previamente de acordo com o objetivo da empresa.

Alternativas
Comentários
  • Essa descrição me parece compatível com Data Mining, portanto: Errada!
  • Toda a questão está correta exceto por um único trecho.  A definição dada se refere a abordagem temática e não a abordagem linguística(a qual é mais complexa e pouco flexível pois é embasada na língua em que se escreve). Tanto a abordagem lingística como a abordagem temática são aplicadas no processo de entendimento dos dados não estruturados antes dos mesmos serem inseridos(carregados) no datawarehouse.
  • Vamos quebrar a questão em dois itens:

    1. Dados para a formação de data warehouses podem ser provenientes de e-mails, conversas de telefone, documentos, planilhas.

    Item CERTO (eu também não sabia disso ).

    Vejam [1]:

    “A arquitetura do DW 2.0™ propõe, conforme mencionado, a incorporação de dados não-estruturados no processo de Data Warehousing. Esses dados podem ser provenientes de e-mails, conversas de telefone, documentos, planilhas, etc. Devido à natureza destes dados, que têm como essência o texto livre, incorporá-los simplesmente no mundo analítico, segundo Inmon, criaria um universo de análise muito pouco produtivo, sendo necessário que estes textos passem por uma série de tratamentos antes de serem incorporados efetivamente. É preciso separar o conteúdo realmente relevante para a empresa.”

     

    2. A abordagem linguística utiliza a análise de strings de caracteres para classificar o texto em determinadas categorias, que são definidas previamente de acordo com o objetivo da empresa.

    Item ERRADO.

    O que o item trouxe foi a descrição da abordagem TEMÁTICA [1]:

    “A abordagem lingüística trata o texto de acordo com a língua na qual ele está escrito, sendo sua utilização muito complexa e pouco flexível (uma análise deve ser feita para cada língua). A abordagem temática utiliza a análise de strings de caracteres para classificar o texto em determinadas categorias, que são definidas previamente de acordo com o objetivo da empresa.”

     

    Referência:

    [1] Uma abordagem multifacetada para exploração integrada de dados estruturados e não-estruturados em ambientes OLAP:http://teses2.ufrj.br/15/teses/735155.pdf

  • fonte aleatória ein, não dava para a banca tirar tudo de uma referência, tipo o Data Warehouse Toolkit? nunca ouvi falar nisso...


ID
245236
Banca
CESPE / CEBRASPE
Órgão
TRT - 21ª Região (RN)
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de sistemas de suporte a decisão e data warehousing, julgue
os itens a seguir.

Em um data warehouse, cada linha em uma tabela fato corresponde a uma medida, representada por um valor aditivo, em que necessariamente essas medidas não compartilham a mesma granularidade.

Alternativas
Comentários
  • "... necessariamente essas medidas não compartilham a mesma granularidade."

    Assertiva ERRADA!
  • As medidas podem ser:
    • aditivas,
    • semiaditivas e
    • não aditivas
  • As tabelas fato são compostas obrigatóriamente por uma chave primária composta pelas chaves primárias das tabelas que contêm as descrições do fato, as de dimensão. Além desta chave composta uma tabela fato contêm medidas que váriam de númericas ou sem medida e neste contexto tempos três tipos de tabela fato:

    • aditivas: são númericas e são somadas com relação as dimensões existentes, por exemplo: quantidade, valor total dos itens.
    • semi-aditivas: são númericas mas não podem ser somadas com relação a todas as dimensões, por exemplo: o estoque é totalizado ao longo da produto porém ao longo das dimensões loja e data não existe o menor sentido está totalização.
    • não-aditivas: dados não númericos, por exemplo: carro1, carro2, carro3.

    FONTE: http://www.flaviohorita.stillit.com.br/index.php?option=com_content&view=article&id=81:modelagem-dimensional&catid=43:business-intelligence&Itemid=57
  • A questão está errada porque as linhas compartilham a mesma granularidade, e a medida pode ser aditiva, semi-aditiva ou não aditiva.
  • Complementando a resposta dos colegas, realmente o erro da questão é que as tabelas FATO devem possuir medidas com a MESMA granularidade. Essa é, segundo Kimball, a quarta regra, dentre as 10 regras de ouro para a Modelagem Dimensional:

    http://litolima.com/2010/01/12/dez-regras-de-ouro-para-modelagem-dimensional/
  • Regra  4: Um Fato deve ter, sempre, a mesma granularidade.

    Existem três categorias fundamentais de granularidade: Transacional, Período no Tempo ou Período Acumulado (transacional, periodic snapshot, or accumulating snapshot).

     

    Indiferentemente do tipo da granularidade, cada medida em um Fato deve ter, exatamente, o mesmo nível de detalhe.

     

    Quando misturamos fatos (medidas), representando múltiplos níveis de granularidade em uma mesma tabela Fato, estaremos gerando uma confusão de informações sobre o negócio, gerando, com certeza, informações erradas e desacreditando o BI na empresa.

     

    https://litolima.com/2010/01/12/dez-regras-de-ouro-para-modelagem-dimensional/

     

  • ADITIVA - EX: LUCRO LÍQUIDO;

    SEMI-ADITIVA - EX: QUANTIDADE EM ESTOQUE;

    NÃO-ADITIVA - EX: PERCENTAGEM.


ID
245239
Banca
CESPE / CEBRASPE
Órgão
TRT - 21ª Região (RN)
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de sistemas de suporte a decisão e data warehousing, julgue
os itens a seguir.

Em um modelo do tipo estrela (star schema), devido à ligação entre as tabelas dimensionais e suas respectivas fontes de dados, as dimensões são dependentes de códigos operacionais de produção. Desse modo, nessas tabelas, convenciona-se usar como chave primária as mesmas utilizadas no ambiente de produção - origem dos dados.

Alternativas
Comentários
  • Quem se liga com sua fonte de dados não é o modelo estrela (star schema) e sim, o modelo snowflake
  • Ao meu ver, as dimensões são respostas a questões negociais, inclusive algumas, às vezes, não estão presentes no sistema online, como tempo. Já  os fatos tem ligação direta com as transações realizadas pelos sistemas online.
  • Não são chaves primárias são chaves substitutas.

    A surrogate key is a unique primary key that is not derived from the data that it represents, therefore changes to the data will not change the primary key. In a star schema database, surrogate keys are used to join a fact table to a dimension table. 

    Fonte: http://publib.boulder.ibm.com/infocenter/iisinfsv/v8r5/index.jsp?topic=%2Fcom.ibm.swg.im.iis.ds.parjob.dev.doc%2Ftopics%2Fc_parjdev_Surrogate_Key_Generator_Stage.html
  • Eu penso que a questão está errada pelo fato de que as tabelas dimensionais não estarem ligadas às suas respectivas fontes de dados. Através do processo ETL, os dados do DW são extraídos dos dados operacionais. Não há qualquer ligação com às fontes de dados. 
  • Deve ser utilizada a chave de substituição (surrogate key) que não é dependente do sistema legado, e sim criadas durante a carga do DW. Sendo assim as chaves serão diferentes do sistema de produção.

    Rodrigo G. Reis - TiMasters


ID
245242
Banca
CESPE / CEBRASPE
Órgão
TRT - 21ª Região (RN)
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de sistemas de suporte a decisão e data warehousing, julgue
os itens a seguir.

O data mining é um processo automático de descoberta de padrões, de conhecimento em bases de dados, que utiliza, entre outros, árvores de decisão e métodos bayesianos como técnicas para classificação de dados.

Alternativas
Comentários
  • Provavelmente entraram com recurso para essa questão.

    Data Mining é um processo semi-automático.

    Nas palavras de Silberschatz, Korth e Sudarshan ( Sistema de Banco de Dados, Pág 497)

    "Normalmente existe um componente manual para a mineração de dados, consistindo no pré-processamento dos dados para um formato aceitável aos algoritmos... Por esse motivo, a mineração de dados é na realidade um processo semi-automático na vida real."

    Talvez a banca tenha se baseado na última frase que ele disse:

    "Porém, em nossa descrição nos concentraremos no aspecto automático da mineração"

     

    Então a questão deveria ter sído formulada assim:

    Fora da vida real, o data mining é um processo automático de descoberta de padrões, de conhecimento em bases de dados, que utiliza, entre outros, árvores de decisão e métodos bayesianos como técnicas para classificação de dados.

  • Concordo plenamente com o amigo. O data mining não é um método automático e sim semi-automático, já que exige a intervenção dos profissionais de TI e dos especialistas do domínio.
  • Segundo Berry e Linoff (1997), em Data Mining Techniques: For Marketing, Sales and Customer Suport; o data mining corresponde à exploração e análise, por meios automáticos e semi-automáticos, de grandes quantidades de dados a fim de descobrir  padrões e regras significativas.
     Na edição de 2011, dos mesmos autores, o conceito de data mining está como um processo de negócio  para explorar grandes quantidades de dados para descobrir padroões e regras significativas.
  • Concordo com T. Renegado. Inclusive no livro do Silberschatz é citado que existe um componente manual para a mineração de dados, que consiste no pré-processamento dos dados para um formato aceitável aos algoritmos en no pós-processamento de padrões descobertos para encontrar outros que poderiam ser úteis.  
  • Apenas acrescentando o excelente comentário do colega, como o processo do data mining pode ser considerado automático e semi-automático, a questão não nega o fato dele não ser semi-automático, ficaria errado caso fosse dito é um processo unicamente automático. Prova do CESPE tem disso galera, tem que ficar esperto, as vezes não mencionar uma informação não caracteriza erro.

    Bons estudos
  • Para quem não entende os comentários sem o gabarito como eu e não tem acesso a resposta.

    Gaba: CORRETO

  • Tem "discussão" a respeito de ser ou não automático, porque na realidade não é...rsss, mas tem autor renomado que publicou que DATA MINING é automático, então levo p prova CESPE.

     

    "Data Mining Techniques: For Marketing, Sales, and Customer Support

    1997 - A mineração de dados é a exploração e análise, por meios automáticos ou semiautomático, de grandes quantidades de dados a fim de descobrir padrões e regras significativas."

  • Cespe, é ou nao é automatico? se decide!

     

  • Melhor resposta é a do colega Frederico Diniz

    Apenas acrescentando o excelente comentário do colega, como o processo do Data Mining pode ser considerado automático e semi-automático, a questão não nega o fato dele não ser semi-automático, ficaria errado caso fosse dito é um processo unicamente automático. Prova do CESPE tem disso galera, tem que ficar esperto, as vezes não mencionar uma informação não caracteriza erro.

  • resumindo: briga de gigantes, autores renomados X autores renomados

  • Creio que hoje essa questão seria considerada errada pela mudança de posicionamento dos autores com relação a palavra AUTOMÁTICA. Hodiernamente considera-se uma falácia. Segue resumo extraído de comentários de colegas.

    FALÁCIAS DE DATA MINING:

     

    *Data mining é automático: pelo contrário, data mining é interativo, é um processo que requer supervisão

     

    *Data mining pode identificar problemas no negócio: ele pode encontrar padrões e fenômenos, identificar problemas deve ser feito por especialistas

     

    *Investimentos são recuperados rapidamente: não pode ser afirmado pois depende de inúmeros fatores

     

    *Software são intuitivos e simples: é mais importante conhecer os algorítmos e o negócio em si

  • Pessoas conjecturam muito que prova do cespe é isso ou aquilo. Provavelmente a verdade é que uma cambada de professores elabora questões baseados em livros diferentes, com entendimentos divergentes, jogam o gabarito que bem entendem, o candidato entra com recurso e o CESPE nega, para não se dar ao trabalho.

    Isso cheira a mais falta de organização e má-vontade na avaliação das questões do que algo pensado. Afinal, haveria alguém ou alguma autoridade/lei para fiscalizar concursos? Vocês já sabem a resposta.

  • Quem sabe, sabe: essa banca é muito prepotente, prefere anular uma questão a assumir o erro

  • Entendimento recente do cespe sobre o assunto:

    "Pode" ter processos automáticos( algoritmos) ou [semi-automáticos (regra)]

    (CESPE - 2014 - TJ-SE)

    Assim como o DataMining, os DataMarts são voltados para a obtenção de informações estratégicas de maneira automática, ou seja, com o mínimo de intervenção humana a partir da análise de dados oriundos de DataWarehouses.Errado

    -->Datamarts compôem um Dw .

    (CESPE - 2013 - SERPRO)

    Datamining é a tecnologia por intermédio da qual os processos são automatizados mediante racionalização e potencialização por meio de dois componentes: organização e tecnologia. Errado

    (CESPE: TJ-ESProva 2011)

    Mineração de dados, em seu conceito pleno, consiste na realização, de forma manual, de sucessivas consultas ao banco de dados com o objetivo de descobrir padrões úteis, mas não necessariamente novos, para auxílio à tomada de decisão. Errada

  • 72% acertos ainda.

  • CERTO

    As aplicações de data mining utilizam diversas técnicas de natureza estatística, como a análise de conglomerados (cluster analysis), que tem como objetivo agrupar, em diferentes conjuntos de dados, os elementos identificados como semelhantes entre si, com base nas características analisadas.

    O data mining consiste no processo virtual em que uma máquina realiza de maneira programada a prospecção e coleta de dados no ambiente eletrônico. 

    Ou seja, é uma forma ativa e automatizada de obter informação a partir da internet e de sistemas em rede.

  • O processamento pode ser automático e semiautomático, como o examinador não restringiu, logo, alternativa correta! Ainda, vale ressaltar que o processamento automático tem supervisão humana, mesmo que seja mínima.

  • AUTOMÁTICO OU SEMI-AUTOMÁTICO.

  • Falácias do DM segundo Larose

    1) apenas soltar uma ferramenta nos dados repositório é suficiente.

    NÃO, é necessário ação humana.

    2) autonomia da máquina, pouca ou zero supervisão humana.

    ERRADO! Necessita de interação! O homem recalibra a maquina até os dados fazerem sentido.

    3) a DM se paga rapidamente.

    NÃO, o CUSTO É ALTO com ferramentas e profissionais, leva tempo para obter resultados. NÃO É TRIVIAL.

    4) os pacotes de software de DM são intuitivos e fáceis de usar.

    Não, pois, DEMANDA CONHECIMENTO ESPECIALIZADO.

    5) a DM identificará as causas do negócio ou pesquisa de problemas.

    NÃO, quem identifica é o ser humano.

    6) a DM limpará um BD bagunçado automaticamente.

    NÃO, a limpeza / organização / filtragem deve ser feita anteriormente.

  • Berry Linoff

    • "A mineração de dados é o processo de exploração e análise, por meios automáticos ou semi-automáticos, de grandes quantidades de dados a fim de descobrir padrões e regras significativas ..."

    O próprio autor se arrependeu da definição, e na edição seguinte do livro (3 anos depois):

    • "Se há alguma coisa que lamentados, é a frase 'por meios automáticos ou semi-automáticos' ... porque sentimos que veio a haver muito foco sobre as técnicas automáticas e não o suficiente na exploração e análise de dados." 

    Falácia (segundo Larose): "O processo de Mineração de Dados é autônomo, exigindo pouco ou nenhuma supervisão humana." (afirmação falsa) -> Precisa SIM da interação do humano (processo Interativo)

    Entendimento atual, 

    apenas Automático = ERRADO 

    Automático e Semi-Automático = CERTO

    Livro: https://www.academia.edu/32136048/Data_Mining_Techniques_For_Marketing_Sales_and_Customer_Relat

    • A banca utilizou a classificação dos métodos segundo o autor Han et al

    (Pelo visto o Cespe trata "técnicas" e "algoritmos como sinônimos em data mining)

    • Árvore de Decisão 
    • Redes Neurais
    • Classificação Bayesiana
    • Classificação baseada em Regras
    • Classificação por regras de Associação
    • Aprendizado Tardio 

    etc...

  • Gabarito: certo

    ##CESPE - 2013 - INPI - Analista de Planejamento - Desenvolvimento e Manutenção de Sistemas

    O Data Mining possibilita descobrir padrões úteis de diferentes formas. Uma delas é por meio de classificação, utilizando-se o algoritmo ID3 que recebe como entrada um conjunto de tuplas para treinamento chamado exemplos e um atributo objetivo, que permite criar árvores de decisão. (CERTO)

  • certo

    então, data mining é automatico ou semi-automatico, a questão não restringiu dizendo ser apenas automático, por isso marquei correta, mas marquei com medo rsrs, na prova sei nao viu, pensaria bastante...

  • "De forma simplificada, a mineração de dados pode ser definida como um processo automático ou semiautomático de explorar analiticamente grandes bases de dados, com a finalidade de descobrir padrões relevantes que ocorrem nos dados e que sejam importantes para embasar a assimilação de informação importante, suportando a geração de conhecimento".

    Fonte: Introdução à Mineração de Dados - Silva, Peres, Boscarioli, 2016, p. 30

  • c-

    para enriquecer.

    algoritmos para classificacao data mining:

    • Decision Trees.
    • Logistic Regression.
    • Naive Bayes Classification.
    • k-nearest neighbors.
    • Support Vector Machine.

ID
271021
Banca
CESPE / CEBRASPE
Órgão
PREVIC
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens a seguir, relativos aos sistemas de suporte a decisão.

Os esquemas em estrela e em flocos de neve são dois modelos multidimensionais comuns. Dadas as suas características, o modelo em flocos de neve aumenta a redundância de dados e, por isso, aumenta o espaço utilizado em disco.

Alternativas
Comentários
  • No modelo de flocos de neve acontece a normalização das tabelas e consequentemente a redundância é eliminada, logo :

    Os esquemas em estrela e em flocos de neve são dois modelos multidimensionais comuns. Dadas as suas características, o modelo em flocos de neve aumenta DIMINUI a redundância de dados e, por isso, aumenta  DIMINUI o espaço utilizado em disco.

     

    • Modelo Estrela: Mais simples de entender, nesse modelo todas as dimensões relacionam-se diretamente com a fato.
    • Modelo Floco de Neve:Visa normalizar (diminui a redundância) o banco, esse modelo fica mais complicado do analista entender, nele temos dimensões auxiliares.
  • O modelo em flocos de neve DIMINUI a redundância, pois este esquema normaliza, para a 3FN, todas as tabelas dimensão. Portanto, como são normalizadas, diminui o espaço utilizado em disco. 
  • MODELO ESTRELA (STAR):
    -1 (uma) Tabela Fato (central) e N Tablas Dimensão;
    -Simplicidade do modelo;
    -Performance
    -O esquema estrela é basicamente uma tabela de fatos central conectada a várias tabelas dimensão em um relacionamento 1:N, sendo uma única tabela para cada dimensão;
    -São desnormalizadas, isto é, possuem dados relevantes;
    obs1: a tabela fato é normalizada e contem chave estrangeira (FK).
    obs2: todas as tabelas dimensões relacionanam-se com a tabela fato
    obs3: as tabelas dimensões devem conter TODAS as descrições que são necessárias para definir uma classe como produto.   

     

     

    MODELO FLOCO DE NEVES (SNOW FLAKE):
    -O Esquema Floco de Neves é basicamente uma tabela de fatos central conectada a várias tabelas de dimensão, sendo possível haver várias tabelas para cada dimensão;
    -R
    eduz espaço em disco por conta de sua NORMALIZAÇÃO, que vai até a 3ª FN (Forma Nominal);
    -Resultado da decomposição de uma ou mais Tabela Dimensão (Normalizadas até a 3ª FN);
    -Em contraste com o Esquema Estrela, apresenta consultas mais complexas, mais lentas, PORÉM com manutenção mais fácil;
    -Ocupa menos espaço para armazenamento;
    obs1: as tabelas dimensões relacionam-se com a tabela fatos, PORÉM algumas dimensões relacionam-se entre elas.

  • ERRADO

    Floco de Neve---> Normalizado

    + normalizado /normalização= mau desempenho para consultas

    (-) normalizado/desnormalização = Bom desempenho para consultas

  • Errado

    Floco de Neve é normalizado, portanto, evita a redundância de dados.

  • Floco de neve (normalizado, menos redundância, ocupa menos espaço no disco); Estrela (desnormalizado, mais redundância, ocupa mais espaço no disco)

  • Gabarito: errado

    Estrela: desnormalizada

    dados não normalizados -> maior espaço de armazenamento, maior desempenho (velocidade) de acesso;

    Floco de neve -> normalizada

    dados normalizados -> menor espaço de armazenamento, pior desempenho para acesso;

  •  No Modelo Estrela os dados estão desnormalizados, isto é, estão redundantes e replicados, logo não há economia de espaço.

    - O Modelo Snowflake acrescenta graus de normalização às tabelas de dimensões, eliminando redundâncias. No entanto, como os dados estão normalizados, as consultas são mais complexas e a obtenção de informações será menos eficientes do que no Modelo Estrela. Esse modelo fornece explicitamente suporte a hierarquias de atributos.

  • Quem aumenta a redundância é o esquema estrela, já que se reduz a quantidade de relações, concentrando os dados na tabela fato e nas tabelas dimensões ao redor da fato.


ID
285952
Banca
FUNIVERSA
Órgão
SEPLAG-DF
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

A tomada de decisão nas organizações pode ser embasada em fontes de informações diferentes. Essas fontes podem incluir formatos e esquemas distintos para o armazenamento dos dados. Em relação ao exposto, assinale a alternativa correta.

Alternativas
Comentários
  • GABARITO E!

    A) Um data warehouse (DW) é uma coleção de informações que serve para apoiar na decisão. A grande diferença de um DW para um BD é que o banco de dados comum tradicionalmente armazena informações transacionais, já o DW armazena informações direcionadas ao apoio da decisão (ELMASRI e NAVATHE, 2005).

    B) Data Mining é a concepção de modelos computacionais capazes de identificar e revelar padrões desconhecidos, mas existentes entre dados pertencentes a uma ou mais bases de dados distintas (THOMÉ, 2002).

    C) O BI ajuda organizações a acessar informação sintetizada de forma fácil para a tomada de decisão. Nesse processo, o ato de transformar dados em informações úteis e significativas, terá como destino a distribuição destas informações para aqueles que realmente precisarão delas e que poderão tomar decisões corretas e na hora certa. Oliveira e Pereira (2008)

    D) OLAP (online analytical processing) é um termo utilizado para descrever a análise de dados complexos a partir do data warehouse. As ferramentas OLAP empregam as capacidades de computação distribuída para análises que requerem mais armazenamento e poder de processamento que as disponibilizadas por um desktop. Navathe (Sistemas de Bancos de Dados, 6 edição).

    E) O DW recebe constantemente dados históricos e em lotes, o que faz com que ele aumente seu tamanho gradativamente, gerando um grande problema. Esse problema consiste na necessidade de se desenvolver consultas nessas grandes quantidades de dados e mesmo assim, ter resultados rápidos e seguros, dessa forma faz-se necessário a utilização de técnicas de mineração de dados (TEOREY et al., 2007).

  • e-

    O data mining é um processo automático de descoberta de padrões, de conhecimento em bases de dados, que utiliza, entre outros, árvores de decisão e métodos bayesianos como técnicas para classificação de dados.


ID
287575
Banca
INSTITUTO CIDADES
Órgão
UNIFESP
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de Data Warehouse, marque a alternativa correta:

Alternativas
Comentários
  • A letra a foi tirada do Wiki, um data warehouse ou armazém de dados, ou ainda depósito de dados, é um sistema de computação utilizado para armazenar informações relativas às atividades de uma organização em bancos de dados, de forma consolidada. 
    A pegadinha da letra a foi que trocaram o nome "banco de dados" para "Sistemas Operacioniais". 
    Os dados de um data warehouse não são voláteis mas sim, agregados de informações e não são para escrita, somente leitura.

    OLAP,ou On-line Analytical Processing é a capacidade para manipular e analisar um grande volume de dados sob múltiplas perspectivas.

    As aplicações OLAP são usadas pelos gestores em qualquer nível da organização para lhes permitir análises comparativas que facilitem a sua tomada de decisões diárias.

  • Vamos analisar cada opção:

    A) Explicação totalmente diferente do propósito de um DW, o qual não tem nada a ver com Organização de sistemas operacionais.

    B) Correta a afirmação. A pegadinha é Citar o OLTP em vez do OLAP.

    C) DW não são voláteis, estando disponíveis somente para leitura!

    D) OLAP não tem objetivo de desfragmentar dados.

    Logo a resposta é a letra B
  • Como falado, a pegadinha da letra B é citar OLTP ao invés de OLAP. Dá pra confundir um pouco.

ID
287578
Banca
INSTITUTO CIDADES
Órgão
UNIFESP
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Ainda acerca de Data Warehouse, marque a alternativa INCORRETA:

Alternativas
Comentários
  • Os data warehouse surgiram como conceito acadêmico na década de 80.
  • a) The concept of data warehousing dates back to the late 1980s  when IBM researchers Barry Devlin and Paul Murphy developed the "business data warehouse".
    Fonte: http://en.wikipedia.org/wiki/Data_warehouse

    b) "Atualmente, por sua capacidade de sumarizar e analisar grandes volumes de dados,o data warehouse é o núcleo dos sistemas de informações gerenciais e apoio à decisão das principais soluções de business intelligence do mercado."

    c) Metadado é uma abstração dos dados, ou ainda, dados de mais alto nível que descrevem dados de um nível inferior. Sem metadados, os dados não têm significado. São exemplos de metadados as descrições de registros em um programa de aplicação ou o esquema de um banco de dados descrito em seu catálogo ou ainda as informações contidas em um dicionário de dados. 
    No caso de data warehouse metadado define as regras para ETL.

  • Caro FABRICIO REZENDE REGIS, a questão está se referindo à resposta INCORRETA. Então não há erro no gabarito.
  • Decorar data é complicado... fui por eliminação.
  • Achei estranho a letra C, entendi que um DW era gerenciado por um repositório de metadados

  • Década de 1950 nem se quer usava cartão perfurado. Quem dirá DW


ID
311830
Banca
FCC
Órgão
TRT - 14ª Região (RO e AC)
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

No contexto de DW, é uma categoria de ferramentas de análise denominada open-end e que permite ao usuário avaliar tendências e padrões não conhecidos entre os dados. Trata-se de

Alternativas
Comentários
  • Prospecção de dados ou mineração de dados (também conhecida pelo termo inglês data mining) é o processo de explorar grandes quantidades de dados à procura de padrões consistentes, como regras de associação ou sequências temporais, para detectar relacionamentos sistemáticos entre variáveis, detectando assim novos subconjuntos de dados.
  • A opção correta é a letra E - data mining.

    Conforme:

    "O data mining ou mineração de dados é uma categoria de ferramentas de análise open-end. Ao invés de fazerem perguntas, os usuários entregam para a ferramenta grandes quantidades de dados em busca de tendências ou agrupamentos dos dados. Ferramentas de data mining utilizam-se das mais modernas técnicas de computação, como redes neurais, descoberta por regra, detecção de desvio, programação genética, para extrair padrões e associações de dados. " (Fonte: http://www.din.uem.br/~ia/a_multid/mineracao/tecnologia/warehouse.html, acesso em 21/06/2012)

    O data mining ou mineração de dados é uma categoria de ferramentas de análise open-end. Ao invés de fazerem perguntas, os usuários entregam para a ferramenta grandes quantidades de dados em busca de tendências ou agrupamentos dos dados. Ferramentas de data mining utilizam-se das mais modernas técnicas de computação, como redes neurais, descoberta por regra, detecção de desvio, programação genética, para extrair padrões e associações de dados. O data mining ou mineração de dados é uma categoria de ferramentas de análise open-end. Ao invés de fazerem perguntas, os usuários entregam para a ferramenta grandes quantidades de dados em busca de tendências ou agrupamentos dos dados. Ferramentas de data mining utilizam-se das mais modernas técnicas de computação, como redes neurais, descoberta por regra, detecção de desvio, programação genética, para extrair padrões e associações de dados. O data mining ou mineração de dados é uma categoria de ferramentas de análise open-end. Ao invés de fazerem perguntas, os usuários entregam para a ferramenta grandes quantidades de dados em busca de tendências ou agrupamentos dos dados. Ferramentas de data mining utilizam-se das mais modernas técnicas de computação, como redes neurais, descoberta por regra, detecção de desvio, programação genética, para extrair padrões e associações de dados.  
  • GABARITO E!

    O Data Mining apoia o conhecimento indutivo, que descobre novas regras e padrões nos dados fornecidos.

    (ELMASRI, NAVATHE, 2005).

    “Data Mining é a concepção de modelos computacionais capazes de identificar e revelar padrões desconhecidos, mas existentes entre dados pertencentes a uma ou mais bases de dados distintas”.

    (THOMÉ, 2002).

  • Data Mining (mineração de dados)

    São processos de análise de inferência e representa uma forma de busca de informação baseada em algoritmos que objetivam o reconhecimento de padrões escondidos nos dados.

    Busca correlações escondidas em altos volumes de dados.

    É o processo de explorar grandes quantidades de dados à procura de padrões consistentes.

    É usado para descobrir regras, identificar fatores e tendências-chave, descobrir padrões e relacionamentos ocultos em grandes bancos de dados para auxiliar a tomada de decisões.

    STAR SCHEMA (Esquema estrela)

    Abordagem que não recomenda a normalização das tabelas dimensão.

    Mais recomendável e tem maior desempenho;

    É a estrutura básica de um modelo de dados multidimensional.

    Possui uma grande entidade central denominada fato.

    ETL (EXTRACT – TRANSFORM – LOAD)

    Destina-se à extração, transformação e carga dos dados de uma ou mais bases de dados de origem para uma ou mais bases de dados de destino (data warehouse);

    Trabalha com toda a parte de extração de dados de fontes externas, transformação para atender às necessidades de negócios e carga dos dados dentro do Data Warehouse;

    É o processo mais crítico e demorado na construção de um DW. 80% do tempo de desenvolvimento de um DW consiste no processo de ETL.

    Slice and Dice: são operações para realizar navegação por meio de dados na visualização de um cubo. É a redução do escopo dos dados em análise.

    Operational Data Store (ODS): é o armazenamento intermediário dos dados, facilitando a integração dos dados do ambiente antes da sua atualização no Data Warehouse (DW).

    Alternativa: E

  • e-

    data mining é um processo de lapidar dados brutos e extrair conhecimento a partir deles. Este processo pode operar diretamente em fontes de dados brutas sob a qual deverá realizar uma severa etapa de pré-processamento de dados mas é recomendado a partir de uma fonte de dados já integrada e limpa, como, por exemplo um Data Warehouse.


ID
314650
Banca
FCC
Órgão
TRT - 1ª REGIÃO (RJ)
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Ao nível de sumarização dos elementos e de detalhes disponíveis nos dados em um DW dá-se o nome de

Alternativas
Comentários
  • Granularidade faz referência ao nível de detalhe que se deseja em determinado momento na análise de dados. A granularidade é inversamente proporcional à quantidade de detalhes, segue o esquema:

     

    Quanto maior for a granularidade (<) menor será o nível de detalhes;

    Quanto menor for a granularidade (>) maior será o nível de detalhes; 

    ou

    Grãos maiores = Menos detalhes

    Grãos menores = Mais detalhes

  • Granularidade diz respeito ao nível de detalhe ou de resumo contido nas unidades de dados existentes no data warehouse. Quanto maior o nível de detalhes, menor o nível de granularidade. O nível de granularidade afeta diretamente o volume de dados armazenado no data warehouse e ao mesmo tempo o tipo de consulta que pode ser respondida.

    Quando se tem um nível de granularidade muito alto o espaço em disco e o número de índices necessários se tornam bem menores, porém há uma correspondente diminuição da possibilidade de utilização dos dados para atender a consultas detalhadas.
    FONTE: http://ticonceitos.blogspot.com/2011/03/banco-de-dados-granularidade-em-data.html
  • Granularidade faz referência ao nível de detalhe que se deseja em determinado momento na análise de dados.

    A granularidade é inversamente proporcional à quantidade de detalhes.

     

    Quanto MAIOR for a granularidade MENOR será o nível de detalhes;

    Quanto MENOR for a granularidade MAIOR será o nível de detalhes; 

     

    Em outras palavras:

     

    Grãos maiores = Menos detalhes

    Grãos menores = Mais detalhes

     

  • Granularidade de dados

    - A granularidade refere-se ao nível de sumarização dos elementos e de detalhes disponíveis nos dados.

    - Quanto mais detalhe existir mais baixo será o nível de granularidade

    - Quanto menos detalhes existir, mais alto será o nível de granularidade

    Alternativa: C


ID
319747
Banca
CESPE / CEBRASPE
Órgão
INMETRO
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Considere que uma empresa possua um DW (datawarehouse), com dados que se originam de diversos sistemas de informações. Considere, ainda, que um departamento dessa empresa necessite acessar as informações armazenadas no DW, todavia, em um escopo bastante limitado de informações. Nessa situação, o recurso que deve ser utilizado para atender a essa demanda consiste

Alternativas
Comentários
  • Data Mart é limitado, pois é um data warehouse reduzido que fornece suporta à decisão de um pequeno grupo de pessoas. 

    Letra A

     

    Fonte:

    Decisões com BI (Business Intelligence)

    V. Primak

     

    Editora Ciência Moderna

  • O que eu acredito que poderia confundir é a letra B, por ser uma empresa. No entanto, o o ERP (Enterprise Resource Planning) é um tipo de Data Warehouse que serve para "consolidar diversas áreas funcionais dentro de uma organização, incluindo produção, vendas, distribuição, marketing, finanças, recursos humanos, e assim por diante" (Navathe).

    Ou seja, o escopo de informações não é limitado.

    GABARITO: A


ID
320467
Banca
CESPE / CEBRASPE
Órgão
INMETRO
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

No que se refere ao papel da informação nas organizações, assinale a opção correta.

Alternativas
Comentários
  • Aos não assinantes,

    GABRITO: E



ID
320503
Banca
CESPE / CEBRASPE
Órgão
INMETRO
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Assinale a opção correta com relação aos conceitos de data mart.

Alternativas
Comentários
  • Gabarito: B

     

    Data Mart é uma estrutura similar ao do DW, porém com uma proporção menor de informações. Trata-se de um subconjunto de informações do DW que podem ser identificados por assuntos ou departamentos específicos. O conjunto de Data Marts em conformidade dentro da organização compõe o DW.

  • (a) Errado. Um Data Warehouse pode ser constituído de diversos Data Marts;

    (b) Correto. Pode ser uma restrição a uma unidade, assunto ou processo de negócio específico;

    (c) Errado. Em geral, eles utilizam modelos multidimensionais;

    (d) Errado. Data Mart e Data Warehouse possuem estruturas semelhantes;

    (e) Errado. A forma de acesso aos dados também é semelhante.

  • Os data marts possuem a mesma estrutura dos data warehouse, O que os diferencia é o tipo da rede em que cada um é utilizado.

    gab ERRADO

    Vejam a letra D da presente questão agora!!!


ID
320506
Banca
CESPE / CEBRASPE
Órgão
INMETRO
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Com relação à arquitetura genérica do data warehouse, assinale a opção correta.

Alternativas
Comentários
  • Gabarito: LETRA D

  • Letra A: Camada de Bancos de Dados Operacionais. (ERRADO)

    Letra B: Camada de Acesso à Informação. (ERRADO)

    Letra C: Camada de Gerenciamento de Processos. (ERRADO)

    Letra D: Camada de Transporte. (CORRETO)

    Letra E: Camada de Acesso aos Dados. (ERRADO)


ID
320539
Banca
CESPE / CEBRASPE
Órgão
INMETRO
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Assinale a opção correta, a respeito de modelagem dimensional.

Alternativas
Comentários
  • questão tão enjoada que não tem nem como solicitar a explicação do professor :'(

  • Aos não assinantes,

    GABRITO: E

  • Com base nos meus conhecimentos (que não são muito vastos):

    A - Errado. Também busca simplificação da interface com o usuário;

    B - Errado. Anulei porque considero que não necessariamente as dimensões são numéricas (ex.: localidade, pode ser Sul, Nordeste, etc);

    C - Errado. O desempenho em consultas em OLAP é melhor que em OLTP;

    D - Errado. O bando de dados normalizado diminui a ocupação de espaço pois retira itens redundantes, o que piora é o desempenho, pois as consultas ficam mais complexas e mais lentas;

    E - Correto. Confesso que fui na eliminação. Não encontrei erro, por isso marquei.


ID
320542
Banca
CESPE / CEBRASPE
Órgão
INMETRO
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Na modelagem de uma datawarehouse, deve-se considerar que os processos de negócio

Alternativas
Comentários
  • GABARITO: C

    Não me perguntem o porquê hahaha


ID
321106
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de soluções de suporte a decisão, julgue os itens seguintes.

As ferramentas de software ETL (extract transform load) têm como função a extração de dados de diversos sistemas, a transformação desses dados de acordo com as regras de negócio e a carga dos dados em um data mart ou um DW.

Alternativas
Comentários
  • ETL, do inglês Extract Transform Load (Extração Transformação Carga), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um Data Mart ou um Data Warehouse.

    O processo de Extração, Transformação e Carga (Extract, Transform, Load – ETL) é um processo que envolve:

    • Extração de dados de fontes externas
    • Transformação dos mesmos para atender às necessidades de negócios
    • Carga dos mesmos no Data Warehouse (DW)

    O ETL é importante, pois é a forma pela qual os dados são efetivamente carregados no DW.


  • Data mart (repositório de dados) é sub-conjunto de dados de um Data warehouse (armazém de dados). Geralmente são dados referentes a um assunto em especial (ex: Vendas, Estoque, Controladoria) ou diferentes níveis de sumarização (ex: Vendas Anual, Vendas Mensal, Vendas 5 anos), que focalizam uma ou mais áreas específicas.

  • Lembrando que o processo de ETL (Extract, Transform and Load) é o processo MAIS CRÍTICO e MAIS DEMORADO na construção de um Data Warehouse, pois consiste na extração dos dados de bases heterogêneas, na transformação e limpeza destes dados, e na carga dos dados na base do DW. Já vi questões afirmando que o DW é um processo mais demorado que o processo ETL , o que não é verdade.

  • (C)

    ETL, Essa sigla significa Extração, Transformação e Carga (em inglês Extract, Transform and Load) e trata da sistematização do tratamento e limpeza dos dados oriundos dos diversos sistemas organizacionais.

    CESPE / ETL

    ETL indica um processo de extração e transformação de dados em um data warehouse.(C)


ID
321109
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de soluções de suporte a decisão, julgue os itens seguintes.

Toda estrutura de dados no DW tem um elemento de tempo – como dia, mês ou ano – como referência.

Alternativas
Comentários
  • Uma das principais dimensões em um DW ou DM é a dimensão tempo.
  • Em um DW a dimensão TEMPO está SEMPRE presente

    Ref: INMON, WILIAM H; HACKTHORN, RICHARD D. COMO USAR O DATA WAREHOUSE. RIO DE JANEIRO: INFOBOOK, 1997.
  • Segundo a definição de INMON - 1992, Data Warehouse é uma coleção de dados orientada por temas, integrada, variante no tempo e não volátil, que tem por objetivo dar suporte aos processos de tomada de decisão. Basicamente a informação de um DW é visualizada sob a perspectiva de "fatias de tempo" ("slices of time") sendo que um dos enfoques principais consiste em analisar resultados quantitativos em algum intervalo de tempo como dias, semanas ou meses.
  • Metadados do datawarehouse não...
  • Uma das características do DW é ser variável com o tempo, isto é, mostrar o valores das métricas de acordo com o tempo (ano, mês, dia,...).
    Então a questão está correta.
  • Variante no tempo: A variação em relação ao tempo consiste na
    manutenção de um histórico de dados em relação ao período de tempo maior
    que dos sistemas comuns. Ao analisarmos um dado de um DW, o mesmo
    sempre estará relacionado a um período determinado de tempo, pois terá uma
    chave de tempo que irá indicar o dia no qual esses dados foram extraídos.

     

     

  • Estrutura do DW = princípio da unicidade em arquivologia.


ID
321112
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de soluções de suporte a decisão, julgue os itens seguintes.

Em um ambiente data warehouse (DW), é possível a análise de grandes volumes de dados, os quais ficam disponíveis para serem alterados e manipulados pelo usuário.

Alternativas
Comentários
  • Acho que o erro está em "alterados", visto que uma das características do DW é ser não volátil.
    Isto é, os dados raramente são modificados.
  • Segundo Inmon (2005), um Data Warehouse é:

    Orientado a assuntos
    Variável em relação ao tempo
    Não volátil
    Integrado

    Em regra, não se altera o conteúdo histórico armazenado no DW !
  • Os dados contidos em um data warehouse estão somente para serem analisados, consultados e portanto não são alterados.
  • Os dados existentes em um data warehouse não podem ser alterados.
  • De fato, é possível a análise de grandes volumes de dados, no entanto os dados ficam disponíveis apenas para serem consultados ou eliminados e, não, alterados e manipulados pelo usuário.

    FONTE: ESTRATÉGIA 2020

  • Comentários:

    De fato, é possível a análise de grandes volumes de dados, no entanto os dados ficam disponíveis apenas para serem consultados ou eliminados e, não, alterados e manipulados pelo usuário.

    Gabarito: Errado 

  • O Data Warehouse é NÃO-VOLÁTIL, ou seja, os dados não podem ser alterados após a inserção inicial, embora possam ser excluídos.

  • De maneira rígida, os dados de um DW não são alterados. Tecnicamente, eles são "não-voláteis". No entanto, é possível incluir e excluir dados, mas não alterá-los em si.

  • Os DataWares não são voláteis; não podem, portanto, sofrer alterações.

  • Grandes volumes de dados (CERTO), porém os dados são disponibilizados APENAS para consulta ou eliminação.(ERRADO)

    bons estudos.

  • OS DADOS NO DW SÃO HISTÓRICOS; OU SEJA, SÃO DADOS QUE TÊM O POTENCIAL DE SEREM ANALISADOS PASSADOS 10, 20, 30 ANOS.

  • Data Warehouse = arquivo permanente.


ID
321115
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de soluções de suporte a decisão, julgue os itens seguintes.

Ferramentas OLAP (online analytical processing) permitem a navegação pelos dados de um DW, o que possibilita a realização de pesquisas e apresentação de informações. Por meio de um processo drill down, por exemplo, um relatório consolidado de vendas mensal poderá ser preparado de forma que as informações sejam dispostas por trimestre, por semestre, por ano, e assim sucessivamente.

Alternativas
Comentários
  • O Drill Down aumenta o nível de detalhe da informação, diminuindo o grau de granularidade, ou seja, um relatório mensal deveria ser quebrado em diário ou semanal para estar correto.
  • A questão trata, na verdade, do Drill up.

    Outros "Drills"
    Drill Across: pular de Ano para dia
    Drill throught: estou em ano e passo para modelo (mudo de informação)
    Data Surfing, Slicing: Termos usados pela CESGRANRIO
  • O Drill Down aumenta o nível de detalhe da informação ou seja seria ano, semestre, trimestre, bimestre.....
  • Na verdade a questão cita Roll UP, na qual é o inverso do Drill Down
  • Errado!!

    A questão está falando de:
    Drill Across: ocorre quando o usuário pula um nível intermediário dentro de uma mesma dimensão. Por exemplo, a dimensão tempo é composta por ano, semestre, trimestre, mês e dia. A operação Drill Across é executada quando o usuário passa de ano direto para trimestre ou direto para mês.

    ----------------------------------------------------------------------------
    Drill Down:
    ocorre quando o usuário aumenta o nível de detalhe da informação, diminuindo a granularidade (A granularidade determina quais
    os tipos de consultas podem ser feitas no DW. Ela influencia diretamente na velocidade do acesso às informações e no volume de dados
    armazenados );

  • Essa definição do Alexandre só exite nos blogs tupiniquins, pois na literatura em inglês drill across é quando  há mudança de uma instância para outra. Drill through é que seria o termo para designar quando níveis são pulados.
  • A questão refere-se à operação de drill-up e não drill-down.

    drill down = detalha a pesquisa, ou seja, aumenta o nível de granularidade. Ex.: ano -> mes -> dia
    drill up = generaliza a
     pesquisa, ou seja, diminui o nível de granularidade. Ex.: dia -> mes -> ano
  • Drill-down (desmembramento): níveis crescentes de detalhes são revelados (ano, mês, dia).

    Drill Across (envolve mais de uma tabela Fato): ocorre quando o usuário pula um nível intermediário dentro de uma mesma dimensão. Por exemplo: a dimensão tempo é composta por ano, semestre, trimestre, mês e dia. O usuário estará executando um Drill Across quando ele passar de ano direto para trimestre ou mês.


    Ou seja, o erro está em dizer que a funcionalidade usada é a Dril Down, sendo que na verdade a correta é a Drill Across.



    Fonte: Apostila Prof: Marcio Victorino.
     

  • material bem legal sobre OLAP, Drill Down, Drill UP ... etc...

    http://conteudo.anhembi.br/ead/conteudo/pool_online/4866_banco_de_dados_e_inteligencia_empresarial/pdf/04866_(5_2).pdf



  • Pessoal, falaram aí em Drill Up, mas acho que isso não existe, certo? Pelo que entendi é Roll Up que é o inverso de Drill Down, conforme material também citado em outro comentário:

    http://conteudo.anhembi.br/ead/conteudo/pool_online/4866_banco_de_dados_e_inteligencia_empresarial/pdf/04866_%285_2%29.pdf

  • Tiago, às vezes o "Drill up" é cobrado como sinônimo de "Roll up" também.

  • 1) Operação de Drill Down: permite a navegação entre os níveis de dados que vão desde o mais sumarizado até o mais detalhado.

    Down= Para baixo. Dessa forma, você vai aumentar o nível de detalhes, descendo na hierarquia das dimensões e reduzindo a granularidade.

    2) Operação Roll Up (Drill Up): permite a navegação entre os níveis de dados que vão desde o mais detalhado até o mais sumarizado.

    Up = Para cima. Dessa forma, você vai reduzir o nível de detalhes, subindo na hierarquia das dimensões e aumentando a granularidade

  • Ferramentas OLAP (online analytical processing) permitem a navegação pelos dados de um DW, o que possibilita a realização de pesquisas e apresentação de informações. Por meio de um processo DRILL UP ou ROLL UP, por exemplo, um relatório consolidado de vendas mensal poderá ser preparado de forma que as informações sejam dispostas por trimestre, por semestre, por ano, e assim sucessivamente.

    Gabarito: ERRADO


ID
321121
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de soluções de suporte a decisão, julgue os itens seguintes.

Na modelagem dimensional, que pode ser usada para a construção de um DW, forma-se, basicamente, uma tabela central e tabelas dimensões diretamente ligadas a essa tabela central. O star schema, que atua nesse contexto, tem a característica de ser normalizado, exigindo excessivo espaço em disco, já que são necessárias diversas informações em cada linha das tabelas

Alternativas
Comentários
  • Star schema ou estrela não é normalizado. 
  • Só para complementar, a normalização acontece no schema floco-de-neve

    Leiam:
    http://imasters.uol.com.br/artigo/3836/modelo_dimensional_para_data_warehouse
  • Quando ele falou em normalização acima, a questão já está errada, pois quem é normalizado é o Snow Flake :)
  • Pra ajudar a decorar:

    Floco de Neve → Normalizado

  • O Modelo Estrela (Star Schema)

    No modelo estrela todas as tabelas relacionam-se diretamente com a tabela de fatos. Sendo assim, as tabelas dimensionais devem conter todas as descrições que são necessárias para definir uma classe como Produto, Tempo ou Loja nela mesma . Em suma, as tabelas de dimensões são desnormalizadas no modelo estrela. Por consequência, deteminados campos como Categoria, Departamento, Marca conterão suas descrições repetidas em cada registro, assim, aumentando o tamanho das tabelas de dimensão por repetirem estas descrições de forma textual em todos os registros. 

    O Modelo Estrela (Star Schema) é mais simples e mais fácil de navegação pelos softwares, porém desperdiça espaço repetindo as mesmas descrições ao longo de toda a tabela.


  • Na modelagem dimensional, que pode ser usada para a construção de um DW, forma-se, basicamente, uma tabela central e tabelas dimensões diretamente ligadas a essa tabela central. O star schema, que atua nesse contexto, tem a característica de ser normalizado, exigindo excessivo espaço em disco, já que são necessárias diversas informações em cada linha das tabelas.

    Os erros estão em negrito.

    Primeiro, na modelagem dimensional é possível que tabelas dimensão não estejam diretamente conectadas à tabela fato, já que, no snowflake schema, tabelas dimensão podem ser conectadas umas às outras, sendo relacionadas com a tabela fato somente de maneira mediata.

    Segundo, o esquema estrela não é normalizado, o que torna as consultas mais rápidas, mas exige mais espaço em disco em razão da desnormalização. O esquema floco de neve é normalizado, o que torna as consultas mais lentas, mas exige menos espaço em disco em razão da normalização.

  • ERRADO

    O desempenho do modelo Snowflake é pior que o do modelo Estrela, justamente por causa da normalização. Sem as redundâncias, as consultas envolvem um número maior de tabelas para acessar, o que acaba deixando a performance mais lenta.

    - ESTRELA -> NÃO NORMATIZADA

    - FLOCO DE NEVE -> NORMATIZADA

  • ERRADO

    - ESTRELA (Star schema) >>> NÃO NORMALIZADO

    - FLOCO DE NEVE (snowflake) >>> NORMALIZADO

  • Gabarito: errado

    Modelo estrela =

    - não é normalizado

    - ocupa menos espaço

    - maior desempenho

    Modelo flocos de Neve=

    - normalizado

    - ocupa mais espaço

    - menor desempenho


ID
334576
Banca
FCC
Órgão
TRT - 23ª REGIÃO (MT)
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

NÃO se trata, comparativamente ao OLTP, de uma característica de um data warehouse:

Alternativas
Comentários
  • Por definição, os dados em data warehouse não são voláteis, ou seja, não mudam. Os dados estão disponíveis somente para leitura e não podem ser alterados.

    obs: pode ser necessária alteração para correção de dados.
  • Que questão mal formulada.
    "comparativamente com OLTP"

    Nada haver.
  • Temos que lembrar que dentre as características dos DW estão ele sendo integrado, não volátil, variável com o tempo e orientado por assunto.
    O mesmo sempre estará relacionado a um período determinado de tempo, pois terá uma chave de tempo que irá indicar o dia no qual eses dados foram extraídos, logo, ele não tem natureza dinâmica.
  • Geraldo,
    também achei mal formulada.
    Poderia ser simplesmente:

    Qual alternativa NÃO é uma carecterística do DW?
  • Também achei ela mal elaborada.

    Faltou objetividade.
  • Para que a questão faça algum sentido, leiam na ordem direta.
  • Questão mal formulada. Traduzindo, o examinador quer saber quais das alternativas da questão NÃO eh uma caracteristica dos datawarehouses, mas É dos sistemas transacionais.
       a) organização dos dados por assunto.  Caracteristica dos dois. Errada 
        b) natureza dinâmica dos dados, permitindo atualizações contínuas. Caracteristica OLTP, mas não DW. Certa.
          c) conteúdo composto de dados históricos, sumariados e integrados.   Caracteristica DW, mas não OLTP. Errada. 
        d) disponibilizar suporte para a tecnologia de data mining.   Caracteristica DW, mas não OLTP. Errada.
        e) possibilitar processamento mais eficiente e apresentação de dados focada na tomada de decisão.  Caracteristica DW, mas não OLTP. Errada.
    E so pode ser a B. Para ajudar:
  • OLTP e DW são antagônicos no que tange atualizações, enquanto os bancos de dados transacionais atualizam continuamente seus dados (modificando-os) isso não é possivel em um DW, pois ele armazena dados históricos.

    Para entender isso de maneira prática, pensemos numa conta no banco, no dia do pagamento lá está você com a conta bem gordinha, no dia seguinte lá está sua conta no zero, essa informação precisa ser atualizada toda vez que sai e entra dinheiro na sua conta, pois o que interessa não é quanto você tinha mas sempre o que você tem agora, essa é a função OLTP, já os DW têm outra finalidade, dentre elas servir de base para análises estatísticas, assim, lá no DW terá a informação de que no dia do pagamento tua conta tava gordinha e que no dia seguinte essa mesma conta estava no zero, depois essa informação servirá para traçar por exemplo o perfil do cliente (o cliente tal não passa mais de 1 dia com o salário na conta, já o cliente fulano sempre guarda dinheiro na poupança, então podemos oferecer um investimento para o fulano pois ele tem perfil de poupador).

    Uma questão tranquila para quem conhece o assunto.

ID
339697
Banca
COSEAC
Órgão
DATAPREV
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Sobre modelagem multidimensional, o cubo:

I. é uma representação intuitiva, pois todas as dimensões coexistem para todo ponto no cubo e são independentes umas das outras;

II. é, de fato, apenas umametáfora visual;

III . serve para descrever requisitos funcionais.

Acerca dos itens acima mencionados, apenas;

Alternativas
Comentários
  • o que não deixa a letra B inválida

  • O "apenas" do enunciado deixa a B inválida

  • Difícil

  • Modelagem multidimensional, o cubo:

    => dimensões coexistem e são independentes;

    => representação conceitual/metáfora visual;

    => descrevem possíveis perspectivas para análise


ID
359746
Banca
CETAP
Órgão
DETRAN-RR
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Sobre Sistemas de Apoio à Decisão, leia os enunciados seguintes e marque a alternativa CORRETA:

I- O termo Business Inteligence (BI) nada mais é que uma série de conceitos e metodologias para auxiliar na tomada de decisões estratégicas nas empresas através principalmente de geração de relatórios gerenciais analíticos;

II- Um Data Warehouse é um banco de dados multidimensional grande, de escopo organizacional (ou seja, abrange toda a empresa) e reúne dados de todos os departamentos de forma a permitir a busca rápida de informações para auxiliar a tomada de decisões estratégicas;

III- Um Data Mart é um banco de dados multidimensional de escopo departamental, ou seja, abrange apenas um determinado departamento;

IV- Data Mining (Mineração de dados) é o termo usado para definir uma série de procedimentos, técnicas e ferramentas para recuperar e analisar dados de um Data Warehouse ou Data Mart;

V- Nos Sistemas de Apoio à Decisão é comum desnormalizar os dados para atingir uma melhor performance nos Data Mart e Data Warehouse.

Alternativas
Comentários
  • (I) Correto. São conceitos e metodologias, auxiliam na tomada de decisões estratégicas, ajudam a

    geração de relatórios gerenciais analíticos;

    (II) Correto. DW é realmente um banco de dados multidimensional, possui escopo organizacional e

    permite a busca rápida de informações para auxiliar a tomada de decisões estratégicas;

    (III) Correto. DM também é um banco de dados multidimensional, mas realmente possui um escopo

    departamental;

    (IV) Correto. Essa definição está tão genérica que eu acredito que ela poderia ser tanto para

    Mineração de Dados quanto para OLAP;

    (V) Correto. Desnormalizar é manter dados redundantes no banco de dados. Sistemas de Apoio à

    Decisão realmente desnormalizam dados para melhorar o desempenho de DW ou DM.

  • SAD - CETAP - TI


ID
362818
Banca
CESPE / CEBRASPE
Órgão
TRE-BA
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

A respeito de modelagem dimensional, julgue os itens
subsequentes.

Diferentemente de datamining, que não possibilita a interação do usuário na busca por informações úteis, o OLAP permite ao usuário extrair informações de um data warehouse ou de um datamart, de forma customizada e interativa.

Alternativas
Comentários
  • Datamining: Define uma série de procedimento, técnicas e ferramentas para recuperar e analisar os dados de um Data Warehouse ou  Data Mart à procura de padrões e tendências a respeito dos dados armazenados. A análise de dados exploratória ("Data Mining") é o processo de descobrimento de vários modelos, sumários e valores derivados a partir de um dado conjunto de dados. Há várias técnicas para se realiar esse processo, tais como métodos estatísticos, análise de cluster, árvore de decisão, redes neurais e regras de associação.  Etapa de um processo conhecido como extração de conhecimento em bases de dados ou Knowledge-Discovery in Databases (KDD). Quando os dados são do tipo não-estruturados ou textos, chamamos de Text Data Mining ou simplesmente Text Mining, ou ainda Knowledge Discovery from Text (KDT).

    Data warehouse: ou armazém de dados é um banco de dados com dados históricos usados para análise e decisões das mais exóticas perguntas realizadas por executivos. Os dados contidos nos data warehouse são sumarizados, periódicos e descritivos. Com a manipulação desses dados os executivos podem tomar decisões baseadas em fatos e não em intuições e especulações. Os data warehouses são projetados para processamento on-line analítico (OLAP, On-line Analytical Processing) ao invés do processamento transacional on-line (OLTP, On-line Transactional Processing). Ferramentas OLAP para pesquisa inteligente de dados são chamadas de data mining. Delimitando a abrangência dos dados a uma área de negócio da empresa o data warehouse passa a se denominar data mart. É possível implementar um data warehouse com vários data marts distribuídos.
  • Datamining e OLAP são ferramentas para recuperar informações de um data warehouse. O data mining vai muito além da simples consulta a um banco de dados, no sentido de que permite aos usuários explorar e inferir informação útil a partir dos dados, descobrindo relacionamentos escondidos no banco de dados.
  • Acredito que o gabarito esteja equivocado. Não há celeuma alguma quanto a interatividade permitida pelo análise OLAP, onde é possível fazer várias operações acerca do cubo de dados. Agora não há que se falar de ausência de interatividade no Data Mining. Pode até ser menos interativo do que a análise OLAP, mas inferir que não é interativo seria desconsiderar, por exemplo, que um analista pode gerar hipóteses a serem testadas numa ferramenta de DataMining, ou seja, o analista usa o conhecimento para realimentar o procedimento de Data Mining. Gabarito redondamente equivocado. 
  • O segredo é o termo "busca".
     "não possibilita a interação do usuário na busca por informações úteis,"
    A busca se dá por meio de técnicas ou algorítimos como redes neurais, arvóre de decisão, etc. que é diferente de analisar e inferir hipóteses.
  • Todas as demais questõs de Data Miming do Cespe estão baseadas no livro do Navathe, exceto esta.
    Veja que destoa completamente do conceito do mesmo livro:

    Navathe 6ª Edição:
    A maioria das ferramentas (de Data Mining) é executada em uma ambiente de interface gráfica com o usuário. Alguns incluem tecnicas de visualização sofisticadas capazes de manipular dados interativamente. Há também os que fazem parte da ferramente OLAP.
  • Pelo que to percebendo, estudar banco de dados pra Cespe é enfiar a cara no livro de Navathe ;)

  • "Um datamining emprega tecnologias baseadas em inteligência artitficial. ... Assim, finalmente, podemos definir dataming como a extração automática de dados sobre padrões, tendências, associações, mudanças e anomalias previamente não identificadas"

    ...

    "OLAP constitui a sigla de On-Line Analytical Processing ou simplesmente Processamento Analítico Online. OLAP é uma tecnologia ou ferramenta que permite ao usuário extrair informações de um data warehouse ou de data mart de forma customizada, simples e interativa. Desse modo, diferentemente do datamining, que não possibilita a interação do usuário na busca por informações úteis, as ferramentas OLAP se tornam um grande aliado dos tomadores de decisão." 

     

    Fonte: Sistemas Integrados de Gestão – ERP (CICERO CAIÇARA JUNIOR), pág. 175

  •  busca por informação é diferente de busca por conhecimento. Informação é bruta e nas inferencias sobre elas é que consiste o conhecimento. Logo por esse lado a questão está correta visto que o data mining tras a informação de forma automatica (por software de logaritimos). Outro ponto é que a questão usa o  termo "usuario", o qual se entende como usuario final; cliente, esse realmente não interage na busca por informações, e sim o programador ou projetista do SGBD que cria e modifica o software. Logo questão mtoo escorregadia e foda tem q se atentar a esses dois termos "informação" e "usuario" no sentido estrito usado em TI, mas esta correta!!!

     

  • CERTO

    Trata da capacidade de analisar grandes volumes de informações nas mais diversas perspectivas dentro de um Data Warehouse (DW). O OLAP também faz referência às ferramentas analíticas utilizadas no BI para a visualização das informações gerenciais e dá suporte para as funções de análises do negócio organizacional.

    As limitações dos bancos de dados relacionais que utilizam modelo entidade-relacionamento podem ser superadas por meio do uso de ferramentas OLAP (online analytical processing).

  • "Diferentemente de datamining, que não possibilita a interação do usuário na busca por informações úteis" . E o aprendizado de máquina supervisionado como fica?

  • WTF!? e o aprendizado supervisionado? eeeeita


ID
369841
Banca
CESPE / CEBRASPE
Órgão
TCE-RN
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Acerca das tecnologias de bancos de dados e de data warehouse, julgue o item que se segue.


A otimização de consultas a bancos de dados pode empregar uma abordagem embasada no custo de execução. Nessa abordagem, técnicas tradicionais de otimização são usadas para buscar solução ótima no espaço de solução do problema. Assim, a estimativa de custo considera diversas informações, tais como o número de registros dos arquivos e o tamanho de cada registro.

Alternativas

ID
369844
Banca
CESPE / CEBRASPE
Órgão
TCE-RN
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Acerca das tecnologias de bancos de dados e de data warehouse, julgue o item que se segue.


A construção de um data warehouse envolve primordialmente um processo de extração, transformação e carga de dados, que normalmente tem origem nas bases de dados dos sistemas que estão ou estiveram em operação. O sucesso desse processo é fortemente influenciado pela escolha da ferramenta OLAP (on-line analytical processing) a ser utilizada.

Alternativas
Comentários
  • ETL = extração, transformação e carga de dados (L de loading, isto é, carregamento).

    Primeiro) Ocorre ETL (capturar dados de diversas fontes)

    Segundo) Ocorre interação via Data Warehouse ou Data Mart (armazenamento)

    Terceiro) Ocorre a recuperação - refere-se à visualização e análise de dados, que pode ser por meio de OLAP, por exemplo.

    Logo, não cabe dizer que OLAP impacta a ETL, visto que ETL ocorre primeiro.

    Resposta: errado.

  • aquele momento de tirar a pausa pra o descanso... Marquei correto porque pensei que a parte que diz "sucesso desse processo" tava se referindo ao data warehouse por completo e não apenas o processo ETL

    Gabarito: Errado

    Descansar também é importante! Não exija tanto de si. Só de está aqui você já está na frente de muita gente

    Bom Estudo!


ID
369847
Banca
CESPE / CEBRASPE
Órgão
TCE-RN
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Acerca das tecnologias de bancos de dados e de data warehouse, julgue o item que se segue.


O esquema multidimensional em estrela consiste de um conjunto de tabelas, classificadas como tabelas fato e tabelas dimensão, no qual cada tabela dimensão guarda referências às tabelas fato. Essas referências são implementadas como colunas nas tabelas dimensão.

Alternativas
Comentários
  •  Este modelo é chamado de estrela porque a tabela de fatos fica ao centro cercada das tabelas dimensionais assemelhado a uma estrela. Mas o ponto forte a fixar é que as dimensões não são normalizadas.

  • GABARITO ERRADO!

    .

    .

    O esquema multidimensional em estrela consiste de um conjunto de tabelas, classificadas como tabelas fato e tabelas dimensão, no qual cada tabela dimensão guarda referências às tabelas fato (ERRADO). Essas referências são implementadas como colunas nas tabelas dimensão.

    A tabela fato que guarda referência para cada tabela dimensão.


ID
399991
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de datawarehouse (DW) e datamining, julgue os próximos
itens.

Entre as utilidades de um sistema OLAP (online analytical processing) inclui-se o apoio a usuários finais em decisões estratégicas dentro das organizações.

Alternativas
Comentários
  • "Online analytical processing", ou OLAP fornece para organizações um método de acessar, visualizar, e analisar dados corporativos com alta flexibilidade e performance.

    OLAP apresenta informações para usuários via um modelo de dados natural e intuitivo. Através de um simples estilo de navegação e pesquisa, usuários finais podem rapidamente analisar inúmeros cenários, gerar relatórios "ad-hoc", e descobrir tendências e fatos relevantes independente do tamanho, complexidade, e fonte dos dados corporativos.

    Fonte: http://pt.wikipedia.org/wiki/OLAP
  • Apenas uma coisa que ficou nebulosa nessa questão: usuários finais participam de decisões estratégicas de uma organização?

  • No meu entendimento quando a questão escreve: "usuários finais", é literal mesmo, aquele que usa.

     

    Portando podem ser gestores, gerentes, diretores, executivos ---> responsáveis pelos aspectos estratégicos.

  • Gabarito Certo

    OLAP é um conceito de interface com o usuário que proporciona a capacidade de ter idéias sobre os dados, permitindo analisá-los profundamente em diversos ângulos. As funções básicas do OLAP são:

    • Visualização multidimensional dos dados;

    • Exploração;

    • Rotação;

    • Vários modos de visualização.

    O OLAP e o Data Warehouse são destinados a trabalharem juntos, enquanto o DW armazena as informações de forma eficiente, o OLAP deve recuperá-las com a mesma eficiência, porém com muita rapidez. As duas tecnologias se complementam, ao ponto de que um Data Warehouse para ser bem sucedido, já na sua concepção, deve levar em consideração o que se deseja apresentar na interface OLAP.

    O OLAP é uma interface com o usuário e não uma forma de armazenamento de dados, porém se utiliza do armazenamento para poder apresentar as informações.

     

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !


ID
399994
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de datawarehouse (DW) e datamining, julgue os próximos
itens.

Embora com alta capacidade de manipular dados, os sistemas OLAP suportam somente estruturas unidimensionais.

Alternativas
Comentários
  • Suportam estruturas multidimensionais.
  • OLAP é uma abordagem para a rápida resposta multi-dimensional a consultas analíticas. Ela trabalha com várias dimensões que formam o CUBO OLAP (ou HIPERCUBO). Vejam abaixo um exemplo do HIPERCUBO com as dimensões TEMPO, Categoria de produtos e vendas.



    O núcleo de qualquer sistema OLAP é um cubo OLAP (também chamado de 'cubo multidimensional' ou um hipercubo ). Ele consiste de fatos numéricos chamados medidas que são categorizados por dimensões . Os metadados do cubo é tipicamente criado a partir de um esquema de estrela ou esquema floco de neve de tabelas em um banco de dados relacional . Medidas são derivadas a partir dos registros na tabela de fatos e dimensões são derivadas das tabelas de dimensão .

    Portanto o erro da questão é afirmar que ele suporta "s
    omente estruturas unidimensionais.". Pelo contrário, ele suporta unidimensionais e TAMBÉM multidimensionais (afinal, se ele suporta multdimensão, também suporta unidimensão. Um esta incluído no outro).
  • Gabarito Errado

    O OLAP e o Data Warehouse são destinados a trabalharem juntos, enquanto o DW armazena as informações de forma eficiente, o OLAP deve recuperá-las com a mesma eficiência, porém com muita rapidez. As duas tecnologias se complementam, ao ponto de que um Data Warehouse para ser bem sucedido, já na sua concepção, deve levar em consideração o que se deseja apresentar na interface OLAP.

    O OLAP é uma interface com o usuário e não uma forma de armazenamento de dados, porém se utiliza do armazenamento para poder apresentar as informações.

    Os métodos de armazenamento são:

    • ROLAP (OLAP Relacional):

    Os dados são armazenados de forma relacional.

    • MOLAP (OLAP Multidimensional):

    Os dados são armazenados de forma multidimensional.

    • HOLAP (OLAP Híbrido):

    Uma combinação dos métodos ROLAP e MOLAP.

    • DOLAP (OLAP Desktop):

    O conjunto de dados multidimensionais deve ser criado no servidor e transferido para o desktop. Permite portabilidade aos usuários OLAP que não possuem acesso direto ao servidor.

     

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !

  • OLAP

     

    *Análise rápida

     

    *Multidimensional

     

    *Dinâmica

     

    *Não realiza inferência indutiva

     

     

    GAB: E


ID
400000
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de datawarehouse (DW) e datamining, julgue os próximos
itens.

Considere que, em uma organização que mantenha uma solução de DW, haja grande quantidade de dados para serem manipulados e que uma nova área criada dentro dessa organização necessite acessar parte dos dados desse DW.
Nessa situação, seria adequada a implementação de um datamart específico para essa nova área.

Alternativas
Comentários
  • O termo Datamart (literalmente, loja de dados) designa um subconjunto do datawarehouse que contém os dados do datawarehouse para um sector específico da empresa (departamento, direcção, serviço, gama de produto, etc.). Fala-se assim, por exemplo, de DataMart Marketing, DataMart Comercial,…

    Fonte: http://pt.kioskea.net/contents/entreprise/datawarehouse-datamart.php3
  • "Considere que, em uma organização que mantenha uma solução de DW, haja grande quantidade de dados para serem manipulados e que uma nova área criada dentro dessa organização necessite acessar parte dos dados desse DW. Nessa situação, seria adequada a implementação de um datamart específico para essa nova área."

    Precisa de um datamart novo só para acessar dados?

    Para mim o datamart era usado para sumarizar e integrar dados de uma nova área, não acessar dados de um dataware house já consolidado.

  • Eu não me conformo com essa questão. Para que uma nova área possa ACESSAR dados de um datawarehouse não é necessário ou adequado a criação de um datamart para essa área, é necessária PERMISSÃO de acessos aos dados. Compreendo que caso fosse decisão estratégica a coleta de dados dessa nova área então sim seria necessária a criação de um datamart específico para tratar dos assuntos dessa área. Mas, enfim, a banca manda a gente obedece... Só para manifestar minha indignação. 

  • CERTO

    Enquanto o Data Mart trata de um problema departamental ou local, um (Data Warehouse) envolve o esforço de toda a empresa para que o suporte a decisões atue em todos os níveis da organização. Sabendo-se as diferenças entre escopo e tamanho, o desenvolvimento de um (Data Warehouse) requer tempodados e investimentos gerenciais muito maiores que um (Data Mart).

    FONTE: QC

  • Gabarito: certo

    - outra questão:

    ## CESPE - 2012 - TJ-AC - Analista Judiciário - Análise de Sistemas

    Por meio de um data mart, que é um subconjunto do data warehouse, é possível criar uma visão personalizada dos dados. (CERTO)

  • CERTO

    Data Mart (DM): trata-se de um subconjunto de dados de um Data Warehouse.


ID
449971
Banca
FGV
Órgão
MEC
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Um termo está associado a uma coleção de dados orientada por assuntos, integrada, variante no tempo, que tem por objetivo dar suporte aos processos de tomada de decisão. É implementado por meio de um banco de dados contendo dados extraídos do ambiente de produção da empresa, que foram selecionados e depurados, tendo sido otimizados para processamento de consulta e não para processamento de transações. Em geral, requer a consolidação de outros recursos de dados além dos armazenados em base de dados relacionais, incluindo informações provenientes de planilhas eletrônicas e documentos textuais. Seu objetivo é fornecer uma "imagem única da realidade do negócio". De uma forma geral, são sistemas que compreendem um conjunto de programas que extraem dados do ambiente de dados operacionais da empresa, um banco de dados que os mantém, e sistemas que fornecem estes dados aos seus usuários. O termo aqui tratado define o conceito de:

Alternativas
Comentários
  • Mais fácil não existe..

  • Questão tenta explorar uma dificuldade que pode existir ao se diferenciar Datamining de Datawarehouse, mas vamos analisar as opções:

    a) Datamining - é o processo de explorar grandes quantidades de dados à procura de padrões consistentes, como regras de associação ou sequências temporais, para detectar relacionamentos sistemáticos entre variáveis, detectando assim novos subconjuntos de dados. Usa  algoritmos de aprendizagem ou classificação baseados em redes neurais e estatística, são capazes de explorar um conjunto de dados, extraindo ou ajudando a evidenciar padrões nestes dados e auxiliando na descoberta de conhecimento. Esse conhecimento pode ser apresentado por essas ferramentas de diversas formas: agrupamentos, hipóteses, regras, árvores de decisão, grafos, ou dendrogramas.

    b) DataSystems - não é o descrito no enunciado da questão. 

    c) DataBusiness - não é o descrito no enunciado da questão. 

    d) DataProcessing - não é o descrito no enunciado da questão. 

    e) Datawarehouse - Resposta certa. A descrição bate exatamente com o conceito de DW.
  • Datawarehouse é um repositorio dos dados da empresa, alimentado por dados transformados e integrados de varias fontes de dado e é somente leitura.  Data mining é o que faz o datawarehouse, indispensavel para analise e tomada de decisões


ID
450025
Banca
FGV
Órgão
MEC
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

OLAP (On-line Analytical Processing) é a capacidade para manipular e analisar um largo volume de dados sob múltiplas perspectivas. É encontrado na teoria de bancos de dados utilizada para apoiar as empresas na análise de suas informações, visando transformar dados em informações capazes de dar suporte às decisões gerenciais de forma amigável, flexível ao usuário e em tempo hábil. Nesse contexto, analise as afirmativas a seguir:
I. No OLAP, as informações são armazenadas em cubos multidimensionais, que gravam valores quantitativos e medidas, permitindo visualização por meio de diversos ângulos. II. A arquitetura de ferramentas OLAP obedece a uma estrutura cliente/servidor multiusuário.
III. As ferramentas OLAP surgiram juntamente com os Sistemas de Apoio à Decisão para fazerem a consulta e análise dos dados contidos nos Data Warehouses e Data Marts.
Assinale:

Alternativas
Comentários
  • Corrigindo o comentário anterior:
    A questão está correta, mas não está bem escrita.
    O item I deveria mensionar que as ferramentas OLAP acessam dados amazenado em uma estrutura de cubo...


  • Discordo que a questão esteja errada. Contradizendo as propostas do colega acima:

    a) Uma arquitetura OLAP possui três componentes principais: um modelo de negócios para análises interativas, implementado numa linguagem gráfica que permita diversas visões e níveis de detalhes dos dados; um motor OLAP para processar consultas multidimensionais contra o dado-alvo; e um mecanismo para armazenar os dados a serem analisados.

    b) Os dados guardados em um Data Warehouse são colhidos de forma não-padronizada e sem nenhuma estratégia aparente, para poder interpretar os dados contidos lá, as ferramentas de Data Mining e OLAP são utilizadas, pois é com essas ferramentas é que são decididas o que os dados devem informar. Como o colega falou, as ferramentas de OLAP são de exploração, assim essas ferramentas são capazes de fazer com que um grande conjunto de informação gerar um conhecimento.
  • Pelo que vejoa questão é verdadeira em todos os itens (letra "E"), pois o modelo multidimensional visa facilitar a compreensão do estruturamento dos dados armazenados tanto para desenvolvedores quanto para os usuários do sistema. Neste tipo de modelo existem quatro elementos: Fatos, dimesões, membros (atributos) e medidas (variáveis). Para facilitar o entendimento, o modelo multidimensional é representado pelo desenho de cubo. (Item I - Correto)

    A funcionalidade OLAP é caracterizada pela análise dinâmica multidimensional dos dados consolidados da corporação, dando suporte às atividades de análise. Não obstante, a funcionalidade OLAP é implementada em um modo cliente/servidor multi-usuário oferecendo rápidas respostas para a consulta, apesar do tamanho e complexidade do banco de dados. (Item II - Correto)

    Por fim, as informações contidas em Datawarehouse e Data Marts não são voláteis, isto é, não se alteram, salvo quando são derivadas de correções de dados previamente carregados. Assim, os dados estão disponívels somente para a leitura e não podem ser alterados. A ferramenta mais popular para a exploração dessas bases é a OLAP, porém muitas outras podem ser usadas. (Item III - Correto)
  • Em I descreve "No OLAP, as informações são armazenadas em cubos multidimensionais, que gravam valores quantitativos e medidas, permitindo visualização por meio de diversos ângulos.". Neste caso não seria "valores quantitativos ou medidas"? Valores quantitativos e medidas não são a mesma coisa? Quando eu li deu a impressão que eram entidades diferentes.
  • discordo do gabarito. Qual é a fonte que afirma que OLAP obedece a arquitetura multiusuário? Na grande maioria dos casos ela é construída para atender multiusuários, mas nada impede que ela seja projetada para monousuário...

    Se a questão afirmasse "II. A arquitetura de ferramentas OLAP obedece GERALMENTE a uma estrutura cliente/servidor multiusuário. " ai tudo bem...

  • I. Perfeito! A alternativa sintetiza alguns benefícios da arquitetura OLAP. As informações são armazenadas em estruturas multidimensionais, que possuem valores de agregação pré-calculados e permitem a navegação através de várias operações (drills, slice and dice, pivot), possibilitando a análise através de diferentes perspectivas. CERTA

    II. A arquitetura cliente-servidor é uma das regras de Codd para OLAP. O processamento deve se dar em um servidor (ou um agrupamento de servidores distribuídos), que tem maior poder de processamento. Os usuários acessam os dados através dos seus terminais, em um lado cliente da aplicação que os permite realizar as operações de navegação e análise. CERTA

    III. As ferramentas OLAP são sistemas de apoio a decisão. É um pouco estranho dizer que “surgiram juntamente com os SADs”, mas não dá pra considerar errado. 

    Sobre o final da assertiva, você tem que ter em mente que as tecnologias OLAP funcionam meio que “por cima” de um DW. Ou seja, o que se faz geralmente é implementar um DW ou data mart através das ferramentas OLAP. Dessa maneira, você tem um DW que pode ser navegado através dos drills, pivot e demais operações. CERTA


ID
456226
Banca
FCC
Órgão
TRT - 23ª REGIÃO (MT)
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

A funcionalidade pré-programada de resumir os dados, com generalização crescente, oferecida pelas aplicações por meio das ferramentas de construção de data warehouses é denominada

Alternativas
Comentários
  • Resposta-> a

    As 4 operações de processo analitico em tempo real(OLAP) realizadas por
    DW são:

    Drill Down:Consiste em detalhar o nível dos dados, navegando do mais alto
    nível até os dados mais detalhados. Como Exemplo, em vez de ver Produtos
    vendidos anualmente passa a ver os produtos vendidos Diariamente.

    Roll UP: È o inverso do Drill Down. Em que a navegação vai do nível detalhado
    para o mais alto nível de sumarização(resumo dos dados antes detalhado) de dados.

    Slice: É um selecionar algumas dimensões ou membros de dimensões do DW.
    Ex: Em DW de venda, tenho Produto, Tempo e Localização como dimenões.
    Com SLice, Analisar Somente os Produtos Vendidos (Dimensão Prouto) em Belém (Localização) ou Somente os Produtos Vendidos (Dimensão Prouto) no Intervalo 2000 até 2011 (Tempo)

    Dice: Mudança de Pespectiva de visão. Onde ocorre alteração de linhas pelas colunas em uma tabela ou apresentação dos dados de trás para frente. OU operações mais complexas que mostram a variabilidade de uma medida ao longo das diferentes instanciações de uma ou mais dimensões.
  • Não sei se foi só comigo, mas achei q esse enunciado viajou na batata.


  • As quatro operações de processo analitico em tempo real (OLAP) realizadas por DW são:

     

    Drill Down: Consiste em detalhar o nível dos dados, navegando do mais alto nível até os dados mais detalhados. 

    Ex: em vez de ver Produtos vendidos anualmente passa a ver os produtos vendidos Diariamente.



    Roll UP: È o inverso do Drill Down. Em que a navegação vai do nível detalhado para o mais alto nível de sumarização (resumo dos dados antes detalhado) de dados.



    Slice: É um selecionar algumas dimensões ou membros de dimensões do DW.

    Ex: Em DW de venda, tenho Produto, Tempo e Localização como dimenões.
    Com SLice, Analisar Somente os Produtos Vendidos (Dimensão Prouto) em Belém (Localização) ou Somente os Produtos Vendidos (Dimensão Prouto) no Intervalo 2000 até 2011 (Tempo)



    Dice: Mudança de Pespectiva de visão. Onde ocorre alteração de linhas pelas colunas em uma tabela ou apresentação dos dados de trás para frente. OU operações mais complexas que mostram a variabilidade de uma medida ao longo das diferentes instanciações de uma ou mais dimensões.

  • ROLL UP
    -Aplica uma agregação sobre o cubo de dados
    -Aumenta o nível de granularidade e em consequencia realiza a REDUÇÃO sobre a dimensão, DIMINUINDO O NÍVEL DE DETALHAMENTO da informação.

     

    DRILL DOWN
    -É o inverso do roll-up
    -Aumenta o nível de detalhe da informação
    -Navega um dado menos detalhado para um mais detalhado
    -Diminui o nível de granularidade


ID
464134
Banca
CESGRANRIO
Órgão
Transpetro
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Os conceitos e aplicações de data warehouse e visões de bancos de dados relacionais de sistemas transacionais possuem pontos em comum, e, por conta deles, eventualmente são erroneamente considerados sinônimos. Uma das diferenças entre visões de bancos de dados relacionais e data warehouses reside no fato de que visões relacionais de bancos de dados transacionais

Alternativas
Comentários
  • Letra -> e
    a) implementam como uma de suas componentes a dimensão tempo, que nem sempre está presente em data warehouses.
     R = a dimensão tem geralment está presente no DW
    b) permitem a combinação dinâmica de seus dados, em diferentes perspectivas, pela aplicação de operações pivoting e roll up.
    R= Operações feitas por DW (pivot e roll up)
    d)podem, diferentemente de data warehouses, ser implementadas com técnicas top down e bottom up.
    R= DW implementam estas técnicas
  • Apenas completando as considerações do Ailton.

    c) "...são armazenados em árvores AVL."

    >> Árvore AVL nada tem a ver com DW.
  • Os dados de um data warehouses não são modificados como em sistemas transacionais ( exceto para correções), mas somente são carregados e acessados para leitura, com atualizações apenas periódicas.

    Resposta: "E"

  • Os data warehouses são não volátil, e as visões são dinámicas. Letra E.
  • Letra E – O data warehouse é um ‘celeiro’ de informações que são armazenadas somente após serem tratadas a fim de retirar erros, duplicidades e etc, o dado armazenado é confiável e integro bem como não volátil. Já em banco de dados relacionais, os relacionamentos são constantemente alterados conforme houver necessidade.  


ID
513562
Banca
FMP Concursos
Órgão
TCE-RS
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Mineração de dados consiste em

Alternativas
Comentários
  • Dataming (mineração de dados)
    - explora grandes quantidade de dados a procura de padões consistentes
    - uso de algoritmo de aprendizagem ou redes neurais
    - obter a partir de dados , sbsidiar a tomada de decisões

    exemplo : walmart , sexta feira compra de fraldas e cervejas

    letra a
  • D.M -  É o processo de extrair informação válida, previamente desconhecida e de máxima abrangência a partir de grandes bases de dados, usando-as para efetuar decisões cruciais.

    Diferença entre Ferramentas OLAP e Data Mining:

    Na análise OLAP a exploração é feita através da verificação, isto é, o analista conhece a questão, elabora uma hipótese e utiliza a ferramenta pra refutá-la ou confirmá-la

    Com o DM, a questão é total ou parcialmente desconhecida e a ferramenta é utilizada para a busca de conhecimento.

ID
513577
Banca
FMP Concursos
Órgão
TCE-RS
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Um sistema de apoio à decisão informatizado, no seu modelo básico, tem quatro componentes. Assinale qual dos relacionados abaixo NÃO é um desses componentes.

Alternativas
Comentários
  • Eu achava que datawarehouse também fizesse parte de sistema de apoio ã decisão.
    Mas pelo visto não.
    Letra A.
  • Leandro, DWH faz parte sim do SAD. Esse tal de SGMD foi blá blá blá... e é onde está o erro.

    Atualmente, por sua capacidade de sumarizar e analisar grandes volumes de dados, o Data Warehouse é o núcleo dos sistemas de informações gerenciais, e de apoio à decisão das principais soluções de business intelligence do mercado.

    Segundo OLIVEIRA, Jayr. (Tecnologia da Informação e da Comunicação. São Paulo: Érica, 2003), abaixo temos os principais componentes dos Sistemas de Apoio à Decisão (SAD):

    - O banco de dados SAD, q possui e coleta dados atuais e históricos de vários sistemas, e q pode ser um pequeno BD num computador isolado. Ou um poderoso data warehouse continuamente atualizado por dados organizacionais.

    - O sistema de software, com ferramentas OLAP, mineracao..que podem ser facilmente acessados pelo usuário do SAD.

    - A interface do SAD para acesso do usuario. Como seus usuários são burrinhos em TI(executivos, gerentes), essa interface deve ser amigável ao extremo.

    Os modelos mais conhecidos de SADs, são: estatísticos; de otimização; de previsão; de biblioteca e de análise de sensibilidade.

    Um repositório de metadados é uma ferramenta essencial para o gerenciamento de um Data Warehouse no momento de converter dados em informações para o negócio.

    O histórico das atualizações normalmente é mantido pelo próprio banco de dados, mas define um elemento de metadado, indicando as datas de atualização dos dados, podendo ajudar o usuário a verificar a atualidade dos dados e a consistência da dimensão tempo do Data Warehouse.

    Um abraço.

  • <img src="http://www.fabriciobreve.com/trabalhos/images/sad_img_3.jpg">


    "http://www.fabriciobreve.com/trabalhos/images/sad_img_3.jpg"


    <p><img src="http://www.fabriciobreve.com/trabalhos/images/sad_img_3.jpg"></p>

  • Os sistemas de Data Warehouse, estão inseridos em outra categoria, estes dão suportes a informações de vários banco de dados unificada em uma mesma base.

    Resposta: A


ID
579571
Banca
FCC
Órgão
TRT - 19ª Região (AL)
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

O modelo estrela, como estrutura básica de um modelo de dados multidimensional, possui uma configuração típica composta de uma entidade central

Alternativas
Comentários
  • Modelo Estrela
    1. Star schema é o termo comum para designação de modelos de dados multidimensionais.
    2. Como o termo esquema nos dá uma idéia de modelo físico, o mais usual é denominarmos de modelo estrela.
    3. O modelo estrela é a estrutura básica de um modelo de dados multidimensional.
    4. A composição do modelo estrela é a seguinte:
    • Entidade central, denominada fato (fact table);
    • Um conjunto de entidades menores denominadas dimensões.
    • Cada dimensão é representada por uma tabela
    Fonte: http://www.cnptia.embrapa.br/~laurimar/bd/pdf/mod_multidimensional_1p.pdf
  • Aqueles três "mining" ali são só pra por uma pulguinha atrás da sua orelha...