SóProvas



Questões de ETL (Extract Transform Load)


ID
76840
Banca
CESGRANRIO
Órgão
BACEN
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Um órgão público deseja criar uma base de informações gerenciais sobre operações bancárias de empresas brasileiras. Para isso, um analista de BI (Business Intelligence) desse órgão apresenta as recomendações a seguir.

I - As ferramentas de ETL e OLAP deverão estar, necessariamente, instaladas na mesma máquina do banco de dados de origem.

II - O modelo snowflake exige o uso de chaves artificiais (surrogate keys) para as tabelas que necessitam de histórico.

III - A dimensão Tempo sempre pode ser carregada antecipadamente.

Está(ão) correta(s) APENAS a(s) recomendação(ões)

Alternativas
Comentários
  • A utlização do Surrogate Key, substituto da chave primária - geralmente por um valor numérico auto-incrementado -, é uma maneira de se melhorar a performance das consultas que serão feitas no DW, não se trata de uma exigência como foi colocada na questão.
  • Surrogate keys são chaves criadas internamente na aplicação, que não têm significado no mundo real.

    Abordagens para criação de surrogate keys:

  • II - O uso de surrogate keys podem prejudicar a normalização, portanto não são indicadas no modelo snowflake.
  • "A dimensão Tempo sempre pode ser carregada antecipadamente."

    Acertei, mas alguém pode me ajudar nessa parte????

  • O que são ferramentas ETL e OLap, me ajude com um exemplo simples sobre Snowflake e SurrogateKeys

  • I - As ferramentas de ETL e OLAP não precisam estar na mesma máquina que a origem dos dados está instalado. Aliás, é comum que haja essa separação, pois as ferramentas de BI podem ter requisitos diferentes das ferramentas dos sistemas transacionais. Além disso, o ETL é um processo custoso do ponto de vista de recursos computacionais (processador, memória...), o que pode prejudicar o desempenho dos sistemas transacionais se ficar tudo na mesma máquina. ERRADA

    II - Não existe tal requisito! ERRADA

    III - A dimensão tempo é a dimensão que contém as informações de datas, para que se possa avaliar os dados nas hierarquias como ano - trimestre - mês - dia, dentre outras possibilidades. Como essa dimensão só contém dados a respeito de datas, podemos carregá-la antes mesmo de conhecer os demais dados do modelo, pois é só carregarmos as datas do calendário e seus atributos. CERTA


ID
137200
Banca
CESGRANRIO
Órgão
Casa da Moeda
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Observe as fontes de dados a seguir.

I - Tabela de um banco de dados relacional.
II - Arquivo XML.
III - Arquivo TXT flat.

Utilizando procedimentos de ETL (Extract, Transform e Load) para carga de um DW, é possível ler dados das fontes

Alternativas
Comentários
  • ETL, do inglês Extract Transform Load (Extração Transformação Carga), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um data mart ou um data warehouse. É considerada uma das fases mais críticas do Data Warehouse e/ou Data Mart.

    Os projetos de data warehouse consolidam dados de diferentes fontes. A maioria dessas fontes tendem a ser bancos de dados relacionais ou flat files (texto plano), mas podem existir outras fontes. Um sistema ETL tem que ser capaz de se comunicar com as bases de dados e ler diversos formatos de arquivos utilizados por toda a organização.

  • Além disso, o Staging area, área onde os dados ficam armazenados antes de ir para o Data Warehouse, podem ser banco de dados relacionais ou arquivos flat também.

     

  • Um “arquivo flat” é um texto plano ou misto de texto e arquivo binário que usualmente contem um registro por linha ou um registro “físico” (por exemplo disco ou fita). Dentro de cada registro, os campos simples podem ser separados por delimitadores, ex. vírgulas, ou ter um tamanho fixo. Em último caso, um preenchimento pode ser necessário para alcançar este tamanho. Formatação extra pode ser necessário para evitar colisões de delimitação. Não existem relacionamentos estruturais entre os registros.

ID
137227
Banca
CESGRANRIO
Órgão
Casa da Moeda
Ano
2009
Provas
Disciplina
Banco de Dados
Assuntos

Uma empresa deseja criar uma base de dados para apoio à tomada de decisão. As informações corporativas encontram- se em 4 bancos de dados distintos e possuem representações diferentes para atributos de uma pessoa física. Por exemplo, em determinado banco de dados, uma pessoa física do sexo masculino é representada por um atributo com valor M, enquanto que em outro banco de dados, com valor 1.
Em que etapa de um procedimento de ETL para essa base de dados deve ocorrer uma padronização desse tipo de valor?

Alternativas
Comentários
  • ETL é acrônimo inglês para Extract Transform Load que também é conhecido nacionalmente como ETC (Extração, Transformação e Carga).ETL é o processo de extrair dados de um banco de dados realizando as modificações necessárias para tornar possível a inserção destes dados num outro banco de dados de propósito especial: o WD (data Warehouse)Um processo ETL é subdividido em três etapas distintas: extração, transformação e carga.ExtraçãoA extração de dados consiste na retirada dos dados de outros bancos de dados para depois inseri-los no WD. Neste processo que as fontes de dados são definidas. As fontes de dados podem provir de bancos de dados diferentes portanto é indispensável adotar uma fonte como padrão.TranformaçãoA limpeza dos dados consiste em verificar a compatibilidade dos dados extraídos, descartando informações redundantes ou desnecessárias. Entretanto, muitas vezes é necessário realizar algumas transformações, pois os dados podem provir de bancos de dados que utilizam padrões diferentes (por exemplo, um determinado banco usa H para designar o sexo masculino e M para o feminino, já outro usa M para designar o sexo masculino e F para o feminino) e nesse caso deve-se pré-estabelecer qual formatação será adotada como padrão de entrada para o WD, ou seja, a transformação é o processo de uniformização dos dados provenientes de fontes e formatos distintos.CargaA carga é a fase na qual os dados são inseridos no DW, portanto este processo é extremamente complexo pois é nesta fase que se deve garantir a integridade dos dados armazenados no WD.
  • Limpeza, Ajustes e Consolidação (ou também chamada transformação): É nesta etapa que realizamos os devidos ajustes, podendo assim melhorar a qualidade dos dados e consolidar dados de duas ou mais fontes. Em ETL, frequentemente, é necessário limpar, ajustar e consolidar os dados antes de realizar sua carga. Nesse estágio de transformação, aplicam-se regras ou funções aos dados extraídos para ajustar os dados a serem carregados. A limpeza trata de vários tipos de erros, como, por exemplo, valores ilegais, ou que não obedeçam às regras de integridade da base, e erros de ortografia.



ID
321106
Banca
CESPE / CEBRASPE
Órgão
Correios
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de soluções de suporte a decisão, julgue os itens seguintes.

As ferramentas de software ETL (extract transform load) têm como função a extração de dados de diversos sistemas, a transformação desses dados de acordo com as regras de negócio e a carga dos dados em um data mart ou um DW.

Alternativas
Comentários
  • ETL, do inglês Extract Transform Load (Extração Transformação Carga), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um Data Mart ou um Data Warehouse.

    O processo de Extração, Transformação e Carga (Extract, Transform, Load – ETL) é um processo que envolve:

    • Extração de dados de fontes externas
    • Transformação dos mesmos para atender às necessidades de negócios
    • Carga dos mesmos no Data Warehouse (DW)

    O ETL é importante, pois é a forma pela qual os dados são efetivamente carregados no DW.


  • Data mart (repositório de dados) é sub-conjunto de dados de um Data warehouse (armazém de dados). Geralmente são dados referentes a um assunto em especial (ex: Vendas, Estoque, Controladoria) ou diferentes níveis de sumarização (ex: Vendas Anual, Vendas Mensal, Vendas 5 anos), que focalizam uma ou mais áreas específicas.

  • Lembrando que o processo de ETL (Extract, Transform and Load) é o processo MAIS CRÍTICO e MAIS DEMORADO na construção de um Data Warehouse, pois consiste na extração dos dados de bases heterogêneas, na transformação e limpeza destes dados, e na carga dos dados na base do DW. Já vi questões afirmando que o DW é um processo mais demorado que o processo ETL , o que não é verdade.

  • (C)

    ETL, Essa sigla significa Extração, Transformação e Carga (em inglês Extract, Transform and Load) e trata da sistematização do tratamento e limpeza dos dados oriundos dos diversos sistemas organizacionais.

    CESPE / ETL

    ETL indica um processo de extração e transformação de dados em um data warehouse.(C)


ID
474934
Banca
CESPE / CEBRASPE
Órgão
SEBRAE-BA
Ano
2008
Provas
Disciplina
Banco de Dados
Assuntos

Quanto às ferramentas informatizadas de análise e extração dedados, julgue o   item  a seguir.

Software generalista de auditoria de tecnologia da informação envolve o uso de software aplicativo em ambiente batch, que pode processar, além de simulação paralela, uma variedade de funções de auditoria nos formatos que o auditor desejar.

Alternativas
Comentários
  • c-

    questao tirada de:

    Software generalista de auditoria de tecnologia da informação

    https://siunibanosasco.files.wordpress.com/2013/08/audit-01-apostila-auditoria-em-si.pdf


ID
474937
Banca
CESPE / CEBRASPE
Órgão
SEBRAE-BA
Ano
2008
Provas
Disciplina
Banco de Dados
Assuntos

Quanto às ferramentas informatizadas de análise e extração dedados, julgue o   item  a seguir.

O ACL (audit command language) é uma ferramenta de análise de dados utilizada, quando aplicável, como software de auditoria para extração de informações de arquivos em meios magnéticos para geração de relatórios de exceções.

Alternativas
Comentários
  • Meios magnéticos = HD


ID
704188
Banca
CESPE / CEBRASPE
Órgão
MPE-PI
Ano
2012
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de fundamentos de administração de dados, fundamentos de banco de dados e conceitos envolvidos em data warehouse, julgue os itens seguintes.

Na construção de um data warehouse, o processo extract, transform and load (ETL), normalmente, é o menos crítico e o mais rápido. Esse processo envolve a extração dos dados, na sua transformação, e, eventualmente, influencia na limpeza desses dados.

Alternativas
Comentários
  • Na verdade o ETL é o processo mais demorado e o mais crítico...
    A parte lógica do DataWarehouse depende, quase exclusivamente desse processo!
    É a partir dele que é possível que os dados não pertencem mais ao OLTP e os tornam disponíveis para OLAP.
  • O processo de ETL (Extract, Transform and Load) é um processo que exige esforço e a maior parte do tempo de construção de um Data warehouse, este processo vai extrair dados de fontes de dados heterogêneas e tem que alimentar o Data Warehouse de forma homogênea e concisa, pois vai servir de base para gerar relatórios e gráficos de apoio à decisão para a gerencia da corporação e não pode trazer resultados errôneos.

    http://www.devmedia.com.br/extract-transformation-and-load-etl-ferramentas-bi/24408

  • O processo de ETL é o processo mais crítico e demorado na construção de um DW. ETL e as ferramentas de limpeza de dados consomem um terço do orçamento num projeto de DW. 80% do tempo de desenvolvimento de um DW consiste no processo de ETL.

  • Na verdade, o Processo de ETL é o processo mais crítico e demorado na construção de um Data Warehouse, uma vez que consiste na extração dos dados de fontes homogêneas ou heterogêneas; na transformação e limpeza destes dados; e na carga dos dados no DW. Pessoal, as decisões estratégicas – aquelas mais importantes de uma organização – são tomadas com base nas informações geradas através dos dados armazenados no Data Warehouse.

    Gabarito: Errado

    Fonte: estratégia

  • GABARITO ERRADO!

    O processo de ETL (Extract, Transform and Load) é o processo mais crítico e demorado na construção de um Data Warehouse, pois consiste na extração dos dados de bases heterogêneas, na transformação e limpeza destes dados, e na carga dos dados na base do DW.

    A maior parte do esforço exigido no desenvolvimento de um DW é consumido neste momento e não é incomum que oitenta por cento de todo esforço seja empregado no processo de ETL.

    (INMON, 1997 apud ABREU, 2007)

  • ETL É O PROCESSO MAIS CRÍTICO E DEMORADO.


ID
734317
Banca
CESPE / CEBRASPE
Órgão
SEBRAE-NACIONAL
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Com referência às ferramentas de análise e extração de dados para
Internet, julgue os itens subsecutivos.

Todos os dados de um sítio web acessados por meio de protocolo http podem ser extraídos, independentemente do perfil de acesso do usuário.

Alternativas
Comentários
  • Ah, então quer dizer que eu sendo administrador do sistema com poder máximo, todos os meus dados são extraídos? Claro que não!

  • Questão: ERRADA

    Vai lá e extraí o banco de questões novas do CESPE, então! haha


ID
791002
Banca
FCC
Órgão
TST
Ano
2012
Provas
Disciplina
Banco de Dados
Assuntos

O processo de ETL em uma Data Warehouse possui várias fases. Em uma destas fases é efetuada a

Alternativas
Comentários
  • Gabarito: Letra A Extração, Transformação e Carga

    O processo de Extração, Transformação e Carga (Extract, Transform, Load – ETL) é um processo que envolve:

    Extração de dados de fontes externas Transformação dos mesmos para atender às necessidades de negócios Carga dos mesmos no Data Warehouse (DW)

    Extração

    A primeira parte do processo de ETL é a extração de dados dos sistemas de origem. A maioria dos projetos de data warehouse consolidam dados extraídos de diferentes sistemas de origem. Cada sistema pode também utilizar um formato ou organização de dados diferente. Formatos de dados comuns são bases de dados relacionais e flat files (também conhecidos como arquivos planos), mas podem incluir estruturas de bases de dados não relacionais, como o IMS ou outras estruturas de dados, como VSAM ou ISAM. A extração converte para um determinado formato para a entrada no processamento da transformação.

  • Importante dizer que um Data Warehouse congregra dados diversos, de bancos de dados diversos, das mais diversas fontes.
    Agora, como poderia um DW trabalhar com informações diversas se cada fonte de dados tem o seu paradigma?
    Neste contexto entra a arquitetura ETL (extração, transformação e carregamento), ou seja, ela fica entre as fontes de dados e o DW, e sua finalidade, grosso modo, é que todas as fontes de dados falem a mesma lingua dentro do DW.

ID
813061
Banca
AOCP
Órgão
TCE-PA
Ano
2012
Provas
Disciplina
Banco de Dados
Assuntos

Sobre ETL (Extract, Transform and Load),é correto afirmar que

Alternativas
Comentários
  • Ferramentas ETL são utilizadas na ExtraçãoTransformação e Carregamento de Dados. ETL quer dizer: Extract( extrair os dados de fontes externas), Transform (transformar os dados ) e Load (carregar os dados)

  • (a) Errado. Extração e Carga são obrigatórios – transformação é opcional;

    (b) Correto;

    (c) Errado. Concentra a maior parte do esforço exigido no desenvolvimento de um Data Warehouse;

    (d) Errado. O DW não é capaz de resolver esse tipo de conflito – essa é uma atribuição do ETL;

    (e) Errado. Pelo contrário, devem ser corrigidos erros de digitação, violações de integridade, etc.

    Estratégia.


ID
814405
Banca
AOCP
Órgão
TCE-PA
Ano
2012
Provas
Disciplina
Banco de Dados
Assuntos

Extrair os dados de diversos sistemas, transformá- los conforme as regras de negócios e carregá-los em um Data Mart ou em um Data Warehouse é a função das ferramentas de

Alternativas
Comentários
  • ETL - Extract, Transform and Load. Definida na própria pergunta em português.


    A título de informação:

    SGBD - Sistema de Gerenciamento de Banco de Dados

    BPMS - Business Process Management Suite

    XML - eXtensible Markup Language

    UML - Unified Modeling Language

  • SGBD - database management system. administra o banco de dados, controlando dicionario de dados, estrutura de storage etc

     BPMS - linguagem de modelagem de negocio baseado em swimlanes e entidades

     XML. - linguagem de formatação 

     ETL - ok

     UML - linguagem de modelagem baseada em itens/elementos, relacionamentos e diagramas

  • Gabarito: D

     

    ETL, vem do inglês Extract Transform Load, ou seja, Extração Transformação Carga. O ETL visa trabalhar com toda a parte de extração de dados de fontes externas, transformação para atender às necessidades de negócios e carga dos dados dentro do Data Warehouse.

  • Gabarito D

    ETL, do inglês Extract Transform Load (Extrair Transformar Carregar), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim o carregamento dos dados geralmente para um Data Mart e/ou Data Warehouse, porém nada impede que também seja para enviar os dados para um determinado sistema da organização. A extração e carregamento são obrigatórios para o processo, sendo a transformação/limpeza opcional, mas que são boas práticas, tendo em vista que os dados já foram encaminhados para o sistema de destino. É considerada uma das fases mais críticas do Data Warehouse e/ou Data Mart.

    Os projetos de data warehouse consolidam dados de diferentes fontes. A maioria dessas fontes tendem a ser bancos de dados relacionais ou arquivo de texto (texto plano), mas podem existir outras fontes. Um sistema ETL tem que ser capaz de se comunicar com as bases de dados e ler diversos formatos de arquivos utilizados por toda a organização. Essa pode ser uma tarefa não trivial, e muitas fontes de dados podem não ser acessadas com facilidade.

    Algumas das ferramentas conhecidas de ETL são IBM InfoSphere DataStage , Informática Power Center, SAP BusinessObjects Data Services ,Microsoft SQL Server Integration Services (SSIS), Pentaho Data Integration, Oracle Data Integrator (ODI), entre outras.



    "Retroceder Nunca Render-se Jamais !"

    Força e Fé !

    Fortuna Audaces Sequitur !


ID
827935
Banca
CESPE / CEBRASPE
Órgão
TJ-RO
Ano
2012
Provas
Disciplina
Banco de Dados
Assuntos

Assinale a opção correta acerca de elementos básicos de datawarehouse (presentation area, staging area, data source e data access) e de extract transformation load (ETL).

Alternativas
Comentários
  • a) "The data staging area is everything between the operational source systems and the data presentation area."


    Fonte: https://books.google.com.br/books?id=XoS2oy1IcB4C&pg=PA7&lpg=PA7&dq=presentation+area+staging+area+data+source&source=bl&ots=1BIgqGdJeH&sig=tJVateQMxqQUc3bThlfBYiNdkTU&hl=pt-BR&sa=X&ved=0CB8Q6AEwAGoVChMIs9rA2_mXyQIVwgqQCh2YIgSG#v=onepage&q=presentation%20area%20staging%20area%20data%20source&f=false

  • Data Sources:
    É de onde estaremos buscando, extraindo os dados que serão utilizados para análise dentro do sistema de BI.
    Uma solução de BI consiste em promover a integração de dados a partir de diversas fontes, tais como, Excel, Access, SQL Server e assim por diante.

    Data Staging area
    Parte do Data Warehouse responsável pelo armazenamento e a execução de um conjunto de processos normalmente denominados como extração, transformação e Carga (ETL – extract, transformation, load) dos dados. A área de Staging encontra-se entre os sistemas operacionais e a camada de apresentação. É considerada a “Cozinha do restaurante” que está fora do acesso dos usuários.
    Ela pode ser composta por flat files (arquivos textos) ou tabelas de banco de dados em 3ª Forma Normal (Normalizadas).

    Data Presentation Area
    É onde os dados estão organizados, armazenados e disponíveis para responder às consultas dos usuários em um formato dimensional. A modelagem dimensional, é uma técnica de modelagem de dados voltada especialmente para a implementação de um modelo de dados que permita a visualização de dados de forma intuitiva e com altos índices de performance na extração de dados.

  • GABARITO A!

    .

    .

    SEGUE A IMAGEM: https://prnt.sc/11n16lr


ID
852298
Banca
CESPE / CEBRASPE
Órgão
SEBRAE-NACIONAL
Ano
2011
Provas
Disciplina
Banco de Dados
Assuntos

Com referência às ferramentas de análise e extração de dados para
Internet, julgue os itens subsecutivos.

Todos os dados de um sítio web acessados por meio de protocolo http podem ser extraídos, independentemente do perfil de acesso do usuário.

Alternativas
Comentários
  • ERRADO.

    Não se pode pegar todos os dados.

  • Alguém sabe explicar melhor essa questão, por favor?

  • Pense um sistema web de vendas com vários níveis de acessos como usuário que só cadastra uma nova venda e outro que tem acesso a todo o sistema. Ora quem tem acesso apenas para cadastrar vendas não poderá extrair todos os dados do sistema, como por exemplo, estatísticas de vendas, alterar cadastros do sistema...

    O erro da questão está na frase: independentemente do perfil de acesso do usuário.

  • As provas da PF já estão prontas. Vai lá e tenta extrair esses dados..


ID
868369
Banca
CESPE / CEBRASPE
Órgão
TRE-MS
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

No que se refere a arquiteturas e aplicações de data warehousing, ETL, Olap e data mining, assinale a opção correta.

Alternativas
Comentários
  •  a) As ferramentas Olap agregam recursos de armazenamento, gerenciamento e pesquisa de dados, os quais são primordialmente voltados para a tomada de decisões e BI (business intelligence). (Certa)  b) Um sistema ETL, que faz parte do processo de construção de um data warehouse, por ser voltado para a tomada de decisões, utiliza unicamente a DSL (decision support language), não suportando a SQL (structured query language). (ETL serve p/ extract, transform e load), isto é, carregar o datawarehouse com dados proveniventes de diferentes fontes de dados.  c) Em uma modelagem multidimensional do tipo snow flake, as métricas ficam inseridas nas dimensões. (Métricas ficam na tabela fato)  d) Em comparação com o ambiente transacional, o ambiente de data warehouse, devido à carga de dados com o ETL, deve estar mais voltado para inserção e atualização de dados do que para consultas. (contrário)  e) Data mining é um conjunto de técnicas e ferramentas que permitem obter valores futuros a partir de dados passados processados estaticamente. Data mining substitui o data warehouse em relação à tomada de decisão, pois ambos possuem os mesmos recursos. (Datamining nada mais é do que uma série de procedimentos, técnicas e ferramentas para recuperar e analisar os dados de um Data Warehouse ou  Data Mart à procura de padrões e tendências como regras de associação ou sequências temporais, para detectar relacionamentos sistemáticos entre variáveis, detectando assim novos subconjuntos de dados.)
  • Quais são os recursos de armazenamento e gerenciamento que as ferramentas OLAP agregam?
    Não seria recursos de manipulação e pesquisa?
  • Pelo meu entendimento a tabela de fatos ligada as tabelas de dimensão são recursos de armazenamento, já que nelas os dados são armazenados.

  • Data mining gera modelos que podem ser baseados em redes neurais, clusters, regras de produção, e a partir destes modelos podem ser gerados cenários. Exitem duas tarefas básicas no Data mining: previsão e descrição; sendo a última a mais utilizada. Assim existe uma diferença fundamental entre data warehouse e data mining. O primeiro gera relatórios analíticos e o segundo, modelos.


  • OLAP não armazena nada. Banca safada.

  • Armazenamento é ligado ao Data Warehouse em si. OLAP está mais ligado ao processo de consultas a um DW (seja em um modelo relacional ROLAP com o star schema ou snowflake schema), seja um modelo multidimensional MOLAP - realizando consultas em cubos de dados com dimensões pré-definidas. 

    Em suma, OLAP remete ao processo de consultas. Não consigo enxergar "recursos de armazenamento" como o gabarito informa. 

  • Reproduzindo o comentário do Rodrigo Lueneberg:

     

    a) As ferramentas Olap agregam recursos de armazenamento, gerenciamento e pesquisa de dados, os quais são primordialmente voltados para a tomada de decisões e BI (business intelligence). (Certa)  

     

    b) Um sistema ETL, que faz parte do processo de construção de um data warehouse, por ser voltado para a tomada de decisões, utiliza unicamente a DSL (decision support language), não suportando a SQL (structured query language). (ETL serve p/ extract, transform e load), isto é, carregar o datawarehouse com dados proveniventes de diferentes fontes de dados.  

     

    c) Em uma modelagem multidimensional do tipo snow flake, as métricas ficam inseridas nas dimensões. (Métricas ficam na tabela fato)

     

     d) Em comparação com o ambiente transacional, o ambiente de data warehouse, devido à carga de dados com o ETL, deve estar mais voltado para inserção e atualização de dados do que para consultas. (contrário)  e) Data mining é um conjunto de técnicas e ferramentas que permitem obter valores futuros a partir de dados passados processados estaticamente. Data mining substitui o data warehouse em relação à tomada de decisão, pois ambos possuem os mesmos recursos. (Datamining nada mais é do que uma série de procedimentos, técnicas e ferramentas para recuperar e analisar os dados de um Data Warehouse ou  Data Mart à procura de padrões e tendências como regras de associação ou sequências temporais, para detectar relacionamentos sistemáticos entre variáveis, detectando assim novos subconjuntos de dados.)

  • a) Isso mesmo. As ferramentas OLAP fornecem um repertório de recursos de modo a subsidiar a tomada de decisões. CERTA

    b) Inventou! Os sistemas ETL suportam sim SQL quando estão extraindo, transformando ou carregando dados em um banco de dados relacional. ERRADA

    c) Lugar de métrica é na tabela fato, seja no esquema estrela ou floco de neve. ERRADA

    d) É o contrário. Os sistemas de DW/BI visam apoiar a tomada de decisão, oferecendo facilidade de consulta e de análise a dados históricos. A inserção e a atualização de dados são características dos sistemas transacionais. ERRADA

    e) Um não substitui o outro, eles se complementam! A mineração de dados, inclusive, pode ser realizada sobre um data warehouse. ERRADA

  • Parece que a banca entende que o OLAP possui recursos de armazenamento sim, vejam essa outra questão:

    (2013 - CESPE - MPOG - Q334337) O OLAP permite uma visão conceitual multidimensional dos dados e possui três componentes principais em sua arquitetura: um modelo de negócios, um motor para processar consultas multidimensionais e um mecanismo para armazenar os dados. Gabarito: Certo.


ID
960940
Banca
IADES
Órgão
EBSERH
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

Por meio da ferramenta Pentaho Data Integration (PDI), é possível realizar processos de ETL (Extraction, Transformation and Load). A ferramenta gráfica que faz parte do PDI, usada para modelar as transformations e os jobs, é denominada

Alternativas
Comentários
  • Reposta letra "A"

    Spoon: É uma ferramenta gráfica usada para modelar as transformations e os jobs
       transformation: modelo que captura o fluxo de dados de entrada e faz uma transformação até atingir o destino final.
       Job: modelo que tem entradas com o trarnsformações, downloads FTP,etc e saídas com envio de e-mails, por exemplo.

    Pentaho Data Integration: também conhecido como Kettle, é uma ferramenta de código aberto para extração, transformação e carga (ETL) de dados.

    Pan é um programa que pode executar transformações projetados pelo Spoon em XML ou em um repositório de dados. Normalmente transformações estão programadas em modo batch para ser executado automaticamente a intervalos regulares.

    Pentaho Analysis Services: também conhecido como Mondrian OLAP server, é uma ferramenta de código aberto para On-line Analytical Processing (OLAP).

    O Weka Data Mining, utilizado pelo projeto Pentaho como Pentaho Data Mining  e um aplicativo para mineração de dados.


  • kettle é o nome antigo do Pentaho PDI

  • a-

    O Spoon é a interface gráfica para criar os processos de integração de dados. O Pan é o que executa transformações. O Pan executa uma transformação a partir de um sistema de arquivos


ID
984805
Banca
CESPE / CEBRASPE
Órgão
MPOG
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, acerca das ferramentas ETL (extract transform load) e OLAP (on-line analytical processing).


Em ETL, frequentemente, é necessário limpar, ajustar e consolidar os dados antes de realizar sua carga. Nesse estágio de transformação, aplicam-se regras ou funções aos dados extraídos para ajustar os dados a serem carregados. A limpeza trata de vários tipos de erros, como, por exemplo, valores ilegais, ou que não obedeçam às regras de integridade da base, e erros de ortografia.

Alternativas
Comentários
  • ETL, vem do inglês Extract Transform Load, ou seja, Extração Transformação Carga. O ETL visa trabalhar com toda a parte de extração de dados de fontes externas, transformação para atender às necessidades de negócios e carga dos dados dentro do Data Warehouse.


    1) Extração: É a coleta de dados dos sistemas de origem (também chamados Data Sources ou sistemas operacionais), extraindo-os e transferindo-os para o ambiente de DW, onde o sistema de ETL pode operar independente dos sistemas operacionais.

    2) Limpeza, Ajustes e Consolidação (ou também chamada transformação): É nesta etapa que realizamos os devidos ajustes, podendo assim melhorar a qualidade dos dados e consolidar dados de duas ou mais fontes.

    O estágio de transformação aplica um série de regras ou funções aos dados extraídos para ajustar os dados a serem carregados. Algumas fontes de dados necessitarão de muito pouca manipulação de dados. Em outros casos, podem ser necessários trabalhar algumas transformações, como por exemplo, Junção de dados provenientes de diversas fontes, seleção de apenas determinadas colunas e Tradução de valores codificados (se o sistema de origem armazena 1 para sexo masculino e 2 para feminino, mas o data warehouse armazena M para masculino e F para feminino, por exemplo).


    FONTE: http://vivianeribeiro1.wordpress.com/2011/06/28/o-que-e-etl-2/

  • Limpeza, Ajustes e Consolidação (ou também chamada transformação): É nesta etapa que realizamos os devidos ajustes, podendo assim melhorar a qualidade dos dados e consolidar dados de duas ou mais fontes.


  • 2012

    No âmbito dos DWs, representa um armazenamento intermediário que facilita a integração dos dados de ambiente operativo antes da sua atualização no DW. Trata-se de

     a) ODS.

     b) ETL.

     c) Data Mart.

     d) Star Schema.

     e) Fact Table.

     

    2010

    Importante componente de um data warehouse é o data staging area, cuja função é extrair, transformar e carregar os dados obtidos de diversas fontes da empresa.

    certa

  • É o caso de uniformizar os dados de CNPJ das empresas (com hífen ou sem hífen?), todos os valores monetários deverão exibir o cifrão ou não? É o que chamamos de padronização. 

    Resposta: certo.

  • GABARITO CORRETO!

    .

    .

    A consolidação dos dados é o "T" de transformation do ETL. Nesse processo devem ser sanados conflitos semânticos e estruturais.

    Conflitos semânticos e estruturais:

     - Diferenças de unidades;

     - Diferenças de precisão;

     - Diferenças em código ou expressões;

     - Diferenças de granularidade;

     - Diferenças de abstração.

  • passou pano pra banca, hein. o recurso é tempestivo, mas a contagem do prazo é no dia seguinte da juntada, então é dia 22, mas a banca acha que é deus e colocou no gabarito dia 21


ID
985093
Banca
CESPE / CEBRASPE
Órgão
CPRM
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens subsequentes, a respeito de sistemas de suporte a` decisão.


Em uma modelagem multidimensional, cada dimensão deve possuir uma chave de acesso associada ao ambiente transacional no momento do ETL. Nesse tipo de modelagem, a utilização de chaves semânticas ou naturais, em vez de chaves artificiais ou surrogate keys, agrega, entre outras vantagens, maior integração entre o ambiente operacional e o transacional, o que facilita operações de drill down em arquiteturas do tipo ROLAP; maior estabilidade no projeto; melhor nível de consistência nos dados e mais facilidade de conferência na importação dos dados no ETL.

Alternativas
Comentários
  • "Em uma modelagem multidimensional, cada dimensão deve possuir uma chave de acesso associada ao ambiente transacional no momento do ETL"


    Parei nesta primeira frase, talvez eu esteja errado, mas as dimensões são associadas depois que o ETL é feito, já no datawarehouse ou datamarts;

  • Gabarito: errado

    O erro que encontrei foi em relação ao não uso das surrogate keys.


    Na verdade, é aconselhável o uso de surrogate keys na modelagem multidimensional.


    http://corporate.canaltech.com.br/noticia/banco-de-dados/Grandes-erros-na-elaboracao-do-Data-Warehouse-que-devem-ser-evitados/

  • Acho que a modelagem multidimensional só utiliza a arquitetura do tipo MOLAP. ROLAP é para modelagem relacional.

  • Como o Diego disse, o erro da questão é afirmar que a a utilização de chaves semânticas ou naturais em datawarehouse oferece todas essas vantagens elencadas.


    Em Datawarehouse é recomendável a utilização de surrogate keys (= chaves artificiais)


    Na verdade, o próprio Kimball levanta alguns problemas do uso de chaves naturais (derivadas do negócio).

    As chaves naturais podem ser alteradas, reutilizadas pela aplicação do negócio. Logo essa integração entre o ambiente operacional e o transacional apontada como vantagem já seria um problema.


    "Production keys such as product keys or customer keys are generated, formatted, updated, deleted, recycled, and reused according to the dictates of production. If you use production keys as your keys, you will be jerked around by changes that can be, at the very least, annoying, and at the worst, disastrous."

    "Production may generalize its key format to handle (...) Production may reuse keys that it has purged"


    ótimo texto para conhecimento do assunto.

    Fonte: http://www.kimballgroup.com/1998/05/surrogate-keys/

  • Errado, apenas complementando o erro já apontado pelos colegas:


    "Não podemos utilizar chaves das tabelas operacionais para junções entre Dimensões e Fatos. Devemos utilizar as surrogate keys (chaves artificiais ou substitutas) pois só assim é possível tratar dados históricos nas tabelas de Fatos e o versionamento (modificações) dos dados nas Dimensões. Sem as chaves substitutas esse artifício é inviabilizado."



    http://corporate.canaltech.com.br/noticia/banco-de-dados/Grandes-erros-na-elaboracao-do-Data-Warehouse-que-devem-ser-evitados/

  • comentário do #Diego

  • É o contrário. O que se recomenda é a utilização das chaves artificiais (substitutas ou surrogate Keys). Essa integração entre as chaves naturais dos ambientes não é desejada, já que dificulta o gerenciamento, prejudica a estabilidade do projeto e diminui o grau de consistência dos dados.

  • GABARITO ERRADO!

    .

    .

    Para melhor manter o controle sobre identificadores de registro de ambientes de data warehouse (armazém de dados), em geral recomenda-se a geração de chaves substitutas (surrogate keys). Assim, cada junção entre as tabelas de dimensão e tabelas fato em um ambiente de data warehouse deve se basear nessas chaves substitutas, e não nas chaves naturais existentes.

  • se vc tem 3 sistemas que geram os mesmos fatos, cada qual com sua própria chave, como o dw poderia usar a chave natural? absurdo.

  • Na modelagem Multidimensional, utilizam-se SURROGATE KEYS, que substituem, de certa forma, as chaves dos sistemas fontes, fazendo uma relação entre eles


ID
1204798
Banca
FCC
Órgão
TRT - 15ª Região (SP)
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

Arquitetar e manter processos ETL é considerado por muitos uma das tarefas mais difíceis de um projeto de data warehouse. Muitos projetos deste tipo utilizam ferramentas para manter este processo. ......, por exemplo, provê recursos de ETL e tira vantagem das capacidades de banco de dados inerentes.

A lacuna acima é corretamente preenchida com Oracle

Alternativas
Comentários
  • ETL, do inglês Extract Transform Load (Extração Transformação Carga), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados geralmente em um Data Mart e um Data Warehouse, porém nada impede que também seja para enviar os dados para um determinado sistema da organização. A extração e carga são obrigatórias para o processo, sendo a transformação/limpeza opcional, mas que são boas práticas, tendo em vista que os dados já foram encaminhados para o sistema de destino. É considerada uma das fases mais críticas do Data Warehouse e/ou Data Mart.

    Os projetos de data warehouse consolidam dados de diferentes fontes. A maioria dessas fontes tendem a ser bancos de dados relacionais ou arquivo de texto (texto plano), mas podem existir outras fontes. Um sistema ETL tem que ser capaz de se comunicar com as bases de dados e ler diversos formatos de arquivos utilizados por toda a organização. Essa pode ser uma tarefa não trivial, e muitas fontes de dados podem não ser acessadas com facilidade.

  • ferramenta ETL da Oracle, o Oracle Warehouse Builder (OWB). Esta ferramenta será utilizada pelos responsáveis pelas partes mais trabalhosas na construção de um data warehouse - a aquisição de dados. Usada no contexto do data warehouse (DW), a aquisição de dados é o processo de reunir dados de vários sistemas, independente de sua forma e localização, transformá-los em um formato homogêneo e, então, carregá-los no data warehouse.

    Fonte: Artigo SQL Magazine 20 - Oracle Warehouse Builder 10g http://www.devmedia.com.br/artigo-sql-magazine-20-oracle-warehouse-builder-10g/5855#ixzz37lJp0H00

  •   As ferramentas de ETL mais utilizadas no mercado são o Data Stage da IBM, o ETI da ETI Corporation, Sagent da Group 1 Software, Informática Power Conect da Informática, DTS da Microsoft, Pentaho (Open Source), Talend (Open Source), Sunopsis e o Oracle Warehouse Builder da Oracle.


ID
1215172
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os próximos itens, com relação a DataMining e ETL.

O processo de transformação de dados pode exigir que dados logicamente relacionados, mas fisicamente separados, sejam recompostos, ainda que envolvam registros distintos ou até mesmo estejam em bancos de dados operacionais distintos.

Alternativas
Comentários
  • Pré-processamento em Data-Mining

    A etapa de pré-processamento, no processo de descoberta de conhecimento – KDD (Knowledge Discovery in databases), compreende a aplicação de várias técnicas para captação, organização, tratamento e a preparação dos dados. É uma etapa que possui fundamental relevância no processo de KDD. Compreende desde a correção de dados errados até o ajuste da formatação dos dados para os algoritmos de mineração de dados que serão utilizados.

    http://www.din.uem.br/~gpea/linhas-de-pesquisa/mineracao-de-dados/pre-processamento/pre-processamento-em-data-mining/

  • Cuidado. No processo de KDD, pré-processamento e transformação são etapas distintas.

     

     

    Pré-processamento e Limpeza
    O Pré-processamento e limpeza dos dados é uma parte crucial no processo de KDD, pois a qualidade dos dados vai determinar a eficiência dos algoritmos de mineração. Nesta etapa deverão ser realizadas tarefas que eliminem dados redundantes e inconsistentes, recuperem dados incompletos e avaliem possíveis dados discrepantes ao conjunto, chamados de outliers.

    O auxílio de um especialista do domínio é fundamental, pois na maioria dos casos apenas alguém que realmente entende do assunto é capaz de dizer se um dado é um outlier ou um erro de digitação.

    Nesta fase também são utilizados métodos de redução ou transformação para diminuir o número de variáveis envolvidas no processo, visando com isto melhorar o desempenho do algoritmo de análise.

    A identificação de dados inapropriados dentro do conjunto selecionado é problemática, e isto dificulta a automatização desta fase. Definir um dado como “ruim” dentro do conjunto depende da estrutura do mesmo e também de que aplicação é dada a ele (leia mais em DUNKEL  et al. , 1997).

    Transformação dos Dados
    A Transformação do Dados é a fase do KDD que antecede a fase de Data Mining. Após serem selecionados, limpos e pré-processados, os dados necessitam ser armazenados e formatados adequadamente para que os algoritmos possam ser aplicados.

    Em grandes corporações é comum encontrar computadores rodando diferentes sistemas operacionais e diferentes Sistemas Gerenciadores de Bancos de Dados (SGDB). Estes dados que estão dispersos devem ser agrupados em um repositório único.

    Além disto, nesta fase, se necessário, é possível obter dados faltantes através da transformação ou combinação de outros, são os chamados “dados derivados”. Um exemplo de um dado que pode ser calculado a partir de outro é a idade de um indivíduo, que pode ser encontrada a partir de sua data de nascimento.  Outro exemplo é o valor total de um finaciamento que pode ser calculado a partir da multiplicação do número de parcelas pelo valor da parcela.

     

     

    http://fp2.com.br/blog/index.php/2012/um-visao-geral-sobre-fases-kdd/

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: CERTO

  • A questão remete ao pré-processamento dos dados. Uma das tarefas dessa etapa envolve a integração de diferentes bases de dados. Dessa forma, a mineração poderá ocorrer em cima de um conjunto de dados que está fisicamente armazenado em BDs operacionais distintos, mas que foram posteriormente integrados em um DW ou em alguma estrutura do tipo.

  • Certo

    O sistema Extract-Transform-Load (ETL) é a base para construção de um data warehouse. Quando projetado adequadamente um sistema ETL extrai dados dos sistemas de origem, reforça a qualidade dos dados e padrões de consistência, ajusta dados para que dados advindos de fontes distintas possam ser usados juntos e finalmente entrega dados em um formato pronto para apresentação.

     

    A principal função da integração de dados ou ETL é obter dados de onde eles residem atualmente, alterando-os para que sejam compatíveis com o formato desejado e colocando-os no sistema de destino. Essas três etapas são chamadas de extrair, transformar e carregar (ETL). Toda a integração de dados, independentemente de ser executada em lote (batch) ou em tempo real, de forma síncrona ou assíncrona, física ou virtualmente, gira em torno dessas ações básicas.

     

    O ETL é responsável pela extração, transformação e carga dos dados das bases operacionais para a base de dados analítico.

     

    O processo de ETL é composto por algumas fases, extrair, limpar, preparar e entregar.

     

    No processo de ETL mostrado na figura, I e II correspondem, respectivamente, a: Staging Area e Data Warehouse.

  • integração de dados

    ANP.

  • Por que um Analista Judiciário precisa saber isso????????

  • Transformação de dados: Para realizar a mineração de dados, além da limpeza pode ser necessário também realizar algumas transformações sobre o conjunto de dados. Usa-se técnicas como normalização, suavização, agregação, generalização;

    Normalização: Essa normalização é diferente do processo de normalização que é aplicado nos bancos de dados relacionais. Aqui estamos falando de uma normalização matemática, uma operação em que os dados são distribuídos proporcionalmente para ficarem todos em um determinado intervalo. 

    Suavização: Consiste na remoção de ruídos dos dados, aqueles valores ocasionais que saem de um padrão desejado.

    Agregação: diminui o nível de detalhe dos dados. Dependendo da situação, pode não ser necessário armazenar os dados no seu formato mais detalhado, então realizamos a agregação para reduzir a quantidade de registros no nosso conjunto de dados.

    Generalização ou Discretização: A generalização também reduz a quantidade de registros como a agregação, mas a diferença é que esse processo permite transformar conjuntos de valores em categorias hierárquicas. Por exemplo, podemos juntar várias idades em uma divisão como “jovem”, “adulto” e “idoso”. 


ID
1226968
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca dos conceitos de Datawarehouse, de Datamining e de mensageria, julgue os itens a seguir.

O processo de extração, transformação e carga, comumente referenciado como ETL (Extract-Transform-Load), é um processo usado na criação e na atualização de um Datawarehouse.

Alternativas
Comentários
  • ETL como a própria tradução já diz é um processo de extração, transformação e carga, para a construção de um Data Warehouse ou Data Mart.

    O processo de ETL (Extract, Transform and Load) é um processo que exige esforço e a maior parte do tempo de construção de um Data warehouse, este processo vai extrair dados de fontes de dados heterogêneas e tem que alimentar o Data Warehouse de forma homogênea e concisa, pois vai servir de base para gerar relatórios e gráficos de apoio à decisão para a gerencia da corporação e não pode trazer resultados errôneos.

    Esse processo deve definir claramente quais informações são relevantes e que farão parte dos dados que vão alimentar o Data Warehouse, que deverá ter a estrutura desenhada com relação aos dados que serão extraídos dos vários sistemas e as informações que devem ser geradas a partir deste repositório.



    Leia mais em: Extract, Transformation and Load (ETL) - Ferramentas BI http://www.devmedia.com.br/extract-transformation-and-load-etl-ferramentas-bi/24408#ixzz3w8dC3mlg

  • O trecho "atualização de um Data Warehouse" torna a questão um pouco duvidosa. O DW não sofre atualizações, pois isso seria um conceito relacionado a transações. O termo correto, na minha opinião, seria "recarga".

  • É muito complicado, pq vc nunca sabe o que o examinador esta pensando. Olha a questão abaixo!

    Q435508

    Banco de Dados DW - Data Warehouse Ano: 2014 Banca: CESPE Órgão: ANATEL Prova: CESPE - 2014 - ANATEL - Analista Administrativo - Tecnologia da Informação e Comunicação

    No que diz respeito aos sistemas de suporte à decisão, julgue o item subsequente.

    Em um Data Warehouse (armazém de dados) que apresente a característica de ser não volátil, os dados não são atualizados após a inserção inicial. CERTO

  • Complexo a utilização desse termo "atualizações".... Uma das diferenças principais entre um DW e uma base de dados comum é que, uma vez carregado, um registro não muda. Outros registros do mesmo dado, em momentos diferentes, podem ser carregados, de maneira que seu comportamento no tempo ou diante de eventos específicos possa ser analisado. 

  • Os dados do DW não são atualizados, são imutáveis. Mas o DW em si é ATUALizado, porque recebe dados mais atuais. É assim que se constrói o histórico.

  • Certo

    O sistema Extract-Transform-Load (ETL) é a base para construção de um data warehouse. Quando projetado adequadamente um sistema ETL extrai dados dos sistemas de origem, reforça a qualidade dos dados e padrões de consistência, ajusta dados para que dados advindos de fontes distintas possam ser usados juntos e finalmente entrega dados em um formato pronto para apresentação.

     

    A principal função da integração de dados ou ETL é obter dados de onde eles residem atualmente, alterando-os para que sejam compatíveis com o formato desejado e colocando-os no sistema de destino. Essas três etapas são chamadas de extrair, transformar e carregar (ETL). Toda a integração de dados, independentemente de ser executada em lote (batch) ou em tempo real, de forma síncrona ou assíncrona, física ou virtualmente, gira em torno dessas ações básicas.

     

    O ETL é responsável pela extração, transformação e carga dos dados das bases operacionais para a base de dados analítico.

     

    O processo de ETL é composto por algumas fases, extrair, limpar, preparar e entregar.

     

    No processo de ETL mostrado na figura, I e II correspondem, respectivamente, a: Staging Area e Data Warehouse.

  • Galera, para criar um DW é necessário extrair os dados, transformar os dados e por fim carregar os dados (ferramenta ETL).

    Quando é feito este o processo (ETL), na fase de transformação, ocorre a atualização dos dados (adequação, tradução).

    Desta forma, o DW não são atualizáveis, mas o processo ETL atualiza sim os dados.

  • O Cespe vem e diz isso com gabarito certo: Q435508 Em um Data Warehouse (armazém de dados) que apresente a característica de ser não volátil, os dados não são atualizados após a inserção inicial.

    Aí depois vem e diz isso também com gabarito certo: O processo de extração, transformação e carga, comumente referenciado como ETL (Extract-Transform-Load), é um processo usado na criação e na atualização de um Datawarehouse.

    Peraí, né. Após a inserção dos dados dados no DW, eles podem ou não serem atualizados? Aí me quebra as pernas.

  • Samá Samute, volte na Q435508 e olhe o comentário do usuário Tomas, o mlk comenta bem. Acho que vai ajudar.

  • ETL - EXTRACT, TRANSFORM AND LOAD

    Técnica de extração de dados - relevantes para tomadas de decisões - de diversas fontes (homogêneas, heterogêneas, estruturados, não estruturados, etc.). 

    Realiza o pré-processamento dos dados, os limpa e padroniza (fase da transformação) e manda (fase do carregamento) para DW.

    No DW, os dados, por meio de alguns processos (OLAP e Data Minning, por exemplo), poderão ser usados para tomadas de decisões.

  • O datawarehouse pode ser atualizado (com a inserção de dados novos)

    Os dados do data warehouse já inseridos é que não podem ser atualizados.

  • Os dados em uma DW não são atualizados, mas o DW, apesar do nome correto ser processo de CARGA, ele é atualizado.

    Ex: Uma empresa que trabalha com empréstimos financeiros. No mês de Setembro, foi feito empréstimos no montante de $100.000,00. Esse dado de setembro não será mais modificado (atualizado). Porém, passou o mês de Outubro e foi necessário atualizar o DataWarehouse, com o valor corrente de $180.000,00. Totalizando $280.000,00.

    Resumindo: Por ser histórico ele realmente mantém seu banco de dados inalterável. O dado em sim, conforme o exemplo de setembro, não é alterado. Mas o DW, esse sofre (CARGAS/ATUALIZAÇÕES) para completar esses fatos históricos.

    OBS: Não sou de TI, apenas queria expor de maneira lúdica para os que, assim como eu, não são da área.

    Força Guerreiros!

  • DW não sofre atualização, redação um tanto quanto confusa

  • Comentário com exemplo para quem não é da área de TI como eu

    Processo completo

    Fontes de dados(SITE/Sistemas etc) >> ETL >> DW >> OLAP

    Antes procedimento ETL

    Antes de extrair e carregar os dados, tinha os respectivos dados no DW:

    Banana, maça, laranja

    Após procedimento ETL

    após extração e carregamento de dados, o DW foi atualizado e ficou assim:

    Banana, maça, laranja, uva, melão

    Pergunta final: O DW foi atualizado após o procedimento ETL? Resposta: sim


ID
1305034
Banca
CESPE / CEBRASPE
Órgão
ANATEL
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca dos sistemas de suporte à decisão e inteligência de negócio, julgue os itens subsequentes.

As ferramentas para extração, transformação e carga de dados (ETL) copiam todos os dados dos sistemas operacionais e os transferem para o Data Warehouse de forma a apoiar a análise corporativa das tendências e a realização de previsões empresariais.

Alternativas
Comentários
  • não copia TODOS os dados

  • Copia dados dos bancos de dados selecionados, e não de sistemas operacionais.

  • Pegadinha do malandro Cespe: A ferramenta ETL realiza a extração de dados do ambiente operacional para o ambiente de data warehouse.


    http://litolima.com/2010/01/13/etl-extracao-transformacao-e-carga-de-dados/

  • Percebam que a questão trata o funcionamento das ferramentas ETLs como uma simples cópia de dados (todos) das bases operacionais (OLTP) para o DW. Ao simplificar dessa maneira, a questão descreve equivocadamente o comportamento das ferramentas ETLs que proporcionam a extração, transformação, entrega e gestão, com todos os seus subsistemas (captura de alterações, limpeza, conformidade, remoção de duplicidade, construção de cubos, propagação de dados, agendamento de jobs, versionamento etc...)

  • Previsões e tendências não é DW, e sim, DM - Data Mining

  • Eu acho que EXTRAÇÃO não é o mesmo que cópia.


  • ERRADO


    O processo de ETL (Extract, Transform and Load) é um processo que exige esforço e a maior parte do tempo de construção de um Data warehouse, este processo vai extrair dados de fontes de dados heterogêneas (diferentes) e tem que alimentar o Data Warehouse de forma homogênea e concisa, pois vai servir de base para gerar relatórios e gráficos de apoio à decisão para a gerencia da corporação e não pode trazer resultados errôneos.


    Esse processo deve definir claramente quais informações são relevantes (diferente da questão "...copiam todos os dados...") e que farão parte dos dados que vão alimentar o Data Warehouse, que deverá ter a estrutura desenhada com relação aos dados que serão extraídos dos vários sistemas e as informações que devem ser geradas a partir deste repositório.


    Leia mais em: Extract, Transformation and Load (ETL) - Ferramentas BI http://www.devmedia.com.br/extract-transformation-and-load-etl-ferramentas-bi/24408#ixzz3lCmkUDlh


  • Simples. O erro é : "copiam todos os dados dos sistemas operacionais"

  • OBS: A função do ETL (Extract Transform and Load) não é copiar todos os dados dos sistemas operacionais E SIM UMA EXTRAÇÃO (seletiva conforme a regra do negócio)

  • Gabarito: errado.

    Primeiro, não são copiados todos os dados, mas apenas aqueles que sejam relevantes para a tomada de decisões. Segundo, não são copiados dados dos sistemas operacionais, mas dos ambientes operacionais (Sistema Operacional é Windows, Linux, etc).

    Fonte: estratégia concursos.

  • O processo de ETL consiste na extração dos dados de fontes homogêneas na transformação e limpeza destes dados e nas cargas dos dados no DW.

    Como os dados dever ser padronizados, consistentes e uniformizados antes de serem carregados no DW esses dados são limpos e colocados na stage area. A transformação dos dados é a fase subsequente à extração, ela não só transforma como também limpa.Já a fase de cargas consiste no carregamento dos dados para o destino final.

  • Primeiro, não são copiados todos os dados – apenas aqueles que sejam relevantes para a tomada

    de decisões. Segundo, não são copiados dados dos sistemas operacionais, mas dos ambientes

    operacionais (Sistema Operacional é Windows, Linux, etc). Estrategia

  • Eu botei errado pelo fato de falar "TODOS OS DADOS DO SISTEMA OPERAVIONAL" acredito que seria de varias bases de dados.

  • GAB: ERRADO

    ETL ( Extract, Tranform and Load ) 

     É um recurso que permite integrar o DW de modo que possa receber os dados de Fontes como ERPs, CRMs, planilhas, arquivos de texto, bancos de dados, entre outros.

    Ademais, as ferramentas de ETL devem ser capazes de acessar os dados em diversas tecnologias e fazer o processo de transformação em padronização dos dados

    Fonte: Prof: João Paulo ( Alfacon )

  • ERRADO

    Primeiro, não são copiados todos os dados – apenas aqueles que sejam relevantes para a tomada de decisões.

    FONTE: ESTRATÉGIA.

  • Errado. São apenas os dados relevantes, se não o datawarehouse ia ficar ultragigante com monte de dados desnecessários.


ID
1308919
Banca
CESPE / CEBRASPE
Órgão
ANTAQ
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de ferramentas de BI (business intelligence), julgue o próximo item.

O Módulo de ETL (extract transform load), dedicado à extração, carga e transformação de dados, coleta informações em fontes como sistemas ERP, arquivos com extensão TXT e planilhas Excel.

Alternativas
Comentários
  • Gabarito: CORRETA

    Na questão foi alterado a ordem, mas foi considerada correta.

    ETL, na prática, são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e, por fim, a carga dos dados em um Data Mart ou um Data Warehouse.

  • foi alterado a ordem mas ele não disse (nessa ordem)

     

    correta

  • A etapa de extração do módulo de ETL de um sistema de Business Intelligence se dedica a coletar dados de diversas fontes para posterior transformação e carregamento na base de destino. Você pode ter achado que a assertiva estava errada por dizer que são coletadas informações de diferentes fontes, mas a questão foi considerada correta. 

    Acontece que as bancas não costumam focar muito nesse aspecto formal da diferença entre dado, informação e conhecimento em questões que não dizem respeito a esse assunto. Então, minha recomendação é: a não ser que a questão trate explicitamente da diferença entre esses conceitos ou o erro seja muito óbvio, você pode considerar a diferença como sendo irrelevante para a resposta.

  • ETL faz a coleta em todo e qualquer tipo de dado na Origem,

  • ETL é o processo mais crítico e demorado na construção de um Data Warehouse, uma vez que

    consiste na extração dos dados de fontes homogêneas ou heterogêneas; na transformação e

    limpeza destes dados; e na carga dos dados no DW. Pessoal, as decisões estratégicas – aquelas

    mais importantes de uma organização – são tomadas com base nas informações geradas através

    dos dados armazenados no Data Warehouse.

  • A técnica denominada ETL extrai dados de diversas fontes - homogêneos e/ou heterogêneos, dados estruturados e não estruturados.

  • GABARITO CORRETO!

    .

    .

    ACRESCENTANDO:

    Existem três tipos primários de paralelismos implementados em aplicações de ETL:

    Dados: Pela divisão de um único arquivo sequencial em arquivos de dados menores para permitir acesso em paralelo.

    Pipeline: Permitindo a execução simultânea de diversos componentes no mesmo fluxo de dados.

    Um exemplo seria a leitura de um valor no registro 1 e ao mesmo tempo juntar dois campos no registro 2.

    Componente: A execução simultânea de múltiplos processos em diferentes fluxos de dados no mesmo job. A classificação de um arquivo de entrada concomitantemente com a de duplicação de outro arquivo seria um exemplo de um paralelismo de componentes.


ID
1330456
Banca
Quadrix
Órgão
DATAPREV
Ano
2012
Provas
Disciplina
Banco de Dados
Assuntos

O objetivo dessa área é criar um ambiente intermediário de armazenamento e processamento dos dados oriundos de aplicações OLTP (Online Transaction Processing) e outras fontes, para o processo de ETL (Extract Transform Load), possibilitando seu tratamento, e permitindo sua posterior integração em formato e no tempo, evitando problemas após a criação do Data Warehouse e a concorrência com o ambiente transacional no consumo de recursos. A área citada é conhecida como:

Alternativas
Comentários
  • Operational Data Storage ou Staging Area (ODS)
    
    OBJETIVO
    Criar um ambiente intermediário de armazenamento e processamento dos dados oriundos de aplicações OLTP e outras fontes, para o processo de extração, transformação e carga (ETL), possibilitando o seu tratamento, e permitindo sua posterior integração em formato e no tempo, evitando problemas após a criação do DW e a concorrência com o ambiente transacional no consumo de recursos.
    

  • "Uma Stage Area garante a existência única de dados, eliminando  a possibilidade de termos dados repetidos ou similares ou até mesmo com valores diferentes em um Data Warehouse, dados não sincronizados e dados “sujos” .

    "A Staging área deve ser usada também para “limpar” os dados, também é o  único lugar que server para determinar os valores que vêm efetivamente de sistemas legados."

    Fonte:

    https://lucianasampaio.wordpress.com/2013/03/05/stage-area-data-warehouse/


ID
1337209
Banca
CESPE / CEBRASPE
Órgão
ANATEL
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item seguinte, com relação à disponibilização de informações de apoio a decisões estratégicas e gerenciais.

As ferramentas de business inteligence, encarregadas de extrair e carregar dados na base de dados de BI, são denominadas ferramentas de ETL.

Alternativas
Comentários
  • CORRETA.

    ETL, na prática, são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e, por fim, a carga dos dados em um Data Mart ou um Data Warehouse. A extração e carga são obrigatórias para o processo, sendo a transformação/limpeza opcional.

  • ETL - EXTRACT, TRANSFORM AND LOAD

    Técnica de extração de diversas fontes - homogêneos e/ou heterogêneos. Realiza o pré-processamento dos dados, os limpa e padroniza (fase da transformação) e manda (fase do carregamento) para DW.

    No DW, os dados, por meio de alguns processos (OLAP e Data Minning, por exemplo), poderão ser usados para tomadas de decisões.

  • base de dados de BI?


ID
1356556
Banca
FUNCAB
Órgão
MDA
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Na implementação de soluções de BI, existem ferramentas específicas para a criação de cubos, para uso nas atividades de ETL e outras para a visualização de dados, exemplificadas, respectivamente em qual alternativa?

Alternativas
Comentários
  • Só acertei por que lembrei do Oracle Data Integrator.
  • Só acertei porque lembrei do Hyperion.

  • Só acertei por que lembrei do  QlikView

  • ERREI

  • Eu nem chutei, porque não lembrei foi de nada!!!


ID
1362109
Banca
Quadrix
Órgão
DATAPREV
Ano
2012
Provas
Disciplina
Banco de Dados
Assuntos

Um ambiente de data warehouse Oracle inclui várias ferramentas, além de uma base de dados relacionai. Um ambiente típico inclui, entre outras ferramentas, um processo de extração de dados dos sistemas de origem, para levar esses dados ao data warehouse. Esse processo corresponde a:

Alternativas
Comentários
  • ETL - Extract Transform Load (Extração, Transformação e Carga): Extraem os dados de diferentes sistemas, transformam os dados de acordo com as regras de negócio e faz a carga no Data Warehouse ou Data Mart.

ID
1372585
Banca
FGV
Órgão
AL-BA
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Um  depósito  de  dados  é  utilizado  para  armazenar,  de  forma  consolidada,  informações  relativas  às  atividades  de  uma  organização  em  bancos  de  dados.  Nesse  contexto,  o  datawarehouse  possibilita  a  análise  de  grandes  volumes  de  dados,  coletados  dos  sistemas  transicionais,  permitindo  uma  melhor  análise  de  eventos  passados,  oferecendo  suporte  às  tomadas de decisões presentes e à decisão de eventos futuros. 

Com relação ao datawarehouse, analise as afirmativas a seguir. 

I.  Caracteriza‐se pela volatilidade dos dados, facilitando a realização de frequentes atualizações dos mesmos.

II.  Aplicações OLAP destinam‐se à análise e à manipulação de dados do datawarehouse  sob múltiplas perspectivas.

III.  ETL  são  ferramentas  que  realizam  a  extração  de  dados  de  diversos  sistemas,  a  transformação  desses  dados  conforme  regras  de  negócios  e  a  carga  dos  mesmos  em  um  datawarehouse

Assinale:

Alternativas
Comentários
  • Gabarito E;

    A alternativa I está errada, pois uma das principiais características de um DW é ser Não volátil;

    Bons estudos! ;)

  • OLAP também manipula dados? Entendo manipulação também como alteração.

  • Yuri, Manipulação de dados não quer dizer que os dados serão alterados. A manipulação pode ocorrer de forma a se obter uma informação de um certo conjunto de dados, sem que a sua integridade seja afetada.

  • Acho q, o que poderia trazer dúvida, é a questão dizer q ETL é uma ferramenta; pois, na verdade se trata de um processo de Extração, Transformação e Carga.

  • Eu também entendi manipulação como modificação e errei. Bom ver que a FGV não entende assim.

  • Prezados,

    O item I é errado. Os DW não são caracterizados pela volatilidade. Os dados são voláteis nos sistemas transacionais, nos DW os dados não sofrem alteração para facilitar a geração de relatórios e a análises para apoio a decisão.
    O item II é correto. OLAP é on line analitical process, é a análise e a manipulação de dados do DW.
    O item III é correto. ETL, extract, transform and load, é uma técnica e suas ferramentas para realizar a carga de dados dos sistemas transacionais para os DW , com suas respectivas transformações.

    Portanto a alternativa correta é a letra E.

  • I. O DW se caracteriza pela não volatilidade dos dados, propriedade que determina justamente o oposto dessas frequentes atualizações. Um DW não deve ser atualizado, apenas ter seus registros carregados de tempos em tempos pelo processo de ETL. ERRADA

    II. As aplicações OLAP permitem a navegação nos dados através de diferentes perspectivas e níveis hierárquicos. Item correto! CERTA

    III. O processo de ETL tem três etapas: a extração dos dados de várias fontes, a transformação de acordo com regras preestabelecidas e a carga dos dados transformados em um DW. A descrição do processo está correta. CERTA

  • sinônimos de Manusear:

    1 manobrar, menear, manusear, manejar, operar, usar, utilizar. 

  • Não volátil: significa que o DW permite apenas a carga inicial dos dados e consultas a estes dados, o chamado ambiente ”load-and-access”.

    fonte: https://www.coladaweb.com/informatica/data-warehouse


ID
1386481
Banca
CESPE / CEBRASPE
Órgão
ANTT
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens a seguir, referentes à DataWarehouse.

Ferramentas ETL são utilizadas na extração, transformação e remoção de dados.

Alternativas
Comentários
  • A questão está errada porque fala em remoção de dados o resto está certa


  • Gabarito: errado

    A questão está quase toda correta, tirando a parte da "remoção dos dados".


    ETL quer dizer: Extract( extrair os dados ), Transform ( transformar os dados ) e Load ( carregar os dados)

  • se fizer rápido cai mesmo


    eu cai

  • Ferramentas ETL são utilizadas na extração, transformação e carregamento de dados.

  • Errado

    O sistema Extract-Transform-Load (ETL) é a base para construção de um data warehouse. Quando projetado adequadamente um sistema ETL extrai dados dos sistemas de origem, reforça a qualidade dos dados e padrões de consistência, ajusta dados para que dados advindos de fontes distintas possam ser usados juntos e finalmente entrega dados em um formato pronto para apresentação.

     

    A principal função da integração de dados ou ETL é obter dados de onde eles residem atualmente, alterando-os para que sejam compatíveis com o formato desejado e colocando-os no sistema de destino. Essas três etapas são chamadas de extrair, transformar e carregar (ETL). Toda a integração de dados, independentemente de ser executada em lote (batch) ou em tempo real, de forma síncrona ou assíncrona, física ou virtualmente, gira em torno dessas ações básicas.

     

    O ETL é responsável pela extração, transformação e carga dos dados das bases operacionais para a base de dados analítico.

     

    O processo de ETL é composto por algumas fases, extrair, limpar, preparar e entregar.

     

    No processo de ETL mostrado na figura, I e II correspondem, respectivamente, a: Staging Area e Data Warehouse.

  • GABARITO ERRADO!

    .

    .

    ETL (Extract, Transform e Load)

    Extract: extrai as informações de diversos BD (+demorado de todos, segundo Kimball);

    Transform: transforma as informações para o formato adequado;

    Load: carrega as informações comumente em um DW e/ou DM.

  • (CESPE - Q107033) As ferramentas de software ETL (extract transform load) têm como função a extração de dados de diversos sistemas, a transformação desses dados de acordo com as regras de negócio e a carga dos dados em um data mart ou um DW. CERTO

    ETL --> Como o próprio nome indica, é dividido em três fases:

    • Extrair: aqui os dados são extraídos das diversas fontes;
    • Transformar: muitos autores incluem dentro desta etapa o processo de limpeza e preparação. Aqui são tratadas inconsistências e os dados são padronizados;
    • Carregar: nesta etapa, os dados são carregados nos repositórios dos Data Warehouses e Data Marts

    Não há que se falar em ''remoção de dados'', portanto, questão ERRADA!

    Continuamos na luta! Bons estudos!


ID
1389106
Banca
VUNESP
Órgão
TJ-PA
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Considerando o processo de extração, transformação e carga utilizado na montagem de um data warehouse, é correto afirmar que

Alternativas
Comentários
  • Tipo de questão respondida por exclusão.


    Alternativa A ---> Link completo que aborda o tema: http://litolima.com/2010/01/13/etl-extracao-transformacao-e-carga-de-dados/


    Alternativas C,D,E ---> colocam prazos, o que não faz o menor sentido. Essa definição será feita nos projetos especificamente.


    Nos resta, somente : Alternativa B



ID
1474717
Banca
CESGRANRIO
Órgão
Petrobras
Ano
2010
Provas
Disciplina
Banco de Dados
Assuntos

Em um ambiente de data warehousing, uma das fases mais importantes é a ETL (Extract, Transformation and Load), em que se definem as estratégias de conversão, transformação e consistência dos dados dos sistemas de origem para realizar a carga dos dados no sistema de data warehouse. Uma característica relacionada a essa fase de ETL é que

Alternativas
Comentários
  • Alternativa D

    O termo Extraction, Transformation and Load se refere a um conjunto de processos em empresas que utilizam um  (DW) – banco de dados que permite análises avançadas.

    O conceito do ETL tem como base a junção de três passos para o tratamento de dados: extrair para transformar e, em seguida, carregar.


ID
1643257
Banca
CESPE / CEBRASPE
Órgão
TCU
Ano
2015
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item subsequente, a respeito de modelagem dimensional e análise de requisitos para sistemas analíticos.

O paralelismo, característica desejável de uma ferramenta de ETL, oferece suporte às operações de vários segmentos e a execução de código executável de forma paralela.

Alternativas
Comentários
  • Um desenvolvimento recente dos softwares de ETL foi a implementação de processamento em paralelo. Isto permitiu o desenvolvimento de vários métodos para melhorar a performance geral dos processos de ETL no tratamento de grandes volumes de dados.

    Existem três tipos primários de paralelismos implementados em aplicações de ETL:

    Dados: Pela divisão de um único arquivo sequencial em arquivos de dados menores para permitir acesso em paralelo.
    Pipeline: Permitindo a execução simultânea de diversos componentes no mesmo fluxo de dados. Um exemplo seria a leitura de um valor no registro 1 e ao mesmo tempo juntar dois campos no registro 2. Componente: A execução simultânea de múltiplos processos em diferentes fluxos de dados no mesmo job. A classificação de um arquivo de entrada concomitantemente com a de duplicação de outro arquivo seria um exemplo de um paralelismo de componentes.
    FONTE: https://www.wikiwand.com/pt/Extract,_transform,_load

  • CERTO

    ETL é abreviação para extract (extrair), transform (transformar) e load (carregar), três funções de banco de dados que são combinadas em uma ferramenta para extrair dados de um banco de dados e colocá-los em outro banco de dados.

    Os principais tipos de paralelismos implementados no ETL são o de dados, pipeline e de componente

     

    Diz a Microsoft sobre o assunto:

     

     

    Portanto, a questão está correta. O paralelismo implementado no ETL oferece exatamente o que afirma a questão.

     

    Gabarito: CERTO

    FONTE: PROF MARCEL LEAL - TECCONCURSOS

     

    Referência:

  • Tão dizendo por ai que a proxima prova do Cespe vai ter essa questão:

    1) Quem descobriu o Brasil foi Pedro Alvares Ca...?

    a) Bral

    b) Brel

    c) Bril

    d) Brol

    e) Brul.

    Obs: Com a opção negritada, igual como ta acima!

    Acredite se puder!!!


ID
1793086
Banca
ESAF
Órgão
ESAF
Ano
2015
Provas
Disciplina
Banco de Dados
Assuntos

Os sistemas de suporte à decisão extraem informações necessárias para a tomada de decisão, utilizando consultas complexas sobre grandes volumes de dados. Analise as seguintes afi rmações a conceitos e ferramentas de suporte a decisão e classifi que-as como verdadeiras (V) ou falsas (F). Em seguida assinale a opção correta.
I. O ETL (Extract Transform Load) são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fi m a carga dos dados geralmente em um Data Mart e um Data Warehouse.
II. O OLAP (Online Analytical Processing) fornece para organizações um método de acessar, visualizar, e analisar os dados corporativos com alta fl exibilidade e performance.
III. Um Data Warehouse é utilizado para armazenar informações relativas às atividades de uma organização em bancos de dados, de forma consolidada.
IV. O Data Mining, diferentemente do OLAP, fornece informações de dados corporativos ocultos em grandes bancos de dados, podendo prever comportamentos futuros.

As afirmações I, II, III e IV são, respectivamente:

Alternativas
Comentários
  • a)V, V, V, V.

  • examinador lindo. parabéns por elaborar uma questão tão linda como essa.

  • DATA WAREHOUSE → palavras-chave: modelagem dimensional; depósito de dados; informações de uma empresa; relatórios por meio de históricos; ajuda na tomada de decisões; orientado por assunto; integrado; não-volátil; variável com o tempo.

    → Uma vez inseridos no Data Warehouse, você não pode mais alterar os dados, EMBORA POSSAM SER ELIMINADOS.

     Data Warehouse é orientado por assunto:

    Um Data Warehouse é montado por assunto, isto é, ele trata de temas específicos e importantes para o negócio da organização. Por exemplo: uma empresa do ramo de concursos pode ter como assuntos principais: concursos militares, concursos fiscais, concursos policiais, concursos de tribunais, concursos bancários, concursos legislativos, entre outros. Aqui não tem muito o que falar, essa característica é bastante intuitiva.

     Data Warehouse é não-volátil:

    O dicionário nos diz que volátil é aquilo que muda com facilidade. Nós vimos que os dados são carregados a partir do Banco de Dados Transacional para o Data Warehouse. O lance é que o Data Warehouse é não-volátil, logo ele não muda com facilidade. Na verdade, os dados simplesmente não mudam! – uma vez inseridos no DW, você não pode mais alterá-los embora possam ser excluídos. Em outras palavras, podemos dizer que os dados ficam disponíveis apenas para que os usuários realizem consultas e façam relatórios que auxiliem a tomada de decisão por parte dos gestores de uma organização. Logo, os dados disponíveis em um Data Warehouse mostram uma característica de somente leitura para os usuários finais de um banco de dados. 

     Data Warehouse é integrado: se os dados representam a mesma entidade, mas estão com nomes diferentes, podemos dizer que os dados não estão integrados. Em outras palavras, ser integrado significa que os dados estão consistentes e uniformes.

  • Até reli tudo, quando vi que todas estavam corretas


ID
1859629
Banca
FGV
Órgão
MPE-MS
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

Com relação ao tema “Técnicas de modelagem e otimização de bases de dados multidimensionais”, analise as afirmativas a seguir.

I. No esquema stardate, a tabela de fatos está vinculada a várias tabelas do tipo dimensões simples, slowly changing e role playing.

II. A tecnologia HOLAP permite que os dados de um datawarehouse sejam divididos entre o armazenamento relacional (tabelas de fatos e dimensões) e multidimensional (cubos de dados resumidos).

III. Uma dimensão degenerada é uma tabela que contém os metadados resultantes do processo de ETL utilizada na extração de dados do ambiente operacional.

Assinale:

Alternativas
Comentários
  • GABA b)

    II. A tecnologia HOLAP (Híbrido) permite que os dados de um datawarehouse sejam divididos entre o armazenamento relacional (tabelas de fatos e dimensões) e multidimensional (cubos de dados resumidos).

    stardate??? dimensão degenerada??? =S

  • Pensei da mesma forma.

  • De uma forma resumida e bem direto ao ponto, é uma técnica para atualizar a tabela dimensão. Tem um nome todo pomposo, mas é como você vai atualizar a dimensão.

    Todas as dimensões são SCD, porque elas vão precisar atualizar para se manterem sincronizadas com o transacional.

    A única exceção é a dimensão de tempo, que a gente chama de tipo 0, porque depois que os dados foram inseridos, não precisa mais atualizar.

    No Data Warehouse, as dimensões muitas vezes são utilizadas para múltiplos objetivos.

    Como assim? Quando você quer fazer uma análise de vendas e nessa análise precisa mensurar quantidade vendida, você quer ver essa quantidade pela data do pedido, pela data do envio do pedido e pela data do recebimento do pedido.

    Quando acontece essa situação, nós precisamos ter as Surrogate Keys na fato para que você possa analisar de forma separada.

    Em muitos casos, quando as pessoas não entendem de , copiam a dimensão de tempo 3x.

    Então ela repete lá, data do pedido, data do recebimento do pedido e data do envio do pedido. Você até pode ter essa visão lógica do Data Warehouse, mas fisicamente, isso não precisa existir, porque você vai deixar seu Data Warehouse 3x maior.

    É a dimensão que não mereceu ser uma tabela dimensão e foi inserida como coluna na fato. Quando a gente vai definir uma dimensão, existem algumas perguntas que fazemos.

    Imagina uma fato venda em que a pessoa quer ver o código da transação da compra.

    Às vezes você precisa ter aquela informação ali para fazer um filtro. Quando é algo desse tipo, que não dá para criar uma dimensão, você faz uma degenerada.

    Pensa, você vai criar uma dimensão de transação. O que vai ter nela? O código da transação, talvez um nome da transação, se for ser a transação de uma vendedora ou de um produto, aí já são outras dimensões.

    Nesse caso você só quer pôr aquele número porque o usuário precisa dele por algum motivo.

    E se não vai criar uma dimensão para isso, vai colocar onde? Muitas vezes isso entra na fato transacional. A fato venda, com a qual você está trabalhando, é transacional, você coloca todas as transações linha por linha.

    E onde vai isso? Basicamente, você vai na fato e cria uma coluna. Eu costumo marcar quando é dimensão degenerada, por exemplo: “código transação (DD)”.

  • A Dimensão Degenerada (Degenerate Dimension, do inglês) é uma Dimensão que também compõe a Tabela Fato, porém não possui sua própria Tabela de Dimensão;

    SLOWLY CHANGING DIMENSIONS - Slowly Changing Dimensions SCD (Dimensões que Mudam Lentamente, em português) e retrata as dimensões que sofrem atualizações em seus campos e os classifica pelo tipo de mudança existente em cada uma delas. Vários tipos de SCD podem ser identificados no DW, variando de acordo com as características de atualizações das dimensões. As alternativas mais comuns de SCD são o SCD Tipo 1, SCD Tipo 2, SCD Tipo 3 e o SCD Híbrido (Canaltech, 2020).

    role playing: não encontrado

    Gabarito:

    B

    https://www.mentorstec.com.br/post/conceitos-de-tabelas-dimens%C3%A3o-e-fato-na-constru%C3%A7%C3%A3o-do-data-warehouse


ID
1864930
Banca
CESPE / CEBRASPE
Órgão
TRT - 8ª Região (PA e AP)
Ano
2016
Provas
Disciplina
Banco de Dados
Assuntos

A respeito de sistemas de suporte a decisão, assinale a opção correta.

Alternativas
Comentários
  • A Na extração não acontece a limpeza dos dados, para tal tarefa temos, dentro do processo de ETL, a etapa de transformação.

    B A alternativa troca os conceitos de DRILL-DOWN e ROLL-UP, principalmente em relação a navegação sobre a hierarquia dos dados.

    C Nem todas as bases de dados de DW são relacionais, elas também podem ser dimensionais. Outra característica é o fato de que, quando utilizamos a modelagem multidimensional, as tabelas encontram-se desnormalizadas. Alternativas incorreta.

    D Apresenta uma definição possível e correta para mineração de dados, sendo, portanto a reposta à questão.

    E A área de staging é um espaço de armazenamento temporário que pode ser usado, tanto para implementação de bases de dados relacionais temporárias, quanto para armazenamento de arquivos planos ou XML. Se observarmos essa alternativa pode ser respondida pelo texto da wikipedia que afirma que o staging não necessariamente é estruturado de forma relacional, como sugere a questão.

     

    Fonte: http://www.estrategiaconcursos.com.br/blog/prova-da-semana-comentario-da-prova-da-funpresp-especialista-tecnologia-da-informacao-bd-e-bi-2/

  • "O conceito de data mining está mais relacionado com os processos de análise de inferência do que com os de análise dimensional de dados e representam uma forma de busca de informação baseada em algoritmoa que objetivam o reconhecimento de padrões escondidos nos dados e não necessariamente revelados pelas outras abordagens analíticas, como o OLAP. "

    BI2 2011 -Business Intelligence 2011 pag 109

  • Por que a letra E está errada?


ID
2105005
Banca
FCC
Órgão
Prefeitura de Teresina - PI
Ano
2016
Provas
Disciplina
Banco de Dados
Assuntos

O processo ETL é uma etapa importante no projeto de um data warehouse. No processo ETL,

Alternativas
Comentários
  • a) ERRADA. A carga é definida de acordo com a necessidade e possibilidade da empresa

    b) ERRADA. A extração de dados pode buscar dados nos ambientes operacionais, mas pode também buscar em planilhas eletrônicas, textos, etc. A transformação também vai atuar nesses dados.

    c) ERRADA. É ao contrário.A fase de extraçao envolve a leitura de dados dos ambientes operacionais, textos, emails, etc, e sua carga posterior nos bancos de dados do dw.

    d) ERRADA. Não necessariamente haverá esse desprezo.

  • Obrigado Rosansa, por favor continue comentando, pois ajuda muito!

  • A questão "c" aparentemente está correta. Mas devemos entender que não faz sentido atualizar algum sistema operacional a partir de um DW, uma vez que os sistema operacionais são responsáveis pela correta entrada de dados. O DW, como grande repositório de dados, permite apenas a consulta dos dados ali armazenados.

  • Sempre erro essas questos de atualizacao de Dw

     

    2015
    o Data Warehouse não é volátil, permite apenas a carga inicial dos dados e consultas a estes dados. Além disso, os dados nele armazenados são precisos em relação ao tempo, não podendo ser atualizados.
    certa

  • Comentários: (a) Errado. Isso não existe – a organização pode determinar a periodicidade da carga de dados; (b) Errado. A fase de transformação de dados envolver alterações nos tipos vindos de diversas fontes de dados e não apenas aquelas vindas do ambiente operacional; (c) Errado. A fase de extração envolve a leitura de dados de diversas fontes diferentes (inclusive dos bancos de dados operacionais) e sua carga posterior no Data Warehouse; (d) Errado. Isso simplesmente não existe; (e)

    Correto. O intervalo pode ser o que a organização achar adequado e 24 horas é um período possível (Letra E).

  • Meu "divo inspirador" Mr Robot teve o mesmo problema que eu. Provavelmente errou com o mesmo pensamento que eu.

    Estou emocionado

    Sempre aprendi que não se carrega dados a todo momento no DW, e que os dados dentro dele, ficam por muuuito tempo. Vou dar uma lida sobre isso


ID
2134924
Banca
CESPE / CEBRASPE
Órgão
FUNPRESP-JUD
Ano
2016
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item subsecutivo, referente às tecnologias de bancos de dados.

O uso de banco de dados normalizado para o processamento de ETL exige, em alguns casos, maior esforço e investimento para a disponibilização dos dados em um modelo dimensional.

Alternativas
Comentários
  • A funcionalidade OLAP é inicialmente caracterizada pela análise dinâmica e multidimensional dos dados consolidados de uma organização permitindo que as atividades do usuário final sejam tanto analíticas quanto navegacionais.

    As ferramentas OLAP (do inglês, Online Analytical Processing) são geralmente desenvolvidas para trabalhar com banco de dados desnormalizados

     

    Fonte:https://www.google.com.br/amp/s/vivianeribeiro1.wordpress.com/2011/07/12/o-que-e-olap/amp/?client=ms-android-motorola

  • A assertiva é correta pois um banco de dados NORMALIZADO exige maior esforço de processamento e investimento, ao contrário de um banco DESNORMALIZADO, para disponibilizar os dados em um modelo dimensional.

  • Questão muito mal formulada....

    Se o banco já é desnormalizado, pra quê usar o ETL ?  Está pensando em usar ETL para importar dados de outro Datawarehouse ?

    A frase EM ALGUNS CASOS faz a pergunta ficar correta, mas EM ALGUNS CASOS quase tudo pode acontecer !

     

  • Galera, acho que o termo "em alguns casos" tornou a questão correta... não dá pra generalizar que um banco de dados normalizado sempre irá gerar mais ou menos esforço, pois cada caso é um caso.

  • ATENÇÃO!!!!

    Quando a CESPE coloca algo não restringindo, NORMALMENTE, está correto

  • Gabarito: Certo.

    Banco normalizado: consome muito no processamento.

    Bons estudos!

  • Antônio, vc tem noção do significado de ETL? E q eu posso usa-lo tambeḿ para fazer limpeza dos dados, e não apenas com desnormalização?

    No processo de ETL, vc pode pegar dados de tudo quanto é lugar, até mesmo textuais, raspagens de sites, uma placa de um carro meio hachurado q tava la na base etc...vc precisa limpar esses dados, estrutura-los, para q a maquina entenda. Isso tudo fazer parte do ETL.

    Bora ficar ligados, galera! Bora abrir o olho!!!

  • Acho que nesse caso ai ... Usa o ETL pra filtrar informações e jogar dentro do DW, acho que é isso ne?

    E outra geralmente mas nem sempre, pois cada caso é um caso, ainda mais em tecnologia, ficará mais caro o processo em banco de dados transacionais normalizado.


ID
2334391
Banca
FCC
Órgão
TRE-SP
Ano
2017
Provas
Disciplina
Banco de Dados
Assuntos

No processo ETL de um data warehouse: (I) a tradução de valores codificados conhecida como limpeza de dados (por exemplo, supondo que o sistema de origem armazena 1 para sexo masculino e 2 para feminino, mas o data warehouse armazena M para masculino e F para feminino) e (II) a geração de valores de chaves substitutas (surrogate keys) são

Alternativas
Comentários
  • A etapa extração e a etapa carga não tem atividades, pois como diz seus nomes só extraem e carregam dados respectivamente, todas as atividades são na etapa transformação.

  • LETRA A

    Aplicação de Regras, Normalização, Geração de chaves sempre é feita na etapa de transformação.

  • As atividades descritas são modificações nas estruturas dos dados coletados das fontes heterogêneas. Os padrões são convertidos para a mesma representação unificada e as chaves das tabelas são alteradas para a nova chave substituta gerada. Como modificações nos dados, essas tarefas integram a etapa de transformação.

    Gabarito: A


ID
2382700
Banca
ESPP
Órgão
MPE-PR
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

Um data warehouse pode ser descrito como sendo uma coleção de tecnologias de apoio à decisão, visando a habilitar o analista a tomar decisões melhores e mais rápidas. Para a criação de um data warehouse há uma fase que consiste em limpeza e reformatação dos dados antes que sejam carregados no data warehouse. Esse processo é tratado por ferramentas conhecidas por:

Alternativas
Comentários
  • Gabarito Letra A

    ETL: é um processo de extração, transformação e carga de dados relevantes de fontes de dados heterogêneas (diferentes) para alimentar o Data Mart /Data Warehouse de forma homogênea e concisa, pois visa servir de base para gerar relatórios e gráficos de apoio à decisão para a gerencia da corporação e não pode trazer resultados errôneo
     

    Processo ETL: Extração; Transformação; Limpeza; Carga (na DW)



    bons estudos

  • ETL - Ferramenta usada para transformação de recursos de dados transacionais em recursos informacionais. (Barbieri)

    .

    .

    At.te

    Foco na missão 

  • ETL (EXTRACT – TRANSFORM – LOAD)

    Destina-se à extração, transformação e carga dos dados de uma ou mais bases de dados de origem para uma ou mais bases de dados de destino (data warehouse);

    A extração e a carga são obrigatórias para o processo, sendo a transformação/limpeza opcional.

    Trabalha com toda a parte de extração de dados de fontes externas, transformação para atender às necessidades de negócios e carga dos dados dentro do Data Warehouse;

    É o processo mais crítico e demorado na construção de um DW. 80% do tempo de desenvolvimento de um DW consiste no processo de ETL.

    Alternativa: A


ID
2439610
Banca
FEPESE
Órgão
JUCESC
Ano
2017
Provas
Disciplina
Banco de Dados
Assuntos

ETL é o método mais comum para transferir dados de uma fonte de dados OLTP para um data warehouse. Contudo, pode-se também empregar o processo de extração, carga e transformação no formato ELT. Para tanto, faz-se necessário o uso de:

Alternativas
Comentários
  • Staging tables:

    Cria um ambiente intermediário de armazenamento e processamento dos dados oriundos de aplicações OLTP e outras fontes padrão ETL.

    Representa um armazenamento intermediário dos dados, facilitando a integração dos dados do ambiente operativo da sua atualização no DW.

    Pode servir de base par a análises do ambiente operativo, pois sua granulidade é normalmente compatível com sistemas desse ambiente

    É investigada para verificar a determinação de onde ocorreram erros

    Limpa dados sujos que entram no processo de extração

     

     

    Fonte: Tecnologia e Projeto de Data Warehouse - Machado

     

  • ETL x ELT

    Ambos são métodos de transferência de dados, de diversas fontes, para uma data warehouse, para posterior visualização e entrega de informações. Contudo, há diferenças significativas no que diz respeito a performance, desempenho e economia.
    O método ETL é o mais comum, a sigla vem do inglês “Extract, Transform, and Load”. Trata-se do processo de extrair dados de diferentes fontes, transformá-los no formato desejado e entregando estes dados no banco de dados target. O método ELT (Extract Load and Transform) é semelhante, porém, há uma inversão na ordem dos processos.

     

    No método ETL, o dado é extraído de diferentes fontes, processado separadamente e descarregado em uma data warehouse.

    Ver imagem na fonte.

     

    Já no método ELT, os dados são extraídos e carregados diretamente em um único repositório, onde a transformação do formato original do dado para o formato target.

    Ver imagem na fonte.

     

    Fonte: http://www.targettrust.com.br/blog/mercado-de-ti/oracle-odi-processos-e-lt-e-seus-beneficios/

     

    Gabarito: a)


ID
2525149
Banca
FCC
Órgão
DPE-RS
Ano
2017
Provas
Disciplina
Banco de Dados
Assuntos

O processo de ETL é composto por algumas fases, identificadas como entregar, limpar, extrair e preparar. A ordem correta para a execução dessas fases é

Alternativas
Comentários
  • O gabarito é a letra E.

     

    ETL é o processo de extração, transformação e carga dos dados. A limpeza e preparação estão contidas dentro da etapa de transformação. 

     

  • E = Extract

    T = Transform

    L = Load

    Letra E = a única que inicia com a Extração.


ID
2608051
Banca
CESPE / CEBRASPE
Órgão
CGM de João Pessoa - PB
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Com relação à modelagem dimensional e à otimização de bases de dados para business intelligence, julgue o item subsequente. 


Uma ferramenta de ETL deve ser capaz de extrair dados de fontes heterogêneas, copiá-los para uma área de transição, onde possam ser convertidos conforme o padrão estabelecido, e, ainda, realizar limpeza e correção nesses dados, de acordo com regras preestabelecidas.

Alternativas
Comentários
  • ETL -  (Extract - Transform - Load)

    Possui conexões com fontes de dados que podem ser heterogêneas e geograficamente dispersas; processos de extração que irão, através da conexão, copiar dados destas fontes; um processo de arquivamento que conservará dados em disco temporariamente para a etapa seguinte e, finalmente, os procedimentos de transformação e o arquivamento que carrega os dados na sua fonte definitiva.

     

    Significa
        ➨   Extrair
        ➨   Limpar
        ➨   Preparar
        ➨  Entregar

     

    Método mais comum para transferir dados de uma fonte de dados OLTP para um data warehouse.

     

    Tarefas
       ➨   Filtragem
       ➨   Integração
       ➨   Conversão
       ➨   Condensação

     

     

    A derivação dos dados de entrada podem ser originários de diversas fontes como por exemplo OLTP .

     

     

     

    Certo

     

    Introdução à Ciencia de Dados: mineração de dados e big data - Amaral, Fernando

  • Gab: CERTO

     

    O processo de ETL se resume basicamente em 5 passos: 1. Identificação da origem dos dados a serem coletados, sendo que as fontes podem estar espalhadas em diversos sistemas transacionais e banco de dados da organização; 2. Realizar a limpeza dos dados para possibilitar posterior transformação, e nesta etapa ocorre os ajustes nos dados, com o intuito de corrigir imperfeições com o objetivo de oferecer um melhor resultado para o usuário final; 3. A terceira etapa é de transformação dos dados e tem por objetivo fazer a padronização dos dados em um único formato; 4. A fase seguinte é de carga dos dados para o Data Warehouse; 5. Por fim, existe a etapa de atualização dos dados no DW (refresh), realizada a partir das alterações sofridas pelos dados nos sistemas operacionais da organização.

  • ETL -> extração

    -> Transformação

    -> Carga

  • Dados heterogêneos são aqueles dados de tipos diferentes, em contraste com os dados homogêneos, que são aqueles dados de tipos iguais. Uma Ferramenta ETL realmente é capaz de extrair dados de fontes heterogêneas (ou homogêneas), copiá-los para uma área de transição (conhecida como Stage Area), onde possam ser convertidos (ou transformados) conforme o padrão estabelecido e, ainda, realizar limpeza e correção nos dados, de acordo com regras preestabelecidas.

    Gabarito: Correto

    Fonte: estratégia

  • Certo

    O sistema Extract-Transform-Load (ETL) é a base para construção de um data warehouse. Quando projetado adequadamente um sistema ETL extrai dados dos sistemas de origem, reforça a qualidade dos dados e padrões de consistência, ajusta dados para que dados advindos de fontes distintas possam ser usados juntos e finalmente entrega dados em um formato pronto para apresentação.

     

    A principal função da integração de dados ou ETL é obter dados de onde eles residem atualmente, alterando-os para que sejam compatíveis com o formato desejado e colocando-os no sistema de destino. Essas três etapas são chamadas de extrair, transformar e carregar (ETL). Toda a integração de dados, independentemente de ser executada em lote (batch) ou em tempo real, de forma síncrona ou assíncrona, física ou virtualmente, gira em torno dessas ações básicas.

     

    O ETL é responsável pela extração, transformação e carga dos dados das bases operacionais para a base de dados analítico.

     

    O processo de ETL é composto por algumas fases, extrair, limpar, preparar e entregar.

     

    No processo de ETL mostrado na figura, I e II correspondem, respectivamente, a: Staging Area e Data Warehouse.

     

  • CERTO

    ETL, do inglês Extract Transform Load (Extrair Transformar Carregar), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim o carregamento dos dados geralmente para um Data Mart e/ou Data Warehouse, porém nada impede que também seja para enviar os dados para um determinado sistema da organização.

  • gab.: CERTO.

    Um DW coleta dados de diversas fontes (internas e externas), esses dados podem ser estruturados ou não. Após a coleta esses dados passam por uma área de preparo (Staging Area) e acontece o ETL (extract (extrair) transform(transformar) load (carregar).

    FONTE: Prof.Hachid

  • Gabarito: certo

    Questão linda!!

    FONTES DE DADOS HETEROGÊNEAS ( entrada para um EDW) ---> PROCESSO DE ETL ( primeiro seleciona e depois extrai as informações necessárias colocando na Stage Area - localização temporária - depois são transformados para chegarem até o seu destino final e por fim são carregados) ----> METADADOS E REPLICAÇÃO ---> DATA MARTS ( middlewares: intermediações entre o DM e outras aplicações). 

    Complementando:

    Enterprise Data Warehouse (EDW): contém todas as informações de negócio de uma organização de forma acessível para toda empresa.

    Operational Data Store (ODS): repositório intermediário de dados utilizado para relatórios operacionais e como uma fonte de dados para o Enterprise Data Warehouse (EDW).

     (CESPE / CEBRASPE - 2013 )Em ETL, frequentemente, é necessário limpar, ajustar e consolidar os dados antes de realizar sua carga. Nesse estágio de transformação, aplicam-se regras ou funções aos dados extraídos para ajustar os dados a serem carregados. A limpeza trata de vários tipos de erros, como, por exemplo, valores ilegais, ou que não obedeçam às regras de integridade da base, e erros de ortografia. CERTO

    (FCC/2018/PREFEITURA)Para extrair dados de fontes de dados heterogêneas que irão alimentar um Data Warehouse de forma homogênea e concisa, servindo de base para gerar relatórios e gráficos para apoiar as decisões da gerência da organização, deve-se utilizar um processo conhecido como = ETL ( CERTO)

    (CESPE/ME/2020)O objetivo das técnicas de pré-processamento de dados é preparar os dados brutos para serem analisados sem erros de incompletudes, inconsistências e ruídos.(CERTO)

  • ETL - EXTRACT, TRANSFORM AND LOAD

    Técnica de extração de diversas fontes - homogêneos e/ou heterogêneos. Realiza o pré-processamento dos dados, os limpa e padroniza (fase da transformação) e manda (fase do carregamento) para DW.

    No DW, os dados, por meio de alguns processos (OLAP e Data Minning, por exemplo), poderão ser usados para tomadas de decisões.


ID
2609176
Banca
FCC
Órgão
DPE-AM
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Sobre o processo de ETL, aplicado a data warehouse, é correto afirmar que

Alternativas
Comentários
  • Não deveria ser "a fase de transformação consiste em realizar modificações nos dados extraídos"?

  • Concordo, pois a carga dos dados é realizada depois da transformação

  • Alternativa correta: B. 

     

    Sim, o certo seria "dados extraídos". Mas aqui o examinador estava com a cabeça em outro lugar e quis dizer "dados extraídos da fonte de dados", o que tornaria a questão b) correta. 

  • ETL

    1. Extrair (E-Extract)

    2. Modificar (T-Transform)

    3. Carregar (L-Load)

     

    A alternativa dada como correta afirma que os dados são carregados e depois modificados. Absurdo!! Deveria ser anulada.

  • Qual erro da E?

  • Acredito que o erro da "E" seria que a carga de dados é feito no DW, e não dos bancos transacionais como dito na questão. A extração é feita dos bancos de dados trasacionais, transformados e carregados no DW.


    Quanto a letra "B", acho que o examinador viajou tambem.

  • Marquei E, mas imaginava que a letra b estaria errada. rsrs

  • A a fase de extração de dados consiste em obter os dados do servidor do data warehouse.

    --> no ETL nos vamos fazer o tratamento de dados. Se o Data Warehouse já tem dados é porquÊ eles já foram tratados e corrigidos de acordo com uma padronização do DW, então não faz sentindo extrair dados que ja foram limpos de um DW. Teria um retrabalho, gasto com recursos e tempo perdido.

    B a fase de transformação consiste em realizar modificações nos dados carregados, adequando seus valores ao modelo definido para o data warehouse.

    --> uma das características de um Data Warehouse é integração aonde serão definidos uma padronização na limpeza e transformação dos dados para manter a consistência. Não há erro aqui, pois a transformção visa justamente satisfazer uma das características de um data warhouse que é a integração.

    C as fases de extração e carga de dados são realizadas de forma simultânea.

    --> primeiro a extração e depois vem a carga, caso contrário o DW iria conter dados sujos.

    D a fase de carga de dados visa eliminar valores nulos contidos nos bancos de dados transacionais da empresa.

    --> transformação

    E a fase de carga de dados consiste em inserir os dados transformados nos bancos de dados transacionais da empresa.

    --> banco de dados transacionais não armazenam dados históricos e aceitam atualizações no mesmo e isso violaria as características de "variantes no tempo" e "não-volateis" do Data Warehouse, não esqueça o enunciado da questão

    "Sobre o processo de ETL, aplicado a data warehouse, é correto afirmar que"

  • Fiscal 2019, já entramos em 2020.

    Sobre o erro da letra E, na verdade, nessa fase de carga, os dados são extraídos de bancos de dados transacionais e inseridos no Data Warehouse.

  • Segue a ordem: extração, transformação e carga.

    a) Extrai de várias fontes para inserir no Data Warehouse.

    c) Primeiro extrai, depois transforma e finalmente realiza a carga.

    d) Se refere a fase de transformação e não a de carga.

    e) O processo ETL se refere ao Data Warehouse. Os dados transacionais podem ser processados para alimentar o DW. (Dados transacionais/Outras fontes ----> ETL ----> DW)

    b) gabarito

  • Erro da Letra E:

    a fase de carga de dados consiste em inserir os dados transformados nos bancos de dados transacionais da empresa.

    Se extraí do banco de dados transacional.

    E insere no Warehouse.

    O examinador misturou os dois conceitos.

  • Com relação a letra E) é importante ter cuidado nos comentários da galera.

    Quando ocorre a transição/migração de sistemas ERPs, onde muda a formatação/padronização dos dados, ocorre o processo de ETL para retirar os dados do banco de dados legado para o novo bd, aí sim ocorre o processo de Extração dos dados do BD legado, Transformação e Carga no novo BD relacional.


ID
2618935
Banca
CESPE / CEBRASPE
Órgão
STM
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

A respeito de ETL, julgue o item a seguir.


Em processos ligados a ETL, os dados são identificados e extraídos de diferentes fontes, incluindo sistemas de banco de dados e aplicações.

Alternativas
Comentários
  • CORRETO

    ETL é o processo de EXTRAÇÃO, Transformação e Carga.
    Não há restrições quanto a fontes de extração de Dados, desde que tenham pertinencia com os objetivos do negócio.

  • Gab: CERTO

     

    Exato. Um dos processos do ETL é a identificação da origem dos dados a serem coletados, sendo que as fontes podem estar espalhadas em diversos sistemas transacionais e banco de dados da organização;

  • ETL significa Extração, Transformação e Carga (em inglês Extract, Transform and Load) e trata da sistematização do tratamento e limpeza dos dados oriundos dos diversos sistemas organizacionais (OLTP) para a inserção, geralmente, em um DW ou Data Mart.

    Como podemos perceber, esse processo possui três etapas. A primeira é a extração (extract), a segunda a transformação (transform) e por fim, a carga (load). Cada uma delas possui grande importância para o sucesso da transição dos dados dos sistemas de origem para o DW.

  • Os processos ETL extraem dados de diversas fontes de dados, que podem ser arquivos de texto, documentos XML, JSON, banco de dados ou aplicação. Certo

  • ETL - EXTRACT, TRANSFORM AND LOAD

    Técnica de extração de diversas fontes - homogêneos e/ou heterogêneos. Realiza o pré-processamento dos dados, os limpa e padroniza (fase da transformação) e manda (fase do carregamento) para DW.

    No DW, os dados, por meio de alguns processos (OLAP e Data Minning, por exemplo), poderão ser usados para tomadas de decisões.


ID
2618938
Banca
CESPE / CEBRASPE
Órgão
STM
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

A respeito de ETL, julgue o item a seguir.


O ambiente ETL permite a visualização dos dados para análise de maneira multidimensional.

Alternativas
Comentários
  • Ambiente OLAP.

  • ERRADO

    ETL é o processo de Extração, Transformação e Carga.
    Ambiente para visualização Muldimensional é OLAP.

  • Gab: ERRADO

     

    Um dos métodos de armazenamento do OLAP -> MOLAP (OLAP Multidimensional): Os dados são armazenados de forma multidimensional.

     

    O ETC é uma ferramenta responsável pela preparação dos dados a serem armazenados em um Data Warehouse.

  • Se 50% erraram...( inclusice eu...rssr)  e acredito que o restante 50% que acertaram... a maioria chutou! entao ninguém ou quase ninguem sabia a resposta!

    Ufa! Já estou melhor comigo mesmo!..kkkk

     

    So para descontrair mesmo!

    Força, Foco e muita fé que tudo dara certo no final!

     

  • ETL significa Extração, Transformação e Carga (em inglês Extract, Transform and Load) e trata da sistematização do tratamento e limpeza dos dados oriundos dos diversos sistemas organizacionais (OLTP) para a inserção, geralmente, em um DW ou Data Mart.

    Como podemos perceber, esse processo possui três etapas. A primeira é a extração (extract), a segunda a transformação (transform) e por fim, a carga (load). Cada uma delas possui grande importância para o sucesso da transição dos dados dos sistemas de origem para o DW.

  • A ferramenta ETL carregas os dados em um Data Warehouse que, por sua vez, fornece dados para analises multidimensionais. Estes podem ser exibidos em relatórios ou dashboards

    Errada

  • Acredito que a grande maioria sabia que ETL é um processo de extração. O pega da questão é falar que ele pode fazer uma análise multidimensional. E ai, pode ou não pode ? Falar que uma coisa não pode na informática é fogo kkkkkk Quase tudo pode.

  • Vou tomar café. Chega

  • Gabarito: errado

    Outra questão de 2021 , também errada que pode ajudar:

    ETL (extract transform load) é uma ferramenta utilizada para extrair informações e realizar análise multidimensional no data warehouse. ( ERRADO)

    • Apesar da primeira parte estar correta, a segunda não está, visto que a análise multidimensional refere-se ao OLAP, não ao processo de ETL.
  • QUESTÕES DO CESPE SOBRE O ASSUNTO:

    (CESPE - Q872977) O ambiente ETL permite a visualização dos dados para análise de maneira multidimensional. ERRADO

    Um dos métodos de armazenamento do OLAP -> MOLAP (OLAP Multidimensional): Os dados são armazenados de forma multidimensional.

    (CESPE - Q462158) Ferramentas ETL são utilizadas na extração, transformação e remoção de dados. ERRADO

    (CESPE - Q107033) As ferramentas de software ETL (extract transform load) têm como função a extração de dados de diversos sistemas, a transformação desses dados de acordo com as regras de negócio e a carga dos dados em um data mart ou um DW. CERTO

    (CESPE - Q52345) A característica principal dos sistemas OLAP é permitir uma visão conceitual multidimensional dos dados de uma empresa. A visão multidimensional é muito mais útil para os analistas que a tradicional visão tabular utilizada nos sistemas de processamento de transação. CERTO

    (CESPE - Q268252) A funcionalidade de uma ferramenta OLAP é caracterizada pela análise multidimensional dinâmica dos dados, apoiando o usuário final nas suas atividades e permitindo consultas ad hoc. CERTO

    gab.: ERRADO

    Bons estudos!!!

  • ETL:

    Extrair, transformar e carregar.

    Carregar onde? No DW.

    Não tem nada a ver com análise multidimensional.

    Quem permite análise?

    OLAP

    Análise de processos em tempo real (tradução livre kkkk)


ID
2786695
Banca
FGV
Órgão
AL-RO
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Os processos de ETL são muito comuns para coletar e organizar dados de várias fontes.


Um importante componente desses processos, denominado control flow, permite que

Alternativas
Comentários
  • control flow e data flow são termos usados pelo SSIS da Microsoft(software de ETL).

     

    Enquanto data flow são dados movidos de uma fonte para outra, e control flow define uma lógica para o data flow como restrinções e condições.

     

    fonte:  https://stackoverflow.com/questions/4452770/ssis-control-flow-vs-data-flow

  • tenso ein, em vez de cobrar o padrão, a teoria de ETL, cobra um negócio aleatório de um software aleatório de ETL... não vi o edital então vou supor que esse software estava nele, porque senão..

  • Nem acredito que acertei. Deus é bom o tempo todo


ID
2788897
Banca
CCV-UFC
Órgão
UFC
Ano
2013
Provas
Disciplina
Banco de Dados
Assuntos

Esquema estrela, ETL e drill down podem, respectivamente, ser definidos como:

Alternativas
Comentários
  • Star schema ou esquema em estrela é uma metodologia de modelagem de dados utilizada do desenho de um Data warehouse.

    Os dados são modelados em tabelas dimensionais ligadas a uma tabela de fatos. As tabelas dimensionais contêm as características de um evento. A tabela de fatos armazena os fatos ocorridos e as chave para as características correspondentes, nas tabelas dimensionais.

    O nome foi adotado devido a semelhança do modelo como uma estrela. No "centro" da estrela, existe a o que chamou tabela de fatos, rodeada por tabelas auxiliares, chamadas de dimensões. A tabela de fato conecta-se as demais dimensões por múltiplas junções e as tabelas de dimensões conectam-se com apenas uma junção a tabela de fatos.

    Desta forma a consulta ocorre inicialmente nas tabelas de dimensão e depois nas tabelas de fatos, assegurando a precisão dos dados por meio de uma estrutura de chaves onde não é preciso percorrer todas as tabelas, garantindo um acesso mais eficiente de com melhor desempenho.

     

     

    ETL

    E - Extract

    T - Transform

    L-Load

     

     

    Drill down - termo utilizado para detalhar uma informação dentro de análises OLAP

    Drill up - é o inverso, ou seja, partindo de uma informação detalhada a mesma é sumarizada em uma informação mais macro.

     

    GABARITO ITEM E

     

    https://pt.wikipedia.org/wiki/Esquema_estrela

    http://intelectivo.com.br/conteudo/10-termos-imprescindiveis-sobre-business-intelligence/

     

  • Eu não concordo com a descrição, para o Esquema Estrela, indicado na alternativa E. O Esquema Estrela é empregado como técnica de modelagem multidimensional, e não, propriamente, como um método de otimização.

  • GABARITO ''E''

    O processo ETL consiste na extração (leitura de dados de uma ou mais

    bases de dados), transformação (conversão dos dados extraídos de sua forma

    anterior para a forma em que precisa estar para que possa ser colocado em um

    data warehouse ou simplesmente outro banco de dados), e carga (colocar os

    dados no data warehouse)

    Drill Down / Up: navegação entre os níveis de dados que vão desde o

    mais resumido até o mais detalhado (baixo).

    ▪ Aqui cabe um parêntese para falar de nível de granularidade.

    Nível de granularidade diz respeito ao nível de detalhamento

    da informação. Quanto maior o nível de detalhes, menor o nível

    de granularidade, pois as informações estão dispostas em

    “grãos” menores. Já para menor nível de detalhes, maior a

    granularidade, pois os grãos de informações são maiores,

    agregando mais os dados.

    - o Drill up (Roll up): sobe na hierarquia, agrupando unidades

    maiores ao longo de uma dimensão. Aumenta a granularidade.

    - o Drill down: fornece uma visão mais detalhada, desagregando

    unidades menores ao longo da dimensão. Diminui a granularidade.


ID
3136129
Banca
Exército
Órgão
EsFCEx
Ano
2019
Provas
Disciplina
Banco de Dados
Assuntos

Nas palavras de LAUDON e LAUDON, em sistemas de informação, existem quatro tipos de sistemas que apoiam os diferentes níveis e tipos de decisão. Os Sistemas de Informações Gerenciais (SIG) fornecem resumos e relatórios de rotina com dados no nível de transação para a gerência de nível operacional e médio. Sistemas de Apoio à Decisão (SAD) fornecem ferramentas ou modelos analíticos para analisar grandes quantidades de dados, além de consultas interativas de apoio para gerentes de nível médio que enfrentam situações de decisões semiestruturadas. Sistemas de Apoio ao Executivo (SAE) são sistemas que fornecem à gerência sênior, envolvida em decisões não estruturadas, informações externas e resumos de alto nível. Sistemas de Apoio à Decisão em Grupo (SADG) são sistemas especializados que oferecem um ambiente eletrônico no qual gerentes e equipes podem coletivamente tomar decisões e formular soluções.


Considerando os conceitos do universo dos Sistemas de Apoio à Decisão (SAD), avalie as seguintes asserções e a relação proposta entre elas.

I. DATA WAREHOUSE é uma coleção de dados orientados por assuntos, integrados, variáveis com o tempo, voláteis, para dar suporte ao processo de tomada de decisão. É um repositório de grande volume de dados tratados, objetivando levar informação a partir dos dados.


OBTIDOS POR MEIO DE


II. Ambientes heterogêneos, geralmente de bancos transacionais, utilizando técnica de ETL para extrair, transformar e carregar, com objetivo de processamento analítico, de modo a permitir a criatividade das pessoas envolvidas, também denominado de OLAP.


A respeito dessas asserções, assinale a alternativa correta.

Alternativas
Comentários
  • I.Incorreta, DATA WAREHOUSE é uma coleção de dados orientados por assuntos, integrados, variáveis com o tempo, voláteis...

    ( São características de um DW: orientação por Assunto, integrados, variante no tempo e NÃO VOLATILIDADE)

    OBTIDOS POR MEIO DE

    II. Correta, através da ETL é possível a extração de dados de base heterogêneas, pois após esta operação ( ETL) os dados estarão homogêneos e consistentes.

    GABARITO ALTERNATIVA D

  • O erro da primeira é informar q os DW são voláteis, lá no livro SI gerenciais na pág 331, Laudon afirma que o banco de dado que apois os SADs pode ser um DW atualizado de forma contínua pelos principais sistemas organizacionais de processamento de transações. Os dados dos bancos de dados SAD geralmente são extratos ou cópias de bancos de dados de produção, de modo que utilizar o SAD não interfere nos sistemas operacionais críticos. Os dados em um DW estão disponíveis somente para leitura e não podem ser alterados, tornando os dados não-voláteis.

  • DW -

    Não volátil (carga | consulta)

    ● Integrado ( dados uniforme)

    ● Orientado Por assunto

    ● Varia no tempo ( Metadados)

    ● Dados históricos

    ● Granularidade ( sumarizados)

    ● Flexível a mudança

    incorreta voláteis

    ETL Responsável pela extração dos dados de múltiplos sistemas operativos e fontes externas, assim como pela limpeza, transformação e integração dos dados

    correta

    gabarito d


ID
3271348
Banca
CESGRANRIO
Órgão
Transpetro
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

No processo de extração, transformação e carga (ETL), uma característica da data staging área é a de

Alternativas
Comentários
  • Staging Area: a Staging Area é uma área de armazenamento intermediário situada dentro do processo de ETL. Auxilia a transição dos dados das origens para o destino final no DW.

    Fonte:https://canaltech.com.br/business-intelligence/conhecendo-a-arquitetura-de-data-warehouse-19266/

  • A staging area é um banco de dados intermediário, ele não serve como base de consulta nem para apresentação de dados e muito menos para a realização de operações OLAP. Esse banco de dados serve para armazenar os dados que vêm das diferentes fontes, para que as atividades de transformação possam ser realizadas sem que isso represente um impacto de processamento nos sistemas de origem nem no DW. Letra C!


ID
3305347
Banca
AOCP
Órgão
SUSIPE-PA
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Sobre o processo de ETL (Extract, Transform, Load), assinale a alternativa INCORRETA.

Alternativas
Comentários
  • Após a etapa de extração, os dados são colocados em seu local definitivo no Data Warehous? Está correto isso ?

    Após a extração, os dados não são tratados ?

  • Gabarito A.

    Em relação a sua pergunta The student, após a extração dos dados, eles são colocados na "Data Staging Área", uma área temporária para armazenamento dos dados.

    Desta forma, ao invés de acessar os dados diretamente da fonte, o processo de “transformação” do ETL pega os dados da Staging Area para tratar e entregar os dados.

  • Luciano Silva mas como você mesmo disse a Data Staging Área é um local temporário e a letra E fala em seu local definitivo, acho que seria passiva de anulação.

  • A alternativa C também não estaria errada?

    No livro Data WareHouse Toolkit de Kimball diz: "Once the data is extracted to the staging area, there are numerous potential transformations, such as cleansing the data (correcting misspellings, resolving domain conflicts, dealing with missing elements, or parsing into standard formats), combining data from multiple sources, deduplicating data, and assigning warehouse keys. These transformations are all precursors to loading the data into the data warehouse presentation area." (Cap. 1, pag. 8)

    Ou seja, o tratamento de inconsistência não é feita na Extração mas na Transformação. Correto?

  • Sem condição. Letra A é a única correta.

    .

    A) Correto, a extração faz a conversão para um determinado formato [1]

    B) Errado, a conversão é feita já na extração [1]. A transformação realiza operações como seleção de colunas, junção de dados, cálculos, renomeações, limpeza, etc.

    C) Errado, tratamento de inconsistência é na Transformação [2]

    D) Errado, os dados transformados ficam no Staging Area [3]

    E) Errado, após extração, fica no Staging Area [3]

    .

    [1] "In general, the extraction phase aims to convert the data into a single format appropriate for transformation processing" <https://en.wikipedia.org/wiki/Extract,_transform,_load>

    [2] "O processo de transformação dos dados deve atender a alguns critérios como limpeza, padronização e qualidade. Aqui é hora de corrigir inconsistências e imprecisões com o objetivo de consolidar a informação obtida." <https://www.mjvinnovation.com/pt-br/blog/o-que-e-etl-como-funciona/>

    [3] <https://cdn.holistics.io/guidebook/analytics-setup/etl-process.png>


ID
3361978
Banca
CESPE / CEBRASPE
Órgão
TJ-PA
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Assinale a opção que indica um processo de extração e transformação de dados em um data warehouse.

Alternativas
Comentários
  • Resposta letra D.

    ETL ( Extract transform load)

    O ETL é uma ferramenta que trabalha basicamente em 5 etapas:

    1- Indentificação dos dados

    2- Limpeza

    3- Transformação (colocar os dados "falando a mesma lingua". As vezes um fala 6 e o outro meia dúzia)

    4- Carregamento (Geralmente em um Data Warehouse)

    5- Atualização dos dados

  • Big Data é o termo em Tecnologia da Informação (TI) que trata sobre grandes conjuntos de dados que precisam ser processados e armazenados.

    OLTP, do inglês "On-line Transaction Processing", é o termo usado para se referir aos sistemas transacionais, ou seja, os sistemas operacionais das organizações. São utilizados no processamento dos dados de rotina que são gerados diariamente através dos sistemas informacionais da empresa e dão suporte às funções de execução do negócio organizacional.

    OLAP, do inglês "On-line Analytical Processing", trata da capacidade de analisar grandes volumes de informações nas mais diversas perspectivas dentro de um Data Warehouse (DW). O OLAP também faz referência às ferramentas analíticas utilizadas no BI para a visualização das informações gerenciais e dá suporte para as funções de análises do negócio organizacional.

    ETL, Essa sigla significa Extração, Transformação e Carga (em inglês Extract, Transform and Load) e trata da sistematização do tratamento e limpeza dos dados oriundos dos diversos sistemas organizacionais 

    fonte:canaltech

  • ETL - é a sigla para extraction , transform and load _ extração , transformação e carga . Esses são processos que se precisa aplicar aos dados ao sistemas da empresa para se criar um data mart ou data warehouse .

    A extração corresponde a coleta dos dados nos sistemas de origens , geralmente , operacionais .

    A transformação é o processo de adequar esses dados dos formatos mas adequados ao DW , respeitando - se as regras de negócio .

    E a carga é o processo final , de incluir os dados no DW.

  • ETL é a sigla para “Extraction, Transform and Load” - Extração, Transformação e Carga. 

    Esses são os processos que se precisa aplicar aos dados dos sistemas da empresa para se criar um Data Mart ou um Data Warehouse. 

    A extração corresponde à coleta dos dados nos sistemas de origem, geralmente operacionais. 

    A transformação é o processo de adequar esses dados aos formatos mais adequados ao DW, respeitando-se as regras de negócio. 

    E a carga é o processo final, de incluir os dados no DW.

    EXPONENCIAL CONCURSOS

  • A questão exige do candidato conhecimentos acerca da construção de um Data Warehouse (DW):

    "Um data warehouse é um repositório central de informações que podem ser analisadas para tomar decisões mais fundamentadas. Os dados fluem de sistemas transacionais, bancos de dados relacionais e de outras fontes para o data warehouse, normalmente com uma cadência regular. Analistas de negócios, cientistas de dados e tomadores de decisões acessam os dados por meio de ferramentas de inteligência de negócios (BI), clientes SQL e outros aplicativos de análise" (grifou-se) (Amazon, 2020) [1].

    Vamos então para análise das alternativas:

    A) INCORRETA.  De acordo com a definição do Gartner, Big data são dados com maior variedade que chegam em volumes crescentes e com velocidade cada vez maior. Isso é conhecido como os três Vs (Oracle, 2020) [2]. Ou seja, como o próprio nome sugere, Big data está associado a uma enorme coleção de dados.

    É preciso destacar que o Big data se refere tanto a dados estruturados, ou seja, aqueles que podem ser armazenados de maneira estruturada, que contém uma certa organização, geralmente são encontrados em banco de dados relacionais, quanto a dados não estruturados, que não possuem uma formatação específica e ainda a dados semiestruturados que podem possuir certo grau de estrutura.

    Contudo, Big Data é comumente associado a dados não estruturados e semiestruturados.

    B) INCORRETA.  Podemos definir assim OLAP:

    "OLAP pode ser entendido como uma tecnologia para manipular e analisar um grande volume de dados sob múltiplas perspectivas. Dentro do contexto de Business Inteligente, ferramentas OLAP são utilizadas para apoiar as empresas na análise de suas informações, visando obter novos conhecimentos que são empregados na tomada de decisão" (grifou-se) (WIKIPEDIA, 2020) [3]; (DEVMEDIA, 2007) [4].
    Ademais, de acordo com Microsoft (2018) [5], OLAP  "é uma tecnologia que organiza bancos de dados comerciais grandes e dá suporte à análise complexa. Ele pode ser usado para executar consultas analíticas complexas sem prejudicar sistemas transacionais" (grifou-se)

    Ou seja, o OLAP está associado à fase de ANÁLISE DE DADOS e não à extração de dados para popular um DW.

    C) INCORRETA.  OLTP (Online Transaction Processing ou Processamento de Transações em Tempo Real) são sistemas encarregados de registrar todas as transações contidas em uma determinada operação organizacional, como, por exemplo, " um sistema de transações bancárias que registra todas as operações efetuadas em um banco, caixas de multibanco, reservas de viagens ou hotel on-line, Cartões de Crédito" (WIKIPEDIA, 2020) [6]

    Conforme, Microsoft (2019) [7], "os sistemas OLTP registram as interações de negócios conforme elas ocorrem na operação diária da organização e dão suporte à consulta desses dados para criar inferência" (grifou-se)

    Ou seja, o OLTP tem um foco maior no ambiente operacional da organização, já OLAP é voltada a um nível gerencial. Além disso, ao contrário do OLAP, em um sistema OLTP os dados apresentam grande volatilidade.

    D) CORRETA.  ETL, sigla para Extract Transform Load, como o nome já indica, são ferramentas responsáveis por: extração de dados de diversos sistemas; transformação desses dados, de acordo com as regras de negócio e; carregamento dos dados geralmente para um Data Mart e/ou Data Warehouse (WIKIPEDIA, 2020) [8]

    E) INCORRETA.
    Machine Learning (ML), ou no português Aprendizado de Máquina, pode ser entendido como um método de análise dados que automatiza a criação de modelos analíticos. ML é um ramo da inteligência artificial, baseado na ideia de que os sistemas PODEM APRENDER COM OS DADOS, IDENTIFICAR PADRÕES e TOMAR DECISÕES com o mínimo de intervenção humana (grifou-se) (SAS, 2020) [9]

    Por exemplo, uma empresa com um Data Warehouse que armazene dados de sua operação, pode usar técnicas de ML na análise dos seus dados, com objetivo de auxiliá-la no processo de tomada de decisões.

    GABARITO DO PROFESSOR: LETRA D.


    REFERÊNCIAS: [1] Amazon. Data Warehouse, 2020. Disponível em: site oficial do Amazon Web Service. Acesso em: 17/7/2020; [2] Oracle. O Que é Big Data? Disponível em: site oficial da Oracle. Acesso em 17/7/2020. [3] WIKIPEDIA. OLAP. Disponível em: página da Wikipedia na língua portuguesa. Acesso em 17/7/2020; [4] DEVMEDIA, 2007. Um estudo sobre as ferramentas OLAP. Disponível em: site do Devmedia. Acesso em: 17/7/2020; [5] Microsoft. OLAP (processamento analítico online), 2018. Disponível em: site da Azure Microsoft. Acesso em: 17/7/2020; [6] WIKIPEDIA. OLTP. Disponível em: página da Wikipedia na língua portuguesa. Acesso em 17/7/2020;  [7] Microsoft.  OLTP (processamento de transações online), 2019. Disponível em: site da Azure Microsoft. Acesso em: 17/7/2020; [8] WIKIPEDIA. Extract, transform, load. Disponível em: página da Wikipedia na língua portuguesa. Acesso em 17/7/2020; [9] SAS. Machine Learning.  Disponível em: página da empresa SAS. Acesso em 17/7/2020
  • Gabarito: Alternativa D

    ETL (Extract, Transform and Load) são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim o carregamento dos dados geralmente para um Data Mart e/ou Data Warehouse, porém nada impede que também seja para enviar os dados para um determinado sistema da organização.

    As etapas de Extração e Carregamento são obrigatórias, já a de transformação/limpeza é opcional (mas é uma boa prática). 

    Um sistema ETL tem que ser capaz de se comunicar com as bases de dados e ler diversos formatos de arquivos utilizados por toda a organização. Não é uma tarefa trivial.

  • Letra (d)

    ETL (do inglês Extraction, Transform and Load) é um procedimento realizado em dados provenientes de diferentes fontes (bancos transacionais, usualmente) antes de serem carregados nos Data Warehouses e Data Marts

    Como o próprio nome indica, é dividido em três fases:

    -> Extrair: aqui os dados são extraídos das diversas fontes;

    -> Transformar: muitos autores incluem dentro desta etapa o processo de limpeza e preparação. Aqui são tratadas inconsistências e os dados são padronizados;

    -> Carregar: nesta etapa, os dados são carregados nos repositórios dos Data Warehouses e Data Marts.

  • O professor que comentou a questão fez uma verdadeira aula.

  • Gab.: D

    ETL = Extração, Transformação e Carga (em inglês Extract, Transform and Load) 

    O processo de extração, limpeza e carga (load) dos dados é feito na área de transformação (Staging Area).

  • parace que to vendo o cespe dizer que ETL é feito em data mining ou big data

    cuidado para não confundir

  • ETL- Ele é o processo mais crítico e demorado na construção de um Data Warehouse, uma vez que consiste na extração dos dados de fontes homogêneas ou heterogêneas; na transformação e limpeza destes dados; e na carga dos dados no DW. Pessoal, as decisões estratégicas – aquelas mais importantes de uma organização – são tomadas com base nas informações geradas através dos dados armazenados no Data Warehouse.

    pdf estratégia

  • Extraction -> (Staging area) -> Transformation -> Loading. ETL

    Processo demorado, mas de grande valor para a inserção de dados em um DW.


ID
3433555
Banca
VUNESP
Órgão
Prefeitura de Campinas - SP
Ano
2019
Provas
Disciplina
Banco de Dados
Assuntos

No contexto de armazéns de dados (data warehouse), a área intermediária na qual os dados coletados pelo processo de ETL são armazenados antes de serem processados e transportados para o seu destino é chamada de

Alternativas
Comentários
  • Gabarito: C

    A área de armazenamento temporário (staging) do data warehouse é um local temporário onde os dados dos sistemas de origem são copiados.

    Uma área de preparação (staging) é necessária principalmente em uma Arquitetura de Data Warehousing por motivos de tempo. Em resumo, todos os dados necessários devem estar disponíveis antes que os dados possam ser integrados ao Data Warehouse.

    Disponível em: <https://data-warehouses.net/architecture/staging.html>

    Se meu comentário estiver equivocado, por favor me avise por mensagem para que eu o corrija e evite assim prejudicar os demais colegas.

  • Staging Area é uma área de armazenamento intermediário situada dentro do processo de ETL. Auxilia a transição dos dados das origens para o destino final no DW.

  • Data Staging Area = onde é feito a ETL, Aquele que é uma área de armazenamento, onde serviços de filtragem, combinação, padronização e classificação de dados são executados, e tem como principal requisito não ser acessível aos usuários e não fornecer serviços de consulta.

    é um local de armazenamento intermediário, situado dentro do processo de ETL Sua função é auxiliar a transição dos dados das origens seu o destino no Data Warehouse


ID
3496708
Banca
INSTITUTO AOCP
Órgão
PRODEB
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Os dados contidos em um datawarehouse (DW) típico são provenientes de diversas fontes. É necessário que os valores contidos no DW apresentem boa qualidade para que numa futura análise desses valores seja apresentado resultado coerente. Assim, é correto afirmar, sobre ETL, que

Alternativas
Comentários
  • A ETL trata dos processos de extração, transformação (limpeza e conformidade) e carga.

    A questão traz a ideia de que a conformidade é com base nas regras de negócio, mas a conformidade que é tratada na fase de transformação está mais voltada a integração de dados extraídos de diversas fontes para um padrão, gerando consistência, e que posteriormente serão carregados no Date Warehouse.

    Obs: caso você tenha dúvida com a letre E, saiba que geralmente dados não são formalizados e ao que sei, ETL não inclui etapa de aprendizagem.

    GABARITO: B


ID
3590266
Banca
CESPE / CEBRASPE
Órgão
TRE-MS
Ano
2012
Disciplina
Banco de Dados
Assuntos

No que se refere a arquiteturas e aplicações de data warehousing, ETL, Olap e data mining, assinale a opção correta.

Alternativas
Comentários
  • ===Letra A===

    As ferramentas Olap agregam recursos de armazenamento, gerenciamento e pesquisa de dados, os quais são primordialmente voltados para a tomada de decisões e BI (business intelligence). (Certo)

    ===Letra B===

    Um sistema ETL, que faz parte do processo de construção de um data warehouse, por ser voltado para a tomada de decisões, utiliza unicamente a DSL (decision support language), não suportando a SQL (structured query language). (Errado)

     ETL (EXTRACT – TRANSFORM – LOAD)

    -Destina-se à extração, transformação e carga dos dados de uma ou mais bases de dados de origem para uma ou mais bases de dados de destino (data warehouse);

    -A extração e a carga são obrigatórias para o processo, sendo a transformação/limpeza opcional.

    -Um sistema ETL precisa ser capaz de se comunicar com bases de dados e ler diversos formatos de arquivos utilizados por toda a organização.

    -O ETL visa trabalhar com toda a parte de extração de dados de fontes externas, transformação para atender às necessidades de negócios e carga dos dados dentro do Data Warehouse;

    ===Letra C===

    Em uma modelagem multidimensional do tipo snow flake, as métricas ficam inseridas nas dimensões.(Errado)

    ===Letra D===

    Em comparação com o ambiente transacional, o ambiente de data warehouse, devido à carga de dados com o ETL, deve estar mais voltado para inserção e atualização de dados do que para consultas.(Errado)

    O data warehouse tem duas operações: a carga dos dados e o acesso a esses dados em modo somente de leitura (os dados não podem ser alterados).

    ===Letra E===

    Data mining é um conjunto de técnicas e ferramentas que permitem obter valores futuros a partir de dados passados processados estaticamente. Data mining substitui o data warehouse em relação à tomada de decisão, pois ambos possuem os mesmos recursos. (Errado)

    Data mining: É usado para descobrir regras, identificar fatores e tendências-chave, descobrir padrões e relacionamentos ocultos em grandes bancos de dados para auxiliar a tomada de decisões.

  • OLAP é uma ferramenta de Business Inteligence utilizada para apoiar as empresas na análise de suas informações, visando obter novos conhecimentos que são empregados na tomada de decisão. O termo OLAP refere-se a um conjunto de ferramentas voltadas para acesso e análise ad hoc de dados, com o objetivo final de transformar dados em informações capazes de dar suporte as decisões gerenciais de foma amigável e flexível ao usuário e em tempo hábil.

    Fonte: https://www.devmedia.com.br/um-estudo-sobre-as-ferramentas-olap/6691

  • GAB. A

    A) OLAP (Processamento analítico on-line) É um conjunto de princípios vagamente definidos que fornecem uma estrutura dimensional de suporte à tomada de decisões e e BI (business intelligence).

    B) ETL – Extração, Transformação e Carga. No ambiente de data warehouse, os dados são inicialmente extraídos de sistemas operacionais e de fontes externas, posteriormente integrados e transformados (limpos, combinados, validados, agregados e sumarizados), antes de serem carregados no data warehouse (DW)

    Os projetos de data warehouse consolidam dados de diferentes fontes. A maioria dessas fontes tendem a ser bancos de dados relacionais, sendo, o SQL (Structured Query Language) Linguagem padrão para acesso a bancos de dados relacionais.

    C) Snow flake (Floco de neve) Dimensão normalizada em que uma dimensão de tabela simples é decomposta em uma estrutura de árvore com, potencialmente, muitos níveis de alinhamento. O Lugar de métrica é na tabela fato, seja no esquema estrela ou floco de neve.

    D) Os sistemas de DW/BI visam apoiar a tomada de decisão, oferecendo facilidade de consulta e de análise a dados históricos. A inserção e a atualização de dados são características dos sistemas transacionais e não do DW.

    E) Um não substitui o outro, eles se complementam! A mineração de dados, inclusive, pode ser realizada sobre um data warehouse.

    Fonte: Passei direto.com

     

     

  • As siglas OLTP e OLAP são bastante utilizadas no universo do Business Intelligence (BI). ...

    OLAP, trata da capacidade de analisar grandes volumes de informações nas mais diversas perspectivas dentro de um Data Warehouse (DW).

    As informações são primordialmente voltadas para a tomada de decisões e BI (business intelligence).

  • LETRA D

    Data Mining substitui o (Data Warehouse)? Jamais

    Data Mining versus Data Warehouse

    A proposta de um DW é sustentar a tomada de decisão com dados.

    A Data Mining pode ser usada em conjunto com o DW para auxiliar certos tipos de decisão.

    Data Mining pode ser aplicada a bancos de dados operacionais com transações individuais.

    Para fazer a Data Mining mais eficiente, o DW deve ter uma coleção de dados agregados ou sumarizados.

    Data Mining auxilia na obtenção de novos padrões que não poderiam ser encontrados simplesmente pesquisando (querying) ou processando dados ou metadados no DW. O uso de Data Mining é fortemente recomendável desde o início, na fase de projeto do DW.

    Além disso, as ferramentas de Data Mining deveriam ser projetadas para facilitar seu uso em conjunto com o DW. De fato, em bancos de dados muito grandes da ordem de terabites de dados, o sucesso de aplicações de Data Mining dependerá primeiro da construção do DW.

    Ramez Elmasri e Shamkant B. Navathe

  • Acertei a questão. Porém, aprendi que OLAP também pode ser utilizado para navegar/obter informações em bancos de dados analíticos/multidimensionais através de comandos Roll-Up e Drill-down. Confere?


ID
3677209
Banca
IADES
Órgão
EBSERH
Ano
2012
Disciplina
Banco de Dados
Assuntos

Por meio da ferramenta Pentaho Data Integration (PDI), é possível realizar processos de ETL (Extraction, Transformation and Load). A ferramenta gráfica que faz parte do PDI, usada para modelar as transformations e os jobs, é denominada

Alternativas
Comentários
  • Resposta: A

    Spoon é a interface gráfica do PDI que facilita na concepção de rotinas e lógica ETL.


ID
3921088
Banca
COMPERVE
Órgão
TJ-RN
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Ao realizar transformações usando o Pentaho Data Integration (PDI), é possível definir variáveis para serem usadas durante o processo de transformação. Para referenciar uma variável Kettle chamada PASTA_SAIDA, utiliza-se a sintaxe

Alternativas

ID
3921091
Banca
COMPERVE
Órgão
TJ-RN
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

A ferramenta SPOON é empregada para a construção de transformações, lançando mão do Pentaho Data Integration (PDI), porém utilizável apenas para ambiente de desenvolvimento. Para ambientes de produção, o PDI disponibiliza a ferramenta

Alternativas
Comentários
  • Gabarito: B

    A suite Pentaho é formada por um conjunto de softwares voltados para construção de soluções de BI de ponta-a-ponta, que inclui programas para extrair os dados de sistemas de origem em uma empresa, gravá-los em um data warehouse (ou base de dados), limpá-los, prepará-los e entregá-los a outros sistemas de destino ou mesmo a outros componentes da suíte para estudar ou dar acesso aos dados ao usuário final.

    O Pentaho Data Integration é formado por duas categorias de artefatos, Jobs e Transformaç&os, e estes artefatos são construídos por meio de sua interface gráfica, o Spoon. O  é a interface gráfica do Pentaho Data Integration que facilita na concepção de rotinas e lógica ETL.

    O Spoon, porém, é só a interface gráfica para criar os processos de integração de dados. Ele não serve para executá-los em produção, ou seja, no ambiente sem supervisão humana. Para isso usamos outros programas, que operam em linha de comando, sem interface gráfica.

     é o programa que executa transformações. Vale a pena mencionar que tanto jobs quanto transformações podem ser arquivos em um sistema de arquivos, normal, ou em um repositório em banco de dados. O pan pode executar uma transformação a partir de qualquer uma destas origens.

    Fonte:

  • b-

    O Spoon é a interface gráfica para criar os processos de integração de dados. Ele não executa. O Pan é o que executa transformações. O Pan executa uma transformação a partir de um sistema de arquivos

  • Letra B

    O Pentaho Data Integration é formado por duas categorias de artefatos, Jobs e Transformaç&os, e estes artefatos são construídos por meio de sua interface gráfica, o Spoon. O Spoon é a interface gráfica do Pentaho Data Integration que facilita na concepção de rotinas e lógica ETL.

    O Spoon, porém, é só a interface gráfica para criar os processos de integração de dados. Ele não serve para executá-los em produção, ou seja, no ambiente sem supervisão humana. Para isso usamos outros programas, que operam em linha de comando, sem interface gráfica.

    O Pan é o programa que executa transformações. Vale a pena mencionar que tanto jobs quanto transformações podem ser arquivos em um sistema de arquivos, normal, ou em um repositório em banco de dados. O pan pode executar uma transformação a partir de qualquer uma destas origens.

    Em geral, as transformações executadas pelo Pan são agendadas em modo batch, para que possam ser executadas automaticamente em intervalos regulares por alguma ferramenta de gerenciamento de tarefas como o crontab por exemplo.

    Enquanto o Pan executa transformações, o Kitchen executa jobs. Tal qual ocorre com o Pan, o Kitchen pode executar jobs a partir de um sistema de arquivos ou de um repositório em banco de dados.

    Novamente, tal qual o Pan, jobs são executados em modo batch através do agendamento no modo batch para serem executados automaticamente em intervalos regulares por alguma ferramenta de gerenciamento de tarefas como o crontab por exemplo.

    A tríade Spoon, Pan e Kitchen são os responsáveis pela criação e execução de artefatos criados para solucionar um problema de extração, transformação e carga de dados em um projeto de ETL com o Pentaho Data Integration.

    Fonte: https://www.infoq.com/br/articles/pentaho-pdi/


ID
3947626
Banca
FCC
Órgão
AL-AP
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Um conjunto de programas de computador está sendo executado em um conjunto de servidores conectados em rede local, para alimentar um data warehouse a partir dos bancos de dados transacionais de uma empresa, sendo que: um primeiro programa realiza uma cópia de dados transacionais selecionados em estruturas de dados que formam um staging area; um segundo programa faz a leitura dos dados na staging area e alimenta estruturas de bancos de dados em um Operational Data Storage (ODS), que consolida dados operacionais de diversas aplicações e complementa conteúdo. Por fim, outro programa de aplicação faz a leitura do ODS e carrega estruturas de dados em uma estrutura não relacional de tabelas em um data warehouse.


Esse processo para integrar os bancos de dados que são heterogêneos é denominado:

Alternativas
Comentários
  • EXTRAÇÃO: fase em que os dados são extraídos dos OLTPs e conduzidos para a staging area (área de transição ou área temporária), onde são convertidos para um único formato.

    TRANSFORMAÇÃO: É nesta etapa que realizamos os devidos ajustes, podendo assim melhorar a qualidade dos dados e consolidar dados de duas ou mais fontes.

    CARGA: Consiste em fisicamente estruturar e carregar os dados para dentro da camada de apresentação seguindo o modelo dimensional.

    -Um primeiro programa realiza uma cópia de dados transacionais selecionados em estruturas de dados que formam um staging area; EXTRAÇÃO

    -Um segundo programa faz a leitura dos dados na staging area e alimenta estruturas de bancos de dados em um Operational Data Storage (ODS), que consolida dados operacionais de diversas aplicações e complementa conteúdo. TRANSFORMAÇÃO

    -Por fim, outro programa de aplicação faz a leitura do ODS e carrega estruturas de dados em uma estrutura não relacional de tabelas em um data warehouse. CARGA

    Fonte:https://www.igti.com.br/blog/o-que-e-etl-bi/


ID
3949615
Banca
FCC
Órgão
AL-AP
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Para construir um Data Warehouse, algumas etapas e processos são necessários. Uma etapa é conhecida como ETL, que compreende as etapas de Extração, Transformação e Armazenagem de dados em Sistemas Específicos ou Armazéns de Dados. Essas etapas são constituídas de várias outras funções, processos e técnicas de data integration. Uma dessas funções chama-se Master Data Management − MDM e é responsável por

Alternativas
Comentários
  • Master Data Management − MDM e é responsável por unir os dados para criar uma visão única deles, através de múltiplas fontes. Ela inclui tanto o ETL quanto capacidades de data integration, para misturar as informações e criar o “melhor registro”.

    GABARITO: LETRA ''B''

  • B (correta) - Master data management - MDM: é o processo de unir os dados para criar uma visão única deles, através de múltiplas fontes. Ele inclui tanto ETL quanto capacidades de data integration para misturar as informações e criar um “melhor registro”.

    A) - Data virtualization: Virtualização é um método ágil de misturar os dados para criar um panorama virtual sem movê-los.

    C) - Event stream processing and ETL: usado para monitorar e processar fluxos de dados, e ajudar a tomar decisões mais rapidamente. 

    D) - Processamento em lote: movimentação de grandes volumes de dados entre dois sistemas durante um tempo.

    E) - Data quality: Antes que os dados sejam integrados, um ambiente de teste é normalmente criado onde eles possam ser limpos e padronizados, por exemplo SP e São Paulo ; Senhor e Sr...

  • Apenas complementando a galera, vou tentar explicar melhor a diferença entre: ETL e MDM (letras B e C). Logo a seguir, deixarei duas fontes interessantes para se ler.

    • ETL: em resumo é um processo de migração e de transporte de dados. Composto de três fases: extração, transformação e carga (load).
    • Dados mestres (carinhosamente chamado de cadastros) são os dados mais importantes da empresa. Exemplos dados de: (a) Pessoas - clientes, fornecedores e parceiros; (b) localidades - matriz, filiais, cidades, estados e endereços. Se eles não forem bem tratados, “cabeças podem rolar”, pois pode acarretar prejuízo direto para uma empresa, por exemplo: abrir dois mercadinhos na mesma rua com base em dados incorretos. Por isso é necessário o gerenciamento dos dados mestres (MDM).

    Referências:

    • https://www.alexandremalmeida.com.br/qual-a-diferenca-entre-etl-e-mdm/
    • https://www.tenbu.com.br/gerenciamento-de-dados-mestre/

    Em frente e enfrente.


ID
4867573
Banca
INSTITUTO AOCP
Órgão
MJSP
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Um data warehouse (DW), via de regra, possui grande quantidade de dados advindos tanto de fontes homogêneas quanto heterogêneas. Dentro desse cenário, em relação às ferramentas de ETL, assinale a alternativa correta.

Alternativas
Comentários
  • E- Extração, coleta, captura de dados (Base temporária, área de transição)

    T- tratamento, limpeza, correção de possíveis erros, padronização.

    L- Armazenamento- Após coletados são transferidos para o DW

    Aguente Firme... Só os Fortes sobrevivem

    #PartiuPCDF

  • GABARITO: LETRA C

  • ETL (do inglês Extraction, Transform and Load) é um procedimento realizado em dados provenientes de diferentes fontes (bancos transacionais, usualmente) antes de serem carregados nos Data Warehouses e Data Marts. Como o próprio nome indica, é dividido em três fases:

    • Extrair: aqui os dados são extraídos das diversas fontes;
    • Transformar: muitos autores incluem dentro desta etapa o processo de limpeza e preparação. Aqui são tratadas inconsistências e os dados são padronizados;
    • Carregar: nesta etapa, os dados são carregados nos repositórios dos Data Warehouses e Data Marts.

    letra (c) #13MEMO #pf2021


ID
4962721
Banca
FCC
Órgão
BANESE
Ano
2012
Provas
Disciplina
Banco de Dados
Assuntos

ETL e Pivot são conceitos associados a

Alternativas
Comentários
  • Inteligância? Essa palavra existe?

  • Inteligência*

  • KKKKKK

  • business intelligence


ID
5005219
Banca
Aeronáutica
Órgão
CIAAR
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Atualmente, o consumo de dados corporativos via ETL é uma das formas mais usadas de consumo dos dados corporativos.

Qual o significado da sigla ETL?

Alternativas
Comentários
  • ETL (Extract, Transform, Load) = b) Extrair, Transformar e Ler

  • Ai fica fácil a resposta está no filtro da questão.

  • Só Deus sabe de onde saiu esse "Ler"

    "ETL, do inglês Extract Transform Load (Extrair Transformar Carregar)"

     

    https://pt.wikipedia.org/wiki/Extract,_transform,_load

  • Atualmente, o consumo de dados corporativos via ETL é uma das formas mais usadas de consumo dos dados corporativos. ETL significa Extract, Transform and Load (extrair, transformar e ler). Ou seja, o dado é extraído de uma origem, logo após é transformado através de regras de transformação (ou não) e carregado em uma tabela destino, em local diferente de onde ele foi extraído.

    FONTE: Gestão e Governança de Dados: Promovendo dados como ativo de valor nas empresas


ID
5040778
Banca
CESPE / CEBRASPE
Órgão
TCE-RJ
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

A respeito de bancos de dados relacionais e de modelagem dimensional, julgue o item subsequente.


ETL (extract transform load) é uma ferramenta utilizada para extrair informações e realizar análise multidimensional no data warehouse.

Alternativas
Comentários
  • o ETL serve para : extração,transformação e carregamento no DW e não analise multidimensional como afirma a questão

  • Gabarito: ERRADO

    O ETL é o processo que envolve a extração (coleta) de dados de várias fontes heterogêneas, sua transformação e o carregamento dos dados em um repositório de destino, que é geralmente o DW.

    Quando falamos em extrair informações para a tomada de decisão e realizar análise multidimensional em um DW, estamos falando da utilização de ferramentas de análise como o OLAP.

    Fonte: Prof Artur Mendonça

  • ERRADO

    ETL, do inglês Extract Transform Load (Extrair Transformar Carregar), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim o carregamento dos dados geralmente para um Data Mart e/ou Data Warehouse, porém nada impede que também seja para enviar os dados para um determinado sistema da organização.

  • E

    O processo de ETL (extração, transformação e carga) é responsável por trazer os dados para o DW de forma organizada, realizando a extração desses dados de suas fontes, efetuando a limpeza ou ajustes desses dados e carregando-os para o armazém de dados. Os dados são carregados para uma área de preparação (staging area).

    FONTE: Ramon Souza (estratégia).

  • A questao trouxe conceitos do OLAP

    O ETL  é um tipo de data integration em três etapas (extração, transformação, carregamento) usado para combinar dados de diversas fontes.

  • Hoje não Cespe....

    Fontes de dados (OLTP, por exemplo)

    ↓↓↓

    ETL -> Extração + transformação + carregamento (Bizu: Eu Tô Limpo)

    ↓↓↓

    DW

    ↓↓↓

    OLAP ou outros métodos de acesso (podemos usar data mining)

    ETL basicamente pega os dados, faz pré-processamento dos dados antes de eles "entrarem" no DW, os limpa, padroniza, e manda para DW. Após chegarem no DW, eles podem ser acessados para insights (tomadas de decisões...podemos usar OLAP, data mining, etc)

    Gab.: E

  • O ETL extrai, mas quem faz a análise multidimensional é o OLAP

  • Análise multidimensional ou modelagem de dados pode ser feita para auxiliar a DW por:

    • OLAP,MOLAP, ROLAP ou HOLAP.

  • ERRADO

    ETL, do inglês Extract Transform Load (Extrair Transformar Carregar), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim o carregamento dos dados geralmente para um  e/ou , porém nada impede que também seja para enviar os dados para um determinado sistema da organização.

  • ETL- Não faz essa Analise Multidimencional, apenas LIMPA os dados nas "TRÊs" etapas, (Há outras.), após limpos quem faz isso são ferramentas como OLAP, DM...

    Gabarito: Errado

  • ETL (extract transform load) é uma ferramenta utilizada para extrair informações e realizar análise multidimensional no data warehouse.

    EXTRAI DADOS.

  • Sequência lógica

    Dados--------->ETL--------->Data Ware House ( Data marts )-------------> OLAP e Data Mining.

    ➢ ETL-> Extrai/Trata/carrega

    ➢ DATA MART-> Mercado de Dados (banco de dados específicos),

     ➢ OLAP-> Processamento analítico em tempo real

    ➢ Minerar os Dados (Data Mining) 

  • ETL é o processo de Extração, Transformação e Carga.

    Ambiente para visualização Muldimensional é OLAP.

    -------------------------------------------------------------------------------------------------------------------------------------

    OUTRAS QUESTÕES DO CESPE SOBRE O ASSUNTO:

    (CESPE - Q872977) O ambiente ETL permite a visualização dos dados para análise de maneira multidimensional. ERRADO

    Um dos métodos de armazenamento do OLAP -> MOLAP (OLAP Multidimensional): Os dados são armazenados de forma multidimensional.

    (CESPE - Q462158) Ferramentas ETL são utilizadas na extração, transformação e remoção de dados. ERRADO

    (CESPE - Q107033) As ferramentas de software ETL (extract transform load) têm como função a extração de dados de diversos sistemas, a transformação desses dados de acordo com as regras de negócio e a carga dos dados em um data mart ou um DW. CERTO

    (CESPE - Q52345) A característica principal dos sistemas OLAP é permitir uma visão conceitual multidimensional dos dados de uma empresa. A visão multidimensional é muito mais útil para os analistas que a tradicional visão tabular utilizada nos sistemas de processamento de transação. CERTO

    (CESPE - Q268252) A funcionalidade de uma ferramenta OLAP é caracterizada pela análise multidimensional dinâmica dos dados, apoiando o usuário final nas suas atividades e permitindo consultas ad hoc. CERTO

    FONTE: CESPE + vivendo e aprendendo com os colegas do QC..

    Bons estudos!!!

  • ETL é o processo de Extração, Transformação e Carga.

    Ambiente para visualização Muldimensional é OLAP.

    (CESPE - Q872977) O ambiente ETL permite a visualização dos dados para análise de maneira multidimensional. ERRADO

    Um dos métodos de armazenamento do OLAP -> MOLAP (OLAP Multidimensional): Os dados são armazenados de forma multidimensional.

    (CESPE - Q462158) Ferramentas ETL são utilizadas na extração, transformação e remoção de dados (CARGA DOS DADOS)ERRADO

    (CESPE - Q107033) As ferramentas de software ETL (extract transform load) têm como função a extração de dados de diversos sistemas, a transformação desses dados de acordo com as regras de negócio e a carga dos dados em um data mart ou um DW. CERTO

    (CESPE - Q52345) A característica principal dos sistemas OLAP é permitir uma visão conceitual multidimensional dos dados de uma empresa. A visão multidimensional é muito mais útil para os analistas que a tradicional visão tabular utilizada nos sistemas de processamento de transação. CERTO

    (CESPE - Q268252) A funcionalidade de uma ferramenta OLAP é caracterizada pela análise multidimensional dinâmica dos dados, apoiando o usuário final nas suas atividades e permitindo consultas ad hoc. CERTO

    FONTE: CESPE + vivendo e aprendendo com os colegas do QC.. OBRIGADA!

    Bons estudos!!!

    copiado da colega N. MATTA

  • GAB. ERRADO

    O ETL ---> Extrai

    OLAP ---> Análise multidimensional

  • Trata-se de uma questão sobre bancos de dados.

    O comando da questão afirma que ETL (Extract Transform Load) é uma ferramenta utilizada para extrair informações de um DW.

    A afirmação está errada, o ETL faz exatamente a via oposta, ele é a ferramenta responsável por pegar o dado relacional e carregá-lo no modelo multidimensional.


    Gabarito do Professor: ERRADO.
  • Em linhas gerais:

    ETL: processa;

    OLAP: analisa.


ID
5379820
Banca
CESPE / CEBRASPE
Órgão
MPE-AP
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Tecnologias que recuperam dados de muitas fontes, limpando-os e carregando-os em data warehouse, e que fazem parte de qualquer projeto centrado em dados denominam-se

Alternativas
Comentários
  • ETL é um processo que extrai, transforma e carrega dados de várias fontes para um data warehouse ou outro repositório de dados unificado.

    ETL é frequentemente usado por uma organização para: 

    • Extrair dados de sistemas legados
    • Limpar os dados para melhorar a qualidade dos dados e estabelecer consistência
    • Carregar dados em um banco de dados de destino

    Fonte: https://www.ibm.com/cloud/learn/etl

  • Imagine do maior ao menor:

    Big Data tem uma grande quantidade de dados ( Depois de coletar os dados o ... )

    Data mining faz a mineração/propecção dos dados a procura de identificar padrões dentro do Big Data e...

    Data Warehouse armazena os dados " limpos " depois da Extração, Transformação e Carregamento/Load ( ETL ) do Data Mining ( Como acessar? próximo passo )

    Usa-se a ferramenta OLAP para explorar os dados ( já limpos ) do Data WareHouse.

    Não aprofundei os conceitos, porém dessa forma você entende melhor o processo até chegar no OLAP.

    Espero ter ajudado.

    " Nós vamos conseguir, Valeu ! "

  • Questão que precisa ter alguns conceitos de ETL

    Destaco os mais importantes:

    O que é um ETL ? Extração, Transformação, Carregamento

    Todas os dados estão entre origem e DW

    Extração: copia os dados necessários da origem

    Transformação: limpeza dos dados.

    Carga: Estruturação física (fato e dimensão) e carregamento em modelo multidimensional.

    Gabarito B


ID
5477527
Banca
CESPE / CEBRASPE
Órgão
BANESE
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

No que se refere a técnicas de modelagem e aplicações de data warehousing, julgue o item seguinte.


ETL é um tipo de data integration com capacidades analíticas sofisticadas que permite que os dados sejam analisados a partir de visões multidimensionais complexas e elaboradas. Além disso, esse sistema possibilita alterar e analisar grandes quantidades de dados em várias perspectivas diferentes. 

Alternativas
Comentários
  • Colegas,

    ETL é o processo de Extração, Transformação e Carregamento do dados. Ambiente para visualização Muldimensional é o OLAP.

    ETL é o método +comum para transferir dados de diferentes fontes para um data warehouse (DW) ou data mart (DM), sendo esse processo o +crítico e o +demorado na construção/atualização do DW ou DM

    Questões anteriores:

    Questão 01: ETL (extract transform load) é uma ferramenta utilizada para extrair informações e realizar análise multidimensional no data warehouse. (E)

    Questão 02: O ambiente ETL permite a visualização dos dados para análise de maneira multidimensional. (E)

    Trabalha e confia!

  • ✅Gabarito(Errado) 

    O ambiente ETL NÂO permite a visualização dos dados para análise de maneira multidimensional.

    Fonte: Q872977

    • ETL: Essa sigla significa Extração, Transformação e Carga (em inglês Extract, Transform and Load) e trata da sistematização do tratamento e limpeza dos dados oriundos dos diversos sistemas organizacionais. A transformação de dados ocorre em uma área de preparação antes de serem carregados no sistema de destino.
    • ELT carrega os dados brutos diretamente no sistema de destino e os converte lá.
  • Gabarito: Errado

    ETL é o processo de Extração, Transformação e Carga.

    Ambiente para visualização Muldimensional é OLAP.

    Outras questões sobre o assunto:

    (CESPE - Q872977) O ambiente ETL permite a visualização dos dados para análise de maneira multidimensional. ERRADO

    Um dos métodos de armazenamento do OLAP -> MOLAP (OLAP Multidimensional): Os dados são armazenados de forma multidimensional.

    (CESPE - Q52345) A característica principal dos sistemas OLAP é permitir uma visão conceitual multidimensional dos dados de uma empresa. A visão multidimensional é muito mais útil para os analistas que a tradicional visão tabular utilizada nos sistemas de processamento de transação. CERTO

    (CESPE - Q268252) A funcionalidade de uma ferramenta OLAP é caracterizada pela análise multidimensional dinâmica dos dados, apoiando o usuário final nas suas atividades e permitindo consultas ad hoc. CERTO

    (CESPE - Q462157) Ferramentas OLAP possuem capacidade para manipular e analisar um grande volume de dados em múltiplas dimensões. CERTO


ID
5493631
Banca
CESPE / CEBRASPE
Órgão
SEFAZ-CE
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Em relação a big data e analytics, julgue o próximo item. 

Comparado ao ETL, o ELT apresenta vantagens como tempos menores de carregamento e de transformação de dados, e, consequentemente, menor custo de manutenção. 

Alternativas
Comentários
  • ETL x ELT

    ELT é um acrônimo para Extract, Load e Transform. O ELT é um processo mais ágil para o carregamento e o processamento de dados, pois inverte a ordem das etapas de transformação de dados da abordagem tradicional de ETL.

    Ao contrário do ETL, onde a transformação de dados ocorre em uma área de preparação antes de serem carregados no sistema de destino, o ELT carrega os dados brutos diretamente no sistema de destino e os converte lá.

    Em comparação com o processo ETL, o ELT reduz consideravelmente o tempo de carregamento. Além disso, em comparação com ETL, ELT é um método mais eficiente em termos de recursos, pois aproveita a capacidade de processamento desenvolvida em uma configuração de data warehouse, diminuindo o tempo gasto na transferência de dados.

    Entender a diferença entre ETL e ELT é compreender o 'T' em ambas as abordagens. O principal fator que diferencia os dois é quando e onde o processo de transformação é executado.

    No geral, o ELT é um processo econômico, pois requer menos recursos e leva menos tempo. No entanto, se o sistema de destino não for robusto o suficiente para o ELT, o ETL poderá ser uma escolha mais adequada.

    Por fim, substituindo ETL por ELT, as empresas podem analisar maiores volumes de dados com menos manutenção e tempo para alimentar a inovação baseada em dados.

    Portanto, gab. C

    https://www.astera.com/pt/type/blog/etl-vs-elt-whats-the-difference/

  • No processo de ETL os dados são limpos e pré-processados antes da carga DW, já o ELT os dados vão direto para DW, daí gera um menor custo de manutenção, contudo precisa de um DW bem mais parrudo.

    Gab: Certo.

    Foco!

  • Minha dislexia me fez errar