SóProvas



Prova CESPE - 2014 - TJ-SE - Analista Judiciário - Banco de Dados


ID
1215079
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Algoritmos e Estrutura de Dados
Assuntos

Julgue os itens subsequentes, acerca dos tipos de estruturas árvores, pilhas e grafos.

Um grafo é formado por um par de conjuntos de vértices e arestas, não podendo o conjunto de vértices ser particionado em subconjuntos.

Alternativas
Comentários
  • O conjunto de vértices pode sim ser particionado em subconjuntos.


    http://www.sbmac.org.br/tema/seletas/docs/v3_1/0Hell.pdf

  • http://www.inf.ufsc.br/grafos/definicoes/definicao.html

  • Pode ser particionado porque um item pode ser um subconjunto, é assim que as redes sociais funcionam. Por exemplo: Uma pessoa não é vista simplesmente como apenas um registro, ela é vista como conjunto. Imagine que Pedro tem diversos amigos e seus amigos possuem diversos amigos, ao adicionar Pedro como amigo toda a sua relação terão acesso a visualizar as suas atualizações (quando não configurado para isso).

  • Grafo bipartido:

    Um grafo é dito ser bipartido quando seu conjunto de vértices V puder ser particionado em dois subconjuntos V1 e V2. Portanto não há óbice do particionamento de uma conjunto de vértices em subconjuntos, como se refere a questão.

  • Um grafo pode ser desconexo.

    Um grafo G=(V, E) é conexo se existir um caminho entre qualquer par de vértices, caso contrário é desconexo, se há pelo menos um par.

  • Força Guerreiro!!!!!!


ID
1215082
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Algoritmos e Estrutura de Dados

Julgue os itens subsequentes, acerca dos tipos de estruturas árvores, pilhas e grafos.

Em uma árvore binária, cujo grau máximo é igual a dois, todos os nós de uma subárvore esquerda são maiores que o nó raiz.

Alternativas
Comentários
  • O grau de um nó é definido pelo número de sub-árvores que ele possui.

    Em uma definição mais formal, uma árvore é uma estrutura que contém um conjunto finito de um ou mais nós, sendo que um dos nós é especialmente designado como o nó raiz e os demais nós são particionados em 0 ou mais conjuntos disjuntos onde cada um desses conjuntos é em si uma árvore, que recebe o nome de sub-árvore.

    Ou seja, o nó raiz é o maior de todos, porque é como um conjunto que abrange a sub árvore esquerda e direita. Esta questão de ser maior ou não remete ao tamanho do conjunto.

    http://www.ebah.com.br/content/ABAAAA5pEAD/estrutura-dados-arvores

  • O nó raíz não é necessariamente o maior de todos. Se for uma árvore balanceada, deve ter um valor que está perto da mediana. Se for uma árvore não balanceada, significa apenas que foi o primeiro nó adicionado à arvore.

  • Os nós da esquerda são menores que a raiz e os da direita maiores que a raiz. 

  • Força Guerreiro!!!!!!


ID
1215085
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Algoritmos e Estrutura de Dados
Assuntos

Julgue os itens subsequentes, acerca dos tipos de estruturas árvores, pilhas e grafos.

Na estrutura do tipo pilha, são permitidas operações como encontrar o menor elemento e mostrar o seu sucessor.

Alternativas
Comentários
  • Questão esquisita, pois a estrutura permite encontrar menor elemento e mostrar seu sucessor, mas isto teoricamente não faz sentido. 

    A pilha não é ordenada, para que serviria uma operação como esta?

  • ?????? 

    Operações em pilhas são:

    1. criação da pilha (informar a capacidade no caso de implementação sequencial - vetor);

    2. empilhar (push) - o elemento é o parâmetro nesta operação;

    3. desempilhar (pop);

    4. mostrar o topo;

    5. verificar se a pilha está vazia (isEmpty);

    6. verificar se a pilha está cheia (isFull - implementação sequencial - vetor).

  • Não existe tal operação na pilha. Para ordenar necessitaria de uma estrutura de dados auxiliar.

  • Força Guerreiro!!!!!!

  • Força Guerreiro!!!!!!


ID
1215088
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Algoritmos e Estrutura de Dados
Assuntos

Acerca da pesquisa e da classificação de dados, julgue os próximos itens.

O método da bolha é um exemplo de classificação por seleção efetivada pela seleção contínua do menor valor de uma chave contido em determinado vetor.

Alternativas
Comentários
  • Este método vai comparando os valores de um vetor, de dois em dois,  e coloca o maiores valores primeiros. Então ele ordena o vetor em uma ordem decrescente.

    Exemplo de vetor: 10,5,15,20,30, 60. Ele compara (10,5), (5,15), (15,20), (20,30), (30,60). Ai fica: 10,15,20,30,60,5. Compara novamente e fica: 15,20,30,60,10,5. Compara e fica: 20,30,60,15,10,5. Compara e fica: 30,60,20,15,10,5. Compara e fica: 60,30,20,15,10,5.

  • método da bolha é um exemplo de classificação por inserção. não por seleção

  • Esse método descrito é o selection sort.

  • Métodos de Ordenação
    • Ordenação por troca
    – BubbleSort (método da bolha)
    – QuickSort (método da troca e partição)
    • Ordenação por inserção
    – InsertionSort (método da inserção direta)
    – BinaryInsertionSort (método da inserção direta binária)
    • Ordenação por seleção
    – SelectionSort (método da seleção direta)
    – HeapSort (método da seleção em árvore)
    • Outros métodos
    – MergeSort (método da intercalação)
    – BucketSort (método da distribuição de chave)

  • 2013

    O processo de ordenação de vetores que busca o menor elemento do vetor e o insere na primeira posição do vetor e que, posteriormente, busca o segundo menor valor do vetor e o coloca na segunda posição do vetor, e assim sucessivamente até que todo o vetor esteja ordenado, denomina-se

      a) ordenação por seleção.

      b) ordenação merge sort.

      c) busca linear.

      d) busca binária

      e) ordenação por inserção.

  • Ao meu ver não é "seleção" e sim "comparação"; e não é "menor" e sim "maior";

  • a bolha é muito fofa... lembro-me da cadeira de introdução a programação, eu tive que descobrir a bolha sozinha... kkkkk'

  • Força Guerreiro!!!!!!


ID
1215091
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca da pesquisa e da classificação de dados, julgue os próximos itens.

Haverá um aumento no desempenho da pesquisa do tipo sequencial caso a tabela esteja ordenada pelo valor da chave.

Alternativas
Comentários
  • O número de comparações necessário para encontrar um registro numa tabela de dimensão n é, obviamente, dependente da

    posição do registo na tabela (1 comparação para o 1º registo; n para o último).

    Em média, o número de comparações é (n + 1)/2. É possível diminuir o número médio de comparações colocando os registros acedidos mais frequentemente no início da tabela.

    O ordenamento da tabela de chaves (e da tabela de registros), por ordem crescente ou decrescente, permite tornar as pesquisas muito mais eficientes.


    http://eden.dei.uc.pt/~pa2/apresenta/pesquisa.pdf


  • Questão incompleta.


    A pesquisa sequencial apenas tem seu desempenho aumentado caso a tabela de chaves esteja ordenada e, adicionalmente, se use uma tabela auxiliar de índices [1], com menor número de elementos. Caso contrário, a pesquisa sequencial fará, como o próprio nome diz, uma busca sequencial, não importando o fato de a tabela estar ordenada.

    [1] http://eden.dei.uc.pt/~pa2/apresenta/pesquisa.pdf

  • Pode haver? Sim.

    "HAVERÁ" em todos os casos de consultas? Não.

    Logo, ninguém entrou com recurso ou não havia alguém preparado suficiente para avaliar o recurso.

  • O desempenho da pesquisa é aumentado quando se utiliza campos que possuem índices. Por padrão, o banco de dados cria um índice para todo campo chave de uma tabela.

  • Errada, pois o tempo médio vai permanecer o mesmo s não for utilizado indices.

  • Bancos de dados não-relacionais (NoSQL) utilizam modelos diferentes de armazenamento de dados, os quais podem ser divididos em quatro categorias principais: Chave-Valor, Orientado a Documentos, Orientado a Grafos e Orientado a Colunas (Colunar). Alguns bancos de dados podem implementar mais de um desses modelos. O modelo de banco de dados chave-valor armazena dados por meio de uma estrutura de mapeamento ou dicionário, em que todo dado armazenado possui uma chave identificadora e seu valor em si. Para cada chave de entrada, é retornado um valor de saída. Dessa forma, haverá um aumento no desempenho da pesquisa do tipo sequencial caso a tabela esteja ordenada pelo valor da chave como foi dito na questão.

      

    Correto


ID
1215094
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Algoritmos e Estrutura de Dados
Assuntos

Acerca da pesquisa e da classificação de dados, julgue os próximos itens.

A pesquisa binária, o mais simples dos métodos de pesquisa, consiste na comparação de um argumento com a chave de entrada localizada no meio da tabela, não sendo aplicável em tabelas ordenadas.

Alternativas
Comentários
  • A pesquisa ou busca binária (em inglês binary search algorithm ou binary chop) é um algoritmo de busca em vetores que segue o paradigma de divisão e conquista. Ela parte do pressuposto de que o vetor está ordenado e realiza sucessivas divisões do espaço de busca comparando o elemento buscado (chave) com o elemento no meio do vetor. Se o elemento do meio do vetor for a chave, a busca termina com sucesso. Caso contrário, se o elemento do meio vier antes do elemento buscado, então a busca continua na metade posterior do vetor. E finalmente, se o elemento do meio vier depois da chave, a busca continua na metade anterior do vetor.

  • São dois erros:

    1) o mais simples dos métodos de pesquisa: o método mais simples de pesquisa é o sequencial

    2) não sendo aplicável em tabelas ordenadas: é só aplicável em tabelas ordenadas.

  • Na Busca Binária é fundamental que a tabela esteja ordenada.

    Usa o método de divisão e conquista.

    g: Errado

  • Gabarito Errado

    pesquisa ou busca binária (em inglês binary search algorithm ou binary chop) é um algoritmo de busca em vetores que segue o paradigma de divisão e conquista. Ela parte do pressuposto de que o vetor está ordenado e realiza sucessivas divisões do espaço de busca comparando o elemento buscado (chave) com o elemento no meio do vetor. Se o elemento do meio do vetor for a chave, a busca termina com sucesso. Caso contrário, se o elemento do meio vier antes do elemento buscado, então a busca continua na metade posterior do vetor. E finalmente, se o elemento do meio vier depois da chave, a busca continua na metade anterior do vetor.

     

    A complexidade desse algoritmo é da ordem de {\displaystyle \Theta (\log _{2}n)}, em que {\displaystyle n} é o tamanho do vetor de busca. Apresenta-se mais eficiente que a Busca linear cuja ordem é {\displaystyle O(n)}.

     

     

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !

  • Força Guerreiro!!!!!!


ID
1215097
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Algoritmos e Estrutura de Dados
Assuntos

Acerca da pesquisa e da classificação de dados, julgue os próximos itens.

Durante o processo de classificação, é possível gerar-se um vetor indireto de ordenação (VIO), cuja principal vantagem relaciona-se à possibilidade de realização da movimentação das entradas da tabela, a partir de suas posições originais, para a ordenação dos dados.

Alternativas
Comentários
  • Ele não muda a ordem das entradas da tabela, ou seja, não há alteração física da posição dos elementos. Ele criar um vetor com os endereços das entradas ordenados, ao invés de ordenar os valores da tabela.


    http://pt.slideshare.net/fernandoovargas/classificao-de-dados-4108487

  • B - Vetor Indireto de OrdenaAs entradas são mantidas nas posições originais. A seqüência é dada por um vetor gerado durante o processo de classificação (não envolve movimentação dos registros em uma tabela).

  • Força Guerreiro!!!!!!


ID
1215100
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens seguintes, no que se refere aos projetos conceitual, lógico e físico de banco de dados relacional.

A construção de um modelo particular para cada SGBD, obtido a partir da transformação do modelo conceitual, é o objetivo do projeto lógico.

Alternativas
Comentários
  • O lógico não é independente de SGBD? Marquei errado por que achei que o projeto físico teria esse objetivo.

    Conceitual = Independente de tudo

    Lógico = Dependente de paradigma (Multidimensional, relacional, etc)

    Físico = Dependente de SGBD (Oracle, Database, Access, etc)

    Estranho...

  • Fui no mesmo pensamento do Leonardo

  • Segui o mesmo raciocínio de vocês, desconfio que tenha algo errado. Mas pode ser que o gênio que escreveu a questão esteja querendo dizer que o projeto lógico, quando aplicado ao SGBD, vai criar um modelo particular naquele SGBD.

  • tem que ler sem a o aposto explicativo, alias, várias questões da CESPE eles fazem isso, vamos lá:

    "A construção de um modelo particular para cada SGBD, obtido a partir da transformação do modelo conceitual, é o objetivo do projeto lógico". 


    Lendo só o negrito: "A construção de um modelo particular para cada SGBD é o objetivo do projeto lógico", tá certo, dai complementando, devemos avaliar o aposto, "(é) obtido a partir da transformação do modelo conceitual", certinho o que diz a questão:  "pegamos o modelo conceitual, e criamos um mapeamento lógico para cada SGBD".

  • Me parece que o objetivo da questão é dizer que o objetivo do projeto lógico é a construção do modelo físico, ou como dito na questão, a construção de um modelo particular para cada SGBD.

    Mas por favor, não desaprenda, pois o modelo lógico não é particular para cada SGBD.

  • Essa outra questão também brincou com isso:


    (Banco AM/2012) O modelo lógico define-se como uma descrição de banco de dados no nível de abstração visto pelo usuário do SGBD, por isso esse modelo é flexível e independente do tipo particular de SGBD que está sendo usado.


    GABARITO: ERRADO.


    Na boa, difícil julgar... O cara faz um embaralhamento de palavras e o gabarito pode ser qualquer coisa.

  • A minha leitura da questão foi confrontar os modelos: conceitual, lógico e físico. Aquele é independente do SGDB e é transformado em modelo lógico a partir do projeto lógico. Sendo o modelo lógico dependente do SGDB.

  • eu sempre erro essa


    impressionante

  • Para o CESPE, modelo lógico depende de SGBD, fim.

  • A questao e de portugues e nao de Banco de Dados. O Cespe "pega" um conceito CORRETO e simples e escreve de um jeito meio "dificil"... esta e a regra do jogo.

    Gostei da explicacao do colega EVERTON MACHADO.

    Gabarito CERTO

  • o Projeto Lógico depende do tipo de SGBD que será usado no projeto (Relacional, em rede).  O projeto lógico não depende do SOFTWARE específico que será usado (Oracle, mysql).

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: CERTO

    PARA cespe:

    1º Conceitual (Independente)

    2º Lógico (Dependente de SGBD)

    3º Físico (Dependente de SGBD) : Oracle, Database, Access, etc

     

     

     

  • O modelo lógico é, realmente, derivado do modelo conceitual (que é de mais alto nível) e é dependente do modelo de dados adotado. Detalhe que o modelo lógico não é necessariamente diferente para cada SGBD específico, mas sim específico para o modelo de SGBD que foi escolhido. De todo modo, a questão foi considerada correta.

  • Para quem ficou na dúvida com o comentário do colega Leonardo, os comentários da Q278873 vão ajudá-los na compreensão. O modelo lógico é dependente do SGBD específico, pois é meio que criado "sob medida" para cada SGBD. Diferente do modelo CONCEITUAL, que é independente do SGBD.

  • A questão ta falando da construção de um MODELO, e não que o modelo lógico é dependente de SGBD.

  • Certo.

    Segundo Heuser,

    Um modelo lógico é uma descrição de um banco de dados no nível de abstração visto pelo usuário do SGBD. Assim, o modelo lógico é dependente do tipo de SGBD que está sendo usado.

    No projeto de banco de dados, o primeiro passo é a elaboração do modelo conceitual. Esse modelo não depende do tipo de SGBD. Geralmente é usado um modelo de entidade-relacionamento para isso. Em uma segunda etapa, esse modelo deve ser transformado em modelo lógico. O modelo lógico depende do tipo de SGBD. Por exemplo, se o banco de dados é relacional, o modelo lógico usará tabelas para representar os dados.

  • CERTO!!!

    o MODELO LÓGICO NÃO TEM DEPENDÊNCIA DO SGBD, mas já pode levar em consideração qual estrutura a ser utilizada.

  • No modelo lógico existe a descrição da estrutura do BD que pode ser processada pelo SGBD.

    Em poucas palavras, é o modelo conceitual mapeado para um modelo lógico de dados;

    Nesta etapa há dependência da classe de modelos de dados utilizada pelo SGBD, mas não do SGBD.

  • O projeto lógico segundo a maioria dos autores é a fronteira na qual se define o SGBD. Se você pensar nos SGBDs relacionais a diferença na sintaxe de SQL pode provar isso do ponto de vista prático.

    A ordem de criação da modelagem de um banco de dados geralmente é a seguinte: primeiro a modelagem conceitual, depois a modelagem lógica e, por fim, a modelagem física.

    Conforme Mauro Pichiliani (2014), “na modelagem lógica é importante que os dados sejam enquadrados de acordo com o modo que eles serão armazenados. Isso quer dizer que as estruturas de armazenamento devem ser definidas de acordo com as características dos dados. Dentre as opções disponíveis para o armazenamento temos grafos, redes, tabelas (linhas e colunas) e outras.

    A implementação de um modelo em um banco de dados adequado é realizada na modelagem física, que pode empregar um SGBD relacional, um banco de dados hierárquico ou outro software adequado”.

    Gabarito: item correto

  • Q256754

    Julgue os itens a seguir, no que concerne ao conceito de modelo de dados em SGBD.

    O modelo lógico define-se como uma descrição de banco de dados no nível de abstração visto pelo usuário do SGBD, por isso esse modelo é flexível e independente do tipo particular de SGBD que está sendo usado.

    gabarito ERRADO

  • Questão

    A construção de um modelo particular para cada SGBD, obtido a partir da transformação do modelo conceitual, é o objetivo do projeto lógico.

    Segundo Carlos Alberto Heuser (https://www.inf.ufrgs.br/site/docente/carlos-alberto-heuser/),

    "Um modelo lógico é uma descrição de um banco de dados no nível de abstração visto pelo usuário do SGBD. Assim, o modelo lógico é dependente do tipo de SGBD que está sendo usado".

    No projeto de banco de dados, o primeiro passo é a elaboração do modelo conceitual. Esse modelo não depende do tipo de SGBD. Geralmente é usado um modelo de entidade-relacionamento. Posteriormente, esse modelo deve ser transformado em modelo lógico.

    O modelo lógico depende do tipo de SGBD. Exemplo: se o banco de dados é relacional, o modelo lógico usará tabelas para representar os dados.

    Em resumo:

    Modelo Conceitual Não depende do tipo de SGBD.

    Modelo LógicoDepende do tipo de SGBD.

    Gabarito correto. ✅

  • PUTS. QUE QUESTÃO BONITA. CESPE É CESPE, NÉ PAI.

  • CORRETO

    conceitual ( MER/DER ) --> independe de SGBD

    Lógico-> ( MR)depende do MODELO / TIPO de SGBD ( modelo relacional ,em rede ...)

    Físico -> depende de SGBD específico

    • Essas questões deixam claro que o modelo lógico é DEPENDENTE do modelo de dados que é implementado pelo SGBD e não do SGBD em si:

    CESPE - 2010 - MPU

    Diferentemente de quando se define um modelo conceitual de dados, ao se definir um modelo lógico de dados deve-se levar em consideração o sistema de gerência de banco de dados (SGBD) no qual o banco de dados será implementado.

    ERRADO

    CESPE - 2011 - MEC

    Em um projeto de banco de dados, o modelo conceitual e o modelo lógico definem as entidades e seus relacionamentos. O primeiro modelo independe do tipo de SGBD e o segundo depende do tipo de SGBD a ser utilizado.

    CERTO

    • Já o modelo conceitual é INDEPENDENTE do SGBD:

    CESPE - 2012 - BANCO DA AMAZÔNIA

    O modelo conceitual define-se como um modelo de dados abstrato, que descreve a estrutura de um banco de dados de forma independente de um SGBD particular.

    CERTO

    CESPE - 2012 - TJ-AC

    O modelo conceitual consiste em um modelo de dados abstrato por meio do qual é descrita a estrutura de um banco de dados, de forma independente do Sistema Gerenciador de Banco de Dados (SGBD).

    CERTO

    CESPE - 2014 ANTAC

    Nos projetos de banco de dados, a escolha do SGBDR deve ocorrer antes da elaboração do modelo conceitual de dados para que haja compatibilidade entre o modelo e o software adotado.

    ERRADO

    CESPE - 2011 - Correios

    No modelo conceitual, o banco de dados é descrito de forma independente da implementação em um SGBD. Esse modelo cita os dados que podem ser armazenados no banco de dados, mas não especifica como esses dados estão armazenados no nível de SGBD.

    CERTO

  • Questão perfeita pra consolidar esse conceito!!!!

  • QUESTÃO AFIADA.

    EXCELENTE PARA FIXAR O CONCEITO !

    SEGUIMOS !

  • Rafael, o Lógico depende do SGBD, mas não de um SGBD específico.

  • Gabarito: CERTO.

    Basicamente, a banca brincou com o Português mesmo...

    Enunciado: A construção de um modelo particular para cada SGBD, obtido a partir da transformação do modelo conceitual, é o objetivo do projeto lógico.

    Traduzindo: É o objetivo do projeto lógico (= modelo lógico), que é obtido a partir da transformação do modelo conceitual, a construção de um (=servir de base para um) modelo particular para cada SGBD (que se trata do projeto/modelo físico).

  • Gabarito: Errado

    Chateado que o professor do QC ensinou que o modelo é independente mas a banca cobra diferente. Fazer o que, né, CESPE é CESPE. Bola pra frente!


ID
1215103
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens seguintes, no que se refere aos projetos conceitual, lógico e físico de banco de dados relacional.

O fato de haver restrições associadas a consultas — como ocorre, por exemplo, no caso de a consulta ter de ser executada em, no máximo, três segundos — influencia o projeto físico.

Alternativas
Comentários
  • Restrições de desempenho influenciam o projeto físico do banco.

  • Os requisitos de desempenho como, por exemplo, o limite máximo do tempo de execução citado no enunciado geralmente envolvem aspectos físicos do banco de dados como a criação de índices, estatísticas, plano de execução, opções e cláusulas da instrução SQL. Por exemplo: é possível que o requisito de desempenho de três segundos mude o projeto físico de modo que seja preciso criar um índice adequado na tabela. Este tipo de decisão envolve o projeto físico de banco de dados.

    fonte: http://www.devmedia.com.br/concurso-especialista-em-banco-de-dados-tj-se-questoes-resolvidas/31061

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: CERTO

     

    Os requisitos de desempenho como, por exemplo, o limite máximo do tempo de execução citado no enunciado geralmente envolvem aspectos físicos do banco de dados como a criação de índices, estatísticas, plano de execução, opções e cláusulas da instrução SQL. Por exemplo: é possível que o requisito de desempenho de três segundos mude o projeto físico de modo que seja preciso criar um índice adequado na tabela. Este tipo de decisão envolve o projeto físico de banco de dados.

    fonte: http://www.devmedia.com.br/concurso-especialista-em-banco-de-dados-tj-se-questoes-resolvidas/31061

  • Certo.

    Segundo Heseur,

    Detalhes de armazenamento interno de informações, que não têm influência sobre a programação de aplicações no SGBD, mas podem afetar o desempenho das aplicações (por exemplo, as estruturas de arquivos usadas no acesso às informações) não fazem parte do modelo lógico. Estes detalhes são representados no modelo físico.

    O modelo físico trata das questões do armazenamento interno. Esse tipo de modelo é utilizado quando as preocupações com desempenho do banco são importantes. A questão fala juntamente sobre um aspecto de desempenho (execução em até três segundos). Esse tipo de restrição é analisada do ponto de vista do modelo físico.

  • Gabarito: Certo

    Apenas complementando os excelentes comentários.

    Pensando de uma forma mais lógica para não se prender tanto à teoria.

    Imagina você dono de uma loja bastante movimentada, e que precise atender os clientes de forma eficiente. O seu estoque ficará organizado de forma que facilite a busca pelo produto, conterá endereços de cada produto, o número do corredor, o número da prateleira, e a posição. Dessa forma, sua busca pelo produto será muito mais eficiente.

    Essa organização é o modelo físico do banco de dados, quanto melhor projetado, mais eficiente será, não apenas para buscar os produtos, mas também para guardá-los.

  • O fato de haver restrições associadas a consultas — como ocorre, por exemplo, no caso de a consulta ter de ser executada em, no máximo, três segundos — influencia o projeto físico.

  • NO MAIS, OBSERVE: Restrições de desempenho influenciam o projeto físico do banco.

    Perceba o trecho “no caso de a consulta TER DE SER EXECUTADA EM, no máximo, três segundos”, fica claro que existe uma condição de restrição, pois ela TEM/DEVE ser executada obedecendo um parâmetro, que nesse caso é o de tempo.

    Parâmetros em um SGBD influenciam o projeto físico.

    Questão CORRETA.

    @ROTINACONCURSOS


ID
1215106
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens seguintes, no que se refere aos projetos conceitual, lógico e físico de banco de dados relacional.

Um projeto conceitual completo e sem redundância contém um modelo com a descrição dos objetos que devem fazer parte do banco dados, além de manter um registro da forma com que esses dados estão guardados no SGBD.

Alternativas
Comentários
  • O projeto conceitual não especifica paradigmas e SGBDs.

  • Essa questão de "manter um registro da forma com que esses dados estão guardados no SGBD" está mais relacionada ao projeto físico e não ao conceitual.

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: ERRADO

     

    "projeto físico"

    Um projeto ...completo e sem redundância

    a redundância vc so consegue quando existe um banco de dados, logo vc tem que tentar enteder que é na parte física.

  • o nível CONCEITUAL descreve a estrutura de todo o banco de dados para a comunidade de usuários e possui um esquema conceitual que oculta os detalhes internos e se concentra na descrição das entidades, tipos de dados, conexões, operações de usuários e restrições.

    Oculta detalhes das estruturas de armazenamento físico e se concentra na descrição das entidades, tipos de dados, relacionamentos, operações e restrições.

  • Valeu, sam

  • Um projeto conceitual completo e sem redundância contém um modelo com a descrição dos objetos que podem fazer parte do banco dados, além de  não manter um registro da forma com que esses dados estão guardados no SGBD.

  • GAB E

    O modelo físico é dependente do SGDB.

  • O projeto conceitual não mostra detalhes de implementação (como os dados são guardados). Essa questão de "manter um registro da forma com que esses dados estão guardados no SGBD" está mais relacionada ao projeto físico e não ao conceitual.

  • Modelo conceitual --> independe de SGBD

    Modelo lógico -> depende o tipo/modelo de SGBD

    Modelo físico -> depende de SGBD específico

    -----------------------------------------------------------------------------

    CESPE - 2009 - DETRAN-DF (Q65837)

    O esquema conceitual consiste em uma descrição concisa dos requisitos dos usuários e inclui descrições detalhadas dos tipos de dados, relacionamentos e restrições. A chave estrangeira é o atributo de uma entidade que é chave primária de outra entidade. Certo!

    "Esquema conceitual é uma descrição concisa dos requisitos de dados dos usuários e inclui descrições detalhadas de tipos de entidade, relacionamentos e restrição\u201d NAVATHE e ELMASRI"

    Ou seja, tem uma descrição ? Tem, porém não mostra como estão armazenados, já que o modelo conceitual não depende de SGBD .

  • O modelo conceitual descreve a estrutura do banco de dados de forma independente do SGBD, definindo, inclusive, quais objetos serão armazenados.

    Porém não registra a estrutura/forma de armazenamento do banco de dados, quem o faz é o modelo lógico e não o conceitual.

  • Modelo conceitual = independente do tipo de SGBD (do paradigma implementado, se hierárquico, se relacional..) e independente de qual será utilizado.

    Modelo lógico = depende do paradigma/independe do SGBD a ser utilizado.

    Modelo físico = totalmente dependente do SGBD.

    OUTRA QUESTÃO DO CESPE SOBRE O ASSUNTO:

    (CESPE - Q199489) No modelo conceitual, o banco de dados é descrito de forma independente da implementação em um SGBD. Esse modelo cita os dados que podem ser armazenados no banco de dados, mas não especifica como esses dados estão armazenados no nível de SGBD. CERTO

    GAB.: ERRADO


ID
1215109
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

No que diz respeito aos modelos hierárquico, relacional, de entidade-relacionamento e de modelagem orientada a objeto, julgue os itens a seguir.

No modelo entidade-relacionamento, um tipo particular de entidade fraca ocorre quando um atributo identificador de uma entidade inclui o atributo identificador da outra entidade.

Alternativas
Comentários
  • A chave primária de um conjunto de entidades fraca é formada pela chave primária do conjunto de entidades forte do qual ele é dependente de existência (ou dependência existencial), mais seu discriminador. No caso do conjunto de entidades transação, sua chave primária é {número-contanúmero-transação}, onde número conta identifica a entidade dominante de uma transação e número-transação distingue entidades de transação dentro da mesma conta.


    fonte: http://www.ime.usp.br/~andrers/aulas/bd2005-1/aula7.html

  • "um tipo particular de entidade fraca", não seria melhor "um tipo particular de entidade chamada de entidade fraca"? Achei confusa essa questão, pra mim é errada...

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: CERTO

     

    EMPRESA(forte) (1,1)-------<<POSSUI>> ------(0,n)FILIAL(fraca)

    cod_empresa                                       cod_filial                                       

    cnpj                                                      cod_empresa      

     

    note que no exemplo, tentei demonstrar que uma EMPRESA pode ter ou não filiais, a EMPRESA não depende de FILIAL para existir, note tb que o "cod_empresa" esta em FILIAL e foi o que a questão descreveu, tornando a acertiva correta.

                                                                  

     

  • Entidade fraca

    É aquela que não possuí atributos capazes de compôr sua chave primária.

    Está relacionadas com pelo menos uma entidade de identificação.

  • Entidade fraca

    É aquela que não possuí atributos capazes de compôr sua chave primária.

    Está relacionadas com pelo menos uma entidade de identificação.

    Entidade que depende de outras para existir.

  • A chave primária de uma entidade fraca é composta pela chave primária da entidade forte mais um atributo identificador da entidade fraca (chamado de chave parcial). Elas – em conjunto – identificam uma entidade fraca.

    Gabarito: Correto 

    Fonte: estratégia

  • Pensa assim:

    entidades fracas dependem de outras. Elas não fazem sentido se estiverem sozinhas no BD.

  • A chave primária de uma entidade fraca é composta pela chave primária da entidade forte mais um atributo identificador da entidade fraca (chamado de chave parcial). Elas – em conjunto –identificam uma entidade fraca.

    Fonte: Estratégia c.

    GAB: certa.

  • O termo entidade fraca deriva-se do fato de a entidade somente existir

    quando relacionada a outra entidade e de usar como parte de seu

    identificador, entidades relacionadas.

    Ramon souza

  • Que redação horrível! no entanto, está correto. O item descreve a Entidade Fraca que utiliza como atributo identificador a chave primaria da entidade a que se refere, visto que seus atributos não são suficientes para isso.

  • No modelo entidade-relacionamento, um tipo particular de entidade fraca ocorre quando um atributo identificador de uma entidade (da que tem a PK) inclui o atributo identificador da outra entidade (a entidade fraca passa a portar a PK identificadora, passando a ser chamado de FK).

  • Entidade fraca é igual o homem de ferro sem traje: nada. Total dependência!

  • CERTO

    Entidades Fracas: - Dependem de outras para existirem

    • Relacionamento dependente
    • Não faz sentido existirem sozinhas
    • Representada por um retângulo de linha dupla
  • Entidade Fraca: em geral elas são identificadas pela composição da chave primária da entidade forte com um discriminador da entidade fraca. (1:1) 

  • GAB C

    A título de conhecimento, de acordo com o professor Ramon Souza do estratégia, toda a entidade fraca possui chave estrangeira, mas nem toda a entidade que possui a chave estrangeira é fraca.

  • O termo entidade fraca deriva-se do fato de a entidade somente existir quando relacionada a outra entidade e de usar como parte de seu identificador, entidades relacionadas.

    Gabarito: Certo.


ID
1215112
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

No que diz respeito aos modelos hierárquico, relacional, de entidade-relacionamento e de modelagem orientada a objeto, julgue os itens a seguir.

Na construção de um modelo orientado a objetos, os identificadores exclusivos são atribuídos a cada objeto e a cada literal.

Alternativas
Comentários
  • Objetos são interligados por referências, tabelas são relacionadas através de chaves primárias e chaves estrangeiras. Um modelo relacional busca normalizar as informações, ou seja, eliminar ao máximo a redundância dos dados armazenados nas tabelas, enquanto um modelo OO busca criar objetos que representem o mundo real.

    Em geral, duas abordagens são empregadas para armazenar objetos em bancos relacionais: partir da modelagem OO e criar as tabelas para representar os objetos, ou partir de um modelo relacional e criar objetos para representar os processos. A primeira exige programação adicional para refletir as estruturas dos objetos em tabelas, uma situação em que a manutenção do código é complexa e cara. A segunda abordagem pode comprometer totalmente a modelagem da aplicação. Mesmo utilizando uma linguagem orientada a objeto, sua estrutura pode vir a ser muito próxima às antiquadas soluções cliente/servidor.


  • A questão está errada, pois os identificadores exclusivos em BD OO são atribuídos a objetos somente, e não a literais como colocado pela mesma!

    Segue boa referência (pag. 03): http://infocat.ucpel.tche.br/disc/mc/mcoo.pdf.

    "Em um sistema orientado a objetos, cada objeto possui um único identificador que é independente dos valores de seus atributos. A cada objeto, no momento de sua  criação é associado um objeto identificador, que será empregado para referenciá-lo ao  longo de sua existência. Uma vez criado o objeto, o identificador que lhe é associado  não será reutilizado para nenhum outro objeto do sistema. O identificador distingue cada um dos objetos dos demais. É único e invariante, assim não pode ser modificado em tempo algum ao longo da execução do sistema.

    Para cada identificador presente no sistema deve sempre haver um objeto que a ele corresponda. Os objetos identificadores são empregados em sistemas orientados a objetos para garantir a integridade referencial. Esta abordagem de designação dos objetos permite a distinção entre as noções de identidade e igualdade entre objetos. Assim dois objetos são idênticos se e somente se são o mesmo objeto. Dois objetos são iguais se seus estados são iguais."

    Espero ter ajudado!

  • "Objetos e literais são os blocos de construção básicos do modelo de objetos. A principal diferença entre os dois é
    que um objeto possui um identificador do objeto e um estado (ou valor atual), enquanto um literal possui somente
    um valor, mas não um identificador do objeto"

    Navathe 4ª edição

  • Hoje em dia, os bancos de dados orientados a objeto também possuem suporte ao armazenamento de valores comuns, chamados literais. No entanto, esses valores, diferentemente dos objetos, não possuem um identificador único (OID).

    Gabarito: E

  •  Hence, most OO database systems allow for the representation of both objects and literals (or values). Every object must have an immutable OID, whereas a literal value has no OID and its value just stands for itself. Thus, a literal value is typically stored within an object and cannot be referenced from other objects. In many systems, complex structured literal values can also be created without having a corresponding OID if needed.


ID
1215115
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Engenharia de Software
Assuntos

No que diz respeito aos modelos hierárquico, relacional, de entidade-relacionamento e de modelagem orientada a objeto, julgue os itens a seguir.

Na modelagem orientada a objetos, o conceito de herança permite que uma subclasse herde tanto operações quanto propriedades.

Alternativas
Comentários
  • Uma classe pode estender outra para adicionar ou modificar funcionalidades. A nova classe herda todos os métodos e atributos da classe original, também chamada superclasse. Esse recurso, que permite uma grande reutilização de código, é chamado herança.

    Se a assinatura de um método espera receber como parâmetro uma determinada classe, podemos passar uma classe filha, pois sabemos que a classe filha possui todos os atributos e métodos da classe original. Isto é chamado polimorfismo.



ID
1215118
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

No que diz respeito aos modelos hierárquico, relacional, de entidade-relacionamento e de modelagem orientada a objeto, julgue os itens a seguir.

Em um relacionamento pai-filho, no modelo hierárquico, registros do mesmo tipo do lado pai correspondem a um único registro do lado filho.

Alternativas
Comentários
  • Uma ocorrência do relacionamento ou tipo pai - filho consiste de um registro do tipo pai e um número qualquer (zero ou mais) do

    tipo filho.


    http://www.di.ufpe.br/~if559/slides/hierarquico.pdf

     
  • Modelo Hierárquico

    Definição:

    Coleção de registros conectados por meio de ligações

    • Cada registro é uma coleção de campos

    • Cada campo contêm um só valor

    • Cada ligação liga exatamente 2 registros


    Diagramas de estrutura de árvore:

    – Consiste de dois componentes básicos:

    • Caixas (tipos de registros)

    • Linhas (ligações)

    – Facilmente associado a um diagrama Entidade Relacionamento

    – Forma de árvore enraizada sem cíclos,

    – Cardinalidade 1:1 ou 1:n entre pai e filho


    Características do diagrama:

    • A flecha indica cardinalidade (1:n) entre pai e filho

    • cardinalidade 1:1 seria descrita por uma flecha de duas pontas

    • ** O relacionamento n:n é mais complicado!!


    Conclusão

    – Pode ser mapeado à partir de um diagrama ER

    – Não diferencia objeto de associação c/ atributo

    – Pode gerar redundância e incoerência

    – Modelo impõe restrições à descrição da realidade

    – Requer noções de estrutura de dados


    fonte: http://www.inf.ufpr.br/sunye/BD/cap2.pdf




  • Um registro pai cujo código, por exemplo, é 1 pode ter um ou mais filhos (dependentes) cujo código se for mais de 1 filho na tabela filhos seria 02 e 03, logicamente o registro 01 do lado pai pode ter vários registro do lado filho onde  02 (pk) Filho e  01 (FK) Pai e  03 (pk) Filho e 01 (Fk) Pai. Dessa forma, registros do lado PAI podem corresponder a 1 ou mais registros no Filho, porém o contrário não é verdade. Item falso.  

     

  • hierarquico: pai pode ter varios filhos

     

    e) O modelo hierárquico se assemelha a um organograma com um segmento raiz e um número qualquer de segmentos subordinados, podendo cada segmento filho ter mais de um segmento pai.

    Errada → rede

     a) Em bancos de dados orientados a objetos, busca-se agrupar os dados e os códigos que manipulam esses dados em vários elementos formando um grafo, e podendo, como uma extensão do modelo hierárquico, cada segmento pai ter mais de um segmento filho, e cada segmento filho ter mais de um segmento pai.

    Errada → rede

     

     

     b) No modelo em rede, representam-se os dados em um conjunto de árvores normalizadas, sendo possível modificar sua estrutura com facilidade, uma vez que não é preciso reconstruir o banco de dados.

    Errada → hierárquico

     

     

  • ERRADO!

     

    Um pai pode ter vários filhos

  • Leia com atenção! No modelo hierárquico, múltiplos registros do lado filho correspondem a um mesmo pai, mas nunca o contrário. Cada filho tem apenas um pai!

    Gabarito: E

  • Segundo Silberschatz, Korth e Sudarshan (2006, p. 18), “cada registro ‘filho’ pode ser ligado a mais de um registro ‘pai’, criando conexões bastante complexas”, logo, um filho pode ter mais de um pai, ampliando-se as possibilidades de relações. 


ID
1215121
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

No que diz respeito aos modelos hierárquico, relacional, de entidade-relacionamento e de modelagem orientada a objeto, julgue os itens a seguir.

No modelo relacional, sob o ponto de vista do usuário, a ordem em que as linhas estão armazenadas nas tabelas é insignificante.

Alternativas
Comentários
  • Insignificante não seria demais? Certamente, o usuário perceberia em desempenho, caso a ordem das linhas fosse ineficiente.

    O que acham?
  • Acho que é insignificante mesmo, pois a princípio, o usuário se preocupa somente com o que é mostrado, e não como é armazenado. Claro que desempenho é importante, mas sem entrar na questão desempenho, a questão está certa.



    bons estudos.

  • Senhores acho que está certo mesmo. Olhem o que achei no capítulo do Navathe sobre modelo de dados relacional.

    Lembrando que no modelo relacional, linha = tupla; cabeçalho de coluna=atributo; e; tabela=relação.


    Segundo Navathe(2011,p.41),"Ordenação de tuplas em uma relação: Uma relação é definida como um conjunto de tuplas. Matematicamente,os elementos de um conjunto NÃO possuem ordem entre eles; logo, as tuplas em uma relação não possuem nenhuma ordem em particular. Em outras palavras, uma relação não é sensível à ordenação das tuplas."


    Bibliografia:

    SISTEMAS DE BANCO DE DADOS-NAVATHE-6 EDIÇÃO 2011

  • De fato, a princípio marquei como incorreta a questão, mas pensando melhor a ordem das linhas nas tabelas do banco são insignificantes para o USUÁRIO, uma vez que o mesmo se encontra em outra camada de abstração - View.

  • Conjunto de tuplas é sem relação, sem ordenação definida, bagunçados de forma aleatória! 

  • CORRETO!

     

    Ordem das tuplas -> não importa

    Ordem do conteudo das tuplas -> importa

  • Outra questão que ajuda no entendimento.

    Q678071 Ano: 2016 Banca: CESPE Órgão: TCE-PA Prova: Auditor de Controle Externo - Área Informática - Analista de Sistema

     

    No modelo relacional de dados, uma relação é um conjunto de tuplas sem ordenação definida.

     

    certo

  • Gabarito: Certo.

    De fato, a ordenação em um modelo relacional não ocorre. Colocando um exemplo:

    Suponha que você possui uma tabela com diversos dados, tais como: Nome e CPF. O fato do CPF de uma pessoa qualquer, estar na primeira ou última linha, muda algo para o usuário? Não. A utilização do view colabora com isso, permitindo que o usuário filtre "o que deseja ver". Com isso, tanto faz em que linha a informação está, desde que o preenchimento dos dados esteja correto.

    Qualquer equívoco, mande mensagem.

    Bons estudos!

  • Gab: Correta

    A ordem das linhas não é relevante. A ordem das colunas é relevante, a não ser que a correspondência entre elas e seus valores seja mantida.

  • O fato é que, para o usuário, ou seja, quem usa a plataforma, não é necessário saber como ela foi feita, menos ainda se existe uma ordem ou não, pois o que interessa é a funcionalidade.

  • "sob o ponto de vista do usuário", pensei da seguinte forma. Quem é o usuário? seria o usuário SGBD? sim!!! então esta pessoa não faz nem ideia de como é dentro de um banco de dados, então pra este tanto faz a forma como estão organizadas as linhas, colunas, entidades... etc.... pois este é apenas um mero usuário.

  • A ordem das linhas não é relevante.

    A ordem das colunas é relevante, a não ser que a correspondência entre elas e seus valores seja mantida.

    GABARITO: CORRETO.

  • De fato, dentro do modelo relacional, a ordem das linhas não possui qualquer significância, porém, quanto à das colunas, estas possuem suma importância ao banco de dados.

  • ORDEM DAS LINHAS: NÃO IMPORTA

    ORDEM DAS COLUNAS: IMPORTA.


ID
1215124
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, acerca das linguagens de definição, manipulação, controle e transação de dados em sistemas gerenciadores de banco de dados relacionais.

A instrução abaixo apresenta erro de sintaxe e não será executada, uma vez que, quando o privilégio update estiver incluído em uma instrução grant , será informado um único atributo por vez.

grant update (orgao, data_distribuicao) on processo to pedro;

Alternativas
Comentários
  • O erro está no comando e no enunciado. Pode ser apontado mais de um atributo, mas no local certo:


    grant update on processo(orgao, data_distribuicao) to pedro;

  • A sintaxe está correta grant update (orgão, data_distribuicao) on processo to pedro, o erro está no comando da questão.



  • GRANT privileges ON database_object TO ( PUBLIC | user_list ) [ WITH GRANT OPTION ]
    

    Exemplos:

    GRANT CREATE TAB ON DATABASE TO  usuario; 

    GRANT INSERT, DELETE ON EMPREGADO, PROJETO TO usuario;

    GRANT SELECT ON EMPREGADO TO usuario;

    GRANT CONTROL ON INDEX ind-depTO usuario1, usuario2;

    GRANT ALL PRIVILEGES ON EMPREGADO TO usuario1;

    GRANT role1 TO usuario1;

  • Comentário da Susana Souza está errado e o do Pedro Pereira correto.

  • Também acho que o errado está em dizer que há erro de sintaxe no comando, quando não há erro. Visto que a sintaxe do comando está certa.


    Veja a documentação do Oracle:

    "Granting Column Privileges

    GRANT privilege_name (column_name) ON table_name TO schema_name; "


    Fonte: http://psoug.org/reference/object_privs.html

  • Segundo a ORACLE:

    GRANT priv_type [(column_list)] [, priv_type [(column_list)]] ...

    ON [object_type] priv_level

    TO user [auth_option] [, user [auth_option]] ...

    [REQUIRE {NONE | tls_option [[AND] tls_option] ...}]

    [WITH {GRANT OPTION | resource_option} ...]

    Fonte: https://docs.oracle.com/cd/E17952_01/mysql-5.6-en/grant.html

     

    Assim, ao meu ver, a sintaxe está enunciada corretamente.

     


ID
1215127
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, acerca das linguagens de definição, manipulação, controle e transação de dados em sistemas gerenciadores de banco de dados relacionais.

Os comandos commit e rollback são utilizados para finalizar uma transação.

Alternativas
Comentários
  • Correto: no sentido que se uma transação for "commitada" ela será finalizada com sucesso; se for feito o rollback, ela será finalizada sem sucesso!

    É isso!
  • Exato, Sérgio. A questão não diz se foi finalizada com ou sem sucesso. Nos dois casos ela é finalizada.

  • END TRANSACTION ?

  • GABARITO CORRETO!

    .

    .

    Os comandos DTL são responsáveis por gerenciar diferentes transações ocorridas dentro de um banco de dados. Ele é dividido em três comandos:

    BEGIN TRAN (OU BEGIN TRANSACTION) – Marca o começo de uma transação no banco da dados que pode ser completada ou não.

    COMMIT – Envia todos os dados da transação permanentemente para o banco de dados.

    ROLLBACK – Desfaz as alterações feitas na transação realizada.

  • Segundo C. J. Date

    Basicamente, uma transação começa quando uma operação BEGIN TRANSACTION é executada, e termina quando uma operação COMMIT ou ROLLBACK correspondente é executada.

    FONTE: Livro Introdução a Sistemas de Banco de Dados.

  • DTL (Data Transaction Language ou Linguagem de Transação de Dados). Comandos BEGIN TRAN (ou Begin Transaction), COMMIT e ROLLBACK.

        Os comandos DTL são responsáveis por gerenciar diferentes transações ocorridas dentro de um banco de dados. Ele é dividido em 3 comandos:

    • BEGIN TRAN (OU BEGIN TRANSACTION) – Marca o começo de uma transação no banco da dados que pode ser completada ou não.
    • COMMIT – Envia todos os dados da transação permanentemente para o banco de dados.
    • ROLLBACK – Desfaz as alterações feitas na transação realizada.

    Comandos como Insert, Update e Delete, são processos de transações de dados.


ID
1215130
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, acerca das linguagens de definição, manipulação, controle e transação de dados em sistemas gerenciadores de banco de dados relacionais.

No momento de criação de uma tabela, para se definir uma chave estrangeira, não é necessário informar a coluna referenciada.

Alternativas
Comentários
  • Ah entendi o peguinha.

    A ideia é que poder fazer futuramente um alter ftable

    FOREIGN KEY (perfil)

          REFERENCES perfil (id) MATCH SIMPLE

          ON UPDATE NO ACTION ON DELETE NO ACTION

    )

    WITH (


  • Estranho.


    Para mim a questão está errada.


    Fiz o teste abaixo da DDL abaixo, e o BD não permite criar uma FK sem refrenciar a coluna.


    Abaixo está o código correto:

    create table A(

      id int PRIMARY KEY

    );

    create table B(

       id int PRIMARY KEY,

       id_a int NOT NULL,

       CONSTRAINT fk_para_tabela_a FOREIGN KEY (id_a) REFERENCES A(id)

    );


    Porém, se eu retirar a coluna da tabela referenciada o comando não compila:


    create table B(

       id int PRIMARY KEY,

       id_a int NOT NULL,

       CONSTRAINT fk_para_tabela_a FOREIGN KEY (id_a) REFERENCES A

    );




  • Pra mim isso ai ta errado. No momento da criação da tabela temos que dizer qual a coluna referenciada.

  • Questão CERTA.

    Embora a tabela tenha que ser referencia na definição de uma chave estrangeira, a COLUNA referenciada é opcional segundo o ANSI SQL. Portanto, o item está correto pois não é necessário informar a coluna referenciada.


    Vejamos dois exemplos que são equivalentes.

    Exemplo 1 (coluna referenciada (no caso coluna ID da tabela CIDADE) foi informada mas é opcional):

    CREATE TABLE PESSOA (

        Id integer PRIMARY KEY,

        Nome text,

        Cidade_id integer,

        FOREIGN KEY (Cidade_id)

            REFERENCES CIDADE(Id)  /* coluna referenciada (no caso coluna ID da tabela CIDADE) foi informada mas é opcional */

    );


    Exemplo 2 (coluna referenciada pode ser omitida):

    CREATE TABLE PESSOA (

        Id integer PRIMARY KEY,

        Nome text,

        Cidade_id integer,

        FOREIGN KEY (Cidade_id)

            REFERENCES CIDADE  /* coluna referenciada pode ser omitida */

    );


    Fonte: Item 11.8 (referential constraint definition) do ANSI SQL-92:

    https://www.dropbox.com/s/oi382sokz32wzak/SQLANSI-CONSTRAINT.png?dl=0

    http://www.contrib.andrew.cmu.edu/~shadow/sql/sql1992.txt


    Embora a questão não diga nada sobre SGBD, é possível testar online o DDL no SQL LITE em http://www.compileonline.com/execute_sql_online.php:

    BEGIN TRANSACTION;

    CREATE TABLE CIDADE (

        Id integer PRIMARY KEY, 

        Nome text

    );


    INSERT INTO CIDADE VALUES(1, 'São José do Rio Preto');

    INSERT INTO CIDADE VALUES(2, 'Belo Horizonte');


    /* Cria a tabela PESSOA que tem uma chave estrangeira para tabela CIDADE */

    CREATE TABLE PESSOA (

        Id integer PRIMARY KEY, 

        Nome text, 

        Cidade_id integer, 

        FOREIGN KEY (Cidade_id) 

            REFERENCES CIDADE       /* De fato não é necessário informar a coluna referencida (coluna id da tabela CIDADE). Ou seja, não é necessário "REFERENCES CIDADE (id)". "REFERENCES CIDADE" já é suficiente. */

       

    );


    /* Cria alguns registros */

    INSERT INTO PESSOA VALUES(1, 'Maria', 1);

    INSERT INTO PESSOA VALUES(2, 'Jose', 2);

    COMMIT;


    /* Mostra os registros. */

    SELECT * FROM PESSOA;

  • Nesse caso ele considera a coluna (PRIMARY KEY) da tabela referenciada.

  • Bora tentar desvendar essa noi**a:

    Uma Chave Estrangeira em uma tabela é um campo que aponta para uma chave primária em outra tabela. Dessa forma é mantida a integridade referencial entre as tabelas relacionadas.

    Vamos a um exemplo:

    TABELA1 AUTORES

    CREATE TABLE tbl_autores (

     ID_Autor integer PRIMARY KEY,

     Nome text NOT NULL,

     Data_Nasc date,

    );

    TABELA2 LIVRO

    CREATE TABLE tbl_livros (

     ID_Livro integer PRIMARY KEY,

     Nome_Livro text NOT NULL,

     Data_Pub date,

     ID_Autor integer NOT NULL,

     CONSTRAINT fk_ID_Autor FOREIGN KEY (ID_Autor)

     REFERENCES tbl_autores(ID_Autor)

    );

    Neste exemplo, temos duas tabelas relacionadas por uma FK q está definida na parte em negrito(repare q a chave primária está em uma tabela de nome tbl_autores, e uma chave estrangeira de nome fk_ID_Autor foi criada na tabela atual (tbl_livros), usando a coluna de nome ID_Autor).

    Agora vem a bomba(a pergunta q não quer calar):

    A questão diz o seguinte: "No momento de criação de uma tabela(ou seja, no momento da criacao do SQL acima), para se definir uma chave estrangeira, não é necessário informar a coluna referenciada". Ou seja, de acordo com a questao, o codigo SQL da TABELA2 funcionaria de boas:

    CREATE TABLE tbl_livros (

     ID_Livro integer PRIMARY KEY,

     Nome_Livro text NOT NULL,

     Data_Pub date,

     ID_Autor integer NOT NULL,

     CONSTRAINT fk_ID_Autor FOREIGN KEY

    );

    Ou seja, a linha em negrito acima está criando uma FK, naõ sendo necessaŕio mais nada além disso, o q, a meu ver, está errado!!!

    Não consegui executar o codigo acima em nenhum banco(Mysql, Postgree, Oracle e SQL Server).

    Se alguem conseguiu, favor, poste aqui!!!

    OBS: e não tem esse negocio de peguinha, não! A questao é bem clara: No momento de criação de uma tabela!!!, Sr Mr Robot!!!

    Fonte:

    [1] http://www.bosontreinamentos.com.br/postgresql-banco-dados/constraints-no-postgresql-restricoes/

  • Essa banca é uma brincante!

  • Quando vc acha que está aprendendo sobre BANCO DE DADOS vem o Cespe e acaba com suas certezas. kkkkk

    Achei que quando criava uma chave estrangeira tinha que fazer referencia da chave primária na tabela.

    A chave primária de uma tabela virava chave estrangeria em outra tabela.


ID
1215133
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, acerca das linguagens de definição, manipulação, controle e transação de dados em sistemas gerenciadores de banco de dados relacionais.

Um único comando update permite que várias tuplas sejam alteradas, porém apenas um atributo pode ser mencionado na cláusula set.

Alternativas
Comentários
  • O comando set pode selecionar mais de um atributo, e não apenas um por vez.


    Regras

    O comando UPDATE selecionado atualiza uma ou mais linhas de uma tabela selecionadas pela condição da cláusula WHERE. Se esta condição não for especificada, todas as linhas da tabelas serão modificadas.

    A tabela deve ser atualizável e não pode aparecer em nenhuma cláusula FROM de qualquer subconsulta presente na cláusula WHERE.

    A avaliação das expressões é feita antes da alteração do valor de qualquer coluna da linha. As expressões de atribuição não devem conter funções. Cada coluna só deve aparecer uma única vez na cláusula SET.

    Um valor nulo só será atribuído a uma coluna se sua definição assim o permitir. Caso contrário, nenhuma linha será atualizada e o parâmetro SQLCODE indicará o erro.

    Se o tipo de um valor a ser atualizado for cadeia de caracteres de tamanho menor que a coluna da tabela, o valor será completado com caracteres brancos. Se for de tamanho maior, nenhuma linha será atualizada e o parâmetro SQLCODE indicará o erro. O mesmo acontece se o tipo da coluna for numérico exato e não houver uma representação do valor a ser atualizado sem que haja perda de dígitos significativos de sua parte inteira.

    Se o tipo de uma coluna é DATETIME de precisão diferente da precisão do valor correspondente, então os campos excedentes são truncados ou os campos adicionais são iniciados com o valor 1 para os campos mês e dia e com o valor 0 para os campos hora, minuto e segundo.

    Veja também Tabela, Cláusula WHERE , Expressão e SQLCODE.

    Exemplos

    A atualização a seguir aumenta em 20 por cento o crédito de todos os clientes da tabela.

     UPDATE clientes
     SET crédito = crédito * 1.2

    A próxima atualização remaneja os vendedores do escritório 023 para o escritório 123, atualizando, também, o nome do gerente.

     UPDATE vendedores
     SET gerente = ‘João Marinho’, escritório = 123
     WHERE escritório = 023

    http://www.openbase.com.br/openbdoc/html-pb/tsql/sql1p39.htm

  • Sintaxe update

    UPDATE table_name
    SET column1=value1,column2=value2,...
    WHERE some_column=some_value;

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: ERRADO

     

    pode ser referenciada varias cláusulas no comento SET

     

    UPDATE table_name
    SET column1=value1,column2=value2,...
    WHERE some_column=some_value;


ID
1215136
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, acerca das linguagens de definição, manipulação, controle e transação de dados em sistemas gerenciadores de banco de dados relacionais.

De acordo com o padrão SQL, é permitido realizar, de forma limitada, consultas recursivas.

Alternativas
Comentários
  • SQL20450N

    Limite recursivo excedido em uma consulta de hierarquia.

    Explicação

    As consultas hierárquicas utilizando a cláusula CONNECT BY são limitadas a uma profundidade recursiva de 64 níveis. A consulta excedeu este nível.

    Resposta do Usuário

    Valide a correção das cláusulas START WITH e CONNECT BY. Se as recursões forem mais profundas que os 64 níveis esperados, reescreva a consulta utilizando uma expressão da tabela comum recursiva. Expressões de tabelas comuns recursivas suportam a profundidade recursiva arbitrária.

    sqlcode: -20450

    sqlstate: 54066

    http://www-01.ibm.com/support/knowledgecenter/SSEPGG_9.7.0/com.ibm.db2.luw.messages.sql.doc/doc/msql20450n.html?cp=SSEPGG_9.7.0%2F2-6-27-19-319&lang=pt-br

  • Lembrando que esse valor pode ser manipulado ou até mesmo zerado para permitir recursividade infinita.


    http://msdn.microsoft.com/pt-br/library/ms175972.aspx


    Bons estudos.

  • Para quem não entende os comentários sem o gabarito como eu e não tem acesso a resposta.

    Gaba: CERTO

  • A conversão de dados com ferramenta Rolap, em banco de dados relacional, permite consultas com SQL, mas estas consultas não suprem todas as necessidades do usuário. Não são capazes de realizar conversões ilimitadas.

    Portanto, sim, o padrão SQL permite consultas limitadas.

    Fonte: Resumos de PDF - Estratégia concursos


ID
1215139
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens seguintes, referentes a ferramentas CASE e à normalização de dados.

Na passagem para a terceira forma normal (3FN), por se tratar de uma dependência transitiva na qual as colunas não-chaves dependem de outras colunas não-chaves, será criada uma nova entidade sem a presença de chave primária.

Alternativas
Comentários
  • Em outras palavras, deve-se evitar que qualquer atributo não-chave seja dependente funcional de outro atributo não-chave.


    Acho que a parte errada é só o final da questão

  • Por mais que uma nova entidade seja criada ela possuirá uma chave primária, por isso a questão está errada.

  • "por se tratar de uma dependência transitiva na qual as colunas não-chaves dependem de outras colunas não-chaves, será criada uma nova entidade sem a presença de chave primária" não seria esta uma operação de passagem para a 2FN?

  • A nova entidade(relaca ou tabela) criada necessariamente terá uma chave primaria.

    Questao Errada.

    FFF

  • A 3FN diz, em termos gerais, que um atributo de uma relação R não pode ser transitivamente dependente de uma chave, ou seja, A -> B -> C, onde B é um atributo não chave e determinante de C. Para normalizar uma tabela nesta situação faz-se a decomposição em duas outras tabelas contendo a chave e somente um dos atributos não chave: TB1 A->B, TB2 A->C.

  • Teoricamente, todas as tabelas possuem PK!!!!

  • Minha leitura da questão foi essa:

    Na passagem para a terceira forma normal (3FN), por se tratar de uma dependência transitiva na qual as colunas não-chaves dependem de outras colunas não-chaves, será criada uma nova entidade sem a presença DA chave primária.


    Enfim, errei.

  • Na passagem para a terceira forma normal (3FN), por se tratar de uma dependência transitiva na qual as colunas não-chaves dependem de outras colunas não-chaves, será criada uma nova entidade COM a presença de chave primária.

  • Gabarito: Errado.

    3FN não permite que existam dependências funcionais transitivas. Diante disso, os atributos vão depender, exclusivamente, da PK.

    Ademais, dependências funcionais fazem menção a 2FN.

    Bons estudos!

  • Todas as Formas Normais precisam da PK!


ID
1215142
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens seguintes, referentes a ferramentas CASE e à normalização de dados.

A normalização de documentos e arquivos é o método mais recomendado para a obtenção de modelos de dados, uma vez que, por meio da aplicação das formas normais, é possível identificar e resolver os problemas de redundância.

Alternativas
Comentários
  • A normalização de DADOS é o método mais recomendado para a obtenção de modelos de dados, uma vez que, por meio da aplicação das formas normais, é possível identificar e resolver os problemas de redundância.

  • nossa...q triste essa questão

  • Raphael Lacerda, essa prova inteira está triste!

  • Acho que o CESPE está adotando o estilo FCC de fazer questões de TI. Tipo de questão que não mede conhecimento algum.

  • afffff

  • É muita baixaria trocar apenas uma palavra por outra.

  • Que M*** de questão.


ID
1215145
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca dos sistemas gerenciadores de banco de dados InterSystems Cache, PostgreSQL, MySQL e Oracle, julgue os itens subsequentes.

Para se criar um DataBase link no Oracle 10.2, se o valor do parâmetro global_names for true, o nome do link deverá ser igual ao nome do banco ao qual se deseja conectar.

Alternativas
Comentários
  • Um dblink é um objeto criado em um esquema que possibilita o acesso a objetos de outro banco de dados, Oracle ou não. Esse tipo de sistema é conhecido como Sistema de Banco de Bados Distribuídos e pode ser Homogêneo, quando acessa outros bancos oracle, e Heterogêneo, quando acessa outros bancos.

    Para a criação de um dblink:

    - O usuário que irá criar o database link precisa ter o privilégio de sistema CREATE DATABASE LINK (para database links privados) ou CREATE PUBLIC DATABASE LINK (para públicos), além do privilégio de sistema CREATE SESSION no banco de dados remoto;- A ferramenta Oracle Net precisa estar instalada tanto para o banco de dados local quanto para o remoto;- O valor da variável GLOBAL_NAMES na instância onde o database link será criado, se configurada no arquivo de inicialização ou na sessão corrente do banco de dados como TRUE, deve ser o nome global do banco de dados remoto. 


ID
1215148
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca dos sistemas gerenciadores de banco de dados InterSystems Cache, PostgreSQL, MySQL e Oracle, julgue os itens subsequentes.

Caso a instrução abaixo seja executada no PostgreSQL 9.3, ela retornará o espaço em disco utilizado pela tabela processo, desconsiderando-se o espaço utilizado pelos seus índices.

SELECT pg_table_size('processo');

Alternativas
Comentários
  • É... tópicos avançados de adm PosteSQL 9.3!!!

    pg_table_size(regclass)Disk space used by the specified table, excluding indexes (but including TOAST, free space map, and visibility map);
    Ref: http://www.postgresql.org/docs/9.1/static/functions-admin.html
  • Pode ser executada sem o FROM?

  • Quem não tem acesso:  - -> CERTO

  • tópicos avançados não, tópicos sem noção isso sim, não tem só postgre no edital não... tudo bem que é prova para cargo em BD, mas ainda assim é sem noção cobrar uma decoreba dessa...


ID
1215151
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca dos sistemas gerenciadores de banco de dados InterSystems Cache, PostgreSQL, MySQL e Oracle, julgue os itens subsequentes.

O MySQL 5.7 armazena na variável de ambiente mysql_tmp_dir o diretório no qual contém os arquivos temporários gerados pelos sistema.

Alternativas
Comentários
  • http://dev.mysql.com/doc/refman/5.0/en/temporary-files.html

  • Pelo que entendi, não se armazena diretório em variável. A opção tmpdir define qual a pasta de arquivos temporários do MySQL, sendo o padrão a pasta temp presente no diretório de instalação. 


    http://www.adielcristo.com/blog/pt/categorias/plataformas/web/mysql/

  • O erro está no nome da variável que indica onde serão armazenados os arquivos temporários: não é mysql_tmp_dir e sim tmpdir, que deve ser setado no arquivo my.ini na intalação do MySQL. Ver:basedir = local de instalação
    datadir = local onde os dados serão armazenados
    tmpdir = local onde os arquivos temporários gerados pelo MySQL ficarão localizados
    port = 3306 // em que porta o serviço do MySQL ficará disponibilizado.
    Bons estudos!


ID
1215154
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens a seguir, acerca de modelagem multidimensional, DataWarehouse e DataMarts.

Em corporações que possuem diversos departamentos, a implementação de DataMarts facilita a disseminação das informações por todos os departamentos

Alternativas
Comentários
  • acho que a parte é errada é afirmar que datamart seria para todos os departamentos. DataMArt é específico de um departamento. DW seria o correto

     

     

     

    Ano: 2014Banca: FUNCABÓrgão: MDAProva: Analista de Bussiness Inteligence

    No que diz respeito ao Data Warehouse, uma arquitetura é a preferida dos fornecedores de software para consulta de informações do DW, pois é isolada e implica em Data Marts stand alone controlados por um grupo de usuários e que atende somente às suas necessidades específicas e departamentais, sem foco corporativo nenhum. Os dados, por exemplo, são extraídos dos sistemas operacionais pela geração interna do departamento, com auxílio da área ou departamento deTI. 

    Como é denominada a arquitetura descrita?
      a) Global
      b) Integrada
      c) Centralizada
      d) De Data Marts integrados
      e) De Data Mart independente

  • Raphael, acho que a sua resposta está correta.


    Numa visão comparativa dos dados, onde consideramos os requisitos escopointegração, tempo, agregação, análise e dados voláteis, percebemos que a diferença está no escopo, pois enquanto o DW é feito para atender uma empresa como um todo, o data mart é criado para atender um sub-conjunto da empresa. Repare que atender um sub-conjunto da empresa pode significar reunir dados de outros setores, já que, na prática, raramente um único setor possui ou gera toda informação que precisa. Vem dessa observação a defesa da tese de que o Data mart é construído após o DW.

    fonte: http://pt.wikipedia.org/wiki/Data_mart


    Bons estudos.

  • Um datamart não é idealizado para disseminação das informações por todos os departamentos, o objetivo dele é muito diferente disse.
    Um datamart é construído com o objetivo de concentrar informações sobre uma área específica, seja uma cidade, seja uma seção, mas para que essas informações sejam usadas para objetivos maiores na empresa, para a concentração de informações com outros datamarts, tudo convergindo para um datawarehouse e assim podendo auxiliar nas decisões da alta gerência da empresa.

  • ERRADO.

    Segundo Navathe(2011,p.722),"Data marts em geral são voltados para um subconjunto da organização, como um departamento, e possuem um foco mais estreito."


    **Como a questão menciona diversos departamentos, o ideal seria  um Data Warehouse em nível empresarial.


    Bibliografia:

    SISTEMAS DE BANCO DE DADOS-NAVATHE-6 EDIÇÃO 2011.



  • A pergunta que faço é a seguinte:

    Data Mart são DW departamentais, ou seja, uma parte de um DW. Se é uma parte do DW então de certa forma vai contribuir para a disseminação das informações por todos os departamentos. Tudo bem que um Data Marte não se comunica com outro Data Marte, porem pode ser fruto da mesma base de dados, do mesmo DW, com isso com essa visão essa questão mereceria um recurso!! É clara a intenção do examinador com essa pergunta, porem não concordo que nesse contexto seja uma verdade absoluta!

  • Errado

    Datamart = Departamentalizado.

  • Fonte: vozes na minha cabeça
  • Em corporações que possuem diversos departamentos, a implementação de Data Warehouse em nível empresarial facilita a disseminação das informações por todos os departamentos

  • - Um DATA WAREHOUSE é um BANCO DE DADOS MULTIDIMENSIONAL GRANDE, de escopo organizacional (ou seja, abrange toda a empresa) e reúne DADOS DE TODOS OS DEPARTAMENTOS de forma a permitir a BUSCA RÁPIDA de informações para AUXILIAR a TOMADA DE DECISOES ESTRATÉGICAS;

    - Um DATA MART é um BANCO DE DADOS MULTIDIMENSIONAL DE ESCOPO DEPARTAMENTAL, ou seja, abrange APENAS UM DETERMINADO DEPARTAMENTO

  • ERRADO

    Enquanto o Data Mart trata de um problema departamental ou local, um (Data Warehouse) envolve o esforço de toda a empresa para que o suporte a decisões atue em todos os níveis da organização. Sabendo-se as diferenças entre escopo e tamanho, o desenvolvimento de um (Data Warehouse) requer tempodados e investimentos gerenciais muito maiores que um (Data Mart).


ID
1215157
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens a seguir, acerca de modelagem multidimensional, DataWarehouse e DataMarts.

A captura de dados baseada na técnica Timestamp é inadequada para capturar estados intermediários, nas situações em que os dados operacionais são transientes.

Alternativas
Comentários
  • Não se trata de técnica, é um protocolo. Serve para que o sistema de banco de dados faça o controle da execução quando existem transações que estão concorrendo entre si, para garantir a consistência do banco de dados. Podemos considerar isso como sendo um controle de concorrência.


  • Apesar do artigo do Pedro Paulo indicar que timestamp é um protocolo, vejo como uma técnica ou algoritmo.


    Protocolo de timestamp está relacionado ao TCP: http://en.wikipedia.org/wiki/Time_stamp_protocol

    Existe um algoritmo para esta questão: http://en.wikipedia.org/wiki/Timestamp-based_concurrency_control

    A questão se refere ao fato que timestamp apenas indica qual dado é mais novo. Assim, se um dado passar de A (08:00) para B(08:03), o algoritmo sabe que B é mais novo. Se próximo dado for C (08:01), o A se perdeu.

  • Um modo de prevenir deadlocks, é utilizar o conceito de registro de timestamp da transação, normalmente são baseados na ordem em que as transações são iniciadas. Portanto, se a transação T1 inicia antes da transação T2, então T1 terá o menor valor de registro de timestamp.

  • No timestamp, você captura um dado e associa à um rótulo de tempo quando ocorre o commit. Como os dados do ambiente operacional variam muito, pode ocorrer deles variarem bastante entre 2 commits, ou seja, essa variação intermediária é perdida, sendo inadequado o uso de timestamps.

  • Gabarito: Certo.

    É como se cada transação do banco de dados recebesse um "carimbo" com o horário de quando aconteceu. Como os dados são transientes, o dado vai ser perdido quando a transação acabar. Em função disso, o timestamp não é muito adequado.

    Caso esteja equivocado, mandem mensagem.

    Deixo, como contribuição, um artigo do DevMedia que fala um pouco sobre o controle de concorrência por meio do timestamp: https://www.devmedia.com.br/protocolo-com-base-em-timestamp-controle-de-concorrencia-em-bancos-de-dados/27810.

    Bons estudos!

  • Acrescentando:

    As principais técnicas de controle de concorrência são:

    • bloqueio (locking);
    • ordenamento de registro de timestamp;
    • multiversão;
    • validação ou certificação (protocolos otimistas). 

    Com registros de timestamp, pode ocorrer starvation(Starvation é quando um processo não consegue ser executado) se uma transação for continuamente abortada e reiniciada.

    O algoritmo básico pode provocar rollback em cascata.

    Logo, para dados transitórios, não é viável o uso dessa tecnica, sendo que continuamente os dados terão seu tempo esgotado e logo em seguida serão adicionados outros.

    Um registro de timestamp (TS) é um identificador único criado pelo SGBD para identificar uma transação. Os registros são gerados por um contador incremental ou utilizam o valor corrente do relógio do sistema (data/hora/minuto/segundo/milissegundo).


ID
1215160
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens a seguir, acerca de modelagem multidimensional, DataWarehouse e DataMarts.

Para garantir a eficiência na consulta aos dados modelados, realizada pelo modelo estrela, tanto as tabelas fato quanto as tabelas dimensão devem estar normalizadas.

Alternativas
Comentários
  • Esse modelo prega justamente pela desnormalização

  • Modelo Estrela = Este modelo é chamado de estrela porque a tabela de fatos fica ao centro cercada das tabelas dimensionais assemelhado a uma estrela. Mas o ponto forte a fixar é que as dimensões não são normalizadas.
    Modelo Floco de Neve = No modelo Floco existem tabelas de dimensões auxiliares que normalizam as tabelas de dimensões principais.

  • Complemento nas palavras de Navathe. É o esquema snowflake (floco de neve) que é normalizado.

    Segundo Navathe(2011,p.725),"O esquema floco de neve é uma variação do esquema estrela em que as tabelas dimensões de um esquema estrela são organizadas em uma hierarquia ao normalizá-las."


    SISTEMAS DE BANCO DE DADOS-NAVATHE-6 EDIÇÃO 2011.

  • Modelo Estrela: tabelas não normalizadas, menor quantidade de tabelas, menor espaço em disco e maior eficiência, pois há uma menor de quantidade de tabelas a se navegar na filtragem de dados.

    Modelo Flocos de Neve: tabelas normalizadas, maior quantidade de tabelas, maior espaço em disco e menor eficiência, pois há uma maior quantidade de tabelas a se navegar na filtragem de dados.

  • O erro desta questão está neste trecho da assertiva: "tanto as tabelas fato quanto as tabelas dimensão devem estar normalizadas".

    Os esquemas estrela e flocos de neve possuem em comum que a a tabela fato NÃO é normalizada.

    No que tange às tabelas dimensão:

    Esquema estrela - tabelas dimensão NÃO são normalizadas

    Esquema flocos de neve - tabelas dimensão SÃO normalizadas

  • Complementando os comentários:

    1.Star Schema (Estrela):Mais popular, mais rápido, com uma tabela por dimensão. É menos flexível e desperdiça espaço, pois repete as mesmas descrições ao longo de toda a tabela. Possui uma tabela de fato e várias tabelas para cada dimensão, e propõe uma visão com a presença de dados redundantes nas tabelas de dimensão.

    ·Normalização: Não normaliza as dimensões.

    ·​Espaço de armazenamento: Alto, pois por não haver normalização das tabelas, há muitos registros duplicados.

    ·​Integridade: Mais propensa a problemas de integridade dos dados, devido a duplicação, dificultando futuras modificações e manutenções.

    ·​Complexidade de query: Menos tabelas. Não há necessidade de relacionar muitas tabelas diferentes, logo a consulta é mais fácil.

    ·​Utilização: Data mart, pois o espaço de armazenamento exigido é pequeno e busca-se facilidade nas consultas de query.

    2. Snow flake Schema (Floco de Neve):Variação do modelo estrela. Ele reduz o espaço de armazenamento, mais flexível, porém mais lento. Apresenta o resultado da decomposição de uma ou mais dimensões que possuem hierarquias entre seus membros.

    ·Normalização:Tabelas de dimensão são normalizadas.

    ·​Espaço de armazenamento:Reduzido, pois a normalização reduz a quantidade de registros redundantes.

    ·​Integridade:Maior facilidade para realizar futuras modificações e manutenções, pois há pouca redundância de dados.

    ·​Complexidade de query:Por haver mais tabelas as consultas são maiores e mais complexas.

    ·​Utilização:Data warehouse, pois dessa forma é possível economizar muito espaço de armazenamento.

    Fonte: colegas do QC

  • Gabarito: errado

    Modelo estrela = não normalizado , redundante e generalizado.

    Modelo flocos de neve= normalizado, não redundante e especializado.

  • Esquema multidimensional em estrela: Todas as tabelas de dimensões se relacionam diretamente com tabelas de fato. Ou seja, uma tabela de dimensão não se relaciona com outra tabela de dimensão.

    • não permite normalização
    • aumenta a performance, mas não otimiza espaço em disco.

ID
1215163
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens a seguir, acerca de modelagem multidimensional, DataWarehouse e DataMarts.

O modelo conhecido como SnowFlake Chain é contraindicado para situações em que as pesquisas requerem diversos níveis de sumarização da informação.

Alternativas
Comentários
  • Nesse caso é melhor usar o estrela, pois concentra a sumarização na tabela fato

  • Entrei de onde a questão foi copiada: 

    "Modelo Snowflake Chain

    Este modelo encadeia as tabelas de dimensões começando com a tabela principal, que é o ponto de entrada para a tabela fato. A tabela principal da dimensão contém a chave para o próximo nível da hierarquia da dimensão e assim por diante. Na Figura 16, a normalização da dimensão “Produtos” em diversos níveis é um exemplo deste modelo. Note que a tabela de fatos possui indicação do nível mais baixo na hierarquia, referenciando a dimensão “Produtos”, e então as tabelas de dimensões “Modelos” e “Fabricantes” percorrem os níveis mais altos.

    A recomendação de uso deste modelo ocorre quando o nível de detalhe mais baixo está armazenado na tabela de fatos. A contra-indicação, por sua vez, é para os casos em que a pesquisa requer vários níveis de sumarização da informação, já que são necessários vários passos para recuperar as informações. A fim de melhorar o desempenho, uma sugestão é desnormalizar a cadeia, inserindo as chaves de níveis mais altos nos níveis mais baixos."

    Fonte: http://msdn.microsoft.com/pt-br/library/cc518031.aspx

  • Modelo Estrela:tabelas não normalizadasmenor quantidade de tabelasmenor espaço em disco e maior eficiência, pois há uma menor de quantidade de tabelas a se navegar na filtragem de dados.
    Modelo Flocos de Neve: tabelas normalizadasmaior quantidade de tabelasmaior espaço em disco e menor eficiência, pois há uma maior quantidade de tabelas a se navegar na filtragem de dados.

    Ao se desejar um maior nível se sumarização, a eficiência, nestes casos, é menor que no modelo em estrela. Portanto, a afirmação é correta.
  • E esse verbo ai, tá conjugado direito?

  • Gabarito: Certo.

    Sumarização de dados está ligada à ideia de aumento de eficiência. Por isso, com menos tabelas, por não haver normalização, a eficiência é elevada. Assim, a utilização do modelo em estrela torna-se mais factível quando comparado com o modelo snowflake.

    Caso meu comentário esteja equivocado, mandem mensagem.

    Bons estudos!

  • Sumarização: consiste na capacidade de descrever dados de forma compacta e inteligível, com isso o modelo estrela seria o mais viável uma vez que esse modelo possui menor espaço em disco, menos tabelas e maior desempenho...

  • CERTO

    Por quê?

    Menor sumarização= menor número de "detalhes"

    Quanto menor o número de detalhes, maior será o desempenho.

    Portanto, características do modelo Estrela.


ID
1215166
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os próximos itens, com relação a DataMining e ETL.

O uso de agrupamento (clustering) em DataMining exige que os registros sejam previamente categorizados, tendo por finalidade aproximar registros similares para predizer valores de variáveis.

Alternativas
Comentários
  • Agrupamento (Clustering)

    A tarefa de agrupamento visa identificar e aproximar os registros similares. Um agrupamento (ou cluster ) é uma coleção de registros similares entre si, porém diferentes dos outros registros nos demais agrupamentos. Esta tarefa difere da classificação pois não necessita que os registros sejam previamente categorizados (aprendizado não-supervisionado). Além disso, ela não tem a pretensão de classificar, estimar ou predizer o valor de uma variável, ela apenas identifica os grupos de dados similares


    Fonte: http://www.inf.ufg.br/sites/default/files/uploads/relatorios-tecnicos/RT-INF_001-09.pdf

  • O correto seria:


    O uso de agrupamento (clustering) em DataMining não exige que os registros sejam previamente categorizados, tendo por finalidade aproximar registros similares sem ter que predizer valores de variáveis.

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: ERRADO

     

     

    Agrupamento (Clustering)

    A tarefa de agrupamento visa identificar e aproximar os registros similares. Um agrupamento (ou cluster ) é uma coleção de registros similares entre si, porém diferentes dos outros registros nos demais agrupamentos. Esta tarefa difere da classificação pois não necessita que os registros sejam previamente categorizados (aprendizado não-supervisionado). Além disso, ela não tem a pretensão de classificar, estimar ou predizer o valor de uma variável, ela apenas identifica os grupos de dados similares

     

     

    Fonte: http://www.inf.ufg.br/sites/default/files/uploads/relatorios-tecnicos/RT-INF_001-09.pdf

  • esse é o conceito de CLASSIFICAÇÃO!!!

    Nela, você estabelece um modelo com base nos seus dados já classificados para classificar aqueles que ainda não foram (preditiva - supervisionada).

     

    No agrupamento há apenas a separação de dados constantes no seu banco (descritivo - não supervisionada). O objetivo não é classificar novas informações!!!

     

    Portanto, ERRADO

  • Trata-se de método não supervisionado (não existe rotulação dos dados)

  • CLUSTERING (AGRUPAMENTO)

     

    *Identifica agrupamento de objetos

     

    *Aprendizado não supervisionado

     

    *Não necessita que registors sejam categorizados

    OBS: essa característica o diferencia de classificação

     

     

    GAB: ERRADO

  • Pelo contrário! Os registros na clusterização não possuem rótulos ou etiquetas prévias, os algoritmos geram os conjuntos a partir da similaridade entre os elementos, sendo esse um exemplo de aprendizado de máquina não supervisionado. A descrição da assertiva, na verdade, se amolda à classificação.

  • Essa é a classificação e não agrupamento.

  • Gabarito: errado

    Análise de Agrupamentos é utilizado quando nenhum grupo foi definido e nenhum registro foi previamente categorizado – a questão trata da Classificação.

    Questões sobre o clustering:

    CESPE / CEBRASPE - 2013) Em se tratando de mineração de dados, a técnica de agrupamento (clustering) permite a descoberta de dados por faixa de valores, por meio do exame de alguns atributos das entidades envolvidas. Certo

    (CESPE / CEBRASPE - 2021) No método de mineração de dados por agrupamento (clustering), são utilizados algoritmos com heurísticas para fins de descoberta de agregações naturais entre objetos. (certo)

     (CESPE / CEBRASPE - 2013) Em algoritmos de clusterização hierárquica, os clusters são formados gradativamente por meio de aglomerações ou divisões de elementos, gerando uma hierarquia de clusters. Certo

     (CESPE / CEBRASPE - 2011) Um dos métodos de classificação do datamining é o de análise de agrupamento (cluster), por meio do qual são determinadas características sequenciais utilizando-se dados que dependem do tempo, ou seja, extraindo-se e registrando-se desvios e tendências no tempo. (errado)

  • Classificação -> exigem dados pré-definidos (SUPERVISIONADO)

    Agrupamento -> NÃO exigem dados pré-definidos (NÃO SUPERVISIONADO)

    Questão semelhante:

    (CESPE / TCU – 2007) No datamining, o agrupamento e a classificação funcionam de maneira

    similar: o agrupamento reconhece os padrões que descrevem o grupo ao qual um item pertence,

    examinando os itens existentes; a classificação é aplicada quando nenhum grupo foi ainda

    definido.

    Comentários:

    A questão inverteu os conceitos de agrupamento e classificação.

  • Classificação - Supervisionado

    Clusterização - Não supervisionado

  • Classificação: envolve descrever os dados em função de algumas classes predeterminadas. É utilizado um conjunto de treinamento e envolve aprendizado supervisionado. Exemplo de algoritmo: SVM, árvores de decisão, classificação de risco

    Agrupamentos/aglomerações (clusterização): é um exemplo de aprendizado não supervisionado. O sistema trabalha sem auxíliosEnvolve a divisão dos dados em grupos semelhantes entre si e diferentes dos demais. Exemplo de algoritmo: K-Means. 

    Recentemente, em 2020, foi cobrada a diferença entre K-means, K-medoids e Fuzzy k-médias, fiquem de olho.

  • Pelo contrário! Os registros na clusterização não possuem rótulos ou etiquetas prévias, os algoritmos geram os conjuntos a partir da similaridade entre os elementos, sendo esse um exemplo de aprendizado de máquina não supervisionado. A descrição da assertiva, na verdade, se amolda à classificação.

    Arthur Mendonça | Direção Concursos

    05/12/2019 às 18:43

  • Agrupamento :  Particiona dados em segmentos desconhecidos com características semelhantes

    • CLUSTER: NAO SUPERVISIONADO
  • ERRADO

    Agrupamento: não supervisionado. à os dados se ligam por semelhança, aproximação. Busca-se descobrir diferentes agrupamentos de dados com registros similares entre si e diferentes dos outros registros.

    Classificação: supervisionado.

    Suporte / Prevalência: Trata-se da frequência com que um conjunto de itens específico ocorre no banco de dados, isto é, o percentual de transações que contém todos os itens em um conjunto (Ex: 50% das compras realizadas em um mercado contém arroz e refrigerante).

    Confiança / Força: Trata-se da probabilidade de que exista uma relação entre itens (Ex: 70% dos clientes que compram fraldas também compram cerveja).

  • Clustering: permite segmentar automaticamente dados em grupos, de acordo com a similaridade. Cluster superestima a semelhança entre os grupos e não trata os pontos de dados como indivíduos. Por esse motivo, Clustering é inadequado para dividir grupos de clientes

  • Mesma história em 2020:

    CESPE 2020 - A técnica de agregação na mineração de dados atua em conjunto de registros que tenham sido previamente classificados. ERRADO

  • ERRADO

    • A técnica de Agrupamento NÃO possui classes/categorias previamente definidas, além de Não possuir característica Preditiva.
    • Essa característica é da técnica de Classificação.
    • Classificação: Envolve descrever os dados em função de algumas classes predeterminadas. É utilizado um conjunto de treinamento e envolve aprendizado supervisionado. Supervisionado justamente porque o ser humano precisa fornecer alguns exemplos para que o aprendizado possa ocorrer.

    • Análise de agrupamentos (clusterização): É um exemplo de aprendizado não supervisionado. Envolve a divisão dos dados em grupos semelhantes entre si e diferentes dos demais. 

  • Descritiva: Associação, agrupamento ou clustering

    Preditiva: Classificação ou Regressão, servem para predizer valores futuros.

  • Errado.

    A questão trouxe o conceito da técnica de classificação.

    A técnica de agrupamento é não-supervisionada, ou seja, quando não há uma classe associada.

    Já a técnica de classificação é supervisionada, ou seja, você apresenta ao algoritmo alguns conjuntos de padrões de ENTRADA e seus correspondentes de SAÍDA, comparando-se à resposta fornecida pelo algoritmo com a resposta apresentada.

    Uma questão bem recente da PF serve para responder essa:

    (2021/PF) A análise de clustering é uma tarefa que consiste em agrupar um conjunto de objetos de tal forma que estes, juntos no mesmo grupo, sejam mais semelhantes entre si que em outros grupos. CERTO 

    (2018/FCC)Dentre os algoritmos utilizados em data mining, há um algoritmo que visa o estabelecimento de categorias, a partir do conjunto de dados, bem como a distribuição dos dados nas categorias estabelecidas. Essa descrição corresponde aos algoritmos de A) Classificação

  • As tarefas de mineração de dados são de natureza PREDITIVA ou DESCRITIVA:

    • PREDITIVAS (SUPERVISIONADAS): Usa algumas variáveis para prever valores desconhecidos ou futuros de outras variáveis;

    EX.: Classificação e Regressão.

    • DESCRITIVAS (NÃO SUPERVISIONADAS): Padrões para descrever os dados

    EX.: Agrupamento (Clustering) e Regras de Associação.

    FONTE: Material Estúdio Aulas, prof. Léo Matos.


ID
1215169
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os próximos itens, com relação a DataMining e ETL.

O processo de carga de um DataWarehouse consiste exclusivamente em adicionar novos dados históricos regularmente.

Alternativas
Comentários
  • Primeiro os dados devem passar por um processo de limpeza e integração (transformação), para que ai sim sejam carregados. Vejo três etapas então, ao invés de apenas inclusão.


    O processo de carga do Data Warehouse é uma operação efetuada por processo de carga/inserção específicos de cada DBMS ou por processos independentes de carga rápida (Fastload) - é a tecnologia que consegue tempos de carga significativamente mais rápidos através do pré-processamento dos dados e de dispensa das operações de verificação de integridade dos dados e de registro das operações efetuadas.  Esta tecnologia substitui uma função especifica de carga do DBMS.

    A carga dos dados será feita a partir de um sistema de banco de dados temporário, no qual os dados devem já ter passado por um processo de limpeza e integração (transformação). As tabelas que serão atualizadas no sistema de DW devem ser montadas utilizando-se agregações, sumarizações e ordenações dos dados.


    http://www.coladaweb.com/informatica/data-warehouse

  • "O processo de carga de um DataWarehouse consiste exclusivamente em adicionar novos dados históricos regularmente.": Acredito que o erro da questão está em afirmar que o processamento de carga (Load do RTL) ocorre regularmente. Na verdade, depende do negócio da organização, pode ser regularmente, pode não ser.


    Apostila do Estratégia Concursos:

    A fase de carga carrega os dados no Data Warehouse. Dependendo das necessidades da organização, este processo varia amplamente. Alguns data warehouses podem substituir as informações existentes semanalmente, com dados cumulativos e atualizados, ao passo que outro DW (ou até mesmo outras partes do mesmo DW, conhecidos como Data Marts) podem adicionar dados a cada hora. A temporização e o alcance de reposição ou acréscimo constituem opções de projeto estratégicas que dependem do tempo disponível e das necessidades de negócios. Sistemas mais complexos podem manter um histórico e uma pista de auditoria de todas as mudanças sofridas pelos dados. 

  • Realmente o erro está em afirmar que isso deve acontecer regularmente

  • " consiste exclusivamente em adicionar novos dados históricos"

    A palavra exlusivamente tornou a questão errada, pois o DW hoje incluem também dados atuais para que possam fornecer apoio ao processo de tomada de decisões em TEMPO REAL. 

  • heurística top para questões CESPE: viu algo radical? tipo "todas", "sempre", "nunca", "impossível", "exclusivamente" fique ALERTA!!! Só dê certo se conseguir justificar para si que TODAS afirmações estão certas dentro da questão

  • A questão dá a entender que a carga deve ocorrer regularmente, o que é falso! A carga pode ocorrer também sob demanda com frequências diversas - sem qualquer regularidade.


    Gabarito: Errado

  • Nishimura vive!

  • O processo de carga (ETL) não consiste em adicionar somente novos dados, há situações em que a base está limpa e leva de novo os mesmos dados históricos, porque pode ter ocorrido alterações.  

    Fonte: Prof. Maurício Franceschini


ID
1215172
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os próximos itens, com relação a DataMining e ETL.

O processo de transformação de dados pode exigir que dados logicamente relacionados, mas fisicamente separados, sejam recompostos, ainda que envolvam registros distintos ou até mesmo estejam em bancos de dados operacionais distintos.

Alternativas
Comentários
  • Pré-processamento em Data-Mining

    A etapa de pré-processamento, no processo de descoberta de conhecimento – KDD (Knowledge Discovery in databases), compreende a aplicação de várias técnicas para captação, organização, tratamento e a preparação dos dados. É uma etapa que possui fundamental relevância no processo de KDD. Compreende desde a correção de dados errados até o ajuste da formatação dos dados para os algoritmos de mineração de dados que serão utilizados.

    http://www.din.uem.br/~gpea/linhas-de-pesquisa/mineracao-de-dados/pre-processamento/pre-processamento-em-data-mining/

  • Cuidado. No processo de KDD, pré-processamento e transformação são etapas distintas.

     

     

    Pré-processamento e Limpeza
    O Pré-processamento e limpeza dos dados é uma parte crucial no processo de KDD, pois a qualidade dos dados vai determinar a eficiência dos algoritmos de mineração. Nesta etapa deverão ser realizadas tarefas que eliminem dados redundantes e inconsistentes, recuperem dados incompletos e avaliem possíveis dados discrepantes ao conjunto, chamados de outliers.

    O auxílio de um especialista do domínio é fundamental, pois na maioria dos casos apenas alguém que realmente entende do assunto é capaz de dizer se um dado é um outlier ou um erro de digitação.

    Nesta fase também são utilizados métodos de redução ou transformação para diminuir o número de variáveis envolvidas no processo, visando com isto melhorar o desempenho do algoritmo de análise.

    A identificação de dados inapropriados dentro do conjunto selecionado é problemática, e isto dificulta a automatização desta fase. Definir um dado como “ruim” dentro do conjunto depende da estrutura do mesmo e também de que aplicação é dada a ele (leia mais em DUNKEL  et al. , 1997).

    Transformação dos Dados
    A Transformação do Dados é a fase do KDD que antecede a fase de Data Mining. Após serem selecionados, limpos e pré-processados, os dados necessitam ser armazenados e formatados adequadamente para que os algoritmos possam ser aplicados.

    Em grandes corporações é comum encontrar computadores rodando diferentes sistemas operacionais e diferentes Sistemas Gerenciadores de Bancos de Dados (SGDB). Estes dados que estão dispersos devem ser agrupados em um repositório único.

    Além disto, nesta fase, se necessário, é possível obter dados faltantes através da transformação ou combinação de outros, são os chamados “dados derivados”. Um exemplo de um dado que pode ser calculado a partir de outro é a idade de um indivíduo, que pode ser encontrada a partir de sua data de nascimento.  Outro exemplo é o valor total de um finaciamento que pode ser calculado a partir da multiplicação do número de parcelas pelo valor da parcela.

     

     

    http://fp2.com.br/blog/index.php/2012/um-visao-geral-sobre-fases-kdd/

  • Para quem não entende os comentários sem o gabarito e não tem acesso a resposta.

    Gaba: CERTO

  • A questão remete ao pré-processamento dos dados. Uma das tarefas dessa etapa envolve a integração de diferentes bases de dados. Dessa forma, a mineração poderá ocorrer em cima de um conjunto de dados que está fisicamente armazenado em BDs operacionais distintos, mas que foram posteriormente integrados em um DW ou em alguma estrutura do tipo.

  • Certo

    O sistema Extract-Transform-Load (ETL) é a base para construção de um data warehouse. Quando projetado adequadamente um sistema ETL extrai dados dos sistemas de origem, reforça a qualidade dos dados e padrões de consistência, ajusta dados para que dados advindos de fontes distintas possam ser usados juntos e finalmente entrega dados em um formato pronto para apresentação.

     

    A principal função da integração de dados ou ETL é obter dados de onde eles residem atualmente, alterando-os para que sejam compatíveis com o formato desejado e colocando-os no sistema de destino. Essas três etapas são chamadas de extrair, transformar e carregar (ETL). Toda a integração de dados, independentemente de ser executada em lote (batch) ou em tempo real, de forma síncrona ou assíncrona, física ou virtualmente, gira em torno dessas ações básicas.

     

    O ETL é responsável pela extração, transformação e carga dos dados das bases operacionais para a base de dados analítico.

     

    O processo de ETL é composto por algumas fases, extrair, limpar, preparar e entregar.

     

    No processo de ETL mostrado na figura, I e II correspondem, respectivamente, a: Staging Area e Data Warehouse.

  • integração de dados

    ANP.

  • Por que um Analista Judiciário precisa saber isso????????

  • Transformação de dados: Para realizar a mineração de dados, além da limpeza pode ser necessário também realizar algumas transformações sobre o conjunto de dados. Usa-se técnicas como normalização, suavização, agregação, generalização;

    Normalização: Essa normalização é diferente do processo de normalização que é aplicado nos bancos de dados relacionais. Aqui estamos falando de uma normalização matemática, uma operação em que os dados são distribuídos proporcionalmente para ficarem todos em um determinado intervalo. 

    Suavização: Consiste na remoção de ruídos dos dados, aqueles valores ocasionais que saem de um padrão desejado.

    Agregação: diminui o nível de detalhe dos dados. Dependendo da situação, pode não ser necessário armazenar os dados no seu formato mais detalhado, então realizamos a agregação para reduzir a quantidade de registros no nosso conjunto de dados.

    Generalização ou Discretização: A generalização também reduz a quantidade de registros como a agregação, mas a diferença é que esse processo permite transformar conjuntos de valores em categorias hierárquicas. Por exemplo, podemos juntar várias idades em uma divisão como “jovem”, “adulto” e “idoso”. 


ID
1215175
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os próximos itens, com relação a DataMining e ETL.

Embora os algoritmos genéticos apresentem elevada demanda computacional, eles possibilitam a resolução de problemas em paralelo; por isso, são uma boa ferramenta para mineração de dados.

Alternativas
Comentários
  • Os Algoritmos Genéticos (AGs) diferem dos métodos tradicionais de busca e otimização, principalmente em quatro aspectos:

    1. AGs trabalham com uma codificação do conjunto de parâmetros e não com os próprios parâmetros.

    2. AGs trabalham com uma população e não com um único ponto.

    3. AGs utilizam informações de custo ou recompensa e não derivadas ou outro conhecimento auxiliar.

    4. AGs utilizam regras de transição probabilísticas e não determinísticas.

    http://www.icmc.usp.br/pessoas/andre/research/genetic/

  • Um sistema de data mining pode realizar pelo menos uma das seguintes tarefas:

    4. Previsão - esta função de mineração prediz os possíveis valores de alguns dados perdidos ou a distribuição de valores de certos atributos em um conjunto de objetos. Ela envolve a descoberta de um conjunto de atributos relevantes para o atributo de interesse (e.g., por algumas análise estatística) e prediz a distribuição do valor baseada no valor do conjunto de dados semelhantes ao(s) objeto(s) selecionado(s). Por exemplo, o salário potencial de um empregado pode ser predito baseado na distribuição do salário de empregados semelhantes na companhia. Usualmente, análise de regressão, modelo linear generalizado, análise de correlação e árvores de decisão são ferramentas úteis em predição de qualidade. Também são usados algoritmos genéticos e redes neurais com bastante sucesso.


    http://www.dct.ufms.br/~mzanusso/Data_Mining.htm


    BONS ESTUDOS.

  • CERTO. Muito boa esta questão. Acabei de aprender coisas novas que não sabia. =]

    Segundo Navathe(2011,p.715),"Os algoritmos genéticos são usados para solução e agrupamento de problemas. Sua capacidade de solucionar problemas em paralelo oferece uma ferramenta poderosa para a mineração de dados. As desvantagens dos algoritmos genéticos incluem a grande superprodução de soluções individuais, o caráter aleatório do processo de pesquisa e a alta demanda no processamento do computador."

    Bibliografia:

    SISTEMAS DE BANCO DE DADOS-NAVATHE-2011-6 EDIÇÃO

  • (C)

    Cespe / Data Mining

    As ferramentas de Data Mining permitem ao usuário avaliar tendências e padrões não conhecidos entre os dados. Esses tipos de ferramentas podem utilizar técnicas avançadas de computação como redes neurais, algoritmos genéticos e lógica nebulosa, dentre outras.(C)

  • DATAMINING: (CESPE)

    ‘’É um conjunto de processos, métodos, teorias, ferramentas e tecnologias open-end utilizadas para explorar, organizar e analisar de forma semi-automática uma GRANDE QUANTIDADE de DADOS BRUTOS com intuito de identificar, descobrir, extrair, classificar e agrupar informações implícitas desconhecidas, além de avaliar correlações, tendências e PADRÕES consistentes de comportamento POTENCIALMENTE ÚTEIS – como regras de associação ou sequências temporais – de forma não trivial por meio de TÉCNICAS ESTATÍSTICAS e MATEMÁTICAS, como redes neurais, algoritmos genéticos, inteligência artificial, lógica nebulosa, ANÁLISE de CONGLOMERADOS (clusters).’’

    Fonte: Estratégia Concursos.

  • Os algoritmos genéticos são usados para solução e agrupamento de problemas. Sua capacidade de solucionar problemas em paralelo oferece uma ferramenta poderosa para mineração de dados. As desvantagens dos GAs incluem a grande superprodução de soluções individuais, o caráter aleatório do processo de pesquisa e a alta demanda no processamento

    do computador.

    Navathe p.715


ID
1215178
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item que se segue, a respeito de OLAP.

Embora apresentem desempenho de carga melhor que o MOLAP, os sistemas ROLAP apresentam desempenho das consultas que depende das informações desejadas.

Alternativas
Comentários
  • DESEMPENHO DE CONSULTA

    O MOLAP fornece uma resposta rápida para praticamente qualquer consulta, pois no modelo multidimensional são gerados previamente todas as combinações e resumos possíveis.

    O ROLAP responde às consultas da mesma forma que os aplicativos RDBMSs, a velocidade da resposta depende da informação desejada, pois a maior parte do processamento é feito em tempo de execução tendo em vista que os dados pré-calculados e resumidos geralmente não atendem a todas as solicitações dos usuários.

    DESEMPENHO DE CARREGAMENTO

    O MOLAP necessita de um longo período para execução da carga de dados, raramente esta carga é diária devido ao grande volume de informações a serem atualizadas para possibilitar um retorno rápido às consultas da inferface OLAP.

    O ROLAP possibilita um carregamento mais rápido devido à estrutura de tabelas e colunas, menos complexa em comparação à estrutura de arrays utilizada pelo MOLAP. Outro fator importante na rapidez da carga é o número menor de informações pré-calculadas e resumidas.

    Por fim, chegamos à conclusão de que não existe uma definição entre qual o melhor, ROLAP ou MOLAP, e que a tendência será a utilização do método HOLAP (citado acima), no qual é possível utilizar as vantagens dos dois modelos numa mesma arquitetura.


    Fonte:http://www.devmedia.com.br/conceitos-basicos-sobre-olap/12523#ixzz38nLh523h


  • Show de comentário, André Luiz!

  • DESEMPENHO DE CONSULTA

    O MOLAP fornece uma resposta rápida para praticamente qualquer consulta, pois no modelo multidimensional são gerados previamente todas as combinações e resumos possíveis.

    O ROLAP responde às consultas da mesma forma que os aplicativos RDBMSs, a velocidade da resposta depende da informação desejada, pois a maior parte do processamento é feito em tempo de execução tendo em vista que os dados pré-calculados e resumidos geralmente não atendem a todas as solicitações dos usuários.

    DESEMPENHO DE CARREGAMENTO

    O MOLAP necessita de um longo período para execução da carga de dados, raramente esta carga é diária devido ao grande volume de informações a serem atualizadas para possibilitar um retorno rápido às consultas da inferface OLAP.

    O ROLAP possibilita um carregamento mais rápido devido à estrutura de tabelas e colunas, menos complexa em comparação à estrutura de arrays utilizada pelo MOLAP. Outro fator importante na rapidez da carga é o número menor de informações pré-calculadas e resumidas.


  • Ano: 2014

    Banca: CESPE

    Órgão: TJ-SE

    Prova: Analista Judiciário - Tecnologia da Informação

    Resolvi errado

    Julgue os itens que se seguem, a respeito de OLAP.

    Quanto à forma de armazenamento dos dados, o MOLAP é mais indicado para DataMarts que para DataWarehouse.

    certa


ID
1215181
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, a respeito de OLAP.

Quanto à forma de armazenamento dos dados, o MOLAP é mais indicado para DataMarts que para DataWarehouse.

Alternativas
Comentários
  • Os métodos mais comuns de armazenamento de dados utilizados pelos sistemas OLAP são ROLAP e MOLAP, a única diferença entre eles é a tecnologia de banco de dados. O ROLAP usa a tecnologia RDBMS (Relational DataBase Management System), na qual os dados são armazenados em uma série de tabelas e colunas. Enquanto o MOLAP usa a tecnologia MDDB (MultiDimensional Database), onde os dados são armazenados em arrays multidimensionais.

    Os dois fornecem uma base sólida para análise e apresentam tanto vantagens quanto desvantagens. Para se escolher entre os dois métodos deve-se levar em consideração os requisitos e a abrangência do aplicativo a ser desenvolvido.

    ROLAP é mais indicado para DATA WAREHOUSE pelo grande volume de dados, a necessidade de um maior número de funções e diversas regras de negócio a serem aplicadas.

    MOLAP é mais indidado para DATA MARTS, onde os dados são mais específicos e o aplicativo será direcionado na análise com dimensionalidade limitada e pouco detalhamento das informaçõe


    Fonte: http://www.devmedia.com.br/conceitos-basicos-sobre-olap/12523#ixzz38nM4Mdiz
  • Conforme fonte indicada pelo colega, o MOLAP oferece um desempenho pior para uma grande quantidade de dados, sendo mais performático para DataMarts, que possuem uma quantidade menor de informações.


    Bons estudos.

  • Continuo boiando aqui... olhem essa questão


    Acerca de business intelligence, julgue os itens seguintes.

    Dado um modelo dimensional qualquer com uma tabela fato e quatro tabelas de dimensões. Supondo que cada dimensão possua 20 registros e que a fato possua 160.000 registros. Nesse contexto, pode-se afirmar que o SGBD Multidimensional é uma boa escolha para implantar o DW resultante. No entanto, se a quantidade de registros da tabela fato fosse bem menor que os 160.000 citados acima, o SGBD Relacional seria uma opção melhor para essa implantação

    certo


  • Bom, achei esse link... que segue o pensamento dos comentários aqui


    http://www.devmedia.com.br/conceitos-basicos-sobre-olap/12523

  • Como o amigo falou bem:

    ROLAP -> DATA WAREHOUSE

    MOLAP -> DATA MARTS

    GABARITO CERTO

  • Para lembrar os conceitos de ROLAP, basta lembrar da sua ROL@, ela se RELACIONA, é ALTA quando vai escalar, tem BAIXO custo, nos dias frios ela tem BAIXO DESEMPENHO, indicado para sua HOUSE

    Tipos de armazenamento OLAP:

    ROLAP: recupera dados de um banco de dados RELACIONAL. Alta escalabilidade. Baixo Custo. Baixo desempenho. Indicado para DataWareHOUSE.

    MOLAP: recupera dados de um banco de dados MULTIDIMENSIONAL. Alto desemepnho, Alto custo. Baixa escalabilidade. Indicado para DataMarts.

    HOLAP: junção do MOLAP com o ROLAP.

    Quanto a origem da consulta:

    DOLAP:(desktopOLAP) - dispara uma consulta a partir de uma estação cliente para servidor

    WOLAP:(WebOLAP) - dispara uma consulta via navegador web para um servidor.

    é só um bizu, vão levar pro coração achando que a rol@ tem baixo desempenho no frio não kkkkk isso é bizu

    • Rolap
    • Alta escalabilidade
    • Baixo desempenho
    • Usa SQL para traduzir
    • Sem restrição quanto ao volume de dados
    • BD relacionais
    • Mais indicado p DW
    • Aqui os data warehouses não podem ser instalados em sistemas de banco de dados relacionais.

     

    • Molap
    • Recupera dados
    • Baixa escalabilidade
    • Mecanismo usado no BD multidimensional
    • Direto no servidor que fornece respostas rápidas para consulta
    • Armazenamento de dados nas células de um Array multidimensional

    Fonte: Meu caderno

  • CERTO

    ROLAP (Relational OLAP) à é mais indicado para DATA WAREHOUSE 

    - Trata-se de uma ferramenta que recupera dados de um banco de dados relacional.

    - ROLAP se baseia principalmente na geração instruções SQL para consultar a base de dados relacional, por outro lado essas instruções não suprem todas as necessidades.

    - A tecnologia OLAP feita em banco de dados relacionais que, por utilizar a estrutura relacional, possui a vantagem de não restringir o volume de armazenamento de dados é simulada pela arquitetura: ROLAP

     

    MOLAP (Multidimensional OLAP) à é mais indidado para DATA MARTS

    - Trata-se da ferramenta tradicional de OLAP que recupera dados de um banco de dados multidimensional.

    - O MOLAP fornecerá a visualização multidimensional dos dados dos MDDBs (Multidimensional Database)para o usuário.

    - ALTO DESEMPENHO. Além disso, todos os cálculos são pré-gerados quando o cubo é criado e podem ser facilmente aplicados no momento da pesquisa de dados.

    FONTE: MEUS RESUMOS


ID
1215184
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de bancos de dados semiestruturados e bancos de dados NOSQL, julgue os itens subsecutivos.

Bancos de dados NOSQL orientados a documentos são apropriados para o armazenamento de dados semiestruturados.

Alternativas
Comentários
  • 2.7.1 Sistemas de bancos de dados orientados a documento

    Entre os diversos sistemas NoSQL recentes, uma subcategoria nos parece a mais apropriada

    para lidar com registros de dados semiestruturados, incluindo registros ISIS: são os sistemas

    de bancos de dados orientados a documento.


    Fonte: http://ramalho.pro.br/papers/tcc/luciano-ramalho-rev2.pdf

  • correto- noSQL é mais indicado para consultas em big data, o qual exige metodos para analise de dados nao-estruturados e semiestruturados, algo que data mining tradicional nao consegue;

  • Gabarito Certo

    Bancos de dados orientados a documento

    Documentos representam a unidade básica neste tipo de tecnologia, sendo possível comparar os mesmos aos registros das tabelas convencionais.

    Embora exista um paralelo com as linhas do modelo relacional, um documento possui uma estrutura flexível e que não está presa à existência de colunas pré-definidas. Do ponto de vista prático, isto significa que inúmeros documentos vinculados a uma mesma coleção podem contar com formatos variáveis.

    Muitas das soluções orientadas a documento fazem uso do padrão JSON (JavaScript Object Notation) para o armazenamento de dados. 

    Dentre os diversos bancos orientados a documento, é possível citar como exemplos o MongoDB, o DynamoDB (alternativa oferecida na nuvem pela Amazon) e o DocumentDB (este último um serviço que integra o Microsoft Azure).

     

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !

  • RESPOSTA C

    NoSQL (originalmente se referindo a "no SQL": "não SQL" ou "não relacional", posteriormente estendido para Not Only SQL - Não Somente SQL) é um termo genérico que representa os bancos de dados não relacionais.Uma classe definida de banco de dados que fornecem um mecanismo para armazenamento e recuperação de dados que são modelados de formas diferentes das relações tabulares usadas nos bancos de dados relacionais.

    #WIKI

  • Bancos de dados orientados a documentos costumam armazenar documentos XML ou JSON, exemplos de dados semiestruturados, aqueles que mesclam informações a respeito da estrutura com os próprios dados. Exemplos desse tipo de BD NoSQL são o MongoDB e o CouchDB.

  • Gabarito: C

    um dos desafios que os banco de dados NoSQL tenta resolver tem relação com os tipos de dados variados, complexos e/ou semiestruturados.

    Apenas uma correção do comentário anterior, NOSQL significa "Not only SQL",ou seja, não somente SQL.

  • NoSQL

    - Banco de dados com alto desempenho e amplamente conhecido pela facilidade de desenvolvimento

    - Geralmente não possuem esquema

    - Permitem a inserção de dados sem que haja um esquema pré-definido

    - Utiliza tabela de Hash simples

    - Apropriados para o armazenamento de dados semiestruturados

  • pero que si pero que no

  •  Exatamente, neles é possível armazenamento de documentos que embora tenham uma estrutura básica, eles, geralmente não são definidos por nenhum modelo ou schema. Podemos, então, encontrar propriedades dentro dos documentos, mas não existe uma obrigatoriedade sobre a existência delas.

    Fonte: Professor Thiago Cavalcanti, PDF Estratégia Concurso

  • Os bancos de dados orientados a documentos geralmente armazenam dados autodescritivos (semiestruturados) como documentos XML ou JSON. Esses documentos estão organizados em coleções, que são estruturas diferentes, mas de propósito similar às tabelas em um banco de dados relacional: agrupar documentos que tenham significado semelhante.

    Embora os documentos agrupados em coleções devam ter significados semelhantes, eles não precisam ter a mesma estrutura. Por exemplo, uma coleção que armazena dados a respeito de filmes pode ter alguns filmes que têm atributos que não estão presentes nos demais.

  • Sobre o tipo de dados "semiestruturado":

    • Um exemplo de dados estruturados é uma tabela de banco de dados, onde a estrutura é toda preparada previamente e sua alteração não é tão simples, por isso esta estrutura é considerada rígida e não flexível.
    • Um exemplo de dados não estruturados é um editor de texto como MS Word, onde todos os dados podem ser inseridos sem nenhum tipo de estrutura, textos, imagens da forma que preferir.
    • Por fim, um exemplo de dados semiestruturados é um documento XML ou JSON, onde se existe uma estrutura para os dados (no formato das chaves de cada valor inserido no documento) porém esta estrutura é facilmente alterada de acordo com a necessidade.

    Sendo assim, um documento JSON é um tipo de dado semiestruturado e um banco NoSQL orientado a documentos é totalmente apropriado para armazenar este conteúdo.

  • Bastava saber as características de um BD orientado a documentos: flexível, semiestruturada e hierárquica. GAB C

  • Arthur Mendonça | Direção Concursos

    14/03/2020 às 12:03

    Bancos de dados orientados a documentos costumam armazenar documentos XML ou JSON, exemplos de dados semiestruturados, aqueles que mesclam informações a respeito da estrutura com os próprios dados. Exemplos desse tipo de BD NoSQL são o MongoDB e o CouchDB.


ID
1215187
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de bancos de dados semiestruturados e bancos de dados NOSQL, julgue os itens subsecutivos.

Para garantir a eficiência das consultas a bancos de dados semiestruturados, é fundamental a adoção de técnica de indexação que leve em consideração, além das informações, as propriedades estruturais dos dados.

Alternativas
Comentários
  • Não encontrei referência para essa afirmativa....

  • Com base na fonte elencada abaixo:


    "Dados semiestruturados possuem a representação semântica incorporada juntamente com os valores textuais. A representação semântica é definida pela estrutura dos ducumentos (exemplos: XML e JSON)."


    Assim, "a adoção de técnicas para tratar eficientemente a indexação e recuperação de dados semiestruturados é essencial (a questão trocou por fundamental) para que usuários de sistemas de busca possam construir consultas levando em consideração relações estruturais (a questão trocou por propriedades estruturais) tanto quanto textuais (a questão trocou por  informações)."

    ---

    Da questão:

    Propriedades estruturais => representação semântica

    Informações => valores textuais 

    --

    http://bdtd.biblioteca.ufpb.br/tde_busca/arquivo.php?codArquivo=2689


  • GABARITO: C

    Essa questão envolve alguns conceitos interessantes. Começa falando sobre dados semiestruturados, por exemplo, XML ou JSON. Consultas em bancos de dados semiestruturados consideram tanto a estrutura quanto os valores. Outra questão é a criação de índice sobre um conjunto de dados semiestruturados. Para avaliar se um índice deve ou não ser criado é importante usar as informações sobre a estrutura dos dados e os valores armazenados. Neste caso, considerando a necessidade de um espaço maior para armazenamento e do custo de manutenção, a criação do índice deve melhorar a performance para ser de fato implementado. Logo, a assertiva está correta.

    Fonte: Estrategia concursos

  • GAB: CERTO

    SEMIESTRUTURADOS

    Dados semiestruturados possuem uma estrutura mais flexível que os dados estruturados e podem ser representados de modo heterogêneo como grafos. Cada campo de dado tem uma estrutura, porém não existe uma imposição de formato como nos dados estruturados, ou seja, podemos dizer que os atributos não são fortemente tipados. Os dados semiestruturados são auto-descritivos, isto é, apresentam esquema de representação juntamente com os dados. Exemplos: XML, RDF, OWL.

    Dados Semiestruturados

    1. Nem sempre há esquema
    2. Estrutura irregular
    3. Estrutura é imbutida nos dados
    4. Estrutura Extensa (particularidades de cada dado, visto que cada um pode ter uma organização própria)
    5. Fortemente evolutiva (estrutura modifica-se com frequência) 
    6. Estrutura descritiva
    7. Distinção entre estrutura e dados não é clara

    FONTE: João Paulo Colet Orso - Prof: Informática

  • gab certo, visto que não há uma estrutura previamente definida no campo, como ocorre com o estruturado.

    O exemplo mais difundido desse tipo de dados é o padrão XML (eXtensible Markup Language). Esse padrão contém, em termos de estrutura, marcadores, que são espécies de rótulos que identificam os diferentes elementos de uma estrutura de dados, além de ser capaz de representar uma hierarquia entre as entidades representadas. 

    Prof. Arthur Mendonça  - equipe Victor Dalton


ID
1215190
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de bancos de dados semiestruturados e bancos de dados NOSQL, julgue os itens subsecutivos.

Devido à escalabilidade esperada para os bancos de dados NOSQL, a implementação desses bancos utiliza modelos de armazenamento de dados totalmente distintos dos utilizados em sistemas relacionais.

Alternativas
Comentários
  • Errado: Não é só pela escalabilidade esperada, o desempenho dos bancos NOSQL é melhor.


    NoSQL são diferentes sistemas de armazenamento
    que vieram para suprir necessidades em demandas onde os bancos de dados
    tradicionais (relacionais) são ineficazes. Muitas dessas bases
    apresentam características muito interessantes como alta
    performance, escalabilidade, replicação, suporte à dados
    estruturados e sub colunas.

    O NoSQL surgiu da necessidade de uma performance
    superior e de uma alta escalabilidade. Os atuais bancos de dados
    relacionais são muito restritos a isso, sendo necessária a
    distribuição vertical de servidores, ou seja, quanto mais dados,
    mais memória e mais disco um servidor precisa. O NoSQL tem uma
    grande facilidade na distribuição horizontal, ou seja, mais dados,
    mais servidores, não necessariamente de alta performance. Um grande
    utilizador desse conceito é o Google, que usa computadores de
    pequeno e médio porte para a distribuição dos dados; essa forma
    de utilização é muito mais eficiente e econômica. Além disso, os
    bancos de dados NoSQL são muito tolerantes a erros.

    No caso dos bancos NoSQL, toda a a informação
    necessária estará agrupada no mesmo registro, ou seja, em vez de
    você ter o relacionamento entre várias tabelas para formar uma
    informação, ela estará em sua totalidade no mesmo registro.

    http://imasters.com.br/artigo/17043/banco-de-dados/nosql-voce-realmente-sabe-do-que-estamos-falando/

  • A distinção não está relacionada com o modelo de armazenamento e sim com o modelo de dados, exemplo:

    O modelo de dados do MongoDB é bastante simples de compreender e pode ser descrito como se segue:

    • Um banco de dados armazena um conjunto de coleções;

    • Uma coleção armazena um conjunto de documentos;

    • Um documento é um conjunto de campos;

    • Um campo é um par chave-valor;

    • Uma chave é um nome (string);

    • Um valor é um(a):

    o caracter, inteiro, ponto flutuante, timestamp ou binário;

    o um documento;

    o um "array" de valores;

     

  • ERRADO

    o erro está no totalmente, já que há modelos semelhantes, como, por exemplo, o colunar.

    Mas no geral é diferente sim. 

  • Como a questão fala "totalmente distintos", a Família de Colunas é um exemplo que torna a questão incorreta.

  • Temos dois problemas com a alternativa. O primeiro é que a diferença dos modelos relacionais aos adotados em NoSQL não tem a ver com a escalabilidade, e sim com a diferença da natureza dos dados e das aplicações entre aquelas utilizadas por sistemas que adotam um ou outro modelo. Sistemas NoSQL são mais adequados para se trabalhar com big data, por exemplo, por flexibilizarem algumas propriedades dos bancos de dados relacionais.

    O segundo problema reside em dizer que os modelos do NoSQL são totalmente distintos dos utilizados nos sistemas relacionais. Alguns sistemas colunares, como o Hbase, também fazem a utilização de estruturas de tabelas e colunas, apesar de seguirem uma organização um pouco diferente do modelo relacional. 

  • GABARITO: E

    Como já dizia um professor meu, "Nada é criado, mas sim copiado e aprimorado".

    Embora NoSQL apresentes diferentes sistemas de armazenamento que vieram para suprir necessidades em demandas onde os bancos de dados tradicionais (relacionais) são ineficazes. Muitas dessas bases tradicionais apresentam características muito interessantes como alta performance, escalabilidade, replicação, suporte à dados estruturados e sub colunas. Essas características são utilizadas pelas bases de dados NoSQL.

  • GABARITO ERRADO

    Temos dois problemas com a alternativa. O primeiro é que a diferença dos modelos relacionais aos adotados em NoSQL não tem a ver com a escalabilidade, e sim com a diferença da natureza dos dados e das aplicações entre aquelas utilizadas por sistemas que adotam um ou outro modelo. Sistemas NoSQL são mais adequados para se trabalhar com big data, por exemplo, por flexibilizarem algumas propriedades dos bancos de dados relacionais.

    O segundo problema reside em dizer que os modelos do NoSQL são totalmente distintos dos utilizados nos sistemas relacionais. Alguns sistemas colunares, como o Hbase, também fazem a utilização de estruturas de tabelas e colunas, apesar de seguirem uma organização um pouco diferente do modelo relacional. 

    Arthur Mendonça | Direção Concursos


ID
1215193
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, no que se refere a Big Data.

O processamento de consultas ad hoc em Big Data, devido às características de armazenamento dos dados, utiliza técnicas semelhantes àquelas empregadas em consultas do mesmo tipo em bancos de dados tradicionais.

Alternativas
Comentários
  • Padrão de descoberta ad hoc

    Em muitos casos, a criação de relatórios padrão que sejam adequados para todas as necessidades de negócios não é viável, pois as empresas têm requisitos de consultas de dados de negócios diversas. Os usuários podem precisar da capacidade de enviar consultas ad hoc ao procurar por informações especificas, dependendo do contexto do problema.

    A análise ad hoc pode ajudar os cientistas de dados e os principais usuários corporativos a entender o comportamento dos dados de negócios. A complexidade envolvida no processamento ad hoc surge de diversos fatores:

    Várias fontes de dados disponíveis para os mesmos domínios.Uma única consulta pode ter vários resultados.O resultado pode ser estático com uma variedade de formatos (vídeo, áudio, gráfico e texto).O resultado pode ser dinâmico e interativo.Aumentar os armazenamentos de dados tradicionais

    Durante a exploração inicial do big data, muitas empresas prefeririam usar a plataforma de analítica existente para manter os custos baixos e contar com as qualificações atuais. Aumentar os armazenamentos de dados existentes ajuda a ampliar o escopo de dados disponível para a analítica atual para incluir dados que residem dentro e fora dos limites organizacionais, como dados de mídia social, que podem melhorar os dados principais. Ao ampliar o escopo para incluir novas tabelas de fatos, dimensões e dados principais nos armazenamentos existentes e adquirir dados de clientes a partir de mídia social, uma organização pode obter um insight mais profundo do cliente.

    No entanto, lembre-se de que novos conjuntos de dados normalmente são maiores e as ferramentas de extração, transformação e carregamento atuais podem não ser suficientes para processá-los. Podem ser necessárias ferramentas avançadas com recursos de processamento paralelo massivo para lidar com as características de volume, variedade, veracidade e velocidade dos dados.


    Padrão de análise ad hoc

    O processamento de consultas ad hoc no big data traz desafios diferentes daqueles incorridos ao realizar consultas ad hoc em dados estruturados pelo fato de as fontes e formatos dos dados não serem fixos e exigirem mecanismos diferentes para recuperá-los e processá-los.

    Embora as consultas ad hoc simples possam ser resolvidas pelos provedores de big data, na maioria dos casos, elas são complexas porque os dados, algoritmos, formatos e resoluções da entidade devem ser descobertos dinamicamente. O conhecimento dos cientistas de dados e dos usuários corporativos é necessário para definir a análise exigida para as seguintes tarefas:

    Identificar e descobrir os cálculos e algoritmosIdentificar e descobrir as fontes de dadosDefinir os formatos necessários que podem ser consumidos pelos cálculosExecutar os cálculos nos dados paralelamente
    http://www.ibm.com/developerworks/br/library/bd-archpatterns4/

    Conclusão: a consulta ad hoc pelo big data é muito mais complexa e lida tanto com dados estruturados (armazenados em tabelas) quanto com dados não estruturados (vídeos, imagens, áudios etc).

  • Uma questão ajuda a responder:


    Ano: 2011 Banca: CESPE Órgão: MEC Prova: Administrador de Dados

    Julgue o  item  a seguir, referente  a online analytical processing (OLAP).

    A funcionalidade de uma ferramenta OLAP é caracterizada pela análise multidimensional dinâmica dos dados, apoiando o usuário final nas suas atividades e permitindo consultas ad hoc.

    CERTO


  • O processamento de consultas ad hoc no big data traz desafios diferentes daqueles incorridos ao realizar consultas ad hoc em dados estruturados pelo fato de as fontes e formatos dos dados não serem fixos e exigirem mecanismos diferentes para recuperá-los e

    processá-los. Em Big Data, tais consultas serão bem mais complexas e dinâmicas. 

    Fonte: Material Estratégia : Victor Dalton

    ..

  • errado - ad hoc queries sao usados em big data justamente porque big data tambem lida com dados nao-estruturados, enquanto que em bancos relacionais que o data mining é limitado por usar dados estruturados. doravamente, tecnicas de ad hoc big data sao diferentes daquelas de bancos relacionais.

  • Gabarito: ERRADO.

     

     

    Os bancos de dados tradicionais (RELACIONAIS) realizam consultas em dados estruturados.

     

    O processamento de consultas ad hoc no big data traz desafios diferentes daqueles incorridos ao realizar consultas ad hoc em dados estruturados pelo fato de as fontes e formatos dos dados não serem fixos e exigirem mecanismos diferentes para recuperá-los e processá-los.
     

     

    Exponencial Concursos.

  • ERRADO

     

    Sistemas de gerenciamento de banco de dados relacional, estatísticas da área de trabalho e pacotes de visualização, muitas vezes têm dificuldade em lidar com grandes volumes de dados, pois isto requer o trabalho de "software paralelo, rodando em dezenas, centenas ou até mesmo milhares de servidores", Bigdata.

  • As consultas ad hoc são consultas que só são construídas por completo no momento em que são executadas. Ou seja, não se sabe com antecedência o que será solicitado pela consulta. Vou tentar dar um exemplo bem grosseiro para você entender. É como se o “pedido” da consulta ad hoc ao banco de dados fosse assim:

    “Retorne todos registros que foram inseridos no banco de dados até 15 minutos atrás

    Veja, a definição de “15 minutos atrás” vai mudando de acordo com o tempo. 15 minutos atrás das 9:00 é 8:45, já 15 minutos atrás das 9:01 é 8:46, e assim sucessivamente. Assim, a janela de tempo dos resultados dessa consulta vai depender da hora exata em que ela for executada, não sendo conhecida a priori. Isso é uma espécie de consulta ad hoc.

    Para responder à questão, temos que lembrar do V de velocidade do big data. Veja que os dados são coletados e inseridos nas estruturas de armazenamento de forma extremamente rápida, ao contrário dos bancos relacionais, que não foram feitos para lidar com esses enormes volumes de transações. Assim, podemos sim utilizar consultas ad hoc em big data, mas temos que os requisitos para essas consultas serão bem diferentes daqueles utilizados em bancos de dados relacionais, dadas as características especiais de big data (os 3 Vs).

  • CESPE - 2014 - TJ-SE - Analista

    Julgue os itens que se seguem, no que se refere a Big Data.

    O processamento de consultas ad hoc em Big Data, devido às características de armazenamento dos dados, utiliza técnicas semelhantes àquelas empregadas em consultas do mesmo tipo em bancos de dados tradicionais.

    Errado. Em Informática, uma rede ad hoc é uma ligação temporária entre vários computadores e dispositivos utilizada para uma finalidade específica de compartilhamento de dados, por exemplo: jogos em rede, partilha de documentos, partilha de impressora, partilha de internet com os utilizadores da rede etc. O processamento de consultas ad hoc no big data traz desafios diferentes daqueles incorridos ao realizar consultas ad hoc em dados estruturados pelo fato de as fontes e formatos dos dados não serem fixos e exigirem mecanismos diferentes para recuperá-los e processá-los. Em Big Data, tais consultas serão bem mais complexas e dinâmicas. 

  • Ad hoc, + complexo que o tradicional.

  • As consultas ad hoc são consultas que só são construídas por completo no momento em que são executadas. Ou seja, não se sabe com antecedência o que será solicitado pela consulta. Vou tentar dar um exemplo bem grosseiro para você entender. É como se o “pedido” da consulta ad hoc ao banco de dados fosse assim:

    “Retorne todos registros que foram inseridos no banco de dados até 15 minutos atrás”

    Veja, a definição de “15 minutos atrás” vai mudando de acordo com o tempo. 15 minutos atrás das 9:00 é 8:45, já 15 minutos atrás das 9:01 é 8:46, e assim sucessivamente. Assim, a janela de tempo dos resultados dessa consulta vai depender da hora exata em que ela for executada, não sendo conhecida a priori. Isso é uma espécie de consulta ad hoc.

    Para responder à questão, temos que lembrar do V de velocidade do big data. Veja que os dados são coletados e inseridos nas estruturas de armazenamento de forma extremamente rápida, ao contrário dos bancos relacionais, que não foram feitos para lidar com esses enormes volumes de transações. Assim, podemos sim utilizar consultas ad hoc em big data, mas temos que os requisitos para essas consultas serão bem diferentes daqueles utilizados em bancos de dados relacionais, dadas as características especiais de big data (os 3 Vs).

  • Big Data descreve uma nova geração de tecnologias e arquiteturas,

    projetadas economicamente para extrair valor de volumes muito grandes e vasto

    de dados, permitindo alta velocidade de captura, descoberta e análise. Fonte:

    International Data Corporation.

  • O Big data consulta vários tipos de fontes. Ele não usa necessariamente o SQL como tradicionais SGBD em OLTP, mas sim o NoSQL.

  • A grande diferença entre um banco de dados tradicional e um big data é que o tradicional tem os dados estruturados e, por isso, faz consultas e inserções de forma padronizada. Já o Big Data utiliza também de dados semiestruturados e não estruturados, assim, não há como comparar as consultas entre as diferentes soluções

    Perseverança!

  • (cespe10/embasa) - CERTA

    Uma das características da construção de um data warehouse é a capacidade de permitir, a um projeto, o acesso aos dados disponíveis a partir de qualquer combinação de valores para os atributos nas tabelas de dimensão ou de fato, ou seja, permitir que sejam realizadas consultas ad hoc.

  • Questão

    O processamento de consultas ad hoc em Big Data, devido às características de armazenamento dos dados, utiliza técnicas semelhantes ❌ àquelas empregadas em consultas do mesmo tipo em bancos de dados tradicionais.

    Consulta ad hoc ➡ Conforme Bill Inmon (...) o próprio usuário gera consultas de acordo com suas necessidades de cruzar as informações de uma forma não vista e com métodos que o levem a descoberta daquilo que procura."

    São diferenças entre Big Data e os bancos de dados tradicionais:

    • volume de dados;
    • velocidade no acesso aos dados;
    • variedade de dados;
    • modelagem dos dados.

    Desse modo, uma vez que os modelos de dados podem ser incompatíveis (estruturados e não-estruturados), as técnicas para realização de consultas em Big Data e Banco de Dados Tradicionais não são semelhantes.

    Gabarito errado. ❌

  • ERRADO

    • Big Data tem como característica ser Não trivial, ou seja, não é algo comum/simples, envolve todo um processo complexo ...

    CONCLUSÃO: Não utiliza técnicas semelhantes àquelas empregadas em consultas do mesmo tipo em bancos de dados tradicionais.


ID
1215196
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os itens que se seguem, no que se refere a Big Data.

Em soluções Big Data, a análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados

Alternativas
Comentários
  • Padrão para pré-processar dados brutos

    As soluções de big data são, em sua maioria, dominadas por sistemas Hadoop e tecnologias baseadas em MapReduce, que são soluções simples de instalar para processamento e armazenamento distribuídos. No entanto, a extração de dados a partir de dados não estruturados, como imagens, áudio, vídeo, feeds binários ou até mesmo texto, é uma tarefa complexa e precisa de técnicas como aprendizado de máquina e processamento de idioma natural, etc. O outro grande desafio é como verificar a precisão e a exatidão do resultado de tais técnicas e algoritmos.

    Para executar a análise em quaisquer dados, eles devem estar em algum tipo de formato estruturado. Os dados não estruturados acessados de várias fontes podem ser armazenados como estão e, em seguida, transformados em dados estruturados (por exemplo, JSON) e novamente armazenados nos sistemas de armazenamento de big data. O texto não estruturado pode ser convertido em dados estruturados ou semiestruturados. Da mesma forma, os dados de imagem, áudio e vídeo precisam ser convertidos nos formatos que podem ser usados para análise. Além disso, a precisão e exatidão da analítica avançada que usa algoritmos preditivos e estatísticos dependem da quantidade de dados e algoritmos usados para treinar os modelos.

    A lista a seguir mostra os algoritmos e atividades necessários para converter dados não estruturados em estruturados:

    Classificação de texto e documento Extração de recurso Segmentação de texto e imagem Correlacionamento de recursos, variáveis e tempos e, em seguida, extração dos valores com o tempo Verificação de precisão do resultado usando técnicas como a matriz de confusão e outras atividades manuais

    Os cientistas de dados podem ajudar na escolha das técnicas e algoritmos adequados.

    http://www.ibm.com/developerworks/br/library/bd-archpatterns4/

  • Sim. Isso se dá por meio do processo de ETL, na fase de Transformação que estrutura os dados de modo que eles possam ser consultados posteriormente.

  • correto

    big data tambem lida com dados nao-estruturados (que nao seguem um tipo fixo. e.g.: emails, twatter posts etc). dados nao-estruturados podem ser somente compreendidos por pessoas, algo que data mining é geralmente falho. 

  • Gab: CERTO

     

    Isso mesmo. No passado, a maior parte dos dados era estruturada e podia ser colocada em tabelas e relações. Hoje, 80% dos dados do mundo não se comportam dessa forma. Com o Big Data, mensagens, fotos, vídeos e sons, que são dados não-estruturados, podem ser administrados juntamente com dados tradicionais.

     

    https://www.devmedia.com.br/big-data-big-table-e-nosql/26121

  • Gabarito: CERTO.

     

    Para executar a análise em quaisquer dados, eles devem estar em algum tipo de formato estruturado.

     

    Os dados não estruturados acessados de várias fontes podem ser armazenados como estão e, em seguida, transformados em dados estruturados (por exemplo, JSON) e novamente armazenados nos sistemas de armazenamento de big data.

    O texto não estruturado pode ser convertido em dados estruturados ou semiestruturados. Da mesma forma, os dados de imagem, áudio e vídeo precisam ser convertidos nos formatos que podem ser usados para análise. Além disso, a precisão e exatidão da analítica avançada que usa algoritmos preditivos e estatísticos dependem da quantidade de dados e algoritmos usados para treinar os modelos.


    A lista a seguir mostra os algoritmos e atividades necessários para converter dados não estruturados em estruturados:
     Classificação de texto e documento;
     Extração de recurso;
     Segmentação de texto e imagem;
     Correlacionamento de recursos, variáveis e tempos e, em seguida, extração dos valores com o tempo;
     Verificação de precisão do resultado usando técnicas como a matriz de confusão e outras atividades manuais;
     

     

    Exponencial Concursos.

  • (comumente)

     

    CERTO.

  • Comentários:

    Para executar a análise em quaisquer dados, dados não estruturados de fato devem estar em

    algum tipo de formato estruturado.

  • Gabarito: Certo.

    De maneira objetiva: Existem diversos dados soltos, dados sem correlação. Como a ideia do big data advém de pegar essa bagunça para gerar algo, é comum que se proceda, inicialmente, a um ajuste e transformação dos dados soltos em dados estruturados. Não fora cobrado pelo examinador, mas há, ainda, dados semi estruturados (XML, JSON, etc) que também estão compreendidos nesse processo.

    Bons estudos!

  • Gab: CERTO

    Para executar a análise em quaisquer dados, dados não estruturados de fato devem estar em algum tipo de formato estruturado.

    Fonte: Estratégia concursos

  • GABARITO CORRETO

    Big data compõe -se de dados estruturados e não estruturados, todavia, para realizar a ANÁLISE dos dados esses devem ser transformados em estruturados para que se tenha uma melhor extração de informações. O que não se confunde com o armazenamento dos dados no big data, que sendo no data warehouse, ou data lake, podem ser estruturados, não estruturados ou semi estruturados .

  • GABARITO CORRETO

    Big data compõe -se de dados estruturados e não estruturados, todavia, para realizar a ANÁLISE dos dados esses devem ser transformados em estruturados para que se tenha uma melhor extração de informações. O que não se confunde com o armazenamento dos dados no big data, que sendo no data warehouse, ou data lake, podem ser estruturados, não estruturados ou semi estruturados .

  • comumente : com frequência, na maioria das vezes; habitualmente.

    Cuidado com os comentários falando que DEVEM ser estruturados.

    É perfeitamente possível extrair da questão que há a possibilidade de análise com dados não estruturados.

  • CERTO

    COMPLEMENTANDO...

    Informações estruturadas – aquelas que possuem algum padrão ou formato que pode ser usado na sua leitura e extração dos dados. Dados de bancos de dados, sistemas legados, arquivos texto (sejam csv, txt ou XML).

    Informações não estruturadas – não possuem um formato padronizado para leitura, podem ser arquivos Word, Páginas de Internet/Intranet, Vídeos, áudios, entre outros.

  • BIG DATA é formado por dados estruturados e pela maioria não estruturados.

    Estruturados são aqueles organizados em planilhas, colunas. São fáceis, já os não estruturados não são fáceis.

    Data warehouse --> tomadas de decisões.

    ETL --> extração, transforma, carga.

    Por conseguinte, questão correta!

    Perseverança!

  • Big data trabalha com dados não estruturados e consolida esse conteúdo de

    forma que faça sentido para o usuário

  • dados não estruturados em dados estruturados, na minha visão Questão errada. Segue o jogo.

  • Analise é a ultima etapa, CERTO

  • Big data trabalha com dados não estruturados e consolida esse conteúdo de forma que faça sentido para o usuário.

    Dados não estruturados são os que não possuem uma estrutura prévia definida, por exemplo, imagens, documentos e vídeos. As redes sociais são um exemplo de lugar que contém bastantes dados não estruturados, pois há muitos dados sendo criados e disponibilizado diariamente.

    Big Data descreve uma nova geração de tecnologias e arquiteturas, projetadas economicamente para extrair valor de volumes muito grandes e vasto de dados, permitindo alta velocidade de captura, descoberta e análise.

    Fonte: International Data Corporation.

    Perseverança!

  • De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos.

  • "Em soluções Big Data, a análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados."

    Complementando o comentário do colega Ademastor, o que tornou o gabarito correto foi o termo "comumente" ao invés de termos restritivos como "obrigatoriamente", "necessariamente". Diversas novas e incipientes tecnologias são movidas pelo desafio de lidar com dados não-estruturados e semi-estruturados, que são a maior parte dos dados produzidos atualmente.

    Tecnologias como o NoSQL (software de banco de dados não apenas estruturados), o Hadoop (software usado pelos big data analytics para lidar com dados de forma distribuída), MapReduce (técnica de programação usada pelo Hadoop para analisar os dados) são exemplos reais de que é possível analisar dados não-estruturados sem transformá-los previamente em estruturados.

  • Para executar a análise em quaisquer dados, eles devem estar em algum

    tipo de formato estruturado. Os dados não estruturados acessados de várias

    fontes podem ser armazenados como estão e, em seguida, transformados em

    dados estruturados (por exemplo, JSON) e novamente armazenados nos

    sistemas de armazenamento de big data. O texto não estruturado pode ser

    convertido em dados estruturados ou semiestruturados. Da mesma forma, os

    dados de imagem, áudio e vídeo precisam ser convertidos nos formatos que

    podem ser usados para análise. Além disso, a precisão e exatidão da analítica

    avançada que usa algoritmos preditivos e estatísticos dependem da quantidade

    de dados e algoritmos usados para treinar os modelos. A lista a seguir mostra

    os algoritmos e atividades necessários para converter dados não estruturados

    em estruturados:

    ❖ Classificação de texto e documento;

    ❖ Extração de recurso;

    ❖ Segmentação de texto e imagem;

    ❖ Correlacionamento de recursos, variáveis e tempos e, em seguida,

    extração dos valores com o tempo;

    ❖ Verificação de precisão do resultado usando técnicas como a matriz de

    confusão e outras atividades manuais;

    Gabarito: Certo.

  • GAB: CORRETO

    HEURÍSTICA = descoberta do novo

    Na clusterização as classe não são predefinidas (Não supervisionado)

  • GAB: CERTO

    Com o Big Data, mensagens, fotos, vídeos e sons, que são dados não-estruturados, podem ser administrados juntamente com dados tradicionais. 

    • Dados estruturados: são armazenados em bancos de dados, sequenciados em tabelas.

    • Dados semiestruturados: acompanham padrões heterogêneos, são mais difíceis de serem identificados pois podem seguir diversos padrões.

    • Dados não estruturados: são uma mistura de dados com fontes diversificadas como imagens, áudios e documentos online.
  • Os comentários, incluindo o meu, não ajudam em nada.

    Segue o baile

  • Certo, esta necessidade se dá pelo fato de que o dado estruturado facilita a análise e evita ou mitiga os falsos positivos decorrentes de dados redundantes ou ambíguos que vem da origem, garantindo a veracidade tanto do dado, quanto depois da informação gerada.

    Comentário do professor Rogerão Araújo.

    Falso negativo -> uma ação ilegítima que foi considerada legítima.

    Falso positivo -> uma ação legítima que foi considerada malware pelo antivírus.

  • Fui pelo raciocínio lógico. O bigdata recebe um quantidade enorme de informações e dado, esses, muitas vezes, desorganizados e variados. Então o bigdata utiliza esses dados desorganizados (não estruturados) e os organiza.

  • Para executar a análise dos dados, os dados não estruturados realmente devem estar em algum

    tipo de formato estruturado.

    Fonte: Estratégia Concursos.

  • Gab: CERTO

     

    Isso mesmo. No passado, a maior parte dos dados era estruturada e podia ser colocada em tabelas e relações. Hoje, 80% dos dados do mundo não se comportam dessa forma. Com o Big Data, mensagens, fotos, vídeos e sons, que são dados não-estruturados, podem ser administrados juntamente com dados tradicionais.

  • Big data

    1. Refere-se aos dados e soluções técnicas
    2. Trata -se dos dados brutos até transforma-los em insights
    3. Identifica as anomalias nos registros e a análise de conjuntos de dados
    4. Lida com os dados estruturados E não estruturados QC: As soluções de big data focalizam dados que já existem, descartam dados não estruturados e disponibilizam os dados estruturados.(E)
    5. para realizar a ANÁLISE dos dados esses devem ser transformados em ESTRUTURADOS para que se tenha uma melhor extração de informações
  • "precisa ser precedida" me quebrou !!

    • > Big Data também poderia ser considerado como Any Data (qualquer dado), hoje temos capacidade de capturar e analisar dados estruturados e não estruturados.

    Logo, por que esse PRECISA SER PRECEDIDA ???


ID
1215199
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Sistemas Operacionais
Assuntos

Julgue os itens que se seguem, no que se refere a Big Data.

Ao utilizar armazenamento dos dados em nuvem, a localização do processamento de aplicações Big Data não influenciará os custos e o tempo de resposta, uma vez que os dados são acessíveis a partir de qualquer lugar.

Alternativas
Comentários
  • Padrão de armazenamento para armazenamento em nuvem

    Muitos provedores de infraestrutura da nuvem possuem recursos de armazenamento estruturado e não estruturado distribuídos. As tecnologias de big data são um pouco diferentes das perspectivas de configurações, manutenção, gerenciamento de sistemas e programação e modelagem tradicionais. Além disso, as qualificações necessárias para implementar as soluções de big data são raras e caras. As empresas explorando as tecnologias de big data podem usar soluções de nuvem que fornecem o gerenciamento de sistemas, manutenção e armazenamento de big data.

    Muitas vezes, os dados a serem armazenados são confidenciais, isso inclui dados biométricos e registros médicos. Avalie a segurança de dados, o compartilhamento de dados, a governança de dados e outras políticas relacionadas aos dados, especialmente ao considerar a nuvem como um repositório de armazenamento para big data. A capacidade de transferir enormes quantidades de dados também é outra consideração fundamental para o armazenamento em nuvem.

    http://www.ibm.com/developerworks/br/library/bd-archpatterns4/

  • Isso não é possível com a tecnologia atual, uma vez que os meios de transmissão (infraestrutura de redes) ainda limitam e muito os tempos de resposta. Isso é tão verdade que os sistemas de nuvens públicas como da Microsoft, Amazon e Outros possuem servidores espalhados no mundo todo para tentar reduzir problemas como custos e velocidade.

  • GAB: ERRADO

     

    Ter estratégias afinadas de Big Data exige investimentos em infraestrutura de hardware e software. Essa iniciativa traz alguns desafios como a compra de servidores físicos dedicados ao projeto, que exigem ALTO INVESTIMENTO inicial, além de MUITO TEMPO em implementações dos recursos de TI para processamento de dados sazonais. Em determinados momentos, esse ambiente ficará ocioso.

     

    https://cloud21.com.br/computacao-em-nuvem/cloud-computing-e-o-motor-do-big-data/

  • Gabarito: ERRADO.

     

    Embora, com o uso da computação em nuvem, os dados sejam acessíveis em qualquer lugar, não é possível afirmar que os custos e o tempo de resposta não sejam afetados, pois dependendo da rede de acesso, pode ocorrer variação no tempo de transporte dos dados.
     

     

    Exponencial Concursos.

  • Para uma quantidade gigantesca de dados, a distância do local de processamento afeta – sim –

    os custos e o tempo de resposta. Quanto mais próximo, mais barato e mais rápido; quanto mais

    longe, mais caro e mais lento

  • Uma das vantagens de usar cloud computing para big data é o custo mais baixo em relação à montagem de toda uma infraestrutura própria. A flexibilidade oferecida pelos planos de computação em nuvem torna esse meio de contratação mais econômico.

    Contudo, já que estamos “alugando” um servidor ou uma infraestrutura de hardware, geralmente essas máquinas estão em locais distantes do local em que estamos, na sede do contratante. Por exemplo, eu mesmo já contratei um serviço em que meu servidor alugado ficava nos EUA. Assim, o tempo de resposta sofre um pequeno atraso, já que os dados têm que trafegar dos EUA até o nosso País através de grandes cabos submarinos.

    Podemos, então, considerar a questão errada.

  • Para uma quantidade gigantesca de dados, a distância do local de processamento afeta – sim – os custos e o tempo de resposta. Quanto mais próximo, mais barato e mais rápido; quanto mais longe, mais caro e mais lento. É claro que isso pode mudar nos próximos anos...

    Gabarito: Errado

    Fonte: estratégia

  • Errado.

    A localização do processamento de aplicações Big Data influenciará os custos e o tempo de resposta.

  • Para uma quantidade gigantesca de dados, a distância do local de processamento afeta – sim – os custos e o tempo de resposta. Quanto mais próximo, mais barato e mais rápido; quanto mais longe, mais caro e mais lento. É claro que isso pode mudar nos próximos anos...

    Gabarito: Errado

    Fonte: estratégia

    obs: acredito que hoje, isso já mudou.

  • Quando se fala de computação em nuvem, sempre haverá diferença de velocidade de acesso e de processamento considerando o local onde está quem solicita e quem fornece a informação. É claro que, com a tecnologia atual, os tempos de acesso são mínimos, porém seria incorreto dizer que não há influência no quesito distância.

    Perseverança!

  • Embora, com o uso da computação em nuvem, os dados sejam acessíveis em

    qualquer lugar, não é possível afirmar que os custos e o tempo de

    resposta não sejam afetados, pois dependendo da rede de acesso, pode

    ocorrer variação no tempo de transporte dos dados.

    Gabarito: Errado.

  • Além de influenciar no tempo de resposta a questão generaliza ao afirma que são acessíveis de qualquer lugar , pois e os lugares onde ainda não se tem acesso à internet?


ID
1215202
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os seguintes itens, acerca de projetos, administração de usuários e acessos de bancos de dados relacionais.

Em um sistema de banco de dados no qual seja implementado um controle de acesso mandatório, o acesso a objetos de dados será permitido de acordo com a classificação do objeto e do nível de liberação do usuário.

Alternativas
Comentários
  • Exato. O controle de acesso mandatório(MAC) é organizado em níveis, uma espécie de estrutura hierárquica definida pelo próprio sistema.


    Bons estudos.

  • Controle de Acesso Mandatório ou Obrigatório (MAC)

    No controle de acesso mandatório (mandatory access control ou MAC), a política de acesso é determinada pelo sistema e não pelo proprietário do recurso. Este controle é utilizado em sistemas de múltiplos níveis com dados altamente sensíveis (por exemplo, informações governamentais e militares). Nesse tipo de controle, há a construção de um sistema que manipula múltiplos níveis de classificação entre sujeitos (nível de privilégios) e objetos (nível de sensibilidade da informação). No MAC, há uma divisão de tarefas entre:

    - os administradores do sistemas, que definem os níveis de privilégio dos usuários e a política de acesso;

    - os gestores das informações que estabelecem a rotulação das informações quanto ao seu nível de sensibilidade;

    O sistema cuida de aplicar as regras da política com base nos privilégios dos usuário e no rótulo das informações.

    Fontehttp://waltercunha.com/blog/index.php/2009/08/19/seguranca-da-informacao-autenticacao/

  • O controle de acesso obrigatório não se baseia apenas na identidade do usuário, sendo assim, os privilégios a determinado objeto não são estabelecidos por sua identidade. A classificação do sujeito e do objeto, dentro do sistema, é que será o fator responsável pelo controle.
     

  • Em um sistema de banco de dados no qual seja implementado um controle de acesso mandatório, o acesso a objetos de dados será permitido de acordo com a classificação do objeto e do nível de liberação do usuário.✅

    Os bancos de dados admitem duas abordagens: discriminatório e mandatário.

    Controle discriminatório

    • O usuário terá, em geral, direitos de acesso (privilégios) diferentes sobre objetos diferentes;
    • Há poucas limitações respeito de quais usuários podem ter quais direitos sobre quais objetos;
    • Os esquemas discriminatórios são muito flexíveis.

    Controle mandatário

    • Cada objeto é assinalado com um certo nível de classificação;
    • Cada usuário recebe um certo nível de liberação;
    • O acesso a determinado objeto de dados só pode ser feito por usuários com liberação apropriada;
    • Os esquemas mandatários tendem a ser hierárquicos e mais rígidos.

    Gabarito correto. ✅


ID
1215205
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os seguintes itens, acerca de projetos, administração de usuários e acessos de bancos de dados relacionais.

Em uma corporação onde existem muitos usuários de banco de dados cadastrados, é mais simples gerenciar autorizações de acesso em um sistema de banco de dados com controle de acesso mandatório que em um banco de dados com controle de acesso discricionário.

Alternativas
Comentários
  • Por quê?

    Este:

    "Controle de Acesso Mandatório (MAC - Mandatory Access Control): A cada objeto do banco de dados é atribuído um nível de classificação, como por exemplo, 'super secreto', 'secreto', 'confidencial', 'público', etc. Por sua vez, a cada usuário é atribuído um nível de poder de visão, que possui um valor igual a um dos níveis de classificação atribuído aos objetos."

    Não é mais complexo que este:

    "Controle Discriminatório (DAC - Discretionary Access Control): Este tipo de controle possibilita conceder a diferentes usuários diferentes privilégios de acesso a diferentes objetos do banco de dados, através da utilização de comandos SQL (Structured Query Language). O conjunto de privilégios que podem ser concedidos depende da versão de SQL utilizada. O SQL padrão inclui delete, insert, select e update, e um privilégio references que restringe a capacidade do usuário de criar relações (se a relação a ser criada inclui uma chave estrangeira que se refere a atributos de outra relação, o usuário precisa ter garantido o privilégio references sobre aquele atributo)."

    http://www.oocities.org/gsaudino/dcto/admbd.html

  • Para quem não entende os comentários sem o gabarito como eu e não tem acesso a resposta.

    Gaba: CERTO

  • "Controle de Acesso Mandatório (MAC - Mandatory Access Control): A cada objeto do banco de dados é atribuído um nível de classificação, como por exemplo, 'super secreto', 'secreto', 'confidencial', 'público', etc. Por sua vez, a cada usuário é atribuído um nível de poder de visão, que possui um valor igual a um dos níveis de classificação atribuído aos objetos."

    Não é mais complexo que este:

    "Controle Discriminatório (DAC - Discretionary Access Control): Este tipo de controle possibilita conceder a diferentes usuários diferentes privilégios de acesso a diferentes objetos do banco de dados, através da utilização de comandos SQL (Structured Query Language). O conjunto de privilégios que podem ser concedidos depende da versão de SQL utilizada. O SQL padrão inclui delete, insert, select e update, e um privilégio references que restringe a capacidade do usuário de criar relações (se a relação a ser criada inclui uma chave estrangeira que se refere a atributos de outra relação, o usuário precisa ter garantido o privilégio references sobre aquele atributo)."

    http://www.oocities.org/gsaudino/dcto/admbd.html

  • Na versão "orea seca":

    acesso mandatório --> as regras são essas, só cumprir e tu tá dentro.

    acesso discricionário --> verifica toda vez "se quero ou não que tal fulano entre no sistema".

  • Esse "onde" aí, o cara é examinador de informatica né, fazer o que....AGONIA!


ID
1215208
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os seguintes itens, acerca de projetos, administração de usuários e acessos de bancos de dados relacionais.

Embora a Forma Normal Boyce Codd (FNBC) seja estritamente mais forte que a 3FN, em algumas situações reais elas são equivalentes.

Alternativas
Comentários
  • Uma relação está na FNBC se, e somente se, “Uma relação está em FNBC se para toda df X → Z, X é uma super-chave.”

    Uma superchave SK especifica uma restrição de unicidade de que duas tuplas distintas em um estado r de R não podem possuir o mesmo valor para SK. Ora, há casos reais em que há uma relação na terceira FN, onde um atributo não-chave depende diretamente da chave primária (que uma superchave mímina), por exemplo. Nesses casos, 3a FN e FNBC são equivalentes.

    Questão correta, portanto!


  • A 3FN : Não pode haver um atributo não chave determinando outro não chave.

    A FNBC: Não pode ter um atributo não chave determinando um atributo que faça parte de uma PK composta.


    Essas duas formas normais podem gerar a mesma anomalia de exclusão. 


    Bons estudos.


ID
1215211
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue os seguintes itens, acerca de projetos, administração de usuários e acessos de bancos de dados relacionais.

Se uma variável de relação estiver na quinta forma normal, não será possível realizar nenhuma decomposição sem haver perda de informação.

Alternativas
Comentários
  • “Uma relação R está na 5FN , também chamada de forma normalizada de projeção-junção (PJ/NF) se, e somente se, toda dependência de junção em R for conseqüência de  chaves candidatas de R.”

    Existem relações que não podem ser decompostas em duas projeções sem perda, mas podem ser decompostas em três ou mais. Estas relações podem ser descritas como “decomponível n” (n>2) (Date), significando que a relação em questão pode ser decomposta sem perda em n projeções, mas não em m projeções, m < n.
  • Apenas agregando valor ao comentário do Gustavo, quando ele fala Variável de relação = TABELA (Date). 

  • Por definição, a quinta forma normal (5FN) afirma que deve ser possível reconstruir a tabela original a partir das tabelas em que ela foi dividida. Dessa forma para estar na 5FN deve ser possivel uma "decomposição sem haver perda de informação."

    A missao da 5N é eliminar a DEPENDÊNCIA FUNCIONAL DE JUNÇÃO.

    FFF

  • Para quem não entende os comentários sem o gabarito como eu e não tem acesso a resposta.

    Gaba: ERRADO

  • putz acertei porque achei que não existia 5FN hehehe

  • 5FN -> não possui dependência de função

  • GAB E

    Utiliza-se a 5FN quando a uma tabela na 4FN pode ser subdivida em duas ou mais tabelas, para evitar tais redundâncias ainda existentes.

    Fonte: Patrícia Quintão.

  • Gabarito: Errado.

    A título de contribuição:

    Quando é feita uma normalização, busca-se diminuir a redundância de dados. Existem 5 formas de normalização.

    A primeira forma normal diz respeito à forma de um tipo de registro, de modo que todas as ocorrências de um tipo de registro devem ter um mesmo número de campos. Diante disso, ela exclui variáveis repetindo campos e grupos.

    A segunda e terceira forma normal lidam com o relacionamento entre campos que não são chaves e campos que são chaves. Um campo não chave deve ter apenas um fato (relacionamento) com a chave, e nada além. Se um campo não chave estiver relacionado a um subconjunto de uma chave, a segunda forma normal fica prejudicada. Se um campo não chave fizer referência a outro atributo não chave, há violação da terceira forma normal.

    A quarta forma normal preconiza que o esquema deve estar na terceira forma normal e não pode conter dois ou mais fatos multivalorados independentes.

    Por fim, a quinta forma normal permite que uma informação possa ser reconstruída a partir de informações menores recombinadas. Ela é feita quando a tabela já está na quarta forma normal.

    Qualquer equívoco, mandem mensagem que retifico.

    Bons estudos!

  •  Quinta Forma Normal (5FN):

    Se baseia no conceito de dependência de junção (DJ). Uma tabela está na 5FN se, e somente se, estiver na 4FN e não existirem dependências de junções. Uma relação está na 5FN quando o conteúdo do registro não pode ser mais reconstruído (efetuar join) a partir de outros registros menores extraídos desse registro considerado.

    Deve ser possível uma "decomposição sem haver perda de informação."

  • 5FN : permite que uma informação possa ser reconstruida a partir de informações menores recombinadas.


ID
1215214
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item abaixo, acerca de bloqueio de transações.

A serializabilidade de transações é garantida pela aplicação, a todas as transações, do protocolo de bloqueio em duas fases.

Alternativas
Comentários
  • Só há como se garantir um isolamento total (propriedade de serializabilidade) de transações por meio do mecanismo de bloqueio em duas fases, que tem o seguinte mecanismo de funcionamento:

    "Diz-se que uma transação segue o protocolo de bloqueio em duas fases se todas as operações de bloqueio (read_lock ou write_lock) precedem a primeira operação de desbloqueio na transação. Essa transação pode ser

    dividida em duas fases: uma fase de expansão ou crescimento, durante a qual podem-se obter novos bloqueios em itens mas nenhum pode ser liberado; e uma fase de encolhimento ou retração (segunda fase), durante a qual bloqueios existentes podem ser liberados, mas nenhum bloqueio pode ser obtido."

    Vamos em frente!

  • Protocolo de bloqueio de duas fases
        -antes de operar sobre qualquer objeto, uma transação deve adquirir um bloqueio
        sobre esse objeto (compartilhado ou exclusivo)
        -depois de liberar um bloqueio, uma transação nunca deve adquirir outros bloqueios

    C.J.Date

    C.J. Date quando fala em leitura fantasma mostra um exemplo de aplicação "errada" do protocolo.

    Uma aplicação de somar saldos de contas.

    Ele bloqueia cada conta ao adicionar seu saldo a soma total. (e só vai liberá-las no final)

    O problema é que desse jeito uma outra transação pode adicionar uma conta nova, antes mesmo do termina da

    transação em questão.

    Ou seja a aplicação bloqueia tuplas, enquanto deveria ter bloqueado a tabela { mais precisamente a RelVar}

    Seguindo ao pé da letra a aplicação utilizou o objeto tabela de contas, sem bloqueá-la, logo não está de acordo com o protocolo.

    Por outro lado a gente sabe que nem sempre que se utiliza os valores de uma tupla é necessário bloquear a tabela.

    Ou seja a banca pode acabar puxando para qualquer um dos lados. Dizer que escolher a granularidade errada é aplicar o protocolo de forma errada (logo a questão estaria certa) ou dizer que algumas aplicações mesmo seguindo o protocolo podem ter problemas de serializabilidade caso escolham a granularidade errada (logo a resposta seria falso).

    Difícil é saber para onde a banca vai puxar.

    Em todo caso, a resposta escolhida pela banca me parece a correta (leva o protocolo ao pé da letra), complicado seria ganhar no recurso caso ela tivesse escolhido a outra resposta.

     

     

     

     

     

  • "Pode ser provado que, se cada transação em um schedule seguir o protocolo de bloqueio em duas fases, o schedule é garantidamente serializável, evitando a necessidade de testar a serialização dos schedules. O protocolo de bloqueio, ao impor as regras de bloqueio em duas fases, também impõe a serialização "

    Sistemas de Bancos de Dados, Navathe, 6ª Edição, página 527.

  • Quem não tem acesso:  - -> Certo


ID
1215217
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

No que se refere a becape e restauração de dados, julgue os próximos itens.

Mesmo com a realização de becapes totais e incrementais dos bancos de dados, é possível haver perda de dados em casos de desastres.

Alternativas
Comentários
  • O desastre pode ocorrer entre os backups incrementais.

  • Na TI, nada funciona com 100% de certeza.

  • As mídias do becape ficavam na casa do dono da empresa, que ficava a 1km de distância da empresa, mas aí veio um sharknado - que é um furacão que passou pelo oceano e arrastou junto vários tubarões - e destruiu tudo em um raio de 4 km´s.


ID
1215220
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

No que se refere a becape e restauração de dados, julgue os próximos itens.

O becape total de um banco de dados permite que esse banco seja restaurado a qualquer ponto temporal específico.

Alternativas
Comentários
  • Não é a qualquer ponto temporal, o ponto de restauração é de acordo com a ultima vez que o becape foi efetuado.

  • Está errado, pois se houve alguma alteração/deleção em um dado em um dado momento o backup total só consegue recuperar o estado do dado no momento da realização do backup.

  •  só conseguirá recuperar dados até o momento da realização do becape total. NÃO ANTES/DEPOIS


ID
1215223
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Com relação a técnicas de análise de desempenho e otimização de consultas SQL, julgue os itens subsequentes.

Os triggers otimizam o desempenho de sentenças SQL

Alternativas
Comentários
  • Utilizando Triggers

     - Deve-se minimizar o uso de triggers. Esse recurso deve ser priorizado para registro de log e/ou controles que eventualmente não possam ser implementadas através de FOREIGN KEYS e CHECK CONSTRAINTS, e não para tratar regras de negócio.

     - O uso demasiado de Triggers pode acarretar na perda de controle do que está sendo feito por serem disparadas automaticamente mediante um evento de inserção, deleção e atualização.

     http://www.devmedia.com.br/escrevendo-queries-otimizadas-sql-magazine-84/19068#ixzz3YFT8Zr4Y

  • Normalmente os triggers degradam o desempenho das consultas, pois implicam na execução de subrotinas conforme o evento em que estejam vinculados.

  • Conceito de TRIGGER.

    Um Trigger é um procedimento armazenado no banco de dados que é chamado automaticamente sempre que ocorre um evento especial no banco de dados. ... Geralmente essas ações que acionam os triggers são alterações nas tabelas por meio de operações de inserção, exclusão e atualização de dados (insert, delete e update)


ID
1215226
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Banco de Dados
Assuntos

Com relação a técnicas de análise de desempenho e otimização de consultas SQL, julgue os itens subsequentes.

A união por hash é uma estratégia de otimização de consultas que pode ser utilizada caso a consulta envolva união entre tabelas distintas e não exista índice útil na coluna de união das entradas

Alternativas
Comentários
  • Questão correta! Achei a referência abaixo bem didática:

    "2.3. Seleção da união

    Nesta terceira fase da otimização de consultas, se a consulta envolve várias tabelas ou é uma auto-união, o otimizador de consultas avalia a seleção de união e seleciona a estratégia de união com o menor custo. O otimizador pode utilizar três estratégias para processar uniões: uniões de loop aninhado, uniões de mesclagem e uniões por hash.

    - União de loop aninhado: Neste tipo de união são processadas um conjunto de loops que extraem uma linha da primeira tabela e usam essa linha para percorrer a tabela mais interna e assim por diante, até que o resultado que satisfaça seja utilizado para percorrer a última tabela. O número de iterações através de qualquer um dos loops é igual ao número de varreduras que devem ser realizadas. O conjunto de resultados é reduzido à medida que ele avança de uma tabela para outra dentro de cada iteração no loop.

    - União de mesclagem: Pode-se utilizar uma união de mesclagem quando nas duas tabelas a serem unidas existirem índices setorizados na coluna de união. Geralmente, o otimizador escolhe a estratégia de união de mesclagem quando as duas entradas de união (as tabelas a serem unidas) já estão classificadas na coluna união.

    - União por hash: A união por hash pode ser utilizada quando não existe nenhum índice útil na coluna de união em nenhuma das entradas. O hash permite determinar se um item de dados em particular corresponde a um valor já existente, dividindo os dados existentes em grupos baseados em alguma propriedade. Os dados com o mesmo valor são colocados num hash bucket. Para verificar se um novo valor possui um correspondente nos dados existentes, simplesmente examina-se o bucket quanto ao valor correto."

    Fonte: http://www.batebyte.pr.gov.br/modules/conteudo/conteudo.php?conteudo=1184.

    Boa! Vamos em frente com o aprendizado!


ID
1215229
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Sistemas Operacionais
Assuntos

Julgue os itens seguintes, acerca dos sistemas operacionais Windows e Linux.

O rsync é um programa utilizado em sistemas Linux para fazer o download completo de páginas web de forma fácil e não interativa, sem exigir a presença do utilizador.

Alternativas
Comentários
  • Rsync não tem nada haver com download de páginas Web!!!

    • "Rsync:
    • O que é?
      O Rsync basicamente é um programa utilizado para transferir arquivos com grande eficiência e rapidez.
    • Como instalar?
      O aplicativo Rsync é um aplicativo padrão em qualquer distribuição Linux e seus parâmetros são iguais em qualquer sistema Linux.
      O Rsync está disponível inclusive nos desktops e notebooks da Apple (Mac OS).
      Há uma implementação do Rsync para Windows. Você terá que procurar e baixar.
    • Como ele funciona?
      Como qualquer programa de transferência de dados, o Rsync copia dados. Mas ele faz essa tarefa muito bem!
      Imagine que você quer copiar 1000 arquivos de planilha, que ocupam cerca de 10GB. Sempre que você quiser transferir pela sua rede local ou mesmo usando a Internet, você copiará 10GB ou mais (lembre-se que os arquivos crescem com o seu uso).
      Com o Rsync, na primeira vez você baixará os 10GB de arquivos. Na segunda vez, ele copiará apenas as partes modificadas dos arquivos, copiando poucos MB (isso mesmo, alguns megabytes). Essa ferramenta possui um algoritmo muito eficiente para descobrir o que foi alterado e atualizar apenas isso na sua cópia."
    Bons estudos!
  • A questão se refere ao comando WGET

  • Rsync

    - É um comando utilizado para cópia e sincronização de arquivos e diretórios locais ou remotamente.

    - rsync usa protocolo de atualização remota que permite transferir apenas as diferenças entre dois conjuntos de arquivos.

    - Na primeira vez, ele cópia todo o conteúdo de um arquivo ou um diretório de origem para o destino, mas a partir da próxima vez, ele cópia apenas os blocos alterados e bytes para o destino.

    - Pode ser usado para realizar backups

    - Sintaxe do rsync: rsyinc [OPÇÕES] ORIGEM [DESTINO]


ID
1215232
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Sistemas Operacionais
Assuntos

Julgue os itens seguintes, acerca dos sistemas operacionais Windows e Linux.

ReFS (Resilient File System), sistema de arquivos introduzido com Windows Server 2012, armazena dados de forma a protegê-los de erros comuns. Na utilização do ReFS com um espaço de armazenamento espelhado, caso seja detectada uma falha no disco, ela poderá ser reparada automaticamente, utilizando-se cópia alternativa fornecida pelo recurso espaço de armazenamento.

Alternativas
Comentários
  • De acordo com o link do site da TechNet ( http://technet.microsoft.com/pt-br/library/hh831724.aspx ):

    Integridade. O ReFS armazena dados de uma forma que os protege de muitos dos erros comuns que normalmente podem causar perda de dados. Quando o ReFS é usado com um Espaço de Armazenamento espelhado, a corrupção detectada (tanto de metadados como dados do usuário, quando os fluxos de integridade estão ativados), pode ser reparada automaticamente utilizando o cópia alternativa fornecida pelo recurso Espaços de Armazenamento. No caso de um erro de sistema, o ReFS se recupera rapidamente do erro sem nenhuma perda de dados do usuário.

  • Gabarito Certo

    Dentre as características que mais chamaram a atenção no ReFS está o alto grau de compatibilidade com discos NTFS, verificação e correção automática de erros no disco com o uso de ferramentas mais avançadas, foco em aplicações de alta escala, como grandes servidores, melhor suporte ao Bitlocker (mecanismo de criptografia nativo do Windows) e suporte a discos de até 16 exabytes (ou 16,77 milhões de terabytes), com planos de extensão para até 256 zettabytes (ou 274,87 bilhões de terabytes), contra "apenas" 16 teraytes suportados pelo NTFS (lembrando que 1 terabyte é igual a 1024 gigabytes, e os maiores discos do mercado atualmente alcançam 3 TB).

    Os novos recursos implementados lembram o ReFS como uma forma menos desenvolvida do ZFS ("Zettabyte" File System), sistema de arquivos desenvolvido pela Sun Microsystems (atual Oracle Corporation) em 2004, originalmente desenvolvido para suportar o openSolaris. Esse sistema prevê todos os recursos utilizados no ReFS e ainda alguns mais, como compressão e criptografia nativa.

     

    Enfim, na prática para o usuário comum pouca coisa vai mudar. O sistema ReFS será mais eficiente que o NTFS, pois vai diminuir a quantidade de fragmentação de seus arquivos, e continuará compatível com as versões mais antigas de sistemas como FAT e FAT32.

     

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !


ID
1215235
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Sistemas Operacionais
Assuntos

Julgue os itens seguintes, acerca dos sistemas operacionais Windows e Linux.

O top é uma ferramenta que permite monitorar os processos em execução no sistema Linux.

Alternativas
Comentários
  • O comando top no Linux exibe os processos em execução no sistema. Uma das ferramentas mais importantes para um administrador do sistema. É amplamente utilizado para monitorar a carga do sistema. 

    [http://www.linuxdescomplicado.com.br/2013/12/comandos-linux-dominando-o-comando-top.html]

  • GABARITO CORRETO.

     

    top: mostra os programas em execução ativos, parados, tempo usado na CPU, detalhes sobre o uso da memória RAM, Swap, disponibilidade para execução de programas no sistema, etc. top é um programa que continua em execução mostrando continuamente os processos que estão rodando em seu computador e os recursos utilizados por eles. Para sair do top, pressione a tecla q.

  • Pensei que fosse o ps

  • CUIDADO PARA NÃO CONFUNDIR OS COMANDO TOP E DU!

     

    -top: afere o uso da memória exibindo os processos em execução

     

    -du: (disk usage) determina quanto espaço em disco é ocupado 

     

    GAB: C

  • Tree of Process== TOP

  • o top vai mostrar o uso da memória, logo permite o monitoramento dos processos em execução

    https://www.devmedia.com.br/comandos-importantes-linux/23893

    C


ID
1215238
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Programação
Assuntos

Com relação ao Hibernate, julgue os itens subsecutivos.

Um arquivo de mapeamento (mapping file) informa ao Hibernate que tabela do banco de dados deverá ser acessada e quais as colunas da tabela deverão ser usadas por ele.

Alternativas
Comentários
  • Esse tipo é a moda retrô:

    https://www.tutorialspoint.com/hibernate/hibernate_mapping_files.htm

     

    Hoje tudo é via @annotation

     

    Go @head!!


ID
1215241
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Programação
Assuntos

Com relação ao Hibernate, julgue os itens subsecutivos.

Um dialeto encapsula todas as diferenças da forma com que o Hibernate se comunica com um banco de dados em particular para executar alguma tarefa, como recuperar um valor de uma sequência ou estruturar uma consulta SQL. A propriedade hibernate.dialect.property com a subclasse org.hibernate.dialect.Dialect define o dialeto para o banco de dados que se deseja utilizar.

Alternativas
Comentários
  • O Hibernate abstrai o seu código SQL, toda a camada JDBC e o SQL será gerado em tempo de execução. Mais que isso, ele vai gerar o SQL que serve para um determinado banco de dados, já que cada banco fala um "dialeto" diferente dessa linguagem. Assim há também a possibilidade de trocar de banco de dados sem ter de alterar código Java, já que isso fica de responsabilidade da ferramenta. Ao configurar o hibernate precisamos dizer qual dialeto de SQL deverá ser usado no momento que as queries são geradas, por exemplo: Oracle, 

    MySql, DB2, SQLServer, entre outros.

    A propriedade tem a seguinte configuração:

    <!--  propriedades do hibernate -->

    <property name="hibernate.dialect" value="org.hibernate.dialect.MySQL5InnoDBDialect" />



ID
1215244
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Governança de TI
Assuntos

Julgue os itens que se seguem, a respeito do COBIT 4.1.

A educação efetiva de todos os usuários de sistemas de TI dispensa a identificação das necessidades de treinamento de cada grupo de usuário. A identificação das necessidades gerais é complementada por uma estratégia de treinamento coletivo.

Alternativas
Comentários
  • ERRADO.

    Segundo o Cobit 4.1,"

    DS7 Educar e Treinar os Usuários

    A educação efetiva de todos os usuários de sistemas de TI, inclusive daqueles dentro da própria TI, requer a identificação das necessidades de treinamento de cada grupo de usuário. Como complemento à identificação dessas necessidades, esse processo compreende a definição e a execução de uma estratégia eficaz de treinamento e medição dos resultados. Um programa de treinamento eficaz aumenta o uso efetivo da tecnologia através da redução dos erros de usuário, aumento da produtividade e aumento da conformidade com os controles principais (como as medidas de segurança do usuário)."


ID
1215247
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Governança de TI
Assuntos

Julgue os itens que se seguem, a respeito do COBIT 4.1.

Desenvolvimento, compras, avaliação e execução são domínios de processos do COBIT

Alternativas
Comentários
  • Não não com esse nome, mas estão no mesmo contexto


    alguém explica?

  • O CobiT define as atividades de TI em um modelo de processos genéricos com quatro domínios. Esses domínios são Planejar e Organizar, Adquirir e Implementar, Entregar e Suportar e Monitorar e Avaliar. Esses domínios mapeiam as tradicionais áreas de responsabilidade de TI de planejamento, construção, processamento e monitoramento.

    Fonte: CobIT 4.1

  • WHAT ?!

  • Errado o correto é o POAIESMA, Planejar e Organizar, Adquirir e Implementar, Entregar e Suportar e Monitorar e Avaliar

  • Questão pro cara não zerar a prova.


ID
1215250
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Governança de TI
Assuntos

Julgue os itens que se seguem, a respeito do COBIT 4.1.

A entrega de valor visa garantir a ligação entre os planos de negócios e de TI, com a definição, manutenção e validação da proposta de valor de TI bem como o alinhamento das operações de TI com as operações da organização.

Alternativas
Comentários
  • Esta é a definição de alinhamento estratégico.

  • Segundo o Cobit 4.1,p.8,"Alinhamento estratégico: foca em garantir a ligação entre os planos de negócios e de TI, definindo, mantendo e validando a proposta de valor de TI, alinhando as operações de TI com as operações da organização.


    Entrega de valor: é a execução da proposta de valor de IT através do ciclo de entrega, garantindo que TI entrega os prometidos benefícios previstos na estratégia da organização, concentrado-se em otimizar custos e provendo o valor intrínseco de TI."

  • acho que a primeira parte está ao contrário. O correto seria: "a ligação entre os planos de negócios e de TI visa garantir a entrega de valor", e caso estivesse dessa forma seria a definição de alinhamento estratégico.


ID
1215253
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Governança de TI
Assuntos

Julgue os itens que se seguem, a respeito do COBIT 4.1.

Para proteger o local e os ativos físicos de uma organização, é necessário definir e implementar medidas de segurança física alinhadas com os requisitos de negócio. Essas medidas devem ser capazes de efetivamente prevenir, detectar e mitigar riscos relacionados a roubo, temperatura, vandalismo, quedas de energia e explosivos.

Alternativas
Comentários
  • São as famosas medidas Chuck Norris: assuviam e chupam manga ao mesmo tempo! #paradescontrair

  • CERTO. Trata-se o objetivo de controle do processo DS12 Gerenciar o Ambiente Físico

    DS12.2 Medidas de Segurança Física

    Definir e implementar medidas de segurança física alinhadas com os requisitos de negócio para proteger o local e os ativos físicos.As medidas de segurança física devem ser capazes de efetivamente prevenir, detectar e mitigar riscos relacionados a roubo, temperatura,fogo, fumaça, água, vibração, terrorismo, vandalismo, quedas de energia, produtos químicos ou explosivos."


ID
1215256
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Governança de TI
Assuntos

No que se refere à ITIL v3, julgue os itens seguintes.

O Service desk, cuja tarefa principal é restabelecer rapidamente a normalidade do serviço, é a unidade funcional envolvida em diversas tarefas relativas ao serviço, como, por exemplo, atender a chamada e requisições

Alternativas
Comentários
  • De boa: "O Service desk, cuja tarefa principal é restabelecer rapidamente a normalidade do serviço"? Essa não seria a função principal do processo Gerenciamento de Incidentes?

    Vejamos:

    Gerência de Incidentes:

    Objetivos

     Restaurar o serviço normal o mais rápido possível

     Minimizar o impacto negativo sobre as operações de negócio

    Se um incidente não puder ser resolvido rapidamente, pode ser escalado para outras instâncias

     Escalação funcional – repasse para equipe especializada de  suporte técnico

     Escalação hierárquica – acionamento de níveis gerenciais mais elevados

    Depois do diagnóstico e solução, o Service Desk deve verificar que o cliente esteja satisfeito!

    Já Service Desk tem outros objetivos:

    Ponto central de contato para clientes apresentarem questões, reclamações ou reportarem dificuldades

    Objetivos

    Assegurar a satisfação e retenção dos clientes dos serviços de TI

    Promover o uso eficiente e efetivo dos recursos tecnológicos

    Identificar e reduzir o custo total de propriedade (TCO) dos serviços de TI

    Suportar a integração de processos de negócio à infra-estrutura de gerenciamento de serviços

    Questão de gabarito bem questionável!!!
  • Olha de onde eles tiraram essa questão: "http://pt.m.wikipedia.org/wiki/Help_desk"

    A missão principal do service desk é o restabelecimento da operação normal dos serviços dos usuários o mais rápido possível, minimizando o impacto nos negócios causados por falhas de TI.

    Difícil ficar nas mãos dessas bancas!!!

  • Central de Serviços: função destinada a responder rapidamente as questões, reclamações e problemas dos usuários, de forma a permitir que os serviços sejam executados com o grau de qualidade esperado.

  • É do Gerenciamento de Incidentes, a tarefa principal é restabelecer rapidamente a normalidade do serviço e não do Service Desk.


    Veja bem como é absurda a questão proposta. Um exemplo: Se você liga no Call Center de uma operadora para resolver um determinado problema: falta de sinal de TV a cabo. É o Call Center quem irá resolver o seu problema de falta de sinal? Ou o papel dele é abrir um chamado para uma equipe técnica resolver o problema? 

  • Alguns esclarecimentos.

    Segundo a definição do próprio ITILv3, função é uma equipe ou grupo de pessoas e as ferramentas  ou outros recursos que são utilizados para conduzir um ou mais processos ou atividades.


    Portanto não há qualquer problema, em o ServiceDesk conduzir parte do processo de Gerenciamento de Incidente. Aliás, o suporte de primeiro nível é geralmente fornecido pelo ServiceDesk.

  • O que pegou foi dizer que a PRINCIPAL tarefa era restabelecer rapidamente a normalidade do serviço. Imaginei que a PRINCIPAL tarefa era servir como ponto único de contato com o usuário.

  • Restabelecer serviço rapidamente não é objetivo principal de gerenciamento de incidentes?
  • De fato é, e também fiquei na dúvida e errei a quesão por achar isso. 

     

    Mas vejamos o que diz Marcos André, no livro Gerenciamento de serviços de TI:

     

    "Os recursos alocados na Central de Serviços executam as atividades do processo Gerenciamento de incidentes e Cumprimento de Requisições em primeiro nível."

     

    Desse modo, o service desk é o primeiro nível de atendimento para incidentes e requisições, ficando sob sua responsabilidade o restabelecimento imediato dos serviços.

  • A central de serviço funciona como um ponto focal para os usuários no dia a dia, desde a simples retirada de dúvidas aos mais complexos incidentes.  

    Correta.


ID
1215259
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Governança de TI
Assuntos

No que se refere à ITIL v3, julgue os itens seguintes.

A ITIL tem como base as melhores práticas de gestão para que se reproduzam as técnicas de compra e produção de economia em escala dos itens de informática por empresas do mesmo setor.

Alternativas
Comentários
  • falando nada com nada!!

  • Itil é um guia de melhores práticas para gerenciamento de serviços de TI, não tem nada haver com "técnicas de compra e produção de economia em escala dos itens de informática por empresas do mesmo setor". Viagem dos caras!!!

  • Raphael, o erro é que estão falando coisa com coisa...

  • Quase apertei "notificar erro" de tão bagunçado que o enunciado está rs

  • O foco da ITIL é entregar serviço com qualidade ao usuário, alinhando TI e negócios.

    Errada.


ID
1215262
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Governança de TI
Assuntos

No que se refere à ITIL v3, julgue os itens seguintes.

Gerenciamento de disponibilidade é o processo que visa aperfeiçoar a capacidade da infraestrutura de TI, serviços e suporte para prover, a custo efetivo, um nível de disponibilidade que permita ao negócio atender a seus objetivos.

Alternativas
Comentários
  • pelo texto eu acho que a frase: "processo que visa aperfeiçoar a capacidade da infraestrutura de TI"


    Tinha mais a ver com gerenciamento de capacidade e não de disponibilidade

  • 3.3.2.1.2 Os Processos de Serviços de Entrega
    Gerenciamento de Disponibilidade:

    É o processo que visa otimizar a capacidade da infraestrutura de TI, serviços e suporte para prover, a custo efetivo, um nível de disponibilidade que permita ao negócio atender seus objetivos. Isto é obtido através da determinação dos requerimentos de disponibilidade do negócio e análise da capacidade da infraestrutura de TI para atender a estes requerimentos. As lacunas entre requerimento e capacidade são preenchidas através das alternativas disponíveis e opções de custos associados.

     

    Fonte:
    Monografia UFPE - 2008
    MODELO DE GOVERNANÇA DA SEGURANÇA DA INFORMAÇÃO NO ESCOPO DA GOVERNANÇA COMPUTACIONAL
    https://goo.gl/eQdAJo

     

  • Esse conceito está mais para Gerenciamento de Capacidade do que Disponibilidade, enfim...

    Segundo Aragon:

    Gerenciamento de Capacidade: "Assegura que a capacidade da infraestrutura de TI absorva as demandas evolutivas do negócio de forma eficaz e dentro do custo previsto, balanceando a oferta de serviços em relação à demanda e otimizando a infraestrutura necessária à prestação dos serviços de TI."

    Gerenciamento de Disponibilidade: "Visa assegurar que os serviços de TI sejam projetados para atender e preservar os níveis de disponibilidade e confiabilidade requeridos pelo negócio, minimizando os riscos de interrupção através de atividades de monitoramento físico."

  • Pra mim essa questão está errada. Segundo o conceito de [1], Gerenciamento de Disponibilidade é o processo responsável por garantir que os serviços de TI atendam às necessidades atuais e futuras de disponibilidade do negócio de uma maneira mais efetiva em custo e mais oportuna.

    [2] afirma que o processo GD assegura que os sistemas, redes, aplicações, estações de trabalho, e os serviços estejam disponíveis ao usuario/cliente quando necessitados. E que ele deve buscar constantemente a otimização da disponibilidada da infra de TI, a fim de proporcionar melhorias de disponibilidade de custo efetivo que possam entregar beneficios evidenciados ao negócio e aos usuários.

    Fontes:

    [1] Glossario ITIL

    [2] Gerenciamento de serviços de TI na prática: uma abordagem com base na ITIL, Ivan Luizio Magalhães, Walfrido Brito Pinheiro

  • A questão misturou gerenciamento de capacidade com gerenciamento de disponibilidade :(

  • Visa assegurar que os serviços de TI possuam nível de disponibilidade compatível com os níveis acordados, a um custo justificável.

    Correta.


ID
1215265
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Programação
Assuntos

Julgue o item abaixo, relativo à JPA (Java Persistence API).

A JPA, que foi criada como alternativa para o Hibernate para conexão com os sistemas gerenciadores de banco de dados, está nativa no Java SE a partir da versão 1.3.

Alternativas
Comentários
  • JPA é uma especificação Java 2 adotada pelo framework Hibernate!

  • É nativa no Java SE ou não?

  • Though JPA is a part of EJB 3 Specification it can be used in Java SE applications, outside of the Java EE environment.

  • Para complementar, de fato Hibernate tem relação com JPA, mas a nível de implementação, ou seja, o Hibernate implementa JPA. O detalhe é que você pode usar Hibernate sem JPA.

  • JPA = Especificação, 

    Hibernate = implementação, 
    EclipseLink = implementação. 
    O hibernate pode implementar  a especificação JPA.
  • e-

    A JPA, que foi criada como alternativa para o Hibernate........

    framework - hibernate

    especificação- JPA

     

    A abordagem tradicional era JDBC através de suas interfaces implementadas por seus drivers específicos para cada banco. JPA é semelhante, pois também tem classes e interfaces implementadas por provedor JPA, que interage diretamente com o JDBC, estabelecendo comunicação com o banco de dados. vantagem:nenhum código SQL fica na aplicação Java

  • Vamos lá:

     - O java errou muito quando reunia um grupo de pessoas e lancava uma especificacao para o mercado atender. Vide EJB 2x, simplesmente um fiasco.

    - O java aprendeu e foi olhando as melhores solucoes do mercado e fez uma especificacao baseado nessas solucoes. Por exemplo: do hibernate (que foi um sucesso) veio a especificacao JPA. O hibernate, então, adaptou sua estrutura pra seguir essa especificacao. Outro exemplo que segue a especificacao: EclipseLink.

    - Pra fugir um pouco de JPA: o EJB 3 foi baseado em algumas características do Spring (canivete suico).

    - Como o java viu que seria interessante o uso de JPA para aplicacoes desktop, incluiu isso também na versão JavaSE.

     

    A questão erra ao falar que a JPA está na versao 1.3.

  • JEE não JSE


ID
1215268
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Arquitetura de Software
Assuntos

Tendo como base os padrões de projeto de software, julgue os itens a seguir.

O Abstract Factory, cujo objetivo é permitir a unificação da interface de um sistema, é considerado um padrão comportamental devido à sua propriedade característica de alterar o comportamento do software de acordo com o comportamento do usuário.

Alternativas
Comentários
  • padrão de criação e não comportamental

  • Padrões de criação (para não esquecer): "Fábrica abstrata constrói protótipos únicos."

    1. Factory Method
    2. Abstract Factory
    3. Build
    4. Prototype
    5. Singleton
    Espero ter ajudado!
  • Quem unifica as interfaces de um sistema é o padrão façade.


  • Abstract Factory - Este padrão de projeto de software permite a criação de famílias de objetos relacionados ou dependentes por meio de uma única interface e sem que a classe concreta seja especificada.

    https://pt.wikipedia.org/wiki/Padr%C3%A3o_de_projeto_de_software

    Padrões GoF ('Gang of Four')
    Os padrões "GoF" são organizados em 3 famílias :

    Padrões de criação : relacionados à criação de objetos

    Padrões estruturais : tratam das associações entre classes e objetos.

    Padrões comportamentais : tratam das interações e divisões de responsabilidades entre as classes ou objetos.

    Padrões "GoF" organizados nas suas 3 famílias:


    Padrões de criação

    Abstract Factory 
    Builder
    Factory Method
    Prototype
    Singleton


    Padrões estruturais

    AdapterBridgeCompositeDecoratorFaçade (ou Facade)FlyweightProxy


    Padrões comportamentais

    Chain of ResponsibilityCommandInterpreterIteratorMediatorMementoObserverStateStrategyTemplate MethodVisitor

    Um padrão "GoF" também é classificado segundo o seu escopo em 2 outros grupos :


    Padrões com escopo de classe : definido por relacionamentos de herança e em tempo de compilação.
    Padrões com escopo de objeto : encontrados no relacionamento entre os objetos definidos em tempo de execução.


ID
1215271
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Engenharia de Software
Assuntos

Tendo como base os padrões de projeto de software, julgue os itens a seguir.

O polimorfismo na programação orientada a objetos é caracterizado quando duas ou mais classes distintas têm métodos de mesmo nome, de forma que uma função possa utilizar um objeto de qualquer uma das classes polimórficas, sem necessidade de tratá-lo de forma diferenciada conforme a classe desse objeto.

Alternativas
Comentários
  • Polimorfirmos é caracterizado pela junção de herança E a existência de mesma assinatura em algum método. Entendo que essa questão está errada ao afirmar que o polimorfismo é caracterizado pela existência de métodos de mesmo nome.

    Outro erro, na minha opinião, é afirmar que os métodos devem ter o mesmo nome, pois, na verdade, os métodos necessitam ter a mesma assinatura. A assinatura é composta pelo nome do método e seus parâmetros. O gabarito deveria ser ERRADO.
  • civio, metodos em uma classe filha com a mesma assinatura que na classe pai seria uma sobrescrita

  • Alguém pode explicar o que o trecho "sem necessidade de tratá-lo de forma diferenciada conforme a classe desse objeto" quer dizer?

  • Fogo, a questão me parece errada:

    "O polimorfismo na programação orientada a objetos é caracterizado quando duas ou mais classes distintas têm métodos de mesmo nome (...)"

    Nada me impede de criar uma classe A e outra B que implementam um método M1 com mesmo nome (ou até mesmo assinatura). O resto da frase estaria correta SE tivesse sido caracterizado a sobrescrita:
    "(...) de forma que uma função possa utilizar um objeto de qualquer uma das classes polimórficas, sem necessidade de tratá-lo de forma diferenciada conforme a classe desse objeto."



  • Giordanno, quer dizer que ele não faz tratamento. Por exemplo, temos a Classe Pessoa e sua filha Pessoa_Fisica, uma outra classe qualquer Consulta em determinado momento chama algum método da classe Pessoa, entretanto, a classe Pessoa_Fisica também tem esse método e pode ter sobrescrito ele. Essa classe pode receber um Objeto do tipo Pessoa_Fisica e chamar o mesmo método, dependendo de como estiver estruturado, será utilizado o método da classe filha ou da classe mãe, ou seja, não houve nenhum tratamento diferenciado pra receber a classe filha. 

    Ficou longo mas espero ter ajudado.

  • Valeu Flávio!

  • Definimos Polimorfismo como um princípio a partir do qual as classes derivadas de uma única classe base são capazes de invocar os métodos que, embora apresentem a mesma assinaturacomportam-se de maneira diferente para cada uma das classes derivadas.

    Leia mais em: Conceitos e Exemplos – Polimorfismo: Programação Orientada a Objetos http://www.devmedia.com.br/conceitos-e-exemplos-polimorfismo-programacao-orientada-a-objetos/18701#ixzz3shYbsiA7

  • Está certa a questão, ela trata do polimorfismo de função, capacidade de uma funçao manipular objetos de diferentes tipos sem modificar a sua assinatura. O generic é um exemplo de polimorfismo de função.


ID
1215274
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Arquitetura de Software
Assuntos

Tendo como base os padrões de projeto de software, julgue os itens a seguir.

Singleton é um padrão de projeto de software que garante a existência de apenas uma instância de uma classe, mantendo um ponto global de acesso ao seu objeto.

Alternativas
Comentários
  • https://pt.wikipedia.org/wiki/Singleton


    Singleton 

    Este padrão garante a existência de apenas uma instância de uma classe, mantendo um ponto global de acesso ao seu objeto.

    Nota linguística: O termo vem do significado em inglês quando se resta apenas uma carta nas mãos, num jogo de baralho.



ID
1215277
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Gerência de Projetos
Assuntos

De acordo com o PMBOK, julgue os itens que se seguem.

O ciclo de vida do projeto define a forma de operar de modo contínuo desde o fornecimento de funções de apoio ao gerenciamento de projetos — na forma de treinamento, software, políticas padronizadas e procedimentos — até o gerenciamento direto real e a responsabilidade pela realização dos objetivos do projeto.

Alternativas
Comentários
  • Alguém sabe o erro?

  • Projeto é um esforço temporário de tempo e não contínuo.

  • Esta me parecendo a definição de PMO e não de Ciclo de Vida;

    De suporte. Os PMOs de suporte desempenham um papel consultivo nos projetos, fornecendo

    modelos, melhores práticas, treinamento, acesso a informações e lições aprendidas com outros

    projetos. Este tipo de PMO atua como um repositório de projetos. O nível de controle exercido pelo

    PMO é baixo.

    De controle. Os PMOs de controle fornecem suporte e exigem a conformidade através de vários

    meios. A conformidade pode envolver a adoção de estruturas ou metodologias de gerenciamento de

    projetos usando modelos, formulários e ferramentas específicas, ou conformidade com a governança.

    O nível de controle exercido pelo PMO é médio.

    Diretivo. Os PMOs diretivos assumem o controle dos projetos através do seu gerenciamento direto.

    O nível de controle exercido pelo PMO é alto.


  • boa felipe.. passei despercebido nesse detalhe

  • Os PMOs podem operar de modo contínuo, desde o fornecimento de funções de apoio ao gerenciamento de projetos na forma de treinamento, software, políticas padronizadas e procedimentos, até o gerenciamento direto real e a responsabilidade pela realização dos objetivos do projeto.

    Fonte:
    Um Guia do Conjunto de Conhecimentos em Gerenciamento de Projetos Terceira edição
    (Guia PMBOK®)

  • Excelente contribuição, Luis Messias!!

  • Acho que devemos tomar um pouco de cuidado com esse termo "contínuo" que, nessa colocação, não esta' caracterizando o projeto como continuo, e sim a forma de operar dentro de um ciclo de vida(a continuidade das fases em um ciclo de vida, e não a continuidade do projeto em si).

    Esse conceito de continuidade se aplica, por exemplo, para projetos altamente adaptativos, que frequentemente executarão todos os grupos de processos de gerenciamento de projetos continuamente, durante todo o ciclo de vida do projeto.

    Fonte: PMBOK6, pg 668

  • O fornecimento de funções de apoio ao gerenciamento de projetos, ou mesmo a responsabilidade real pelo gerenciamento direto de um ou mais projetos podem ser responsabilidades do Escritório de Projetos (PMO).

    Errado.

  • O ciclo de vida do *projeto* define a forma de *operar de modo contínuo* desde o fornecimento de funções de apoio ao gerenciamento de projetos — na forma de treinamento, software, políticas padronizadas e procedimentos — até o gerenciamento direto real e a responsabilidade pela realização dos objetivos do projeto. Resposta: Errado. A parte entre os asteriscos denuncia o erro.
  • Essas questões lúdicas e subjetivas demais me dão nos nervos.... você tem que interpretar uma norma de uma área que não é a sua e ainda fica sujeito às arbitrariedades das interpretações da banca... sempre fica com a pulga atrás da orelha.... difícil ser especialista pós doc em 24 matérias viu...


ID
1215280
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Gerência de Projetos
Assuntos

De acordo com o PMBOK, julgue os itens que se seguem.

Os principais documentos para acompanhamento de projetos são o termo de abertura de projeto, a descrição dos objetivos e da justificativa do projeto, a estratégia de avaliação e monitoramento do projeto, a relação de indicadores de acompanhamento do projeto e o termo de encerramento do projeto.

Alternativas
Comentários
  • Alguem sabe o erro?

  • Os três principais documentos do projeto são:

    1) T.A.P. (Termo de abertura do projeto): Autoriza formalmente o projeto.

    2) Documento de Declaração do escopo: Determina qual trabalho deverá ser realizado e quais entregas precisam ser produzidas

    3) Plano de Gerenciamento do projeto: Determina como o trabalho será realizado.

    Obs: Conceito do PMBOK 3ª edição, mas continua válido


  • Prova: CESPE - 2012 - TJ-AL - Analista Judiciário - Área Administrativa

    Disciplina: Gerência de Projetos | Assuntos: PMBOK; 

    Em conformidade com o PMBOK, guia de melhores práticas em gestão de projetos, a elaboração de termo de abertura de projeto (TAP) e a identificação destakeholders (partes envolvidas) são atividades que pertencem ao grupo de processos intitulado

              a) planejamento.

                  b) iniciação.

                    c) monitoramento e controle.

              d) execução.

              e) encerramento.

    letra B


  • Existe apenas único documento principal que ė o Plano de gerenciamento do projeto....

  • O plano de gerenciamento do projeto é a principal fonte de informações de como o projeto será planejado, executado, monitorado e controlado, bem como encerrado. 

  • Apesar de o Sérgio ter citado o PMBOK3 como fonte e afirmar que o conceito continua válido, eu discordo de tal validade, uma vez que já estamos na versão 6 do PMBOK. Estou com as duas versões mais recentes aqui abertas(5 e 6) e em nenhuma delas ele fala explicitamente acerca dos documentos para acompanhamento de projetos. Só encontrei uma parte que chega perto disso, que é justamente o item Monitorar e Controlar o Trabalho do Projeto, que é descrito como o processo de acompanhamento, análise e relato do progresso geral para atender aos objetivos de desempenho definidos no plano de gerenciamento do projeto.

    Logo, a meu ver, apenas o monitoramento constitui-se em documento de acompanhamento. Talvez a fase de encerramento(não o termo de encerramento, como a questão coloca) tambem seria, uma vez que, para cada encerramento de atividade, ela é envolvida. Com relação aos indicadores de acompanhamento do projeto, como ele pertence aos processos de monitoramento, poderia também ser considerado um documento de acompanhamento.

    Logo, os documentos de acompanhamento envolvidos na questão, seriam: Monitoramento, Encerramento e indicadores.

  • O plano de gerenciamento do projeto é o principal documento para acompanhamento do projeto. Afinal, ele é o documento que descreve como o projeto será executado, monitorado e controlado, integrando e consolidando todos os planos de gerenciamento auxiliares e linhas de base dos processos de planejamento.

    Errado.


ID
1215283
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Gerência de Projetos
Assuntos

De acordo com o PMBOK, julgue os itens que se seguem.

Um projeto consiste em um trabalho temporário para criar um produto, serviço ou resultado exclusivo, ao passo que um trabalho operacional é constituído por operações contínuas e repetitivas.

Alternativas
Comentários
  • Definição Feijão com arroz do PMBoK...

  • Assertiva CORRETA. 

     

     

    Complementando: projetos podem resultar em novas operações. 

  • 2016

    O projeto caracteriza-se por não ser repetitivo e por produzir um resultado, um produto ou um serviço exclusivo, enquanto o processo (operação) é repetitivo e visa produzir os mesmos resultados cada vez que é executado.

    Certa

     

  • A questão temporal é a primeira que diferencia o projeto de uma operação continuada. O projeto é limitado no tempo; a operação continuada, como o próprio nome diz, é rotineira.

    Certa. 

  • A própria questão é o resumo de um projeto.


ID
1215286
Banca
CESPE / CEBRASPE
Órgão
TJ-SE
Ano
2014
Provas
Disciplina
Gerência de Projetos
Assuntos

De acordo com o PMBOK, julgue os itens que se seguem.

O risco do projeto é um evento que possui uma causa específica e, durante a execução do projeto, produzirá efeito negativo.

Alternativas
Comentários
  • Existem riscos positivos também 

    há quatro  formas de se lidar com os riscos

    1 - mitigar

    2 - prevenir

    3 - mitigar

    4 - absorver / explorar


  • Raphael, acho que vc confundiu os nomes, pois repetiu um deles. Segue:

    Formas de tratar riscos negativos:

    Eliminar 

    Mitigar (reduzir ao máximo as consequências)

    Transferir

    Aceitar


    Formas de tratar os riscos positivos:

    Explorar

    Compartilhar

    Melhorar

    Aceitar

  • boa.. faltou o transferir! valeu

  • Segundo o PMBOK 5,p.310, "

    O risco do projeto é um evento ou condição incerta que, se ocorrer, provocará um efeito positivo ou negativo em um ou mais objetivos do projeto tais como escopo, cronograma, custo e qualidade. Um risco pode ter uma ou mais causas e, se ocorrer, pode ter um ou mais impactos. Uma causa pode ser um requisito, premissa, restrição ou condição potencial que crie a possibilidade de resultados negativos ou positivos."

  • Risco é um evento ou condição incerte que, se ocorrer, provocará um efeito positivo ou negativo. Ele pode ter uma ou mais causas e, se ocorrer, pode ter um ou mais impactos. Riscos podem gerar efeitos positivos ou negativos.

    Professor Rafael Barbosa.

  • O risco do projeto é um evento ou condição incerta que, se ocorrer, provocará um efeito positivo ou negativo em um ou mais objetivos do projeto tais como escopo, cronograma, custo e qualidade. Um risco pode ter uma ou mais causas e, se ocorrer, pode ter um ou mais impactos.

    Errado.

  • Essa questão tem uma “pegadinha”! O risco não é necessariamente algo negativo. O risco está relacionado a alguma situação que pode ou não ocorrer. Seu impacto, entretanto, poderá ser positivo ou negativo.

    Prof. Rodrigo Rennó