SóProvas


ID
2588047
Banca
CESPE / CEBRASPE
Órgão
TCE-PB
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Com referência a big data, assinale a opção correta.

Alternativas
Comentários
  • GAB: E

  • Questão retirada da página

    https://www.devmedia.com.br/hadoop-mapreduce-introducao-a-big-data/30034

     

  • a) Incorreto: A definição mais ampla de big data restringe o termo a duas partes -, o volume absoluto e a velocidade-,…

    O Big Data foi inicialmente conceituado com base em três premissas básicas, também conhecidas como 3Vs.

    Volume: o Big Data deve possibilitar a análise de grandes volumes de dados. Além disso, a tecnologia do Big Data serve exatamente para lidar com esse volume de dados, guardando-os em diferentes localidades e juntando-os através de software.

    Velocidade: o Big Data deve fornecer as repostas com velocidade e em tempo hábil.  O Big Data serve para analisar os dados no instante em que são criados, sem ter de armazená-los em bancos de dados.

    Variedade: o Big Data deve ser capaz de lidar com diferentes formatos de informação. Os dados podem estar em fontes estruturadas, semi-estruturadas e a grande maioria em fontes não estruturadas.

    b) O sistema de arquivos distribuído Hadoop implementa o algoritmo Dijkstra modificado para busca irrestrita de dados em árvores aglomeradas em clusters com criptografia.

    Não é possível afirmar a busca ocorre de maneira irrestrita, principalmente se os dados estiverem criptografados (protegidos). A proteção pode restringir o acesso ao conteúdo dos dados.

    c) Em big data, o sistema de arquivos HDFS é usado para armazenar arquivos muito grandes de forma distribuída, tendo como princípio o write-many, read-once write-once, read-many-times.

    O HDFS é um sistema de arquivos criado para armazenar arquivos muito grandes de forma distribuída. O conceito sobre o qual o HDFS foi construído é o chamado write-once, read-many-times, ou seja, escreva uma vez, leia muitas vezes. Esse tipo de construção é essencial para o Big Data, uma vez que os dados serão processados inúmeras vezes, dependendo da aplicação, embora, normalmente, sejam escritos apenas uma vez. Esse tipo de construção faz com que seja desaconselhável a modificação de arquivos, pois acaba gerando muita sobrecarga.

    d)Incorreto: Para armazenar e recuperar grande volume de dados, o big data utiliza bancos SQL nativos,…

    De fato, na definição da Amazon, “bancos de dados NoSQL usam diversos modelos de dados, incluindo documentos, gráficos e chave-valor e colunares. Justamente por este motivo, a assertiva está errada ao afirmar que o big data utiliza bancos SQL nativos, pois pode utilizar bases de dados não relativas a modelos relacionais.

    e) Correto: O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído.

    MapReduce é um modelo de programação, e framework introduzido pelo Google para suportar computações paralelas em grandes coleções de dados em clusters de computadores. Agora MapReduce é considerado um novo modelo computacional distribuído, inspirado pelas funções map e reduce usadas comumente em programação funcional.

    https://www.exponencialconcursos.com.br/tce-pb-comentarios-prova-de-analise-de-informacoes-gabarito-extraoficial/

  • pesada hein, mas é letra E mesmo

     

    MapReduce, vc tem uma quantidade massiva de dados e precisa chegar a uma conclusão significativa a respeito disso

     

    um bom exemplo

    https://stackoverflow.com/questions/12375761/good-mapreduce-examples

     

     

  • MapReduce é um modelo de programação projetado para processamento paralelo e distribuído de grandes conjuntos de dados.

  • Galera, pelo amor de nosso senhor jesus cristo, alguém sabe de algum curso que passe essa matéria de uma maneira mais inteligível para leigos no assunto? Não sou da  área de TI e para mim isso aí é uma mistura de grego com mandarim. Comprei o curso do estratégia, mas não to conseguindo progredir na matéria. Se alguém souber de algum curso bom e completo em linguagem não embaçada (de preferência em vídeo, aula em texto é foda), manda pra mim no privado, vou agradecer muito! 

  • O Gran Cursos tem um material que cobriu o conteúdo dessa prova.

  • Alguem ae estudando essas coisas pro concurso bb? Kk

  • O MapReduce é uma estrutura de software que permite que desenvolvedores escrevam programas que possam processar quantidades massivas de dados desestruturados em paralelo, através de um grupo distribuído de processadores.

    #CursoAdonai

  • a) A definição mais comum de big data tem três partes: volume, velocidade e variedade. Mais ampla que essa, já existe a definição dos 5 Vs, que adiciona as propriedades de veracidade e valor. ERRADA

    b) O Hadoop não é um sistema de arquivos distribuído em si, mas um projeto mais amplo, que conta com vários componentes. O sistema de arquivos do Hadoop é o HDFS. ERRADA

    c) Incorreta. Um dos princípios do HDFS é ter um modelo simples de coerência, ou seja, de consistência entre as diversas representações dos dados distribuídos. Esse modelo tem como característica o princípio write-once, read-many. Ou seja, se escreve os dados uma vez, para que possam ser lidos posteriormente quantas vezes for necessário, mas se evita realizar novas escritas (atualizações) nesses dados. ERRADA

    d) A ideia desses bancos de dados mais modernos é precisamente oferecer uma alternativa aos bancos de dados SQL (relacionais) tradicionais, com características diferentes, que os tornam mais apropriados para o processamento de big data. Por esse motivo, essa categoria de bancos de dados é conhecida como NoSQL (não apenas SQL). ERRADA

    e) O MapReduce é um modelo de programação inicialmente proposto pelo Google, que é caracterizado por duas funções principais (map e reduce), e tem como objetivo resolver problemas complexos com grandes volumes de dados em sistemas distribuídos. É essa a nossa resposta. CERTA

  • Ex:

    DF 195

    SC 57

    DF 200

    PR 1305

    =

    DF 395

    SC 57

    PR 1305

  • Gabarito: E.

    O MapReduce é baseado no paradigma de programação funcional, adotando duas funções que dão nome ao modelo: a função map e a função reduce. Esse modelo estabelece uma abstração que permite construir aplicações com operações simples, escondendo os detalhes da paralelização. Em resumo, tais funções transformam um grande volume de dados de entrada em um conjunto resumido e agregado na saída, sendo cada função executada em uma etapa distinta. Na primeira etapa, Map, uma função de mapeamento distribui os dados em diversos nós de processamento e armazenamento. Na segunda etapa, Reduce, uma função agrega e sumariza os resultados obtidos no mapeamento, para gerar um resultado final.

    Bons estudos!

  • Vou tentar simplificar o máximo com intuito de ajudar os colegas que - assim como eu - não são da área de T.I. Qualquer erro me avise!!

    Letra A) ERRADO - Não se restringe somente a esses dois termos. Na verdade o big data tem como "termos" os chamados 5 V's: Velocidade, volume, veracidade, valor e variedade.

    Letra B) ERRADO - Utiliza-se algoritmo paralelo e distribuído.

    Letra C) ERRADO - O texto está correto e lindo Cespe, quase chorei. Mas a questão se torna errada no final. O princípio é Write once -> Read many (Que é a ideia de "escreva uma vez, leia-se muitas")

    Letra D) -- -- Como ninguém é de ferro e as respostas estão vindo do meu material, devo assumir que não sei sobre essa questão.

    Letra E) Correta - Hadoop e MapReduce é tudo farinha do mesmo saco. Possui estrutura paralelo de processamento e distribuído. O intuito dele, o próprio nome ja diz: Mapear e reduzir. Ou seja, ele vai dividir grandes tarefas em tarefas menores e independentes. O responsável por essa divisão dentro do mapreduce é um cara chamado Nó mestre.

    Noix!

  • Lembrando que esse assunto cai na prova da PCDF, da PF e da PRF
  • Complementando o colega Igor Caceres, creio que o ERRO DA ALTERNATIVA D é esse!

    Falando em um contexto de Big Data! Grande parte dos dados armazenados e processados dentro desse conceito são não estruturados e/ou semi-estruturados, logo não se adequam bem a bases de dados relacionais em que se utiliza o SQL. Foi então que surgiu o NoSQL (Not Only SQL), que é voltado para BANCOS DE DADOS NÃO-RELACIONAIS e utilizam modelos diferentes de armazenamento de dados, os quais podem ser divididos em QUATRO CATEGORIAS PRINCIPAIS:

    ·        Chave-Valor

    ·        Orientado a Documentos

    ·        Orientado a Grafos

    ·        Orientado a Colunas (Colunar)

  • E eu preocupado com o nível do Ti para a Polícia Federal hahahhaha

  • a) Incorreto: A definição mais ampla de big data o que facilita a extração das

    informações e dos insights de negócios.

    O Big Data foi inicialmente conceituado com base em três premissas básicas,

    também conhecidas como 3Vs.

    ❖ Volume: o Big Data deve possibilitar a análise de grandes volumes

    de dados. Além disso, a tecnologia do Big Data serve exatamente para

    lidar com esse volume de dados, guardando-os em diferentes

    localidades e juntando-os através de software.

    ❖ Velocidade: o Big Data deve fornecer as repostas com velocidade e

    em tempo hábil. O Big Data serve para analisar os dados no instante

    em que são criados, sem ter de armazená-los em bancos de

    dados.

    ❖ Variedade: o Big Data deve ser capaz de lidar com diferentes

    formatos de informação. Os dados podem estar em fontes

    estruturadas, semi-estruturadas e a grande maioria em fontes não

    estruturadas

    b) Incorreto: O sistema de arquivos distribuído Hadoop implementa o

    algoritmo Dijkstra modificado para busca não é irrestrita de dados em árvores

    aglomeradas em clusters e não tem cripitrografia

    ▪ Não é possível afirmar a busca ocorre de maneira irrestrita,

    principalmente se os dados estiverem criptografados (protegidos). A

    proteção pode restringir o acesso ao conteúdo dos dados.

    c) Incorreto: Em big data, o sistema de arquivos HDFS é usado para armazenar

    arquivos muito grandes de forma distribuída, tendo como princípio o write-once, read-many-times

    d) Incorreto De fato, na definição da Amazon, “bancos de dados NoSQL usam diversos

    modelos de dados, incluindo documentos, gráficos e chave-valor e colunares.

    Justamente por este motivo, a assertiva está errada ao afirmar que big data

    utiliza bancos SQL nativos, pois pode utilizar bases de dados não relativas a

    modelos relacionais.

    e) Correto: O MapReduce é considerado um modelo de programação que

    permite o processamento de dados massivos em um algoritmo paralelo e

    distribuído.

    MapReduce é um modelo de programação, e framework introduzido pelo

    Google para suportar computações paralelas em grandes coleções de dados em

    clusters de computadores. Agora MapReduce é considerado um novo modelo

    computacional distribuído, inspirado pelas funções map e reduce usadas

    comumente em programação funcional.

    Gabarito: Letra E

  • O estratégia é bem fraco nessa área de TI mesmo, oque salva é informática.

  • Essa letra C ai estava na maldade kkkk

  • Explicação do MapReduce https://www.youtube.com/watch?v=rISmbGoO-cM

  • O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído.

    MapReduce é um modelo de programação, e framework introduzido pelo Google para suportar computações paralelas em grandes coleções de dados em clusters de computadores.

    Agora MapReduce é considerado um novo modelo computacional distribuído, inspirado pelas funções map e reduce usadas comumente em programação funcional.

    GABARITO: LETRA ''E''

    Prof. Ramon Souza