SóProvas


ID
1870408
Banca
ESAF
Órgão
ANAC
Ano
2016
Provas
Disciplina
Sistemas Operacionais
Assuntos

Para o processamento de grandes massas de dados, no contexto de Big Data, é muito utilizada uma plataforma de software em Java, de computação distribuída, voltada para clusters, inspirada no MapReduce e no GoogleFS. Esta plataforma é o(a)

Alternativas
Comentários
  • Hadoop é uma plataforma de software em Java de computação distribuída voltada para clusters e processamento de grandes massas de dados. Foi inspirada no MapReduce e no GoogleFS (GFS).

     

     

    Hadoop – Wikipédia, a enciclopédia livre 

    https://pt.wikipedia.org/wiki/Hadoop

  • O Hadoop é uma plataforma open source desenvolvida especialmente para  processamento e análise de grandes volumes de dados, sejam eles estruturados  ou não estruturados. Pode-se dizer que o projeto teve início em meados de 2003,  quando o Google criou um modelo de programação que distribui o processamento  a ser realizado entre vários computadores para ajudar o seu mecanismo de busca  a ficar mais rápido e livre das necessidades de servidores poderosos (e caros).

    Esta tecnologia recebeu o nome de MapReduce.

  • Obrigado Thiago Magalhaes!, seu comentário foi muito pertinente e de grande valia para os meus estudos.

  • Obrigado Thiago Magalhaes!, seu comentário foi muito pertinente e de grande valia para os meus estudos.

  • Gaba: C

     

    Hadoop:

     

    - Não é um banco de dados,

    - É uma plataforma open source para processamento e análise de grande volumes de dados estruturados e não estruturados

    - Possui arquitetura em cluster

    - Serviços chaves: HDFS (sistema de arquivos distribuidos) e Map Reduce

    - Map Reduce: é um processo/modelo de programação que transforma dados maiores em menores. Falando de maneira mais bonita: permite o processamento de dados massivos em um algoritmo paralelo e distribuído.

  • Gabarito: D

     

    O Hadoop é um framework de código aberto, implementado em Java e utilizado para o processamento e armazenamento em larga escala, para alta demanda de dados, utilizando máquinas comuns.

    Os serviços do Hadoop fornecem armazenamento, processamento, acesso, governança, segurança e operações de dados.

    Ele foi inspirado no MapReduce e no GoogleFS.
     

     

    Exponencial Concursos.

  • Hadoop é uma solução de código aberto (open source), inspirada no MapReduce e no GoogleFS, que permite a execução de aplicações de Big Data utilizando milhares de máquinas. Oferece recursos de armazenamento, gerenciamento e processamento distribuído de dados.

  • O projeto Apache Hadoop® desenvolve software de código aberto (open source) para computação distribuída confiável, escalável. O Hadoop® nasce da divisão do projeto Nutch, de modo que a parte de rastreadores web foi separada e voltada aos motores de busca e a parte de processamento e computação distribuída tornou-se o Hadoop

    Perseverança!

  • Letra D (as demais opções não existem)

    Hadoop é mais do que um software – ele é uma plataforma, um framework, um ecossistema de computação distribuída orientada a clusters e voltado para armazenamento e processamento de grandes volumes de dados, com alta escalabilidade, grande confiabilidade e tolerância a falhas. Ele é responsável por todo gerenciamento do cluster, não sendo necessário configurar máquinas individualmente.