SóProvas


ID
2626795
Banca
CESPE / CEBRASPE
Órgão
ABIN
Ano
2018
Provas
Disciplina
Segurança da Informação
Assuntos

A respeito de escalabilidade, segurança, balanceamento de carga, fail-over e replicação de estados em sistema gerenciador web, julgue o item subsequente.

O fato de várias ferramentas de snapshots configurarem uma validade para cada cópia e, vencido o prazo, cópia ser apagada e o espaço reutilizado para um novo becape é um problema que pode ser solucionado, em um sistema gerenciador web, por meio da desduplicação na origem, tecnologia que permite guardar apenas os segmentos de dados únicos das VMs em cada snapshot, o que economiza tanto em armazenamento como em I/O de becape e tráfego na rede.

Alternativas
Comentários
  • Gabarito Certo

    Para identificar duplicidades, os dados podem ser analisados em diferentes formas, dependendo da tecnologia utilizada.  Na desduplicação em nível de arquivo, também chamada de armazenamento de instância única (SIS), os arquivos que serão copiados são comparados com arquivos que já foram armazenados. Se o arquivo é único, ele é armazenado e o índice é atualizado; se não, apenas um ponteiro para o arquivo existente é armazenado. O resultado é que apenas uma cópia do arquivo é salva e as cópias subsequentes são substituídas por ponteiros que direcionam ao arquivo original.

    A desduplicação em nível de arquivo é útil em alguns cenários, como em um servidor de arquivos, por exemplo, em que vários usuários eventualmente salvam o mesmo arquivo repetidas vezes em diferentes locais. Nesse caso, a desduplicação em nível de arquivo verifica as redundâncias e salva apenas uma cópia do arquivo com diversos ponteiros apontando para este local.  A desvantagem da desduplicação no nível de arquivo é a sua falta de granularidade e incapacidade de fornecer desduplicação no nível do subarquivo. Isso significa que mesmo a menor mudança em um arquivo, como a mudança do título, por exemplo, fará com que um novo arquivo que seja armazenado.

    A desduplicação de bloco opera no nível do sub-arquivo e pode ser de comprimento fixo ou variável. Como o próprio nome indica, o arquivo é normalmente dividido em segmentos – pedaços ou blocos – que são examinados para redundância em relação a informações armazenadas anteriormente.

     

    A desduplicação de comprimento fixo se vale de um algoritmo que divide um sistema de arquivos em segmentos de dados de mesmo comprimento. A principal limitação dessa abordagem é o fato de que, quando os dados em um arquivo são alterados (por exemplo, quando se adiciona um slide a uma apresentação do Microsoft PowerPoint), todos os blocos subsequentes no arquivo serão regravados e provavelmente serão considerados diferentes com relação ao arquivo original.

    A desduplicação de comprimento variável é uma abordagem mais avançada, que posiciona segmentos de comprimento variável com base em seus padrões de dados internos. Isso soluciona o problema de alteração de dados com relação à abordagem de blocos de comprimento fixo.

     

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !

  • Tecnicalidades à parte, o enunciado precisa passar por uma série revisão ortográfica e gramatical.

  • A desduplicação na origem é a remoção de redundâncias dos dados no ambiente de produção antes de serem transmitidos para o servidor ou appliance de backup. A desduplicação na origem é feita através de um software que se comunica com o servidor ou appliance de backup para comparar novos blocos de dados com blocos previamente armazenados.  Se o servidor ou appliance tiver armazenado anteriormente algum bloco de dados, ele não será enviado pela rede.

     

    O benefício principal da desduplicação na origem é a redução do uso da rede e, por consequência, maior eficiência no armazenamento. Por outro lado, ao realizar a remoção de redundâncias no ambiente de produção, ela compartilha o processamento utilizado por outras aplicações em funcionamento, o que pode impactar esse ambiente, caso o projeto não seja bem dimensionado.

     

    Fonte: http://www.aliancatecnologia.com/conteudo/2015/05/o-que-e-desduplicacao-e-o-que-sua-empresa-precisa-saber/

     

     

  • (C)

    MÉTODO NISHIMURA:

    1) Quando a questão explica sobre determinado assunto, geralmente, a assertiva é verdadeira;

    2) Quando a questão impõe algo, geralmente, a assertiva é falsa;

    3) Quando a questão compara duas tecnologias, geralmente, a assertiva é falsa;

    4) Quando a questão "fala mal" "menospreza" determinada tecnologia, geralmente a assertiva é falsa;

    5) Quando a questão enumera itens, se todos os itens pertencem ao mesmo grupo/programa, a assertiva é verdadeira;

    6) Se um dos itens, geralmente o último, não faz parte do grupo/programa, a assertiva é falsa;

    7) Estas palavras indicam uma questão certa: pode(m), permite(m), é possível, pode ser...

    8) Estas palavras indicam uma questão errada: automaticamente, deve. deve-se, só, somente, não permite, não sendo possível, sempre, é necessário, necessariamente.

  • Snapshot (FOTO DO SISTEMA): Cria-se uma fotografia do estado dos dados em um momento específico, estabelece um ponto de restauração caso haja falha. Fornece cópias instantâneas dos dados sem consumir muito espaço.

    São ideais para testes de backup ou de desenvolvimento, análise da informação e mineração de dados.

    Desduplicação: processo usado para diminuir a quantidade de dados armazenados. A ideia é fazer com que nunca exista dois ou mais computadores armazenando os mesmos dados. Ganha espaço em disco e diminuição no tempo de backup.