SóProvas



Questões de Big Data


ID
1451788
Banca
CESPE / CEBRASPE
Órgão
TRE-GO
Ano
2015
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item subsecutivo, acerca de procedimentos de segurança e educação a distância (EAD).

A Big Data pode ser utilizada na EAD para se entender as preferências e necessidades de aprendizagem dos alunos e, assim, contribuir para soluções mais eficientes de educação mediada por tecnologia.

Alternativas
Comentários
  • Correto. Big Data é um conjunto de dados muito grande que pode ser processado para gerar dados estratégicos em tomadas de decisões. Esta ferramenta hoje está sendo muito utilizada na EAD para se entender as preferências e necessidades de aprendizagem dos alunos e, assim, contribuir para soluções mais eficientes de educação mediada por tecnologia. Por exemplo, com a ajuda do Big Data pode-se detectar onde alunos estão tendo mais dificuldades em um determinado curso, o que possibilita um ajuste no seu conteúdo para facilitar o entendimento destes mesmos alunos.

    Fonte: http://www.estrategiaconcursos.com.br/blog/21714/

    Gabarito: Certo.


  • Olá pessoal;

    Big Data é o conjunto de soluções tecnológicas capaz de lidar com dados digitais em volume, variedade e velocidade inéditos até hoje. Na prática, a tecnologia permite analisar qualquer tipo de informação digital em tempo real, sendo fundamental para a tomada de decisões.


    http://oglobo.globo.com/infograficos/bigdata/


  • Fonte para o comentário da colega Mirelle Oliveira: Prof. Junior Martins, Estratégia Concursos.

    http://www.estrategiaconcursos.com.br/blog/21714/
  • Prezados,

    Big Data é um termo popular usado para descrever o crescimento, a disponibilidade e o uso exponencial de informações estruturadas e não estruturadas. O Big Data pode ser tão importante para os negócios - e para a sociedade - como a Internet se tornou. Dentre inúmeras possibilidades de uso do Big Data, uma delas é sim entender e mapear as preferências e necessidade de aprendizagem dos alunos.
    Portanto a questão está correta.

  • Big Data = Grandes dados ...
    para complemento o Big Data pode ser usado em outros cenários :

    Pode ser que seu caso seja um portal de saúde e bem estar que consegue cruzar dados comuns de idade, altura, peso, sexo e localização de 10 milhões de usuários por mês, e inferir qual região tem mais propensão à determinada doença; ou então você é uma empresa de fabricação de aviões e não quer virar manchete por causa de uma queda de suas aeronaves, então consegue analisar os mais de 280 sensores espalhados pelo seu avião e consegue cruzar estes dados e saber se aquele avião que está a 4 horas de seu destino precisa fazer uma parada em um aeroporto mais perto para uma manutenção ou então é possível esperar ele chegar a seu destino. 

    http://exame.abril.com.br/pme/noticias/o-que-e-big-data-e-como-usar-na-sua-pequena-empresa

  • Big Data é um termo popular usado para descrever o crescimento, a disponibilidade e o uso exponencial de informações estruturadas e não estruturadas. O Big Data pode ser tão importante para os negócios - e para a sociedade - como a Internet se tornou. Dentre inúmeras possibilidades de uso do Big Data, uma delas é sim entender e mapear as preferências e necessidade de aprendizagem dos alunos.

    Portanto a questão está correta.

  • pessoal copiando e colando o comentário do professor. 

  • A Alemanha usou Big Data na Copa e Big lascou o Brasil também :D
  • Cada dia aprendendo mais. Nem sabia disso.

    ATÉ PASSAR

  • Para Paulo Milet, sócio-diretor da Eschola.com e consultor em gestão, que é especialista em EAD e conteúdo para universidades corporativas, “qualitativamente, ferramentas do tipo Big Data e Adaptive Learning têm permitido um conhecimento muito maior e melhor do perfil e comportamento dos alunos, fazendo com que os novos cursos sejam cada vez mais eficazes”.

    http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?infoid=37729#.VpBAnOHSl0s


    Colegas de combate, vejam que o CESPE vem tirando muitas questões para prova de informática de artigos publicados no UOL, Revistas Veja e Super Interessante. Valido ler esses artigos em suas revisões semanais.


    Alguns de nós eram faca na caveira...

  • Olhar Digital : 

    https://www.youtube.com/watch?v=OMBGEQ3pjMw

  • Big Data (megadados) é uma estrutura similar, mas diferente, a um Datawharehouse. Sua finalidade é a manipulação de um grande volume de dados variáveis de valor e com grande velocidade, buscando a veracidade da informação. Quanto mais dados, mais fácil se torna tomar decisões e mais precisas elas são. Esses são alguns dos aspectos estudados pelo BI ( bussiness Intelligence).

    Fonte: João Paulo Colet Orso, Alfacon

  • Entenda o que é a Big Data e descubra como ela pode até "prever o futuro".
    https://www.youtube.com/watch?v=hEFFCKxYbKM

  • Muito bom Henrique O, valeu!

  • EaD é uma sigla que vem sendo cada vez mais usada e que significa Educação a Distância. Uma nova forma de ensino que se tornou possível graças aos novos avanços tecnológicos e ao advento da internet. Na EaD o aluno e o professor dispensam a necessidade de estar no mesmo espaço físico.

  • Muito bom mesmo Henrique esse vídeo
  • Henrique, video muito bom ! ! !

  • Que vídeo legal Henrique, valeu! 

  • MÉTODO NISHIMURA:

    1) Quando a questão explica sobre determinado assunto, geralmente, a assertiva é verdadeira;
    2) Quando a questão impõe algo, geralmente, a assertiva é falsa;
    3) Quando a questão compara duas tecnologias, geralmente, a assertiva é falsa;
    4) Quando a questão "fala mal" "menospreza" determinada tecnologia, geralmente a assertiva é falsa;
    5) Quando a questão enumera itens, se todos os itens pertencem ao mesmo grupo/programa, a assertiva é verdadeira;
    6) Se um dos itens, geralmente o último, não faz parte do grupo/programa, a assertiva é falsa;
    7) Estas palavras indicam uma questão certa: pode(m), permite(m), é possível, pode ser...
    8) Estas palavras indicam uma questão errada: automaticamente, deve. deve-se, só, somente, não permite, não sendo possível, sempre, é necessário, necessariamente.
     

  • Autor: Leandro Rangel , Auditor Federal de Finanças e Controle da Controladoria-Geral da União (CGU)

    Prezados,

    Big Data é um termo popular usado para descrever o crescimento, a disponibilidade e o uso exponencial de informações estruturadas e não estruturadas. O Big Data pode ser tão importante para os negócios - e para a sociedade - como a Internet se tornou. Dentre inúmeras possibilidades de uso do Big Data, uma delas é sim entender e mapear as preferências e necessidade de aprendizagem dos alunos.

    Portanto a questão está correta.

  • Vamos parar de postar método Mishimura, Samurai e outros e postar conceitos pertinentes a questão, pois utilizamos os comenários para aprender com os erros e acrescentar nos nossos resumos. Afff

  • Gabarito: CERTO.

     

    O objetivo do Big Data é propiciar dados e informações que possam ser analisados visando subsidiar tomadas de decisão.

    Assim, em um contexto de Educação à Distância, é perfeitamente possível analisar as preferências e necessidades dos alunos para, com base na tomada de decisão, melhorar as soluções para a aprendizagem destes alunos.

     

    Educadores armados com uma visão orientada a dados podem ter um impacto significativo sobre os sistemas escolares, estudantes e currículos.

    Analisando big data, eles podem identificar alunos em risco, assegurar que os estudantes estão progredindo de forma adequada, e podem implementar um sistema melhor de avaliação e apoio aos professores e diretores.
     

     

    Exponencial Concursos.

  • Obrigada Nerdologia, por me fazer acertar essa questão hehehe

  • Eu odeio esta matéria 

  • acho que é isso que usam aqui no Qconcurso, posso estar errado, mas faz sentido se usarem KK

  • Ou seja, dados sobre dados

  • Para quem caiu de paraquedas no Big Data assim como eu segue o link no youtube de 6 min explicando...

    Obg ao mano Henrique que compartilhou nos comentários!

    https://www.youtube.com/watch?v=hEFFCKxYbKM

  • Sendo bem prático, podemos afirmar o seguinte: quando a questão tratar de possíveis aplicações de big data, na maior parte das vezes teremos itens corretos. Veja que, uma vez que tenhamos um conjunto de dados grande (volume), que se apresentam de forma variada e são produzidos de forma bastante veloz, poderemos usar o termo big data para caracterizar a situação. Volume, variedade e velocidade são conhecidos como os 3 Vs de big data, sendo o conjunto de características mais representativo dessas tecnologias.

    No caso da questão, não temos elementos suficientes para julgar se a solução concreta a ser proposta tem a ver com big data mesmo. No entanto, como a banca perguntou se “pode ser utilizada”, só nos resta responder que sim. Não existe nenhum campo do conhecimento que possamos dizer “ah, mas aqui não podemos usar big data”. A resposta vai depender sempre da natureza dos conjuntos de dados utilizados.

  • Correto. Big Data é um conjunto de dados muito grande que pode ser processado para gerar dados estratégicos em tomadas de decisões. Esta ferramenta hoje está sendo muito utilizada na EAD para se entender as preferências e necessidades de aprendizagem dos alunos e, assim, contribuir para soluções mais eficientes de educação mediada por tecnologia. Por exemplo, com a ajuda do Big Data pode-se detectar onde alunos estão tendo mais dificuldades em um determinado curso, o que possibilita um ajuste no seu conteúdo para facilitar o entendimento destes mesmos alunos.

    Fonte: http://www.estrategiaconcursos.com.br/blog/21714/

  • CERTO

    BIG DATA - Grande volume e variedade de dados , conhecido pelas características do 5V.

    -VELOCIDADE

    -VARIEDADE

    -VOLUME

    -VERACIDADE

    -VALOR

    BONS ESTUDOS

  • Big Data (megadados) é uma estrutura similar, mas diferente, a um Datawharehouse. Sua finalidade é a manipulação de um grande volume de dados variáveis de valor e com grande velocidade, buscando a veracidade da informação. Qyanto mais dados, mais fácil se torna tomar decisões e mais precisas elas são. Esses são alguns dos aspectos estudados pelo BI (Bussines Intelligence).

  • Prazer

  • CERTO

  • Definição simples para agregar: Big Data pode ser definido como um conjunto de técnicas capazes de se analisar grandes quantidades de dados para a geração de resultados importantes que, em volumes menores, dificilmente seria possível.

  •  Big Data prazer é vc ?

  • Hoi, big data, ne?

  • BIG DATA

    BIG DATA(GRANDES DADOS)

    É UMA TECNOLOGIA CAPAZ DE MANIPULAR, ANALISAR E PROCESSAR GRANDES VOLUMES DE DADOS COM O OBJETIVO DE GERAR DADOS ESTRATÉGICOS QUE AUXILIAM NA TOMADA DE DECISÃO, POIS PERMITE A ANÁLISE DE GRANDE VOLUME DE DADOS VARIADOS, DE FORMA RÁPIDA(VELOCIDADE), OU MELHOR, EM TEMPO REAL.

    CARACTERÍSTICAS (5V´s)

    Variedades de dados: A Big Data trabalha com diferentes tipos de dados

    Velocidade: Os dados são gerados e acessados rapidamente

    Volume: A Big Data gerencia um grande volume de dados

    Veracidade: Os dados disponíveis no sistema devem ser confiáveis

    Valor: A Big Data precisa produzir resultados que gerem valor para a instituição/empresa/pessoa, agregando assim melhorias.

    Vamo pra cima! Favela vai vencer e minha coroa vai sorrir!

  • Na apostila do QB kakak

  • Certa

    Big Data: É um termo popular utilizado para descrever o crescimento, a disponibilidade e o uso exponencial de informações estruturadas e não estruturadas. O big data pode ser tão importante para os negócios - e para a sociedade - como a internet se tornou. Dentre inúmeras possibilidades de uso do big data, uma delas é sim entender e mapear as preferências e necessidades de aprendizagem dos alunos.

  • Apenas 3 questões que encontrei falando de Big Data, tenha medo de como virá na prova.

  • Olha o BIG aii... assunto top!!!

  • • Variedade: tipos de dados.

    • Velocidade: velocidade de produção e processamento de dados.

    • Volume: tamanho dos dados.• Veracidade: confiabilidade e confiança nos dados.

    • Veracidade: confiabilidade e confiança nos dados.

    • Valor: valor derivado da exploração de Big Data

    Obs.: os “três Vs” originais eram: variedade, velocidade e volume.

    A variedade refere-se aos tipos de dados – estruturados, semiestruturados e não estrutu-rados. O Big Data processa esses dados e os agregam a alguma informação para a tomada de decisão. O Big Data está associado aos conceitos de ML (Machine Learning), ou seja, de aprendizagem de máquina.

    Exemplo: após fazer a consulta de algum termo, propagandas relacionadas àquele termo começam a aparecer para o usuário. Esse procedimento utiliza os conceitos de ML e de Big Data, pois coleta os cookies do computador e, através deles, analisa o perfil de acesso do usuário.

  • Big Data descreve o grande volume de dados estruturados e não estruturados que podem trazer impactos aos negócios. é formado por aplicações usadas para analisar dados, transformando-os em um modelo visual, como gráficos e tabelas para análises sofisticadas da realidade e das tendências do negócio.

  • Assertiva C

    A Big Data pode ser utilizada na EAD para se entender as preferências e necessidades de aprendizagem dos alunos e, assim, contribuir para soluções mais eficientes de educação mediada por tecnologia.

    Vulgo " big data e inteligência analítica"

  • Para que esse assunto fique um pouco menos abstrato, é necessário que busquemos instrumentos que nos ajudem a visualizar de forma prática o que foi pedido. Dentre essas ferramentas, podemos citar o GOOGLE TRENDS.

    Google Trends é uma ferramenta do Google que mostra os mais populares termos buscados em um passado recente.

    A ferramenta apresenta gráficos com a frequência em que um termo particular é procurado em várias regiões do mundo, e em vários idiomas. O eixo horizontal do gráfico representa tempo (a partir de algum tempo em 2004), e o vertical é com que frequência é procurado um termo, globalmente. Abaixo do gráfico principal, a popularidade é dividida por países, regiões, cidades e linguagem. Também permite ao usuário comparar o volume de procuras entre duas ou mais condições. Notícias relacionadas aos termos buscados são mostradas ao lado e relacionadas com o gráfico, apresentando possíveis motivos para um aumento ou diminuição do volume de buscas. Em 2015, o Google Trends está disponível em 28 países, inclusive o Brasil. Segundo dados da própria empresa, são realizadas 100 bilhões de consultas por mês.

  • CERTO

    Big Data pode ser aplicado em diversas áreas: Saúde, agricultura, gestão pública, transporte, educação, etc.

    • Na educação em geral: é possível monitorar as ações dos alunos, como o tempo eles levam para responder a uma pergunta, quais fontes eles usam e quais perguntas deixam de responder.
    • Com a ajuda de analytics, instituições de ensino podem criar programas personalizados
    • Feedback imediato para os professores

    etc...

  • Essas preferências e necessidades são, justamente, produto das análises do grande volume de dados que é o BigData.


ID
2799229
Banca
CESPE / CEBRASPE
Órgão
Polícia Federal
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

    Em um big data, alimentado com os dados de um sítio de comércio eletrônico, são armazenadas informações diversificadas, que consideram a navegação dos usuários, os produtos comprados e outras preferências que o usuário demonstre nos seus acessos.

Tendo como referência as informações apresentadas, julgue o item seguinte.

O big data consiste de um grande depósito de dados estruturados, ao passo que os dados não estruturados são considerados data files.

Alternativas
Comentários
  • Questão totalmente errada! Big data vale para dados estruturados e não estruturados.

  • "Big data incorpora todas as variedade de dados, incluindo dados estruturados e dados desestruturados de e-mails, mídia social, transmissão de texto e assim por diante. Esse tipo de gestão de dados exige que as empresas aproveitem tanto seus dados estruturados quando desestruturados."

    Fonte: Big Data para leigos

     

    GABARITO: Errado

  • DADOS ESTRUTURADOS = dados mantidos em um SGBD. Mantém a mesma estrutura de representação, independente de dados. Fracamente evolutiva (modifica-se com pouca frequência), Prescritiva (esquemas fechados e restrições de integridade)

    DADOS SEMIESTRUTURADOS = não estão de acordo com a estrutura formal dos modelos de banco de dados relacionais. Apresentam uma estrutura heterogênea. Não são estritamente tipados. Ex: XML, RDF, OWL

    DADOS NÃO ESTRUTURADOS = dados que NÃO possuem uma estrutura definida, caracterizados por textos, imagens, vídeos. Os dados não estruturados são o fundamento da Big Data. Ex: arquivos de vídeo, áudio, imagens, e-mails

  • 2018

    Se um sistema de informação correlaciona os dados da tabela em questão com outros dados não estruturados, então, nesse caso, ocorre um processo de mineração de dados.

    certa

    2018

    Os dados armazenados na referida tabela são considerados não estruturados.

    errada

    estruturados - tabela

    semi - xml

    nao - big data

  • Big Data

    É o termo que descreve o imenso volume de dados, estruturados e não estruturados, que impactam os negócios no dia a dia.  Um dos desdobramentos de big data é o big data analytics, que se refere aos softwares capazes de tratar dados para transformá-los em informações úteis às organizações. O big data analytics difere do business intelligence por analisar o que já existe e o que está por vir, apontando novos caminhos.

    Os V’s do Big data:

    Volume: Dados de grande variedade de fontes.

    Variedade: Quanto mais dados e fontes, maior q complexidade e possibilidades que tem de gerar informação útil.

    Velocidade: Os dados devem fluir em uma velocidade útil para que a tomada de decisões seja efetivada.

    Veracidade: O quanto a informação é verdadeira.

    Valor: A informação deve ser certa para pessoas certas, sendo, portanto, uma informação útil.

  • vamos pela lógica do negócio:

    se estamos falando em BIG DATA - estamos falando de dados que por sua vez constituem INFORMAÇÕES que são esses dados já TRATADOS.

    Se no final da frase nos diz DATA FILES são DADOS novamente, portanto o BIG DATA engloba TODOS os dados, ao passo que data files fazem parte de um banco de dados, fazem parte da BIG DATA portanto.

    espero ter ajudado, nós da área de infromática nem sempre sabemos nos expressar de forma clara rsrs....

  • ERRADO

    O que é Big Data?

    Esse termo se refere aos dados estruturados e não estruturados que são gerados diariamente — na verdade, a cada segundo — pelas empresas. É uma ferramenta inserida no contexto da Era da Informação que permite aos negócios maior capacidade de tomar decisões acertadas e definir o melhor caminho a seguir.

    https://inteligencia.rockcontent.com/big-data/

  • BIG DATA: É grande base de dados. Quantidade de dados que tem no mundo.

  • ERRADO.

    Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade.

    A variedade do Big Data refere-se justamente à possibilidade de podermos utilizar os diferentes tipos de dados simultaneamente: estruturados e não estruturados.

  • Errado.

    Big Data consiste na capacidade de armazenar e interpretar grande quantidade e variedades de dados.

    Data files - são arquivos de dados, geralmente os dados de uma banco de dados são armazenados em arquivos ou simplesmente data files.

  • Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade.

    A variedade do Big Data refere-se justamente à possibilidade de podermos utilizar os diferentes tipos de dados simultaneamente: estruturados e não estruturados.

  • 80% dos dados são não estruturados

  • Big Data é um termo amplamente utilizado na atualidade para nomear conjuntos de dados que podem ser estruturados e não estruturados.

  • Gabarito: Errado.

    O Big Data consiste no gerenciamento e na análise de dados que vão além dos dados tipicamente estruturados. A questão afirma que dados não estruturados são considerados Data Files (que são arquivos de dados), no entanto dados não estruturados podem ser de absolutamente qualquer tipo, como vídeo digital, imagens, dados de sensores, arquivos de logs, entre outros.

    Fonte: Prof. Diego Carvalho – Estratégia Concursos.

  • Big data vale tanto para dados estruturados como p/ não estruturados. Além disso, dados não estruturados podem ser de absolutamente qualquer tipo

  • BIG DATA

    Dados:

    Estruturados

    Semiestruturados

    Não estruturados (80%)

  • Dados estruturados = DATA WAREHOUSE.

  • Big Data é a expressão que descreve o grande volume de dados estruturados e não estruturados que podem trazer grandes impactos aos negócios. é formado por aplicações para analisar dados, transformando-os em um modelo visual, como gráficos e tabelas que permitem análises da realidade e das tendências do negócio.

  • ERRADO

    BIG DATA ENGLOBA AS INFORMAÇÕES ESTRUTURADAS E NÃO ESTRUTURADAS.

    Informações estruturadas – aquelas que possuem algum padrão ou formato que pode ser usado na sua leitura e extração dos dados. Dados de bancos de dados, sistemas legados, arquivos texto (sejam csv, txt ou XML).

    Informações não estruturadas – não possuem um formato padronizado para leitura, podem ser arquivos Word, Páginas de Internet/Intranet, Vídeos, áudios, entre outros.

  • dados estruturados ou não estruturados

  • Errado

    Big Data é “definido genericamente como a captura, gerenciamento e a análise de dados que vão além dos dados tipicamente estruturados, que podem ser consultados e pesquisados através de bancos de dados relacionais.

    Frequentemente são dados obtidos de arquivos não estruturados como vídeo digital, imagens, dados de sensores, arquivos de logs e de qualquer tipo de dados não contidos em registros típicos com campos que podem ser pesquisados”.

    • Dados estruturados: são armazenados em bancos de dados, sequenciados em tabelas;

    • Dados semiestruturados: acompanham padrões heterogêneos, são mais difíceis de serem identificados pois podem seguir diversos padrões;

    • Dados não estruturados: são uma mistura de dados com fontes diversificadas como imagens, áudios e documentos online.

  • Big Data tem dados estruturados e não estruturados!

    Segundo Siewert (2013), o Big Data tem variadas fontes de dados como:

    • dados gerados pelas máquinas (redes de sensores, logs);

    • dispositivos móveis (vídeo, mensagens, fotografias);

    • comunicação máquina a máquina, a “Internet das coisas”;

    • dados em bancos de dados relacionais oriundos das transações da organização;

    • imagens de documentos etc.

    Bons estudos! ;)

  • ERRADO

    Conceito de Big Data:

    Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade. Para isso são necessárias soluções específicas para Big Data que permitam a profissionais de TI trabalhar com informações não-estruturadas a uma grande velocidade.

    PRF 1.499 Vagas disponíveis pra vocês, uma já é minha.

    Vamos a luta estamos vivos !!

    PRF Brasil...

  • O Banco de Dados trabalha com dados estruturados e também com os não estruturados.

  • ☠️ GABARITO E ☠️

    ➥Direto ao ponto:

    O big data engloba todos os tipos de dados, seja ele estruturados ou não estruturados.

    BIG DATA

    Grande banco de dados.

    Engloba todos os tipos de dados.

    Dados estruturados ou não estruturados.

    Para melhor proveito, usa-se Data Mining e Data Warehouse.

    Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    ____________

    Bons Estudos!

  • O Big Data consiste no gerenciamento e na análise de dados que vão além dos dados tipicamente estruturados. A questão afirma que dados não estruturados são considerados Data Files (que são arquivos de dados), no entanto dados não estruturados podem ser de absolutamente qualquer tipo, como vídeo digital, imagens, dados de sensores, arquivos de logs, entre outros. 

    Fonte: Estrategia concursos

  • Big Data também poderia ser considerado como Any Data (qualquer dado), hoje temos capacidade de capturar e analisar dados estruturados e não estruturados, texto, sensores, navegação Web, áudio, vídeo, arquivos de logs, catracas, centrais de ar condicionado, entre outros.

    https://www.cetax.com.br/blog/big-data/

  • Prezados,

    Big data tem muitas definições. Segundo a definição originária da Gartner, Big data são dados com maior variedade, que chegam em volumes crescentes e com velocidade cada vez maior (os 3 Vs iniciais).

    O V da variedade prega exatamente que o Big data é um conjunto de dados estruturados e não estruturados que podem ser trabalhados em conjunto. 

    Portanto a questão está errada.


    Gabarito do Professor: ERRADO.
  • GAB: E

    BIG DATA ABRANGE DADOS ESTRUTURADOS E PRINCIPALMENTE, OS NAO ESTRUTURADOS.

  • Desestruturados

  • ESTRUTURADOS:

    São dados que podem ser armazenados, acessados e processados em formato fixo e padronizado de acordo com alguma regra específica.

    Ex.: Planilhas Eletrônicas, Bancos de Dados Relacionais e CSV.

     

    SEMI-ESTRUTURADOS:

    São dados estruturados que não estão de acordo com a estrutura formal dos modelos de dados como em tabelas, mas que possuem marcadores para separar elementos semânticos e impor hierarquias de registros e campos dentro dos dados.

    Ex.: Dados de E-mail, Arquivos XML, Arquivos JSON e Banco de Dados NoSQL.

     

    NÃO-ESTRUTURADOS:

    São dados que apresentam formato ou estrutura desconhecidos, em que não se sabe extrair de forma simples os valores desses dados em forma bruta.

    Ex.: Documentos, Imagens, Vídeos, Arquivos de Texto, Posts em Redes Sociais.

  • Data files ou arquivos de dados.

    Big data alimenta os estruturados e principalmente os não supervisionados.

  • A definição de big data não é “um grande depósito de dados estruturados” (isto é, na verdade, um data warehouse). Big Data trata-se de tecnologias, e não depósitos de dados.

    Ademais, os data files não estão relacionados diretamente ao escopo do nosso estudo de Big Data.

    Resposta: Errado

  • Errado! Big Data comporta tanto dados estruturados, quanto dados não estruturados. Vem comigo:

    -

    BIG DATA

    ➥ É definido como coleções de dados cuja sua quantidade é tão grande que é difícil armazenar, gerenciar, processar e analisar esses dados por meio de bancos de dados tradicionais.

    ➥ Nos dias atuais, as entidades são bombardeadas com um enorme fluxo de informações cruciais para suas atividades.

    ► Esses dados podem vir de fontes diferentes e podem ser de tipos diversos (estruturados, semiestruturados ou não estruturados).

    [...]

    ☛ Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    [...]

    Velocidade

    ➥ Está relacionada com o fato dos dados em big data ocorrem em fluxo contínuo. É o que acontece com as postagens nas redes sociais.

    [...]

    Volume

    ➥ Está relacionado com a quantidade de espaço que é necessário para armazenar dados de big data. Geralmente, esses dados não irão caber, por exemplo, no seu computador de casa.

    [...]

    Variedade

    ➥ Está ligada ao fato dos dados possuírem diferentes naturezas. O big data não tem preconceito. Todo tipo dado é bem vindo. Seja ele estruturado ou não estruturado.

    [...]

    Variabilidade

    ➥ É a oscilação nos níveis dos dados colhidos e trabalhados. Como essas informações vêm de múltiplas fontes, dizemos que o nível é variável.

    [...]

    Viscosidade

    ➥ Tem relação com a dificuldade de navegar entre os dados. Essa dificuldade pode ser considerar como uma espécie de inércia. Como os dados são variados, o algoritmo tem que ser capaz de lidar com diferentes fontes, essa flexibilidade tem um custo. Um deles é a viscosidade.

    [...]

    Volatilidade

    ➥ Diz respeito às inconsistências nos dados ou à mudança de dimensões entre eles, já que vêm de vários tipos origens.

    [...]

    (CESPE – Papiloscopista da PF 2018)

    De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. (CERTO)

    .

    (CESPE – Agente de Polícia Federal 2018)

    Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO)

    [...]

    RESUMO

    Grande banco de dados.

    Engloba todos os tipos de dados.

    Dados estruturados ou não estruturados.

    Para melhor proveito, usa-se Data Mining e Data Warehouse.

    -

    Logo, Gabarito: Errado.

    ___________

    Fontes: Techtudo; Questões da CESPE; Colegas do QC.

  • De modo simplificado, Big Data armazena um grande volume de dados estruturados e dados não estruturados.

    O erro da questão está justamente nesse ponto, em falar que Big Data armazena apenas os Estruturados.

    GAB: Errado.

  • "A definição de big data não é “um grande depósito de dados estruturados” (isto é, na verdade, um data warehouse). Big Data trata-se de tecnologias, e não depósitos de dados.

    Ademais, os data files não estão relacionados diretamente ao escopo do nosso estudo de Big Data."

    Prof. Victor Dalton Direção Concursos

  • Big data

    Conceito: tecnologias para a análise de grandes volumes de dados estruturados e não estruturados. Isto é feito por meio do uso de algoritmos estatísticos avançados que fazem, entre outros, análises preditivas e análises de tendências.

    “um grande depósito de dados estruturados” isto sim é, um data warehouse

    Dados estruturados: dados mantidos em um SGBD, informações mais organizadas.

    Ex.: Planilha de uma empresa com informações gerais dos funcionários.

    Dados não estruturados: Não possui uma estrutura definida.

    Redes sociais são exemplos muito frequentemente associados a big data.

  • ERRADO

    Big Data não é apenas dados estruturados...

    DADOS ESTRUTURADOS: formato fixo e padronizado, regra específica (planilhas)

    DADOS SEMI-ESTRUTURADOS: não estão de acordo com a estrutura formal, mas possuem marcadores (dados de e-mail)

    DADOS NÃO-ESTRUTURADOS: formato ou estrutura desconhecida (doc., imagens, vídeo)

  • Dados:

    1. Estruturados
    2. Semiestruturados
    3. Não estruturados (hoje mais de 80%, chegando a quase 90% dos dados produzidos no mundo)

    Perseverança!

  • Prezados,

    Big data tem muitas definições. Segundo a definição originária da Gartner, Big data são dados com maior variedade, que chegam em volumes crescentes e com velocidade cada vez maior (os 3 Vs iniciais).

    O V da variedade prega exatamente que o Big data é um conjunto de dados estruturados e não estruturados que podem ser trabalhados em conjunto. 

    Portanto a questão está errada.

  • RESUMO BIG DATA PRF

    Big Data é uma nova geração de tecnologias e arquiteturas, projetadas economicamente para extrair valor de volumes muito grandes e vastos de dados, permitindo alta velocidade de captura, descoberta e análise.

    < Big data refere-se a grandes volumes de dados estruturados e principalmente não estruturados, tem 5 características que são:)

    Big Data não é apenas dados estruturados...

    DADOS ESTRUTURADOS: formato fixo e padronizado, regra específica (planilhas)

    DADOS SEMI-ESTRUTURADOS: não estão de acordo com a estrutura formal, mas possuem marcadores (dados de e-mail)

    DADOS NÃO-ESTRUTURADOS: formato ou estrutura desconhecida (doc., imagens, vídeo)

    Os 3 V's:

    Velocidade, Volume, Variedade.

    Quando a questão falar 3v's, VARIVELVO"

    VAriedade

    VElocidade

    VOlume

    5 V's:

    Velocidade, Volume, Variedade, Valor e Veracidade

    Os dois últimos foram adicionados aos Vs recentemente.

    - Volume – há um grande volume de dados: Big Data serve exatamente para lidar com esse volume massivo de dados, guardando-os em diferentes localidades e juntando-os através de software.

    - Variedade – os dados são variados: não seguem um único padrão e nem fornecem todos o mesmo tipo de informações - heterogeneidade dos dados.

    - Velocidade – os dados são criados em uma velocidade surpreendente: O Big Data serve para analisar os dados no instante em que são criados, em tempo real, sem ter de armazená-los.

    Posteriormente foi acrescentado mais 2Vs:

    - Valor – os dados devem possuir valor, ou seja, deve agregar no conhecimento da informação. definir a abordagem que será feita dessa massa de dados que está circulando, relevante ou útil para os objetivos específicos de uma empresa.

    - Veracidade – não basta ter uma grande quantidade de dados, esses dados devem ser verídicos.

    Bizus dos colegas aqui do QC:

    VAVA VEVE VO

    Vera varia valor do frete entre volume e velocidade

    --------------------------------------------------------------------------------------------------------------------------------------------

     

    Big Data Analytics: o estudo e interpretação de grandes quantidades de dados armazenados com a finalidade de extrair padrões de comportamento.

    Objetivo: auxiliar empresas privadas ou administradores de órgãos públicos a entender seus usuários, encontrar oportunidades não percebidas anteriormente, fornecer um serviço melhor e mitigar possíveis fraudes.

    Obs: Business Intelligence trata de encontrar respostas que explicam o passado, já o Big Data Analytics trata de encontrar as perguntas que explicam o futuro.

     

     

     

  • o big data trabalha com dados estruturados e não estruturados.

  • BIG DATA

    TANTO DADOS ESTRUTURADOS QUANTO NÃO ESTRUTURADOS.

    NYCHOLAS LUIZ

  • Pelo menos uma questão comentada pelo professor. Parece que eles comentam as questões só relacionadas a entidades que estão com as datas suspensas... Lamentável...

  • LECIONA [1]: BIG DATA É FESTA NA CASA DAS PRIMAS.

    FONTE:

    [1] CAVALEIRO TEMPLÁRIO

  • Big Data = dados estruturados e não estruturados.

  • Os dados estruturados são organizados em um padrão fixo e constante, seguem uma estrutura mais rígida.

    O exemplo mais típico de dados estruturados é um banco de dados. Nele, os dados são estruturados conforme a definição de um esquema, que define as tabelas com seus respectivos campos (ou atributos) e tipos (formato).

    Os dados não estruturados não possuem estrutura de organização. Exemplo: vídeo, áudio, imagem...

    O BIG DATA é composto pelos dados estrurados e não estruturados.

    GAB: E

  • Big Data difere do Banco de dados comum justamente por aceitar dados estruturados, semiestruturados e não estruturados.

  • ERRADO

    BIG DATA

    • Analisa e interpreta grande volume de dados (estruturados, semiestruturados e NÃO estruturados)
    • Os bancos de dados usados no Big Data possuem "elasticidade" (para suportar grandes volumes de dados)
    • A grande parte dos dados atualmente na internet são NÃO ESTRUTURADOS (80 a 90%), por isso, a necessidade do Big Data, para suportar esse grande volume de dados.

    OS 7V's DO BIG DATA

    Volume: grande quantidade de dados de fontes variadas.

    Velocidade: os dados passam a ser transmitidos em velocidade muito maior.

    Variedade: capacidade de analisar dados estruturados e não estruturados.

    Veracidade: necessidade de obter dados verídicos, de acordo com a realidade.

    Valor: quanto mais valiosos forem os dados, mais importantes serão.

    Viscosidade: impede a inércia (dificuldade de navegar entre o grande volume de dados)

    Viralidade: os dados se tornam "virais", se espalham rapidamente.

    • obs: alguns autores citam apenas 3V's (Volume, Velocidade, Variedade) ou 5V's (+ Veracidade e Valor)

  • Big Data: não estruturados e estruturados

    Data File: estruturados

  • Certo!

    Em um big data, alimentado com os dados de um sítio de comércio eletrônico, são armazenadas informações diversificadas, que consideram a navegação dos usuários, os produtos comprados e outras preferências que o usuário demonstre nos seus acessos.

    Tendo como referência as informações apresentadas, julgue o item seguinte.

    big data consiste de um grande depósito de dados estruturados e não estruturados, ao passo que data files são dados estruturados.

  • Simples e objetivo:

    Data files = banco de dados de arquivos.

    A questão erra ao restringir apenas aos dados estruturado. Sabemos que uma das premissas do BIG DATA é a VARIEDADE, ou seja, vários tipos de arquivos. E um desses arquivos, são dados ESTRUTURADOS e NÃO ESTRUTURADOS.

    (CESPE - Q840843) Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. CERTO

    gab.: ERRADO.

  • E

    Dados estruturados e não estruturados.

  • Errado,

    Big data trabalha com dados estruturados e não estruturados. a questão peca ao afirma que trabalha com das estruturados e esqueceu de complementar o não estruturados.

  • Olá, colegas concurseiros!

    Passando pra deixar essa dica pra quem tá focado em concursos policiais.

     Baixe os 358 mapas mentais para carreiras policiais.

    Link:

    http://abre.ai/bFs3

     Estude 12 mapas mentais por dia.

     Resolva 10 questões aqui no QC sobre o assunto de cada mapa mental.

    → Em 30 dias vc terá estudado os 358 mapas e resolvido mais de 3500 questões.

    Fiz esse procedimento no início do ano e meu aproveitamento melhorou muito!

    P.s: gastei 192 horas pra concluir esse plano de estudo.

    Testem aí e me deem um feedback.

    FORÇA, GUERREIROS(AS)!! 

  • Pelo contrário o data files é bastante organizado, pois caso um empresa esteja precisando usá-lo, ele terá que estar a disposição.

  • Sobre as características de Big Data:

    "Volume está claro. Geramos petabytes de dados a cada dia. E estima-se que este volume dobre a cada dezoito meses. Variedade também, pois estes dados vêm de sistemas estruturados (hoje já são minoria) e não estruturados (a imensa maioria), gerados por e-mails, mídias sociais (Facebook, Twitter, YouTube e outros), documentos eletrônicos, apresentações estilo Powerpoint, mensagens instantâneas, sensores, etiquetas RFID, câmeras de vídeo etcGeramos petabytes de dados a cada dia. E estima-se que este volume dobre a cada dezoito meses. Variedade também, pois estes dados vêm de sistemas estruturados (hoje já são minoria) e não estruturados (a imensa maioria), gerados por e-mails, mídias sociais (Facebook, Twitter, YouTube e outros), documentos eletrônicos, apresentações estilo Powerpoint, mensagens instantâneas, sensores, etiquetas RFID, câmeras de vídeo etc"

    Fonte: Big Data, Cezar Taurion, p. 31 - 32

  • GAB. Errado

    Big data trabalha com dados estruturados e não estruturados.

  • Um grande depósito de dados é um Data Wharehouse ( DW) o Big data apenas processa o grande volume dados

    [que normalmente provém do DW]. Além disso o Big Data suporta tanto os dados não estruturados como os estruturados.

    Gaba: ERRADO.

  • Errado! Pois o big data é um conjunto de dados estruturados e não estruturados que são capazes de trabalhar em conjuntos.

  • gab e

    big data é os 2

    big data consiste de um grande depósito de dados estruturados, ao passo que os dados não estruturados são considerados data files.

  • PRF 202?

  • Big data usa um data lake, que tem todos tipos de dados, estruturados ou não.

  • O conceito de BigData envolve todas as 3 variedades de dados.

    Dados Estruturados: refere-se ao modelo relacional, dados estão em tabelas (linhas e colunas), em um formato fixo e inflexível.

    Dados Semi Estruturados: aqueles que não estão de forma padronizada como os estruturados, mas ainda possuem marcadores semânticos como as tags de um arquivo xml (são também os metadados) que impõe de certa forma, uma hierarquia entre os dados.

    Dados Estruturados: dados cujo valor é de dificil extração, e possuem uma estrutura desconhecida.

  • O big data engloba todos os tipos de dados, seja ele estruturados ou não estruturados.

    BIG DATA

    ☑ Grande banco de dados.

    ☑ Engloba todos os tipos de dados.

    ☑ Dados estruturados ou não estruturados.

    ☑ Para melhor proveito, usa-se Data Mining e Data Warehouse.

    ☑ Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

  • Principal erro é associar big data a dados estruturados.


ID
2799238
Banca
CESPE / CEBRASPE
Órgão
Polícia Federal
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

    Em um big data, alimentado com os dados de um sítio de comércio eletrônico, são armazenadas informações diversificadas, que consideram a navegação dos usuários, os produtos comprados e outras preferências que o usuário demonstre nos seus acessos.

Tendo como referência as informações apresentadas, julgue o item seguinte.

Pelo monitoramento do tráfego de rede no acesso ao sítio em questão, uma aplicação que utiliza machine learning é capaz de identificar, por exemplo, que os acessos diminuíram 20% em relação ao padrão de acesso em horário específico do dia da semana.

Alternativas
Comentários
  • aprendizado automáticoaprendizado de máquina (em inglês: "machine learning") ou aprendizagem automática é um subcampo da ciência da computação que  evoluiu do estudo de reconhecimento de padrões e da teoria do aprendizado computacional em inteligência artificial. Em 1959, Arthur Samuel definiu aprendizado de máquina como o "campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados"(livre tradução). O aprendizado automático explora o estudo e construção de algoritmos que podem aprender de seus erros e fazer previsões sobre dados. Tais algoritmos operam construindo um modelo a partir de inputs amostrais a fim de fazer previsões ou decisões guiadas pelos dados ao invés de simplesmente seguindo inflexíveis e estáticas instruções programadas. Enquanto que na inteligência artificial existem dois tipos de raciocínio (o indutivo, que extrai regras e padrões de grandes conjuntos de dados, e o dedutivo), o aprendizado de máquina só se preocupa com o indutivo.

    FONTE: https://pt.wikipedia.org/wiki/Aprendizado_de_m%C3%A1quina

  • O aprendizado de máquina (em inglês, machine learning) é um ramo da  baseado na ideia de que sistemas podem aprender com dados, identificar padrões e tomar decisões com o mínimo de intervenção humana.

    Enquanto a inteligência artificial (IA) pode ser definida como a ciência capaz de mimetizar as habilidades humanas, o machine learning é uma vertente específica da IA que treina máquinas para aprender com dados ( crescentes volume e variedade de dados disponíveis, o processamento computacional mais barato e poderoso, o armazenamento de dados acessível etc.)

    Tudo isso significa que é possível produzir, rápida e automaticamente, modelos capazes de analisar dados maiores e mais complexos, e entregar resultados mais rápidos e precisos

  • Machine learning quer dizer “aprendizado de máquina”.

    • ferramenta de  análise de dados
    • orienta os computadores a aprender por contra própria, no intuito de melhorar o desempenho diante de problemas específicos.
    • as máquinas utilizam de algoritmos precisos, além de comandos pré-determinados e imutáveis. Já com o machine learning, elas têm a possibilidade de tomar decisões e interpretar dados
    • os programas conseguem aprender por meio do processamento de dados, sem que seja necessária a intervenção humana. A ferramenta pertence a um dos extensos campos de estudo da Inteligência Artificial (AI).

    Fonte; https://editalconcursosbrasil.com.br

  • Status de vida: Esperando o dia que os robôs irão dominar o mundo por causa do machine learning.

  • Meu jovem mancebo, se a caminhada está difícil é porque você está no caminho certo!!

  • Depois dessa, lave o rosto, time um café e retorne aos estudos

  • (C)

    Outras questões da CESPE que ajudam a responder:

    PF18 Uma aplicação que reconheça o acesso de um usuário e forneça sugestões diferentes para cada tipo de usuário pode ser considerada uma aplicação que usa machine learning.(C)

    A técnica machine learning pode ser utilizada para apoiar um processo de data mining.(C)

    O serviço de chatbot, um sistema que permite às grandes corporações oferecer um canal direto com o consumidor, é um dos exemplos tecnológicos utilizado no atendimento ao público, tornando a comunicação entre empresa e cliente mais próxima e personalizada, graças aos avanços da inteligência artificial.(C)

    Existem programas semiautônomos, proativos e adaptativos, que utilizam recursos de inteligência artificial. Eles são usados no ensino a distância porque possibilitam a recuperação de informações, a operação de programas, e o monitoramento de recursos de rede utilizados pelos profissionais dessa modalidade de ensino.(C)

  • Machine Learning = Aprendizado de máquina é definido por um sistema computacional procurando melhorar uma performance.

  • GABARITO CERTO.

    DICA:

    --- > machine learning é uma aplicação que reconheça o acesso de um usuário e forneça sugestões diferentes para cada tipo de usuário. [ Q933076]

  • machine learning = aprendizado de máquina.

    associe a um método analítico de dados que identifica padrões e toma decisões com o mínimo de intervenção humana.

  • Quando se falar em MACHINE LEARNING, é só imaginar as ações de uma Inteligência Artificial; ou seja: tudo o que for voltado a cálculos ou dê ideia de que tenha sido programado para determinada função ou fim.

  • Machine Learning é capaz de realizar tarefas bastantes complexas. Portanto, sem dúvidas, também é capaz de realizar algo tão trivial como identificar diminuição de acessos.

    Resposta: Certo

  • Prezados, 

    Uma ferramenta de machine learning (aprendizado de máquina) utiliza-se de um conjunto de dados já conhecido para poder fazer suas previsões e/ou estimativas.

    Então, existindo esse histórico de dados de tráfego, uma aplicação poderia sim fazer essas análise, ou até mais, inclusive prever o tráfego futuro, conforme os dados do passado. 

    Portanto a questão está correta.


    Gabarito do Professor: CERTO.
  • CERTO

    MACHINE LEARNING (“aprendizado de máquina”)

    " É um ramo da inteligência artificial baseado na ideia de que sistemas podem aprender com dados, identificar padrões e tomar decisões com o mínimo de intervenção humana."

    As aplicações do Machine Learning vão desde sugestões de conteúdos a usuários na internet até o desenvolvimento de carros autônomos. (Como o aprendizado de máquina possui função de identificar padrões, é plenamente possível identificar a frequência dos acessos ao site, se diminuíram ou aumentaram) - CASO DA QUESTÃO

    TIPOS:

    Aprendizado supervisionado: Já existem dados históricos para prever possíveis acontecimentos futuros.

    Aprendizado não supervisionado: Não existem dados históricos, cabe ao sistema entender o que está acontecendo e entregar uma resposta.

    obs: Machine Learning faz parte da INTELIGÊNCIA ARTIFICAL

    [Inteligência (machine learning) Artificial ] 

  • Machine Learning (em Português-Br: Aprendizado da Máquina) - é quando a máquina aprende por meio dos seus atos.

    Por exemplo, se todos as vezes que você liga seu PC abre o navegador e acessa a página do QC.

    Imagina-se que com o passar do tempo a máquina poderá fazer esses passos para você, assim, após você apenas iniciar o PC o máquina vai - abrir o navegador e acessar a página do QC - de forma automatica...

    Claro, isso não acontece no meu PC kkk... mas acredito que isso seria uma forma de exemplificar como funciona o aprendizado de uma máquina, ou seja, a máquina aprende por causa de nossos atos.

    "Para trás nem para dar impulso!"

  • ✏A Machine learning é quase uma Professora, é uma analise de dados que orientar os computadores a tomar suas próprias decisões.

    Minha observação: Assutadora, essa Machine learning, fazendo com que as máquinas se tornem um ser pensante, porque pra mim quem toma decisão é ser humano e é isso que nos diferencia das maquinas.

  • Machine Learning

    • Aprendizado de Máquina envolve um método de avaliação de dados que automatiza o desenvolvimento de padrões analíticos. Tem como base a concepção de que sistemas tecnológicos podem aprender usando dados, de modo a descobrir padrões, tomar decisões e se aperfeiçoar com pouca interferência humana.
  • Machine learning pode aprender praticamente tudo


ID
2799595
Banca
CESPE / CEBRASPE
Órgão
Polícia Federal
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item seguinte, a respeito de big data e tecnologias relacionadas a esse conceito.

MapReduce permite o processamento de dados massivos usando um algoritmo paralelo mas não distribuído.

Alternativas
Comentários
  • MapReduce permite o processamento de dados massivos usando um algoritmo paralelo mas não distribuído.

    " O MapReduce e um modelo de programação que permite o processamento de  dados massivos em um algoritmo escalavel, paralelo e distribuído, geralmente utilizando um cluster de computadores"

    Fonte: MapReduce: Simplified Data Processing on Large Clusters - Dean, Ghemawat (2008)

  • O MapReduce é uma estrutura de software que permite que desenvolvedores escrevam programas que possam processar quantidades massivas de dados desestruturados em paralelo, através de um grupo distribuído de processadores.

    #CursoAdonai

  • O MapReduce  é um modelo de programação  para processar grandes conjuntos de dados com um algoritmo distribuído paralelo em um cluster (fonte: Wikipedia).

  • Justamente o fato de ser distribuído é o que faz aumentar o pode de processamento computacional, é como utilizar o algoritmo "Dividir para conquistar".

  • O MapReduce foi realmente feito para processar conjuntos massivos de dados com a utilização de paralelismo. No entanto, um dos pontos centrais da tecnologia é precisamente fazer uso dos potenciais dos sistemas distribuídos, permitindo fazer uma divisão adequada da tarefa entre os vários nós do cluster. É dividir para conquistar! 

  • MapReduce é um modelo de programação que permite o processamento de dados massivos em um algoritmo escalável, paralelo e distribuído, geralmente utilizando um cluster de computadores

    Gabarito:Errado

  • Item incorreto.

    MapReduce é um método de programação para a execução de processamento paralelo em grandes quantidades de dados, cuja base é relativamente simples, apesar de constituir um recurso poderoso. Com um conjunto de itens a processar, o algoritmo MapReduce corresponde às seguintes etapas:

    a)       utilizar uma função map para transformar cada item em zero ou mais pares chave-valor;

    b)       juntar todos os pares com chaves idênticas;

    c)       usar uma função reduce em cada conjunto de valores agrupados para produzir valores de saída para a chave correspondente.

    A função map mencionada acima recebe um par composto de chave e valor e retorna uma lista de pares ordenados. A operação reduce, também mencionada acima, recebe um par composto por chave e lista de valores e retorna um terceiro valor, já que os valores retornados por map que tinham a mesma chave foram agrupados em uma lista.

    Intuitivamente, percebe-se que o estágio de map pode ser facilmente executado em paralelo. Além disto, MapReduce pode executar seus procedimentos em máquinas diferentes em uma rede e conseguir os mesmos resultados, como se todo o trabalho fosse executado em uma única máquina. Também pode extrair a partir de múltiplas fontes de dados, internas ou externas. Este recurso controla o trabalho criando uma única chave e assegurando que todo o processamento seja relacionado para resolver o mesmo problema. Essa chave também é usada para juntar todos os resultados no fim de todas as tarefas distribuídas.

  • MapReduce é um algorítimo paralelo e distribuído para processamento de grande volume de dados, de modo a agilizar pela busca de resultados

  •  ele é um modelo de programação que permite o processamento de dados massivos em um algoritmo escalável, paralelo e distribuído, geralmente utilizando um cluster de computadores (Errado).

    Estratégia Concursos

    #PCDF

  • Mapduce:

    Dados Massivos

    Algoritmo escalável, distribuído e paralelo

  • Tudo no Big Data é paralelo e distribuído!

  • Errado

    O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído.

  • GABARITO ERRADO!

    MapReduce pode ser definido como um paradigma de programação voltado para processamento em lotes (batch) de grande volume de dados ao longo de várias máquinas, obtendo resultados em tempo razoável. Utiliza-se o conceito de programação distribuída para resolver problemas, adotando a estratégia de dividi-los em problemas menores e independentes. (WHITE, 2012)

    O MapReduce é um modelo de programação paralela para grandes volumes de dados. Ele é inspirado na estratégia dividir e conquistar, mas abstrai do programador a complexidade dos problemas típicos do gerenciamento de aplicações distribuídas, permitindo que o desenvolvedor possa se dedicar apenas à solução do problema a ser tratado, deixando que a aplicação execute a distribuição e o paralelismo. (PAIVA, REVOREDO, 2016) 

  • Hadoop MapReduce é um modelo de programação e um arcabouço especializado no processamento de conjuntos massivos de dados distribuídos em um aglomerado computacional (cluster), é uma excelente solução para o processamento paralelo de dados devido ao fato de serem inerentemente paralelos.

    Map: fase de mapeamento, processamento primário dos dados

    Reduce: geração do resultado final

    A leitura é realizada de arquivos com pares chave/valor (geralmente .csv)

  • Só queria avisar o CESPE que está faltando uma vírgula antes do MAS.

  • ERRADO

    RESPOSTA DE UMA QUESTÃO.

    Q862680

    O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído.

  • MapReduce permite o processamento de dados massivos usando um algoritmo paralelo mas distribuído.

    exemplo da lista com 100 milhões de nomes dividido para 100 computadores, é muito mais produtivo DISTRIBUIR ESSA TAREFA (procurar 100 milhões de nomes) em 100 computadores do que em 1 único só.

    pra facilitar o entendimento: imagina que um computador para procurar todos esses nomes use 18 horas, em um sistema distribuído, utilizariam-se 1 hora.

    Map: processo de decomposição dos dados

    → a etapa de mapeamento se baseia em uma combinação chave-valor. (DECORE ISSO)

    exemplo- procurar questões aqui no QC

    mapeamento (chave, valor) mapeamento (banca, Cespe) 

    etapa de Reduce: consolidação do resultado do mapeamento 

    → responsável por consolidar os resultados, gerando um agregado. 

    exemplo de programa de baseado MapReduce : HADOOP.

    Pra facilitar ainda mais o entendimento segue o exemplo do sanduíche pra você lembrar na prova: imagina uma empresa de fast-food que atende centenas de pessoas todas as horas, é muito mais eficaz que cada funcionária seja encarregado de colocar um ingrediente do que um funcionário só montar o sanduíche inteiro (DISTRUIBUIÇÃO DE TAREFAS)

  • O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído.

  • Prezados,

    MapReduce é uma estrutura que permite escrever facilmente aplicativos que processam grandes quantidades de dados (conjuntos de dados de vários terabytes) em paralelo em grandes clusters (milhares de nós) de hardware comum de maneira confiável e tolerante a falhas.

    Portanto a questão está errada.


    Fonte:
    Disponível no site do Hadoop.apache.


    Gabarito do Professor: ERRADO.
  • Imagine que uma celebridade, com milhões de seguidores no Instagram, vai subir uma foto para o site. Imagine agora se, em todo o mundo, apenas um servidor fosse responsável por disseminar, espalhar essa foto na rede mundial de computadores. Impossível, né? Imagina milhões de pessoas acessando a mesma foto em um único servidor. O negócio não ia aguentar e ia cair [tipo quando todo mundo acessa junto um site para para comprar algo em promoção e a página fica indisponível]. A grosso modo, o MapReduce distribui essa foto [processamento] para diversos servidores espalhados pelo mundo inteiro, com o intuito de descentralizar os esforços desses servidores. Por isso, o MapReduce é, sim, distribuído. Essa é a principal característica dele.

  • No Big Data, no geral, tudo ocorre de forma distribuída. O MapReduce, por sua vez, tem como premissa oferecer processamento paralelo em ambiente distribuído.

    Resposta: Errado

  • Além de aprendermos informática, o colega corrigiu o CESPE no erro de português, muito bem.

  • (CESPE TCE-PB 2018) O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído

    CERTO

  • maP reDucEParalelo, Distribuído e Escalável;

    Peguei esse macete por aí!

  • O MapReduce "basicamente divide o trabalho em tarefas como um mapeador (mapper) e um resumidor (reducer) que manipulam dados distribuídos em um cluster de servidores usados de forma massivamente paralela."[1]

    O MapReduce manipula dados de forma distribuídas, o famoso "dividir para conquistar". Tal se dá de forma que o trabalho de análise dos dados seja dividido para reduzir o tempo e melhorar o desempenho das análises. Lembrando que estamos lidando com dados em um contexto de Big Data. A clusterização permite que tal escalabilidade horizontal manipule dados de forma paralela e distribuída para uma mais rápida saída (output).

    Fonte:[1]: Cezar Taurion

  • Contexto de Big Data: Hadoop:

    armazenamento dos dados > HDFS

    processamento de dados > Map Reduce.

    Tudo isso dentro de um CLUSTER (várias máquinas formando uma unidade de armazenamento de processamento de dados).

    Ps: é feito de forma paralela e distribuída e é tolerante a falhas.

  • Complementando:

    HDFS (Hadoop Distributed File System) é um sistema de arquivos distribuído, projetado para armazenar arquivos muito grandes

    Hadoop MapReduce Para PROCESSAMENTO dos dados.

  • O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído por meio de uma combinação entre chaves e valores.

  • Só 17% de erro? "Çei..."

  • Quem entender melhor? assista esses vídeos.

    https://youtu.be/qX5edsUWadE

    Este link contém a parte 1, assista as 3 partes.

    https://www.youtube.com/watch?v=ugmyDx2nxJk

    Esse outro vídeo também é muito bom.

    São vídeos rápidos que fará vc visualizar melhor o que foi proposto na questão.

    Bons estudos.

  • GAB. ERRADO

    MAP REDUCE = PROCESSAMENTO , ELE FATIA, MAPEIA E REDUZ, DADOS PARALELOS E DISTRIBUÍDOS.

    HDFS = ARMAZENAMENTO, PRINCÍPIO WORM: ESCREVA UMA VEZ E LEIA VÁRIAS VEZES.

  • ERRADO

    MapReduce (Hadoop)

    • é um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído, geralmente em clusters (conjunto de servidores)
    • possui grande poder de ARMAZENAMENTO e PROCESSAMENTO de todos os tipos de dados
    • possui software open-source (código aberto)
    • é usado no Big Data, pois possui escalabilidade, durabilidade e disponibilidade
    • Custo é baixo: estrutura gratuita

    Desvantagens:

    • Não é eficiente para tarefas de inteligência analítica iterativas e interativas (computação analítica avançada)
    • Problema de segurança com os dados fragmentados
  • Gab: Errado

    O MapReduce, de fato, permite o processamento de dados massivos. No entanto, utiliza um algoritmo PARALELO e DISTRUBUÍDO.

    Resuminho:

    Hadoop é um projeto que oferece uma solução para problemas relacionados à BigData; seu núcleo é constituído de duas partes essenciais:

    1º) Hadoop Distributed Filesystem (HDFS) - sistema de arquivos distribuído e confiável, responsável pelo armazenamento dos dados (arquivos muito grandes), o qual é realizado através de uma combinação chave e valor.

    2º) Hadoop MapReduce - responsável pela análise e processamento dos dados através de um modelo de programação em um algoritmo paralelo e distribuído, geralmente em um cluster de computadores. O modelo de programação é formado por duas operações básicas:

    map (Processo de Mapeamento) - os dados são separados em pares, transformados e filtrados; depois são distribuídos para os nodes (nós) e processados.

    reduce (Processo de Redução) - os dados são agregados em conjuntos menores e os dados resultantes do processo são transformados em um formato padrão chave-valor.

    Foco, força e fé! Desistir, jamais! Bons estudos!

  • ERRADO

    maP reDucE – Paralelo, Distribuído e Escalável

    Map (Processo de Mapeamento) - os dados são separados em pares, transformados e filtrados; depois são distribuídos para os nodes (nós) e processados.

    Reduce (Processo de Redução) - os dados são agregados em conjuntos menores e os dados resultantes do processo são transformados em um formato padrão chave-valor.

    MapReduce (Hadoop)

    • é um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído, geralmente em clusters (conjunto de servidores)
    • possui grande poder de ARMAZENAMENTO e PROCESSAMENTO de todos os tipos de dados
    • possui software open-source (código aberto)
    • é usado no Big Data, pois possui escalabilidade, durabilidade e disponibilidade
    • Custo é baixo: estrutura gratuita

    Desvantagens:

    • Não é eficiente para tarefas de inteligência analítica iterativas e interativas (computação analítica avançada)
    • Problema de segurança com os dados fragmentados

  • MapReduce é sim distribuído em clusters (conjunto de máquinas que operam para a mesma finalidade), que no caso, é resolver grandes problemas computacionais, fragmentando o problema e fazendo o processamento paralelo, para facilitar a obtenção da "solução".

  • questão errada Mapreduce é SIM paralelo, mas tbm é distribuído !

  • ERRADO!

    Processamento PaDi: Paralelo e Distribuído.


ID
2799601
Banca
CESPE / CEBRASPE
Órgão
Polícia Federal
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item seguinte, a respeito de big data e tecnologias relacionadas a esse conceito.


MapReduce oferece um modelo de programação com processamento por meio de uma combinação entre chaves e valores.

Alternativas
Comentários
  • (...) muitas tarefas de análise de dados necessitam combinar dados “espalhados” em discos diferentes. Entretanto, esses problemas não geram dores de cabeça aos programadores, pois o MapReduce oferece um modelo de programação que os abstrai, uma vez que o processamento é realizado através de uma combinação entre chaves e valores (keys e values) que podem estar em diferentes discos.

     

     

    https://www.devmedia.com.br/hadoop-mapreduce-introducao-a-big-data/30034

  • GAB: CERTO

    Como o próprio nome revela, o MapReduce é baseado nas funções Map() e Reduce().

    Sua operação se divide em duas etapas:

    Na primeira fase, chamada de Map (mapeamento), os dados são separados em pares de chave e valor, divididos em fragmentos (cestos) e distribuídos para os nodes (pessoas), onde serão processados (contadas).

    Depois disso, pode ocorrer outras fases, por exemplo, Shuffle.

    Essa fase agrupa os dados intermediários pela chave e produz um conjunto de tuplas (k2, list(v2)).

    Assim todos os valores associados a uma determinada chave serão agrupados em uma lista.

    Após essa fase intermediária, o arcabouço também se encarrega de dividir e replicar os conjuntos de tuplas para as tarefas Reduce que serão executadas

  • Item correto. Na fase referente à função map, os dados são mapeados em pares chave-valor. Após a fase intermediária de rearranjo (shuffling), eles são então reduzidos novamente para gerar uma saída única.

  • MapReduce é um método de programação para a execução de processamento paralelo em grandes quantidades de dados, cuja base é relativamente simples, apesar de constituir um recurso poderoso. Com um conjunto de itens a processar, o algoritmo MapReduce corresponde às seguintes etapas:

    a)       utilizar uma função map para transformar cada item em zero ou mais pares chave-valor;

    b)       juntar todos os pares com chaves idênticas;

    c)       usar uma função reduce em cada conjunto de valores agrupados para produzir valores de saída para a chave correspondente.

  • gabarito: correto

    MapReduce: modelo de PROGRAMAÇÃO que permite reduzir problemas grandes em problemas menores, mapeando

    cada subproblema para máquinas diferentes.

    PROGRAMAÇÃO + PROCESSAMENTO

    Rodoop: uma das implementações do MapReduce. É um software de código aberto, um sistema de armazenamento e processamento de dados massivamente escalável, NÃO É UM BANCO DE DADOS.

    ARMAZENAMENTO + PROCESSAMENTO

  • Assertiva c

    MapReduce oferece um modelo de programação com processamento por meio de uma combinação entre chaves e valores.

  • O Hadoop MapReduce é um modelo de programação e um arcabouço especializado no processamento de conjuntos de dados distribuídos em um aglomerado computacional (cluster).

    O MapReduce funciona da seguinte forma:

    1. A entrada da aplicação é uma lista de pares chave/valor.

    2. Então, esses pares são selecionados um a um e processados, cada um gerando um par (chave/lista) de valores. Os detalhes dessa transformação é que normalmente definem o que o programa MapReduce faz.

    3. Essa nova lista de pares é selecionada como entrada pela função Reducer e é agregada de alguma forma, gerando uma saída final.

    Gabarito: Certo.

    Prof. Ramon Souza

  • CERTO

    O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído.

  • Prezados,

    A estrutura MapReduce opera exclusivamente em pares <chave, valor>, ou seja, a estrutura vê a entrada para a tarefa como um conjunto de pares <chave, valor> e produz um conjunto de pares <chave, valor> como a saída do trabalho.

    Portanto a questão está correta.


    Fonte:
    Disponível no site do Haddop.apache.


    Gabarito do Professor: CERTO.
  • Hadoop/Map Reduce (Mapeia e reduz)

    O MapReduce é um modelo de programação que permite reduzir problemas grandes em problemas menores, mapeando cada subproblema para máquinas diferentes (ou processadores diferentes de uma mesma máquina) e, em seguida, reduzindo cada resposta intermediária à única resposta final que você está procurando.

    É considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído (em clusters). A etapa de mapeamento se baseia em uma combinação de chave-valor.

    O mapeamento é como se fosse a busca, a palavra-chave. Como se fosse o filtro do Q concursos;

    Já a etapa de redução é responsável por consolidar os resultados de cada mapeamento, gerando um resultado agregado. Como se fosse as questões quando aparecem para você;

  • Isso mesmo. O MapReduce trabalha com agrupamento por chave-valor.

    Resposta: Certo

  • Na fase referente à função map, os dados são mapeados em pares chave-valor. Após a fase intermediária de rearranjo (shuffling), eles são então reduzidos novamente para gerar uma saída única.

    Fonte: Arthur Mendonça | Direção Concursos

  • Cada entrada no Map cria uma lista de pares chave/valor. Esses pares são selecionados um a um e processados, cada um gerando um par (chave/lista) de valores. Certo

    Hachid Targino

  • Sobre o MapReduce: "É o paradigma de programação que possibilita escalabilidade massivamente paralela em centenas ou milhares de servidores. O próprio termo MapReduce representa duas tarefas distintas que os programas Hadoop executam. A primeira tarefa é mapear os dados, ou seja, acessar um conjunto de dados e convertê-los em outro conjunto onde os elementos individuais são quebrados em tuplas (pares chave/valor). A tarefa Reduce pega o resultado do mapeamento e combina estas tuplas em um conjunto menor de tuplas, obtendo o resultado."

    Fonte: Cezar Taurion

  • Gab: Certo

    Resuminho:

    Hadoop é um projeto que oferece uma solução para problemas relacionados à BigData; seu núcleo é constituído de duas partes essenciais:

    1º) Hadoop Distributed Filesystem (HDFS) - sistema de arquivos distribuído e confiável, responsável pelo armazenamento dos dados (arquivos muito grandes), o qual é realizado através de uma combinação chave e valor.

    2º) Hadoop MapReduce - responsável pela análise e processamento dos dados através de um modelo de programação em um algoritmo paralelo e distribuído, geralmente em um cluster de computadores. O modelo de programação é formado por duas operações básicas:

    map (Processo de Mapeamento) - os dados são separados em pares, transformados e filtrados; depois são distribuídos para os nodes (nós) e processados.

    reduce (Processo de Redução) - os dados são agregados em conjuntos menores e os dados resultantes do processo são transformados em um formato padrão chave-valor.

    Ou seja, questão correta! O MapReduce oferece um modelo de programação com processamento por meio de uma combinação entre chaves e valores.

    Foco, força e fé! Desistir, jamais!

  • No cerne do MapReduce estão duas funções: Map e Reduce. Eles são sequenciados um após o outro.

    • A função Map obtém a entrada do disco como pares <chave, valor>, os processa e produz outro conjunto de pares <chave, valor> intermediários como saída.

    • A função Reduce também aceita entradas como pares <chave, valor> e produz pares <chave, valor> como saída.

    [1] https://www.talend.com/resources/what-is-mapreduce/ (traduzido).

  • CERTO

    MapReduce (Hadoop)

    - É um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído, geralmente em clusters (conjunto de servidores)

    - Possui grande poder de armazenamento e processamento de todos os tipos de dados

    - Possui software open-source (código aberto)

    - É usado no Big Data, pois possui escalabilidade, durabilidade e disponibilidade

    - Custo é baixo: estrutura gratuita


ID
2837617
Banca
IADES
Órgão
APEX Brasil
Ano
2018
Provas
Disciplina
Banco de Dados
Assuntos

Assinale a alternativa que apresenta o conceito de Big Data.

Alternativas
Comentários
  • GAB:A

    Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade. Para isso são necessárias soluções específicas para Big Data que permitam a profissionais de TI trabalhar com informações não-estruturadas a uma grande velocidade.

  • Gabarito A

    Big data é um termo que descreve o grande volume de dados — tanto estruturados quanto não-estruturados — que sobrecarrega as empresas diariamente. Mas não é a quantidade de dados disponíveis que importa; é o que as organizações fazem com eles. O big data pode ser analisado para obter insights que levam a decisões melhores e ações estratégicas de negócio.



    "Retroceder Nunca Render-se Jamais !"

    Força e Fé !

    Fortuna Audaces Sequitur !

  • 2018

    Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise.

    certa

  • 5vs BIG DATA

    Volume

    Velocidade

    Variedade (estruturados, não estruturados, semi-estruturados)

    veracidade

    valor

  • Questão dada. A é a única que faz sentido e as outras só pra encher linguiça
  • (a) Correto. Trata-se de um enorme conjunto de dados que utiliza softwares especiais para o processamento e transformação de dados em informações com precisão em uma velocidade absurdamente alta;

    (b) Errado. Não são de fácil acesso e rápida velocidade, muito menos operados como computadores pessoais;

    (c) Errado. Não há nada que faça sentido nesse item;

    (d) Errado. Atualmente eles são muito bem aproveitados pelo mundo corporativo; 

    (e) Errado. Essa é a definição de uma rede de computadores. 

  • Apesar de o Big Data ser baseado nos 5Vstrês deles são de maior prioridade, são eles: VolumeVelocidade e Variedade.

    O que é Big Data?

    Um grande Volume de dados, em grande Velocidade e grande Variedade.

    Usados para: tomadas de decisão.

    Fonte: Instituto Mackenzie

    Perseverança!


ID
3189058
Banca
CESPE / CEBRASPE
Órgão
TCE-RO
Ano
2019
Provas
Disciplina
Banco de Dados
Assuntos

Com relação a fundamentos e conceitos de Big Data, julgue os itens a seguir.

I O volume de dados é uma característica importante de Big Data.

II Em Big Data, a qualidade do dado não tem importância, porque a transformação dos dados não impacta os negócios.

III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento.

IV A variedade dos dados não é característica intrínseca nos fundamentos de Big Data.

Estão certos apenas os itens

Alternativas
Comentários
  • Os 5 V’s do Big Data:

    Volume

    Velocidade

    Variedade

    Veracidade

    Valor

    comentário de Lucas bulcão

  • Os três V's principais do Big Data são: volume, velocidade, variedade.

     

    I O volume de dados é uma característica importante de BigData.

    II Em Big Data, a qualidade do dado tem importância, porque a transformação dos dados

    impacta os negócios.

    III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento.

    IV A variedade dos dados é uma característica intrínseca nos fundamentos de Big Data.

    Resposta: I e III

  • BIG DATA

    É definido como coleções de dados cuja sua quantidade é tão grande que é difícil armazenar, gerenciar, processar e analisar esses dados por meio de bancos de dados tradicionais.

    [...]

    ☛ Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    [...]

    Velocidade

    Está relacionada com o fato dos dados em big data ocorrem em fluxo contínuo. É o que acontece com as postagens nas redes sociais.

    [...]

    Volume

    ➥ Está relacionado com a quantidade de espaço que é necessário para armazenar dados de big data. Geralmente, esses dados não irão caber, por exemplo, no seu computador de casa.

    [...]

    Variedade

    ➥ Está ligada ao fato dos dados possuírem diferentes naturezas. O big data não tem preconceito. Todo tipo dado é bem vindo. Seja ele estruturado ou não estruturado.

    [...]

    Variabilidade

    ➥ É a oscilação nos níveis dos dados colhidos e trabalhados. Como essas informações vêm de múltiplas fontes, dizemos que o nível é variável.

    [...]

    Viscosidade

    ➥ Tem relação com a dificuldade de navegar entre os dados. Essa dificuldade pode ser considerar como uma espécie de inércia. Como os dados são variados, o algoritmo tem que ser capaz de lidar com diferentes fontes, essa flexibilidade tem um custo. Um deles é a viscosidade.

    [...]

    Volatilidade

    ➥ Diz respeito às inconsistências nos dados ou à mudança de dimensões entre eles, já que vêm de vários tipos origens.

    [...]

    RESUMO

    Grande banco de dados.

    Engloba todos os tipos de dados.

    Dados estruturados ou não estruturados.

    Para melhor proveito, usa-se Data Mining e Data Warehouse.

    ___________

    Fontes: Techtudo; Questões da CESPE; Colegas do QC.

  • resumindo, impacta o processamento e armazenamento porque devem estar sempre em alta velocidade.

  • Não seja um café com leite nos concursos e estude redação. 10% dos aprovados na prova objetiva REPROVARAM na redação no último concurso da PF

    _______________________________________________________________

    Eai concurseiro!?

    Está só fazendo questões e esquecendo de treinar REDAÇÃO!?

    Não adianta passar na objetiva e reprovar na redação.

    Por isso, deixo aqui minha indicação do Projeto Desesperados, ele mudou meu jogo. O curso é completo com temas, esqueleto, redações prontas, resumos em áudio, entre outras vantagens. https://go.hotmart.com/W44743476R

  • Conforme evolução conceitual:

    As três dimensões 3Vs do Big Data são: volume, variedade e velocidade.

    As cinco dimensões 5Vs do Big Data são: volume, variedade, velocidade, valor e veracidade. (MAIS COMUM NAS PROVAS DO CESPE)

    As sete dimensões 7Vs do Big Data são: volume, variedade, velocidade, valor, veracidade, Governança e Pessoas.

  • gab: B

    Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade. Para isso são necessárias soluções específicas para Big Data que permitam a profissionais de TI trabalhar com informações não-estruturadas a uma grande velocidade.

    Seu principal conceito, descobrir padrões de dados.

    E os seus 5Vs (VELOCIDADE/VARIEDADE/VOLUME/VERACIDADE/VALOR)

    ____________

    BIG DATA:

    Volume: relacionada a grande quantidade de dados gerados;

    Variedade: as fontes são muito variadas, o que aumenta a complexidade das análises;

    Velocidade: Devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as informações necessárias;

    Veracidade: A veracidade está ligada diretamente ao quanto uma informação é verdadeira;

    Valor: Este conceito está relacionado com valor obtido desses dados, ou seja, com a "informação útil".

     

    Bons estudos!!! ☠️

  • Letra B

    Conceitos:

    engloba todos os dados: estruturados, não estruturados, e semi estruturados.

    é a análise e interpretação de grandes volumes de dados, complexos e incomuns.

    NÃO é utilizado para problemas triviais (comuns), como por ex: armazenar dados de uma lanchonete. (esses problemas tradicionais utiliza-se o Small Data)

    ________________________

    3Vs

    - Volume: há um grande volume de dados

    - Velocidade: os dados são transmitidos muito rápidos

    - Variedade: analisa diferente tipos e formatos de dados (estruturados, não estruturados, semi estruturados)

    - - - - - -

    5Vs (+)

    - Veracidade: os dados são verdadeiros e confiáveis

    - Valor: os dados têm que trazer valor para a empresa

    - - - - - -

    7Vs (+)

    - Viscosidade: impede a inércia (dificuldade de navegar entre os dados)

    - Viralidade: os dados se espalham rapidamente 

    _________________________

    (CESPE) Em soluções Big Data, a análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados. (CERTO)

    ________

    (CESPE) Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. (CERTO)

    ________

    (CESPE) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO)

    ________

    (CESPE) De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. (CERTO)

  • Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade. 

     

    Os V’s do Big Data:

    VOLUME: refere-se exatamente a essa quantidade de dados que o Big Data lida. As organizações coletam dados de uma grande variedade de fontes, incluindo transações comerciais, redes sociais e informações de sensores ou dados transmitidos de máquina a máquina.

     

    VARIEDADE: quanto mais dados e fontes eu tenho, maior é a complexidade para trabalhar os dados, mas também maiores as possibilidades que tenho para gerar informação útil. 

    VELOCIDADE: esse é um dos grandes desafios do Big Data. Devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as informações necessárias. Os dados fluem em uma velocidade sem precedentes e devem ser tratados em tempo hábil. É necessário gerar informação com a maior agilidade possível para as tomadas de decisão sejam efetivas. 

    VERACIDADE: está ligada diretamente ao quanto uma informação é verdadeira. 

     

    VALOR: para gerar uma informação certa para as pessoas certas, devemos nos concentrar em gerar uma informação importante, ou seja, informação útil. 

     

    Resumindo

    Big data: volume + variedade + velocidade + veracidade, tudo agregando + valor.


ID
3189808
Banca
CESPE / CEBRASPE
Órgão
TCE-RO
Ano
2019
Provas
Disciplina
Banco de Dados
Assuntos

Com relação a fundamentos e conceitos de Big Data, julgue os itens a seguir.

I O volume de dados é uma característica importante de Big Data.

II Em Big Data, a qualidade do dado não tem importância, porque a transformação dos dados não impacta os negócios.

III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento.

IV A variedade dos dados não é característica intrínseca nos fundamentos de Big Data.

Estão certos apenas os itens

Alternativas
Comentários
  • I O volume de dados é uma característica importante de Big Data. (CORRETO)

    Big Data: alto volume de dados, de diversas fontes distintas, que são muito difíceis de capturar, armazenar, buscar e analisar com as ferramentas tradicionais de banco de dados.

    II Em Big Data, a qualidade do dado não tem importância, porque a transformação dos dados não impacta os negócios. (ERRADO)

    Objetivo do Big Data: propiciar informações para subsidiar a tomada de decisões;

    III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento. (CORRETO)

    Principais características: QUANTIDADE e VELOCIDADE

    IV A variedade dos dados não é característica intrínseca nos fundamentos de Big Data. (ERRADO)

    Os 5 V’s do Big Data: Volume, Variedade, Velocidade, Veracidade e Valor

    Fonte: Resumo concurseiro fora da caixa

    Bons estudos.

  • Os 5 V’s do Big Data:

    Volume

    Velocidade

    Variedade

    Veracidade

    Valor

    Gostei

    (18)

    Respostas

    (0)

    Reportar abuso

    comentário de lucas bulcão

  • Big Data:

    Volume: relacionado a grande quantidade de dados gerados;

    Variedade: as fontes de dados são muito variadas, o que aumenta a complexidade das análises;

    Velocidade: Devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as informações necessárias;

    Veracidade: A veracidade está ligada diretamente ao quanto uma informação é verdadeira.

    Valor: Este conceito está relacionado com o valor obtido desses dados, ou seja, com a “informação útil”.

  • GAB B

    Volume: O primeiro V refere-se exatamente à essa quantidade de dados que o Big Data lida. As organizações coletam dados de uma grande variedade de fontes, incluindo transações comerciais, redes sociais e informações de sensores ou dados transmitidos de máquina a máquina.  

    Velocidade: Esse é um dos grandes desafios do Big Data. Devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as informações necessárias.

    Os dados fluem em uma velocidade sem precedentes e devem ser tratados em tempo hábil. É necessário gerar informação com a maior agilidade possível para as tomadas de decisão sejam efetivas.

  • BIG DATA

    Grande banco de dados.

    Engloba todos os tipos de dados.

    Dados estruturados ou não estruturados.

    Para melhor proveito, usa-se Data Mining e Data Warehouse.

    Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    __________

    #BORAVENCER

  • Os dados possuem "5V's":

    VERA VARIa VALOR da VELOCIDADE!

    Volume -> grande quantidade.

    Veracidade -> devem ser verídicos/verdadeiros

    Variedade -> são variados.

    Valor -> possuem valor (agregar conhecimento de alguma forma)

    Velocidade -> são criados e armazenados rapidamente

  • Afirmativas corretas:

    I O volume de dados é uma característica importante de Big Data.

    III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento;

    Além desses há outras características que compõem os 5Vs: Volume, Velocidade, Variedade, Veracidade e Valor.

    Afirmativas erradas:

    II Em Big Data, a qualidade do dado não tem importância, porque a transformação dos dados não impacta os negócios. --> A qualidade é sim muito importante, pois na tomada de decisão os dados precisam ser assertivos;

    IV A variedade dos dados não é característica intrínseca nos fundamentos de Big Data. --> A variedade é um dos 5Vs do Big Data, logo, é uma característica muito importante.

    Perseverança!

  • Big Data é a área do conhecimento que estuda como tratar, analisar e obter informações a partir de conjuntos de dados grandes demais para serem analisados por sistemas tradicionais. 

  • gabarito (B)

    se liga nos V's a variedade de volume é veloz.

  • BIG DATA E DATA ANALYTICS

    Ø Big Data: consiste de um grande depósito de dados estruturados, semiestruturados e não estruturados:

    o   Capacidade de fazer a análise de dados.

    o   Estuda como tratar, analisar e obter informações a partir de conjuntos de dados grandes (data driven) demais para serem analisados por sistemas tradicionais.

    o   I O volume de dados é uma característica importante de Big Data. (Grande banco de dados)

    II A qualidade do dado tem importância, pois a transformação dos dados impacta nos negócios.(Dados estruturados ou não estruturados)

    o  III A velocidade de entrada dos dados impacta o modelo de processamento e armazenamento. (Para melhor proveito, usa-se Data Mining e Data Warehouse.)

    IV A variedade dos dados é característica intrínseca nos fundamentos de Big Data. (Engloba todos os tipos de dados)

    o   Os dados possuem "5V's": VERA VARIa VALOR da VELOCIDADE!

    • Volume -> grande quantidade.
    • Veracidade -> devem ser verídicos/verdadeiros
    • Variedade -> são variados.
    • Valor -> possuem valor (agregar conhecimento de alguma forma)
    • Velocidade -> são criados e armazenados rapidamente

     

    Ø O processo de Data Mining (Mineração de Dados) está incluído em um processo maior que é A DESCOBERTA DE CONHECIMENTO o qual é realizada através de dados que passam por um processo específico, que abrange as seguintes etapas:

    1-    SELEÇÃO:

    Seleciona os dados e as variáveis que se quer analisar

    2-    PRÉ-PROCESSAMENTO:

    Etapa em que é feito uma limpeza, eliminar erros, inconsistências, dos dados brutos.

    3-    TRANSFORMAÇÃO:

    Transformar os dados para poder fazer a mineração.

    4-    MINERAÇÃO DE DADOS:

    É aplicada técnicas e algoritmos para descobrir padrões úteis de dados

    5-    INTERPRETAÇÃO E AVALIAÇÃO

    Para seleciono os que são úteis.

  • Vô vê Vavá vê

    Volume

    Velocidade

    Valor

    Variedade

    Veracidade

    5V's Big Data

  • Volume : há um grande volume de dados

    Variedade : os dados são variados

    Velocidade : os dados são criados em uma velocidade surpreendente

    Valor : os dados devem possuir valor, ou seja, deve agregar no conhecimento da informação

    Veracidade : não basta ter uma grande quantidade de dados, esses dados devem ser verídicos

    NYCHOLAS LUIZ

  • o Big Data Analytics é uma ferramenta para organização de como lidar com os dados e utilizá-los para encontrar inferências. constroi análises complexas, com base em um grande volume de dados por meio de complexos algoritmos.

    Big Data descreve o volume de dados estruturados e não estruturados que podem trazer impactos aos negócios.

  • Letra B

    I O volume de dados é uma característica importante de Big Data.

    III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento.

    São características do Big Data:

    • Volume, Velocidade, Variedade, Veracidade, Valor, Viscosidade e Viralidade (7V's)
  • GAB. B

    I O volume de dados é uma característica importante de Big Data.

    III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento.

  • PRF 202?

  • Características Intrínsecas: Volume, Variedade e Velocidade

    Características Extrinsecas: Valor e Veracidade

    Tenho uma postagem/imagem no meu instagram (@joaovilar01) com essas diferenças

  • Os dados possuem "5V's":

    VERA VARIa VALOR da VELOCIDADE!

    Volume -> grande quantidade.

    Veracidade -> devem ser verídicos/verdadeiros

    Variedade -> são variados.

    Valor -> possuem valor (agregar conhecimento de alguma forma)

    Velocidade -> são criados e armazenados rapidamente


ID
3191878
Banca
CESPE / CEBRASPE
Órgão
TCE-RO
Ano
2019
Provas
Disciplina
Banco de Dados
Assuntos

Com relação a fundamentos e conceitos de Big Data, julgue os itens a seguir.

I O volume de dados é uma característica importante de Big Data.

II Em Big Data, a qualidade do dado não tem importância, porque a transformação dos dados não impacta os negócios.

III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento.

IV A variedade dos dados não é característica intrínseca nos fundamentos de Big Data.

Estão certos apenas os itens

Alternativas
Comentários
  • Para o Big Data se relaciona os 3 Vs:

    volume de dados,

    velocidade,

    variedade.

  • Os 5 V’s do Big Data:

    Volume

    Velocidade

    Variedade

    Veracidade

    Valor

  • Gabarito: B

  • I O volume de dados é uma característica importante de Big Data.

    II Em Big Data, a qualidade do dado não tem importância, porque a transformação dos dados não impacta os negócios.

    III A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento.

    IV A variedade dos dados não é característica intrínseca nos fundamentos de Big Data.

    resposta I e III letra B

  • Ano de 2025 e ainda continuo respondendo a mesma questão postada aqui 1000x ... ^^

  • Big Data (megadados ou grandes dados em português) é a área do conhecimento que estuda como tratar, analisar e obter informações a partir de conjuntos de dados grandes demais para serem analisados por sistemas tradicionais.

    O conceito de big data foi definido inicialmente por 3'V, mas a literatura mostrou que seu conceito pode ser expandido para 5'V, representados pelos seguintes conceitos:

    Volume: relacionado a grande quantidade de dados gerados;

    Variedade: as fontes de dados são muito variadas, o que aumenta a complexidade das análises;

    Velocidade: Devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as informações necessárias;

    Veracidade: A veracidade está ligada diretamente ao quanto uma informação é verdadeira.

    Valor: Este conceito está relacionado com o valor obtido desses dados, ou seja, com a “informação útil”.

  • GABARITO LETRA B

    BIG DATA é um conjunto de soluções tecnológicas capazes de lidar com dados digitais em volume, variedade e velocidade inéditos até hoje.

    O big data permite analisar qualquer tipo de informação digital em tempo real.

    Os V's do big data: Volume + Variedade + Velocidade + Valor + Veracidade.

    O big data engloba dados estruturados e não estruturados.

    Os principais componentes do big data são: hadoop, mapreduce, noSQL, SQL e o datawarehouse.

  • Os cinco "V's" do BIG DATA

    V - volume

    V - velocidade

    V - variedade

    V - valor

    V - veracidade

  • Letra (b)

    Complementando com mais dois conceitos trazidos pelo CESPE e uma observação...

    ========================

    (CESPE – Papiloscopista da PF 2018)

    De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. (CERTO)

    .

    (CESPE – Agente de Polícia Federal 2018)

    Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO)

    ========================

    Apenas uma observação que caiu na FCC...

    (FCC – Auditor da SEFAZ SC 2018)

    No âmbito da ciência de dados na definição de Big Data, utilizam-se características ou atributos que alguns pesquisadores adotam como sendo os cinco Vs. Porém, a base necessária para o reconhecimento de Big Data é formada por três propriedades:

    a) valor, velocidade e volume.

    b) valor, veracidade e volume.

    c) variedade, velocidade e volume.

    d) variedade, valor e volume.

    e) velocidade, veracidade e volume.

    .

    Obs: Note que Veracidade e Valor, que também são propriedades de um projeto de Big Data, não fazem parte da base necessária p/ o reconhecimento de Big Data.

  • Questão repetida: quem tem mais, tem menos que o QC.

  • Trata-se de uma questão sobre banco de dados.

    O comando da questão apresenta alguns itens sobre fundamentos e conceitos de Big Data, e pergunta quais destes itens estão corretos.

    Vamos analisar:

    I - Certo. Volume, juntamente com Velocidade e Variedade formam os 3 Vs que inicialmente conceituavam o Big Data.

    II - Errado. A qualidade do dado tem sim muita importância.

    III - Certo. Um projeto de Big Data muitas vezes tem que ser capaz de receber dados em tempo real, processá-los e dar resposta rápida, dessa forma a velocidade da entrada dos dados influencia em como o processamento e armazenamento é pensado.

    IV - Errado. Volume, Velocidade e Variedade formam os 3 Vs que inicialmente conceituavam o Big Data.

    Então, estão certos apenas os itens I e III.


    Gabarito do Professor: Letra B.

ID
3667903
Banca
CESPE / CEBRASPE
Órgão
TCE-PE
Ano
2017
Disciplina
Banco de Dados
Assuntos

Com relação a Big Data, julgue o item subsequente.

Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos.

Alternativas
Comentários
  • Dale Ctrl C + Ctrl V na cabeça:

    1. Volume

    Big Data é uma grande quantidade de dados gerada a cada segundo. Pense em todos os e-mails, mensagens de Twitter, fotos e vídeos que circulam na rede a cada instante. Não são terabytes e sim zetabytes e brontobytes. Só no Facebook são 10 bilhões de mensagens, 4,5 bilhões de curtidas e 350 milhões de fotos compartilhadas todos os dias. A tecnologia do Big Data serve exatamente para lidar com esse volume de dados, guardando-os em diferentes localidades e juntando-os através de software.

    2. Velocidade

    Se refere à velocidade com que os dados são criados. São mensagens de redes sociais se viralizando em segundos, transações de cartão de crédito sendo verificadas a cada instante ou os milissegundos necessários para calcular o valor de compra e venda de ações. O Big Data serve para analisar os dados no instante em que são criados, sem ter de armazená-los em bancos de dados.

    3. Variedade

    No passado, a maior parte dos dados era estruturada e podia ser colocada em tabelas e relações. Hoje, 80% dos dados do mundo não se comportam dessa forma. Com o Big Data, mensagens, fotos, vídeos e sons, que são dados não-estruturados, podem ser administrados juntamente com dados tradicionais.

    4. Veracidade

    Um dos pontos mais importantes de qualquer informação é que ela seja verdadeira. Com o Big Data não é possível controlar cada hashtag do Twitter ou notícia falsa na internet, mas com análises e estatísticas de grandes volumes de dados é possível compensar as informações incorretas.

    5. Valor

    O último V é o que torna Big Data relevante: tudo bem ter acesso a uma quantidade massiva de informação a cada segundo, mas isso não adianta nada se não puder gerar valor. É importante que empresas entrem no negócio do Big Data, mas é sempre importante lembrar dos custos e benefícios e tentar agregar valor ao que se está fazendo.

    fonte: https://culturaanalitica.com.br/os-5-vs-big-data/

  • Então imagem é não-estruturado?

  • GAB: CERTA

    1. Big Data é “definido genericamente como a captura, gerenciamento e a análise de dados que vão além dos dados tipicamente estruturados, que podem ser consultados e pesquisados através de bancos de dados relacionais.
    2.  Frequentemente são dados obtidos de arquivos não estruturados como vídeo digital, imagens, dados de sensores, arquivos de logs e de qualquer tipo de dados não contidos em registros típicos com campos que podem ser pesquisados”.
    3. OS 7V's DO BIG DATA
    • Volume: grande quantidade de dados de fontes variadas.
    • Velocidade: os dados passam a ser transmitidos em velocidade muito maior.
    • Variedade: capacidade de analisar dados estruturados e não estruturados.
    • Veracidade: necessidade de obter dados verídicos, de acordo com a realidade.
    • Valor: quanto mais valiosos forem os dados, mais importantes serão.
    • Viscosidade: impede a inércia (dificuldade de navegar entre o grande volume de dados)
    • Viralidade: os dados se tornam "virais", se espalham rapidamente.

    Questões que ajudam na resposta:

    (CESPE – Agente de Polícia Federal 2018) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO)

    (CESPE - 2018 - Polícia Federal - Papiloscopista) De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CERTA

    (CESPE/17) Uma big data não engloba dados não estruturados, mas inclui um imenso volume de dados estruturados suportado por tecnologias como o DataMining e o DataWarehouse para a obtenção de conhecimento a partir da manipulação desses dados. ERRADA

     (CESPE - 2014 - TJ-SE) Em soluções Big Data, a análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados. CERTA

  • "a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos." ??? péssima redação!

  • CERTO

    Conceitos:

    engloba todos os dados: estruturadosnão estruturados, e semi estruturados.

    é a análise e interpretação de grandes volumes de dadoscomplexos e incomuns.

    NÃO é utilizado para problemas triviais (comuns), como por ex: armazenar dados de uma lanchonete. (esses problemas tradicionais utiliza-se o Small Data)

    ________________________

    3Vs

    - Volume: há um grande volume de dados

    - Velocidade: os dados são transmitidos muito rápidos

    - Variedade: analisa diferente tipos e formatos de dados (estruturados, não estruturados, semi estruturados)

    - - - - - -

    5Vs (+)

    - Veracidade: os dados são verdadeiros e confiáveis

    - Valor: os dados têm que trazer valor para a empresa

    - - - - - -

    7Vs (+)

    - Viscosidade: impede a inércia (dificuldade de navegar entre os dados)

    - Viralidade: os dados se espalham rapidamente 

    _________________________

    (CESPE) Em soluções Big Dataa análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados(CERTO)

    ________

    (CESPE) Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. (CERTO)

    ________

    (CESPE) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO)

    ________

    (CESPE) De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. (CERTO)


ID
4832155
Banca
INSTITUTO AOCP
Órgão
MJSP
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

O MJSP possui uma coleção de conjuntos de dados cujo volume, velocidade e variedade é grande e difícil de armazenar, gerenciar, processar e analisar. Esse conjunto de dados é definido atualmente como

Alternativas
Comentários
  • Big data.

    Big data é um conjunto de ferramentas capaz de receber um grande volume e variedade de dados. Por ter um volume gigantesco e muita variedade, esses dados não podem ser interpretados e processados por softwares convencionais. 

     

  • 3 Vs do Big Data: Velocidade, Variedade, Volume

  •  O intuito do Big Data é oferecer uma abordagem consistente no tratamento do constante crescimento e da complexidade dos dados. Para tanto, o conceito considera os 5 V's do Big Data:

    o Volume;

    a Velocidade;

    a Variedade;

    a Veracidade e

    o Valor.

  • BIG DATA

    5 VsVAL VEL VOL VAR VER

    Valor = O uso do Big Data agrega valor à instituição que o utiliza. Uma vez que há a capacidade de análise em tempo real de um grande número de dados, torna-se possível fazer análises de tendências dos dados para, então, trazer soluções.

    Velocidade = É equipado com tecnologia capaz de lidar com esse volume de variedade de dados em um tempo útil e real.

    Volume = Trata-se de um grande número de dados. Um estudo acerca do tema revelou que, a cada 18 meses, a população dobra a quantidade de dados produzidos, sendo esta uma das preocupações do Big Data.

    Variedade = O Big Data trabalha com os mais diversos tipos de dados possíveis, preocupando-se em ter a capacidade de analisar esses tipos de dados.

    Veracidade = O Big Data preza pela veracidade dos dados. Logo, os dados lançados serão consistentes, confiáveis e que dizem a realidade do contexto situacional.

  • a-

    Big Data descreve o grande volume de dados estruturados e não estruturados com grandes impactos aos negócios. Ele é formado aplicações para analisar dados, transformando-os em um modelo visual, como gráficos e tabelas para análises sofisticadas da realidade e das tendências do negócio.

  • De maneira geral, Big Data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos (CESPE/2018).

    A IBM cita 7 dimensões que devem ser consideradas ao avaliar a viabilidade de uma solução de Big Data. São elas:

    -Volume dos dados que são capturados;

    -Variedade das fontes, tipos e formatos dos dados;

    -Velocidade na qual os dados são gerados, a velocidade em que é preciso agir com relação a eles ou a taxa em que estão mudando;

    -Veracidade dos dados, ou seja, a incerteza ou fidelidade dos dados.

    -Valor de negócios do insight que pode ser obtido ao analisar os dados;

    - Pessoas com aptidões relevantes disponíveis e compromisso de patrocinadores de negócios. Tais aptidões incluem conhecimento do segmento de mercado, domínio técnico sobre as ferramentas de Big Data e conhecimentos específicos de modelagem, estatística, matemática etc.

    -Considerações sobre governança para as novas fontes de dados e a maneira como os dados serão usados.

    (Gran Cursos - Patrícia Quintão)

    Bons estudos!

  • GAB A

    Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade.

    Volume: O primeiro V refere-se exatamente à essa quantidade de dados que o Big Data lida.

    Variedade: Quanto mais dados e fontes eu tenho, maior é a complexidade para trabalhar os dados, mas também maiores as possibilidades que tenho para gerar informação útil. 

    Velocidade: Esse é um dos grandes desafios do Big Data. Devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as informações necessárias. Os dados fluem em uma velocidade sem precedentes e devem ser tratados em tempo hábil. 

    PROF ÉRICO ARAÚJO

  • BIG DATA

    Grande banco de dados.

    Engloba todos os tipos de dados.

    Dados estruturados ou não estruturados.

    Para melhor proveito, usa-se Data Mining e Data Warehouse.

    Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    ________

    Bons Estudos!

  • Assertiva A

    velocidade e variedade é grande e difícil de armazenar, gerenciar, processar e analisar = Big data

  • O MJSP possui uma coleção de conjuntos de dados cujo volume, velocidade e variedade é grande e difícil de armazenar, gerenciar, processar e analisar. Esse conjunto de dados é definido atualmente como?

    Senhores, é sabido que são características de BIG DATA, mas a questão ficou sem alternativa valida!

    Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas p/ processar volumes muito grandes e c/ grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise;

    Por conseguinte, na falta de um contexto apropriado, creio que um conjunto de características armazenadas que refere-se a dados seja chamado de metadados

    (por falta de alternativa, vai de A mesmo^^)

    AVANTE

  • Só para complementar... Diferenças entre Business Intelligence e Big Data Analytics:

    • Business Intelligence: encontrar respostas que explicam o PASSADO;
    • Big Data Analytics: encontrar respostas que explicam o FUTURO.

    Fonte: Estratégia Concursos - Diego Carvalho, Renato da Costa, Raphael Henrique Lacerda, Thiago Rodrigues Cavalcanti

  • gab. A

    Big Data

    Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar imenso volume de dados (estruturados e não estruturados), e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise.

    Seu principal conceito, descobrir padrões de dados

    Cinco dimensões "V" ( segundo Bergson Lopes Rêgo):

    Volume

       Quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.

    Velocidade

       Desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.

    Variedade

       Implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados

    Veracidade

       Consiste no grau de incerteza e insconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados. 

       representa a confiabilidade dos dados

    Valor

       Retorno, financeiro ou não.

    ________________________________________________________________

    (CESPE - Q933316 - PF) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CERTO!

    (CESPE - 1933197) De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CERTO!

    FONTE: CESPE + COLEGAS DO QC + MEUS RESUMOS.

    Espero ter ajudado! BONS ESTUDOS!

  • GAB: A

    BIG DATA:

    Velocidade --> Refere-se à velocidade com que os dados são criados.

    Variedade --> dados estruturados, dados semiestruturados e dados não estruturados.

  • PRF 202?

  • Sobre a E:

    O termo Business Intelligence (BI), inteligência de negócios, refere-se ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que oferecem suporte a gestão de negócios. É o conjunto de teorias, metodologias, processos, estruturas e tecnologias que transformam uma grande quantidade de dados brutos em informação útil para tomadas de decisões estratégicas.

  • Letra A

    Conceitos:

    engloba todos os dados: estruturadosnão estruturados, e semi estruturados.

    é a análise e interpretação de grandes volumes de dadoscomplexos e incomuns.

    NÃO é utilizado para problemas triviais (comuns), como por ex: armazenar dados de uma lanchonete. (esses problemas tradicionais utiliza-se o Small Data)

    ________________________

    3Vs

    - Volume: há um grande volume de dados

    - Velocidade: os dados são transmitidos muito rápidos

    - Variedade: analisa diferente tipos e formatos de dados (estruturados, não estruturados, semi estruturados)

    - - - - - -

    5Vs (+)

    - Veracidade: os dados são verdadeiros e confiáveis

    - Valor: os dados têm que trazer valor para a empresa

    - - - - - -

    7Vs (+)

    - Viscosidade: dificuldade de navegar entre os dados (inércia), além de certa inconsistência

    - Viralidade: os dados se espalham rapidamente 

    _________________________

    (CESPE) Em soluções Big Dataa análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados(CERTO)

    ________

    (CESPE) Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. (CERTO)

    ________

    (CESPE) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO)

    ________

    (CESPE) De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. (CERTO)


ID
4832182
Banca
INSTITUTO AOCP
Órgão
MJSP
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

José está enfrentando problemas relacionados ao armazenamento em vários formatos, com estrutura de dados geralmente inconsistente, e à dificuldade de integração. Esses problemas, conhecidos em Qualidade de Dados para Big Data, podem ser respectivamente classificados como

Alternativas
Comentários
  • Variabilidade: No contexto do big data, refere-se a algumas questões peculiares. Um é o número de inconsistências nos dados. Eles precisam ser encontrados por métodos de detecção de anomalia e outlier para que qualquer análise significativa ocorra. É variável também devido à multiplicidade de dimensões de dados resultantes de vários tipos e fontes de dados diferentes. Variabilidade também pode se referir à velocidade inconsistente na qual os dados são carregados em um banco de dados.

  • Gabarito: A.

    Viscosidade é uma das novas características que tem sido cobrada.

    A viscosidade tem relação com a dificuldade de navegar entre os dados. Essa dificuldade pode ser considerar como uma espécie de inércia. Como os dados são variados, o algoritmo tem que ser capaz de lidar com diferentes fontes, essa flexibilidade tem um custo. Um deles é a viscosidade.

    Bons estudos!

  • Por que não poderia ser velocidade? Alguém pode me ajudar por favor?

  • Note que ao falar em vários formatos estamos falando da variabilidade ou variedade. E ao falar em dificuldade de integração (ou seja, ter os dados juntos) estamos falando da viscosidade. Essa falta de integração dos dados leva a dificuldade de navegação. Portanto, letra A.

    Fonte: Gran Cursos

  • Velocidade: está relacionada com o fato dos dados em big data ocorrem em fluxo contínuo. É o que acontece com as postagens nas redes sociais.

    Volume: está relacionado com a quantidade de espaço que é necessário para armazenar dados de big data. Geralmente, esses dados não irão caber, por exemplo, no seu computador de casa.

    Variedade: está ligada ao fato dos dados possuírem diferentes naturezas. O big data não tem preconceito. Todo tipo dado é bem vindo. Seja ele estruturado ou não estruturado.

    Variabilidade: é a oscilação nos níveis dos dados colhidos e trabalhados. Como essas informações vêm de múltiplas fontes, dizemos que o nível é variável.

    Viscosidade: tem relação com a dificuldade de navegar entre os dados. Essa dificuldade pode ser considerar como uma espécie de inércia. Como os dados são variados, o algoritmo tem que ser capaz de lidar com diferentes fontes, essa flexibilidade tem um custo. Um deles é a viscosidade.

    Volatilidade: diz respeito às inconsistências nos dados ou à mudança de dimensões entre eles, já que vêm de vários tipos origens.

    GAB:A

  • É necessário ter cautela em relação a essas questões de Big Data. Uma boa parte vai muito além do que se cobra, por exemplo, em concursos da área policial.

  • INFORMÁTICA: quanto mais estudo, mais novidades aparecem.

    Big Data eram 3 V, daqui uns dias são 15 V

  • Há mais de 30 V's. sacanagem a banca cobrar algo além dos 5

  • Quando irão parar de adicionar V's ao BigData??! Eles estão Viciados nisso!! kkkjjkkkjkk

  • Ao falar em vários formatos estamos falando da variabilidade ou variedade

    Ao falar em dificuldade de integração (ou seja, ter os dados juntos) estamos falando da viscosidade.

    Portanto, letra A.

  • Não era cinco v's? Volume, velocidade, variedade, valor e veracidade

  • Já elimina a letra "A" porque não é. A banca vem e te dá uma lição.

    Lição de hoje: Na informática vc nunca terá certeza de algo.

  • PRF 202?

  • Pelo amor de Deus, viscosidade?
  • Só lembrei do Rei leão "viscoso, porém gostoso. Hakuna matata"

  • Gabarito: A.

    Viscosidade é uma das novas características que tem sido cobrada.

    A viscosidade tem relação com a dificuldade de navegar entre os dados. Essa dificuldade pode ser considerar como uma espécie de inércia. Como os dados são variados, o algoritmo tem que ser capaz de lidar com diferentes fontes, essa flexibilidade tem um custo. Um deles é a viscosidade.

    Bons estudos!

  • A prova era pra analista de dados por isso que cobraram algo mais especifico da área dele.

  • Letra A

    Conceitos:

    engloba todos os dados: estruturadosnão estruturados, e semi estruturados.

    é a análise e interpretação de grandes volumes de dadoscomplexos e incomuns.

    NÃO é utilizado para problemas triviais (comuns), como por ex: armazenar dados de uma lanchonete. (esses problemas tradicionais utiliza-se o Small Data)

    ________________________

    3Vs

    - Volume: há um grande volume de dados

    - Velocidade: os dados são transmitidos muito rápidos

    - Variedade: analisa diferente tipos e formatos de dados (estruturados, não estruturados, semi estruturados)

    - - - - - -

    5Vs (+)

    - Veracidade: os dados são verdadeiros e confiáveis

    - Valor: os dados têm que trazer valor para a empresa

    - - - - - -

    7Vs (+)

    - Viscosidade: dificuldade de navegar entre os dados (inércia), além de certa inconsistência

    - Viralidade: os dados se espalham rapidamente 

    _________________________

    (CESPE) Em soluções Big Dataa análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados(CERTO)

    ________

    (CESPE) Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. (CERTO)

    ________

    (CESPE) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO)

    ________

    (CESPE) De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. (CERTO)

  • Letra A.

    Vamos colocar as fontes, galera.

    Ajuda muito tbém.

    https://blog.grancursosonline.com.br/a-viscosidade-no-big-data/


ID
4832728
Banca
INSTITUTO AOCP
Órgão
MJSP
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

O Big Data é definido como coleções de dados cuja sua quantidade é tão grande que é difícil armazenar, gerenciar, processar e analisar esses dados por meio de bancos de dados tradicionais. Nos últimos anos, houve um crescimento exponencial nos dados estruturados e não estruturados gerados pela tecnologia da informação da indústria e saúde por meio da internet das coisas (IoT), por exemplo. Sabendo disso, assinale a alternativa que apresenta corretamente as cinco características, também conhecidas como os cinco “vês”, de um big data.

Alternativas
Comentários
  • 5Vs ( VELOCIDADE/VARIEDADE/VOLUME /VERACIDADE/VALOR)

    Mnemônico: VAL- VEL – VOL – VAR - VER

  •  O intuito do Big Data é oferecer uma abordagem consistente no tratamento do constante crescimento e da complexidade dos dados. Para tanto, o conceito considera os 5 V's do Big Data: o Volume, a Velocidade, a Variedade, a Veracidade e o Valor.

  • Ficar atento com: às vezes, as bancas cobram os 3Vs, outras cobram os 5Vs. Pode confundir caso tenha uma alternativa que afirme que "o big data tem somente 3Vs", por exemplo. A Conclusão disso é ver o que a banca cobra.

  • se cobrar os 5Vs:

    Velocidade, volume, veracidade, variedade, valor.

    se cobrar os 3Vs:

    Velocidade, Volume e Variedade.

  • 5Vs -> VÁVÁ VÉVÉ

    VAriedade, VAlor

    VElocidade, VEracidade,

    VOlume

  • BIG DATA

    Grande banco de dados.

    Engloba todos os tipos de dados.

    Dados estruturados ou não estruturados.

    Para melhor proveito, usa-se Data Mining e Data Warehouse.

    Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    _________

    #BORAVENCER

  • GAB D

    VOLUME: O primeiro V refere-se à quantidade de dados com os quais o Big Data lida. As organizações coletam muitos dados de uma grande variedade de fontes, incluindo transações comerciais, redes sociais e informações de sensores ou dados transmitidos de máquina para máquina (internet das coisas).

    VARIEDADE: Quanto mais diversificadas as fontes de dados, maior é a complexidade para trabalhar com eles, mas também maiores são as possibilidades de gerar informação útil.

    VELOCIDADE - Esse é um dos grandes desafios do Big Data, pois devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as informações necessárias.

    VERACIDADE: A veracidade está ligada diretamente ao quanto uma

    informação é verdadeira.

    VALOR: Para gerar uma informação certa para as pessoas certas, devemos nos

    concentrar em gerar uma informação importante, ou seja, informação útil, que tenha valor.

  • (D)

    BIG DATA: É a análise e a interpretação de grandes volumes de dados e grande variedade. Para isso são necessárias soluções específicas para Big Data que permitam a profissionais de TI trabalhar com informações não-estruturadas a uma grande velocidade.

    *5 "V":

    Volume 

    Valor 

    Veracidade 

    Velocidade 

    Variedade

    Outras da Cespe que ajudam a responder:

    No âmbito da ciência de dados na definição de Big Data, utilizam-se características ou atributos que alguns pesquisadores adotam como sendo os cinco V`s. Porém, a base necessária para o reconhecimento de Big Data é formada por três propriedades: variedade, velocidade e volume.(C)

    (PF18) A mineração de dados se caracteriza especialmente pela busca de informações em grandes volumes de dados, tanto estruturados quanto não estruturados, alicerçados no conceito dos (4V) : volume de mineração, variedade de algoritmos, velocidade de aprendizado e veracidade dos padrões.(ERRADO)

  • 3 VS: VOLUME;VELOCIDADE;VARIEDADE

    5 VS: VOLUME,VELOCIDADE ,VARIEDADE ,VALOR, VERACIDADE

  • VAVA VEVE VO

    Com isso você não erra nunca mais.

  • Pegando emprestado o comentario de outro colega:

    "5V's": VÔ, VERA VARIa o VALOR da VELOCIDADE!

    1- Volume -> grande quantidade.

    2-  Veracidade -> verdadeiros

    3-  Variedade -> variados.

    4-  Valor -> eles têm

    5- Velocidade -> criados e armazenados rapidamente

  • 3V's DO BIG DATA

    • Volume: grande quantidade de dados de fontes variadas.
    • Velocidade: os dados passam a ser transmitidos em velocidade muito maior.
    • Variedade: capacidade de analisar dados estruturados e não estruturados.

    5V's DO BIG DATA (+)

    • Veracidade: necessidade de obter dados verídicos, de acordo com a realidade.
    • Valor: quanto mais valiosos forem os dados, mais importantes serão.

    7V's DO BIG DATA (+)

    • Viscosidade: impede a inércia (dificuldade de navegar entre o grande volume de dados)
    • Viralidade: os dados se tornam "virais", se espalham rapidamente.
  • #BIG DATA: grande depósito de dados estruturados, semiestruturados e não estruturados:

    ·        Capacidade de fazer a análise de dados.

    ·        Estuda como tratar, analisar e obter informações a partir de conjuntos de DADOS GRANDES (DATA DRIVEN) demais para serem analisados por sistemas tradicionais.

    ·        Os dados possuem "5V's": VERA VARIa VALOR da VELOCIDADE!

    1.    VOLUMEà  DATA DRIVEN - Grande banco de dados

    QUALIDADE DO DADO tem importância,

    Estruturados ou Não Estruturados

    2.    VERACIDADEà  Devem ser verdadeiros

    3.    VARIEDADEà Engloba todos os tipos de dados

    4.    VALOR à agregar conhecimento de alguma forma

    5.    VELOCIDADEà São criados e armazenados rapidamente.

    IMPACTA o modelo de PROCESSAMENTO e ARMAZENAMENTO.

    MELHOR PROVEITO, usa-se Data Mining e Data Warehouse.

    #VISCOSIDADE: tem relação com a dificuldade de navegar entre os dados. Essa dificuldade pode ser considerar como uma espécie de inércia. Como os dados são variados, o algoritmo tem que ser capaz de lidar com diferentes fontes, essa flexibilidade tem um custo.

    ·        Dados de sensores RFID, celulares, contadores inteligentes (smart meter) impulsionam a produção de dados em uma velocidade sem precedentes e contribuindo para o Big Data

    BASE NECESSÁRIA: VARIEDADE, VELOCIDADE e VOLUME.

     

    #O Big Data se relaciona a um universo de novas possibilidades e perguntas sobre fatos e dados, que ainda não conhecemos ou observamos, e busca descobrir novos padrões e fatos decorrentes que podem acontecer por meio de Banco de dados que são utilizados em soluções.

    Ex.: Banco de dados NoSQL.

  • Big Data

    Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados ,estruturados e não estruturados, permitindo alta velocidade de captura, descoberta e análise.

    Seu principal conceito, descobrir padrões de dados.

    Cinco dimensões "V" ( segundo Bergson Lopes Rêgo):

    Volume

       Quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.

    Velocidade

       Desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.

    Variedade

       Implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados

    Veracidade

       Consiste no grau de incerteza e inconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados. 

       representa a confiabilidade dos dados

    Valor

       Retorno, financeiro ou não.

    • (CESPE - Q933316 - 2018 - PF) - Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CERTO!
    • (CESPE - Q933197 - 2018 - PF) - De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CERTO!

    FONTE: CESPE + COLEGAS DO QC + MEUS RESUMOS.

    GAB.: D

  • PRF 202?

  • VAVA VE VOLUME E VELOCIDADE (pode pensar: VAVA VÊ AULA EM ALTO VOLUME E VELOCIDADE)

    VAriedade

    VAlor

    VEracidade

    Volume

    Velocidade

  • os 5V's do BigData

    VOLUME

    VELOCIDADE

    VARIEDADE

    VERACIDADE

    VALOR


ID
4832743
Banca
INSTITUTO AOCP
Órgão
MJSP
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Um dos desafios do Big Data é o volume de dados. Sabendo que um profissional de tecnologia da informação necessita utilizar um Big Data, assinale a alternativa que apresenta um tipo de banco de dados que é utilizado em soluções baseadas em Big Data.

Alternativas
Comentários
  • GABARITO A!

    Bancos de dados relacionais escalam, mas quanto maior o tamanho, mais custoso se torna essa escalabilidade, seja pelo custo de novas máquinas, seja pelo aumento de especialistas nos bancos de dados utilizados.

    Já os não relacionais, permitem uma escalabilidade mais barata e menos trabalhosa, pois não exigem máquinas extremamente poderosas e sua facilidade de manutenção permite que um número menor de profissionais seja necessário.

    Assim, os bancos de dados NoSQL, vão ficando mais populares entre as grandes empresas pois reúnem as características de poder trabalhar com dados semi-estruturados ou crus vindos de diversas origens (arquivos de log, web-sites, arquivos multimídia, etc...).

    https://www.devmedia.com.br/introducao-aos-bancos-de-dados-nosql/26044

  • Gab.Letra A

    Os bancos de dados não relacionais (NoSQL) não utilizam o esquema tradicional de tabela de linhas e colunas; em vez disso, eles usam um modelo de armazenamento otimizado para desempenho escalável e modelos de dados sem esquema (Cespe/2018).

    Quais são as vantagens desse modelo?

    •flexibilidade na manipulação de dados não estruturados;

    •melhor desempenho, custos reduzidos;

    •o fato de serem projetados para arquiteturas distribuídas

    fato de serem ideais para aplicações de Big Data.

  • Bancos do tipo NoSQL são mais flexíveis, sendo compatíveis com um grupo de premissas que “compete” com as propriedades ACID (Atomicidade, Consistência, Isolamento e Durabilidade), dos SGBDs (Sistemas Gerenciadores de Banco de Dados) tradicionais: a BASE (Basically Available, Soft state, Eventually consistency – Basicamente disponível, estado leve, eventualmente consistente).

    Bons estudos! ;)

  • Assertiva A

     banco de dados que é utilizado em soluções baseadas em Big Data. = Banco de dados NoSQL.

    Ex

    Oracle

    Mariadb

  • Questão fácil de anular, para soluções big data também se utiliza os dados que estão armazenados nos BD tradicionais ou seja, os relacionais também.

  • PRF 202?


ID
4863958
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o seguinte item, a respeito de big data.


O objetivo da técnica de sequência de tempo é identificar a ocorrência de dois eventos diferentes no mesmo momento.

Alternativas
Comentários
  • Esta técnica analisa sequências de eventos. Por exemplo, a técnica de associação pode identificar que fraldas são compradas em conjunto com cerveja, mas na mesma transação. Agora, se muitas pessoas compram uma TV fina hoje e voltam depois de 3 meses para comprar um home theater, isso é função da sequência de tempo.

    Autor - Stanley Loh.

  • gabarito errado

     Nos padrões temporais (ou padrões dentro de série temporal), as similaridades podem ser detectadas dentro de posições de uma série temporal de dados, que é uma sequência de dados tomados em intervalos regulares, como vendas diárias ou preços de ações de fechamento diário.

    Exemplo: uma ação de uma companhia de energia e outra de uma companhia financeira tiveram o mesmo padrão durante um período de três anos em relação a preço de fechamento de ações. 

    fonte: estratégia concursos

  • A resposta ficou na pergunta: como q eu vou usar uma técnica de sequencia pra identificar ocorrências distintas no mesmo momento?

  • ERRADO

    Sequência nada mais é do que uma relação temporal entre eventos.

    Por exemplo, como descobrir que quem compra um computador novo, em 65% dos casos compra um novo antivírus em menos de 2 dias.

  • ERRADO

    Se é sequencia de tempo, logo, não é no mesmo momento.

  • Padrões sequenciais -> Sequência de EVENTOS

    Ex: Paciente chegou com gripe, depois voltou com febre, depois com tosse -> Opa, provavelmente ele terá pneumonia

    Padrões temporais -> Fator TEMPORAL/intervalos regulares.

    Ex: Pensa hoje: Quem vai na farmácia comprar remédio pra febre, 3 dias depois volta pra fazer o exame de COVID.

    Quem compra um PC hoje, 2 meses depois volta pra comprar um mouse.

    Claro que não é certinho, mas é isso que os padrões tentam adivinhar.

  • A técnica de análise de sequências temporais analisa estatisticamente sequências de eventos com o objetivo de encontrar sequências que se repetem. Cada sequência será representada por uma linha de tempo com eventos que já ocorreram.

  • Arthur Mendonça | Direção Concursos

    Os padrões sequenciais são as recorrências de eventos em sequência. Esses padrões se diferem das regras de associação por considerarem a ordem dos eventos.

    Exemplo: uma regra de associação indica que um cliente que compra o produto A também compra o produto B, independentemente da ordem das compras.

    Já um padrão sequencial poderia ser utilizado para identificar que que um cliente que compra o produto A tende a comprar o produto B logo em seguida.

  • O objetivo da técnica de sequência de tempo é identificar a ocorrência de dois eventos diferentes no mesmo momento.

    (Na falta do comentário de um professor, notifiquem a questão)

    ·        Análise de regressão:

    Análise estatística com o objetivo de verificar a existência de uma relação funcional entre uma variável dependente com uma ou mais variáveis independentes.

    Objetivos: a sumarização, a predição, o controle, a estimação, a seleção de variáveis e a inferência.

     

    ·         Análise de sequências temporais:

    Analisa estatisticamente sequências de eventos com o objetivo de encontrar sequências que se repetem. Cada sequência será representada por uma linha de tempo com eventos que já ocorreram.

    ·        Fator de confiança varia de 0 a 1. Fator Correlação varia de -1 a 1.

    (Mateus Araújo)

    ·        Padrões sequenciais de EVENTOS

    ·        Ex: Paciente chegou com gripe, depois voltou com febre, depois com tosse -> Opa, provavelmente ele terá pneumonia

    ·        Padrões temporais: Fator temporal com intervalos regulares.

    ·        Ex: Quem vai na farmácia comprar remédio pra febre, 3 dias depois volta pra fazer o exame de COVID.

  • INTERPRETAÇÃO.

  • A técnica de sequência de tempo (ou de padrões sequenciais) se difere da técnica de regras de associação justamente em relação à ordem do acontecimento dos eventos. Nessa técnica, são identificadas sequências de eventos que costumam ocorrer em uma determinada ordem específica, e não ao mesmo tempo.

  • O objetivo da técnica de sequência de tempo é identificar a ocorrência de dois eventos diferentes no mesmo momento.

    ERRADO

    • Técnica que trabalha com as ocorrências que se ordenam em uma sequência;
    • Não avalia atividades ou eventos no mesmo momento, pois não seria sequencial.

    "A disciplina é a maior tutora que o sonhador pode ter, pois transforma o sonho em realidade."

  • Sequência = 1 após o outro...
  • a) padrões sequenciais: Aconteceu o evento A, acontecerá o evento B 

    b) padrões temporais: Ocorrem em momentos DIFERENTES (não concomitantes)

  • no padrão sequencial, não há ocorrência de eventos simultâneos, mas num determinado intervalo de tempo. Um ótimo exemplo seria a compra de um carro zero. Você comprou o carro, por dedução fará o seguro algum tempo depois, e a primeira revisão em meses. Uma sequência de evendos ordenados, o algoritmo vai te apresentar propaganda de seguros e te lembrar da primeira revisão para não perder a garantia. Ao mesmo tempo seria a associação, na qual é apresentado pra você no momento da compra um outro produto que de acordo com compras do mesmo produto foram feitas em conjunto com outro produto. Por exemplo, quem comprou o caderno tal, comprou a impressora tal, comprou tinta da marca X.

  • Gabarito: Errado

    Correção da mesma:

    O objetivo da técnica de sequência de tempo é identificar a ocorrência de dois eventos diferentes no mesmo evento.

  • Gab. Errado

    O objetivo da técnica de sequência de tempo é identificar a ocorrência de dois eventos diferentes no mesmo evento.

  • Padrões sequenciais -> Sequência de EVENTOS

    Ex: Paciente chegou com gripe, depois voltou com febre, depois com tosse -> Opa, provavelmente ele terá pneumonia

    Padrões temporais -> Fator TEMPORAL/intervalos regulares.

    Ex: Pensa hoje: Quem vai na farmácia comprar remédio pra febre, 3 dias depois volta pra fazer o exame de COVID.

    Quem compra um PC hoje, 2 meses depois volta pra comprar um mouse.

    Claro que não é certinho, mas é isso que os padrões tentam adivinhar.

  • Fui pelo portuga tbm . Seguimos !
  • Técnicas de Associação na análise de dados servem para descobrir relacionamentos. Elas podem ser:

    • Padrões Sequenciais: Sequência ordenada de eventos (como a análise de cesta de produtos. Ex.: cliente que compra X, compra Y).
    • Padrões Temporais: Frequência de eventos relacionados (clientes compram n produtos X semanalmente).

ID
4863961
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o seguinte item, a respeito de big data.


Em se tratando da técnica de correlação, utiliza-se uma escala de 1 a -1 para indicar o grau de similaridade entre duas variáveis distintas.

Alternativas
Comentários
  • Certo

    Quando o coeficiente de correlação se aproxima de 1, nota-se um aumento no valor de uma variável quando a outra também aumenta, ou seja, há uma relação linear positiva. Quando o coeficiente se aproxima de -1, também é possível dizer que as variáveis são correlacionadas, mas nesse caso quando o valor de uma variável aumenta o da outra diminui. Isso é o que é chamado de correlação negativa ou inversa.

  • Vai de -1 a 1

    -1: Correlação linear negativa perfeita

    1: Correlação linear positiva perfeita

    0: Não há correlação

    É um coeficiente adimensional, não é afetado pelas unidades de medidas das variáveis.

  • O Icaro complementou de forma perfeita o comentario do JK...parabens, meu jovem!

  • Isso é TI ou Estatística?

    ;(

  • Correlação POSITIVA = Reta ascendente

    Correlação NEGATIVA = Reta descendente

    Lembrando que mais próximo do 0, menos correlação

  • CERTO

    Em geral, há pares de variáveis que apresentam forte dependência estatística, mas que possuem correlação nula. Para este casos, são utilizadas outras medidas de dependência. ) para medir o grau de correlação.

    Correlação I Negativa I Positiva

    Baixa I de -0,5 à 0 I de 0 à 0,5

    Alta I de -1 à -0,5 I de 0,5 à 1

  • Gabarito: Certo.

    Importante lembrar que o coeficiente de correlação nulo não implica que as variáveis não possuem relação. Elas não possuem relação linear, apenas.

    Bons estudos!

  • 1 : Indica que as variáveis estão fortemente correlacionadas.

    0 : Indica que não há correlação entre elas

    -1 : indica uma relação inversa 

  • obrigado, Analise de Variância!

  • Assertiva C

    Em se tratando da técnica de correlação, utiliza-se uma escala de 1 a -1 para indicar o grau de similaridade entre duas variáveis distintas.

    indicador estatística que mede a relação entre duas variáveis.

  • Se falar em fator de confiança, seria uma variação de 0 a 1.

    Julgue o seguinte item, a respeito de big data.

    Tratando-se de aprendizagem de máquina, o fator de confiança para as evidências varia de -1 a 1 para representar a certeza do fato.

    ERRADO

  • Vou precisar desse conhecimento para descarregar cigarro contrabandeado na fronteira sim.

  • GAB. CORRETO

    · *Tratando-se de aprendizagem de máquina, o fator de confiança para as evidências varia de 0 a 1 para representar a certeza do fato. **

    .

    .

    .

    · ** Tratando da técnica de correlação, utiliza-se uma escala de 1 a -1 para indicar o grau de similaridade entre duas variáveis distintas. **

    #PERTENCEREMOS

    @Projet0_PRF

  • Falou correlação, remete à estatística. Neste caso, a correlação varia entre valor de -1 e 1, os quais indicam uma forte ou fraca relação linear dos dados.

  • Quanto mais próximo de 1 maior a correlação positiva e quanto mais próximo de -1 maior a correlação negativa.

  • CERTO

    Confiança: 0 a 1

    Correlação: 1 a -1

  • Acertei pela Estatística hehe...

  • Outra questão que ajuda a entender (Estatística):

    (CESPE) A quantidade de sólidos totais (Y) na água está relacionada com a sua condutividade elétrica (X), segundo um modelo de regressão linear simples na forma aX + b + E, em que a e b são os coeficientes do modelo e E representa uma variável aleatória normal com média zero e desvio padrão igual a σ. Por máxima verossimilhança, o modelo ajustado foi =0,65X + 0,05, e as estimativas dos desvios padrões de Y e de X foram, respectivamente, iguais a 800 e 1.000. A condutividade média da água foi igual a 2.000. Com base nessas informações, julgue o item seguinte.

    A correlação entre é superior a 1. (E)

    A correlação varia entre [-1; 1]

    GAB E

    Bons Estudos!!

  • Gab: Certo

    Covariância varia entre -1 a 1 (nunca menor que -1 e nunca maior que +1)

    • 0= não existe força linear
    • -1 ou +1= correlação máxima
    • 1= correlação perfeita positiva
    • -1= correlação perfeita negativa

    Eu: estatística hoje não.

    Estatística: hoje sim.

  • Obrigada, Estatística!

  • Fui diretinho no Guilherme Neves. Botou "pra toraaaaar"

  • pensa q ganhar 12k é facil

  • Fator de CORREÇÃO entre duas variáveis: -1 a 1.

    Fator de determinação, explicação: 0 a 1.

    Nível de confiança: 0 a 1 (0=0% e 1=100%).

  • Osh, é estatística? Ainda bem que na PF cai ambos, mas só acertei por causa de correlação linear de variáveis de estatística mesmo.. que varia de -1 a 1.

  • Gostava mais de big dada quando falava-se apenas dos 5Vs

  • GAB. CERTO

    Confiança: 0 a 1

    Correlação: 1 a -1

  • As propagandas estão CHATAS demais! Já não compro por pirraça, mesmo que goste da oferta. Vai ser chato lá longe.

  • Outra parecida:

    Q1621321 - Tratando-se de aprendizagem de máquina, o fator de confiança para as evidências varia de -1 a 1 para representar a certeza do fato. (E)

    PRA NUNCA MAIS ESQUECER:

    Pra gente se envolver, primeiro vem a CONFIANÇA: De 0 a 1

    e DEPOIS vamos nos envolver em uma CORELAÇÃO: De 1 a -1

  • O muro tá alto.


ID
4863967
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o seguinte item, a respeito de big data.


A etapa de modelagem do modelo CRISP-DM permite a aplicação de diversas técnicas de mineração sobre os dados selecionados, conforme os formatos dos próprios dados.

Alternativas
Comentários
  • Por meio de técnicas de indução, o Data Mining (parte da Data Science) utiliza estatística e matemática para realizar o cruzamento de dados a fim de propor hipóteses e solucionar problemas. Ou seja, é a mineração de dados que transforma todo o volume de dados em informações úteis para a tomada de decisões.

    A metodologia CRISP-DM ocorre em eventos distintos e reúne as melhores práticas para que o Data Mining seja o mais produtivo e eficiente possível, analisando dados financeiros, de recursos humanos, práticas dos clientes e outros, a fim de propor modelos de melhoria ou solução de problemas.

    FONTE: https://semantix.com.br/como-explorar-e-gerenciar-dados-com-o-crisp-dm/

  • O planejamento das atividades é realizado na fase de entendimento de negócio.

    A fase de entendimento dos dados visa identificar os dados relevantes das diferentes fontes de dados. A fase de entendimento dos dados começa com uma coleta inicial de dados e prossegue com atividades para se familiarizar com os dados, identificar problemas de qualidade de dados, descobrir novos insights sobre os dados ou detectar subconjuntos interessantes para formar hipóteses para informações ocultas. O analista deve ser claro e conciso sobre a descrição da tarefa de mineração de dados para que os dados mais relevantes possam ser identificados e deve construir uma compreensão adequada das fontes de dados e das variáveis existentes.

    Gabarito: Errado.

    fonte> https://www.exponencialconcursos.com.br/me-questoes-de-bancos-de-dados-e-analises-de-informacoes

  • A metodologia CRISP-DM é descrita em termos de um modelo de processo hierárquico, consistindo em conjuntos de tarefas descritas em quatro níveis de abstração (do geral ao específico): fase, tarefa genérica, tarefa especializada e instância do processo.

    GABARITO: CORRETO.

    https://medium.com/

  • Certo

    A verificação da qualidade dos dados é uma atividade da fase de entendimento dos dados:

    Fases do CRISP-DM

    Entender o Negócio: foca em entender o objetivo do projeto a partir de uma perspectiva de negócios, definindo um plano preliminar para atingir os objetivos.

    Entender os Dados: recolhimento de dados e inicio de atividades para familiarização com os dados, identificando problemas ou conjuntos interessantes.

    Preparação dos Dados: construção do conjunto de dados final a partir dos dados iniciais. Normalmente ocorre várias vezes no processo.

    Modelagem: várias técnicas de modelagem são aplicadas, e seus parâmetros calibrados para otimização. Assim, é comum retornar à Preparação dos Dados durante essa fase.

    Avaliação: é construído um modelo que parece ter grande qualidade de uma perspectiva de análise de dados. No entanto, é necessário verificar se o modelo atinge os objetivos do negócio.

    Implantação: o conhecimento adquirido pelo modelo é organizado e apresentado de uma maneira que o cliente possa utilizar.

  • GABARITO CERTO

    O CRISP-DM é um modelo de referência de mineração de dados que descreve um conjunto de processos para realizar projetos de mineração de dados em uma organização baseado nas melhores práticas utilizadas por profissionais e acadêmicos do ramo. É uma metodologia não proprietária que pode ser aplicada livremente a qualquer projeto independentemente do tamanho ou tipo do negócio, essa metodologia possui um ciclo de vida não-linear composto por seis fases ou etapas. 

    1º ENTENDER DOS NEGÓCIOS

    2º ENTENDER DOS DADOS

    3º PRECISA PREPARAR OS DADOS

    4º CONSTRUIR UM MODELO PARA ESSES

    5º TESTAR O MODELO

    6º SE FUNCIONAR... IMPLEMENTAR O MODELO

  • CERTO

    Oque é um modelo CRISP-DM?

     É um modelo de processo de mineração de dados que descreve abordagens comumente usadas por especialistas em mineração de dados para atacar problemas.

    Entender o Negócio: foca em entender o objetivo do projeto a partir de uma perspectiva de negócios, definindo um plano preliminar para atingir os objetivos.

    Entender os Dados: recolhimento de dados e inicio de atividades para familiarização com os dados, identificando problemas ou conjuntos interessantes.

    Preparação dos Dados: construção do conjunto de dados final a partir dos dados iniciais. Normalmente ocorre várias vezes no processo.

    Modelagem: várias técnicas de modelagem são aplicadas, e seus parâmetros calibrados para otimização. Assim, é comum retornar à Preparação dos Dados durante essa fase. (RESPOSTA DA QUESTÃO)

    Avaliação: é construído um modelo que parece ter grande qualidade de uma perspectiva de análise de dados. No entanto, é necessário verificar se o modelo atinge os objetivos do negócio.

    Implantação: o conhecimento adquirido pelo modelo é organizado e apresentado de uma maneira que o cliente possa utilizar.

  • CRISP-DM

    -Modelo de processo para mineração de dados (foco industrial)

    -Qualquer um pode usar

    Etapas:

    1- Entendimento do Negócio -> O cara que vai modelar não manja de tudo que existe no mundo, ele precisa entender o que o cliente quer.

    2- Entendimento de dados -> Aqui já entendi minha área de atuação e dentro dessa área vou selecionar os dados que me atendam. Coletar/avaliar/verificar/descrever dados.

    3- Pré-processamento -> Com os dados "em mãos" preciso fazer uma limpeza neles, visto que eles vão vir cheio de erros e inconsistências. Preparar os dados pra de fato serem modelados.

    4- Modelagem (construção do modelo) -> Aqui seleciono técnicas, algoritmos, elaboro o modelo e tals. Posso precisar voltar nas fases anteriores.

    5- Teste e avaliação -> Avalia se os resultados foram satisfatórios ou se preciso refazer algo.

    6- Implementação -> Aqui coloca o modelo pra funcionar.

  • Aí tu vem tentar um pouco de aprendizado reverso, lê a questão e : I have no fucking idea what i am doing. kkkkk

  • GAB: C

    PEGA A VISAO

    ETAPAS DO CRISP - DM

    • ENTENDIMENTO DO NEGOCIO
    • ENTENDIMENTO DE DADOS
    • PREPARACAO DE DADOS
    • MODELAGEM DE DADOS
    • TESTE E AVALICAO
    • IMPLANTACAO
  • CERTO

    CRISP-DM (“é um modelo que está incluso na Mineração de dados”)

    ·        Esse modelo define o CICLO DE VIDA do projeto de Mineração de dados (data mining)

    ·        Faz com que a Mineração de dados seja mais produtiva e eficiente

    Etapas: (“EE.PM.AI”)

    - Entendimento do negócio: definir os objetivos, requisitos, e o problema

    - Entendimento dos dados: entender e conhecer os dados

    - Preparação dos dados: limpeza, preparação e planejamento dos dados para a modelagem

    - Modelagem dos dados: aplicação de técnicas de data mining

    - Avaliação: realização de testes para validar os dados

    - Implementação / Desenvolvimento

    obs: as 6 etapas são FLEXÍVEIS – Não precisam ser seguidas rigorosamente

  • CRISP-DM ?

    É um modelo de processo de mineração de dados que descreve abordagens comumente usadas por especialistas em mineração de dados para atacar problemas.

    • ENTENDIMENTO DO NEGOCIO
    • ENTENDIMENTO DE DADOS
    • PREPARACAO DE DADOS
    • MODELAGEM DE DADOS
    • TESTE E AVALICAO
    • IMPLANTACAO

    NYCHOLAS LUIZ

  • Gabarito: Certo.

    CRISP -DM --> é uma metodologia especificamente desenhada para processos de mineração de dados.

    Fases do CRISP/DM:

    1 - Entendimento de negócio: --> entender o que o cliente quer, qual problema ele quer resolver,

    2 – Entendimento/compreensão de Dados --> começa a trabalhar com dados brutos, buscando entender esses dados, descobrir mais detalhes sobre eles, a verificação da qualidade dos dados é uma atividade da fase de entendimento dos dados.

    3 - Preparação de dados è  excluir dados inúteis --> completar dados, transformar, definir formatos, escolher atributos dos dados, definir formatos

    4 - Construção do modelo (modelagem) --> escolher as técnicas, ferramentas e algoritmos que serão utilizados na mineralização

    5 - Teste e Avaliação --> testar os dados a fim de descobrir se as metas impostas foram atingidas, os problemas foram solucionados

    6 - Implementação --> cliente, para que ele utilize-o.

  • Comentário: Construção do Modelo/ Modelagem: Seleciona-se e aplica-se técnicas de modelagem. Não existe o melhor método, deve-se analisar os métodos possíveis, assim descobrindo o melhor resultado. – Certo 

    Hachid Targino

  • CRISP - DM

    • relacionado a mineração de dados.
    • tipo de modelagem para minerar.
    • Possui 6 fases (interativa e iterativa)
    • É de padrão aberto.
    • Fases: 1. entendimento do negócio; 2. entendimento dos dados; 3. preparação dos dados; 4. modelagem; 5. avaliação; 6. implantar (executar).
  • CRISP-DM (Cross-industry standard process for data mining) é uma metodologia que fornece uma abordagem estruturada para processos de mineração de dados, sendo amplamente utilizada devido à sua poderosa praticidade, flexibilidade e utilidade ao usar a análise para resolver problemas comerciais complexos.

  • Gabarito: Correto.

    Construção do modelo (modelagem) envolve escolher as técnicas, ferramentas e algoritmos que serão utilizados na mineralização

  • Não concordo com a palavra “ técnicas “ isso da a entender que as “ fases ( nomenclatura correta para a questão ) “ são diferentes , mas elas não são , é uma consequência , sequência de ações . Gabarito “ a critério do examinador “
  • modelo CRISP-DM

    • 1) Entendimento do Negócio
    • 2) Entendimento dos Dados
    • 3) Preparação dos Dados (limpeza)
    • 4) Modelagem dos Dados
    • 5) Avaliação
    • 6) Implantação (execução)

    Olha a dica:

    • 1° O ENTENDIMENTO do NEGÓCIO é o seguinte....
    • 2°Você tem que pegar os DADOS dela
    • 3° PREPARAR ambiente
    • 4°Fazer uma massagem MODELADORA nela
    • 5° aí vc tem que AVALIAR e ver se ela gostou
    • 6° pra depois IMPLANTAR o negócio nela..

    Kkkk...mas assim eu consegui gravar.

  • CERTO

    Após a fase de preparação dos dados temos a modelagem, em que os dados limpos e organizados serão utilizados na escolha de técnicas, ferramentas, algorítimos a serem usados na criação de parâmetros.

  • O que é um modelo CRISP-DM?

    É um modelo de processo de mineração de dados que descreve abordagens comumente usadas por especialistas em mineração de dados para atacar problemas.

    1 – Entendimento do Negócio: essa fase busca entender qual problema o negócio quer resolver

    2 – Entendimento dos Dados :coleta inicial dos dados busca-se descrever claramente o problema, fazer a identificação dos dados e verificar se as variáveis relevantes para o projeto não são interdependentes.

    3 – Preparação dos Dados: inclui tarefas como seleção de tabelas, integração, transformação, limpeza e organização de dados

    4 – Construção do Modelo: Também chamada de Modelagem, nessa fase ocorre a seleção das técnicas, ferramentas e

    algoritmos a serem utilizados, como também a elaboração e execução da modelagem sobre o conjunto de dados preparado na fase anterior.

    5 – Teste e Avaliação: avaliar os resultados da modelagem. Avalia se as etapas atingiram os objetivos do negócio.

    6 – Implantação/Implementação: Também chamada de desenvolvimento, essa fase busca colocar o modelo para funcionar.


ID
4863970
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o seguinte item, a respeito de big data.


Tratando-se de aprendizagem de máquina, o fator de confiança para as evidências varia de -1 a 1 para representar a certeza do fato.

Alternativas
Comentários
  • Para esse tipo de problema, uma solução possível é a atribuição de valores que representam os fatores de confiança para as evidências. Esses valores variam entre 0,0 e 1, sendo que, quanto mais próximo do 1, mais forte é a certeza da regra ou do fato. Por exemplo, um fato que tenha fator de confiança igual a 0,4 significa que o sistema tem somente 40% de certeza da ocorrência daquele fato.

    Fonte: Uniasselvi, livro de Inteligência artificial.

  • Não há lógica de um fator de confiança ser negativo, assume valores positivos de 0% a 100%.

  • Gabarito: Errado

    Só pra complementar o comentário do colega Erik Silva, acredito que a banca quis tentar fazer aquela velha misturada de conceitos como sempre. Essa variação de -1 a 1 envolve Correlação. vejam essa questão

    Ano: 2020 Banca: CESPE / CEBRASPE Órgão: Ministério da Economia Prova: CESPE / CEBRASPE - 2020 - Ministério da Economia - Tecnologia da Informação - Ciência de Dados

    Em se tratando da técnica de correlação, utiliza-se uma escala de 1 a -1 para indicar o grau de similaridade entre duas variáveis distintas. CERTO

  • Errado

    O fator de confiança varia de 0 a 1 para a certeza do fato.

  • Lembrem da Estatística:

    Fator de correlação entre 2 variáveis -> -1 a 1

    Fator de Determinação/Explicação-> 0 a 1

    Nível de confiança -> 0 a 1

  • Gab: Errado

    Para representar uma fator de confiança, o intervalo possível não pode assumir valores negativos. Deve variar no intervalo [0,1], tendo em vista que pode estar entre 0% de confiança e 100%.

  • Varia de 0 a 1 

    PRF 1.499 Vagas disponíveis pra vocês, uma já é minha.

    Vamos a luta estamos vivos !!

    PRF Brasil...

  • QUESTAO DE INFORMATICA MAS EXIGE CONHECIMENTO DA ESTATÍSTICA

    R = VARIA DE 0 a 1

  • Banco de dados, estatística. Agora tudo faz sentido.

  • *FATOR DE CONFIANÇA = VARIA (0,1)

    *PODE ESTAR ENTRE 0% E 100% DE CONFIANÇA.

    NYCHOLAS

  • Nunca nem vi ! TÁ AMARRADO !

  • trocou os dados com a técnica de correlação. ERRADA

  • Fator de confiança varia de 0 a 1 enquanto a correlação varia de -1 a 1.

  • Fator de Confiança varia de 0% a 100%

    É só lembrar dos cálculos do Intervalo de Confiança em Estatística Inferencial.

  • Confrontando o JK, claro que existe lógica, desde que seja uma representação, uma convenção. Como, por exemplo, acontece no Coeficiente de correlação de Pearson, que pode ser -1 a 1. O intuito da questão era fazer com que o candidato associasse à regressão linear, ou análise de regressão linear que existe em Mineração de Dados e Estatística.

  • Já vi outras questões assim em outras disciplinas... teve uma questão de estatística que, por mais que tenha pesquisado, não encontrei forma alguma de justificar o gabarito... Creio que tenha sido erro no cadastramento. Também avisei, mas eles não alteraram... Ah! Pasmem! No gabarito comentado o professor ainda tentou justificar, mas falou algo sem o menor sentido.

  • Estatística salvando a galera.

  • Meu amigo, falou em "certeza" envolve probabilidade. Existe probabilidade negativa? NAO, logo a questão é nitidamente errada.

  • Para representar uma fator de confiança, o intervalo possível não pode assumir valores negativos. Deve variar no intervalo [0,1], tendo em vista que pode estar entre 0% de confiança e 100%.

  • A correlação pode variar entre -1 e 1 na Estatística (quase que confundo). Mas a Confiança é 0 ou 1.

  • É estatística ou informática? O bom é que já aprendo mais de estatística, valeu Cespe, parece que um assunto e gancho de outro assunto de outra matéria, isso é muito bom.

    E que Deus nos ajude!!

  • ERRADO

    -1: Correlação linear negativa perfeita

    1: Correlação linear positiva perfeita

    0: Não há correlação

    Confiança: 0 a 1

    Correlação: 1 a -1

  • Eu confio no 01. (fiz agora)

  • Gabarito ERRADO.

    Dependendo do olho que lê, a questão pode ser de Informática ou Estatíscia :P

    A certeza de um fato pode ser dada em um intervalo entre 0 (não vai rolar/ não rolou) e 1 (com certeza vai rolar/rolou). Não tem como ter "certeza negativa".

    Exemplificando:

    Certeza de que o flamengo foi campeão brasileiro em 2020: 1 (de fato foi)

    Certeza de que eu serei vacinado contra a COVID esse ano: 0,7 (suposição)

    Certeza de que eu irei gabaritar informática na prova da PCDF: 0,1 (a esperança é a última que morre)

    Certeza de que irei comprar amanhã uma Ferrari com meu saldo atual de concurseiro: Embora a resposta correta pareça -948732198471, acredite, é 0.

    Bons estudos!

    #PERTENCEREMOS

  • Técnica de correlação: 1 a -1; 

             

    Fator de confiança: 0 (0%) a 1 (100%).  

  • Outra questão parecida:

    Q1621318 - Em se tratando da técnica de correlação, utiliza-se uma escala de 1 a -1 para indicar o grau de similaridade entre duas variáveis distintas. (C)

    PRA NUNCA MAIS ESQUECER:

    Pra gente se envolver, primeiro vem a CONFIANÇA: De 0 a 1

    e DEPOIS vamos nos envolver em uma CORELAÇÃO: De 1 a -1

  • 1 a -1 é a técnica de correlação, indica o grau de similaridade entre duas variáveis


ID
4863973
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o seguinte item, a respeito de big data.


Aprendizagem de máquina pode ajudar a clusterização na identificação de outliers, que são objetos completamente diferentes do padrão da amostra.

Alternativas
Comentários
  • Certo. Outliers são dados que não apresentam comportamento padrão.

  • Essa definição da banca deve ser anotada, pois também serve para disciplina de estatística. Perfeito!

  • Os outliers são dados que se diferenciam drasticamente de todos os outros, são pontos fora da curva normal . Em outras palavras, um outlier é um valor que foge da normalidade e que pode (e provavelmente irá) causar anomalias nos resultados obtidos por meio de algoritmos e sistemas de análise.

    Entender os outliers é fundamental em uma análise de dados por pelo menos dois aspectos:

    Os outliers presentes em datasets possuem diversos outros nomes, como:

    1 - dados discrepantes;

    2 - pontos fora da curva;

    3 - observações fora do comum;

    4 - anomalias;

    5 - valores atípicos;

    entre outros.

    FONTE: https://www.aquare.la/o-que-sao-outliers-e-como-trata-los-em-uma-analise-de-dados/

  • Clusterização é o agrupamento automático de instâncias similares, uma classificação não-supervisionada dos dados. Ou seja, um algoritmo que clusteriza dados classifica eles em conjuntos de dados que ‘se assemelham’ de alguma forma - independentemente de classes predefinidas. Os grupos gerados por essa classificação são chamados clusters.

    Uma forma de clusterização seria, por exemplo, a partir de dados de animais em um zoológico aproximar animais por suas características. Ou seja, a partir dos dados como ‘quantidade de pernas’, ‘quantidade de dentes’, ‘põe ovo’, ‘tem pêlos’ e vários outros, procuramos animais que estão mais próximos. Poderíamos assim clusterizar os dados, separar animais em mamíferos, aves ou répteis mas sem “contar” ao algoritmo sobre estas classificações. Apenas comparando a distância entre dados o algoritmo mostraria que um tigre está “mais próximo” de um leão do que de uma garça.

    FONTE: https://lamfo-unb.github.io/2017/10/05/Introducao_basica_a_clusterizacao/

  • Estatística salvando!

  • CERTO.

    Outliers são valores atípicos, fora do padrão.

  • outliers= anomalias

  • CORRETO

    Assim como a classificação, o agrupamento( clusters) pode ser usado para detectar anomalias( outliers).

    Detecção de Anomalias: originário da mineração de dados é também conhecida como detecção de outliers é a identificação de itens, eventos ou observações raras que levantam suspeitas por serem significativamente diferentes da maioria dos dados.

  • Certo. Cuidado para não confundir: não é porque a a clusterização não é supervisionada que não pode haver mecanismos auxiliares.

  • CERTO

    Clusterização: técnica de agrupar elementos a partir de características que possuem em comum.

    Outliers: são valores discrepantes, que fogem da normalidade.

  • GAB: Certo

    Agrupamento ou "clustering" é uma técnica de aprendizado não-supervisionado que objetiva agrupar/separar os elementos com base nas suas semelhanças, ou seja, nas características que possuem em comum.

    Essa técnica também permite que sejam identificados os outliers que são elementos que se diferenciam drasticamente do restante da amostra. Isso quer dizer que eles são bem discrepantes do padrão observado.

  • Obrigado, estatística.

    gabarito: CERTO

  • Agora eu descobri o motivo de ter estatística no edital rsrsrs.

    3T

  • GAB: C

    TRADUZINDO

    CLUSTERIZACAO OU AGRUPAMENTO:

    • NAO SUPERVISIONADO
    • OS GRUPOS SAO FORMADOS POR SUAS SIMILARIDADES
    • OS REGISTROS NAO SAO PRE-ESTABELECIDOS
    • OBJETIVA IDENTIFICAR PADROES DRASTICAMENTE DIFERENTES DOS PADROES ENCONTRADOS (OUTLIERS - FORAS DA LINHA)
  • Clusterização é a tarefa de dividir a população ou os pontos de dados em vários grupos, de modo que os pontos de dados nos mesmos grupos sejam mais semelhantes a outros pontos de dados no mesmo grupo do que os de outros grupos.

    (Agrupamento) (Clustering)

    técnica não supervisionada de aprendizado

    agrupa ou separa os elementos com base na semelhança.

    a técnica também permite que sejam identificados os outliers

    o que é otliers ? são os elementos que são diferentes.

    NYCHOLAS LUIZ

  • leva isso para a prova na cabeça sobre mineração e tabom demais

    AGREGAÇÃO = AGRUPAMENTO = CLUSTERING

    Características:

    -- Aprendizado NÃO-supervisionado

    -- Realiza a identificação de dados similares e os agrupa

    -- NÃO há pré-definição de grupos

    -- NÃO realiza classificação e NÃO estima valores

     

    Técnica de agrupamento (clustering)

    permite a descoberta de dados por faixa de

    valores,

     

    ·        explorar grandes quantidades

    de dados

    ·        procura de padrões

    consistentes

    ·        regras de associação ou

    sequências temporais

    ·        detectando assim novos

    subconjuntos

    ·        processo de descoberta automática de

    informações úteis

    ·        destaca-se

    o reconhecimento de padrões por meio de

    comparação e análise dos dados

  • Vem PRF !!!

  • Box-Plott 

  • Misericórdia! informática com estatística!

  • Outliers = Exceções.

    • Se os dados são avaliados em conjunto, é normal que existam exceções. Logo, a Aprendizagem de Máquina é capaz de ajudar a identificar tais exceções (dados incongruentes e que fogem do padrão).

    Gab: Certo.

  • Agora eu lancei a do CHAVES !

    SATANÁS, É VOCÊ SATANÁS ?

  • As melhores matérias do mundo, informática e estatística ! Só que não. Kkkkk

  • As técnicas de aprendizado de máquina costumam ser empregadas nas tarefas de mineração de dados, com o objetivo de permitir que o sistema consiga aprender os modelos de mineração e melhorar seu desempenho ao longo do tempo. 

    A identificação de outliers (anomalias) consiste em encontrar valores discrepantes no conjunto de dados, diferentes daqueles identificados no padrão da amostra. Para identificar os outliers, uma abordagem possível envolve a utilização de técnicas análogas à clusterização não supervisionada. Item correto.

  • Aprendizagem de máquina pode ajudar a clusterização na identificação de outliers, que são objetos completamente diferentes do padrão da amostra.

    CERTO

    • Aprendizagem de máquina ajuda no desenvolvimento de processos por meio da melhoria contínua;
    • Clausterização é um agrupamento que leva em conta as caracteríticas semelhantes;
    • Outliers são os famosos "Pontos fora da cruva", exceções, pouquíssimos pontos fora do padrão.

    "A disciplina é a maior tutora que o sonhador pode ter, pois ela transforma o sonho em realidade."

  • Aprendizagem de máquina pode ajudar a clusterização na identificação de outliers. Certo, machine learning pode ajudar em diversas áreas, como por exemplo em (agrupamento) para identificar outliers.

    Mas porque identificar esse tal outlier ai ? Outlier é aquele dado fora da curva, como por exemplo uma variação muito grande comparado ao um conjunto padrão, a analise de outlier pode ser eficaz para determinar o motivo de tamanha variação.

  • outlies significa: fora da curva. logo são objetos fora do padrão da amostra. gab . certo

  • igual cego em tiroteio!!!

  • Aprendizagem de máquina pode ajudar a clusterização na identificação de outliers (Exceções), que são objetos completamente diferentes do padrão da amostra. CERTO

    Clusterização é a tarefa de dividir a população ou os pontos de dados em vários grupos, de modo que os pontos de dados nos mesmos grupos sejam mais semelhantes a outros pontos de dados dentro do mesmo grupo do que os de outros grupos

  • Inglês ajuda

  • Márcio Flávio me ajudando em informática

  • partiu fronteira

  • Clusterização: É uma técnica utilizada para agrupar elementos a partir de características que possuem em comum.

    Outliers: são valores discrepantes, que fogem da normalidade, são dados que se diferenciam drasticamente de todos os outros, são pontos fora da curva normal.

    Logo, a aprendizagem pode sim ajudar no processo de agrupamento de desses dados, unindo os semelhantes e diferenciando os fora da curva.

  • Quem disse que estatística descritiva não serve pra nda...? Ajudou em Info. hahhahhahahah

  • comentário de professor em vídeo: https://www.youtube.com/watch?v=fuG4iwknCYE

    7:16

  • A ESTATÍSTICA VIVE. OBRIGADO, JHONI EL ZINI

  • E a estatística me salvando mais uma vez em TI \o/

  • Achei "Completamente diferentes" forçado

  • CERTO

    -> O objetivo do Agrupamento/ Clusterização é descobrir diferentes agrupamentos de uma massa de dados e agrupá-los de uma forma que ajude na sua análise. Vale lembrar que um agrupamento é uma coleção de registros similares entre si, porém diferentes dos outros registros nos demais agrupamentos.

    A classificação é um exemplo de APRENDIZADO SUPERVISIONADO # Agrupamento/ Clusterização que é NÃO SUPERVISIONADO!

    -> Quando os dados fogem da normalidade e do padrão esperado eles são considerados anomalias. A forma de detectar anomalias é por meio de técnicas de análise de outlier (usando por ex. gráficos como box-plot).

    Cespe 2020: Outlier ou anomalias são padrões nos dados que não estão de acordo com uma noção bem definida de comportamento normal. CERTO

    NÃO DESISTAM!! VAI DAR CERTO!

  • Outliers podem ser identificados com o auxílio de aprendizado de máquina.

    Gabarito correto. ✅

  • se tivesse uma maneira de filtrar essas propagandas seria uma benção do q concurso ... minha opinião só atrapalha ..

  • Agora pode-se observar BANCO DE DADOS sempre relacionado com ESTATÍSTICA.

    Outliers são pontos fora da "curva".

    exemplo: Vamos fazer a média da altura de algumas pessoas

    João: 1,80 metros

    Joaquim: 1,80 metros

    Fábio: 1,80 metros

    Pedro: 1,80 metros

    Sebastião: 1,80 metros

    Lucas: 1,10 metros (outliers)

    Repare que a média seria mais ou menos 1,80 metros, mas Lucas é muito baixo e está fora da "curva". Caso Lucas entre no cálculo da média, ele irá puxar a média muito pra baixo.

  • Quando você acha que informática não pode ficar pior, ela começa a se fundir com a estatística...

  • CORRETO

    Os outliers são dados que se diferenciam drasticamente de todos os outros, são pontos fora da curva normal (). Em outras palavras, um outlier é um valor que foge da normalidade e que pode (e provavelmente irá) causar anomalias nos resultados obtidos por meio de algoritmos e sistemas de análise.

    Entender os outliers é fundamental em uma análise de dados por pelo menos dois aspectos:

    1. os outliers podem viesar negativamente todo o resultado de uma análise;
    2. o comportamento dos outliers pode ser justamente o que está sendo procurado.

    Os outliers presentes em datasets () possuem diversos outros nomes, como:

    • dados discrepantes;
    • pontos fora da curva;
    • observações fora do comum;
    • anomalias;
    • valores atípicos;
    • entre outros.

  • completamente?

  • Gabarito: certo

    Anomalias artificiais podem partir de erros de amostragem, erros de processamento de dados, erros na entrada de dados, erros de medida ou erros intencionais. Bem, uma forma de detectar anomalias é por meio de técnicas de Análise de Outlier, usando – por exemplo – gráficos como Box-plot ou Scatter-plot.

     (CESPE / CEBRASPE - 2020) Outlier ou anomalias são padrões nos dados que não estão de acordo com uma noção bem definida de comportamento normal. (CERTO)

  • Objetos completamente diferentes é extremamente forçado.

    Até onde eu sei o objeto é o mesmo mas ele tem valores muitos diferentes da média.

    Um homem que tem 2,10 de altura é um outlier mas ele continua sendo um homem, ou não?!

  • data mining misturado com big data, estistica e box plot, ai sim!


ID
4863979
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o seguinte item, a respeito de big data.


A análise de regressão em mineração de dados tem como objetivos a sumariação, a predição, o controle e a estimação.

Alternativas
Comentários
  • Gab.: Certo

    Sumarização: Técnicas que permitem a identificação de uma descrição compacta e inteligível para os dados (ou para um subconjunto dos mesmos). Frequentemente é possível sumarizar os dados mesmo com alguma imprecisão, e o valor das técnicas é na capacidade de descrever os dados, não necessariamente em sua precisão.

    Predição: É o processo de predizer um comportamento futuro, baseado em vários valores. Por exemplo, baseado na formação escolar, no trabalho atual e no ramo de atividade profissional de uma pessoa, predizer que seu salário será de um certo montante até um determinado ano.

    Estimação: É o processo de predizer algum valor, baseado num padrão já conhecido. Por exemplo, conhecendo-se o padrão de despesas e a idade de uma pessoa, estimar seu salário e seu número de filhos.

  • Pra quem leu rápido que nem eu e pensou em sumarização. Realmente é SUMARIAÇÃO

    O que é Sumariar: Tornar algo sumário, resumido. Fazer uma síntese de um tema, apanhado de idéias ou resultados

    fonte: https://www.dicionarioinformal.com.br/diferenca-entre/sumarizar/sumariar/

    vivendo e aprendendo

  • GABARITO CORRETO

    A análise de regressão consiste na realização de uma análise estatística com o objetivo de verificar a existência de uma relação funcional entre uma variável dependente com uma ou mais variáveis independentes. De maneira geral, a análise de regressão tem como objetivos a sumarização, a predição, o controle, a estimação, a seleção de variáveis e a inferência.

    Fonte: Estratégia concursos.

    (CESPE / CEBRASPE - 2021) As regras de associação adotadas em mineração de dados buscam padrões frequentes entre conjuntos de dados e podem ser úteis para caracterizar, por exemplo, hábitos de consumo de clientes: suas preferências são identificadas e em seguida associadas a outros potenciais produtos de seu interesse. (CERTO)

    (CESPE / CEBRASPE - 2018)No data mining, uma regra de associação relaciona a presença de um conjunto de itens com outra faixa de valores de um outro conjunto de variáveis.(CERTO)

    (CESPE / CEBRASPE - 2013)Árvores de decisão e regras de associação são exemplos de algoritmos de data mining.(certo)

  • Certo.

    A análise de regressão busca explicar uma ou várias variáveis de interesse (sempre contínuas ou binárias) em

    função de outras. Uma vez construído o modelo (que é uma equação matemática), ele pode ser usado para realizar predições ou calcular probabilidades.

    A tarefa de regressão é predizer um valor numérico a partir de um conjunto de atributos fornecidos.

    É considerada como um aprendizado supervisionado (supervised learning), pois a base de dados de treinamento já possui valores numéricos previamente definidos para o atributo a ser previsto nas novas instâncias.

  • Alguém poderia explicar o que fundamenta o "controle" estar entre os demais objetivos?

  • Sangue de Jesus tem Poder

  • GAB: C

    O OBJETIVO DA REGRESSÃO É PREDIZER VALORES (SUMARIZAR / ESTIMAR) COM BASE EM REGISTROS PRE-ESTABELECIDOS.

  • NINGUÉM COLOCA A FONTE AAAAAAAAAAAA

  • Mar que garai que esses caras tinham que colocar sa garai de Big data no edital....

  • Pessoal, prestem atenção no cargo que é direcionado a questão, a cobrança é mais pesada para áreas da tecnologia da informação e PF.

    Para PRF provavelmente virá algo direcionado aos Vs, tipos de dados, armazenamento e Big Data Analytics.

  • A analise de regressão pode utilizar series temporais para predizer comportamentos futuros, pode estimar uma variável através de sua relação com outras variáveis e também pode ser utilizada para descrever bases de dados (sumarização).

  • O assunto é muito extenso, mas resumidamente regressão é a forma mais simples de análise preditiva. é uma ferramenta poderosa, que pode ser utilizada imediatamente para ajudar a resolver muitos problemas do dia a dia, com base em fatos e dados .

    FONTE: https://s3.amazonaws.com/educa/pucrs/Aula/1683/Fabiano+Castello+-+Aula+01+e+02.pdf

  • quem já viu a série DARK responde essa pergunta com facilidade...

  • Deus, sou eu aqui de novo... Tire essas questões malignas da mente dos examinadores da Cespe quando estes estiverem elaborando o certame da PRF... No momento é só isso. Amém!

  • Analise de regressão ou padrões sequenciais: Basicamente é baseado em experiencias passadas para prever comportamentos futuros, logo então como objetivo essas características abaixo para uma melhor qualidade dessa técnica.

    Sumarização: Técnicas que permitem a identificação de uma descrição compacta e inteligível para os dados (ou para um subconjunto dos mesmos).

    Predição: É o processo de predizer um comportamento futuro, baseado em vários valores.

    Estimação: É o processo de predizer algum valor, baseado num padrão já conhecido.

  • Essas questões abusam psicologicamente da minha essência de concurseiro.

    by: Lumena

  • Gab. "CERTO"

    Esse tipo de questão parece bem difícil no começo... e depois de muito tempo estudando, parece que ainda está no começo. kkkk

  • A análise de regressão em mineração de dados tem como objetivos a sumariação, a predição, o controle e a estimação. CERTO

    ·         O processo de Data Mining (Mineração de Dados) está incluído em um processo maior que é A DESCOBERTA DE CONHECIMENTO o qual é realizada através de dados que passam por um processo específico, que abrange as seguintes etapas:

    1-    Seleção:

    Seleciona os dados e as variáveis que se quer analisar

    2-    Pré-processamento:

    Etapa em que é feito uma limpeza, eliminar erros, inconsistências, dos dados brutos.

    3-    Transformação:

    Transformar os dados para poder fazer a mineração.

    4-    Mineração de dados:

    É aplicada técnicas e algoritmos para descobrir padrões úteis de dados

    5-    Interpretação e avaliação:

    Para seleciono os que são úteis.

    ·        Análise de regressão:

    Análise estatística com o objetivo de verificar a existência de uma relação funcional entre uma variável dependente com uma ou mais variáveis independentes.

    Objetivos:

    • Sumarização: Técnicas que permitem a identificação de uma descrição compacta e inteligível para os dados (ou para um subconjunto dos mesmos).
    • Predição: É o processo de predizer um comportamento futuro, baseado em vários valores.
    • controle:
    • Estimação: É o processo de predizer algum valor, baseado num padrão já conhecido.

    ·         Análise de sequências temporais:

    Analisa estatisticamente sequências de eventos com o objetivo de encontrar sequências que se repetem. Cada sequência será representada por uma linha de tempo com eventos que já ocorreram.

    ·        Fator de confiança varia de 0 a 1. Fator Correlação varia de -1 a 1.

    ·        Padrões sequenciais de EVENTOS

    ·        Ex: Paciente chegou com gripe, depois voltou com febre, depois com tosse -> Opa, provavelmente ele terá pneumonia

    ·        Padrões temporais -> Fator TEMPORAL/intervalos regulares.

    ·        Ex: Quem vai na farmácia comprar remédio pra febre, 3 dias depois volta pra fazer o exame de COVID.

  • nunca pensei que diria isso. OBRIGADO ESTATISTICA!!!

  • Aprendizado de Máquina Supervisionado

    O computador recebe uma série de dados com os rótulos corretamente estabelecidos.

    Dividido em:

    1- Regressão Linear: O objetivo do algoritmo é traçar uma curva, prever o valor de uma característica em função de outra(s).

    2- Classificação: O objetivo do algoritmo é traçar uma curva, identificar as classes dos elementos.

    2.1 (Dentro de Classificação) SVM Support Vector Machine: Um algoritmo de SVM tenta encontrar uma curva que divida as duas classes de elementos de maneira igualmente espaçada.

    Foco e Fé!!!

    Classificação (preditiva) - aprendizado supervisionado

    Clustering (descritiva) - aprendizado não supervisionado

    Regras de associação( descritiva) - aprendizado não supervisionado

    Regressão (preditiva)- aprendizado supervisionado

    Detecção de desvios (preditiva)- aprendizado supervisionado

  • comentário de professor: https://www.youtube.com/watch?v=fuG4iwknCYE

    começa em 3:43

  • CERTO

    REGRESSÃO (estimação)

    • Preditiva (prevê o valor mais provável)
    • Sumarização (identifica as características comuns)
    • Prevê o VALOR MAIS PROVÁVELbaseando-se em outros valores de situações semelhantes.

    ex: Estimar valores que vão ser gastos por uma família carioca com lazer nas férias, de acordo com os índices gastos de uma família paulistana na mesma circunstância, de acordo com os hábitos, idade, e padrão financeiro.

  • Regressão: É a técnica utilizada quando se quer prever valores de algo futuro, baseado em comportamento de variáveis passadas. Um exemplo seria prever o valor de mercado de um imóvel utilizando um algoritmo de regressão linear.

  • Sem luta não há derrota!!

  • -> TÉCNICAS E TAREFAS

    1) Predição

    1.1 Classificação:

    • Prever categorias PRÉ- DEFINIDAS, bem como atribuição dos dados nas categorias estabelecidas
    • É um exemplo de aprendizado SUPERVISIONADO # Clustering (agrupamento) que é NÃO SUPERVISIONADO
    • Constroem-se a partir de um conjunto de dados de entrada
    • Identifica cada classe por meio de múltiplos atributos e os rotula e etiqueta
    • Essas técnicas pode ser utilizada com outras técnicas
    • Ferramentas de classificação: Redes neurais e Árvores de decisão

    1.2 Regressão:

    • É uma técnica que permite lidar com a previsão de um valor
    • Uma das tarefas compreende a busca por uma função que mapeie os registros de um banco de dados em um intervalo de valores reais
    • O objetivo é prever um número
    • De maneira geral, a análise de regressão tem como objetivos a sumarização, a predição, o controle, a estimação, a seleção de variáveis e a inferência

  • Nunca vi uma matéria com tanto conceito chato, como decorar tudo isso, Jesus.....

  • Gabarito: Certo

    Olha nossa banca predileta servindo de mineumônico kkk

    A análise de regressão em mineração de dados tem como objetivos a CESP:

    Controle

    Estimação

    Sumariacao

    Predição

  • Olhem o cargo .... !

  •  

    Regressão ou Predição

    - Aprendizado de uma função que pode ser usada para mapear os valores associados aos dados em um ou mais valores reais.

    - Tem como objetivos a sumariação, a predição, o controle e a estimação.

  • A regressão em mineração de dados tem como objetivos a "CESP":

    Controle

    Estimação

    Sumariacao

    Predição

  • Saravá meu Pai!!!!

  • Misericórdia senhor ....


ID
4864030
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de conceitos, premissas e aplicações de big data, julgue o item subsequente.


O objetivo das técnicas de pré-processamento de dados é preparar os dados brutos para serem analisados sem erros de incompletudes, inconsistências e ruídos.

Alternativas
Comentários
  • Gab.: Certo

    #Pré-Processamento de Dados:

    Os dados brutos são aqueles que ainda não foram processados para o uso e podem conter problemas de incompletude, inconsistência e ruído, os quais futuramente atrapalharão no processo de análise e mineração desses dados.

    As principais tarefas de pré-processamento são:

    - Limpeza

    - Seleção

    - Integração

    - Redução

    - Transformação

    - Discretização

  • CERTO

    O pré-processamento é um conjunto de atividades que envolvem preparação, organização e estruturação dos dados. Trata-se de uma etapa fundamental que precede a realização de análises e predições.

  • O pré-processamento de dados é um conjunto de técnicas de mineração de dados usadas para transformar dados brutos em formatos úteis e eficientes.

    GABARITO: CORRETO.

  • Correto! Técnicas de pré-processamento de dados visam corrigir inconsistências e ruídos, solucionar incompletudes de dados ou mesmo reduzir o volume de dados a ser analisado ou minerado, ao se utilizar técnicas como a agregação de dados. Esse processo pode envolver diferentes tarefas, a depender das características do processo de mineração e do próprio conjunto de dados.

  • GABARITO CORRETO

    Eu não sei se entendi bem a questão, mas qualquer erro me informem pf.

    >> Com o processo de Data Mining (Mineração de Dados) esse está incluído em um processo maior que é A DESCOBERTA DE CONHECIMENTO.

    Essa descoberta de conhecimento é realizada através de dados que passam por um processo específico, que abrange: (1) Seleção; (2) Pré-processamento; (3) Transformação; (4) Data Mining; (5) Interpretação e Avaliação

    (2) Na segunda etapa de Pré-processamento será a limpeza e o pré-processamento dos dados. Operações básicas incluem a remoção de eventuais erros, coleta de informações, decidir estratégias para lidar com campos de dados ausentes, entre outros.

  • pré-processamento

    → remoção de erros, dados ausentes

    → integração: defined as heterogeneous data from multiple sources combined

  • Descoberta de conhecimento (KDD)

    1- Seleção -> Seleciona os dados/as variáveis que eu quero analisar

    2- Pre-processamento -> Como os dados que eu selecionei são brutos, é preciso fazer uma limpeza, eliminar erros, inconsistências, etc.

    3- Transformação -> Aqui vou transformar os dados para poder fazer a mineração.

    4- Mineração de dados-> Uso técnicas e algoritmos para descobrir padrões úteis de dados

    5- Interpretação e avaliação -> Interpreto o que a mineração me trouxe, dos vários padrões, seleciono os que são úteis para mim.

  • correto, entre as características da preparação de dados (pré-processamento ), cujo objetivo é definir metas e incluir conhecimento relevante , para isso é preciso uma limpeza de dados (diminuir variáveis, retirar dados que possam provocar distorções e ruídos)

  • GABARITO: CORRETO.

    Sim o Pré-Processamento a grosso modo melhora a qualidade dos Dados

    PRF 1.499 Vagas disponíveis pra vocês, uma já é minha.

    Vamos a luta estamos vivos !!

    PRF Brasil...

  • BIG DATA

    Grande banco de dados.

    Engloba todos os tipos de dados.

    Dados estruturados ou não estruturados.

    Para melhor proveito, usa-se Data Mining e Data Warehouse.

    Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    __________

    Faz o simples que dá certo!

  • Crisp-DM é o processo utilizado para realizar projetos de mineração de dados e se baseia nas seguintes fases:

    1- Entendimento do negócio

    2- Entendimento dos dados

    3- Preparação dos dados ou Pré-processamento

    4- Modelagem

    5- Avaliação

    6- Implantação

    No caso em questão a questão está falando do Pré-processamento nesta fase ocorre a preparação dos dados para a fase de modelagem. De forma bem simples de falar, essa fase pega os dados brutos, ou seja, dados sem nenhuma organização às vezes faltando ou com erros, organiza-os e melhora a qualidade para a próxima fase.... (obs: Questão muito aprofundada talvez não caia questões desse tipo na PF)

  • Pensei que fosse questão de Contabilidade .

  • O objetivo das técnicas de pré-processamento de dados é preparar os dados brutos para serem analisados sem erros de incompletudes, inconsistências e ruídos.

    CERTO

    • Dados brutos coletados precisam ser previamente "filtrados" antes de uma análise mais específica;
    • O "filtro" refina os dados brutos para que possam estar viáveis para a análise;
    • Incompletudes indicam ausências de dados, inconsistências as divergências e ruídos a inadequação;
    • O pré-processamento transforma dados possíveis em dados viáveis, após refinar.

    "A disciplina é a maior tutora que o sonhador pode ter, pois ela transforma o sonho em realidade."

  • Pré-Processamento é a segunda fase de data mining que ocorre à analise de outliers e a limpeza de dados.

  • O objetivo das técnicas de pré-processamento de dados é preparar os dados brutos para serem analisados sem erros de incompletudes, inconsistências e ruídos.

    O processo de Data Mining (Mineração de Dados) está incluído em um processo maior que é A DESCOBERTA DE CONHECIMENTO o qual é realizada através de dados que passam por um processo específico, que abrange as seguintes etapas:

    1-    Seleção:

    Seleciona os dados e as variáveis que se quer analisar

    2-    Pré-processamento:

    Etapa em que é feito uma limpeza para eliminar erros, inconsistências, etc, dos dados brutos.

    3-    Transformação:

    Transformar os dados para poder fazer a mineração.

    4-    Mineração de dados:

    É aplicada técnicas e algoritmos para descobrir padrões úteis de dados

    5-    Interpretação e avaliação:

    Para seleciono os que são úteis

  • GABARITO - CERTO

    Pré-Processamento --> Limpeza de Dados

  • Eu errei ,,, mas pronta para o ataque...cespe

  • "Pré-processamento = lapidar o diamante", rsrs

    Ouvi isso de algum professor e não esqueci,

    O pré-processamento transforma dados possíveis em dados viáveis, após refinar.

  • As técnicas de pré-processamento buscam melhorar a qualidade dos dados e, consequentemente, da eficiência e resultados da mineração.

    Gabarito certo. ✅

  • CERTO

    Trata-se da 2 fase do KDD

    • Pré-Processamento (limpeza): processo de limpar, corrigir ou remover dados inconsistentes, além de identificar anomalias - outliers.

    obs: se a Mineração de dados for feita em um Data Warehouse (sistema de gerenciamento de dados) a etapa de Pré-Processamento já foi feita pelo D.W

  • MINERAÇÃO DE DADOS:

    faz parte de um processo maior de descoberta de conhecimento - KDD (Knowledge Discovery in Databases – Descoberta de Conhecimento em BDs)

    processo de identificar, em dados, padrões válidos, novos, potencialmente úteis e, ao final, compreensíveis

    Possui 7 FASES

    Entendimento do domínio da aplicação e identificação do objetivo do processo de KDD;

    Seleção: criação de um conjunto-alvo de dados;

    Pré-processamento: limpeza de dados e operações básicas como remoção de ruído, tratamento para a falta de dados etc.;

    Transformação: encontrar características úteis para representar os dados, conforme o objetivo definido e realizar a redução ou transformação da dimensionalidade;

    Mineração de dados (data mining): casar os objetivos do processo de KDD com um método particular de mineração de dados e realizar a análise exploratória e seleção de modelo e hipótese, buscando padrões de interesse;

    Interpretação: interpretar e avaliar os padrões minerados, podendo retornar a passos anteriores caso seja necessário;

    Agir a partir do conhecimento descoberto.

  • AGORA VAI UMA DICA!!!

    Para quem vai fazer PF e PCDF o professor Rani Passos do ESTRATEGIA CONCURSOS fez uma mentoria de RETA FINAL voltada nas matérias de Programação Python e R, Banco de Dados, Teoria Geral de Sistemas, Teoria da Informação, Sistemas de Informação, Big Data, Mineração de Dados, entre outros assuntos relacionados a TI (Tecnologia da Informação). Equivalente a 33% das questões no último concurso da PF. Estou fazendo e está me ajudando muito nessa reta final, certamente é decisivo dar um foco nesses assuntos na reta final. Fica a sugestão.

    Receba 30% de desconto usando o cupom PF30

    Link do site: https://go.hotmart.com/Y51566726H

    FORÇA E HONRA, PERTENCEREMOS!!!

  •  

    O processo de mineração de dados é dividido em 5 etapas:

    - Seleção;

    - Pré-processamento;

    - Transformação;

    - Data Mining;

    - Interpretação e avaliação.

     

    Seleção

    - Selecionar ou segmentar dados de acordo com critérios definidos.

    - Ex: Todas as pessoas que são proprietárias de carros é um subconjunto de dados determinados.

     

    Pré-processamento

    - remoção de eventuais erros, coleta de informações, decidir estratégias para lidar com campos de dados ausentes, remover informações desnecessárias etc..

    - Ex: O sexo de um paciente gestante.

    - Reconfiguração dos dados para assegurar formatos consistentes(identificação).

     

    Transformação

    - Transforma-se os dados em formatos utilizáveis. Esta depende da técnica Data Mining usada.

    - Ex: rede neural -> converter valor literal em valor numérico.

    - Disponibilizar os dados de maneira usável e navegável.

     

    Data Mining

    - É a verdadeira extração dos padrões de comportamento dos dados.

    - Utilizam-se algoritmos e técnicas para extrair possíveis padrões úteis de dados

       

     Interpretação e Avaliação

    - Identificado os padrões pelo sistema, estes são interpretados em conhecimentos, os quais darão suporte a tomada de decisões humanas.

    - Ex: Tarefas de previsões e classificações.

  • -Esse Processo de DESCOBERTA DE CONHECIMENTO(KDD) possui 5 fases: 

    (1) Seleção: Selecionar um conjunto de dados – ou se concentrar em um subconjunto de variáveis ou amostras de dados – no qual a descoberta será realizada.

    (2) Pré-processamentoLimpeza e o pré-processamento dos dados. Operações básicas incluem a remoção de eventuais erros, coleta de informações, decidir estratégias para lidar com campos de dados ausentes, entre outros. 

    (3) Transformação: Os dados são transformados e consolidados em formas apropriadas à mineração, sumarizando-os ou agregando-os

    (4) Data Mining: Utilizam-se algoritmos e técnicas para extrair possíveis padrões úteis de dados.

    (5) Interpretação e Avaliação: teremos a descoberta de diversos padrões que serão interpretados e avaliados em busca de padrões realmente interessantes e úteis, além de suas possíveis explicações ou interpretações.

  • Minimiza-se os erros e informações faltantes com a realização de pré-processamento, mas garantir ausência de inconsistências e ruído é utópico.


ID
4864033
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de conceitos, premissas e aplicações de big data, julgue o item subsequente.


Um atributo é denominado ordinal quando as variáveis podem ser colocadas em ordem, mas não é possível quantificar a diferença entre os resultados.

Alternativas
Comentários
  • Gab.: Certo

    #Variáveis qualitativas:

    São aquelas que se baseiam em qualidades e não podem ser mensuradas numericamente.

    Uma variável é qualitativa quando seus possíveis valores são categorias.

    _______________________________________________________________________________________

    Podem ser organizadas em diferentes escalas, segundo a possibilidade de mensuração:

    Escala ordinal: quando as variáveis podem ser colocadas em ordem, mas não é possível quantificar a diferença entre os resultados. Exemplo: classe social (A, B, C, D, ou E).

    Escala nominal: quando as variáveis não podem ser hierarquizadas ou ordenadas, sendo comparadas apenas por igualdade ou diferença. Exemplos: cor dos olhos, local de nascimento ou de residência, género, carreira, religião.

    Escala intervalar: quando é possível quantificar as diferenças entre as medidas, mas não há um ponto zero absoluto. Exemplo: temperatura mínima e máxima.

  • Escala ordinal: quando as variáveis podem ser colocadas em ordem, mas não é possível quantificar a diferença entre os resultados. Exemplo: classe social (A, B, C, D, ou E)

  • CERTO

    variável qualitativa é aquela expressa não por valores, mas por um atributo. Por exemplo: nacionalidade, religião, profissão, sexo.

  • Assertiva C

    Um atributo é denominado ordinal quando as variáveis podem ser colocadas em ordem, mas não é possível quantificar a diferença entre os resultados.

  • Um atributo ordinal pode ser colocado em ordem, mas, sem a possibilidade de quantificação.

  • pra mim eles poderia ser diferenciado quantativamente
  • comentários do profe???

  • A questão é sobre Banco de Dados, mas eu matei essa questão com os conhecimentos básicos que aprendemos na estatística descritiva.

    Variáveis quantitativas:

    Discreta Continua

    Variáveis qualitativas:

    Ordinais Nominais

  • Conceito que aprende em estatística.

  • Poderia aparecer como questão conceitual de Estatística

  • è estatística ?

  • GAB C

    Galera, o assunto de "visualização e exploração dos dados " é abordado tb na Big Data. Conhecimento de estática aplicado.

    A variável qualitativa é aquela expressa não por valores, mas por um atributo. Por exemplo: nacionalidade, religião, profissão, sexo. Elas também podem ser divididas em:

    ▪ Nominais: são aquelas em que não se pode estabelecer uma ordem para elas. Ex.: cor dos olhos, profissão.

    ▪ Ordinais: são aquelas em que é possível estabelecer uma ordem.: escala de frequência (pouco, médio, muito).

    Fonte: Prof. Ramon Souza (estratégia).

  • essa eu respondi com minha vivência de rua...

  • Gab: Certo

    Estatística me ajudou nessa.

    Variáveis QuanTitativas

    • DiscreTa
    • ConTínua

    Variáveis QuaLitativas

    • NumeraL
    • OrdinaL

  • Usa o 'método nishimura' aí bobo...

  • Ordinal: Ordem

    Nominal: Sem ordem

  • Um atributo ordinal pode ser colocado em ordem, mas, sem a possibilidade de quantificação.

  • Os atributos podem ser divididos em:

    a. Quantitativo:

    1 Discreto:

    2 Contínuo:

    b. Qualitativo:

    1 Ordinal: Ensino Fundamental, Médio e superior (Podem ser colocados em ordem)

    2 Nominal:

  • Só é eu ou essas questão que estão do filtra da PRF está caindo mais questões de TI?

  • Os dados (ou atributos) podem ser:

    a) Qualitativos (ou categóricos): são aqueles que representam classes, divididos em:

    a1)Nominal: não é possível estabelecer uma ordem entre os dados (Ex: raça/etnia, profissão, sexo, etc)

    a2)Ordinal: é possível estabelecer uma ordem entre os dados(Ex: escolaridade, cargo em uma empresa, etc.)

    b) Quantitativos (ou numéricos): são aqueles que representam números, divididos em:

    b1)discretos:são os números inteiros e naturais (Ex: idade, número de empregos, etc)

    b2)contínuos:são os números reais(Ex: peso, temperatura,altura, etc.)

    ~> Na questão, o que acho que pode causar dúvida é a parte final dela, quando diz que não se pode quantificar a diferença entre as variáveis ordinais. Ainda que seja uma variável categórica, é possível sim quantificar uma diferença entre elas, ex.:

    Número de acidentes; Ano

    10.000; 2019

    13.000; 2020

    15.000; 2021

    Se eu desejasse saber a diferença dos números de acidentes entre os anos de 2019 e 2021, bastaria diminuir 15k-10k=5k, que representaria a diferença ou aumento de acidentes nos últimos 02 anos.

  • Obrigado, estatística. Você me salvando até nas provas de informática kkkkkk.

  • Um atributo (qualidade) é denominado ordinal quando as variáveis podem ser colocadas em ordem, mas não é possível quantificar a diferença entre os resultados.

    lembrei da velha estatística, mas essa analogia do que seria atributo demorei a entender.

    AVANTE

  • Gabarito: certo

    Outra questão:

    Prova: CESPE / CEBRASPE - 2021 - TCE-RJ - Analista de Controle Externo - Especialidade: Tecnologia da Informação

    No nível de mensuração da análise exploratória de dados, as variáveis são classificadas como dependentes e independentes.(errado)

    Quanto ao nível de Mensuração:

    • Qualitativas: Podem ser Nominais ou Ordinais
    • Quantitativas: Podem ser Discretas ou Contínuas.

    Quanto ao nível de manipulação:

    • Independentes
    • Dependentes

  • Takiuuuupariuuuuuuu!

  • Estatística?

  • Pelo visto estou mal em informática e estatística.......Que combo! Armaria!

  • Escala ordinal: quando as variáveis podem ser colocadas em ordem, mas não é possível quantificar a diferença entre os resultados. Exemplo: classe social (A, B, C, D, ou E).

    Escala nominal: quando as variáveis não podem ser hierarquizadas ou ordenadas, sendo comparadas apenas por igualdade ou diferença. Exemplos: cor dos olhos, local de nascimento ou de residência, género, carreira, religião.

    Escala intervalar: quando é possível quantificar as diferenças entre as medidas, mas não há um ponto zero absoluto. Exemplo: temperatura mínima e máxima.

  • Gaba: CERTO

    Apenas atualizando os usuários do método Nishimura

    Desde 2018 que a CESPE descobriu esse macete e mudou a forma de cobrar as questões, desde então 80% da questões que vc usar a técnica vc vai errar!

  • Escala de atributos:

    Escala de atributos define as operações que podem ser realizadas sobre os valores dos atributos, e podem ser:

    Nominais -> Qualitativos;

    Ordinais -> Qualitativos;

    Intervalar -> Quantitativos;

    Racional -> Quantitativos;

    fonte: https://medium.com/brasil-ai/antes-de-começarmos-a-falar-sobre-tipos-de-aprendizados-que-veremos-no-próximo-artigo-é-ea5b04685913

  • GAB. CERTO

    Um atributo é denominado ordinal quando as variáveis podem ser colocadas em ordem, mas não é possível quantificar a diferença entre os resultados.


ID
4864036
Banca
CESPE / CEBRASPE
Órgão
Ministério da Economia
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Acerca de conceitos, premissas e aplicações de big data, julgue o item subsequente.


No processo de agrupamento, o objeto denominado medoide é aquele que representa a mediana do grupo do conjunto. 

Alternativas
Comentários
  • Gab.: Errado

    k-Means (k-Médias) 

    A partir de um parâmetro de entrada k, divide-se o conjunto de n objetos em k grupos, com alta similaridade intragrupo e baixa similaridade intergrupos, sendo agrupados em volta do valor médio dos objetos do grupo, chamado de centroide. 

    k-Medoids (k-Medóides) 

    Os objetos são agrupados em torno do objeto com a menor dissimilaridade média a todos os outros objetos do grupo, sendo esse objeto denominado medóide. Parecido com do k-médias, diferencia deste por utilizar um objeto existente da base de dados como centro, dessa forma é mais robusto a ruídos e a valores discrepantes. 

    Fuzzy k-Médias 

    É uma extensão do k-médias, sendo que neste caso cada objeto possui um grau de pertinência a todos os grupos da base, podendo pertencer a mais de um grupo, com variados graus de pertinência.

  • nada de errado nessa questão, ninguém recorreu? essa e aquela dos índices secundários eu ia dar recurso fácil se tivesse prestado

  • De acordo com o professor do Exponencial Ramon Souza a questão cabe recurso e está CORRETA.

    Comentário: medoide (k-medoid) é o elemento que representa a mediana no grupo.

    Nesse contexto, o k-means representa a média e o k-mode representa a moda.

    AGUARDAR O GABARITO DEFINITIVO DO CESPE...

    AGREGANDO...

    O K- medoids foi proposto em KAUFFMAN & ROUSSEEUW (2005), onde os clusters são representados usando a mediana dos dados em vez da média.

  • Acabou que o gabarito definitivo da CESPE ficou como ERRADO.

    Alguém saberia me explicar o que representaria então esse "medoide"?

  • Errada? Oxeeee... por que?

    Alguém sabe qual foi a justificativa dada pelo Cespe para alterar o gabarito dessa questão?

    A análise de clusters pode ser baseada em métodos estatísticos como o k-means (média),

    k-modes (moda), k-medoids (mediana – valor mais ao centro do conjunto de dados)

  • Isso cai na PF e PCDF ? Nunca vi esses nomes nos PDF do estratégia.

  • Professor foi dar o buraco do amor? Cadê o gabarito? Bora trabalhar.

  • A Cespe ficou com Medoide de mudar o gabarito

  • Representa a MÉDIA!!!

  • Gaba: ERRADO

    Comentários: creio que o erro esta na descrição do medoids(mediana).

    "No processo de agrupamento, o objeto denominado medoide é aquele que representa a mediana do grupo do conjunto."

    O método de agrupamento não-hierárquico conhecido é o k-medoides (kmedoids).

    Sua estrutura e seu funcionamento são bem similares ao k-médias, o que os diferenciam é que enquanto no k-médias o centroide não precisa pertencer ao conjunto de dados, no k-medoides o centro é um dos pontos do conjunto, denominado medóide (DONI,2004). 

  • errado. Quem faz isso é o K-MODE

  • Alex Suita, tem no material para a PRF
  • Medoide não é a mediana, nem a média. É um objeto selecionado que servirá de centro para formação do agrupamento.

    "Diferentemente do método k-means, o método dos k-medoids não utiliza a média como centro do grupo, e sim, considera um problema onde um objeto é o centro do próprio grupo, chamado de objeto representativo ou medoid. A estratégia básica para definir k grupos para alocar os n elementos está diretamente associada à determinação do medoid para cada grupo. Inicialmente, selecionam-se de forma aleatória k objetos, medoids iniciais em cada um dos grupos. " fonte:http://abricom.org.br/wp-content/uploads/2016/03/st_10.6.pdf

    Além disso no wikipédia tem:

    "Note that a medoid is not equivalent to a median, a geometric median, or centroid. A median is only defined on 1-dimensional data, and it only minimizes dissimilarity to other points for metrics induced by a norm (such as the Manhattan or Euclidean distance). A geometric median is defined in any dimension, but is not necessarily a point from within the original dataset."

    Basicamente diz que medoide não é equivalente a mediana, pois a mediana só funciona para dados unidimensionais. A medoide pode ser usada pra agrupamento de modelos 3D (3 dimensões) também.

    Espero ter ajudado.

  • Objeto que se encontra mais próximo ao centro de gravidade do cluster (abordagem é conhecida como k-medoids), sendo o elemento mais próximo ao centro chamado de medoid.

    Gab: Errado!

  • Essa é aquela questão que quem errou, acertou.

  • ERRADO (Tentando entender)

    1. Ou utiliza-se a média dos objetos que pertencem ao cluster em questão, também chamada de centro de gravidade do cluster (k-means);
    2. Ou escolhe-se como representante o objeto que se encontra mais próximo ao centro de gravidade do cluster (k-medoids), sendo o elemento mais próximo ao centro chamado de medoid.
    3. O K- medoids foi proposto em KAUFFMAN & ROUSSEEUW (2005), onde os clusters são representados usando a mediana dos dados em vez da média

    • Os clausters no k-medoids são representados pela mediana, mas o elemento chamado de medoid é o mais próximo ao centro, não necessariamente a mediana, talvez possa ser esse detalhe.

    https://www.maxwell.vrac.puc-rio.br/24787/24787_5.PDF

    "A disciplina é a maior tutora que o sonhador pode ter, pois ela transforma o sonho em realidade."

  • Até aqui, na tentativa de entender essa questão, obtive uma explicação no artigo '''Brazilian Congress on Computational Intelligence (CBIC’2011), November 8 to 11, 2011, Fortaleza, Ceará Brazil © Brazilian Society on Computational Intelligence (SBIC).''

    Basicamente esse artigo diz: método dos k-medoids não utiliza a média como centro do grupo, e sim, considera um problema onde um objeto é o centro do próprio grupo, chamado de objeto representativo ou medoid.

    OBS: ESSE TIPO DE QUESTÃO A DEPENDER DO CONCURSO É UMA EXCEÇÃO, NÃO PERCA TEMPO BRIGANDO COM O GABARITO DO CESPE.

    COMO DIZ O DITADO POPULAR: ''ACEITA QUE DOI MENOS!”

    GABARITO DO CESPE ERRADO.

  • É o seguinte, pra encontrar uma determinada informação em uma big data, seleciona-se dados especificos de determinado grupo (clusters) pra representar os demais. Pra isso temos dois metodos:

    -> K-means: nesse, basicamente tira a media de todos os pontos (dados) do grupo e acha aquele que chamo de protagonista (centroide), aquele que vai representar momentaneamente os demais. Aqui, o objetivo é minimizar a distância quadrada entre os pontos e o centroide. Esse é o mais mais utilizado, por ser mais simples

    -> K-medoid: nesse caso, se observa ponto a ponto, a distância de um ponto em relação a todos os outros, encontrando aquele que ta mais proximo de todos do grupo. O objetivo é minimizar a distância absoluta entre os pontos e o centroide. Esse metodo tem um algoritmo beeeemm complexo, que não necessariamente vai encontrar sempre a mediana do grupo, afinal um cadidato a centroide pode puxar um ponto de outro grupo pra seu grupo pela proximidade a depender da situação

  • Não entendi nada...

  • SE EU ERRAR UMA QUESTÃO DESSA, EU METEREIA UM RECURSO NA QUESTÃO

    PORQUE O CERTO E MEDOID E NÃO METOIDE.....kkkkk

  • Medoids são objetos representativos de um conjunto de dados ou um cluster dentro de um conjunto de dados

  • Se nem o CEBRASPE sabe, por que haveria eu de me meter nisso?

  • FIQUEI COM MEDOID DESSA QUESTÃO

  • Há duas possibilidades na escolha do “elemento” que vai representar o centro do cluster, e que será a referência para o cálculo da medida de similaridade. Ou utiliza-se a média dos objetos que pertencem ao cluster em questão, também chamada de centro de gravidade do cluster (esta é a abordagem conhecida como k-means); ou escolhe-se como representante o objeto que se encontra mais próximo ao centro de gravidade do cluster (abordagem é conhecida como k-medoids), sendo o elemento mais próximo ao centro chamado de medoid.

  • na prova da PF irei vestido de branco, já saberão o porquê.

  • ERRADA

    • No processo de agrupamento, o objeto denominado k-means é aquele que representa a mediana do grupo do conjunto.
    • No processo de agrupamento, o objeto denominado medoide é um objeto selecionado que servirá de centro para formação do agrupamento..

    o   TÉCNICAS DE AGRUPAMENTO, ASSOCIAÇÃO E SUMARIZAÇÃO. Não supervisionado

    ü Método k-means, utiliza a média como centro do grupo;

    ü Método dos k-medoids não utiliza a média como centro do grupo, considera um problema onde um objeto é o centro do próprio grupo. Medoide não é a mediana, nem a média. É um objeto selecionado (representativo ou medoid) que servirá de centro para formação do agrupamento.

  • Errada

    • K-Medians = mediana
    • K-Means = média
    • K-Medoid = ponto médio real do conjunto de dados
  • Existem dois modelos relativos à agrupamentos em mineração de dados:

    a) Hierárquico: os dados são dispostos naqueles diagramas de árvore (semelhantes à organização e hierarquia dos exploradores de arquivos do windows e do Linux)

    b) Não-Hierárquico: são divididos em dois:

    b1)K-means: é considerado um conjunto de dados dispostos de forma não-hierárquica(X1,X2,X3...Xn). É atribuído K centróides (C1,C2,C3...Ck) anteriormente. Para cada conjunto de dados X, será atribuído um centróide que minimize a distância entre o C e o grupo de X. Esse centro, no plano cartesiano, é o centro de massa. O centro de massa se relaciona com a média.

    b2)K-medóides: é muito parecido com o K-means, mas os K centróides fazem parte dos próprios dados. É como se escolhesse um para ser o centróide de cada grupo e a partir daí agrupam-se os dados em torno desse valor escolhido. É buscado também o centro de massa, que não se relaciona com a mediana, mas com a média.

    https://www2.ufrb.edu.br/bcet/components/com_chronoforms5/chronoforms/uploads/tcc/20190604200511_2018.2_TCC_Luann_Farias_Palma-_Agrupamento_de_dados_-_K_medias.pdf

  • O professor do QC também ficou com Medóide de responder essa questão

  • Um erro comum quando se trabalha com a mediana é confundir seu conceito com o de medóide.

    Ambos buscam minimizar o erro em relação aos dados, porém enquanto que a mediana é um ponto adicional calculado a partir dos dados que temos e não necessariamente igual a algum dos dados, o medóide é um ponto adicional que será igual a algum dos dados.

    No caso do medóide, selecionamos o ponto que minimize o erro em relação a todos os pontos, enquanto que no caso da mediana selecionamos medianas de atributos para minimizar o erro.

    http://www.repositorio.ufc.br/bitstream/riufc/21491/1/2015_dis_ffrdamasceno.pdf

  • Quem acertou, errou. Quem errou, acertou.

  • Achei que eu estivesse na minha aula de Anatomia Sistêmica....

  • errei ela né, ai estudei voltei e errei de novo, daí eu voltei a estudar ,ENTÃO, Errei ela de novo =)

  • Com TODA certeza, deixaria sr.

    Nem o examinador sabe o que cobrou, imagine eu, mero mortal.

    Bora que está chegando.

    DEUS nos abençoe!

  • Assistir uma vídeo aula do Professor Léo Matos na qual ele falou que o medoide refere-se ao cálculo de distância Euclidiana.

  • Medoids são objetos representativos de um conjunto de dados ou um cluster dentro de um conjunto de dados cuja dissimilaridade média para todos os objetos no cluster é mínima. [1] Os medóides são semelhantes em conceito a meios ou centróides, mas os medóides são sempre restritos a serem membros do conjunto de dados. Medoids são mais comumente usados ​​em dados quando uma média ou centróide não pode ser definido, como gráficos. Eles também são usados ​​em contextos onde o centróide não é representativo do conjunto de dados, como em imagens e trajetórias 3-D e expressão gênica [2] (onde enquanto os dados são esparsos, o medóide não precisa ser). Eles também são de interesse quando se deseja encontrar um representante usando alguma distância diferente da distância euclidiana quadrada (por exemplo, em classificações de filmes).

    Para alguns conjuntos de dados, pode haver mais de um medóide, como ocorre com as medianas. Uma aplicação comum do medóide é o algoritmo de agrupamento k-medoides, que é semelhante ao algoritmo k-médias, mas funciona quando uma média ou centróide não é definível. Este algoritmo funciona basicamente da seguinte maneira. Primeiro, um conjunto de medoides é escolhido aleatoriamente. Em segundo lugar, as distâncias para os outros pontos são calculadas. Terceiro, os dados são agrupados de acordo com o medóide ao qual são mais semelhantes. Quarto, o conjunto medóide é otimizado por meio de um processo iterativo.

    Observe que um medóide não é equivalente a uma mediana, uma mediana geométrica ou um centróide. Uma mediana é definida apenas em dados unidimensionais e apenas minimiza a dissimilaridade de outros pontos para métricas induzidas por uma norma (como a distância de Manhattan ou distância euclidiana). Uma mediana geométrica é definida em qualquer dimensão, mas não é necessariamente um ponto de dentro do conjunto de dados original.

    Amigos, texto original em: https://en.wikipedia.org/wiki/Medoid

  • Nem se eu tivesse acesso ao google na hora da prova...Pesquisei aqui e ele não me retornou nada... :(

  • Típica questão pra exercer o meu direito de deixar algumas em branco.

  • Medoide é aquele que representa a mediana do grupo do conjunto. CORRETO

    Justificativa do gabarito estar como ERRADO:

    A CESPE é contratada com dispensa de licitação e precisa manter isso para abraçar vários outros certames, o órgão contratante (Ministério da Economia) sempre indica à CESPE alguns "apadrinhados" que devem ser aprovados, então como a maioria destes apadrinhados colocou ERRADO na prova o gabarito oficial teve que vim ERRADO mesmo.

    TODA PROVA DE CERTO/ERRADO DA CESPE É FEITA PARA BENEFICIAR APADRINHADOS.

  • desanima gabaritos sem nexo , porém, isso e um fator pra fazer vcs desistirem, achar que não e pra vcs.

    Segue o baile, so saio depois de nomeado.


ID
4867588
Banca
INSTITUTO AOCP
Órgão
MJSP
Ano
2020
Provas
Disciplina
Banco de Dados
Assuntos

Assim como o Hadoop foi desenvolvido para possibilitar o processamento em lote de grande volume de dados, também surgiram tecnologias com suporte ao processamento em tempo real de Big Data, como o

Alternativas
Comentários
  • Spark: estrutura de computação open-source em cluster com inteligência analítica in-memory. Componente de software que pode ser executado sobre ou junto com o Hadoop e atingiu status de nível máximo no projeto da Apache.

  • Trazendo um estudo sobre Big data:

    BIG DATA

    Grande banco de dados.

    Engloba todos os tipos de dados.

    Dados estruturados ou não estruturados.

    Para melhor proveito, usa-se Data Mining e Data Warehouse.

    Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    _________

    Bons Estudos!

  • Hadoop é uma plataforma de software em Java de computação distribuída voltada para clusters e processamento de grandes volumes de dados, com atenção a tolerância a falhas. Foi inspirada no MapReduce e no GoogleFS.

    Fonte: Wikipédia

  • O Victor Dinís desde o ano passado já sabia que Big Data entraria no edital da PRF. Monstro!!

  • Agora são 7 Vs.... é pra cabar com o pequi do Goiás.

    Volume: Está relacionado com a quantidade de espaço

    Velocidade: Está relacionado ao fluxo contínuo.

    Variedade: Está ligada ao fato dos dados possuírem diferentes naturezas

    Variabilidade: É a oscilação.

    Viscosidade: Relação com a dificuldade de navegar entre os dados.

    Volatilidade: São inconsistências nos dados.

    Veracidade:  São dados verídicos  

    Valor: São dados valorados  

  • Gabarito: D

    Complementando :

    O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído (em clusters). A etapa de mapeamento se baseia em uma combinação de chave-valor.

    Apache Hadoop é apenas uma das implementações da técnica de MapReduce – existem outras implementações, mas essa é a mais famosa! Em outras palavras, ele é um software de código aberto, implementado na linguagem de programação Java, para implementar o algoritmo de MapReduce em máquinas comuns.

  • O Spark é executado em Hadoop, Apache Mesos, Kubernetes, autônomo ou na nuvem. Ele pode acessar diversas fontes de dados.

  • Hadoop é um banco de dados, o Spark é uma ferramenta de Big Data (Ambos são estruturas de Big Data).

    Hadoop é um software de código aberto que lhe permitirá armazenar dados de forma confiável e segura.

    Spark é uma ferramenta para a compreensão dos dados.

    Se Hadoop é a Bíblia escrita em russo, Spark é um dicionário de russo.

    GABARITO: LETRA ''D''

  • Única Spark que conheço é a teaser...

  • A) Hadoop RTime. Invenção da banca

    B Kubernetes. Kubernetes é um sistema de orquestração de contêineres open-source que automatiza a implantação, o dimensionamento e a gestão de aplicações em contêineres

    C Elasticsearch. Elasticsearch é um mecanismo de busca baseado na biblioteca Lucene.

    D Spark.  é um sistema de processamento de código aberto distribuído usado comumente para cargas de trabalho de big data.

    E RealStorm. Invenção da banca

  • d-

    Spark Streaming supports the processing of real-time data from various input sources and storing the processed data to various output sinks.

    https://www.analyticsvidhya.com/blog/2021/06/real-time-data-streaming-using-apache-spark/

  • GABA d)

    Spark é um poderoso mecanismo de processamento de código aberto construído em torno de velocidade, facilidade de utilização, e análises sofisticadas.

    a) de armadilha. rsrsrs


ID
5041390
Banca
CESPE / CEBRASPE
Órgão
TCE-RJ
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Com relação a noções de mineração de dados e Big Data, julgue o item que se segue.


Em Big Data, a premissa volume refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.

Alternativas
Comentários
  • Essa característica está associada à variedade, e não ao volume. Outra questão que eu não entendo o porquê do gabarito ser certo.

  • ué, então qual é a definição para VARIEDADE ?

    VOLUME corresponde à grande quantidade de dados acumulada

    VARIEDADE corresponde ao grande número de tipos ou formas de dados

  • 1. Volume

    Big Data é uma grande quantidade de dados gerada a cada segundo. Pense em todos os e-mails, mensagens de Twitter, fotos e vídeos que circulam na rede a cada instante. Não são terabytes e sim zetabytes e brontobytes. Só no Facebook são 10 bilhões de mensagens, 4,5 bilhões de curtidas e 350 milhões de fotos compartilhadas todos os dias. A tecnologia do Big Data serve exatamente para lidar com esse volume de dados, guardando-os em diferentes localidades e juntando-os através de software.

    2. Velocidade

    Se refere à velocidade com que os dados são criados. São mensagens de redes sociais se viralizando em segundos, transações de cartão de crédito sendo verificadas a cada instante ou os milissegundos necessários para calcular o valor de compra e venda de ações.

    3. Variedade

    Os diferentes tipos de dados. Com o Big Data, mensagens, fotos, vídeos e sons, que são dados não-estruturados, podem ser administrados juntamente com dados tradicionais.

    4. Veracidade

    O dado digno de confiança em termos de acuracidade.  

    5. Valor

    Só usar o BIG DATA não tem sentido a não ser que seja agregado valor.

    FONTE: https://solvimm.com/blog/o-que-e-big-data/

  • Gabarito oficial é ERRADO

    O processamento de dados em diferentes formatos é sim uma característica de big data, só que, dentre os 3 Vs (Volume, Variedade e Velocidade), essa característica está associada à variedade, e não ao volume. A questão da o significado de VARIEDADE e não de VOLUME

    O volume, por sua vez, trata das quantidades enormes de dados que se processa e se analisa quando se está trabalhando com big data. Item errado!

  • a gente paga o qconcursos atoa eu acho! maioria das questões com gabaritos trocados !!! pra que botar as questões rápido se tá tudo errado, só atrapalha a gente!

  • GAB: ERRADO

    A questão versa sobre VARIEDADE e NÃO SOBRE VOLUME

    - Volume = grande quantidade de dados gerada a cada segundo. 

    Velocidade = Refere-se à velocidade com que os dados são criados e tratados para atender à demanda. Trata-se da existência de um alto fluxo de dados na entrada, impactando o modelo de processamento e armazenamento. 

    Variedade = Significa que os dados de hoje aparecem em todos os tipos de formatos, como, por exemplo, arquivos de texto, e-mail, medidores e sensores de coleta de dados, vídeo, áudio, dados de ações do mercado ou transações financeiras. Trata dos diferentes tipos de dados (estruturados e não-estruturados) advindos de fontes diversas.

    Veracidade = A informação deve ser verdadeira. 

    Valor = definir a abordagem que será feita da massa de dados que circula. Não é toda a informação que está circulando que é relevante ou útil para os objetivos específicos de uma empresa.

    SOBRE BIG DATA:

    Big Data é “definido genericamente como a captura, gerenciamento e a análise de dados que vão além dos dados tipicamente estruturados, que podem ser consultados e pesquisados através de bancos de dados relacionais. Frequentemente são dados obtidos de arquivos não estruturados como vídeo digital, imagens, dados de sensores, arquivos de logs e de qualquer tipo de dados não contidos em registros típicos com campos que podem ser pesquisados”.

    Prova: CESPE - 2018 - Polícia Federal - Papiloscopista Policial Federal

    De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CERTA

  • esses gabaritos errados..... é cada susto!

  • O processamento de dados em diferentes formatos é sim uma característica de big data, só que, dentre os 3 Vs (Volume, Variedade e Velocidade), essa característica está associada à variedade, e não ao volume.

    O volume, por sua vez, trata das quantidades enormes de dados que se processa e se analisa quando se está trabalhando com big data. Item errado!

    Gabarito: E

    Fonte: Direção Concursos

  • ERRADO

    Volume= grande volume de dados

    Variedade= diversos formatos de dados

  • Esse gab errado deixa nos lem baixo :-(

  • O processamento de dados em diferentes formatos é sim uma característica de big data, só que, dentre os 3 Vs (Volume, Variedade e Velocidade), essa característica está associada à variedade, e não ao volume.

    O volume, por sua vez, trata das quantidades enormes de dados que se processa e se analisa quando se está trabalhando com big data. Item errado!

    Gabarito: E

    fonte: direção concursos

  • O processamento de dados em diferentes formatos é sim uma característica de big data, só que, dentre os 3 Vs (Volume, Variedade e Velocidade), essa característica está associada à variedade, e não ao volume.

    O volume, por sua vez, trata das quantidades enormes de dados que se processa e se analisa quando se está trabalhando com big data. Item errado!

    Gabarito: E

    fonte: direção concursos

  • Volume trata da enorme quantidade de dados, enquanto a variedade trata dos diferentes tipos de arquivos.

  • Volume é a capacidade de processamento de uma grande quantidade de dados.

    Acredito que o enunciado se refira à Variedade de Dados que podem ser processados no Big Data.

  • Volumehá um grande volume de dados.

    Variedadeos dados são variados.

    Velocidade – os dados são criados em uma velocidade surpreendente

    Posteriormente foi acrescentado mais 2Vs:

    Valoros dados devem possuir valor, ou seja, deve agregar no conhecimento da informação.

    Veracidade – não basta ter uma grande quantidade de dados, esses dados devem ser verídicos.

    Bizus dos colegas aqui do QC:

    VAVA VEVE VO

    Vera varia valor do frete entre volume e velocidade

  • Volume: refere-se exatamente à essa quantidade de dados que o Big Data lida.

  • a questão se refere a variedade dos dados

  • Gabarito: ERRADO

    O Volume em Big Data trata-se do enorme número de dados.

  • Aplicações que lidam com big data são relativamente complexas, pois devem ser capazes de lidar com um grande volume, variedade e velocidade de dados. Assim, é necessário ter uma infraestrutura sólida, o que inclui máquinas e ferramentas adequadas para esse trabalho, além de profissionais capacitados, que tenham forte conhecimento da área e algum conhecimento a respeito do ramo de negócio em que a aplicação está sendo utilizada.

  • A questão se refere a: Variedade---> Pode lidar com todo tipo de dado e toda forma de organização de dados ou relações entre uns e outros (imagens, twits, movimentos das estrelas,etc).

  • Em Big Data, a premissa VARIEDADE refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.

  • juro que li variedade

  • VARIEDADE - dados são gerados em inúmeros formatos, estruturados e não estruturados.

    Capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.

  • Volume : há um grande volume de dados

    Variedade : os dados são variados

    Velocidade : os dados são criados em uma velocidade surpreendente

    Valor : os dados devem possuir valor, ou seja, deve agregar no conhecimento da informação

    Veracidade : não basta ter uma grande quantidade de dados, esses dados devem ser verídicos

    NYCHOLAS LUIZ

  • gab.: ERRADO.

    A questão diz a respeito da variedade e não de volume.

    Big Data

    Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados ,estruturados e não estruturados,, permitindo alta velocidade de captura, descoberta e análise.

    Seu principal conceito, descobrir padrões de dados.

    Cinco dimensões "V" ( segundo Bergson Lopes Rêgo):

    Volume

       Quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.

    Velocidade

       Desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.

    Variedade

       Implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados

    Veracidade

       Consiste no grau de incerteza e inconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados. 

       representa a confiabilidade dos dados

    Valor

       Retorno, financeiro ou não.

    • (CESPE - Q933316 - 2018 - PF) - Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CERTO!

    • (CESPE - Q933197 - 2018 - PF) - De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CERTO!

    FONTE: CESPE + COLEGAS DO QC + MEUS RESUMOS.

    Espero ter ajudado! BONS ESTUDOS!

  • QUANTIDADE DE DADOOOOOOOS = VOLUME, HOJE NÃO CESPE FELA DA PULÍCIA.

  • GAB: ERRADO

    Variedade: Implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados.

  • 3 V's

    VOLUME: Grande quantidade de dados. São zetabytes

    VELOCIDADE: Quão rápido os dados são produzidos de tratados.

    VARIADADE: Os dados vêm em vários tipos e formatos.

  • A questão peca ao afirmar que DIFERENTES TIPOS e FORMATOS DE DADOS refere-se a premissa de VOLUME, na verdade refere-se a premissa de VARIEDADE.

    VOLUME está ligado a GRANDE QUANTIDADE DE DADOS.

    CORRIGINDO A QUESTÃO:

    Em Big Data, a premissa variedade refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.

  • GABARITO: ERRADO

    Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade.

     

    Dados Estruturados: são aqueles que possuem uma estrutura determinada, com categorias, e definições, como localização, vendas e informações sobre o perfil de clientes, contatos entre outros.

     

    Dados não Estruturados: são dados de mídias sociais, como YouTube, Facebook, portais de notícias etc. Nesse caso, para se trabalhar com dados não estruturados é necessária a intervenção humana.

     

    Fatores críticos de sucesso da análise de Big Data:

    - Sólida infraestrutura (hardware).

    - Ferramentas (software) que facilitem a análise de grandes volumes de dados.

    - Pessoal Habilitado.

    Diz-se que o Big Data se baseia em 5 V's : 

     

    • Volume - quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.
    • Velocidade - desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.
    • Variedade - implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados
    • Veracidade - consiste no grau de incerteza e inconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados, além disso, representa a confiabilidade dos dados
    • Valor-   Retorno, financeiro ou não.

    QUESTÃO PARA FIXAÇÃO

    • (CESPE - Q933316 - 2018 - PF) - Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CERTO!
    • (CESPE - Q933197 - 2018 - PF) - De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CERTO!

    FONTE: RESUMO DOS COMENTÁRIOS DOS COLEGAS DO QC + BANCA CESPE

    @MOURA_PRF

     

    #FÉ NA MISSÃO

     

    "Tem dia que é difícil, outros, quase impossíveis, mas você sabe que passa, visto que o dia tem 24 horas para todos"

  • Resumindo:

    a questão se refere a Velocidade

    volume refere-se a quantidade.

  • O conceito dado refere-se à VARIEDADE.

  • Ótima definição de Variedade.

  • Gabarito: Errado

    Volume: volume de dados armazenados e trafegados.

    Variedade: diversos tipos e formatos de dados, como imagens, vídeos, fotos, geolocalização, números, textos, postagens, etc.

  • Variedade: Quanto mais dados e fontes eu tenho, maior é a complexidade para trabalhar dados, mas também maiores as possibilidades que tenho de gerar informação útil.

    Ex de fontes de dados: Google Analytics, Facebook e apps como Whatsapp.

  • Big Data

    Big Data é o termo em Tecnologia da Informação (TI) que trata sobre grandes conjuntos de dados que precisam ser processados e armazenados, o conceito do Big Data se iniciou com:

    VOLUME, VELOCIDADE E VARIEDADE (3VS)

    • Volume (grande quantidade de dados acumulada)

    Big Data é uma grande quantidade de dados gerado a cada segundo. Pense em todos os e-mails, mensagens de Twitter, fotos e vídeos que circulam na rede a cada instante. Não são terabytes e sim zetabytes e brontobytes. Só no Facebook são 10 bilhões de mensagens, 4,5 bilhões de curtidas e 350 milhões de fotos compartilhadas todos os dias. A tecnologia do Big Data serve exatamente para lidar com esse volume de dados, guardando-os em diferentes localidades e juntando-os através de software.

    • Velocidade (rapidez na geração e obtenção de dados)

    Se refere à velocidade com que os dados são criados. São mensagens de redes sociais se viralizando em segundos, transações de cartão de crédito sendo verificadas a cada instante ou os milissegundos necessários para calcular o valor de compra e venda de ações. O Big Data serve para analisar os dados no instante em que são criados, sem ter de armazená-los em bancos de dados.

    • Variedade (grande diversidade de tipos ou formas de dados)

    Os dados, além de serem muitos, são heterogêneos, não seguem um padrão.

    Diversos tipos e formatos de dados, como imagens, vídeos, fotos, geolocalização, números, textos, postagens.

    • Veracidade (confiança na geração e obtenção dos dados)

    Um dos pontos mais importantes de qualquer informação é que ela seja verdadeira. Com o Big Data não é possível controlar cada hashtag do Twitter ou notícia falsa na internet, mas com análises e estatísticas de grandes volumes de dados é possível compensar as informações incorretas.

    • Valor (utilidade e valor agregado ao negócio)

    O último V é o que torna Big Data relevante: tudo bem ter acesso a uma quantidade massiva de informação a cada segundo, mas isso não adianta nada se não puder gerar valor. É importante que empresas entrem no negócio do Big Data, mas é sempre importante lembrar dos custos e benefícios e tentar agregar valor ao que se está fazendo.

  • Com relação a noções de mineração de dados e Big Data: em Big Data, a premissa VARIEDADE refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.

  • Gabarito: Errado

    Correção da mesma:

    Em Big Data, a premissa variedade refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.

    Obs: O V de volume tem a ver com quantidade.

    Não pare! Ele está vendo.

  • Sobre as características de Big Data:

    "Volume está claro. Geramos petabytes de dados a cada dia. E estima-se que este volume dobre a cada dezoito meses. Variedade também, pois estes dados vêm de sistemas estruturados (hoje já são minoria) e não estruturados (a imensa maioria), gerados por e-mails, mídias sociais (Facebook, Twitter, YouTube e outros), documentos eletrônicos, apresentações estilo Powerpoint, mensagens instantâneas, sensores, etiquetas RFID, câmeras de vídeo etcGeramos petabytes de dados a cada dia. E estima-se que este volume dobre a cada dezoito meses. Variedade também, pois estes dados vêm de sistemas estruturados (hoje já são minoria) e não estruturados (a imensa maioria), gerados por e-mails, mídias sociais (Facebook, Twitter, YouTube e outros), documentos eletrônicos, apresentações estilo Powerpoint, mensagens instantâneas, sensores, etiquetas RFID, câmeras de vídeo etc"

    Fonte: Big Data, Cezar Taurion, p. 31 - 32

  • 1. Volume

    Big Data é uma grande quantidade de dados gerada a cada segundo. Pense em todos os e-mails, mensagens de Twitter, fotos e vídeos que circulam na rede a cada instante. Não são terabytes e sim zetabytes e brontobytes. Só no Facebook são 10 bilhões de mensagens, 4,5 bilhões de curtidas e 350 milhões de fotos compartilhadas todos os dias. A tecnologia do Big Data serve exatamente para lidar com esse volume de dados, guardando-os em diferentes localidades e juntando-os através de software.

    2. Velocidade

    Se refere à velocidade com que os dados são criados. São mensagens de redes sociais se viralizando em segundos, transações de cartão de crédito sendo verificadas a cada instante ou os milissegundos necessários para calcular o valor de compra e venda de ações.

    3. Variedade

    Os diferentes tipos de dados. Com o Big Data, mensagens, fotos, vídeos e sons, que são dados não-estruturados, podem ser administrados juntamente com dados tradicionais.

    4. Veracidade

    O dado digno de confiança em termos de acuracidade.  

    5. Valor

    Só usar o BIG DATA não tem sentido a não ser que seja agregado valor.

    FONTE: https://solvimm.com/blog/o-que-e-big-data/

  • GAB. ERRADO

    Trata-se de Variedade.

  • Em Big Data, a premissa volume refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.

    Ø BIG DATA: grande depósito de dados estruturados, semiestruturados e não estruturados:

    • Capacidade de fazer a análise de dados.
    • Estuda como tratar, analisar e obter informações a partir de conjuntos de DADOS GRANDES (DATA DRIVEN) demais para serem analisados por sistemas tradicionais.
    • Os dados possuem "5V's": VERA VARIa VALOR da VELOCIDADE!

    1.    VOLUME:  DATA DRIVEN - Grande banco de dados

    QUALIDADE DO DADO tem importância,

    Estruturados ou Não Estruturados

    2.    VERACIDADE:  Devem ser verdadeiros

    3.    VARIEDADE: Engloba todos os tipos de dados

    4.    VALOR: Agregar conhecimento

    5.    VELOCIDADE: Criados e armazenados rapidamente.

    IMPACTA o modelo de PROCESSAMENTO e ARMAZENAMENTO.

    MELHOR PROVEITO, usa-se Data Mining e Data Warehouse.

     

    VERACIDADEà VISCOSIDADE:

    ·        Dificuldade de navegar entre os dados.

    ·        O algoritmo tem que ser capaz de lidar com diferentes fontes, essa flexibilidade tem um custo.

    Ex.: Dados de sensores RFID, celulares, contadores inteligentes (smart meter) impulsionam a produção de dados em uma velocidade sem precedentes e contribuindo para o Big Data

    BASE NECESSÁRIA: VARIEDADE, VELOCIDADE e VOLUME.

     

    BIG DATA: se relaciona a um universo de novas possibilidades e perguntas sobre fatos e dados, que ainda não conhecemos ou observamos, e busca descobrir novos padrões e fatos decorrentes que podem acontecer por meio de Banco de dados que são utilizados em soluções.

    Ex.: Banco de dados NoSQL

  • Quando falar-se de "V's" do Big Data podem ser 3/5/7/9 deles, porém os três pilares básicos são:

    Volume: Refere-se a grande quantidade de dados passível ao processamento.

    Variedade: Diferentes tipos e formatos de dados [ como cita a questão]

    Velocidade: Agilidade é Tempo Hábil de processar os dados de forma precisa e pontual.

    Gaba: ERRADO.

  • Big Data baseia em 5 V's : 

     

    • Volume - quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.
    • Velocidade - desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.
    • Variedade - implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados
    • Veracidade - consiste no grau de incerteza e inconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados, além disso, representa a confiabilidade dos dados
    • Valor-   Retorno, financeiro ou não.

  • ERRADO. A questão tratou do conceito de Variedade.

  • Variedade: quanto mais dados e fontes eu tenho, maior é a complexidade para trabalhar os dados, mas também maiores as possibilidade que tenho para gerar informação útil.

  • Rapaz, tantos comentários lindos e bem explicados que fico sem jeito de colocar o meu.

    Meu muito obrigado a todos que dediicam seu tempo a ajudar aos colegas.

    Vcs ,sem duvida, estão muito próximos da aprovação. Parabens e sucesso

  • Big Data baseia em 5 V's : 

     

    • Volume - quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.
    • Velocidade - desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.
    • Variedade - implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados
    • Veracidade - consiste no grau de incerteza e inconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados, além disso, representa a confiabilidade dos dados
    • Valor-   Retorno, financeiro ou não

    para minhas revisões, copiei do Matheus.

  • ERRADO

    ·        Trata-se de VARIEDADE

    3Vs

    - Volume: há um grande volume de dados

    - Velocidade: os dados são transmitidos muito rápidos

    - Variedade: analisa diferente tipos e formatos de dados (estruturados, não estruturados, semi estruturados)

    - - - - - -

    5Vs (+)

    - Veracidade: os dados são verdadeiros e confiáveis

    - Valor: os dados têm que trazer valor para a empresa

    - - - - - -

    7Vs (+)

    - Viscosidade: impede a inércia (dificuldade de navegar entre os dados)

    - Viralidade: os dados se espalham rapidamente 


ID
5041417
Banca
CESPE / CEBRASPE
Órgão
TCE-RJ
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Com relação a Big Data, julgue o item seguinte.


Os fatores críticos de sucesso da análise de Big Data incluem uma sólida infraestrutura de dados, além de ferramentas analíticas e pessoal habilitado para lidar com elas.

Alternativas
Comentários
  • Fatores críticos de sucesso da análise de Big Data:

    - Sólida infraestrutura (hardware).

    - Ferramentas (software) que facilitem a análise de grandes volumes de dados.

    - Pessoal Habilitado.

  • GABARITO CORRETO!

    .

    .

    A QUESTÃO É AUTOEXPLICATIVA, MAS VALE UM TRECHO DE UM AUTOR:

    Se a coleta de dados, no Big Data, for bem direcionada ao requerido nicho especifico, a possibilidade de precisão é muito maior. Porém, o fator humano continua sendo o ponto crucial da análise dos números, visto que nela predomina a subjetividade. No que se refere às informações finais, divulgadas aos stakeholders e gestores públicos, a visualização deve ser transmitida de forma fácil e direta, possuindo layout simples e dinâmico, conforme o formato escolhido para a apresentação, como por exemplo, tabelas, gráficos, esquemas, mapas mentais etc.

    (BARCELLOS, 2017; MORAES, 2018; VIEIRA et al, 2015).

    Stakeholder é “qualquer grupo ou indivíduo que pode afetar ou é afetado pela realização dos objetivos de uma empresa” FREEMAN (1984, p. 25).

  • Eu errei por esse "pessoal habilitado", confundi com o Power Bi que é muito lúdico e simples

  • Aplicações que lidam com big data são relativamente complexas, pois devem ser capazes de lidar com um grande volume, variedade e velocidade de dados. Assim, é necessário ter uma infraestrutura sólida, o que inclui máquinas e ferramentas adequadas para esse trabalho, além de profissionais capacitados, que tenham forte conhecimento da área e algum conhecimento a respeito do ramo de negócio em que a aplicação está sendo utilizada.  

  • Assertiva C

    Os fatores críticos de sucesso da análise de Big Data incluem uma sólida infraestrutura de dados, além de ferramentas analíticas e pessoal habilitado para lidar com elas.

    Vulgo DBa

  • V’s do Banco de Dados.

     

     3 VS: VOLUME,VELOCIDADE, VARIEDADE

                              

    no Banco o juiz Flamenguista diz :  VO VE o VAR

    ..........................................................................................................................

    ..............................................................................................................................

    5 VS: VOLUME, VELOCIDADE, VARIEDADE, VALOR, VERACIDADE

                           

    no Banco o juiz Flamenguista diz :  VO VE o VAR o técnico responde  VA VER mesmo.

  • Errei por essa parte "sólida infraestrutura de dados", pensei que no lugar de dados fosse hardware.

  • Errei porque li na wikipedia que uma das críticas ao big data era a escassez de pessoal habilitado.... triste.

  • Os fatores críticos de sucesso da análise de Big Data incluem:

    uma sólida infraestrutura de dados,

    além de ferramentas analíticas e pessoal habilitado para lidar com elas.

    Ø Big Data:

    • consiste de um grande depósito de dados estruturados, semiestruturados e não estruturados:
    • Sólida infraestrutura (hardware).
    • Capacidade de fazer a análise de dados, com o uso de ferramentas especificas e técnico habilitado.
    • Pessoal Habilitado (Conhecimento técnico).
    • Estuda como tratar, analisar e obter informações a partir de conjuntos de dados grandes (data driven) demais para serem analisados por sistemas tradicionais.
    • O volume de dados é uma característica importante de Big Data. (Grande banco de dados)
    • Ferramentas (software) que facilitem a análise de grandes volumes de dados.
    • A qualidade do dado tem importância, pois a transformação dos dados impacta nos negócios.(Dados estruturados ou não estruturados)
    • A velocidade de entrada dos dados impacta o modelo de processamento e armazenamento. (Para melhor proveito, usa-se Data Mining e Data Warehouse.)
    • A variedade dos dados é característica intrínseca nos fundamentos de Big Data. (Engloba todos os tipos de dados)

  • Com relação a Big Data: os fatores críticos de sucesso da análise de Big Data incluem uma sólida infraestrutura de dados, além de ferramentas analíticas e pessoal habilitado para lidar com elas.

    Fatores críticos de sucesso da análise de Big Data:

    - Sólida infraestrutura (hardware).

    - Ferramentas (software) que facilitem a análise de grandes volumes de dados.

    - Pessoal Habilitado.

    fonte: comentario do WAS

    Se a coleta de dados, no Big Data, for bem direcionada ao requerido nicho especifico, a possibilidade de precisão é muito maior. Porém, o fator humano continua sendo o ponto crucial da análise dos números, visto que nela predomina a subjetividade. No que se refere às informações finais, divulgadas aos stakeholders e gestores públicos, a visualização deve ser transmitida de forma fácil e direta, possuindo layout simples e dinâmico, conforme o formato escolhido para a apresentação, como por exemplo, tabelas, gráficos, esquemas, mapas mentais etc.

    (BARCELLOS, 2017; MORAES, 2018; VIEIRA et al, 2015).

    Stakeholder é “qualquer grupo ou indivíduo que pode afetar ou é afetado pela realização dos objetivos de uma empresa” FREEMAN (1984, p. 25).

    fonte: comentário cavaleiro templário

  • Adendo: 5 v (Big Data)

    • Volume: Grande quantidade.
    • Variedade: São variados.
    • Velocidade: São criados de uma forma extremamente rápida.
    • Valor: Devem possuir valor, ou seja, deve agregar conhecimento.
    • Veracidade: Devem ser verídicos, verdadeiros.

    Fonte: Colega do aqui do Qc.

    Persistência, Esforço e Foco.

  • MEU RESUMO DE BIG DATA

    INTRODUÇÃO:

    - Tudo gera informação.

    - Quantidade de dados gerados é absurda;

    - Desses dados gerados, cerca de 80 a 95% são dados NÃO ESTRUTURADOS (Necessita de informações para CLASSIFICAR, CATEGORIZAR, ORDENAR e ORGANIZAR de uma forma mais fácil de se encontrar esses dados).

    -

     O QUE É O BIG DATA?

    --> Tecnologia utilizada para analisar grandes volumes de dados estruturados e não estruturados.

    --> Mediante algoritmos estatísticos avançados, que podem ser:

    Análise preditiva;

    Tendências --> prevê, analisa comportamento, dados que não existem também.

    Ou seja, big data não é apenas os dados em si, mas também as soluções tecnológicas criadas para lidar com esses dados.

    -

     O QUE NÃO É BIG DATA?

    - Grandes volumes de dados, APENAS.

    - Dados estruturados, APENAS.

    --> (Eles por si sós não caracterizam a BIG DATA)

    -

    OS 5Vs DO BIG DATA:

    - Volume, velocidade, variedade, veracidade e valor.

    BIZU --> VA - VE - VO (2VA2VE e 1VO)

    • Volume - quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.
    • Velocidade - desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.
    • Variedade - implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados
    • Veracidade - consiste no grau de incerteza e inconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados, além disso, representa a confiabilidade dos dados
    • Valor-   Retorno, financeiro ou não.

    -

    Fonte: resumos.

  • Trata-se de uma questão sobre Big Data.

    O comando da questão afirma que os fatores críticos de sucesso da análise de um Big Data incluem uma sólida infraestrutura de dados, somada as ferramentas analíticas e pessoal habilitado para lidar com elas.

    Pessoal, segundo o livro Gestão da Informação e do Conhecimento, de Antonio Braquehais, vemos como fatores críticos de sucesso do Big Data:

    - Estratégia e Liderança.
    - Cultura Organizacional.
    - Processos e estrutura.
    - Tecnologia da Informação e Comunicação.
    - Gestão de pessoas.
    - Monitoramento e controle.

    No tópico de processos e estrutura o autor menciona a necessidade de possuir uma estrutura específica para suporte do Big Data, no tópico de tecnologia ele também menciona a necessidade de aplicações e sistemas específicos, bem como em gestão de pessoas o autor mostra que pessoas habilitadas fazem parte dos fatores críticos de sucesso.


    Gabarito do Professor: CERTO.

ID
5041420
Banca
CESPE / CEBRASPE
Órgão
TCE-RJ
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Com relação a Big Data, julgue o item seguinte.


Volume, variedade e visualização são as três características, conhecidas como 3 Vs, utilizadas para definir Big Data.

Alternativas
Comentários
  • ERRADO

    As três características são: VOLUME, VELOCIDADE e VARIEDADE.

    Temos ainda VALOR e VERACIDADE.

  • Gabarito ERRADO

    Não tem visualização

  • Gab. ERRADO!

    Um sistema de Big Data costuma ser caracterizado pelos chamados 3 V´s, ou seja, volume, velocidade e varidade.

  • Entendi foi é nada.

    Os dados possuem "5V's":

    Volume > Grande quantidade.

    Variedade > São variados.

    Velocidade > São criados de uma forma extremamente rápida.

    .

    .

    Valor > Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade > Devem ser verídicos, verdadeiros.

  • Muitas provas vindo ai com esse assunto e o Qc pondo gabarito errado para atrapalhar o aluno;

  • Gabarito ERRADO.

    Os V’s do BIG DATA são: Volume, Variedade, Velocidade.

    Temos ainda: Valor e Veracidade.

  • Gab. (E)

    Volume, variedade e visualização são as três características, conhecidas como 3 Vs, utilizadas para definir Big Data.

    O Big Data possui os famosos "5V's":

    • Volume: Grande quantidade.
    • Variedade: São variados.
    • Velocidade: São criados de uma forma extremamente rápida.
    • Valor: Devem possuir valor, ou seja, deve agregar conhecimento.
    • Veracidade: Devem ser verídicos, verdadeiros.
  • São 5 V's e não existe o V de VISUALIZAÇÃO

  • GAB: ERRADO

    3v's = VOLUME; VELOCIDADE E VARIEDADE.

    - Volume = grande quantidade de dados gerada a cada segundo. 

    Velocidade = Refere-se à velocidade com que os dados são criados e tratados para atender à demanda. Trata-se da existência de um alto fluxo de dados na entrada, impactando o modelo de processamento e armazenamento. 

    Variedade = Significa que os dados de hoje aparecem em todos os tipos de formatos, como, por exemplo, arquivos de texto, e-mail, medidores e sensores de coleta de dados, vídeo, áudio, dados de ações do mercado ou transações financeiras. Trata dos diferentes tipos de dados (estruturados e não-estruturados) advindos de fontes diversas.

    Veracidade = A informação deve ser verdadeira. 

    Valor = definir a abordagem que será feita da massa de dados que circula. Não é toda a informação que está circulando que é relevante ou útil para os objetivos específicos de uma empresa.

  • Conceito: 3V’sVolume, Velocidade e Variedade 5V’s→ +2 : Veracidade e Valor

  • --> VARIEDADE > VOLUME > VELOCIDADE > VALOR > VERACIDADE

    para decorar: Vera varia o valor do frete entre volume e velocidade

    .

  • "Erradona"!

    Foi uma das primeiras questões que marquei errada com toda segurança , no dia da prova!

    Veja abaixo qual foi a minha nota

    https://www.youtube.com/watch?v=-kghNVbwEls

  • 3 VS: VOLUME VELOCIDADE VARIEDADE

    5 VS: VOLUME VELOCIDADE VARIEDADE VALOR VERACIDADE

    A banca poderá pedir das duas formas!

    #pertencerei

  • Gabarito ERRADO

    Os V’s do Big data:

    Volume: Dados de grande variedade de fontes.

    Variedade: Quanto mais dados e fontes, maior a complexidade e possibilidades que tem de gerar informação útil.

    Velocidade: Os dados devem fluir em uma velocidade útil para que a tomada de decisões seja efetivada.

    Veracidade: O quanto a informação é verdadeira.

    Valor: A informação deve ser certa para pessoas certas, sendo, portanto, uma informação útil.

    POSSÍVEIS NOVOS “Vs” (CESPE ainda não cobrou, mas outras bancas já!)

    Viscosidade é uma das novas características que tem sido cobrada.

    A viscosidade tem relação com a dificuldade de navegar entre os dados. Essa dificuldade pode ser considerar como uma espécie de inércia. Como os dados são variados, o algoritmo tem que ser capaz de lidar com diferentes fontes, essa flexibilidade tem um custo. Um deles é a viscosidade.

    Variabilidade: é a oscilação nos níveis dos dados colhidos e trabalhados. Como essas informações vêm de múltiplas fontes, dizemos que o nível é variável.

    Volatilidade: diz respeito às inconsistências nos dados ou à mudança de dimensões entre eles, já que vêm de vários tipos origens.

    Bons estudos!

  • Os 3V: velocidade, variedade e volume

    Mné: a velocidade varia com volume no carro

  • Gabarito: ERRADO

    Os 3 V's são:

    1. Velocidade
    2. Volume
    3. Variedade

    Para complementar os 5 V's, soma-se:

    1. Valor
    2. Veracidade
  • Gab: Errado

    Para ajudar na memorização...

     3 Vs --> VaVeVo (sílabas em ordem )

    • Variedade
    • Velocidade
    • Volume

    5 Vs --> VaVeVoValVer

    • Variedade
    • Velocidade
    • Volume
    • Valor
    • Veracidade
  • Big data são conjuntos de dados e técnicas que podem ser caracterizados com o conceito dos 3 Vs: o volume se refere ao tamanho dos conjuntos de dados; a variedade diz que os dados podem estar em diferentes tipos e formatos, incluindo não estruturados; e a velocidade trata da grande velocidade com que os dados são produzidos e coletados. Visualização não é um dos 3 Vs!

    • Volume: Grande quantidade.
    • Variedade: São variados.
    • Velocidade: São criados de uma forma extremamente rápida.
    • Valor: Devem possuir valor, ou seja, deve agregar conhecimento.
    • Veracidade: Devem ser verídicos, verdadeiros.

  • Essa é para pegar aqueles que cairam de paraquedas no concurso, sem estudar nada kkkk

  • < Big data refere-se a grande volumes de dados estruturados e principalmente não estruturados, tem 5 características que são:)

    Os 3 V's:

    Velocidade, Volume,Variedade.

    5 V's:

    Velocidade,Volume, Variedade, Valor e Veracidade

    Os dois últimos foram adicionados aos Vs recentemente.

  • tem mais de 5V

  • Quando a gente vira concurseiro se torna meio anti-social, né? E ai, as vezes, nos finais de semanas e feriados sua mãe fala "Meu filho, vá ver a vó", então, a partir de agora sua vó (Nossa segunda mãe) vai lhe ajudar, sempre que ler BIG DATA lembre da avó.

    Quando a questão falar 3v's, você lembra sua mãe dizendo: "Meu filho, VEr a "

    VAriedade

    VElocidade

    lume

  • > Variedade, velocidade e volume.

    OU

    > Variedade, velocidade, volume, valor e veracidade.

    Gabarito errado.

  • (E)

    Outras da CESPE que ajudam a responder:

    O volume de dados é uma característica importante de Big Data.(C)

    A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento.(C)

    No âmbito da ciência de dados na definição de Big Data, utilizam-se características ou atributos que alguns pesquisadores adotam como sendo os cinco V´s . Porém, a base necessária para o reconhecimento de Big Data é formada por três propriedades: variedade, velocidade e volume.(C)

    (PF-18) A mineração de dados se caracteriza especialmente pela busca de informações em grandes volumes de dados, tanto estruturados quanto não estruturados, alicerçados no conceito dos 4V´s : volume de mineração, variedade de algoritmos, velocidade de aprendizado e veracidade dos padrões.(ERRADO)

  • os 3V do big data são: a velocidade varia com volume dentro do carro

  • Essa vem na PRF

  • gab.: ERRADO.

    Cinco dimensões "V" ( segundo Bergson Lopes Rêgo):

    Volume

       Quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.

    Velocidade

       Desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.

    Variedade

       Implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados

    Veracidade

       Consiste no grau de incerteza e insconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados. 

       representa a confiabilidade dos dados

    Valor

       Retorno, financeiro ou não.

    (CESPE - Q933316) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CERTO!

    FONTE: CESPE + COLEGAS DO QC + MEUS RESUMOS.

    BONS ESTUDOS!

  • Quando era muleque e alguém pedia algo emprestado, falávamos: em 5 V´s hein - vai, volta, vuando, viu, via40.

    O que isso tem haver com os V´s do BigData? nada, mas aqui já esta associado! =D

  • O erro foi ter colocado visualização.

    Gabarito Errado.

  • velocidade.

  • Volume

    Velocidade

    Variedade

    Veracidade

    Valor

    NYCHOLAS LUIZ

  • Volume : há um grande volume de dados

    Variedade : os dados são variados

    Velocidade : os dados são criados em uma velocidade surpreendente

    Valor : os dados devem possuir valor, ou seja, deve agregar no conhecimento da informação

    Veracidade : não basta ter uma grande quantidade de dados, esses dados devem ser verídicos

  • Gab. (E)

    Volume, variedade e visualização são as três características, conhecidas como 3 Vs, utilizadas para definir Big Data.

    O Big Data possui os famosos "5V's":

    • Volume: Grande quantidade.
    • Variedade: São variados.
    • Velocidade: São criados de uma forma extremamente rápida.
    • Valor: Devem possuir valor, ou seja, deve agregar conhecimento.
    • Veracidade: Devem ser verídicos, verdadeiros.

  • Volume, variedade e visualização são as três características, conhecidas como 3 Vs, utilizadas para definir Big Data. (ERRADO)

    • BASE NECESSÁRIA: variedade, velocidade e volume.

    • Os dados possuem "5V's":  VERA,  quando corre VARIa VALOR da VELOCIDADE!

    o   Volume -> grande quantidade.

    o   Veracidade -> devem ser verídicos/verdadeiros

    o   Variedade -> são variados.

    o   Valor -> possuem valor (agregar conhecimento de alguma forma)

    o   Velocidade -> são criados e armazenados rapidamente

  • ERRADO!!

    Os 3 V's são:

    • Velocidade
    • Volume
    • Variedade

    Para complementar os 5 V's:

    • Valor
    • Veracidade

    E para complementar os 7 V's:

    • Vulnerabilidade
    • Visualização

  • ERRADO

    3V's DO BIG DATA

    Volume: grande quantidade de dados de fontes variadas.

    Velocidade: os dados passam a ser transmitidos em velocidade muito maior.

    Variedade: capacidade de analisar dados estruturados e não estruturados.

    5V's DO BIG DATA (+)

    Veracidade: necessidade de obter dados verídicos, de acordo com a realidade.

    Valor: quanto mais valiosos forem os dados, mais importantes serão.

    7V's DO BIG DATA (+)

    Viscosidade: impede a inércia (dificuldade de navegar entre o grande volume de dados)

    Viralidade: os dados se tornam "virais", se espalham rapidamente.

  • Para o cargo de TI, o Cespe cobra essa parte básica do assunto, ai na prova da PRF vai cobrar nível NASA, já estou até vendo!

  • Obs: atualmente existem mais de 50 Vs

  • Questão errada! não está previsto o "Visualização" e SÃO 5 Vs, a saber: (Volume, velocidade, veracidade, variedade e valor).

  • Dona Florinda: E dá próxima vez, VA² (Variedade, Valor

    VE² (Velocidade, Veracidade/Verdade)

    VO (Volume)

    Vá Ver sua Vó

  • Hmm. então CESPE ta cobrando os 3V's raiz ainda

  • Big Data é uma nova geração de tecnologias e arquiteturas, projetadas economicamente para extrair valor de volumes muito grandes e vastos de dados, permitindo alta velocidade de captura, descoberta e análise.

    A definição de Big Data pode ser quebrada em cinco dimensões, quais sejam: Volume (quantidade de dados gerada a cada segundo), Velocidade (velocidade com que os dados são criados), Variedade (não seguem um único padrão e nem fornecem todos o mesmo tipo de informações), Veracidade (um dos pontos mais importantes de qualquer informação é que ela seja verdadeira) e Valor (necessidade de gerar valor para um órgão ou uma empresa).

    Fonte: Professor Diego Carvalho

  • 3V (volume, variedade e velocidade) OU 5V (3V + valor e veracidade), se falarem em 4V - já vi uma ou duas questões do CESPE falando em número par - corre que é cilada.

  • 2 VA

    2VE

    1VO

    decorei assim kkk 5Vs

  • Apesar de existir os 5V's, alguns autores defendem que o volume, a variedade e a velocidade são os três mais importantes.

  • As três características são: VOLUME, VELOCIDADE e VARIEDADE.

    Temos ainda VALOR e VERACIDADE.

  • Vó Veloz Variando a Verdade Valorosa

    Volume, Velocidade, Variedade, Veracidade e Valor ^^

  • Gravei assim essa budega:

    - Vo velo

    - Va va, Vera

  • VOLUME, VELOCIDADE e VARIEDADE.

    VOLUME, VELOCIDADE e VARIEDADE.

    VOLUME, VELOCIDADE e VARIEDADE.

  • A base necessária para o reconhecimento de Big Data é formada por três propriedades (VA-VE-VO): variedade, velocidade e volume

  • Volume, Variedade e Velocidade.

  • O Big Data possui os famosos "5V's":

    • Volume: Grande quantidade.
    • Variedade: São variados.
    • Velocidade: São criados de uma forma extremamente rápida.
    • Valor: Devem possuir valor, ou seja, deve agregar conhecimento.
    • Veracidade: Devem ser verídicos, verdadeiros.

  • Trata-se de uma questão sobre Big Data.

    O comando da questão afirma que Volume, Variedade e Visualização são conhecidos como os 3 Vs do Big Data.

    Prezados, os 3 Vs do Big Data são:

    - Volume;
    - Variedade;
    - Velocidade.


    Gabarito do Professor: ERRADO.
  • ASSERTIVA INCORRETA!

    Complementando;

    Big data é uma tecnologia que surge em decorrência da necessidade de processar um grande volume de dados que possuem uma grande variedade de formas e formatos e que são criados em alta velocidade.

    Atualmente a tecnologia se consolida pela busca de informações que apresentem Veracidade e Valor.

  • Big Data se baseia em 5 "V" 

    Velocidade, Volume, Variedade, Veracidade e Valor.

    Os dados possuem "5V's":

                 VOlume -> Grande quantidade.                                                           

    3V´s      VElocidade -> São criados de uma forma extremamente rápida.

                    VARiedade -> São variados.

                             

                VAlor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    2 V´s              

                 VEracidade -> Devem ser verídicos, verdadeiro

    VO VE o VAR

    VA VE

    Seguimos...

    PMMT 2022

  • ERRADO

    Principais características do BIG DATA - 5Vs:

    5 Vs – VOLUME – VELOCIDADE – VARIEDADE – VERACIDADE - VALOR

  • Nem tanto CEBRASPE. Não é assim também né!! srsrs


ID
5090572
Banca
CESPE / CEBRASPE
Órgão
SEED-PR
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Assinale a opção que apresenta a denominação de um conjunto de dados que contém tipos de dados não estruturados e semiestruturados, como texto, áudio e vídeo, e que exige um pré-processamento adicional para obter significado e dar suporte a metadados, com o objetivo de que estes sejam usados para resolver problemas de negócios.

Alternativas
Comentários
  • GABA: E

    Outros conceitos cespianos:

    "Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise" (Q1933316)

    "De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos"(Q933197)

  • Letra A - Errado - Bancos de Dados NoSQL tem a finalidade de atender aos requisitos de gerencimento de grandes volumes de dados que necessitam de alta escalabilidade e disponibilidade, não tem como objetivo principal " objetivo de que estes sejam usados para resolver problemas de negócios" como afirma a questão.

    Letra B - Errado - É uma técnica de data mining, busca desenvolver técnicas computacionas sobre aprendizado. Ferramenta para aquisição automatica de conhecimento por meio da imitação do comportamento de aprendizagem humano, foco em aprender a reconhecer padrões complexos e tomar decisões.

    Letra C - Errado - Realmente trabalha com dados semi estruturados e não estruturados, busca informações relevantes e úteis, mas o foco não é resolver problemas de negócios.

    Letra D - Errado - Em Data warehouse o foco maior é em dados estruturados e é um banco de dados especializado em gerar relatórios.

    Letra E - Correto

  • rapaz, sinceramente só consegui matar com certeza por ser múltipla escolha.. Porque sendo uma assertiva aberta como geralmente é, iria acabar marcando errado porque da a entender que texto, áudio e vídeo são semiestruturados. Que eu saiba semiestruturado seria XML, CSV

  • O termo Big Data é definido genericamente como a captura, gerenciamento e a análise de dados que vão além dos dados tipicamente estruturados, que podem ser consultados e pesquisados através de bancos de dados relacionais. Frequentemente são dados obtidos de arquivos não estruturados como vídeo digital, imagens, dados de sensores, arquivos de logs e de qualquer tipo de dados não contidos em registros típicos com campos que podem ser pesquisados.

    Questões cespe sobre o assunto:

    • Em soluções Big Data, a análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados

    • Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos.

    • Em soluções Big Data, a análise dos dados comumente precisa ser precedida de uma transformação de dados não estruturados em dados estruturados.

  • BIG DATA X DATA WAREHOUSE

    Big data é a TECNOLOGIA, um meio para armazenar e gerenciar grandes quantidades de dados.

    Data warehouse é a ARQUITETURA, é uma forma de organizar dados para que haja maior credibilidade e integridade corporativa.

  • Correta, E

    BIG data:

    • refere-se aos conjuntos de dados extremamente grandes que são difíceis de analisar com ferramentas tradicionais;
    • pode incluir dados estruturados e não estruturados;
    • é a análise e a interpretação de grandes volumes de dados de grande variedade;
    • é definido genericamente como a captura, gerenciamento e a análise de dados que vão além dos dados tipicamente estruturados, que podem ser consultados e pesquisados através de bancos de dados relacionais;
    • a divisão de dados engloba os estruturados e os não estruturados;
    • possui os famosos 5V's: volume / variedade / velocidade / valor / veracidade.

    Dias de Luta. Dias de Glória !

  • Data Warehouse( Depósito de dados)

    é uma coleção de dados orientados por assunto, integrado, variável com o tempo e não volátil, que tem por objetivo dar suporte aos processos de tomada de decisões.

    data warehouse possibilita a análise de grandes volumes de dados, coletados dos sistemas transacionais - (OLTP). São as chamadas séries históricas que possibilitam uma melhor análise de eventos passados, oferecendo suporte às tomadas de decisões presentes e a previsão de eventos futuros.

  • Gabarito: LETRA E

    ➥Direto ao ponto:

    O big data engloba todos os tipos de dados, seja ele estruturados ou não estruturados.

    BIG DATA

    ☑ Grande banco de dados.

    ☑ Engloba todos os tipos de dados.

    ☑ Dados estruturados ou não estruturados.

    ☑ Para melhor proveito, usa-se Data Mining e Data Warehouse.

    ☑ Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

    FONTE: colegas do QC..

  • Assertiva E

    exige um pré-processamento adicional para obter significado e dar suporte a metadados = Big Data

  • O big data tratam de dados brutos, até transformá-los em "insights" para tomada de decisão, através de sistemas robustos que permite a descoberta e análise. Exemplo prático é o Facebook. Tem dados pra tudo que é canto: áudio, vídeo, imagens, etc.. E claro, tudo que passa por lá, é analisado para o próprio facebook tomar decisões, a fim de lucrar mais..

    A alternativa que poderia ter gerado dúvida nessa questão é o DW, mas não confunda:

    Data warehouse é uma arquitetura, um modelo.. simplesmente um depósito de dados "mais específico". Ele em si não analisa nada. Ele funciona da seguinte forma:

    → Pega um monte de dados de tudo que é canto

    → Passa por uma espécie de filtro chamado ETL

    → Deposita os dados em DWarehouse

    → Com esses dados mais específicos, entra o processo de datamining e OLAP para minerar.

    Imagine comigo seu quarto como um grande banco de dados. Dentro dele tem um banco de dados menor chamado guarda roupa. Esse guarda roupa trata de dados apenas relacionado a roupas. Esse é a ideia de um Datawarehouse: Um banco de dados mais enxuto, mais específico e com dados mais "filtrados". Mas e as gavetas desse guarda roupa? Seria um cara chamado "data mart", um banco de dados menor ainda sobre somente determinado assunto.. por exemplo: somente sobre camisetas.. somente sobre shorts.. Mas dai já estou fugindo do meu edital e vou parar por aqui kkk

    um desenho pra você visualizar na sua cabeça kkk: http://sketchtoy.com/69549014

  • Em pleno 2021, a Cespe conceituando Big Data, maravilhoso!

  • Uma das principais características da linguagem NoSQL é não trabalhar com banco de dados relacionais.

    Isso não quer dizer que não haja relação entre os dados ali existentes. Essas relações se dão de maneira diversa àquelas do BD Relacional.

  • Complemento:

    Os 5 V’s do Big data:

    ·       Volume: Dados de grande variedade de fontes.

    ·       Variedade: Quanto mais dados e fontes, maior q complexidade e possibilidades que tem de gerar informação útil.

    ·       Velocidade: Os dados devem fluir em uma velocidade útil para que a tomada de decisões seja efetivada.

    ·       Veracidade: O quanto a informação é verdadeira.

    ·       Valor: A informação deve ser certa para pessoas certas, sendo, portanto, uma informação útil.

  • resumo Big data:

    contém tipos de dados não estruturados e semiestruturados e dar suporte a metadados projetadas para processar volumes muito grandes e com grande variedade de dados

  • Em acréscimo aos ótimos comentários dos colegas, seguem duas questões do Cespe para agregar:

    Q933197: De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos – CERTO.

    Q842569: O termo Big Data Analytics refere-se aos poderosos softwares que tratam dados estruturados e não estruturados para transformá-los em informações úteis às organizações, permitindo-lhes analisar dados, como registros de call center, postagens de redes sociais, de blogs, dados de CRM e demonstrativos de resultados – CERTO.

  • (PF – 2018) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CORRETO

    (PF – 2018) De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CORRETO

    Big Data é um termo que descreve o grande volume de dados – tanto estruturados quanto não-estruturados — que impactam as empresas diariamente.

  • _______BIG DATA

    O BIG DATA É um conjunto de dados que contém tipos de dados não estruturados e semiestruturados, como texto, áudio e vídeo, e que exige um pré-processamento adicional para obter significado e dar suporte a metadados, com o objetivo de que estes sejam usados para resolver problemas de negócios.

    (PF – 2018) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CORRETO

    (PF – 2018) De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CORRETO

    Big Data é um termo que descreve o grande volume de dados – tanto estruturados quanto não-estruturados — que impactam as empresas diariamente.

    5 V'S (lembrando que não são apenas esses 5V, também já falam em 6V'S, mas não sei qual é rsrsrs - vi em outros comentários)

    ·       Volume: Dados de grande variedade de fontes.

    ·       Variedade: Quanto mais dados e fontes, maior q complexidade e possibilidades que tem de gerar informação útil.

    ·       Velocidade: Os dados devem fluir em uma velocidade útil para que a tomada de decisões seja efetivada.

    ·       Veracidade: O quanto a informação é verdadeira.

    ·       Valor: A informação deve ser certa para pessoas certas, sendo, portanto, uma informação útil.

  • GAB.: E

     Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados ,estruturados e não estruturados, permitindo alta velocidade de captura, descoberta e análise.

    Seu principal conceito, descobrir padrões de dados.

    Dados Estruturados: são aqueles que possuem uma estrutura determinada, com categorias, e definições, como localização, vendas e informações sobre o perfil de clientes, contatos entre outros.

     

    Dados não Estruturados: são dados de mídias sociais, como YouTube, Facebook, portais de notícias etc. Nesse caso, para se trabalhar com dados não estruturados é necessária a intervenção humana.

     

    Cinco dimensões "V" ( segundo Bergson Lopes Rêgo):

    • Volume: Quantidade de dados. Quanto maior o volume , maiores os esforços na gestão de dados.
    • Velocidade: Desafio de lidar com o tempo rápido de resposta que os novos dados são criados e os dados existentes, modificados.
    • VARIERDADE: Implementações de dados que requerem tratamento de vários formatos e tipos, incluindo dados estruturados e não estruturados
    • Veracidade: Consiste no grau de incerteza e inconsistência dos dados devido às ambiguidades, à baixa qualidade e à completeza dos dados. 
    •    representa a confiabilidade dos dados
    • Valor: Retorno, financeiro ou não.

    OUTRAS QUESTÕES DO CESPE SOBRE O ASSUNTO:

    (CESPE - Q840843) Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. CERTO

    (CESPE - Q933316 - 2018 - PF) - Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CERTO!

    (CESPE - Q933197 - 2018 - PF) - De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos. CERTO!

    FONTE: CESPE + COLEGAS DO QC + MEUS RESUMOS.

    Espero ter ajudado! BONS ESTUDOS!

  • Big Data - Grande quantidade de dados não estruturados.

    Data Ware House - Técnica de Gerenciamento de grande quantidade de dados (BIG DATA)

  • Big Data é um termo que descreve o grande volume de dados – tanto estruturados quanto não-estruturados — que impactam as empresas diariamente.

  • Big data definido

    Simplificando, big data é um conjunto de dados maior e mais complexo, especialmente de novas fontes de dados. Esses conjuntos de dados são tão volumosos que o software tradicional de processamento de dados simplesmente não consegue gerenciá-los.


ID
5228101
Banca
CESPE / CEBRASPE
Órgão
PRF
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Com referência à transformação digital, julgue o próximo item.

A Internet das coisas (IoT) aumenta a quantidade e a complexidade dos dados por meio de novas formas e novas fontes de informações, influenciando diretamente em uma ou mais das características do big data, a exemplo de volume, velocidade e variedade.

Alternativas
Comentários
  • Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade.

    O que é algo bem comum nos dias de hoje, aumento da quantidade de dados, volume absurdo, alta velocidade de criação de dados etc, o que levou à tecnologia Big Data.

    Gabarito: Certo

  • Certo.

    A Internet das Coisas e o Big Data permitem que grandes volumes de dados sejam analisados, verificados e transformados em informações organizadas para as empresas.

  • Acrescentando...

    “Big”, quando traduzido para o português, quer dizer “grande”. E “data”, por sua vez, “dados”.

    Sendo assim, big data significa grandes dados - ou megadados.

    O conceito de big data considera três grandes pilares. São eles:

    Volume:

    O big data não está relacionado a dados individuais e sem expressão. 

    Ele compreende um volume alto e que, de fato, tem relevância e peso para a tomada de decisões. 

    Velocidade:

    Como estamos falando em alto volume, a velocidade da coleta, organização e análise precisa ser proporcional.

    Do contrário, esse seria um esforço incapaz de dar conta das informações recentes. 

    Em outras palavras, haveria o risco de sempre correr atrás do prejuízo.

    Variedade:

    No big data, os dados não possuem uma única origem. 

    Na verdade, a complexidade está em receber dados de lugares variados, em formatos muitas vezes distintos, e extrair informações valiosas deles. 

    Importante dizer ainda que estes são os principais pilares do big data, mas não únicos.

  • Assertiva C

    A Internet das coisas (IoT) aumenta a quantidade e a complexidade dos dados por meio de novas formas e novas fontes de informações, influenciando diretamente em uma ou mais das características do big data.

    3v

    volume,

    velocidade

    variedade.

  • Gabarito: CERTO

    Como a internet das coisas define que várias máquinas, de diferentes categorias e funcionalidades, geram dados para as redes, podemos dizer, assim, que são gerados dados para a Big Data, grande Volume de dados, alta Velocidade na criação dos dados e Variedade nos dados

    O Big Data possui os famosos "5V's" :

    • V olume: Grande quantidade.
    • V ariedade: São variados.
    • V elocidade: São criados de uma forma extremamente rápida.
    • V alor: Devem possuir valor, ou seja, deve agregar conhecimento.
    • V eracidade: Devem ser verídicos, verdadeiros.

    (CESPE-PF 2018) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (C)

    (CESPE-SEED/PR-2021) A Internet das Coisas é a conexão entre objetos físicos, ambientes e pessoas em uma rede, possibilitada por dispositivos eletrônicos que viabilizam a coleta e a troca de dados. (C)

    (CESPE-SEED/PR-2021)Big data está ligado à captura e à análise de quantidades massivas de dados, por meio de sistemas de informação robustos. (C)

  • CERTA

    Respondendo a questão com outras do assunto: IOT E BIG DATA

    1. (CESPE/2021/SEED-PR)  A Internet das Coisas é a conexão entre objetos físicos, ambientes e pessoas em uma rede, possibilitada por dispositivos eletrônicos que viabilizam a coleta e a troca de dados. CERTA 
    2. (CESPE/2021/SEED-PR)Big data está ligado à captura e à análise de quantidades massivas de dados, por meio de sistemas de informação robustos. CERTA 
    3. (CESPE-2017) Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. CERTA 
    4. (CESPE - 2018 - Polícia Federal - Papiloscopista) De maneira geral, big datanão se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos.CERTA 
    5. (CESPE - 2018 - FUB - Engenheiro) A Internet das coisas (IoT), fusão de redes de informação e de redes físicas, permite monitorar operações ou processos por meio da comparação entre o que é executado e o que foi previamente planejado. CERTA
    6. Na IoT, os objetos podem prover comunicação entre usuários e dispositivos, viabilizando diversas aplicações, tais como coleta de dados de pacientes e monitoramento de idosos e sensoriamento de ambientes de difícil acesso. CERTA 
  • CERTO. Questão padrão!

    BIG DATA

     É definido como coleções de dados cuja sua quantidade é tão grande que é difícil armazenar, gerenciar, processar e analisar esses dados por meio de bancos de dados tradicionais.

    ➥ Nos dias atuais, as entidades são bombardeadas com um enorme fluxo de informações cruciais para suas atividades.

    ► Esses dados podem vir de fontes diferentes e podem ser de tipos diversos (estruturados, semiestruturados ou não estruturados).

    • E,

    Internet of Things (IoT)

    Do português - Internet das coisas - é um conceito que se refere à interconexão digital de objetos cotidianos com a internet, conexão dos objetos mais do que das pessoas.

    Em outras palavras, a internet das coisas nada mais é que uma rede de objetos físicos capaz de reunir e de transmitir dados.

    • Logo,

    A Internet das Coisas (IoT, do inglês Internet of Things) é a conexão entre objetos físicos, ambientes e pessoas em uma rede, possibilitada por dispositivos eletrônicos que viabilizam a coleta e a troca de dados.

    *E, como vimos na (PRF/2021), A Internet das coisas (IoT) aumenta a quantidade e a complexidade dos dados por meio de novas formas e novas fontes de informações, influenciando diretamente em uma ou mais das características do big data, a exemplo de volume, velocidade e variedade.

  • GAB: CERTO

    Corroborando:

    (CESPE - 2021/ TCE-RJ) Volume, variedade e visualização são as três características, conhecidas como 3 Vs, utilizadas para definir Big Data. (ERRADO)

    (CESPE - 2021/ TCE-RJ) Em Big Data, a premissa volume refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização. (ERRADO)

    (CESPE - 2021/ TCE-RJ) Os fatores críticos de sucesso da análise de Big Data incluem uma sólida infraestrutura de dados, além de ferramentas analíticas e pessoal habilitado para lidar com elas. (CERTO)

  • Gabarito CORRETO.

    .

    .

    Mais dispositivos inteligentes conectados também quer dizer mais dados para serem analisados, o que influencia diretamente nas características do big data, a área do conhecimento que estuda como tratar, analisar e obter informações a partir de conjuntos de dados grandes.

  • Perfeita a questão.

    • Se antes, já produzíamos uma quantidade imensa de dados com o uso de computadores, celulares e internet, imagina hoje com esse tanto de objetos inteligentes cada vez mais conectados, wearables, etc.

    • Essa dinâmica aumenta e muito o VOLUME dos dados, que são produzidos com muita VELOCIDADE, e por terem diversas origens e finalidades são bem VARIADOS entre si. (são os famosos 3 V's do big data)
  • gab certo. Comentários excelentes dos mais queridos dessa plataforma..

    obg!!

  • Gabarito CERTO.

     

    A IoT (Internet of Things) ou Internet das Coisas não pode ser vista e estudada singularmente, deve ser estudada em conjunto com o Big Data, a Mineração de Dados, o Aprendizado de Máquinas e até mesmo Banco de Dados.

     

    Vejamos: A ideia de IoT é tornar as coisas mais inteligentes e conectadas. Especialistas dizem que se é possível ligar e desligar algo, então, ele pode ser conectado e fazer parte do universo IoT.

     

    O significado de o que é IoT, ou o que é a internet das coisas, portanto, refere-se ao conjunto de dispositivos, que não são naturalmente digitais, mas podem coletar informações, enviar, agir em relação a elas, ou todas essas ações.

     

    E através dessa coleta de dados, aprenderemos mais e mais acerca dos usuários ao extrair dados (muita das vezes não estruturados) para realizar a Mineração e obter Conhecimento.

     

    Viram o porquê de não poder ser estudado sozinha?!

    Bons estudos.

  • Boa pessoal, boas explicações, fico satisfeito em poder extrair conhecimento por meio das explicações de vocês também estudantes, uma troca de informações e conhecimentos.

  • IoT − Internet of Things (Internet das coisas) é um conceito que surgiu com a popularização da Internet, com a objetivo de interligar equipamentos usados em nosso cotidiano com a Internet. Tecnologias desenvolvidas recentemente tornaram tal comunicação possível, com a redução de custos dos dispositivos utilizados, e a tendência é um uso cada vez maior de tal tecnologia, que permite que sensores e eletrodomésticos sejam conectados à Internet e controlados através até mesmo de smartphones.

     

    Big data é a tecnologia de análise e interpretação de grandes volumes de dados, visando a tomada de decisões. Sua definição formal é dada por um conjunto de três a cinco “Vs”: inicialmente, a definição para “Vs” é de dados produzidos com volume, velocidade e variedade. Os demais dois “Vs” representam veracidade e valor."

     

    O ITEM ESTÁ CERTO pois, de fato, com a implementação da Internet das Coisas, temos uma nova modalidade de obtenção de dados de equipamentos os quais até bem pouco tempo não geravam tais informações, como ocorre com os sensores e equipamentos eletrônicos domésticos, ou seja, observamos uma influência da IoT nos 3 Vs (ou seja, nas três características) do Big Data, com o aumento no volume e na variedade de informações e a consequente necessidade de aumentar a velocidade de processamento, já que haverá uma quantidade maior de informações. 

    Maurício Bueno.

  • Esta é uma questão que conjuga IoT e Big Data. De fato, a partir que a IoT aumenta a quantidade de dispositivos que fornecem informação, bem como o tipo de informação coletada, certamente teremos influência sobre uma ou mais características do Big Data. Item correto.

  • RAPIDO E OBJ;

    Perfeito, a ideia é aumentar a quantidade de dados a um volume insano o que levou a tecnologia de Big data.

    CERTO

  • BIG DATA à São grandes quantidades de dados sendo gerados em uma alta velocidade por uma multiplicidade de fontes. Volume + Variedade + Velocidade + Veracidade, tudo agregado + Valor

    Volume, variedade e visualização são as três características, conhecidas como 3 Vs, utilizadas para definir Big Data. (ERRADO)

    BIG DATA ENGLOBA DADOS ESTRURADOS E NÃO ESTRUTURADOS

    Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. CERTO

  • GAB. CERTO

    A IoT (Internet of Things) ou Internet das Coisas não pode ser vista e estudada singularmente, deve ser estudada em conjunto com o Big Data, a Mineração de Dados, o Aprendizado de Máquinas e até mesmo Banco de Dados.

     Vejamos: A ideia de IoT é tornar as coisas mais inteligentes e conectadas. Especialistas dizem que se é possível ligar e desligar algo, então, ele pode ser conectado e fazer parte do universo IoT.

  • A necessidade de aumentar a capacidade de armazenamento de dados levou a Big Data...

  • certo

    IOT- internet das coisas

    Big data- 5 V ---> Volume,velocidade,variedade, veracidade e valor.

  • IoT - (Internet of Things)

  • #PCAL2021

  • Bizu dos 5V's: 2VA 2VE 1VO

    VARIEDADE

    VALOR

    VELOCIDADE

    VERACIDADE

    VOLUME

    CERTO!!

  • Internet of Things ou A Internet das Coisas é a conexão entre objetos físicos, ambientes e pessoas em uma rede, possibilitada por dispositivos eletrônicos que viabilizam a coleta e a troca de dados .

    -Analise e a interpretação de grandes volumes de dados de grande variedade. 5V's

    Variedade, valor, velocidade, veracidade e volume.

  • A Internet das Coisas (IoT - Internet of Things) é uma forma de operação de dispositivos autônomos que se comunicam entre si para a produção de dados, tomada de decisões e fornecimento de serviços para os usuários.

    Com o advento do IPv6, a quantidade de endereços saltou exponencialmente em relação ao IPv4, permitindo a conexão de bilhões de novos dispositivos à rede mundial de computadores.

    O grande volume de dados produzidos influencia diretamente o Big Data.

    O conceito de Big Data, ou popularmente "um grande volume de dados" possui características que são enumeradas por 3Vs, 5Vs ou mais.

    - Volume - grande quantidade de dados.
    - Velocidade - produzidos rapidamente por muitas fontes.
    - Variedade - com formatos e informações diferentes.

    Algumas literaturas consideram como 5Vs, acrescentando às características anteriores:

    - Veracidade - dados corretos obtidos do ambiente por sensores.
    - Valor - com significância e utilidade para o processamento.

    A questão está correta.


    Gabarito do Professor: CERTO.
  • Recomendo a leitura.

    https://www.sga.com.br/big-data-e-internet-das-coisas/

  • 5Vs > Volume, Velocidade, Variedade, Veracidade e Valor.

  • o chute foi no anglo.....rs

    gb. certo

  • Com referência à transformação digital, julgue o próximo item.

    A Internet das coisas (IoT) aumenta a quantidade e a complexidade dos dados por meio de novas formas e novas fontes de informações, influenciando diretamente em uma ou mais das características do big data, a exemplo de volume, velocidade e variedade.

    Questão CORRETA

    Visto que, ela não restringiu estas como as ÚNICAS CARACTERISTICAS.

  • Nunca vi um chute tão certeiro igual a esse kk

  • A cespe e sua capacidade distorcer uma informação simples em algo bem mais complexo, extraindo os assuntos mais periféricos de cada tema, por isso isso é a banca mais difícil do Brasil. Quando falamos de IoT pensamos em todas as suas características, menos na variedade de diferentes dados produzidos e processados. Essa habilidade de tirar leite de pedra de cada questão e escreve-la da forma mais confusa torna ela a banca mais temida. Gabarito: certo!!

  • Internet da coisas: capacidade de um objeto se comunicar com outro, exemplo disso é: sensor do carro do banco de motorista, apitando para que coloque o cinto de segurança.

    Big date: é a capacidade de leitura de dados em grande volume, e tem como características os 5"v'', que são:

    Velocidade, variedade, volume, veracidade e valor.

    Bons estudos. Cabe frisar que são exemplos lúdicos para ajudar.

  • Gabarito: CERTO.

    As pessoas estão perdendo a noção das coisas!

    O comentário mais curtido da questão, não faz menção alguma sobre informática.

    Isso aqui não é instagram minha gente, parem de curtir qualquer coisa e vamos nos ater as informações relevantes.

    As curtidas nos comentários não te aprovam em concurso público!

    (Desculpem pelo desabafo).

  • Em 03/08/21 às 20:53, você respondeu a opção E. Você errou!

    Em 29/07/21 às 22:38, você respondeu a opção E. Você errou!

    Meu Deus do céu... que agoniaaaaa!

  • CERTO.

  • Causas ou características do BIG DATA

    1 Velocidade

    2 volume

    3 variedade

    EFEITOS DO BIG DATA "O RESULTADO DE TAMANHOS INVESTIMENTOS EM VELOCIDADE,

    VOLUME E VARIEDADE"

    4 VALOR

    5 VERACIDADE

    Ou seja tais empresas que investiram "FACEBOOK E GOOGLE"

    agregaram valor e veracidade, ou seja, são empresas que tem nome e confiança!

    SÃO OS 5 V

    OBS: A BANCA PODE COBRAR SEPARADOS NO ENUCIADO, OU PEDEM AS CAUSAS " VELOCIDADE, VOLUME E VARIEDADE" OU PEDEM OS EFEITOS" VALOR E

    VERACIDADE"

    O QUE NÃO PODE É MISTURAR CAUSAS COM EFEITOS!

    POR FIM, A QUESTÃO PODE AFIRMAR OS 5V.

    • Big Data é a análise e a interpretação de grandes volumes de dados
  • INTERNET DAS COISAS : designa uma rede de objetos físicos que são incorporados a sensores, softwares e outras tecnologias, com o objetivo de conectar e trocar dados com outros dispositivos e sistemas pela Internet, sem intervenção humana.

  • A internet das coisas veio para auxiliar em grandes demandas...

  • Internet das coisas (IoT)

    Trata-se do conceito que se refere à interconexão digital de objetos físicos cotidianos entre si e com usuários por meio de sensores ou softwares capazes de transmitir dados pela internet. Hoje até geladeira tá sendo conectada à internet.

    Big Data

    Big data são dados com maior variedade que chegam em volumes crescentes e com velocidade cada vez maior. Conheça os três V's do Big Data:

    1. Volume
    2. Velocidade
    3. Variedade

    A partir dos conceitos, vamos refletir.

    A internet das coisas é a capacidade de quase tudo estar conectado à internet como, por exemplo, uma câmera de segurança, televisões, videogames. Com esse monte de coisas conectadas à internet a quantidade e a complexidade dos dados são aumentadas através dessas novas formas e novas fontes de informações o que influencia diretamente nas características do Big Data. O volume de informações aumenta. Se o volume aumenta, necessariamente a velocidade com que essas informações são recebidas deve ser maior (imagina você ter que transferir 1GB de arquivo por um USB 2.0, vai demorar muito. Por isso eles criaram o USB 3.0). E por último, logicamente, se o volume de dados aumenta a variedade desses dados provavelmente será maior já que há câmeras de segurança compartilhando dados de imagens, videogames compartilhando dados de jogos e televisões compartilhando dados de streaming.

    Gabarito: CERTO

  • CORRETO!

    A Internet das Coisas (IoT - Internet of Things) é uma forma de operação de dispositivos autônomos que se comunicam entre si para a produção de dados, tomada de decisões e fornecimento de serviços para os usuários.

    Com o advento do IPv6, a quantidade de endereços saltou exponencialmente em relação ao IPv4, permitindo a conexão de bilhões de novos dispositivos à rede mundial de computadores.

    O grande volume de dados produzidos influencia diretamente o Big Data.

    O conceito de Big Data, ou popularmente "um grande volume de dados" possui características que são enumeradas por 3Vs, 5Vs ou mais.

    - Volume - grande quantidade de dados.

    - Velocidade - produzidos rapidamente por muitas fontes.

    - Variedade - com formatos e informações diferentes.

    Algumas literaturas consideram como 5Vs, acrescentando às características anteriores:

    - Veracidade - dados corretos obtidos do ambiente por sensores.

    - Valor - com significância e utilidade para o processamento.

  • A Internet das coisas (IoT) aumenta a quantidade e a complexidade dos dados por meio de novas formas e novas fontes de informações, influenciando diretamente em uma ou mais das características do big data, a exemplo de volume, velocidade e variedade.

    CERTO! PQ? O big data TEM EM SUA CARACTERISTIA O VOLUME DAS CONEXÕES CARREADA EM SI.

  • Quanto maior o crescimento da internet das coisas (IOT), necessariamente, os dados/informações irão aumentar, logo, é necessário uma forma de armazenamento grande para suportar essas informações, ou seja, BIGDATA, que se caracteriza pelo volume, veracidade, variedade, velocidade e valor.

  • Olá, colegas concurseiros!

    Há algum tempo venho utilizando os MAPAS MENTAIS PARA CARREIRAS POLICIAIS, e o resultado está sendo proveitoso, pois nosso cérebro tem mais facilidade em associar padrões, figuras e cores.

    Estou mais organizada e compreendendo maiores quantidades de informações;

    Serve tanto pra quem esta começando agora quanto pra quem já é avançado e só esta fazendo revisão.

     Baixe os 390 mapas mentais para carreiras policiais.

    Link: https://go.hotmart.com/N52896752Y

     Estude 13 mapas mentais por dia.

     Resolva 10 questões aqui no QC sobre o assunto de cada mapa mental.

    → Em 30 dias vc terá estudado os 390 mapas e resolvido aproximadamente de 4000 questões.

    Fiz esse procedimento e meu aproveitamento melhorou muito!

    P.s: gastei 192 horas pra concluir esse plano de estudo.

    Testem aí e me deem um feedback.

    Agora já para quem estuda estuda e estuda e sente que não consegui lembrar de nada a solução esta nos macetes e mnemônicos que são uma técnica de memorização de conceitos através de palavras  e imagens que é utilizada desde a Grécia antiga e que é pouco explorada por muitos estudantes mas é muito eficaz. Acesse o link abaixo e saiba mais sobre 200 macetes e mnemônicos.

    Copie e cole o Link no seu navegador:  https://go.hotmart.com/C56088960V

     

    FORÇA, GUERREIROS(AS)!! 


ID
5255236
Banca
CESPE / CEBRASPE
Órgão
Polícia Federal
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Acerca dos conceitos de mineração de dados, aprendizado de máquina e bigdata, julgue o próximo item.

Entropia da informação é uma medida de certeza de que o intervalo contém um parâmetro da população.

Alternativas
Comentários
  • ERRADO

    Entropia é uma medida de informações e incertezas

    _________________________________________________

    A entropia é o grau de casualidade, de indeterminação que algo possui. Ela está ligada à quantidade de informação. Quanto maior a informação, maior a desordem, maior a entropia. Quanto menor a informação, menor a escolha, menor a entropia.

    wiki

  • Gabarito: ERRADO

    ENTROPIA → Medida de confusão

    QUANTO MAIOR A ENTROPIA PIOR.

    Pense naquela pessoa chata que adora arrumar uma confusão sem motivo...

    Quando ela ENTRO no recinto vc PIA =x

    DICA:

    --- > Homeostase: autorregulação interna.

    --- >Heterostase: Regulação externa.

    --- > Entropia: deterioração.

    --- > Entropia negativa: Manutenção.

  • ERRADO

    1. O que é entropia? Entropia é um processo de desorganização natural das coisas. 
    2. A entropia negativa é a força que o sistema usa para combater a entropia.
    3.  quanto maior a entropia, maior será a desordem, maior será o desequilíbrio e o sistema não funcionará da forma correta  
    4. Já a homeostasia trata do grau de ordem ou do equilíbrio de um sistema e costuma ocorrer em sistemas abertos, isto é, aqueles que interagem com o ambiente externo.  

     Como foi cobrado:

    (CESPE / 2021 - PF - Escrivão) À medida que os sistemas sofrem mudanças, o ajustamento sistemático ocorre de forma contínua; dessas mudanças e dos ajustamentos decorrem fenômenos como, por exemplo, a entropia e a homeostasia.(c)

    (PF/18/ESCRIVÃO) Um sistema com entropia interna não funciona corretamente. (c)

    (CESPE - 2014 - PF- Agente) De acordo com a abordagem sistêmica da administração, as organizações, quando vistas como sistemas abertos, podem se adaptar ao ambiente em que estão inseridas, bem como influenciar fortemente a natureza desse  ambiente. (c)

     (Polícia Federal –2018) De acordo com a TGS, heterostase é a capacidade do sistema em voltar à sua situação de normalidade quando ocorre uma ação imprópria. (errada) é a homeostasia. 

  • ENTROPIA = DESORDEM

    Gab: ERRADO

  • GAB: ERRADO

    Entropia

    É definida como sendo uma forma de medir o grau médio de incerteza a respeito de fontes de informação, o que consequentemente permite a quantificação da informação presente que flui no sistema.

    Diante disso, o conceito de entropia se associa à ideia de que, quanto mais incerto é o resultado de um experimento aleatório, maior é a informação que se obtém ao observar a sua ocorrência. Todo sistema sofre deterioração.

  • Item ERRADO.

    Conforme anotações das aulas dos professores Rani Passos e Deodato Neto:

    Entropia - caos, desordem, desagregamento. Algo negativo, conforme o contexto.

    Sintropia - ordem, agregamento. Basicamente o contrário de Entropia. Também pode aparecer como Negentropia.

  • Gabarito: Errado

    Entropia é bagunça, é um processo de desorganização natural das coisas, é desordem. Muita entropia não ajuda a chegar a uma conclusão com base nos dados.

    É necessário diminuir a entropia para que os dados indiquem uma direção, um parâmetro, uma conclusão.

  • GABARITO: Errado

    A entropia é uma medida de desordem, da característica do sistema de perder sua capacidade de produzir entradas corretas de acordo com as entradas recebidas.

  • ERRADO

    ENTROPIA → Medida de confusão

    QUANTO MAIOR A ENTROPIA PIOR → Pense naquela pessoa chata que adora arrumar uma confusão sem motivo...

    Quando ela ENTRO no recinto vc PIA 

    Teoria Geral de Sistemas

    Entropia: tudo tende à desordem, à morte. 

    Entropia negativa: negentropia. 

    Equifinalidade: mesmo resultado final, independente do caminho. 

    Holismo: Só pode ser entendido em sua totalidade. Globalidade. 

    Sinergia: O todo é maior que a soma das partes. 

    Homeostase: autorregulação /equilíbrio; 

    Heteostase: vai de um estado de equilíbrio para outro; Morfogênese: auto modificação na estrutura.

    Fonte: P. Missão + Rani Passos   

     

    Não importa quão difícil seja, você só não pode desistir! Nenhuma tempestade dura para sempre!

    Bons estudos!!! ☠️ 

  • Big é vc?

  • Lembre-se sempre...

    ENTROPIA é a tendência de desordem (algo negativo).

    ENTROPIA NEGATIVA (Sintropia/Negentropia), é a força que o sistema usa para combater a entropia, ou seja, o inverso.

  • Entropia: é a tendência de desagregação, deterioração, desorganização, de um sistema conforme o uso.

  • Quando se referir a "entropia" lembre-se do seu guarda-roupas ou da sua mesa de estudos... sempre bagunçados.

    da mesma forma "homoeostase"

    homo = iguais = equulibrío.

    faço essas associações para me lembrar das questões!

  • ENTROPIA = desordem

  • Na verdade, a entropia é uma medida da desordem e uma característica do sistema de perder sua capacidade de produzir entradas corretas de acordo com as entradas recebidas. Isso ocorre conforme os sistemas vão perdendo sua capacidade de funcionar corretamente.

  • Entropia:

    ·          Tendencia a desagregar, deteriorar, desorganizar conforme uso.

    ·          Entropia negativa (sintropia): contrário da entropia

    tem uma comparação.... Entropia = Taz Mania (desordem) kkkkk

    Homeostase:

    ·          Manter equilíbrio no funcionamento.

    ·          Realização de variações para manter constância.

    ·          Heterostase: Desequilíbrio funcional

    Bons estudos, moçada!!!!

  • está mais para Intervalo de Confiança

  • entropia = incerteza

  • ENTROPIA = MEDIDA DE CONFUSÃO


ID
5255239
Banca
CESPE / CEBRASPE
Órgão
Polícia Federal
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Acerca dos conceitos de mineração de dados, aprendizado de máquina e bigdata, julgue o próximo item.  

As aplicações de bigdata caracterizam-se exclusivamente pelo grande volume de dados armazenados em tabelas relacionais. 

Alternativas
Comentários
  • ERRADO

    Não é exclusivamente pelo grande volume. Uma solução de Big Data é oferecer uma abordagem consistente no tratamento do constante crescimento e da complexidade dos dados.

  • ERRADO

    NÃO É EXCLUSIVAMENTE.

    Vejamos,

    Big Data é “definido genericamente como a captura, gerenciamento e a análise de dados que vão além dos dados tipicamente estruturados, que podem ser consultados e pesquisados através de bancos de dados relacionais. Frequentemente são dados obtidos de arquivos não estruturados como vídeo digital, imagens, dados de sensores, arquivos de logs...

    - Volume= grande quantidade de dados gerada a cada segundo. 

    - Velocidade= Refere-se à velocidade com que os dados são criados e tratados para atender à demanda.

    - Variedade= Significa que os dados de hoje aparecem em todos os tipos de formatos, como, por exemplo, arquivos de texto, e-mail, medidores e sensores de coleta de dados, vídeo, áudio, dados de ações...

    - Veracidade= A informação deve ser verdadeira. 

    - Valor = Não é toda a informação que está circulando que é relevante ou útil para os objetivos específicos de uma empresa. 

    (CESPE/2021/SEED-PR)Big data está ligado à captura e à análise de quantidades massivas de dados, por meio de sistemas de informação robustos. CERTA 

    CESPE / CEBRASPE - 2021 - TCE-RJ - Analista- Volume, variedade e visualização são as três características, conhecidas como 3 Vs, utilizadas para definir Big DataERRADA 

    Volume, Velocidade e Variedade 

    (CESPE – APF-2018) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO) 

    (CESPE – APF-2018)De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativo (CERTO) 

  • Gabarito: ERRADO

    O Big Data possui os famosos "5V's" :

    • V olume: Grande quantidade.
    • V ariedade: São variados.
    • V elocidade: São criados de uma forma extremamente rápida.
    • V alor: Devem possuir valor, ou seja, deve agregar conhecimento.
    • V eracidade: Devem ser verídicos, verdadeiros.

  • O "exclusivamente" matou a questão, visto que é notório no estudo do Big Data outros tipos de recursos de suma importância, por exemplo, os 5V's: volume, velocidade, variedade, veracidade e valor.

    GAB: ERRÔNEO

  • GAB: ERRADO

    As características mais importantes do Big Data são os 5Vs:

    • Volume
    • Velocidade
    • Variedade
    • Veracidade
    • Valor

    -------------------------------------------------------------------------------------------------------------------------------------------------------------------

    Algumas questões para melhor elucidar no discernimento.

    ANO: 2018 Banca: CESPE/CEBRASPE Órgão: Polícia Federal Prova: Papiloscopista

    De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativo (CERTO)

    ANO: 2016 Banca:SAF Órgão: ANAC Prova: Analista Big Data é:

    • a) volume + variedade + agilidade + efetividade, tudo agregando + valor + atualidade.
    • b) volume + oportunidade + segurança + veracidade, tudo agregando + valor.
    • c) dimensão + variedade + otimização + veracidade, tudo agregando + agilidade.
    • d) volume + variedade + velocidade + veracidade, tudo agregando + valor.
    • e) volume + disponibilidade + velocidade + portabilidade, tudo requerendo - valor

    ANO: 2018 Banca: IADES Órgão: APEX Brasil Prova: Analista

    Assinale a alternativa que apresenta o conceito de Big Data.

    • a) Conjuntos de dados de grande volume que se utilizam de ferramentas especiais de processamento, pesquisa e análise, e que podem ser aproveitados no tempo necessário, com precisão e grande velocidade.
    • b) São bancos de dados de fácil acesso e rápida velocidade, operados como computadores pessoais.
    • c) Manuseio de informações necessárias às empresas e aos negócios do mundo moderno, que podem ser armazenadas em computadores pessoais, utilizando-se a técnica de nuvem de dados.
    • d) São apenas grandes volumes de dados que precisam ainda ser mais bem aproveitados pelo mundo corporativo.
    • e) Refere-se a um grande número de computadores pessoais (PC) interligados entre si em uma grande rede de informação

    ANO: 2018 Banca: CESPE/CEBRASPE Órgão: Polícia Federal Prova: Agente de Polícia

    Julgue o item que segue, relativo a noções de mineração de dados, big data e aprendizado de máquina.

    Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO)

  • As aplicações de bigdata caracterizam-se EXCLUSIVAMENTE pelo grande volume de dados armazenados em TABELAS RELACIONAIS.  A questão possui dois erros: 1. As aplicações de bigdata NÃO caracterizam-se EXCLUSIVAMENTE pelo grande volume de dados armazenados, pois as bases dos princípios do Big Data são os 3V( volume, variedade, e velocidade). Portanto, é falso afirmar que se caracteriza exclusivamente pelo volume. 2. A questão afirma que esses volumes são em tabelas relacionais. O big data também trata volume de dados em outros tipo de tabelas(não relacionais, semi-relacionais, etc). Questão ERRADA.
  • Um Exclusivamente desses da uma paz pra marcar.

  • Não somente pelo grande volume de dados.

    5V's do BigData:

    Volume - Refere-se a quantidade dos dados;

    Variedade - Dados de vários lugares e formatos;

    Velocidade - Processamento dos dados deve ser ágil;

    Veracidade - A informação é verdadeira?

    Valor - Informação útil.

  • NÃO É EXCLUSIVAMENTE VOLUME. O Volume soma-se a outros 4 V's:

    Variedade, Velocidade, Valor, Veracidade.

  • O exclusivamente inválidou a questão;

    GABARITO: ERRADO

    MEU RESUMO:

    BIG DATA: O big data estuda como tratar, analisar obter informações da partir de conjuntos de dados grandes demais para serem analisados por sistemas tradicionais.

    ·Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise.

    Conceitos de BIG DATA:

     O primeiro conceito de big data é o dos 3Vs, velocidade, volume e variedade.

    Logo após veio o novo conceito dos 5Vs: velocidade, volume, variedade, valor e veracidade.

    Entendimento final de BIG DATA:

    É um conjunto de dados extremamente amplos que por isso necessita de ferramentas para comportar o volume de dados que são encontrados, extraídos, organizados e transformados em informações que possibilitam uma análise em tempo hábil.

    RESUMINDO: Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise.

  • Gabarito: Errado.

    O erro da questão é limitar as aplicações de big data apenas à quantidade de dados (volume). Quando na verdade, o big data é caracterizado pelo volume, velocidade, variedade, valor e veracidade dos dados.

    Ademais, no estudo e interpretação dos dados (big data anaytics), são considerados tanto dados estruturados como não-estruturados, o que significa que essa grande quantidade pode estar armazenada tanto em uma base de dados relacionais como em outras.

    __

    Bons estudos.

  • GABARITO: Errado

    Big data não é um conceito relacionado apenas ao volume, mas também a outros conceitos, como a variedade bem como à velocidade com que os dados são obtidos.

  • Big Data refere-se ao grande volume de dados, que se baseiam em (estruturados / não estruturados).

    Características importantes do Big Data são os 5V's:

    • Volume
    • Velocidade
    • Variedade
    • Veracidade
    • Valor

    (Lembre-se que há uma infinitude de V's)

  • ERRADO

    Não é exclusivamente, existem os 5V's:

    • Volume: grande quantidade de dados
    • Velocidade: para criar e processar dados
    • Variedade: dados retirados de diversas fontes
    • Veracidade: dados são de fontes fidedignas
    • Valor: dados que agregam valor a organização (qualidade do dado)

    Mnemônico que uso: VOVEVAVEVAL

  • estruturados e não estruturados !

    GAB: ERRADO

    para os não assinantes !

  • erro 1: a unica caracteristica do Big Data é Volume? Não. São 3 V's

    erro 2: Big Data utiliza tabelas relacionais/modelagem relacional? Até pode usar, mas, utilizar não é viável pelo grande volume de dados, então o mais indicado é Modelagem Dimensional (Banco de dados analiticos)

    BANCO DE DADOS TRANSACIONAIS

    -modelagem relacional

    -normalizados, baixa redundancia

    -sao mais eficientes para sistemas que processam uma grande quantidade de transações/ operaçoes básicas

    -dados de BD transacionais alimentam os BD analíticos

    BANCO DE DADOS ANALITICOS

    -modelagem dimensional

    -desnormalizados, alta redundancia

    -dados conceitualmente organizados e armazenados em cubos e hipercubos

    -são extremamente eficientes quando integrados a sistemas que geram relatórios consolidados de dados

    -DATA WAREHOUSES

  • Pessoal sai postando mnemônico de forma automática em todas as questões e esquece de explicar o erro da questão, e o erro da questão não tem nada a ver com nenhum dos 5 V's (mnemônico mais postado por aqui). O erro da questão está em dizer que as aplicações de Big Data utilizam armazenamento em tabelas relacionais. Tabelas relacionais são melhor aproveitadas quando os dados são estruturados, ou seja, não é o caso do Big Data, já que se gastaria muito tempo e energia estruturando os dados e 'relacionando-os', portanto as soluções de filtragem, refino, seleção, agrupamento e armazenamento de dados provenientes do Big Data são soluções voltadas para dados não estruturado sendo alocados em bancos de dados não relacionais, como por exemplo o modelo CHAVE-VALOR e outros No-SQL que permitem armazenamento de dados sem estrutura de classificação rígida.

    O mnemônico dos 5 V's é muito legal, e é bom sim decora-lo, mas ele não serve como padrão de resposta para todas as questões.

  • os dados são colocados em tabelas relacionais ? não sabia

  • existem os 5V's:

    • Volume: grande quantidade de dados
    • Velocidade: para criar e processar dados
    • Variedade: dados retirados de diversas fontes
    • Veracidade: dados são de fontes fidedignas
    • Valor: dados que agregam valor a organização (qualidade do dado)

  • As respostas mais curtidas não respondem a pergunta em nada kkkk, gado, controle sua libido!

    Big Data são geralmente relacionais, mas não exclusivamente

  • As aplicações de bigdata caracterizam-se exclusivamente pelo grande volume de dados armazenados em tabelas relacionais.

    O banco de dados relacionais tratam dos dados estruturados. O big data pega tudo estruturado, não estruturado...

  • GABARITO ERRADO!

    BIG DATA É:

    VOLUME

    VARIEDADE

    VELOCIDADE.

    Quando o Cespe fala a palavra "exclusivamente", na maioria das vezes a questão está errada.

  • existem os 5V's:

    • Volume: grande quantidade de dados
    • Velocidade: para criar e processar dados
    • Variedade: dados retirados de diversas fontes
    • Veracidade: dados são de fontes fidedignas
    • Valor: dados que agregam valor a organização (qualidade do dado)

  • NoSQL também

  • As aplicações de bigdata caracterizam-se exclusivamente pelo grande volume de dados armazenados em tabelas relacionais. 

  • EXCLUSIVAMENTE, não.

  • ERRADO

    Não é exclusivo... No Big Data temos também Velocidade, Variedade, Valor, Veracidade e também Volume


ID
5261986
Banca
CESPE / CEBRASPE
Órgão
SERPRO
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

    Dados ausentes são muito comuns em aplicações que envolvem preenchimentos de formulários. Para o seu tratamento estatístico, encontra-se, na literatura, uma taxonomia para o mecanismo gerador de dados ausentes que os classifica em tipos como MAR (missing at random), MCAR (missing completely at random) e MNAR (missing not at random).
Considerando essas informações, julgue os itens subsequentes, relativos ao tratamento de dados ausentes.  

Geralmente, os dados ausentes do tipo MNAR são ignoráveis por não haver relação entre o processo gerador de dados ausentes e os parâmetros que são objeto de estudo estatístico.

Alternativas
Comentários
  • Esse é o tipo mais geral e mais complexo. No modelo MNAR, a probabilidade é que os valores faltantes dependam não só dos dados observados assim como dos dados não observados. Não há como ignorar o mecanismo que levou os dados a estarem ausentes. Para esse tipo de dado, não podemos somente ignorar a situação, um tratamento precisa ser realizado.

  • Primeiro vamos as definições do tipo de Dados Ausentes:

      Missing completely at random (MCAR): Os dados são ditos do tipo MCAR quando “a probabilidade de estarem ausentes é independente de qualquer observação no dataset”. Ou seja, não conseguimos encontrar uma correlação entre as classes que possuem dados ausentes e as classes que não possuem dados ausentes. Para os dados do tipo MCAR, nós podemos simplesmente descartar as observações ausentes e trabalhar somente com as amostras completas.

             Missing at random (MAR): Há uma relação sistemática entre os dados ausentes e alguma informação coletada sobre os dados. Por exemplo, sabemos que os homens são mais propensos a responder perguntas sobre a sua idade e sobre o seu peso do que as mulheres. Portanto, em alguns datasets podemos encontrar uma relação entre os dados faltantes e a idade/sexo do entrevistado.

             Missing not at random (MNAR): Esse é o tipo mais geral e mais complexo. No modelo MNAR, a probabilidade é que os valores faltantes dependam não só dos dados observados assim como dos dados não observados. Não há como ignorar o mecanismo que levou os dados a estarem ausentes. Para esse tipo de dado,        não podemos somente ignorar a situação, um tratamento precisa ser realizado.

     Fonte: https://www.aprendadatascience.com/blog/tipos_missing_data

    Tendo isso em mente, vemos que a assertiva coloca a definição do MCAR no MNAR e por isso está ERRADA.

  • Faltando completamente ao acaso (MCAR):

    Nesse caso, o motivo da falta de dados não depende da variável a que pertence nem de outra variável do conjunto de dados. Nenhum recurso (coluna) do conjunto de dados é responsável por dados ausentes.

    A probabilidade de falta em uma variável é a mesma para todas as unidades.

    Considere um conjunto de dados contendo duas variáveis ​​(características ou colunas), a saber, x e y. 

    Suponha que haja valores ausentes em y . O valor ausente (y) não depende de x nem de y.

    Exemplo: Erros de entrada de dados ao inserir dados.

    Faltando aleatoriamente (MAR):

    Nesse caso, o motivo da falta de dados não depende de variáveis ​​cujo valor está faltando, mas sim de outras variáveis ​​do conjunto de dados.

    A probabilidade de falta de dados depende apenas da informação disponível.

    Considerando o conjunto de dados acima, o valor ausente (y) depende de x, mas não de y.

    Exemplo: os entrevistados na ocupação de serviços têm menos probabilidade de relatar renda.

    Faltando não ao acaso (MNAR):

    Nesse caso, o motivo do valor ausente depende da variável a que pertence.

    A probabilidade de falta na variável depende da informação que não foi registrada.

    O valor ausente (y) depende de y.

    Exemplo: respondentes com alta renda são menos propensos a relatar renda.

    fonte: https://medium.com/@codingpilot25/data-cleaning-types-of-missingness-40655a8b235e


ID
5262049
Banca
CESPE / CEBRASPE
Órgão
SERPRO
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Com relação aos fundamentos do big data, julgue os itens que se seguem.

No que se refere aos três Vs do big data, o termo volume refere-se a dados que, atualmente, não são estruturados nem armazenados em tabelas relacionais, o que torna sua análise mais complexa.

Alternativas
Comentários
  • Gabarito: ERRADO

    Big Data é “definido genericamente como a captura, gerenciamento e a análise de dados que vão além dos dados tipicamente estruturados, que podem ser consultados e pesquisados através de bancos de dados relacionais. Frequentemente são dados obtidos de arquivos não estruturados como vídeo digital, imagens, dados de sensores, arquivos de logs...

    O Big Data possui os famosos "5V's" :

    • V olume: Grande quantidade.
    • V ariedade: São variados.
    • V elocidade: São criados de uma forma extremamente rápida.
    • V alor: Devem possuir valor, ou seja, deve agregar conhecimento.
    • V eracidade: Devem ser verídicos, verdadeiros.

    (CESPE – APF-2018) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. (CERTO) 

    (CESPE - 2018 - PF) - De maneira geral, big data não se refere apenas aos dados, mas também às soluções tecnológicas criadas para lidar com dados em volume, variedade e velocidade significativos

    BONS ESTUDOS!!

  • Gab. (E)

    Big Data: (5V's)

    Volume: relacionado a grande quantidade de dados gerados;

    Variedade: as fontes de dados são muito variadas, o que aumenta a complexidade das análises;

    Velocidade: Devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as informações necessárias;

    Veracidade: A veracidade está ligada diretamente ao quanto uma informação é verdadeira.

    Valor: Este conceito está relacionado com o valor obtido desses dados, ou seja, com a “informação útil”.

  • A GALERA ESTÁ ATÉ CERTA NOS COMENTÁRIOS, MAS NÃO EXPLICAM ESPECIFICAMENTE A QUESTÃO, APENAS COPIAM E COLAM COMENTÁRIOS JÁ PRONTOS.

    No que se refere aos três Vs do big data, o termo volume refere-se a dados que, atualmente, não são estruturados nem armazenados em tabelas relacionais, o que torna sua análise mais complexa.

    VAMOS LÁ!!! No FACEBOOK , por exemplo, são 10 bilhões de mensagens, 4,5 bilhões de curtidas e 350 milhões de fotos compartilhadas todos os dias. IMAGINE ESSE TANTO DE DADOS SEM UM ARMAZENAMENTO E SEM UMA ESTRUTURAÇÃO, A REDE SOCIAL ÍA CAIR KKKK, POR ISSO, A tecnologia do Big Data serve exatamente para lidar com esse volume de dados, guardando-os em diferentes localidades e juntando-os através de software, PORTANTO NÃO SE REFERE A APENAS DADOS NÃO ESTRUTURADOS, POIS COM O EXEMPLO VIMOS QUE TAMBÉM PODE INDICAR DADOS ESTRUTURADOS.

  • ERRADA

     Volume= grande quantidade de dados gerada a cada segundo.

    O conceito de volume no Big Data é melhor evidenciado pelos fatos do cotidiano: diariamente, o volume de troca de e-mails, transações bancárias, interações em redes sociais, registro de chamadas e tráfego de dados em linhas telefônicas. Todos esses servem de ponto de partida para a compreensão do volume de dados presentes no mundo atualmente.

    Como foi cobrado:

    CESPE / CEBRASPE - 2021 - TCE-RJ - Analista - Em Big Data, a premissa volume refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.(E) é variedade.

    CESPE - 2019 - TCE-RO- O volume de dados é uma característica importante de Big Data.(C)

  • Ao meu ver, o erro da questão está em restringir o Volume do Big Data aos dados não estruturados. É importante notar que, para além dos dados não estruturados, a tecnologia Big Data se refere também aos dados estruturados e semiestruturados.

    Importante: "não são estruturados nem armazenados em tabelas relacionais" = dado NÃO ESTRUTURADO (o dado que pode ser disposto em tabelas relacionais é um dado ESTRUTURADO).

    Nesse sentido:

    • CESPE/2017/TCE-PE/Q840843: Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. Resposta: CERTO

    • CESPE/2021/SEED-PR/Q1696855: Assinale a opção que apresenta a denominação de um conjunto de dados que contém tipos de dados não estruturados e semiestruturados, como texto, áudio e vídeo, e que exige um pré-processamento adicional para obter significado e dar suporte a metadados, com o objetivo de que estes sejam usados para resolver problemas de negócios. Resposta: Letra (E) Big Data.

    Para ter certeza, só com o comentário do professor mesmo!

    E ratifico a fala do Natanael Mendes Alves: A GALERA ESTÁ ATÉ CERTA NOS COMENTÁRIOS, MAS NÃO EXPLICAM ESPECIFICAMENTE A QUESTÃO, APENAS COPIAM E COLAM COMENTÁRIOS JÁ PRONTOS.

    Bons Estudos!

  • Isso é Variedade. E não Volume.

  • A questão descreve um aspecto da variedade dos dados, não do volume.

    Claro que o volume de dados a ser tratado também torna a análise mais complexa, mas o fato de os dados serem não estruturados relaciona-se muito mais com a variedade.

  • com todo respeito aos colegas, mas isso é variedade e não volume

    Provas: FCC - 2018 - TCE-RS - Auditor Público Externo - Administração Pública ou de Empresas 

    Um sistema de Big Data costuma ser caracterizado pelos chamados 3 Vs, ou seja, volume, variedade e velocidade. Por variedade entende-se que

    (A)há um grande número de tipos de dados suportados pelo sistema.

    Prova: INSTITUTO AOCP - 2018 - PRODEB - Especialista de TIC - B.I

     Referente ao Big Data, é correto afirmar que o termo variedade refere-se

    (A) a um conjunto de dados mais diversos, incluindo dados estruturados, semiestruturados e não estruturados. É heterogêneo e vem em muitos formatos, incluindo texto, documento, imagem, vídeo e outros.

    Órgão: DPE-RS Prova: FCC - 2017 - DPE-RS - Analista - Banco de Dados

    Os sistemas de Big Data costumam ser caracterizados pelos chamados 3 Vs, sendo que o V de

    (E) Variedade corresponde ao grande número de tipos ou formas de dados.

  • ERRADA

    •  Volume= grande quantidade de dados gerada a cada segundo.
    • Variedade corresponde ao grande número de tipos ou formas de dados.

    O conceito de volume no Big Data é melhor evidenciado pelos fatos do cotidiano: diariamente, o volume de troca de e-mails, transações bancárias, interações em redes sociais, registro de chamadas e tráfego de dados em linhas telefônicas. Todos esses servem de ponto de partida para a compreensão do volume de dados presentes no mundo atualmente.

    Como foi cobrado:

    CESPE / CEBRASPE - 2021 - TCE-RJ - Analista - Em Big Data, a premissa volume refere-se à capacidade de processar, em um ambiente computacional, diferentes tipos e formatos de dados, como fotos, vídeos e geolocalização.(E) é variedade.

    CESPE - 2019 - TCE-RO- O volume de dados é uma característica importante de Big Data.(C)

  • Diferentemente do passado em que a maior parte dos dados era estruturado, hoje percebemos que a maior parte dos dados são não estruturados porém a questão excluiu dados estruturados como os relacionais que também fazem parte do escopo.

  • ERRADO

    No que se refere aos três Vs do big data (5 Vs: Volume, Variedade, Valor, Veracidade, Velocidade), o termo VARIEDADE refere-se a dados que, atualmente, não são estruturados nem armazenados em tabelas relacionais, o que torna sua análise mais complexa.


ID
5262052
Banca
CESPE / CEBRASPE
Órgão
SERPRO
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Com relação aos fundamentos do big data, julgue os itens que se seguem.

Big data caracteriza-se, principalmente, por volume, variedade e velocidade, o que se justifica devido ao fato de os dados serem provenientes de sistemas estruturados, que são maioria, e de sistemas não estruturados, os quais, embora ainda sejam minoria, vêm, ao longo dos anos, crescendo consideravelmente.

Alternativas
Comentários
  • Gabarito: ERRADO

    Os dados não estruturados são abundantes na internet e nas organizações, sendo a maior parte dos dados (cerca de 90%) no ambiente corporativo

    Dados estruturados: são aqueles organizados e representados com uma estrutura rígida (blocos semânticos - relações), a qual foi previamente planejada para armazená-los. Ex.: banco de dados com tabelas e suas respectivas linhas e colunas; planilhas de Excel.

    Dados não-estruturados: possuem uma estrutura totalmente inversa dos dados estruturados, sendo flexíveis e dinâmicos ou, até mesmo, sem qualquer estrutura. É o tipo de dado mais abundante na atualidade. Ex.: dados de redes sociais (textos, imagens e vídeos), arquivos de texto (word, bloco de notas, pdf).

    Dados semiestruturados: ou seja, não possuem estrutura totalmente rígida nem estrutura totalmente flexível, sendo uma representação heterogênea. Ex.: arquivo em XML, RDF, OWL, HTML

  • ERRADO

    Dados NÃO ESTRUTURADOS SÃO A MAIORIA ..

    1. Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados ,estruturados e não estruturados,, permitindo alta velocidade de captura, descoberta e análise.
    2. São dados obtidos de arquivos não estruturados como: vídeo digital, imagens, dados de sensores, arquivos de logs e de qualquer tipo de dados não contidos em registros típicos com campos que podem ser pesquisados.
    • Volume= grande quantidade de dados gerada a cada segundo. 
    • Velocidade= Refere-se à velocidade com que os dados são criados e tratados para atender à demanda.
    • Variedade= Significa que os dados de hoje aparecem em todos os tipos de formatos, como, por exemplo, arquivos de texto, e-mail, medidores e sensores de coleta de dados, vídeo, áudio, dados de ações do mercado ou transações financeiras. Trata dos diferentes tipos de dados (estruturados e não-estruturados) advindos de fontes diversas. 
    • Veracidade= A informação deve ser verdadeira. 
    • Valor = definir a abordagem que será feita da massa de dados que circula.

    (CESPE/2021/SEED-PR)Big data está ligado à captura e à análise de quantidades massivas de dados, por meio de sistemas de informação robustos. CERTA 

    (CESPE-2017) Além de estar relacionado à grande quantidade de informações a serem analisadas, o Big Data considera o volume, a velocidade e a variedade dos dados estruturados — dos quais se conhece a estrutura de armazenamento — bem como dos não estruturados, como imagens, vídeos, áudios e documentos. CERTA

    (CESPE – Agente de Polícia Federal 2018) Big data refere-se a uma nova geração de tecnologias e arquiteturas projetadas para processar volumes muito grandes e com grande variedade de dados, permitindo alta velocidade de captura, descoberta e análise. CERTA

  • Um exemplo simples de dados não estruturados são os dados de redes sociais. Esse é um típico exemplo, pelo grande número de textos, imagens, vídeos e diversos outros que são criados diariamente a partir do uso das tecnologias.

    A questão peca em dizer:

    e de sistemas não estruturados, os quais, embora ainda sejam minoria, <<<<

    Pelo contrario dados não estruturados são de grande maioria, vejamos o youtube, facebook e Instagram.

    Empresas utilizam de grande banco de dados não estruturados para analise comportamental, o que se pesquisa, o que se posta e o que é mais curtido é desejado, para aplicar estratégias de vendas, marketing é negócio.

  • Big data caracteriza-se, principalmente, por volume, variedade e velocidade, o que se justifica devido ao fato de os dados serem provenientes de sistemas estruturados, que são maioria, e de sistemas não estruturados, os quais, embora ainda sejam minoria, vêm, ao longo dos anos, crescendo consideravelmente.

    dados ESTRUTURADOS = minoria

    dados NÃO ESTRUTURADOS = maioria

  • TIPOS DE DADOS PRESENTES NO BIG DATA

    DADOS ESTRUTURADOS: 20%

    ·          Mesma estrutura de representação, descrições e atributos, previamente projetados. Organizados e gravados em banco de dados. organizados em blocos semânticos (blocos do mesmo significado).

    DADOS SEMIESTRUTURADOS:

    ·          Geralmente não mantidos em banco de dados. possuem organização bastante heterogênea. menos rígidos que os estruturados quanto ao valor a ser manipulado. Ex XML, OWL etc.

    DADOS NÃO-ESTRUTURADOS: 80%

    Não possuem estrutura definida. EX: textos, vídeos, imagens. não possuem descrição para sua estrutura nem mesmo implicitamente

    GAB: ERRADO

    Os Dados não Estruturados representam a maioria dos dados no Big Data

  • PQP esses CONTROL C + V não ajudam em nada...

    Quando sei a resposta, procuro ajudar mais objetivamente possível !!!

  • ERRADO

    Big data caracteriza-se, principalmente, por volume, variedade e velocidade (também por VALOR e VERACIDADE), o que se justifica devido ao fato de os dados serem provenientes de sistemas NÃO estruturados, que são maioria, e de sistemas --- estruturados, os quais, embora ainda sejam minoria, vêm, ao longo dos anos, crescendo consideravelmente.

  • Big Data / BanDo de Dados ... rsrs / Maioria NÃO estruturados


ID
5262109
Banca
CESPE / CEBRASPE
Órgão
SERPRO
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o próximo item, relativo à tecnologia de big data e ao Hadoop.

Uma das principais características de big data é que seu custo de armazenamento de dados é relativamente baixo se comparado a um data warehouse.

Alternativas
Comentários
  • Gabarito: CERTO

    Data warehouse é uma arquitetura, um modelo.. simplesmente um depósito de dados "mais específico". Ele em si não analisa nada. Ele funciona da seguinte forma:

    → Pega um monte de dados de tudo que é canto

    → Passa por uma espécie de filtro chamado ETL

    → Deposita os dados em DWarehouse

    → Com esses dados mais específicos, entra o processo de datamining e OLAP para minerar.

    BIG DATA

    ☑ Grande banco de dados com custos mais baixos

    ☑ Engloba todos os tipos de dados.

    ☑ Dados estruturados ou não estruturados.

    ☑ Para melhor proveito, usa-se Data Mining e Data Warehouse.

    ☑ Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> São variados.

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

  • Gabarito: Certo

    Data Warehouse

    É um depósito de dados digitais que serve para armazenar informações detalhadas relativamente a uma empresa, criando e organizando relatórios através de históricos que são depois usados pela empresa para ajudar a tomar decisões importantes com base nos fatos apresentados.

    É um tipo de sistema projetado para ativar e fornecer suporte às atividades de business intelligence (BI), especialmente a análise avançada.

    Principais vantagens do Data Warehouse:

    • Simplicidade;
    • Qualidade de dados;
    • Acesso rápido;
    • Facilidade de uso;
    • Separa as operações de decisão das operações de produção;
    • Vantagem competitiva;
    • Custo de operação;
    • Administração do fluxo da informação;
    • Habilita o processo paralelo;
    • Infra-estrutura computacional;
    • Valores quantitativos e segurança.

    Desvantagens:

    • Complexidade de desenvolvimento;
    • Tempo de desenvolvimento;
    • Alto custo de desenvolvimento; (questão)
    • Administração e treinamento.

  • A questão fala do custo de armazenamento e não desenvolvimento. O gabarito está errado.

    Dados de big data ocupam muito mais espaço que data warehouses.

  • Se for parar pra pensar o dw precisa processar os dados para armazenar, já o big data por armazena em qualquer BD a depender dos dados brutos coletados na sua forma original

  • O big data não requer técnicas de gerenciamento eficientes em comparação ao data warehouse. O data warehouse requer técnicas de gerenciamento mais eficientes, pois os dados são coletados de diferentes departamentos da empresa. Ou seja, o warehouse é mais completo e melhor para a empresa, por isso seu custo é mais alto.

  • Os benefícios de um data warehouse incluem o seguinte:

    • Tomada de decisão adequada
    • Dados consolidados de várias fontes
    • Análise de dados históricos
    • Qualidade, consistência e precisão de dados
    • Separação do processamento analítico dos bancos de dados transacionais, o que melhora o desempenho dos dois sistemas

  • custo de armazenamento é diferente de custo de desenvolvimento....

    um DW é menor q um deposito de big data

  • Meu raciocínio foi de que um DW armazena dados históricos, portanto ele terá vários snapshots "do mesmo dado". Logo ele armazena mais coisas e o custo de armazenamento fica mais caro.

  • A pergunta é sobre custo de ARMAZENAMENTO, não custo de DESENVOLVIMENTO, mesmo assim a pergunta não faz sentido. Big data NÃO é armazenamento de dados é o conjunto de tecnologias e arquiteturas projetadas para processar volumes muito grandes e grande variedade de dados, estruturados e não estruturados, permitindo a captura, descoberta e análise.

    O data warehouse é um dos itens de big data e este sim armazena dados.

    Essa questão deveria ser anulada.


ID
5262112
Banca
CESPE / CEBRASPE
Órgão
SERPRO
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o próximo item, relativo à tecnologia de big data e ao Hadoop.

Apesar de ser uma tecnologia de código aberto disponibilizada pela ASF (Apache Software Foundation), o Hadoop também é oferecido por distribuidores comerciais, de maneira que fornecedores oferecem distribuições específicas que incluem não só ferramentas administrativas adicionais, mas também suporte técnico.

Alternativas
Comentários
  • Perfeito! Isso é bastante comum no mundo da tecnologia da informação. A Apache Software Foundation (ASF) é uma organização sem fins lucrativos criada para suportar projetos de código aberto. O Hadoop é oferecido por ela, mas também pode ser distribuída por outros fornecedores comerciais que incluem também ferramentas administrativas – além de suporte técnico.

    Fonte: Diego Carvalho - Estratégia Concursos

    Gabarito: Certo

  • E o mesmo que ocorre com o linux.


ID
5262163
Banca
CESPE / CEBRASPE
Órgão
SERPRO
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Julgue o item seguinte, referente a conceitos e especificidades de MDM (master data management).

A grande diferença entre algoritmos fuzzy matching e stemming reside no fato de que, enquanto o primeiro combina palavras com a mesma raiz linguística, o segundo trabalha com semelhanças de ortografia.

Alternativas
Comentários
  • inverteu


ID
5474695
Banca
CESGRANRIO
Órgão
Banco do Brasil
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Na etapa de preparação de dados em um ambiente de Big Data, pode ocorrer o aparecimento de dados ruidosos, que são dados fora de sentido no ambiente do Big Data e que não podem ser interpretados pelo sistema. Uma forma de reduzir esse efeito, e até eliminá-lo, é utilizar um método de suavização de dados, que minimiza os efeitos causados pelos dados ruidosos.

Esse método consiste em

Alternativas
Comentários
    • Método de Binning: É um processo de suavização de dados, usado para minimizar os efeitos de pequenos erros de observação. Os valores dos dados originais são divididos em pequenos intervalos conhecidos como compartimentos e, em seguida, são substituídos por um valor geral calculado para esse compartimento. Pode-se substituir todos os dados em um segmento por seus valores médios ou limites.

  • GAB. C

    dividir os valores dos dados originais em pequenos intervalos, denominados compartimentos, e, em seguida, substituí-los por um valor geral, ou genérico, calculado para cada compartimento específico.

  • >>>Introdução<<<

    • Para tratar dados ruidosos, podemos, por assim dizer, flexibilizá-los, ou seja, suavizá-los. Existem técnicas que fazem isso e elas são: Método de Binning (divide os dados, fragmentando-os e substituem esses dados (seja em valores médios, seja por um valor calculado).. Regressão (uma função matemática que retorna valores reais), Agrupamento (junta dados semelhantes em um cluster)

    >>>Vamos à questão<<<

    • a) agrupar dados semelhantes em clusters, verificar os dados que se apresentam como ruidosos e não os inserir no ambiente de Big Data, substituindo cada um desses dados ruidosos pelo valor NULL. Galera, pensem que os dados agrupados e um deles está fora do grupo – quem nunca viu isso na escola, ner ☹ - em bigdata são chamados de outilers (exceção). Esses dados, podem ser tratados ou não. Logo, afirmar que esses dados forem chamados de “NULL” é muito restritivo e por isso incorreto.

    • b) o cubo OLAP não é usado para a limpeza de dados, mas sim para realizar cruzamentos e análises de informações em tempo real sob diversas perspectivas com o intuito de auxiliar na tomada de decisões. INCORRETO.

    • c) nosso gabarito, já comentado na introdução e complementado pelos colegas

    • d) Vamos entender o que é fusão de dados primeiro: no geral, significa obter dados combinados sobre um sobre um único assunto e combiná-los para análise central. Agora, reflita: será que fundir dados ruidosos ajudará ou atrapalhará nos relatórios?????? INCORRETO.

    • e) Para realizar a mineração de dados, é preciso que se passe por etapas. A etapa de mineração é essencial do processo consistindo na aplicação de técnicas inteligentes a fim de se extrair os padrões de interesse (Data Mining, por exemplo). Como diz um pagode: “aí é que mora o perigo”. Por quê? Essa é a última etapa. Lembrando que o comando da questão quer a limpeza (etapa onde são eliminados ruídos e dados inconsistentes).

    >>>Indo mais fundo<<<

    • É sempre importante frisar que para que os dados sejam bem-minerados, é bom que se passe pelos seguintes passos: limpeza, integração (DW), selecionar (usuário define o que é um bom dado ou não), transformar (mudar os dados para um algoritmo, geralmente agregando-os) e por fim minerar (explorar os dados tops).

    >>>Fontes: <<<

    • PDF estratégia concursos do Thiago Cavalcanti
    • https://pt.theastrologypage.com/data-fusion

    Em frente e enfrente


ID
5474725
Banca
CESGRANRIO
Órgão
Banco do Brasil
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Uma empresa precisa implementar um sistema Big Data para controlar a movimentação dos produtos que a empresa oferece. Esse sistema precisa estar com a configuração de dados como sendo um fato, que seria um evento de ocorrência, como, por exemplo: as compras de um determinado insumo, em um determinado fornecedor e em um determinado instante.

Para tal finalidade, esse sistema a ser implementado deverá estar organizado segundo a configuração de 

Alternativas
Comentários
  • O cubo Olap é multidimensional, ou seja, posso olhar de diferentes perspectivas (cada face do cubo é uma visão). Como assim, Fabiano? Para explicar melhor irei contrastar. Em um sistema de transação (OLTP), eu sei quantos cadernos foram vendidos (dimensão produto). Com o OLAP eu uso as dimensões ( dimensão tempo (data), dimensão produto (insumo), e dimensão geográfica (cidade, estado) e outras) e a partir daí estabeleço relações analíticas do negócio, como por exemplo: nos meses de agosto dos anos de 2019,2020,2021 e 2022 quais foram os cadernos mais vendidos para meninas com a Gravura da Barbie Girl? Veja no comando da questão que diferentes dados foram cruzados: “determinado insumo (matéria prima), em um determinado fornecedor e em um determinado instante”. Logo essa multidimensionalidade em Big Data por ser oferecida pelo cubo Olap

    GABARITO - A

    Em frente e enfrente.

  • Cubo: Uma estrutura de dados que agrega as medidas pelos níveis e hierarquias de cada uma das dimensões. Os cubos combinam várias dimensões (como hora, geografia e linhas de produtos) com dados resumidos (como os números de vendas ou de registros).


ID
5493640
Banca
CESPE / CEBRASPE
Órgão
SEFAZ-CE
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Em relação a big data e analytics, julgue o próximo item. 

Um dos três Vs de big data refere-se à variedade, que está relacionada a métodos para identificar se um conjunto de dados pode ser considerado big data

Alternativas
Comentários
  • Gabarito: ERRADO

    A variedade está relacionado com os TIPOS DE DADOS. Não há uma maneira específica para identificar se um conjunto de dados é considerado big data, já q há toda uma análise complexa a respeito dos V`s p se chegar a essa conclusão.

    Complementando:

    ☛ Os dados possuem "5V's":

    Volume -> Grande quantidade.

    Variedade -> Dados de várias fontes

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

  • Variedade está ligada ao tipo dos dados, é não aos métodos.

  • SÃO "5V's":

    Volume -> Grande quantidade.

    Variedade -> Dados de várias fontes

    Velocidade -> São criados de uma forma extremamente rápida.

    Valor -> Devem possuir valor, ou seja, deve agregar conhecimento.

    Veracidade -> Devem ser verídicos, verdadeiros.

  • Possuem 5V's:

    1. Volume: Grande quantidade
    2. Variedade: São variados.
    3. Velocidade: São criados de uma forma extremamente rápida.
    4. Valor: Devem possuir valor, ou seja, devem agregar conhecimento.
    5. Veracidade: Devem ser verídicos, verdadeiros.
  • Basicamente colegas, a variedade de dados está relacionado a dados estruturados ou não-estruturados os quais são obtidos de diferentes fontes !

  • Gabarito:ERRADO

    Variedade: O volume é apenas o começo dos desafios dessa nova tecnologia, se temos um volume enorme de dados, também obtemos a variedade dos mesmos. Podemos observar a variedade de dados em e-mails, redes sociais, fotografias, áudios, telefones e cartões de crédito. (McAffe et al, 2012).

    O Big Data escalona a variedade de informações das seguintes formas (Jewell, Dave et al):

    • Dados estruturados
    • Dados semi-estruturados
    • Dados não estruturados
  • Macete.

    Quando você chega felizão na casa dos seus avós você fala o que?

    "VeVa VeVa Vó"

    É ruim, eu sei, mas ajuda.

  • Se eu quiser achar o contrário cespe q se lasque pra me entender

  • "métodos para identificar se um conjunto de dados pode ser considerado"

    = VERACIDADE

  • Possuem 5V's:

    1. Volume: Grande quantidade
    2. Variedade: São variados.
    3. Velocidade: São criados de uma forma extremamente rápida.
    4. Valor: Devem possuir valor, ou seja, devem agregar conhecimento.
    5. Veracidade: Devem ser verídicos, verdadeiros.


ID
5590516
Banca
CESPE / CEBRASPE
Órgão
Prefeitura de Aracaju - SE
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Big data ajudou a sedimentar o cargo de cientista de dados. Entre as funções desse cargo inclui-se 

Alternativas
Comentários
  • Vou explicar o meu raciocínio por trás das alternativas.

    • a) modelagem estruturada = mais relacionado ao BI - Data Warehouse
    • b) gabarito = grande diferencial do Big data com o Bi que é pegar dados não estruturados e conseguir trabalhar com eles
    • c) O DW lida com o armazenamento histórico dos dados
    • d) Banco de dados organizado em tabelas (relações). Quem faz isso é o DBA
    • e) Envolve ferramenta de análise de dados, como por exemplo OLTP (dia a dia) OLAP (dados analíticos)

    Qualquer erro, podem me chamar no pv

    Em frente e enfrente


ID
5594995
Banca
CESPE / CEBRASPE
Órgão
Prefeitura de Aracaju - SE
Ano
2021
Provas
Disciplina
Banco de Dados
Assuntos

Big data ajudou a sedimentar o cargo de cientista de dados.

Entre as funções desse cargo inclui-se

Alternativas
Comentários
  • Os cientistas de dados não estavam sob muitos radares há uma década, mas sua popularidade repentina reflete como as empresas pensam hoje sobre big data. Essa massa desajeitada de informações não-estruturadas não pode mais ser ignorada e esquecida.

    Funções típicas dos cientistas de dados:

    • Coletar grandes quantidades de dados não-estruturados e transformá-los em um formato mais utilizável;

    Fonte:sas.com

    Logo, gabarito C.