SóProvas


ID
4947397
Banca
CESPE / CEBRASPE
Órgão
TCE-AC
Ano
2006
Provas
Disciplina
Noções de Informática
Assuntos

Considerando a possibilidade de busca e indexação de arquivos em uma rede local, de maneira similar ao serviço disponibilizado pelo Google (www.google.com), julgue o item a seguir.


Sistemas de robôs (robots) podem fazer a busca para a indexação de documentos na Internet ou na intranet.

Alternativas
Comentários
  • Gab. Certo. Esses softwares navegam de página em página por meio de links que encontram em busca de novas webpages ou conteúdos atualizados. Todos eles serão adicionados ao índice do google, um processo chamado de indexação.
  • Assertiva C

    Sistemas de robôs (robots) podem fazer a busca para a indexação de documentos na Internet ou na intranet.

    Ex.

    "BBB "Votação

  • Web crawler, bot ou web spider é um algoritmo usado pelos buscadores para encontrar, ler e indexar páginas de um site. É como um robô que captura informações de cada um dos links que encontra pela frente, cadastra e compreende o que é mais relevante.
  • CORRETO

    O Google utiliza softwares conhecidos como Rastreadores da Web (Robôs, Spiders ou Crawlers) para detectar ao páginas disponíveis ao público, seja na internet ou intranet.

  • cara, isso é muito louco, cada coisa surpreendente na Informática.
  • PF 2018

    Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.(E)

  • Os motores de busca funcionam, basicamente, em três etapas: 

    1)CRAWLING: Primeiramente, os buscadores rastreiam os conteúdos da web. Eles seguem os caminhos que os links apontam, em busca de novas páginas e atualizações. (Quem faz isso são os robôs ou spiders)

     

    2)INDEXAÇÃO: Na sequência, as páginas rastreadas são indexadas. Ou seja,elas vão para o índice do buscador, que funciona como uma grande biblioteca de conteúdos da web. 

    3)RANKEAMENTO: Acontece toda vez que um usuário faz uma pesquisa, a classificação então é definida pela melhor correspondência de palavra chave, autoridade do domínio, relevância dos links, conteúdo original e de qualidade, e muitos outros fatores existentes (existem + de 150 fatores) 

    obs: Crawling e Indexação acontecem a todo momento 

    Fonte: Colegas do QC

  • NA INTRANET??

  • CORRETO

    Google utiliza softwares conhecidos como Rastreadores da Web (Robôs, Spiders ou Crawlers) para detectar ao páginas disponíveis ao público, seja na internet ou intranet.

  • indexação é a ação ou efeito de descrever/ identificar um documento de acordo com o seu assunto, e tem o objetivo de deixa-los com uma referência para que a recuperação da informação em catálogos e sistemas seja mais rápida e prática.

  • Resposta:Errado

    -----------------------------

    #Crawler,Spider,Bot:

    • Programa que navega na internet,localizando e varrendo sites em busca de dados para compor a pesquisa.

    #Indexador:

    • Coloca o índice por ordem de relevância/data/tipo de arquivo/Preferências.

    -----------------------------

  • cadê o Nishimura hein
  • Questão parecida caiu na PF/18.

  • Uma vez li um comentário dizendo que quem mantém esse site são os ASSINANTES. Eu pude comprovar isso.

    Já faz um tempo que solicitei comentário para uma questão e até hoje não recebi resposta.

    NA PLATAFORMA CONCORRÊNTE RECEBI RESPOSTA DE UMA PERGUNTA EM MENOS DE 24H.

    ALGUMA COISA DE ERRADA NÃO ESTÁ CERTA!

  • GAB. CERTO

    são feitos mesmo por robôs.

    Imagina você criando uma pagina na internet sobre determinado tema, e em seguida pesquisa-lo no google sobre esse tema, então a sua pagina ainda não vai está vinculada, pois O ROBÔ DO GOOGLE ainda não fez o CRAWLING( que é uma varredura para buscar novas paginas e vincula-las a seus temas)

    é impensável uma pessoa fazer esse trabalho!

  • indexador > máquina ou conjunto de máquinas, encarregados de processar dados recolhidos pelos robots. CERTO.
  • Lembrem desse bizu: ROBÔS PODEM TUDO NA INTERNET

    #PMTO2021

  • MOTORES DE BUSCA

    Também chamado de ferramenta de busca ou buscador, é um programa desenhado para procurar palavras-chave fornecidas pelo utilizador em documentos e bases de dados.

    [...]

    ☛ Como funcionam?

    Os motores de busca funcionam, basicamente, em três etapas:

    1} CRAWLING: Primeiramente, os buscadores rastreiam os conteúdos da web.

    • Eles seguem os caminhos que os links apontam, em busca de novas páginas e atualizações;
    • Quem faz isso são os robôs ou spiders.

    Portanto, nas ferramentas de busca, o crawling é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    2} INDEXAÇÃO: Na sequência, as páginas rastreadas são indexadas.

    • Ou seja, elas vão para o índice do buscador, que funciona como uma grande biblioteca de conteúdos da web.

    3} RANKEAMENTO: Acontece toda vez que um usuário faz uma pesquisa.

    • A classificação é definida pela melhor correspondência de palavra chave, autoridade do domínio, relevância dos links, conteúdo original e de qualidade, e muitos outros fatores existentes (existem + de 150 fatores)

    [...]

    ORDENAMENTO DE LINKS

    ➥ PageRank --> Sistema que se baseia em algoritmos que avaliam a relevância dos links.

    [...]

    ____________

    Fontes: Wikipédia; Questões da CESPE; Colegas do QC.

  • Acertei porque lembrei daqueles sites que pedem pra você marca uma caixinha "NÃO SOU ROBÔ".

  • Mermão o que é os robots NÃO PODEM fazer ????? hehehehehehe

    precisa nem saber afundo do assunto

  • CERTO

    1) CRAWLER (Robôs): Primeiramente, os buscadores rastreiam os conteúdos da web. Eles seguem os caminhos que os links apontam, em busca de novas páginas e atualizações. (Quem faz isso são os robôs ou spiders)

    o GOOGLE possui seu próprio "robô" chamado Googlebot.

    2) INDEXAÇÃO: Na sequência, as páginas rastreadas são indexadas. Ou seja, elas vão para o índice do buscador, que funciona como uma grande biblioteca de conteúdos da web.

    3) RANKEAMENTOAcontece toda vez que um usuário faz uma pesquisa, a classificação então é definida pela melhor correspondência de palavra chave, autoridade do domínio, relevância dos links, conteúdo original e de qualidade, e muitos outros fatores existentes (existem + de 150 fatores) 

    obs: Crawling e Indexação acontecem a todo momento