SóProvas


ID
2799922
Banca
CESPE / CEBRASPE
Órgão
Polícia Federal
Ano
2018
Provas
Disciplina
Noções de Informática
Assuntos

A respeito da utilização de tecnologias, ferramentas, aplicativos e procedimentos associados a Internet/intranet, julgue o item seguinte.

Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

Alternativas
Comentários
  • Pelas minhas buscas, esse é o conceito de Indexador. Ainda não entendi por que a questão foi dada como errada.

    Uma site de busca não pode vasculhar toda a internet sempre que alguém fizer uma busca. O que os buscadores fazem é "indexar" páginas. Eles criam um banco de dados para cada termo que é buscado e nesse arquivo põem as páginas relacionadas a essa palavra. Quando alguém fizer uma busca, é a esses arquivos que a spider vai recorrer.

    De tempos em tempos esse banco de dados é renovado, num intervalo determinado por cada site de busca, mas que costuma ser de meses. A busca vasculha a web novamente e renova os dados. Se você fizer alterações no seu site, elas só aparecerão depois que a ferramenta de busca fizer uma nova indexação. Não espere que as mudanças que você faz em seu site façam efeito no momento em que você as puser no ar.

    Fonte: https://sites.google.com/site/historiasobreossitesdebusca/historia-site/indexacao

  • Qual o erro da questão?

  • Toda página ou site que é criado ou atualizado e disponibilizado na Internet possui metadados ou palavras chaves que o caracterizam. Além disso, há informações no próprio portal que também servem como fonte de busca para fins de indexação. Essa ferramenta é conhecida como GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas. 

  • Pessoal, aí está a definição clara das ferramentas de busca na Web. Toda página ou site que é criado ou atualizado e disponibilizado na Internet possui metadados ou palavras chaves que o caracterizam. Além disso, há informações no próprio portal que também servem como fonte de busca para fins de indexação. Essa ferramenta é conhecida como GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas.

     

    CERTO

  • GABARITO ERRADO !!
    WEB CRAWLER=RASTREADOR DA WEB (INGLÊS)
    A questão narra o conceito de WEB CRAWLER, não indexador...
    o CRAWLER é quem "localiza e varre" como a questão diz.
    Google bot é um WEB CRAWLER.
    Indexador é, basicamente, uma função que o crawler executa.
    Há outros termos diferentes também como, por exemplo, spider, etc.
    Veja que, de modo bem abstrato, indexador é "um processo do programa, que vai indexar páginas no banco de dados", basicamente.
    *** Lembrando: Rastreador = Crawler. Logo, a parte do livro abaixo que diz rastreamento, em sua versão em inglês, é o Crawler. Veja a diferença de cada parte nas cores diferentes que estão destacadas.

    Shari Thurow, em seu livro "Search Engine Visibility" diz, de modo mais detalhado, como é este conceito:
    "Entendendo os serviços de pesquisa
    Os serviços de pesquisa geralmente podem ser categorizados em dois tipos de fontes: diretórios e mecanismos de pesquisa. Muitas pessoas confundem os dois termos, muitas vezes se referindo ao Yahoo! como um mecanismo de pesquisa. (O Yahoo! é um diretório) O motivo da confusão é compreensível. As pessoas vêem um botão Pesquisar em um site e assumem que, quando clicam no botão, estão usando um mecanismo de pesquisa. Ambos Yahoo! e o Google tem caixas de pesquisa, como mostrado[...]

    O outro tipo de serviço de pesquisa é chamado de mecanismo de pesquisa, e um mecanismo de pesquisa usa robôs de software especiais, chamados rastreadores spiders ou, para recuperar informações de páginas da web. Esse tipo de serviço de pesquisa é chamado de mecanismo de pesquisa "baseado em spider" ou "baseado em rastreador".

    "Motores de busca
    [...]. Os bancos de dados de mecanismos de pesquisa são compilados por meio do uso de robôs de software especiais, chamados spiders, para recuperar informações de páginas da web. Os mecanismos de pesquisa executam três tarefas básicas: Os rastreadores spiders DO MECANISMO DE BUSCA localizam e buscam páginas da Web, um processo chamado de rastreamento ou criação de elementos, e criam listas de palavras e frases encontradas em cada página da Web. Os mecanismos de pesquisa mantêm um índice (ou banco de dados) das palavras e frases encontradas em cada página da Web que podem rastrear. A parte DO MECANISMO DE PESQUISA que coloca as páginas da Web no banco de dados é chamada de indexador. Os mecanismos de pesquisa permitem que os usuários finais pesquisem palavras-chave e frases-chave encontradas em seus índices. Os mecanismos de pesquisa tentam corresponder as palavras digitadas em uma consulta de pesquisa com a página da Web que provavelmente terá as informações para as quais os usuários finais estão pesquisando. Essa parte DO MECANISMO DE PESQUISA é chamada de processador de consultas. [...]"
    Obs.: perdoem a tradução do livro, pois não ficou muito boa.

  • O CRAWLER é quem "localiza e varre"

    Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

    Jânmison Renato #PRF

  • Atenção!!!! Passível de recurso!

     

    Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    Comentários: Pessoal, aí está a definição clara das ferramentas de busca na Web. Toda página ou site que é criado ou atualizado e disponibilizado na Internet possui metadados ou palavras chaves que o caracterizam. Além disso, há informações no próprio portal que também servem como fonte de busca para fins de indexação. Essa ferramenta é conhecida como GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas. Para mais informações: https://support.google.com/webmasters/answer/182072?hl=pt

    Gabarito: Errado (Sugestão do Professor: Correto)

     

    Fonte: https://www.estrategiaconcursos.com.br/blog/provaveis-recursospolicia-federal-2018-correcao-de-informatica-redes-internet-e-seguranca-agente/

     

    75 Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    Gabarito – Certo.

    Os bots do google são exemplo disso.

    Fonte: http://blog.alfaconcursos.com.br/gabarito-pf-2018-informatica/

     

  • Errado. Esse conceito se refere ao crawler, um bot que também é conhecido como spider que navega de forma autonôma pela Web procurando palavras-chaves nos meta-dados dos sites para compor a base de dados da pesquisa. Já, por outro lado, o indexador é uma função do crawler que vai colocando as palavras-chaves adquiridas no Google Search - base de dados do Google.

     

    Para facilitar o entendimento, basta imaginar uma aranha - ser autônomo - navegando pelos sites procurando palavras-chaves e ao encontrá-las vai colocá-las na plataforma Google Search, ou seja, indexá-las.

  • Essa prova da PF estava de lascar!

  • Todos os professores dos melhores cursinhos, sem exceção, disseram que a questão tá certa, mas meia dúzia de usuários do QC falaram que não. Parabéns pro Cespe por mais uma cagada histórica.

  • Indexador não é um programa, dava p matar daí.

  • Verdade, Luiz Souza! Só que eu não lembrei disso também... kkk

  • qm é Shari Thurow perto da Google?

    Detalhe sobre o livro dessa autora: o livro é de 2008. É muita sacanagem da banca pegar um autor desconhecido e antigo.

     

    A Google é a MAIOR referência MUNDIAL em indexar e rastrear palavras-chaves/páginas. Pesquisa em bilhões de páginas em milisegundos... mas quem é a Google perto do Cespe??

     

    Googlebot

    Googlebot é o robô de rastreamento da Web do Google (também chamado de "indexador"). O rastreamento é o processo pelo qual o Googlebot  (ou seja, o INDEXADOR) descobre páginas novas e atualizadas para serem incluídas no índice do Google.

    Nós usamos um grande conjunto de computadores para buscar (ou “rastrear”) bilhões de páginas na Web. O Googlebot usa um processo de algoritmos: programas de computador que determinam quais sites devem ser rastreados, com que frequência e quantas páginas devem ser buscadas em cada site.

    https://support.google.com/webmasters/answer/182072?hl=pt

     

    Tendo em vista as divergências doutrinárias, a questão NO MÍNIMO deveria ter sido anulada.

     

  • Ederson jr, disse bem...O rastreamento é o processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google(FONTE: https://support.google.com/webmasters/answer/182072?hl=pt)

    (ele é um robô que faz as 3 tarefas, segundo a autora)

    E no livro diz:
    "Os rastreadores spiders DO MECANISMO DE BUSCA localizam e buscam páginas da Webum processo chamado de rastreamento ou criação de elementos, e criam listas de palavras e frases encontradas em cada página da Web"

    Não quero entrar em discussão... Estamos falando de teoria. O que a Cespe adota, cabe a nós seguir pra passar. Só quero mostrar que não houve erro algum...
    Qualquer sítio precisa ser rastreado pelo robô para aparecer nos resultados de busca desses mecanismos.

    ***Segundo Thurow (2003), os robôs executam três ações básicas:

    1- Primeiro eles acham as páginas do sítio (processo chamado spidering ou crawling) e constroem uma lista de palavras e frases encontradas em cada página;

    2- Com esta lista eles fazem um banco de dados e encontram as páginas exatas que eles devem procurar, inserindo o sítio vasculhado no banco de dados geral organizado pelas características encontradas em suas páginas. A máquina que insere o sítio no banco de dados geral se chama indexer;

    3- Depois disso o robô já está apto a encontrar este sítio quando o usuário final digitar na busca uma palavra ou expressão relativa ao conteúdo encontrado no sítio. Essa etapa é chamada query processor.

    Abraços !

  • Oi @Anderson Albuquerque, tudo bem?

    A minha raiva não é contra vc, longeeeeee disso, é contra a banca. Desculpe se acabou soando meio ofensivo o post.. mas ainda tô digerindo essa prova. kkkkk

     

    Vamos à questão:
    como eu já tinha mencionado --> há divergências de autores. O que a Thurow  define e divide em 3, a Google (em sua página) define e remete apenas ao Googlebot
    A autora tá errada: não!
    A Google tá errada: não! 
    O cespe tá errado: --> existe divergências. 

     

    (ainda penso que a questão esteja correta, tendo em vista que a definição da maior referência no assunto se coaduna com a afirmação da banca). 

    Seria como comparar: decisão do STF vs decisão de juiz monocrático. rsrsr (zoeira)

  • Os sítios de busca utilizam programas automatizados denominados spiders ou crawlers, que percorrem a web, seguindo de link em link para gerar uma página de índice que inclui os termos buscados, e o mecanismo de busca consulta este índice quando as buscas são efetuadas. O Google, por exemplo, procura termos de busca em todas as páginas, analisando não só o título de cada página, como também cabeçalhos e textos ao longo da página. 

     

    Segundo o suporte do Google (https://support.google.com/webmasters/answer/70897?hl=pt-BR) a pesquisa é realizada em três etapas: rastreamento, indexação e veiculação. A indexação é o processo através do qual o Google tenta identificar o conteúdo de uma página encontrada.

     

    Professor Maurício Bueno

  • JÁ QUE NÃO TEMOS ASSISTÊNCIA DE PROFESSORES, CHAMAREI O CHÁPOLIN COLORADO

  • A galera querendo justificar esse gabarito maluco parece eleitor do PT defendendo o Lula...

  • Não cabe argumentação nesta questão: a banca está errada e a questão está correta.

    Como diz um amigo: "CESPE fazendo cespice".

  • ERRADO.

    -- Robot –  o sistema precisa fazer parsing de HTML, pelo menos para capturar os links e validá-los.Trata-se de um programa que percorre a rede em busca de conexões. Esse programa recebe um endereço, também chamado link, que é traduzido em instrução para que ele acesse uma área virtual. Ao localizar o endereço, o robot desempenha a tarefa de registrar o que encontra e transmitir os dados a uma central.
    -- Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots. Os dados recebidos são organizados segundo critérios previamente preparados. (Não atuam autonomamente, pois dependem dos robots). Indexing - Com os dados coletados ele é armazenado em alguma forma que possa ser consultado.

    -- Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.
    -- Programa de Busca – Searching - Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa. A "chave" para abrir essa porta é chamado palavra-chave ou frase-chave, dependendo de ele(ela) usar apenas uma palavra ou duas (ou mais) palavras. Assim, aplica-se a expressão palavra-chave quando se digita, por exemplo, a palavra "calçados"; e aplica-se a expressão frase-chave quando se digita, por exemplo, "calçados femininos".

    http://www.otimizacao-sites-busca.com/mecanismos-buscas/visao.htm

     

     

  • Galera a Cespe não é de Deus, já estudei muito informatica na minha vida mas nunca tinha nem ouvido falar nessas coisas cobradas na questão! alguém me dê uma dica de material q tenha esses assuntos, serve pra próxima.

  • "Googlebot é o robô de rastreamento da Web do Google (também chamado de "indexador"). O rastreamento é o processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google.

    Nós usamos um grande conjunto de computadores para buscar (ou “rastrear”) bilhões de páginas na Web. O Googlebot usa um processo de algoritmos: programas de computador que determinam quais sites devem ser rastreados, com que frequência e quantas páginas devem ser buscadas em cada site."

    Fonte: Google.

  • Esta è a definição clara das ferramentas de busca na Web. Toda página ou site que é criado ou atualizado e disponibilizado na Internet possui metadados ou palavras chaves que o caracterizam. Além disso, há informações no próprio portal que também servem como fonte de busca para fins de indexação. Essa ferramenta é conhecida como GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas.

  • Um Web crawler é um programa que colhe conteúdo na web de forma sistematizada através do protocolo padrão da web (http/https).

  • Quando o cara da banca vem com definição. fique em alerta. kkk.

  • Recurso da página do Estratégia:



    Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    Comentários: Pessoal, aí está a definição clara das ferramentas de busca na Web. Toda página ou site que é criado ou atualizado e disponibilizado na Internet possui metadados ou palavras chaves que o caracterizam. Além disso, há informações no próprio portal que também servem como fonte de busca para fins de indexação. Essa ferramenta é conhecida como GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas. Para mais informações: https://support.google.com/webmasters/answer/182072?hl=pt

    Gabarito: Errado (Sugestão do Professor: Correto)



    O que diz o Google

    Googlebot é o robô de rastreamento da Web do Google (também chamado de "indexador"). O rastreamento é o processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google.

  • É oficial ? Nishimura Method ja era?

  • que prova foi essa em, nunca vi uma questão igual a essa. Deus nos abençoe.

  • Essa veio diretamente dos quintos dos infernos.

  • Definição de robot, o qual registra as informações nos computadores das centrais(indexadores).

  • Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.
    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.

    Gabarito: ERRADO.


  • desse jeito o Ishimura perde o emprego, CESPE!!!

  • Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa. ERRADO


    Nas ferramentas de busca, o CRAWLER é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa. CERTO

  • Informática costuma fazer toda a diferença nos concursos policiais não é a toa!!!

  • Crewler, também conhecido como Spider ou Bot, robô usado pelos buscadores para encontrar e indexar páginas de sites.


    ERRDO.

  • O Metodo do Nishimura a Cespe descobriu, mas vejo um bando de falsos que idolatrava o metodo agora querendo redicularizar o Prof Nishimura, respeito ao rapaz.....

  • gab: E,

    MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

    http://www.otimizacao-sites-busca.com/mecanismos-buscas/visao.htm

  • Nunca errei tanto numa materia aqui no QC como errei nessa da PF

  • automaticamente quase sempre está errado.

  • GABARITO ERRADO

    Crawler, Spider, Bot = Pesquisa a informação em bilhões de sites

    Indexaor = Coloca em índice por odem de relevância/data/tipo de arquivo/ preferências

  • Autor: Fernando Nishimura, Professor de Informática, de Noções de Informática

    Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.

    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.


    Gabarito: ERRADO.

  • Trocou indexador por bot.

    Por isso, a questão tá errada.

  • Deve ser o próprio Nishimura que está elaborando as questões do cespe kkkkkk

  • Depois que uma página é descoberta (crawler), o Google tenta identificar o conteúdo dela. Esse processo é chamado de indexação.

    Fonte: https://support.google.com/webmasters/answer/70897?hl=pt-BR

  • GAB: Errado


    Essa caceta pensa que vamos trabalhar é fazendo foguete, só pode!

  • Gabarito: Errado.

    Quem faz essa função é um Robot – Trata-se de um programa que percorre a rede em busca de conexões. Esse programa recebe um endereço, também chamado link, que é traduzido em instrução para que ele acesse uma área virtual. Ao localizar o endereço, o robot desempenha a tarefa de registrar o que encontra e transmitir os dados a uma central.

  • Toda página ou site que é criado ou atualizado e disponibilizado na Internet possui metadados ou palavras chaves que o caracterizam. Além disso, há informações no próprio portal que também servem como fonte de busca para fins de indexação. Essa ferramenta é conhecida como GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas.

  • Googlebot

    Googlebot é o robô de rastreamento da Web do Google (também chamado de "indexador"). O rastreamento é o processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google.

    Nós usamos um grande conjunto de computadores para buscar (ou “rastrear”) bilhões de páginas na Web. O Googlebot usa um processo de algoritmos: programas de computador que determinam quais sites devem ser rastreados, com que frequência e quantas páginas devem ser buscadas em cada site.

  • A titulo de nunca mais errar esse tipo de questão!

    MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

  • que prova dificil da mulesta taboca

  • Qual o cursinho que chegou a esse nível de info? kk

  • Errado

    Conceito de Indexador

    Depois que uma página é descoberta, o Google tenta identificar o conteúdo dela. Esse processo é chamado de indexação

  • Indexador > Não.

    Bot> que faz essa função.

  • GABARITO: ERRADO

     

    Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

     

    O correto seria: Nas ferramentas de busca, o ​Crawler é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

     

    Alô você ! (Pode marcar Útil se curtiu =)

  • Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots. Os dados recebidos são organizados segundo critérios previamente preparados.

    http://www.otimizacao-sites-busca.com/mecanismos-buscas/visao.htm

  • PARA REVISAR!!!

    MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

  • Eu não sei falar "autonomamente "

  • 03 – Comentários:

     

    GABARITO ERRADO 

     

    Atenção! Menosprezou, restringiu, comparou superiorizando, trocou os conceitos = Sinal de ERRO.
     

     

    Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

     

    O correto seria: Nas ferramentas de busca, o ​Crawler é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

     

    O Crawler é quem "localiza e varre"

    Também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

     

    PRF, não desistir de você.

  • Me recusei a responder essa questão.

  • Gabarito''Errado''

    Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.

    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.

    Estudar é o caminho para o sucesso.

  • Gab. E

    Certo mas vou marcar como errado. kkkk

  • DE CARA COM A TÉCNICA DO PROFESSOR 

    FIQUEI NA DÚVIDA E USEI NÃO É QUE DEU CERTO...

     

    DICAS DE INFORMÁTICA (Professor Fernando Nishimura)

     

    1) Quando a questão explica sobre determinado assunto, geralmente, a assertiva é verdadeira;           

     

    2) Quando a questão impõe algo, geralmente, a assertiva é falsa;

     

    3) Quando a questão compara duas tecnologias, geralmente, a assertiva é falsa;        

     

    4) Quando a questão "fala mal" "menospreza" determinada tecnologia, geralmente a assertiva é falsa; 

     

    5) Quando a questão enumera itens, se todos os itens pertencem ao mesmo grupo/programa, a assertiva é verdadeira;      

     

    6) Se um dos itens, geralmente o último, não faz parte do grupo/programa, a assertiva é falsa;           

     

    7) Estas palavras indicam uma questão certa: pode(m), permite(m), é possível, pode ser...           

     

    8) Estas palavras indicam uma questão errada: automaticamente, deve. deve-se, só, somente, não permite, não sendo possível, sempre, é necessário, necessariamente.

  • errei legau

  • Bom dia a todos! Dayane Gois vou pesquisar esse professor faz todo o sentido em se tratando de Cespe cara ou a pessoa fica ligada ou dança, sou grata pela dica e sucesso.
  • morro de rir dessas técnicas de professor kkkkk, técnicas de chute e blablabla

  • é concurso para a NASA ?

  • Pra quem não conhece

    MÉTODO NISHIMURA:

    1) Quando a questão explica sobre determinado assunto, geralmente, a assertiva é verdadeira;

    2) Quando a questão impõe algo, geralmente, a assertiva é falsa

    3) Quando a questão compara duas tecnologias, geralmente, a assertiva é falsa;

    4) Quando a questão "fala mal" "menospreza" determinada tecnologia, geralmente a assertiva é falsa;

    5) Quando a questão enumera itens, se todos os itens pertencem ao mesmo grupo/programa, a assertiva é verdadeira;

    6) Se um dos itens, geralmente o último, não faz parte do grupo/programa, a assertiva é falsa;

    7) Estas palavras indicam uma questão certa: pode(m), permite(m), é possível, pode ser...

    8) Estas palavras indicam uma questão errada: automaticamente, deve. deve-se, só, somente, não permite, não sendo possível, sempre, é necessário, necessariamente.

    Crédito: Prof. Fernando Nishimura

  • Que é isso vá? kkkk

  • cuidado com os "professores" de comentários kk

  • Os professores do CESPE que elaboram provas já viram o método do Nishimura e estão colocando tudo ao contrário para pegar quem chuta ,kkkkkkkkkkkkkkkkkkkkkkk

  • Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.

    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.

    ERRADO

  • Leonardo Lucena, ri muito!!! "tamo junto" /o/

  • bot chamados de aranhas

  • ERRADO

    Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

  • ATENÇÃO

    Crawler, Spider, Bot ----> Pesquisa a informação em bilhões de sites

    Indexador = Coloca tudo na ordem que vemos no buscador ( relevância/data/tipo de arquivo/ preferências)

  • ROBOT -> INDEXADOR -> BANDO DE DADOS -> PROGRAMA DE BUSCA.

    PROCURA -> PROCESSA -> ORGANIZA / ARMAZENA -> ACESSA

  • Depois que uma página é descoberta, o Google tenta identificar o conteúdo dela. Esse processo é chamado de indexação. O Google analisa o conteúdo da página, cataloga arquivos de imagens e vídeos incorporados e tenta identificar sobre o que ela trata. Essa informação fica registrada no índice do Google, um grande banco de dados armazenado em uma quantidade enorme de computadores.

  • O Google segue três etapas básicas para gerar resultados a partir de páginas da Web:

    RASTREAMENTO

    A primeira etapa é descobrir quais páginas existem na Web. Não há um registro central de todas as páginas da Web. Por isso, o Google precisa pesquisar constantemente novas páginas e adicioná-las à própria lista de páginas conhecidas. Esse processo de descoberta é chamado de rastreamento.

    INDEXAÇÃO

    Depois que uma página é descoberta, o Google tenta identificar o conteúdo dela. Esse processo é chamado de indexação. O Google analisa o conteúdo da página, cataloga arquivos de imagens e vídeos incorporados e tenta identificar sobre o que ela trata. Essa informação fica registrada no índice do Google, um grande banco de dados armazenado em uma quantidade enorme de computadores.

    VEICULAÇÃO / CLASSIFICAÇÃO

    Quando o usuário faz uma consulta, o Google tenta encontrar a resposta mais relevante no próprio índice com base em vários fatores. O Google tenta determinar as respostas mais adequadas e de qualidade mais alta, bem como avaliar outras considerações que fornecerão a melhor experiência do usuário. Para isso, leva em conta aspectos, como localização, idioma e dispositivo (computador ou smartphone). Por exemplo, em uma pesquisa por "oficinas de conserto de bicicletas", os resultados seriam diferentes para um usuário de Paris e outro de Hong Kong. O Google não aceita pagamento para atribuir aos sites uma classificação mais alta. A classificação é feita de maneira programática.

  • Aparentemente em informática no CESPE é: parece certo e lógico, logo estará errado.

  • Adotantes do método Nishimura, onde vocês estão??

    o esquema da cespe e o seguinte, escolher uma resposta supostamente "correta" e marcar a outra. asssim acertamos saporraaaaadokarai

  • Meu Deus, galera. Qual cursinho que ensina esses conhecimentos? De verdade, ficou muito avançada essa prova de informática pra Agente. Alguém pode indicar um curso que se aprofunde tanto? Obrigado

  • O Google segue três etapas básicas para gerar resultados a partir de páginas da Web:

    RASTREAMENTO

    A primeira etapa é descobrir quais páginas existem na Web. Não há um registro central de todas as páginas da Web. Por isso, o Google precisa pesquisar constantemente novas páginas e adicioná-las à própria lista de páginas conhecidas. Esse processo de descoberta é chamado de rastreamento.

    INDEXAÇÃO

    Depois que uma página é descoberta, o Google tenta identificar o conteúdo dela. Esse processo é chamado de indexação. O Google analisa o conteúdo da página, cataloga arquivos de imagens e vídeos incorporados e tenta identificar sobre o que ela trata. Essa informação fica registrada no índice do Google, um grande banco de dados armazenado em uma quantidade enorme de computadores.

    VEICULAÇÃO / CLASSIFICAÇÃO

    Quando o usuário faz uma consulta, o Google tenta encontrar a resposta mais relevante no próprio índice com base em vários fatores. O Google tenta determinar as respostas mais adequadas e de qualidade mais alta, bem como avaliar outras considerações que fornecerão a melhor experiência do usuário. Para isso, leva em conta aspectos, como localização, idioma e dispositivo (computador ou smartphone). Por exemplo, em uma pesquisa por "oficinas de conserto de bicicletas", os resultados seriam diferentes para um usuário de Paris e outro de Hong Kong. O Google não aceita pagamento para atribuir aos sites uma classificação mais alta. A classificação é feita de maneira programática.

    Victot L

  • A pesquisa é realizada em três etapas: rastreamento, indexação e veiculação.

    A indexação é o processo através do qual o Google tenta identificar o conteúdo de uma página encontrada. A questão trata da etapa de rastreamento que, por meio de rastreadores (conhecidos como crawlers), percorrem a web, seguindo de link em link para gerar uma página de índice que inclui os termos buscados e o mecanismo de busca consulta este índice quando as buscas são efetuadas.

    Gabarito: Errado

  • Eles disseram "NOÇÕES"? TNC KKKKKKKKKKKKKKKKKKKKK

  • resumo da prova da PF de agente: "queremos galera de TI na PF, mas não temos essa área que não seja a de perito. Ora! Façamos uma prova de Agente com nível de TI".

  • COMENTÁRIO DO PROFESSOR:

    Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.
    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.

  • O CRAWLER é quem "localiza e varre"

    Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

    MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

  • Galerinha do bem, gentileza dar os créditos quando copiar o comentário do coleguinha.

  • O que é que foi esse prova de NOÇÕES de informática para Agente da PF????????????

  • o CRAWLER é o que localiza e varre.
  • Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

  • O CRAWLER é quem "localiza e varre"

    Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

    MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

  • De uma maneira bem simples e prática, vamos pensar assim:

    Imagine um agente censitário do IBGE, indo de casa em casa, diferentes endereços, coletando dados, novas informações. Posteriormente ele apresenta essas informações, quando solicitados.

    Assim funciona o "robô" de busca. Ele vai nos endereços dos sites e buscam as informações pesquisadas.

    O Google, além do "robô", tem um algorítimo criado por seus fundadores que atribui uma pontuação as páginas. Esse algorítimo é o PageRank, e ele afeta diretamente na relevância de apresentação daquilo que foi pesquisado.

  • MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

    para revisar

  • ERRADO

    Indexador - É uma maquina ou conjunto destas , que processam informações recolhidas pelo robot.

    Bons estudos .

  • AOS QUE COPIAM E COLAM TEXTÕES E FINGEM QUE SABEM DO ASSUNTO, SEGUREM ESSA: programa que navega autonomamente pela Internet é o BOT. COM CARINHO,  FIM.

  •  O indexador é quem organiza o banco de dados e permite que o usuário busque os termos relacionados aos links obtidos. Quem faz a varredura pela internet é o web spider, web crawler ou spider bot.

  • Pessoal, aí está a definição clara das ferramentas de busca na Web. Toda página ou site que é criado ou atualizado e disponibilizado na Internet possui metadados ou palavras chaves que o caracterizam. Além disso, há informações no próprio portal que também servem como fonte de busca para fins de indexação. Essa ferramenta é conhecida como GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas. Para mais informações: 

  • Boa questão, merece bastante atenção por ser bem resumida. #DEPEN2020 #ALFA

  • Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.

    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.

    Fonte: Nashimura

    MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

    Fonte comentário: Emerson Torres, através do site: http://www.otimizacao-sites-busca.com/mecanismos-buscas/visao.htm

  • Muita gente misturando os conceitos, vou tentar sintetizar pra ajudar:

    O que é Googlebot?

    O Googlebot nada mais é do que um programa de computador desenvolvido pelo Google com a finalidade de rastrear as páginas públicas de toda a web.

    Também chamado de crawler, spider ou bot (versão encurtada de robot), esse software navega de página em página por meio dos links que encontra em busca de novas webpages ou conteúdos atualizados.

    O que é Indexador?

    Depois que uma página é descoberta, o Google tenta identificar o conteúdo dela. O Google analisa o conteúdo da página, cataloga arquivos de imagens e vídeos incorporados e tenta identificar sobre o que ela trata. Esse processo é chamado de indexação.

    =============================================================================================

    RESUMINDO: Você vai lá no Google, digita a sua pesquisa, então o primeiro a trabalhar vai ser o Googlebot rastreando milhões de páginas, e logo em seguida o indexador vai analisar as páginas e organizar tudo na sequência em que ela aparece para o usuário.

  • MECANISMOS DE BUSCA:

    Robot - to virano um

  • Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa

  • TOTALMENTE ERRADO

    EXAMINADOR TROCOU a função do INDEXADOR, por isso vamos entender rapidamente abaixo:

    ROBÔS OU BOTS são os verdadeiros responsáveis por coletar as informações de sites ou endereços que visitamos

    Já o INDEXADOR, organizar todo o trabalho realizado pelos ROBÔS, auxiliando o motor de busca dos navegadores.

    ROBÔ COLHE AS INFORMAÇÕES E O INDEXADOR AS ORGANIZA.

    TE VEJO NO DIA POSSE!!!!

  • Os sites de busca utilizam programas automatizados denominados spiders, que percorrem a web, seguindo de link em link para gerar uma página de índice que inclui os termos buscados, e o mecanismo de busca consulta este índice quando as buscas são efetuadas.

  • MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

  • MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa (Crawler, Spider, Bot = Pesquisa a informação em bilhões de sites) que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador (coloca em índice por ordem de relevância/data/tipo de arquivo/ preferências) são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

  • O software que irá fazer essa busca será o Bot e o Indexador é o conjunto de máquinas encarregadas de processar os dados.

  • Gabarito: ERRADO

    A indexação é o processo que tenta identificar o conteúdo de uma página encontrada.

    Os spiders ou crawlers são programas que navegam autonomamente pela internet, localizando e varrendo os documentos.

  • Marquei como: C

    Resultado: Errei

  • Gabarito: ERRADO.

    A pesquisa é realizada em três etapas: rastreamento, indexação e veiculação.

    A indexação é o processo através do qual o Google tenta identificar o conteúdo de uma página encontrada.

    A questão trata da etapa de rastreamento, que, por meio de rastreadores (conhecidos como crawlers), percorrem a web, segundo de link em link para gerar uma página de índice que inclui os termos buscados e o mecanismo de busca consulta este índice quando as buscas são efetuadas (grifos meus).

    Diego Carvalho

  • Errado

    GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas.

    Fonte:

    Gabarito: Errado (Sugestão do Professor: Correto)

  • GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas.

    Gabarito: Errado (Sugestão do Professor: Correto)

    Fonte:

    https://www.estrategiaconcursos.com.br/blog/provaveis-recursospolicia-federal-2018-correcao-de-informatica-redes-internet-e-seguranca-agente/

  • Errado

    GoogleBot, que é um robô de busca para indexação dessas páginas novas e atualizadas. Para mais informações

    Fonte: https://www.estrategiaconcursos.com.br/blog/provaveis-recursospolicia-federal-2018-correcao-de-informatica-redes-internet-e-seguranca-agente

  • A pesquisa é realizada em três etapas: rastreamentoindexação veiculação.

    indexação é o processo através do qual o Google tenta identificar o conteúdo de uma página encontrada.

    Os spiders ou crawlers são programas que navegam autonomamente pela internet, localizando e varrendo os documentos.

  • O indexador não é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa. Quem faz isso são os Robots, Spiders ou Crawlers.

  • A pesquisa é realizada em três etapas: rastreamentoindexação veiculação.

    indexação é o processo através do qual o Google tenta identificar o conteúdo de uma página encontrada.

    Os Spiders ou Crawlers  são programas que navegam autonomamente pela internet, localizando e varrendo os documentos.

  • ERRADO

  • Indexar: Verbo transitivo direto - Organizar em forma de índice.

  • Nas ferramentas de busca, o indexador é o programa ( AFIRMAÇÃO) que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    ERRADO

  • Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.

    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.

    Gabarito: ERRADO.

  • Quem faz isso é o Crawler (Spider, bot ou robot)

    O Indexador só processa os dados obtidos pelo Crawler.

  • autonomamente ?

  • CRAWLERS É QUEM VARRE E LOCALIZA OS DADOS NA INTERNET.

    GAB. E

  • GABARITO ERRADO

    Crawlers, Spider, Bot = Pesquisa a informação em bilhões de sites

    Indexador = Coloca em índice por ordem de relevância/data/tipo de arquivo/ preferências

  • Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada. Há ferramentas que facilitam o trabalho dos crawlers e tornam a indexação das páginas de um site mais rápida. Entre elas:

    Sitemap.xml: arquivo com lista de todas as páginas de um site. Ao acessar essa lista, o crawler sabe quais páginas existem para indexar.

    Robots.txt: arquivo em formato de texto que trabalha como um filtro, avisando aos crawlers quais páginas e diretórios não devem ser indexados.

  • Gabarito: Errado!

    Crawlers, Spider, Bot = Pesquisa a informação em bilhões de sites

    Indexador = Coloca em índice por ordem de relevância/data/tipo de arquivo/ preferências

  • Um motor de busca opera na seguinte ordem:

    1. Web crawling (percorrer por links)

    2. Indexação

    3. Busca

  • ERRADO

    No caso da questão a resposta correta seria Crawler, os robôs/spiders

    Os motores de busca funcionam, basicamente, em três etapas:

    1) CRAWLER: Primeiramente, os buscadores rastreiam os conteúdos da web. Eles seguem os caminhos que os links apontam, em busca de novas páginas e atualizações. (Quem faz isso são os robôs ou spiders)

    o GOOGLE possui seu próprio "robô" chamado Googlebot.

    2) INDEXAÇÃO: Na sequência, as páginas rastreadas são indexadas. Ou seja, elas vão para o índice do buscador, que funciona como uma grande biblioteca de conteúdos da web.

    3) RANKEAMENTO: Acontece toda vez que um usuário faz uma pesquisa, a classificação então é definida pela melhor correspondência de palavra chave, autoridade do domínio, relevância dos links, conteúdo original e de qualidade, e muitos outros fatores existentes (existem + de 150 fatores) 

    obs: Crawling e Indexação acontecem a todo momento 

  • INDEXADOR NÃO PROCURA AS PALAVRAAS CHAVES? ALGUEM ME EXPLICA ESSA QUESTAO,VLW

  • indexador coloca em ordem a busca e varredura que o crawler fez

  • Bot (Crawlers, Spider) - Pesquisa a informação automaticamente em bilhões de sites

    Indexador - Coloca em índice por ordem de relevância/data/tipo de arquivo/ preferências

    Gab. ERRADO

  • O INDEXADOR organiza as informações trazidas pelos Robots/Bots. Estes que navegam pela internet localizando e varrendo os documentos em buscas de palavras chaves.

  • GABARITO: ERRADO

    Os motores de busca contam com bots (neste caso não são malwares), são esses que fazem a varredura dos servidores acessíveis na Internet e listam os conteúdos de suas pastas. No entanto é possível “instruir” esse bot a não listar determinados conteúdos, para tanto há um arquivo que pode ser criado informando quais conteúdos o bot não deve indexar.

    Assim, é possível entender o que são páginas Indexadas pelo Google. São aquelas que o Google já visitou e usou seu algoritmo de análise de conteúdo para identificar as palavras-chave mais relevantes que, ao usuário utilizar na busca, levem para aquele site específico.

    Os principais motores de busca oferecem diversos recursos e ferramentas para melhorar a experiência de pesquisa e para obter resultados mais relevantes ao que o usuário procura.

  • indexar --> organizar em forma de índice.

    ampliar o vocabulário, ajuda matar várias questões.

    Bot (Crawlers, Spider) - Pesquisa a informação automaticamente em bilhões de sites

    Indexador - Coloca em índice por ordem de relevância/data/tipo de arquivo/ preferências

  • MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Crawler é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa

  • A pesquisa é realizada em três etapas: rastreamento, indexação* e veiculação. A indexação é o processo através do qual o Google tenta identificar o conteúdo de uma página encontrada. A questão trata da etapa de rastreamento que, por meio de rastreadores (conhecidos como crawlers), percorrem a web, seguindo de link em link para gerar uma página de índice que inclui os termos buscados e o mecanismo de busca consulta este índice quando as buscas são efetuadas.

    * Em informática, um indexador é um mecanismo usado para inserir um ou vários sites na base de dados de motores de pesquisa (Google, Yahoo, etc.), fazendo com que eles apareçam como resultado para quem faz uma busca.

    Fonte: Estratégia.

  • O Google basicamente utiliza dois softwares para montar seu arsenal de busca: os rastreadores (crawlers) e os indexadores. 

    Os rastreadores detectam as páginas disponíveis ao público, ou seja, eles analisam as páginas e seguem seus links, da mesma forma que você faria se estivesse navegando nessas páginas.

    Os indexadores detectam os sinais importantes, como as palavras-chave e a idade do conteúdo do site, e tudo isso é registrado em um Índice da Pesquisa (Search Index). 

    Portanto, a atividade de navegação é função dos rastreadores.

    FONTE: Estratégia

  • GABARITO: ERRADO

    Quem faz esta busca é o "crawler";

  • GABARITO ERRADO.

    DICA!

    --- > Crawler (Spider ou Bot): é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

     --- > Indexador: Coloca em índice por ordem de relevância/data/tipo de arquivo/ preferência

  • Esse indexador é um programa?

    Na minha santa ignorância, achei que fosse "parte" de um programa, algum comando, algumas linhas de código.

    Acertei a questão por entender que INDEXADORES não são programas.

    Alguém, por gentileza, poderia me ajudar com essa dúvida?

  • Crawler (Spider ou Bot)

    é o programa que navega autonomamente pela Internet

    Agente PF

  • QUEM BUSCA INFORMAÇÕES ATRAS DE VARRER TUDO É O CRAWLER, BOT

  • Crawler (Spider ou Bot)

  • prof João antônio explicou serem sinônimos... fazem parte da mesma atividade! mas enfim...

  • Galera, o indexador é toda a database de uma ferramenta de pesquisa. Dou como exemplo a Deep Web: mesmo que alguém conheça uma página da Deep Web e que já a tenha acessado através de plataformas que possibilitam isto (como o TOR), não adianta pesquisar a tal página no Google. Ela não aparecerá no resultado das buscas eis que não é indexada pela ferramenta de pesquisa, apesar de existir.

  • Gabarito: Errado (O CESPE 'roubou' essa questão de muitos candidatos)

    "Um rastreador, também conhecido como indexador ou bot, é o software que o Google usa para processar e indexar o conteúdo de páginas da Web".

    https://support.google.com/adsense/answer/99376?hl=pt-BR

  • isso é o bot

  • Direto ao ponto !!!

    Robot – Percorre a rede em busca de conexões.

    Indexador – Processar os dados recolhidos pelos robots.

    Banco de Dados – Armazena os dados processados pelo indexador

    Programa de Busca – Permite ao usuário acessar o banco de dados e extrair dele o que precisa.

  • Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.

    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas

    COMENTÁRIO DO NISHIMURA

  • ERRADO

    Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.

    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.

  • GABARITO ERRADO.

    Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

    BONS ESTUDOS GALERINHA!!!

  • Essa quetão ajuda:

    cespe 2006: Sistemas de robôs (robots) podem fazer a busca para a indexação de documentos na Internet ou na intranet.(certo)

    Resuminho:

    Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site.

    Já o indexador processa o conteúdo da página da mesma forma que um navegador. Detectam-se os sinais importantes, como as palavras-chave e a idade do conteúdo do site, e tudo isso é registrado em um Índice da Pesquisa (Search Index).

  • Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

    MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

    Crawler, Spider, Bot = Pesquisa a informação em bilhões de sites

    Indexador = Coloca em índice por ordem de relevância/data/tipo de arquivo/ preferências

  • Nas ferramentas de busca, o CRAWLER é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    Bizu:

    Crawdinho Ler livros pelo Google Books.

  • Pessoal, aí está a definição clara das ferramentas de busca na Web. Toda página ou site que é criado ou atualizado e disponibilizado na Internet possui metadados ou palavras chaves que o caracterizam.

  • BOT/CRAWLER/SPIDER

    Software que procura autonomamente na internet informações para compor a base de dados de pesquisa.

    INDEXADOR

    Depois que uma página é descoberta, o Google tenta identificar o conteúdo dela. Esse processo é chamado de indexação. O Google analisa o conteúdo da página, cataloga arquivos de imagens e vídeos incorporados e tenta identificar sobre o que ela trata. Essa informação fica registrada no índice do Google, um grande banco de dados armazenado em uma quantidade enorme de computadores..

  • Errado

    .

    Se você curte Ozzy Osbourne entenderá esse macete..rs

    Mr. Crawler, você veio varrer.....

    Oh Mr. Crawler, localiza isso aeeee....

    https://www.youtube.com/watch?v=G3LvhdFEOqs

    tempo: 00: 52s

  • O software que procura na Internet as informações para que sejam indexadas é um bot, Web Crawler, spider. Esses são programas autônomos que executam tarefas programadas, como no caso de um farejador.

  • Bot busca os dados.

    Indexador organiza, ordena os dados recolhidos pelos bots.

  • Acertei nunca ouvir falar ...marquei errado por nunca ouvir falar nesse palavra

  • Nas ferramentas de busca, o indexador é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    Errado, quem tem o trabalho de buscar é o BOT ou CRAWLER, o indexado pega tudo na prateleira tudo certinho e já disponibiliza ao usuário.

    A saga continua...

    Deus!

  • Os sites de pesquisas indexam a informação disponível na Internet, para facilitar a localização de uma informação pelos usuários da busca.

    O software que procura na Internet as informações para que sejam indexadas é um bot. Bot é um programa autônomo que executa tarefas programadas, como no caso de um farejador. Este software compara as informações encontradas com as informações disponíveis no cache do site de pesquisa, e em caso de diferenças, atualiza o diretório de pesquisas.

    Gabarito: ERRADO.

    _______________________________________________________________ Fala galera, lembrem-se de que a REDAÇÃO REPROVA também. Se você está desesperado e pensando em contar com a sorte, então você precisa do PROJETO DESESPERADOS. Esse curso é completo com temas, esqueleto, redações prontas, resumos em áudio, tudo em um só lugar. Ele MUDOU O JOGO para mim: https://go.hotmart.com/W44743476R

  • Web Crawler, é um programa de computador que navega pela rede mundial como FERRAMENTA DE BUSCA NO GOOGLE, pode cair na prova como Web Robot ou Robô

  • Varredura: crawler. spider ou bot

  • NASHIMURA, É VOÇÊ?

  • Pausa pro desabafo: informáticaaaaaaaaaaaaaaa, eu te odeioooooooooooo. Obrigada pela atenção.

  • GAB. ERRADO

    Bot busca os dados.

    Indexador organiza, ordena os dados recolhidos pelos bots.

  • Questão: Nas ferramentas de busca, o é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de para compor a base de dados da pesquisa.

     

    Correto:  Nas ferramentas de busca, o Robot (Crawler) é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de links e informações de suas respectivas páginas para compor a base de dados da pesquisa.

  • gab E

    essa questão foi dada como certa, a princípio, porém pós recurso está errada.

    Crawler \ google bot é que atua com navegação automática buscando dados.

    =)

  • É o BOT que faz isso

  • GABARITO: ERRADO

    MEU RESUMO:

    MECANISMOS DE BUSCA:

    Robot – Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador – Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de BuscaPrograma que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.  Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada. CRAWLER  Ao acessar um site seguro, o navegador do cliente precisa verificar se o certificado fornecido pelo servidor é realmente válido. Para isso, o navegador  consulta a autoridade certificadora usando o protocolo OCSP. Com isso, os navegadores não precisam mais manter as chamadas CRL (Certificate  Revocation List).

  • Questão

    Nas ferramentas de busca, o indexador ❌ é o programa que navega autonomamente pela Internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

    Rastreador web ou crawler ➡ faz a localização e varredura dos documentos;

    Indexador ➡ está relacionado com a classificação ou organização da informação.

    Gabarito errado. ❌

  • Gabarito: ERRADO

    A pesquisa é realizada em três etapas:

    • Rastreamento
    • Indexação
    • Veiculação.

    A indexação é o processo através do qual o Google tenta identificar o conteúdo de uma página encontrada.

    A questão trata da etapa de rastreamento que, por meio de rastreadores (conhecidos como crawlers), percorrem a web, seguindo de link em link para gerar uma página de índice que inclui os termos buscados e o mecanismo de busca consulta este índice quando as buscas são efetuadas.

  • Webcrawler/Bot/Spider: Navegam e varrem as páginas web em busca de palavras-chave para compor os bancos de dados de pesquisa.

    Indexador: pega essas palavras-chave e as organiza, para assim catalogar o conteúdo.

    Fonte: Professor Victor Dalton (Direção Concursos)

  • autonomamente:  independentemente, livremente...

  • GAB E!

    O Google é uma empresa que passa 24 horas por dia “xeretando” a Internet. Eles usam programas conhecidos como "rastreadores da Web" (web crawlers) para descobrir páginas disponíveis publicamente.

    O rastreador mais conhecido é chamado de "Googlebot". Os rastreadores analisam as páginas da Web e seguem os links contidos nelas, como você faz ao navegar na Internet. Eles avançam de link em link e transmitem aos servidores do Google os dados destas páginas da Web.

    Ou seja, o googlebot É um WEB CRAWLER.

    Indexador: organizado do que foi buscado.

    Fonte: Prof V. Dalton

  • é o processo de examinar arquivos, mensagens de email e outro conteúdo em seu computador e catalogar as informações, como as palavras e os metadados. Quando você pesquisa o computador após a indexação, ele analisa um índice dos termos para encontrar resultados mais rapidamente.

  • Indexar é a fase de ORGANIZAR os resultados da busca,

    Mas a busca é feita por um "robozinho"

    gabarito ERRADO

  • Indexador = Máquina ou Máquinas, responsável pelo processamento de dados recolhidos.

    Robot = Programa que percorre a rede.

  • Alternativa correta: Errado.

    Quem navega autonomamente pela internet, localizando e varrendo os documentos em busca de palavras-chaves para compor a base de dados de pesquisa são os Crawlers (também conhecidos como Bots ou Spiders).

    Já o indexador tem a função de processar e colocar em índice (por ordem de relevância, data e etc) as informações coletadas pelos Crawlers.

  • Já assistiu àquele filme do robô que coleta lixo no planeta dele ? Wall-e....

    Robot – Trata-se de um programa que percorre a rede em busca de conexões. ROBO COLETOR Wall-e

    Indexador Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots. Central de recolhimento da sucata>> vai processar lixo(conexões) que wall-e coletou

    Banco de Dados – Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Apóss processar, a fabrica irá guardar no local apropriado

    Programa de Busca – Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa. Existe um computador para saber qual fileira está os lixos

    Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada. "localiza e varre". Existe um faxineiro que fixa varrendo o local para localizar algo quando alguém solicitar

    Assistam o filme!

  • Crawler, Spider, Bot = É o Crawler quem faz as pesquisas, localizando ou varrendo as informações.

    Indexador = Vai colocar os índices por ordem, seja de relevância, tipo de arquivo, data, entre outros.

    • Crawler, Spider, Bot = faz as pesquisas, localizando ou varrendo as informações.
    • Indexador (ORGANIZADOR) = Vai colocar os índices por ordem, seja de relevância, tipo de arquivo, data, entre outros.

    EM RESUMO: Crawler busca na net tudo que conseguir achar e joga tudo misturado no colo do indexador. O indexador pega e organiza.

    um exemplo:

    • Imagine que você (indexador) trabalha numa escritório de advocacia, seu colega de trabalho (Crawler) vindo da sala de documentos (internet), chega a você com aquela pilha de processos de meio metro de espessura, joga na sua mesa e diz : Organiza aí pra mim esses processos por ordem de relevância, tipo de processo e data de abertura, pois o gerente (você usuário) pediu um documento, e assim é mais facil dele achar o que deseja.

    Você chefe do computador pedi ao Crawler um documento (exemplo) concurso cespe, o Crawler vai la buscar todos os documentos relacionados a seu pedido, achará centenas, vai trazer todos, porém o coitado do indexador é quem vai se l@scar pra separar e organizar todos de modo que fique mais facil pra você achar o que procura.

    tu quer comer feijão, o Crawler compra um saco de 60 quilos, cheio de pedra, terra, grãos estragados e joga no colo do indexador pra ele escolher colocar no fogo e matar sua fome.

    assim ficaria correto :

    A respeito da utilização de tecnologias, ferramentas, aplicativos e procedimentos associados a Internet/intranet, julgue o item seguinte.

    Nas ferramentas de busca, o CrawLER é o programa que navega autonomamente pela Internet, Localizando E vaRRrendo os documentos em busca de palavras-chaves para compor a base de dados da pesquisa.

  • Web crawler, bot ou web spider é um algoritmo usado pelos buscadores para encontrar, ler e indexar páginas de um site. É como um robô que captura informações de cada um dos links que encontra pela frente, cadastra e compreende o que é mais relevante.

    MECANISMOS DE BUSCA:

    Robot: Trata-se de um programa que percorre a rede em busca de conexões.

    Indexador: Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

    Banco de Dados: Os dados organizados pelo indexador são armazenados em um local chamado banco de dados. Esse banco de dados obedece a certos comandos para emitir dados ou informações.

    Programa de Busca: Programa que permite ao(à) usuário(a) acessar o banco de dados e extrair dele o que precisa.

    Jogue os dois no resumo, ajuda bastante.

  • Para não esquecer mais.

    Craler, bots, Robos ou Spider: Fazem a varredura para indexar as páginas aos sites de pesquisa.

    Indexadores: Coloca em índice por ordem de relevância.

    Gab: Errado

  • Robot (Crawler/Spider/Bot)  

     ➥Trata-se de um programa que percorre a rede em busca de conexões.

     ➥localiza e varre

    Indexador 

     ➥ Máquina ou conjunto de máquinas, existentes na central, encarregadas de processar os dados recolhidos pelos robots.

  • Comentários do prof. Diego do Estratégia (@professordiegocarvalho):

    A pesquisa é realizada em três etapas: rastreamento, indexação e veiculação. A indexação é o processo através do qual o Google tenta identificar o conteúdo de uma página encontrada. A questão trata da etapa de rastreamento que, por meio de rastreadores (conhecidos como crawlers), percorrem a web, seguindo de link em link para gerar uma página de índice que inclui os termos buscados e o mecanismo de busca consulta este índice quando as buscas são efetuadas.

    Gabarito: Errado 

  • Não entendi porque esta questão foi dada como ERRADA.

    O programa que navega autonomamente pela internet é o Googlebot. O próprio Google, no "Guia avançado: como funciona a Pesquisa" afirma que ele também é conhecido como 'bot', 'robô' ou 'indexador'. Nessa perspectiva, a questão deveria estar correta, já que ele traz o termo 'indexador' como sinônimo, não errada, como foi o gabarito.

    "Nós usamos um grande conjunto de computadores para buscar (ou “rastrear”) bilhões de páginas na Web. O programa que faz a busca é chamado de Googlebot (também conhecido como robô, bot ou indexador)"

    Fonte: https://developers.google.com/search/docs/advanced/guidelines/how-search-works?hl=pt-br

  • É o Crawler / aranha da Web / spyder

  • Os motores de busca funcionam, basicamente, em três etapas:

    1) CRAWLING: Primeiramente, os buscadores rastreiam os conteúdos da web. Eles seguem os caminhos que os links apontam, em busca de novas páginas e atualizações. (Quem faz isso são os robôs ou spiders)

    2) INDEXAÇÃO: Na sequência, as páginas rastreadas são indexadas. Ou seja, elas vão para o índice do buscador, que funciona como uma grande biblioteca de conteúdo da web.

    3) RANKEAMENTO: Acontece toda vez que um usuário faz uma pesquisa, a classificação então é definida pela melhor correspondência de palavra-chave, autoridade do domínio, relevância dos links, conteúdo original e de qualidade, e muitos outros fatores existentes (existem + de 150 fatores)

    OBS: Crawling e Indexação acontecem a todo momento