SóProvas


ID
5493742
Banca
CESPE / CEBRASPE
Órgão
SEFAZ-CE
Ano
2021
Provas
Disciplina
Engenharia de Software
Assuntos

A respeito de inteligência artificial, julgue o item seguinte. 

Redes neurais do tipo LSTM (long short-term memory) mantêm o nível de precisão independentemente do tamanho do modelo utilizado.

Alternativas
Comentários
  • A precisão do modelo depende do tamanho do batch_size.

    GAB: Errado.

    Foco!

  • Desculpe discordar do Bruno Aprigio, mas o nível de precisão de uma rede neral tem mais a ver com a profundidade do modelo ou o número de neurônios do que do batch_size.

    O batch_size é o tamanho dos dados de treinamento utilizados em uma iteração. Imagina se tivermos 20GB de dados para treinarmos um modelo de rede neural. Então teriamos que ter pelo menos 20GB de memória disponível para alocação e mais o treinamento. Por isso foi criado o batch_size. Para separar esses 20GB em tamanhos menores e em várias iterações.

    Concluindo: a questão está errada pelo fato de que o tamanho do modelo (profundidade da rede neural ou número de neurônios) afeta sim a precisão do resultado nas LSTM e RNN tradicionais.

    Para saber mais sobre o que são as LSTM, recomendo o artigo:

    https://www.deeplearningbook.com.br/arquitetura-de-redes-neurais-long-short-term-memory/

  • Fabio, por ser um assunto novo em concursos e de difícil compreensão, estamos todos nos adaptando.

    Entretanto, seguir seu link é encontrei informações que corroboram para influência do batch_size na precisão dos modelos de redes neurais.

    "O tamanho do lote é um dos hiperparâmetros mais importantes para sintonizar os modernos sistemas de aprendizagem profunda."

    https://www.deeplearningbook.com.br/o-efeito-do-batch-size-no-treinamento-de-redes-neurais-artificiais/

    Creio que estamos analisando termos distintos para mesma questão.

  • Senhores, eu vou na linha do Bruno, com alguns acréscimos. Pois o treinamento variará tanto com um quanto com o outro. O resultado, por sinal, nem sempre melhora porque eu aumentei a profundidade da minha rede. Já fiz diversos testes deste tipo. A maior influência é a quantidade de dados existentes, principalmente aqueles com comportamento das quais alterações geram alterações na variável que desejamos encontrar. Além disso, acho que um ponto que influencia muito, é o tratamento dos dados. Fazer correlação de Pearson, eliminar dados desnecessários... e concordo plenamente com o Bruno, o Batch_Size tem grande influência com o resultado e vc sem querer até corroborou, quando falou da quebra dos dados porque o treinamento pleno requer muita memória e muito tempo, mas a certeza é que este treinamento mais demorado gerará sim um resultado melhor.

    Por sinal, para resumir, já fiz diversos modelos em que eu queria comparar se o aumento de neurônios ou profundidade da rede me geraria um resultado melhor mantendo o mesmo batch_size, até comprei um computador com uma placa de vídeo boa para rodar via CUDAS e GPUs com intuito de encontrar uma relação direta. Não existe, nem sempre aumentar neurônios e profundidade da rede implica em melhoria nos resultados, em alguns casos minha rede até gerou resultados piores comparados com os dados de treinamento e teste.

  • Gente, eu só quero ser puliça, e não cientista em robótica.