SóProvas



Prova SRH - 2015 - UERJ - Analista de Sistemas


ID
1449772
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

No Windows 2008 Server, em um servidor com 2 GB de RAM, quanto, a memória mínima recomendada para definir o tamanho total do arquivo de paginação, em MB, é de:

Alternativas
Comentários
  • O recomendado não seria 1.5 x RAM? Pq nesse caso foi 2x?

  • De acordo com uma velha regra de ouro, o seu arquivo de paginação ou troca deve ser "o dobro da memória RAM" - See more at: http://www.yac.mx/pt/pc-tech-tips/sofware/How_Big_Should_Your_Page_File_or_Swap_Partition_Be.html#sthash.Fb7hBZpq.dpuf

  • Realmente, a "regra de ouro" não foi adotada pela Microsoft, vide:

    Pagefile

    "Users frequently ask "how big should I make the pagefile?" There is no single answer to this question because it depends on the amount of installed RAM and on how much virtual memory that workload requires. If there is no other information available, the typical recommendation of 1.5 times the installed RAM is a good starting point. On server systems, you typically want to have sufficient RAM so that there is never a shortage and so that the pagefile is basically not used. On these systems, it may serve no useful purpose to maintain a really large pagefile. On the other hand, if disk space is plentiful, maintaining a large pagefile (for example, 1.5 times the installed RAM) does not cause a problem, and this also eliminates the need to worry over how large to make it."

    https://support.microsoft.com/en-us/kb/2160852

     

     

  • Arquivos de paginação são na verdade uma extensão da memória principal quando se aloca espaço no Disco rígido para aquelas páginas que estão sendo pouco utilizadas. Sendo assim é calculado como sendo o dobro da memória principal (no mínimo); como a memória (segundo a questão) é de 2 GB (= 2048 Mega Bytes) o dobro seria 2 x 2048 = 4096 Mega Bytes. :p

  • mano, de qual livro, apostila vocês tiraram isso? na moral, questão deveria ter sido anulada por ser muita zueira e por eu não ser uma enciclopédia ambulante pqp viu

    Toda questão de SO deveria estar em um livro tipo Tanenbaum, assim você lê e fecha a prova, nada mais justo que delimitar sapoha

    Obs: ler/resumir/aprender/apreender 50 mil páginas de documentação de todos SOs desde o Windows 98 no site da microsoft para concurso é inviável, acho que vocês vão concordar comigo


ID
1449775
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Arquitetura de Computadores
Assuntos

O resultado da conversão para binário dos números decimais 10 e -25, usando 8 bits com notação de complemento a dois é:

Alternativas
Comentários
  • Se a resposta fossem números positivos seria a letra A, mas como é negativo é a letra B.
    Alguém poderia me explicar?

  • Segue a uma breve explicação de complemento 2.

    25  positivo com 8 bits seria: 00011001. Entretanto, seu valor negativo no complemento 2 você deverá efetuar dois passos:

    1º passo: inverter o valor de todos os bits referente ao valor positivo, neste caso 25, que ficará 11100110.

     2º passo: adicionar 1

    Segue a conta:

    11100110
    +            1
    -------------
    11100111

    Espero ter ajudado. 

  • Tá, mas e o 10, não foi a complemento 2?

  • A notação de complemento de 2 só tem que lembrar da regra de SINAL para os números NEGATIVOS.

    - Se for POSITIVO, só fazer a conversão normal e complementar os bits com zero.

    10 = 1010   -> completando com 0 para formar os 8 bits  ->00001010

    - Se NEGATIVO, inverter todos os bits e somar 1. de acordo como o colega explicou acima.

  • Também não entendi essa questão.

     

    00001010 é o número 10 (decimal) em binário de 8 bits, e não em complemento a dois.

     

    10 (decimal) em complemento a dois é 11110110.

  • esse gabarito tá errado na minha opnião. a regra de complemento de 2 é a mesma para num positivos e negativos. minha resposta seria letra D.  10 = 0110 ou 1111 0110;  e -25 =  100111 ou 11 100111

  • Na representação em complemento de 2 (C2), o bit da esquerda indica o sinal (0 representa positivo e 1 negativo, em binário!)

     

    Números Positivos:

    +10 (decimal) = 0000 1010 (binário). Quando o número é positivo, o C2 dele é a própria representação em binário.

     

    Números Negativos:

    Agora vamos obter a representação de -25 em C2 (percebam que vamos iniciar os cálculos com +25).

    +25 (decimal) = 0001 1001 (binário)

    Complemento de 1 (basta inverter os bits) => 1110 0110

    Complemento de 2  (adiciona 1 ao C1) => 1110 0110 + 1 = 1110 0111 (Isso representa -25. Notem que partimos do +25.)


ID
1449778
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

Os Sistemas Operacionais (S.O.) apresentam uma arquitetura que tem a seguinte forma:

Alternativas
Comentários
  • Deixe o seu número que adicionarei.

ID
1449781
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Banco de Dados
Assuntos

O sistema de linguagem SQL (Structured Query Language, ou Linguagem de Consulta Estruturada) possui a seguinte característica:

Alternativas

ID
1449784
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Suponha um host com endereço IP 10.1.1.185 e máscara de sub-rede 255.255.255.128. A sub-rede à qual o host pertence, o endereço de broadcast e a faixa de IPs disponível para os hosts dessa sub-rede são, respectivamente:

Alternativas
Comentários
  • Vamos por partes:

    No enunciado fala da máscara 255.255.255.128, isto quer dizer que os três primeiros octetos terão os bits ativos e o último octeto terá apenas um bit ativo, ficando assim: 11111111.11111111.11111111.10000000  

                                                                                                                                      

    Os bits "1" fazem referência a rede, então 2^1 = 2 redes, enquanto os bits "0", os hosts. Temos 7 bits setados como ZERO, isso quer dizer que 2^7 = 128 hosts.


    O endereço começa em: 10.1.1.0 (Endereço de rede) e vai até 10.1.1.127 (endereço de Broadcast) -> 1ª rede

                                     10.1.1.128 (Endereço de rede) e vai até 10.1.1.255 (endereço de Broadcast) -> 2ª rede


    Agora é só montar -> Qual sub-rede o host pertence? a segunda, pois o endereço dele (10.1.1.185) fica entre os endereços disponíveis na segunda faixa, e como se sabe, o endereço de sub-rede é o primeiro endereço de rede alocado, ou seja, 10.1.1.128. Agora como saber a máscara do endereço? Simples, é só contar os bits ativos "1", no caso /25, ficando 10.1.1.128/25.

    Qual o endereço de broadcast? É sempre o último endereço da sub-rede, 10.1.1.255. E o endereços disponíveis pra o host? ora, se o primeiro endereço é o de rede (terminando em .128) e o último é o de broadcast (terminando em .255), os endereços disponíveis para uso são os que ficam entre esses dois endereços, então, do 10.1.1.129 ao 10.1.1.254

  • Eu resolvi da seguinte forma:

    Ip: 10.1.1.185
    Mask: 255.255.255.128

    Sabendo-se que um endereço de IP é composto por quatro octetos e cada um deles possui 8 bits, logo um endereço de IP tem 32 bits, a partir disso é possível descobrir a máscara em notação CIDR.

    128 + 64 + 32 + 16 + 8 + 4 + 2 + 1

    Se somar todos esses valores, obtemos um resultado de 255, logo o último octeto é apenas 128, então só pegamos o primeiro bit.
    sendo assim a mascara em binário fica da seguinte forma: 11111111.11111111.11111111.1000000
    Para saber a representação da máscara em CIDR, basta contar o números de bit´s marcados com 1, logo o CIDR desta máscara é 25.

    O próximo passo é converter o endereço de IP 10.1.1.185 para binário: 00001010.00000001.00000001.10111001
    Depois convertermos a máscara para binário e aplicamos uma operação and bit a bit:11111111.11111111.11111111.1000000
     
    Operação :IP:      00001010.00000001.00000001.10111001
                      Masc: 11111111.11111111.11111111.1000000
                                 ___________________________________
                    Rede:   00001010.00000001.00000001.10000000
    O resultado dessa operação é o endereço de Rede, que convertido para decimal: 10.1.1.128/25
    Para descobrir o endereço de broadcast basta negar a mascara e fazer uma operação OR bit a bit entre o endereço da rede e a negação da mascara.

    Rede:       00001010.00000001.00000001.10000000
    Negação: 00000000.00000000.00000000.01111111
    _______________________________________________
    Broad:    00001010.00000001.00000001.11111111

    Convertendo o endereço para decimal, temos: 10.1.1.255/25
    Faixa de Ip´s válidos: 10.1.1.129 até 10.1.1254

    resultado final: 10.1.1.128/25  10.1.1.255  10.1.1.129 – 10.1.1.254

    Recentemente desenvolvi um aplicativo para cálculos de sub-redes, quem quiser baixar para agilizar os trabalhos segue o link:

    https://play.google.com/store/apps/details?id=joaoleno.com.calculo.subrede


ID
1449787
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

São portas TCP padrão, sem criptografia, utilizadas pelos protocolos SMTP, IMAP e POP3, respectivamente:

Alternativas
Comentários
  • Sem Criptografia: SMTP (Porta 25);IMAP(Porta 143);POP3(Porta 110);FTP(Porta 20 e 21)

    Com Criptografia: SMTP (Porta 465);IMAP(Porta 993);POP3(Porta 995)FTP(989 e 990)

  • Válido lembrar que existe a 587 para o SMTP também.


ID
1449790
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Arquitetura de Computadores
Assuntos

A conversão do binário 11001111.01 para hexadecimal é:

Alternativas
Comentários
  • |   8   |   4   |   2   |   1   |

    _________________________

    |   1   |   1   |   0   |   0   | = 12, 12 em hexadecimal igual a C

    |   1   |   1   |   1   |   1   | = 15, 15 em hexadecimal igual F

    |   0   |   1   |   0   |   0   | = 4

    Resposta: CF4

  • Separa em grupos de 4, se faltar completa com 0 na frente, se for após o ponto, completa no final:

    11001111.01 = 1100 1111 . 0100

    1100 = C

    1111 = F

    0100 = 4

  • Dificil demais.

     


ID
1449793
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Segurança da Informação
Assuntos

Os certificados confiáveis são utilizados para garantir uma comunicação segura na Internet. A responsabilidade da Autoridade de Certificação (CA - Certification Authority) na comunicação segura na Internet é:

Alternativas

ID
1449796
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

O protocolo Camada Segura de Sockets ou Secure Sockets Layers (SSL) é um padrão de segurança que atua da seguinte forma:

Alternativas
Comentários
  • https://pt.wikipedia.org/wiki/Transport_Layer_Security


ID
1449799
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Em redes de computadores, o Protocolo de Resolução de Endereços (ARP – Address Resolution Protocol) está associado à fronteira das seguintes camadas do modelo OSI:

Alternativas
Comentários
  • O protocolo ARP pertence a camada de redes. Ele recebe um endereço IP vindo do protocolo IP (camada de redes), mapeia o endereço para o endereço correspondente da camada de enlace, e passa o resultado para a camada de enlace

  • Retirado do Kurose.


ID
1449802
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Em relação ao endereço IP 172.22.3.65, máscara 255.255.255.192, pode-se afirmar que:

Alternativas
Comentários
  • Let´s go, vamos aos cálculos!

    IP: 172.22.3.65
    Máscara: 225.255.255.192
    CIDR: 26

    Para descobrir o endereço da rede basta realizar uma operação AND bit a bit entre o endereço de IP e a Mácara em notação CIDR.
    IP:       10101100.00010110.00000011.01000001
    Masc: 11111111.11111111.11111111.11000000    AND
               ___________________________________
    Rede: 10101100.00010110.00000011.01000000

    Convertendo para decimal temos o seguinte endereço de Rede: 172.22.3.64

    Agora vamos descobrir o endereço de broadcast, para isto basta realizar uma operação OR entre o endereço de rede e a negação da máscara.

    Rede:   10101100.00010110.00000011.01000000
    Neg:     00000000.00000000.00000000.00111111  OR
                 __________________________________
    Broad:  10101100.00010110.00000011.01111111

    Convertendo para decimal temos o seguinte endereço de Broadcast: 172.22.3.127

    Desta forma a resposta  correta é: o endereço de broadcast da rede é 172.22.3.127

    Desenvolvi recentemente um aplicativo para cálculo de sub-redes, quem quiser da uma olhada segue o link:

    https://play.google.com/store/apps/details?id=joaoleno.com.calculo.subrede

  • Para descobrir o endereço de rede e broadcast basta fazermos o seguinte:

    A faixa de 0 a 255 obtemos 256 números. A partir da mascara informada vamos descobri o intervalo das faixas.

     255.255.255.192. --> 256 -192=64 
    LOGO, AS FAIXAS VÃO DE 64 EM 64.
    172.22.3.0  à 172.22.3.63  = Temos 64 números
    172.22.3.64  à 172.22.3.127  =Nosso IP encontra-se nessa faixa, portanto o endereço de rede:172.22.3.64 e o de roadcast:172.22.3.127
    172.22.3.128  à 172.22.3.191
    172.22.3.192  à 172.22.3.255
  • Bom dia! eu entendo que a alternativa C) está correta, mas meu entendimento de endereço

    de IP gateway seria o primeiro IP válido da rede, então porque a alternativa C) está errada?

  • c-

    mascara 255.255.255.192 é barra 26. logo, o ultimo octeto sera 11000000.

    1 - network bits. 0- host bits.

    6 host bits significa 2^6 = 64. As subredes serao divididas em intervalos de 64 endereços:

    0-63

    64-127 é esse que interessa

    128-191

    192-255

    ______________

    Logo, nossa subrede tera ip's de 172.22.3.64 a 172.22.3.127, sendo este ultimo o endereço de broadcast e o primeiro o endereço de rede (gateway).


ID
1449805
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

O endereço de broadcast da rede a que pertence o endereço IP 145.77.88.4/22 é:

Alternativas
Comentários
  • /22 = 2 bits para rede, 8 bits para host, sendo portanto, 4 subredes de 256 hosts totalizando uma rede de 1024 hosts (sem excluir os endereços de rede e broadcast).

    Assim, o endereço de rede será 145.77.88.0 e o endereço de broadcast será 145.77.91.255.

    Subrede 1: 145.77.88.0 a 145.77.88.255

    Subrede 2: 145.77.89.0 a 145.77.89.255

    Subrede 3: 145.77.90.0 a 145.77.90.255

    Subrede 4: 145.77.91.0 a 145.77.91.255

  • Para calcular a subrede, temos que olhar para o octeto onde a mascara é incompleta, ou seja, diferente de 8 bits.

    Para uma mascara de 22 bits, nesse endereço de classe B temos:

    mascara:

    11111111.11111111.11111100.00000000

    o terceiro octeto esta incompleto, temos uma subnet, portanto são usados 6 bits para a subrede, e sobram 10 bits para endereçamento de hosts:

    mascara total-mascara subrede-> 32-22 = 10 bits para hosts

    2^6 para subredes que da um total de 64 subredes:

    percebam que se convertemos 11111100 para decimal = 88, exatamente a primeira subrede. 

    se o endereçamento de hosts é 2^10 temos = 1024 endereços (incluindo ID e Broadcast)

    Dividindo 1024 em grupos de 256 = 4 grupos

    então concluimos que:

    para incluir esses 1024 endereços (em 4 grupos de 256) dentro da primeira subrede temos:

    145.77.88.0 - 145.77.88.255 (256 endereços)

    145.77.88.89 - 145.77.89.255 (256 endereços)

    145.77.88.90 - 145.77.90.255 (256 endereços)

    145.77.88.91 - 145.77.91.255 (256 endereços)

     

    145.77.88.92 - 145.77.95.255 (2ª subrede)

    145.77.88.96 - 145.77.99.255 (3ª subrede)

    .

    .

    .

    145.77.88.252 - 145.77.255.255 (64ª subrede)

     

  • //CALCULO BROADCAST
    1º passa IP para binário
    145.77.88.4 = 10010001.01001101.01011000.00000100
    2º passa MASCARA para binário
    /22 = 255.255.252.00= 11111111.11111111.11111100.00000000
    3 º operação NOT na mascara
    11111111.11111111. 11111100.00000000 = 00000000.00000000.00000011.11111111
    4º faz o OR entre o IP e o NOT da máscara para achar o broadcast
    10010001.01001101.01011000.00000100 = ip
    OR
    00000000.00000000.00000011.11111111 = not mascara
    -----------------------------------
    10010001.01001101.01011011. 11111111 = Broadcast
    5º passa broadcast para decimal
    10010001.01001101.01011011.11111111 = 145.77.91.255


ID
1449808
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Dentre as tecnologias de armazenamento em redes de computadores “Network Attached Storage” (NAS) e “Storage Area Network” (SAN), a tecnologia SAN se destaca por:

Alternativas
Comentários
  • a) aumenta bastante o custo e complexidade

    b) aumenta bastante o custo e complexidade e maior flexibilidade e adaptabilidade

    c) acesso à nível de blocos. Quem utiliza e a tecnlogia NAS

    d) NAS trabalha com os protocolos: CIFS/SMB, FTP, NFS e TCP/IP e o SAS utiliza os protocolos: FC e iSCSI

    Bons estudos.

  • [B] - ter um elevado custo de implementação e de gestão, quando comparado à outra tecnologia

  • b-

    Em uma SAN, periféricos de armazenamento on-line são configurados como nós em uma rede de alta velocidade e podem ser conectados (attached) e desconectados (detached) dos servidores de maneira bastante flexível, apresentando velocidade e capacidade de armazenamento de dados superiores à NAS. Com infraestrutura de comunicação, geralmente baseada em fibre channel, um ambiente SAN provê conexões físicas com uma camada de gerenciamento que organiza as conexões, os dispositivos de armazenamento e os computadores.

    NAS utiliza protocolos NFS, CIFS/SMB e FTP, podendo centralizar a responsabilidade de servir os arquivos em uma rede e, assim, liberar recursos de outros servidores desta rede.

    __________________________________________________________________________________________________________________________________________________________________________________________________________________

    resumo:

    NAS é um dispositivo e SAN é uma rede.

    file-level: NAS

    block-level: SAN


ID
1449811
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Na configuração do MTA Postfix, normalmente configurados no arquivo main.cf, o parâmetro que limita o tamanho máximo de mensagem que o sistema aceitará é:

Alternativas

ID
1449814
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Para operar com grandes volumes de dados ou garantir uma alta disponibilidade no armazenamento, é necessário conhecimentos em Redundant Array of Independent Disks (RAID). Com o objetivo de promover uma alta disponibilidade de dados, um administrador decide investir na confiabilidade do armazenamento de um servidor com 4 (quatro) discos rígidos (hard disk) por meio do uso de RAID.

A tecnologia RAID que oferece a maior confiabilidade em caso de falhas simultâneas de disco é:

Alternativas
Comentários
  • Bom pessoal, aqui a banca quis dar um nó na sua cabeça tentando "apatralhar" com as ideias de grandes volumes OU garantia de alta disponibilidade. Atente que a questão pede que a maior confiabilidade em relação ao aspecto disponibilidade de dados. Ou seja, qual será a solução onde as chances de que os dados sejam perdidos são menores. No caso das letras a) e d) temos de cara o RAID 0. Ou seja, como vimos, nestas alternativas temos a seguimentação dos dados alocados em discos diferentes onde a probabilidade de falha colocaria em check a confiabilidade que a questão pede. No caso da alternativa c) temos um RAID 6. Esse moço aí até poderia ser implementando levando em consideração que no nível 6 basta que tenhamos 2 + N discos e suporte a tal tecnologia. Todavia, o fator impeditivo dessa opção seria o tempo de recuperação do dado perdido que, neste caso, seria mais elevado em relação às demais opções. Por fim nos resta a letra B, gabarito da questão. Uma vez usando o RAID 1(Espelhamento) teremos alta disponibilidade e confiabilidade tendo em vista que uma vez que um dos HD´s do espelhamento falhe, o dado será prontamente acessado no outro replicado.

  • Não entendi por que não poderia ser RAID 10, uma vez que, assim como no RAID 1, haveria o espelhamento, com a vantagem de melhor desempenho.

  • Não consegui engolir esse gabarito, a questão fala em falhas simultâneas, ou seja, uma falha simultânea significa ocorrência de problemas  em pelo menos dois discos  ... Se for usado RAID 1, no caso de um total de  4 discos como foi dado pela questão, temos : dois discos com metade da informação e mais dois com a outra metade.

    Se falharem os dois discos que contêm a mesma metade haverá perda de dados ... ou seja não é a opção mais confiável ... Eu voto na alternativa "C" (RAID 6), mas o gabarito oficial é "B".

  • Essa questão pareceu Cilada total. Fui seco no RAID6.

  • O problema da questão está na parte que fala o seguinte:

    A tecnologia RAID que oferece a maior confiabilidade em caso de falhas simultâneas de disco é:

    Como a questão informou que serão 4 HD's utilizados no caso de falhas simultâneas, entendi que seria falhas em vários discos, o que com 4 HD's com RAID 1 os dados seriam comprometidos, agora se prestarmos atenção a mesma pergunta: "Em caso de falhas simultâneas em disco" e não nos discos...

    Nesse caso a questão poderia estar se referindo a várias falha em um único disco!

    Fiquei nessa dúvida agora! 

  • O RAID 1 aplicado em 4 discos resulta em um arranjo de 4 discos com as mesmas informações. Assim, se até 3 discos falharem, os dados ainda serão completamente mantidos. Com o RAID 6 aplicado, o seu sistema de paridade dupla permite que os dados sejam restaurados com, no máximo, 2 discos comprometidos. Desse forma, nesse caso específico, o RAID 1 aplicado nesse arranjo de 4 discos, permitirá uma que uma maior quantidade de discos falhem simultaneamente.

  • é o RAID 1: 
       n-1 (todos menos um)
       Ex: com 4 discos -> 4 -1 = 3 discos podem falhar

    RAID 0: não há redundância. 
    RAID 1: pode falhar n-1 (todos -1)
    RAID 5: pode falhar 1
    RAID 6: pode falhar 2
    RAID 01:  Até metade dos discos n/2 pode falhar simultaneamente, sem colocar o conjunto a perder, desde que não falhem todos os discos que possuem a mesma sequencia de dados em cada grupo/espelho ao mesmo tempo. Se apenas uma das controladoras falhar, o sistema continua funcionando, mas sem o ganho de velocidade nem tolerância a outra falha.
    RAID 10:  Até metade dos discos n/2 pode falhar simultaneamente, sem colocar o conjunto a perder, desde que não falhem todos os discos de um espelho/grupo qualquer.  Se apenas uma das controladoras falhar, o sistema para de funcionar, e há perda de dados.
    RAID 60: falhar 2 por subgrupo/pool

  • (a) Errado. RAID 0 não oferece confiabilidade; (b) Correto. RAID 1 oferece o espelhamento, aumentando a confiabilidade em caso de falhas simultâneas; (c) Correto. Não há nada que impeça a utilização de um RAID 6, visto que ele também oferece maior confiabilidade em caso de falhas simultâneas; (d) Correto. RAID 10 oferece espelhamento, logo aumenta a confiabilidade em caso de falhas simultâneas desde que não sejam em um mesmo espelho. Ué, professor? Pois é, isso é uma questão mal feita que – para mim – possui três possíveis respostas! Discordo do gabarito oficial: Letra B! 

    Fonte: Estratégia Questões.

  • A tecnologia RAID que oferece a maior confiabilidade em caso de falhas simultâneas de disco é:

    "falhas simultâneas de disco" está relacionando mais de um, no caso, o RAID 6 suporta falha de até 2 discos.

    Questão anulável.


ID
1449817
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

No Windows 2008 Server, o User Account Control (UAC) aumenta a segurança impedindo que usuários implementem mudanças inadvertidas nas configurações do sistema e bloqueia o computador para impedir que aplicativos não autorizados se instalem ou executem ações suspeitas.

O principal componente do UAC que determina como os administradores serão avisados da elevação é:

Alternativas
Comentários
  • User Account Control: Turn on Admin Approval Mode

    The User Account Control: Turn on Admin Approval Mode policy setting controls the behavior of all User Account Control (UAC) policy settings for the computer. If you change this policy setting, you must restart your computer.
    The options are:

    Enabled. (Default) Admin Approval Mode is enabled. This policy must be enabled and related UAC policy settings must also be set appropriately to allow the built-in Administrator account and all other users who are members of the Administrators group to run in Admin Approval Mode.

    Disabled. Admin Approval Mode and all related UAC policy settings are disabled.

    Fonte: https://technet.microsoft.com/en-us/library/dd851338(v=ws.11).aspx


ID
1449820
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Levando em consideração o endereço 172.22.3.65, referente às redes ipv4, no qual existem redes públicas e privadas, assinale a opção que apresenta a classe a que pertence esse endereço e se é público ou privado.

Alternativas
Comentários
  • Redes privadas:

    Classe A: De 10.0.0.0 até 10.255.255.255

    Classe B: De 172.16.0.0 até 172.31.255.255

    Classe C: De 192.168.0.0 até 192.168.255.255

  • Vou ensinar um macete para descobrir a classe do endereço de IP:
     Basta converter o primeiro octeto para binário e verificar o primeiro bit 0.
    exemplo:

    172 = 10101100, Logo o bit 0 mais a esquerda é o segundo, então ele é da classe B.


ID
1449823
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

O protocolo SSH permite a criação de ferramentas extremamente versáteis. Com ele é possível exportar e usar remotamente aplicativos gráficos e de texto, transportar outros protocolos internamente por meio de túneis estáticos (como o http e https), criar túneis dinâmicos para navegação assistida de browsers, entre outras funcionalidades.

Supondo que o gerente de um servidor OpenSSH configure o envio de pacotes automáticos, reduzindo a ociosidade da conexão, por meio do canal encriptado para manter abertas as conexões com os clientes, a diretriz que deve ser usada é:

Alternativas
Comentários
  • Ao errar a questão, fui pesquisar. A diretriz realmente é a ClientAliveInterval mas o comando enviado continua a ser o keepalive.


    Using an OpenSSH server's ClientAliveInterval, it is possible for the ssh server to send periodic "keep alive" messages to the ssh client, keeping the connection open indefinitely. This is useful when a firewall or other packet filtering device drops idle connections after a certain period of time. Note that this is different from the KeepAlive directive in ssh_config.

    From the sshd_config manpage:

      ClientAliveInterval
      Sets a timeout interval in seconds after which if no data has
      been received from the client, sshd will send a message through
      the encrypted channel to request a response from the client.  The
      default is 0, indicating that these messages will not be sent to
      the client.  This option applies to protocol version 2 only.

    Example (send "keep alive" messages every 5 minutes) on Red Hat Linux:
    http://www.brandonhutchinson.com/OpenSSH_ClientAliveInterval.html

  • Usando o ClientAliveInterval de um servidor OpenSSH, é possível que o servidor ssh para enviar periódica "keep alive" mensagens para o cliente ssh, mantendo a conexão aberta indefinidamente. Isso é útil quando um dispositivo de filtragem de pacotes do firewall ou outro cai conexões inativas depois de um certo período de tempo. Note que este é diferente da diretiva KeepAlive em ssh_config.


ID
1449826
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Banco de Dados
Assuntos

A solução correta para que uma consulta sql retorne às agências que possuem média dos saldos aplicados em conta maior que 1200 é:

Alternativas
Comentários
  • A Função having tem por objetivo especifica um critério de pesquisa para um grupo ou um agregado. A cláusula HAVING geralmente é usada com a cláusula GROUP BY.


    Portanto, a opção que demonstra de maneira correta é a opção A

    Fonte: https://technet.microsoft.com/pt-br/library/ms173260%28v=sql.110%29.aspx

  • Eu ate acertei, mas queria entender porque a letra C esta incorreta
    A clausula WHERE e os demais termos, pra mim, estao aplicadas corretamente

  • Achei a resposta do porquê da alternativa C estar errada em: http://www.postgresql.org/docs/9.1/static/sql-expressions.html#SYNTAX-AGGREGATES :

    "An aggregate expression can only appear in the result list or HAVING clause of a SELECT command. It is forbidden in other clauses, such as WHERE, because those clauses are logically evaluated before the results of aggregates are formed."


  • Obrigaado pela ajuda, amigo Paulo.
    Estudando mais sobre BD's, percebi que eh meio que uma regra(ou obrigaacao) o GROUP BY ser acompanhado do HAVING.
    Agradeco a ajuda!

  • Na verdade pode ter group by sem ter having e o contrário também.
    O Having é pra quando você utiliza uma cláusula no select que é agregada, tipo(SUM,AVG, etc) eles não podem ser filtrados no where, somente com o Having.


  • O motivo da (C) estar errada:

    "The HAVING clause was added to SQL because the WHERE keyword could not be used with aggregate functions".






ID
1449829
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

O nome e o número do sinal que destrói o processo receptor e não pode ser capturado, bloqueado ou ignorado são:

Alternativas

ID
1449832
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Um analista é chamado para verificar o porquê de um domínio não estar respondendo com o nome apropriado. Ele utiliza, por meio de um shell, ferramentas para consultas de DNS. Dentre as ferramentas abaixo relacionadas, a que não permite realizar tais verificações é:

Alternativas
Comentários
  • DIG

    O comando dig permite fazer resoluções diretas de nomes ou indiretas de endereços, e retorna muito mais informação do que o comando host. Mostra dados do cabeçalho dos arquivos db do DNS, mostra a query time que é o tempo de duração da consulta, etc.

    HOST
    O comando host é utilizado para verificar o funcionamento de um domínio, ele mostra se a resolução de nomes e apelidos está funcionando, seja na zona direta ou inversa.


    NSLOOKUP
    O comando nslookup faz pesquisa sobre domínios de internet de forma interativa (em um shell próprio) e não interativa, faz consultas que podem ou não ter uma resposta de um DNS de autoridade sobre um domínio.


ID
1449835
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

O primeiro processo a ser executado depois do sistema operacional ser inicializado, que sempre possui o PID igual a 1, é denominado de:

Alternativas
Comentários
  • INIT

    * PID = 1.
    * Processo pai de quase todos.
    * Adota os processos filhos dos processos terminados abruptamente.
    * Não morre enquanto a máquina estiver em execução
    * Primeiro a iniciar e Último a morrer


ID
1449838
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Programação
Assuntos

Em um ambiente jboss 6, pode-se acessar o console web de gerenciamento utilizando a seguinte porta padrão, pré-definida na instalação:

Alternativas
Comentários
  • Diferente de outros servidores que seguem o padrão 8080, o jboss 6 foge do padrão rsrs, cuidado com essa pessoal, é bom memorizar essa. Porta 9990.


    Boa Sorte.

  • Tem mensagem subliminar nesta porta ☺☺☺

  • A saber que o no JBoss AS 7 a porta padrão para administração mudou para 9999.

    Connection

    The first thing to do after the CLI has started is to connect to a managed AS7 instance. This is done using the command connect, e.g.

    connect

    which is equivalent to

    connect localhost:9999

    localhost:9999 is the default host and port combination for the AS7 model controller client. Both, the host and the port, are optional parameters and can be specified together or separately.


  • bons estudos

  • Letra D

    O servidor utiliza a porta:

    - 9990 - A porta do Web Management Console;

    - 9999 - A porta usada pelo Management Console e Management API

    E roda a aplicação na 8080.

    https://access.redhat.com/documentation/pt-br/jboss_enterprise_application_platform/6.1/html/security_guide/network_ports_used_by_jboss_enterprise_application_platform_62


ID
1449841
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

O comando chmod modifica as permissões de um arquivo. Observe as permissões do arquivo de nome arquivo.txt, listado pelo comando ls com opção -l:

# ls -l arquivo.txt
-rw-rw-r-- 1 root root 23 Jan 3 18:04 arquivo.txt

Após a execução do comando chmod, as permissões do arquivo foram alteradas, conforme a seguir:

# ls -l arquivo.txt
-rwxrw-r-- 1 root root 23 Jan 3 18:04 arquivo.txt

Para que o arquivo.txt recebesse a letra “x” para o dono, permitindo a execução do arquivo, o comando executado foi:

Alternativas
Comentários
  • Change Mode

    Defenir dono

    U - Dono

    G - Grupo

    O - Outros

    Representação Octal

    R - Read (4)

    W - Write (2)

    X - eXecute (1)

    Ex: chmod 764 arquivo.txt

    Muda as permissões de todos o jpg.

    Interpretação: U: podem tudo (RWX), G: Pode ler e mudar (RW) e O: Pode ler (R)


ID
1449844
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

Processos de automatização de tarefas mais complexas pode exigir a verificação de uma ação para a execução de uma segunda ação somente se a primeira apresentar erro.

Dentre as opções relacionadas abaixo, a que representa uma linha de script de bash que executará “comando02” somente se “comando01” apresentar erro é:

Alternativas
Comentários
  • Correto, isso acontece nos ambientes Linux

     

    comando01 && comando02 - só executa a segunda ação caso a primeira tenha executado com sucesso

    comando01 || comando02 - só executa a segunda ação caso a primeira tenha executado com erro

  • && = AND lógico

    || = OU lógico




ID
1449847
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

O daemon “cron” possui a função de gerenciar:

Alternativas
Comentários
  • Gabarito C

    crontab, é um programa do Unix que edita o arquivo onde são especificados os comandos a serem executados e a hora e dia de execução pelo cron, um serviço que executa comandos agendados nos sistemas operacionais do tipo Unix (como o Linux ou o MINIX, por exemplo). O cron se encarregará de verificar a hora e determinar se existe ou não algum programa a ser rodado. Caso exista ele o rodará na hora e data solicitada.[1]

    Parâmetros

    -l usuário -- lista as tarefas agendadas para o usuário -e usuário -- edita o agendador -r usuário -- apaga o arquivo do usuário -c diretório -- especifica um diretório para o Crontab

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !

  • c-

    The cron daemon ( crond ) is a system-managed executable that runs in memory with which users may schedule tasks. The user command to work with the cron service is crontab (cron table). The crontab file is a simple text file that instructs the cron daemon to perform a task at a certain time or interval.

    https://www.redhat.com/sysadmin/automate-linux-tasks-cron


ID
1449850
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

Os arquivos ficam organizados em pastas distintas chamadas diretórios. Observe os diretórios abaixo:

/bin – arquivos de configuração e inicialização críticos
/boot – Kernel e arquivos necessários para carregar o kernel
/dev – entradas de dispositivos para terminais, discos, modems, etc.
/etc – comandos necessários para mínima operação do sistemas

Assinale a opção que contém aqueles que estão com o conteúdo trocado.

Alternativas
Comentários
  • /bin - Diretório onde estão os arquivos executáveis e comandos essenciais do sistema.

    /etc - Diretório onde estão localizados os arquivos de configuração do sistema.

  • /binarquivos de configuração e inicialização críticos (ERRADO)

    comandos necessários para mínima operação do sistemas (CORRETO)

    /bootKernel e arquivos necessários para carregar o kernel (OK)

    /dev entradas de dispositivos para terminais, discos, modems, etc. (OK)

    /etc comandos necessários para mínima operação do sistemas (ERRADO)

    arquivos de configuração e inicialização críticos (CORRETO)

  • Letra A que contém diretórios que estão com o conteúdo trocado.

    bin - Diretório onde estão os Programas utilizados com frequência

    /etc - diretório onde estão os Arquivos de configuração do sistema e dos programas

  • /   - Diretório raiz.

    /bin - Diretório onde estão os arquivos executáveis e comandos essenciais do sistema.

    /boot - Diretório onde estão os arquivos necessários para iniciar o sistema. Aqui é onde fica localizada a imagem do Kernel do Linux.

    /dev - Diretório onde estão os arquivos de dispositivos do sistema, como discos, cd-roms, terminais etc.

    /etc - Diretório onde estão localizados os arquivos de configuração do sistema.

    /home - Diretório que geralmente é usado pelos usuários.

    /lib - Diretório onde estão localizadas as bibliotecas essenciais ao sistema, utilizadas pelos programas em /bin e módulos do Kernel.

    /mnt - Diretório vazio. Este diretório geralmente é utilizado para pontos de montagem de dispositivos.

    /proc - Diretório que possui informações do Kernel e de processos.

    /opt - Diretório onde estão localizados os aplicativos instalados que não venham com o Linux.

    /root - Diretório do superusuários(root). Em algumas distribuições ele pode ou não estar presente.

    /sbin - Diretório onde estão os arquivos essenciais do sistema, como aplicativos, utilitários para administração do sistema. Normalmente só o superusuário(root) tem acesso aos arquivos.

    /tmp - Diretório de arquivos temporários.

    /usr - Diretório de arquivos pertencentes aos usuários e a segunda maior hierarquia de diretórios no Linux.

    /var - Diretório onde são guardadas informações variáveis ao sistema, como arquivos de logs etc…

  • Em 17/03/21 às 14:19, você respondeu a opção A.Você acertou!

    Em 05/02/21 às 15:11, você respondeu a opção C. Você errou!

    PC-PR 2021

  • Tipo chutou letra A depois chutou letra C eu na vida.


ID
1449853
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

O comando que permite executar outros comandos como administrador do sistema é:

Alternativas

ID
1449856
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Segurança da Informação
Assuntos

Observe a estrutura abaixo:

wheel:*:10:root,evi,garth,trent
csstaff:*:100:lloyd,evi
student:*:200:dotty

De acordo com a estrutura do arquivo /etc/group, o conteúdo das colunas deve ser, respectivamente:

Alternativas

ID
1449859
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

O iptables, como um firewall, pode manipular um pacote dentro do kernel, utilizando a tabela nat, que traduz endereços para que redes distintas possam se comunicar.
Nessa tabela, as chains que podem ser utilizadas são:

Alternativas
Comentários
  • É quando temos que mascarar algum endereço IP ou rede. O Nat acontece tanto da rede externa (Internet), para a rede interna (Lan), quanto da Lan para Internet. A tabela "Nat" é composta pelas chains: PREROUTING, OUTPUT e POSTROUTING.

    Dessa forma eu acredito que a questão é passível de nulidade.

  • Concordo que a questão possa ser anulada. E apenas complementando:

    Tabelas são os locais usados para armazenar os chains e conjunto de regras com uma determinada característica em comum. As tabelas podem ser referenciadas com a opção -t tabela e existem 3 tabelas disponíveis no iptables:

    • filter - Esta é a tabela padrão, contém 3 chains padrões:

      • INPUT - Consultado para dados que chegam a máquina

      • OUTPUT - Consultado para dados que saem da máquina

      • FORWARD - Consultado para dados que são redirecionados para outra interface de rede ou outra máquina.

      Os chains INPUT e OUTPUT somente são atravessados por conexões indo/se originando de localhost.

      OBS: Para conexões locais, somente os chains INPUT e OUTPUT são consultados na tabela filter.


    • NAT - Usada para dados que gera outra conexão (masquerading, source nat, destination nat, port forwarding, proxy transparente são alguns exemplos). Possui 3 chains padrões:

      • PREROUTING - Consultado quando os pacotes precisam ser modificados logo que chegam. É o chain ideal para realização de DNAT e redirecionamento de portas (Fazendo DNAT, Seção 10.4.4).

      • OUTPUT - Consultado quando os pacotes gerados localmente precisam ser modificados antes de serem roteados. Este chain somente é consultado para conexões que se originam de IPs de interfaces locais.

      • POSTROUTING - Consultado quando os pacotes precisam ser modificados após o tratamento de roteamento. É o chain ideal para realização de SNAT e IP Masquerading (Fazendo SNAT, Seção 10.4.3).

    • mangle - Utilizada para alterações especiais de pacotes (como modificar o tipo de serviço (TOS) ou outros detalhes que serão explicados no decorrer do capítulo. Possui 2 chains padrões:

      • INPUT - Consultado quando os pacotes precisam ser modificados antes de serem enviados para o chain INPUT da tabela filter.

      • FORWARD - Consultado quando os pacotes precisam ser modificados antes de serem enviados para o chain FORWARD da tabelafilter.

      • PREROUTING - Consultado quando os pacotes precisam ser modificados antes de ser enviados para o chain PREROUTING da tabela nat.

      • POSTROUTING - Consultado quando os pacotes precisam ser modificados antes de serem enviados para o chain POSTROUTING da tabela nat.

      • OUTPUT - Consultado quando os pacotes precisam ser modificados antes de serem enviados para o chain OUTPUT da tabela nat.


ID
1449862
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

Deseja-se modificar a permissão do arquivo /home/uerj/teste.txt para que:

• O dono do arquivo tenha permissão de leitura escrita e execução;
• O grupo ao qual pertence ao usuário tenha permissão de leitura e execução;
• Os demais usuários tenham apenas permissão de leitura.

O comando a ser usado é:

Alternativas
Comentários
  • 421   421   421

    rwx - r-x -  r--

    7       5    4


ID
1449865
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Em um Servidor de DNS, no seu arquivo de configuração de zona, o parâmetro que permite que o servidor secundário busque, de tempos em tempos, a comunicação com o servidor primário é:

Alternativas
Comentários
  • Retry, Especifica o tempo em segundos que um servidor secundario devera aguardar antes que uma atualizacao falha sofra nova tentativa.


ID
1449868
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

No servidor DNS, considerando os parâmetros do arquivo named.hosts do aplicativo Bind, a opção que não contém um registro de recurso é:

Alternativas

ID
1449871
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Programação
Assuntos

Suponha que no diretório /home/uerj/teste existam os subdiretórios d1, d2, d3, d4 e d5 e que, em cada um deles, exista um arquivo com o nome a.txt. Deseja-se fazer um script que mova o arquivo a.txt desses subdiretórios para o diretório /home/uerj/teste. Como todos os arquivos possuem o mesmo nome, deve-se renomeá-lo e adicionar o número do diretório ao nome do arquivo. Por exemplo, o arquivo /home/uerj/teste/d1/a.txt será movido para /home/uerj/teste/a1.txt enquanto que o arquivo /home/uerj/teste/d3/a.txt será movido para /home/uerj/teste/a3.txt.
O código do script que realiza esse procedimento é:

Alternativas
Comentários
  • Apenas pela sintaxe do comando é possível matar essa questão sem a necessidade de analisar por completo o código


ID
1449874
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

Em um servidor Ldap, pode-se utilizar a porta padrão 389 para suportar sessões criptografadas e não criptografadas, dependendo da solicitação do cliente, através do seguinte mecanismo:

Alternativas
Comentários
  • The Start TLS extension allows an application to serialize secure and plain requests against an LDAP server on a single connection. For example, an application might use secure requests to make modifications to the directory and use plain requests to read parts of the directory that are open for unauthenticated browsing. To achieve this, the application uses the Start TLS extension to turn security on and off on demand.

    http://docs.oracle.com/javase/jndi/tutorial/ldap/ext/starttls.html


  • Bind – autentica e especifica a versão do protocolo LDAP;  

    Search – procura por e/ou recupera entradas dos diretórios;  

    Compare – testa se uma entrada tem determinado valor como atributo;  

    ADD – adiciona uma nova entrada;  

    Delete – apaga uma entrada;  

    Modify – modifica uma entrada;  

    Modify DN – move ou renomeia uma entrada;  

    Start TLS – protege a conexão com a Transport Layer Security (TLS);  

    Abandon – aborta uma requisição prévia;  

    Extended Operation – operação genérica para definir outras operações;  

    Unbind – fecha a conexão, não o inverso de Bind.  

  • a)SSL [ERRADO. É o nome do protocolo da camada de sessão que providencia autenticação]
    b)SASL [ERRADO. É o nome do protocolo que providencia autenticação]
    c)LDAPS [ERRADO. LDAP over SSL. O SSL, ao contrário do TLS, sempre é criptografado]
    d)STARTTLS [CORRETO. Operação que protege conexão com TLS, ao contrário do SSL, PODE ou NÃO ser criptografado]


ID
1449877
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Programação
Assuntos

O interpretador de comandos bash permite a verificação do status do encerramento do último comando ou função executado no script. Um exemplo de trecho de código fonte que verifica o valor desse status é:

Alternativas
Comentários
  • $? retorna o status

    0 = êxito

    1 = falha

    Sintaxe correta: if [ $? -ne 0 ]; then exit; fi

    O que o programa quer dizer: Se o o status da sintaxe anterior for diferente (-ne not equal) de 0, então saia.

    Gabarito letra A


ID
1449880
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

Observe o comando abaixo:

PowerEdge-2850:~$ ps l

F       UID       PID       PPID       PRI       NI       VSZ       RSS       WCHAN       STAT       TTY       TIME COMMAND
0       1000     3870       3860        20         0        8568      3236           wait             Ss             pts/1             0:00 bash
0       1000     4024       3870        20         0        2272        556           wait             S               pts/1             0:00 sh
0       1000     4025       4024        20         0        8568       3232          wait             S               pts/1             0:00 bash
0       1000     4043       4025        20         0        6500         768            -                R+             pts/1             0:00 ps l

PowerEdge-2850:~$

Considere as afirmativas sobre a saída do comando e assinale a opção que contém as corretas.

1) todos os processos estão sendo rodados por um mesmo usuário
2) um dos processos ocupa há mais tempo a CPU
3) os processos “bash” possuem processos pai diferentes
4) todos têm a mesma prioridade
5) todos os processos estão esperando execução de outros processo

Alternativas
Comentários
  • 1) todos os processos estão sendo rodados por um mesmo usuário

    Correta, todos processos são do usuário com UID 1000

    2) um dos processos ocupa há mais tempo a CPU

    Incorreta, não podemos afirmar, pois junto com o comando faltou a chave u para mostrar o percentual de CPU utilizado através da coluna %CPU

    .

    3) os processos “bash” possuem processos pai diferentes

    Correta, tal informação esta na 4ª coluna PPID (parent process identification);

    O processo bash de PID 3870 (1ª linha) possui o seu processo-pai de PPID 3860;

    Por sua vez, o processo bash de PID 4025 ( 3ª linha) possui seu processo-pai de PPID 4024

    .

    4) todos têm a mesma prioridade

    Correta, observem a 5ª coluna ( PRI ) todos processos possuem prioridade de processo = 20

    .

    5) todos os processos estão esperando execução de outros processo

    Incorreta, encontramos tal informação na STAT, observem que o processo 4043 está executando em primeiro plano ( R+)

    GABARITO ALTERNATIVA B


ID
1449883
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Redes de Computadores
Assuntos

No postfix, para melhor segurança, pode-se implementar o método de autenticação SMTP, o qual requer que clientes de e-mail enviem um nome de usuário e uma senha ao servidor SMTP durante o diálogo SMTP, e, se a autenticação foi bem-sucedida, eles poderão começar a retransmitir.
No arquivo de configuração que controla o daemon do postfix, o parâmetro que deve ser alterado para que o mecanismo de autenticação seja habilitado é:

Alternativas
Comentários
  • gabarito b

    matei a questao por causa do " enable"

  • Gabarito B

    Eu também.. hehe...

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !

  • Fui de B também por causa do "enable" ;D


ID
1449886
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

No gerenciamento de processos, operações ligadas ao I/O aguardam que uma determinada operação de I/O seja finalizada, com isso o processo entra em um estado em que não pode ser morto, para que não haja inconsistências. Pode-se ainda identificá-lo através do comando top na coluna status.

Este estado é:

Alternativas

ID
1449889
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

Em servidor Web, Apache, para melhorar o desempenho e a performance em que o servidor não precise verificar em cada diretório a existência de um arquivo .htaccess, a diretiva que podemos usar é:

Alternativas
Comentários
  • Quando você adiciona diretrizes de configuração em um arquivo .htaccess, e não obtém o efeito desejado, existe uma série de pontos que podem estar errados.

    Mais comumente, o problema é que a diretriz AllowOverride não está habilitada corretamente para que as suas diretrizes de configurações sejam honradas. Verifique se você não possui AllowOverride None ajustado para o escopo do arquivo em questão. Um bom meio de testar isso é colocar "lixo" em seu arquivo .htaccess e recarregá-lo. Se não for gerado nenhum erro do servidor, certamente você tem AllowOverride None habilitado.

    Se, por outro lado, você está obtendo erros do servidor ao tentar acessar documentos, verifique o registro de erros do Apache. Ele provavelmente irá indicar que a diretriz usada em seu arquivo .htaccess não é permitida. Alternativamente, ele pode acusar erros de sintaxe que você terá que corrigir.

    Fonte: https://httpd.apache.org/docs/trunk/pt-br/howto/htaccess.html

  • Quem não tem acesso: --> C


ID
1449892
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Inglês
Assuntos

                        Here’s the first line of code ever written by a US president

Barack Obama just became the first US president to write a line of computer code (assuming George W. Bush never secretly indulged in PHP). At the White House yesterday, Obama sat down with students who were learning the fundamentals of JavaScript, the popular programming language used to create most web pages.

The line he wrote was:

                  moveForward(100);

“So I make the F in higher case?” Obama asked, correctly observing that JavaScript is case sensitive. “Semicolon?” (That semicolon is optional, but Obama apparently has a knack for recognizing JavaScript best practices.)
Obama was playing with a Code.org tutorial based on the popular Disney movie Frozen. In his line of code, the President called a function-moveForward-pre-defined by Code.org for the exercise.
Calling a function in JavaScript is simple: write its name exactly as it has been defined, followed by parentheses that contain its “arguments.” In this case, a single argument tells the program how many pixels to move a Frozen character forward. Because it’s measured in pixels, the argument has to be a number. If Obama had written moveForward(“three steps”), the program would have failed, offering only a cryptic error message and exposing the president to the near-perpetual state of frustration most software developers live in.

“This is Elsa?” Obama asked, referring to the movie’s main character.

Obama was promoting Computer Science Education Week and Code.org’s Hour of Code campaign, which encourages kids to try programming for at least one hour. “It turns out the concepts are not that complicated,” Obama told the students at the White House, though his attempt to explain it suggested otherwise:

                  “The basic concept behind coding is that you take zeros and ones, you take two numbers, yes or no, and those can be translated into electrical messages that then run through the computer…. So all it’s doing is it’s saying yes or no over and over again, and the computer’s powerful enough that it can read a really long set of instructions really quickly.”

Something like that.

                                                            Disponível em: http://qz.com/308904/heres-the-first-line-of-code-ever-written-by-a-us-president/
                                                                                                            Quartz (9 de Dezembro de 2014) - Texto de Zachary M. Seward

A atividade desempenhada pelo Presidente Obama na Casa Branca foi:

Alternativas
Comentários
  • Gabarito: D.

     

    "Obama was promoting Computer Science Education Week and Code.org’s Hour of Code campaign, which encourages kids to try programming for at least one hour."


ID
1449895
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Inglês
Assuntos

                        Here’s the first line of code ever written by a US president

Barack Obama just became the first US president to write a line of computer code (assuming George W. Bush never secretly indulged in PHP). At the White House yesterday, Obama sat down with students who were learning the fundamentals of JavaScript, the popular programming language used to create most web pages.

The line he wrote was:

                  moveForward(100);

“So I make the F in higher case?” Obama asked, correctly observing that JavaScript is case sensitive. “Semicolon?” (That semicolon is optional, but Obama apparently has a knack for recognizing JavaScript best practices.)
Obama was playing with a Code.org tutorial based on the popular Disney movie Frozen. In his line of code, the President called a function-moveForward-pre-defined by Code.org for the exercise.
Calling a function in JavaScript is simple: write its name exactly as it has been defined, followed by parentheses that contain its “arguments.” In this case, a single argument tells the program how many pixels to move a Frozen character forward. Because it’s measured in pixels, the argument has to be a number. If Obama had written moveForward(“three steps”), the program would have failed, offering only a cryptic error message and exposing the president to the near-perpetual state of frustration most software developers live in.

“This is Elsa?” Obama asked, referring to the movie’s main character.

Obama was promoting Computer Science Education Week and Code.org’s Hour of Code campaign, which encourages kids to try programming for at least one hour. “It turns out the concepts are not that complicated,” Obama told the students at the White House, though his attempt to explain it suggested otherwise:

                  “The basic concept behind coding is that you take zeros and ones, you take two numbers, yes or no, and those can be translated into electrical messages that then run through the computer…. So all it’s doing is it’s saying yes or no over and over again, and the computer’s powerful enough that it can read a really long set of instructions really quickly.”

Something like that.

                                                            Disponível em: http://qz.com/308904/heres-the-first-line-of-code-ever-written-by-a-us-president/
                                                                                                            Quartz (9 de Dezembro de 2014) - Texto de Zachary M. Seward

Enquanto programava, Obama observou e questionou, respectivamente, os seguintes aspectos:

Alternativas

ID
1449898
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Inglês

                        Here’s the first line of code ever written by a US president

Barack Obama just became the first US president to write a line of computer code (assuming George W. Bush never secretly indulged in PHP). At the White House yesterday, Obama sat down with students who were learning the fundamentals of JavaScript, the popular programming language used to create most web pages.

The line he wrote was:

                  moveForward(100);

“So I make the F in higher case?” Obama asked, correctly observing that JavaScript is case sensitive. “Semicolon?” (That semicolon is optional, but Obama apparently has a knack for recognizing JavaScript best practices.)
Obama was playing with a Code.org tutorial based on the popular Disney movie Frozen. In his line of code, the President called a function-moveForward-pre-defined by Code.org for the exercise.
Calling a function in JavaScript is simple: write its name exactly as it has been defined, followed by parentheses that contain its “arguments.” In this case, a single argument tells the program how many pixels to move a Frozen character forward. Because it’s measured in pixels, the argument has to be a number. If Obama had written moveForward(“three steps”), the program would have failed, offering only a cryptic error message and exposing the president to the near-perpetual state of frustration most software developers live in.

“This is Elsa?” Obama asked, referring to the movie’s main character.

Obama was promoting Computer Science Education Week and Code.org’s Hour of Code campaign, which encourages kids to try programming for at least one hour. “It turns out the concepts are not that complicated,” Obama told the students at the White House, though his attempt to explain it suggested otherwise:

                  “The basic concept behind coding is that you take zeros and ones, you take two numbers, yes or no, and those can be translated into electrical messages that then run through the computer…. So all it’s doing is it’s saying yes or no over and over again, and the computer’s powerful enough that it can read a really long set of instructions really quickly.”

Something like that.

                                                            Disponível em: http://qz.com/308904/heres-the-first-line-of-code-ever-written-by-a-us-president/
                                                                                                            Quartz (9 de Dezembro de 2014) - Texto de Zachary M. Seward

A explicação do Presidente Obama sobre os conceitos de programação e a percepção do autor do texto sobre essa explicação são, respectivamente:

Alternativas
Comentários
  • A - Aos conceitos de programação não são tão complicados / a explicação dada pelo Presidente sugeriu o contrário


    Como bem nos assegura Obma quando o mesmo afirma: It turns out the concepts are not that complicated” (Tradução livre: Acontece que os conceitos não são tão complicados), pode-se dizer que os conceitos de programação não são tão difíceis de se compreender .

    Contudo, é constatado que por meio da explicação do Presidente contradição quando ele diz: "Something like that." (Tradução livre: Alguma coisa assim). Não é exagero afirmar que Obama demonstra contrariedade em relação aos conceitos de programação serem fáceis.


ID
1449901
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Programação
Assuntos

                        Here’s the first line of code ever written by a US president

Barack Obama just became the first US president to write a line of computer code (assuming George W. Bush never secretly indulged in PHP). At the White House yesterday, Obama sat down with students who were learning the fundamentals of JavaScript, the popular programming language used to create most web pages.

The line he wrote was:

                  moveForward(100);

“So I make the F in higher case?” Obama asked, correctly observing that JavaScript is case sensitive. “Semicolon?” (That semicolon is optional, but Obama apparently has a knack for recognizing JavaScript best practices.)
Obama was playing with a Code.org tutorial based on the popular Disney movie Frozen. In his line of code, the President called a function-moveForward-pre-defined by Code.org for the exercise.
Calling a function in JavaScript is simple: write its name exactly as it has been defined, followed by parentheses that contain its “arguments.” In this case, a single argument tells the program how many pixels to move a Frozen character forward. Because it’s measured in pixels, the argument has to be a number. If Obama had written moveForward(“three steps”), the program would have failed, offering only a cryptic error message and exposing the president to the near-perpetual state of frustration most software developers live in.

“This is Elsa?” Obama asked, referring to the movie’s main character.

Obama was promoting Computer Science Education Week and Code.org’s Hour of Code campaign, which encourages kids to try programming for at least one hour. “It turns out the concepts are not that complicated,” Obama told the students at the White House, though his attempt to explain it suggested otherwise:

                  “The basic concept behind coding is that you take zeros and ones, you take two numbers, yes or no, and those can be translated into electrical messages that then run through the computer…. So all it’s doing is it’s saying yes or no over and over again, and the computer’s powerful enough that it can read a really long set of instructions really quickly.”

Something like that.

                                                            Disponível em: http://qz.com/308904/heres-the-first-line-of-code-ever-written-by-a-us-president/
                                                                                                            Quartz (9 de Dezembro de 2014) - Texto de Zachary M. Seward

O exercício de programação que o Presidente Obama estava fazendo tinha o objetivo de mover um personagem da Disney para frente. Para isso, a função moveForward deveria ser usada.
A distância que o personagem deveria ser movido para frente e os parâmetros da função são, respectivamente:

Alternativas
Comentários
  • É uma questão de interpretação de texto em inglês.


ID
1449904
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Inglês
Assuntos

                        Virtual network appliances: Benefits and drawbacks

There's lots of talk about network virtualization benefits, but are virtual network appliances all they're cracked up to be? Only in some scenarios.
Network virtualization benefits can be plentiful, but only in certain scenarios. Learn where virtual network appliances can work -- and where they can't.
If virtualization enables servers to be spun up and down on demand for cost efficiency and agility, wouldn't it make sense to implement virtual network components too? After all, virtual servers need to communicate inbound and outbound and still be firewall-protected and load balanced. That would seem to be best addressed by virtual network appliances that can be spun-up on demand, right? Only in some scenarios.
Many networking vendors have already begun to minimize development cost by using Intel-based platforms and commodity hardware. Examples of this range from the Cisco ASA firewall to F5 load balancers and Vyatta routers. The obvious next step for some of these vendors has been to offer their products in virtual appliance packaging. F5 took a small step forward with the Local Traffic Manager - Virtual Edition (LTM VE), while Vyatta claims to offer a full range of virtual appliance solutions. VMware was somewhat late to the game, but it also offers virtualized firewalls (vShield Zones and vShield App) and routers/load balancers (vShield Edge).


                        Virtual network appliances: What's the catch?

The problem is that unlike servers, networking appliances commonly perform I/O-intensive tasks, moving large amounts of data between network interfaces with minimal additional processing, relying heavily on dedicated hardware. All high-speed routing and packet forwarding, as well as encryption (both IPsec and SSL) and load balancing, rely on dedicated silicon. When a networking appliance is repackaged into a virtual machine format, the dedicated hardware is gone, and all these tasks must now be performed by the general- purpose CPU, sometimes resulting in extreme reduction in performance.

Implementing routers, switches or firewalls in a virtual appliance would just burn the CPU cycles that could be better used elsewhere -- unless, of course, you’ve over-provisioned your servers and have plenty of idle CPU cycles, in which case something has gone seriously wrong with your planning.

To make matters worse, the hypervisor software used in server virtualization solutions also virtualizes the network interfaces. That means that every I/O access path to virtualized hardware from the networking appliance results in a context switch to higher privilege software (the hypervisor), which uses numerous CPU cycles to decode what needs to be done and emulate the desired action. Also, data passed between virtual machines must be copied between their address spaces, adding further latency to the process.

There is some help in that the VMware hypervisor has the DVFilter API, which allows a loadable kernel module to inspect and modify network traffic either within the hypervisor (vNetwork Data Path Agent) or in combination with a virtual machine (vNetwork Control Path Agent). The loadable kernel module significantly reduces the VM context switching overhead.


                        Where virtual network appliances can work?

There are some use cases in which virtual network appliances make perfect sense. For instance, you could virtualize an appliance that performs lots of CPU-intensive processing with no reliance on dedicated hardware. Web application firewalls (WAFs) and complex load balancers are perfect examples (no wonder they’re commonly implemented as loadable modules in Apache Web servers or as Squid reverse proxy servers).
Also, if you’re planning to roll out multi-tenant cloud, the flexibility gained by treating networking appliances as click-to-deploy Lego bricks might more than justify the subpar performance. This is especially so if you charge your users by their actual VM/CPU usage, in which case you don’t really care how much CPU they’re using.
Virtualized networking also makes sense when firewall and routing functions are implemented as part of the virtual switch in each hypervisor. This could result in optimal traffic flow between virtual machines (regardless of whether they belong to the same IP subnet or not) and solve the problem of traffic trombones. Unfortunately, it seems that Cisco is still the only vendor that extends the VMware hypervisor switch using the Virtual Ethernet Module (VEM) functionality. While numerous security solutions already deploy the VMsafe APIs, the networking appliances I’ve seen so far (including the vShield Edge from VMware) rely on virtual machines to forward traffic between virtual (or physical) LANs.
Obviously the networking vendors have a very long way to go before reaching the true potential of virtualized networking.

                          Disponível em: http://searchnetworking.techtarget.com/tip/Virtual-network-appliances-Benefits-and- drawbacks
                                                                              Search Networking - Tech Target - Texto de Ivan Pepelnjak (Março de 2011)


Os tipos de aplicação de rede que fazem sentido com appliances de rede virtuais são:

Alternativas
Comentários
  • GABARITO B

    Texto III, linhas 01 e 02: "...you could virtualize an appliance that performs lots of CPU-intensive processing with no reliance on dedicated hardware. Trad.: "...você pode virtualizar um dispositivo que faz uso intensivo da unidade central de processamento ( CPU, na sigla em inglês) sem depender de hardware dedicado.


ID
1449907
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Sistemas Operacionais
Assuntos

                        Virtual network appliances: Benefits and drawbacks

There's lots of talk about network virtualization benefits, but are virtual network appliances all they're cracked up to be? Only in some scenarios.
Network virtualization benefits can be plentiful, but only in certain scenarios. Learn where virtual network appliances can work -- and where they can't.
If virtualization enables servers to be spun up and down on demand for cost efficiency and agility, wouldn't it make sense to implement virtual network components too? After all, virtual servers need to communicate inbound and outbound and still be firewall-protected and load balanced. That would seem to be best addressed by virtual network appliances that can be spun-up on demand, right? Only in some scenarios.
Many networking vendors have already begun to minimize development cost by using Intel-based platforms and commodity hardware. Examples of this range from the Cisco ASA firewall to F5 load balancers and Vyatta routers. The obvious next step for some of these vendors has been to offer their products in virtual appliance packaging. F5 took a small step forward with the Local Traffic Manager - Virtual Edition (LTM VE), while Vyatta claims to offer a full range of virtual appliance solutions. VMware was somewhat late to the game, but it also offers virtualized firewalls (vShield Zones and vShield App) and routers/load balancers (vShield Edge).


                        Virtual network appliances: What's the catch?

The problem is that unlike servers, networking appliances commonly perform I/O-intensive tasks, moving large amounts of data between network interfaces with minimal additional processing, relying heavily on dedicated hardware. All high-speed routing and packet forwarding, as well as encryption (both IPsec and SSL) and load balancing, rely on dedicated silicon. When a networking appliance is repackaged into a virtual machine format, the dedicated hardware is gone, and all these tasks must now be performed by the general- purpose CPU, sometimes resulting in extreme reduction in performance.

Implementing routers, switches or firewalls in a virtual appliance would just burn the CPU cycles that could be better used elsewhere -- unless, of course, you’ve over-provisioned your servers and have plenty of idle CPU cycles, in which case something has gone seriously wrong with your planning.

To make matters worse, the hypervisor software used in server virtualization solutions also virtualizes the network interfaces. That means that every I/O access path to virtualized hardware from the networking appliance results in a context switch to higher privilege software (the hypervisor), which uses numerous CPU cycles to decode what needs to be done and emulate the desired action. Also, data passed between virtual machines must be copied between their address spaces, adding further latency to the process.

There is some help in that the VMware hypervisor has the DVFilter API, which allows a loadable kernel module to inspect and modify network traffic either within the hypervisor (vNetwork Data Path Agent) or in combination with a virtual machine (vNetwork Control Path Agent). The loadable kernel module significantly reduces the VM context switching overhead.


                        Where virtual network appliances can work?

There are some use cases in which virtual network appliances make perfect sense. For instance, you could virtualize an appliance that performs lots of CPU-intensive processing with no reliance on dedicated hardware. Web application firewalls (WAFs) and complex load balancers are perfect examples (no wonder they’re commonly implemented as loadable modules in Apache Web servers or as Squid reverse proxy servers).
Also, if you’re planning to roll out multi-tenant cloud, the flexibility gained by treating networking appliances as click-to-deploy Lego bricks might more than justify the subpar performance. This is especially so if you charge your users by their actual VM/CPU usage, in which case you don’t really care how much CPU they’re using.
Virtualized networking also makes sense when firewall and routing functions are implemented as part of the virtual switch in each hypervisor. This could result in optimal traffic flow between virtual machines (regardless of whether they belong to the same IP subnet or not) and solve the problem of traffic trombones. Unfortunately, it seems that Cisco is still the only vendor that extends the VMware hypervisor switch using the Virtual Ethernet Module (VEM) functionality. While numerous security solutions already deploy the VMsafe APIs, the networking appliances I’ve seen so far (including the vShield Edge from VMware) rely on virtual machines to forward traffic between virtual (or physical) LANs.
Obviously the networking vendors have a very long way to go before reaching the true potential of virtualized networking.

                          Disponível em: http://searchnetworking.techtarget.com/tip/Virtual-network-appliances-Benefits-and- drawbacks
                                                                              Search Networking - Tech Target - Texto de Ivan Pepelnjak (Março de 2011)


O software hipervisor usado em soluções de virtualização de servidores também virtualiza as interfaces de rede. Uma consequência que isso tem para o appliance de rede virtual é:

Alternativas
Comentários
  • Gabarito D

    Em sistemas operacionais, uma troca de contexto (também conhecido como chaveamento ou mudança de contexto) é o processo computacional de armazenar e restaurar o estado (contexto) de uma CPU de forma que múltiplos processos possam compartilhar uma única instância de CPU. É garantido que quando o contexto anterior armazenado seja restaurado, o ponto de execução volte ao mesmo estado que foi deixado durante o armazenamento.

    Termo referente a sistemas operacionais, encontrado também sobre a designação troca de contexto ou mudança de contexto, que se refere à saída de uma tarefa do processamento para que outra assuma, podendo a primeira não ter sido concluída. O chaveamento garante que quando a primeira novamente voltar a ser processada todo o seu contexto de software volte ao ponto de onde ela permitiu a entrada de outro processo.

     

    "Retroceder Nunca Render-se Jamais !"
    Força e Fé !
    Fortuna Audaces Sequitur !

  • A resposta está, em inglês, no texto da questão. É mais uma questão de interpretação de texto e língua inglesa do que de Virtualização.

ID
1449910
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Noções de Informática

                        Virtual network appliances: Benefits and drawbacks

There's lots of talk about network virtualization benefits, but are virtual network appliances all they're cracked up to be? Only in some scenarios.
Network virtualization benefits can be plentiful, but only in certain scenarios. Learn where virtual network appliances can work -- and where they can't.
If virtualization enables servers to be spun up and down on demand for cost efficiency and agility, wouldn't it make sense to implement virtual network components too? After all, virtual servers need to communicate inbound and outbound and still be firewall-protected and load balanced. That would seem to be best addressed by virtual network appliances that can be spun-up on demand, right? Only in some scenarios.
Many networking vendors have already begun to minimize development cost by using Intel-based platforms and commodity hardware. Examples of this range from the Cisco ASA firewall to F5 load balancers and Vyatta routers. The obvious next step for some of these vendors has been to offer their products in virtual appliance packaging. F5 took a small step forward with the Local Traffic Manager - Virtual Edition (LTM VE), while Vyatta claims to offer a full range of virtual appliance solutions. VMware was somewhat late to the game, but it also offers virtualized firewalls (vShield Zones and vShield App) and routers/load balancers (vShield Edge).


                        Virtual network appliances: What's the catch?

The problem is that unlike servers, networking appliances commonly perform I/O-intensive tasks, moving large amounts of data between network interfaces with minimal additional processing, relying heavily on dedicated hardware. All high-speed routing and packet forwarding, as well as encryption (both IPsec and SSL) and load balancing, rely on dedicated silicon. When a networking appliance is repackaged into a virtual machine format, the dedicated hardware is gone, and all these tasks must now be performed by the general- purpose CPU, sometimes resulting in extreme reduction in performance.

Implementing routers, switches or firewalls in a virtual appliance would just burn the CPU cycles that could be better used elsewhere -- unless, of course, you’ve over-provisioned your servers and have plenty of idle CPU cycles, in which case something has gone seriously wrong with your planning.

To make matters worse, the hypervisor software used in server virtualization solutions also virtualizes the network interfaces. That means that every I/O access path to virtualized hardware from the networking appliance results in a context switch to higher privilege software (the hypervisor), which uses numerous CPU cycles to decode what needs to be done and emulate the desired action. Also, data passed between virtual machines must be copied between their address spaces, adding further latency to the process.

There is some help in that the VMware hypervisor has the DVFilter API, which allows a loadable kernel module to inspect and modify network traffic either within the hypervisor (vNetwork Data Path Agent) or in combination with a virtual machine (vNetwork Control Path Agent). The loadable kernel module significantly reduces the VM context switching overhead.


                        Where virtual network appliances can work?

There are some use cases in which virtual network appliances make perfect sense. For instance, you could virtualize an appliance that performs lots of CPU-intensive processing with no reliance on dedicated hardware. Web application firewalls (WAFs) and complex load balancers are perfect examples (no wonder they’re commonly implemented as loadable modules in Apache Web servers or as Squid reverse proxy servers).
Also, if you’re planning to roll out multi-tenant cloud, the flexibility gained by treating networking appliances as click-to-deploy Lego bricks might more than justify the subpar performance. This is especially so if you charge your users by their actual VM/CPU usage, in which case you don’t really care how much CPU they’re using.
Virtualized networking also makes sense when firewall and routing functions are implemented as part of the virtual switch in each hypervisor. This could result in optimal traffic flow between virtual machines (regardless of whether they belong to the same IP subnet or not) and solve the problem of traffic trombones. Unfortunately, it seems that Cisco is still the only vendor that extends the VMware hypervisor switch using the Virtual Ethernet Module (VEM) functionality. While numerous security solutions already deploy the VMsafe APIs, the networking appliances I’ve seen so far (including the vShield Edge from VMware) rely on virtual machines to forward traffic between virtual (or physical) LANs.
Obviously the networking vendors have a very long way to go before reaching the true potential of virtualized networking.

                          Disponível em: http://searchnetworking.techtarget.com/tip/Virtual-network-appliances-Benefits-and- drawbacks
                                                                              Search Networking - Tech Target - Texto de Ivan Pepelnjak (Março de 2011)


Os exemplos de aplicações que fazem sentido com appliances de rede virtuais são:

Alternativas

ID
1449913
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Inglês
Assuntos

                        Virtual network appliances: Benefits and drawbacks

There's lots of talk about network virtualization benefits, but are virtual network appliances all they're cracked up to be? Only in some scenarios.
Network virtualization benefits can be plentiful, but only in certain scenarios. Learn where virtual network appliances can work -- and where they can't.
If virtualization enables servers to be spun up and down on demand for cost efficiency and agility, wouldn't it make sense to implement virtual network components too? After all, virtual servers need to communicate inbound and outbound and still be firewall-protected and load balanced. That would seem to be best addressed by virtual network appliances that can be spun-up on demand, right? Only in some scenarios.
Many networking vendors have already begun to minimize development cost by using Intel-based platforms and commodity hardware. Examples of this range from the Cisco ASA firewall to F5 load balancers and Vyatta routers. The obvious next step for some of these vendors has been to offer their products in virtual appliance packaging. F5 took a small step forward with the Local Traffic Manager - Virtual Edition (LTM VE), while Vyatta claims to offer a full range of virtual appliance solutions. VMware was somewhat late to the game, but it also offers virtualized firewalls (vShield Zones and vShield App) and routers/load balancers (vShield Edge).


                        Virtual network appliances: What's the catch?

The problem is that unlike servers, networking appliances commonly perform I/O-intensive tasks, moving large amounts of data between network interfaces with minimal additional processing, relying heavily on dedicated hardware. All high-speed routing and packet forwarding, as well as encryption (both IPsec and SSL) and load balancing, rely on dedicated silicon. When a networking appliance is repackaged into a virtual machine format, the dedicated hardware is gone, and all these tasks must now be performed by the general- purpose CPU, sometimes resulting in extreme reduction in performance.

Implementing routers, switches or firewalls in a virtual appliance would just burn the CPU cycles that could be better used elsewhere -- unless, of course, you’ve over-provisioned your servers and have plenty of idle CPU cycles, in which case something has gone seriously wrong with your planning.

To make matters worse, the hypervisor software used in server virtualization solutions also virtualizes the network interfaces. That means that every I/O access path to virtualized hardware from the networking appliance results in a context switch to higher privilege software (the hypervisor), which uses numerous CPU cycles to decode what needs to be done and emulate the desired action. Also, data passed between virtual machines must be copied between their address spaces, adding further latency to the process.

There is some help in that the VMware hypervisor has the DVFilter API, which allows a loadable kernel module to inspect and modify network traffic either within the hypervisor (vNetwork Data Path Agent) or in combination with a virtual machine (vNetwork Control Path Agent). The loadable kernel module significantly reduces the VM context switching overhead.


                        Where virtual network appliances can work?

There are some use cases in which virtual network appliances make perfect sense. For instance, you could virtualize an appliance that performs lots of CPU-intensive processing with no reliance on dedicated hardware. Web application firewalls (WAFs) and complex load balancers are perfect examples (no wonder they’re commonly implemented as loadable modules in Apache Web servers or as Squid reverse proxy servers).
Also, if you’re planning to roll out multi-tenant cloud, the flexibility gained by treating networking appliances as click-to-deploy Lego bricks might more than justify the subpar performance. This is especially so if you charge your users by their actual VM/CPU usage, in which case you don’t really care how much CPU they’re using.
Virtualized networking also makes sense when firewall and routing functions are implemented as part of the virtual switch in each hypervisor. This could result in optimal traffic flow between virtual machines (regardless of whether they belong to the same IP subnet or not) and solve the problem of traffic trombones. Unfortunately, it seems that Cisco is still the only vendor that extends the VMware hypervisor switch using the Virtual Ethernet Module (VEM) functionality. While numerous security solutions already deploy the VMsafe APIs, the networking appliances I’ve seen so far (including the vShield Edge from VMware) rely on virtual machines to forward traffic between virtual (or physical) LANs.
Obviously the networking vendors have a very long way to go before reaching the true potential of virtualized networking.

                          Disponível em: http://searchnetworking.techtarget.com/tip/Virtual-network-appliances-Benefits-and- drawbacks
                                                                              Search Networking - Tech Target - Texto de Ivan Pepelnjak (Março de 2011)


Existem requisitos de hardware ao virtualizar aplicações de aplicações de roteamento e encaminhamento de pacotes e encriptação.

O requisito de hardware necessário e o desempenho esperado das aplicações são, respectivamente:

Alternativas
Comentários
  • GABARITO C

    Linhas 12 e 13: " ...and all these tasks must now be performed by the general- purpose CPU, sometimes resulting in extreme reduction in performance". "...e todas essas tarefas precisam então ser executadas pela CPU de propósito geral, às vezes resultando em extrema redução no desempenho" (trad.).


ID
1449916
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Inglês
Assuntos

                        Virtual network appliances: Benefits and drawbacks

There's lots of talk about network virtualization benefits, but are virtual network appliances all they're cracked up to be? Only in some scenarios.
Network virtualization benefits can be plentiful, but only in certain scenarios. Learn where virtual network appliances can work -- and where they can't.
If virtualization enables servers to be spun up and down on demand for cost efficiency and agility, wouldn't it make sense to implement virtual network components too? After all, virtual servers need to communicate inbound and outbound and still be firewall-protected and load balanced. That would seem to be best addressed by virtual network appliances that can be spun-up on demand, right? Only in some scenarios.
Many networking vendors have already begun to minimize development cost by using Intel-based platforms and commodity hardware. Examples of this range from the Cisco ASA firewall to F5 load balancers and Vyatta routers. The obvious next step for some of these vendors has been to offer their products in virtual appliance packaging. F5 took a small step forward with the Local Traffic Manager - Virtual Edition (LTM VE), while Vyatta claims to offer a full range of virtual appliance solutions. VMware was somewhat late to the game, but it also offers virtualized firewalls (vShield Zones and vShield App) and routers/load balancers (vShield Edge).


                        Virtual network appliances: What's the catch?

The problem is that unlike servers, networking appliances commonly perform I/O-intensive tasks, moving large amounts of data between network interfaces with minimal additional processing, relying heavily on dedicated hardware. All high-speed routing and packet forwarding, as well as encryption (both IPsec and SSL) and load balancing, rely on dedicated silicon. When a networking appliance is repackaged into a virtual machine format, the dedicated hardware is gone, and all these tasks must now be performed by the general- purpose CPU, sometimes resulting in extreme reduction in performance.

Implementing routers, switches or firewalls in a virtual appliance would just burn the CPU cycles that could be better used elsewhere -- unless, of course, you’ve over-provisioned your servers and have plenty of idle CPU cycles, in which case something has gone seriously wrong with your planning.

To make matters worse, the hypervisor software used in server virtualization solutions also virtualizes the network interfaces. That means that every I/O access path to virtualized hardware from the networking appliance results in a context switch to higher privilege software (the hypervisor), which uses numerous CPU cycles to decode what needs to be done and emulate the desired action. Also, data passed between virtual machines must be copied between their address spaces, adding further latency to the process.

There is some help in that the VMware hypervisor has the DVFilter API, which allows a loadable kernel module to inspect and modify network traffic either within the hypervisor (vNetwork Data Path Agent) or in combination with a virtual machine (vNetwork Control Path Agent). The loadable kernel module significantly reduces the VM context switching overhead.


                        Where virtual network appliances can work?

There are some use cases in which virtual network appliances make perfect sense. For instance, you could virtualize an appliance that performs lots of CPU-intensive processing with no reliance on dedicated hardware. Web application firewalls (WAFs) and complex load balancers are perfect examples (no wonder they’re commonly implemented as loadable modules in Apache Web servers or as Squid reverse proxy servers).
Also, if you’re planning to roll out multi-tenant cloud, the flexibility gained by treating networking appliances as click-to-deploy Lego bricks might more than justify the subpar performance. This is especially so if you charge your users by their actual VM/CPU usage, in which case you don’t really care how much CPU they’re using.
Virtualized networking also makes sense when firewall and routing functions are implemented as part of the virtual switch in each hypervisor. This could result in optimal traffic flow between virtual machines (regardless of whether they belong to the same IP subnet or not) and solve the problem of traffic trombones. Unfortunately, it seems that Cisco is still the only vendor that extends the VMware hypervisor switch using the Virtual Ethernet Module (VEM) functionality. While numerous security solutions already deploy the VMsafe APIs, the networking appliances I’ve seen so far (including the vShield Edge from VMware) rely on virtual machines to forward traffic between virtual (or physical) LANs.
Obviously the networking vendors have a very long way to go before reaching the true potential of virtualized networking.

                          Disponível em: http://searchnetworking.techtarget.com/tip/Virtual-network-appliances-Benefits-and- drawbacks
                                                                              Search Networking - Tech Target - Texto de Ivan Pepelnjak (Março de 2011)


O texto apresenta vantagem do uso de plataforma baseada em intel para dispositivos de rede. A vantagem e o próximo passo adotado pelas empresas são, respectivamente:

Alternativas
Comentários
  • Gabarito: D

     

    "Many networking vendors have already begun to minimize development cost by using Intel-based platforms and commodity hardware. Examples of this range from the Cisco ASA firewall to F5 load balancers and Vyatta routers. The obvious next step for some of these vendors has been to offer their products in virtual appliance packaging."


ID
1449919
Banca
SRH
Órgão
UERJ
Ano
2015
Provas
Disciplina
Inglês
Assuntos

                        Virtual network appliances: Benefits and drawbacks

There's lots of talk about network virtualization benefits, but are virtual network appliances all they're cracked up to be? Only in some scenarios.
Network virtualization benefits can be plentiful, but only in certain scenarios. Learn where virtual network appliances can work -- and where they can't.
If virtualization enables servers to be spun up and down on demand for cost efficiency and agility, wouldn't it make sense to implement virtual network components too? After all, virtual servers need to communicate inbound and outbound and still be firewall-protected and load balanced. That would seem to be best addressed by virtual network appliances that can be spun-up on demand, right? Only in some scenarios.
Many networking vendors have already begun to minimize development cost by using Intel-based platforms and commodity hardware. Examples of this range from the Cisco ASA firewall to F5 load balancers and Vyatta routers. The obvious next step for some of these vendors has been to offer their products in virtual appliance packaging. F5 took a small step forward with the Local Traffic Manager - Virtual Edition (LTM VE), while Vyatta claims to offer a full range of virtual appliance solutions. VMware was somewhat late to the game, but it also offers virtualized firewalls (vShield Zones and vShield App) and routers/load balancers (vShield Edge).


                        Virtual network appliances: What's the catch?

The problem is that unlike servers, networking appliances commonly perform I/O-intensive tasks, moving large amounts of data between network interfaces with minimal additional processing, relying heavily on dedicated hardware. All high-speed routing and packet forwarding, as well as encryption (both IPsec and SSL) and load balancing, rely on dedicated silicon. When a networking appliance is repackaged into a virtual machine format, the dedicated hardware is gone, and all these tasks must now be performed by the general- purpose CPU, sometimes resulting in extreme reduction in performance.

Implementing routers, switches or firewalls in a virtual appliance would just burn the CPU cycles that could be better used elsewhere -- unless, of course, you’ve over-provisioned your servers and have plenty of idle CPU cycles, in which case something has gone seriously wrong with your planning.

To make matters worse, the hypervisor software used in server virtualization solutions also virtualizes the network interfaces. That means that every I/O access path to virtualized hardware from the networking appliance results in a context switch to higher privilege software (the hypervisor), which uses numerous CPU cycles to decode what needs to be done and emulate the desired action. Also, data passed between virtual machines must be copied between their address spaces, adding further latency to the process.

There is some help in that the VMware hypervisor has the DVFilter API, which allows a loadable kernel module to inspect and modify network traffic either within the hypervisor (vNetwork Data Path Agent) or in combination with a virtual machine (vNetwork Control Path Agent). The loadable kernel module significantly reduces the VM context switching overhead.


                        Where virtual network appliances can work?

There are some use cases in which virtual network appliances make perfect sense. For instance, you could virtualize an appliance that performs lots of CPU-intensive processing with no reliance on dedicated hardware. Web application firewalls (WAFs) and complex load balancers are perfect examples (no wonder they’re commonly implemented as loadable modules in Apache Web servers or as Squid reverse proxy servers).
Also, if you’re planning to roll out multi-tenant cloud, the flexibility gained by treating networking appliances as click-to-deploy Lego bricks might more than justify the subpar performance. This is especially so if you charge your users by their actual VM/CPU usage, in which case you don’t really care how much CPU they’re using.
Virtualized networking also makes sense when firewall and routing functions are implemented as part of the virtual switch in each hypervisor. This could result in optimal traffic flow between virtual machines (regardless of whether they belong to the same IP subnet or not) and solve the problem of traffic trombones. Unfortunately, it seems that Cisco is still the only vendor that extends the VMware hypervisor switch using the Virtual Ethernet Module (VEM) functionality. While numerous security solutions already deploy the VMsafe APIs, the networking appliances I’ve seen so far (including the vShield Edge from VMware) rely on virtual machines to forward traffic between virtual (or physical) LANs.
Obviously the networking vendors have a very long way to go before reaching the true potential of virtualized networking.

                          Disponível em: http://searchnetworking.techtarget.com/tip/Virtual-network-appliances-Benefits-and- drawbacks
                                                                              Search Networking - Tech Target - Texto de Ivan Pepelnjak (Março de 2011)


O texto II faz um comentário sobre o uso de appliances de rede virtuais em “multi-tenant cloud”. Com base nesse comentário, é possível concluir que:

Alternativas
Comentários
  • GABARITO A.

    Linha 27: "  This is especially so if you charge your users by their actual VM/CPU usage, in which case you don’t really care how much CPU they’re using". " Trata-se em especial do caso em que você cobra dos usuários pelo uso real de VM / CPU, sem se importar com a quantidade de CPU que eles estão usando" (trad.).