-
Vamos lá.
O da GOOGLE leva 200 segundos pra fazer 100% da tarefa
e o da IBM leva 2,5 dias para fazer 100% da tarefa, que transformando em segundos temos = 2,5(dias)*24(horas)*60(minutos)*60(segundos) = 216.000 segundos.
Então a cada segundo o google faz x% da tarefa = 100% / 200 = 0,5 % por segundo
e o da IBM faz a cada segundo X% da tarefa = 100% / 216.000 = 0,000463 % por segundo
Somando os dois temos = 0,500463 % por segundo.
Para saber quanto tempo os dois fazem juntos é só dividir o 100% da tarefa pela soma de % por segundos deles.
= 100 / 0,500463 = aproximadamente 199,81 segundos.
-
primeiro transformei 2,5 dias em segundos = 216000 e após somei com os 200 segundos do Google = 216200 e no final ficou essa equação= 200 * 21600/ 216200 = 199,8s
-
Questão da torneira:
Como estão trabalhando em conjunto, podemos usar a fórmula: 1/Google + 1/IBM = 1/T
Google = 200s
IBM = 216.000s
1/200 + 1/216.000 = 1/T
1081/216.000 = 1/T
T = 216.000/1081
T = 199,81s
GABARITO A
-
Média Aritmética Ponderada:
Google: 200 s
IBM: 2,5 DIAS (60 Horas x 3600 = 216.000 s)
M= 200 x 216.000 / 216.000 + 200
M= 43.200.000 / 216.200
M= 199,81
-
-
Minha resolução:
- O computador da Google faz 1 cálculo em 200s.
- O computador da IBM faz esse mesmo 1 cálculo em 2,5 dias.
Como as respostas estão em segundos, converti 1 dia para segundos, que dá 86400 segundos. Como são 2 + 0,5 dias, somei 86400 duas vezes e depois somei o resultado com a metade de 86400, que dá 216000 segundos.
Agora basta calcular em quanto tempo os dois computadores fariam o mesmo cálculo:
1/200 + 1/216000
216000 + 200 / 43200000
2162 / 432.10³
Juntos, os computadores fazem 2162 cálculos em 432.10³ segundos, mas queremos o tempo para fazer 1 cálculo.
2162 — 432.10³
1 — x
X ≅ 199,8s