Questões de Cálculo (Estatística)

Limpar Busca

Considerando 1,6 como valor aproximado para log2 3, julgue o próximo item, a respeito de entropia na teoria da informação.


A entropia relativa, ou divergência de Kullback-Leibler, é uma medida para a distância de duas distribuições de um conjunto de dados, uma correta e outra incorretamente assumida, e é sempre um número positivo.

  • Certo
  • Errado

Considerando 1,6 como valor aproximado para log2 3, julgue o próximo item, a respeito de entropia na teoria da informação.


A entropia de um dado honesto é igual a 3,6.

  • Certo
  • Errado

Considere um quadrado no plano cartesiano cujos vértices são os pontos (0,0), (0,2), (2,0) e (2,2). Suponha que a probabilidade do evento A, que é uma região contida nesse quadrado, é igual à área de A dividida pela área do quadrado. Considere os seguintes eventos:
A ={(x,y); 0 < x < 1,5 e 0 < y < 1,2} e B = {(x,y); 0 < x < 1 e 0 < y < 1,5}
Nessas condições, a probabilidade do complementar do evento (AUB) é igual a

  • A 0,175
  • B 0,475
  • C 0,525
  • D 0,180
  • E 0,385

Sejam A e B duas matrizes quadradas de ordem 2 em queImagem relacionada à questão do Questões Estratégicas Se A = B, então considerando os valores reais de m e n que tornam verdadeira esta igualdade, verifica-se que mn é igual a

  • A 3
  • B 4
  • C 2
  • D 6
  • E 1

Se A é uma matriz quadrada de ordem 2 tal que Imagem relacionada à questão do Questões Estratégicas então o determinante da inversa da matriz transposta de A é igual a

  • A −0,20
  • B −0,40
  • C −0,25
  • D −0,50
  • E −1,00