A estimativa de máxima verossimilhança (VLE) é um modelo geral para estimar parâmetros de uma distribuição de probabilidade que depende das observações na amostra.
Em outras palavras, o EMV maximiza a probabilidade dos parâmetros das funções de densidade que dependem da distribuição de probabilidade e das observações na amostra.
Quando falamos sobre estimativa de máxima verossimilhança, devemos falar sobre o Função probabilidade máxima. Matematicamente, dado uma amostra x = (x1,…, Xn) e parâmetros, θ = (θ1,…, Θn) então,
Não entrar em pânico! Este símbolo significa o mesmo que a soma das somas. Neste caso, é a multiplicação de todas as funções de densidade que dependem das observações da amostra (xeu) e os parâmetros θ.
Quanto maior o valor de L (θ | x), ou seja, o valor da função de máxima verossimilhança, mais prováveis serão os parâmetros baseados em amostra.
Função logarítmica de EMV
Para encontrar as estimativas de máxima verossimilhança, temos que diferenciar (derivar) os produtos das funções de densidade e esta não é a maneira mais confortável de fazer isso.
Quando encontramos funções complicadas, o que podemos fazer é uma transformação monótona. Por outras palavras, seria querer desenhar a Europa à escala real. Devemos reduzir para que caiba em uma folha de papel.
Neste caso, fazemos a transformação monotônica usando logaritmos naturais, uma vez que são funções monotônicas e crescentes. Matematicamente,
As propriedades dos logaritmos nos permitem expressar a multiplicação acima como a soma dos logaritmos naturais aplicados às funções de densidade.
Portanto, a transformação monotônica por logaritmos é simplesmente uma "mudança de escala" para números menores.
O valor estimado dos parâmetros que maximizam a probabilidade dos parâmetros da função de máxima verossimilhança com logaritmos é equivalente ao valor estimado dos parâmetros que maximizam a probabilidade dos parâmetros da função de máxima verossimilhança original.
Então, vamos sempre lidar com a modificação monótona da função de máxima verossimilhança dada sua maior facilidade de cálculos.
Curiosidade
Por mais complexo e estranho que o EMV possa parecer, estamos continuamente aplicando-o sem perceber.
Quando?
Em todas as estimativas dos parâmetros de uma regressão linear sob suposições clássicas. Mais comumente conhecido como Ordinary Least Squares (OLS).
Em outras palavras, quando aplicamos OLS, estamos aplicando EMV implicitamente, uma vez que ambos são equivalentes em termos de consistência.
Aplicativo
Como outros métodos, o EMV é baseado em iteração. Ou seja, repetir uma determinada operação quantas vezes forem necessárias para encontrar o valor máximo ou mínimo de uma função. Este processo pode estar sujeito a restrições nos valores finais dos parâmetros. Por exemplo, que o resultado é maior ou igual a zero ou que a soma de dois parâmetros tem que ser menor que um.
O modelo simétrico GARCH e suas diferentes extensões aplicam o EMV para encontrar o valor estimado dos parâmetros que maximiza a probabilidade dos parâmetros das funções de densidade.