Um Breve Passeio pela História do EMV

Willian Ramos

PET-Estatística


1 Motivação

Na vida acadêmica os estudantes se deparam constantemente com novos assuntos e consequentemente surgem várias dúvidas sobre os conteúdos estudados. Uma das mais recorrentes é sobre a origem do assunto, quem teve a ideia e como a pessoa desenvolveu-a para construir uma teoria é quase sempre fascinante, além de muitas vezes ajudar no entendimento do tema em questão. Por esta razão o presente texto foi redigido, mais especificamente para mostrar os princípios de uma ideia muito importante para a Estatística, que é a estimação dos parâmetros.

2 Primeiras contribuições

Desde muito tempo, o problema de estimar parâmetros já é mencionado. Uma das primeiras questões, que se encontra na literatura, foi levantada por James Bernoulli, em sua obra póstuma Ars Conjectandi de 1713, nela o autor aborda um problema envolvendo inferência para o parâmetro binomial. Outra contribuição importante neste mesmo texto de Bernoulli foi a apresentação de sua famosa versão da Lei dos Grandes Números para a distribuição binomial.

Passado alguns anos da publicação de Bernoulli, outra grande contribuição envolvendo a ideia de estimação foi publicada, em meados de 1770, por Joseph Lagrange. Ele considerava uma distribuição de erros com k erros que poderiam ocorrer em algum experimento e cada um teria uma probabilidade de acontecer. Com base nesta afirmação, ele queria estimar a soma dos erros com suas respectivas probabilidades para posteriormente calibrar os instrumentos de medição com uma precisão maior. Para isso, Lagrange maximizou algumas formulações por ele empregadas e como estimativa ele utilizou o “valor mais provável” advindo deste processo, ideia um pouco parecida com a que Fisher introduziu anos depois. Os métodos desenvolvidos por Lagrange não foram tão utilizados pelo motivo de que Laplace, quase no mesmo período, popularizou o conceito de Probabilidade Inversa.

3 Influência Bayesiana

Anos antes do trabalho de Lagrange, em 1763, a obra póstuma de Thomas Bayes intitulada An Essay towards solving a Problem in the Doctrine of Chances foi publicada. O artigo apresentou uma forma para calcular probabilidades condicionais, que posteriormente ficaria conhecida como Teorema de Bayes. Em uma nota feita no artigo, Bayes questiona se as mesmas regras expostas por ele valeriam para eventos não observados e a partir disso ele conseguiu obter resultados envolvendo as distribuições a priori e a posteriori, a filosofia utilizada por Bayes em seu trabalho influenciou e ainda influencia diversos estatísticos até os dias de hoje.

Apesar da relevância da obra de Thomas Bayes, ela não ganhou notoriedade rapidamente, um dos primeiros autores que teve a influencia de Bayes foi Pierre Simon Laplace, que tomou conhecimento da publicação de Bayes somente em 1781. Antes disso, em 1774, Laplace havia realizado um trabalho que levava o título de Memoir on the Probability of Causes of Events. Nessa obra, Laplace formulou um novo princípio da probabilidade inversa. Para introduzir este novo princípio o autor utilizou primeiramente a ideia de que se um evento é conhecido, mas a causa deste evento é desconhecida então há necessidade de uma nova forma de encontrar as probabilidades desta causa. Tomando esta afirmação, Laplace então definiu Probabilidade Inversa como: As probabilidades da existência das causas de um evento, sendo que o evento aconteceu, são próximas as probabilidades do evento dadas as causas, assim para ele a ideia de probabilidade inversa era que as causas seriam condicionadas pelos eventos já conhecidos. Anos depois, Laplace tomou conhecimento do trabalho de Bayes e adicionou suas ideias na teoria da probabilidade inversa. A utilização do termo probabilidade inversa perdurou por séculos, porém o termo ficou obsoleto e não é mais útil atualmente.

Após as contribuições feitas por Laplace, alguns métodos de estimação surgiram e ainda são extremamente relevantes em algumas situações. Em 1809, Carl Friedrich Gauss introduziu o Método dos Mínimos Quadrados, em sua obra Theoria motus corporum coelestium. Alguns anos depois outro método para estimação ficou bastante conhecido por causa de Karl Pearson, que publicou um artigo sobre o procedimento na revista Biometrika, este método é conhecido como Método dos Momentos. Ambos os métodos foram criticados por Fisher posteriormente, mas podem ser extremamente úteis em situações específicas, como no caso de um modelo não satisfazer as condições de regularidade da verossimilhança ou oferecer os mesmos resultados que o EMV e ter uma expressão mais simples de se obter as estimativas.

4 Artigos de Fisher

Em 1912, Ronald Fisher publicou seu artigo denominado An absolute criterion for fitting frequency curves. Este artigo apresenta um método para estimação dos parâmetros de uma curva de frequências, inicialmente o método não possuía uma nomenclatura padrão, mas posteriormente, recebeu o nome de Método de Máxima Verossimilhança pelo próprio autor. Apesar de apresentar o novo método de estimação, Fisher também criticou outras duas famosas formas de estimação: o Método dos Momentos e o Método dos Mínimos Quadrados. Em seu texto Fisher crítica primeiramente o método desenvolvido por Gauss afirmando que há algumas arbitrariedades no processo de estimação e que o MMQ não seria adequado para algumas situações mostrando uma em seu texto. Em seguida Fisher disse que o Método dos Momentos também é muito arbitrário e que não existe uma regra clara para qual momento utilizar na estimação dos parâmetros. Após todas as críticas feitas, o autor então propôs o seu método para estimação e apesar de numericamente o método estar correto, Fisher acabou o justificando utilizando o princípio da probabilidade inversa, motivo esse que para muitas pessoas foi seu maior erro. Há muitas especulações sobre as influências que Fisher teve para desenvolver tal teoria, as mais claras são advindas da Teoria do Erro, de onde o autor faz menções a alguns estudiosos da área.

Desde a publicação do artigo de 1912, Fisher trabalhou para construir um novo princípio para estimação de parâmetros, já que ele tinha rejeitado o princípio proposto por Laplace alguns anos depois de seu primeiro artigo aqui citado. Com a confecção da ideia de Verossimilhança, apresentada em 1921, sua filosofia estava criada e seu método de estimação estava fundamentado neste princípio. E após toda essa construção feita por ele ao longo dos anos, enfim, em 1922, Fisher publicou seu revolucionário artigo de 1922 intitulado On the mathematical foundations of theoretical statistics. No artigo o autor começa definindo uma série de conceitos incluindo consistência, suficiência, eficiência, entre outros relevantes para a inferência. Ao decorrer do texto, é apresentada uma estrutura geral para realização de inferências sobre os parâmetros, isto pela primeira vez em toda a história.

Após 1922, a inferência estatística ganhou uma nova visão baseada no conceito de Verossimilhança e a partir dai recebeu diversas contribuições que fortaleceram a teoria, fazendo-a extremamente importante nos dias de hoje.