Que tipo de “probabilidade” você acha que está usando quando olha um p-valor: probabilidade de a hipótese ser verdadeira, ou probabilidade de observar dados tão extremos se a hipótese nula fosse verdadeira? E, por trás disso, quais são as diferenças conceituais entre as grandes “estratégias inferenciais” que a estatística colocou em circulação — e por que isso importa para a prática científica? Esta aula se organiza justamente para desfazer essa confusão inicial e mapear os contrastes entre abordagens, passando pela motivação histórica do Fisher (um método para rejeitar hipóteses e nunca “aceitá-las”) e pelo modo como o discurso do teste de hipótese foi absorvido e distorcido na prática, especialmente nas interpretações erradas do p-valor como “probabilidade da hipótese” (quando, na verdade, a probabilidade medida ali não é “da hipótese”); a partir daí, o eixo epistemológico da aula reaparece para recolocar o que conta como inferência: não “ideias pessoais”, mas regras explícitas de atualização e comparação, lembrando que, em ciência, o ponto crucial é explicitar os modelos candidatos a partir do conhecimento disponível e reconhecer o papel (limitado) de critérios heurísticos como a parcimônia — útil na prática, mas sem status de evidência científica e, no fundo, um critério arbitrário para decidir.
O primeiro vídeo introduz a ideia central de inferência estatística como um problema conceitual, e não apenas computacional, chamando atenção para o fato de que inferir é sempre decidir sob incerteza a partir de dados limitados. A discussão parte da pergunta “o que significa inferir em ciência?” para mostrar que toda inferência exige a proposição explícita de modelos sobre como o mundo pode funcionar, e que diferentes estratégias inferenciais correspondem a diferentes formas de relacionar dados, modelos e conclusões. O vídeo estabelece, assim, o pano de fundo epistemológico da aula, preparando o terreno para compreender por que escolhas metodológicas não são neutras e por que interpretações ingênuas da estatística frequentemente levam a conclusões equivocadas.
O segundo vídeo é dedicado ao teste de hipótese nula e ao significado correto do p-valor, partindo da pergunta sobre o que exatamente está sendo medido quando se obtém um resultado “estatisticamente significativo”. A apresentação reconstrói a lógica proposta por Fisher, mostrando que o teste avalia quão improvável seria observar dados como os obtidos se a hipótese nula fosse verdadeira, e enfatiza que esse procedimento foi concebido como um teste de rejeição, não como um método para confirmar hipóteses alternativas. Em seguida, o vídeo discute as interpretações erradas mais comuns do p-valor, o caráter arbitrário do nível de significância e as consequências práticas desse ritual estatístico, como a facilidade de produzir rejeições espúrias por meio de múltiplos testes, grandes tamanhos amostrais ou vieses de publicação.
O terceiro vídeo desloca o foco do teste de hipóteses isoladas para a comparação explícita entre modelos, explorando a ideia de que a ciência avança ao contrastar explicações concorrentes e escolher aquelas que melhor explicam os dados disponíveis. A partir da noção de inferência para a melhor explicação, o vídeo discute o papel da parcimônia como critério heurístico, a relação entre ajuste aos dados e complexidade do modelo, e a necessidade de penalizar modelos excessivamente flexíveis. Nesse contexto, são introduzidas abordagens baseadas em teoria da informação, como critérios de seleção de modelos, destacando que a inferência passa a ser uma avaliação relativa entre alternativas plausíveis, e não um veredito binário baseado na rejeição de uma hipótese nula muitas vezes trivial.
O quarto vídeo apresenta a inferência bayesiana como uma abordagem em que probabilidade é interpretada como grau de incerteza e a inferência é entendida como um processo explícito de aprendizado. A discussão começa ao situar historicamente o desenvolvimento do pensamento bayesiano e enfatiza que toda análise incorpora conhecimento prévio, seja ele reconhecido ou não, por meio de escolhas de modelo, hipóteses e critérios. O papel dos priors é então examinado, mostrando quando eles podem ser informativos ou aproximadamente planos, e em que condições resultados bayesianos e frequentistas tendem a convergir. O vídeo conclui ressaltando que a inferência bayesiana permite quantificar diretamente a plausibilidade de hipóteses e modelos à luz dos dados e do conhecimento disponível, oferecendo uma estrutura mais transparente para lidar com incerteza e apoiar decisões científicas.