Ninja Bayesiano

Coderikuma vez observou: "Nunca há muitos filtros de Kalman" . O mesmo pode ser dito sobre o teorema de Bayes, porque, por um lado, é muito simples, mas, por outro, é tão difícil compreender sua profundidade.



O YouTube possui um maravilhoso canal Student Dave , mas o último vídeo foi postado seis anos atrás. O canal contém vídeos educativos nos quais o autor conta coisas complexas em uma linguagem muito simples: teorema de Bayes, filtro de Kalman, etc. O aluno Dave complementa sua história com um exemplo de cálculo no matlab.


Uma vez que sua vídeo aula chamada “Estimativa iterativa bayesiana” realmente me ajudou (no canal corresponde à lista de reprodução “Estimativa iterativa bayesiana: com MATLAB”) Queria que todos se familiarizassem com as explicações de Dave, mas infelizmente o projeto não é suportado. O próprio Dave não entra em contato. Você não pode adicionar uma tradução ao vídeo, pois o próprio autor deve iniciá-lo. Entrar em contato com o youtube não deu resultado, por isso decidi descrever o material em um artigo em russo e publicar onde ele é mais apreciado. O material é muito revisado e complementado, pois passou pela minha percepção subjetiva; portanto, colocá-lo como tradução seria inadequado. Mas peguei o sal da explicação de Dave. Reescrevi seu código em python, já que trabalho nele e o considero um bom substituto para pacotes matemáticos.


Portanto, se você quiser entender melhor o tópico do teorema de Bayes, seja bem-vindo.


Formulação do problema


, “ ”. .



-, . , . , . . , . . - .


, , , .



- x. x=3. . .



( ) N=100() .


σy2=4.
, .



fposterior(x)=fprior(x)f(x)fprior(x)fmes(x)dx,


fposterior(x)— ;
fprior(x)— ;
fmes(x)— ( Lx(sample)).
. , ( , ):


fmes(x)=pdf(x=y,μ=x,σ=σ)=12πσe(yx)22σ2,


pdf— ;
μ— ;
σ— ;
y— .
(N), , .


.



.
σ, 99,7 %.



- , .


. -.
(3,5). ( ) .

() , . .

:


fposterior(X)=fprior(X)f(X)fprior(X)fmes(X)dX,


X(xy);
fposterior(X)— ;
fprior(X)— ;
fmes(X)— .
:


fmes(X)=1(2π)2detKe12(YX)TK1(YX),


K— ;
Y(xy).
, .

.



Assim, vê-se como os resultados do experimento afetam a distribuição a priori. Se você usar as medições corretamente, poderá obter uma boa precisão.
Mas não é mais fácil encontrar a média de todas as medições e, assim, fazer uma avaliação da localização da codorna? Claro. Este exemplo é apenas um bom exemplo do teorema de Bayes para variáveis ​​aleatórias contínuas. O objetivo do artigo é resolver a teoria.


Pare no Dave Channel durante essas semanas de auto-isolamento. Bom para todos.


All Articles