- joint probability = současná pravděpodobnost $P(A \land B) = P(A,B)$ (je to granát a je heavy)
- podmíněná pravděpodobnost $P(m|g)$ - jaká je pst, že je to granát, když je object heavy
- marginální pst $P(grenade)$ : např. že je něco granát = 50/100 (sečteme )
- a-posteriorní klasifikátor je takový, který vybere třídu s větší psti
- SUM rule: (marginální pst; chci pst kategorie, tak musím sečíst pst celé kategorie; chci pst sloupce, posčítám ve sloupci, stejne pro radek)
$$
P(x) = \sum_y P(x,y)
$$
- Product rule:
$$
P(x,y) = P(x|y)P(y) = P(y|x)P(x)
$$
- Bayes rule: (vychází z Product rule)
$$
P(y|x) = {P(x|y)P(y) \over P(x)}
$$
- apriorní pst = pst třídy / počet třídy v trénovacích datech
- aposteriorní pst = pst třídy s nějakou informací / počet třídy v reálném světě
- likelihood = věrohodnost
$$
P(heavy) = P(heavy|granade)P(granade) + P(heavy|apple)P(apple)\
= P(heavy,granade) + P(heavy,apple)
$$
- státnice - pravidlo 3 sigma: 99.7% dat vygenerováno gauss dist padnou mezi interval 3 sigma ($\mu - 3 \sigma, u + 3 \sigma$)
- sčítání hodně nezávislých rozdělení = dostaneme gaussovo
- ML = maximum likelihood
- číslo mimo diagonálu ($\Sigma$) může být nanejvýš jako násobek odmocnin diagonál - bude to korelace
- trénovací data $\bold{X} = [\bold{x_1}, \bold{x_1}, \dots, \bold{x_N}]$ a parametry $\boldsymbol{\eta}$
- parametrická distribuce $p(\bold{x}|\boldsymbol{\eta})$
- hledáme parametry $\boldsymbol{\eta}$, které nám maximalizují funkci hustoty psti
- věrohodností funkce = díváme se na danou funkce jako funkci $\boldsymbol{\eta}$.
- NEintegruje do $1$ !
- díváme se jako na funkci parametrů
- funkce hustoty psti = dívám se na danou funkci jako funkci $\bold{X}$
- $\log \Pi P() = \sum \log P()$
- platí: $\argmax f() = \argmax \log f()$, platí protože $\log$ je monotonne rostouci fce