O
Hi, folgendes problem:
Ich habe k Multinomialverteilungen über N zustände gegeben mit Wahrscheinlichkeiten p_i(j)>0,∑_iNpi(j)=1p\_i^{(j)} > 0, \sum\_i^N p_i^{(j)}=1p_i(j)>0,∑_iNpi(j)=1.
Diese Verteilungen liegen auf einer Manigfaltigkeit M={p∣p∈RN,p_i>0,∑_ipi=1}M=\left\{ p \mid p \in \mathbb{R}^N, p\_i > 0, \sum\_i p_i=1 \right\}M={p∣p∈RN,p_i>0,∑_ipi=1} mit natürlicher Metrik induziert durch die Fischer-Informartionsmatrix d:M×M→R:d(p,q)=arccos(∑i=1Np_iq_i)d: M \times M \rightarrow \mathbb{R}: d(p,q)=\arccos(\sum_{i=1}^N \sqrt{p\_i q\_i})d:M×M→R:d(p,q)=arccos(∑i=1N√p_iq_i).
Wenn ich die Verteilungen p(j)p^{(j)}p(j) als Punkte auf der Mannigfaltigkeit auffasse, ist das einzig sinnvolle Mittel das Frechet-Mittel:
p^=argmin_q∑_j=1kd(p(j),q)\hat{p} = \arg \min\_q \sum\_{j=1}^k d(p^{(j)},q)p^=argmin_q∑_j=1kd(p(j),q), weil dieses unabhängig von der Parametrisierung der Mannigfaltigkeit ist. Andererseits kann ich die Wahrscheinlichkeiten auch als bedingte Verteilungen interpretieren:
p(i∣j)=pi(j)p(i|j)=p_i^{(j)}p(i∣j)=pi(j) und kann die Verteilungen mit dem sample-mean mitteln p(i)=1k∑_jkp_i(j)p(i)= \frac 1 k \sum\_j^k p\_i^{(j)}p(i)=k1∑_jkp_i(j). Dieses Mittel ist konsistent damit, aus jeder der k Verteilungen samples zu ziehen und dann über die Gesamtmenge der samples p(i)p(i)p(i) als maximum likelihood estimate zu schätzen.
Die beiden Mittel sind unterschiedlich. Was ist also der Bedeutungsunterschied zwischen dem Frechet-Mittel und dem Arithmetischen für Verteilungen?