F(x, y) =?= A(x)B(y)
-
Hallo,
gibt es ein Maß, das Angibt, wie gut sich eine Funktion faktorisieren lässt? D.h.
M(F(.,.)) = 0 wenn es A, B gibt mit F(x,y) ≡ A(x)B(y) und ungleich Null sonst?
Bzw., gibt es Tests mit denen man eine Stichprobe aus einer zweidimensionalen Wahrscheinlichkeitsverteilung darauf testen kann, ob die zwei Variablen (u.U. nicht linear) korreliert sind?
-
fricklr schrieb:
(u.U. nicht linear) korreliert sind?
und damit meine ich stochastisch unabhängig?
-
Meinst du Kovarianz? Oder vielleicht Korrelationskoeffizient?
Edit: Diese Grössen sind nur ein Mass für den linearen Zusammenhang.
-
Bzw., gibt es Tests mit denen man eine Stichprobe aus einer zweidimensionalen Wahrscheinlichkeitsverteilung darauf testen kann, ob die zwei Variablen (u.U. nicht linear) korreliert sind?
Regressionsanalyse und Varianzanalyse (ANOVA) sind, glaube ich, das was du suchst. Davon gibt eine fast unüberschaubare Anzahl von Variationen. Wenn du eine Statistiksoftware benutzt (z.B. SPSS), dann ist das recht einfach.
Excel o.Ä. bieten auch schon einfache Methoden um Abhängigkeiten zu berechnen (Stichwort: t-Test / Kovarianzanalyse)
Man muss aber häufig genau aufpassen für welche Art von Daten solche Tests gelten (z.B. ob sie nur für näherungsweise normalverteilte Werte ein gutes Ergebnis liefern). Hierfür gibts dann wieder andere Tests um das abzuklären (F-Test, Shapiro-Wilke, etc, etc. pp. )
-
Nexus schrieb:
Meinst du Kovarianz? Oder vielleicht Korrelationskoeffizient?
Edit: Diese Grössen sind nur ein Mass für den linearen Zusammenhang.
Wenn er seine Daten logarithmiert hat er den ja.
-
Vielleicht sollte ich noch einmal mein Problem formulieren:
Ich habe eine Wahrscheinlichkeitsverteilung mit der Dichte p(x, y) mit der kumulierten Verteilung P(x, y).
Ferner habe ich eine Stichprobe aus p, S = [(X1, Y1), ..., (XN, YN)].Ich möchte anhand der Stichprobe die Hypothese
H0: P(x, y) = P(x, [e]infin[/e]) * P([e]infin[/e], y)
testen.
Das ginge zum Beispiel, indem ich P abschätze durch
P_est(x, y) := |{(a, b) in S | a < x und b < y}| / |S|
und analog P(x, ∞) und P(∞, y), und dann die Differenz
G(x, y) := P_est(x, [e]infin[/e]) * P_est([e]infin[/e], y) - P_est(x, y)
anschaue.
Mit dem oben gestellten Problem hat sich aber sicher schon jemand professionelleres als ich beschäftigt.
Nexus schrieb:
Meinst du Kovarianz? Oder vielleicht Korrelationskoeffizient?
Edit: Diese Grössen sind nur ein Mass für den linearen Zusammenhang.
Genau, Kovarianz = 0 ist keine hinreichende Bedingung für stochastische Unabhängigkeit.
antialias schrieb:
...
Regressionsanalyse und Varianzanalyse (ANOVA) sind, glaube ich, das was du suchst. Davon gibt eine fast unüberschaubare Anzahl von Variationen. Wenn du eine Statistiksoftware benutzt (z.B. SPSS), dann ist das recht einfach.Der t-test testet doch, ob zwei Stichproben aus der selben Verteilung kommen?
Jester schrieb:
Wenn er seine Daten logarithmiert hat er den ja.
Tut mir Leid, das sehe ich nicht.
-
fricklr schrieb:
Genau, Kovarianz = 0 ist keine hinreichende Bedingung für stochastische Unabhängigkeit.
Entweder du zeigst analytisch, dass die Funktion faktorisierbar ist, oder du hast ein Problem. Approximieren kannst du das vielleicht, indem du nach den Momenten 2. Ordnung noch die höheren Momente betrachtest. ICA funktioniert zum Beispiel nach dem Prinzip und versucht die n-dimensionalen Eingabedaten in n Signale mithilfe des 3./4. Moments zu zerlegen. Aber da kommst du ganz schnell an die Grenzen des technisch Machbaren (Speicheraufwand n^4)
-
fricklr schrieb:
Hallo,
gibt es ein Maß, das Angibt, wie gut sich eine Funktion faktorisieren lässt? D.h.
M(F(.,.)) = 0 wenn es A, B gibt mit F(x,y) ≡ A(x)B(y) und ungleich Null sonst?
Bzw., gibt es Tests mit denen man eine Stichprobe aus einer zweidimensionalen Wahrscheinlichkeitsverteilung darauf testen kann, ob die zwei Variablen (u.U. nicht linear) korreliert sind?
Kannst Du vergessen!
http://de.wikipedia.org/wiki/Gödelscher_UnvollständigkeitssatzDu brauchst einen Werteausdruck C(A(x),B(x)) mit dem Du den Komplexitätsgrad (System) so runterdrücken kannst, dass Du eine Beschreibung
{F(x,y),C(A(x),B(x))} über eine Referenzfunktion R(x,y) bekommst.Aus der Analyse bekommst Du einen Wert zur Korrelationsaussage (Varianz, Steigung, log (grad) ... what ever).
Kannst Du C nicht beschreiben sagt Gödel "Ist nicht!"
otze schrieb:
fricklr schrieb:
Genau, Kovarianz = 0 ist keine hinreichende Bedingung für stochastische Unabhängigkeit.
Entweder du zeigst analytisch, dass die Funktion faktorisierbar ist, oder du hast ein Problem. Approximieren kannst du das vielleicht, indem du nach den Momenten 2. Ordnung noch die höheren Momente betrachtest. ICA funktioniert zum Beispiel nach dem Prinzip und versucht die n-dimensionalen Eingabedaten in n Signale mithilfe des 3./4. Moments zu zerlegen. Aber da kommst du ganz schnell an die Grenzen des technisch Machbaren (Speicheraufwand n^4)
Hört sich interessant an. Hast Du ein paar Google Buzz für mich?
-
Ohh, Sorry, natürlich.
Stichworte:
Independent Component Analysis
Blind Source/Signal Separation
kernel Independent Component Analysis
Independent Subspace AnalysisFunktioniert aber nur gut, wenn die Signale irgendwie linear miteinander verwoben sind. Wenn da nichtlinearitäten im Spiel sind, dann muss man cheaten und kernel verwenden. Aber das ist echt ein advanced topic
-
Merci!
Ziehe ich mir intravernös rein.