Markov Decision Process - Verständnisproblem
-
Hallo,
ich beschäftige mich gerade mit partial observable MDPs und sehe wahrscheinlich den Wald vor lauter Bäumen nicht mehr... Ich zitiere mal aus
http://webdocs.cs.ualberta.ca/~sutton/book/ebook/node33.html
Es gibt zwei endliche Mengen S, der möglichen Zustände und A der möglichen Aktionen.
Dann gibt es Übergangswahrscheinlichkeiten , die besagen, wie Wahrscheinlich es ist, dass wenn ich im Zustand s Aktion a ausführe in Zustand s' zu kommen.
Oder anders gesagt zusammen mit der Markov-Bedingung ist
Und dann noch der Teil, denn ich nicht verstehe, nämlich erwartete Rewards
Ich verstehe nicht, welche Form die Zufallsvariable hat und warum man nicht einfach eine Funktion R: S \times S \times \A \leftarrow \mathbb{R} definiert. Kann vll. jemand ein Beispiel machen?
-
Was ist denn mit den Formeln passiert?
-
mazal schrieb:
Was ist denn mit den Formeln passiert?
Die Latex-Tags funktionieren seit einer Weile nicht so richtig
. Nichtsdestotrotz sind die Tags nur wie \begin{document} ... \end{document}, du müsstest also schon noch eine Matheumgebung innerhalb der Tags aufmachen, wenn du mit den Tags Mathematik setzen möchtest. Aber wie gesagt: Kann gut sein, dass es trotzdem nicht funktioniert.
-
deleted