Direkt zum Inhalt

Lexikon der Mathematik: bedingte Erwartung

bedingter Erwartungswert, Verallgemeinerung des Begriffs des Erwartungswertes einer numerischen Zufallsvariablen X mit dem Ziel, gegebene Vorkenntnisse über X zu berücksichtigen.

Sei X eine numerische Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, 𝒜, P) mit X ≥ 0 bzw. fΩ |X| dP < ∞, und sei 𝒞 ⊂ 𝒜 eine Unter-σ-Algebra. Dann heißt eine auf (Ω, 𝒜, P) definierte numerische Zufallsvariable Z bedingte Erwartung von X bezüglich 𝒞, in Zeichen E(X|𝒞), falls Z ≥ 0 bzw. ∫Ω |Z| dP < ∞ und Z 𝒞-meßbar ist, sowie \begin{eqnarray}{\int }_{C}Z\,dP={\int }_{C}X\,dP\,\mathrm{fur}\,{\rm{alle}}\,C\in {\mathscr{C}}\,{\rm{gilt}}.\end{eqnarray}

Unter den genannten Voraussetzungen existiert E(X|𝒞) und ist fast sicher (f.s.) eindeutig bestimmt.

Für die Untersuchung stochastischer Prozesse besonders wichtig ist der Fall, daß \begin{eqnarray}{\mathscr{C}}=\sigma ({Y}_{i};i\in I)\end{eqnarray} von einer Familie (Yi)iI von Zufallsvariablen Yi : (Ω, 𝒜) → (Ei, ϵi) mit Werten in Meßräumen (Ei, ϵi) erzeugt wird. Dann nennt man E(X|𝒞) bedingte Erwartung von X gegeben (Yi)iI und schreibt statt E(X|𝒞) auch E(X|Yi,iI) bzw. E(X|Y1, …, Yn), falls I = {1, …, n}.

Ein enger Zusammenhang der bedingten Erwartung mit der bedingten Wahrscheinlichkeit wird deutlich, wenn die Unter-σ-Algebra 𝒞 ⊂ 𝒜 von paarweise disjunkten Mengen A1, …, An ∈ 𝒜 erzeugt wird und Ω = A1 ∪ … ∪ An sowie P(Ai) > 0, i = 1, …, n gilt.

E(X|𝒞) wird in diesem Fall auch bedingte Erwartung bezüglich der Zerlegung A1, …, An genannt. Für ωAi ist \begin{eqnarray}E(X|{\mathscr{C}})(\omega )=(\displaystyle \mathop{\int }\limits_{{A}_{i}}X\,dP)/P({A}_{i})=\displaystyle \int X\,d{P}_{{A}_{i}}\end{eqnarray} der Erwartungswert von X bezüglich des bedingten Wahrscheinlichkeitsmaßes \({P}_{{A}_{i}}\). Die Zahl \begin{eqnarray}{E}_{{A}_{i}}(X):=\int X\,d{P}_{{A}_{i}}\end{eqnarray} heißt bedingte Erwartung von X gegeben das Ereignis Ai.

Dieser Zusammenhang läßt sich verallgemeinern: Ist 𝒞 ⊂ 𝒜 eine (beliebige) Unter-σ-Algebra, X re-ellwertig, ℬ die Borel-σ-Algebra auf ℝ und PX|𝒞 : Ω × ℬ → [0, 1] eine bedingte Verteilung von X bezüglich 𝒞, so ist \begin{eqnarray}E(X|{\mathscr{C}})(\omega )=(\displaystyle \mathop{\int }\limits_{{\mathbb{R}}}x{P}_{X|{\mathscr{C}}})(\omega,dx)\,\text{f.s.}\end{eqnarray}

Eine wichtige Deutung der bedingten Erwartung ergibt sich, falls X reell ist mit ΩX2dP < ∞. Dann ist \begin{eqnarray}E[X-E(X|{\mathscr{C}}){)}^{2}]=\,\min \{E[{(X-Z)}^{2}]|Z:{\rm{\Omega }}\to {\rm{{\mathbb{R}}}}\,{\mathscr{C}}\text{-me}ß\text{bar},\,\displaystyle \mathop{\int }\limits_{\Omega }|Z{|}^{2}dP\lt \infty \}.\end{eqnarray}

Einige Eigenschaften der bedingten Erwartung beschreibt folgender Satz:

Seien 𝒞, 𝒟 Unter-σ-Algebren von 𝒜 und X, Z, X1, X2, … numerische Zufallsvariablen auf (Ω, 𝒜, P) mit X ≥ 0, Xn ≥ 0 für alle n ∈ ℕ bzw. ∫Ω |X|dP < ∞, Ω |Xn|dP < ∞ für alle n ∈ ℕ. Dann gilt:

  1. \({\mathscr{C}}=\{\rlap{/}{0},{\rm{\Omega }}\}\Rightarrow E(X|{\mathscr{C}})=EX\);
  2. E(αX1 + ßX2|𝒞) = αE(X1|𝒞) + ßE(X2|𝒞) f.s., wobei α, β ∈ ℝ+bzw. α, β ∈ ℝ;
  3. E(|X||𝒞) ≥ |E(X|𝒞)| f.s.;
  4. X 𝒞-meßbar ⇒ E(X|𝒞) = X f.s.;
  5. σ(&KHgr;) unabhängig von 𝒞 ⇒ E(X|𝒞) = EX f.s. ;
  6. E(E(X|𝒞)) = EX;
  7. 𝒞 ⊂ 𝒟 ⇒ E(E(X|𝒟)|𝒞) = E(X|𝒞) f.s.;
  8. X1X2f.s.E(X1|𝒞) ≥ E(X2|𝒞) f.s.;
  9. X1 𝒞-meßbar und X1, X2 0 bzw. ∫Ω |X1|dP, Ω |X2|dP, Ω |X1X2|dP < ∞ ⇒ E(X1X2|𝒞) = X1E(X2|𝒞) f.s.;
  10. 0 ≤ X1≤ X2… und XnX f.s.E(Xn|𝒞) ↑ E(X|𝒞) f.s.;
  11. Xn ≥ 0 für alle n ∈ ℕ ⇒ E(lim inf Xn|𝒞) ≤ lim inf E(Xn|𝒞) f.s.;
  12. lim Xn = Z f.s., |Xn| ≤ &KHgr;, Ω |X| dP < ∞ ⇒ E(Xn|𝒞) → E(Z|𝒞) f.s..

Ist (E, ϵ) ein Meßraum, Y eine (E, ϵ)-wertige und X eine reelle Zufallsvariable auf (Ω, 𝒜, P), so möchte man häufig den Einfluß von Y auf X weniger durch σ(Y) als durch die Werte von Y beschreiben. Sei PY die Verteilung von Y. Ist ∫Ω |X| dP < ∞, so existiert eine ϵ-meßbare Funktion g : ϵ → ℝ mit E |g| dPY < ∞ sowie \begin{eqnarray}\displaystyle \mathop{\int }\limits_{B}g\,d{P}_{Y}=\displaystyle \mathop{\int }\limits_{\{Y\in B\}}X\,dP\,{\rm{fur\; alle}}\,B\in \varepsilon.\end{eqnarray}

Für jede ϵ-meßbare Funktion g : E → ℝ mit E |g| dPY < ∞, die diese Gleichung erfüllt, gilt g ∘ Y = E(X|Y) P-f.s. (Faktorisierung der bedingten Erwartung), und für jede solche Abbildung g heißt g(y) für alle yE bedingte Erwartung von X unter der Hypothese Y = y, in Zeichen E(X|Y = y). Die Abbildung yE(X|Y = y) ist PY-f.s. eindeutig bestimmt, ihre Eigenschaften folgen aus denen von E(X|Y). Wird durch yPX|Y = y für alle y ∈ ∈ eine bedingte Verteilung von X gegeben Y = y definiert, so gilt analog zu Gleichung (1) \begin{eqnarray}E(X|Y=y)=\displaystyle \mathop{\int }\limits_{{\rm{{\mathbb{R}}}}}x\,{P}_{X|Y=y}(dx)\,{P}_{Y}\text{-f.s.}\end{eqnarray}

Ist der Wertebereich von X gleich {x1, x2, …} und dervon Y gleich {y1, y2, …}⊂ℝ mit P({Y = yn}) > 0 für n = 1, 2, …, so ist \begin{eqnarray}E(X|Y={y}_{n})=\sum {x}_{i}P(\{X={x}_{i}\}|\{Y={y}_{n}\}).\end{eqnarray}

Ist Y reellwertig und existiert eine Wahrscheinlichkeitsdichte f (x, y) von (X, Y) mit fY(y) := ff (x, y) dx > 0 für alle y ∈ ℝ, so gilt \begin{eqnarray}E(X|Y=y)=(\displaystyle \mathop{\int }\limits_{{\rm{{\mathbb{R}}}}}xf(x,y)dx)/{f}_{Y}(y)\,{P}_{Y}-{\rm{f}}{\rm{.s}}.\end{eqnarray}

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnervideos