Direkt zum Inhalt

Lexikon der Mathematik: erzeugende Funktion

auch momenterzeugende Funktion genannt, innerhalb der Wahrscheinlichkeitstheorie häufig benutztes Hilfsmittel zur Untersuchung von Wahrscheinlichkeitsmaßen auf ℕ0 ≔ {0, 1, 2,…}, wobei die σ-Algebra auf ℕ0 hier und im folgenden die Potenzmenge \({\mathfrak{P}}\text{(}{{\mathbb{N}}}_{\text{0}}\text{)}\) von ℕ0 ist.

(Für die Bedeutung der erzeugenden Funktionen innerhalb der Zahlentheorie vergleiche man erzeugende Funktion einer zahlentheoretischen Funktion).

Ist P ein Wahrscheinlichkeitsmaß auf ℕ0 und pkP({k}), k = 0, 1,…, so heißt die durch \begin{eqnarray}G(s):=\displaystyle \sum _{k=0}^{\infty }{p}_{k}{s}^{k}\end{eqnarray} im Konvergenzbereich der Reihe erklärte Funktion G erzeugende Funktion von P.

Ist X eine Zufallsvariable mit Werten in ℕ0 und PkP(X = k), k = 0, 1,…, so heißt die erzeugende Funktion der Verteilung von X, also die Funktion \begin{eqnarray}G(s):=\displaystyle \sum _{k=0}^{\infty }{p}_{k}{s}^{k}=E({s}^{X})\end{eqnarray} erzeugende Funktion von X. E(sX) bezeichnet dabei den Erwartungswert von sX.

Ein Wahrscheinlichkeitsmaß auf ℕ0 ist durch seine erzeugende Funktion eindeutig bestimmt.

Mit Hilfe der erzeugenden Funktion kann man die Momente einer Zufallsvariablen berechnen:

Ist X eine0-wertige Zufallsvariable mit der erzeugenden Funktion G(s), so ist \begin{eqnarray}E(X(X-1)\ldots (X-n+1))=\mathop{\mathrm{lim}}\limits_{s\uparrow 1}{G}^{(n)}(s)\\=:{G}^{(n)}(1-)\space\space \end{eqnarray}für alle n ∈ ℕ. Dabei ist die Gleichung so zu verstehen, daß der Erwartungswert auf der linken Seite genau dann existiert, also endlich ist, wenn G(n)(1−) < ∞.

Insbesondere existiert der Erwartungswert E(X) bzw. die Varianz V(X) genau dann, wenn G′(1−) < ∞ bzw. G″(1−) < ∞, und dann ist E(X) = G′(1−) bzw. \begin{eqnarray}V(X)={G}^{^{\prime\prime} }(1-)+{G}^{^{\prime} }(1-)-{G}^{^{\prime} }{(1-)}^{2}.\end{eqnarray}

Erzeugende Funktionen erlauben eine einfache Bestimmung der Verteilung der Summe unabhängiger Zufallsvariablen:

Seien X und Y unabhängige0-wertige Zufallsvariablen mit den erzeugenden Funktionen GX und GY, und sei GX+Y die erzeugende Funktion von X + Y. Dann ist \begin{eqnarray}{G}_{X+Y}(s)={G}_{X}(s){G}_{Y}(s).\end{eqnarray}

Auch zur Bestimmung der Verteilung der Summe einer zufälligen Anzahl unabhängiger, identisch verteilter Zufallsvariablen sind erzeugende Funktionen nützlich:

Seien X1, X2,… unabhängige, identisch verteilte0-wertige Zufallsvariablen mit der (für alle Xi identischen) erzeugenden Funktion G, und sei N eine von X1, X2,… unabhängige, ℕ0-wertige Zufallsvariable mit der erzeugenden Funktion GN. Ist GS die erzeugende Funktion der Summe \begin{eqnarray}S:=\displaystyle \sum _{i=1}^{N}{X}_{i},\end{eqnarray}so gilt \begin{eqnarray}{G}_{S}(s)={G}_{N}(G(s)).\end{eqnarray}

Schließlich besteht ein Zusammenhang zwischen der Konvergenz von Wahrscheinlichkeitsmaßen und der Konvergenz ihrer erzeugenden Funktionen:

Für alle n ∈ ℕ sei pk(n), k = 0, 1,…, ein Wahrscheinlichkeitsmaß auf0 (d.h. pk(n) ≥ 0 und \(\displaystyle {\sum }_{k=0}^{\infty }{p}_{k}(n)=1\)) mit erzeugender Funktion Gn.

Dann existiert der Grenzwert \begin{eqnarray}{p}_{k}:=\mathop{\mathrm{lim}}\limits_{n\to \infty }{p}_{k}(n)\end{eqnarray}genau dann für alle k ∈ ℕ0, wenn der Grenzwert \(G(s):=\mathop{\mathrm{lim}}\limits_{n\to \infty }{G}_{n}(s)\)für alle s ∈ (0, 1) existiert. In diesem Falle ist pk ≥ 0, \(\displaystyle {\sum }_{k=0}^{\infty }{p}_{k}\le 1\)und \begin{eqnarray}G(s)=\displaystyle \sum _{k=0}^{\infty }{p}_{k}{s}^{k}.\end{eqnarray}

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnervideos