Temaside for TMA4240/TMA4245 Statistikk

Begreper, definisjoner og tolkninger

Viktige diskrete sannsynlighetsfordelinger

Dette har vi lært til nå? En diskret stokastisk variabel, \(X\), kan ta et endelig eller tellbart uendelig antall mulige verdier. Fordelingsfunksjonen til \(X\), \(f(x)\), er punktsannsynligheten \(P(X=x)\) for \(X\), og vi finner kumulativ fordelingsfunksjon ved å summere: \(F(x)=\sum_{t\le x} f(t)\).

Introduksjonsvideo: Viktige diskrete sannsynlighetsfordelinger (15:02, Mette Langaas)

Hva skal vi gjøre nå?

De viktige diskrete fordelingene vi skal se på her er

  • binomisk,
  • hypergeometrisk,
  • Poisson,
  • geometrisk og
  • negativ binomisk fordeling.

For hver av disse skal vi

  • se situasjoner der fordelingen passer: og vi skal spesielt se på Bernoulli-prosess, Poisson-prosess og en urnemodell for å beskrive slike situasjoner,
  • se hvordan \(f(x)\) kan utledes og ser ut matematisk og grafisk,
  • se hvordan vi kan regne ut \(F(x)\) og sannsynligheter,
  • hvordan vi kan utlede forventningsverdien E(X) og variansen Var(X).

Sentrale begreper

Trykk på det grå feltet for mer informasjon om temaet.

Bernoulli-prosess

Bernoulli-prosess

Vi tenker oss at vi utfører et eksperiment. Dette eksperimentet er en Bernoulli-prosess (også kalt binomisk forsøksrekke) hvis det oppfyller følgende egenskaper:

  1. Eksperimentet består av uavhengige forsøk.
  2. I hvert forsøk undersøker man om en hendelse \(A\) inntreffer (suksess) eller ikke (\(A'\)=fiasko).
  3. Sannsynligheten for hendelsen \(A\) (suksess) kaller vi \(p\), og denne er den samme fra forsøk til forsøk.

Dette leder til tre fordelinger:

  • Antall suksesser, \(X\), i en Bernoulli-prosess med \(n\) forsøk er binomisk fordelt.
  • Antall forsøk til og med første suksess, \(X\), er geometrisk fordelt.
  • Antall forsøk til og med \(k\) suksesser, \(X\), er negativt binomisk fordelt.

Relevante kapitler: 5.2
Relevante videoer: Binomisk fordeling


Binomisk fordeling

Binomisk fordeling

Vi ser på en Bernoulli-prosess med \(n\) forsøk (bestemt på forhånd) og suksess-sannsynlighet \(p\). Da vil antallet suksesser, \(X\), ha en binomisk fordeling. \[ f(x)= \binom{n}{x} p^x(1-p)^{n-x} \] for \(x=0,1,…,n\).

Denne fordelingsfunksjonen blir utledet på videoen Binomisk fordeling.

Kommentar:

Eksempler:

  • Antall frø som spirer når vi planter \(n\) solsikkefrø med spiringsgrad \(p\).
  • Antall hvite kuler som trekkes med tilbakelegging fra en urne med svarte og hvite kuler.

Kumulativ fordelingsfunksjon: Kumulativ fordelingsfunksjon regnes ut ved å summere \(F(x)=\sum_{t\le x} f(t)\), og det finnes tabeller over \(F(x)\) for ulike valg av \(n,p,x\) – for å lette regningen.

Forventning og varians: La \(X\) være binomisk fordelt med \(n\) forsøk og suksess-sannsynlighet \(p\). \[ E(X)=np \] \[ Var(X)=np(1-p)\]

Bevis

Bevis

Definer hjelpevariablen \(I_i=1\) hvis forsøk nummer \(i\) blir suksess, og \(I_i=0\) hvis forsøk nummer \(i\) blir fiasko. Dermed vil \(P(I_i=1)=p\) og \(P(I_i=0)=1-p\). Forventningsverdi og varians til \(I_i\) blir \[E(I_i)=0\cdot P(I_i=0) + 1\cdot P(I_i=1)=0 \cdot (1-p) + 1\cdot p=p \] \[E(I_i^2)=0^2\cdot P(I_i=0) + 1^2\cdot P(I_i=1)=0^2 \cdot (1-p) + 1^2\cdot p=p \] \[Var(I_i)=E(I_i^2)-E(I_i)^2=p-p^2=p(1-p) \]

Siden hvert forsøk i Bernoulli-prosessen er uavhengige vil \(I_1,I_2,…,I_n\) være uavhengige stokastiske variabler. Vi definerer antall suksesser, \(X\), som \[ X=I_1+I_2+ \cdots +I_n=\sum_{i=1}^n I_i.\] Dermed får vi: \[ E(X)=E(\sum_{i=1}^n I_i)=\sum_{i=1}^n E(I_i)=\sum_{i=1}^n p=np\] \[ Var(X)=Var(\sum_{i=1}^n I_i)=\sum_{i=1}^n Var(I_i)=\sum_{i=1}^n p(1-p)=np(1-p)\]

Sammenhenger:

  • En sum av binomisk fordelte variabler med samme suksess-sannsynlighet \(p\) er også binomisk fordelt med summen av antall forsøk.
  • Når antall forsøk \(n\) blir stor, og \(np\) holdes konstant, går binomisk fordeling mot Poisson-fordeling (dette vises i video om Poisson-fordelingen).
  • For store \(n\) kan binomisk fordeling tilnærmes med en normalfordeling. Siden normalfordelingen er en symmetrisk fordeling vil denne tilnærmingen være best når \(p\) er nært 0.5, og ofte sjekker man at \(np>5\) og \(n(1-p)>5\) før man anbefaler denne tilnærmingen. Ofte brukes også kontinuitetskorreksjon: legg til 0.5 når man regner ut sannsynlighet for å være mindre eller lik et tall, f.eks. \(P(X \le 15)\approx P(X \le 15.5)\) og trekk fra 0.5 når man regner ut sannsynlighet for å være større eller lik et tall, f.eks. \(P(X \ge 15)\approx P(X \ge 14.5)\).

Relevante kapitler: 5.2
Relevante videoer:
\(\ \ \ \)Binomisk fordeling (18:14, Mette Langaas)
Relevante oppgaver:
\(\ \ \ \)Eksamen desember 2015, oppgave 3b (b,n,e).
\(\ \ \ \)Eksamen august 2015, oppgave 2a (b,n,e).
\(\ \ \ \)Eksamen desember 2014, oppgave 1c (b,n,e).


Hypergeometrisk fordeling

Hypergeometrisk fordeling

Vi ser på en urnemodell, der vi har \(N\) kuler, hvor \(k\) av kulene er sorte og resten er hvite. Vi trekker ut \(n\) kuler uten tilbakelegging. Antallet sorte kuler, \(X\), er hypergeometisk fordelt med fordelingsfunksjon \[ f(x)= \frac{\binom{k}{x} \binom{N-k}{n-x}}{\binom{N}{n}}\] for \(x=max(0,n-N+k),…,min(k,n)\).

Kommentar:

Eksempler:

  • Fanger og merker \(k\) fisk og slipper dem ut i en dam. Det er nå \(N\) fisk i dammen. Vi fisker så på nytt \(n\) fisk. Da vil antall merkede fisk \(X\) være hypergeometrisk fordelt.
  • Antall hvite kuler som trekkes uten tilbakelegging fra en urne med svarte og hvite kuler.
  • Kakelotteri (trykk på feltet under hvis du vil lese mer om kakelotteri).

Mer om kakelotteri

Mer om kakelotteri

På stripa pleide man "i gamle dager" å ha kakelotteri. Da ble det brukt loddbøker med 100 lodd nummerert 1-100, og man brukte gjerne flere loddbøker - i ulike farger. Loddene ble krøllet sammen og lagt i en bøtte - og så trakk man lodd fra bøtta (da kunne man se fargen på loddet man valgte). Kakene man kunne vinne sto utstilt med vinnernummer på seg – og det var alltid slik at man vant en kaka hvis man trakk enten lodd 33, 66 og 99, fra enhver loddbok. Anta at vi har 3 loddbøker, i fargene gul, grønn og blå, og at Henning er førstemann til å kjøpe lodd. Henning har planlagt å kjøpe 5 lodd, og ser for seg to strategier:

  1. Trekke 5 lodd tilfeldig blant alle lodd.
  2. Trekke 5 lodd tilfeldig blant en av fargene (f.eks. blå).

Vil de to strategiene har like sannsynlighet for å vinne minst en kake?

Utregning

Utregning

Strategi 1: Henning kjøper lodd tilfeldig blant alle lodd. Han har da \(N=300\) lodd, der \(k=9\) av disse er vinnerlodd, og så trekker han \(n=5\) lodd. La \(X\) være antall vinnerlodd Henning trekker, og vi skal se på \(P(X> 0)\). \[ P(X> 0)=1-P(X=0)=1-\frac{\binom{9}{0} \binom{291}{5}}{\binom{300}{5}}=1-0.858=0.142\] Strategi 2: Henning kjøper lodd tilfeldig blant de 100 blå loddene. Han har da \(N=100\) lodd, der \(k=3\) av disse er vinnerlodd, og så trekker han \(n=5\) lodd. La \(X\) være antall vinnerlodd Henning trekker, og vi skal se på \(P(X> 0)\). \[ P(X> 0)=1-P(X=0)=1-\frac{\binom{3}{0} \binom{97}{5}}{\binom{100}{5}}=1-0.856=0.144\] Så, litt mer sannsynlig å vinne hvis han trekker lodd av samme farge – Henning bør trekke alle lodd av samme farge.

Kumulativ fordelingsfunksjon: Kumulativ fordelingsfunksjon regnes ut ved å summere \(F(x)=\sum_{t\le x} f(t)\), og det finnes tabeller over \(F(x)\) for ulike valg av \(N,k,n,x\) – for å lette regningen.

Forventning og varians: La \(X\) være hypergeometisk fordelt med parametere \((N,k,n)\). \[ E(X)=\frac{nk}{N} \] \[ Var(X)=\frac{N-n}{N-1} \cdot n \cdot \frac{k}{N} \left( 1-\frac{k}{N}\right) \]

Bevis

Bevis

Vi ser for oss en urne med \(N\) kuler, der \(k\) er merkede, og \(N-k\) ikke er merkede. Vi har fokus på de \(k\) merkede kulene, og nummererer disse \(1,…,k\). Definer en hjelpevariabel for hver kule; \(I_i\) for kule nummer \(i\). Hjelpevariabelen tar verdi \(I_i=1\) hvis merket kule nummer \(i\) blir trukket, og \(I_i=0\) hvis merket kule nummer \(i\) ikke blir trukket.

Fra denne urnen skal vi trekke et tilfeldig utvalg (uten tilbakelegging) av størrelse \(n\), og det er kanskje lettest å tenke se at alle \(n\) kulene trekkes på en gang (det blir det samme som å trekke en og en uten tilbakelegging). Hver av de \(N\) kulene vil ha lik sannsynlighet for å trekkes, og vi trekker \(n\) kuler – som betyr at \[P(I_i=1)=\frac{n}{N} \text{ og } P(I_i=0)=1-\frac{n}{N}=\frac{N-n}{N}.\] Forventningsverdi og varians til \(I_i\) blir \[E(I_i)=0\cdot P(I_i=0) + 1\cdot P(I_i=1)=0 + 1\cdot \frac{n}{N}=\frac{n}{N} \] \[E(I_i^2)=0^2\cdot P(I_i=0) + 1^2\cdot P(I_i=1)=0 + 1^2\cdot \frac{n}{N}=\frac{n}{N} \] \[Var(I_i)=E(I_i^2)-E(I_i)^2=\frac{n}{N}-\left( \frac{n}{N}\right)^2=\frac{n}{N}\cdot \frac{N-n}{N}\]

Vi definerer antallet merkede kuler som blir trukket, \(X\), som \[ X=I_1+I_2+ \cdots +I_k=\sum_{i=1}^k I_i.\]

Forventningsverdien til \(X\) finnes direkte fra \(E(I_i)\): \[ E(X)=E(\sum_{i=1}^k I_i)=\sum_{i=1}^k E(I_i)=\sum_{i=1}^k \frac{n}{N}=\frac{kn}{N}\]

Når vi skal se på variansen til \(X\) så er det kjent at variansen til en sum er gitt som \[ Var(X)=\sum_{i=1}^k Var(I_i) +2 \sum_{j>i}Cov(I_i,I_j)\] Det betyr at vi må regne ut kovariansen mellom hvert par av indikatorvariabler. Det er \(\binom{k}{2}=\frac{k\cdot (k-1)}{2}\) mulige par, og kovariansen mellom alle par blir den samme fordi denne er ikke avhengig av hvordan vi nummererer de merkede kulene.

\[ Cov(I_i,I_j)=E(I_i\cdot I_j) - E(I_i)\cdot E(I_j)\] \[ E(I_i \cdot I_j)=0\cdot 0 \cdot P(I_i=0,I_j=0)+ 1\cdot 0 \cdot P(I_i=1,I_j=0)+ 0\cdot 1 \cdot P(I_i=0,I_j=1)+ 1\cdot 1 \cdot P(I_i=1,I_j=1)\] \[=P(I_i=1,I_j=1)=P(I_i=1 \mid I_j=1)\cdot P(I_j=1)=\frac{n-1}{N-1} \cdot \frac{n}{N}\] \[ Cov(I_i,I_j)=\frac{n-1}{N-1}\cdot \frac{n}{N}-\frac{n}{N}\cdot \frac{n}{N}=\frac{n}{(N-1)N^2}(N\cdot (n-1)-n\cdot(N-1))\] \[ Cov(I_i,I_j)=\frac{n}{(N-1)N^2}(N\cdot n -N -n\cdot N+n)=-\frac{n(N-n)}{(N-1)N^2}\] Da kan vi regne ut \(Var(X)\): \[Var(X)=\sum_{i=1}^k Var(I_i) +2 \sum_{j>i}Cov(I_i,I_j)= \sum_{i=1}^k \frac{n}{N}\cdot \frac{(N-n)}{N}+2\cdot \frac{k\cdot (k-1)}{2} \left( - \frac{n(N-n)}{(N-1)N^2}\right)\] \[=\frac{k n (N-n)}{N(N-1)}\left( \frac{N-1}{N}-\frac{k-1}{N} \right)= \frac{k n (N-n)}{N(N-1)}(\frac{1}{N}(N-1-k+1))\] \[ Var(X)= \frac{k n (N-n)}{N(N-1)}(1-\frac{k}{N})\]

Sammenhenger

  • Når \(N>>n\) vil \(p=\frac{k}{N}\) være tilnærmet konstant under forsøket, og binomisk fordeling vil være en god tilnærming.

Relevante kapitler: 5.3
Relevante videoer: Ingen
Relevante oppgaver:
\(\ \ \ \)Eksamen mai 2006, oppgave 2 (b,n,e).


Poisson-prosess

Poisson-prosess

Vi ser på hendelser som kan inntreffe innenfor et tidsintervall eller et område.

  1. Antall hendelser som inntreffer i et tidsintervall eller i et område, er uavhengig av antall hendelser som inntreffer i ethvert annet disjunkt (ikke-overlappende) tidsintervall eller område.
  2. Sannsynligheten for at en enkelt hendelse inntreffer innenfor et lite tidsintervall eller et lite område, er proporsjonal med lengden av intervallet eller størrelsen på området.
  3. Sannsynligheten for at mer enn en hendelse skal inntreffe innenfor et lite tidsintervall eller et lite område er neglisjerbar.

Når disse tre egenskapene er oppfylt så sier vi at vi har en Poisson-prosess. Dette leder til tre fordelinger:

  • Antall hendelser, \(X\), i en Poisson-prosess er Poisson-fordelt.
  • Tid mellom to hendelser i en Poisson-prossess er eksponentielt fordelt.
  • Tid mellom flere hendelser i en Poisson-prosess er gammafordelt.

Relevante kapitler: 5.5
Relevante videoer:
\(\ \ \ \)Poisson-prossess og -fordeling (16:08, Mette Langaas)


Poisson-fordeling

Poisson-fordeling

Vi ser på en Poisson-prosess innen et tidsintervall eller område av størrelse \(t\). Da vil antallet hendelser, \(X\), ha en Poisson-fordeling.

\[ f(x)=\frac{(\lambda t)^x}{x!}e^{-\lambda t} \text{ for } x=0,1,2,… \] Her er \(\lambda\) proporsjonalitetsfaktoren i punkt 2 for Poisson-prossessen. Denne fordelingsfunksjonen blir utledet fra binomisk fordeling på videoen Poisson-prosess og -fordeling. En annen populær parameterisering er \( \mu= \lambda t\).

Eksempler:

  • Antall SMS som ankommer en basestasjon i løpet av 20 minutter.
  • Antall jordskjelv i California i løpet av 10 år.

Kumulativ fordelingsfunksjon: Kumulativ fordelingsfunksjon regnes ut ved å summere \(F(x)=\sum_{t\le x} f(t)\), og det finnes tabeller over \(F(x)\) for ulike valg av \(n,p,x\) – for å lette regningen.

Forventning og varians: La \(X\) være Poisson-fordelt med parameter \(\mu\), da er \[ E(X)=\mu\] \[ Var(X)=\mu\]

Bevis

Bevis

\[ E(X)=\sum_{x=0}^{\infty} x \frac{\mu^x}{x!}e^{-\mu}= \sum_{x=1}^{\infty} x \frac{\mu^x}{x!}e^{-\mu}=\sum_{x=1}^{\infty} \frac{\mu \mu^{x-1}}{(x-1)!}e^{-\mu}=\mu \sum_{y=0}^{\infty} \frac{\mu^{y}}{y!}e^{-\mu}=\mu \] I den første overgangen brukes at leddet for \(x=0\) ikke gir bidrag. Deretter forkortes \(x\) i teller med første ledd av \(x!\). Deretter lar vi \(y=x-1\), og til slutt i den siste overgangen benyttes at summen av fordelingsfunksjonen i en Poisson-fordeling for alle mulige verdier er 1.

For å regne ut varians benytter vi først \[ Var(X)=E(X^2)-(E(X))^2\] og deretter at \[X^2=X(X-1)+X\] slik at \[Var(X)=E(X(X-1))+E(X)-(E(X))^2\] Grunnen til dette er at vi da kan bruke samme triks type som for \(E(X)\) ved at summen av fordelingsfunksjon over alle verdier er 1. \[ E(X(X-1))=\sum_{x=0}^{\infty} x(x-1) \frac{\mu^x}{x!}e^{-\mu}=\sum_{x=2}^{\infty} x(x-1) \frac{\mu^x}{x!}e^{-\mu}\] \[=\sum_{x=2}^{\infty} \frac{\mu^{x-2}\mu^2}{(x-2)!}e^{-\mu}=\mu^2\sum_{y=0}^{\infty}\frac{\mu^{y}}{y!}e^{-\mu}=\mu^2\]

Setter vi sammen nå: \[Var(X)=\mu^2 +\mu - \mu^2=\mu\] som skulle vises.

Sammenhenger:

  • En sum av \(n \) uavhengige Poisson-fordelte stokastiske variabler, \(X_i\) med tilhørende forventningsverdier \(\mu_i\) er Poisson-fordelte med forventningsverdi \( \sum_{i=1}^n \mu_i\).
  • Når forvetningsverdien øker, blir Poisson-fordelingen mer og mer symmetrisk, og for store \(\mu\) kan Poisson-fordelingen tilnærmes godt med en normalfordeling.

Relevante kapitler: 5.5
Relevante videoer:
\(\ \ \ \)Poisson-prossess og -fordeling (16:08, Mette Langaas)
\(\ \ \ \)Eksamen desember 2012, 2b (7:48, Mette Langaas)
Relevante oppgaver:
\(\ \ \ \)Eksamen desember 2015, oppgave 3a (b,n,e).
\(\ \ \ \)Eksamen desember 2014, oppgave 1c (b,n,e).


Geometrisk og negativ binomisk fordeling

Geometrisk og negativ binomisk fordeling

Geometrisk fordeling. Antall forsøk, \(X\), som er gjort i en bernoulliprosess med suksessannsynlighet \(p\) idet første suksess oppnås, sies å være geometrisk fordelt med parameter \(p\). Sannsynlighetsmassefunksjonen for \(X\) er gitt ved \(P(X=x)=p(1-p)^{x-1}\) og kumulativ fordelingfunksjon ved \(P(X\leq x)=1-(1-p)^x\), der \(x=1\), \(2\), \(\ldots\).

Bevis

Bevis

\(P(X=x)=P(\text{første suksess i forsøk $x$})=P(\text{fiasko i forsøk 1, 2, $\ldots$, $x-1$ og suksess i forsøk $x$})=(1-p)^{x-1}p\), \(P(X\geq x+1)=P(\text{bare fiaskoer i de $x$ første forsøkene})=(1-p)^x\), og \(P(X\leq x)=1-P(X\geq x+1)=1-(1-p)^x\).

Eksempel. Sannsynligheten for å få første sekser etter nøyaktig tre kast med en terning, er \(\frac16\big(\frac56\big)^2=0.116\).

Forventningsverdi og varians. Forventningsverdien til en geometrisk fordelt variabel med parameter \(p\) er \(EX=1/p\), og variansen er \(\operatorname{Var}X=(1-p)/p^2\).

Bevis

Bevis

Fra definisjonen av forventningsverdi er \(EX=\sum_{x=1}^\infty xp(1-p)^{x-1}\).

Sannsynlighetsmassefunksjonen til \(Y=X-1\) er gitt ved \(P(Y=y)=P(X=y+1)=p(1-p)^y\), slik at vi fra definisjonen av forventningsverdi får \(EY=\sum_{y=0}^\infty yp(1-p)^y=\sum_{y=1}^\infty yp(1-p)^y=(1-p)\sum_{x=1}^\infty xp(1-p)^{x-1}=(1-p)EX\).

Men fra regelen om forventningsverdi av en lineær funksjon av en variabel, har vi også \(EY=E(X-1)=EX-1\). Ved å kombinere de to uttrykkene for \(EY\), får vi \((1-p)EX=EX-1\), som gir \(EX=1/p\).

Siden \(EX=1/p\), er \(\operatorname{Var}X=E(X-1/p)^2=\sum_{x=1}^\infty(x-1/p)^2p(1-p)^{x-1}\).

Videre er \(E(Y-1/p)^2=\sum_{y=0}^\infty(y-1/p)^2p(1-p)^y=(-1/p)^2p+\sum_{y=1}^\infty(y-1/p)^2p(1-p)^y=1/p+(1-p)\sum_{x=1}^\infty(x-1/p)^2p(1-p)^{x-1}=1/p+(1-p)\operatorname{Var}X\).

Men vi har også \(E(Y-1/p)^2=E(X-1/p-1)^2=E(X-1/p)^2-2E(X-1/p)+1=\operatorname{Var}X-2(EX-1/p)+1=\operatorname{Var}X+1\). Ved å kombinere de to uttrykkene for \(E(Y-1/p)^2\), får vi \(1/p+(1-p)\operatorname{Var}X=\operatorname{Var}X+1\), som gir \(\operatorname{Var}X=(1-p)/p^2\).

Negativ binomisk fordeling. Antall forsøk, \(X\), som er gjort i en bernoulliprosess med suksessannsynlighet \(p\) idet suksess nr. \(k\) oppnås, sies å være negativt binomisk fordelt med parametre \(k\) og \(p\). Sannsynlighetsmassefunksjonen for \(X\) er gitt ved \(P(X=x)=\binom{x-1}{k-1}p^k(1-p)^{x-k}\), der \(x=k\), \(k+1\), \(k+2\), \(\ldots\).

Bevis

Bevis

\(P(X=x)=P(\text{$k-1$ suksesser i $x-1$ første forsøk, og suksess i forsøk $x$})\) = \(P(\text{$k-1$ suksesser i $x-1$ første forsøk})P(\text{suksess i forsøk $x$})\) = \(\binom{x-1}{k-1}p^{k-1}(1-p)^{x-k}\cdot p=\binom{x-1}{k-1}p^k(1-p)^{x-k}\). Den andre likheten skyldes at forsøkene i en bernoulliprosess er uavhengige, den tredje skyldes binomisk fordeling.

Merk at negativ binomisk fordeling med \(k=1\) er det samme som geometrisk fordeling.

Eksempel. Sannsynligheten for å få tredje sekser etter nøyaktig 15 kast med en terning, er \(\binom{14}{2}\big(\frac16\big)^3\big(\frac56\big)^{15-3}=0.047\).

Forventningsverdi og varians. Forventningsverdien til en negativt binomisk fordelt variabel med parametre \(k\) og \(p\) er \(EX=k/p\), og variansen er \(\operatorname{Var}X=(1-p)k/p^2\).

Bevis

Bevis

La \(X_1\) være antall forsøk som er gjort idet første suksess oppnås, \(X_2\) antall forsøk som deretter er gjort når neste suksess oppnås, og så videre. Da er \(X_1\), \(X_2\), \(\ldots\) uavhengige (siden forsøkene inngår i en bernoulliprosess) og geometrisk fordelte med parameter \(p\), og \(X_1+X_2+\cdots+X_k\) er antall forsøk som er gjort idet suksess nr. \(k\) oppnås, og dermed negativt binomisk fordelt med parametre \(k\) og \(p\). Resultatet følger av tilsvarende resultat for geometrisk fordeling og reglene for forventningsverdi av sum av variabler og for varians av sum av uavhengige variabler.

Relevante kapitler: 5.4
Relevante videoer: Geometrisk fordeling (Mette Langaas, 13:11)
Relevante oppgaver:
2017-02-20, Håkon Tjelmeland