Temaside for TMA4240/TMA4245 Statistikk

Regneregler og regneprosedyrer

Funksjoner av stokastiske variabler

Anta at vi har gitt en eller flere stokastiske variabler og at en annen stokastisk variabel \(Y\) er definert som en funksjon av denne eller disse. På temasiden som diskuterer begreper, definisjoner og tolkninger for funksjoner av stokastiske variabler beskrives tre teknikker som kan benyttes til å finne sannsynlighetsfordelingen til \(Y\) i en slik situasjon. For å benytte disse teknikkene i en konkret situasjon kan man trenge regneregler og det kan være nyttig med trinn for trinn regneprosedyrer som spesifiserer hvordan man skal gå frem for å beregne eller bevise det man ønsker. På temasiden du nå ser på finner du dette for hver av de tre teknikkene diskutert på temasiden med begreper, definisjoner og tolkninger for funksjoner av stokastiske variabler.

Sentrale begreper

Trykk på det grå feltet for mer informasjon om temaet.

Transformasjonsformelen

Transformasjonsformelen

Situasjon: Anta at man har en kontinuerlig stokastisk variabel \(X\) og at vi har gitt en formel for sannsynlighetstettheten til \(X\), \(f(x)\). Anta videre at en annen stokastisk variabel \(Y=u(X)\) er definert som en gitt funksjon av \(X\). Man har altså gitt en formel for funksjonen \(u(X)\). Videre forutsettes det at sammenhengen mellom \(X\) og \(Y\) er én-entydig. Målet er da å finne sannsynlighetstettheten til \(Y\), som man ofte betegner med \(g(y)\).

Siden funksjonen \(u(X)\) er antatt å være én-entydig vil den ha en tilhørende invers funksjon \(w(Y)\), dette betyr at vi skal ha \[ Y=u(X) ~~~\Leftrightarrow~~~ X=w(Y). \] Man bør merke seg at man vanligvis ikke vil ha oppgitt en formel for funksjonen \(w(Y)\), men siden \(u(X)\) er én-entydig vet man at en slik funksjon \(w(Y)\) finnes. Hvordan man kan finne en formel for funksjonen \(w(Y)\) er diskutert under beregningsprosedyre under.

Kriterium: For å finne en formel for sannsynlighetstettheten \(g(y)\) benytter man den såkalte transformasjonsformelen, \[ g(y) = f(w(y))\cdot |w^\prime(y)|. \] Denne formelen er nærmere diskutert under 'Transformasjon av en kontinuerlig stokastisk variabel' på temasiden for begreper, definisjoner og tolkninger for funksjoner av stokastiske variabler

Beregningsprosedyre: Fremgangsmåten for å utlede en formel for \(g(y)\) er:

  1. Bestem hva de mulige verdiene for \(Y\) er. Ta utgangspunkt i \(Y=u(X)\) og se hva som er de mulige verdier for \(Y\) når \(X\) varierer over de mulige verdiene for \(X\).
  2. Finn den inverse funksjonen \(w(y)\). For å finne denne starter man med den gitte sammenhengen \[y=u(x),\] og det er nå mest hensiktsmessig å benytte små bokstaver \(x\) og \(y\) i stedet for de stokastiske variablene \(X\) og \(Y\). Man betrakter så dette som en ligning med \(x\) som den ukjente og løser ligningen. Løsningen for \(x\) blir altså en funksjon av \(y\), og dette er funksjonen \(w(y)\).
  3. Finn den deriverte \(w^\prime(y)\). Her bruker man de vanlige derivasjonsreglene man kjenner fra matematikken.
  4. Finn absoluttverdien \(|w^\prime(y)|\). Man vil enten ha at \(w^\prime(y)\) er større enn eller lik null for alle verdier av \(y\) eller mindre enn eller lik null for alle verdier av \(y\). For å finne absoluttverdien må man finne ut hvilken av disse to situasjonene som er tilfelle. Dersom \(w^\prime(y)\) er positiv har man åpenbart at \(|w^\prime(y)|=w^\prime(y)\), mens dersom \(w^\prime(y)\) er negativ får man at \(|w^\prime(y)|=-w^\prime(y)\). Man skal være litt på vakt når man avgjør om \(w^\prime(y)\) er positiv eller negativ, da et uttrykk som ved første øyekast kan se ut til å være postivt kan faktisk være negativt, og motsatt. Dersom \(y\in [0,1]\) må man for eksempel huske på at \(\ln (y)\) er negativ.
  5. Finn uttrykk for \(f(w(y))\). Dette gjør man ved å starte med uttrykket man har for \(f(x)\) og så erstatte alle forekomster av \(x\) i dette uttrykket med \(w(y)\).
  6. Gang sammen uttrykkene du har for \(f(w(y))\) og \(|w^\prime(y)|\) og få \[ g(y) = f(w(y)) \cdot |w^\prime(y)|.\]

Eksempel: Som et eksempel på beregningsprosedyren gitt over skal vi se på tilfellet at \(X\) er eksponensialfordelt med parameter \(\lambda\) og \(Y=e^{-X}\). Man har altså da at \[ f(x) = \left\{\begin{array}{ll} \lambda e^{-\lambda x}, & ~~~\text{når}~ x\geq 0,\\ 0 & ~~~\text{ellers,} \end{array}\right. \] og \[ Y = u(X) = e^{-X}. \] Utregningen blir da:

  1. Siden de mulige verdier for \(X\) er intervallet \([0,\infty)\) vil de mulige verdier for \(Y=e^{-X}\) være intervallet \((0,1]\). For å se dette bedre kan man eventuelt skissere funksjonen \(y=e^{-x}\) på intervallet \([0,\infty)\).
  2. For å finne \(w(y)\) må vi her løse ligningen \[ y=e^{-x}\] med hensyn på \(x\). Man får \[ y=e^{-x} ~~\Leftrightarrow~~ \ln(y)=-x ~~\Leftrightarrow~~x=-\ln(y).\] Dermed har man at \[w(y)=-\ln(y).\]
  3. Den deriverte av \(\ln(y)\) er \(\frac{1}{y}\) så \[w^\prime(y)=-\frac{1}{y}.\]
  4. Siden de mulige verdier for \(Y\) er i intervallet \((0,1]\), dvs \(Y > 0\), er \(w^\prime(y)=-\frac{1}{y}<0\), og \[|w^\prime(y)| = \frac{1}{y}.\]
  5. Tar utgangspunkt i formelen som gjelder for \(f(x)\) i intervallet med de mulige verdiene for \(X\), dvs \[f(x)=\lambda e^{-\lambda x}.\] Erstatter vi \(x\) i dette uttrykket med \(w(y)=-\ln(y)\) får vi \[ f(w(y)) = \lambda e^{-\lambda \cdot (-\ln(y))} = \lambda e^{\lambda \ln(y)} = \lambda \left(e^{\ln(y)}\right)^\lambda = \lambda y^\lambda.\]
  6. Man får da \[ g(y) = f(w(y))\cdot |w^\prime(y)| = \lambda y^\lambda \cdot \frac{1}{y} = \lambda y^{\lambda-1},\] hvor denne formelen gjelder for de mulige verdier for \(Y\), dvs intervallet \((0,1]\). Svaret blir dermed \[g(y) = \left\{\begin{array}{ll} \lambda y^{\lambda-1} &~~\text{for}~y\in (0,1],\\ 0 & ~~\text{ellers.}\end{array}\right.\]


Relevante kapitler: 7.2.
Relevante videoer:
\(\ \ \ \)Transformasjonsformelen (19:14, Håkon Tjelmeland)
\(\ \ \ \)Transformasjoner av stokastiske variabler (16:01, Haakon Bakka)
Relevante oppgaver:
\(\ \ \ \)Eksamen mai 2013, oppgave 3c (b,n,e).
\(\ \ \ \)Eksamen august 2012, oppgave 3d (b).
\(\ \ \ \)Eksamen august 2010, oppgave 1a (b,n,e).
\(\ \ \ \)Eksamen juni 2010, oppgave 2c (b,n,e).


Regneregler for momentgenerende funksjoner

Regneregler for momentgenerende funksjoner

Teorem: La \(X\) være en stokastisk variabel med momentgenererende funksjon \(M_X(t)\), og la \(X_1,X_2,\ldots,X_n\) være \(n\) uavhengige stokastiske variabler med momentgenererende funksjoner henholdsvis \(M_{X_1}(t),M_{X_2}(t),\ldots,M_{X_n}(t)\). La dessuten \(a\) være en konstant. Da har vi at:

  1. \(M_{X+a}(t) = e^{at}M_X(t)\),
  2. \(M_{aX}(t) = M_X(at)\), og
  3. \(M_{X_1+X_2+\ldots+X_n}(t) = M_{X_1}(t) \cdot M_{X_2}(t)\cdot \ldots\cdot M_{X_n}(t).\)

Bevis

Bevis

For å bevise de tre regnereglene i teoremet benytter man definisjonen av momentgenererende funksjoner og regneregler for forventningsverdier.

  1. Definisjonen av momentgenererende funksjoner gir at \[M_{X+a}(t)=\text{E}\left[ e^{t(X+a)}\right] = \text{E}\left[ e^{tX+ta}\right] = \text{E}\left[ e^{ta} \cdot e^{tX}\right].\] Setter så \(e^{ta}=e^{at}\) utenfor forventningsoperatoren \(\text{E}\), og får \[M_{X+a}(t) = e^{at}\text{E}\left[e^{tX}\right] = a^{at}M_X(t)\] og regneregelen er bevist.
  2. Definisjonen av momentgenererende funksjoner gir at \[M_{aX}(t)=\text{E}\left[ e^{t(aX)}\right]=\text{E}\left[ e^{(at)X}\right]=M_X(at),\] hvor man også i den siste overgangen benytter definisjonen av momentgenererende funksjoner.
  3. Starter igjen med å benytte definisjonen av momentgenererende funksjoner, \[M_{X_1+X_2+\ldots+X_n}(t)=\text{E}\left[e^{t(X_1+X_2+\ldots+X_n)}\right] = \text{E}\left[ e^{tX_1+tX_2+\ldots+tX_n}\right]=\text{E}\left[e^{tX_1}\cdot e^{tX_2}\cdot\ldots\cdot e^{tX_n}.\right]\] Benytter så at forventningsverdien til et produkt av uavhengige stokastiske variabler er lik produktet av forventningsverdiene, \[M_{X_1+X_2+\ldots+X_n}(t) = \text{E}\left[e^{tX_1}\right]\cdot \text{E}\left[e^{tX_2}\right]\cdot\ldots\cdot\text{E}\left[e^{tX_n}\right] = M_{X_1}(t)\cdot M_{X_2}(t)\cdot\ldots\cdot M_{X_n}(t),\] og regneregelen er bevist.



Kommentar: Ved å kombinere de tre regnereglene i teoremet over kan man finne uttrykk for enhver lineær funksjon av en eller flere uavhengige stokastiske variabler. Den typiske anvendelsen av disse regnereglene er for å bevise teoremer som sier at en gitt lineær funksjon av stokastiske variabler har en angitt sannsynlighetsfordeling, se diskusjon lenger nede på denne siden.

Relevante kapitler: 7.3.
Relevante videoer:
\(\ \ \ \)Bruk av momentgenererende funksjoner (22:57, Håkon Tjelmeland)
Relevante oppgaver:
\(\ \ \ \)Eksamen august 2013, oppgave 2c (b,n,e).
\(\ \ \ \)Eksamen mai 2013, oppgave 3e (b,n,e).
\(\ \ \ \)Eksamen august 2012, oppgave 3d (b).
\(\ \ \ \)Eksamen august 2011, oppgave 4c (b).


Benytte momentgenererende funksjoner til å bevise at en gitt (lineær) funksjon av variabler har en angitt fordeling

Benytte momentgenererende funksjoner til å bevise at en gitt (lineær) funksjon av variabler har en angitt fordeling

Situasjon: Man har gitt et teorem hvor situasjonen er som følger. Man har gitt en stokastisk variabel \(X\) eller flere stokastiske variabler \(X_1,X_2,\ldots,X_n\). Dersom det er flere stokastiske variabler er disse antatt å være uavhengige, og det er angitt hvilken sannsynlighetsfordeling den eller de stokastiske variabler har. Videre er en annen stokastisk variabel, som vi her kaller \(Y\), gitt som en funksjon av \(X\) eller \(X_1,X_2,\ldots,X_n\). Resultatet i teoremet er enten at \(Y\) har en spesifisert sannsynlighetsfordeling, eller at sannsynlighetsfordelingen til \(Y\) konvergerer mot en spesifisert fordeling når noe går mot en angitt grense. Man ønsker så å bevise dette teoremet.

Løsningsstrategi: Man starter med å definere seg en stokastisk variabel \(Z\) som har den sannsynlighetsfordelingen man ønsker å bevise at \(Y\) har, eventuelt at \(Z\) har den sannsynlighetsfordelingen man ønsker å bevise at sannsynlighetsfordelingen til \(Y\) konvergerer mot. Man vil så finne de momentgenererende funksjonene til \(Y\) og \(Z\) og se at disse er identiske, eventuelt at den momentgenererende funksjonen til \(Y\) konvergerer mot den momentgenererende funksjonen til \(Z\). Siden to stokastiske variabler har samme momentgenererende funksjon hvis og bare hvis de har samme sannsynlighetsfordeling er teoremet bevist.

Bevisprosedyre: En trinn for trinn fremgangsmåte for å bevise et slikt teorem er som følger.

  1. Definer en ny stokastisk variabel \(Z\) og definer at denne har den sannsynlighetsfordelingen man ønsker å bevise at \(Y\) har, eventuelt den sannsynlighetsfordelingen man ønsker å bevise at sannsynlighetsfordelingen til \(Y\) konvergerer mot.
  2. Finn den momentgenererende funksjonen til \(Z\), \(M_Z(t)\). Vanligvis vil man kunne finne denne fra formelsamlinga, hvis ikke må man regne den ut fra definisjonen av momentgenerende funksjoner.
  3. Avhengig av situasjonen angitt i teoremet, finn den momentgenererende funksjonen til \(X\), dvs \(M_{X_1}(t)\), eller de momentgenererende funksjonene til hver av \(X_1,X_2,\ldots,X_n\), dvs \(M_{X_1}(t),M_{X_2}(t),\ldots,M_{X_n}(t)\). Igjen vil man vanligvis kunne finne denne (eller disse) fra formelsamlinga, men hvis ikke må man igjen ta utgangspunkt i definisjonen av momentgenererende funksjoner.
  4. Benytt regnereglene for momentgenererende funksjoner til å finne den momentgenererende funksjonen til \(Y\), dvs \(M_Y(t)\).
  5. Hvis teoremet sier at \(Y\) har en angitt fordeling, observer at \(M_Y(t)=M_Z(t)\). Hvis teoremet sier at sannsynlighetsfordelingen til \(Y\) konvergerer mot en angitt sannsynlighetsfordeling, observer at \(M_Y(t)\) konvergerer mot \(M_Z(t)\) når noe går mot en grense som angitt i teoremet.
  6. Benytt argumentet om at to stokastiske variabler har samme momentgenerende funksjon hvis og bare hvis de har samme sannsynlighetsfordeling, til å konkludere med at \(Y\) og \(Z\) må ha samme sannsynligehtsfordeling, eventuelt at sannsynlighetsfordelingen til \(Y\) må konvergere mot sannsynlighetsfordelingen til \(Z\). Avslutt med å påpeke at teoremet dermed er bevist.

Eksempel: I dette eksemplet skal vi bevise følgende teorem:

La \(X_1,X_2,\ldots,X_n\) være uavhengige og eksponensialfordelte, alle med samme forventningsverdi \(\mu\). Da er \(X_1+X_2+\ldots+X_n\) gammafordelt med parametre \(\alpha=n\) og \(\beta=\mu\).

Før man starter med selve beviset bør man merke seg at det er \(X_1+X_2+\ldots+X_n\) man skal bevise er gammafordelt. For å benytte bevisprosedyren diskutert over bør man derfor først innføre notasjonen \(Y=X_1+X_2+\ldots+X_n\). Det videre beviset blir da som følger.

  1. La \(Z\) være gammafordelt med parametre \(\alpha=n\) og \(\beta=\mu\).
  2. I formelsamlinga finner man følgende formel for momentgenererende funksjon for en gammafordeling, \[ M_X(t) = \left( \frac{1}{1-\beta t}\right)^\alpha.\] Ved å sette inn \(\alpha=n\) og \(\beta=\mu\) får man dermed at \[ M_X(t) = \left(\frac{1}{1-\mu t}\right)^n,\]
  3. Fra formelsamlinga finner man momentgenerende funksjon for \(X_i\)'ene til å være \[ M_{X_i}(t) = \frac{1}{1-\mu t}\] for \(i=1,2\ldots,n\). Siden alle \(X_i\)'ene har samme sannsynlighetsfordeling blir her også alle \(M_{X_i}(t)\) like.
  4. Siden \(X_i\)'ene er uavhengige får man at \[ M_Y(t) = M_{X_1+X_2+\ldots +X_n}(t) = M_{X_1}(t)\cdot M_{X_2}(t)\cdot \ldots M_{X_n}(t) = \left(\frac{1}{1-\mu t}\right) \cdot \left( \frac{1}{1-\mu t}\right) \cdot \ldots \cdot \left(\frac{1}{1-\mu t}\right) = \left(\frac{1}{1-\mu t}\right)^n.\]
  5. Vi ser at \[M_Y(t)=M_Z(t).\]
  6. Siden to stokastiske variabler har samme momentgenererende funksjon hvis og bare hvis de har samme sannsynlighetsfordeling må dermed \(Y\) ha samme sannsynlighetsfordeling som \(Z\), dvs \(Y\) er gammafordelt med parametre \(\alpha=n\) og \(\beta=\mu\), og teoremet er bevist.

Eksempel: I dette eksemplet ser vi på beviset for et teorem som sier at sannsynlighetsfordelingen til \(Y\) konvergerer mot en angitt fordeling. Vi tar utgangspunkt i følgende teorem:

La \(X\) være binomisk fordelt med parametre \(n\) og \(p\). Når \(n\rightarrow \infty\) og \(p\rightarrow 0\) slik at \(np=\mu\) er konstant vil sannsynlighetsfordelingen til \(X\) konvergere mot en poissonfordeling med forventningsverdi \(\mu\).

Før man starter med selve beviset bør man her merke seg at det er sannsynlighetsfordelingen til \(X\) man skal bevise konvergerer mot en poissonfordeling. For å benytte samme notasjon som i bevisprosedyren diskutert over bør man derfor innføre notasjonen \(Y=X\). Det videre beviset blir som følger:

  1. La \(Z\) være poissonfordelt med forventingsverdi \(\mu\).
  2. I formelsamlinga finner man følgende formel for momentgenererende funksjon for en poissonfordeling, \[ M_Z(t)=e^{\mu (e^t-1)}.\]
  3. Fra formelsamlinga finner man også momentgenererende funksjon for en binomisk fordeling, \[ M_X(t) = \left( pe^t+1-p\right)^n.\]
  4. Siden \(Y=X\) får man her umiddelbart at \[ M_Y(t)=\left( pe^t+1-p\right)^n.\]
  5. Siden teoremet angir hva sannsynlighetsfordelingen til \(Y\) skal konvergere mot, må vi her starte med å finne hva \(M_Y(t)\) konvergerer mot når \(n\rightarrow\infty\) og \(p\rightarrow\mu\) slik at \(np=\mu\) er konstant. For å holde \(np=\mu\) konstant setter vi \(p=\frac{\mu}{n}\) inn i uttrykket for \(M_Y(t)\), \[ M_Y(t) = \left( \frac{\mu}{n}e^t + 1 - \frac{\mu}{n}\right)^n = \left( 1 + \frac{\mu(e^t-1)}{n}\right)^n.\] For å finne grensen til denne når \(n\rightarrow\infty\) er det hensiktsmessig å benytte seg av følgende kjente matematiske grense, \[ \lim_{n\rightarrow\infty} \left(1 + \frac{v}{n}\right)^n = e^v.\] Ved å sette \(v=\mu(e^t-1)\) får vi da at \[ \lim_{n\rightarrow\infty} M_Y(t) = \lim_{n\rightarrow\infty} \left( 1+\frac{\mu(e^t-1)}{n}\right)^n = e^{\mu(e^t-1)}.\] Vi ser at \[ \lim_{n\rightarrow\infty} M_Y(t) = M_Z(t).\]
  6. Siden to stokastiske variabler har samme momentgenererende funksjon hvis og bare hvis de har samme sannsynlighetsfordeling må dermed sannsynlighetsfordelingen til \(Y=X\) konvergere mot sannsynlighetsfordelingen til \(Z\) når \(n\rightarrow\infty\) og \(p\rightarrow 0\) slik at \(np=\mu\) er konstant, og teoremet er bevist.

Relevante kapitler: 7.3.
Relevante videoer:
\(\ \ \ \)Bruk av momentgenererende funksjoner (22:57, Håkon Tjelmeland)
Relevante oppgaver:
\(\ \ \ \)Eksamen august 2013, oppgave 2c (b,n,e).
\(\ \ \ \)Eksamen mai 2013, oppgave 3e (b,n,e).
\(\ \ \ \)Eksamen august 2012, oppgave 3d (b).
\(\ \ \ \)Eksamen august 2011, oppgave 4c (b).


Regne ut fordelingen for ekstremvariabler

Regne ut fordelingen for ekstremvariabler

Situasjon: Anta at \(X_1,X_2,\ldots,X_n\) er uavhengige stokastiske variabler og at de har kumulative sannsynlighetsfordelinger henholdsvis \(F_{X_1}(x),F_{X_2}(x),\ldots,F_{X_n}(x)\). Vi ønsker så å finne sannsynlighetsfordelingene til ekstremvariablene \[X_{(1)}=\min\{ X_1,X_2,\ldots,X_n\} ~~~~\text{og}~~~~ X_{(n)} = \max\{X_1,X_2,\ldots,X_n\}.\]

Fordeling for \(F_{X_{(n)}}(x)\): Det sentrale punktet for å komme frem til en formel for \(F_{X_{(n)}}(x)\) er å innse at \(X_{(n)}=\max\{X_1,X_2,\ldots,X_n\}\) er mindre enn eller lik et tall \(x\) hvis og bare hvis alle \(X_1,X_2,\ldots,X_n\) er mindre enn eller lik \(x\). Ved i tillegg å benytte at \(X_i\)'ene er uavhengige får man \begin{eqnarray} F_{X_{(n)}}(x) &=& P(X_{(n)}\leq x) = P(\max\{ X_1,X_2,\ldots,X_n\} \leq x)\\ &=& P(X_1\leq x, X_2\leq x,\ldots,X_n\leq x)\\ &=& P(X_1\leq x) \cdot P(X_2\leq x)\cdot \ldots\cdot P(X_n\leq x) \\ &=& F_{X_1}(x) \cdot F_{X_2}(x)\cdot \ldots\cdot F_{X_n}(x). \end{eqnarray} Dersom \(X_i\)'ene er kontinuerlige stokastiske variabler kan man finne sannsynlighetstettheten til \(X_{(n)}\) ved å regne ut \(F^\prime_{X_{(n)}}(x)\). På temasiden for begreper, definisjoner og tolkninger for funksjoner av stokastiske variabler er dette gjort i spesialtilfellet at \(F_{X_1}(x),F_{X_2}(x),\ldots,F_{X_n}(x)\) alle er like. Alle utregningene for dette tilfellet finnes i beviset gitt på den temasiden.

Fordeling for \(F_{X_{(1)}}(x)\): Det sentrale punktet for å komme frem til en formel for \(F_{X_{(1)}}(x)\) er å innse at \(X_{(1)}=\min\{X_1,X_2,\ldots,X_n\}\) er ekte større enn et tall \(x\) hvis og bare hvis alle \(X_1,X_2,\ldots,X_n\) er ekte større enn \(x\). Ved i tillegg å benytte at \(X_i\)'ene er uavhengige får man \begin{eqnarray} F_{X_{(1)}}(x) &=& P(X_{(1)}\leq x) = 1- P(X_{(1)} > x) = 1 - P(\min\{ X_1,X_2,\ldots,X_n\} > x)\\ &=& 1 - P(X_1 > x, X_2 > x,\ldots,X_n > x)\\ &=& 1 - P(X_1 > x) \cdot P(X_2 > x)\cdot \ldots\cdot P(X_n > x) \\ &=& 1 - (1-P(X_1\leq x))\cdot (1-P(X_2\leq x))\cdot\ldots\cdot (1-P(X_n\leq x))\\ &=& 1- (1-F_{X_1}(x)) \cdot (1-F_{X_2}(x))\cdot \ldots\cdot (1-F_{X_n}(x)). \end{eqnarray} Dersom \(X_i\)'ene er kontinuerlige stokastiske variabler kan man finne sannsynlighetstettheten til \(X_{(1)}\) ved å regne ut \(F^\prime_{X_{(1)}}(x)\). På temasiden for begreper, definisjoner og tolkninger for funksjoner av stokastiske variabler er dette gjort i spesialtilfellet at \(F_{X_1}(x),F_{X_2}(x),\ldots,F_{X_n}(x)\) alle er like. Alle utregningene for dette tilfellet finnes i beviset gitt på den temasiden.

Relevante kapitler: Notat.
Relevante videoer:
Relevante oppgaver:
\(\ \ \ \)Eksamen juni 2015, oppgave 4a (b,n,e).
\(\ \ \ \)Eksamen mai 2014, oppgave 1b (b,n,e).


2017-10-03, Øyvind Bakke