TMA4245 Statistikk våren 2020
Parallell 2: Forelesninger for BFY, MLREAL, MTELSYS, MTFYMA, MTTK
- Faglærer: Geir-Arne Fuglstad
- Forelesninger:
- Onsdag: 12:15 - 14:00 i R7
- Fredag: 12:15 - 14:00 i R7
Referansegruppe:
- Viveka Priya Simhan, vivekaps@stud.ntnu.no (MTFYMA)
- Theodor Forgaard, tjforgaa@stud.ntnu.no (MTFYMA/MTTK)
- Eskil Berg Ould-Saada, eskilbo@stud.ntnu.no (MTTK Kybernetikk og Robotikk)
Meldinger (i omvendt kronologisk rekkefølge)
- 08.05.2020: Det blir spørretime om digital eksamen og generelle spørsmål om pensum på mandag 11. mai klokken 11:00–12:00. Lenke til Zoom møte vil bli lagt ut på Blackboard i løpet av helgen.
- 12.03.2020: Se "Digitale forelesninger" under for informasjon om hvilke videoer dere burde se i steden for hver fysiske forelesning.
- 02.03.2020: Neste uke (9. mars–15. mars) bytter vi forelesningsrom fordi Realfagsdagene skal bruke R7. På onsdag 11.mars 12:15–14:00 blir forelesning i S6 og på fredag 13.mars klokken 12:15–14:00 blir forelesning i S2. Dette byttet gjelder bare denne uken.
- 07.02.2020: Husk at det finnes statistikklab hvor man kan få hjelp med øvinger. Informasjon om tider og rom står under «Øvingsopplegg».
- 23.01.2020: Vi planlegger referansegruppemøte fredag 7. februar. Hvis dere har tilbakemeldinger ta kontakt med referansegruppemedlemmer eller faglærer.
Digitale forelesninger (i omvendt kronologisk rekkefølge)
Fra og med fredag 13. mars følger vi videoforelesninger fra TMA4240 Høst 2017.
Hele forelesningsserien finner du i Mediasite, husk at du må logge inn med NTNU brukernavn og passord. Disse videoene er laget av en svært erfaren foreleser i statistikk som har lang erfaring med undervisning av TMA4240/TMA4245 (disse to kursene er identiske). Jeg kommer til å gi direkte lenker til videoene og en kort beskrivelse.
Ta kontakt med meg dersom noe er uklart i forelesningene. Da det ikke er mulig å stille spørsmål mens man ser på videoforelesninger, kan dere stille spørsmål i Piazza-forumet til faget.
Jeg har fortsatt med å skrive korte oppsummeringer av forrige forelesning. Disse er basert på min vurdering av det aktuelle pensumet for forelesningen og samsvarer ikke nødvendigvis med akkurat de elementene som blir diskutert i videoforelesningen.
Uke | Dato | Kapittel | Nøkkelbegreper | Videoforelesning | Kommentarer |
---|---|---|---|---|---|
20 | 11.05 | Spørretime med slides. Noen ting som ble besvart underveis og ikke står i slides: I) Det blir rundt 50% flervalg og 50% tekstsvar, II) De 20 deloppgavene er delt inn i hovedoppgaver: 1a), 1b), 2a), 2b) osv, III) Dere kan bruke enten "." eller "," som desimaltegn, IV) dere kan bruke temasider og alle andre hjelpemidler, men eksamen er et individuelt arbeid og dere kan ikke kommunisere med andre, V) Det kan gis delvis uttelling på tekstsvarsoppgaver, VI) Vi vil se bort fra følgefeil på påfølgende deloppgaver med mindre de resulterer i en stor forenkling av påfølgende deloppgaver (altså på samme måte som vanlige eksamer), og VII) Det er ikke minuspoeng for feil svar på flervalgsoppgaver. | |||
Kort oppsummering av siste time | |||||
14 | 03.04 | 11.6, 11.10 | Prediksjonsintervaller, residualplott | 1. time, 2. time og 3. time (fram til 21:40) | Kort oppsummering av forrige time Hovedfokuset er på prediksjonsintervaller og hvordan de skiller seg fra et konfidensinterval. Jeg synes dette kapittelet illustrerer på en mye bedre måte enn i kapittel 10 hvorfor vi er interesserte i prediksjonsintervaller. Etter å ha estimert en regresjonsmodell er vi typisk interessert å si noe om hva vi kan regne med å observere for en ny kovariatverdi x. Dette er en observerbar størrelse og inneholder støy og skiller seg dermed fra et konfidensintervall for forventningsverdien β0+β1x (som ikke er en observerbar størrelse). |
14 | 01.04 | 11.4, 11.5 | Egenskaper og fordelinger til estimatorer, inferens for lineære regresjonsmodeller | 1. time Obs! I enkelte nettlesere (bl.a. Chrome) stopper videoen ved 10:41. Prøv en annen nettleser for å se hele videoen. og 2. time | Kort oppsummering av forrige time Denne forelesningen tar for seg hva fordelingene til estimatorene til skjæringspunktet, stigningstallet og residualvariansen er. Dette er essensielt for å kunne gjøre inferens på regresjonsmodellene. Med inferens mener jeg: 1) konfidensintervall for parameterene og 2) hypotestesting for parameterene. Dette er det viktige bidraget til statistikk – nemlig kvantifisering av usikkerhet og konklusjoner basert på observasjoner som har støy. Merk at forelesningen er veldig teknisk med mange formler da alle uttrykkene er utledet. Dette er pensum, men jeg vil si at det viktigste er å vite hva fordelingene til de ulike parameterene er og forstå hvordan man bruker fordelingene til å estimere eller gjøre hypotesetester. |
13 | 27.03 | 11.1, 11.2, 11.3 | introduksjon til lineær regresjon, enkel lineær regresjon, minste kvadraters metode, sannsynlighetsmaksimeringsestimatoren, estimert regresjonsmodell | 1. time og 2. time | Kort oppsummering av forrige time I denne forelesningen starter et helt nytt tema: enkel lineær regresjon. Det oppleves av mange som interessant fordi det er lett å visualisere og det er lett å se nytteverdien, men mange av beregningene er veldig tekniske og lange. Dette gjør det lett å miste oversikten og fokuset på forståelse. Vi har fokus på disse beregningene og de er viktige for oss, men vi er også veldig interessert i forståelse av hva vi gjør og hvorfor det fungerer. I videregående kurs i lineær regresjon, slik som TMA4267, kan dere se at alle beregningene i dette kapittelet egentlig er lineær algebra. Dette betyr at det er en sterk kobling til Matematikk 3, og beregningene i dette kapittelet kan uttrykkes mye enklere gjennom matriseoperasjoner og kan derfor også enkelt implementeres på datamaskiner. I dette faget bruker vi ikke matriseoperasjoner til å uttrykke formlene. |
13 | 25.03 | 10.5, 10.6, 10.7, 10.9 | Valg av utvalgstørrelse, test av to-utvalg | 1. time og 2. time | Kort oppsummering av forrige time Forelesningen legger opp til at det meste skal leses selv av de siste delkapitlene i kapittel 10. Det meste av det som diskuteres er veldig likt som konfidensintervallene utledet i kapittel 9. Man kan tenke seg at disse hypotesetestene med signifikansnivå α svarer til å konstruere et 100(1-α)% konfidensintervallet og forkaste H0 hvis verdien i H0 ikke er inneholdt i konfidensintervallet. Det er viktig å fokusere på å lese delkapittel 10.6 nøye da dette er forskjellig fra det som diskuteres i kapittel 9. |
12 | 20.03 | 10.3, 10.4, 10.8 | P-verdier og hypotesetesting generelt, for forventningsverdi, og for andeler | 1. time og 2. time | Kort oppsummering av forrige time. Kap 10.3 introduserer et generelt rammeverk for å gjøre konklusjoner om en populasjonsparameter, kap 10.4 bruker dette rammeverket for å trekke konklusjoner om en forventningsverdi, og kap 10.8 viser hvordan rammeverket kan brukes for å trekke konklusjoner om en andel. |
12 | 18.03 | 9.6, 10.1, 10.2 | Prediksjonsintervall og introduksjon til hypotesetesting | Intro (se fra 31:30), 1. time og 2. time | Kort oppsummering av forrige time. Kap. 9.6 handler om prediksjonsintervaller og erfaringsmessig kan det være vanskelig å forstå forskjellen på konfidensintervaller og prediksjonsintervaller. Forenklet kan man si at konfidensintervallet brukes om populasjonsstørrelser, som ikke er observerbare, og prediksjonsintervallet brukes for observerbare størrelser. Vi har et konfidensintervall for populasjonsgjennomsnittet μ og et prediksjonsintervallet for verdien vi kommer til å observere hvis vi observerer en ny person x*. Kap. 10 starter på et nytt tema hypotesetesting som ofte er det vi faktisk er interessert i. Nemlig «å trekke en konklusjon». Vi snakket litt om dette i eksempelet som ligger ute fra 11. mars. «Gir konfidensintervallet grunn til å konkludere med at en maskin produserer produkter som i gjennomsnitt er for lette?» I så fall, hvor sterke er bevisene for vår konklusjon? |
11 | 13.03 | 9.8, 9.12 (les 9.9 og 9.11 selv) | Konfidensintervall for varians, og konfidensintervall for to utvalg | 1. time (se fra 25:30) og 2. time | Kort oppsummering av forrige time. Vi ble nesten ferdig å snakke om konfidensintervall for varians i forrige forelesning (11. mars), men det er fornuftig å ha litt overlapp for å se forskjeller og likheter i forelesnings-stil. Merk at det brukes litt annen notasjon i disse forelesningene. Foreleser bruker f.eks. X ∼ n(x; μ, σ²) der vi har skrevet X ∼ N(μ, σ²). Det er bare konfidensintervall for μ1-μ2 med ukjente og kjente varianser som blir gjennomgått og dere må lese "paired observations" i kap 9.9 og konfidensintervall for p1-p2 i kap. 9.11 selv. VIKTIG: i kap. 9.8 er ikke "unknown, but equal variances" pensum. |
Forelesningslogg (i omvendt kronologisk rekkefølge)
Uke | Dato | Kapittel | Foiler | Kommentar |
---|---|---|---|---|
11 | 11.03 | 8.8, 9.4, 9.10, 9.12 | Kort repetisjon av forrige time og eksempel | Vi diskuterte konfidensintervaller når variansen er ukjent, konfidensintervaller for en proposjon og startet å snakke om konfidensintervall for varians |
10 | 06.03 | 8.6, 9.4 | Kort repetisjon av forrige time | Vi diskuterte hvordan man kan velge utvalgstørrelsen, t-fordelingen og konfidensintervall når variansen er ukjent. |
10 | 04.03 | 9.14 | Kort repetisjon av forrige time og motivasjonseksempel | Vi diskuterte Sannsynlighetsmaksimeringsestimatoren. |
9 | 28.02 | 9.1–9.4 | Kort repetisjon av forrige time og Figurer for eksempel | Vi diskuterte populasjonsparametere og estimering av populasjonsparameterparametere (punktestimat og konfidensintervall). Vi diskuterte bare tilfellet med kjent varians i kap. 9.4. |
9 | 26.02 | 8.1–8.5 | Kort repetisjon av forrige time og Figurer for utvalgsfordelinger | Vi diskuterer forskjellen mellom statistikk og sannsynlighetsteori, vi introduserer grunnleggende statistiske begreper, vi snakker om sentralgrenseteoremet, og utvalgsfordelingene til empirisk middelverdi (utvalgsgjennomsnitt) og empirisk varians (utvalgsvarians). |
8 | 21.02 | 7.3 og notat | Kort repetisjon av forrige time | Vi diskuterte den momentgenerende funksjonen, ordningsvariabler, og koblingen mellom CDF til ordningsvariabler og en binomisk sannsynlighet. |
8 | 19.02 | 7.1–7.2 | Kort repetisjon av forrige time | Vi diskuterte transformasjoner av stokastiske variabler. |
7 | 14.02 | 6.5–6.7 | Kort repetisjon av forrige time | Vi diskuterte noen egenskaper ved normalfordelingen, vi diskuterte hvordan eksponentialfordelingen oppstår fra en poissonprosess, og vi diskuterte Gammafordeling og chi-kvadrat-fordelingen. |
7 | 12.02 | 6.1–6.4 | Kort repetisjon av forrige time og Figurer for introduksjon av normalfordelingen | Vi diskuterte den uniforme kontinuerlige fordelingen og normalfordelingen (den absolutt viktigste sannsynlighetsfordelingen som finnes). Spesielt fokuserte vi på at en lineærtransformasjon av en normalfordelt variabel er normalfordelt og at det betyr at vi kan redusere alle problemer ned til utsagn om standard-normalfordelingen. |
6 | 07.02 | 5.4 og 5.5 | Kort repetisjon av forrige time og Figurer for eksempler | Vi diskuterte negativ binomisk fordeling, geometrisk fordeling, Poissonprosseser og Poissonfordeling. Vi vektla at Poissonprosessen er grensen til en Bernoulliprosess (og dermed at Poissonfordelingen er grensen av en binomisk fordeling). |
6 | 05.02 | 5.1, 5.2 og 5.3 | Kort repetisjon av forrige time og Figurer for eksempler | Vi diskuterte Bernoullifordelingen, Bernoulliprosessen, binomisk fordeling og hypergeometrisk fordeling. Dere må lese om multinomisk fordeling selv. |
5 | 31.01 | 4.2 og 4.3 | Kort repetisjon av forrige time, Eksempler og Eksempler (handout-versjon) | Vi diskuterte kovarians og korrelasjon, og regneregler for forventningsverdi og varians. |
5 | 29.01 | 4.1 og 4.2 | Kort repetisjon av forrige time | Vi diskuterte forventningsverdi og varians. Vi begynte såvidt å snakke om kovarians. |
4 | 24.01 | 3.3 og 3.4 | Kort repetisjon av forrige time, Diskret eksempel og Kontinuerlig eksempel | Vi gjør ferdig sannsynlighetstettheter og kumulative fordelinger for kontinuerlige stokastiske variabler i kap. 3.3. Deretter fortsetter vi (og planlegger å bli ferdige) med kap 3.4. |
4 | 22.01 | 3.1, 3.2 og 3.3 | Kort repetisjon av forrige time | Vi gjorde ferdig kap 3.1 og 3.2. Vi stoppet etter definisjon 3.6 i kap 3.3. |
3 | 17.01 | 2.6, 2.7 | Kort repetisjon av forrige time | Vi gjorde ferdig kap. 2. |
3 | 15.01 | 2.5, 2.6 | Kort repetisjon av forrige time | Vi fullførte kap. 2.5 og gjorde kap. 2.6 frem til Teorem 2.10 |
2 | 10.01 | 2.2, 2.3, 2.4 | Kort repetisjon av forrige time | Vi gjorde ferdig kap. 2.2 og definerte og snakket om sannsynlighetsmål i kap. 2.4. Deretter snakket vi om hvordan man kan telle enkeltutfall ved bruk av kombinatorikk fra kap. 2.3. Vi oppsummerte bare kap 2.3; dere må lese detaljene selv. |
2 | 08.01 | 1 (Introduksjon), 2.1, 2.2 | slides (handout-versjon) | Vi startet såvidt å snakke om snittet av hendelser, og fortsetter med det på fredag. |