Στατιστική και πιθανότητες Μέρος...

22
Στατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 - Διαλ.09 1

Transcript of Στατιστική και πιθανότητες Μέρος...

Page 1: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Στατιστική και πιθανότητες

Μέρος ΙΙ

ΦΥΣ 347 - Διαλ.09 1

Page 2: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Στατιστικοί εκτιµητές ΦΥΣ 347 - Διαλ.09 2

q Όταν κάνουµε στατιστική ανάλυση, ένας στόχος είναι η αληθής εκτίµηση της τιµής µίας ή περισσότερων παραµέτρων από πειραµατικά δεδοµένα και η κατανόηση της αβεβαιότητας της µέτρησης αυτής

q  Σηµαντικά χαρακτηριστικά ενός καλού εκτιµητή είναι: Ø  Συνέπεια: Αν ο όγκος των δεδοµένων είναι µεγάλος, η εκτίµηση συγκλίνει στην πραγµατική τιµή: Ø  Bias: Αν υπάρχει διαφορά µεταξύ της αναµενόµενης τιµής της εκτίµησης της παραµέτρου και της πραγµατικής τιµής της παραµέτρου

Ø  Ανθεκτικότητα (robustness): H εκτίµηση δεν αλλάζει ιδαίτερα αν η πραγµατική pdf (probability density function) διαφέρει από την υποτιθέµενη pdf. Για παράδειγµα στις ουρές µίας κατανοµής.

q  Χρειαζόµαστε ακόµα να ξέρουµε την αβεβαιότητα της εκτίµησής µας, δηλαδή πόσο µακριά είναι η εκτιµούµενη από την πραγµατική τιµή εξαιτίας στατιστικών διακυµάνσεων στο σύνολο των µετρήσεων

Page 3: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Η µέθοδος των ελαχίστων τετραγώνων ΦΥΣ 347 - Διαλ.09 3

q  Υποθέτουµε ότι οι µετρήσεις µας προέρχονται από µεγάλη στατιστική και εποµένως µπορούµε να υποθέσουµε ότι βρισκόµαστε στη Gaussian περιοχή

q Θέλουµε να έχουµε τις καλύτερες εκτιµήσεις των παραµέτρων της συνάρτησης που περιγράφει τα δεδοµένα

q  Το επιτυγχάνουµε ελαττώνοντας τη διασπορά των δεδοµένων από τη συνάρτηση προσαρµογής λαµβάνοντας υπόψην την αβεβαιότητα των δεδοµένων:

q  H διασπορά προσδιορίζεται συναρτήσει µίας ποσότητας: χ 2 =

xi − µ( )2

σ 2i=1

N

q Μπορούµε να γράψουµε το συναρτήσει των παρατηρούµενων µεγεθών: χ2

χ 2 =

yi − F xi ,θ( )( )2

σ i2

i=1

N

∑q  Ελαχιστοποιούµε το ως προς την/τις παραµέτρους θi χ

2

q  Ιδιαίτερα χρήσιµη στις περιπτώσεις δειγµάτων µεγάλης στατιστικής όπου η σύγκλιση της πολλών της αρνητικής likelihood (-lnL ) είναι αργή

Page 4: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Συνάρτηση µέγιστης πιθανότητας – Likelihood ΦΥΣ 347 - Διαλ.09 4

q  Η likelihood, εκφράζει την πιθανότητα ότι µία µέτρηση του x, θα δώσει συγκεκριµένη τιµή για κάποια δεδοµένη θεωρία.

L x;θ( )

Ø  Για να προσδιορίσουµε την likelihood, θα πρέπει να γνωρίζουµε τόσο τη θεωρία όσο και τις τιµές των παραµέτρων από τις οποίες εξαρτάται η θεωρία

q  Αν έχουµε ένα σύνολο µετρήσεων, η ολική likelihood βρίσκεται από το γινόµενο των likelihoods των µετρήσεων:

L x;θ( ) = Li x;θ( )

i=1

N

∏όπου θ µπορεί να αναπαραστά µία ή περισσότερες παραµέτρους

Page 5: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Φυσικός λογάριθµος πιθανότητας – Log Likelihood

ΦΥΣ 347 - Διαλ.09 5

q  Για να εκτιµήσουµε την/τις παραµέτρους θ, θα πρέπει να µεγιστοποιήσουµε την πιθανότητα

q  Συνηθισµένη τεχνική για να βρούµε το µέγιστο είναι να θέσουµε την παράγωγο της ποσότητας που µεγιστοποιούµε στο 0

q  Είναι ευκολότερο να µεγιστοποιήσουµε το λογάριθµο της πιθανότητας lnL

∂lnL∂θ

= ∂∂θ

ln Lii=1

N

∏ = ∂∂θ

lnLii=1

N

∑ = 0

q  Το µέγιστο της likelihood συνάρτησης ατιστοιχεί σε τιµές της/των παραµέτρων θ,

− lnLi

i=1

N

∑που ελαχιστοποιούν την ποσότητα:

q  Αν υπάρχουν πολλές παράµετροι θ, µπορούµε να ελαχιστοποιήσουµε ως προς κάθε µία από αυτές

Ø  Θα εξετάσουµε πιθανές συσχετίσεις µεταξύ τους

Page 6: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Παράδειγµα Poisson κατανοµής για likelihood ΦΥΣ 347 - Διαλ.09 6

q Έστω Ν ανεξάρτητες προσπάθειες, η κάθε µία µε αποτέλεσµα ni

q  H likelihood συνάρτηση να παρατηρήσουµε ni όταν η παραγµατική τιµή είναι µ

Li ni;µ( ) = e−µ µ( )ni

ni !q  Εφόσον έχουµε Ν µετρήσεις, το γινόµενο των likelihoods για τις Ν µετρήσεις είναι:

L data;µ( ) = e−µ µ( )ni

ni !i=1

N

⇒ lnL = lne−µ µ( )ni

ni !

⎝⎜⎜

⎠⎟⎟i=1

N

⇒ lnL = −µ + ni ln µ( )− ln ni !( )( )

i=1

N

∑ ⇒ lnL = −Nµ + ln µ( ) ni( )

i=1

N

∑ + const

q  Παραγωγίζουµε την τελευταία ως προς τις παραµέτρους της θεωρίας, θ = µ

d lnLdµ µ̂=µ

= −N +ni

i=1

N

∑µ

= 0 ⇒ µ̂ = 1

Nni

i=1

N

q Όπως αναµένονταν, η καλύτερη εκτίµηση για την πραγµατική τιµή είναι η µέση τιµή

Page 7: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Likelihood Gaussian κατανοµής ΦΥΣ 347 - Διαλ.09 7

q Έστω η Gaussian κατανοµή: G x;µ,σ( ) = 1

2πσe−

x−µ( )22σ 2

q  Παίρνουµε την παράγωγο της log likelihood συνάρτησης:

∂∂µ

lnL( )µ̂=µ

= ∂∂µ

−xi − µ( )2

2σ 2 + consti=1

N

∑⎛

⎝⎜⎜

⎠⎟⎟

⇒ ∂∂µ

lnL( )µ̂=µ

= −xi − µ( )σ 2

i=1

N

∑µ̂=µ

= 0

⇒ µ̂ = 1

Nxi

i=1

N

q  H εκτίµηση για την αβεβαιότητα σ, είναι: σ = 1

N −1xi − µ( )2

i=1

N

Page 8: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Binned ή unbinned log likelihood ΦΥΣ 347 - Διαλ.09 8

q O φορµαλισµός likelihood δουλεύει για οποιαδήποτε καλά συµπεριφερόµενη pdf

q  To γινόµενο της likelihood είναι ένα γινόµενο ως προς τις µετρήσεις

q Μπορούµε να προσδιορίσουµε την έννοια της µέτρησης

q  Παράδειγµα: H µέτρηση του χρόνου ζωής ενός σωµατιδίου από ένα σύνολο τέτοιων σωµατιδίων που παράγονται τη χρονική στιγµή t=0 και διασπώνται σε χρόνο t:

f t( ) = 1

τe−t τ

Δύο τρόποι για να κατασκευάσουµε τη συνάρτηση likelihood:

1)  Για κάθε διάσπαση i µετρούµε το χρόνο ti. Κατασκευή της likelihood από το γινόµενο όλων των µετρούµενων χρόνων (unbinned likelihood)

2)  Κατασκευή ενός histogram του αριθµού των διασπάσεων σε bins του χρόνου. Στην περίπτωση αυτή, η µέτρηση είναι ο αριθµός των διασπάσεων σε κάθε bin i (binned likelihood)

Page 9: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Σύνδεση log likelihood και χ2 ΦΥΣ 347 - Διαλ.09 9

q  Είδαµε προηγουµένως ότι για την περίπτωση της Gaussian κατανοµής:

lnL = −

xi − µ( )2

2σ 2 + consti=1

N

q  Η σχέση αυτή συγκρίνεται µε την αντίστοιχη του χ2: χ 2 ≡

xi − µ( )2

σ 2i=1

N

q  Αντιστοιχία µεταξύ των δύο σχέσεων προκύπτει ότι: χ2 ≡ −2lnL

q O φορµαλισµός της likelihood δουλεύει για όλες τις pdf και εποµένως είναι περισσότερος γενικός και θα πρέπει να χρησιµοποιείται γενικά

Page 10: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Log likelihood ΦΥΣ 347 - Διαλ.09 10

q O λογάριθµος της likelihood συνάρτησης µπορεί να αναπτυχθεί κατά Taylor ως προς το ελάχιστό της:

∂lnL∂θ θ=θmin

= 0 ⇒ lnL = lnLmin +

12∂2 lnL∂θ 2

θ=θmin

θ −θmin( )2

⇒ 2 lnL- lnLmin( ) = ∂2 lnL

∂θ 2θ=θmin

θ −θmin( )2

q  Στο όριο του µεγάλου αριθµοπθυ µετρήσεων Ν, η κατανοµή της χάρη στο κεντρικό θεώρηµα (θεώρηµα µεγάλων αριθµών) γίνεται Gaussian.

L

q  Για Gaussian κατανοµές αλλαγή στην κατά µία µονάδα, ισοδυναµεί σε αλλαγή κατά 1σ στην παράµετρο θ. Εποµένως η αβεβαιότητα στη θ είναι:

2lnL

σθ2 ≡ θ −θmin( )2

= − 1∂2 lnL∂θ 2

q  Η αβεβαιότητα στις εκτιµούµενες τιµές των παραµέτρων θ µπορούν να βρεθούν υπολογίζοντας την τιµή του Δθ για την οποία το αλλάζει κατά µία µονάδα . Αν η δεν είναι παραβολική, η αβεβαιότητα είναι ασυµµετρική

−2lnL lnL

Page 11: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Παράδειγµα ΦΥΣ 347 - Διαλ.09 11

q Έστω ότι κάναµε µία σειρά από µετρήσεις xi. Έστω ακόµα ότι ο αριθµός των γεγονότων συναρτήσει του x ακολουθεί την κατανοµή:

N x( ) = A+ Bx για 0 < x < 10

Θα χρησιµοποιήσουµε τη µέθοδο της likelihood για να εκτιµήσουµε το λόγο k = Α/Β

Ø  Πώς θα πρέπει να χτίσουµε το πρόβληµα:

² O συνολικός αριθµός των γεγονότων Νtot µπορεί να υπολογισθεί από

Ntot = A+ Bx( )dx

0

10

∫ ⇒ Ntot = Ax + 1

2Bx2⎛

⎝⎜⎞⎠⎟

0

10

⇒ Ntot = 10A+50B

²  Κανονικοποίηση της συνάρτησης πυκνότητας πιθανότητας:

f x; A, B( ) = 1

Ntot

A+ Bx( ) = 1

10A+50BA+ Bx( )

= A

10A+50B+ Bx

10A+50B

f x; A, B( ) = 0.1 k

k +5+ x

k +5⎛⎝⎜

⎞⎠⎟

²  H likelihood συνάρτηση θα είναι: L x;k( ) = 0.1 k

k +5+ x

k +5⎛⎝⎜

⎞⎠⎟i=1

N

Page 12: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

ΦΥΣ 347 - Διαλ.09 12

Παράδειγµα ²  H log likelihood συνάρτηση θα είναι εποµένως:

ln L x;k( )( ) = ln 0.1 k

k +5+ x

k +5⎛⎝⎜

⎞⎠⎟

⎣⎢

⎦⎥

i=1

N

⇒ ln L x;k( )( ) = ln k

k +5+ x

k +5⎛⎝⎜

⎞⎠⎟

⎣⎢

⎦⎥

i=1

N

∑ + N ln 0.1( )Ø  Αν οι τιµές των xi είναι γνωστές τότε µπορούµε να ελαχιστοποιήσουµε την ως προς τον λόγο k. O τελευταίος όρος είναι σταθερός και ανεξάρτητος του x απλά προσθέτει ένα σταθερό όρο στη log likelihood και δεν παίζει ρόλο στην ελαχιστοποίηση.

− lnL

Ø  Η ελαχιστοποίηση µπορεί να γίνει µε διάφορα λογισµικά (όπως το ROOT που περιέχει το λογισµικό ελαχιστοποίησης Minuit) .

Ø  Ωστόσο το ελάχιστο µπορεί να βρεθεί παρατηρώντας πώς αλλάζει η καθώς µεταβάλεται η παράµετρος k.

lnL x;k( )

Ø  Μπορείτε να κατεβάσετε το πρόγραµµα από το εργαστήριο 10 για το ROOT το οποίο δηµιουργεί δεδοµένα για Α=1 και B=2 και τα χρησιµοποιεί για να βρεί το k.

Page 13: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Σχετιζόµενες µεταβλητές ΦΥΣ 347 - Διαλ.09 13

q  Σε πολλές περιπτώσεις, οι µεταβλητές που χρησιµοποιούνται σε προσαρµογή δεδοµένων δεν είναι ανεξάρτητες µεταξύ τους

q  Κατά τη διάρκεια της ελαχιστοποίησης θα πρέπει να λαµβάνονται υπόψην συσχετίσεις µεταξύ των παραµέτρων

q  Σαν υπενθύµιση, η απόκλιση των µετρήσεων δίνεται από τη σχέση:

σ 2 ≡Var x( ) = x2 f x( )dx

−∞

+∞

∫ − µ2

q Ορίζουµε την covariance σχέση, Cov[x,y], µεταξύ δύο µεταβλητών x και y:

cov x, y⎡⎣ ⎤⎦ = xyf x, y( )dx dy

−∞

+∞

∫ − µxµ y

q  Αν οι δύο µεταβλητές x και y είναι ανεξάρτητες µεταξύ τους, τότε:

cov x, y⎡⎣ ⎤⎦ = 0 για (ανεξάρτητα) x ≠ y

Page 14: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

ΦΥΣ 347 - Διαλ.09 14

Περισσότερες των δύο σχετιζόµενες µεταβλητές q  Κάθε µέτρηση είναι ένα σύνολο Ν ποσοτήτων, x1, x2, … , xN

q O πίνακας συσχέτισης, covariance matrix, είναι ένας Ν x N πίνακας µε στοιχεία:

Vij = cov xi,x j

⎡⎣ ⎤⎦ ≡ xi − µi x j − µ j

q  Για µή σχετιζόµενες (ανεξάρτητες) µεταβλητές, ο πίνακας αυτός είναι διαγώνιος

q Μία σχετική ποσότητα που χρησιµοποιούµε αρκετές φορές είναι ο παράγοντας συσχέτισης:

ρij =Vij

ViiVjj

≡Vij

σ iσ j

q Οι τιµές του παράγοντα συσχέτισης βρίσκονται στο διάστηµα: −1≤ ρij ≤1

Page 15: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

O covariance πίνακας για την Gaussian περίπτωση ΦΥΣ 347 - Διαλ.09 15

q Έστω x και y ανεξάρτητες µεταβλητές

G x, y;µx ,σ x ,µ y ,σ y( ) = 12πσ x

e−

x−µx( )22σ x

2 12πσ y

e−

y−µy( )22σ y

2

∂2

dµx2 lnL( ) = − 1

σ x2

i=1∑Ø  H 2η παράγωγος ως προς µ δίνει:

q  Υποθέτουµε τώρα ότι τα x και y δεν είναι ανεξάρτητες µεταξύ τους

q  Αντιστρέφουµε τον covariance πίνακα για µια οµάδα εκτιµητών µέγιστης πιθανότητας που ορίζονται σύµφωνα µε τη:

V̂ −1

ij= − ∂2 lnL

∂µi ∂µ j

q  Για την περίπτωση της binned likelihood, και σε περιοχή µε µεγάλο αριθµό Ν µετρήσεων, η likelihood µπορεί να προσεγγισθεί µε χ2¨

V̂ −1

ij= 1

2∂2χ 2

∂µi ∂µ j

Page 16: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Αποτέλεσµα συσχετιζόµενων αβεβαιοτήτων

ΦΥΣ 347 - Διαλ.09 16

q Έλλειψη σφάλµατος για δύο παραµέτρους οι οποίες έχουν αρνητική συσχέτιση

q  Η κλίση σχετίζεται µε τον παράγοντα συσχέτισης: όπου θ είναι εκτιµητές (στο προηγούµενο παράδειγµα ήταν οι µέσες τιµές)

dθ i dθ j

q Ο correlation πίνακας συνήθως προσδιορίζεται από τα δεδοµένα κατά τη διάρκεια της διαδικασίας προσαρµογής.

Page 17: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Διάδοση σφαλµάτων ΦΥΣ 347 - Διαλ.09 17

q  Κάποιος µπορεί να ανατρέξει στο internet: http://en.wikipedia.org/wiki/Propagation_of_uncertainty

q  H βασική σχέση που χρησιµοποιούµε είναι:

σ f

2 = ∂ f∂a

⎛⎝⎜

⎞⎠⎟

2

+ ∂ f∂β

⎛⎝⎜

⎞⎠⎟

2

+ 2∂ f∂a

⎛⎝⎜

⎞⎠⎟

∂ f∂β

⎛⎝⎜

⎞⎠⎟

cov a,β⎡⎣ ⎤⎦

όπου στο συγκεκριµένο µοντέλο υπάρχουν δύο παράµετροι α και β

q  Η σχέση µπορεί να επεκταθεί σε περισσότερες διαστάσεις και συνήθως εκφράζεται µε τη βοήθεια ενός πίνακα

q  Αν οι παράµετροι είναι µή σχετιζόµενες (ανεξάρτητες µεταξύ τους) τότε η σχέση περιορίζεται σε αυτή που έχετε δει στα εισαγωγικά εργαστήρια

Page 18: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Διαστήµατα εµπιστοσύνης – confidence intervals

ΦΥΣ 347 - Διαλ.09 18

q  Χρησιµοποιώντας τη γλώσσα των frequists: το ποσοστό του αποτελέσµατος το οποίο δεν περιέχεται µεταξύ xL και xU είναι:

1− a = P x;θ( )dx

xL

xU∫q  Αν είχαµε Gaussian κατανοµή τότε το παραπάνω δηλώνεται:

Ø  90% διπλής – περιοχής διάστηµα εµπιστοσύνης, α = 0.1

Ø  5% του ολοκληρώµατος στις γραµµοσκιασµένες περιοχές σε κάθε πλευρά

Page 19: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Επίπεδα εµπιστοσύνης για δύο συνήθεις κατανοµές

ΦΥΣ 347 - Διαλ.09 19

q  Για Gaussian κατανοµή:

Περιοχή των άκρων α έξω από ±δ από τη µέση τιµή µιας Gaussian κατανοµής:

q  Για Poissonian κατανοµή:

Χαµηλότερο και υψηλότερο (µονόπλευρη) όριο για την µέση τιµή µ µιας Poissonian µεταβλητής που δίνει n παρατηρούµενα γεγονότα απουσία υποβάθρου για διάστηµα εµπιστοσύνης 90% και 95%:

Ø  Στην περίπτωση αυτή το α αντιστοιχεί στο ποσοστό έξω από την περιοχή ολοκλήρωσης

Page 20: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Έλεγχος υπόθεσης (hypothesis testing) ΦΥΣ 347 - Διαλ.09 20

q Ότι αναφέραµε µέχρι τώρα αποσκοπούσαν στην εύρεση της καλύτερης τιµής των παραµέτρων και την αβεβαιότητά τους κάτω από την υπόθεση ότι γνωρίζουµε την pdf :

q  Τίποτα στη διαδικασία που ακολουθήσαµε δεν µας λέει αν τα δεδοµένα που έχουµε συνάδουν µε την υπόθεση που κάναµε

q  Χρειαζόµαστε ένα στατιστικό test για να εξακριβώσουµε αν η υπόθεση που κάναµε είναι σωστή

Ø  Τεστ σηµαντικότητας: Πόσο πιθανόν είναι το σήµα να αποτελεί στατιστική διακύµανση

Ø  Τεστ καλής ποιότητας της προσαρµογής (Goodness of fit – GoF): έλεγχος για το κατά πόσο τα δεδοµένα συνάδουν µε την προτεινόµενη υπόθεση

Ø  Τεστ εξαίρεσης (exclusion test): ποιο το µέγεθος του σήµατος το οποίο µπορεί να κρύβεται στα δεδοµένα.

Page 21: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Τεστ σηµαντικότητας ΦΥΣ 347 - Διαλ.09 21

q  Ας υποθέσουµε ότι µετρούµε µια τιµή t για τα δεδοµένα:

Ø  Πόσο πιθανό είναι να δούµε µία τιµή η οποία είναι πιο µεγάλη από πρόβλεψη από την µέτρηση που κάναµε;

q  Ας υποθέσουµε ότι µετρούµε µια κατανοµή από δεδοµένα Ø  Πόσο συνάδει η κατανοµή αυτή

µε την υπόθεση;

q Μπορούµε να χρησιµοποιήσουµε κάτι σαν χ2

P − value = f x;nd( )dx

xmeas .2

Page 22: Στατιστική και πιθανότητες Μέρος ΙΙfotis/phy347/Lectures/lecture09.pdfΣτατιστική και πιθανότητες Μέρος ΙΙ ΦΥΣ 347 -

Έλεγχος Υπόθεσης: O λόγος των πιθανοτήτων

ΦΥΣ 347 - Διαλ.09 22

q  Στα περισσότερα πειράµατα, όταν διερευνάται η ύπαρξη σήµατος, αυτό βρίσκεται αναµεµειγµένο µε αρκετό υπόβαθρο

q  Πώς µπορούµε να ξέρουµε αν υπάρχει σηµαντικό σήµα επιπλέον του υποβάθρου;

q  Δεδοµένων δύο υποθέσεων ΗΒ (background) και ΗS+B (σήµα και υπόβαθρο), ο λόγος των πιθανοτήτων αποτελεί ένα χρήσιµο στατιστικό τέστ

λ!N( ) = L

!N HS+B( )

L!N HB( )