Home                                                                                                                                                  Fin de Page
 


                                                 TABLES STATISTIQUES

                                                                                               
             Amor BELHEDI, FSHS, Université de Tunis
 


Table de la corrélation linéaire    Table de Rho de Spearman     Table de Khi-Deux   Table de Kolmoorov-Smirnov


Introduction  Présenter & Décrire une variable  Réduire & Résumer une distribution  Notions et Distributions de Probabilités   Corrélation & Régression linéaire simple  Corrélation & Régression simples courbes  Test de Khi-deux   Corrélation dans un tableau  Chroniques & Distributions temporelles   Corrélation & Régression multiples   Droites des Moindres Rectangles   Analyse Factorielle   Classification & Typologie  Tests des hypothèses  Sondages & Distributions d'échantillonnage  Quelques éléments de calcul matriciel  Tables Statistiques   Papiers Fonctionnels   Bibliographie Sommaire

 

 

            Nous présentons ici seulement les tables les plus utilisées notamment les tables de la loi normale, la régression linéaire de B Pearson, le Rho de Spearman, le F de Fisher-Snedecor, la table de Khi-Deux et le C de Kolmogorov-Smirnov. Pour les autres tables, le lecteur se réfèrera aux tables correspondantes dans les manuels spécialisés.

 

Fonction de répartition de la loi normale centrée réduite

 

 

                                              Coefficient de corrélation linéaire

                                                  Table  r de Bravais Pearson

 

v  /  a

0.10

0.05

0.02

v  /  a

0.10

0.05

0.02

1

0.9877

0.9969

0.9995

16

0.4000

0.4683

0.5425

2

0.9000

0.9500

0.980

17

0.3887

0.4555

0.5285

3

0.8054

0.8783

0.9343

18

0.3783

0.4438

0.5155

4

0.7293

0.8114

0.8822

19

0.3687

0.4329

0.5034

5

0.6694

0.7545

0.8329

20

0.3598

0.4227

0.4921

6

0.6215

0.7067

0.7887

25

0.3233

0.3809

0.4451

7

0.5822

0.6664

0.7498

30

0.2960

0.3494

0.4093

8

0.5494

0.6319

0.7155

35

0.2746

0.3246

0.3810

9

0.5214

0.6021

0.6851

40

0.2573

0.3044

0.3578

10

0.4973

0.5750

0.6581

45

0.2428

0.2875

0.3384

11

0.4762

0.5529

0.6339

50

0.2306

0.2732

0.3218

12

0.4575

0.5324

0.6120

60

0.2108

0.2500

0.2948

13

0.4409

0.5139

0.5923

70

0.1954

0.2319

0.2737

14

0.4259

0.4973

0.5742

80

0.1829

0.2172

0.2565

15

0.4124

0.4821

0.5577

90

0.1726

0.2050

0.2422

 

 

 

 

100

0.1638

0.1946

0.2301

                v: le degré de liberté. v =n-p-1 avec n: le nombre d'observations,

                p: le nombre de variables explicatives. a : le risque d'erreur.

           

                La table indique le seuil inférieur de signification du coefficient de corrélation linéaire. Elle exprime la limite supérieure qui peut être imputée au hasard. Pour que la relation soit significative avec un risque d'erreur a, il faut que r calculé dépasse la valeur de la table au seuil a et au degré de liberté égal à v = n - p - 1 (n: le nombre d'observations, p: le nombre de relations considérées ou de variables explicatives). Dans le cas d'une corrélation simple on a p = 1 d'où on tire :  v = n - 2

 

 

 

                                             Table du Rho r de Spearman

 

n   /  a

0.05

0.01

n  /   a

0.05

0.01

4

1.00

-

24

0.34

0.49

5

0.90

1.00

26

0.33

0.47

6

0.83

0.94

28

0.32

0.45

7

0.71

0.89

30

0.31

0.43

8

0.64

0.83

35

0.28

0.40

9

0.60

0.78

40

0.26

0.37

10

0.56

0.75

45

0.25

0.35

12

0.51

0.71

50

0.24

0.33

14

0.46

0.64

55

0.22

0.32

16

0.42

0.60

60

0.21

0.30

18

0.40

0.56

70

0.20

0.28

20

0.38

0.53

80

0.19

0.26

22

0.36

0.51

100

0.17

0.23

                                                     n: le nombre d'observations. a : le risque d'erreur.

 

 

 

 

                                              Table de Khi-Deux   c2

 

v  /  a

0.1

0.05

0.025

0.01

v   / a

0.1

0.05

0.025

0.01

1

2.71

3.84

5.02

6.63

16

23.54

26.30

28.84

32.00

2

4.61

5.99

7.38

9.21

17

24.77

27.59

30.19

33.41

3

6.25

7.81

9.35

11.34

18

25.99

28.87

31.53

34.80

4

7.78

9.49

11.14

13.28

19

27.20

30.14

32.85

36.19

5

9.24

11.07

12.83

15.09

20

28.41

31.41

34.17

37.57

6

10.64

12.59

14.45

16.81

21

29.61

32.67

35.48

38.93

7

12.02

14.07

16.01

18.47

22

30.81

33.92

36.78

40.29

8

13.36

15.51

17.53

20.09

23

32.01

35.17

38.08

41.64

9

14.68

16.92

19.02

21.67

24

33.20

36.41

39.37

42.98

10

15.99

18.31

20.48

23.21

25

34.38

37.65

40.65

44.31

11

17.27

19.67

21.92

24.72

26

35.56

38.88

41.92

45.64

12

18.55

21.03

23.34

26.22

27

36.74

40.11

43.19

46.96

13

19.81

22.36

24.74

27.69

28

37.92

41.34

44.46

48.28

14

21.06

23.68

26.12

29.14

29

39.09

42.56

45.72

49.59

15

22.31

25.00

27.49

30.58

30

40.26

43.77

46.98

50.89

                v : le nombre de degré de liberté. a : le risque d'erreur.

 

               

                La table va jusqu'à 30 degrés de liberté (ddl) mais si v >30, on utilise l'approximation par la loi normale selon la relation suivante:  (2c2 )1/2 - 2 (2v -1)1/2 suit la loi Normale N(0, 1), d'où on obtient: c2 = (Ua + (2v -1)1/2)2/2 . La valeur de U est lue dans la table de la loi normale centrée réduite , on donne ici quelques valeurs caractéristiques:

           

                                                        Valeur de U en fonction de a

 

a

0.1

0.05

0.025

0.02

0.01

U

1.2816

1.6449

1.96

2.0537

2.3263

 

                 Le test de Khi-deux ( c2) suppose un certain nombre de conditions :

1- Des données sous forme d'effectifs.

2- Un effectif total supérieur à 20  et 50 dans le cas d'une table à deux lignes et deux colonnes (2 x 2)

3- Des fréquences par case >=5. Dans le cas où on a un effectif inférieur à 5, il faut apporter quelques corrections[1] ou regrouper certaines lignes ou colonnes ensemble. Le nombre de cas où nij <5 ne doit pas dépasser 20% des cases.  En tout cas, les totaux de lignes et de colonnes doivent être >= 5.

4- Lorsqu v =1, il faut apporter la correction de Yeates  à la formule générale. La valeur calculé de Khi-deux est : c2calculé = SS(| nij - nij' | -0.5)2/nij'.

 

 

                         

           

                                          Table de C de Kolomogorov-Smirnov

                                              

n  / a

0.10

0.05

0.01

n /  a

0.10

0.05

0.01

1

0.950

0.875

0.995

14

0.314

0.349

0.418

2

0.776

0.842

0.929

15

0.304

0.338

0.404

3

0.642

0.708

0.828

16

0.295

0.328

0.392

4

0.564

0.624

0.733

17

0.286

0.318

0.381

5

0.510

0.565

0.669

18

0.278

0.309

0.371

6

0.470

0.521

0.618

19

0.272

0.301

0.363

7

0.438

0.486

0.577

20

0.264

0.294

0.356

8

0.411

0.457

0.543

25

0.240

0.270

0.320

9

0.388

0.432

0.514

30

0.220

0.240

0.290

10

0.368

0.410

0.490

35

0.210

0.230

0.270

11

0.352

0.391

0.468

>35

1.22/n1/2

1.36/n1/2

1.63n1/2

12

0.338

0.375

0.450

 

 

 

 

13

0.325

0.361

1.433

 

 

 

 

                n : l'effectif total, a: le risque d'erreur.

 

 

      Dans le cas d'une distribution normale N(x, s) et n dépasse 5, on utilise les valeurs suivantes:

 

a

0.05

0.01

Ca

0.886/(n + 1.5)1/2

1.031(n + 1.5)1/2

 

 

 

 

Table F de Fisher-Snedecor

 

  


 

[1] - On dispose le tableau de telle manière que la case n11 soit la plu s petite. On cherche la probabilité Pk que la plus petite de ces valeurs soit égale à k étant donné ni. n.j.

Dans le cas d'u tableau 2x2 on a : Pk = (n.1!n.2! n1.!(n - n1.)!)/(n.1 - k)!(n.2 - n1. + k)!(n1. - k)!k!n!

La probabilité (P) qu'un écart (n11 - n1.n.1/n) au moins aussi important que celui observé est égale à

P = SP   (k = 0, 1,...n11)

Si P < 0.05, il a y a moins de  5 % de probabilité d'observer un écart aussi important dans le cas où les 2 phénomènes sont indépendants, d'où  Rejet de Ho et Indépendance.