Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Filtrer les résultats
Une appréciation intuitive de la nature de la corrélation suggérée que le graphique des séries en question devrait établir le rapport de l'une en fonction de l'autre, et ceci, aussi directement que possible. Le diagramme de dispersion répond à ce besoin en effectuant une projection dans l'axe X, et l'autre à Y, pour ensuite faire le nuage des points en fonction de X et Y. Malgré sa nature directe, le nuage de points est fréquemment peu révélateur, même si les séries, elles, ont un rapport très clair. Le nuage ne donne l'image désirée que s'il y est une fonction simple …
La tabulation se situe au tout début de l'informatique, mais elle n'a pas profité autant que d'autres domaines. Il en est ainsi surtout parce que la définition habituelle d'un élément-matrice par un certain nombre d'indices entraîne une programmation aussi lente que lourde, et qui, malgré son coût, ne permet le traitement qu'd'un nombre limité de variables. Pourtant, étant donné les positions contiguës de l'espace-mémoire, rien n'est plus simple que de le parcourir par un seul indice. En se penchant rigoureusement sur ce principe, TAB obtient une énorme économie, concernant l'espace mémoire bien sûr, mais aussi du calcul, et ceci, sans …
La statistique Durbin-Watson se définit par "la somme relative des différences successives et pondérées" de l'ensemble en question, D = SOM(E(K) - E(K - 1))**2)/VAR. Elle est censée indiquer si le coefficient R de l'auto-corrélation du même ensemble sera fort. Autrement dit, au lieu de calculer ce dernier sur lieu, on calcule d'abord le D pour ensuite décider si on devrait calculer le R. Cette procédure double est justifiée si D est ou plus facile à calculer, ou plus révélateur que le R dont il est censé déterminer la présence. Par contre, le R se définit identiquement au D si …
Le programme BAYES est conçu afin de faciliter l'enseignement et l'étude de la statistique décisionnelle, basée sur la loi binomiale, et applicable aux décisions du type "accepter/rejeter" (Schlaifer, 1961; Martel, 1973). Dans le contexte industriel, le programme peut s'avérer préférable à une solution analytique (approximation Normale), due à une interprétation plus facile des résultats. L'usager ne fournit que les données brutes indispensables à la définition des stages successifs de son problème. Le programme s'occupe des travaux suivants: lissage et mise-en-page des probabilités antérieures de distribution arbitraire, et leur révision en fonction d'un échantillon déjà reçu; analyse antérieure, décision terminale, et …
Le lissage d'un modèle de prévision exige le calcul de la matrice F (sommes des temps pour chaque coefficient du modèle). M. Brown (1963-1967) a montré comment on peut calculer la matrice F par une multiplication itérative des temps emmagasinés dans une matrice T. Cette étude développe l'approche de Brown en traitant la matrice T comme un ensemble de vecteurs lignes dont chacun peut être spécifié indépendamment des autres. Ainsi on peut généraliser le calcul automatique de la matrice F, donc le rendre plus efficace.