Aller au contenu
Logo Caradisiac      

Téléchargez nos application

Disponible sur App Store Disponible sur Google play
Publi info
Sécurité

l'interprétation des chiffres : pourquoi se méfier de certaines stats?


Evvas
 Partager

Messages recommandés

Vous êtes dans une relation de proportionnalité sur deux données consécutives,

 

??? Le calcul ci dessus, fait à partir des données réelles est exact, et c'est bien là l'essentiel. Si vous calculez à partir de votre modèle, il est normal que vous obteniez des résultats différents.

 

c' est associer pour le taux de tués 4 valeurs porteuses d' une incertitude aléatoire,...puisque toute cette partie d' aléatoire sur les données...puisque ce rapport embarque l' aléatoire...puisque justement les rapports précédant et suivant ces transitoires embarque l' aléatoire...

 

Avez-vous remarqué que l'histogramme n'est pas du tout celui d'une série aléatoire autour de -5,4%?...Et, le plus important: Avez-vous remarqué qu'il n'y a aucune raison pour que la série soit aléatoire autour de -5,4%?

 

...à savoir que les taux de décrue annuelle, et je parle d' exponentielles sur la durée, tout aussi bien que sur le chiffre de l' exponentielle sur deux dates consécutives, est resté quasiment le même, entre avant et après les ruptures...

 

C'est vrai dans le cadre de votre modèle, mais pas dans la réalité.

 

...avant et après les ruptures identifiées par la modélisation.

 

Nul besoin de modélisation pour repérer les ruptures!

 

Ce que vous faites revient à faire ce que l' ONISR fait sur les chiffres de tués comparés au mois précédent, ou au mois de l' année précédente.

 

Oui l'ONISR ne publie que des chiffres réels et exacts.

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 382
  • Créé
  • Dernière réponse

Participants fréquents à ce sujet

Participants fréquents à ce sujet

Je parlais d'opinion concernant ta position, pas l'hypothèse émise dans le document par son rédacteur.

 

Ce n'est pas une hypothèse, c'est de l'information. C'est la description d'un fait établi, mais pas forcément connu de tous. Après selon chacun, on connaît ou on ne connaît pas, on comprend ou on comprend pas. Et en l’occurrence, compte tenu des explications détaillées, je ne vois pas ce qu'il y a de difficile à comprendre.

 

La prudence veut que l'on s'interroge sur la véracité de toute hypothèse/affirmation. L'as tu fais dans ce cas ? Connais tu des études qui confortent cette affirmation ou au contraire démontrent qu'elle est fausse ?

 

Comme beaucoup d'autres, je n'ai pas attendu ce document pour savoir que la courbe des tués avec sa bosse des années 70, était le produit de la courbe croissante du trafic, et de la courbe exponentielle décroissante du taux kilométrique de tués.

Lien vers le commentaire
Partager sur d’autres sites

Invité §sas058Eg

Ce n'est pas une hypothèse, c'est de l'information. C'est la description d'un fait établi, mais pas forcément connu de tous. Après selon chacun, on connaît ou on ne connaît pas, on comprend ou on comprend pas. Et en l’occurrence, compte tenu des explications détaillées, je ne vois pas ce qu'il y a de difficile à comprendre.

 

 

Un fait établi par qui ? quelles études corroborent cette hypothèse ?

soit tu as des sources fiables pour étayer tes dires, soit c'est une simple hypothèse que tu as découverte dans ce document fourni par papymeche et que tu fais tienne.

 

tu ne réponds jamais aux questions et louvoies en permanence. Pourquoi ?

Lien vers le commentaire
Partager sur d’autres sites

Un fait établi par qui ? quelles études corroborent cette hypothèse ?

 

Un fait n'est pas une hypothèse. La terre est ronde, c'est un fait, je ne sais pas l'expliquer ni par qui il a été établi. Et des études qui confirment ne prouvent rien. Après tu es libre de ne pas y croire.

 

Je ne vois toujours pas ce qu'il y a de difficile à comprendre dans ce document...

Lien vers le commentaire
Partager sur d’autres sites

Invité §sas058Eg

Un fait n'est pas une hypothèse. La terre est ronde, c'est un fait, je ne sais pas l'expliquer ni par qui il a été établi. Et des études qui confirment ne prouvent rien. Après tu es libre de ne pas y croire.

 

Je ne vois toujours pas ce qu'il y a de difficile à comprendre dans ce document...

 

ai je écrit qu'il y avait quelque chose de difficile à comprendre dans le document ?

si oui, peux tu me citer le message en question ?

 

certains ont affirmés que la terre était plate. C'était un fait. Tout le monde le relayait en disant que c'était un fait. D'autres ont démontré par l'observation, par des calculs, qu'elle était "ronde". C'est devenu un fait.

Un des deux faits est faux.

 

Pour avoir regardé un peu plus le document , en particulier la section 3, je trouve assez heureux le "hasard" qui fait que l'auteur parvienne à prouver qu'en 2002, on courait à la catastrophe si rien n'était fait en matière de répression.

Et ce, par le jeu d'extrapolations exponentielles sur des longues durées que tu décries tant quand c'est papymeche qui les utilise.

 

C'est selon moi, en contradiction avec le modèle d'apprentissage présenté (très succintement)

 

et l'analyse me semble sujette à caution puisque fortement influencée par la période 1998-2002 qui était exceptionnelle dans son évolution

Lien vers le commentaire
Partager sur d’autres sites

??? Le calcul ci dessus, fait à partir des données réelles est exact, et c'est bien là l'essentiel. Si vous calculez à partir de votre modèle, il est normal que vous obteniez des résultats différents.

 

 

Oui. Excel est capable de fournir 15 chiffres significatifs. Donc partant de chiffres réputés exacts (c' est a dire sans inclusion d' aléatoire), alors l' approximation d' un calcul exact est de 1E-15.

Je chipote je sais. Mais j' aime chipoter.

 

Avez-vous remarqué que l'histogramme n'est pas du tout celui d'une série aléatoire autour de -5,4%?...Et, le plus important: Avez-vous remarqué qu'il n'y a aucune raison pour que la série soit aléatoire autour de -5,4%?

 

 

 

Ben oui j' ai remarqué, mais avez vous essayé de faire la moyenne des rapports que vous avez trouvé (Erreur ! Qu' Excel a calculé selon

val(n-1)/val(n)-1. Pas oublier le "1", si non vous n' auriez pas de %)

Je ne peux pas le faire sur ce petit ordinateur. Mais j' ai l' impression, qui n' est pas une certitude jusqu' à ce que le calcul soit fait, que vous allez tomber pas loin de -5,4%. Mais bon.

De plus si vous utilisez l' outil qui permet de faire du classement de distribution autour de la moyenne, vous aurez déjà une bonne impression de la nature de cette distribution. Les points jouxtant le transitoire CSA seront sans doute très à l' écart...

Après voir si c' est comme je le pense une distribution centrée sur -5,4%, c' est un autre calcul qu' Excel ne réalise pas directement, à ma connaissance. (Mais je sais à peine me servir d' Excel)

 

C'est vrai dans le cadre de votre modèle, mais pas dans la réalité.

 

 

Ah quand même...

Et si en plus vous faites la moyenne des rapports vous allez tomber sur une probable réalité. (Probable et réalité, je chipote je sais)

Nul besoin de modélisation pour repérer les ruptures!

 

 

Ca se discute, celle de la crise OPEP n'apparaît pas très clairement.

Toute rupture de pente de décrue pas très fortement non plus. Mais que voulez vous, si on part d' une quasi droite (cas des exponentielles en coordonnées log-lin), ça se voit mieux. Et si en plus vous cherchez les écarts par rapport à une exponentielle dorsale, ça se voit encore mieux.

 

Oui l'ONISR ne publie que des chiffres réels et exacts.

 

 

Il ne sont pas exact. ils représentent la meilleure connaissance d' un nombre qui embarque une partie d' aléatoire.

Réduite pour le Nb de tués, ou il semble que la précision serait absolue à 1 près maintenant, mais pas pour les années ou les tués étaient comptabilisés à 6 jours.

Inconnue pour le volume circulé, mais j' ai quand même ma petite idée sur ce sujet.

 

Un nombre exact est un nombre dépourvu d' incertitude.

Vous diriez "les chiffres publiés par l' ONISR sont fiables", je l' admettrai volontiers. Mais que vous disiez qu' ils sont réels et EXACTS, je ne l' admet pas pour le second terme. Réels probablement.

 

Je chipote je sais ! J' adore chipoter.

Pas vous ?

Lien vers le commentaire
Partager sur d’autres sites

@PasNascutDeRes Avez vous essayé de faire la moyenne ?

 

Je ne peux pas le faire sur ce petit ordinateur. Mais j' ai l' impression, qui n' est pas une certitude jusqu' à ce que le calcul soit fait, que vous allez tomber pas loin de -5,4%. Mais bon.

De plus si vous utilisez l' outil qui permet de faire du classement de distribution autour de la moyenne, vous aurez déjà une bonne impression de la nature de cette distribution. Les points jouxtant le transitoire CSA seront sans doute très à l' écart...

Après voir si c' est comme je le pense une distribution centrée sur -5,4%, c' est un autre calcul qu' Excel ne réalise pas directement, à ma connaissance.

 

J' ai fait cette moyenne sur le PC source.

Et bien sûr, en ne prenant que la partie descendante du taux de tués (à partir de 1953), je suis retombé sur -5,4% comme moyenne des rapports [Tx(n-1)/Tx(n)-1]

Et bien sûr pour les 4 rapports avant 1953, on tombe à une valeur de +6%, proche des +4,6% de la première exponentielle de la modélisation sur 5 exponentielles, dont 3 à taux de décrue annuelle de -5,4%.

J' ai également recherché la distribution. Elle est comme attendu quasiment centrée. Mais avec écart type 3 fois élevé par rapport à une modélisation fine.

 

Alors vous achetez ? Ou restez vous bloqué dans une analyse incorrecte ?

 

Edit : Notez que je n' ai pas parlé de calculs incorrects, mais d' une utilisation incorrecte de ces calculs. (Un peu comme le font tous les organismes collectant les données de l' accidentologie)

Lien vers le commentaire
Partager sur d’autres sites

Je chipote je sais. Mais j' aime chipoter.

 

Et si en plus vous faites la moyenne des rapports vous allez tomber sur une probable réalité. (Probable et réalité, je chipote je sais)

 

Je chipote je sais ! J' adore chipoter. Pas vous ?

 

Adepte du chipotage?

 

Plus exactement je dirais: Adepte du tortillage du cul pour chier droit, ou encore de façon plus pragmatique, des missions impossibles.

 

Malgré toutes mes remarques, l'évidence des données réelles, mon bel histogramme et surtout, surtout malgré l'absence totale de la moindre raison, vous croyez toujours dur comme fer que la série est aléatoire autour de -5,4 %. En conséquence, dans votre calcul sur le CSA vous remplacez les valeurs réelles par celles de votre modèle à -5,4 %, comme on peut le voir colonne "Modèle Exp 1998-2002" et colonne "Modèle Exp 2003-2013" . (Alors qu'en principe, un modèle sert à faire de la prospective quand on n'a pas de données...)

 

Soit! C'est votre choix, et il est particulièrement original, je vous l'accorde.

 

Mais avez-vous bien conscience que ça revient à dire que l'effet du CSA s'est arrêté en 2003, et a duré environ 1 an (Hypothèse H2)? Où êtes vous allé chercher pareille idée? Aucun média n'en parle, même pas les plus moisis cités par le grand spécialiste du forum...

 

Tout de même un gros point positif pour vous: Personne ne pourra jamais vous accuser de plagiat!

Lien vers le commentaire
Partager sur d’autres sites

C'est faux, mais ce n'est pas la valeur - 5,4% qui est en cause.

 

 

L'histogramme permet de voir que c'est faux quelle que soit la valeur.

 

 

Cet histogramme, que je vois enfin en totalité, montre que comme attendu la moyenne est de -5,4% par an.

Ces -5,4% par an, quoique acquis par une méthode qui est grossière par rapport à celle que j' utilise, sont précisément le taux de décrue annuelle de 3 des 5 exponentielles qui peuvent modéliser sur la durée le taux de tués au Md de véh*km. J' espère que sur ça on est quasiment d' accord.

 

Qui plus est l' histogramme montre visuellement que la distribution autours de -5,4% est de nature normale.

Bien sûr vous avez à gauche le point correspondant à 2002/2003 lequel correspond à une rupture de taux de tués au Md de véh*km "sortant" exagérément de la distribution que vous me proposez (les rupture1973-1974 et 1997-1998 sont invisibles)

Ce point à gauche vous obscurcit la vue quant a l' aspect Poisson/Gauss de la distribution.

 

Comparer une valeur porteuse d' aléatoire, comme tous les points de cette distribution, à la moyenne de -5,4%, et dire que c' est faux quelque soit la valeur parce qu' aucun des points (ou très peu) ne donne -5,4% relève d' une déficience mathématique de base dans la gestion de l' aléatoire.

 

Je vous ménage autant que je peux dans les termes. Alors évitez ceci !

Plus exactement je dirais: Adepte du tortillage du cul pour chier droit, ou encore de façon plus pragmatique, des missions impossibles.

Lien vers le commentaire
Partager sur d’autres sites

Invité §sas058Eg

 

 

Comparer une valeur porteuse d' aléatoire, comme tous les points de cette distribution, à la moyenne de -5,4%, et dire que c' est faux quelque soit la valeur parce qu' aucun des points (ou très peu) ne donne -5,4% relève d' une déficience mathématique de base dans la gestion de l' aléatoire.

 

 

il est vrai que l'histogramme ressemble pas mal à un poisson. il lui manque juste l'arête centrale

Lien vers le commentaire
Partager sur d’autres sites

soit tu as des sources fiables pour étayer tes dires,...

 

...Soit la question n'a pas de sens pour moi, puisque fiable c'est subjectif.

 

Effectivement, il peut toujours y avoir quelque chose de vrai dans le média le plus moisi. Tout comme il peut y avoir quelque chose de faux dans un média officiel. C'est à chacun de s'informer et d'exercer son libre arbitre.

 

...soit c'est une simple hypothèse que tu as découverte dans ce document fourni par papymeche et que tu fais tienne.

 

...Soit c'est un fait banal et je le connaissais bien avant...

 

Ce qui m'intéresse, et ce qui fait avancer la discussion, c'est savoir si l'hypothèse est fausse. Pas l'âge du capitaine.

Lien vers le commentaire
Partager sur d’autres sites

ai je écrit qu'il y avait quelque chose de difficile à comprendre dans le document ?

si oui, peux tu me citer le message en question ?

 

Je n'ai jamais dit ça.

 

Aujourd'hui, l'amélioration permanente de la sécurité telle que le montre la courbe me paraît évidente. Et j'ai cité ce document trouvé par @Papymeche2 parce que à mon sens, il explique très bien le principe. Je n'ai pas regardé le reste, ce n'est pas le sujet.

 

"Un fait établi par qui ?"

"quelles études corroborent cette hypothèse ?"

"tu ne réponds jamais aux questions et louvoies en permanence. Pourquoi ?"

 

L'amélioration continue de la qualité dans l'industrie en général, est un fait qui parle à beaucoup de monde. Pour moi la comparaison est pertinente, mais au vu de tes questions et de tes remarques, je suppose que ce n'est pas ton cas. Donc je me demande ce qu'il y a de compliqué à comprendre, puisque tu ne le dis pas. Et tant que tu ne le diras pas, je ne pourrai pas répondre. Ou vaguement, ou à coté.

Lien vers le commentaire
Partager sur d’autres sites

j'ai également fait ceci :

 

 

 

 

j'ai pris des périodes de 5 ans et regardé avec excel la tendance donnant le meilleur R^2

 

on voit :

une pente assez marquée début 90

puis un tassement à partir du milieu des années 90 jusqu'à 2002

une forte pente depuis 2003 qui va en se tassant.

 

les dates de début de période choisies pour tomber sur 2003 comme début de période

 

 

@sasq0 : Désolé mais même sur mon grand écran je n' arrive pas à voir les echelles temps.

Pouvez vous séparer les photos ?

Lien vers le commentaire
Partager sur d’autres sites

Invité §sas058Eg

Je n'ai jamais dit ça.

 

non, tu insinues que je ne comprends pas cet aspect du document parce que je m'interroge sur sa pertinence.

 

ce qui revient à de la réthorique assez basique "tu comprends rien, c'est moi qui ai raison".

c'est assez puérile et peu interessant

 

 

 

L'amélioration continue de la qualité dans l'industrie en général, est un fait qui parle à beaucoup de monde. Pour moi la comparaison est pertinente, mais au vu de tes questions et de tes remarques, je suppose que ce n'est pas ton cas. Donc je me demande ce qu'il y a de compliqué à comprendre, puisque tu ne le dis pas. Et tant que tu ne le diras pas, je ne pourrai pas répondre. Ou vaguement, ou à coté.

j'ai clairement expliqué en quoi j'étais réticent à ce parallèle.

Maintenant, il est évident que la qualité d'un produit s'améliore dans le temps. Pour peu que ce produit ne soit pas remanié.

Mais en matière de SR, on ne parle pas de produit. On parle de comportements humains qui sont très difficilement modelables.

Lien vers le commentaire
Partager sur d’autres sites

je sais très bien que ce n'est pas ta méthode.

par contre, cette représentation n'est pas moins juste.

 

plus on choisit de longues périodes, plus on moyenne le résultat, faisant disparaitre les variabilités.

ainsi sur 2003 - 2015, on obtiendra une exp. de taux 4,9

alors que ma méthode en cindant en 3 cette période montre que ce taux n'est pas constant mais décroît de 7,2 à 4,1 puis repart sur une tendance haussière

 

Cela pourrait mettre en relief une perte dans le temps de l'effet CSA avec un point d'inflexion en 2013

 

autre proposition :

regarder ce que donnent des périodes glissantes de 5 ans

2003 - 2007 => 7,2%

2004 - 2008 => 6,6%

2005 - 2009 => 5,1%

2006 - 2010 => 4,1%

2007 - 2011 => 4,1%

2008 - 2012 => 4,6%

2009 - 2013 => 6,9%

 

montrant cette perte d'efficacité jusqu'à 2011 puis un regain en 2012 et 2013

 

je m'arrête sur cette période :

je reste persuadé que le chiffre de tués 2013 est une anomalie.

construire des périodes s'arrêtant à ce point est il me semble une erreur.

 

 

5 ans glissant me semble un peu court pour éliminer autant que faire se peut la partie aléatoire.

Vous allez me dire que j' ai tracé une exponentielle au mieux de points 1998 à 2002 soit 5 ans aussi. Mais coup de bol, la dispersion était inférieure à la plupart des dispersions des tranches que vous avez choisies.

 

2013 me semble moi aussi un peu éloigné de la tendance générale. Mais largement dans les 3 sigma de mon modèle fin.

 

Ce choix des points de départ et d' arrêt est délicat, et peut dépendre de la perception de chacun.

 

Dans cette file :

http://forum-auto.caradisiac.com/automobile-pratique/securite/sujet396122.htmhttp://forum-auto.caradisiac.com/automobile-pratique/securite/sujet396122.htmhttp://forum-auto.caradisiac.com/automobile-pratique/securite/sujet396122.htmCette url n'existe plus

je suis arrivé à un écart type de 3.2%, représentant la dispersion aléatoire sur 60 ans. Cette dispersion est de forme gaussienne (manque une planche dans la file en question montrant l' évolution des distributions en fonction du raffinement du modèle. Je vais la rajouter quand j' aurai éliminé les scories)

Sur 5 ans en prenant cet écart type qui ne peut être que supérieur à celui d' une modélisation parfaite (ce qui n' est pas le cas, car impossible à faire autrement qu' en approchant au mieux sur des périodes supérieures à un dizaine/quinzaine d' années, on pourrait dire que cet écart type concerne après 2003 une dizaine de points. En conséquence on pourrait sans trop se poser de questions de principe dire, que l' écart type sur 5 ans serait de 3.2*(10/5)^0.5 # 5%

 

Édit : corrections orthographiques

Lien vers le commentaire
Partager sur d’autres sites

Invité §sas058Eg

 

5 ans glissant me semble un peu court pour éliminer autant que faire se peut la partie aléatoire.

Vous allez me dire que j' ai tracé une exponentielle au mieux de points 1998 à 2002 soit 5 ans aussi. Mais coup de bol, la dispersion était inférieure à la plupart des dispersions des tranches que vous avez choisies.

 

oui, j'allais le dire :jap:

 

en prenant de longues périodes, on moyenne tout, même des variations réelles de tendance au sein de la période.

C'est ce que je voulais mettre en lumière.

Lien vers le commentaire
Partager sur d’autres sites

oui, j'allais le dire :jap:

 

en prenant de longues périodes, on moyenne tout, même des variations réelles de tendance au sein de la période.

C'est ce que je voulais mettre en lumière.

 

 

@sasq0 :C' est bien pour ça qu' il faut raisonner modèle.

Un modèle c' est une progression interactive entre intuition et calculs empiriques pour réduire au mieux les écarts entre le modèle en cours et l' observable.

Sur une série de 60 points successifs, partitionner sur 59 segments, n' apporterait rien d' autre qu' une observation d' écarts dans le temps entre deux points successifs de la série. Mais alors à quoi servirait de savoir si ça monte ou ça descend si on ne peut pas relier çà à des paramètres les provoquant.

Ou alors, ça voudrait dire que le modèle était déjà connu et qu' il comportait n fois 60 paramètres différents. Quel intérêt de faire un modèle d' un modèle déjà connu et aussi complexe ?

 

Le tableau @PasNascutDeRes avec le graphe des écarts, MAIS avec le chiffre de la moyenne des écarts à -5,4% est le premier pas d' une modélisation du genre exponentielle

Lien vers le commentaire
Partager sur d’autres sites

 

Maintenant, il est évident que la qualité d'un produit s'améliore dans le temps. Pour peu que ce produit ne soit pas remanié.

Mais en matière de SR, on ne parle pas de produit. On parle de comportements humains qui sont très difficilement modelables.

 

 

 

En matière de SR on parle aussi de produit...A mon avis.

Le véhicule est un produit, et nul doute qu' il s' améliore et ne régresse pas.

Le réseau routier est un produit également. L' infrastructure s' améliore pour faire face à l' augmentation du volume circulé.

Certes il y a les comportements humains dans leur très grande diversité. Mais j' ai bien peur qu' ils soient très difficilement modifiables.

 

Pour en revenir à l' interprétation des chiffres, si on revient aux chiffres de tués qui figurent dans le tableau page précédente, j' ai vu en croisant les données ONISR depuis 1970 et les données déroulantes d' une infographie TF1 qui donnait les donnaient de 1948 à 2000 qu' il y avait quelques disparités. C' est un premier constat.

Je pense que les données de l' infographie ne sont pas de première bourre, et je vais devoir rectifier les valeurs post 1970 avec celles de l' ONISR et garder celle de l' infographie TF1 (avec certains glanages de droite et gauche) pour 1948 à 1970. De toutes façons l' ONISR n' a jamais produit de rétropolage de données avant 1970. Mais je ne pense pas que cela change grand chose sur les tendances

 

Autre constat. J' ai voulu prolonger les courbes de tués mensuels lesquelles n' explorent pas les dates avant 1970 (données ONISR (*)) par le nombre de tués annuel ramené au mois (division simple par 12 du nombre annuel).

Ca ne devient cohérent qu' en calant les données annuelles à #-6 mois (#-165 jours, car ce Pb de décalage existe aussi pour les données mensuelles lesquelles doivent être décalées de #-15 jours) par rapport aux données mensuelles. C' est juste un décalage d' échelle à mettre en place.

Ca m' a surpris car je n' y avait pas pensé avant, mais ça ne change rien quant aux décrues du taux de tués au Md de véh*km.

 

Ca montre cependant qu' il faut se méfier des chiffres et de la manière de les utiliser.

 

Edit : En faisant des recherches, j' ai vu que les données sont tabulées Excel dans ce doc de l' ONISR (*)

http://www.securite-routiere.gouv.fr/content/download/37024/353723/version/1/file/Evolution+compar%C3%A9e+de+1952-2016.xls

je vais reprendre avec ces données puisque "officielles".

A noter qu' il y a aussi le taux de tués dans le tableau Excel de l' ONISR.

Ca faisait longtemps que je n' avais pas été dans les profondeurs des données proposées par l' ONISR. Je ne peux que constater cette amélioration.

Ne reste plus pour l' ONISR que de faire une présentation en log-lin du taux de tués pour que chacun puisse se rendre compte de la particularité de la décroissance exponentielle, que l' on retrouve aussi sur d' autres séries longues étrangères.

Lien vers le commentaire
Partager sur d’autres sites

Invité §sas058Eg

 

En matière de SR on parle aussi de produit...A mon avis.

Le véhicule est un produit, et nul doute qu' il s' améliore et ne régresse pas.

Le réseau routier est un produit également. L' infrastructure s' améliore pour faire face à l' augmentation du volume circulé.

 

c'est exactement ce que j'ai écrit dès le debut (2 ou 3 pages avant)

Lien vers le commentaire
Partager sur d’autres sites

c'est exactement ce que j'ai écrit dès le debut (2 ou 3 pages avant)

 

 

 

Certes mais pas page précédente.

 

J' ai édité ce que j' avais écrit hier en ajoutant ceci.

http://www.securite-routiere.gouv.fr/content/download/37024/353723/version/1/file/Evolution+compar%C3%A9e+de+1952-2016.xls

 

 

Edit : En utilisant les données du fichier ONISR (*), et avec les même tanches de temps, le taux de décrue du taux annuel passe de 5,43% par an à 5,39% par an. Ca affecte marginalement l' écart type de la modélisation fine qui passe de 0,032 à 0,033.

(*) sauf le chiffre provisoire de tués 2016 frappé de probable surestimation, pour lequel j' ai pris ce que dit l' ONISR dans le rapport 2016.

Lien vers le commentaire
Partager sur d’autres sites

Je vous ménage autant que je peux dans les termes. Alors évitez ceci ! Plus exactement je dirais: Adepte du tortillage du cul pour chier droit, ou encore de façon plus pragmatique, des missions impossibles.

 

Pourtant, je trouve que cette version du dicton est un excellent compromis entre la version réduite, qui manque de force et de précision, et la version complète.

 

Suite à votre calcul, que j'ai pris le temps de vérifier: "Papymeche2 utilise arbitrairement le taux unique de -5,4% avant et après"

et pour attirer votre attention sur l'erreur de calcul, je vous ai parlé de "légende H2". Vous m'avez demandé aussitôt de supprimer le mot légende, et je l'ai fait d'autant plus volontiers qu'il n'était pas particulièrement approprié: Une légende ne peut être le fait d'une seule personne.

 

Ensuite...Rien! Vous n'avez toujours pas répondu sur le sujet. Je n'ai donc pas réussi à éveiller le moins du monde votre curiosité sur la totale incohérence de cette hypothèse H2. Mais au moins j'aurais essayé. Trop lourdement à votre goût peut être, mais j'aurais essayé.

Lien vers le commentaire
Partager sur d’autres sites

Bonjour @PasNascutDeRes

 

Je veux bien admettre que je n' ai pas la fibre enseignante et que mes explications s' en ressentent. Je ne sais pas faire mieux.

Encore une fois, raisonner comme vous le faites avec des chiffres porteurs d' aléatoire, c' est aboutir à des conclusions qui bien que paraissant "justes", sont en fait erronées.

 

Avez vous quelqu' un dans votre entourage qui pourrait vous expliquer tout ça de vive voix mieux que je ne le fais ?

Lien vers le commentaire
Partager sur d’autres sites

DateTuésVéh*kmTués/Véh*km
1948376820,4184,34
1949412621,6191,46
1950478023,8201,18
1951529527,0196,40
1952723931,4230,32
1953835836,1231,59
1954879644,7196,82
1955939851,3183,30
1956966156,7170,42
1957993464,3154,52
1958947872,2131,26
1959980879,5123,32
1960967587,1111,04
19611066096,4110,55
196211579104,0111,34
196311695112,6103,86
196412952126,4102,47
196514171136,8103,59
196614180149,894,66
196714808162,591,13
196815559175,888,50
196915984186,085,94
197016387202,381,00
197117506218,580,12
197218034234,876,81
197316861254,366,30
197414526254,157,17
197514160265,553,33
197614799276,253,58
197714127283,449,85
197813033299,943,46
197913295307,743,21
198013636317,143,00
198113287330,340,23
198213113338,138,78
198312728346,436,74
198412562353,935,50
198511387357,131,89
198611997368,732,54
198710742376,928,50
198811497402,628,56
198911476414,027,72
199011215430,026,08
199110485443,623,64
19929900454,121,80
19939568455,021,03
19949019465,319,38
19958891476,418,66
19968541482,417,71
19978444491,717,17
19988918507,017,59
19998487523,116,22
20008079525,815,37
20018160545,414,96
20027655552,713,85
20036058556,910,88
20045593559,99,99
20055318556,09,56
20064709555,08,48
20074620560,08,25
20084275552,07,74
20094273551,07,75
20103992561,37,11
20113963565,07,01
20123653565,36,46
20133268567,85,76
20143384572,45,91
20153461584,95,92
20163424584,95,85

 

 

Attention : Ce tableau était celui que j' utilisais avant de trouver un tableau produit par l' ONISR.

Peu de différences avec celui que l' on trouve ici, mais qui est "plus officiel". J' ai donc fait la mise à jour de mes fichiers avec ce que diffuse l' ONISR.

http://www.securite-routiere.gouv.fr/content/download/37024/353723/version/1/file/Evolution+compar%C3%A9e+de+1952-2016.xls

Il suffit de cliquer sur le lien pour le rapatrier sur son PC

Lien vers le commentaire
Partager sur d’autres sites

@PasNascutDeRes

@PasNascutDeRes : Je reviendrai sur le doc Blais Carnis plus tard en précisant mes hypothèses. Et en rajoutant un tableau non présenté.

Ce sera sur la file en question.

Mais pour le moment, on reste sur ce sujet

 

Je pense que vous n' achèterez toujours pas (en référence à ce que vous m' avez répondu précédemment) mais je vais essayer de vous faire comprendre à nouveau qu' on ne peut ou doit pas raisonner sur des chiffres d' années contiguës quand ils sont porteurs d' aléatoire et parfois même sujets à rupture entre avant et après.

 

Voici une planche que vous pourriez peut-être "acheter", pas les yeux fermés certes, mais en les ouvrant.

*****************************************************************************************************************

 

***************************************************************************************************************

Si vous vous reportez aux planches de cette file

Cette url n'existe plus

vous trouverez les distributions relatives au trois types de modélisation que j' ai développé. Ca n' a pas été immédiat, et il a fallu polir la modélisation. (quand on fait ce travail, il faut être humble et admettre qu' on ne réussit pas du premier coup)

- modélisation sur une exponentielle dorsale unique sur 60 ans,

- modélisation sur une succession de 5 exponentielles sur cette même durée,

- modélisation via les écarts à la dorsale unique et la segmentation ci dessus dont je rappelle qu' ils se rapportent à sept exponentielles aboutées.

et une tentative d' échelage de ces distributions sur une vraie gaussienne centrée.

 

Entre les différents écarts types restitués directement via les outils Excel ou par échelage vous verrez qu' il peut y avoir un rapport de 3 entre la modélisation sur simple dorsale, et la modélisation fine. Imaginez un peu les chiffres du tableau précédent si au lieu d' utiliser un écart type voisin de 0,033, j' avais utilisé celui de la modélisation de la dorsale.

 

Je ne l' ai pas fait, car c' eut été vous vendre de la camelote comme un bonimenteur patenté.

En effet cette dorsale, si elle est très expressive, ne tient pas compte des ruptures (quand on fait un tel travail, il faut nécessairement tenir compte des ruptures), et n' est pas suffisamment proche de l' observable pour éliminer la plus grande partie de l' indétermination aléatoire (quand on fait un tel travail, il faut être le plus proche possible de l' observable)

 

J' ajouterai, car vous m' avez servi l' argument au travers de votre propre distribution [Tx(n)/Tx(n+1)]/Tx(n+1), qu' il est normal qu' aucun des résultats servis ne soit égal à -5,4% par an puisque justement, sauf coup de bol, c' est une distribution autour d' un centre que vous avez d' ailleurs bien calculé à -5,4%.

 

Il ne fait pas très beau, mais je vais prendre l' air.

Lien vers le commentaire
Partager sur d’autres sites

@PasNascutDeRes

 

Que diriez vous d' une nouvelle pièce dans le bastringue ?

Voici un tableau Excel qui devrait vous permettre de tester votre méthode d' analyse si j' ai bien compris vos calculs [Tx(n)/Tx(n+1) - 1] et votre présentation de distribution

 

D' abord le tableau, pour voir s' il passe sur la file, et les explications de ce qu' il représente s' il passe.

 

Colonne 1Colonne 2Colonne 3Colonne 4
DateDorsalePlus squelettePlus peau
1948257,48175,03162,28
1949243,62191,04195,70
1950230,50204,82198,83
1951218,08216,56230,76
1952206,34226,45218,35
1953195,23220,40224,55
1954184,71200,88199,90
1955174,76182,82197,62
1956165,35166,12155,77
1957156,45150,70161,29
1958148,02136,45130,97
1959140,05123,30105,09
1960132,51115,3497,82
1961125,37111,84115,43
1962118,62108,37109,02
1963112,23104,96123,49
1964106,19101,6089,28
1965100,4798,2993,41
196695,0695,0588,54
196789,9491,8787,83
196885,0988,7684,44
196980,5185,7276,13
197076,1782,7482,69
197172,0779,8478,73
197268,1977,0283,39
197364,5263,7867,08
197461,0460,3453,18
197557,7657,0958,33
197654,6454,0253,78
197751,7051,1156,72
197848,9248,3643,91
197946,2845,7545,71
198043,7943,2942,60
198141,4340,9642,32
198239,2038,7542,01
198337,0936,6639,12
198435,0934,6933,18
198533,2032,8236,65
198631,4131,0529,56
198729,7229,3825,99
198828,1227,8027,38
198926,6126,3025,91
199025,1724,8925,57
199123,8223,5522,20
199222,5422,2823,68
199321,3221,0821,35
199420,1719,9420,52
199519,0918,8719,48
199618,0617,8518,46
199717,0916,8915,07
199816,1717,6114,87
199915,3016,6615,19
200014,4715,7614,70
200113,6914,9214,04
200212,9514,1113,63
200312,2610,528,33
200411,609,9510,58
200510,979,428,17
200610,388,919,83
20079,828,439,36
20089,297,988,83
20098,797,557,62
20108,327,147,55
20117,876,766,05
20127,456,396,78
20137,056,056,76
20146,675,886,09
20156,315,876,29
20165,975,836,16

 

Les 4 premières colonnes (1 à 4) correspondent à la création d' un "Taux test". Le but est d' utiliser le modèle fin du taux de tués réel débarrassé de son bruit aléatoire propre, pour injecter un bruit aléatoire test sur la segmentation à 7 segments présentée un peu avant.

 

On part d' une "dorsale" exponentielle décroissante colonne 2,

 

On greffe sur cette dorsale les écarts moyens entre les 7 segments de la segmentation. On a ainsi un squelette dénué de bruit.

 

On installe ensuite la peau de ce squelette, peau qui est en fait le bruit aléatoire que l' on rajoute.

 

Vous avez ainsi la possibilité de tester votre [Tx(n)/Tx(n+1) - 1] sur chacune de ces 3 colonnes et d' établit les distributions correspondantes.

 

Vous devriez voir ce que ça fait et combien votre [Tx(n)/Tx(n+1) - 1] est insuffisant pour faire de la prospective ou de la rétrospective dans une série longue.

Les 4 colonnes suivantes (5 à 8) correspondent à la vérification de la bi univocité des transformations qui m' ont permis de déterminer un modèle fin du taux de tués réel (Nb tues/Volume circulé) tel que je l' ai présenté un peu avant.

Colonne 5Colonne 6Colonne 7Colonne 8
DateTx réelReconst TxEcart relatif
1948184,34184,34-4,088E-07
1949191,46191,46-3,706E-07
1950201,18201,18-3,336E-07
1951196,40196,40-3,160E-07
1952230,31230,31-2,650E-07
1953231,58231,58-2,463E-07
1954196,75196,75-2,546E-07
1955183,31183,31-2,479E-07
1956170,41170,41-2,413E-07
1957154,51154,51-2,385E-07
1958131,25131,25-2,462E-07
1959123,32123,32-2,369E-07
1960111,04111,04-2,343E-07
1961110,55110,55-2,156E-07
1962111,34111,34-1,965E-07
1963103,86103,86-1,882E-07
1964102,47102,47-1,731E-07
1965103,59103,59-1,562E-07
196694,6694,66-1,501E-07
196791,1291,12-1,389E-07
196888,5088,50-1,271E-07
196985,9385,93-1,157E-07
197081,0081,00-1,067E-07
197180,1280,12-9,470E-08
197276,8176,81-8,498E-08
197366,3066,30-8,073E-08
197457,1757,17-7,584E-08
197553,3553,35-6,638E-08
197653,5853,58-5,398E-08
197749,8549,85-4,471E-08
197843,4643,46-3,684E-08
197943,2143,21-2,550E-08
198043,0043,00-1,488E-08
198140,2340,23-5,158E-09
198238,7838,784,620E-09
198336,7436,741,432E-08
198435,5035,502,369E-08
198531,8931,893,444E-08
198632,4032,404,228E-08
198728,5028,505,432E-08
198828,5628,566,182E-08
198927,7227,727,017E-08
199026,7226,727,859E-08
199124,4824,488,974E-08
199222,4722,471,012E-07
199321,4321,431,103E-07
199419,8419,841,217E-07
199519,0919,091,299E-07
199618,1518,151,391E-07
199717,5417,541,467E-07
199817,8917,891,487E-07
199916,5016,501,603E-07
200015,5915,591,697E-07
200115,1415,141,758E-07
200213,9713,971,879E-07
200310,9610,962,235E-07
200410,0410,042,392E-07
20059,599,592,481E-07
20068,488,482,713E-07
20078,238,232,775E-07
20087,747,742,896E-07
20097,747,742,891E-07
20107,127,123,054E-07
20117,017,013,074E-07
20126,486,483,232E-07
20135,765,763,490E-07
20145,915,913,399E-07
20155,925,923,371E-07
20165,805,803,390E-07

On part du taux réél, on passe par les différentes étapes qui ont conduit au modèle fin, ca qui donne la dorsale le squelette, et l' aléatoire résiduel.

 

On fait maintenant une reconstruction du taux de tués tout comme on l' a fait pour générer un Taux test, mais cette fois ci en réintroduisant l' aléatoire résiduel déterminé précédemment, au lieu d' un aléatoire test.

 

Puis on déroule la recherche de la meilleure modélisation possible avec la même méthode que celle qui a conduit à la modélisation fine présentée.

 

Les valeurs numériques du Taux réel et du Taux reconstruit figurent en colonnes 6 et 7.

La colonne 8 présente l' écart relatif entre Taux réel et Taux reconstruit.

Ca tourne dans le +/- 5E-7 et montre aux arrondis à 15 chiffres significatifs d' un calcul Excel standard, que ce calcul est bi univoque, que l' on cherche un modèle fin d' une série de données Taux, ou qu' on reconstitue un taux à partir du modèle fin précédent (dorsale+segmentation+aléatoire irréductible)

En faisant çà j' ai vu qu' il y avait un bogue sur la détermination du taux de décrue annuel du Taux de tés. Ca n' impacte pas les données, car ce chiffre est une sortie secondaire de la recherche des exponentielles des différents modèles, celle ci se faisant sur la "constante de temps" de l' exponentielle (passage de 1 à 1/e ou 1 à 1/2,718). Ce serait suffisamment faible pour que je n' ai pas besoin de rectifier les planches produites un peu partout (intervient sur le 2° chiffre significatif des décrues. 5,4% devient 5,6%). Je le ferai en tâche de fond.

 

Édit : j' ai un peu trop forcé sur l' ajout d' aléatoire, mais ça ne change rien aux principes.

Présence limitée aux accès Wifi occasionnels pour une dizaine de jours. Le dur labeur des retraités :)

Lien vers le commentaire
Partager sur d’autres sites

non, tu insinues que je ne comprends pas cet aspect du document parce que je m'interroge sur sa pertinence.

 

Ce n'est pas moi qui vais te reprocher de te poser des question!

 

Je n'insinue rien du tout. Pour moi, le document traduit de façon graphique le fait qu'on n'arrête pas le progrès, et que l'amélioration est pratiquement permanente. Cette amélioration de quelques centièmes par an, donne à l'indicateur l'allure d'une courbe exponentielle décroissante depuis l'origine. Et c'est ce qu'on constate jusqu'en 2013:

 

 

C'est tout, et je ne précise même pas si c'est facile ou difficile à comprendre: C'est un fait.

 

Par contre avec cet indicateur, on ne peut pratiquement rien dire sur la contribution respective des multiples facteurs de cette évolution.

Lien vers le commentaire
Partager sur d’autres sites

Par contre avec cet indicateur, on ne peut pratiquement rien dire sur la contribution respective des multiples facteurs de cette évolution.

 

Idem pour l'indicateur officiel du nombre de tués.

 

Sauf que celui-ci est disponible et publié tous les mois (contrairement au taux). On peut raisonnablement imaginer que les responsables SR disposent cet indicateur de manière hebdomadaire pour le suivi et le pilotage des mesures de sécurité. Le trafic étant météo-sensible, l'analyse mensuelle précise souvent les conditions météorologiques.

Lien vers le commentaire
Partager sur d’autres sites

Toujours absent de la file ?

 

Non, mais je ne peux pas être partout. Je vous cite:

 

"Significatif" serait supérieur à 2% par an sur la décroissance du Taux de tués au Md de véh*km, le transitoire éclusé. Le transitoire éclusé signifie que connaissant la décroissance antérieure à l' application de la mesure, acquis sur modélisation au plus près du Tx de tués (et qui est actuellement de #0% par an), reprenne sur une décrue annuelle "stable", toujours acquise sur une modélisation au plus près du Tx de tués.

 

La modélisation au plus prés est nécessaire pour évacuer "au mieux" le contenu aléatoire que portent les chiffres annuels. On ne peut et surtout, on ne doit pas faire ce genre de chose en considérant les chiffres de l' année (N-1) et ceux de l' année (N) Un fois ce travail de modélisation effectué, et seulement après avoir effectué ce travail, on peut estimer l' impact de la mesure.

 

D' autres explications ?

Oui, avec parcimonie.

 

Tout d'abord, la baisse de l'accidentalité liée à une mesure, n'existe que pendant le déploiement de cette mesure. Pour mémoire, il a fallu une dizaine d'années (2002-2012) pour baisser la vitesse moyenne de 10 km/h. Le cas du 80 km/h (Qui vise une baisse de 5 km/h) est une configuration totalement différente et inconnue, puisqu'on change la limitation alors que les contrôles sont déjà en place. Et dans les années 1970 on avait introduit les limitations mais il n'y avait pratiquement aucun contrôle.

 

Donc, 300 vies sauvées (?) en moyenne sur 3 ans (?) pourrait suivre une décroissance exponentielle de -150 la première année, -105 la deuxième année et -45 la troisième année.

Lien vers le commentaire
Partager sur d’autres sites

le premier tente de mettre en lumière le lien entre CSA et baisse des tués depuis 2002

 

@Papymeche2 : En voici déjà un :

 

"Sans avoir une aussi bonne précision, et si je m'en tiens aux seules données officielles de la période 1990 - 2013, pour estimer la part attribuable au CSA, je trouve: (5270 - 3268 ) / 5270 ==> 38%."

 

 

Le second ne doit pas être bien loin...Le voilà

 

"A partir de cette seule variation, on peut faire une estimation grossière mais très simple de la baisse de -38,4 % (1- (79,3/89,5)^4 = 0,384). Soit approximativement 8197 x 0,384 x 9,5 / 2 = 14 951 vies épargnées. C'est certainement une sous estimation puisque la baisse de la vitesse moyenne n'a pas été uniforme pendant 9,5 ans. Donc tout ça se tient."

Lien vers le commentaire
Partager sur d’autres sites

On parle souvent ici de l'interprétation des chiffres, notamment parce que souvent on n'a pas assez d'éléments pour se faire une idée juste, ce qui n'empêche pas certains de tirer des conclusions.

 

Un exemple qui revient souvent ici est l'interprétation mensongère du nombre de morts sur le prérif', passé de 4 à 7 et qui est traduit par : + 75 % sans autre précision.

 

Le problème c'est bien l'interprétation hâtive, où intuitive des chiffres.

 

Lien vers le commentaire
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
 Partager



Newsletter Caradisiac

Abonnez-vous à la newsletter de Caradisiac

Recevez toute l’actualité automobile

L’adresse email, renseignée dans ce formulaire, est traitée par GROUPE LA CENTRALE en qualité de responsable de traitement.

Cette donnée est utilisée pour vous adresser des informations sur nos offres, actualités et évènements (newsletters, alertes, invitations et autres publications).

Si vous l’avez accepté, cette donnée sera transmise à nos partenaires, en tant que responsables de traitement, pour vous permettre de recevoir leur communication par voie électronique.

Vous disposez d’un droit d’accès, de rectification, d’effacement de ces données, d’un droit de limitation du traitement, d’un droit d’opposition, du droit à la portabilité de vos données et du droit d’introduire une réclamation auprès d’une autorité de contrôle (en France, la CNIL). Vous pouvez également retirer à tout moment votre consentement au traitement de vos données. Pour en savoir plus sur le traitement de vos données : www.caradisiac.com/general/confidentialite/

×
  • Créer...