Les résultats du service logistique : la juste interprétation des informations issues d’un échantillon

par Massimiliano Manca
Combien de fois, en tant que logisticiens, nous sommes-nous agacés lorsque nous recevions, « en tacle appuyé », des retours sur les activités réalisées du type :
« La livraison des commandes arrive toujours en retard ! » ou encore
« La productivité des opérateurs d’entrepôt est pratiquement toujours au plus bas ! » ;
on pourrait continuer à l’infini.
Ce qui dérange, c’est la généralisation sans fondement d’effets liés à des causes supposées qui, comme par hasard, sont toujours imputées à la logistique.
La tendance à généraliser, en soi, ne serait même pas forcément mauvaise (c’est en fait un processus naturel que je décrirai dans le paragraphe suivant). Ce qui ne fonctionne pas, en revanche, c’est la pauvreté des cas utilisés par « notre accusateur en série » !
Quand on parle de pauvreté, il ne s’agit pas uniquement du nombre de cas, mais du fait que ces cas ne représentent pas correctement la fameuse population du phénomène analysé.
Pour être plus explicite : on peut arriver à affirmer que ce service logistique particulier est défaillant, en valeur absolue, si l’on dispose d’un nombre et d’une typologie de cas concrets – retards, erreurs de préparation de commandes et, en général, dysfonctionnements du service – tels que, avec une probabilité égale à « X », il arrive justement que le service ne soit pas adapté aux besoins du client.
Et oui, c’est bien ainsi : chaque fois qu’une affirmation très forte est formulée, il serait plus correct de l’accompagner du pourcentage d’erreur que l’on commet en généralisant le phénomène lui-même.
Il va de soi qu’avoir tous les cas (l’univers statistique) à analyser pour comprendre un phénomène que nous devons piloter n’est pas simple ; je dirais même que, parfois, c’est extrêmement coûteux et redondant.
Le recours donc à un échantillon de cas, s’il est choisi de façon appropriée, nous permet d’analyser et de suivre les activités qui méritent notre attention et surtout d’aboutir à des conclusions pertinentes sur le fonctionnement du processus logistique lui-même.
Partons de la méthode : l’inférence statistique regroupe les techniques qui permettent de tirer des conclusions sur une population en utilisant les informations contenues dans un échantillon. Elle se divise en deux grandes zones :
Estimation des paramètres
Test statistique ou test d’hypothèses
Le point de départ consiste donc à se servir d’un échantillon. On l’appelle « échantillon » parce qu’il ne représente qu’une partie du total des cas dont on souhaite connaître le comportement, et il doit être le bon ; il doit être significatif et représentatif.
Pourrait-on jamais se concentrer uniquement sur les cas de service logistique qui ont eu lieu toujours le samedi soir ? Ou bien, pourrait-on considérer exclusivement les lead times de livraison vers un client particulier pour évaluer la qualité des délais de livraison ? Bien sûr que non.
La significativité concerne la taille de l’échantillon et correspond au nombre de cas disponibles pour l’analyse.
Voici trois termes clés à connaître pour calculer la taille de l’échantillon et l’intégrer dans un contexte d’analyse :
Taille de la population : c’est-à-dire le nombre total d’événements (par exemple, le nombre total de livraisons sur une année) ;
Marge d’erreur : pourcentage qui indique avec quelle probabilité les résultats de l’analyse sur l’échantillon refléteront la réalité des faits. Plus la marge d’erreur est faible, plus la probabilité « d’inférer » correctement la réalité des faits, pour un certain niveau de confiance, sera élevée ;
Niveau de confiance de l’échantillon : pourcentage qui indique à quel point on peut être sûr que le comportement moyen de l’ensemble de la population d’événements est proche de la valeur moyenne obtenue à partir de l’échantillon. Par exemple, un niveau de confiance de 95 % signifie que l’on peut être certain à 95 % que le retard des livraisons « totales » se situe dans un certain intervalle autour du retard moyen estimé à partir de l’échantillon.
En résumé : l’application d’une formule statistique qui intègre ces trois paramètres permet de déterminer le nombre correct, donc significatif, de cas que nous devons analyser pour comprendre le fonctionnement réel du processus logistique objet de notre étude.
La règle générale est que plus la taille de l’échantillon est grande, plus sa valeur statistique sera élevée, c’est-à-dire plus la probabilité que les résultats soient dus au simple hasard sera faible ; attention toutefois, des échantillons excessivement nombreux exigent beaucoup d’efforts dans les phases d’extraction et d’analyse !
On pourrait se demander s’il ne s’agit que d’une question de nombre de cas à analyser ; évidemment non : l’échantillon, en plus d’être significatif, doit aussi être représentatif.
Par échantillon représentatif, on entend un sous-ensemble de données qui peut reproduire des caractéristiques similaires à celles d’un phénomène (population) plus vaste. Le campionnement représentatif aide à analyser de larges ensembles de cas, car les données générées contiennent des versions réduites, donc plus faciles à gérer, des caractéristiques du groupe plus large.
Nous le disions plus haut : nous devons analyser des cas de service logistique qui soient capables de représenter l’ensemble du phénomène dans le temps. Si je n’extrayais que des cas de livraisons en retard, j’en déduirais (par inférence) presque à coup sûr que le service logistique est toujours en retard, peut-être même dans certaines zones spécifiques ; mais cela ne refléterait pas correctement le service globalement rendu.
Grâce au campionnement représentatif, il est possible d’économiser du temps et de l’argent. L’analyse statistique et la revue des données permettent en effet de définir une représentation fidèle d’un ensemble de cas beaucoup plus vaste.
Pour obtenir des résultats préci s et crédibles, il est nécessaire de bien connaître les avantages et les risques potentiels liés à l’utilisation d’échantillons représentatifs.
Imaginons par exemple que, sur un total de 1 000 livraisons, 250 soient effectuées dans la zone métropolitaine, 250 dans un rayon de 50 km, 250 entre 50 et 100 km et les 250 restantes au-delà de 100 km.
Un échantillon représentatif pourrait alors être composé de 20 cas, 5 relatifs à chacune des zones.
Ainsi, l’inférence statistique devient elle aussi un outil à la disposition des managers de la logistique pour aboutir à des analyses plus efficaces des processus à piloter, tout en engageant des ressources nettement moindres.




