Note : 7 ; Extrêmement dense et d’un abord difficile
Ce texte est un grand classique. Pour Douglas Hubbard, tout peut se mesurer ! Une assertion qui crée beaucoup de polémique, à la fois sur la pertinence (et la qualité) de la mesure et la pertinence de mesurer ! L’auteur entend bien, par cet ouvrage, combattre sur les 2 fronts. Ce n’est pas une lecture facile et nombre de chapitres nécessitent un bagage mathématique dont l’auteur nous assène qu’il est simple, mais sur lequel je suis un peu limite.
Il faut compter pour ce texte, 385 pages qui se divisent en 4 parties comptant en tout 14 chapitres. Pour la première partie, « the mesurement solution exist », il faudra compter 3 chapitres sur un peu moins de 70 pages. Elle s’attaque à ce que j’ai appelé la pertinence de la mesure. C’est aussi la partie la plus abordable du livre, de très loin. Je dirais qu’à elle seule elle donne déjà beaucoup de valeur et un outillage intéressant au lecteur. Le premier chapitre « the challenge of intangible » compte pour moins d’une dizaine de pages mais introduit déjà des éléments intéressants ! Tout d’abord la mesure comme outil de décision et de diminution de l’incertitude et le processus « applied information economics » qui est la démarche de l’auteur, au centre de l’ouvrage.
Couvrant une douzaine de pages, le chapitre 2 « an intuitive measurement habit … » introduit l’art de la décomposition dans la mesure avec les exemples de Eratosthène, Enrico Fermi et Emily Rosa. L’auteur y montre brillamment comment on peut par décomposition et observation indirecte obtenir une mesure qui sera une réduction de l’incertitude probablement imparfaite mais meilleure que pas de mesure du tout. Fort d’une quarantaine de pages, le dernier chapitre de cette première partie « the illusion of intangible… » est aussi le plus difficile à digérer. L’auteur y introduit l’approche statistique et plus précisément l’approche Bayésienne (par opposition à l’approche fréquentiste. Pour moi l’élément marquant de ce chapitre est le pouvoir des petits échantillons : avec seulement 5 échantillons (quelque soit la population de départ) il y a 93,75% de chance d’avoir la médiane située entre la plus petite valeur et la plus grande (avec un échantillonnage représentatif).
La seconde partie « before you measure » compte une centaine de pages sur 4 chapitres. Le chapitre 4 « clarifying the measurement problem » ouvre le bal avec sa vingtaine de pages. Il nous donne un répit par rapport aux aspects mathématiques en se concentrant sur la mesure orientée prise de décision. Pour ce faire, il faut bien sûr clarifier de quelle décision on parle, une réponse parfois moins évidente que ce que l’on pourrait penser. Pour faire ce lien, l’auteur revient sur la notion de diminution d’incertitude qui nous aidera à imaginer une mesure dont la précision est adaptée au niveau de diminution d’incertitude que l’on recherche. Le chapitre 5 « calibrated estimates », long de 25 pages, est particulièrement important aux yeux de l’auteur, car il permet de « calibrer des experts » en utilisant à la base un principe simple : vous savez déjà quelque chose à propos du problème.
Le chapitre 6 « quantifying risk through modeling » nous convie à une vingtaine de pages plus rugueuses. En clair il expose l’approche probabilistique des risques à l’aide du Monte Carlo. Cette partie se referme sur le chapitre 7 dont les 27 pages ont trait à la quantification de l’information. Le concept central en est l’EVI, l’expected value of information. Il s’agit de chercher à construire la courbe de cette valeur avec un niveau de précision croissant, que l’on compare au coût de cette information le long de la même échelle. Intéressant mais pas toujours facile à suivre.
La 3ème partie, « measurement methods » ne compte que 3 chapitres mais couvre 110 pages. Disons tout de suite que tout n’est pas facile à suivre dans cette partie, mais au moins le premier chapitre, « from what to measure to how to measure », l’est. Ce chapitre d’ouverture ne compte qu’une douzaine de pages. Là encore ce chapitre d’ouverture est tout à fait clair et abordable. C’est un vrai guide méthodologique sur le « comment mesurer » : quels instruments, comment décomposer, où aller rechercher les informations préalables, etc.
Le chapitre 9 « how observing some things tells us about all things » a trait à l’art de l’échantillonnage et l’extrapolation de l’échantillonnage. Le chapitre est particulièrement conséquent avec près de 50 pages et il faut s’accrocher. Intéressant mais ardu, une seule lecture ne suffit pas. Le dernier chapitre de cette partie est le clou du spectacle : l’approche bayésienne est abordée sur 35 pages. L’auteur est un convaincu de cette approche et n’hésites pas écorcher ses opposants sur la fin du chapitre ! Attention, lecture difficile.
La dernière partie de l’ouvrage « beyond the basics » s’étend sur 100 pages et 4 chapitres. On débute par le chapitre 11 « preferences and attitudes » aborde la question de la subjectivité et entends basculer celle-ci dans le domaine quantifiable. La vingtaine de pages de ce chapitre aborde la « pertinence de mesurer » que j’ai abordé plus haut et ne récoltera probablement pas une adhésion unanime. Mais je trouve la démarche réellement intéressante. Le chapitre 12 va plus loin et s’attaque au jugement humain sur une trentaine de pages. L’auteur entends exposer comment un modèle de calcul peut systématiquement faire mieux qu’un jugement d’expert. L’auteur s’appuie essentiellement sur cela sur le « Lens Model Process », mais il préfèrera bien sûr son propre modèle AIP.
Les 15 pages du chapitre 13 tournent leur regard vers le présente et le futur : la compréhension du nouveau champs d’application que nous ouvre les mesures issues d’Internet. L’ouvrage se conclut sur le chapitre 14 qui décrit précisément le processus d’AIP.
Il y a à mon avis 2 niveaux de lecture ou de non-lecture à ce livre. Le premier niveau permet la prise de conscience de la mesure, qu’elle est possible plus souvent qu’on ne le croit et que définir ce que l’on va mesurer nécessite plus de finesse que l’on ne s’en accorde d’habitude, cause du rejet de nombre de mesures. Le second niveau, plus opérationnel fait appel à des outils statistiques et mathématiques qui nécessitent une certaine maîtrise. Mais il est possible de s’intéresser au premier en faisant l’impasse sur le second.
Référence complète : How to Measure Anything, Finding the value of « intangibles » in business, 3rd edition – Douglas W. Hubbard – John Wiley 2014 – ISBN : 978 1 118 53927 9