Note de lecture : How to Measure Anything 3rd edition, par Douglas W. Hubbard

Note : 7 ; Extrêmement dense et d’un abord difficile

Ce texte est un grand classique. Pour Douglas Hubbard, tout peut se mesurer ! Une assertion qui crée beaucoup de polémique, à la fois sur la pertinence (et la qualité) de la mesure et la pertinence de mesurer ! L’auteur entend bien, par cet ouvrage, combattre sur les 2 fronts. Ce n’est pas une lecture facile et nombre de chapitres nécessitent un bagage mathématique dont l’auteur nous assène qu’il est simple, mais sur lequel je suis un peu limite.

Il faut compter pour ce texte, 385 pages qui se divisent en 4 parties comptant en tout 14 chapitres. Pour la première partie, « the mesurement solution exist », il faudra compter 3 chapitres sur un peu moins de 70 pages. Elle s’attaque à ce que j’ai appelé la pertinence de la mesure. C’est aussi la partie la plus abordable du livre, de très loin. Je dirais qu’à elle seule elle donne déjà beaucoup de valeur et un outillage intéressant au lecteur. Le premier chapitre « the challenge of intangible » compte pour moins d’une dizaine de pages mais introduit déjà des éléments intéressants ! Tout d’abord la mesure comme outil de décision et de diminution de l’incertitude et le processus « applied information economics » qui est la démarche de l’auteur, au centre de l’ouvrage.

Couvrant une douzaine de pages, le chapitre 2 « an intuitive measurement habit … » introduit l’art de la décomposition dans la mesure avec les exemples de Eratosthène, Enrico Fermi et Emily Rosa. L’auteur y montre brillamment comment on peut par décomposition et observation indirecte obtenir une mesure qui sera une réduction de l’incertitude probablement imparfaite mais meilleure que pas de mesure du tout. Fort d’une quarantaine de pages, le dernier chapitre de cette première partie « the illusion of intangible… » est aussi le plus difficile à digérer. L’auteur y introduit l’approche statistique et plus précisément l’approche Bayésienne (par opposition à l’approche fréquentiste. Pour moi l’élément marquant de ce chapitre est le pouvoir des petits échantillons : avec seulement 5 échantillons (quelque soit la population de départ) il y a 93,75% de chance d’avoir la médiane située entre la plus petite valeur et la plus grande (avec un échantillonnage représentatif).

Lire la suite

Note de lecture : Software by Numbers, par Mark Denne & Jane Cleland-Huang

Note : 5 ; Des idées réellement intéressantes dans l’IFM. Mais un propos sec et qui manque de profondeur sur certains sujets.

J’avais déjà eu l’occasion de croiser des références à cet ouvrage, suffisamment pour me décider à le lire, ce qui a fini par arriver. La totalité de l’ouvrage s’appuie sur une démarche appelée IFM, pour « incrémental funding methodology ». Formalisée au début des années 2000, cette approche se dit s’adapter aussi bien à Unified Process qu’à une approche agile. Force est de constater qu’elle a toutefois plus d’affinité avec des approches agiles !

Le livre en lui-même n’en impose guère : il ne compte que 180 pages, structurées en 11 chapitres. Le premier chapitre reprend quelques éléments de la philosophie agile (n’oublions pas qu’elle n’était pas largement développée à l’époque) : délivrer de la valeur au plus tôt et écouter la voix du client. C’est aussi dans ce chapitre que l’auteur introduit un concept important : le MMF (Minimum Marketable Feature), ou le lot de fonctionnalités qu’il faut livrer afin d’acter un incrément de valeur pour le client.

La douzaine de pages du chapitre suivant introduit le second concept import : le « new ROI », qui est tout simplement une application de la valeur-temps (NPV) bien connue en finance. Et déjà les premières tables d’actualisation de valeur apparaissent.

Lire la suite

Note de lecture : Planning Extreme Programming, par Kent Beck & Martin Fowler

Note : 6 ; Quand planifier rime plus avec visibilité qu’avec « estimer ».

L’extrême programming se focalise sur des cycles de développement fortement itératifs, au sein desquels l’interaction avec le client et permanente et le formalisme réduit au minimum. Dans ce cadre, écrire un livre sur la planification d’un tel processus peut sembler une gageure. En fait, ce livre ne traite guère de métrique d’évaluation ou de consommation du développement, mais se focalise sur les aspects humains. Planifier en Extreme Programming, c’est avant tout s’assurer que l’on travaille sur les choses les plus importantes et pouvoir se coordonner avec les autres (le sujet du 1er chapitre). Pour faire cela, il faudra aussi estimer, mais différemment.

Cet ouvrage, co-écrit par deux grands noms de la communauté, n’est guère long : 130 pages ! A l’instar de nombreux volumes de l’XP series, il compte beaucoup de chapitres, il y en a 27. Les passer tous en revue serait fastidieux, je vais me contenter de relever quelques éléments qui m’ont marqué ou que j’ai aimé.

Lire la suite

Soirée « en finir avec… »

Cela faisait déjà un petit moment que je pensais à ma petite soirée mégalo à moi. Oh, surprise, elle a fini par avoir lieu ! Nous nous sommes donc retrouvé ce Jeudi 29 Janvier chez Zenika autour de ce thème. Cette fois, ce ne sont pas les intempéries, mais une grève inopinée des transports qui ont eu raison de l’enthousiasme de 2/3 des inscrits. Heureusement pour nous le format d’atelier que nous proposions se prêtait bien à un groupe plutôt restreint, une vingtaine de personnes.

Bon, c’est ma soirée, c’est donc à moi de faire l’ouverture !

Pas de répit pour les braves, on enchaines avec les propositions et les choix de sujets !

Lire la suite

Open-Space des pratiques agiles, en toute intimité

Pour ce premier Open-Space 2015, nous étions accueillis par Malten. Etait-ce l’éloignement (pourtant pas si important, à Neuilly), la pluie ou un début d’année déjà chargé ? Seul un quart des inscrits étaient fidèles au rendez-vous.

Qu’importe, les règles de l’open-space disent : « les personnes présentes sont les bonnes personnes » et c’est ce que nous avons acté !

image

Lire la suite

La rentrée en open space !

Il n’aura pas fallu attendre longtemps pour voir notre premier rendez-vous agile de la rentrée. C’est d’ailleurs un agenda assez rythmé qui nous attend dans les semaines qui viennent !

Mais en ce 4 Septembre, c’est un open-space auquel Yannick nous a convié dans les locaux de Zenika. Beaucoup d’inscrits, peu de venus (environ une quinzaine), mais comme on dit dans les open spaces : les personnes qui sont là sont les bonnes personnes. Petit avantage : l’achalandage de notre place de marché va plutôt vite. C’est bien car ce sont 3 créneaux qui sont prévus pour ce soir !

image

Lire la suite

En finir avec les estimations ?

Poker, Fibonacci et stock

Aujourd’hui j’aimerais parler d’estimations. D’estimations agiles, bien sûr. Elles n’ont rien à voir avec les estimations classiques. Ou du moins, pourrait-on le croire. Voyons cela !

L’un des points marquants souvent évoqué est que l’estimation n’est pas faite par une seule personne, mais par l’ensemble des membres de l’équipe, afin de bénéficier de la sagesse de la foule. En fait, l’estimation collective est utilisée depuis longtemps dans les approches classiques et est connue sous le nom de wideband Delphi. Il est vrai toutefois que la technique est sous-utilisée, beaucoup de chefs de projets préférant « optimiser » le temps nécessaire aux estimations ou ignorant simplement cette technique !

L’autre élément majeur est l’utilisation d’estimations relatives, décorellé d’une estimation en charge. Une approche déjà utilisée dans le Function Point Analysis. Ici l’approche agile se distingue par l’utilisation d’une échelle de précision adaptative qui a donné lieu aux fameux jeux de carte du planning poker

image

Lire la suite