1) Se faire une idée du code
Last updated
Last updated
Imagine que tu dois reprendre la maintenance évolutive du système de gestion des parties de chasse de nos chers chasseurs du bouchonnois.
Afin de te faire un premier feeling sur le code, on va analyser certains éléments factuels.
On dresse une check-list de choses à vérifier / analyser :
Nos outils et l'écosystème de développement nous permettent de récolter rapidement des metrics permettant d'observer de manière assez factuelle la qualité du code :
Lancer une première compilation afin d'identifier de potentiels problèmes.
On a déjà une première boucle de feedback de la part de notre compilateur nous indiquant que certains fields
sont déclarés comme non-nullable
mais pas initialisés.
La structure d'une solution / projet est un indicateur de l'architecture sous-jacente. L'observer nous permet de comprendre a minima le design du système.
Pour en savoir plus : Screaming Architecture.
Ici on peut tout de suite comprendre plusieurs éléments :
Bonne nouvelle !!! la solution comprend des tests automatisés
Le projet Bouchonnois
semble être organisé autour d'un Domain Model
Une abstraction de repository semble servir de port
Le service PartieDeChasseService
doit être le point d'entrée du système
Que fait la classe Terrain
dans le répertoir Service
?
Il y a une gestion d'Exceptions métiers et non pas des exceptions génériques
On jette un oeil sur les packages référencés afin de comprendre si le système intéragit avec d'autres systèmes (via gRPC, REST API, Integration Bus, Cloud Services, ...)
A part les références au framework, aucune dépendance n'est "exotique". Les seuls packages utilisés sont ceux pour les tests.
On lance nos tests en activant le code coverage
:
Super nouvelle !!! on a du code source couvert à 100%.
Pour ce faire on peut utiliser dotCover
:
Cela va générer 1 rapport html
:
Super nouvelle !!! on a du code source couvert à 100%.
Est-ce que cela suffit pour nous rendre complètement confiant vis-à-vis de nos futurs refactorings ?
Nous allons dès maintenant mettre en place un outil d'analyse static de code (SonarCloud ici) et automatiser son lancement via notre chaine de build. Celà nous permettra tout au long de l'atelier de vérifier l'impact de nos améliorations sur le code.
En utilisant github
on peut profiter des github actions
pour ce faire:
Après un premier lancement on obtient ce dashboard.
D'après l'outil la solution est plutôt en bonne santé:
35 code smells
100% de coverage
MAIS 7.3% de duplication
Il y a 1 code smell qualifié de critical
qui doit attirer notre attention. En effet, la complexité cyclomatique de la classe PartieDeChasseService
est très élevée.
Une méthode a une complexité de 20...
Cette classe est un service qui ne devrait avoir qu'une logique d'orchestration:
Charger 1 Aggregate
depuis son repository
Appeler la méthode métier sur cet Aggregate
Sauver le nouvel état à l'aide du même repository
On peut alors catégoriser le code de cette manière:
Ainsi, on peut voir :
les classes actuellement dans notre Domain
sont complètement anémiques : ne comprennent aucun comportement
le service PartieDeChasseService
contient des comportements qui devraient être dans le Domain
Afin d'avoir le feedback de l'analyse static de code dans notre IDE
on peut installer le plugin sonarlint
. Le linter nous fournira le même feedback que SonarCloud
mais sans avoir à lancer une analyse complète.
On peut le configurer afin de le "binder" avec notre projet dans sonarcloud
afin que l'analyse en local se fasse avec le même set de règles que dans la version cloud. Pour celà il suffit de suivre la documentation disponible ici.
On va utiliser codescene
, une plate-forme faisant à la fois de l'analyse static de code mais également de l'analyse "comportementale" du code permettant de :
Identifier de potentiels hotspots
Comprendre la diffusion de la connaissance sur une code base donnée
Identifier du couplage temporel
...
Après avoir lancé une première analyse on a déjà quelques indications sur la santé globale de notre code d'après cet outil...
On va mettre l'accent sur les hotspots
pour identifier où sont les morceaux de code à problèmes.
Comme illustré ci-dessus, les hotspots sont des morceaux de code complexes qui ont tendance à être modifiés de manière très régulière...
Il apparait que nous avons 2 hotspots dans la solution :
PartieDeChasseService
PartieDeChasseServiceTests
et ses 1131 lignes de code
Lorsque l'on utilise des outils, il est important de rendre visible les "choses". Nous allons donc faire en sorte que le résultat de nos outils d'analyse (sonarcloud et codescene) soient visibles à l'ouverture du fichier README
en ajoutant des badges dans le markdown
.
Nous avons vu précédemment que le coverage est à 100% sur cette solution. Mais qu'en est-il de leur qualité ?
C'est ce qu'on va vérifier en lançant une analyse à l'aide de stryker
. C'est un outil de mutation testing signifiant qu'il va créer des versions mutantes de notre code de production et vérifier que les tests vont bien identifier ces mutants (au moins 1 test doit échouer pour chaque mutant généré).
Pour le lancer, il suffit d'installer stryker
puis de l'exécuter:
Voici le résultat du lancement de stryker:
Intéressant, malgré nos 100% de code coverage on obtient un score de mutation qui est autour de 79%
... Celà signifie que notre filet de sécurité
ne nous couvre pas aussi bien qu'escompté.
Si on analyse le mutant ci-dessous, on voit que stryker a retiré certains appels.
On peut alors comprendre que certains side-effects
du service ne sont pas toujours validés par nos tests:
Appelle à la méthode Save
du repository
Ajout d'événements dans la PartieDeChasse
...
Il va y avoir un petit peu de travail au niveau de nos tests afin d'améliorer leur couverture réelle.
Pour revenir sur le code coverage, c'est un excellent indicateur négatif (avoir 0% de coverage montre qu'il y a un effort à fournir) mais un mauvais positif (avoir 100% ne signifie qu'on peut être confiant vis-à-vis de notre filet de sécurité).
A l'aide de ces éléments nous avons pu identifier certains axes d'amélioration :
Fixer les warnings
de compilation
Mettre en place une politique : 0 tolérance aux warnings
Améliorer les tests afin d'atteindre un score de mutation proche des 100%
Splitter le service PartieDeChasseService
Mettre le comportement business dans le Domain
Rendre le Domain
riche et non plus anémique
Le décomposer : 1 classe par comportement (handlers)
Eliminer les code smells
idenfiés par sonar
Fait au fur et à mesure
Code disponible ici.