Du nouveau dans MSTest

Le framework de test de Microsoft n’a pas bénéficié de beaucoup de nouveautés ces derniers temps et de fait, il est souvent délaissé pour des outils concurrents plus évolués grâce à certaines fonctionnalités.

Cependant, les choses évoluent très vite chez MS. Dans cet élan, MS vient d’annoncer la sortie de MSTest V2. Actuellement en preview,  il a pour objectif de rattraper son retard sur les frameworks de tests concurrents, d’innover et de suivre les évolutions technologiques.

Les principales améliorations

MSTest V2 constitue une véritable évolution et 4 de ses nouveautés méritent une attention toute particulière : l’architecture unifiée, le support des tests paramétriques, l’amélioration des catégories et la disponibilité via Nuget.

Lire la suite

L’expertise Goood! est aux DevOps Rex

Notre Expert DevOps sera à votre service!

Cette année Goood! sera aux DevOps Rex de Paris.

Nous avons le plaisir de vous convier le Lundi 28 novembre 2016 au Grand Rex de Paris. Notre MVP Visual Studio and Development Technologies Expert du stand Microsoft se fera un plaisir de répondre sur l’ensemble de la journée à toute vos questions DevOps.

Inscrivez-vous 

prtscr

Comment optimiser les performances et la disponibilités des services Web

Combien coûte un site indisponible ou un peu lent ?

Chez Amazon, 1 seconde de latence du site e-commerce engendre une perte de 1,6 milliards $ sur une année, et en cas d’indisponibilité au minimum 2000$ sont perdus en moyenne par seconde (cf : How Much Money Do Top Companies Make Each Second?). Pour un petit projet, la facture peut être proportionnellement plus salé que quelques % de CA, car cela peut engendrer la perte de précieux clients et donc nuire à tout un business.

En bref, ça coûte très cher et un point important de l’appréciation d’un site web est sa vitesse et sa disponibilité (cf : How Loading Time affects your Bottom Line).

Pour remplir ces critères, des milliers de méthodes existent portants chacunes sur différents axes (optimiser le code, fournir une infrastructure robuste, avoir un système de rollback efficace…). Cet article traitera d’une partie de l’infrastructure en passant par un service simple, fiable, au coût insignifiant et rapide à mettre en place : le service Traffic Manager d’Azure.

Lire la suite

Aperçu du nouveau PowerShell Cross Platform

Microsoft annonce depuis 2014 s’ouvrir aux autres systèmes, et en ce moment nombre de leurs nouveautés vont dans ce sens. Après l’arrivée entre autres de SQL Server sur Linux et Bash sous Windows, le dernier élément en date est : PowerShell 6 en OpenSource compatible Linux et MacOs. Plus précisément Microsoft déclare actuellement PowerShell 6 Alpha 9 compatible avec :

  • Windows 10 / Server 2016
  • Windows 8.1 / Server 2012 R2
  • Ubuntu 16.04
  • Ubuntu 14.04
  • CentOS 7
  • OS X 10.11

Microsoft a réussi à réaliser ce tour de force en se basant sur .NET Core, Framework .NET en open source et Cross Platform (note : baser un outil aussi crucial et important que PowerShell sur .NET Core montre bien la détermination qu’a Microsoft à s’ouvrir aux autres produits/plateformes).

Comment puis-je tester ?

Simplement en installant le package approprié à la plateforme : https://github.com/PowerShell/PowerShell/releases/. Une fois installé PowerShell 6 est accessible via la commande

Powershell

Ou en passant par la console de commande dédiée à PowerShell 6 présente sous Windows (nommée PowerShell 6).

Ça marche comment ?

De la même façon qu’un PowerShell normal. En testant les commandes de base tout semble fonctionner correctement. Néanmoins on remarque rapidement que la version actuelle est encore en Alpha, de ce fait quelques différences apparaissent rapidement comme par exemple la vérification de l’environnement via la commande [environment]::OSVersion.Version retourne sous Windows 10 :

  • 10.0.10536.0 (=Windows 10) avec PowerShell 5
  • 6.2.9200.0 (=Windows 8) avec PowerShell 6

Cela prouve qu’il faut garder en mémoire que la majorité du code a dû être réécrit, des problèmes peuvent donc survenir ou des adaptations sont à prévoir…

Avec l’ouverture quelques adaptations apparaissent

PowerShell 6 est actuellement en Alpha et cela implique nécessairement quelques limitations ou adaptations pour la réutilisation d’anciens scripts :

  • .NET Core != .NET:  évident, mais cela à de grosse conséquence sur PowerShell, en effet les versions antérieurs à PowerShell 6 sont basées sur le Framework .NET : comme les bases ne sont pas les mêmes rien ne garantit à 100% qu’un script PowerShell (version inférieur à 6) fonctionnera en PowerShell 6.
  • PowerShell exécute la plupart des commandes en mémoire : donc pas de :
    • sudo ma_commande

    • mais plutôt
    • sudo powershell ma_commande

  • Windows != Linux/MaxOs: c’est une évidence, mais cela implique quelques nouveaux paramètres à prendre en compte :

En bref cela impliquera obligatoirement du développement spécifique par script, mais pour tout ceux ayant déjà touché à .NET Core ou au développement mobile Cross Platform cela devrait être naturel.

C’est quand même utilisable ?

Comme toute alpha, PowerShell 6 est intéressant pour les tests et la découverte, mais il ne faut surtout pas l’utiliser en production, le nombre important de problème (+ de 300 sur GitHub) et le nombre de fonctionnalités vitales encore non implémentées/bancales (gestion des services, remote, manipulation XML…) ne permettent pas d’utiliser PowerShell 6 comme outil de gestion ou de scripting principal.

Finalement…

PowerShell 6 s’annonce être une excellente version, même si celle-ci est encore en alpha et que le travail est encore conséquent pour fournir une expérience parfaite côté Linux et MacOs ! Si le pari est tenu, PowerShell sous Linux et MacOs pourra permettre d’avoir une gestion des scripts unifiée et ainsi qu’une centralisation des compétences, ce qui est loin d’être anodin dans un monde ou se battent principalement Windows, Linux et MacOs.

Comment utiliser Bamboo avec VSTS en toute transparence

Bamboo est à Atlassian ce que le couple Build VNext + Release Management est à Visual Studio Team Services : une solution de build d’applications d’intégration/livraison/déploiement continu.

C’est une très bonne alternative à la solution de VSTS qui gagne en popularité, et Microsoft l’a bien compris. Face à ceci Microsoft a mis en place un  Service Hook permettant d’utiliser de façon transparente Bamboo tout en utilisant l’un des contrôles de code source fourni par Microsoft. Nous allons voir dans ce billet comment configurer et utiliser Bamboo et VSTS conjointement.

NB : Dans le cas où le contrôle de source utilisé est Team Foundation Version Control (TFVC) et non GIT, il faudra préalablement installer l’extension TFS Repository (https://marketplace.atlassian.com/plugins/com.stellarity.bamboo.tfs-repository-plugin/server/overview) sur le serveur Bamboo.

Lire la suite

TFS 2015: Customisation des activités de build (part2)

Auteur original, de notre ancien blog : Laurent Jacques

tfs1

Aujourd’hui nous allons discuter de la customisation des activités de build avec TFS 2015.En effet, alors que dans un prochain billet j’aborderai le tout nouveau système de build vNext ; il me semblait important de souligner une des (nombreuses) possibilités de customisation du mécanisme existant.

Etant donné le nombre d’étapes, j’ai scindé cette présentation en 2 parties : 

  1. la création d’un nouvelle activité (voir TFS 2015: Customisation des activités de build (part1))
  2. l’intégration du workflow dans la définition de la build.
 

PART2 : Intégration du workflow dans la définition de build.

Lire la suite

TFS 2015: Customisation des activités de build (part1)

Auteur original, de notre ancien blog : Laurent Jacques

tfs9

Aujourd’hui nous allons discuter de la customisation des activités de build avec TFS 2015. En effet, alors que dans un prochain billet j’aborderai le tout nouveau système de build vNext ; il me semblait important de souligner une des (nombreuses) possibilités de customisation du mécanisme existant. Etant donné le volume d’étapes je présenterai la customatisation en 2 parties : 

  1. la création d’un nouvelle activité de build,
  2. l’intégration du workflow dans la définition de build.
PART1 : Création d’une nouvelle activité de build.

Lire la suite

[ALM] TFS 2015 est RTM

Auteur original, de notre ancien blog : Laurent Jacques

tfs2015_1

Microsoft a publié hier la release finale de Team Foundation Server 2015.

Parmi les nouveautés notables par rapport à la version précédente, on peut noter:

  • Nouveau système de build : vNext
  • Nouveau pipeline de déploiement (countinuous delivery),
  • Amélioration agile & planning,
  • Modification du licensing (basic user).

Lire la suite

TFS 2015 : automatiser la création d’une définition de build XAML.

Auteur original, de notre ancien blog : Laurent Jacques

xaml1

xaml2

Aujourd’hui nous étudierons un cas pratique d’utilisation avancée de TFS  (2012,2013 et 2015) et de ses mécanismes de build.

Nous chercherons à automatiser la création et la suppression des définitions de builds avec l’utilisation de l’API de Team Foundation Server avec Visual Studio 2013.

Pour le cas d’étude de ce billet, l’organisation du code source se présente ainsi :

  • une branche dev : le travail courant des développeurs, tous check-in leurs modificationdedans au jour le jour.
  • plusieurs branches uat : en fin de cycle de développement, une nouvelle branche uat_X.Y.Z est créée à partir du dev pour partir en validation (test d’intégration)
  • une branche master : une fois validée la branche uat_X.Y.Z devient la nouvelle branche master : version référence pour les développements.

Ce qui donne par exemple l’arborescence suivante :

/Projet/
       /dev
	       /Appli1
		/Appli2
       /master
		/Appli1
		/Appli2
	/uat_1.2.3
		/Appli1
		/Appli2
	/uat_1.3.0
		/Appli1
		/Appli2

 

L’équipe de développement a mis au point deux définitions de build basées sur la branche DEV :

  • une intégration continue, tournant les tests unitaires automatiques, générant la doc, fournissant les livrables dans un répertoire dépôt;
  • une nightly : déployant les applications sur l’environnement de test tous les jours à 23h.

Problématique 

Une fois validée en interne, le DEV est branché en UAT_X.Y.Z : les définitions de builds ne fonctionnent donc pas sur cette branche.

Actuellement : pour chaque nouvelle branche UAT le lead technique vient créer une nouvelle définition de build UAT et ajouter les différents paramètres.

Besoin 

Automatiser le processus.

Mise en oeuvre

Pour cette première version nous visons la mise en place d’une app console en c# qui ira, à intervalles réguliers, vérifier l’état des branches et gérer les définitions de builds.[…]

Avant toute chose: ajouter les références (v12) dans le projet :

xaml3

1ière étape:  récupérer la listes des branches UAT existantes.:

List<Branch> branchList = new List<Branch>();
using (var tfs = new TfsTeamProjectCollection(_TFSserver))
{
    VersionControlServer vcs = (VersionControlServer)tfs.GetService(typeof(VersionControlServer));
    var items = vcs.GetItems(sourceCodeArea, VersionSpec.Latest, RecursionType.OneLevel,
        DeletedState.NonDeleted, ItemType.Folder).Items;
    foreach (Item item in items)
    {
        // skip self
        if (!item.ServerItem.Equals(sourceCodeArea))
        {
            if (item.ServerItem.ToLower().Contains(filter.ToLower()))
                branchList.Add(new Branch(item.ServerItem, item.CheckinDate, project));
        }
    }
}

Dans le code présent la logique est la suivante:

  1. on fournit comme paramètres :
  • l’url d’accès au serveur TFS ,
  • la zone de départ dans le source (sourceCodeArea) , 
  • un fitre est indiqué qui va permettre de ne ressortir que les branches qui nous intéressent (filter) 
     2. on récupère la liste des folders (branche) ;
var items = vcs.GetItems(sourceCodeArea, VersionSpec.Latest, RecursionType.OneLevel,                                          DeletedState.NonDeleted, ItemType.Folder).Items;

3. pour chacun de ses folders, on vérifie la cohérence du nom par rapport au filtre précisé :

if (item.ServerItem.ToLower().Contains(filter.ToLower()))

4. une fois récupérées, les branches seront ajoutées dans une liste d’objets maisons pour être gérées plus tard.

 

2ième étape:  récupérer les définitions de build existantes:

    var tfs = new TfsTeamProjectCollection(_TFSserver);
    tfs.Authenticate();
    var buildServer = (IBuildServer)tfs.GetService(typeof(IBuildServer));
    var buildDefinitionList = new List<IBuildDefinition>(buildServer.QueryBuildDefinitions(TEAM_PROJECT));

Afin de déterminer si les builds n’existent pas déjà, il faut en premier lieu récupérer la liste des builds existantes.

Les instructions ci-dessus permettent d’interroger le serveur TFS pour cela.

Ici, le TEAM_PROJECT  est simplement une constante représentant le nom du projet d’équipe.

L’appel à  buildServer.QueryBuildDefinitions va fournir l’ensemble des builds existantes pour le projet.

 

3ème étape:  parcourir la liste des branches et créer les builds inexistantes:

if (!buildDefinitionList.Exists(x => x.Name == TfsBuildServices.BuildName(projectName, branch)))
                {
                    IBuildDefinition CIBuild = buildDefinitionList.Where(x => x.Name == projectName + "_CI").First();
                    if (CIBuild != null)
                    {
                        var newbuild = buildServer.CreateBuildDefinition(TEAM_PROJECT);
                        newbuild.CopyFrom(CIBuild);
                        newbuild.Name = TfsBuildServices.BuildName(projectName, branch);
                        BuildSettings settings = new BuildSettings();
                        var process = WorkflowHelpers.DeserializeProcessParameters(newbuild.ProcessParameters);
                        settings.ProjectsToBuild = new StringList(((BuildSettings)process["BuildSettings"]).ProjectsToBuild.ToString().Replace("DEV",branch));
                        process.Remove("BuildSettings");
                        process.Remove("ProjectsToBuild");
                        process.Add("BuildSettings", settings);
                        process.Add("ProjectsToBuild", new string[] { settings.ProjectsToBuild.ToString() });
                        newbuild.ProcessParameters = WorkflowHelpers.SerializeProcessParameters(process);
                        newbuild.DefaultDropLocation += @"" + projectName;
                        newbuild.Workspace.Mappings[0].ServerItem = newbuild.Workspace.Mappings[0].ServerItem.Replace("DEV", branch);
                        newbuild.Save();
                    }
                }

1. une simple requête linq sur le nom de la build permet de passer la création si la build existe déjà

if (!buildDefinitionList.Exists(x => x.Name == TfsBuildServices.BuildName(projectName, branch)))

L’appel  à TfsBuildServices.BuildName  permet de centraliser et de formaliser  la création du nom de la build 

2. on récupère la build d’intégration continue qui va nous servir de modèle pour la nouvelle définition 

IBuildDefinition CIBuild = buildDefinitionList.Where(x => x.Name == projectName + "_CI").First();

3. on initialise la nouvelle build avec le modèle

var newbuild = buildServer.CreateBuildDefinition(TEAM_PROJECT);
  newbuild.CopyFrom(CIBuild);

4. la modification des paramètres

La build definition utilise des BuildSettings pour enregistrer ses paramètres :

BuildSettings settings = new BuildSettings();
                        var process = WorkflowHelpers.DeserializeProcessParameters(newbuild.ProcessParameters);
                        settings.ProjectsToBuild = new StringList(((BuildSettings)process["BuildSettings"]).ProjectsToBuild.ToString().Replace("DEV",branch));
                        process.Remove("BuildSettings");
                        process.Remove("ProjectsToBuild");
                        process.Add("BuildSettings", settings);
                        process.Add("ProjectsToBuild", new string[] { settings.ProjectsToBuild.ToString() });
                        newbuild.ProcessParameters = WorkflowHelpers.SerializeProcessParameters(process);
                        newbuild.DefaultDropLocation += @"" + projectName;
                        newbuild.Workspace.Mappings[0].ServerItem = newbuild.Workspace.Mappings[0].ServerItem.Replace("DEV", branch);

Ces settings sont sérialisés sous forme de dictionnaires et doivent donc être réédités pour cadrer avec le besoin spécifique UAT:

  • la copie de la build CI pointe par exemple vers la solution à compiler $/Project/dev/Appli1/Appli1.sln . il faut donc modifier ce répertoire pour celui UAT : 
settings.ProjectsToBuild = new StringList(((BuildSettings)process["BuildSettings"]).ProjectsToBuild.ToString().Replace("DEV",branch));
  • de la même manière le default drop location contient celle de la build CI et doit être modifié : 
newbuild.DefaultDropLocation += @"" + projectName;
  • et enfin le modèle objet de la définition de build contient aussi le mapping vers le répertoire source controle mappé qui doit lui aussi être remplacé : 
newbuild.Workspace.Mappings[0].ServerItem = newbuild.Workspace.Mappings[0].ServerItem.Replace("DEV", branch);

5. on sauvegarde, laisse 15 min au four : et hop. la build est créée !

newbuild.Save();

 

4ième étape:  supprimer les builds des anciennes branches :

Récupération de la liste des branches supprimées :

var items = vcs.GetItems(area, VersionSpec.Latest, RecursionType.OneLevel, 
DeletedState.Deleted,
ItemType.Folder).Items;

Pour chacune des anciennes branches on récupère la définition de la build associée (si elle existe)

IBuildDefinition UAT_CIBuild = buildDefinitionList.Where(x => x.Name == TfsBuildServices.BuildName(projectName, branch)).FirstOrDefault();
if (UAT_CIBuild != null)
{
   buildServer.DeleteBuilds(UAT_CIBuild.QueryBuilds());
}

A noter: pour pouvoir supprimer une définition de builds il faut que les historiques de run soient eux-aussi supprimés, c’est pourquoi l’appel buildServer.DeleteBuilds(UAT_CIBuild.QueryBuilds());  est fait ainsi  : cela supprime l’ensemble.

 

5ième étape:  emballer dans une petite application :

Je ne rentrerai pas dans les détails sur ce point, mais avec les éléments fournis rien de plus simple que de réunir tout cela dans une application qui tourne à intervalle régulier et exécute ces appels afin de synchroniser les définitions de builds et les branches.

 

Pour aller plus loin 

http://nakedalm.com/

https://msdn.microsoft.com/fr-fr/vstudio/ff637362.aspx

ALM ranger’s site

Prochaine étape 

Dans le prochain billet j’expliquerai comment se passer de l’application console en intégrant ce code au sein d’activités de build maisons et comment créer notre propre template de build avec tout ceci.

 

Laurent.

 

Soft’it est sponsor Gold de la conférence Ncrafts 2015

ncrafts1

Pour la deuxième année consécutive, c’est avec grand plaisir que nous sponsorisons la conférence sur le développement NCrafts qui se tiendra les 21 et 22 mai prochains à la Grande Crypte dans le 16ème arrondissement de Paris.

L’esprit CLT étant résolument agile depuis plusieurs années, nous ne pouvons qu’adhérer aux valeurs du Manifeste du Software Craftsmanship car pour nous, un logiciel qui fonctionne « tout court » ne saurait être suffisant pour délivrer constamment la valeur à nos clients. Le Crafts est bien plus que ça.

Cet événement à l’initiative de la communauté ALT.NET (bien qu’ouvert aux autres technos) est l’occasion de nous retrouver pour apprendre, échanger des pratiques et techniques de développement autour du Software Craftmanship.
Comme l’année dernière, le line-up des talks s’avère très intéressant avec des speakers de haut niveau : Hadi Hariri (de JetBrains), Tomas Petricek (MVP C# et expert F#), Jérémie Chassaing (acteur influant de la DDD, de l’EventSourcing et du CQRS) ou encore Emmanuel Gaillot et Tomasz Jaskula.

Si cela vous intéresse, vous pourrez venir nous rencontrer et échanger avec nous sur notre stand pendant la conférence ; la quasi-totalité de l’équipe Soft’it sera présente !

De plus, nous vous préparons quelques surprises originales qui sauront ravir tous les Craftsmen. Venez nombreux pour jouer avec nous.

A Bientôt !