Les dé)codeurs – Goood! LightTalks #3

decodeurs-bleu-sur-blanc

Bonjour,

Les dé)codeurs font des talks mardi 4 avril à 19H00 !

Au programme :

• Vincent HATEAU (https://twitter.com/VincentHateau) : Le long périple vers la culture Qualité

• Guillaume BERNARD (https://twitter.com/BERNARDGuilla11) : IOT W10 Raspberry Pi, Démo de mise en oeuvre de contrôleurs

• Jeremy LANDON ([un jour il fera un compte twitter]): Bannir le SEXE et la VIOLENCE avec AZURE! #ontesteraenlive #controleparental

On vous accueille avec de quoi grignoter et boire.

— Inscription ici —

A bientôt

L’expertise Goood! est aux DevOps Rex

Notre Expert DevOps sera à votre service!

Cette année Goood! sera aux DevOps Rex de Paris.

Nous avons le plaisir de vous convier le Lundi 28 novembre 2016 au Grand Rex de Paris. Notre MVP Visual Studio and Development Technologies Expert du stand Microsoft se fera un plaisir de répondre sur l’ensemble de la journée à toute vos questions DevOps.

Inscrivez-vous 

prtscr

Comment optimiser les performances et la disponibilités des services Web

Combien coûte un site indisponible ou un peu lent ?

Chez Amazon, 1 seconde de latence du site e-commerce engendre une perte de 1,6 milliards $ sur une année, et en cas d’indisponibilité au minimum 2000$ sont perdus en moyenne par seconde (cf : How Much Money Do Top Companies Make Each Second?). Pour un petit projet, la facture peut être proportionnellement plus salé que quelques % de CA, car cela peut engendrer la perte de précieux clients et donc nuire à tout un business.

En bref, ça coûte très cher et un point important de l’appréciation d’un site web est sa vitesse et sa disponibilité (cf : How Loading Time affects your Bottom Line).

Pour remplir ces critères, des milliers de méthodes existent portants chacunes sur différents axes (optimiser le code, fournir une infrastructure robuste, avoir un système de rollback efficace…). Cet article traitera d’une partie de l’infrastructure en passant par un service simple, fiable, au coût insignifiant et rapide à mettre en place : le service Traffic Manager d’Azure.

Lire la suite

Aperçu du nouveau PowerShell Cross Platform

Microsoft annonce depuis 2014 s’ouvrir aux autres systèmes, et en ce moment nombre de leurs nouveautés vont dans ce sens. Après l’arrivée entre autres de SQL Server sur Linux et Bash sous Windows, le dernier élément en date est : PowerShell 6 en OpenSource compatible Linux et MacOs. Plus précisément Microsoft déclare actuellement PowerShell 6 Alpha 9 compatible avec :

  • Windows 10 / Server 2016
  • Windows 8.1 / Server 2012 R2
  • Ubuntu 16.04
  • Ubuntu 14.04
  • CentOS 7
  • OS X 10.11

Microsoft a réussi à réaliser ce tour de force en se basant sur .NET Core, Framework .NET en open source et Cross Platform (note : baser un outil aussi crucial et important que PowerShell sur .NET Core montre bien la détermination qu’a Microsoft à s’ouvrir aux autres produits/plateformes).

Comment puis-je tester ?

Simplement en installant le package approprié à la plateforme : https://github.com/PowerShell/PowerShell/releases/. Une fois installé PowerShell 6 est accessible via la commande

Powershell

Ou en passant par la console de commande dédiée à PowerShell 6 présente sous Windows (nommée PowerShell 6).

Ça marche comment ?

De la même façon qu’un PowerShell normal. En testant les commandes de base tout semble fonctionner correctement. Néanmoins on remarque rapidement que la version actuelle est encore en Alpha, de ce fait quelques différences apparaissent rapidement comme par exemple la vérification de l’environnement via la commande [environment]::OSVersion.Version retourne sous Windows 10 :

  • 10.0.10536.0 (=Windows 10) avec PowerShell 5
  • 6.2.9200.0 (=Windows 8) avec PowerShell 6

Cela prouve qu’il faut garder en mémoire que la majorité du code a dû être réécrit, des problèmes peuvent donc survenir ou des adaptations sont à prévoir…

Avec l’ouverture quelques adaptations apparaissent

PowerShell 6 est actuellement en Alpha et cela implique nécessairement quelques limitations ou adaptations pour la réutilisation d’anciens scripts :

  • .NET Core != .NET:  évident, mais cela à de grosse conséquence sur PowerShell, en effet les versions antérieurs à PowerShell 6 sont basées sur le Framework .NET : comme les bases ne sont pas les mêmes rien ne garantit à 100% qu’un script PowerShell (version inférieur à 6) fonctionnera en PowerShell 6.
  • PowerShell exécute la plupart des commandes en mémoire : donc pas de :
    • sudo ma_commande

    • mais plutôt
    • sudo powershell ma_commande

  • Windows != Linux/MaxOs: c’est une évidence, mais cela implique quelques nouveaux paramètres à prendre en compte :

En bref cela impliquera obligatoirement du développement spécifique par script, mais pour tout ceux ayant déjà touché à .NET Core ou au développement mobile Cross Platform cela devrait être naturel.

C’est quand même utilisable ?

Comme toute alpha, PowerShell 6 est intéressant pour les tests et la découverte, mais il ne faut surtout pas l’utiliser en production, le nombre important de problème (+ de 300 sur GitHub) et le nombre de fonctionnalités vitales encore non implémentées/bancales (gestion des services, remote, manipulation XML…) ne permettent pas d’utiliser PowerShell 6 comme outil de gestion ou de scripting principal.

Finalement…

PowerShell 6 s’annonce être une excellente version, même si celle-ci est encore en alpha et que le travail est encore conséquent pour fournir une expérience parfaite côté Linux et MacOs ! Si le pari est tenu, PowerShell sous Linux et MacOs pourra permettre d’avoir une gestion des scripts unifiée et ainsi qu’une centralisation des compétences, ce qui est loin d’être anodin dans un monde ou se battent principalement Windows, Linux et MacOs.

Retour sur l’nCrafts

notre_stand

Nous (notre stand sur la photo ci-dessus) venons de revenir d’nCrafts dans son édition 2016 !

Pour ceux qui n’ont pas suivi le dernier navire, retrouvez ce qu’est nCrafts et ce que nous faisons en cliquant sur ce lien.

NCrafts c’est plutôt une conf assez diversifiée sur un bon nombre de points de vue, on y retrouve des gens qui pratiquent plusieurs technos ou pas, qui viennent de différents pays et c’est cool !

Lire la suite

Ncrafts 2k16 et Goood!

Nous aimons Ncrafts

Ncrafts est une conférence faite par les développeurs, pour les développeurs. Nous sommes d’ailleurs nous-mêmes tous très proches du monde logiciel, que cela soit les développeurs, les coachs voire nos petits patrons !

ncraft

Un petit aperçu de la version 2015 d’Ncrafts, on peut même voir 2 goodiens en orange là tout à droite, les gens qui n’ont plus beaucoup de cheveux sur la tête, plus facile que de trouver Charlie hein ? :p

Nous partageons un bon nombre de valeurs et de croyances avec cette conférence ainsi que les gens qui la portent, hey coucou la communauté alt.net.

Lire la suite

TFS 2015: Customisation des activités de build (part2)

Auteur original, de notre ancien blog : Laurent Jacques

tfs1

Aujourd’hui nous allons discuter de la customisation des activités de build avec TFS 2015.En effet, alors que dans un prochain billet j’aborderai le tout nouveau système de build vNext ; il me semblait important de souligner une des (nombreuses) possibilités de customisation du mécanisme existant.

Etant donné le nombre d’étapes, j’ai scindé cette présentation en 2 parties : 

  1. la création d’un nouvelle activité (voir TFS 2015: Customisation des activités de build (part1))
  2. l’intégration du workflow dans la définition de la build.
 

PART2 : Intégration du workflow dans la définition de build.

Lire la suite

TFS 2015: Customisation des activités de build (part1)

Auteur original, de notre ancien blog : Laurent Jacques

tfs9

Aujourd’hui nous allons discuter de la customisation des activités de build avec TFS 2015. En effet, alors que dans un prochain billet j’aborderai le tout nouveau système de build vNext ; il me semblait important de souligner une des (nombreuses) possibilités de customisation du mécanisme existant. Etant donné le volume d’étapes je présenterai la customatisation en 2 parties : 

  1. la création d’un nouvelle activité de build,
  2. l’intégration du workflow dans la définition de build.
PART1 : Création d’une nouvelle activité de build.

Lire la suite

[ALM] TFS 2015 est RTM

Auteur original, de notre ancien blog : Laurent Jacques

tfs2015_1

Microsoft a publié hier la release finale de Team Foundation Server 2015.

Parmi les nouveautés notables par rapport à la version précédente, on peut noter:

  • Nouveau système de build : vNext
  • Nouveau pipeline de déploiement (countinuous delivery),
  • Amélioration agile & planning,
  • Modification du licensing (basic user).

Lire la suite

TFS 2015 : automatiser la création d’une définition de build XAML.

Auteur original, de notre ancien blog : Laurent Jacques

xaml1

xaml2

Aujourd’hui nous étudierons un cas pratique d’utilisation avancée de TFS  (2012,2013 et 2015) et de ses mécanismes de build.

Nous chercherons à automatiser la création et la suppression des définitions de builds avec l’utilisation de l’API de Team Foundation Server avec Visual Studio 2013.

Pour le cas d’étude de ce billet, l’organisation du code source se présente ainsi :

  • une branche dev : le travail courant des développeurs, tous check-in leurs modificationdedans au jour le jour.
  • plusieurs branches uat : en fin de cycle de développement, une nouvelle branche uat_X.Y.Z est créée à partir du dev pour partir en validation (test d’intégration)
  • une branche master : une fois validée la branche uat_X.Y.Z devient la nouvelle branche master : version référence pour les développements.

Ce qui donne par exemple l’arborescence suivante :

/Projet/
       /dev
	       /Appli1
		/Appli2
       /master
		/Appli1
		/Appli2
	/uat_1.2.3
		/Appli1
		/Appli2
	/uat_1.3.0
		/Appli1
		/Appli2

 

L’équipe de développement a mis au point deux définitions de build basées sur la branche DEV :

  • une intégration continue, tournant les tests unitaires automatiques, générant la doc, fournissant les livrables dans un répertoire dépôt;
  • une nightly : déployant les applications sur l’environnement de test tous les jours à 23h.

Problématique 

Une fois validée en interne, le DEV est branché en UAT_X.Y.Z : les définitions de builds ne fonctionnent donc pas sur cette branche.

Actuellement : pour chaque nouvelle branche UAT le lead technique vient créer une nouvelle définition de build UAT et ajouter les différents paramètres.

Besoin 

Automatiser le processus.

Mise en oeuvre

Pour cette première version nous visons la mise en place d’une app console en c# qui ira, à intervalles réguliers, vérifier l’état des branches et gérer les définitions de builds.[…]

Avant toute chose: ajouter les références (v12) dans le projet :

xaml3

1ière étape:  récupérer la listes des branches UAT existantes.:

List<Branch> branchList = new List<Branch>();
using (var tfs = new TfsTeamProjectCollection(_TFSserver))
{
    VersionControlServer vcs = (VersionControlServer)tfs.GetService(typeof(VersionControlServer));
    var items = vcs.GetItems(sourceCodeArea, VersionSpec.Latest, RecursionType.OneLevel,
        DeletedState.NonDeleted, ItemType.Folder).Items;
    foreach (Item item in items)
    {
        // skip self
        if (!item.ServerItem.Equals(sourceCodeArea))
        {
            if (item.ServerItem.ToLower().Contains(filter.ToLower()))
                branchList.Add(new Branch(item.ServerItem, item.CheckinDate, project));
        }
    }
}

Dans le code présent la logique est la suivante:

  1. on fournit comme paramètres :
  • l’url d’accès au serveur TFS ,
  • la zone de départ dans le source (sourceCodeArea) , 
  • un fitre est indiqué qui va permettre de ne ressortir que les branches qui nous intéressent (filter) 
     2. on récupère la liste des folders (branche) ;
var items = vcs.GetItems(sourceCodeArea, VersionSpec.Latest, RecursionType.OneLevel,                                          DeletedState.NonDeleted, ItemType.Folder).Items;

3. pour chacun de ses folders, on vérifie la cohérence du nom par rapport au filtre précisé :

if (item.ServerItem.ToLower().Contains(filter.ToLower()))

4. une fois récupérées, les branches seront ajoutées dans une liste d’objets maisons pour être gérées plus tard.

 

2ième étape:  récupérer les définitions de build existantes:

    var tfs = new TfsTeamProjectCollection(_TFSserver);
    tfs.Authenticate();
    var buildServer = (IBuildServer)tfs.GetService(typeof(IBuildServer));
    var buildDefinitionList = new List<IBuildDefinition>(buildServer.QueryBuildDefinitions(TEAM_PROJECT));

Afin de déterminer si les builds n’existent pas déjà, il faut en premier lieu récupérer la liste des builds existantes.

Les instructions ci-dessus permettent d’interroger le serveur TFS pour cela.

Ici, le TEAM_PROJECT  est simplement une constante représentant le nom du projet d’équipe.

L’appel à  buildServer.QueryBuildDefinitions va fournir l’ensemble des builds existantes pour le projet.

 

3ème étape:  parcourir la liste des branches et créer les builds inexistantes:

if (!buildDefinitionList.Exists(x => x.Name == TfsBuildServices.BuildName(projectName, branch)))
                {
                    IBuildDefinition CIBuild = buildDefinitionList.Where(x => x.Name == projectName + "_CI").First();
                    if (CIBuild != null)
                    {
                        var newbuild = buildServer.CreateBuildDefinition(TEAM_PROJECT);
                        newbuild.CopyFrom(CIBuild);
                        newbuild.Name = TfsBuildServices.BuildName(projectName, branch);
                        BuildSettings settings = new BuildSettings();
                        var process = WorkflowHelpers.DeserializeProcessParameters(newbuild.ProcessParameters);
                        settings.ProjectsToBuild = new StringList(((BuildSettings)process["BuildSettings"]).ProjectsToBuild.ToString().Replace("DEV",branch));
                        process.Remove("BuildSettings");
                        process.Remove("ProjectsToBuild");
                        process.Add("BuildSettings", settings);
                        process.Add("ProjectsToBuild", new string[] { settings.ProjectsToBuild.ToString() });
                        newbuild.ProcessParameters = WorkflowHelpers.SerializeProcessParameters(process);
                        newbuild.DefaultDropLocation += @"" + projectName;
                        newbuild.Workspace.Mappings[0].ServerItem = newbuild.Workspace.Mappings[0].ServerItem.Replace("DEV", branch);
                        newbuild.Save();
                    }
                }

1. une simple requête linq sur le nom de la build permet de passer la création si la build existe déjà

if (!buildDefinitionList.Exists(x => x.Name == TfsBuildServices.BuildName(projectName, branch)))

L’appel  à TfsBuildServices.BuildName  permet de centraliser et de formaliser  la création du nom de la build 

2. on récupère la build d’intégration continue qui va nous servir de modèle pour la nouvelle définition 

IBuildDefinition CIBuild = buildDefinitionList.Where(x => x.Name == projectName + "_CI").First();

3. on initialise la nouvelle build avec le modèle

var newbuild = buildServer.CreateBuildDefinition(TEAM_PROJECT);
  newbuild.CopyFrom(CIBuild);

4. la modification des paramètres

La build definition utilise des BuildSettings pour enregistrer ses paramètres :

BuildSettings settings = new BuildSettings();
                        var process = WorkflowHelpers.DeserializeProcessParameters(newbuild.ProcessParameters);
                        settings.ProjectsToBuild = new StringList(((BuildSettings)process["BuildSettings"]).ProjectsToBuild.ToString().Replace("DEV",branch));
                        process.Remove("BuildSettings");
                        process.Remove("ProjectsToBuild");
                        process.Add("BuildSettings", settings);
                        process.Add("ProjectsToBuild", new string[] { settings.ProjectsToBuild.ToString() });
                        newbuild.ProcessParameters = WorkflowHelpers.SerializeProcessParameters(process);
                        newbuild.DefaultDropLocation += @"" + projectName;
                        newbuild.Workspace.Mappings[0].ServerItem = newbuild.Workspace.Mappings[0].ServerItem.Replace("DEV", branch);

Ces settings sont sérialisés sous forme de dictionnaires et doivent donc être réédités pour cadrer avec le besoin spécifique UAT:

  • la copie de la build CI pointe par exemple vers la solution à compiler $/Project/dev/Appli1/Appli1.sln . il faut donc modifier ce répertoire pour celui UAT : 
settings.ProjectsToBuild = new StringList(((BuildSettings)process["BuildSettings"]).ProjectsToBuild.ToString().Replace("DEV",branch));
  • de la même manière le default drop location contient celle de la build CI et doit être modifié : 
newbuild.DefaultDropLocation += @"" + projectName;
  • et enfin le modèle objet de la définition de build contient aussi le mapping vers le répertoire source controle mappé qui doit lui aussi être remplacé : 
newbuild.Workspace.Mappings[0].ServerItem = newbuild.Workspace.Mappings[0].ServerItem.Replace("DEV", branch);

5. on sauvegarde, laisse 15 min au four : et hop. la build est créée !

newbuild.Save();

 

4ième étape:  supprimer les builds des anciennes branches :

Récupération de la liste des branches supprimées :

var items = vcs.GetItems(area, VersionSpec.Latest, RecursionType.OneLevel, 
DeletedState.Deleted,
ItemType.Folder).Items;

Pour chacune des anciennes branches on récupère la définition de la build associée (si elle existe)

IBuildDefinition UAT_CIBuild = buildDefinitionList.Where(x => x.Name == TfsBuildServices.BuildName(projectName, branch)).FirstOrDefault();
if (UAT_CIBuild != null)
{
   buildServer.DeleteBuilds(UAT_CIBuild.QueryBuilds());
}

A noter: pour pouvoir supprimer une définition de builds il faut que les historiques de run soient eux-aussi supprimés, c’est pourquoi l’appel buildServer.DeleteBuilds(UAT_CIBuild.QueryBuilds());  est fait ainsi  : cela supprime l’ensemble.

 

5ième étape:  emballer dans une petite application :

Je ne rentrerai pas dans les détails sur ce point, mais avec les éléments fournis rien de plus simple que de réunir tout cela dans une application qui tourne à intervalle régulier et exécute ces appels afin de synchroniser les définitions de builds et les branches.

 

Pour aller plus loin 

http://nakedalm.com/

https://msdn.microsoft.com/fr-fr/vstudio/ff637362.aspx

ALM ranger’s site

Prochaine étape 

Dans le prochain billet j’expliquerai comment se passer de l’application console en intégrant ce code au sein d’activités de build maisons et comment créer notre propre template de build avec tout ceci.

 

Laurent.