NTIC Factory News

Avril 2016

Editorial

La NewsLetter fait de la croissance externe ! Elle prend désormais en compte les activités des deux Factories NTIC (NTIC1 qui regroupe les CSPP de Lille, Lyon, Alicante et Casablanca et NTIC2 qui regroupe les CSPP de Meudon, Bellini, Toulouse et Lisbonne).
Le nom générique convient donc toujours à cette publication.
Trois propositions de nom plus originales ont été reçues. Le mois prochain (fin mai) elles vous seront communiquées (avec d'éventuelles nouvelles propositions reçues entre temps) pour recueillir vos avis.

La lettre débute toujours par la première rubrique récurrente : les retours quantitatifs du mois écoulé avec le nombre de ressources, le nombre de jours réalisés, la performance de la Factory (Résultats Mars 2016). Chaque indicateur est donné en valeur et en écart par rapport au budget (Point vert si les résultats sont meilleurs que prévus, Point rouge sinon). En Mars la plupart des indicateurs sont dans le rouge mais au global pour la BPR, les résultats sont en ligne avec le budget.

Autre rubrique habituelle : la communication via Twitter avec les premiers pas (la recherche d'informations), les principaux tweets de Gfi du mois d'Avril et les rendez-vous du mois de Mai à anticiper (Twitter Corner).

Les Midis Techniques du mois de mars ont été consacrés au GIT le 29 avril, trop tard pour figurer dans cette édition. Un article leur sera consacré dans l'édition du mois de mai.

Événement exceptionnel au mois d'avril avec le Devoxx 2016. Nos envoyés spéciaux reviennent sur cette manifestation qui s'est tenue du 20 au 22 avril à Paris et auront l'occasion de partager plus largement leurs découvertes (Devoxx 2016)

Les Matinales se poursuivent et s'étendent : il y en a eu 3 au mois d'avril à Lille, Lyon et Alicante (La Matinale de la BPR)

Le sujet de l'industrialisation est un thème central pour la BPR. Vincent Defrance a accepté de se prêter au jeu de l'interview pour expliquer comment, très concrètement, son équipe utilise les outils de la plateforme Delivery.gfi.fr et les avantages qu'elle en tire au quotidien (L'industrialisation par l'exemple)

Retour ensuite sur les rubriques habituelles avec le point sur le pipe commercial (Nouvelles Affaires) et l'officialisation de la certification ISO27001 sur un premier périmètre (QSI)

Résultats Mars 2016

Effectifs des Factories NTIC

Léger retard dans les effectifs de mars aussi bien sur NTIC 1 (3%) que NTIC 2 (7%).
Pour la Factory NTIC 1 le principal retard est constaté à Casablanca. Alicante est en train de refaire son retard. Lille et Lyon sont en ligne avec les prévisions (grâce au renfort de sous-traitants pour Lille).
Au cumul au sein de la BPR, le nombre total de ressources utilisées est en avance sur le budget avec 1 526 personnes productives en moyenne sur le trimestre (pour 1 506 au budget et 1 536 au mois de mars).

Jours de production

Le nombre de jours de production du mois de Mars est en retrait avec les prévisions aussi bien pour la Factory NTIC 1 (6 207 jours pour le mois, 17 766 jours pour le trimestre soit 7% de moins que le budget) que NTIC 2 (3 354 jours pour le mois, 10 019 jours pour le trimestre soit 10% de moins que le budget).
Le retard est particulièrement marqué à Lisbonne et dans une moindre mesure Casablanca, Alicante, Lille, Toulouse puis IDF2. Lyon et IDF1 sont en avance sur le plan de marche.

Production BPR

Au cumul sur le trimestre, la BPR a déjà produit 80 600 jours (dont près de 37% dans les deux Factories NTIC), en avance sur le budget de 234 jours .

Performance de la Factory NTIC

La performance de la Factory NTIC1 s'établit à 845 (*) jours en cumul depuis le début de l'année, soit 6,8% de la production de la Factory sur les projets permettant de dégager des gains de productivité.
(*) Hors rechiffrage sur projet MJ/ROMEO

En raison des difficultés rencontrées sur quelques projets fortement déficitaires, les projets de la Factory NTIC2 sont en perte.

Twitter Corner

Big image

Twitter pour aller plus loin...

La rubrique Twitter du mois de mars était consacrée à l'accès aux informations, la recherche et la lecture d'informations. L'intérêt de Twitter, par rapport à d'autres médias, est qu'il est possible d'interagir, de répondre, de partager, de donner son avis puis de publier ses propres informations.
Toutes ces opérations se font très simplement. En effet, les contraintes imposées par Twitter constituent également sa force.


Un tweet est composé de 140 caractères. Cette limite a pour origine la taille des SMS (160 caractères) réduite de 20 caractères pour l’adresse du compte. Inutile de s’en inquiéter : tous les éditeurs de tweets font le décompte et indiquent le nombre de caractères restant disponibles. Si le tweet fait plus de 140 caractères, il ne partira pas.

Ces 140 caractères peuvent contenir :

- Des comptes cliquables (liens hypertextes) : adresse du twittos préfixée par @

- Des hashtags (mots clé) préfixés par # cliquables (liens hypertextes)

- Des liens cliquables (adresse URL) renvoyant vers une page web utilisant, quel que soit le nombre de caractères du lien, 23 caractères

- De une à quatre images ou une vidéo utilisant 24 caractères

Et c’est tout !


Pour faciliter l'accès au média social, Twitter assouplit progressivement les règles. Ainsi, il est possible désormais d'ajouter :
  • jusqu'à 10 adresses d'abonnés : censés représenter les personnes présentes sur les photos, c'est surtout devenu le moyen de partager le tweet avec 10 autres comptes
  • jusqu'à 420 caractères par photo : prévus pour décrire les photos à des personnes mal-voyantes, ils sont aussi utilisés pour ajouter davantage de texte

Qui reçoit le tweet envoyé ?

Le tweet envoyé est visible :

  • dans le fil d’actualité et dans la liste de tweets émis de l'émetteur
  • dans le fil d'actualité des abonnés (followers) de l’émetteur
  • dans les fils d'actualités des personnes citées dans le tweet (dans les 140 caractères de base, dans les adresses jointes aux photos, dans les commentaires des photos
  • dans la liste des notifications de tous les comptes cités dans les tweets


Le tweet sera également visibles :

  • dans les listes dans lesquelles figurent l'émetteur du message
  • lors d'une recherche par hashtag pour peu que le message en contienne

Les tweets auxquels vous avez échappé en Avril

Pour ceux qui les auraient ratées, voici quelques unes des informations glanées au mois d'Avril 2016 dans les 201 tweets publiés par Gfi :
  • la 4ème édition de la soirée de recrutement Go For IT qui s'est tenue le 14 avril au Parc des Princes en partenariat avec le PSG Handball Suite...
  • l'événement exceptionnel organisé par Gfi en partenariat avec la Fondation PSG et qui a réuni 1000 enfants le 19 avril. Cet événement a donné lieu à un Live Tweet, de larges couvertures en image et vidéo par le PSG Handball et une synthèse par Gfi Suite...


  • David Tenza, expert Testing explique comment garantir la robustesse d'un site de eCommerce Suite...
  • Céline Simon témoigne sur les actions RH et Sponsoring Suite...
  • Gfi partenaire de la Journée Française des Tests Logiciels #JFTL16 Suite...
  • Valérie Reynaud présente de Design Thinking Suite...
  • Gfi lance 4 spots de publicité sur BFM Business (#digitalbanking #omnicommerce #smartcities #usine40) Suite...
  • Cédric Fernandez parle d'innovation dans l'infogérence Suite...
  • Participation des experts de la Factory NTIC de la BPR aux journées @Devoxx Suite...
  • Gfi certifié ISO27001 Suite...
  • Jean-François Penciolelli présente l'offre Smart Cities Suite...
  • Le PSG Handball sponsorisé par Gfi, champion de France Suite...
  • Pleine page sur le sponsoring du PSG Handball par Gfi dans l'équipe Suite...
  • Live Tweet sur la journée des enfants organisée par Gfi et la Fondation PSG avec de larges couvertures en image et vidéo par le PSG Handball et une synthèse par Gfi Suite...
  • Séminaire Retail en partenariat avec Vekia à l'Ermitage Gantois à Lille Suite...
  • Marque employeur, sponsoring et recrutement au sommaire du magazine Stratégies Suite...
  • Gfi sponsor du challenge Sécurité organisé par l'Epitech Suite...
  • Gfi contributeur du livre blanc sur la transformation numérique du parcours de vie Suite...
  • Présentation de la solution VigiBox de Gfi Suite...
Big image

Les rendez-vous de Mai

Événement Recrutement au Footsal de Villeneuve d'Ascq le 10 mai 2016 et à Strasbourg le 9 mai.
Le lancement du nouveau site internet de Gfi : www.gfi.world le 23 mai 2016

Séminaires techniques - Formation

Au programme du prochain Midi Technique : Android

Les contraintes de bouclage de la Newsletter n'ont pas permis de faire un retour sur le séminaire consacré à GIT qui s'est tenu le 29 avril. Il y sera donc fait mention dans le prochain numéro.

Le séminaire du mois de mai sera animé par Nicolas Rousseau (merci à lui) et sera consacré à une présentation d'Android.

Les inscriptions seront ouvertes très rapidement et toujours accessibles au sein de notre outil confluence :

https://delivery.gfi.fr/confluence/display/FORM/Midi+Technique

Devoxx 2016

Big image

Le Devoxx 2016, 5ème du nom (http://www.devoxx.fr/) s’est tenu du 20 au 22 avril à Paris. Fabrice Daugan et Arnaud Locquet étaient nos envoyés spéciaux sur l’événement. L'occasion d'avoir un condensé de l'actualité IT en mode rattrapage-perfusion-brainwashing.


Devoxx, c'est tout d’abord : 222 conférences sur 28 créneaux, 2500 participants sur 3 jours. Difficile à deux de couvrir l'intégralité de l'événement. Ils ont donc procédé à un booking priorisé sur les intérêts de Gfi, du marché et personnels.


Impressions au fil de l’eau…

Jour 1 : goodies, hands-on labs, sandwiches, hands-on labs, café, tools in action

Journée marquée par du DevOPs et plus précisément le niveau au-dessus du container avec Kubernetes.
Inquiétude en début de journée avec des batteries qui se vidaient rapidement et le risque de se retrouver rapidement avec un crayon pour le reste de la journée. Google avec ses TP est arrivé en sauveur : salle fournie en prises 220v et tables confortables.


Avec Google Cloud, la gestion de près d'un To de data avec une dizaine de containers avec des mises en place de réplications était vraiment impressionnante.


La fin de journée est consacrée à des sessions courtes sur des sujets plus "légers" :


  • Java 9 good & evil : des problèmes insoupçonnés de compatibilité
  • D3.js : une vision de "La Poste", pour se détendre
  • KeyCloak : un SSO, CAS-like avec un speaker sympathique pour un contenu sans vraie surprise
  • jGiven : un cucumber like pour exprimer ses exigences et assertions avec des phrases
  • TDD pour l'infra (TDI) avec Docker : un contre sens en détournant Docker (un sérieux hack) pour tester ses containers avec des containers.

Jour 2 : aussi speed que la veille et plus diversifié

Les sessions du jour :

  • Docker repo présenté par jFrog : pas vraiment clair, un peu bidouille sur les versions pour garantir la constance des containers, mais une vraie expérience partagée avec Netflix avec quelques milliers des déploiements mensuellement.
  • Unikernel : une alternative à docker, plus performante, sécurisée, fusionne process et OS et compatible Kubernetes… normal puisque poussée par Google. A surveiller !
  • Le fight JS : une revue des frameworks du marché. Le mini-crack lié à l'annonce d'Angular 2 profite aux solutions plus historiques telles que EmberJS, React ou BackboneJs plus raisonnables. Le monde n'est pas prêt pour TypeScript même si c'est plus hype.
  • Hadoop : retour d'expérience d'une infra de 100Po (sic !), donc du vrai Big Data. Speech pas du tout technique qui n'a pas déplacé de foule (20 personnes).
  • Bug Bounty : Essentiellement de la promo pour la plateforme Yogosha. Le Bug Bounty est une approche discutée dans le groupe Yammer de Sécurité, et ne va concerner qu'une poignée de clients prêts à franchir le pas.
  • Jenkins : Annonce de la V2 en live avec une démo ! Révolution modérée qui intègre principalement (et nativement) le plugin Pipeline+DSL. L'adoption restera tout de même complexe. Pour information, Jenkins 2 est déjà en production dans la PIC de la BPR.
  • Hibernate Search + Elastic Search : rien d'exceptionnel, mais mise en scène soignée et une salle confortable...
  • JHipster : une stack fonctionnelle complète, made in France, mais trop fraîche pour en tirer des conclusions pour de réelles Mise en Production. La partie code généré fait assez peur : 0 ligne de code vue ou manipulée et round tripping non supporté.
  • Rancher : une GUI pour Docker [compose], une solution sexy mais un peu light et longue à mettre en œuvre ; beaucoup de clics, de saisies et d'écrans pour faire les configurations. Concurrent de Kubernates mais en moins puissant et moins populaire.

Jour 3 : démystification de la Blockchain, fontaine à chocolat, des LED, R.I.P. Angular, du REST et de la philosophie

Keynotes :
  • Eclairage par un avocat sur les licences et les implications sur les manières de coder
  • Un peu de philo… assez moyen
  • Une projection futuriste by Sciences Po Paris.
  • Les open data française : la France est en retard sur l'Estonie, encore en « beta », mais ça avance.

Les sessions du jour :

·

  • Angular2 : un vrai cauchemar pour les Angular fanboys qui avaient rempli la salle et qui s'écroulaient littéralement avec le feedback du chemin de croix pour passer de la v1 à la v2. Le tout émaillé de "J'ai essayé et ça ne marche pas" du speaker. Enfin, le "Fatality" (Mortal Kombat ;)) en guise de conclusion : "Ne démarrez ni sur Angular 1 ni sur Angular 2". De sages paroles ? En tous cas des paroles dissonantes face à l’engouement affiché par les clients !
  • Blockchain : quelques démos sur la technologie qui fait le buzz du moment, mais rien de concret malheureusement en live, puisque les devoxiens n'ont démontré aucun mineur et au plus une seule transaction. Les seuls champs d'applications plausibles étaient : banque et troc (eBay like - objets ou services). Le principe reposant sur une confiance implicite est bien démontré et applicable, mais il y aura toujours un intermédiaire au moins pour présenter les contenus et dont le modèle économique ne reposera plus que sur la mise en relation ou l'assurance post-transaction. A suivre…
  • API UX et design REST : pas vraiment de découverte, mais permet de connaitre les pratiques des autres, dont certaines discutables. Donne aussi des conseils pour créer une API pour une plateforme : doc, tutorial, code snippets.
  • Microservices : Magnifiquement présenté par Josh Long de Spring. Un speaker excellent, une démo sans accroc et un contenu avec un flux d'une rapidité rarement vue. Une vraie session de live coding à voir et à revoir. Ceux qui ont déjà vu ses vidéos connaissent son stock de running gags, mais pour Devoxx 2016 il a innové et sur les fonctionnalités Spring Boot, il est allé plus loin dans la démo dans un temps record.
  • Test avec Docker : Titre un peu trompeur, puisqu'il y avait du Arquillian sous le capot et ce fut aux antipodes de la session Spring. Sans panache, ni paillettes, avec un code qui donne un peu la nausée, ne donnant pas vraiment envie aux développeurs de se réconcilier avec les tests, et avec une technologie d'un autre âge... [troll]. Mais les pro-JSF ont sans doute été plus réceptifs… [/troll]
  • Wifi avec des LED (Li-Fi) : un peu de fun avec un procédé astucieux et pas compliqué. Le procédé n'est pas nouveau (2013 - http://www.techhive.com/article/2061158/lifi-uses-leds-for-blazing-fast-data-transfer.html) mais a été mis à la portée du premier venu : une LED, un smartphone, un soft branché sur la caméra pour détecter les micro-scintillements de la LED.

Conclusion

Au cours de ces 3 journées, la tension entre les éditeurs était palpable. Les superlatifs, trolls, etc… ne manquent pas. Il y a même du "DevOps 2.0" chez Dynatrace....
L'intérêt de ce type de séminaire est de faire la part des choses entre les présentations qui tiennent plus du marketing et les produits réellement opérationnels, utiles et performants. Confronté à la réalité, certains d'entre eux ne se montrent pas à la hauteur des attentes.
Cet événement, est aussi l’occasion de sonder le marché (les tops et les flops), de tester avec les éditeurs certaines fonctionnalités, de bénéficier d’avant-premières et d’échanger avec d’autres experts. Cette année encore il a été l'occasion d'avoir de bonnes surprises ou une confirmation des attentes (Microservices), des potentiels à surveiller (Unikernel, Blockchain) et des éclaircissements (Angular JS).

Il faut maintenant prendre un peu de recul et bien digérer ces informations. Une partie des informations est disponible sur Yammer pour effectuer un premier partage avec les passionnés de Gfi. Yammer ne permettant pas d’exprimer complètement le contenu et les détails techniques de chaque sujet, Fabrice et Arnaud procéderont sur Arkadin, dans les semaines qui viennent, à des restitutions par séances de 20 minutes, mono-thématiques sur un format : mini-conférences, technologies abordées puis questions/réponses. Les questions posées dans Arkadin (chat) seront traitées directement durant la séance. Il n’y a pas de limite sur le nombre de participants. Tout le monde y est donc convié !
Les sessions suivantes sont déjà planifiées :
  • DevOps le 18/05 à 12h15
  • Web(JS,…) le 25/05 à 12h15
  • Microservices le 01/06 à 12h15

Ce séminaire a aussi permis de prendre conscience que la BPR dispose désormais d'un outil industriel parfaitement à l'état de l'art. Un aperçu en est donné dans l'article "L'industrialisation par l'exemple". Un autre article sera consacré, dans un prochain numéro, au portail SaaS.


Il se pourrait donc bien qu'au prochain séminaire Devoxx, Gfi présente ses propres outils à la communauté Java. Un beau challenge à relever !

La Matinale de la BPR - Be Yourself!

Big image

La Matinale de la BPR - Be yourself! à Charbonnières le 6 avril 2016

Situation un peu particulière à Charbonnières dans la mesure où l'ensemble des projets .Net et NSDK sont réalisés, pour le moment, pour un client unique. La conversation a donc forcément tourné autour de ce client et la Matinale a pris des allures de comité de Suivi.

Elle a cependant aussi été l'occasion de faire le point sur l'intégration des équipes au sein de la BPR dans le cadre du Plan Prod2016, des difficultés particulières rencontrées, notamment dans le cadre de l'industrialisation de solutions encore peu répandues au sein de la BPR et du projet de déménagement au centre de Lyon.

La Matinale de la BPR - Be yourself! à Alicante le 13 avril 2016

C'est au milieu d'une ruche très active que s'est tenue la Matinale d'Alicante avec 13 personnes serrées autour de la table d'une salle très convoitée en raison du manque de place suite à une forte croissance depuis le début de l'année.
Trinidad et Goya sont venues mettre un peu de féminité dans une population de chefs de projet, Tech Leaders et Teams Leaders très masculine.
Les questions ont porté sur l'arrivée du nouvel actionnaire de Gfi mais également sur la situation propre à Alicante :
  • l'absolue nécessité de s'agrandir (le 3ème étage est en cours d'aménagement pour recevoir une partie des projets), d'autant plus que des extensions sont prévues sur les projets avec la branche Software (Chronotime et ITN/CLEVA) et sur les projets espagnols avec de fortes montées en charge sur Telefonica, Bankia et Euskaltel.
  • les difficultés rencontrées au quotidien pour accéder aux environnements des clients et poursuivre les opérations d'industrialisation des projets en tenant compte des contraintes de mise en oeuvre (toutes les opérations liées à l'infrastructure et à l'outillage passent par la BU de Madrid) et des contraintes des clients (certains outils imposés par la branche Software, par exemple, diffèrent des choix réalisés dans les autres entités du Groupe).

La Matinale de la BPR - Be yourself! à Lille le 26 avril 2016

Assemblée plus réduite, et plus féminine (!), pour la deuxième Matinale à Lille. L'occasion de parler de la Newsletter, mais également des conditions de travail au quotidien, des difficultés rencontrées sur les projets, de la reconnaissance du travail effectué par les collaborateurs, du projet de regroupement des salariés du Nord sur le site de Lille...
Le "Be yourself" et la posture des questions sans tabous ont été respectés à la lettre. C'est aussi le but des ces échanges, même si, la durée limitée des échanges n'a pas permis d'explorer entièrement les propositions d'amélioration, les moyens concrets de progresser.

Les remarques ont cependant été entendues et partagées avec les équipes de management qui poursuivent les initiatives comme celles qui ont été mises en place depuis le début de l'année, pour créer des conditions de travail avec un esprit constructif et positif qui permet d'aller de l'avant et donne envie à chacun de s'investir et de se dépasser.

L'industrialisation par l'exemple

Big image

Le déploiement industriel

La Branche Production dispose depuis plusieurs années d'une Plateforme d'Intégration Continue comprenant un ensemble d'outils destinés à automatiser, industrialiser, professionnaliser et, in fine, produire mieux, plus vite et avec une meilleure qualité.
Un effort important a été réalisé en 2015 pour compléter la gamme des outils et les diffuser plus largement. Les équipes ont ainsi été formées, le processus de mise en œuvre des outils a été simplifié et une cellule support répond désormais aux besoins des équipes projet.
Le déploiement des outils a connu un développement spectaculaire depuis quelques mois. La plupart des projets qui peuvent être outillés le sont désormais (sur certains projets, les outils sont imposés ou doivent être validés par les clients; dans ce cas, les équipes se conforment évidemment aux contraintes imposées; la maîtrise de ces outils et la rapidité de mise en œuvre est cependant moindre, raison pour laquelle, il est préférable de proposer aux clients une plateforme complètement intégrée).

L'industrialisation au quotidien

A quoi servent tous ces outils ? Ont-ils un apport réel pour les équipes de développement ou ne s'agit-il que d'un vernis marketing ? La mise en place de ces outils a un coût. Quel est-il ? Y a-t-il un réel retour sur investissement ?

Ces questions sont souvent posées par ceux, internes ou clients, qui pensent encore qu'après tout, il suffit de bien faire son travail, de coder proprement et sans bug et que dans ces conditions, tout ses outils ne sont qu'une perte de temps.

Vincent Defrance, chef de projet à Lille, s'est plié au jeu de l'interview pour partager ses convictions.

NewsLetter : Bonjour Vincent. Peux-tu te présenter pour commencer ?
Vincent Defrance : J'ai intégré le CSPP Lille il y a 8 ans et suis intervenu sur différents projets de développement Java. Les dernières années je suis notamment intervenu sur quelques gros projets, bien connus chez Gfi, comme le projet Cassiopée pour le Ministère de la Justice, le projet SARA pour la Haute Autorité de la Santé et depuis 6 mois, je dirige le projet ROMEO pour le Ministère de la Justice.
NL : Roméo ? Drôle de nom ; les Montaigu auraient-il pris la décision d'assigner les Capulet en Justice ?
VDE : Non, ça n'a rien d'une romance. Il s'agit de l'acronyme de Réquisition et Ordres de Missions Extérieurs pour les Opérateurs. Pour simplifier, il s'agit d'une application qui gère toutes les problématiques liées aux transfèrements des prisonniers. Nous avons démarré le projet en septembre dernier et venons de livrer la première partie importante, le Chantier 3 dans la nomenclature contractuelle.
NL : Et donc tu as outillé ce projet. Est-ce la première fois ?
VDE : Non, sur tous les projets que j'ai menés, j'utilisais les outils de notre plateforme de Delivery. Au fil des ans, nous l'avons enrichie, nous avons améliorés les outils existants, les avons intégrés de plus en plus pour simplifier la tâche des utilisateurs et les avons automatisés.
NL : Combien de temps as-tu mis pour rendre cette plateforme opérationnelle sur le projet ROMEO ?
VDE : Pour constituer un environnement complet, intégrant l'ensemble des applications utilisées en standard par la BPR avec les autorisations d'accès pour tous les membres de l'équipe (aussi bien Front que Back Office), il ne faut pas plus d'une journée. S'il faut ajouter des outils spécifiques, imposés par le client, cela peut évidemment prendre plus de temps.
NL : D'accord, mais tu ne nous a parlé, pour le moment, que du délai, étonnamment court en effet, de mise en place. Tu oublies de nous dire qu'il y a aussi une charge conséquente de maintenance, d'adaptation, d'exploitation, d'administration...
NDE : Pas du tout. Si je n'en parle pas, c'est que justement, cela ne prend pas trop de temps. Tous les problèmes que nous avions auparavant et que nous voyons encore sur certains projets réalisés en-dehors de la BPR, ont disparu ! Nous n'avons aucun problème d'hébergement, les sauvegardes sont faites automatiquement, nous pouvons partager nos environnements sur plusieurs sites et en plus notre taille nous permet de disposer d'une équipe support qui répond aux demandes des utilisateurs, organise des formations ou des séances de coaching, surveille en permanence nos environnements et s'assure qu'ils sont toujours opérationnels, vérifie que nous disposons en permanence des versions les plus à jour et enrichit continuellement notre plateforme avec de nouvelles fonctionnalités et de nouveaux outils.
NL : L'arrivée de nouveaux utilisateurs ne doit pas être simple. Il faut les déclarer dans tous les outils, créer les droits d'accès...
VDE : Pas du tout. Nous disposons d'un annuaire LDAP qui nous permet de donner simplement tous les accès dont l'utilisateur à besoin. Il se retrouve donc immédiatement dans un environnement qui lui permet d'accéder à tous les outils déjà personnalisés pour son usage propre. Fini les attentes interminables. En quelques clics il est prêt à démarrer sa nouvelle mission.

NL : Pouvons-nous voir à quoi ressemble le résultat obtenu ?
Big image

Confluence : à la fois portail documentaire, espace collaboratif et outil de pilotage

VDE : Démarrons pas Confluence, qui peut être le point de convergence de tous nos outils. Système de gestion documentaire (un mixte entre un wiki et un portail de type Alfresco), Confluence nous permet de partager nos connaissances avec tous les membres de l'équipe à Lille et avec nos collègues de la BU TP à Paris qui gèrent ce contrat avec le Ministère de la Justice.
Sur certains projets, nous partageons aussi certaines informations avec nos clients mais le Ministère de la Justice utilise son propre outillage (Alfresco). Toute l'équipe projet utilise ainsi Confluence pour partager des documents techniques, des informations sur le fonctionnel de l'application, les informations sur l'avancement du projet... Nous y avons aussi intégré un livret d'accueil qui facilite l'arrivée de nouveaux collaborateurs sur des projets qui connaissent une montée en charge lissée dans le temps et bien entendu nous y retrouvons les différents process du projet et l'arborescence documentaire héritée de GMS : les documents contractuels, les documents applicables.... La qualité est ainsi complètement fondue dans le projet; les nouveaux arrivants appliquent les procédures de façon intuitive et naturelle et le projet peut être audité en permanence (y compris par les auditeurs AFAQ) sans aucune préparation particulière de notre part.
NL : Tout cela est-il vraiment nécessaire ? Au quotidien cela n'est-il pas une perte de temps pour le projet ?
VDE : Au contraire. Cela nous fait gagner énormément de temps. Toute l'équipe projet, en Back Office à Lille mais également en Front Office à Paris, a en permanence un état d'avancement du projet. Les informations sont partagées, nous évitant de longues heures de mise à niveau. Lorsque nous faisons des réunions, nous allons droit au but. Tout le monde ayant déjà le même niveau d'information, nous traitons les cas litigieux et faisons nos arbitrages en connaissance de cause.
Tous les documents contractuels sont en ligne, tout comme les Ordres du Jour et les Comptes-Rendus des différents comités projets (internes ou avec le client).
Dans les phases de montée en charge, les nouveaux arrivants disposent d'un livret d'accueil et trouvent facilement les informations dont ils ont besoin. Nous ne perdons donc pas de temps à les former et ils sont opérationnels très rapidement. Comme en plus, nous utilisons les mêmes outils et les mêmes environnements de travail sur tous nos projets, cela fait encore une étape d'apprentissage en moins.
Nous venons par exemple d'intégrer une promotion d'une vingtaine de stagiaires. Nous avons dans nos équipes d'excellents formateurs qui connaissent parfaitement les environnements Java/J2EE et qui maîtrisent nos outils. En deux à trois semaines, nous sommes ainsi capables d'enseigner les bases aux nouveaux arrivants qui peuvent rapidement intégrer un projet dans lequel ils retrouvent immédiatement un environnement connu.

NL : N'importe qui peut donc en quelques semaines intervenir sur un projet aussi complexe que ROMEO ?
VDE : Je n'ai pas dit cela. Ces personnes ne sont évidemment pas opérationnelles immédiatement. Et puis, les compétences et capacités d'adaptation diffèrent d'une personne à l'autre. Cela dit, assez rapidement nous pouvons cependant leur confier des tâches simples, puis de plus en plus complexes en fonction de leur capacité d'évolution. Sans ces formations et nos environnements de travail, ils n'auraient pas le temps, sur une durée de trois mois, de faire quoi que ce soit.

NL : Comment peux-tu conclure cette partie consacrée à Confluence ?
VDE : La grande force de l'outil est sa capacité à partager très facilement et sans grand effort, des informations avec les différents acteurs du projet. L'arborescence des pages étant identiques pour tous les projets, tout le monde s'y retrouve très facilement et passe d'un projet à l'autre sans nécessiter une longue phase d'apprentissage.

Mon regret est que pris par les contraintes du projet, nous avons dû restreindre nos ambitions. Certains de mes collègues commencent à utiliser les fonctionnalités collaboratives que propose l'outil, ainsi que les outils de pilotage qui permettent de partager simplement une roadmap, un planning plus ou moins détaillé, des jalons, des KPI projet...Même si je trouve que nous disposons déjà d'un bel outil qui simplifie énormément notre activité au quotidien, j'estime que nous n'utilisons aujourd'hui que 30% de ses possibilités. Il est possible d'aller encore beaucoup plus loin. J'ai hâte que nos collègues nous fassent profiter des nouvelles fonctionnalités qu'ils ont mis en œuvre car c'est cela aussi, l'industrialisation au quotidien : partager et permettre aux autres, de disposer facilement et sans investissement particulier, de nouvelles fonctionnalités.
Big image

JIRA, l'outil des gestion des anomalies adapté aux besoins de chacun

NL : Depuis Confluence, il est aussi possible d'accéder directement à JIRA. Nous sommes là dans un monde plus connu, puisque cet outils de gestion des incidents est utilisé depuis longtemps par la plupart des entités de Gfi.
VDE : Effectivement, à la base nous utilisons le même outil. Cela dit nous en avons fait un outil entièrement intégré, accessible directement depuis Confluence et disposant d'une bibliothèque de workflows disponibles immédiatement sur les nouveaux projets.
NL : Oui, mais très souvent, le client impose un fonctionnement particulier qui conduit à passer beaucoup de temps à créer de nouveaux workflows, à personnaliser l'application et à l'adapter à ses contraintes.
VDE : Absolument et c'était notre cas pour ROMEO. J'ai présenté la demande du Ministère à notre équipe support et un quart d'heure plus tard, notre JIRA personnalisé était en place ! Nous disposons donc d'un workflow spécifique à ROMEO, mais celui-ci est immédiatement venu enrichir notre bibliothèque et il est désormais réutilisable sur d'autres projets. Notre équipe d'industrialisation maîtrise cela de bout en bout et nous aide à trouver la solution la plus adaptée à notre projet. Ainsi par exemple, grâce à l'activation de filtres, chacun peut créer facilement son propre tableau de bord qui pourra aussi être partagé avec d'autres équipes. Il est par exemple possible de créer un tableau de bord pour le Chef de Projet avec une vision très macroscopique des indicateurs, un tableau de bord plus détaillé au niveau d'une application pour le responsable d'application et un tableau de bord simplifié ne comprenant que les tickets qui lui sont affectés, à un développeur. Chacun dispose ainsi immédiatement des informations dont il a besoin avec un affichage entièrement personnalisé.

Sur certains projets plus petits nous avons mêmes des chefs de projet, en charge de plusieurs projets, qui possèdent un tableau de bord affichant les anomalies qui concernent l'ensemble de leurs projets. et tout cela est fait en un claquement des doigts !
Big image

Sonarqube, le tableau de bord de la qualité du code

NL : Vous avez également accès à Sonarqube.
VDE : Effectivement, ce logiciel utilisé pour mesurer en continu la qualité du code source est également intégré à la plateforme. Nous disposons d'emblée d'un tableau de bord très complet comportant l'ensemble des indicateurs les plus pertinents définis à partir de l'expérience acquise sur nos nombreux projets. Je rappelle que nous allons faire plus de 320 000 jours de prestation en 2016. Tous les ans notre expérience augmente de 1500 années.homme ! Autant dire que je n'ai pas éprouvé le besoin de personnaliser davantage mon tableau de bord. Je sais que les indicateurs proposés répondent à tous nos besoins et évoluent et s'enrichissent en permanence. Chacun peut apporter sa propre contribution.
NL : Tout à l'air au vert sur le projet ROMEO ?
VDE : Effectivement, nous mesurons en permanence la qualité de notre code et surveillons un ensemble d'indicateurs comme le nombre de lignes de code (plus de 90000 pour ROMEO), le nombre de fichiers (1300), le nombre de builds réalisés en cumul et le nombre de builds réalisés par chaque collaborateur... Les tests unitaires, tests d'intégration et tests de non régression sont réalisés automatiquement et nous voyons directement le nombre d'anomalies bloquantes, le nombre d'anomalies majeures ou mineures.
Actuellement nous utilisons un profil java générique sur tous les projets (Gfi2016) qui comporte un gabarit de 660 règles de codage technique, les 10 règles OWASP...
NL : Et quel est l'avantage de cette opération qui doit prendre pas mal de temps pour être configurée puis pour être exécutée ?
VDE : Si on respecte l'ensemble de ces règles nous sommes assurés d'avoir moins d'anomalies en retour client. L'outil détecte la plupart des anomalies qui seront donc corrigées avant d'envoyer les livrables au client. L'opération d'analyse ne nous prend pas de temps puisque nous la lançons généralement la nuit. Et puis, comme je l'ai déjà indiqué, nul besoin de personnalisation : les tableaux de bord standards étant très complets, tout le monde les utilise. Si les règles évoluent ,nous en sommes informés et pouvons voir rapidement quelles règles sont appliquées au projet.
Big image

Nexus, la librairie universelle

NL : Passons maintenant à Nexus...
VDE : Oui, il s'agit d'une bibliothèque permettant de partager des ressources entre plusieurs projets. On y retrouve ainsi des librairies Jboss, Primefaces, Spring, des outils de gestion des logs... Lors de la construction d'un nouveau projet, il suffit de rechercher dans ce dépôt, toutes les librairies utiles pour les développements à venir. Nous partons donc avec un socle qui reprend tout ce qui a pu être réalisé ou utilisé sur des projets analogues. Cela nous évite de partir d'une feuille blanche et nous garantit de démarrer avec des composants qui ont fait leurs preuves.
Un projet qui a besoin d'une librairie spécifique (par exemple un tableur en format libre ODS), intègre la librairie dans NEXUS. Il suffit alors de la référencer dans le projet.
NL : Et donc, à nouveau un gain de temps...
VDE : Effectivement mais pas uniquement. Pour nous c'est aussi l'assurance que tout le monde utilise les mêmes composants (et des composants qui ont fait leur preuve) et que nous réalisons des applications les plus standards et les plus reproductibles possible.
NL : Et donc aussi des applications plus maintenables ?
VDE : Absolument. Nous y gagnons en temps et en efficacité lors de la conception, mais cela rend également les opérations de maintenance plus simples.
Big image

Squash, l'industrie du test

NL : A part les tests unitaires et les tests de non-régression, tu nous a peu parlé des outils de tests.
VDE : Effectivement. L'outil déployé aujourd'hui sur les projet de la BPR (et accessible également depuis Confluence) est SQUASH. De nombreux projets l'utilisent mais pas nous, sur ROMEO. En effet, la recette usine y est réalisée par la BU TP qui se base sur les plans de tests du client pour les réaliser.
NL : Et sur les autres projets, comment cela se passe-t-il ?
VDE : Sur le projet SARA pour la HAS, par exemple, nous l'utilisions. SQUASH permet de réaliser la liste des plans de test, de gérer les exigences à vérifier, de créer des espaces d'écriture des cas de tests en liens avec le exigences, de gérer les campagnes de tests...
NL : Quel est l'apport d'un tel outil ?
VDE : Il nous permet de visualiser sur un même écran, tous les plans de tests et le déroulement de ces tests. Lorsque les tests sont terminés, nous disposons de rapports qui permettent de voir dans le détail comment les tests se sont déroulés. De plus nous pouvons produire une édition des cahiers de tests que nous pouvons envoyer au client. Il a donc un état complet des lieux avec le nombre de cas de test, le nombre de tests passés avec succès ou en échec, la description détaillée du test (il est même possible d'y ajouter une pièce jointe), de vérifier quels tests ont été réalisés... Sur SARA, le cahier de recette remis au client fait plus de 1000 pages ! C'est dire le niveau de détail et la complétude des opérations réalisées.
NL : Justement, n'est-ce pas un peu trop complexe ? N'y a-t-il pas le risque, d'être noyé par ce flot d'informations ?
VDE : Aucunement. Nous avons fait un découpage très détaillé de l'application et réalisons des rapports de tests par module unitaire. Le cahier de recette est généré automatiquement et correspond au lotissement du projet. De plus, la mise en place est très légère, la prise en main de l'outil est très simple et ne demande pas un long apprentissage comme ce qui se produit avec des outils plus sophistiqués tels que QC par exemple. Un transfert de compétence est réalisé en deux heures et une fois de plus, l'application ayant été déployée sur tous les sites, dans toutes les équipes de la BPR, nous disposons aujourd'hui d'une bonne maturité sur un sujet qui se développe au fil du temps.
Big image

Jenkins, une dose de DevOps

NL : Nous avons beaucoup parlé d'outils permettant de communiquer, de partager l'information, de construire une solution, de vérifier qu'elle fonctionne correctement...Qu'utilisez-vous pour produire les livrables que vous remettez à vos clients ?
VDE : Nous utilisons Jenkins, une solution de construction automatisée des livrables. Là où auparavant tout était réalisé manuellement, prenait beaucoup de temps et était source d'erreurs, nous pouvons maintenant, à l'aide d'outils de ce type, créer des tâches qui construisent les livrables automatiquement, généralement de nuit. Jenkins permet de vérifier que tout fonctionne correctement, lance des tests unitaires, permet de vérifier que les nouveaux développements n'entrainent aucune régression...
En cas de besoin, nous pouvons lancer des builds le jour, mais généralement nous le faisons de nuit pour éviter de créer des contraintes aux développeurs et profiter à fond de la disponibilités de nos serveurs.
NL : Tous les matins vous avez donc un état d'avancement des travaux réalisés ?
VDE : Tout à fait ! Les opérations lourdes, longues et peu gratifiantes pour les collaborateurs ont été réalisées pendant la nuit et nous retrouvons le matin un bilan détaillé de ce qui s'est passé : le nombre de tests passés à chaque build, le taux d'erreur, les performances de chaque contributeur...
NL : Cet outil couvre-t-il tous les besoins liés à la production des livrables ?
VDE : Il en couvre une bonne partie. Dans le cadre de nos réflexions sur le DevOps, certains projets expérimentent d'autres solutions qui permettent d'aller plus loin et d'automatiser davantage la préparation à la mise en production. Dans le cadre de ROMEO, nous n'avons pas cette demande, dans la mesure où le client dispose de ses propres équipes, ses propres process et ses propres outils pour installer la solution sur ses plateformes de recette puis sur l'environnement de pré-production en enfin de production après avoir passé avec succès les étapes de VABF (Vérification d'Aptitude au Bon Fonctionnement) et de VSR (Vérification de Service Régulier)
NL : Tu nous dis cependant que d'autres équipes expérimentent ce type de solution ?
VDE : Effectivement. Je sais que nos collègues à Alicante, utilisent à la demande de leur client Telefonica, le produit Clarive qui comprend des fonctionnalités proches, mais intégrées dans un outil unique, de celles que j'ai présentées avec Sonarqube, Jenkins et Nexus. Il permet d'automatiser un ensemble de fonctionnalités et les équipes Qualité du client utilisent les informations produites pour réaliser leurs tableaux de bord.
NL : Et sais-tu quel est leur retour d'expérience ?
VDE : Non, pour le moment nous testons le produit en grandeur nature sur le projet Telefonica qui comprend près de 25 personnes. Une fois qu'ils auront des résultats probants, j'imagine qu'Antonio, l'architecte de la solution, en fera une présentation et probablement un article dans la Newsletter !
NL : Très bien. Nous en prenons date !
Big image

Fortify, le Sonar de la sécurité

NL : Avec tout cela, nous n'avons pas du tout abordé le chapitre de la sécurité...
VDE : Et pourtant c'est le sujet du moment ! Nous venons d'être certifié ISO27001 pour les projets de notre client Orange et nous venons de lancer le projet de ralliement qui permettra d'intégrer tous les sites de Gfi au programme de certification. Les sites de la BPR seront tous intégrés dès cette année.
NL : Et là aussi, vous disposez d'outils ?
VDE : Oui, nous avons fait le choix de Fortify qui est à l'analyse des failles de sécurité ce que SONAR est à l'analyse du code. Nous avons défini un ensemble de règles qui sont exécutées automatiquement et donne lieu à l'édition d'un rapport envoyé au client. Nous y retrouvons notamment un tableau récapitulatif du TOP 10 de l'OWASP. Sur ROMEO nous avons la chance d'être l'une des premières équipes (après Orange) à utiliser cet outil. Nous avons réalisé un rapport qui a été envoyé au Ministère de la Justice qui ne dispose d'aucun outillage pour vérifier la qualité technique du code en terme de sécurité. Cela les a tellement intéressé, qu'il nous demande conseil aujourd'hui pour implémenter cet outil dans son environnement. Nous avons donc été force de proposition pour la BU et pour le client !
NL : Et donc, là aussi, tu estimes que cet outil a été utile ?
VDE : C'est bien simple : sans Fortify nous n'étions pas en mesure de réaliser ce que nous demandait le client. Les clients attendent beaucoup des ESN comme nous pour leur garantir que les produits que nous leur livrons sont à l'état de l'art en terme de sécurité. Grâce à des outils comme Fortify, nous sommes aujourd'hui en mesure de prendre des engagements en terme de sécurité. Un investissement certes, mais plus que rentable : indispensable pour répondre aux exigences de nos clients !
NL : Indispensable certes, mais est-il suffisant ?
VDE : Fortify est bien adapté pour l'analyse statique. Nous étudions actuellement les possibilités offertes par un autre outil, Web Inspect, qui lui fait de l'analyse dynamique. Dès que nous aurons un retour d'expérience probant, nous le déploierons sur nos projets.
Big image

Pour conclure

NL : Pour conclure, quel bilan fais-tu de l'utilisation de ces outils ?
VBE : Utiliser un outil est à la portée de tout le monde. Avoir tout un panel d'outils est une autre affaire. Dans des centres de services comme les nôtres au sein de la BPR, nous nous devons d'être efficaces, productifs et rapides, en un mot être industriels ! La force de notre plateforme Delivery.gfi.fr est de disposer de tout l'outillage nécessaire, très facilement. Le fait d'utiliser ces outils de façons intégrée, normalisée et standardisée, nous permet de proposer à nos clients un service professionnel, de qualité et à moindre coût. Et encore, je n'ai pas présenté le portail SaaS que nous commençons à utiliser sur ROMEO. Avec ce portail qui mérite une présentation particulière dans une prochaine édition de la NewsLetter, nous franchissons un pas de plus dans l'industrialisation qui nous permettra de prendre de l'avance sur nos concurrents.
NL : Justement, as-tu une idée des gains que peut générer une telle plateforme industrielle ?
VBE : La question n'est pas facile. Je dirais dans un premier temps que sans un dispositif comme le nôtre, il n'est pas possible de mener des projets d'envergure avec le professionnalisme attendu par nos client. Inutile de parler des gains de productivité par rapport à un système pas outillé du tout : une telle situation est simplement inenvisageable aujourd'hui parce que forcément vouée à l'échec.
Entre un système outillé et une conception plus artisanale (qui utilise certains outils mais sans le niveau d'intégration dont nous disposons), je dirais qu'il y a bien un gain de 15 à 20%.
NL : Est-ce à dire qu'il est possible de produire nos solutions avec 20% de gain par rapport à des équipes ne disposant pas de cet environnement ?
VDE : Malheureusement non. Au fil du temps nous avons amélioré, en grande partie grâce à nos outils, notre capacité de production. Nous faisons toujours plus vite et toujours mieux. Nos clients sont bien conscients de cela et veulent profiter, eux aussi, de nos gains de productivité. En gardant toujours un peu d'avance et en maintenant nos capacités d'investissement, nous avons pu maintenir des gains de productivité de l'ordre de 5%. Cela devient cependant de plus en plus compliqué de conserver ce niveau de rentabilité. Nos clients suivent les évolutions de nos technologies et nous comparent à nos concurrents. Ils savent souvent, aussi bien que nous, quelle est la charge nécessaire pour réaliser leur solution et à l'instar de quelques grands clients, ne nous demandent même plus nos abaques mais imposent les leurs ! Face à la concurrence, nous adaptons de toutes façons nos propositions en tenant compte de notre environnement et des gains qu'ils permettent de générer.
Les progrès que nous faisons grâce à l'amélioration de notre outil industriel ne nous permettent donc plus vraiment de faire des gains de productivité exceptionnels : ils sont cependant indispensables pour simplement rester dans la course. Sans ces outils, nous ne serions plus en mesure de proposer des solutions rentables. Notre niveau d'industrialisation profite ainsi à plein à... nos clients !
NL : Point de vue intéressant... Les réactions des lecteurs sont les bienvenues. En attendant, les équipes intervenant sur de gros programmes comme ADM pour la BNPP ou Pacte V2 pour le Crédit Agricole, planchent actuellement sur la façon de générer de nouveaux gains de productivité. Il sera intéressant de recueillir le résultat de leurs réflexions dans un prochain numéro.
Merci en attendant, pour cette présentation très opérationnelle de la plateforme Delivery.gfi.fr dans le cadre d'un projet et bonne chance pour la fin du projet ROMEO !

Nouvelles Affaires

Big image

Dossiers en cours

Plusieurs projets importants sont toujours en cours de qualification :

  • TOTAL / TOTEM (1,1 M€)
  • EDF / RFQ TCO MCO (1,1 M€)
  • Conseil Régional du Rhône Alpes / TMA .Net (1M€)
  • Ministère de la Justice / Portalis (0,5M€)

D'autres projets sont en attente de la décision du client :

  • Ministère de la Culture Satis (1M€)
  • Humanis / Aprionis (0,4M€)
  • HAS SARA / Renouvellement de la TMA (0,2M€)
D'autres enfin sont en phase d'extension de périmètre. C'est le cas pour :
  • Les projets AG2R, Pacifica et CA SA Pacte à Lille
  • Les projets Telefonica (qui monte à 25 personnes), Chronotime et Cleva à Alicante
  • Le projet Gfi4RH à Casablanca

QSI

Big image

Certification ISO27001

Annoncé dans la NewsLetter de mars 2016, la nouvelle est désormais officielle : Gfi a obtenu la certification ISO 27001:2013, norme définissant les exigences relatives à un Système de Management de la Sécurité de l'Information (SMSI), pour ses activités de Conception, Réalisation et Intégration de systèmes informatiques, Maintenance de système informatique (TMA).
L'audit a souligné le leadership de la gestion de la sécurité et une cohérence du système dans la mise en œuvre des objectifs de sécurité de l'entreprise.
"Forts de ce premier succès, nous allons accélérer l'extension de notre système de sécurité : 100% de nos Centres de Services en France et à l'étranger sont en cours de certification pour la fin de l'année nous permettant à terme de couvrir tous nos lient OIV (Opérateurs d'Importance Vitale)", explique Dimitri Druelle le Directeur des Opérations Sécurité Groupe de Gfi.
Le projet de ralliement des différents CSPP a ainsi démarré au sein de la BPR. Un point d'avancement régulier sera fait dans les prochaines NewsLetters.

Appel à contributions

Vous voulez partager une information, une passion, un sujet susceptible d’intéresser vos collègues des deux Factories NTIC ? Qu’il s’agisse d'une expérience professionnelle ou d'une passion personnelle, envoyez vos contributions à vos PM et elles seront partagées dans une prochaine NewsLetter.


Trois noms ont été proposés pour le concours pour le nom de la NewsLetter. Ils seront proposés à un sondage dans celle de fin mai. En attendant nous attendons toujours vos idées, toujours récompensées par une surprise !

Merci

Pour cette NewsLetter merci aux contributeurs (directs ou indirects) et plus particulièrement à : Erwan Le Dantec, Vincent Boonefaes, Fabrice Daugan, Arnaud Locquet, Etienne Grosse, Vincent Defrance, Pauline Vienne, Patricia Lopez, Jorge Francès