Le JUG Summer Camp c’est fini pour cette année

Le JUG Summer Camp vient de se terminer. Une journée de conférences intéressantes dans superbe cadre. Au menu du Java, mais on aussi pas mal parlé de Cloud cette année.

Une sélection de quelques sessions auxquelles j’ai assisté.

Lascaux II - Hall of The Bulls

Antonio Goncalves : Keynote d’ouverture

Antonio a retracé l’histoire de l’information dessinée sur des parois grottes en Australie, sur du papier, des cartes perforées, stockées dans des ordinateurs et finalement on ne sais où dans le Cloud par ce qu’il en a trop. Pour que les êtres humains puissent échanger cette information, ils doivent se mettre d’accord sur son sens et les normes apparaissent. De plus en plus d’information, de plus en plus de volume, du Cloud, mais un Cloud sans normes qui met les applications en situation de Cloud Locking. Et Antonio est un homme libre, il n’aime pas le Cloud Locking 😉

Et Java dans tout ça ? Java sera Cloud (entre autres la liste de toutes ses prédictions a été largement relayée sur Twitter). L’expert group JavaEE se penche sur le sujet. Donc on vous le dit : Java sera Cloud !

Michaël Figuière : Les applications et architectures d’entreprise de demain

Les architectures sont en train de changer depuis quelques années. Michaël nous a livré ses reflexions sur les possibilités nouvelles qu’elles nous offrent.

Arrivée de la mobilité. Les smartphone permettent d’avoir un accès permanent à Internet et possèdent des capteurs qui permettent la détection du mouvement, de la vitesse et une géolocalisation précise. Ces fonctions sont utilisées pour faciliter la vie de l’utilisateur,  ne pas avoir à préciser son adresse lorsque l’on commande un taxi G7, éviter de refaire la même recherche parce que le système a mémorisé la demande et envera une notification s’il y a un changement ou une information utile.

Les informations collectées sur l’utilisateur peuvent aussi être analysées pour sélectionner les services à lui proposer, lui recommander des achats comme sur Amazon. Il s’agit là de filtrer, trier et appliquer des technique proches de l’IA sur d’énormes masses de données. Twitter gère des millions de tweets par jour. Et justement grace au NoSQL et au Cloud on dispose maintenant de bases de données et d’infrastructures qui peuvent monter en puissance.

Des outils qui permettent de traiter ces volumes de données :
– Esper est outil d’analyse d’événements temps réel (analyse des actions des utilisateurs, surveillance de système, données de flux financiers …)
– Mahout basé sur Hadoop est un outil d’analyse de données basé sur Hadoop (je l’ai déjà traité dans mon post Devoxx 2010).

Ces changements impactent aussi la conception. Ce besoin de temps réel nécessite de mieux gérer la disponibilité. Les applications doivent être plus résiliantes. A l’opposé du design classique qui considère que l’infrastructure marchera et n’a pas de moyens d’action lorsque des sous systèmes qui ne répondent pas ou mal, le Design for failure accepte que le système puisse avoir des défaillances techniques et les gère pour qu’ils aient le moins d’impact possible. De nouveaux mécanismes apparaissent comme les circuit breakers (coupe-circuits).

La présentation

Nicolas De Loof : Ma forge++ : on the cloud

Nicolas est venu nous présenter Cloudbees une plate-forme qui permet d’avoir une forge logicielle et un environnement d’exécution Java de test ou de production dans le Cloud.

Nicolas reprend la forge idéale qu’il nous avait présenté l’an dernier (Maven, jenkins …). Elle est efficace mais il y a beaucoup de composants à installer pour chaque projet. Comment faire ? Cloner ? Automatiser l’installation ? Ou bien utiliser une forge toute prête en SAAS comme  DEV@cloud.

Mathieu Ancelin : Weld-OSGi, OSGi en toute simplicité

Weld est l’implémentation de référence de CDI (Context and Dependency Injection), la spécification  Java™ Specification Request (JSR) 299. L’injection de dépendance permet de créer dynamiquement (injecter) les dépendances entre les différentes classes en s’appuyant sur une description par des annotations ou un fichier de configuration). Cette technique permet par exemple de choisir une implémentation particulière d’une interface lors de l’exécution. Si vous avez besoin d’une mise à niveau vous pouvez regarder le tutorial d’Antonio Goncalves sur CDI.

OSGI est une spécification gérée par un consortium d’entreprises qui permet de réaliser des applications modulaires orientées service. Elle repose sur un modèle de gestion du cycle de vie d’une application, un répertoire de services, un environnement d’exécution et des modules (les services). L’usage typique est de choisir de dépployer dynamiquement des services dans un serveur et de sélectionner à l’exécution les services que l’application doit proposer. OSGI permet d’identifier les dépendances entre modules et les versions.

Mathieu Ancelin nous a fait une présentation très claire d’OSGI (ce qui n’est pas simple). Il nous a ensuite un peu plus parlé de Weld-OSGI.

Weld-OSGI est un projet Open Source dont l’objectif est de régler quelques problèmes techniques d’intégration entre les deux mondes et de fournir une API plus simple de manipulation des services OSGI. L’intégration permet de découvrir dynamiquement des services OSGI. Concrètement ces modules sont des jar et sont chargés dynamiquement dans le class loader. CDI permet ensuite d’injecter une classe de ce module dans la classe qui utilise le service.

Mathieu a fait une démo assez bluffante d’application Web de réservation d’hôtel (JAX-RSJQuery) où il modifie dynamiquement les services présentés en arrêtant/démarrant les modules. Et tout ça avec une centaine de lignes de code.

Romain Maton : Optimiser votre site Web sur mobile

Romain a fait un tour d’horizon très complet des contraintes techniques du Web Mobile et des outils qui peuvent nous aider. La présentation est très dense et contient beaucoup d’informations techniques. Elle sera mise à disposition sur Web Tambouille et sur le site du JUG Summer Camp.

En résumé très rapide, les smartphones  disposent de peu de mémoire, peu de CPU et peu de bande passante réseau. C’est au développeur de faire attention pour que le site soit agréable à utiliser. Il doit faire attention aux aspects techniques (optimisation du HTML, du CSS, des images et être parcimonieux avec le JavaScript). Comme on est très loin des capacités disponibles sur les sites Web classiques, il va falloir choisir, recentrer l’application sur sa fonction centrale, éliminer les fonctions qui ne sont pas utilisées sur un mobile. Des validateurs de code et des outils d’analyse des pages permettent de corriger les erreurs de codage ou de configuration des caches.

Nicolas Martignole : Keynote de fermeture

La présentation de Nicolas est impossible à raconter. Il faudra aller la voir en vidéo. Il se projète en 2021 et nous présente une émission « 10 ans après » sur le métier de développeur. L’occasion de parler avec beaucoup d’humour de la situation actuelle.

logo jugsummercamp

Les présentations et les vidéos seront bientôt disponibles sur Parleys et le site du JUG Summer Camp.

Merci au Poitou-Charentes Java User Group et à Serli pour l’organisation et à l’année prochaine, on l’espère.

Quelques retours au feeling sur Mix-IT

J’ai assisté à Mix-IT la semaine passée.

Une conférence très conviviale, impeccablement organisée grâce à la dizaine de personnes du JUG Lyon et du CARA (le Club Agile Rhône Alpes) qui y ont mis toute leur énergie, mais aussi à l’impressionnant soutien des étudiants de l’Epitech présents à tous les étages.

Et à la présence du soleil 😉

Cette première édition présentait 25 sessions organisées en 5 tracks parallèles

  • Techy : Java et son écosystème,
  • Agility : Agilité pour débutants et passionnés,
  • Trendy : Tendances novatrices et avant-gardistes,
  • Mixy : Le meilleur de l’agilité et des technologies Java,
  • Gamy : jeux agiles et coding dojos

Avec la préparation de l’anniversaire de Duchess France je n’ai pas le temps de faire un retour très documenté, mais voici quelques retours au feeling sur les diverses sessions que j’ai suivies.

Les tests du futur

Mathilde Lemée nous a présenté Spock, un framework de test basé sur Groovy qui permet de clarifier l’écriture des tests unitaires. Grâce aux labels Java, les tests peuvent être écrits selon un formalisme given / when / then explicite. Elle a également rapidement présenté Geb un outil de test fonctionnel.

Comme Mathilde a fait plusieurs articles sur Spock, le plus simple est d’aller voir ça sur son site directement : http://www.java-freelance.fr/tag/spok

Grails from scratch to production

Pour la deuxième session, j’avais déjà vu la présentation HTML5 de Cédric Beurtheret et Alain Duval déjà jouée au Paris JUG.

J’ai donc opté pour la session Grails. Grails n’est pas tout nouveau. J’ai déjà un peu joué avec le tutoriel Grails, mais je me disais qu’il y aurait peut être quelques informations sur le « en production ». En fait, la présentation d’Aurélien Maury était surtout sur le « from scratch ».

J’ai quand même eu la réponse à une question qui m’intriguait en voyant les exemples de configuration Grails. La configuration a toujours l’air en dur et quand ça part dans un war ça ne doit pas être très pratique. En fait, la réponse était déjà écrite par l’intervenant. Elle est là : Grails Tips Externalise la-configuration.

Introduction à Clojure

Après le repas, un des sujets qui me motivait le plus, Clojure. Laurent Petit nous a présenté ce langage dynamique tournant dans la JVM,   simple, fiable, performant et ultra-expressif !

Les speakers avait quand même ajouté :

Le truc ? Facile : sortez de votre zone de confort et pensez simple, le jeu en vaut la chandelle !

Et il faut vraiment sortir de sa zone de confort, car c’est quand même très différent de ce qu’on manipule tous les jours. Pour ceux qui ont fait du LISP, il y a un air de famille, mais pour les autres ça doit être proche du Vulcain. La présentation était très claire, mais très technique car elle faisait appel à des notions sur la théorie des langages.

(defn read-file [file]
    (with-input-stream (new FileInputStream file)
        (fn [is]... corps de la methode)))

A vrai dire, c’est plus facile lorsque l’on a une motivation. J’ai depuis longtemps dans mon GTD le projet d’utiliser Incanter pour quelques scripts que j’utilise pour analyser mes résultats de test de performance pluôt que R. R et Incanter sont des outils d’analyse statistique. R est inspiré de Scheme. C’est un environnement très complet mais assez loin de Java. Incanter est un outil plus récent  implémenté en Clojure. Il tourne dans une JVM et serait plus facile à interfacer avec d’autres programmes en Java.

Clojure est un langage à base  fonctionnelle avec des données immuables et des structures de données persistantes. Un mécanisme permet de gérer des changements d’états contrôlés sur un mode transactionnel si nécessaire.

Je n’ai pas trouvé la présentation de cette session, mais si Clojure vous intéresse vous pouvez lire l’interview donné par les speakers sur le site de Duchess France http://jduchess.org/duchess-france/blog/session-clojure-a-mix-it/ et la retranscription par Olivier Croisier d’une conférence sur Clojure à Paris avec une discussion en Google Wave qui compare Clojure et Scala http://thecodersbreakfast.net/index.php?post/2010/02/08/Conf%C3%A9rence-Clojure-chez-Zenika-%3A-le-compte-rendu

Félicitations à Laurent Petit qui a assumé tout seul 2 sessions à la suite et bon rétablissement à Christophe Grand absent pour un problème de santé.

Intelligence collective avec Apache Mahout

Mahout est un outil d’apprentissage automatique et d’analyse de données. C’est le type d’outil qui est utilisé pour faire de la catégorisation de textes dans les moteurs de recherche par exemple ou pour les systèmes de recommandation des sites sociaux ou de commerce. A noter ce projet Apache est co-dirigé par une femme, Isabel Drost.

La présentation de Michaël Figuière a présenté les usages que l’ont pouvait faire de ce framework et les bases de l’utilisation de l’API. ça a l’air très simple à mettre en oeuvre. a essayer un jour.

Le mouvement devops

Bien sûr je n’y suis pas allée pour découvrir le concept. J’assiste au sessions du devops group à Paris depuis la première édition. C’était l’occasion de rencontrer Gildas Le Nadan le leader de devops Lille.

Pour ceux qui n’en auraient pas entendu parler devops est un mouvement émergeant qui vise à rapprocher les équipes de développement et les opérations (la production en français) pour mieux résoudre les problèmes de déploiement et de suivi de production.

La présentation était plutôt destinée à la cible Agile de Mix-IT. Mais les imitations de sysadmin bougon de Gildas sont franchement très réalistes. A ne rater sous aucun prétexte !

La présentation de Mix-IT se trouve ici http://devops.fr/mixit/slides.pdf

Vous trouverez des ressources sur devops en français sur le site de devops Paris http://parisdevops.fr/ et des pointeurs sur les sites en anglais sur le site de Gildas http://devops.fr

Pour les gens qui habitent Lille ou Paris, vous pouvez vous rapprocher des groupes ci-dessous

A quand un groupe devops en Rhône Alpes ?

Mix-IT Lyon c’est fini pour cette année.

On attend impatiemment l’année prochaine. Mais dans l’intervalle d’autres manifestations en province s’organisent : le BreizhCamp à Rennes le 17 juin, le JUG Summer Camp à La Rochelle le 16 septembre, et j’ai même entendu parler d’une idée de Mix-IT au Luxembourg.

Sonar against a non-maven multi-modules project

I’ve explained a few monthes ago how to run Sonar against a non-maven project.

The workaround is to create a POM with an explicit source directory and set the Sonar property sonar.dynamicAnalysis to false.

What if the project has many source folders ?

For instance a WebSphere Commerce Server project with 3 sub-projects:

  • Stores which sources are in JavaSources
  • WebSphereCommerceServerExtensionsLogic which sources are in src
  • WebSphereCommerceServerExtensionsData which sources are in ejbModule

It looks like a Maven project with 3 modules, each module having a non standard source folder.

Step 1: The main POM

First of all, make a new directory besides the project root folder and create the main POM file.

Your directories now looks like

  • Project
    • Stores
    • WebSphereCommerceServerExtensionsLogic
    • WebSphereCommerceServerExtensionsData
  • MavenProject
    • pom.xml


pom.xml


<project xmlns= »http://maven.apache.org/POM/4.0.0&Prime;
xmlns:xsi= »http://www.w3.org/2001/XMLSchema-instance &raquo;
xsi:schemaLocation= »http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd »&gt;

<modelVersion>4.0.0</modelVersion>

<!–  project information –>

<groupId>my-commerce-web-site</groupId>
<artifactId>my-commerce-web-site</artifactId>
<name>My Commerce Site Project</name>
<version>0.0.1-SNAPSHOT</version>
<packaging>pom</packaging>

<build>

<!– Setup compiler options Java 1.4 –>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<configuration>
<source>1.4</source>
<target>1.4</target>
</configuration>
</plugin>
</plugins>

</build>

<modules>

<module>ExtensionsData</module>
<module>ExtensionsLogic</module>
<module>Stores</module>

</modules>

<properties>

<sonar.dynamicAnalysis>false</sonar.dynamicAnalysis>

</properties>

<pluginRepositories>

<!– Sonar may not be found on some repositories –>
<pluginRepository>
<id>Codehaus repository</id>
<url>http://repository.codehaus.org/</url&gt;
</pluginRepository>

</pluginRepositories>

</project>


Step 2: Modules directories

Create a directory  for each modules with respect to the module’s  names  in the main  pom.xml

Your directories now looks like

  • MavenProject
    • pom.xml
    • Stores
    • ExtensionsLogic
    • ExtensionsData

Step 3: Module’s POMs

Create the module’s pom.xml for each module.

Stores/pom.xml


<project xmlns= »http://maven.apache.org/POM/4.0.0&Prime;
xmlns:xsi= »http://www.w3.org/2001/XMLSchema-instance &raquo;
xsi:schemaLocation= »http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd »&gt;

<modelVersion>4.0.0</modelVersion>

<!–  project information –>
<groupId>my-commerce-web-site</groupId>
<artifactId>my-commerce-web-site-stores</artifactId>
<name>MyCommerceSite Stores</name>
<version>0.0.1-SNAPSHOT</version>
<parent>

<groupId>my-commerce-web-site</groupId>
<artifactId>my-commerce-web-site</artifactId>
<version>0.0.1-SNAPSHOT</version>

</parent>

<build>

<sourceDirectory>../../Project/Stores/JavaSource</sourceDirectory>
<outputDirectory>target/classes</outputDirector>

</build>

</project>


Parent’s groupId and artifactId should match the main pom’s groupId and artifactId.

Your directories now looks like

  • MavenProject
    • pom.xml
    • Stores
      • pom.xml
    • ExtensionsLogic
    • ExtensionsData


Similar posts:

Running Sonar against a GAE Java project

The GAE SDK generates a project that is not Maven enabled. Namely, source and target directories does not follow Maven conventions.
Sonar may be run against such a project by using Sonar light mode configuration.

  • We will write a minimal POM project and instruct Sonar to run only static analysis (code violations, complexity).
  • For the time being, we will put dynamic analysis (unit test results and code coverage) aside as it requires code to be executed, therefore dependencies configuration. Sonar may actually report dynamic analysis if surefire and cobertura reports are available.
But let’s start with some simple configuration.
You will need Sonar (1.8 minimum) and Maven 2.

Write a POM

Open the Eclipse project generated by GAE SDK and create a pom.xml file at the project’s root.
Add your project’s information (replace cirrus in the snapshot below by your project’s information)
projet
Add GAE build information. You should not have to change these lines.
build
Add some Sonar configuration to skip dynamic analysis. You should not have to change these lines.
sonaroptions
Depending on your repository and mirror, you may have to download sonar jars from the Codehaus repository.
fin

Run Sonar

Now run sonar from the shell command line or configure an Eclipse launcher. As the Sonar maven plugin will send out data to Sonar during the build, the Sonar server must be running.
runsonar
It may take a while the first time, as maven will download tons of libraries and plugins.
runsonarfin
When it’s done, Sonar’s analysis report is available at http://localhost:9000.
sonarpage
You may find usefull information about Sonar configuration including « Non-Maven » projects in Analyzing Java Projects

Générer un rapport PDF Sonar

Depuis Sonar 1.8, il existe un plugin de génération de rapport PDF.

La mise en oeuvre est très très simple.
Lancez la commande ci-dessous depuis un shell de commande ou l’IDE :

>mvn org.codehaus.sonar-plugins:pdf-report:0.1:generate -Dsonar.base.url=http://nommachine:9000

L’option -Dsonar.base.url n’est pas obligatoire, mais il se trouve que je ne peux pas faire tourner Sonar sur le port standard 9000. Attention, pas de / à la fin de l’url sinon l’url générée contient un // au début du path et il ne parviendra pas à lire les données.

Il n’est pas nécessaire de télécharger le plugin, il automatiquement téléchargé et mis en place via maven.

Le rapport en PDF est généré dans le répertoire target du projet maven racine.
Il contient pour le projet et chaque module, les ratios du dashboard (voir image ci-dessous), les valeurs du radar par catégorie (Efficiency, Maintainability, Portability, Reliability, Usability) et les hotspots Most violated rules et Most violated files.

rapport-sonar

La page du plugin se trouve là Sonar PDF Plugin.

Sonar 1.8 et la Sonar Plugin Library

sonar posterPour ceux qui auraient raté les épisodes précédents, Sonar est un produit open source de qualimétrie pour le monde Java.

Cet outil pilote l’exécution des outils d’analyse de code (PMD, Checkstyle, Findbugs) et de test unitaire sous Maven, historise et fait la synthèse de toutes ces informations. Il peut être étendu par plugins (par exemple PL/SQL ou l’intégration Hudson).

Il se montre particulièrement indispensable sur des projets multi-modules où il est difficile d’avoir une vue d’ensemble de la qualité en utilisant chacun de ces outils et Maven Dashboard.
Sonar agrège ces informations selon les catégories ISO (Efficiency, Maintenability, Portability, Reliablity, Usability) et permet une identification rapide du type d’impact sur un radar. La navigation projet / module / package permet d’avoir ces informations à différentes granularités.

Plusieurs systèmes permettent de localiser facilement la classe et la portion de code où il faut agir en priorité pour améliorer la qualité :
– un pavage qui permet de visualiser à chaque niveau l’importance des éléments et leur niveau de qualité
– un nuage qui met en évidence les classes qu’il est facile d’améliorer et celles qui présentent le plus de risque
– depuis la version 1.8, Sonar a ajouté les hotspots, des top5 des classes les plus indisciplinées, les plus longues à tester, les plus complexes, les moins testées …

En plus des hotSpots, la version 1.8 ajoute en particulier le paramétrage de Findbugs, l’affichage des duplications sur le code source et le support de maven 2.1.

Vous cherchez encore des excuses pour ne pas évaluer la qualité de votre code ?
Allez le voir fonctionner sur Nemo et on en rediscute après.