Mot-clé: business intelligence

l’utilisation du Big Data en entreprise

Mardi dernier se tenait la 4e edition du colloque Action-TI organisé par la section Mauricie-Centre-du-Québec. Sous le thème « Les TI…et si on les abordait sous toutes leurs formes », on y a présenté une vingtaine de conférences de qualité qui touchaient à un bon nombre de secteurs d’activités – allant de la gestion de projet aux infrastructures technologiques.

Nous avons eu la chance d’y donner une présentation sur l’utilisation du Big Data en entreprise, un concept actuellement éloigné de la réalité des organisations mais qui ne tardera pas à devenir un incontournable – compte tenu des nombreux défis que doivent  relever les entreprises qui sont plus que jamais sous pression de la concurrence.

Résumé de la conférence

On produit une quantité astronomique de données – envrion 5 exabytes à tous les 2 jours.

L’entreprise qui saura extraire, transformer et utiliser l’information est une entreprise qui détient du pouvoir – une longueur stratégique sur ces concurrents.

Toutefois, il est difficile d’y voir clair – considérant que le volume de données à traiter est gigantesque.

L’utilisation du Big Data, qui permet de réunir et de traiter une grande quantité d’information afin d’en obtenir des résultats concrets devient donc une alternative à considérer.

On remarque 3 phases dans une stratégie d’utilisation du Big Data:

  1. Le stockage : qui se fait maintenant de manière semi-structuré via notamment des bases de données noSQL telles que Cassandra ou MongoDB.
  2. Le traitement : le principal framework de développement est Hadoop – un projet issu de Apache. Son architecture de traitement distribué sur plusieurs ordinateurs permet de traiter une grande quantité de données rapidement et efficacement via l’algorithme MapReduce.
  3. La visualisation des données : un domaine en soit – mais qui vise à représenter de manière simple et clair les résultats de l’analyse effectuée. De nombreux outils existent à ce sujet, notamment Tableau Software ou Statwing. Les données peuvent également être réintégrés dans les CRM ou les outils d’intelligence d’affaires traditionnels tels que Pentaho ou Jaspersoft.

Bien évidemment – on ne le répètera jamais assez – l’organisation qui souhaite  se doter d’une telle infrastructure doit impérativement procéder à une analyse complète de ses besoins et de ses capacités. Parmi les principaux points à regarder, mentionnons :

  • Les coûts
  • La pertinence des données
  • La fidélité des informations
  • La pérennité
  • La conservation
  • Etc.

Finalement, les bénéfices à utiliser le big data sont nombreux. Le fait de pouvoir compter sur un outil d’aide à la décision rapide et optimisé est de loin l’avantage le plus important. Toutefois, une entreprise qui saura correctement intégrer ce nouvel aspect dans l’analyse de son environnement pourra bénéficier :

  • D’une vue globale de ses activités
  • De valeur ajoutée à ses données internes
  • D’une synthèse  de l’ensemble de ses informations
  • … et plus encore!

Nous profitons de cette tribune pour lever notre chapeau à toute l’équipe d’Action TI et particulièrment la dynamique équipe de Nmédia Solutions qui ont su faire de cet événement un succès. Bravo à tous!

PartagezTweet about this on TwitterShare on FacebookShare on LinkedInShare on Google+Email this to someone

business intelligence, geoBI et géomarketing

La semaine dernière, des clients m’ont questionné quant à la différence qui existe entre le BI, le geoBI et le géomarketing. Bien souvent, la ligne est mince entre ces trois appellations. Pourtant, des différences cruciales les distinguent.

Business intelligence
Lorsque l’on parle de BI (pour “business intelligence”) ou intelligence d’affaires, on réfère généralement à la technique qui permet d’analyser les données d’entreprises (ex. le total des ventes par produit ou par vendeur). Ces données sont alors présenté sous forme de tableaux ou de diagrammes (on parle alors de tableaux de bord – dashboards en anglais).

Le geoBI
La technique demeure la même lorsque l’on introduit la dimension géographique dans le BI (le géoBI), à la seule différence que les résultats produits peuvent maintenant être représentés sur une carte géographique. On parle ici d’analyse “spatiale”, où les indicateurs produits peuvent s’apparenter à : Quel est le volume des ventes pour un produit X dans la ville Y, quelle est la facture moyenne dans le territoire du vendeur Z, etc.

Le géomarketing
Dans les cas qui précèdent, ce ne sont que les données internes à l’entreprise qui sont manipulées et analysées. Dans le cas du géomarketing, on intègre des données externes provenant de sources publiques ou privées (ex. recensement ou annuaires d’entreprises spécialisées). Cette technique permet ainsi de donner une nouvelle dimension aux informations de l’entreprise. On peut ainsi obtenir des profils socio-économiques, des listes de clients potentiels, des taux de pénétration dans les marchés ou des territoires ciblés, des indicateurs de performance basés sur la population ou les entreprises présentes dans un secteur, etc…

PartagezTweet about this on TwitterShare on FacebookShare on LinkedInShare on Google+Email this to someone

Le nouveau modèle du BI

Cette semaine j’ai assisté (virtuellement) à la conférence de The Data Warehouse Institute (TDWI) intitulée Revolutionary Business Intelligence (BI), changing the rules of the game. Je vous en fait un court résumé :

Essentiellement, on nous a fait la démonstration qu’en combinant le cloud-computing aux bases de données OLAP (du WOLAP) avec des outils BI open source (Pentaho, par exemple), on détenait la formule gagnante ou du moins celle qui est vraisemblablement vouée à devenir « mainstream » dans les prochaines années.

Le problème avec ce couplage, c’est que le temps mis à charger les données et à effectuer des requêtes est interminable. Et ce sont justement les points les plus cruciaux pour les gestionnaires de TI:

intégration de projets BI open source dans les entreprises

Malgré tout, de plus en plus d’industries intègrent cette solution dans leurs nouveaux projets, tel que le démontre le graphique suivant, basé sur les sondages Third Nature (et de Mark Manson dont j’ai déjà fait mention ici).

points importants du systeme BI pour les gestionnaires TI

Mais voilà que l’on pourrait bien outrepasser ces problèmes par une solution très « hardware ». En effet, le processing in-memory (PIM), qui consiste à combiner le processeur et la mémoire vive sur la même puce de silicone pourrait bien être le remède à tous les maux vécus par les utilisateurs de solutions BI actuellement. Le PIM est encore en développement dans les universités américaines (ici et ici). mais pourrait voir le jour commercialement beaucoup plus vite qu’on ne le pense. Une innovation à suivre…

PartagezTweet about this on TwitterShare on FacebookShare on LinkedInShare on Google+Email this to someone