Adopt

29Metabase

Les habitués de Qlik ou Power BI savent qu’il peut être fastidieux de créer des visuels, en particulier lorsque les données sont mal préparées. De plus, l’interface complexe de ces outils décourage souvent les débutants. Outre ces difficultés techniques, la rigidité des processus de déploiement des dashboards peut retarder les équipes fonctionnelles dans leur travail.

Metabase se présente comme une solution de Business Intelligence (BI) capable de résoudre ces problèmes en se positionnant sur l’exploration pragmatique des données.

Cet outil open-source, doté d’une interface moderne, permet évidemment de créer des dashboards mais offre également d’autres fonctionnalités parfois absentes dans d’autres technologies.

  • Prise en charge du SQL : les utilisateurs peuvent explorer librement les données et être autonomes dans la création d’extracts, déchargeant ainsi les équipes data.
  • Création de visuels : chaque requête SQL ou no-code peut être instantanément convertie en un visuel moderne.
  • Toutes les requêtes peuvent être sauvegardées et converties en modèles de données réutilisables.


Le point de vue MDN


Metabase est une solution simple et idéale pour les équipes métiers peu à l’aise avec la BI. Avec la version self-hosted, l’accès aux données d’utilisation est précieux pour analyser ce qui est fait et agir en conséquence. La roadmap est détaillée et ambitieuse pour les mois et années à venir. Superset pourrait être une solution open-source plus adaptée aux analystes experts cherchant une diversité de visualisations.

Metabase présente néanmoins quelques limitations. Sa grande flexibilité pour l’exploration des données nécessite de bonnes pratiques de data gouvernance, notamment en termes de droits d’accès et de partage des KPIs générés. Les visuels proposés sont simples et offrent peu de possibilités de personnalisation. Enfin, le SSO et le RLS (row-level security) sont réservés aux versions payantes Pro et Enterprise.


Le point de vue Theodo


Nous recommandons Metabase pour l’exploration de données ad-hoc et l’autonomie qu’il confère aux équipes fonctionnelles. Il offre des fonctionnalités similaires à Looker (programmation SQL, visuels réutilisables) tout en restant moins cher et plus accessible aux non-développeurs.

30Self serve BI

L’accès aux données est un levier essentiel pour la compétitivité des entreprises. Cependant, les ressources limitées des départements data entraînent souvent des délais importants dans le traitement des demandes, générant frustration et inefficacité pour les équipes métiers. De nombreuses entreprises optent alors pour une approche de self-service data, permettant aux utilisateurs métiers, aux product owners et aux dirigeants d’accéder directement aux données pertinentes via des outils adaptés.

Dans une stratégie de self-service BI, il est essentiel d’ajouter une couche sémantique intelligible pour les équipes métiers. Des outils de transformation de données comme dbt ou LookML (pour Looker) permettent de structurer les données en formats exploitables, traduits en termes business. Cela offre aux utilisateurs finaux la possibilité de manipuler et de visualiser facilement les données via des solutions comme Power BI, Looker, Metabase ou même Excel, sans nécessiter d’expertise technique avancée.

L’implémentation d’une stratégie de self-service permet une meilleure autonomie des équipes métiers, qui peuvent accéder directement aux données sans dépendre des équipes IT, accélérant ainsi les processus décisionnels. Elle contribue également à la mise en place d'une plateforme centralisée facilitant l'accès aux données pour l'ensemble de l'organisation. En renforçant la culture data interne, cette approche permet aux équipes de mieux comprendre, utiliser et analyser les données au quotidien.

L'augmentation du nombre d'outils et de points d'accès peut cependant engendrer un "data chaos", où plusieurs versions d'un même indicateur business coexistent, compliquant ainsi les analyses. Pour éviter ces problèmes, il est crucial de mettre en place une couche sémantique robuste, garantissant une interprétation cohérente et uniforme des données par l'ensemble des utilisateurs.

Le point de vue MDN


C’est le rêve de toute équipe data. Cela requiert toutefois une structuration impeccable de la donnée, une gouvernance claire, de la transparence et une montée en compétence des équipes métiers sur l’usage de la donnée pour la prise de décision. Ce sujet est lié à la mise en place d’OBTs, d’une couche sémantique et surtout d’une gold layer facilement exploitable.


Le point de vue Theodo


Chez Theodo, nous recommandons l’implémentation d’une stratégie de self-service BI pour les entreprises possédant un pool d’utilisateurs conséquent pouvant bénéficier d'un accès simplifié aux données. Les stratégies de self-service permettent aux équipes métiers de gagner en efficacité, de réduire la charge des équipes IT et d’augmenter la data literacy.

31Mermaid.js

Mermaid est un outil open source innovant pour créer des diagrammes à partir d'une syntaxe textuelle inspirée du Markdown. Lancé en 2014, il vise à simplifier la création et la modification de diagrammes, tout en facilitant leur partage. Au fil du temps, Mermaid a étendu ses capacités pour inclure divers types de diagrammes, tels que les flowcharts, les diagrammes de séquence et les schémas entité-relation, répondant ainsi à un large éventail de besoins en documentation.

L'intégration native de Mermaid dans des plateformes majeures comme GitHub, GitLab et Notion, ainsi que sa disponibilité via des extensions pour Confluence, Google Docs et VSCode, témoigne de sa pertinence croissante. Cette intégration permet d'élever la création de visuels au même niveau que la documentation textuelle, favorisant une communication plus claire et efficace. La syntaxe intuitive de Mermaid (par exemple, A --> B) permet aux débutants de créer rapidement leurs premiers schémas. L'outil se charge automatiquement de l'optimisation du layout, permettant aux utilisateurs de se concentrer sur le contenu plutôt que sur la mise en forme.

Mermaid offre une certaine flexibilité dans la représentation des éléments, comme l'utilisation de formes spécifiques pour les bases de données ou de liens en pointillés. La stylisation se limite principalement à une coloration via CSS, bien qu'elle reste basique et difficile à maîtriser. Cependant, des personnalisations plus avancées telles que l'ajout d'images, l'ajustement de la taille du canevas ou l'inclusion d'éléments dynamiques restent hors de portée.


Le point de vue Theodo


Nous recommandons l'adoption de Mermaid dans les organisations utilisant des outils qui le supportent nativement. Son utilisation devrait être encouragée auprès des collaborateurs pour compléter efficacement leur documentation habituelle. Cependant, pour des diagrammes destinés à une audience externe, ou nécessitant une personnalisation poussée ou une complexité particulière, d'autres outils comme draw.io, Excalidraw ou Whimsical seraient plus appropriés.

Trial

32Looker

Looker, à ne pas confondre avec Looker Studio, est un outil de Business Intelligence de Google Cloud qui répond à plusieurs problématiques rencontrées par les équipes métier et les data analysts.

  • Un manque de confiance et de fiabilité des données dû à une pluralité des sources d’information et des règles métier
  • Un manque d’autonomie des équipes métier dépendantes des data analysts pour réaliser leurs analyses.

En plus des fonctions de dashboarding classiques des outils de BI, Looker propose plusieurs fonctionnalités clés.

  • Une couche sémantique propriétaire (LookML) permettant de centraliser la gouvernance des données et de modulariser les requêtes SQL.
  • Une interface de self-service, appelée Explore, permet aux utilisateurs de réaliser des analyses et des visualisations sans code, similaire à un tableau croisé dynamique.

L’outil s’intègre facilement avec les services Google Cloud, les bases de données SQL et Git. Il offre également la possibilité d’exporter des visualisations et de les intégrer en dehors de l’outil, tout en contrôlant les droits d’accès aux données, notamment pour BigQuery grâce à l’IAM de Google Cloud.

Toutefois, Looker présente certaines limites sur la gestion des cas d’usage complexes en LookML et sa flexibilité sont restreintes (il n’est pas open-source, et les types de sources sont limités aux bases de données). De plus, il nécessite de former les équipes métier à son utilisation. Looker est également l’une des solutions BI les plus onéreuses du marché.


Le point de vue Theodo

Nous recommandons Looker et sa couche sémantique pour centraliser les données et favoriser l'autonomie des équipes métier, moyennant une formation des utilisateurs. Pour du simple dashboarding, des alternatives moins coûteuses, comme Looker Studio (gratuit sur GCP) ou des solutions BI classiques (Tableau, Power BI), peuvent être envisagées.

33Looker Studio

Looker Studio, anciennement Data Studio, est un outil de Business Intelligence de l’écosystème Google Cloud qui présente un avantage par rapport aux autres outils de BI populaires : un ensemble de fonctionnalités gratuites de BI basiques, pouvant être complétées en passant à une version pro (payante). Cette gratuité traduit la vocation de Looker Studio de démocratiser l'accès aux données au sein des équipes métiers.

Looker Studio offre plusieurs fonctionnalités clés qui le distinguent : 

  • Une interface simple et intuitive qui permet de créer rapidement des visualisations grâce à un système de drag and drop.
  • Des options de collaboration et de versioning, facilitant le développement en équipe des rapports.
  • Une intégration native avec d'autres produits Google (Google Cloud, Google Analytics, Google Sheets, etc.), permettant des déploiements directs au sein de l’écosystème.

Looker Studio permet également de se connecter à de nombreuses sources de données externes, comme des fichiers CSV ou des API tierces. Il offre la possibilité de partager les rapports ou de les intégrer dans des interfaces web. Cependant, l’outil présente des limites en termes de personnalisation pour des cas d’usage complexes et de performances pour des volumes de données très importants, ainsi qu'une gestion de la gouvernance est restreinte.

Certaines fonctionnalités sont également bloquées derrière la version pro, comme la gestion de la gouvernance via l’IAM de Google Cloud, l’envoi de rapports exploratoires personnalisés et l’accès à un espace d’équipe facilitant la collaboration et le partage de contenu à grande échelle.


Le point de vue Theodo

Nous recommandons l'adoption de Looker Studio pour les entreprises cherchant une solution de reporting rapide à mettre en place et économique, particulièrement celles déjà utilisatrices de l'écosystème Google Cloud. Pour des problématiques plus avancées, il peut être judicieux de considérer des alternatives plus robustes comme Looker ou Power BI.

34Power BI

Power BI est la solution de Business Intelligence développée par Microsoft et l’une des plus populaires du marché. Elle permet de développer et de partager facilement des dashboards interactifs avec un grand nombre d’utilisateurs. Ses principales qualités sont : 

  • L'intégration à l’écosystème Microsoft (avec des identifiants partagés et l’alimentation de dashboards depuis des classeurs Excel)
  • Des fonctionnalités de data gouvernance avec un système de sécurité au niveau des lignes (row-level security) permettant aux utilisateurs finaux de ne visualiser que les données autorisées selon leur rôle
  • Les mesures, atout majeur qui permet de réaliser des calculs dynamiques customisés et contextuels (tel que des moyennes) dans le langage propriétaire DAX.
  • Un grand choix de visuels avec des options de personnalisation avancées,
  • Un onglet d’analyse de données pour comprendre votre donnée avant de la visualiser
  • Un autre de data modeling, pour faire des jointures avec de simples drag-and-drops, une fonctionnalité souvent absente dans d’autres outils.

En revanche, l’interface austère peut demander de la persévérance et Power BI n’est pas exempt de bugs, notamment liés à son outil relationnel.

La solution n’est pas disponible sur les systèmes Unix, (comme MacOS). Il est possible de tester Power BI gratuitement sur Windows, mais un abonnement est nécessaire pour publier et lire les rapports. Pour optimiser les dashboards, il faut maîtriser deux langages propriétaires : DAX pour les mesures et M (ou Power Query) pour les transformations de données.


Le point de vue Theodo


Nous recommandons d’essayer Power BI pour la diversité de ses usages, son intégration avec l’écosystème Microsoft, le haut niveau de personnalisation possible, et la facilité à trouver des experts sur le marché.

Assess

35Analytics-as-Code

L'Analytics as Code révolutionne le travail des data analysts. Cette approche permet de surmonter les défis de qualité liés à la duplication et à la modification manuelles des dashboards et requêtes SQL. En adoptant les méthodologies des développeurs, elle offre modularité et versioning, améliorant significativement la qualité et la reproductibilité des analyses.

La transition vers le code est cruciale mais complexe. Nous observons une évolution prometteuse : l'émergence de couches sémantiques en langages markup comme LookML, et le passage d'outils ETL graphiques vers des solutions code-first, telles que dbt. Ces avancées, bien que fragmentées, ouvrent la voie à une expérience analytique plus cohérente.

Des entreprises innovantes proposent des solutions intégrées, comprenant :
  • Des langages de requête programmatiques pour une analyse modulaire (ex. Malloy)
  • Des langages de requête programmatiques pour une analyse modulaire (ex. Malloy)
  • Des plateformes unifiées pour data engineers et analysts (ex. Holistics)
  • Des extensions VSCode pour la création visuelle et le markup (ex. Quary)

Ces outils promettent de transformer radicalement le workflow analytique, en le rendant plus efficace et collaboratif. Certaines solutions excellent en modularité mais peinent à démontrer un ROI rapide, tandis que d'autres, plus complètes, manquent encore de puissance face aux systèmes établis.


Le point de vue Theodo


Nous recommandons d'explorer ces technologies avec intérêt mais prudence. Leur potentiel est indéniable, mais leur maturité et leur intégration dans des environnements complexes restent à prouver. Une évaluation minutieuse est nécessaire pour déterminer leur valeur ajoutée par rapport aux solutions cloud et aux stacks modernes existantes.

36Data Marketplace

Une data marketplace est une plateforme de partage de données où les entreprises peuvent rendre leurs données accessibles à d'autres utilisateurs. Ces plateformes permettent aux entreprises de sélectionner et d'acheter des datasets via des APIs standardisées. En facilitant les collaborations inter-entreprises, les data marketplaces offrent non seulement la possibilité de générer des revenus supplémentaires, mais aussi d'accéder à des sources de données externes précieuses. Cela améliore la prise de décision et optimise les opérations internes.

Cette approche favorise la croissance du marché des données en tant que service (DaaS), rendant les échanges de données plus fluides et standardisés. En développant des APIs pour partager des données en temps réel, les entreprises peuvent transformer ces informations en revenus directs, augmentant ainsi leur marge bénéficiaire et leur rentabilité.

Le data sharing est devenu un levier incontournable pour la croissance des entreprises modernes. Beaucoup d'entre elles stockent des données qui, loin d'être simplement des coûts, représentent en réalité des opportunités de revenus. En mettant en place des marketplaces de données, elles permettent à d'autres entreprises d'accéder à ces informations précieuses, créant ainsi une nouvelle source de monétisation.

Les entreprises qui adoptent une stratégie basée sur le partage de données peuvent observer une augmentation des revenus de 1 à 3 % en moyenne, tout en bénéficiant d'une réduction des coûts opérationnels de 10 à 20 %. Selon une étude de McKinsey, d'ici 2025, 80 % des entreprises devraient intégrer des données externes dans leurs processus de décision, ce qui les rendra encore plus performantes.


Le point de vue Theodo


Nous recommandons le data sharing pour les entreprises ayant une connaissance approfondie des données actuelles et une vision claire de l’objectif de leurs projets. Pour garantir la réussite du projet, nous conseillons d’appliquer une gouvernance rigoureuse dès le début pour éviter des adaptations coûteuses et garantir un retour sur investissement optimal.

37Data Marts pour la BI

Les datamarts représentent un sous-ensemble spécialisé des entrepôts de données, conçus pour répondre aux besoins analytiques spécifiques d'un département ou d'une fonction métier. Dans le contexte des outils de Business Intelligence (BI), un datamart va au-delà de la simple copie de tables : les données y subissent des transformations cruciales - nettoyage, structuration et synthèse - pour les rendre immédiatement exploitables pour la visualisation. L'accent est mis sur la fourniture d'informations pertinentes et prétraitées, adaptées à des cas d'utilisation spécifiques.

Bien que les datamarts offrent de meilleures performances, une facilité d'utilisation accrue et des données prêtes à l'emploi, ils souffrent d'un manque de flexibilité et d'une éventuelle duplication fonctionnelle et technique menant à des problèmes de gouvernance plus large. Les utilisateurs métier restent dépendants de data analysts techniquement compétents pour élargir le champ de leur analyse, car eux seuls peuvent modifier un datamart existant ou en créer un nouveau.

L'apparition des entrepôts de données distribués et d'outils de transformation accessibles via SQL a conduit à une divergence d'approches entre data engineers et data analysts. Les premiers privilégient des solutions centralisées et robustes, rappelant la méthodologie d'Inmon, tandis que les seconds préfèrent des méthodes plus agiles et flexibles, proches de la philosophie de Kimball.

Même si les données sont désormais traitées et stockées dans le même entrepôt, elles sont souvent organisées dans des zones ou schémas distincts, ce qui brouille la distinction traditionnelle entre datamarts et entrepôts de données, au profit d'une intégration plus fluide.


Le point de vue Theodo


Nous recommandons de reconsidérer l'utilisation des datamarts, dont l'adoption a diminué au cours de la dernière décennie pour les raisons mentionnées ci-dessus. Cependant, ce paradigme reste pertinent lorsque les ingénieurs et analystes de données utilisent des outils différents, ou lorsque les capacités de traitement sont limitées ou coûteuses. Nous préconisons plutôt la mise en place d'une couche sémantique, offrant une plus grande flexibilité et évolutivité dans l'analyse.

38Text-to-SQL

Le Text-to-SQL permet aux utilisateurs non techniques de formuler des requêtes en langage naturel, qui sont ensuite automatiquement converties en SQL. Ce domaine connaît un développement rapide, grâce aux modèles génératifs (GPT-4o et Sonnet en tête) et à des initiatives telles que QueryGPT d'Uber, qui visent à améliorer les performances en intégrant davantage de contexte et en évaluant la qualité des requêtes générées.

Ces technologies utilisent des agents intelligents pour interpréter les intentions des utilisateurs et formuler des requêtes adaptées aux bases de données. Cependant, malgré des avancées notables, elles font encore face à des limitations. Parmi celles-ci, on observe des erreurs de traduction en SQL, comme l’invention de colonnes inexistantes, ainsi qu’une difficulté à gérer des requêtes plus complexes, telles que des jointures multiples ou des sous-requêtes. De plus, la compréhension des données contextuelles n'est pas toujours optimale.


Le point de vue Theodo


Nous recommandons une évaluation prudente de ces technologies. Elles peuvent apporter des gains en productivité pour des requêtes simples, mais ne sont pas encore prêtes pour des environnements complexes sans supervision humaine.

Hold

39Qlik

QlikSense est l’une des plus anciennes technologies de BI encore sur le marché. Sortie en 1993, elle présente des fonctionnalités très similaires à Power BI (visuels avancés, variables contextuelles…) avec une ergonomie un peu moins agréable : certaines fonctionnalités, comme les sommes cumulées, sont dissimulées dans une interface complexe.

Un autre inconvénient réside dans la documentation officielle de Qlik, qui est très mal référencée dans le SEO de Google. Vos recherches vous renverront invariablement vers les forums officiels, dont la qualité est aléatoire. À cause du Qlik Set Analysis (langage propriétaire utilisé pour calculer des Master Items, semblables aux mesures de Power BI) et de son outil de débogage lacunaire, l’utilisation de Qlik par un Data Analyst débutant sera ardue.

Une des fonctionnalités majeures de Qlik sont les QlikViewDatasets (QVD), des fichiers binaires permettant de lire très rapidement la donnée. Cependant, leur mise en place n’est pas automatique et doit être réalisée dans une application Qlik dédiée, ce qui nécessite des développements supplémentaires par rapport à vos applications de restitution.


Le point de vue Theodo


Nous ne recommandons pas Qlik comme outil de BI. Cet outil accuse le poids des années avec une interface complexe et austère aux tons gris. L’écriture et la lecture des QVD manquent de transparence et de scalabilité. Pour du reporting, des solutions comme Power BI ou Looker Studio offrent une meilleure ergonomie et une meilleure documentation.