mknews

mardi 20
avril 2021

  

6566 News

1669 Membres

Simple & Gratuit !

Je communique
sur ma marque

    btcliquez

Je reste en veille

  facebook tw 

L'information permanente dédiée aux dirigeants et aux marketeurs

 
Accueil » tribune
 
Publié le 27/03/2020

tribune

Le contrôle dynamique de la qualité des données s’invite dans la montée de l'IA

Longtemps cantonnée à des communautés au sein des métiers ou simple fait de techniciens puristes ou perfectionnistes, la notion de qualité des données prend désormais un sens beaucoup plus fort, à l’heure de l’intelligence artificielle, des véhicules autonomes ou du machine learning.

La pratique est bien sûr au centre du processus décisionnel depuis les débuts de l’ère numérique, principalement dans l’industrie, le retail ou la banque et l’assurance. Gestion du risque, ciblage client, personnalisation des offres, automatisation des back offices… Les usages sont nombreux.
La pénétration progressive du digital dans tous les pans de la société et de l’économie lui offre aujourd’hui une portée encore plus vaste, ayant amené différents experts à réaliser une étude sur le sujet.
Celle-ci menée par l’Autriche à l’échelle européenne a été soutenue par le Ministère des Transports, de l’Innovation et des Technologies autrichien, la Province de Haute Autriche et le Ministère Fédéral pour les affaires Économiques et Numériques, et rappelle que la précision dans l’appréciation du niveau de qualité des données est un facteur constitutif majeur pour juger de la pertinence des décisions basées sur leur analyse.
Extrêmement documentée, l’étude balaie les méthodes et les techniques de mesure de la qualité des données les plus avancées, et tente d’y associer les usages d’implémentation pratiques les plus courants. Le tout avec pour objectif affiché de répondre à la question : « comment mesurer et contrôler la qualité des données de façon entièrement automatisée » ; en d’autres termes, comment passer à l’étape supérieure et garantir la qualité des données en continu dans les processus informatiques.
L’automatisation est en effet un préalable presqu’obligatoire pour la mise en place des produits et services qui s’annoncent, dont l’essence même est l’ultra précision des données, qu’il s’agisse de référentiels d’identité, de temporalité ou de géographie.
Pour y parvenir, les auteurs ont sélectionné et testé en profondeur 13 solutions technologiques, après avoir identifié pas moins de 667 outils logiciels dédiés à la « qualité des données », et les avoir méthodiquement triés selon des critères d’exclusion précis. Pour couper court à tout partisanisme sur la forme, la méthode de sélection est elle-même très documentée : analyse de toutes les études ou publications déjà parues sur le sujet, recherches systématiques puis aléatoires en ligne pour garantir l’exhaustivité.
Sur le fond, certains s’interrogeront sur l’utilité même d’une nouvelle étude sur les méthodes ou les outils de qualité de données, alors que de nombreuses autres ont déjà été publiées : or il apparaît que très peu se penchaient effectivement sur le volet purement opérationnel, la mise en application et comme dit plus haut, l’analyse du rafraichissement du processus de mise en qualité au cœur même des opérations. Dans ce cas précis, l’angle fort du rapport porte plus particulièrement sur la mission des outils (littéralement « the overall focus ») en termes de fonctionnalités : profilage, mesure et métriques et enfin, contrôle continu de la qualité des données.


 

Toutes les news

Espace service

La lettre d'information des professionnels de la VAD, du MD, de l'E-commerce et M-commerce