Contrairement au Big Data qui repose sur un volume important de données, la Smart Data se fonde sur la qualité des jeux de données disponibles. L’enjeu prioritaire étant aujourd’hui d’identifier quelles données doivent être traitées et pour quel usage.
En parallèle, elles portent une attention particulière aux processus internes et externes ainsi qu’aux technologies dont elles disposent afin de garantir le niveau de fiabilité le plus élevé possible.
Redéfinir l’usage de la donnée pour plus de fiabilité
Les limites du modèle Big Data
Le Big Data repose sur trois grand principes :
- Volume : traditionnellement, les DSI des entreprises géraient des volumes de données se mesurant en téraoctets. Elles doivent désormais traiter des pétaoctets (1015 octets), voire des exaoctets (1018 octets) en raison du volume croissant de données à prendre en considération.
- Variété : les données structurées habituelles sont aujourd’hui complétées par de nombreuses données semi-structurées et non-structurées provenant de sources internes (ERP, CRM…) mais aussi externes (open data, réseaux sociaux…).
- Vitesse : la fréquence à laquelle les données sont générées et actualisées augmente continuellement. Les entreprises doivent prendre les mesures adéquates, à la fois en termes d’infrastructure IT mais aussi de solutions logicielles, pour tirer profit de cette vitesse.
Les bénéfices du Big Data sont, en apparence, multiples: efficacité opérationnelle, réduction des coûts, détection et prévention de la fraude, analyse des risques, conformité réglementaire…etc
Parmi les limites les plus flagrantes du Big Data apparentes de nos jours, on peut citer:
- la qualité de la donnée : qui peut se retrouver dupliquée, et sa pertinence variable
- la fragmentation des données en silos : dont la cohérence est souvent limitée
- la faiblesse de la culture orientée données : qui se répercute essentiellement sur les processus internes et externes
- les investissements nécessaires : en IT, logiciels et data scientists.
Les Datalakes comme preuve de l’essoufflement du modèle
Étroitement liés au Big Data, les data lakes ont pour vocation de proposer un espace de stockage à toutes les informations dont dispose une entreprise, quelle que soit leur origine et leur format.
Mais, tout comme les projets Big Data, le déploiement des data lakes pêche par de nombreux aspects :
- Manque de structuration et de hiérarchisation de la donnée: peut ralentir les décisions et s’avérer onéreux.
- Une qualité médiocre: avec peu de cohérence, de précision et donc de fiabilité.
- Absence d’implication des entités métiers: la valeur métier de certains projet de datalake peut s’éroder au fil du temps.
“Si les projets de mise en œuvre de Data Lake ont explosé ces dernières années, nombreux ont toutefois échoué, faute de suffisamment bien définir l’usage des données, la qualité attendue n’étant ainsi pas toujours au rendez-vous” – Frédéric Malagoli, Associé PwC, spécialisé dans les missions liées à la gouvernance, la sécurité des systèmes d’information, la mise en œuvre de systèmes de management de la sécurité et la conduite de missions d’audit cybersécurité – PwC
Vers la Smart Data pour une stratégie performante
De nombreuses entreprises se tournent vers une approche désormais différente : la Smart Data. Décider de mettre en œuvre une stratégie de Smart Data revient à privilégier – à travers la notion “d’intelligence” – le fait de traiter moins de données mais de façon plus fine.
“Lorsqu’on parle de Smart Data, on allie les notions liaison et historique. La valeur d’une donnée se révèle lorsqu’elle est liée. L’historique permet de déterminer une tendance et une prévision. » – Frédéric Paresy, Expert Avant-ventes Data management – Altares
La liaison est parfaitement en phase avec la notion de données de référence. Quand les données sont liées entre elles, il est également important, pour comprendre leur histoire, qu’elles soient liées à des références ainsi qu’à un historique. A partir du moment où la confiance dans l’information a été créée et qu’elle se pérennise, il est alors possible de réaliser des analyses, de la Data Science et du prédictif.
La technologie pour une stratégie de Data Management efficace
La technologie au service de la donnée
Aujourd’hui, les solutions technologiques dont disposent les DSI des entreprises permettent de simplifier et de sécuriser l’ensemble des processus. Cela se traduit par :
- Une amélioration des reporting
- Un suivi plus fin des actions en temps réel
- Une aide à la prise de décision plus efficace et pertinente
- Une meilleure gestion des compétences.
La croissance des entreprises s’en trouve mieux accompagnée et soutenue.
Les solutions d’intégration sont à ce titre stratégiques. Elles répondent aux besoins de simplification de la complexité des entreprises, en sécurisant les transactions et en facilitant le travail des collaborateurs. Grâce à elles, les entreprises gagnent en performance, réalisent des mises à jour et du monitoring en continu, épargnant ainsi des tâches répétitives et fastidieuses.
Des outils essentiels pour la prédiction et l’aide à la prise de décision
Les entreprises auront aujourd’hui tendance à prédire et donc déceler les tendances pertinentes nécessaires à leur prise de décision.
Le travail de toute équipe en charge des data au sein d’une entreprise consiste avant tout à définir l’usage qui est fait des données et ce, en collaboration étroite avec les départements métiers. Plus on possède d’historique sur une donnée, plus on est capable de prédire le futur.
“L’un de nos métiers est de prédire la défaillance des entreprises. Mais si l’historique est important, il faut qu’il soit réévalué ! C’est laisser de la donnée dormir qui est dangereux.” – Michael Lisch, Expert en solutions achats et référentiel tiers -Altares
Une transformation des processus nécessaire pour une donnée fiable et sécurisée
Challenger les processus internes pour une meilleure protection de la data
Assurer la sécurité et la protection des données à l’échelle de l’entreprise est un travail de longue haleine. Outre les mesures juridiques, les mesures organisationnelles sont également cruciales.
Ces mesures visent à élaborer des processus internes stricts :
- Mapping des flux de données internes afin de fluidifier et sécuriser tous les échanges de données
- Mise en place d’une stratégie de gestion des identités et des accès (IAM pour Identity and Access Management) définissant des droits d’accès et les autorisations spécifiques pour chaque collaborateur
- Mise en œuvre de seuils d’alerte en fonction du montant ou du niveau de sensibilité d’une transaction.
“Pour arriver à un bon Data Management et une bonne gouvernance de la donnée, il est indispensable d’associer : une solution technologique, une bonne organisation interne, des processus définis et la sensibilisation des équipes.” – Betty Sfez, Avocat associé IT / DATA / IP – Solegal
Pour en savoir davantage sur le Data Management et comment user de ses ressources afin de lutter contre la fraude, téléchargez le livre blanc Trustpair et Altares dédié: « Data Management, le remède contre la fraude au virement »
Ce livre blanc n’aurait pas été complet sans les témoignages d’experts sur ces sujets. Découvrez leurs interviews sur notre blog :
- Frédéric Paresy et Michael Lisch, expert Avant-ventes Data management chez Altares
- Laurent Morel, Frédéric Malagoli et Cyril Jacquet, associés France et Magreb PwC France et Magreb
- Betty Sfez, Avocat associé IT / DATA / IP – Solegal
- Fanny Rabouille, Co-titulaire de la Chaire Digital, Organization & Society et Directrice du programme Mastère Spécialisé Big Data – Grenoble Ecole de Management