L’IA ne peut avancer qu’à la vitesse de vos données - et elle amplifie ce que vous avez déjà, pour le meilleur comme pour le pire. Aujourd’hui, les signaux business, qu’il s’agisse de changements de direction ou d’intention d’achat, évoluent plus vite que la plupart des systèmes Go-To-Market ne peuvent suivre.
La rotation des dirigeants s’accélère sur tous les marchés, rendant les données obsolètes bien plus rapidement qu’auparavant. Par ailleurs, près de 70 % des catégories d’intention d’achat dans le dataset de Cognism sont désormais liées à l’IA et à l’automatisation. Cela suggère que de nombreuses équipes s’appuient encore sur des données statiques ou dépassées pour construire leur stratégie IA — avec le risque d’échouer avant même d’avoir réellement démarré.
Tout le monde veut que l’IA transforme son moteur Go-To-Market. Mais peu d’équipes prennent le temps de se demander si leurs données sont réellement prêtes pour cela.
Dans sa définition la plus simple, une donnée prête pour l’IA est une donnée que les systèmes d’intelligence artificielle peuvent fiabiliser, comprendre et exploiter.
Dans un contexte Go-To-Market, cela signifie des données qui sont :
suffisamment fiables pour servir de base aux décisions,
suffisamment récentes pour refléter les conditions d’achat réelles,
suffisamment structurées pour être traitées par des machines,
suffisamment connectées pour circuler efficacement dans l’écosystème technologique GTM.
Sandy Tsang, VP RevOps chez Cognism, définit la notion de « donnée prête pour l’IA » ainsi :
« Une donnée prête pour l’IA, c’est une donnée que l’on peut exploiter en s’appuyant sur la puissance des modèles de langage (LLM) afin de l’enrichir.
Que ce soit pour des usages marketing, commerciaux ou d’analyse client.
Pour moi, tout repose surtout sur sa propreté et sa facilité d’utilisation - non seulement pour un humain, mais aussi maintenant pour une machine capable d’identifier les tendances ou les insights que nous recherchons.
Une donnée prête pour l’IA est donc une donnée qui peut être réellement intégrée dans un outil d’IA et produire un résultat exploitable, par exemple : une synthèse claire de ce que ce jeu de données signifie réellement. »
C’est précisément à ce niveau que de nombreuses équipes se trompent. Elles pensent que la préparation à l’IA consiste à disposer de davantage de données, ou à ajouter des fonctionnalités d’IA par-dessus leurs outils existants.
En réalité, la question essentielle est de savoir si vos données reflètent fidèlement ce qui se passe actuellement sur votre marché - car c’est exactement ce que l’IA va amplifier. L’IA ne sait pas distinguer ce qui est « juste » de ce qui est « faux » : vous devez donc vous assurer que vos sources sont fiables et que vos données sont clairement structurées.
Historiquement, les humains compensaient la mauvaise qualité des données. Comme le souligne Sandy Tsang, les équipes nettoyaient autrefois les données manuellement au fil de leur arrivée :
“Lorsque nous achetions différents jeux de données ou listes, des personnes les examinaient manuellement pour identifier ce qui devait être corrigé : formats de numéros, incohérences, ce genre de choses.”
L’IA, malheureusement, ne fonctionne pas ainsi. Lorsqu’on alimente des systèmes d’IA avec des données, chaque hypothèse implicite, chaque incohérence et chaque contradiction apparaît immédiatement - et à grande échelle. L’IA met en lumière des faiblesses structurelles qui étaient auparavant compensées par le jugement humain.
C’est pourquoi de nombreuses équipes Go-To-Market sont déçues par les résultats produits par l’IA. Non pas parce que l’IA est inefficace, mais parce que les données n’ont pas été conçues, à l’origine, pour être interprétées par des machines. Et lorsque les résultats semblent incohérents ou difficiles à expliquer, la confiance disparaît rapidement.
Même lorsque l’IA produit des résultats exploitables, Sandy estime que le problème ne vient généralement pas uniquement des données - mais aussi de la communication autour de celles-ci :
« Si quelque chose paraît suspect, c’est avant tout une question de visibilité. D’où vient cette donnée ? Quel était son objectif initial ? Comment savoir si je peux lui faire confiance ? »
Sans contexte, les résultats générés par l’IA ne deviennent que des chiffres affichés à l’écran. Les données ne prennent de valeur que lorsqu’elles s’accompagnent d’une interprétation et d’une action.
« Ce n’est pas seulement : “voici le chiffre”. Ce sont l’analyse et les décisions que vous en tirez. »
Les résultats produits par l’IA devraient nourrir la discussion plutôt que la remplacer. Les équipes doivent pouvoir questionner les résultats, remettre en cause les hypothèses et recontextualiser les enseignements obtenus.
Sans ce dialogue, l’IA devient simplement un outil de plus que l’on finit par ignorer - un système qui produit des réponses auxquelles plus personne ne fait totalement confiance.
La notion de donnée propre est souvent réduite à une question de formatage. Pourtant, selon Sandy Tsang, cette définition n’est aujourd’hui plus suffisante.
« Cela va bien au-delà du simple formatage. Il s’agit de la manière dont les données sont structurées, de leur cohérence logique et de la façon dont différentes sources interagissent lorsqu’on les rapproche. »
Elle compare les données à des blocs de construction. Si ces blocs ne s’assemblent pas correctement - ou pire, s’ils se contredisent - les systèmes d’IA peinent à produire des analyses réellement pertinentes.
Elle ajoute :
« Lorsque vous observez vos blocs de construction, s’assemblent-ils réellement ? Ou bien se contredisent-ils, voire n’ont-ils tout simplement pas de sens ensemble ? »
C’est aussi à ce stade que le rôle humain reste essentiel. Quelqu’un doit encore décider :
quels champs sont réellement importants,
quelles divergences peuvent être tolérées,
à partir de quelles données il est pertinent de produire des analyses.
L’IA ne remplace pas le jugement humain, elle révèle surtout les endroits où ce jugement n’a jamais été clairement appliqué. Et c’est précisément pour cette raison que la préparation des données à l’IA échoue si souvent en pratique.
Interrogée sur le principal obstacle à des données réellement prêtes pour l’IA, Sandy ne mentionne pas les outils d’IA eux-mêmes, mais un enjeu bien plus fondamental : la réconciliation des données.
« Il existe tellement de sources différentes, et réussir à réconcilier l’ensemble - pouvoir affirmer clairement : voici la source, voici pourquoi elle fait référence, et voici comment elle s’articule avec le reste - c’est la partie la plus difficile. »
Ce travail de réconciliation est complexe, continu et souvent invisible. C’est précisément la raison d’être des architectes data et des data engineers - et l’IA ne supprime en rien ce besoin. Au contraire, elle augmente le coût et les risques liés au fait de négliger cette étape.
Face à des données désordonnées et difficiles à réconcilier, l’un des réflexes les plus courants consiste à rechercher une source unique de vérité.
À première vue, cette approche semble logique. Si tout le monde utilisait le même jeu de données, les résultats produits par l’IA devraient être plus propres, plus cohérents et plus faciles à interpréter.
Dans la pratique, Sandy Tsang estime que cette approche crée souvent davantage de problèmes qu’elle n’en résout.
Les différentes équipes Go-To-Market cherchent en réalité à répondre à des questions différentes - et chacune de ces questions nécessite des données différentes.
Par exemple :
la finance a besoin de données reflétant la facturation, la reconnaissance du revenu et la réalité comptable,
le RevOps a souvent besoin d’une vision beaucoup plus temps réel des mouvements de pipeline, des bookings et de l’activité commerciale,
le marketing adopte encore une autre perspective, centrée sur l’engagement, l’intention d’achat et le comportement des comptes.
Forcer toutes ces réalités dans une seule « vérité » revient généralement à dégrader la qualité des données pour tout le monde.
Dans un contexte d’IA, ce risque devient encore plus important. Lorsque des systèmes d’IA sont alimentés par des données qui n’ont pas été conçues pour répondre à la question posée, les résultats deviennent incohérents ou trompeurs - même si les données sont techniquement exactes.
Les équipes réellement prêtes pour l’IA ne reposent pas sur une source unique de vérité. Elles privilégient plutôt la clarté d’usage.
Elles documentent clairement :
quelle source de données utiliser selon le type de décision,
à quelles équipes ces données sont destinées,
quelles sont les limites de ces données.
Cette clarté est plus importante que la consolidation. L’IA n’a pas besoin d’un seul jeu de données capable de répondre à toutes les questions - elle doit surtout savoir quelle donnée utiliser et à quel moment lui faire confiance selon le contexte.
Les fournisseurs de données jouent un rôle déterminant dans le fait que les données Go-To-Market soient réellement prêtes pour l’IA - mais uniquement lorsque la relation repose sur la transparence et la collaboration.
À mesure que les équipes GTM font face aux enjeux de réconciliation des données, de responsabilité et de confiance, une réalité s’impose : la préparation à l’IA ne s’arrête pas aux frontières de l’organisation. La majorité des données Go-To-Market ne sont pas produites en interne. Elles sont enrichies, validées et complétées par des partenaires externes.
Sandy Tsang souligne que la véritable valeur de ces fournisseurs ne réside pas uniquement dans la donnée elle-même, mais dans la manière dont les équipes collaborent avec eux :
« Plus vous impliquez votre fournisseur de données, plus vous tirerez de valeur de ces données. »
Dans un contexte d’IA, cette collaboration devient essentielle. Lorsque les équipes ne comprennent pas d’où proviennent les données externes, comment elles sont collectées ou pourquoi certaines divergences existent, la confiance dans le processus - et dans les résultats produits - peut rapidement disparaître.
Les fournisseurs qui accompagnent réellement les équipes GTM vers des données prêtes pour l’IA sont ceux qui :
expliquent clairement l’origine de leurs données,
font preuve de transparence sur la manière et les raisons pour lesquelles les enregistrements évoluent dans le temps,
rendent explicites les limites et les cas particuliers,
permettent aux équipes de remonter jusqu’à la source d’une donnée.
Ce niveau de transparence apporte un élément essentiel : le contexte. Et c’est ce contexte qui permet aux équipes de faire confiance aux analyses issues de l’IA, de les questionner et surtout de les transformer en actions - plutôt que de les ignorer silencieusement.
En définitive, la préparation des données à l’IA dépend aussi de l’écosystème data dans son ensemble, et de la capacité de vos partenaires à assumer pleinement la qualité et la traçabilité des données qu’ils fournissent.
Malheureusement, il n’existe pas de checklist universelle permettant de valider la préparation des données à l’IA avant de se lancer.
Comme l’explique Sandy Tsang :
« J’aimerais qu’il existe un outil de pré-qualification, mais à ma connaissance, ce n’est pas encore le cas. »
En pratique, le niveau de préparation à l’IA ne devient souvent visible qu’une fois les données réellement ingérées par un système d’IA. Le signal le plus révélateur n’est pas un score ou un benchmark, mais la capacité de l’IA à travailler concrètement avec les données fournies.
« Le résultat attendu de l’IA, c’est qu’elle vous indique ce qu’elle a pu utiliser — et ce qu’elle n’a pas pu exploiter. »
Si l’IA ne parvient pas à produire les analyses attendues, ou si une partie importante du jeu de données est ignorée, mal interprétée ou inutilisable, c’est généralement le signe qu’un élément de la chaîne entre la donnée et l’IA n’est pas prêt.
Le problème peut venir :
de la structure ou de la lisibilité des données elles-mêmes,
de la manière dont elles sont présentées et contextualisées pour le modèle,
ou encore de la capacité du modèle à interpréter les relations entre les données.
La difficulté, bien sûr, est que la plupart des équipes Go-To-Market ne peuvent pas tout arrêter pour reconstruire leurs fondations data depuis zéro. Les systèmes sont déjà en production, les parties prenantes utilisent déjà les indicateurs, et les expérimentations autour de l’IA avancent en parallèle.
C’est pourquoi le conseil de Sandy est volontairement pragmatique : commencer par les définitions.
« La priorité est de définir vos indicateurs, la manière dont ils sont calculés et leurs sources. »
Avant d’investir davantage dans des outils d’IA ou dans l’automatisation, les équipes doivent partager une compréhension commune de certains fondamentaux — non pas en théorie, mais par écrit, et avec un alignement réel entre les équipes.
Au minimum, cela implique de s’accorder sur :
ce que vous mesurez : les indicateurs réellement importants pour l’entreprise,
pourquoi vous les mesurez : les décisions que ces indicateurs doivent éclairer,
comment ils sont calculés : hypothèses, exclusions et temporalité incluses,
quelle donnée sert quelle équipe, et quelle source est adaptée à chaque cas d’usage.
Ce travail peut sembler élémentaire, mais c’est précisément là que la plupart des initiatives IA réussissent - ou s’essoufflent discrètement.
Sans définitions claires, les systèmes d’IA doivent fonctionner sur des logiques incohérentes et des interprétations concurrentes. Le résultat : des analyses plausibles en apparence, mais auxquelles personne ne fait réellement confiance, et qui ne débouchent pas sur des actions concrètes.
Lorsque ces définitions existent, quelque chose change profondément. Les données deviennent lisibles non seulement pour les humains, mais aussi pour les machines. L’IA peut alors s’appuyer sur une base stable, au lieu d’amplifier l’ambiguïté. Ce n’est qu’à ce moment-là qu’elle dispose réellement de quelque chose de solide à amplifier.
Une fois ces fondations en place, les équipes peuvent avancer par itérations : améliorer progressivement la qualité des données, renforcer les intégrations et élargir les cas d’usage de l’IA avec confiance, plutôt que d’essayer de tout résoudre simultanément.
À mesure que l’IA s’intègre de plus en plus profondément dans les systèmes Go-To-Market, Sandy Tsang estime que le rôle du RevOps est appelé à évoluer - et non à se fragmenter.
Malgré l’intérêt croissant pour des intitulés comme « Revenue Data » ou « VP Revenue Data », elle ne pense pas que la responsabilité des données doive être séparée du RevOps. Selon elle, ces deux dimensions sont fondamentalement interdépendantes.
Le RevOps conçoit la manière dont les données circulent au sein de l’organisation :
comment les systèmes sont connectés,
comment les données clients et revenus sont collectées,
comment l’information passe du marketing aux ventes, puis aux équipes customer.
Le travail autour des données de revenus consiste, quant à lui, à :
interpréter ces flux,
transformer les entrées en résultats exploitables,
produire des analyses sur lesquelles les équipes revenue peuvent réellement agir.
Séparer ces fonctions risque de rompre la boucle de rétroaction entre la structure des données et leur interprétation. Lorsque les personnes chargées de produire des analyses sont déconnectées de la manière dont les données sont générées, gouvernées et transportées entre les systèmes, la confiance et la fiabilité diminuent - un phénomène encore amplifié avec l’introduction de l’IA.
L’IA rend cette relation encore plus stratégique.
Comme le souligne Sandy, l’IA permet déjà aux équipes RevOps de traiter des volumes de données bien plus importants qu’auparavant - non seulement des données chiffrées, mais aussi des informations qualitatives telles que les transcriptions d’appels, les notes ou les retours clients, à grande échelle. L’IA peut faire émerger en quelques minutes des thèmes, des tendances et des signaux qui auraient auparavant demandé plusieurs semaines d’analyse.
Mais une capacité de traitement plus rapide ne supprime pas la nécessité d’une responsabilité humaine.
Le contexte reste essentiel. Le jugement reste indispensable. Quelqu’un doit toujours décider quelles analyses sont pertinentes, comment les présenter et quelles actions elles doivent déclencher. Sans cette supervision, les résultats produits par l’IA risquent de devenir techniquement impressionnants mais opérationnellement inutiles.
Dans un futur où les données sont réellement prêtes pour l’IA, le RevOps devient le tissu connecteur entre les systèmes, les données et la prise de décision. Son rôle ne consiste plus seulement à maintenir l’infrastructure, mais à façonner activement la manière dont les analyses sont produites, comprises et utilisées à l’échelle de l’entreprise.
Des données prêtes pour l’IA ne signifient pas des données parfaites. L’enjeu est plutôt de savoir si vos données sont suffisamment fiables, compréhensibles et exploitables pour permettre de passer à l’action.
Comme le rappelle Sandy Tsang, l’IA ne corrige pas miraculeusement des fondations Go-To-Market défaillantes. Elle les reflète simplement - plus vite, plus fortement, et sans le filtre humain qui masquait auparavant les incohérences.
Les équipes qui rencontrent des difficultés avec l’IA n’échouent généralement pas parce que la technologie est immature. Elles échouent parce que :
leurs données n’ont pas de responsable clairement identifié,
leurs indicateurs ne sont pas suffisamment définis,
leurs sources de données ne sont pas alignées avec leur objectif,
leurs équipes ne font pas confiance aux résultats obtenus.
Les équipes qui réussissent adoptent une approche différente. Elles cherchent moins à intégrer l’IA partout qu’à rendre leurs données lisibles - à la fois pour les machines et pour les humains. Elles définissent ce qui compte réellement, documentent pourquoi cela compte, et créent les conditions permettant à l’IA d’amplifier la compréhension plutôt que la confusion.
Dans cet environnement, le RevOps ne consiste plus seulement à faire fonctionner des systèmes. Il s’agit de garantir que les données qui y circulent puissent être comprises, interprétées et utilisées pour déclencher des actions concrètes.