L’explosion des données offre de nouveaux moyens d’appréhender l’économie, et de modifier non seulement la méthode, mais aussi l’objet des mesures
Nous voyons le monde non pas tel qu’il est, mais tel que nous sommes. Dans le domaine des données, les économistes doivent repenser la nature des informations qu’ils utilisent pour décrire la réalité de terrain, et réinventer la vérité qu’ils souhaitent enregistrer. Par déformation professionnelle, ils voient l’économie sous l’angle d’un monde de « petites données » qu’ils connaissent de longue date. Or dans un univers de « données massives », où la diversité, la fréquence et la granularité des sources de données (et des éléments à mesurer) sont autrement plus vastes, un nouvel état d’esprit s’impose.
Pour avoir une idée du choc qui oppose la multiplication des informations et la pensée traditionnelle, remontons un peu le temps dans le domaine de la santé.
En 1990, General Electric a mis à jour le logiciel de ses machines d’imagerie par résonance magnétique (IRM) Signa, utilisées pour des examens médicaux. Des ingénieurs avaient découvert une anomalie dans le système qui compressait les images des tissus contenant des lipides (graisses). Mais lorsqu’ils ont produit des images plus précises, de nombreux radiologues se sont rebellés. Peu habitués à se pencher sur des clichés d’une telle qualité, ils étaient plus à l’aise avec les anciens et redoutaient les erreurs de diagnostic. General Electric a donc été contraint d’ajouter une fonctionnalité aux machines d’IRM permettant aux radiologues de consulter les anciennes images, qualifiées de « classiques », clin d’œil au lancement désastreux du « nouveau Coca-Cola » quelques années auparavant.
Une IRM est une illustration qui apporte une information. Ce n’est pas la réalité. Considéré sous cet angle, le principe est un peu le même que pour les données économiques telles que la croissance, le chômage ou l’inflation. Dans les années 90, les radiologues ont préféré des informations moins précises, car ils s’étaient habitués à utiliser des images compressées : leurs compétences étaient affûtées pour composer avec ces contraintes. Ils se sont montrés réfractaires aux images de meilleure qualité. Les économistes d’aujourd’hui risquent-ils de tomber dans le même piège mental ?
Une galaxie de données
Songez à la galaxie de données et à l’intelligence artificielle (IA) qui nous entourent aujourd’hui et à la nouveauté qu’elles représentent. Il y a 25 ans, peu d’objets de la vie courante étaient dotés d’une puce informatique ou connectés à un réseau. C’était une époque à présent révolue où coexistaient des lettres, des tickets de métro, des réveils de voyage et des transactions par carte de crédit qui nécessitaient une signature sur un papier carbone après un passage dans une imprimante manuelle, dite « fer à repasser ». Votre montre ne suivait pas votre sommeil ni vos activités physiques. Votre téléphone sans fil ne pouvait pas reconnaître votre visage et votre banque ne contrôlait pas votre signature vocale. Les voitures n’étaient pas équipées de systèmes de navigation par satellite, si bien que les conducteurs devaient lire des cartes routières bien difficiles à replier. Trêve de nostalgie : le fait est qu’avec la transformation numérique de la société, ce qui était impossible hier, à savoir traduire des activités sous forme de données, est désormais chose aisée.
Il est ainsi possible de comprendre l’économie de façon plus précise, en ayant une meilleure image de la réalité de terrain, du phénomène qui est mesuré. Les informations peuvent être communiquées beaucoup plus rapidement, peut-être quasiment en temps réel, et d’une manière plus granulaire, les données étant décomposées en petits segments, voire en individus, ce dont les méthodes plus anciennes étaient incapables, car elles compressaient les informations, à l’instar de l’IRM avant 1990. On gagne en exactitude, en rapidité et en précision. En outre, l’objet des mesures peut lui-même évoluer, d’où de nouvelles méthodes pour appréhender le monde (et, ce faisant, l’améliorer, espérons-le).
Toutefois, les entités qui recueillent les informations seront issues du secteur privé, car c’est dans le cadre de leurs activités qu’elles génèrent leurs données. Ainsi, l’imagerie par satellite peut suivre l’évolution des rendements agricoles. Les sites d’offres d’emploi peuvent révéler quelles zones urbaines affichent une croissance plus rapide que les autres, tandis que les sites immobiliers peuvent mettre en évidence les zones où les ventes déclinent. Souvent, les entreprises se trouvent au cœur de flux de données résultant des activités d’autres entités. Le spécialiste du traitement de la paie ADP prend en charge un travailleur sur six aux États-Unis. Les économistes utilisent ses rapports mensuels sur l’emploi pour compléter les données du Bureau de statistiques sur l’emploi des États-Unis (Bureau of Labor Statistics).
Des indicateurs non traditionnels
De tels indicateurs non traditionnels ne sont pas toujours établis en employant les méthodes scientifiques rigoureuses des instituts nationaux de statistiques. Pour exploiter ces données, les spécialistes d’aujourd’hui devront changer de mentalité. Ils devront peut-être repenser leur mission, en délaissant la production d’informations au profit d’une collaboration avec le secteur privé pour renforcer et valider l’intégrité des données de façon à les utiliser à des fins plus générales. On en revient aux origines de la discipline.
Le terme statistique vient de l’allemand Statistik, concept forgé au milieu des années 1700 qui signifie la « science de l’État ». Ses instruments de mesure peuvent reposer sur la déduction : il s’agit de généraliser à partir de ce qui est facilement mesurable pour parvenir à des conclusions sur ce qui est difficile à connaître. Dénombrer les éléments eux-mêmes étant souvent onéreux ou impossible, il était d’usage de trouver des indicateurs de substitution et d’extrapoler. Cette méthode a marqué les débuts des statistiques. « La ville irlandaise de Dublin semble compter davantage de cheminées que Bristol, et par conséquent, plus d’habitants », a écrit William Petty au début d’un essai sur « l’arithmétique politique » dans les années 1680 pour estimer les populations.
Aujourd’hui, les pays développés dépensent des milliards de dollars par an pour produire des indicateurs économiques et sociaux fiables. Pour les apôtres des indicateurs officiels, c’est une mission sacrée, un pilier de la civilisation. « Le savoir, c’est le pouvoir : la statistique, c’est la démocratie », pour reprendre la célèbre citation d’Olavi Niitamo, qui a dirigé l’Office statistique de Finlande de 1979 à 1992.
Les données ne sont qu’un simulacre de ce qu’elles ambitionnent de chiffrer, d’interpréter et d’enregistrer. Il s’agit d’une abstraction, jamais du phénomène lui-même, tout comme une carte n’est pas un territoire et une simulation météorologique ne mouille personne. Les données contiennent une part d’information de ce qu’elles décrivent. Face aux mutations du monde, les statistiques à l’aide desquelles les spécialistes des sciences sociales prennent la mesure de l’être humain doivent elles aussi évoluer. Bien que les grands économistes aient adopté des méthodes plus sérieuses pour fonder la « science lugubre », on continue d’employer des variables de substitution informelles et des extrapolations.
Les « anecdonnées »
Alan Greenspan, qui a présidé la Réserve fédérale de 1987 à 2006, est tristement célèbre pour avoir adopté le concept d’« anecdonnées » (croisement entre « anecdote » et « données ») pour prendre une longueur d’avance sur les indicateurs officiels. Lorsqu’il était jeune économiste, parmi les données qu’il analysait figuraient les ventes de sous-vêtements masculins. Il considérait que c’était un indicateur économique, le type d’articles dont la consommation diminue lorsqu’il faut se serrer la ceinture.
Ses successeurs à la Fed ont suivi son exemple. Au début de la crise financière de 2008, quelques jours seulement après la faillite de Lehman Brothers, Janet Yellen, alors présidente de la Banque fédérale de réserve de San Francisco, avait mis en garde contre un grave ralentissement économique lors d’une réunion du Comité de politique monétaire de la Réserve fédérale (Federal Open Market Committee). « Les chirurgiens esthétiques et les dentistes de la baie de San Francisco constatent que les patients reportent des interventions non urgentes », a-t-elle indiqué, d’après des comptes rendus publiés cinq années plus tard. « Dans de nombreux restaurants haut de gamme, les réservations ne sont plus nécessaires ». Elle avait provoqué l’hilarité de ses collègues.
Comment l’institut de statistiques a-t-il procédé ? Au quatrième trimestre de 2008, le premier chiffre publié pour les États-Unis a été un recul du PIB de 3,8 %. Il a rapidement été révisé un mois plus tard et porté à 6,2 %. Dans la dernière révision, en juillet 2011, il a été recalculé pour aboutir à une chute de 8,9 %, soit la plus forte révision à la baisse du PIB de l’histoire et un repli plus de deux fois plus marqué qu’au départ. Des indicateurs non traditionnels auraient peut-être été utiles.
Les nouvelles sources de données auraient pu être plus rapides et efficaces que les indicateurs existants, et aussi plus précises. Ainsi, le prestataire de services de paie ADP aurait pu repérer une diminution du nombre de nouveaux salariés et un ralentissement de la hausse des rémunérations. Les recherches de logements à vendre sur Google ont pu chuter brutalement. De même, des sites professionnels d’offres d’emploi comme LinkedIn et Indeed apportent un éclairage sur les annonces de recrutement, non seulement celles qui sont publiées, mais aussi celles qui sont retirées. (Ces données sont d’ailleurs utilisées par les investisseurs, puisqu’elles sont un signe avant-coureur des difficultés des entreprises et des révisions à la baisse des prévisions des analystes, et donc des cours des actions.)
Loading component...
Un instrument de transparence
Pendant les crises, les indicateurs officiels peuvent être inopérants en raison de retards dans la publication des données. Les données non conventionnelles se sont multipliées au début de la pandémie de COVID-19. Le système GPS des téléphones Apple et Android a mesuré une diminution des visites chez les commerçants, et indiqué quels lieux ne respectaient pas le confinement. De même, pendant la fermeture des administrations fédérales aux États-Unis, en octobre 2025, les services statistiques n’ont pas pu publier de données, si bien que le secteur privé a pris le relais. Les chiffres de l’emploi ont été communiqués par ADP et Carlyle, fonds de capital-investissement qui gère 277 sociétés pour un total de 730 000 salariés.
Les données non traditionnelles responsabilisent les pouvoirs publics. Au début des années 2010, les données officielles sur l’inflation en Argentine sont devenues si ridicules que The Economist a utilisé à la place les chiffres de PriceStats, entreprise créée par deux économistes de la Harvard Business School et du Massachusetts Institute of Technology. PriceStats suit les variations de 800 000 prix quotidiens de 40 millions de produits dans 25 pays. Alors que des questions se posent au sujet de l’intégrité des données des États-Unis après le limogeage de la directrice du Bureau de statistiques sur l’emploi par le président Donald Trump en août 2025, à la suite de la publication d’un rapport négatif sur l’emploi, les données non traditionnelles peuvent être un instrument de transparence indépendant.
L’explosion de sources de données et de techniques nouvelles est particulièrement importante dans les pays en développement, qui sont dépourvus des moyens institutionnels, des fonds, des compétences et de la volonté politique nécessaires pour recueillir, analyser et publier des statistiques. En faisant preuve de créativité, les données du secteur privé peuvent être porteuses de transformations. À titre d’exemple, de nombreux pays en développement n’ont pas les moyens d’acquérir du matériel météorologique dans les régions isolées pour mesurer des phénomènes tels que les précipitations, dans l’optique de lancer des alertes aux inondations. Or, les opérateurs de téléphonie mobile disposent d’antennes-relais dans tout le pays. Ces antennes communiquent en permanence les unes avec les autres pour transmettre des informations sur le réseau et transférer le trafic. La puissance du signal faiblissant en cas de pluie, elles sont utiles pour mesurer les précipitations. D’autres solutions originales de ce type s’imposent pour remédier à la pénurie de données dans les endroits défavorisés.
Cependant, élaborer des indicateurs plus précis, granulaires et actuels n’a guère de sens s’il est impossible de les utiliser efficacement. « À moins d’augmenter simultanément la vitesse de mise en œuvre, les données massives présentent un intérêt limité », relevait Alan Greenspan dans un entretien que j’ai mené par courriel en 2014.
Le meilleur des mondes
En outre, l’enjeu dépasse l’impératif d’améliorer ce qui existe ou de combler des lacunes connues. La mise en données d’activités qui n’ont jamais été présentées sous cette forme offre une occasion unique d’apprendre du nouveau sur le monde. La société n’en est qu’au début d’une transformation majeure de la connaissance.
Un premier aspect de cette transformation est le « graphique économique » de LinkedIn. Il mesure les activités professionnelles de 1,2 milliard de personnes, 67 millions d’entreprises, 15 millions d’emplois, 41 000qualifications et 133 000 établissements d’enseignement. De nombreux pays l’utilisent pour répondre à des questions comme celles-ci : quelles sont les compétences qui progressent le plus vite, quels territoires gagnent ou perdent des emplois, est-il difficile d’opérer une transition en milieu de carrière en fonction des métiers, et dans quels secteurs et quels pays les femmes occupent-elles davantage de hautes fonctions dirigeantes ? Jusqu’à présent, ces informations n’ont jamais pu être suivies, analysées et comparées.
On pourrait penser qu’une analyse aussi approfondie des données personnelles des individus menace la vie privée, mais cela n’est pas forcément le cas. Des techniques perfectionnées de traitement des données, qui portent des noms datant de l’ère spatiale comme apprentissage fédéré, chiffrement homomorphe, calcul multipartite sécurisé et confidentialité différentielle, permettent d’analyser des données cryptées, si bien que l’entité qui traite les données ne voit pas les informations proprement dites. Le système en est encore à ses balbutiements, car il est difficile à mettre en place. Néanmoins, des entreprises et instituts de statistiques l’expérimentent déjà.
Il va de soi qu’il y a des limites à l’utilisation de données d’entreprises « à l’état brut ». Elles prennent souvent la forme d’un sillage de données, c’est-à-dire qu’elles sont un sous-produit des activités économiques permanentes d’une entreprise. Elles présentent donc les biais de ce contexte. Si les sociétés gérées par Carlyle ont accepté d’être détenues par un fonds de capital-investissement, c’est qu’elles n’étaient peut-être pas des plus solides ; si LinkedIn compte plus de cadres que d’ouvriers, cela signifie sans doute que ses données sont faussées en faveur des plus fortunés ; et ADP est muet sur les acteurs de l’économie souterraine que sont les nourrices, les employés de maison, les laveurs de voitures, etc., alors que leur nombre est peut-être significatif de la santé de l’économie.
Par ailleurs, il n’est pas possible de se fonder entièrement sur des données non traditionnelles qui ne seront peut-être pas toujours disponibles. Ainsi, Intuit, un éditeur de logiciels américain, produisait un indice des petites entreprises qui s’appuyait sur des données agrégées provenant de son logiciel de comptabilité QuickBooks. Or, en 2015, il a cessé de publier ses rapports, avant de les relancer avec une méthodologie différente et plus fiable en 2023. C’est pourquoi l’avenir ne reposera pas uniquement sur des données non traditionnelles, mais aussi sur des sources officielles et officieuses complémentaires. Pour autant, nous sommes dans le meilleur des mondes.
Des indicateurs modernes
Tout cela nous ramène à l’IRM. L’imagerie par résonance magnétique date de 1974, année où elle a été brevetée par Raymond Damadian de l’Université de l’État de New York comme technique non invasive de détection des cancers. Cette même année a été marquée par une récession brutale aux États-Unis, qui a incité un économiste de l’Université Yale et ancien conseiller à la Maison-Blanche, Arthur Okun, à créer un nouvel indicateur pour rendre compte de ses effets sur les individus, et non pas sur l’unité abstraite qu’est l’économie dans son ensemble.
Son indice de malaise économique, qui a par la suite été rebaptisé « indice d’inconfort », est devenu une composante essentielle de la vie politique américaine. Ronald Reagan l’a utilisé pour l’emporter sur le président Jimmy Carter lors de l’élection présidentielle de 1980. Mais cet indice se contente d’additionner les taux de chômage et d’inflation. À l’heure de l’IA, il est facile d’imaginer un indicateur plus moderne.
Celui-ci tiendrait compte de tous les moyens par lesquels les personnes peuvent exprimer leur malaise, à commencer par l’évolution des habitudes de dépenses, non pas le fait d’acheter moins de produits (un chiffre brut), mais concrètement, de choisir des nouilles instantanées au lieu de steaks. De même, il intégrerait les factures d’électricité impayées et les retards de remboursement des prêts automobiles. Il prendrait ensuite en considération l’agressivité au volant, les cas de conduite erratique et les accidents de la route sans gravité, non pas globalement, mais de manière individualisée. Les montres Apple peuvent suivre la qualité du sommeil et le stress pendant la journée. Les caméras de télévision en circuit fermé dans les rues, les magasins et les bureaux dotés de dispositifs de reconnaissance faciale peuvent enregistrer les émotions des individus. Les toilettes équipées de biocapteurs peuvent surveiller les taux d’hormones des utilisateurs, comme le cortisol et l’adrénaline, qui flambent en période d’angoisse.
On est ainsi au plus proche de la réalité de terrain. Beaucoup considèrent sans doute de telles statistiques, dignes de la science-fiction, comme une véritable catastrophe : leurs conséquences pour la vie privée sont terrifiantes, même si, en théorie, on peut anonymiser les données. Fort de ces informations, l’État n’a-t-il pas le devoir d’intervenir pour venir en aide aux personnes et protéger la société ? « Après une telle connaissance, quel pardon ? », regrettait T. S. Eliot.
L’avènement de ces données non traditionnelles n’est pas pour demain, si tant est qu’il se produise. On dit bien que les paradigmes évoluent, d’un enterrement à l’autre. Un retour de bâton visant les géants des technologies prend de l’ampleur à mesure que la population se méfie d’un usage incontrôlé des données et que l’optimisme des débuts d’Internet se dissipe. En principe, les spécialistes des sciences sociales possèdent aujourd’hui le sérieux, la déontologie et la souplesse d’esprit nécessaires pour exploiter le meilleur de l’IA et des données massives, et parer à leurs inconvénients. Après tout, les radiologues n’ont plus besoin de la version « classique » des IRM.Les opinions exprimées dans la revue n’engagent que leurs auteurs et ne reflètent pas nécessairement la politique du FMI.







