Le Big Data tiendra-t-il ses promesses?

Du traducteur


Il s'agit d'une traduction du rapport du principal économiste de la Banque d'Angleterre sur les possibilités d'utiliser le Big Data dans les activités de cette organisation. Titre original "Le Big Data tiendra-t-il sa promesse?" 30 avril 2018.

Ils parlent beaucoup de Big Data, mais personnellement, j'ai souvent l'impression qu'en tant qu'Autochtones en pagne, nous nous imposons des babioles sans valeur. Ce rapport, à mon avis, confirme que, en fait, travailler avec le Big Data est un processus assez compliqué, mais productif.

Bien sûr, ce rapport est très différent de ce qu'ils nous disent, car vous comprenez vous-même que ce rapport est conçu pour un public différent. La qualité, à mon avis, est exemplaire. Globalement, le statut de l'organisation de la Banque d'Angleterre et du spécialiste qui a présenté ces résultats montre clairement comment, dans de nombreux cas, l'analyse du Big Data peut être utilisée. Ses quelques conclusions, en petites formulations, peuvent être formulées comme suit:

  • il est très soigneusement nécessaire de déterminer la direction et le niveau de décomposition des données par l'exemple des actions de la Banque suisse;
  • dans un nombre important de cas, la valeur peut apparaître dans de nouveaux résultats, par exemple, la formation du libellé des documents de gestion de la Banque d'Angleterre.

Il ne fait allusion à certains résultats que lorsque l'industrie du jeu peut remplacer la méthode de Monte-Carlo.

Traduction automatique, avec des corrections mineures, afin de ne pas couper l'oreille après le kata.

Je suis heureux d'être ici pour lancer le centre de recherche Data Analytics for Finance and Macro (DAFM) à King's College Business School. Je voudrais féliciter les professeurs Georgios Kapetanios et Georgios Cortareas en tant que codirecteurs (ainsi que les anciens collègues) du fait qu'ils ont organisé une rampe de lancement pour le centre et l'ont préparé pour le décollage.

Je pense que l'application de méthodes d'analyse de données pour résoudre de nombreux problèmes urgents dans le domaine de la finance et de la macroéconomie a de grandes perspectives. Pour cette raison, la Banque d'Angleterre a créé il y a environ quatre ans sa propre unité d'analyse de données. Et c'est pourquoi je salue vivement la création de ce nouveau centre comme moyen de réaliser cette promesse.

Mais le big data tiendra-t-il sa promesse? Je veux essayer d'illustrer certaines de ces promesses du big data, ainsi que les pièges potentiels, en utilisant des exemples d'études récentes de la Banque d'Angleterre sur le système économique et financier. En conclusion, je donnerai quelques réflexions plus spéculatives sur les futures recherches sur les mégadonnées.1 (1- Cœuré (2017) offre un excellent résumé du potentiel du Big Data pour améliorer l'élaboration des politiques, en particulier dans les banques centrales.)

Le chemin moins suivi


La première chose à dire est que les mégadonnées et les méthodes d'analyse des données ne sont pas nouvelles. Cependant, ces dernières années, ils sont devenus l'un des domaines de croissance à la croissance la plus rapide dans les milieux universitaires et commerciaux. Au cours de cette période, les données sont devenues du nouveau pétrole; les méthodes d'analyse des données sont devenues des raffineries de pétrole et des raffineries de leur temps; et les sociétés d'information sont devenues de nouveaux géants du pétrole. 2 (2- Par exemple, The Economist (2017), Henke et al (2016).)

Néanmoins, l'économie et la finance ont jusqu'à présent été plutôt restreintes concernant l'approbation universelle de cette «fièvre du pétrole». Pour l'économie et la finance, l'utilisation de méthodes d'analyse des données était moins courante, du moins par rapport à d'autres disciplines. L'un des diagnostics simples à cet égard vient de la prise en compte d'interprétations très différentes de l'expression «exploration de données» par ceux qui sont à l'intérieur et à l'extérieur de l'économie et de la finance.

Pour les économistes, peu de péchés sont plus dégoûtants que l'exploration de données. Le dernier remède de ce méchant consiste à se lancer dans une «chasse à la régression», en ne rapportant que les résultats de la régression qui correspondent le mieux à l'hypothèse que le chercheur avait d'abord l'intention de tester. C'est ce qui met la con en économétrie.3 (3- Leamer 1983) pour la plupart des économistes, cette analyse des données a une triste ressemblance avec le forage pétrolier - une entreprise minière sale qui s'accompagne d'un grand effet néfaste sur la santé.

Pour les scientifiques des données, la situation peut être plus différente. Pour eux, l'exploration de données est un moyen d'extraire de nouvelles ressources précieuses et de les utiliser. Cela vous permet d'obtenir de nouvelles idées, de créer de nouveaux produits, d'établir de nouvelles relations, de promouvoir de nouvelles technologies. C'est la matière première d'une nouvelle vague de productivité et d'innovation, la Quatrième Révolution Industrielle naissante.4 (4 - Voir, par exemple, Schwab 2017)

Qu'est-ce qui explique la prudence de certains économistes face au big data? Une partie de la réponse réside dans la méthodologie.5 (5 - Haldane 2016) Une bonne partie de l'économie a suivi les traces méthodologiques de Karl Popper dans les années 1930. Popper a préconisé une approche déductive du progrès scientifique.6 (6 - Popper (1934) et Popper (1959)) Cela a commencé avec les axiomes, est passé des axiomes à la théorie et n'a ensuite accepté que des hypothèses pour les données. En d'autres termes, la théorie a précédé la mesure.

Il existe une approche alternative et inductive. Cela a des racines encore plus profondes dans le travail de Francis Bacon depuis le début des années 1600. 7 (7 - Bacon 1620) Il commence avec des données non contraintes par des axiomes et des hypothèses, puis les utilise pour informer la sélection des comportements. En d'autres termes, les données précèdent la théorie. En effet, certains chercheurs de données ont suggéré qu'une telle approche pourrait signaler la «fin de la théorie». 8 (8 - Anderson 2008)

Par conséquent, là où certains économistes ont tendance à voir des écueils dans les mégadonnées, les experts en données voient des perspectives prometteuses. Là où certains économistes ont tendance à voir la menace environnementale qu'elle représente, les analystes de données voient le potentiel économique. Je suis un peu caricaturé, mais juste un peu. Alors, qui a raison? Et l'ère des mégadonnées signale-t-elle un flux ou une marée noire?

Certes, comme cela arrive souvent, il se situe probablement quelque part au milieu. Les approches déductives et inductives peuvent offrir un aperçu du monde. Ils sont mieux considérés comme des ajouts méthodologiques que comme des substituts. En d'autres termes, l'utilisation d'une approche isolée augmente le risque de conclusions erronées et d'erreurs potentiellement graves dans la compréhension et la politique. Permettez-moi de vous donner quelques exemples pour illustrer.

Pendant la crise financière mondiale, il est maintenant assez bien admis que le modèle dynamique d'équilibre général stochastique (DSGE) du cheval de bataille macroéconomique est tombé sur la première clôture.9 (9 - Par exemple, Stiglitz 2018) Elle n'a pas pu expliquer la dynamique du cycle économique pendant ou après la crise. Bien que théoriquement pure, elle s'est avérée empiriquement fragile. Je pense que cette fragilité empirique est due à une dépendance méthodologique excessive aux méthodes déductives. Ou, en d'autres termes, du fait que trop peu d'attention est accordée aux données réelles du passé, y compris les crises.

À titre de contre-exemple, Google a lancé en 2008 un modèle pronostique d'épidémies de grippe basé sur des expressions telles que «signes de grippe» 10. (10 - Ginsberg et al 2009) Cela a fait un travail considérable pour suivre les éclosions de grippe aux États-Unis en 2009-2010. Mais dans les années qui ont suivi, les prédictions de ce modèle ont subi une défaite écrasante.11 (11 - Lazer et al 2014) Je dirais que cette fragilité empirique est née d'une dépendance excessive aux lois empiriques et d'un engagement excessif envers les méthodes inductives. Ou, en d'autres termes, trop peu d'attention est accordée aux causes médicales profondes des épidémies de grippe passées.

Dans le premier cas, la fragilité empirique est apparue en raison d'un ensemble trop étroit d'axiomes et de limitations, en raison d'une trop grande importance accordée à la théorie, et non aux corrélations réelles et à l'expérience historique. Dans le deuxième cas, la fragilité empirique est due à un ensemble trop faible d'axiomes et de limitations dues aux corrélations empiriques observées, qui jouent trop de rôle en ce qui concerne la théorie et la causalité.

Dans les deux cas, ces erreurs pourraient être réduites si les approches inductive et déductive étaient utilisées de manière complémentaire ou itérative. Cette approche itérative a un solide pedigree dans d'autres disciplines. L'histoire des progrès dans de nombreuses disciplines scientifiques comprenait un processus d'apprentissage bidirectionnel entre la théorie et l'empirisme, lorsque dans certains cas la théorie stimulait les mesures et dans d'autres la théorie de la motivation de la mesure dans une boucle de rétroaction continue.12 (12 - Bacon (1620) résume bien cela: qui ont manipulé les sciences ont été des hommes d'expérience ou des hommes de dogmes. Les hommes d'expérience sont comme les fourmis, ils ne ramassent et n'utilisent que; les raisonneurs ressemblent à des araignées, qui fabriquent des toiles d'araignées avec leur propre substance. Mais l'abeille prend un milieu bien sûr: il récolte sa matière des fleurs du jardin et du champ,mais le transforme et le digère par une puissance qui lui est propre. ")

Un exemple de cette approche, discuté par le gouverneur Carney lors du lancement de son propre programme d'analyse des données de la Banque, concerne la dynamique du mouvement planétaire. (13 - Carney 2015) C'est Sir Isaac Newton (l'ancien propriétaire de la Monnaie royale qui a également imprimé de l'argent) qui a développé la théorie physique du mouvement céleste. Mais cette théorie a été construite sur les épaules empiriques d'un autre géant scientifique, Johannes Kepler. En ce qui concerne le mouvement planétaire, l'empirisme a d'abord dirigé la théorie, l'inductance a conduit la déductive.

Il en était de même de temps en temps lorsque nous comprenions le mouvement de l'économie et des marchés financiers. Les théories keynésiennes et monétaristes ont été construites sur l'expérience empirique de l'époque de la Grande Dépression. La courbe de Phillips est née comme une loi empirique de Kepler, qui n'a reçu que plus tard une base théorique newtonienne. De nombreuses énigmes financières hantées par les théoriciens depuis des décennies ont commencé comme des anomalies empiriques sur les marchés d'actifs.14 (14 - Obstfeld et Rogoff (2001) discutent de six énigmes majeures en macroéconomie internationale, telles que la volatilité excessive des taux de change par rapport aux fondamentaux). Dans chaque cas, l'empirisme a mené la théorie, l'inductif a mené le déductif.

Ma conclusion de tout cela est claire. Si ce processus d'apprentissage itératif entre l'empirisme et la théorie continue de porter ses fruits dans l'économie, alors les approches déductives et inductives peuvent nécessiter une facturation généralement égale. Si tel est le cas, je pense que l'économie et la finance obtiendront un rendement élevé en faisant de nouveaux investissements intellectuels dans les mégadonnées et en les accompagnant de méthodes analytiques à l'avenir.

Définition du Big Data


Si le big data est prometteur, il est probablement utile de commencer par définir ce que c'est. Ce n'est pas tout à fait facile. Comme la beauté, ce qui est considéré comme du big data est aux yeux du spectateur. C'est aussi un concept fluide. Par exemple, il est clair que les données ne signifient plus uniquement des chiffres et des mots. En effet, ces dernières années, il y a eu une augmentation de la recherche en sémantique, y compris dans le domaine de l'économie et de la finance.

Ce qui est moins controversé, c'est qu'au cours de la dernière décennie, la révolution la plus extraordinaire a eu lieu dans la création, l'extraction et la collecte de données, au sens large du terme. Cela est en partie le résultat de la loi de Moore et des progrès connexes dans les technologies de l'information. 15 (15 - Moore (1965) a noté le doublement annuel du nombre de composants par circuit intégré) Contrairement au pétrole, dont les ressources sont limitées, de nouvelles données sont créées avec vitesse sans précédent et ont des réserves pratiquement illimitées.

On estime que 90% de toutes les données jamais générées l'ont été au cours des deux dernières années.16 (16 - SINTEF 2013) une bonne partie provenait des réseaux sociaux. Environ 1,5 milliard de personnes utilisent Facebook quotidiennement et 2,2 milliards par mois. En 2017, il y avait 4,4 milliards d'abonnements aux smartphones, plus d'un pour une personne sur deux sur la planète. Selon les prévisions, d'ici 2023, le nombre d'abonnés aux smartphones sera de 7,3 milliards, soit presque un pour chaque personne.17 (17 - Ericsson Mobility Report 2017) Selon les estimations, en 2017, 1,2 billion de photos ont été prises, soit 25 % de toutes les photos prises jamais. 18 (18 - Voir www.statista.com/chart/10913/number-of-photos-taken-worldwide )

Une autre vision de cette révolution de l'information s'ouvre lorsque nous examinons le nombre de scientifiques qui étudient les données. En utilisant les données d'emploi du site de recherche d'emploi Reed, plus de 300 offres d'emploi au Royaume-Uni ont récemment été publiées pour les professionnels du traitement des données.19 (19 - Utilisation d'un ensemble de données dans Turrell et al (à paraître)) Il n'y en avait presque pas en 2012. Les estimations basées sur l'auto-identification sur le site de réseau social Linked-In suggèrent qu'il peut y avoir plus de 20 000 spécialistes du traitement des données dans le monde.20 (20 - Dwoskin (2015). Le vrai nombre de scientifiques des données dans le monde est très incertain. De nombreuses personnes travailler sur la science des données sans nécessairement utiliser ce titre, mais l'inverse est également vrai.)

Dans le même temps, il y a eu une croissance rapide de nouvelles méthodes de traitement, de filtrage et d'extraction d'informations à partir de ces données. Les techniques d'apprentissage automatique se développent rapidement. Les méthodes dites de «deep learning» complètent les approches existantes, telles que les modèles arborescents, les machines à vecteurs de support et les machines à vecteurs de support et les techniques de clustering21. (21 - Chakraborty et Joseph 2017) espaces et analyse sémantique.22 (22 - Bholat et al 2015)

Toutes ces méthodes offrent différentes manières d'extraire des informations et d'obtenir des conclusions fiables dans des situations où les relations empiriques peuvent être complexes, non linéaires et évolutives et lorsque les données peuvent arriver à différentes fréquences et dans différents formats. Ces approches diffèrent considérablement des méthodes économétriques classiques d'inférence et de test, souvent utilisées en économie et en finance.

Cette révolution dans la présentation des données et dans les modalités de leur compréhension offre une richesse analytique. L'extraction de ces richesses requiert cependant une grande prudence. Par exemple, les problèmes de confidentialité des données apparaissent beaucoup plus largement avec des données granulaires, dans certains cas personnalisées. Récemment, ces questions ont occupé à juste titre une place de choix. Parallèlement, la protection des mégadonnées est l'une des tâches clés de la Banque dans ses recherches.

Promesse Big Data


Dans la mesure où les mégadonnées peuvent être caractérisées, cela se fait généralement en utilisant «trois V»: volume, vitesse et variété. En utilisant les trois V comme structure organisationnelle, permettez-moi de discuter de quelques exemples de la façon dont ces données et méthodes ont été utilisées dans de récentes recherches bancaires pour améliorer notre compréhension du fonctionnement de l'économie et du système financier.

Le volume


Le fondement statistique de l'analyse macroéconomique, au moins depuis le milieu du XXe siècle, est la comptabilité nationale. Les comptes nationaux se sont toujours appuyés sur un ensemble de données éclectique.23 (23 - Coyle 2014) Dans le passé, les comptes d'utilisation des terres, des cultures et du bétail étaient utilisés pour estimer la production agricole. La production industrielle a été mesurée par diverses sources telles que le nombre de hauts fourneaux en fer et les livres répertoriés par la British Library. Et la production de services a été estimée sur la base du tonnage de la flotte marchande.24 (24 - Fouquet et Broadberry 2015)

Avec plus de données que jamais auparavant, l'utilisation de sources et de méthodes de données nouvelles et éclectiques, d'ailleurs, est de plus en plus courante dans les bureaux de statistique. Dans le domaine de la mesure des prix à la consommation, le MIT Billion Prices Project utilise les données de plus de 1 000 magasins en ligne dans environ 60 pays pour collecter quotidiennement 15 millions de prix. Cette approche s'est avérée fournir des informations sur les prix à la consommation plus opportunes (et moins chères) que les enquêtes traditionnelles.25 (25 - Cavallo et Rigobon 2016) Il a également été constaté que les données de prix en ligne améliorent les prévisions d'inflation à court terme sur certains marchés26. (26 - Cœuré 2017)

Dans la même veine, l'Office britannique des statistiques nationales (ONS) étudie la possibilité d'utiliser le «web scraping» en plus des méthodes de tarification existantes. Aujourd'hui, ils se concentrent sur des articles tels que la nourriture et les vêtements. Malgré les premières années, les avantages potentiels en termes d'augmentation de la taille des échantillons et de granularité semblent importants. Par exemple, l'ONS a jusqu'à présent collecté 7 000 offres de prix par jour pour un groupe de produits d'épicerie, ce qui est plus que les frais mensuels actuels pour ces produits dans l' IPC.27 (27 - Voir www.ons.gov.uk/economy/inflationandpriceindices/articles/researchindicesusingwebscrapedpricedata / août2017update )

Quant à la mesure du PIB, de nouvelles sources et méthodes apparaissent également ici. Une étude récente a utilisé l'imagerie satellite pour mesurer la quantité de lumière non naturelle émise par diverses régions du monde. Il a été constaté que cela a une relation statistiquement significative avec l'activité économique.28 (28 - Henderson, Storeygard et Weil (2011), cette approche pourrait potentiellement aider à suivre les activités dans les régions géographiquement éloignées, où les méthodes d'enquête statistique sont médiocres ou où les problèmes sont incorrects. les mesures sont nettes.

Un exemple plus banal utilisé par l'ONS de Grande-Bretagne et d'autres agences statistiques est celui des données dites administratives. Cela comprend les données collectées par les agences gouvernementales dans le cadre de leurs activités - par exemple, sur les recettes et avantages fiscaux. Au Royaume-Uni, certaines de ces données sont récemment devenues disponibles pour une utilisation plus large dans le cadre d'une initiative gouvernementale sur les données ouvertes, bien qu'elles aient fait l'objet d'une vérification sérieuse.

Un exemple est les données de TVA reçues des PME dans un certain nombre d'industries qui ont récemment été utilisées par l'ONS pour compiler des estimations du PIB basées sur la production. Comme pour les prix, le gain en taille d'échantillon et en granularité lié à l'utilisation de ces données administratives est potentiellement important. En règle générale, l'examen mensuel de l'activité commerciale de l'ONS repose sur un échantillon d'environ 8 000 entreprises représentant ce sous-groupe de PME. Ceci est actuellement complété par des déclarations de TVA d'environ 630 000 unités déclarantes.29 (29 - www.ons.gov.uk/economy/grossdomesticproductgdp/articles/vatturnoverinitialresearchanalysisuk/december )

Ces nouvelles données complètent et non remplacent les méthodes d'enquête existantes. Ils ont le potentiel d'améliorer l'actualité et l'exactitude des données des comptes nationaux sur les tendances économiques agrégées. L'ONS possède son propre centre de science des données pour diriger cet effort. Et de nouvelles organisations de recherche, comme l'Institut Alan Turing, font un excellent travail en appliquant de nouvelles données et méthodes aux dimensions économiques.

Un autre domaine de recherche potentiellement fructueux dans le suivi des flux d'activité dans l'économie est celui des données financières. Presque toute l'activité économique laisse une marque financière au bilan d'une institution financière. Le suivi des flux de trésorerie entre les institutions financières peut aider à déterminer la taille de cette empreinte et, ainsi, indirectement, à suivre l'activité économique.

Au cours des dernières années, nous nous sommes appuyés à la banque sur la base de données des ventes de produits de la Financial Regulatory and Supervision Authority (PSD). Il s'agit d'une source très détaillée de données administratives sur les produits hypothécaires du locataire, publiées au Royaume-Uni. Il contient des données sur près de 16 millions d'hypothèques depuis la mi-2005. Le PSPS a fourni à la banque un nouvel outil à plus haute résolution pour analyser le comportement des ménages et du logement.

Par exemple, en 2014, le PSD a été utilisé par le Financial Policy Committee (FPC) de la Banque pour informer et étalonner ses décisions sur les restrictions macroprudentielles des prêts hypothécaires à revenu élevé pour les ménages britanniques. 30 (30 - Rapport de stabilité financière du 30 juin 2014) Depuis lors, nous a utilisé ces données pour suivre les caractéristiques des hypothèques existantes avec des rendements de prêts élevés et des prêts à coût élevé au fil du temps.31 (31 - Chakraborty, Gimpelewicz et Uluc 2017) Les données PSD ont été utilisées pour comprendre les décisions de prix sur le marché du logement au Royaume-Uni.32 ​​(32 - Bracke et Tenreyro (2016) et Benetton, Bracke et Garbarino (2018)) Et ils ont également été utilisés pour calibrer le modèle d'agent multi-industrie britannique du marché du logement.33 (33- Baptista et al 2016).

Ces dernières années, la banque et l'ONS ont développé un ensemble plus complet de données sur les flux de fonds entre les institutions. Nous espérons que ces données aideront à suivre non seulement les changements de portefeuille, mais aussi comment ils peuvent affecter les marchés financiers et l'économie dans son ensemble. Par exemple, les redistributions de portefeuille par des investisseurs institutionnels affectent-elles les marchés d'actifs et ont-elles un effet stimulant sur les dépenses? 34 (34 - Bank of England et Procyclicality Working Group 2014) Les réponses à de telles questions aident, par exemple, à évaluer l'efficacité de l'assouplissement quantitatif.35 (35 - Par exemple, Albertazzi, Becker et Boucinha (2018) montrent des preuves du canal de rééquilibrage de portefeuille du programme d'achat d'actifs de la BCE)

De nouvelles données très détaillées alimentent également les flux de paiement, de crédit et bancaires. Certains d'entre eux ont été utilisés pour prévoir ou suivre les changements dans l'activité économique. Ils ont obtenu un certain succès. Par exemple, aux États-Unis, un ensemble de données de plus de 12 milliards de transactions par carte de crédit et de débit sur une période de 34 mois a récemment été utilisé pour analyser les modes de consommation par âge, taille de l'entreprise, zone métropolitaine et secteur36 (36 - Farrell et Wheat 2015 )

Au fil du temps, ces types de données peuvent peut-être aider à créer une carte des flux d'activités financières et en temps réel à travers l'économie, de la même manière que pour les flux de trafic, d'informations ou météorologiques. Après leur mappage, il sera possible de modéliser et de modifier ces flux à l'aide d'une stratégie. J'ai parlé de cette idée pour la première fois il y a six ans. Aujourd'hui, il semble plus proche que jamais d'être à notre portée. (37 - Ali, Haldane et Nahai-Williamson 2012)

Ce sont tous des domaines dans lesquels le DAFM peut apporter une contribution importante aux efforts visant à améliorer la qualité et l'actualité des données du système macroéconomique et financier. Il est bien connu que les possibilités d'améliorer la qualité des données des comptes nationaux sont très importantes.38 (38 - Par exemple, Bean 2016) Et ces problèmes de mesure ne feront qu'augmenter à mesure que nous évoluerons vers une économie de plus en plus numérique et orientée services.

La vitesse


Le deuxième aspect de la révolution des mégadonnées est sa grande fréquence et sa rapidité. Des données plus fréquentes peuvent fournir une image nouvelle ou plus précise des tendances des marchés financiers et de l'économie. Il peut également parfois aider à résoudre des problèmes d'identification complexes qui interfèrent autrement avec les mégadonnées (comme le montre l'exemple de la grippe Google) et les méthodes économétriques classiques (comme le montre l'exemple DSGE).

La crise a montré que dans des situations de stress, certains des marchés financiers les plus vastes et les plus profonds du monde peuvent manquer de liquidités. Cela a conduit à la conquête de certains de ces marchés. En réponse à cela, dans le cadre de l'un de ses premiers actes, le G20 a accepté en 2009 de collecter beaucoup plus de données sur les transactions sur ces marchés afin de mieux comprendre leur dynamique dans des situations stressantes 39 (39 - Voir, par exemple, FSB 2010 ) Ces données sont stockées dans des référentiels de trading.

Ces dernières années, ces référentiels de négociation ont commencé à collecter des données sur une base de négociation très détaillée. Cela signifie qu'ils ont rapidement accumulé une grande quantité de données. Par exemple, environ 11 millions de rapports sont collectés chaque jour ouvrable sur le marché des changes. Ils fournissent une riche source de données en ce qui concerne la dynamique et les emplacements des marchés financiers à haute fréquence.

Un exemple d'un tel biais s'est produit lorsque le franc suisse a été détaché en janvier 2015. Cette décision inattendue a provoqué de grands changements dans les prix des actifs. Frank a montré un mouvement brusque en forme de V pendant plusieurs heures immédiatement après la dissociation. En analysant les données des référentiels centraux sur les contrats à terme au taux du franc suisse vers l'euro, certaines des forces motrices derrière ces changements peuvent être identifiées. 40 (40 - Cielinska et al (2017). D'autres documents de recherche récents utilisant les données des référentiels centraux incluent Abad et al (2016 ) et Bonollo et al (2016))

Par exemple, les fluctuations à haute fréquence de la monnaie suisse peuvent être comparées au volume des transactions sur contrats à terme. Ces transactions peuvent être encore décomposées par des contreparties, par exemple les grandes banques-concessionnaires et les investisseurs finaux. Ce type de méthode de décomposition montre que c'est le retrait de la liquidité par les grandes banques - concessionnaires qui a provoqué le dépassement de Frank - un signe classique en période de turbulence du marché.41 (41 - Voir, par exemple, Duffie, Gârleanu et Pedersen (2005) et Lagos, Rocheteau et Weill (2011 )) Ce mouvement s'est partiellement inversé dès que les concessionnaires ont repris la production marchande.

Les données des référentiels centraux peuvent également être utilisées pour évaluer si une parité d'affaiblissement du franc a eu un effet durable sur la performance du marché. Une étude de la banque a montré qu'il en est ainsi, avec une fragmentation constante du marché des francs à terme. La liquidité et l'activité entre concessionnaires ont été structurellement plus faibles, et la volatilité du marché a été régulièrement plus élevée après cet épisode.

Un raffinement supplémentaire de ces données nous permet de raconter une histoire quasi-causale sur les forces motrices du mouvement en forme de V sur les marchés d'actifs après la dissociation. L'utilisation de données parallèles tick-by-tick et trade-by-trade vous permet d'identifier les déclencheurs et les amplificateurs d'une manière qui serait autrement impossible.

Un deuxième exemple d'étude qui utilise des données plus rapides pour améliorer notre compréhension de la dynamique économique est le marché du travail. Comprendre le comportement combiné de l'emploi et des salaires reste l'un des enjeux centraux de la macroéconomie moderne. Récemment, cette dynamique a été compliquée par des changements dans le monde du travail, lorsque l'automatisation change à la fois la nature et la structure du travail.

Des recherches bancaires récentes ont utilisé des données détaillées sur les postes vacants annoncés pour mettre en lumière cette dynamique.42 (42 - Turrell et al (à paraître)) L'étude analyse environ 15 millions de postes vacants sur une période de dix ans. Au lieu de classer les postes vacants par secteur, profession ou région, il utilise des méthodes d'apprentissage automatique dans le texte de description de poste pour classer et regrouper les postes vacants. Il en résulte un système de classification plus «descriptif des fonctions» pour la demande de main-d'œuvre.

Cette approche offre une manière différente de classer et de décrire l'évolution du monde du travail - par exemple, les types de compétences nécessaires dans un environnement d'automatisation. Le système de classification a également été utile pour déterminer la relation entre la demande de travail et les salaires. L'utilisation de classifications basées sur les descriptions de poste permet d'identifier une relation plus claire entre la demande de travail et les salaires proposés et convenus.
La diversité

L'un des domaines potentiellement les plus productifs de la recherche sur les mégadonnées dans les secteurs macro et financier est l'utilisation de mots, et non de chiffres, comme données. Les données sémantiques et les méthodes de recherche sémantique ont un riche pedigree dans d'autres sciences sociales, telles que la sociologie et la psychologie. Mais jusqu'à présent, leur utilisation en économie et en finance a été relativement limitée.43 (43 - Des exemples notables incluent Schonhardt-Bailey (2013) et Goldsmith-Pinkham, Hirtle et Lucca (2016))

Comme d'autres sciences sociales, l'économie et la finance sont associées à choix humain. Et nous savons que les gens comptent souvent sur l'heuristique ou les histoires, plutôt que sur les statistiques, lorsqu'ils donnent un sens au monde et prennent des décisions. Ainsi, la perception sémantique de ces histoires est importante pour comprendre le comportement humain et prendre des décisions.

Par exemple, la Banque a récemment commencé à apprendre la langue qu'elle utilise dans la communication externe, que ce soit avec les sociétés financières ou le grand public. Par exemple, Michael McMahon de l'Université d'Oxford et moi-même avons récemment apprécié à quel point la simplification du libellé du Comité de politique monétaire (MPC) dans le rapport sur l'inflation à la fin de l'année dernière a permis au public de mieux comprendre les messages de politique monétaire.44 (44 - Haldane et McMahon (à paraître)).

Le deuxième exemple examine un aspect beaucoup moins étudié de la prise de décision bancaire - sa surveillance des entreprises financières.45 (45 - Bholat et al 2017) Il se fonde sur une analyse textuelle des réunions récapitulatives périodiques confidentielles (MSP) de la Banque envoyées aux entreprises financières. Ce sont peut-être les lettres les plus importantes que l'autorité de régulation prudentielle (ARP) envoie régulièrement aux entreprises, établissant une évaluation du risque des entreprises par les autorités de contrôle et exigeant des mesures pour atténuer ces risques. À l'aide d'une méthode d'apprentissage automatique appelée forêts aléatoires, les chercheurs analysent ces lettres et extraient des données sur leur ton et leur contenu.

Ce type d'analyse a plusieurs applications politiques. Il peut être utilisé pour évaluer si les lettres envoient un message de supervision clair et cohérent aux entreprises. Par exemple, vous pouvez comparer la force et le contenu de ces lettres avec l'évaluation interne de la banque des forces et des faiblesses des entreprises. Ces deux approches sont-elles conformes au système de surveillance de la Banque? En général, les études ont montré qu'ils le sont.

Cette approche peut également être utilisée pour évaluer comment un style de surveillance a évolué au fil du temps. Par exemple, comment a-t-il changé depuis la transition des modèles de surveillance de la gestion des services financiers (FSA) à l'ARP? L'étude a montré que, par rapport à ces deux modes, l'échange de messages de supervision est devenu plus prometteur, formel et significatif, ce qui est cohérent avec le nouveau modèle d'activités de supervision de l'ARP.

Cet exercice est, je pense, un bon exemple d'application de la nouvelle méthodologie (forêts aléatoires) à une toute nouvelle base de données (évaluations prudentielles bancaires) dans le domaine politique, qui n'a pas été étudiée auparavant par des chercheurs (supervision de sociétés financières). Il arrive à des conclusions qui sont directement liées aux questions de politique. Je pense donc que cela souligne magnifiquement les perspectives du Big Data.

Dans mon dernier exemple, pas de nouvelles données, mais d'anciennes données sont utilisées. Cependant, je pense que c'est une bonne illustration de la façon dont de nouvelles méthodes peuvent également être utilisées pour comprendre le passé. Bien avant que la Banque ne devienne responsable de la politique monétaire et de la stabilité financière, l'un des rôles clés de la banque était de fournir des prêts, en dernier recours, aux banques commerciales confrontées à une pression de liquidité.

Il est difficile de dater avec précision, mais la banque a commencé à mener de telles opérations sérieusement, probablement à l'époque où la Grande-Bretagne faisait face à une série constante de paniques bancaires en 1847, 1857 et 1866. La banque a répondu à cette panique en fournissant des liquidités pour soutenir les banques. La dernière facilité de crédit a vu le jour, comme Badgehot a ensuite commencé à l'appeler. 46 (46 - Bagehot 1873) En fait, plus tard Beydzhhot a défini les principes d'un tel prêt: celui-ci devrait avoir lieu librement, avec une pénalité pour une bonne garantie.

Une question historique intéressante liée à aujourd'hui est de savoir si la banque a réellement adhéré à ces principes lorsqu'elle a prêté en dernier ressort pendant la panique de 1847, 1857 et 1866. Pour évaluer cela, nous avons pris des données de gigantesques livres papier qui enregistrent les changements dans le bilan de la banque, où ces interventions ont été enregistrées à crédit pour le prêt, contrepartie pour la contrepartie, taux d'intérêt pour le taux d'intérêt.47 (47 - Anson et al 2017)

Le déchiffrement de ces données a été bénéfique dans la mesure où les notes manuscrites dans les livres ont été prises par un petit nombre de commis pendant les trois crises - l'un des avantages indirects de la continuité des activités. Bien que les données aient été principalement enregistrées manuellement, le projet a développé un système de reconnaissance d'images utilisant l'algorithme de réseau de neurones, que nous utiliserons à l'avenir pour transformer les opérations de livres historiques en données lisibles par machine du 21e siècle.

Les données sur les prêts historiques au dernier recours de la banque sont des données massives nouvelles et très détaillées d'une époque révolue. Cela montre que l'approche de la Banque en matière de prêts dans les cas extrêmes a considérablement changé pendant les crises du milieu du XIXe siècle. Cela signifiait qu'au moment de la crise de 1866, la Banque suivait plus ou moins les principes du prêt en dernier ressort, énoncés plus tard par Badgehot. Ceci est un autre exemple de théorie empirique de pointe.

Les méthodes d'apprentissage automatique sont appliquées aux statistiques régulièrement collectées et communiquées par la banque. En particulier, ces méthodes sont utilisées pour identifier les erreurs ou anomalies dans les données sources fournies à la banque. Cela rend le nettoyage des données beaucoup plus systématique et efficace que possible avec les processus manuels. Les méthodes d'analyse des données peuvent également être utilisées pour comparer de nouvelles sources de données granulaires. Cela fournit non seulement un autre moyen de vérifier la fiabilité des données, mais peut également donner une idée que les sources de données individuelles ne peuvent pas divulguer par elles-mêmes.48 (48 - Bahaj, Foulis et Pinter (2017), par exemple, correspondent au niveau de l'entreprise données de comptabilitédonnées sur les prix des maisons au niveau des transactions et données sur les prêts hypothécaires résidentiels au niveau des prêts pour montrer comment le prix des maisons du directeur d'une PME peut affecter l'investissement et la masse salariale de leur entreprise.) À la Banque d'Angleterre, comme ailleurs, les robots sont en hausse.

Un regard vers l'avenir


En ce qui concerne l'avenir, on peut noter qu'il existe de nombreux domaines potentiels dans lesquels ces nouvelles sources et nouvelles méthodes peuvent être étendues pour améliorer la compréhension de la banque du système économique et financier. À partir d'une longue liste, permettez-moi d'en discuter un qui me semble particulièrement important.

L'économie comportementale, de droit, a fait une grande différence au cours des dernières années en changeant la façon dont les économistes pensent comment les décisions humaines sont prises. Les décisions et les actions humaines s'écartent souvent de manière significative et cohérente des attentes rationnelles, qui sont souvent considérées comme la norme.49 (49 - Rotemberg (1984), par exemple, examine le rejet statistique des modèles d'anticipations rationnelles pour la consommation et la demande de travail.) Règles générales et l'heuristique domine la prise de décision humaine. Et les attentes formées par les gens sont souvent façonnées en grande partie par l'histoire, les émotions et les actions des autres, ainsi que par un calcul rationnel.

Ce comportement semble être important tant pour les individus (microéconomie) que pour les sociétés (macroéconomie). Par exemple, les récits populaires qui se développent sur les marchés financiers et dans le discours public quotidien se sont révélés être d'importants facteurs empiriques pour les fluctuations des prix des actifs et de l'activité économique.50 (50 - Tuckett et Nyman (2017), Shiller (2017) et Nyman et al (2018) ) Ces récits peuvent être particulièrement importants pendant les périodes de stress économique et financier, lorsque les émotions se réchauffent et que les histoires sociales acquièrent une signification supplémentaire.

Et pourtant, lorsqu'il s'agit de mesurer un tel comportement, que ce soit au niveau micro ou macroéconomique, nos méthodes existantes sont souvent mal équipées. Il est sacrément difficile de saisir les vrais sentiments et préférences des gens. Les enquêtes traditionnelles auprès des acteurs du marché ou du grand public, en règle générale, sont biaisées dans leur échantillon et sont formulées dans les réponses. Comme en physique quantique, l'acte d'observation lui-même peut changer le comportement.

Ces réalités peuvent nécessiter l'étude de moyens non conventionnels pour identifier les préférences et les humeurs des gens. Comme exemple récent, on peut citer des données sur les téléchargements de musique à partir de Spotify, qui ont été utilisées en tandem avec des méthodes de recherche sémantique appliquées aux paroles des chansons pour fournir un indicateur de l'humeur des gens. Il est intéressant de noter que l'indice de sentiment qui en résulte, au moins, suit les dépenses des consommateurs aussi bien que le Michigan Consumer Confidence Survey.51 (51 - Sabouni 2018).

Et pourquoi s'attarder sur la musique? Les goûts des gens dans les livres, la télévision et la radio peuvent également ouvrir une fenêtre sur leur âme. Tout comme leur goût dans les jeux. En effet, je suis intéressé par le potentiel de l'utilisation des techniques de jeu non seulement pour extraire des données sur les préférences des gens, mais aussi comme moyen de générer des données sur les préférences et les actions.

Les modèles existants, empiriques et théoriques, font souvent des hypothèses fortes sur le comportement des agents. Les modèles théoriques sont basés sur des hypothèses axiomatiques. Les modèles empiriques sont basés sur des modèles historiques de comportement. Ces restrictions peuvent ou non être confirmées dans un comportement futur. Si ce n'est pas le cas, le modèle sera décomposé en échantillon, comme l'ont fait le modèle DSGE (déductif) et le modèle (inductif) de la grippe Google.

L'environnement de jeu peut être utilisé pour comprendre le comportement afin qu'il y ait moins de restrictions. Le comportement des gens sera observé directement dans l'acte du jeu, qui, à condition que ce comportement soit un reflet raisonnable du vrai comportement, nous fournira de nouvelles données. Puisqu'il s'agit d'un monde virtuel et non d'un monde réel où les chocs sont contrôlés et réglementés, cela peut faciliter la résolution des problèmes de causalité et d'identification en réponse aux chocs, y compris les chocs politiques.

Il existe déjà des jeux impliquant plusieurs personnes et des économies primitives qui permettent aux biens et à l'argent de changer de mains entre les participants. Il s'agit notamment d'EVE Online et de World of Warcraft. Certains économistes ont commencé à utiliser la technologie du jeu pour comprendre le comportement.52 (52 - Par exemple, Lehdonvirta et Castronova (2014) Par exemple, Stephen Levitt (de la renommée Freakonomics) a utilisé des plateformes de jeu pour comprendre la courbe de la demande de biens virtuels53 (53 - Levitt et al. (2016)

L'idée ici serait d'utiliser un jeu dynamique avec plusieurs personnes pour étudier le comportement dans une économie virtuelle. Cela comprendra l'interaction des acteurs - par exemple, l'émergence de récits populaires qui forment des dépenses ou des économies. Et cela peut inclure la réaction des acteurs à l'ingérence dans la politique - par exemple, leur réaction aux politiques monétaires et réglementaires. En effet, dans ce dernier rôle, le jeu pourrait servir de banc d'essai pour l'action politique - un groupe de discussion numérique à grande échelle et dynamique.54 (54 - Yanis Varoufakis a déjà été impliqué dans une idée similaire: uk.businessinsider.com/yanis-varoufakis-valve -gameeconomy-grec-finance-2015-2 )

Les spécialistes de l'intelligence artificielle créent des environnements virtuels pour accélérer le processus d'étude de la dynamique des systèmes. "Apprendre avec renforcement" permet aux algorithmes d'apprendre et de se mettre à jour en fonction des interactions entre les joueurs virtuels plutôt que d'une expérience historique limitée. 55 (55 - Voir deepmind.com/blog/deep-reinforcement-learning pour une discussion) Au moins En principe, une économie virtuelle permettrait aux politiciens de participer à leur propre formation de renforcement, accélérant ainsi leur processus de découverte du comportement d'un système économique et financier complexe.

Conclusion


Le big data tiendra-t-il sa promesse? Je suis sûr qu'il en sera ainsi. L'économie et la finance doivent constamment investir dans les mégadonnées et l'analyse des données pour équilibrer les échelles méthodologiques. Et les premières études, y compris à la banque, montrent que les rendements de ces activités peuvent être élevés, approfondissant notre compréhension de l'économie et du système financier.

Ces résultats seront mieux obtenus si une étroite collaboration est établie entre les autorités statistiques, les décideurs, le secteur commercial, les centres de recherche et le monde universitaire. La Banque d'Angleterre peut jouer un rôle de catalyseur dans la mise en commun de cette expertise. DAFM peut faire de même. Je souhaite plein succès à DAFM et je me réjouis de travailler avec vous.

Références
Abad, J, Aldasoro, I, Aymanns, C, D»Errico, M, Rousová, L F, Hoffmann, P, Langfield, S, Neychev, M and Roukny, T (2011), «Shedding light on dark markets: First insights from the new EU-wide OTC derivatives dataset», ESRB Occasional Paper Series, No. 11.

Albertazzi, U, Becker, B and Boucinha, M (2018), «Portfolio rebalancing and the transmission of largescale asset programmes: evidence from the euro area», ECB Working Paper Series, No. 2125.

Ali, R, Haldane, A and Nahai-Williamson, P (2012), «Towards a common financial language», paper available at www.bankofengland.co.uk/paper/2012/towards-a-common-financial-language
Anderson, C (2008), «The End of Theory: The Data Deluge Makes The Scientific Method Obsolete», Wired Magazine, 23 June.

Anson, M, Bholat, D, Kang, M and Thomas, R (2017), «The Bank of England as lender of last resort: new historical evidence from daily transactional data», Bank of England Staff Working Paper, No. 691.

Bacon, F (1620), Novum Organum.

Bagehot, W (1873), Lombard Street: A Description of the Money Market, Henry S. King & Co.

Bahaj, S, Foulis, A and Pinter, G (2017), «Home values and firm behaviour», Bank of England Staff Working Paper, No. 679.

Bank of England and Procyclicality Working Group (2014), «Procyclicality and structural trends in investment allocation by insurance companies and pension funds», Discussion Paper, July.

Baptista, R, Farmer, JD, Hinterschweiger, M, Low, K, Tang, D and Uluc, A (2016), «Macroprudential policy in an agent-based model of the UK housing market», Bank of England Staff Working Paper, No. 619.

Bean, C (2016), «Independent Review of UK Economic Statistics», available at www.gov.uk/government/publications/independent-review-of-uk-economic-statistics-final-report
Benetton, M, Bracke, P and Garbarino, N (2018), «Down payment and mortgage rates: evidence from equity loans», Bank of England Staff Working Paper, No. 713.

Bholat, D, Brookes, J, Cai, C, Grundy, K and Lund, J (2017), «Sending firm messages: text mining letters from PRA supervisors to banks and building societies they regulate, Bank of England Staff Working Paper, No. 688.

Bholat, D, Hansen, S, Santos, P and Schonhardt-Bailey, C (2015), «Text mining for central banks», Bank of England Centre for Central Bank Studies Handbook.

Bonollo, M, Crimaldi, I, Flori, A, Gianfanga, L and Pammolli, F (2016), «Assessing financial distress dependencies in OTC markets: a new approach using trade repositories data», Financial Markets and Portfolio Management, Vol. 30, No. 4, pp. 397-426.

Bracke, P and Tenreyro, S (2016), «History dependence in the housing market», Bank of England Staff Working Paper, No. 630.

Carney, M (2015), speech at Launch Conference for One Bank Research Agenda, available at www.bankofengland.co.uk/speech/2015/one-bank-research-agenda-launch-conference

Cavallo, A and Rigobon, R (2016), «The Billion Prices Project: Using Online Prices for Measurement and Research», Journal of Economic Perspectives, Vol. 30, No. 2, pp. 151-78.

Chakraborty, C, Gimpelewicz, M and Uluc, A (2017), «A tiger by the tail: estimating the UK mortgage market vulnerabilities from loan-level data, Bank of England Staff Working Paper, No. 703.

Chakraborty, C and Joseph, A (2017), «Machine learning at central banks», Bank of England Staff Working Paper, No. 674.

Cielenska, O, Joseph, A, Shreyas, U, Tanner, J and Vasios, M (2017), «Gauging market dynamics using trade repository data: the case of the Swiss franc de-pegging», Bank of England Financial Stability Paper, No. 41.

Cœuré, B (2017), «Policy analysis with big data», speech at the conference on «Economic and Financial Regulation in the Era of Big Data».

Coyle, D (2014), GDP: A Brief but Affectionate History, Princeton University Press.

Duffie, D, Gârleanu, N and Pedersen, L (2005), «Over-the-Counter Markets», Econometrica, Vol. 73, No.6, pp. 1815-1847.

Dwoskin, E (2015), «New Report Puts Numbers on Data Scientist Trend», Wall Street Journal, 7 October.

Economist (2017), «The world»s most valuable resource is no longer oil, but data», article on 6 May 2017.

Ericsson (2017), Ericsson Mobility Report, November 2017.

Farrell, D and Wheat, C (2015), «Profiles of Local Consumer Commerce», JPMorgan Chase & Co. Institute.

Financial Stability Board (2010), «Implementing OTC Derivatives Market Reforms», Financial Stability Board.

Fouquet, R and Broadberry, S (2015), «Seven Centuries of European Economic Growth and Decline», Journal of Economic Perspectives, Vol. 29, No. 4, pp. 227-244.

Ginsberg, J, Hohebbi, M, Patel, R, Brammer, L, Smolinski, M and Brilliant, L (2009), «Detecting influenza epidemics using search engine data», Nature, Vol. 457, pp. 1012-1014.

Goldsmith-Pinkham, P, Hirtle, B and Lucca, D (2016), «Parsing the Content of Bank Supervision», Federal Reserve Bank of New York Staff Reports, No. 770.

Haldane, A (2016), «The Dappled World», speech available at www.bankofengland.co.uk/speech/2016/the-dappled-world

Haldane, A and McMahon, M (forthcoming), «Central Bank Communication and the General Public», American Economic Review: Papers & Proceedings.

Henderson, V, Storeygard, A and Weil, D (2011), «A Bright Idea for Measuring Economic Growth», American Economic Review: Papers & Proceedings, Vol. 101, No. 3, pp. 194-99.

Henke, N, Bughin, J, Chui, M, Manyika, J, Saleh, T, Wiseman, B and Sethupathy, G (2016), «The Age of Analytics: Competing in a Data-Driven World», McKinsey Global Institute.

IMF (2018), «Cyclical Upswing, Structural Change», World Economic Outlook, April 2018.

Lagos, R, Rocheteau, G and Weill, P-O (2011), «Crises and liquidity in over-the-counter markets», Journal of Economic Theory, Vol. 146, No. 6, pp. 2169-2205.

Lazer, D, Kennedy, R, King, G and Vespignani, A (2014), «The Parable of Google Flu: Traps in Big Data Analysis», Science, Vol. 343, pp. 1203-1205.

Leamer, E (1983), «Let»s Take the Con Out of Econometrics», American Economic Review, Vol. 73, No. 1, pp. 31-43.

Lehdonvirta, V and Castronova, E (2014), Virtual Economies: Design and Analysis, MIT Press.

Levitt, S, List, J, Neckermann, S and Nelson, D (2016), «Quantity discounts on a virtual good: The results of a massive pricing experiment at Kind Digital Entertainment», Proceedings of the National Academy of Sciences of the United States of America, Vol. 113, No. 27, pp. 7323-7328.

Moore, G (1965), «Cramming more components onto integrated circuits», Electronics, Vol. 38, No. 8.

Nyman, R, Kapadia, S, Tuckett, D, Gregory, D, Ormerod, P and Smith, R (2018), «News and narratives in financial systems: exploiting big data for systemic risk assessment», Bank of England Staff Working Paper, No. 704.

Obstfeld, M and Rogoff, K (2001), «The Six Major Puzzles in International Macroeconomics: Is There a Common Cause?», NBER Macroeconomics Annual, Vol. 15, MIT Press.

Popper, K (1934), Logik der Forschung, Akademie Verlag.

Popper, K (1959), The Logic of Scientific Discovery, Routledge.

Rotemberg, J (1984), «Interpreting the Statistical Failures of Some Rational Expectations Models», American Economic Review, Vol. 74, No. 2, pp. 188-193.

Sabouni, H (2018), «The Rhythm of Markets», mimeo.

Schonhardt-Bailey, C (2013), Deliberating American Monetary Policy: A Textual Analysis, MIT Press.

Schwab, K (2017), The Fourth Industrial Revolution, Portfolio Penguin.

Shiller, R (2017), «Narrative Economics», American Economic Review, Vol. 104, No. 4, pp. 967-1004.

SINTEF (2013), «Big Data, for better or worse: 90% of world»s data generated over last two years», ScienceDaily, 22 May.

Stiglitz, J (2018), «Where modern macroeconomics went wrong», Oxford Review of Economy Policy, Vol. 34, No. 1-2, pp. 70-106.

Tuckett, D and Nyman, R (2017), «The relative sentiment shift series for tracking the economy», mimeo.

Turrell, A, Speigner, B, Thurgood, J, Djumalieva, J and Copple, D (forthcoming), «Using Online Vacancies to Understand the UK Labour Market from the Bottom-Up», Bank of England Staff Working Paper.

All Articles