Wird Big Data seine Versprechen halten?

Vom Übersetzer


Dies ist eine Übersetzung des Berichts des führenden Ökonomen der Bank of England über die Möglichkeiten der Verwendung von Big Data in den Aktivitäten dieser Organisation. Originaltitel "Wird Big Data sein Versprechen halten?" 30. April 2018.

Sie reden viel über Big Data, aber ich persönlich habe oft den Eindruck, dass wir als Aborigines in Lendenschurz uns wertlose Schmuckstücke aufzwingen. Dieser Bericht bestätigt meiner Meinung nach, dass die Arbeit mit Big Data in der Tat ein ziemlich komplizierter, aber produktiver Prozess ist.

Natürlich unterscheidet sich dieser Bericht stark von dem, was sie uns sagen, weil Sie selbst verstehen, dass dieser Bericht für ein anderes Publikum gedacht ist. Die Qualität ist meiner Meinung nach vorbildlich. Insgesamt wird anhand des Status der Organisation der Bank of England und des Spezialisten, der diese Ergebnisse vorgelegt hat, deutlich, wie in vielen Fällen die Big-Data-Analyse verwendet werden kann. Einige Schlussfolgerungen in kleinen Formulierungen können wie folgt formuliert werden:

  • Es ist sehr sorgfältig erforderlich, die Richtung und den Grad der Datenzerlegung am Beispiel der Maßnahmen der Schweizer Bank zu bestimmen.
  • In einer erheblichen Anzahl von Fällen kann der Wert in neuen Ergebnissen erscheinen, beispielsweise in der Formulierung des Wortlauts der Verwaltungsdokumente der Bank of England.

Er gibt nur Hinweise auf einige Ergebnisse, wenn die Spielebranche die Monte-Carlo-Methode ersetzen kann.

Maschinelle Übersetzung mit geringfügigen Korrekturen, um das Ohr nach der Kata nicht zu schneiden.

Ich bin froh, hier zu sein, um das Forschungszentrum Data Analytics for Finance and Macro (DAFM) an der King's College Business School zu eröffnen. Ich möchte den Professoren Georgios Kapetanios und Georgios Cortareas als Co-Direktoren (sowie ehemaligen Kollegen) dazu gratulieren, dass sie eine Startrampe für das Zentrum organisiert und für den Start vorbereitet haben.

Ich glaube, dass die Anwendung von Datenanalysemethoden zur Lösung vieler dringender Probleme im Bereich Finanzen und Makroökonomie große Aussichten hat. Aus diesem Grund hat die Bank of England vor etwa vier Jahren eine eigene Datenanalyseeinheit eingerichtet. Und deshalb begrüße ich die Schaffung dieses neuen Zentrums als Mittel zur Verwirklichung dieses Versprechens sehr.

Aber wird Big Data sein Versprechen halten? Ich möchte versuchen, einige dieser Versprechen von Big Data sowie mögliche Fallstricke anhand von Beispielen aus jüngsten Studien der Bank of England zum Wirtschafts- und Finanzsystem zu veranschaulichen. Abschließend werde ich einige spekulativere Gedanken zur künftigen Forschung zu Big Data machen. 1 (1- Cœuré (2017) bietet eine hervorragende Zusammenfassung des Potenzials von Big Data zur Verbesserung der Politikgestaltung, insbesondere bei Zentralbanken.)

Der Weg folgte weniger


Das erste, was zu sagen ist, ist, dass Big Data und Datenanalysemethoden nicht neu sind. In den letzten Jahren haben sie sich jedoch zu einem der am schnellsten wachsenden Wachstumsbereiche in akademischen und kommerziellen Kreisen entwickelt. In diesem Zeitraum wurden die Daten zu neuem Öl; Datenanalysemethoden sind zu Ölraffinerien und Raffinerien ihrer Zeit geworden; und Informationsunternehmen sind zu neuen Ölgiganten geworden. 2 (2- Zum Beispiel der Economist (2017), Henke et al. (2016).)

Trotzdem waren Wirtschaft und Finanzen in Bezug auf die allgemeine Zustimmung zu diesem "Ölfieber" bislang eher zurückhaltend. In den Bereichen Wirtschaft und Finanzen war der Einsatz von Datenanalysemethoden zumindest im Vergleich zu anderen Disziplinen weniger verbreitet. Eine der einfachen Diagnosen in dieser Hinsicht ergibt sich aus der Berücksichtigung sehr unterschiedlicher Interpretationen des Ausdrucks "Data Mining" durch diejenigen, die sich innerhalb und außerhalb der Wirtschaft und Finanzen befinden.

Für Ökonomen sind wenige Sünden widerlicher als Data Mining. Das Mittel dieses letzten Bösewichts besteht darin, "nach Regression zu suchen" und nur die Regressionsergebnisse zu melden, die am besten zu der Hypothese passen, die der Forscher ursprünglich testen wollte. Dies ist es, was die Ökonometrie in Frage stellt. 3 (3-Leamer 1983) Für die meisten Ökonomen hat diese Datenanalyse eine traurige Ähnlichkeit mit Ölbohrungen - einem schmutzigen Bergbaugeschäft, das mit einer großen nachteiligen Auswirkung auf die Gesundheit einhergeht.

Für Datenwissenschaftler kann die Situation anders sein. Data Mining ist für sie ein Mittel, um neue wertvolle Ressourcen zu extrahieren und zu nutzen. Auf diese Weise können Sie neue Ideen einbringen, neue Produkte erstellen, neue Beziehungen aufbauen und neue Technologien fördern. Dies ist der Rohstoff für eine neue Welle von Produktivität und Innovation, die sich abzeichnende vierte industrielle Revolution. 4 (4 - Siehe zum Beispiel Schwab 2017)

Was erklärt die Vorsicht einiger Ökonomen in Bezug auf Big Data? Ein Teil der Antwort liegt in der Methodik. 5 (5 - Haldane 2016) Ein anständiger Teil der Wirtschaft folgte den methodischen Spuren von Karl Popper in den 1930er Jahren. Popper befürwortete einen deduktiven Ansatz für den wissenschaftlichen Fortschritt. 6 (6 - Popper (1934) und Popper (1959)) Dies begann mit Axiomen, ging von Axiomen zu Theorie über und akzeptierte erst dann Hypothesen für Daten. Mit anderen Worten, die Theorie ging der Messung voraus.

Es gibt einen alternativen, induktiven Ansatz. Dies hat noch tiefere Wurzeln in der Arbeit von Francis Bacon aus dem frühen 17. Jahrhundert. 7 (7 - Bacon 1620) Er beginnt mit Daten, die nicht durch Axiome und Hypothesen eingeschränkt sind, und verwendet sie dann, um die Auswahl von Verhaltensweisen zu informieren. Mit anderen Worten, Daten gehen der Theorie voraus. In der Tat haben einige Datenforscher vorgeschlagen, dass ein solcher Ansatz das „Ende der Theorie“ signalisieren könnte. 8 (8 - Anderson 2008)

Wo einige Ökonomen Fallstricke bei Big Data sehen, sehen Datenexperten vielversprechende Aussichten. Wo einige Ökonomen die Umweltbedrohung sehen, sehen Datenanalysten das wirtschaftliche Potenzial. Ich bin ein bisschen karikiert, aber nur ein bisschen. Also wer hat recht? Und signalisiert das Big-Data-Zeitalter einen Ölfluss oder eine Ölverschmutzung?

Es stimmt, wie so oft liegt es wahrscheinlich irgendwo in der Mitte. Sowohl deduktive als auch induktive Ansätze können Einblicke in die Welt bieten. Sie gelten eher als methodische Ergänzungen als als Ersatz. Mit anderen Worten, die isolierte Verwendung eines Ansatzes erhöht das Risiko von falschen Schlussfolgerungen und potenziell schwerwiegenden Fehlern in Verständnis und Politik. Lassen Sie mich einige Beispiele zur Veranschaulichung geben.

Während der globalen Finanzkrise ist mittlerweile ziemlich gut angenommen, dass das dynamische stochastische allgemeine Gleichgewichtsmodell (DSGE) des makroökonomischen Hauptarbeitspferdes auf den ersten Zaun fiel. 9 (9 - Zum Beispiel Stiglitz 2018) Sie konnte die Dynamik des Konjunkturzyklus während nicht erklären oder nach der Krise. Obwohl theoretisch rein, erwies es sich als empirisch fragil. Ich glaube, dass diese empirische Fragilität aufgrund einer übermäßigen methodischen Abhängigkeit von deduktiven Methoden entstanden ist. Oder mit anderen Worten, aufgrund der Tatsache, dass realen Daten der Vergangenheit, einschließlich Krisen, zu wenig Aufmerksamkeit geschenkt wird.

Als Gegenbeispiel startete Google 2008 ein Prognosemodell für Influenza-Ausbrüche, das auf Ausdrücken wie „Anzeichen der Grippe“ basiert. 10 (10 - Ginsberg et al. 2009) Dies hat 2009/10 enorme Arbeit bei der Verfolgung von Influenza-Ausbrüchen in den USA geleistet. In den folgenden Jahren erlitten die Vorhersagen dieses Modells jedoch eine vernichtende Niederlage.11 (11 - Lazer et al. 2014) Ich würde vorschlagen, dass diese empirische Fragilität aufgrund einer übermäßigen Abhängigkeit von empirischen Gesetzen und eines übermäßigen Engagements für induktive Methoden entstanden ist. Mit anderen Worten, den tiefen medizinischen Ursachen vergangener Grippeausbrüche wird zu wenig Aufmerksamkeit geschenkt.

Im ersten Fall entstand die empirische Fragilität aufgrund einer zu engen Reihe von Axiomen und Einschränkungen, aufgrund einer zu starken Betonung der Theorie und nicht aufgrund realer Korrelationen und historischer Erfahrungen. Im zweiten Fall entstand die empirische Fragilität aufgrund eines zu schwachen Satzes von Axiomen und Einschränkungen aufgrund der beobachteten empirischen Korrelationen, die in Bezug auf Theorie und Kausalität eine zu große Rolle spielen.

In beiden Fällen könnten diese Fehler reduziert werden, wenn die induktiven und deduktiven Ansätze komplementär oder iterativ verwendet würden. Dieser iterative Ansatz hat einen starken Stammbaum in anderen Disziplinen. Die Geschichte des Fortschritts in vielen wissenschaftlichen Disziplinen beinhaltete einen wechselseitigen Lernprozess zwischen Theorie und Empirismus, bei dem die Theorie in einigen Fällen die Messung stimulierte und in anderen die Theorie der Messmotivation in einer kontinuierlichen Rückkopplungsschleife. 12 (12 - Bacon (1620) fasst dies gut zusammen: „Diese Diejenigen, die mit Wissenschaften umgegangen sind, waren entweder Männer des Experiments oder Männer der Dogmen. Die Männer des Experiments sind wie die Ameise, sie sammeln und benutzen sie nur. Die Denker ähneln Spinnen, die aus ihrer eigenen Substanz Spinnweben machen. Aber die Biene nimmt eine Mitte Natürlich: Es sammelt sein Material aus den Blumen des Gartens und des Feldes.aber verwandelt und verdaut es durch eine eigene Kraft. ")

Ein Beispiel für diesen Ansatz, den Gouverneur Carney beim Start seines eigenen Datenanalyseprogramms der Bank erörtert hat, betrifft die Dynamik der Planetenbewegung. (13 - Carney 2015) Es war Sir Isaac Newton (der frühere Besitzer der Royal Mint, der auch Geld druckte), der die physikalische Theorie der himmlischen Bewegung entwickelte. Diese Theorie wurde jedoch auf den empirischen Schultern eines anderen wissenschaftlichen Riesen, Johannes Kepler, aufgebaut. Wenn es um Planetenbewegung geht, hat der Empirismus zuerst die Theorie angeführt, die Induktivität das Deduktive.

Es war von Zeit zu Zeit dasselbe, als wir die Bewegung der Wirtschaft und der Finanzmärkte verstanden. Keynesianische und monetaristische Theorien basieren auf empirischen Erfahrungen aus der Zeit der Weltwirtschaftskrise. Die Phillips-Kurve entstand als empirisches Kepler-Gesetz, das erst später eine Newtonsche theoretische Grundlage erhielt. Viele Finanzrätsel, die seit Jahrzehnten von Theoretikern verfolgt werden, haben als empirische Anomalien an den Vermögensmärkten begonnen. 14 (14 - Obstfeld und Rogoff (2001) diskutieren sechs wichtige Rätsel der internationalen Makroökonomie, wie die übermäßige Volatilität der Wechselkurse im Verhältnis zu den Fundamentaldaten.) In jedem Fall führte der Empirismus die Theorie, der Induktive den Deduktiven.

Meine Schlussfolgerung aus all dem ist klar. Wenn dieser iterative Lernprozess zwischen Empirismus und Theorie weiterhin Früchte in der Wirtschaft tragen wird, erfordern deduktive und induktive Ansätze möglicherweise eine allgemein gleiche Abrechnung. Wenn dem so ist, dann denke ich, dass Wirtschaft und Finanzen eine hohe Rendite erzielen werden, wenn weitere intellektuelle Investitionen in Big Data getätigt und diese in Zukunft mit Analysemethoden begleitet werden.

Big Data Definition


Wenn Big Data vielversprechend ist, ist es wahrscheinlich hilfreich, zunächst zu definieren, was es ist. Das ist nicht ganz einfach. Wie bei der Schönheit liegt das, was als Big Data gilt, in den Augen des Betrachters. Es ist auch ein fließendes Konzept. Zum Beispiel ist klar, dass Daten nicht mehr nur Zahlen und Wörter bedeuten. In der Tat hat in den letzten Jahren die Forschung zur Semantik zugenommen, auch im Bereich Wirtschaft und Finanzen.

Weniger kontrovers ist, dass in den letzten zehn Jahren die außergewöhnlichste Revolution in der Erstellung, Extraktion und Sammlung von Daten im weiteren Sinne des Wortes stattgefunden hat. Dies war teilweise das Ergebnis des Gesetzes von Moore und der damit verbundenen Fortschritte in der Informationstechnologie. 15 (15 - Moore (1965) stellte fest, dass sich die Anzahl der Komponenten pro integriertem Schaltkreis jährlich verdoppelt.) Im Gegensatz zu Öl, dessen Ressourcen begrenzt sind, werden mit neue Daten erstellt beispiellose Geschwindigkeit und praktisch unbegrenzte Reserven.

Es wird geschätzt, dass 90% aller jemals generierten Daten in den letzten zwei Jahren stammen. 16 (16 - SINTEF 2013) Ein guter Teil stammte aus sozialen Netzwerken. Rund 1,5 Milliarden Menschen nutzen Facebook täglich und 2,2 Milliarden monatlich. Im Jahr 2017 gab es 4,4 Milliarden Smartphone-Abonnements, mehr als eines für jede zweite Person auf dem Planeten. Prognosen zufolge wird die Zahl der Smartphone-Abonnenten bis 2023 7,3 Milliarden betragen, dh fast eine pro Person.17 (17 - Ericsson Mobility Report 2017) Schätzungen zufolge wurden 2017 1,2 Billionen Fotos aufgenommen, das sind 25 % aller jemals aufgenommenen Fotos. 18 (18 - Siehe www.statista.com/chart/10913/number-of-photos-taken-worldwide )

Eine andere Sicht auf diese Informationsrevolution eröffnet sich, wenn wir uns die Anzahl der Wissenschaftler ansehen, die Daten untersuchen. Unter Verwendung von Jobdaten von der Reed-Jobsucheseite wurden kürzlich mehr als 300 Stellenausschreibungen in Großbritannien für Datenverarbeitungsfachleute veröffentlicht. 19 (19 - Verwendung des Datensatzes in Turrell et al. (In Kürze)) Im Jahr 2012 gab es fast keine. Schätzungen, die auf der Selbstidentifizierung auf der Website für verknüpfte soziale Netzwerke basieren, deuten darauf hin, dass es weltweit mehr als 20.000 Datenverarbeitungsspezialisten geben kann.20 (20 - Dwoskin (2015). Die tatsächliche Anzahl von Datenwissenschaftlern weltweit ist höchst ungewiss. Viele Personen Arbeiten Sie an der Datenwissenschaft, ohne unbedingt diese Berufsbezeichnung zu verwenden, aber das Gegenteil ist auch der Fall.)

Gleichzeitig haben neue Methoden zur Verarbeitung, Filterung und Extraktion von Informationen aus diesen Daten rasant zugenommen. Techniken des maschinellen Lernens entwickeln sich rasant. Die sogenannten „Deep Learning“ -Methoden ergänzen bestehende Ansätze wie baumbasierte Modelle, Support Vector Machines und Support Vector Machines sowie Clustering-Techniken.21 (21 - Chakraborty und Joseph 2017) Vokabularmethoden, Vektormodelle gewinnen im Bereich der Textanalyse rasch an Dynamik Räume und semantische Analyse. 22 (22 - Bholat et al 2015)

Alle diese Methoden bieten verschiedene Möglichkeiten, Informationen zu extrahieren und verlässliche Schlussfolgerungen zu ziehen, wenn empirische Beziehungen komplex, nicht linear und sich entwickelnd sein können und Daten unterschiedliche Frequenzen und Formate erreichen können. Diese Ansätze unterscheiden sich erheblich von den klassischen ökonometrischen Inferenz- und Testmethoden, die häufig in Wirtschaft und Finanzen angewendet werden.

Diese Revolution in der Darstellung von Daten und in den Methoden ihres Verständnisses bietet analytischen Reichtum. Die Gewinnung dieser Reichtümer erfordert jedoch erhebliche Vorsicht. Zum Beispiel treten Datenschutzprobleme mit detaillierten, in einigen Fällen personalisierten Daten viel weiter auf. In letzter Zeit haben diese Themen zu Recht einen herausragenden Platz eingenommen. Gleichzeitig ist der Schutz von Big Data eine der Hauptaufgaben der Bank in ihrer Forschung.

Big Data-Versprechen


Soweit Big Data charakterisiert werden kann, erfolgt dies normalerweise mit „drei Vs“: Volumen, Geschwindigkeit und Vielfalt. Lassen Sie mich anhand der drei Vs als Organisationsstruktur einige Beispiele dafür diskutieren, wie diese Daten und Methoden in der jüngsten Bankenforschung verwendet wurden, um unser Verständnis der Funktionsweise der Wirtschaft und des Finanzsystems zu verbessern.

Volumen


Die statistische Grundlage der makroökonomischen Analyse sind zumindest seit Mitte des 20. Jahrhunderts die Volkswirtschaftlichen Gesamtrechnungen. Die Volkswirtschaftlichen Gesamtrechnungen stützten sich immer auf einen eklektischen Datensatz. 23 (23 - Coyle 2014) In der Vergangenheit wurden Landnutzungs-, Ernte- und Viehkonten zur Schätzung der landwirtschaftlichen Produktion herangezogen. Die industrielle Produktion wurde anhand verschiedener Quellen gemessen, beispielsweise anhand der Anzahl der von der British Library gelisteten Eisenhochöfen und Bücher. Die Leistung der Dienstleistungen wurde anhand der Tonnage der Handelsflotte geschätzt. 24 (24 - Fouquet and Broadberry 2015)

Da mehr Daten eingehen als jemals zuvor, wird die Verwendung neuer und vielseitiger Datenquellen und -methoden in statistischen Ämtern immer häufiger. Im Bereich der Verbraucherpreismessung verwendet das MIT Billion Prices Project Daten aus mehr als 1.000 Online-Shops in rund 60 Ländern, um täglich 15 Millionen Preise zu sammeln. Es wurde festgestellt, dass dieser Ansatz aktuellere (und billigere) Verbraucherpreisinformationen liefert als herkömmliche Umfragen. 25 (25 - Cavallo und Rigobon 2016) Es wurde auch festgestellt, dass Online-Preisdaten die kurzfristigen Inflationsprognosen in einigen Märkten verbessern.26 (26 - Cœuré 2017)

In diesem Sinne prüft das britische Amt für nationale Statistik (ONS) die Möglichkeit, zusätzlich zu den bestehenden Preismethoden auch „Web Scraping“ zu verwenden. Heute konzentrieren sie sich auf Dinge wie Lebensmittel und Kleidung. Trotz der frühen Jahre scheinen die potenziellen Vorteile in Bezug auf die Erhöhung der Probengröße und der Granularität erheblich zu sein. Beispielsweise hat das ONS bisher 7.000 Preisangebote pro Tag für eine Gruppe von Lebensmittelprodukten gesammelt, was mehr als die derzeitige monatliche Gebühr für diese Produkte im VPI ist. 27 (27 - Siehe www.ons.gov.uk/economy/inflationandpriceindices/articles/researchindicesusingwebscrapedpricedata / august2017update )

In Bezug auf die Messung des BIP erscheinen hier auch neue Quellen und Methoden. Eine kürzlich durchgeführte Studie verwendete Satellitenbilder, um die Menge an unnatürlichem Licht zu messen, das von verschiedenen Regionen der Welt emittiert wird. Es wurde festgestellt, dass dies einen statistisch signifikanten Zusammenhang mit der Wirtschaftstätigkeit hat. 28 (28 - Henderson, Storeygard und Weil (2011), dieser Ansatz könnte möglicherweise dazu beitragen, Aktivitäten in Regionen zu verfolgen, die geografisch entfernt sind, in denen statistische Erhebungsmethoden schlecht sind oder in denen Probleme falsch sind Messungen sind scharf.

Ein profaneres Beispiel, das vom ONS in Großbritannien und anderen statistischen Ämtern verwendet wird, sind die sogenannten Verwaltungsdaten. Dies schließt Daten ein, die von Regierungsbehörden im Rahmen ihrer Aktivitäten erhoben werden - beispielsweise zu Steuereinnahmen und -vorteilen. In Großbritannien sind einige dieser Daten kürzlich im Rahmen einer Open-Data-Initiative der Regierung für eine breitere Nutzung verfügbar geworden, obwohl sie einer ernsthaften Überprüfung unterzogen wurden.

Ein Beispiel sind die Mehrwertsteuerdaten, die von KMU in einer Reihe von Branchen erhalten wurden, die kürzlich vom ONS zur Erstellung von BIP-Schätzungen auf der Grundlage der Produktion verwendet wurden. Wie bei den Preisen ist der Gewinn an Stichprobengröße und Granularität durch die Verwendung solcher Verwaltungsdaten möglicherweise groß. Die monatliche Überprüfung der ONS-Geschäftstätigkeit basiert in der Regel auf einer Stichprobe von ca. 8.000 Unternehmen, die diese Untergruppe von KMU vertreten. Dies wird derzeit durch Mehrwertsteuererklärungen von ca. 630.000 Berichtseinheiten ergänzt. 29 (29 - www.ons.gov.uk/economy/grossdomesticproductgdp/articles/vatturnoverinitialresearchanalysisuk/december )

Diese neuen Daten ergänzen bestehende Erhebungsmethoden und ersetzen sie nicht. Sie haben das Potenzial, die Aktualität und Genauigkeit der Daten der Volkswirtschaftlichen Gesamtrechnungen zu aggregierten wirtschaftlichen Trends zu verbessern. ONS verfügt über ein eigenes Data Science Center, das diese Bemühungen leitet. Und neue Forschungseinrichtungen wie das Alan Turing Institute leisten hervorragende Arbeit, indem sie neue Daten und Methoden auf wirtschaftliche Dimensionen anwenden.

Ein weiterer potenziell fruchtbarer Forschungsbereich zur Verfolgung der Aktivitätsströme in der Wirtschaft sind Finanzdaten. Fast alle wirtschaftlichen Aktivitäten hinterlassen finanzielle Spuren in der Bilanz eines Finanzinstituts. Die Verfolgung der Zahlungsströme zwischen Finanzinstituten kann dazu beitragen, die Größe dieses Fußabdrucks zu bestimmen und somit indirekt die Wirtschaftstätigkeit zu verfolgen.

In den letzten Jahren haben wir uns bei der Bank auf die Datenbank für den Verkauf von Produkten der Financial Regulatory and Supervision Authority (PSD) verlassen. Dies ist eine sehr detaillierte Quelle für Verwaltungsdaten zu Hypothekenprodukten des Mieters, die in Großbritannien veröffentlicht wurden. Es enthält Daten zu fast 16 Millionen Hypotheken seit Mitte 2005. PSPS stellte der Bank ein neues, höher auflösendes Tool zur Analyse des Verhaltens von Haushalten und Wohnungen zur Verfügung.

Beispielsweise wurde die PSD 2014 vom Financial Policy Committee (FPC) der Bank verwendet, um seine Entscheidungen zu makroprudenziellen Beschränkungen für einkommensstarke Hypotheken für britische Haushalte zu informieren und zu kalibrieren. 30 (30. Juni 2014 - Finanzstabilitätsbericht) Seitdem haben wir verwendeten diese Daten, um die Merkmale bestehender Hypotheken mit hohen Kreditrenditen und hohen Kreditkosten im Zeitverlauf zu verfolgen.31 (31 - Chakraborty, Gimpelewicz und Uluc 2017) PSD-Daten wurden verwendet, um Preisentscheidungen auf dem britischen Immobilienmarkt zu verstehen.32 (32 - Bracke und Tenreyro (2016) sowie Benetton, Bracke und Garbarino (2018)) Und sie wurden auch verwendet, um das britische Multi-Industry-Agent-Modell des Immobilienmarktes zu kalibrieren. 33 (33-Baptista et al. 2016).

In den letzten Jahren haben die Bank und ONS einen vollständigeren Datensatz über die Geldflüsse zwischen Instituten entwickelt. Es ist zu hoffen, dass diese Daten nicht nur dazu beitragen, Portfolioänderungen zu verfolgen, sondern auch, wie sie sich auf die Finanzmärkte und die Wirtschaft insgesamt auswirken können. Beeinflussen beispielsweise Portfolioumverteilungen durch institutionelle Anleger die Vermögensmärkte und wirken sie sich stimulierend auf die Ausgaben aus? 34 (34 - Arbeitsgruppe Bank of England und Procyclicality 2014) Antworten auf solche Fragen helfen beispielsweise bei der Beurteilung der Wirksamkeit der quantitativen Lockerung. 35 (35) - Zum Beispiel zeigen Albertazzi, Becker und Boucinha (2018) Beweise für den Kanal zur Neuausrichtung des Portfolios aus dem Ankaufsprogramm der EZB.)

Neue, sehr detaillierte Daten werden auch in die Zahlungs-, Kredit- und Bankströme eingespeist. Einige von ihnen wurden verwendet, um Veränderungen in der Wirtschaftstätigkeit vorherzusagen oder zu verfolgen. Sie haben einige Erfolge erzielt. In den USA wurde beispielsweise kürzlich ein Datensatz von mehr als 12 Milliarden Kredit- und Debitkartentransaktionen über einen Zeitraum von 34 Monaten verwendet, um Verbrauchsmuster nach Alter, Unternehmensgröße, Ballungsraum und Sektor zu analysieren.36 (36 - Farrell and Wheat 2015) )

Im Laufe der Zeit können diese Datentypen möglicherweise dazu beitragen, eine Karte der finanziellen und Echtzeit-Aktivitätsflüsse in der gesamten Wirtschaft zu erstellen, ähnlich wie dies bereits für Verkehrs-, Informations- oder Wetterflüsse der Fall ist. Nach der Zuordnung können diese Flows mithilfe einer Richtlinie modelliert und geändert werden. Ich habe vor sechs Jahren zum ersten Mal über diese Idee gesprochen. Heute scheint er näher als je zuvor in unserer Reichweite zu sein. 37 (37 - Ali, Haldane und Nahai-Williamson 2012)

Dies sind alles Bereiche, in denen DAFM einen wichtigen Beitrag zu den Bemühungen zur Verbesserung der Qualität und Aktualität der makroökonomischen Daten und der Daten des Finanzsystems leisten kann. Es ist bekannt, dass die Möglichkeiten zur Verbesserung der Qualität der Daten der Volkswirtschaftlichen Gesamtrechnungen sehr groß sind. 38 (38 - Zum Beispiel Bean 2016) Und diese Messprobleme werden nur zunehmen, wenn wir uns einer zunehmend digitalen und dienstleistungsorientierten Wirtschaft zuwenden.

Geschwindigkeit


Der zweite Aspekt der Big-Data-Revolution ist ihre große Häufigkeit und Aktualität. Häufigere Daten können ein neues oder genaueres Bild der Trends auf den Finanzmärkten und in der Wirtschaft liefern. Es kann auch manchmal bei der Lösung komplexer Identifikationsprobleme hilfreich sein, die ansonsten sowohl Big Data (wie im Beispiel der Google-Grippe gezeigt) als auch klassische ökonometrische Methoden (wie das DSGE-Beispiel gezeigt hat) beeinträchtigen.

Die Krise hat gezeigt, dass in Stresssituationen einigen der größten und tiefsten Finanzmärkte der Welt möglicherweise die Liquidität fehlt. Dies hat dazu geführt, dass einige dieser Märkte erobert wurden. Als Reaktion darauf stimmte die G20 als eine ihrer ersten Maßnahmen im Jahr 2009 zu, viel mehr Daten über Transaktionen in diesen Märkten zu sammeln, um deren Dynamik in Stresssituationen besser zu verstehen. 39 (39 - Siehe zum Beispiel FSB 2010 ) Diese Daten werden in Handels-Repositories gespeichert.

In den letzten Jahren haben diese Handels-Repositories begonnen, Daten auf einer sehr detaillierten Handelsbasis zu sammeln. Dies bedeutet, dass sie schnell eine große Datenmenge angesammelt haben. Beispielsweise werden auf dem Devisenmarkt jeden Arbeitstag etwa 11 Millionen Berichte gesammelt. Sie bieten eine umfangreiche Datenquelle für hochfrequente Finanzmarktdynamiken und -standorte.

Ein Beispiel für eine solche Tendenz war die Entkoppelung des Schweizer Frankens im Januar 2015. Dieser unerwartete Schritt führte zu starken Verschiebungen der Vermögenspreise. Frank zeigte unmittelbar nach dem Aufheben der Verbindung mehrere Stunden lang eine scharfe V-förmige Bewegung. Durch die Analyse von Repository-Daten zu Terminkontrakten zum Schweizer Franken zu Euro-Kursen können einige der treibenden Kräfte für diese Änderungen identifiziert werden. 40 (40 - Cielinska et al. (2017). Andere aktuelle Forschungsarbeiten, die Repository-Daten verwenden, umfassen Abad et al. (2016) ) und Bonollo et al. (2016))

Beispielsweise können hochfrequente Schwankungen der Schweizer Währung mit dem Handelsvolumen bei Terminkontrakten verglichen werden. Diese Transaktionen können von Gegenparteien, beispielsweise großen Bankhändlern und Endinvestoren, weiter zerlegt werden. Diese Art der Zerlegung zeigt, dass es der Entzug von Liquidität durch große Banken - Händler, die Franks Überlauf verursachten - ein klassisches Zeichen in Zeiten von Marktturbulenzen war. 41 (41 - Siehe zum Beispiel Duffie, Gârleanu und Pedersen (2005) und Lagos, Rocheteau und Weill (2011) )) Diese Bewegung kehrte sich teilweise um, sobald die Händler die Marktproduktion wieder aufnahmen.

Handelsdaten können auch verwendet werden, um zu beurteilen, ob eine Abschwächung der Frankenbindung die Marktleistung nachhaltig beeinflusst hat. Eine Studie der Bank hat gezeigt, dass dies bei ständiger Fragmentierung des Forward-Franken-Marktes der Fall ist. Die Liquidität und die Aktivität zwischen Händlern waren strukturell geringer, und die Marktvolatilität war nach dieser Episode stetig höher.

Eine zusätzliche Verfeinerung dieser Daten ermöglicht es uns, eine quasi-kausale Geschichte über die treibenden Kräfte der V-förmigen Bewegung auf den Vermögensmärkten nach dem Aufheben der Verknüpfung zu erzählen. Durch die Verwendung paralleler Tick-by-Tick- und Trade-by-Trade-Daten können Sie Trigger und Verstärker auf eine Weise identifizieren, die sonst unmöglich wäre.

Ein zweites Beispiel für eine Studie, die schnellere Daten verwendet, um unser Verständnis der wirtschaftlichen Dynamik zu verbessern, ist der Arbeitsmarkt. Das Verständnis des kombinierten Verhaltens von Beschäftigung und Löhnen bleibt eines der zentralen Themen der modernen Makroökonomie. In letzter Zeit wurde diese Dynamik durch Veränderungen in der Arbeitswelt erschwert, als die Automatisierung sowohl die Art als auch die Struktur der Arbeit veränderte.

Jüngste Bankenforschungen haben detaillierte Stellenangebote genutzt, um diese Dynamik zu beleuchten. 42 (42 - Turrell et al. (In Kürze)) Die Studie analysiert über einen Zeitraum von zehn Jahren etwa 15 Millionen offene Stellen. Anstatt offene Stellen nach Sektor, Beruf oder Region zu klassifizieren, verwendet er im Jobbeschreibungstext Methoden des maschinellen Lernens, um offene Stellen zu klassifizieren und zu gruppieren. Das Ergebnis ist ein klassifizierteres Klassifizierungsschema für die Arbeitsnachfrage.

Dieser Ansatz bietet eine andere Möglichkeit, die Entwicklung der Arbeitswelt zu klassifizieren und zu beschreiben - beispielsweise die Arten von Fähigkeiten, die in einer Automatisierungsumgebung benötigt werden. Das Klassifizierungsschema war auch nützlich, um das Verhältnis zwischen Arbeitsnachfrage und Löhnen zu bestimmen. Die Verwendung von Klassifizierungen auf der Grundlage von Stellenbeschreibungen hilft dabei, einen klareren Zusammenhang zwischen der Arbeitsnachfrage und den angebotenen und vereinbarten Löhnen zu ermitteln.
Vielfalt

Einer der potenziell produktivsten Bereiche der Big-Data-Forschung im Makro- und Finanzsektor ist die Verwendung von Wörtern und nicht von Zahlen als Daten. Semantische Daten und semantische Suchmethoden haben einen reichen Stammbaum in anderen Sozialwissenschaften wie Soziologie und Psychologie. Bisher war ihr Einsatz in Wirtschaft und Finanzen jedoch relativ begrenzt. 43 (43 - Bemerkenswerte Beispiele sind Schonhardt-Bailey (2013) und Goldsmith-Pinkham, Hirtle und Lucca (2016).)

Wie andere Sozialwissenschaften sind auch Wirtschaft und Finanzen damit verbunden menschliche Wahl. Und wir wissen, dass Menschen sich oft eher auf Heuristiken oder Geschichten als auf Statistiken verlassen, wenn sie die Welt verstehen und Entscheidungen treffen. Daher ist die semantische Wahrnehmung dieser Geschichten wichtig, um menschliches Verhalten zu verstehen und Entscheidungen zu treffen.

Zum Beispiel hat die Bank kürzlich begonnen, die Sprache zu lernen, die sie in der externen Kommunikation verwendet, sei es mit Finanzunternehmen oder der Öffentlichkeit insgesamt. Zum Beispiel haben Michael McMahon von der Universität Oxford und ich kürzlich gewürdigt, wie die Vereinfachung des Wortlauts des geldpolitischen Ausschusses (MPC) im Inflationsbericht Ende letzten Jahres das öffentliche Bewusstsein für geldpolitische Botschaften geschärft hat. 44 (44 - Haldane und McMahon (im Erscheinen)).

Das zweite Beispiel untersucht einen viel weniger untersuchten Aspekt der Entscheidungsfindung von Banken - die Überwachung von Finanzunternehmen. 45 (45 - Bholat et al. 2017) Dies basiert auf einer Textanalyse der vertraulichen regelmäßigen zusammenfassenden Sitzungen (PSMs) der Bank, die an Finanzunternehmen gesendet werden. Dies sind möglicherweise die wichtigsten Einzelbriefe, die die Aufsichtsbehörde (PRA) regelmäßig an Unternehmen sendet, um eine Bewertung des Unternehmensrisikos durch die Aufsichtsbehörden vorzunehmen und Maßnahmen zur Minderung dieser Risiken zu fordern. Mithilfe einer Methode des maschinellen Lernens, die als zufällige Wälder bezeichnet wird, analysieren die Forscher diese Buchstaben und extrahieren Daten über ihren Ton und Inhalt.

Diese Art der Analyse hat eine Reihe von Richtlinienanwendungen. Es kann verwendet werden, um zu beurteilen, ob Briefe eine klare und konsistente Aufsichtsbotschaft an Unternehmen senden. Sie können beispielsweise die Stärke und den Inhalt dieser Briefe mit der internen Einschätzung der Bank zu den Stärken und Schwächen von Unternehmen vergleichen. Stimmen diese beiden Ansätze mit dem Aufsichtssystem der Bank überein? Im Allgemeinen haben Studien gezeigt, dass dies der Fall ist.

Dieser Ansatz kann auch verwendet werden, um zu bewerten, wie sich ein Überwachungsstil im Laufe der Zeit entwickelt hat. Wie hat sich dies beispielsweise seit dem Übergang der Aufsichtsmodelle vom Finanzdienstleistungsmanagement (FSA) zur PRA geändert? Die Studie hat gezeigt, dass der Austausch von Aufsichtsbotschaften im Vergleich zu diesen beiden Modi vielversprechender, formeller und aussagekräftiger geworden ist, was mit dem neuen Modell der Aufsichtstätigkeiten der PRA übereinstimmt.

Ich denke, diese Übung ist ein gutes Beispiel für die Anwendung der neuen Methodik (Random Forest) auf eine völlig neue Datenbank (Bankaufsichtsprüfungen) im Bereich der Politik, die bisher von Forschern nicht untersucht wurde (Aufsicht über Finanzunternehmen). Er kommt zu Schlussfolgerungen, die in direktem Zusammenhang mit politischen Fragen stehen. Ich denke, es unterstreicht wunderbar die Aussichten auf Big Data.

In meinem letzten Beispiel werden keine neuen, sondern alte Daten verwendet. Ich denke jedoch, dass dies ein gutes Beispiel dafür ist, wie neue Methoden auch verwendet werden können, um die Vergangenheit zu verstehen. Lange bevor die Bank für die Geldpolitik und die Finanzstabilität verantwortlich wurde, bestand eine der Schlüsselaufgaben der Bank darin, Geschäftsbanken, die unter Liquiditätsdruck standen, als letztes Mittel Kredite zu gewähren.

Es ist schwierig, genau zu datieren, aber die Bank begann, solche Operationen ernsthaft durchzuführen, wahrscheinlich zu der Zeit, als Großbritannien 1847, 1857 und 1866 einer ständigen Reihe von Bankenpaniken ausgesetzt war. Die Bank reagierte auf diese Panik mit der Bereitstellung von Liquidität zur Unterstützung der Banken. Die letzte Kreditfazilität entstand, wie Badgehot sie später nannte. 46 (46 - Bagehot 1873) Tatsächlich definierte Beydzhhot später die Grundsätze einer solchen Kreditvergabe: Sie sollte frei erfolgen, mit einer Strafe für gute Sicherheiten.

Eine interessante historische Frage im Zusammenhang mit heute ist, ob die Bank diese Grundsätze wirklich eingehalten hat, als sie während der Panik von 1847, 1857 und 1866 Kredite an das letzte Mittel vergeben hat. Um dies zu bewerten, haben wir Daten aus gigantischen Papierbüchern entnommen, in denen Änderungen in der Bilanz der Bank erfasst sind. Diese Eingriffe wurden für einen Kredit für einen Kredit, eine Gegenpartei für eine Gegenpartei und einen Zinssatz für einen Zinssatz erfasst. 47 (47 - Anson et al 2017)

Die Entschlüsselung dieser Daten war insofern von Vorteil, als die handschriftlichen Notizen in den Büchern von einer kleinen Anzahl von Angestellten während drei Krisen gemacht wurden - einer der indirekten Vorteile der Arbeitskontinuität. Während die Daten hauptsächlich manuell aufgezeichnet wurden, entwickelte das Projekt ein Bilderkennungssystem unter Verwendung des neuronalen Netzwerkalgorithmus, mit dem wir in Zukunft historische Buchoperationen in maschinenlesbare Daten des 21. Jahrhunderts umwandeln werden.

Die Daten zur historischen Kreditvergabe an das letzte Mittel der Bank sind neue und sehr detaillierte Big Data aus einer vergangenen Ära. Dies zeigt, dass sich der Ansatz der Bank zur Kreditvergabe in extremen Fällen während der Krise Mitte des 19. Jahrhunderts erheblich geändert hat. Dies bedeutete, dass die Bank zur Zeit der Krise von 1866 mehr oder weniger den Grundsätzen der Kreditvergabe als letztes Mittel folgte, die später von Badgehot dargelegt wurden. Dies ist ein weiteres Beispiel für eine führende empirische Theorie.

Methoden des maschinellen Lernens werden auf Statistiken angewendet, die regelmäßig von der Bank gesammelt und gemeldet werden. Insbesondere werden diese Methoden verwendet, um Fehler oder Anomalien in den der Bank zur Verfügung gestellten Quelldaten zu identifizieren. Dies macht die Datenbereinigung viel systematischer und effizienter als dies mit manuellen Prozessen möglich ist. Datenanalysemethoden können auch verwendet werden, um neue Quellen granularer Daten zu vergleichen. Dies bietet nicht nur eine andere Möglichkeit zur Validierung der Daten, sondern kann auch eine Vorstellung davon vermitteln, dass einzelne Datenquellen nicht allein offengelegt werden können. 48 (48 - Bahaj, Foulis und Pinter (2017) entsprechen beispielsweise der Unternehmensebene AbrechnungsdatenDaten zu Immobilienpreisen auf Transaktionsebene und Hypotheken zu Wohnimmobilien auf Darlehensebene zeigen, wie sich der Immobilienpreis des Direktors eines KMU auf die Investitions- und Lohnkosten seines Unternehmens auswirken kann.) In der Bank of England wie auch anderswo sind Roboter auf dem Vormarsch.

Ein Blick in die Zukunft


Mit Blick auf die Zukunft kann festgestellt werden, dass es viele potenzielle Bereiche gibt, in denen diese neuen Quellen und neuen Methoden erweitert werden können, um das Verständnis der Bank für das Wirtschafts- und Finanzsystem zu verbessern. Lassen Sie mich aus einer langen Liste eine diskutieren, die mir von besonderer Bedeutung erscheint.

Die Verhaltensökonomie hat in den letzten Jahren zu Recht großen Aufsehen erregt, als sie die Art und Weise veränderte, wie Ökonomen darüber denken, wie menschliche Entscheidungen getroffen werden. Menschliche Entscheidungen und Handlungen weichen häufig erheblich und konsequent von rationalen Erwartungen ab, die häufig als normal akzeptiert werden. 49 (49 - Rotemberg (1984) diskutiert beispielsweise die statistische Ablehnung rationaler Erwartungsmodelle für Konsum und Arbeitsnachfrage.) Faustregeln und Heuristiken dominieren die menschliche Entscheidungsfindung. Und die Erwartungen, die von Menschen gebildet werden, werden oft weitgehend von der Geschichte, den Emotionen und Handlungen anderer Menschen sowie von rationalen Berechnungen geprägt.

Dieses Verhalten scheint sowohl für den Einzelnen (Mikroökonomie) als auch für die Gesellschaft (Makroökonomie) wichtig zu sein. Beispielsweise haben sich populäre Narrative, die sich auf den Finanzmärkten und im alltäglichen öffentlichen Diskurs entwickeln, als wichtige empirische Faktoren für Schwankungen der Vermögenspreise und der Wirtschaftstätigkeit erwiesen. 50 (50 - Tuckett und Nyman (2017), Shiller (2017) und Nyman et al. (2018) ) Diese Erzählungen können besonders wichtig sein in Zeiten wirtschaftlicher und finanzieller Belastungen, in denen sich die Emotionen erwärmen und soziale Geschichten zusätzliche Bedeutung erlangen.

Wenn es jedoch darum geht, ein solches Verhalten auf mikro- oder makroökonomischer Ebene zu messen, sind unsere vorhandenen Methoden häufig schlecht ausgestattet. Es ist verdammt schwierig, die wahren Gefühle und Vorlieben der Menschen zu erfassen. Herkömmliche Umfragen unter Marktteilnehmern oder der Öffentlichkeit sind in der Regel in ihrer Stichprobe voreingenommen und werden in den Antworten formuliert. Wie in der Quantenphysik kann der Beobachtungsakt selbst das Verhalten verändern.

Diese Realitäten erfordern möglicherweise die Untersuchung unkonventioneller Methoden, um die Vorlieben und Stimmungen der Menschen zu identifizieren. Als aktuelles Beispiel können Daten zu Musikdownloads von Spotify angeführt werden, die zusammen mit semantischen Suchmethoden für Songtexte verwendet wurden, um einen Indikator für die Stimmung der Menschen zu liefern. Interessanterweise bildet der resultierende Stimmungsindex zumindest die Verbraucherausgaben genauso gut ab wie die Michigan Consumer Confidence Survey.51 (51 - Sabouni 2018).

Und warum bei Musik verweilen? Der Geschmack von Menschen in Büchern, Fernsehen und Radio kann auch ein Fenster in ihre Seele öffnen. Genau wie ihr Geschmack in Spielen. In der Tat interessiert mich das Potenzial, mithilfe von Spieltechniken nicht nur Daten über die Vorlieben von Personen zu extrahieren, sondern auch Daten über Präferenzen und Aktionen zu generieren.

Bestehende empirische und theoretische Modelle machen häufig starke Annahmen über das Verhalten von Agenten. Theoretische Modelle basieren auf axiomatischen Annahmen. Empirische Modelle basieren auf historischen Verhaltensmustern. Diese Einschränkungen können im zukünftigen Verhalten bestätigt werden oder nicht. Ist dies nicht der Fall, wird das Modell wie das (deduktive) DSGE-Modell und das (induktive) Google-Grippemodell in eine Stichprobe zerlegt.

Die Spielumgebung kann verwendet werden, um das Verhalten zu verstehen, sodass weniger Einschränkungen bestehen. Das Verhalten von Menschen wird direkt im Spiel beobachtet, was uns neue Daten liefert, vorausgesetzt, dieses Verhalten spiegelt das wahre Verhalten angemessen wider. Da dies eine virtuelle, keine reale Welt ist, in der Schocks kontrolliert und reguliert werden, kann dies die Lösung von Kausalitäts- und Identifikationsproblemen als Reaktion auf Schocks, einschließlich politischer Schocks, erleichtern.

Es gibt bereits Spiele mit mehreren Menschen und primitiven Volkswirtschaften, bei denen Waren und Geld zwischen den Teilnehmern den Besitzer wechseln können. Dazu gehören EVE Online und World of Warcraft. Einige Ökonomen haben begonnen, Spieletechnologie zu verwenden, um das Verhalten zu verstehen.52 (52 - Zum Beispiel Lehdonvirta und Castronova (2014) Zum Beispiel verwendete Stephen Levitt (vom Freakonomics-Ruhm) Spielplattformen, um die Nachfragekurve für virtuelle Waren zu verstehen.53 (53 - Levitt et al (2016)

Die Idee hier wäre, ein dynamisches Spiel mit mehreren Personen zu verwenden, um das Verhalten in einer virtuellen Wirtschaft zu untersuchen. Dies schließt die Interaktion der Spieler ein - zum Beispiel die Entstehung populärer Erzählungen, die Ausgaben oder Einsparungen verursachen. Dies kann die Reaktion der Akteure auf Eingriffe in die Politik einschließen - zum Beispiel ihre Reaktion auf die Geld- und Regulierungspolitik. In der letzteren Rolle könnte das Spiel sogar als Prüfstand für politisches Handeln dienen - eine große, dynamische, digitale Fokusgruppe. 54 (54 - Yanis Varoufakis war zuvor an einer ähnlichen Idee beteiligt: uk.businessinsider.com/yanis-varoufakis-valve -gameeconomy-greek-Finance-2015-2 )

Spezialisten für künstliche Intelligenz erstellen virtuelle Umgebungen, um den Prozess der Untersuchung der Dynamik von Systemen zu beschleunigen. "Lernen mit Verstärkung" ermöglicht es Algorithmen, basierend auf Interaktionen zwischen virtuellen Spielern zu lernen und zu aktualisieren, anstatt auf begrenzter historischer Erfahrung. 55 (55 - Eine Diskussion finden Sie zumindest unter deepmind.com/blog/deep-reinforcement-learning ) Im Prinzip würde eine virtuelle Wirtschaft es Politikern ermöglichen, an ihrem eigenen Verstärkungstraining teilzunehmen, was ihren Entdeckungsprozess über das Verhalten eines komplexen Wirtschafts- und Finanzsystems beschleunigt.

Fazit


Wird Big Data sein Versprechen halten? Ich bin mir sicher, dass es so sein wird. Wirtschaft und Finanzen müssen ständig in Big Data und Datenanalyse investieren, um methodische Maßstäbe auszugleichen. Und frühe Studien, auch bei der Bank, zeigen, dass die Renditen solcher Aktivitäten hoch sein können, was unser Verständnis der Wirtschaft und des Finanzsystems vertieft.

Diese Ergebnisse werden am besten erzielt, wenn eine enge Zusammenarbeit zwischen statistischen Behörden, politischen Entscheidungsträgern, dem Wirtschaftssektor, Forschungszentren und Hochschulen hergestellt wird. Die Bank of England kann eine katalytische Rolle bei der Bündelung dieses Fachwissens spielen. DAFM kann das Gleiche tun. Ich wünsche DAFM viel Erfolg und freue mich auf die Zusammenarbeit mit Ihnen.

Verweise
Abad, J, Aldasoro, I, Aymanns, C, D»Errico, M, Rousová, L F, Hoffmann, P, Langfield, S, Neychev, M and Roukny, T (2011), «Shedding light on dark markets: First insights from the new EU-wide OTC derivatives dataset», ESRB Occasional Paper Series, No. 11.

Albertazzi, U, Becker, B and Boucinha, M (2018), «Portfolio rebalancing and the transmission of largescale asset programmes: evidence from the euro area», ECB Working Paper Series, No. 2125.

Ali, R, Haldane, A and Nahai-Williamson, P (2012), «Towards a common financial language», paper available at www.bankofengland.co.uk/paper/2012/towards-a-common-financial-language
Anderson, C (2008), «The End of Theory: The Data Deluge Makes The Scientific Method Obsolete», Wired Magazine, 23 June.

Anson, M, Bholat, D, Kang, M and Thomas, R (2017), «The Bank of England as lender of last resort: new historical evidence from daily transactional data», Bank of England Staff Working Paper, No. 691.

Bacon, F (1620), Novum Organum.

Bagehot, W (1873), Lombard Street: A Description of the Money Market, Henry S. King & Co.

Bahaj, S, Foulis, A and Pinter, G (2017), «Home values and firm behaviour», Bank of England Staff Working Paper, No. 679.

Bank of England and Procyclicality Working Group (2014), «Procyclicality and structural trends in investment allocation by insurance companies and pension funds», Discussion Paper, July.

Baptista, R, Farmer, JD, Hinterschweiger, M, Low, K, Tang, D and Uluc, A (2016), «Macroprudential policy in an agent-based model of the UK housing market», Bank of England Staff Working Paper, No. 619.

Bean, C (2016), «Independent Review of UK Economic Statistics», available at www.gov.uk/government/publications/independent-review-of-uk-economic-statistics-final-report
Benetton, M, Bracke, P and Garbarino, N (2018), «Down payment and mortgage rates: evidence from equity loans», Bank of England Staff Working Paper, No. 713.

Bholat, D, Brookes, J, Cai, C, Grundy, K and Lund, J (2017), «Sending firm messages: text mining letters from PRA supervisors to banks and building societies they regulate, Bank of England Staff Working Paper, No. 688.

Bholat, D, Hansen, S, Santos, P and Schonhardt-Bailey, C (2015), «Text mining for central banks», Bank of England Centre for Central Bank Studies Handbook.

Bonollo, M, Crimaldi, I, Flori, A, Gianfanga, L and Pammolli, F (2016), «Assessing financial distress dependencies in OTC markets: a new approach using trade repositories data», Financial Markets and Portfolio Management, Vol. 30, No. 4, pp. 397-426.

Bracke, P and Tenreyro, S (2016), «History dependence in the housing market», Bank of England Staff Working Paper, No. 630.

Carney, M (2015), speech at Launch Conference for One Bank Research Agenda, available at www.bankofengland.co.uk/speech/2015/one-bank-research-agenda-launch-conference

Cavallo, A and Rigobon, R (2016), «The Billion Prices Project: Using Online Prices for Measurement and Research», Journal of Economic Perspectives, Vol. 30, No. 2, pp. 151-78.

Chakraborty, C, Gimpelewicz, M and Uluc, A (2017), «A tiger by the tail: estimating the UK mortgage market vulnerabilities from loan-level data, Bank of England Staff Working Paper, No. 703.

Chakraborty, C and Joseph, A (2017), «Machine learning at central banks», Bank of England Staff Working Paper, No. 674.

Cielenska, O, Joseph, A, Shreyas, U, Tanner, J and Vasios, M (2017), «Gauging market dynamics using trade repository data: the case of the Swiss franc de-pegging», Bank of England Financial Stability Paper, No. 41.

Cœuré, B (2017), «Policy analysis with big data», speech at the conference on «Economic and Financial Regulation in the Era of Big Data».

Coyle, D (2014), GDP: A Brief but Affectionate History, Princeton University Press.

Duffie, D, Gârleanu, N and Pedersen, L (2005), «Over-the-Counter Markets», Econometrica, Vol. 73, No.6, pp. 1815-1847.

Dwoskin, E (2015), «New Report Puts Numbers on Data Scientist Trend», Wall Street Journal, 7 October.

Economist (2017), «The world»s most valuable resource is no longer oil, but data», article on 6 May 2017.

Ericsson (2017), Ericsson Mobility Report, November 2017.

Farrell, D and Wheat, C (2015), «Profiles of Local Consumer Commerce», JPMorgan Chase & Co. Institute.

Financial Stability Board (2010), «Implementing OTC Derivatives Market Reforms», Financial Stability Board.

Fouquet, R and Broadberry, S (2015), «Seven Centuries of European Economic Growth and Decline», Journal of Economic Perspectives, Vol. 29, No. 4, pp. 227-244.

Ginsberg, J, Hohebbi, M, Patel, R, Brammer, L, Smolinski, M and Brilliant, L (2009), «Detecting influenza epidemics using search engine data», Nature, Vol. 457, pp. 1012-1014.

Goldsmith-Pinkham, P, Hirtle, B and Lucca, D (2016), «Parsing the Content of Bank Supervision», Federal Reserve Bank of New York Staff Reports, No. 770.

Haldane, A (2016), «The Dappled World», speech available at www.bankofengland.co.uk/speech/2016/the-dappled-world

Haldane, A and McMahon, M (forthcoming), «Central Bank Communication and the General Public», American Economic Review: Papers & Proceedings.

Henderson, V, Storeygard, A and Weil, D (2011), «A Bright Idea for Measuring Economic Growth», American Economic Review: Papers & Proceedings, Vol. 101, No. 3, pp. 194-99.

Henke, N, Bughin, J, Chui, M, Manyika, J, Saleh, T, Wiseman, B and Sethupathy, G (2016), «The Age of Analytics: Competing in a Data-Driven World», McKinsey Global Institute.

IMF (2018), «Cyclical Upswing, Structural Change», World Economic Outlook, April 2018.

Lagos, R, Rocheteau, G and Weill, P-O (2011), «Crises and liquidity in over-the-counter markets», Journal of Economic Theory, Vol. 146, No. 6, pp. 2169-2205.

Lazer, D, Kennedy, R, King, G and Vespignani, A (2014), «The Parable of Google Flu: Traps in Big Data Analysis», Science, Vol. 343, pp. 1203-1205.

Leamer, E (1983), «Let»s Take the Con Out of Econometrics», American Economic Review, Vol. 73, No. 1, pp. 31-43.

Lehdonvirta, V and Castronova, E (2014), Virtual Economies: Design and Analysis, MIT Press.

Levitt, S, List, J, Neckermann, S and Nelson, D (2016), «Quantity discounts on a virtual good: The results of a massive pricing experiment at Kind Digital Entertainment», Proceedings of the National Academy of Sciences of the United States of America, Vol. 113, No. 27, pp. 7323-7328.

Moore, G (1965), «Cramming more components onto integrated circuits», Electronics, Vol. 38, No. 8.

Nyman, R, Kapadia, S, Tuckett, D, Gregory, D, Ormerod, P and Smith, R (2018), «News and narratives in financial systems: exploiting big data for systemic risk assessment», Bank of England Staff Working Paper, No. 704.

Obstfeld, M and Rogoff, K (2001), «The Six Major Puzzles in International Macroeconomics: Is There a Common Cause?», NBER Macroeconomics Annual, Vol. 15, MIT Press.

Popper, K (1934), Logik der Forschung, Akademie Verlag.

Popper, K (1959), The Logic of Scientific Discovery, Routledge.

Rotemberg, J (1984), «Interpreting the Statistical Failures of Some Rational Expectations Models», American Economic Review, Vol. 74, No. 2, pp. 188-193.

Sabouni, H (2018), «The Rhythm of Markets», mimeo.

Schonhardt-Bailey, C (2013), Deliberating American Monetary Policy: A Textual Analysis, MIT Press.

Schwab, K (2017), The Fourth Industrial Revolution, Portfolio Penguin.

Shiller, R (2017), «Narrative Economics», American Economic Review, Vol. 104, No. 4, pp. 967-1004.

SINTEF (2013), «Big Data, for better or worse: 90% of world»s data generated over last two years», ScienceDaily, 22 May.

Stiglitz, J (2018), «Where modern macroeconomics went wrong», Oxford Review of Economy Policy, Vol. 34, No. 1-2, pp. 70-106.

Tuckett, D and Nyman, R (2017), «The relative sentiment shift series for tracking the economy», mimeo.

Turrell, A, Speigner, B, Thurgood, J, Djumalieva, J and Copple, D (forthcoming), «Using Online Vacancies to Understand the UK Labour Market from the Bottom-Up», Bank of England Staff Working Paper.

All Articles