Strukturierung von Risiken und Entscheidungen bei Verwendung von BigData für offizielle Statistiken

Vorwort des Übersetzers Das

Material interessierte mich vor allem wegen der folgenden Tabelle:



Angesichts der Tatsache, dass Statistiken (und Russisch auf genetischer Ebene), gelinde gesagt, nicht alles mögen, was sich von linearer Abhängigkeit unterscheidet, gelang es diesen Jungs, die Verwendung der Aktivierungsfunktion durchzuziehen in parabolischer Form, um den Grad des Risikos der Verwendung von BigData in offiziellen Statistiken zu bestimmen. Gut gemacht. Natürlich haben Statistiker dieser Arbeit ihren Hinweis hinzugefügt: „1 Alle Fehler und Auslassungen liegen in der alleinigen Verantwortung der Autoren. Die in diesem Dokument geäußerten Meinungen sind persönlich und spiegeln nicht unbedingt die offizielle Position der Europäischen Kommission wider. “ Aber die Arbeit wurde veröffentlicht. Ich denke für heute ist das genug, und sie (die Autoren) haben niemandem verboten, ihre Skalen in diesen Aspekten zu finden.

Die Arbeit kann ziemlich strukturiert sein, um zu unterscheiden, wo und wie sich statistische Methoden von Forschungsmethoden für BigData unterscheiden. Meiner Meinung nach wird der größte Vorteil dieser Arbeit darin bestehen, mit dem Kunden zu sprechen und seine Aussagen zu widerlegen, wie zum Beispiel:

- Und wir sammeln die Statistiken selbst. Was möchten Sie noch recherchieren?
- Und Sie präsentieren uns Ihre Ergebnisse, damit wir sie mit unseren Statistiken koordinieren. In dieser Frage sagen die Autoren, dass es schön wäre, diese Arbeit zu lesen (3 Wie groß ist Big Data? Untersuchung der Rolle von Big Data in der offiziellen Statistik ).

In diesem Artikel legen die Autoren ihre Vision des Risikograds fest. Dieser Parameter steht in Klammern und darf nicht mit Quellenangaben verwechselt werden.

Die zweite Beobachtung. Die Autoren verwenden den Begriff BDS - dies ist ein Analogon zum Konzept von BigData. (Anscheinend knicks zu offiziellen Statistiken).

Vorwort von

Immer mehr statistische Ämter prüfen die Möglichkeit, große Datenquellen für die Erstellung offizieller Statistiken zu verwenden. Derzeit gibt es nur wenige Beispiele, bei denen diese Quellen vollständig in die tatsächliche statistische Produktion integriert wurden. Folglich ist das volle Ausmaß der durch ihre Integration verursachten Konsequenzen noch nicht bekannt. In der Zwischenzeit wurden erste Versuche unternommen, die Bedingungen und Auswirkungen von Big Data auf verschiedene Aspekte der statistischen Produktion wie Qualität oder Methodik zu analysieren. Vor kurzem hat die Task Force einen Qualitätsrahmen für die Erstellung von Big-Data-Statistiken im Rahmen des Big-Data-Projekts der Wirtschaftskommission der Vereinten Nationen für Europa (UNECE) entwickelt.Nach dem Europäischen Statistischen Verhaltenskodex ist die Bereitstellung hochwertiger statistischer Informationen die Hauptaufgabe der statistischen Ämter. Da Risiko als Auswirkung von Unsicherheit auf Ziele definiert wird (z. B. die internationale Normungsorganisation ISO 31000), haben wir es für angemessen erachtet, Risiken nach den von ihnen betroffenen Qualitätsmessungen zu kategorisieren.
Die vorgeschlagene Qualitätsstruktur statistischer Daten aus großen Datenquellen liefert eine strukturierte Vorstellung von der Qualität aller Phasen des statistischen Geschäftsprozesses und kann somit als Grundlage für eine umfassende Bewertung und Verwaltung der mit diesen neuen Datenquellen verbundenen Risiken dienen. Es werden neue qualitative Dimensionen eingeführt, die spezifisch für K sind oder (von hoher Bedeutung, wenn) die Verwendung von Big Data für offizielle Statistiken, wie z. B. das institutionelle / geschäftliche Umfeld oder die Komplexität. Mit diesen neuen qualitativen Messungen können die mit der Verwendung großer Datenquellen in amtlichen Statistiken verbundenen Risiken systematischer identifiziert werden.

In diesem Artikel versuchen wir, die Risiken zu identifizieren, die durch die Verwendung von Big Data im Rahmen offizieller Statistiken verursacht werden. Wir verfolgen einen systematischen Ansatz zur Identifizierung von Risiken im Kontext der vorgeschlagenen Qualitätsstruktur. Indem wir uns auf die neu vorgeschlagenen Qualitätsmessungen konzentrieren, können wir die Risiken beschreiben, die derzeit fehlen oder die Erstellung offizieller Statistiken nicht beeinflussen. Gleichzeitig können wir die aktuellen Risiken ermitteln, die bei der Verwendung von Big Data zur Erstellung von Statistiken auf völlig unterschiedliche Weise bewertet werden. Anschließend gehen wir zum Risikomanagementzyklus über und bewerten die Wahrscheinlichkeit und die Auswirkungen dieser Risiken. Da die Risikobewertung Subjektivität in ihrer Zuordnung, der Wahrscheinlichkeit und den Auswirkungen auf verschiedene Risiken beinhaltet, messen wir die Übereinstimmung zwischen Dutzenden verschiedener Stakeholder.unabhängig zur Verfügung gestellt. Anschließend bieten wir Optionen zur Minderung dieser Risiken in vier Hauptkategorien an: Vermeidung, Reduzierung, Aufteilung und Aufbewahrung. Laut ISO sollte eines der Prinzipien des Risikomanagements die Wertschöpfung sein, dh die Ressourcen zur Risikominderung sollten geringer sein als bei Untätigkeit. In Übereinstimmung mit diesem Prinzip werden wir schließlich die möglichen Auswirkungen einiger Risikominderungsmaßnahmen auf die Qualität der Endergebnisse bewerten, um zu einer umfassenderen Bewertung der Verwendung von Big Data für offizielle Statistiken zu gelangen.Eines der Prinzipien des Risikomanagements sollte die Wertschöpfung sein, dh die Ressourcen zur Risikominderung sollten geringer sein als für Untätigkeit. In Übereinstimmung mit diesem Prinzip werden wir schließlich die möglichen Auswirkungen einiger Risikominderungsmaßnahmen auf die Qualität der Endergebnisse bewerten, um zu einer umfassenderen Bewertung der Verwendung von Big Data für offizielle Statistiken zu gelangen.Eines der Prinzipien des Risikomanagements sollte die Wertschöpfung sein, dh die Ressourcen zur Risikominderung sollten geringer sein als für Untätigkeit. In Übereinstimmung mit diesem Prinzip werden wir schließlich die möglichen Auswirkungen einiger Risikominderungsmaßnahmen auf die Qualität der Endergebnisse bewerten, um zu einer umfassenderen Bewertung der Verwendung von Big Data für offizielle Statistiken zu gelangen.

1. Einleitung


1.1. Hintergrund


Die Entwicklung von „Big Data“ wurde von Kenneth Neil Kukier und Victor Mayer-Schoenberger in ihrem Artikel „Growing Big Data“ (2. www.foreignaffairs.com/articles/139104/kenneth-neil-cukier-and-viktor-mayer-schoenberger/) charakterisiert. Therise-of-Big-Data ) mit dem Begriff Datenübertragung. Datafication wird als der Prozess beschrieben, "alle Aspekte des Lebens in Daten umzuwandeln". Zum Beispiel. Facebook bietet persönliche Netzwerke, Sensoren für alle Arten von Umgebungsbedingungen, Smartphones für persönliche Kommunikation und Bewegungen sowie tragbare Daten für persönliche Bedingungen. Dies führt zu einer nahezu universellen Datenerfassung und -verfügbarkeit.

Wie in vielen anderen Sektoren haben offizielle Statistiken erst vor kurzem begonnen, das Big-Data-Problem auf strategischer Ebene zu erörtern. Es gibt immer noch kein allgemeines und weit verbreitetes Verständnis für den weiteren Weg, ob es sich um eine Herausforderung oder eine Chance handelt, ob es sich um eine kleine oder große Herausforderung handelt usw. Als Teil der hochrangigen Gruppe zur Modernisierung der statistischen Produktion und Dienstleistungen (3 Wie groß ist Big Data? Erkundung der Rolle von Big Data in offiziellen Statistiken: www1.unece.org/stat/platform/download/attachments/99484307/Virtual%20Sprint%20Big%20Data%20paper.docx?version=1&modificationDate=1395217470975&api=v2) wurde eine erste SWOT-Analyse gefolgt von einer groben Risiko-Nutzen-Analyse durchgeführt. Es wurde festgestellt, dass „eine umfassende Risikoanalyse auch Aspekte wie Wahrscheinlichkeit und Auswirkungen umfasst und möglicherweise erweitert wird, um Strategien zur Risikominderung und zum Risikomanagement zu ermitteln.“

Obwohl dieses Dokument noch weit von einer vollständigen Risikoanalyse entfernt ist, zielt es darauf ab, die Situation genau zu verbessern, indem die erste strukturierte Überprüfung erstellt wird. Wir möchten betonen, dass diese Überprüfung als Ausgangspunkt für die Anregung der allgemeinen Diskussion innerhalb der offiziellen statistischen Gemeinschaft (OSC) angesehen werden sollte.

1.2. Kugel


Dieser Artikel befasst sich ausschließlich mit Risiken und schließt nicht nur Vorteile, sondern auch Stärken und Schwächen, Chancen und Risiken aus. Dies bedeutet, dass „Untätigkeitsrisiken“ (z. B. das Risiko, dass das OSC nicht mit anderen Teilnehmern konkurriert, wenn es nicht modernisiert wird) nicht unter den Geltungsbereich fallen. es ist eher eine Bedrohung. Stattdessen versuchen wir, die Risiken hervorzuheben, die entstehen können (a) wenn OSC die Chancen von Big Data nutzt und beginnt, ein spezifisches „Big Data-basiertes offizielles Statistikprodukt“ (BOSP) zu entwickeln oder zu verbessern; (b) Risiken für das neue „normale Geschäft“, dh Risiken für offizielle Statistiken, die auf der Produktion von „Big Data“ basieren. (Da die Erstellung offizieller Statistiken mit Risiken verbunden ist, beschränken wir uns auf (b) die für Big Data spezifischen Risiken, d. H.Risiken, die für den „traditionellen“ Prozess der Erhebung amtlicher Statistiken nicht existieren oder unbedeutend sind.)

1.3. Struktur


In Abschnitt 2 stellen wir die mit dieser Aufgabe verbundenen Grundprinzipien vor, beginnend mit dem eindeutig notwendigen Rahmen für das Risikomanagement und das Risikomanagement (Abschnitt 2.1). Wir präsentieren auch eine vorläufige Qualitätsstruktur für statistische Daten, die auf der Grundlage von Big Data erhalten wurden (Abschnitt 2.2), da die Verknüpfung der Qualitätsstruktur mit Risiken zwei Ziele erfüllt:

  • Es legt den Kontext für die Identifizierung von Risiken fest. Bestimmte Qualitätsindikatoren drücken zusammen mit den berücksichtigten Merkmalen die Werte des Objekts aus, die als wichtig und entscheidend für die Bereitstellung von Diensten für Kunden und Benutzer angesehen werden.
  • Auf diese Weise können Sie qualitativen Messungen, die in gängige Hyperräume eingebettet sind und an bestimmte Phasen der Erstellung statistischer Produkte gebunden sind, spezifische Risiken zuweisen.

In den Abschnitten 3, 4, 5 und 6 stellen wir die bisher identifizierten Risiken in verschiedenen Kontexten vor (4 Die Business-Case-Dokumente des ESS (https://www.europeansocialsurvey.org/about/structure_and_governance.html) Big Data-Projekt als sowie zu den Big Data ESSets enthalten eine Liste von Risiken, die teilweise mit dem Projekt und teilweise mit der Verwendung von Big Data-Quellen für statistische Zwecke zusammenhängen. In dem Dokument "Ein vorgeschlagener Rahmen für die Qualität von Big Data" werden einige Risiken im Zusammenhang mit Qualitätsdimensionen erwähnt. Die Business Case-Dokumente des ESS Big Data-Projekts sowie die ESS Big Data-Netzwerke enthalten eine Liste von Risiken, die teilweise mit dem Projekt zusammenhängen und teilweise Big Data-Quellen für statistische Zwecke verwenden. Einige vorgeschlagene Risiken werden im Dokument „Vorgeschlagene Struktur für die Qualität von Big Data“ erwähnt. mit Qualitätsindikatoren.).Hier verwenden wir die Klassifizierung des Datenzugriffs, des rechtlichen Umfelds, des Datenschutzes und der Sicherheit sowie der Fähigkeiten. Eine Umstrukturierung gemäß der Qualitätsstruktur der aus Big Data gewonnenen Statistiken (Abschnitt 2.2) sollte sofort in Betracht gezogen werden, sobald diese Struktur einen vollständigeren Status erreicht. Für jedes der identifizierten Risiken geben wir (i) eine Bewertung der Wahrscheinlichkeit und der Auswirkungen (gemäß Abschnitt 2.1.3) und (ii) schlagen Strategien zur Risikominderung und zum Risikomanagement vor (siehe Abschnitt 2.1.4).Für jedes der identifizierten Risiken geben wir (i) eine Bewertung der Wahrscheinlichkeit und der Auswirkungen (gemäß Abschnitt 2.1.3) und (ii) schlagen Strategien zur Risikominderung und zum Risikomanagement vor (siehe Abschnitt 2.1.4).Für jedes der identifizierten Risiken geben wir (i) eine Bewertung der Wahrscheinlichkeit und der Auswirkungen (gemäß Abschnitt 2.1.3) und (ii) schlagen Strategien zur Risikominderung und zum Risikomanagement vor (siehe Abschnitt 2.1.4).

Am Ende diskutieren wir unsere Ergebnisse und skizzieren einige nächste Schritte in Abschnitt 7.

2. Die Grundlagen


2.1. Risiken und Risikomanagement


Gemäß ISO 31000: 20095 wird Risiko als „Auswirkung von Unsicherheit auf Ziele“ definiert. Dies bedeutet, dass Ziele definiert oder bekannt sein müssen, bevor Risiken identifiziert werden können. Diese Ziele werden normalerweise durch den institutionellen Kontext der Organisation bestimmt. Eine weitere wichtige Überlegung ist, dass Risiken eine Charakterisierung der Unsicherheit beinhalten, dh es ist nicht klar, ob das beschriebene Ereignis eintreten wird. Somit werden Risiken anhand der Wahrscheinlichkeit des Eintretens des Ereignisses und seiner Folgen gemessen, d. H. Der Auswirkungen, die das Ereignis auf das Erreichen seiner Ziele hat. Die Risikobewertung sollte objektivere Informationen liefern, die es Ihnen letztendlich ermöglichen, das richtige Gleichgewicht zwischen der Realisierung von Gewinnchancen und der Minimierung nachteiliger Auswirkungen zu finden.Das Risikomanagement ist ein wesentlicher Bestandteil der Managementpraxis und ein wichtiges Element der guten Unternehmenspraxis (6 Statistics Canada: Bericht 2014-2015 über Pläne und Prioritäten,www.statcan.gc.ca/aboutapercu/rpp/2014-2015/s01p06-eng.htm ). Es ist ein iterativer Prozess, der idealerweise eine kontinuierliche Verbesserung des Entscheidungsprozesses ermöglicht und zur kontinuierlichen Verbesserung der Produktivität beiträgt.

Risiken sind auch mit Qualität verbunden. Die Verwendung eines Qualitätssystems sollte es ermöglichen, die Möglichkeiten verschiedener Quellen und Methoden zu nutzen, um ein Ergebnis eines bestimmten Qualitätsniveaus in dem Sinne zu erzielen, dass dieses Ergebnis den Bedürfnissen der Benutzer entspricht. Wie Risiken können auch Qualitätsniveaus aus dem institutionellen Umfeld und den Zielen bestimmter Institutionen abgeleitet werden. In diesem Zusammenhang bestimmt das institutionelle Umfeld das Gesamtrisiko, das die Organisation zur Erreichung ihrer Ziele zu tragen bereit ist.

Der Risikobewertungs- und -managementprozess kann in verschiedene Phasen unterteilt werden, darunter das Festlegen des Kontexts, das Identifizieren von Risiken, das Analysieren von Risiken in Bezug auf Wahrscheinlichkeit und Auswirkungen, das Bewerten von Risiken und schließlich das Verarbeiten von Risiken.

2.1.1. Institutioneller Kontext


In einem ersten Schritt muss ein strategischer, organisatorischer und risikomanagementbezogener Kontext eingerichtet werden, in dem der Rest des Prozesses stattfinden wird. Dies beinhaltet die Festlegung von Kriterien für die Bewertung von Risiken und die Festlegung der Struktur der Analyse.

2.1.2. Risiko-Einschätzung


In der zweiten Phase sollten Ereignisse identifiziert werden, die sich auf die Erreichung der Ziele auswirken können. Die Identifizierung sollte Fragen zur Art des Risikos, zum Zeitpunkt des Ereignisses, zum Ort oder dazu umfassen, wie Ereignisse das Erreichen von Zielen verhindern, verschlechtern, verzögern oder verbessern können.

2.1.3. Risikoabschätzung


Der nächste Schritt besteht darin, vorhandene Kontrollen und Risikoanalysen hinsichtlich der Wahrscheinlichkeit sowie hinsichtlich möglicher Konsequenzen zu identifizieren. Im Zusammenhang mit diesem Artikel wird für die Wahrscheinlichkeit oder Wahrscheinlichkeit des Auftretens von Risiken eine Skala von 1 (unwahrscheinlich) bis 5 (häufig) verwendet. Die Auswirkungen von Ereignissen werden auf einer Skala von 1 (vernachlässigbar) bis 5 (extrem) gemessen. Wie in Tabelle 1 gezeigt, weist das Produkt aus Wahrscheinlichkeit und Auswirkung ein „Risikoniveau“ zwischen 1 und 25 auf. Das



geschätzte Risikoniveau kann mit vordefinierten Kriterien verglichen werden, um ein Gleichgewicht zwischen potenziellen Vorteilen und nachteiligen Ergebnissen herzustellen. Auf diese Weise können Sie die Prioritäten des Managements beurteilen.



Kritische Risiken (siehe Tabelle 2), dh solche, die auftreten können und schwerwiegende oder extreme Konsequenzen für die Unternehmensziele haben, sollten Vorrang haben.

2.1.4. Risiko-Reaktion


Der letzte Schritt besteht in Entscheidungen darüber, wie auf Risiken reagiert werden soll. Einige Risiken, die unter einem festgelegten Risiko liegen, können ignoriert oder toleriert werden. Für andere können die Kosten für die Risikominderung so hoch sein, dass sie den potenziellen Nutzen überwiegen. In diesem Fall kann die Organisation beschließen, die relevanten Aktivitäten abzubrechen. Risiken können auch auf Dritte übertragen werden, beispielsweise auf Versicherungen, die die entstandenen Kosten kompensieren. Die letzte Option besteht darin, Risiken bei der Definition von Strategien und Maßnahmen zu berücksichtigen, die Kosten mit potenziellen Vorteilen in Einklang bringen. Daher wird die Organisation über die Umsetzung von Strategien zur Maximierung des Nutzens und zur Minimierung potenzieller Kosten entscheiden.



2.2. Qualitätssysteme


Die Task Force, die sich aus Vertretern nationaler und internationaler statistischer Organisationen zusammensetzt, hat 2014 einen vorläufigen Qualitätsrahmen für Statistiken aus Big Data entwickelt. Die Task Force arbeitete unter der Schirmherrschaft des UNECE / HLG-Projekts „Die Rolle von Big Data bei der Modernisierung der statistischen Produktion“. Er erweiterte bestehende Qualitätssysteme zur Auswertung von Statistiken aus administrativen Datenquellen um Qualitätsindikatoren, die für große Datenquellen als relevant angesehen wurden.

Innerhalb dieses Systems wird zwischen den drei Phasen eines Geschäftsprozesses unterschieden: Input, Produktivität und Output. Die Eingangsphase entspricht den GSBP-Phasen „Design“ und „Collection“, der Leistung für die Phasen „Process“ und „Analysis“, und die Ausgabe entspricht der Phase „Propagation“.

Die Struktur verwendet eine hierarchische Struktur, die der von Statistics Netherlands entwickelten Verwaltungsdatenstruktur entnommen wurde (7 Daas, P., S. Ossen, R. Vis-Visschers und J. Arends-Toth, (2009), Checkliste für die Qualität Auswertung administrativer Datenquellen (Statistik Niederlande, Den Haag / Heerlen). Qualitätsdimensionen sind in eine hierarchische Struktur eingebettet, die als Hyperräume bezeichnet wird. Die drei definierten Hyperdimensionen sind "Quelle", "Metadaten" und "Daten". Qualitätsmessungen sind in diese Hyperdimensionen eingebettet und jeder Produktionsstufe zugeordnet. Für die Eingabephase wurden zusätzliche Aspekte vorgeschlagen: „Vertraulichkeit und Vertraulichkeit“, „Komplexität“ (gemäß der Datenstruktur), „Vollständigkeit“ der Metadaten und „Konnektivität“ (die Fähigkeit, Daten mit anderen Daten zu verknüpfen).zum Standardqualitätsmodell hinzufügen. Für jeden der Qualitätsindikatoren werden Faktoren im Zusammenhang mit ihrer Beschreibung sowie mögliche Indikatoren vorgeschlagen.

Im Rahmen dieses Artikels können Risiken von diesen Faktoren ausgeschlossen werden. Zum Beispiel sind Faktoren, die berücksichtigt werden müssen, um die Qualität des institutionellen / geschäftlichen Umfelds zu messen, die Nachhaltigkeit des Datenanbieters. Ein damit verbundenes Risiko kann sein, dass die Daten zukünftig nicht mehr beim Datenanbieter verfügbar sind. Ein weiteres Beispiel betrifft den kürzlich vorgeschlagenen Aspekt von Qualität, Datenschutz und Sicherheit. Ein wichtiger Faktor ist die „Wahrnehmung“, dh mögliche negative Wahrnehmungen der beabsichtigten Verwendung bestimmter Datenquellen durch verschiedene Interessengruppen.

3. Risiken im Zusammenhang mit dem Datenzugriff


3.1. Fehlender Zugriff auf Daten
3.1.1. Beschreibung


Dieses Risiko besteht aus einem Projekt im Zusammenhang mit der Entwicklung von BOSP, das keinen Zugriff auf die erforderliche Big Data Source (BDS) erhält.

Bis heute hat das OSC auf die harte Tour gelernt, dass es manchmal ein unüberwindbares Hindernis ist, selbst aus den Startblöcken herauszukommen und diesen Zugang zu erhalten. Manchmal ist es für Test- / Forschungszwecke einfach, auf eine bestimmte Quelle zuzugreifen, z. B. auf Anrufdatensätze (Call Data Records, CDR), aber für Produktionszwecke ist es (aus rechtlichen oder kommerziellen Gründen) viel schwieriger, darauf zuzugreifen.

3.1.2. Wahrscheinlichkeit


Die Wahrscheinlichkeit hängt weitgehend von den Eigenschaften des BDS ab. Wenn es um große Verwaltungsdaten geht, kann sie nur 1 betragen, insbesondere wenn (wie dies bei Verkehrsschleifendaten der Fall ist, die von Daas et al. Untersucht wurden. 8 Daas, P., M. Puts, B. Buelens und P. van den Hurk. 2015. „Big Data als Quelle für amtliche Statistiken.“ Journal of Official Statistics 31 (2). (In Kürze; Veröffentlichung für Juni 2015 vorgesehen.)) Es gibt keine Probleme beim Schutz personenbezogener Daten. Wenn der BDS-Fall einer Privatperson gehört, insbesondere wenn er sensibel (z. B. aus datenschutzrechtlicher Sicht) oder wertvoll (aus kommerzieller Sicht) ist, kann die Wahrscheinlichkeit sehr hoch sein (5).

3.1.3. Beeinflussen


Die Auswirkungen hängen vom BOSP und der Art und Weise ab, wie Sie BDS verwenden. Wenn sich das BDS in der Mitte befindet, kann die Auswirkung sehr hoch sein (4 = es ist überhaupt nicht möglich, BOSP zu produzieren), während es niedriger sein kann, wenn es immer noch möglich ist, BOSP zu produzieren (wenn auch mit geringerer Qualität), basierend auf anderen DRM, die Exposition im Bereich von 2-3.

3.1.4. Verhütung


Um das Risiko eines fehlenden Zugriffs zu verringern, sollten Sie vorläufige Kontakte mit dem Datenanbieter herstellen und eine langfristige Datenzugriffsvereinbarung abschließen. Darüber hinaus sollte eine umfassende rechtliche Überprüfung der spezifischen Kombination von BDS und BOSP durchgeführt werden. Die Möglichkeiten des Zugriffs auf Daten sollten auch anhand der aktuellen oder zukünftigen Gesetzgebung bewertet werden.

3.1.5. Erweichung


Wenn es alternative BDS gibt, die für BOSP verwendet werden können, können sie stattdessen untersucht werden. Wenn es keine Möglichkeit gibt, BOSP ohne BDS zu produzieren, und wenn es unmöglich ist, den fehlenden Zugang zu überwinden, müssen die Bemühungen gestoppt werden und das neue BOSP wird nicht freigegeben.

3.2. Verlust des Zugriffs auf Daten
3.2.1. Beschreibung


Dieses Risiko besteht darin, dass das statistische Amt das dem BOSP zugrunde liegende BDS verliert.

3.2.2. Wahrscheinlichkeit


Wenn BOSP bereits hergestellt wird, besteht normalerweise eine gewisse Stabilität, und in einigen Fällen kann das Risiko sehr gering sein (1). Insbesondere bei privaten Unternehmen, mit denen nicht ausreichend feste Vereinbarungen getroffen wurden, stört beispielsweise nichts. neue Leitlinien zur Änderung der Richtlinien für die Datenberichterstattung, die zu einem moderaten Risiko einer Lücke führen (3). Wenn BDS mit instabilen Aktivitäten verbunden ist, besteht außerdem immer das Risiko, dass der Anbieter einfach bankrott geht, und das Risiko kann sogar noch höher sein (4).

3.2.3. Beeinflussen


Da die Herstellung des vorhandenen BOSP möglicherweise nicht möglich ist, treten häufig sehr starke Auswirkungen auf (5). In anderen Fällen, wenn BDS ein Hilfsmittel ist, kann die Auswirkung eher ein Qualitätsverlust mit einer Auswirkung im Bereich von 2-3 sein.

3.2.4. Verhütung


Die Präventionsstrategie ähnelt der Strategie des fehlenden Zugangs zu Daten, wobei jedoch auch in der Produktionsumgebung verstärkt auf ständige Wachsamkeit Wert gelegt wird.

Es kann auch eine Strategie sein, nicht alle Eier in einen Korb zu legen (d. H. Mehrere BDS unter jedem BSOP zu haben), aber es kann entweder unpraktisch oder zu teuer sein.

3.2.5. Erweichung


Wenn BDS das Ergebnis nicht nachhaltiger Aktivitäten ist, ist es möglich, dass nach und nach ein neues BDS verfügbar wird, das dasselbe soziale Phänomen widerspiegelt. Es wäre jedoch zu spät, einen „Marktscan“ einzuleiten, sobald die BSOP abstürzt. ständige Wachsamkeit ist erforderlich - und dies kann schwierig zu erreichen sein.

4. Rechtliches Risiko


4.1. Nichteinhaltung der einschlägigen Rechtsvorschriften
4.1.1. Beschreibung


Dieses Risiko besteht aus einem Projekt im Zusammenhang mit der Entwicklung von BOSP, bei dem die einschlägigen Rechtsvorschriften nicht berücksichtigt werden, wodurch BOSP nicht mit den festgelegten Rechtsvorschriften vereinbar ist. Dies kann für Datenschutzgesetze, regulatorische Reaktionslast usw. gelten.

4.1.2. Wahrscheinlichkeit


Angesichts der Unkenntnis von OSC über Big Data ist es möglich, dass versehentliche (3) Verstöße auftreten. Die Wahrscheinlichkeit ist normalerweise mit BDS verbunden, da es weniger wahrscheinlich ist, dass eine Fehlanpassung auftritt, je weniger „empfindlich“ die Quelle ist.

4.1.3. Beeinflussen


Die Auswirkungen sind in der Regel kritisch (4) in dem Sinne, dass für eine unangemessene Produktion BOSP gestoppt werden muss (oder, falls es die Implementierungsphase noch nicht erreicht hat, seine Entwicklung gestoppt werden sollte). Es kann sogar extrem sein (5), da Reputationsrisiken aufgrund unangemessener („illegaler“) amtlicher Statistiken Konsequenzen haben können

4.1.4. Verhütung


Für jedes BOSP ist eine gründliche rechtliche Analyse erforderlich - und dies geschieht in mehreren Phasen (was in der Entwicklungs- / Explorationsphase akzeptabel ist, stimmt möglicherweise nicht in der Implementierungs- / Produktionsphase). Dies kann wiederum zu einem BOSP-Reengineering führen, um es kompatibel zu machen.

4.1.5. Erweichung


Abhängig vom Schweregrad der Diskrepanz kann der erste Schritt darin bestehen, BOSP offline zu schalten.

BOSP-Reengineering, um es kompatibel zu machen, kann eine Option sein, aber ob das BOSP auf diese Weise „gespeichert“ wird, hängt stark von der Art der Nichtübereinstimmung ab.

4.2. Unerwünschte Änderungen im rechtlichen Umfeld
4.2.1. Beschreibung


In Bezug auf die Entwicklung des BOSP können neue Rechtsvorschriften eingeführt werden, die das BOSP effektiv inkompatibel machen.

4.2.2. Wahrscheinlichkeit


Es ist möglich, dass Befürworter eines verbesserten Datenschutzes neue Anforderungen einführen können, die sich direkt oder indirekt auf die Fähigkeit auswirken, bestimmte BOSPs zu erstellen. Eine Wahrscheinlichkeit im Bereich von 2-3 scheint eine realistische Schätzung zu sein.

4.2.3. Beeinflussen


Die Exposition ist normalerweise kritisch (4) in dem Sinne, dass eine unangemessene Produktion ein Herunterfahren des BOSP erfordert.

4.2.4. Verhütung


Bestimmte Geschäftsinformationen sollten regelmäßig durchgeführt werden, um die Entwicklung der Rechtsvorschriften zu überwachen - möglicherweise auch, um sie zu beeinflussen, und um Argumente für offizielle Statistiken in relevanten (z. B. beratenden) Foren vorzubringen.

4.2.5. Erweichung


Sofern eine proaktive Überwachung durchgeführt wurde, kann es sein, dass das BOSP-Reengineering ab dem ersten Tag seines Inkrafttretens Zeit hat, es an die neuen Rechtsvorschriften anzupassen.

Wenn andererseits die Überwachung nicht durchgeführt wurde, so dass die neue Gesetzgebung „überraschend“ war, oder wenn die Gesetzgebung so radikal ist, dass es keine Möglichkeit gibt, BOSP inkompatibel zu machen, wäre die einzige Option, BOSP zu deaktivieren.

5. Risiken im Zusammenhang mit Datenschutz und Sicherheit


5.1. Verstöße gegen die Datensicherheit
5.1.1. Beschreibung


Dieses Risiko bezieht sich auf den unbefugten Zugriff auf Daten, die in statistischen Ämtern gespeichert sind. Dritte können Daten erhalten, die unter das Embargo fallen, beispielsweise aufgrund der Freigabe des Zeitplans (9 Für jeden BOSP, der vollständig auf einem einzelnen BDS basiert, ist es unvermeidlich, dass die Daten dem ursprünglichen Dateneigentümer implizit bekannt sind, und wenn die Methodik transparent ist, werden auch Statistiken abgeleitet Diese Situation wird hier nicht angesprochen, sondern es besteht die Gefahr eines Missbrauchs der Autorität durch die Eigentümer.) (10 Darüber hinaus können diese Daten das Risiko einer Verletzung der Vertraulichkeit bergen. Dieses Risiko wird gesondert betrachtet.) Dies können beispielsweise die Daten sein, die Anleger an der Börse erwarten.

5.1.2. Wahrscheinlichkeit


In Bezug auf die technischen Aspekte des Schutzes der IT-Umgebung im statistischen Amt ist das Risiko für BDS ebenso wahrscheinlich wie für herkömmliche Quellen. Es gibt jedoch zwei zusätzliche Aspekte, die berücksichtigt werden müssen.

Erstens ist bei einigen BDS das Gesamtrisiko leicht erhöht, da die Datensicherheit des ursprünglichen Eigentümers beeinträchtigt werden kann. Dies kann beispielsweise auf Industriespionage oder Hacking zurückzuführen sein.

Zweitens steigt das Risiko, böswillige Absichten zu erregen, sobald potenziell wertvolle Daten im Büro gespeichert werden. Wenn die gespeicherten Daten für das Unternehmen von sehr hohem Wert sind, sollten Sie auf eine sehr hohe Wahrscheinlichkeit von Angriffen auf die IT-Infrastruktur vorbereitet sein, sodass die Wahrscheinlichkeit eines Hacks möglicherweise höher ist (4).

Wenn die gespeicherten Daten nicht als wertvoll wahrgenommen werden, scheint die Gesamtwahrscheinlichkeit nicht sehr hoch zu sein - von (1) bis (3) abhängig von der Datenquelle.

5.1.3. Beeinflussen


Der potenzielle Schaden für Ihren Ruf kann groß sein (5). Was bei BDS wichtig ist, ist, dass bei einem Sicherheitsverstoß beim ursprünglichen Eigentümer die Auswirkungen auf das Ansehen des statistischen Amtes voraussichtlich geringer sind als bei einem Verstoß gegen die darin gespeicherten Daten.

Andererseits ist es möglich, dass ein Verstoß im Statistikamt negative Folgen für den ursprünglichen Eigentümer hat. In diesem Fall ist wiederum ein starker negativer Einfluss aufgrund eines Vertrauensschadens zwischen dem Lieferanten und dem statistischen Amt möglich (5).

5.1.4. Verhütung


Was für den BDS-Fall charakteristisch ist, ist, dass die Sicherheitsverfahren des ursprünglichen Eigentümers angemessen sein können. Es ist unwahrscheinlich, dass statistische Ämter über Prüfungsausweise verfügen, um dies zu kontrollieren. Eigentümer, deren Daten zur Erstellung von Aufzeichnungen mit vertraulichen Veröffentlichungsplänen verwendet werden, sollten über die Auswirkungen potenzieller Sicherheitsverletzungen in ihren Räumlichkeiten auf die amtliche Statistik informiert werden und eine offizielle Garantie erhalten, dass angemessene Sicherheitsverfahren angewendet werden.

Ein direkter Weg, um eine schwerwiegende Auswirkung einer Sicherheitsverletzung in den Räumlichkeiten des Eigentümers auf das statistische Amt zu verhindern, besteht darin, mehrere Quellen für dasselbe Produkt zu verwenden, sodass eine gefährdete Quelle nicht ausreicht, um die endgültige Zahl zu erhalten. Der Vorteil dieses Ansatzes besteht darin, dass das statistische Amt mehr Kontrolle hat.

Um die negativen Folgen einer Sicherheitsverletzung im statistischen Amt für den ursprünglichen Dateneigentümer zu verhindern, müssen Sie eine Arbeitsweise finden, bei der keine Daten übertragen werden, die aus Sicht des Eigentümers potenziell sensibel sind, an das statistische Amt. In roher Form. Ein möglicher vorbeugender Ansatz ist die Verwendung aggregierter Daten. Es sollte jedoch beachtet werden, dass einige Formen der Aggregation, beispielsweise solche, die die Identifizierung einzelner Mitglieder der Bevölkerung verhindern sollen, in diesem Fall möglicherweise nicht angemessen sind. Ein Grund dafür kann sein, dass das Risiko für den Eigentümer mit dem kommerziellen Wert der Daten verbunden ist, der auch nach Erreichen der Anonymität erheblich sein kann.

5.1.5. Erweichung


Im Falle eines Verstoßes gegen die vom statistischen Amt verwalteten Daten sind die Minderungsmaßnahmen dieselben wie bei herkömmlichen Quellen, wenn keine negativen Auswirkungen auf den ursprünglichen Eigentümer aufgetreten sind.

Im Falle negativer Konsequenzen für den ursprünglichen Eigentümer sollte das statistische Amt seine Sicherheitsverfahren überprüfen und verstärken und sein Engagement dafür klar kommunizieren und demonstrieren.

Wenn der Verstoß in den Räumlichkeiten des ursprünglichen Eigentümers aufgetreten ist, sollte das zuständige statistische Amt klar über die Situation berichten und darauf bestehen, die Sicherheitsverfahren des Eigentümers zu verbessern. Bei Bedarf können Sie nach einem alternativen Lieferanten suchen.

5.2. Datenschutzverletzungen


5.2.1. Beschreibung


Dies birgt das Risiko, dass die Vertraulichkeit einer oder mehrerer Personen aus der statistischen Population verletzt wird. Dies kann auf einen Angriff auf die IT-Infrastruktur aufgrund des Drucks anderer Regierungsbehörden oder auf unzureichende Kontrollen bei der Offenlegung von Statistiken zurückzuführen sein.

5.2.2. Wahrscheinlichkeit


Wie beim Risiko von Datenschutzverletzungen ändern sich die Spezifikationen für die Speicherung von Mikrodaten mit dem Hinzufügen von BDS nicht wesentlich. Hier gibt es jedoch Warnungen.

Mikrodaten aus bestimmten Datenquellen können von hohem geschäftlichen Wert sein. Wenn Sie sie speichern, erhöht sich die Wahrscheinlichkeit von Angriffen.

Darüber hinaus können einige Mikrodaten für andere Regierungsbehörden wie Strafverfolgung, Steuern oder Gesundheitswesen möglicherweise sehr nützlich sein. Unter bestimmten Umständen kann die Einhaltung des Grundsatzes der statistischen Vertraulichkeit unter großen Druck geraten.

In Bezug auf Fehler bei der Kontrolle der Offenlegung statistischer Informationen gibt es bereits eine etablierte Praxis. Das BDS kann die Erstellung von Statistiken für kleine Untergruppen der Bevölkerung ermöglichen oder die Möglichkeit bieten, aggregierte Daten aus verschiedenen BDS zu verknüpfen, was die Wahrscheinlichkeit eines Risikos erhöhen kann. Darüber hinaus erfordern neue Quellen jedoch neue methodische Entwicklungen, sodass die reale Gefahr darin besteht, dass die Methodik zur Kontrolle der Offenlegung nicht ordnungsgemäß aktualisiert wird.

Im Allgemeinen kann mit vernünftigen vorbeugenden Maßnahmen die Wahrscheinlichkeit auf einem vernünftigen Niveau gehalten werden, aber da es viele verschiedene und unterschiedliche Faktoren gibt, scheint die entsprechende Bewertung hier zu sein, dass die Wahrscheinlichkeit hoch ist (4).

5.2.3. Beeinflussen


Der potenzielle Schaden für Ihren Ruf kann groß sein (5). Wie beim Risiko einer Datenverletzung kann eine Verletzung des statistischen Amtes negative Folgen für den ursprünglichen Eigentümer haben. Hier kann der Einfluss eines solchen Ereignisses möglicherweise noch größer sein, insbesondere wenn sich die aktuellen Trends in der öffentlichen Meinung fortsetzen. Der Schaden zwischen dem Datenanbieter und dem statistischen Amt wird voraussichtlich ebenfalls sehr groß sein.

5.2.4. Verhütung


Ein unverkennbarer Weg, um dieses Risiko zu verhindern, besteht darin, überhaupt keine Mikrodaten von BDS zu haben (obwohl das Speichern anderer Mikrodaten immer noch ein entsprechendes Risiko birgt, wenn auch mit einer anderen Wahrscheinlichkeit und Auswirkung). Auf diese Weise müssen, wie im Fall eines Risikos einer Verletzung der Datensicherheit, andere Methoden entwickelt werden, um die Daten für statistische Zwecke zu verwenden. Darüber hinaus bedeutet die unterschiedliche Art der Quellen, dass neue Methoden mit konkurrierenden Zielen entwickelt werden müssen, um so viele nützliche Informationen wie möglich zu extrahieren und die Privatsphäre vor Gefahren zu schützen.

Bei der Speicherung von Mikrodaten müssen die IT-Sicherheits- und Zugriffskontrollmechanismen auf dem erforderlichen Niveau sein und ständig überwacht werden. Besonderes Augenmerk muss auf die Sicherheit neuer Methoden zur Datenerfassung gelegt werden. Ironischerweise könnte dieser neue Weg der physische Transport von Speichergeräten (wie Festplatten) sein. Wenn diese Methode verwendet wird, muss die Zustellung physisch sicher sein und es muss eine Verschlüsselung verwendet werden.

5.2.5. Erweichung


Die mildernden Maßnahmen sind hier grundsätzlich die gleichen wie bei Datenschutzverletzungen. Wenn die Ursache des Verstoßes der Druck einer anderen Regierungsbehörde ist, sollten Sie die Gelegenheit nutzen, um die Unabhängigkeit der Regierungsführung zu stärken, damit solche Verstöße in Zukunft noch schwieriger werden.

5.3. Manipulationen mit einer Datenquelle
5.3.1. Beschreibung


Datenanbieter von Drittanbietern, wie z. B. Social Media-Daten oder freiwillig bereitgestellte Daten, sind manipulationsgefährdet. Dies kann entweder vom Datenanbieter selbst oder von Dritten erfolgen. Beispielsweise können viele falsche Nachrichten in sozialen Netzwerken erzeugt werden, um den auf der Grundlage dieser Daten erhaltenen statistischen Index auf die eine oder andere Weise zu verschieben, wenn bekannt ist, dass der Index auf der Grundlage dieser Daten berechnet wird.

Bei freiwillig bereitgestellten Daten kann es vorkommen, dass Freiwillige eine bestimmte Interessengruppe mit einer bestimmten Agenda vertreten.

5.3.2. Wahrscheinlichkeit


Bei Daten, deren Manipulation von großem Nutzen sein kann, ist die Wahrscheinlichkeit höher. Dies können Daten sein, für die Statistiken interessant sind, beispielsweise die Börse. Angesichts der jüngsten Skandale im Zusammenhang mit LIBOR und Forex kann davon ausgegangen werden, dass Versuche, Daten zu manipulieren, wahrscheinlich sind, solange Anreize bestehen.

Für Statistiken, die auf freiwillig bereitgestellten Daten basieren, müssen Sie sich nur die jüngste PR-Praxis ansehen, Personen einzustellen, die vorgeben, eine bestimmte Meinung zu haben, und die für die öffentliche Äußerung bezahlt werden (z. B. in Internetforen), um zu dem Schluss zu kommen, dass die Wahrscheinlichkeit nicht gering ist . Im Allgemeinen erscheint eine Zahl von 3 bis 4 angemessen.

5.3.3. Beeinflussen


Das große Problem bei den Manipulationen ist, dass sie ohne Erkennung lange halten können. Wenn die Manipulation lange andauert, kann der Einfluss auf die Qualität erheblich werden. Darüber hinaus kann der Schaden für das Vertrauen der Öffentlichkeit in amtliche Statistiken ebenfalls groß sein, insbesondere wenn die Rolle der statistischen Ämter als Anbieter von Qualitätsdaten öffentlich hervorgehoben wird. Wenn Manipulationen jedoch rechtzeitig erkannt und dann veröffentlicht werden, kann dies die öffentliche Wahrnehmung verbessern. Außer in extrem schlimmen Fällen kann man sich den maximalen Effekt vorstellen (3).

5.3.4. Verhütung


Die Durchführung regelmäßiger Kontrollübungen mit alternativen Quellen ist einer der möglichen präventiven Ansätze. Diese alternativen Quellen können traditionell oder unterschiedlich sein. Die Verwendung von Statistiken, die auf einer Kombination von Quellen basieren, kann die erheblichen Auswirkungen von Manipulationen beeinträchtigen. In Fällen, in denen sie Angst vor vom Anbieter eingeleiteten Manipulationen haben, können rechtliche Vereinbarungen auch eine Möglichkeit sein, solche Praktiken zu verhindern.

5.3.5. Erweichung


In Bezug auf die Schädigung der Öffentlichkeitsarbeit unterscheiden sich die Maßnahmen, die hier ergriffen werden sollten, nicht wesentlich von Maßnahmen zur Bekämpfung einer Krise.

In Bezug auf die Datenqualität wäre es hilfreich, wenn frühere Daten korrigiert werden könnten, damit auch mit einer großen Verzögerung die richtige Serie
erstellt werden kann. Regelmäßiges Benchmarking kann dabei hilfreich sein. Bitte beachten Sie, dass sich das Ziel des Benchmarking in diesem Fall geringfügig vom Ziel der Prävention unterscheidet. Um dies zu verhindern, ist es wichtig, eine verdächtige Nichtübereinstimmung zwischen den Benchmarkdaten und dem BDS schnell zu erkennen und zu untersuchen. Es ist immer nützlich, die Auswirkungen alter nützlicher Daten abzuschwächen.

Darüber hinaus sollte darauf geachtet werden, ähnliche Manipulationen in Zukunft zu verhindern. In besonders heiklen Fällen kann dies bedeuten, dass potenziell redundante Daten von mehreren Lieferanten zur vergleichenden Analyse empfangen werden.

5.4. Unerwünschte öffentliche Wahrnehmung der Nutzung von Big Data durch offizielle Statistiken
5.4.1. Beschreibung


Die Medien und die breite Öffentlichkeit reagieren sehr sensibel auf Fragen der Vertraulichkeit und der Verwendung personenbezogener Daten aus großen Datenquellen, insbesondere im Zusammenhang mit der sekundären Verwendung von Daten durch Regierungsbehörden, die administrative oder rechtliche Maßnahmen gegen Bürger ergreifen. Eine negativ wahrgenommene Verwendung kann die Positionierung der Geschwindigkeitsregelung auf der Grundlage der Analyse von Navigationsdaten sein (11 Siehe www.theguardian.com/technology/2011/apr/28/tomtom-satnav-data-police-speed-traps ).
Ein spezieller Fall von TomTom Netherlands führte zu einem deutlichen Rückgang der Nachfrage nach TomTom-Geräten und führte zu der Entscheidung des Unternehmens, den Zugriff auf Daten zu beschränken. In diesem speziellen Fall bezogen sich die Daten auf Einzelpersonen, jedoch auf Geschwindigkeitsniveaus entlang von Straßenabschnitten.

Es kann jedoch Anwendungen mit Big Data geben, die von der Öffentlichkeit gut angenommen werden. Ein Beispiel sind Anwendungen, die Verbrechen wie Einbruch auf der Grundlage von Big-Data-Methoden verhindern.

Eine positive und negative öffentliche Meinung kann einen starken Einfluss auf die Verwendung von BDS im Zusammenhang mit der Erstellung amtlicher Statistiken haben.

Die Folge einer negativen öffentlichen Wahrnehmung kann sein, dass:

  • BDS wird statistischen Ämtern nicht mehr zur Verfügung stehen, entweder aufgrund von Entscheidungen des Datenanbieters oder aufgrund von Regierungsentscheidungen, keine Daten zu verwenden, oder
  • Die Datennutzung ist begrenzt, was bei bestimmten BOSP die Produktion beeinträchtigen kann.

5.4.2. Wahrscheinlichkeit


Faktoren, die die Wahrscheinlichkeit eines solchen Ereignisses oder seine Auswirkungen auf die Erstellung von Statistiken beeinflussen können:

  • Datenvertraulichkeit, d. h. wie leicht Personen identifiziert werden können;
  • Die Menge an Informationen, die Daten über Personen preisgeben, wird beispielsweise durch die Verknüpfung von Daten aus verschiedenen Quellen erhöht.
  • Datentyp, beispielsweise Finanztransaktionen, werden als vertraulicher wahrgenommen als andere Daten.
  • die Art der möglichen Maßnahmen, die gegen die Bürger ergriffen werden können, z. B. gute Leute für die Beschleunigung;
  • unscharfes rechtliches Umfeld, in dem Datenanbieter und -nutzer tätig sind oder wenn rechtliche Bedingungen im Widerspruch zu öffentlichen ethischen Meinungen / Standards stehen;
  • ; . , , . , , .

Eine Schätzung des Zeitpunkts unerwünschter Ereignisse ist nicht möglich, da die öffentliche Mobilisierung häufig durch die Berichterstattung über Ereignisse ausgelöst wird, die sich negativ auf die Bürger auswirken. Mit der zunehmenden Nutzung von Big Data durch Regierungen und private Unternehmen und insbesondere mit der aktiven Vermarktung von Daten für andere Zwecke als denjenigen, die zu ihrer ersten Erfassung geführt haben, ist es jedoch wahrscheinlicher, dass solche Ereignisse eintreten.

Ereignisse, die die öffentliche Wahrnehmung stark beeinflussen, sind nicht häufig, sondern eher zufällig (3) und fern (2). Mit zunehmender Verwendung großer Datenquellen steigt auch die Wahrscheinlichkeit.

5.4.3. Beeinflussen


Die Auswirkungen des Ereignisses hängen stark von den oben diskutierten Faktoren ab. Im Allgemeinen sind die Auswirkungen auf die bereits etablierte Erstellung statistischer Daten schwerwiegender, da die Maßnahme möglicherweise eingestellt werden sollte. Die Auswirkungen hängen auch von der Verfügbarkeit alternativer Datenquellen ab, obwohl es vorkommen kann, dass die öffentliche Wahrnehmung im Falle des Eintretens des Ereignisses nicht zwischen verschiedenen Datenquellen unterscheidet. Nach dem derzeitigen Stand der Nutzung von Big Data können diese Quellen herkömmliche Datenquellen nicht vollständig ersetzen, sondern vorhandene Statistiken ergänzen. Dadurch werden die Auswirkungen von Ereignissen verringert. Daher wird die Auswirkung des Ereignisses im Bereich von 2 (unbedeutend) bis 3 (Haupt) berücksichtigt. In der Produktionsphase kann der Einfluss auf 4 (kritischer Wert) ansteigen.

5.4.4. Verhütung


Vorbeugende Maßnahmen können die Definition ethischer Grundsätze für Big Data in der amtlichen Statistik sein. Ethische Richtlinien sollten auf Grundsätzen wie einem Verhaltenskodex für die europäische Statistik oder den Grundprinzipien der amtlichen Statistik basieren (12 unstats.un.org/unsd/dnss/gp/fundprinciples.aspx ). Der nächste Schritt wird darin bestehen, eine Kommunikationsstrategie zu definieren, die die Ergebnisse ethischer Richtlinien für die Öffentlichkeit veröffentlicht und dazu verwendet werden kann, die Interessengruppen über den ethischen Einsatz von BDS für BOSP zu informieren.

Eine separate Risikobewertung für ein bestimmtes BDS kann durchgeführt werden, um Risiken zu identifizieren und vorbeugende oder mildernde Maßnahmen auf der Grundlage ethischer Grundsätze vorzuschlagen. Eine separate Risikobewertung kann auch Interessengruppen wie Datenschutzbehörden umfassen, um sicherzustellen, dass alle Risiken identifiziert und Maßnahmen gerechtfertigt sind.

5.4.5. Erweichung


Eine Kommunikationsstrategie sollte auch Maßnahmen für den Fall einer zunehmenden negativen Einstellung der Öffentlichkeit umfassen. Eine separate Risikobewertung sollte positive Beispiele für die Verwendung von Daten und Maßnahmen zur Verhinderung von Datenmissbrauch sammeln, die notwendigerweise auf politischer Ebene ergriffen werden müssen, und die statistische Gemeinschaft kann sie möglicherweise nicht wirksam beeinflussen.

5.5. Vertrauensverlust - nicht aufgrund von Beobachtung erhalten
5.5.1. Beschreibung


Benutzer offizieller Statistiken haben normalerweise ein hohes Vertrauen in die Genauigkeit und Zuverlässigkeit von Statistiken. Dies basiert auf der Tatsache, dass die Erstellung statistischer Daten in eine zuverlässige und zugängliche methodische Basis eingebettet ist, sowie auf eine Dokumentation zur Qualität des statistischen Produkts. Zusätzlich basieren die meisten Statistiken auf Beobachtungen, d.h. erhalten aus Umfragen oder Volkszählungen, die eine leicht verständliche Beziehung zwischen Beobachtung und Statistik herstellen. Die Verwendung von BDS, die nicht für den Hauptzweck von Statistiken gesammelt werden, birgt das Risiko, dass diese Beziehungen verloren gehen und Benutzer das Vertrauen in die offiziellen Statistiken verlieren. Ein Beispiel für die letzte Runde (2010) der Volkszählung bezieht sich aufIn einigen Ländern wurden Statistiken unter Verwendung verschiedener Quellen und statistischer Modelle erstellt. In einer Reihe von Fällen haben die Interessengruppen Statistiken bestritten.

5.5.2. Wahrscheinlichkeit


Die Wahrscheinlichkeit eines Risikos hängt von Faktoren wie der Komplexität des statistischen / methodischen Modells, der Zuverlässigkeit der Beziehung zwischen BSD und BOSP oder der Konsistenz anderer Statistiken ab. Die Wahrscheinlichkeit sollte im Bereich von 3 (zufällig) bis 4 (wahrscheinlich) liegen, was bedeutet, dass dies mehrmals oder häufig vorkommen kann.

5.5.3. Beeinflussen


Die Auswirkungen des Eintretens eines Risikos hängen weitgehend davon ab, ob NSO die Richtigkeit und Zuverlässigkeit der Statistiken erfolgreich nachweisen können. Wenn dies nicht erreicht werden kann, können die Auswirkungen unter dem Gesichtspunkt des Vertrauensverlusts auch andere statistische Bereiche betreffen, dh die Zuverlässigkeit nicht nur einiger statistischer Daten, sondern auch Zweifel an der Organisation selbst aufkommen lassen. NSOs würden Wettbewerbsvorteile gegenüber anderen in diesem Bereich tätigen privaten Organisationen verlieren.

5.5.4. Verhütung


Vorbeugende Maßnahmen werden darin bestehen, eine wissenschaftlich fundierte Methodik zu entwickeln und zu veröffentlichen, die von der wissenschaftlichen Gemeinschaft anerkannt wird, Daten mit Qualitätsmetadaten anzureichern, die Konsistenz von BOSP mit Nicht-BOSP sicherzustellen und eine strenge Qualitätskontrolle durchzuführen.

Bevor mit der statistischen Erstellung begonnen wird, könnte das BOSP als experimentelles veröffentlicht werden, und interessierte Parteien würden aufgefordert, das BOSP herauszufordern, um das BOSP zu validieren oder zu verbessern.

5.5.5. Erweichung


Es sind zwei Fälle zu unterscheiden. Wenn die Statistiken umstritten sind, aber von hoher / ausreichender Qualität (korrekt / genau), würde es ausreichen, die Statistiken zu erklären und der Öffentlichkeit zugänglich zu machen und einfache Beispiele zum Verständnis bereitzustellen.

6. Qualifikationsrisiken


6.1.
6.1.1.


Die Analyse digitaler Spuren, die Personen im Verlauf ihrer Aktivitäten hinterlassen, erfordert bestimmte Datenanalysewerkzeuge, die derzeit in offiziellen Statistiken nicht am häufigsten verwendet werden. Erstens erfordert die Verwendung indirekter Daten über die Aktivitäten von Personen anstelle direkter Umfragen in Umfragen die Verwendung statistischer Modelle und damit von Inferenzfähigkeiten und maschinellem Lernen. Zweitens bestehen diese digitalen Aufzeichnungen aus Daten, die häufig nicht das für Umfrageergebnisse übliche Tabellenformat haben, wobei Zeilen einer statistischen Einheit entsprechen und Spalten mit spezifischen Merkmalen dieser statistischen Einheiten. Digitale Spuren werden auch in Form von Text, Ton, Bild und Video dargestellt.Das Extrahieren relevanter statistischer Informationen aus diesen Datentypen erfordert Kenntnisse in der Verarbeitung natürlicher Sprache, der Audioverarbeitung und der Bildverarbeitung. Drittens stellen diese Datenquellen in der Regel massive Datenmengen bereit, deren Verarbeitung ein gutes Verständnis der verteilten Rechenmethoden erfordert.

Das Risiko eines Expertenmangels besteht darin, Daten aus einer dieser neuen großen Datenquellen zu erhalten, da das statistische Amt diese nicht ordnungsgemäß verarbeiten und analysieren kann, da seine Mitarbeiter nicht über die erforderlichen Fähigkeiten verfügen.

6.1.2. Wahrscheinlichkeit


Die Wahrscheinlichkeit dieses Risikos hängt von drei Faktoren ab: 1) den spezifischen Arten von Fähigkeiten, die für jede Art von Big-Data-Quelle erforderlich sind, und der Wahrscheinlichkeit, dass das statistische Amt die Möglichkeit findet, eine solche Quelle zu untersuchen; 2) die derzeitige Verfügbarkeit der erforderlichen Fähigkeiten im statistischen Management; und 3) die Organisationskultur des statistischen Amtes.

In Bezug auf die Arten von Fähigkeiten, die erforderlich sein können, sollte beachtet werden, dass nicht alle Quellen alle oben aufgeführten Fähigkeiten erfordern. Einige (z. B. Daten wie Google Trends) erfordern kein verteiltes Rechnen, da sie bereits vom Dateninhaber vorverarbeitet wurden oder über Signalverarbeitungsfähigkeiten verfügen, und sie erfordern hauptsächlich statistische Modellierungsfähigkeiten. Es gibt jedoch eine Vielzahl von Big-Data-Quellen, von denen die meisten Kenntnisse in verteiltem Rechnen, Signalverarbeitung und maschinellem Lernen erfordern. Gleichzeitig erfordert die ordnungsgemäße Untersuchung dieser digitalen Pfade die Verarbeitung mehrerer Quellen. Daher besteht eine hohe Wahrscheinlichkeit, dass große Datenquellen, die dem statistischen Amt zur Verfügung stehen, diese ungewöhnlichen Fähigkeiten erfordern.und die Wahrscheinlichkeit dieses Risikos ist sehr hoch (5).

In Bezug auf die derzeitige Verfügbarkeit der erforderlichen Fähigkeiten hängt dies vom jeweiligen statistischen Amt ab. Auch wenn die Erhebungsmethode weniger verbreitet ist als die Erhebungsmethode, wird sie in der amtlichen Statistik in einzelnen Bereichen verwendet. Selbst wenn dies eine Umverteilung der Humanressourcen erfordert, können statistische Ämter daher selbst eine Lösung finden. Verteilte Computerkenntnisse, die sich hauptsächlich auf die IT beziehen, hängen davon ab, wie die IT-Infrastruktur in der Organisation verwaltet wird. Je nachdem, wie außerhalb der IT-Abteilung liegt, können Lösungen im Rahmen bestehender Vereinbarungen gefunden werden. In den meisten offiziellen statistischen Ämtern gibt es jedoch im Allgemeinen keine Fähigkeiten zur Signalverarbeitung und zum maschinellen Lernen.und die Anwendung dieser Fähigkeiten kann nicht ausgelagert werden, da sie von Experten auf dem Gebiet der Statistik angewendet werden sollten. Unter diesem Gesichtspunkt scheint daher die Wahrscheinlichkeit dieses Risikos ebenfalls sehr hoch zu sein (5).

Die Organisationskultur wird auch die Wahrscheinlichkeit dieses Risikos beeinflussen. Wenn Mitarbeiter bereit sind, die erforderlichen Fähigkeiten durch Selbstlernen zu erwerben, kann ein Unternehmen auf eine Situation mit einer neuen Datenquelle reagieren, für die andere als normale Fähigkeiten erforderlich sind. Dies hängt von der Organisationskultur des statistischen Amtes ab, nämlich davon, ob die Mitarbeiter zum Erlernen neuer Fähigkeiten angeregt werden und ob dies den Mitarbeitern Zeit für unabhängige Schulungen lässt.

Die Wahrscheinlichkeit, dass das statistische Amt aufgrund mangelnder Fähigkeiten seiner Mitarbeiter keine neuen Datenquellen verarbeiten und analysieren kann, liegt daher je nach Selbstlernkultur des Unternehmens zwischen wahrscheinlich (4) und häufig (5).

6.1.3. Beeinflussen


Ein statistisches Amt, das aufgrund mangelnder Fähigkeiten seiner Mitarbeiter keine großen Datenquellen verarbeiten und analysieren kann, kann zwei mögliche negative Folgen haben: 1) Die Datenquelle wird nicht untersucht, zumindest nicht vollständig. 2) Die Quelle wird missbraucht.

Das Fehlen der Fähigkeit, das Potenzial einer wertvollen Big-Data-Quelle vollständig auszuschöpfen, wird kurzfristig nur geringe Auswirkungen haben (2), da statistische Ämter tatsächlich über statistische Instrumente verfügen, um den aktuellen Bedarf zu decken. Langfristig (und möglicherweise sogar mittelfristig) werden die Folgen des Verlusts dieser Chance jedoch von entscheidender Bedeutung sein (4), da statistische Ämter zunehmend dem Wettbewerb privater Anbieter ausgesetzt sind, die nicht die gleiche institutionelle Struktur haben, die es ihnen ermöglicht, die Gesellschaft zu garantieren statistische Unabhängigkeit.

Eine missbräuchliche Verwendung der Quelle hat jedoch äußerst negative Folgen für die statistischen Ämter, da die amtlichen Statistiken in hohem Maße von ihrem Ruf bei der Erfüllung ihrer Mission abhängen. Wir können jedoch argumentieren, dass die wichtigste Fähigkeit, die, wenn sie übersehen wird, zu falschen Ergebnissen führen kann, die statistische Schlussfolgerung ist, insbesondere die auf dem Modell basierende Schlussfolgerung, die ebenfalls weniger wahrscheinlich fehlt. Daher sind die erwarteten Auswirkungen kritischer (4) als extrem.

6.1.4. Verhütung


Statistische Dienste können dieses Risiko auf zwei Arten aktiv verhindern: 1) Schulung; und 2) eine Menge.

Statistische Ämter können den Mitarbeitern die erforderlichen Fähigkeiten vermitteln, indem sie die Fähigkeiten, die für die Verwendung großer Datenquellen in der statistischen Produktion erforderlich sind, detailliert identifizieren, eine Liste der vorhandenen Fähigkeiten des Personals erstellen, den Schulungsbedarf ermitteln und anschließend Schulungskurse organisieren.

Statistische Ämter können auch neue Mitarbeiter mit den erforderlichen Fähigkeiten einstellen. Dies scheint schwerwiegende Einschränkungen zu haben, da statistische Ämter nicht in der Lage sein werden, eine kritische Masse an Mitarbeitern für eine Situation zu rekrutieren, in der die Verwendung großer Datenquellen im Büro weit verbreitet ist und neue Mitarbeiter noch einige Jahre benötigen, um das Erfahrungsniveau bestehender Mitarbeiter zu erreichen. Zumindest einige der neuen Mitarbeiter, die im Rahmen eines regelmäßigen Personal-Upgrades eingestellt wurden, verfügen möglicherweise über Big-Data-Kenntnisse.

6.1.5. Erweichung


Angesichts einer Situation, in der neue Big-Data-Quellen ohne Mitarbeiter mit den erforderlichen Fähigkeiten verfügbar sind, können statistische Ämter die negativen Auswirkungen auf zwei Arten abmildern: 1) Vergabe von Unteraufträgen; und 2) Zusammenarbeit.

Statistische Ämter können mit anderen Organisationen, die diese Art von Diensten anbieten, Vereinbarungen zur Datenverarbeitung und Analyse neuer Big-Data-Quellen treffen. Dies scheint eine praktikable Lösung zu sein, da ein neuer Unternehmenssektor erscheint, der sich auf die Verarbeitung dieser Art von Daten spezialisiert hat. Dies ist jedoch eine Entscheidung, die an sich gewisse Risiken birgt, da das statistische Amt weniger Kontrolle über die Herstellung potenziell sensibler statistischer Produkte haben wird. Diese Lösung hat auch den Nachteil, dass die Mitarbeiter des statistischen Amtes nicht die erforderlichen Fähigkeiten erlernen und erwerben können.

Die Zusammenarbeit mit anderen Organisationen, die Mitarbeiter mit den erforderlichen Fähigkeiten haben und auch daran interessiert sind, die Quelle von Big Data zu erkunden, scheint eine vielversprechendere Lösung zu sein. Diese Zusammenarbeit kann in Form von gemeinsamen Projekten mit Mitarbeitern des statistischen Amtes und Mitarbeitern anderer Organisationen auf gleicher Augenhöhe erfolgen, die ihr Wissen teilen. Dies würde nicht nur das Risiko eines Mangels an Fähigkeiten verringern, sondern es dem statistischen Amt auch ermöglichen, diese Fähigkeiten zu erwerben.

6.2. Verlust von Experten an andere Organisationen
6.2.1. Beschreibung


Dieses Risiko besteht darin, dass statistische Ämter ihre Mitarbeiter an andere Organisationen verlieren, nachdem sie Fähigkeiten im Zusammenhang mit Big Data erworben haben.

6.2.2. Wahrscheinlichkeit


Die Wahrscheinlichkeit dieses Risikos hängt von zwei Faktoren ab: 1) den bestehenden attraktiven Möglichkeiten in Organisationen außerhalb der amtlichen Statistik; 2) Arbeitsbedingungen in statistischen Ämtern.

Bei Chancen in Organisationen außerhalb der amtlichen Statistik erscheint die Wahrscheinlichkeit dieses Risikos wahrscheinlich (4). Im privaten Sektor sowie in anderen Organisationen des öffentlichen Sektors besteht eine hohe Nachfrage nach Personen mit Big-Data-Kenntnissen. Nach dem Erwerb von Kenntnissen im Umgang mit Big Data erhalten offizielle Statistiker einen komparativen Vorteil, da sie erfahrene Experten auf dem Gebiet der Statistik sind. Zusätzlich zu den spezifischen Fähigkeiten im Umgang mit Big Data benötigen andere Unternehmen Datenspezialisten mit traditionelleren Fähigkeiten, z. B. die Bewertung der Benutzeranforderungen und die Entwicklung von Key Performance Indicators (KPIs), die offiziellen Statistikern gemeinsam sind. Darüber hinaus werden auch Mitarbeiter erwartet, die mit größerer Wahrscheinlichkeit neue Fähigkeiten erlernenWer wird auch offener für berufliche Veränderungen sein und das statistische Amt verlassen.

Die Arbeitsbedingungen in statistischen Ämtern hängen offensichtlich hauptsächlich vom jeweiligen Amt ab. Statistische Ämter bieten jedoch im Allgemeinen aus quantitativer Sicht immer noch attraktive berufliche Möglichkeiten für Menschen. Statistische Ämter bieten die größte Auswahl möglicher Arbeitsbereiche und die größte Auswahl an Arbeitsdaten. Dies wird die Wahrscheinlichkeit verringern, dass statistische Ämter aufgrund unvorhergesehener Umstände ihr Personal verlieren (3).

6.2.3. Beeinflussen


Die Auswirkungen dieses Risikos sind die gleichen wie das Risiko eines Personalmangels mit einschlägigen Fähigkeiten. Daher ist die Auswirkung kritisch (4), wie oben angegeben.

6.2.4. Verhütung


Offensichtlich besteht die einzige Möglichkeit für statistische Ämter, dieses Risiko zu verhindern, darin, ihren Mitarbeitern attraktive Arbeitsbedingungen zu bieten. Dies gilt grundsätzlich für alle Mitarbeiter. Im konkreten Fall können die Arbeitsbedingungen verbessert werden, wenn die Mitarbeiter offen sind, neue Fähigkeiten zu beherrschen, nämlich die Fähigkeiten des Umgangs mit Big Data, indem ihnen Schulungsmöglichkeiten geboten werden, in denen sie ihre beruflichen Interessen entwickeln können. Statistische Ämter können auch besonders darauf achten, offen für neue innovative Projekte und Ideen zu sein, die sich auf neue Big-Data-Quellen beziehen, die von Statistikern stammen, die in verschiedenen Bereichen der Statistik tätig sind. Schließlich,Die Verhinderung von Personalverlust für andere Organisationen in der Reihenfolge ihrer Fähigkeiten im Umgang mit Big Data hängt von der guten Identifizierung des Personals ab, das in der Lage und bereit ist, mit solchen Daten zu arbeiten, und von der Bereitstellung guter Möglichkeiten für ihre berufliche Entwicklung.

6.2.5. Erweichung


Dieses Risiko wird in Bezug auf das Risiko verringert, dass ein Mitarbeiter über die entsprechenden Fähigkeiten verfügt: 1) Vergabe von Unteraufträgen; und 2) Zusammenarbeit.

7. Diskussion


Aus dieser ersten Überprüfung geht hervor, dass es unmöglich ist, eine einzige Wahrscheinlichkeit oder Auswirkung für ein bestimmtes „Big-Data-Risiko“ zu ermitteln. In der Regel hängen beide Indikatoren weitgehend von der Quelle von Big Data sowie von „offiziellen Statistiken auf Basis von Big Data“ ab.
Produkt. "

Wir kommen daher zu dem Schluss, dass der logische nächste Schritt in diese Richtung die Annahme einer Reihe möglicher Pilotprojekte (von denen jedes eine Kombination aus einem oder mehreren BDSs und einem oder mehreren BDOSs umfasst) als Ausgangspunkt und - für jeden dieser Pilotprojekte - ist. Der Wunsch, die Wahrscheinlichkeit und die Auswirkungen jedes Risikos zu bewerten.

Zu diesem Zweck stehen wir kurz vor dem Start einer Stakeholder-Umfrage und versuchen, die OSC-Bewertung der Wahrscheinlichkeit, der Auswirkungen (und möglicher Minderungs- / Minderungsmaßnahmen) einer Reihe möglicher Pilotprojekte zu bewerten - und OSC-Vorschläge für Risiken einzuholen, die wir nicht in dieses Dokument aufgenommen haben .

8. REFERENZEN
UNECE (2014), «A suggested Framework for the Quality of Big Data», Deliverables of the UNECE Big Data Quality Task Team, www1.unece.org/stat/platform/download/attachments/108102944/Big%20Dat
a%20Quality%20Framework%20-%20final-%20Jan08-2015.pdf?version=1&modificationDate=1420725063663&api=v2

UNECE (2014), «How big is Big Data? Exploring the role of Big Data in Official Statistics», www1.unece.org/stat/platform/download/attachments/99484307/Virtual%20Sprint%20Big%20Data%20paper.docx?version=1&modificationDate=1395217470975&api=v2

Daas, P., S. Ossen, R. Vis-Visschers, and J. Arends-Toth, (2009), Checklist for the Quality evaluation of Administrative Data Sources, Statistics Netherlands, The Hague/Heerlen

Dorfman, Mark S. (2007), Introduction to Risk Management (e ed.), Cambridge, UK, Woodhead-Faulkner, p. 18, ISBN 0-85941-332-22)

Eurostat (2014), «Accreditation procedure for statistical data from non-official sources» in Analysis of Methodologies for using the Internet for the collection of information society and other statistics, www.cros-portal.eu/content/analysismethodologies-using-internet-collection-information-society-and-other-statistics-1

Reimsbach-Kounatze, C. (2015), “The Proliferation of “Big Data” and Implications for Official Statistics and Statistical Agencies: A Preliminary Analysis”, OECD Digital Economy Papers, No. 245, OECD Publishing. dx.doi.org/10.1787/5js7t9wqzvg8-en

Reis, F., Ferreira, P., Perduca, V. (2014) «The use of web activity evidence to increase the timeliness of official statistics indicators», paper presented at IAOS 2014 conference, iaos2014.gso.gov.vn/document/reis1.p1.v1.docx

Even if not explicitly mentioning risks, this paper in fact approaches the many risks associated to the use of web activity data for official statistics. Eurostat (2007), Handbook on Data Quality Assessment Methods and Tools, ec.europa.eu/eurostat/documents/64157/4373903/05-Handbook-ondata-quality-assessment-methods-and-tools.pdf/c8bbb146-4d59-4a69-b7c4-218c43952214


All Articles