Merkmale der datengesteuerten Petrochemie

Bei der Gründung eines Unternehmens automatisiert sich jeder seiner Geschäftsbereiche. End-to-End-Datenflüsse zwischen ihnen sind in der Regel einfach. Dies führt dazu, dass die Daten nicht miteinander verglichen werden können, da jede Abteilung sie auf ihre eigene Weise betrachtet. Kein Problem, wenn Sie einige Kennzahlen für das gesamte Unternehmen erfassen, aber wenn es um die Berechnung von End-to-End-Indikatoren, Prognosen oder die Lösung von Modellierungs- und Optimierungsproblemen geht, beginnt das Chaos.

Data Warehousing (DWH) ist keine neue Geschichte. Traditionell wurden sie für die Berichterstattung verwendet. Die vollständige Modellierung und Prognose von End-to-End-Geschäftsprozessen auf DWH-Daten begann jedoch erst vor relativ kurzer Zeit. Mithilfe der gesammelten Daten können moderne Analysetools nicht nur Dashboards mit Dropdown-Fenstern erstellen, sondern auch Prognose- und Optimierungsalgorithmen für jedes Attribut einrichten und spieltheoretische Algorithmen für das gesamte Unternehmen skalieren. Erstellen Sie auch Hypothesen über die weitere Entwicklung des Geschäfts anhand realer Daten und testen Sie diese sofort.



Und anscheinend klingt alles großartig. Aber nicht alle Unternehmen haben es eilig, ein Beispiel von den führenden Experten (Booking.com, Amazon.com) zu nehmen und wie gewohnt weiterzuarbeiten. Was hält sie davon ab? Zumindest Verständnis für die Machbarkeit umfangreicher Investitionen in Datenverarbeitungswerkzeuge, die mühsame Implementierung von Datenbeschreibungsprozessen, die Entstehung neuer Rollen (für die Datenqualität zuständige Datenkuratoren, Dateningenieure und Architekten usw.) und das Erlernen der wirtschaftlichen Auswirkungen der Implementierung des Datenmanagements Isolieren Sie klar die Kostentreiber, wie Sie das Büro autark machen, mit der Unternehmensstrategie in Einklang bringen und diejenigen auswählen, die das Unternehmen voranbringen, und vieles mehr.

Mein Name ist Victoria Krasnova, ich bin Leiterin des Corporate Data Management von SIBUR. Zusammen mit meinem Kollegen, dem Leiter des Data Governance-Teams, Rinat Abdurakhmanov, werden wir Ihnen erklären, wie wir das machen.

Als die großen Einzelhändler (Wallmart) mit der Digitalisierung begannen, mussten sie herausfinden, welche digitalen Fußabdrücke und Artefakte ein Geschäftsprozess hinterlässt und was der nächste daraus macht. Beschreiben Sie also den End-to-End-Geschäftsprozess. Gleiches gilt für die Digitalisierung eines anderen Unternehmens. Eine Möglichkeit, diese Anfrage zu beantworten, ist das Konzept der Datenverwaltung und Datenarchitektur.

Im angewandten Sinne bedeutet dies: Sammeln der wichtigsten und nicht sehr wichtigen Unternehmensdaten an einem Ort, Beschreiben in einer klaren Sprache, Verknüpfen mit Geschäftsprozessen und Erstellen benutzerfreundlicher Methoden für den Zugriff auf diese Daten.

Die Datenarchitektur bietet unter anderem klare Antworten auf die Fragen „Wo wird sie berücksichtigt?“, „Was wird berücksichtigt?“, „Warum wird sie berücksichtigt?“, „Wer ist für die Qualität verantwortlich?“. und "wo befindet es sich, in welchem ​​System befindet es sich?".

Es ist wichtig, dass die Antworten auf diese Fragen vom Unternehmen selbst getrennt sind. Das passiert oft so: Der Analytiker möchte eine Hypothese testen. Dazu muss er die notwendigen Daten von seinem Besitzer anfordern, beweisen, warum und warum dies notwendig und wichtig ist, einen halben Tag damit verbringen. Im besten Fall. Und schließlich eine Ablehnung bekommen. Warum? Weil der Dateneigentümer für die Bereitstellung des Zugriffs auf die Daten und deren anschließende Verbreitung verantwortlich ist, weil nicht bekannt ist, wie die Daten vom Analysten interpretiert werden, und sie möglicherweise nicht zu ihm passen usw.

Daher ist es notwendig, eine solche Struktur und Logik aufzubauen, die intuitiv ist, nach einheitlichen Regeln arbeitet und weder den Analysten selbst noch den Dateneigentümer von unmittelbaren Aufgaben ablenkt.

Für diese Zwecke ist ein logisches Datenmodell hervorragend geeignet - eine Beschreibung der Daten in der Geschäftssprache der Detaillierung zu technischen Details in Kombination mit einem flexiblen Vorbild. In diesem Fall erhält der Analyst basierend auf seiner Rolle im Unternehmen Zugriff auf das Repository und den Datensatz. Und er sammelt den erforderlichen Datensatz auf der Grundlage des gesunden Menschenverstandes und nicht auf der Grundlage des Wissens, dass 2005 ein bestimmter Kamerad im Unternehmen gearbeitet hat, dessen Datei die erforderlichen Daten enthält.

Ein solcher Strukturierungsansatz ermöglicht es den Menschen, schnell zu analysieren, die Daten vergleichbar zu machen und dadurch sekundäre Vorteile zu erzielen - das gesamte Unternehmen schrittweise zu digitalisieren.

Vor welchen Herausforderungen stehen wir?


In SIBUR sind einige Prozesse recht gut digitalisiert, z. B. die Aufbereitung von Daten für Marketing, Finanzen, Lieferkettenmanagement, Produktionsdaten und Umgehungen von Produktionsanlagen. Alles andere ist komplizierter, da SIBUR eine Produktion mit einem Zyklus ist, in dem aus geschäftlicher Sicht keine Informationen mit der Geschwindigkeit gesammelt werden müssen, mit der sie im Einzelhandel, in der Telekommunikation oder bei Banken benötigt werden. Dementsprechend wurde auch das Problem der Geschwindigkeit bei der Datenanalyse nicht angesprochen. Aber schwierig - heißt nicht unmöglich. In diesem Jahr planen wir, Prozesse zu optimieren, die Datenberechnung transparenter zu gestalten, die Datenübertragungsrate für die Entscheidungsfindung zu erhöhen und nach Möglichkeit in allen Phasen der Prozesse digitale Tracks zu sammeln.

Warum sind digitale Unternehmen sehr genau und schnell für die Entscheidungsfindung? Weil sie praktisch keinen Spielraum haben, um einen Fehler zu machen, wenn sich die Daten plötzlich als falsch herausstellen. In der Produktion ist alles anders - es wird nicht aufhören, Pflanzen werden nicht aufstehen, wenn die Daten für die Analyse ungenau sind. Daher ist die Datenarchitektur genau die Kraft, die im Gegensatz zu allem die Produktion in die digitale Richtung führt. Das Datenmanagement ist eine Bibliothek, mit der Sie den Datenfluss im gesamten Unternehmen optimieren können.

Kürzlich haben wir eine Linie eingeführt, die sich mit der Datenbeschreibung befasst. Während wir auf der Suche nach einem Tool sind, um die Daten zu beschreiben, speichern Sie die Beschreibungen und greifen Sie bequem darauf zu. Wenn das Tool zur Beschreibung unpraktisch ist und wir daher die Katalogisierung nicht auf dem neuesten Stand halten können, ist die Verwendung nicht mehr sinnvoll. Infolgedessen sind die Daten selbst im Repository möglicherweise nicht relevant. Warum müssen wir etwas auf der Grundlage von Daten erstellen, deren Ablaufdatum bereits abgelaufen ist?

Hier haben wir noch eine weitere Aufgabe: Wie können Architekten motiviert werden, die bestehende Informationssysteme begleiten, die Daten beschreiben und auf dem neuesten Stand halten? Das Prinzip „Sie bauen es, Sie betreiben es“ ist in digitalen Unternehmen beliebt. Wir setzen es historisch so um, dass einige Leute es einführen, andere es unterstützen. Oft ist die Dokumentation nicht auf dem neuesten Stand und einige Algorithmen leben nur in den Köpfen von Oldtimern. Daher ist die Beschreibung von Systemen eine sehr zeitaufwändige Arbeit, insbesondere wenn sie von Grund auf neu ausgeführt wird (wie in unserem Fall). In der Realität wird die Wirkung dieser Arbeit erst viel später eintreten, nachdem eine kritische Datenmasse beschrieben wurde. Aber am Ende müssen sie bei der Einführung eines anderen neuen Systems nicht nach Daten suchen, um es mit Strom zu versorgen. Jetzt dauert die Suche nach diesen Daten durchschnittlich zwei Wochen oder länger.

Daten werden nicht nur benötigt, um neue Systeme einzuführen, sondern auch um Hypothesen zu testen. Sie treten normalerweise häufig auf und werden chargenweise getestet. Und tatsächlich stellt sich heraus, dass es Daten gibt, es gibt viele von ihnen, sie sind vielfältig, aber nur viel Zeit und Geld wird für ihre Suche ausgegeben.

Ein weiterer Punkt beim Ändern von Daten „ohne Vorwarnung“ an einer Stelle führt dazu, dass die Daten an der anderen Stelle falsch werden. Beispielsweise wurde der Indikator „Produktionsvolumen“ verwendet, um Verluste in den Phasen der Umverteilung zu berücksichtigen, und dann gestoppt. Sie haben das System geändert, aber der Rest ist nicht auf dem neuesten Stand und verwendet den Indikator weiterhin wie zuvor. Infolgedessen sind die Daten für eine Managemententscheidung falsch. Oder irgendwann stellt sich heraus, dass die Daten nicht vergleichbar sind und die Leute nach Fehlern suchen. Und das ist auch Arbeit, nur unsichtbar und unkalkulierbar.

Wie Sie verstehen, haben wir uns im Allgemeinen gründlich mit dem Problem der Auswahl eines Tools für die Arbeit mit Daten befasst. Und bevor Sie sich für ein Instrument entscheiden, müssen Sie geeignete Kriterien für eine solche Auswahl aufschreiben.

Instrumentenauswahlkriterien


Wir sind auf der Suche nach einem Tool, das die Beschreibung von Metadaten in Form eines Objektmodells unterstützt und in der Lage ist, unabhängig neue Objekttypen hinzuzufügen. Nicht alle Produkte bieten diese Funktion. Mit einigen Tools können Sie beispielsweise nur physische Tabellen als Objekte anzeigen, es gibt jedoch keine Objektklasse für konzeptionelle oder logische Entitäten.
Die flexible Konfiguration von Verbindungen zwischen Objekten ist sehr wichtig. Zum Beispiel haben wir heute drei logische Abstraktionsebenen, aber wir sollten in unserer Fähigkeit eingeschränkt sein, eine beliebige Anzahl von Ebenen zu löschen oder hinzuzufügen.

Ein weiteres wichtiges Kriterium ist das Vorhandensein integrierter Konnektoren zu Quellsystemen, insbesondere zu SAP. Wir haben viel SAPa (ich denke, dass jedes große Unternehmen im Prinzip viel SAPa hat) - eine riesige Installation, und das Schaufeln mit den Händen ist eine völlig undankbare Aufgabe. Ideal, wenn es eine gibt. Wenn es keinen solchen Anschluss gibt, können Sie ihn selbst schreiben.

Vergessen wir nicht die Volltextsuche, die semantische Suche mit der Möglichkeit, eigene Wörterbücher mit Synonymen hinzuzufügen (zum Beispiel die integrierte Elasticsearch).

Eine wichtige Rolle spielt die Möglichkeit des Feedbacks. Darüber hinaus sollte es im Idealfall die Möglichkeit geben, Kommentare abzugeben, das Prinzip von 1 bis 5 Sternen zu bewerten, direkt mit der Person zu kommunizieren, die für die Entität oder das Attribut einer bestimmten Entität verantwortlich ist, Flags und Tags zu setzen, um die Aufmerksamkeit auf sich zu ziehen, und Objekte zu Favoriten hinzuzufügen.

Außerdem ist dies gut hätte einen nativen Konnektor zu SAS DQ oder einem anderen Tool, mit dem die Datenqualität bewertet und der Integritätsindex einer bestimmten Entität angezeigt werden kann, sodass der Benutzer sofort erkennen kann, dass den Daten vertraut werden kann, da sie mit Überprüfung durchlaufen wurden. Und geben Sie dazu Ihr Feedback.

Im Allgemeinen benötigen Sie Folgendes:



Hier ist ein Beispiel für einen für Sie typischen Fall: Eine Person hat erkannt, dass Sie den Daten vertrauen können, hat genauer hingeschaut und einen Fehler gefunden und direkt an den Eigentümer geschrieben und ihn gebeten, ihn zu beheben. Es stellt sich heraus, dass es sich um ein solches Schaufenster für den Datenzustand handelt. Diese Offenheit und weit verbreitete Verfügbarkeit von Daten verringert allmählich das Misstrauen sowohl der Benutzer als auch der Eigentümer. Ein Analyst mit selbst dem grundlegendsten Zugriff auf Daten kann schnell die erforderlichen Informationen abrufen, die überprüft wurden, und gleichzeitig hängt es nicht vom Eigentümer der Daten ab, der diese Informationen bereitstellt. Win-Win.

Aber normalerweise hat jeder alles in Excel, und dies ist ein großes Problem (natürlich nicht Excel selbst, aber eine solche Situation). Die Leute zählten die Indikatoren und korrigierten sie dann auf ihrem eigenen Tablet, aber im allgemeinen System hat sich nichts geändert. Und der Analyst hat Angst, Zahlen aus öffentlich zugänglichen Unternehmensquellen zu entnehmen. Es ist einfacher, zu einem Kollegen zu gehen und nach einer Datei zu fragen. Das ist ziemlich schwer zu bewältigen. Tatsächlich kann das Kriterium für den Erfolg der Implementierung eines Data Office als die Schaffung von Umgebungen angesehen werden, in denen Mitarbeiter sich bei Entscheidungen in der Regel auf die Analyseergebnisse verlassen und SQL und Python gegenüber Tools bevorzugen.

Unabhängig davon ist die Aufrechterhaltung des aktuellen Status der Daten „Geschäftsgeheimnis“, „Öffentliche Daten“, „Persönliche Daten“, „Unternehmensdaten mit begrenzter Verbreitung“ zu erwähnen. Das heißt, für einen Datenanalysten ist es wichtig zu wissen, was genau er gerade durchsucht und entlädt oder seine Kollegen sehen lässt.

Wenn sich der Durchschnittsbürger an Gesetze in Bezug auf Geschäftsgeheimnisse und vertrauliche Informationen wendet, sieht er schließlich allgemeine Informationen darüber, was Unternehmen schaden kann. In häufigen Fällen beginnen sie, im Allgemeinen alles, was Zahlen enthält, als kritische Daten zu betrachten (plötzlich etwas). Wenn der Eigentümer gebeten wird, Daten für die Analyse bereitzustellen, beginnt er sich zu fragen: „Ist dies ein Geschäftsgeheimnis?“, „Werden die Handlungen des Antragstellers Schaden anrichten?“. Und wenn er rückversichert ist, lehnt er dies häufig ab. Schließlich ist er für diese Informationen verantwortlich und weiß nicht, wie der Analyst sie verwenden wird.

Es gab noch einen anderen Fall: Als wir an einer Liste vertraulicher Informationen für ein Projekt zur Demokratisierung von Daten arbeiteten, stellte sich heraus, dass diese Liste Daten enthält, die die Eigentümer als vertraulich bezeichnen, und wir sind gesetzlich verpflichtet, sie auf der offiziellen Website bereitzustellen. Und natürlich werden sie dort veröffentlicht. Das heißt, unter Bedingungen, in denen es kein einziges Tool gibt, in dem jeder klar überprüfte Informationen auf einmal sehen kann, arbeiten viele Menschen in einem Modus „egal was passiert“ und sind sehr rückversichert.

Hier geht es also nur um die Kriterien. Aber was genau wir gewählt haben.

Suche nach einer Lösung


Wir sagen "wählen", weil wir noch nicht gewählt haben, wir sind immer noch auf der Suche nach dem perfekten Werkzeug. Zunächst haben wir uns für Collibra, SAS DG, Alation, Alteryx Connect und Informatica entschieden. Wir haben auch ausländische Open-Source-Projekte durchgesehen, aber sie haben sie fast sofort gefegt, weil niemand weiß, wie man mit dem kyrillischen Alphabet arbeitet.

Dann gab es eine erfolglose Erfahrung mit Collibra. Wir haben den Deal fast abgeschlossen, aber er ist gescheitert - wir haben uns nicht auf die Bedingungen geeinigt. Kurzfristig werden sie vollständig in die Cloud verlagert, und für jedes russische Unternehmen ist dies keine Option. Tatsächlich bieten sie kein Produkt, sondern eine Dienstleistung an: Collibra bietet ein Abonnement an, und wir stellen unsere Daten zur Verfügung. Formal ist dies kein Geschäftsgeheimnis, sondern Metadaten. Wenn jedoch etwas schief geht, ist das Geschäft vollständig gelähmt.

Nach dieser Geschichte wurde uns klar, dass wir die Box für eine lange Zeit wählen würden: Wir haben lange Prozesse, wir gehen sorgfältig auf Transaktionen, Bedingungen und Auftragnehmer ein, wir überprüfen alles viele Male, um sicherzustellen, dass das Risiko minimal ist. Da wir all diese Funktionen kannten, haben wir uns selbst weiterentwickelt, um zumindest eine vorübergehende Lösung für Benutzer zu schaffen. Immerhin strömen die Daten und es ist unmöglich, sie ohne Beschreibung zu verwenden! Parallel dazu schauen wir uns Alation und Alteryx Connect genauer an und vergleichen deren Funktionalität und Kosten mit unserer Lösung.

Wir haben das logische Speichermodell selbst erfunden. Es ist für uns hier etwas komplizierter als für andere Branchen. Für Banken und Telekommunikation gibt es beispielsweise Referenzdatenarchitekturen - allgemein anerkannte Strukturen und Empfehlungen, was und wie Daten zerlegt werden sollen. Für Petrochemikalien gibt es keinen vollständigen Quellenzyklus für die öffentliche Ausleihe kreativer Anleihen. Es dauerte nur ein Jahr, um zu verstehen, wie das Geschäft insgesamt funktioniert. SIBUR verfügt über eine komplexe Produktion, eine Vielzahl von Nomenklaturen, Prozessen und Unternehmen, die sich in den Systemen widerspiegeln, was bedeutet, dass eine Analyse erforderlich ist.

Hier hat es uns geholfen, dass es die sogenannte wissensintensive Führung gibt. Zum Beispiel sind Manager und Manager in anderen Branchen häufig nicht sehr gut mit der Branche selbst vertraut. Dies geschieht im Prinzip, dies ist nicht direkt schrecklich. Letztendlich besteht die Aufgabe darin, Projekte zu verwalten, und es stellt sich heraus, dass die Verbindung jedes neuen Managers normalerweise etwas weniger weiß als die vorherige. Es stellte sich jedoch heraus, dass es sich bei den Managern um Personen handelt, die Ihnen beispielsweise alle Prozesse erklären können, die mit Butadien auf seinem gesamten Lebensweg ablaufen können.

Also über die Entscheidung. Eine kreative Suche ist so etwas, dass es ein Jahr, zwei oder ein paar Leben dauern kann. Daher ist die Suche gut, aber Sie müssen jetzt an etwas arbeiten.

Also gingen wir zu unserer eigenen Entwicklung, die wir dg_light nannten. Die Entwicklung der Front dauerte 4 Wochen (um die Wahrheit zu sagen, nicht von Grund auf neu, wir haben die Errungenschaften des Timesharing-Analysetools, das kürzlich vom Band lief, wiederverwendet).

Projektzusammensetzung:

  • Backend: Docker, Node.js, NGINX, Crossbar.io
  • Frontend: Reagieren, Redux, Material UI, Highcharts, Autobahn.js
  • Datenspeicherung: PostgreSQL
  • Protokolle: WAMP, WebSocket, HTTP (S)
  • Betriebssystem: CentOS 7

Die Struktur der Speichereinrichtungen und die Methodik wurden von Datenarchitekten eingegeben. Um das Frontdesign zu untersuchen, haben sie eine Reihe von Analysten mit unterschiedlichen Reifegraden eingesetzt und gefragt: „Wie möchten Sie es haben?“ Tatsächlich haben sie für sich selbst gemalt.

Die gesamte Entwicklung dauerte 6 Wochen.

Eine vernünftige Frage, was werden wir mit der Entscheidung machen, wenn wir die industrielle kaufen? Ursprünglich war geplant, dass beide Lösungen parallel funktionieren: In der "großen" GD gibt es Datenmodelle, ein Glossar, ein Vorbild, und dg_light hinterlässt komplexe Chips, die in einer Box-Lösung wie Data Lineage nicht einfach zu implementieren sind. Was in Zukunft passieren wird, zeigt die Nutzungserfahrung.

Datenmodell


Physik . Alles begann mit der Erstellung eines Warehouse-Datenmodells. Wir haben lange darüber gestritten, wie eine detaillierte Speicherschicht aufgebaut werden kann, und beschlossen, kein einziges vorgefertigtes Konzept in die Tat umzusetzen, sondern Data Vault 2.0 und Anchor (6NF) zu kombinieren. Wiederum, weil die Datenquellen, die wir haben, sehr unterschiedlich sind. Auf der einen Seite ist dies SAP, das in den Tiefen irgendwo OLAP und irgendwo OLTP ist, und Geschäftslogik, die nach ihren eigenen Gesetzen lebt und maximale Details erfordert. Auf der anderen Seite führen sie ein ereignisreiches Leben des Fertigungsprozesskontrollsystems (MES), in dem ständig Datenflüsse und Schlüsselwertverläufe fließen.

Die Kombination von Hubs, Satelliten, Links von DV2.0 und der maximalen Granularität von Ankor ermöglichte es, all dies an einem Ort zu heiraten. Ja, das manuelle Schreiben von Abfragen in einem solchen System ist schwierig, aber der gesamte Inhalt ist korrekt. Und wir können die Integrität des Systems garantieren, selbst wenn sich plötzlich alles um uns herum ändert oder zusammenbricht.

Logik. Nachdem wir das Problem der Organisation der Architektur auf physischer Ebene gelöst hatten, gingen wir zu ihrer logischen Beschreibung über. Und unsere Diskussion mit Kollegen bewegte sich auf eine philosophische Ebene, um selbst zu bestimmen, was Essenz ist und wie sie sich zueinander verhalten. Nachdem sie sich eine Weile gestritten hatten, wandten sie sich an DAMA-DMBOK, zogen die Definitionen heraus und wendeten sie auf ihren Kontext an. Infolgedessen stellte sich heraus, dass Entitäten Substantive sind, mit denen wir im Rahmen von SIBUR operieren, die einen vollständigen Geschäftswert haben und eine Reihe von Fragen beantworten. Es gibt immer noch Debatten darüber, ob Aggregate und Berichte in Entitäten aufgenommen werden sollen oder nicht. Jeder Architekt hat seine eigene Meinung, seine eigenen Berechnungen, und jetzt versuchen wir, unsere Gedanken auf einen gemeinsamen Nenner zu bringen. Dies ist eine der Aufgaben, die wir lösen müssen, einschließlich der Menschen, die wir als Team suchen.

Aber das logische Modell ist nicht alles. Darüber hinaus haben wir auf dieser Grundlage das konzeptionelle Modell erstellt, das das Management benötigt, um zu verstehen, was überhaupt passiert. Das logische Modell für sie ist zu detailliert, daher haben wir alles in Datendomänen gruppiert, die gut in die beschriebenen Geschäftsprozesse im Unternehmen passen. Jetzt versuchen wir, mit dem Prozessbüro zu verhandeln, um jede solche Gruppierung logischer Entitäten an Prozesse in ARIS zu binden.

Weiter gingen wir in die Breite und noch höher: Wir haben ein einzelnes logisches Datenmodell erstellt, in dem wir die logischen Entitäten jedes Systems eingeben und gleichzeitig Quellsysteme mit der Beziehung der Systeme zueinander angeben.

Wir exportieren dieses Wissen an Unternehmensarchitekten in Sparx Enterprise Architect. Sie benötigen es, um Entitäten an Integrationsabläufe und Schnittstellen zu binden.
Eine solche Organisation der Datenarchitektur wird Menschen helfen, die in Zukunft eine Wirkungsanalyse durchführen möchten. Daraus wird es möglich sein, eine vollwertige Datenlinie aufzubauen. Im Allgemeinen erwarten wir, dass die Lösung nicht nur von Architekten aller Art verwendet wird, sondern auch von Mitarbeitern aus der Analytik in Geschäftsbereichen, Datenwissenschaftlern und allen, die in irgendeiner Weise mit der Analyse verbunden sind.

Jetzt stehen wir vor einer mühsameren Aufgabe - den Mitarbeitern beizubringen, all dies zu nutzen.

Personen und Daten


Unsere globalen Pläne sind, SIBUR zu einem datengetriebenen Unternehmen zu machen, wenn absolut jeder Mitarbeiter etwas analysieren kann. Wir haben die allgemeine Strategie in drei Teile unterteilt - über Menschen, über Prozesse und über Werkzeuge. Mit den Tools, könnte man sagen, haben sie das Problem entschieden und ihre Plattform mit Daten erstellt. Jetzt brauchen wir Leute, die damit anfangen.

Das Hauptmerkmal ist die Mentalität der Mitarbeiter. Sie arbeiten in einer gefährlichen petrochemischen Industrie, in der Sicherheit für alle geschrieben ist, deren Blut geschrieben ist. Und die Leute sind geschult, Anweisungen genau zu befolgen. Sie sind buchstäblich auf dem Subkortex eingeprägt. Ein solcher Zustand widerspricht stark dem freien Denken des Analytikers.

Wir haben klein angefangen: Mitarbeiter schrittweise entwöhnen, um bei mehr oder weniger wichtigen Gelegenheiten Präsentationen zu halten und sie auf Dashboards zu übertragen. Da die Mitarbeiter des Unternehmens verantwortlich und exekutiv sind, versuchen sie, eine vorgefertigte Präsentation zu erstellen und trotzdem in einer interaktiven Version zu zeichnen. Dashboards unterliegen jedoch unterschiedlichen Gesetzen, und für eine Person ist dies ein völlig anderes Niveau der Arbeitskosten. Es ist erforderlich, den gesamten Verlauf der Daten zu laden und zu überprüfen. Daten werden automatisch berechnet und nicht manipuliert - Sie können sie nur mit Ihren Händen ändern, wenn Sie sie ursprünglich ordnungsgemäß eingerichtet haben.

Tatsächlich endet die gesamte Automatisierung interner Prozesse mit einer Reihe von Excel + -E-Mails. Und das Transplantieren von Menschen mit Excel ist eine fast unmögliche Aufgabe. Richtig, warum brauchen wir Python und SQL, weil Sie in Excel alles können! Und es ist ziemlich schwierig, damit umzugehen.


In früheren Versionen des Datenverwaltungssystems in SIBUR gab es so etwas wie den Eigentümer des Informationsarchivs - einen Mitarbeiter, der Zugriff auf Daten gewährt und weiß, wo welche Nummer korrekt ist. Dieser Ansatz hat die Barrieren geschaffen, über die ich oben geschrieben habe. Um sie zu brechen, haben wir die „Best Practices“ von Gartner genutzt und einen Datenkurator und einen Datenqualitätsbeauftragten separat identifiziert.

Ein Datenkurator ist ein Manager auf der Ebene des Abteilungsleiters, der die Regeln festlegt, nach denen er bereit ist, Zugriff auf Daten zu gewähren. Der Datenqualitätsbeauftragte arbeitet direkt mit den Informationen selbst und weiß, welche Zahl korrekt ist. Jetzt arbeiten wir daran, dass es für jede Figur eine Person gibt, die für die Qualität verantwortlich ist und auf Anfragen von Kollegen im Falle von Fehlern oder Ungenauigkeiten reagiert. Wir teilen die Daten bereits in die Informationen auf, die jedem im Unternehmen zur Verfügung stehen, die Informationen, die in einer bestimmten Einheit verfügbar sind, und Informationen, die Geschäftsgeheimnisse darstellen.

Und wenn ein Manager bestimmte Daten schließen möchte, führen wir Shuttle-Verhandlungen durch und erklären, wie sich die Schließung von Informationen auf andere Einheiten auswirkt, die direkt oder indirekt damit arbeiten. Daher wurde der Prozentsatz der im Unternehmen geöffneten Daten radikal überarbeitet. Nach den Maßstäben von SIBUR ist dies eine echte Revolution.

Fazit


Wir haben ein fertiges Werkzeug, aber bisher gibt es nur sehr wenige Leute, die es verwenden können. Und wir bilden sie aus. Der Prozess hat sich spürbar beschleunigt, nachdem wir den Prozess der Fanschulung aufgebaut haben. Jeder von uns geschulte Mitarbeiter übernimmt die Verantwortung für die Schulung der folgenden Mitarbeiter. Wir haben den Weg eingeschlagen, unsere eigenen Mitarbeiter zu schulen, anstatt Analysten einzustellen, da es in unserem Fall einfacher ist, die Götter der Makros SQL und Python zu unterrichten, als großartige Analysten, die Pyrolyse und ihre Funktionen zu erklären. Und gleichzeitig auf ihre Gesichter schauen.

Wie wir Menschen anziehen und zum Lernen motivieren, ist eine Geschichte, die einen eigenen Beitrag verdient.

Neben der Ausbildung interner Analysten suchen wir auch Architekten, die sich mit Datenmanagement auskennen. Dies ist eine neue Richtung nicht nur für Russland, sondern auch für die ganze Welt, und die Menschen interpretieren das Konzept der Datenarchitektur weiterhin dahingehend. Es gibt verständliche Geschichten mit Business Analytics, System Analytics und Unternehmensarchitektur.

Wir bei SIBUR definieren Datenarchitektur als eine Disziplin an der Verbindung von Systemteilen mit Datenbanken und geschäftlichen Prozessen. Eine Person muss verstehen, wie die Organisation, in der sie arbeitet, angeordnet ist und wie Prozesse Daten über sich selbst in verschiedenen Systemen hinterlassen. Und wie man das erste mit dem zweiten verbindet.

All Articles