Keine Vertrauensinformationen

Google hat kürzlich alle Mitarbeiter in Nordamerika dazu verlegt, remote zu arbeiten . Dies war eine der Maßnahmen zur Begrenzung der Ausbreitung von SARS-CoV-2, dem Virus, das die Krankheit COVID-19 verursacht. Dies ist die richtige Lösung für jedes Unternehmen, das dies tun kann. Darüber hinaus planen Google und eine Reihe anderer großer Technologieunternehmen , für eine Armee von Auftragnehmern zu zahlen, die normalerweise die Mitarbeiter des Unternehmens bedienen.

Google hat jedoch vor fünf Jahren einen noch bedeutenderen Schritt unternommen, als es den Übergang zu Netzwerken ohne Vertrauen führte.für ihre internen Anwendungen. Die meisten anderen Technologieunternehmen sind diesem Beispiel gefolgt. Und obwohl dies nicht getan wurde, damit die Mitarbeiter von zu Hause aus arbeiteten, hat es jetzt den Transfer von Personen an einen entfernten Ort in kurzer Zeit erleichtert.

Zero Trust Network


1974 veröffentlichten Vint Cerf, Yogen Dalal und Carl Sunshine eine bahnbrechende Arbeit mit dem Titel "Specification of Internet Transmission Control Program". Aus technologischer Sicht legte diese Arbeit den Grundstein für die Spezifikation des TCP-Protokolls, auf dem das Internet basiert. Nicht weniger bemerkenswert ist die Tatsache, dass der Begriff „Internet“ in der Arbeit vorgeschlagen wurde. Dies geschah zufällig: Der größte Teil der Arbeit war dem Programm zur Verwaltung der "Internetwork" -Übertragungs- und "Internetwork" -Pakete gewidmet: Die Netzwerke existierten bereits, und es musste herausgefunden werden, wie sie miteinander verbunden werden können.

Anfangs waren die Netzwerke kommerziell. In den 1980er Jahren schuf Novell ein "Netzwerkbetriebssystem", das aus lokalen Servern, Netzwerkkarten und einer PC-Anwendung bestand. Mit dem System konnten Sie Netzwerke in großen Unternehmen erstellen, um Dateien auszutauschen, Drucker und andere Ressourcen gemeinsam zu nutzen. Infolgedessen wurde die Marktposition von Novell durch die Einführung von Netzwerkfunktionen in Client-Betriebssystemen, die Verteilung von Netzwerkkarten, Fehler bei der Verwaltung des Vertriebskanals und die umfassende Offensive von Microsoft untergraben. Das Unternehmens-Intranet-Modell selbst mit gemeinsam genutzten Ressourcen wurde jedoch beibehalten.

Das Problem lag jedoch auch im Internet selbst: Wenn mindestens ein Computer aus dem lokalen Netzwerk mit dem Internet verbunden wurde, waren alle anderen Computer und Server dieses Intranets tatsächlich mit dem Internet verbunden. Als Lösung für das Problem schlugen sie ein Sicherheitssystem vor, das auf Perimeterschutz basiert (Castle-and-Moat-, Castle-and-Moat-Ansatz): Unternehmen müssen Firewalls bereitstellen, um sich vor dem Zugriff auf interne Netzwerke von außen zu schützen. Die Bedeutung ist zweifach: Wenn Sie sich im Intranet befinden, vertrauen sie Ihnen, wenn sie sich außerhalb befinden, vertrauen sie Ihnen nicht.


Es gab jedoch zwei Probleme:

  1. Wenn ein Angreifer in die Firewall eindringt, erhält er Zugriff auf das gesamte Netzwerk.
  2. Wenn sich ein Mitarbeiter nicht physisch im Büro befindet, hat er keinen Zugriff auf das Intranet.

Um das zweite Problem zu lösen, entwickelten sie eine VPN-Technologie (Virtual Private Network), mit der Computer von Remote-Mitarbeitern dank der Verschlüsselung so handeln können, als ob sie sich physisch im Unternehmensnetzwerk befinden. Viel wichtiger ist jedoch der grundlegende Widerspruch, der sich in diesen beiden Problemen manifestiert: Sie müssen den Zugang von außen ermöglichen und Außenstehende draußen halten.

Diese Probleme wurden durch drei Haupttrends des letzten Jahrzehnts dramatisch verschärft: Smartphones, der SaaS-Ansatz (Software-as-a-Service) und Cloud Computing. Anstelle von zufälligen Verkäufern oder reisenden Vorgesetzten, die ihren Laptop mit dem Unternehmensnetzwerk verbinden müssen, verfügt heute buchstäblich jeder Mitarbeiter über ein mobiles Gerät mit einer permanenten Verbindung zum Intranet. Anstatt auf Anwendungen zuzugreifen, die im internen Netzwerk gehostet werden, müssen Mitarbeiter jetzt auf Anwendungen zugreifen, die vom SaaS-Anbieter gehostet werden. Anstatt lokal bereitzustellen, werden Unternehmensressourcen jetzt in öffentlichen Clouds gehostet. Welcher Wassergraben kann all diese Szenarien abdecken?

Sie sollten es nicht einmal versuchen: Anstatt zu versuchen, alles in das Schloss zu stecken, platzieren Sie alle Innenseiten außerhalb des Grabens und denken Sie, dass jeder Benutzer eine Bedrohung sein kann. Daher der Name: ein Netzwerk ohne Vertrauen.


Bei diesem Modell befindet sich das Vertrauen auf der Ebene einer verifizierten Person: Der Zugriff hängt (normalerweise) von der Multi-Faktor-Authentifizierung ab (z. B. einem Kennwort und einem vertrauenswürdigen Gerät oder einem temporären Code). Und selbst nach der Authentifizierung erhält eine Person nur Zugriff auf eine sehr kleine Anzahl von Ressourcen oder Anwendungen. Mit diesem Modell können Sie alle Probleme lösen, die für den Castle-and-Ditch-Ansatz charakteristisch sind:

  • Ohne internes Netzwerk kann es keinen externen Angreifer oder Remote-Mitarbeiter geben.
  • Die individuelle Authentifizierung auf der Benutzerseite kann auf Geräte und Anwendungen innerhalb lokaler Ressourcen, auf SaaS-Anwendungen und öffentliche Clouds skaliert werden (insbesondere auf solche, die nach dem Prinzip der Einzelbenutzeridentifikation implementiert werden, z. B. Okta oder Azure Active Directory).

Kurz gesagt, Zero-Confidence-Computing beginnt mit Internet-Annahmen: Alles und jedes ist miteinander verbunden, gut und schlecht. Solche Berechnungen zeichnen sich durch keine Transaktionskosten für die kontinuierliche Entscheidungsfindung über die Bereitstellung eines Zugangs auf einer viel verteilteren und feiner verteilten Ebene aus, als dies mit der physischen Unterstützung der Informationssicherheit möglich ist, was einen grundlegenden Widerspruch schafft, der dem umstrittenen Schema mit einem Schloss und einem Wassergraben zugrunde liegt.

Burgen und Wassergräben


Das Lock-and-Ditch-Modell ist nicht nur auf Unternehmensdaten beschränkt. In diesem Paradigma haben Gemeinschaften über Informationen aus Zeiten, Ghm, Burgen und Wassergräben nachgedacht. Letzten Herbst schrieb ich in The Internet and the Third Estate :

Im Mittelalter war die katholische Kirche die wichtigste Organisationsstruktur in Europa. Sie hatte de facto ein Monopol auf die Verbreitung von Informationen: Die meisten Bücher waren in lateinischer Sprache und wurden von den Mönchen manuell kopiert. Es gab eine gewisse ethnische Verwandtschaft zwischen verschiedenen Vertretern des Adels und Bürgern auf ihrem Land, und unter dem Dach der katholischen Kirche gab es hauptsächlich unabhängige Stadtstaaten.

Mit Schlössern und Wassergräben!

Nach der Erfindung der Druckmaschine hat sich alles geändert. Es stellte sich plötzlich heraus, dass Martin Luther, dessen Kritik an der katholischen Kirche sich als völlig analog zu der von Jan Hus vor hundert Jahren proklamierten herausstellte, bei der Verbreitung seiner Ansichten nicht auf ein kleines Gebiet beschränkt war (im Fall von Hus war es Prag). aber er konnte ganz Europa mit seinen Ideen umarmen. Noble nutzte die Gelegenheit, um die Bibel im Einklang mit kurzfristigen Interessen zu interpretieren und die katholische Kirche allmählich von der Regierung abzuwenden.

Dies führte zur Entstehung neuer Wächter:

So wie die katholische Kirche ihre Kontrolle über Informationen behielt, tat die moderne Meritokratie dasselbe und kontrollierte die Presse nicht so sehr, als dass sie sie in einen breiteren nationalen Konsens einbezog.

Auch hier spielte die Wirtschaft eine Rolle: Obwohl Bücher in den letzten anderthalb Jahrhunderten immer noch mit Gewinn verkauft wurden, begannen die Zeitungen mehr zu lesen, und dann wurde das Fernsehen zum dominierenden Medium. All dies sind jedoch Lieferfahrzeuge für die „Presse“, die normalerweise durch Werbung finanziert wird, die untrennbar mit großen Unternehmen verbunden ist. Im weiteren Sinne agieren Presse, Großunternehmen und Politiker im Rahmen eines allgemeinen nationalen Konsenses.

Das Internet ist jedoch zu einer Bedrohung für die zweite Klasse von Erziehungsberechtigten geworden, sodass jeder Folgendes veröffentlichen kann:

, , . , . , : . , :

— , . , , .

Es ist schwierig, das volle Ausmaß dieser Untertreibung zu überschätzen. Ich habe Ihnen gerade erzählt, wie die Druckerei den Ersten Stand stürzen durfte, was zur Entstehung von Nationalstaaten, zur Schaffung und Stärkung des neuen Adels führte. Und die Folgen des Sturzes des Zweiten Standes durch die Stärkung der Bürger sind kaum vorstellbar.

Die heutigen Wächter sind sich sicher, dass dies eine Katastrophe und "Fehlinformation" ist. Von mazedonischen Teenagern bis hin zu russischen Geheimdiensten, Partisanen und Politikern wird alles als existenzielle Bedrohung wahrgenommen, und die Gründe liegen auf der Hand: Das moderne Medienmodell basiert auf der Tatsache, dass diese Medien die Hauptinformationsquelle sind. Und wenn es falsche Informationen gibt, ist die Gesellschaft mit Desinformation konfrontiert?

Folgen erhöhter Informationen


Das Problem ist natürlich, dass wir, wenn wir uns auf Fehlinformationen konzentrieren - und diese existieren definitiv -, den anderen Teil der Formel des „Herausgebers“ aus den Augen verlieren: Die Menge an Informationen, die wahr und falsch sind, hat explosionsartig zugenommen. Angenommen, alle veröffentlichten Informationen entsprechen dem Gesetz der Normalverteilung (ich verwende dieses Konzept nur zur Veranschaulichung und behaupte nicht, dass dies zutrifft. Aufgrund der einfachen Generierung von Informationen ist die Menge an Fehlinformationen offensichtlich größer):


Vor dem Internet ist die Gesamtmenge an Fehlinformationen relativ und absolut gesehen gering , da die Gesamtmenge an Informationen gering ist:


Dank des Internets ist die Gesamtmenge an Informationen jedoch so groß geworden, dass selbst wenn der Anteil der Fehlinformationen in etwa auf dem gleichen Niveau geblieben ist, die absolute Menge sehr stark gestiegen ist:


Daher ist es heute viel einfacher, falsche Informationen zu finden, und Suchmaschinen sind dabei sehr hilfreich. Es ist daher einfach, Geschichten wie diesen Artikel in der New York Times zu schreiben :

Während sich das Coronavirus auf der ganzen Welt verbreitet, verbreiten sich Fehlinformationen darüber, trotz des aktiven Widerstands von Unternehmen, die soziale Netzwerke entwickeln. Facebook, Google und Twitter sagten, sie würden falsche Informationen über das Coronavirus entfernen, sobald sie gefunden wurden, und mit der Weltgesundheitsorganisation und verschiedenen Regierungsorganisationen zusammenarbeiten, um Menschen vor ungenauen Informationen zu schützen.

In einer Studie der New York Times auf jeder der sozialen Plattformen wurden jedoch Dutzende ähnlicher Videos, Fotos und Texte gefunden, die die Screener durchdringen. Die Texte sind nicht nur in englischer Sprache verfasst, die Bandbreite variiert von Hindi und Urdu über Hebräisch bis Farsi und folgt der Flugbahn des Virus, der sich um die Welt bewegt. Die Verbreitung falscher und böswilliger Informationen über das Coronavirus war eine strenge Erinnerung an den Kampf, an dem Forscher und Internetunternehmen beteiligt waren. Selbst wenn Unternehmen die Wahrheit verteidigen müssen, werden sie oft von Internet-Lügnern und -Dieben überholt und geschlagen. Es gibt so viele ungenaue Informationen über das Virus, dass die WHO sagt, es sei mit "Infodämie" konfrontiert.

Ich habe auch im Daily Update geschrieben :

Dies sagt uns der Satz „während des Studiums der New York Times“: Die Kraft des Suchens in der Fülle von Weltinformationen liegt in der Tatsache, dass Sie alles finden können, was Sie wollen. Es überrascht nicht, dass die New York Times Fehlinformationen auf wichtigen Technologieplattformen finden wollte, und noch weniger überraschend fanden es Journalisten.

Aber ich finde es viel interessanter, was sich auf der anderen Seite der Distribution befindet. Natürlich hat die Tatsache, dass das Internet es jedem erlaubt, ein Verlag zu sein, zu einer Zunahme der absoluten Menge an Fehlinformationen geführt, aber das Gleiche gilt für wertvolle Informationen, die zuvor nicht verfügbar waren:


Es ist schwierig, ein geeigneteres Beispiel als die letzten zwei Monate der Verbreitung von COVID-19 zu finden. Von Januar bis heute erscheinen auf Twitter viele Informationen über SARS-CoV-2 und COVID-19, einschließlich Support-Posts und Links zu medizinischen Artikeln, die mit erstaunlicher Geschwindigkeit veröffentlicht wurden und häufig den traditionellen Medien widersprechen . Darüber hinaus äußern viele Experten ihre Ansichten, darunter Epidemiologen und Gesundheitsbeamte.

In den letzten Wochen hat dieses boomende Netzwerk begonnen, Alarm über die Krise in den Vereinigten Staaten zu schlagen. Nur dank Twitter haben wir erfahren, dass diese Krise vor langer Zeit begonnen hat (wenn wir zur Abbildung mit einer normalen Verteilung zurückkehren, nehmen die Auswirkungen mit zunehmender Informationsmenge ab).

Seattle Grippe-Studiengeschichte


Die vielleicht wichtigsten Informationen über die COVID-19-Krise in den USA waren Berichte von Trevor Bedford , einem Mitglied des Seattle Grippeforschungsteams:





Sie können eine direkte Verbindung zwischen diesen Botschaften und der weit verbreiteten sozialen Ausgrenzung herstellen, insbesondere an der Westküste: Viele Unternehmen wechselten zu Fernarbeit, die Reisebranche stand auf, Konferenzen wurden abgesagt. Ja, es sollte mehr Informationen geben, aber jede Kleinigkeit hilft . Daten, die nicht von Beamten oder Erziehungsberechtigten, sondern von Twitter erhalten wurden, werden Leben retten.

Es ist jedoch bemerkenswert, dass diese Entscheidungen in Ermangelung offizieller Daten getroffen wurden. Wochenlang spielte der Präsident die bevorstehende Krise herunter, und die CDC und die FDA banden ihre Hände an öffentliche und private Laboratorien, obwohl sie völlig mit Testkits vermasselt waren, die helfen könnten, eine signifikante und schnell wachsende Anzahl von Fällen zu identifizieren. Unglaublich aberLaut Dokumenten aus einem Artikel in der New York Times hat das Bedford-Team auch Stöcke in Räder gesteckt:

[Ende Januar] Das Gesundheitsministerium des US-Bundesstaates Washington hat begonnen, eine laufende Grippestudie in Seattle im US-Bundesstaat zu erörtern. Aber es gab ein Problem: Das Projekt umfasste hauptsächlich Forschungslabors, keine klinischen, und ihre Tests auf Coronavirus wurden von der Food and Drug Administration nicht genehmigt. Daher durfte die Gruppe nur den Forschern selbst Testergebnisse zur Verfügung stellen ...

CDC-Beamte haben wiederholt bekräftigt, dass dies nicht möglich ist [um nach Coronavirus zu suchen]. "Wenn Sie Ihre Tests als Screening-Tool verwenden möchten, müssen Sie sie bei der Food and Drug Administration überprüfen", sagte Gail Langley, Mitarbeiterin des Nationalen Zentrums für Immunisierung und Atemwegserkrankungen, am 16. Februar. Das Amt konnte jedoch keine Genehmigung erteilen, da das Labor nicht gemäß den Anforderungen für Zentren für die Erbringung medizinischer Dienstleistungen und die medizinische Versorgung als klinisch zertifiziert war. Und der Zertifizierungsprozess kann Monate dauern.

Infolgedessen beschlossen die Grippeforscher von Seattle unter der Leitung von Dr. Helena Chu, die CDC zu ignorieren:

, , , , . , , …

« », — . « , ». …

C.D.C. F.D.A. . . « », — . « ».

Trotzdem hat ein alarmierender Fund die Meinung der Beamten über die Epidemie geändert. Teilnehmer einer Grippestudie in Seattle isolierten schnell das Virusgenom und entdeckten eine genetische Variation, die auch im ersten Fall einer Coronavirus-Infektion des Landes vorhanden war.

So begann der von Bedford ausgelöste Sturm und die Reaktion von Privatunternehmen und Einzelpersonen. Und selbst wenn sie einige Wochen später reagierten als sie sollten, geschah dies dennoch viel früher als es in der Welt der Informationsbeobachter geschehen wäre.

Internet und persönliche Überprüfung


Wie Sie wissen, ist das Internet aus dem ARPANET-Projekt des US-Verteidigungsministeriums hervorgegangen. Es war das Netzwerk, für das Surf, Dalal und Sunshine TCP entwickelten. Entgegen dem weit verbreiteten Mythos bestand das Ziel jedoch nicht darin, ein Kommunikationsnetz zu schaffen, das gegen einen Atomangriff resistent war. Alles war prosaischer: Den Forschern standen nur wenige Hochleistungscomputer zur Verfügung, und die Advanced Defense Research Agency (ARPA) wollte den Zugang zu ihnen erleichtern.

Obwohl die Popularität der Theorie eines Atomangriffs Gründe hat. Erstens gab es Motivationfür die theoretische Untersuchung der Paketvermittlung, die sich in das TCP / IP-Protokoll verwandelt hat. Zweitens die Tatsache der Stabilität des Internets: Trotz der Bemühungen der Erziehungsberechtigten zirkulieren alle Informationen frei im Netzwerk (mit Ausnahme von China). Einschließlich Fehlinformationen, aber auch sehr wertvolle Informationen. Im Fall von COVID-19 verbessert dies ein sehr ernstes Problem geringfügig.

Dies bedeutet nicht, dass die Verfügbarkeit des Internets uns helfen wird, alle Probleme sowohl in der Welt als auch in der Geschichte des Coronavirus zu lösen. Aber wenn wir durch diese Krise gehen, müssen wir uns an die Geschichte von Twitter und den heldenhaften Forschern der Seattle-Grippe erinnern: Übermäßige Zentralisierung und Bürokratie verhinderten kritische Forschung. Um die Studie zu beschleunigen, wurde das Feedback von Menschen und Unternehmen im ganzen Land durch das Pflichtbewusstsein der Wissenschaftler und die Tatsache unterstützt, dass jeder im Internet veröffentlichen kann.

Anstatt das Internet zu bekämpfen - Schlösser und Gräben um Informationen mit allerlei verrückten Kompromissen zu schaffen - lohnt es sich daher zu überlegen, welche Vorteile die Übernahme der Situation bringen kann. Alles deutet darauf hin, dass junge Menschen die Bedeutung der persönlichen Überprüfung verstehen. Zum Beispiel,Dies ist eine Studie des Reuters Institute in Oxford :

Im Verlauf unserer Interviews haben wir keine Vertrauenskrise in den Medien festgestellt, von der wir unter jungen Menschen oft hören. Es gibt ein allgemeines Misstrauen gegenüber einigen politisierten Meinungen, aber es gibt auch eine hohe Bewertung einiger Ihrer Lieblingsmarken. Gefälschte Nachrichten werden eher als Ärgernis als als Krise der Demokratie angesehen, zumal das Ausmaß der Probleme nicht der Aufmerksamkeit entspricht, die ihr geschenkt wird. Daher spüren die Benutzer die Kraft, diese Probleme einzudämmen.

Auch in dieser Studie stellte sich heraus, dass soziale Netzwerke mehr Standpunkte zeigen als Offline-Nachrichten. Und die Autoren einer anderen Studie glauben, dass die politische Polarisierung bei der älteren Generation, die das Internet weniger nutzt, am stärksten ausgeprägt ist.

Ich wiederhole, ich sage nicht, dass alles in Ordnung ist, weder in der Geschichte des Coronavirus kurzfristig, noch in sozialen Netzwerken und der direkten Übertragung von Informationen mittelfristig. Es gibt jedoch immer noch Gründe für Optimismus und die Überzeugung, dass sich die Situation verbessern wird. Je schneller wir die Idee akzeptieren, dass die Reduzierung der Anzahl der Erziehungsberechtigten und die Erhöhung der Informationsmenge zu einer Zunahme von Innovationen und guten Ideen im Verhältnis zum Fluss von Fehlinformationen führen, den junge Menschen, die im Internetzeitalter aufgewachsen sind, bereits zu ignorieren lernen.

All Articles