Internetgeschichte: Ära der Fragmentierung; Teil 1: Lastfaktor





Anfang der achtziger Jahre wurde der Grundstein für das gelegt, was wir heute als „Internet“ kennen - seine grundlegenden Protokolle wurden unter Kampfbedingungen entwickelt und getestet -, dieses System blieb jedoch geschlossen und wurde fast vollständig von der einzigen Einheit, dem US-Verteidigungsministerium, kontrolliert. Bald muss sich dies ändern - das System wird mit CSNET auf alle Abteilungen der Informatik verschiedener Institute ausgeweitet. Das Netzwerk wird im akademischen Bereich weiter wachsen, bevor es in den neunziger Jahren endgültig für die allgemeine kommerzielle Nutzung geöffnet wird.

Die Tatsache, dass das Internet zum Zentrum der fortschreitenden digitalen Welt, der weit verbreiteten „Informationsgemeinschaft“, werden wird, war in den 1980er Jahren überhaupt nicht offensichtlich. Selbst für Leute, die von ihm hörten, blieb er nur ein vielversprechendes wissenschaftliches Experiment. Aber der Rest der Welt blieb nicht stehen, hielt den Atem an und wartete auf seine Ankunft. Stattdessen konkurrierten viele Optionen für die Bereitstellung des Zugangs zu Online-Diensten für den Massenverbraucher um Geld und Aufmerksamkeit.

Personal Computing


Um 1975 führten Durchbrüche in der Halbleiterherstellung zur Entstehung eines neuen Computertyps. Einige Jahre zuvor hatten die Ingenieure herausgefunden, wie die Hauptlogik der Datenverarbeitung auf einen einzigen Mikrochip - einen Mikroprozessor - übertragen werden kann. Unternehmen wie Intel haben damit begonnen, Hochgeschwindigkeits-Kurzzeitspeicher auf Chips anzubieten, um den Speicher auf den Magnetkernen der vorherigen Computergeneration zu ersetzen. Infolgedessen standen die wichtigsten und teuersten Teile des Computers unter dem Einfluss des Mooreschen Gesetzes, das in den folgenden Jahrzehnten die Kosten für Prozessorchips und Speicher ständig senkte. Bis zur Mitte des Jahrzehnts hatte dieser Prozess diese Komponenten bereits so verbilligt, dass ein Vertreter der amerikanischen Mittelklasse bereits die Möglichkeit in Betracht ziehen konnte, einen eigenen Computer zu kaufen und zusammenzubauen.Solche Maschinen wurden als Mikrocomputer (oder manchmal auch als Personal Computer) bezeichnet.

Es gab einen heftigen Kampf um das Recht, der erste Personal Computer genannt zu werden. Einige betrachteten LINC von Wes Clark oder TX-0 aus Lincolns Labors als solche - schließlich konnte nur eine Person es interaktiv verwenden. Wenn Sie die Fragen des Primats fallen lassen, ist jeder Kandidat für den ersten Platz, wenn Sie die historische Abfolge der Ereignisse bewerten, verpflichtet, sie einem offensichtlichen Champion zu geben. Keine andere Maschine konnte den katalytischen Effekt erzielen, den der MITS Altair 8800 in dem explosionsartigen Anstieg der Popularität von Mikrocomputern Ende der 1970er Jahre hervorrief.


Altair 8800 steht auf einem zusätzlichen Modul mit einem 8 "Laufwerk

Altair ist zu einem Keimkristall für die Elektronik-Community geworden. Er überzeugte Amateure, dass eine Person ihren eigenen Computer zu einem vernünftigen Preis zusammenbauen könne, und diese Amateure versammelten sich in Gemeinden, um über ihre neuen Maschinen zu diskutieren - zum Beispiel den Homebrew Computer Club ("Club der hausgemachten Computer") im Menlo Park. Diese Amateurzellen haben eine viel stärkere Welle kommerzieller Mikrocomputer gestartet, die auf Massenproduktionsmaschinen basieren, für die keine elektronischen Kenntnisse erforderlich sind - zum Beispiel Apple II und Radio Shack TRS-80.

Bis 1984 hatten 8% der US-Haushalte einen eigenen Computer, was ungefähr sieben Millionen Autos entsprach. In der Zwischenzeit erwarben Unternehmen ihre eigenen Flotten von PCs mit einer Geschwindigkeit von Hunderttausenden von Einheiten pro Jahr - hauptsächlich die IBM 5150 und ihre Klone. Im teureren Segment der Einzelbenutzercomputer wuchs der Markt für Workstations durch Silicon Graphics und Sun Microsystems, leistungsstärkere Computer mit fortschrittlichen Grafikdisplays und Netzwerkgeräten, die von Wissenschaftlern, Ingenieuren und anderen technischen Experten verwendet werden sollen.

Solche Maschinen konnten nicht in die exquisite Welt von ARPANET eingeladen werden. Viele ihrer Benutzer wollten jedoch Zugang zu der versprochenen Fusion von Computern und Kommunikation, die Theoretiker seit Taylor und Likliders Artikel „Computer als Kommunikationsgerät“ von 1968 und einige sogar schon früher in der populären Presse ausgestrahlt haben. Bereits 1966 versprach der Wissenschaftler John McCarthy in Scientific American, dass "die Technologie, die uns bereits demonstriert wurde, ausreicht, um sich vorzustellen, wie Computerkonsolen in jedem Haus aussehen, das per Telefon mit öffentlichen Computern verbunden ist". Er erklärte, dass das Leistungsspektrum eines solchen Systems einfach nicht aufzulisten sei, führte jedoch mehrere Beispiele an: „Jeder wird Zugang zur Library of Congress haben und eine bessere Qualität als die Bibliothekare.Vollständige Berichte über aktuelle Ereignisse werden verfügbar sein, sei es Baseballergebnisse, der Smogindex in Los Angeles oder eine Beschreibung des 178. Treffens der Waffenstillstandskommission in Korea. Einkommenssteuern werden automatisch berechnet, da ständig Aufzeichnungen über Einnahmen, Abzüge, Einlagen und Ausgaben gesammelt werden. “

Artikel in der Populärliteratur beschrieben die Möglichkeiten von E-Mail, digitalen Spielen und verschiedenen Dienstleistungen, von rechtlichen und medizinischen Beratungen bis hin zu Online-Einkäufen. Aber wie genau wird das alles aussehen? Viele der Antworten waren weit von der Wahrheit entfernt. Rückblickend sieht diese Ära aus wie ein zerbrochener Spiegel. Alle Dienste und Konzepte, die das kommerzielle Internet der neunziger Jahre - und viele andere - charakterisierten, erschienen in den achtziger Jahren, waren jedoch fragmentiert und auf Dutzende verschiedener Systeme verteilt. Mit einigen Ausnahmen kreuzten sich diese Systeme nicht, sie standen auseinander. Die Benutzer eines Systems hatten keine Möglichkeit, mit Benutzern des anderen Systems zu interagieren oder zu kommunizieren. Daher waren die Versuche, mehr Benutzer für eines von ihnen zu gewinnen, meist ein Nullsummenspiel .

In diesem Artikel werden wir eine Untergruppe von Teilnehmern an dieser neuen digitalen Gebietserfassung betrachten - Unternehmen, die Shared Access verkauft haben und versucht haben, in einen neuen Markt mit attraktiven Bedingungen einzutreten.

Ladefaktor


Im Jahr 1892 Samuel Insal, Thomas Edisons Schützlingreiste nach Westen, um Edisons neue Abteilung für Elektroimperien, die Chicago Edison Company, zu leiten. In diesem Beitrag konsolidierte er viele Schlüsselprinzipien des modernen Versorgungsmanagements, insbesondere das Konzept des Lastfaktors - es wird als durchschnittliche Belastung des elektrischen Systems geteilt durch die höchste Last betrachtet. Je größer der Lastfaktor ist, desto besser, da jede Abweichung vom idealen Verhältnis von 1/1 Abfall bedeutet. Dies sind unnötige Mittel, die zur Verarbeitung von Spitzenlasten benötigt werden, aber bei Zeitplanfehlern untätig bleiben. Insal beschloss, die Lücken in der Abfragekurve zu schließen, indem neue Verbraucherklassen entwickelt wurden, die Strom zu verschiedenen Tageszeiten (oder sogar zu verschiedenen Jahreszeiten) verbrauchen, selbst wenn sie Strom mit einem Rabatt verkaufen mussten.In der Anfangszeit wurde die Stromversorgung hauptsächlich zur Beleuchtung von Häusern und größtenteils abends genutzt. Daher begann Insal, für die Verwendung von Elektrizität in der industriellen Produktion zu werben und den täglichen Verbrauch zu erhöhen. Dies führte morgens und abends zu Ausfällen, und so überzeugte er das Chicagoer Transportsystem, die Straßenbahnen auf elektrische Traktion umzustellen. Auf diese Weise maximierte Insal den Wert des investierten Kapitals, obwohl es manchmal notwendig war, Strom mit einem Abschlag zu verkaufen.Deshalb überredete er das Chicagoer Transportsystem, Straßenbahnen auf elektrische Traktion umzustellen. Auf diese Weise maximierte Insal den Wert des investierten Kapitals, obwohl es manchmal notwendig war, Strom mit einem Abschlag zu verkaufen.Deshalb überredete er das Chicagoer Transportsystem, Straßenbahnen auf elektrische Traktion umzustellen. Auf diese Weise maximierte Insal den Wert des investierten Kapitals, obwohl es manchmal notwendig war, Strom mit einem Abschlag zu verkaufen.


Insal im Jahr 1926, als sein Foto auf dem Cover des Time Magazins platziert wurde.

Die gleichen Grundsätze gelten für die Investition von Kapital in Computer fast ein Jahrhundert später - und es war der Wunsch nach einer ausgeglichenen Last, der zu einem Angebot von Rabatten führte, als es keine Spitzen-Downloads gab, die zwei neue Online-Downloads ermöglichten Mikrocomputer-Dienste, die im Sommer 1979 fast gleichzeitig eingeführt wurden: CompuServe und The Source.

CompuServe


1969 registrierte die kürzlich gegründete Golden United Life Insurance Company in Columbus, Ohio, eine Tochtergesellschaft von Compu-Serv Network. Der Gründer von Golden United wollte das fortschrittlichste High-Tech-Unternehmen mit computergestützter Aufzeichnung gründen. Deshalb beauftragte er einen jungen Doktoranden der Informatik, John Goltz, mit der Leitung dieses Projekts. Der Verkaufsleiter von DEC sprach jedoch mit Goltz über den Kauf des PDP-10, eines teuren Autos, dessen Rechenleistung die aktuellen Anforderungen von Golden United deutlich übertraf. Die Idee, Compu-Serv zu erstellen, bestand darin, diesen Fehler in eine Chance zu verwandeln. Es war geplant, überschüssige Rechenleistung an Kunden zu verkaufen, die über eine Telefonleitung von einem entfernten Terminal aus eine Verbindung zum PDP-10 herstellen konnten.In den späten 1960er Jahren wurde ein solches Modell mit der Trennung von Zeit und Verkauf von Computerdiensten ziemlich aktiv verbreitet, und Golden United wollte sein Kinderspiel schnappen. In den 1970er Jahren spaltete sich eine Abteilung des Unternehmens in eine unabhängige Einheit auf, benannte sie in CompuServe um und schuf ein eigenes paketvermitteltes Netzwerk, um kostengünstigen und landesweiten Zugang zu Rechenzentren in Columbus zu ermöglichen.

Der nationale Markt verschaffte dem Unternehmen nicht nur Zugang zu mehr potenziellen Kunden, sondern erweiterte auch die Nachfragekurve für Computerzeit und verteilte sie auf vier Zeitzonen. Es gab jedoch immer noch eine große Lücke zwischen dem Ende des Tages in Kalifornien und dem Beginn des Tages an der Ostküste, ganz zu schweigen vom Wochenende. Jeff Wilkins, CEO von CompuServe, sah die Gelegenheit, dieses Problem mit einer wachsenden Flotte von Heimcomputern zu lösen, da viele ihrer Besitzer Abende und Wochenenden mit ihren elektronischen Hobbys verbrachten. Was ist, wenn wir ihnen Zugang zu E-Mails, Bulletin Boards und Spielen auf CompuServe-Computern mit einem Rabatt in den Abendstunden und am Wochenende bieten (5 USD / Stunde gegenüber 12 USD / Stunde während der Arbeitszeit)? [im aktuellen Geld sind es 24 $ bzw. 58 $].

Wilkins startete einen Testdienst, der als MicroNET bezeichnet wurde (speziell von der Hauptmarke CompuServe entfernt), und nach einem langsamen Start wurde daraus allmählich ein unglaublich erfolgreiches Projekt. Dank des nationalen Datennetzwerks von CompuServe konnten die meisten Benutzer einfach ihre lokale Nummer anrufen, um zu MicroNET zu gelangen, und so Fernrechnungen vermeiden, obwohl sich die realen Computer, mit denen sie Kontakt aufnahmen, in Ohio befanden. Als das Experiment erfolgreich war, gab Wilkins die Marke MicroNET auf und übertrug sie auf die Marke CompuServe. Bald begann das Unternehmen, Dienste anzubieten, die speziell für Benutzer von Mikrocomputern entwickelt wurden, wie Spiele und andere Software, die online gekauft werden konnten.

Die mit Abstand beliebtesten Dienste sind jedoch Kommunikationsplattformen. Für langfristige Diskussionen und das Posten von Inhalten gab es Foren, deren Themen von Literatur bis Medizin, von der Arbeit mit Holz bis zur Popmusik reichten. CompuServe gab normalerweise den Benutzern selbst Foren, und einige von ihnen, die die Rolle von "Sysops" übernahmen, waren mit Moderation und Verwaltung beschäftigt. Eine weitere wichtige Messaging-Plattform war CB Simulator, den Sandy Trevor, einer der Direktoren von CompuServe, über Nacht entworfen hat. Es wurde nach dem damals beliebten Hobby des Amateurfunk (Citizen Band, CB) benannt und ermöglichte es Benutzern, in Echtzeit-Text-Chatrooms auf dedizierten Kanälen zu sitzen - dieses Modell ähnelte Gesprächsprogrammen, die auf vielen Time-Sharing-Systemen verfügbar waren.Viele Benutzer hingen stundenlang in CB Simulator herum, unterhielten sich, fanden Freunde und fanden sogar Liebhaber.

The Source


Nach MicroNET wurde im Juli 1979 ein weiterer Onlinedienst für Mikrocomputer gestartet, der nur acht Tage später gestartet wurde. Tatsächlich richtete er sich an fast das gleiche Publikum wie der Jeff Wilkins-Dienst, obwohl er sich vollständig entsprechend entwickelte ein anderes Muster. William von Meister, der Sohn deutscher Auswanderer, dessen Vater bei der Organisation von Luftschiffflügen zwischen Deutschland und den USA half, war ein Serienunternehmer. Er begann sich an einem neuen Unternehmen zu beteiligen, sobald er das Interesse an dem alten verlor oder enttäuschte Investoren aufhörten, ihn zu unterstützen. Es war schwer sich eine Person vorzustellen, die Wilkins ähnlicher war. Mitte der 1970er Jahre waren seine größten Erfolge: das elektronische Nachrichtensystem Telepost, das sie elektronisch im ganzen Land zu dem dem Empfänger am nächsten gelegenen Switch schickte;und Überwindung der letzten Meile in Form von Post, die am nächsten Tag zugestellt wird; TDX-System, bei dem Computer zur Optimierung der Weiterleitung von Telefonanrufen verwendet wurden, wodurch die Kosten für Ferngespräche für große Unternehmen gesenkt wurden.

Von Meister, der voraussichtlich das Interesse an TDX verlor, war begeistert von dem neuen Projekt Infocast, das er Ende der 1970er Jahre in McClean, Virginia, starten wollte. Es war in der Tat eine Erweiterung des Telepost-Konzepts, aber anstatt die Nachricht auf der letzten Meile per E-Mail zu übermitteln, musste er das FM-Seitenband verwenden (gemäß dieser Technologie werden der Sendername, der Musikername und der Songname an moderne Radios übertragen), um digitale Nachrichten zu übermitteln Daten an Computerterminals. Insbesondere plante er, dies stark geografisch verteilten Unternehmen anzubieten, die viele Punkte hatten, die eine regelmäßige Aktualisierung der Informationen der Zentralstelle erforderten - Banken, Versicherungsunternehmen, Lebensmittelgeschäfte.


Bill von Meister

Was von Meister jedoch unbedingt schaffen wollte, war ein landesweites Netzwerk für die Lieferung von Daten über Terminals für Millionen und nicht für Tausende an Privathaushalte. Es ist jedoch eine Sache, ein Unternehmen davon zu überzeugen, 1.000 USD für ein spezielles FM-Radio und -Terminal auszugeben, und eine andere, private Verbraucher zu bitten, dasselbe zu tun. Daher suchte von Meister nach anderen Möglichkeiten, um Nachrichten, Wetterinformationen und andere Dinge nach Hause zu bringen. und er fand eine solche Methode in Hunderttausenden von Mikrocomputern, die wie Pilze durch amerikanische Büros und Häuser krochen und in Häusern auftauchten, die bereits mit Telefonleitungen ausgestattet waren. Er ging eine Partnerschaft mit Jack Taub ein, einem wohlhabenden Geschäftsmann mit Verbindungen, dem die Idee so gut gefiel, dass er in sie investieren wollte. Taub und von Meister haben ihren neuen CompuCom-Dienst erstmals benannt.auf eine charakteristische Weise für Computerfirmen jener Tage, die Wörter beschneiden und komponieren, aber dann zu einem abstrakteren und ideologischeren Namen kamen - The Source [Quelle].

Das Hauptproblem war das Fehlen einer technischen Infrastruktur, die zur Verwirklichung dieser Idee beitragen konnte. Um dies zu erreichen, haben sie eine Vereinbarung mit zwei Unternehmen geschlossen, deren Ressourcen insgesamt mit denen von CompuServe vergleichbar waren. Sie hatten Computer, die für die Arbeit an einem Time-Sharing-System geeignet waren, und ein nationales Datennetz. Beide Ressourcen waren abends und am Wochenende fast leer. Die Stromversorgung des Computers erfolgte durch Dialcom mit Hauptsitz am Ufer des Potomac River in Silver Spring, Maryland. Wie CompuServe wurde es 1970 als Time-Sharing-Computerdienstleister in Betrieb genommen, obwohl es bis zum Ende des Jahrzehnts bereits viele andere Dienste angeboten hatte. Dank des Dialcom-Terminals habe ich übrigens zuerst Computer kennengelerntEric Emerson Schmidt , zukünftiger Vorsitzender und CEO von Google. Die Kommunikationsinfrastruktur wurde von Telenet bereitgestellt, einem paketvermittelten Netzwerk, das zu Beginn des Jahrzehnts von Bolt, Beranek und Newman , BBN , ausgegliedert wurde . Taub und von Meister bezahlten den Zugang zu Dialcom- und Telenet-Diensten mit einem Rabatt während der Mindeststunden und konnten den Zugang zu The Source zu einem Preis von 2,75 USD pro Stunde in der Nacht und am Wochenende mit einer Anzahlung von 100 USD (dies sind 13 USD pro Stunde und 480 USD) anbieten Anzahlung in heutigen Dollar).

Neben dem Zahlungssystem bestand der Hauptunterschied zwischen The Source und CompuServe in der Erwartung der Benutzer, die ihr System verwenden. Zu den frühesten Diensten von CompuServe gehörten E-Mail, Foren, CB und Programmaustausch. Es wurde davon ausgegangen, dass Benutzer unabhängig voneinander ihre eigenen Communities erstellen und ihre Aufbauten auf Basiseisen und Programmen aufbauen würden - genau wie Unternehmensbenutzer von Time-Sharing-Systemen. Taub und von Meister hatten keine Erfahrung mit solchen Systemen. Ihr Geschäftsplan basierte auf der Bereitstellung vieler Informationen für professionelle High-End-Verbraucher: der New York Times-Datenbank, Nachrichten von United Press International, Aktieninformationen von Dow Jones, Flugpreisen, Bewertungen lokaler Restaurants und Weinpreisen. Könnte sein,Das charakteristischste Merkmal war, dass die Quellbenutzer von einem Bildschirmmenü aus den verfügbaren Optionen begrüßt wurden, während CompuServe-Benutzer von der Befehlszeile begrüßt wurden.

In Übereinstimmung mit den persönlichen Unterschieden zwischen Wilkins und von Meister erwies sich der Start von The Source als ebenso großartiges Ereignis wie der leise Start von MicroNET. Isaac Asimov wurde zu der ersten Veranstaltung eingeladen, um persönlich bekannt zu geben, wie die Ankunft der Science-Fiction zu einer wissenschaftlichen Tatsache wurde. Und, typisch für von Meister, dauerte seine Arbeit bei The Source nicht lange. Das Unternehmen hatte sofort finanzielle Schwierigkeiten, da die Ausgaben den Einnahmen überlegen waren. Taub und sein Bruder hatten einen ausreichend großen Anteil an dem Geschäft, um von Meister aus dem Geschäft zu verdrängen, und im Oktober 1979, nur wenige Monate nach der Auftaktparty, taten sie dies.

Rückgang in Time-Sharing-Systemen


Das letzte Unternehmen, das aufgrund der Lastfaktorlogik in den Mikrocomputermarkt eintrat, war General Electric Information Services (GEIS), ein Geschäftsbereich des Fertigungsgiganten auf dem Gebiet der Elektrotechnik. GEIS wurde Mitte der 1960er Jahre gegründet, als GE noch versuchte, mit anderen in der Computerherstellung zu konkurrieren, um IBM aus seiner beherrschenden Stellung im Computerverkauf herauszuholen. GE versuchte die Kunden davon zu überzeugen, dass es für sie einfacher war, Computer von GE zu mieten, anstatt Computer von IBM zu kaufen. Dieser Versuch hatte praktisch keine Auswirkungen auf den Marktanteil von IBM, aber das Unternehmen verdiente genug Geld, um bis in die 1980er Jahre in das Unternehmen zu investieren. Zu diesem Zeitpunkt besaß GEIS bereits ein weltweites Datennetz und zwei große Rechenzentren in Cleveland, Ohio, und in Europa.

Im Jahr 1984 bemerkte jemand von GEIS, wie gut The Source und CompuServe wuchsen (letztere hatten zu diesem Zeitpunkt bereits mehr als 100.000 Benutzer), und fand heraus, wie Rechenzentren außerhalb der Hauptlaststunden funktionieren können. Um ein eigenes Angebot für Benutzer zu erstellen, haben sie den CompuServe-Veteranen Bill Lauden engagiert. Lauden war verärgert darüber, wie die Vertriebsleiter von Unternehmen versuchten, in ein zunehmend attraktives Verbrauchergeschäft einzusteigen, und verließ das Unternehmen mit einer Gruppe von Kollegen, um zu versuchen, einen eigenen Onlinedienst in Atlanta zu schaffen, der als Georgia OnLine bezeichnet wurde. Sie versuchten, den fehlenden Zugang zum nationalen Datennetz zu einem Vorteil zu machen, indem sie Dienste anboten, die speziell für den lokalen Markt entwickelt wurden, wie spezielle Werbung und Informationen zu verschiedenen Veranstaltungen, aber das Unternehmen ging aus dem Geschäft.Daher freute sich Lauden über den Vorschlag von GEIS.

Lauden rief den neuen Dienst GEnie an genie - genie] - es war das Backronym des General Electric Network für den Informationsaustausch [GE Information Exchange Network]. Sie bot alle zu dieser Zeit entwickelten Dienste in The Source und CompuServe an - Chat (CB-Simulator), Message Boards, Nachrichten, Wetter- und Sportinformationen.

GEnie war der neueste PC-Dienst, der aus der Computerzugriffsbranche mit Time-Sharing- und Lastfaktor-Logik hervorgegangen ist. Mit der Zunahme der Anzahl kleiner Computer auf Millionen Stück wurden digitale Dienste für den Massenmarkt allmählich zu einem attraktiven Geschäft und waren nicht mehr nur ein Weg, das verfügbare Kapital zu optimieren. In den frühen Tagen waren The Source und CompuServe winzige Unternehmen, die in den 1980er Jahren mehrere tausend Abonnenten bedienten. Zehn Jahre später zahlten bereits Millionen von Abonnenten eine monatliche Gebühr an die USA - und CompuServe war an der Spitze dieses Marktes und übernahm seinen früheren Rivalen The Source.Der gleiche Prozess machte den Time-Sharing-Zugriff für Unternehmen weniger attraktiv - warum für die Kommunikation und den Zugriff auf den Remotecomputer eines anderen bezahlen, wenn es so einfach wurde, Ihr eigenes Büro mit leistungsstarken Maschinen auszustatten? Und bis zum Aufkommen von Glasfaserkanälen, die die Kommunikationskosten drastisch senkten, änderte diese Logik ihre Richtung nicht in die entgegengesetzte Richtung.

Auf diesen Markt könnte jedoch nicht nur für Unternehmen zugegriffen werden, die Zugang mit Time-Sharing anbieten. Anstatt mit großen Mainframes zu beginnen und nach Möglichkeiten zu suchen, diese vollständig herunterzuladen, begannen andere Unternehmen mit der Technologie, die sich bereits in den Häusern von Millionen von Menschen befand, und suchten nach Möglichkeiten, sie an einen Computer anzuschließen.

Was noch zu lesen
  • Michael A. Banks, Auf dem Weg ins Web (2008)
  • Jimmy Maher, "Ein Netz vor dem Web", filfre.net (2017)

All Articles