Die unendliche UNIX-Geschichte

Shownotes

Die Veröffentlichung von UNIX stellte die IT-Welt vor über 50 Jahren auf den Kopf. Linux wäre ohne die wertvolle Arbeit von zahlreichen brillanten Köpfen und Firmen nicht denkbar gewesen. Gemeinsam mit Peter Wüstefeld, Thomas Wagner und Melanie Falz werfen wir einen Blick auf die 'Big Four' und schwelgen in Erinnerungen.

Vorstellung der Teilnehmenden

Überblick über die frühe Geschichte

Solaris

IBM AIX

SGI IRIX

HP-UX

Hardware

Vermächtnis

Tool-/Medientipps

Kommentare (3)

Thom

Super Folge! Ich hab zum Thema SGI drei Anmerkungen: SGI ist auch aus dem universitären Umfeld entstanden, nämlich auf Basis der Arbeiten zur "Geometry Engine" von James Clark und Studenten. Das war der Vorläufer der heutigen GPUs. Deshalb auch Silicon Graphics als Name der Firma, die in der Folge gegründet wurde. OpenGL ist längst nicht mehr so relevant wie es mal war. Auf Windows wird meistens DirectX verwendet, in der Apple Welt ist Metal die zentrale API. Und mit Vulkan gibt es den Nachfolger von OpenGL. Insofern ist es nicht ganz unwahrscheinlich, dass ein Mensch nicht mit OpenGL an sich konfrontiert ist, auch wenn etliche Konzepte nach wie vor relevant sind. Zu Tron: Nein, das war nicht SGI Hardware sondern neben sehr viel händischem Rotoskopieren für die leuchtenden Anzüge u.Ä. freue Computergrafik ohne Texture Mapping auf Maschinen von Foonly, die auf der DEC PDP-10 basierten, und zwar allein auf der CPU und nicht auf einer speziellen Grafikhardware.

StefanB

Sehr schöne Folge. Tatsächlich ist ja die unendliche UN*X Geschichte noch viel viel vielfältiger und mittlerweile eindeutig zu lang für einen Podcast - für ASMR aber halt doch zu spannend. Ich finde es auch völlig OK, dass ihr die teilweise schon wirklich schmutzigen Streitigkeiten - erst AT&T und später dann SCO - nicht weiter vertieft habt. HP-UX hasst du Christian wirklich schön dargestellt und auch die Beiträge zu IRIX und Solaris (größtenteils) waren sehr sehr gut. Zu SMIT/ODM (genau wie bei HP-UX SAM) kann ich nicht ganz zustimmen. Die Text-Config-Files waren nach der Benutzung dieser Tools teils nur noch mit Schmerzen lesbar. Aber es finden ja auch heute noch einige Leute YAST ganz toll ;-) Eines finde ich aus heutiger Sicht schon ein wenig verwunderlich. Obwohl ja die Nutzer/Betreiber der kommerziellen Systemen keinen Kernel-Code hatten, wurden mit einer Selbstverständlichkeit und Häufigkeit neue Kernel gebaut. Teils als/für "normale" Konfiguration teils für Performance-Tuning. Und der Herstelle-Support hat das meiste davon auch brav mitgemacht. Eine sehr interessesantes Thema wurde ha auch angesprochen: - warum wurden diese UN*XE nicht für andere Hardware freigegeben ? 1) Alle andere Hardware war in höchstem Maße spezialisiert und mit eigenen proprietären CPUs Ein "Produkt" wäre also ohne die intensive Unterstützung des HW Konkurrenten nie möglich gewesen. 2) x86 PC Systeme waren (sind) nicht so leistungsfähig und zuverlässig wie diese UN*X Boliden. Hochverfügbarkeit und Skalierbarkeit wurden halt mit "Big-Iron" gemacht. BTW - ich kenne auch heute noch kein SAP HANA oder ORACLE oder DB2 u.v.a. mehr, das auf Kubernetes läuft. - warum wurden/werden diese Ur-Väter UN*XE nicht OpenSource gestellt ? 1) Wurde ja auch gesagt: Ist einfach zuviel Arbeit. Diese ganzen alten Quellen von Lizens- und Code-Spezialisten sichten und ggf. anzupassen wäre eine Mammutaufgabe. 2) Um das dann kommerziell weiterzuführen fehlt das Geschäftsmodell bzw passt das nicht zu den Unternehmen. Mit Solaris hat man es ja versucht. Aber es war kein (jedenfalls ausreichender) Erfolg. - anders herum wird (momentan jedenfalls noch) durchaus ein Schuh daraus Big-Iron läuft ja prima mit OpenSource - i.d.R. Linux + IBM z, HPE SuperDome Flex, Huawei KunLun, Bull Sequana, Fujitsu PRIMERGY, wie auch Dell, Lenovo u.a. verdienen alle prima Geld mit dem Tripple BigIron + Linux + SAP + auch im HPC und AI u.ä. Bereichen sind "shared Memory" Systeme oft (noch) sehr viel leistungsfähiger als "loosely coupled" Cluster IMHO stehen die heutigen - ältere wie aktuelle - CPU/System Architekturen aber hier vor einer "Schallmauer". Die Many-Core CPU Konzepte (ARM) sind zwar ganz interessant, aber persönlich glaube ich, dass man wohl von der Von-Neumann-Architektur weg muss. Wenn man aber bei der HW dann mit etwas komplett Neuem anfangen muss, dann ist es sicher lohnend wenigstem beim Betriebssystem auf eine breite gut bekannte und tragfähige Basis - also LINUX - zu setzen. Schade, dass man von HPE's "The Machine" nix mehr hört. Das Linux SDK dafür hatte ich schon'mal in den Fingern ;-)

Jan

Sehr interessant und kurzweilig, trotz 2:45 h . Grüße

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.