Meillo hat geschrieben: 10.07.2018 20:30:33
Ich finde, man merkt deutlich, dass noch nicht die Zeit gekommen ist, um nuechtern, sachlich, neutral und wissenschaftlich dieses Thema neu zu bewerten. So werde ich wohl noch ein paar Jahre darauf warten muessen.
Wie so häufig, ist es eben nicht ganz so einfach zu bestimmen, was genau das Thema ist.
Lass mich mal folgende Perspektive aufreissen:
Hier im df sind ja viele Veteranen des Gebrauchs von Rechenmaschinen versammelt. Da wurde schon so manches Bit verschoben in diesem oder jenem Register. Wir verstehen zu unterschiedlichen Graden in unterschiedlichen Teilbereichen der Verarbeitungslogik unserer elektronischen Geräte zu folgen.
Wir erwarten und finden einen Ablauf linearer Prozesse in Geflechten kombinatorischer Logik; kompliziert aber letztlich stringent ableitbar.
So gesehen müsste jede Frage zum Ablauf eines programmatischen Prozesses eine eindeutige Antwort hervorbringen.
So ist es aber nicht.
Das liegt weniger an den Prozessen als an den Fragen, die *wir* an sie stellen.
Fragen sind Ausdruck von Erwartungshaltungen, von Horizonten, in denen die individuelle Erfahrungswelt und interpretative Muster kondensiert sind.
Wenn wir mit Rechenmaschinen hantieren, nehmen wir eine implizite Grundhaltung ein, dass je mehr wir uns damit beschäftigen, je genauer wir die Abläufe verstehen und kontrollieren können, desto optimaler wird das Funktionieren dieser Geräte sein.
Wir glauben an den Fortschritt.
Auf der anderen Seite gibt es da ein strukturelles Problem: Komplexität.
Kann heutzutage noch eine Einzelperson sämtliche konstruktiven Details einer handelsüblichen CPU aus dem Ärmel schütteln?
Und das wäre ja nur die materiell-technische Ebene, komplexitätsmäßig voll old school.
Wir sind auf dem Weg in die Artificial Intelligence im großen Stil, sagen alle.
Manche sagen, dass solche komplexen elektronischen Prozesse nur dann sinnvoll und nachvollziehbar gesteuert und beobachtet werden können, wenn wir
artificial ignorance walten lassen.
Das Unix-Erbe ist in diesem Zusammenhang interessant, nicht nur aber auch weil die Radikalinskis von Devuan sich explizit darauf berufen. Norbert Tretkowski hatte da mal mit einem ordentlichen Schuss Selbstironie "In Low-Tech we trust" auf die Freiheitsflagge geschrieben.
Im Kern sehe ich im KISS-Prinzip eine Technik der geordneten Komplexitätsreduktion, die in einer Hinsicht bisher ungeschlagen ist: in ihrer eigenen Einfachheit. Die Technik der Komplexitätsreduktion ist einfach zu verstehen und somit auch anzuwenden und durchzuhalten. Das ist nicht zuletzt das Feature, das Richard Gabriel in seiner "Worse is better"-Analogie herausarbeitet.
Beispiel aus der Praxis:
Die Unix-Rechteverwaltung ist vergleichsweise tumb. Windows hat seit seinem NT-Kernel ein viel weitreichenderes, fein granulierbares Konzept eingeführt. Da ist nur kaum eine Sau mit klar gekommen. Das ging so weit, dass die erste ernsthafte Anwendung dieser Rechteverwaltung in einem End-User-Betriebssystem (Vista) mehr als zehn(!) Jahre später zu einem totalen Fiasko wurde. Dabei war das System doch "besser"[*].
Aber eben nicht besser handhabbar.
Allerdings gibt es in der Unix-Welt noch dieses seltsame Biest: die Lernkurve.
Die Technik der Komplexitätsreduktion an sich ist einfach und das kostet. Um mit solchen Systemen sinnvoll zu arbeiten, müssen grundlegende aber auch spezielle Techniken und Fertigkeiten erworben werden, die häufig genug wenig spektakulär anmuten, vielmehr wie dröge Fleißarbeit daher kommen. Das ist nicht jedermanns Sache. Der Webshop läuft nicht? "Mach mal chmod -R 777 auf das ganze Verzeichnis." "Supi, jetzt funzts. Super Lösung. Merk ich mir."
Ist das die Frage? Entweder Weiter-immer-weiter oder Schuster-bleib-bei-deinen-Leisten?
C++ ist besser[2] als C. Deswegen hat der C-Programmierer kein Argument außer Neid.
Nächste Frage: Warum ist nicht jede Software, die seit Erscheinen von C++ geschrieben wurde, in C++ geschrieben worden?
Ist das noch logisch?
Ja, was denn jetzt? Wie umgehen mit der Frage:
Ist systemd gut?
Ich sage: Keiner - auch niemand nicht - ist mittelfristig in der Lage den Überblick zu behalten (to keep things at grip). Das macht uns schwer zu schaffen. So schwer, dass manche ihr Heil in Dogmen suchen. Andere in Sarkasmus. So richtig schlimm wird es, wenn beides sich paart. Und wie es Beelzebub nun einmal eingerichtet hat, sind die eigenen Vorurteile just im Bereich des blinden Flecks, von dem wir nur indirektes Wissen erlangen können. Wir sehen ihn nicht.
Wahrscheinlich haben wir hier ein Problem unter Menschen, weniger ein Problem von Funktionsweisen bestimmter Maschinen. Wobei zweiteres möglicherweise zu einem gewissen Anteil prinzipiell nur eine Projektionsfläche des ersteren darstellt. Wir bleiben für Sie diesbezüglich am Ball.
Ich sprach von "Dogmen" und "Vorurteilen". Das sind schlimme Wörter für allzumenschliches. Immerhin beruht die Funktionsweise unserer Wahrnehmung auf dem "Ausklammern von Zweifeln" und dem Herausarbeiten prägnanter Merkmale einer Gestalt, die wir dann als Dinge und Sachverhalte in unserer Erfahrungswelt gruppieren und sprachlich verarbeiten können. Das Vor-Urteil hat einen wesentlichen funktionalen Stellenwert in der Art und Weise, wie wir der Welt begegnen. In diesem Sinne kann keine Perspektive - auch nicht die wissenschaftliche - für sich in Anspruch nehmen, frei und umfassend zu sein. Dann wäre sie auch keine Perspektive.
Alan Kaye sagte einmal: "A point of view is worth 80 IQ-Points". Da könnte was dran sein. Noch besser schneidet der Proband natürlich ab, wenn er die Perspektive nicht nur einnehmen, sondern ihre Möglichkeiten und Grenzen sich selbst und anderen gegenüber auch darlegen kann.
Ab da wird es dann wieder kompliziert.
[1] Selinux war augenscheinlich von der NT-Rechteverwaltung inspiriert.
[2] .. ist doppelt plus gut .. scnr
Das Wem, Wieviel, Wann, Wozu und Wie zu bestimmen ist aber nicht jedermannns Sache und ist nicht leicht.
Darum ist das Richtige selten, lobenswert und schön.