MSfree hat geschrieben: 06.07.2020 16:58:03
Damit mißt du aber nicht das Memory Management sondern die Plattengeschwindigkeit beim Swappen.
Nein. Du misst vor allem wie häufig das vor kommt, dass du auf die Platte warten musst. Da liegt die Magic: Dank Async-I/O Daten in den RAM laden BEVOR sie benötigt werden und dank caches alte die eventuell wieder benötigt werden im RAM halten.
DAber meine Meinung zu Swap ist sowieso nicht mit deiner vereinbar.. Swap bremst immer, wenn er genutzt wird. Man braucht einfach immer genug RAM.
Und du baust halt mal zusätzlich 20GiB RAM ein, damit dein vollständiges Windows in den RAM passt+~100GiB die deine Anwendungen+Daten fressen? Dann werden die 20GiB, die mittlerweile eher 25 sind halt doch interessant.
Und jetzt kommt die wirklich interessante Frage: Wie bekommst du dein Windows dazu, dass es dir dann deine platte wirklich im RAM behält und nicht doch wieder langsam von der Platte ließt? Deine Meinung ist keine Meinung sondern schlicht Hahnebüchener Unsinn.
Ich habe vorhin mal auf der WIn10 Kiste im Büro nachgeschaut, da waren 800MB RAM effektiv belegt. Linux mit KDE oder Gnome saugt ähnlich viel RAM.
800MiB MLocked? Ich würde eher auf 160kiB tippen. Bitte werfe nicht mit Zahlen um dich, die du nicht verstehst. Ein KDE passt problemlos in 256MiB RAM. (kein SWAP) Für Gnome wird das wahrscheinlich ähnlich aussehen. Die 800MiB sind irgend welche Zahlen, die du nicht verstanden hast und dir dein Windows nie verraten wird. Und das sind die beiden Fettesten UIs, die es im Debian gibt. Mein i3 läuft da sogar noch flüssig.
Die Updates an den übliichen Patchdays laufen seit Win10 weitgehend im Hintergrund ab, ohne daß da eine Interaktion nötig wäre. Die Rerlease-Upgrades, z.B. von 1909 auf 2004 führen manchmal zum Abnicken irgendwelcher neuer "Datenschutzbestimmungen" (also eigentlich das Einholen der Zustimmung zum Verzicht auf Datenschutzes) mehr aber auch nicht.
Ich glaube ich boote zu selten als, dass da immer ein Fettes anfällt. Aber es geht mir gar nicht so sehr um das AGB abnicken. Es geht eher darum, dass das zwar automatisch runter fährt das aber erst nach 2h oder sowas und vor allem dann beim hochfahren 2 mal Interaktion haben will. Dann tut es mir eine Tour durch die neusten Features aufdrücken, die ich auch noch 3 mal skippen muss, bis sie wirklich weg ist. Wie gesagt: Eventuell weiß ich da aber wirklich nur nicht, wie ich das abstelle.
Aber so eine Situation hast du unter Linux auch, wenn du AppImages oder Flatpacks nutzt.
Prinzipiell kann jeder Debian Repos mit beliebigen Programmen anbieten.
deb-multimedia wäre da ein Beispiel. Sowas fehlt MS halt IMHO. Und ich verstehe das wirklich nicht, warum sie das nicht einbauen.
Auf der anderen Seite ist die Anzahl der Repos für Debian auch eher begrenzt.
Die 10 relevanten Zeilen mußt du aber erstmal in 30 Millionen Codezeilen finden
Dafür gibt es tools. Ich bin eigentlich meist überrascht wie gut das geht. – Ausgenommen der FF. Der ist ein riesiger Müllhaufen. (Oder ich habe schlicht die Ordnung noch nicht verstanden
)
Davon abgesehen dürfte die Zahl der Codezeilen, die sich hinter den 57000 Debianpaketen verbergen, insgesamt in die zig-Milliarden gehen. Der Kernel ist davon ja nur ein winziger Teil.
Installiert habe ich 1436. Der Rest ist für mich erst mal irrelevant. Ich würde schon davon ausgehen, dass der Kernel davon irgend wie ein Zehntel oder Hundertstel ausmacht.
Ich weiß nicht, wie viele Leute gerade am Kernel entwickeln, aber das dürften deutlich unter 1000 sein.
Im Moment sind es ca. ~1500 die pro Version etwas geändert haben.
Das sind aber eben nur die Kernel Entwickler. Ein großteil dürften von Leuten vorgeschlagen worden sein, die nicht selbst Kernelentwickler sind sondern nur einen Bug gefixt haben wollen.
Das ist aber gerade nicht die Menge an Leuten die ich meine. NVIDIA z.B. braut das größte Kernelmodul überhaupt. Taucht aber eben nicht als Kernelentwickler auf, weil die das halt selbst bei sich machen ohne mit den dem Entwicklerteam zusammen zu arbeiten.
Und die Zahl ist halt um Größenordnungen höher. Mein Bekanntenkreis mag biast sein. Aber ich kann auf Anhieb 3 Leute nennen, die schon mal ein Kernel Modul geschrieben haben. Maximal einer davon zählt als Kernel Developer. Der Rest Hat halt mal irgend was irgend wo gemacht.
Auch alte Drucker, Scanner, Firewiregeräte... werden dadurch regelmässig entwertet. Aber auf der einen Seite wird hier im Thread gefordert, Altlasten über Bord zu werfen, andererseits wird dann festgestellt, daß man alte Hardware plötzlich nicht mehr nutzen kann.
Der große Unterschied ist: Du kannst selbst entscheiden. Wieder zum NVIDIA-Beispiel: Das Ding macht ärger ohne Ende und ich bin froh, dass das nicht per default im Kernel hängt. – Aber auf dem einen Rechner auf dem ich Zocke (und sonst recht wenig mache) beiße ich in den sauren Apfel und er kommt halt doch drauf.
Das ist das was mit "gehört mir" gemeint war. ICH und niemand anders entscheide was da drauf kommt. – Natürlich kann es mal sein, dass wirklich niemand die Software geschrieben hat, die ich haben will. Aber im Normalfall sind meine Wünsche nicht so obskur dass nicht nicht wenigstens ein paar Mitstreiter finde die das auch haben wollen und realisieren. Und dann steht da halt kein MS oder Apple der mein: Darfst du nicht.
Nunja, wenn man davon ausgeht, daß rund die Hälfte der Weltbevölkerung unter der Armutsgrenze lebt und damit ganz bestimmt keine PC hat und auch von den verbleibenden nur jeder zweite Zugang zu Computern hat, reduziert sich das schonmal auf 2 Milliarden, die in den Code schauen könnten. Davon nutzt nur 1% aktiv Linux, macht also 20 Millionen, und davon sind vielleicht 10% mit Softwareentwicklung vertraut. Es bleiben also maximal 2 Millionen, die sich um zig-Milliarden Zeilen Code kümmern.
Das dürfte eine ganz gute Abschäzug sein, wenn mit aktiv gemeit ist, dass die wissen, dass sie Linux verwenden. Habe ich ein paar Zig Zeilen/Kopf.
OK, das ist zwar immer noch machbar, aber diese 10000 Zeilen mußt du koordiniert kontrollieren und an dieser Koordination fehlt es auf alle Fälle.
Nein. Wie gesagt nehmen wir an das sind 2000 Mio. Zeilen (Ich halte das für extrem viel. Vielleicht vertue ich mich um eine Größenordnung in eine Richtung) auf 2 Mio.Köpfe. Jeder von denen ließt pro Jahr so 1000 Zeilen. (Vermutlich eher mehr. Es gab Abreitswochen, wo ich bestimmt 5k Zeilen oder so gelesen habe dafür stand im letzten Jahr eher eine 100 oder so.) Einfach weil er irgend wo mal rein guckt weil er gerade da in der nähe irgend was Programmiert. Im Schitt wird im Jahr jede Zeile also ein mal gelesen. Hast du ohne Koordination im Jahr 36.8% Chance, dass die Zeile nicht gelesen wird. Schon nach 10 Jahren hast du nur noch ne 0.005% ige Chance, dass die Zeile nicht gelesen wird. – Da bist du verdammt Save.
Du mußt also doch wieder vertrauen, daß andere den Code kontrolliert haben. Nicht mehr, und nicht weniger, meinte ich oben, als ich von Vertrauen schrieb.
Wie gesagt: Es ist ein enormer Unterschied ob du einer Person (eventuell mit Eigeninteressen) vertrauen musst oder Milonen von Leuten.
Ich muss auch nicht nach Bielefeld fahren um festzustellen dass es das nicht gibt. Es haben einfach ausreichend Leute ausprobiert. Das selbe gilt dafür, dass man die Welt umsegeln kann oder dass die Weltkarte stimmt etc..