atarixle hat geschrieben: 17.03.2022 19:49:52
Richtig heiß wird's bei Gaussian-Blur-Effekten ab Radius 5
Du meinst natürlich einen 10x10 Pixel großen Faltungskern, wenn du von Radius 5 sprichst. Der benötigt, wenn man es optimal programmiert, ( Radius -1 ) * 6 Additionen und 3 Shift-Right Operation Pro Pixel, bei Radius 5 also 27 Integeroperationen, plus die Operationen für die Speicheradressierung, bei einem Faltungskern von 100 Pixeln also auch nochmal 100 Operationen. Wenn du das bei einem 1366x768 Pixel Display 50 mal pro Sekunde rechnen mußt, kommen 6.6 Milliarden Operationen pro Sekunde zusammen. Das würde sogar einen i3-7100 zum Schwitzen bringen.
Während jede Nvidia nur lacht
Die Berechnung der Faltungen lassen sich hochgradig parallelisieren, da spielt jede Graphikhardware mit iheren hunderten bis tausenden Rechenwerken ihr volles Potenzial aus, eine CPU hat nur ein Rechenwerk pro CPU-Kern. Auch die moderneren Intel IGPs können das,
Blur in Compton - bei der ich erst dachte, es sei allen von der CPU berechnet - zwingt die alten Intel-GPUs ebenfalls in die Knie.
Egal ob CPU oder alte Intel GMA, die schaffen es schlicht nicht mehrere Milliarden von Rechenoperationen pro Sekunde durchzuführen.
Alle alten und lahmen Intel-CPUs, die bei Gaussian-Blur zum Stehen kommen, lachen hingegen über Transparenz-Effekte.
Transparenz ist aber auch um mindestens eine Größenordnung weniger rechenaufwändig.