wanne hat geschrieben:hikaru hat geschrieben:Aber sind denn die zwei Integer-Kerne pro Modul wirklich vorhanden?
Klar. Die Begründung seitens AMD ist, dass Float ja dank SIMD-Register ja zwei mal 64Bit in einer Operation machen kann. Mit AVX sogar hat man ja sogar 256Bit. Intel kann aber eben sogar AVX-512. Und das bei vollen Float Einheiten pro Kern.
Ich verstehe die Erklärung nicht. Was hat die Registerbreite mit der Anzahl der ALUs zu tun?
wanne hat geschrieben:LVDS wäre noch ne alternative.
Hab ich bei Consumer-Grafikkarten noch nicht als Ausgang gesehen, und bei Fernsehern noch nicht als Eingang.
wanne hat geschrieben:Ansosnten reicht für 4k@60Hz DP1.2
Stimmt.
wanne hat geschrieben:Oder vor allem 2xHDMI 1.4 So machen das viele Geräte für 5K. Ist aber ein übler Hack, mit dem man eigentlich nicht arbeiten will.
Eben.
wanne hat geschrieben:Aber hier mal ein Test auf einem anderen Recher: 5k-Bildschirm, Nvidia GTX980 => Kein h.265 in HW.
Was der WMP auch so angibt.
Windows 8, Windows Mediaplayer Classic i7 Hexacore. Habe leider vergessen was es genau war. Glaub i7-5xxx auf nem 2011-3 Sockel:
h265-Jellyfish, 250 Mbps: keine Framedrops, aber ruckelt an einer stelle.
h265-Jellyfish, 400 Mbps: 1 Framedrop, aber ruckelt an der selben stelle. Bin mittlerwele überzeugt, dass das Original kaputt ist.
BBB spielt Synchron ohne Probleme 3 Framedrops am Anfang.
Schon erstaunlich! Angenommen, da steckt ein 5930k mit Standardtakt drin, dann käme der wohl auf 240 GIPS Dhrystone. [1]
Mein 2700k käme mit Standardtakt auf 140 GIPS und mit 4,7GHz auf 175 GIPS. [2] Das sieht linear aus, also würde ich bei meinen 4,2GHz gut 160 GIPS erwarten. Das sind beim 5930k interessanterweise genau die 50% mehr, die durch die beiden zusätzlichen Cores dazukommen.
Für das 400MBit/s-Jellyfish-Video muss ich in mpv auf ziemlich genau 1/3 der der Abspielgeschwindigkeit gehen, damit es sauber läuft. Beim 5930k würde ich also irgendwas um halbe Geschwindigkeit erwarten. Lass da ruhig noch weitere 20-30% Architektur- und Softwareoptimierung drinstecken. Unter'm Strich würde ich nicht erwarten, dass das in Software geht. Ist die CPU zufällig auch noch übertaktet?
wanne hat geschrieben:Btw. hat man bei dem Ding kein Ton von der Lüftung gehört. Konnte echt nicht sagen, ob der an oder aus ist. Hat aber wohl ziemlich viel für seinen Kühlkörper hingelegt. Trotz allem beeindruckend.
Die in Frage kommenden CPUs haben alle eine TDP von 140W. Das lässt sich mit einem wirklich guten Luftkühler noch ohne zu zaubern wegschaffen, mit etwas Kompromissbereitschaft bei der Temperatur auch noch leise. Mein übertakteter 2700k verbrät geschätzt 150W (System mit 210W gemessen vs. 160W bei Standardtakt, aber ich kann die CPU nicht sauber vom Rest trennen). Das kriege ich in einem Miditower noch auf 80°C gekühlt, ohne dass die Lüfter lauter werden als die beiden 3,5"-HDDs. In einem auf gute Kühlung ausgelegten Bigtower ginge das sicher noch besser.
@ralli:
Die von der Grafikkarte als maximal möglich angegebene Auflösung hängt auch vom Monitor ab. Der sendet ein EDID-Signal in dem er der Grafikkarte mitteilt, was er kann. Der Treiber sollte dann nur die vom Monitor mitgeteilten Auflösungen anbieten.
Die frühen Monitore die mehr als 1920x1200 konnten sendeten z.B. teils keine EDID-Signale über dieser Auflösung, vermutlich weil da noch alte EDID-Chips verbaut waren. Um das zu umgehen gab es dann ab Werk modifizierte Windowstreiber die zusätzliche Modelines enthielten die sich nicht aus dem EDID-Signal ergaben. Genau das Gleiche ist unter Linux möglich, entweder per xorg.conf oder per xrandr.
Ich hatte der 8800GT mit xrandr eine Modeline für 3840x2160 mitgegeben. Es gab keine Fehlermeldung, die Grafikkarte schaltete auch um, aber der Fernseher sagte, es käme kein Signal an.
[1]
http://ocaholic.ch/modules/smartsection ... ang=german
[2]
http://www.au-ja.de/review-intel-core-i7-2700k-11.phtml