PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PCI-Express 3.0 - Vorteile?


KodeX
2012-06-05, 01:57:21
Hallo,

ich habe dieses Wochenende einen Test für Hardware-Infos gemacht. Es ging um den aktuellen Nutzen von PCIe 3.0 im Verhältnis zu den Vorgängern. Im Vorfeld ging ich davon aus, dass man so gut wie keine Unterschiede zwischen Version 3.0 und 2.0 feststellt, doch das ist nicht der Fall. Gerade in Skyrim gibt es einen gewaltigen Vorteil für PCIe 3.0!

http://www.hardware-infos.com/tests.php?test=85

Wie ist es zu erklären, dass PCIe 3.0 in manchen Anwendungen so gut wie gar nichts bringt, aber z.B. in Skyrim absolut überzeugt?

dargo
2012-06-05, 08:18:22
Danke für den Test. Bestätigt, dass PCIe 3.0 praktisch kaum was bringt. Die 0,5-3% sind kaum der Rede wert. Im ersten Fall könnten es sogar Messschwankungen sein. Warum jetzt Skyrim so aus der Reihe tanzt? Gute Frage. Interessant wäre zu sehen wie sich ein GK104 dagegen verhält.

PS: was mich auch interessieren würde... reichen mit PCIe 2.0 schon 103Mhz aus um die 3% zu PCIe 3.0 aufzuholen?

deekey777
2012-06-05, 12:11:46
Hier ist ein Vorteil: http://www.hardwaresecrets.com/article/AMD-Radeon-HD-7970-Video-Card-Review/1458/13

PCIe 3.0 wird dann Vorteile bringen, wo es auf die höhere Bandbreite und niedrigere Latenz ankommt. Gerade GPGPU-Zeug kann davon profitieren, wenn die Daten schnell zur GPU und zurück müssen.

robbitop
2012-06-05, 12:23:40
Wenn der VRAM voll ist, sollte es auch Vorteile bringen.

KodeX
2012-06-05, 12:32:16
Die 0,5-3% sind kaum der Rede wert. Im ersten Fall könnten es sogar Messschwankungen sein.


Das sollte man meinen, aber PCIe 3.0 ist in 16 von insgesamt 18 Benchmarks am schnellsten. Ich glaube nicht, dass das Messungenauigkeiten sind. Das sagt doch eher aus, dass die Bandbreite von PCIe 2.0 in fast allen Anwendungen zumindest kurzzeitig überschritten wird.


Warum jetzt Skyrim so aus der Reihe tanzt? Gute Frage. Interessant wäre zu sehen wie sich ein GK104 dagegen verhält.


Das wird getestet sobald die mir Gainward die GTX 680 geschickt hat. Ich habe auch noch vor mit einer schwächeren CPU (2x 2,0 GHz) zu testen.

dargo
2012-06-05, 12:40:00
Das sollte man meinen, aber PCIe 3.0 ist in 16 von insgesamt 18 Benchmarks am schnellsten. Ich glaube nicht, dass das Messungenauigkeiten sind. Das sagt doch eher aus, dass die Bandbreite von PCIe 2.0 in fast allen Anwendungen zumindest kurzzeitig überschritten wird.

Du hast aber schon mehrere Runs je Benchmark gestartet? Ich hoffe nicht nur einen. Sorry, hab den ganzen Text noch nicht gelesen, momentan keine Zeit dazu. Hast du auch bei Dirt 3 bedacht, dass der Ablauf immer etwas unterschiedlich ist?

Wenn der VRAM voll ist, sollte es auch Vorteile bringen.
Soweit sollte man es gar nicht kommen lassen. Dann ist eh alles vorbei. :D

seaFs
2012-06-05, 12:52:17
Kann mal jemand fr-063: Magellan (http://www.pouet.net/prod.php?which=56458) mit den verschiendenen PCIe-Modi testen? Mich interessiert, wie sehr das von Bandbreite und Latenz abhängt.

If your PC is too slow this demo will not only run at low framerates, it
will break apart terribly. This is because many scenes involve physical
simulations - you can't simply drop frames.
Going the whole way, with the CPU calculating something, feeding that into
the GPU, starting a shader, reading it back, running the result through the
CPU to generate some GPU data which is then rendered... yeah!

KodeX
2012-06-05, 12:52:39
Ja, die Ergebnisse sind relativ zuverlässig. Ich habe mehrere Runs gestartet, vor allem in Skyrim xD.

Ronny145
2012-06-05, 13:02:37
Gerade in Dirt 2/3 hat sich in mehreren Tests gezeigt, dass PCIe 3.0 etwas bringen kann. Ich glaube die PCGH war es, die +6% messen konnte. Die meisten Spiele scheinen nicht zu profitieren, es gibt aber Ausnahmen. Skyrim gehört vielleicht dazu.

Man_In_Blue
2012-06-05, 16:09:16
Für mich sind die paar % sicher kein Kaufkriterium... aber ich bin trotzdem überrascht das die Performance teilweise so deutlich zu messen ist.

Ich habe bei tweaker.de (gibt nicht mehr) mal eine Testreihe PCIe 4x, 8x zu 16x gefahren und der unterschied von 8x zu 16x lag bei 0-1%...

Skysnake
2012-06-05, 17:31:11
wie es hier immer sofort heißt, die paar %...

Die paar. Prozent entscheiden am oberen Ende aber mal schnell, ob ne Karge auf Platz1 oder 2 ist, und somit über +/- 50€ oder mehr.

KodeX
2012-06-05, 23:24:30
wie es hier immer sofort heißt, die paar %...

Die paar. Prozent entscheiden am oberen Ende aber mal schnell, ob ne Karge auf Platz1 oder 2 ist, und somit über +/- 50€ oder mehr.

Das sehe ich genauso. Man sagt ja immer, dass sich 1-3 % nicht wirklich lohnen, aber am Ende kann das doch ausschlaggebend sein.

boxleitnerb
2012-06-05, 23:28:36
Ausschlaggebend für was? Es ist ja nicht so, dass Performance das einzige Kaufkriterium bei einer Grafikkarte wäre. Alles innerhalb 10% ist vernachlässigbar imo, das ändert weder Spielbarkeit noch das P/L-Verhältnis großartig (wenn wir bei Leistung eben nicht nur Performance, sondern Features, Verbrauch, Lautstärke usw. mit einbeziehen).

Ronny145
2012-06-05, 23:42:57
+10% merke ich in Dirt 2. 1-3% wären allerdings höchstens für Benchmark Balken von Interesse. Das kann wie erwähnt über Platz 1 und 2 entscheiden.

boxleitnerb
2012-06-05, 23:50:28
Du merkst 10%? Das bezweifle ich doch mal ganz stark, außer es ist ein Spezialfall mit besonders niedrigen fps - das ist aber imo das Szenario, in dem die erhöhte Bandbreite kaum was bringt, weil die GPU lokal lange an einem Frame ackern muss ohne häufige Datentransfers zum restlichen System. Bei 150fps dürfte die Bandbreite eine viel stärkere Rolle spielen als bei 30fps z.B.

1-3% entscheidet nicht über irgendwelche Plätze, wie sollte es auch? Anderer Parcour, neuer Treiber, Boost leicht anders und schon sind 5-10% hin, Plus oder Minus. Außerdem haben idR alle Karten einer Generation dasselbe Interface, daher ist dieses Argument auch hinfällig. Wir haben ja nicht alle Woche eine neue PCIe-Generation.

Ronny145
2012-06-06, 00:01:27
Du merkst 10%? Das bezweifle ich doch mal ganz stark, außer es ist ein Spezialfall mit besonders niedrigen fps -


Jup. Durch ein Treiberupdate habe ich 10% erhalten bei meinem Test (von 39,5 auf 43,5). Das merke ich beim Benchdurchlauf.

thedudeabides
2012-06-19, 18:44:50
Laut einem Bericht in der PCGHW06/12 bringt es bei 79xx-Karten einiges und bei den GF6xx kaum was -In einem Benchmark für PCI-E-Bandbreite (GB/sec) CPU zur GPU Hat die 7970 statt 5,6GB/Sec bei PCIE2 16x 11,2GB/sec bei PCIE3 16x- Die GF680 hat in diesem Test 4,4GB/sec bei PCIE2 16x und 4,9 bei PCIE3 16x- Bei der GPU zur CPU Sind es dann 6,0 GB/sec bei PCIE2 bzw. 12,1GB/sec bei PCIE3 bei der 7980 - Bei der GF680 sind es 4,4GB/sec bei PCIE2 bzw. 4,6GB/sec bei PCIE3 -Irgendwie scheint der GK104 wenig von PCIE3 zu halten
Die Systeme waren ein Core i72600K / mit P67 und ein Core i73770K mit Z77 2x2GB PC1600 Win7 x64 SP1, GF301.24 Cat12.3

Leider steht der Name des Tools nicht dabei.

Im neueren PCGHW 7/12 testen sie PCIE3.0 etwas genauer mit COD MW3 "Jäger und Gejagter"

Sys: Core i7-3770K, MSI Z77A-GD80,2x2GB 1600, Win7 x64 SP1, GF301.42, Cat 12.4a (Beide HQ-AF)
1680 x 1050 max Det.: 4xMSAA/16AF
Volle 16 Lanes PCIE3.0 KFA2 GF 680 EX OC 120/138,1 Min/MaxFPS (Basis)
8 Lanes PCIE3.0 KFA2 GF 680 EX OC 113/135,4 Min/MaxFPS (-2%)
4 Lanes " " KFA2 GF 680 "" "" 108/123,4 Min/MaxFPS (-11%)

16 Lanes PCIE3.0 MSI R7970 Lightning 105/124,0 Min/MaxFPS (Basis)
8 Lanes PCIE3.0 MSI R7970 Lightning 103/122,4 Min/MaxFPS ( -1%)
4 Lanes " " MSI R7970 "" "" 89/104,8 Min/MaxFPS (-15%)

1920x1080, max. Det.: 4xMSAA/16AF

16L PCIE3.0 KFA2 GF GTX 680 EX OC 114/133,7 Min/MaxFPS (Basis)
8L PCIE3.0 KFA2 GF GTX 680 EX OC 109/130,7 Min/MaxFPS (-2%)
4L "" "" "" "" 97/115,4 Min/MaxFPS (-14%)

16L PCIE3.0 MSI R7970 Lightning 102/118,7 (Basis)
8L PCIE3.0 MSI R7970 Lightning 96/114,2 (-4%)
4L PCIE3.0 "" "" 83/100,8 (-15%)

Mehr Gametests stehen leider nicht drin : -Gibt aber mal nen kleinen Überblick. Ich hab auch über Spieleentwickler gelesen, die sagen, dass es z.Zt. bei Spielen nur sehr wenig bringt. V.a.,
da die neuen Grakas ja alle min 2GB VRAM haben.
Im GPGPU-Bereich siehts natl. ganz anderst aus! Und wer weiss, was die Spiele-Zukunft bringt.
Z.Zt. und wahrschl. auch noch für die nächste GPU-Generation wird ein Board (CPU) mit PCIE2.0 und 16 Lanes noch gut ausreichen.
Hängt natl. auch massiv von den genutzten Auflösungen bzw. AA-Modi usw... ab.

VG
TDa

ENKORE
2012-06-19, 18:53:52
@thedudeabides:
Wahrscheinlich haben die dafür BufferBandwith aus dem AMD APP SDK genommen: http://developer.amd.com/sdks/AMDAPPSDK/samples/Pages/default.aspx

Das Tool testet Host-Device und Device-Host Transfers über OpenCL. (Hatten wir glaube ich auch mal in der Benchmarking-Section)

Bevor jetzt jemand sagt, dass der extreme Unterschied daher rührt, dass das eingesetzte Programm von AMD kommt: Der Quellcode liegt offen und damals sind mir keine spezifischen Optimierungen aufgefallen.

Coda
2012-06-19, 19:07:51
OpenCL ist aber auch total beschissen optimiert bei NVIDIA. Daraus irgendwas zu schließen würde ich als sinnlos bezeichnen.

Skysnake
2012-06-19, 19:24:58
Nicht nur das. nVidia erreicht die maximale Bandbreite eh nur, wenn man Pinned Memory verwendet...

Frag mich nicht warum, aber mir scheint es so, als ob AMD das irgendwie besser im Griff hat. Ich seh da öfters höhere Werte.

Falls interesse besteht, kann ich in nächster Zeit mal ne CUDA-Version für den Bandbreitentest schreiben, als auch ne OpenCL-Version, damit man die Werte direkt vergleichen kann.

Thunder99
2012-06-20, 09:19:24
Ich meine gelesen zu haben, dass vor allem die Latenz(en) verbessert wurde(n). Daher kommt der Messbare Unterschied zwischen 2.0 und 3.0

Skysnake
2012-06-20, 09:31:16
Latenz hat sich wenn dann wie folgt "verbessert":

PCI-E 2.0 2.5 GHz 8/10 Bit Codierung
PCI-E 3.0 4.0 GHz 128/130 Bit Codierung

Wir gehen jetzt mal davon aus, dass die ganzen Rahmenbedingungen gleich sind, und die Latenz nur von der Länge der Nachricht und der physischen Verbindung abhängig ist. Dazu später noch ne Randbemerkung ;)

->
PCI-E 2.0 10/2.5GHz=4*10⁻9 sec
PCI-E 3.0 130/4.0GHz= 32,5*10⁻9 sec

Ja, die Latenz hat sich ungemein verbessert :ugly:

Ganz abgesehen davon ist die Berechnung des Checksumme etc viel aufwendiger bei 130 bit. Das wird also auch nochmals eher länger dauern.

Deswegen gibt es an PCI-E 3.0 auch durchaus kritik, da die Latenz eben deutlich schlechter geworden ist. PCI-E 3.0 kann meines wissen nämlich kein switch zwischen 130 und 10 Bit Codierung on the fly machen.
Der Vorteil der doppelten Bandbreite wiegt das aber normal wieder auf, zumal man eh eher davon ausgeht, das GPUs nicht sooo Latenzempfindlich sind.

EDIT:
Also SB-E User müssen sich um PCI-E 3.0 eigentlich offiziell keine Gedanken mehr machen...

http://www.pcgameshardware.de/aid,905480/Geforce-600-Serie-Offiziell-kein-PCI-E-30-mit-X79-Chipsaetzen/Grafikkarte/News/

Ich hasse es Recht zu behalten.... -.-

Coda
2012-06-20, 20:20:22
Bist du sicher, dass die PCIe-Pakete nicht sowieso so groß sind, dass das keinen Unterschied macht? Ehrliche Frage.

http://www.verien.com/picts/pcie_packet_encapsulation.png

Ich zähle da 24/25B + Payload. Die Latenz vom Encoding kommt da natürlich noch obendrauf.

Skysnake
2012-06-20, 20:28:16
Ja, das Spielt eine Rolle. Wenn du weniger Byte sendest als ein Paket in der Payload maximal fassen kann, dann wird das Paket delta_t zurückgehalten, wenn ich es richtig im Kopf habe. Erst danach wird es auch nicht voll versendet.

Allgemein ist aber halt eben das Encoding auf jeden Fall aufwendiger bei PCI-E 3.0

Ich kann das aber mal gern nen Kollegen fragen. Der arbeitet gerade auf nen PCI-E Core und ändert da Sachen, wenn ich das richtig verstanden habe, was er macht. Ich seh den aber wohl erst wieder in nem Monat.Bin grad am Überstunden abfeiern :biggrin: