PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PCI-Express 3.0 - Vorteile?


KodeX
2012-06-05, 01:57:21
Hallo,

ich habe dieses Wochenende einen Test für Hardware-Infos gemacht. Es ging um den aktuellen Nutzen von PCIe 3.0 im Verhältnis zu den Vorgängern. Im Vorfeld ging ich davon aus, dass man so gut wie keine Unterschiede zwischen Version 3.0 und 2.0 feststellt, doch das ist nicht der Fall. Gerade in Skyrim gibt es einen gewaltigen Vorteil für PCIe 3.0!

http://www.hardware-infos.com/tests.php?test=85

Wie ist es zu erklären, dass PCIe 3.0 in manchen Anwendungen so gut wie gar nichts bringt, aber z.B. in Skyrim absolut überzeugt?

dargo
2012-06-05, 08:18:22
Danke für den Test. Bestätigt, dass PCIe 3.0 praktisch kaum was bringt. Die 0,5-3% sind kaum der Rede wert. Im ersten Fall könnten es sogar Messschwankungen sein. Warum jetzt Skyrim so aus der Reihe tanzt? Gute Frage. Interessant wäre zu sehen wie sich ein GK104 dagegen verhält.

PS: was mich auch interessieren würde... reichen mit PCIe 2.0 schon 103Mhz aus um die 3% zu PCIe 3.0 aufzuholen?

deekey777
2012-06-05, 12:11:46
Hier ist ein Vorteil: http://www.hardwaresecrets.com/article/AMD-Radeon-HD-7970-Video-Card-Review/1458/13

PCIe 3.0 wird dann Vorteile bringen, wo es auf die höhere Bandbreite und niedrigere Latenz ankommt. Gerade GPGPU-Zeug kann davon profitieren, wenn die Daten schnell zur GPU und zurück müssen.

robbitop
2012-06-05, 12:23:40
Wenn der VRAM voll ist, sollte es auch Vorteile bringen.

KodeX
2012-06-05, 12:32:16
Die 0,5-3% sind kaum der Rede wert. Im ersten Fall könnten es sogar Messschwankungen sein.


Das sollte man meinen, aber PCIe 3.0 ist in 16 von insgesamt 18 Benchmarks am schnellsten. Ich glaube nicht, dass das Messungenauigkeiten sind. Das sagt doch eher aus, dass die Bandbreite von PCIe 2.0 in fast allen Anwendungen zumindest kurzzeitig überschritten wird.


Warum jetzt Skyrim so aus der Reihe tanzt? Gute Frage. Interessant wäre zu sehen wie sich ein GK104 dagegen verhält.


Das wird getestet sobald die mir Gainward die GTX 680 geschickt hat. Ich habe auch noch vor mit einer schwächeren CPU (2x 2,0 GHz) zu testen.

dargo
2012-06-05, 12:40:00
Das sollte man meinen, aber PCIe 3.0 ist in 16 von insgesamt 18 Benchmarks am schnellsten. Ich glaube nicht, dass das Messungenauigkeiten sind. Das sagt doch eher aus, dass die Bandbreite von PCIe 2.0 in fast allen Anwendungen zumindest kurzzeitig überschritten wird.

Du hast aber schon mehrere Runs je Benchmark gestartet? Ich hoffe nicht nur einen. Sorry, hab den ganzen Text noch nicht gelesen, momentan keine Zeit dazu. Hast du auch bei Dirt 3 bedacht, dass der Ablauf immer etwas unterschiedlich ist?

Wenn der VRAM voll ist, sollte es auch Vorteile bringen.
Soweit sollte man es gar nicht kommen lassen. Dann ist eh alles vorbei. :D

seaFs
2012-06-05, 12:52:17
Kann mal jemand fr-063: Magellan (http://www.pouet.net/prod.php?which=56458) mit den verschiendenen PCIe-Modi testen? Mich interessiert, wie sehr das von Bandbreite und Latenz abhängt.

If your PC is too slow this demo will not only run at low framerates, it
will break apart terribly. This is because many scenes involve physical
simulations - you can't simply drop frames.
Going the whole way, with the CPU calculating something, feeding that into
the GPU, starting a shader, reading it back, running the result through the
CPU to generate some GPU data which is then rendered... yeah!

KodeX
2012-06-05, 12:52:39
Ja, die Ergebnisse sind relativ zuverlässig. Ich habe mehrere Runs gestartet, vor allem in Skyrim xD.

Ronny145
2012-06-05, 13:02:37
Gerade in Dirt 2/3 hat sich in mehreren Tests gezeigt, dass PCIe 3.0 etwas bringen kann. Ich glaube die PCGH war es, die +6% messen konnte. Die meisten Spiele scheinen nicht zu profitieren, es gibt aber Ausnahmen. Skyrim gehört vielleicht dazu.

Man_In_Blue
2012-06-05, 16:09:16
Für mich sind die paar % sicher kein Kaufkriterium... aber ich bin trotzdem überrascht das die Performance teilweise so deutlich zu messen ist.

Ich habe bei tweaker.de (gibt nicht mehr) mal eine Testreihe PCIe 4x, 8x zu 16x gefahren und der unterschied von 8x zu 16x lag bei 0-1%...

Skysnake
2012-06-05, 17:31:11
wie es hier immer sofort heißt, die paar %...

Die paar. Prozent entscheiden am oberen Ende aber mal schnell, ob ne Karge auf Platz1 oder 2 ist, und somit über +/- 50€ oder mehr.

KodeX
2012-06-05, 23:24:30
wie es hier immer sofort heißt, die paar %...

Die paar. Prozent entscheiden am oberen Ende aber mal schnell, ob ne Karge auf Platz1 oder 2 ist, und somit über +/- 50€ oder mehr.

Das sehe ich genauso. Man sagt ja immer, dass sich 1-3 % nicht wirklich lohnen, aber am Ende kann das doch ausschlaggebend sein.

boxleitnerb
2012-06-05, 23:28:36
Ausschlaggebend für was? Es ist ja nicht so, dass Performance das einzige Kaufkriterium bei einer Grafikkarte wäre. Alles innerhalb 10% ist vernachlässigbar imo, das ändert weder Spielbarkeit noch das P/L-Verhältnis großartig (wenn wir bei Leistung eben nicht nur Performance, sondern Features, Verbrauch, Lautstärke usw. mit einbeziehen).

Ronny145
2012-06-05, 23:42:57
+10% merke ich in Dirt 2. 1-3% wären allerdings höchstens für Benchmark Balken von Interesse. Das kann wie erwähnt über Platz 1 und 2 entscheiden.

boxleitnerb
2012-06-05, 23:50:28
Du merkst 10%? Das bezweifle ich doch mal ganz stark, außer es ist ein Spezialfall mit besonders niedrigen fps - das ist aber imo das Szenario, in dem die erhöhte Bandbreite kaum was bringt, weil die GPU lokal lange an einem Frame ackern muss ohne häufige Datentransfers zum restlichen System. Bei 150fps dürfte die Bandbreite eine viel stärkere Rolle spielen als bei 30fps z.B.

1-3% entscheidet nicht über irgendwelche Plätze, wie sollte es auch? Anderer Parcour, neuer Treiber, Boost leicht anders und schon sind 5-10% hin, Plus oder Minus. Außerdem haben idR alle Karten einer Generation dasselbe Interface, daher ist dieses Argument auch hinfällig. Wir haben ja nicht alle Woche eine neue PCIe-Generation.

Ronny145
2012-06-06, 00:01:27
Du merkst 10%? Das bezweifle ich doch mal ganz stark, außer es ist ein Spezialfall mit besonders niedrigen fps -


Jup. Durch ein Treiberupdate habe ich 10% erhalten bei meinem Test (von 39,5 auf 43,5). Das merke ich beim Benchdurchlauf.

thedudeabides
2012-06-19, 18:44:50
Laut einem Bericht in der PCGHW06/12 bringt es bei 79xx-Karten einiges und bei den GF6xx kaum was -In einem Benchmark für PCI-E-Bandbreite (GB/sec) CPU zur GPU Hat die 7970 statt 5,6GB/Sec bei PCIE2 16x 11,2GB/sec bei PCIE3 16x- Die GF680 hat in diesem Test 4,4GB/sec bei PCIE2 16x und 4,9 bei PCIE3 16x- Bei der GPU zur CPU Sind es dann 6,0 GB/sec bei PCIE2 bzw. 12,1GB/sec bei PCIE3 bei der 7980 - Bei der GF680 sind es 4,4GB/sec bei PCIE2 bzw. 4,6GB/sec bei PCIE3 -Irgendwie scheint der GK104 wenig von PCIE3 zu halten
Die Systeme waren ein Core i72600K / mit P67 und ein Core i73770K mit Z77 2x2GB PC1600 Win7 x64 SP1, GF301.24 Cat12.3

Leider steht der Name des Tools nicht dabei.

Im neueren PCGHW 7/12 testen sie PCIE3.0 etwas genauer mit COD MW3 "Jäger und Gejagter"

Sys: Core i7-3770K, MSI Z77A-GD80,2x2GB 1600, Win7 x64 SP1, GF301.42, Cat 12.4a (Beide HQ-AF)
1680 x 1050 max Det.: 4xMSAA/16AF
Volle 16 Lanes PCIE3.0 KFA2 GF 680 EX OC 120/138,1 Min/MaxFPS (Basis)
8 Lanes PCIE3.0 KFA2 GF 680 EX OC 113/135,4 Min/MaxFPS (-2%)
4 Lanes " " KFA2 GF 680 "" "" 108/123,4 Min/MaxFPS (-11%)

16 Lanes PCIE3.0 MSI R7970 Lightning 105/124,0 Min/MaxFPS (Basis)
8 Lanes PCIE3.0 MSI R7970 Lightning 103/122,4 Min/MaxFPS ( -1%)
4 Lanes " " MSI R7970 "" "" 89/104,8 Min/MaxFPS (-15%)

1920x1080, max. Det.: 4xMSAA/16AF

16L PCIE3.0 KFA2 GF GTX 680 EX OC 114/133,7 Min/MaxFPS (Basis)
8L PCIE3.0 KFA2 GF GTX 680 EX OC 109/130,7 Min/MaxFPS (-2%)
4L "" "" "" "" 97/115,4 Min/MaxFPS (-14%)

16L PCIE3.0 MSI R7970 Lightning 102/118,7 (Basis)
8L PCIE3.0 MSI R7970 Lightning 96/114,2 (-4%)
4L PCIE3.0 "" "" 83/100,8 (-15%)

Mehr Gametests stehen leider nicht drin : -Gibt aber mal nen kleinen Überblick. Ich hab auch über Spieleentwickler gelesen, die sagen, dass es z.Zt. bei Spielen nur sehr wenig bringt. V.a.,
da die neuen Grakas ja alle min 2GB VRAM haben.
Im GPGPU-Bereich siehts natl. ganz anderst aus! Und wer weiss, was die Spiele-Zukunft bringt.
Z.Zt. und wahrschl. auch noch für die nächste GPU-Generation wird ein Board (CPU) mit PCIE2.0 und 16 Lanes noch gut ausreichen.
Hängt natl. auch massiv von den genutzten Auflösungen bzw. AA-Modi usw... ab.

VG
TDa

ENKORE
2012-06-19, 18:53:52
@thedudeabides:
Wahrscheinlich haben die dafür BufferBandwith aus dem AMD APP SDK genommen: http://developer.amd.com/sdks/AMDAPPSDK/samples/Pages/default.aspx

Das Tool testet Host-Device und Device-Host Transfers über OpenCL. (Hatten wir glaube ich auch mal in der Benchmarking-Section)

Bevor jetzt jemand sagt, dass der extreme Unterschied daher rührt, dass das eingesetzte Programm von AMD kommt: Der Quellcode liegt offen und damals sind mir keine spezifischen Optimierungen aufgefallen.

Coda
2012-06-19, 19:07:51
OpenCL ist aber auch total beschissen optimiert bei NVIDIA. Daraus irgendwas zu schließen würde ich als sinnlos bezeichnen.

Skysnake
2012-06-19, 19:24:58
Nicht nur das. nVidia erreicht die maximale Bandbreite eh nur, wenn man Pinned Memory verwendet...

Frag mich nicht warum, aber mir scheint es so, als ob AMD das irgendwie besser im Griff hat. Ich seh da öfters höhere Werte.

Falls interesse besteht, kann ich in nächster Zeit mal ne CUDA-Version für den Bandbreitentest schreiben, als auch ne OpenCL-Version, damit man die Werte direkt vergleichen kann.

Thunder99
2012-06-20, 09:19:24
Ich meine gelesen zu haben, dass vor allem die Latenz(en) verbessert wurde(n). Daher kommt der Messbare Unterschied zwischen 2.0 und 3.0

Skysnake
2012-06-20, 09:31:16
Latenz hat sich wenn dann wie folgt "verbessert":

PCI-E 2.0 2.5 GHz 8/10 Bit Codierung
PCI-E 3.0 4.0 GHz 128/130 Bit Codierung

Wir gehen jetzt mal davon aus, dass die ganzen Rahmenbedingungen gleich sind, und die Latenz nur von der Länge der Nachricht und der physischen Verbindung abhängig ist. Dazu später noch ne Randbemerkung ;)

->
PCI-E 2.0 10/2.5GHz=4*10⁻9 sec
PCI-E 3.0 130/4.0GHz= 32,5*10⁻9 sec

Ja, die Latenz hat sich ungemein verbessert :ugly:

Ganz abgesehen davon ist die Berechnung des Checksumme etc viel aufwendiger bei 130 bit. Das wird also auch nochmals eher länger dauern.

Deswegen gibt es an PCI-E 3.0 auch durchaus kritik, da die Latenz eben deutlich schlechter geworden ist. PCI-E 3.0 kann meines wissen nämlich kein switch zwischen 130 und 10 Bit Codierung on the fly machen.
Der Vorteil der doppelten Bandbreite wiegt das aber normal wieder auf, zumal man eh eher davon ausgeht, das GPUs nicht sooo Latenzempfindlich sind.

EDIT:
Also SB-E User müssen sich um PCI-E 3.0 eigentlich offiziell keine Gedanken mehr machen...

http://www.pcgameshardware.de/aid,905480/Geforce-600-Serie-Offiziell-kein-PCI-E-30-mit-X79-Chipsaetzen/Grafikkarte/News/

Ich hasse es Recht zu behalten.... -.-

Coda
2012-06-20, 20:20:22
Bist du sicher, dass die PCIe-Pakete nicht sowieso so groß sind, dass das keinen Unterschied macht? Ehrliche Frage.

http://www.verien.com/picts/pcie_packet_encapsulation.png

Ich zähle da 24/25B + Payload. Die Latenz vom Encoding kommt da natürlich noch obendrauf.

Skysnake
2012-06-20, 20:28:16
Ja, das Spielt eine Rolle. Wenn du weniger Byte sendest als ein Paket in der Payload maximal fassen kann, dann wird das Paket delta_t zurückgehalten, wenn ich es richtig im Kopf habe. Erst danach wird es auch nicht voll versendet.

Allgemein ist aber halt eben das Encoding auf jeden Fall aufwendiger bei PCI-E 3.0

Ich kann das aber mal gern nen Kollegen fragen. Der arbeitet gerade auf nen PCI-E Core und ändert da Sachen, wenn ich das richtig verstanden habe, was er macht. Ich seh den aber wohl erst wieder in nem Monat.Bin grad am Überstunden abfeiern :biggrin:

kruemelmonster
2019-06-18, 13:56:32
*Hochhol* für tagesaktuelle Relevanz, vllt hilft es jemanden bei der ganz neuen und noch nie dagewesenen Fragestellung "brauch ich schon den neuen pcie standard?"

medi
2019-06-18, 14:55:56
*Hochhol* für tagesaktuelle Relevanz, vllt hilft es jemanden bei der ganz neuen und noch nie dagewesenen Fragestellung "brauch ich schon den neuen pcie standard?"

Und was mich noch interessiert: Ab wann könnte PCIe4 bei Grafikkarten denn notwendig oder überhaupt genutzt werden ... bzw. wie lange wird PCIe3 noch ausreichen.

Isen
2019-06-18, 15:02:27
Ab nächster Gen.
Irgendwo gab es doch mal nen Test, dass eine 2080TI fast 3.0 ausreizt.

"brauch ich schon den neuen pcie standard?"

Ja. Wäre cool. So könnte ich 4.0 x4/8 nutzen und hätte noch mehr zur Verfügung auf den Consumer-Brettern :)

N0Thing
2019-06-18, 15:09:33
Der Test wurde schon anderswo verlinkt, aber passt auch hier gut zum Thema:

https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/

Man sieht m.M.n. recht deutlich, dass mehr Bandbreite gerade bei Spielen, die viel auf Streaming setzen, durchaus beachtliche Vorteile bringt. Die Vorteile nehmen logischerweise ab, wenn die GPU selber am Limit ist. Ob und wie stark die Vorteile mit PCIe 4 aussehen werden, muss man nach dem Launch sehen, die eventuellen Gewinne werden aber natürlich kleiner ausfallen, als zwischen PCIe 3 x8 und PCIe 3 x16.

woodsdog
2019-06-19, 08:02:54
Wo denn? Seit wann sind einstellige Unterschiede "beachtliche Vorsprünge"… immerhin hat die Schnittstelle ja 100% mehr Potenzial.

77 vs 79 FPS hier, 280 vs 316 FPS da.
Wildlands und Hellblade fallen ins Auge, dass war es im Wesentlichen aber auch. Bei 300 FPS Wolfenstein ists einfach komplett egal, weil diese FPS sowieso niemandem nutzen.

Die Zusammenfassung spricht Bände:
Im Mittel ist 3.0 8x 3% langsamer in FHD, in 1440p und 4k sind es 2%.

Das Ganze Thema ist IMO zu Lebzeiten der X570 Plattform komplett egal.

SKYNET
2019-06-19, 10:42:30
Wo denn? Seit wann sind einstellige Unterschiede "beachtliche Vorsprünge"… immerhin hat die Schnittstelle ja 100% mehr Potenzial.

77 vs 79 FPS hier, 280 vs 316 FPS da.
Wildlands und Hellblade fallen ins Auge, dass war es im Wesentlichen aber auch. Bei 300 FPS Wolfenstein ists einfach komplett egal, weil diese FPS sowieso niemandem nutzen.

Die Zusammenfassung spricht Bände:
Im Mittel ist 3.0 8x 3% langsamer in FHD, in 1440p und 4k sind es 2%.

Das Ganze Thema ist IMO zu Lebzeiten der X570 Plattform komplett egal.


neeee, weil AMD bringt uber-navi... 3x performance 2080 Titan, da brauch man das dann :ulol:

MiamiNice
2019-06-19, 11:15:48
neeee, weil AMD bringt uber-navi... 3x performance 2080 Titan, da brauch man das dann :ulol:

Heißt dann wohl eher super-navi so kreativ wie die bei AMD mit ihren Bezeichnungen sind

SKYNET
2019-06-19, 14:06:19
Heißt dann wohl eher super-navi so kreativ wie die bei AMD mit ihren Bezeichnungen sind

ich glaube mit super kommt bei denen nix... zumal das so dämlich tönt, frage mich was die bei NV da geritten hat, warum nicht einfach wieder das altbekannte ultra?

N0Thing
2019-06-19, 15:41:37
Wo denn? Seit wann sind einstellige Unterschiede "beachtliche Vorsprünge"… immerhin hat die Schnittstelle ja 100% mehr Potenzial.

77 vs 79 FPS hier, 280 vs 316 FPS da.
Wildlands und Hellblade fallen ins Auge, dass war es im Wesentlichen aber auch. Bei 300 FPS Wolfenstein ists einfach komplett egal, weil diese FPS sowieso niemandem nutzen.

Die Zusammenfassung spricht Bände:
Im Mittel ist 3.0 8x 3% langsamer in FHD, in 1440p und 4k sind es 2%.

Das Ganze Thema ist IMO zu Lebzeiten der X570 Plattform komplett egal.

Kannst auch noch Assassin's Creed Origins und und Wolfenstein II zur Liste hinzufügen.
Dafür, dass es jahrelang heiß, es gebe gar keinen Unterschied zwischen PCIe2 x16 und PCIe3 x16, sind bei den vier Spielen doch beachtliche Unterschiede zu sehen. In der Praxis macht es natürlich keinen Unterschied, das habe ich ja auch geschrieben und es erwartet doch wohl niemand ernsthaft in diesem Forum 100% mehr FPS weil die Schnittstelle 100% mehr Potenzial habe. :freak:

Benutzername
2019-06-19, 16:00:37
ich glaube mit super kommt bei denen nix... zumal das so dämlich tönt, frage mich was die bei NV da geritten hat, warum nicht einfach wieder das altbekannte ultra?

Ultra, Mega, Hyper und Laser kommen nächstes Jahr.

Loeschzwerg
2019-06-19, 16:22:15
Dafür, dass es jahrelang heiß, es gebe gar keinen Unterschied zwischen PCIe2 x16 und PCIe3 x16, sind bei den vier Spielen doch beachtliche Unterschiede zu sehen.

Naja, unter FullHD mit der 2080Ti auch nicht allzu verwunderlich. Interessanter sind bei der Leistungsklasse der Grafikkarte dann doch eher 1440p/2160p und hier sieht man deutlichere Einschnitte eher mit PCIe 3.0 x4, wobei auch das teilweise noch völlig in Ordnung geht.

][immy
2019-06-19, 16:38:33
Wo denn? Seit wann sind einstellige Unterschiede "beachtliche Vorsprünge"… immerhin hat die Schnittstelle ja 100% mehr Potenzial.

77 vs 79 FPS hier, 280 vs 316 FPS da.
Wildlands und Hellblade fallen ins Auge, dass war es im Wesentlichen aber auch. Bei 300 FPS Wolfenstein ists einfach komplett egal, weil diese FPS sowieso niemandem nutzen.

Die Zusammenfassung spricht Bände:
Im Mittel ist 3.0 8x 3% langsamer in FHD, in 1440p und 4k sind es 2%.

Das Ganze Thema ist IMO zu Lebzeiten der X570 Plattform komplett egal.
jo, hab grad auch mal nach den großen Unterschieden gesucht aber nicht gefunden :). Bei den Frameraten gibt es auch noch eine gewisse Messtoleranz.

Wenn SLI & Crossfire nicht quasi tot wären, gäbe es sicherlich noch größere Unterschiede damit, aber so, ists wohl recht wurscht ob PCIe 3 oder 4 für die nächsten Jahre.

woodsdog
2019-06-19, 21:47:16
Kannst auch noch Assassin's Creed Origins und und Wolfenstein II zur Liste hinzufügen.
Dafür, dass es jahrelang heiß, es gebe gar keinen Unterschied zwischen PCIe2 x16 und PCIe3 x16, sind bei den vier Spielen doch beachtliche Unterschiede zu sehen. In der Praxis macht es natürlich keinen Unterschied, das habe ich ja auch geschrieben und es erwartet doch wohl niemand ernsthaft in diesem Forum 100% mehr FPS weil die Schnittstelle 100% mehr Potenzial habe. :freak:

häh?

ich hab doch wolfenstein erwähnt? Welchen Teil hab ich nicht auf dem zettel?
wo hieß es denn, dass da kein Unterschied wäre? Du hast von "beachtliche Unterschieden" gesprochen welche ich nicht sehe. Aber "In der Praxis macht es natürlich keinen Unterschied"

Wirres Zeug.

N0Thing
2019-06-20, 00:31:17
Aus deiner Sicht mag es wirres Zeug sein, aber dafür, dass es vor dem Test von techpowerup die gängige Ansicht war, dass mehr Bandbreite auf den PCIe-Slots nichts bringen würde, sind die Unterschiede in einigen Titel aus meiner Sicht schon beachtlich.
Und die Aussage, dass es in der Praxis keinen Unterschied macht, ob man nun 104fps oder 114fps erreicht, widerspricht dem auch nicht. Sind trotzdem 10% mehr und dafür rüsten einige schon ihr System mit neuer CPU oder GPU aus, oder kaufen teureren RAM, um die gleichen Zugewinne zu erzielen.

Der HeinZ
2019-06-20, 07:49:34
Naja, das ist aber mager für eine Auswertung.

Teilweise sind die differenzen so winzig, das sogar ein leicht veränderter CPU takt hier unterschiede machen könnte. Ich haue einfach ein paar Megaherz drauf und dann habe ich wieder den gleichen Wert. Oder der Stromsparmechanismus der Cpu, des Chipsets oder der GPU greift anders sobald man weniger Lanes zu Verfügung hat. Für mich sagt so ein Test zuwenig aus, da es zu viele Faktoren gibt die ich nicht sehen oder beeinflussen kann.

Ein richtiges Killeragument das der PCI Express 3.0 jetzt am Limit ist, sehe ich hier garnicht.
Gruss Matthias

hilo
2019-06-20, 09:03:54
Naja, vielleicht sehen wir ja bei den neuen Konsolen einen Unterschied mit PCI-E 4. Mark Cernys "secret sauce" bei den PS5-Ladezeiten. Ein auf die PS5-Spiele zugeschnittener HBCC vielleicht? Man sollte natürlich meinen, PCs können solche Ladezeiten sowieso abliefern im Verbund mit einer NVMe-SSD, aber, wer weiß, wer weiß, vielleicht ist es ja wirklich nur auf den kommenden Konsolen zu bewundern, weil die Spiel dafür speziell angepaßt werden müssen. (Nicht daß ich wirklich "Angst" als PC-Spieler hätte, aber lassen wir uns überraschen.) Für Flugsimulatoren z.B. (große Flughäfen/Szenerien/Städtelandschaften, die ge- und entladen werden müssen. Nur zur Illustration: einmal Niederlande in HD fotorealistisch - 77 GB, dasselbe für Großbritannien - 200 GB, spezielle Fluhäfen kosten extra) könnte sowas aber womöglich ein bemerkbarer Vorteil sein. NOThing hatte ja auch schon auf streaming hingewiesen.
Allerdings stünde in einem solchen Szenario speziell die Grafikkarte und ihre PCI-E-Anbindung eben auch nicht im Mittelpunkt.

Iscaran
2019-06-20, 09:54:50
Die Frage ist denke ich eher ob die Spiele bei derartigen FPS-Werten hier deutlich "PCI-Bandwidth" limitiert sind.
Das kann glaub ich im großen und ganzen verneint werden. WÄRE das der Fall müsste sich zw. 8x und 16x ja theoretisch eine "Verdoppelung" der FPS messen lassen. Das ist bei KEINEM Beispiel auch nur annähernd der Fall.

Auch schon bei den weit langsameren Fällen nicht !

=> Ich fürchte die Games sind ALLE irgendwo anders limitiert in den Einstellungen und das ganze ist eigentlich kein sehr sinnvoller Test für PCI-e limits.
Bzw. es zeigt sich eben dass PCI-e nur sehr wenig mit dem erreichbaren FPS-Limit zusammenhängt. Ich vermute mal dass schnellste single-Core Leistung und schnellster RAM fast mehr bringen als der Sprung von PCIe 8x auf 16x...und mit PCIe 4.0 16x erst recht.

Das Problem bei hohen FPS ist imho fast IMMER die game engine die die Verarbeitung derart vieler FPS oft gar nicht effizient genug handhaben kann. (Da die Games ja idr auf ~60FPS "optimiert" werden. Sprich es wird solange entwickelt bis man mit der gewünschten "Ziel-Hardware" auf 60FPS kommt. Bei manchen Games (Shootern ist der Wert evtl. höher aber sicher).

Daher wird wohl auch in den nächsten 5 Jahren PCIe 3.0 16x für alles ausreichen was da so kommt.

BlacKi
2019-06-20, 10:55:44
Ein richtiges Killeragument das der PCI Express 3.0 jetzt am Limit ist, sehe ich hier garnicht.

sowas gibts ja auch nicht. man kann auch mit pcie3.0 x4 und ner 2080ti noch zocken. aber trotzdem ist ein schnellerer standard schneller. pcie 4.0/5.0 wird interessant wenn man sowieso aufrüsten muss und man den standard sowieso automatisch mitnimmt.

Badesalz
2019-06-20, 11:45:37
Es gab damals ja den Fall, daß man Schnelles (RAM, CPU) noch mit PCIe 2.0 oder schon 3.0 einkaufen konnte.
Wobei ich bei solchen Tests irgendwie das Gefühl hatte und habe, Spiele die wenigstens in erwähnenswertem einstelligen Prozentbereich mit PCIe skalieren, haben an der Engine irgendwas böse verbastelt :freak:

Welche Fragen stellen sich 2019 aber noch? Keine? Mit 3.0 ist an der Stelle kein Druck mehr vorhanden. Oder warum hat sich 3.0 SO LANGE gehalten?
4.0 kommt mit AMD. Intel schaut sich das an, sagt: Ah ja. Nee. Passt noch. Nächstes Jahr kommt 5.0, das machen wir dann auch direkt, wenns soweit ist.

4.0/5.0 werden jetzt noch bisschen, bisschen interessant. Nicht so wegen Graka und Vollausbau, als wegen NVMe. Dann wars das aber auch schon daheim.

Wirklich freuen werden sich drauf nur die Hersteller von Großrechnern bzw. Serverfarmen. Vor allem eben wegen x4 und x8 und nicht wegen x16.

edit:
pcie 4.0/5.0 wird interessant wenn man sowieso aufrüsten muss und man den standard sowieso automatisch mitnimmt.Weil man dann eh nichts anderes in Neu bekommt, wird etwas dadurch interessant? :)

Benutzername
2019-06-21, 01:27:20
Nächstes Jahr kommt 5.0, das machen wir dann auch direkt, wenns soweit ist.

Najaaa 4.0 verzögerte sich Jahre. Daß 5.0 pünktlich kommt glaube Ich erst, wenn man es kaufen kann.

Badesalz
2019-06-21, 12:56:49
4.0 hat sich real ;) nicht wegen PCI-SIG "verzögert". Die Verwerter haben sich das fürs Später warmgehalten. Und PCI-SIG ermutigt gemütlich vorzugehen :wink:
Bis man nun mit dem Vorteil wenigstens bisschen was brauchbares vorzeigen kann.

Finaziell ist es für sie lohnender den bequemer benchbaren Aufpreis für mehr Vram einzustecken. Was die Wichtigkeit der Anbindung eben lange realitvierte (und es an sich immernoch tut).
Nun macht PCI-SIG aber Dampf. Die sind schon an 6.0 dran und das ist zu 60% auch fertig (wenn man mit 100% die ersten wirtschaftlich gerechten Implementierungsversuche versteht).
5.0 ist mittlerweile auch schon in trockenen Tüchern. Weil wie gesagt die GroßesEisen Verwerter nun mehr als 3.0 für FPGA, GPGPU, NVMe und Netzwerk brauchen.

Vor allem aber NVMe und Netzwerk, da es nun auch mit TerabitEthernet langsam losgeht. Da ist es viel wichtiger was man pro Line bekommt, als daß x16 auch geht.

ps:
Hose runter :freak: Ich wußte bis vor kurzem echt nicht, daß PCIe bis x32 geht. 1x 6.0 x32 also, macht dann so in etwa 252 GB/s. Alter Schwede :crazy:

Benutzername
2019-07-03, 17:24:51
Einen nutzen von PCIe 4.0 ist mir gerade eingefallen: für zwei Grafikkarten parallel zu nutzen ohne SLI linkbrücke/kabel.


aber ansonsten muss Ich echt passen bei Anwendugsfällen.



ps:
Hose runter Ich wußte bis vor kurzem echt nicht, daß PCIe bis x32 geht. 1x 6.0 x32 also, macht dann so in etwa 252 GB/s. Alter Schwede

Supercomputer brauchen auch was zum Datentransport.

Skysnake
2019-07-03, 21:49:05
Doch das geht bis 32x und in Pizzaschachteln wird das auch für die Riser gerne verwendet. Es gibt nur kein einziges Endgerät das sowas nutzt.

Im HPC ist es auch so ne Sache. Die meisten Cluster sind noch immer CPU only. Da braucht man an sich nur 1 bis max 2 16x Anschlüsse pro node und nochmals paar Lanes für BMC Chipsatz etc.

PCIE 4.0 ist an dich nur wegen HDR200 interessant weil es kein 32x gibt mit 16x PCIE 3.0 schafft man aber keine 200GBit/s.

Für GPU nodes brauch man viele PCIE Lanes sofern man nicht gleich ne Power Kiste nimmt...

Wo man wirklich ums verrecken jede Lane brauch die man bekommen kann sind all Flash Speicherlösungen. Vor allem bei NVMe over Fabric. Da macht die CPU eh fast nichts, sondern stellt an sich nur die PCIE Lanes bereit.

Daredevil
2019-07-05, 05:29:15
Wenn AMD Virtual Link auf nem PCIe 4 Standard anbietet, könnte der Port doch vielleicht auch mit PCIe4 4x angebunden sein, mh? Also analog zu NVIDIA.
Das wäre ein kleines Feature, welches Nicetohave wäre. (:

aufkrawall
2019-07-11, 11:17:59
SotTR scheint mit DX12 mGPU bei 2x8 3.0 übelst an der Bandbreite zu verhungern, auch ohne TAA. Sobald er viel streamen muss, ist Schicht im Schacht.
Strange Brigade hingegen scheint das 8x null zu interessieren, läuft insbsd. mit Vulkan auf 2x RX 580 wie die wilde Wutz in 4k...