PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wird PCIe 4.0 bei Release schon Sinn machen?


Snoopy69
2019-06-18, 11:07:16
Anfang Juli wird es neue MBs mit PCIe 4.0 zu kaufen geben...
Aber wird man davon auch gleich profitieren? Es wurde zumindest eine SSD vorgestellt, die angeblich 5GByte/s. schaffen soll.

Oder anders gefragt...
Ist eine overclocked RTX 2080 Ti in der Lage PCIe 3.0 ins Limit zu treiben?
Wenn nein, brauche ich erstmal kein PCIe 4.0

Taigatrommel
2019-06-18, 11:33:10
Die Grafikkarte muss AFAIK die Spezifikation unterstützen, die gewöhnlichen GeForce und Radeon Karten für Konsumenten sind jedoch allesamt nur für PCIe 3.0 ausgelegt. Meines Wissens gibt es entsprechende Profikarten, welche bereits 4.0 unterstützen.

Bei NVMe Laufwerken wird es ähnlichen sein, die derzeit gängigen Varianten sind quasi allesamt für 3.0 ausgelegt, um die extrem hohen Transferraten der Computex Demos zu bekommen, wird man auch entsprechende 4.0 Laufwerke benötigen.

Bezüglich deiner 2080 Ti würde ich mal behaupten, die bringt 3.0 noch lange nicht ans Limit. Ein 2080 Ti mit PCIe 3 x8 ist nur unwesentlich langsamer als 3 x16, obwohl x8 nur die halbe Bandbreite zur Verfügung stellt.
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/

Somit wird PCIe 4.0 eher eine Zukunftsinvestition darstellen, bzw. wenn man unbedingt entsprechend schnelle Speichermedien benötigt und ein zeitnahes Update plant.

Peek&Poke
2019-06-18, 11:35:25
Wenn die Grafikkarte kein PCI 4 unterstützt hat sie auch keinen Vorteil davon nur die neuen Navi Karten haben PCI 4. Aber auch da limitiert ein 3er slot noch lange nicht abseits dual triple etc Karten systemen! Nur die cpu Anbindung und brandneue nvmes werden etwas profitieren

dildo4u
2019-06-18, 11:52:02
Die Grafikkarte muss AFAIK die Spezifikation unterstützen, die gewöhnlichen GeForce und Radeon Karten für Konsumenten sind jedoch allesamt nur für PCIe 3.0 ausgelegt. Meines Wissens gibt es entsprechende Profikarten, welche bereits 4.0 unterstützen.
.
5700XT kann PCI-E 4 das wird aber vermutlich kaum Einfluss auf Games haben.

w0mbat
2019-06-18, 11:53:16
Mit ner 2080 Ti gibt es schon einen messbaren Unterschied zwischen PCIe 3.0 x16 und x8, so ca. 3-4%. Kann gut sein, dass auch der Sprung von PCIe 3.0 x16 auf PCIe 4.0 x16 noch mal etwas mehr Leistung liefert, so 1-2%.

Semmel
2019-06-18, 12:24:24
Kann gut sein, dass auch der Sprung von PCIe 3.0 x16 auf PCIe 4.0 x16 noch mal etwas mehr Leistung liefert, so 1-2%.

1-2% wären jetzt nicht weltbewegend.
Deswegen ein neues Mainboard zu kaufen (falls man eine PCIe 4.0 Grafikkarte hätte) lohnt sich also nicht.

Beim Neukauf nimmt man es natürlich mit, klar.

Einen wirklichen Vorteile seh ich auch nur bei NVMe-SSDs.
Die sind dazu in der Lage die Schnittstelle voll auszureizen.
Die angekündigten 5 GB/s sind nur der erste Schritt.

Mit PCIe 3.0 schaffen die schnellsten M.2-SSDs@PCIe 3.0 x4 ca. 3,5 GB/s.
Also wird es mit PCIe 4.0 auch noch ca. 7 GB/s geben.

hmmm
2019-06-18, 12:29:26
Vielleicht sollte man es nicht nur auf die Bandbreite beziehen sonder auch auf die Latenz.

Taigatrommel
2019-06-18, 12:31:46
5700XT kann PCI-E 4 das wird aber vermutlich kaum Einfluss auf Games haben.

Richtig, Navi wird es unterstützen, vielleicht zieht ja auch nVidia mit den Super GeForce nach, auch wenn ich es mir nicht vorstellen kann. Davon abgesehen glaube ich einfach nicht, dass Navi überhaupt die Rohleistung haben wird, um die Banbreite von PCIe 3.0 auszureizen.

Jedenfalls nicht in einem Maße, der einen großen Unterschied bewirkt. Im verlinkten Test waren ja auch von 3-5% die Rede für eine 2080 Ti. Das ist erwähnenswert, jedoch empfinde ich es jetzt nicht als krassen Unterschied, so das ich kaum glaube, dass z.B. eine 2080 Ti mit voller 4.0 Unterstützung auf einmal ungeahnte Reserven zündet und sich dann absetzt.

Tesseract
2019-06-18, 13:14:02
PCIe 4.0 wird für grakas genau so wenig bringen wie PCIe 3.0 damals. die renderer am PC sind ganz einfach nicht darauf ausgelegt viel über den PCIe zu schicken und so lange kein großteil der user base systeme mit signifikant stärker angebundenen GPUs hat wird sich das auch nicht ändern.

den hauptvorteil von PCIe 4.0 sehe ich in der schnelleren anbindung von M.2.

ich bin momentan sogar am überlegen ob es nicht sinnvoller wäre auf mittlere sicht Zen2 auf einem pre-X570 board zu verbauen, je nach dem wie groß der preisunterschied im retail dann sein wird.

Loeschzwerg
2019-06-18, 17:10:44
Hinsichtlich Spiele finde ich PCIe 4.0 völlig uninteressant, bis da ein Mehrwert herausspringt vergeht noch einige Zeit.

Die Leistung von PCIe 3.0 @ x4 ist in meinen Augen eigentlich auch noch völlig ausreichend bzw. der Verlust zu x16 vernachlässigbar. Irgendwann muss ich mir doch noch mal ein externes TB3 Gehäuse zulegen.

ich bin momentan sogar am überlegen ob es nicht sinnvoller wäre auf mittlere sicht Zen2 auf einem pre-X570 board zu verbauen, je nach dem wie groß der preisunterschied im retail dann sein wird.

Du könntest so zumindest entspannt bis 2020 auf die PCIe 4.0 Chipsätze von ASMedia warten. Ein billiges B450 und die Sache ist erledigt.
Hängt letztendlich alles vom Anforderungskatalog und natürlich dem "Haben-Will"-Faktor ab.

Snoopy69
2019-06-18, 17:24:35
Mit ner 2080 Ti gibt es schon einen messbaren Unterschied zwischen PCIe 3.0 x16 und x8, so ca. 3-4%. Kann gut sein, dass auch der Sprung von PCIe 3.0 x16 auf PCIe 4.0 x16 noch mal etwas mehr Leistung liefert, so 1-2%.
Wäre es mit PCIe 4.0 zb 1-2% mehr. würde PCIe 3.0 ja die 2080 Ti limitieren. Ist das wirklich der Fall?
Wenn 3.0 nicht limitiert, wäre der Vorteil mit 4.0 genau 0,00%
Oder liege ich völlig falsch?

Daredevil
2019-06-18, 17:26:01
Je höher die FPS, desto höher limitiert der Port.
Wenn du also eine 2080ti mit einem sehr schnellen Prozessor paarst und wirklich in sehr hohen FPS spielen möchtest, solltest du immer die schnellste Anbindung haben.

Snoopy69
2019-06-18, 17:50:22
Bin echt mal gespannt, wie eine 2080 Ti auf X570 (und wenig später auf X590) performt.
Werd wohl aber bis September warten müssen, weil ich heiss auf den 3950X (16 Cores) bin

btw:
Hab zufällig gerade gesehen, dass ein dänischer Händler schon Preise für X570-MBs gelistet hat

Gigabyte X570 Aorus Exteme 7.399 DKK ca. 882 Euro
Gigabyte X570 Aorus Pro 2.499 DKK ca. 298 Euro
Gigabyte X570 I Aorus Pro 2.149 DKK ca. 256 Euro
Gigabyte X570 Gaming X 1.699 DKK ca. 202 Euro

MSI MEG X570 Godlike 6.199 DKK ca. 737 Euro
MSI Prestige X570 Creation 4.299 DKK ca. 512 Euro
MSI MPG X570 Gaming Edge WiFi 1.899 DKK ca. 226 Euro
MSI MPG X570 Gaming Plus 1.699 DKK ca. 202 Euro

Taigatrommel
2019-06-18, 19:57:41
Bin echt mal gespannt, wie eine 2080 Ti auf X570 (und wenig später auf X590) performt.
Werd wohl aber bis September warten müssen, weil ich heiss auf den 3950X (16 Cores) bin

btw:
Hab zufällig gerade gesehen, dass ein dänischer Händler schon Preise für X570-MBs gelistet hat
Da wirst du gar keinen Unterschied zu X370/X470/B450 merken:
Deine 2080 Ti unterstützt kein PCIe 4.0 und wird nicht davon profitieren. Sprich wovon du sprichst, ist dann rein auf die CPU in Form eines Ryzen 3000 bezogen. Da wirst du auf die nächste/übernächste GeForce Generation warten müssen, um einen Vergleich zu 3.0 ziehen zu können.

Achill
2019-06-18, 21:51:10
PCIe 4 bringt mehr Bandbreite, damit kann Crossfire evtl. wieder interessant werden. Wenn ich es noch Richtig in Erinnerung hatte (mit meinen zwei 390Xern), dann war die Skalierung bei Spielen mit Temp. Effekten wie AA oder Motion-Blur immer schlecher bzw. sogar negativ. Man konnte die spezifischen Effekte deaktivieren, was aber halt zumindest bei guten TAA nicht so toll war/ist. Aber auch mit solchen Einschränkungen ging die Skalierung mit Steigender Auflösung zurück - für mich klang das beides nach Bandbreiten-Problem.

Noch als Anmerkung, meine hier nicht Spiele mit CFX-Profil, sondern um die Modi: AFR-Friendly und 1x1 ... mit beiden konnte man nicht unterstützte Spiele mit einen generischen Modus lauf lassen und den Treiber die Sync. der Daten im VRAM zuwischen den GPUs überlassen. Das braucht natürlich Bandbreite.

Vielleicht kommt ja ein spezifischer Test mit X570 MB und zwei Navi-GPUs mit den besagten Modis ... mal schauen.
Edit: Hat nicht genügend PCIe Lanes für 2*16x ...

T86
2019-06-18, 22:27:07
Ist doch wie immer...

Der Wechsel von pcie 2.0 auf 3.0 hat auch erst Jahre später wirklich was gebracht.
Und Welten sind das auch Immer noch nicht.
Zumindest beim zocken

Pcie 2.0 x16 ist ~ pcie 3.0 x8 und das kostet nach wie vor kaum Leistung.

Bei ssds merkt man da da eher - ein m2 Slot mit pcie 2.0 x4 bremst schon sehr mit ~ 2000mb bei schnellen Modellen

blaidd
2019-08-08, 03:35:57
Hat mich selbst ein bisschen überrascht:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67404&stc=1&d=1565227576

Ist längst nicht in jedem Spiel so ausgeprägt (Assassin's Creed ist da eher die Ausnahme), aber prinzipiell kann man da kleinere Vorteile erwarten. Vor allem unter Berücksichtigung, dass zukünftige Spiele höchstwahrscheinlich sowohl speicherlastiger ausfallen werden als auch eine größere Anzahl Vertex-Daten nutzen werden (was beispielsweise im 3D-Mark-Feature-Test für die Limitierung des PCI-E-Slots sorgt), halte ich PCI-E 4.0 für durchaus sinnvoll.

Aktuell braucht man's eher nicht unbedingt, aber für die Grafikkarten-Leistung als vollkommen unbedeutend würde ich PCI-E 4.0 nach den Ergebnissen auch nicht direkt bezeichnen wollen.

Artikel ist hinter einer Paywall bzw. im aktuellen Heft (PCGH 09/2019), ich verlink's daher nicht.

dildo4u
2019-08-08, 04:56:01
Das wird sehr interessant falls AMD für 2019 noch ne High-End GPU hat,dann ist X570 doch nicht so nutzlos.

Badesalz
2019-08-08, 08:58:45
Wurde das meiste davon nicht eh schon hier im 3.0 Thread erzählt? ;)

Das wird sich nicht durch Überlegungen oder Notwendigkeiten erledigen, sondern klassisch, mit der Zeit ;) Irgendwann gibt's keine Mobos mehr mit 3.0 und fertig.
Bei selbsternannten Enthusiasten umgehend mit einer nennenswerten Verfügbarkeit, für alle anderen irgendwann anschließend. Fertig.

Snoopy69
2019-08-08, 16:06:53
Hat mich selbst ein bisschen überrascht:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67404&stc=1&d=1565227576

Ist längst nicht in jedem Spiel so ausgeprägt (Assassin's Creed ist da eher die Ausnahme), aber prinzipiell kann man da kleinere Vorteile erwarten. Vor allem unter Berücksichtigung, dass zukünftige Spiele höchstwahrscheinlich sowohl speicherlastiger ausfallen werden als auch eine größere Anzahl Vertex-Daten nutzen werden (was beispielsweise im 3D-Mark-Feature-Test für die Limitierung des PCI-E-Slots sorgt), halte ich PCI-E 4.0 für durchaus sinnvoll.

Aktuell braucht man's eher nicht unbedingt, aber für die Grafikkarten-Leistung als vollkommen unbedeutend würde ich PCI-E 4.0 nach den Ergebnissen auch nicht direkt bezeichnen wollen.

Artikel ist hinter einer Paywall bzw. im aktuellen Heft (PCGH 09/2019), ich verlink's daher nicht.
Auch, wenn eine 2080Ti nur 3.0 hat - würde ein 4.0-MB auch paar % mehr bringen?

Gibt es Benches mit einer 2080Ti und einem 4.0-MB im Vergleich zu einem 3.0-MB?

Ich würde ein 4.0-MB nur kaufen, wenn ich es, wie mein altes MB 9-10 Jahre behalte (alle 5 Jahre ein Graka-Wechsel)

Loeschzwerg
2019-08-08, 16:11:09
Auch, wenn eine 2080Ti nur 3.0 hat - würde ein 4.0-MB auch paar % mehr bringen?

Wie soll das funktionieren? Die Karte und CPU bzw. je nachdem der Chipsatz schießen sich auf 3.0 ein, weil die Karte signalisiert nicht mehr zu können.

Badesalz
2019-08-08, 19:56:42
Auch, wenn eine 2080Ti nur 3.0 hat - würde ein 4.0-MB auch paar % mehr bringen?Klar. War doch schon früher so. In % sogar wieder fast genausoviel wie damals ein 3.0 Board mit einer 2.0 Graka.

Snoopy69
2019-08-08, 20:11:09
Wie soll das funktionieren? Die Karte und CPU bzw. je nachdem der Chipsatz schießen sich auf 3.0 ein, weil die Karte signalisiert nicht mehr zu können.
Naja, zwar nicht mit mehr Bandbreite, aber durch bessere Latenzen vielleicht

Ich vergleiche das immer gerne mit SSDs aus dem Jahre 2008. Die haben 100-150MB/s. Bandbreite gehabt, aber viel bessere Zugriffszeiten (Latenz, IOps etc) als eine HDD, die genauso viel MB/s oder mehr gehabt hat

Tesseract
2019-08-08, 21:15:43
was für bessere latenzen? wenn am anderen ende ein 3.0 device hängt muss das 4.0 device die 3.0 spec einhalten.

blaidd
2019-08-09, 03:03:48
Auch, wenn eine 2080Ti nur 3.0 hat - würde ein 4.0-MB auch paar % mehr bringen?

Gibt es Benches mit einer 2080Ti und einem 4.0-MB im Vergleich zu einem 3.0-MB?

Ich würde ein 4.0-MB nur kaufen, wenn ich es, wie mein altes MB 9-10 Jahre behalte (alle 5 Jahre ein Graka-Wechsel)

Wenn ich die Frage richtig verstanden habe, geht es darum ob eine hypothetische RTX 2080 Ti mit PCI-E 4.0 schneller wäre als eine mit PCI-E 3.0

Ich würde sagen: ja. Aktuell nicht viel, aber eine Tendenz wäre wahrscheinlich offensichtlich.

JVC
2019-08-09, 11:48:14
Mit der richtigen Karte wird es "sinn" machen. (anfangs eher im unteren einstelligen % Bereich)

Ich frag mich eher, ob oder wie lange ich "Big-Navi" 3.0 zumuten will ...

M.f.G. JVC

ChaosTM
2019-08-09, 14:44:56
Blöd.... mein altes Brett ist ein Jahr zu früh verstorben

Snoopy69
2019-08-09, 22:17:39
Den neuen SSD-Controller "Tacoma (IG5668)" mit NVMe 1.4-Protokoll finde ich sehr geil...
Bis zu 7000MByte/s und 1.5MIOPS (1.500.000) für ein kleines Riegelchen :eek:

Badesalz
2019-08-10, 08:10:58
Kleiner als das was man findet, wenn man zb. eine 860pro 512GB aufschraubt, ist das auch nicht ;) Real kostet da das 2.5" Gehäuse wohl mehr als die Innereien :freak:

Wo wir aber bei obigen sind. Rainier oder Tacoma hauen sich alleine 5W weg. Eine 1TB 860pro zieht sich komplett, 2.2W rein. Sprich, das gibts nicht for nothing und muss entsprechend behandelt werden. Die Leute haben irgendwie heute schon gelegentlich Probleme mit Überhitzung ihrer M.2 :freak: und da zeihen die Kontroller alleine bei weitem keine 5W aus dem Netzteil.

Snoopy69
2019-08-10, 13:33:16
Die Leistung muss ja auch irgendwo herkommen...
Ich sehe da kein Problem 5W wegzukühlen. Ich denke mal, dass die SSD, wie die aktuellen 4.0-SSDs mit eigenem Kühler daherkommt

Badesalz
2019-08-10, 14:13:36
Das ist auch keine Kritik an den 5W (bei der Leistung :tongue:), sondern nur ein Vermerk ;)
Ob man 5W gut und weniger gut kühlen kann, hängt erstmal davon ab wie groß das Gehäuse (des ICs) ist :cool: Und dann halt an welcher mehr oder weniger sinnvollen Stelle es im System steckt (bezüglich der Belüftung).

Da sehe ich 5W zwar auch nicht als privat unüberwindbare Wand, aber so trivial wie die 5W klingen wird das nicht sein. Daher schreiben sie auch gleich dabei, das ist für Enterprise.
Womit das aber wohl nicht nur bisschen Aufmerksamkeit beim Aufbau der Systeme verlangen wird, sondern vor allem einen ordentlichen saftigen Preis.

Denke P/L wird selbst fürs Hobby nicht so der Bringer sein. Oder hat hier wer Optane im Rechner?