PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PCI Express 4 & 5


Skysnake
2016-06-26, 12:23:59
Da PCI-E 4 vor der Tür steht und es bisher noch keinen Topic dazu gibt mache ich mal einen auf.

Die ersten Producte mit PCI-E 4.0 Support werden wohl von Mellanox und IBM kommen.

Mellanox: ConnectX5 (http://www.mellanox.com/page/press_release_item?id=1737) (2016)
IBM: Power9 (http://www.theregister.co.uk/2016/04/07/open_power_summit_power9/) (2017)
AMD: TBA
Intel: TBA

OBrian
2016-06-26, 15:07:56
was man bisher zu wissen glaubt:

- doppelter Speed ggü. PCIe 3.0
- anderer Connector (alte Karten gehen in neuen Boards, aber nicht umgekehrt)

Leonidas
2016-06-27, 04:45:52
Ohne das AMD & Intel sich äußern, werden AMD (auf Grafikkarten-Seite) und nVidia auch nix machen. Im Gegensatz zu früheren Wechseln bedeutet der für die Grafikchip-Entwickler nur Arbeit und wenig Gewinn.

Foobar2001
2016-06-27, 06:15:47
Warum weniger Gewinn? Die PCIe-Bandbreite ist ziemlich beschrankend.

Geldmann3
2016-06-27, 09:29:26
Das stimmt, besonders für ordentlich skalierenden Multi GPU Support würde man eigentlich die 10 fache Bandbreite benötigen. Aber auch so limitiert die Bandbreite durchaus. Auch wenn man in Benchmarks ala' 8 Lanes vs 16 Lanes momentan nicht viel davon mitbekommt.

Loeschzwerg
2016-06-27, 11:34:08
Die Bandbreite limitiert, aber aktuell bekommt man davon nichts mit ;D

Genau diesen Punkt meint doch Leo ;) Im Consumer Bereich wäre es momentan eine unnötige Investition.

Multi-GPU? Bei dem geringen Marktanteil? Ob DX12/Vulkan hier etwas ändern werden bleibt abzuwarten (ich glaube es nicht).

iuno
2016-06-27, 11:45:25
Im Consumer Bereich spuert man davon auch nichts, bei multi GPU oder Streaming koennte vielleicht ein bisschen was verbessert werden, aber dafuer lohnt es nicht. Hauptsaechlich geht es um die Skalierung bei clustern im groesseren Stil, denn da besteht Handlungsbedarf, sonst haette z.B. NV auch kein NVLink entwickelt.

Ernsthaft, PCIe 4 soll neue, inkompatible Steckverbindungen haben?
Wieso das denn? Vielleicht wird alles etwas kleiner und dadurch der x32 Connector weiter verbreitet? Passt aber nicht zu der Aussage, alte Karten wuerden auf neue Boards passen...

StefanV
2016-06-27, 13:06:30
Oder man macht sowas wie damals bei EISA, aber aufgrund das Pinabstandes auch nicht so easy...

Wobei die Frage ist, ob AMD nicht eher ihr altes Hyper Transport ausgräbt und da was umschaltbares implementieren könnte. Gibt ja mehr als genug 'NC' Pins...

Leonidas
2016-06-27, 17:35:54
Bei Intel gibt es ja die Möglichkeit, das nur bei den Server-CPUs belassen, zumindest über einen gewissen Zeitraum. Bei AMD wird dies nicht so einfach, weil AMD nur sehr wenige echte Dies auflegt.

Aber wenn, dann legen AMD und Intel dies zuerst einmal nur wegen des Nutzens im Server-Bereich auf. Für Consumer-Belange lohnt das nicht aus Performance-Sicht - ergo kommt es erst dann, wenn es kostengünstig genug ist für einen gewissen Marketing-Effekt.

gamma29
2016-06-29, 11:28:18
alte Karten gehen in neuen Boards, aber nicht umgekehrt
Hab auch ein paar Artikel gefunden in den steht das pcie 4.0 karten nicht in alten Slots arbeiten werden.

Auf der Homepage fand ich allerdings das.

Will PCIe 4.0 products be compatible with existing PCIe 1.x, PCIe 2.x and PCIe 3.x products?
PCI-SIG is proud of its long heritage of developing compatible architectures and its members have consistently produced compatible and interoperable products. In keeping with this tradition, the PCIe 4.0 architecture is compatible with prior generations of this technology, from software to clocking architecture to mechanical interfaces. That is to say PCIe 1.x, 2.x and 3.x cards will seamlessly plug into PCIe 4.0-capable slots and operate at the highest performance levels possible. Similarly, all PCIe 4.0 cards will plug into PCIe 1.x-, PCIe 2.x- and PCIe 3.x-capable slots and operate at the highest performance levels supported by those configurations.



Bin verwirrt

hier (http://pcisig.com/faq?field_category_value%5B%5D=pci_express_4.0&keys=)

OBrian
2016-07-05, 02:31:31
ja, das klingt anders. Ich hatte die Aussage oben aus den im Wikipedia-Artikel verlinkten Meldungen entnommen. Evtl. haben sie sich ja nochmal umbesonnen, oder eine der beiden Aussagen war einfach so ungenau, daß sie falsch ausgelegt wurde.

Nightspider
2016-07-05, 08:13:13
Was meint ihr ob wir vielleicht mit der übernächsten Generation schon optische Verbindungen bekommen werden? Intel und Co arbeiten ja schon seit vielen Jahren an integrierten, optischen Lasern und Verbindungen.

iuno
2016-07-05, 10:12:21
Intel hat halt Omni-Path, das ist aber afaik fuer die Vernetzung ganzer Knoten?!
Ich denke nicht, dass es sich auf so kurzen Distanzen lohnt, optische Verbindungen einzurichten. Zumal ja auch die Latenz leiden wuerde, wenn das Signal erst so umgesetzt werden muss?!

MilesEdgeworth
2016-07-05, 11:14:01
Naja, optische Interconnects werden auch für sehr kurze Distanzen kommen, nur bis es tatsächlich soweit ist dürfte noch viel Zeit vergehen. Small-scale optical interconnects sind nämlich alles andere als trivial.

iuno
2016-08-19, 03:00:54
PCIe 4.0 Demo auf dem IDF: http://www.heise.de/newsticker/meldung/IDF-PCIe-4-0-laeuft-PCIe-5-0-in-Arbeit-3297114.html

Erste Chips mit Synopsis-IP sollen zum Jahresanfang 2017 verfuegbar werden.

http://1.f.ix.de/imgs/18/1/8/7/2/7/5/0/pcie5-ca055f534ed0435e.png

PCIe 5.0 laut PCI-SIG sicher elektrisch, nicht optisch. Moeglicherweise "normal" dann 25 GT/s und bis zu 32 GT/s bei sehr kurzen Leitungswegen.

Loeschzwerg
2016-08-19, 07:06:07
An PCIe 5.0 will ich noch gar nicht denken, wenn schon PCIe 4.0 so schwierig zu handhaben ist (Repeater bei Risern).

Für Heimanwender dauert es wohl noch etwas.

Leonidas
2016-08-19, 09:06:32
Warten wir mal, bis Intel das im Server-Bereich bei irgendwelchen Xeon ankündigt ...

][immy
2016-08-19, 10:59:29
Das stimmt, besonders für ordentlich skalierenden Multi GPU Support würde man eigentlich die 10 fache Bandbreite benötigen. Aber auch so limitiert die Bandbreite durchaus. Auch wenn man in Benchmarks ala' 8 Lanes vs 16 Lanes momentan nicht viel davon mitbekommt.
Also so richtig ordentlich nimmt auch die Leistung bei Multi-GPU nicht zu. Aber abgesehen davon, Multi-GPU ist erst mal ziemlich tot. Wenn mit DX12/Vulkan die Spielehersteller für Multi-GPU support sorgen müssen, wird das nur noch von einem noch kleineren Bruchteil der Spiele überhaupt unterstützt.
Was eher passieren könnte ist multi-gpu über compute oder etwas ähnliches, wo einfach kleine "unabhängige" Aufgabe auf die GPUs verteilt werden die zur Verfügung stehen. So könnten dann auch endlich mal integrierte GPUs sinnvoll verwendet werden. aber auch hier sehe ich derzeit noch keine Grund warum es an Bandbreite mangeln sollte.
Klar kann man immer Fälle finden, aber schon der sprung von PCIe 1 => PCIe 2 => 3 hat kaum etwas gebracht außer in ein paar Sonderfällen. Ist im Grunde wie früher mit AGP. Es gab zwar messbare unterschiede, aber mehr als 10% im Höchstfall kamen dabei nie raus. Zumal der Grafikspeicher wächst und wächst und immer mehr Daten direkt der GPU zur verfügung stehen.

maximus_hertus
2016-08-19, 11:34:43
[immy;11135562']Also so richtig ordentlich nimmt auch die Leistung bei Multi-GPU nicht zu.

Ist das so?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10937345&postcount=2135


[immy;11135562'] Aber abgesehen davon, Multi-GPU ist erst mal ziemlich tot. Wenn mit DX12/Vulkan die Spielehersteller für Multi-GPU support sorgen müssen, wird das nur noch von einem noch kleineren Bruchteil der Spiele überhaupt unterstützt.

MS hat doch eine vereinfachte Multi-GPU Einbindung herausgebracht.
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Microsoft-Multi-GPU-Layer-Crossfire-SLI-1201082/


[immy;11135562']
Klar kann man immer Fälle finden, aber schon der sprung von PCIe 1 => PCIe 2 => 3 hat kaum etwas gebracht außer in ein paar Sonderfällen. Ist im Grunde wie früher mit AGP. Es gab zwar messbare unterschiede, aber mehr als 10% im Höchstfall kamen dabei nie raus. Zumal der Grafikspeicher wächst und wächst und immer mehr Daten direkt der GPU zur verfügung stehen.

Tellerrand und so. Single GPU = 30 fps, Multi GPU = 60 fps? Ja, aber ;) Viele "Tests" geben doch nur die Durchschnitts fps an, die viel wichtigeren Frametimes etc. werden doch häufig gar nicht berücksichtigt. Mir ist z.B. kein test bekannt, der PCIe 2.0 mit 3.0 vergleicht (aktuelle Grafikkarten, aktuelle Spiele) und dabei nicht nur die Avg-Frames angibt.

Botcruscher
2016-08-19, 12:05:02
MS hat doch eine vereinfachte Multi-GPU Einbindung herausgebracht.
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Microsoft-Multi-GPU-Layer-Crossfire-SLI-1201082/


Wird nicht viel verändern. Dafür fehlen einfach massiv neue Verfahren die nicht mit irgendwas inkompatibel sind.

maximus_hertus
2016-08-19, 12:32:43
Wird nicht viel verändern. Dafür fehlen einfach massiv neue Verfahren die nicht mit irgendwas inkompatibel sind.

Zumindest ein vergleichbares Niveau wie AFR-SLI/CF sollte damit doch möglich sein, ohne das man da (zu) viel investieren müsste (zumindest verstehe ich den Artikel so).

Wake
2016-08-22, 01:49:24
Mindestens 300W bis möglicherweise maximal 400-500W über den Slot (http://www.tomshardware.com/news/pcie-4.0-power-speed-express,32525.html) :massa:

Wer braucht da noch zusätzliche PCIe-Kabel? ;D

Foobar2001
2016-08-22, 01:50:24
Das ist wohl der Sinn der Sache, dass man diese nicht mehr braucht.

StefanV
2016-08-22, 02:07:48
Mindestens 300W bis möglicherweise maximal 400-500W über den Slot (http://www.tomshardware.com/news/pcie-4.0-power-speed-express,32525.html) :massa:

Wer braucht da noch zusätzliche PCIe-Kabel? ;D
Hm?
Ob da ev. jemand was in den falschen Hals bekommen hat??

Naja, einfach mal abwarten und Tee rauchen...

dargo
2016-08-22, 06:42:03
Das ist wohl der Sinn der Sache, dass man diese nicht mehr braucht.
Die Frage ist ob dadurch die Bretter signifikant teurer werden?

Birdman
2016-08-22, 11:27:04
Wer braucht da noch zusätzliche PCIe-Kabel? ;D
pft, die Kabel kriegen doch einfach einen andern Stecker/Namen und werden aufs Mobo anstelle der Grafikkarte gesteckt.
Sparen wird man sicher gar nix, denn es will ja ein neues Netzteil mit passenden Kabeln gekauft werden.

Wake
2016-08-22, 17:25:19
Ich meinte auch an der Grafikkarte - aber ja wird wohl Anfangs darauf hinauslaufen, dass man diese dann in das Motherboard stecken muss.

Immerhin besseres Kabelmanagement wäre damit möglich (oder auch nicht wenn die Anschlüsse querfeldein übers PCB verteilt werden) :freak:.

scully1234
2016-08-22, 22:00:08
Für Consumer-Belange lohnt das nicht aus Performance-Sicht - ergo kommt es erst dann, wenn es kostengünstig genug ist für einen gewissen Marketing-Effekt.

Soll die Kaby Lake Plattform, im Schlepptau mit Skylake X Prozessoren, nicht schon mit 48 Lanes 4.0 validiert werden?


Oder ist das schon wieder Schnee von Gestern?

Je nach Auslegung ,wuerde ich das schon noch zur Consumer Sparte zaehlen

RavenTS
2016-08-22, 22:20:07
...
Immerhin besseres Kabelmanagement wäre damit möglich (oder auch nicht wenn die Anschlüsse querfeldein übers PCB verteilt werden) :freak:.


Dafür müsste man vielleicht mal den ATX-Stecker redesignen...

][immy
2016-08-23, 00:19:39
Mindestens 300W bis möglicherweise maximal 400-500W über den Slot (http://www.tomshardware.com/news/pcie-4.0-power-speed-express,32525.html) :massa:

Wer braucht da noch zusätzliche PCIe-Kabel? ;D
Das macht doch überhaupt keinen sinn, außer für die Mainboardhersteller, die die erhöhten Kosten gerne an den Kunden weitergeben werden.
Ich wunder mich die letzten Jahre, es ist immer wieder auf den Boards und trotzdem werden die dinger immer teurer. Es gibt zwar auch günstige einsteiger-boards die sind von der Qualität aber meist doch stark beschnitten.

Die Kabel-Variante direkt vom Netzteil war eigentlich eine recht effiziente variante die benötigte Energie zuzuführen. alles andere macht einfach das Mainboard teurer. Aber abgesehen davon, sollte es mit dem Energie-hunger nicht mal abwärts gehen?
Ich kann ja verstehen das USB mehr leisten können muss, aber PCIe ... schon jetzt stoßen wir ständig auf thermische Größen wo es sehr laut wird das weg zu kühlen, aber hier gelangen wir ja schon in Regionen wo es richtig laut wird.

iuno
2016-08-23, 00:39:23
Dafür müsste man vielleicht mal den ATX-Stecker redesignen...
Wäre doch nett, da hat man aktuell ja auch den 24(?) poligen Stecker plus die 8 Pin P4 für CPUs bei nur 95 Watt. Bei PCIe liefert der 8 Pin 150 Watt. Da könnte man theoretisch schon mal aufräumen. Solche Standards ändert man aber nicht mal eben.
Man müsste die Slots dann imho auch inkompatibel machen, sonst stecken die Leute ihre 300 Watt Karten in alte Slots.
Und das wird wohl eher nicht passieren. Aber ich habe auch keine Ahnung wie sich das auf die Boardkosten auswirken würde

Wake
2016-08-30, 06:57:58
Kurz war der Traum, wurde wieder zurückgerudert und bestätigt dass es bei 75W am Slot bleibt.

StefanV
2016-08-30, 15:59:57
...was zu erwarten war, ehrlich gesagt...

Hübie
2016-08-30, 17:34:38
Da hätt ich mich nun auch gefragt wie so hohe Stromstärken geschirmt geroutet werden sollen. Das wäre ein Spaß geworden.

robbitop
2016-08-30, 21:07:11
Warum willst du das schirmen? Das ist Gleichspannung. Also kein dU/dt und somit kein HF Problem.

StefanV
2016-08-31, 06:09:13
Eben, da brauchts keinen Schirm, nur 'ne gescheite Filterung, die Spannungschwankungen ausgleichen kann...

Hübie
2016-08-31, 07:42:12
Die Signalpfade meinte ich. Wenn da dicke Kupferleitungen das Board durchziehen müssen diese entweder weiter weg liegen oder besser geschirmt werden. Wenn man von 75 auf sagen wir 500 Watt geht wird das sicher nicht ohne Kompromisse gehen. 150 oder 225 Watt hielte ich außerdem für angemessener.

robbitop
2016-08-31, 08:24:30
Warum solltest du die Signalpfade stärker schirmen? Auf der Spannungsversorgung ist ja kein dU/dt. Also hast du auch keine Störeinflüsse durch Induktion auf benachbarte Pfade.

Hübie
2016-09-01, 08:34:03
Wird das elektrische Feld nicht mit steigender Stromstärke bzw. eher Stromdichte auch größer? Aber hast schon Recht die Spannungsversorgung gibt ja immer 12 / 3,3 Volt aus. Das wird ja auf der Karte geregelt.

Skysnake
2016-09-01, 17:59:04
Ja, das Elekromagnetische Feld geht mit der Stromstärke.

@Robbitop:
Nur hast du insbesondere bei so einer SPannungsversorgung weder konstante Ströme noch konstante Spannungen, wobei beim MB die Spannungen schon recht konstant sind. DAs macht nichts aus. Aber du hast eben durch die Lastwechsel ziemlich heftige Stromänderungen.

Ansonsten @Topic:
Power9 kommt definitiv im nächsten Jahr mit PCI-4.0 wie wir von der HOT-Chips nun wissen. Damit hat NVLink 2 (!) wie von mir schon bei der Vorstellung von NVLink vorhergesagt nur einen Vorteil von 56% auf PCI-E bei der reinen Bandbreite.

Völlig überhypt meiner Meinung nach.

iuno
2017-06-09, 23:08:00
PCI-SIG® Fast Tracks Evolution to 32GT/s with PCI Express 5.0 Architecture

PCIe 5.0 Revision 0.3 specification now available to members

http://www.businesswire.com/news/home/20170607005351/en/PCI-SIG%C2%AE-Fast-Tracks-Evolution-32GTs-PCI-Express

Leonidas
2017-06-13, 13:42:00
Und leider immer noch keine Aussicht auf CPUs mit PCIe 4 im Consumer-Bereich.

fondness
2017-06-13, 14:41:08
Bei AMD wird das jedenfalls sicher nichts vor 2019. Bei Intel ka.

Hades11
2017-06-13, 19:23:38
was will man den aktuell mit PCIE 4 im Consumer bereich, einigen Tests von CB zufolge hatte selbst das Upgrade von 16x 2.0 auf 16x 3.0 nur relativ geringe Performance gewinne. Selbst bei einer weiteren Verdopplung der Bandbreite würde sich da doch nicht viel Ändern.
Quad SLI wird aktuell ohnehin nicht mehr unterstützt, da hätte ich den Wunsch nach mehr Bandbreite noch verstanden.

oder habe ich gerade irgendwelche Consumer Anwendunsfälle vergessen?

StefanV
2017-06-13, 19:47:30
Es besteht die Möglichkeit, dass sich das ganze mit VEGA und GPUs mit ähnlichen 'HBCC' ändern könnte.

Allerdings ist auch die Frage, ob AMD PCIe 4.0 überhaupt braucht und nicht eher ihr Infinity Fabric implemetieren wird, welches ja einige Vortiele zu PCIe bietet.

=Floi=
2017-06-13, 19:56:27
bei den grafikkarten wird 4.0 sicherlich die nächsten 5-7 jahre aktuell bleiben. von daher ist es schon nötig.

bei den SSDs kann es dann auch auf 6gb/sek gehen.

schau dir den 2700k an. der hat noch 2.0

wolik
2017-06-13, 20:53:54
was will man den aktuell mit PCIE 4 im Consumer bereich, einigen Tests von CB zufolge hatte selbst das Upgrade von 16x 2.0 auf 16x 3.0 nur relativ geringe Performance gewinne. Selbst bei einer weiteren Verdopplung der Bandbreite würde sich da doch nicht viel Ändern.
Quad SLI wird aktuell ohnehin nicht mehr unterstützt, da hätte ich den Wunsch nach mehr Bandbreite noch verstanden.

oder habe ich gerade irgendwelche Consumer Anwendunsfälle vergessen?
CB ? (Computer Bild :biggrin: ) Welche tests ?
Bei Wildlands 58 (16/16 3.0) vs 44 (16/16 2.0) 25%
http://abload.de/image.php?img=img_2716pguie.jpg
http://abload.de/image.php?img=img_2720gaum5.jpg
Bei Division 80 vs 67 17%
http://abload.de/image.php?img=thedivision_2017_06_0vzurf.jpg
http://abload.de/image.php?img=thedivision_2017_06_0wwu8m.jpg

Aber recht haben Sie. Ohne Quad SLI hat das alles (PCIe 4-5) kein Sinn.

N0Thing
2017-06-13, 22:45:03
Allgemein wird hier im Forum unter CB ComputerBase verstanden. ;)

wolik
2017-06-14, 08:00:52
Allgemein wird hier im Forum unter CB ComputerBase verstanden. ;)
Es war ironisch gemeint. In Bezug auf eine Aussage (ohne test oder links) welche ich falsch finde (mit eigene test). :wink:

Hades11
2017-06-16, 12:43:43
Dieser Test (https://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/2/#abschnitt_leistung_mit_aaaf) war mal auf der 3DC (das kürzel muss ich jetzt aber nicht erklären :biggrin: ) Homepage verlinkt und damals Stoff einiger Disskussionen gewesen, ich dachte den kennt hier Jeder.

Ist aber auch nebensächlich, wenn ihr euch auf PCIE 4 freut ist das doch schön für euch, und wenn ich es für meine Zwecke nicht brauche ist es schön für mich dass ich mich nicht bei jeder CPU Generation die das nicht Implementiert Ärgern muss.

StefanV
2017-06-16, 13:00:48
Der Bericht ist aber auch schon ~4,5 Jahre alt. Das, was damals galt, muss nicht auch heute gelten.

Die Bedingungen ändern sich stetig, Wissen, dass ein paar Jahre alt ist, ist komplett nutzlos bei moderner Hardware, eben weil sich z.T. so viel ändert.

Und insbesondere bei Fiji mit dem HBCC wissen wir noch überhaupt nicht, wie die Auswirkungen von PCIe 2.0 zu PCIe 3.0 sein werden!
Hier kann das ganze ordentlich durchschlagen und einen deutlichen Performance Schub geben...

Aber die größere Frage ist und bleibt, ob AMD deren Infinity Fabric im Ryzen freigeschaltet haben und in VEGA implementiert haben...
DAS könnte ebenso einen recht deutlichen Performance Schub geben...

wolik
2017-06-16, 14:15:13
toHades11 Test von 11.1.2013. Ich denke damals 4K gabs nicht ein mal (ironie) . Aber SLI schon. Deswegen test mangelhaft. Ich denke CPU/Mainboard Hersteller werden direkt zum 5.0 übergehen.

Ex3cut3r
2017-06-16, 16:10:41
toHades11 Test von 11.1.2013. Ich denke damals 4K gabs nicht ein mal (ironie) . Aber SLI schon. Deswegen test mangelhaft. Ich denke CPU/Mainboard Hersteller werden direkt zum 5.0 übergehen.

Damals gab es schon 4K hier ein Video dazu ist vom 14.01.2013

Der Monitor hat damals schlappe 25.000 Euro gekostet. :biggrin:

WUIvJYEeOGU

Hades11
2017-06-16, 16:35:21
Die Auflösung ist für den bedarf an bandbreite zwischen CPU und GPU vollkommen irrelevant. Dort werden Geometrische Modelle übertragen aus denen erst in der Grafikkarte ein Bild errechnet wird. Die Bandbreite hängt somit vom Umfang, Komplexität der Modelle, so wie der Anzahl der Modelle pro Sekunde (1 Pro Bild) ab.

Diese Modelle entwickeln sich i.d.r. deutlich langsamer als die sichtbare Grafik, die art der verbesserung solcher Modelle sieht man am besten an Kreisen. Bei Alten Spielen sehen diese eckig aus. Im laufe der zeit wurden die Ecken immer mehr, bis das ganze aussieht wie ein sauberer Kreis. Ab diesem Punkt hat sich diese Entwicklung drastisch verlangsamt, da man von einer weiteren Steigerung der detailliertheit der Modelle keinen sichtbaren Effekt (aber einige kosten) hat.

Um diese Bandbreite in die Höhe zu treiben braucht man also Spiele mit einer großen und detaillierten Umgebung, mit möglichst hohen FPS (also im Zweifelsfall niedrigere Auflösungen).

Würde dabei die Bandbreite zwischen GPU und CPU die Gesamtleistung des Systems spürbar beeinträchtigen, so wäre das an Testergebnissen sichtbar, da das System mit weniger Bandbreite stärker abfällt, desto höher die FPS werden (also bei niedrigen Auflösungen, verzicht auf: VSync, Frame limiter, AA, Hochauflösende Texturen,...).

Da das nicht der Fall ist wissen wir also das die Bandbreite des alten PCIE 2.0 für 99,9% der Fälle (0,1% sind für eventuell existierende Ausnahmeerscheinungen) für Aktuelle Spiele und Spieleähnliche Benchmarks ausreicht.
Du kannst das gerne selbst Testen indem du deine Graka mal mit PCIE 3.0 x16 gegen x8 testest (3.0 x8 entspricht der Bandbreite von 2.0 x16).

Den Bedarf für SLI habe ich bereits in meinem ersten Post hier eingeräumt, und dass zukünftige Technologien z.b. bei Vega daran etwas ändern habe ich auch nie bestritten, nur bei JETZT bestehenden single GPU Systemen (die nunmal den größten Anteil der Consumer ausmachen) bezweifele ich den Bedarf und nutzen einer weiter gesteigerten Bandbreite zwischen CPU und GPU.
Außerdem ist noch nicht gesichert das Vega den Bedarf an Bandbreite so stark steigern wird dass die Reserven die wir aktuell mit PCIE 3.0 x16 haben nicht mehr ausreichen.

Leonidas
2017-06-17, 10:53:27
Hersteller werden direkt zum 5.0 übergehen.


Arg unwahrscheinlich. Spec für 5.0 in Arbeit bedeutet erst einmal noch gar nichts. Es ist vielmehr hingegen sehr üblich, nach dem Abschluß der Arbeiten an Spec 4.0 sich einfach schon 5.0 zu widmen. Das bedeutet nicht, das 5.0 demnächst technisch überhaupt realisierbar wäre.

Loeschzwerg
2017-10-26, 16:57:19
PCIe 4.0 Spec v1.0 :) Hat jemand Zugriff?

http://www.pcgameshardware.de/Mainboard-Hardware-154107/News/PCI-Express-40-Spezifikationen-offiziell-1242178/
https://www.computerbase.de/2017-10/pcie-4-spezifikation-1-release/

y33H@
2017-10-26, 17:15:47
Nope:
[...] it is now available to members via the PCI-SIG website and to non-members for purchase [...]

Skysnake
2017-12-24, 19:44:53
Ich glaub jetzt ist auch die Zeit für das hier gekommen

Hübie
2017-12-24, 20:16:01
Oh du lebst noch? :D Was meinst Du mit die Zeit ist gekommen??

Skysnake
2017-12-24, 20:42:48
Mäh die Datei ist zu groß..

Dann müsst ihr halt noch warten

5CH4CHT3L
2017-12-26, 00:07:05
PCIe x16/x16 vs. x8/x8 (Dual Titan V Bandwidth Limit Test) (https://www.gamersnexus.net/guides/3176-dual-titan-v-bandwidth-limit-test-x8-vs-x16)

Hier gibt's schon relevante Unterschiede.
Ampere wird ähnliche Performance liefern und somit auch einen ähnlichen Effekt zeigen. Allerdings wäre da ja noch Nvidias SLI Bridge, die könnte den Flaschenhals entfernen.
Trotzdem wird langsam eng und spätestens mit Amperes Nachfolger wird die PCIe 4 ein Thema sein weil es halt was bringen kann.

Platos
2017-12-26, 01:44:34
Im SLI Verbund gab es aber auch schon mit 2x 980Ti deutliche Unterschiede. Auch 2x 1080Ti gibts einige Tests dazu (d.h Youtube Videos mit OSD).

Aber die Frage wäre, wie es mit Single-GPU aussieht. Irgendwann muss natürlich eine Limitierung da sein, aber ich glaube (reine Einschätzung), dass das bei Ampere nicht der Fall sein wird. Im Gaming versteht sich.

Bei SLi kommt dann auch noch dazu, dass die Lanes halbiert werden, also nur noch 8 pro Karte zur Verfügung stehen (oder noch weniger bei mehr Karten). Zumindest bei "normalen" Plattformen.

Skysnake
2018-01-01, 22:53:44
So hier jetzt endlich mal noch das Bild. Wenn auch am Ende doch stärker beschnitten als zunächst gewollt.

Vielleicht kommt ja noch mehr vom Bild in nächster Zeit. Auch wenn ich erstmal nicht davon ausgehe.

Gruß

HPVD
2018-07-03, 21:55:32
nach den News Artikel zu PCIe 4.0
https://www.3dcenter.org/news/wann-kann-man-pci-express-40-kaufbaren-produkten-erwarten

hab ich mal versucht was zum Zeitplan von PCIe 5.0 zusammen zu sammeln:
Q1/2019 für PCIe 5.0 scheint vielleicht tatsächlich möglich
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=589136

Loeschzwerg
2018-11-26, 18:21:27
mATX Board "Blackbird" von Raptor mit Unterstützung für einen 4C oder 8C Power9:
https://secure.raptorcs.com/content/BK1B01/intro.html

Billiger gibt es aktuell kein PCIe 4.0 System. War kurzzeitig wirklich geneigt zuzuschlagen, aber es wäre mir immer noch zu viel "Spielgeld".

=Floi=
2018-11-26, 19:26:27
macht das der AS media chip?
gibt es dafür schon raid controller? welche geräte wären hierfür nutzbar?

Loeschzwerg
2018-11-26, 21:02:33
Der ASpeed hat nix mit PCIe 4.0 zu tun (ist lediglich der BMC), den Bus stellt ganz regulär der Power9.

Ein RAID Ctrl. mit PCIe 4.0 Unterstützung ist mir noch nicht bekannt. Spontan fallen mir nur Adapterlösungen von Mellanox ein (ConnectX -6 EN z.B.), also nichts großartig für normale Endanwender.

gravitationsfeld
2018-11-26, 23:15:49
Was fuer ne Karte willst du damit denn benutzen?

Raff
2018-11-27, 00:29:54
MI60. :biggrin:

MfG,
Raff

Rampage 2
2018-11-27, 00:35:20
Was fuer ne Karte willst du damit denn benutzen?

Ich hab mich schon gefragt, warum Nvidia Turing nicht mit PCI-E 4.0 ausgestattet hat - NV muss doch besser als wir wissen, dass PCI-E 4.0 sehr wahrscheinlich 2019 auch im Consumer-Segment (Zen 2, TR3, Icelake, Navi) eingeführt wird... :|

R2

gravitationsfeld
2018-11-27, 02:44:51
NVIDIA wird ja sehr wahrscheinlich auch 7nm-Karten bringen.

Rampage 2
2018-11-27, 04:05:06
NVIDIA wird ja sehr wahrscheinlich auch 7nm-Karten bringen.

Aber frühestens im Herbst/Q3 2019 - Turing wollen sie bestimmt mindestens 12 Monate lang laufen lassen, bevor sie es durch eine neue Generation ablösen...

R2

Platos
2018-11-27, 04:33:48
Etwas OT hier, aber wenn AMD es schafft, zeitig miit 7nm Produkte zu liefern (und die Verfügbarkeit bzw. Strassenpreise stimmen), ist nvidia gezwungen, auch 7nm Produkte zu bringen. Die Chipgrösse ist ja schon völlig am Limit und mit 7nm wird AMD nvidida im P/L sicher deutlich schlagen können.

Und wenn AMD mit navi noch keinen RT Konter an Bord hat (was ich mal vermute), haben sie zumindest schon einen (kurzfristig) enormen Vorteil. RT wird vermutlich erst in der übernächsten Gen langsam was werden, wenn auch die 50-er Modelle (bzw. 200-300 Euro Modelle) RT und Tensor Cores haben.

Klevapalis
2018-11-27, 10:41:11
Aber frühestens im Herbst/Q3 2019 - Turing wollen sie bestimmt mindestens 12 Monate lang laufen lassen, bevor sie es durch eine neue Generation ablösen...
Wofür braucht Turing denn PCIe 4.0?

Selbst mit nur 1er 3.0 Lane ist der Performanceunterschied doch marginal, 8 vs. 16 ist quasi Messungenauigkeit.

Rampage 2
2018-11-27, 14:21:42
Wofür braucht Turing denn PCIe 4.0?

Selbst mit nur 1er 3.0 Lane ist der Performanceunterschied doch marginal, 8 vs. 16 ist quasi Messungenauigkeit.

Spielt keine Rolle:)

PCI-E 3.0 ist schon so alt, dass man sich hier nach Fortschritten (PCI-E 4.0) sehnt - und vielleicht ist der Perf-Unterschied nur so gering, weil heutige GPUs mittlerweile eine so hohe Bandbreite haben, dass das Verhältnis zum PCI-E 3.0 Throughput deutlich geringer ist als noch zu dessen Anfangszeiten.

Eine 2080 Ti mit höchstmöglichem Speicher-OC erreicht ~ 725GB/sek. Speicherbandbreite. PCI-E 3.0 hat einen Durchsatz von 16GB/sek. (uni-direktional). Das ist ein Verhältnis von 45:1

Zum Zeitpunkt, wo die ersten PCI-E 3.0 Consumer-GPUs rauskamen, hatten diese höchstens 350-360GB/sek. (HD 7970 GHz Edition mit Mem-OC). Ein Verhältnis von 1:22 - also doppelt so groß wie bei der 2080 Ti. Ich behaupte mal, bei GPUs anno 2012 wäre der Performance-Einbruch durch PCI-E größer gewesen als bei heutigen GPUs.

R2

robbitop
2018-11-27, 14:45:53
Wofür braucht Turing denn PCIe 4.0?

Selbst mit nur 1er 3.0 Lane ist der Performanceunterschied doch marginal, 8 vs. 16 ist quasi Messungenauigkeit.

Täusche dich da mal nicht. Thunderbolt 3 sind 4x pcie 3.0 lanes. Das kostet je nach Spiel richtig Leistung. In Witcher 3 auf höchsten Einstellungen bekomme ich auflöngsunabhängig kaum über 50 fps (trotz Core i7 mit 4 GHz auf 8Threads).
Schaue dir mal ein paar eGPU Reviews an. PCIe bei zu wenigen Lanes bremst je nach Spiel ordentlich. Sicherlich sind 8 oder 16 Lanes bei 3.0 ok. Für high fps aber sicherlich je nach Spiel sinnvoll.

SKYNET
2018-11-27, 16:51:10
Täusche dich da mal nicht. Thunderbolt 3 sind 4x pcie 3.0 lanes. Das kostet je nach Spiel richtig Leistung. In Witcher 3 auf höchsten Einstellungen bekomme ich auflöngsunabhängig kaum über 50 fps (trotz Core i7 mit 4 GHz auf 8Threads).
Schaue dir mal ein paar eGPU Reviews an. PCIe bei zu wenigen Lanes bremst je nach Spiel ordentlich. Sicherlich sind 8 oder 16 Lanes bei 3.0 ok. Für high fps aber sicherlich je nach Spiel sinnvoll.


die wichtigen min. frames bleiben aber nahezu identisch, nur die max frames brechen u.u. ein... von daher: wayne :freak: