Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 26. Mai 2021


Leonidas
2021-05-27, 06:55:20
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-mai-2021

Gast
2021-05-27, 08:47:41
Problematisch an der (normalerweise) stark unterschiedlichen Performance ist aus Sicht des Mainboard-Käufers sicherlich der Punkt, dass man dies vor dem Kauf schwer herausfinden kann.

So lange man die Powerlimits selbst anpassen kann sehe ich darin nicht wirklich ein Problem.

Zumal es eigentlich bei jedem ordentlichen Mainboardtest auch ein Abschnitt zur Übertaktungseignung und damit auch der möglichen Powerlimits integriert sein sollte.

Leonidas
2021-05-27, 09:18:18
Sollte: Ja.
Haben: Nein.

y33H@
2021-05-27, 10:02:43
Es ist zu hoffen, dass jedes Board auch tatsächlich die zwei wichtigsten BIOS-Einstellungen anbietet: Betrieb vollkommen nach Intel-Spezifikation – und Betrieb ohne jede Power-Limits.Leider nein.

Gast
2021-05-27, 10:49:00
"Jene wird gerade bei Gaming-Grafikchips auch von Faktoren bestimmt, welche nVidia nicht wirklich kontrollieren kann: Ausreichend CPU-Power und ausreichend Speicherbandbreite."
Gerade Ampere zeigt doch deutlich ein Auslastungsproblem. Sonst wäre der Abstand bei relativ niedrigen Auflösungen (FullHD, QHD) zu Turing nicht so klein und würde mit steigender Auflösung auch nicht wachsen.
Ampere hat aktuell das Problem, was AMD früher hatte: Erst bei hohen Auflösungen kann man die Shader-Power wirklich nutzen, bei niedrigeren Auflösungen kann man hingegen nicht alle Shader mit Arbeit versorgen, weil andere Chipteile mit der Arbeit nicht nachkommen.
Dass es nicht an der Speicherbandbreite liegt, sieht man ja auch bei Igor: Der hatte eine A6000 im Test. Die hat nur GDDR6 und damit nur grob 80% Speicherbandbreite. Den Leistungsunterschied macht aber in erster Linie die TDP aus (ca. 7% weniger Leistung in 4k, was sich grob mit den Messungen von CB deckt, die bei 270W 9% Verlust hatten). Entsprechend bewegt sich der Leistungsverlust der 20% niedrigeren Speicherbandbreite im niedrigen % Bereich.

Es gibt also durchaus andere Stellen, an denen NVidia ansetzen könnte, um die Rechenleistung auch in merklich mehr Bilder/Sec. umzuwandeln. Die Frage ist nur, ob das für NV Sinn macht, denn das Geld verdient man inzwischen bei den Compute Karten und die brauchen in erster Linie Rechenleistung. Hier wird man also versuchen, eine Gratwanderung zwischen mehr Shadern und ausreichend wenig Bottlenecks zu schaffen, um die Chips nicht zu groß werden zu lassen und trotzdem vor AMD zu liegen.

Denniss
2021-05-27, 11:20:15
Das eine MSI board krankt an den ineffizienten Spannungswandlern und hängt immer deutlich hinter den anderen boards. Sowohl mit als auch ohne Powerlimits.
Das Folgevideo zeigt aber noch schlimmere Boards auf, das eine von Asrock schafft nicht mal den Standardbetrieb von 125W-Prozessoren trotz offizielle Freigabe.

davidzo
2021-05-27, 13:17:54
Nichtsdestotrotz ist dies ein extrem engagiertes Ziel,...

gemeint ist vermutlich ambitioniert.

Nominell sind dies nur +125% mehr an Hardware-Einheiten,...

gemeint ist vermutlich +25% oder eben 125% ohne Plus und mehr. So heißt das aktuell GH100 hätte 225% mehr EInheiten in einem Chip, das ist aber nicht gemeint.

MiamiNice
2021-05-27, 13:31:44
Leider nein.


So lange man nicht mit Intel Default Werten "rum eiern" muss, ist doch alles OK.
Blöd wird es erst wenn sich Boards stur an die Intel-Spezifikation halten.
Würde ich nicht mal kaufen - wohl auch kein anderer Gamer.

Eldoran
2021-05-27, 14:26:23
So lange man nicht mit Intel Default Werten "rum eiern" muss, ist doch alles OK.
Blöd wird es erst wenn sich Boards stur an die Intel-Spezifikation halten.
Würde ich nicht mal kaufen - wohl auch kein anderer Gamer.
Leider geht es sogar noch schlimmer, wie Denniss schon erwähnt, im Nachtest weiterer Mainborads war das MSI Board sogar noch eines der besten... das asrock B560M-HDV war nicht einmal in der Lage bei allen auf der Kompatibilitätsliste aufgeführten CPUs den Basistakt zu garantieren
Siehe:
https://youtu.be/NJVGghP514E

Lehdro
2021-05-27, 14:35:10
gemeint ist vermutlich +25% oder eben 125% ohne Plus und mehr. So heißt das aktuell GH100 hätte 225% mehr EInheiten in einem Chip, das ist aber nicht gemeint.
Der Vergleich zielt doch auf 288 zu 128 Einheiten ab, stimmt also mit +125%:

Hieraus ergibt sich dann auch die zu lesende Performance-Angabe, wonach der komplette GH100-Chip (mit zwei Einzelchips und somit bis zu 288 Shader-Clustern) immerhin die dreifache Performance des aktuellen GA100-Chips (mit bis zu 128 Shader-Cluster) erreichen soll.

davidzo
2021-05-27, 14:46:43
Der Vergleich zielt doch auf 288 zu 128 Einheiten ab, stimmt also mit +125%:

oh sorry, da habe ich wohl zu schnell gelesen, dachte es geht um 128 vs 144 SM
Ich bin mal echt gespannt auf das erforderliche Fabric der dualchipkonstruktion und die resultierenden Taktraten. Wenn man diese halten kann gegenüber A100 wäre das imo schon eine Leistung.

Leonidas
2021-05-27, 16:01:44
gemeint ist vermutlich ambitioniert.

gemeint ist vermutlich +25% oder eben 125% ohne Plus und mehr. So heißt das aktuell GH100 hätte 225% mehr EInheiten in einem Chip, das ist aber nicht gemeint.


1) Jup - wird gefixt.

2) Nein, ich meinte hier den ganzen GH100. Der hat +125%. 288/84 = x2.25 = +125%. Aber ich mach das kenntlicher, das der ganze GH100 gemeint ist.

Gast
2021-05-27, 16:51:42
Also wegen dem AD102: Wenn das Ganze auf 144 SM erhöht wird, dürften die TDP-Reserven von 5nm schon ausgeschöpft sein, da man das irgendwie kühlen muss. D.h. ich glaube nicht, dass wir viel höhere Taktraten als 2100 Mhz sehen werden. Es sein denn, dass Design wird speziell daran angepasst (s. RDNA->RDNA2), was dann aber wieder potentielle IPC-Steigerungen vernichtet durch die längeren Bahnen.

Und wegen dem Speicherinterface: Wäre doch jetzt ein Zeitpunkt für HBM. Dass der Markt bereit ist für höhere Preise, hat er ja jetzt in der aktuellen Zeit schon bewiesen.
Dann kann das Topmodell "4090" 2000$ kosten, womit dann auch die Mehrkosten für HBM drin wären.

Ist aber am letztlich auch nur Spekulatius von mir. Wird man dann schauen, wie sich das wirklich ausgeht am Ende.

Gast
2021-05-27, 18:46:16
Ich nehme an dass bei solch vielen Hardwareeinheiten für die high-end-/enthusiasten-Grafikkarten (> rtx 4080 oder rx 7800xt), werden 350 - 400 W nun die neue reale TDP und Vollast?

Kann ich ja gleich das 650 W Titanium Netzteil erneut auf 750/850 W aufrüsten. ;-)

Mr.Smith
2021-05-27, 19:10:49
In Zukunft nur noch Benchmarks zusammen mit Stromverbrauchsangabe!
Problem teilweise gelöst. Immerhin kann ein CPU Hersteller dann nicht mehr sagen "schaut her, voll die tolle Leistung" und dabei mit dem Verbrauch verarschen.

Leonidas
2021-05-28, 05:21:12
Ich nehme an dass bei solch vielen Hardwareeinheiten für die high-end-/enthusiasten-Grafikkarten (> rtx 4080 oder rx 7800xt), werden 350 - 400 W nun die neue reale TDP und Vollast?

350W haben wir ja schon mit der 3090. Die müsste eigentlich noch mehr bekommen, um sich richtig von der 3080 abzusetzen.

Also: Nicht unwahrscheinlich. Aber abwarten, wie gut 5nm wirklich wird.