Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 4. September 2024
Leonidas
2024-09-05, 08:42:58
Link zur News:
https://www.3dcenter.org/news/news-des-4-september-2024
Gastronom
2024-09-05, 11:29:59
Wie soll man 550-600 Watt noch vernünftig kühlen ohne wakü bei der 5090? Und wozu sollte Nvidia diesen Schritt gehen. Ein gutes Pferd springt nur so hoch wie es muss. Da es quasi keinen Mitbewerber gibt in dem Bereich, habe ich deshalb Zweifel.
dildo4u
2024-09-05, 11:43:47
Viele 4090 Kühler sind schon dafür ausgelegt.
4090 Gamme Rock verirren mit 680 Watt Peak.
https://www.techpowerup.com/review/nvidia-rtx-4090-450w-vs-600w/3.html
Und wozu sollte Nvidia diesen Schritt gehen. Da es quasi keinen Mitbewerber gibt in dem Bereich, habe ich deshalb Zweifel.
Naja, die Zielgruppe der 5090 ist halt die gleiche wie die der 4090. Wenn die keinen Performancezuwachs sehen, könnte das Halo Produkt ein Verriss werden.
Schon bei der 4090 ging quasi der halbe Performancezuwachs aufs Konto der TDP. Und dass sich die architekturbedingten Zuwächse steigern ist mittlerweile auch nicht mehr unbedingt zu erwarten.
Ob NV nochmal 2-3k$ für +25% aus der Zielgruppe raus bekommen könnte halte ich für fraglich.
NV ist da etwas auf dem eingeschlagenen Highend/Halo Kurs gefangen. Eine Kehrtwende hin zu "vernünftigten" Specs würde die Kluft zu AMD deutlich schrumpfen. Das passt nicht zum Image.
Aroas
2024-09-05, 12:31:34
Ob nun 550W oder 600W, spielt keine Rolle. Beides sind einfach nur absurde Verbrauchswerte für eine einzelne Grafikkarte.
Mir stoßen ja schon die ca. 260W meiner 7800XT sauer auf.
Wie soll man 550-600 Watt noch vernünftig kühlen ohne wakü bei der 5090? Und wozu sollte Nvidia diesen Schritt gehen. Ein gutes Pferd springt nur so hoch wie es muss. Da es quasi keinen Mitbewerber gibt in dem Bereich, habe ich deshalb Zweifel.
Die 4090 kann schon 600W vernünftig kühlen, sie muss es nur nicht.
Und warum der Ausschluss von Wasserkühlungen?
Grafikspachtel
2024-09-05, 14:47:55
In anderen Worten: Die Blackwell-Architektur performt kaum besser als Ada, also kräftig auf die Watt-Tube gehauen, auf dass ein spürbares Plus dabei herausspringen möge.
Alles wie gehabt.
Februar, März 2025 -> 5090 von AIB's erwerbbar.
Damit wird meine 4090 in den Zweit-PC verbaut.
5090 auf 320 Watt begrenzen und fertig.
In anderen Worten: Die Blackwell-Architektur performt kaum besser als Ada, also kräftig auf die Watt-Tube gehauen, auf dass ein spürbares Plus dabei herausspringen möge.
Das eine schließt das andere nicht aus.
Ada performt jedenfalls nicht wesentlich besser wenn man auf die Watt-Tube drückt. Wenn Blackwell aus mehr Watt auch mehr Performance holt wäre das schon mal ein Fortschritt.
Mehr Performance ohne mehr Watt wäre freilich schöner, aber angesichts fehlender Fertigungsfortschritte eher unrealistisch.
Ach, vor Ada hieß es ja auch, dass die Dinger bis 600W brauchen. Auf solche Angaben würde ich erst mal gar nichts mehr geben...
Thomas Gräf
2024-09-05, 20:23:58
Wie soll man 550-600 Watt noch vernünftig kühlen ohne wakü bei der 5090? Und wozu sollte Nvidia diesen Schritt gehen. Ein gutes Pferd springt nur so hoch wie es muss. Da es quasi keinen Mitbewerber gibt in dem Bereich, habe ich deshalb Zweifel.
Es gibt leider kein Mitbewerber in diesem Berreich, aber es gibt inzwischen ein gewaltiges Zugpfperd für potente Grafigkarten.
Die Pimax VR Brillen...und was von anderen noch kommen wird.
Ja es gibt auch Gamer im VR, aber die Cracks zokken Flugsims und Racesims. Die suchen dringend performance.
Die legen auch 4000 Onken für die schnellste Graka der Welt hin.
Für das nächste Projekt von Pimax wird man wohl mit zwei GPUs arbeiten müssen, eine pro Auge.
Abe das ist Stoff für die geplagten Engine Entwickler.
Trifft diese Auslegung zu, dann wäre unter Umständen ein Jahresendtermin für GeForce RTX 5080 & 5090 noch zu erreichen, ein Oktober-Termin hingegen vermutlich zu knapp.
Höchstens wenn es ein FE-Only Launch wird, mit Partnerkarten erst später.
Nachdem Nvidia aber überhaupt nicht unter Zugzwang ist, und von AMD in dem Performancebereich überhaupt keine Gegenwehr zu erwarten ist, klingt das eher unwahrscheinlich.
redpanther
2024-09-06, 09:38:45
Es gibt leider kein Mitbewerber in diesem Berreich, aber es gibt inzwischen ein gewaltiges Zugpfperd für potente Grafigkarten.
Die Pimax VR Brillen...und was von anderen noch kommen wird.
Ja es gibt auch Gamer im VR, aber die Cracks zokken Flugsims und Racesims. Die suchen dringend performance.
Die legen auch 4000 Onken für die schnellste Graka der Welt hin.
Für das nächste Projekt von Pimax wird man wohl mit zwei GPUs arbeiten müssen, eine pro Auge.
Abe das ist Stoff für die geplagten Engine Entwickler.
Ist zwar alles richtig, aber daraus ein "gewaltiges Zugpferd" abzuleiten imho völlig übertrieben.
Überhaupt, bereits jetzt, ohne Konkrete Bestätigte Zahlen, darüber zu diskutieren finde ich rel. gaga.
Sich dann über den Stromverbrauch einer relativ nieschigen Enthusiasten Graka aufzuregen im übrigen auch.
Regt euch lieber über die ganzen KI RZs auf, die gerade aus dem Boden schiessen. DA wird Strom verbraucht!
Und nebenbei machen sie uns die Graka Preise Kaputt.
Altehardware
2024-09-06, 19:18:17
lass mal uns rumspinnen
Wie wäre es wenn gb202 cowos nutzen würde und dann ein n6 chip mit 512 Si und die alu darüber in n4 node sind.
Dann wäre ein chip inklusive packaging bei 220$ dann nehme ich gerne mit das gb202 als rtx5090 mit dann 180sm kommt und es quasi nur die samsung gb205 chips echte Monolithen sind.
bedeutet das der gb203 bei maxed 95$-110$ ist
Dann wäre es klar das rtx5090 und rtx5080 beide gb202 haben
rtx5090 180sm 2,3ghz +36% sku ab 1799$
und rtx5080 144sm 2,2ghz +68% sku ab 1199$
beim gb203 dann
rtx5070ti 102sm 2,1ghz +42% sku ab 729$
rtx5070 80sm 2,0ghz +52% sku ab 639$
Das würde zu nvidia passen stetig die preise Hochzuprügeln.
aber ich zweifle das man cowos nutzen könnte da man jede Kapazität für HPC braucht
Und der Taktverlust 25% zu sehr schmerzen würde um ne folgenden gen die geringer taktet am markt zu akzeptieren.
Zumal wieso sollte nvidia mehr perf fürs gleiche geld geben wenn keine Konkurrenz da ist?
Wenn der Einwand 2016 pascal gen kommt damals verkaufte sich quasi keine gpu mehr und nvidia musste was neues bringen damit die Firma überlebt, kein anderes Standbein. Das ist heute anders.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.