PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 4070 soll mit 46 Shader-Clustern an 192-Bit-Interface ...


Leonidas
2022-12-10, 13:57:16
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4070-soll-mit-46-shader-clustern-192-bit-interface-antreten

Dorn
2022-12-10, 15:48:19
Mein Preis Tipp 699 $ (Vor Steuer versteht sich).

Prinzenrolle
2022-12-10, 16:02:01
Ich tippe auf 649.

AMD Center
2022-12-10, 16:13:35
899$

MD_Enigma
2022-12-10, 17:16:35
Danke fürs Berichten. Ich verfolge es mit einem Lächeln, da ich keine Abhängigkeit vom GPU-Markt habe. Ich sitz das ganz gemütlich aus und warte bis sich das normalisiert. Bin einfach nur gespannt wie viel Geduld die Spieler haben. So ne Karte sollte keine 300 Euro kosten.

Blase
2022-12-10, 17:45:19
So ne Karte sollte keine 300 Euro kosten.

Aha - und das ist weil du das so sagst?

Wann hat denn jemals ne XX70er Karte "keine 300 Euro" gekostet?! Und das soll heute - unter all den bekannten Umständen und zur heutigen Zeit - aber so sein? Träum weiter...

MfG Blase

Lehdro
2022-12-10, 17:55:42
Ich würde bei Ada Abstand davon nehmen, die TDP für potenzielle Taktratendifferenzen heranzuziehen. NV hat da meist deutlich mehr angegeben als gebraucht wird. Man braucht schon Extremszenarien um die TDP auszulasten - abseits davon sind die Karten rein Voltage und damit auch Taktratenlimitiert (anhand der Taktraten/Voltagekurve zu sehen). Die bisherigen Chips kommen auch alle bei ungefähr ~2750 MHz raus. Die 4070Ti wird dann wohl bei ~250W Verbrauch rauskommen, die 4070 dann bei ~220W real.

Gast
2022-12-10, 19:42:14
Rein technisch ziemlich bescheiden.

3070 -> 4070 wäre dann ca. 30% mehr.
Eigentlich ist die 4070 TI die "richtige" 4070.
Und schon das Ding ist jetzt nicht gerade überwältigend.
Voraussichtlich ca. 50% mehr Leistung, aber 10% mehr Verbrauch gegenüber der 3070.
Da war die 3080 -> 4080 deutlich besser.

Das ganze dann noch mit sehr hohen Preisen.
4070TI voraussichtlich 900 Dollar.
4070 wird dann irgendwas um die 700 Dollar sein.

Ne, attraktiv ist das für die gebotene Mehrleistung zur 3070 nicht wirklich.

bushMills
2022-12-10, 20:27:04
Pfff, traurig so was als 4070 vorzustellen und dann noch hohe Preise dafür zu verlangen.

Neosix
2022-12-10, 20:34:58
Schade, die 4070 abstand von der 3070 ist echt sehr sehr mager. Bin zwar mit meiner 3070 zufrieden aber die 8gb ram fucken mich halt doch ab. War aber damals eben nichts besseres bezahlbar lieferbar. Aber immerhin würde ich +30% Leistung UND 12GB ram kriegen. Damit hätte man endlich bei WQHD erstmal keine Sorge, weil die 8GB sind schon grenzwertig mit raytracing. Mal abwarten ob die wirklich so mit 12 kommt, wäre fast schon ausergewöhnlich "großzügig" von NV. Final Preise abwarten...

Κριός
2022-12-10, 22:16:47
Mein Problem mit der neuen Nvidia Arch ist das Raytracing Leistung in gleichem Maße steigt wie Rasterleistung. Relativ gesehen wenn man die Raster und Raytracing performance relativiert ist seit der 2080ti kaum eine Steigerung zu sehen. Dabei hätte sich die RTX Leistung verdoppeln müssen im vergleich zur Raster, damit man vielleicht endlich mal ohne Gimmicks wie DLLS oder nur RTX reflexionen etc neue Spiele vernünftig spielen kann.

So lange Nvidia mit den RTX Einheiten geizt, wird RTX leider nur ein Gimmick bleiben. AMD scheint Raytracing ja eh begraben zu wollen...

Gast
2022-12-11, 15:35:25
Mein Problem mit der neuen Nvidia Arch ist das Raytracing Leistung in gleichem Maße steigt wie Rasterleistung.

AMD falsch geschrieben?

Gast
2022-12-11, 20:17:51
250w für x070 = krank.

basix
2022-12-12, 00:17:26
Ich tippe bei der 4070 auf 3080 12GB Niveau.

Platos
2022-12-12, 00:54:00
Wird dann wohl 3080 Perfomance haben mit vermutlich 699$ oder gar 799$ als Preis. Also quasi 0 Fortschritt im P/L. Natürlich ist das aber nur ein Listenpreis-Vergleich. Seit 2020 gelten Listenpreise ja nicht mehr und das beweisen gekonnt auch die neuen Karten oft als wieder.

Für die im Euroraum natürlich sogar ein Rückschrit im P/L. Und gebrauchtkarten von Ampere sind noch nicht mal als Vergleich herangezogen. Dann ist Lovelace sowieso völlig irrelevant. Ausser vlt. die 4090 für die Enthusiasten.

Legendenkiller
2022-12-12, 08:33:16
250w für x070 = krank.

Naja, die 3070 hatte 230W und war damit die effizienteste (FPS / Watt) aus der 30ger Serie .

die 90ziger hat 100W mehr als der Vorgänger 3090. ...
Relativ dürfte die aktuelle Gen mit die kleinsten Verbrauchssteigerungen haben die es so in der GRafikkartengeschichte gab. Absolut sind wir aber in Regionnen wo es es auch nicht mehr wirklich weiter geht, weil nicht mehr preiswert kühlbar.

PS: nur mal so für Spass
Eine GF3 hat doppelt so viel Strom verbraucht wie ihr Vorgänger GF2, also 15W statt 8 W ;-).

+20-30% Mehrverbrauch pro neue Gen war eher üblich als die Ausnahme.
230W auf 250W sind gerade mal +9%.
Aber iss ebend doch ein Unterschied ob man von 45W auf 60W geht oder von 350 auf 450W oder eine Midrangekarte auf 250W läuft.

Gast
2022-12-12, 11:09:40
Naja, die 3070 hatte 230W und war damit die effizienteste (FPS / Watt) aus der 30ger Serie .

die 90ziger hat 100W mehr als der Vorgänger 3090. ...
Relativ dürfte die aktuelle Gen mit die kleinsten Verbrauchssteigerungen haben die es so in der GRafikkartengeschichte gab. Absolut sind wir aber in Regionnen wo es es auch nicht mehr wirklich weiter geht, weil nicht mehr preiswert kühlbar.

PS: nur mal so für Spass
Eine GF3 hat doppelt so viel Strom verbraucht wie ihr Vorgänger GF2, also 15W statt 8 W ;-).

+20-30% Mehrverbrauch pro neue Gen war eher üblich als die Ausnahme.
230W auf 250W sind gerade mal +9%.
Aber iss ebend doch ein Unterschied ob man von 45W auf 60W geht oder von 350 auf 450W oder eine Midrangekarte auf 250W läuft.

Hinzu kommt, dass Ampere real merklich weniger verbraucht als angegeben ist.
Das sind bei der 4080 und 4090 10%, bei der 4090 sogar ein bisschen mehr.
Sollte das bei der 4070 ähnlich sein, wird die Karte nur sehr selten 250W brauchen, der Durchschnitt wird bei 220, 230W liegen.

Und das ist es doch, was wirklich wichtig ist - der tatsächliche Stromverbrauch. Nicht eine Angabe die irgendwo in einer Produkttabelle auftaucht.

Legendenkiller
2022-12-12, 13:05:47
die 4090 verbraucht weniger als 450W weil sie nicht ausgelastet ist, nicht weil sie die 450W nicht ausreizt.
Die aktuellen Spiele lasten diese 2 Grafikkarten einfach noch nicht komplett aus und deswegen liegen die beim Verbrauch unter ihrer TPD.

Gibt der 4090 anspruchsvolle Last und sie geht auf 450W und die 4080 auf 350W. Also wenn die nächste Gen Spiele kommt, hat die 4090 auch 450W in Spielen.

Meine 1070 verbraucht beim Factorio zocken auch nur 25W-40W ... obwohl sie 150W TPD hat.

Gast
2022-12-13, 07:49:02
die 4090 verbraucht weniger als 450W weil sie nicht ausgelastet ist, nicht weil sie die 450W nicht ausreizt.

Das ist nur einer der Gründe. Den Karten gehen @default auch Steps auf der DVF Kurve aus um das komplette Powerbudget aufzubrauchen.

Sieht man vor allem auch schön an der 4080, die ist in 4k schon ziemlich gut ausgelastet ohne von der CPU extrem ausgebremst zu werden und braucht trotzdem praktisch nie ihr Powerbudget.

Was man auch sieht, mit Raytracing steigt der Verbrauch meistens ordentlich an, mehr Einheiten am Werken führt auch zu höherem Verbrauch, und da das Powerbudget noch nicht ausgelastet ist bleibt der Takt oben.

Wir werden wahrscheinlich kaum Spiele sehen, die zumindest ohne Raytracing das Powerbudget wirklich dauerhaft voll auslasten.