PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Mögliche "GeForce RTX 4070 Ti" soll den AD104-Chip mit bis zu 400W ...


Leonidas
2022-08-01, 16:38:14
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-moegliche-geforce-rtx-4070-ti-soll-den-ad104-chip-mit-bis-zu-400-watt-ausreizen

Platos
2022-08-01, 16:54:05
4070 mit 10GB ausstatten, damits zum Krüppel wird und so kann man eine 4070 "Ti" bringen, die dann ein bisschen weniger Krüppelig ist und aber getaktet ist wie blöde und natürlich auch noch mehr kosten wird (vermutlich 100$).

Yeah, geil. Dabei bringt (laut Gerücht) nicht mal die Ti Version 16GB. Haha:D

Leonidas
2022-08-01, 17:01:26
16 GB gehen auch schlecht an 192-Bit-Interface. Es sei denn, Du wolltest nur 128-Bit davon nutzen.

Gast
2022-08-01, 18:02:54
400w bei einer 104 Mainstreamkarte. NVidia ist nicht mehr ganz dicht. Wer soll sich diesen brüllenden, heißen Müll in den PC hängen. Der Insider tut auch gerade so als sei das eine besondere Leistung, ist es nicht. Die Effizienz bleibt bei dieser Gen komplett auf der Strecke. Ich bin da komplett raus. Tut mir Leid, nVidia, aber ihr seid nicht mehr ganz klar im Kopf.

Schon Ampere wurde nicht gekauft, weil die Leistungsaufnahme extrem ist und ausuferte, man macht einfach weiter. Muss man sich mal fragen, ob die noch in dieser Welt oder auf diesem Planeten leben.

Könnt ihr komplett behalten!

Platos
2022-08-01, 18:24:41
Wäre denn 256Bit nicht möglich ?

Gast
2022-08-01, 18:35:15
Dabei bringt (laut Gerücht) nicht mal die Ti Version 16GB. Haha:D
Einfach nicht kaufen das Zeug, das sprengt doch jede PSU Spezifikation in Mtttelklasse PCs. Ich verstehe Nvidia nicht. Tut mir leid. In Deutschland und Europa gibt es bald Energiekontingente zugeteilt, Heizung und Strom werden sich noch vor dem Winter massiv verteuern und die hauen so einen Schwachsinn auf den Markt. Wo bitte verkauft man solche überzüchteten GPUs? Bestimmt nicht in China, da kann das keiner bezahlen.

Es klingt verrückt, aber ich schreibe hier nochmal, Lovelace scheint komplett fürs Mining entwickelt worden zu sein. Da diese Seifenblase nun spektakulär geplatzt ist, weiß man nicht wohin mit dem Zeug. Das war anscheinend nie für Gamer gedacht. Die ganzen Spezifikationen die nun nach und nach bekannt werden und die offensichtliche Beschneidung inklusive Zurücknahme der Leistungswerte deuten darauf zumindest hin. Problem ist nur, man kann die Energieaufnahme nicht so kappen, weil das auf Kosten der Leistung geht. Ähnlich ging es Vega seinerzeit. Die waren nie für Spieler entwickelt, sondern hatten HPC Wurzeln und wurden einfach zweckentfremdet für Spieler so beschnitten, dass es dafür irgendwo reichte (seinerseit wurde dem Entwicklerteam der RTG die Finanzierung gekappt) so das die nichts weiter machen konnten. Wurde ja alles in Zen gepumpt. Nur kann man grundlegende Eigenschaften wie den hohen Energiebedarf, den Chips nicht abgewöhnen, wenn sie etwas leisten mussten uferte das aus. Nvidia hat sich, mal wieder komplett verzockt.

Wenn AMD sowas auf den Markt gebracht hätte, hätte man sie in der Luft zerfetzt. Gleiche Leistung bei 10% tiger Effizienz ist einfach eine Lachnummer, bei zwei Fertigungssprüngen und Wechsel zu TSMC. Das ist doch absolut kein gutes Ergebnis. Umgelabelte geshrinkte 3090ti? Die Ersparnis liegt im geringeren Speicherausbau, sonst würde die 4070ti genauso viel verpulvern, oder sogar mehr! Ein Witz ist das.

Vermutlich hat sie auch noch weniger RT Cores usw.. Ehrlich, das ist eine komplette Katastrophe und schlimmer als Fermi.

Gast
2022-08-01, 18:49:13
X070ti = 400 Watt, ja klar. Der Zweitklassechip ist genauso schnell wie die Vorgängerenthusiastgen verbraucht aber genauso viel. LoL.

5-Slot Grakas in der Mittelklasse, bei 750 bis 850 Watt Netzteilen. Die haben echt einen...

marc-05
2022-08-01, 18:50:12
Was gut wäre für die Übersicht der ganzen Specs wenn man die festpinnen würde .

Iscaran
2022-08-01, 18:56:12
Typisch, nVidia Hypetrain.

Der Launch der aktuellen Generation ist noch nichtmal wirklich in Sichtweite - die bislang kolportierten Parameter eher mau ABER gleich mal den Refresh der vielleicht 6 Monate nach dem (noch nicht absehbaren) Release erfolgt teasern und den Hypetrain am laufen halten.

So kennt man das.

Gast
2022-08-01, 19:19:18
enttäuschend.

GerryB
2022-08-01, 19:25:03
Irgendwie ergibt die Aufteilung der Salvagechips noch gar keinen Sinn!
Gerade vom AD103 hätte man ne 4070Ti gut gebrauchen können.

ala 4080Ti vom AD102

Platos
2022-08-01, 20:16:44
Einfach nicht kaufen das Zeug


Genau, wenns kacke ist, nicht kaufen. Man sollte eben nicht jeden Dreck mitmachen. Aber zuerst mal offizielle Daten abwarten (wobei ich die 4070x sowieso schon lange aufgegeben habe)

Es klingt verrückt, aber ich schreibe hier nochmal, Lovelace scheint komplett fürs Mining entwickelt worden zu sein.

Das glaube ich kaum, dann hätte man nicht das SI klein gehalten und dafür mehr Cache gebaut. Bekanntlich killt das die Leistung beim Mining. Das ändert man auch nicht mal so.

GrimReaper85
2022-08-01, 21:24:24
Wer soll sich diesen brüllenden, heißen Müll in den PC hängen.
Man muss sich nur anschauen, wie gut sich die 3070 Ti verkauft hat. Haben wir diese Zahlen schon? Aber diese Zahlen werden übertrieben sein, da viele Leute aufgrund des Bergbaus gezwungen waren, 3070 Ti anstelle von 3080 10 GB zu kaufen.
Und mit 4070 Ti können Sie diese Zahlen dann senken, da 400W viel mehr als 290W sind.

Gast
2022-08-01, 21:37:53
Zumindest war die 6800 eine der begehrtesten Mining Karten whatever, weil sie ETH verdammt effizient war, keine 150w bei guter bis sehr guter Ausbeute, Aufwand und Ertrag gesehen.

Die hat auch diesen Cache, das stört nicht, im Gegenteil er macht es effizienter. Nvidia war nur deutlich schneller, daher erste Wahl - aber brauchte auch deutlich mehr Energie. Also drückten die Energiekosten auf die Erträge.

Genau deshalb gab es die 6800 nicht zu kaufen, die wurde komplett an Miner verscherbelt.

looking glass
2022-08-01, 21:48:45
sry aber bis wohin muss ich dann runter (und warten) wenn ich max. irgendwo zwischen 225 - 250W landen wollte. Ne 4070 bestimmt nicht, selbst ne 4060 wird doch drüber liegen, aber je niedriger die Zahl wird, um so beschissener der Speicherausbau.

Kann sich da nichtmal einer der Hersteller erbarmen und ne Variante mit nem EcoBios bringen, ich find das einach nur noch Grütze.

madshi
2022-08-01, 22:10:55
Glücklicherweise wird AMD da (wahrscheinlich) gegen halten, mit ähnlicher Leistung zu ähnlichem Preispunkt bei deutlich weniger Stromverbrauch. Zumindest ist das meine Erwartung/Hoffnung an Navi33. Und ich hoffe, jeder kauft dann die AMD Lösung.

Also mal ehrlich, 4070 Ti mit fast gleichem Stromverbrauch wie 3090 Ti und 4090??

Anders gesehen, wenn es AMD nicht gäbe, würden wahrscheinlich alle jubeln, weil ja die 4070 Ti wahrscheinlich 3090 Ti Leistung bringen wird, zu weniger als dem halben Preis bei sogar etwas weniger Stromverbrauch. Eigentlich ein toller Fortschritt! Wer freut sich nicht über halbierte Preise bei sonst gleichen Daten? Nur hat Nvidia da die Rechnung ohne AMD gemacht.

iamthebear
2022-08-01, 22:32:49
Also das mit den 400W kann ich beim besten Willen nicht glauben. Mag sein, dass es möglich ist so eine GPU zu bauen aber alleine die Kosten für Kühler, VRMs etc. stehen in keinem Verhältnis zur gewonnenen Performance. Da ist es günstiger den nächstgrößeren Die zu nehmen (AD103) und dafür nur mit 300W zu betreiben.

Rabiata
2022-08-01, 22:48:21
sry aber bis wohin muss ich dann runter (und warten) wenn ich max. irgendwo zwischen 225 - 250W landen wollte. Ne 4070 bestimmt nicht, selbst ne 4060 wird doch drüber liegen, aber je niedriger die Zahl wird, um so beschissener der Speicherausbau.
Die neuesten Gerüchte für AMD gehen auch in Richtung Speicherkrüppel. Jetzt noch schnell eine RX 6800 holen? 16 GB sollten ein Weilchen reichen.

GrimReaper85
2022-08-01, 23:02:35
sry aber bis wohin muss ich dann runter (und warten) wenn ich max. irgendwo zwischen 225 - 250W landen wollte. Ne 4070 bestimmt nicht, selbst ne 4060 wird doch drüber liegen, aber je niedriger die Zahl wird, um so beschissener der Speicherausbau.
Deshalb lohnt es sich jetzt mehr denn je, den Top-Chip zu undervolten und 6 Jahre zu haben.

looking glass
2022-08-01, 23:10:17
Ja ist undervolten bzw. Taktrate senken dann aber permament im GPU Bios hinterlegt, oder funktioniert sowas nur mit laufender Software (afterburner z.b.)? Weil ich z.b. mich nicht auf win11 sehe, sofern MS da noch weiter rumstänkert, ist Linux durchaus angedacht, aber wenn da sowas wie afterburner fehlt, oder noch nicht ausgereift ist, ist dann halt Scheisse.

Rabiata
2022-08-01, 23:53:14
Ja ist undervolten bzw. Taktrate senken dann aber permament im GPU Bios hinterlegt, oder funktioniert sowas nur mit laufender Software (afterburner z.b.)? Weil ich z.b. mich nicht auf win11 sehe, sofern MS da noch weiter rumstänkert, ist Linux durchaus angedacht, aber wenn da sowas wie afterburner fehlt, oder noch nicht ausgereift ist, ist dann halt Scheisse.
Guter Punkt. Das sicherste ist da wohl, von vornherein eine eher sparsame GPU mit leistungsfähigem Kühlsystem zu nehmen. Zum Beispiel das "kleinere" Modell von zwei GPUs, die mit demselben Kühler kommen.

Thomas Gräf
2022-08-02, 02:26:21
Deshalb lohnt es sich jetzt mehr denn je, den Top-Chip zu undervolten und 6 Jahre zu haben.

Was letzter Zeit zu den News hier alles so geschrieben wird...ohje.

Nein GrimReaper einfach nein, nur nein.
Du willst den Preis für einen Lamborghini bezahlen und ihn dann mit Zylinder Abschaltung eine millionen Kilometer fahren...überlege mal.

Ja gut, es sein denn China macht es so wie Putin und geht in Taiwan rein.
Dann kannste an Deine sechs Jahre sogar noch ne null dranhängen. ;)

Leonidas
2022-08-02, 04:17:35
Wäre denn 256Bit nicht möglich ?

Der AD104-Chip wurde mit 192-Bit designt, hat Tape-Out hinter sich. Da kann man nix mehr (auf dieser Ebene) ändern.

Legendenkiller
2022-08-02, 07:11:58
Die einzige Möglichkeit gegen solche Produkte ist es sie nich zu kaufen.

Aber dei 3070 mit in der 3. Generation selben Speichermenge, wurde halt gekauft.
Eine 3070ti mit 300W wurde gekauft , also hat Nvidia genug richtig gemacht.
eine 3080 mit 10 Gbyte im highend bereich , wurde trotzdem gekauft wie blöde ...

Wenn man was anderes will, darf man sowas nicht kaufen ... das ist das einzige was etwas ändert. Aber jetzt verzichten damit es in zukunft besser wird, scheint für viele echt unmöglich zu sein.



z.b . Diablo Imortal ... es bekommt die schlechteste Userscore auf Metacritic aller Zeiten und legt gleichzeitig den Finaziell erfolgreichsten F2P Start ever hin. (100 mio$ Umsatz in 4Wochen.)

Und dann wundern sich die Spieler das sie als nächsten ein noch härteres Cashgab bekommen.

Korvaun
2022-08-02, 07:38:59
Wird interessant sein die Chips übers Powerlimit einzufangen... einfach auf 300-350W max. festnageln und gut is. Wenn dann nur <10% Speed verloren gehen wäre es das allemal wert. Die Tests zum Release sollten wenn machbar dann gleich auch solche Vergleich beinhalten.

Wobei die 4090 bei 450W schon gleich ab Werk so eingestellt ist. Wenn sich die Wattagen überhaupt so bewahrheiten, ich kann das noch nicht wirklich glauben. Alles unter 4090 sollte weit unter 400W bleiben...

GerryB
2022-08-02, 09:09:50
Ne 4070Ti auf 300W drosseln ist ja totaler Käse!
dann
Kannste auch gleich ne 4070nonTi nehmen und UVen+OCen.
Die hat evtl. nur GDDR6ohneX und ist deswegen viel effizienter.
Der olle GDDR6 sollte sich auch ausreichend OCen lassen, um net allzusehr im Bottleneck zu landen.

Raff
2022-08-02, 09:28:56
Woher kommt eigentlich die Idee, dass hochtaktender GDDR6 auf magische Art und Weise sparsamer ist als hochtaktender GDDR6X? ;)

MfG
Raff

GerryB
2022-08-02, 09:40:10
Probiers doch mal mit der 3070 vs. 3070Ti aus.

Annahme: die 3070 beim GPU-Takt und Vram 10% OCen
3070+Ti dann mit gleichen Watt vergleichen.

z.Bsp.
In der Highscoreliste mal Platz 10 hergenommen: da geht Einiges vgl. mit Stock

The_Invisible
2022-08-02, 09:44:48
4070 mit 10GB ausstatten, damits zum Krüppel wird und so kann man eine 4070 "Ti" bringen, die dann ein bisschen weniger Krüppelig ist und aber getaktet ist wie blöde und natürlich auch noch mehr kosten wird (vermutlich 100$).

Yeah, geil. Dabei bringt (laut Gerücht) nicht mal die Ti Version 16GB. Haha:D

Wie schon mal gesagt wird Nvidia das als "Mehr-Speicher" verkaufen zur vorigen Gen und gleichen Kartenklasse, die 70er werden ja trotzdem vorrangig 1440p Karten bleiben (Marketing) und da sollte es schon eine Weile reichen.

Ist ja nicht so das AMD groß ihren VRAM erhöhen würde die nächste Gen außer im Highendbereich, sind beide keine Wohltätigkeitsvereine ; )

GerryB
2022-08-02, 11:39:35
Naja,
die 3070-8GB und die 3080-10GB wurden ja auch als 4k vermarktet.
und
Dann verließen Sie Ihn, mit RT in FC6 gingen keine HD-Texturen.

Platos
2022-08-02, 13:47:30
Ja, faule Ausreden. Solche Karten muss man einfach nicht kaufen. Ich hoffe einfach, es gibt wenigstens eine Karte, die ein gutes P/l hat und genig Speicher. Hoffe ja auf ne 4080, aber mal schauen...

GerryB
2022-08-04, 14:32:35
https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Neue-Spezifikationen-machen-die-Runde-zur-4070-1400597/

die normale 4070 als Vollausbau@192bit

btw.
Da wäre man dann bei meiner Speku, das ne 4070Ti als Salvage vom nächstgrößeren Chip mehr Sinn macht.
und
ne 3060Ti der Salvage vom 4070 sein kann.

BlacKi
2022-08-04, 14:53:52
Naja,
die 3070-8GB und die 3080-10GB wurden ja auch als 4k vermarktet.
und
Dann verließen Sie Ihn, mit RT in FC6 gingen keine HD-Texturen.
wer würde mit einer 3080 und maxed out grafics bei 40fps spielen? selbst eine ausgemaxte 3090 mit fast 2,1ghz kann keine stabile 60fps so liefern.



ich würde sowieso nie mit ausgemaxter grafik zocken und natürlich mit dlss on.

Linmoum
2022-08-04, 14:59:44
Warum sollte man nicht mit >40fps ein SP-Spiel bei max. Settings und inkl. VRR spielen wollen? Das ist nun wahrlich kein Beinbruch. Im MP schon eher, aber nicht alleine.

Wer mehr Frames grundsätzlich der Bildqualität vorzieht, kann das tun. Aber nicht einmal die Wahl zu haben, weil am Speicher gespart wird, obwohl wir von Grafikkarten im mittleren bis hohen dreistelligen Preisbereich reden, ist dann doch etwas albern. Gilt für alle Hersteller, die knausern.

BlacKi
2022-08-04, 15:02:19
40fps? ne danke.

GerryB
2022-08-04, 15:06:37
ich würde sowieso nie mit ausgemaxter grafik zocken und natürlich mit dlss on.

mit DLSS@quality dürfte der Vrambedarf auch noch hoch sein

für mich persönlich ist max.Sichtweite+Texturen wichtig, irgendwelches Aufploppen stört

btw.
FC6 gibts in ein paar h als Free Weekend zum Ausprobieren. (pre-load ist möglich)

gastello
2022-08-04, 15:37:15
Der AD104-Chip wurde mit 192-Bit designt, hat Tape-Out hinter sich. Da kann man nix mehr (auf dieser Ebene) ändern.
Doch könnte man, nur hatte Nv schon immer Probleme mit der Cachelatenz. Das zeigt sich bei Ampere besonders deutlich. Größere Mengen an VRAM, würde die Latenzen erhöhen, Bandbreite/Durchsatz ist dabei nicht immer wichtig. Ampere hat vor allem ein Latenzproblem zwischen SM und L2, um diese zu umgehen werden viele zusätzliche Zyklen notwenig.

Es wäre unsinnig dieses Problem zu beheben und dann ein Neues zu schaffen. Letztlich muss man den VRAM auch füllen können, sonst ist er nur Ballast. Es geht also um das ausgewogene Verhältnis, zwischen notwendigen Zyklen und ihrer Latenz in einer Cachehierarchie. Mit höheren Speichermengen würde man den Fortschritt wieder negieren, weil die Latenz seit Maxwell stetig ansteigt. Dies ist auch ein Grund dafür, warum Nvidia die Speichermengen eher klein hält.

AMD braucht dafür beispielweise bei RDNA2 nur 20ns, Nv bei Ampere 100ns. Was klar Welten sind und den Unterschied deutlich aufzeigt, obwohl AMD dann auch noch den langsameren VRAM verbaut, damit kostengünstiger.

Leonidas
2022-08-05, 04:04:34
Doch könnte man,

Ja, kann man (rein technisch). Aber das gibt Verzögerungen von mindestens einem halben Jahr. Sprich, damit das nicht den Release selber verzögert, muß man das sehr rechtzeitig festlegen.

Passiert eigentlich nicht. Welche Chips gab es, wo es Tape-Outs mit unterschiedlicher Hardware-Stärke gab und dann nur eines davon in den Markt kam? Ich rede nicht von Chips, die allesamt für Marktstart geplant waren - sondern von dem Fall, das ein Chip den anderen ersetzt hat und der andere dann gar nicht erschienen ist.

Gast
2022-08-08, 12:12:12
Doch könnte man, nur hatte Nv schon immer Probleme mit der Cachelatenz.

Latenzen sind bei SIMT Architekturen ziemlich unwichtig.

lilgefo~
2022-08-20, 09:47:49
Typisch, nVidia Hypetrain.

Der Launch der aktuellen Generation ist noch nichtmal wirklich in Sichtweite - die bislang kolportierten Parameter eher mau ABER gleich mal den Refresh der vielleicht 6 Monate nach dem (noch nicht absehbaren) Release erfolgt teasern und den Hypetrain am laufen halten.

So kennt man das.

Es ist ein Ausblick du Horst. Leo fasst die Spekulationen zusammen das hat nix mit Hype zu tun. Wie doof kann man eigentlich sein.

Raff
2022-08-20, 10:21:41
mit DLSS@quality dürfte der Vrambedarf auch noch hoch sein

Yep, DLSS (und FSR, XeSS ...) kann nicht zaubern. Da werden gegenüber nativer Auflösung mit TAA zwar ein paar Hundert MiByte gespart, allerdings ist das gerade auf einer randvollen 8-GiByte-Karte nicht kriegsentscheidend (zumal DLSS sogar zusätzliche Buffer braucht, ist aber insgesamt weniger als nativ).

MfG
Raff