PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 14./15. Mai 2022


Leonidas
2022-05-16, 08:17:55
Link zur News:
https://www.3dcenter.org/news/news-des-1415-mai-2022

maximus_hertus
2022-05-16, 09:06:01
Wie bei Turing -> Launch Keynote auf der Gamescom? Die ist ja im August und würde terminlich passen.

Verkauf dann ab irgendwann September.


Ich werde mit AD103 irgendwie nicht warm. Der Unterschied zum 102er ist ja riesig.
Irgendwie werden die 4090 und ggf 4080 Ti die Uberkarten und ab der Vanilla 4080 wird es wohl keine doppelte Performance geben. Zumindest sehe ich das nicht, sofern die 4080 auf dem 103er Chip basiert.

aceCrasher
2022-05-16, 09:45:55
Vielleicht basiert die 4080 ja auch noch auf einem sehr stark beschnittenen AD102 und AD103 wird dann für 4070ti und abwärts verwendet.

Dass nachdem die 3080 so nah an der 3090 war dieses Mal die 3090 ~80% mehr Recheneinheiten als die 4080 erhalten soll kann ich nicht so ganz glauben.

madshi
2022-05-16, 09:47:45
Bin mir nicht sicher, wie das "Q3 early" zu interpretieren ist. Wenn es ein native English speaker wäre, würde ich sagen daß "early Q3" übersetzt werden sollte in "frühes drittes Quartal", während ich "Q3 early" übersetzen würde in eine stark abgekürzte Form von "Q3, aber früher als gedacht". Nun ist aber Kopite7kimi wahrscheinlich (?) kein native English speaker? Daher ist eine exakte Übersetzung schwierig. Ich würde aber so oder so nicht zu stark darauf wetten, daß dies wirklich auf den Juli hindeutet, wobei es auch nicht auszuschließen ist.

Und dann gibt's ja auch noch den Unterschied zwischen Kalender-Quartalen und Business-Quartalen, aber Kopite7kimi meint wahrscheinlich Kalender-Quartale? Weiß nicht mal, ob das bei Nvidia identisch ist oder nicht.

Leonidas
2022-05-16, 10:16:16
Interessanter Einwurf, denn bei NV ist das Finanzquartal tatsächlich nicht gleich dem Kalenderquartal. Es geht um einen Monat versetzt von August bis Oktober (Q3).

WedgeAntilles
2022-05-16, 10:28:32
Ich werde mit AD103 irgendwie nicht warm. Der Unterschied zum 102er ist ja riesig.
Irgendwie werden die 4090 und ggf 4080 Ti die Uberkarten und ab der Vanilla 4080 wird es wohl keine doppelte Performance geben. Zumindest sehe ich das nicht, sofern die 4080 auf dem 103er Chip basiert.

Bisher waren die Spitzenmodelle ja leistungstechnisch nicht so wahnsinnig viel vor einer xx80.
Sehr viel Aufpreis für eher überschaubare Mehrleistung. (ok, bei der 3090 bekam man auch noch ein großes Speicherplus)

Ich kann mir vorstellen, dass wir tatsächlich eine komplett neue Kategorie sehen werden.
Eine 4090, die sich signifikant von der 4080 unterscheidet - massiv mehr Leistung, deutlich mehr Stromverbrauch (da dann vielleicht die immer wieder genannten 600W, während in diesem Szenario eine 4080 in der Gegend 350W ist).
Aber dafür auch Preise im Bereich von über 2000 Euro, evt. bis hin zu 2500, 3000 Euro für die 4090.

Bei AMD deutet ja alles darauf hin, dass wir da ähnliches sehen werden.

Ist das jetzt gut oder schlecht?
IMO ist es gut für die Kunden.
Die haben die Wahl, brachial mehr Leistung (2,x fach mehr als eine 3090) zu bekommen.
Müssen dafür aber auch sehr tief in die Taschen greifen - und mit einem noch mal deutlich höheren Stromverbrauch leben.

Und der (große) Rest wird "seine" Kategorie kaufen können, egal ob das jetzt xx60, xx70, xx80 ist.
Was wird da als Mehrleistung rauskommen? 60%? 70%? Das wird man sehen.
Dafür werden diese Kategorien aber auch relativ stabil beim Stromverbrauch sein (wahrscheinlich 10%-20% mehr).
Die Preise der 4070 und 4080 werden gegenüber der 3070 und 3080 steigen, aber im Rahmen. 20%, 30%. Ja, das ist viel, aber ich fürchte die zwei letzten Jahre haben die GraKa Preise dauerhaft "versaut", wie es schon beim letzten Miningboom der Fall gewesen ist.
Eine 3070 für 500 und eine 3080 für 700 - das wird es bei der 4070/4080 so nicht geben.

Damit solte jeder eine für ihn passende Karte finden - von explodierender Leistung bei hohen Kosten bis hin zu ordentlich gesteigerter Leistung bei halbwegs ähnlichen Kosten.


Interessanter Einwurf, denn bei NV ist das Finanzquartal tatsächlich nicht gleich dem Kalenderquartal. Es geht um einen Monat versetzt von August bis Oktober (Q3).
Interessante Frage.
Normalerweise würde ich sagen, wenn jemand öffentlich postet, muss eine Quartalsangabe sich auf das Kalenderjahr beziehen.
Alles andere wäre völlig blödsinnig.
Aber: Wenn er jetzt von einer internen Quelle bei Nvidia etwas hört und die Quelle spricht von Q3 - dann kann es natürlich sehr wohl sein, dass die interne Quelle sich auf Nvidia-internen Sprachgebrauch bezieht. Und natürlich kann da ein Quartal auf deren Geschäftsquartal sich beziehen.
Und das weiß der Twitterer dann natürlich gar nicht zwingend - er übernimmt die Angabe "Quartal 3".

Aber selbst bei Nvidia-Interna würde ich eher auf Kalenderquartal tippen, denn ich bezweifle, dass die Mehrzahl der Angestellten bei Nvidia so genau weiß, wie die eigentlichen Geschäftsquartale bei Nvidia definiert sind.

Man muss aufpassen, zu genaue Vorhersagen machen zu wollen - Juli / August / September, eigentlich alles möglich.
Es lässt sich aber zumindest sicher sagen, dass Lovelace zumindest nicht später als Ampere erscheinen wird.

Sweepi
2022-05-16, 10:35:59
Da gab es ähnlich konkrete Gerüchte erst zum Ende des Mai 2020, den ersten Marktstart dann mit der GeForce RTX 4080 3080 zum 17. September 2020.

Da ich letzter Zeit in den Kommentaren nur typos ankreide:
Ich finde die Artikel echt klasse, sonst würde ich sie nicht (Korrektur-) lesen :D

Gast
2022-05-16, 10:51:14
Vorstellung im Juli/August, Verkauf ab September/Oktober klingt ziemlich plausibel.

madshi
2022-05-16, 10:52:11
Der große Unterschied zwischen den AD102 und AD103 Chips macht mich auch etwas nachdenklich. Der eigentliche High-End Konkurrent von AMD kommt ja auch erst im Frühjahr 2023. Von daher könnte ich mir auch vorstellen, daß die 4090 erstmal eine stark abgespeckte Version des AD102 ist, und daß Nvidia vielleicht "gute" AD102 Chips auf Lager legt für eine 4090 Ti, die dann mit Navi31 konkurrieren wird? Dann wäre der Unterschied zwischen 4080 und 4090 nicht sooo riesig. Nvidia könnte die 4090 auch mit relativ niedrigen Taktraten laufen lassen und "nur" 400-450 Watt oder so, und die 600 Watt dann erst mit der 4090 Ti ausfahren? Könnte dann sein, daß die 4090 kaum mehr Strom verbraucht als die 4080, weil die 4080 wahrscheinlich auf hohe Taktraten geprügelt werden muß, damit der Unterschied zwischen 4080 und 4090 nicht zu groß wird?

Letztendlich hängt aber auch sehr viel davon ab, wie stark AMD sein wird. Im Extremfall könnte Nvidia sogar dazu gezwungen sein, die 4080 mit einem abgespeckten AD102 zu betreiben, und den AD103 dann für die 4070 zu verwenden. Aber das ist wahrscheinlich so mal gar nicht, was Nvidia eigentlich will. Oder alternativ könnte Nvidia mit AMD auch einfach über den Preis konkurrieren. Also selbst wenn AMD extrem stark ist, könnte Nvidia trotzdem die 4080 mit AD103 bestücken, und dann einfach den Preis entsprechend niedriger ansetzen.

Also ich hoffe ja auf eine super starke Navi33 zu einem tollen Preis, damit Nvidia von Anfang an dazu gezwungen wird, 40xx zu humanen Preisen anzusetzen. Aber ich denke mal, AMD ist ja auch nicht dumm, und wird jetzt Navi33 auch nicht einfach verschenken. Schade eigentlich... ;D MLID deutet aber darauf hin, daß Navi33 überraschend günstig sein soll - gemessen an der Performance. Das ist ja das Hauptargument dafür, warum 8GB für Navi33 Sinn machen würde. Also ich bin gespannt!!

WedgeAntilles
2022-05-16, 11:32:38
Der große Unterschied zwischen den AD102 und AD103 Chips macht mich auch etwas nachdenklich. Der eigentliche High-End Konkurrent von AMD kommt ja auch erst im Frühjahr 2023. Von daher könnte ich mir auch vorstellen, daß die 4090 erstmal eine stark abgespeckte Version des AD102 ist, und daß Nvidia vielleicht "gute" AD102 Chips auf Lager legt für eine 4090 Ti, die dann mit Navi31 konkurrieren wird? Dann wäre der Unterschied zwischen 4080 und 4090 nicht sooo riesig. Nvidia könnte die 4090 auch mit relativ niedrigen Taktraten laufen lassen und "nur" 400-450 Watt oder so, und die 600 Watt dann erst mit der 4090 Ti ausfahren? Könnte dann sein, daß die 4090 kaum mehr Strom verbraucht als die 4080, weil die 4080 wahrscheinlich auf hohe Taktraten geprügelt werden muß, damit der Unterschied zwischen 4080 und 4090 nicht zu groß wird?
Dann hätten wir einen großen Unterschied zwischen 4090 und 4090TI - meist ist der Unterschied zwischen "normal" und "TI" ja nicht so groß.
Da glaube ich persönlich eher, dass einfach zwischen 4080 und 4090 ein großer Sprung sein wird.
(zwischen xx60 und xx70 z.B. ist ja auch immer ein recht großer Sprung.)

Aber denkbar ist deine Variante definitiv.


MLID deutet aber darauf hin, daß Navi33 überraschend günstig sein soll - gemessen an der Performance. Das ist ja das Hauptargument dafür, warum 8GB für Navi33 Sinn machen würde. Also ich bin gespannt!!
MLID redet sehr viel. Da soll AMD dann gerne mal sparsamer sein, dennoch mehr Leistung haben - UND noch billiger werden. Klingt ja sehr schön, aber ist es realistisch?
Sorry, wenn AMD in den letzten 2 Jahren für eines definitiv NICHT bekannt war, dann für günstige Preise.
Die 6800/6800XT waren - wie bei Nvidia die 3070/3080 - die letzten GraKas mit gutem MSRP.
Sämtliche Nachfolgekarten waren primär von (teils exorbitanten) MSRPs gekennzeichnet, die unterm Strich sogar noch höher waren als bei Nvidia.
Gerade der LowEnd Bereich mit einer 6500XT ist ja die "Krönung".
Auch bei den CPUs ist "günstig" für Zen 3 wohl das letzte was einem einfällt. (Im Einstiegssegment - für einen 16 Kerner kann man den aufgerufenen Preis durchaus als günstig bezeichnen. Klar ist für die gebotene Leistung ein 5950X günstig, wenn man die Kerne denn braucht. Aber absolut gesehen ist eine CPU für über 500 Euro aufwärts nicht günstig und für die breite Masse völlig uninteressant. Die Masse braucht eben keine 16 Kerne. Und wir reden mit Navi 33 ja vom Einstiegssegment / untere Mittelklasse.)

Natürlich waren die Preise von AMD marktgerecht - es wurde ja alles verkauft, gerade bei GraKas sogar zu noch höheren Preisen als die MSRPs.

Aber der Traum, das jetzt plötzlich Navi 33 ach so günstig sein soll wirkt für mich auf Basis der letzten 2 Jahre völlig an den Haaren herbeigezogen.
Und auch die ersten Preise von Zen 4 zeigen doch nur eines: Im unteren Preissegment existiert AMD quasi nicht mehr. Die günstigste CPU - der 6 Kerner - soll 350 Dollar kosten.

AMD hat einfach nicht die Kapazitäten, um im (für Kunden) attraktiven preisgünstigen Segment etwas anzubieten.
Sie wären ja auch dämlich das zu tun - AMD verkauft alles, was sie produzieren.
Warum sollen sie preiswerte Produkte für "den Pöbel" produzieren, wenn sie stattdessen teure Produkte für "die Elite" produzieren können und diese genauso verkaufen? Damit verdienen sie ja weit mehr pro Stück.
Und wenn die Produktionsmenge limitiert bedient man als Firma eben nicht den unteren Preisbereich. Das macht jede Firma so.


Sorry, aber da habe ich größere Hoffnungen, dass Nvidia und Intel einen attraktiven Preis setzen als das AMD das tut.

madshi
2022-05-16, 11:45:48
Der günstige Preis für Navi33 ist aber das Hauptargument von MLID dafür, daß die geplanten 8GB RAM ok sind. Wenn das mit dem günstigen Preis nicht stimmt, dann sind 8GB klar zu wenig. Also entweder stimmen die Gerüchte mit 8GB für Navi33 nicht, oder AMD macht da einen Fehler, oder Navi33 geht wirklich in den Budget Bereich - was dann enorme Performance für vergleichsweise wenig Geld bedeuten würde. Schließlich haben wir ja auch noch Navi32 und Navi31 über dem Navi33, also muß Navi33 nicht zwangsweise in den Budget-Bereich rein?

Kann natürlich sein, daß Navi33 Budget wird, aber längst nicht so gut performt wie derzeit vermutet. Aber da müßten sich schon ziemlich viele Leute irren, oder nicht?

Vielleicht bin ich auch einfach zu optimistisch. Wenn sowohl AMD als auch Nvidia sich einfach "einigen", ingesamt ein sehr hohes Preis-Niveau anzusetzen, also quasi den Wettbewerb verweigern, dann sind wir User halt die Dummen und können nicht viel dagegen machen. Wenn AMD und Nvidia aber wirklich in einen echten Wettbewerb gehen, dann denke ich sieht das recht vielversprechend für uns User aus, was Speed vs Preis angeht...

Leonidas
2022-05-16, 12:04:51
Da ich letzter Zeit in den Kommentaren nur typos ankreide:
Ich finde die Artikel echt klasse, sonst würde ich sie nicht (Korrektur-) lesen :D

Danke danke. Typo gefixt. Diese Gedankenfehler sind schwer zu finden, wenn man so im Stoff ist. 3 Tage später gelesen, sehe ich es sofort.

WedgeAntilles
2022-05-16, 12:11:29
Schließlich haben wir ja auch noch Navi32 und Navi31 über dem Navi33, also muß Navi33 nicht zwangsweise in den Budget-Bereich rein?

Was ist schon "Budget"?
Eine 6500XT hat eine UVP von 209 Euro.
Für eine absolute LowEnd Karte, die vor 2 Jahren im Bereich von 100 Euro war. Eher weniger.

Soll sich Navi 33 nicht mit der 4070 messen?
Wäre also das, was eine 6800 gewesen ist.
Was hatte die für einen UVP? 500 Euro?

Wie haben sich denn die Preise entwickelt in den letzten 1,5 Jahren?

Falls Navi 33 also ungefähr 4070 Niveau hat - was glaubst du kann man da für Preise erwarten?

300 Euro? 400? Finde ich völlig unglaubwürdig.
600 Euro wird IMO sehr viel näher dran sein.

Wie gesagt, schau dir einfach mal die Preise an, die AMD in den letzten 1,5 - 2 Jahren aufgerufen hat.
Wie MLID da jetzt auf eine Prognose "überraschend günstig" kommt, begreife ich nicht.
Wobei "günstig" natürlich relativ ist - wenn man von den Marktpreisen der letzten 1,5 Jahre ausgeht, wären auch 750 Euro für eine 4070 bzw. 7800 (oder wie auch immer die heißen wird) günstig. Die waren ja zeitweise bei 1000 Euro.
Die 3070 sogar bei 1300 Euro.

Das als Basis genommen wären 750 Euro sogar richtig günstig.

Gast
2022-05-16, 12:14:30
Also ich hoffe ja auf eine super starke Navi33 zu einem tollen Preis,

Ersteres schließt zweiteres aus. Navi 3x wird es nur dann zu einem tollen Preis geben wenn er überraschend schwach wird.

Ein konkurrenzfähiger Navi3x wird auch einen entsprechend hohen Preis haben.

Gast
2022-05-16, 12:49:46
Bisher waren die Spitzenmodelle ja leistungstechnisch nicht so wahnsinnig viel vor einer xx80.
Sehr viel Aufpreis für eher überschaubare Mehrleistung. (ok, bei der 3090 bekam man auch noch ein großes Speicherplus)

Ich kann mir vorstellen, dass wir tatsächlich eine komplett neue Kategorie sehen werden.
Eine 4090, die sich signifikant von der 4080 unterscheidet - massiv mehr Leistung, deutlich mehr Stromverbrauch (da dann vielleicht die immer wieder genannten 600W, während in diesem Szenario eine 4080 in der Gegend 350W ist).
Aber dafür auch Preise im Bereich von über 2000 Euro, evt. bis hin zu 2500, 3000 Euro für die 4090.
Naja, aber einen zu großen Sprung zwischen 4090 und 4080 fände ich auch komisch. Vielleicht schiebt sich ja alles noch etwas, und die 4070 ersetzt die 3090(TI) (in Sachen Leistung), die 4080 liegt dann irgendwo ca. 50% über der 4070. Sonst wird der Spring zwischen 4090 und 4080 einfach riesig und damit auch ein idealer Angriffspunkt für AMD.

madshi
2022-05-16, 12:53:48
Man, ihr seid alle so pessimistisch... ;D

Na gut, vielleicht habt ihr ja recht.

(Mein Verständnis ist, daß eine 8GB Navi33 auf den Markt zielt, wo im Moment die 3060 ist. Ansonsten wären 8GB wahrscheinlich zu wenig, weil 4070 ja schon 12GB haben soll.)

Gast
2022-05-16, 13:21:43
Man, ihr seid alle so pessimistisch... ;D


Das nennt man realistisch.

Dovregubben
2022-05-16, 13:24:36
Bisher waren die Spitzenmodelle ja leistungstechnisch nicht so wahnsinnig viel vor einer xx80.
Sehr viel Aufpreis für eher überschaubare Mehrleistung. (ok, bei der 3090 bekam man auch noch ein großes Speicherplus)
Das war wohl auch nicht so geplant und der Konkurrenzsituation geschuldet.

Gast
2022-05-16, 13:31:57
(Mein Verständnis ist, daß eine 8GB Navi33 auf den Markt zielt, wo im Moment die 3060 ist. Ansonsten wären 8GB wahrscheinlich zu wenig, weil 4070 ja schon 12GB haben soll.)
Naja, AMD bietet 8GB aktuell bei der 6600(XT), der Nachfolger wird sicher nicht weniger bekommen. Der Nachfolger der 6700XT wird auch nicht weniger als 12GB bekommen. Wie will man das sonst seinem Kunden erklären?

Gast
2022-05-16, 14:12:07
Jetzt sagt der Herr Kopite7kimi folgendes:
"OK, let's do a new summary.
RTX 4090, AD102-300, 16128FP32, 21Gbps 24G GDDR6X, 450W, ~2x3090.
I am disappointed with RDNA3.
That's all."
Das widerspricht allem bisherigen. Die FP32 Einheiten würden damit nicht einmal verdoppelt, wie sollte man denn so auf die bisher geschätzten 100TFlops kommen?
Rein rechnerisch hat GA102 ja 10752 Shader, jeder mit 2x FP32, also insgesamt 21504 FP32 Einheiten (wobei die Hälfte halt kombinierte FP32/INT32 Einheiten sind; vereinfacht dargestellt, eigentlich sind ja vier Shader in einem SM zusammen gefasst). Multipliziert mit dem Takt von 1860MHz bekommt man da auch die 40TFLops der 3090TI.
Ich denke, er meint hier einfach Shader und nicht FP32. Mit der bisher bekannten Auslegung von 2xFP32 je Shader (Ada soll ja 2x FP32 und zusätzlich 1x Int32 können) kommt man dann auf 32256 FP32 Einheiten gesamt. Damit müsste man grob bei 3GHz um die 100TFlops erreichen, was ja bisher das Gerücht war. So, wie er das aber formuliert hat, hätte die Karte nur halb so viele FP32 Einheiten und bräuchte daher 6GHz.
Oder verstehe ich hier was falsch?

aceCrasher
2022-05-16, 14:42:16
Naja, AMD bietet 8GB aktuell bei der 6600(XT), der Nachfolger wird sicher nicht weniger bekommen. Der Nachfolger der 6700XT wird auch nicht weniger als 12GB bekommen. Wie will man das sonst seinem Kunden erklären?

Wie erklärt man seinem Kunden dass die 3060 mehr Vram hat als die 3080? Wo ein Wille ist ist auch ein Weg.

maximus_hertus
2022-05-16, 14:47:34
https://twitter.com/kopite7kimi/status/1526136914952486912?

Mid July.


und

https://twitter.com/kopite7kimi/status/1526135149246976001?

OK, let's do a new summary.
RTX 4090, AD102-300, 16128FP32, 21Gbps 24G GDDR6X, 450W, ~2x3090.
I am disappointed with RDNA3.
That's all.


Nun ja,

irgendwie wird da täglich rumgestochert und was geschrieben und am Ende gibt es soviele Gerüchte / Leaks, dass einer dann zufällig stimmt.....

basix
2022-05-16, 14:51:24
irgendwie wird da täglich rumgestochert und was geschriben und am Ende gibt es soviele Gerüchte / Leaks, dasseiner dann zufällig stimmt.....

Ist momentan auch mein Eindruck :freak:

Gast
2022-05-16, 15:42:32
RTX 4090, AD102-300, 16128FP32
Nun ja,
irgendwie wird da täglich rumgestochert und was geschrieben und am Ende gibt es soviele Gerüchte / Leaks, dass einer dann zufällig stimmt.....
Naja, 16128 FP32 Einheiten werden wohl eher nicht stimmen, wären ja weniger als bei GA102. Er schreibt ja explizit "FP32". Entweder kann er Shader nicht von FP32 Einheiten unterscheiden, oder NVidia baut ein Ultra Hoch-Takt Design mit Ziel klar über 4GHz.

Legendenkiller
2022-05-16, 15:52:22
Was ist schon "Budget"?
Eine 6500XT hat eine UVP von 209 Euro.
Für eine absolute LowEnd Karte, die vor 2 Jahren im Bereich von 100 Euro war. Eher weniger.

Soll sich Navi 33 nicht mit der 4070 messen?
Wäre also das, was eine 6800 gewesen ist.
Was hatte die für einen UVP? 500 Euro?

Wie haben sich denn die Preise entwickelt in den letzten 1,5 Jahren?

Falls Navi 33 also ungefähr 4070 Niveau hat - was glaubst du kann man da für Preise erwarten?

300 Euro? 400? Finde ich völlig unglaubwürdig.
600 Euro wird IMO sehr viel näher dran sein.

Wie gesagt, schau dir einfach mal die Preise an, die AMD in den letzten 1,5 - 2 Jahren aufgerufen hat.
Wie MLID da jetzt auf eine Prognose "überraschend günstig" kommt, begreife ich nicht.
Wobei "günstig" natürlich relativ ist - wenn man von den Marktpreisen der letzten 1,5 Jahre ausgeht, wären auch 750 Euro für eine 4070 bzw. 7800 (oder wie auch immer die heißen wird) günstig. Die waren ja zeitweise bei 1000 Euro.
Die 3070 sogar bei 1300 Euro.

Das als Basis genommen wären 750 Euro sogar richtig günstig.

Irgendwie rechnen die Leute auch bei einer neuen Generation linear FPS / €.
Da hat das Marketing die letzten 6 Jahre gute Arbeit geleistet.

Als wenn eine neue Karte doppelt so schnell wie sein Vorgänger ist aber weniger als das doppelte Kostet, finden sie das "überraschend günstig".


Weiß nicht, aber "Früher TM" war es normal das man bei einer neuen GEN mehr FPS fürs selbe Geld bekommt. Nannte sich technischer Fortschritt.


Navi 33 / 4070 sind oberkante Mittelklasse oder unteres High-End... Die UVPs werden mindestens 100€zur letzen Gen zunehmen , wie davor ja auch schon.
Also 599$ UVP sind best Case. Mich würden auch 699$ für einen 4070 nicht wundern. Ist schließlichdie erste xx70 mit mehr als 8 Gbyte Ram.
Und ide Verarsche das dann alle Customs 100-200 über UVP liegen weil sie zum UVP faktisch nicht herstellbar sind, werden sie natürlich auch wieder machen.
Hat ja super geklappt und so haben wir dann Staßenpreise von 1000€.

Wer ne 4070 für 500€ erwarten ist schon arg Naiv oder liebt Wunschträume.

WedgeAntilles
2022-05-16, 15:56:12
Irgendwie rechnen die Leute auch bei einer neuen Generation linear FPS / €.
Da hat das Marketing die letzten 6 Jahre gute Arbeit geleistet.

Als wenn eine neue Karte doppelt so schnell wie sein Vorgänger ist aber weniger als das doppelte Kostet, finden sie das "überraschend günstig".


Weiß nicht, aber "Früher TM" war es normal das man bei einer neuen GEN mehr FPS fürs selbe Geld bekommt. Nannte sich technischer Fortschritt.

Jepp, völlig richtig.
Eine neue Generation - egal ob CPU, GPU, Festplatte oder sonstwas - kostete das Gleiche, hatte aber mehr Leistung, mehr Kapazität und so weiter.

Das ist seit ein paar Jahren mächtig in Schieflage geraten.

BlacKi
2022-05-16, 16:11:38
Ist momentan auch mein Eindruck :freak:


erinnerst du dich noch zu den leaks von ampere? da ging es auch drunter und drüber, aber nicht weil die leaks alle falsch waren, sondern einfach deshalb, weil man verschiedene tests macht. die leaker können auch nur noch das berichten was sie mitbekommen, und wenn sie testkarten mit 450-600-850w sehen, dann leaken die eben das was sie sehen.

letzter post war eben eine karte mit 450w, scheinbar reicht das schon um rdna3 zu schlagen.

Gast
2022-05-16, 16:47:20
Alles echt sehr spannend, aber ohne Preislagen und genauere Leistungsdaten der 'kleineren' Lösungen im Grunde weiterhin nur begrenzt relevant. Schade, aber ja nicht zu ändern.

Gast
2022-05-16, 17:20:54
Ohh, nun, gute Zusammenfassung danke.

Für mich gänzlich uninteressant und blöde Entwicklung. Gibt es diesmal halt eine RTX 4090 (Ti) und Radeon RX 7900XT-irgendwas für Enthusiasten, die mit 1500 - 2000 € UVP aufwarten.

Wenn es blos wieder die gut betuchten dieser Welt wären, welche mit dem Kauf der Enthusiastenprodukte die günstigeren Produkte darunter mitfinanzieren würden, hätte ich kein Problem damit.
Nun wahrscheinlich wird es sich aber wieder fortsetzen dass auch rtx 4080/4070 und rx 7800(XT) preislich eine Stufe nach oben verschoben werden; von 700 € auf 800, 900+ €, samt aller Modelle darunter.

Der Stromverbrauch kümmert mich nicht; wird halt limitiert oder Spannung begrenzt.

Leonidas
2022-05-16, 17:33:30
Naja, 16128 FP32 Einheiten werden wohl eher nicht stimmen, wären ja weniger als bei GA102. Er schreibt ja explizit "FP32".

Bitte nochmal nachrechnen. 16'128 FP32 sind 126 Shader-Cluster. Das ist logischerweise mehr als bei GA102, der hat maximal 84 Shader-Cluster.

Gast
2022-05-16, 19:41:03
Ist momentan auch mein Eindruck :freak:

Das machen alle „Techtuber“ mit super exklusiven industriequellen seit Jahren.
Selbst Igor ist sich da nicht zu fein für.
Echte leaks mit inkl. Wasserdichten Dokumenten als Beweis gabs selbst durch den NV Hack nicht wirklich .

Die Herren sind halt dick im Spekulationsgeschäft , wenn man nix handfestes hat , würfelt man halt Bekanntes zusammen mit hätte & könnte damit man neues Futter für den eigenen Kanal und somit Einnahmen hat.

Leonidas
2022-05-16, 20:04:58
Beweisen sollen die Leaker bitte nix (auch wenn es schön wäre). Denn dann war das deren letzter Leak.

Gast
2022-05-16, 20:28:03
Bitte nochmal nachrechnen. 16'128 FP32 sind 126 Shader-Cluster. Das ist logischerweise mehr als bei GA102, der hat maximal 84 Shader-Cluster.
Die 3090TI hat offiziell grob 40TFlops (genau 39.997.440 MFlops). Bei 1860MHz (Boost Clock) ergibt das pro Takt genau 21504 FP32 Berechnungen (39.997.440MFlops/1860MHz). Eine FP32 Einheit müsste dem Namen nach je Takt eine FP32 Berechnung machen (sonst ist der Name falsch gewählt). Entsprechend müsste GA102 also 21504 FP32 Einheiten haben. Wie viele Shader Cluster ist irrelevant (ist ja nur die interne Organisation des Chips).

Leonidas
2022-05-17, 05:02:14
Die 3090TI hat offiziell grob 40TFlops (genau 39.997.440 MFlops). Bei 1860MHz (Boost Clock) ergibt das pro Takt genau 21504 FP32 Berechnungen (39.997.440MFlops/1860MHz). Eine FP32 Einheit müsste dem Namen nach je Takt eine FP32 Berechnung machen (sonst ist der Name falsch gewählt). Entsprechend müsste GA102 also 21504 FP32 Einheiten haben. Wie viele Shader Cluster ist irrelevant (ist ja nur die interne Organisation des Chips).

Tut mir leid, ist komplett falsch gedacht. Die vorhandenen Hardware-Einheiten sind perfekt bekannt. Da musst Du keine Rückrechnungen anstellen, um diese zu ermitteln. Zudem vergisst Du, dass alle FP32-Einheiten 2 MADD ein MUL und ein ADD pro Takt machen.

Die 40 TFlops bei 3090Ti ergeben sich aus:
84 Cluster = 10'752 FP32 = 21504 MUL/ADD x 1860 MHz = 40 TFlops

real sind es allerdings eher:
84 Cluster = 10'752 FP32 = 21504 MUL/ADD x 1950 MHz = 42 TFlops

Update:
Laut Gast (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13006355#post13006355) sind es pro Takt/Einheit 1MUL + 1ADD, und nicht 2 MADD.

etp_inxession
2022-05-17, 06:32:37
Wie erklärt man seinem Kunden...

Gar nicht.

nVidia hat sich noch nie erklärt.

Gast
2022-05-17, 07:55:50
Zudem vergisst Du, dass alle FP32-Einheiten 2 MADD pro Takt machen.
Achso, da liegt das Problem. Ok, danke. Dann ist das Wording aber etwas komisch, wenn sie zwei statt einer FP32 machen. Hätte für mich mehr Sinn gemacht, dann einfach die Zahl der FP32 Einheiten zu verdoppeln, weil die das ja wohl parallel machen werden, statt von einer FP32 Einheit zu reden, die zwei Berechnungen gleichzeitig macht.

Gast
2022-05-17, 08:30:27
Es gab zu AD102 ja schon mal ganz früh Gerüchte über einen MCM Ansatz (wurde dann verworfen). Und es gab erst vor einem Monat rum die Behauptung, das Topmodell würde 900W fressen.
Aktuell ist man ja bei 450W für die 4090. Wäre es daher vielleicht denkbar, das NVidia da noch was drauf setzt und praktisch eine Dual GPU Variante als Sondermodell mit 900W bringt. Vielleicht war das ja mal die Basis für die MCM Gerüchte.
Schon klar, Dual-GPU wie SLI ist tot, aber vielleicht hat NVidia das ja hier anders gelöst. Und die Karte muss ja auch nicht unbedingt als Gaming Karte kommen, vielleicht ist das eine Workstation Karte oder so (würde auch preislich besser passen, denn das Ding wird sicher teuer).
Das würde zumindest die Gerüchte über 900W und die schon alten Gerüchte über MCM erklären und gut zu den 450W aktuell passen.

Sweepi
2022-05-17, 10:11:43
Nun ja,

irgendwie wird da täglich rumgestochert und was geschrieben und am Ende gibt es soviele Gerüchte / Leaks, dass einer dann zufällig stimmt.....


Die Herren sind halt dick im Spekulationsgeschäft , wenn man nix handfestes hat , würfelt man halt Bekanntes zusammen mit hätte & könnte damit man neues Futter für den eigenen Kanal und somit Einnahmen hat.

Bitte in Erinnerung rufen, dass wir bei Ampere sich später als zutreffend herausstellende Daten weit über ein Jahr vor Release hatten:

https://twitter.com/kopite7kimi/status/1131031428878094337
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020
https://www.3dcenter.org/news/geruechtekueche-nvidias-nextgen-chip-ad102-tritt-womoeglich-mit-gleich-144-shader-clustern

Ich finde es daher durchaus berechtigt, dass "die Presse" den aktuellen Gerüchten ihre Aufmerksamkeit widmet.
Und, wie Blacki anmerkt:

erinnerst du dich noch zu den leaks von ampere? da ging es auch drunter und drüber, aber nicht weil die leaks alle falsch waren, sondern einfach deshalb, weil man verschiedene tests macht. die leaker können auch nur noch das berichten was sie mitbekommen, und wenn sie testkarten mit 450-600-850w sehen, dann leaken die eben das was sie sehen.

letzter post war eben eine karte mit 450w, scheinbar reicht das schon um rdna3 zu schlagen.



Mich überrascht der mögliche Release im Juli - habe auch keinerlei belegbaren Grund, dies anzweifeln. Schön wäre ein Release im Juli allemal!


Edit: @Leonidas: Diese News ist noch nicht in die Ada Lovelace News-Sammlung aufgenommen worden:
https://www.3dcenter.org/news/nvidia-ada-lovelace
https://www.3dcenter.org/news/news-des-1415-mai-2022

Leonidas
2022-05-17, 10:34:08
Es gab zu AD102 ja schon mal ganz früh Gerüchte über einen MCM Ansatz (wurde dann verworfen).

Nein, den MCM-Ansatz gab es zu Ada nie. Den gab es zu Hopper.

Gast
2022-05-17, 11:11:05
Da musst Du keine Rückrechnungen anstellen, um diese zu ermitteln. Zudem vergisst Du, dass alle FP32-Einheiten 2 MADD pro Takt machen.


Die Einheiten machen keine 2 MADD pro Takt, aber 1MADD sind 2 Operationen nämlich 1MUL und ein 1ADD. Es sind also 2FLOPs pro Takt.

bbott
2022-05-17, 13:03:15
Kopite7kimi folgendes:
"I am disappointed with RDNA3"

Gibt es dazu schon genaueres? Warum?
Schafft man die 2,5-2,7x Performance nicht?

Leonidas
2022-05-17, 13:48:26
Die Einheiten machen keine 2 MADD pro Takt, aber 1MADD sind 2 Operationen nämlich 1MUL und ein 1ADD. Es sind also 2FLOPs pro Takt.

Korrekt. Das bringt ich immer wieder durcheinander, weil es so selten gebraucht wird. Relevant sind die 2 Flops pro Einheit und Takt bei dieserart Einheiten.



Gibt es dazu schon genaueres? Warum?
Schafft man die 2,5-2,7x Performance nicht?

Ich denke, er meint eher: Die RDNA3-Specs haben sich eher nach unten entwickelt, die von Ada eher nach oben.

Gast
2022-05-17, 13:56:30
Gibt es dazu schon genaueres? Warum?


Es ist natürlich schwer das nur aus einem Text zu lesen, aber ich glaub er meint das eher ironisch (NV braucht keine 600W um mithalten zu können, die 450W reichen augenscheinlich aus).

Gast
2022-05-17, 13:58:24
Korrekt. Das bringt ich immer wieder durcheinander, weil es so selten gebraucht wird. Relevant sind die 2 Flops pro Einheit und Takt bei dieserart Einheiten.


Naja so irrelevant ist das nicht die 2 FLOPS/Takt gibt es eben nur wenn man MUL + ADD gemeinsam verwendet.

Braucht man mehr MULs oder mehr ADDs, oder sind diese unabhängig voneinander kommen am Ende eben deutlich weniger als 2FLOPS/Takt raus.

Leonidas
2022-05-17, 16:33:47
Logisch. Aber dies trifft ja auch auf jede Vergleichs-Hardware zu. Ergo reicht es im Sinne der Bestimmung der Rechenleistung aus, mit "MUL + ADD gemeinsam" zu operieren. Das herauskommende Ergebnis wird in der Praxis sowieso nicht erreicht, das dient nur zum Vergleich.