Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 2. November 2022
Leonidas
2022-11-03, 08:26:13
Link zur News:
https://www.3dcenter.org/news/news-des-2-november-2022
"So soll das aktuelle RDNA3-Spitzenmodell sich noch nicht mit einer GeForce RTX 4090 selbst unter 4K Raster anlegen können. Dies wäre dann der Job für nachfolgende Karten, so ein X3D-Modell oder auch einen eventuellen xx50 Refresh."
Naja, der Refresh braucht uns doch jetzt nicht zu interessieren, wenn noch nicht einmal die Basis gelauncht wurde.
Es wäre aber auch mehr als fragwürdig, wenn AMD eine 350W Karte bringt, die eine 450W 4090 schlagen kann. Vor allem bei grob gleicher Fertigung. Da müsste NVidia ja komplett gepennt haben. Und der Vergleich zum Vorgänger: Wie stark hätte AMD denn die Effizienz steigern müssen, um mit der leichten Verbesserung von N7 auf N5 ohne deutlichen Mehrverbrauch die Leistung zu verdoppeln. Das war utopisches Wunschdenken.
Andererseits könnte gerade Navi31 ziemlich TBP-limitiert sein. Insofern könnten OC Modelle durchaus hinsichtlich Verbrauch und Leistung im Bereich der 4090 liegen. Aber mit nur 350W war das eher unrealistisch.
Spannender werden wohl auch die kleineren Modelle. NVidia hat ja eine große Lücke zwischen AD102 und AD103 , da könnte AMD durchaus interessante Alternativen anbieten, die NVidia ärgern. Aktuell sieht es da auch so aus, als könnte NVidia das eher schlecht kontern, weil wohl aktuell kein Chip zwischen AD102 und AD103 geplant ist. Man müsste also den AD102 teildeaktivieren, was hinsichtlich der Kosten eher schwierig ist.
nvidia prügelt wich mit bis zu 600w auf die 4090 ein, war klar das amd da nixbt mitgehen wird. sowas kauft ihnen keiner ab. denke die legen sixh mit der 4080 an, wenn sie dabei auf augenhohe sind mit 350w tbp wärs doch was, immerhin soll die 4080 bis zu 510w verpulvern dürfen. dort scheint man dann mit 24 und 20gib auch wieder mehr speicher zu liefern.
aus meiner sicht wäre amd dann eher was für aufruster, da man kein neues netzteil braucht bzw. adapter. schont den geldbeutel. das man mit 350w eine 450-600w karte nicht schlägt war klar.
Kleebl00d
2022-11-03, 09:36:50
Ohne Anspruch auf das letzte bisschen Genauigkeit und zu humoristischen Zwecken etwas aufgebauscht ist meine Erinnerung der Chronik der Gerüchtelage zur neuen Grafikkartengeneration in etwa:
- AMD wird euch wegblasen! Multichip, 3D-Speicher, nie gekannter Sprung zwischen den Generationen, Raytraycing bis zum Mond und zurück!
- Nvidia steht schutzlos da und muss seine Pendants chancenlos auf Riesenchips mit TDP kurz vorm Schmelzpunkt aufblasen! Was das kosten wird...
- Nvidia bleibt sogar hinter den Erwartungen zurück, und das bei riesiger Verlustleistung, während AMD bestimmt >2...2,5 fach so stark wie die letzte Generation wird, dank Multichip bestimmt auch voll günstig - die Revolution steht vor der Tür!
- Compute-Multichip ist doch nicht so richtig, 3D-Speicher kommt vermutlich später, bei welchen Modellen ist noch nicht so klar, bestimmt weil die auch ohne das krass performen!
- Oh, Nvidia hat doch Leistung in Hülle und Fülle bei verglichen mit den überbordenden Befürchtungen eigentlich recht gemacher TDP
Jetzt neu: - AMD performt doch nicht so, Leistung bleibt sogar hinter Nvidia zurück, hoffentlich wenigstens etwas günstiger - natürlich in Relation zu den letzten ~beiden Jahren, nicht dem, was man früher so gewohnt war
Ich warte mal heute Nacht noch ab, aber das sieht doch nach einer herben Enttäuschung aus. Und auf eine lohnende Ablösung meiner 1070 für um die 300€ werd ich wohl noch weiter warten müssen.
Virtual
2022-11-03, 09:49:19
Ohne Anspruch auf das letzte Bisschen Genauigkeit und zu humoristischen Zwecken etwas aufgebauscht ist meine Erinnerung der Gerüchtelage zur neuen Grafikkartengeneration in etwa:
- AMD wird euch wegblasen! Multichip, 3D-Speicher, nie gekannter Sprung zwischen den Generationen, Raytraycing bis zum Mond und zurück!
- Nvidia steht schutzlos da und muss seine Pendants chancenlos auf Riesenchips mit TDP kurz vorm Schmelzpunkt aufblasen! Was das kosten wird...
- Nvidia bleibt sogar hinter den Erwartungen zurück, und das bei riesiger Verlustleistung, während AMD bestimmt >2...2,5 fach so stark wie die letzte Generation wird, dank Multichip bestimmt auch voll günstig - die Revolution steht vor der Tür!
- Compute-Multichip ist doch nicht so richtig, 3D-Speicher kommt vermutlich später, bei welchen Modellen ist noch nicht so klar, bestimmt weil die auch ohne das krass performen!
- Oh, Nvidia hat doch Leistung in Hülle und Fülle bei durch die überbordenden Befürchtungen eigentlich recht gemacher TDP
- AMD performt doch nicht so, Leistung bleibt sogar hinter Nvidia zurück, hoffentlich wenigstens etwas günstiger - natürlich in Relation zu den letzten ~beiden Jahren, nicht dem, was man früher so gewohnt war
Ich warte mal heute Nacht noch ab, aber das sieht doch nach einer herben Enttäuschung aus. Und auf eine lohnende Ablösung meiner 1070 für um die 300€ werd ich wohl noch weiter warten müssen.
Es sieht eher danach aus, als ob du bereits Preise kennst und uns sofort darüber informieren wirst.
Deine 300€ für ein Performance-/HighEnd-Karte sind ohnehin Geschichte, aber die herbe Enttäuschung würde ich eher bei NVs Preispolitik sehen.
Wenn AMD ein 30% Prozent besseres P/L-Verhältnis anbietet und für HighEnd unter 1000€ bleibt, dann ist das Kracher schlechthin für die kranken Preise von NV.
Kleebl00d
2022-11-03, 09:56:10
Es sieht eher danach aus, als ob du bereits Preise kennst und uns sofort darüber informieren wirst.
Na klar kenne ich alle Preise, habe ich schließlich genau so in meinem Kommentar geschrieben, in dem ich wie eingangs deutlich erwähnt aus dem Gedächtnis die Gerüchtelage der letzten Zeit reflektiert habe!
Deine 300€ für ein Performance-/HighEnd-Karte sind ohnehin Geschichte, aber die herbe Enttäuschung würde ich eher bei NVs Preispolitik sehen.
Ja, das Gefühl hab ich auch. Ist halt super schade, da ich schon von 200€ Budget vor ~10 Jahren auf 300€ gegangen bin. Nochmal 50% mehr werd ich wohl in dieses schöne Hobby nicht mehr reinstecken, da ist das P/L bei anderen Freizeitbeschäftigungen leider einfach besser.
Wenn AMD ein 30% Prozent besseres P/L-Verhältnis anbietet und für HighEnd unter 1000€ bleibt, dann ist das Kracher schlechthin für die kranken Preise von NV.
Oha, du kennst die Preise scheinbar auch? Da können wir ja einen Club aufmachen!
Virtual
2022-11-03, 10:05:00
Na klar kenne ich alle Preise, habe ich schließlich genau so in meinem Kommentar geschrieben, in dem ich wie eingangs deutlich erwähnt aus dem Gedächtnis die Gerüchtelage der letzten Zeit reflektiert habe!
Ja, das Gefühl hab ich auch. Ist halt super schade, da ich schon von 200€ Budget vor ~10 Jahren auf 300€ gegangen bin. Nochmal 50% mehr werd ich wohl in dieses schöne Hobby nicht mehr reinstecken, da ist das P/L bei anderen Freizeitbeschäftigungen leider einfach besser.
Oha, du kennst die Preise scheinbar auch? Da können wir ja einen Club aufmachen!
Normalerweise antworte ich nicht auf einen Kommentar mit wenig Bezug auf meine zugegeben subtile Kritik, aber dennoch hier noch einmal zur Verdeutlichung und besserem Verständnis -> Deine Auffassung von Enttäuschung für Produktvorstellung bezieht sich auf die Balkenlänge, meine Auffassung von Enttäuschung bezieht sich auf das P/L-Verhältnis bzw. den absoluten Preis für HighEnd, falls AMD in dieser Beziehung "versagt".
Ein paar Stunden vor der Öffentlichen Präsentation müssen natürlich nochmal die wildesten Gerüchte und Spekulationen rausgehauen werden.
Wäre ja auch sonst ein langweiliger Nachmittag..
nvidia ist ja auch hinter den erwartungen, 2,0 bis 2,3 wurde angekündigt, man liegt im besten fall bei 1,6 bis 1,7 und die dlss 3 ruckelshow kannst du dir gerne mal reinziehen. nicht nur das die dlss 3 ai massive artefakte querbeet durch spiele prodziert, nein das bild mircoruckelt wunderbar vor sich hin. das ist augenkrebs pur. zudem rennt die gpu zu hauf ein cpu limit, wobei bei frameraten über monitorrefresh reflex auch unter gsync ausfällt und dann steigt der lag in massiven spikes masslos an. alles was hier schon angekündigt wurde, die nvidia fanbase das aber besser wusste.
die nächste dlss schrottengine inklusive und ohne die zwischenbildberechnung fällt lovelace weiter hinter die erwartungen, als erwartet. aber die marketingshow nvidis the best, must go on...lol. das ganze dann noch bei abbrennenden 12v adaptern, weil man mal wieder an einem 20 cent bauteil gespart hat.
wozu braucht es eine gpu, die ständig im cpu limit hängt und bei dlss massive artefakte in spielen produziert, vor sich hin microruckelt und wenn du pech hast dir auch noch die bude abfackelt. da ist weniger mehr, wie schon so oft die letzten jahre und man spart einen haufen kohle, seis nur beim stromverbrauch.
die 4090 ist eine mogelpackung schlecht hin, dekadenz pur. zudem riesige mauersteine f<r viel geld die jeden formfaktor sprengen in kein gehäuse passen, dazu denen der stromanschluss in form neuer netzteile fehlt, die mit 350euro+ in deine geldbörse einschlagen. die 2000-2500 euro allein für die 4090 sind es nämlich nicht und wie bereits bekannt wird die 4080 wohl deutlich langsamer ausfallen. da treffen wir uns dann wieder.
ist doch viel besser, für einen haufen schrott viel geld zu bezahlen, hauptsache man ist in der theorie und auf dem papier der schnellste.:freak:
das wie wo was und warum ist doch völlig egal.
- AMD wird euch wegblasen! Multichip, 3D-Speicher, nie gekannter Sprung zwischen den Generationen, Raytraycing bis zum Mond und zurück!
Das hat AMD doch schon längst mehr oder weniger offiziell widerlegt.
Mit dem von AMD kommunizierten Target von +50% Effizienz ist es klar, dass man sich niemals mit einer 4090 anlegen wird können, und mit der weiteren quasi Bestätigung, dass das Powertarget geringer ausfallen wird ist auch klar dass der Abstand beträchtlich sein muss.
Was prinzipiell auch nicht das größte Problem ist bei der NV Preispolitik, und deren eigenen großen Abstand zur 4080.
Wenn sich AMD dazwischen platzieren könnte, bei einem vernünftigen Preis wäre schon viel gewonnen.
- Compute-Multichip ist doch nicht so richtig, 3D-Speicher kommt vermutlich später, bei welchen Modellen ist noch nicht so klar, bestimmt weil die auch ohne das krass performen!
Wobei auch nicht so ganz klar ist, was das großartig bringen soll.
Ich halte jedenfalls das Potential des zusätzlichen 3D-Caches in den News für stark überschätzt.
Wenn mehr Cache so viel bringen würde, würde das gleichzeitig bedeuten, dass der Cache bzw. die Bandbreite der Standardmodelle stark unterdimensioniert wäre, was irgendwie ziemlich unwahrscheinlich erscheint.
Wenn Cache/Bandbreite der Standardmodelle vernünftig dimensioniert ist, kann mehr Cache aber auch keine Bäume mehr ausreißen.
Es erscheint also ziemlich unwahrscheinlich, dass bei deutlichem Rückstand der Standardmodelle der 3D-Cache ausreicht um diesen aufzuholen bzw. sogar zu überholen.
Das einzige was wir sehen könnten, ist eine deutlich andere Skalierung der Modelle mit und ohne 3D-Cache.
Wir wissen schließlich dass die Cache-Hitrate mit steigender Auflösung deutlich abnimmt, und wenn irgendwann der Punkt erreicht ist, dass die externe Bandbreite nicht mehr ausreicht, könnten ab diesem die 3D-Cache-Modelle davonziehen.
Auf jeden Fall haben diese dann relativ, sagen wir mal seltsame Zukunftsaussichten.
Traditionell ist es ja so, dass neue Grafikkarten beim Erscheinen so schnell sind, dass sie ohne entsprechende Auflösung gar nicht ihr Potential entfalten können.
Umgekehrt ist es aber so, dass in der Lebenszeit einer Grafikkarte Spiele aufwändiger werden und immer mehr Berechnungszeit pro Pixel aufwenden.
Je älter die Grafikkarte wird, desto geringer wird also die Auflösung in der sie noch gut einsetzbar ist. Insbesondere mit modernen Upsampling-Techniken und damit einhergehenden niedrigeren Renderauflösungen, wird bei der nächsten AMD-Generation also der absurde Fall eintreten, dass die schnellsten Grafikkarten nicht mit der Zeit weiter davonziehen werden wie es eigentlich üblich ist, sondern dass mit Fortdauer der Zeit der Vorteil der Modelle mit 3D-Cache immer weiter schrumpfen wird.
Kleebl00d
2022-11-03, 10:21:37
Deine Auffassung von Enttäuschung für Produktvorstellung bezieht sich auf die Balkenlänge, meine Auffassung von Enttäuschung bezieht sich auf das P/L-Verhältnis bzw. den absoluten Preis für HighEnd, falls AMD in dieser Beziehung "versagt".
Deinen Fokus auf P/L habe ich verstanden. Und ja, mein Kommentar bezog sich tatsächlich rein auf Balkenlänge der absoluten Spitzenprodukte (die für mich so oder so preislich fernab von jedem Interesse ist). Die Preise sind Monate bis Jahre vorher ja noch nicht abzusehen, darauf konnte ich mich also nur am Rande beziehen.
Klar, Preis/Leistung ist am Ende der entscheidende Faktor. Aber wenn die Gerüchteküche bezüglich der absoluten Leistung zwischendurch so dermaßen daneben liegt, dann ist mir das einen/mehrere Kommentare in einem Forum für gesteigert Interessierte wert.
Insgesamt hoffe ich, dass in meinem ursprünglichen Post und auch den Antworten genug durchgeschienen ist, dass aus mir die Enttäuschung eines technikinteressierten Spielers spricht, der grad sieht wie sein Hobby in unerschwingliche Preisregionen abdiftet.
Legendenkiller
2022-11-03, 10:36:36
Ganz offensichtlich ist es auf dieser Welt sehr wichtiger den längsten Balken zu haben. Selbst für die, die sich die Grafikkarte mit dem längsten Balken niemals leisten/kaufen werden können/wollen.
Das Motto wird immer mehr "aus dem Weg Geringverdiehner"...
Wers nicht bezahlen will , bekommt alten Schrott, wäre ja noch ok.
Mittlerweile bleibt aber der alte Schrott genauso überteuert wie das neue Zeug.
Naja, ich zock zum Glück keine Games die schnelle GRafikkarten brauchen , also schau ich mal mit einer großen Tüte Popkorn zu, Unterhaltungswert hat es ja :-)
Ohne Anspruch auf das letzte bisschen Genauigkeit und zu humoristischen Zwecken etwas aufgebauscht ist meine Erinnerung der Gerüchtelage zur neuen Grafikkartengeneration in etwa:
- AMD wird euch wegblasen! Multichip, 3D-Speicher, nie gekannter Sprung zwischen den Generationen, Raytraycing bis zum Mond und zurück!
- Nvidia steht schutzlos da und muss seine Pendants chancenlos auf Riesenchips mit TDP kurz vorm Schmelzpunkt aufblasen! Was das kosten wird...
- Nvidia bleibt sogar hinter den Erwartungen zurück, und das bei riesiger Verlustleistung, während AMD bestimmt >2...2,5 fach so stark wie die letzte Generation wird, dank Multichip bestimmt auch voll günstig - die Revolution steht vor der Tür!
- Compute-Multichip ist doch nicht so richtig, 3D-Speicher kommt vermutlich später, bei welchen Modellen ist noch nicht so klar, bestimmt weil die auch ohne das krass performen!
- Oh, Nvidia hat doch Leistung in Hülle und Fülle bei verglichen mit den überbordenden Befürchtungen eigentlich recht gemacher TDP
Jetzt neu: - AMD performt doch nicht so, Leistung bleibt sogar hinter Nvidia zurück, hoffentlich wenigstens etwas günstiger - natürlich in Relation zu den letzten ~beiden Jahren, nicht dem, was man früher so gewohnt war
Das kann ich 100% bestätigen. Genauso habe ich die Gerüchtelage auch in Erinnerung. Und die ganzen "Leaker" sind immer weiter von ihren utopischen Anfangsprognosen abgerückt. Bin gespannt was letztendlich dabei rumkommt. Evtl. kommt dann ja doch eine positive Überraschung. Für mich persönlich spielt der High-End Bereich eh keine Rolle. Mir kommt es auf Preis-Leistung und Effizienz einer eventuellen 7600XT oder 7700XT mit mind. 12GB VRAM an.
Prinzenrolle
2022-11-03, 11:04:51
Als ob die RTX 4090 in Reichweite wäre.
Die wird in 4K 15% über der schnellsten AMD liegen und die 4090 Ti wird dann rund 30% weg sein.
Troyan
2022-11-03, 11:09:48
Das Ding mit High-End ist: Wen interessiert Rasterizing-Leistung noch? Dank DLSS und Co. kann man Rasterizing-Leistung sehr einfach substituieren. 10% Bildqualitätsverlust, dafür doppelt Leistung? Ist mir jedenfalls keine 1000€+ wert, um die 10% zu erreichen.
Raytracing dagegen kann man nicht ersetzen. Wenn AMD hier also nicht endlich in die Pushen kommt, werden die richtige Probleme bekommen.
nvidia ist ja auch hinter den erwartungen, 2,0 bis 2,3 wurde angekündigt, man liegt im besten fall bei 1,6 bis 1,7
Aber nicht weil die (GPU) Leistung fehlt, sondern weil es selbst für 4k an CPU Leistung fehlt um weiter zu skalieren.
Kleebl00d
2022-11-03, 11:32:58
Ganz offensichtlich ist es auf dieser Welt sehr wichtiger den längsten Balken zu haben. Selbst für die, die sich die Grafikkarte mit dem längsten Balken niemals leisten/kaufen werden können/wollen.
Da es sich hier um ein Forum für Interessierte handelt ist es natürlich zentraler Bestandteil, auf den längsten Balken zu schauen. Dieser Vorwurf kommt immer mal wieder auf, aber was soll denn neben dem Preis und vielleicht noch dem Verbrauch an High-End-Halo-Produkten sonst das zentrale Element sein? Die Feng-Shui-Schwingungen in Kombination mit verschiedenen Gehäusen?
Bei den Boliden geht es wie bei Sportwagen nicht darum, dass es für die breite Masse erschwinglich ist sondern dass es auf das restliche Angebot abfärbt. Und selbst wenn man das für sich erkannt hat ist es hüben wie drüben faszinierend zu schauen, was grad technisch möglich ist.
Kleebl00d
2022-11-03, 11:38:19
Das Ding mit High-End ist: Wen interessiert Rasterizing-Leistung noch? Dank DLSS und Co. kann man Rasterizing-Leistung sehr einfach substituieren. 10% Bildqualitätsverlust, dafür doppelt Leistung? Ist mir jedenfalls keine 1000€+ wert, um die 10% zu erreichen.
Raytracing dagegen kann man nicht ersetzen. Wenn AMD hier also nicht endlich in die Pushen kommt, werden die richtige Probleme bekommen.
Ich verstehe deinen Punkt. Aber auch "nur" mehrere hundert € für eine Grafikkarte auszugeben um dann eine Option zu aktivieren, die die Bildqualität heruntersetzt? Das fühlt sich nicht gut an...
MiamiNice
2022-11-03, 12:07:32
Bei jedem AMD Release ist es doch das selbe Spiel, seit Jahren. Hype, Hype, Hype, rote Brille, mega Hype. Alles viel schneller, Intel order NV Killer. Super duppa Mega. Robin Hood äh Lisa Su kommt und verteilt die Power an die Armen äh Fangirls.
Und nachdem man dann den ersten Balken gesehen hat, kommt die große Relativierungswelle. Dann kommen die Kinderkrankheiten, dann jahrelang keine, miese oder zu späte Patches ...
Repeat.
Gäääääääääääääääääääähn.
Troyan
2022-11-03, 12:14:26
Ich verstehe deinen Punkt. Aber auch "nur" mehrere hundert € für eine Grafikkarte auszugeben um dann eine Option zu aktivieren, die die Bildqualität heruntersetzt? Das fühlt sich nicht gut an...
Lustig, mit DLSS fühlt es sich deutlich besser an. :cool:
Es ist genau das: Wenn man für 500€ 90% Bildqualität bekommt, wieso sollte ich 1000€ für 100% ausgeben? Nur weil die Upscaling-Option in 10 Jahre alte Spiele nicht vorhanden ist?
Die doppelte Rasterizing-Leistung bringt also kaum was.
gastello
2022-11-03, 12:23:19
Zuviel GPU Leistung?, das hatten wir auch noch nie.:)
Was die Vergleiche angeht (für noch nicht veröffentlichte Produkte). Vielleicht ist es sogar so, dass Nvidia schnellstens eine 4080ti braucht. Sicher nicht auf Basis des ADA103. Nicht umsonst hat man die 4080-12G gecancelt, und nennt es Relaunch weil die Karte den falschen Namen hätte. Zusammen gezählt wird immer zum Schluss. Die 4090 ist sicher eine Super?-Karte, nur zum falschen Zeitpunkt, im falschen Marktsegment, zum übertriebenen Preis. Um das Marketing drumherum und damit auch den Preis rechtfertigen zu können, muss man natürlich etwas vorlegen. Ob das AMD überhaupt will, sollte sich jeder aus der Geschichte von Radeon heraus und deren Versprechen selbst fragen. Ich zumindest glaube das nicht. Mittlerweile zählt ja nicht nur pure Leistung, die man im Limit nicht abrufen kann, sondern Kompatibilität und auch ein wenig Nachhaltigkeit. Da gibt es dann Grenzen, die AMD imho nicht zwanghaft überschreiten will. Die hatten es eher mit der Innovation, auch wenn nicht immer rund alles wie gedacht geklappt hat.
Was die Geschichte schmelzender Energieversorgungsanschlüsse angeht, in Nvidias Laboren qualmte es auch alle Nase lang. Es ist schon verwunderlich das man trotz allen Unkens und einiger Bedenken, seine Innvoation so in Markt presst. Die Chefriege weiß es eben besser als Engineer.
madshi
2022-11-03, 12:24:54
Um fair zu bleiben, haben die "besseren" Leaker schon darauf hingewiesen, daß es sich bei den 2x usw Prognosen um Verbesserungen in speziellen Benchmarks usw handelt, nicht um eine generelle durchschnittliche gemessene Verbesserung in real world Games. Ich denke, wir wissen alle, daß wenn wir einfach die SMs verdoppeln, wir in Games nicht automatisch doppelt so viele FPS bekommen.
Stimmt aber, daß die Gerüchteküche immer gerne anfangs AMD hypt und Nvidia negativ sieht, und dann kurz vor bzw nach Nvidia Release dreht sich das gerne ins Gegenteil um, aber am Ende kommen beide doch wieder einigermaßen nahe beieinander raus. Wenn AMDs Topmodell nur leicht langsamer als 4090 ist, dafür deutlich weniger Strom verbraucht, wäre das für mich pro AMD.
Ich muß ehrlich sagen, daß ich von Lovelace ein bißchen enttäuscht bin. Die Gerüchteküche hatte gesagt, daß Lovelace einige Features kriegt, die eigentlich für Blackwell gedacht waren, darunter auch verbessere FP32 Performance (keine kombinierten FP32/INT units mehr oder sowas in der Richtung). Aber das hat sich letztendlich als Ente heraus gestellt. Mir scheint Lovelace nun doch "nur" eine leichte Evolution von Ampere zu sein, mit ein paar netten kleinen Verbesserungen, aber vor allem deutlich verbesserter Fertigung. Da hatte ich mir etwas mehr erhofft.
RDNA4 vs Blackwell wird sehr interessant werden...
Lustig, mit DLSS fühlt es sich deutlich besser an. :cool:
Es gibt zumindest zwei Redaktionen die das mittlerweile bezweifeln wenn es um DLSS 3.0 geht, PCGH und Hardware unboxed. Die Gründe zählen sie auf. Youtube!
https://www.youtube.com/watch?v=TLfmbPXM8is
https://www.youtube.com/watch?v=GkUAGMYg5Lw
Und schon verfliegt der Hype.
bad_sign
2022-11-03, 12:34:15
[QUOTE=Gast;13156763.
Mit dem von AMD kommunizierten Target von +50% Effizienz ist es klar, dass man sich niemals mit einer 4090 anlegen wird können, [/QUOTE]
Eine 4090 liegt nach 3DCs Analyse +35% mehr Effizienz vorne, jetzt kommts nur noch auf das Powertarget an
Das kann ich 100% bestätigen. Genauso habe ich die Gerüchtelage auch in Erinnerung. Und die ganzen "Leaker" sind immer weiter von ihren utopischen Anfangsprognosen abgerückt.
Das sind sie aber auch bei NVidia. Die sollten auch deutlich über doppelt so schnell als der Vorgänger werden (2,3x). Auch ignoriert ihr beide, dass AMD auch mit 450W-500W antreten sollte. Jetzt sind es auf einmal 350W? Ist klar, dass man dann auch erheblich langsamer sein muss, als mit den ursprünglich gehandelten Verbrauchswerten.
Wobei bei AMD ja auch mal ein Chip mit 16k Shadern gemunkelt wurde. Da wären die 450W dann durchaus denkbar. Kann sein, dass es den Chip tatsächlich auch mal gab, das Ding aber zu teuer war oder sich nicht vernünftig kühlen ließ (AMDs Kühler sind ja in der Regel merklich konventioneller als NVidias).
Insofern: Ja, die Leaks waren übertrieben, das waren sie aber auch bei NVidia. Da hat sich komischerweise niemand über den Hype-Train beschwert.
Eine 4090 liegt nach 3DCs Analyse +35% mehr Effizienz vorne, jetzt kommts nur noch auf das Powertarget an
Die 4090 liegt laut jemandem der sich die Mühe macht das auch zu messen bei der Effizienz zwischen 70 und 100% vor dem Vorgänger, mit einem Schnitt von 85%
https://www.igorslab.de/nvidia-geforce-rtx-4090-founders-edition-24gb-im-test-der-kraftstrotzende-monolith-der-aus-der-kaelte-kam/4/
Gastxyz
2022-11-03, 13:22:58
Zumindest sollte Nvidia erklären warum ihre GPUs wie die 4090 inklusive DLSS3.0 und Framegeneration+Reflex nur im GPU Limit funktioniert wie es soll? Erklärt haben sie, das würde das CPU Limit aufheben, macht aber kaum Sinn wenn man im GPU Limit hängt, dann langweilt sich die CPU sowieso. Man hat die Leute bei Vorstellung also mal wieder komplett angelogen.
Du kannst dir dieser Ruckelshow nicht mal abhelfen, da du unter Framgeneration keinen Limiter setzen kannst. Macht auch kaum Sinn, denn die Engine weiß von diesen zusätzlichen Frame nichts. Ist mal wieder der typische Alleingang von Nvidia, mit ihrem dedizierten Quatsch der nicht funktioniert wie er soll. Die wievielte DLSS Gen haben wir jetzt? Hauptsache lange Balken!
Zudem braucht man ja Framegeneration um vorzutäuschen das man viel schneller herauskommt als man wirklich ist, mit dazu muss man dann Reflex in den Markt prügeln, wobei das nur auf zertifizierter Hardware gut funktioniert die die Kosten weiter in die Höhe treibt (Mäuse, Tastaturen, Bildschirme usw.). Wer gedacht hat das liefe einfach so, naja. Anhand der vorangekündigten Rohleistungsdaten ist ADA einfach enttäuschend. Sry ist so! Immerhin kommt die GPU in 4nm, hat dabei 7 und 5 übersprungen.
Fassen wir mal zusammen, kaum passende CPUs am Markt die die Leistung abrufen könnten, derzeit keine Netzteile verfügbar im passenden Standard, riesige Bretter die in keinen PC passen wegen bis zu 600w Verbrauch, mäßige Umsetzungen bei der Bildbeschleunigung, klar hinter den Erwartungen, insgesamt exorbitanter Verbrauch bei Auslastung und exorbitanten Preisen. Würde ja behaupten das ist ein Flop wie er im Buche steht, aber die Fanbois reden sich alles schön.
ADA ist eine BWLer Gen um vor allem die sinkenden Umsätze aus Preisnachlässen und Absatzverlusten zu kompensieren, so im Markt platziert das man noch Millionen Ampere verkaufen kann, die kaum von den Neuerungen profitieren, mit bisher unsinnigen Gimmicks die die Kosten dafür extrem in die Höhe treiben. Wenn man danach schreit bekommt es!
Eine 4090 liegt nach 3DCs Analyse +35% mehr Effizienz vorne, jetzt kommts nur noch auf das Powertarget an
Weil die das anhand der Shaderanzahl verrechnen, was kompletter Müll ist.
etp_inxession
2022-11-03, 14:18:24
Gehyped bin ich jetzt null....
Hab aber auch keinen Kaufreiz.
AMD kann also bringen was sie wollen ... sie werden es über den Preis regeln.
Erreicht man die 4090, ist die GPU so exorbitant teuer das der Käuferkreis immens klein sein wird.
Liegt man knapp drunter, könnte eine Art P/L Sieger hervorgehen.
RT / DLSS / FSR Gedöns interessiert mich (!) nicht die Bohne.
Und Raster Leistung hab ich mit meiner 6800 noch ausreichend.
Eben für mich.
Rein technisch wird RDNA3 aber die Interessanteste Neuheit seit Langem.
Wenn die Preise für RDNA2 weiter purzeln, wird eine weitere RX 6800 als Back Up Karte interessant.
Lassen wir uns überraschen.
Lehdro
2022-11-03, 15:10:59
Dann kommen die Kinderkrankheiten, dann jahrelang keine, miese oder zu späte Patches ...
Repeat.
Gäääääääääääääääääääähn.
Wenn dass deine Argumente sind, fällt wohl NV mit RTX 40 wohl auch aus:
- angekündigte GPUs werden "unlaunched"
- brennende Stromadapter
- DLSS 3.0 im early access (Quali+Features sind meilenweit von DLSS 2.x weg)
- Bugs ohne Ende (https://www.computerbase.de/2022-11/nvidia-geforce-hotfix-treiber-senkt-desktop-leistungsaufnahme/)
Und da ist NVs großspurige Verkündigung von >2x Performance noch nicht einmal erwähnt. Also: Eine Shitshow findest du überall wenn du danach suchst, aber immerhin kannst du dir die Farbe aussuchen ;)
Gastanjette
2022-11-03, 15:26:56
Auweia
aber immerhin zeigt sich jetzt schon dass einige Leute hier die Gerüchte kaum einordnen können. Wenn man nicht damit umgehen kann - Finger weg!
Logisch ist ein Leak mal auf Rohleistung oder höchstens mal synthetische Benchleistung bezogen. Ganz selten gibt es FPS in Games, schon gar nicht mit fertigen Treibern.
Beim Game-Rendering kommen noch so viele andere Faktoren dazu. Jeder der den Markt etwas länger beobachet weiss doch, dass jede neue Arch beim Gaming eben nicht gleich skaliert und es auf Engine- und Treiberoptimieurng ankommt was von der Rohleistung noch übrig bleibt.
Wenigstens sind die geleakten AMD-Karten klein genug, dass die in normale Gehäuse reinpassen. Die wird man am Ende allein deswegen gegen eine 4080 oder gar 4070 vergleichen müssen.
Wenn dann ein Backstein-Size nötig ist um gegen eine 4090 anzutreten, dann isses halt so. Fand aber damals den Weg über AiO Wakü ab Werk intelligenter als die riesen Bricks.
MiamiNice
2022-11-03, 15:38:45
Du hast schon so einen kleinen Beißreflex, wenn es gegen AMD geht.
Natürlich fällt NV gerade raus, keine Frage.
Das war aber nicht das Thema :wink:
Lehdro
2022-11-03, 15:43:39
Du hast schon so einen kleinen Beißreflex, wenn es gegen AMD geht.
Ich würde dasselbe gespiegelt posten wenn so etwas als Argument gegen NV kommt. Ist halt einfach sehr eindimensional und daher leicht angreifbar.
MiamiNice
2022-11-03, 16:20:06
Was heißt den eindimensional?
Hier geht es um einen baldigen AMD Release. Ich habe keinen Vergleich zu NV gezogen, sondern dargelegt wie, ziemlich jeder, AMD Release der letzten Jahre ausgesehen hat. Da muss man nicht zwangsläufig ein Multiversum aufmachen und schreiben, das es bei NV auch so war.
Dieses zwanghafte Hersteller vs. Hersteller habe ich so gar nicht in mir und trotzdem reduzierst Du immer genau darauf.
Lehdro
2022-11-03, 16:28:47
Was heißt den eindimensional?
Hier geht es um einen baldigen AMD Release. Ich habe keinen Vergleich zu NV gezogen, sondern dargelegt wie, ziemlich jeder, AMD Release der letzten Jahre ausgesehen hat. Da muss man nicht zwangsläufig ein Multiversum aufmachen und schreiben, das es bei NV auch so war.
Es ist bei jedem Launch so, egal von wem (Intel, AMD, NV). Nenn mir irgendeinen Launch der letzten paar Jahre und du wirst ausnahmslos etwas zu bekritteln finden. Das ist die Norm mittlerweile, weil es nur um Zeit, Superlativen und Marketing geht. Etwas anderes zu erwarten ist zwar schön, aber reichlich naiv. Es wird auch heute Abend wieder "komisch" werden und beim Launch dann wieder regelrecht unrund - ist halt so, wird immer so sein.
Dieses zwanghafte Hersteller vs. Hersteller habe ich so gar nicht in mir und trotzdem reduzierst Du immer genau darauf.
Du bringst diese, nennen wir sie mal "anti-AMD" Sachen halt immer in diesen Zusammenhängen. Zu NV machst du das nicht, obwohl du dich hier schon wieder als "neutral" darzustellen versuchst. Bei Intel kommt da auch nix von dir, aber bei AMD immer - das ist eindimensional. Von daher versuche ich da immer den Spiegel bereitzuhalten wenn so etwas kommt - Reflektion ist etwas tolles. ;)
MiamiNice
2022-11-03, 16:42:21
Wer sagt den das ich "neutral" wäre oder versuchen würde so zu wirken? Ich mag AMD nicht, ist kein Geheimnis :confused:
Ich glaube auch nicht, das dieser Fakt, für irgendjemanden hier im Forum neu ist.
Was ich initial schrieb, ist auch nicht bei jedem Release der Fall, sondern ist exklusiv bei AMD + Anhang zu bemerken.
Freestaler
2022-11-03, 17:18:18
Hä, wurde infinitycache von rdna2 bei 3 gestrichen? Oder wieso denkt da einer da konnte ne GrössereCache Lösung noch was ändern. Infinity war bzw. Ist ja gerade Cache um Brandbreite und Latenz zu schonen. Das Gerücht macht so doch keinen sinn. Aber naja, wie be allen launches, egal ob AMD, Intel oder NV gehen die erwartungen mal wieder in alle Richtungen und werden gehypt.
Schnitzl
2022-11-03, 18:33:47
Die fast wichtigste Frage zur RDNA3-Generation dürfte allerdings sein, wie gut AMDs neue Grafikchips bei der RayTracing-Performance abschneiden.
Für wen? Für dich?
Also für mich definitiv nicht.
Für mich ist die wichtigste Frage "in wie weit geht AMD diesen Watt-Irrsinn mit?"
2. wie stark steigt RZ-Leistung?
3. wie schwer und wie groß ist die Karte?
erst als 4. kommt dann mal RT Leistung.
und nein ich hab ne nVidia drin, ebenso der Vorgänger.
Schnitzl
2022-11-03, 18:41:57
Wer sagt den das ich "neutral" wäre oder versuchen würde so zu wirken? Ich mag AMD nicht, ist kein Geheimnis :confused:
Ich glaube auch nicht, das dieser Fakt, für irgendjemanden hier im Forum neu ist.
Was ich initial schrieb, ist auch nicht bei jedem Release der Fall, sondern ist exklusiv bei AMD + Anhang zu bemerken.
ja was denn nun?
Was heißt den eindimensional?
Hier geht es um einen baldigen AMD Release. Ich habe keinen Vergleich zu NV gezogen, sondern dargelegt wie, ziemlich jeder, AMD Release der letzten Jahre ausgesehen hat. Da muss man nicht zwangsläufig ein Multiversum aufmachen und schreiben, das es bei NV auch so war.
Dieses zwanghafte Hersteller vs. Hersteller habe ich so gar nicht in mir und trotzdem reduzierst Du immer genau darauf.
mir ist es egal ob du AMD hasst oder was weiss ich... du kannst dir auch ne 5kg 900W GPU für 5.000€ kaufen; ich gönn dirs sofern du die entsprechende Stütze für die Graka hast ;)
sind doch nur irgendwelche Firmen die uns überteuerten zukünftigen Elektroschrott verkaufen...
also chilly willy
sry für doppelpost, aber geht um 2 verschiedene Dinge, war komisch ein einem Post
lzudem rennt die gpu zu hauf ein cpu limit,
wozu braucht es eine gpu, die ständig im cpu limit.
Beschwerst du dich jetzt tatsächlich darüber, dass die GPU zu schnell ist?
oh man ob NV oder AMD ist mit schnurpsi der der mir besten P/L Bietet kommt in meinen Neuen rechner und max Werden 600 - 1000€ Ausgegeben für Die Graka . und NV ist da sehr weit vorbei geschossen , dern aktuelle Preis politik ist fürn Ar...
Beschwerst du dich jetzt tatsächlich darüber, dass die GPU zu schnell ist?
Vielleicht ist das ja auch eine Beschwerde, dass der Treiber zu ineffizient ist? Hatte AMD bei DX11 ja auch und wurde dann mal verbessert/beseitigt.
Leonidas
2022-11-03, 21:11:35
Weil die das anhand der Shaderanzahl verrechnen, was kompletter Müll ist.
Ich hoffe mit "die" ist nicht 3DC gemeint. Ich hab keine solcherart Vergleiche anhand der Shader-Anzahl angestellt.
Hab ich das bei der Präsentation gerade richtig gesehen, die Raytracing-Leistung skaliert schlechter als die Rasterizing-Leistung?
Was für ein riesen Fail.
IchoTolot
2022-11-03, 21:54:15
Flagschiff 7900 XTX nur 999 dollar. :D ahahaha.. Take this nvidia.. Deren preise sind doch lächerlich.
Flagschiff 7900 XTX nur 999 dollar. :D ahahaha.. Take this nvidia.. Deren preise sind doch lächerlich.
Mehr kann man mit 1,5x verbesserter Raytracing-Leistung auch nicht verlangen, das reicht ja nicht mal den Rückstand zu Ampere aufzuholen.
Flagschiff 7900 XTX nur 999 dollar. :D ahahaha.. Take this nvidia.. Deren preise sind doch lächerlich.
lol.
Bei RT games bietet die 4090 mehr pro Euro als die 7900XTX.
Die ist nämlich mindestens 50-75% schneller.
Und deutlich effizienter - braucht kaum mehr bei viel mehr Frames.
Die Karten kosten weniger - weil sie wenig Leistung haben und nicht viel taugen, jedenfalls nicht als High-End Karte.
Da wird auch ne 4080 16GB schneller sein.
Ja, die 4080 16GB ist völlig überteuert - aber die neuen AMD GraKas könnten es zumindest bei RT games schaffen, sogar noch mieser zu sein.
Einfach weil die Leistung komplett fehlt.
Abgekartetes Duopol
2022-11-03, 23:51:59
Bestätigt mal wieder dass Nshitia und AMD seit Jahren ein abgekartetes Duopol sind.
1) Nshitias Führung gibt derbe überteuerte Preise vor, wie z.B. 1200 Schekel rtx 4080 16 GB
2) Amdx rx 7900xtx ist mit 50 - 70 % mehr Rasterleistung gegenüber rx 6950X, gleich oder leicht über der rtx 4080 16 GB.
3) Bei nur 50 - 60 % höherer Raytracing-Leistung gegenüber rx 6950X, ist man um wie viel % weiterhin hinten dran? 100 %?
Amd "fluid motion" fsr 3 ist nvidias dlss 3 aka Frame Hallucination 3 aka Frame Interpolation aka Fake Frames mit massig Nachteilen.
Dlss 3 bietet immer noch mehr Bildqualität als FSR 2.1 und wohl auch FSR 2.2.
Solange da nicht AI im Spiel ist, ist man bei Nvshitia weiter vorne.
Amd ist NICHT günstiger. Bei Amd bietet man einfach etwas weniger Leistung, mit etwas weniger Eigenschaten (features) die obendrein noch weniger ausgereift sind, und verlangt dafür halt 20 % weniger Schekel.
Scheiß Duopol.
Abgekartetes Duopol
2022-11-04, 00:27:59
Sage ich. Gut dass es andere merken. Da ist nichts günstiger - es kostet einfach weniger und bietet weniger!
Beide Parteien melken die Kundschaft.
Igorslab zeigt auch das selbst unter 4K Auflösung die rtx 4090 nicht mehr als 370 W im Durchschnitt verbraucht; mit dickem ryzen 7950X.
Die rx 7900XTX ist weniger effizient.
Mehr Marge gibt es für AMD auch noch! Von 50 % auf 60 %?
"Chiplet Design für mehr Leistung und Effizienz" sagte sie auf der Bühne.
Derbe Lüge. Chiplet-Design sorgt einfach für geringere Produktionskostet und mehr Flexibilität (wie es überall erklärt wird).
Bei x2,7-mal mehr Transistoren sieht man dass es irgendwo derbe Verluste gibt.
Bei Nvidias rtx 4000 gehen die 2.5-mal mehr Transistoren in +150 % Raytracing-Leistung über.
Und bei AMD? Wohin? In +50 %?
Wie viel weniger kostet so ein 300 mm² 5nm Chip im Vergleich zum 608 mm² Chip?
Wie viel weniger Defekte Chips?
Dazu ein großer und günstigerer mittiger Chip in 6nm.
Ampere lag 20-30% vor RDNA2 was die RT Leistung angeht, nicht 100%! Dazu muss man sagen in Nv optimierten Spielen, wie bespw. SoTR.
Wenn es jetzt um Faktor 1.7 steigt, also 1,7 fach liegt man in Schlagweite zur 4080. Genau deshalb braucht Nv Framegeneration, was derzeit auch noch mies funktioniert und genau deshlab haben sie wohl auch die 4080-12G vom Markt genommen, die hat nämlich mal wieder zu wenig Speicher im direkten Vergleich und als 4080. AMD kommt mit 20GIB. Mal abgesehen das Framegeneration munter ruckelt, stuttert und Artefakte produziert, damit deutlicher die Bildqulität beschränkt und man Reflex braucht damit der Lag nicht ums doppelte ansteigt.
In CP2077 ist AMD was RT in der Neuvorstellung angeht, am schnellsten und das will was heißen.
Ehrlich - so einen BS hier zu lesen von Leuten die nicht mal Faktoren berechnen können, echt traurig. Mit 3dcenter gehts auch immer weiter bergab. Dabei sind die AMD Karten mit mehr Vram deutlich preiswerter. Wahrscheinlich wollte sich AMD nie mit der 4090 vergleichen, Nv hat mal wieder komplett aufs falsche Pferd gesetzt. Genau deshalb haben sie ADA102 für Gamer groß bei TSMC abbestellt. Die haben jetzt Probleme am Hals, mit ihrer Preisgestaltung.
Die 4090 liegen jetzt schon rum und keiner kauft sie, was völlig klar war. Erster Run der Deppen und Bekloppten denen jegliche Preise egal sind und nun still ruht der See. Die verfügbaren Chargen werden runtergefahren um die Preise zu stabilisieren und AMD schießt da genau quer rein, wird sicher gegenüber RDNA2 massig MCM liefern können, da man nur kleine Dices fertigen muss und mit um 1000$ auch noch einen Haufen Kohle dafür einfährt.
Super Upgrade für Leute die von RT-losen GPUs kommen. Kein abbrennder Adapter, kein neues Netzteil, kein neues Gehäuse so groß wie ein Schaltschrank, damit die Nv Schinken da auch reinpassen. Die haben es mal wieder komplett versemmelt und wie immer maßlos übertrieben.
Nv hat schlichtweg ein massives Problem wenn AMD in den Tests halbwegs überzeugt, deren Preise müssen runter aber schnell. Das ist die gleiche Strategie wie man sie bei Zen durchzog, erstmal investieren um dann später zu profitieren. Machen neuerdings viele Firmen so, ausser Nvidia. Die beste Anlage sind heute die Kunden, denen man seine Produkte verkauft. Nach diesen ganzen Übertreibungen die letzten zwei Jahre bis zur 4090, kann das für Nv richtig nach hinten losgehen.
Ampere lag 20-30% vor RDNA2 was die RT Leistung angeht, nicht 100%!
Ampere lag in der RT-Leistung nicht nur 100% sondern mehr vor RDNA2.
Dass man in RT-Spielen keine 100% mehr FPS sieht liegt einfach daran, dass die meisten noch sehr wenig RT verwenden, und RT nicht der einzige limitierende Faktor ist.
In Spielen die mehr RT verwenden sieht man auch leicht einen wesentlich größeren FPS-Unterschied:
https://www.igorslab.de/wp-content/uploads/2022/10/Cyberpunk-2077-FPS-2160p-DX12-Ultra-RT-On.png
Lehdro
2022-11-04, 13:44:40
Ampere lag in der RT-Leistung nicht nur 100% sondern mehr vor RDNA2.
Dass man in RT-Spielen keine 100% mehr FPS sieht liegt einfach daran, dass die meisten noch sehr wenig RT verwenden, und RT nicht der einzige limitierende Faktor ist.
In Spielen die mehr RT verwenden sieht man auch leicht einen wesentlich größeren FPS-Unterschied:
https://www.igorslab.de/wp-content/uploads/2022/10/Cyberpunk-2077-FPS-2160p-DX12-Ultra-RT-On.png
Laut deinem eigenen Cherrypick Benchmark sind das eben keine "100% sondern mehr", es sind "nur" knapp unter 100%. Mathe sollte man schon können, oder halt einfach die richtigen Kirschen rauspicken.
Laut deinem eigenen Cherrypick Benchmark sind das eben keine "100% sondern mehr", es sind "nur" knapp unter 100%.
Wie oft muss ich noch sagen, dass die Raytracing-Performance nicht zu 100% für die FPS verantwortlich sind.
Die reine Raytracing-Performance von Ampere ist mehr als 100% schneller als RDNA2. In einem hybrid Renderer spiegelt sich das logischerweise nicht 1:1 in den FPS wider.
Der "Cherrypick" Benchmark ist für den Vergleich der Raytracing-Performance eben nicht "Cherrypick" genug, dafür wäre ein vollständiger Pathtracer angebracht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.