PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 4070 & 4080 im TimeSpy um +47% bzw. +65% schneller als ...


Leonidas
2022-07-30, 16:04:41
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4070-4080-im-timespy-um-47-bzw-65-schneller-als-ihre-ampere-vorgaen

Gast
2022-07-30, 17:30:46
4070 also langsamer als eine 3090/3090ti bei 300w. Ja toll, wahrscheinlich die 3.0GHz Karte.

47% von wegen Faktor x2...träumt weiter und der nächste Hypetrain rast gegen die Wand. Vermutlich zum gleichen Preis, 800 bis 1000. lol.

bbott
2022-07-30, 17:40:28
Und die Performance Prognosen schrumpfen und schrumpfen... von über 2,x auf, 2,0 auf 1,8 auf unter 1,5... aber immerhin schafft es eine Karte auf ~1,8.
Die Effizenz wird weiter sinken, da die mm^2 gegen Takt bzw. Watt eingetauscht werden (je kleiner die Karte, eine Alibi Karte schafft dann eine bessere Effizenz), ist für die Marge besser Folgekosten dem Kunden aufs Auge zu drücken.

Nazar
2022-07-30, 17:46:41
Ohne die dazugehörigen Verlustleistungen beim Erreichen der Benchmarkwerte zu kennen, ist das für mich erst einmal eine reine Luftnummer.
Sollten die 4090 TS Werte tatsächlich bei einer maximalen Verlustleistung von 450 Watt erreicht worden sein, dann ist das wirklich ein super Ergebnis, nur wundere ich mich, dass die damit zusammenhängenden Werte (Verlustleistung) immer wieder unter den Teppich gekehrt werden.
Aber der Hyptrain fährt weiter.
Was mich extrem stutzig machte, ist, dass der Kühler der 4090, trotz angeblicher auch (3090Ti) "nur" 450 Watt Verlustleistung und deutlich besserer Energieeffizienz, dann noch mal ein gutes Stück Höher/Breiter werden soll/muss. Warum?
Gleiche Verlustleistung wie die 3090 Ti, besserer Fertigungsprozess = größerer Kühler?
Das passt vorne und hinten nicht.

Gast
2022-07-30, 18:24:23
Und die Performance Prognosen schrumpfen und schrumpfen... von über 2,x auf, 2,0 auf 1,8 auf unter 1,5... aber immerhin schafft es eine Karte auf ~1,8. Bullshittiges Gerante, finden sie nicht? 2.X und gesunken gilt für 4090, aber nicht darunter. Zumal viel von der Kritik auf Interpretation beruht.
Pure Spekulation, aber die 4090 wäre wohl stärker rausgekommen, wenn AMD entsprechend vorgelegt hätte. Das hebt sich Nvidia jetzt als Konter auf. Fertig.

Effizienz ist anderes Thema, aber definitiv zu beachten.

iamthebear
2022-07-30, 19:42:45
Und die Performance Prognosen schrumpfen und schrumpfen... von über 2,x auf, 2,0 auf 1,8 auf unter 1,5... aber immerhin schafft es eine Karte auf ~1,8.

Das liegt zum Teil daran, dass Nvidia mit den Namensbzeichnungen gegenüber Ampere um 1 Stufe hochgerückt ist:

4090 ist ein AD102 mit 11% beschnittenen SM und deutlich gekürzter TDP.
Das entspricht ca. der 3080 12GB

4080 ist ein fast vollständiger AD103 der 1.7x weniger Shader und 1.5x weniger Speicherbandbreite hat aber dafür hochgetaktet wurde.
Das entspricht in etwa der 3070 Ti

4070 hat sowohl SMs als auch SI um 2.4x gekürzt.
Das entspricht in etwa der 3060

Wenn man mit dem technischen Nachfolger vergleicht, so wird man schon locker auf über 2x kommen:
"The beast" vs. 3090 Ti
4090 Ti vs. 3090
4090 vs. 3080
4080 vs. 3070
4070 vs. 3060

Nur hilft das wenig wenn Straßenpreise und Verlustleistung ganz anders aussehen.

Was jedoch falsch war das war die Aussage "2x in real gaming", denn in echten Spielen wenn zum Teil schon die CPU ziemlich bremst wird der Performanceunterschied noch deutlich geringer sein als die in 3DMark erreichten Werte.

Gast
2022-07-30, 20:03:48
Vor allem hilft es wenig, weil alle Prognosen im Vorfeld ein kompletter Schuss ins Blaue waren. Aber keiner wills wahrhaben. Jedes Mal dieser Hype.

Timespy scheint NVidia sich gezielt herauszupicken, weil AMD zuletzt in Timespy NVidia klar geschlagen hat. Wir wissen alle was AMD dann in Spielen leistete. Diese Benchmarks sind völliger Humbug und wir können davon ausgehen das die Karten realtime je nach Spiel gerade 40-50% schneller sind und in nicht optimierten auf NVidia noch langsamer. Nicht 2,x mal. Schwachfug, was schon zig mal geschrieben wurde aber nicht wahr ist!

Das 19000 Ergebnis wurde bei einem Powertarget von 800w eingefahren. Wie weit oc das für die 4090 ist, kann sich jeder selbst ausmalen. So einen Infosalat und Bullshit zu vergleichen, und in Prognosen einfließen zu lassen, ist einfach nur gaga.

Aber Leo weiss es immer besser. Wenns um NVidia geht sowieso.

Es ist genauso ein Schwachsinn in Cinebench, auf den nun alle CPU Hersteller optimieren. Das hat mit reiner Spieleleistung rein gar nichts zu tun. Genauso wie man auf TFlops rumreitet. Null Aussagen zur reinen Spieleperformance kann man dort ableiten. Es hat den Anschein, dass NVidia die Pipeline wieder auf Turingverhältnisse umgestellt hat, weil das effizienter ist, aber deutlicher am Leistungszuwachs kostet.

Zuletzt sind nur die überteuerten Chips wirklich schneller, das wird kaum Anreize schaffen das die Leute groß auf Lovelace wechseln, wer Ampere hat braucht es nicht. Verbrauche sind ja ähnlich. Man muss ja diesen riesigen Berg an Hardmüll erstmal verkaufen.

Wenn AMD jetzt etwas im Köcher hat was NVidia nicht weiss, sind sie richtig am Hintern. Aber was interessiert mich der Mist den gestern gelabert habe. Ich kann diesen ganzen Schrott von dem Heini mit der Lederjacke nicht mehr hören, nicht ein einziges Mal hat NVidia die letzten Jahre eingelöst was sie angekündigt haben und werden für diesen Mist auch noch bejubelt, weil man sich wie Intel überall eingekauft hat. Intel bekommt gerade die Rechnung dafür.

Diese Doppelmoral ist schon auffällig.

madshi
2022-07-30, 20:30:42
Also irgendwas paßt da nicht, meiner Meinung nach.

Es kann nicht angehen, daß die 4070 quasi die gleiche Performance und fast den gleichen Stromverbrauch hat wie die 3090 (ok, 300W vs 350W). Das kann ich mir so nicht vorstellen, beim Schritt vom Samsung 8nm auf TSMC 4-5nm, wobei die 3090 ja auch noch 24GB RAM hat statt 10GB, was ja auch noch extra Strom kosten sollte. Entweder stimmt da die Performance-Prognose nicht, oder der Stromverbrauch, soweit ich das einschätzen würde.

BlacKi
2022-07-30, 20:35:06
ich glaube das die früheren tdp zahlen nicht mehr stimmen. sonst macht das alles keinen sinn. die zahlen widersprechen sich.

ich finds gut, das kimi das mit den real test ergänzt hat, ich habe das anders herausgelesen.

Platos
2022-07-30, 20:43:40
Und die Performance Prognosen schrumpfen und schrumpfen... von über 2,x auf, 2,0 auf 1,8 auf unter 1,5... aber immerhin schafft es eine Karte auf ~1,8.
Die Effizenz wird weiter sinken, da die mm^2 gegen Takt bzw. Watt eingetauscht werden (je kleiner die Karte, eine Alibi Karte schafft dann eine bessere Effizenz), ist für die Marge besser Folgekosten dem Kunden aufs Auge zu drücken.

Wann gab es Prognosen zur 4080 und 4070, die von 2,x oder 1,8 oder sonst was in der Nähe sprechen?

Niemals...

Es war jedem, der nicht hyped, klar, dass man sich bei allem unterhalb der Top-Dogs nicht bei solchen Steigerungen befinden wird.

Gast
2022-07-30, 21:49:39
Alle Jahre die gleichen psychologischen Marketingtricks und RTL-Unterhaltung :D
Das sind wieder bewusst falsch gestreute Gerüchte die eine Enttäuschung hervorrufen sollen, damit der überhypte-Hypetrain von +100 - 120 % Leistung für rtx 4060/4070/4080 (welcher nicht eingehalten werden kann) gedämpft wird; wenige Monate vor Release.
Mit Sicherheit limitiert durch Bios oder Treiber, welche nur Nvidias hohchrangige Beschäftigte haben und nicht an die AIBs weitergeben.

Die Wochen vor Release bekommen die AIBs das finale Bios, die Wochen um das Erscheinen gibt es den finalen Treiber der Leistung freischaltet und alles sieht es wieder etwas besser aus. :)
Die Enttäuschung (Dämpfung des Hypetrains) darf halt nicht wenige Wochen vor Release geschehen (negative Auswirkungen auf Verkäufe), sondern muss Monate davor stattfinden, damit der Kunde Zeit hat die geringere Leistungsfähigkeit zu akzeptieren/mental die Enttäuschung zu akzeptieren.
Eine psychologische-Talfahrt halt. Denial - the five stages of grief.
Vor/Am Release ist dann folglich die Enttäuschung dass die "Leistung doch nicht mehr so hoch ausfällt wie der Hypetrain es vormachen wollte" nicht mehr so groß.

Nvidias Marketing spielt die gleiche Taktik wie alle Jahre wieder.
Die psychologische Talfahrt gilt für alle Produkte unterhalb der rtx 4090/des Flagschiffs.
Das dämmlich überteuerte 1500 - 2000 Schekel Flagschiff bleibt davon ausgeschlossen (deshalb ist auch der Abstand zur rtx 4080ß diesmal so groß). Der Kunde wird somit psychisch verleitet zum überteuerten Produkt zu greifen, da die fives stages of grief hier nicht so stark zum Tragen gekommen sind.

Alle Jahre das gleiche. Jemand noch nicht verstanden? :D :D :D

Ansonsten lässt sich nur 65 % mehr Leistung der rtx 4080 bei gleichzeitig 30 % mehr Stromverbrauch einfach nicht erklären. Das ist ein 1.5+ Node-Sprung mit weiteren Verbesserungen.
Denn irgendwo muss das deutlich mehr an Transistoren ja hin.
Noch ist der Stand nicht erreicht dass man all die Transistoren in die RT-Kerne stecken kann; noch braucht es Rasterizerleistung bei 4K UHD.

bbott
2022-07-30, 21:53:58
Wann gab es Prognosen zur 4080 und 4070, die von 2,x oder 1,8 oder sonst was in der Nähe sprechen?

Niemals...

Es war jedem, der nicht hyped, klar, dass man sich bei allem unterhalb der Top-Dogs nicht bei solchen Steigerungen befinden wird.
Da bei AMD Navi 22/23 und 24 weiter laufen sollen und die 7000er oben drüber positioniert werden sollten, war die impliziet, so sonst recht sinnlos.
Wenn alles auf ein einfach eine Karte oben drüber hinaus laufen sollte warum Navi 31 nicht Fury nennen und ad102 Titan?!
Ich denke viele inkl. mir gingen von einen allgemeinen großen boost aus, alleine schon um den Konkurrenten nicht hinterher zu laufen...
Die alten GPUs umgelabelt unter neuem Namen, wäre nicht das erstemal...

Gast
2022-07-30, 21:55:58
Was mich extrem stutzig machte, ist, dass der Kühler der 4090, trotz angeblicher auch (3090Ti) "nur" 450 Watt Verlustleistung und deutlich besserer Energieeffizienz, dann noch mal ein gutes Stück Höher/Breiter werden soll/muss.Selbst 100x bessere Effizienz führt bei gleicher Verlustleistung nicht zu kleinerem Kühler. Für möglicher Weise größeren FE-Kühler müsste es andere Gründe geben.

GerryB
2022-07-30, 22:19:49
Ich würde die Generationen nur anhand der Units vgl., wo dann erstaunlicherweise die 4070 mit FP32+INT ähnlich unterwegs ist wie die 3090
mit nuuur FP32. (quasi ein Rückgang auf Turing-Architektur)

Die Rohleistung ist lt. TPU bei Beiden ähnlich.
... nur am TSE gemessen ist die 4070 kaum ein Quantensprung bzgl. Effizienz, was man wg. 5nm gehofft hatte
(die ca. 15% Unterschied bekommt man überwiegend vom schmalen sparsamen Interface und GDDR6 ohne X ?)

iamthebear
2022-07-30, 23:02:37
Also basierend auf dem, was wir bisher von der Performance und den Taktraten wissen sehe ich 2 Optionen:
a) Es gibt keine IPC Verbesserungen. Falls es die zusätzlichen INT Einheiten gibt, so werden diese wie bei Hopper nicht gleichzeitig mit den FP32 Einheiten nutzbar sein, wobei sich mir die Frage stellt, ob dies bei Ampere nicht auch schon so war und nur bei Hopper anders eingezeichnet wurde.
b) Es gibt die IPC Verbesserungen z.B. die INT Einheiten, jedoch werden diese von anderen Änderungen komplett wieder aufgefressen. Die 50% mehr Takt kommen ja auch nicht nur von der Fertigung. Dafür hat Nvidia sicher einige Architekturänderungen vornehmen müssen, die eventuell auch IPC gekostet haben.

Ich kann mich hierbei an einen schon etwas älteren Tweet von AGF (@XpeaGPU) erinnern (den ich jetzt nicht mehr finde). Dieser meinte, dass die IPC Steigerung 0-20% beträgt und stark von Spiel zu Spiel schwankt.
Das würde sich mit den letzten Leaks von kopite decken wenn wir davon ausgehen, dass TSE zu den 0% gehört und die 20% nur in Sonderfällen zutreffen. Ich kann mir gut vorstellen, dass dies dann passiert wenn die doppelten ROPs zuschlagen.

GerryB
2022-07-30, 23:07:38
INT kann bei Ada ohne Einbuße bei der FP32-Leistung parallel mit genutzt werden, ... ala Turing.
Also werden Games, wo INT ne Rolle spielt, dann effizienter laufen.

Was im TSE diesbezgl. los ist, who knows.

Platos
2022-07-30, 23:50:34
Da bei AMD Navi 22/23 und 24 weiter laufen sollen und die 7000er oben drüber positioniert werden sollten, war die impliziet, so sonst recht sinnlos.
Wenn alles auf ein einfach eine Karte oben drüber hinaus laufen sollte warum Navi 31 nicht Fury nennen und ad102 Titan?!
Ich denke viele inkl. mir gingen von einen allgemeinen großen boost aus, alleine schon um den Konkurrenten nicht hinterher zu laufen...
Die alten GPUs umgelabelt unter neuem Namen, wäre nicht das erstemal...

Das glaube ich kaum. Ich denke eher, den meisten war bewusst, dass die Angaben immer auf nur das Top-Modell bezogen sind.

Ein Fall für eine Umfrage :D ?

hardtech
2022-07-31, 01:20:18
noch wichtiger:
gibt es auch karten in der 200w klasse?

schlage vor, die karten der hersteller nicht mehr nach namen zu kategorisieren, sondern nach watt klassen, wie z.b. 200, 300, 400w karten.

ich suche 200w karte, die leise ist und effizienter als eine 3060 ti ist.
wird es da bis frühjahr 23 etwas geben? >> we will see!

Gast
2022-07-31, 02:19:11
noch wichtiger:
gibt es auch karten in der 200w klasse?

schlage vor, die karten der hersteller nicht mehr nach namen zu kategorisieren, sondern nach watt klassen, wie z.b. 200, 300, 400w karten.

ich suche 200w karte, die leise ist und effizienter als eine 3060 ti ist.
wird es da bis frühjahr 23 etwas geben? >> we will see!

Seh ich genauso, denn die Entwicklung der Verlustleistung pro Leistungskategorie kann man ja mittlerweile nur noch als geistesgestört bezeichnen. 450 Watt für eine RTX 4080, die ja noch nicht mal das Topmodell darstellt ist doch pervers.

Für die große Mehrheit wäre es ein echter Mehrwert, wenn die Grafikkartenvergleiche primär nach TDP und sekundär nach Performance und drittens Preis pro Performance in der TDP-Klasse durchgeführt werden, denn bei sehr vielen dürfte das Verlustleistungsbudget die Kaufentscheidung doch maßgeblich beeinflussen..

Hoffentlich werden die AMD-Karten diesmal deutlich effizienter als Nvidias Kernreaktoren. AMD hatte da je einiges versprochen, was die Verbesserung der Effizienz betrifft...

Leonidas
2022-07-31, 04:49:58
47% von wegen Faktor x2

Und die Performance Prognosen schrumpfen und schrumpfen... von über 2,x auf, 2,0 auf 1,8 auf unter 1,5... aber immerhin schafft es eine Karte auf ~1,8.

Die 4070 wurde zuletzt nicht auf x2,0 eingeschätzt, sondern auf x1,6-1,8. Die 4080 hatte dieselbe Prognose und hält diese vorerst. Die 4070 kommt darunter aus. Den Grund habe ich genannt: Ich hatte die Prognose nicht angepasst, nachdem die Meldung über das gekürzte Speicherinterface kam. Hätte ich tun sollen.




Ich denke eher, den meisten war bewusst, dass die Angaben immer auf nur das Top-Modell bezogen sind.

Das hoffe ich mal. Es wurde an dieser Stelle mehrfach und seit Monaten darauf hingewiesen, dass nur AD102 den ganz großen Performance-Gewinn haben kann und alle kleineren Lösungen darunter liegen müssen.

Gethvel
2022-07-31, 05:01:01
Vor allem hilft es wenig, weil alle Prognosen im Vorfeld ein kompletter Schuss ins Blaue waren. Aber keiner wills wahrhaben. Jedes Mal dieser Hype.

Timespy scheint NVidia sich gezielt herauszupicken, weil AMD zuletzt in Timespy NVidia klar geschlagen hat. Wir wissen alle was AMD dann in Spielen leistete. Diese Benchmarks sind völliger Humbug und wir können davon ausgehen das die Karten realtime je nach Spiel gerade 40-50% schneller sind und in nicht optimierten auf NVidia noch langsamer. Nicht 2,x mal. Schwachfug, was schon zig mal geschrieben wurde aber nicht wahr ist!

Das 19000 Ergebnis wurde bei einem Powertarget von 800w eingefahren. Wie weit oc das für die 4090 ist, kann sich jeder selbst ausmalen. So einen Infosalat und Bullshit zu vergleichen, und in Prognosen einfließen zu lassen, ist einfach nur gaga.

Aber Leo weiss es immer besser. Wenns um NVidia geht sowieso.

Es ist genauso ein Schwachsinn in Cinebench, auf den nun alle CPU Hersteller optimieren. Das hat mit reiner Spieleleistung rein gar nichts zu tun. Genauso wie man auf TFlops rumreitet. Null Aussagen zur reinen Spieleperformance kann man dort ableiten. Es hat den Anschein, dass NVidia die Pipeline wieder auf Turingverhältnisse umgestellt hat, weil das effizienter ist, aber deutlicher am Leistungszuwachs kostet.

Zuletzt sind nur die überteuerten Chips wirklich schneller, das wird kaum Anreize schaffen das die Leute groß auf Lovelace wechseln, wer Ampere hat braucht es nicht. Verbrauche sind ja ähnlich. Man muss ja diesen riesigen Berg an Hardmüll erstmal verkaufen.

Wenn AMD jetzt etwas im Köcher hat was NVidia nicht weiss, sind sie richtig am Hintern. Aber was interessiert mich der Mist den gestern gelabert habe. Ich kann diesen ganzen Schrott von dem Heini mit der Lederjacke nicht mehr hören, nicht ein einziges Mal hat NVidia die letzten Jahre eingelöst was sie angekündigt haben und werden für diesen Mist auch noch bejubelt, weil man sich wie Intel überall eingekauft hat. Intel bekommt gerade die Rechnung dafür.

Diese Doppelmoral ist schon auffällig.

Gesagt wurde dass die Performance in dem Spiel Control mit Raytracing und DLSS etwa 2x sein würde. Das dürfte schon passen und wäre auch ausschlaggebend. Bin gespannt ob AMD mit den neuen GPUs bezüglich RT und FSR endlich wieder konkurrenzfähig sein wird, die 6800er Reihe war ja eigentlich für die Tonne, gescheites RT quasi nicht möglich. Wie konnte man diesen Trend nur so verschlafen.

GerryB
2022-07-31, 07:01:07
RT war in der jetzigen Generation kein Verkaufsargument für AMD, ... eher der Verbrauch, wo
man easy mit altem schwachem NT aufrüsten konnte, ... ohne Mehrkosten für ein neues NT und
Gehäuselüftung.
Warum hätte man unmäßig Chipfläche opfern sollen für ein Nischenfeature?
Wer spielt schon Battlefield mit RT=on ? ... kostet nur sinnlos Watt bei mir (siehe Anhang on/off)
(erste Ansätze mit AO per RT kann RDNA2 ausreichend gut, ... Hybrid-RT geht auch in AMD-Games)

btw.
Eher hat sich mit RT=ON gezeigt, das einige Amperes net genug Vram haben!?
--> bin mal gespannt wie sich das mit der 4070@160bit dann so macht

Gethvel
2022-07-31, 08:16:04
RT war in der jetzigen Generation kein Verkaufsargument für AMD, ... eher der Verbrauch, wo
man easy mit altem schwachem NT aufrüsten konnte, ... ohne Mehrkosten für ein neues NT und
Gehäuselüftung.
Warum hätte man unmäßig Chipfläche opfern sollen für ein Nischenfeature?
Wer spielt schon Battlefield mit RT=on ? ... kostet nur sinnlos Watt bei mir (siehe Anhang on/off)
(erste Ansätze mit AO per RT kann RDNA2 ausreichend gut, ... Hybrid-RT geht auch in AMD-Games)

btw.
Eher hat sich mit RT=ON gezeigt, das einige Amperes net genug Vram haben!?
--> bin mal gespannt wie sich das mit der 4070@160bit dann so macht

Dass RT ein Nischenfeature ist und Battlefield eines der Vorzeigetitel ist halt schon fast vier Jahre her. Heute ist es glücklicherweise so ziemlich Standard bei neuen Spielen und Nvidia wird da noch eine Schippe drauflegen.

Daredevil
2022-07-31, 09:24:49
Beißt sich das nicht etwas, das man Battlefield einmal nennt als Mainstream Titel und dann RT als Nische?
Das war eher die Stunde der Geburt aus dem Nischendasein raus.

Tangletingle
2022-07-31, 09:49:07
Kommt immer darauf an wie man Nische definiert. Für mich ist RT weiterhin Nische da es eben nur eine minimale Anzahl an Titeln im Gesamtmarkt gibt.

Gast
2022-07-31, 11:34:46
Noch ist der Stand nicht erreicht dass man all die Transistoren in die RT-Kerne stecken kann; noch braucht es Rasterizerleistung bei 4K UHD.
Das wird nie passieren Raytracing kommt nicht ohne Rasterizierung aus, weil das die grundlegende Technologie für diese Bildausgabe ist. Sorry aber auch das ist ein Märchen und wird immer wieder komplett falsch erklärt.

Bei Vollbildanteilen wird lediglich der Hybridanteil aus bspw. SSR und RT Reflection bis auf 0% minimiert.

Das liegt daran, weil auch das immer wieder von irgedendwelchen Flachzangen im www, die sich als Insider Experten ausgeben, erklärt wird. Nv RTX, Ms DXR und AMDs IS Raytracing braucht die gerasterten Texturen. Es gibt auf Basis von DXR kein Vollbildraytracing und es ist auch nie geplant gewesen. Raytracing kann hier lediglich alte Technologien ersetzen, wie eben Schattendarstellung, Beleuchtung, Reflektionen. Es braucht aber die Texturen, Geometrie, Mapping usw.,weil es genau auf diesen aufbaut.

Ist genauso Marketinggelaber wie jedes mal um die Leistungszuwächse bei neueren Gens und viel blah blah.

Alles andere ist Bullshitbingo der Interexperten, die keine sind.

Selbst wenn jedes Pixel mit einem Ray beschossen werden kann, braucht es Rasterizierung. Weil wir Immer einen gerastertes Bild und damit Koordinaten von Pixel in einer Maske zu Gesicht bekommen. Diese Geometrie braucht auch Raytracing, weil es das grundlegende mathematische Koordinatenverfahren ist die Bilder so auszugeben.

Gast
2022-07-31, 11:54:12
Hmm, falls die 4070 wirklich so sein wird, wird sie ein ziemlicher Flop, hängt zwar von dem Preis ab, aber trotzdem.
Wenn man jetzt eine gute 3080 12GB, 3080ti oder vielleich 3090/ti günstig kriegt werden diese genauso gut oder noch besser sein und mehr Speicher haben.
So wie schon oben gesagt wurde, alle Karten sind tatsächlich eine Stufe niedrieger als bei Ampere, auch die vermeindliche 4090 ist eher eine 4080ti/super (vielleicht mit 120-124SM)
Nvidia hatte einfach einen viel zu großen Sprung zwischen AD103 und AD102 gemacht. Hätte man eher den AD103 ein wenig größer in Richtung 96-102SM gemacht.

Platos
2022-07-31, 12:14:03
Das ist doch aber meistens so, dass man bei guten Abverkaufsangeboten (oder Gebrauchtangebote) besser weg kommt, wie mit der neuen Generation.

Es gab ja damals auch 2080Tis für 500 gebraucht. Jeder der da zugeschlagen hat, hat alles richtig gemacht (ich leider nicht).

hardtech
2022-07-31, 13:14:55
immer wieder erstaunlich, dass gäste vor release wissen, welche karten ein flop werden.

nichts als kaffeesatzleserei!

entspannt euch mal alle. wartet auf 1-2 unabhängige tests. gebt auf dieser basis euren senf dazu ab. alles andere ist die x-fache wiederholung einer meinung über ein produkt, dessen eigenschaften man nicht kennt. auch nicht die verfügbarkeit oder den preis. ergo: alles nebulös.

Gast
2022-07-31, 13:32:20
immer wieder erstaunlich, dass gäste vor release wissen, welche karten ein flop werden.

nichts als kaffeesatzleserei!

entspannt euch mal alle. wartet auf 1-2 unabhängige tests. gebt auf dieser basis euren senf dazu ab. alles andere ist die x-fache wiederholung einer meinung über ein produkt, dessen eigenschaften man nicht kennt. auch nicht die verfügbarkeit oder den preis. ergo: alles nebulös.

Hey warum liest du dir die Sachen dann durch??? Kannst dir das Lesen und auch die Kommentare sparen, dann hast du mehrere Minuten in deinem Tag gespart.
Man darf wohl zu den aktuell bekannten Daten seine Meinung im Forum teilen, oder nicht?

Gast
2022-07-31, 16:28:18
immer wieder erstaunlich, dass gäste vor release wissen, welche karten ein flop werden.

nichts als kaffeesatzleserei!

entspannt euch mal alle. wartet auf 1-2 unabhängige tests. gebt auf dieser basis euren senf dazu ab. alles andere ist die x-fache wiederholung einer meinung über ein produkt, dessen eigenschaften man nicht kennt. auch nicht die verfügbarkeit oder den preis. ergo: alles nebulös.
Es ist genauso nebulös im Vorfeld Prognosen zu veröfftlichen die meilenweit daneben liegen, wobei die Insider bis heute nicht erklärt haben, bei welchem Powerlimit diese Benchmarks zu Stande kommen. Ich bin der Meinung, es wird absichtlich zurückgehalten um die Gen besser aussehen zu lassen als sie ist, weil sonst der Shitstorm losgeht, bei Leistungszuwachs=Leistungsaufnahme. Das scheint nicht zu stören.

Die 4070 ist eine totale Enttäuschung, der Faktor liegt nicht mal bei 1.5x. Anfänglich fabulierte man von 2,5x, nun schiebt man das in Richtung einer Titan Karte. Das hilft dem Spieler soviel wie..., und Nvidia macht einfach weiter wo sie aufgehört haben, die interessieren sich bei den Spielern nur für eins, viel Geld einnehmen. Eine 3080 ist vermutlich kein bißchen schlechter als die 4070, mit 160bit und 10gib Vram. Schon eine olle 3060 oder 6700 hatte in dieser Gen mehr Vram. Ich frag mich ehrlich wozu dieser Chip 300w schluckt. Als wenn das noch Mainstream wäre. Nvidia hat den Verstand verloren.

Nun weiss man vermutlich auch, warum AMD sich fast zu auf den Mainstream konzentriert, zu vermuten ist die hauen Nvidia eine 4080 und 4070 komplett um die Ohren. Was Nvidia sogar recht kommt, um ihren überteuerten Mondpreisausschuss als 4090 verkaufen zu können.

Soviel deaktivieren, dafür kann es nur einen Grund geben, der wohl besch*ssene Ausbeute unter N4 bedeutet und viel Schrott den man loswerden muss. So streut man dann neusten Gerüchten nach, auch noch die 3000 Super in den Markt. Welche Daseinsberechtigung hat dann eine 4070? , das ist doch das gleiche Leistungsniveau bei fast gleicher Leistungsaufnahme für Nvidia ziemlich billig produziert, weil komplett als Ausschuss verwurstet. Zu vermuten ist Nvidia verkauft eine 3080 Super mit 12GiB dann zum selben Preis, wie eine 4070. Die Karte ist also komplett überflüssig, wo bleibt da der Fortschritt?

Die Lovelacegurkengen für Spieler von Nvidia, wenn man nicht 1 oder 2k auf den Tisch legt gibt es nur noch Müll, alle drei Generationen müssen sie einmal einen Fehlschuss hinlegen. Die Insider indes berichten von so tollen Leistungszuwächsen, wo nur? Diese bezahlten Marktetingheinis...deren Infos dann ohne jedwede Bewertung, lauthals rausposaunt werden.

Für mich passt das alles gut zusammen, um jetzt schon den Shitstorn niedrig zu halten. Wenn die Karten mehr RT können wird sich Nvidia das fürstlich bezahlen lassen, für was nur? High SSR oder Shadow, sieht keinen Deut anders aus als Medium RT, für High oder Ultra reicht die Leistung nativ bei keinem einzigen Chip egal in welcher Leistungsklasse er gehandelt wird und selbst in 1080p micht aus. Nvidias dediziertes RTX bläst dabei die Dices künstlich auf und verteuert sie maximal, nicht nur im Preis sondern auch was die Leistungsaufnahme und damit Abwärme angeht. Das muss man den Leuten irgendwie verkaufen, jetzt wo Mining kaum noch eine Rolle spielt.

Die Dumpfbacken werden wieder jeden Deppenaufschlag dafür zahlen, wie immer. Was kostet die Welt.

Freestaler
2022-07-31, 16:47:10
Eine Meinung gehört zwingend zu einer Person. Sie ist weder subjektiv noch objektiv (glauben, wissen) begründet. Sie braucht also sinnvollerweise einen Bezug zum Meinungäusserndern und "Gast" kann halt jeder sein.

Klar dein Recht als Gast, schade für die Diskussion, da die Meinung kein eindeutigen Bezug hat.

Ps: auch von einem Fail mit "kommt aber auf den Preis an" zu sprechen eben da der Preis noch nicht feststeht, ist auch keine "sinnhafte" Meinung. Und dann ohne den Bezug zur Personen nur schwer einzuordnen. Im Sinne: Das Wetter ist schlecht, ausser es ist sonnige. Und wie ist es, wisse wir halt nicht.

Edit: Mei Post bezieht sich auf den Gastbeitrag von: Gast 2022-07-31, 11:54:12 nicht auf den über mir (war der noch nicht freigeschaltet?). Einmal mehr, "Gast" kann ungeschickt sein.

Platos
2022-07-31, 16:54:30
Was für ein Stuss du schreibst. Als ob ein Namen irgend eine Relevanz für die Beurteilung einer Meinung hätte.

Daredevil
2022-07-31, 17:28:52
Kommt immer darauf an wie man Nische definiert. Für mich ist RT weiterhin Nische da es eben nur eine minimale Anzahl an Titeln im Gesamtmarkt gibt.
Für das Wort Nische gibt es eigentlich eine ganz genaue Bedeutung, die muss nicht jeder anders definieren.
Mit BFV ist RT aus der "Nische" in den "Mainstream" gerutscht.

Dass die wenigsten es aktivieren, da zu langsame Hardware oder inkompatible Hardware, ist eine andere Geschichte.

Freestaler
2022-07-31, 17:35:20
Was für ein Stuss du schreibst. Als ob ein Namen irgend eine Relevanz für die Beurteilung einer Meinung hätte.
Meint Platos zum Stuss vom Freestaler. Lässt doch gut einordnen. ;-)

Edit: siehe Edit. Evtl gab dad so noch mehr unsinn.

hardtech
2022-07-31, 18:51:03
Wie man weiss, weiss man nix.
Ausser: es wird teurer und heisser.

Und dass gast nvidia gewinnmaximierung vorwirft ist etwas lächerlich. Genauso könnte ich über die produktpolitik und aufpreislisten von bmw und mercedes „ablästern“. Wie kann es sein, dass in einem wagen anno 2022 keine sitzheizung inkludiert ist oder 3-4 andere ausstattungsmerkmale mitbestellt werden müssen, nur um massagesitze zu erhalten.
Entweder bezahlen oder das basismodell nehmen.

Ich beanstande lediglich die situation, dass es keine gescheiten 200w karten mehr gibt. Das ist ein mangel. Was nvidia mit karten jenseits 300w macht, geht mir am allerwertesten vorbei, da ich weder ein wasserfan bin (im Computer) noch ein freund von lauten föhnen oder 5 slot-gpus.

Insofern geht mir die produltpolitik etwas auf den senkel.

OpenVMSwartoll
2022-07-31, 19:45:59
BMW und Sitzheizung, amüsantes Thema, wenn auch sehr OT, aber man kann das Feature jetzt mieten. Früher hatte man nen Knopf, schöne neue Welt...

Zustimmen kann ich dabei, dass auch ein Gast eine Meinung vertreten kann und diese so berechtigt ist, wie jede andere. Schwierig wird, wenn jemand so unsachlich auf die Kacke haut, so vieles vermengt, das Leo schon unzählige Male klargestellt hat und dann keine Farbe bekennt.

Früher schrieb ich als Gast_16, damit man wusste, wem man Fehlurteile vorhalten kann.

Zum restlichen Textblock des Gastes: Sollte man bis zum endgültigen Urteil nicht besser noch etwas warten?

Gast
2022-07-31, 23:32:32
Die nur +47% Performance-Gewinn der GeForce RTX 4070 liegen allerdings unterhalb der letzten Performance-Prognose – wobei jene die Spezifikations-Änderung vom 192-Bit- auf ein 160-Bit-Speicherinterface noch nicht einrechnete. Augenscheinlich kostet dies die GeForce RTX 4070 doch etwas an Potential und ist damit deren Performance-Plus nicht ganz so groß wie bei der GeForce RTX 4080. Dem wurde durch eine neue Performance-Prognose nunmehr Rechnung getragen (ca. 1,4-1,7fache gegenüber GeForce RTX 3070). Der Performance-Sprung bei der GeForce RTX 4070 liegt dennoch im vernünftigen Rahmen und könnte zudem in der Praxis auch wieder etwas höher ausfallen, wenn man diese Karte (wie mit dem TimeSpy Extreme) nicht gerade unter UltraHD/4K testet. Denn dafür ist die GeForce RTX 4070 – trotz einer FP32-Rechenleistung auf Höhe der GeForce RTX 3090 Ti – schlicht nicht konzipiert.

Bis auf diesen gewissen Abschlag bei der GeForce RTX 4070 kommen diese neuen TimeSpy-Werte ganz gut dort heraus, wo man die kleineren Modelle der GeForce RTX 40 bislang erwarten konnte. Nun muß sich natürlich erst noch bestätigen, dass Spiele-Benchmarks möglichst ähnlich klingende Resultate auswerfen, ein synthetischer Tester muß gerade in der absoluten Ergebnis-Höhe niemals wirklich korrekt sein. Halten sich diese TSE-Ergebnisse im groben Maßstab, dürfte die GeForce RTX 4070 in etwa auf der Performance-Höhe einer GeForce RTX 3080 Ti bis 3090 herauskommen, die GeForce RTX 4080 hingegen eine GeForce RTX 3090 Ti FE um ca. 40% Mehrperformance in die Tasche stecken. Dass sich die zweitbeste Lösung des neuen Portfolios so deutlich von der besten Lösung der Alt-Generation absetzen kann, zeigt nochmals den enormen generellen Sprung der Ada-Lovelace-Generation an.
Gesülze vom Feinsten. Der Autor kann bei Nvidia sicher gerne anfangen. Hat nichts mit freier Presse und authentischer Berichterstattung zu tun. Liest sich wie Lobeshymnen einer beauftragten Tochterfirma von Nvidia.

+100% gab man seinerzeit als machbares Update an: https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4090-mit-126-shader-clustern-und-der-doppelten-performance-einer-rt

https://www.3dcenter.org/news/news-des-26-mai-2022

https://www.3dcenter.org/news/news-des-2-juni-2022

450w mit Dualslot
https://www.3dcenter.org/news/news-des-10-juni-2022

Taktrate
https://www.3dcenter.org/news/news-des-20-juni-2022
https://www.3dcenter.org/news/news-des-30-juni-2022

Kann man endlos so fortführen.

Leonidas
2022-08-01, 03:22:00
Gesülze vom Feinsten. ...

+100% gab man seinerzeit als machbares Update an: https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4090-mit-126-shader-clustern-und-der-doppelten-performance-einer-rt

...

Deine Kritik bezieht sich auf die 4070, Dein "Beleg" auf die 4090.

Legendenkiller
2022-08-01, 09:02:21
Naja ... Die 3080 war ja schließlich nach Aussage Nvidia auch genau doppelt so schnell wie eine 2080ti.

Und genauso dieses doppelt so schnell sind sie jetz wieder. ;D
Die haben da im Marketing halt variable Maßeinheiten oder so.

Ich finde die die Leistungsspreizung relativ groß.

also 4070 zur 4080 +50%
4080 zur Handzahmen 4090 + 33% (eine 600W 4090 würde locker +50% haben)
4090 zu 4090ti(tan) könnten es nochmal >25% werden

AMDs Navi 31 soll im Vollausbau das mehr als 2,5fache der 6900XT haben... Der Navi33 immerhin noch knapp schneller als eine 6900 sein.
Aber mal sehen wie groß der AMD Marketingkorrekturfaktor ist *g*

Leonidas
2022-08-01, 09:09:26
Ok, aber noch kann man dem Marketing von NV eigentlich nichts vorwerfen: Weil alle bisherigen Perf-Porgnosen zu RTX40 sind User-erstellt.

Legendenkiller
2022-08-01, 09:59:01
ja, bin auch gespannt auf die ersten echten Benchmarks :-)

Gast
2022-08-01, 10:30:10
Deine Kritik bezieht sich auf die 4070, Dein "Beleg" auf die 4090.

Nee, also deine Ausreden sind echt lustig, du hast da klar von Lovelace als Gen geschrieben. Liest du dir eigentlich selbst durch was du online stellst?

4090 = 86
4080 = 65
4070 = 47

Nix 100!

Und immer noch streitest du umher, das der Kompite ein totaler Troll ist...die Infos von dem sind kompletter Mist, ehrlich das kriege ich auch hin.

Über 2,8 GHz problemlos...
100% Mehrleistung...

Wer hat ihm das geflüstert, seine grüne Euphoriekugel?

Selbst Schuld wenn man seine Infos auf so eine Clown stützt. Es ist auch nicht das erste Mal, dass der und ihr komplett daneben liegt. Genau das trägt dazu bei das die Leute schon vor Erscheinen einer Gen dann komplett enttäuscht sind. Das Hersteller Benchmarks Cherry Picking von Feinstein sind braucht man wahrscheinlich niemanden erklären. Aber so wie man Nvidia kennt geben sie nun bald vor wie zu testen ist, dann stimmt es alles wieder. NDAs haben ja auch genug gegengezeichnet. Kritik unerwünscht, ansonsten gibt es keine Pressesample mehr die auch noch selektiert wurden.

Ehrlich ihr macht euch alle selbst lächerlich und das 3dc gleich mit dazu. Unabhängig berichtet liest sich für mich jedenfalls anders. Fanboyvereinigung trifft es zu 100%. Nebenher noch mit Werbung Kohle machen.

Leonidas
2022-08-01, 11:20:04
Nee, also deine Ausreden sind echt lustig, du hast da klar von Lovelace als Gen geschrieben. Liest du dir eigentlich selbst durch was

"soll die GeForce RTX 4090 glatt die doppelte Performance der GeForce RTX 3090 erreichen"
"GeForce RTX 4090: Performance-Level ca. +100% (oder mehr?)"

Wo wurde hier von der Performance der kompletten Lovelace-Generation geprochen? Meine Aussage steht: Ich habe über die GeForce RTX 4090 geschrieben. Ich habe meine Aussage belegt. Wo ist Dein Beleg?

bad_sign
2022-08-01, 12:27:55
AMDs Navi 31 soll im Vollausbau das mehr als 2,5fache der 6900XT haben...

VORSICHT!!
2,5x so viele Flops! Nicht Leistung
Zwei nicht linear zusammenhängende Dunge

Leonidas
2022-08-01, 12:48:44
:up:

Gast
2022-08-01, 18:53:08
:up:

Die Flops sind doch scheissegal. Wie oft noch, das ist Keinerlei Indiz für Spieleleistung und Lovelace ist eine Gamergpu.

Flops und Füllraten sind Marktingbegriffe. Nichts weiter.

Gethvel
2022-08-01, 19:58:20
Kommt immer darauf an wie man Nische definiert. Für mich ist RT weiterhin Nische da es eben nur eine minimale Anzahl an Titeln im Gesamtmarkt gibt.

Die Games die es nicht haben sind aber fast ausschließlich Indie oder 2D Games, dafür braucht man ja keine top grafikkarte.

Leonidas
2022-08-02, 04:12:39
Die Flops sind doch scheissegal. Wie oft noch, das ist Keinerlei Indiz für Spieleleistung und Lovelace ist eine Gamergpu.

Genau das wollte der Gast damit sagen. Wobei "kein Indiz" übertrieben ist, eine gewisse Korrelation existiert. Nur eben keine lineare.