Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia stellt die "Ada Lovelace" Generation mit drei Modellen ...
Leonidas
2022-09-20, 19:02:55
Link zur News:
https://www.3dcenter.org/news/nvidia-stellt-die-ada-lovelace-generation-mit-drei-modellen-zu-geforce-rtx-4080-4090-vor
DozerDave
2022-09-20, 19:17:08
Mal sehen ob die 4050, 4060 und 4070 auch ein deutlich schlechter werdendes Preis/Performance Verhältnis haben werden. Siehe GeForce 4080 12 GB.
Meridian12
2022-09-20, 19:19:56
NVIDIA will sein Quartelsergebnis wohl noch mehr unterbieten.
Ansonsten kann ich mir diese Preise nicht erklären.
Die Allerwenigstens kaufen 4 stellig im Grafikkartenbereich.
Sweepi
2022-09-20, 19:22:09
Der echte Skandal ist Displayport 1.4a.
Eine x=80 für 1500 Euro, na dann. DLSS3 nur auf Basis von Lovelace das dann selbst Bilder generiert. Ja Matsch vom Feinsten und Bilder die kein Entwickler so je vorgesehen hat. Daher dann dreifache Leistung.
Die Angaben des Ceo, 2-4x so schnell kpnnen sich nur auf diesen Müll beziehen, ansonsten ist die 4080-12g wohl so schnell wie eine 3090 mit weniger VRAM, gleichem Verbrauch, zum gleichem oder Custom höheren Preis.
Na dann haut mal rein Nvidia...eurer Absatzproblem im Bereich Gamer geht weiter! Nun weiß man auch warum EVGA das Handtuch geschmissen hat, das verkauft man nicht eben mal so. 2000 Euro für ein teildeaktiviertes Schrottdesign ala 4090.
AMD wird es freuen.
Und ja Leo, Rasterisierung Faktor 1 nicht 2,3 mal so schnell, dass ist nur unter DLSS mit RT möglich, während man Zwischenbilder generiert die nie ein Entwickler designt hat. Das was Nvidia immer wollte, sie machen sich die Welt wie sie ihnen gefällt. Dann macht mal, aber ohne mich.
Die wollen mit aller Macht Ampere abverkaufen und die Marge nicht senken, dann wenn das der Fall ist fallen die Preise von Lovelace wider erwarten und man streut noch Modelle dazwischen. 4090ti, 4080ti, 4070ti die die Preise dann wieder hochhalten. Das wird eine wirtschaftliche Katastrophe und ja Nvidia hat den Verstand verloren. Erinnert mich an 3dfx. Größenwahn gepaart mit Ignoranz.
Einfach ignorieren den Müll.
Daredevil
2022-09-20, 19:28:45
NVIDIA will sein Quartelsergebnis wohl noch mehr unterbieten.
Ansonsten kann ich mir diese Preise nicht erklären.
Die Allerwenigstens kaufen 4 stellig im Grafikkartenbereich.
Jeder der ein iPhone 14pro in der Hand hat, könnte auch eine 1000€ GPU in dem Gehäuse haben. Schau dich draußen mal um, wie viel Geld Leute wirklich haben. :)
OT:
Konsequente Verbesserung und vor allem Fokussierung auf die Stärken, die Nvidia nun einmal hat. Sie wissen wohl, das sie mit P/L und amd nicht mithalten können werden, somit ist DLSS und alles mit AI der Schlüssel zum absoluten High end. Preise sind für mich prinzipiell okay, da eh niemand eine 4090 ausreizen könnte, der nicht auch auch 1000€ CPU Setup im Rechner hat.
Zudem sind die RTX Karten für manche auch Werkzeuge und …. Nunja, dafür wird halt super viel Geld gezahlt.
wie holt man aus 7680 Cores bei +600Mhz Takt, mit einem kleinerem SI und weniger speicher 2-4 fache leistung. jensen ist nicht ganz klar im kopf. die 12g der 4080 können ganz schnell limitieren und das ist nur eine krux an diesen karten. stromverbrauch unbekannt, wollte er wohl nicht sagen, 600, 500, 400w plus neues PCIe3 netzteil mit 12+4pin für nochmals 200$. lol.
bei den presien werden sie den kompletten europäischen markt verlieren, ich zahle doch nit 300 oder 400 euro mehr für das gleiche blöde produkt nur weil ich in europa wohne. könnt ihr vergessen. das wird eine satte talfahrt für lovelace.
Neurosphere
2022-09-20, 19:39:47
@Leo, warum ziehst du die TSE Score Leaks ran? Dann doch lieber den Mittelwert aus den gezeigten Benches von NV.
Leonidas
2022-09-20, 19:42:06
Dann doch lieber den Mittelwert aus den gezeigten Benches von NV.
Die sind mit DLSS2 auf RTX30 gegen DLSS3 auf RTX40. Das ist leider nicht verwendbar.
Unabhängig davon, dass TSE in der Höhe falsch sein könnte: Die Relation zeigt es an. Ob 4090 nun +86% oder +96% ist, ändert nicht viel für die 4080-12G. Dann erreicht sie eben ein um ein paar Punkte besseres P/L-Verhältnis. Wäre für neue Gen trotzdem unzureichend.
Jeder der ein iPhone 14pro in der Hand hat, könnte auch eine 1000€ GPU in dem Gehäuse haben. Schau dich draußen mal um, wie viel Geld Leute wirklich haben. :)
kein mensch kauft ein iphone, das wird über den vertrag fianziert, sonst würde sich das kein mensch kaufen. strohhalme sich das wieder schön zu reden.
genau diese gen, die handygen hat ampere nicht gekauft - weil sie es sich nicht leisten könne, der jüngere gamer.
Meridian12
2022-09-20, 19:43:19
Jeder der ein iPhone 14pro in der Hand hat, könnte auch eine 1000€ GPU in dem Gehäuse haben. Schau dich draußen mal um, wie viel Geld Leute wirklich haben. :)
.
Wovon 95%+ das Eiphone aber über einen Handyvertrag subventionieren und dann quasi 24 Monatsraten bezahlen.
Das ist bei Grafikkarten eher unüblich die über 24 Monatsraten zu kaufen (oder täusche ich mich da?).
Zumal man auch nicht vergessen sollte, dass ein Handy von vielen in 2 Wochen häufiger aktiv benutzt wurde als eine Grafikkarte in 1 Jahr.
Wäre für neue Gen trotzdem unzureichend.
so ist es, weil es die 4070 ist - die nvidia einfach umlabelt. was für ein witz und die deppen fallen schon wieder darauf rein und kaufen diesen müll auch noch.
madshi
2022-09-20, 19:50:28
Der 4090 Preis ist niedriger als ich erwartet hatte, dafür die 4080 Preise höher. Das ganze macht aber schon Sinn, zumindest aus rein wirtschaftlicher Sicht, weil Nvidia die 4090 sicher nicht nach ein paar wenigen Wochen schon dramatisch im Preis senken will, wenn dann AMD Navi31 heraus bringt - das wäre wohl doch zu peinlich. Und bei den 4080 Varianten ist es einfach so, daß Nvidia gar keine andere Wahl hat als die Preise künstlich hoch zu halten, weil das der einzige Weg ist, wie Nvidia und AIBs noch die ganzen Ampere Karten los werden können, ohne dabei riesige Verluste zu machen.
Dabei liegt der Clou von DLSS3 augenscheinlich in einer klassischen Zwischenbild-Berechnung, basierend auf den vorhandenen "echten" Bildern. Nominell kann man hiermit eine Frameraten-Verdopplung ohne großen Rechenaufwand erreichen, welcher sogar unter CPU-limitierten Spielen funktioniert.
Ich frage mich, ob DLSS3 *Zwischen*bild-Berechnung (Interpolation) macht, oder ob die vielleicht versuchen in die Zukunft zu berechnen (Extrapolation).
Bei Zwischenbildberechnung gäbe es den riesigen Nachteil, daß Nvidia erst warten müßte, bis ein neuer Frame klassisch fertig gerendert ist, und erst anschließend ein Bild zwischen altem und neuem Frame interpolieren. Wenn Nvidia das so macht, würde dann erst das interpolierte Zwischenbild angezeigt werden müssen, und danach erst der klassisch berechnete Frame. Das würde die Latenz um mehr als einen Frame verschlechtern!! Von daher vermute ich fast, daß Nvidia stattdessen Extrapolation machen wird. Dann könnte ein (klassisch) neu gerenderter Frame sofort angezeigt werden, und danach dann ein extrapolierter. Auf diese Weise würde sich die Latenz nicht verschlechtern. Aber auch nicht verbessern! Es würde nur optisch flüssiger werden.
Und die GeForce RTX 4080 12GB hat dann das schwerste Brot zu knabbern: Die Karte dürfte in Richtung +25% Mehrperformance (oder besser) zur GeForce RTX 3080 10GB gehen, wird dafür allerdings auch gleich +29% mehr kosten.
Ja, zumindest auf Basis der Timespy-Gerüchte. Man muß aber dazu sagen, daß die 4080 12GB deutlich schnellere RT-Cores und Tensor-Cores hat, und dazu möglicherweise noch andere Tricks, die noch helfen könnten. Es könnte auch sein, daß DLSS 3 nur für Ada funktionieren wird? Also da würde ich schon die 4080 12GB der 3080 vorziehen, selbst wenn sie 29% mehr kostet.
Trotzdem sind die Preispunkte für 4080 16GB und 4080 12GB (eigentlich 4070) natürlich schon sehr überzogen und eigentlich deutlich zu hoch. Da bleibt nur zu hoffen, daß AMD da schnell Konkurrenz-Modelle liefern kann. Aber dafür bräuchten wir Navi32, und keiner weiß wann das kommt?
[...] lassen auch vermuten, dass es darunter innerhalb der GeForce RTX 40 Serie nur noch ähnlich schlechte Preis/Leistungs-Verhältnisse geben wird.
Sorry, aber das sehe ich komplett anders. Das Hauptproblem von Nvidia ist, daß sie noch den ganzen Ampere-Krams loswerden müssen. Das ist der Hauptgrund, warum die 4080 Preise so hoch sind, und warum sie die 4070 in 4080 12GB umgetauft haben. Sobald der Ampere-Oversupply weg ist, werden wahrscheinlich die 4080 Karten im Preis sinken. Und spätestens wenn AMD Navi32 und Navi33 releast, wird Nvidia gar keine andere Wahl haben als die 4080 Preise zu senken.
Ich gehe aber mal davon aus, daß Nvidia 4050-4070 erst releasen wird, wenn entweder der Ampere-Stock weg ist, oder wenn AMD Navi33 releast. Und ich rechne dann mit besseren Preispunkten für die 4050-4070 Karten. Nicht, weil Nvidia so nett wäre, aber weil sie wegen AMD müssen, und auch weil sie sonst nicht genug verkaufen.
Wir müssen ja auch berücksichtigen, daß Nvidia gerne bei TSMC die 4-5nm Orders reduziert hätte, aber TSMC hat sich geweigert. Von daher wird Nvidia viel Ada Chips haben, und wird die auch verkaufen wollen. Das wird dann irgendwann auf die Preise drücken, denke ich mal.
Daredevil
2022-09-20, 19:50:30
Das hindert ja niemanden daran, ein 100 Euro Handy im Vertrag zu kaufen….. wir sind im Finanzierungs und Abozeitalter, klar kann man auch seine GPU finanzieren.
Und die Verkaufszahlen zu Ampere sprechen/sprachen für sich, es verkauft sich wie blöde, sonst würden die es ja nicht anbieten. Preis transportiert zudem auch Prestige, das darf man ebenso nicht vergessen. AMD hat so aber immerhin genug Zeit und Möglichkeit zu kontern, wie bei Ampere auch.
Und wenn es am Ende doch nicht passt, wird halt der Preis angepasst.
Hat AMD eigentlich mal vor NVIDIA gelauncht in letzter Zeit? :D
4090 ist - vor allem für die Mehrperformance - preislich im Vergleich zur 3090 in Ordnung.
Die 4080 16GB ist quasi der Nachfolger der 3080 - und verdoppelt somit den Preis.
Die 4080 12GB ist quasi der Nachfolger der 3070 - und verdoppelt damit ebenfalls den Preis.
Abartig.
Wenn ich hier schon lese: "Spätestens wenn AMD..." - glaubt ihr das wirklich?
Ich denke AMD wird seine Preise ebenfalls verdoppeln.
Nen 50er oder 100er drunter bleiben. Das wird dann bestimmt als faires Angebot gefeiert.
Timbaloo
2022-09-20, 20:05:11
Irgendwie enttäuschend das alles...
Dachte ich mir...
Und dann kommen die Penner mit Portal RTX :love4:
Das hindert ja niemanden daran, ein 100 Euro Handy im Vertrag zu kaufen….. wir sind im Finanzierungs und Abozeitalter, klar kann man auch seine GPU finanzieren.
Und die Verkaufszahlen zu Ampere sprechen/sprachen für sich, es verkauft sich wie blöde, sonst würden die es ja nicht anbieten. Preis transportiert zudem auch Prestige, das darf man ebenso nicht vergessen. AMD hat so aber immerhin genug Zeit und Möglichkeit zu kontern, wie bei Ampere auch.
Und wenn es am Ende doch nicht passt, wird halt der Preis angepasst.
Hat AMD eigentlich mal vor NVIDIA gelauncht in letzter Zeit? :D
du hast die letzten quartalszahlen verpasst?, es wurde von minern gekauft wie blöde nicht von gamern, welcher miner kauft lovelace? das si von den dingern ist der totale müll zum minen.
zudem, hast du die bereits zweimalige leistzinserhöhung verschlafen die dieses jahr nochmals zuschlägt wenn die fed durch ist. viel spass beim finanzieren! welcher gamer der knapp bei kasse ist, hat ein businesshandy mit vertrag in der tasche?, der kauft ja nicht mal ampere zum gesenkten preis.
die finanzieren demnächst ihre gas- und stromrechnung!
du schreibst schon ein wenig wirres zeug.
baeckeri2
2022-09-20, 20:14:18
Was für eine Ober-Ober-Scheiße ist jenes was nvidias Unternehmensführung da fabriziert?
Timespy ist übrigens stark Nvidia-lastig, vorallem was Raytracing betrifft. Die Werte sind geschönt, Spieleleistung sollte niedriger sein.
Umbenannte rtx 4070 12 GB für $ 900/1100 €. Foglich (geschönter TSE-Wert) nur +5 % mehr Spieleleistung (Raster) als rtx 3090 und nur 22 % geringerer Stromverbrauch?
Die Abzockpreise welche die letzten 2 Jahre lang Standard waren einfach mal übernommen.
Die wollen Ampere abverkaufen. Rtx 3090 im Abverkauf ist in Nord Amerika momentan günstiger, in bspw. DE kostet gleich viel.
Das man sich so etwas erlaubt, deutet darauf hin dass von Amds Führungs nichts schnelleres oder günstigeres kommt.
Freestaler
2022-09-20, 20:14:41
Was soll die 4080 12 GB, das sollte doch klar ne 4070 sein. Das Namensschema anzupassen nur den Preis wegen. Schlechtes Marketing von NV mal wieder.
Hoffen wir das mit RDNA3 Gegenwind geben wird und sich was anpasst.
DLSS3, mal schauen was dann kommt, aber wenn nur Zwischenbild interpoliert ist, wirds mit Inputlag nicht sonderlich werden. Reines FPS "pushen" für den Benchmark. Das kann ich sorecht nicht glauben.
Timespy ist übrigens stark Nvidia-lastig, vorallem was Raytracing betrifft. Die Werte sind geschönt, Spieleleistung sollte niedriger sein.
Das spielt keine Rolle, da es nicht um absolute Werte geht sondern um relative.
Ein Benchmark, der völllig biased ist, ist trotzdem in Ordnung im den relativen Gewinn zu bewerten.
Er war ja schon immer biased.
Ändert aber natürlich nichts daran, dass die Preise geisteskrank sind.
4090 ist ok.
Aber 4080 12GB? Das ist quasi ne 4070. Für 1100 Euro.
Der Listenpreis für die 4090 ist wie erwartet und tatsächlich ganz akzeptabel, in den USA... Hierzulande 400 Euro mehr dafür zahlen? Nie im Leben! Ich kann es mir leisten, wollte die 4090 auch, aber bei solchen spielchen, nein Danke. Obwohl ich Karten von beiden teams habe, war ich doch immer mehr der nvidia Fan. Das ist spätestens jetzt vorbei.
Einfach krank.
Geschweige die fake 4080 Karten. Was soll der 12gb Quatsch auf ad104???
Kaufe leiber eine 6900xtxh jetzt als sie abverkauft werden. Bei 850e gleiches, oder vermutlich noch besseres p/l. So eine kacke. Ich hoffe amd wird nicht so geizig, was jedoch leider auch der Fall sein wird. Von daher hoffe ich, dass die Menschen (ausser des ersten ansturmes) die Karten liegen lassen und nvidia massenhaft an Wert (an den Börsen) verliert. Und vielleicht doch Intel in 3-5 Jahren konkurrenzfähig...
Gastxyz
2022-09-20, 20:20:07
1100 Euro ala 4080 12g für diesen teildeaktivierten Krüppel. Die sind nicht mehr ganz klar in ihrem Kopf. Was kostet den eine 4060 800 Euro?
AMD lacht sich doch jetzt schon schlapp.
AMD lacht sich doch jetzt schon schlapp.
Natürlich lacht AMD.
Und reibt sich die Hände weil sie so viel Kohle verdienen werden - die werden ihre Preise exakt so anpassen wie Nvidia.
BlacKi
2022-09-20, 20:26:10
so ist es, weil es die 4070 ist - die nvidia einfach umlabelt. was für ein witz und die deppen fallen schon wieder darauf rein und kaufen diesen müll auch noch.der name ist doch egal. wenn die jetzt die karte 4070 genannt hätten und 899$ verlängt hätten, hätte sich garnichts geändert. höchstens das sich DAUs nicht ausversehen die 4080 12gb kaufen würden, sondern eine 4070.
Wovon 95%+ das Eiphone aber über einen Handyvertrag subventionieren und dann quasi 24 Monatsraten bezahlen.
Das ist bei Grafikkarten eher unüblich die über 24 Monatsraten zu kaufen (oder täusche ich mich da?).
Zumal man auch nicht vergessen sollte, dass ein Handy von vielen in 2 Wochen häufiger aktiv benutzt wurde als eine Grafikkarte in 1 Jahr.
geld ist geld. du meinst sich selbst zu verarschen mit einem vertrag ist ok, und die summe auf einmal zu zahlen für eine gpu ist nicht ok? da ist kein unterschied.
Sorry, aber das sehe ich komplett anders. Das Hauptproblem von Nvidia ist, daß sie noch den ganzen Ampere-Krams loswerden müssen. Das ist der Hauptgrund, warum die 4080 Preise so hoch sind, und warum sie die 4070 in 4080 12GB umgetauft haben. Sobald der Ampere-Oversupply weg ist, werden wahrscheinlich die 4080 Karten im Preis sinken. Und spätestens wenn AMD Navi32 und Navi33 releast, wird Nvidia gar keine andere Wahl haben als die 4080 Preise zu senken.
+1 nur denke ich, das die uvp sich nicht ändern wird, möglicherweise aber die straßenpreise, oder es gibt einen frühen refresh mit besseren preisen.
1100 Euro ala 4080 12g für diesen teildeaktivierten Krüppel. Die sind nicht mehr ganz klar in ihrem Kopf. Was kostet den eine 4060 800 Euro?
AMD lacht sich doch jetzt schon schlapp.
dir ist schon klar, das die europreise bei amd höher sein werden als beim letzten release?
BlacKi
2022-09-20, 20:27:14
sry doppelpost
Daredevil
2022-09-20, 20:27:29
du hast die letzten quartalszahlen verpasst?, es wurde von minern gekauft wie blöde nicht von gamern, welcher miner kauft lovelace? das si von den dingern ist der totale müll zum minen.
zudem, hast du die bereits zweimalige leistzinserhöhung verschlafen die dieses jahr nochmals zuschlägt wenn die fed durch ist. viel spass beim finanzieren! welcher gamer der knapp bei kasse ist, hat ein businesshandy mit vertrag in der tasche?, der kauft ja nicht mal ampere zum gesenkten preis.
die finanzieren demnächst ihre gas- und stromrechnung!
du schreibst schon ein wenig wirres zeug.
Das ist die gleiche Leier wie zum Start von Ampere, die sich nicht bewahrheitet hat. Nvidia ist es egal, wer die GPUs kauft, solange sie gekauft werden.
Ich habe vor 2 Jahren eine 3090 Ref für nahezu den doppelten Preis verkauft, an keinen Miner, sondern an einen SemiPro, welches dies für seine Renderings benötigt hat. Dem war der Preis scheiß egal, weil selber über 2k für ihn kein Thema war, weil er Geld damit spart.
1500$+ GPUs sind nicht rein für den Gaming Markt und Fortnite Kids, das sind Arbeitsgeräte.
Noch was zu deiner Theorie mit der Leitzinserhöhung, dass die Leute ja keine Kohle haben:
iPhone 14: Pro-Modelle deutlich stärker nachgefragt
https://www.iphone-ticker.de/iphone-14-pro-modelle-deutlich-staerker-nachgefragt-198764/
Das Leben kostet einfach 2022 mehr Geld. Der eine kann es sich leisten, der andere nicht. Wobei das bei Ampere ja auch schon der Fall war, auch ohne Mining.
Selbst AMD lässt sich ja mittlerweile fürstlich bezahlen und wir Europäer sind einfach am Arsch. Thats life.
Die DLSS und RT Werte sind massiv gecheatet. Die Performacne liegt bei knapp +50% zu einer 3090ti. Hohe Werte erreicht man nur wenn man unter Spielen auf Nvidias New RTX "Boost" included DLSS3 setzt, ansonsten ist Lovelace wohl dem Stromsparen zum Opfer gefallen.Für den Preis echt recht wenig.
Der Hypetrain ist also voll gegen die Mauer gerast. War ja zu erwarten. Nvidia setzt schon mal die Preise höher an um Verluste zu kompensieren.
[dzp]Viper
2022-09-20, 20:45:26
Was mich wundert ist der extreme Preisunterschied von Dollar zu Euro. Der Kurs ist aktuell 1:1 aber NV verlangt in Euro mal eben 20% mehr im Vergleich zum Dollarpreis. Meiner Meinung nach kann man das auch nicht auf die MwSt schieben?!
BlacKi
2022-09-20, 20:47:26
Viper;13113020']Was mich wundert ist der extreme Preisunterschied von Dollar zu Euro. Der Kurs ist aktuell 1:1 aber NV verlangt in Euro mal eben 20% mehr im Vergleich zum Dollarpreis. Meiner Meinung nach kann man das auch nicht auf die MwSt schieben?!doch, europäische preise haben die mwst enthalten, die ammis, weil unterschiedliche höhe, machen das nicht. daher der deutliche unterschied.
ich glaube, die US-Preise sind immer Netto-Preise (oder meistens) http://www.magazinusa.com/us/info/show.aspx?unit=travelinfo&doc=300
G3cko
2022-09-20, 20:54:42
Wenn ich hier schon lese: "Spätestens wenn AMD..." - glaubt ihr das wirklich?
Ich denke AMD wird seine Preise ebenfalls verdoppeln.
Nen 50er oder 100er drunter bleiben. Das wird dann bestimmt als faires Angebot gefeiert.
Das kann sein, muss aber nicht. Nvidia ist in einer Sackgasse und es wäre eine gute Gelegenheit Marktanteile zu sichern. Bei den CPUs von AMD läuft es ja gut, da kann man sich soetwas erlauben.
Ich erinnere mal an den Release der 290x.
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/18/
Auch die kurze Zeit später erschiene 780Ti war trotz gleicher Leistung 30% teurer.
Ja, 1070$ müssten es an der Kasse sein, wird dort aufgeschlagen wenn du kaufst, also fast gleichteuer. Denke nV werden die Kunden wegbrechen, die das noch so für Highend ausgeben. Die 4080 kosten im Vergleich mit Ampere doppelt so viel, und die 12g ist nur ein ADA104.
MiamiNice
2022-09-20, 21:18:03
Die Karten werden sich verkaufen wie Freibier. Das wird supi bei den Preisen :up:
MD_Enigma
2022-09-20, 21:21:58
Eigentlich ganz solide Vorstellung. Über die Leistungsaufnahme und den Preis lässt sich wie gehabt streiten.
Und ja - die 780 war noch "normal". Zum Launch 05/2013 ein erstbesteller Preis von 650 EUR. Nach rund einem Jahr (~10/2014) unter 300 Euro. Da schlägt man dann gerne zu. Aber jetzt ... ne 3080 für 800 Euro :ucrazy3:
Ktc4rI4ys_o
Rabiata
2022-09-20, 21:24:06
Die wollen mit aller Macht Ampere abverkaufen und die Marge nicht senken, dann wenn das der Fall ist fallen die Preise von Lovelace wider erwarten und man streut noch Modelle dazwischen. 4090ti, 4080ti, 4070ti die die Preise dann wieder hochhalten. Das wird eine wirtschaftliche Katastrophe und ja Nvidia hat den Verstand verloren. Erinnert mich an 3dfx. Größenwahn gepaart mit Ignoranz.
Das setzt natürlich voraus, daß AMD bessere P/L bieten kann und das auch tatsächlich tut. Wenn sie besser sind, könnte es auch sein, daß sie Nvidia nur knapp unterbieten und zufrieden lächelnd die Gewinne einstreichen.
Freestaler
2022-09-20, 21:54:12
Ich denke auch das RDNA3 nicht sofort helfen wird. Aus der Vergangenheit wissen wir, dass AMD 10% schneller und 10% günstiger sein muss, sonst wird sie nicht in betrachtet gezogen von der Masse. Eines von beiden reicht nur bei wenigen.
Aber wenn sie mit RDNA3 liefern wirds immerhin langsam aber sicher günstiger werden und der Preis spielt, wenn auch langsam.
Daredevil
2022-09-20, 22:04:23
Der Kollege ist nochmal DEUTLICH dicker als die 3090 :0
https://youtu.be/H5soCA5SQD0
Aroas
2022-09-20, 22:07:29
Irgendwie ruft diese Vorstellung bei mir nur ein lautes Gäääääääähhhhhhhhnen hervor.
Diese Preise...lol!
ChaosTM
2022-09-20, 22:10:38
qqA7fgQwg4g
Netter Klopper :)
bbott
2022-09-20, 22:20:38
Was soll der Vergleich 3080ti vs. 4090?! Bitte 3090 vs. 4090!
Alles sehr grün gefärbt, mal sehen was die Test sagen.
P.S.:
Hatte denn nicht AMD auch für FSR >2.x/3 auch eine Zwischenbildberechnung angedeutet?
Egal, die zwischen Bilder dürften eher etwas für HFR Gamer interessant sein, bei (sehr) niedrigen FPS werden diverse Probleme wie Bildfehler, Ruckler, Input Lags usw. den Vorteil zunichte machen oder ins Gegenteil verkehren.
bbott
2022-09-20, 22:22:14
Der Kollege ist nochmal DEUTLICH dicker als die 3090 :0
https://youtu.be/H5soCA5SQD0
Wie fett wird wohl erst eine 4090 Ti :freak:
Platos
2022-09-20, 22:24:34
Eigentlich sollte man die 4080 nicht mit einer 3080 Ti vergleichen. Man sollte sie mit einer 3080 vergleichen und da gilt: Das P/L sinkt vermutlich drastisch ab.
Ebenso bei der 4070: Das P/L sinkt mit sicherheit.
Einzig die 4090 ist da halbwegs "ok". Also mal davon abgesehen, dass sie selbst einen absurden Titan-Preis hat. D.h eig. auch die nicht ok.
Ergo: Ada ist eine der schlechtesten Generationen seit langem. Sogar noch schlechter wie Turing und Kepler.
Lehdro
2022-09-20, 22:50:48
Technisch ein Desaster:
- DLSS 3.0 nur für ADA
NV wird DLSS 3.0 pushen und augenscheinlich wurde kein Fallback für Turing/Ampere Nutzer erwähnt - prepare to get fucked! Wird wohl nur noch sehr wenige DLSS 2.x Titel zusätzlich geben - tolles Zukunftsargument, wird wohl nun zum Bumerang. Muss AMD mal wieder NVs angearschte Kunden retten mit FSR 2.x, genau wie bei Pascal.
- kein DP 2.0 - 8K Gaming my ass :confused:
- kein PCIe 5.0
Dachte NV steht auf solche neuen Technologien? Keine Ambition scheinbar.
Preislich:
Was raucht NV da? Sind die auf demselben Planeten zuhause? Überall wird von Rezession geschwafelt und NV launcht keine Karte unter 1000€ - ich habe ja mit viel gerechnet, aber das ist echt heavy. RTX 4090 - von mir aus, aber der Rest? Ein Witz!
Namensgebung:
Der 4080 12 GB move stößt echt sauer auf, genauso wie die massiven Leistungsunterschiede zwischen 4090 und den beiden 4080ern. Uff - die 4080 12 GB, nennen wir sie mal liebevoll 4070, ist weniger als halb so stark wie die 4090. Wann gab es das schon einmal? Und diese dann noch namenstechnisch hochzustufen, aua.
Auch die pro Karte wurde vorgestellt. 300 Watt, mal wieder die Namensgebung leicht geändert.
https://www.nvidia.com/en-us/design-visualization/rtx-6000/
Der Nachfolger für die RTX 3070 kostet als 899$.
WTF 899$.
Anscheinend ist das einzig Interessante der 40XX DLSS 3.0
Und das kommt nicht für Ampere.
Das nächste WTF.
Aber gut, so geht meine letzte Woche gekaufte 3080 zurück.
Gehört ja laut der Vorstellung heute ab 12.Okt zum technisch veralteten Elektroschrott.
Dann wirds halt ne AMD 3800XT mit ordentlichem Kühler jetzt Ausverkauf und Nvidia kann weiter Traumschlösser bauen.
2000.- Euro um sich mit so einem Teil Teil die Zimmertapete mit Brandlöchern von der Abwärme zu verschönern...:-(
Ne, könnt ihr behalten. Pries/Leistung und Abwärme sind vollkommen indiskutabel.
Das einzige was interessant ist, ist die stark angestiegenen PErformance im Raytracing..
OpenVMSwartoll
2022-09-21, 00:21:42
Zum ROG Video: Bei der nächsten Generation hebt die keiner mehr in die Kamera, da kommt dann erst ein Hubwagen um die Ecke...
madshi
2022-09-21, 00:37:36
Beim ROG Video dachte ich echt erst, das soll ein April-Scherz sein. Die Kühler-Konstruktion sah so übertrieben crazy aus, daß ich mir nicht vorstellen konnte, daß das ernst gemeint war. Da braucht man ja fast 2 Leute, um die GPU zu tragen. Und die wollen das gleiche Monster auch noch für die 4080 16GB verwenden? Warum!? Die 4080 16GB verbraucht doch nicht mehr als die 3080!
ChaosTM
2022-09-21, 00:40:14
Das Ding passt dank dem Lüfter hinten gerade noch in mein Gehäuse (Define 6) und Noctua DH-15. Da gehts aber um millimeter. :)
ich mag die Karte aber irgendwie..
Schaut nach klugem engineering aus.
Netter Klopper :)
Mein Gott, wie groß sollen die Dinger noch werden, das passt doch in keinen normalen Formfaktor mehr. Karten im Design eines Mauersteins, schön bunt wie ne Fliese, 3 Slots + hoch und 40cm lang.:rolleyes:
Was die new RT Funktion angeht und DLSS, das sind 1080p gerenderte Bilder die per Superresolution auf 4K skaliert werden. Nvidia nennt es dann irgendwann Doubleframe in 4k. Das hat aber nichts mit der nativen Auflösung in 4k zu tun. Man wird hier wieder reichlich verarscht. Und genau darauf basieren auch deren Benchmarkvergleiche, in nativ ist der Leistungszuwachs viel geringer und damit maximal enttäuschend was sie da abliefern. Für das Geld, never Huang, sp*nnst wohl? In irgendeiner Pseudoauflösung die nicht nativ ist.
Die Customs kosten alle weit über 2k. Ne pi**ige Highend x080 nun 1,5k. Gehts noch? Doppelte Leistung=doppelter Preis=doppelter Energiebedarf. Krank oder was? Natürlich gehe ich davon aus die eine neue Gen schneller wird, alles andere wäre unsinnig. Das preist man jetzt komplett ein? Wo bleibt da der Fortschritt?
Das ironische ist hier ja, dass die 4090 zumindest nominell das beste P&L-Verhältnis hat.
Wobei DLSS3 schon ein echter Gamechanger ist, mal eben mit der Grafikkarte die Performance im CPU-Limit verdoppeln macht nicht so schnell jemand nach.
gastello
2022-09-21, 01:04:22
Nominell kann man hiermit eine Frameraten-Verdopplung ohne großen Rechenaufwand erreichen, welcher sogar unter CPU-limitierten Spielen funktioniert. In der Praxis stehen die somit erzeugten Zwischenframes (eventuell) außerhalb der Spiele-Engine, womit Seiteneffekte auf Steuerbarkeit, Physik-Effekte und Spiel-Logik denkbar wären.
Das Problem daran ist, dass es sich lediglich um reine visuelle Bilder handelt, auf Eingaben reagieren nur die durch die Spieleengine ausgebenen Frames, nicht auf die des Optical Flow Accelerators. So gesehen ist es eine FPS Steigerung ohne Nutzen, die Framerate steigt zwar und das Bild wird beruhigt, ich behaupte mal die Latenz steigt trotzdem bzw. wird durch die höhere FPS Rate nicht minimiert. Was das für einen Sinn machen soll, muss Nvidia mir mal erklären. 120fps in UHD, wo ich nur bei 60fps etwas eingeben kann auf das die Engine dann reagiert, aber 120fps abgebildet werden? Das ist reines Marketing um schneller zu erscheinen und der Lag steigt, da ich zwei Bilder lang warten muss.
basix
2022-09-21, 01:31:55
Technisch ein Desaster:
- DLSS 3.0 nur für ADA
NV wird DLSS 3.0 pushen und augenscheinlich wurde kein Fallback für Turing/Ampere Nutzer erwähnt - prepare to get fucked! Wird wohl nur noch sehr wenige DLSS 2.x Titel zusätzlich geben - tolles Zukunftsargument, wird wohl nun zum Bumerang. Muss AMD mal wieder NVs angearschte Kunden retten mit FSR 2.x, genau wie bei Pascal.
Gibt eine Aussage von einem Nvidia-Mitarbeiter: DLSS 3.0 Titel werden DLSS 2.0 als Option anbieten. Für Turing, Ampere und Ada.
- kein DP 2.0 - 8K Gaming my ass :confused:
- kein PCIe 5.0
Dachte NV steht auf solche neuen Technologien? Keine Ambition scheinbar.
Jepp, schade. Speziell DP 2.0.
Preislich:
Was raucht NV da? Sind die auf demselben Planeten zuhause? Überall wird von Rezession geschwafelt und NV launcht keine Karte unter 1000€ - ich habe ja mit viel gerechnet, aber das ist echt heavy. RTX 4090 - von mir aus, aber der Rest? Ein Witz!
Die 4090 ist die einzig sinnvolle Karte, da sie performancemässig die neue Spitze bildet. Bei den anderen ist der Preis mMn deutlich zu hoch.
ChaosTM
2022-09-21, 01:53:55
Die 90er ist leider die einzige die man kaufen kann. Der Rest ist wohl last Gen.
Die 80er ist kastriert bis zum geht nicht mehr. Fast 40%
Leonidas
2022-09-21, 03:57:03
Ich frage mich, ob DLSS3 *Zwischen*bild-Berechnung (Interpolation) macht, oder ob die vielleicht versuchen in die Zukunft zu berechnen (Extrapolation).
Du hast Recht, Extrapolation ist der bessere Begriff. Es geht sicherlich in die Zukunft, weil extra Warten auf Frames ist immer etwas, was man vermeidet.
du schreibst schon ein wenig wirres zeug.
Gemach, Herr Gast! Man kann seine Ansicht auch ohne so einen Emotions-Verstärker notieren.
ich glaube, die US-Preise sind immer Netto-Preise (oder meistens) http://www.magazinusa.com/us/info/show.aspx?unit=travelinfo&doc=300
Immer. Selbst im 7/11 soll immer nur Netto angegeben werden, MwSt wird erst an der Kasse oben drauf gerechnet. Grund: MwSt kann in den USA nicht nur von Bundestaat zu Bundesstaat unterschiedlich sein, sondern auch von County zu County.
konkretor
2022-09-21, 04:39:38
Was macht Lederjacke und Freunde eigentlich wenn die Masse die Ampere-Restbestände nicht kaufen möchte? Die rtx 4000 Preise einfach viele Monate lange weiter überteuert halten?
2 Jahre lang?
Erwarte von Amd kaum Abhilfe, ist doch ein Duopol.
Nvidia sitzt wohl auf so hohen Ampere Beständen, das man erst mal die los werden muss. Unterhalb von 1000 € wird es nur Ampere zu kaufen geben.
Wir werden auch keine Preise unterhalb von 300 € sehen bei Nvidia.
"Gekauft wird ja trotzdem"
Daher auch ne 4080 mit 16 GB RAM und eine 4080 mit 12 GB RAM und sogar abgespeckten Chip. Anders ist es nicht zu erklären. Wer Ada will muss mindestens 1000 € zahlen.
Keine Angst hier im Forum und anders wo wird es in den nächsten Wochen genug Leute geben die Zuschlagen werden. Mal sehen was die Scalper machen werden. Die letzten 2 Jahre hats gezeigt Grakas ab 1000 € kein Problem.
Mal sehen ob sich Nvidia da nicht verzockt.
etp_inxession
2022-09-21, 06:56:48
Der allgemeine Tenor wirkt negativ.
Preise viel zu hoch.
Und viele sind von der Leistung beeindruckt.
Sollten mal das Kleingedruckte lesen.
Es wurde mit DLSS 3.0 gebencht. (Deswegen doppelte Raster Leistung)
Jenes DLSS 3.0 welches auf Ampere gar nicht erst funktioniert.
Bis einer daher kommt und eine DLL Datei irgendwo hin kopiert, und welch Magie ... es funktioniert doch.
nVidia will die neue Generation so attraktiv wie möglich machen.
Preise schönreden mit DLSS 3.0 ... gibts nur dort!
Somit kann man Ampere Altlasten darunter abverkaufen.
Und schlägt mehrere Fliegen mit mehreren Klappen.
Eigentlich schlau.
Die Early Adopter sind gehyped und freuen sich auf ADA.
Die Enttäuschten kaufen dann eine Generation "älter" und sind somit auch glücklich.
AMD wird im Top End sehr wahrscheinlich nicht mithalten können und die Preise ebenso nach oben korrigieren.
Was könnte noch so eintreten?
AMD hat (viel) früher aufgehört die RDNA 2 Chips zu ordern, somit kein Abverkauf der Altlasten
AMD kann, wenn oben genanntes eintritt, die Preise aggressiv ansetzen. (Ich glaube nicht daran, aber ist auch nicht gänzlich ausgeschlossen)
AMD kann mit Stromverbrauch punkten
AMD könnte natürlich auch Probleme haben die MCM Performance auf die Straße zu bringen (vielleicht ist es deshalb so ruhig)
Was definitiv eintritt mMn ...
Intel kann mit Arc direkt nur den Einstiegsmarkt ansteuern.
Für mehr wirds nicht reichen.
Zossel
2022-09-21, 07:17:11
1500$+ GPUs sind nicht rein für den Gaming Markt und Fortnite Kids, das sind Arbeitsgeräte.
Und welchen Anteil am Markt haben diese Arbeitsgeräte?
NV wird DLSS 3.0 pushen und augenscheinlich wurde kein Fallback für Turing/Ampere Nutzer erwähnt - prepare to get fucked! Wird wohl nur noch sehr wenige DLSS 2.x
DLSS 3.0 benutzt DLSS 2.x als Basis, die Input-Frames für das temporale Upscaling sind DLSS 2.x Frames.
Ein Fallback in dem Sinn ist gar nicht notwendig, da DLSS 2.x direkt ein Part von DLSS 3 ist und damit automatisch funktioniert.
Loeschzwerg
2022-09-21, 07:37:14
Die Verbesserungen (SER) und neuen Features (DLSS3, RTX Remix) finde ich persönlich schon sehr geil, mit den Produkten selber kann ich dagegen deutlich weniger anfreunden. Die 4090 passt noch ganz gut, da gibt es (voraussichtlich) ordentlich etwas fürs Geld. Die beiden 4080 finde ich aber eine Verarschung.
Das 12GB Modell ist in sämtlichen Punkten (Speicher/-bandbreite, weniger Cores als 3080) doch sehr "verkrüppelt", da kommt die Leistung doch nur noch über den hohen Takt und damit auch recht hoher Leistungsaufnahme. Dafür ist der aufgerufene Preis dann in meinen Augen einfach zu hoch.
Die 16GB Variante ist auch nicht gerade toll, denn wiederum verglichen mit der 4090 sind auch dort die Einschnitte zu groß. Da kann man auch gleich die Arschbacken zusammenkneifen und All-In gehen.
Für mich sind alle Modelle so oder so über dem TDP Budget, ich warte entspannt auf die kleineren xx50/xx60 Karten oder schaue mich bei den professionellen RTX Karten um. Bei letzteren ist die Namensgebung ja nun voll für den Arsch... erneut RTX 6000 wie zu Turing, nur ohne Quadro Branding.
Leonidas
2022-09-21, 07:38:17
Das ist reines Marketing um schneller zu erscheinen und der Lag steigt, da ich zwei Bilder lang warten muss.
Sehe ich genauso. Allerdings sollte man der Sache eine Chance geben. Die Tester sollen es erstmal betrachten und wirklich damit spielen.
Es wurde mit DLSS 3.0 gebencht. (Deswegen doppelte Raster Leistung)
Mal vor dem Schreiben etwas Nachdenken. DLSS 3 verdoppelt alleine die Framerate, deine Aussage würde also bedeuten, ohne DLSS 3 wäre man genau gleich schnell, etwas unwahrscheinlich oder?
Deshalb gibt ja NV auch die kryptischen 2-4x an, 2x ist die reale Mehrleistung, und mit DLSS 3 kommt ein weiterer Faktor von 2 obendrauf.
Loeschzwerg
2022-09-21, 07:48:29
Der Lag nimmt sicher zu (Mumpitz). Also für schnellste Shooter und Spieler die darauf trainiert sind, ist das sicher nix. Racing, Rollenspiele, Flightsim... da könnte es vermutlich ganz gut passen.
Von daher wie gehabt, mehr Optionen sind immer besser.
Daredevil
2022-09-21, 08:03:41
Der Anteil ist relativ irrelevant, sofern der Marge groß genug ist und der Kreis der Käufer, der solche Karten wirklich professionell benötigt, weil man mit 2000€ Karten Zeit und somit Geld spart.
Ein MacBook hat auch keine 70% Marktanteil, trotzdem verdient sich Apple dumm und dämlich.
https://abload.de/img/bildschirmfoto2022-09mndqq.png
https://abload.de/img/bildschirmfoto2022-09jed0b.png
https://abload.de/img/bildschirmfoto2022-09uac9w.png
So gesehen ist es eine FPS Steigerung ohne Nutzen, die Framerate steigt zwar und das Bild wird beruhigt, ich behaupte mal die Latenz steigt trotzdem bzw. wird durch die höhere FPS Rate nicht minimiert.
Die Latenz steigt nicht, es werden ja nicht echte Frames zurückgehalten, sondern zwischen den echten Frames zusätzliche Frames generiert.
Die Frage ist ob/wieviel die Latenz sinkt, und dafür gibt es einige Hinweise:
- Lederjacke sprach von "geometric motion vectors", die Motion-Vectors vom Spiel sind also also 3D nicht wie bei DLSS2 nur 2D, womit das ganze System Informationen über den geometrischen Aufbau der Szene bekommt.
- Möglicherweise werden diese um Input-Daten wie Mausbewegungen für die berechneten Bilder angereichert. VR macht mit asychnronous timewarp schon lange vergleichbares eben gerade um die Ausgabelatenz zu verringern und Motion Sickness Vorzubeugen.
- Und schließlich hat Nvidia uns, ob gewollt oder nicht, einen Screenshot aus Cyberpunk mit FPS und Latenzangabe geliefert.
Und hier geht es von 22FPS/166ms auf 98FPS/58ms.
Es zeigt sich also eindeutig, dass sich auch die Latenz verbessert.
Wobei hier Cyberpunk möglicherweise natürlich einen positiven Ausreißer darstellt, das Spiel hat generell sehr schlechte Input-Latency, also extrem viel Potential zur Verbesserung. Und ob beispielsweise die CPU-limitierten Szenarien wie Flight Simulator ähnliche Verbesserungen zeigen muss sich erst in realen Tests erweisen (ich bezweifle es, gerade da man im Flight Simulator keine Mouse-Movements direkt in Perspektivenänderungen umrechnen kann).
Gast Ritis
2022-09-21, 08:09:36
Ich hatte fest mit doppelter Leistung gerechnet, aber Faktor 4 ist echt der Wahnsinn. Das wird erst mal aber nur in der Nvidia Demo so sein und in nem besonderen Release von CP2077?
Beim Flugsimulator laufen die Karten gegen ne FPS Wand wo anderswo beliebig skaliert wird? Da ist irgendwas faul. Könnte sich das Tesselation Gimpwork wiederholen?
Den 4080er mit 12GB auf über 1000 Euro zu heben ist dreist. Eine Gaming-Karte sollte doch mindestens so viel RAM wie die aktuellen Konsolen mitbringen, selbst bei 500 Eiro. Wenn man da für PCIe5 und CPU auch noch ins Upgrade gezwungen wird um das Potential zu heben bzw. am kleinen VRAM nicht zu scheitern, dann wird's doppelt teuer.
Eine Gaming Demo und ein alter Zock aufpoliert, der Flightsim im Limit. Das supadupa Raytracing on/off wird der Kaufanreiz, aber echte Spiele dazu sind in weiter Ferne, UE5 braucht das wahrscheinlich nicht einmal.
Das ist gerade bei den Preisen fürs Gesamtsystem Eskapismus vom feinsten. Bin jetzt mal gespannt wie die Preise und Gewinne sich entwickeln, vielleicht gibts da künftig die grössten Schlagzeilen. Hat zwar nix mit Gaming zu tun, ist aber auch unterhaltsam. ;)
Der Lag nimmt sicher zu. Also für schnellste Shooter und Spieler die darauf trainiert sind, ist das sicher nix. Racing, Rollenspiele, Flightsim... da könnte es vermutlich ganz gut passen.
Gerade umgekehrt.
In Shootern, bzw. generell First Person Spielen können Maus- und Tastaturbewegungen direkt in Korrekturen der Bewegungsvektoren umgerechnet werden.
In Sims beeinflussen die Inputs erst mal die Simulierten Fahrzeuge und daraus erst indirekt was am Bildschirm zu sehen ist. Das lässt sich unmöglich vorhersehen.
Andererseits braucht es natürlich in den Sims gar nicht unbedingt diese Output Lag Reduktion, schließlich werden diese durch die simulierte Trägheit sowieso verzögert ab Bildschirm wiedergegeben und damit eine absolut niedrigste Latenz unwichtiger.
etp_inxession
2022-09-21, 08:18:27
Ein MacBook hat auch keine 70% Marktanteil, trotzdem verdient sich Apple dumm und dämlich.
Ja, das war vor Inflation und exorbitanten Energiepreisen.
Einige sind halt noch nicht im Hier und Jetzt angekommen.
Viele die sich "einfach mal so" ein Luxusgut gegönnt haben, können das Aktuell und auf Absehbare Zeit nicht mehr.
Natürlich kommen "Reiche" besser damit klar.
Den Gesamtumsatz kann nVidia mit den höheren Preisen, aber weniger Käufern, sicherlich etwas "glätten".
Aber da schon allein das Mining wegfällt, ist scalpen schon nicht mehr sehr lukrativ.
Und es ist dann wirklich nur noch ein ausgesprochen kleiner Käuferkreis, der sich solch Luxus leisten kann oder will.
Auch ich gehe davon aus, das die Karten sich anfangs ganz gut verkaufen.
Das verpufft aber relativ schnell.
Da eben die sog. Mittelschicht, andere Probleme hat als eine schnellere Grafikkarte zu besitzen.
Grundkurs
2022-09-21, 08:21:03
Wovon 95%+ das Eiphone aber über einen Handyvertrag subventionieren und dann quasi 24 Monatsraten bezahlen.
Das ist bei Grafikkarten eher unüblich die über 24 Monatsraten zu kaufen (oder täusche ich mich da?).
Zumal man auch nicht vergessen sollte, dass ein Handy von vielen in 2 Wochen häufiger aktiv benutzt wurde als eine Grafikkarte in 1 Jahr.
Das wird schon stimmen. Im Referendariat hatte ich häufiger Strafverhandlungen am Jugendgericht erlebt an denen ca. 18-21 Jährige vor dem Strafrichter saßen, da ging es am Ende immer um die finanzielle Situation der Angeklagten und die typische Story war dass sie ca. 3-4K Schulden hatten da Apple-Driss auf Raten gekauft und Raten nicht bezahlt (was sich dann schnell hochtürmt aufgrund der Verzugszinsen).
Ich hatte den Eindruck gewonnen, dass es gerade unter jungen Leuten weit verbreitet ist sich "koste was es wolle" ein iPhone und ähnliches zu beschaffen, meistens dann über Raten, da Direktkauf "viel zu teuer".
Nazar
2022-09-21, 08:29:40
Wie kommt man auf den Trichter, dass die RZ-Leistung den Faktor 2 haben wird? :confused:
Der nV eigene Benchmark zeigt eine durchschnittliche RZ-Leistungssteigerung von zirka 55%.
Es ist doch immer wieder erstaunlich, was bei nV so alles "positiviert" wird.
Es gibt so gut wie !!keine greifbaren!! Aussagen zur wahren Leistungssteigerung der 40XX GPUs, trotzdem werden hier erneut Leistungsprognosen erstellt, die so nicht mal nVida auch nur im Ansatz gesagt, geschrieben oder gezeigt hat! :rolleyes:
Wenn ich daran denke, wie bei der Vorstellung Ryzen4 auf AMD geschimpft wurde, weil man nicht spezifisch genug war, dann steht wohl nun außer Frage, für welches Unternehmen hier die Flagge gehisst wird.
Nazar
2022-09-21, 08:34:25
Der Anteil ist relativ irrelevant, sofern der Marge groß genug ist und der Kreis der Käufer, der solche Karten wirklich professionell benötigt, weil man mit 2000€ Karten Zeit und somit Geld spart.
Ein MacBook hat auch keine 70% Marktanteil, trotzdem verdient sich Apple dumm und dämlich.
https://abload.de/img/bildschirmfoto2022-09mndqq.png
https://abload.de/img/bildschirmfoto2022-09jed0b.png
https://abload.de/img/bildschirmfoto2022-09uac9w.png
Seit wann ist Apple eGPU Hersteller?
Nach dem Motto: "Wenn man nicht mehr weiterweiß (die Argumente ausgehen), man einfach in andre Gefilde reist. :freak:
Äpfel != Birnen :wink:
madshi
2022-09-21, 08:41:45
Jenes DLSS 3.0 welches auf Ampere gar nicht erst funktioniert.
Bis einer daher kommt und eine DLL Datei irgendwo hin kopiert, und welch Magie ... es funktioniert doch.
Ich nehme an, daß der "Frame Extrapolation" Teil von DLSS 3.0 wohl die neue FP8 Tensor-Core Pipeline von Ada verwenden wird (?).
Daredevil
2022-09-21, 08:47:26
Seit wann ist Apple eGPU Hersteller?
Nach dem Motto: "Wenn man nicht mehr weiterweiß (die Argumente ausgehen), man einfach in andre Gefilde reist. :freak:
Äpfel != Birnen :wink:
Seit wann Apple ein GPU Hersteller ist?
Ich würde sagen seitdem sie die Konkurrenz mit einem M1 Ultra SoC teilweise zerreißen in GPU Pro Workloads mit einem Bruchteil der Energie. :D
Das war ein kluger Schachzug von Nvidia. Sie haben einfach das Portfolio nach oben geöffnet. Um im niedrigeren Segment günstiger oder besser zu werden, gibt es momentan einfach kein Druck. Hoffentlich wird das AMD ändern. Es ist wie es ist und weinen bringt hier nichts.
Um im niedrigeren Segment günstiger oder besser zu werden, gibt es momentan einfach kein Druck.
Scheinbar doch, ansonsten würde sich Ampere ja nicht gerade in den Regalen stapeln.
Kleebl00d
2022-09-21, 10:04:24
Du hast Recht, Extrapolation ist der bessere Begriff. Es geht sicherlich in die Zukunft, weil extra Warten auf Frames ist immer etwas, was man vermeidet.
Ein Gedanke, der mir dazu noch gekommen ist: Wenn man mittels Extrapolation Zwischenframes erzeugt kann man die auch gezielt einsetzen, um die presitgeträchtigen 99 bzw. 1% Min-Frameraten massiv zu verbessern. Wenn jedes zweite Bild ein rechentechnisch vergleichsweise günstiges Zwischenbild ist, könnte man damit Stocker deutlich besser ausgleichen bzw. kaschieren.
Vielleicht stell ich mir das einfacher vor als es dann im Endeffekt ist, aber darauf werd ich bei den Tests mal schärfer schauen.
Exxtreme
2022-09-21, 10:07:01
Ein Gedanke, der mir dazu noch gekommen ist: Wenn man mittels Extrapolation Zwischenframes erzeugt kann das auch helfen, die presitgeträchtigen 99 bzw. 1% Min-Frameraten massiv zu verbessern. Wenn jedes zweite Bild ein rechentechnisch vergleichsweise günstiges Zwischenbild ist, könnte man damit Stocker deutlich besser kaschieren.
Vielleicht stell ich mir das einfacher vor als es dann im Endeffekt ist, aber darauf werd ich bei den Tests mal schärfer schauen.
Das ist richtig. Nur ist das leider so, dass wenn das Spiel mit 30 fps läuft und du das auf 60 fps hochspusht mittels DLSS3 dann hast du immer noch den Inputlag von 30 fps. Von daher ist dieses DLSS3 eher was für Casualgamer, die Inputlag nicht bemerken.
Leonidas
2022-09-21, 10:16:46
Ich könnte mir vorstellen, das es in Strategiespielen teilweise richtig gut sein kann. Beispielsweise bei der Ruckelorgie von Endspiel in Stellaris. Da wäre es doch schöner, wenn man die Karte flüssig scrollen kann. Seiteneffekte auf Spiel sind da kaum zu erwarten - in diesem konkreten Fall.
Loeschzwerg
2022-09-21, 10:18:06
Das hat aber nicht immer etwas mit "Casualgamer" zu tun, es gibt genügend Titel bei denen der Inputlag eh schlecht ist z.B. Mafia Definitive Edition. Da nimmt man das Feature doch dann gerne mit.
Edit:
Sign @ Leo
Die Latenz steigt nicht, es werden ja nicht echte Frames zurückgehalten, sondern zwischen den echten Frames zusätzliche Frames generiert.
Die Frage ist ob/wieviel die Latenz sinkt, und dafür gibt es einige Hinweise:
- Lederjacke sprach von "geometric motion vectors", die Motion-Vectors vom Spiel sind also also 3D nicht wie bei DLSS2 nur 2D, womit das ganze System Informationen über den geometrischen Aufbau der Szene bekommt.
- Möglicherweise werden diese um Input-Daten wie Mausbewegungen für die berechneten Bilder angereichert. VR macht mit asychnronous timewarp schon lange vergleichbares eben gerade um die Ausgabelatenz zu verringern und Motion Sickness Vorzubeugen.
- Und schließlich hat Nvidia uns, ob gewollt oder nicht, einen Screenshot aus Cyberpunk mit FPS und Latenzangabe geliefert.
Und hier geht es von 22FPS/166ms auf 98FPS/58ms.
Es zeigt sich also eindeutig, dass sich auch die Latenz verbessert.
Wobei hier Cyberpunk möglicherweise natürlich einen positiven Ausreißer darstellt, das Spiel hat generell sehr schlechte Input-Latency, also extrem viel Potential zur Verbesserung. Und ob beispielsweise die CPU-limitierten Szenarien wie Flight Simulator ähnliche Verbesserungen zeigen muss sich erst in realen Tests erweisen (ich bezweifle es, gerade da man im Flight Simulator keine Mouse-Movements direkt in Perspektivenänderungen umrechnen kann).
Es geht aber um den Lag durch Eingabe nicht um die Zeit für die reine Bildausgabe. Die unterscheiden sich. Wenn die Engine immer nur für jedes real erstellte Bild ohne DLSS Eingabe erlaubt, dann siehst du zwei Bilder kannst aber nur auf eins reagieren und das erhöht den Lag der Eingabe beträchtlich. Die Vectoren dienen nur der Bildgenerierung, sie können nicht vorhersagen ob du jetzt klickst oder nicht, genau deshalb lässt Nv auch die Engine nicht darauf reagieren.
Das von NVidia Dargestellte ist die gestiegene Frametime in cp2077 und diese ergibt sich aus der Framrate, nicht der Latenz der Eingabe. Das Ganze ist der reinste Marketingmüll und nur dafür gedacht die Framrate künstlich zu steigern. Das ist imo wie er schreibt nur Show. Komplett ohne Nutzen für sch elle Spiele ich vermute die Entwickler werden es in sch ellern Shotern daher nicht anbieten und schon fällt die Leistung der neuen Gen wieder ab.
Die Latenz der Eingabe macht nur einen Bruchteil der Frametime aus und trotzdem müsste ich ein Bild warten, wenn die Engine dabei nicht auf DLSS3 reagiert. Ich sehe ein weiteres Bild das die GPU ausgeben muss, ohne das es mir möglich ist darauf zu reagieren. Was für ein Müllfeature nur um die Frameraten von Ada künstlich schneller erscheinen zu lassen.
Kleebl00d
2022-09-21, 10:22:27
Das ist richtig. Nur ist das leider so, dass wenn das Spiel mit 30 fps läuft und du das auf 60 fps hochspusht mittels DLSS3 dann hast du immer noch den Inputlag von 30 fps. Von daher ist dieses DLSS3 eher was für Casualgamer, die Inputlag nicht bemerken.
Da bin ich ganz bei dir. Für kompetetive Shooter ist das also eher nicht die erste Wahl. Da werden dann aber wohl auch nicht 30fps der Ausgangspunkt sein. Wobei 30fps ja nicht gleich 30fps sind: Wenn das Spiel typischerweise dort gedeckelt ist und man eine schön gleichmäßige Frameverteilung hat kann man sich auf den inputlag einstellen. Wenn die 30fps allerdings die Kotzgrenze der Hardware sind und die Frametimings extrem schwanken dann kommt der Inputlag da noch als weitere Erschwerniss hinzu. Ich erinner mich da an Binding of Isaac auf einer alten 15W-CPU mit integrierter Grafik, das war aufgrund von extrem schwankenden Timings unspielbar, obwohl es im Schnitt 30 bis 40fps waren.
Wenn man beispielsweise bei einem etwas fordernden RTS beim Sidescrollen einen Ruckler hat und die fps eigentlich einbrechen würden könnte das mittels Extrapolation abgefangen werden.
Exxtreme
2022-09-21, 10:37:02
Das hat aber nicht immer etwas mit "Casualgamer" zu tun, es gibt genügend Titel bei denen der Inputlag eh schlecht ist z.B. Mafia Definitive Edition. Da nimmt man das Feature doch dann gerne mit.
Edit:
Sign @ Leo
Ich kenne paar Causalgamer, für die sind 25 fps flüssig. :D Wenn man das auf 50 fps mittels DLSS3 pusht, die werden ausflippen vor Freude. :D
Das Feature ist eventuell gut für Games, die was Inputlag angeht schon recht angenehm sind. Also MMORPGs und so. Diese sind nicht so Inputlag-anfällig.
GrimReaper85
2022-09-21, 10:47:22
Die sind mit DLSS2 auf RTX30 gegen DLSS3 auf RTX40. Das ist leider nicht verwendbar.
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png
Nicht die ersten 3 Spiele, sie sind nur Raster und sie unterstützen nicht einmal DLSS.
3090 Ti - 100%
4080 12GB - 90%
4080 16GB - 120%
4090 - 160%
33% Leistungssteigerung bei jedem Modell bei gleicher Preissteigerung.
Loeschzwerg
2022-09-21, 10:57:25
Ich kenne paar Causalgamer, für die sind 25 fps flüssig. :D
Für Crysis 1 war das damals flüssig :D
Ich denke man darf bei der Sache einfach nicht immer Shooter und schneller Maus/Tasta Eingabe als den Maßstab sehen. DLSS3 kann einfach eine weitere Option sein um das Erlebnis hier und da zu verbessern. Nicht mehr, nicht weniger.
Wenn jedes zweite Bild ein rechentechnisch vergleichsweise günstiges Zwischenbild ist, könnte man damit Stocker deutlich besser ausgleichen bzw. kaschieren.
Kaum, damit das ganze gut funktioniert muss die Frametime zwischen echten und künstlichen Frames möglichst konstant sein, das berechnete Frame also zeitlich grob in der Mitte zwischen 2 echten Frames liegen.
Da solche Slowdowns aber in der Regel nicht vorhersehbar sind, wird das dazu führen, dass ein echtes Frame angezeigt wird, dann schnell danach ein künstliches, dann laaange Pause bis zum nächsten echten Frame.
Was allerdings denkbar wäre ist eine Weiterentwicklung, die dynamisch nicht nur jeweils 1 Zwischenframe berechnet, sondern falls das nächste echte zu lange dauert einfach mehrere künstliche nachschießt.
Es geht aber um den Lag durch Eingabe nicht um die Zeit für die reine Bildausgabe. Die unterscheiden sich. Wenn die Engine immer nur für jedes real erstellte Bild ohne DLSS Eingabe erlaubt, dann siehst du zwei Bilder kannst aber nur auf eins reagieren und das erhöht den Lag der Eingabe beträchtlich.
Der Lag der Eingabe erhöht sich in keinem Fall, er verringert sich nur nicht in jedem Fall.
Jede Eingabe die du tätigst kann sich frühestens auf den übernächsten berechneten Frame auswirken. Eine Eingabe kann sich nicht auf das Frame welches du gerade siehst auswirken, das ist schon fertig. Sie kann sich auch nicht auf das nächste Frame auswirken, dieses ist gerade in Arbeit, und der Gamestate der zu diesem Frame führt ist bereits am beginn des Renderings eingefroren. Frühestens beim übernächsten Frame kann sich der Gamestate also an deine Eingabe anpassen.
Sofern DLSS3 nicht die Framerate der tatsächlich berechneten Frames reduziert (und die annähernd perfekte 2x Skalierung im CPU-limitierten Flight Simulator lässt darauf schließen) wird es in keinem Fall die Latenz verschlechtern.
Die Vectoren dienen nur der Bildgenerierung, sie können nicht vorhersagen ob du jetzt klickst oder nicht, genau deshalb lässt Nv auch die Engine nicht darauf reagieren.
Man kann aber die Vektoren dazu benutzen die Zwischenbilder abhängig von deinen Eingaben zu manipulieren.
Genau das selbe passiert mit Async Timewarp/Spacewarp in VR. Deine "Mauseingabe" ist in dem Fall die Kopfbewegung, und diese könnte man genauso auf die berechneten Zwischenbilder anwenden und damit die wahrgenommene Latenz reduzieren.
Klar haben die berechneten Zwischenbilder keinen Einfluss auf den Gamestate.
Allerdings wird dieser in modernen Engines sowieso von der Grafik entkoppelt berechnet, und in aller Regel mit einer fixen Framerate. Die Zeiten in denen die Grafikframerate Einfluss auf die Gamplayphysik hat sind glücklicherweise vorbei.
Wenn du z.B. einen Flickshot machst und sich dein Fadenkreuz zum Zeitpunkt der Mausbetätigung über dem Ziel befindet wirst du treffen. Ganz unabhängig davon ob du in der Grafikausgabe jemals zu Gesicht bekommst, dass das Fadenkreuz tatsächlich über dem Ziel war.
Und eine Zwischenbildberechnung, die eben jene Mauseingaben berücksichtigt kann eben durchaus genau jenen Frame erzeugen in dem das Fadenkreuz über dem Ziel liegt, auch wenn dies in den real berechneten Frames davor und danach nie der Fall war.
Klar das Trefferfeedback kannst du frühestens im übernächsten realen Frame bekommen, aber das wichtigste ist eben dass die Mauseingabe sich möglichst direkt am Bildschirm anfühlt, und das kannst du auch mit den Zwischenbildern bekommen, sofern diese auf Eingaben zwischen den Frames reagieren.
Das von NVidia Dargestellte ist die gestiegene Frametime in cp2077 und diese ergibt sich aus der Framrate, nicht der Latenz der Eingabe.
GFE gibt die gesamte Renderlatenz an, die Latenz ist ja wesentlich höher als die reine Frametime.
Die Latenz der Eingabe macht nur einen Bruchteil der Frametime aus und trotzdem müsste ich ein Bild warten, wenn die Engine dabei nicht auf DLSS3 reagiert.
Die Latenz der Eingabe macht je nach Engine mehr bis viel mehr aus als die reine Frametime, siehe auch die Latenzangaben von Nvidia bei den kompetitiven Shootern zwischen 8 und 9ms bei über 300FPS.
Die Frametime ist hier nur 3ms und damit ein gutes Drittel der Gesamtlatenz.
...nur um die Frameraten von Ada künstlich schneller erscheinen zu lassen.
Es ist schon eine Verbesserung weil die Framerate an sich steigt und damit die Framelatenz fällt, damit auch der Inputlag. Es wird einem nur vorgegaukelt, dass es bei 25fps non DLSS versus 100fps DLSS3 für jedes Bild der Fall wäre, ist es aber nicht denn die Engine kann nur auf 50fps reagieren, was trotzdem eine Steigerung von 100% wäre - wenn ich von 25fps ausgehe, aber eben NICHT 4-fach. Nvidia sagt da anscheinend nicht ganz die Wahrheit, wobei die Steigerung dann nur dem Rasterisierungszugwinn entspricht (+100% im besten Fall und im CPU Bottleneck). Ich finde das irreführend. Also 4-fach unter DLSS3.0 ist was die Eingabelatenz angeht komplett gelogen. Das erinnert an : "...not a Bug, is a Feature!"... Huang lernt einfach nichts aus diesen ganzen Miseren.
Viel schlimmer finde ich das man ADA unter NON DLSS mit mit DLSS 3 verglichen hat und nicht ADA DLSS3 versus Ampere DLSS2. Dann würde man nämlich zugleich erkennen, das Faktor 4 kompletter Unsinn ist wenn dort Bilder generiert werden, auf die die Engine keinen Zugriff hat. Im CPU Bottleneck, wenn man in UHD jemals in einem CPU Bottleneck feststecken würde, steigert auch DLSS2 die Bildrate.
Lovelace ist imo was die reinen Feature angeht eine komplette Mogelpackung und beim Preis sowieso. Anscheinend ist das Leistungsvermögen der Hardware komplett der Kappung wegen besserer Effizienz zum Opfer gefallen. 450w versus 800w wie einst geplant, wegen des Shitstorms nach bekannt werden und weil man das nicht verkauft bekommt (zusätzliche Peripheriekosten).
Lovelace ist bisher komplett so ausgelegt, dass man Ampere abverkaufen kann, nur tut man sich damit keinen Gefallen. Denn wenn man Ampere abverkauft hat (vermutlich mit erheblichen Verlusten für die Partner) wird man Lovelace genauso wenig los. Es geht also über Gens genauso weiter wie bisher, steigende Preise der neuen Gen, künstliche Verknappung bei steigenden Preisen wegen gleichbleibenden Gewinnen, bei Verlusten auf der Vorgänger-Gen, kein Wachstum und nur Trollfeature die die neue Gen gut aussehen lassen, aber kaum wirklichen Nutzen haben. Bei Nvidia ist komplett die Luft raus, die sind richtig festgefahren und verlieren über kurz oder lang mit dieser Preisgestaltung den Zuspruch ihrer Käufer.
Hoffen wir AMD kann dagegen halten, die würden mit einer aggressiven Preisgestaltung Nvidia richtig abschießen. Dazu müssen sie nicht mal schneller sein. Effizienter und Preiswerter würde in dem derzeitigen Pulverfass komplett reichen. Nvidia bekommt dort keine Ruhe rein. So unfähig hätte ich die ehrlich gesagt nicht eingeschätzt. Aber wenn es mal anders kommt als geplant, zeigt sich erst welche Führungsqualitäten das Management besitzt. Die scheinen komplett unfähig zu sein, einzuschätzen was der Markt gerade fordert um dafür Produkte zu entwickeln. Mit AI rennen sie in eine Sackgasse, aus der es kein zurück mehr gibt. Das nimmt ein böses Ende, da AI wie RT die Hardware extrem verteuert, riesen Aufwand wegen dedizierter Feature für Entwickler bedeutet und damit die Preise komplett über den Haufen wirft. In einer Phase in der man eher Bodenständigkeit braucht und nicht abgehobenen Tant. Vermutlich werden so, immer mehr beim PC Gaming abspringen und dann überlässt man sie AMD, so oder so.
Was ist denn nun mit 600$ Durchschnittpreis für GPUs als Konsolen im PC? Der Preis liegt derzeit doppelt so hoch für ADA als bei der Vorgängergen! Huang Gefasel inbegriffen...alle Karten über 1000$ nach Steuern. Im Durchschnitt vor Steuern liegt der Preis bei 1120$. Mit Steuern bei 1657$ für Ada im Durchschnitt. Verdreifachung von dem was er angekündigt hat.:crazy2:
Fy Huang :ass2:, Fy NVIDIA :ucrazy2:. Go to hell and won't come back!!!! :ufinger:
Der Lag der Eingabe erhöht sich in keinem Fall, er verringert sich nur nicht in jedem Fall.
Hat gastello doch so geschrieben! Nochmal genauer lesen.
...bzw. wird durch die höhere FPS Rate nicht minimiert.
Es ist doch eigentlich der Sinn des Ganzen, die niedrigere Frametime wirkt auch auf den Inputlag, sonst braucht du keine 300 Bilder, die sieht eh niemand mehr.
Die Latenz der Eingabe macht je nach Engine mehr bis viel mehr aus als die reine Frametime, siehe auch die Latenzangaben von Nvidia bei den kompetitiven Shootern zwischen 8 und 9ms bei über 300FPS.
Die Frametime ist hier nur 3ms und damit ein gutes Drittel der Gesamtlatenz.
Und wenn du über deine Eingabelatenz jetzt 6 Bilder siehst, anstatt 3? Es ist nicht mal klar wie viele Bilder Nvidia zwischen den realen Bildern der Engine einstreuen muss. Die Bildberechnung ist nicht gleichlang und mit VSync macht die Latenz richtig geile Sprünge. Das Feature ist der reinste Müll und dient nur dazu Ada besser aussehen zu lassen. Ich kann mir das Gefrickel daran schon gut vorstellen und den Frust bei den Anwendern. Siehe DLSS bis heute...
Was Nvidia da zeigt ist Cherrypicking in einem CPU Bottleneck ohne DLSS, vermutlich RT reingeprügelt, versus DLSS3 wo keiner weiß was das wirklich ist. In Wahrheit sind es dann 10% gegenüber alten Ansätzen oder noch weniger, steigert aber die reine Framerate zu Demonstrationszwecken auf ADA extrem und sie reden dann von 4-fach. Mogelpackung whatever vom Nvidia Betrügerverein.
Scheinbar doch, ansonsten würde sich Ampere ja nicht gerade in den Regalen stapeln.
Das wird aber auch nicht besser wenn man Ampere mit besseren Lösungen Konkurrenz macht. Dann bleiben die Regale auf ewig voll oder man muss mit dem Preis runter. Also lieber teuer auslaufen lassen.
Ich bin auch ein wenig enttäuscht. Insbesondere die 4080 12 GB mit 192 Bit SI schießt imho den Vogel ab.
Da fühlt man sich in die Zeit der GeForce GTX 460 768 MB zurückversetzt, die auch nur das halbe SI der 480 hatte. Die war aber als Mittelklasse Karte mit knapp über 200€ Startpreis auch sinnvoll eingepreist.
Es ist doch eigentlich der Sinn des Ganzen, die niedrigere Frametime wirkt auch auf den Inputlag, sonst braucht du keine 300 Bilder, die sieht eh niemand mehr.
Doch die braucht man auch so, Latenz ist nur eine Seite der Medaille, die andere ist die Bewegtbildschärfe, die mit höheren Frameraten zunimmt.
Es ist nicht mal klar wie viele Bilder Nvidia zwischen den realen Bildern der Engine einstreuen muss.
Doch das ist klar, für jedes echte Bild gibt es ein zusätzliches dazwischen.
Die Bildberechnung ist nicht gleichlang und mit VSync macht die Latenz richtig geile Sprünge.
Wer auf Latenz wert legt hat noch nie mit VSYNC gespielt, und seit VRR ist VSYNC endgültig tot.
MiamiNice
2022-09-21, 13:07:05
Fy Huang :ass2:, Fy NVIDIA :ucrazy2:. Go to hell and won't come back!!!! :ufinger:
Das hast Du falsch verstanden. Eine vergleichbar schnelle GPU, wie in einer Konsole, soll so viel kosten wie eine Konsole.
Ergo 4050 für um 499€.
Also passen die aktuellen Preise.
Eine 4090 hat ca. 9x mehr Power als eine aktuelle Konsole. Da wären eigentlich 4500€ angebracht. Die 4090 ist daher ein absolutes Schnäppchen.
Man muss einfach mehr kaufen, dann wird es günstiger ;)
Es wird einem nur vorgegaukelt, dass es bei 25fps non DLSS versus 100fps DLSS3 für jedes Bild der Fall wäre, ist es aber nicht denn die Engine kann nur auf 50fps reagieren
In jeder modernen Engine läuft die Gamelogic unabhängig von der Grafik und üblicherweise mit fixer Framerate. Deine Gamelogic reagiert z.B. mit 60FPS, ganz unabhängig davon ob die Grafik mit 20 oder 300FPS läuft.
Konami
2022-09-21, 13:28:20
Der Lag der Eingabe erhöht sich in keinem Fall
Ich gebe dir folgenden Fall:
Ich habe einen G-sync/Adaptive Sync Monitor; innerhalb der Adaptive Sync Hz-Range triggert jedes fertige Frame, welches meine GPU an den DisplayPort schickt, einen sofortigen Refresh des Monitors. Danach kann der Monitor erstmal nicht direkt neu refreshen, es gibt ein Timeout von z.B. 7 ms (bei einem 144 Hz Monitor).
Meine tolle RTX 40 Graka generiert mit DLSS 3.0 künstliche Frames, die wiederum eigene Monitor-Refreshes auslösen – wie soll das gehen, ohne dass ab und zu die realen (mit neuem CPU-Input original gerenderten) Frames erst verzögert auf meinem Monitor angezeigt werden?
Das hast Du falsch verstanden. Eine vergleichbar schnelle GPU, wie in einer Konsole, soll so viel kosten wie eine Konsole.
Ich glaube nicht mal Huang selbst hat verstanden was er da gesagt hat. Wobei er von 600$ für eine Konsole ausgeht, die Schnellste kostet bei M$ glatte 499 Euro inkluisve MwSt. Alle anderen sind im DURCHSCHNITT aller Konsolen preiswerter, in $ sowieso.
Egal was er raucht oder nimmt, soll er davon weniger nehmen. Die 3050 ist ein Krüppel wer die 4050 zu solchen Preisen kauft ist selbst Schuld. Damit kann kein Mensch spielen, weil das ein Stück tote Hardware ist.
ADA wird ein Rohrkrepierer. Hat Nvidia selbst verursacht, aber es gibt genug so wie dich die alles kaufen, da kann sich nV zu 100% drauf verlassen.
Ich sage dir trotzdem schwindende Geschäftszahlen voraus und damit weiter steigende Preise. Wer da noch mitgeht ist selbst Schuld.
Meine tolle RTX 40 Graka generiert mit DLSS 3.0 künstliche Frames, die wiederum eigene Monitor-Refreshes auslösen – wie soll das gehen, ohne dass ab und zu die realen (mit neuem CPU-Input original gerenderten) Frames erst verzögert auf meinem Monitor angezeigt werden?
Das ginge nur wenn die Frames zu schnell, sprich über der VRR-Range erzeugt werden.
Dann gibt es 2 Möglichkeiten:
- Du hast zusätzlich VSYNC aktiv --> es gibt eine zusätzliche Verzögerung wie immer mit VSYNC, ganz unabhängig von DLSS
- Du hast kein VSYNC aktiv, dann gibt es auch keine Verzögerung aber potentiell tearing.
In jedem Fall kann es das Problem nur geben wenn du außerhalb der VRR Range bist, und damit deine erste Bedingung nicht erfüllst.
Vita Brevis ars Longa
2022-09-21, 14:11:12
899$ / 1099€ für die kleinere 4080 ist sehr ambitioniert von Nvidia, in einer sich abschwächenden Weltwirtschaft. So viel hat einmal die erste Titan gekostet.
Und was wird die 4060 kosten, 499$ / 599€?
Das führt dann zu solchen Kommentaren:
Wow. Damit ist Gaming mit dem PC als Hauptplattform (zumindest mit Nvidia) für mich gestorben. Ich versuche mir jetzt noch irgendeine „günstige“ und sinnvolle Alternative ggü. meiner 1070 zu holen, um noch meine Multiplayer Games ordentlich zu spielen, aber das Thema mit grafisch anspruchsvollen Spielen am PC ist für mich gegessen. AMD schaue ich mir noch an, aber preislich habe ich da ehrlich gesagt nicht allzu große Hoffnungen. Dagegen ist meine PS5 ja schon fast wie geschenkt.
https://www.computerbase.de/forum/threads/geforce-rtx-4090-rtx-4080-ada-lovelace-startet-fuer-1-099-bis-1-949-euro-ab-oktober.2104009/#post-27307641
Redirion
2022-09-21, 14:23:18
Das hast Du falsch verstanden. Eine vergleichbar schnelle GPU, wie in einer Konsole, soll so viel kosten wie eine Konsole.
Ergo 4050 für um 499€.
Also passen die aktuellen Preise.
ich vermisse irgendwie deine grinsenden Ironie-Smileys. Das kann unmöglich dein ernst sein.
MiamiNice
2022-09-21, 14:27:55
Ich habe nur den CEO von Nvidia wiederholt. Eventuell fehlende Smileys müsstest Du daher bei ihm erfragen. Ich bin mir allerdings recht sicher, das da keine Smileys fehlen.
Da ist ne rx6800xt für 679 doch ein Schnäppchen. Die prügelt AMD jetzt mit Preisnachlässen in den Markt. Kann man wunderbar auf 235w undervolten.
https://geizhals.de/xfx-radeon-rx-6800-xt-v66201.html
Scheiss watt auf Nv. Dann RT eben nur auf Mittel.
Scheiss watt auf Nv. Dann RT eben nur auf Mittel.
Ich hol mir doch keine Karte die weniger RT Performance hat als meine jetzige.
Eigenartig da Turing und Ampere das Optical Flow SDK zur Interpolation und Extrapolation von Frames beherrschen. Nvidia bewirbt es unter dem Thema Videobearbeitung extra. Das ist unter DLSS 3 dann nichts anderes.
https://developer.nvidia.com/opticalflow-sdk
Genau deshalb kann auch der Inputlag in Spielen nicht unbedingt minimiert werden, es ist einfach ein "Zwischenbild" auf Basis eines intelligenten Objekttrackings das die Framerate glättet. Das wird von der Engine überhaupt nicht ausgegeben.
Ein Glück, das das www nie was vergisst. Es ist keine von dedizierter Hardware unabhängie Funktion und Huang/nVidia hat mal wieder gelogen was das angeht. Besondere Cuda-Cores ab einer bestimmten Entwicklungsstufe braucht es dafür nicht. Der Lügenbaron mal wieder.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.