Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4080 Review-Thread


Seiten : 1 [2] 3 4 5

SamLombardo
2022-11-17, 22:42:10
4080 vs 4090. 4090 Monster. 4080 na,ja...
4080 vs 3090. 3090 kriegt man unter 1000 Euro. 24Gb. Reicht vollig aus.
4080 vs 7800. 7800 DP. Preis. VRAM. Besser?

Ich sehe wirklich (für das Preis 1469) kein Grund 4080 zu kaufen.
Na, 3090 unter 1000...höchstens gebrauchte Ex Miner. Ansonsten wenn du Glück hast 1200€, eher mehr. Bei 3090ti bist du schon mit fast 1400€ dabei. Die 4080 ist in UHD laut PCGG ~40% vor der 3090. Bei einem 20 Prozent höheren Preis. Ergo das bessere Angebot.

Ex3cut3r
2022-11-17, 23:17:08
Wer eine 3090 hat, muss auf die 4090 gehen, nur dann lohnt es sich IMHO.
Oder man setzt einfach mal eine Gen aus, da fällt kein Zacken aus der Krone.

Bei CB sind es nur 25%

https://abload.de/img/screenshot2022-11-172mpfpe.png

Und 27% im RT

https://abload.de/img/screenshot2022-11-172mpcsv.png

SamLombardo
2022-11-17, 23:26:23
Hm strange. Bei PCGH sind es meist um die 40 (meist knapp drunter, 38, 39%)

Aber gar keine Frage, von der 3090 kommend ist die 4080 kein lohnenswertes Upgrade.

Wiseman
2022-11-18, 00:24:20
Fairerweise müsste man beim Vergleichen von der 3090 Ti ausgehen. AMD macht es ja auch so. AMD vergleicht die kommenden 7900XT und 7900XTX nicht mit der 6900XT, sondern mit der 6950XT.

Und da schaut es laut ComputerBase so aus:

Rasterizer:
RTX 3090 Ti ---> RTX 4080 FE: + 18%

Raytracing:
RTX 3090 Ti ---> RTX 4080 FE: + 20%

Palpatin
2022-11-18, 01:27:27
Sowohl in Relation zur 4090 als auch zur Vorgänger Generation. Kann ja jeder anders sehen.
Der Vorgänger ist die 3080. Die 4080 ist aktuell ca. 100% teurer für ca. 50% mehr Leistung. 50% mehr Leistung für 50% mehr Preis wäre zwar auch nicht schön gewesen, aber ja Inflation schwacher Euro usw. wäre noch irgendwo akzeptabel gewesen.

SamLombardo
2022-11-18, 01:56:22
Der Vorgänger ist die 3080. Die 4080 ist aktuell ca. 100% teurer für ca. 50% mehr Leistung. 50% mehr Leistung für 50% mehr Preis wäre zwar auch nicht schön gewesen, aber ja Inflation schwacher Euro usw. wäre noch irgendwo akzeptabel gewesen.
Ja wie gesagt, kann man so sehen. Man kann sich über den kleineren Chip oder den Preissprung von der 3080 aufregen, alles legitim.
Man kann aber auch danach gehen, wie viele FPS man aktuell pro bezahltem Euro bekommt. Dann sieht die 4080 auf einmal gar nicht mehr schlecht aus. Gerade gegen die aktuellen Preise von 3090(ti)...und auch 4090 in Relation.

r3ptil3
2022-11-18, 02:10:38
https://youtu.be/9REpbVkV4_Q

Ziemlich vermurkste Presets bei der Lüftersteuerung, dafür kein Spulenfiepen.

Hinzu kommt noch dass dieser LCD-Screen nicht steuerbar ist.

Er sagt es im Video selber, ging bei der RTX 4090 Master zum Release nicht und jetzt auf beiden Modellen immer noch nicht. Absoluter Witz bei den Preisen und der Vermarktung dieses LCD-Screens. Ist ja sogar auf der Schachtel hinten als Alleinstellungsmerkmal extra noch drauf inkl. dem Hinweis dass man es nach eigenen Wünschen einstellen kann.

Also zusammengefasst für die Master 4080:

- riesiger Kühler (der grösste wenn ich mich nicht irre) und gleichgross wie bei der RTX 4090 Master, kühlt aber bei änhlicher Umdrehung wesentlich schlechter, trotz des viel tieferem Verbrauch
- kleinerer Vapor-Chamber als bei der Master 4090
- LCD-Screen nicht zu gebrauchen, da springt dann ständig dieses Gigabyte-Maskottchen rum, übelst nervig :freak:, nix mit Temp. Anzeige usw.

Bei dem Preis muss man absolute Top-Qualität erwarten, ansonsten würde ich das möglichst in allen Foren kritisieren.

DrFreaK666
2022-11-18, 02:14:56
Ja wie gesagt, kann man so sehen. Man kann sich über den kleineren Chip oder den Preissprung von der 3080 aufregen, alles legitim.
Man kann aber auch danach gehen, wie viele FPS man aktuell pro bezahltem Euro bekommt. Dann sieht die 4080 auf einmal gar nicht mehr schlecht aus. Gerade gegen die aktuellen Preise von 3090(ti)...und auch 4090 in Relation.

Bei ebay gibt es die Voodoo 5 5500 für 770€. Im Vergleich zu dieser ist der Preis mehr als angemessen :ugly:

SamLombardo
2022-11-18, 02:33:12
Bei ebay gibt es die Voodoo 5 5500 für 770€. Im Vergleich zu dieser ist der Preis mehr als angemessen :ugly:
Ich sage doch nicht, dass die hohen Preise gut oder angemessen sind. Kein bisschen. Ich finde die komplette Preispolitik beschissen, weil sie über kurz oder lang PC Gaming zerstört. Aber das ist doch gar nicht das Thema. Wenn ihr den Inhalt meiner Postings mit Absicht fehlinterpretiert oder tatsächlich nicht einordnen könnt, kann ich es auch nicht ändern.

DrFreaK666
2022-11-18, 02:58:24
Ich sage doch nicht, dass die hohen Preise gut oder angemessen sind. Kein bisschen....

Du hast die Karte mit anderen Karten verglichen, die ein genauso schlechtes P-L-Verhältnis haben. So steht die 4080 nicht mehr so schlecht da.
Das kann man sicherlich bei den meisten Produkten machen, um den Kauf rechtfertigen

SamLombardo
2022-11-18, 03:12:31
Du hast die Karte mit anderen Karten verglichen, die ein genauso schlechtes P-L-Verhältnis haben. So steht die 4080 nicht mehr so schlecht da.
Das kann man sicherlich bei den meisten Produkten machen, um den Kauf rechtfertigen
Hm. Aber das ist nun mal der aktuelle Stand bei Highend. Ich habe versucht, die 4080 hier erstmal wertungsfrei einzuordnen. Dass das ganze Preisgefüge in dieser Region zwei Oktaven zu hoch ist, ist unbestritten.

dildo4u
2022-11-18, 06:44:32
Hm. Aber das ist nun mal der aktuelle Stand bei Highend. Ich habe versucht, die 4080 hier erstmal wertungsfrei einzuordnen. Dass das ganze Preisgefüge in dieser Region zwei Oktaven zu hoch ist, ist unbestritten.
Die meisten Test zeigen es nicht aber die 4080 kann im Härtefall 50% hinter der 4090 liegen bei RT in echten Games, für die Raster Optik ist die 4090 oft schon zu mächtig in 4k und kann nicht ausgelastet werden.

https://youtu.be/3bupXxjx0Js?t=516

Es hat sein Grund warum AMD sich auf die 4080 festbeißt, der RT Vorteil könnte kleiner als gedacht sein.
Sie ist selbst gegen die 4090 viel zu teuer.

The_Invisible
2022-11-18, 07:18:59
Oder man setzt einfach mal eine Gen aus, da fällt kein Zacken aus der Krone.



Ähm, ist das die gleiche Aussage was einige zur 3000er Serie tätigten und auf die 4000er warteten weil diese günstiger werden soll? Oder meinst weil man mehr ansparen kann ;D

Sumpfmolch
2022-11-18, 08:45:50
Ähm, ist das die gleiche Aussage was einige zur 3000er Serie tätigten und auf die 4000er warteten weil diese günstiger werden soll? Oder meinst weil man mehr ansparen kann ;D

Tjoa letzte Generation waren die Scalperpreise der Händler scheiße, jetzt spielen die GPU Hersteller selbst den Scalper.

Die Frage ist halt, hat man sich schon weich kochen lassen und zahlt jetzt einfach jeden Preis? So eine PS5 ist eigentlich auch ganz schön und von den 1000€, die man spart, kann man sich nicht wenige Games kaufen...

ChaosTM
2022-11-18, 08:48:11
4080 vs 4090. 4090 Monster. 4080 na,ja...
4080 vs 3090. 3090 kriegt man unter 1000 Euro. 24Gb. Reicht vollig aus.
4080 vs 7800. 7800 DP. Preis. VRAM. Besser?

Ich sehe wirklich (für das Preis 1469) kein Grund 4080 zu kaufen.


Gebraucht bei 3090er trau ich mir ehrlich gesagt nicht wegen Mining und die 3090ti versauft bei gleicher Bildrate das Doppelte. Geht gar nicht.

DLSS3 kommt sicher ach bald für Ampere (und irgendwann auch was vergleichbares von AMD) aber das hätte ich schon ganz gerne jetzt, speziell für den FS2020. Für VR wird das unbezahlbar. Wer das Spiel mal in "3D" gesehen hat tut sich verdammt schwer wieder in "Flach" zu spielen.

Falls das alte Netzteil* mit der 80er nicht klar kommen sollte ist der Weg vorgegeben. Karte zurück, neues Netzteil und 4090.
Für eine 4090er wären auf alle Fälle nochmals 250 für ein gscheites ATX3 Teil fällig. Insgesamt über 1k Aufpreis.

Und ja, es war ein Impulskauf. Eine Custom 4080er zum FE** Preis. Haben will! :D


* ist zwar ein sehr gutes 650er von Bequiet und hat keinerlei Probleme mit einer massiv übertakteten 1080ti (+ 5900X) die ca. den verbrauch der 4080er hat, hat aber nur 2x 8 PIN Connectoren. Muss also mit Adaptern arbeiten

** eine FE wäre mir viel lieber da nur 3 Slots aber die zu kriegen ist nicht leicht

Inquisitor
2022-11-18, 10:22:19
Tjoa letzte Generation waren die Scalperpreise der Händler scheiße, jetzt spielen die GPU Hersteller selbst den Scalper.

Das Gefühl hab ich auch. Die Verfügbarkeit seitens der Zulieferer ist vermutlich gar nicht so viel besser geworden seit der Chipkrise und statt wieder den Händlern den Aufschlag für die Diskrepanz zwischen Angebot und Nachfrage zu überlassen, setzt nvidia direkt mal die UVP ins passende Fenster...:rolleyes:

Niall
2022-11-18, 10:28:18
Das Gefühl hab ich auch. Die Verfügbarkeit seitens der Zulieferer ist vermutlich gar nicht so viel besser geworden seit der Chipkrise und statt wieder den Händlern den Aufschlag für die Diskrepanz zwischen Angebot und Nachfrage zu überlassen, setzt nvidia direkt mal die UVP ins passende Fenster...:rolleyes:

Igor hatte dazu eine Rechnung im Labs-Forum angeteasert, da ging es grob darum, dass die Händler hier richtig satte Margen einstreichen.
Hab's gerade nicht mehr parat, aber da war meine ich mit irgendwas von 1000€ bei Warenwert Einfuhrzoll angegeben oder sowas. (Sorry, sind echt nur noch Bruchstücke gespeichert)

Raff
2022-11-18, 11:04:12
Die meisten Test zeigen es nicht aber die 4080 kann im Härtefall 50% hinter der 4090 liegen bei RT in echten Games, für die Raster Optik ist die 4090 oft schon zu mächtig in 4k und kann nicht ausgelastet werden.

https://youtu.be/3bupXxjx0Js?t=516

Es hat sein Grund warum AMD sich auf die 4080 festbeißt, der RT Vorteil könnte kleiner als gedacht sein.
Sie ist selbst gegen die 4090 viel zu teuer.

Die Frage ist, wie die zukünftige Skalierung aussieht. AD102 scheint bei moderater Raytracing-Last seine Vorteile gegenüber AD103 nicht ausspielen zu können, aber bei komplexem RT. Paar aktuelle Zahlen: 3DMark-Rangliste 2022: 55 Modelle von 2014 bis 2022 im Benchmark (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/)

Im Port Royal sind's +44 % zwischen den beiden Karten, im Speed Way interessanterweise nur +39 % in WQHD und +41 % in UHD. Erst im DXR Feature Test, bei dem purer Raytracing-Durchsatz zählt, zerstört AD102 alles (bis zu +68 %) - und dabei kommt laut Futuremark nirgends SER zum Einsatz, da das (noch) nicht innerhalb der DirectX-Spezifikation liegt.

MfG
Raff

Linmoum
2022-11-18, 11:20:10
Der Moment, wenn im DXR Feature Test die erste Grafikkarte abseits einer GeForce nicht von AMD stammt. Uff.

Raff
2022-11-18, 11:26:02
Du meinst die Arc A770, welche um elf Prozent vor der schnellsten Radeon liegt (und bei 20 Samples theoretisch noch mehr)? Yep, bitter. Aber RDNA 3 ist nah. :D

MfG
Raff

lilgefo~
2022-11-18, 11:28:10
Naja, ausser dem 3DMark läuft aber auch sonst fast nix mit Intel und spielbar ist deren RT trotzdem nicht.

Raff
2022-11-18, 11:30:19
Naja, ausser dem 3DMark läuft aber auch sonst fast nix mit Intel und spielbar ist deren RT trotzdem nicht.

Da ist vieles wacklig, aber deine Aussage ist sehr übertrieben. Die Dinger machen Raytracing ähnlich spielbar wie eine Radeon zwischen 400 und 500 Euro. Problematisch sind eher alte Spiele bzw. APIs (und werden es auf absehbare Zeit bleiben).

MfG
Raff

gnomi
2022-11-18, 11:35:33
Wir kennen die Skalierung bei nvidia von allen anderen Generationen.
Die Schere geht langfristig immer extrem zugunsten der nachfolgenden Generation auf.
Zuletzt Maxwell und Pascal, die nach etwa vier Jahren dann keine Schnitte mehr gegen die aktuellen GPU Generationen mit DLSS und RT hatten.
Durch den Schritt auf DLSS3 und die neue Architektur wird die 40er Generation alles stehen lassen. Mit besseren 30er Karten kann man noch 2024 bequem wechseln. Turing ist bereits jetzt bisschen langsam ab WQHD imho.
Die 4080 wird nicht so zukunftssicher sein. Da wird was Besseres für 1000€ kommen denke ich.
4090 ist eine ziemlich sichere Bank für ein paar Jahre Ruhe. Würde ich vorziehen, wenn Preis egal.
An so eine krasse Karte kann ich mich die letzten 10 Jahre nicht erinnern, obwohl nvidia zwischen 2012 und 2016 mit 60-80% Mehrleistung bei annährend gleichem Preis für mich die besten Serien ablieferte. (680/980/1080)

lilgefo~
2022-11-18, 11:44:52
Da ist vieles wacklig, aber deine Aussage ist sehr übertrieben. Die Dinger machen Raytracing ähnlich spielbar wie eine Radeon zwischen 400 und 500 Euro. Problematisch sind eher alte Spiele bzw. APIs (und werden es auf absehbare Zeit bleiben).

MfG
Raff

Naja ähnlich spielbar wie eine Radeon für 500€ heißt für mich das es quasi nicht spielbar ist ausser bei RT Light Spielen wie Re Village oder SOTR vielleicht. Und wenn ich bei ner 500€ Radeon RT ausmache läuft die halt anständig und Intel, von sehr wenigen Ausnahmen abgesehen, fällt dann deutlichst ab zu einer Radeon.

ChaosTM
2022-11-18, 12:13:22
Die Frage ist, wie die zukünftige Skalierung aussieht. AD102 scheint bei moderater Raytracing-Last seine Vorteile gegenüber AD103 nicht ausspielen zu können, aber bei komplexem RT. Paar aktuelle Zahlen: 3DMark-Rangliste 2022: 55 Modelle von 2014 bis 2022 im Benchmark (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/)

Im Port Royal sind's +44 % zwischen den beiden Karten, im Speed Way interessanterweise nur +39 % in WQHD und +41 % in UHD. Erst im DXR Feature Test, bei dem purer Raytracing-Durchsatz zählt, zerstört AD102 alles (bis zu +68 %) - und dabei kommt laut Futuremark nirgends SER zum Einsatz, da das (noch) nicht innerhalb der DirectX-Spezifikation liegt.

MfG
Raff


Gut zu wissen. Da ich Karten immer sehr lange habe, werde ich um die 90er wohl nicht herum kommen.

wolik
2022-11-18, 12:19:58
Hast du mal die 3090 Preise aktuell angesehen? Die billigsten sind bei 11xx und eher steigend.

Und was ist eine 7800? Wurde die schon angekündigt?

https://www.ebay-kleinanzeigen.de/s-anzeige/msi-rtx-3090-ventus-oc-24-gb-mit-restgarantie/2276618409-225-3376

Z.B. 850 Euro. 1 Jahr Restgarantie. 100% besser als 4080.

Sry. RX 7900 Serie. IMHO. Besser als 4080.

Gebraucht bei 3090er trau ich mir ehrlich gesagt nicht wegen Mining und die 3090ti versauft bei gleicher Bildrate das Doppelte. Geht gar nicht.

DLSS3 kommt sicher ach bald für Ampere (und irgendwann auch was vergleichbares von AMD) aber das hätte ich schon ganz gerne jetzt, speziell für den FS2020. Für VR wird das unbezahlbar. Wer das Spiel mal in "3D" gesehen hat tut sich verdammt schwer wieder in "Flach" zu spielen.

Falls das alte Netzteil* mit der 80er nicht klar kommen sollte ist der Weg vorgegeben. Karte zurück, neues Netzteil und 4090.
Für eine 4090er wären auf alle Fälle nochmals 250 für ein gscheites ATX3 Teil fällig. Insgesamt über 1k Aufpreis.

Und ja, es war ein Impulskauf. Eine Custom 4080er zum FE** Preis. Haben will! :D


* ist zwar ein sehr gutes 650er von Bequiet und hat keinerlei Probleme mit einer massiv übertakteten 1080ti (+ 5900X) die ca. den verbrauch der 4080er hat, hat aber nur 2x 8 PIN Connectoren. Muss also mit Adaptern arbeiten

** eine FE wäre mir viel lieber da nur 3 Slots aber die zu kriegen ist nicht leicht

So oder so wirst du viel Spaß damit haben, und nach oben (4090) ist auch eine Möglichkeit ;)
Ich fand DLSS 3.0 wegen des fehlenden Vsync nicht so spannend. Ich benötige möglicherweise einen Monitor mit Gsync.

ChaosTM
2022-11-18, 12:23:16
https://www.ebay-kleinanzeigen.de/s-anzeige/msi-rtx-3090-ventus-oc-24-gb-mit-restgarantie/2276618409-225-3376

Z.B. 850 Euro. 1 Jahr Restgarantie. 100% besser als 4080.

Sry. RX 7900 Serie. IMHO. Besser als 4080.


Wenns keine Mining Karte war wäre das ein guter Preis, ja

Matrix316
2022-11-18, 12:43:24
https://www.ebay-kleinanzeigen.de/s-anzeige/msi-rtx-3090-ventus-oc-24-gb-mit-restgarantie/2276618409-225-3376

Z.B. 850 Euro. 1 Jahr Restgarantie. 100% besser als 4080.

Sry. RX 7900 Serie. IMHO. Besser als 4080.

[...]

Also von der Performance ist eine 3090 aber nicht besser als eine 4080. Vom P/L Verhältnis schon, aber dadurch bekommt man auch nicht mehr FPS, nur weil eine Karte mehr FPS pro Euro oder Watt oder sonstwas bekommt. Da zählen nur die FPS an sich.

Bei den neuen Radeons müssen wir aber mal abwarten. :) Da spekulier ich ja selbst auf eine 7900XTX.

Blase
2022-11-18, 13:09:38
Also von der Performance ist eine 3090 aber nicht besser als eine 4080[...]

Ging imho eher darum zu sagen - "bevor ich mir ne 4080 kaufe...".

Dann lieber für deutlich kleineres Geld (jetzt) ne 3090 / Ti oder noch etwas warten und dann zu AMD wechseln - oder natürlich gleich zur 4090 (zu UVP - sollte ja nicht mehr lange dauern) greifen...

Die 4080 ist ja mitnichten eine schlechte Karte - sie hat nur so ein unfassbar miesen Preispunkt, für eine 80er Karte :freak:

MfG Blase

Matrix316
2022-11-18, 13:26:56
Ging imho eher darum zu sagen - "bevor ich mir ne 4080 kaufe...".

Dann lieber für deutlich kleineres Geld (jetzt) ne 3090 / Ti oder noch etwas warten und dann zu AMD wechseln - oder natürlich gleich zur 4090 (zu UVP - sollte ja nicht mehr lange dauern) greifen...

Die 4080 ist ja mitnichten eine schlechte Karte - sie hat nur so ein unfassbar miesen Preispunkt, für eine 80er Karte :freak:

MfG Blase
Vielleicht wäre 4080TI oder 4090 16GB der bessere Name. Aber andererseits ist die 4090 zu weit weg eigentlich. Die Idee:

4090 wird zur Titan RTX 9180 und dann kann man die 4080 wieder für unter 1000 Euro anbieten, weil keiner mehr eine Beziehung zur 4090 haben würde. ;)

Blase
2022-11-18, 13:31:07
Vielleicht wäre 4080TI oder 4090 16GB der bessere Name. [...]

Naja, was passiert, wenn man mal einfach so aus dem Bauch heraus einen Produktnamen platziert, der da aber so überhaupt nicht hin gehört, hat nVidia ja bereits herausgefunden. Stichwort "4080 12 GB" :P

Gibt ja nicht mal wenige, die selbst die 4080 16 GB diesbezüglich als fragwürdig einstufen...

MfG Blase

Si|encer
2022-11-18, 13:32:00
3090TI rund 30% langsamer als eine 4080, dafür (je nach Angebot) 700-900 € günstiger.

Da könnten einem auf Dauer nur noch die Strompreise einen Strich durch die Rechnung machen, denn die 3090TI säuft soviel Strom wie es für die derzeitige Situation eigentlich unwürdig/unmoralisch ist.

Atma
2022-11-18, 13:34:41
und die 3090ti versauft bei gleicher Bildrate das Doppelte. Geht gar nicht.
Die 3090 Ti ist nur durstig wenn du sie lässt. Mit meiner Curve ist sie unter Last fix bei 2010 MHz mit 0,945v. Resultiert unter Volllast je nach Spiel in einer Leistungsaufnahme von 350-380 Watt. Liegt keine Volllast an, geht es oft sogar in den Bereich von 250-300 Watt. Die 3090 Ti hat zu unrecht einen schlechten Ruf als Säufer, das Untervoltingpotential ohne Leistungsverlust ist enorm, mit minimalen Leistungsverlust sogar noch größer. 1,9 GHz bei 0,9v und bestenfalls 300-320W unter Volllast sind easy möglich.

Slipknot79
2022-11-18, 13:41:00
Also wenn die 4080 Strix 1900EUR kostet und die 4090FE 1949EUR.
Dann wird die 4080Ti zwischen 1900 und 1949EUR kosten? :redface:

Matrix316
2022-11-18, 13:53:06
3090TI rund 30% langsamer als eine 4080, dafür (je nach Angebot) 700-900 € günstiger.

Da könnten einem auf Dauer nur noch die Strompreise einen Strich durch die Rechnung machen, denn die 3090TI säuft soviel Strom wie es für die derzeitige Situation eigentlich unwürdig/unmoralisch ist.
700~900 nur gebraucht günstiger.

Die billigste 3090TI auf Geizhals kostet 1391,52 Euro https://geizhals.de/kfa-geforce-rtx-3090-ti-ex-gamer-1-click-oc-39ixm5md6hek-a2706039.html?hloc=at&hloc=de

Und damit sind es nur 140 Euro zur billigsten 4080 für 1529 Euro https://geizhals.de/zotac-gaming-geforce-rtx-4080-trinity-zt-d40810d-10p-a2848024.html?hloc=at&hloc=de

Blase
2022-11-18, 14:00:12
700~900 nur gebraucht günstiger.

Die billigste 3090TI auf Geizhals kostet 1391,52 Euro https://geizhals.de/kfa-geforce-rtx-3090-ti-ex-gamer-1-click-oc-39ixm5md6hek-a2706039.html?hloc=at&hloc=de

Und damit sind es nur 140 Euro zur billigsten 4080 für 1529 Euro https://geizhals.de/zotac-gaming-geforce-rtx-4080-trinity-zt-d40810d-10p-a2848024.html?hloc=at&hloc=de

Ich kann schon nachvollziehen, warum manche vor Gebrauchtkäufen zurück schrecken... aber die 3090Ti wurde im April diesen Jahres überhaupt erst eingeführt. Also ist sie aufgrund des knappen Zeitabstands schlimmstenfalls 7 Monate alt und hat Mining sehr wahrscheinlich auch noch nie gesehen. Also dann einfach mal 500+ Euro mehr ausgeben, nur weil man gebraucht nicht mag... also ich weiß ja nicht :freak:

Also wenn die 4080 Strix 1900EUR kostet und die 4090FE 1949EUR.
Dann wird die 4080Ti zwischen 1900 und 1949EUR kosten? :redface:

Ach, da geht doch ganz klar ne 4080Ti für 1929 Euro rein ;D

MfG Blase

Si|encer
2022-11-18, 14:23:42
Die billigste 3090TI auf Geizhals kostet 1391,52 Euro https://geizhals.de/kfa-geforce-rtx-3090-ti-ex-gamer-1-click-oc-39ixm5md6hek-a2706039.html?hloc=at&hloc=de



Ok, ich gehe davon aus, das wenn man sich eine 3090TI kaufen will (oder man sich keine 1500k+ Karte leisten kann oder will) man auf ein Angebot reagiert und sie nicht zum Normalpreis kauft.

Aber durch die 40er Preise steigen die alten Karten ja nun auch wieder.

robbitop
2022-11-18, 14:27:15
Wenn man sieht wie stark die 4090 den AD102 Chip deaktiviert ist, könnte man eigentlich sagen, das ist bereits die 4080 ti. Zumindest wenn man nach den Relationen von Ampere gehen würde.

Matrix316
2022-11-18, 14:52:33
Ich kann schon nachvollziehen, warum manche vor Gebrauchtkäufen zurück schrecken... aber die 3090Ti wurde im April diesen Jahres überhaupt erst eingeführt. Also ist sie aufgrund des knappen Zeitabstands schlimmstenfalls 7 Monate alt und hat Mining sehr wahrscheinlich auch noch nie gesehen. Also dann einfach mal 500+ Euro mehr ausgeben, nur weil man gebraucht nicht mag... also ich weiß ja nicht :freak:
[...]
Ok, ich gehe davon aus, das wenn man sich eine 3090TI kaufen will (oder man sich keine 1500k+ Karte leisten kann oder will) man auf ein Angebot reagiert und sie nicht zum Normalpreis kauft.

Naja, vergleich Neupreis vs Gebrauchtpreis finde ich immer etwas unfair. Die neue Karte kann ja nix dafür, dass es noch keine Gebrauchten von gibt. ;)


Aber durch die 40er Preise steigen die alten Karten ja nun auch wieder.

Und ich frag mich warum? Ich dachte die 30er liegen noch massenweise rum und müssen erst mal abverkauft werden und deswegen sind die 40er so teuer?

Wenn man sieht wie stark die 4090 den AD102 Chip deaktiviert ist, könnte man eigentlich sagen, das ist bereits die 4080 ti. Zumindest wenn man nach den Relationen von Ampere gehen würde.

Braucht man nicht den vollen Chip dann noch für die 4090TI für 2000 $ UVP? ;)

Pumpi74
2022-11-18, 15:04:00
1499€ in den "DamnDeals". 100 Stück verfügbar:

https://www.mindfactory.de/DAMN

gnomi
2022-11-18, 20:41:17
Bin ja mal gespannt, wie lange sich die 4080 zu diesem Preis verkaufen lässt.
Gleich daneben die 3080 10GB für 750. Quasi UVP nach zwei Jahren. :D

ChaosTM
2022-11-18, 20:53:12
Die 3090 Ti ist nur durstig wenn du sie lässt. Mit meiner Curve ist sie unter Last fix bei 2010 MHz mit 0,945v. Resultiert unter Volllast je nach Spiel in einer Leistungsaufnahme von 350-380 Watt. Liegt keine Volllast an, geht es oft sogar in den Bereich von 250-300 Watt. Die 3090 Ti hat zu unrecht einen schlechten Ruf als Säufer, das Untervoltingpotential ohne Leistungsverlust ist enorm, mit minimalen Leistungsverlust sogar noch größer. 1,9 GHz bei 0,9v und bestenfalls 300-320W unter Volllast sind easy möglich.


Das stimmt auch wieder. Hab das jetzt etwas intensiver recherchiert.
Die 24GB sind auch ein nicht zu unterschätzender Faktor bei meiner Langzeit Planung.
DLSS 3 wird früher oder später auch für Ampere kommen nehme ich an.


Ich werde die 80er jetzt mal intensiv testen und dann entscheiden was weiter passiert. Sollte am Montag eintreffen.

aceCrasher
2022-11-18, 22:50:08
DLSS 3 wird früher oder später auch für Ampere kommen nehme ich an.

Da wäre ich mir nicht so sicher. Die 4XXX Serie hat laut NV ja den neuen "optical flow accelerator", ich hab das Gefühl dass NV nicht gewillt ist eine Software Lösung für die 3XXX Serie nachzuliefern.

lilgefo~
2022-11-18, 23:16:18
Glaub ich auch nicht. DLSS haben die auch nicht für Pascal rausgebracht. Nvidia ist nicht grad bekannt dafür alte Karten mit aktuellen Features auszustatten. Eher andersrum. Siehe NV25 Z Buffer.

Si|encer
2022-11-18, 23:46:46
Ich glaube die 30er Gen kann einfach kein DLSS3, weil sie zuwenig von den Sensoren haben.

ChaosTM
2022-11-18, 23:55:39
Deshalb hab ich die überteuerte 80er geordert.
Leider funkt DLSS3 mit dem FS2020 noch nicht wirklich...

Atma
2022-11-19, 04:43:27
Wenn ich sehe wie schlecht DLSS3 in Spider Man: Miles Morales abschneidet, bin ich nicht mal mehr böse darum wenn es nicht für Ampere kommt. Den fehleranfälligen, gefakten Mist mit viel zu hohen Latenzen kann Nvidia behalten.

Angesichts der Leistungsfähigkeit von Ada verstehe ich bis heute nicht was Frame Generation überhaupt für einen Sinn hat, es ist einfach nicht nötig. DLSS 2.x ist im Zweifelsfall mehr als ausreichend.

ChaosTM
2022-11-19, 04:53:29
DLSS 3 mag momentan noch nicht so funktionieren wie geplant, grundsätzlich ist die Idee aber gut.

VR zb. brach jedes letzte Frame

Hikaru
2022-11-19, 06:42:56
Kurze Zwichenfrage: Könnte eine 3090 MSI Suprim X für 550 bekommen. Reicht da ein Enermax Gold mit 650W aus? Auserdem habe ich sowieso vor das Ding sparsamer und leiser zu machen. Hab momentan noch eine 1070er und fahre 1080p. Da der Sprung eh sehr gross sein wird kann ich auf die letzten 10-15% gerne verzichten.

Die 40er Serie erscheint für mich ein (preislicher) schlechter Scherz zu sein. Somit denke ich eine ruhig laufende 3090er mit 24GB sollte mich für die nächsten Jahre beruhigen. Verfolge dennoch weiterhin nvidias feverdream mit Genuss:)

SentinelBorg
2022-11-19, 06:57:43
Sieht so aus als würden sich die 4080 echt nicht verkaufen zu dem Preis. Jetzt im Moment ist laut Geizhals quasi jedes Modell verfügbar bei mindestens einem der größeren Händler. In den USA wohl ganz ähnlich.

DrFreaK666
2022-11-19, 06:57:57
DLSS 3 mag momentan noch nicht so funktionieren wie geplant, grundsätzlich ist die Idee aber gut.

VR zb. brach jedes letzte Frame

Jede zusätzliche Latenz ist super in VR :up:

Rolsch
2022-11-19, 07:51:10
Eine 4080 ist für VR eh Käse da es die 4090 viel besser kann. Da würde man wirklich am falschen Ende sparen und jeden Tag weinen.

DrFreaK666
2022-11-19, 08:04:40
Klar, für ein Nischenprodukt, das man unregelmäßig nutzt, ist eine 2300€ Grafikkarte am sinnvollsten

Exxtreme
2022-11-19, 08:07:50
9ockJnIwFNg

MLID meint, das Ding verkauft sich sehr unterwältigend.

Rolsch
2022-11-19, 08:13:11
Klar, für ein Nischenprodukt, das man unregelmäßig nutzt, ist eine 2300€ Grafikkarte am sinnvollsten
Bischen mehr Enthusiasmus hier bitte! Der MSFS2020 in VR ist ein wahrgewordener Traum mit der 4090. Wir sind hier nicht im 3Depri Center.

DrFreaK666
2022-11-19, 08:15:57
Bischen mehr Enthusiasmus hier bitte! Der MSFS2020 in VR ist ein wahrgewordener Traum mit der 4090. Wir sind hier nicht im 3Depri Center.

Was interessiert mich der Blick weniger User? Weltweit ist VR eine Nische und wer es hat, kauft sich keine 4090.
Solltest mal öfters über den Tellerrand schauen ;)

dildo4u
2022-11-19, 08:19:43
MILD fragt sich warum sich alle überteuerten NV Karten immer verkauft haben und lässt Mining komplett aus.

Exxtreme
2022-11-19, 08:51:12
MILD fragt sich warum sich alle überteuerten NV Karten immer verkauft haben und lässt Mining komplett aus.

Beim Mining war es extrem. Aber davor war und danach ist das auch so. Und hier kann die Entscheidung AMDs mit ihrem Topdog unter 1k $ zu bleiben womöglich eine sehr gute Idee sein. Das wird wohl die Vernunft-Grafikkarte werden während die RTX 4090 eine Yolo-Grafikkarte ist. Die RTX 4080 ist weder noch.

VooDoo7mx
2022-11-19, 11:22:06
Die 4080 würde sich bestimmt besser verkaufen wenn der UVP der 4090 2500€ wäre. :ugly:

Beim Mining war es extrem. Aber davor war und danach ist das auch so. Und hier kann die Entscheidung AMDs mit ihrem Topdog unter 1k $ zu bleiben womöglich eine sehr gute Idee sein. Das wird wohl die Vernunft-Grafikkarte werden während die RTX 4090 eine Yolo-Grafikkarte ist. Die RTX 4080 ist weder noch.

Ob jetzteeine 1200€ Grafikkarte eine "Vernunft" Karte ist, lässt sich meiner Meinung nach streiten...
Zumal die 7900XTX unter Raytracing immer noch langsamer als die 4080 sein wird und auch allgemein eine schlechtere Energieeffizienz hat.

dildo4u
2022-11-19, 11:29:56
Ich würde drauf tippen das der Preisunterschied größer wird als es jetzt aussieht.
Sobald das Mining keine Rolle mehr spielte wollte niemand 1000€+ für AMD Karten ausgeben, daher denke ich das wir in 2023 Q1 schon sehr gute Preise sehen werden.

Linmoum
2022-11-19, 11:43:26
AMD zeigt doch mit den UVPs schon, dass sie nicht tiefer gehen können oder wollen mit den Preisen. Die passen einfach nicht zusammen. Die XT ist nur 10% billiger als die XTX, der Performanceabstand liegt laut AMDs eigenen Benchmarks aber bei 15-20%.

Nvidia hingegen wird mit der 4080 auch bei $1000 noch extrem hohe Margen haben und je mehr man Ampere abverkauft, desto eher wird der Preis hier auch sinken und in diese Richtung gehen.

DrFreaK666
2022-11-19, 11:45:35
Wir sind hier nicht im Speku-Forum :D

AffenJack
2022-11-19, 11:57:41
Ich hoffe, dass die bei Händlern lagernden Karten und damit wahrscheinlich schlechten Verkaufszahlen Nvidia und den AIBs gezeigt haben, dass der Preis so nicht klar geht. Bei der 4090 als Flagship versteh ich es ja, aber dass die 4080 das gleiche Preis/Leistungsverhältnis wie die Spitze hat geht einfach nicht klar.

Ich erwarte Anfang 23 ne Preissenkung auf 999$, evtl auch nur mit abgespeckten Kühlern. Aber das passt dann auch, da die Kühler gerade auch einfach nur Overkill sind für die 4080.

Wuge
2022-11-19, 12:48:44
Was interessiert mich der Blick weniger User? Weltweit ist VR eine Nische und wer es hat, kauft sich keine 4090.
Solltest mal öfters über den Tellerrand schauen ;)

Hä, wieso? Ich hätte noch meine 2080Ti wenn es kein VR gäbe?!? Die 4090 (bzw. eine 6090 wenn es sie gäbe) machen doch nur für VR überhaupt richtig sinn.

Inquisitor
2022-11-19, 12:58:40
Ich habe VR und die 4090 hauptsächlich deswegen gekauft (FS2020). Und jetzt?

Pumpi74
2022-11-19, 13:02:13
Es ist doch sinnvoller nVidia schöpft den Gewinnrahm voll ab, als das sich wieder Händler, Zwischenhändler und Scalper die Taschen voll stecken. Klar hat nVidia in der Miningphase viel Geld verdient, nur hätten sie ohne die ganzen Zwischentrittbrettfahrer noch viel mehr verdienen können. Sie scheinen liefern zu können und bekommen den Marktpreis. So lange sie weiter produzieren und liefern und irgendwann mit dem Preis runter gehen ist das doch voll in Ordnung. Wenn AMD und nVidia künstlich das Angebot verknappen wäre es natürlich eine Sauerei...

Disconnected
2022-11-19, 13:21:40
Es scheinen wohl noch zu viele 3000er auf Lager zu liegen und die 4000er sollen diese nicht ersetzen, sondern das Portfolio nach oben hin ergänzen.

Exxtreme
2022-11-19, 13:24:08
Es scheinen wohl noch zu viele 3000er auf Lager zu liegen und die 4000er sollen diese nicht ersetzen, sondern das Portfolio nach oben hin ergänzen.

Dummerweise erreichen sie wohl das Gegenteil. Die RTX 4xxx-Serie ist so teuer, dass die Händler bereits darauf spekulieren, dass die Spieler auf die RTX 3xxx-Serie ausweichen wollen. Und erhöhen schonmal die Preise für die RTX 3xxx-Grafikkarten. X-D

DrFreaK666
2022-11-19, 13:24:08
Ich habe VR und die 4090 hauptsächlich deswegen gekauft (FS2020). Und jetzt?

Und du bist jetzt die Mehrzahl der VR-User? :ugly:

BlacKi
2022-11-19, 14:36:45
Ich hoffe, dass die bei Händlern lagernden Karten und damit wahrscheinlich schlechten Verkaufszahlen Nvidia und den AIBs gezeigt haben, dass der Preis so nicht klar geht. Bei der 4090 als Flagship versteh ich es ja, aber dass die 4080 das gleiche Preis/Leistungsverhältnis wie die Spitze hat geht einfach nicht klar.


absolut. vorallendingen der letzte satz.


ich würde mir gerne eine 4080 kaufen, p/w und auch die performance generell finde ich toll. aber schlechtere p/€ als das topmodell?



ich kann noch warten...

Troyan
2022-11-19, 14:44:46
https://youtu.be/9ockJnIwFNg

MLID meint, das Ding verkauft sich sehr unterwältigend.

Tolle Logik. Zuerst behauptet der Typ, nVidia werde kaum Lovelace Karten ausliefern. Und wenn sie doch viele Karten ausliefern, verkaufen die sich schlecht. :freak:

So kann man immer richtig liegen.

Atma
2022-11-19, 15:01:08
DLSS 3 mag momentan noch nicht so funktionieren wie geplant, grundsätzlich ist die Idee aber gut.

VR zb. brach jedes letzte Frame
Ich finde an der Idee nichts gut. Es setzt zwingend Reflex voraus weil sonst die Latenz in die Höhe schießt und es ist prinzipbedingt zu fehleranfällig. Wozu immer leistungsfähigere Grafikkarten, wenn immer mehr mit "AI" getrickst wird? Macht keinen Sinn. DLSS 2.x und FSR 2.x sind tolle Techniken die ich gerne nutze, Frame Generation hingegen ist doch nur Marketingbullshit um noch mehr nutzlose AI zu verkaufen.

Ich nutze übrigens selber VR, das letzte was ich dort will sind gefakte Frames mit Artefakten und ein "Feature", das die Latenzen erhöht.

Wuge
2022-11-19, 15:11:18
Naja, weder der Inquisitor noch ich sind wohl "die Mehrzahl" aber wenn man sich die Hardwareausstattung der VR-Simer anschaut, dann haben die die dicksten Grafikkarten. Ist ja nun auch logisch wenn man um jedes Frame kämpft.

Dass VR eine Nischenanwendung ist, da sind wir uns sicher einig. Nur ist es die Nische mit dem größten Hunger nach Renderpower und nicht umgekehrt!

BlacKi
2022-11-19, 15:13:30
Ich finde an der Idee nichts gut. Es setzt zwingend Reflex voraus weil sonst die Latenz in die Höhe schießt und es ist prinzipbedingt zu fehleranfällig. Wozu immer leistungsfähigere Grafikkarten, wenn immer mehr mit "AI" getrickst wird? Macht keinen Sinn. DLSS 2.x und FSR 2.x sind tolle Techniken die ich gerne nutze, Frame Generation hingegen ist doch nur Marketingbullshit um noch mehr nutzlose AI zu verkaufen.

Ich nutze übrigens selber VR, das letzte was ich dort will sind gefakte Frames mit Artefakten und ein "Feature", das die Latenzen erhöht.erst drehst du alles auf den kopf und dann beschwerst du dich, das alles auf dem kopf steht.


dlss3 ist ein feature, das bei zu wenig fps helfen kann. wenn du bei einer kommenden 4070 in vr nur 45fps hinbekommst und du dank dlss3 nun 90fps hinbekommst, fügst du keine nennenswerte latenz hinzu.


es ist ein feature, vorallendingen für zu schwache karten, oder cpus.

Ex3cut3r
2022-11-19, 15:17:07
Sieht so aus als würden sich die 4080 echt nicht verkaufen zu dem Preis. Jetzt im Moment ist laut Geizhals quasi jedes Modell verfügbar bei mindestens einem der größeren Händler. In den USA wohl ganz ähnlich.
Überrascht mich überhaupt nicht. Miner sind quasi klinisch tot. Preis für eine 80er-Karte unverschämt/unverhältnismäßig zu teuer. Nur 25% mehr Leistung laut CB Durchschnitt 4K Rating von einer 3090 aus.

-> Rohrkrepierer mit Ansage, nur für Nvidia anscheinend nicht.

Und in 2 Wochen kommt eine 7900 XTX die sich genau zwischen 80 und 90 einreiht zum günstigeren Preis.

Thunder99
2022-11-19, 15:19:02
Es ist doch sinnvoller nVidia schöpft den Gewinnrahm voll ab, als das sich wieder Händler, Zwischenhändler und Scalper die Taschen voll stecken. Klar hat nVidia in der Miningphase viel Geld verdient, nur hätten sie ohne die ganzen Zwischentrittbrettfahrer noch viel mehr verdienen können. Sie scheinen liefern zu können und bekommen den Marktpreis. So lange sie weiter produzieren und liefern und irgendwann mit dem Preis runter gehen ist das doch voll in Ordnung. Wenn AMD und nVidia künstlich das Angebot verknappen wäre es natürlich eine Sauerei...

Mein Verständnis schwindet, wenn Nvidia vorhat die Gewinnmarge von ~50% auf >60% zu erhöhen. Da wird mit Sicherheit auch die Gamer Karten mit einkalkuliert sein.

Aktionäre haben nichts davon, wenn der Kunde nicht bereit ist zu zahlen. Das wird eine Gratwanderung...

ChaosTM
2022-11-19, 15:19:09
Ich finde an der Idee nichts gut. Es setzt zwingend Reflex voraus weil sonst die Latenz in die Höhe schießt und es ist prinzipbedingt zu fehleranfällig. Wozu immer leistungsfähigere Grafikkarten, wenn immer mehr mit "AI" getrickst wird? Macht keinen Sinn. DLSS 2.x und FSR 2.x sind tolle Techniken die ich gerne nutze, Frame Generation hingegen ist doch nur Marketingbullshit um noch mehr nutzlose AI zu verkaufen.

Ich nutze übrigens selber VR, das letzte was ich dort will sind gefakte Frames mit Artefakten und ein "Feature", das die Latenzen erhöht.


Momentan ist es noch nicht perfekt wie bei jeder "neuen" Technologie. Siehe DLSS 1. Die Grundidee passt aber. Für den FS2020 ist auch eine etwas höhere Latenz ertragbar und das Spiel hat nebenbei auch Reflex. Funktioniert aber angeblich noch nicht so gut.
Am Montag kann ich es selber ausprobieren.



Überrascht mich überhaupt nicht. Miner sind quasi klinisch tot. Preis für eine 80er-Karte unverschämt/unverhältnismäßig zu teuer. Nur 25% mehr Leistung laut CB Durchschnitt 4K Rating von einer 3090 aus.

-> Rohrkrepierer mit Ansage, nur für Nvidia anscheinend nicht.

Und in 2 Wochen kommt eine 7900 XTX die sich genau zwischen 80 und 90 einreiht zum günstigeren Preis.

Finde ich gut, dass der Markt reagiert. Sollte die Karte eigentlich auch wieder retournieren um ein Zeichen zu setzten, aber ich hab soo lange auf was neues gewartet ;)
Und DLSS 3 finde ich sehr spannend.

Inquisitor
2022-11-19, 15:34:41
Und du bist jetzt die Mehrzahl der VR-User? :ugly:

Na das nun nicht gerade, aber ich gehe jede Wette ein, dass der Anteil der 4090 Käufer im Bereich der PCVR Nutzer höher liegt als im Bereich der nicht VR nutzenden Flat Triple AAA Gamer.

aufkrawall
2022-11-19, 15:40:40
und das Spiel hat nebenbei auch Reflex. Funktioniert aber angeblich noch nicht so gut.

Prinzipbedingt kann es die Latenz im CPU-Limit nicht drücken, weil die ohnehin schon der von Reflex im "GPU-Limit" entspricht.

Inquisitor
2022-11-19, 15:47:31
...Bei der 4090 als Flagship versteh ich es ja, aber dass die 4080 das gleiche Preis/Leistungsverhältnis wie die Spitze hat geht einfach nicht klar. ...


Exakt das! Das Flagschiff hatte traditionell immer ein schlechteres P/L Verhältnis als das nächstkleinere Modell... Die 4080 ist für die Enthusiasten nicht stark genug um die Ersparnis zur 4090 zu rechtfertigen und für alle anderen einfach zu teuer. Es fehlt ein wenig die Zielgruppe.

ChaosTM
2022-11-19, 16:22:45
Prinzipbedingt kann es die Latenz im CPU-Limit nicht drücken, weil die ohnehin schon der von Reflex im "GPU-Limit" entspricht.


Danke

ChaosTM
2022-11-19, 16:30:01
Exakt das! Das Flagschiff hatte traditionell immer ein schlechteres P/L Verhältnis als das nächstkleinere Modell... Die 4080 ist für die Enthusiasten nicht stark genug um die Ersparnis zur 4090 zu rechtfertigen und für alle anderen einfach zu teuer. Es fehlt ein wenig die Zielgruppe.


Meine Überlegung war, dass ich mit der 4090er das Netzteil garantiert tauschen müsste, weil ich leider nur 2 8 Pin Stecker habe. Bei der 80er kann ich (wahrscheinlich) den einen fehlenden noch mit einem Adapter ausgleichen. 2 geht wohl nicht mehr.

Die Leistung des NT`s ist grundsätzlich hoch genug für die 80er, da ich die 1080ti problemlos massiv übertakten kann bei Werten um die 320 Watt.


600€ Aufpreis auf die 90er und nochmals 200-250 für eine neues ATX3 Netzteil wollte ich mir (vorerst) sparen. Mal schaun wies läuft.

Blase
2022-11-19, 16:42:36
Bezüglich Netzteil kann ich vielleicht was beisteuern.

Ich habe meine 4090 auch nur an einem älteren 650er dran. Das hat auch nur zwei der Anschlüsse dran, von welchem jeweils ein Kabel mit seinerseits zwei Adaptern dran ist. Letztlich gehen diese vier Adapter dann in den der 4090 beiliegenden Adapter, der dann mit der GPU verbunden wird.

Habe also letztlich auch nur zwei Anschlüsse am Netzteil...

MfG Blase

Inquisitor
2022-11-19, 16:58:53
Hab die 4090 am 750w be quiet und das läuft prima... mit dem 5800x3d und allen anderen komponenten zeigt das strommessgerät maximal 730w gesamtlast an wenn ich cinebench und furmarkt parallel laufen lasse. ABER inklusive der beiden 27" 4k monitore, welche da auch an dem messgerät mit dranhängen! D.h. ohne die monitore vermutlixh eher um 600w. Und beim normalen zocken schwankt das messgerät eher um 500-600w inkl. der monitore... denke ein gutes 700w reicht dicke für ne 490 wenn man nicht grad nen intel 13900k parallel videos encoden lässt und noch acht festplatten im system laufen.

P.S. @ChaosTM wir überzeugen dich schon noch vom wechsel zur 90 :D

BlacKi
2022-11-19, 17:01:42
Meine Überlegung war, dass ich mit der 4090er das Netzteil garantiert tauschen müsste, weil ich leider nur 2 8 Pin Stecker habe. Bei der 80er kann ich (wahrscheinlich) den einen fehlenden noch mit einem Adapter ausgleichen. 2 geht wohl nicht mehr.

Die Leistung des NT`s ist grundsätzlich hoch genug für die 80er, da ich die 1080ti problemlos massiv übertakten kann bei Werten um die 320 Watt.


600€ Aufpreis auf die 90er und nochmals 200-250 für eine neues ATX3 Netzteil wollte ich mir (vorerst) sparen. Mal schaun wies läuft.


wieso soll das nicht gehen? hast du nur noch 1 daisy chain kabel mit 2x 8 pin anschlüssen? das wäre wohl wirklich etwas wenig. falls du aber 2x daisy chain kabel, also 4x 8 pin kabel hast, geht das ohne probleme, das ist sogar innerhalb spec. so werden viele 4090 wohl aktuell problemlos betrieben. aber sei kein DAU und vergewissere dich, es richtig reingeschoben zu haben.;)

ChaosTM
2022-11-19, 17:19:41
Hab 2 Kabeln mit je einem (6)8 Pin Stecker die vom Netzteil raus gehen. Ob das daisy Chain Kabel sind weiß ich nicht. Das Ding ist ein 650er BeQuiet mit > 80% Effizienz und ca. 6 Jahre alt, leider nicht Modular.
Falls ich wo eine 90er zum oder nahe des UVPs sehe, probiere ich die mal aus mit 2 Adaptern.

Reinschieben kann ich ganz gut :D

Rolsch
2022-11-19, 17:26:16
Naja, mein BQ 750 Watt ging nach Einbau der 4090 ein paar Tage später ganz unspektakulär kaputt. (Nach sauberem Shutdown einfach Tot am nächsten Morgen.)
Die Kohle für ein passendes Netzteil kriegt man irgendwie auch noch zusammen. (650 Watt halte ich für zuwenig)

Ex3cut3r
2022-11-19, 17:32:56
Natürlich sind 650W zu wenig, wenn man das Powerlimit maximiert, kann die 4090 tatsächlich oft genug 650W selbst schlucken. 4K ohne DLSS Max RT :biggrin:

BlacKi
2022-11-19, 17:46:22
Hab 2 Kabeln mit je einem (6)8 Pin Stecker die vom Netzteil raus gehen.


dann nicht. die meisten netzteile haben einen stecker netzteilseitig, auf der anderen seite aber 2x 8pin.





mit 2 dieser kabel wäre das innerhalb der spec. wenn das bei dir nicht der fall ist wie hier zu sehen, sondern nur 1x 8pin hat, dann würde ich das lassen.


aber wie kommst du darauf, das die 4080 mit 2 kabeln laufen würde? ich würde davon ausgehen, das die 4080 wohl auch 3 kabel am adapter angeschlossen werden müssen. oder die karte wird auf 300w limitiert. die 4090 zieht praktisch keinen strom über den pciexpress slot.


vl kommen bei der 4080 aber auch modelle mit 2x 8 pin. wer weiß.

https://us.v-cdn.net/5021640/uploads/editor/ar/c76mfwu1jf4g.png

DrFreaK666
2022-11-19, 17:55:17
absolut. vorallendingen der letzte satz.


ich würde mir gerne eine 4080 kaufen, p/w und auch die performance generell finde ich toll. aber schlechtere p/€ als das topmodell?



ich kann noch warten...

Das bedeutet: wenn das Top-Modell teurer wird, dann schlägst du zu?

BlacKi
2022-11-19, 18:05:09
Das bedeutet: wenn das Top-Modell teurer wird, dann schlägst du zu?satz umdrehen, nice. nur macht das keinen sinn. was willst du mir damit beweißen?


es zeigt schlicht das der preis günstiger geht. umgedreht könnte man nicht unbedingt zu dem schluss kommen, also wenn die 4090 ein schlechteres p/€ verhältniss hätte. aber so herum wie gerade das der fall ist, weiß man schlicht, hier stimmt der preis nicht.

als kunde fühlt man sich da offensiv verarscht, wenn der top dog billigere p/€ bietet als die kleineren modelle. wie so ein imaginärer mittelfinger...

DrFreaK666
2022-11-19, 18:17:49
satz umdrehen, nice. nur macht das keinen sinn. was willst du mir damit beweißen?...

ich würde mir gerne eine 4080 kaufen, p/w und auch die performance generell finde ich toll.

Muss da nichts umdrehen. Du findest das P-L-Verhältnis der 4080 toll, die Differenz zur 4090 aber zu gering. Also ist die 4090 zu günstig

BlacKi
2022-11-19, 18:20:06
performance pro watt finde ich toll. p/€ nicht.

Inquisitor
2022-11-19, 18:51:04
Natürlich sind 650W zu wenig, wenn man das Powerlimit maximiert, kann die 4090 tatsächlich oft genug 650W selbst schlucken. 4K ohne DLSS Max RT :biggrin:

Ja ok, das ist klar... ich gehe von 450w standardlimit aus.

ChaosTM
2022-11-19, 19:07:08
Mal schauen, ob die 80er überhaupt vernünftig lauft mit dem NT. Falls nicht ist sowieso ein neues fällig.
Eine 90er würde ich aber nie Übertakten. Eher das Gegenteil.

War halt ein Impuls Kauf. Ich hab aber jemanden, der sie mir zum Einkaufspreis abnehmen würde, falls ich sie nicht will. Das Rückgabe Spiel hat einen Faden Beigeschmack.

L233
2022-11-19, 20:00:50
Und in 2 Wochen kommt eine 7900 XTX die sich genau zwischen 80 und 90 einreiht zum günstigeren Preis.
Die 7900 XTX wird hierzulande bei den Custom-Modellen bei 1.300€ am unteren Ende gepreist sein. Damit sitzt diese Karte genauso zwischen den Stühlen wie die RTX 4080. Zu teuer für alle, außer Extrem-Enthusiasten mit dickem Geldbeutel und diese greifen mehrheitlich gleich zur RTX 4090.

ChaosTM
2022-11-19, 20:21:32
@BlacKy. Weil Leute mit ähnlichen Netzteilen Karten mit einem Adapter zum Laufen brachten. 8 Pin auf 2 8er aufgesplittet.

DrFreaK666
2022-11-19, 20:31:40
performance pro watt finde ich toll. p/€ nicht.

Ja, da kann man sich nicht beschweren.
Hab mich verlesen. Mein Fehler

BlacKi
2022-11-19, 20:40:05
@BlacKy. Weil Leute mit ähnlichen Netzteilen Karten mit einem Adapter zum Laufen brachten. 8 Pin auf 2 8er aufgesplittet.


danke für die info

Ja, da kann man sich nicht beschweren.
Hab mich verlesen. Mein Fehler
kein ding

Ex3cut3r
2022-11-19, 23:26:05
Die 7900 XTX wird hierzulande bei den Custom-Modellen bei 1.300€ am unteren Ende gepreist sein. Damit sitzt diese Karte genauso zwischen den Stühlen wie die RTX 4080. Zu teuer für alle, außer Extrem-Enthusiasten mit dickem Geldbeutel und diese greifen mehrheitlich gleich zur RTX 4090.

1300 vs 2400€ sind 1.100€ mehr, dass sind keine Enthusiasten, sondern Fanboys, ganz einfach. Was verliert man im Raster? 30% zur 4090? Und 70% im RT, wenns einen überhaupt wichtig ist?

L233
2022-11-19, 23:51:34
1300 vs 2400€ sind 1.100€ mehr, dass sind keine Enthusiasten, sondern Fanboys, ganz einfach. Was verliert man im Raster? 30% zur 4090? Und 70% im RT, wenns einen überhaupt wichtig ist?

Wer 1300 für eine Radeon ausgibt, würde auch 1500 für eine RTX 4080 ausgeben (AMD Fanboys mal ausgenommen). Da sich letztere offenbar eher schleppend verkauft, würd mich schon interessieren, warum Du denkst, dass sich eine 15% billigere Radeon mit Shit RT und generell weniger drumherum (schlechteres Video-Encoding, CUDA, diverse Software-Gimmicks) plötzlich zum Verkaufsschlager mausern sollte? Die besetzt doch das selbe Preis-Segment, minus dem typischen AMD-Abschlag (weil bei Preis-Parität kaum jemand rot kaufen würde).

Insofern denke ich, dass sie sich aus denselben Gründen nicht so toll verkaufen wird, wie es bei der RTX 4080 der Fall ist. Die XT wird da eventuell das interessantere Modell, wenn die Leistung stimmt und die 3070 Ti suckt.

ChaosTM
2022-11-20, 00:25:46
Ich hasse meine Bestellte 4080er immer noch nicht mehr als Vorgestern.

Sie ist sinnarm, aber ich hab 14 Tage Zeit zu reagieren.

Thunder99
2022-11-20, 11:13:12
Wenn die XTX auf 1300€ kommt sieht die 4080 noch schlechter aus. An sich gute Karte wäre der Preis nicht.

Ich warte bis die Konkurrenz da ist und die Preise sich eingependelt haben. Die 4080 wird zerstört werden von der XTX welche mit Sicherheit einen besseren Preis liefert (Mehr Speicher, moderne Anschlüsse...

Wenn AMD ihre Karten bringen dann hat die 4080 einen schweren Stand!

Linmoum
2022-11-20, 11:19:43
Also bei realen 1300€ für die XTX wäre die 4080 plötzlich fast schon richtig attraktiv für ~1500€.

Nüchtern ausgedrückt trotzdem zu viel für beide.

L233
2022-11-20, 13:42:03
Die 4080 wird zerstört werden von der XTX welche mit Sicherheit einen besseren Preis liefert (Mehr Speicher, moderne Anschlüsse...

"Zerstört"? Mehr Speicher interessiert bei den 16GB der 4080 keine Sau, die Anschlüsse nur eine winzige Nische. Ich wage zu bezweifeln, dass die sich bei der Performance viel geben. Die XTX vielleicht ein paar % mehr Raster, kackt dafür bei RT massiv ab. "Gesamtpaket" weiterhin klar bei Team Grün, es sei denn, die XTX outperformt die 4080 ohne RT substanziell für deutlich weniger Geld.

robbitop
2022-11-20, 14:34:09
Weiß jemand wie es mit den PCBs bei den der Nicht-Foundersedition aussieht? Sohol RTX 4090 als auch 4080. Sind die im Moment alle gleich so dass der Standard Wasserblock für die Referenzkarte passt oder gibts da große Unterschiede?

BlacKi
2022-11-20, 14:36:20
Weiß jemand wie es mit den PCBs bei den der Nicht-Foundersedition aussieht? Sohol RTX 4090 als auch 4080. Sind die im Moment alle gleich so dass der Standard Wasserblock für die Referenzkarte passt oder gibts da große Unterschiede?es gibt unterschiede. da gibts ne lange liste für die einzelnen modelle. hab sie aber nicht parat.

Tangletingle
2022-11-20, 14:36:47
"Zerstört"? Mehr Speicher interessiert bei den 16GB der 4080 keine Sau, die Anschlüsse nur eine winzige Nische. Ich wage zu bezweifeln, dass die sich bei der Performance viel geben. Die XTX vielleicht ein paar % mehr Raster, kackt dafür bei RT massiv ab. "Gesamtpaket" weiterhin klar bei Team Grün, es sei denn, die XTX outperformt die 4080 ohne RT substanziell für deutlich weniger Geld.
Das sind die Superlative mit denen hier auch Hardwareredakteure um sich schmeißen.

robbitop
2022-11-20, 14:50:28
es gibt unterschiede. da gibts ne lange liste für die einzelnen modelle. hab sie aber nicht parat.
Habe mal die "günstigesten" 4080 und 4090 Modelle bei EKWB in den Konfigurator gefüttert. Scheint einfach abseits weniger Custom Modelle und dem Referenz und dem FE PCB noch nichts zu geben. Ist ja ein Alptraum wenn man Wakü hat. Warum bauen die nicht einfach das Referenz PCB ein? :freak:

Ex3cut3r
2022-11-20, 15:17:42
"Zerstört"? Mehr Speicher interessiert bei den 16GB der 4080 keine Sau, die Anschlüsse nur eine winzige Nische. Ich wage zu bezweifeln, dass die sich bei der Performance viel geben. Die XTX vielleicht ein paar % mehr Raster, kackt dafür bei RT massiv ab. "Gesamtpaket" weiterhin klar bei Team Grün, es sei denn, die XTX outperformt die 4080 ohne RT substanziell für deutlich weniger Geld.

Die meisten sehen Nichtmal einen Unterschied zwischen RT und oder OFF, selbst hier im 3DCenter. Wenn RT einen nicht interessiert, greift man zu dem, was billiger ist, und mehr VRAM bietet.

x5
2022-11-20, 15:53:00
Vorm AMD Shop kannste campen wie bei RDNA2.Die Customs werden auch mindestens 200-300€ eher mehr kosten.

Ex3cut3r
2022-11-20, 16:23:51
Das wird sich noch alles einpendeln. Auch die 4080 dürfte ab Januar-März eine deftige Preissenkung erhalten. Mit der aktuellen Anzahl der Verkäufe kann selbst Nvidia nicht zufrieden sein.

Lowkey
2022-11-20, 16:25:54
Die Leute haben sich schon für AA nicht interessiert, sondern nur nach dem längstem Balken oder dem P/L Sieger. Ich kenne niemanden der nach RT schreit. Nach 2-3 Jahren braucht der User mal wieder ein Upgrade und dann wird das gekauft was da ist.

Rancor
2022-11-20, 16:30:34
RT ist sowieso nur mit der 4090 ohne Kompromisse nutzbar. Also who cares about RT.

anorakker
2022-11-20, 16:45:35
Die meisten sehen Nichtmal einen Unterschied zwischen RT und oder OFF, selbst hier im 3DCenter. Wenn RT einen nicht interessiert, greift man zu dem, was billiger ist, und mehr VRAM bietet.

RT wäre für mich auch nicht das Thema, aber sobald DLSS 3 breit unterstpützt wird ist das schon ein krasser und zukunftsfähiger overall Performance Turbo.

Ex3cut3r
2022-11-20, 17:34:05
RT wäre für mich auch nicht das Thema, aber sobald DLSS 3 breit unterstpützt wird ist das schon ein krasser und zukunftsfähiger overall Performance Turbo.
Wenn man auf Bildartefakte und erhöhten Input Lag, was nicht zur "Flüssigkeit" des Bildes passt, scharf ist, sicherlich. Vor allem wenn man dann irgendwann mal in neuen AAA Spiel irgendwo bei 30-60FPS rauskommt, und grade meint, so jetzt schalte ich mal FG ein -> noch mehr Artefakte Soße, da niedrige Input Frameraten noch anfälliger für Artefakte sind, als bei nativen 100 FPS+

https://abload.de/img/digitalfoundry-nvidia0ri2z.png

https://abload.de/img/digitalfoundry-nvidia0kf5v.png

Quelle:

92ZqYaPXxas

anorakker
2022-11-20, 17:45:28
Aha, du willst mir im ersten Beispiel also zeigen dass ich bei so einem krassen Schwenk, der innerhalb eines Frames den gesamten Bildschirminhalt wechselt ich den richtigen von dem falschen unterscheiden können soll?! Bei 1fps vielleicht aber wie bei 60fps?
Am Ende zählt der Eindruck des Bewegtbildes, statische Bilder rauszupicken ist komplett unsinnig.
Ein flüssiges, ruhiges Bild ist zehnmal wichtiger als Detailgefrickel.

Atma
2022-11-20, 17:53:02
Bei so deutlichen Aussetzern wie im Flight Simulator ist das definitiv sichtbar. Ein flüssiges und ruhiges Bild bekommst du auch mit DLSS 2.x ... dieses AI Gefake soll die Lösung für ein Problem sein das keines ist.

Ex3cut3r
2022-11-20, 17:59:17
Aha, du willst mir im ersten Beispiel also zeigen dass ich bei so einem krassen Schwenk, der innerhalb eines Frames den gesamten Bildschirminhalt wechselt ich den richtigen von dem falschen unterscheiden können soll?! Bei 1fps vielleicht aber wie bei 60fps?
Am Ende zählt der Eindruck des Bewegtbildes, statische Bilder rauszupicken ist komplett unsinnig.
Ein flüssiges, ruhiges Bild ist zehnmal wichtiger als Detailgefrickel.

Guck dir das Video von DF an. Alex erklärt es exzellent, besser als ich es je könnte. Dort wird auch erwähnt, das 30 native FPS als Output für FG, zur mehr artefakten leidet, als wenn man FG bei nativen 100 FPS aktiviert.

FG ist vermutlich erst in 4 Jahren nach Weiterentwicklung mit der 60er Gen wirklich interessant, da man dann vermutlich die "Kinderkrankheiten" weiter ausgemerzt hat, und/oder einen noch besseren Flow Accelerator eingebaut hat, wird dann aber sicherlich auch nicht mit einer 40er Karte laufen. Bzw. nicht in gleichwertiger Qualität. ^^

Edgecrusher86
2022-11-20, 17:59:42
performance pro watt finde ich toll. p/€ nicht.

Und auch das kann ein AD102 besser - man muss nur Hand anlegen. 😉

anorakker
2022-11-20, 18:03:14
Ja, hab ich jetzt gemacht, aber das ist ja auch wieder so ein Sonderfall (Scene Cut), der wenig mit normalen Gameplay zu tun hat (vor allem dass erwähnt wird evtl eine Scene-Cut Erkennung das behebenn könnte).
Alles andere was ich jetzt gesehen habe ist zumindest wenn man nicht die Extreme der Technik ausnutzt unter meiner Wahrnehmungsschwelle. D.h. DLSS3 bei High-Fps sind etwas was ich bei einer modernen Grafikkarte als must-have sehe.

Ex3cut3r
2022-11-20, 18:13:45
Scene Änderungen bzw. Kamera Schwenks, sind keine Sonderfälle, sondern die Treten in jedem Spiel auf, z.B ist eine Ingame Cutscene Meister darin. Bleibt auch noch der erhöhte Input Lag, der nicht zum Bildinhalt passt. 30 FPS Input Lag, aber mit "gefakten" 60FPS auf dem Bildschirm, dürften sich ziemlich scheiße anfühlen.

Kann ja jeder anders sehen, für mich ist FG in der momentanen Aufführung quatsch. Eine 4090 ist super schnell, da braucht man kein FG selbst in 4K nicht. FG ist eher für 30 FPS interessant, nur dummerweise bringen native 30 FPS mit FG noch mehr Artefakte hervor. Wird sicherlich noch weiter verbessert, mit der 60er Gen ist es sicherlich fast perfekt.

L233
2022-11-21, 14:07:17
Die meisten sehen Nichtmal einen Unterschied zwischen RT und oder OFF, selbst hier im 3DCenter. Wenn RT einen nicht interessiert, greift man zu dem, was billiger ist, und mehr VRAM bietet.
Ich lehne mich mal aus dem Fenster und behaupte, dass RT mehr Leute interessiert als
1. Mehr Speicher, der nichts bringt
2. Anschlüsse, die keiner ausnutzt

Und wer gewillt ist, 1300+ auf den Tisch legen wird auch mit 1500+ keine Probleme haben. Ich sehe einfach den Siegeszug der XTX nicht. Nicht zu dem Preis. Aber vielleicht macht sie ja genug Konkurrenz, um nVidia zu einer Preissenkung zu nötigen.

Troyan
2022-11-21, 14:13:20
Wenn man auf Bildartefakte und erhöhten Input Lag, was nicht zur "Flüssigkeit" des Bildes passt, scharf ist, sicherlich. Vor allem wenn man dann irgendwann mal in neuen AAA Spiel irgendwo bei 30-60FPS rauskommt, und grade meint, so jetzt schalte ich mal FG ein -> noch mehr Artefakte Soße, da niedrige Input Frameraten noch anfälliger für Artefakte sind, als bei nativen 100 FPS+


Wem Artefakte stören, der spielt wohl kaum ohne Raytracing. :cool:

Matrix316
2022-11-21, 14:26:48
Ich lehne mich mal aus dem Fenster und behaupte, dass RT mehr Leute interessiert als
1. Mehr Speicher, der nichts bringt
2. Anschlüsse, die keiner ausnutzt

Und wer gewillt ist, 1300+ auf den Tisch legen wird auch mit 1500+ keine Probleme haben. Ich sehe einfach den Siegeszug der XTX nicht. Nicht zu dem Preis. Aber vielleicht macht sie ja genug Konkurrenz, um nVidia zu einer Preissenkung zu nötigen.
Da wäre ich nicht so sicher, weil wer 1300+ auf den Tisch legen kann, der kann auch 1500+. Wer 1500+ kann auch 2000+. Wer 2000+ kann auch 3000+. Wer 3000+ kann auch 4000+... ich meine... nur weil man kann, heißt das nicht, dass man auch will.

Aber man sollte auch erst mal Benchmarks abwarten. Wenn die 7000er im RT mit einer 3090 mithalten, ist das fast schon schnell genug.

L233
2022-11-21, 14:35:49
Da wäre ich nicht so sicher, weil wer 1300+ auf den Tisch legen kann, der kann auch 1500+. Wer 1500+ kann auch 2000+.
Aber das genau scheint doch das Problem der 4080 zu sein?

Matrix316
2022-11-21, 15:10:52
Aber das genau scheint doch das Problem der 4080 zu sein?
Du hast die Hälfte vergessen. Wer kann der kann, aber der will nicht immer. Ich denke viele bezahlen lieber 1300 für eine 7900XTX als 1500 für eine 4080 oder 2000 für eine 4090 - weil beide Preise einfach nur absurd hoch sind für eine Grafikkarte.

Es gibt ja auch bestimmt Leute hier, die bezahlen lieber 600 Euro für eine Radeon 6800 als 700 für eine 6900XT. ;)

L233
2022-11-21, 15:25:55
Du hast die Hälfte vergessen. Wer kann der kann, aber der will nicht immer. Ich denke viele bezahlen lieber 1300 für eine 7900XTX als 1500 für eine 4080 oder 2000 für eine 4090 - weil beide Preise einfach nur absurd hoch sind für eine Grafikkarte.

1300 ist auch absurd hoch. Alle drei Preise sind absurd hoch und wer sich eh schon in Absurdistan befindet, der macht nicht wegen 200 Euro noch rum. Der Preis der XTX ist kein geiles Schnäppchen, sondern AMD kann vielmehr angesichts des Feature Sets und der niedrigeren Zugkraft der Marke eigentlich keinen Cent mehr verlangen.

Alle Gründe, die den schleppenden Verkauf der 4080 verursachen, werden wahrscheinlich auch auf die XTX zutreffen. Mehr sage ich gar nicht.

Asaraki
2022-11-21, 15:29:10
Du hast die Hälfte vergessen. Wer kann der kann, aber der will nicht immer. Ich denke viele bezahlen lieber 1300 für eine 7900XTX als 1500 für eine 4080 oder 2000 für eine 4090 - weil beide Preise einfach nur absurd hoch sind für eine Grafikkarte.

Es gibt ja auch bestimmt Leute hier, die bezahlen lieber 600 Euro für eine Radeon 6800 als 700 für eine 6900XT. ;)

Hatte die Diskussion gerade erst... nVidia Mitarbeiter schaute sich die Onlinepreise in Europa an und meinte sinngemäss "Nope, can't pay that much for a 4080"... einfach aus Prinzip. Ohne seinen genauen Lohn zu nennen kommt es nicht auf ein paar Hundert Euro an.

Aber hier meinen die Leute ja immer, wenn man etwas nicht kauft dann muss es sein, weil man das Geld nicht hat. Wobei ich mich bei so einer Einstellung frage wie lange die noch Geld haben :D

Ex3cut3r
2022-11-21, 15:29:26
Ich lehne mich mal aus dem Fenster und behaupte, dass RT mehr Leute interessiert als
1. Mehr Speicher, der nichts bringt
2. Anschlüsse, die keiner ausnutzt

Und wer gewillt ist, 1300+ auf den Tisch legen wird auch mit 1500+ keine Probleme haben. Ich sehe einfach den Siegeszug der XTX nicht. Nicht zu dem Preis. Aber vielleicht macht sie ja genug Konkurrenz, um nVidia zu einer Preissenkung zu nötigen.

Da dürftest du ziemlich falsch mit liegen. Aktuelle CB Meinungsumfrage:

https://abload.de/img/screenshot2022-11-2118mi6e.png

https://abload.de/img/screenshot2022-11-211uuenl.png

https://abload.de/img/screenshot2022-11-211x7ikw.png

https://abload.de/img/screenshot2022-11-21151fmr.png

Was sind deine Quellen? Die Radeons fallen relativ schnell oder zumindest schneller im Preis als Nvidia Karten, so war es zumindest in Vergangenheit.
Eine 7900XT oder XTX unter 1000€ zu bekommen, mit etwas Wartezeit ist durchaus Realtisch. Von Nvidia könnte sowas bisher nicht behaupten. Oder es hat unverhältnismäßig länger gedauert. (3080 10 und 12GB)

wolik
2022-11-21, 15:54:09
https://cdn.shazoo.ru/c2400x3200/656698_fhsnmLM_fhvd9ggwaaa6bew.jpg

Matrix316
2022-11-21, 15:56:18
1300 ist auch absurd hoch. Alle drei Preise sind absurd hoch und wer sich eh schon in Absurdistan befindet, der macht nicht wegen 200 Euro noch rum. Der Preis der XTX ist kein geiles Schnäppchen, sondern AMD kann vielmehr angesichts des Feature Sets und der niedrigeren Zugkraft der Marke eigentlich keinen Cent mehr verlangen.

Alle Gründe, die den schleppenden Verkauf der 4080 verursachen, werden wahrscheinlich auch auf die XTX zutreffen. Mehr sage ich gar nicht.
Aber die 7900XTX könnte deutlich schneller sein, wenn kein RT verwendet wird. Das dürfte für viele schon ein Argument sein gegen eine 4080.

Außerdem war die 6900XT das Top Modell (bis die 6950 kam) und die 79000 ist auch das Top Modell.

4080 ist nur obere Mittelklasse. Top Modell ist die 4090. Und 1300 vs 2000 Euro sieht da im Vergleich schon besser aus. :)

Die 7900XTX ist ein ein Top Luxus Oberklasse Kia und die 4080 ist nur ein Mittelklasse 3er BMW. ;)

Pumpi74
2022-11-21, 16:16:05
Die RTX Spiele die in nächster Zeit erscheinen sind in Menge ja sehr überschaubar. Wer das zwölfte Battlefield (etc.pp.) nicht braucht kann heute noch gut auf RTX verzichten oder lebt mit normaler Beleuchtung. Leute die über 1000€ für eine Graka ausgeben kaufen sich eh alle ein bis zwei Jahre eine neue und können bei ernsthaftem Bedarf reagieren.

Und wenn man bedenkt das die 4080 in Rekordzeit auf UVP runter gekommen ist, inklusive guter Customs wie der TUF, dann sollte auch die XTX schnell für 1200€ zu bekommen sein. An Produktionskapazität scheint es nicht zu mangeln.

L233
2022-11-21, 16:17:39
Da dürftest du ziemlich falsch mit liegen. Aktuelle CB Meinungsumfrage:

https://abload.de/img/screenshot2022-11-2118mi6e.png

https://abload.de/img/screenshot2022-11-211uuenl.png

https://abload.de/img/screenshot2022-11-211x7ikw.png

https://abload.de/img/screenshot2022-11-21151fmr.png

Was sind deine Quellen? Die Radeons fallen relativ schnell oder zumindest schneller im Preis als Nvidia Karten, so war es zumindest in Vergangenheit.
Eine 7900XT oder XTX unter 1000€ zu bekommen, mit etwas Wartezeit ist durchaus Realtisch. Von Nvidia könnte sowas bisher nicht behaupten. Oder es hat unverhältnismäßig länger gedauert. (3080 10 und 12GB)


Keine Ahnung, was die lustigen Balken aussagen sollen. Wenn 55% sagen, dass es Ihnen egal ist, ob ein neues Spiel RT unterstützt, dann kann das ja eventuell daran liegen, dass keine RT-Fähige GPU vorhanden ist bzw. eine, bei der RT generell zu langsam ist, oder?

Aber selbst Deine Balken sagen ja aus, dass 86% durchaus bereit wären, unter bestimmten Umständen RT zuzuschalten. Insofern sehe ich nicht, wie hier meine Mutmaßung widerlegt wird, dass RT wohl mehr Leute interessiert, als eine VRAM -Ausstattung von mehr als 16GB oder DP 2.0 - beides Features, die wahrscheinlich für 99.9% der Nutzer absolut keinen Mehrwert bringen.

L233
2022-11-21, 16:19:57
Aber die 7900XTX könnte deutlich schneller sein, wenn kein RT verwendet wird. Das dürfte für viele schon ein Argument sein gegen eine 4080.
Ist aktuell aber nur Mutmaßung. Und dann müsste sie auch generell schneller sein und nicht nur in 2-3 handverlesenen Titeln, von denen 2 aus dem UbiSoft-Spielebaukasten stammen.

Ex3cut3r
2022-11-21, 16:24:05
Keine Ahnung, was die lustigen Balken aussagen sollen. Wenn 55% sagen, dass es Ihnen egal ist, ob ein neues Spiel RT unterstützt, dann kann das ja eventuell daran liegen, dass keine RT-Fähige GPU vorhanden ist bzw. eine, bei der RT generell zu langsam ist, oder?

Aber selbst Deine Balken sagen ja aus, dass 86% durchaus bereit wären, unter bestimmten Umständen RT zuzuschalten. Insofern sehe ich nicht, wie hier meine Mutmaßung widerlegt wird, dass RT wohl mehr Leute interessiert, als eine VRAM -Ausstattung von mehr als 16GB oder DP 2.0 - beides Features, die wahrscheinlich für 99.9% der Nutzer absolut keinen Mehrwert bringen.

Nun, im Gegensatz zu dir, habe ich Quellen geliefert, Du wiederum hältst Deine Mutmaßungen für bare Münze.

Als ob RT die Mehrheit an Feierabend Zocker ihre Kaufentscheidung beeinflusst. Wenn man sich außerhalb der 3DCenter Enthusiasten Blase aufhält, sehen 75% nicht mal einen Unterschied zwischen RT on oder off. Aber gut. Ich selber sehe ihn sofort, wenn RT GI und/oder AO drin sind, deswegen kann ich das aber nicht auf alle übertragen.

L233
2022-11-21, 16:25:39
Nun, im Gegensatz zu dir, habe ich Quellen geliefert, Du wiederum hältst Deine Mutmaßungen für bare Münze. :rolleyes:
Du hats gar nichts geliefert. Du hast Balken gepostet, aber musst noch erklären, warum Deine Interpretation (RT interessiert kaum jemanden) richtiger ist, als die meinige - die Du ja zitiert hast, aber auf die Du mit keinem Wort eingegangen bist.

Als ob RT die Mehrheit an Feierabend Zocker ihre Kaufentscheidung beeinflusst. Wenn man sich außerhalb der 3DCenter Enthusiasten Blase aufhält, sehen 75% nicht mal einen Unterschied zwischen RT on oder off. Aber gut. Ich selber sehe ihn sofort, wenn RT GI und/oder AO drin sind sofort, deswegen kann ich das aber nicht auf alle übertragen.
Niemand außerhalb der Enthusiasten-Blase gibt 1300, 1500 oder 2000 Euro für eine Grafikkarte aus und wenn man eh schon so viel ausgibt, kann ich mir vorstellen, dass man auch das Maximum an möglichen BQ-Features mitnehmen möchte - und sei's nur für den optionalen Einsatz.

Und mehr Gamer werden den Unterschied zwischen RT on/off sehen als zwischen 16 vs 24 GB VRAM oder zwischen DP 1.4. und 2.0.

Ex3cut3r
2022-11-21, 16:30:21
Balken? Es sind Umfragen von letzem Wochenende mit 5000 Mitgliedern (steigend minütlich) der CB Community, wieso degradierst du diese Umfragen?

L233
2022-11-21, 16:31:32
Balken? Es sind Umfragen von letzem Wochenende mit 5000 Mitgliedern (steigend minütlich) der CB Community, wieso degradierst du diese Umfragen?
Ich degradiere die nicht, ich sehe nur nicht, wie die Deine Aussagen stützen. Wenn da nicht noch ein bisschen Argumente nachkommen, sind das eben nur Balken.

Ex3cut3r
2022-11-21, 16:31:59
Das tut es mir leid. Und für mich ist die Sache auch erledigt. Schönen Abend noch trotzdem. :up:

Pumpi74
2022-11-21, 16:38:17
über die Hälfte der Leute der Umfrage sagt aus das RTX etwas für die Zukunft ist. Hätte es fünf Jahre nach Einführung von Tesselation so ein trauriges Umfrageergebnis gegeben ? Ich denke nicht.

robbitop
2022-11-21, 16:43:57
Ich komme mit den Werten von AMD (als Relativwerte zur 6950xt umgerechnet und in Reviews der 4080 die eine 6950xt hatten reininterpoliert) auf 15-20% mehr Performance in Raster und 15-25% weniger Leistung in Raytracing (7900XTX vs 4080). Raytracing scheint breiter zu streuen. Gleicht sich bei Gleichgewichtung nahezu aus. Die Straßenpreise sinken offenbar schon ein wenig bei der 4080 wenn man auf Geizhals schaut. UVP ist fast erreicht.

Spring
2022-11-21, 17:11:23
Du hats gar nichts geliefert. Du hast Balken gepostet, aber musst noch erklären, warum Deine Interpretation (RT interessiert kaum jemanden) richtiger ist, als die meinige - die Du ja zitiert hast, aber auf die Du mit keinem Wort eingegangen bist.


Niemand außerhalb der Enthusiasten-Blase gibt 1300, 1500 oder 2000 Euro für eine Grafikkarte aus und wenn man eh schon so viel ausgibt, kann ich mir vorstellen, dass man auch das Maximum an möglichen BQ-Features mitnehmen möchte - und sei's nur für den optionalen Einsatz.

Und mehr Gamer werden den Unterschied zwischen RT on/off sehen als zwischen 16 vs 24 GB VRAM oder zwischen DP 1.4. und 2.0.

Ich wollte das auch posten mit den Screens von CB, Exe war schneller.

Kommt aus eurer bubble raus, da draußen interessieren sich viel weniger für RT als es hier den Anschein hat.

https://cdn.discordapp.com/attachments/298511485494231050/1044283677452017704/Zwischenablage09.png

Und im Multiplayer ist es noch schwachsinniger, RT einzuschalten.

L233
2022-11-21, 17:14:14
Lest ihr eigentlich, was ich schreibe?

Relevant wäre bestenfalls eine Frage gewesen, wie wichtig RT-Performance den Leuten ist, die mal kurz 1300 Euro und mehr für eine Grafikkarte ausgeben.

Spring
2022-11-21, 17:16:32
Lest ihr eigentlich, was ich schreibe?

Ja, Du scheinbar aber nicht was wir schreiben.
Es geht hier nicht um paar Prozent Enthusiasten.
Die kaufen sowieso was da ist und am schnellsten.

Nazar
2022-11-21, 17:26:34
Ich lehne mich mal aus dem Fenster und behaupte, dass RT mehr Leute interessiert als
1. Mehr Speicher, der nichts bringt
2. Anschlüsse, die keiner ausnutzt

Und wer gewillt ist, 1300+ auf den Tisch legen wird auch mit 1500+ keine Probleme haben. Ich sehe einfach den Siegeszug der XTX nicht. Nicht zu dem Preis. Aber vielleicht macht sie ja genug Konkurrenz, um nVidia zu einer Preissenkung zu nötigen.

Ich lehne mich mal aus dem Fenster und behaupte, dass RT

1. von so gut wie keinem Spieler wahr genommen wird, wenn es keine Vergleichsbilder gibt.
2. nicht von den meisten Spielern in normalen FPS gespielt werden kann.

Und dann deine Einlassung zur Zahlungsbereitschaft. OMFG! :eek:
Und wer gewillt ist 1500 € auf den Tisch zu legen, hat auch keine Probleme mit 2000 €, usw. Dieser "Logik" folgend, ist dann auch 1 Million kein Problem, wenn man vorher schon 750.000 € bezahlen wollte.
Egal was du nimmst, die Dosierung passt nicht. :freak:

L233
2022-11-21, 17:26:34
Ja, Du scheinbar aber nicht was wir schreiben.
Es geht hier nicht um paar Prozent Enthusiasten.
Die kaufen sowieso was da ist und am schnellsten.
Doch, bei dem Kundensegment, das 1300+ Euro für eine Grafikkarte ausgibt, geht es um nichts anderes als die paar Prozent Hardcore-Enthusiasten.

L233
2022-11-21, 17:32:17
Ich lehne mich mal aus dem Fenster und behaupte, dass RT

1. von so gut wie keinem Spieler wahr genommen wird, wenn es keine Vergleichsbilder gibt.

Zum x-ten mal: Es ist immer noch für mehr Leute relevanter als 24GB VRAM und DP 2.0. Was anderes habe ich nicht gesagt.

Keine Ahnung, warum hier jetzt wieder die olle RT-Debatte zum hundertsten Mal geführt werden muss.

Spring
2022-11-21, 17:33:57
Du mutmaßt nur, Exe und ich haben uns auf Umfragen bezogen.

In meinem Umfeld kenne ich vllt 2-3 Leute von Dutzenden die das überhaupt benutzen oder brauchbare Grakas dafür haben (eine 6700XT oder 3060Ti zählt nicht als brauchbar für RT). Vllt gibts hier auch Leute wo die ganze Family dicke RTX karten hat, das dürfte aber eher selten sein.

Nochmal zum Mitmeißeln: Die Enthusiasten würden sich die dickste NV oder AMD Karte (je nach gusto) so oder so holen, egal ob es RT gibt oder nicht!

Und die Masse hat kein bock auf 30-60fps mit RT (nativ), da muss man schon Grafikfetischst sein. Und wie oft erwähnt: Für MP zocker ist das gar nichts.

Ergo ist RT nur relevant für Leute mit dem nötigen Kleingeld (legit) und die diese entsprechenden RT Sologames spielen (z.B. Cp2077).

Die Masse erkennt kaum den Unterschied zw non RT und RT und scheitert teilweise schon bei AF/AA. Von DLSS und FSR ganz zu schweigen (die wirklich nützlich sind gegenüber RT). Und die geben auch keine 1500-2000€ für ne "vernünftige" RT Karte aus, was sie sowieso nie oder kaum nutzen.

Und es ist ebenso eine reine Behauptung, das RT mehr interessanter wäre als VRAM. Keine Belege, einfach heiße Luft.

L233
2022-11-21, 17:36:37
Sorry. Spring. Du laberst komplett an dem vorbei, wovon hier die Rede ist. Lese Dir die Diskussion der letzten 3 oder so Seiten mal durch.


Und es ist ebenso eine reine Behauptung, das RT mehr interessanter wäre als VRAM. Keine Belege, einfach heiße Luft.
Welche "Belege" willst Du? Zeige mir ein Spiel, bei dem 24 GB vs 16 GB irgend einen Vorteil bringt. Ihr könnt noch so sehr RT als Feature zerpflücken, aber es ist zumindest ein Feature, das irgendwas macht, während die 8GB zusätzliches VRAM über 16GB bei Games auf Jahre hin wohl exakt null bringen werden.

Insofern ist RT interessanter als 24 vs 16 GB VRAM, weil Dinge, die was bringen, halt nun mal interessanter sind, als Dinge, die absolut gar nichts bringen.

Da brauch ich keine "Belege", da reicht simple Logik.

Spring
2022-11-21, 17:41:53
Sorry. Spring. Du laberst komplett an dem vorbei, wovon hier die Rede ist. Lese Dir die Diskussion der letzten 3 oder so Seiten mal durch.

Junge, du checkst es nicht.
Es geht mir auch nicht darum ob sich jmd sowas kaufen mag/kann oder will. Das ist hier nicht das Thema, es nervt einfach nur das RT als das nonplusultra aufgebauscht wird, aber die Umfragen zeigen das es doch nicht so relevant ist, wie auch von vielen vorher schon vermutet.
Du hast die Postings von Exe abgewatscht und mutmaßt nur und ignorierst, obwohl er brauchbare Indizien dargelegt hat.

Schönen Abend noch.

L233
2022-11-21, 17:48:04
Junge, du checkst es nicht.
Du führst schlichtweg eine andere Diskussion, weil Du Dich über RT auskotzen willst. Derailing nennt man das.

Es geht mir auch nicht darum ob sich jmd sowas kaufen mag/kann oder will.
EXAKT DARUM GEHT ES.

Das ist hier nicht das Thema,
DOCH!

es nervt einfach nur das RT als das nonplusultra aufgebauscht wird, aber die Umfragen zeigen das es doch nicht so relevant ist, wie auch von vielen vorher schon vermutet.
Und genau das hier ist eben NICHT das Thema.

Du hast die Postings von Exe abgewatscht und mutmaßt nur und ignorierst, obwohl er brauchbare Indizien dargelegt hat.

Brauchbbare Indizien WOFÜR? Himmelherrgott.

anorakker
2022-11-21, 17:49:41
Es ist völlig egal ob es aktuell ultra relevant ist oder nicht: wenn ich mir ne Graka für 1300+€ kaufe, dann bestimmt nicht um CS mit 700fps zu spielen. In diesem Preissegment ist bei der aktuell verfügbaren Spielesoftware das Featureset gleich oder mehr relevant als die reine Rasterleistung, weil die eben auch nur noch einen minimalen Mehrwert bietet.
Im Mainstream, wo 400-600€ ausgegeben wird ist das natürlich etwas vollkommen anderes, da brauche ich primär erstmal ne Grundleistung.

L233
2022-11-21, 17:52:35
Es ist völlig egal ob es aktuell ultra relevant ist oder nicht: wenn ich mir ne Graka für 1300+€ kaufe, dann bestimmt nicht um CS mit 700fps zu spielen. In diesem Preissegment ist bei der aktuell verfügbaren Spielesoftware das Featureset gleich oder mehr relevant als die reine Rasterleistung, weil die eben auch nur noch einen minimalen Mehrwert bietet.
Im Mainstream, wo 400-600€ ausgegeben wird ist das natürlich etwas vollkommen anderes, da brauche ich primär erstmal ne Grundleistung.

DANKE! Genau das.

ChaosTM
2022-11-21, 18:01:12
So, die 4080er ist eingebaut und läuft auf Anhieb.
Beim FS2020 @ 4k ULTRA mit DLSS Qualität langweilt sich das Ding zu Tode. 30-40% Auslastung und brauchct irgendwo knapp unter 200 Watt geschätzt aus dem Gesamtverbrauch des Systems.
Erst bei Render Target 160% mit TAA kommt sie etwas ins schwitzen (90-100%) Auslastung.
Dann braucht sie ein paar Watt mehr als die 1080ti @ 100%.

Jetzt wird das Netzteil mal mit Furmark gequält. :D

Was jetzt noch fehlt, speziell für den FS2020, ist ein 5800X3D.
Derzeitige CPU ist ein 5900X mit 64GB 3600er Speicher, beide optimiert so gut es ging.

Pumpi74
2022-11-21, 18:04:14
meine Wenigkeit möchte zum Beispiel über den Winter ausgiebig Anno 1800 zocken. Hätte ich nun einen UHD 144hz Monitor wäre das erste was ich brauche GRUNDLEISTUNG !

Blase
2022-11-21, 18:11:33
meine Wenigkeit möchte zum Beispiel über den Winter ausgiebig Anno 1800 zocken. Hätte ich nun einen UHD 144hz Monitor wäre das erste was ich brauche GRUNDLEISTUNG !

Jub, die bräuchtest du in der Tat - und zwar in Form einer starken CPU ;)

MfG Blase

Pumpi74
2022-11-21, 18:17:08
X3D liegt bereit. Was keine Wirkung zeigt ist RTX und DLSS3.

L233
2022-11-21, 18:55:07
Ohne 144 Hz geht bei Anno nichts.

Pumpi74
2022-11-21, 19:05:33
100fps sind auch in dem Spiel nice to have. Und die musst du mit den vorhandenen Reglern auf Rechts erstmal voll kriegen in UHD. Da wird eine 600€ Grafikkarte nicht reichen weil ihr die Raster Rohleistung fehlt.

Linmoum
2022-11-21, 19:10:02
100fps schaffst du mit keiner aktuellen CPU, von daher ist die GPU in dem Fall sowieso herzlich egal. ;)

Pumpi74
2022-11-21, 19:40:24
Wenn man die Regler die für die CPU zuständig sind nur minimal nach links zieht, dann wird man mit einem X3D lange auf 100fps kommen. Natürlich nicht im weit fortgeschrittenem Spiel.

nun müssen wir uns aber auch nicht an Anno aufreiben, es steht ja nur exemplarisch für einen alten Schinken der eine 1000€ Grafikkarte rechtfertigen kann die kein RTX beherrscht. Man wird genug singlePlayer Spiele finden die in UHD richtig Rasterleistung gebrauchen können.

aufkrawall
2022-11-21, 20:02:47
Jo, z.B. Kena. Sieht zum Glück mit DLSS besser aus als nativ TAA.

SamLombardo
2022-11-22, 07:00:33
nun müssen wir uns aber auch nicht an Anno aufreiben, es steht ja nur exemplarisch für einen alten Schinken der eine 1000€ Grafikkarte rechtfertigen kann die kein RTX beherrscht.
Auch wenn ich im Grunde der Meinung von L233, anorakker usw bin (sonst hätte ich mir keine 4090 gekauft) sollte man doch fair bleiben. Die neuen AMD Karten können (wenn sich die Vorab Benchmarks bestätigen) RT etwa auf dem Niveau der 3090. Immerhin bis vor wenigen Wochen noch DAS RT Monster unter den Grafikkarten. Das ist schon nicht übel und gut für den Einsatz von RT ansich, wenn dieses Level sozusagen als RT Standard vorhanden ist. Klar ist AMD hier eine Generation zurück, aber es ist dennoch ein schöner Schritt in die richtige Richtung. Wenn sich die Leistung bestätigt. Dann wäre die Aussage, dass RDNA3 Karten kein RT können ungefähr so richtig wie die, dass die 3090 kein RT kann.

HOT
2022-11-22, 08:58:55
Wieso braucht man bei Anno volle Details, das macht das Spiel im lategame unnötig langsam, auch bei starken CPUs und bringt fast nix in der Optik.

Pumpi74
2022-11-22, 09:34:42
Klar ist AMD hier eine Generation zurück, aber es ist dennoch ein schöner Schritt in die richtige Richtung. Wenn sich die Leistung bestätigt. Dann wäre die Aussage, dass RDNA3 Karten kein RT können ungefähr so richtig wie die, dass die 3090 kein RT kann.

Wenn eine 6900XT bei fordernden Titeln wie Cyberpunk, Dying Light 2, Guardians of the Galaxy, etc.pp im Schnitt auf RTX 3070 8GB Niveau liegt dann ist die RTX Funktion nur eine Spielerei. Eine Bremse. Und RTX light Unterstützung braucht nun wirklich niemand. Diese Alibi RTX Titel hätte man auch ohne RTX ähnlich gut hinkriegen können. Entweder man macht RTX richtig oder man lässt es.

Matrix316
2022-11-22, 10:27:43
Wenn eine 6900XT bei fordernden Titeln wie Cyberpunk, Dying Light 2, Guardians of the Galaxy, etc.pp im Schnitt auf RTX 3070 8GB Niveau liegt dann ist die RTX Funktion nur eine Spielerei. Eine Bremse. Und RTX light Unterstützung braucht nun wirklich niemand. Diese Alibi RTX Titel hätte man auch ohne RTX ähnlich gut hinkriegen können. Entweder man macht RTX richtig oder man lässt es.
Ist die 7000er nicht auch bei RT 70% schneller als die 6900XT? Oder wars nicht sogar zur 6950?

Pumpi74
2022-11-22, 11:01:49
Die XTX wird wohl 50-60% schneller werden. Nur das ändert nichts am Benefit Verhältnis. Die Kosten für RTX sind auf Radeon einfach extrem hoch. Natürlich kann man es mit der RX mal ausprobieren, ist ja auch ne feine Sache. Nur wird man nicht dauerhaft auf fast zwei drittel der Leistung verzichten für gehobenes RTX. Wer so ein RTX Hardcorelover ist hätte sich ne nVidia kaufen sollen.

robbitop
2022-11-22, 11:33:57
Wie gesagt. Wenn man die Benchmarks, die AMD gezeigt hat auf die 6950XT normiert und mit den Zahlen aus den 4080 Reviews extrapoliert, liegt die 7900XT 15-20% vorn in Raster und 15-25% hinten in RT (Spektrum bei RT ist größer). Ich habe mir die Arbeit in Excel gestern mal gemacht.
Je nach dem wie man RT gewichtet, gleicht sich das mehr oder weniger aus. Aber die 7900 XTX bietet 50% VRAM und kostet ~200+ USD weniger.

Banshee18
2022-11-22, 11:47:00
...Je nach dem wie man RT gewichtet,...
Nicht eher je nach dem, wie zukünftige Spiele RT gewichten?
Ich habe nur einen 21:9 Bildschirm mit einer Auflösung von nur 3440x144 und eine RX6800, aber bei allem ohne Raytracing reicht die mir bisher locker. Wenn RT dazu kommt, wirds oft kritisch bis unspielbar. Ich könnte mir vorstellen, dass die Last immer mehr in Richtung RT geht, daher finde ich als neutraler Käufer den Weg, den nV einschlägt, besser.

Asaraki
2022-11-22, 11:51:52
Nicht eher je nach dem, wie zukünftige Spiele RT gewichten?
Ich habe nur einen 21:9 Bildschirm mit einer Auflösung von nur 3440x144 und eine RX6800, aber bei allem ohne Raytracing reicht die mir bisher locker. Wenn RT dazu kommt, wirds oft kritisch bis unspielbar. Ich könnte mir vorstellen, dass die Last immer mehr in Richtung RT geht, daher finde ich als neutraler Käufer den Weg, den nV einschlägt, besser.

Jein - schlussendlich ist es sehr individuell. Ich suche mir meine Spiele ja nicht danach aus ob sie RT haben sondern ob ich darin Spass habe. Und ich zocke praktisch nichts alleine, fast ausschliesslich mit meinen Kumpels also müssen die das Game auch mögen ^^

Bis 'die meisten' Spiele ein RT haben, das man auch einschalten will dürfte es noch eine Weile gehen und bis dahin ist es bei mir z.B. komplett random ob ich RT-Leistung brauche oder nicht.

Daher mein Fazit : Gar nicht so schlecht für den Gamer, wenn die beiden Archs nicht ganz identisch sind. Dann kann man eher danach gehen, was man gerade am meisten vermisst (Raster vs RT). Schnell sind die neuen Karten sowieso alle :D

(Auch auf 3440x1440 für den Zockerscreen :))

Linmoum
2022-11-22, 11:52:07
Es wird noch bei einigen Überraschungen geben, wie häufig die 7900XTX in RT deutlicher als nur ~20% hinter der 4080 zurückliegen wird.

Und selbst das wird im Mittel IMO noch optimistisch sein. Es sei denn, man definiert "RT" über Titel wie FC6 oder WoW. Dann stimmt das vermutlich.

robbitop
2022-11-22, 12:15:22
Nicht eher je nach dem, wie zukünftige Spiele RT gewichten?
Ich habe nur einen 21:9 Bildschirm mit einer Auflösung von nur 3440x144 und eine RX6800, aber bei allem ohne Raytracing reicht die mir bisher locker. Wenn RT dazu kommt, wirds oft kritisch bis unspielbar. Ich könnte mir vorstellen, dass die Last immer mehr in Richtung RT geht, daher finde ich als neutraler Käufer den Weg, den nV einschlägt, besser.

Naja solange man es an und ausschalten kann, kann man das auch für sich persönlich gewichten. ;)

Ich denke aber auch, dass die RT Last zunehmen wird und dass die neuen Features, die sich beschleunigend auswirken (SER, ONN, DNN) wenn man sie implementiert die Spreizung noch vergrößern könnten. Andererseits kann es mit den neuen CUs und den neuen RT Instructions bei N3x auch sein, dass man mit Developer Involvement noch mehr rausholen kann und die Spreizung wieder verkleinern kann.

Es wird noch bei einigen Überraschungen geben, wie häufig die 7900XTX in RT deutlicher als nur ~20% hinter der 4080 zurückliegen wird.

Und selbst das wird im Mittel IMO noch optimistisch sein. Es sei denn, man definiert "RT" über Titel wie FC6 oder WoW. Dann stimmt das vermutlich.
In den AMD Zahlen waren 2/4 Benchmarks drin, bei denen die Kluft besonders groß war. IMO waren das jetzt keine reinen cherry picks.

Banshee18
2022-11-22, 12:25:48
Unschön wirds dann halt, wenn ich mit der neu erworbenen 1000€-Karte RT deaktivieren muss, dies aber mit der 1000€-Karte des anderen Herstellers vielleicht nicht müsste.
Da ist es mir egal, ob die eine Karte ohne RT 70 fps und die andere vielleicht 90 fps liefert.
Aber wie du sagst, warten wir ab, wie gut die AMD-Karten wirklich liefern. :wink:

Asaraki
2022-11-22, 12:26:03
Es wäre sowieso zu hoffen, dass die verschiedenen RT-Implementation (hw-seitig) sich näher kommen. Aber das ist eh alles noch Neuland, sei den Herstellern mal gegönnt wieder ein bisschen Krieg führen zu dürfen ^^

Tangletingle
2022-11-22, 12:29:43
Unschön wirds dann halt, wenn ich mit der neu erworbenen 1000€-Karte RT deaktivieren muss, dies aber mit der 1000€-Karte des anderen Herstellers vielleicht nicht müsste.
Da ist es mir egal, ob die eine Karte ohne RT 70 fps und die andere vielleicht 90 fps liefert.
Aber wie du sagst, warten wir ab, wie gut die AMD-Karten wirklich liefern. :wink:
Mit der 1000€, die es ja vom anderen Hersteller nur aus der letzten Gen gibt, bist du genau da wo du mit der neuen AMD Gen bist. Allerdings fehlt dir dann halt aller Voraussicht nach 50% Rasterleistung.

Linmoum
2022-11-22, 12:33:39
In den AMD Zahlen waren 2/4 Benchmarks drin, bei denen die Kluft besonders groß war. IMO waren das jetzt keine reinen cherry picks.Laut AMDs Zahlen im damaligen Reviewer Guide zur 6600 sollte diese 87% der RT-Performance einer 3060 bieten. Ich nehme jetzt mal nicht die unabhängigen Reviews um aufzuzeigen, wie fernab der Realität das war und ist.

Bei RT glaube ich AMDs eigenen Benchmarks leider absolut Null.

ChaosTM
2022-11-22, 13:22:43
So, nach diversen Stresstests kann ich bestätigen, dass das 650er BeQuiet rockstable ist, selbst mit übertakteter 4080er. Hat Igor ja schon festgestellt.
Um die 6-9% lassen sich noch rauskitzeln je nach Spiel angeblich, ohne dass der Verbrauch durch die decke geht, bzw. lässt das Layout das gar nicht zu. Selbst gemessen hab ich es nur mit 77 (8%) so far.

Das einige was ich beim Spielen gelegentlich höre ist die Externe 5TB 2Zoll HDD. :)
Beim FS2020 @ 4k Ultra und DLSS Quality, was besser kommt als Nativ mit TAA, langweilt sich die Karte bei Verbräuchen von knapp unter 200 Watt.
Mit einem 58003D lässt sich dieser CPU Bottleneck aber noch etwas verringern.

dargo
2022-11-22, 13:33:20
Es wird noch bei einigen Überraschungen geben, wie häufig die 7900XTX in RT deutlicher als nur ~20% hinter der 4080 zurückliegen wird.

Und selbst das wird im Mittel IMO noch optimistisch sein. Es sei denn, man definiert "RT" über Titel wie FC6 oder WoW. Dann stimmt das vermutlich.
Bei dir gibts ja eh nur die Superlativen in die eine Richtung sowie in die andere, gell? Aktuell spiele ich Spider-Man: Miles Morales auf RX 6800XT mit max. Settings + RT high ohne Probleme mit 70-100+fps @1440p nativ. Und wenn man sich die Benchmarks von CB so anschaut scheint der Vorsprung von Ampere eher daran zu liegen, dass der Treiber offenbar im CPU-Limit hier schneller läuft (RT erhöht ja die CPU-Last schon gutes Stück, erst recht mit RT very high) als RDNA2, warum auch immer.
https://www.computerbase.de/2022-11/spider-man-miles-morales-benchmark-test/4/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

PS: mal eine kleine Gegenüberstellung

1080p:
6700XT Raster = 100%
3060TI Raster = 124%

6700XT RT = 100%
3060TI RT = 122%

1440p:
RX 6800 Raster = 100%
3070 Raster = 109%

RX 6800 RT = 100%
3070 RT = 112%

RX 6800XT Raster = 100%
3080 Raster = 123%

RX 6800XT RT = 100%
3080 RT = 126%

Normiert auf die Rasterleistung ist Ampere in diesem Spiel kaum schneller als RDNA2 mit RT.

ChaosTM
2022-11-22, 13:43:39
Laut AMDs Zahlen im damaligen Reviewer Guide zur 6600 sollte diese 87% der RT-Performance einer 3060 bieten. Ich nehme jetzt mal nicht die unabhängigen Reviews um aufzuzeigen, wie fernab der Realität das war und ist.

Bei RT glaube ich AMDs eigenen Benchmarks leider absolut Null.

Ich tippe da eher auf eine fast Gleichstand mit tendenziellen Vorteilen für AMDs Flaggschiff. Also 5-10% mehr, bei eben diesen 5-10 Mehr verbrauch. Die 2 Karten werden sich wenig schenken punkto Leitung und Effizienz.

Bei RT wird NV noch vorne liegen, speziell bei den heavy RT-Load Titeln wie 77 @ Psych (was eigentlich gar nicht soo viel Sinn macht) und Control.
Ansonsten dürfte der Abstand doch deutlich schmelzen.

Das "Monster" mal außen vor gelassen. Das ist unangreifbar. :)

robbitop
2022-11-22, 13:51:00
Hätte AMD gewollt, wäre auch AD102 angreifbar gewesen. Der GCD ist ja gerade mal 300 mm² groß. Bis zu 600 mm² wäre durchaus machbar gewesen. Aber hätte sich wahrscheinlich nicht gelohnt. (zu kleiner Markt; zu teuer und sicherlich auf ~500W)

Matrix316
2022-11-22, 13:54:09
RT ist aber auch etwas overrated. Ich meine selbst in Cyberpunk sieht es zwar geil aus, aber wenn man in einer Mission ist, achtet man wohl weniger auf Lichteffekte und Spiegelungen als mehr auf die Gegner.

Noch weniger in schnellen Spielen wie Formel 1 wo sich in irgendwelchen Fenstern auf der Zielgeraden irgendwas mehr spiegelt, aber beim Fahren an sich sieht man 0 Unterschied.

Da wäre es vielleicht wichtiger statt auf Raytracing mehr auf reale Beleuchtung zu achten. Gran Turismo hatte schon vor lange Zeit eine viel schönere Darstellung in dieser Hinsicht als die meisten anderen Rennspielen.

Z.B: wenn es regnet und bewölkt ist sieht F1 2023 spitze aus. Auch die Vorgänger schon. Wenn aber der Himmel klar ist und die Sonne scheint, sieht das Spiel auch nicht viel besser aus wie vor 10 Jahren.

robbitop
2022-11-22, 14:17:44
Beleuchtung, Reflektion und Schatten können auch in Rasterizing gut aussehen. Im Prinzip muss man (der Entwickler) dafür aber "cheaten", da das in Rasterizing prinzipbedingt nicht straight forward möglich ist. Genau das passierte im Prinzip die letzten 2 Jahrzehnte iterativ auf ein mittlerweile zT sehr sehr hohes Level.
Zum Beispiel:
1.) Reflexionen oft über den Screenspace, oder mit probes/environment maps - teuer auch über render to texture
2.) Global Illumination (oft offline gebaked)

Es gibt viele gute Techniken da zu Tricksen und auch beim Content kann man einiges gerade biegen. Wenn das richtig gut gemacht ist (und da ist die Spreizung der Ergebnisse relativ hoch), sieht das sehr gut aus und ist auch viel schneller als RT.

Mit RT muss man nicht mehr tricksen - man kann also auf konsistente Ergebnisse setzen und man kann noch bessere Ergebnisse erzielen.

IMO ist das der nächste Schritt auf der Evolution der 3D Grafik - aber im Prinzip sind wir noch in einer Übergangsphase. Die GPUs müssen bis nach ganz unten im Stack stark genug werden und mehr Teile der RT Pipeline in HW gießen. Wahrscheinlich wird das noch einige Generationen dauern. Und bis dahin ist es sicherlich oft auch eine gute/performante Option, RT zu deaktivieren oder selektiv zu reduzieren. :)

Dampf
2022-11-22, 14:22:33
Render to Texture ist eine coole Technik, die früher häufig eingesetzt wurde. Lustigerweise sehen Reflektionen in alten Spielen deutlich besser aus als heutige SSR-Reflektionen, ihr bekommt wahrlich perfekte Reflexionen. Leider heute in Zeiten von Open Worlds und riesigen Umgebungen nicht mehr sinnvoll umsetzbar.

robbitop
2022-11-22, 15:15:56
Ist halt sehr teuer.

aufkrawall
2022-11-22, 15:26:46
Lustigerweise sehen Reflektionen in alten Spielen deutlich besser aus als heutige SSR-Reflektionen, ihr bekommt wahrlich perfekte Reflexionen.
Auch Mirrors sind sind physikalisch inkorrekt (Verzerrung, Drehung...) und limitiert. Aber die hässlichen Ausfälle von SSR haben sie theoretisch natürlich nicht. Praktisch reicht die Performance dafür trotzdem nicht. Wenn du in Spiderman lauter Mirrors auf jedes Hochhaus klebst, läuft das auf einem 13900K mit 10fps.

VooDoo7mx
2022-11-22, 18:28:00
Bei dir gibts ja eh nur die Superlativen in die eine Richtung sowie in die andere, gell? Aktuell spiele ich Spider-Man: Miles Morales auf RX 6800XT mit max. Settings + RT high ohne Probleme mit 70-100+fps @1440p nativ. Und wenn man sich die Benchmarks von CB so anschaut scheint der Vorsprung von Ampere eher daran zu liegen, dass der Treiber offenbar im CPU-Limit hier schneller läuft (RT erhöht ja die CPU-Last schon gutes Stück, erst recht mit RT very high) als RDNA2, warum auch immer.
https://www.computerbase.de/2022-11/spider-man-miles-morales-benchmark-test/4/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

PS: mal eine kleine Gegenüberstellung

1080p:
6700XT Raster = 100%
3060TI Raster = 124%

6700XT RT = 100%
3060TI RT = 122%

1440p:
RX 6800 Raster = 100%
3070 Raster = 109%

RX 6800 RT = 100%
3070 RT = 112%

RX 6800XT Raster = 100%
3080 Raster = 123%

RX 6800XT RT = 100%
3080 RT = 126%

Normiert auf die Rasterleistung ist Ampere in diesem Spiel kaum schneller als RDNA2 mit RT.

:facepalm:
Wie immer von dir, nur Rosinen picken. :facepalm:

Spiderman hat eine sehr simple Raytracing Implementierung welche von vorne herein für die schwache AMD Hardware der PS5 entwickelt wurde.
Die Reflektionen funktionieren da nur mit stark reduzierter Geometrie und und nur wenig Objekten die überhaupt reflektiert werden. Des weiteren ist die allgemeine Auflösung der Reflektionen sehr niedrig, es werden nur wenig Rays pro Pixel getraced.

Das ist überhaupt kein Vergleich zu den Reflexionen von z.B. Cyberpunk oder Control.

Und dann ist es natürlich klar, dass bei einer simplen Raytracing Implementierung, welche wenig Rechenleistung erfordert, AMD Hardware nicht so stark abfällt wie in Titeln mit einer komplexeren Raytracing Lösung.

Von daher nochmal für dich: :facepalm:

dargo
2022-11-22, 18:36:21
Spiderman hat eine sehr simple Raytracing Implementierung welche von vorne herein für die schwache AMD Hardware der PS5 entwickelt wurde.
Die Reflektionen funktionieren da nur mit stark reduzierter Geometrie und und nur wenig Objekten die überhaupt reflektiert werden. Des weiteren ist die allgemeine Auflösung der Reflektionen sehr niedrig, es werden nur wenig Rays pro Pixel getraced.

Also genau für den Gamingmarkt entwickelt. :comfort:

mr coffee
2022-11-22, 18:50:21
RT ist zwar schön und gut aber richtig toll wird es doch erst wenn massig RT Leistung in jeder noch so popeligen GPU steckt und man auf den alten Weg in der Entwicklung verzichten kann. Und davon sind wir halt nicht nur eine Generation weg.
Insofern verstehe ich die dramatische Diskussion zwischen AMD und nVidia nicht wirklich.

Si|encer
2022-11-22, 19:40:33
So ein eindeutige Ansage haben doch alle gewollt:

lxLdgR9-ExI

Ex3cut3r
2022-11-22, 19:54:43
So ein eindeutige Ansage haben doch alle gewollt:

https://youtu.be/lxLdgR9-ExI
Der Humor ist nicht übel, eine Grafikkarte für Oligarchen. ;D

OpenVMSwartoll
2022-11-22, 20:17:22
Da darf man dann aber ne Blattgoldauflage erwarten.

Olliver
2022-11-22, 20:28:05
"Bitte kauft keine 4080! "
Das ist doch mal eine klare Ansage.
Danke

ChaosTM
2022-11-22, 20:55:44
War ein irrer Impulskauf tbh. Sollte man in der Tat nicht fördern. So sehr ich das Ding auch liebe werde ich nochmals intensiver in mich gehen.

12 Tage bleiben noch..

L233
2022-11-22, 21:22:38
Beleuchtung, Reflektion und Schatten können auch in Rasterizing gut aussehen. Im Prinzip muss man (der Entwickler) dafür aber "cheaten" [...]

Mit RT muss man nicht mehr tricksen - man kann also auf konsistente Ergebnisse setzen und man kann noch bessere Ergebnisse erzielen.

Wie sieht das eigentlich im Hinblick auf die Unreal Engine 5 aus?

Die Engine verfügt ja über eine neue, eigene Beleuchtungs-Technologie (Lumen). Wird das RT in irgend eine Form tangieren? Ergänzt sich das oder schließt sich das Gegenseitig aus?

Troyan
2022-11-22, 21:40:59
:facepalm:
Wie immer von dir, nur Rosinen picken. :facepalm:

Spiderman hat eine sehr simple Raytracing Implementierung welche von vorne herein für die schwache AMD Hardware der PS5 entwickelt wurde.
Die Reflektionen funktionieren da nur mit stark reduzierter Geometrie und und nur wenig Objekten die überhaupt reflektiert werden. Des weiteren ist die allgemeine Auflösung der Reflektionen sehr niedrig, es werden nur wenig Rays pro Pixel getraced.

Das ist überhaupt kein Vergleich zu den Reflexionen von z.B. Cyberpunk oder Control.

Und dann ist es natürlich klar, dass bei einer simplen Raytracing Implementierung, welche wenig Rechenleistung erfordert, AMD Hardware nicht so stark abfällt wie in Titeln mit einer komplexeren Raytracing Lösung.

Von daher nochmal für dich: :facepalm:

Na, Computerbase stellt einfach die Settings runter, so dass AMD Hardware besser darsteht. In Wirklichkeit ist nVidia auch in Spider-Man deutlich schneller: https://www.youtube.com/watch?v=deUAqRMSXgM

dargo
2022-11-22, 21:43:49
bzTPeMRxKFs

Spring
2022-11-22, 22:15:52
So ein eindeutige Ansage haben doch alle gewollt:

https://youtu.be/lxLdgR9-ExI

Nette Ansage. Raff: :up:

https://cdn.discordapp.com/attachments/665206588155494400/1044722601051836547/Zwischenablage09.png

Ätznatron
2022-11-22, 22:16:18
nVidias Händler bleiben also auf Bergen unverkäuflicher Amperekarten sitzen, gerade weil sich die 4090 im gehobeneren Segment und im Rahmen einer entsprechenden Klientel möglicherweise halbwegs ordentlich verkauft.

Die 4080 verkauft sich dagegen so gut wie gar nicht.

Der Preis siegt also über das Featureset, so toll es auch sein mag.

Troyan
2022-11-22, 22:20:42
Toller Vergleich von PCGH. Hoffentlicht wird er es mit der 7900XTX auch so machen. Immerhin kostet die Karte mehr als das doppelte als die 7970 von vor 10 Jahren.

Spring
2022-11-22, 22:22:29
Der Preis siegt also über das Featureset, so toll es auch sein mag.

Richtig. Wer hätte das gedacht :ugly:

Das en gros der Enthusiasten hat sich bereits bei der 4090 bedient, für die ist die 4080 eher weniger und die Teamred Enthusiasten warten eh auf die 7900XTX.
Und der aktuelle Preis ist halt für einen großen Teil der Gamer & Bastler viel zu hoch.

Schauen wir mal wie weit Nvidia runter gehen wird, noch sitzen sie es aus.

Lawmachine79
2022-11-22, 22:23:23
https://youtu.be/bzTPeMRxKFs
Der Launch der 4080 ist tatsächlich ein Desaster. Für die 4080. Der Launch der 4080 ist aber ein Geschenk Gottes für die 4090 und für NVidias Lagerbestände an 3000er-Karten. NVidia hat eine neue Grafikkartengeneration rausgebracht und die Vorgängerkarten verkaufen sich immer noch zum MSRP oder sogar leicht darüber. Ich glaube nicht, dass NVidia darüber traurig ist.

Die 4080 ist das Vehikel, um zahlungswillige Käufer zur 4090 zu dirigieren und zahlungsunwillige Käufer zu den alten Lagerbeständen. Genau so ist sie gepriced. Das ist vor allem deshalb möglich weil AMD mit seinem Launch viel zu spät dran ist. NVidia trocknet jetzt den Sumpf an "Unentschlossenen" aus, die keinen oder nur einen leichten "Bias" zugunsten eines Herstellers haben und AMD steht nur mit dem Schwanz in der Hand da und wartet auf den 14. Dezember. Das ist strategisch maximal ungeschickt. Am 14. Dezember kaufen dann die Leute eine AMD-Karte, die sie kaufen, weil es eine AMD-Karte ist. Ist ok, ich hatte auch mal so ein Kaufverhalten und habe z.B. Intel gemieden, wie der Teufel das Weihwasser. Die übrigen "Unentschlossenen", die geduldig genug sind, bis zum 14. Dezember zu warten, kriegt NVidia vielleicht auch. Am 14. Dezember hat die 4080 zum Preis von 1500 Euro ihre Schuldigkeit getan und die 4080 zum Preis von 1000-1200 Euro kann die Bühne betreten.

mr coffee
2022-11-22, 22:28:11
Genau so ist es. Die 4080 hat momentan genau diese Funktion: die Leute entweder zur 4090 oder der 3000er-Reihe zu treiben.

Troyan
2022-11-22, 22:33:05
Der Launch der 4080 ist tatsächlich ein Desaster. Für die 4080. Der Launch der 4080 ist aber ein Geschenk Gottes für die 4090 und für NVidias Lagerbestände an 3000er-Karten. NVidia hat eine neue Grafikkartengeneration rausgebracht und die Vorgängerkarten verkaufen sich immer noch zum MSRP oder sogar leicht darüber. Ich glaube nicht, dass NVidia darüber traurig ist.

Ampere ist doch hier in Europa längst abverkauft. Eine 3090 macht doch kein Sinn, wenn man für 300€ mehr eine 4080 erhält.

Ätznatron
2022-11-22, 22:36:23
Am 14. Dezember kaufen dann die Leute eine AMD-Karte, die sie kaufen, weil es eine AMD-Karte ist. Ist ok, ich hatte auch mal so ein Kaufverhalten und habe z.B. Intel gemieden, wie der Teufel das Weihwasser. Die übrigen "Unentschlossenen", die geduldig genug sind, bis zum 14. Dezember zu warten, kriegt NVidia vielleicht auch. Am 14. Dezember hat die 4080 zum Preis von 1500 Euro ihre Schuldigkeit getan und die 4080 zum Preis von 1000-1200 Euro kann die Bühne betreten.

Ab spätestens 14.12.22 kauft man also lieber Lovelace - oder AMD - statt Ampere.

Das lässt die Amperebestände gut gefüllt bei den Händlern.

Ätznatron
2022-11-22, 22:37:12
Ampere ist doch hier in Europa längst abverkauft. Eine 3090 macht doch kein Sinn, wenn man für 300€ mehr eine 4080 erhält.

24 GB vs 16, Stromstecker usw...

Complicated
2022-11-22, 23:08:43
AMD sollte den Laden dicht machen, da nach 4 Wochen 4080 auf dem Markt keiner mehr GPUs kauft nach dem 14.12.

Troyan
2022-11-22, 23:12:52
24 GB vs 16, Stromstecker usw...

Das sind keine Argumente gegenüber der 4080. Die 300€ liefern 30% mehr Leistung, bessere Architektur für die Zukunft, DLSS 3, im Schnitt 50W weniger Verbrauch (im CPU-Limit sogar über 100W...) etc.

Angeblich kommt die 4070TI zur CES 2023, dann bekommt man bei 12GB 3090+ Leistung für wohl unter 1000€.

Na, bis auf die 3080 10GB ist High-End Ampere im Neukauf nicht mehr relevant.

Ätznatron
2022-11-22, 23:31:25
Das sind keine Argumente gegenüber der 4080.


Magst Du so sehen.

Ich nicht.

just4FunTA
2022-11-23, 02:32:22
AMD sollte den Laden dicht machen, da nach 4 Wochen 4080 auf dem Markt keiner mehr GPUs kauft nach dem 14.12.

Hä was soll das heissen?

DrFreaK666
2022-11-23, 05:53:24
Das sind keine Argumente gegenüber der 4080. Die 300€ liefern 30% mehr Leistung, bessere Architektur für die Zukunft, DLSS 3, im Schnitt 50W weniger Verbrauch (im CPU-Limit sogar über 100W...) etc.
...

Troyan hat von AMD Karten zum Testen erhalten :ugly:

Hikaru
2022-11-23, 06:25:45
Mit RT muss man nicht mehr tricksen - man kann also auf konsistente Ergebnisse setzen und man kann noch bessere Ergebnisse erzielen.


Nun ohne DLSS Getrickse sieht es auf 4K dann eher mau aus, richtig?

Hinzu kommt dass das Gaming RT mit "echtem" RT überhaupt nicht vergleichbar ist.

Zu wenig Strahlen, zu wenig Abprallen von konsekutiven Flächen(material). Dann hätten wir GI etc. Also das "volle" RT Paket, davon sind wir weit entfernt. Ich finde es unbefriedigend in ein Schaufenster zu gucken nur damit man unterirdisches LOD begutachten kann bishin zu garkeiner Spiegelung ab 10 Metern Entfernung.

Sicherlich sieht eine RT Motorhaube oder Pfütze besser aus aus als mit Raster. Ich will aber das die ganze Welt ge-raytraced wird mit allem Brimborium.

Ist wie mit den ersten korrekt berechneten Schatten. Die sahen anfangs auch gruselig pixelig aus mit üblem LOD. Genau da sind wir nun wieder. Das braucht noch ein paar Generationen damit wir von "wirklichem" RT sprechen können.

SamLombardo
2022-11-23, 06:53:29
Toller Vergleich von PCGH. Hoffentlicht wird er es mit der 7900XTX auch so machen. Immerhin kostet die Karte mehr als das doppelte als die 7970 von vor 10 Jahren.
Sehe ich auch so. Für mich hat das PCGH Video einen fahlen Beigeschmack. Als wenn man sich dem Druck irgendwelcher Influencer, Shitstormer oder wem auch immer gebeugt hat. Der ursprüngliche Test der 4080 durch Raff war gut und professionell. Und auf den hohen Preis hat er auch da schon hingewiesen. Aber das hat manchen Leuten offenbar nicht gereicht und daher ham das Schmähvideo (kauft nicht!) hinterher. Muss doch eigentlich nicht sein. Da es nun aber da ist, wäre es nur fair, so ein "kauft nicht!" Video auch nach dem AMD Launch zu bringen. Mit den entsprechenden Diagrammen zur Preisentwicklung. Diese wird sich nämlich kaum zu der bei nvidia unterscheiden.

Rolsch
2022-11-23, 07:16:15
AMD sollte den Laden dicht machen, da nach 4 Wochen 4080 auf dem Markt keiner mehr GPUs kauft nach dem 14.12.
Das späte Erscheinungsdatum gibt in der Tat Grund zur Sorge dass da nicht alles nach Plan läuft. Zudem das Produkt wie bei der 4080 vermutlich keinem "muss ich haben Nerd" den Schlaf raubt.

robbitop
2022-11-23, 07:37:33
Nun ohne DLSS Getrickse sieht es auf 4K dann eher mau aus, richtig?

Hinzu kommt dass das Gaming RT mit "echtem" RT überhaupt nicht vergleichbar ist.

Zu wenig Strahlen, zu wenig Abprallen von konsekutiven Flächen(material). Dann hätten wir GI etc. Also das "volle" RT Paket, davon sind wir weit entfernt. Ich finde es unbefriedigend in ein Schaufenster zu gucken nur damit man unterirdisches LOD begutachten kann bishin zu garkeiner Spiegelung ab 10 Metern Entfernung.

Sicherlich sieht eine RT Motorhaube oder Pfütze besser aus aus als mit Raster. Ich will aber das die ganze Welt ge-raytraced wird mit allem Brimborium.

Ist wie mit den ersten korrekt berechneten Schatten. Die sahen anfangs auch gruselig pixelig aus mit üblem LOD. Genau da sind wir nun wieder. Das braucht noch ein paar Generationen damit wir von "wirklichem" RT sprechen können.
Tja wir sind halt noch in einer Übergangszeit. Man erinnere sich an die ersten Spiele mit Pixelshader. War super teuer und sah nicht mal toll aus.

Es gibt allerdings bereits Implementierungen, die gutes GI haben wie Metro Exodus.

Aktuell reicht einfach nur die Leistung noch nicht aus, damit alle das volle Paket genießen können. Bis selbst ein 200 mm² midrange chip alles gestämmt bekommt, wird es sicherlich noch ein paar Generationen dauern.

Der Schlüssel dazu ist: mehr Rohleistung und auch mehr fixed function RT HW (denn die bringt wesentlich mehr Leistung in RT als sie an % Transistorbudget kostet).

Was Upsampling angeht: DLSS und FSR 2 schaffen es bereits heute im Quality preset fast immer, bessere BQ zu erreichen als native. Entsprechend ist es halt auch ein Enabler. Anstatt einfach nur per bruteforce Rechenleistung in immer mehr Pixel zu verschwenden macht es schon IMO Sinn, die Pixel selbst hübscher zu machen und mit zunehmenden Fähigkeiten von Upsamplingverfahren diese auch zu nutzen um weniger Pixel berechnen zu müssen. Das ist effizienter denn die tatsächlichen Informationen zum Upsampling sind ja vorhanden - man muss sie nur temporal extrahieren (was gerade in border cases nicht einfach ist).

Diese modernen Upsamplingverfahren sind so gut, weil es kein Upscaling mehr ist sondern Spared Grid Supersampling. Mit dem Unterschied, dass der Output für eine höhere Auflösung umgerechnet wird und mit dem Unterschied, dass Samples temporal gewonnen werden (was sehr gut funktioniert).

Complicated
2022-11-23, 08:14:00
doppelt

Complicated
2022-11-23, 08:14:33
Hä was soll das heissen?
/Ironie zu Lawmachine79

ChaosTM
2022-11-23, 08:25:00
Nun ohne DLSS Getrickse sieht es auf 4K dann eher mau aus, richtig?

Hinzu kommt dass das Gaming RT mit "echtem" RT überhaupt nicht vergleichbar ist.

Zu wenig Strahlen, zu wenig Abprallen von konsekutiven Flächen(material). Dann hätten wir GI etc. Also das "volle" RT Paket, davon sind wir weit entfernt. Ich finde es unbefriedigend in ein Schaufenster zu gucken nur damit man unterirdisches LOD begutachten kann bishin zu garkeiner Spiegelung ab 10 Metern Entfernung.

Sicherlich sieht eine RT Motorhaube oder Pfütze besser aus aus als mit Raster. Ich will aber das die ganze Welt ge-raytraced wird mit allem Brimborium.

Ist wie mit den ersten korrekt berechneten Schatten. Die sahen anfangs auch gruselig pixelig aus mit üblem LOD. Genau da sind wir nun wieder. Das braucht noch ein paar Generationen damit wir von "wirklichem" RT sprechen können.

Wenn man die Bilder genauer analysiert ist es auf den ersten Blick natürlich deutlich besser als alles was wir bisher harren, aber speziell real spiegelnde Reflexionen "zerbröseln" bei genauerer Betrachtung total. Kommt halt drauf an, ob man ein "Schauer" oder "echter Spieler" ist. Letzteren ist RT sehr oft relativ egal. Wenn man tief ins Spiel immersiert ist fallen solche relativen Kleinigkeiten nicht so stark auf.

Beleuchtung hingegen kann das Ambiente deutlich aufwerten ohne echte Nachteile. Bei Schatten kommt es stark auf die RT-lose Implementierung an ob es Sinn macht oder nicht. Hab mir gestern Tomb Raider kurz angesehen und da empfand ich RT eigentlich als reine FPS Vernichtungsmaschine.

Von "echtem" Pathtracing sind wir noch 2 Größenordnungen bezüglich Leistung entfernt. Daher braucht es intelligentere Ansätze als die derzeitige Brute Force Methode. Muss ja auch nicht Full Path Tracing sein. Sachen wie Cryteks Software RT oder Lumen sind ein Schritt in diese Richtung.

Grundsätzlich bin ich natürlich für RT, aber momentan ist es (immer) noch mehr Marketing Vehikel als echter Benefit.

Und jetzt hau ich mir wieder 77 @ Psycho um die Augen. :D
Ich liebe diesen OLED.

Tarkin
2022-11-23, 08:44:43
UmjhPuMI9Es

Bestes 4080 Review bisher ;D.

Ich schau ihn normalerweise nicht, aber das ist wirklich ziemlich witzig (jensen evil laughter bei 04:28 LMAO!!!)

dargo
2022-11-23, 09:07:19
Zu geil das Video. ;D ;D ;D

Exxtreme
2022-11-23, 09:23:40
Nun ohne DLSS Getrickse sieht es auf 4K dann eher mau aus, richtig?

Hinzu kommt dass das Gaming RT mit "echtem" RT überhaupt nicht vergleichbar ist.


Richtig. Ich schrieb deshalb in einem anderen Thread, dass Spiele-RT derzeit in etwa auf dem Niveau von bilinearer Texturfilterung ist. :) Zwar sehr viel besser als gar kein RT. Aber für gutes RT dafür fehlt auch der RTX 4090 einfach die Power. Und zwar um mindestens Faktor 5. :) Aber eher Faktor 20.

ChaosTM
2022-11-23, 09:29:38
Cyberpunk 77 -> full Pacthtracing mit heutiger Technik.: Faktor 100+

add.: das ist nicht auf meinem Mist gewachsen. Das ist aus einem Video wo ein Fachmann befragt wurde. Werde ich suchen.

Thunder99
2022-11-23, 09:53:24
Sehe ich auch so. Für mich hat das PCGH Video einen fahlen Beigeschmack. Als wenn man sich dem Druck irgendwelcher Influencer, Shitstormer oder wem auch immer gebeugt hat. Der ursprüngliche Test der 4080 durch Raff war gut und professionell. Und auf den hohen Preis hat er auch da schon hingewiesen. Aber das hat manchen Leuten offenbar nicht gereicht und daher ham das Schmähvideo (kauft nicht!) hinterher. Muss doch eigentlich nicht sein. Da es nun aber da ist, wäre es nur fair, so ein "kauft nicht!" Video auch nach dem AMD Launch zu bringen. Mit den entsprechenden Diagrammen zur Preisentwicklung. Diese wird sich nämlich kaum zu der bei nvidia unterscheiden.
Wieso? Laut der UVP sind die Karten schneller aber nicht teurer (900er SKU). Gegenüber der 6800XT nur maßvoll teurer.
Im Gegensatz zu Nvidia...

Die 4080 ist verdammt gut, wäre der Preis nicht. So ist sie für viele nicht kaufbar. Ampere ist keine Alternative. Zu wenig Speicher, zu hoher Verbrauch, ältere Technik.
Für mich keine Alternative

SamLombardo
2022-11-23, 10:17:26
...

robbitop
2022-11-23, 10:23:17
Von "echtem" Pathtracing sind wir noch 2 Größenordnungen bezüglich Leistung entfernt. Daher braucht es intelligentere Ansätze als die derzeitige Brute Force Methode. Muss ja auch nicht Full Path Tracing sein.

Wichtig ist es, Stärken zu nutzen. Rasterizing ist für bestimmte Dinge viel viel besser und schneller als Raytracing. Raytracing hingegen kann andere Dinge viel viel besser (und unabhängig von der Fähigkeit der jeweiligen Content Creators und Entwicklers das hinzufaken (was nicht negativ gemeint ist)).

Der Ansatz beides im Tandem zu nutzen ist sinnvoll. Wo man gerade bei dynamischer Beleuchtung und Reflektion noch spart sind Rays pro Pixel und die Anzahl der Bounces. Das wird aus mindestens zwei Mechanismen besser werden

1. Stärker werdende HW (so viel wie möglich FF RT Hardware und mehr Rechenleistung)
2. Verbesserungen im Bereich Echtzeit Denoising - da gibt es soweit ich weiß große Sprünge basierend auf NN. Die sind nur noch nicht in Echtzeit angekommen - das wird aber früher oder später passieren.

Auch hier ist Bruteforce nicht die Lösung. Wenn besseres Denoising zu besseren Ergebnissen führt, braucht es nicht mehr Rays pro Pixel. Wenn ab dem 3. oder 4. bounce keine großen Änderungen mehr am Ergebnis sichtbar sind, lohnen mehr bounces wohl einfach nicht.

Auch ist es sicherlich sinnvoll Reflektionen Raytracing mit Screenspaceverfahren zu kombinieren um Leistung zu sparen. Solange das Ergebnis vergleichbar bleibt: warum nicht?

Ich bin mir intuitiv relativ sicher, dass das mittelfristig deutlich besser wird und dann auch keiner mehr ohne RT sein will. Aber es dauert halt noch etwas. Die Effektivität und Frequenz der Shrinks hat leider stark nachgelassen und die Kostensenkung durch Shrinks ebenfalls. Das war zu Pixelshaderzeiten noch ganz anders. Da war Moore's law noch komplett intakt. Und natürlich ist der Sprung des Aufwands ein ganz anderer als damals zur Einführung von Pixelshadern.
Wenn man den zeitlichen Rahmen mal außen vorlässt, ist das große Ganze aber schon vergleichbar.

In der Praxis - trotz Übergangsphase - gibt es schon ein paar Implementationen, da sieht es schon sehr sehr gut aus. Da sieht man was für ein Sprung das sein kann. Aber je besser gefakt wurde und/oder je schlechter die RT Implementierung desto kleiner der optische Zugewinn. Auch da muss sicher von Entwickler und Content Creator Seite noch iterativ geübt werden.
Manchmal wird es gefühlt auch einfach nur als "Checklistfeature" in ein Spiel gedumpt.

Lawmachine79
2022-11-23, 10:35:42
AMD sollte den Laden dicht machen, da nach 4 Wochen 4080 auf dem Markt keiner mehr GPUs kauft nach dem 14.12.
Natürlich werden noch GPUs nach dem 14.12. gekauft. Aber der Release der 40er-Serie hat halt einen "Kaufzyklus" gestartet, wo Leute kaufen oder überlegen zu kaufen. Für diese Leute hat AMD derzeit nichts im Regal liegen. Und einen Teil des Weihnachtsgeschäfts verliert man mindestens auch. Eigentlich verliert man das komplette Weihnachtsgeschäft, weil niemand, der klaren Verstands ist, davon ausgeht, dass die Karten am 14.12. "einfach so" gekauft werden können. Rational ist es, von einer guten Verfügbarkeit erst nach Weihnachten auszugehen. Wenn man schon den langsameren Chip mit schlechterem Featureset bringt, musst man wenigstens Erster sein. Das ist das was ich am Unverständlichsten finde.

Troyan
2022-11-23, 10:59:57
Wieso? Laut der UVP sind die Karten schneller aber nicht teurer (900er SKU). Gegenüber der 6800XT nur maßvoll teurer.
Im Gegensatz zu Nvidia...

Die 4080 ist verdammt gut, wäre der Preis nicht. So ist sie für viele nicht kaufbar. Ampere ist keine Alternative. Zu wenig Speicher, zu hoher Verbrauch, ältere Technik.
Für mich keine Alternative

Laut AMD liefert die 7900XTX ~60% Mehrleistung zur 6900XT. Macht eine P/L-Verbesserung von 60%. Die 4080 ist 30% schneller als die 3090 und kostet 20% weniger - macht exakt die selbe P/L Verbesserung.

Si|encer
2022-11-23, 11:05:45
Es wird sich doch heute keiner mehr eine 3090 zum Normalpreis kaufen ? Damit meine ich auch nicht gebrauchte, aber bei Mindfactory gab es oft genug 3090 für 1100 €. Ich gehe mal davon aus das die Preise im Dezember auch wieder fallen wenn die roten raus sind.

Ok, jetzt sind sie wieder teurer, aber ganz soviele sind ja scheinbar eh nicht mehr auf dem Markt.

unl34shed
2022-11-23, 11:07:14
Laut AMD liefert die 7900XTX ~60% Mehrleistung zur 6900XT. Macht eine P/L-Verbesserung von 60%. Die 4080 ist 30% schneller als die 3090 und kostet 20% weniger - macht exakt die selbe P/L Verbesserung.

Nur ist die 4080 der Nachfolger der 3080, nicht der 3090, aber das weißt du... und da ist sie 50% schneller bei fast 100% Mehrkosten.

SamLombardo
2022-11-23, 11:22:44
Nur ist die 4080 der Nachfolger der 3080, nicht der 3090, aber das weißt du... und da ist sie 50% schneller bei fast 100% Mehrkosten.
Nvidia sieht ja die 4080 als Nachfolger der 3080ti. Das hätte man natürlich auch mal im Namen kenntlich machen können das stimmt schon.

L233
2022-11-23, 11:33:25
Was Upsampling angeht: DLSS und FSR 2 schaffen es bereits heute im Quality preset fast immer, bessere BQ zu erreichen als native. Entsprechend ist es halt auch ein Enabler. Anstatt einfach nur per bruteforce Rechenleistung in immer mehr Pixel zu verschwenden macht es schon IMO Sinn, die Pixel selbst hübscher zu machen und mit zunehmenden Fähigkeiten von Upsamplingverfahren diese auch zu nutzen um weniger Pixel berechnen zu müssen.
Ich muss im Zusammenhang sagen, dass ich so manche Marotten, die hier im Forum aufkommen, eh relativ unverständlich finde. Dazu zählt IMO auch, unbedingt native Auflösung statt DLSS fahren zu müssen, und zwar am besten noch in 4K, weil beim Pixelpeeping auf Screenshots vielleicht mal eine Textur ganz leicht unschärfer wirkt, was im bewegten Spiel quasi nicht wahrnehmbar ist.

Gleichzeitig wird dann noch behauptet, dass RT eh niemand sieht. Aha.

Selbst 4K Gaming an sich auf Monitoren <32" (16:9) ist IMO eine Schrulligkeit, wenn man nicht gerade mit der Nase am Bildschirm klebt.

Von anderem Quatsch, wie isometrische Aufbau-Strategiespiele unbedingt mit 144hz spielen zu wollen und deshalb zu meinen, BRACHIALE ROHLEISTUNG ÜBER ALLES zu benötigen, fange ich gar nicht erst an.

dildo4u
2022-11-23, 11:34:02
Nvidia sieht ja die 4080 als Nachfolger der 3080ti. Das hätte man natürlich auch mal im Namen kenntlich machen können das stimmt schon.
Nicht wirklich es kommt natürlich noch eine 4080 Ti die auf den 4090 Chip basiert.
Die Lücke von 4080 zu 4090 ist viel zu groß und wie bei Ampere wird man sie langsam füllen.(Es gab zu erst nur 3090 und 3080 und dann 3080 12GB,3080 TI)

SamLombardo
2022-11-23, 11:36:13
Nicht wirklich es kommt natürlich noch eine 4080 Ti die auf den 4090 Chip basiert.
Die Lücke von 4080 zu 4090 ist viel zu groß und wie bei Ampere wird man sie langsam füllen.(Es gab zu erst nur 3090 und 3080 und dann 3080 12GB,3080 TI,3090 TI)
Hm. Irgendwo habe ich mal gelesen, dass Nvidia es so kommuniziert. ...kann aber auch Quatsch sein.

dildo4u
2022-11-23, 11:39:40
Natürlich kommt da noch was die 4090 ist in RT manchmal 50% schneller.
Damit lässt NV die RT Leistung viel zu dicht an AMD.

Palpatin
2022-11-23, 11:46:44
Nvidia sieht ja die 4080 als Nachfolger der 3080ti. Das hätte man natürlich auch mal im Namen kenntlich machen können das stimmt schon.
Dann haben wir 35% mehr Leistung für 7,5% mehr Preis vs 60% mehr Leistung für 0% mehr Preis.

DrFreaK666
2022-11-23, 11:46:57
... Eigentlich verliert man das komplette Weihnachtsgeschäft...

Wieso glauben viele dass das wichtig ist?
Bei einer Konsole... ok.
Aber wer verschenkt eine 1200€+ Grafikkarte an Weihnachten?

Troyan
2022-11-23, 11:59:12
Dann haben wir 35% mehr Leistung für 7,5% mehr Preis vs 60% mehr Leistung für 0% mehr Preis.

Es sind 35% bei 0 Aufpreis bei der 4080 gegenüber der 3080TI.

dildo4u
2022-11-23, 12:01:21
Wieso glauben viele dass das wichtig ist?
Bei einer Konsole... ok.
Aber wer verschenkt eine 1200€+ Grafikkarte an Weihnachten?
Sie man doch an Nvidias Preisen die wollen die neuen Karten noch nicht im Umlauf haben wenn man sieht wie viele alte Karten überproduziert wurden.
Nicht nur Nvidia hat mit 3090 TI nachgelegt sondern auch AMD mit 6950XT.

Lawmachine79
2022-11-23, 12:43:28
Ich muss im Zusammenhang sagen, dass ich so manche Marotten, die hier im Forum aufkommen, eh relativ unverständlich finde. Dazu zählt IMO auch, unbedingt native Auflösung statt DLSS fahren zu müssen, und zwar am besten noch in 4K, weil beim Pixelpeeping auf Screenshots vielleicht mal eine Textur ganz leicht unschärfer wirkt, was im bewegten Spiel quasi nicht wahrnehmbar ist.

Gleichzeitig wird dann noch behauptet, dass RT eh niemand sieht. Aha.

Selbst 4K Gaming an sich auf Monitoren <32" (16:9) ist IMO eine Schrulligkeit, wenn man nicht gerade mit der Nase am Bildschirm klebt.

Von anderem Quatsch, wie isometrische Aufbau-Strategiespiele unbedingt mit 144hz spielen zu wollen und deshalb zu meinen, BRACHIALE ROHLEISTUNG ÜBER ALLES zu benötigen, fange ich gar nicht erst an.
Jedes einzelne Deiner Argumente stimmt. Allerdings ist jedes einzelne Deiner Argumente geeignet, den Sinn von Aufrüstung überhaupt in Frage zu stellen. Ich bin mir ziemlich sicher, dass ich mit einer 1080 TI auf einem FHD-Bildschirm nicht unglücklicher wäre. Aber Du bist hier in einem Hobby- und Nerdforum, wo auf hohem Niveau "gejammert" wird. Wenn man das akzeptiert hat, landet man eben auf einer so hohen "Granularität" wo irgendwo noch eine verwaschene Textur oder hässliche Beleuchtung zu finden ist.

Wieso glauben viele dass das wichtig ist?
Bei einer Konsole... ok.
Aber wer verschenkt eine 1200€+ Grafikkarte an Weihnachten?
Wer kauft sie sich von seinem Weihnachtsgeld? Du glaubst doch nicht, dass sich der gesamte Weihnachtskonsum auf "Geschenke" zurückführen lässt? Ich habe keine belastbaren Zahl dazu (und auch keine nicht-belastbaren Zahlen), aber das ist doch bestenfalls 1/3 des Weihnachtskonsums.

Matrix316
2022-11-23, 13:16:32
Wieso glauben viele dass das wichtig ist?
Bei einer Konsole... ok.
Aber wer verschenkt eine 1200€+ Grafikkarte an Weihnachten?
Also ich schenk es mir immer selbst. :D Für das Kind im Manne. ;)

Nvidia sieht ja die 4080 als Nachfolger der 3080ti. Das hätte man natürlich auch mal im Namen kenntlich machen können das stimmt schon.
Meinst du so wie die 2080 der Nachfolger der 1080TI war? :wink:

Vielleicht wars tatsächlich so mit der 4080 12 GB und 4080 16 GB. Sonst hätten die ja nicht zwei Versionen rausgebracht.

ChaosTM
2022-11-23, 13:20:27
Sie man doch an Nvidias Preisen die wollen die neuen Karten noch nicht im Umlauf haben wenn man sieht wie viele alte Karten überproduziert wurden.
Nicht nur Nvidia hat mit 3090 TI nachgelegt sondern auch AMD mit 6950XT.


Beide Karten waren nicht sonderlich sinnvoll bezüglich Effizienz.
Sieht man zb. gut in Igors Rating. Schluckspechte vom Feinsten für sehr wenig Mehrleistung.

Der 3090zi muss man aber zu Gute halten, dass sich die Lastspitzen stark geglättet haben.

SamLombardo
2022-11-23, 13:47:12
Vielleicht wars tatsächlich so mit der 4080 12 GB und 4080 16 GB. Sonst hätten die ja nicht zwei Versionen rausgebracht.
Ja, da gab es beim Launch so eine Gegenüberstellung, 3080 - 4080 12gb, 3080ti - 4080 16gb, 3090 - 4090. Schon ziemlich unglücklich gemacht von Nvidia mit diesen Namensgebungen:rolleyes:.

Matrix316
2022-11-23, 14:28:04
Ja, da gab es beim Launch so eine Gegenüberstellung, 3080 - 4080 12gb, 3080ti - 4080 16gb, 3090 - 4090. Schon ziemlich unglücklich gemacht von Nvidia mit diesen Namensgebungen:rolleyes:.

Zumindest hat man hier den Speed verglichen:

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/RTX-4090-RTX-4080-1403773/galerie/3665914/?fullsize
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/RTX-4090-RTX-4080-1403773/galerie/3665957/?fullsize

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/RTX-4090-RTX-4080-1403773/galerie/3665915/

DrFreaK666
2022-11-23, 14:28:27
https://videocardz.com/newz/nvidia-geforce-rtx-4090-is-outselling-the-rtx-4080-on-ebay-by-a-factor-of-3-4

It looks like the RTX 4080 has turned into a true nightmare for scalpers.

Die armen Scalper :lol:

Lawmachine79
2022-11-23, 14:33:21
https://videocardz.com/newz/nvidia-geforce-rtx-4090-is-outselling-the-rtx-4080-on-ebay-by-a-factor-of-3-4



Die armen Scalper :lol:
Zumal das echt mit Ansage war.

Matrix316
2022-11-23, 14:40:26
Den Satz versteh ich nicht ganz:

NVIDIA RTX 4090 is not in short supply, on a contrary, it is easily available with more cards reaching the market each day. Since the card launched, only 65 cards were sold on eBay. This means that on average only 8 RTX 4080 cards are sold each day.

Meinen die am Ende 4080 oder doch 4090?

EDIT rein rechnerisch muss es dann doch die 4080 sein. ;) Ich hasse solche Tippfehler. ;)

Asaraki
2022-11-23, 16:24:55
Jo bestimmt die 4080 gemeint :) Ist doch schön... Scalping ist echt was für Leute ohne Charakter :D

SentinelBorg
2022-11-24, 05:51:25
Wie sieht das eigentlich im Hinblick auf die Unreal Engine 5 aus?

Die Engine verfügt ja über eine neue, eigene Beleuchtungs-Technologie (Lumen). Wird das RT in irgend eine Form tangieren? Ergänzt sich das oder schließt sich das Gegenseitig aus?
Lumen hat einen RT-beschleunigten/erweiterten Renderer. Es gibt auch ein Shader-Software Fallback aber der ist dann halt langsamer und/oder unpräziser/mehr fake.
Für UE5 ist Nvidia schon sehr gut aufgestellt. Für Nanite bietet die 40er mit Micro-Vertices wohl auch ein sinnvolles Zusatzfeature das AMD afaik noch fehlt.

Badesalz
2022-11-24, 06:44:26
Was Upsampling angeht: DLSS und FSR 2 schaffen es bereits heute im Quality preset fast immer, bessere BQ zu erreichen als native.Wieviele reale Beispiele brachte das Forum bisher hervor um zu zeigen, daß dem nicht so ist?
Das was heute als Quality gilt, sollte eigentlich Performance sein. Insofern fehlen uns nach die realen Balanced und Quality... Das ist ein ähnliches Problem wie mit Recode von Mediadata. Man kann es auch auf der GPU machen. Ist spürbar schneller. Sieht nur mies aus, weil die Implementierungen sich ja gleich sehr stark hervortun müssen. Weswegen quasi alle auf den CPUs recoden. Es sieht hinterher einfach besser aus.

Es ist wohl undenkbar - aus welchem Grund auch immer - wenn solche Lösungen +35%, +25% und + 15% bringen würden. Es muss ab 50% aufwärts sein.

Was "mixed" Rendering angeht... Das hab ich wohl noch nicht zu Ende verstanden. Ich habs noch nicht rausgefunden an welcher Stellen zu welcher Zeit man Raster und RT getrennt hat, weswegen man jetzt versucht es wieder zu mixen. Ich hab mir deswegen letztens sogar die zeit genommen mir paar Demos auf YT von UE 5.1 anzuschauen, hab aber irgendwie das Gefühl gehabt das ist der falsche Ansatz gewesen um das zu klären...

robbitop
2022-11-24, 08:07:05
Wieviele reale Beispiele brachte das Forum bisher hervor um zu zeigen, daß dem nicht so ist?
Das was heute als Quality gilt, sollte eigentlich Performance sein. Insofern fehlen uns nach die realen Balanced und Quality...
Ich würde sagen - gerade mit modernen DLSS 2.4.x Implementierungen ist das eher die Ausnahme als die Regel (dass Quality nicht besser aussieht als nativ).


Das ist ein ähnliches Problem wie mit Recode von Mediadata. Man kann es auch auf der GPU machen. Ist spürbar schneller. Sieht nur mies aus, weil die Implementierungen sich ja gleich sehr stark hervortun müssen. Weswegen quasi alle auf den CPUs recoden. Es sieht hinterher einfach besser aus.
Oder man encoded mit CRF (also einem quality factor). Dann sieht es exakt gleich aus, man hat einfach nur höhere Bitrate.
Seit Turing ist x265 encoding übrigens richtig gut mit NVENC und seit Ada ist AV1 encoding richtig richtig gut geworden.
Aber wie gesagt: CRF nutzen für den quality factor den man möchte und dann halt einfach eine etwas höhere Bitrate akzeptieren. Das sind heutzutage keine riesen Unterschiede mehr und bei den heutigen Speicherpreisen und Internetgeschwindigkeiten quasi vernachlässigbar.