PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

NC
2020-09-03, 21:36:00
Ja aber welcher Compiler?der shader compiler im treiber.

Software-Based kein Problem. Siehe Windows-Linux. Es wäre mir aber komplett neu, dass dies Hardware-Based passieren kann, weil die INTs fehlen?!ich weiss nicht so recht was du meinst. Sprechen wir beide über den Warp-Scheduler auf den NVidia GPUs?

N0rG
2020-09-03, 21:39:56
Steckt Miami oder SKYNET da gerade eine 3090 in sein ITX Board? ;D



Der steckt da glaub ich eher das Mainboard an die Grafikkarte. :freak:

Badesalz
2020-09-03, 21:40:08
Wenn Speicher OC weiterhin bei 500MHz oder mehr möglich istIst es aber nicht.

Mit dem 21GBps Speicher nächstes Jahr [...]Erst dann. Vielleicht. Wenn wir Glück haben werden sie keine Wasserkühlung voraussetzen...

gedi
2020-09-03, 21:41:01
der shader compiler im treiber.

ich weiss nicht so recht was du meinst. Sprechen wir beide über den Warp-Scheduler auf den NVidia GPUs?

Ich bin aus dem Thema seit 2014 komplett raus, von daher sorry. Auf den Treiber hatte ich nie Zugriff und es lief alles Softwarebased ab. Von daher meine Verwunderung. Tut mir leid, sorry

Shaft
2020-09-03, 21:46:18
Steckt Miami oder SKYNET da gerade eine 3090 in sein ITX Board? ;D

https://i.imgur.com/WNEZTt9.jpg

Korrektur, da steck jemand sein board in die 3090.

WedgeAntilles
2020-09-03, 21:47:15
Aber warum sollte Nvidia dann den 102er so stark beschneiden und für die 3080 verwenden, wenn es keine yield Probleme gibt? Die hatten anfangs ja auch noch mit einem GA103 geplant. Ich kann mir das nur so erklären, dass es einfach zu viele teildefekte 102er Chips gibt und es somit erforderlich war eine zweite Karte neben der 3090 mit dem 102er zu bestücken. Dadurch ist dann aber der 103er überflüssig geworden. Ich kann mir schon vorstellen, dass an der Meldung was dran ist und 3070 und 3090 erstmal recht knapp sein werden.

Ganz einfach - du machst die 3080 interessant und erhöhst damit deine Marge.
Bei der 1xxx und der 2xxx wurde der Großteil mit der 60 und 70 verkauft.
80 und 80TI waren deutlich weniger.

Weil der Unterschied zwischen der 70 und der 80 nicht so riesig war, dafür deutlich teurer.
Preis-Leistung war bei der 70er massiv besser.

Aber was ist denn bei der 3080 und der 3070?
Die 3080 ist eher sogar BESSER vom Preis-Leistungs-Verhältnis.
Also kaufen viele statt der 3070 halt die 3080.

Ich z.B. werde das ziemlich sicher so machen.
Hätte ich vor einer Woche für völlig unmöglich gehalten. Hatte geplant, evt. eine 3060TI (falls es so was gibt) zu kaufen. Allerhöchstens eine 3070. Aber bei der massig Mehrleistung der 3080 gegenüber der 3070? Scheiß drauf, dann zahl ich halt noch mal 200 Euro mehr, was solls. Der fette Performancebonus, zusammen mit +2GB Ram, machen die 3080 für mich zu einer Preis-Leistungs-technisch besseren Karte als die 3070. Also wirds halt wohl ne 3080. Die reicht mir dann auch wieder 5 Jahre, so wie meine aktuelle 970.

Aber so lupft man viele Käufer auf die 3080 - die (so vermute ich) eine bessere Marge als die 3070 hat.
Normalerweise ist die Marge umso größer, je teurer ein Produkt ist.

Ja, du verkaufst wahrscheinlich ein paar 3090 weniger.
Aber unterm Strich holst du du das durch die stark überproportional steigenden 3080 Verkäufe wieder rein.

Ich habe hier schon mehrfach über Gewinnoptimierung durch "lupfen" der Konsumenten auf höherwertige Produkte gesprochen.
Genau das sehen wir gerade bei Nvidia.

Evt. gibt es auch technische Gründe - klar, das kann sein.
Aber alleine aus Gewinnmaximierungssicht bin ich ziemlich sicher, dass Nvidia gerade alles richtig macht.
Garantiert ist das natürlich nicht, da man dazu die exakten Zahlen (Verkaufszahlen, Gewinn pro Karte) kennen muss.
Aber ich kann mir nicht vorstellen, dass Nvidia mit der 3080 weniger verdient als mit der 3070, von daher...

NC
2020-09-03, 22:04:54
Ich bin aus dem Thema seit 2014 komplett raus, von daher sorry. Auf den Treiber hatte ich nie Zugriff und es lief alles Softwarebased ab. Von daher meine Verwunderung. Tut mir leid, sorry
haha, nein, sorry, das sollte nicht wie eine Anfeindung klingen!
ich glaube wir haben nur ein Kommunikationsproblem :), ich weiss nicht genau was du meinst.
Aber vielleicht hilft dir ein bisschen was über Warp Scheduling zu lesen:https://en.wikipedia.org/wiki/Fermi_(microarchitecture)#Warp_scheduling
Das hat natürlich schon viele Iterationen und Verbesserungen hinter sich, aber an sich gibt es immer noch einen Warp, bzw. Warp-Thread Scheduler auf jeder SM der GPUs.

Stell dir das vielleicht wie Hyper-Threading vor, nur viel viel ausgebauter, wo dann z.B. 10 "Hyper Threads" (also Warps) ablaufen können. Der Scheduler auf der GPU nimmt dann pro Cycle eine Warp und führt eine Instruktion aus.
Manche Warps können pausieren, weil sie z.B. auf Speicher warten, so wie etwa auch bei Hyperthreading, dann kommen andere mehr dran.

Roak
2020-09-03, 22:06:46
@ WedgeAntilles

Exakt so ist meine Entscheidung gefallen. Ich wollte eigentlich nur 500 € ausgeben. 2070 Super und nun soll es eine 3080 werden. Wenn ich den heutigen Tag so überlege was ich gelesen habe glaube ich auch nicht an die 700 € und dann noch die Frage der Verfügbarkeit.

[MK2]Mythos
2020-09-03, 22:08:34
Steckt Miami oder SKYNET da gerade eine 3090 in sein ITX Board? ;D

https://i.imgur.com/WNEZTt9.jpg
:freak:
Baut man da die Grafikkarte aufs Mainboard, oder das Mainboard an die Grafikkarte? :biggrin:
Edit, die anderen waren schneller...

MiamiNice
2020-09-03, 22:25:19
Steckt Miami oder SKYNET da gerade eine 3090 in sein ITX Board? ;D

https://i.imgur.com/WNEZTt9.jpg

Ich habe auch herbe gelacht :biggrin:
Wird bei mir nicht ganz so funny aussehen, da mATX, ist ein bissel größer.
Mit Block drauf relativiert sich das dann auch schnell wieder.

Sorry, das Ding ist ein echter Todschläger... Wahnsinn... Da muss man sich schon fragen, warum der ganze Terz für 20% merh leistung... Daran erkennt man ja schon dass die 3080 an der Grenze läuft...

Die Große des Kühlers sagt also aus das die Karte an der Kotzgrenz läuft? Die Screenys mit den 2 Ghz Takt hast Du aber schon gesehen? NV wollte nicht über 350 Watt mit der Founders Edition gehen weil der Aufschrei dann noch größer gewesen wäre. Die Karte kann noch einiges mehr als das Ref Design zulässt. Das nenne ich nicht Kotzgrenze sondern eher maßvoll.
Kotzgrenze wird 500+Watt unter Wasser sein.

---

Blöd an dieser Gen ist btw. das die Wasserkühler ziemlich alle nicht mit der Founders Edition kompatibel sind, wegen dem aufrechten 12 Pin Stecker.
Das suckt gerade ungemein. Als WaKü Besitzer muss man diese Generation ganz genau hinschauen. Und das die Karte in massiv kleinen Stückzahlen aufschlagen wird, macht die Sache nicht einfacher.

Daredevil
2020-09-03, 22:25:53
Steckt Miami oder SKYNET da gerade eine 3090 in sein ITX Board? ;D

https://i.imgur.com/WNEZTt9.jpg
Ich sags ja schon die ganze Zeit, wenn man das Mainboard sieht, ist der Kühler zu klein. :D
https://abload.de/img/img_6770g0k7n.jpeg

Edgecrusher86
2020-09-03, 23:08:19
https://abload.de/img/5cxk0f.png

Also um genau zu sein wären das je 79,3mV (79mV gerechnet) - 13 Steps pro Feld (6,1mV) und 229 MHz je in der Höhe. Ich habe das mal ergänzt. :)

107% ist also das Max PT der RTX 3090 - konform mit z.B. 2x8 Pin PCI-E -> 375W.
E: Zumindest wenn die EVGA iCX3 sich hier an der FE orientieren sollte. Ich denke aber nicht, dass man dort auch schon mehr als 350W Basis nehmen wird.

https://abload.de/img/1h8krv.png

https://www.youtube.com/watch?v=JdfURQt8E7o

Im Video war auch 2,1 GHz (500 MHz Offset gesetzt :uponder:) und 1,1V zu sehen.

Erbsenkönig
2020-09-03, 23:31:15
107% ist also das Max PT der RTX 3090 - konform mit z.B. 2x8 Pin PCI-E -> 375W.
E: Zumindest wenn die EVGA iCX3 sich hier an der FE orientieren sollte.

Puh. Für Luftkühlung ist das echt nicht ohne. Ich habe meine 1080 auf 0,9 V festgezurrt und komme damit in Control 4K laut Hwinfo auf etwas weniger als 140 W GPU Power. Meine Noctua F12 auf dem "Ghetto Mod" laufen mit ~600 RPM und die Karte steht bei 59°C. Ob man ähnliches auch mit Ampere erreichen könnte? Oder anders gefragt: Wie viel Leistung verliert man, wenn man sie zügelt? Da darf man auf eingehende Tests gespannt sein.

Dural
2020-09-03, 23:35:38
Doom 2080ti vs 3080.

https://youtu.be/A7nYy7ZucxM

Edgecrusher86
2020-09-03, 23:40:02
Doom 2080ti vs 3080.

https://youtu.be/A7nYy7ZucxM

Das ist schon ein gewaltiger Sprung. Die RTX 3090 sollte dann ja nochmals um die 20% Mehrleistung bringen - sodass wohl grob +70% auf die RTX 2080 Ti FE zu erwarten sein dürften.

Dural
2020-09-03, 23:42:14
Das sind mal eben 90% 2080 vs 3080 ;D

SKYNET
2020-09-03, 23:44:25
Steckt Miami oder SKYNET da gerade eine 3090 in sein ITX Board? ;D

https://i.imgur.com/WNEZTt9.jpg


intel board... :ufinger:

bevor ich mir wieder intel in rechner packen würde, würde ich eher zum smartphone zocker :freak:

SKYNET
2020-09-03, 23:50:38
Ich habe auch herbe gelacht :biggrin:
Wird bei mir nicht ganz so funny aussehen, da mATX, ist ein bissel größer.
Mit Block drauf relativiert sich das dann auch schnell wieder.



Die Große des Kühlers sagt also aus das die Karte an der Kotzgrenz läuft? Die Screenys mit den 2 Ghz Takt hast Du aber schon gesehen? NV wollte nicht über 350 Watt mit der Founders Edition gehen weil der Aufschrei dann noch größer gewesen wäre. Die Karte kann noch einiges mehr als das Ref Design zulässt. Das nenne ich nicht Kotzgrenze sondern eher maßvoll.
Kotzgrenze wird 500+Watt unter Wasser sein.

---

Blöd an dieser Gen ist btw. das die Wasserkühler ziemlich alle nicht mit der Founders Edition kompatibel sind, wegen dem aufrechten 12 Pin Stecker.
Das suckt gerade ungemein. Als WaKü Besitzer muss man diese Generation ganz genau hinschauen. Und das die Karte in massiv kleinen Stückzahlen aufschlagen wird, macht die Sache nicht einfacher.


also bei mir würd die karte ins gehäuse passen, ist ja nichtmal so lang... :freak:

Troyan
2020-09-03, 23:56:06
Puh. Für Luftkühlung ist das echt nicht ohne. Ich habe meine 1080 auf 0,9 V festgezurrt und komme damit in Control 4K laut Hwinfo auf etwas weniger als 140 W GPU Power. Meine Noctua F12 auf dem "Ghetto Mod" laufen mit ~600 RPM und die Karte steht bei 59°C. Ob man ähnliches auch mit Ampere erreichen könnte? Oder anders gefragt: Wie viel Leistung verliert man, wenn man sie zügelt? Da darf man auf eingehende Tests gespannt sein.

Ha, ich habe das getestet mit einer 2080TI in Control in 4K: Für 10% weniger Frames kann der Stromverbrauch um 33% gesenkt werden. Dagegen benötigen 22% mehr Frames von diesem Punkt 73% mehr Strom.

Das sollte mit Ampere noch besser sein, da die niedrigen Nodes besser nach unten arbeiten.

MiamiNice
2020-09-04, 00:05:40
107% ist also das Max PT der RTX 3090 - konform mit z.B. 2x8 Pin PCI-E -> 375W.

Das wäre schon arg traurig und schreit geradezu nach einem freiem Bios.
Für rund 375 Watt schnall ich da doch keine WaKü druff. Das kann man ja fast noch wegpusten.

Armaq
2020-09-04, 00:33:10
Das wäre schon arg traurig und schreit geradezu nach einem freiem Bios.
Für rund 375 Watt schnall ich da doch keine WaKü druff. Das kann man ja fast noch wegpusten.
Du hast das andere Bild doch gesehen 3x8. Deine WaKü wird weinen :)

Linmoum
2020-09-04, 00:40:23
Da muss er dann aber wahrscheinlich ewig warten, bis es für Custom-PCBs auch Blöcke gibt. :D

pixeljetstream
2020-09-04, 01:04:19
@pixeljetstream
Vielen dank! Top Antwort.
Es macht mir aber ein wenig ein Unwohlgefühl, dass das (aus GPU Sicht) fehlerhafte Spinlocks fixt.

Kannst/darfst du sagen wie das Scheduling mit den int/fp Einheiten läuft?

Bei Videocardz gab's ja so Übersicht aus Reddit Posts. Tony Tamasi hat da die Logik erklärt.

Seit Kepler macht das instruction setup etc. der compiler static, bei Fermi war es noch dynamic on-chip. Viele derartige Details sind in der cuda documentation beschrieben. Die wird auch die Tage um GA10x ergänzt.

monstar-x
2020-09-04, 01:07:34
Mehr als 50% der erhöhten Bandbreite schlagen durch? Ist auch nicht gerade wenig. Liegts nur an RT?

So wie versprochen ein etwas Ausführlicher Test.
Raytracing scheint mehr von dem schnelleren RAM zu Profitieren.


Intel Core i9-9900K @ 4500, 64GB RAM
NVIDIA GeForce RTX 2080 Ti @ 2050

Immer alles maxed out @ WQHD


Control | RTX On
https://abload.de/img/01_control_rtx_onqxkc9.jpg (https://abload.de/image.php?img=01_control_rtx_onqxkc9.jpg)


Control | RTX Off
https://abload.de/img/02_control_rtx_offc5kiz.jpg (https://abload.de/image.php?img=02_control_rtx_offc5kiz.jpg)






Shadow of the Tomb Raider | RTX On
https://abload.de/img/05_sotr_rtx_on4ejlx.jpg (https://abload.de/image.php?img=05_sotr_rtx_on4ejlx.jpg)


Shadow of the Tomb Raider | RTX Off
https://abload.de/img/06_sotr_rtx_offymj61.jpg (https://abload.de/image.php?img=06_sotr_rtx_offymj61.jpg)





Battelfield V | RTX On
https://abload.de/img/03_battelfield_v_rtx_9okci.jpg (https://abload.de/image.php?img=03_battelfield_v_rtx_9okci.jpg)


Battelfield V | RTX Off
https://abload.de/img/04_battelfield_v_rtx_agkjx.jpg (https://abload.de/image.php?img=04_battelfield_v_rtx_agkjx.jpg)

x-force
2020-09-04, 01:31:51
Das wäre schon arg traurig und schreit geradezu nach einem freiem Bios.

es gibt schon seit pascal keine möglichkeit mehr das bios zu editieren ;)
sollte dir als 1080ti besitzer doch eigentlich klar sein, oder was ist da los?

Gebrechlichkeit
2020-09-04, 01:53:15
Das ist schon ein gewaltiger Sprung. Die RTX 3090 sollte dann ja nochmals um die 20% Mehrleistung bringen - sodass wohl grob +70% auf die RTX 2080 Ti FE zu erwarten sein dürften.


+33% (so gross ist der Sprung nicht, an dieser Stelle) 110 vs 147fps (https://youtu.be/A7nYy7ZucxM?t=76)

surz (https://www.neogaf.com/threads/nvidia-ampere-teraflops-and-how-you-cannot-compare-them-to-turing.1564257/) "Umrechnung, Vergleich mit Turing"
https://i.imgur.com/Qhqgprr.png

Mr. Pink
2020-09-04, 02:17:51
edit

MiamiNice
2020-09-04, 02:23:03
es gibt schon seit pascal keine möglichkeit mehr das bios zu editieren ;)
sollte dir als 1080ti besitzer doch eigentlich klar sein, oder was ist da los?

Ja, das weiß ich. Bei Pascal haben wir das Bios genommen welches am größte PT hatte. Weiss nicht mehr von welcher Karte aber es ist ein 450 Watt Bios. Wenn NV nur allgemein 107% freigibt sind wir irgendwie total am Hintern. Da kauft man ein Spielzeug und kann damit nicht machen was man will. Das sollte man gesetzlich verbieten, zumindest meiner Meinung nach. Ich würde da schon gerne 500Watt und mehr durchjagen, schon alleine aus Neugier wie weit man den Chip prügeln kann. Hoffentlich bekommen die „Poserkarten“ von Asus und Co. deutlich mehr als 107%.

Quelle (https://www.ekwb.com/shop/ek-quantum-vector-rtx-3080-3090-d-rgb-nickel-plexi)

Ist das schon bekannt/bestätigt? Muss man sich nun ein möglicherweise teures custom Modell kaufen wenn man mit Wasser kühlen möchte?

Du brauchst das Boardpartner Ref PCB ohne 12 Pin Stecker. Zumindest ist das bis jetzt der aktuelle Stand. Wieso baut NV eigentlich den 12 Pin hochkant auf das Board. Das PCB könnte ruhig ein Stück länger sein.

x-force
2020-09-04, 02:55:45
Da kauft man ein Spielzeug und kann damit nicht machen was man will. Das sollte man gesetzlich verbieten, zumindest meiner Meinung nach.

unbedingt!
ich kann mir auch nicht vorstellen, daß zahlreiche maxwells abgeraucht sind und ungerechtfertigte rmas produziert haben.
und selbst wenn das wirklich der grund wäre, könnten sie das ganze auch mit registrierung über eine seriennr. freischalten. die nr wird dann einfach blacklistet und die garantieansprüche sind erledigt.

nv schert sich seit einigen jahren leider einen scheiß um die kunden, bleibt nur zu hoffen, daß big navi reinhaut. die lederjacke muss irgendwie lernen, daß sie nicht mit allem durchkommt. ein kleiner lerneffekt ist ja offenbar schon in hinblick auf die preispunkte eingetreten.

crux2005
2020-09-04, 03:01:51
nv schert sich seit einigen jahren leider einen scheiß um die kunden, bleibt nur zu hoffen, daß big navi reinhaut. die lederjacke muss irgendwie lernen, daß sie nicht mit allem durchkommt. ein kleiner lerneffekt ist ja offenbar schon in hinblick auf die preispunkte eingetreten.

Lerneffekt? Nein. Wir können uns AMD und den neuen Konsolen bedanken. Sonst wäre die 3070 und 3080 nicht so schnell und "billig".

x-force
2020-09-04, 03:14:29
konsolen sind keine konkurrenz für den (highend)pc.

aber von lerneffekt zu sprechen ist wohl wirklich falsch.
wahrscheinlich haut big navi einfach wirklich relativ gut rein. jensen wird ziemlich genau wissen, was lisa im ofen hat. dementsprechend hat er touring positioniert.

Edgecrusher86
2020-09-04, 08:29:13
+33% (so gross ist der Sprung nicht, an dieser Stelle) 110 vs 147fps (https://youtu.be/A7nYy7ZucxM?t=76)

surz (https://www.neogaf.com/threads/nvidia-ampere-teraflops-and-how-you-cannot-compare-them-to-turing.1564257/) "Umrechnung, Vergleich mit Turing"
https://i.imgur.com/Qhqgprr.png

Bezogen auf DOOM Eternal. :)


Ja, das weiß ich. Bei Pascal haben wir das Bios genommen welches am größte PT hatte. Weiss nicht mehr von welcher Karte aber es ist ein 450 Watt Bios. Wenn NV nur allgemein 107% freigibt sind wir irgendwie total am Hintern. Da kauft man ein Spielzeug und kann damit nicht machen was man will. Das sollte man gesetzlich verbieten, zumindest meiner Meinung nach. Ich würde da schon gerne 500Watt und mehr durchjagen, schon alleine aus Neugier wie weit man den Chip prügeln kann. Hoffentlich bekommen die „Poserkarten“ von Asus und Co. deutlich mehr als 107%.

Also die ASUS ROG Strix 3090, wo das Brettchen drauf geschnallt wird kommt mit 400W. Dürfte dann Basis sein.
Es wird Custom Karten mit 500W geben - so hieß es. Dann musst du aber wohl etwas warten und ein paar Taler mehr investieren. Richtung 2500€ dürften K1NGP1N, HoF und Co. kosten.
Spaß kostet. Mir lzum Beispiel langen 350-375W dicke, da ich dann eher optimieren werde in die andere Richtung. Möglichst viel Leistung bei höchst möglicher Effizienz. Dann werde ich das empfindliche DOOM Eternal in 5160 x 2160 DSR als Stabilitätstest nehmen und versuchen zumindest je alle paar Voltage Punkte auf der Curve durchzutesten auf das stabile maximale Offset. P2- und P0-State.
Mal schauen, wenn es die Zeit erlaubt, kann ich das ja hier im Forum veröffentlichen. 37 Games will ich auch noch testen für den Generationenwechsel Pascal auf Ampere - inkl. drei DX9 Games mit 8xSGSSAA. Vorhin habe ich mir Control angeschaut und war doch sehr positiv überrascht, dass 3440 x 1440 maxed out inkl. RTX max. doch mit sagenhaften 9 fps lief (Vergleichsszene am Spielanfang) auf einer 1080 Ti FE nur mit max. Targets. Gerechnet hatte ich mit 1-3 fps, haha - das mag natürlich im Kampf später kommen. Ampere wird es aber richten. :)

Aber Jedem das Seine, Prügeln hat auch seinen Reiz. :D

rentex
2020-09-04, 08:32:18
https://www.igorslab.de/warum-die-geforce-rtx-3080-founders-edition-zum-start-am-17-09-2020-doch-etwas-knapp-werden-koennte-vorruebergehend/

Igors Erklärung klingt plausibel.

MiamiNice
2020-09-04, 08:43:28
Lerneffekt? Nein. Wir können uns AMD und den neuen Konsolen bedanken. Sonst wäre die 3070 und 3080 nicht so schnell und "billig".

Ich denke nicht das BN der Grund ist. NV nutzt hier seine Marktmacht um AMD und Intel möglichst hart ans Bein zu pinkeln und zusätzlich beeinflussen sie die Spieler, damit die panisch neu kaufen. Und sie zerstören den Gebrauchtmarkt, durch die faktische Entwertung aller nicht Ampere Karten. Wenn man es ganz nüchtern betrachtet, hat NV nur die 3090 vorgestellt. Die 3070 ist derart kastriert, dass es sich eigentlich nicht lohnt diese zu kaufen. Die 3080 krankt an Ihrem VRam. Und die 3090 ist nüchtern betrachtet zu teuer, aber das einzige Gerät im Portfolio welches sich lohnt zu erwerben.
NV veräppelt mit der 3000er Generation quasi alle und macht dabei einen auf Scheinheilig. Es wäre, imo, an der Zeit NV zu zerschlagen. Was die aktuell abziehen ist nicht so weit von Epics aktuellem Kurs entfernt.

BiG OnE
2020-09-04, 08:43:33
Blöd an dieser Gen ist btw. das die Wasserkühler ziemlich alle nicht mit der Founders Edition kompatibel sind, wegen dem aufrechten 12 Pin Stecker.
Das suckt gerade ungemein. Als WaKü Besitzer muss man diese Generation ganz genau hinschauen. Und das die Karte in massiv kleinen Stückzahlen aufschlagen wird, macht die Sache nicht einfacher.


Da würde ich mir keine Sorgen machen, Bykski arbeitet schon an einen solchen.

Edgecrusher86
2020-09-04, 08:53:27
Da würde ich mir keine Sorgen machen, Bykski arbeitet schon an einen solchen.

QA ist bei dem Hersteller aber die andere Geschichte. Ein Kumpel kaufte für sein GTX 1080 Ti AMP! SLI zwei Blöcke. Sobald er OC gefahren hat, gab es Blaue.
Letztendlich hat er dann bemerkt bei der späteren Demontage bemerkt, dass die die VRM bei einem Block nur zum Teil richtig Kontakt hatten, weil an den Stellen
unterschiedliche Materialstärke herrschte bei den zwei Blöcken, sprich nur ein Block seine Arbeit (als Fullcover) korrekt verrichtete. :rolleyes:

Dann zahlt man doch lieber 110-200 Euro je nach Modell und hat dafür Ruhe. Im Oktober bekommt er von Liquid Extasy eine Lieferung - made in Germany. :cool:

MasterElwood
2020-09-04, 09:04:04
Ich halte dagegen. Die 3080 und 3090 werden nur minimal übertaktbar sein und sind schon ziemlich auf Kante genäht.

Woher kommt die Annahme? Bis jetzt war immer was drinnen :uponder:

unl34shed
2020-09-04, 09:06:07
Bis jetzt ist der topadog auch nur mit einer TDP von 250W unterwegs gewesen.

Lawmachine79
2020-09-04, 09:06:38
Ich denke nicht das BN der Grund ist. NV nutzt hier seine Marktmacht um AMD und Intel möglichst hart ans Bein zu pinkeln und zusätzlich beeinflussen sie die Spieler, damit die panisch neu kaufen. Und sie zerstören den Gebrauchtmarkt, durch die faktische Entwertung aller nicht Ampere Karten. Wenn man es ganz nüchtern betrachtet, hat NV nur die 3090 vorgestellt. Die 3070 ist derart kastriert, dass es sich eigentlich nicht lohnt diese zu kaufen. Die 3080 krankt an Ihrem VRam. Und die 3090 ist nüchtern betrachtet zu teuer, aber das einzige Gerät im Portfolio welches sich lohnt zu erwerben.
NV veräppelt mit der 3000er Generation quasi alle und macht dabei einen auf Scheinheilig. Es wäre, imo, an der Zeit NV zu zerschlagen. Was die aktuell abziehen ist nicht so weit von Epics aktuellem Kurs entfernt.

Zerschlagen? Kauf doch einfach keine NV-Karte.

BiG OnE
2020-09-04, 09:06:53
Bykski war von mir nur als Beispiel gedacht, auch andere Hersteller arbeiten sicher schon an Wasserkühlern für die Foundereditionen. Nur können Sie erst jetzt damit beginnen, weil NV wohl die Abmassdaten der FE im voraus nicht rausrücken wollte, sagt zu mindestens Igor.

rentex
2020-09-04, 09:10:55
Zerschlagen wird nur dann, wenn es keine andere Anbieter oder Produkte gibt usw...

MasterElwood
2020-09-04, 09:12:09
Was is jetzt eigentlich mit bestellen?

Ich dachte wird so wie letztes mal sein dass man vorbestellen kann und am Tag X wird dann verschickt.

Aber so wies aussieht kann man 3080er erst am 17. überhaupt bestellen? :eek:

Und wann wird dann geliefert? Sofort? Tag Y? :confused:

MiamiNice
2020-09-04, 09:13:16
Zerschlagen? Kauf doch einfach keine NV-Karte.

Wieso? Für mich wurde ja eine Karte vorgestellt die ich mir auch leisten will. Allerdings sollte jeder potentieller 3070 und 3080 Kunde die Finger von Ampere lassen und schon aus Prinzip auf Intel und AMD warten.

mironicus
2020-09-04, 09:15:06
Aufgrund der hohen TDP frage ich mich, wie eine Mobile RTX 3070 performed, wenn sie mit 80-110 Watt im Laptop verbaut wird und wie viel schneller sie wohl gegenüber einer RTX 2080 Mobile sein könnte.

Es gab damals einen riesigen Fortschritt bei der Umstellung von Maxwell auf Pascal, bei der eine GTX 1070 mobile kaum langsamer war als die Desktopvariante. Die RTX 2070 mobile war dagegen ein Riesenrückschritt, denn sie war praktisch nicht schneller als eine GTX 1070 im Laptop.

Sardaukar.nsn
2020-09-04, 09:21:14
Frankensteins RTX?

https://i.imgur.com/rW8oIhr.jpg

https://i.imgur.com/TEJNGFd.jpg

+Bonus Meme :freak:
https://i.imgur.com/lJgYuip.png

][immy
2020-09-04, 09:45:55
Frankensteins RTX?

https://i.imgur.com/rW8oIhr.jpg

https://i.imgur.com/TEJNGFd.jpg

+Bonus Meme :freak:
https://i.imgur.com/lJgYuip.png
Das macht doch keinen Sinn. Warum ist der Lüfter auf der Backplate und nicht direkt auf dem Kühlblock. Durch die paar Millimeter Abstand zum Kühlblock verliert der Lüfter doch ordentlich an Saugkraft und damit Kühlpotential.

Bin ich eigentlich der Einzige der die Taktraten relativ niedrig findet?
Sieht ja fast so aus als hätte nvidia vor allem an der Effizienz gearbeitet. Die Taktraten scheinen aber gesunken und der Verbrauch wird wohl "nur" über die neue Fertigung abgefangen.
Ich weiß, der Takt ist nicht das wichtige, sondern der Output, aber finde es erstaunlich das nvidia diesen Weg beschritten hat.

monstar-x
2020-09-04, 09:55:23
Frankensteins RTX?

https://i.imgur.com/rW8oIhr.jpg

https://i.imgur.com/TEJNGFd.jpg

+Bonus Meme :freak:
https://i.imgur.com/lJgYuip.png

WOW, schon lange keine so häßliche Grafikkarte mehr gesehen.

MiamiNice
2020-09-04, 09:56:19
Was is jetzt eigentlich mit bestellen?

Ich dachte wird so wie letztes mal sein dass man vorbestellen kann und am Tag X wird dann verschickt.

Aber so wies aussieht kann man 3080er erst am 17. überhaupt bestellen? :eek:

Und wann wird dann geliefert? Sofort? Tag Y? :confused:

17. und 24. für 3090, wird dann sofort geliefert. Keine Pre-Orders. Ich vermute es wird laufen wie bei Apple oder CIG. Alles nach 5 Minuten ausverkauft.
Wer sich dieses Jahr noch eine 3090 in die Kiste schrauben kann, sollte wohl mal Lotto spielen.

Dampf
2020-09-04, 09:58:19
Mit dem „heutigen“ wäre ich aber vorsichtig, da wie von mir angesprochen es schon viele Titel gibt die das alles machen, nur halt „per Hand“ (Rage oder Crysis gibts schon lange). IMO überschätzt du das ein wenig. Idealerweise wird es für mehr Entwickler leichter, und eben paar Dinge flotter so dass man das einfaden weniger/fast gar nicht mehr sieht.

Darauf möchte ich noch eingehen, hab dein Post überlesen (eine Benachrichtungsfunktion wie in anderen Foren wäre hier wünschenswert :D ).

Worauf ich hinaus wollte ist, dass derzeitige Spiele unter Berücksichtigung von mechanischen Festplatten programmiert wurden.

Mark Cerny hat diese Problematik schön im Road to PS5 Video erklärt. Spiele müssen heute sehr viel im Voraus in den RAM/VRAM puffern, da eine HDD Seek Times und eine sehr langsame Bandbreite hat, bis du da die gewünschte Textur hast vergeht in Engine-Maßstab eine Ewigkeit, dann pufferst du halt lieber alles was geht in den VRAM. Mit einer SSD hingegen hast du instant access und eine sehr hohe Bandbreite, folglich musst du für gleichwertige Texturen/Assets nicht mehr so stark im Voraus puffern wie bisher.

Das heißt, es wird massig Speicher im Vergleich zu dieser Generation gespart, der dann wiederum verwendet werden kann, um einen Generationssprung in Texturen und Asset-Qualität zu bieten ohne den physischen VRAM erhöhen zu müssen.

Das bedeutet DirectStorage für mich. Die Dekompression ist natürlich super um das bestmöglichste rauszuholen und um das ganze hier erst durch Beseitigung der I/O Bottlenecks möglich zu machen, aber der wahre Game-Changer ist, dass Spiele der Zukunft endlich das volle Potenzial von schnellen SSDs ausnutzen.

Sampler Feedback hingegen ist wirklich eine Art Tiled Resources in einfacher und besser, da hast du wohl recht. Aber ich glaube durchaus, dass in Verbindung mit DirectStorage und Dekompression diese Technik helfen wird, den VRAM Verbrauch deutlich zu senken, was dann wiederum in deutlich detailliertere Welten ohne pop-in investiert werden kann. Microsoft selbst spricht von einem 2.5x Faktor in eingespartem RAM im Vergleich zu dieser Generation.

Also ja, ich denke schon dass man heutige Spiele nicht mit zukünftigen Spielen vergleichen kann, die all diese oben geschilderten Techniken nutzen.

monstar-x
2020-09-04, 10:00:33
17. und 24. für 3090, wird dann sofort geliefert. Keine Pre-Orders. Ich vermute es wird laufen wie bei Apple oder CIG. Alles nach 5 Minuten ausverkauft.
Wer sich dieses Jahr noch eine 3090 in die Kiste schrauben kann, sollte wohl mal Lotto spielen.

Ebay regelt das schon ;D

Da findest du dann die 3080 für 999€ und die 3090€ für 1999€
Wird genug geben die nicht warten wollen.

Dural
2020-09-04, 10:05:54
Die 375Watt sind doch ganz bewusst gewählt, PCI-E Strom Spezifikation. :rolleyes::rolleyes::rolleyes:

pixeljetstream
2020-09-04, 10:30:58
Darauf möchte ich noch eingehen, hab dein Post überlesen (eine Benachrichtungsfunktion wie in anderen Foren wäre hier wünschenswert :D ).
Antworte in deinem dx12 storage etc. thread.

MiamiNice
2020-09-04, 10:57:15
Die 375Watt sind doch ganz bewusst gewählt, PCI-E Strom Spezifikation. :rolleyes::rolleyes::rolleyes:

Blöd das die Karten einen 12 Pin Stecker haben :rolleyes::rolleyes::rolleyes::tongue:

Armaq
2020-09-04, 10:57:58
Ganz so düster ist das glaube ich nicht. Man muss nur in seinem Gedächtnis kramen, wie es um 2080Ti stand. Die waren auch nur so lala verfügbar und irgendwann war es kein Problem mehr. Aber ja, in diesem Jahr wird es knapp mit den Karten. Nach der MSI Vorstellung ist auch klar, dass die Dinger absolut am Limit stehen.

Sardaukar.nsn
2020-09-04, 11:05:05
Eine 3080 mit nur 117% Power Target erreicht auch schon die 375 Watt Grenze. Viel Luft für eine 3080ti sehe ich da nicht.

MiamiNice
2020-09-04, 11:17:10
Eine 3080 mit nur 117% Power Target erreicht auch schon die 375 Watt Grenze. Viel Luft für eine 3080ti sehe ich da nicht.

3080 Ti könnte eine 3090 mit 12 Gb und 100Mhz weniger Basetakt und noch weiter kastriertem PT (300Watt) sein. Die würde sich auch verdammt gut verkaufen um 1200€ rum, da sie mehr als 11Gb Ram hätte. Für viele wichtig nicht kleiner zu kaufen. Deswegen hat die 3080 auch nur 10 ;)

Armaq
2020-09-04, 11:19:00
3080 Ti könnte eine 3090 mit 12 Gb und 100Mhz weniger Basetakt und noch weiter kastriertem PT (300Watt) sein. Die würde sich auch verdammt gut verkaufen um 1200€ rum.Kannst die Ti ja nicht unter das PT der non Ti setzen.

Grendizer
2020-09-04, 11:24:52
Bin mal gespannt, wann es Wasserstandsmeldungen in Form von Leaks zu BigNavi geben wird. AMD weiss ja jetzt, wo man landen muss.

JVC
2020-09-04, 11:28:06
3080 Ti könnte eine 3090 mit 12 Gb und 100Mhz weniger Basetakt und noch weiter kastriertem PT (300Watt) sein.
Die würde sich auch verdammt gut verkaufen um 1200€ rum, da sie mehr als 11Gb Ram hätte.

:freak:, 12Gb für 1200.- anstelle von 10Gb für 699.-...
Glaubst du wirklich das das 1Gb, im vergleich zur 1080Ti(~350.-) und 2080Ti(~450.-), so viele anspricht?

M.f.G. JVC

MiamiNice
2020-09-04, 11:34:08
Kannst die Ti ja nicht unter das PT der non Ti setzen.

Hätte mehr Einheiten, aber ja irgendwie blöd. Ergo auch 320 Watt.

:freak:, 12Gb für 1200.- anstelle von 10Gb für 699.-...
Glaubst du wirklich das das 1Gb, im vergleich zur 1080Ti(~350.-) und 2080Ti(~450.-), so viele anspricht?

M.f.G. JVC

Die Karte hätte das breitere Interface, mehr Einheiten.
Und das Wichtigste ist für die meisten tatsächlich, keine Karte mit weniger Speicher als die aktuelle zu kaufen. Käuferschicht für diese Karte wären TI Käufer die die 1500€ für die 3090 nicht legen wollen.
Ja, ich denke das wäre die Karte und ich vermute das werden wir nach BN auch so sehen.
Das ist auch die Karte die NV ganz bewusst ausgelassen hat.

JVC
2020-09-04, 11:39:31
Ja, ich denke das wäre die Karte und ich vermute das werden wir nach BN auch so sehen.
Naja, Ich hätte lieber ne 3080Ti 20Gb für faire ~850.- ;) (was noch immer, im vergleich zur 7 in 7nm bei 300Watt mit 16Gb HBM, "teuer" wäre)
Das wäre es, was ich mir als zeitgemäß und realistisch wünschen würde :smile:
Wird zeit das AMD zeigt wo sie ~ landen... ich glaube/hoffe nicht das sie es total verbocken.

M.f.G. JVC

P.s.: "Die Karte hätte das breitere Interface..."
Was interessiert ist der Durchsatz. Wie der erreicht wird interessiert mich nicht ;)
(Ist NVs Sache, wenn sie lieber auf Spezial Sachen ala teurem PCB und Spezial RAM setzen...)

rentex
2020-09-04, 11:41:20
Meine Devise bis zum 24.09. ;D

Armaq
2020-09-04, 11:42:22
Naja, Ich hätte lieber ne 3080Ti 20Gb für faire ~850.- ;)
Das wäre es, was ich mir als zeitgemäß und realistisch wünschen würde :smile:
Wird zeit das AMD zeigt wo sie ~ landen... ich glaube/hoffe nicht das sie es total verbocken.

M.f.G. JVC
Total verbockt ist halt ein bereiter Kreis. Wäre es verbockt, wenn AMD bis 700 € die Nr. 1 wäre und keine Lösung darüber hat? Die 3090 ist offensichtlich der Abwehrwall, um die Performance-Krone halten zu können.

ChaosTM
2020-09-04, 11:46:26
Für 20GB brauchen sie noch das teure 90er Layout. 2Gb Chips kommen erst in Monaten..
Da ist die Gewinnspanne nicht mehr zu halten..
Die werden wahrscheinlich zu 2080ti Preisen daherkommen.. befürchte ich

MiamiNice
2020-09-04, 11:47:03
Naja, Ich hätte lieber ne 3080Ti 20Gb für faire ~850.- ;) (was noch immer, im vergleich zur 7 in 7nm bei 300Watt mit 16Gb HBM, "teuer" wäre)
Das wäre es, was ich mir als zeitgemäß und realistisch wünschen würde :smile:
Wird zeit das AMD zeigt wo sie ~ landen... ich glaube/hoffe nicht das sie es total verbocken.

M.f.G. JVC

Du meinst die geile 3080 mit 20Gb Gddr6 Speicher der es statt am VRam Kapazität an Bandbreite mangelt? Super Deal! Ist ja nicht so als bräuchte Ampere die Bandbreite hart.

PS:
Ich schrieb nicht ohne Grund das NV nur eine sinnvolle und überteuerte GPU vorgestellt hat. 3070 ist Dummenfang und 3080 10Gb massiv unsexy wegen den 10Gb. Und das ist auch genau so gewollt.
Als 3070 Interessent würde ich eher hergehen und eine gebrauchte 2080TI für 350€ aus Ebay fischen, btw.

JVC
2020-09-04, 11:57:24
Wäre es verbockt, wenn AMD bis 700 € die Nr. 1 wäre und keine Lösung darüber hat?
Wenn die "Nr. 1" Lösung, für 700€ mit 16Gb die 3080 mit 10Gb für 699.- kontern kann...
Würde Ich keine Lösung darüber brauchen :up:
(ich muss nicht immer das schnellste haben, ala "koste es was es wolle")


Die 3090 ist offensichtlich der Abwehrwall, um die Performance-Krone halten zu können.

Entweder wird BN wirklich so stark, oder auch NV hat sich verschätzt...
(auf 350Watt mit "Spezial Stecker" geht man nicht nur weil man lustig ist)

M.f.G. JVC

Edit:
Du meinst die geile 3080 mit 20Gb Gddr6 Speicher der es statt am VRam Kapazität an Bandbreite mangelt?

Was interessiert ist der Durchsatz. Wie der erreicht wird interessiert mich nicht ;)
(Ist NVs Sache, wenn sie lieber auf Spezial Sachen ala teurem PCB und Spezial RAM setzen...)
Natürlich warte ich bei Beiden Herstellern die Tests ab.
Weiteres muss sich erst zeigen...

dargo
2020-09-04, 12:06:37
PS:
Ich schrieb nicht ohne Grund das NV nur eine sinnvolle und überteuerte GPU vorgestellt hat. 3070 ist Dummenfang und 3080 10Gb massiv unsexy wegen den 10Gb. Und das ist auch genau so gewollt.

Was heißt denn gewollt? In erster Linie bestimmt dein SI wieviel Speicher verbaut wird. Bei der 3070 mit 256Bit hast du nur zwei Möglichkeiten mit 8/16GB. Das einzige was NV bei der 3080 hätte machen können wären 11-12GB um sie etwas interessanter zu machen. Halt mit 352-384Bit SI. Wollten sie aber offensichtlich nicht. Der Grund ist aber auch recht einfach zu erklären. Mit mehr Bandbreite wäre die 3080 noch näher an der 3090 als sie jetzt schon ist.

mironicus
2020-09-04, 12:07:44
Ich bin mal gespannt, wer das leiseste luftgekühlte Modell der RTX 3090 auf den Markt bringt. Könnte das dieses Mal vielleicht sogar das Referenz-Modell sein?

WedgeAntilles
2020-09-04, 12:11:10
Ich schrieb nicht ohne Grund das NV nur eine sinnvolle und überteuerte GPU vorgestellt hat. 3070 ist Dummenfang und 3080 10Gb massiv unsexy wegen den 10Gb. Und das ist auch genau so gewollt.
Als 3070 Interessent würde ich eher hergehen und eine gebrauchte 2080TI für 350€ aus Ebay fischen, btw.

Naja, deine Anforderungen sind halt im Enthusiastenbereich. Alles was da nicht "perfekt" ist, ist halt Schrott.

Für die meisten Spieler sind die 3070 und 3080 eine verdammt attraktive Option.
Denn Überraschung: Die meisten haben keine Probleme damit Kompromisse einzugehen. Wenn der Preis dafür stimmt.

Wieso genau soll z.B. ein FullHD oder WQHD Spieler keine 3080 kaufen und damit wieder 5,6 Jahre Ruhe haben?
700 Euro für ne GraKa die man bequem wieder 5-6 Jahre behalten kann. (Und glaub mir, der Anteil jener, die nur alle 5 Jahre ne neue GraKa kaufen ist größer, als jene, die eine GraKa für über 1000 Euro kaufen und alle 2 Jahre wechseln.)
Ist doch ein super Deal, viel besser als alles was es bei Turing gibt und viel besser als das, was von der überwältigenden Mehrheit für Ampere prognostiziert uwrde.

Nur weil die 3080 nicht deinen "keinerlei Kompromisse" Anspruch erfüllt, ist die Karte nicht schlecht. Die Karte ist für dich und deine Ansprüche schlecht. Völlig ok.
Für viele ist es aber eine attraktive Karte.

Ich bin happy mit der 3080, da es sich andeutet, dass ich damit massig Leistung bekomme.
Für einen Preis der hoch ist, den ich mir aber vor Release nicht hätte vorstellen können.
Sind 10GB perfekt? Nein, perfekt nicht.
Aber für mich ist das Bundle aus Leistung, Ram und Preis super.
Und bei mir funktioniert die Preisstrategie von Nvidia - nicht die Preise erhöhen, aber den Käufern anreize geben das höherwertige Modell zu nehmen.
Hatte ursprünglich 1-2 Kategorien kleiner geplant, aber bei dem fetten Mehrwert der 3080 vs der 3070 bin ich gern bereit tiefer in die Tasche zu greifen und halt die 3080 zu kaufen.
Mehr Gewinn für Nvidia, trotz nicht gestiegener Preise.
Wie ich ja schon zig mal schrieb - man kann seine Marge auch verbessern ohne die Preise zu erhöhen. Wenn nur genug Käufer eine Kategorie teurer einkaufen.
Ist für Firmen sogar viel attraktiver als höhere Marge durch Preiserhöhungen. Preiserhöhungen kommen negativ an und findet kein Käufer toll. Und kann auch Käufer vertreiben. Wenn man aber freiwillig eine Kategorie teurer einkauft ist das für den Konsumenten nicht negativ besetzt.

woodsdog
2020-09-04, 12:13:07
Für 20GB brauchen sie noch das teure 90er Layout. 2Gb Chips kommen erst in Monaten..
Da ist die Gewinnspanne nicht mehr zu halten..
Die werden wahrscheinlich zu 2080ti Preisen daherkommen.. befürchte ich

Deine Speku ist also:
700 Eur 3080 10GB
1200 Eur 3080 20 GB

Ja, 500 Eur mehr für 10GB 6x Chips klingen absolut realistisch :rolleyes:

MiamiNice
2020-09-04, 12:14:06
Was heißt denn gewollt? In erster Linie bestimmt dein SI wieviel Speicher verbaut wird. Bei der 3070 mit 256Bit hast du nur zwei Möglichkeiten mit 8/16GB. Das einzige was NV bei der 3080 hätte machen können wären 11-12GB um sie etwas interessanter zu machen. Halt mit 352-384Bit SI. Wollten sie aber offensichtlich nicht. Der Grund ist aber auch recht einfach zu erklären. Mit mehr Bandbreite wäre die 3080 noch näher an der 3090 als sie jetzt schon ist.

Ja wollten sie nicht. Sie spekulieren darauf das viele, der angepeilten Käuferschaft, zur überteuerten 3090 greifen. Den Rest greifen sie nach dem BN Release mit einer 3080TI mit 12Gb ab. Das sind dann die, die auf die 3080 mit 20Gb warten. Diese wird aber nicht, oder nur in unsexy kommen. Entweder mit 20 Gb Gddr6, die ist dann langsamer oder irgendwann nächstes Jahr, als Super Susi Version mit 20Gb Gddr6x Speicher (dürfte teuer werden, ergo unsexy). So lange werden die Jungs aber nicht warten. Deshalb die 3080TI basierend auf der 3090 mit 12Gb und weniger PT für um 1200€.

N0rG
2020-09-04, 12:20:30
Die könnten auch ne 3080ti mit 22gb und 76-80SMs bringen. Das wär dann schon ganz nett finde ich. Für z.B. 999€... da hätte NV dann auch keine schlechtere Marge mit.

JVC
2020-09-04, 12:24:11
@woodsdog
Miami is noch besser ^^
Der will für die 3080 mit 12Gb ~1,2K verlangen ;D
3080 Ti ... mit 12 Gb ... 1200€ rum ...


M.f.G. JVC

Athlonxp
2020-09-04, 12:31:32
Titan RTX Ampere ;D

https://videocardz.net/nvidia-titan-rtx-ampere

Zergra
2020-09-04, 12:34:07
Titan RTX Ampere ;D

https://videocardz.net/nvidia-titan-rtx-ampere

Last Update: 2020-08-18 |


Heißt also nix. Nvidia war da schon relativ deutlich, das die 3090 der Titan Nachfolger ist.

MiamiNice
2020-09-04, 12:40:55
@woodsdog
Miami is noch besser ^^
Der will für die 3080 mit 12Gb ~1,2K verlangen ;D


M.f.G. JVC

Ich lasse mich halt nicht so blenden wie die Masse :wink:


Wieso genau soll z.B. ein FullHD oder WQHD Spieler keine 3080 kaufen und damit wieder 5,6 Jahre Ruhe haben?

Weil die Karte nicht so lange halten wird. Die 10Gb sind schon heute in einigen weniger Games zu wenig, auch in kleinen Auslösungen. RT wird noch massig zusätzlichen Verbrauch generieren. Die Karte ist so ausgelegt damit man eben nicht lange damit Spaß haben wird.

WedgeAntilles
2020-09-04, 12:57:15
Weil die Karte nicht so lange halten wird. Die 10Gb sind schon heute in einigen weniger Games zu wenig, auch in kleinen Auslösungen. RT wird noch massig zusätzlichen Verbrauch generieren. Die Karte ist so ausgelegt damit man eben nicht lange damit Spaß haben wird.

Ich habe heute noch ne GTX 970 drin.
Ja, eine 10GB Karte wird völlig unmöglich 5 Jahre halten.

Was glaubst du denn, wieviel Prozent aller Spieler in ein paar Jahren ÜBER 10GB Vram haben?
1%? 5%?

Klar hätte ich lieber 12GB oder noch mehr - aber noch mal ein paar hundert Euro mehr ausgeben?
Nö danke.
Ja, gäbe es ne 3080 mit 14GB für 50 Euro mehr würde ich die nehmen. Logisch.

ianm
2020-09-04, 13:06:46
2upZSyQHwNA

TurricanM3
2020-09-04, 13:13:12
;D

Leonidas
2020-09-04, 13:23:03
Nachfolgender ist noch ne Spur härter. Aber irgendwie stört der Original-Ton. Hitler gegen Turing kreischen hören ... kann man da die Original-Schauspieler nicht noch einmal zwangverpflichten?

pKneUFwVkXI

Timbaloo
2020-09-04, 13:28:41
https://youtu.be/2upZSyQHwNA
Der ist echt gut ;D

[MK2]Mythos
2020-09-04, 13:28:42
https://youtu.be/2upZSyQHwNA
Hatte mir pixeljetstream irgendwie anders vorgestellt.

Edgecrusher86
2020-09-04, 13:31:40
Blöd das die Karten einen 12 Pin Stecker haben :rolleyes::rolleyes::rolleyes::tongue:

Es wird schon mit Abstimmung auf das Ref-Design der AIB und des beiligenden Adapters so gewählt worden sein - nämlich 2x8 Pin. :wink:

Platos
2020-09-04, 13:32:39
Haha, naja es war ja schon am 1. Tag von den Turing-Karten klar, dass Turing ne beschissene Generation wird/ist.

Jeder selber Schuld, der ne 2080Ti gekauft hat (und es jetzt bereut). Da habe ich null Mitleid, noch eher lache ich mir Fäustchen ;D

Das Ampere hingegen (anscheinend) so gut wird (Speicherkrüppel abgesehen), hat wohl praktisch niemand erwartet. Das entwertet Turing gleich nochmals um längen :D

TurricanM3
2020-09-04, 13:46:27
Ich fand Turing klasse und hatte ~2 Jahre meinen Spaß. :smile:
Freue mich jetzt auf die neue Gen. So einen Leistungsschub gab es schon ewig nicht mehr. :up:

aufkrawall
2020-09-04, 13:53:10
Mythos;12413919']Hatte mir pixeljetstream irgendwie anders vorgestellt.
Man muss es auch nicht persönlich machen.

Platos
2020-09-04, 14:12:33
Ich fand Turing klasse und hatte ~2 Jahre meinen Spaß. :smile:
Freue mich jetzt auf die neue Gen. So einen Leistungsschub gab es schon ewig nicht mehr. :up:

Mit einer 2080Ti hätte ich rein von der Leistung schon meine Freude gehabt. Eine 2080(s)/2060 6GB hätte mir nicht mal geschenkt Spass gemacht(also abgesehen davon, dass ich sie hätte verkaufen können).

Aber bei den Preisen hätte mir gar keine Turing Karte Freude bereitet. Bzw. hat, ich hab ja keine gekauft.

mironicus
2020-09-04, 14:15:09
Haha, naja es war ja schon am 1. Tag von den Turing-Karten klar, dass Turing ne beschissene Generation wird/ist.

Jeder selber Schuld, der ne 2080Ti gekauft hat (und es jetzt bereut). Da habe ich null Mitleid, noch eher lache ich mir Fäustchen ;D

Die 2080 Ti ist wenigstens effizient und bietet viel Spielraum nach oben bei ihren gerade mal spärlichen 250 Watt TDP. :freak:

Und Ampere macht aus jedem PC-Gehäuse einen Backofen! So jetzt habe ich es dir aber gezeigt! ;D

Dural
2020-09-04, 14:17:03
Wie oft den noch? Turing wurde durch den Prozess eingebremst, es ging schlicht nicht mehr.

Das potential von Turing sieht man jetzt ja auch in Ampere.

MiamiNice
2020-09-04, 14:19:21
Die 2080 Ti ist wenigstens effizient und bietet viel Spielraum nach oben bei ihren gerade mal spärlichen 250 Watt TDP. :freak:

Und Ampere macht aus jedem PC-Gehäuse einen Backofen! So jetzt habe ich es dir aber gezeigt! ;D


Du scheinst wenig PC Gehäuse zu kennen.



Das potential von Turing sieht man jetzt ja auch in Ampere.

Was hat den Turing noch mit Ampere zu tun?

Man muss es auch nicht persönlich machen.

+1

Nachfolgender ist noch ne Spur härter. Aber irgendwie stört der Original-Ton. Hitler gegen Turing kreischen hören ... kann man da die Original-Schauspieler nicht noch einmal zwangverpflichten?

https://youtu.be/pKneUFwVkXI

Andere User werden für so einen Post hier gesperrt und müssen auf Zweiaccounts ausweichen. Zum Glück betrifft Dich das nicht.

Es wird schon mit Abstimmung auf das Ref-Design der AIB und des beiligenden Adapters so gewählt worden sein - nämlich 2x8 Pin. :wink:

Der beiliegende Adapter mündet in 2x 8Pin die direkt in das modulare NT gesteckt werden. Kann man auf der NV HP bewundern das Kabel.

Thunder99
2020-09-04, 14:29:56
Mal ehrlich. Die Leistung mag zwar gut aber sie haben sie es mit mehr Leistungsaufnahme erkauft.

Glaubt nicht alles was das Marketing sagt. Ich für mein Teil warte ab. Über 250 TDP Default gehe ich nicht (Basis 1080Ti)

Dural
2020-09-04, 14:37:37
Nein haben sie nicht, Turing Skaliert über 300W gar nicht mehr.

Die Prozesse geben heute einfach nicht mehr her, GA102 hat 28 Milliarden Transistoren, und die wollen gefüttert werden.

Wie ich es seit einem Jahr sage, viele es einfach nach wie vor nicht begreifen: 5700XT über 200Watt mit einem 250mm2 Chip :rolleyes:
Wenn man das hochrechnet müsste ein GA102 über 500Watt ziehen, und das im besseren Prozess (7nm vs 8nm(10nm)) Ein Navi1 bei der grösse wie GA102 in 8nm wäre nicht mal mehr realisierbar, müsste so tief takten das es keinen Sinn macht.

dargo
2020-09-04, 14:53:47
Die 2080 Ti ist wenigstens effizient und bietet viel Spielraum nach oben bei ihren gerade mal spärlichen 250 Watt TDP. :freak:

Lege ~30Watt drauf dann passt es auch.
https://www.igorslab.de/nvidia-geforce-rtx-2080-und-rtx-2080-ti-im-test-gaming-turing-benchmarks-und-neue-erkenntnisse/20/
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/4/#abschnitt_messung_der_leistungsaufnahme

https://youtu.be/2upZSyQHwNA
Immer wieder jut. ;D

MiamiNice
2020-09-04, 15:14:05
cApmTswEXjQ

rentex
2020-09-04, 15:18:43
Nachfolgender ist noch ne Spur härter. Aber irgendwie stört der Original-Ton. Hitler gegen Turing kreischen hören ... kann man da die Original-Schauspieler nicht noch einmal zwangverpflichten?

https://youtu.be/pKneUFwVkXI

So macht man sich lächerlich...und das vom Chef!
Vorbildfunktion -1.

dargo
2020-09-04, 15:22:57
https://youtu.be/cApmTswEXjQ
Wie erwartet... 14-16%. Absolut lächerlich bei dem Aufpreis.

MiamiNice
2020-09-04, 15:26:20
Kein Spiel dabei bei dem die 10Gb der 3080 nicht reichen. Die Zeit spielt da imo eher für die 3090. Auch kein Game mit RTX dabei. Den Vergleich würde ich gerne mit Cyberpunk in 4K mit allen Reglern rechts und RTX on sehen.

RLZ
2020-09-04, 15:31:20
https://youtu.be/cApmTswEXjQ
Ich bin etwas verwirrt, dass die einzigen Benchmarks momentan von extrem kleinen (für mich absolute unbekannten) Youtube Kanälen mit teilweise unter 100 Abonnenten gemacht werden. So ganz steigert das die Glaubwürdigkeit nicht.

Grendizer
2020-09-04, 15:35:44
Ich bin etwas verwirrt, dass die einzigen Benchmarks momentan von extrem kleinen (für mich absolute unbekannten) Youtube Kanälen mit teilweise unter 100 Abonnenten gemacht werden. So ganz steigert das die Glaubwürdigkeit nicht.

Die Großen werden sich tapfer an das unterschriebene NDA halten :wink:

rentex
2020-09-04, 15:35:57
Wie erwartet... 14-16%. Absolut lächerlich bei dem Aufpreis.


Lächerlich ist nur deine Annahme das es ein valider Test ist:rolleyes:

Ex3cut3r
2020-09-04, 15:36:14
Ich bin etwas verwirrt, dass die einzigen Benchmarks momentan von extrem kleinen (für mich absolute unbekannten) Youtube Kanälen mit teilweise unter 100 Abonnenten gemacht werden. So ganz steigert das die Glaubwürdigkeit nicht.

Das ist auch Blödsinn. AuF YouTube gibt es viele solche Kanäle die sich nicht mal die Mühe machen, live Gameplay mit GPU X und GPU Y zu machen, stattdessen werden dann irgendwelche Fantasie Werte eingeblendet, die ungefähr passen sollten.

dargo
2020-09-04, 15:39:01
Den Vergleich würde ich gerne mit Cyberpunk in 4K mit allen Reglern rechts und RTX on sehen.
Welche Wunder erwartest du dort bei der Performance? Schon die nackten Zahlen sagen +20% für die 3090. Und da die Skalierung nie 1:1 durchschlägt wird sich an den ~15% nicht mehr viel ändern solange die 10GB der 3080 nicht limitieren. Wenn sie limitieren ist eh alles vorbei.

masked__rider
2020-09-04, 15:41:52
Also dieser "Vergleich" zwischen 3080 und 3090 ist doch mit an Sicherheit grenzender Wahrscheinlichkeit fake...

Grendizer
2020-09-04, 15:45:19
Also dieser "Vergleich" zwischen 3080 und 3090 ist doch mit an Sicherheit grenzender Wahrscheinlichkeit fake...


Ja ... ich vermute das es immer noch keinen Treiber für außenstehende geben wird.

MiamiNice
2020-09-04, 15:47:20
Welche Wunder erwartest du dort bei der Performance? Schon die nackten Zahlen sagen +20% für die 3090. Und da die Skalierung nie 1:1 durchschlägt wird sich an den ~15% nicht mehr viel ändern solange die 10GB der 3080 nicht limitieren. Wenn sie limitieren ist eh alles vorbei.


Ich erwarte das in modernen Games, gerade mit RTX on, der 3080 die Luft ausgeht und das die Framerate drückt, wie Du es auch selber schon schreibst. Und von NV erwarte ich, dass sie sich, wie bei CP, in diverse Games einkaufen und es so gestalten das genau das passiert. Sonst kauft doch keiner mehr die Super Versionen im nächsten Jahr.
Ich finde generell den Speicherausbau von 3070 und 3080 ziemlich daneben. 3070 mit 16GB GDDR6X und 2080 mit 20GB GDDR6X zu aktuellen Preisen, wären Grund gewesen NV so zu feiern wie es aktuell der Fall ist. Die aktuellen Glückwünsche zu Ampere hat NV imo nicht verdient.

dargo
2020-09-04, 15:50:16
Wenns nur die Framerate wäre wäre es halb so wild. :tongue:

Schnoesel
2020-09-04, 16:02:19
Ich erwarte das in modernen Games, gerade mit RTX on, der 3080 die Luft ausgeht und das die Framerate drückt, wie Du es auch selber schon schreibst. Und von NV erwarte ich, dass sie sich, wie bei CP, in diverse Games einkaufen und es so gestalten das genau das passiert. Sonst kauft doch keiner mehr die Super Versionen im nächsten Jahr.
Ich finde generell den Speicherausbau von 3070 und 3080 ziemlich daneben. 3070 mit 16GB GDDR6X und 2080 mit 20GB GDDR6X zu aktuellen Preisen, wären Grund gewesen NV so zu feiern wie es aktuell der Fall ist. Die aktuellen Glückwünsche zu Ampere hat NV imo nicht verdient.


Ja irgendwie ist alles unter der 3090 weder Fisch noch Fleisch. Mal sehen ob es nicht doch eine 3090 bei mir wird.

x-force
2020-09-04, 16:04:19
https://youtu.be/cApmTswEXjQ

und wo genau stellen die 10gb der 3080 jetzt ein problem dar, so daß die 3090 die sinnvollere option ist?:freak:

ich sehe ca 20% mehrperformance für den 2,15x preis
also gönn sie dir, aber stell es nicht als die sinnvollere option dar ;D

horn 12
2020-09-04, 16:12:50
15 bis max. optimistisch hoch³ 20%
Mehr ist nicht drinnen...

dargo
2020-09-04, 16:15:16
Bingo @horn. :wink:

Megamember
2020-09-04, 16:21:22
Hat euch das eure Glaskugel erzählt?

RLZ
2020-09-04, 16:23:10
Ja irgendwie ist alles unter der 3090 weder Fisch noch Fleisch. Mal sehen ob es nicht doch eine 3090 bei mir wird.
Zum Preis der 3090 bekommst du eine 3080 + schnellere 4080 mit mehr Speicher. Objektiv sinnvoll ist die Karte sicherlich nicht.

dargo
2020-09-04, 16:23:43
Hat euch das eure Glaskugel erzählt?
Wir hatten in Mathe aufgepasst.

Birdman
2020-09-04, 16:26:21
und wo genau stellen die 10gb der 3080 jetzt ein problem dar, so daß die 3090 die sinnvollere option ist?:freak:

ich sehe ca 20% mehrperformance für den 2,15x preis
also gönn sie dir, aber stell es nicht als die sinnvollere option dar ;D
Also bis vor einer Woche war sich hier der ForenMob doch einig, dass 10GB viel zu wenig ist und absolut keine Zukunft hat.
Und nun erzählen die selben Leute dass es keinen Grund für die den Kauf einer 3090 gäbe? :uponder:

igg
2020-09-04, 16:30:21
Also bis vor einer Woche war sich hier der ForenMob doch einig
Hier ist also der ForenMob. Kommst du dann von dort? Wieso bist du dann hier?

10 GB ist wenig, denke das sind Karten, die nur zum Stören des Big Navi Preisgefüges da sind. Vermute, dass viele hier zu den Ti Varianten, oder wie sie lauten werden, greifen werden.

Ex3cut3r
2020-09-04, 16:37:44
Das Problem ist jetzt aber, viele 2080Ti, 2080, 2070 User verkaufen jetzt nochmal Ihre Karten für 500,400 und 300€. Den "Gewinn" nehmen Sie dann zur Hand und investieren jeweils etwas oben drauf für eine 3080 oder 3070. Ok soweit. Aber, mit 8 und 10GB sind diese Karten einfach zum Speicherkrüppel verdammt, die 3070 eigentlich schon zum Kauf, und die 3080 vermutlich 1 Jahr später. Die 16 und 20 GB Versionen werden noch auf sich warten lassen müssen, schlimmstenfalls kommen Sie erst 2021. Wer kann den ganzen Herbst + Winter ohne GPU sein? IMO keiner von hier. Also nimmt man eher die 3070 und verkauft diese einem Jahr zum wertstabilien Preis um sich dann eine 3080 mit 20GB zu holen, und damit mindestens 2 Jahre zu leben. ^^

Leonidas
2020-09-04, 16:38:42
https://youtu.be/cApmTswEXjQ

Wie erwartet... 14-16%. Absolut lächerlich bei dem Aufpreis.


Ich bezweifle, das ein vergleichsweise unbekannter YTer schon Karten hat (gerade eine 3070, weiteres Video von ihm) ... und dann mal einfach das NDA brechen kann ohne Konsequenzen. Sorry, hoher Fake-Verdacht.




Andere User werden für so einen Post hier gesperrt und müssen auf Zweiaccounts ausweichen. Zum Glück betrifft Dich das nicht.
So macht man sich lächerlich...und das vom Chef! Vorbildfunktion -1.


Es war mir unklar, das Memes auf legale Filme hin unerwünscht sind. In jedem Fall bitte ich um Entschuldigung, wenn ich irgendwie jemanden auf die Füsse getreten bin.

WedgeAntilles
2020-09-04, 16:42:05
Also bis vor einer Woche war sich hier der ForenMob doch einig, dass 10GB viel zu wenig ist und absolut keine Zukunft hat.
Und nun erzählen die selben Leute dass es keinen Grund für die den Kauf einer 3090 gäbe? :uponder:

Schwachsinn - sorry, aber ist so.

Es gibt eine Gruppe, die 10GB für schlicht zu wenig hält.
Die gab es früher und die gibt es jetzt noch.

Es gibt eine Gruppe, die 10GB für ausreichend hält.
Die gab es früher und die gibt es jetzt noch.

Und es gibt eine Gruppe, die 10GB für etwas knapp, aber angesichts des deutlich günstigeren Preises als erwartet, für in Ordnung hält.
Diese Gruppe ist neu, da der Preis eben neu ist. (Und niedriger, als wahrscheinlich 90% aller 3DC-User geglaubt hat)
Würde die Karte 900 Euro kosten gäbe es diese Gruppe nicht.

Keine Ahnung wie du zu deiner Wahrnehmung kommst.

unl34shed
2020-09-04, 16:42:30
Ja Fake ist wahrscheinlich, aber dennoch wird der Unterschied wohl nicht größer werden. Wie auch bei den Specs?

E: klar mit der Ausnahme der Speicher geht nicht aus.

x-force
2020-09-04, 16:44:13
Also bis vor einer Woche war sich hier der ForenMob doch einig, dass 10GB viel zu wenig ist und absolut keine Zukunft hat.
Und nun erzählen die selben Leute dass es keinen Grund für die den Kauf einer 3090 gäbe? :uponder:

lösung:
ich gehöre nicht zum mob und mir sind fps wichtiger als auflösung :wink:

Cubitus
2020-09-04, 16:53:09
Es ist quasi ne Titan, und ne Titan war gegenüber dem Flagship nie wirklich krass schneller.. Aber wer das Beste aus der Genration haben will, der gönnt sich und hat dabei nicht mal ein schlechtes Gewissen.. :freak:

Mit Vernunft und eisernen sich selbst aufgestellten Regeln (auch wenn man das Geld locker hätte) kommt man bei so einem "Habenwill" Gefühl halt nicht weit..
Wiederrum ist es auch ein Stück Gemütlichkeit, ich kauf mir so ne Karte und muss mich in der Generation nicht mehr groß um das Thema Grafikkarte kümmern..

Dino-Fossil
2020-09-04, 16:53:24
Wer kann den ganzen Herbst + Winter ohne GPU sein? IMO keiner von hier.

Ich dachte erst, naja, bissl übertreiben tut er schon,aber dann schau ich eben in meinen Rechner und Tatsache, die GPU ist weg! :(

Armaq
2020-09-04, 16:56:09
https://youtu.be/cApmTswEXjQ
Das Video wird wohl fake sein, auch wenn die FPS sehr gut passen vom Verhältnis.

Aber genau das macht die 3090 in meinen Augen nicht besser. Die 3080 ist die Karte mit dem Chip in bester Manier, aber zu wenig Speicher. Die 3090 ist zu teuer (sag ich als 2080Ti User) im Verhältnis zur 3080. 699 für die 3080 ist toll, 1500 für 3090 ist Mist.

Dadurch das wir hier bei über 300 Watt sind, was die 2080Ti nicht mal in den krassen Versionen erreicht (man kann mich gerne korrigieren, aber 300W sind glaube so die Oberkante bei der 2080Ti).

Ampere ist ein wunderbar auf Leistung optimierter Chip, aber die Karten sind noch nicht so gut wie sie sein könnten. In jedem Fall sollte man nicht direkt kaufen, sondern warten, wird eh nur wenig Karten geben.

Ex3cut3r
2020-09-04, 16:56:42
Ich dachte erst, naja, bissl übertreiben tut er schon,aber dann schau ich eben in meinen Rechner und Tatsache, die GPU ist weg! :(

:biggrin: :up: :wink:

WedgeAntilles
2020-09-04, 17:03:35
Ampere ist ein wunderbar auf Leistung optimierter Chip, aber die Karten sind noch nicht so gut wie sie sein könnten. In jedem Fall sollte man nicht direkt kaufen, sondern warten, wird eh nur wenig Karten geben.
:up:

Genau, in den nächsten Wochen + Monaten kommen unabhängige Tests, die Partner stellen ihre Lösungen vor (und gerade bei der 3080 / 3090 wird das Kühlkonzept ja nicht gerade unwichtig sein)
Dann ist sowieo schon November und man einen Blick auf BigNavi werfen.
Und dann im Januar/Februar oder so sich entscheiden was man kauft.

Falls man gleich alles austauscht ist das dann auch der Zeitpunkt an dem Zen3 draußen sein wird und es Benchmarks / gute Boards und so weiter geben müsste.

Ich würde sagen wer im 1. Quartal 2021 einen neuen Rechner kauft wird einen tollen Zeitpunkt erwischen und kann zwischen Spitzenprodukten wählen.
Wahrscheinlich den besten die es in den letzten paar Jahren gab.
(Und damit meine ich nicht die reine Leistung, die ist ja zwangsläufig immer höher)

MiamiNice
2020-09-04, 17:09:24
Ampere ist ein wunderbar auf Leistung optimierter Chip, aber die Karten sind noch nicht so gut wie sie sein könnten. In jedem Fall sollte man nicht direkt kaufen, sondern warten, wird eh nur wenig Karten geben.

Das gilt nicht für die 3090. Die ist nur zu teuer und das eine ziemlich relative Eigenschaft.

Dural
2020-09-04, 17:10:26
16% halte ich jetzt nicht mal für so unrealistisch :rolleyes:

Kommt halt drauf an wie sehr die Karten am PT liegen, zwischen 320 und 350Watt bleibt nicht viel übrig. Dazu die 14GB mehr Speicher, die GPU wird relativ stark selektiert sein.

rentex
2020-09-04, 17:16:31
Das einem die Karte zu teuer ist, bleibt immer noch eine persönliche Ansichtssache und nicht wie vom 3DC Forenmob (perfekter Begriff!) gedeuted, eine Wahrheit!

dildo4u
2020-09-04, 17:18:27
Rechenleistung scheint bei der 3090 das Probleme zu sein ansonsten hätten sie kein 8K DLSS mit 9 Facher Skalierung bringen müssen.
Ich sehe immer noch nicht wo die alten Titan Modelle ein längeres Leben durch den Vram hatten als der Rest der Karten.

DLSS SDK 2.1 is out and it includes three updates:
– New ultra performance mode for 8K gaming. Delivers 8K gaming on GeForce RTX 3090 with a new 9x scaling option.

https://www.reddit.com/r/nvidia/comments/ilhao8/nvidia_rtx_30series_you_asked_we_answered/

unl34shed
2020-09-04, 17:23:07
Also 1440p -> 8k upscaling.

Ja ich hab upscaling gesagt steinigt mich :rolleyes:

Troyan
2020-09-04, 17:23:36
Die RTX Titan war sogar schlechter gegenüber der 2080TI. Hier bekommt man wenigsten einen deutlich besseren Kühler und 20% mehr Rechenleistung.

Ansonsten hat Jensen Huang auch eindeutig von der 3080 als neues Flagschiff gesprochen. Die 3090 ist einfach nur Just4Fun für die, die am Ende das beste wollen.

Ist so als wenn man hier über ein Model 3 Performance meckert, dass für 2-3sek bessere Beschleunigung >10k Aufpreis kostet.

unl34shed
2020-09-04, 17:36:13
Ansonsten hat Jensen Huang auch eindeutig von der 3080 als neues Flagschiff gesprochen. Die 3090 ist einfach nur Just4Fun für die, die am Ende das beste wollen.

Die 3090 ist auch nur so lange der Titan Nachfolger, bis man sie 2021 mit 48GB als Titan neu auflegen kann.

Die 1080 war auch das neue Flagschiff, bis dann die Ti nachgeschoben wurde, glaubt doch nicht alles was das Marketing euch sagt :facepalm:

monstar-x
2020-09-04, 17:37:45
Mit einer 2080Ti hätte ich rein von der Leistung schon meine Freude gehabt. Eine 2080(s)/2060 6GB hätte mir nicht mal geschenkt Spass gemacht(also abgesehen davon, dass ich sie hätte verkaufen können).

Aber bei den Preisen hätte mir gar keine Turing Karte Freude bereitet. Bzw. hat, ich hab ja keine gekauft.

Dann Verdienst du einfach nicht genug, sorry wenn ich das so sagen muss.
Bedenke, nicht jeder empfindet 1200€ als viel Geld.

Was für den einen 200€ sind, ist für den andere 1000€.

Ich habe vor einem Jahr meine 2080 Ti für 1300€ gekauft, es stört mich nicht im geringsten dass die nur noch +- 500€ Wert ist. Ich kaufe Technik nicht als Wertanlage.

Alleine schon der Wertverlust eines Smartphone ist jährlich höher oder der jährliche Sommerurlaub als Familie....

Buch doch mal für 4 Köpfige Familie etwas anständiges + (Geld für Unternehmungen, Essengehen, Mietwagen etc.) davon kannst du dir jährlich 6x 2080Ti kaufen.

Aber klar, für einen Jugendlichen oder Azubis mag das viel Geld sein.

dildo4u
2020-09-04, 17:37:59
Die 3090 ist auch nur so lange der Titan Nachfolger, bis man sie 2021 mit 48GB als Titan neu auflegen kann.

Die 1080 war auch das neue Flagschiff, bis dann die Ti nachgeschoben wurde, glaubt doch nicht alles was das Marketing euch sagt :facepalm:

Die 1080 war nicht der Fette Chip das Marketing stimmt hier, wie gesagt wäre die 3090 so viel besser müsste man nicht von 1440p sondern von 4k auf 8k skalieren.

Dural
2020-09-04, 17:38:37
Das M3P hat aber grössere Felgen, ist etwas tiefer, rot angefärbte Bremssättel und hat einen richtig krassen Spoiler hinten :eek: :wink:


Die Preis Diskussion ist eine Kindergarten Diskussion für alle die kein Geld haben, ganz einfach. Der Markt regelt der Preis, jegliche Diskussion darüber ist Sinnlos.

Orbmu2k
2020-09-04, 17:42:46
Wir sind einfach nur wieder im alten Releasemuster.

TITAN + 780 => Ti kam 5 Monate später und war schneller als TITAN
TITAN X + 980 => Ti kam 8 Monate später und war schneller als TITAN X
TITAN X Pascal + 1080 => Ti kam 8 Monate später und war schneller als TITAN X Pascal

3090 + 3080 = < Ti 8 Monate später? dafür schneller und günstiger als 3090 aber mit weniger Speicher...

Ex3cut3r
2020-09-04, 17:45:13
Wir sind einfach nur wieder im alten Releasemuster.

TITAN + 780 => Ti kam 5 Monate später und war schneller als TITAN
TITAN X + 980 => Ti kam 8 Monate später und war schneller als TITAN X
TITAN X Pascal + 1080 => Ti kam 8 Monate später und war schneller als TITAN X Pascal

3090 + 3080 = < Ti 8 Monate später? dafür schneller und günstiger als 3090 aber mit weniger Speicher...

IMO gar nicht vergleichbar. Die 80 non Ti hat seit langen mal wieder einen 102 Chip und nicht 104. Da wird IMO keine Ti kommen. Höchstens eine Version mit 20GB. Aber wir werden sehen.

Hab ich damals bei der 1080ti (11GB) vs 2070 (8GB) auch erwartet.
Die plus 3GB haben der 1080Ti auch nicht geholfen, die 2070 Super ist schneller mit nur 8GB.
Das stimmt. Leider kackt mittlerweile Pascal in neuen Spielen groß ab, gegen Turing. Obs an der Treiber Liebe, oder an der Archtietur liegt, weiß ich nicht, ist aber ziemlich unschön

monstar-x
2020-09-04, 17:46:01
Ich erwarte das in modernen Games, gerade mit RTX on, der 3080 die Luft ausgeht und das die Framerate drückt, wie Du es auch selber schon schreibst.

Hab ich damals bei der 1080ti (11GB) vs 2070 (8GB) auch erwartet.
Die plus 3GB haben der 1080Ti auch nicht geholfen, die 2070 Super ist schneller mit nur 8GB.

MiamiNice
2020-09-04, 17:49:25
Rechenleistung scheint bei der 3090 das Probleme zu sein ansonsten hätten sie kein 8K DLSS mit 9 Facher Skalierung bringen müssen.
Ich sehe immer noch nicht wo die alten Titan Modelle ein längeres Leben durch den Vram hatten als der Rest der Karten.

DLSS SDK 2.1 is out and it includes three updates:
– New ultra performance mode for 8K gaming. Delivers 8K gaming on GeForce RTX 3090 with a new 9x scaling option.

https://www.reddit.com/r/nvidia/comments/ilhao8/nvidia_rtx_30series_you_asked_we_answered/

Die 3090 wird wird schon alleine dadurch am längsten Leben da sie über 16GB Speicher hat, was imo der neue Standard werden wird. Sie ist nicht groß beschnitten im Durchsatz, d.h. der Chip kann "atmen". D.h. allerdings nicht, das sie Leistungsmäßig nicht relativ schnell ersetzt wird. Sie wird aber am längsten keine Probleme mit den Spielen haben, vor allem incl. RTX.

Hab ich damals bei der 1080ti (11GB) vs 2070 (8GB) auch erwartet.
Die plus 3GB haben der 1080Ti auch nicht geholfen, die 2070 Super ist schneller mit nur 8GB.

Das RTX Zeug kommt auch jetzt erst in Fahrt und wenn man den Spezis in diesem Thread glauben mag, wird das den VRam Bedarf schon anheben.

dildo4u
2020-09-04, 17:52:33
Wie immer die Konsolen diktieren wie die Games aussehen und der Sprung beim Ram ist so klein wie nie.
Die alte X-Box One X hatte schon 12 GB die neue 16.(10 davon wird für Vram genutzt)

dargo
2020-09-04, 18:09:37
12-Pin-Anschluss Wirrwarr. :tongue:

qf35_2YPE5Q

Leonidas
2020-09-04, 18:12:01
Bitteschön:
Hardware-Daten aller Ampere-Chips
https://www.3dcenter.org/news/die-vermutlichen-hardware-spezifikationen-der-kompletten-ampere-chipserie

RLZ
2020-09-04, 18:12:22
IMO gar nicht vergleichbar. Die 80 non Ti hat seit langen mal wieder einen 102 Chip und nicht 104. Da wird IMO keine Ti kommen. Höchstens eine Version mit 20GB. Aber wir werden sehen.
Falls keine 20GB 3080 kommt, würde ich mit einer 11/12GB Karte mit ein paar Einheiten mehr rechnen.

ianm
2020-09-04, 18:21:25
Ich bezweifle, das ein vergleichsweise unbekannter YTer schon Karten hat (gerade eine 3070, weiteres Video von ihm) ... und dann mal einfach das NDA brechen kann ohne Konsequenzen. Sorry, hoher Fake-Verdacht.








Es war mir unklar, das Memes auf legale Filme hin unerwünscht sind. In jedem Fall bitte ich um Entschuldigung, wenn ich irgendwie jemanden auf die Füsse getreten bin.
Warum nicht? Igor testet heute auch schon die neuen Karten. Die werden bei den Testern sein und natürlich macht sich da ein Kanal mit 100 Leuten weniger Sorgen als etablierte Medien.

rentex
2020-09-04, 18:23:23
Ja, tatsächlich?!

Schnoesel
2020-09-04, 18:47:21
Zum Preis der 3090 bekommst du eine 3080 + schnellere 4080 mit mehr Speicher. Objektiv sinnvoll ist die Karte sicherlich nicht.

Objektiv sinnnvoll ist es auch nicht meine jetzige Ti in meinen HTPC zu verbasteln und diesen mit externen Wakü auszustatten ... aber ich hab Bock drauf :biggrin: Aber erstmal abwarten. Evtl. doch nur 3080/BN + Vermeer? So viel Möglichkeiten und nur einen PC ;D

Dural
2020-09-04, 18:49:16
Bitteschön:
Hardware-Daten aller Ampere-Chips
https://www.3dcenter.org/news/die-vermutlichen-hardware-spezifikationen-der-kompletten-ampere-chipserie

6 gpc für ga104?

Grendizer
2020-09-04, 18:52:03
Die 3090 wird wird schon alleine dadurch am längsten Leben da sie über 16GB Speicher hat, was imo der neue Standard werden wird. Sie ist nicht groß beschnitten im Durchsatz, d.h. der Chip kann "atmen". D.h. allerdings nicht, das sie Leistungsmäßig nicht relativ schnell ersetzt wird. Sie wird aber am längsten keine Probleme mit den Spielen haben, vor allem incl. RTX.



Das RTX Zeug kommt auch jetzt erst in Fahrt und wenn man den Spezis in diesem Thread glauben mag, wird das den VRam Bedarf schon anheben.


Grundsätzlich ist das Gesagte richtig. Aber wenn ich davon ausgehe, das die 3090 4 Jahre nutzbar bleibt für 1499 Euro, dann kann ich mir jetzt auch nur eine 3080 holen und die ca. 1,5-2 Jahre nutzen und habe dann immer noch 799 Euro für 2022 gespart, die ich dann in eine neue Karte investieren kann, die dann bestimmt auch noch 3 Jahre nutzbar ist, da da ja noch keine höheren Anforderungen durch eine neue Konsolen Generation zu erwarten sind.


Die 3090 macht als Prestigeprodukt Sinn, weil der Käufer sich State of the Art leisten will. Ob das investierte Geld wirklich ingesamt mehr Nutzungsdauer generiert wird die Zeit zeigen.

JVC
2020-09-04, 19:07:21
12-Pin-Anschluss Wirrwarr. :tongue:

https://youtu.be/qf35_2YPE5Q
"Prima gemacht" von NV ...

Das nächste Video von Igor
https://www.youtube.com/watch?v=lpTPzoBWR4Q
"Wird die GeForce RTX 3080 knapp? Paperlaunch und begrenzte Anzahl der Founders Edition?"

M.f.G. JVC

dildo4u
2020-09-04, 19:08:00
Grundsätzlich ist das Gesagte richtig. Aber wenn ich davon ausgehe, das die 3090 4 Jahre nutzbar bleibt für 1499 Euro, dann kann ich mir jetzt auch nur eine 3080 holen und die ca. 1,5-2 Jahre nutzen und habe dann immer noch 799 Euro für 2022 gespart, die ich dann in eine neue Karte investieren kann, die dann bestimmt auch noch 3 Jahre nutzbar ist, da da ja noch keine höheren Anforderungen durch eine neue Konsolen Generation zu erwarten sind.


Die 3090 macht als Prestigeprodukt Sinn, weil der Käufer sich State of the Art leisten will. Ob das investierte Geld wirklich ingesamt mehr Nutzungsdauer generiert wird die Zeit zeigen.


Jup die näste Gen kommt 2022 und mit AMD als ernsthaften Gegner können sie eigentlich nicht mehr so schlafen wie bei Turing.
Selbst wenn RDNA2 noch nix taugt irgendwann sollte sich das Geld von Ryzen bemerkbar machen.

Leonidas
2020-09-04, 19:11:53
6 gpc für ga104?


Exakt. War aber beim Vorgänger (TU104) auch nicht anders.

monstar-x
2020-09-04, 19:12:13
Das RTX Zeug kommt auch jetzt erst in Fahrt und wenn man den Spezis in diesem Thread glauben mag, wird das den VRam Bedarf schon anheben.


Control

Res: Nativ (WQHD)
RTX: Off
VRAM: 5702MB

Res: Nativ (WQHD)
RTX: On (Higest)
VRAM: 6260 MB

Res: DLSS (WQHD)
RTX: Off
VRAM: 5170 MB

Res: DLSS (WQHD)
RTX: On (Higest)
VRAM: 5195 MB



Shadow of the Tomb Raider

Res: 4K (3840x2160)
RTX: ON (Higest)
VRAM: 10700 MB
= FPS: 43

Res: DLLS ON (3840x2160)
RTX: ON (Higest)
VRAM: 9920 MB
= FPS: 69


Res: 4K (3840x2160)
RTX: OFF (Higest)
VRAM: 10120 MB
= FPS: 45


Res: DLLS ON (3840x2160)
RTX: OFF (Higest)
VRAM: 10690 MB
= FPS: 86



Res: WQHD
RTX: ON (Higest)
VRAM: 9080 MB
= FPS: 84

Res: WQHD
RTX: Off
VRAM: 8810 MB
= FPS: 121

jojo13
2020-09-04, 19:12:18
[QUOTE=dargo;12414246]12-Pin-Anschluss Wirrwarr. :tongue:

Was laabert der da...?:confused:

jojo13
2020-09-04, 19:13:43
"Prima gemacht" von NV ...

Das nächste Video von Igor
https://www.youtube.com/watch?v=lpTPzoBWR4Q
"Wird die GeForce RTX 3080 knapp? Paperlaunch und begrenzte Anzahl der Founders Edition?"

M.f.G. JVC

Lol was kann die Lederjacke für das dusselige Kabelgesabbel? Demnächst isser auch am Wetter schuld...

Grendizer
2020-09-04, 19:15:03
Das die Netzteilhersteller Panik geschoben haben, weil sie nicht gewußt haben, woher sie den 12 Pin anschluss holen sollten. Und Seasonic und andere Hersteller haben aus Unsicherheit Anschlusskabel für ihre modulare Netzteile entwickelt, die man aber auf Grund des Adapters von nVidia eigentlich nicht braucht.

MiamiNice
2020-09-04, 19:21:34
...

Wären glatt Argumente, wenn diese Spiele den nicht alle dumped down für „Krüppel“ Turing wären. Wir werden erst mit Cyberpunk sehen was an dem vorhergesagten VRam Verbrauch für RTX on wirklich real ist.

Kannst Dich noch an den Release von BF5 erinnern als ein Patch kam der die RTX Geschichten runtergefahren hat, weil Turing ein RTX Krüppel ist?

Wie gesagt für mich knallt mit Cyberpunk die Peitsche. Hier wird NV alles auffahren was geht, alleine um den letzten Widerstand gegen RTX zu brechen und Ampere ins beste Licht zu rücken.

Dural
2020-09-04, 19:23:13
Exakt. War aber beim Vorgänger (TU104) auch nicht anders.

Glaub ich fast nicht, sicher? (ga104)

Leonidas
2020-09-04, 19:47:47
Hatte Kimi im Mai 2019 vorhergesagt. Bisher hat alles gestimmt, was er seinerzeit sagte.

Armaq
2020-09-04, 20:02:34
Die Preis Diskussion ist eine Kindergarten Diskussion für alle die kein Geld haben, ganz einfach. Der Markt regelt der Preis, jegliche Diskussion darüber ist sinnlos.
Hast du eine 2080Ti?

Die Preisdiskussion ist nicht sinnlos, auch wenn man sich ne Spitzenkarte kauft und den Aufschlag zahlen will, darf man sein Hirn dennoch bemühen. In der Regel gibt es da auch einen Zusammenhang.

Ich hab den Kauf der 2080Ti nicht bereut und bereue ihn auch jetzt nicht. Die Karte ist 1,5 Jahre alt, was soll das Theaer? Miami war damals auch not amused über die 2080 Ti Preise soweit ich mich erinnere. :wink:

Der Performance Uplift von 3080 ist ausreichend ggü. 2080Ti (wenngleich ein unabhängiger Test schön wäre).

Von Reichen lernen heißt sparen lernen.

rentex
2020-09-04, 20:12:12
Das die Netzteilhersteller Panik geschoben haben, weil sie nicht gewußt haben, woher sie den 12 Pin anschluss holen sollten. Und Seasonic und andere Hersteller haben aus Unsicherheit Anschlusskabel für ihre modulare Netzteile entwickelt, die man aber auf Grund des Adapters von nVidia eigentlich nicht braucht.

Weil ein Adapter auch ne sauberer Lösung ist..ich werd den Teufel tun und mir nen Adapter in die Kiste bauen. Da wird doe Seasonic Lösung geordert.

Ex3cut3r
2020-09-04, 20:16:54
Die Customs haben doch bisher gar nicht diesen ominösen 12 Pin Stecker, von daher wenn juckts? In 2 Jahren wird wieder bei TSMC gefertigt, und dann braucht man auch keine 320 bzw 350W mehr. IMO ist dieser Stecker eine einmalige Sache und wird sich auch nicht durchsetzen, freue mich schon auf die ganzen Daus, die den Stecker abbrechen werden, weil der Anschluss von Nvidia einfach nur dämlich platziert ist. Nvdia meint halt immer was spezielles machen zu müssen wie Ihr neues Vorbilld Apple? Anders kann ich mir diesen Quatsch Stecker auch nicht erklären. Vor 2 Jahren hat man die FEs mit heißen Kleber zusammengebaut.....weil man schon damals meinte, man muss was spezieller machen als die AIBs/Customs

Dural
2020-09-04, 20:22:32
Nein, ich habe in 2018 auch ganz klar gewarnt und gesagt das ampere deutlich mehr bringen kann und turing an der 12nm hängt.
Habe mir damals eine 2070 gekauft, da bei dieser alles voll aktiviert ist, und spielen tue ich praktisch gar nicht mehr.

Die 3090 halte ich für einen guten kauf, damit kommt man die nächsten min. 2 jahre gut aus.

Hatte Kimi im Mai 2019 vorhergesagt. Bisher hat alles gestimmt, was er seinerzeit sagte.

Ok habe ich nicht mitbekommen wegen den gpc.

MiamiNice
2020-09-04, 20:26:32
Ich hab den Kauf der 2080Ti nicht bereut und bereue ihn auch jetzt nicht. Die Karte ist 1,5 Jahre alt, was soll das Theaer? Miami war damals auch not amused über die 2080 Ti Preise soweit ich mich erinnere. :wink:


„Miami“ war not amused wegen der absolut mageren Performance zu Release, das incl. Preiserhöhung, war der Grund das „Love nVidia“ Benutzerbild zu killen und die Vorbestellung zu stornieren.

Der Sandmann
2020-09-04, 20:27:58
Als 3070 Interessent würde ich eher hergehen und eine gebrauchte 2080TI für 350€ aus Ebay fischen, btw.

Da hast du natürlich recht. Aber ich glaube nicht das Menschen noch dieses Jahr ihre 2080ti für 350€ bei ebay verkaufen werden. Den ansonsten würde ich bei einer 2080 Super zuschlagen die dann ja so bei 300€ liegen müsste.

wolik
2020-09-04, 20:54:20
Von Reichen lernen heißt sparen lernen.
Diese Spruch hat mich an das erinnert :biggrin::

https://abload.de/img/m6pg1c87kzv.jpg

Und, mit 18 Jahre (vor mehrere Jahrzehnt) habe ich mir ein Spruch (von meine Militär Kamerade ) eingeprägt : " Ich bin nicht so Reich, um billige Sachen zu kaufen"


Die 3090 halte ich für einen guten kauf, damit kommt man die nächsten min. 2 jahre gut aus.


Spätestes bei 3080Ti 20Gb (für 1000$?) und "fast gleiche" Leistung fühlen Besitzer 3090 sich verascht :biggrin: Aber wem juckt ... Mich. auf kein Fall. Voodoo 5500 war auch nicht billig... Ob damals Amazon Aktien gabs ? Wenn man das mal umrechnet...

dildo4u
2020-09-04, 21:08:46
hIL43rf_A3E

Erbsenkönig
2020-09-04, 21:18:21
Buch doch mal für 4 Köpfige Familie etwas anständiges + (Geld für Unternehmungen, Essengehen, Mietwagen etc.) davon kannst du dir jährlich 6x 2080Ti kaufen.

Aber klar, für einen Jugendlichen oder Azubis mag das viel Geld sein.

Ah, das freut einen immer - "Ich bin hier der Pseudo Bonze und fahr für 10.000 € in den Urlaub, also schieb du gefälligst Hardwareherstellern das Geld in den Arsch".;D

MiamiNice
2020-09-04, 21:20:05
Ah, das freut einen immer - "Ich bin hier der Pseudo Bonze und fahr für 10.000 € in den Urlaub, also schieb du gefälligst Hardwareherstellern das Geld in den Arsch".;D

Man(n) kann natürlich auch absichtlich Posts völlig falsch interpretieren.

Armaq
2020-09-04, 21:39:33
Diese Spruch hat mich an das erinnert :biggrin::

https://abload.de/img/m6pg1c87kzv.jpg

Und, mit 18 Jahre (vor mehrere Jahrzehnt) habe ich mir ein Spruch (von meine Militär Kamerade ) eingeprägt : " Ich bin nicht so Reich, um billige Sachen zu kaufen"



Spätestes bei 3080Ti 20Gb (für 1000$?) und "fast gleiche" Leistung fühlen Besitzer 3090 sich verascht :biggrin: Aber wem juckt ... Mich. auf kein Fall. Voodoo 5500 war auch nicht billig... Ob damals Amazon Aktien gabs ? Wenn man das mal umrechnet...
Da ist auch etwas Wahres dran (an dem Spruch).
Die 3090 ist mMn. für Leute super spannend, die auch mal Rendern oder zu Hause mal ein paar Modelle durchrechnen wollen. Ich kenne da einige, die werden die Karte definitiv dazu nutzen und damit macht das dann auch mehr Spaß.

„Miami“ war not amused wegen der absolut mageren Performance zu Release, das incl. Preiserhöhung, war der Grund das „Love nVidia“ Benutzerbild zu killen und die Vorbestellung zu stornieren.
Von einer 1080Ti ausgehend stimme ich dir auch total zu. Das hat sich aber wie immer mit den neueren Anwendungen etwas gebessert.

Wenn man jetzt die gleiche Entwicklung annimmt - ich würde sogar sagen sie verstärkt sich mit Konsolen-Release noch - dann kann die 3080 vll sogar 100% zur 2080 rausholen. Das wäre ein wirklich guter Sprung, dennoch hart erkauft mit 80Watt.

Die Partnerkarten sehen einfach brutal aus. Die Aorus sieht nach einem 3,5 Slot-Design aus, die anderen Karten sehen allesamt nach mindestens 3 Slots aus.

Atma
2020-09-04, 21:53:17
Dadurch das wir hier bei über 300 Watt sind, was die 2080Ti nicht mal in den krassen Versionen erreicht (man kann mich gerne korrigieren, aber 300W sind glaube so die Oberkante bei der 2080Ti).
Mit max. Powertarget (125%) zieht die 2080 Ti bei mir rund 330 Watt unter Volllast.

MiamiNice
2020-09-04, 22:00:53
Die Partnerkarten sehen einfach brutal aus. Die Aorus sieht nach einem 3,5 Slot-Design aus, die anderen Karten sehen allesamt nach mindestens 3 Slots aus.

Ich habe mittlerweile alles an Partnerkarten gesehen und musste tatsächlich feststellen, dass mir die Founders Edition, mit großem Abstand, am besten gefällt. Leider ist Huangs 12 Pin Turm des Schreckens nicht mit Waaserkühlern kompatibel :biggrin:

Platos
2020-09-04, 22:11:47
Dann Verdienst du einfach nicht genug, sorry wenn ich das so sagen muss.
Bedenke, nicht jeder empfindet 1200€ als viel Geld.

Was für den einen 200€ sind, ist für den andere 1000€.

Ich habe vor einem Jahr meine 2080 Ti für 1300€ gekauft, es stört mich nicht im geringsten dass die nur noch +- 500€ Wert ist. Ich kaufe Technik nicht als Wertanlage.

Alleine schon der Wertverlust eines Smartphone ist jährlich höher oder der jährliche Sommerurlaub als Familie....

Buch doch mal für 4 Köpfige Familie etwas anständiges + (Geld für Unternehmungen, Essengehen, Mietwagen etc.) davon kannst du dir jährlich 6x 2080Ti kaufen.

Aber klar, für einen Jugendlichen oder Azubis mag das viel Geld sein.

:D
Es ist wieder mal soweit. Jemand muss wieder beweisen, wie wenig Geld für ihn 1200 Euro sind und wie viel (mehr) er sonst wo noch ausgegeben hat.

Ich würde/hätte die RTX 2080Ti auch nicht gekauft, wenn ich Multimillionär wäre.

Eine sehr unvernünftige Investition ist eine RTX 2080Ti so oder so für's Gaming (auch wenn man möglichst immer High-End haben will). Da kann man Agumentieren, wie man will.

D.h natürlich nicht, dass man es nicht trotzdem tun kann.

Thunder99
2020-09-04, 22:14:29
Gibt es einen Grund für die kurzen Platinen?

Armaq
2020-09-04, 22:15:06
Mit max. Powertarget (125%) zieht die 2080 Ti bei mir rund 330 Watt unter Volllast.
Das ist deine Entscheidung. Ich betreibe meine Karte mit 240 Watt (-20%PT), einfach weil ich kaum Unterschiede sehe und sie den Boost sogar stabiler hält. Das kann bei Metro vll. anders sein, aber das Spiel hab ich vor ein paar Monaten gezockt. Release war 250W, die Partnerkarten hatten dann glaube meistens 300W und bei vielen war das Unsinn.

Hier geht die FE mit 320/350 an den Start und 525 am Stecker hat man schon gesehen. Das finde ich dann doch schon krass.

Gibt es einen Grund für die kurzen Platinen?

Die Speicherchips brauchen kurze Wege.

Ich habe mittlerweile alles an Partnerkarten gesehen und musste tatsächlich feststellen, dass mir die Founders Edition, mit großem Abstand, am besten gefällt. Leider ist Huangs 12 Pin Turm des Schreckens nicht mit Waaserkühlern kompatibel :biggrin:
Da bin ich auch bei dir. Die Karten sehen sehr gut aus. Richtig gutes Produktdesign. Wertig, technisch, trotz der Masse strahlt da eine gewisse Eleganz, mein Kompliment an die Designer und Ingenieure.

Thunder99
2020-09-04, 22:17:25
Einfach zu viel, es muss besser gehen!

Troyan
2020-09-04, 22:17:56
Gigabyte erlaubt 360W und 300W bei 100%.

Armaq
2020-09-04, 22:22:31
Gigabyte erlaubt 360W und 300W bei 100%.
Welche Modelle sind das? 360 fände ich abstrus, wenn die Speicherchips nicht mega abgehen.

Gebrechlichkeit
2020-09-04, 22:22:53
Bezogen auf DOOM Eternal. :)


Stimmt, aber wir reden hier von einer, wenn nicht sogar der besten-optimierten Engines ueberhaupt was CPU&GPU angeht, spezifisch auf FPS ausgelegt. Von der 3070 darf man nix erwarten, von der 3080 evtl. nur wenn man perma RT anhat.

https://youtu.be/hIL43rf_A3E

https://i.postimg.cc/7h5JRx4R/u-https-media-tenor-co-images-67164b3656353e10806740c021b37cf6-tenor.gif (https://postimages.org/)

Troyan
2020-09-04, 22:27:58
Welche Modelle sind das? 360 fände ich abstrus, wenn die Speicherchips nicht mega abgehen.

Die Gaming OC 2080TI mit 360W. Die Windforce glaube ich mit weniger, aber immer noch über 300W. Hat Gigabyte ein paar Tage nach dem Release als Bios zur Verfügung gestellt und soweit ich weiß, irgendwann als default.

Selbst die Founders Edition hat ein maximales Limit von 320W.

MiamiNice
2020-09-04, 22:28:13
Da bin ich auch bei dir. Die Karten sehen sehr gut aus. Richtig gutes Produktdesign. Wertig, technisch, trotz der Masse strahlt da eine gewisse Eleganz, mein Kompliment an die Designer und Ingenieure.

Dann salutieren wir mal gemeinsam in Richtung „Pixeljetstream“ ;D

Armaq
2020-09-04, 22:28:36
Die Gaming OC 2080TI mit 360W. Die Windforce glaube ich mit weniger, aber immer noch über 300W. Hat Gigabyte ein paar Tage nach dem Release als Bios zur Verfügung gestellt und soweit ich weiß, irgendwann als default.

Selbst die Founders Edition hat ein maximales Limit von 320W.
Ich hab es ehrlich noch nicht getestet, aber genau das mache ich jetzt. :biggrin:
#Die BiosVersion dafür habe ich.

gedi
2020-09-04, 22:29:53
Sorry, aber P/W/Fpz ist Ampere ein Fail. Kühler worauf man Spiegeleier drauf kochen/backen kann. Omg, wie hätte man AMD verrissen. Ampere ist für mich nen Fail, da die 3070 unter ner Konsole bleibt...

Lawmachine79
2020-09-04, 22:34:54
Sorry, aber P/W/Fpz ist Ampere ein Fail. Kühler worauf man Spiegeleier drauf kochen/backen kann. Omg, wie hätte man AMD verrissen. Ampere ist für mich nen Fail, da die 3070 unter ner Konsole bleibt...
Wenn juckt Effizienz in der Oberklasse? Wer hier über den Verbauch heult hätte sich das Ding auch nicht mit geringem Verbrauch gekauft, weil es zu teuer ist. Ist wie jemand, der sich über den Verbrauch eines Ferraris aufregt.

Badesalz
2020-09-04, 22:37:35
Grundsätzlich ist das Gesagte richtig. Aber wenn ich davon ausgehe, das die 3090 4 Jahre nutzbar bleibt für 1499 Euro, dann kann ich mir jetzt auch nur eine 3080 holen und die ca. 1,5-2 Jahre nutzen und habe dann immer noch 799 Euro für 2022 gespart, die ich dann in eine neue Karte investieren kann, die dann bestimmt auch noch 3 Jahre nutzbar ist, da da ja noch keine höheren Anforderungen durch eine neue Konsolen Generation zu erwarten sind.Da wird aber Direct I/O schon bretier ausgerollt sein. Nicht wundern also, wenn die neuen Karten dann 6GB Vram haben...

Wenn juckt Effizienz in der Oberklasse? Wer hier über den Verbauch heult hätte sich das Ding auch nicht mit geringem Verbrauch gekauft, weil es zu teuer ist. Ist wie jemand, der sich über den Verbrauch eines Ferraris aufregt.Müsste man jetzt tatsächlich wenigstens kurz nachdenken. Und zwar ob es um die Stromrechnung oder das Netzteil geht, oder um den gesteigerten lästigen Aufwand für dei Kühlung des Gehäuses.

Zu dem Beispiel mit dem Ferrari: Wenn ich einen Porsche habe, sollte ich nicht über die Spritpreise heulen. Sehr wohl gäbe es was zu erzählen, wenns ein Cabrio ist und die Lüfter im Heck mir bei jedem Anhalten permanent auf den Geist gehen.
Es geht nicht immer nur um das Geld. Manches geht einem einfach nur auf den Sack ;)

why_me
2020-09-04, 22:39:03
gedi hat schon recht, über die letzten 8 Jahre musste man sich immer so etwas anhören:
Es geht auch nicht um den verbrauch für sich, sondern um das was alles damit zusammen hängt: kosten, kühler, lautstärke etc.

Selbst 20W waren teilweise schon zu viel. Komisch, dass man das hier überhaupt nicht liest. Wann gab es das letzte mal eine 350W GPU und möglicherweise sogar 400W Customs?

E: Kennt noch jemand die doofen Sprüche mit dem AKW im Keller?

Hauwech
2020-09-04, 22:42:04
gedi hat schon recht, über die letzten 8 Jahre musste man sich immer so etwas anhören:


Selbst 20W waren teilweise schon zu viel. Komisch, dass man das hier überhaupt nicht liest. Wann gab es das letzte mal eine 350W GPU und möglicherweise sogar 400W Customs?

Zwar nicht ganz 350W aber die Vega 64LC mit 345W TDP und was da teilweise bei Vega an Leistungsaufnahme gemessen wurde, war von 400W nicht sehr weit entfernt.

Platos
2020-09-04, 22:47:43
gedi hat schon recht, über die letzten 8 Jahre musste man sich immer so etwas anhören:


Selbst 20W waren teilweise schon zu viel. Komisch, dass man das hier überhaupt nicht liest. Wann gab es das letzte mal eine 350W GPU und möglicherweise sogar 400W Customs?

E: Kennt noch jemand die doofen Sprüche mit dem AKW im Keller?

Der Unterschied ist, dass ordentlich mehr Leistung dabei raus kommt. Wobei man eine entgültige Antwort erst fällen kann, wenn man AMDs Lösung gesehen hat. Bei AMD war es oft so, dass gleiche Leistung oder oft bisschen darunter herausgekommen ist und dazu noch mehr Stromverbrauch.

Aber wie gesagt, man müsste zuerst noch AMDs Lösung sehen. Ich denke, nach mageren 4 Jahren sind die Leute einfach endlich froh, mal wieder eine Gen. mit viel Leistungsplus zu sehen. Da verkraftet man auch ein bisschen mehr Stromverbrauch (Perf/W ist natürlich trotzdem gestiegen). "Meh" Leistung und höherer Stromverbrauch wird hingegen nicht so gern gesehen.

Ich bezweifle allerdings, dass AMD da mithalten kann. Mit Glück gibt es einen echten 3080-Konter, mit Pech wirds wieder wie bei der Vega 64 und 56 laufen

Armaq
2020-09-04, 22:51:20
Ich sehe das auch nicht als rein positive Entwicklung. 400W ohne WaKü und Lüftergebrüll wird sehr spannend.

Platos
2020-09-04, 22:54:38
400 Watt wirds vlt. mit einer (stark) übertakteten 3090. Aber bei dem Preis kann man sich ja gleich einen Wasserblock draufschnallen. Das wäre dann +10% Mehrkosten, das sollte vertretbar sein für Käufer einer 1500Euro Karte. Da kommts jetzt auch nicht mehr drauf an.

unl34shed
2020-09-04, 22:54:49
"Meh" Leistung und höherer Stromverbrauch wird hingegen nicht so gern gesehen.

Aber so viel besser ist Ampere hier doch auch nicht, laut Troyan ist es ja sogar ein Full Node Shrink gewesen. Gehen wir mal von 2080Ti und 3070 aus, die sollen ähnlich schnell sein, aber anhand der TDP sind das keine 20% bessere Perf/W :confused:

Klar Tests muss man noch abwarten ob die 3070 wie die 2080ti ins Power Limit laufen, aber davon ist mMn. auszugehen.

E:
Und dann kommen bei der Präsentation so komische Marketing Stunts wie +90% Perf/W :facepalm:

MiamiNice
2020-09-04, 22:54:57
Wenn juckt Effizienz in der Oberklasse? Wer hier über den Verbauch heult hätte sich das Ding auch nicht mit geringem Verbrauch gekauft, weil es zu teuer ist. Ist wie jemand, der sich über den Verbrauch eines Ferraris aufregt.


+1
Deswegen ist der Man bei mir auch gesperrt 😂

Daredevil
2020-09-04, 22:58:56
Sorry, aber P/W/Fpz ist Ampere ein Fail.
Wer hat denn mehr zu bieten?

gedi
2020-09-04, 23:02:17
Wenn juckt Effizienz in der Oberklasse? Wer hier über den Verbauch heult hätte sich das Ding auch nicht mit geringem Verbrauch gekauft, weil es zu teuer ist. Ist wie jemand, der sich über den Verbrauch eines Ferraris aufregt.

Es hätte dieses Mal nur sehr wenig gebraucht um vor einem Backofen aka 3080 zu sein. Ich bin mir sicher, dass es Customs richten, aber leider unsäglich.

Anders formuliert: Wetten, dass ich unter Wasser mit 375W jegliche 525w-Ampere platt mache!

w0mbat
2020-09-04, 23:03:24
Die schlechte Perf/W liegt mMn am Samsung-Prozess, mit TSMC 7nm+ hätte Nvidia hier sicher mehr geliefert.

gedi
2020-09-04, 23:06:52
Die schlechte Perf/W liegt mMn am Samsung-Prozess, mit TSMC 7nm+ hätte Nvidia hier sicher mehr geliefert.

Vermutlich japp

Platos
2020-09-04, 23:12:36
Aber so viel besser ist Ampere hier doch auch nicht, laut Troyan ist es ja sogar ein Full Node Shrink gewesen. Gehen wir mal von 2080Ti und 3070 aus, die sollen ähnlich schnell sein, aber anhand der TDP sind das keine 20% bessere Perf/W :confused:

Klar Tests muss man noch abwarten ob die 3070 wie die 2080ti ins Power Limit laufen, aber davon ist mMn. auszugehen.

Die 220Watt der 3070 sind etwa gleich wie die 225W der 2080 (Referenz. Ich meinte Founders, das ist für mich das Referenzmodell).

Ich gehe (für diese Rechnung) davon aus, dass die 3070 "nur" gleich gut ist, wie die 2080Ti. Dann ergibt sich ein 29.8% besseres Leistung/Watt-Verhältnis.

Aber abgesehen davon gibt es deutlich mehr Leistung für's Geld. (Das Speicherproblem mal ausgelassen, das ist wieder ein anderes Thema). Darum gehts doch (mir) eigentlich. Endlich mal wieder einen Leistungssprung nach vielen Jahren (seit Pascal).

Edit: Also 30% mehr FPS/Watt, 300 Euro weniger und 27% mehr Leistung.

Oder verglichen mit dem Vorgänger: 31,4% mehr FPS/Watt, 100 Euro günstiger und 56% mehr Leistung. Jetzt bleibt nur noch die Frage offen, ob es eine 16GB version gibt und wie viel sie kostet.

Badesalz
2020-09-04, 23:16:08
Und wenn wir schon bei Direct I/O am hecheln sind... Mal ne kurze Frage zwischendurch.

Eine 1TB 860pro, hat TBW von 1.2 PB. Eine 980pro, von 600 TB.
Eine 256GB 860pro von 300TB. Eine 256GB 970EvoPlus von 150TB.
usw. usw.

Was ist das für ein WITZ was da grad abläuft? Und wir beschweren uns, daß die Menge von vram stagnier? :rolleyes:
Die Direct I/O ist das Teil quasi permanent in Benutzung. Lächelrich.

gedi
2020-09-04, 23:18:19
Alles richtig, aber sag mir eins: warum sollte ich mir dann keine XBO kaufen?

unl34shed
2020-09-04, 23:19:45
Die 220Watt der 3070 sind etwa gleich wie die 225W der 2080 (Referenz.).

Ich gehe davon aus, dass die 3070 "nur" gleich gut ist, wie die 2080Ti. Dann ergibt sich ein 29.8% besseres Leistung/Watt-Verhältnis.


Wie berechnest du das? :confused:
2080Ti: 250W/225W = 111% Perf/W
2080Ti FE: 260W/225W = 115% Perf/W

Troyan
2020-09-04, 23:23:36
NDA für Technik ist gefallen: https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3000-ampere-technik/

Geile Uhrzeit btw.

BiZiNiZz
2020-09-04, 23:25:22
Und wenn wir schon bei Direct I/O am hecheln sind... Mal ne kurze Frage zwischendurch.

Eine 1TB 860pro, hat TBW von 1.2 PB. Eine 980pro, von 600 TB.
Eine 256GB 860pro von 300TB. Eine 256GB 970EvoPlus von 150TB.
usw. usw.

Was ist das für ein WITZ was da grad abläuft? Und wir beschweren uns, daß die Menge von vram stagnier? :rolleyes:
Die Direct I/O ist das Teil quasi permanent in Benutzung. Lächelrich.

Dir ist aber schon klar was TBW bei SSD's bedeutet oder? Total Bytes Written
Die Grafikkarte wird da aber nichts schreiben sondern nur an der CPU vorbei die Daten lesen und sich in den VRAM entpacken.

monstar-x
2020-09-04, 23:25:51
:D
Es ist wieder mal soweit. Jemand muss wieder beweisen, wie wenig Geld für ihn 1200 Euro sind und wie viel (mehr) er sonst wo noch ausgegeben hat.

Ich würde/hätte die RTX 2080Ti auch nicht gekauft, wenn ich Multimillionär wäre.

Eine sehr unvernünftige Investition ist eine RTX 2080Ti so oder so für's Gaming (auch wenn man möglichst immer High-End haben will). Da kann man Agumentieren, wie man will.

D.h natürlich nicht, dass man es nicht trotzdem tun kann.

Nochmals es kommt immer von dem Standpunkt der Betrachtung an.
Hättest du eine Million würdest du dir sicher keine 3070 kaufen!
Vor 20 Jähren hätte ich mir eine 1200€ nicht leisten können/wollen. Heute sieht es anders aus.

Ich sagte auch nicht dass 1200€ wenig Geld sind, ich sagte nur ich fühle mich nicht "verarscht" und es mir egal ob die Grafikkarte nun nur noch +-500€ Wert ist. Den das Plane ich mit ein.

Ich kaufe seit 30 Jahren Computer, ich weis wie der Hase in der Tech Branche läuft. Das was heute High End ist, ist in ein paar Jahren Low End oder nichts mehr Wert. So ist das nun mal, und das ist auch gut so. Technik ist keine Wertanlange (Ausser Apple I etc... )


Ich habe damals, Anfang der 1990er zwei Jahre lang jedes Wochenende in einem Fast Food Restaurant gearbeitet um mir einen schönen 486er Computer zu kaufen, der nach 4 Jahren vollkommen veraltet war. Ich habe es nicht eine Minute bereut.



Ah, das freut einen immer - "Ich bin hier der Pseudo Bonze und fahr für 10.000 € in den Urlaub, also schieb du gefälligst Hardwareherstellern das Geld in den Arsch".;D


Ich weis nicht wann du das letzte mal einen Sommerurlaub mit Schulpflichtigen Kindern gebucht hast? Wahrscheinlich noch nie. sonst wüsstest du das 2 Wochen (inkl. Flug/Anreise, Hotel, Essen, Trinken, Freizeit), gute 5000€ kosten... drei dann >7000€ ...

Geld Diskussion mit euch beiden hiermit beendet. Dafür verschwende ich nicht meine Zeit.

Platos
2020-09-04, 23:28:11
Wie berechnest du das? :confused:
2080Ti: 250W/225W = 111% Perf/W
2080Ti FE: 260W/225W = 115% Perf/W

Ich habe die 3080 als Vergleich genommen und nicht die 2080Ti (steht auch da;)). Im Edit dann noch die 2070. In beiden Fällen die Founders Edition.

Das ist auch realistischer/fairer.

Nochmals es kommt immer von dem Standpunkt der Betrachtung an.
Hättest du eine Million würdest du dir sicher keine 3070 kaufen!
Vor 20 Jähren hätte ich mir eine 1200€ nicht leisten können/wollen. Heute sieht es anders aus.

Ich sagte auch nicht dass 1200€ wenig Geld sind, ich sagte nur ich fühle mich nicht "verarscht" und es mir egal ob die Grafikkarte nun nur noch +-500€ Wert ist. Den das Plane ich mit ein.

Ich kaufe seit 30 Jahren Computer, ich weis wie der Hase in der Tech Branche läuft. Das was heute High End ist, ist in ein paar Jahren Low End oder nichts mehr Wert. So ist das nun mal, und das ist auch gut so. Technik ist keine Wertanlange (Ausser Apple I etc... )


Ich habe damals, Anfang der 1990er zwei Jahre lang jedes Wochenende in einem Fast Food Restaurant gearbeitet um mir einen schönen 486er Computer zu kaufen, der nach 4 Jahren vollkommen veraltet war. Ich habe es nicht eine Minute bereut.

Ah ja, schnell noch die Meinung dazu "senfen" und dann sagen, ich diskutiere hier jetzt nicht mehr, damit du das letzte Wort hast :D

Ps. Ich habe nie behauptet, dass du es bereust/dich verarscht fühlst. Wo steht das ? Ich habe gesagt, ich habe kein Mitleid mit denen, die das tun. Du warst also gar nicht angesprochen.

Und nein, ich würde mir als Millionär keine 3070 kaufen, ich würde aber eine 3080 kaufen und keine 3080Ti (bzw. auf eine mit 20GB hoffen). Das tue ich auch jetzt. Ich würde auch jetzt keine 3070 kaufen mit 8GB, weil ich sie schlecht finde. Und genauso hoffe ich auf eine 3080 mit 20GB.

Und ein neues Auto kostet auch 20-30k (aufwärts), deshalb bezahle ich trotzdem nicht 7k für einen goldenen Apfel, nur weils noch Dinge gibt, die (noch) teurer sind...

Digidi
2020-09-04, 23:29:20
Ja und nein. Im Normalfall für herkömmlichen content reicht das heute mit ff (Turing ff legte 2x auf Pascal, ohne dem sehe der Vorteil der Mesh shader deutlich höher aus). Aber man kann jede Generation neu bewerten ob es sich lohnt mehr ff zu basteln, oder das Problem eben mit shadern lösen, von denen man eh immer mehr bekommt. Letzteres hat auch Vorteil das Entwickler "cleverer" sein können als ne feste api. Aber man braucht halt auch ne gewisse Marktdurchdringung dieser neuen shader. Daher wird man erst in Jahren sehen ob man noch ff in dem Maße braucht, oder ob die Entwickler eh immer mehr auf shader basiertes umsteigen (compute rasterization, compute culling, mesh/primitive shader). Je unwichtiger desto weniger muss man da zusätzlich investieren.



@Pixeljetstream war das der wink mit den Zaunpfahl #10.000 Shader es hat ein bischen gedauert aber ich habe verstanden ;D;D;D

monstar-x
2020-09-04, 23:34:00
Ich sehe das auch nicht als rein positive Entwicklung. 400W ohne WaKü und Lüftergebrüll wird sehr spannend.

Die Vapor Chamber dürfte doch einiges Wett machen.
Wenn ich mir ansehen wie Effizient so eine Vapor Chamber Kühlung auf der XBOX ONE X funktioniert, bin ich guter Hoffnung.

Die ersten Leaks dürften sicher bald kommen.

Eine 3080 werde ich mir bestellen, sollte die die nur 20% schneller sein wie meine 2080Ti, verkaufe ich die 3080 zum Selbstkostenpreis.




Und dann kommen bei der Präsentation so komische Marketing Stunts wie +90% Perf/W :facepalm:

Du weist ja nicht was die gemessen haben (steht ja nicht da, was nicht unbedingt für Fairness spricht)

Da könnte auch eine 2080 (non Super) vs 3080 sein, dann kommen max. 80-90% schon hin (je nach Spiel und Einstellung)

Linmoum
2020-09-04, 23:38:31
NDA der Reviews für die FE ist übrigens der 14.09 (Kommentar unter dem Video):

Hey guys. SO sorry about misspeaking. Got the review NDA dates (14th for FE, 17th for board partners) mixed up with the day you can buy it. Release date to retailers is September 17th.
https://www.youtube.com/watch?v=Iv9XvKzb1Ys

Platos
2020-09-04, 23:45:50
Nvidia hat das neuronale Netzwerk von DLSS für die 8K-Auflösung mit dem Ziel trainiert, eine bessere Grafik als mit nativem Ultra HD zu erreichen. Die Grafikkarte rendert bei 8K DLSS mit einer Auflösung von 2.560 × 1.440 und das neuronale Netzwerk rechnet die Auflösung dann um den Faktor 9 hoch. Das ist bis dato der mit Abstand größte Faktor, den DLSS hochrechnet – DLSS bei Ultra HD ist nur Faktor 4

Das interessiert mich ja am meisten. Bitte ausgiebig testen, liebe "Tester" :D
Ich frage mich allerdings, ob das Ergebnis dann auch so gut wird, wenn die Renderauflösung im Verhältnis zur Zielauflösung so viel geringer ist.

unl34shed
2020-09-04, 23:50:49
Du weist ja nicht was die gemessen haben (steht ja nicht da, was nicht unbedingt für Fairness spricht)

Da könnte auch eine 2080 (non Super) vs 3080 sein, dann kommen max. 80-90% schon hin (je nach Spiel und Einstellung)

Was ist daran nicht klar? Die haben die 3090 auf 60FPS begrenzt und dadurch den Verbrauch der 3090 auf 120W reduziert, was die 2080Ti bei 250W schaft.

https://pics.computerbase.de/9/4/7/2/3/7-1080.1874f362.png

wolik
2020-09-04, 23:50:59
Reviews interessieren mich nicht die Bohne, ich teste lieber die Karten selber. Und ob 40% oder 70% mehr Leistung egal, 3090 wird so oder so gekauft.
Was viel wichtiger WANN kann man die Vorbestellen. Minutengenauer. Viel Zeit bliebt da nicht übrig.

Troyan
2020-09-04, 23:51:06
Computerbase hat irgendwie nur die Hälfte der Folien:
https://www.techpowerup.com/review/nvidia-geforce-ampere-architecture-board-design-gaming-tech-software/images/rtx-3090-performance.jpg

Dampf
2020-09-04, 23:52:44
Ich hab mir schon gedacht, hmm die DLSS Zuwächse sind doch noch beeindruckender als bei Turing.

Kommt wohl daher, dass TCs jetzt synchron zu RT und ALUs ausgeführt werden können. Das ist eine tolle Neuerung. Durch die höhere Leistung und das synchrone Anwenden kann wohl ein höherer Upscaling-Faktor verwendet werden (8K Ampere)

Erbsenkönig
2020-09-04, 23:55:50
Ich weis nicht wann du das letzte mal einen Sommerurlaub mit Schulpflichtigen Kindern gebucht hast? Wahrscheinlich noch nie. sonst wüsstest du das 2 Wochen (inkl. Flug/Anreise, Hotel, Essen, Trinken, Freizeit), gute 5000€ kosten... drei dann >7000€ ...

Klar. Ich hoffe für zwei Sterne beim Hotel hat es dann aber doch noch gereicht!


Geld Diskussion mit euch beiden hiermit beendet. Dafür verschwende ich nicht meine Zeit.

Hast recht, geh lieber dein Geld zählen.

Raff
2020-09-04, 23:56:31
Computerbase hat irgendwie nur die Hälfte der Folien:
https://www.techpowerup.com/review/nvidia-geforce-ampere-architecture-board-design-gaming-tech-software/images/rtx-3090-performance.jpg

Hier sind übrigens alle: https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/

MfG
Raff

unl34shed
2020-09-04, 23:57:32
Wenn ich grad dabei bin, der angeblich x-fach leisere Kühler ist doch auch totaler Käse. Man nehmen die 20er Karten und Übertakten sie bis zur Kotz grenze. Natürlich ist der FE Kühler nicht dafür ausgelegt und daher laut bzw. die Karte heiß. Wow...

https://pics.computerbase.de/9/4/7/2/3/14-1080.4dc3cafb.png
https://pics.computerbase.de/9/4/7/2/3/15-1080.4bfdf928.png

monstar-x
2020-09-05, 00:05:28
Was ist daran nicht klar? Die haben die 3090 auf 60FPS begrenzt und dadurch den Verbrauch der 3090 auf 120W reduziert, was die 2080Ti bei 250W schaft.

https://pics.computerbase.de/9/4/7/2/3/7-1080.1874f362.png

Das meinte ich nicht, ich dachte er bezieht sich auf ein anderes Bild (mein Fehler) Danke für die Richtigstellung. :wink:

-=Popeye=-
2020-09-05, 00:06:18
Sorry, aber P/W/Fpz ist Ampere ein Fail. Kühler worauf man Spiegeleier drauf kochen/backen kann. Omg, wie hätte man AMD verrissen. Ampere ist für mich nen Fail, da die 3070 unter ner Konsole bleibt...

Abwarten... nV hat gezeigt was möglicherweise geht, jetzt muss AMD liefern. Da technisch gesehen dank der Konsolen und Microsoft quasi Gleichstand herrscht wird sich zeigen wer vorne ist.

Linmoum
2020-09-05, 00:08:00
Das ist ja fast schon Intel-Marketing teilweise. Gerade der Kühler-Vergleich... :freak:

unl34shed
2020-09-05, 00:10:10
Ne, dann wüssten wir jetzt alles über RDNA2 :freak:

Dampf
2020-09-05, 00:11:14
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433157/

Fortnite in 4K läuft nur mit 28 FPS auf einer 3080 :freak:

Das kann doch jetzt nicht wahr sein. Entweder sind die RT Effekte unnötig aufwendig oder einfach schlecht optimiert.

Das Ding läuft selbst auf einer 2080 mit weit über 4K60 ohne RT.

Da ziehen die Effekte in Control weit weniger und bieten auch fast alles...

Richtige Verarsche. Bestimmt sind die Settings auch nur on off und dann mit unnötigen 100% screen resolution der Reflektionen oder sowas...

-=Popeye=-
2020-09-05, 00:19:10
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433157/

Fortnite in 4K läuft nur mit 28 FPS auf einer 3080 :freak:

Das kann doch jetzt nicht wahr sein. Entweder sind die RT Effekte unnötig aufwendig oder einfach schlecht optimiert.

Das Ding läuft selbst auf einer 2080 mit weit über 4K60 ohne RT.

Da ziehen die Effekte in Control weit weniger und bieten auch fast alles...

Hey... da war keine PCIe 4.0 SSD im spiel, also warum machst du so einen Aufriss.

Troyan
2020-09-05, 00:21:30
Unreal Engine. Spiel doch mal Bright Memory. Außerdem gibt es dort alle Effekte bis hin zu RTGI. Das kostet in der Unreal-Engine schon massiv Leistung.

Armaq
2020-09-05, 00:23:40
Ich habe gerade mal meine 2080Ti auf die 360Watt PT gezogen. Im Raytracing Benchmark von 3DMark geht dann sogar die Notfallbelüftung an, die 100% (~3000u/min) reichen nicht mehr aus...

Ich bin bei den FE und Custom-Karten echt auf die Kühlleistung vs. Lautstärke gespannt. 350Watt sind fies, auch wenn die Kühler 2 kg wiegen.

Dampf
2020-09-05, 00:27:50
Unreal Engine. Spiel doch mal Bright Memory. Außerdem gibt es dort alle Effekte bis hin zu RTGI. Das kostet in der Unreal-Engine schon massiv Leistung.

Ja die Unreal Engine zieht schon Leistung für RT, da hast du recht. Trotzdem sollte man für einen so leichten Titel wie Fortnite doch 4K60 erwarten können, selbst mit RTX. Die Karte ist doppelt so schnell wie eine 2080, die das auch schon hinkriegt, doppelte Leistung gehen für all die RT Effekte drauf dann sind wir bei 4K60. Und selbst das ist viel zu hoch (das wäre 100%). Bedenke, sehr gute RT Implementationen mit Schatten, GI, Reflektionen wie in Control kosten 40% Leistung.

Also irgendwas ist da doch faul.

wolik
2020-09-05, 00:32:47
Ob schon gabs?

https://www.overclockers.co.uk/news/-pre-order-dates-announced-for-nvidia-3000-series-gpus-with-pricing-on-the-overclockers-website-550.html

WHEN CAN I PREORDER 3000 SERIES GRAPHICS CARDS?
The overclockers website has loads of different models listed but you won’t be able to place your preorders just yet. Demand is going to be high so make sure to have your F5 key at the ready on the following dates:

• Geforce RTX 3070 can be preordered in October
• Geforce RTX 3080 can be preordered on September 17th at 2 pm (UK)
• Geforce RTX 3090 can be preordered on September 24th at 2 pm (UK)

Troyan
2020-09-05, 00:33:00
Also Control läuft in 4K mit allen Effekten, jedoch ohne RTGI mit ~25FPS auf einer übertakteten 360W 2080TI. Vielleicht einfach auf das Release warten und dann schauen, was soviel Leistung kostet.

Dampf
2020-09-05, 00:41:44
Also Control läuft in 4K mit allen Effekten, jedoch ohne RTGI mit ~25FPS auf einer übertakteten 360W 2080TI. Vielleicht einfach auf das Release warten und dann schauen, was soviel Leistung kostet.

Control ist ja auch erheblich aufwendiger als Fortnite. Erheblich. Es hat allen Grund mit 25 FPS zu laufen.

Das kann man so nicht vergleichen.

28 FPS in Fortnite, das ist lächerlich egal wie man es dreht und wendet. Wie gesagt die 3080 ist deutlich stärker als eine 2080Ti.

Ich sehe es schon kommen dass man wieder sagen wird, RT lohnt sich nicht weil eh jeder nur auf max spielt (und die Benchmarks werden auch auf max sein, mark my words) und wenn es dann 150% FPS frisst, wird RT wieder einen sehr schlechten Ruf bekommen.

Optimiert doch lieber...

Linmoum
2020-09-05, 00:43:31
Eine 3080 in UHD und Raytracing mit weniger als 30fps in einem Spiel wie Fortnite zu präsentieren spricht nicht für diese. Das ist ja fast schon grotesk schlecht.

Sardaukar.nsn
2020-09-05, 00:47:52
Ich habe gerade mal meine 2080Ti auf die 360Watt PT gezogen. Im Raytracing Benchmark von 3DMark geht dann sogar die Notfallbelüftung an, die 100% (~3000u/min) reichen nicht mehr aus...

Ich bin bei den FE und Custom-Karten echt auf die Kühlleistung vs. Lautstärke gespannt. 350Watt sind fies, auch wenn die Kühler 2 kg wiegen.

Sehe ich ganz ähnlich. Im Video von Nvidia Reflex konnte man ja schon die grobe Richtung erkennen. https://i.imgur.com/Z86zLYP.png

Bei einer 3080 mit "nur" 117% Power Target sind wir schon bei 375W Grenze für 2x8pin. Viel Luft für eine 3080ti oder große Performance Sprünge der 3090 mit zusätzlich noch hot-chips auf der Rückseite des PCB sehe ich da nicht.

Immerhin, in der community nimmt man es mit Humor und erfreut sich an der exotischen Monster Hardware.

https://i.imgur.com/3ckCw49.jpg

https://i.imgur.com/zLRegBp.png

Armaq
2020-09-05, 00:49:56
Wir werden den Dialog noch führen, inwieweit sich Raytracing lohnt. Die "Gewinne" sind teilweise nur sehr subtil. Wenn man sich die Beleuchtung anschaut, dann kann man erkenne, dass es besser ist, aber eben nicht weltbewegend. Es sind viele kleine Unterschiede, wo nicht mehr falsch Licht geworfen wird usw. Da Tal der Performance Tränen wird sicherlich noch eine Weile anhalten. Auch Rockstar oder Naughty Dog können da nicht viel rausholen, denke ich.

dildo4u
2020-09-05, 00:50:12
Scheint mir ok es nutzt alle erdenklichen Effekte, nicht nur eins wie BF5.

https://www.nvidia.com/de-de/geforce/news/fortnite-rtx-on-ray-tracing-nvidia-dlss-reflex/

Troyan
2020-09-05, 00:55:55
Hier sind übrigens alle: https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/

MfG
Raff

Top, danke. Port Royal bekommt ein Update. Beste Nachricht des Tages. :D

/edit: Hat nVidia etwas über die Größe des Dies gesagt?

Dampf
2020-09-05, 00:55:58
Scheint mir ok es nutzt alle erdenklichen Effekte, nicht nur eins wie BF5.

https://www.nvidia.com/de-de/geforce/news/fortnite-rtx-on-ray-tracing-nvidia-dlss-reflex/

Control nutzt aber auch alle Effekte und da zieht es nicht so viel. Wir sprechen hier von 100% und mehr, nicht nur von 40%.

Hier wurden die Regler absichtlich ganz hochgedreht und zwar ohne Nutzen! Der Ottonormalverbraucher wird nicht merken ob die Reflektionen in 100 oder 50% der Bildschirmauflösung gerendert werden, aber er wird sehen dass die 3080 nur 28 FPS bringt, und eine 2080 quasi nutzlos ist.

Komplett falsche Prioritäten wenn du mich fragst.

starfish
2020-09-05, 00:56:23
gelöscht

Armaq
2020-09-05, 01:02:56
Scheint mir ok es nutzt alle erdenklichen Effekte, nicht nur eins wie BF5.

https://www.nvidia.com/de-de/geforce/news/fortnite-rtx-on-ray-tracing-nvidia-dlss-reflex/
Und diese Änderungen sind drastisch? Das ist im Spielverlauf eines reinen Online-Shooters total nebensächlich. In einem RPG fällt das auf, aber so doch nicht.

BiZiNiZz
2020-09-05, 01:04:03
Control nutzt aber auch alle Effekte und da zieht es nicht so viel. Wir sprechen hier von 100% und mehr, nicht nur von 40%.

Hier wurden die Regler absichtlich ganz hochgedreht und zwar ohne Nutzen! Der Ottonormalverbraucher wird nicht merken ob die Reflektionen in 100 oder 50% der Bildschirmauflösung gerendert werden, aber er wird sehen dass die 3080 nur 28 FPS bringt, und eine 2080 quasi nutzlos ist.

Komplett falsche Prioritäten wenn du mich fragst.

Aus Prinzip erstmal Jammern, dann mach halt DLSS an oder mach RT aus wenn dich die 28 FPS Stören, dass ignorierst du halt wissentlich in dem Bild.

dildo4u
2020-09-05, 01:05:10
Control nutzt aber auch alle Effekte und da zieht es nicht so viel. Wir sprechen hier von 100% und mehr, nicht nur von 40%.

Hier wurden die Regler absichtlich ganz hochgedreht und zwar ohne Nutzen! Der Ottonormalverbraucher wird nicht merken ob die Reflektionen in 100 oder 50% der Bildschirmauflösung gerendert werden, aber er wird sehen dass die 3080 nur 28 FPS bringt, und eine 2080 quasi nutzlos ist.

Komplett falsche Prioritäten wenn du mich fragst.
Control nutzt kein RT GI, das ist extrem teuer in Metro.
Das ganze wird klar mit DLSS Einsatz entwickelt, und sollte mit einer 2080 ordentlich in 1440p DLSS laufen.

Dampf
2020-09-05, 01:07:14
DLSS ist toll aber

1. nicht jeder möchte DLSS nutzen. Aus welchen abstrusen Gründen auch immer.

2. Wenn selbst das absolute High End Flaggschiff DLSS braucht um spielbare Frameraten zu haben, dann ist das für die Mittelklasse und Low End das absolute Verderben.

Sicherlich wird es (hoffentlich!!) Qualitätseinstellungen abseits von on und off geben. Aber Benchmarks werden auch in der Regel mit max Einstellungen getätigt. Was dann passiert wenn die FPS im Verhältnis zur gewonnen Optik nicht stimmen, sieht man ja an RDR2, es wird als unoptimierter Port beschrieben.

"Für DLSS Einsatz entwickeln" darf nicht passieren und wenn, dann erst wenn richtige Next Gen Spiele kommen und nicht bei Fortnite...

Aber naja, vielleicht wird es ja gute High settings geben die deutlich weniger ziehen aber trotzdem die Effekte anlassen. Mal abwarten.

Armaq
2020-09-05, 01:13:41
DLSS ist toll aber

1. nicht jeder möchte DLSS nutzen. Aus welchen abstrusen Gründen auch immer.

2. Wenn selbst das absolute High End Flaggschiff DLSS braucht um spielbare Frameraten zu haben, dann ist das für die Mittelklasse und Low End das absolute Verderben.

Sicherlich wird es (hoffentlich!!) Qualitätseinstellungen abseits von on und off geben. Aber Benchmarks werden auch in der Regel mit max Einstellungen getätigt. Was dann passiert wenn die FPS im Verhältnis zur gewonnen Optik nicht stimmen, sieht man ja an RDR2, es wird als unoptimierter Port beschrieben.

"Für DLSS Einsatz entwickeln" darf nicht passieren und wenn, dann erst wenn richtige Next Gen Spiele kommen und nicht bei Fortnite...

Aber naja, vielleicht wird es ja gute High settings geben die deutlich weniger ziehen aber trotzdem die Effekte anlassen. Mal abwarten.
Oder aber man geht von Anfang an auf diesen Vorteil "dlss exclusive" und zeigt mal wo der Optik-Hammer hängt. Wird aber kaum jemand machen, befürchte ich.

Troyan
2020-09-05, 01:16:25
Die Unreal Engine ist eben auf dem Level der meisten Leute nicht hochperformant, sondern soll Designer und Spieleentwickler ermöglichen auf einfachem Weg Spiele zu entfernen. Raytracing erleichtert das Leben ungemein.

Bright Memory läuft alleine nur mit Reflektionen und Schatten in 4K bei 30FPS auf einer 360W 2080TI...

dildo4u
2020-09-05, 01:18:25
Ich tippe drauf das die normale Map deutlich schneller läuft, die RTX Demo Map könnte alle Effekte z.b in weiter Ferne darstellen.
Es wird extrem teuer sein z.b die Umgebung in großen Wasser Körpern zu Reflektieren.
Wacht Dogs nutzt RTX z.b nur für Fützen nicht aber für den Fluss.

-=Popeye=-
2020-09-05, 01:18:33
Eine 3080 in UHD und Raytracing mit weniger als 30fps in einem Spiel wie Fortnite zu präsentieren spricht nicht für diese. Das ist ja fast schon grotesk schlecht.

Fortnite ist jetzt Unreal Engine Referenz, echt großes Kino.

Lawmachine79
2020-09-05, 01:22:00
...

Cool vielleicht hat die nächste NVidia-Generation dann einen Motherboardslot auf der Grafikkarte :D.

Digidi
2020-09-05, 01:48:55
Was mich bei Ampere etwas wundert ist, dass sie gleiche eine Karte mit sehr hoher TDP raushauen. Wenn AMD wirklich nicht so gut wäre hätte man doch erst mal eine Karte im Mittelfeld irgendwo plaziert und nach obenhin so viel Luft wie möglich gelassen falls AMD kontert.

Armaq
2020-09-05, 01:56:08
Was mich bei Ampere etwas wundert ist, dass sie gleiche eine Karte mit sehr hoher TDP raushauen. Wenn AMD wirklich nicht so gut wäre hätte man doch erst mal eine Karte im Mittelfeld irgendwo plaziert und nach obenhin so viel Luft wie möglich gelassen falls AMD kontert.
Hm, wenn man früher fertig war und so ziemlich genau weiss, was der Gegner macht, warum dann nicht genau dahin gehen, wo er Gegner bspw. nicht hinkommt? Nvidia hat sich bei der Produktplatzierung in den letzten 8 Jahren deutlich besser angestellt als AMD. Sie waren immer schneller und der Aufrüstdruck war auch immer höher als bei AMD - eigentlich ein Paradoxon.

MiamiNice
2020-09-05, 02:03:48
Ich kann mich prima anhand der letzten Post amüsieren.
Hat hier wer wirklich erwartet mit ner 2080Ti oder 3080 all in gehen zu können?
Like i said - 3090 or die. Und bitte in 2 Jahren neu kaufen.

the way its meant to be played

Jupiter
2020-09-05, 02:08:07
Fortnite mit allen RTX-Effekten sieht aus wie ein CGI-Film. Der Großteil wirkt geerdet und optisch rund. Jetzt bräuchte es noch bessere Texturen und Assets.

Lawmachine79
2020-09-05, 02:32:54
Fortnite mit allen RTX-Effekten sieht aus wie ein CGI-Film. Der Großteil wirkt geerdet und optisch rund. Jetzt bräuchte es noch bessere Texturen und Assets.
Ich habe das Gefühl, das Grafik in den letzten Jahren leider vom Anspruch auf Fotorealismus abrückt. In diese Richtung würde ich mir einen Ruck wünschen. Stattdessen wird die Optik so gestaltet, um bestimmte neue Effekte präsentieren zu können. Anders wäre wünschenswert, nämlich die richtige Effekte für eine fotorealistischere Darstellung zu finden.

x-force
2020-09-05, 04:39:59
Hm, wenn man früher fertig war und so ziemlich genau weiss, was der Gegner macht, warum dann nicht genau dahin gehen, wo er Gegner bspw. nicht hinkommt?

der gaul springt nur so hoch wie er muss.
es ist absolut sinnlos sich damit in hinblick auf zukünftige generationen selbst unter druck zu setzen.

dildo4u
2020-09-05, 06:29:22
Und diese Änderungen sind drastisch? Das ist im Spielverlauf eines reinen Online-Shooters total nebensächlich. In einem RPG fällt das auf, aber so doch nicht.
Epic will hier natürlich in erster Linie auch die Möglichkeiten der Engine präsentieren sie haben ja leider keine andere AAA Serie mehr, Gears of War gehört zu Microsoft und Gears 6 ist paar Jahre weg.

Badesalz
2020-09-05, 06:30:24
Dir ist aber schon klar was TBW bei SSD's bedeutet oder? Total Bytes Written
Die Grafikkarte wird da aber nichts schreiben sondern nur an der CPU vorbei die Daten lesen und sich in den VRAM entpacken.An sich ja. Die GPU tut das wahrscheinlich weniger. Und das System allgemein, hinter Direct I/O? Warum heißt das Ding auch überhaupt Direct I/O? ;)

Fortnite mit allen RTX-Effekten sieht aus wie ein CGI-Film. Der Großteil wirkt geerdet und optisch rund. Jetzt bräuchte es noch bessere Texturen und Assets.Ja das stimmt. Dann sieht es wirklich aus wie CGI. Wie bei König der Löwen. Du meinst damit wie 1994, Lawmachine79 möchte eher wie 2019.

Fortnite ist aber auch ken besseres Beispiel für sowas als MinecraftRTX. Fortnite ist glasklar auf FPS getrimmt. So wie man das zu spielen hat damit man besteht ist irgendeine Form von Grafikpracht fehl am Platz. Wenn man sich etwas gönnen möchte, stellt man das Beiwerk wie Schatten&Co., auf Medium. Mind. 120fps und sehr gute Frametimes sind das Ziel. Sonnenuntergänge eher weniger. Selbst wenn alles auf max. und mit RT und in 4k mit 120fps gehen würde, ist es immernoch uninteressant.