PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

N0rG
2020-08-22, 11:44:30
Eine FE Wakü Edition treibt die Kosten um + 200 Euro.

Einen full cover block (keine AIO) könnten sie ohne weiteres für 100$ bekommen. In großer Stückzahl vermutlich auch günstiger. Abzüglich der 150$ für den Luftkühler könnten sie also sogar günstiger werden... oder zumindest gleich teuer.

Fragt sich nur wie groß der Markt für sowas ist.

unl34shed
2020-08-22, 11:46:37
Hört sich für mich nach einem Wunschtraum von jemanden mit roter Brille an.
Ich vermute BN kann sich gerade mal mit der 3070 anlegen so lange wir bei RTX off bleiben. Mit RTX on nicht mal mit der 3070.

Und die Vermutung beruht auf was? :confused:

Im Raum stehen aktuell für die 3070 46-48SMs vs 72-80CUs für BN. Auf die Rechnung bin ich gespannt.

rentex
2020-08-22, 11:48:01
Für die $155, die der Kühler auf der FE angeblich kosten soll, hätte man wohl auch eine AIO Wakü bekommen.

Dann kannste dir mal überlegen, warum es nicht so gekommen ist?

Thunder99
2020-08-22, 11:48:32
Nur weil AMD die letzen Jahre keine Konkurrenz im absoluten High End war heist das nicht, dass sie es wieder sind.

Wir wissen einfach zu wenig um das seriös abzuschätzen.

Troyan
2020-08-22, 11:50:39
Weil nVidia eine neue Architektur auf einem neuen Prozess bringt, AMD dagegen die selbe Architektur auf dem selben Prozess verwendet.

Das sind Fakten, aber die sind für viele ja irrelevant.

[MK2]Mythos
2020-08-22, 11:52:02
Hört sich für mich nach einem Wunschtraum von jemanden mit roter Brille an.
Ich vermute BN kann sich gerade mal mit der 3070 anlegen so lange wir bei RTX off bleiben. Mit RTX on nicht mal mit der 3070.
Auf die Fanboy Keule habe ich keine Lust. Sämtliche Infos basierend auf RDNA2 und XBOX GPU deuten auf ein Kopf an Kopf Rennen hin. Und am Ende bestätigt das NV jetzt auch mit diesem "Produkt", der 3090. Oder was ist deine Erklärung für den Klotz und den gigantischen Stromverbrauch?

dargo
2020-08-22, 11:53:23
Im Raum stehen aktuell für die 3070 46-48SMs vs 72-80CUs für BN. Auf die Rechnung bin ich gespannt.
Und ich erst... ;D

Thunder99
2020-08-22, 11:56:00
Ich wäre mir da nicht so sicher, dass es die selbe Architektur ist und "nur" RT dazugekommen ist. Prozess ist zwar ähnlich aber nicht gleich.

Fakten sehen wir in paar Wochen/Monate. Es gibt dann sicher den einen oder anderen Aha Effekt. Und wir haben immernoch 8nm vs. 7nm.

Dural
2020-08-22, 11:57:40
Weil nVidia eine neue Architektur auf einem neuen Prozess bringt, AMD dagegen die selbe Architektur auf dem selben Prozess verwendet.

Das sind Fakten, aber die sind für viele ja irrelevant.


Hat eh keinen sinn...


NV schaut eh nicht auf amd, sondern auf intel die nächstes jahr kommen.

Fragman
2020-08-22, 11:59:50
Welchen Prozess wird man brauchen, um die Leistung der 3090 in einer 500 euro Karte zu sehen beim Nachfolger?
Die nächsten Karten kommen dann in 2 jahren in 5nm. Selbst das wird ja dann knapp bzw unmöglich. Dafür werden die Karten, wie schon Turing, recht wertstabil bleiben.

So langsam kann man wohl weiter gehen und mit der Chipletdiskussion starten (Also sobald die 3090 im Rechner steckt ;D).

dargo
2020-08-22, 12:01:35
NV schaut eh nicht auf amd, sondern auf intel die nächstes jahr kommen.
Will Nvidia plötzlich zum Underdog werden. ;D

Sunrise
2020-08-22, 12:03:07
Mythos;12398879']Sieht für mich immer mehr danach aus dass NV mitbekommen hat, wie effizient/skalierbar und damit schnell RDNA2 wird. Das Ergebnis aus NVs Leistungsprognose sehen wir jetzt in Form der 3090. Alles, um die Krone zu behalten.
Normalerweise setzen die IHVs sich schon bei der Anfangsplanung ein realistisches Leistungsziel (siehe auch MS XSX, min. verdoppelte Leistung) und schauen dann, was sie tun müssen, um das zu erreichen. Der GDDR6X muss schon sehr lange in Planung gewesen sein, auch wegen dem 384bit SI. Einziges Fragezeichen wäre der Semi bzw. Prozess.

Es kann daher schon sein, dass ausgehend von Turing/TU102 man mit etwa 300W TDP default geplant hatte (und nicht drüber), 8nm vs. N7 aber eben 10-15% weniger effizient ist. Ampere soll aber rein von der Architektur sehr effizient sein (21Gbps Speicher ist aber natürlich auch nicht umsonst).

Dennoch, NV plant sicher nicht nur +50% ein, bei dem gesamten Aufwand. Auch AMD sollte mit min. 75-100% Mehrleistung bei Big Navi ggü. N10 geplant haben, zumindest so, dass immer 50-75% konstant mehr Leistung da ist. Da muss AMD natürlich auch mit der TDP hochgehen.

Sobald wir da nicht ein paar Eckdaten zur Leistung haben (und das wird noch dauern, wir wollen ja nicht nur die DLSS-Leistung wissen), kann man diesen Aufwand natürlich wenig relativieren, aber ich mache mir da keine Sorgen.

r3ptil3
2020-08-22, 12:05:52
NV schaut eh nicht auf amd, sondern auf intel die nächstes jahr kommen.

:confused:

Auf Intel? Wenn die auf das Niveau einer RTX 3060 kommen wird das bestimmt interessant, aber das braucht ein paar Jahre bis da auch die Treiber und die ganze Basis konkurrenzfähig sind.

Mayk-Freak
2020-08-22, 12:06:51
Sehe schon die ersten Gamer die von 3090 Ampere verkohlt wurden. :biggrin:

https://www.youtube.com/watch?v=QbcXBZU_U98

Troyan
2020-08-22, 12:07:01
Ich wäre mir da nicht so sicher, dass es die selbe Architektur ist und "nur" RT dazugekommen ist. Prozess ist zwar ähnlich aber nicht gleich.

Fakten sehen wir in paar Wochen/Monate. Es gibt dann sicher den einen oder anderen Aha Effekt. Und wir haben immernoch 8nm vs. 7nm.

Es sind zwei Dinge, die eben ignoriert werden:
nVidia shrinkt von 16nm auf 8nm. Das alleine bringt Effizienz und annährend doppelte Packdichte.
Und nVidia hat keine Ahnung, was AMD macht. Wer konnte schon ahnen, dass Navi so ein Fehlschlag auf 7nm wird? Mir ist keine andere Firma bekannt, deren 7nm Produkte ineffizienter sind als ein Konkurrenzprodukt auf 16nm.

A100 hat 66 Millionen Transistors pro mm^2. Über 50% mehr als AMD. Und weißt du warum? Weil der Prozess es ermöglicht. Ergo gehst du davon aus, dass AMD ebenfalls in der Nähe legen wird. nVidia's riesiger Vorteil ist nun, dass der Packdichtennachteil von Samsungs 8nm LPP Prozess keine Relevanz hat.

Hätte das jemand vor zwei Jahren geschrieben, dass hätte niemand geglaubt.

Dural
2020-08-22, 12:07:56
Will Nvidia plötzlich zum Underdog werden. ;D

Schon lustig, lachst du immer noch wenn AMD die gaming karten einstellen muss weil der pc gaming markt für drei anbieter nicht gross genug ist?

Thunder99
2020-08-22, 12:11:30
Sie sind von 16nm auf 12nm gegangen bei Turing. Jetzt auf 8nm. Also wer es 12nm vs. 7nm und ja, im Verhältnis hat AMD mit dem Vertigungsvorteil nicht gut ausgesehen.
Wir werden es sehen wie es diesmal wird

rentex
2020-08-22, 12:15:53
Sehe schon die ersten Gamer die von 3090 Ampere verkohlt wurden. :biggrin:

https://www.youtube.com/watch?v=QbcXBZU_U98

Deswegen Ampere, da ist der Name, Programm:biggrin:

RLZ
2020-08-22, 12:15:57
Die Reaktionen hier wirken schon etwas schizophren. Über Jahre wird gemeckert, dass die größten Karten noch zu langsam sind.
Nun macht Nvidia eine neue Kategorie obendrüber auf (3090) und schon wird drüber gemeckert, dass die zu groß ist, zuviel Strom braucht und zu teuer ist. :freak:

Die Karte ist absolut nichts für mich mich, aber dass Nvidia das macht ist schon irgendwie geil ;D

Troyan
2020-08-22, 12:16:11
12nm Prozess existiert nicht. Das ist ein Marketingname. Anpassungen wird nVidia auch mit Samsung machen. Das gleicht sich in dem Fall aus.

Thunder99
2020-08-22, 12:17:32
Dann gibt es auch kein 8nm, ist ein 10nm Prozess mit Anpassungen ;)

dargo
2020-08-22, 12:20:23
Es sind zwei Dinge, die eben ignoriert werden:
nVidia shrinkt von 16nm auf 8nm. Das alleine bringt Effizienz und annährend doppelte Packdichte.
Und nVidia hat keine Ahnung, was AMD macht. Wer konnte schon ahnen, dass Navi so ein Fehlschlag auf 7nm wird? Mir ist keine andere Firma bekannt, deren 7nm Produkte ineffizienter sind als ein Konkurrenzprodukt auf 16nm.

Wie lange willst du dich hier eigentlich weiter zum Clown machen?

-C2NAxes4cM

Es ist unfassbar wie man immer wieder den selben bullshit im Netz verbreiten kann. :facepalm:

Troyan
2020-08-22, 12:22:14
Nein, der 8nm Prozess hat physische Anpassungen erhalten: https://semiwiki.com/semiconductor-manufacturers/samsung-foundry/7442-samsung-10nm-8nm-and-7nm-at-vlsit/

Wie lange willst du dich hier eigentlich weiter zum Clown machen?

https://youtu.be/-C2NAxes4cM

Es ist unfassbar wie man immer wieder den selben bullshit im Netz verbreiten kann. :facepalm:

Toll. Hier Flight Simulator: https://www.computerbase.de/2020-08/flight-simulator-benchmark-test/2/#diagramm-flight-simulator-3840-2160

BlacKi
2020-08-22, 12:25:13
Und die Vermutung beruht auf was? :confused:

Im Raum stehen aktuell für die 3070 46-48SMs vs 72-80CUs für BN. Auf die Rechnung bin ich gespannt.
tf32

"A100 stellt eine neue Precision, Tensor Float 32 (TF32) bereit, die genau wie FP32 funktioniert und gleichzeitig die KI um das bis zu 20-Fache beschleunigt, ohne dass Codeänderungen erforderlich sind."
https://www.nvidia.com/de-de/data-center/tensor-cores/

Mythos;12398889']Dann denkst du, dass die Customs kleiner als die FE werden? I doubt it! :D
es wird auch 2slot 267mm karten geben. ich glaub auch das die mit weniger als 350w kommen werden.

Mythos;12398911'] Oder was ist deine Erklärung für den Klotz und den gigantischen Stromverbrauch?
4k60/120fpsfps RT performance.

die leute waren angepisst, das die RT leistung selbst von der top end karte mangelhaft war.

unl34shed
2020-08-22, 12:27:01
Es sind zwei Dinge, die eben ignoriert werden:
nVidia shrinkt von 16nm auf 8nm. Das alleine bringt Effizienz und annährend doppelte Packdichte.
Und nVidia hat keine Ahnung, was AMD macht. Wer konnte schon ahnen, dass Navi so ein Fehlschlag auf 7nm wird? Mir ist keine andere Firma bekannt, deren 7nm Produkte ineffizienter sind als ein Konkurrenzprodukt auf 16nm.

A100 hat 66 Millionen Transistors pro mm^2. Über 50% mehr als AMD. Und weißt du warum? Weil der Prozess es ermöglicht. Ergo gehst du davon aus, dass AMD ebenfalls in der Nähe legen wird. nVidia's riesiger Vorteil ist nun, dass der Packdichtennachteil von Samsungs 8nm LPP Prozess keine Relevanz hat.

Hätte das jemand vor zwei Jahren geschrieben, dass hätte niemand geglaubt.

Alternative Fakten sind auch Fakten :rolleyes:

Die Packdichte wird mit Glück 40M/mm² betragen, das sind 60% mehr als die 25M/mm² zur Zeit. Ja fast doppelt so viel.

Auch sind es 12nm custom Nvidia zu 8nm oder 16nm zu 10nm, wenn dann bei beiden die gleiche Basis nehmen :P

Für den Rest ist mir meine Zeit zu schade, aber das wirst du auch diese mal gekonnt ignorieren...

Schnoesel
2020-08-22, 12:28:15
Gefällt mir nicht die Entwicklung obwohl es mir egal sein dürfte

1000 Watt NT --> check
Custom Wakü --> check
großes Gehäuse --> check

Das Ding da hässlich wie die Nacht finster. Hoffe die Full Cover werden wenigstens ansehnlich.

AMD könnte instant wieder eine alte Werbung rauskramen

2QkyfGJgcwQ

dargo
2020-08-22, 12:29:53
Toll. Hier Flight Simulator: https://www.computerbase.de/2020-08/flight-simulator-benchmark-test/2/#diagramm-flight-simulator-3840-2160
Dass die DX11-Rotze nicht optimal auf Navi noch läuft verwundert mich wenig. Genieße noch die letzten Atemzüge von DX11. Mal ganz davon ab... die Frameraten in 4k sind eh schon lange unspielbar für mich. Die Frameraten in 1080p Ultra schon eher (avgs. die 1% low sind ne Katastrophe). Und da ist die 5700XT sogar gleich schnell wie eine 2080TI. ;D Aus bekannten Gründen halt in der verhunzten Engine. Selbst Nvidia liegt dort trotz DX11 gnadenlos im CPU-Limit.


4k60/120fpsfps RT performance.

Träumer. :tongue:

Troyan
2020-08-22, 12:32:05
Alternative Fakten sind auch Fakten :rolleyes:

Die Packdichte wird mit Glück 40M/mm² betragen, das sind 60% mehr als die 25M/mm² zur Zeit. Ja fast doppelt so viel.

Interessant. Deine Zahlen stammen woher? Qualcomm hat mit SD845 55M/mm^2 erreicht, eine Steigerung von 1,83x gegenüber SD820. GP107 liegt bei 25M/mm^2 auf 14nm. Na, was kommt raus, wenn man die selbe Steigerung ansetzt? :freak:


Auch sind es 12nm custom Nvidia zu 8nm oder 16nm zu 10nm, wenn dann bei beiden die gleiche Basis nehmen :P

Nun, wie unterscheidet sich denn der "12nmFFN" vom 16FF Prozess. Du musst ja hier Daten haben, da selbst TSMC diese nicht veröffentlicht hat.

dargo
2020-08-22, 12:42:17
Hätten wir bloß schon November. Das werden noch sehr anstrengende Wochen mit den Fanboys hier. ;(

stinki
2020-08-22, 12:42:19
Bei XBoxsX ist die Packdichte in N7e 42,45 M/mm².
Das ist weniger als bei A100, aber da vergleicht man Äpfel mit Birnen (large GPGPU vs. SOC).
Und die GPU des SOCs taktet ca. 30% höher.
Es ist halt immer ein Trade-off zwischen Packdichte und Taktfrequenz.

[MK2]Mythos
2020-08-22, 12:46:26
Ich bin gespannt was die üblichen Kandidaten hier in ein paar Wochen sagen, wenn offiziell ist, dass sie mit ihren prophezeiten Absolutismen komplett daneben lagen. :freak:

Zergra
2020-08-22, 12:53:30
Mythos;12398974']Ich bin gespannt was die üblichen Kandidaten hier in ein paar Wochen sagen, wenn offiziell ist, dass sie mit ihren prophezeiten Absolutismen komplett daneben lagen. :freak:


Als wenn sich da beide Seiten irgendwas geben...

Troyan
2020-08-22, 12:54:02
TSMC 7nm Prozess ist 50% besser als Samsungs 7/8mn Prozess. Qualcomm ging von 55M/mm^2 auf 90M/mm^2 beim Wechsel von Samsung auf TSMC.

unl34shed
2020-08-22, 12:54:11
tf32

"A100 stellt eine neue Precision, Tensor Float 32 (TF32) bereit, die genau wie FP32 funktioniert und gleichzeitig die KI um das bis zu 20-Fache beschleunigt, ohne dass Codeänderungen erforderlich sind."
https://www.nvidia.com/de-de/data-center/tensor-cores/

TF32 != FP32 auch wenn Nvidia da irgendwie was anderes behauptet... :confused:

Interessant. Deine Zahlen stammen woher? Qualcomm hat mit SD845 55M/mm^2 erreicht, eine Steigerung von 1,83x gegenüber SD820. GP107 liegt bei 25M/mm^2 auf 14nm. Na, was kommt raus, wenn man die selbe Steigerung ansetzt? :freak:

Nicht schon wieder... Das ist komplett irrelevant, du vergleichst mal wieder Äpfel mit Birnen...

Nun, wie unterscheidet sich denn der "12nmFFN" vom 16FF Prozess. Du musst ja hier Daten haben, da selbst TSMC diese nicht veröffentlicht hat.


Nein, habe ich nicht, aber ohne Grund wird er nicht 12nmFFN genannt. Hast du Daten, die belegen, dass es sich einfach nur um den gleichen 16nm Prozess handelt? Falls nein, dann nenne den Prozess in Zukunft doch bitte beim richtigen Namen (12nm oder 12FFN).

Hauwech
2020-08-22, 12:55:25
Hätten wir bloß schon November. Das werden noch sehr anstrengende Wochen mit den Fanboys hier. ;(

Musst du ja nicht lesen.

Neurosphere
2020-08-22, 12:56:45
Nein, der 8nm Prozess hat physische Anpassungen erhalten: https://semiwiki.com/semiconductor-manufacturers/samsung-foundry/7442-samsung-10nm-8nm-and-7nm-at-vlsit/


Trotzdem hat der 7nm Prozess von TSMC eine 50% höhere Transistordichte als der 8nm von Samsung. Das kann man auch nicht wegdiskutieren.

Geächteter
2020-08-22, 12:58:34
Ich bleibe dabei, es ist irgendwas schief gelaufen im Design oder Planung. Wenn der RAM überproportional mehr Energie benötigt als geplant und der Chip auch, da das Energie-Ziel nicht erreicht worden ist mussten sie nun mit der Brechstange dran.

Da alles nach Zeitpllan läuft, war nv von Anfang an klar, wohin die Anforderungen an PCB, VRM und Kühler hingehen. Wenn die Siliziumschnitzer bei Intel, Samsung, GF oder TSMC bald nicht ne Schippe drauflegen, ist eh bald Sense mit merkbaren Leistungssteigerungen für den Heim-PC.

Troyan
2020-08-22, 13:00:29
Trotzdem hat der 7nm Prozess von TSMC eine 50% höhere Transistordichte als der 8nm von Samsung. Das kann man auch nicht wegdiskutieren.

Schreibe ich doch. :confused:
Aber der ist irrelevant, wenn AMD eben bei <45M/mm^2 bleibt.

unl34shed
2020-08-22, 13:03:19
Zum glück skaliert in den Chips auch alles so gut wie eine SRAM Zelle, das man mit diesen Maximalen Packdichten auch irgendwie rechnen kann....

w0mbat
2020-08-22, 13:06:53
Also in mein ITX Gehäude passt die sicher nicht rein o.O

Ex3cut3r
2020-08-22, 13:07:53
Ich liebäugele eher mit einer 3070 mit 16GB von einer 2080 ausgehend. Eine 3080 20GB wäre wohl perfekt, wird mir aber diesmal zu teuer. Außerdem hoffe ich dass die 3070 noch "normal" Strom verbraucht. 200-250W finde ich ok. Alles dadrüber halte ich für Non Sense.

Als Gehäuse habe ich ein Lian Li o11 Dyanmic, und ein 750W NT von Corsair und zwar das RM750x 2018 (V2) sollte alles passen. =D

[MK2]Mythos
2020-08-22, 13:23:27
Da sich solche Grafikkarten ja offenkundig an die Freaks richten, wäre ich für den Verkauf der reinen Karten ohne bzw optional mit verschiedenen oder gar keinem Kühlkörper. Das wäre doch mal eine echte Revolution und so könnte man von Anfang an mit einem PCB und dem dafür passenden (Wasser)Kühler liebäugeln. :)

ShinyMcShine
2020-08-22, 13:31:50
Ich liebäugele eher mit einer 3070 mit 16GB
+1
You and me both, brother... :wink:

Linmoum
2020-08-22, 13:37:13
Was will man von einer 2080 auf eine 3070 wechseln, die nach aktueller Gerüchtelage nur 46/48SM haben soll? Das sieht wenig sinnvoll aus.

dargo
2020-08-22, 13:59:08
Außerdem hoffe ich dass die 3070 noch "normal" Strom verbraucht. 200-250W finde ich ok. Alles dadrüber halte ich für Non Sense.

Ich sehe das genau so wie du, bezogen auf Luftkühlung. Deshalb will ich mich auch längerfristig von Highend bzw. Enthusiast Hardware verabschieden. Das nimmt einfach irrsinnige Dimensionen. Riesen Ziegelsteine mit schlechten Preis-/Leistungsverhältnis.

Ex3cut3r
2020-08-22, 14:01:14
+1
You and me both, brother... :wink:

:biggrin: :up:

Ich sehe das genau so wie du, bezogen auf Luftkühlung. Deshalb will ich mich auch längerfristig von Highend bzw. Enthusiast Hardware verabschieden. Das nimmt einfach irrsinnige Dimensionen. Riesen Ziegelsteine mit schlechten Preis-/Leistungsverhältnis.

Jap, kann ich nur zustimmen, dachte eigentlich solche Zeiten hätten wir Kepler und Navi bei AMD längst hinter uns. Und auf einmal fangen wir wieder von vorne an? Also diese Gen scheint stand jetzt scheint bei beiden Herstellern ein Rohrkrepierer zu sein, sodass die Brechstange rausgeholt werden muss, damit man wenigstens 30% sieht im Vergleich zu der Vorgänger Gen. Wobei AMD sicherlich "normale" Preise fahren wird. Nvidia scheint mal wieder wahnsinnig zu sein.

Was will man von einer 2080 auf eine 3070 wechseln, die nach aktueller Gerüchtelage nur 46/48SM haben soll? Das sieht wenig sinnvoll aus.
Da muss ich beim Release mal schauen, wie viel % ich gewinne. Der VRAM (16GB) sehe ich aber für die nächsten 1-2 Jahre als essentiell an, wenn man nicht massiv Details reduzieren will. @ 3440x1440. Eine 3080 wäre sicherlich sinnvoller, der Preis ist mir aber zu hoch.

dargo
2020-08-22, 14:26:01
Ich weiß jetzt nicht wie du auf beide Hersteller kommst? Ein Big Navi @RDNA 2 mit 80 CUs soll nur 30% schneller sein als RDNA 1 mit 40 CUs? Erscheint mir nicht wirklich realistisch. ;) Afaik soll die GPU in der neuen Xbox 150W bei 52 CUs verbrauchen. Das könnte eventuell noch was werden mit 300W für die gesamte Karte bei 80 CUs. Wäre mir trotzdem zu viel. Aber ein Salvage mit 225-250W könnte schon interessanter werden. :) Dann noch bissel UV und schon hast du deine ~200W Karte. Ich befürchte nur, dass AMD bei den Desktop Karten die Frequenzen gegenüber Xbox einiges anhebt wodurch die Effizienz stärker leiden wird.

RLZ
2020-08-22, 14:32:05
Jap, kann ich nur zustimmen, dachte eigentlich solche Zeiten hätten wir Kepler und Navi bei AMD längst hinter uns. Und auf einmal fangen wir wieder von vorne an?
Ein massiver Vorteil vom PC gegenüber kompakteren Bauformen ist, dass man VIEL mehr Leistung verbrauchen darf. Warum sollte man das irgendwann in der Zukunft nicht mehr ausnutzen?

dargo
2020-08-22, 14:34:18
Ein massiver Vorteil vom PC gegenüber kompakteren Bauformen ist, dass man VIEL mehr Leistung verbrauchen darf. Warum sollte man das irgendwann in der Zukunft nicht mehr ausnutzen?
Weil Staubsauger im Rechner nur Asiaten mögen. Gegenfrage... warum hat Nvidia Turing nicht mit 350-400W rausgebracht um sich stärker gegenüber Pascal abzusetzen? Der PC kann es doch. :cool:

BlacKi
2020-08-22, 14:38:17
was hat eine gute kühllösung mit einem staubsauger zu tun? die FE karten sind keine referenzkarten mehr, sie sollen in konkurenz gehen mit den anderen top custom lösungen. die FE soll weg vom schlechten image. eine premium kühllösung erhalten.

scheiße, konnts mir wieder nicht verkneifen die trolle zu füttern:freak:

Linmoum
2020-08-22, 14:40:24
Ob die Kühllösung gut ist, wird sich zeigen müssen. Ich halte Staubsauger allerdings nicht für abwegig, was die Lautstärke angeht.

RLZ
2020-08-22, 14:41:52
Weil Staubsauger im Rechner nur Asiaten mögen. Gegenfrage... warum hat Nvidia Turing nicht mit 350-400W rausgebracht um sich stärker gegenüber Pascal abzusetzen? Der PC kann es doch. :cool:
Ach. Auch die kann man problemlos leise bekommen. Früher hat man für 150W Systemleistung eine Wasserkühlung verbaut, weil es sonst nicht leise kühlbar war. Außerdem legt längst nicht jeder wert auf ein Silentsystem.

warum hat Nvidia Turing nicht mit 350-400W rausgebracht um sich stärker gegenüber Pascal abzusetzen?
Fehlende Konkurrenz? Ich fand das bei Release von Turing schade.

Thunder99
2020-08-22, 14:42:17
Oder es wird eine Stützhilfe mitgeliefert, damit sich das PCB nicht durchbiegt bei dem Kühler Gewicht :freak:

BlacKi
2020-08-22, 14:42:46
wenn ich eins gelernt habe, 2 große lüfter sind besser als 3 kleine. 1080ti250w icx black edition vs 2070s gigabyte OC.

hq-hq
2020-08-22, 14:53:23
Oder es wird eine Stützhilfe mitgeliefert, damit sich das PCB nicht durchbiegt bei dem Kühler Gewicht :freak:

glaube das wird der robuste Kühler verhindern, es soll aber ein Päckchen PCIe Slot-Zement dabeiliegen

Thunder99
2020-08-22, 14:57:56
Made my day ;D

Megamember
2020-08-22, 15:09:49
Als ob der PCie Slot jemals irgendwelche Probleme machen würde....

rentex
2020-08-22, 15:13:23
Ach. Auch die kann man problemlos leise bekommen. Früher hat man für 150W Systemleistung eine Wasserkühlung verbaut, weil es sonst nicht leise kühlbar war. Außerdem legt längst nicht jeder wert auf ein Silentsystem.


Fehlende Konkurrenz? Ich fand das bei Release von Turing schade.


Jupp, Silent ist überbewertet...einen Sportwagen soll man ja ebenfalls "hören" :wink::biggrin:

Cubitus
2020-08-22, 15:14:26
was hat eine gute kühllösung mit einem staubsauger zu tun? die FE karten sind keine referenzkarten mehr, sie sollen in konkurenz gehen mit den anderen top custom lösungen. die FE soll weg vom schlechten image. eine premium kühllösung erhalten.

scheiße, konnts mir wieder nicht verkneifen die trolle zu füttern:freak:

Ich fand die 2080Ti Fe jetzt nicht unbedingt schlecht.. Da gab es weit schlechtere Drittdesigns...

Und der Begriff Referenz bedeutet doch nichts schlechtes :confused:
Das heißt nur das Nvidia mit diesem Platinendesign, diese Art von Kühlung einsetzt um in ihren Augen den optimalen Sweespot zu erreichen.. Ich glaube kaum, dass es großen Spielraum bei den Custom Karten geben wird.. Das werden alles ähnlich große Prügel werden...

Leonidas
2020-08-22, 15:29:10
In jeden Fall reicht es für Popcorn ...

https://pbs.twimg.com/media/EgBiN66XYAIrHzW.jpg

mironicus
2020-08-22, 15:30:08
Vor meinem geistigen Auge habe ich gerade Preise gesehen bei Alternate für eine Asus 3090 Strix... 1799 Euro! :D :D

wolik
2020-08-22, 15:47:05
Was will man von einer 2080 auf eine 3070 wechseln, die nach aktueller Gerüchtelage nur 46/48SM haben soll? Das sieht wenig sinnvoll aus.
HDMI 2.1?

Also in mein ITX Gehäude passt die sicher nicht rein o.O
:mad: und das noch bei Threadstarter.

BlacKi
2020-08-22, 15:48:07
Ich fand die 2080Ti Fe jetzt nicht unbedingt schlecht.. Da gab es weit schlechtere Drittdesigns...

Und der Begriff Referenz bedeutet doch nichts schlechtes :confused:
Das heißt nur das Nvidia mit diesem Platinendesign, diese Art von Kühlung einsetzt um in ihren Augen den optimalen Sweespot zu erreichen.. Ich glaube kaum, dass es großen Spielraum bei den Custom Karten geben wird.. Das werden alles ähnlich große Prügel werden...
referenz ist das gegenteil von premium. wenn mir da zustimmst, macht dein ganzer post keinen sinn in bezug auf meinen post.:redface:

Cubitus
2020-08-22, 15:56:05
referenz ist das gegenteil von premium. wenn mir da zustimmst, macht dein ganzer post keinen sinn in bezug auf meinen post.:redface:

Nein Referenz bedeutet einfach nur es ist eine Vorlage..
Ob es Nvidia Partner schlechter oder besser machen sei mal dahingestellt.

Es gab auch viele schlechtere Interpretationen des ursprünglichen FE-Designs.
Mit derselben Platine, mit zwei Axiallüftern (quasi die gleiche Bauart wie der 2080TI Kühler) die hatten zwar BlingBling,
nur die Kühler waren lauter und zudem schlechter verarbeitet.

Deshalb war ja auch schon die 2080TI FE ein Premiumprodukt.
Nur eben im Referenz-Design :wink:

Zudem ist der Produkt-Support bei Nvidia direkt ebenfalls premium, aber das darf man ja auch bei dem Preis erwarten..

MiamiNice
2020-08-22, 16:22:33
Und die Vermutung beruht auf was? :confused:

Nennen wir es Bauchgefühl.

—-

Find es traurig wie sich im Netz alle lustig machen. Endlich mal eine kompromisslose Lösung mit 24Gb ultra schnellen VRam. Quasi ein Traum an GPU.
Was mit euch los?
Das muss mal jemand verstehen.

Thunder99
2020-08-22, 16:26:07
Zu welchem Preis...

[MK2]Mythos
2020-08-22, 16:28:33
Nennen wir es Bauchgefühl.

—-

Find es traurig wie sich im Netz alle lustig machen. Endlich mal eine kompromisslose Lösung mit 24Gb ultra schnellen VRam. Quasi ein Traum an GPU.
Was mit euch los?
Das muss mal jemand verstehen.
Grafikkarten oder CPUs, die bis an die Kotzgrenze und darüber hinaus betrieben wurden, wurden schon immer "verrissen", egal von welchem IHV. Und so wie es aussieht, reiht sich die RTX 3090 genau dort ein. Plötzlich wird es von ein paar - ich nenne sie mal "Fans" - gefeiert, da frag ich mich auch, was ist plötzlich mit euch los?

unl34shed
2020-08-22, 16:30:26
Vor allem sind es die Fans, die AMD Karten genau deswegen schlecht reden :freak:

Adam D.
2020-08-22, 16:31:40
Mythos;12399214']Grafikkarten oder CPUs, die bis an die Kotzgrenze und darüber hinaus betrieben wurden, wurden schon immer "verrissen", egal von welchem IHV. Und so wie es aussieht, reiht sich die RTX 3090 genau dort ein. Plötzlich wird es von ein paar - ich nenne sie mal "Fans" - gefeiert, da frag ich mich auch, was ist plötzlich mit euch los?
Das stimmt so nicht, da sie immer nur verrissen wurden, wenn die Kotzgrenze nicht in Relation zur Performance gestimmt hat. Wenn die 3090 liefert, wird es der Zielgruppe absolut scheiß egal sein, ob das Ding 350 oder 400W frisst. Welcher Enthusiast kauft sich für 1500€ ne Grafikkarte und setzt sie nicht unter Wasser?

Bei der 3080 und insbesondere bei der 3070 muss das Verhältnis stimmen. Bei der 3090 können sie raushauen so hart es geht.

Grendizer
2020-08-22, 16:33:34
Mythos;12399214']Grafikkarten oder CPUs, die bis an die Kotzgrenze und darüber hinaus betrieben wurden, wurden schon immer "verrissen", egal von welchem IHV. Und so wie es aussieht, reiht sich die RTX 3090 genau dort ein. Plötzlich wird es von ein paar - ich nenne sie mal "Fans" - gefeiert, da frag ich mich auch, was ist plötzlich mit euch los?

Sie wurden verrissen, wenn sie damit auf dem Niveau der Konkurrenz landen. Wenn sie aber deutlich vor der Konkurrenz landen, dann wird das akzeptiert.

Linmoum
2020-08-22, 16:33:35
Find es traurig wie sich im Netz alle lustig machen. Endlich mal eine kompromisslose Lösung mit 24Gb ultra schnellen VRam. Quasi ein Traum an GPU.
Was mit euch los?
Das muss mal jemand verstehen.Produkte, die (standardmäßig) sichtbar über die Kotzgrenze hinaus betrieben werden (müssen), wurden noch nie gefeiert. Warum auch, ist schlicht absurd sowas auf den Markt zu bringen. Ob das jetzt an der GPU oder am Speicher liegt, ist ja völlig egal. 300W++ sind 300W++.

Aber immerhin kann man wieder alte Memes ausgraben.
https://i.gyazo.com/b9fbb46975c9d4e6b6a2055242d34948.jpg

Ich hab kein Problem damit, 400W durchzujagen bei entsprechender Performance. Aber wenn man gezwungen wird, sowas schon default auf den Markt zu werfen - gerade NV, die in den letzten Jahren bzw. den letzten Architekturen für sparsame GPUs bekannt waren - dann läuft (oder lief) da was falsch. Geiz ist vermutlich nicht immer geil.

BlacKi
2020-08-22, 16:33:49
Nein Referenz bedeutet einfach nur es ist eine Vorlage..
Ob es Nvidia Partner schlechter oder besser machen sei mal dahingestellt.

Es gab auch viele schlechtere Interpretationen des ursprünglichen FE-Designs.
Mit derselben Platine, mit zwei Axiallüftern (quasi die gleiche Bauart wie der 2080TI Kühler) die hatten zwar BlingBling,
nur die Kühler waren lauter und zudem schlechter verarbeitet.

Deshalb war ja auch schon die 2080TI FE ein Premiumprodukt.
Nur eben im Referenz-Design :wink:

Zudem ist der Produkt-Support bei Nvidia direkt ebenfalls premium, aber das darf man ja auch bei dem Preis erwarten..
die FE bei turing ist kein referenzdesign. sieht man auch schön am PT, das vom referenzdesign abweicht. eine referenzkarte wird auf einen blower hin designed, sobald man davon abweicht ist es keine referenzkarte mehr.

genauso wie die 3090 FE kein referenzdesign hat, nur fällt das dort wesentlich stärker auf, weil man direkt für die FE ein eigenes pcb entwickelt hat, das kein anderer hersteller so verbaut.

MiamiNice
2020-08-22, 16:40:41
Nehmt es mit nicht übel aber wenn euch 400 Watt ankotzen seid ihr imo im verkehrtem Forum. Power ist Power bleibt Power. Ist die Karte zu hart seid ihr zu schwach. Normal müssten hier Posts kommen wie „Wtf mein NT/Gehäuse what ever ist zu klein/schwach“, ich ziehe los und kauf was neues, damit es zum Release passt.
Vielleicht kauft ihr eure Kisten demnächst bei Feinkost Albrecht, wenn ihr die Faszination für krasse HW verloren habt -.-

Sorry, aber just my 2 cents.

dargo
2020-08-22, 16:43:13
In jeden Fall reicht es für Popcorn ...

https://pbs.twimg.com/media/EgBiN66XYAIrHzW.jpg
;D ;D ;D

Vor meinem geistigen Auge habe ich gerade Preise gesehen bei Alternate für eine Asus 3090 Strix... 1799 Euro! :D :D
Schnapper. ;)


Fehlende Konkurrenz? Ich fand das bei Release von Turing schade.
Ist kein Argument. Nach manchen Aussagen hier soll ja Big Navi nur die 3070 erreichen. :freak:

rentex
2020-08-22, 16:48:27
In jeden Fall reicht es für Popcorn ...

https://pbs.twimg.com/media/EgBiN66XYAIrHzW.jpg

Epic;D

BlacKi
2020-08-22, 16:49:36
Nehmt es mit nicht übel aber wenn euch 400 Watt ankotzen seid ihr imo im verkehrtem Forum. Power ist Power bleibt Power. Ist die Karte zu hart seid ihr zu schwach. Normal müssten hier Posts kommen wie „Wtf mein NT/Gehäuse what ever ist zu klein/schwach“, ich ziehe los und kauf was neues, damit es zum Release passt.
Vielleicht kauft ihr eure Kisten demnächst bei Feinkost Albrecht, wenn ihr die Faszination für krasse HW verloren habt -.-

Sorry, aber just my 2 cents.
ach warst du das im navi fred, der sich über die 400w von navi lustig gemacht hat so wie unleashed sagt?:freak:

ich halte es für möglich, das blower karten kommen mit 12gb und 250w PT. aka, referenzdesign.

ich hoffe das wir in den nächsten wochen eine präsentation von nv erhalten, die im groben sagt: RTX 3090 +50% over 2080ti, RTX 3090 Founders Edition +70% over 2080ti.:wink:

dargo
2020-08-22, 16:50:47
Find es traurig wie sich im Netz alle lustig machen. Endlich mal eine kompromisslose Lösung mit 24Gb ultra schnellen VRam. Quasi ein Traum an GPU.
Was mit euch los?
Das muss mal jemand verstehen.
Die 24GB hättest du schon im Dezember 2018 haben können, fehlte etwas Kleingeld? :upara:

Linmoum
2020-08-22, 16:53:29
Vielleicht kauft ihr eure Kisten demnächst bei Feinkost Albrecht, wenn ihr die Faszination für krasse HW verloren habt -.-
"Faszination für krasse HW" hab ich doch nicht dann, wenn ich mir einfach 'ne GPU kaufe, die dann einbaue und fertig. Das ist doch völlig öde.

Ich will selbst rumexperimentieren und sehen, was möglich ist. Dafür brauch ich ootb nicht schon so ein Monster, das ich mir auch selbst züchten kann. Ich glaube, ihr unterschätzt hier die Kompetenzen der Leute selbst in dieser Preisklasse. Da gibt's auch mehr als genug, die sich das Ding kaufen und nichts weiter machen, als sie in den Rechner zu packen. Und die bekommen dann sowas von NV vorgesetzt. Einfach nein.

Man sollte nicht immer nur von sich auf andere schließen und das als allgemeingültig darstellen. Du kannst davon ausgehen, dass diese 3090 von den Reviewern bzgl. Verbrauch zerrissen wird, wenn das wirklich +-350W @default sein werden. So wie Intel bei ihren saufenden CPUs auch.

RLZ
2020-08-22, 16:57:24
Ist kein Argument. Nach manchen Aussagen hier soll ja Big Navi nur die 3070 erreichen. :freak:
Ach. Performance-Spekulationen erinnern mich an die Marble League :freak:
Ich glaube nicht mal, dass Nvidia mit viel Aufwand die Performance von BigNavi genauer als +-15% einschätzen kann, obwohl schon Konsolenhardware mit RDNA2 unterwegs ist.

Rampage 2
2020-08-22, 17:07:44
+1
You and me both, brother... :wink:


Me too, brother - ein Chip im Vollausbau als Nachfolger der 2080 Super mit 16GB VRAM und 20-30% mehr Leistung. Yay! :ucatch:

Ich liebäugele eher mit einer 3070 mit 16GB von einer 2080 ausgehend.


Du meinst aber bestimmt die 3070 Ti - du willst dir bestimmt kein beschnittenes Abfallprodukt kaufen, oder? ;)

R2

Raspo
2020-08-22, 17:08:10
Normal müssten hier Posts kommen wie „Wtf mein NT/Gehäuse what ever ist zu klein/schwach“, ich ziehe los und kauf was neues, damit es zum Release passt.
Vielleicht kauft ihr eure Kisten demnächst bei Feinkost Albrecht, wenn ihr die Faszination für krasse HW verloren habt -.-

Sorry, aber just my 2 cents.
Kann man machen.
Aber erst, wenn man weiß, was Team Red dem Volk vor die Füße schmeißt.

nordic_pegasus
2020-08-22, 17:08:48
ich hoffe das wir in den nächsten wochen eine präsentation von nv erhalten, die im groben sagt: RTX 3090 +50% over 2080ti, RTX 3090 Founders Edition +70% over 2080ti.:wink:

wenn das nicht nur für RT gilt sondern auch für Rasterization, nehme ich den Verbrauch gerne in Kauf. Wenn man aber wieder nur Gigarays/sec bekommt, kann sich Jensen mit der 3090 die Haare föhnen.

MiamiNice
2020-08-22, 17:11:44
ach warst du das im navi fred, der sich über die 400w von navi lustig gemacht hat so wie unleashed sagt?:freak:

ich halte es für möglich, das blower karten kommen mit 12gb und 250w PT. aka, referenzdesign.

ich hoffe das wir in den nächsten wochen eine präsentation von nv erhalten, die im groben sagt: RTX 3090 +50% over 2080ti, RTX 3090 Founders Edition +70% over 2080ti.:wink:


Ich habe mich noch nie über Saft lustig gemacht. Im Gegenteil bin ich der der immer schreit das die aktuellen TDPs von Cpu und Gpu immer zu low sind.

TheAntitheist
2020-08-22, 17:15:05
wenn das nicht nur für RT gilt sondern auch für Rasterization, nehme ich den Verbrauch gerne in Kauf. Wenn man aber wieder nur Gigarays/sec bekommt, kann sich Jensen mit der 3090 die Haare föhnen.
nää wir haben genug raster power, ich will einfach nur viel mehr RT. Bringt mehr grafik quali und ist auch für die Arbeit deutlich mehr von Vorteil.

Linmoum
2020-08-22, 17:17:59
nää wir haben genug raster powerDann scheinst du wohl in HD zu spielen.

rentex
2020-08-22, 17:24:11
Nehmt es mit nicht übel aber wenn euch 400 Watt ankotzen seid ihr imo im verkehrtem Forum. Power ist Power bleibt Power. Ist die Karte zu hart seid ihr zu schwach. Normal müssten hier Posts kommen wie „Wtf mein NT/Gehäuse what ever ist zu klein/schwach“, ich ziehe los und kauf was neues, damit es zum Release passt.
Vielleicht kauft ihr eure Kisten demnächst bei Feinkost Albrecht, wenn ihr die Faszination für krasse HW verloren habt -.-

Sorry, aber just my 2 cents.

Was für ein Unsinn!
Wieviele in diesem Forum haben ein zu kleines Gehäuse oder hat auf die äußerst unklugen Ratschläge a la "dimensionier dein NT ja nicht zu groß"gehört?
Feinkostladen? Alter, kauft der Herr beim Aldi seinen Rechner oder was?!
Aber das Beste kommt erst noch: TDPs und Power aus der Hölle fordern und dann mit Wasser, silencen!

Digidi
2020-08-22, 17:26:21
nää wir haben genug raster power, ich will einfach nur viel mehr RT. Bringt mehr grafik quali und ist auch für die Arbeit deutlich mehr von Vorteil.

Pff selten so einen Mist gelesen. Die meisten Firmen auf der Welt brauchen Rasterizer Power weshalb der GA100 auch ohne RT Cores kommt dafür mit 1 Rasterizer mehr.

Nur Grafiker, Filmemacher und Webdesigner brauchen mehr RT Leistung. Die Gruppe ist aber recht klein. Viel größer dürte die Gruppe der Stdatdplaner, Produktdesigner. Werksplaner, Maschinendkonstrukteure sein, die Komplexe Geäubde, Stadteile, Maschinenparks designen mit Billionen von Polygonen.

Ex3cut3r
2020-08-22, 17:26:59
Beruhigt dich (euch). Miami sagt ja nur so seine Meinung, einfach weiterlesen. ;)

Grendizer
2020-08-22, 17:27:19
Was für ein Unsinn!
Wieviele in diesem Forum haben ein zu kleines Gehäuse oder hat auf die äußerst unklugen Ratschläge a la "dimensionier dein NT ja nicht zu groß"gehört?
Feinkostladen? Alter, kauft der Herr beim Aldi seinen Rechner oder was?!
Aber das Beste kommt erst noch: TDPs und Power aus der Hölle fordern und dann mit Wasser, silencen!

Echt jetzt ... wenn wir über Graka um die 1500 Euro reden, dann sind vermutlich auch Netzteile für 200 Euro finanziell machbar.

MiamiNice
2020-08-22, 17:28:22
"Faszination für krasse HW" hab ich doch nicht dann, wenn ich mir einfach 'ne GPU kaufe, die dann einbaue und fertig. Das ist doch völlig öde.

Ich will selbst rumexperimentieren und sehen, was möglich ist. Dafür brauch ich ootb nicht schon so ein Monster, das ich mir auch selbst züchten kann. Ich glaube, ihr unterschätzt hier die Kompetenzen der Leute selbst in dieser Preisklasse. Da gibt's auch mehr als genug, die sich das Ding kaufen und nichts weiter machen, als sie in den Rechner zu packen. Und die bekommen dann sowas von NV vorgesetzt. Einfach nein.

Man sollte nicht immer nur von sich auf andere schließen und das als allgemeingültig darstellen. Du kannst davon ausgehen, dass diese 3090 von den Reviewern bzgl. Verbrauch zerrissen wird, wenn das wirklich +-350W @default sein werden. So wie Intel bei ihren saufenden CPUs auch.

Meinst Du ich baue mir das Gerät einfach nur ein? Da kommt so schnell es geht nen Block drauf und dann wird es bis an die Kotzgrenze gnadenlos übertaktet. Und wenn das NT dann 500 Watt auf der Schiene anzeigt, ist das eben so.
Ich sehe hier ein brachiales Gerät welches eigentlich der Traum eines jeden HW verliebten sein sollte - sofern die Leistung passt. Man kann sich lustig machen wenn das Gerät 400Watt schluckt und kaum schneller als Turing ist. Aber ich denke wir wissen alle das NV da etwas in der Hinterhand hat, was ordentlich Speedup bringen wird. Es gibt wohl nicht umsonst so wenig Fakten/Leaks zum Chip.

Was für ein Unsinn!
Wieviele in diesem Forum haben ein zu kleines Gehäuse oder hat auf die äußerst unklugen Ratschläge a la "dimensionier dein NT ja nicht zu groß"gehört?
Feinkostladen? Alter, kauft der Herr beim Aldi seinen Rechner oder was?!
Aber das Beste kommt erst noch: TDPs und Power aus der Hölle fordern und dann mit Wasser, silencen!

Silencen mit Wasser?!?
Ich hab Wasser in der Kiste damit ich meine HW prügeln kann ...
Gezoggt wird eh mit Headset und ich würde eher meine Kiste in einen anderen Raum auslagern als auf Takt zu verzichten.

Linmoum
2020-08-22, 17:31:24
Meinst Du ich baue mir das Gerät einfach nur ein?Das macht deine Beiträge noch unverständlicher. Es geht gar nicht darum, was Ampere zu leisten imstande ist, sondern wie Nvidia das Ding augenscheinlich auf die Kunden loslässt. Wie kann man das denn feiern, wenn man sowieso selbst übertaktet und dem Ding Feuer unterm Hintern macht? Dafür braucht man keinen Hersteller, der das Ding ootb über der Kotzgrenze auf den Markt prügelt.

Echt jetzt ... wenn wir über Graka um die 1500 Euro reden, dann sind vermutlich auch Netzteile für 200 Euro finanziell machbar.
Ja, nur warum sollte man sich ein neues kaufen, wenn man ein eigentlich wunderbar funktionierendes hat? Geldverschwendung.

TheAntitheist
2020-08-22, 17:32:03
Dann scheinst du wohl in HD zu spielen.
480p...

wenn die meisten tripple A Spiele bald RT voraussetzen, halbierst du deine performance oder drittelst sie sogar ohne genug RT power. Denk mal bissl weiter.
Und die UE5 zeigt wohl eindeutig, das es nicht an Raster power mangelt.

unl34shed
2020-08-22, 17:33:53
Das RT Vorausgesetzt sein wird sind wir wohl noch 10 Jahre von entfernt.

Thunder99
2020-08-22, 17:34:26
Sie werden niemals RT voraussetzen, dafür ist es zu früh.
Eventuell in 5 Jahren oder 10

Grendizer
2020-08-22, 17:34:50
...

Ja, nur warum sollte man sich ein neues kaufen, wenn man ein eigentlich wunderbar funktionierendes hat? Geldverschwendung.

Und man tauscht die Grafikkarte, weil sie nicht mehr funktioniert ?

Nein, sie entspricht nicht mehr den Anforderungen, das ist dann auch leider beim Netzteil der Fall, es funktioniert nicht mehr wunderbar, es hat einfach zu wenig Leistung.... so wie die Grafikkarte, die man tauscht.

rentex
2020-08-22, 17:35:37
Echt jetzt ... wenn wir über Graka um die 1500 Euro reden, dann sind vermutlich auch Netzteile für 200 Euro finanziell machbar.

Die hält der geneigte Leser, in diesem Forum ja schon vor.
Meine Fresse ,wer betreibt den ernsthaft seine Kiste, ohne Leistungsreserve nach oben?!

Lawmachine79
2020-08-22, 17:35:42
Gefällt mir nicht die Entwicklung obwohl es mir egal sein dürfte

1000 Watt NT --> check
Custom Wakü --> check
großes Gehäuse --> check

Das Ding da hässlich wie die Nacht finster. Hoffe die Full Cover werden wenigstens ansehnlich.

AMD könnte instant wieder eine alte Werbung rauskramen

AMD könnte sein Budget mal wieder in die Entwicklung guter Grafikkarten stecken. Ich kann mich nicht dran erinnern, wann AMD zuletzt erste Wahl war. War das die Radeon 4890?

Linmoum
2020-08-22, 17:37:50
wenn die meisten tripple A Spiele bald RT voraussetzen, halbierst du deine performance oder drittelst sie sogar ohne genug RT power. Denk mal bissl weiter.
Und die UE5 zeigt wohl eindeutig, das es nicht an Raster power mangelt.Aha. Dann schmeiß mal ein Witcher 3 in UHD an, dreh alles auf Ultra und zeig mir, wie du konstante >=60fps schaffst. Ist ja immerhin ein Spiel von 2015 und wir haben ja schließlich mittlerweile genug Rohleistung.

Also manchmal echt... Kann man sich nur an den Kopf packen. Zur Voraussetzung von RT frag in 6 Jahren noch mal nach.

Digidi
2020-08-22, 17:41:59
Was für ein Unsinn!
Wieviele in diesem Forum haben ein zu kleines Gehäuse oder hat auf die äußerst unklugen Ratschläge a la "dimensionier dein NT ja nicht zu groß"gehört?
Feinkostladen? Alter, kauft der Herr beim Aldi seinen Rechner oder was?!
Aber das Beste kommt erst noch: TDPs und Power aus der Hölle fordern und dann mit Wasser, silencen!

Das Lustige ist ja als Turing ja so Effizient war, war ja AMD der böse der wegen Ihrer Ineffizient. Jetzt bringt Nvidia eine Karte die allen Rahmen sprengt und alles ist doch Super geil ;D;D;D

Nazar
2020-08-22, 17:43:07
Echt jetzt ... wenn wir über Graka um die 1500 Euro reden, dann sind vermutlich auch Netzteile für 200 Euro finanziell machbar.

Genau und ein Keller extra nur für den Rechner UND man spart die Heizkosten im Winter, etc. pp.
Erinnert sich noch jemand wie vor kurzem nicht all zu langer Zeit die "Gamerzeitschriften" das Thema "Leistung pro Watt" und das man verstärkt jetzt auf Leistung pro Watt achten muss, da das für die Community so extrem wichtig sei, in den Vordergrund schoben?
Edit: und das besonders die nVidia Fans bei diesem Thema die lautesten Schreihälse waren (verbrennt sie die Hexe, verbrennt sie)!
Ich bin mal gespannt, wie sich das ändern wird, wenn Ampere wirklich so ein Watt Monster wird wie derzeit vermutet.
Und auf die "unabhängigen" Benchmarks, wenn es um das Thema BQ und DLSS gehen wird.
Es wird auf jeden Fall ein "heißer" Winter werden. ;)

nää wir haben genug raster power, ich will einfach nur viel mehr RT. Bringt mehr grafik quali und ist auch für die Arbeit deutlich mehr von Vorteil.

Sarkasmus? Ich hoffe doch, dass es Sarkasmus ist, denn ansonsten.... :facepalm:

BlacKi
2020-08-22, 17:43:44
Das Lustige ist ja als Turing ja so Effizient war, war ja AMD der böse der wegen Ihrer Ineffizient. Jetzt bringt Nvidia eine Karte die allen Rahmen sprengt und alles ist doch Super geil ;D;D;D
wer? ich finde die 350w to much. und miami ist es auch egal wenn die amd karte 500w zieht.
mein interesse an der 24gb 3090 version ist praktisch nicht vorhanden. unter anderem wegen dem PT. komplett entscheiden werde ich mich erst nach dem release einiger modelle.

RLZ
2020-08-22, 17:47:05
Und die UE5 zeigt wohl eindeutig, das es nicht an Raster power mangelt.
Nanite in UE5 nutzt Software Rasterisierung in Compute Shadern. Andere Baustelle....

MiamiNice
2020-08-22, 17:48:31
Das macht deine Beiträge noch unverständlicher. Es geht gar nicht darum, was Ampere zu leisten imstande ist, sondern wie Nvidia das Ding augenscheinlich auf die Kunden loslässt.

Wäre tatsächlich ein valides Argument wenn wir über eine GPU für Pussy Pcs sprechen würden. Hier geht es aber gerade explizit um die 3090 und da bewegen wir uns im absoluten Enthusiast Segment. Man sollte hier imo einzig bemängeln das NV das Gerät überhaupt noch mit einem Luftkühler vertreibt. Nur mit Wasserblock wäre imo weitaus passender für die angepeilte Zielgruppe. Nix WaKü, nix 3090.

Digidi
2020-08-22, 17:51:38
Nanite in UE5 nutzt Software Rasterisierung in Compute Shadern. Andere Baustelle....
Ähm ich glaube Rasterisierung ist über die FixedFunction einheiten, sie machen wohl das Culling in den Shadern, also den vorgelagerten Schritt. Wenn nicht wäre ich für mehr infos dankbar!

Im übrigen sind wir hier beim Thema ob wir denn immer noch Shader bount sind :D

r3ptil3
2020-08-22, 17:52:13
Ich kann mich nicht dran erinnern, wann AMD zuletzt erste Wahl war. War das die Radeon 4890?

Der Witz dabei kam jetzt nicht deutlich raus.

Vor der 4890:
X800 XT
X1900 XTX (G80 kam ja deutlich später)
HD 3870 (nicht leistungsmässig, aber hervorragend in Sachen Effizienz)

Nach der 4890:
HD 5870
HD 7970
R9 290X (kann man sich darüber streiten, Verbrauch und die Temperaturthematik...)

Die schlechte Phase aktuell macht nur einen Bruchteil aus im Gesamtbild.

BlacKi
2020-08-22, 17:56:49
Wäre tatsächlich ein valides Argument wenn wir über eine GPU für Pussy Pcs sprechen würden. Hier geht es aber gerade explizit um die 3090 und da bewegen wir uns im absoluten Enthusiast Segment. Man sollte hier imo einzig bemängeln das NV das Gerät überhaupt noch mit einem Luftkühler vertreibt. Nur mit Wasserblock wäre imo weitaus passender für die angepeilte Zielgruppe. Nix WaKü, nix 3090.
lasst die leute doch lukü betreiben, ich finde den kühler echt nice.

@thread
kritik am 350W PT ist meinetwegen ja berechtigt, aber eigentlich auch nur dann wenn der kühler damit wirklich überfordert sein sollte. und das bezweifle ich stark. ich würde sagen das die beiden großen lüfter mit 1500-2000rpm die 350w karte +-70 grad halten werden können. die r7 wurde ja auch mit 300w PT released auf nem 330mm² chip!, nur die kühlkonstruktion war einfach scheiße. jetzt brät nv 50w mehr auf einem 627mm²chip/karte und hat dafür einen passende kühlkontruktion, zack wird das kritisiert wie bescheuert.

das ist halt typisch 3dc...

dargo
2020-08-22, 17:58:09
wenn die meisten tripple A Spiele bald RT voraussetzen...
Der nächste Träumer. :freak:

RLZ
2020-08-22, 17:59:42
Ähm ich glaube Rasterisierung ist über die FixedFunction einheiten, sie machen wohl das Culling in den Shadern, also den vorgelagerten Schritt. Wenn nicht wäre ich für mehr infos dankbar!
Da liegst du falsch.
"The vast majority of triangles are software rasterised using hyper-optimised compute shaders specifically designed for the advantages we can exploit," explains Brian Karis. "As a result, we've been able to leave hardware rasterisers in the dust at this specific task."
https://www.eurogamer.net/articles/digitalfoundry-2020-unreal-engine-5-playstation-5-tech-demo-analysis
https://twitter.com/briankaris/status/1261098487279579136
Im übrigen sind wir hier beim Thema ob wir denn immer noch Shader bount sind :D
Das ist für die meisten Use Cases aber keine Diskussion.

Nazar
2020-08-22, 18:04:35
Wenn die Größe und damit die Länge der 3090 so kommen wird (fast 1/3 länger als die 2080 Ti), müssten wahrscheinlich einige Interessenten erst einmal auf größere Gehäuse umsteigen. Dann kommen auf den GPU Preis noch mal 150+ Flocken für ein neues Gehäuse oben drauf. Leute, kauft Aktien auf dem IT Sektor. Ohne Scheiß! ;)

Linmoum
2020-08-22, 18:10:21
jetzt brät nv 50w mehr auf einem 627mm²chip/karte und hat dafür einen passende kühlkontruktion, zack wird das kritisiert wie bescheuert.

das ist halt typisch 3dc...Da ist nix typisch dran und schon gar nicht exklusiv hier. Die 350W für Ampere werden fast überall stark kritisiert. Genauso wie Vega zurecht für den Verbrauch zerrissen wurde. Jetzt scheint Nvidia wieder dran zu sein, nachdem sie zuletzt mit Thermi einen solchen Stunt hingelegt haben.

Monsta
2020-08-22, 18:10:40
Ich finde 400 Watt GPus in der heutigen Zeit unnötig. Genauso wie SUVs mit 400Ps. Einfach egoistische Energieverschwendung.
Mir wäre es lieber wenn sich die Gpu Hersteller auf ein 200 Watt maximum festlegen würden und mehr Leistung durch Innovation kommt.
Im Zweifel bekommen wir die selbe Grafik halt erst in 2 Jahren. Da geht die Welt auch nicht unter.
Und ja meine Vega 64 läuft auf ein 180 Watt Target.

BlacKi
2020-08-22, 18:12:30
@lin ist das so? ein paar leute hier finden das die 350w gefeiert werden. #mythos #digidi

Digidi
2020-08-22, 18:14:11
Das ist für die meisten Use Cases aber keine Diskussion.

Danke für dioe Info! Da lag ich wohl wirklich falsch

Im Eurogamer steht aber auch We can't beat hardware rasterisers in all cases though so we'll use hardware when we've determined it's the faster path. On PlayStation 5 we use primitive shaders for that path which is considerably faster than using the old pipeline we had before with vertex shaders." Scheint wohl ein Hybrid zu sein. Wobei auf der PS5 dann wieder die neuen fixetfunction dran kommen?


Na ja ich bin mir da nicht so sicher. Mitlerweile haben viele Spiele sehr feine Polygonenen. Wenn der Rasterizer aus einem Polygon dann nur 1 Pixel ausspuckt bleibt der Rest der Pipline recht leer.

Rancor
2020-08-22, 18:16:29
Nehmt es mit nicht übel aber wenn euch 400 Watt ankotzen seid ihr imo im verkehrtem Forum. Power ist Power bleibt Power. Ist die Karte zu hart seid ihr zu schwach. Normal müssten hier Posts kommen wie „Wtf mein NT/Gehäuse what ever ist zu klein/schwach“, ich ziehe los und kauf was neues, damit es zum Release passt.
Vielleicht kauft ihr eure Kisten demnächst bei Feinkost Albrecht, wenn ihr die Faszination für krasse HW verloren habt -.-

Sorry, aber just my 2 cents.

Sagte der Mann mit einer 1080 TI ;D

TheAntitheist
2020-08-22, 18:16:52
Das RT Vorausgesetzt sein wird sind wir wohl noch 10 Jahre von entfernt.
hat auch niemand von gesprochen :rolleyes:

man kauft sich doch die teuerste GPU um alles auf max zu stellen, wer dann RT auslässt, der hat wohl die falsche GPU gekauft oder dem ist die Grafik dann doch nicht so wichtig.

pixeljetstream
2020-08-22, 18:22:49
Danke für dioe Info! Da lag ich wohl wirklich falsch

Im Eurogamer steht aber auch Scheint wohl ein Hybrid zu sein. Wobei auf der PS5 dann wieder die neuen fixetfunction dran kommen?


Na ja ich bin mir da nicht so sicher. Mitlerweile haben viele Spiele sehr feine Polygonenen. Wenn der Rasterizer aus einem Polygon dann nur 1 Pixel ausspuckt bleibt der Rest der Pipline recht leer.
Schlimmer sind die Dreiecke die gar keine Pixel erzeugen weil sie unterm Sampling Grid liegen. Wobei dann ab nem gewissen Grad raytracing flotter als rasterizer ist.

Digidi
2020-08-22, 18:25:21
Schlimmer sind die Dreiecke die gar keine Pixel erzeugen weil sie unterm Sampling Grid liegen. Wobei dann ab nem gewissen Grad raytracing flotter als rasterizer ist.
Danke für die Infos.
Wird so etwas aber nicht gecullt. Dafür sind ja die neuen Mashshader, primitive shader etc. da?

pixeljetstream
2020-08-22, 18:29:02
Danke für die Infos.
Wird so etwas aber nicht gecullt. Dafür sind ja die neuen Mashshader, primitive shader etc. da?
Ja aber selbst da hast du kosten erstmal die Dreiecke zu transformieren und das culling zu machen. Skaliert im shader etwas besser als ff, aber ist immer noch arbeit. Das raytracing gibt dir halt per Pixel perfektes occlusion culling. Deswegen können Filmstudios jetzt so Szenen wie diese Disney insel mit Vegetation komplett aus Geometrie relativ flüssig mit raytracing darstellen.
Bei Raster musst halt selbst diverse systeme dir basteln um das noch flott zu haben.

Digidi
2020-08-22, 18:31:43
Ja aber selbst da hast du kosten erstmal die Dreiecke zu transformieren und das culling zu machen. Skaliert im shader etwas besser als ff, aber ist immer noch arbeit. Das raytracing gibt dir halt per Pixel perfektes occlusion culling. Deswegen können Filmstudios jetzt so Szenen wie diese Disney insel mit Vegetation komplett aus Geometrie relativ flüssig mit raytracing darstellen.
Bei Raster musst halt selbst diverse systeme dir basteln um das noch flott zu haben.


Danke für die Ausführliche erklärung. Aber wen es in der ff langsamer läuft als in den Shadern selbst. Hat man dann die ff nicht falsch ausgelegt? Deshalb gibt es ja ff weil es ja schneller laufen soll als in den Shadern.

pixeljetstream
2020-08-22, 18:47:16
Danke für die Ausführliche erklärung. Aber wen es in der ff langsamer läuft als in den Shadern selbst. Hat man dann die ff nicht falsch ausgelegt? Deshalb gibt es ja ff weil es ja schneller laufen soll als in den Shadern.

Ja und nein. Im Normalfall für herkömmlichen content reicht das heute mit ff (Turing ff legte 2x auf Pascal, ohne dem sehe der Vorteil der Mesh shader deutlich höher aus). Aber man kann jede Generation neu bewerten ob es sich lohnt mehr ff zu basteln, oder das Problem eben mit shadern lösen, von denen man eh immer mehr bekommt. Letzteres hat auch Vorteil das Entwickler "cleverer" sein können als ne feste api. Aber man braucht halt auch ne gewisse Marktdurchdringung dieser neuen shader. Daher wird man erst in Jahren sehen ob man noch ff in dem Maße braucht, oder ob die Entwickler eh immer mehr auf shader basiertes umsteigen (compute rasterization, compute culling, mesh/primitive shader). Je unwichtiger desto weniger muss man da zusätzlich investieren.

Das grundsätzliche Problem ist ja das man es nie pauschal sagen kann, mancher content in manchen Titel mag limitiert sein, und dann stellt sich die Frage wie viel Prozent vom frame sind es, andere Titel wieder gar nicht.

Ein ganz großer Teil bei der Chipentwicklung sind Experimente, was wenn wir das so und so machen. Dann simuliert man das für sagen wir 30 spiele durch und guckt sich die Auswirkung an. Dann muss man ein bisschen orakeln welche Titel wohl zukunftsorientierter sind, etc.

Zergra
2020-08-22, 18:47:20
Da ist nix typisch dran und schon gar nicht exklusiv hier. Die 350W für Ampere werden fast überall stark kritisiert. Genauso wie Vega zurecht für den Verbrauch zerrissen wurde. Jetzt scheint Nvidia wieder dran zu sein, nachdem sie zuletzt mit Thermi einen solchen Stunt hingelegt haben.


Vega hat nur mehr als die Konkurrenz bei weniger Leistung gefressen.
Wie das bei Ampere ist weiß man noch gar nicht. Wie schlimm es wirklich ist weiß auch keiner.

Daredevil
2020-08-22, 18:51:02
Wenn Nvidia ne fette Kühlung verbaut, ist das „über die kotzgrenze“ gebaut und wenn AMD ne Liquid anbietet, ist das super smart und kühl?
Ja mei. :D

Schnoesel
2020-08-22, 18:55:54
Sagte der Mann mit einer 1080 TI ;D

Für einen mit ner ordentlichen 1080Ti ist ne 2080ti eben keine krasse HW. Was hätte er sich denn kaufen sollen?

Edit: Warte bin ich grade für Miami engesprungen ... Alter was läuft bei mir verkehrt

Linmoum
2020-08-22, 19:02:21
Vega hat nur mehr als die Konkurrenz bei weniger Leistung gefressen.Vega hat generell viel zu viel gefressen, obwohl sogar noch HBM mit an Bord war. Das ist ja das groteske. Mit GDDR5 wie bei NV hätte das Ding noch mal mehr gesoffen.

Wie das bei Ampere ist weiß man noch gar nicht. Wie schlimm es wirklich ist weiß auch keiner.Wenn die 3090 tatsächlich 350W saufen sollte, dann müsste die mindestens 80% schneller sein als eine 2080Ti. +50% Performance bei +25% Verbrauch (2080Ti FE zieht laut Igor ~280W) wären ein Desaster dafür, dass Turing noch in pseudo-12nm gefertigt wurde und es einen Fullnode-Sprung gibt.

AffenJack
2020-08-22, 19:24:09
Wenn die 3090 tatsächlich 350W saufen sollte, dann müsste die mindestens 80% schneller sein als eine 2080Ti. +50% Performance bei +25% Verbrauch (2080Ti FE zieht laut Igor ~280W) wären ein Desaster dafür, dass Turing noch in pseudo-12nm gefertigt wurde und es einen Fullnode-Sprung gibt.

80% wirds nicht geben, das wäre schon sehr krass. Nach den Spekulationen steigert sich die Bandbreite im Vergleich zur 2080Ti um 52%. Normalerweise würde man erwarten, dass die Bandbreiteneffizienz steigt oder wenigstens gleich bleibt, somit eher ~52-60% Leistungssteigerung rauskommen sollte. Die GPU dürfte auch nicht viel mehr fressen als bei der 2080Ti. Das Problem ist einfach, dass der RAM deutlich mehr verbraucht. Dazu muss man ja nur die Effizienzwerte von Micron angucken und dann kommt noch die Doppelbestückung dazu. Hier muss man zweifeln ob Gddr statt HBM wirklich so eine weise Entscheidung war.

gedi
2020-08-22, 19:24:48
Wenn Nvidia ne fette Kühlung verbaut, ist das „über die kotzgrenze“ gebaut und wenn AMD ne Liquid anbietet, ist das super smart und kühl?
Ja mei. :D

Sieht auf jeden Fall besser aus :) Ich freue mich, denn nun gehts endlich mal wieder eng her im Enthusiast-Market und der Preis wird’s regeln

dildo4u
2020-08-22, 19:28:38
Vega hat generell viel zu viel gefressen, obwohl sogar noch HBM mit an Bord war. Das ist ja das groteske. Mit GDDR5 wie bei NV hätte das Ding noch mal mehr gesoffen.

Wenn die 3090 tatsächlich 350W saufen sollte, dann müsste die mindestens 80% schneller sein als eine 2080Ti. +50% Performance bei +25% Verbrauch (2080Ti FE zieht laut Igor ~280W) wären ein Desaster dafür, dass Turing noch in pseudo-12nm gefertigt wurde und es einen Fullnode-Sprung gibt.
Dafür sind viel zu viele Games CPU Limitiert, wird sind immer noch bei der IPC von 2015.Und Coreskaling ist immer noch mäh.

Langlay
2020-08-22, 19:39:03
Dafür sind viel zu viele Games CPU Limitiert, wird sind immer noch bei der IPC von 2015.Und Coreskaling ist immer noch mäh.

Und? Dann steigerst du halt die Auflösung. Die Graka kriegste schon beschäftigt.

Linmoum
2020-08-22, 19:39:33
Dafür sind viel zu viele Games CPU LimitiertNein, das Gegenteil ist der Fall. Gerade in UHD, wo selbst eine 2080Ti noch immer Probleme hat, in etlichen Spielen auch nur ansatzweise die 60fps konstant zu halten. Und dafür braucht es nicht einmal Ultra-Settings. Natürlich hast du auch Spiele, wo die CPU vorher limitiert und natürlich ist das Core-Scaling noch immer stark ausbaufähig. Das sind aber dennoch nicht annähernd so viele Games wie die, wo schlicht Grafikleistung fehlt.

Man wird sehen, wie schnell Ampere gegenüber Turing wird und wie der Verbrauch in Relation dazu ausfällt. Wenn es grob die in der Gerüchteküche kolportierten 350W bei +50% Performance werden, dann ist das nüchtern betrachtet einfach unterirdisch. Bei Turing waren es gegenüber Pascal rund +35% Performance bei rund 10% mehr Verbrauch - wohlgemerkt in demselben Prozess und nicht wie hier mit einem Fullnodesprung. Ich hoffe für NV und auch die Kunden sehr, dass es nicht so eine Enttäuschung wird.

Da braucht Jensen dann auch nicht wieder mit seinen Gigarays und "it just works!!!" ankommen, um irgendwas tolles zu haben.

Troyan
2020-08-22, 19:43:18
4K ist überhaupt kein Problem. Einfach Effekte deaktivieren und fertig. Da Raytracing keine Relevanz für einige hat, ist Bildqualität sowieso zweitrangig. Und so schafft dann auch jede 500€ Karte die 4K. Wozu man dann überhaupt soviel Geld in GPUs stecken sollte, erschließt sich mir nicht.

rentex
2020-08-22, 19:47:12
Und warum nicht gleich in 1440p zocken? 4K ist wohl der größte Hype in den letzten 5 Jahren...

JVC
2020-08-22, 19:48:29
Da Raytracing keine Relevanz für einige hat, ist Bildqualität sowieso zweitrangig.

Und was ist wenn man noch kein einziges "RT" Spiel hat und in absehbarer Zeit auch noch keines kaufen wird?
(gleiches gilt für DLSS 2.0)

M.f.G. JVC

Slipknot79
2020-08-22, 19:48:57
Nehmt es mit nicht übel aber wenn euch 400 Watt ankotzen seid ihr imo im verkehrtem Forum. Power ist Power bleibt Power. Ist die Karte zu hart seid ihr zu schwach. Normal müssten hier Posts kommen wie „Wtf mein NT/Gehäuse what ever ist zu klein/schwach“, ich ziehe los und kauf was neues, damit es zum Release passt.
Vielleicht kauft ihr eure Kisten demnächst bei Feinkost Albrecht, wenn ihr die Faszination für krasse HW verloren habt -.-

Sorry, aber just my 2 cents.

Mir war auch nie klar, wieso man sich bei nem Lambo über den Spritverbrauch aufregt. :wink:

Troyan
2020-08-22, 19:55:07
Und warum nicht gleich in 1440p zocken? 4K ist wohl der größte Hype in den letzten 5 Jahren...

nVidia bietet sogar vernünftige Upscaling-Auflösungen. Man muss überhaupt nicht in 4K spielen. 20% weniger Pixels tun es auch.

Der Hype um 4K ist vollkommen überbewertet. Das zeigt vorallem eindrucksvoll DLSS. Dort kommt 1080+dlss an 90% 4K heran und bietet mehr als die doppelte Leistung.

Das führt dann auch zum Paradoxon, dass in Control 1080p + DLSS + volles Raytracing ca. 50% schneller ist als 4K ohne Raytracing und dabei deutlich besser aussieht.

Dorn
2020-08-22, 19:57:30
Diese Grafikkarte ist was für echte Männer (Wie MiamiNice) und keine Waschlappen. Oder aber auch für Leute welche für den kommenden Winter eine Elektrische Heizung suchen und nebenher Spielen wollen.

wolik
2020-08-22, 20:00:39
AMD könnte sein Budget mal wieder in die Entwicklung guter Grafikkarten stecken. Ich kann mich nicht dran erinnern, wann AMD zuletzt erste Wahl war. War das die Radeon 4890?
HD5870 :wink:

Und was ist wenn man noch kein einziges "RT" Spiel hat und in absehbarer Zeit auch noch keines kaufen wird?
(gleiches gilt für DLSS 2.0)

M.f.G. JVC
Nicht mal Cyberpunk 2077 :redface:

4K ist überhaupt kein Problem. Einfach Effekte deaktivieren und fertig. Da Raytracing keine Relevanz für einige hat, ist Bildqualität sowieso zweitrangig. Und so schafft dann auch jede 500€ Karte die 4K. Wozu man dann überhaupt soviel Geld in GPUs stecken sollte, erschließt sich mir nicht.
:facepalm:

rentex
2020-08-22, 20:03:45
@Dorn Ja, unsere hochtenisierten Anachronismen...immer wieder für ne amüsante, Real-Time Retrospektive gut.

@Troyan Eben!

Slipknot79
2020-08-22, 20:04:02
Haben die Effizienzrechner des Forums eigentlich schon ermittelt, wieviel weniger Heizenergie auf Grund einer 3090 genutzt werden muss? ;) :redface:

BoMbY
2020-08-22, 20:04:41
https://pbs.twimg.com/media/EgCt-uRWsAAEZBu?format=jpg&name=medium

Von: https://twitter.com/cataclysmza/status/1297228015378870274

:freak:

JVC
2020-08-22, 20:08:06
General Panic :ulol:

M.f.G. JVC

[MK2]Mythos
2020-08-22, 20:11:31
Allerdings ist das Schema, wie die Belüftung der 3090 funktioniert, sehr wahrscheinlich falsch.

Troyan
2020-08-22, 20:13:48
Und selbst wenn nicht, wo ist der Unterschied zu jeder anderen Karte mit Axial-Lüfter?! Die saugen Luft an und geben sie direkt ins Gehäuse wieder ab.

Aber gut, manche Menschen entdecken die Realität immer erst durch Sarkasmus.

wolik
2020-08-22, 20:14:25
https://pbs.twimg.com/media/EgCt-uRWsAAEZBu?format=jpg&name=medium

Von: https://twitter.com/cataclysmza/status/1297228015378870274

:freak:
Ich sage nur push / pull . Das Bild ist lustig, aber falsch. Wenn man Lüfter 3090 betrachtet, sieht man das.

JVC
2020-08-22, 20:14:37
Nicht mal Cyberpunk 2077 :redface:

Hmmm:rolleyes:
Reicht mir im Notfall auch n Paar Jährchen später ausgereift und dann in Voller Pracht :cool:
(Hab Witcher3 die komplette letzte Version noch im Regal liegen, weil ich keine GPU dafür habe :freak:)

M.f.G. JVC

wolik
2020-08-22, 20:16:11
Hmmm:rolleyes:
Reicht mir im Notfall auch n Paar Jährchen später ausgereift und dann in Voller Pracht :cool:

M.f.G. JVC
Why not, why not... Übrigens wer Crysis noch nicht durch, es kommt Crysis Remastered 18.09 raus.

BoMbY
2020-08-22, 20:16:30
Ich sage nur push / pull . Das Bild ist lustig, aber falsch.

Sieht nach den Bildern der Karte aber genauso aus. Und die Idee ist gar nicht mal total dumm. Fehlt nur noch ein U-Rohr ... ;D

Platos
2020-08-22, 20:16:39
Ich kaufe meistens auch gleich 1 Jahr später dann die Version mit allen DLCs usw in einem. Tangiert mich auch kein bisschen (wobei ich vlt. bei Cyberpunk ne ausnahme mache). Aber 1 Spiel ist für mich kein Grund dafür. Gerade, wenn die Preise so aussehen, wie die Gerüchte sagen.

wolik
2020-08-22, 20:25:14
Sieht nach den Bildern der Karte aber genauso aus. Und die Idee ist gar nicht mal total dumm. Fehlt nur noch ein U-Rohr ... ;D
Noch mal für dich. Untere Lüfter bläst Luft rein, "obere" zieht das Luft raus... Leider es gabs test bei Wasserkühlung welche diese Methode schlechteste Kühlwirkung bescheinigt haben sollen.

JVC
2020-08-22, 20:29:30
Leider es gabs test bei Wasserkühlung welche diese Methode schlechteste Kühlwirkung bescheinigt haben sollen.
Aber bei hohen Luft Durchsätzen hat das doch umgeschlagen?
Oder erinner ich mich da falsch.

M.f.G. JVC

gedi
2020-08-22, 20:33:02
nVidia bietet sogar vernünftige Upscaling-Auflösungen. Man muss überhaupt nicht in 4K spielen. 20% weniger Pixels tun es auch.

Der Hype um 4K ist vollkommen überbewertet. Das zeigt vorallem eindrucksvoll DLSS. Dort kommt 1080+dlss an 90% 4K heran und bietet mehr als die doppelte Leistung.

Das führt dann auch zum Paradoxon, dass in Control 1080p + DLSS + volles Raytracing ca. 50% schneller ist als 4K ohne Raytracing und dabei deutlich besser aussieht.


Juhu, ich kaufe mir ein Custom-Modell, baue es um auf Wakü, habe nun mehr als 2k€ bezahlt und mache rum mit einem Upsampler? Ganz großes Kino

wolik
2020-08-22, 20:33:37
Aber bei hohen Luft Durchsätzen hat das doch umgeschlagen?
Oder erinner ich mich da falsch.

M.f.G. JVC
k.A. kann mal suchen. Die test war eindeutig. Ich habe bei mein WK mir Kopf zerbrochen.

TheAntitheist
2020-08-22, 20:42:39
Juhu, ich kaufe mir ein Custom-Modell, baue es um auf Wakü, habe nun mehr als 2k€ bezahlt und mache rum mit einem Upsampler? Ganz großes Kino
jetzt fängst du wieder hier an so einen Quatsch zu erzählen. Solange DLSS besser ist als TAA, wo ist das Problem?

du spielst doch auch mit irgendeiner Art von SS, fxaa macht das bild kaputt, MSAA geht in vielen Spielen nicht mehr, also bleibt dir nur OGSSAA. Ja dann viel Spaß...
DLSS liefert extrem gute Resultate, freu dich doch. Du nutzt doch auch Texturfilterung oder? ist doch dann auch scheisse wenn man nach deiner Logik geht.

Und diese Blöden Mipmaps reduzieren immer die Texturauflösung, verbrennt diese Programmierer!!!11111:rolleyes:

sven2.0
2020-08-22, 20:44:26
Juhu, ich kaufe mir ein Custom-Modell, baue es um auf Wakü, habe nun mehr als 2k€ bezahlt und mache rum mit einem Upsampler? Ganz großes Kino

wieso müssen sich Leute immer so disqualifizieren ;D

aufkrawall
2020-08-22, 20:50:13
Ich muss ganz ehrlich sagen, dass keine Artefakte von DLSS 2.0 so schlimm sein können wie das Müll-TAA in Zero Dawn.

Daredevil
2020-08-22, 20:50:32
Sieht nach den Bildern der Karte aber genauso aus. Und die Idee ist gar nicht mal total dumm. Fehlt nur noch ein U-Rohr ... ;D

Schau doch nochmal genau hin. :>

Troyan
2020-08-22, 20:51:50
Jede Technik die auf "Raster" aufbaut, ist nur eine Annäherung. Daher ist es vollkommen irrelevant, ob eine KI Bildpunkte erzeugt oder ein mathematisches Verfahren über Sampling-Punkte es macht.

Dazu kommt, dass BQ eben mehr ist als nur Pixel, sondern "schöne" Pixel. Allenfalls bräuchte man sonst auch keine AAA-Spiele mehr.

hq-hq
2020-08-22, 20:54:22
ich hätte gedacht der "hintere untere" Lüfter zieht die Luft nach oben durch (roter Heatsink), also nach oben, anscheinend aber nicht?
https://www.pcbuildersclub.com/wp-content/uploads/2020/08/NVIDIA-GeForce-RTX-3080-Cooler-Exploded.jpg
https://www.pcbuildersclub.com/2020/08/nvidia-ampere-alles-was-wir-ueber-rtx-3080-und-rtx-3090-wissen/

[MK2]Mythos
2020-08-22, 20:55:52
ich hätte gedacht der "hintere untere" Lüfter zieht die Luft nach oben durch (roter Heatsink), also nach oben, anscheinend aber nicht?
https://www.pcbuildersclub.com/wp-content/uploads/2020/08/NVIDIA-GeForce-RTX-3080-Cooler-Exploded.jpg
https://www.pcbuildersclub.com/2020/08/nvidia-ampere-alles-was-wir-ueber-rtx-3080-und-rtx-3090-wissen/
Das Renderbild ist doch schon älter und zeigt auch nicht das Kühlkonzept der 3090, außerdem ist es "Fanmade".

rentex
2020-08-22, 21:08:46
Vermute eher, das der hintere Fan, die Luft durch die Karte saugt und beim Slotblenden Lüfter rausbefördert.
Würde zusammen mit der Lüfterschaufelstellung, mehr Sinn ergeben.

Rampage 2
2020-08-22, 21:11:26
Das stimmt so nicht, da sie immer nur verrissen wurden, wenn die Kotzgrenze nicht in Relation zur Performance gestimmt hat. Wenn die 3090 liefert, wird es der Zielgruppe absolut scheiß egal sein, ob das Ding 350 oder 400W frisst.

This!

R600, P4, Bulldozer & Vega wurden nicht zerrissen, weil sie zuviel gesauft haben, sondern weil sie ineffizient waren - also nicht die Leistung lieferten, die dem Stromverbrauch und/oder der Rohleistung (Teraflops und so...) entsprechend proportional war.

Turing, Ampere und der 9900K und (und vielleicht sogar Fermi!) waren die exakten Gegenbespiele dazu: sie saufen irrsinnig viel Strom, wenn sie übertaktet werden - liefern aber auch eine entsprechend hohe Leistung dafür!

Dennoch erinnert mich Ampere ein wenig an Nvidia's NV30-Dilemma (GeForce FX a.k.a. "Föhn") anno 2003: einen Grafikchip des Jahres 2002/3 auf 500MHz (:freak:) hochtakten, um auf Biegen und Brechen ATI's 9700 Pro zu überflügeln oder wenigstens gleichzuziehen;D

Ein solch hoher Chiptakt wurde erst knapp 1,5 Jahre später von der X800 XT Platinum Edition (ATI) übertroffen:freak:


Bei der 3080 und insbesondere bei der 3070 muss das Verhältnis stimmen. Bei der 3090 können sie raushauen so hart es geht.

+1

Das TopEnd-Produkt kann saufen soviel es will, solange die Effizienz (Leistung und Stromverbrauch proportional zueinander) passt - das gilt natürlich auch für AMD und Intel;)

Meinst Du ich baue mir das Gerät einfach nur ein? Da kommt so schnell es geht nen Block drauf und dann wird es bis an die Kotzgrenze gnadenlos übertaktet. Und wenn das NT dann 500 Watt auf der Schiene anzeigt, ist das eben so.

Ich sehe hier ein brachiales Gerät welches eigentlich der Traum eines jeden HW verliebten sein sollte - sofern die Leistung passt. Man kann sich lustig machen wenn das Gerät 400Watt schluckt und kaum schneller als Turing ist. Aber ich denke wir wissen alle das NV da etwas in der Hinterhand hat, was ordentlich Speedup bringen wird. Es gibt wohl nicht umsonst so wenig Fakten/Leaks zum Chip.

Silencen mit Wasser?!?
Ich hab Wasser in der Kiste damit ich meine HW prügeln kann ...
Gezoggt wird eh mit Headset und ich würde eher meine Kiste in einen anderen Raum auslagern als auf Takt zu verzichten.


;D :up:

Ich mag dich (also deine Einstellung ggü. HW und deine Overclocking-Philosophie;)) - du bist dieselbe Sorte wie ich;D (naja, fast:wink:)

Nur hab ich im Gegensatz zu dir keine zig-tausende Euros, die ich in GPUs & Cooling verballern kann:frown:

R2

MasterElwood
2020-08-22, 21:23:02
Ich finde 400 Watt GPus in der heutigen Zeit unnötig. Genauso wie SUVs mit 400Ps. Einfach egoistische Energieverschwendung.
Mir wäre es lieber wenn sich die Gpu Hersteller auf ein 200 Watt maximum festlegen würden und mehr Leistung durch Innovation kommt.
Im Zweifel bekommen wir die selbe Grafik halt erst in 2 Jahren. Da geht die Welt auch nicht unter.
Und ja meine Vega 64 läuft auf ein 180 Watt Target.

Du bist hier im Forum komplett falsch...

hq-hq
2020-08-22, 21:23:23
Mythos;12399535']Das Renderbild ist doch schon älter und zeigt auch nicht das Kühlkonzept der 3090, außerdem ist es "Fanmade".

ja soll die 3080 sein, mir wärs recht wenn er nach oben durchsaugen würde, nur für die Richtung wäre er wohl mit dem ersten an der Slotblende auf der selben Seite plaziert worden...

JVC
2020-08-22, 21:24:33
Armer Miami :(
Dabei verstehe ich deine Kompromisslosigkeit ganz gut :)
(mir ist irgendwie der "geiz ist geil" oder was da auch immer schief gegangen ist, ein Dorn im Auge... "Samsung "8"nm LPP leckt mich was"... "mit nem "3xxBit" den "5xxBit" Zug "verpasst" und daher supercoole GDDR6x die auch noch beim PCB "Probleme" machen")

M.f.G. JVC

gedi
2020-08-22, 21:29:41
wieso müssen sich Leute immer so disqualifizieren ;D

Weil die Leute gerne das hätten, was die Hardware kann und man sich nicht irgendwelcher Magie betätigen muss. RDNA2 soll den Schrott ja können... Geht es in Zukunft nicht mehr um Performance, sondern welches Game in 480p am besten aussieht? D-Sub ahoi

Rincewind
2020-08-22, 21:39:49
Du bist hier im Forum komplett falsch...

nein, ist er nicht.

gedi
2020-08-22, 21:42:38
Japp

hq-hq
2020-08-22, 21:48:25
also sorry 200Watt freiwillige Selbstbegrenzung ist doch Bullshit, wie viele Leute haben denn so fette Grafikkarten im PC, ist ebenso dämlich wie die SUV Diskussion

Für was braucht es denn z.B. den LHC mit seinen 120 Megawatt, deswegen verhungern trotzdem Kühe in Afrika blablabla

die Frage müsste lauten: Habe ich überhaupt 3x 8Pin Stromanschlüsse an meinem Netzteil ?

BlacKi
2020-08-22, 21:49:03
wie hoch ist etwa der performance gewinn zwischen einer 300w 1080ti vs 400w bios, 2%? um das mal klar zu machen, ich verstehe wenn man eine unlimitiere gpu haben will die nie wegen irgendwas drosselt. aber deshalb halte ich doch nicht alle anderen für fehl am platz die eine gpu suchen die nicht fast ganz umsonst watt für 2% performance verbrät.

Edgecrusher86
2020-08-22, 21:50:21
Meine Vermutung:

RTX 2080 Ti FE/2080S FE/2080 FE/2070S FE:
4,5" Höhe Karte -> 11,6cm
10,5" Länge Karte -> 26,7cm


RTX 3090 FE:
5,5" Höhe Karte -> ~ 14cm
12,5" Länge Karte -> 31,75cm

Der Kühler dürfte bei 2,75 Slot Tiefe dann um die 55mm aufweisen - 60mm wäre dann die Triple-Slot-Blende.

Ich habe mir mal die Mühe gemacht und z.B. die Kontaktflächen des PCI-E Bus verglichen und komme auf eine Differenz von ~ 5,6% [zu Gunsten der 3090 FE].
Zieht man diesen Wert ab, wenn man versucht die Abmaße der Karten zu vergleichen und rechnet die reale Maßen der 20 Series FE gegen, dann kommt das obige auch grob hin.

gedi
2020-08-22, 21:55:52
also sorry 200Watt freiwillige Selbstbegrenzung ist doch Bullshit, wie viele Leute haben denn so fette Grafikkarten im PC, ist ebenso dämlich wie die SUV Diskussion

Für was braucht es denn z.B. den LHC mit seinen 120 Megawatt, deswegen verhungern trotzdem Kühe in Afrika blablabla

die Frage müsste lauten: Habe ich überhaupt 3x 8Pin Stromanschlüsse an meinem Netzteil ?

Lass es mich anders formulieren: Man nehme nen 4 Kerner ohne SMT und stelle den Upsampler daneben-was passiert? Dein System geht unter, wenn nicht mindestens 16GB an RAM installiert sind. Und selbst dann werden endlose Diskussionen losgetreten, wie scheiße doch die Treiber seitens NV und AMD sind

gedi
2020-08-22, 21:58:32
@ Edgecrusher

Es gibt auch ne Tiefe - so 3d und so ...

Digidi
2020-08-22, 22:05:10
Ja und nein. Im Normalfall für herkömmlichen content reicht das heute mit ff (Turing ff legte 2x auf Pascal, ohne dem sehe der Vorteil der Mesh shader deutlich höher aus). Aber man kann jede Generation neu bewerten ob es sich lohnt mehr ff zu basteln, oder das Problem eben mit shadern lösen, von denen man eh immer mehr bekommt. Letzteres hat auch Vorteil das Entwickler "cleverer" sein können als ne feste api. Aber man braucht halt auch ne gewisse Marktdurchdringung dieser neuen shader. Daher wird man erst in Jahren sehen ob man noch ff in dem Maße braucht, oder ob die Entwickler eh immer mehr auf shader basiertes umsteigen (compute rasterization, compute culling, mesh/primitive shader). Je unwichtiger desto weniger muss man da zusätzlich investieren.

Das grundsätzliche Problem ist ja das man es nie pauschal sagen kann, mancher content in manchen Titel mag limitiert sein, und dann stellt sich die Frage wie viel Prozent vom frame sind es, andere Titel wieder gar nicht.

Ein ganz großer Teil bei der Chipentwicklung sind Experimente, was wenn wir das so und so machen. Dann simuliert man das für sagen wir 30 spiele durch und guckt sich die Auswirkung an. Dann muss man ein bisschen orakeln welche Titel wohl zukunftsorientierter sind, etc.

Pixeljetstream haut hier einen Wissens Hammer nach dem andern Raus und Ihr interessiert euch nur für die Dicke vom Kühler......

Was ist aus dem Forum nur hier geworden!

Edgecrusher86
2020-08-22, 22:07:24
Pixeljetstream haut hier einen Wissens Hammer nach dem andern Raus und Ihr interessiert euch nur für die Dicke vom Kühler......

Was ist aus dem Forum nur hier geworden!

Ist das jetzt somit off-topic, weil es dich nicht interessiert? :freak:

Ich finde es natürlich auch sehr gut, dass er sich privat mit seinem Wissen ein bringt - im Rahmen dessen, was Stand heute erlaubt ist - nicht falsch verstehen.

Es sollten mMn einfach alle möglichen Aspekte einer neuen Generation behandelt werden.



@ Edgecrusher

Es gibt auch ne Tiefe - so 3d und so ...

So 2,75 bzw. 3 Slot und so...:)


Bezogen auf die Bilder? Ja, sicher. Der Einsatz eines Zollstocks und/oder Messschiebers wäre gut gewesen. ;)

Dampf
2020-08-22, 22:19:52
Der nächste Träumer. :freak:

Ist imo gar nicht so weit entfernt.

Mit RT müssen die Entwickler nichts mehr backen und das Entwickeln geht generell einfacher.

Hat man jetzt mit RDNA2, Turing und Ampere GPUs und den Next Gen Konsolen eine ausreichend große Install-Base, so könnte man die Verluste der verloren gegangenen Pascal/RDNA1,GCN/Kepler User locker wieder durch die gesparten Entwicklungskosten reinholen.

Man könnte auf diesen Karten ja auch Software-RT benutzen, so wie es Crytek tut, und dann durch HW-Beschleunigung auf modernen Architekturen deutlich beschleunigen. So wäre allen geholfen.

gedi
2020-08-22, 22:21:30
Die Tiefe ist die äußere Kante bis zum PCI-Slot. Das was du beschreibst ist die Höhe

OgrEGT
2020-08-22, 22:55:11
ja soll die 3080 sein, mir wärs recht wenn er nach oben durchsaugen würde, nur für die Richtung wäre er wohl mit dem ersten an der Slotblende auf der selben Seite plaziert worden...

Wird nach Release bestimmt getestet, welchen Unterschied beide Richtungen haben... Ist auf jeden Fall so oder so eine interessante Kühlkonstuktion, die hoffentlich generell höherere Kühlleistung bei geringerer Lautstärke hat...

Daredevil
2020-08-22, 23:10:22
Jedem, dem die Karte zu groß ist und kompakter doch lieber wäre, für den gibt es jetzt auch ein Modell, womit er sicherlich zufrieden sein wird.



https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fimages.idgesg.net%2Fimages%2Farticle%2F2019%2F02%2Fradeon-vii-side-angle-100787452-large.3x2.jpg&f=1&nofb=1
Leute, ehrlich.
Die Karte hat eine zu gute Kühlung???? :D

Nur weil die Karte einen dicken Kühler hat, muss sie ja am Ende nicht so viel verbrauchen, wenn man das nicht will.
Stellt euch vor, auch hier wird man wunderbar undervolten und die Karte wird arschleise sein.
Meinetwegen kann so ein fetter Kühler auch auf einer RX580 verbaut werden, solange das nicht zu teuer wird.

350w Karte mit fettem Kühler > Leise
200w Karte mit fettem Kühler > Leise
Du hast die Wahl!

350w Karte mit kleinem Kühler > Laut
200w Karte mit kleinem Kühler > Leise
Du wirst eingeschränkt.

Ich nehme lieber eine überdimensionierte Kühlung, weil ich keine Lauchkarte im Rechner haben will. Zefix.

WedgeAntilles
2020-08-22, 23:21:15
+1

Das TopEnd-Produkt kann saufen soviel es will, solange die Effizienz (Leistung und Stromverbrauch proportional zueinander) passt - das gilt natürlich auch für AMD und Intel;)



Genau so ist es.

Kapiere den Aufstand deswegen nicht.
Soll die 3090 halt 400 Watt brauche, na und?
Falls die Leistung stimmt ist es doch super.

Wem das zu viel ist kann sich eine 3080, 3070 oder 3060 kaufen.

Natürlich muss die Leistung der 3090 stimmen - bei 400 Watt muss die massiv Leistung bringen.

Vielleicht ist die 3090 performancetechnisch merklich vor der 3080 - und halt auch beim Verbrauch deutlich vorne.

Falls dem so ist würde Nvidia doch für alle das Richtige haben.

Solange keiner die Leistung der 3090 kennt, die mit den 400 Watt (so das denn stimmt) erreicht werden ist es doch völlig Banane über "zu großen Stromverbrauch" zu heulen.

Falls die Leistung überschaubar ist, DANN ist es Zeit sich über den hohen Stromverbrauch zu beklagen.

Kapiere nicht, wie man den Stromverbrauch bewerten kann, wenn man die dazugehörige Leistung nicht kennt? :confused:

Daredevil
2020-08-22, 23:23:12
Zudem, die größte schnellste Karte ist IMMER die Effizienteste.
Beispiel:
2080ti > 300w > Buuuuuuuh
2080 > 250w > Okaaaaaaaay
2080ti undervolted > 150w > Schneller als ne 2080

Fazit: 2080 > Buuuuuuh
Merkste?
Wenn die Effizienz wichtig ist, kaufst du immer das dickste, weil es immer am Effizientesten betrieben werden kann, immer.
Heulst du aber wegen dem Verbrauch rum und kaufst du ne kleine Karte, kaufst du die falsche Karte, anscheinend ist dir die Umwelt nicht wichtig.

gedi
2020-08-22, 23:25:46
Jedem, dem die Karte zu groß ist und kompakter doch lieber wäre, für den gibt es jetzt auch ein Modell, womit er sicherlich zufrieden sein wird.



https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fimages.idgesg.net%2Fimages%2Farticle%2F2019%2F02%2Fradeon-vii-side-angle-100787452-large.3x2.jpg&f=1&nofb=1
Leute, ehrlich.
Die Karte hat eine zu gute Kühlung???? :D

Nur weil die Karte einen dicken Kühler hat, muss sie ja am Ende nicht so viel verbrauchen, wenn man das nicht will.
Stellt euch vor, auch hier wird man wunderbar undervolten und die Karte wird arschleise sein.
Meinetwegen kann so ein fetter Kühler auch auf einer RX580 verbaut werden, solange das nicht zu teuer wird.

350w Karte mit fettem Kühler > Leise
200w Karte mit fettem Kühler > Leise
Du hast die Wahl!

350w Karte mit kleinem Kühler > Laut
200w Karte mit kleinem Kühler > Leise
Du wirst eingeschränkt.

Ich nehme lieber eine überdimensionierte Kühlung, weil ich keine Lauchkarte im Rechner haben will. Zefix.



Du hast Vorstellungen

WedgeAntilles
2020-08-22, 23:27:48
Zudem, die größte schnellste Karte ist IMMER die Effizienteste.
Beispiel:
2080ti > 300w > Buuuuuuuh
2080 > 250w > Okaaaaaaaay
2080ti undervolted > 150w > Schneller als ne 2080

Fazit: 2080 > Buuuuuuh
Merkste?
Wenn die Effizienz wichtig ist, kaufst du immer das dickste, weil es immer am Effizientesten betrieben werden kann, immer.
Heulst du aber wegen dem Verbrauch rum und kaufst du ne kleine Karte, kaufst du die falsche Karte, anscheinend ist dir die Umwelt nicht wichtig.

Interessant, das wusste ich noch gar nicht, muss ich mir merken um es Leuten die wegen zu hohem Verbrauch rumheulen aufs Brot zu schmieren :biggrin:

gedi
2020-08-22, 23:35:40
Du hast Vorstellungen
Interessant, das wusste ich noch gar nicht, muss ich mir merken um es Leuten die wegen zu hohem Verbrauch rumheulen aufs Brot zu schmieren :biggrin:

Das solltest du mal belegen. Mit 150W bekommst du bei ner 2080Ti ebend 150w, oder aber 30% unter ner regulären 2080 non Ti

Daredevil
2020-08-22, 23:46:55
Das kann ich belegen. :)

Beispiel aus dem Benchmark Thread:
RTX 2080 @ 2025-2100Mhz/8000Mhz ( Verbrauch könnt ihr schätzen, oder Exe fragen )
https://abload.de/img/superposition_benchmaiffop.jpg

RTX 2080ti @ 1530/7900 @ 0.7v @ ~150w
https://abload.de/img/unbe2nanntdwkxc.png


Merkse: Willst du Öko sein und Leistung haben, kaufst du die dickste Grafikkarte und undervoltest. Das mache ich seit 2017, weil essentiell beim Mining. :)

Edit:
Aus dem UV Archiv
3715pts GTX1060 @Stock 120w
6323pts GTX980TI @OC 300w
7272pts GTX1080 @OC 240w
9179pts GTX1080TI @Stock 250w
10730pts 712mv 1515/1000 950rpm 162w

Das ist insofern unfair, da alle Karten Stock oder OC sind, aber mit UV laufen die halt noch langsamer. Man hat ja auch einen gewissen Anspruch an Leistung. ^^

gedi
2020-08-22, 23:49:14
Obwohl, das wäre mal ein lustiger Benchrun: Ne 2080Ti gedeckelt bei 150W, gegen Dargos Setup

gedi
2020-08-22, 23:52:09
Das kann ich belegen. :)

Beispiel aus dem Benchmark Thread:
RTX 2080 @ 2025-2100Mhz/8000Mhz ( Verbrauch könnt ihr schätzen, oder Exe fragen )
https://abload.de/img/superposition_benchmaiffop.jpg

RTX 2080ti @ 1530/7900 @ 0.7v @ ~150w
https://abload.de/img/unbe2nanntdwkxc.png


Merkse: Willst du Öko sein und Leistung haben, kaufst du die dickste Grafikkarte und undervoltest. Das mache ich seit 2017, weil essentiell beim Mining. :)

Ich denke, du stellst ne Randgruppe dar

Daredevil
2020-08-22, 23:56:05
Es ging nicht darum, das ich eine Randgruppe darstelle, sondern manche hier sagen, eine 350w Karte sei perse ineffizient und scheiße, obwohl sie nicht einmal Leistungswerte haben.

Was ich hier zeigen wollte war, das die Leistung passen muss zum Verbrauch und das man dort immer selbst Hand anlegen kann, wenn man der Umwelt etwas gutes tun muss.
Mit einer OC Karte für 500€ tut man der Umwelt nichts gutes, mit einer 1000€+ Karte mit UV schon.
Die Frage ist, ob den Leuten Effizienz wirklich so wichtig ist, das sie Geld dafür ausgeben, oder hier nur quer rumgeheuchelt wird. :)

Wenn Big Ampere +50% drauf setzt und 350w Stock zieht, dann bekomme ich vielleicht 2080ti OC Leistung für 100-130w.
Wie Effizient muss es denn sein? Nicht jeder braucht immer den Afterburner und volle Leistung, den braucht man nur bei langsamen Karten.

gedi
2020-08-22, 23:57:55
Und die Basis ist?

gedi
2020-08-23, 00:02:30
Zudem der RAM scheint hier einiges an Effizienz zu fressen.

Ich denke ganz einfach: BN zerfleddert Pascsal easily

Daredevil
2020-08-23, 00:06:43
RAM kannst du ebenfalls untertakten, das ist auch beim Mining nicht unüblich, um Leistung zu sparen bzw. das Power Limit auf die GPU umzuwälzen. ( Völlig egal ob HBM2 oder GDDR6 )
Die Trio Z taktet weniger als die Trio X, da der schnellere RAM mehr verbraucht.

Das mit der Basis verstehe ich nicht.
Die Basis ist dein Anspruch an die Leistung, die dir wichtig ist.
Ich nutze für Indie Games in WQHD/4K mein 150w Setting und bei RTX und AAA Titeln geht die Kiste auf 2050Mhz und 320w hoch. Ist ja klar, da brauche ich den Kram ja.

Deswegen brauche ich eine neue fette 350w GPU mit massiv vielen Einheiten und Leistung, damit ich sie nicht jetzt auf 320w betreiben muss. ICH BRAUCHE LEISTUNG!!!11elf

( Eigentlich brauche ich nur HDMI 2.1 und +30% auf die 2080ti, dann ist alles fein )

PPS:
Das ganze kann man auch super mit SLI und Crossfire kombinieren. :)
Zwei 150w Vegas > eine 300w Vega, mit Abstand.

gedi
2020-08-23, 00:12:16
Eigentlich dachte ich VRAM Takt + Bandbreite ist essenziell beim Mining �� Ich denke du solltest auf XGI warten

Daredevil
2020-08-23, 00:14:22
Wenn ich ne VII auf 1200Mhz drossel bei 110w, dann kommt am Ende das gleiche raus, egal ob ich 1TB/s oder 800MB/s Bandbreite rausfeuer. Flaschenhals und so. ( Ich spare aber ca. 5-10w )
Aber genug den Thread zugespammt, reden wir wieder über SUVs und über die Stromrechnung.
An der Stelle sei noch gesagt, es gibt tolle Öko Strom Angebote bei Check24, meist sogar günstiger als die regulären Anbieter. :D

Tschau Kakao

pixeljetstream
2020-08-23, 01:55:39
Pixeljetstream haut hier einen Wissens Hammer nach dem andern Raus...
Ich würde es jetzt nicht so als Hammer beschreiben, es ist halt vielleicht anschaulicher beschrieben was passiert. Die engine Entwickler können ja auch diverse Techniken ausprobieren, und auf bestehende Titel anwenden. Will sagen ich denke das sind allgemeine Herangehensweisen bei Entwicklung. Aber ist auch off-topic hier. Haben ja noch das Technologie Forum.

Ex3cut3r
2020-08-23, 02:11:15
Das kann ich belegen. :)

Beispiel aus dem Benchmark Thread:
RTX 2080 @ 2025-2100Mhz/8000Mhz ( Verbrauch könnt ihr schätzen, oder Exe fragen )
https://abload.de/img/superposition_benchmaiffop.jpg

RTX 2080ti @ 1530/7900 @ 0.7v @ ~150w
https://abload.de/img/unbe2nanntdwkxc.png


Ist nicht fair. Ich hatte den Bench damals mit rls. Treibern gemacht. Mittlerweile gibt es mehr pkt. mit gleichen Settings (1000-2000 pkt. wenn ich mich richtig erinnere) Aber gut. Ist natürlich etwas pingelig von mir. ^^

basix
2020-08-23, 02:51:53
Ich denke, du stellst ne Randgruppe dar

Nah, ist einfach intelligent :D Mache ich seit Kepler so. GPU auf ~60-65% TDP begrenzen + OC und man bleibt bei 90-100% der Ausgangsperformance. Kein aufgeheiztes Gehäuse und Zimmer sowie alles Silent.

Und Daredevils Werte kann ich bestätigen.

=Floi=
2020-08-23, 03:29:28
nur macht das auch begrenzt sinn, wenn ich mir ne doppelt so teure karte kaufe und diese dann auf mid range begrenze. Ab 4k geht das sowieso nicht mehr...

BlacKi
2020-08-23, 03:35:12
floi das ist einfach falsch. man begrenzt enthusiast to high end und bekommt midrange verbrauch. so ist das nicht anders. ob man das bezahlen will oder nicht steht auf einem anderen blatt.

Platos
2020-08-23, 03:36:20
Vom Stromverbrauch sicherlich eine gute Idee, wenn man gleichzeitg viel Leistung haben will, aber tut einem doch im Herzen weh, eine Grafikkarte untertakten zu müssen. Das geht doch nicht ;D

Digidi
2020-08-23, 03:38:19
Ich würde es jetzt nicht so als Hammer beschreiben, es ist halt vielleicht anschaulicher beschrieben was passiert. Die engine Entwickler können ja auch diverse Techniken ausprobieren, und auf bestehende Titel anwenden. Will sagen ich denke das sind allgemeine Herangehensweisen bei Entwicklung. Aber ist auch off-topic hier. Haben ja noch das Technologie Forum.

Mit Hammer meine ich die Infos an denen du uns teilhaben lässt und das wird hier im Thread gekonnt ignoriert. So etwas finde ich schade.
Statdessen Diskutieren wir zum Millionstenmal den Verbrauch!

Was hat man den an Turing gegenüber Pascal geändert das der Polygonenoutput 2 mal schneller ist auch ohne Mesh-Shader? Das wäre mal interessant zu wissen.

Leonidas
2020-08-23, 06:18:39
Mit Hammer meine ich die Infos an denen du uns teilhaben lässt und das wird hier im Thread gekonnt ignoriert. So etwas finde ich schade.


Sehe ich ganz genauso.

rentex
2020-08-23, 07:05:28
Weil wenige es verstehen oder mitreden könnten, inklusive mir.
Wäre in einem seperaten Thread, besser aufgehoben und es würde nicht untergehen.
Immerhin verstehe ich, das zur HW auch die SW gehört...da hat, pixekjetstream ja gute Arbeit geleistet.
Apropos TDP Begrenzung von Enthusiastkarten: Was für ein Mumpitz! Schwachsinn sogar!
Man kauf doch keine 1300€ um dann die Leistung runterzufahren!
Die Dinos hier, kennen wohl nur Powerregler, ganz rauf oder ganz runter.
Dazwischen wird es wohl kompliziert oder was?!
Da ist gar nichts intelligent, einfach banane.
Schon mal versucht, erstmal zu Ocen und dann zu UV (mit leichten Anpassungen der Clocks)?!
Funktioniert ganz gut und erzeugt ebenfalls etwas weniger Hitze und das wichtigste, die Leistung profitiert davon ebenfalls ein wenig.

wolik
2020-08-23, 07:48:40
UV ist voll ok, nur bei 50% Leistung und Takt 1200MHz (automatisch Runtergetaktet) verbraucht 2080Ti nicht mal "150 Watt" in Standart Setting. z. B. in TESO. Mag sein bei UV ist sogar noch weniger...

SKYNET
2020-08-23, 09:16:06
also sorry 200Watt freiwillige Selbstbegrenzung ist doch Bullshit, wie viele Leute haben denn so fette Grafikkarten im PC, ist ebenso dämlich wie die SUV Diskussion

Für was braucht es denn z.B. den LHC mit seinen 120 Megawatt, deswegen verhungern trotzdem Kühe in Afrika blablabla

die Frage müsste lauten: Habe ich überhaupt 3x 8Pin Stromanschlüsse an meinem Netzteil ?


sogar 4 :freak:

aber dann bleibt nicht mehr viel für die CPU :ulol:

MiamiNice
2020-08-23, 09:29:26
Da steht man mit Restalc im Blut auf, frühstückt und schaut ins Forum und liest was von freiwilliger Selbstbegrenzung ... Da musste ich erstmal checken ob ich im richtigen Forum bin und mich dann hart beherrschen das mir das Frühstück kein zweites Mal durch den Kopf geht.
Keine Ahnung was euer Stoff ist aber nehmt entweder viel mehr oder lasst es ganz bleiben :mad:

Daredevil
2020-08-23, 10:04:34
Vom Stromverbrauch sicherlich eine gute Idee, wenn man gleichzeitg viel Leistung haben will, aber tut einem doch im Herzen weh, eine Grafikkarte untertakten zu müssen. Das geht doch nicht ;D

Vergiss den Kontext nicht, es ging um Perf/Watt und ökologische Denkweise. ( Zitat: 350w sind zu viel, die ist an Kante genäht ect. )
Das ist zudem keine Einbahnstraße, eine 2080ti kannst du bei 150w auf eine 2080 drosseln.
Eine 2080 kannst du sicherlich auch auf 2070 Niveau drosseln, aber nie auf 2080ti Niveau überragten. :)

Leistung ist immer da, man muss sie aber halt nicht immer abrufen, wenn man nicht will. Diese Flexibilität gibt es nur bei der größten gpu, wenn man Strom sparen möchte und viel Leistung benötigt.
Deswegen sagen 300-350-400w nichts aus bei der 3090 über ihre Perf/Watt, nur halt in Stock Settings, wobei da immer noch die Leistung fehlt zur Beurteilung. :)

basix
2020-08-23, 10:05:10
Meine Güte, was läuft hier? Anstatt "OK, ich mache das aber nich" oder "Stromverbrauch ist mir egal" kommt "was für ein Idiot!!111elf!" Soll ich jetzt sagen Haters gonna hate? :D

Von Toleranz gegenüber anderen Meinungen Null zu spüren. Man muss ja nicht der selben Meinung sein oder das selbst machen (ich bekehre niemanden zu dem, was ich mache). Es ist meine HW und ich darf sie betreiben wie ich will. Ausserdem spiele ich in 1440p und habe trotz 160W auf dem Tacho typischerweise 2080 Ti FE Performance (1.70-1.80GHz). Bei der 780 und 980 Ti war es eher FE +10-15% bei 180W. Da könnt ihr eure Performancereduktion geich sonst wohin schieben. Deswegen sehe ich den Sinn nicht, 250 oder 260W zu verbraten, wenn es mit weniger auch geht. Diskussion Ende.

mironicus
2020-08-23, 10:09:03
Einfach auf 5 nm-Karten warten, dann kriegt ihr die 3090-Performance in unter 200 Watt. :)

pixeljetstream
2020-08-23, 10:10:27
Mit Hammer meine ich die Infos an denen du uns teilhaben lässt und das wird hier im Thread gekonnt ignoriert. So etwas finde ich schade.
Statdessen Diskutieren wir zum Millionstenmal den Verbrauch!

Was hat man den an Turing gegenüber Pascal geändert das der Polygonenoutput 2 mal schneller ist auch ohne Mesh-Shader? Das wäre mal interessant zu wissen.
Oft werden ein paar Details zur Arbeitsweise in den Job descriptions gegeben. Was ich gerade beschrieben habe, findet sich ähnlich hier
https://nvidia.wd5.myworkdayjobs.com/en-US/NVIDIAExternalCareerSite/job/India---Bangalore/Senior-GPU-Architect---Hardware_JR1928731

Was da genau geändert wurde kann ich nicht sagen, will nur sagen daß es halt immer ein Abwägen ist lieber mehr Units/unit verbessern oder lieber mehr neue Ansätze zu ermöglichen (die dann bei Marktstart halt selten zur Verfügung sind). Ich hatte ja Mal nen Thread aufgemacht im Technologie Forum zur Funktionsweise von GPUs, ist halt nicht so "in" sowas. Viele hier erfreuen sich, wie man gerade sieht, halt eher an der physischen Grafikkarte wegen der Bastelei, was ja auch total okay ist.

Das nervige ist immer der aggressive Unterton, "Desaster Design", als würden nicht tausende Leute an den Sachen arbeiten mit viel Engagement und Erfahrung. Oder wenn Leute durch leaks meinen irgendwelche Entscheidungen wurden gerade getroffen weil sie meinen davon erfahren zu haben. Leider oft schwarz/weiß formuliert, damit es ja zum Konflikt untereinander kommt und man sich gegenseitig anmachen/ausgrenzen kann. Die Komplexität hinter Entscheidungen wird ausgeblendet, weil dann könnte man sie ja nicht als super/scheiße abtun ;)

WedgeAntilles
2020-08-23, 10:47:33
Mit Hammer meine ich die Infos an denen du uns teilhaben lässt und das wird hier im Thread gekonnt ignoriert. So etwas finde ich schade.
Statdessen Diskutieren wir zum Millionstenmal den Verbrauch!


Da hast du zwar völlig recht, nur ist die Erklärung einfach:
Über Verbrauch kann jeder reden (z.B. ich), die Informationen von Pixel gehen viel tiefer, so dass sehr viele (z.B. ich) das überhaupt nicht mehr kapieren.

Das macht seine Beiträge inhaltlich zwar zu seltenen Perlen - aber gleichzeitig zu etwas, über das die Mehrheit nicht reden kann, weil das nötige Wissen dafür fehlt.

Das macht es natürlich für Leute, die seine Beiträge wirklich verstehen, sehr schwierig.
Seitenweise sinnloseses Blabla und die wenigen wirklich guten Beiträge gehen darin komplett unter.

=Floi=
2020-08-23, 10:48:15
Leistung ist immer da, man muss sie aber halt nicht immer abrufen, wenn man nicht will.

Eure denkweise ist ja an sich ok, nur finde ich den preis der karten dann zu hoch. Ich fahre auch nicht V8, um dann damit nur dahin zu gondeln. :rolleyes:
Will ich ich energie sparen, dann begrenze ich mir die fps und hebe mir das powerbudget für heltische momente auf.

Fährt man eine hohe auflösung und ggf. noch RTX, dürfte das max powerlimit aber überall benötigt werden.

=Floi=
2020-08-23, 10:52:11
"Desaster Design"

Naja, bei vega und dem kaputten oder sehr schlechten rasterrizer darf man das aber schon sagen. Es gibt so oft produkte, welche nicht gut sind.
Gibt auch diverse NV karten mit stock kühlern, wo man auch ein sparbrötchen bekommt.

wolik
2020-08-23, 11:01:07
ich bekehre niemanden zu dem, was ich mache
Was machst du denn? :cool:

monstar-x
2020-08-23, 11:01:52
Man kauf doch keine 1300€ um dann die Leistung runterzufahren!
Die Dinos hier, kennen wohl nur Powerregler, ganz rauf oder ganz runter.


Wieso soll man die Karte auf 100% fahren wenn die Leistung nicht benötigt wird?
Je nach Spiel, habe ich verschiedene Profile.

Wenn ich Overwatch spiele, begrenze ich die Karte auf 40% PT.
So wie in Game 142 Fps, was wunderbar zu meinem Monitor passt.

In anderen Spielen dann wieder 100%, wie gesagt je nach Spiel.

Thunder99
2020-08-23, 11:02:05
@pixeljetstream

Es ist auf der Basis der jetzigen Infos halt nur schwer zu verstehen, wieso es notwendig ist so viel Energie auf zu wenden für das mögliche Performance Ziel.
Deshalb ist es umso spannender nachher das Produkt zu analysieren :).

Kann der Speicher so viel mehr verbrauchen, dass es daran liegt? Am Beispiel von der Quadro TU102 oder GP102 geht es ja auch einigermaßen, die Speicher Verdoppelung.

pixeljetstream
2020-08-23, 11:23:31
Deshalb ist es umso spannender nachher das Produkt zu analysieren :).
Genau, "nachher" :) der Kunde richtet am Ende sowieso über das Produkt als ganzes. Was man als Kunde aber im Normalfall halt nicht kann ist selbst Mal eben GPU Designer spielen und sagen wie es besser geht. Weil diese Prozesse halt von vielen Faktoren abhängen (unabhängig was theoretisch machbar wäre). Das kann ich ja auch nicht. Ich kann auch nur für einen Teilbereich meiner Expertise etwas bewerten, andere Bereiche haben andere Experten etc.

GeForce vs Quadro ist meist auch niedrigerer clock, deutlich weniger TDP, weil Quadro fur Dauerbetrieb auch in Server oder Gehäuse mit festem Powerbudget funktionieren muss. Deswegen kann man das IMO nicht so direkt vergleichen. Quadro ist viel mehr auf die OEMs ausgerichtet.

Troyan
2020-08-23, 11:32:11
Der 12-Pin Poweradapter im Bild: https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter

Adam D.
2020-08-23, 11:40:32
Der 12-Pin Poweradapter im Bild: https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter
Man, dass Igor auch wirklich mit allem Recht behalten musste. Echt blöd für die ganzen Hater hier ;D

Bin froh, dass NV das einführt, ist überfällig.

Troyan
2020-08-23, 11:42:12
Die benötigen den Adapter für die Referenzkarten. So wie der Kühler aufgebaut ist, gibt es null Platz für zwei 8xPin Anschlüsse.

Zossel
2020-08-23, 11:45:47
Man, dass Igor auch wirklich mit allem Recht behalten musste. Echt blöd für die ganzen Hater hier ;D

Bin froh, dass NV das einführt, ist überfällig.

Höhere Spannungen wären sinniger, irgentwas zwischen 24V - 48V.

[MK2]Mythos
2020-08-23, 11:45:59
Man, dass Igor auch wirklich mit allem Recht behalten musste. Echt blöd für die ganzen Hater hier ;D

Bin froh, dass NV das einführt, ist überfällig.
Naja, so viele Hater waren es nicht. Ich glaube, niemand hat wirklich daran gezweifelt dass an seinen Leaks zu 30XX und 12 Pin etwas dran ist.

ChaosTM
2020-08-23, 11:46:01
Die 3090er kriegt ein Externes 1kw Netzteil - Sicher ist sicher

Auch egal wenns denn richtig gut performt. Ich hätte hinten immer noch am liebsten eine Art Co-Prozessor; aber das wirds ned spielen ^^

=Floi=
2020-08-23, 11:51:31
Man, dass Igor auch wirklich mit allem Recht behalten musste.
leider sagte er, dass der neue V(ictory) kühler nur ein rendering ist. :rolleyes:


edit
ich finde das video nicht mehr. :facepalm:

Linmoum
2020-08-23, 11:55:03
leider sagte er, dass der neue V(ictory) kühler nur ein rendering ist. :rolleyes:Nein, sagte er nicht. Seine $150 für den Kühler, die er immer wieder nannte, bezogen sich genau auf diesen.

RLZ
2020-08-23, 12:04:24
Im Eurogamer steht aber auch Scheint wohl ein Hybrid zu sein. Wobei auf der PS5 dann wieder die neuen fixetfunction dran kommen?
Nein. Auch auf der PS5 gibt es Softwarerasterisierung.
Und natürlich ist es Hybrid. Da gibts viele Gründe dafür. Nanite ist eingeschränkt in dem was es rendern kann. Im Grunde ist das momentan statische (im Sinne von UE Movable) Geometrie ohne Tesselation, Displacement, Skinning, Masking oder Transparenz. Außerdem liegen viele Assets ja auch nicht in einer Auflösung vor, die Pixel-sized Dreiecke erlaubt.
Also fällt man sinnvollerweise oft auf den FF Rasterisierer mit State of the Art Featureset zurück.

nordic_pegasus
2020-08-23, 13:04:42
leider sagte er, dass der neue V(ictory) kühler nur ein rendering ist. :rolleyes:


er sagte, dass es eines von mehreren Designs ist, welche evaluiert wurden. Anscheinend hat sich dieses Design durchgesetzt.

davidzo
2020-08-23, 13:58:45
Man, dass Igor auch wirklich mit allem Recht behalten musste. Echt blöd für die ganzen Hater hier ;D

Bin froh, dass NV das einführt, ist überfällig.

Den 12pin Poweradapter hat konkret glaube ich niemand bezweifelt.

Es ging um etwas ganz anderes, und zwar die Bilder der 3080 FE und die Frage ob es mehrere 6pin/8pin Stecker gibt, bzw. ein power delivery board oder einen co-prozessor wie von Igor behauptet. Die Anschlüsse sollten angeblich an der Rückseite der Karte sein, rechts vom zweiten Lüfter.
Ich habe das damals schon Bullshit genannt. Unter dem hinteren Heatsink ist offensichtlich kein PCB mehr, nur noch heatpipes und platz für einen oder mehrere loose 8pin stecker wäre aufgrund des Lüftercutouts sowieso nicht.

Die abgebildete 3080 hat einen PCIe Stecker der 45Grad schräg nach oben zeigend, direkt auf der Platine unter dem mittleren oberen Lamellenpaket sitzt, deshalb auch die Lemellenaussparungen dort. Und da ist nur ein einzelner Stecker, wahrscheinlich auch nur 8 pin, wenn doch die 3090 auch nur einen 12pin hat.
Die 320Watt die Igor für die Vanilla 3080 spekuliert hat, sind damit schonmal falsch.

Wenn man nach dem Shotgungprinzip spekuliert wie igor dann ist es sehr wahrscheinlich das man auch mal richtig liegt. Das heißt immer noch das die Mehrheit der Aussagen falsch sind, bei den Ampere Gerüchten vermute ich sogar richtung 80% inkorrekt: traversal coprozessor, getrennte power delivery, power pcb, Das PG133 boardlayout ist für alle 3 Karten gleich 3090 3080 +ti/super, PG132 auch für alle drei, wobei eines von beiden layouts vielleicht gar nicht kommt, kühler die vielleicht nicht kommen (hintertürchen lassen ist bei spekulatius beliebt), speicherausstattungen die vielleicht nicht kommen, 350Watt für die 3090, 320Watt für die 3080,...

Die eigentlichen Leaks kamen dabei von Chiphell, rogame, videcardz, twitter. Igor speist das dann einmal durch den Igorwolf und dichtet sich was dazu. versteht mich nicht falsch, er steckt da eine Menge Arbeit und Recherche rein (ist ja auch sein job), aber ich bezweifle bei den meisten Sachen dass er da irgendwelche quellen hat außer denen die auch andere haben.

Troyan
2020-08-23, 14:01:03
Ich denke, die 3080 hat ebenfalls den Stecker. So muss nVidia nur ein Board produzieren und kann es für beide Serien einsetzen.

Dural
2020-08-23, 14:06:13
Was soll der stecker bringen? Statt 2x6pin hat man jetzt 1x12pin also exakt das selbe. Dafür ein adapter kabel mehr im rechner, super!

mboeller
2020-08-23, 14:15:10
Was soll der stecker bringen? Statt 2x6pin hat man jetzt 1x12pin also exakt das selbe. Dafür ein adapter kabel mehr im rechner, super!


auf der Verpackung stehen aber 2x8-Pin und die Abbildung zeigt auch 2x 8Pin auf der einen Seite und 12pin auf der anderen Seite.

https://cdn.videocardz.com/1/2020/08/NVIDIA-12-pin-adapter-GeForce-RTX-30-1200x1200.jpg

BlacKi
2020-08-23, 14:18:13
Was soll der stecker bringen? Statt 2x6pin hat man jetzt 1x12pin also exakt das selbe. Dafür ein adapter kabel mehr im rechner, super!
ersetzt 2 8pin kabel!

=Floi=
2020-08-23, 14:18:58
min 850w netzteil :ugly:


edit
sorry, meinte der hersteller empfiehlt 850w

[MK2]Mythos
2020-08-23, 14:19:30
Was soll der stecker bringen? Statt 2x6pin hat man jetzt 1x12pin also exakt das selbe. Dafür ein adapter kabel mehr im rechner, super!
Der Adapter wird nur eine Zwischenlösung sein. Langfristig stellt NVIDIA sich sicher vor, dass die Netzteil und Grafikkartenhersteller auf einen 12 Pin Stecker wechseln statt die 6/8Pin Kabel zu verbauen.

BlacKi
2020-08-23, 14:19:49
min 850w netzteil :ugly:
steht da nicht

Troyan
2020-08-23, 14:19:57
min 850w netzteil :ugly:

Nein. Empfohlen.

unl34shed
2020-08-23, 14:22:26
Und bei den 8 pins scheinen nur 6 Pins angeschlossen zu sein,

Linmoum
2020-08-23, 14:25:57
Und da ist nur ein einzelner Stecker, wahrscheinlich auch nur 8 pin, wenn doch die 3090 auch nur einen 12pin hat.
Die 320Watt die Igor für die Vanilla 3080 spekuliert hat, sind damit schonmal falsch.Aha. Dass das auch einfach ein 12-pin ist, ist natürlich völlig ausgeschlossen.

Ansonsten ist das relativieren gegenüber Igor schon amüsant. Einfach mal anerkennen, dass er (exklusive) Infos hatten und diese sich als wahr herausstellen bzw. herausgestellt haben. So schwer sollte das nicht sein.

min 850w netzteil :ugly:Wie bereits geschrieben, empfohlen. Allerdings trotzdem dahingehend interessant, dass für die 2080Ti nur ein 650W PSU empfohlen wurde.

davidzo
2020-08-23, 14:28:41
Was soll der stecker bringen? Statt 2x6pin hat man jetzt 1x12pin also exakt das selbe. Dafür ein adapter kabel mehr im rechner, super!

Naja, ganz so einfach ist es nicht.

Es entspricht eher 2x 8Pin, da bei den 6pin und 8pin steckern jeweils zwei Pins als Senseleitung verwendet werden, 6pin ist also effektiv nur 4pin und 8pin effektiv nur 6pin stromführend.

Bisher hatten die Netzteilhersteller mehr oder weniger die Wahl ob man AWG18, 17 oder 16 einsetzt. Für den 12Pin Stecker ist nun anscheinend eine höhere Qualität fetsgeschrieben, weshalb pro Pin wesentlich mehr Power übertragen werden kann.

Laut Molex gibt es sogar zwei verschiedene Crimp Terminals für Mini Fit Jr. (ATX) Stecker, einen für 17-18AWG und einen für 16AWG.

Billignetzteil verwenden AWG18 und versuchen den Voltagdrop durch möglichst kurze und non-modulare, direkt verlötete Kabel Grenzen zu halten.

Highendnetzteile und Aftermarkethersteller verwenden AWG16 oder gar AWG15 kabel, die gut doppelt soviel Querschnitt haben wie billige AWG18 kabel:

AWG mm2 D Ohm/km
15 1,65 1,45 11,2
16 1,31 1,29 14,7
17 1,04 1,15 17,8
18 0,8230 1,0240 23,0

Molex gibt die Mini Fit Stecker mit bis zu 13Ampere an, das heißt bei vergoldeten Terminals und AWG16. Es gibt natürlich auch billigere Bronze oder verzinnte Terminals.

Bei 13 Ampere pro Pin würde schon ein 6/8Pin Stecker (3 pins 12V x 13A x12V) 468Watt liefern können.

Dass der aber nur mit max. 150Watt gerated ist liegt zum einen an der Kabellänge von PCIesteckern und dem geringen erlaubten Voltagedrop, aber vor allem auch am Kabelmaterial. Man muss halt mit dem kleinsten gemeinsamen Nenner rechnen, also verzinnte Stahlterminals, AWG18 Chinalitze und 45cm Kabellänge...
Hebt man die Standards an ist deutlich mehr möglich über dasselbe Kabel.

BTW, Laut Molex geht es offiziell nur bis AWG16 /1.3mm2 , aber Aftermarket Hersteller haben schon Kabel mit besonders kompakter Isolierung hergstellt mit dem auch AWG15 bzw. 1.5mm2 möglich ist: https://www.cable-sleeving.com/15awg-hookup-wire-black
Und da die ATX Steckergehäuse und Terminals in Netzteilen heutzutage sowieso nurzu einem Bruchteil noch von Molex selbst kommen sollte es mich nicht wundern wenn man auch über die ursprünglichen Molex Standards hinaus geht.

nordic_pegasus
2020-08-23, 14:32:16
Was soll der stecker bringen? Statt 2x6pin hat man jetzt 1x12pin also exakt das selbe. Dafür ein adapter kabel mehr im rechner, super!

unabhängig von der ganzen Thematik für den vermutlichen Verbrauch von Ampere, finde ich diesen neuen Stecker eine gute Weiterentwicklung.

Ursprünglich gab es 6-Pin für Grafikkarten. Laut Specs hat ein 6-Pin PCIe Anschluss nur 2x 12Volt. Dann kam die Erweiterung zu 8-Pin. Die zusätzlichen 2 Leitungen sind eigentlich nur Masse/Sense. Stattdessen wird bei 8-Pin PCIe eine Masse-Leitung der ursprünglichen 6 Leitungen in 12Volt umgewandelt.

Damit das alles kompatibel ist mit diesen Kombi 6+2 Pin Stecker, ignorieren Grafikkarten mit 6-Pin PCIe Anschluss die 12Volt auf dem Pin, welcher für den 8-Pin PCIe gedacht ist. Also könnte man eigentlich den 6-Pin Stecker alleine einstecken und hätte die 3x 12Volt Leitungen des 8-Pin Steckers. Aber weil dann der Sense nicht durchgeschliffen wird, wird die GraKa meckern.

Ferner haben wir dann noch diese Kabel mit 2 PCIe Anschlüssen (Girlande). Es ist total logisch, eine GraKa mit 2 Anschlüssen auszustatten, weil die Stromstärke zu hoch ist für einen einzelnen Anschluss, dann aber die beiden Stecker über ein Kabel zum NT zu führen.

Dieser 12-Pin Stecker räumt damit auf. Kein 6-Pin / 6+2 Pin / 8-Pin mehr und keine Girlanden mehr mit 2 Anschlüssen pro Kabel. Darum halte ich diesen neuen Anschluss für die richtige Entwicklung, um diesen Wildwuchs an den Netzteilen endlich zu benden.

BlacKi
2020-08-23, 14:35:20
Und bei den 8 pins scheinen nur 6 Pins angeschlossen zu sein,
wie schon david anmerkte, 2x6pin kabel können auch besser als 2x8 pin sein, jenach querschnitt.

der eine 12pin stecker kann damit 4x 8pin stecker ersetzen, no need for 3x8 pin für 350w karten und mehr, 1fits all^^

Troyan
2020-08-23, 14:36:23
Hardwareluxx hat den Stecker auch erhalten: https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/53907-12-pin-micro-fit-3-0-stecker-fuer-ampere-geforce-karten-bestaetigt.html

Daredevil
2020-08-23, 14:44:08
Mythos;12400098']Der Adapter wird nur eine Zwischenlösung sein. Langfristig stellt NVIDIA sich sicher vor, dass die Netzteil und Grafikkartenhersteller auf einen 12 Pin Stecker wechseln statt die 6/8Pin Kabel zu verbauen.
Wo hast du denn was von einem Adapter gelesen?
Das von Seasonic gezeigte Kabel ist bereits eins, was man direkt ins Netzteil steckt.
Ein 75cm Kabel wird wohl eher selten bei einer GPU beiliegen. :D

Das ist kein Adapter, sondern ein Netzteil Kabel.

Seth
2020-08-23, 14:44:34
Da gehe ich doch mal stark von aus dass es Nvidia proprietär ist und kurze Zeit später kommt dann eine ATX 12-Pin Variante, die dann nicht kompatibel ist, weil die Pinbelegung anders ist. ;D

Troyan
2020-08-23, 14:50:01
Naja, die könnten sich auch einfach an die PIN-Belegung von nVidia halten...

Ansonsten wird wohl nVidia wohl einfach einen Adapter für 2x 8PIN Adapter beilegen. Macht ja ansonsten kein Sinn.

Zergra
2020-08-23, 14:51:25
Gefällt mir mit dem 12PIN Anschluss, sowas ist lange überfällig.
Ich hoffe AMD zieht da mit, dann setzt sich das auch schnell durch.

Cubitus
2020-08-23, 14:52:24
Ja früher waren solche Adapter völlig normal, bei meiner 6800er lagen damals Molex auf auf 6 Pin dabei ;D

Gefällt mir mit dem 12PIN Anschluss, sowas ist lange überfällig.
Ich hoffe AMD zieht da mit, dann setzt sich das auch schnell durch.

Wenn es im Endeffekt auf ein großes Kabel im Case hinausläuft, gerne..
Hoffe das Adapter Kabel ist lang genug..

Linmoum
2020-08-23, 14:52:41
Es ziehen ja scheinbar nicht mal die AiB mit, der 12-pin soll FE-exklusiv sein und das war's.

RLZ
2020-08-23, 15:00:11
ich frag mich ja, ob sich sich das mit den dutzenden Adern und großen Steckern wirklich lohnt.
Einfach 4mm^2 mit XT 60 Stecker dran und man hätte Ruhe :freak:

r3ptil3
2020-08-23, 15:01:43
Hoffentlich werden die Customs nicht darauf setzen.

Keine Lust auf mein Cablemod Pro Kit zu verzichten.

Von mir aus auch drei Stecker a 8Pin.

PCIE= 75 Watt
3x8Pin= 450 Watt

Digidi
2020-08-23, 15:02:34
Nein. Auch auf der PS5 gibt es Softwarerasterisierung.
Und natürlich ist es Hybrid. Da gibts viele Gründe dafür. Nanite ist eingeschränkt in dem was es rendern kann. Im Grunde ist das momentan statische (im Sinne von UE Movable) Geometrie ohne Tesselation, Displacement, Skinning, Masking oder Transparenz. Außerdem liegen viele Assets ja auch nicht in einer Auflösung vor, die Pixel-sized Dreiecke erlaubt.
Also fällt man sinnvollerweise oft auf den FF Rasterisierer mit State of the Art Featureset zurück.

Ah danke für die Infos. Auch deine Beiträge sind immer sehr wertvoll hier im Forum, ich freu mich das sich hier noch ein paar experten rumttumeln ;(

Die Nanite Engine scheint ja diesen Workload zu verlangen. Weshalb bohrt man den die FF-Hardware nicht auf, auf die Bedürfnisse der Nanite Engine und fügt praktisch noch einen Microo-polyogonrasterizer hinzu? Das würde doch Chipfläche einsparen.

w0mbat
2020-08-23, 15:08:02
Wenn AMD mit nem 12-pin Stecker gekommen wäre würden alle Grünen hier mega flamen von wegen Stromverbrauch. Wenn es aber von Nvidia kommt, ist es schon lange überfällig ;D

Linmoum
2020-08-23, 15:09:27
Keine Lust auf mein Cablemod Pro Kit zu verzichten.Das war auch mein erster Gedanke, als ich dieses grottenhässliche Teil von Seasonic gesehen habe. Grundsätzlich wird es aber natürlich auch solche Kabel dann mit der Zeit geben.

Die AiB werden aber einfach aus Bequemlichkeit weiter 6/8-pin nutzen, da man dann nicht um die Kompatibilität und Otto-Günther besorgt sein muss, der die Karte anschließen will und sie dann wieder zurückschickt, weil sie nicht ans Netzteil passt.

Wobei wenn Seasonic allerdings sagt, dass das Kabel aktuell nur zu Testzwecken genutzt wird, dann haben die AiB auch gar keine Möglichkeit, auf 12-pin zu setzen. So viele Adapter bzw. entsprechende Kabel wie von Seasonic wird es aktuell schlicht noch nicht geben.