PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

AffenJack
2020-08-15, 13:27:43
Wenn man das in Gaming Ampere bringt stellt sich auch die Frage, warum das dann nicht auch bei GA100 gemacht wurde, denn hier ist die Verbesserung von FP32 vs V100 ja recht überschaubar.
Und wenn es es über Tensor Cores kommen sollte ist deren Funktionsumfang/ISA auch recht limitiert.


Ich stimme Troyan erstmal zu, dass man 2xFP32 anscheinend für irrelevant fand bei GA100. Was GA100 aber hat ist 4xFP16. Anscheinend hat man sich 2xFP32 gespart, um Transistoren zu sparen. Aber wieso sollte man nicht die 4xFP16 in GA100 fürs Gaming in 2xFP32 umbauen? Bisher war FP16 immer doppelt so schnell, wie FP32. Der Schritt den man von GA100 ausgehend von 4xFP16 zu 2xFP32 bei Gaming Ampere gehen muss, klingt für mich verdammt klein.

Nur sollte man dann nicht den Fehler machen die FP32 Leistung mit Turing zu vergleichen. Wenn Nvidia das macht, dann hat man zwar ~35 TFlops FP32 Leistung, aber davon wird nur ein Bruchteil ankommen. Navi und Turing werden in der Metrik Perf/Gflops ganz weit vorne sein. Es wäre schon irgendwie lustig, da das plötzlich die genaue Umkehr der Verhältnisse vor Navi wäre.

dargo
2020-08-15, 13:30:18
Jop, mittlerweile gibt es ja sogar Anzeichen, dass der Takt (etwas) niedriger ausfallen wird. Und wenn das schon bei den kolportierten 320-350W der Fall wäre...
Wieso niedriger? Der offizielle Boosttakt einer 2080TI non FE beträgt 1545Mhz.

robbitop
2020-08-15, 15:24:36
Natürlich. Ansonsten frage ich mich ja, wie du hier den 8nm LPP Prozess auch nur einschätzen willst. Fakt ist, dass S855 ca. 20% effizienter wurde von Samsung 10nm LPP auf TSMCs 7nm Prozess. Fakt ist auch, dass der 8nm LPP Prozess nochmal besser ist als der 10nm LPP und somit der Abstand vorallem bei der Effizienz sich halbiert hat.

Der riesige Vorteil von TSMCs 7nm ist die >30% bessere Packdichte. Die ist aber irrelevant, da AMD nicht annährend an das Maximum ran kommt.

Die GPU IP ist eine völlig andere (Mali vs Adreno). Und auch die Fabric für den SoC ist eine andere. Anderes Binning. Anderer Betriebspunkt etc.

Das kann man gar nicht seriös vergleichen. Äpfel vs Birne.

Weiterhin sind 20% Effizienz (selbst wenn man es vergleichen könnte) kein Pappenstil. Dazu kommt, dass N7P auch nochmal Effizienz auf N7 draufpackt.
Nämlich 10%: https://en.wikichip.org/wiki/7_nm_lithography_process

Wären dann schon 33% [1.21 x 1.1].
———————————————
Eine Verdopplung der FP32 FPUs halte ich für unwahrscheinlich. Aus Gründen der ILP und Granularität hat man nicht grundlos seit Kepler kontinuierlich verkleinert. Kepler 192 fpus; Maxwell/Pascal: 128 fpus; Volta/Turing: 64 fpus.
Und das ist bei 3d workloads viel wichtiger als bei compute (Stichpunkt Problemgröße).

Auch waren bis dato compute in der Hinsicht immer gleich zu den 3d uArchs bei NV.
Mit einer simplen Verdopplung ist es ja nicht getan. Es braucht mehr Register, mehr L1, die Anbindung, die Kontrolllogik. Alles muss man anfassen. Und das um dann wieder rückwärts zu Pascal zu gehen? IMO unwahrscheinlich.

Offenbar werden die Tensorcores aufgebohrt. Ggf auch die RT Cores.

Troyan
2020-08-15, 17:15:12
Tolle Rechnung. Hier mal die Rechnung von TSMC 7nm gegen 16nm:
Mindesten 2x bessere Effizienz.

Hier das Ergebnis von Navi und Pascal 7nm gegen 16nm:
Langsamer und ineffizienter als 16nm.

Nun erkläre mal, wie AMD den massiven Architekturnachteil aufholen soll, wenn nVidia einen ~2x effizientieren Prozess mit 2x der Packdichte gegenüber 16nm mit Ampere verwenden wird.

Du behauptest hier seit Monaten, dass nVidia nur einen minimalen Effizienzgewinn gegenüber Turing einfahren wird. Es macht kein Sinn. Sollte man selbst irgendwann einsehen.

BlacKi
2020-08-15, 17:22:18
wurde hier noch nicht verlinkt.von wtftech. zotac ampere karte zum fremdschämen, deshalb im spoiler:redface:
https://cdn.wccftech.com/wp-content/uploads/2020/08/ZOTAC-GeForce-RTX-3080-Graphics-Card.png


Nun erkläre mal, wie AMD den massiven Architekturnachteil aufholen soll, wenn nVidia einen ~2x effizientieren Prozess mit 2x der Packdichte gegenüber 16nm mit Ampere verwenden wird.
kepler effekt:biggrin:

Linmoum
2020-08-15, 17:23:09
Tolle Rechnung. Hier mal die Rechnung von TSMC 7nm gegen 16nm:
Mindesten 2x bessere Effizienz.
Ich frage mich ernsthaft, warum du permanent falsche Informationen verbreitest. Google halt wenigstens vorher mal.

TSMC original 7-nanometer N7 process was introduced in April 2018. Compared to its own 16-nanometer technology, TSMC claims its 7 nm node provides around 35-40% speed improvement or 65% lower power.
https://en.wikichip.org/wiki/7_nm_lithography_process

Auch mit N7P reicht es nicht für mindestens die doppelte Effizienz. Nicht einmal ansatzweise. Ganz davon ab, dass TSMC das auch gar nicht behauptet, wie du es hingegen ihnen "unterstellst".

Edit: Nevermind, Effizienz natürlich.

dargo
2020-08-15, 17:33:56
Ich frage mich ernsthaft, warum du permanent falsche Informationen verbreitest. Google halt wenigstens vorher mal.

Der streut schon seit Wochen Fake News. Sein virales Marketing läuft wieder am Anschlag. ;D Neuerdings ist Navi10 sogar ineffizienter als Pascal. Dabei ist Navi10 minimal effizienter als Turing. Finde den Fehler. :freak:

woodsdog
2020-08-15, 17:41:49
Der streut schon seit Wochen Fake News. Sein virales Marketing läuft wieder am Anschlag. ;D Neuerdings ist Navi10 sogar ineffizienter als Pascal. Dabei ist Navi10 minimal effizienter als Turing. Finde den Fehler. :freak:

Wieso wird solches wiederholtes Fanboiii-Getrolle hier eigentlich toleriert? Ist bei jedem NV Launch das gleiche mit dem Typen :P Nervt nur noch

N0rG
2020-08-15, 17:42:37
Wären 50% lower power nicht schon "doppelte Effizienz"? 65% müssten dann so 2,8 fach sein.
oder berechnet man das anders?

monstar-x
2020-08-15, 17:43:03
Der streut schon seit Wochen Fake News. Sein virales Marketing läuft wieder am Anschlag. ;D Neuerdings ist Navi10 sogar ineffizienter als Pascal. Dabei ist Navi10 minimal effizienter als Turing. Finde den Fehler. :freak:

Hat er doch damals auch bei TURING gemacht, DLSS, RTX als das non plus Ultra verkauft.

DLSS und RTX, davon fehlt heute nach 2 Jahren so gut wie jede Spur.

robbitop
2020-08-15, 17:47:07
Mit Fanboys ist leider keine objektive Diskussion möglich.

Timbaloo
2020-08-15, 17:47:40
DLSS und RTX, davon fehlt heute nach 2 Jahren so gut wie jede Spur.
:facepalm:

robbitop
2020-08-15, 18:00:54
Du behauptest hier seit Monaten, dass nVidia nur einen minimalen Effizienzgewinn gegenüber Turing einfahren wird. Es macht kein Sinn. Sollte man selbst irgendwann einsehen.

Das war gar nicht das Thema aber gut: Das legst du mir seit Monaten in den Mund. Ich habe das nie behauptet. Ich habe lediglich konstatiert, dass Steigerungen fast immer dem Gesetz des sinkenden Grenzertrags unterliegen. Prozessnormiert hat NV die effizientere uArch. Entsprechend ist es nicht undenkbar, dass AMD diesen Abstand verkürzt. Nicht, dass AMDs uArch die von NV prozessnormiert schlägt oder Ampere prozessnormiert nur wenig Effiziensteigerung ggü Turing bringt.

Differenzieren und Leseverständnis.

=Floi=
2020-08-15, 18:05:59
zumindest ist durch den shrink eine leistungssteigerung zu erwarten. Das kann man festhalten.

Linmoum
2020-08-15, 18:25:38
zumindest ist durch den shrink eine leistungssteigerung zu erwarten. Das kann man festhalten.Echt jetzt? Ich glaube, da lehnst du dich zu weit aus dem Fenster. :freak:

Zergra
2020-08-15, 18:37:48
Wieso wird solches wiederholtes Fanboiii-Getrolle hier eigentlich toleriert? Ist bei jedem NV Launch das gleiche mit dem Typen :P Nervt nur noch

Und bei jedem AMD auch, am Ende tun sich beide Seiten nicht viel, auch wenn keine es wahrhaben möchte.


Ich hoffe das AMD mal etwas aufholt, das würde allen Käufern helfen. Je nach Entwicklung DLSS oder RT wird das aber ggf. nicht so sein.



Zur Fertigung: Ich denke das die Fertigung am Ende ziemlich egal sein wird. Die NV-Chips dürften am Ende größer sein, dafür besser zu Kühlen und auch günstiger.
Ob am Ende N7+ oder N7P oder 8LPP..... am den zählt nur die Leistung und zum Teil der Verbrauch... obwohl der bei mir auch Nebensächlich ist.

rentex
2020-08-15, 19:02:15
Leistung und Verbrauch, gehören untrennbar bei einer Gesamtbetrachtung der jeweiligen Grafikkarten Generation zusammen.
Ob das dir persönlich egal ist, kann jedem hier ebenfalls egal sein und ist im Grunde irrelevant für die Mehrheit.

WedgeAntilles
2020-08-15, 19:05:42
Leistung und Verbrauch, gehören untrennbar bei einer Gesamtbetrachtung der jeweiligen Grafikkarten Generation zusammen.
Ob das dir persönlich egal ist, kann jedem hier ebenfalls egal sein und ist im Grunde irrelevant für die Mehrheit.

Ich bin ziemlich sicher, dass es für die überwältigede Userzahl völlig schnuppe ist, ob ne Karte 230 oder 250 Watt verbraucht.

Verbrauch interessiert erst dann, wenn sich dadurch Probleme z.B. bei der Kühlung ergeben.

Sieht man auch daran, dass in den Tests seitenweise über die Performance berichtet wird.
Und der Verbrauch in einem Halbsatz erwähnt wird.
Weil es eben keinen interessiert.
Natürlich nur - wie gesagt - solange es keine erhebliche Probleme durch zu großen Verbrauch gibt.

Lawmachine79
2020-08-15, 19:37:09
Leistung und Verbrauch, gehören untrennbar bei einer Gesamtbetrachtung der jeweiligen Grafikkarten Generation zusammen.

Sobald ich mit meiner Grafikkarte zur Arbeit fahre fängt das an zu stimmen. Aber im Ernst: Abwägungen zwischen zwei Parametern nimmt man vor, wenn beides knappe Güter sind.

kunibätt
2020-08-15, 19:38:20
Dieser vermeintliche Stockkühler, ist er weiterhin 2 Slot breit?

MiamiNice
2020-08-15, 19:47:13
Leistung und Verbrauch, gehören untrennbar bei einer Gesamtbetrachtung der jeweiligen Grafikkarten Generation zusammen.
Ob das dir persönlich egal ist, kann jedem hier ebenfalls egal sein und ist im Grunde irrelevant für die Mehrheit.

Genau so kann es jedem hier egal sein ob für Dich der Verbrauch eine Rolle spielt ;)
Bei Enthusiasten Karten kräht kein Hahn nach dem Verbrauch. Die Stromkosten über die Nutzungsjahre sind Peanuts zu den Anschaffungskosten.


Verbrauch interessiert erst dann, wenn sich dadurch Probleme z.B. bei der Kühlung ergeben.


Auch dann nicht. Dann kommt einfach ein dickerer Kühler drauf und/oder es wird mehr Wasser durchgejagt. Oder man kauft sich noch einen Mora dazu oder wenn es ganz hart kommt wird ein Chiller gekauft.
Aber so weit sind wir noch lange nicht. Die vermeitlichen 400W einer 3080TI OC sind noch ganz locker im grünen Bereich.

dargo
2020-08-15, 20:06:18
von was träumst du den nachts? navi ist maximal auf pascal niveau turing ist um einiges effizienter und beide undervolted liegt nvidia glatt 15% vorn. lmfao noob

Weiß jetzt nicht was meine Träume damit zu tun haben aber bitte.
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/#abschnitt_amd_navi_vs_nvidia_turing

Linmoum
2020-08-15, 20:09:22
Auch dann nicht. Dann kommt einfach ein dickerer Kühler drauf und/oder es wird mehr Wasser durchgejagt. Oder man kauft sich noch einen Mora dazu oder wenn es ganz hart kommt wird ein Chiller gekauft.
Aber so weit sind wir noch lange nicht. Die vermeitlichen 400W einer 3080TI OC sind noch ganz locker im grünen Bereich.Für dich und mich mit Wakü stimmt das natürlich. ;)

Aber auch bei denjenigen, die derart viel für eine Grafikkarte ausgeben können und wollen, haben wahrscheinlich 95% keine Wakü sondern kaufen sich die Karte von Hersteller XY und lassen den Luftkühler drauf. Und schon die Customs der 2080Ti sind ja teils alles andere als leise. Von den Temperaturen dann mal abgesehen. Wenn da jetzt nochmal was dazukommt, dann werden die ganzen Leute nämlich anfangen, sich darüber zu beschweren. Denn (deutlich) über 300W werden für Luft dann schon problematischer.

rentex
2020-08-15, 20:15:06
Da kann man ja richtig froh sein, das die veraltete Einstellung einer Minderheit von Usern, in der IT Industrie, nicht mehr maßgeblich von Belang ist.

MiamiNice
2020-08-15, 20:25:33
Was ist den daran veraltert? Chips werden produziert um überfahren zu werden :wink:
Im Ernst: So lange Energie kein begrenzender Faktor ist, ist es vollkommen egal was so ein Chip durch seine Schaltkreise jagt. Interessieren sich auch nur Leute für die jeden Cent 2x umdrehen und die kaufen eh nicht in der Klasse.
3060/3070 werden schon nicht so viel Saft verballern, das ist das was die meisten kaufen.
Wäre natürlich schön wenn die dicken Karten von Werk ab sparsamer sind - dann wäre das OC Potenzial um einiges höher ;D

WedgeAntilles
2020-08-15, 20:45:53
Da kann man ja richtig froh sein, das die veraltete Einstellung einer Minderheit von Usern, in der IT Industrie, nicht mehr maßgeblich von Belang ist.

Und weil Stromverbrauch so ein unglaublich wichtiger Faktor ist, sind die 5700/5700Xt und voraussichtlich Ampere ja auch so unglaublich sparsam.
Denn Stromverbrauch ist ja weit wichtiger als Leistung für die Mehrheit.

Ja, deine Beweisführung überzeugt.
Nicht.

Nur weil eine kleine Minderheit lautstark nach STROMSPAREN!!! schreit, wird sie nicht zur Mehrheit.

BlacKi
2020-08-15, 22:01:18
OT
wetten nicht, aber tipps kannst du hier abgeben, aber ohne diskussion bitte, nur tipps.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12372230#post12372230

Troyan
2020-08-15, 22:33:42
Ich frage mich ernsthaft, warum du permanent falsche Informationen verbreitest. Google halt wenigstens vorher mal.


https://en.wikichip.org/wiki/7_nm_lithography_process

Auch mit N7P reicht es nicht für mindestens die doppelte Effizienz. Nicht einmal ansatzweise. Ganz davon ab, dass TSMC das auch gar nicht behauptet, wie du es hingegen ihnen "unterstellst".

Edit: Nevermind, Effizienz natürlich.

Also lügt TSMC? Okay, wir haben hier einen Experten:
10nm zu 16nm:

With a more aggressive geometric shrinkage, this process offers 2X logic density than its 16nm predecessor, along with ~15% faster speed and ~35% less power consumption. This process continues leveraging the revolutionary FinFET advantages to help customers achieve best density and power efficiency.
https://www.tsmc.com/english/dedicatedFoundry/technology/logic.htm#l_10nm_technology


Compared to its 10nm FinFET process, TSMC's 7nm FinFET features 1.6X logic density, ~20% speed improvement, and ~40% power reduction.
https://www.tsmc.com/english/dedicatedFoundry/technology/logic.htm#l_7nm_technology

Laut TSMC mehr als die doppelte Effizienz. AMD mit Navi1 mit ~1,6x ist weit vom Potential entfernt. A100 liegt bei >2,2x mit 70% mehr Bandbreite gegenüber V100.

Unicous
2020-08-15, 22:54:47
Density=efficiency?:freak:

igg
2020-08-15, 22:58:49
Nur weil eine kleine Minderheit lautstark nach STROMSPAREN!!! schreit, wird sie nicht zur Mehrheit.Die Erfolge vor Turing konnte Nvidia einer konsequenten Performance pro Watt Strategie verdanken. Stimmt das Verhältnis bei akzeptabler Skalierung, kann man vergleichsweise kühle Enthusiastkarten produzieren. Das spart Kühler und gibt OC Potenzial.

Braucht man dagegen viel Watt um auf die Performance der Konkurrenz zu kommen, hat man wenig Spielraum, teure oder laute Kühler und heiße Chips.

Sunrise
2020-08-15, 22:59:41
Über was wird hier eigentlich diskutiert?

Die Angaben von TSMC sind doch niemals auf fertige ASICs (komplexe GPUs) anwendbar, oder?

Die sollten nichtmal für SoCs zutreffen, da viel zu komplex.

Waren das nicht rein auf simpelste Logik bezogene Daten, die der Semi hier angibt? Sprich, absolut nicht übertragbar.

Und dann werden sogar Semi-übergreifende und unterschiedliche SoCs verglichen... das tut ja schon beim Lesen weh...

Piefkee
2020-08-16, 01:19:42
Über was wird hier eigentlich diskutiert?

Die Angaben von TSMC sind doch niemals auf fertige ASICs (komplexe GPUs) anwendbar, oder?

Die sollten nichtmal für SoCs zutreffen, da viel zu komplex.

Waren das nicht rein auf simpelste Logik bezogene Daten, die der Semi hier angibt? Sprich, absolut nicht übertragbar.

Und dann werden sogar Semi-übergreifende und unterschiedliche SoCs verglichen... das tut ja schon beim Lesen weh...

Richtig das sind einfache logic Blöcke mehr nicht. Also von keiner foundrie werden Daten zu komplexen design gemacht.

Aber da mehr oder weniger das alle foundries so machen kann man die Werte zumindest zueinander vergleichen...

BlacKi
2020-08-16, 02:16:25
Density=efficiency?:freak:
verrechne mal 15% speed und 35% weniger verbrauch zusammen. pi mal daumen gibt das schon halber verbrauch. das sind dann 200% efficiency. oder +100% efficiency.

Unicous
2020-08-16, 03:07:28
Was hat die density mit "Speed" oder "Verbrauch" (aka Leistungsaufnahme) zu tun?

Der Prozess erhöht (normalerweise) die Anzahl der Transistoren die auf einen Wafer/Die passen. Die anderen Parameter wie Taktfähigkeit und/oder Spannung sind andere Baustellen, die sich natürlich gegenseitig beeinflussen. Es gibt auch Prozesse in denen nur bestimmte Parameter verändert werden um sie für spezielle Einsatzbereiche zu optimieren, siehe die ganzen SOI-Prozesse die auf RF- und Analog-Chips oder Ultra Low Voltage/Leakage ausgelegt sind.

Hinzu kommt, dass es verschiedene "Prozesse" gibt und sich die Transistordichte verändern kann um die anderen Parameter wie eben Taktfreudigkeit zu optimieren. Dazu kommt, dass alle großen Foundry-Partner eine Extrawurst haben wollen. Apple, AMD, Nvidia, Qualcomm lassen die Prozesse optimieren und haben auch eigene Leute vor Ort, afaik.

Die Parameter die TSMC und die anderen Foundries angeben sind generell "oder" Werte. Entweder x% höherer Takt oder x% geringere Spannung/ Leakage bei Spannung x. Man kann das dann so anpassen lassen, dass man z.B. auf 5% höheren Takt und 20% geringere Spannungen optimiert, aber man wird nie die Marketingwerte erreichen, die TSMC und Co. angeben.

https://en.wikichip.org/w/images/0/0f/n7_overview_slide.jpg

BlacKi
2020-08-16, 03:14:14
who cares density, wenn efficiency ermittelt werden solll anhand von den daten? er hat in den verlinkten sätzen die density "mitverlinkt", aber hauptaugenmerk liegt auf perf/watt wenn man perf/w wissen will.

er kommt mit density:upicard:

er wedelt mit bildchen dabei steht es dort klipp und klar

offers 2X logic density than its 16nm predecessor, along with ~15% faster speed and ~35% less power consumption

ich merk grad eben anhand seines bildchen der verbrauch reduziert sich sogar um mehr als die hälfte

:freak:

Unicous
2020-08-16, 03:35:07
Da steht @same speed bzw. @same power?:freak:

Wenn du mein Wort nicht für voll nimmst:

TSMC original 7-nanometer N7 process was introduced in April 2018. Compared to its own 16-nanometer technology, TSMC claims its 7 nm node provides around 35-40% speed improvement or 65% lower power. Compared to the half-node 10 nm node, N7 is said to provide ~20% speed improvement or ~40% power reduction. In terms of density, N7 is said to deliver 1.6x and 3.3x improvement compared to N10 and N16 respectively. N7 largely builds on all prior FinFET processes the company has had previously. To that end, this is a fourth-generation FinFET, fifth-generation HKMG, gate-last, dual gate oxide process.
https://en.wikichip.org/wiki/7_nm_lithography_process


The 7 nm node is a big deal for the foundry industry in general and TSMC in particular. When compared to the CLN16FF+ technology (TSMC’s most widely used FinFET process technology) the CLN7FF will enable chip designers to shrink their die sizes by 70% (at the same transistor count), drop power consumption by 60%, or increase frequency by 30% (at the same complexity). So far, TSMC has taped out 18 customer products using the CLN7FF technology, more than 50 CLN7FF products will be taped out by the end of 2018.
https://www.anandtech.com/show/12677/tsmc-kicks-off-volume-production-of-7nm-chips

Nirgendwo hat TSMC behauptet, dass sich die Effizienz verdoppelt.;D

Dass sich bei einem Fullnode-Shrink normalerweise die Transistordichte ungefähr verdoppelt ist kein Geheimnis, das ist/war der Versuch Moore's Law zu folgen.

BlacKi
2020-08-16, 03:58:56
halbierung des verbrauchs bei gleicher speed ist die verdoppelung der effizienz. wtf? zumindest des chips nicht der ganzen karte natürlich...

und wenn wir gleich dabei sind. 24 chips brauchen doppelt soviel strom wie 12 chips. 24gb auf 12 module (2gb module) verteil brauchen nicht das doppelte wie 12gb auf 12 (1gb module) module, aber bei den leaks sind jedenfalls 24 chips verbraucht, hier hat igor einfach mal den richtigen riecher gehabt beim berechnen, weil er von 24 chips ausgegangen ist. das ist die verdoppelung des verbrauchs von 12 auf 24gb des vram. und ja , das wird vom PT abgezogen, oder man muss das PT erhöhen.

d.h. auch die 10-12gb varianten werden effizienter sein als die doppel belegten versionen. entweder mit höherem boost oder mit niedrigerem PT.

Edgecrusher86
2020-08-16, 08:58:56
Ich habe ein Custom-PCB gesucht, das ähnliche Bauteile (Caps, Spulen und Phasen) wie die vermeintliche Colorful RTX 3090 (Vulcan X OC?) verwendet.
Von eben jenem angeblichen Vorgänger - der Colorful RTX 2080 Ti Vulcan X OC habe ich leider nur die Frontseite gefunden in einem Review bei wccftech - die Kondensatoren sind andere.

https://abload.de/thumb/dsc_0044-custom-1x5jga.jpg (https://abload.de/image.php?img=dsc_0044-custom-1x5jga.jpg)



Bei Igor und der Zotac RTX 2080 Ti AMP! Extreme bin ich fündig geworden.

Das Design ist schon ziemlich krank ausgelegt. :biggrin:

https://abload.de/thumb/colorfulrtx3090ocpcbc2fkow.jpg (https://abload.de/image.php?img=colorfulrtx3090ocpcbc2fkow.jpg)

Die Karte weist 14 + 13 Phasen auf. ;D:freak:;D

Selbst die FE soll ja über 20 Phasen haben - also wohl 10-12 gedoppelte statt deren 8 wie bei TU102. ^^

Alex1973
2020-08-16, 10:28:27
rentex
Leistung und Verbrauch, gehören untrennbar bei einer Gesamtbetrachtung der jeweiligen Grafikkarten Generation zusammen.
Ob das dir persönlich egal ist, kann jedem hier ebenfalls egal sein und ist im Grunde irrelevant für die Mehrheit.[/QUOTE]


Mir ist mal ein Netzteil in die Luft geflogen, wortwörtlich, als ich damals meine GeForce GTX 570 austesten wollte, seit dem spielt für mich Verbrauch der Graka zumindest unterbewusst eine Rolle, denke ich.:biggrin:

KarlKastor
2020-08-16, 11:30:52
Nirgendwo hat TSMC behauptet, dass sich die Effizienz verdoppelt.;D

Könntest du bitte deine Definition von Effizienz preisgeben? Denn die entspricht anscheinend nicht der allgemein üblichen. Dann kann man diese sinnlose Diskussion vielleicht beenden.

horn 12
2020-08-16, 16:24:54
2,1 Ghz bei RTX 3080
Maximal (der Verbrauch aber arg Böse)?

https://videocardz.com/newz/nvidia-geforce-rtx-3080-spotted-with-2-1-ghz-gpu-clock

MiamiNice
2020-08-16, 17:23:29
Habt ihr da mal zu ende gelesen?

3080 mit 10 Gb
3090 = 3080 21 Jahre Geforce special Edition mit 20 Gb für knapp 2K Teuros
Ampere Titan mit 24 Gb

3080Ti nächsten Jahr als Refresh mit 24 Gb.

Wenn das so kommt wäre das extremst mies. Davon könnte man gar nichts kaufen. Quasi tripple Müll. Naja bis auf die Titan, da stehen aber sicher 3k dran, das ist auch nicht mehr meine Preisklasse-.-

=Floi=
2020-08-16, 17:26:44
Habt ihr da mal zu ende gelesen?

Nö, weil ich mir den scheiß nicht antue, bevor nichts beim händler ist.

Digidi
2020-08-16, 17:50:18
Habt ihr da mal zu ende gelesen?

3080 mit 10 Gb
3090 = 3080 21 Jahre Geforce special Edition mit 20 Gb für knapp 2K Teuros
Ampere Titan mit 24 Gb

3080Ti nächsten Jahr als Refresh mit 24 Gb.

Wenn das so kommt wäre das extremst mies. Davon könnte man gar nichts kaufen. Quasi tripple Müll. Naja bis auf die Titan, da stehen aber sicher 3k dran, das ist auch nicht mehr meine Preisklasse-.-

Hahaaaaaaaaaaa die Nvidia Fanboys können sich die eigenen GPUs nicht mehr leisten. Woran das wohl liegt..... ;D;D;D;D;D

rentex
2020-08-16, 17:52:27
Habt ihr da mal zu ende gelesen?

3080 mit 10 Gb
3090 = 3080 21 Jahre Geforce special Edition mit 20 Gb für knapp 2K Teuros
Ampere Titan mit 24 Gb

3080Ti nächsten Jahr als Refresh mit 24 Gb.

Wenn das so kommt wäre das extremst mies. Davon könnte man gar nichts kaufen. Quasi tripple Müll. Naja bis auf die Titan, da stehen aber sicher 3k dran, das ist auch nicht mehr meine Preisklasse-.-

Wo soll das bitte stehen?

Leonidas
2020-08-16, 17:52:43
Habt ihr da mal zu ende gelesen?
3080 mit 10 Gb
3090 = 3080 21 Jahre Geforce special Edition mit 20 Gb für knapp 2K Teuros
Ampere Titan mit 24 Gb


Ist die Videocardz-Auslegung. Die ist vergleichsweise defensiv. Andere Auslegungen geben Dir mehr - allerdings mit Restrisiko verbunden:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1516-august-2020

Rampage 2
2020-08-16, 18:03:56
2,1 Ghz bei RTX 3080
Maximal (der Verbrauch aber arg Böse)?

https://videocardz.com/newz/nvidia-geforce-rtx-3080-spotted-with-2-1-ghz-gpu-clock

Inwiefern lässt sich anhand "Userbenchmarks" der maximal mögliche (OC-)Takt ableiten? Dort wird sogar für die GTX 1060 ein "Limit" von 2100 MHz angegeben - obwohl die guten/besten Exemplare 2200 MHz packen!

Kann es auch sein, dass der maximal mögliche Takt auf Anweisung von NV absichtlich etwas (5-10%) runtergehalten wird, damit AMD nicht die finale Leistung/Taktraten der Ampere-Chips einschätzen kann? :upara:

R2

Linmoum
2020-08-16, 18:17:45
Inwiefern lässt sich anhand "Userbenchmarks" der maximal mögliche (OC-)Takt ableiten? Dort wird sogar für die GTX 1060 ein "Limit" von 2100 MHz angegeben - obwohl die guten/besten Exemplare 2200 MHz packen!CLim hat in dem Fall nichts mit dem Takt zu tun, der auch tatsächlich anliegt. Das ist einfach nur das hinterlegte, standardmäßige Maximum ohne jegliches OC. Wie rogame schon anmerkte, gilt dasselbe für Turing. Deswegen findest du dort für alle GPUs bei CLim auch (mindestens) 2100MHz (wobei kA, wie das bei UV dann ausgelesen wird. Aber wenn das nicht der Fall ist, ist das eben der Normalwert). Das ist aber nicht der real anliegende Takt und lässt daher weder Rückschlüsse auf diesen, noch auf OC zu. Wenn du übertaktest, dann erhöht sich das CLim logischerweise auch.

woodsdog
2020-08-16, 18:44:19
Inwiefern lässt sich anhand "Userbenchmarks" der maximal mögliche (OC-)Takt ableiten? Dort wird sogar für die GTX 1060 ein "Limit" von 2100 MHz angegeben - obwohl die guten/besten Exemplare 2200 MHz packen!

Kannst du bitte das Märchen von deinen 2,2GHz unter Last Pascal Karten auch mal gut sein lassen?
Die Promilleanzahl an Karten unter Wasser welche das schaffen ist schlicht irrelevant, von 1060er mal ganz zu schweigen. Wer wasserkühlt ne 250 Eur Karte? :confused:

Leonidas
2020-08-16, 19:40:56
Aus dem Chiphell-Forum (https://www.chiphell.com/forum.php?mod=viewthread&tid=2252375). Basiert auf "bekannten Information", sprich es werden auf Basis der aktuellen Gerüchtelage Hochrechnungen angestellt. Typische fernöstliche Spielerei, bitte nicht ernst nehmen.

https://ftp.bmp.ovh/imgs/2020/08/eaa5ce4a2f403fb6.png

unl34shed
2020-08-16, 19:56:14
Aus dem Chiphell-Forum (https://www.chiphell.com/forum.php?mod=viewthread&tid=2252375). Basiert auf "bekannten Information", sprich es werden auf Basis der aktuellen Gerüchtelage Hochrechnungen angestellt. Typische fernöstliche Spielerei, bitte nicht ernst nehmen.


Wenn man von 250W TDP der 1080ti ausgeht, erhält man:
~200W für die 3060.
260-280W je nach Auflösung für die 3080.
325-390W je nach Auflösung für die 3090.
330-400W je nach Auflösung für die Titan.

MiamiNice
2020-08-16, 19:56:34
Nö, weil ich mir den scheiß nicht antue, bevor nichts beim händler ist.

Gute Einstellung. Sollte ich adaptieren.

Hahaaaaaaaaaaa die Nvidia Fanboys können sich die eigenen GPUs nicht mehr leisten. Woran das wohl liegt..... ;D;D;D;D;D

Sind wir im Kindergarten? Auch meine Bereitschaft Geld für HW auszugeben hat eine Grenze. Bei einer GPU wären das für mich eben 2k. Man muss auch mal in Relation setzen was man dafür sonst kaufen könnte.

Wo soll das bitte stehen?

Tiefer Scrollen, Größer:)

Ist die Videocardz-Auslegung. Die ist vergleichsweise defensiv. Andere Auslegungen geben Dir mehr - allerdings mit Restrisiko verbunden:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1516-august-2020

Hoffen wir mal das Deine/unsere Auslegung zutrifft;)

mboeller
2020-08-16, 19:59:07
Aus dem Chiphell-Forum (https://www.chiphell.com/forum.php?mod=viewthread&tid=2252375). Basiert auf "bekannten Information", sprich es werden auf Basis der aktuellen Gerüchtelage Hochrechnungen angestellt. Typische fernöstliche Spielerei, bitte nicht ernst nehmen.


die haben BigNavi vergessen

2150/1887 x 80/40 x 95% = 216%

:biggrin:
:wink:

horn 12
2020-08-16, 20:00:55
Nun, so unrealistisch erscheint die Tabelle gar nicht
30% auf RTX 2080 TI und nochmals dasselbe auf RTX 3080 der 3090

mboeller
2020-08-16, 20:05:00
Tiefer Scrollen, Größer:)


Wer ist dieser Stalker, wenn du seine Kommentare so ernst nimmst?

rentex
2020-08-16, 20:18:09
Wer ist dieser Stalker, wenn du seine Kommentare so ernst nimmst?

Jetzt nimmt man schon Kommentare ernst:rolleyes:

MiamiNice
2020-08-16, 20:20:58
Wer ist dieser Stalker, wenn du seine Kommentare so ernst nimmst?


„Nen“ Forumsmate wie jeder andere hier? Wir sind doch hier alle mehr oder weniger anonyme Girls & Boys die hier zusammen gefunden haben weil wir uns für den selben belanglosen Mist interessieren. Die ein oder andere Ausnahme mal ausgeschlossen wie z.b. der nette Mensch von gestern ;)

Zergra
2020-08-16, 21:30:07
Aus dem Chiphell-Forum (https://www.chiphell.com/forum.php?mod=viewthread&tid=2252375). Basiert auf "bekannten Information", sprich es werden auf Basis der aktuellen Gerüchtelage Hochrechnungen angestellt. Typische fernöstliche Spielerei, bitte nicht ernst nehmen.

https://ftp.bmp.ovh/imgs/2020/08/eaa5ce4a2f403fb6.png

Ja die alleine die Anwesenheit der 3060 macht das kaputt.

Leonidas
2020-08-17, 03:30:55
Nun, so unrealistisch erscheint die Tabelle gar nicht


Unrealistisch ist die Tabelle überhaupt nicht. Es ist nur halt ein eigenerstelltes Gedankenspiel - nichts wo Benchmarks oder Leaks zu vorliegen.

dargo
2020-08-17, 06:34:10
Aus dem Chiphell-Forum (https://www.chiphell.com/forum.php?mod=viewthread&tid=2252375). Basiert auf "bekannten Information", sprich es werden auf Basis der aktuellen Gerüchtelage Hochrechnungen angestellt. Typische fernöstliche Spielerei, bitte nicht ernst nehmen.

Sollte das so kommen einfach nur lol diese Entwicklung. +41% beim Top Dog (Titan ausgeklammert) nach zwei Jahren mit einem neuen Fertigungsprozess. :freak: Nicht, dass ich es anders erwartet hätte aber schon enttäuschend die allgemeine Entwicklung bei den GPUs.

Thunder99
2020-08-17, 09:06:29
Ich möchte es nochmals ansprechen. Wenn die Leistungssteigerungen nur mit massiv erhöhter Leistungsaufnahme generiert wird ist es ein Fail.

Entweder Chip ist "kaput" oder Fertigungsverfahren ist für den "Arsch".

Ehrlich, kann doch nicht sein die Leistungsaufnahme so extrem zu erhöhen...

ChaosTM
2020-08-17, 09:16:06
Das ist doch nur der große Chip - mit Coprozessor ;)
Der darf saufen. Sonst wissen wir genau nix ..

WedgeAntilles
2020-08-17, 09:17:44
Irgendwie passt es nicht zusammen.

"Wir" gehen davon aus, dass AMD - bei relativ ähnlichem Stromverbrauch - die Leistung verdoppelt. Vielleicht sogar mehr.
Dazu noch RT mit einbaut.

Während Nvidia die Leistung um ca. 30-40% steigern soll, dabei aber auch noch einen deutlich höheren Stromverbrauch hat.
Also quasi keinerlei Leistungssteigerung hat, fast die gesamte Leistungssteigerung käme ja nur durch erhöhten Verbrauch.

AMD 100%, Nvidia nahe 0% (vielleicht 10%).

Wieso glaubt man ernsthaft, dass Nvidia nach über 20 Jahren in denen sie konstant recht gute GraKas abgeliefert haben, auf einmal absolut gar nix mehr hinbekommen?

Das AMD bei der neuen Generation vielleicht besser ist - gut möglich.
Das Nvidias Ampere tendenziell eher etwas enttäuscht und es da Probleme gibt die Nvidia so nicht erwartet hat - klar, kann auch gut passieren.

Aber derartig extrem?
Sorry, finde ich völlig unplausibel.

ChaosTM
2020-08-17, 09:25:59
NV hat wahrscheinlich fast alles oder zu viel in RTX investiert.
Ich erwarte eine Keynote, die noch RTX zentrierter ist als die letzte.

rentex
2020-08-17, 09:29:27
NV hat wahrscheinlich fast alles oder zu viel in RTX investiert.
Ich erwarte eine Keynote, die noch RTX zentrierter ist als die letzte.

Sehr wahrscheinlich. DLSS nicht vergessen!

dargo
2020-08-17, 09:39:15
@WedgeAntilles

Dieser Vergleich mit Nvidia ist einfach unpassend da AMD in der aktuellen Gen gar keine Highend/Enthusiast GPU auf Basis von RDNA entwickelt hat. Man muss sich im klaren sein Navi10 ist nur 251mm² groß. In 12nm wäre das Ding irgendwo bei 400-450mm² denke ich da sich nicht alles gleich gut shrinken lässt. Eine 2070 Super ist bereits 545mm² groß. Wenn AMD jetzt 100% mehr CUs in RDNA2 verbaut und Nvidia nur ~24% mehr dann ist es wohl logisch, dass beide bei der nächsten Gen deutlich dichter bei einander liegen.

Edit:
+24% Shader, bissel mehr Takt und leichter IPC-Anstieg. Schon hast du grob deine +40-50% Mehrleistung. Das einzige was nicht so ganz passen mag ist der Anstieg beim Stromverbrauch. Bald wissen wir mehr.

Ex3cut3r
2020-08-17, 09:44:58
Naja, die RT Einheiten blähen den Chip halt auf. Ohne diese wären wir wohl wieder bei Pascal Größe gewesen für die 2070. [314 mm²]

NV hat wahrscheinlich fast alles oder zu viel in RTX investiert.
Ich erwarte eine Keynote, die noch RTX zentrierter ist als die letzte.

Sehr wahrscheinlich. DLSS nicht vergessen!

Eure anti Nvidia Meinung macht euch leider blind. Völlig richtig was WedgeAntilles sagt. Warum sollte Nvidia jetzt mal wieder völlig verkacken? Ihr tut ja so als Turing auch ein Rohrkrepierer war/ist. Mit OC sind es mittlerweile 40% mehr im Vergleich zu einer 1080 Ti, und das trotz RT. Ich verstehe ja, das Nvidia einen unsympathisch ist, weil die Preise sooo hoch sind....aber deswegen vollkommen Weltfremd zu argumentieren. Wirkt wie ein Kind was sein teures Spielzeug nicht bekommt. :biggrin:

dargo
2020-08-17, 09:53:34
Die Tensor Cores nicht vergessen.
https://images.anandtech.com/doci/13282/GeForce_EditorsDay_Aug2018_Updated090318_1536034900-compressed-010_575px.png

unl34shed
2020-08-17, 09:53:53
Nein, so groß sind die RT-Cores nicht, sollen <10% der Chipfläche sein, die für RT und Tensor dazugekommen sind. https://www.reddit.com/r/nvidia/comments/baaqb0/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/

dargo
2020-08-17, 09:59:40
Bezogen auf die gesamte Fläche mag das wenig sein, dies ist aber weniger interessant da dort noch der ganze andere Kram ist. Bezogen auf den SM belegen die RT Cores mit den Tensor Cores schon recht viel Platz.

Edit:
In deinem Link steht sogar, dass ein TPC mit RT + Tensorcores knapp 22% größer ist als ohne.

Timbaloo
2020-08-17, 10:04:01
Man muss sich im klaren sein Navi10 ist nur 251mm² groß. In 12nm wäre das Ding irgendwo bei 400-450mm² denke ich da sich nicht alles gleich gut shrinken lässt. Eine 2070 Super ist bereits 545mm² groß.
Vergleich Navi-10 mit dem TU-106 (445mm²), beide praktisch gleich schnell, mit praktisch gleicher Anzahl an Transistoren (RT-Cores und TC-Cores... geschenkt...).

Keine Ahnung warum du hier für den Vergleich einen beschnittenen TU-104 heranziehst... :rolleyes:

dargo
2020-08-17, 10:08:56
Keine Ahnung warum du hier für den Vergleich einen beschnittenen TU-104 heranziehst... :rolleyes:
Weil es in vielen neueren Games mit DX12/Vulkan immer öfter heißt 2070S = 5700XT. Death Stranding und Horizon: Zero Down fallen mir da jetzt spontan ein.

Timbaloo
2020-08-17, 10:12:58
Und deswegen stellt man einfach full-chip gegen salvage und vergleicht munter Chipgrößen. Alles klar....

Merkst du überhaupt noch was?

Ex3cut3r
2020-08-17, 10:19:22
7nm vs "12" nm ist auch etwas unfair.

Edgecrusher86
2020-08-17, 10:27:30
Ja, das wird eine - wohl nüchtern betrachtet wohl halbwegs plausible Hochrechnung sein aus dem ChipHell-Forum.
Schon alleine die Tatsache, dass alles hinunter bis zur RTX 3060 drinnen steht, lässt es als solche erkennen.
Diese soll ja wohl nicht vor November oder Dezember kommen.

Dann wären da noch die Bandbreiten - bisher halt spekuliert.
Sechs Karten mit fünf unterschiedlichen Spezifikationen [15,5 - 16 - 17 - 19 - 21 Gpbs] wäre doch reichlich seltsam.

Fangen wir bei der TITAN an. Es mag sein, dass 21Gbps derzeit nicht für 16Gb Micron GDDR6X machbar sind.
Aber einen Vollausbau [+2,4% SPs wohl -> 5376 zu 5248] zu bringen mit wohl 48GB [24 x 16Gb] und diesen dann nur mit knapp 81% der Bandbreite
einer RTX 3090 zu veröffentlichen, macht zumindest für mich keinen Sinn. Dann wartet man doch lieber bis zum Beispiel Q1-Q2 2021 und bringt
ebenfalls anständige 21 Gbps und somit auch 1008 GB/s. Speicherdurchsatz ist doch soweit mir bekannt auch ein nicht zu verachtendes Kriterium für Prosumer.

Kommen wir zum GA104. 15,5 bzw. 16 Gbps wäre doch arg wenig. Eine 3070 /Ti soll doch mehr oder weniger auf TU102-Performance gebracht werden.
Was machte man in der Vergangenheit mit Next Gen Performance Chips? Man verbaute immer schnelleren VRAM als die Last Gen Enthusiasten Karten,
damit eine eintsprechende 80er dann diese auch schlagen konnte.

Beispiele:
GM200 - 7 Gbps - 384-bit SI -> 336 GB/s
GTX 1080 - 10 Gbps - 256-bit SI -> 320 GB/s

GP102 [August 2016 bis März 2017] - 10/11 Gbps - 384/352-bit SI -> 480/484 GB/s
TU104 - 14 Gbps - 256-bit SI -> 448 GB/s

Die realisierte Bandbreite war immer in Schlagweite zu den schnellsten Karten der vorherigen Generation.

Die RTX 2080 Ti hat - bis auf die Ausnahme der späten Sondermodelle a la MSI - 352-bit und 14 Gbps -> 616 GB/s
Der Logik nach statte ich dann GA104 mit mindestens 18 oder 19 Gbps aus - bei wieder typischen 256-bit SI. Dann kommt diese auf 576 GB/s bzw. 608 GB/s.

Eine RTX 3060 mit GA106 und 192-bit SI macht für mich nur dann Sinn, wenn man auch hier zweigleisig fährt. Ein günstiges Basismodell mit 6GB und dann optional
12GB und halt mehr PT für leicht höhere Taktraten. Dann sollte ich aber auch hier 18-19 Gbps VRAM verbauen, damit man zumindest mit der dickeren Variante TU104
zumindest bis hinauf zur RTX 2070(S) ersetzen kann.

GA106 @ 18 Gbpps - 192-bit SI: 432 GB/s
GA106 @ 19 Gbbps - 192-bit SI: 456 GB/s
GA106 @ 16 Gbps - 192-bit SI: 384 GB/s

So etwas macht dann wirklich nur Sinn, wenn man über den Preis kommt.
Ansonsten dürfte es einen Shitstorm geben für ein VRAM-Downgrade zur RTX 2060S.

Logischer wäre aber mit Sicherheit für die RTX 3060 nur ein Modell mit 8GB und 256-bit SI zu bringen.
Hier würde dann folgende Konstellation sicher ausreichen:

GA106 @ 15,5/16 Gbps - 256-bit SI [8GB]: 495/512GB/s

Als Minimum sollte man hier auf 14 Gbps und 256-bit zurück greifen, sodass analog zu TU104 wieder 448 GB/s erreicht werden.
Das wäre dann halt ein Gleichstand zu TU104 (2080S außen vor). ;)


E -> OT:
Also DLSS im Quality Mode schlägt die BQ nativ mit T.AA spürbar in Death Stranding. Dann würde ich doch einfach hier 4K DLSS Quality fahren und mich mit einer 2070S über 60+ fps avg. freuen.
Schon erübrigt sich die Diskussion, ob eine 5700XT dort an die 2070S heran kommt wieder. Ich muss allerdings auch zugeben, dass Horizon Zero Dawn das Feature nötiger hätte, da es deutlich mehr frisst, aber hier scheint es wohl eine Partnerschaft mit AMD zu geben. Beides nutzt ja dieselbe Engine. ;)

Ja, so einfach kann man die Chips halt nicht vergleichen, auch wenn sie gegeneinander platziert sind. Ein Navi 10 in 12FFN käme sicherlich auch auf 260-270W bei Richtung 360-420mm2 ohne RT.
Die Effizienz wäre wohl unterhalb der Pascals.

Selbst TU106 ist mal eben 77% größer als N10 - TU104 gar 121%.
Ja, N7P gegen N12, also 16FF++ ist schon ein Unterschied.

Navi 10 ist solide, aber es würde mich nicht wundern, wenn NV im selben Prozess [also N7P] und ohne RT a la 16 Series diese Leistung in 140-150W TGP hin bekommen hätte.
Eine 16er Karte mit 2560SP würde ich in N12 auf 180-200W TGP einschätzen. Das sollte grob hin kommen [die GTX 1660 Ti zieht etwa 120-130W je nach Modell mit 1536SP].

Ich gehe davon aus, dass der Hauptgrund für AMD gegen einen Big Chip mit RDNA1 der Verbrauch war - für TU102 äquivalente Leistung hätte es sicher locker 300-350W bedurft -
ausgehend davon, dass eine 2080 Ti in 4K um die 40-60% [im Mittel] vor der 5700XT liegt und diese real etwa 220W in 4K verbraucht (Ref Design) - PCGH Messung.
Ein RDNA1 Chip, der TU102 um 20% geschlagen hätte, wäre wohl bei 360-420W TGP gelandet - jeweils mit GDDR6 zumindest.

Nun ja, zumindest 3584SP/56CUs und 12GB (384-bit SI) hätte man ja in dieser Generation abliefern können - eine Punktlandung zwischen TU104 und TU102 bei um die 300W TGP geschätzt -
das Ganze für $599-649 - wäre schon für den Ein oder Anderen eine gute Alternative gewesen oberhalb WQHD. ;)

Thunder99
2020-08-17, 10:42:17
Bin wirklich gespannt was dran ist.

Und so weh es tut, es kann immer mal wieder passieren, dass was nicht so läuft wie geplant. Es sind aber nur Spekulationen ;).

wolik
2020-08-17, 10:43:37
Nein, so groß sind die RT-Cores nicht, sollen <10% der Chipfläche sein, die für RT und Tensor dazugekommen sind. https://www.reddit.com/r/nvidia/comments/baaqb0/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/

Leider es ist einzige "Quelle" im Netz bezüglich Transistor "verbrauch" von RT und Tensor.

ChaosTM
2020-08-17, 10:52:40
Selbst wenn Ampere wirklich als ThermiII daherkommen sollte, was ich nicht glaube, kann man die Karte ja immer noch leicht untertakten.
So konnte man zb. aus einer AMD 2/390er eine recht vernünftige Karte machen punkto Leistung/Verbrauch.

dargo
2020-08-17, 11:06:57
Ja, N7P gegen N12, also 16FF++ ist schon ein Unterschied.

Navi 10 ist solide, aber es würde mich nicht wundern, wenn NV im selben Prozess und ohne RT a la 16 Series diese Leistung in 150W TGP hin bekommen hätte. ;)
Natürlich ist es ein Unterschied. Wird bei RDNA2 vs. Ampere auch nicht anders sein da beide IHVs nicht den selben Prozess nutzen. Wir werden damit leben müssen. Das einzige was wir im Bereich Effizienz wissen ist +50% bei RDNA2 vs. RDNA1 laut AMD. Bei Nvidia ist es noch offen.

Selbst wenn Ampere wirklich als ThermiII daherkommen sollte, was ich nicht glaube, kann man die Karte ja immer noch leicht untertakten.
So konnte man zb. aus einer AMD 2/390er eine recht vernünftige Karte machen punkto Leistung/Verbrauch.
Das kannst du mit jeder modernen GPU machen. Mache ich sowieso immer da mir die Default-Betriebspunkte bei den GPUs etwas zu weit von der Vernunft sind. Am stärksten von so einem Eingriff profitiert imo die Vega10. Ab einer gewissen Frequenz und der dabei anliegenden Spannung explodiert der Verbrauch förmlich. Dabei war Vega10 um die 1400-1500Mhz mit UV sehr sparsam im Vergleich zum Default-Betriebspunkt.

ChaosTM
2020-08-17, 11:13:09
Meine 1080ti läuft mit 85% Powertarget. Deutlich kühler und auch unter Last fast nicht vernehmbar und kaum langsamer..

add.: im Sommer - im Winter dürfen es auch 115% sein ;)

Screemer
2020-08-17, 11:33:32
Die Tensor Cores nicht vergessen.
https://images.anandtech.com/doci/13282/GeForce_EditorsDay_Aug2018_Updated090318_1536034900-compressed-010_575px.png

Die Theorie war doch, dass die tensorcores aufgeblasen werden um viele der fp32 Berechnungen zu übernehmen und die sms zu entlasten und dadurch eine Performancesteigerung durch freie Kapazität zu bekommen. Wenn dem nun wirklich so ist, dann wundert mich der Anstieg nicht. Das war in der letzten gen Silizium, dass quasi immer rumgeidled hat. Die perf/mm2 würde damit wohl noch Mal ordentlich anziehen aber eben auch die Energiedichte steigen.

Oder wurde das schon wieder zu den Akten gelegt.

BlacKi
2020-08-17, 11:37:50
Meine 1080ti läuft mit 85% Powertarget. Deutlich kühler und auch unter Last fast nicht vernehmbar und kaum langsamer..

add.: im Sommer - im Winter dürfen es auch 115% sein ;)
das macht die effizienzvergleiche auch so schwierig. je nach dem wie der hersteller den effizienz spot massiert. deshalb schockieren mich die +50% p/w auch überhaupt nicht und sind auch komplett nichtssagend über die performance. theorethisch, wäre das auch ohne verbesserungen am design im selben fertigungsprozess "möglich".

einfach PT -33% setzen fertig:biggrin: wuuhuuuu rdna2 hat +50% p/w!:freak:

Edgecrusher86
2020-08-17, 11:42:47
Ja, Ampere wird sich bestimmt auch relativ ordentlich undervolten lassen - Pascal ermöglichte ganz grob so um die 1700 MHz @ 800mV. Turing dann Richtung 1800 MHz mit dieser Spannung.
Zumindest ähnliches darf man auch von Ampere erwarten -> eine RTX 3090 dürfte damit bei deutlich unter 300W landen. Immer noch ein hoher Wert, aber deutlich niedriger als von Haus aus.
1700 MHz sollten wohl bei 200-250W machbar sein.

Wobei ich dann lieber per Offset Undervolting betreiben würde, denn es ist ja so, dass ein PT-Limit Deckel dann den ein oder anderen Spike auslösen kann.
Der einzige Nachteil ist, dass ich halt vor dem Zocken ein Profil laden muss und dann später auf dem Desktop dieses wieder zu deaktivieren habe. Das sind aber auch nur zwei Klicks. :)

P.S.: Mein Alltagssetting sind 1670 MHz @ 800mV für die 1080 Ti FE. Die Karte braucht im Schnitt zwischen 120-150W - ich spiele das Meiste mit 50 oder 60 fps Limiter (per CP) -
eine für mich runde Geschichte in Kombination mit G-SYNC und NULL (NVIDIA Ultra Low Latency). Für MP langen mir auch 80 fps - dann zieht sie so ihre 170-180W Peak. :D

r3ptil3
2020-08-17, 11:45:02
Eine 3090 @ -20% UV wäre schon nice.

Was ich momentan nicht so richtig einordnen kann: 3080 Ti.

Passt nach den Leaks der letzten Tage nicht so ins Bild, aber da war ja noch der ASUS Leak vor einer Weile mit der Custom-3080 Ti.

dargo
2020-08-17, 11:51:37
das macht die effizienzvergleiche auch so schwierig. je nach dem wie der hersteller den effizienz spot massiert. deshalb schockieren mich die +50% p/w auch überhaupt nicht und sind auch komplett nichtssagend über die performance. theorethisch, wäre das auch ohne verbesserungen am design im selben fertigungsprozess "möglich".

einfach PT -33% setzen fertig:biggrin: wuuhuuuu rdna2 hat +50% p/w!:freak:
Liegts an der Hitze? :freak:

Manchmal kann die Lösung so einfach sein. Perf/W = +50%. Da RDNA1 225W braucht erreicht RDNA2 bei gleichen Verbrauch 150% Performance. Will AMD jetzt 200% Performance anpeilen wird RDNA2 mindestens 300W verbraten. Eher mehr da man für die letzten paar Prozent Leistung überproportional mehr Energie reinpumpen muss.

Edit:
CB hat hier sogar "nur" 210W gemessen.
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#abschnitt_messung_der_leistungsaufnahme

Wenn man das als Referenzpunkt nimmt könnten die 300W bei RDNA2 mit Faktor 2 Performance von RDNA1 sogar eine Punktlandung werden.

mironicus
2020-08-17, 11:56:30
Laut Tweaktown soll die RTX 3090 mit 24 GB 1999 Dollar kosten, hier wären das sicherlich 2200-2400 Euro.

Edgecrusher86
2020-08-17, 11:59:18
Natürlich ist es ein Unterschied. Wird bei RDNA2 vs. Ampere auch nicht anders sein da beide IHVs nicht den selben Prozess nutzen. Wir werden damit leben müssen. Das einzige was wir im Bereich Effizienz wissen ist +50% bei RDNA2 vs. RDNA1 laut AMD. Bei Nvidia ist es noch offen.


Das kannst du mit jeder modernen GPU machen. Mache ich sowieso immer da mir die Default-Betriebspunkte bei den GPUs etwas zu weit von der Vernunft sind. Am stärksten von so einem Eingriff profitiert imo die Vega10. Ab einer gewissen Frequenz und der dabei anliegenden Spannung explodiert der Verbrauch förmlich. Dabei war Vega10 um die 1400-1500Mhz mit UV sehr sparsam im Vergleich zum Default-Betriebspunkt.

Ja, zumindest so 10-20% IPC sollte wohl auch NV mit Ampere hin bekommen haben, was nicht viel wäre aber nun gut...müsste man mit leben bzw. Hand anlegen, wenn man niedrigere Verbrauchswerte sehen will.


Wobei man bei V10 UV auch stark unterscheiden muss - eine Karte wie die LCE hat hier natürlich ein viel größeres Einsparpotential und vermutlich natürlich auch die besten Chips erhalten.

Wenn ich da an V10 Air denke - alles oberhalb 1200-1300 MHz mit UV ist nicht wirklich sinnvoll - ohne Kühlerwechsel zumindest. Der Chip war hier auch nicht so pralle, das kam auch hinzu.
Immerhin konnte ich auch diese Karte auf grob 170-210W [190-200W im Mittel] bekommen [Verbrauch hoch gerechnet von der ASIC - ganze Karte] bei knappen 900mV und maximal 1800rpm bei 68-75 Grad, was mit noch halbwegs erträglich für die Ohren ist - entspricht aber auch grob dem Pascal DHE [der deutlich laufruhiger operiert] mit 2200-2300rpm, also gut hörbar - da die Lüftersteuerung auch recht nervig dann hoch und runter geht bei den Temp-Schwellen habe ich letztendlich für die V64 nur Idle oder 1800rpm gesetzt - dann kommt eine gewisse Konstanz hinein. Ja, die Performance ist dann wohl immerhin grob V56 bis V56 mit etwas OC. Nun ja, derzeit wird jeweils eine 1080 Ti pro System gefahren und die V64 darf schlafen - werde ich wohl in absehbarer Zeit wieder verkaufen.

dargo
2020-08-17, 12:00:20
Laut Tweaktown soll die RTX 3090 mit 24 GB 1999 Dollar kosten, hier wären das sicherlich 2200-2400 Euro.
;D ;D ;D

Ich hole schon mal mein :popcorn:.

@Edgecrusher86
Ja... das stimmt. Ich hatte eine V10 LCE und hatte auch das Gefühl dort sind die besseren Chips gelandet. Oder ich hatte viel Glück in der Silizium-Lotterie. Ich konnte die ganze Karte unter 200W drücken und mit dem LCE-Kühler war das Ding praktisch unhörbar.

ChaosTM
2020-08-17, 12:02:42
€ 2200 - 3900
€ 1700 - 3080ti (1500 klein)
€ 1000 - 3080 (800 klein)
€ 800 - 3070 (700 klein)

gedi
2020-08-17, 12:03:18
Schnäppchen. Gemessen an der 3090 ist die Titan ja fast geschenkt ...

Thunder99
2020-08-17, 12:04:27
Krank, wenn das stimmen sollte.

Es wird dafür den Gebrauchtmarkt beflügeln ;D

BlacKi
2020-08-17, 12:07:14
Will AMD jetzt 200% Performance anpeilen wird RDNA2 mindestens 300W verbraten.
sagt wer? das ist doch meine aussage dahinter. alles was vorgegeben ist sind 50% p/w und das schafft man auch ohne verbesserung... ich glaub nicht das es so kommt, aber technisch möglich wäre es, deshalb sind die +50%p/w so nichts sagend.

r3ptil3
2020-08-17, 12:12:02
Laut Tweaktown soll die RTX 3090 mit 24 GB 1999 Dollar kosten, hier wären das sicherlich 2200-2400 Euro.

50% mehr Performance als eine Karte von 2018 und der doppelte Preis?

Klingt einfach nicht logisch.

mironicus
2020-08-17, 12:14:53
Ja, aber dafür 100% mehr Speicher. :D

Ausgehend von dem momentanen Preis einer RTX 2080 Ti wird diese nicht besonders entwertet durch die neuen Karten.

Aber vielleicht nutzt NVidia einfach den Zeitvorteil aus gegenüber AMD, die ihre Karten erst im November launchen werden. Dann könnten die Preise wieder sinken, nehme ich an.

gedi
2020-08-17, 12:20:15
50% mehr Performance als eine Karte von 2018 und der doppelte Preis?

Klingt einfach nicht logisch.

Wenn RT im Einsatz ist, dann relativiert sich der Preis, denn ich denke ne 30x0 dreht Kreise um ne Ti.

Ansonsten empfand ich ne Ti als schnell genug für 4k.

Nazar
2020-08-17, 12:21:49
€ 2200 - 3900
€ 1700 - 3080ti (1500 klein)
€ 1000 - 3080 (800 klein)
€ 800 - 3070 (700 klein)

Na das nenne ich mal Werbung für die neuen Konsolen. ;D
Wenn die Preise auch nur annähernd stimmen sollten, bleibt nVidia auf der Hardware sitzen!
Die neuen Konsolen kommen und auch AMD wird seine GPUs bringen. Bei diesen Preisen, werden selbst die härtesten Fanboys ins Grübeln kommen.
nVidia muss versuchen so viele GPUs vor dem Launch der AMD GPUs und der Konsolen zu verkaufen und das wird mit den Preisen nicht funktionieren, selbst wenn sie die Leistung verdreifachen könnten.
Selbst wenn nVidia weiß wie gut oder schlecht die AMD GPUs werden, wären die Preise einfach nur ein Schuss ins eigene Knie. Man treibt die möglichen Kunden reihenweise ins Konsolenlager... nur wieso sollte das nVidia tun? :freak:

dargo
2020-08-17, 12:22:10
sagt wer?
So interpretiere ich das. AMD sagt auch bei RDNA1 vs. GCN +50% Perf/W. Und es ist auch realistisch, dass RDNA1 mit 150W die Performance einer 300W V10 erreicht.

Ja, aber dafür 100% mehr Speicher. :D

118%. ;)

BlacKi
2020-08-17, 12:25:39
So interpretiere ich das. AMD sagt auch bei RDNA1 vs. GCN +50% Perf/W. Und es ist auch realistisch, dass RDNA1 mit 150W die Performance einer 300W V10 erreicht.


118%. ;)
digger ich gebs auf...

dargo
2020-08-17, 12:27:57
digger ich gebs auf...
Ist auch besser für dich. Ist eh OT, hier gehts um Ampere.

Edgecrusher86
2020-08-17, 12:28:53
50% mehr Performance als eine Karte von 2018 und der doppelte Preis?

Klingt einfach nicht logisch.

Doppelter Preis nicht - bedenke, dass die 2080 Ti FE $1199 MSRP oder bei uns 1259€ inkl. MwSt lag. Das wäre +67% MSRP. Betrachtet man den derzeitigen Dollar-Kurs, kommen grob 1687€ hin. Darauf dann 16% MwSt und man liegt bei etwa 1950€ -> +55% DE Preis 2080 Ti FE.

Auch böse, aber das Schlimme ist: Jensen kann sie mit der TITAN RTX vergleichen und als Schnäppchen deklarieren -> The MORE YOU BUY....:freak:

Gut, ich gehe jetzt davon aus - die meisten Kunden, die eine RTX 2080 Ti (FE + Custom) für 1259 - 1799€ kauften, werden auch gleich bei entsprechenden RTX 3090 Modellen zuschlagen, weil sie einfach das Beste am Markt wollen - möglichst ohne Kompromisse. Ein paar hundert Euro oder Dollar drauf, macht da wohl den Kohl nicht fett. Ich gehe wieder davon aus, dass eine RTX 3090 FE innerhalb wenigen Stunden für 1-2 Monate ausverkauft sein wird, sobald man diese vorbestellen kann. Also ich prognostiziere mal, dass locker 70-80% der TU102 Käufer auch beim GA102 GeForce-Flaggschiff Kaufinteresse haben dürften bzw. werden.

Die Tatsache, dass viele Leute auch dieses Jahr keine teuren Auslandsurlaubsreisen machten, wird NV bei einer solchen Preisgestaltung zusätzlich in die Hände spielen.

HOT
2020-08-17, 12:31:48
Die können es versuchen solche Preise abzurufen aber das wird mMn massiv in die Hose gehen. Ich glaub kaum, dass das final so kommt. Ich bleib bei meinem Tipp: knapp 1500$ für die 3090 24GB. Alles hängt davon ab, wie AMD und Intel sich entwickeln in 2021. Wir werden evtl. ne interessante Preisentwicklung sehen. Wer früh kauft verliert, ich glaub, das kann man mit Fug und Recht so festhalten. Ich hätte auch 0 Probleme damit ne Intel zu nehmen, wenn sich der Treiber als brauchbar herausstellen sollte.

Nazar
2020-08-17, 12:36:21
Wenn RT im Einsatz ist, dann relativiert sich der Preis, denn ich denke ne 30x0 dreht Kreise um ne Ti.

Ansonsten empfand ich ne Ti als schnell genug für 4k.

RT-was? ;D
Wie viele RT Spiele gibt es derzeit auf dem Markt und wer spielt die? :freak:
Erst einmal muss sich das derzeitige Verhältnis von nicht RT zu RT Spielen umkehren, ansonsten ist RT einfach nur ein vollkommen überbewertetes Gimmik für "Profis".

Das, was bei der Mehrheit der Kunden ziehen wird, ist eine hoher FPS Wert in Time Spy oder in aktuellen Spielen. RT ist nicht bekannt genug, um damit Leuten das Geld aus der Tasche ziehen zu können und besonders nicht bei solch kranken Beträgen... :freak:

Platos
2020-08-17, 12:42:24
Die können es versuchen solche Preise abzurufen aber das wird mMn massiv in die Hose gehen. Ich glaub kaum, dass das final so kommt. Ich bleib bei meinem Tipp: knapp 1500$ für die 3090 24GB. Alles hängt davon ab, wie AMD und Intel sich entwickeln in 2021. Wir werden evtl. ne interessante Preisentwicklung sehen. Wer früh kauft verliert, ich glaub, das kann man mit Fug und Recht so festhalten. Ich hätte auch 0 Probleme damit ne Intel zu nehmen, wenn sich der Treiber als brauchbar herausstellen sollte.

Das traurige ist ja, dass es trotzdem Leute gäbe, die den überteuerten Mist kaufen.

Ich dachte das ja schon bei Turing. Wer kauft schon eine RTX 2080Ti, der muss ja blöd sein. Leistung stieg praktisch 1-zu-1 mit dem Preis linear nach oben. Trotzdem kauften sich das Ding in Deutschland viele. Oder RTX 2080, damals etwa gleiche Leistung wie GTX 1080Ti, aber 3GB weniger Speicher und die ersten Monate auch noch teurer. Trotzdem wurde es gekauft... (RT hat sich, wie eig. schon absehbar war, erst jetzt langsam als Standart etabliert. Wobei RT im Spiel nicht gleich RT ist. Ein paar hochglanz polierte reflektierende Oberflächen (wie es gerne oft implementiert wird/wurde), sind es mir nicht wert, ein Spiel als "mit RT" zu bezeichnen. Von daher ist RTX 2000 die reinste Grütze, bis auf vlt. die 2070. So richtig zum Standart, wird das m.M.n auch erst 2021).

Aber tja, leider hat AMD auch nichts besseres zu liefern, ansonsten würde es anders ausehen.

Bei nvidia wundert mich gar kein Preis mehr. Falls die neue xx80Ti wirklich xx90 heisst, ist das doch umso mehr ein Hinweis darauf, dass es teurer wird. Man schafft damit quasi eine neue Klasse, wie Intel mit dem i9 bei den CPUs. Ist jetzt halt nicht mehr "nur" ne Ti sondern ne höhere Nummer. Kann man also teurer machen...

dargo
2020-08-17, 12:42:57
Doppelter Preis nicht - bedenke, dass die 2080 Ti FE $1199 MSRP oder bei uns 1259€ inkl. MwSt lag.
Woher hast du das? Bei der Präsentation von Turing stand ganz klar 999$ für 2080TI.

BlacKi
2020-08-17, 12:43:54
RT-was? ;D

Erst einmal muss sich das derzeitige Verhältnis von nicht RT zu RT Spielen umkehren, ansonsten ist RT einfach nur ein vollkommen überbewertetes Gimmik für "Profis".
müssen sie nicht. es wird auch in zukunft sehr viele spiele geben die kein RT nutzen, daran kann man nicht den erfolg von RT oder den RT karten messen. die meisten AAA spiele werden in zukunft, erst recht wenn amd nun mit auf den zug springt, RT mitbringen.

Armaq
2020-08-17, 12:45:51
Na das nenne ich mal Werbung für die neuen Konsolen. ;D
Wenn die Preise auch nur annähernd stimmen sollten, bleibt nVidia auf der Hardware sitzen!
Die neuen Konsolen kommen und auch AMD wird seine GPUs bringen. Bei diesen Preisen, werden selbst die härtesten Fanboys ins Grübeln kommen.
nVidia muss versuchen so viele GPUs vor dem Launch der AMD GPUs und der Konsolen zu verkaufen und das wird mit den Preisen nicht funktionieren, selbst wenn sie die Leistung verdreifachen könnten.
Selbst wenn nVidia weiß wie gut oder schlecht die AMD GPUs werden, wären die Preise einfach nur ein Schuss ins eigene Knie. Man treibt die möglichen Kunden reihenweise ins Konsolenlager... nur wieso sollte das nVidia tun? :freak:
Lass mal auf die AMD Preise warten ...

mironicus
2020-08-17, 12:46:19
Man mußte schon immer mehr Geld ausgeben, um auf andere herabblicken zu können. :)

NVidia sollte noch eine Limited Edition mit beigelegter Lederjacke bringen, signiert von Huang persönlich. :)

dargo
2020-08-17, 12:46:59
Die Tatsache, dass viele Leute auch dieses Jahr keine teuren Auslandsurlaubsreisen machten, wird NV bei einer solchen Preisgestaltung zusätzlich in die Hände spielen.
Und was ist mit den Millionen Arbeitslosen die in den letzten Monaten dazu kamen? Wird interessant zu sehen wie locker das Geld in der Tasche in Coronazeiten liegt.

Linmoum
2020-08-17, 12:47:21
Woher hast du das? Bei der Präsentation von Turing stand ganz klar 999$ für 2080TI.$999 waren für die Boardpartner. Die FE lag und liegt immer noch bei $1199 MRSP über Nvidias Shop.

HOT
2020-08-17, 12:48:04
Lass mal auf die AMD Preise warten ...
Die werden sich sicherlich nicht über 1000$ bewegen, selbst wenn sie geringfügig schneller herauskommen sollten. Wenn dann auch noch Intel in den Markt kommt und halbwegs brauchbares liefert, gehen die Preise dann definitiv runter.

Lawmachine79
2020-08-17, 12:48:20
Irgendwie passt es nicht zusammen.

"Wir" gehen davon aus, dass AMD - bei relativ ähnlichem Stromverbrauch - die Leistung verdoppelt. Vielleicht sogar mehr.
Dazu noch RT mit einbaut.

Während Nvidia die Leistung um ca. 30-40% steigern soll, dabei aber auch noch einen deutlich höheren Stromverbrauch hat.
Also quasi keinerlei Leistungssteigerung hat, fast die gesamte Leistungssteigerung käme ja nur durch erhöhten Verbrauch.

AMD 100%, Nvidia nahe 0% (vielleicht 10%).
...
Sorry, finde ich völlig unplausibel.
Das verstehe ich auch nicht. Da ist wohl der Wunsch der Vater des Gedanken.

ChaosTM
2020-08-17, 12:48:23
AMD wird genauso zulangen wenn die Leistung passt oder nicht passt .. ;)
Die haben nix mehr zu verschenken.

ich tippe auch auf 999 für die große AMD

Edgecrusher86
2020-08-17, 12:49:22
Woher hast du das? Bei der Präsentation von Turing stand ganz klar 999$ für 2080TI.

Von der Präsentation. Starting from $999. :cool:
Die 2080 Ti FE war ja somit schon eine OC-Karte mit +10W/55W PT [260-325W] und +90MHz Offset. Das wurde auch so beworben.
Der Preis wurde mit $1199 MSRP angegeben. ;)

Mangels Verfügbarkeit war es dann sogar so, dass genannte $999 MRSP Karten im Blower-Design (250-280W PT auch nur) sogar bei uns für zumeist 1400€ angeboten wurden! :freak:

AMD wird genauso zulangen wenn die Leistung passt oder nicht passt .. ;)
Die haben nix mehr zu verschenken.

ich tippe auch auf 999 für die große AMD

Ich vermute, AMD wird so vorgehen wie mit Zen 1 + Zen+ [TR mal außen vor]. Man wird höhere Preise als bisher verlangen [also auch wieder oberhalb $699 für ihre beste SGPU],
aber diese noch niedriger ausfallen, wie die Besten Karten der Konkurrenz. Ich gehe von maximal $999 MSRP für den RDNA2 Vollausbau mit 80CU + 16GB @ 512-bit SI aus.
Die Performance dürfte dann wohl mehr oder weniger auf RTX 3080 Level liegen - was wohl der Grund ist, wieso man auch noch eine 20GB Variante - zumindest wohl für die AIB - nachschiebt.

dargo
2020-08-17, 12:51:01
$999 waren für die Boardpartner. Die FE lag und liegt immer noch bei $1199 MRSP über Nvidias Shop.
Ok... aber wen interessiert eine FE wenn Customs leiser sind? :) Und 200$ mehr für Referenz zu zahlen ist auch irgendwie Banane. :freak:

BlacKi
2020-08-17, 12:51:37
Und was ist mit den Millionen Arbeitslosen die in den letzten Monaten dazu kamen? Wird interessant zu sehen wie locker das Geld in der Tasche in Coronazeiten liegt.
in amerkia bekommen die arbeitslosen knapp 2500$ pro monat coronageld+ arbeitslosenhilfe.

Ok... aber wenn interessiert eine FE wenn Customs leiser sind? :) Und 200$ mehr für Referenz zu zahlen ist auch irgendwie Banane. :freak:
diesmal gabs 20w mehr powertarget, aber mal davon abgesehen und der miningphase, waren FE karten schon immer banane.

dargo
2020-08-17, 12:53:04
Und Amerika ist die ganze Welt oder was?

Adam D.
2020-08-17, 12:55:28
in amerkia bekommen die arbeitslosen knapp 2500$ pro monat coronageld+ arbeitslosenhilfe.


diesmal gabs 20w mehr powertarget, aber mal davon abgesehen, waren FE karten schon immer banane.
Ist zwar OT, aber so ein Zeugs kann man echt nicht stehen lassen. Es gab einen EINMALIGEN 2000$-Check, die Arbeitslosenhilfen sind inzwischen abgelaufen. 40 Millionen Amerikaner stehen vor der Zwangsräumung, wir sehen die höchste Arbeitslosigkeit seit Jahrzehnten und du denkst, die amerikanische "Mittelschicht" geht jetzt Ampere kaufen? Wtf :freak:

ChaosTM
2020-08-17, 12:56:14
Das Geld für solche Sachen sitzt momentan relativ locker, weil man sonst nix machen kann. Versaufen und verh**en ist momentan zu gefährlich und nach NY auf einen Kaffee fliegen geht auch ned. Irgendwo muss die überschüssige Kohle ja hin ..

Brillus
2020-08-17, 12:56:23
Lass mal auf die AMD Preise warten ...

Genau das wird bei vielen die Reaktion sein wenn das hier stimmt.

Schnoesel
2020-08-17, 12:56:59
Meine Grenze liegt sowohl bei Nvidia als auch AMD bei 1500. Wenn da nicht min. 60% Mehrleistug zu meiner Custom TI drin sind wirds halt keine. Ich könnte es zwar mir lockerst leisten, aber ich will nicht.

Linmoum
2020-08-17, 12:58:03
Ok... aber wen interessiert eine FE wenn Customs leiser sind? :) Und 200$ mehr für Referenz zu zahlen ist auch irgendwie Banane. :freak:Das war ja auch viel mehr ein "starting from" aka Blowers. Halbwegs gute Customs hast du auch nicht für den Preis gesehen. Und sehr viel hat sich daran noch immer nicht geändert.

mironicus
2020-08-17, 12:59:17
Meine Grenze liegt sowohl bei Nvidia als auch AMD bei 1500. Wenn da nicht min. 60% Mehrleistug zu meiner Custom TI drin sind wirds halt keine. Ich könnte es zwar mir lockerst leisten, aber ich will nicht.

Alternate-Outlet + 20% Rabatt könnte deine Bedingung erfüllen. :freak:

Edgecrusher86
2020-08-17, 13:01:12
Ok... aber wen interessiert eine FE wenn Customs leiser sind? :) Und 200$ mehr für Referenz zu zahlen ist auch irgendwie Banane. :freak:

Die WaKü-Fraktion interessiert es - gleich ne Ref-Karte und z.B. EKWB Block bestellt, wenn dieser auch zeitnah verfügbar ist. So schlecht sind die NV-Ref-Karten aber abseits vom Umbau auch nicht - zumindest wenn man händisch optimiert mit UV. Das ist alles kein Vergleich mehr zu früher - etwa 2010 mit GF100. AMD kann sich immer noch eine Scheibe abschneiden, was die Wertigkeit und Akustik des Referenzkühlers betrifft -
das merkt man auch schon gleich, wenn man beide in der Hand hält. Ok, mit entsprechend Aufpreis ist das auch das Mindeste. :D

Brillus
2020-08-17, 13:01:33
Und Amerika ist die ganze Welt oder was?

Für solche Prokute ist USA und Europa fast die Welt.

Aber ich gehe auch eher von Zurückhaltung aus. In USA ist ja z.b. nicht sicher ob es so bleibt oder bald garnichts mehr gibt, da würde ich eher sparen.

Fragman
2020-08-17, 13:08:51
Diese Preise mal wieder... .
Wenn nv 2k für 24GB aufruft, was soll denn BigNavi kosten, 1500+€?
Dazu Konsolen die in FHD dieselbe Optik bieten für 1/3 bis 1/4 des Preises?
Da muss man nicht einmal kurz Nachdenken um das als Spinnerei ab zu tun. ;)

BlacKi
2020-08-17, 13:11:09
Ist zwar OT, aber so ein Zeugs kann man echt nicht stehen lassen. Es gab einen EINMALIGEN 2000$-Check, die Arbeitslosenhilfen sind inzwischen abgelaufen.

hast recht, aber es waren 600$ per week die letzten monat ausgelaufen sind.

Und Amerika ist die ganze Welt oder was?
this!

nordic_pegasus
2020-08-17, 13:12:33
Auch böse, aber das Schlimme ist: Jensen kann sie mit der TITAN RTX vergleichen und als Schnäppchen deklarieren -> The MORE YOU BUY....:freak:


die Frage ist, ob die spekulierte 3090 der Nachfolger der 2080Ti oder Titan RTX wird. Ich erwarte entsprechend den Leaks 3 Modelle auf Basis von GA102.

Wenn es auf 3080, 3090 und Titan hinaus läuft, dann wird die 3090 teurer als die bisherige Enthusiast-Klasse. Denn schließlich ist eine 3090 ein Stufe wertiger als 3080Ti. Die Titan wird dann wieder im $2500-3000 Bereich ihre Bahnen kreisen.

Wenn es 3080, 3080Ti und 3090 sein wird, dann wird die 3090 billiger als Titan RTX. Schließlich muss man dann nicht mehr den Prestige-Aufschlag für das Titan-Logo bezahlen. Aber $2000 erwarte ich auch hier für eine 24GB 3090.

Ich gehe aktuell vom Worst-Case aus und lasse mich positiv überraschen. Also Nvidia dreht nochmals an der Preisschraube nach oben und bringt nur mäßiges Leistungsplus in non-RT Spielen. Die Warnschuss von Jensen bzgl. einen Mining-Booms sollte wohl schon auf die Preissteigerung vorbereiten.

Und AMD wird mal wieder dem Hype nicht gerecht im High-End/Enthusiast Segment und landet irgendwo bei der 2080Ti / 3080 mit BigNavi.

Edgecrusher86
2020-08-17, 13:14:49
Diese Preise mal wieder... .
Wenn nv 2k für 24GB aufruft, was soll denn BigNavi kosten, 1500+€?
Dazu Konsolen die in FHD dieselbe Optik bieten für 1/3 bis 1/4 des Preises?
Da muss man nicht einmal kurz Nachdenken um das als Spinnerei ab zu tun. ;)

Ich bin mir sicher, dass AMD auch über den Preis punkten will - diesbezüglich wäre man gut beraten, ähnliches aufzurufen, wie NV mit einer 3080 10GB oder nicht viel mehr. Marktanteile zurück gewinnen.

Also ich denke nicht, dass sehr viele Leute bereit wären $1500 für eine AMD Karte zu zahlen, egal wie schnell diese wäre. NV hat da eine Art "Apple-Bonus".
Man ist die Premium-Gamer-Marke. Es ist halt einfach so. Dies hat man sich im Laufe der Jahre clever erabeitet mit gutem Marketing und halt auch Premium-Produkten wie den TITANEN.
Auch wenn man dort z.B. seit der TITAN V eine Abspaltung Richtung Prosumer-Markt sieht. Eine günstige Alternative zu den großen Quadro-Karten. (oder Tesla bzw. Ex-Tesla).

Nun ja, auch NV wäre gut beraten, dass man innerhalb der nächsten Jahre es bei $1499-1999 für die "ULTIMATIVE GEFORCE" belässt. Ansonsten würde es viele Kunden ankoffern.
Ich meine - das ist eh schon viel zu viel im Grunde. Für das Geld konnte man etwa GTX 580 3GB 4-way SLI kaufen. Die Sinnhaftigkeit mal außen vor gelassen - das Scaling war auch nur in den allerwenigsten Games top - Crysis, Metro, TR 2013 etwa. Das ist schon eine "perverse" Preisentwicklung - nun ja, solange die Leute es bezahlen, kann man auch noch erhöhen....

BlacKi
2020-08-17, 13:24:06
Ich gehe aktuell vom Worst-Case aus und lasse mich positiv überraschen. Also Nvidia dreht nochmals an der Preisschraube nach oben und bringt nur mäßiges Leistungsplus in non-RT Spielen. Die Warnschuss von Jensen bzgl. einen Mining-Booms sollte wohl schon auf die Preissteigerung vorbereiten.


das die preise nicht sinken werden das überrascht wohl keinen.

was ich allerdings glaube, ist, das die neuen karten ein leicht besseres (vl10%) performance pro $ verhältnis bringen werden. damit man sagen kann: "the more you buy the more you save!":biggrin:

dann lägen die günstigsten custom modelle bei 1500-1600€. bei 24gb würde ich mir das vl überlegen.

unl34shed
2020-08-17, 13:24:41
Irgendwie passt es nicht zusammen.

"Wir" gehen davon aus, dass AMD - bei relativ ähnlichem Stromverbrauch - die Leistung verdoppelt. Vielleicht sogar mehr.
Dazu noch RT mit einbaut.

Während Nvidia die Leistung um ca. 30-40% steigern soll, dabei aber auch noch einen deutlich höheren Stromverbrauch hat.
Also quasi keinerlei Leistungssteigerung hat, fast die gesamte Leistungssteigerung käme ja nur durch erhöhten Verbrauch.

AMD 100%, Nvidia nahe 0% (vielleicht 10%).
...

Wer ist "Wir"? Und wie kommst du/ihr darauf, dass die Leistung bei gleichem Verbrauch verdoppelt wird? +50% Perf/Watt stehen im Raum, dass wären doppelte Leistung bei 1,33x Verbrauch -> 2x5700xt bei ~300W

Bei deinen ganzen Annahmen musst du auch die Basis beachten. Während bei Nvidia von einer 2080ti als Basis ausgegangen wird, ist es bei AMD "nur" eine Karte vergleichbar mit einer 2070-2070 super.
Die 50% perf/watt sind das Ziel von AMD, ihre Karten waren schon immer etwas ineffizienter, verglichen mit Nvidia -> möglich, dass sie das schaffen
Nvidia auf der anderen Seite gönnt sich seit Jahren eigene Prozesse und steckt viel R&D in ihr Transistor Design um die Effizienz der Chips zu erhöhen, AMD erkaufte sich die Effizienz Steigerungen mehr über teurere/kleinere Prozesse.
Wie gut die Vorteile von Nvidias custom 12nm gegenüber den 8nm von Samsung ausfallen ist aktuell offen. Möglich, dass Nvidia hier mit Samsungs standard Prozess leben muss und dieser nicht optimal mit dem Betriebspunkt der Ampere Karten läuft.

Fragman
2020-08-17, 13:30:47
Ich bin mir sicher, dass AMD auch über den Preis punkten will - diesbezüglich wäre man gut beraten, ähnliches aufzurufen, wie NV mit einer 3080 10GB oder nicht viel mehr. Marktanteile zurück gewinnen.

Also ich denke nicht, dass sehr viele Leute bereit wären $1500 für eine AMD Karte zu zahlen, egal wie schnell diese wäre. NV hat da eine Art "Apple-Bonus".
Man ist die Premium-Gamer-Marke. Es ist halt einfach so. Dies hat man sich im Laufe der Jahre clever erabeitet.

Ja, es gibt einige Gründe die gegen solche Preise sprechen. Aber wirgendwie werden die hier ab und an gern ignoriert. 7-800 als neues Midrangesegment, und was anderes ist die xx70 ja nicht, sind völlig übertrieben. Damit fallen beide Hersteller auf die Nase, ob sie es machen oder nicht.

Nehmen wir mal AMD. Wie sollen sie den rechtfertigen, das der 5700XT Nachfolger plötzlich 50% mehr kostet? Und das, nachdem man die VII preislich so deutlich unterboten hat bei ähnlicher Leistung. Da bleibt das Mehr an RAM als einziges Argument für den Mehrpreis der VII übrig, was auch ok wäre (heute vielleicht nicht mehr ganz soviel und sagen wir mal 50$ Dollar mehr der Marge wegen, damit man was verdient). Deshalb glaub ich schon eher an 900€ für BigNavi mit 16GB. Da kann und wird nv keine 2k für die 24GB Karte nehmen können.

dargo
2020-08-17, 13:34:52
this!
Not.
https://de.wikipedia.org/wiki/Liste_der_L%C3%A4nder_nach_Bruttoinlandsprodukt

BlacKi
2020-08-17, 13:41:27
Not.
https://de.wikipedia.org/wiki/Liste_der_L%C3%A4nder_nach_Bruttoinlandsprodukt
lol:biggrin: war bezogen auf die denke der amerikaner

Nazar
2020-08-17, 13:46:23
AMD wird genauso zulangen wenn die Leistung passt oder nicht passt .. ;)
Die haben nix mehr zu verschenken.

ich tippe auch auf 999 für die große AMD

AMD wird auch zulangen aber bei weitem nicht in diesem Preissegment, das wäre aus AMD Sicht äußerst dumm.
Wenn AMD eine Parität erreichen sollte, was die Leistung angeht, muss AMD alles daran setzen, um Marktanteile zu gewinnen. Die Leistung der GPUs wird dabei maximal sekundär sein.
Marktanteile kann AMD primär nur über den Preis generieren.
Sollte AMD auch nur in der Nähe der Preise von nVidia versuchen zu "räubern" wird es die Käufer nicht zu AMD treiben, dafür steht nVidia viel zu lange als "Alleinherrscher" da.
Der Kunde darf gar nicht erst ins Grübeln kommen, wenn er den Preis liest, sondern muss sofort sagen: "Die sind so viel günstiger, da kaufe ich doch eine AMD Karte.", egal wie gut DLSS oder RTX sein könnten.
Wenn die Preise wirklich so hoch sein werden und man bereit wäre so viel Geld auszugeben, dann fängt das "da muss ich gar nicht erst überlegen" nicht bei 200€ weniger an sondern bei 400€ weniger.
Und selbst wenn AMD zu schlecht sein wird, sind da immer noch die Konsolen und die vielen Personen, die sich aufgrund der Wirtschaftslage eher eine Konsole als eine neue GPU kaufen würden. Für diese Gruppe ist es dann ein "No Brainer" eher eine Konsole zu kaufen, wenn sie alleine für den Preis einer "Midrange" Grafikkarte, zwei Konsolen bekommen würden, mit allem Drum und Dran, zum sofort Loslegen für Kids unterm Weihnachtsbaum.

Ich kann mir zwar gut vorstellen, dass nVidia wirklich so dämlich ist aber das AMD sich selber das Wasser abgräbt... ne.. nie im Leben nicht. :wink:

rentex
2020-08-17, 13:54:14
Ist zwar OT, aber so ein Zeugs kann man echt nicht stehen lassen. Es gab einen EINMALIGEN 2000$-Check, die Arbeitslosenhilfen sind inzwischen abgelaufen. 40 Millionen Amerikaner stehen vor der Zwangsräumung, wir sehen die höchste Arbeitslosigkeit seit Jahrzehnten und du denkst, die amerikanische "Mittelschicht" geht jetzt Ampere kaufen? Wtf :freak:

Volle Zustimmung. Das war ein einmalig ausgezahlter Betrag.
Arbeitslos in den Statten zu sein, ist ein hartes Urteil.

Bei mir liegt die Grenze bei max. 1599€.

ChaosTM
2020-08-17, 13:58:18
@Nazar

Da kommt ja nicht nur eine neue Karte.
Und wenn man vor ein paar Jahren schon 700 für eine nicht wirklich konkurrenzfähige Karte aufgerufen hat, sind 1000 für das Topmodell kein Problem, speziell wenn die Konkurrenz 50% mehr kostet. AMD wird sich an NV orientieren, und die werden versuchen, Mondpreise abzurufen.

Hoffentlich täusche ich mich...

MiamiNice
2020-08-17, 14:10:40
Hier geht aber einigen gehörig der Arsch auf Grundeis :wink:
Einige werden sich wohl gedanklich damit abfinden müssen das sie demnächst nur noch Midrange User sind. War aber imo durch die Verschiebung der Titan in den prof. Bereich zu erwarten. Alles rutscht einen hoch oder die 3090 wird die neue Gamer Titan. Ich spekuliere ja noch auf einen neuen fancy Namen für das Gerät. Aber 2k wird sie wohl locker kosten, sage ich seit Monaten.

Edgecrusher86
2020-08-17, 14:23:40
Also zumindest dürfte es so ähnlich bepreist sein und grob konfiguriert sein:

Preis MSRP | Karte | SPs/SM/CUs | PT ~ | VRAM
$2999-3999 | TITAN RTX Ampere | 5376/84 | 350W | 48GB
$1499-1999 | RTX 3090 |5248/82 | 350W | 24GB
$899-1099 | Navi 21 XTX (AiO) | 5120/80 | 350W | 16GB
$799-999 | Navi 21 XT |5120/80 | 300W | 16GB
$799-999 | RTX 3080 | 4352/68 | 320W+ | 20GB
$699-799 | RTX 3080 | 4352/68 | 320W | 10GB
$599-649 | Navi 21 XL | 4608/72 | 250W+ | 12GB
$599-649 | RTX 3070 (Ti) | 3072/48 | 250W+ | 16GB
$499-549 | RTX 3070 | 2944/46 | 250W| 8GB
$399-499 | Navi 21 XLE | 3584/56 | 215W | 10GB
$399 | RTX 3060 | 2304/36 | 200W | 8GB
$299-349 | Navi 10 XT Refresh | 2560/40 | 215W | 8GB


Also so stelle ich mir den Markt vor. Eine TITAN dann aber frühstens ein halbes Jahr später - dann aber auch mit 21 Gbps + 16Gb Chips.

Zergra
2020-08-17, 14:25:32
8-900€ würde ich für eine 20GB 3080RTX sofort auf den Tisch legen, die TI oder 3090 waren eh nie interessant für mich. Dafür Spiele ich eh zu wenig.

MiamiNice
2020-08-17, 14:26:48
Ich vermute nicht das Du damit hin kommst. 3080 10Gb wäre mein Tip bei 999€. Als Fixpunkt.

[MK2]Mythos
2020-08-17, 14:26:51
Ich halte es für äußerst unwahrscheinlich, dass Big Navi mit 16GB mehr, oder genauso viel kosten wird wie eine 3080 mit 20GB.

basix
2020-08-17, 14:28:38
Ich hoffe ja immer noch, dass die teuerste Karte ausserhalb der Titan 999$ kostet. Einige hier haben sich schon viel zu stark an die sehr hohen Preise gewöhnt :freak:

Zergra
2020-08-17, 14:33:11
Ich vermute nicht das Du damit hin kommst. 3080 10Gb wäre mein Tip bei 999€. Als Fixpunkt.

Ja die Befürchtung habe ich auch. Mit Wasserkühlung bin ich dann eh schon bei 1000€.

MiamiNice
2020-08-17, 14:39:46
Mythos;12394124']Ich halte es für äußerst unwahrscheinlich, dass Big Navi mit 16GB mehr, oder genauso viel kosten wird wie eine 3080 mit 20GB.

Weil AMD ein Wohlfahrtsverein ist, der nicht an größeren Margen interessiert ist? Klingt einleuchtend :tongue:

Ja die Befürchtung habe ich auch. Mit Wasserkühlung bin ich dann eh schon bei 1000€.

Ich hoffe auf noch unter 2k für die 3090. Mehr als 2k werde ich für einen Pixelschubser nicht raushauen.
Den WaKü Block würde ich aber bei 2k noch drauf legen.

Achill
2020-08-17, 14:56:05
Seit ihr euch sicher, dass NV die 2x VRAM Menge gleich am Angang bringen wird (bis auf die 3090)? Ich würde eher auf ein Super/TI Konter spekulieren nachdem AMD seine GPUs gebracht hat. Mit etwas mehr Power-Budget, besseren Chips (CU oder Takt) und dann auch mehr VRAM, je nachdem was man braucht ...

r3ptil3
2020-08-17, 14:56:52
In normalen (nicht vergleichbar mit Mining-Zeiten) darf eine Grafikkarte m.M.n. max. 800.- kosten.

Kaum zu glauben was damals eine massiv überlegene 8800 GTX gekostet hat. :rolleyes:, natürlich spielen da auch andere Dinge mit (Inflation etc.).

HOT
2020-08-17, 14:57:23
Für 2k muss das Teil serienmäßig einen WaKü-Block haben oder zumindest die Auswahl bei den Modellen.

Edgecrusher86
2020-08-17, 15:00:18
Naja, der MSRP in $ und Marktpreise bei uns sind zwei paar Schuhe. Da kann man auch locker 100-200€ addieren. Also ich gehe schon davon aus,
dass wenn eine Karte ein Preissschild von $799 hat, man dann bei uns um die 999€ inkl. MwSt. zahlen muss. Sprich, ich sehe eine RTX 3080 20GB
dann zumindest zwischen 999-1199€.

Seit ihr euch sicher, dass NV die 2x VRAM Menge gleich am Angang bringen wird (bis auf die 3090)? Ich würde eher auf ein Super/TI Konter spekulieren nachdem AMD seine GPUs gebracht hat. Mit etwas mehr Power-Budget, besseren Chips (CU oder Takt) und dann auch mehr VRAM, je nachdem was man braucht ...

Es heißt ja, dass zu Release wohl drei Modelle kommen dürften: RTX 3090, RTX 3080 10GB und RTX 3070 8GB.
Die 3080 20GB und 3070 (Ti) 16GB mindestens je einen Monat später. Eine 3060 dann wohl erst gegen Ende des Jahres.

Aus NVs Sicht macht es wohl Sinn, zeitnah optional doppelt VRAM anzubieten, wenn AMD grob zwischen Ende Oktober und Ende November mit vier Modellen aufschlägt.
Mit so einem Konter kannst du der Konkurrenz gleich schon vor Release Wasser abgraben - es entfällt ein exklusives Pro-Argument für Big Navi -> mehr VRAM (zumindest unterhalb der RTX 3090).

Also bei dem hohen kolpotierten Verbrauchswerten wäre mMn so ein Refresh mit höheren Taktraten nur sinnig, wenn diese in einem besseren Fertigungsprozess erschienen.
Also so etwas wie Samsung 7LPP (EUV) Mitte 2021 mit dann z.B. RTX 3090(S) mit 5376SP, +10% Takt, besseren GDDR6X und maximal 300W PT dank Shrink.

TurricanM3
2020-08-17, 15:20:49
Die WaKü-Fraktion interessiert es - gleich ne Ref-Karte und z.B. EKWB Block bestellt, wenn dieser auch zeitnah verfügbar ist. So schlecht sind die NV-Ref-Karten aber abseits vom Umbau auch nicht - zumindest wenn man händisch optimiert mit UV.

Die ganzen letzten Gens waren die Ref.-Karten einfach schlecht was Nebengeräusche von den Spulen angeht. Wenn das Sys sonst wirklich leise war, hast nur die Spulen gehört.
Habe bei der Ti extra ein Vid dazu gemacht:

H-J6BMoO5hg

Handy ca. 10cm von der Karte entfernt. Beide Karten 2010MHz @1v. Die günstige Palit Karte ist da deutlich angenehmer.
Titan RTX ist da die reinste Hölle. :rolleyes:

Ich hoffe das wird bei Ampere besser, aber naja, ich hab das die letzten Jahre schon immer gehofft und da hat sich nichts getan.

Edgecrusher86
2020-08-17, 15:30:27
Also ich kann mich hier nicht beschweren - hatte insgesamt 4x Pascal FE - 1080er + 1080 Ti.
Nicht umgebaut auf Wasser je und mit UV betrieben. Gut, ich bin auch kein high fps Gamer - früher zu SLI Zeiten waren es dann halt maximal 100-120 fps im MP. Da habe ich dann auch nix raus gehört aufgrund ingame Sound bzw. HS.

Also ich kann nur sagen, dass die 1080 Ti FE mit UV auf Kopfhöhe - das kleine System steht auf dem CL und ist seitlich quasi offen (Kühlschlitze) um Welten bessere Spulen als die V64 Air verbaut hat - die Spulen höre ich quasi immer - egal, wie hoch die fps sind. Bei der NV muss ich den Ton deaktivieren und den Kopf nah ans Case rücken, damit ich ein bisschen merke. Ansonsten braucht es schon Anwendungen wie den 3DM, damit ich das deutlich wahrnehme.

Ich weiß allerdings auch, dass z.B. die TITAN V ein extremes Spulenfiepen hatte (unter Wasser). ;)

Ja, hier ist sicher noch Verbesserungsbedarf - die Zotac ist in den Szenarien deutlich angenehmer.

Lehdro
2020-08-17, 15:31:04
Wenn die Karten wirklich so viel Kosten wie hier dargestellt, obwohl es dann Konkurrenz gibt von AMD (zumindest in einigen Bereichen), dann kaufe ich mir einfach keine. Sowas unterstütze ich sicher nicht, ganz unabhängig von meinen Finanzen.

Ich kann mir solch übertriebenen Preislagen allerdings auch noch nicht wirklich vorstellen, bei knapp vierstellig für das Topmodell ist bei mir der Ofen aus. Soviel habe ich ja nicht einmal für die Titanen zahlen müssen...

MiamiNice
2020-08-17, 15:36:24
Du musst einfach mehr Aktien von den Firmen kaufen dann relativiert sich das ganz schnell wieder. Stand heute eben sowas wie NV oder z.b. Adobe :wink:

6800XT
2020-08-17, 15:36:58
Erschreckend wie viele sich schon auf 1000€!!! einlassen bei nur einer gpu. Nvidias psycho marketing heinis sind ja unglablich gut :D oder die menschen zu dämmlich man weis es nicht tippe auf beides.

vor gar nicht langer zeit hat man um 1000€ ein top system heute wird das nur für ne gpu gezahlt lmao

5700xt 309€ verfügbar 2080 ti ab 1000€ ist nichtmal doppelt so schnell nichtmal annähernd. ROFL. Haut rein kann nur gut ausgehen :D

Lehdro
2020-08-17, 15:39:39
Du musst einfach mehr Aktien von den Firmen kaufen dann relativiert sich das ganz schnell wieder. Stand heute eben sowas wie NV oder z.b. Adobe :wink:
Das hat nichts mit Geld zu tun, sondern mit persönlicher Wertschätzung. Bei den prognostierten Leistungswerten da, sind die Karten das Geld halt nicht wert für mich.

Ich würde zum Beispiel auch nie Popcorn im Kino kaufen, weil das ganze Verhältnis vom Wert her einfach komplett absurd ist. Das ist eine Einstellungsfrage, keine des monetären Hintergrundes. Hat aber mit dem Thema eigentlich nichts mehr zu tun, also lassen wir das.

Schnäppchenjäger
2020-08-17, 15:39:51
Die ganzen letzten Gens waren die Ref.-Karten einfach schlecht was Nebengeräusche von den Spulen angeht. Wenn das Sys sonst wirklich leise war, hast nur die Spulen gehört.
Habe bei der Ti extra ein Vid dazu gemacht:

https://youtu.be/H-J6BMoO5hg

Handy ca. 10cm von der Karte entfernt. Beide Karten 2010MHz @1v. Die günstige Palit Karte ist da deutlich angenehmer.
Titan RTX ist da die reinste Hölle. :rolleyes:

Ich hoffe das wird bei Ampere besser, aber naja, ich hab das die letzten Jahre schon immer gehofft und da hat sich nichts getan.Fiepen bei 3000+ FPS ist doch total okay.. was ist da dein Problem? ;D
Ich hatte Karten, die fiepen schon bei allem über 80fps.. das ist nervtötend!!
Es ist schon extrem selten, dass Karten erst bei hohen vierstelligen FPS anfangen zu fiepen. Das ist Luxus, und alles erst ab 1000 ist total in Ordnung.

MiamiNice
2020-08-17, 15:48:43
Das hat nichts mit Geld zu tun, sondern mit persönlicher Wertschätzung. Bei den prognostierten Leistungswerten da, sind die Karten das Geld halt nicht wert für mich.

Ich würde zum Beispiel auch nie Popcorn im Kino kaufen, weil das ganze Verhältnis vom Wert her einfach komplett absurd ist. Das ist eine Einstellungsfrage, keine des monetären Hintergrundes. Hat aber mit dem Thema eigentlich nichts mehr zu tun, also lassen wir das.

Ich habe Dich durchaus verstanden, Du mich leider nicht.
Wenn man z.b. 800€ einsetzt und die ein paar Monaten bei einer Firma wie z.b. NV schlummern lässt und 1600€ raus bekommt - kann man sein Gewissen damit beruhigen nur 800€ gezahlt zu haben.
Darauf zu hoffen das es durch Verzicht wieder günstiger wird ist imo absurd und Verzicht bedingt auch sich ein anderes Hobby zu suchen. Auch blöd.

TheAntitheist
2020-08-17, 15:49:18
Fiepen bei 3000+ FPS ist doch total okay.. was ist da dein Problem? ;D
Ich hatte Karten, die fiepen schon bei allem über 80fps.. das ist nervtötend!!
Es ist schon extrem selten, dass Karten erst bei hohen vierstelligen FPS anfangen zu fiepen. Das ist Luxus, und alles erst ab 1000 ist total in Ordnung.
eben, und da es kein Monitor gibt der so hohe fps darstellt, ist das sowieso ein Test der komplett an der Realität vorbei geht.

Mach doch mal ein Reifentest und fahr 500km/h, dann ruf die Bild an und sag das die überteuerten Reifen alle platzen.

Und bzgl der Preise, der Markt reguliert jene. Ihr müsst nicht das Topmodel kaufen, es zwingt euch niemand dazu!

Ist beim Autokauf auch so, entweder einen normalen Golf oder doch nen Porsche?
Es machen ALLE Unternehmen aber bei Nvidia kotzt jeder rum. Ich hab für meinen ryzen 3900x knapp 600€? bezahlt und das Teil kostet in der Herstellung 1/10 einer Graka. DA meckert NIEMAND weils eben AMD ist... lächerlich. Dann kommen die nächsten "Ja aber die CPUs kosten immer soviel", ganz schlechtes Argument.

Der MARKT regelt die Preise, nicht Nvidia. Früher hätte niemand solch teure Grakas gekauft, daher hat Nvidia sie auch erst gar nicht hergestellt.
Früher gab es keinen Markt für Handys über 1000€ aber jetzt eben schon.

WedgeAntilles
2020-08-17, 15:51:59
Erschreckend wie viele sich schon auf 1000€!!! einlassen bei nur einer gpu. Nvidias psycho marketing heinis sind ja unglablich gut :D oder die menschen zu dämmlich man weis es nicht tippe auf beides.

vor gar nicht langer zeit hat man um 1000€ ein top system heute wird das nur für ne gpu gezahlt lmao

5700xt 309€ verfügbar 2080 ti ab 1000€ ist nichtmal doppelt so schnell nichtmal annähernd. ROFL. Haut rein kann nur gut ausgehen :D

Ja, jeder der was anderes als man selber kauft ist halt dämlich.
Tolles Niveau.

Dazu passt dann auch dein Vergleich der 5700xt und der 2080TI. Die Qualität dieses Vergleichs passt sich dem Restposting an.


Und bevor du mich in ne Schublade steckst: Ich habe noch immer ne GTX 970 in meinem PC.

WedgeAntilles
2020-08-17, 15:55:10
Das hat nichts mit Geld zu tun, sondern mit persönlicher Wertschätzung. Bei den prognostierten Leistungswerten da, sind die Karten das Geld halt nicht wert für mich.

Ich würde zum Beispiel auch nie Popcorn im Kino kaufen, weil das ganze Verhältnis vom Wert her einfach komplett absurd ist. Das ist eine Einstellungsfrage, keine des monetären Hintergrundes. Hat aber mit dem Thema eigentlich nichts mehr zu tun, also lassen wir das.

Da bin ich ganz bei dir.
Wenn beide Firmen nix anbieten können was halbwegs attraktiv ist, muss die 970 halt noch 2 Jahre weiterwerkeln.

Glücklicherweise spiele ich ja eh primär kleinere Spiele und das nur auf FullHD.

Ich hoffe aber, dass etwas im Bereich 3060Ti (so es die denn gibt) / 3070 halbwegs ok sein wird.

Zergra
2020-08-17, 15:57:04
Wenn die Preise wirklich so übel werden, würde ich mir noch eine gebrauchte 2080TI mit FC Block für 600-650€ zulegen. Eine 3080 mit 10GB wären mit keine 1000€ Wert.

Linmoum
2020-08-17, 16:01:22
Es bringt doch nichts, jetzt schon über Preise zu spekulieren. Wahrscheinlich ist doch vor allem, dass Nvidia die aktuell selbst noch nicht final festgelegt hat.

Und je nach Konkurrenz und dessen Preisniveau könnten die in den Wochen nach dem Release auch genauso drastisch wieder fallen, falls Nvidia zum Launch (sehr) hohe Preise ansetzt.

Adam D.
2020-08-17, 16:20:36
Es bringt doch nichts, jetzt schon über Preise zu spekulieren. Wahrscheinlich ist doch vor allem, dass Nvidia die aktuell selbst noch nicht final festgelegt hat.

Und je nach Konkurrenz und dessen Preisniveau könnten die in den Wochen nach dem Release auch genauso drastisch wieder fallen, falls Nvidia zum Launch (sehr) hohe Preise ansetzt.
Im Bereich von 3090 und Titan wird es egal sein, weil AMD hier schlicht weg nicht hinkommen wird. Aber darunter würde ich auch auf jeden Fall noch warten mit dem Kauf, wer weiß, ob die Konkurrenz hier nicht doch mal etwas Bewegung in den Markt bekommt.

Abseits davon: geht hier wirklich jemand davon aus, dass Nvidia die MSRP unter Turing ansetzt? Nie im Leben.

Lehdro
2020-08-17, 16:27:32
Ich habe Dich durchaus verstanden, Du mich leider nicht.
Wenn man z.b. 800€ einsetzt und die ein paar Monaten bei einer Firma wie z.b. NV schlummern lässt und 1600€ raus bekommt - kann man sein Gewissen damit beruhigen nur 800€ gezahlt zu haben.
Ist das dein Ernst?
Du hast dann trotzdem 1600€ bezahlt. Alles andere ist Selbstbetrug um dein Gewissen zu beruhigen.

Darauf zu hoffen das es durch Verzicht wieder günstiger wird ist imo absurd und Verzicht bedingt auch sich ein anderes Hobby zu suchen.
Äh, nein. Es gibt Alternativen. Ich bin logischerweise nicht gezwungen Neu, nur NV oder in dem Bereich wo das P/L nicht stimmt zu kaufen. Oder gar mein Hobby aufzugeben. Warum auch? Als ob es bald nur noch teure NV Karten geben würde...

Thunder99
2020-08-17, 16:40:24
Im Bereich von 3090 und Titan wird es egal sein, weil AMD hier schlicht weg nicht hinkommen wird. Aber darunter würde ich auch auf jeden Fall noch warten mit dem Kauf, wer weiß, ob die Konkurrenz hier nicht doch mal etwas Bewegung in den Markt bekommt.

Abseits davon: geht hier wirklich jemand davon aus, dass Nvidia die MSRP unter Turing ansetzt? Nie im Leben.
Wer sagt denn das AMD langsamer sein wird? Wissen wir bis heute nicht.
Daher bleibt es spannend bis zum Schluss :). Je besser AMD ist, desto niedriger muss Nvidia die Preise ansetzen was uns Konsumenten zugute kommt :D

BiZiNiZz
2020-08-17, 16:42:45
Leute könnten wir wieder auf die Spekulationsebene zurückkommen. Diese behinderte Preisdiskussion jede Generation bringt hier genau nichts, da alles andere untergeht. Lagert die doch endlich in einen eigenen Thread aus.

Die Preise sind wie sie sind. Könnt ihr noch so am Baum rütteln.

Abgesehen davon, ihr regt euch auf, dass eure Hobby teurer geworden ist. Und? Andere haben auch Hobbys und geben dafür 10x und mehr pro Jahr aus.

Und was die letzten Seiten dauernd AMD und die behinderten Konsolen als Vergleich herangezogen werden, versteh ich auch nicht.

Linmoum
2020-08-17, 16:47:08
Im Bereich von 3090 und Titan wird es egal sein, weil AMD hier schlicht weg nicht hinkommen wird.Was dennoch abzuwarten bleibt, auch, wenn ich dir grundsätzlich nicht widerspreche.

Im Endeffekt aber ganz einfach: Wem die Ampere-Preise zu hoch sind, der kauft schlicht nicht und/oder wartet, bis beide Hersteller ihre Karten am Markt haben und entscheidet durch dann ggf. folgende Preisanpassungen nochmals selbst.

Leute könnten wir wieder auf die Spekulationsebene zurückkommen. Diese behinderte Preisdiskussion jede Generation bringt hier genau nichts, da alles andere untergeht. Lagert die doch endlich in einen eigenen Thread aus.

Die Preise sind wie sie sind. Könnt ihr noch so am Baum rütteln.Preise gehören zur Spekulation um Ampere wie alles andere auch. Immer wieder albern, das unterbinden bzw. extra auslagern zu wollen weil doof.

Thunderburne
2020-08-17, 16:49:08
Gab es den link heute schon hier?

https://www.tweaktown.com/news/74536/nvidias-new-geforce-rtx-3090-could-cost-1999-with-24gb-gddr6x/index.html

Matrix316
2020-08-17, 17:37:56
Ich will nur eine 3080 mit mehr als 11 GB die für 750 Euro so schnell ist wie eine 2080TI oder so. Würde mir schon reichen.

Gouvernator
2020-08-17, 18:07:37
Gab es den link heute schon hier?

https://www.tweaktown.com/news/74536/nvidias-new-geforce-rtx-3090-could-cost-1999-with-24gb-gddr6x/index.html
So wie ich vorhergesagt habe, NV hat die 24Gb Titan in 3090 umbenannt aber den Preis der Titan gelassen. Damit sie bei einer Titan 2.0 noch mehr zulangen können.

MiamiNice
2020-08-17, 18:26:22
So wie ich vorhergesagt habe, NV hat die 24Gb Titan in 3090 umbenannt aber den Preis der Titan gelassen. Damit sie bei einer Titan 2.0 noch mehr zulangen können.


Selbes predige ich auch schon länger. Sogar mit dem Fancy neuem Namen hätte ich recht behalten. Ultimate ;D
Die Karte würde ich jedenfalls kaufen.

How fast is the GeForce RTX 3090? Freaking fast according to rumors, with 60-90% more performance than the current Turing-based flagship GeForce RTX 2080 Ti. We could see this huge performance leap in ray tracing titles, but we'll have to wait a little while longer to see how much graphical power NVIDIA crams into these new cards. You can read more on those rumors here.

Read more: https://www.tweaktown.com/news/74536/nvidias-new-geforce-rtx-3090-could-cost-1999-with-24gb-gddr6x/index.html

Das klingt sehr sexy

Ex3cut3r
2020-08-17, 18:36:18
Also 2300€, wenn es so kommt, die spinnen doch. VRAM verdoppelung halte ich mit +75-100€ für angemessen, was soll denn die 3090 mit 12GB kosten?

Was wollen die denn dann für die 3070 mit 16GB verlangen? 800€? Einfach nur krank, wenn es stimmt. Der Samsung Prozess ist eigentlich billiger als TSMC.

Linmoum
2020-08-17, 18:38:11
Das klingt sehr sexyDas saugt sich tweaktown, wie vieles was sie tun, mal wieder aus den Fingern. Die Gerüchte mit 60-90% (lol), von denen sie sprechen, existieren gar nicht. :freak: (ja, ich habe das, was tweaktown da verlinkt, gesehen).

Das höchste, was bisher durch die Gerüchteküche und durch Benchmarkeinträge als realistisch angesehen werden kann, sind ~+50%.

nordic_pegasus
2020-08-17, 18:38:24
Selbes predige ich auch schon länger. Sogar mit dem Fancy neuem Namen hätte ich recht behalten. Ultimate ;D
Die Karte würde ich jedenfalls kaufen.

wenn de 3090 ein voller GA102 Chip ist, kann ich sicherlich nicht wiederstehen. Ich werde aber bestimmt nicht 2000€ für einen Salvage ausgeben. Ich befürchte, die 3090 ist beschnitten und erst die Ampere Titan für 3000€+ bekommt die 5376 Shader. Da bin ich dann allerdings raus.

davidzo
2020-08-17, 18:39:23
Selbes predige ich auch schon länger. Sogar mit dem Fancy neuem Namen hätte ich recht behalten. Ultimate ;D
Die Karte würde ich jedenfalls kaufen.



Das klingt sehr sexy

Klingt nach einer low to mid power ATI Karte mit Passivkühler von Sapphire.
Ob man da nicht in rechtliche Schwierigkeiten kommt wenn man den Modellnahmen einer Sapphire Grafikkartenserie aus den 2000ern recycled?

Monsta
2020-08-17, 18:40:25
Falls der Top Dog wirklich "nur" 30% schneller ist als ne 2080Ti, und das bei über 300 Watt. Ist ein Preis von 2000k völlig banane.
Da das Produkt einfach mal kacke ist, egal wieviel Ram die da draufknallen.

Idr sinkt der Preis für die Rechenleistung bei einer neuen Generation.
Ich bleibe dabei, wenn die neuen Konsolen für 499 Euro Rechenleistung einer 2080 inlkusive eines 8 Core Ryzen bieten. Braucht Nvidia nicht mit einer 3080 alleine für 999 Euro kommen. Das lohnt mal null.
Da ist auch nix Elite dran, das mehr an Rechenleistung verpufft an anderen flaschenhälsen im Pc.

Meine Ps4 Pro fühlt sich von der Performance ähnlich zu meiner Vega 64 an.

gedi
2020-08-17, 18:42:43
Ich glaube es ist alles Fake, angefangen von der RDNA2-Performance bis hin zum Preis für die 30x0 Kärtchen. Die spucken sich über angebliche Leaks gerade selbst in die Suppe

Und bevor sich nun alle Konsole ordern, fände ich ein Statement seitens Lisa und Jensen mehr als berechtigt

Thunder99
2020-08-17, 18:44:36
@Monsta Konsolen Trick sei Dank ;)

Was für viele mehr interessant ist sind die Preise des Sub High-end, 3070(Ti) und darunter. Aber eventuell werden wir ja positiv überrascht :). Ich erwarte 2080Ti+ Leistung für weniger wie 800€ :redface:

MiamiNice
2020-08-17, 18:46:18
Also 2300€, wenn es so kommt, die spinnen doch. VRAM verdoppelung halte ich mit +75-100€ für angemessen, was soll denn die 3090 mit 12GB kosten?

Was wollen die denn dann für die 3070 mit 16GB verlangen? 800€? Einfach nur krank, wenn es stimmt. Der Samsung Prozess ist eigentlich billiger als TSMC.

Ich vermute das es schlicht keine 3090 mit 12 GB geben wird.

unl34shed
2020-08-17, 18:46:34
Das saugt sich tweaktown, wie vieles was sie tun, mal wieder aus den Fingern. Die Gerüchte mit 60-90% (lol), von denen sie sprechen, existieren gar nicht. :freak: (ja, ich habe das, was tweaktown da verlinkt, gesehen).

Das höchste, was bisher durch die Gerüchteküche und durch Benchmarkeinträge als realistisch angesehen werden kann, sind ~+50%.

Sie schreiben explizit RT titles, da kann das durchaus sein, wenn man annimmt, das RT bei Turing die FPS halbiert und Ampere stärkere/mehr RT Cores haben wird, dann ist das durchaus möglich.
Da können die +40% Performance und zusätzliche RT Cores schon deutliche Leistungssteigerungen zulassen.

Ex3cut3r
2020-08-17, 18:48:19
Ich vermute das es schlicht keine 3090 mit 12 GB geben wird.

Kann sein. Wie dem auch sei. Bei diesen abnormalen Preisen (wenn Sie stimmen) bin ich erstmal raus. Und schaue dann erstmal was AMD macht, und ob die Preise sich dann wenigstens etwas normalisiert haben. So geisteskrank bin selbst ich nicht, in diesen komischen Zeiten. Schließlich sollte ich vernünftig wirtschaften mit meinen (begrenzten) Kapital.

gedi
2020-08-17, 18:59:03
Ich vermute das es schlicht keine 3090 mit 12 GB geben wird.

Du meinst die 3080Ti?

TheAntitheist
2020-08-17, 19:00:02
Wenn Nvidia solche Preise verlangen könnte, hätten sie auch TSMC verwenden können würd ich sagen. Die "normalen" Karten werden nur marginal teurer (max 100)

MiamiNice
2020-08-17, 19:06:31
Du meinst die 3080Ti?


3080TI = 3080 mit 20Gb?
Die 3090 sollte doch eigentlich die TI werden.

TurricanM3
2020-08-17, 19:49:59
Fiepen bei 3000+ FPS ist doch total okay.. was ist da dein Problem? ;D
Ich hatte Karten, die fiepen schon bei allem über 80fps.. das ist nervtötend!!
Es ist schon extrem selten, dass Karten erst bei hohen vierstelligen FPS anfangen zu fiepen. Das ist Luxus, und alles erst ab 1000 ist total in Ordnung.eben, und da es kein Monitor gibt der so hohe fps darstellt, ist das sowieso ein Test der komplett an der Realität vorbei geht.


Scheinbar habt ihr euch nicht mal das Vid angeschaut. Die Karten zirpen schon bei ganz alltäglichen FPS deutlich hörbar und für mich störend.

Adam D.
2020-08-17, 20:12:14
3080TI = 3080 mit 20Gb?
Die 3090 sollte doch eigentlich die TI werden.
Also so wie ich das verstanden habe, war immer von entweder 3080Ti oder 3090 die Rede.

Slipknot79
2020-08-17, 20:17:13
Die KI von Lederjacke hat 1500EUR für die neuen Konsolen berechnet, das erklärt eben auch die Preise für seine Amperes :redface:

gedi
2020-08-17, 20:23:31
3080TI = 3080 mit 20Gb?
Die 3090 sollte doch eigentlich die TI werden.

Nö, 3090 mit nicht selektierten Chips, darum etwas niedriger getaktet und mit lediglich 12GB. Sprich der Preis ganz leicht über ner 3080 mit 20GB und der direkte Gegenspieler zu RDNA2 mit 12 GB

Edgecrusher86
2020-08-17, 21:04:16
Eine 3080 Ti soll es wohl nicht geben - nur die 3090 und die beiden 3080er.

Hier kommen Preise für zwei Colorful Modelle - namentlich Vulcan X OC und Neptune - zur Sprache - anscheinend inkl. einer public und non public Version.
Zwischen Y 12999 bis 15999 ist alles dabei [1560€ - 1920€].

https://abload.de/img/123307wll4b7znus4n47ljpjr1.jpg
Geposted bei ChipHell.

Es scheint definitiv zumindest auf 1700-2000€ hinaus zu laufen.

MiamiNice
2020-08-17, 21:15:51
What's NVIDIA doing with all those mentions of 21? I'm a kinda numerology nerd in some ways, so it helps decode at least some of it -- which I did so here. (GeForce) 256 x 21 (days/years celebration) = 5376 (GPU cores in purported GA102 GPU), and 5 + 3 + 7 + 6 = 21.

2,1 GHz GPU Takt ?
21 GBit/s GDDR6 ?
$ 2100 + VAT ? :freak:
Special 21 Years Edition

https://tenor.com/view/atrioc-hype-nvidia-stock-super-gif-16679770

Thunder99
2020-08-17, 21:27:11
Sollen sie es probieren, irgendwann ist die Schmerzgrenze erreicht.

Warum erinnert es mich an die GeForce 2 Ultra (1500DM) :freak:

Atma
2020-08-17, 21:44:34
Ich hoffe inständig die spekulierten Preise bewahrheiten sich nicht. Hatte mit dem Gedanken gespielt für ein ordentliches RT Erlebnis in Cyberpunk 2077 zu wechseln. So hingegen verkneif ich mir das und hoffe darauf, dass Nvidia Turing nicht sofort hinten runterfallen lässt bei der Optimierung für RT.

Slipknot79
2020-08-17, 21:49:43
What's NVIDIA doing with all those mentions of 21? I'm a kinda numerology nerd in some ways, so it helps decode at least some of it -- which I did so here. (GeForce) 256 x 21 (days/years celebration) = 5376 (GPU cores in purported GA102 GPU), and 5 + 3 + 7 + 6 = 21.
Zitat:
2,1 GHz GPU Takt ?
21 GBit/s GDDR6 ?
$ 2100 + VAT ?
Special 21 Years Edition



Navi 21 als Coprozessor noch zu erwähnen. :redface:

Nazar
2020-08-17, 21:58:22
Sie schreiben explizit RT titles, da kann das durchaus sein, wenn man annimmt, das RT bei Turing die FPS halbiert und Ampere stärkere/mehr RT Cores haben wird, dann ist das durchaus möglich.
Da können die +40% Performance und zusätzliche RT Cores schon deutliche Leistungssteigerungen zulassen.

Das würde aber auch nur dann Sinn ergeben, wenn man dazu noch DLSS zählt.
Aber nochmal gefragt.... wo sind denn all die tollen RT Games, die man mit dem Release oder kurz danach spielen können wird? :confused:
Bisher kann man selbst mit den angeblichen Neuankündigungen und wenn diese dann auch wirklich Rt haben werden, alle Spiele an 10 Fingern abzählen.
RT mag in 2 Jahren richtig zünden aber dafür jetzt schon so viel Geld zu investieren? Insbesondere dann, wenn eventuell nicht mal 1 Spiel bei den RT Spielen dabei sein wird, welches einen wirklich interessiert? Da hau ich mir doch lieber mit einem einbetonierten Bündel 100$ Noten in die eigenen Klöten.... :freak:

RLZ
2020-08-17, 22:11:30
Da hau ich mir doch lieber mit einem einbetonierten Bündel 100$ Noten in die eigenen Klöten.... :freak:
Bitte film das. Das wird ein episches Gif :D

monstar-x
2020-08-17, 22:16:03
Meine Ps4 Pro fühlt sich von der Performance ähnlich zu meiner Vega 64 an.

Nicht nur das, wenn ich die Vergleichs Videos/Bilder von Horizon Zero Dawn auf meiner PS4 Pro auf meinem 75" TV (Abstand 4m) ansehe, so muss ich schon genau hinsehen, das ich einen Unterschied erkenne zwischen Ultra auf den PC und PS4 Pro. Im Spiel bei bewegt Bilder, bezweifel ich dass ich den Unterschied sehen würde.

God of War 4, Uncharted 4 und HZD sehen einfach fantastisch aus auf der PS4 Pro.

Troyan
2020-08-17, 22:18:25
Dann siehst du auch kein Unterschied zwischen 1080p/DLSS und 4K. ;D

Zergra
2020-08-17, 22:18:31
Bitte film das. Das wird ein episches Gif :D
Sowas könnte ich mir nicht anschauen, da kauf ich freiwillig für mehr Geld eine Karte :freak:

monstar-x
2020-08-17, 22:26:35
Dann siehst du auch kein Unterschied zwischen 1080p/DLSS und 4K. ;D

Doch einen Unterschied zwischen 1080p und 4K Checkerboarding kann man je nach Spiel schon sehen.

Bei guten Videoqualität wie 1080p Bluray und 4K Bluyray Disc sehe ich (wir) keinen Unterschied.

Noch mal mein 75" TV ist 4 Meter, wenn ich es mir richtig gemütlich mache 4.3 Meter entfernt. Da musste schon Adler Augen haben um den Unterschied zu sehen.

MiamiNice
2020-08-17, 22:29:48
Ich habe die Videos von HZD auf der PS4 Pro gesehen und auf meinem PC.
Eventuell stattest Du mal einer Fielmann Filiale einen Besuch ab :wink:
Oder rückst mal ein Stück näher an den TV.

Bei guten Videoqualität wie 1080p Bluray und 4K Bluyray Disc sehe ich (wir) keinen Unterschied.

Noch mal mein 75" TV ist 4 Meter, wenn ich es mir richtig gemütlich mache 4.3 Meter entfernt. Da musste schon Adler Augen haben um den Unterschied zu sehen.

Auch da wiederspreche ich massiv. Besitze ein von den Specs identisches TV und sehe direkt den Unterschied zwischen den Quellen. Meine Augen degenerieren seit 40 Jahren, daran kann es auch nicht liegen. Die Tiefenschärfe macht bei 4K Material den Unterschied. Achte mal drauf, das sticht quasi direkt ins Auge.

--

Ich finde es irgendwie befremdlich das Du eine Konsole, von der Du 4 Meter entfernt sitzt, mit einem PC vergleichst, von dem Du i.d.R. 50-75cm Abstand hast.
Das ist irgendwie Äpfel und Birnen. Wenn Dir der Couch Potato besser gefällt, ist das ja OK. Deswegen muss man aber keinen Türstopper generell über PC Gaming stellen. Verglichen mit dem PC sind Konsolen wie ein Auto ohne Tüv.

TheAntitheist
2020-08-17, 22:56:20
Scheinbar habt ihr euch nicht mal das Vid angeschaut. Die Karten zirpen schon bei ganz alltäglichen FPS deutlich hörbar und für mich störend.
doch hab ich, bei mir war es da aber still. Vllt ein Headset Problem?

wolik
2020-08-17, 23:04:27
Nicht nur das, wenn ich die Vergleichs Videos/Bilder von Horizon Zero Dawn auf meiner PS4 Pro auf meinem 75" TV (Abstand 4m) ansehe, so muss ich schon genau hinsehen, das ich einen Unterschied erkenne zwischen Ultra auf den PC und PS4 Pro. Im Spiel bei bewegt Bilder, bezweifel ich dass ich den Unterschied sehen würde.

God of War 4, Uncharted 4 und HZD sehen einfach fantastisch aus auf der PS4 Pro.
Was haben letzte Posts mit "Re: Ampere (Turing-Nachfolger, 7/8nm, Mitte/Ende 2020)" zu tun? :mad:

Monsta
2020-08-17, 23:40:24
Ich habe die Videos von HZD auf der PS4 Pro gesehen und auf meinem PC.
Eventuell stattest Du mal einer Fielmann Filiale einen Besuch ab :wink:
Oder rückst mal ein Stück näher an den TV.



Auch da wiederspreche ich massiv. Besitze ein von den Specs identisches TV und sehe direkt den Unterschied zwischen den Quellen. Meine Augen degenerieren seit 40 Jahren, daran kann es auch nicht liegen. Die Tiefenschärfe macht bei 4K Material den Unterschied. Achte mal drauf, das sticht quasi direkt ins Auge.

--

Ich finde es irgendwie befremdlich das Du eine Konsole, von der Du 4 Meter entfernt sitzt, mit einem PC vergleichst, von dem Du i.d.R. 50-75cm Abstand hast.
Das ist irgendwie Äpfel und Birnen. Wenn Dir der Couch Potato besser gefällt, ist das ja OK. Deswegen muss man aber keinen Türstopper generell über PC Gaming stellen. Verglichen mit dem PC sind Konsolen wie ein Auto ohne Tüv.

Wer sitzt denn bitte 50-75cm vor nem 75 Zoll Fernseher? , da frag ich mich wer hier zum Optiker muss.
Man kann auch einen PC an die Glotze anschließen, Du versuchst Deinen Standard als allgemeingültig darzustelllen, und das auf einem niedrigen Niveau.

MiamiNice
2020-08-17, 23:49:09
Nun gut, die meisten PC Spieler dürften vor einem Monitor sitzen was Deine Argumente ad Absurdum führt. Wenn hier jemand seinen Standard als allgemeingültig darzustelllen versucht, musst das dann also wohl Du sein.
Noch dazu bist Du für dieses Thema im verkehrten Thread.

Monsta
2020-08-17, 23:56:37
Nun gut, die meisten PC Spieler dürften vor einem Monitor sitzen was Deine Argumente ad Absurdum führt. Wenn hier jemand seinen Standard als allgemeingültig darzustelllen versucht, musst das dann also wohl Du sein.
Noch dazu bist Du für dieses Thema im verkehrten Thread.

Achso Du gleitest OT mäßig ab, aber wenn Andere darauf eingehen erwähnst Du das sie im verkehrten Thread sind.
Schau mal in den Spiegel

monstar-x
2020-08-18, 00:10:12
Was haben letzte Posts mit "Re: Ampere (Turing-Nachfolger, 7/8nm, Mitte/Ende 2020)" zu tun? :mad:

Ganz einfach, Preis/Leistung! :mad:

Ich habe den Beitrag #5925 von Monsta zitiert, alleine der Übersichtlichkeithalber, ist es Sinnvoll keine Vollzitate zu nutzen
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12394331&postcount=5925

Und solche Beiträge wie deiner hier, sind viel schlimmer, weil es einfach ünnötig ist und den ganzen Lesefluss kaputt machen :mad:


Die Tiefenschärfe macht bei 4K Material den Unterschied. Achte mal drauf, das sticht quasi direkt ins Auge.
Die Tiefenschärfe hat nichts mit FullHD / 4K zu tun und kann dadurch gar nicht in verändert Form wahrgenommen werden. Einzig allein wenn sich das Ausgabe Medium in der Größe ändert, sprich dass gleiche Bild auf einer Postkarte oder 24" Monitor dargestellt wird, ändert sich die Tiefenschärfe da der Monitor viel mehr Fläche für die Darstellung hat.

Die Tiefenschärfe wird bestimmt durch Entfernung des Abzulichtendende Objektes, die Größe des Sensor / Film und maßgeblich durch dass verwendete Objektiv (Lichtstärke (f stops) und Brennweite (mm)) und hat gar nichts mit FullHD / UltraHD zu tun.



Ich finde es irgendwie befremdlich das Du eine Konsole, von der Du 4 Meter entfernt sitzt, mit einem PC vergleichst, von dem Du i.d.R. 50-75cm Abstand hast.
Das ist irgendwie Äpfel und Birnen. Wenn Dir der Couch Potato besser gefällt, ist das ja OK. Deswegen muss man aber keinen Türstopper generell über PC Gaming stellen. Verglichen mit dem PC sind Konsolen wie ein Auto ohne Tüv.

Der Vergleich hinkt überhaupt nicht.

Der TV ist bei der Entfernung von 4 Meter, Wahrgenommen so groß wie mein Gaming Monitor der eine Armlänge entfernt ist und somit ist es sehr wohl zu vergleichen aber um das geht es nicht. Sondern dass der Mehrpreis wie Monsta es schrieb nicht Wert ist, wenn man es nicht oder im Bestenfalls nur bei Standbild sehen kann.

BlacKi
2020-08-18, 00:10:47
doch hab ich, bei mir war es da aber still. Vllt ein Headset Problem?
da gibt jemand hunderte von euro aus damit die kiste leise ist, damit man dann seine spulen zirpen hören darf, das ist noch unangenehmer als laute lüfter.

das hat mich damals auch generft.

MiamiNice
2020-08-18, 00:26:17
Die Tiefenschärfe hat nichts mit FullHD / 4K zu tun und kann dadurch gar nicht in verändert Form wahrgenommen werden. Einzig allein wenn sich das Ausgabe Medium in der Größe ändert, sprich dass gleiche Bild auf einer Postkarte oder 24" Monitor dargestellt wird, ändert sich die Tiefenschärfe da der Monitor viel mehr Fläche für die Darstellung hat.

Die Tiefenschärfe wird bestimmt durch Entfernung des Abzulichtendende Objektes, die Größe des Sensor / Film und maßgeblich durch dass verwendete Objektiv (Lichtstärke (f stops) und Brennweite (mm)) und hat gar nichts mit FullHD / UltraHD zu tun.

Sehe ich komplett anders. Mit einer 4K Quelle ist der Hintergrund zur jeder Zeit glasklar, was er bei einer 1080P Quelle eben nicht ist. Warum das jetzt technisch so ist, scheinst Du besser zu wissen. Der Unterschied ist jedenfalls jederzeit, für mich, deutlich erkennbar.


Der Vergleich hinkt überhaupt nicht.

Der TV ist bei der Entfernung von 4 Meter, Wahrgenommen so groß wie mein Gaming Monitor der eine Armlänge entfernt ist und somit ist es sehr wohl zu vergleichen aber um das geht es nicht. Sondern dass der Mehrpreis wie Monsta es schrieb nicht Wert ist, wenn man es nicht oder im Bestenfalls nur bei Standbild sehen kann.

Monstas Post passt aber überhaupt nicht "30% mehr Leistung bei massig mehr Verbrauch". Er versucht mit seinem Post nur, wieder mal, seine Konsolen Fantasien der Welt aufzudrücken. Hier geht es allerdings um Ampere. Und so lange keine Benches vorliegen - ist sein Post maximal BS. Ebenso wie jedliche PL Diskussion, oder ähnliches. Außerdem, wollen noch immer die meisten PC Gamer nicht mit einem Gamepad in der Hand hantieren. Alleine der Vorteil ist sicher vielen hier auch mehrere hundert € Aufpreis wert. Ganz zu schweigen von den anderen Nachteilen. Aber wie gesagt, hier geht es um Ampere. Es gibt doch genug PC vs. Konsolen Threads in denen ihr euch austoben könnt.

Gouvernator
2020-08-18, 00:32:35
Selbes predige ich auch schon länger. Sogar mit dem Fancy neuem Namen hätte ich recht behalten. Ultimate ;D
Die Karte würde ich jedenfalls kaufen.



Das klingt sehr sexy
Abgesehen vom Namenswirrwarr wäre eine ursprüngliche 24Gb "Titan" - jetzt die 3090 für 2000€ eigentlich gar nicht mal teuer. Oder zumindest etwas bezahlbarer als reguläre 3000€ Titan. Und bei 1700€ ist es beinah ein Schnäppchen. Vorausgesetzt es ist diese sagenumwobene 8K Karte... von der man am Anfang sprach.

Armaq
2020-08-18, 01:01:37
Sehe ich komplett anders. Mit einer 4K Quelle ist der Hintergrund zur jeder Zeit glasklar, was er bei einer 1080P Quelle eben nicht ist. Warum das jetzt technisch so ist, scheinst Du besser zu wissen. Der Unterschied ist jedenfalls jederzeit, für mich, deutlich erkennbar.



Monstas Post passt aber überhaupt nicht "30% mehr Leistung bei massig mehr Verbrauch". Er versucht mit seinem Post nur, wieder mal, seine Konsolen Fantasien der Welt aufzudrücken. Hier geht es allerdings um Ampere. Und so lange keine Benches vorliegen - ist sein Post maximal BS. Ebenso wie jedliche PL Diskussion, oder ähnliches. Außerdem, wollen noch immer die meisten PC Gamer nicht mit einem Gamepad in der Hand hantieren. Alleine der Vorteil ist sicher vielen hier auch mehrere hundert € Aufpreis wert. Ganz zu schweigen von den anderen Nachteilen. Aber wie gesagt, hier geht es um Ampere. Es gibt doch genug PC vs. Konsolen Threads in denen ihr euch austoben könnt.
Preis/Leistung ist wirklich quatsch. Zuerst einmal gibt es für 4k einen Anwendungsbereich jetzt, aber kaum Killerapps bis auf FlugSimulator. Cyberpunk bekommt gerade sicherlich die Nvidia-Extremkur und wird extrem gepimpt, damit zum Weihnachtsbaum auch die 3080 her muss.

Ich hab ne 2080Ti und die Karte ist insgesamt gesehen nicht überzeugend. Klar, hohe Frames, immer max. Qualität, aber im Vergleich zur 1080 ist sie viel zu heiß und obwohl das Case riesig ist, unterhalb der 2080 noch ein Gehäuselüfter die warme Luft sofort rausbläst. Eine noch heißere, schwerer zu bändigende Karte macht ohne WaKü keinen Sinn mehr. Für Preise oberhalb einer 2080Ti (ich hab 1050€ gezahlt trotz custom Kühler), möchte ich wieder ein Erlebnis wie bei der 1080, immer schnell, immer leise. Ansonsten bleibt die 2080Ti halt drin.

Rampage 2
2020-08-18, 01:20:36
Laut Tweaktown soll die RTX 3090 mit 24 GB 1999 Dollar kosten, hier wären das sicherlich 2200-2400 Euro.


Zu teuer - zumal die 3090 nach ggw. Stand nichtmal der Vollausbau ist. Ein voller GA102 mit 24GB für 1499$ ist "in Ordnung" (:freak:) - aber immer noch sehr stattlich!

R2

Rampage 2
2020-08-18, 01:47:40
Mythos;12394124']Ich halte es für äußerst unwahrscheinlich, dass Big Navi mit 16GB mehr, oder genauso viel kosten wird wie eine 3080 mit 20GB.


Ganz abgesehen davon: WIE will AMD einen Preis von 999$ (Dollar, nicht Euro) rechtfertigen, wenn heutzutage sogar gute (!) 5700XT Custom-Modelle nur 399€ (Euro, nicht Dollar) oder weniger kosten - also Dollar-Kurs umgerechnet ca. 350$ - aber BigNavi wohl kaum mehr als doppelt so schnell wie eine 5700XT sein wird.

Deswegen: 799-899$ (Dollar!!!) als Maximum; nur wenn BigNavi sogar die 3090 schlägt oder gleichzieht höchstens 999$ - aber auch nur dann!

R2

Schnäppchenjäger
2020-08-18, 02:08:56
Leute ich bin stolz auf euch. Wird Zeit, dass mehr Leute aufwachen und aus Prinzip die überhöhten GPU-Preise nicht mitmachen. Wir sind nicht im Miningboom.. und kommt mir nicht mit Corona.. selbst ohne Corona wären die Preise heftig gesalzen so wie jetzt!!

Ich dachte schon, Pascal war an Frechheit nicht zu überbieten.
Es darf nicht sein, dass das Topmodell über 1000€ kostet.. und die RTX x080-Varianten auch vermutlich an der 1000€ Grenze kratzen...
So wie es aussieht wird es bei mir wohl die 3070 Ti.

=Floi=
2020-08-18, 03:03:47
wartet erstmal ab. Eventuell sind die gpus wieder 600mm2 und fast 800mm2 groß.
Es wäre mal cool, wenn sich nv auch zur software äußern würde. Imho sind die kosten pro karte hier sicherlich auch bei 100$ anzusetzen.

Nuvirus
2020-08-18, 03:06:11
Ganz abgesehen davon: WIE will AMD einen Preis von 999$ (Dollar, nicht Euro) rechtfertigen, wenn heutzutage sogar gute (!) 5700XT Custom-Modelle nur 399€ (Euro, nicht Dollar) oder weniger kosten - also Dollar-Kurs umgerechnet ca. 350$ - aber BigNavi wohl kaum mehr als doppelt so schnell wie eine 5700XT sein wird.

Deswegen: 799-899$ (Dollar!!!) als Maximum; nur wenn BigNavi sogar die 3090 schlägt oder gleichzieht höchstens 999$ - aber auch nur dann!

R2

Die letzten % Leistung waren doch schon immer besonders teuer, dazu wahrscheinlich mehr Speicher.

Klar ich hoffe auch das alle neuen Karten erschwinglich werden, meine Karte muss ersetzt werden.

NC
2020-08-18, 03:12:52
So wie es aussieht wird es bei mir wohl die 3070 Ti.Das ist ja zum Teil auch der Sinn von absurden Preisen bei den Topmodellen, damit wirken die absurden Preise im Mainstream plötzlich wie eine vernünftige Entscheidung, auch wenn du jetzt bei einer 3070Ti vielleicht 600-700 zahlst. (Wie für eine 1080Ti vor 3 Jahren, das absolute Topmodel).
Nvidia hat mMn ein Marketing, das noch besser als deren Architekten ist.

Leonidas
2020-08-18, 04:16:33
Es scheint definitiv zumindest auf 1700-2000€ hinaus zu laufen.


Einkalkulieren bitte: NV-Preise in China sind (speziell bei HighEnd-Ware) immer deutlich höher als im Westen. Man kann grob RMB zu USD nicht 7:1, sondern 10:1 umrechnen.

Linmoum
2020-08-18, 04:28:11
Die 20GiB 3080 ist laut kopite AiB-only, wird es also nicht von NV selbst geben.

https://mobile.twitter.com/i/web/status/1295520974796816384

Leonidas
2020-08-18, 06:13:34
Genau das, was zu vermuten war: 10G war geplant und gibt es als FE. 20G ist eine späte Entwicklung und gibt es deswegen nur für AIBs. Und das NV überhaupt so etwas macht, deutet dann darauf hin, das es notwendig ist - sprich, das AMD nahe genug ist.

dargo
2020-08-18, 06:33:15
Ganz abgesehen davon: WIE will AMD einen Preis von 999$ (Dollar, nicht Euro) rechtfertigen, wenn heutzutage sogar gute (!) 5700XT Custom-Modelle nur 399€ (Euro, nicht Dollar) oder weniger kosten - also Dollar-Kurs umgerechnet ca. 350$ - aber BigNavi wohl kaum mehr als doppelt so schnell wie eine 5700XT sein wird.

Wie rechtfertigt AMD einen 710€ 3950X gegenüber einem 3600 für 170€? In Games ist ersteres nur unwesentlich schneller.

MasterElwood
2020-08-18, 06:42:40
Wie rechtfertigt AMD einen 710€ 3950X gegenüber einem 3600 für 170€? In Games ist ersteres nur unwesentlich schneller.

Gamer sind auch nicht die Zielgruppe von einem 3950X.

Und für Creator ist der Unterschied jeden Cent wert.

nordic_pegasus
2020-08-18, 06:48:41
Wie rechtfertigt AMD einen 710€ 3950X gegenüber einem 3600 für 170€? In Games ist ersteres nur unwesentlich schneller.

wieso sollte man den Wert einer CPU an der Performance in Spielen messen? Spiele skalieren nicht gut mit mehr Kernen...

Außerdem hat ein 3950x zwei volle Chiplets der besten Binning-Stufe, der 3600 hat nur einen teilaktivierten Chiplet, welche auch den maximalen Boost von 4,7GHz nicht packt. Der 3600 ist quasi Ausschuss-Ware, welcher AMD sich auch noch vergolden lässt.

Edgecrusher86
2020-08-18, 06:49:31
Hm, stimmt. Die Chinesen müssen in der Tat extrem viel zahlen. Ich hatte gestern im CH-Forum auch einen Screenshot von der Turing-Vorstellung gesehen, wo man den USD-Preis der 2080 Ti FE schon in grob 9600 CNY umgerechnet hatte. Letztendlich sind es 9999 CNY seitens NV Shop geworden, was zumindest Stand heute 1442,91 USD entspricht, also bei knappen 20,3% Aufschlag zum MSRP liegt.

Stand heute liegt der allgemeinen Umrechnungskurs von 1 CNY in USD bei 0,144 und EUR bei 0,121; entsprechend grobe 1:7 und 1:8. Ja, für teure NV HW kommt noch ein guter Aufschlag hinzu.

Angenommen es ist auch so bei den jetzigen umher schwirrenden Zahlen, könnte man aber immer noch im Bereich 1400-1600 Euro und mehr landen, da gezeigte Karten wohl nur die AIB Basis und das gehobene Mittelfeld entsprechen dürften. Eine iGame Kudan könnte die 3000 Marke knacken. Ich glaube, die letzte (2080 Ti 10 Years Annivisary) lag beim TITAN RTX Preis von 2800 USD. Dagegen war dann auch die Galax HoF OC LAB Edition inklusive LN2 POD, Bitspower Block und USB Stick mit offenem BIOS für die Teilnahme am firmeneigenen OC Event mit 2100 Euro ein Schnäppchen (Standard PT der Karte sind ja 450W).

Dass die 3080 20GB nicht als Founders Edition erscheint, wurde schon gemutmaßt und bestätigt sich dann wohl mit dem Eintrag von kopite7kimi. Ein Modell mit doppelt VRAM kann im Treiber auch dieselbe ID aufweisen. In dem Fall wohl besagte Nummer 0x2206.

dargo
2020-08-18, 06:50:17
Gamer sind auch nicht die Zielgruppe von einem 3950X.

Und für Creator ist der Unterschied jeden Cent wert.
Oh Gottchen.... dann nimm von mir aus den 3700X für 270€. Wo ist diese CPU in Games 59% schneller als der 3600? Ich hoffe dir wird jetzt klar worauf ich hinaus will?

wieso sollte man den Wert einer CPU an der Performance in Spielen messen? Spiele skalieren nicht gut mit mehr Kernen...

Das gleiche Argument könnte ich bei Highend/Enthusiant GPUs für einen 1080p Spieler anwenden. :rolleyes:

Nazar
2020-08-18, 07:34:29
nVidia reibt sich gerade die Hände.. :freak:
Wie schön, wenn der Kunde erst die Karte in Gedanken schön teuer macht und sich dann selber die Karte für 500$ weniger als günstig suggeriert. ;D
Eigentlich nicht schlecht eingefädelt.
Ich bin schon auf die ersten Tests gespannt und vor allen Dingen wie ehrlich und deutlich die Benchmarks durchgeführt werden. Besonders in Punkto DLSS und BQ.
Ich hoffe nur, dass AMD mindestens eine genauso gute RZ Leistung haben wird wie nV oder zumindest sehr nah dran sein wird, denn die Konsumenten scheinen die angeblichen Mondpreise schon selber schön zu rechnen und dann hilft nur noch Konkurrenz. :biggrin:

nordic_pegasus
2020-08-18, 07:34:32
Das gleiche Argument könnte ich bei Highend/Enthusiant GPUs für einen 1080p Spieler anwenden. :rolleyes:

das ist auch keine empfehlenswerte Kombination. Jedoch produziert die High-End Karte an einem 1080p Monitor einfach mehr Frames als dargestellt werden können. Ein 16 Kerner produziert nicht mehr Frames als ein 6 Kerner, sofern die Engine nicht explizit auf Multi-Threading ausgelegt wurde.

Darum hinkt Deine Analogie erneut.

nVidia reibt sich gerade die Hände.. :freak:
Wie schön, wenn der Kunde erst die Karte in Gedanken schön teuer macht und sich dann selber die Karte für 500$ weniger als günstig suggeriert. ;D
Eigentlich nicht schlecht eingefädelt.


Ich denke die meisten Nvidia Käufer akzeptieren die Preis notgedrungen in Ermangelung einer Alternative und nicht weil es alles Nvidia-Fanboys mit grüner Bettwäsche sind. Darum sehe ich auch gute Chancen für BigNavi am Markt, sofern die Leistung in Schlagweite ist.

dargo
2020-08-18, 07:38:25
das ist auch keine empfehlenswerte Kombination. Jedoch produziert die High-End Karte an einem 1080p Monitor einfach mehr Frames als dargestellt werden können.
Tut sie nicht in einer cpu-limitierten Szene. :rolleyes:

Edit:
Vielleicht ist dieser Ansatz für dich verständlicher?
https://www.computerbase.de/2020-07/death-stranding-benchmark-test/2/#diagramm-death-stranding-1920-1080

Warum sollte sich ein 1080p Spieler für Death Stranding die 2080 Super für ca. den doppelten Preis einer 5700XT kaufen wenn erstere nur 7% mehr Frames liefert? Und dabei verwendet CB in der Testszene schon einen 3900XT den kaum jemand hat. Viele Spieler haben eine wesentlich langsamere CPU in ihrem Rechner. Ergo wird der Abstand noch schrumpfen.

wolik
2020-08-18, 08:03:45
Wer sitzt denn bitte 50-75cm vor nem 75 Zoll Fernseher?

Ich. Vor 65" 90cm.

, da frag ich mich wer hier zum Optiker muss.

Heute, 10:30 Termin.

maximus_hertus
2020-08-18, 08:06:28
Ganz abgesehen davon: WIE will Nvidia einen Preis von 999$ (Dollar, nicht Euro) rechtfertigen, wenn heutzutage sogar gute (!) 2060 Super Custom-Modelle nur 399€ (Euro, nicht Dollar) oder weniger kosten - also Dollar-Kurs umgerechnet ca. 350$ - aber die 2080 Ti wohl kaum mehr als doppelt so schnell wie eine 2060 Super sein wird. (Anmerkung: es sind gerade mal +55-60%)

Deswegen: 799-899$ (Dollar!!!) als Maximum; nur wenn die 2080 Ti sogar die Titan schlägt oder gleichzieht höchstens 999$ - aber auch nur dann!

R2

Die Realität sah und sieht anders aus. Für +60% legt man das 3-4(!!!) fache an Euros auf den Tisch....

nordic_pegasus
2020-08-18, 08:54:17
Tut sie nicht in einer cpu-limitierten Szene. :rolleyes:


ich sagte doch, es ist keine empfehlenswerte Kombination. Ich z.B. habe einen UHD 120Hz Freesync Monitor. Sicherlich rechtfertigt die Mehrleistung meiner Titan RTX nicht den Preisaufschlag zu einer 5700XT, dennoch ist dieser signifikant in Kombination mit meinem Monitor.

Das ist doch schöne an PCs. Du kannst jede Komponente nach deinem tatsächlichen Bedarf auswählen. Nur leider skaliert der Preis nicht linear mit der Leistung...

MasterElwood
2020-08-18, 08:58:30
Oh Gottchen.... dann nimm von mir aus den 3700X für 270€. Wo ist diese CPU in Games 59% schneller als der 3600? Ich hoffe dir wird jetzt klar worauf ich hinaus will?


Ich wette mit dir im FS2020 in VR ist der Unterschied sogar größer (richtige GPU vorausgesetzt). 😉

Zergra
2020-08-18, 09:02:36
P/L ist ja auch niemals im Highend angesiedelt.
Da passt die Badewannenkurve eig. perfekt rein.

ShinyMcShine
2020-08-18, 09:09:43
Ganz abgesehen davon: WIE will AMD einen Preis von 999$ (Dollar, nicht Euro) rechtfertigen, ...

Seit wann rechtfertigen sich Intel/AMD/nVidia für Preise...

horn 12
2020-08-18, 09:12:24
Wahrscheinlich auch zwecks der Kühlung des GDDR6 Speichers zu 20GB
muss eine AIO her.
Gut möglich dass AMD mit BigNavi XTX mit ebenso AIO zur RTX 3090 aufschliessen kann.

So oder Anders, mit dieser Generation hat NV den Vogel wohl abgeschossen und man kann nur auf Hopper im nächsten Jahr hoffen.
AIO und doppelter Speicher sollte mindestens wohl gute 250 bis gar über 300+ Euro Aufpreis zur RTX 3080 10GB bedeuten.
Der 3070 16GB wird ähnliches erfahren, vielleicht Ohne der AIO jedoch,-
und die Ausgangsmodelle werden wie Blei in den Regalen liegen sollte AMD 16GB, Preis niedriger,- und ähnliche Performance aufweisen.

Thunder99
2020-08-18, 09:24:32
Sind wir an einer Grenze angelangt? Ab jetzt ist es immer schwieriger was zu kühlen, mit wenig Energie zu versorgen, etc... ? Müssen neue Technologien her die es noch nicht massentauglich gibt?

Slipknot79
2020-08-18, 09:37:39
Also ich zeigs Nvidia indem ich mir ne 3090 um 5$ über Wish hole. :redface:

Fragman
2020-08-18, 09:40:30
Zumindest dürfte mit dem AIO Gerücht jetzt der Höhepunkt des Schlechtredens der neuen nv Produkte erreicht sein, ich weiß zumindest nicht, was jetzt noch kommen soll.

Grendizer
2020-08-18, 09:43:40
Zumindest dürfte mit dem AIO Gerücht jetzt der Höhepunkt des Schlechtredens der neuen nv Produkte erreicht sein, ich weiß zumindest nicht, was jetzt noch kommen soll.


AIO Chiller ist notwendig :biggrin:

pixeljetstream
2020-08-18, 09:45:00
Zumindest dürfte mit dem AIO Gerücht jetzt der Höhepunkt des Schlechtredens der neuen nv Produkte erreicht sein, ich weiß zumindest nicht, was jetzt noch kommen soll.
Proprietäre Schrauben

mironicus
2020-08-18, 09:54:31
Bei den zukünftigen Tests würde mich die Effizienz besonders interessieren. Also eine Gegenüberstellung der RTX 2080 Ti bei fixen 250 Watt in Vergleich mit 3070, 3080, 3090.

Geächteter
2020-08-18, 10:03:03
Sind wir an einer Grenze angelangt? Ab jetzt ist es immer schwieriger was zu kühlen, mit wenig Energie zu versorgen, etc... ? Müssen neue Technologien her die es noch nicht massentauglich gibt?
Irgendwann sind immer die Grenzen erreicht und wenn es keine wundersame neue Technologie gibt, die noch nicht ausgelutscht wurde, gibt es nur noch kleine Steigerungen zu immer höheren Kosten und Aufwand. Und da sind noch nicht die Steigerungen durch Lohnangleichung in Asien und immer weiter steigende Rohstoffpreise inkludiert. PC-High-End-Grafik auf der letzten Rille wird zum Motorsport werden, elitär und viel Abwärme.

Troyan
2020-08-18, 10:05:14
Proprietäre Schrauben

Werden davon weiter >20 benötigt, um den Kühler der Founders Edition abzumontieren? :confused:

nordic_pegasus
2020-08-18, 10:10:31
Proprietäre Schrauben

pff... Kühler und PCB werden für eine bessere Wärmeübertragung und mechanische Stabilität miteinander verklebt. Demontage unmöglich.

Wenn man einen Wakü-Block nutzen will, muss man die "Naked Founders Edition" kaufen, die kostet dann nochmal 200€ extra.

Lawmachine79
2020-08-18, 10:11:33
Irgendwann sind immer die Grenzen erreicht und wenn es keine wundersame neue Technologie gibt, die noch nicht ausgelutscht wurde, gibt es nur noch kleine Steigerungen zu immer höheren Kosten und Aufwand. Und da sind noch nicht die Steigerungen durch Lohnangleichung in Asien und immer weiter steigende Rohstoffpreise inkludiert. PC-High-End-Grafik auf der letzten Rille wird zum Motorsport werden, elitär und viel Abwärme.
Wenn Motorsport dann zur PC-High-End-Grafik wird, kann ich damit leben :).

MiamiNice
2020-08-18, 10:27:22
Proprietäre Schrauben

Ihr könntet die Karte imo ruhig mal standardmäßig mit WaKü Block anbieten. Man muss ja quasi die FE kaufen und läuft dann Gefahr das die Karte beim Wechsel kaputt geht. Und bei NV erlischt ja quasi instant die Garantie ... ziemlich praktisch.
Was übrigens bei anderen Anbietern nicht so ist. Bei den Preisen die wahrscheinlich aufgerufen werden, wäre das doch mal was. Zumindest ein kleiner Wermutstropfen.

Timbaloo
2020-08-18, 10:29:31
Proprietäre Schrauben
Schrauben? Nein: Nieten!!!

Hasenpfote
2020-08-18, 11:09:26
Warum sollte sich ein 1080p Spieler für Death Stranding die 2080 Super für ca. den doppelten Preis einer 5700XT kaufen wenn erstere nur 7% mehr Frames liefert?WEil er gerne überhaupt spielen möchte? Gerade mit der 5700er-Serie hat das Treiber-Team bei AMD mal wieder alle Klischees übererfüllt, was ich so bei /r/AMD gelesen habe.

w0mbat
2020-08-18, 11:15:13
Und wenn man auf r/Nvidia geht, mein man, dass alle Nvidia GPUs Müll sind. Navi läuft seit launch ohne jegliche Probleme, der Treiber ist immer noch besser als das alte Zeugs von Nvidia

dargo
2020-08-18, 11:37:18
WEil er gerne überhaupt spielen möchte? Gerade mit der 5700er-Serie hat das Treiber-Team bei AMD mal wieder alle Klischees übererfüllt, was ich so bei /r/AMD gelesen habe.
Wann hast du das letzte Mal einen Nvidia-Treiber-Thread gelesen? ;D

Dural
2020-08-18, 11:52:40
Vor kurzem habe ich eine Umfrage gesehen, mir kommt gerade nicht in den Sinn wo, glaube Youtube Video.

Da hatten 40% (!!!) Treiber Probleme mit AMD/5700 Karten. :freak:

Meine 2070 läuft hier seit rund 2 Jahren ohne jemals ein Problem mit dem Treiber gehabt zu haben. :rolleyes:

Edgecrusher86
2020-08-18, 11:55:27
AIO Chiller ist notwendig :biggrin:

Huang baut dann im Hinterzimmer am 1.9. ein RTX 3090 System mit einem 1,5KW Chiller auf wie Intel mit dem W-3175X @ CB R15 mT @ 5 GHz allcore.
Einen Tag nach der Vorführung stellt sich dann heraus, dass die GPU die 1KW Marke sprengte in 3DM Port Royal, aber einen neuen WR erreichte. ;D


Ein neuer Post von wjm47196 @ CH:

https://abload.de/img/preis3090qrkaz.png

https://www.chiphell.com/thread-2252850-1-1.html

Wenn es so stimmen sollte:
RTX 3090 ab $1399
RTX 3090 FE für $1499

Das wird die MSRP sein.

Natürlich ist es bezüglich finaler Preise noch sehr früh - diese werden teilweise erst im Laufe des NDA-Ablaufes [Review-Tag] genannt,
aber es klingt schon halbwegs schlüssig, wenn man eine halbwegs ordentliche Zahl an RTX 3090 absetzen möchte.