PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 [56] 57 58 59 60 61 62

ChaosTM
2020-10-27, 08:28:31
lol.
Aber +1. Das wäre ein gigantischer Verlust für Nvidia. In 2 Jahren bei der nächsten GPU Generation wird Nvidia aber wieder sicherlich auf TSMC setzen. Samsung ist nur gut darin SSDs bzw. DRAM herzustellen, bei anderem Zeug, sollte man lieber die Finger von Samsung lassen.

Schon der Exynos sieht gegen den Snapdragon immer alt aus.


GSD hat TSMC noch einen Konkurrenten, nachdem sich Intel selbst ins Aus befördert hat.
So viel Unterschied wird bei der Spitzenleistung nicht sein. 5-10%+ bei niedrigerem Verbrauch (-10%) würde ich schätzen ..

Redneck
2020-10-27, 09:08:54
Warum genau muss Nvidia nun in 7nm fertigen?
Weil es zu viele Käufer gibt, die ihre 1500€ UVP Karte für 2000€+ kaufen wollen?
Das ist natürlich ärgerlich, das Produkt scheint überhaupt nicht gut zu sein. :D
Fertigungsprobleme werden tendenziell besser als schlechter, das wird schon kommen.

Da kann sich Nvidia mit ihrem Flagschiff auch zurücklehnen, an die Ausstattung der 3090 kommt erstmal so schnell nichts ran.
;D;D;D

kennt nicht einmal das konkurrenzprodukt und bringt solche Klopfer...Jensen befiehl, wir folgen dir....

Redneck
2020-10-27, 09:14:07
Klaro, macht dann auch total Sinn nochmal 1,0+Mrd $ auszugeben um dann Ampere auf 7nm eventuell nochmal neu aufzulegen. Wer glaubt dass nächstes Jahr Ampere @ 7nm TSMC kommt sollte einfach mal weniger Zeug rauchen.

ich kenne ja die Kapazitäten von TSMC nicht grundsätzlich muß es zum Vertragsabschluss aber immer 2 zustimmende Parteien geben.
Was ist, wenn TSMC nicht moechte ? Was ist, wenn AMD oder andere Parteien die freien Kapazitäten besetzen und NV nicht zum Zuge kommt ?
Nur weil Lederjacke ankommt und mit Greenbacks wedelt, heißt das noch lange nicht, das sie auch (ausreichend) Kapazitäten von TSMC bekommen.
Andere Mütter haben auch hübsche Töchter... oder andere Kunden von TSMC könnten es wie Bayern München machen.. einfach die besten Spieler der Liga abwerben, so das der Rest Bayern München nicht gefährden kann. Ich könnte mir vorstellen, das AMD ein besseres standing bei TSMC haben, allein aufgrund ihrer Mengen Bestellungen für die CPUs.

prinz_valium_2
2020-10-27, 09:17:29
https://i.imgur.com/iLgyD75.png
https://videocardz.com/newz/nvidia-preparing-geforce-rtx-3080-ti-with-9984-cuda-cores



Die 3080 und 3070TI werden dann auf jeden Fall die besseren Karten sein im Gegensatz zu 3080 und 3070
Der Preis muss nur noch stimmen. Am besten der selbe Preis und die anderen bekommen einen Preiscut. Aber das geht nur, wenn sie sehr spät launchen.
Ansonsten halt $100 mehr für die 3070TI und $200 mehr für die 3080TI

Neosix
2020-10-27, 09:23:28
die ga102-150 basiert ja nun auf dem gleichen chip wie die 3080, und braucht daher genauso 320watt. ist mir persönlich zuviel. nicht falsch verstehen mehr Auswahl ist immer gut, aber ich will lieber leisen Rechner und keine Heizung. Der Preis wird daher bestimmt näher an der 3080 als der 70 liegen.

Zergra
2020-10-27, 09:25:54
die ga102-150 basiert ja nun auf dem gleichen chip wie die 3080, und braucht daher genauso 320watt. ist mir persönlich zuviel. nicht falsch verstehen mehr Auswahl ist immer gut, aber ich will lieber leisen Rechner und keine Heizung.

Ja der Unterschied zur 3080 dürfte dadurch relativ klein sein.

dargo
2020-10-27, 09:48:07
die ga102-150 basiert ja nun auf dem gleichen chip wie die 3080, und braucht daher genauso 320watt. ist mir persönlich zuviel.
:confused:

Die 3080 hat 17% mehr Shader, ergo heizt sie auch mehr. Die 3070TI sollte bei <300W rauskommen sofern die Frequenzen ähnlich bleiben.

Linmoum
2020-10-27, 09:52:34
Die 320W kommen von kimi, dürfte also auch passen.

dargo
2020-10-27, 09:53:37
Hmm... ok, logisch klingt das aber nicht. Es sei denn die Frequenzen wurden leicht erhöht.

Zergra
2020-10-27, 10:12:22
Doch eine 3080TI ?
https://www.computerbase.de/2020-10/nvidia-ga102-250-neue-zwischenloesung-amds-radeon-rx-6900/

3080 wäre damit ja quasi EOL.

Neosix
2020-10-27, 10:15:36
Doch eine 3080TI ?
https://www.computerbase.de/2020-10/nvidia-ga102-250-neue-zwischenloesung-amds-radeon-rx-6900/

3080 wäre damit ja quasi EOL.

Nicht wenn sie 999$ dafür wollen werden. Dann wäre für viele die 699 immer noch der bessere Deal.

dargo
2020-10-27, 10:16:05
:lol:

Das gesamte Portfolio durchwirbelt.

ChaosTM
2020-10-27, 10:17:18
12GB - wäre zumindest "mehr" als jetzt. ;)

Cyberfries
2020-10-27, 10:20:46
Warum keine 3080-12GB?

Macht die Karte attraktiver ohne die 3090 zu kannibalisieren, ganz ohne Ti-Label.
Die zusätzlichen Recheneinheiten bringen ohnehin kaum Mehrleistung.
Wenn der Yield tatsächlich schlecht ist, sind 10SM weniger durchaus attraktiv.
Jetzt noch eine 3080Ti in die 12% zwischen 3080 und 3090 zu quetschen....

Adam D.
2020-10-27, 10:34:40
Warum keine 3080-12GB?

Macht die Karte attraktiver ohne die 3090 zu kannibalisieren, ganz ohne Ti-Label.
Die zusätzlichen Recheneinheiten bringen ohnehin kaum Mehrleistung.
Wenn der Yield tatsächlich schlecht ist, sind 10SM weniger durchaus attraktiv.
Jetzt noch eine 3080Ti in die 12% zwischen 3080 und 3090 zu quetschen....
Wenn interessiert das Label? Ich hoffe ja, dass sie Igors Vorschlag der 3080 Super-Susi übernehmen, das würde dem Portfolio richtig gut tun ;D

Thunder99
2020-10-27, 10:37:16
Ist Nvidia verzweifelt? ;D. Mal schauen was wirklich erscheint als Konter oder Ergänzung.

Mangel76
2020-10-27, 10:37:32
Jetzt noch eine 3080Ti in die 12% zwischen 3080 und 3090 zu quetschen....

Beim Preis ist jedenfalls genügend Platz. Den Preis der 3090 zu senken würde einen Gewichtsverlust darstellen. Also 3080Ti reingequetscht, noch etwas beim Speicher gespart und fertig ist die "Preissenkung" ohne es so zu nennen.

r3ptil3
2020-10-27, 10:42:55
Wenn das gemutmasste von AMD stimmt bei den Preisen, dann darf man sich auf eine generelle Preissenkung der 30er Serie einstellen, m.M.

Das nenne ich mal sagenhaft, CPU Markt belebt, wie es sich vor 4 Jahren wohl niemand hätte vorstellen können und jetzt vielleicht was ähnliches im GPU Markt - war schon lange Zeit dafür, einfach super.

ShinyMcShine
2020-10-27, 10:43:28
Beim Preis ist jedenfalls genügend Platz. Den Preis der 3090 zu senken würde einen Gewichtsverlust darstellen.
:uponder:
:biggrin:

Adam D.
2020-10-27, 10:45:19
Wenn das gemutmasste von AMD stimmt bei den Preisen, dann darf man sich auf eine generelle Preissenkung der 30er Serie einstellen, m.M.

Das nenne ich mal sagenhaft, CPU Markt belebt, wie es sich vor 4 Jahren wohl niemand hätte vorstellen können und jetzt vielleicht was ähnliches im GPU Markt - war schon lange Zeit dafür, einfach super.
Nope, 100%ig nicht. Erstens wird sich AMD an den aktuellen UVPs von NV orientieren und zweitens lässt die aktuelle "Verfügbarkeit" (kann man ja nicht wirklich so nennen) ganz bestimmt kein Preissenkungen zu. Die Leute kaufen NV sowieso.

MiamiNice
2020-10-27, 10:48:30
Wenn das gemutmasste von AMD stimmt bei den Preisen, dann darf man sich auf eine generelle Preissenkung der 30er Serie einstellen, m.M.


Das glaubst Du doch selber nicht. Da wird m.M.n. gar nichts passieren außer das NV schnell einen Refresh nachschiebt, weil die Yields bei S schlecht sind. Die AMD karten sind kaum eine Gefahr bei der Marktmacht die NV inne hat.

Cyberfries
2020-10-27, 10:53:05
Wenn interessiert das Label?

nVidia? Ich entwerte doch nicht meine eigene Marke ohne Not.

Also 3080Ti reingequetscht, noch etwas beim Speicher gespart und fertig ist die "Preissenkung" ohne es so zu nennen.

Wir haben aber nicht den Turing-Fall, wo die Karten nach einem Jahr ge"Super"t werden.
Die 3080 und 3090 sind letzten Monat gestartet, jetzt die 1500+€ 3090 quasi ersetzen,
so sehr willnst du deine Kunden nicht vor den Kopf stoßen.
Eine 3080-12GB wird trotzdem einige verärgern, doch kein Vergleich mit dem Shitstorm der bei einer 3080Ti zu erwarten wäre.

r3ptil3
2020-10-27, 10:56:03
Man muss folgendes berücksichtigen:
Nvidia hatte die letzten 3 Jahre eine alleinige Stellung im Ethusiasten-Segment.
Die Masse setzt Nvidia heute mit dem absoluten Optimum an Leistung gleich. AMD hingegen gilt als Mid-Range mit guten Preisen.

Wenn jetzt ein konkurrenzfähiges Produkt kommt für das Enthusiasten-Segment, wird das ein Beben auslösen, ähnlich wie damals Zen 1.
Wenn der Preis auch derart agressiv ist und das darf man in dieser Phase erwarten, wird AMD, wie schon beschrieben, das Produkt haben, was jetzt noch die RTX 3080 darstellt.

Ich rechne ab März mit:
429$ für die 3070
599$ für die 3080

Kurzfristig evtl. mit -50$.

dargo
2020-10-27, 11:07:38
Die 12GB sind praktisch bestätigt bei der 3080TI.
https://twitter.com/kopite7kimi/status/1320995351415828480

Orbmu2k
2020-10-27, 11:08:15
Preissenkung sind momentan doch eh Schall und Rauch. Die Markpreise sind weit von der UVP entfernt. Da bringt auch eine Preissenkung seitens NVIDIA nix. Das ist wie dazumal beim Mining Boom. Die Verfügbarkeit ist einfach unterirdisch und das wird beim AMD auch nicht viel besser sein. Dort werden vermutlich auch die Regale sofort leergekauft und dann werden die Preise dort auch massiv anziehen.

NC
2020-10-27, 11:11:53
Man muss folgendes berücksichtigen:
Nvidia hatte die letzten 3 Jahre eine alleinige Stellung im Ethusiasten-Segment.
Die Masse setzt Nvidia heute mit dem absoluten Optimum an Leistung gleich. AMD hingegen gilt als Mid-Range mit guten Preisen.

Wenn jetzt ein konkurrenzfähiges Produkt kommt für das Enthusiasten-Segment, wird das ein Beben auslösen, ähnlich wie damals Zen 1.
Wenn der Preis auch derart agressiv ist und das darf man in dieser Phase erwarten, wird AMD, wie schon beschrieben, das Produkt haben, was jetzt noch die RTX 3080 darstellt.

Ich rechne ab März mit:
429$ für die 3070
599$ für die 3080

Kurzfristig evtl. mit -50$.

Die Zen1 Preise wirkten gut, weil du viele Cores bekammst, aber für Gamer hat bis Zen3 eher eine Intel CPU zum gleichen Preis Sinn gemacht.

Aber diese Situation ist nicht mit dem GPU Markt zu vergleichen, NVidia hat 0 Grund auf einen Preiskampf, da sie zu jetzigen Preisen schon nicht liefern können. AMD hat wiedderrum keinen Grund zum Preiskampf, weil die Leute, die unbefangen entscheiden, kaufen AMD zum gleichen oder sogar schlechteren Preis/Leistungsverhältnis, schlicht weil es keine NVidia GPUs zu kaufen gibt.
(Beides unter der Annahme dass der 7nm Prozess läuft).

MiamiNice
2020-10-27, 11:30:18
Auch wenn ich selbst kein Fan von RT und DLSS bin, kann ich mir gut vorstellen das dieses Jahr auch nach diesen Gesichtspunkten gekauft wird. Dazu die Marke NV.
Cyberpunk wird imo vieles verändern. Die Benches aus diesem Spiel werden wohl viel zur Absatzverteilung beitragen. Und das wird wahrscheinlich ein ziemliches NV bzw. Ampere only Game mit max Optik.

r3ptil3
2020-10-27, 11:38:58
NVidia hat 0 Grund auf einen Preiskampf, da sie zu jetzigen Preisen schon nicht liefern können. AMD hat wiedderrum keinen Grund zum Preiskampf, weil die Leute, die unbefangen entscheiden, kaufen AMD zum gleichen oder sogar schlechteren Preis/Leistungsverhältnis, schlicht weil es keine NVidia GPUs zu kaufen gibt.
(Beides unter der Annahme dass der 7nm Prozess läuft).

Wenn man den Gerüchten glauben schenkt (3080 TI), dann hat Nvidia sehr wohl einen Grund dazu.

Im Grafikkartenmarkt gilt für AMD das Gleiche, wie bei den CPUs vor ein paar Jahren: Die Marke muss sich wieder etablieren und Marktanteile gewinnen, dies geschieht nicht über den gleichen Preis zur übermächtigen Konkurrenz.

Die Verfügbarkeit wird daran nicht viel ändern, denn das ist vermutlich nur ein kurzfristiges Problem und bis BigNavi im Handel ist, ist es auch wieder Ende November, mit allen Customs wohl Dezember.

Ich erhalte meine dritte RTX 3080 nächste Woche, abgesehen von den ersten beiden, welche ich gleich am 17.09 bestellt habe, habe ich das dritte Modell vor wenigen Tagen bestellt.
Für mich heisst das, dass die Verfügbarkeit vielleicht langsam besser wird.

Korvaun
2020-10-27, 11:43:25
Der Preiskampf beginnt wenn alle Karten gut lieferbar sind und die "early-adopter" alle gekauft haben.. also ca. nächstes Frühjahr.

NC
2020-10-27, 11:45:45
Die Verfügbarkeit wird daran nicht viel ändern, denn das ist vermutlich nur ein kurzfristiges Problem und bis BigNavi im Handel ist, ist es auch wieder Ende November, mit allen Customs wohl Dezember.
Aber laut eben solchen Gerüchten hat NV erstmal den 3080Ti/20GB Start abgesagt und ausreichend Lieferbarkeit soll erst 2021 sein.
Wozu also ein imaginärer Preiskampf? NV kann 10Euro verlangen und auf dem Markt kostet eine 3080 weiterhin 800.
Wenn es doch Karten gibt, dann wird die Lage anders aussehen, aber jetzt?

HOT
2020-10-27, 11:47:04
Man macht ja die ganzen neuen Produkte, um einen Preiskampf zu vermeiden.

WedgeAntilles
2020-10-27, 12:12:43
Auch wenn ich selbst kein Fan von RT und DLSS bin, kann ich mir gut vorstellen das dieses Jahr auch nach diesen Gesichtspunkten gekauft wird. Dazu die Marke NV.
Cyberpunk wird imo vieles verändern. Die Benches aus diesem Spiel werden wohl viel zur Absatzverteilung beitragen. Und das wird wahrscheinlich ein ziemliches NV bzw. Ampere only Game mit max Optik.

Sehe ich auch so.
Man muss sich doch nur die ganzen Videos zu Cyberpunk anschauen - wieoft kam da am Anfang ein RTX2080 TI, RTX ON?

Ich verweise da erneut auf den Siegeszug Nvidias im "Krieg" 32bit vs 16bit.
Da begann der Aufstieg Nvidias zur beherrschenden GraKa Firma mit 3/4 Marktanteil.

Dass nvidias 32bit dem 16bit der Voodoo bei Optik/Performance insgesamt unterlegen war? Da die 16bit der Voodoo gleich gut aussah wie die 32bit von Nvidia, aber bei merklich! höheren Frameraten? Völlig irrelevant.
Dass bei gleicher Framerate - 16bit nvidia vs 16bit Voodoo - die Voodoo das deutlich bessere Bild hatte? Völlig irrelevant.

Das 32bit von Nvidia sah besser aus als das 16bit von nvidia (logisch).
Voodoo nur 16 bit.
Voodoo gleich schlechter.

So wurde es marketingtechnisch verkauft und das mit durchschlagendem Erfolg.

Wie die Realität aussah spielte keine Rolle.

Und mit Cyberpunk als Galeonsfigur ist meiner Meinung nach Nvidia dabei, gute Optik mit RayTracing zu verbinden und RT mit nvidia.

Auf dem Techniksektor irrlicht Nvidia gerade durch die Gegend IMO.
Aber marketingtechnisch ist Nvidia AMD haushoch überlegen.

Und jetzt kommt die Preisfrage: Kennt sich die Mehrheit der Konsumenten technisch sehr gut aus?
Oder ist die breite Masse technisch wenig versiert und interessiert?

Ich glaube die Antwort darauf ist nicht schwer.

r3ptil3
2020-10-27, 12:18:55
Aber laut eben solchen Gerüchten hat NV erstmal den 3080Ti/20GB Start abgesagt

Die 3080 Ti kam doch soeben wieder ins Spiel und zwar nicht wie anfänglich nur eine 3080 mit 20Gb, sondern mit 12Gb, aber mit einem deutlich grösseren Ausbau, sprich eine Reaktion auf den Markt.

prinz_valium_2
2020-10-27, 12:29:42
Die 3080 Ti kam doch soeben wieder ins Spiel und zwar nicht wie anfänglich nur eine 3080 mit 20Gb, sondern mit 12Gb, aber mit einem deutlich grösseren Ausbau, sprich eine Reaktion auf den Markt.

Mehr Bandbreite und mehr Rohleistung. Dafür weniger Speicher.
Klingt für mich gut. Wer mehr als 12GB braucht, der geht halt zur 3090.

Die Frage ist halt der Preis.

Dampf
2020-10-27, 12:36:33
Ich hoffe Cyberpunk nutzt noch DX12 Ultimate Features abseits von Raytracing.

nordic_pegasus
2020-10-27, 12:38:40
Mehr Bandbreite und mehr Rohleistung. Dafür weniger Speicher.
Klingt für mich gut. Wer mehr als 12GB braucht, der geht halt zur 3090.

Die Frage ist halt der Preis.

wenn zwischen 3090 und 3080 nur ca. 10% liegen, was soll dann bitte noch eine weitere SKU dazwischen bewirken? 1000€ UVP für 5% Mehrleistung ggü. einer 699€ UVP 3080?

Die 3080 20GB hatte wenigstens noch insofern Sinn gemacht, dass die Karte von der Leistung identisch zur 3080 10GB war, nur halt mit doppelten Speicher. Hätte sicherlich eine Nische in der High-End Nische gefunden. Aber die 3080Ti erschließt sich mir gar nicht.

BlacKi
2020-10-27, 12:46:35
Aber die 3080Ti erschließt sich mir gar nicht.
also wenn man die 3080 auslaufen lässt, dann schon. aber mir ist das alles schon zu früh. chaos ist das perfekte wort dafür. ich dachte ich könnte die 3080 18-24monate nutzen und dann rechtzeitig einfach wieder verkaufen. sieht so aus als wären das nur noch 12monate oder so. i dont like it.

prinz_valium_2
2020-10-27, 12:54:29
wenn zwischen 3090 und 3080 nur ca. 10% liegen, was soll dann bitte noch eine weitere SKU dazwischen bewirken? 1000€ UVP für 5% Mehrleistung ggü. einer 699€ UVP 3080?

Die 3080 20GB hatte wenigstens noch insofern Sinn gemacht, dass die Karte von der Leistung identisch zur 3080 10GB war, nur halt mit doppelten Speicher. Hätte sicherlich eine Nische in der High-End Nische gefunden. Aber die 3080Ti erschließt sich mir gar nicht.

$799 nicht $999

Mangel76
2020-10-27, 12:54:46
wenn zwischen 3090 und 3080 nur ca. 10% liegen, was soll dann bitte noch eine weitere SKU dazwischen bewirken? 1000€ UVP für 5% Mehrleistung ggü. einer 699€ UVP 3080?

Die 3080 20GB hatte wenigstens noch insofern Sinn gemacht, dass die Karte von der Leistung identisch zur 3080 10GB war, nur halt mit doppelten Speicher. Hätte sicherlich eine Nische in der High-End Nische gefunden. Aber die 3080Ti erschließt sich mir gar nicht.

Macht nur Sinn, wenn 6800XT besser als 3080/20GB wäre. Somit muss man auch SMs aufstocken, um wieder drüber zu kommen. Mit 20GB passt dann aber Bandbreite nicht mehr oder wäre zu dicht an 3090.

Hakim
2020-10-27, 12:58:46
4 Karten aus ga102, da sieht man das Konkurrenz allen gut tut. Im Vergleich zu Turing wirkt es schon leicht verzweifelt und nach ungewollten Notlösungen aus. Bleibt halt leider noch die Verfügbarkeit.

Brillus
2020-10-27, 12:58:55
NV im Panikmodus wenn man das mit der 3080Ti so sieht hier. Da scheint was richtig gutes von AMD zu kommen.

nordic_pegasus
2020-10-27, 13:06:43
$799 nicht $999

glaube ich nicht. Damit würde Nvidia die 3080 Käufer komplett vor den Kopf stoßen. Da wird schon ein ordentlicher Abstand zwischen 3080 und 3080Ti im Preis sein, zumal sich die Anzahl der aktiven Shader laut dem Leak fast an die 3090 anlehnt als an die 3080. Ferner bekommt man auch das vollen Speicherinterface.

Ex3cut3r
2020-10-27, 13:09:00
Bei Nvdia brennt der Baum, nach gefühlten 10 Jahren mal wieder. Einfach nur geil. AMD bringt mit Zen 3 erstmal Intel zu Boden und Nvidia kriegt auch schon Panik. Sehr geil Amd!

MiamiNice
2020-10-27, 13:16:25
3080TI würde ich mir tatsächlich gefallen lassen wenn die 3090 Strix bis dahin nicht geliefert wurde.

stinki
2020-10-27, 13:21:59
Nvidia braucht halt eine "normale" Karte, die die 6900XT (Navi21XTX) schlägt, damit man weiterhin die schnellste "normale" Grafikkarte auf dem Markt hat.
Die 3090 läuft vom Preis einfach außer Konkurrenz, eher mit >$1500 auf Titan Level.
Aber die 3080Ti muss die schnellste AMD Karte schlagen und die Krone sichern.

Aber schönes breites Line-up von 3070 bis 3090.
5 Karten zwischen $500 und $1500 mit 8GB bis 24GB.
Plus noch mal drei AMD Karten.
8 Karten die auf 2080Ti Niveau oder schneller sein werden und, bis auf eine, alle günstiger, das nenne ich endlich mal wieder Auswahl.

r3ptil3
2020-10-27, 13:22:44
3080TI würde ich mir tatsächlich gefallen lassen wenn die 3090 Strix bis dahin nicht geliefert wurde.

Ist die 3090 nicht die unsicherste Karte überhaupt momentan?

Enormer Preis, minimaler Performancezuwachs und äusserst fraglich hinsichtlich der Wertstabilität.

Ich habe gerade vorhin die Strix 3090 storniert, da der Liefertermin erneut verschoben wurde. Auch nicht ganz irrelevant was AMD bringt.

Ravenhearth
2020-10-27, 13:37:03
Also wenn der neue GA103 mit 72 SMs kommt, könnte man durch diesen den GA102 bei 3080 und 3070 Ti ersetzen. Die 3060 auf GA104-Basis bringt man evtl auch weil GA106 nicht rechtzeitig fertig ist und ersetzt sie später. Damit ergäbe sich am Ende ein schönes Bild mit 2 SKUs pro Chip:

GA102:
RTX 3090 - 24GB - $1499
RTX 3080 Ti - 12GB - $999

GA103:
RTX 3080 - 10GB - $699
RTX 3070 Ti - 10GB - $599

GA104:
RTX 3070 - 8GB - $499
RTX 3060 Ti - 8GB - $399

GA106:
RTX 3060 - 6GB - $299
RTX 3050 Ti - 6GB - $249

MiamiNice
2020-10-27, 13:40:05
Ist die 3090 nicht die unsicherste Karte überhaupt momentan?

Enormer Preis, minimaler Performancezuwachs und äusserst fraglich hinsichtlich der Wertstabilität.

Ich habe gerade vorhin die Strix 3090 storniert, da der Liefertermin erneut verschoben wurde. Auch nicht ganz irrelevant was AMD bringt.

Ich kaufe nicht nach solchen Gesichtspunkten. Ich achte eher auf Balken und Features, Preis und Wertstabilität sind sekundär.
Was AMD im GPU Bereich bringt ist für mich völlig sekundär aus vielerlei Hinsicht. Fängt bei VR an und geht über nicht vorhandene Features bis Treiber.
Da muss schon mehr kommen als 3080 Level um mich vom Hocker zu hauen. Mit all den Nachteilen müsste die Karte min. 20% schneller als eine 3090 sein um bei mir Interesse zu wecken.

Zergra
2020-10-27, 13:43:05
Die Frage ist ob ein GA103 am Ende soviel billiger in der Fertigung wäre, das man dafür einen neuen Chip einführt. Ggf ist Samsung so günstig das NV den Chip lieber gestrichen hat.

dargo
2020-10-27, 13:44:29
Nvidia braucht halt eine "normale" Karte, die die 6900XT (Navi21XTX) schlägt, damit man weiterhin die schnellste "normale" Grafikkarte auf dem Markt hat.
Die 3090 läuft vom Preis einfach außer Konkurrenz, eher mit >$1500 auf Titan Level.

Und was bringt Nvidia wenn die 6900XT die 3090 schlägt?

Hakim
2020-10-27, 13:46:36
Verstehe nicht warum der 3070ti auch 320W haben soll? Mit mehr deaktivieren Einheiten und vermutlich geringeren gddr6x Takt müsste es normal weniger saufen, sei denn der Takt geht höher weil weniger Einheiten

Nazar
2020-10-27, 13:48:59
Warum keine 3080-12GB?

Macht die Karte attraktiver ohne die 3090 zu kannibalisieren, ganz ohne Ti-Label.
Die zusätzlichen Recheneinheiten bringen ohnehin kaum Mehrleistung.
Wenn der Yield tatsächlich schlecht ist, sind 10SM weniger durchaus attraktiv.
Jetzt noch eine 3080Ti in die 12% zwischen 3080 und 3090 zu quetschen....

Aber was würde das bringen, wenn AMD -eventuell sogar leicht langsamer- für maximal den selben Preis einen Karte auf 3080 Niveau mit 16GB bringt? :confused:
Ich erinnere immer wieder gerne an das 3.5 GB Desaster. Dass das nV keine Kunden gekostet hat, lag an der wahrlich nicht so guten Performance von AMD zu der Zeit.
Sollte es wirklich so kommen und die 700€ 10GB Karte in einem halben Jahr in einen Speichermangel geraten (schlechte Konsolen Portierungen) und DLSS eben nicht so breit verfügbar sein wie es dann aber benötigt wird, dann steht da jetzt jemand, der diese Kunden gerne mitnimmt und auch dieses mal wohl durchaus mitnehmen kann.
Viele Käufer einer 3080 wollen diese Karte durchaus länger als nur 1 oder 2 Jahre nutzen und da werden 12GB -gerade mal 2GB mehr- nicht viel ausmachen, weder für die Zukunftssicherheit, noch für das Marketing.
Es würde dann erneut nach einem "Hilferuf" aussehen (andere umschrieben das sehr gut als Panikmodus). Zumal gerade die Käufer einer 3080 mit 10GB sich dann richtig in die Eier getreten fühlen müssten.
Aus Marketingsicht und für die zukünftige Strategie, wäre -nach einer nicht lieferbaren 10GB 3080- eine 12GB 3080 das absolut dümmste was nVidia tun könnte. Das wäre in jede Richtung ein Offenbarungseid. Das würde geradezu nach Verarsche des Kunden und vollkommener Panik gegenüber AMD aussehen.
Ich wäre ob der Dummheit der nV Strategen erstaunt, wenn es je so eine Karte geben würde. Man kann sich ja selber sein Grab schaufeln, aber dann extra dafür auch noch auf eigene Kosten neues Werkzeug zu besorgen...... :freak:

Fragman
2020-10-27, 13:51:22
GA102:
RTX 3090 - 24GB - $1499
RTX 3080 Ti - 12GB - $999


Ähm,
die 20GB Version war preislich laut Gerüchten zwischen 849 und 999 Euro angesiedelt.
Jetzt soll die 12GB Version schon 1000 Kosten?
Das macht so absolut keinen Sinn.
Ich könnte mir maximal, also wirklich maximal 749 Euro vorstellen.

Der einzige Grund weshalb nv so hoch gehen könnte als Preisempfehlung, wäre der, das AMD richtig zulangt bei den Preisen und man deshalb keine Befürchtung haben muss, Marktanteile zu verlieren. Halte ich aber für extrem unwahrscheinlich.

Hakim
2020-10-27, 14:01:44
Naja breitere SI, mehr Einheiten, das Ding ist näher am 3090 als am 3080, wird niemals 750 kosten glaube ich, würde für 50€ Aufpreis die 3080 komplett unattraktiv aussehen lassen

Ex3cut3r
2020-10-27, 14:05:06
Der Preis kommt doch ganz auf AMD an. Ist die Big Navi schneller als eine 3080 und kostet 599€ wird Sie wohl billiger sein, als eine 3080 zum rls. Mehr VRAM haben ja alle Big Navis.

=Floi=
2020-10-27, 14:05:14
Preis und Wertstabilität sind sekundär.

wissen wir spätestens nach dem 9900k :D

Cyberfries
2020-10-27, 14:09:40
Aber was würde das bringen, wenn AMD -eventuell sogar leicht langsamer- für maximal den selben Preis einen Karte auf 3080 Niveau mit 16GB bringt?

Wovon fühlst du dich als 3080-10GB Käufer mehr verarscht?
Von einer 12GB-Karte - wenn bereits Anfang September von 20GB berichtet wurde.
Oder von einer Ti mit zusätzlichen Recheneinheiten?

Als 3080-Käufer konnte man erwarten für einige Zeit, die schnellste "Gaming"-Karte zu kaufen.
Eine 3080-12GB ändert daran nichts, eine 3080Ti dagegen degradiert die 3080-10GB deutlicher.
Vergleichbar rüttelt eine 3080Ti klar am Thron der 3090 als klares und alleiniges Flaggschiff.

10GB könnten noch in dieser Generation zu knapp werden, aber mit 12GB könnte man durchkommen.
Und warte ab: überzeugte nVidia-Fanatiker werden ausreichend Wege finden um 16GB schlecht zu reden.

Nazar
2020-10-27, 14:35:11
Wovon fühlst du dich als 3080-10GB Käufer mehr verarscht?
Von einer 12GB-Karte - wenn bereits Anfang September von 20GB berichtet wurde.
Oder von einer Ti mit zusätzlichen Recheneinheiten?

Als 3080-Käufer konnte man erwarten für einige Zeit, die schnellste "Gaming"-Karte zu kaufen.
Eine 3080-12GB ändert daran nichts, eine 3080Ti dagegen degradiert die 3080-10GB deutlicher.
Vergleichbar rüttelt eine 3080Ti klar am Thron der 3090 als klares und alleiniges Flaggschiff.

10GB könnten noch in dieser Generation zu knapp werden, aber mit 12GB könnte man durchkommen.
Und warte ab: überzeugte nVidia-Fanatiker werden ausreichend Wege finden um 16GB schlecht zu reden.

Dem Kunden sind die zusätzlichen Recheneinheiten vollkommen egal. Er wird lesen, eine 3080 mit 12GB VRAM.
Ab diesem Zeitpunkt wird die Verwirrung erst richtig einsetzen, denn nun muss der Kunde selber das Wirrwarr an Informationen auflösen.
Warum kommt eine neue 3080 mit 2GB mehr VRAM als meine alte?
Warum hat mir das keiner vorher gesagt?
Reichen die 10GB meiner 3080 entgegen den Aussagen von nV doch nicht?
Warum verarscht mich nV so derbe?
Etc. pp.

Dem gegenüber steht aber derzeit noch die Unbekannte AMD.
Wenn wir davon ausgehen, dass die N12XT GPU derzeit leicht über der 3080 Performance liegt (Leaks) und das nicht mal die stärkste GPU von AMD ist, was soll dann eine 12GB Version der 380, die dann knapp (?) unter dem Niveau der 3090 liegt, groß ausrichten?
Und 2GB mehr als bei einer "alten" 3080 oder 1GB mehr als bei einer 2080ti, lesen sich dann schon irgendwie seltsam, besonders dann, wenn der Konkurrent sofort mit 16GB kommt.
Für mich persönlich ist das allerdings wie das Einprügeln auf ein totes Pferd, da nV ja jetzt schon nicht in der Lage ist liefern zu können!
Das wahre Problem ist doch, dass nV mit so einer Ankündigung allen Vorbestellern die lange Nase zeigen würde, egal ob es um den VRAM, die Verfügbarkeit oder die Leistung geht, da sie erneut etwas neues anbieten, ohne es liefern zu können.
Und wo will man mit dem Preis denn hin?
1000€ für eine 12GB Gurke, die -wenn die Gerüchte stimmen- nicht mal mit der XTX von AMD spielen kann?
Oder doch 800€, um die eigenen Kunden zu ärgern und AMD in die Hände zu spielen?
Das Pferd liegt halbtot am Boden und wird auch nicht mehr aufstehen. Den Gnadenschuss geben und etwas neues aus dem Stall holen, das auch sofort als Gewinner erkannt wird.
Ein totes mit einem lahmenden Pferd zu ersetzen, macht es nur noch schlimmer. :wink:

stinki
2020-10-27, 14:54:26
Und was bringt Nvidia wenn die 6900XT die 3090 schlägt?

Ein ganz, ganz dummes Gesicht :biggrin:
Dann hat man immer noch 24GB Speicher...und kreative Benchmarks...

=Floi=
2020-10-27, 15:04:27
wäre schon lustig. Ich würde mich da freuen.

Dural
2020-10-27, 15:23:12
Die 3070 ist ja unheimlich effizient, was um alles in der Welt ging beim GDDR6X schief!?!

https://www.computerbase.de/2020-10/nvidia-geforce-rtx-3070-test/3/

Die 3080 zieht fast 50% mehr Strom im Vergleich zur 3070 bei gerade mal 26% mehr Leistung als diese :freak:

Edit:
Deutlich mehr Spielraum zeigt der 8 GB große GDDR6-Speicher, der sich massiv übertakten lässt: 1.002 MHz hat dieser problemlos mitgemacht, was einem Takt von hohen 8.004 MHz entspricht.

Also ist auch nicht der Speicher Takt ein Problem, wenn ich NV wäre hätte ich den GDDR6X in der aktuellen Form gleich begraben.

=Floi=
2020-10-27, 15:30:28
du kannst den großen nicht mit dem kleinen chip vergleichen.

Dural
2020-10-27, 15:35:02
Ich wüsste nicht wie so man das nicht machen sollte. Der GA104 taktet ja sogar noch höher als GA102 bei den Produkten, sprich man könnte den GA104 eventuell sogar noch effizienter machen.

Der GDDR6X in der aktuellen Form ist unbrauchbar, deutlich sinnvoller wäre 384Bit @ GDDR6 gewesen, wie kann man nur so eine krasse Fehlentscheidung tätigen!?! :rolleyes:

HOT
2020-10-27, 15:38:45
Vertrag mit Micron. Muss halt erfüllt werden.

Cyberfries
2020-10-27, 15:40:33
Bin mir nicht sicher, dass das am Speicher liegt.
3080 @270w ist ja nur 4% langsamer, dann ist die Effizienz etwa gleich wie bei der 3070.
Ist einfach ein mieser Betriebspunkt.

WedgeAntilles
2020-10-27, 15:43:03
Test von IgorsLab zur 3070 Founders Edition.

https://www.igorslab.de/nvidia-geforce-rtx-3070-founders-edition-im-test-ampere-kann-auch-sparsam-und-knuffig-klein/

Ich dachte bisher, die 3080 hätte ca. 40% Mehrleistung als die 3070.
Wenn ich den Test jetzt aber nicht völlig falsch verstehe ist das selbst unter 4k nicht mal 25%.
Bei FullHD sind es ca. 10%, bei WQHD weniger als 15%.

Klar, es limitiert da sicherlich die CPU.
Gerade bei 4K überrascht es mich aber sehr.

Und das ganze bei 100W weniger.
Angenehmer Lautstärke.
Geringere Temperaturen.

Die 8GB Ram sind etwas knapp - wären wir hier bei 10GB wäre es die "perfekte" Karte für mich.

Aber auch so klingt die 3070 nach einer attraktiven Karte.

Mal sehen was morgen die 6800XL macht und ob sie die 3070 wirklich so demontiert wie überall prognostiziert wird.

Bin dann auch sehr auf die Cyberpunk Benchmarks der ganzen Karten gespannt.

Generell kann man sicherlich sagen, das man sowohl bei Ampere als auch bei BigNavi für "relativ" günstiges Geld verdammt viel Leistung bekommt.

Dural
2020-10-27, 15:46:08
Wie gesagt, die 3070 taktet höher als die GA102 Produkte. Dazu ein breiterer Chip eigentlich immer Vorteile bei Performence/Watt haben müsste.

Ja wird wohl am Vertrag mit Micron liegen, aber dann frage ich mich wie so sich NV nicht absichern lies wenn der Speicher nicht bestimmte Anforderungen erfüllt.

Dural
2020-10-27, 15:48:22
Ich habe heute morgen die 3090 STORNIERT

Ich glaub ich war noch nie so froh das eine Grafikkarte so schlecht lieferbar war :freak::freak::freak:

Für mich unverständlich wie so NV den vollen GA104 mit 16GB storniert hat, wäre eine ziemlich brauchbare Karte geworden... :rolleyes:

ShinyMcShine
2020-10-27, 16:06:36
Ich habe heute morgen die 3090 STORNIERT

Ich glaub ich war noch nie so froh das eine Grafikkarte so schlecht lieferbar war :freak::freak::freak:

Für mich unverständlich wie so NV den vollen GA104 mit 16GB storniert hat, wäre eine ziemlich brauchbare Karte geworden... :rolleyes:

Sieht man die Benchmarks von heute, hätte ein voller G104 die 2080Ti wohl überflügelt. Mit GA104-300 ist es eher ein Gleichstand. Gepaart mit 16GB wäre eine RTX3070 mit vollem GA104 meine first choice gewesen. Jetzt habe ich mich damit abgefunden, dass mein neues System erstmal mit der alten GTX1080 startet. Und dann mal schauen was die nächsten Tage/Wochen/Monate so kommt...

Dural
2020-10-27, 16:28:50
Die paar Einheiten mehr hätten nicht so einen grossen Einfluss. Aber in Verbindung mit etwas mehr PT und schnellerem Speicher:

6144 Core + 250Watt PT + 16GB GDDR6 16gbps hätte man sicher 10% mehr Leistung als mit der 3070.

Die Karte hätte ich sofort gekauft.

ShinyMcShine
2020-10-27, 16:38:41
Die paar Einheiten mehr hätten nicht so einen grossen Einfluss. Aber in Verbindung mit etwas mehr PT und schnellerem Speicher:

6144 Core + 250Watt PT + 16GB GDDR6 16gbps hätte man sicher 10% mehr Leistung als mit der 3070.

Die Karte hätte ich sofort gekauft.

Leistungsmäßig nicht, aber einen großen Einfluss auf meine Akzeptanz. ;)
Rest des Posts: +1

HOT
2020-10-27, 16:40:04
Die hat doch 6 GPCs mit je 8 SMs oder? Leute, leidet der GA102 am Fiji-Problem :freak:? Sind 12 SMs pro GPC kacke für Grafik?

Ich glaub auch nicht, dass es am GDDR6X liegt. Das kann nur ein paar W, bei sowohl der Controller als auch dem Chip, ausmachen und das PCB ist ja sogar erheblich besser als das für die 104er mit seinen 12 Layers + Backdrill.

robbitop
2020-10-27, 17:18:34
Ich bin erstaunt, dass man mit so deutlich weniger Bandbreite TU102 Performance erreicht wird. IIRC hatte Ampere ja keine Verbesserungen bei der Kompression. Ggf. war TU102 einfach überdimensioniert in Bezug auf Bandbreite?

Dural
2020-10-27, 17:24:50
Bei Ampere wurde doch der Cache deutlich überarbeitet.

Das mit den 6 GPC habe ich mir auch schon überlegt, die werden sicher etwas bringen. Aber ich glaube das Hauptproblem wird der GDDR6X sein, davon gab es ja schon Stimmen bevor die Karten auf dem Markt waren.

robbitop
2020-10-27, 17:41:09
Hast du da Details? Laut Techpowerup hat TU102 und GA102 6 MiB L2 Cache und pro SM 64 kiB L1. Nur der Texturecache pro SM ist verdoppelt (32 kiB pro SM auf 64 kiB pro SM).

Sieht für mich im Gaming Ampere jetzt nicht so stark verändert aus.

fubu
2020-10-27, 18:32:50
Bin ich froh, dass ich meine 3080 Bestellung nach fast einem Monat Wartezeit storniert habe. 3080Ti wirkt nicht verkehrt, wobei 12GB jetzt auch nicht so dolle klingt nach 11GB bei meiner 1080Ti. Mal gucken, was bei BN morgen so geht.

dargo
2020-10-27, 18:37:08
Ich bin erstaunt, dass man mit so deutlich weniger Bandbreite TU102 Performance erreicht wird. IIRC hatte Ampere ja keine Verbesserungen bei der Kompression. Ggf. war TU102 einfach überdimensioniert in Bezug auf Bandbreite?
Durchaus möglich. 352Bit SI standen fest (der volle TU102 hätte ja noch mehr Bandbreite) und weniger als 14Gbps GDDR6 gabs afaik nicht.

Cyberfries
2020-10-28, 08:55:13
Hast du da Details? Laut Techpowerup hat TU102 und GA102 6 MiB L2 Cache und pro SM 64 kiB L1.

Es sind laut Whitepaper 128 kiB L1$ unter doppelter Bandbreite,
von denen 64 kIB statt bisher 32 kiB als texture cache zugeordnet werden.

As we mentioned previously, like the prior generation Turing architecture, GA10x features a
unified architecture for shared memory, L1 data cache, and texture caching. This unified design
can be reconfigured depending on workload to allocate more memory for the L1 or shared
memory depending on need. The L1 data cache capacity has increased to 128 KB per SM.

In compute mode, the GA10x SM will support the following configurations:
● 128 KB L1 + 0 KB Shared Memory
● 120 KB L1 + 8 KB Shared Memory
● 112 KB L1 + 16 KB Shared Memory
● 96 KB L1 + 32 KB Shared Memory
● 64 KB L1 + 64 KB Shared Memory
● 28 KB L1 + 100 KB Shared Memory

For graphics workloads and async compute, GA10x will allocate 64 KB L1 data / texture cache
(increasing from 32 KB cache allocation on Turing), 48 KB Shared Memory, and 16 KB reserved
for various graphics pipeline operations.

The full GA102 GPU contains 10752 KB of L1 cache (compared to 6912 KB in TU102). In
addition to increasing the size of the L1, GA10x also features double the shared memory
bandwidth compared to Turing (128 bytes/clock per SM versus 64 bytes/clock in Turing). Total
L1 bandwidth for GeForce RTX 3080 is 219 GB/sec versus 116 GB/sec for GeForce RTX 2080
Super.

Ist eigentlich schon auf die merkwürdige 12pin-Konfiguration der 3070 hingewiesen worden?
https://www.techpowerup.com/review/nvidia-geforce-rtx-3070-founders-edition/images/power4.jpg
Nur 6 der 12pins sind belegt. Wozu dann überhaupt auf diesen Stecker setzen?
Weiß nVidia da schon mehr? Hängt das mit dem kommenden ATX12VO-Standard (https://www.golem.de/news/atx12vo-intel-will-2020-weiteren-netzteil-standard-etablieren-2001-146236.html) zusammen?

Fände ich überaus angenehm, einen Stecker für alles, mich wundert nur die Umsetzung.
Wie ist eigentlich die pin-Belegung des 12pin-Steckers, gibt es noch Sense?

Thunder99
2020-10-28, 09:21:53
Zumal die Spezifikationen verletzt werden (>150W)

Was mich wundert ist der Aufbau und Auslastung vom GA104. 6 GPC wie 3080 aber kann sich nicht absetzen von TU102 oder gut genug von 2070S
Wären da nicht 5 besser gewesen oder wäre da was anderes am limitieren gewesen?

nordic_pegasus
2020-10-28, 09:40:44
Ist eigentlich schon auf die merkwürdige 12pin-Konfiguration der 3070 hingewiesen worden?

Nur 6 der 12pins sind belegt. Wozu dann überhaupt auf diesen Stecker setzen?
Weiß nVidia da schon mehr? Hängt das mit dem kommenden ATX12VO-Standard zusammen?

Fände ich überaus angenehm, einen Stecker für alles, mich wundert nur die Umsetzung.
Wie ist eigentlich die pin-Belegung des 12pin-Steckers, gibt es noch Sense?

damit ist auch geklärt, ob man mit dem Adapter der 3070 eine 3080/3090 betreiben könnte... nein, weil hier 6 Adern fehlen.

Afaik ist dieser 12-Stecker ein nicht normierter Alleingang von Nvidia, was man auch daran sieht, dass kein AIB den Stecker verwendet. Sicherlich hat Nvidia Mitsprache bei den neuen ATX-Specs, vielleicht wird es ja mal ein Standard.

Igor hat mal erklärt, dass der 12-Pin Stecker 6x 12V und 6x Masse hat und kein Sense. Faktisch sind es 2 6-Pin PCIe Stecker zusammengeschaltet.

Ich frage mich, ob die modularen Kabel von Seasonic mit diesem 12-Pin Stecker auch bei der 3070 passen, weil in den Kabeln ja alle 12 Leitungen belegt sind. Falls nicht, wäre dieser neue Stecker jetzt schon wieder mies.

Denniss
2020-10-28, 09:47:42
Zumal die Spezifikationen verletzt werden (>150W)Nicht nur das, auch beim PCIe-Slot ist man leicht überm Limit mit 5,6A statt 5,5A (an 12V), ganz zu schweigen von Spitzen bis in 8A hinein.

Das alles richt ein wenig nach RX480 die AMD vor der Vorstellung höher takten mußte und damit über die Limits jagte.

BlacKi
2020-10-28, 11:11:31
Zumal die Spezifikationen verletzt werden (>150W)


wieso denn das? der neue stecker+kabel kann doch 600w plus. die hälfte sind dann 300w+.

Nicht nur das, auch beim PCIe-Slot ist man leicht überm Limit mit 5,6A statt 5,5A (an 12V), ganz zu schweigen von Spitzen bis in 8A hinein.

Das alles richt ein wenig nach RX480 die AMD vor der Vorstellung höher takten mußte und damit über die Limits jagte.avg 5,6a vs 7a statt 5,5a ist nicht ganz dasselbe;) hier zur auffrischung
https://cdn.mos.cms.futurecdn.net/q26MsTqCAJDcVrLntGcApK-970-80.png

Thunder99
2020-10-28, 11:13:32
wieso denn das? der neue stecker+kabel kann doch 600w plus. die hälfte sind dann 300w+.

Lese dir das Review durch und sieh dir an was Nvidia für einen Adapter beiliegt. Entweder hat CB sich vertan mit der Analyse oder Nvidia geht bewusst über die Grenze, weiß der Geier warum...

dildo4u
2020-10-28, 11:14:31
wieso denn das? der neue stecker+kabel kann doch 600w plus. die hälfte sind dann 300w+.
Es werden nur 8Pins genutzt.

https://youtu.be/rXhTSKjAX3k?t=168

BlacKi
2020-10-28, 11:46:29
die gtx 1080 betrifft das genauso, fällt mir gerade ein. 1x8pin und 225w pt, dort konnte man sogar das PT mehr anheben als nur 9% wenn ich mich recht erinnere.

dildo4u
2020-10-28, 11:48:08
die gtx 1080 betrifft das genauso, fällt mir gerade ein. 1x8pin und 225w pt, dort konnte man sogar das PT mehr anheben als nur 9% wenn ich mich recht erinnere.
1080 hatte 180 TDP, Nvidia dreht die Letzten Generationen ständig das TDP nach oben.

https://www.techpowerup.com/gpu-specs/geforce-gtx-1080.c2839

BlacKi
2020-10-28, 11:49:44
wow, ok.

Screemer
2020-10-28, 11:53:40
avg 5,6a vs 7a statt 5,5a ist nicht ganz dasselbe;) hier zur auffrischung
https://cdn.mos.cms.futurecdn.net/q26MsTqCAJDcVrLntGcApK-970-80.png
wenn du schon korinthenkackerei betreiben willst, dann sind es in dem fall 6,8A avg.

BlacKi
2020-10-28, 11:55:54
lol

Screemer
2020-10-28, 12:09:59
gern geschehen.

Badesalz
2020-10-29, 09:28:24
Vielleicht kann sich wer dran erinnern...

In welchem der Ampere-Threads hab ich vom Anfang an geschrieben, es wird keine 3080/20GB geben, woraufhin ich von Laien wie Amateuren gleichermaßen mit irgendwelchen Einträgen aus Treiberkonfigs beworfen und als Troll bezeichnet wurde?

Ich such das schon seit Tagen und finds nicht wieder :usad:

robbitop
2020-10-29, 12:56:09
Als nicht Beteiligter dieses Aspektes hier trotzdem meine Sicht dazu - und das gilt mehr im Generellen als für diesen speziellen Fall:
"I told you so" postings bringen der Diskussion IMO keinen Mehrwert. Solange es keinen konsistent hohen Track Record gibt, kann man soetwas oft unter "Zufall" verbuchen. Eine kaputte Uhr zeigt 2x pro Tag die richtige Zeit an. Was einbilden kann man sich nur, wenn man bei Prognosen sehr viel öfter Recht als Unrecht hatte. Und das nachvollziehbar ist. Und selbst dann ist es nichts als Selbstbeweihräucherei.

Troyan
2020-10-29, 13:00:46
nVidia wird bestimmt mehr Speicher bringen. Jetzt macht es kein Sinn, da die Karten sowieso nicht kaufbar sind.

Schade ist es, dass wir keinen vollen GA104 mit 16gbit/s sehen. Der sollte locker auf 6800 Niveau sein. Ziemlich beeindruckend, wenn man bedenkt, dass GA104 nur 392,5mm^2 groß ist und über keinen Wundercache verfügt.

Asaraki
2020-10-29, 13:05:01
Als nicht Beteiligter dieses Aspektes hier trotzdem meine Sicht dazu - und das gilt mehr im Generellen als für diesen speziellen Fall:
"I told you so" postings bringen der Diskussion IMO keinen Mehrwert. Solange es keinen konsistent hohen Track Record gibt, kann man soetwas oft unter "Zufall" verbuchen. Eine kaputte Uhr zeigt 2x pro Tag die richtige Zeit an. Was einbilden kann man sich nur, wenn man bei Prognosen sehr viel öfter Recht als Unrecht hatte. Und das nachvollziehbar ist. Und selbst dann ist es nichts als Selbstbeweihräucherei.

Können wir das als "User Agreement" haben bevor man nen Posting macht? :-)

Schön gesagt, danke dir!

dargo
2020-10-29, 13:07:37
Schade ist es, dass wir keinen vollen GA104 mit 16gbit/s sehen. Der sollte locker auf 6800 Niveau sein. Ziemlich beeindruckend, wenn man bedenkt, dass GA104 nur 392,5mm^2 groß ist und über keinen Wundercache verfügt.
Was ist denn daran beindruckend wenn AMD eine SKU mit 40CUs und 80CUs auflegt? :freak: Hätte AMD eine 56CU SKU wie bei der XBox aufgelegt würde GA104 ganz schön alt aussehen, in jeder Hinsicht. Du wirst anhand der 3060TI sehen wie alt GA104 vs. N22 aussieht. Dann heißt es nämlich 38SM vs. 40CU. Für die 3060TI dürfte auch locker N22 Salvage mit 36 CUs reichen.

JVC
2020-10-29, 15:13:13
Ampere ist scheinbar etwas angebrannt...
Wie NV das Gericht noch zu retteten versucht wird spannend.
Oder wird es gar gleich nächsten Herbst eine neue Speisekarte geben?

M.f.G. JVC

WedgeAntilles
2020-10-29, 15:31:45
Ampere ist scheinbar etwas angebrannt...
Wie NV das Gericht noch zu retteten versucht wird spannend.
Oder wird es gar gleich nächsten Herbst eine neue Speisekarte geben?

M.f.G. JVC
Eigentlich braucht Nvidia nur ne 3070 mit 16GB für 600 Euro rausbringen und zumindest dieser Teil ist gut abgedeckt.
Die 6800 ist etwas schneller, aber was solls.

Dural
2020-10-29, 15:38:40
Ein GA104 @ 6144SP @ 16Gbps 16GB wäre ziemlich interessant

An Navi2 sieht man noch mal deutlich besser was der GDDR6X Speicher für eine Fehlentwicklung ist, und an der 3070 so wie so.

Samsung hat ja sogar 18Gbps GDDR6 im Programm, das wäre bei 384Bit auch schon 864GB/s. :rolleyes: Wobei der sicher auch nicht mehr wirklich sparsam wäre.

Screemer
2020-10-29, 16:15:52
ein voller 104 mit 16gb würde die 3080 in ihrem preisbereich komplett obsolet machen.

dildo4u
2020-10-29, 16:42:41
Wäre ich mir nicht so sicher dann bräuchte die 6800 kein on Die Cache.

DrFreaK666
2020-10-29, 16:45:22
Eigentlich braucht Nvidia nur ne 3070 mit 16GB für 600 Euro rausbringen und zumindest dieser Teil ist gut abgedeckt.
Die 6800 ist etwas schneller, aber was solls.

Nur? NV muss überhaupt mal Karten auf den Markt bringen.

Hat die Series X also 56CUs@320bit + Infinity Cache? Falscher Thread. Sorry

Dural
2020-10-29, 16:57:03
Hätte man sich eher überlegen sollen bevor man so ein Krüppel Karte mit 20% weniger aktiven Einheiten und 10GB auf den Markt lässt. Die 10GB verhindern jetzt nämlich genau die 16GB GA104 Version.

NV hat sich es selber sehr schwer gemacht.

Sinnvoll wäre gewesen:
3090 voll aktiv 24GB 400W 1499.-
3080Ti ca. 10% weniger Einheiten 22GB 350W 999.-
3080 ca. 20% weniger Einheiten 20GB 300W 699.-
3070Ti voll aktiv 16GB 16Gbps 250W 549.-
3070 ca. 10% weniger Einheiten 14Gbps 16GB 200W 449.-
3060Ti ca. 20% weniger Einheiten 14Gbps 12GB 180W 349.-

Da wäre für jeden was dabei gewesen.

WedgeAntilles
2020-10-29, 17:05:34
Nur? NV muss überhaupt mal Karten auf den Markt bringen.


Ja, das ist natürlich die Grundvoraussetzung.

Es ging mir hier aber nur um technische Spezifikationen.
Und da braucht es halt eigentlich fast nix, um ein tolles Portfolio zu haben.
Nur mehr Ram. Es braucht keinen neu designten Chip mit was weiß ich was mehr Leistung, es fehlt kein unersetzliches Feature, der Stromverbrauch ist zwar hoch aber ähnlich wie bei AMD, also kein Dealbreaker, es gibt keine großen Treiberprobleme mehr.

Wenn man hier liest, könnte man ja meinen, dass Ampere ein miserables Produkt ist und vorne und hinten nix taugt.
Dabei fehlt eben nur mehr Ram und alles wäre einwandfrei.

Und - natürlich das wichtigste - die Verfügbarkeit. Solange es die nicht gibt, ist es sowieso egal.

DrFreaK666
2020-10-29, 17:10:07
...
Es ging mir hier aber nur um technische Spezifikationen.
Und da braucht es halt eigentlich fast nix, um ein tolles Portfolio zu haben.
Nur mehr Ram. Es braucht keinen neu designten Chip mit was weiß ich was mehr Leistung, es fehlt kein unersetzliches Feature, der Stromverbrauch ist zwar hoch aber ähnlich wie bei AMD, also kein Dealbreaker, es gibt keine großen Treiberprobleme mehr....

Das stimmt natürlich. Nvidia, und alle die eine Karte wollen oder brauchen, haben aktuell richtig Pech.
Da AMD aber auch noch MS und Sony beliefern muss, kann das bei Navi2 ähnlich aussehen. Das wissen wir in ca. 3 Wochen

Hakim
2020-10-29, 17:16:07
Frage mich wann Nv jetzt den 6800 konter GA102-150 bestätigt. Eigentlich hätte man zumindest bei den Dicken Chip dann je 3 (evt 4 bei NV mit dem 3080ti 12 GB?) Versionen auf beiden Seiten, seitens NV ungewöhnlich, aber ihnen bleibt ja auch nichts anders über.

davidzo
2020-10-29, 18:16:52
Ein GA104 @ 6144SP @ 16Gbps 16GB wäre ziemlich interessant

Wäre schon eine schöne, sparsame, zukunftssichere Karte. Aber wenn der dann soviel kostet wie die 6800 hilft es auch nichts.
GA104 it 48SM und 256bit GDDR6 hat gegen 60CU mit 256bit+128Mb Infinitycache nicht den Hauch einer Chance. Da müsste man die CUs schon ebenfalls über 2,2Ghz takten...

GA103 fehlt wirklich schmerzlich. 60SM, 320bit, das war genau die Lücke die man nun füllen muss!


Sinnvoll wäre gewesen:
3090 voll aktiv 24GB 400W 1499.-
3080Ti ca. 10% weniger Einheiten 22GB 350W 999.-
3080 ca. 20% weniger Einheiten 20GB 300W 699.-
3070Ti voll aktiv 16GB 16Gbps 250W 549.-
3070 ca. 10% weniger Einheiten 14Gbps 16GB 200W 449.-
3060Ti ca. 20% weniger Einheiten 14Gbps 12GB 180W 349.-

Da wäre für jeden was dabei gewesen.

Die 3080 wäre mit 300W langsamer als die aktuelle 3080 und dank der zusätzlichen 10GB für nvidia trotzdem viel teurer in der Herstellung.

Und wenn das Gerücht stimmt dass GDDR6X unter Anderem für die schlechte Verfügbarkeit verantwortlich ist würde eine 20GB Karte die Stückzahlen sogar noch halbieren. Wahrscheinlich hätte man so auch erst nach Navi21 die nötige Launchstückzahlen zusammen gehabt und hätte dann die ganzen Enthusiasten verloren die jetzt schon die 3080 bestellt haben.

Nee, so wie es nvidia gemacht hat war es richtig. Die haben schön vorzeitig gelauncht, damit viele 3080s und 3090s noch an Enthusiasten verkauft als diese konkurrenzlos war.
Dazu diese Karten schön übertaktet und marketingmäßig aufgeblasen ("doppelt soviele shader", so dass man nicht nur den Navi Launch vorweg etwas versauen kann, sondern auch den Kunden einen ordentlichen performancegewinn gegenüber turing bieten konnte.

Jetzt hat man immer noch genug Zeit um eine 3080ti hinterher zu schieben.
Und mit GA103 oder einem gemunkelten wechsel zu TSMC hat man vielleicht langfristig noch etwas in der Hinterhand was genau in den Navi21XL-XT Bereich geht.

JVC
2020-10-29, 20:09:40
Und mit GA103 oder einem gemunkelten wechsel zu TSMC hat man vielleicht langfristig noch etwas in der Hinterhand was genau in den Navi21XL-XT Bereich geht.
So schnell geht das nicht... der wird sich dann vielleicht schon mit N31 messen müssen...

M.f.G. JVC

Ex3cut3r
2020-10-29, 20:52:39
Enthusiast mit 10GB VRAM. Ist aber auch ziemlich gewagt. IMO sind das für mich zumindest keine Enthusiasten sondern einfach ziemlich blauäugige Leute, denn die Big Navi Präsentation hätte man zumindest abwarten müssen.

VRAM kann man halt nicht einfach dazustecken, sondern damit muss man mindestens 2 Jahre ausharren. Nvidias Ziel ist es sicherlich die Leute 2xmal innerhalb 2 Jahren zur Kasse zu bitten. Denn 2021 kommen einige hungrige VRAM Spiele, dass wird nämlich das zweite 2014.

Rampage 2
2020-10-29, 23:29:06
Hätte man sich eher überlegen sollen bevor man so ein Krüppel Karte mit 20% weniger aktiven Einheiten und 10GB auf den Markt lässt.

Nvidia hätte es sich wirklich einfacher gemacht, wenn sie die 3080 wie die 3090 einfach mit 384Bit SI, dafür aber GDDR6 statt 6X und "nur" 12GB VRAM rausgebracht hätten - dann hätte man 1. keinen Krüppel-Chip mit lächerlichen 10GB Grafikspeicher, 2. die Notwendigkeit für GDDR6X würde entfallen (384Bit @ normalem GDDR6 = 768GB/sek. Bandbreite) und somit mehr Ressourcen für die 3090 freigeben und 3. bräuchte man dann zumindest bei der 3080 vielleicht keine Variante mit doppeltem Speicher, da 12GB "so gerade noch OK" (?) gewesen wäre. Wäre wirklich sinnvoller gewesen...


3070Ti voll aktiv 16GB 16Gbps 250W 549.-

Ähem... soll Nvidia genau eine solche Karte rausbringen und das Ding soll gut verfügbar sein und ich wäre sogar bereit 599$ dafür zu zahlen!! (für Hersteller-Designs entsprechend ein paar Euro mehr...)

Auf einen vollen GA104 mit 16GB VRAM @ 16-18 Gbps GDDR6 warten bestimmt Viele=)


GA104 it 48SM und 256bit GDDR6 hat gegen 60CU mit 256bit+128Mb Infinitycache nicht den Hauch einer Chance. Da müsste man die CUs schon ebenfalls über 2,2Ghz takten...


Mir würde es schon reichen, wenn Nvidia eine solche Karte rausbringt und das Ding ordentlich lieferbar ist - egal, ob das Ding nun ein bisschen oder deutlich langsamer als 'ne RX 6800 wäre:redface:

R2

rentex
2020-10-30, 07:49:16
Hätte man sich eher überlegen sollen bevor man so ein Krüppel Karte mit 20% weniger aktiven Einheiten und 10GB auf den Markt lässt. Die 10GB verhindern jetzt nämlich genau die 16GB GA104 Version.

NV hat sich es selber sehr schwer gemacht.

Sinnvoll wäre gewesen:
3090 voll aktiv 24GB 400W 1499.-
3080Ti ca. 10% weniger Einheiten 22GB 350W 999.-
3080 ca. 20% weniger Einheiten 20GB 300W 699.-
3070Ti voll aktiv 16GB 16Gbps 250W 549.-
3070 ca. 10% weniger Einheiten 14Gbps 16GB 200W 449.-
3060Ti ca. 20% weniger Einheiten 14Gbps 12GB 180W 349.-

Da wäre für jeden was dabei gewesen.

Warum so nen Aufwand betreiben, wenn man nicht weiß was der Konkurrent bringt und stets unterschätzt...
Also wäre die Theorie widerlegt, das NV weiß was AMD so treibt und hat.
Joar, sollen se ruhig ne 3080Ti bringen...dann heißt das für mich beim nächstes Mal AMD.

Dural
2020-10-30, 09:19:43
Ich glaube NV hat Navi2 sogar ziemlich gut eingeschätzt, zu gut. Aber keiner konnte ahnen das AMD da 128MB reinsteckt, und noch weniger konnte man ahnen das der so gut funktioniert. Normalerweise wäre Navi2 min. 10-20% unter der 3080 rausgekommen.

Ich glaube das mit dem Cache wussten selbst bei AMD noch lange nicht alle.

HOT
2020-10-30, 09:25:51
Jetzt mit der 3080Ti mit 20GB fehlt eine GA103 3080 Super mit 16GB GDDR6X @ 256Bit. Dazu könnte man noch ein günstiges PCB designen als bei GA102.
Das würde die originale 3080 obsolet machen und das Speicher- und NVs Kostenproblem wäre gelöst.

Dural
2020-10-30, 09:35:22
Mir egal, ich werde mir eine 6900XT mit 5950X holen. Abseits von RT ist das ganz OK.

Wenn sich NV so blöd anstellt mit ihren ganzen Krüppel Karten wo hier und da was deaktiviert ist anstelle voll aktive Chips auf den Markt zu bringen, von mir aus.

Der Jensen mit seinem Gewinn-optimierungs-drang kann mich mal :P :wink:

Palpatin
2020-10-30, 09:44:56
Nee, so wie es nvidia gemacht hat war es richtig. Die haben schön vorzeitig gelauncht, damit viele 3080s und 3090s noch an Enthusiasten verkauft als diese konkurrenzlos war. .
Nö man hat auch wegen der Liefersituation sich den Ärger der Kunden zugezogen und etwas den sehr guten Ruf ruiniert, das war absolut unnötig.
Man hätte die 3070 als 3080 mit 16gb Launchen sollen für 600 und die 3090 war gut positioniert das hat gepasst. Die 3080 hätte man dann immer noch später mit 20GB als 3080ti in den Markt werfen können.

Korvaun
2020-10-30, 10:21:39
3080ti 20GB für 999.- wäre ein guter Konter zur 6900XT. Die ist aber eigentlich das kleinere Problem. 6800/6800XT sind im Preisbereich 500-750.- dann immer noch "alternativlos". Bringt also nicht wirklich viel... nV bräuchte 1,5 Gb GDDR6X Chips, dann wäre alles supi ;)

robbitop
2020-10-30, 10:29:08
Eine 3080ti mit viel mehr aktiven SMs und 384 bit si und 12 GB ist IMO auch kein schlechter Konter.

Hakim
2020-10-30, 10:30:31
Der 70er wäre mit 16gb überhaupt kein Problem ansich, und mit einer 20gb Version der 80er würde es auch nicht mehr blöd aussehen, eigentlich

Adam D.
2020-10-30, 10:34:59
Mir egal, ich werde mir eine 6900XT mit 5950X holen. Abseits von RT ist das ganz OK.

Wenn sich NV so blöd anstellt mit ihren ganzen Krüppel Karten wo hier und da was deaktiviert ist anstelle voll aktive Chips auf den Markt zu bringen, von mir aus.

Der Jensen mit seinem Gewinn-optimierungs-drang kann mich mal :P :wink:
WTF, hast du Fieber? ;D

Wer es nicht eilig hat, sollte wahrscheinlich wirklich bis Q1/21 warten - oder bis die Gerüchteküche besser abschätzen kann, wann die geplanten Konter von NV erscheinen sollen. Igor meinte ja frühestens Ende Q1, das ist dann schon echt wieder lang hin.

ChaosTM
2020-10-30, 10:40:47
Eine 3080ti mit viel mehr aktiven SMs und 384 bit si und 12 GB ist IMO auch kein schlechter Konter.


Wäre mir als 1080ti Besitzer zu wenig. 12GB wären für die 70er optimal.

Fragman
2020-10-30, 10:47:40
Allein schon wegen den 4GB mehr Speicher sollte man warten.
Die ersten Ramkrüppeltitel, die den 16GB Karten das Genick brechen und damit den Karten EOL bescheinigen, werden nicht lange auf sich warten lassen!

(Ja, der musste jetzt sein ;D)


Generell, mal abwarten. Die Lust am Grakakauf ist mir erst einmal vergangen.
Verfügbarkeit, Preis und Performance werden dann entscheiden.

ChaosTM
2020-10-30, 10:51:39
Bei 16 hab ich auch noch kein wirklich gutes Gefühl. Die Karte soll diesmal wirklich sehr lange halten.. ;)

-> eine 6900XTX mit 2.5 Ghz und 32GB -- als Antwort auf NVs Antwort

Dural
2020-10-30, 11:17:17
Ich will eine 6900XT Referenz für meine Karten Sammlung, also werde ich gleich zuschlagen.

Nächstes Jahr wird dann mal geschaut was NV liefert, danach wird entschieden was für ein Ampere noch gekauft wird. Ampere ist nach wie vor klar die bessere Architektur, abseits GDDR6X und Samsung, nur Jensen stellt sich ziemlich an.

Screemer
2020-10-30, 11:31:29
geht doch mal in den amd-thread, wenn ihr über deren produkte diskutieren wollt.

Sardaukar.nsn
2020-10-31, 05:20:04
Für WoW Shadowlands braucht man Raytracing wohl nicht zwingend...

RJwsv6CGB0w

https://mein-mmo.de/wow-shadowlands-beta-raytracing/

Badesalz
2020-10-31, 08:41:33
"I told you so" postings bringen der Diskussion IMO keinen Mehrwert. Solange es keinen konsistent hohen Track Record gibtZu bedenken, daß auch ein blinder Troll mal ein Korn findet, sollte man natürlich mit auf dem Radar behalten. In dem Fall hat aber eine grobe Analyse der Gerüchte zur Herstellungsabenteuern und damit Verfügbarkeit von
a) GDDR6X
b) jenem gerechter PCBs
anscheinend ausgereicht.

Die Begründungen dazu bzw. eine Diskussion hätten mich zum Zeitpunkt leider komplett aus der zeitlichen Bahn geworfen. Es stand ein fetter Umzug an :freak: Für meine Verhältnisse war ich in der letzten Zeit auch eher rar im Forum :wink:
Ändert sich nun wieder langsam.

Ich hab ja auch bei den 6000ern recht früh eine Zwischenstufe im Speicherinterface gerochen. Nur hab ich wegen weniger Infos auf irgendein Gebilde aus HBM gedacht. Die Diskussion hatten wir ja :wink: Laut 3DC war ich da aber bereits besser informiert als NV selbst... Das sollen selbst viele AMD Mitarbeiter nicht gewusst haben. (ist klar)

Bisschen Demut an der richtigen Stelle ist also immer passend :uup:

Edit @all:
Wer sich Gedanken macht, ob das Sinn machen würde die 3080/20 zu bringen angesichts der Lieferbarkeit... der denkt über falsches nach. Die wurde an sich schon offiziell bestätigt. Und anschließend übrigens nicht verschoben, sondern furztrocken, gecancelt.

Die Texte mit “zum jetzigen Zeitpunkt“ wenig Sinn usw. usw., passen nicht zu den realen Geschehnissen. Die 20GB Einträge hat man trotz bereits besseren Wissens gestreut.

dargo
2020-10-31, 08:50:48
Für WoW Shadowlands braucht man Raytracing wohl nicht zwingend...

https://youtu.be/RJwsv6CGB0w

https://mein-mmo.de/wow-shadowlands-beta-raytracing/
Wow... da haut einen RTX echt aus den Socken bei fast halbierten Framerate. :ucrazy2:

fondness
2020-10-31, 11:04:25
Ich glaube NV hat Navi2 sogar ziemlich gut eingeschätzt, zu gut. Aber keiner konnte ahnen das AMD da 128MB reinsteckt, und noch weniger konnte man ahnen das der so gut funktioniert. Normalerweise wäre Navi2 min. 10-20% unter der 3080 rausgekommen.

Ich glaube das mit dem Cache wussten selbst bei AMD noch lange nicht alle.

Damit konnte man nun wirklich nicht rechnen, dass AMD ausreichend Bandbreite zur Verfügung stellt, wo doch die ganze Welt damit gerechnet hat, dass die Karte an der Bandbreite verhungert. Selten so einen Blödsinn gelesen.

dildo4u
2020-10-31, 11:15:46
Für WoW Shadowlands braucht man Raytracing wohl nicht zwingend...

https://youtu.be/RJwsv6CGB0w

https://mein-mmo.de/wow-shadowlands-beta-raytracing/

Das Game scheint ohne RTX keine Soft Schatten zu haben.
Das sieht nach Doom 2004 aus.

https://live.staticflickr.com/65535/50550294736_6304b1a9c8_h.jpg (https://flic.kr/p/2k1XttN)968245 (https://flic.kr/p/2k1XttN) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://live.staticflickr.com/65535/50550294701_977d17463d_h.jpg (https://flic.kr/p/2k1Xttc)968244 (https://flic.kr/p/2k1Xttc) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr


https://de.wowhead.com/news=317555/ray-tracing-shadows-jetzt-in-der-world-of-warcraft-shadowlands-beta-verf%C3%BCgbar#screenshots:317555:1

Fragman
2020-10-31, 11:28:56
Für WoW Shadowlands braucht man Raytracing wohl nicht zwingend...


Da haben sie scheinbar die interessantesten Schatteneffekte gestrichen?


Wow... da haut einen RTX echt aus den Socken bei fast halbierten Framerate. :ucrazy2:

Ja, bessere Grafik kostet viel mehr Leistung und der Stillstand der letzten Jahre schlägt jetzt doppelt zu, da er als kombinierter Schub kommt (bessere Assets + besseres Licht).
Dank RT ist das bald vorbei und die Leistung wird in Zukunft nicht mehr so sprunghaft einbrechen.

DeadMeat
2020-10-31, 12:23:21
Das sind keine "Ultra Shadows" sondern bestenfalls "High" Settings auf dem Screenshot. Die höchste Einstellung ist dann doch minimal weicher an den Rändern. Da wird ganz klar etwas getrickst.


Im gegensatz zur Beta heißt die Option auch nicht mehr allgemein Ray Tracing sondern nur noch Ray Traced Shadows.

aufkrawall
2020-10-31, 12:53:20
Wow... da haut einen RTX echt aus den Socken bei fast halbierten Framerate. :ucrazy2:
Du elender Hater, lass dich mal von der Fachpresse aufklären!
Irgendwo muss es anfangen, gerade Schatten wie in WoW sind doch völlig offensichtlich.
:ulol3:

ianm
2020-10-31, 13:37:03
Jeder der Mythic raidet, Arena oder hohe M+ Keys zockt, wird das nicht benutzen. Dasselbe wie 1024x768 und low details wie bei CS. Das Feature ist mehr oder weniger DOA bei der Performance.

Daredevil
2020-10-31, 13:37:40
Weil man ja so krass im GPU Limit steckt bei WoW. :c

Badesalz
2020-10-31, 17:47:48
Laut den Benches schon irgendwie :smile:

RT wird bisher aber weitgehend eh nur für Müll genutz. Entweder um mit Spiegelungen zu Wuchern, was recht schnell auf den Keks geht oder um zwanghaft mit Schatten rumzuprollen.

Eine entsprechend komplexe RL-ähnliche Ausleuchtung der Objekte, was eigentlich das mit Abstand interessanteste und aufregendste ist, sieht man noch selten :freak:

Meist eher so: „Schaut her!“ (brüll) „Wir haben hier einen RT-Effekt!“ (hampel, spring an)

Irgendwie nervig. Wie ein Blag was ein Kinderxylophon bekam und immer nur auf die rote Platte klopft...

TheAntitheist
2020-10-31, 18:34:56
Weil man ja so krass im GPU Limit steckt bei WoW. :c
oder WoW ein competitive game wäre, mehr casual gehts ja wohl nicht xD

Sardaukar.nsn
2020-10-31, 19:24:02
oder WoW ein competitive game wäre, mehr casual gehts ja wohl nicht xD

Sehe ich auch so, obwohl ich ja aktiv Classic im 40er Raid spiele. Nichtdestotrotz ist Shadowlands ein (achtung!) AMD Raytracing Vorzeigetitel: https://shadowlands.wowhead.com/news=318811.3/warcraft-highlighted-in-amds-radeon-rx-6000-graphics-card-unveiling-feature-vide

gedi
2020-10-31, 19:38:53
Du elender Hater, lass dich mal von der Fachpresse aufklären!

:ulol3:

Welches Autohaus meinst du jetzt?

Troyan
2020-10-31, 20:06:05
Laut Videocardz könnte am 17.11 die RTX3060TI vorgestellt werden: https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-could-launch-on-november-17th

Sollte ca. 20% langsamer als die 3070 sein und somit auf 2080 Super Niveau liegen.

gedi
2020-10-31, 20:20:03
Laut Videocardz könnte am 17.11 die RTX3060TI vorgestellt werden: https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-could-launch-on-november-17th

Sollte ca. 20% langsamer als die 3070 sein und somit auf 2080 Super Niveau liegen.

So schnell wie ne RX6600 aka N22L? Will NV nun aggressiv den Midrange-Market möglichst schnell bedienen? Kluge Entscheidung-denn im Highperformance-Segment liegen alle relativ nah beieinander. Wenn NV sich nicht entschließt noch nen Full-GA102 aka Titan zu bringen, dann geht diese Runde wohl segmentübergreifend an AMD. Und bevor ich ne 3060TI kaufe, warum dann nicht auf ner 2080 oder 2070(s) bleiben bzw. relativ günstig auf Ebay abgreifen?

Linmoum
2020-10-31, 20:24:59
Statt noch mehr zu launchen, sollte man erst einmal die Verfügbarkeit der bereits gelaunchten Karten sicherstellen. Was zum Henker ist plötzlich mit Nvidia los? So kopflos war das noch nie.

gedi
2020-10-31, 20:35:26
Ich bin mir relativ sicher, dass für die nächste Zukunft die Verfügbarkeit gewährleistet ist.

MartinRiggs
2020-10-31, 20:36:19
Statt noch mehr zu launchen, sollte man erst einmal die Verfügbarkeit der bereits gelaunchten Karten sicherstellen. Was zum Henker ist plötzlich mit Nvidia los? So kopflos war das noch nie.

Tja das fragt man sich wirklich, aber es wird ja so und so gekauft.

Nazar
2020-10-31, 22:09:36
Das Game scheint ohne RTX keine Soft Schatten zu haben.
Das sieht nach Doom 2004 aus.

https://live.staticflickr.com/65535/50550294736_6304b1a9c8_h.jpg (https://flic.kr/p/2k1XttN)968245 (https://flic.kr/p/2k1XttN) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://live.staticflickr.com/65535/50550294701_977d17463d_h.jpg (https://flic.kr/p/2k1Xttc)968244 (https://flic.kr/p/2k1Xttc) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr


https://de.wowhead.com/news=317555/ray-tracing-shadows-jetzt-in-der-world-of-warcraft-shadowlands-beta-verf%C3%BCgbar#screenshots:317555:1

Man achte bei den Bildern auf den Schirm. Wenn Licht darauf fällt, sieht das in RL dann so aus wie mit RTX of oder on?
Bei meinem Sonnenschirm, sieht es so aus wie beim Bild ohne RT Effekt. Seltsam oder? RL ist falsch? :confused:
Entweder ist etwas im Schatten oder nicht. Diese Art "Halbschatten" nur zur Hälfte, die wohl als eine "Art" Kunst verkauft wird, gibt es so gar nicht. :rolleyes:
Ja, die Ränder der Schatten bei RT off sind zu hart. Aber selbst das kann man in Einstellung von WoW ändern.
Was aber viel wichtiger ist, wenn man in WoW RT auf die höchste Stufe stellt, sehen die Ränder so aus, wie im Vergleichsbild mit RT off.

Wenn RT wirklich eine natürlichere Ausleuchtung bieten würde, die jeder sofort erkenne könnte, dann könnte man mit Sicherheit über den Mehrwert und dessen Kosten diskutieren. Wenn aber offensichtlich Schatten komplett falsch oder gar nicht anders als unter RZ dargestellt werden, dann ist so eine Diskussion obsolet und besonders dann, wenn es immer noch Standbilder als Vergleichsbasis benötigt!
Ja, es muss irgendwann damit mal angefangen werden, so war es auch mit AA und AF. Der Unterschied ist aber ein gewaltiger. Während man bei AA sofort einen gewaltigen Unterschied erkennen konnte und bei AF -zumindest beim genauen Hinsehen- selbst Laien der Unterschied auffällt, kenne ich nicht einen Menschen der sofort -ohne einen Markierung welches Bild was repräsentiert- ein RZ von einem RT Bild unterscheiden kann.
Sollte RT in Spielen, zu annehmbaren "Kosten", jemals so einen Aha-Effekt bieten wie AA, dann werde ich sofort das Gegenteil behaupten aber bis dahin bleibt in meinen Augen RT die größte Marketingverarschung der Gegenwart!
Ich warte immer noch auf die Gegenbeweise. Bis heute gab es nicht einen einzigen! Das Gegenteil war bisher !!!!immer!!!! der Fall und Ampere wird daran rein gar nichts ändern! :wink:

Denniss
2020-10-31, 22:23:44
Das mit der 3060 wird vielleicht wieder so ein grüner sandwich um den roten 18. wie schon mit der 3070.

MasterElwood
2020-11-01, 04:57:17
Wenn RT wirklich eine natürlichere Ausleuchtung bieten würde, die jeder sofort erkenne könnte, dann könnte man mit Sicherheit über den Mehrwert und dessen Kosten diskutieren.

Sollte RT in Spielen, zu annehmbaren "Kosten", jemals so einen Aha-Effekt bieten wie AA, dann werde ich sofort das Gegenteil behaupten aber bis dahin bleibt in meinen Augen RT die größte Marketingverarschung der Gegenwart!
Ich warte immer noch auf die Gegenbeweise. Bis heute gab es nicht einen einzigen! Das Gegenteil war bisher !!!!immer!!!! der Fall und Ampere wird daran rein gar nichts ändern! :wink:

https://www.techradar.com/news/minecraft-rtx

https://media.giphy.com/media/xT9DPhONuz1SpCONiM/giphy.gif

dargo
2020-11-01, 08:35:48
Was kommt als nächstes... Tetris?

Geächteter
2020-11-01, 08:46:00
Statt noch mehr zu launchen, sollte man erst einmal die Verfügbarkeit der bereits gelaunchten Karten sicherstellen. Was zum Henker ist plötzlich mit Nvidia los? So kopflos war das noch nie.
Vielleicht haut die Samsung-Siliziumschmiede zu viel Abfall raus, der sich jetzt türmt und als Salvage an den Gamer gebracht werden muss, bevor Team Red aufkreuzt.

Badesalz
2020-11-01, 09:11:08
Statt noch mehr zu launchen, sollte man erst einmal die Verfügbarkeit der bereits gelaunchten Karten sicherstellen. Was zum Henker ist plötzlich mit Nvidia los? So kopflos war das noch nie.Das ist wie lange her wo sie sich das erste mal wieder im WETTBEWERB befinden? Das hat sie erstmal komplett aus der Bahn geworfen...

@Geächteter
Oh bitte. Jetzt nicht wieder diese „Samsung ist schuld“ Nummer ;)

ChaosTM
2020-11-01, 09:13:01
InfiniCache hat sie am linken Fuß erwischt. Passiert den besten -- sowas renkt sich schon wieder ein.

@Minecraft -- tssss

add.: könnte sein dass NV von InfiniCache Wind bekommen und deshalb diesen Panik-Launch veranstaltet hat.

ChaosTM
2020-11-01, 09:32:51
https://www.amazon.de/dp/B08HRBR7K9?smid=A1N8Q2T69LNTPE

Schnäppchenalarm !!

add.: selbst wenn man sich "nur" um eine Kommastelle vertan hat. 750? wtf

BlacKi
2020-11-01, 11:38:46
Sollte RT in Spielen, zu annehmbaren "Kosten", jemals so einen Aha-Effekt bieten wie AA, dann werde ich sofort das Gegenteil behaupten aber bis dahin bleibt in meinen Augen RT die größte Marketingverarschung der Gegenwart!
Ich warte immer noch auf die Gegenbeweise. Bis heute gab es nicht einen einzigen! Das Gegenteil war bisher !!!!immer!!!! der Fall und Ampere wird daran rein gar nichts ändern! :wink:
was die performance angeht, werden wir wohl nie einfach nur 10% leistungsverlust erleben. allerdings könnten die fake beleuchtungen irgendwann so viel leistungen kosten, das RT nur noch 10% langsamer ist.



alles was du behauptest ist, das die fakebeleuchtungen gut umgesetzt sind, sodass man auf RT verzichten kann. da geb ich dir recht, aber wenn man irgendwann genug leistung hat, dann kann man die alten spiele in RT zocken können was auch ziemlich nice ist. und RT sieht besser aus, es stellt sich nur die frage, ob es einem das wert ist.

Thunder99
2020-11-01, 11:57:29
InfiniCache hat sie am linken Fuß erwischt. Passiert den besten -- sowas renkt sich schon wieder ein.

@Minecraft -- tssss

add.: könnte sein dass NV von InfiniCache Wind bekommen und deshalb diesen Panik-Launch veranstaltet hat.
Sie werden wohl genau aktiv die Gerüchte verfolgen und Szenarios erstellen. Aber wie stark der Cache sich auswirkt muss sich zeigen. Laut Benchmarks von AMD hat dieser ja auch nicht nur Vorteile in hohen Auflösungen.

basix
2020-11-01, 12:00:46
Laut Videocardz könnte am 17.11 die RTX3060TI vorgestellt werden: https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-could-launch-on-november-17th

Sollte ca. 20% langsamer als die 3070 sein und somit auf 2080 Super Niveau liegen.

Hmm, Konkurrenz wird eine 6700 oder 6700 XT mit 12 GB sein. Ich vermute die XT wird für 449$ kommen und etwas schneller sein, deswegen sind die 399$ OK. Da man mit der 2060S den TU104 verwenden musste, sollte auch die Marge bei dem Preis gut stimmen.

Badesalz
2020-11-02, 07:58:41
InfiniCache hat sie am linken Fuß erwischt. Passiert den besten -- sowas renkt sich schon wieder ein.Jep. Weil das einzige was AMD zwischen 5000 und 6000 an Leistung hinbekommen hat eben der Cache ist :uup:

ChaosTM
2020-11-02, 08:04:23
"Das einzige" ist etwas gewagt. Die intelligenter Lösung wird sich langfristig durchsetzten.

add.: ich freu mich schon auf den 320(?)bit refresh von BigNavi.. in Verbindung mit dem Cache sollte das auch gegen NVs 7nm Neuauflage bestehen könne. Spannende Zeiten :)

Adam D.
2020-11-02, 08:30:22
"Das einzige" ist etwas gewagt. Die intelligenter Lösung wird sich langfristig durchsetzten.

add.: ich freu mich schon auf den 320(?)bit refresh von BigNavi.. in Verbindung mit dem Cache sollte das auch gegen NVs 7nm Neuauflage bestehen könne. Spannende Zeiten :)
Das Ding wird sich erstmal beweisen müssen. Aktuell deutet aber vieles darauf hin, dass die Entscheidung Stand heute ziemlich genial war, weil AMD so Probleme vermeidet, die NV heftig plagen.

Badesalz
2020-11-02, 08:34:43
Es war mir wirklich nicht bewusst, daß die GPUs dermaßen einfach nur SI-limitiert sind ;)

Edit:
Das davor, war Ironie...

Dural
2020-11-02, 10:01:05
Bei Roman hält die 3070 Strix relativ gut die 2160MHz mit 125% PT, das sind 275Watt. Leistung etwas über Strix 2080Ti.


Ich verstehe immer wie weniger wie so NV keinen vollen GA104 mit 16GB bringt :rolleyes: selbst wenn sie etwas langsamer als die 6800 wäre, es wäre dank den zusätzlichen sachen die NV bietet das bessere Produkt und mit RT wäre die angelegenheit schnell vorbei.

unl34shed
2020-11-02, 10:27:45
Weil die 3080 nur 10GB hat und das dann doof aussehen würde.

dildo4u
2020-11-02, 10:33:53
Bei Roman hält die 3070 Strix relativ gut die 2160MHz mit 125% PT, das sind 275Watt. Leistung etwas über Strix 2080Ti.


Ich verstehe immer wie weniger wie so NV keinen vollen GA104 mit 16GB bringt :rolleyes: selbst wenn sie etwas langsamer als die 6800 wäre, es wäre dank den zusätzlichen sachen die NV bietet das bessere Produkt und mit RT wäre die angelegenheit schnell vorbei.
Die 3070 ist deutlich langsamer als 3080 was RT angeht, AMD sollte in diesem Bereich sein.

https://wccftech.com/amd-radeon-rx-6800-rdna-2-graphics-card-ray-tracing-dxr-benchmarks-leak-out/

Thunder99
2020-11-02, 10:37:48
Weil die 3080 nur 10GB hat und das dann doof aussehen würde.

Genau, sie haben sich selbst ein Bein gestellt ;D :(

Sie sollten schon ein Refresh planen. Aber halt nicht jetzt, da es sonst die eigenen Karten kanabilisiert. Sie stecken sozusagen in einem Dilemma.

Schnitzl
2020-11-02, 10:50:44
Laut Videocardz könnte am 17.11 die RTX3060TI vorgestellt werden: https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-could-launch-on-november-17th

Sollte ca. 20% langsamer als die 3070 sein und somit auf 2080 Super Niveau liegen.
sehr schön, wenn die unter 200W bleibt, mindestens auf 2080Super Niveau ist und unter 400€ kostet dann könnte das was werden :smile:
Fragt sich nur ob man dann überhaupt eine kaufen kann. Und wie Control damit läuft.
Vermute besser als mit der 1070 die jetzt drin ist sicher ;D

WedgeAntilles
2020-11-02, 10:57:59
Genau, sie haben sich selbst ein Bein gestellt ;D :(

Sie sollten schon ein Refresh planen. Aber halt nicht jetzt, da es sonst die eigenen Karten kanabilisiert. Sie stecken sozusagen in einem Dilemma.

Eigentlich nur von der Verfügbarkeit.

3070 mit 8GB für 500 Euro
3070 mit 16GB für 600 Euro
3080 mit 10GB für 700 Euro
3080 mit 20GB für 800 Euro

Gäbe es dieses Setup tatsächlich zu kaufen - wo genau wäre da Nvidias Problem?
Ja, die AMD Karten wären eine gute Konkurrenz. Aber definitiv nicht massiv besser.
Man darf ja nicht vergessen, dass Nvidia bei identischer Leistung problemlos 10% Preisaufschlag gegenüber AMD verlangen kann. Die Mehrheit wird das sicherlich kaufen.

Eine 3080 mit 20GB wäre dann 150 Euro teurer als die 6800XT.
Nvidia Bonus, DLSS, +4GB Ram, vermutlich besseres RT.
Das verkauft sich problemlos.

Und die Karten mit wenig Ram sind halt attraktiv für Leute die weniger Geld ausgeben wollen. Ob das jetzt ne gute Entscheidung ist sei dahingestellt.
Sehr interessant auch für Komplett PCs. Da kann der Anbieter dann mit 3070 oder 3080 werben, aber halt nur die kleine Variante einbauen und die Kiste nen 100er billiger anbieten.
Auch hier: Ob das jetzt sinnvoll ist für den Käufer spielt keine Rolle.
Der Käufer hat halt die Wahl, ist ja kein Nachteil.

Noch mal: Könnte Nvidia liefern, bräuchten sie nur jeweils eine Variante mit doppeltem Speicher rausbringen und sie hätten ein Portfolio, mit dem sie keine Probleme haben.
Das würde natürlich nichts dran ändern, dass AMD technisch zu Nvidia aufgeschlossen hat.
Aber das kann auch ein Refresh nicht ändern, der vielleicht noch mal 10% mehr Leistung bringt.
Da hätte AMD Nvidia trotzdem eingeholt.

Das Problem von Ampere ist nicht die fehlende Leistung, die ist da.
Das Problem ist die Verfügbarkeit und die (bisher?) fehlende "Doppel-Speicher" Variante.

ChaosTM
2020-11-02, 11:16:47
Igor und die Netzteile für Ampere (https://www.igorslab.de/geforce-rtx-3090-rtx-3080-rtx-3070-intel-core-i9-10900k-oc-mit-und-ohne-oc-gegen-11x-be-quiet/2/)

Badesalz
2020-11-02, 11:50:30
Das Problem von Ampere ist nicht die fehlende Leistung, die ist da.Hat glaub ich schon seit Maxwell niemand behauptet.
Allerdings, daß AMD mal von der Leistung her wieder konkurrenzfähig wird und von den TBPs her, das hat mich schon kleinwenig überrascht :uponder:

Dural
2020-11-02, 12:59:45
Naja ich würde mal abwarten, das cache system wird zwangsweise auch seine schwächen haben. Umso höher der speicher bedarf, umso mehr wird das system verlieren, das kann man selbst bei den eigenen amd bench rauslesen. Amd liefert ja sogar und vorallem 1080p und 1440p benchmarks, in dieser leistungsklasse sehr verwunderlich, und wenn es mir recht ist hat amd kein wort über 8k verloren.

PrinceGSC
2020-11-02, 13:08:22
Eigentlich nur von der Verfügbarkeit.

3070 mit 8GB für 500 Euro
3070 mit 16GB für 600 Euro
3080 mit 10GB für 700 Euro
3080 mit 20GB für 800 Euro

Gäbe es dieses Setup tatsächlich zu kaufen - wo genau wäre da Nvidias Problem?
Ja, die AMD Karten wären eine gute Konkurrenz. Aber definitiv nicht massiv besser.
Man darf ja nicht vergessen, dass Nvidia bei identischer Leistung problemlos 10% Preisaufschlag gegenüber AMD verlangen kann. Die Mehrheit wird das sicherlich kaufen.

Eine 3080 mit 20GB wäre dann 150 Euro teurer als die 6800XT.
Nvidia Bonus, DLSS, +4GB Ram, vermutlich besseres RT.
Das verkauft sich problemlos.

Und die Karten mit wenig Ram sind halt attraktiv für Leute die weniger Geld ausgeben wollen. Ob das jetzt ne gute Entscheidung ist sei dahingestellt.
Sehr interessant auch für Komplett PCs. Da kann der Anbieter dann mit 3070 oder 3080 werben, aber halt nur die kleine Variante einbauen und die Kiste nen 100er billiger anbieten.
Auch hier: Ob das jetzt sinnvoll ist für den Käufer spielt keine Rolle.
Der Käufer hat halt die Wahl, ist ja kein Nachteil.

Noch mal: Könnte Nvidia liefern, bräuchten sie nur jeweils eine Variante mit doppeltem Speicher rausbringen und sie hätten ein Portfolio, mit dem sie keine Probleme haben.
Das würde natürlich nichts dran ändern, dass AMD technisch zu Nvidia aufgeschlossen hat.
Aber das kann auch ein Refresh nicht ändern, der vielleicht noch mal 10% mehr Leistung bringt.
Da hätte AMD Nvidia trotzdem eingeholt.

Das Problem von Ampere ist nicht die fehlende Leistung, die ist da.
Das Problem ist die Verfügbarkeit und die (bisher?) fehlende "Doppel-Speicher" Variante.

Grundsätzlich eine schöne Idee die du da hast, das Problem mit den Lieferschwierigkeiten wird aber dennoch bestehen und die GK werden(soweit verfügbar) für rund 150€ über UVP verkauft. Daher würde deine 3080 20gb rund 250 - 300 € teurer sein als die AMD Variante, sofern die Preise dort im Rahmen der UVP bleiben ;-)

Egal wie es auch kommt uns Consumern stehen rosige Zeiten bevor. Das Angebot ist groß und man kann frei entscheiden.

Adam D.
2020-11-02, 13:13:45
Naja ich würde mal abwarten, das cache system wird zwangsweise auch seine schwächen haben. Umso höher der speicher bedarf, umso mehr wird das system verlieren, das kann man selbst bei den eigenen amd bench rauslesen. Amd liefert ja sogar und vorallem 1080p und 1440p benchmarks, in dieser leistungsklasse sehr verwunderlich, und wenn es mir recht ist hat amd kein wort über 8k verloren.
Ach, dann muss ich mir die x 4k-Angaben wohl ausgedacht haben? Meine Fresse, du kannst deinen Bias einfach nicht einmal wegstecken, wirklich. Viel Spaß mit 8K, btw.

Brillus
2020-11-02, 13:29:28
Naja ich würde mal abwarten, das cache system wird zwangsweise auch seine schwächen haben. Umso höher der speicher bedarf, umso mehr wird das system verlieren, das kann man selbst bei den eigenen amd bench rauslesen. Amd liefert ja sogar und vorallem 1080p und 1440p benchmarks, in dieser leistungsklasse sehr verwunderlich, und wenn es mir recht ist hat amd kein wort über 8k verloren.
Ich habe keinen 1080p gesehen dafür aber 4k.

maximus_hertus
2020-11-02, 13:40:47
in dieser leistungsklasse sehr verwunderlich, und wenn es mir recht ist hat amd kein wort über 8k verloren.

Bis eine Grafikkarte kaufbar ist, die 60 fps @ 8K liefert, werden wohl noch viele Jahre vergehen. Ich rechne mit mindestens 5 Jahren, evtl. eher mehr.

Von daher, who cares welche aktuelle Top-Dogs aktuell die Ruckelorgie bei 10 vs 15 fps gewinnt....

Szudri
2020-11-02, 14:40:35
Naja ich würde mal abwarten, das cache system wird zwangsweise auch seine schwächen haben. Umso höher der speicher bedarf, umso mehr wird das system verlieren, das kann man selbst bei den eigenen amd bench rauslesen. Amd liefert ja sogar und vorallem 1080p und 1440p benchmarks, in dieser leistungsklasse sehr verwunderlich, und wenn es mir recht ist hat amd kein wort über 8k verloren.

Ist halt wie bei CPU. Deswegen werden die caches mit DDR5 auch wieder kleiner, da der RAM schneller wird :ucrazy:
Und dann noch eine falsche Auflösung nennen.

WedgeAntilles
2020-11-02, 15:22:23
Grundsätzlich eine schöne Idee die du da hast, das Problem mit den Lieferschwierigkeiten wird aber dennoch bestehen und die GK werden(soweit verfügbar) für rund 150€ über UVP verkauft. Daher würde deine 3080 20gb rund 250 - 300 € teurer sein als die AMD Variante, sofern die Preise dort im Rahmen der UVP bleiben ;-)

Egal wie es auch kommt uns Consumern stehen rosige Zeiten bevor. Das Angebot ist groß und man kann frei entscheiden.

Wäre Ampere verfügbar, würden ja auch die sehr hohen Preise Richtung Founders Edition gehen.
Klar sind die Custom-Karten teilweise teurer und würden das auch bleiben - das gilt aber für AMD genauso.
Da wird das Asus Strix Equivalent ja auch nicht für den von AMD genannten Preis verkauft.
Die Relationen bleiben also gleich.

Aktuell sind die Preise bei Ampere halt so abartig, weil es keine zu kaufen gibt.
Ich glaube auch nicht, dass sich das in den nächsten Wochen noch großartig ändert.

Es ging mir nur darum, dass Ampere kein Problem im Sinne von "Die Karte ist zu schlecht" hat - sondern halt nicht verfügbar ist.
Technisch gut (mit doppelter Speichervariante gäbe es nix auszusetzen), aber Verfügbarkeit quasi nicht existent.

stinki
2020-11-02, 15:48:46
Mit welchen Karten macht Nvidia in diesem Quartal eigentlich Umsatz?
Wenn die 3090/3080/3070 nicht lieferbar ist (ausgeliefert wird) und die Volumen der 2080/2070 langsam auslaufen, dann sollte doch deutlich weniger Geld reinkommen, oder?

JVC
2020-11-02, 15:52:57
@stinki
Die Gaming-Sparte ist nicht der gewinnbringendste Bereich bei NV ;)

M.f.G. JVC

Badesalz
2020-11-02, 16:03:48
Naja ich würde mal abwarten, das cache system wird zwangsweise auch seine schwächen haben. Umso höher der speicher bedarf, umso mehr wird das system verlieren, das kann man selbst bei den eigenen amd bench rauslesen.Denke auch. Das wird wohl immer dann der Fall sein wo auch die 10GB der 3080 zu knapp werden. Bleibt also konkurrenzfähig...

Mit welchen Karten macht Nvidia in diesem Quartal eigentlich Umsatz?HPC und so?

stinki
2020-11-02, 16:11:23
HPC und so?

Das der Firmenumsatz nicht auf 0 geht ist mir auch klar, aber die fehlenden Karten im oberen Preisbereich müsste man doch eigentlich am Umsatz in der Consumer Grafiksparte sehen, oder? Da bin ich mal gespannt wie viele Mio Umsatz (nicht Gewinn) diese nicht Lieferbarkeit am Ende beim Umsatz ausmachen wird.

Edit:
Gaming (GeForce) hatte in Q2/2020 1654 Mio. $ Umsatz, mal schauen ob das in Q3/2020 weniger wird...

Badesalz
2020-11-02, 16:43:03
Edit:
Gaming (GeForce) hatte in Q2/2020 1654 Mio. $ Umsatz, mal schauen ob das in Q3/2020 weniger wird...Auch da, war das aber imho nicht die 2080Ti.

Tomahawk
2020-11-02, 21:56:46
Vermutlich wird es das erste Mal in nVidias Geschichte sein, dass der Umsatz in einem Quartal nach Vorstellung neuer Chips heruntergegangen ist.

Turing wird sich jetzt wohl kaum verkaufen - zumindest nicht im oberen Preissegment.

Troyan
2020-11-02, 22:00:15
Edit:
Gaming (GeForce) hatte in Q2/2020 1654 Mio. $ Umsatz, mal schauen ob das in Q3/2020 weniger wird...

Laut nVidia wächst das "Gaming" um 25%. :cool:
Davon kommt ein Teil von Nintendo, ein Teil von den Notesbooks (und wohl alles unter 2060) und eben Ampere.

PrinceGSC
2020-11-03, 04:38:20
Wäre Ampere verfügbar, würden ja auch die sehr hohen Preise Richtung Founders Edition gehen.
Klar sind die Custom-Karten teilweise teurer und würden das auch bleiben - das gilt aber für AMD genauso.
Da wird das Asus Strix Equivalent ja auch nicht für den von AMD genannten Preis verkauft.
Die Relationen bleiben also gleich.



Aktuell sind die Preise bei Ampere halt so abartig, weil es keine zu kaufen gibt.
Ich glaube auch nicht, dass sich das in den nächsten Wochen noch großartig ändert.

Es ging mir nur darum, dass Ampere kein Problem im Sinne von "Die Karte ist zu schlecht" hat - sondern halt nicht verfügbar ist.
Technisch gut (mit doppelter Speichervariante gäbe es nix auszusetzen), aber Verfügbarkeit quasi nicht existent.

👍 hört sich das schon anders an.
Schlecht sind die nvidia Karten definitiv nicht und mit ihren vielen kleinen extra Features hat nvidia auch gut was zu bieten.

rentex
2020-11-03, 06:16:19
Wir wissen doch gar nicht, ob die RDNA2 GPUs besser oder schlechter verfügbar sind, als Ampere?
Frage ist auch, ob AMD die GPUs im Package mit dem VRAM, den AIBs verkauft?
Ich tendiere eher dazu, AMD eine bessere Verfügbarkeit zu unterstellen, da die Voraussetzungen in der Fertigungen einfach günstiger sind (TSMC, kein GDDR6X und einfaches PCB).

dildo4u
2020-11-03, 06:21:43
TSMC hat keine Endlose Kapazitäten sieht man daran das es immer noch keine Desktop 8 Cores mit IGP gibt, die bekommt man nur als OEM Produkt.
Vermutlich hat die 6800 deshalb ein so hohen Preis erinnert an 5700 die keiner Will, so hat man die erste Sinnvolle Karte erst über 600€.

dargo
2020-11-03, 08:03:29
TSMC hat keine Endlose Kapazitäten sieht man daran das es immer noch keine Desktop 8 Cores mit IGP gibt, die bekommt man nur als OEM Produkt.
Vermutlich hat die 6800 deshalb ein so hohen Preis erinnert an 5700 die keiner Will, so hat man die erste Sinnvolle Karte erst über 600€.
:facepalm:

Sind Zen 2 CPUs Mangelware? AMD bestimmt wie die 7nm Ressourcen bei den bestellten Wafern verteilt werden, nicht TSMC. :rolleyes:

TheAntitheist
2020-11-03, 08:26:07
@stinki
Die Gaming-Sparte ist nicht der gewinnbringendste Bereich bei NV ;)

M.f.G. JVC
ist es bei keinem Untenehmen... Aber es ist mit Abstand der Umsatzstärkste.

Korvaun
2020-11-03, 08:48:01
Naja ich würde mal abwarten, das cache system wird zwangsweise auch seine schwächen haben. Umso höher der speicher bedarf, umso mehr wird das system verlieren, das kann man selbst bei den eigenen amd bench rauslesen. Amd liefert ja sogar und vorallem 1080p und 1440p benchmarks, in dieser leistungsklasse sehr verwunderlich, und wenn es mir recht ist hat amd kein wort über 8k verloren.

Ich hoffe es bleibt dabei und AMD ignoriert "8K" konsequent. Dieses 8K Gelalle ist totaler Bullshit, 0,0% relevant auf Jahre hinaus.

ChaosTM
2020-11-03, 09:06:13
8k Monitore sind schon nett. High Dpi-Monitore erlauben praktisch jede Auflösung und es skaliert fast perfekt.

Nativ ist eine andere Geschichte und auch ziemlich unnötig. Speziell seit es Sachen wie DLSS gibt.

Thunder99
2020-11-03, 10:21:39
DLSS ist halt ein zweischneidiges Schwert. DPI lässt sich nur ersetzen durch mehr DPI (nativ). Wie beim Auto ;).

Fragman
2020-11-03, 10:35:56
Um in 8K mit RT die Leistung zu haben, wie heut in 1440p, brauchen wir wieviel GPU Generationen wenn wir annehmen, das die Leistung wie aktuell steigt, die Grafik aber nicht besser wird, sagen wir 8?
Das wären dann 16 Jahre, bei gleichbleibender Qualität. Da die Anforderungen aber immer steigen, können wir sicher 20-24 Jahre draus machen. Vorausgesetzt die Technologie läßt sich weiter so skalieren wie heute, was man bezweifeln sollte, da die Durchbrüche fehlen.
8K mit DLSS Quality dann vielleicht in 12 jahren?

Das Problem ist aber, das spätestens in 4 Jahren die ersten von 16K anfangen werden,
"Chasing the Dragon" nennt man das wohl.

Savay
2020-11-03, 10:43:59
Irgendwann wird man auch an physische Grenzen stoßen, bei den üblichen Gerätegrößen und Sitzabständen.

Schon bei 4K sehen genug garnicht den Unterschied wegen ihres Visus...bei 8K wird es nochmals extremer und 16K ist dann eher nur noch relevant als Render Auflösung für SSAA

ChaosTM
2020-11-03, 10:47:04
8k wird die "letzte" Auflösung im Konsumer Bereich. Sieh man auch an der vergleichsweise langsamen Verbreitung.

Alles drüber wird dem Kino und High End Home Cinema Bereich vorbehalten bleiben.

basix
2020-11-03, 11:04:40
Bei 4K sieht man noch relativ schnell einen visuellen Unterschied verglichen zu 1080p und 1440p und bei 8K wird man vor allem die Detailauflösung bei feiner Geometrie, Gräsern, Blättern und praktisch inexistentes Aliasing schätzen. Mehr ist mMn wirklich mehr als unnötig (z.B. auch bezüglich Bandbreitenbedarf bei TV-Übertragungen usw.). Dann deutlich lieber 8K/120fps anstatt 16K/30fps ;)

Mit einer 3090 können doch auch moderne Titel wie SotTR, HZD und RDR2 mit 30fps @ 8K gespielt werden. Ist für mich nicht spielbar aber so extrem weit weg ist man nicht. Somit noch ein paar GPU Generation und wir sind bei 8K/60 oder gar 8K/120 ;) DLSS und Konsorten sollten hier ebenfalls etwas nachhelfen.

ChaosTM
2020-11-03, 11:07:28
Für Gesichtsfeld-füllende VR Headsets könnte >8k auch interessant sein. Wird man sehen.

HPVD
2020-11-03, 11:11:05
8k wird die "letzte" Auflösung im Konsumer Bereich. Sieh man auch an der vergleichsweise langsamen Verbreitung.

Alles drüber wird dem Kino und High End Home Cinema Bereich vorbehalten bleiben.

hmm vielleicht. Vielleicht gehts aber auch noch weiter hoch bis man die bereits seit längerem vom smartphone bekannten dpis hat ;-)
Die Auflösung ist ja nur das eine...
So viel weiter weg ist ein Monitor von den Augen auch nicht :eek:

und abseits vom technisch/sichtbar sinnvollem: was lässt sich besser vermarkten als höhere Auflösung und höherer Pixeldicht?
(ok mehr Hz ist genauso gut)

ChaosTM
2020-11-03, 11:28:53
Man wird es sicher probieren. Aufrollbare 200 Zoll Geräte zb.

Cyberfries
2020-11-03, 12:11:22
8k wird die "letzte" Auflösung im Konsumer Bereich.

"Niemand braucht mehr als 640kB RAM in seinem PC."
"Ich glaube, dass es weltweit einen Markt für vielleicht fünf Computer geben wird."
"Die weltweite Nachfrage nach Kraftfahrzeugen wird eine Million nicht überschreiten"

Bist mit deiner Einschätzung in guter Verwandschaft.....

10496
kopite7kimi auf die Frage nach der SM-Anzahl (https://twitter.com/kopite7kimi/status/1323571063012294659) der 3080-20gb
Nach meiner Rechnung sind das 82SM. Und dann noch:
Finally, the surviver is RTX 3080 Ti Founders Edition.
Plant nVidia tatsächlich, die Antwort auf BigNavi mit nahezu denselben Daten wie die 3090 aufzulegen?
Eine 3090 mit -4gb im 6900xt-Preisbereich - das gäbe einen Shitstorm....

Savay
2020-11-03, 12:14:54
Bist mit deiner Einschätzung in guter Verwandschaft.....


Viel mehr als Visus 2 geht nicht...und das ist das theoretische Limit das noch nie jemand praktisch erreicht hat.

Ergo kannst du dir bei gegebenem Abstand und Bildgröße ausrechnen ab wann eine physikalische Ausgabeauslösung einfach gar nicht mehr skaliert! 0,0.
Und die Menge der Personen die davon wirklich profitieren wird, wird immer kleiner je höher die Auflösung bei gegebenem Abstand wird.

Über 8K physikalisch wird sauteuer werden und hat eine extremst kleine Zielgruppe. Kein besonderer Garant für eine Marktdurchdringung.
Ergo: entweder es kommt für über 99,99% als reinstes SnakeOil oder es wird das nur für professionelle Großleinwände und ganz spezielle Insellösungen wie VR o.ä. geben.

=Floi=
2020-11-03, 13:46:24
Naja ich würde mal abwarten, das cache system wird zwangsweise auch seine schwächen haben.

aber nicht direkt im zusammenhang mit der auflösung. Der cache ist für die shader und hier funktionieren sie super.

Korvaun
2020-11-03, 14:00:40
Godfall braucht bei 4K mit max. settings 12GB VRAM, geht also schon los mit 10GB sind zu wenig selbst bei "out of the box"-Spielen. Hmmm... was da wohl 3080er Besitzer zu sagen? Ein Glück gibts noch nicht allzu viele ;)

Hakim
2020-11-03, 14:39:42
Quelle? Man muss immer vorsichtig sein, selbst ein Warzone belegt ~21gb bei nichtmal 4k.

Edit: habs selber gefunden, könnte aber hier wirklich gewollt sein :)

r3ptil3
2020-11-03, 18:48:29
Godfall braucht bei 4K mit max. settings 12GB VRAM, geht also schon los mit 10GB sind zu wenig selbst bei "out of the box"-Spielen. Hmmm... was da wohl 3080er Besitzer zu sagen? Ein Glück gibts noch nicht allzu viele ;)

Jeder Spieleentwickler weiss doch wie einfach es ist den VRAM zu füllen.

Wenn Godfall ein Prachtstück an Grafik wäre, einverstanden, aber das was man bisher auf den Videos sieht? Nicht schlecht, aber sicher nicht zu rechtfertigen bei 12Gb VRAM Auslastung.

Irgendwo verständlich wenn man mit AMD eine Partnerschaft eingeht und dermassen unkomprimierte Texturen in den VRAM haut, dass die 16Gb von Vorteil sind und Nvidia mit ihren 8 bzw. 10Gb knapp keine Enthusiasten befriedigen kann.

Wahrscheinlich aber ist, dass diese eine Einstellung, welche den Speicherbedarf dermassen erhöht, im Endeffekt optisch kaum einen merkbaren Unterschied ausmachen wird.

Und ganz sicher will ich damit nicht die Speicherbestückung der 3070/3080 verteidigen, das wäre das Letzte.
Es geht einfach darum, dass man heute teilweise mittelmässige Grafikqualität in Spielen sieht, welche jedoch einen enormen Speicherbedarf haben.

Dann schaut man sich ein Grafikhighlight von 2016-2018 und man fragt sich plötzlich: Wieso braucht hier die bessere Grafik nur einen Viertel des Speicherbedarfs?

Thunder99
2020-11-03, 19:58:29
...

Dann schaut man sich ein Grafikhighlight von 2016-2018 und man fragt sich plötzlich: Wieso braucht hier die bessere Grafik nur einen Viertel des Speicherbedarfs?
Eventuell kleinere Gegenenden/Level, weniger Effekte, etc. Die Kombination macht es wohl :confused:

Daredevil
2020-11-03, 21:27:19
Ich habe aktuell ne 3080 von TuF im System und muss sagen, dass die das viel rundere Paket als die 3090 ist, noch mehr als das man von 15% ausgeht. ( Die mit OC schlicht nicht mehr bestehen )

Ich habe mal beide Karten Quick and Dirty mit Max PT und OC getestet in Superposition 8K und komme auf folgendes Ergebnis:

3080:
2055/10300 @ 0.900v - 355w - 6907pts ( 62 Grad, 1815rpm ) 20w/pts

3090:
1890/9752 @ 0.825v - 440w - 7027pts ( 56 Grad, 1680rpm ) 15w/pts

Lächerlicher Unterschied von den Punkten her.
In 4K ist die 3090 ~8% schneller, in 8K kackt sie aufgrund des PowerTargets ab. Da dreht die 3080 mit ihren 350w halt noch Däumchen.
Interessant an der Stelle auch die unterschiedlichen Temperaturen und Drehzahlen.
Die 350w der 3080 gehen offenbar deutlich mehr auf den Chip, während die 440w der 3090 kühler bleibt.

Scheint allgemein ne gute 3080 zu sein. :)

Quatsch. :X

Langlay
2020-11-03, 21:45:18
3090:
1890/9752 @ 0.825v - 440w - 7027pts ( 56 Grad, 1680rpm ) 15w/pts


Du machst irgendwas falsch.

https://abload.de/img/superposition_benchmakxj6q.png

3090 1800/10752 @0,8V ~330W 7604 pts -> 23w/pts.

Irgendwas läuft bei dir mit der 3090 komisch. bei 0.825V braucht die doch nicht >400W bei 1.9GHz.

Du hast nich zufällig das Bios einer 3x8Pin Karte auf eine 2xPin Karte geflashed?

Daredevil
2020-11-03, 21:51:35
Tatsache. :) Da bin ich dann wohl anscheinend mit den Zahlen durcheinander gekommen.
Was ist denn dein Max Wert bei 8K Superpos?

Langlay
2020-11-03, 21:54:07
Tatsache. :) Da bin ich dann wohl anscheinend mit den Zahlen durcheinander gekommen.
Was ist denn dein Max Wert bei 8K Superpos?

Müsste das hier sein ->

https://abload.de/img/superposition_benchmaauk7m.png

Aber so richtig drauf angelegt hab ichs noch nicht. Ich denke 8k Punkte könnten drin sein ich spiel mal kurz etwas.

Davonab hab ich auch nur ne 2xPin8 3090 also bei 390W PT ist bei mir eh Schluss.

Daredevil
2020-11-03, 21:57:48
Ach mit WaKü, wa? Krass, okay. :)
Ich muss mir das mal in ruhe am WE anschauen, die 3080 scheint aber zumindest nicht dauerhaft im PT zu hängen und abzukotzen. ^^

Langlay
2020-11-03, 22:13:12
Ja, ist mit Wasserkühlung, aber soviel sollte das eigentlich nicht ausmachen.

https://abload.de/img/superposition_benchmavkkto.png

Bischen feintuning, könnte noch den ein oder anderen Punkt bringen. Aber viel mehr krieg ich nicht hin mit 390W.

Badesalz
2020-11-04, 00:45:38
"Niemand braucht mehr als 640kB RAM in seinem PC."
"Ich glaube, dass es weltweit einen Markt für vielleicht fünf Computer geben wird."
"Die weltweite Nachfrage nach Kraftfahrzeugen wird eine Million nicht überschreiten"

Bist mit deiner Einschätzung in guter Verwandschaft.....Dieser Bullshit wieder. Auf welche Erfahrungswerte konnten die damals zurückgreifen, auf welche wir?

An Glotzen bereits, verkauft sich 4K zu 95% NUR, wenn Leute gescheite technische Quali haben wollen. Allgemeine, nicht auf die Auflösung bezogen. Oder weil man nichts anderes mehr in einer bestimmten Größe findet.
Wenn es noch so viele FHD Kisten in TOP geben würde, würden die Stückzahlen von 4K eher suggerieren, daß sich niemals auch nur ein 8k Gerät verkaufen kann :wink:

Cyberfries
2020-11-04, 08:18:26
Dieser Bullshit wieder. Auf welche Erfahrungswerte konnten die damals zurückgreifen, auf welche wir?

Erfahrungswerte egal, Überraschungen gibts immer wieder.
Die Visus 2 Geschichte zeigt, dass wir noch lange nicht am Ende sind, das entspricht gerade mal 40" am Tisch.
Dass 8k eine Totgeburt ist, hat ganz andere Ursachen, davon sollte man keine Allgemeinaussage treffen.

Aber das müssen wir hier nicht weiter ausbreiten,
mir ging es nur darum dass man sich mit Aussagen wie der zitierten zurückhalten sollte.

RTX 3080 Ti FE:
PG133-SKU15,
GA102-250-KD-A1,
20GB GD6X,
the same FP32 count as 3090, 10496FP32,
the same MEM speed and TGP as 3080,
no NVLINK.
Wieder einmal kopite7kimi (https://twitter.com/kopite7kimi/status/1323785556417863680) mit einer Auflistung zur 3080ti.
Interessant ist die Aussage zu "nur" 320w und etwas geringerem Speichertakt als bei der 3090.
Trotzdem sollte der Unterschied minimal sein, bin gespannt wie nVidia das vermarkten will.

r3ptil3
2020-11-04, 08:36:07
Wieder einmal kopite7kimi (https://twitter.com/kopite7kimi/status/1323785556417863680) mit einer Auflistung zur 3080ti.
Interessant ist die Aussage zu "nur" 320w und etwas geringerem Speichertakt als bei der 3090.
Trotzdem sollte der Unterschied minimal sein, bin gespannt wie nVidia das vermarkten will.

Dürfte wohl preislich bei der 6900 XT angesiedelt werden, aber wann soll das vorgestellt werden? 2021?

Adam D.
2020-11-04, 09:17:09
Dürfte wohl preislich bei der 6900 XT angesiedelt werden, aber wann soll das vorgestellt werden? 2021?
Vor Ende Q1 wird das wohl nix werden. Wo sollen überhaupt die Chips herkommen bei der aktuellen Liefersituation?

basix
2020-11-04, 09:36:28
Wieder einmal kopite7kimi (https://twitter.com/kopite7kimi/status/1323785556417863680) mit einer Auflistung zur 3080ti.
Interessant ist die Aussage zu "nur" 320w und etwas geringerem Speichertakt als bei der 3090.
Trotzdem sollte der Unterschied minimal sein, bin gespannt wie nVidia das vermarkten will.

Das wäre eine sehr starke Ausprägung der 3080 Ti. Eigentlich das Maximum, ohne die Karte zu einer 3090 zu machen ;)

Denniss
2020-11-04, 10:08:19
so eine 3080Ti wird aber beim Takt abspeckecken müssen bei mehr Shadern/RAM aber gleichem TGP. Wenn die dann noch viel günstiger rauskommt als eine 3090 dann dürften sich deren Käufer ja wohl ein wenig vera*** vorkommen.

r3ptil3
2020-11-04, 10:20:01
so eine 3080Ti wird aber beim Takt abspeckecken müssen bei mehr Shadern/RAM aber gleichem TGP. Wenn die dann noch viel günstiger rauskommt als eine 3090 dann dürften sich deren Käufer ja wohl ein wenig vera*** vorkommen.

Das kümmert doch niemandem mehr ob man 3090 Performance dann für die Hälfte kriegt...
Siehe Titan RTX Titan+3090 oder 2080 Ti+3070... :freak:
Jeder der eine 3090 kauft, weiss dass sich der Preis in absolut keinster Weise rechtfertigen lässt und dass man eigentlich Geld wortwörtlich aus dem Fenster wirft. Es geht nur um die Exklusivität für ein paar Monate.

Der Verbrauch sollte auch kein Problem sein, da ja eine 3090 gerade mal 30Watt mehr verbraucht als eine 3080, d.h. minimal geringerer Takt und man hat bereits 20-30 Watt eingespart.

Schnitzl
2020-11-04, 10:22:14
die 3090 wird dadurch nicht langsamer ;)
Ganz krass von nVidia wäre, wenn sie die Ti auch mit 300W rausbringen ;D

Hach ist das cool, wenns Konkurrenz gibt :up:

Badesalz
2020-11-04, 10:53:25
Hach ist das cool, wenns Konkurrenz gibt :up:Wo denn? Momentan bewerfen sich beide mit Papierfliegern...

Edit:
Visums 2 =) Das war echt knapp am Lachkrampf vorbei

Troyan
2020-11-04, 10:55:26
Ziemlich meh. 12GB mit 16Gbit/s GDDR6 Speicher und man könnte den Chip bestimmt locker bis zum Mond takten. Sieht man schön an der 3070, dass GDDR6X nicht benötigt wird.

basix
2020-11-04, 11:25:06
Wo denn? Momentan bewerfen sich beide mit Papierfliegern...

Noch ;) Warten wir mal noch 3 Wochen.

Ziemlich meh. 12GB mit 16Gbit/s GDDR6 Speicher und man könnte den Chip bestimmt locker bis zum Mond takten. Sieht man schön an der 3070, dass GDDR6X nicht benötigt wird.

20 GB @ 16 Gbps wären eigentlich optimal. Aufgrund 320/256b und 16/14 Gbps hätte man gleich viel Bandbreite pro FLOPS wie die 3070. Günstiger Speicher, viel Speicher, verbesserte Energieffizienz. Zudem gibt es 16 GBit Chips, doppelseitige VRAM Bestückung fällt damit weg.

Eigentlich sieht man anhand der 3070, dass GDDR6X nicht benötigt wird. Wo hakt es da beim GA102? Benötigt man das mehr an Bandbreite irgendwo oder hätte normaler GDDR6 auch gereicht?

Troyan
2020-11-04, 11:43:01
Spiele sind nicht rechenleistungslimitierend. GA102 hat nur 17% mehr Rasterizer (+1) und 16% ROPs (+16) mehr. Auf der anderen Seite stehen 75% mehr SMs, die nur darauf warten mit Daten gefüttert zu werden. Im Raytracing Test vom 3DMark ist die 3090 exakt soviel schneller wie sie SMs mehr hat (+78%).

Für nVidia macht es Sinn bei GA102 auf mehr Rechenleistung zu setzen, da mit Quadro die Karten auch im Workstation-Markt verkauft werden.

Es wird in Zukunft also davon abhängen, wie stark Rechenleistung in Spielen benötigt wird und wie viel besser Raytracing optimiert werden kann. Jetzt sieht man davon erst mal nichts, da die 3090 mit 59% höherem Powerlimit nur 47% schneller ist als die 3070 (in 4K mit Raytracing...).

Badesalz
2020-11-04, 11:47:06
Eigentlich sieht man anhand der 3070, dass GDDR6X nicht benötigt wird. Wo hakt es da beim GA102? Benötigt man das mehr an Bandbreite irgendwo oder hätte normaler GDDR6 auch gereicht?Wenn ich mal wieder überlege wie heiss Wallossek mich deswegen wochenlang machen wollte... :rolleyes:

Hmm... Die Hoffnung da was gegen die Bandbreite mit InfiniCache machen zu können starb zuletzt?

Für nVidia macht es Sinn bei GA102 auf mehr Rechenleistung zu setzen, da mit Quadro die Karten auch im Workstation-Markt verkauft werden.Das ist mir grad bisschen zu hoch (?)

Troyan
2020-11-04, 11:54:46
Was verstehst du nicht? Gaming-Architekturen werden von nVidia auch für den Workstation-Markt eingesetzt. Und die benötigen heutzutage neben Geometrieleistung auch massiv viel Rechenleistung. Ampere wird den Markt komplett dominieren.

Wenn man so wollte, würde nVidia noch einen GA103 mit mehr Rasterizer und ROPs und weniger SMs benötigen, um im Gaming-Bereich besser darzustehen. GA104 zeigt ja, wie so etwas aussehen könnte.

basix
2020-11-04, 12:12:52
@Troyan:
Du hast meine Frage zur Bandbreite damit aber nicht wirklich beantwortet ;) Auslegung auf mehr Rechenleistung im allgemeinen macht sicher Sinn, vor allem bezüglich immer mehr Compute und RT. Aber anscheinend limitiert die vorhandene Bandbreite die nutzbare Rechenleistung nicht (siehe 3070). Und mit 68 SMs@320b@16Gbps hätte man ein faktisch identisches Bytes/FLOPS Verhältnis wie die 3070. Dito bei 82 SMs und 384b@16Gbps. Wieso ist man von Seiten Nvidia also auf GDDR6X umgestiegen?

Wenn irgendwelche Profiapplikationen die Rechenleistung besser ausnutzen, hätte man nur bei den Quadros auf GDDR6X gehen können. Genau das macht man aber nicht, man geht auf normalen GDDR6. Das macht einfach keinen Sinn.

Geächteter
2020-11-04, 12:37:28
Wieso ist man von Seiten Nvidia also auf GDDR6X umgestiegen?

Wenn irgendwelche Profiapplikationen die Rechenleistung besser ausnutzen, hätte man nur bei den Quadros auf GDDR6X gehen können. Genau das macht man aber nicht, man geht auf normalen GDDR6. Das macht einfach keinen Sinn.
Vielleicht ne kleine Machbarkeitsstudie?

Badesalz
2020-11-04, 13:02:14
Danke basix. Jetzt weiß er was mir zu hoch war ;)

@Geächteter
Kann sein. Aber eine ziemlich kleine :wink:

Dural
2020-11-05, 13:38:57
Die quadro karten haben ja nur gddr6, an denen wird die entscheidung nicht liegen.

Gaming ampere wird die bandbreite wahrscheinlich für rt brauchen. Wobei die 3090 ja auch nicht so profitiert, könnte aber daran liegen das die extrem am pt hängt.

Gddr6x und die lieferbarkeit der karten sind für mich irgendwie ein mysterium, mir fällt dazu nichts mehr ein.

DrFreaK666
2020-11-05, 19:02:43
Wurde das hier schon gepostet??

VtsMr9adt2Q

Denniss
2020-11-05, 19:22:49
Vermutlich aber der Touber ist wenig vertrauenswürdig wenn nicht gar ein Faker

Blediator16
2020-11-05, 19:26:11
Wurde das hier schon gepostet??

https://youtu.be/VtsMr9adt2Q

100% fake.
Hat bereits die 6800xt getestet ;D

MasterElwood
2020-11-05, 21:01:23
Meine 3080 TUF OC zieht 100W im Leerlauf :eek:

Das is doch nicht normal - oder? ;(

x-dragon
2020-11-05, 21:12:53
Also dem Test nach nicht ...
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54236-ein-fast-perfekter-allrounder-asus-tuf-gaming-geforce-rtx-3080-oc-im-test.html?start=4

Denniss
2020-11-06, 00:17:10
mehrere Monitore dran? Taktet vielleicht irgendwas nicht runter

Dampf
2020-11-07, 22:53:34
https://www.youtube.com/watch?v=Yfb4c5kB4As

Performance von AC Valhalla auf einer 3080.

Naja, geht so. 4K60 sind mal wieder nicht möglich auf Ultra Einstellungen.

Dafür ist der VRAM Verbrauch in Ordnung. 5,7 GB bei 1440p Ultra und 6,7 GB in 4K.

arcanum
2020-11-07, 23:05:02
https://www.youtube.com/watch?v=Yfb4c5kB4As

Performance von AC Valhalla auf einer 3080.

Naja, geht so. 4K60 sind mal wieder nicht möglich auf Ultra Einstellungen.

Dafür ist der VRAM Verbrauch in Ordnung. 5,7 GB bei 1440p Ultra und 6,7 GB in 4K.

Wie war das noch? „Die 3080 wird veraltet sein weil ihr der RAM ausgeht bevor sie zu langsam wird für next gen Spiele.“
ich behaupte mal, dass alle aktuellen Grafikkarten wegen next gen schnell alt aussehen werden weil viele Studios Dynamic 4K/30fps als Target für Konsolen setzen.

crux2005
2020-11-07, 23:13:12
Wie war das noch? „Die 3080 wird veraltet sein weil ihr der RAM ausgeht bevor sie zu langsam wird für next gen Spiele.“
ich behaupte mal, dass alle aktuellen Grafikkarten wegen next gen schnell alt aussehen werden weil viele Studios Dynamic 4K/30fps als Target für Konsolen setzen.

Valhalla ist aber nicht next-gen sondern cross-gen (erscheint auf PC, PS4/XB1, PS5/XBSX). Genauso war es mit AC: Black Flag. Erst Unity war next-gen.

Wegen der relativ niedrigen VRAM allozierung hast du noch immer pop-ups und relativ schlechtes LOD.

https://www.youtube.com/watch?v=Yfb4c5kB4As

Performance von AC Valhalla auf einer 3080.

Naja, geht so. 4K60 sind mal wieder nicht möglich auf Ultra Einstellungen.

Dafür ist der VRAM Verbrauch in Ordnung. 5,7 GB bei 1440p Ultra und 6,7 GB in 4K.

Keine Glanzleistung von Ubisoft. Wenn ich das mit Odyssey vergleiche (66 FPS avg. 1440p im Benchmark mit 2080 OC) läuft Valhalla cca. 40% schlechter (75 FPS 1440p, 3080 FE).

Dampf
2020-11-07, 23:46:51
Naja, Ultra und High Settings sind bestimmt auf die Next Gen angepasst, Low halt dann auf die Current Gen. Medium irgendwas dazwischen, damit es in 4K60 auf den Next Gen Konsolen läuft.

Auf solchen Videos kann man sowieso nicht die Grafikqualität beurteilen, ist zu sehr komprimiert. Aber was ich da bisher sehe ist deutlich höheres LOD und größere Detaildichte als Odyssey.

gedi
2020-11-08, 08:18:34
Wenn jemand die Strix 90° gedreht (hochkant) einbauen will - das funktioniert nicht! Der Kühler versagt dann komplett :mad:

HOT
2020-11-08, 08:28:34
Naja, Ultra und High Settings sind bestimmt auf die Next Gen angepasst, Low halt dann auf die Current Gen. Medium irgendwas dazwischen, damit es in 4K60 auf den Next Gen Konsolen läuft.

Auf solchen Videos kann man sowieso nicht die Grafikqualität beurteilen, ist zu sehr komprimiert. Aber was ich da bisher sehe ist deutlich höheres LOD und größere Detaildichte als Odyssey.
Das Spiel ist ganz klar last gen, das wurd auch so kommuniziert. Und nein, die höheren Settings sind nicht next gen :freak:. Ist ein typischer Konsolenport. Entsprechend ähnlich ist die Optik und entsprechend hart ist das LoD. Seit 2016 brauchen die meisten Games ca. 5,7GB in FHD, eben, damit sie auf den NV xx60er Karten optimal laufen.

Gouvernator
2020-11-08, 08:31:03
Das kümmert doch niemandem mehr ob man 3090 Performance dann für die Hälfte kriegt...
Siehe Titan RTX Titan+3090 oder 2080 Ti+3070... :freak:
Jeder der eine 3090 kauft, weiss dass sich der Preis in absolut keinster Weise rechtfertigen lässt und dass man eigentlich Geld wortwörtlich aus dem Fenster wirft. Es geht nur um die Exklusivität für ein paar Monate.

Naja solange die 3080Ti nur 20Gb bekommt, bleibt der Preis für 3090 "gerechtfertigt". Man kann nämlich die 24Gb für diverse 16K Experimente nutzen. Und ein paar Games werden auch schon in 8K in 20Gb VRAM Limit
reinlaufen. Die Nutzmöglichkeiten von 3090 bleiben vielfältiger bzw. einzigartiger als bei jeder anderen Karte.

Badesalz
2020-11-08, 10:34:46
ich behaupte mal, dass alle aktuellen Grafikkarten wegen next gen schnell alt aussehen werden weil viele Studios Dynamic 4K/30fps als Target für Konsolen setzen.Das wird auch 2025 noch nicht der Fall sein.

Dampf
2020-11-08, 10:51:39
Das Spiel ist ganz klar last gen, das wurd auch so kommuniziert. Und nein, die höheren Settings sind nicht next gen :freak:, wie kommt man auf so einen BS? Ist ein typischer Konsolenport. Entsprechen ähnlich ist die Optik und entsprechend hart ist das LoD. Seit 2016 brauchen die meisten Games ca. 5,7GB in FHD, eben, damit sie auf den NV xx60er Karten optimal laufen.

Natürlich hat man das Spiel in den höchsten Einstellungen auf die Next Gen angepasst, läuft ja nicht ohne Grund deutlich schlechter als Odyssey. Ubisoft hat das auch so kommuniziert und von besserer Grafik auf der Next Gen gesprochen. https://www.windowscentral.com/assassins-creed-valhalla-runs-4k-60-xbox-series-x-ubisoft

Both consoles also take advantage of higher-quality effects, improved shadow quality and faster loading times.

Deine letzte Aussage ist faktisch falsch. Seit 2016 ist der VRAM Bedarf signifikant angestiegen. Origins brauchte 4.2 GB VRAM bei 4K Ultra, Valhalla braucht nun 6.7 GB bei 4K Ultra. Das ist der Anstieg in VRAM, den du dir so herbeigesehnt hast :smile:

HOT
2020-11-08, 11:32:48
Marketing blabla. Das ist definitiv kein next-gen-Titel. Und viele andere Games, z.B. SOTTR sind eben mit den 6GB zufrieden, so auch dieser Titel. Meinst du das ist Zufall? Aber bitte, glaub weiter daran.

Badesalz
2020-11-08, 11:33:42
Kein Wiederspruch an der Stelle, aber der Filter der PR-Blabla mit der Realität abgleicht, hast du den bereits angewendet? Und wenn ja, an welchen Stellen?

Man kann sich wohl kaum nur auf Firmen-Bla beziehen (?) Oder? =)

edit:
HOT war schneller...

Dampf
2020-11-08, 12:37:36
Wenn das nur PR Blabla ist, dann sagt mir doch, warum das Spiel deutlich schlechter als Odyssey läuft, trotz identischer Engine und typischer Ubisoft-Optimization!

Richtig es gibt nur einen Grund. Die Detaildichte der Welt und die Effekte sind deutlich aufwendiger als Odyssey.

Dural
2020-11-08, 12:56:26
In einen jahr wird die 3080 10gb gar nichts mehr reisen. Die spiele werden min. 18-20gb benötigen! Alles darunter wird man entsorgen müssen.

Dampf
2020-11-08, 13:00:51
In einen jahr wird die 3080 10gb gar nichts mehr reisen. Die spiele werden min. 18-20gb benötigen! Alles darunter wird man entsorgen müssen.

Haha :biggrin:

Einige meinen sowas ja auch wirklich ernst, angeblich wegen der neuen Konsolen-Generation. Wenn ich da die Series X angucke mit ihren Texturen auf Medium in Watch Dogs, dann braucht die 3080 davor keine Angst zu haben!

Watch Dogs bestätigt nur das was ich vermutet habe, in Realität stehen der Series X deutlich weniger als 10 GB VRAM zur Verfügung.

Grmbl-Na-Gut
2020-11-08, 13:21:11
In einen jahr wird die 3080 10gb gar nichts mehr reisen. Die spiele werden min. 18-20gb benötigen! Alles darunter wird man entsorgen müssen.

Ja alles muss entsorgt werden ausser der 3090. Die hat ja 24 Gb ;D

Das ganze gesäusel mit dem V-Ram kann man komplet überlesen.

Jede Grafikkarte wird nutzbar sein, oder glaubt einer hier das die Spieleindustrie sich selber Zerstört?
Da können die Konsolen noch soviel Ram bekommen auch das ist egal.
:cool:

HOT
2020-11-08, 13:23:43
Wenn das nur PR Blabla ist, dann sagt mir doch, warum das Spiel deutlich schlechter als Odyssey läuft, trotz identischer Engine und typischer Ubisoft-Optimization!

Richtig es gibt nur einen Grund. Die Detaildichte der Welt und die Effekte sind deutlich aufwendiger als Odyssey.
Genau, was nichts darüber aussagt ob es "next gen" wäre ;).

Dampf
2020-11-08, 13:25:41
Genau, was nichts darüber aussagt ob es "next gen" wäre ;).

Das hab ich ja auch nicht gesagt. Ich sagte nur, die höheren Einstellungen werden an die Next Gen, also die neuen Konsolen, angepasst sein. :wink:

Aber ich verstehe was du meinst. Richtig next gen werden Spiele sowieso erst sein, wenn die alten Konsolen fallen gelassen werden und innovative Features wie DirectStorage, Sampler Feedback und Mesh Shader genutzt werden, sowie natürlich RT nutzen.

Vorher werdens nur aufgehübschte Current Gen Games sein, so wie auch Valhalla.

arcanum
2020-11-08, 14:54:13
Das wird auch 2025 noch nicht der Fall sein.

wenn man in mit 1440p/>=30fps zufrieden ist bei reduzierten details, dann hast du recht. es kommen konsolen-spiele mit dyn 4k/30fps für 12tflops rdna2 raus und dieses target wird sich mit sicherheit nicht auf cross-gen titel beschränken. das reicht stand heute weder bei big navi (6800xt = 20,7tflops) noch bei ampere annährend für nativ 4k+60fps.
wieviel sollen diese karten in zukunft reissen wenn im laufe der zeit die anforderungen für den pc nach oben angepasst werden und der qualitätsunterschied zwischen ps5/xsx und pc größer wird durch leistungsfähigere grafikkarten und konsolen-refreshs die in 3-4 jahren kommen?

TheAntitheist
2020-11-08, 16:05:56
Haha :biggrin:

Einige meinen sowas ja auch wirklich ernst, angeblich wegen der neuen Konsolen-Generation. Wenn ich da die Series X angucke mit ihren Texturen auf Medium in Watch Dogs, dann braucht die 3080 davor keine Angst zu haben!

Watch Dogs bestätigt nur das was ich vermutet habe, in Realität stehen der Series X deutlich weniger als 10 GB VRAM zur Verfügung.
Watch Dogs ist auch nur ein Port, denkst du da wird das texture streaming wirklich genutzt? auf keinen Fall.