PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Lawmachine79
2020-08-28, 11:39:28
Das ist eben genau das Resultat von Polarisierung und Lagerdenken. 3DC ist inzwischen das Techniksynonym des amerikanischen Culture Wars. Es gibt genug Leute hier, die jeden Preisanstieg mitgehen würden, weil es nicht mehr darum geht, nüchtern einzuschätzen (und anzuerkennen, dass wir es hier mit einer extrem problematischen Entwicklung zu tun haben), sondern seinen Darling immer ins bestmögliche Licht zu rücken. Das ist bei Team Rot ja auch nicht anders.

Nichts an dieser Entwicklung ist gut. Es ist verständlich, ja, aber wir kriegen immer weniger Performance-Sprünge für immer höhere Preise. Und das hat natürlich auch was mit fehlender Konkurrenz zu tun. Anstatt AMD zu wünschen, dass sie ein gutes Produkt launchen, was zu Marktentwicklungen führen dürfte, von der ALLE profitieren, wird nur gebasht. Anstatt NV dafür zu loben, dass sie das scheinbar Maximale aus den aktuellen Möglichkeiten rausholen, werden sie mit (zugegebenermaßen witzigen) Fermi-Memes überschüttet.

Das ist nur noch Kindergarten hier.
Wo ist das Problem? Zocken ist Hobby. Hobby ist Emotion. Und Emotion ist immer zugänglich für Markenbindung. Wir sind doch keine Maßschneider und diskutieren hier bei einem Tee, welcher Garn für Anzug X der beste ist. Als ginge es um Vernunft und als wäre es überhaupt erstrebenswert, dass es in diesem Lebensbereich um Vernunft geht.

Und was die Preise angeht: jeder muss sich fragen, was ihm sein Hobby wert ist. Ich glaube keiner hier kauft sich eine NV-Karte um einen AMD-Fanboy aus einem Forum zu ärgern - WTF man kennt den nichtmal.

Und klar wünsche mich mir, dass alles günstiger wird und dafür muss AMD eine gute Karte rausbringen; solange sie das nicht tun, bleiben mir immerhin Hohn und Spott um das ganze erträglicher zu gestalten.

rentex
2020-08-28, 11:40:29
Das hatte ich im Grunde mit "1400$" auch ausgedrückt.
So eine technische Leistung für dieses Geld ist vertretbar.
Das die aufgerufenen 2400$, sehr wahrscheinlich nicht der Realität entsprechen dürften, ist mir klar.
Fehlende Konkurrenz und hohe Preise, sind nur ein Teil der Geschichte.
Grundsätzlich: Wer den Preis nicht zahlen möchte/kann, soll sich mal zurückhalten.
Es liegt größtenteils am Wettbewerb dies zu ändern.

Lowkey
2020-08-28, 11:44:32
Das ist falsch, denn die Preise machen die Händler seit der Mining Krise. Gibt es keine Ware, dann erhöhen sie die Preise. Sah man gut beim 10900K. Und er wurde dennoch mit 200 Euro Aufschlag gekauft.

Adam D.
2020-08-28, 11:47:59
Wo ist das Problem? Zocken ist Hobby. Hobby ist Emotion. Und Emotion ist immer zugänglich für Markenbindung. Wir sind doch keine Maßschneider und diskutieren hier bei einem Tee, welcher Garn für Anzug X der beste ist. Als ginge es um Vernunft und als wäre es überhaupt erstrebenswert, dass es in diesem Lebensbereich um Vernunft geht.

Und was die Preise angeht: jeder muss sich fragen, was ihm sein Hobby wert ist. Ich glaube keiner hier kauft sich eine NV-Karte um einen AMD-Fanboy aus einem Forum zu ärgern - WTF man kennt den nichtmal.

Und klar wünsche mich mir, dass alles günstiger wird und dafür muss AMD eine gute Karte rausbringen; solange sie das nicht tun, bleiben mir immerhin Hohn und Spott um das ganze erträglicher zu gestalten.
Was ist das denn für ein Argument? Weil es Hobby ist, müssen wir alle nicht mehr klar denken können? Das heißt, deiner Ansicht nach sind alle Gamer hirnlose Fanboys? Du bestätigst doch gerade meine Kritik, dass es Leuten eben nicht um ihr Hobby geht (Gaming), sondern um "mimimi meine rote Karte ist schöner als deine grüne". Wenn es um Gaming gehen würden, würde man herstellerunabhängig das beste Produkt kaufen wollen. Und sich über Konkurrenz freuen, damit man nicht morgen für eine Golf-Graka Q8-Preise zahlen muss.

nordic_pegasus
2020-08-28, 11:48:47
Wo ist das Problem? Zocken ist Hobby. Hobby ist Emotion. Und Emotion ist immer zugänglich für Markenbindung.

dazu mal ein schönes Video vom Held der Steine...

bqtT-FcBE48

man kann gerne Produkte gut finden, weil sie in irgendetwas besser als die Konkurrenz sind. Man sollte aber niemals ein Fanboy einer Marke sein.

rentex
2020-08-28, 11:53:01
Das ist falsch, denn die Preise machen die Händler seit der Mining Krise. Gibt es keine Ware, dann erhöhen sie die Preise. Sah man gut beim 10900K. Und er wurde dennoch mit 200 Euro Aufschlag gekauft.

Was kaufste auch nen 10900K...
Hier befürchten viele, das Mining die Preise treibt.
Sind aber nicht mittlerweile ASICs, geeigneter zum minen?!

MiamiNice
2020-08-28, 11:54:27
Und was die Preise angeht: jeder muss sich fragen, was ihm sein Hobby wert ist. Ich glaube keiner hier kauft sich eine NV-Karte um einen AMD-Fanboy aus einem Forum zu ärgern - WTF man kennt den nichtmal.


Wie jetzt? Ich dachte grüne Karten kauft und übertaktet man für die langen grünen Balken damit sich die roten ärgern ;D
Wer kauft schon eine GPU um damit zu zoggen. Totalst abwegig.

deLuxX`
2020-08-28, 11:54:36
Emotion hin oder her. Aber wir sind ja zum größten Teil hier erwachsene Leute. Also bitte....

WedgeAntilles
2020-08-28, 11:55:36
Das ist eben genau das Resultat von Polarisierung und Lagerdenken. 3DC ist inzwischen das Techniksynonym des amerikanischen Culture Wars. Es gibt genug Leute hier, die jeden Preisanstieg mitgehen würden, weil es nicht mehr darum geht, nüchtern einzuschätzen (und anzuerkennen, dass wir es hier mit einer extrem problematischen Entwicklung zu tun haben), sondern seinen Darling immer ins bestmögliche Licht zu rücken. Das ist bei Team Rot ja auch nicht anders.


Ich will nicht sagen, dass du unrecht hast - klar, Konkurrenz ist für den Verbraucher immer gut.

Nur finde ich, dass deine Rhetorik etwas übertrieben ist ."extrem problematische Entwicklung" - sorry, das ist mir zu viel.
Es ist eine unschöne Entwicklung, aber "extrem problematisch" ist doch ganz was anderes.
Du kannst problemlos 1-2 Generationen überspringen, dann kaufst du alle 4-5 Jahre ne neue GraKa.
Klar, die kostet jetzt 300-400 Euro mehr als früher. (Wenn man mal den Midrange-Bereich nimmt.)
Ist natürlich nicht toll.

Aber weniger als 100 Euro mehr pro Jahr jetzt als "extrem problematisch" zu bezeichen ist halt völlig übertrieben.

Daredevil
2020-08-28, 11:57:10
Thingiverse so:
https://abload.de/img/unbenanntirkmn.png

Stark. :D
Druck ich mir gleich in grün aus, dann kann man hier besser argumentieren.

MiamiNice
2020-08-28, 11:58:48
Ich würde auch eine nehmen für das nächste Festival :biggrin:

Ex3cut3r
2020-08-28, 12:02:57
Wie viel wird die Ti denn jetzt kosten? Weiß man da schon was genaueres? 1400€, 1999$, 1500€....was denn nun? Nicht das ich da mitgehen werde, ich finds einfach nur noch krank. :biggrin: :freak:

Was auch lustig ist, man findet Beiträge aus dem Apple saugt Thread, wo User, Apple für die Preissteigerung von 1200 - 1500€ sehr stark kritisieren, genau diese Leute aber zum Launch sich eine RTX 2080 Ti für 1400 Steine geholt haben. Häää? X-D

MiamiNice
2020-08-28, 12:10:24
Nen Handy ist ein Gebrauchsgegenstand und hat i.d.R. nichts mit Hobby zu tun. Fürs Hobby rechnet man anders.
Anschaffungskosten / Nutzungszeitraum. Da ist eine Preiserhöhung von paar hundert €, quasi, auf den Monat runter gerechnet, nichts.

Mein Tip aktuell: 1650€ + 150€ Wasserblock für ne Männer Tim Tylor 3090.

maximus_hertus
2020-08-28, 12:12:39
Wie viel wird die Ti denn jetzt kosten? D

Es wäre nicht das erste Mal, dass nVidia teils verschiedene Preise hat und auf diverse Reaktionen wartet (vor allem von der Presse) und erst am Launchtag die finalen Preise festlegt.

1399 / 1499 (FE) USD für die 3090 hört sich aber durchaus realistisch an. Dazu kommt noch die Märchensteuer und EUR/USD Umrechnung.

Am Ende dürfte das bei 1499 / 1599 (FE) Euro Endkundenpreis bei uns hinauslaufen, dank eines Euro Kursanstiegs in den letzten Wochen. Dieser federt jetzt ein wenig den Preis ab.

kmf
2020-08-28, 12:14:13
Wenn die Ti wirklich so schnell sein sollte, wie in den Leaks angekündigt, werden wir wohl als 1. Zahl beim 4-stelligen Preis eine 2 sehen. :whisper:

Dural
2020-08-28, 13:02:20
Wie jetzt? Ich dachte grüne Karten kauft und übertaktet man für die langen grünen Balken damit sich die roten ärgern ;D
Wer kauft schon eine GPU um damit zu zoggen. Totalst abwegig.

Meine 5700xt rev. liegt seit dem start der karte zuhause im schrank, ich weiss nicht mal ob sie überhaupt läuft.

Zossel
2020-08-28, 13:08:36
Und Emotion ist immer zugänglich für Markenbindung.

Dafür sind mir meine "Emotionen" zu schade. Oder geht es um einen Fetisch statt Emotionen?

sChRaNzA
2020-08-28, 13:09:30
Nen Handy ist ein Gebrauchsgegenstand und hat i.d.R. nichts mit Hobby zu tun. Fürs Hobby rechnet man anders.
Anschaffungskosten / Nutzungszeitraum. Da ist eine Preiserhöhung von paar hundert €, quasi, auf den Monat runter gerechnet, nichts.

Mein Tip aktuell: 1650€ + 150€ Wasserblock für ne Männer Tim Tylor 3090.

Das Smartphone hab ich wesentlich öfter in der Hand und in Benutzung als meinen (Spiele-)PC.

WedgeAntilles
2020-08-28, 13:37:02
Das Smartphone hab ich wesentlich öfter in der Hand und in Benutzung als meinen (Spiele-)PC.
Du musst ja auch keine 3090 kaufen? :confused:

Miami hat auf eine Frage (warum beklagt man sich bei 1400 Euro für ein Handy, hat aber keine Probleme damit das für ne GraKa auszugeben) logisch nachvollziehbar beantwortet.

Das das nicht für jeden einzelnen User zutrifft ist doch völlig klar?

Es gibt halt viele Leute, die zocken als Hobby haben und das Smartphone ist ein mehr oder weniger unwichtiges Arbeitsgerät.
Also zahlt man halt für ne tolle GraKa 1400 Euro, würde aber nie auf die Idee kommen 1400 Euro für ein Handy zu bezahlen.

Kapiere jetzt nicht ganz, wo da das Problem ist?

BiZiNiZz
2020-08-28, 13:57:37
Geil mal wieder eine sinnlose Preisdiskussion, hatten wir hier in dem Thread ja nicht schon drölfmilliarden mal..... macht dafür nen eigenen Thread auf, mittlerweile nervt es nur noch.

Und Hobbys sind teuer.... ihr jammert wegen den Grafikkartenpreisen rum? Dann schaut mal über den Tellerrand und schaut euch andere Hobbys an. Dort geben Leute das was ihr in 2 Jahren für eine Grafikkarte ausgebt, Monatlich oder halbjährlich aus, weil ihnen das Hobby es wert ist. Aber ihr macht immer wieder ein Fass auf.....

sChRaNzA
2020-08-28, 14:00:15
Du musst ja auch keine 3090 kaufen? :confused:

Kapiere jetzt nicht ganz, wo da das Problem ist?

Wer sagt denn, dass es ein Problem ist? Kann jeder sein Geld dafür ausgeben, wofür er es ausgeben möchte.

TurricanM3
2020-08-28, 14:01:53
Ich würde mir, wie schon einmal angemerkt, auch wünschen dass die Preisdiskussionen in einen seperaten Thread ausgelagert werden. Es hat schon bei Turing nur genervt das ganze Gejammer zu lesen, als ob einem Wasser und Brot genommen würde.

Hauwech
2020-08-28, 14:04:59
Ich würde mir, wie schon einmal angemerkt, auch wünschen dass die Preisdiskussionen in einen seperaten Thread ausgelagert werden. Es hat schon bei Turing nur genervt das ganze Gejammer zu lesen, als ob einem Wasser und Brot genommen würde.

+1

Edgecrusher86
2020-08-28, 14:11:45
Ja, und in Relation zu anderen teuren Hobbies geht es auch noch - man muss ja bedenken, dass man so eine Karte heutzutage ja locker zwei Jahre fährt, bis die Nachfolge-Gen kommt.


Bei 1500€ etwa für eine 3090 wären das 62,50€ pro Monat. Da gibt manch Einer wohl locker das doppelte bis vierfache pro Monat aus.
Ein bisschen Geld ist das - aber niemand wird gezwungen das Top-Modell zu nehmen.


Eine 3070 8GB mag vielleicht 600€ kosten. Das wären dann 25€ umgerechnet über denselben Zeitraum. Dürfte eine ordentliche WQHD-Karte werden, was den meisten Leuten sicherlich langt.


Die goldene Mitte von beiden wäre dann wohl eine 3080 10GB für etwa 800€ - dann wären wir auch bei grob der Hälfte - also 33,33€ auf 24 Monate gerechnet.


Das kann man eigentlich alles bezahlen, ohne auf Butter auf dem Brot verzichten zu müssen. Günstig war Highend-HW ja noch nie; davon ab. ;)

Nuada
2020-08-28, 14:20:46
Bis 1500€ bin ich day one dabei, sonst überlege ich es mir 2x ich hasse abzocke und so ....

Ich habe mir auch vor 6 monaten 2 RTX Titans geholt bei Amazon eine für 720€ es gibt auch ab und an welche für 600+- mit 1 Jahr Garantie.

Da das in 6 monaten bei der 3090 genauso aussehen wird werde ich sicher nicht mehr als 1500 € zahlen für eine.

aufkrawall
2020-08-28, 14:22:41
"Damals" war Nvidias Umsatzrendite gewiss nicht derart unverschämt. Ist natürlich auch AMDs Schuld, aber schönreden braucht man es auch nicht.

Cyberfries
2020-08-28, 14:23:40
Ja, und in Relation zu anderen teuren Hobbies geht es auch noch - man muss ja bedenken, dass man so eine Karte heutzutage ja locker zwei Jahre fährt, bis die Nachfolge-Gen kommt.

Bei 1500€ etwa für eine 3090 wären das 62,50€ pro Monat.

Man kann sich eben alles schönsaufen.

Aber ich kann das voll verstehen, ich kauf mir auch alle zwei Jahre ne GraKa und starr die dann an.
Was anderes brauch ich für mein Hobby nicht.

Edgecrusher86
2020-08-28, 14:29:44
Schön reden nicht, aber ähnlich viel bezahlten Enthusiasten schon vor 10 Jahren. Da wurde dann z.B. 4-way GTX 480 betrieben. Zuletzt war man mit 2-way Pascal GTX 1080 / GTX 1080 Ti FE SLI / 2080(S) SLI auch in den Regionen einer RTX 3090.

Nun ja, wenn man in Zukunft halt nur noch bei einer ungefähren Verdoppelung der Leistung kauft, ist man bei drei bis vier Jahren angelagt, die so eine neue Karte werkeln darf.

The more you wait, the more you save. ;D

Schon sieht die Situation etwas entspannter aus - wenn auch "langweiliger". :freak:



https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked
VC schreibt hier etwas von 19,5 Gbps für die RTX 3090 (936 GB/s).
Die RTX 3070 soll mit 16 Gbps und 220W TGP kommen.

Die Quelle geht wohl vom 7nm Prozess für alle drei Modelle aus...

woodsdog
2020-08-28, 14:31:59
Die Preißdiskussion gehört IMO schon mit rein zum Thema "Speku: Ampere". Muss nicht jeder die Meinung teilen ist aber schon ein relevanter Aspekt des Produkts.
Ob man das jetzt alle 30 Seiten wieder und wieder durchkauen sollte ist ein anderes Thema xD

monstar-x
2020-08-28, 14:35:00
Geil mal wieder eine sinnlose Preisdiskussion, hatten wir hier in dem Thread ja nicht schon drölfmilliarden mal..... macht dafür nen eigenen Thread auf, mittlerweile nervt es nur noch.
.


Ja es geht ein paar Seiten gut bis einer sich wieder über den Preis aufregt.
So Sinnlos.

Ganz einfach...

Haste das Kohle und bist bereit es auszugeben, dann kauf es.
Haste das Kohle und bist nicht bereit es auszugeben, dann kauf es nicht.
Haste das Kohl nicht! Kannst es nicht kaufen.

.. Doch hört mit dem rumgeheule über den Preis auf.

Dural
2020-08-28, 14:36:11
Der Witz bei der Preis Diskussion ist ja wenn eine Firma mit guten Produkten gut Geld verdient sie für zukünftige Produkte mehr Geld zur Verfügung haben, sprich es kommt zu einem Teil dem Kunden wieder zu gute.

Würde es NV finanziell schlecht gehen, hätten wir RT eventuell bis heute nicht, und auch AMD hätte es somit nicht etc.

Leonidas
2020-08-28, 14:38:38
Thingiverse so:
https://abload.de/img/unbenanntirkmn.png

Stark. :D
Druck ich mir gleich in grün aus, dann kann man hier besser argumentieren.


Pflicht-Utensil zum Visitieren der kommenden NV-Ankündigungsshow am 1.9.?

woodsdog
2020-08-28, 14:39:13
Der Witz bei der Preis Diskussion ist ja wenn eine Firma mit guten Produkten gut Geld verdient sie für zukünftige Produkte mehr Geld zur Verfügung haben, sprich es kommt zu einem Teil dem Kunden wieder zu gute.

Würde es NV finanziell schlecht gehen, hätten wir RT eventuell bis heute nicht, und auch AMD hätte es somit nicht etc.

Du leidest auch echt unter einem NV Stockholm-Syndrom oder?

horn 12
2020-08-28, 14:40:45
https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked

Spezifikationen raus!

w0mbat
2020-08-28, 14:43:39
Der Witz bei der Preis Diskussion ist ja wenn eine Firma mit guten Produkten gut Geld verdient sie für zukünftige Produkte mehr Geld zur Verfügung haben, sprich es kommt zu einem Teil dem Kunden wieder zu gute.

Würde es NV finanziell schlecht gehen, hätten wir RT eventuell bis heute nicht, und auch AMD hätte es somit nicht etc.
LOOOOOOOOOOOOL ;D

Ich glaube wir haben ihn, den Kommentar des Jahrzehnts :biggrin:

Linmoum
2020-08-28, 14:44:54
Krass, 3080 und 3090 scheinbar tatsächlich (deutlich) über 300W. Ich hoffe mal, dass der von VC genannte 7nm nicht der von TSMC ist (sofern es nicht doch 8nm ist). Das wäre ja noch übler.

woodsdog
2020-08-28, 14:45:45
https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked

Spezifikationen raus!
Was steht da neues?

Dural
2020-08-28, 14:46:48
Wie alt seit ihr?

Was habt ihr für ein Gefühl mit welchen Milliarden neue Chips Entwickelt werden? :rolleyes:


Krass, 3080 und 3090 scheinbar tatsächlich (deutlich) über 300W. Ich hoffe mal, dass der von VC genannte 7nm nicht der von TSMC ist (sofern es nicht doch 8nm ist). Das wäre ja noch übler.
Die 30Watt Unterschied machen bei den Einheiten und praktisch selben Takt aber 0,0 Sinn.

dargo
2020-08-28, 14:47:43
Krass, 3080 und 3090 scheinbar tatsächlich (deutlich) über 300W. Ich hoffe mal, dass der von VC genannte 7nm nicht der von TSMC ist (sofern es nicht doch 8nm ist). Das wäre ja noch übler.
Ich vermisse die 2,5GHz Taktraten... :upara:

Adam D.
2020-08-28, 14:49:03
Krass, 3080 und 3090 scheinbar tatsächlich (deutlich) über 300W. Ich hoffe mal, dass der von VC genannte 7nm nicht der von TSMC ist (sofern es nicht doch 8nm ist). Das wäre ja noch übler.
Naja, das konnte man ja inzwischen als gesichert annehmen mit der TGP. Aber das mit 7nm ist in der Tat eine verdammt große Überraschung. Es kann doch eigentlich gar nicht TSMC sein, NV wollte da doch nur in kleinen Mengen produzieren lassen, oder bring ich da was durcheinander?

mironicus
2020-08-28, 14:49:14
Gerade die 3080 scheint mit 320 Watt und nur 10 GB sehr ineffizient zu sein im Vergleich mit der 3090. Da haben wir wohl die schlechteren Chips. Und höhere Taktraten gegenüber Turing sind wohl ausgeschlossen.

Zergra
2020-08-28, 14:49:32
Krass, 3080 und 3090 scheinbar tatsächlich (deutlich) über 300W. Ich hoffe mal, dass der von VC genannte 7nm nicht der von TSMC ist (sofern es nicht doch 8nm ist). Das wäre ja noch übler.

Wäre doch irgendwie lustig, Seitenweise Diskussion über den Prozess... TSMC wäre ja soviel besser.... :freak::freak::freak::freak:

MiamiNice
2020-08-28, 14:50:06
Wenn die 1700 Boost Clock stimmen sehe ich eine Menge Potenzial nach oben.

Dural
2020-08-28, 14:50:27
Und überhaupt, seit wann den bitte in 7nm :rolleyes:

mboeller
2020-08-28, 14:51:21
https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked

Spezifikationen raus!

hmm...

5248 x 1695 / 4352 x 1545 = 1,32

Linmoum
2020-08-28, 14:52:49
Wenn die 1700 Boost Clock stimmen sehe ich eine Menge Potenzial nach oben.1. Boost ist nicht die Realität, Turing boostet deutlich höher als es die Specs zeigen.
2. Sieht eher danach aus, dass sich beim Takt nix getan hat, sonst könnte man beim Verbrauch auch deutlich höher gehen. Wahrscheinlich ist zu 95% wieder bei 20xxMHz Schluss.

Dural
2020-08-28, 14:54:54
Der Takt wird seit Pascal von der Architektur und nicht vom Prozess bestimmt.

NV ging das, wenn die Zahlen stimmen offensichtlich nicht an. Die 30Watt unterschied machen aber keinen Sinn, ausser die 3080 boostet deutlich höher als die 3090.

MiamiNice
2020-08-28, 14:57:37
1. Boost ist nicht die Realität, Turing boostet deutlich höher als es die Specs zeigen.
2. Sieht eher danach aus, dass sich beim Takt nix getan hat, sonst könnte man beim Verbrauch auch deutlich höher gehen. Wahrscheinlich ist zu 95% wieder bei 20xxMHz Schluss.

Wenn das Gerät die 10xxx Timespy Punkte mit 350 Watt und 1700 Mhz gefahren ist, was meinst was mit ner Wakü und rund 2100 Mhz und 450 Watt + geht.

Jetzt bin ich so richtig geil auf das Teil :D

Linmoum
2020-08-28, 14:59:53
Nochmal: Es sind keine 1700MHz. Die Karten boosten ootb schon (deutlich) höher als offiziell angegeben, guck dir Pascal und Turing an.

fondness
2020-08-28, 15:00:46
Was ist mit Samsungs 7nm Prozess?

Cubitus
2020-08-28, 15:01:53
400 Watt mit moderatem OC....

Nooo, save the Turtles ;D

Dural
2020-08-28, 15:02:23
Schon noch doof, jetzt müssen alle die 3090 kaufen, 10GB reicht heute für nichts mehr aus :eek:

Linmoum
2020-08-28, 15:04:22
Was ist mit Samsungs 7nm Prozess?Ist der aufgrund unterirdischer Yields nicht immer noch MiA?

mboeller
2020-08-28, 15:04:22
Wenn das Gerät die 10xxx Timespy Punkte mit 350 Watt und 1700 Mhz gefahren ist, was meinst was mit ner Wakü und rund 2100 Mhz und 450 Watt + geht.

Jetzt bin ich so richtig geil auf das Teil :D

das letzte Igor-Video hast du anscheinend noch nicht gesehen. :)

Raff
2020-08-28, 15:05:25
Gerade die 3080 scheint mit 320 Watt und nur 10 GB sehr ineffizient zu sein im Vergleich mit der 3090. Da haben wir wohl die schlechteren Chips. Und höhere Taktraten gegenüber Turing sind wohl ausgeschlossen.

Das passt IMHO hinten und vorne nicht. 350 W für die 3090: Ok weil doppelter Speicher, mehr Einheiten, höherer Takt. Aber eine Karte mit dem Takt und den Einheiten der 2080 Ti und weniger Speicher mit 320 Watt? Nvidia müsste da ganz schön ins Klo gegriffen haben, wenn das stimmt. Ich würde da maximal 250 Watt erwarten. Evtl. sind die 220 Watt, die gerade bei der 3070 stehen, auch der korrekte Wert. :ugly:

MfG
Raff

Nuada
2020-08-28, 15:07:29
Wenn das Gerät die 10xxx Timespy Punkte mit 350 Watt und 1700 Mhz gefahren ist, was meinst was mit ner Wakü und rund 2100 Mhz und 450 Watt + geht.

Jetzt bin ich so richtig geil auf das Teil :D

Dafür braucht es sichern einen 480 Radiator um das ganze anständig angehen zu können.

Dural
2020-08-28, 15:07:40
Und auch der Kühler: dreifach Slot für die 3090 wegen lächerlichen 30 Watt mehr? Und wen doch, wie so auf der 3080 nicht auch gleich den dreifachen...

Die Einzige Erklärung ist wie schon gesagt der Boost, die 3080 deutlich höher Boostet.

Hauwech
2020-08-28, 15:13:17
Ist der aufgrund unterirdischer Yields nicht immer noch MiA?

Je nachdem welchen Deal nVidia mit Samsung hat, wäre das vielleicht noch nicht mal so schlimm für nV solange genügend zusammenkommen. Hatte Samsung bei 7nm EUV nicht nur sich selbst als Kunden? Ich meine da war mal was deswegen. :conf2:

Dural
2020-08-28, 15:14:59
Naja für 7nm finde ich die 620mm2 schon etwas sehr gross.

Was haben die da alles reingestopft? :freak:

Timbaloo
2020-08-28, 15:15:34
Und auch der Kühler: dreifach Slot für die 3090 wegen lächerlichen 30 Watt mehr? Und wen doch, wie so auf der 3080 nicht auch gleich den dreifachen...
Ich denke sie wollen dem Top-Modell einfach noch das Attribut "leise" mitgeben. Allgemein wollen sie vielleicht die Qualität der FE-Karten anheben, bisher waren die was Lautstärke angeht nicht gerade Top (verglichen mit guten Customs).

Dural
2020-08-28, 15:16:36
Und die 3080FE als Brüller Verkaufen? Macht keinen Sinn, ich glaube die 320Watt nicht.

Linmoum
2020-08-28, 15:18:55
GA102 womöglich mit 34.5 Mrd. Transistoren

https://mobile.twitter.com/KittyYYuko/status/1299201783437295621

mironicus
2020-08-28, 15:20:30
Das passt IMHO hinten und vorne nicht. 350 W für die 3090: Ok weil doppelter Speicher, mehr Einheiten, höherer Takt. Aber eine Karte mit dem Takt und den Einheiten der 2080 Ti und weniger Speicher mit 320 Watt? Nvidia müsste da ganz schön ins Klo gegriffen haben, wenn das stimmt.

Die RTX 3080 hat doch den gleichen Chip wie die 3090. Entsprechend schlechter und stromfressender sind die Chips halt und taugen halt noch als Restverwertung für die 3080. Zieht man die 30 Watt ab für den fehlenden Speicher könnte das so passen.

Und die RTX 2080 Ti könnte dann ein wenig effizienter sein.

HOT
2020-08-28, 15:25:04
GA102 womöglich mit 34.5 Mrd. Transistoren

https://mobile.twitter.com/KittyYYuko/status/1299201783437295621
Damit wäre er definitiv 7nm. Damit hätte der 55mio/mm², das packt man mit 8LPP für Hochleistungsdesign glaub ich nicht. Für 7nm ist das schon viel, da steckt schon 7LPP oder N7+ dahinter würd ich sagen. Zen2 packt das grade mal ohne I/O in N7 und N7P hat keine höhere Packdichte.

Lehdro
2020-08-28, 15:25:20
Die RTX 3080 hat doch den gleichen Chip wie die 3090. Entsprechend schlechter und stromfressender sind die Chips halt und taugen halt noch als Restverwertung für die 3080. Zieht man die 30 Watt ab für den fehlenden Speicher könnte das so passen.

Da fehlt aber erheblich mehr als nur Speicher, da fehlen halt mal Speicherkontroller und ein Haufen Shader. Und dafür nur 30W ist äußerst schmal.

Dural
2020-08-28, 15:25:42
Der Chip der 3080 ist ja zu über 20% deaktiviert. Mehr Rest Verwertung geht ja fast nicht.

Und am Takt Verhalten wird es sicher auch nicht liegen, die Prozesse sind heute eigentlich nicht mehr so anfällig auf grössere Takt Unterschiede wie früher.

Der Samsung Prozess müsste richtig schlecht sein.

MiamiNice
2020-08-28, 15:26:52
Vielleicht hat die 3080 320W PL und die 3090 350W PL. 3080 kann weiter boosten, 3090 hat mehr Einheiten.
Maybe um AMD in die Suppe zu spucken.
Wenn sich das so fortsetzt behalte ich vielleicht doch recht das sich BN mit der 3070 rumschlagen muss.

Dafür braucht es sichern einen 480 Radiator um das ganze anständig angehen zu können.

Gut das ich zwei davon im System habe ;)

Dural
2020-08-28, 15:27:59
Sage ich ja schon lange ;)

Aber der 2 Slot Kühler der 3080FE spricht was anderes ;)

Zergra
2020-08-28, 15:28:46
Vielleicht hat die 3080 320W PL und die 3090 350W PL. 3080 kann weiter boosten, 3090 hat mehr Einheiten.
Maybe um AMD in die Suppe zu spucken.
Wenn sich das so fortsetzt behalte ich vielleicht doch recht das sich BN mit der 3070 rumschlagen muss.

Eben, wenn man eben nicht über 350 Watt gehen möchte, wird die 3090 eben abgeriegelt. Dann kommen die 20% statt 30 auch ganz gut hin.

Dural
2020-08-28, 15:31:31
Die 3D Mark Werte sprechen dagegen, 20% mehr Rohpower ergeben 20% mehr Punkte (Nach den Gerüchten 8500 vs 10000 Punkte)

dargo
2020-08-28, 15:34:31
Das passt IMHO hinten und vorne nicht. 350 W für die 3090: Ok weil doppelter Speicher, mehr Einheiten, höherer Takt. Aber eine Karte mit dem Takt und den Einheiten der 2080 Ti und weniger Speicher mit 320 Watt? Nvidia müsste da ganz schön ins Klo gegriffen haben, wenn das stimmt. Ich würde da maximal 250 Watt erwarten. Evtl. sind die 220 Watt, die gerade bei der 3070 stehen, auch der korrekte Wert. :ugly:

Wenn in der 3080 die Gurken von GA102 landen die für Takt X wesentlich mehr Spannung brauchen (und bei der Anzahl an Shadern sind 100mV als Beispiel schon viel) dann kann das hinhauen.

Die 3D Mark Werte sprechen dagegen, 20% mehr Rohpower ergeben 20% mehr Punkte (Nach den Gerüchten 8500 vs 10000 Punkte)
Der nächste der das Video von Igor nicht gesehen hat. :crazy:

Daredevil
2020-08-28, 15:40:34
Ja gut, diese zwei Klassen Gesellschaft gab es ja bei der 2080ti auch.
Eine LowEnd 2080ti hat sich durchaus stark unterschieden von dem maximal Möglichen Takt des A-Chips.

10647pts Stock Palit B-Chip 250w
11404pts Stock Palit B-Chip OC Scanner 250W

11706pts Stock Palit A-Chip 250w
12187pts Stock Palit A-Chip OC Scanner 250w

10% sieht man ja sonst eher selten bei Karten mit dem "gleichen" Chip.
Die Palit Karten hatten zudem noch den selben Kühler, Stock knapp 10% war da schon ne Ansagt.

Nvidia hat auf jeden Fall ne große Spanne zwischen "guter" und "schlechter" DIEs. ^^

MiamiNice
2020-08-28, 15:44:39
Wird bei Ampere wohl ein Warnhinweis kommen wenn man den PT Regler auf +20% zieht? ;D
420 Watt über 2x 8 Pin wären schon irgendwie hart, imo.

Daredevil
2020-08-28, 15:46:44
Die Warnung, dass die Lichter in der Wohnung flackern könnten, wenn man den Regler nach rechts legt? :- )

Lowkey
2020-08-28, 15:47:19
Meine Wunschliste für die Reviewer:

- Intel VS AMD bei PCI-E 3.0 vs 4.0
- HDMI 2.1 Test am LG OLED bzw. ist es wirklich kompatibel?
- Effizienztest der neuen Plattform (gleicher Takt bei Turing und Ampere im Vergleich)
- Idealer Prozessor bzw. ab wann die FPS nicht einbrechen (vermutlich 6/12 ab 3600)
- Die Suche nach dem Spiel mit den größten Texturen um den Sinn von 24Gb zu finden.
- Unterschied zwischen RGB=on und RGB=off. Dürfte eventuell wieder 1% Leistung ausmachen.

-

dargo
2020-08-28, 15:59:09
Meine Wunschliste für die Reviewer:

- Intel VS AMD bei PCI-E 3.0 vs 4.0

Mit welcher Intel-Plattform willst du das denn machen? :freak:

MiamiNice
2020-08-28, 16:00:06
Lies nochmal ;):freak:

Lehdro
2020-08-28, 16:00:16
420 Watt über 2x 8 Pin wären schon irgendwie hart, imo.
Wieso?

Ein 8 Pin kann spezifiziert bei 30°C 384W ab - du hast zwei davon. Da ist also eine dermaßen hohe Sicherheitsmarge verbaut, da brauchst du dir keine Sorgen machen. Der neue NV 12 Pin kann übrigens "nur" 540W bei 30°C, also sogar weniger als 2x 8 Pin.

Praxisbeispiel: Die GTX 480 hatte 1x 6 Pin und 1x 8 Pin und da gab es auch nie Probleme, trotz >400W bei OC und Furmark.

Daredevil
2020-08-28, 16:20:28
Hatten wir das schon?
NVIDIA GeForce RTX 3090 and GeForce RTX 3080 specifications leaked
https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked

TheAntitheist
2020-08-28, 16:28:10
Meine Wunschliste für die Reviewer:

- Effizienztest der neuen Plattform (gleicher Takt bei Turing und Ampere im Vergleich)
-
Warum sollte man beim gleichen Takt testen? Eher bei gleichem Verbrauch oder bei gleichen fps.

Der Takt ist doch erst mal komplett egal

Adam D.
2020-08-28, 16:35:13
Auf Grundlage der Gerüchte mache ich mir am meisten Sorgen, dass die 3070 deutlich weiter von der 3080 zurückfällt als das noch bei Turing der Fall war. Im besten Falle könnte das bedeuten, dass die 3070 bezahlbarer wird. Realistischerweise wird es aber wohl primär heißen, dass man im 500-600€ Preissegment mit weniger Performance-Zuwachs rechnen muss und NV für das Enthusiastensegment höhere Preise ausrufen wird. Wenn die geleakte Transistorenzahl stimmt, dann wird GA102 ein absolutes Monster, das werden die sich fürstlich entlohnen lassen.

Daredevil
2020-08-28, 16:47:26
Also wenn es dann doch 7nm werden sollen gepaart mit den 24GB, sieht für mich das Lineup so aus, als würde man eine Karte einfach streichen ( momentan ) aus dem Sortiment.

3090 > Titan ~1499€
???? > RTX2080ti ~999€-1199€
3080> RTX2080s ~799€
3070> RTX2070s ~599€

Die ???? wird dann halt eine "3080ti" mit 20GB Speicher und einem dickeren Kühler als preislichen direkten Nachfolger der 2080ti und als Konter für BigNavi.

Heute würde so ein Lineup so aussehen:
Titan > 24GB
2080 > 8GB
2070 >8GB

Da fehlt noch eine Karte in der Mitte. Da "muss" es eine Ti geben, oder meinetwegen auch ne 3080@20GB.
10GB sind zu wenig, 24GB viel zu viel. Eigentlich sind schon 20 zu viel.... aber nun.

rentex
2020-08-28, 16:56:03
7nm oder 8nm machen die Sache nicht besser.

WedgeAntilles
2020-08-28, 16:59:05
Heute würde so ein Lineup so aussehen:
Titan > 24GB
2080 > 8GB
2070 >8GB

Da fehlt noch eine Karte in der Mitte. Da "muss" es eine Ti geben, oder meinetwegen auch ne 3080@20GB.

Dazu sagt Videocardz:
We have learned that board partners are also preparing a second variant of the RTX 3080 featuring twice the memory (20GB)

D.h. es ist wohl sicher, dass es Partnerkarten der 3080 mit 20GB geben wird.
Ich würde tippen, dass das auch für ne 16GB Version der 2070 zutrifft.

Es wird die aber halt nicht direkt zum Start als FE geben sondern ein bisschen später.

Dural
2020-08-28, 17:04:23
Auf Grundlage der Gerüchte mache ich mir am meisten Sorgen, dass die 3070 deutlich weiter von der 3080 zurückfällt als das noch bei Turing der Fall war. Im besten Falle könnte das bedeuten, dass die 3070 bezahlbarer wird. Realistischerweise wird es aber wohl primär heißen, dass man im 500-600€ Preissegment mit weniger Performance-Zuwachs rechnen muss und NV für das Enthusiastensegment höhere Preise ausrufen wird. Wenn die geleakte Transistorenzahl stimmt, dann wird GA102 ein absolutes Monster, das werden die sich fürstlich entlohnen lassen.

Wie kommst du darauf? Es sind ja noch gar keine Daten der 3070 bekannt.

Dazu die 2070 ja den TU106 drauf hatte, die 3070 jetzt angeblich den GA104

7nm oder 8nm machen die Sache nicht besser.

Zwischen 7nm und 8nm liegt doch sehr viel, da der 8nm Prozess nur einer verbesserter 10nm Prozess ist.

dildo4u
2020-08-28, 17:07:57
Auf Grundlage der Gerüchte mache ich mir am meisten Sorgen, dass die 3070 deutlich weiter von der 3080 zurückfällt als das noch bei Turing der Fall war. Im besten Falle könnte das bedeuten, dass die 3070 bezahlbarer wird. Realistischerweise wird es aber wohl primär heißen, dass man im 500-600€ Preissegment mit weniger Performance-Zuwachs rechnen muss und NV für das Enthusiastensegment höhere Preise ausrufen wird. Wenn die geleakte Transistorenzahl stimmt, dann wird GA102 ein absolutes Monster, das werden die sich fürstlich entlohnen lassen.
Die Karte ist perfekt um die 300 Watt Monster zu umgehen, ich freue mich schon das ganze geht seit einiger Zeit nur nach oben ich hab mich schon damit abgefunden, das es vermutlich über 200 Watt geht von meiner 150 Watt 1070.

Dural
2020-08-28, 17:16:25
Die 1070 hatte aber auch ein Teildeaktiverten mini Chip drauf, der vergleich mit 400mm2 Chips aufwärts ist eher unfair.



Lest mal was da Jensen über Fertigung und TSMC sagt, und das war vor wenigen Tagen:

https://seekingalpha.com/article/4369838-nvidia-corporation-nvda-ceo-jensen-huang-on-q2-2021-results-earnings-call-transcript?page=10

Adam D.
2020-08-28, 17:17:11
Wie kommst du darauf? Es sind ja noch gar keine Daten der 3070 bekannt.

Dazu die 2070 ja den TU106 drauf hatte, die 3070 jetzt angeblich den GA104
Ich schrieb ja auch Gerüchte.

Wir haben womöglich kleineres Interface, weniger Speicher (hatten wir bei Turing nicht), im Verhältnis wahrscheinlich nochmal weniger Recheneinheiten (wird ja mit 2944 Shadern rumspekuliert, damit hätte die 3080 fast 50% mehr im Vergleich zu den 33% bei Turing). Klar, wissen tut man nix, aber die Aussicht gefällt mir nicht.

prinz_valium_2
2020-08-28, 17:45:46
Ich denke die 3060 wird deutlich interessanter als 3070 diesmal

Alle anderen greifen besser zur 3080 oder Big RDNA

TheGood
2020-08-28, 17:50:43
Wie alt seit ihr?

Was habt ihr für ein Gefühl mit welchen Milliarden neue Chips Entwickelt werden? :rolleyes:


.
Wir sind so alt um zu verstehen dass knapp 40% Marge (da sind die Entwicklungskosten schon abgezogen) NICHT dem Kunden zugute kommt ;)
Leider verstehen das immer weniger Leute. Woran das wohl liegt?

TheGood
2020-08-28, 17:52:25
Das passt IMHO hinten und vorne nicht. 350 W für die 3090: Ok weil doppelter Speicher, mehr Einheiten, höherer Takt. Aber eine Karte mit dem Takt und den Einheiten der 2080 Ti und weniger Speicher mit 320 Watt? Nvidia müsste da ganz schön ins Klo gegriffen haben, wenn das stimmt. Ich würde da maximal 250 Watt erwarten. Evtl. sind die 220 Watt, die gerade bei der 3070 stehen, auch der korrekte Wert. :ugly:

MfG
Raff

Das Kühlerdesign sagt leider was anderes.

dildo4u
2020-08-28, 17:55:55
Das passt IMHO hinten und vorne nicht. 350 W für die 3090: Ok weil doppelter Speicher, mehr Einheiten, höherer Takt. Aber eine Karte mit dem Takt und den Einheiten der 2080 Ti und weniger Speicher mit 320 Watt? Nvidia müsste da ganz schön ins Klo gegriffen haben, wenn das stimmt. Ich würde da maximal 250 Watt erwarten. Evtl. sind die 220 Watt, die gerade bei der 3070 stehen, auch der korrekte Wert. :ugly:

MfG
Raff
Hat die 3090 wirklich zwei mal so viele Vram Module oder sind die einfach größer?Der Verbrauch vom Speicherinterface sollte sind kaum unterscheiden wenn die 3090 einfach nur ein zusätzliches 4GB Modul hat.

Nuada
2020-08-28, 17:56:27
Ich denke die 3060 wird deutlich interessanter als 3070 diesmal

Alle anderen greifen besser zur 3080 oder Big RDNA

10Gb sind einfach viel zu wenig ff xv braucht schon fast 13 Resi2 11,5 usw, wenn man es hochstellt, es gibt gar keine Alternative. und ohne DLSS 2.0-3.0 ist auch keine alternative da sieht 1080p<4k teils besser aus als natives 4k da bleibt meiner Meinung nach nur die 3090 oder 3080 20gb.

sChRaNzA
2020-08-28, 18:11:12
10Gb sind einfach viel zu wenig ff xv braucht schon fast 13 Resi2 11,5 usw, wenn man es hochstellt, es gibt gar keine Alternative. und ohne DLSS 2.0-3.0 ist auch keine alternative da sieht 1080p<4k teils besser aus als natives 4k da bleibt meiner Meinung nach nur die 3090 oder 3080 20gb.

Man könnte meinen Firmen spekulieren auf so etwas. ;)

stinki
2020-08-28, 18:17:13
Hat die 3090 wirklich zwei mal so viele Vram Module oder sind die einfach größer?Der Verbrauch vom Speicherinterface sollte sind kaum unterscheiden wenn die 3090 einfach nur ein zusätzliches 4GB Modul hat.

Ja, die 3090 muss 24 Speicherchips (24GB) haben da es GDDR6X momentan nur als 8GBit Chips gibt.
Die 3080 hat nur 10 Chips (10GB).
Die 16GBit GDDR6X Chips stehen erst für nächstes Jahr auf der Roadmap und sollen dann unter umständen bis 24Gbps verfügbar sein.

Daraus folgt dann auch, dass eine Titan mit 48GB GDRR6X erst nächstes Jahr kommen kann oder auf 16Gbps 16Gbit GDDR6 Chips setzen muss.

igg
2020-08-28, 18:26:12
Auf Grundlage der Gerüchte mache ich mir am meisten Sorgen, dass die 3070 deutlich weiter von der 3080 zurückfällt als das noch bei Turing der Fall war.
Auch meine Sorge :-( bis zur AMD Karte im Q4 werden die Preise ohnehin unverschämt sein.

Leonidas
2020-08-28, 18:31:12
Auf Grundlage der Gerüchte mache ich mir am meisten Sorgen, dass die 3070 deutlich weiter von der 3080 zurückfällt als das noch bei Turing der Fall war.


Ja, das wird ein Problem. Der GA104-Chip ist faktisch ein Wiedergänger des TU104-Chips. Sprich, es gibt in dieser Preisklasse nicht mehr HW-Einheiten, sondern allein die Ampere-IPC oben drauf. Die ist nicht schlecht, könnte aber allein vielleicht zu wenig sein.

ShinyMcShine
2020-08-28, 18:45:10
Ja, das wird ein Problem. Der GA104-Chip ist faktisch ein Wiedergänger des TU104-Chips. Sprich, es gibt in dieser Preisklasse nicht mehr HW-Einheiten, sondern allein die Ampere-IPC oben drauf. Die ist nicht schlecht, könnte aber allein vielleicht zu wenig sein.

Wenn's annähernd 2080Ti Leistung (später dann mit 16GB) für weniger als 700€ gibt, ist da trotzdem nicht viel dran verkehrt, finde ich... :)

nordic_pegasus
2020-08-28, 18:46:30
Ja, das wird ein Problem. Der GA104-Chip ist faktisch ein Wiedergänger des TU104-Chips. Sprich, es gibt in dieser Preisklasse nicht mehr HW-Einheiten, sondern allein die Ampere-IPC oben drauf. Die ist nicht schlecht, könnte aber allein vielleicht zu wenig sein.

der volle TU104 ist in der RTX2080Super gelandet, die RTX3080 bekommt einen Cut-Down GA102 (ursprünglich GA103?). Darum werden die direkten Nachfolger mehr Shader bekommen, dass der Unterbau ein anderer Chip ist, wird doch die meisten Endkunden nicht interessieren.

Raff
2020-08-28, 18:49:52
Hat die 3090 wirklich zwei mal so viele Vram Module oder sind die einfach größer?Der Verbrauch vom Speicherinterface sollte sind kaum unterscheiden wenn die 3090 einfach nur ein zusätzliches 4GB Modul hat.

Du, keine Ahnung. Ich beziehe mich, wie alle hier, nur auf die letzten Gerüch(t)e aus der Küche.

Ja, das wird ein Problem. Der GA104-Chip ist faktisch ein Wiedergänger des TU104-Chips. Sprich, es gibt in dieser Preisklasse nicht mehr HW-Einheiten, sondern allein die Ampere-IPC oben drauf. Die ist nicht schlecht, könnte aber allein vielleicht zu wenig sein.

Gibt's zu den Pro-Takt-Verbesserungen schon Gerüchte, die ich übersehen habe? :)

MfG
Raff

maximus_hertus
2020-08-28, 18:51:56
Vielleicht wird die 3070er dann als "Preisbrecher" verkauft, für z.B. 499 Euro. Schneller als alles von AMD (derzeit) und sogar schneller als eine 2080 Super.

Also mehr fps als eine 2080S, die ganzen "new Gen Goodies" und dann zum Preis bzw. günstiger als die 2070S (UVP).

Die 3080 ist dann deutlich schneller, aber mit 800+ Euro auch eine ganz andere Preisliga.

Sobald Big NAvi kommt, kann man die 80er Richtung 700 Euro schieben und hat ein rundes Protfolio (im Bereich 500+ Euro).

Warten wir Dienstag ab, ist ja nicht mehr lange hin.

BlacKi
2020-08-28, 18:59:04
Warten wir Dienstag ab, ist ja nicht mehr lange hin.
so isses. hinterher kann man immernoch diskutieren, aber über die preisdiskussion im vorfeld so intensiv zu diskutieren ist bescheuert.

MiamiNice
2020-08-28, 19:23:40
das letzte Igor-Video hast du anscheinend noch nicht gesehen. :)


Doch jetzt. Verstehe den Zusammenhang aber nicht. Was meint ihr den vorher der Typ schon vor über einen Jahr die richtigen Specs her hatte? Von einem Boardpartner ..? NV wird intern sicher einen Treiber haben ohne Sperren für dies und das. Und genau daher hat der Typ seine Infos. Ob nun seine Mama bei NV putzt, ein Kumpel dort arbeitet oder ähnliches sei mal dahingestellt. Was ihr und Igor zu den 10XXX Punkten faselt entbehrt jeder Grundlage. So viel richtige Infos wie der Typ geworfen hat ... ernsthaft.

Thunder99
2020-08-28, 19:27:48
Bei den bisherigen Daten scheinen die Gerüchte um GA103 nicht so abwägig.

Schaut euch das Lineup von früher an und heute. Grafikkarten-Namen haben schon mehrmals gewechselt mit dem Chip. Daher ist es jetzt wieder notwendig, die 80er mit dem großen Chip zu bringen, wenn der Kleine zu wenig Bums hat. Klingt plausibel.

Screemer
2020-08-28, 19:27:48
Vielleicht wird die 3070er dann als "Preisbrecher" verkauft, für z.B. 499 Euro. Schneller als alles von AMD (derzeit) und sogar schneller als eine 2080 Super.

Also mehr fps als eine 2080S, die ganzen "new Gen Goodies" und dann zum Preis bzw. günstiger als die 2070S (UVP).

Die 3080 ist dann deutlich schneller, aber mit 800+ Euro auch eine ganz andere Preisliga.

Sobald Big NAvi kommt, kann man die 80er Richtung 700 Euro schieben und hat ein rundes Protfolio (im Bereich 500+ Euro).

Warten wir Dienstag ab, ist ja nicht mehr lange hin.
Da würd ich dann sogar wieder nv kaufen. Obwohl mir 8gb eigentlich zu wenig sind.

igg
2020-08-28, 19:35:30
Warten wir Dienstag ab, ist ja nicht mehr lange hin.
Kommen da schon vollwertige Reviews inkl. Benchmarks und Preisen oder lediglich der Architektur-Launch zum Gaming-Ampere?

Dural
2020-08-28, 19:36:14
Naja wenn die 35milliarden transistoren für die 84cu stimmen ist das teil richtig fett pro einheit. Da müssen massive verbesserungen kommen, ziemlich sicher auch im rt bereich.

MiamiNice
2020-08-28, 19:53:08
Eigentlich schade den damit wird NV wieder die Preise diktieren können. BN ist dann maximal Mid Range.

Linmoum
2020-08-28, 19:54:15
Naja wenn die 35milliarden transistoren für die 84cu stimmen ist das teil richtig fett pro einheit. Da müssen massive verbesserungen kommen, ziemlich sicher auch im rt bereich.Deutliches Performanceplus wird es gerade bei Raytracing geben. Jensen wird bestimmt schon eine Steigerung für "it just works" gefunden haben. Irgendwie muss man den Leuten die Dinger ja schmackhaft machen bei dem Verbrauch (und womöglich der in Relation dafür nur moderat gestiegenen Rasterperformance).

Eigentlich schade den damit wird NV wieder die Preise diktieren können. BN ist dann maximal Mid Range.
Du wirst noch aufwachen. ;)

Hauwech
2020-08-28, 20:00:10
Naja wenn die 35milliarden transistoren für die 84cu stimmen ist das teil richtig fett pro einheit. Da müssen massive verbesserungen kommen, ziemlich sicher auch im rt bereich.

Da ist bestimmt der Co-Prozessor mit eingerechnet den sich einige wünschen ;D

r3ptil3
2020-08-28, 20:08:06
Zotac RTX 3080?

https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-3090-Trinity.jpg

Selten so eine dicke Backplate gesehen.

https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured

Und weiter:

https://cdn.videocardz.com/1/2020/08/zotacgaming_ampere_vga_firestorm.jpg
https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30-series-3.jpg
https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30-series-2.jpg
https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30-series-4.jpg
https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30-series-1.jpg

dargo
2020-08-28, 20:10:14
Eigentlich schade den damit wird NV wieder die Preise diktieren können. BN ist dann maximal Mid Range.
Dann ist also deine 1080TI Ende September lowend? :freak:

Zotac RTX 3080?

https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-3090-Trinity.jpg

Selten so eine dicke Backplate gesehen.

Das ist keine Backplate sondern nur viel unnützer Kunststoff. Sowas in der Art gabs schon bei XFX.
https://geizhals.de/xfx-radeon-rx-5700-xt-thicc-ii-rx-57xt8dfd6-a2115913.html?hloc=de

War dann eher kontraproduktiv... Wärmestau.

Neosix
2020-08-28, 20:17:13
Bin etwas verwirrt, im Vorfeld gab es Gerüchte zu 3070 und 70TI, aber noch ist da nix bestätigt oder?

gedi
2020-08-28, 20:20:11
Eigentlich schade den damit wird NV wieder die Preise diktieren können. BN ist dann maximal Mid Range.

Worauf stützt du diese These? Lisa hat diesmal den Längeren und das ohne Lederjacke und obwohl sie ne Frau ist. Jensen lutscht für die nächste Zukunft AMD-Karten!

Ghost1nTh3GPU
2020-08-28, 20:32:08
https://cdn.videocardz.com/1/2020/08/zotacgaming_ampere_vga_firestorm.jpg[/URL]


4321Mhz Boostclock? Wenn die ALUs auf fast 4GHz laufen, erklärt dass so einiges.

gedi
2020-08-28, 20:36:40
Hotclocks? Sind wir wieder im G80 Zeitalter angekommen? Mein Gott muss Jensen der Arsch auf Grundeis gehen

Schnoesel
2020-08-28, 20:37:22
Zotac RTX 3080?

https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30-series-3.jpg


Da sehe ich 2x 8 Pin?!

Linmoum
2020-08-28, 20:38:24
https://live.staticflickr.com/65535/50252830021_9c79841274_o.gif

r3ptil3
2020-08-28, 20:39:38
Zotac RTX 3000 Lineup:
https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30-Series-1200x351.jpg

GeForce RTX 3090 AMP Extreme
GeForce RTX 3090 Trinity HoLo
GeForce RTX 3090 Trinity
GeForce RTX 3080 AMP Extreme
GeForce RTX 3080 Trinity HoLo
GeForce RTX 3080 Trinity
GeForce RTX 3070 Twin Edge HoLo
GeForce RTX 3070 Twin Edge

https://videocardz.com/newz/zotac-geforce-rtx-3090-trinity-pictured

https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30.jpg

nordic_pegasus
2020-08-28, 20:40:19
auf den Fotos sieht man am PCI-Bracket 3x Display-Port und 1x HDMI... wo ist denn der tolle USB-C Anschluss gelandet? Begräbt Nvidia den wieder direkt mit Turing?

gedi
2020-08-28, 20:46:06
Da sehe ich 2x 8 Pin?!

Reicht doch für ne 3080 dicke. 375W zu 320W TGP

Ex3cut3r
2020-08-28, 20:46:07
Vielleicht wird die 3070er dann als "Preisbrecher" verkauft, für z.B. 499 Euro. Schneller als alles von AMD (derzeit) und sogar schneller als eine 2080 Super.

Also mehr fps als eine 2080S, die ganzen "new Gen Goodies" und dann zum Preis bzw. günstiger als die 2070S (UVP).

Die 3080 ist dann deutlich schneller, aber mit 800+ Euro auch eine ganz andere Preisliga.

Sobald Big NAvi kommt, kann man die 80er Richtung 700 Euro schieben und hat ein rundes Protfolio (im Bereich 500+ Euro).

Warten wir Dienstag ab, ist ja nicht mehr lange hin.

Schön und gut, aaaaaber was bringt es wenn man wieder mit 8GB sitzen bleibt? Next Gen Titeln mit RT und 8GB VRAM? Viel Spaß damit. ;D

Eine 3070 die schneller ist als eine RTX 2080 Ti + mehr RT Power aber mit nur 8GB VRAM ist einfach nur Lächerlich. Das wurde ich niemanden empfehlen, das wird der Speicherkrüppel schlechthin der aktuellen Gen werden. Wenn eine Version mit 16GB kommt, habe ich nix gesagt though. ^^

Sunrise
2020-08-28, 20:46:22
4321Mhz Boostclock? Wenn die ALUs auf fast 4GHz laufen, erklärt dass so einiges.
1234
4321

Linmoum
2020-08-28, 20:49:10
Platzhalter halt. Passt ja auch, wenn wie Igor sagt, die AiB selbst noch nicht einmal wissen, wie hoch die Dinger takten (werden).

gedi
2020-08-28, 20:49:30
Schön und gut, aaaaaber was bringt es wenn man wieder mit 8GB sitzen bleibt? Next Gen Titeln mit RT und 8GB VRAM? Viel Spaß damit. ;D

Eine 3070 die schneller ist als eine RTX 2080 Ti + mehr RT Power aber mit nur 8GB VRAM ist einfach nur Lächerlich. Das wurde ich niemanden empfehlen, das wird der Speicherkrüppel schlechthin der aktuellen Gen werden.

Exakt, außer DLSS ist per default aktiviert.!

igg
2020-08-28, 20:50:06
Eine 3070 die schneller ist als eine RTX 2080 Ti + mehr RT Power aber mit nur 8GB VRAM ist einfach nur Lächerlich. Das wurde ich niemanden empfehlen, das wird der Speicherkrüppel der aktuellen Gen werden.Selbst meine 1070 hat 8 GB. Zwischen der 1070 und der 3070 liegt allerdings auch ein erheblicher Anstieg der RAM Preise. Mittlerweile dürfte aber wieder das Preisniveau von 07/2016 erreicht sein?

Edit: Gerade mal geschaut, mein RAM ist aktuell immer noch teurer als 07/2016. Kein gutes Vorzeichen :-(

dildo4u
2020-08-28, 20:51:03
Schön und gut, aaaaaber was bringt es wenn man wieder mit 8GB sitzen bleibt? Next Gen Titeln mit RT und 8GB VRAM? Viel Spaß damit. ;D

Eine 3070 die schneller ist als eine RTX 2080 Ti + mehr RT Power aber mit nur 8GB VRAM ist einfach nur Lächerlich. Das wurde ich niemanden empfehlen, das wird der Speicherkrüppel schlechthin der aktuellen Gen werden. Wenn eine Version mit 16GB kommt, habe ich nix gesagt though. ^^
Bandbreite der 3070 ist angeblich im Bereich der 2080 Super, dort könnte die Leistung liegen.

Ex3cut3r
2020-08-28, 20:51:37
Selbst meine 1070 hat 8 GB. Zwischen der 1070 und der 3070 liegt allerdings auch ein erheblicher Anstieg der RAM Preise. Mittlerweile dürfte aber wieder das Preisniveau von Q3 2016 erreicht sein?

Musste es eigentlich, wie gesagt mit 8GB Only erwarte ich eine Super Version nächstes Jahr mit 16GB. Die RTX 2060 kam ja auch tatsächlich erstmal mit 6GB Only. Ein Jahr später musste Nvidia doch nachbessern. Mit 8GB.

gedi
2020-08-28, 20:53:08
Platzhalter halt. Passt ja auch, wenn wie Igor sagt, die AiB selbst noch nicht einmal wissen, wie hoch die Dinger takten (werden).

Sieht mir aber nicht nach Platzhalter aus. Ist nen fertiges Tool mit ner funktionierenden Karte. Sieht für mich nach Hotclock aus in Bezug der ALUs

Thunder99
2020-08-28, 20:53:37
PCB Länge..., Vodoo5 6000 reloaded? ;D

rentex
2020-08-28, 20:55:15
Dicke Dinger��

Linmoum
2020-08-28, 20:55:40
Sieht mir aber nicht nach Platzhalter aus. Ist nen fertiges Tool mit ner funktionierenden Karte. Sieht für mich nach Hotclock aus in Bezug der ALUsDas ist einfach nur ein (Marketing-)Bild. Für sowas brauchst du keine fertige Karte.

Aber siehe Sunrise. GPU Clock 1234MHz, Boost Clock 4321MHz. Sieht total nicht nach Fantasiezahlen aus. ;D

TheAntitheist
2020-08-28, 20:55:58
10Gb sind einfach viel zu wenig ff xv braucht schon fast 13 Resi2 11,5 usw, wenn man es hochstellt, es gibt gar keine Alternative. und ohne DLSS 2.0-3.0 ist auch keine alternative da sieht 1080p<4k teils besser aus als natives 4k da bleibt meiner Meinung nach nur die 3090 oder 3080 20gb.
https://tpucdn.com/review/final-fantasy-15-benchmark-performance-test/images/vram.png

da sieht man doch eindeutig das nicht die Auflösung der VRAM "verschwender" ist, sondern der Content.

Ex3cut3r
2020-08-28, 20:57:37
https://tpucdn.com/review/final-fantasy-15-benchmark-performance-test/images/vram.png

da sieht man doch eindeutig das nicht die Auflösung der VRAM "verschwender" ist, sondern der Content.

Schau dir mal HZD an. Laut Usern die eine Radeon VII haben, verbraucht das Game bei denen 15GB. ;D

Lawmachine79
2020-08-28, 20:57:54
Dann ist also deine 1080TI Ende September lowend?
Wissen wir nicht. Der Beweis dass AMD etwas schnelleres als eine 1080TI bauen kann steht ja noch aus und wird auch nach der Vorstellung der übernächsten Highendkarte nach der 1080TI erstmal noch ausstehen. Bei AMD hängen bestimmt noch Kalender von 2017, dann schämen sich die Angestellten nicht so.

Habe mir vorhin alte Reviews angesehen. Eine GTX275 hat zum Release 220 Euro gekostet ;D.

Rampage 2
2020-08-28, 21:01:46
Ich schrieb ja auch Gerüchte.

Wir haben womöglich kleineres Interface, weniger Speicher (hatten wir bei Turing nicht), im Verhältnis wahrscheinlich nochmal weniger Recheneinheiten (wird ja mit 2944 Shadern rumspekuliert, damit hätte die 3080 fast 50% mehr im Vergleich zu den 33% bei Turing). Klar, wissen tut man nix, aber die Aussicht gefällt mir nicht.

Gelten die 2944 SPs (46 SMs) nicht für die Salvage-Version (Abfallprodukt "3070" oder "3060 Ti") und die "3070 Ti" bekommt den vollen Chip mit 48 SMs? :confused:

Wenn das Ding nur 15-20% schneller ist als eine 2080S, wird Nvidia Schwierigkeiten bekommen, dafür 599$ berappen zu wollen...

R2

Ex3cut3r
2020-08-28, 21:03:09
Gelten die 2944 SPs (46 SMs) nicht für die Salvage-Version (Abfallprodukt "3070" oder "3060 Ti") und die "3070 Ti" bekommmt den vollen Chip mit 48 SMs? :confused:

Wenn das Ding nur 15-20% schneller ist als eine 2080S, wird Nvidia Schwierigkeiten bekommen, dafür 599$ berappen zu wollen...

R2

Von einer 2080 Ti rechne ich mit 30% mehr für die 3070. Alles andere macht keinen Sinn, dann kann Nvidia Ampere gleich begraben.

Birdman
2020-08-28, 21:04:22
hmpf, die Zotac 3080er Kühllösung bestätigt die Gerüchte dass auch die 80er gute Stromfresser werden.
Falls nVidia nicht wirklich (35% Gerüchte anyone?) ein grosses Performance+ zu Turing hinlegt, wird sowas für reichtlich negative Vibes sorgen...

The_Invisible
2020-08-28, 21:07:00
https://cdn.videocardz.com/1/2020/08/ZOTAC-RTX-30.jpg

Was für ein Brocken, da ist eine Stütze ja schon Pflicht sonst hängt das Teil in einem Monat so 45° runter ; )

Langlay
2020-08-28, 21:07:41
Schau dir mal HZD an. Laut Usern die eine Radeon VII haben, verbraucht das Game bei denen 15GB. ;D

Bei mir in 1440p sind es zwischen 11-14GB die HZD so belegt im Schnitt. Wobei RDR2 allerdings z.b. auch so 10-12GB VRAM belegen konnte in 1440p.

Ex3cut3r
2020-08-28, 21:09:00
Bei mir in 1440p sind es zwischen 11-14GB die HZD so belegt im Schnitt. Wobei RDR2 allerdings z.b. auch so 10-12GB VRAM belegen konnte in 1440p.

Und das sind Games die nichtmal RT haben. Und Nvidia will die 3070 stand jetzt schon wieder mit 8GB anbieten. Was soll so eine Verarsche seriously?

MiamiNice
2020-08-28, 21:10:10
Schön und gut, aaaaaber was bringt es wenn man wieder mit 8GB sitzen bleibt? Next Gen Titeln mit RT und 8GB VRAM? Viel Spaß damit. ;D

Eine 3070 die schneller ist als eine RTX 2080 Ti + mehr RT Power aber mit nur 8GB VRAM ist einfach nur Lächerlich. Das wurde ich niemanden empfehlen, das wird der Speicherkrüppel schlechthin der aktuellen Gen werden. Wenn eine Version mit 16GB kommt, habe ich nix gesagt though. ^^

Die Karten werden doch eine Tensor Core gestüztze Kompression bieten. Vielleicht reichen die 8Gb tatsächlich für alles.

Ex3cut3r
2020-08-28, 21:11:01
Die Karten werden doch eine Tensor Core gestüztze Kompression bieten. Vielleicht reichen die 8Gb tatsächlich für alles.

:biggrin: Bist du im Marketing von Nvidia zuständig? Oder was soll so eine vollkommen an den Haaren herbei gezogene Theorie? :biggrin:

Thunder99
2020-08-28, 21:14:32
Belegen ist nicht gleich brauchen. Aber das zeigen ja nur Tests mit den Spielen wie viel effektiv gebraucht werden für flüssiges Spielen ;)

Wenn ich eine Karte kaufen sollte muss sie >11GB haben, aus Prinzip :wink:

SKYNET
2020-08-28, 21:15:10
Die Karten werden doch eine Tensor Core gestüztze Kompression bieten. Vielleicht reichen die 8Gb tatsächlich für alles.

spätestens wenn du FFXV anwirfst, war das... damit bekommst unter 4k und high res pack auch die 16GB der VII voll... ;D

gedi
2020-08-28, 21:15:14
Das ist einfach nur ein (Marketing-)Bild. Für sowas brauchst du keine fertige Karte.

Aber siehe Sunrise. GPU Clock 1234MHz, Boost Clock 4321MHz. Sieht total nicht nach Fantasiezahlen aus. ;D


Abwarten. Unbedingt hoch scheint Ampere nicht zu Takten. Es sollte wohl klar sein, dass NV wie auch AMD weiß wohin die Reise geht. Und AMD ist hier in der Winner Situation.warten was kommt und dann entsprechend CUs per VBios freizuschalten. Bei 505mm^2 sind 112 drin. Der Vollausbau für den PC werden wohl 96CUs sein. Die ersten haben wohl nicht mal nen Lasercut. Ich erinnere an einen Post von Lisa, dass man weder Intel noch NV unterschätzt. Und da war noch N10 aktuell.

MiamiNice
2020-08-28, 21:18:36
:biggrin: Bist du im Marketing von Nvidia zuständig? Oder was soll so eine vollkommen an den Haaren herbei gezogene Theorie? :biggrin:

Ich erinnere mich einfach an die News von Leo dazu ...
Spekuliert wurde 20-40% höhere Kompression durch das Feature.

SKYNET
2020-08-28, 21:19:25
Abwarten. Unbedingt hoch scheint Ampere nicht zu Takten. Es sollte wohl klar sein, dass NV wie auch AMD weiß wohin die Reise geht. Und AMD ist hier in der Winner Situation.warten was kommt und dann entsprechend CUs per VBios freizuschalten. Bei 505mm^2 sind 112 drin. Der Vollausbau für den PC werden wohl 96CUs sein. Die ersten haben wohl nicht mal nen Lasercut. Ich erinnere an einen Post von Lisa, dass man weder Intel noch NV unterschätzt. Und da war noch N10 aktuell.


wenn nen 96CU navi kommt, oder evtl. sogar noch dicker... naja, mal sehen, evtl. macht AMD auch nen full-in mit ner "limited" version wo dann tatsächlich alles aktiv ist, nur um zu zeigen "wir können die schnellste wenn wir wollen"... wäre natürlich nen fetter tritt in die fresse von lisa an die lederjacke...

aber eines weiss ich jetzt schon: endlich wird es mal wieder von beiden herstellern karten bzw. leistung auf augenhöhe geben, hoffe auf einen "preiskampf"... kann nur gut für uns sein... egal ob lager rot, oder lager grün.

Ex3cut3r
2020-08-28, 21:23:34
Ich erinnere mich einfach an die News von Leo dazu ...
Spekuliert wurde 20-40% höhere Kompression durch das Feature.

Das hat aber nix mit dem VRAM zu tun, sondern die Kompression dient allein dazu die effektive Bandbreite zu steigern.

dargo
2020-08-28, 21:23:56
Bandbreite der 3070 ist angeblich im Bereich der 2080 Super, dort könnte die Leistung liegen.
Wieso angeblich? Siehst du doch anhand der Daten, dass es 512GB/s sind. Ergo knapp über 2080S Bandbreite.

gedi
2020-08-28, 21:34:00
Ich denke, die 70 liegt relativ nah an ner 2080Ti, oder genau dort wo N10 unter Wasser liegt - duck und weg

Nuada
2020-08-28, 21:34:59
https://tpucdn.com/review/final-fantasy-15-benchmark-performance-test/images/vram.png

da sieht man doch eindeutig das nicht die Auflösung der VRAM "verschwender" ist, sondern der Content.


Der Fehler bei dir ist, ich habe es mit 2 RTX Titans SLI on und alles max gespielt damit hatte ich 60-95 FPS dadurch verbraucht man auch deutlich mehr vram als wenn man eine 1080ti benutzt die auf 30-40 fps rumdümpelt. Das max, was ich auf dem Tacho hatte, war 13,8 vram (wird schon knapp mit AMD BN :-) )


Du musst dir einfach nur mal ein YouTube Video anschauen, wo einer sli benutzt da wirst du sehen, dass das Game direkt bevor es fertig geladen hat schon auf 10-11 vram hoch geht.

Selbst nach einer Windows neu Installation hat sich nichts dran verändert

https://www.youtube.com/watch?v=ti-PZhzaF1Y

Ex3cut3r
2020-08-28, 21:45:35
Final Fantasy ist halt ein Speicherfresser wie HZD, solche Games gibt es einmal im Jahr, die komplett an den gängigen Speichermengen der User (6 und 8GB) vorbei gehen.

crux2005
2020-08-28, 21:48:08
Die Zotac 3090 ist fett: https://www.techpowerup.com/271506/zotac-geforce-rtx-3090-and-rtx-3080-trinity-holo-custom-design-graphics-card-rendered 3x 8Pin. (kein 12 Pin wie bei FE)

https://i.imgur.com/FM5AQqP.jpg

Nuada
2020-08-28, 21:51:00
Final Fantasy ist halt ein Speicherfresser wie HZD, solche Games gibt es einmal im Jahr, die komplett an den gängigen Speichermengen der User (6 und 8GB) vorbei gehen.

Das stimmt schon... aber denke daran XSX + PS5 kommen das wird sich dadurch schneller ändern als man glaubt.

Ich bin gespannt, wo Cyberpunk stehen wird. Ob da die 10gb der 3080 reichen mit RT und DLSS das will ich mal erstmal sehen, bevor ich es glaube.

gedi
2020-08-28, 21:51:03
FF ist echt ein Härtefall.

BTW. mit DLSS sollte doch der VRAM-Verbrauch im Vergleich zur nativ ausgewählten Auflösung sinken?!

why_me
2020-08-28, 21:53:22
Zu den 35B Transistoren:

Wenn man dem Twitter weiter folgt, dann klingt das eher geraten.

Würde da eher tippen er hat die Transistoren von A100/128 * 84 gerechnet = 35,4 er schreibt 34,5 passt einfach zu gut.

BlacKi
2020-08-28, 21:54:42
Die Zotac 3090 ist fett: https://www.techpowerup.com/271506/zotac-geforce-rtx-3090-and-rtx-3080-trinity-holo-custom-design-graphics-card-rendered 3x 8Pin. (kein 12 Pin wie bei FE)

https://i.imgur.com/FM5AQqP.jpg
ich glaube unter der backplate steckt eine heatpipe^^

aber hallo, wie lang sind denn diese oschis? 35cm?

mir gefällt die größe der lüfter, endlich keine kleinen 80mm lüfter mehr.

Blediator16
2020-08-28, 21:55:17
Wissen wir nicht. Der Beweis dass AMD etwas schnelleres als eine 1080TI bauen kann steht ja noch aus und wird auch nach der Vorstellung der übernächsten Highendkarte nach der 1080TI erstmal noch ausstehen. Bei AMD hängen bestimmt noch Kalender von 2017, dann schämen sich die Angestellten nicht so.

Habe mir vorhin alte Reviews angesehen. Eine GTX275 hat zum Release 220 Euro gekostet ;D.

Hättest du dir die 5700 Reviews zu release angeschaut, dann hättest du gesehen, dass die 5700XT sehr wohl so schnell oder schneller als eine 1080TI ist als Midrange Karte.

BlacKi
2020-08-28, 21:56:46
Hättest du dir die 5700 Reviews zu release angeschaut, dann hättest du gesehen, dass die 5700XT sehr wohl so schnell oder schneller als eine 1080TI ist als Midrange Karte.
und langsamer auch:freak:

Linmoum
2020-08-28, 21:58:11
Echt sportlich.

https://cdn.videocardz.com/1/2020/08/NVIDIA-GA102-GPU-RTX-3080.jpg

mironicus
2020-08-28, 21:58:24
Colorful RTX 3090 Neptune D : 14,999¥ (about $2,180)
Colorful RTX 3090 Vulcan X : 15,999¥ (about $2,330)
Colorful RTX 3090 Vulcan X-OC : 16,999¥ (about $2,470)
ASUS ROG RTX 3090 O24G : 18,999¥ (about $2,760)

Lawmachine79
2020-08-28, 22:01:28
Hättest du dir die 5700 Reviews zu release angeschaut, dann hättest du gesehen, dass die 5700XT sehr wohl so schnell oder schneller als eine 1080TI ist als Midrange Karte.
In den Performanceindexes liegt sie jetzt wo beide ausgereifte Treiber haben dahinter.

unl34shed
2020-08-28, 22:02:26
Echt sportlich.

Gibts NVLink nur noch bei den FEs?

gedi
2020-08-28, 22:10:25
Hättest du dir die 5700 Reviews zu release angeschaut, dann hättest du gesehen, dass die 5700XT sehr wohl so schnell oder schneller als eine 1080TI ist als Midrange Karte.

Japp meine Strixx ist zwar unter Wasser, allerdings habe ich hier ne default-Vcore von 1.137V. Nun bin ich unter Wasser bei 2.23G (richtige 2.165G) bei 225W-ASIC Power und Performancewise sehr nah an einer nicht übertakteten TI! Ausgefahren mit richtigen 2.23G skaliert das Ding dann nicht mehr. Das sind 2% für 80w, also sinnbefreit. Die 52 RDNA2 CUs der XBO machen bei 1.82G ne 2080Ti so was von platt und ihr kommt mit Ampere, wo vorab alles aufgebohrt wurde :) Ich lach mich schlapp

BlacKi
2020-08-28, 22:10:26
In den Performanceindexes liegt sie jetzt wo beide ausgereifte Treiber haben dahinter.
im schnitt liegt sie immernoch vorne. aktueller test, ganz unten der schnitt.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/

nicht zu vergessen 1,7ghz vs 1,86ghz

ShinyMcShine
2020-08-28, 22:12:12
Colorful RTX 3090 Neptune D : 14,999¥ (about $2,180)
Colorful RTX 3090 Vulcan X : 15,999¥ (about $2,330)
Colorful RTX 3090 Vulcan X-OC : 16,999¥ (about $2,470)
ASUS ROG RTX 3090 O24G : 18,999¥ (about $2,760)

lol, so viel teurer kann China ja gar nicht sein, dass das teure Modell bei uns keine 2,3-2,4k wird. nVidia, ich ziehe meinen Hut...

crux2005
2020-08-28, 22:13:14
Echt sportlich.

https://cdn.videocardz.com/1/2020/08/NVIDIA-GA102-GPU-RTX-3080.jpg

Whoa!

Ich sehe nur 11x GDDR6X BGAs auf der Frontseite?!

Colorful RTX 3090 Neptune D : 14,999¥ (about $2,180)
Colorful RTX 3090 Vulcan X : 15,999¥ (about $2,330)
Colorful RTX 3090 Vulcan X-OC : 16,999¥ (about $2,470)
ASUS ROG RTX 3090 O24G : 18,999¥ (about $2,760)

Nicht mehr normal.

gedi
2020-08-28, 22:15:06
lol, so viel teurer kann China ja gar nicht sein, dass das teure Modell bei uns keine 2,3-2,4k wird. nVidia, ich ziehe meinen Hut...

Sind hoffentlich nur Platzhalter Preise. Ansonsten sehe ich BN bei 64CUs mit 512-Bit SI bei 700€

Hauwech
2020-08-28, 22:15:46
Das stimmt schon... aber denke daran XSX + PS5 kommen das wird sich dadurch schneller ändern als man glaubt.

Ich bin gespannt, wo Cyberpunk stehen wird. Ob da die 10gb der 3080 reichen mit RT und DLSS das will ich mal erstmal sehen, bevor ich es glaube.

Da wird sich gar nichts dran ändern. Schau mal in die Mindestanforderungen für Spiele. RDR2 begnügt sich zB mit 2GB VRAM. HZD ist bei nV mit 3GB und bei AMD mit 4GB zufrieden. Viele kleine / Indie Spiele die eh keine hohen Anforderungen an die Grafik stellen, sind auch mit 1GB zufrieden. Die Entwickler wollen ihre Spiele auf so vielen Kisten wie möglich verkaufen. Skalierbarkeit ist das Zauberwort.

Lawmachine79
2020-08-28, 22:16:05
im schnitt liegt sie immernoch vorne. aktueller test, ganz unten der schnitt.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/

nicht zu vergessen 1,7ghz vs 1,86ghz
Ich beziehe mich auf den Computerbase Performance Index. Aber auch wenn sie querschnittlich Gleichschaltung sind ist es ein Armutszeugnis.

Rampage 2
2020-08-28, 22:21:20
Von einer 2080 Ti 2080 Super rechne ich mit 30% mehr für die 3070. Alles andere macht keinen Sinn, dann kann Nvidia Ampere gleich begraben.


Meintest du sicher so:wink:

Aber selbst von einer 2080S aus wird +30% wohl das Maximum darstellen; im Durchschnitt eher etwas weniger, so 20-25% - also genau so schnell wie eine 2080Ti oder ein paar Prozent schneller:)

Und das sind Games die nichtmal RT haben. Und Nvidia will die 3070 stand jetzt schon wieder mit 8GB anbieten. Was soll so eine Verarsche seriously?


Die eigenen (FE) Modelle ja - aber das gilt auch für die 3080; da kriegt die FE auch nur 10GB. Aber Board-Partner sollen wie bei der 3080, auch für die 3070 Varianten mit doppelter Speicherkapazität anbieten dürfen oder habe ich die News der vergangenen Tage falsch interpretiert? :|

Abgesehen davon: Wie will NV bei 2080Ti-Leistung nur 8GB rechtfertigen!?

R2

24p
2020-08-28, 22:21:29
Vor allem weil auch kaum eine 1080Ti nur mit 1.7GHz läuft.

dargo
2020-08-28, 22:23:25
Final Fantasy ist halt ein Speicherfresser wie HZD, solche Games gibt es einmal im Jahr, die komplett an den gängigen Speichermengen der User (6 und 8GB) vorbei gehen.
Sind jetzt kaputte Ports plötzlich die Referenz?

HZD ist bei nV mit 3GB und bei AMD mit 4GB zufrieden.
Lass mich raten, du hast HZD noch nicht gespielt? Diese Angaben sind reine Kundenverarsche. Stand aktuell mit Patch 1.02.

Linmoum
2020-08-28, 22:24:11
Vor allem weil auch kaum eine 1080Ti nur mit 1.7GHz läuft.Stimmt, die Referenz läuft sogar mit noch weniger. Das ist halt das, was 95% aller Seiten testen: Referenz/FE vs. Referenz/FE.

Fragman
2020-08-28, 22:27:34
lol, so viel teurer kann China ja gar nicht sein, dass das teure Modell bei uns keine 2,3-2,4k wird. nVidia, ich ziehe meinen Hut...

Die Preise sind viel zu hoch. Seit Tagen erleben wir guerilla marketing für die 3090. Das macht man nicht für Grakas jenseits der 2k Dollar/Euro Marke. Sowas bringt man nebenher raus, wie schon die Titans ab Volta, das hat nichts mit Massenmarkt zu tun. In dem Bereich würd ich eingeschränkt aber nocht die 2080Ti zählen. Die 3090 wird dessen Nachfolger, auch wenn die leicht teurer werden sollte.

mironicus
2020-08-28, 22:29:13
Ja, dann kann man nur auf AMD hoffen. 5% langsamer, 1000 Euro günstiger als die 3090. :D

24p
2020-08-28, 22:34:29
Stimmt, die Referenz läuft sogar mit noch weniger. Das ist halt das, was 95% aller Seiten testen: Referenz/FE vs. Referenz/FE.

Viel sinnvoller ist es übliche Designs zu testen und keine FEs, die eh kaum einer kauft. Keine Ahnung wie es da mit der 5700XT aussieht, aber die üblichen Karten von MSI, Gigabyte und Asus laufen mit mehr als 1,7GHz bei der 1080Ti.

gedi
2020-08-28, 22:39:22
Ja, dann kann man nur auf AMD hoffen. 5% langsamer, 1000 Euro günstiger als die 3090. :D

Es ist der Markt welches eben jenes nicht zulässt. Bei den Preisen ist BN nix anderes als ne 64CU GPU welche ne 2080Ti klar schlägt, aber sich dann mit 3070/Ti rumschlägt. Die Absprachen kotzen mich an. Überall der selbe Krempel. Exakt darum habe ich meinen Job gekündigt. Alles Lug und Trug

-=Popeye=-
2020-08-28, 22:39:38
Stimmt, die Referenz läuft sogar mit noch weniger. Das ist halt das, was 95% aller Seiten testen: Referenz/FE vs. Referenz/FE.

Bullshit... selbst meine MSI GeForce GTX 1080 Ti AERO lief mit Luft nie unter 1,8.

Viel sinnvoller ist es übliche Designs zu testen und keine FEs, die eh kaum einer kauft. Keine Ahnung wie es da mit der 5700XT aussieht, aber die üblichen Karten von MSI, Gigabyte und Asus laufen mit mehr als 1,7GHz bei der 1080Ti.

Stimmt so nicht, Karten mit Referenzdesign (egal ob AMD oder nVidia) werden vorallem von WaKü Nutzern gekauft.

Ex3cut3r
2020-08-28, 22:41:54
Sind jetzt kaputte Ports plötzlich die Referenz?


Ich gehe nicht davon aus, dass das noch gefixt wird. Mittlerweile ist fast ein Monat rum...

Linmoum
2020-08-28, 22:42:22
Bullshit...Aha. Sowas raushauen und dann keine Ahnung haben. :rolleyes:

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Ex3cut3r
2020-08-28, 22:44:03
Aha. Sowas raushauen und dann keine Ahnung haben. :rolleyes:

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Vermutlich hat er nicht in 4K gespielt Unter 4K ist die Aulastung besser und der Takt fällt. Kann ich bei meiner 2080 non Ti mit DS @ 5160x2160 @ 3440x1440 auch beobachten.

dargo
2020-08-28, 22:45:05
Ich gehe nicht davon aus, dass das noch gefixt wird. Mittlerweile ist fast ein Monat rum...
Abwarten... die mussten sich anfangs um die wichtigeren Probleme wie Crashes kümmern.

unl34shed
2020-08-28, 22:45:35
...und 3 Jahre später

... und war auch nie das Ziel von AMD. Man wollte mit Navi 10 eine Midrange Karte bringen, wo der Meiste Umsatz gemacht wird. Hat bei Polaris damals auch gut funktioniert....

Aber glaubt ihr nicht, dass das hier langsam OT wird?

Linmoum
2020-08-28, 22:46:09
Vermutlich hat er nicht in 4K gespielt Unter 4K ist die Aulastung besser und der Takt fällt. Kann ich bei meiner 2080 non Ti mit DS @ 5160x2160 @ 3440x1440 auch beobachten.Wenn ich über Takt, Verbrauch oder Temps rede, dann auch unter richtiger Last und nicht irgendwelchen Pussy-Szenarien. :cool:

Hauwech
2020-08-28, 22:48:26
Sind jetzt kaputte Ports plötzlich die Referenz?


Lass mich raten, du hast HZD noch nicht gespielt? Diese Angaben sind reine Kundenverarsche. Stand aktuell mit Patch 1.02.

Nö, habe ich nicht. Das sind die Angaben von Steam. Glaubst du wirklich die proggen das Spiel so damit nur Leute mit 8GB+ das spielen können? Es muss in den niedrigsten Einstellungen laufen, sonst nichts. Der PC Markt besteht nicht nur aus First World Mid bis HighEnd-Desktop-PCs. Alleine schon der riesige NB Markt wo 8GB Vram nicht die Regel sind, von IGPs ganz zu schweigen. -> potentielle Käufer. Das ist jetzt nicht nur auf HZD bezogen sondern allgemein.

24p
2020-08-28, 22:49:45
Bullshit... selbst meine MSI GeForce GTX 1080 Ti AERO lief mit Luft nie unter 1,8.



Stimmt so nicht, Karten mit Referenzdesign (egal ob AMD oder nVidia) werden vorallem von WaKü Nutzern gekauf.

Ja, und genau deswegen habe ich die außen vor gelassen.

24p
2020-08-28, 22:51:28
Aha. Sowas raushauen und dann keine Ahnung haben. :rolleyes:

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Das ist eine FE. Genau von denen redete ich nicht.

-=Popeye=-
2020-08-28, 22:51:40
Aha. Sowas raushauen und dann keine Ahnung haben. :rolleyes:

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Nur mal so nebenbei die Gehäusebelüftung spielt nach wie vor eine Rolle. ;)

BlacKi
2020-08-28, 22:51:56
ach leude... pls stop OT

Hauwech
2020-08-28, 22:53:19
... und war auch nie das Ziel von AMD. Man wollte mit Navi 10 eine Midrange Karte bringen, wo der Meiste Umsatz gemacht wird. Hat bei Polaris damals auch gut funktioniert....

Aber glaubt ihr nicht, dass das hier langsam OT wird?

Stimmt, das negative Wachstum des Marktanteils innerhalb eines Jahres hat ja super funktioniert.

dargo
2020-08-28, 22:56:04
Nö, habe ich nicht. Das sind die Angaben von Steam. Glaubst du wirklich die proggen das Spiel so damit nur Leute mit 8GB+ das spielen können? Es muss in den niedrigsten Einstellungen laufen, sonst nichts. Der PC Markt besteht nicht nur aus First World Mid bis HighEnd-Desktop-PCs. Alleine schon der riesige NB Markt wo 8GB Vram nicht die Regel sind, von IGPs ganz zu schweigen. -> potentielle Käufer. Das ist jetzt nicht nur auf HZD bezogen sondern allgemein.
Aha... ich habe mittlerweile 70 Spielstunden in HZD auf der Uhr mit einer 8GB Karte und du willst mir erzählen wie es läuft? :freak: Ja... wenn jemand Gaming unter "sich durchruckeln" versteht dann reichen auch 3-4GB.

-=Popeye=-
2020-08-28, 23:11:17
Nö, habe ich nicht. Das sind die Angaben von Steam. Glaubst du wirklich die proggen das Spiel so damit nur Leute mit 8GB+ das spielen können? Es muss in den niedrigsten Einstellungen laufen, sonst nichts. Der PC Markt besteht nicht nur aus First World Mid bis HighEnd-Desktop-PCs. Alleine schon der riesige NB Markt wo 8GB Vram nicht die Regel sind, von IGPs ganz zu schweigen. -> potentielle Käufer. Das ist jetzt nicht nur auf HZD bezogen sondern allgemein.

Bezogen auf die kommenden Konsolen werde die nächsten Jahre 8GB VRAM wohl das Minimum an benötigten Speicher darstellen.

crux2005
2020-08-28, 23:15:15
Nö, habe ich nicht. Das sind die Angaben von Steam. Glaubst du wirklich die proggen das Spiel so damit nur Leute mit 8GB+ das spielen können? Es muss in den niedrigsten Einstellungen laufen, sonst nichts. Der PC Markt besteht nicht nur aus First World Mid bis HighEnd-Desktop-PCs. Alleine schon der riesige NB Markt wo 8GB Vram nicht die Regel sind, von IGPs ganz zu schweigen. -> potentielle Käufer. Das ist jetzt nicht nur auf HZD bezogen sondern allgemein.

Kann denen doch egal sein wer es auf PC spielen kann und wer nicht. SIE hat einen asiatischen Entwickler angeheuert damit sie einen PC Port machen. Was den VRAM Verbrauch angeht: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12403926&postcount=1337

Langsam glaube ich das war von Anfang an von Sony so geplant. Weil HZD so viel VRAM braucht und es so schlecht auf PC läuft ist es in aller Munde. Und wird eine Weile auch sein. Mein Marketing Chef würde sagen "alles richtig gemacht". ;)

Mr. Pink
2020-08-28, 23:28:48
Ist schon durchgesickert wie lang die Platine der FE wird? Habe im Moment eine Wakü 2080ti und noch ca. 1cm Platz in der länge. Könnte knapp werden schätze ich...

Nuada
2020-08-28, 23:34:20
Bezogen auf die kommenden Konsolen werde die nächsten Jahre 8GB VRAM wohl das Minimum an benötigten Speicher darstellen.

So ist es, kauft euch halt alle die 10gb aber heult dann bitte in 2 Jahren nicht! :cool:

BlacKi
2020-08-28, 23:37:02
Ist schon durchgesickert wie lang die Platine der FE wird? Habe im Moment eine Wakü 2080ti und noch ca. 1cm Platz in der länge. Könnte knapp werden schätze ich...
die FE mit lukü soll 310mm werden, das pcb ist deutlich kürzer, vl 20cm oder so.

Mr. Pink
2020-08-28, 23:41:22
die FE mit lukü soll 310mm werden, das pcb ist deutlich kürzer, vl 20cm oder so.

Danke. Dann bin ich beruhigt. :)

Spasstiger
2020-08-28, 23:59:18
Die 3090 wird wohl die neue Titan, zumindest der Speichermenge und dem kolportierten Preis (erste Listungen bei 2000 €) nach.
Ich schätze, dass von Nvidia erstmal nix Neues unter 700 € kommt, die RTX 3080 wird vermutlich um die 1000 € herum liegen und die RTX 2080 Ti ablösen.

Der ambitionierte Gamer wird wohl auf Herstellervarianten der RTX 3070 mit 16 GiB warten für vielleicht um die 700 € Straßenpreis.

Nuada
2020-08-29, 00:33:11
Die 3090 wird wohl die neue Titan, zumindest der Speichermenge und dem kolportierten Preis (erste Listungen bei 2000 €) nach.
Ich schätze, dass von Nvidia erstmal nix Neues unter 700 € kommt, die RTX 3080 wird vermutlich um die 1000 € herum liegen und die RTX 2080 Ti ablösen.

Der ambitionierte Gamer wird wohl auf Herstellervarianten der RTX 3070 mit 16 GiB warten für vielleicht um die 700 € Straßenpreis.


Eine Titan die vermutlich kein Vollausbau ist? Ich glaube immer noch an 1300-1500 € alles andere, wäre auch seltsam und schreit quasi nach einem Shitstorm.

Dural
2020-08-29, 00:52:34
Die erste titan war kein vollausbau...

Es gibt keine mehr, jedenfalls nicht mit dem speicher aktuell. Gamer würden die karte auch gar nicht mehr kaufen da null vorteile, alles über 24gb ist völliger blödsinn.

crux2005
2020-08-29, 00:55:37
Über 24 GiB? Schon über 16 GiB ist Fragwürdig. Ich kenne die Leistung der 3090 nicht.

Nuada
2020-08-29, 01:16:35
Über 24 GiB? Schon über 16 GiB ist Fragwürdig. Ich kenne die Leistung der 3090 nicht.

24 scheint mir auch übertrieben, 16 hätten wohl auch gereicht das hat aber sicher nur was mit Dominanz gegen BN Zutun und nichts mit einer Titan.


Die 3090 wird wohl die neue Titan, zumindest der Speichermenge und dem kolportierten Preis (erste Listungen bei 2000 €) nach.
Ich schätze, dass von Nvidia erstmal nix Neues unter 700 € kommt, die RTX 3080 wird vermutlich um die 1000 € herum liegen und die RTX 2080 Ti ablösen.

Der ambitionierte Gamer wird wohl auf Herstellervarianten der RTX 3070 mit 16 GiB warten für vielleicht um die 700 € Straßenpreis.


Die GA102 GPUs sind bestätigte "cut-downs" Daher auch die 3090

cut downs = kein Vollausbau.
Titan = Vollausbau

Edgecrusher86
2020-08-29, 02:46:34
Die einzigen TITANs die gleich als Vollausbau kamen waren Maxwell X und RTX. Kepler und Pascal erhielten im folgenden Kalenderjahr den Vollausbau, die V kam nur als Cut.

Eine neue TITAN und/oder Quadro mit 48GB macht dann in der Tat nur Sinn, wenn es 16Gb Module von Micron mit zumindest bis zu 21 Gbps gibt. Das wird wohl in H2/2021 der Fall sein.

Bei solchen Karten samt dem Vollausbau darf es auch noch etwas schneller sein. Bis zu 24 Gbps sollen dann machbar sein.

kmf
2020-08-29, 02:49:14
Colorful RTX 3090 Neptune D : 14,999¥ (about $2,180)
Colorful RTX 3090 Vulcan X : 15,999¥ (about $2,330)
Colorful RTX 3090 Vulcan X-OC : 16,999¥ (about $2,470)
ASUS ROG RTX 3090 O24G : 18,999¥ (about $2,760)easy ;D

Kohle, Kohle, Kooohle ...:devil:

MiamiNice
2020-08-29, 04:18:17
Der ambitionierte Gamer wird wohl auf Herstellervarianten der RTX 3070 mit 16 GiB warten für vielleicht um die 700 € Straßenpreis.

Das wird wohl eher die Wald und Wiesen Karte. Der "ambitionierte" Gamer steigt bei einer 3080 ein :tongue:

Leonidas
2020-08-29, 05:26:48
Gibt's zu den Pro-Takt-Verbesserungen schon Gerüchte, die ich übersehen habe? :)


Nein, gibt es nicht. Allerdings sind +60% Perf. bei +25% mehr nomineller Rechenpower ansonsten kaum erklärbar.
https://www.3dcenter.org/news/erste-hardware-daten-von-nvidias-geforce-rtx-3070-3080-3090-aufgetaucht
(unterste Tabelle)

Das zählt genauso mit rein:

Naja wenn die 35milliarden transistoren für die 84cu stimmen ist das teil richtig fett pro einheit. Da müssen massive verbesserungen kommen, ziemlich sicher auch im rt bereich.





Bin etwas verwirrt, im Vorfeld gab es Gerüchte zu 3070 und 70TI, aber noch ist da nix bestätigt oder?


So richtig sicher ist zu diesen Karten noch nichts.

Cubitus
2020-08-29, 06:48:57
Eventuell vorstellbar das die RT Einheiten eine noch besondere Rolle einnehmen werden? Z.b bei alten Games wird kein RT benötigt, die Karte begnügt sich daher mit 250 Watt wobei die Mehrleistung dann einfach allein von der Architektur kommt... eventuell wird es dann auch mehr Spielraum beim Boost geben..

Sobald aber neue Techniken eingesetzt werden, wie z.b RT, DLSSs usw.. werden die Tesnor Einheiten aktiviert und die GPU spielt dann komplett ihre Macht aus und fängt aber auch an zu saufen... ähnlich wie z.b bei Prime mit zuschalten der avx Einheiten...

Dieses Verhalten würde die Mehrperfomance Schwankungen erklären...

Oder die Karte ist einfach fucking effizient und macht in jeder Situation eine gute Figur...
wir werden sehen...

mironicus
2020-08-29, 06:53:17
Vielleicht ist der hohe Timespy-Wert der 3090 damit zu erklären, daß bei diesem Benchmark einfach DLSS seitens des Treibers erzwungen wird. :)

prinz_valium_2
2020-08-29, 07:37:14
LMAO, die Preise.
Denke Konsolen für 599€ werden ziemlich interessant. Günstiger als eine 3070.
Aber die würde ich eh nicht kaufen und niemandem empfehlen. Lieber die 3060. Außer die bekommt kein GDDR6X

TheGood
2020-08-29, 08:12:40
LMAO, die Preise.
Denke Konsolen für 599€ werden ziemlich interessant. Günstiger als eine 3070.
Aber die würde ich eh nicht kaufen und niemandem empfehlen. Lieber die 3060. Außer die bekommt kein GDDR6X

Ja ich bin da bei dir. Warum sollte ein Spieler, wenn er vor der Entschiedung steht eine neue Graka oder einen neuen Rechner zu kaufen, 500 Euro und noch viel mehr für eine Graka zu kaufen oder sich einfach ne konsole für den Preis zu holen. Logisch ist da schnell klar was man tut... Ich finde Nvidia und auch wohl AMD werden sich hier selbst den Markt mit den Wahnsinnspreisen kaputt machen. Das könnte man von mir aus in 3 JAhren wiede rmachen, wenn man auch deutlich mehr anbieten kann, aber aktuell hat keine der neuen Grakas auch nur einen Hauch einer Chance im P/L gegen eine Konsole...

rentex
2020-08-29, 08:18:41
In 3 Tagen wissen wir mehr.

ShinyMcShine
2020-08-29, 08:22:06
Ja ich bin da bei dir. Warum sollte ein Spieler, wenn er vor der Entschiedung steht eine neue Graka oder einen neuen Rechner zu kaufen, 500 Euro und noch viel mehr für eine Graka zu kaufen oder sich einfach ne konsole für den Preis zu holen. Logisch ist da schnell klar was man tut... Ich finde Nvidia und auch wohl AMD werden sich hier selbst den Markt mit den Wahnsinnspreisen kaputt machen. Das könnte man von mir aus in 3 JAhren wiede rmachen, wenn man auch deutlich mehr anbieten kann, aber aktuell hat keine der neuen Grakas auch nur einen Hauch einer Chance im P/L gegen eine Konsole...

- alte Spiele in neuer Pracht spielen
- VR voll ausfahren
- Monitore mit +144fps befeuern
- Flight Simulator 2020
...da fallen mir bestimmt noch mehr Gründe ein, wenn ich nachdenke

Spasstiger
2020-08-29, 08:23:13
Das wird wohl eher die Wald und Wiesen Karte. Der "ambitionierte" Gamer steigt bei einer 3080 ein :tongue:
Selbst die RTX 2080 ist hier im Forum rar gesät. Die Wald- und Wiesenkarte wird die RTX 3060 sein.

nordic_pegasus
2020-08-29, 08:29:54
- alte Spiele in neuer Pracht spielen
- VR voll ausfahren
- Monitore mit +144fps befeuern
- Flight Simulator 2020
...da fallen mir bestimmt noch mehr Gründe ein, wenn ich nachdenke

mittlerweile kann kann man Last-Gen Spiele sehr gut auf aktuellen Konsolen spielen. Oft auch mit Upscaling und mehr FPS. Ferner wird dank HDMI 2.1 UHD@120Hz technisch möglich sein auf Konsolen, sogar mit Variable Refresh Rate.

Darum sehe ich wie TheGood, mit den kolportierten Preisen schießt sich Nvidia selbst in den Fuß im Midrange und unterem High-End Bereich (maximal 3070). Alles darüber ist sowieso für PCMR und Enthusiasten, welche nicht auf den Preis achten müssen/wollen. Aber der Markt wird kleiner durch die stetige Preissteigerung.

Cubitus
2020-08-29, 08:40:07
Was wäre wenn die 3090 aber schneller als erwartet wird.. ich bin mir sicher manch einer würde extra nen Kredit aufnehmen ;D

1600—1800 in der Preisspanne ... Shut up and take my money

Mich würde zudem interessieren mit welchen Taktraten die Leaks entstanden sind, lt Igor gibts ja auch noch gar keinen wirklichen Treiber...

Nehmen wir mal an die bisherigen Benches liefen ohne boost oder sonstigem Kram ... was wäre wenn die 3090 im Idealfall plötzlich doppelt so schnell wäre Wie die 2080ti :eek:

Was wäre wenn die 60 Prozent von der 3080 kämen.. und die Karte 999 Euro kosten würde ...

woodsdog
2020-08-29, 08:48:28
Ach was, 100% über einer 2080TI für die 3060!!!!111elf

The Hype is real!

Cubitus
2020-08-29, 08:50:11
Ach was, 100% über einer 2080TI für die 3060!!!!111elf

The Hype is real!

Ja big Navi darf sich dann mit einer 3060(super) rumschlagen ;D

Thunder99
2020-08-29, 08:53:28
Ich hoffe es gibt einen Vergleich mit 1080Ti(GP102) und TU102, GA102, also Tech, effizient, Skalierung als Thema.

VOTE für Extra Artikel :)

dargo
2020-08-29, 08:55:50
- Flight Simulator 2020

Für den Softwaremüll musst du dir dann eher einen aktuellen Prozessor mit 10-15 Ghz kaufen. Oh wait...

HOT
2020-08-29, 08:57:59
Nein, gibt es nicht. Allerdings sind +60% Perf. bei +25% mehr nomineller Rechenpower ansonsten kaum erklärbar.
https://www.3dcenter.org/news/erste-hardware-daten-von-nvidias-geforce-rtx-3070-3080-3090-aufgetaucht
(unterste Tabelle)
[...]

Auto-DLSS ;)

Ich würd sagen ein Teil des Transistorbudgets geht für Tensorkerne drauf, die einfach ständig damit beschäftigt sind, DLSS zu machen und das jetzt auf jedes Spiel angewendet wird. Anders ist diese Leistung bei der Rohleistung eigentlich aus meiner Warte nicht erkärbar. Das wird auch der Trick bei der ganzen Generation sein und das hilft auch RT enorm. Eigene Powerstages für die Tensorkerne sind ja durch Igor bereits bestätigt und das ergibt eigentlich nur so Sinn.

The_Invisible
2020-08-29, 09:08:30
Was wäre wenn die 3090 aber schneller als erwartet wird.. ich bin mir sicher manch einer würde extra nen Kredit aufnehmen ;D

1600—1800 in der Preisspanne ... Shut up and take my money

Mich würde zudem interessieren mit welchen Taktraten die Leaks entstanden sind, lt Igor gibts ja auch noch gar keinen wirklichen Treiber...

Nehmen wir mal an die bisherigen Benches liefen ohne boost oder sonstigem Kram ... was wäre wenn die 3090 im Idealfall plötzlich doppelt so schnell wäre Wie die 2080ti :eek:

Was wäre wenn die 60 Prozent von der 3080 kämen.. und die Karte 999 Euro kosten würde ...

Gibt nicht umsonst 0% Konsumkredite bzw. die 5 Monats Ratenzahlung von Amazon. 400 EUR I'm Monat geht schon :-D

dildo4u
2020-08-29, 09:10:15
Nein, gibt es nicht. Allerdings sind +60% Perf. bei +25% mehr nomineller Rechenpower ansonsten kaum erklärbar.
https://www.3dcenter.org/news/erste-hardware-daten-von-nvidias-geforce-rtx-3070-3080-3090-aufgetaucht
(unterste Tabelle)

Echt interessant DF hat grad ein Video über das neue Avengers Game gemacht, dort hat die 2080 TI Probleme mit 4k 30fps weil es massiv an Bandbreite fehlt.

https://youtu.be/ZcCRbI8uCeM?t=685

HOT
2020-08-29, 09:13:18
Echt interessant DF hat grad ein Video über das neue Avengers Game gemacht, dort hat die 2080 TI Probleme mit 4k 30fps weil es massiv an Bandbreite fehlt.

https://youtu.be/ZcCRbI8uCeM?t=685
Das spricht für meine Theorie, da die reale Bandbreite von Ampere gar nicht so viel mehr ist, etwa 1/3. Ich fürchte nur, dass von den 10GB der 3080 ein Teil für die Tensorkerne reserviert sein könnte.

basix
2020-08-29, 09:18:33
Ich hoffe es gibt einen Vergleich mit 1080Ti(GP102) und TU102, GA102, also Tech, effizient, Skalierung als Thema.

VOTE für Extra Artikel :)

+1

NC
2020-08-29, 09:26:56
Das spricht für meine Theorie, da die reale Bandbreite von Ampere gar nicht so viel mehr ist, etwa 1/3.
Kannst du erklären weshalb? Mir ist das nicht so wirklich klar.


Ich fürchte nur, dass von den 10GB der 3080 ein Teil für die Tensorkerne reserviert sein könnte.
Meinst du extra reservierten Speicher für DLSS? Oder grundsätzlich? (Aber dann, wozu?)

HOT
2020-08-29, 09:32:57
Weil NV die Tensorkerne quasi mit eigener Infrastruktur versorgt (was durch Igor bestätigt ist). Man wird den Chip auch ohne nutzen können, aber dann hat er eben nur 35% mehr Rohleistung und entsprechende Bandbreite. Ich denke, man könnte sich hier mit 30-40W zusätzlicher Verlustleistung 25% mehr über-alles-Leistung herausholen über die Tensorkerne. Daher dann die 60%+ mehr Leistung, das passt alles wunderbar zusammen. Dann stimmten eben alle Vorhersagen, man muss sie nur richtig interpretieren. Sogar das mit dem Zusatzprozessor stimmt, nur dass der im Chip selbst mit enthalten ist.
Weitere 25% durch IPC herauszuholen halte ich jedenfalls für arg unwahrscheinlich.

NC
2020-08-29, 09:40:03
mittlerweile kann kann man Last-Gen Spiele sehr gut auf aktuellen Konsolen spielen. Oft auch mit Upscaling und mehr FPS. Ferner wird dank HDMI 2.1 UHD@120Hz technisch möglich sein auf Konsolen, sogar mit Variable Refresh Rate.

Darum sehe ich wie TheGood, mit den kolportierten Preisen schießt sich Nvidia selbst in den Fuß im Midrange und unterem High-End Bereich (maximal 3070). Alles darüber ist sowieso für PCMR und Enthusiasten, welche nicht auf den Preis achten müssen/wollen. Aber der Markt wird kleiner durch die stetige Preissteigerung.
Naja, bisher kennt niemand die Preise für PS5/XBSX. Wenn die plötzlich mit 999 aufschlagen, wird das Geschreie auch riesig "Die spinnen, das kauft niemand", obwohl das für einen PC mit 8C-Ryzen + 12TFlops Radeon + ~500GB/s 16GB + schnelle SSD ein gute Preis wäre.
(Ich gehe nicht von 999 aus, aber ich will sagen, der Preis kann ja alles sein, der hängt einzig von der Konkurenz ab, sonst wüsten wir das schon.)

Bis wir die Preise von den Konsolen und RDNA2 und Ampere Karten wissen, sind Vergleich mMn echt schwer, weil wir garnicht wissen was wogegen. Vielleicht ist am ende RTX 3080 vs XBSX (und klar ignorieren wir da die kosten der restlichen PC Hardware, aber das sind ja Aufrüstkosten)

Leonidas
2020-08-29, 09:43:47
Von Twitter (https://twitter.com/d0cTB/status/1299473247671586816):
Plusieurs fabricants sont en train claquer du boule à cause du risque électrique pour un produit qui va bientôt sortir. J'ai vu les specs et ... c'est littéralement jouer avec le feu. Je ne peux pas croire que ça va sortir comme ça, avec tous les curseurs dans le rouge.


Maschinelle Übersetzung:
Mehrere Hersteller knacken den Ball wegen des elektrischen Risikos für ein Produkt, das bald veröffentlicht wird. Ich habe die Spezifikationen gesehen und ... es spielt buchstäblich mit dem Feuer. Ich kann nicht glauben, dass es so herauskommen wird, mit all den roten Cursorn.

prinz_valium_2
2020-08-29, 09:51:26
Ja ich bin da bei dir. Warum sollte ein Spieler, wenn er vor der Entschiedung steht eine neue Graka oder einen neuen Rechner zu kaufen, 500 Euro und noch viel mehr für eine Graka zu kaufen oder sich einfach ne konsole für den Preis zu holen. Logisch ist da schnell klar was man tut... Ich finde Nvidia und auch wohl AMD werden sich hier selbst den Markt mit den Wahnsinnspreisen kaputt machen. Das könnte man von mir aus in 3 JAhren wiede rmachen, wenn man auch deutlich mehr anbieten kann, aber aktuell hat keine der neuen Grakas auch nur einen Hauch einer Chance im P/L gegen eine Konsole...

Ich bin nicht grundsätzlich für Konsolen > PC und viele bevorzugen den PC als Platform. Ich auch.

Aber die value proposition für neue GPUs war noch nie so schlecht und die value proposition für neue Konsolen war noch nie so gut im Vergleich zueinander.
Vllt bringt AMD ja noch etwas normale Preise.
Wenn Big NAVI wirklich ein 512 bit interface hat, könnten auch die cut down Varianten 384 haben und somit 12GB RAM. Das wäre schon ziemlich gut im Vergleich zu den 8GB einer RTX 3070

Die 1070 hatte 8GB und jetzt 2 oder 3 Generationen später (je nach dem ob man Super mitzählt oder nicht), gibt es noch immer 8GB.
Das passt für mich einfach nicht mehr. Deswegen denke ich auch, dass die 3060 relativ gesehen interessanter wird, sollte sie nicht absichtlich von Nvidia beschnitten werden.

y33H@
2020-08-29, 10:09:33
[...]Das klingt doch sehr wild ^^

Troyan
2020-08-29, 10:13:52
https://pbs.twimg.com/media/Egkr_gyWAAAyQ3X?format=jpg&name=small
https://twitter.com/VideoCardz/status/1299618360691511296

Offene Kühler eben.

/edit: Gainward mit Specs: https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed

Ha
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3090-3080-Backplate.jpg

Lawmachine79
2020-08-29, 10:16:58
Ja big Navi darf sich dann mit einer 3060(super) rumschlagen ;D
Im Big Navi Spekulationsthread fragt man sich bestimmt ob man an die 3070 rankommt.

prinz_valium_2
2020-08-29, 10:18:16
https://cdn.videocardz.com/1/2020/08/GAINWARD-RTX-3080-Phoenix-Specs.jpg

Sweepi
2020-08-29, 10:18:23
Nvidia Titan Übersicht:
"Titan ist immer Vollausbau", das ist ja noch schlimmer als "ein i7 hat immer HT".
a) Bitte nicht Ursache und Wirkung verwechseln
b) Nicht zu viel Anstrengung darauf verwenden, technische Details aus Branding/Produktplatzierung abzulesen.

Jahr | Name | Vollausbau
2013 | Titan | Nein
2014 | Titan Black | Ja
2014 | Titan Z | Ja (2x)
2015 | Titan X | Ja
2016 | Titan X | Nein
2017 | Titan Xp | Ja
2017 | Titan V | Nein
2018 | Titan RTX | Ja



Da wir hier jetzt doch viel und emotional über Preise diskutieren, hier mein Take.

Ich entnehme häufig folgende 2 Gedankengänge aus den Aussagen:

Gedankengang I
1. Der Preis ist das Produkt es mir nicht wert
2. Überraschende Beobachtung: Andere finden den Preis akzeptabel
3. Diese Anderen machen etwas anders als ich, und da meine Bewertung richtig ist, müssen diese Anderen alle bescheuert sein!!!!

Hier bitte ruhig atmen (mache ich auch, ist wichtig im Leben!) und folgendes Gedankenspiel:
1. für eine relativ große Minderheit wäre es ziemlich egal, wenn sich alle Preise im Supermarkt von heute auf morgen verdoppeln würden (abgesehen von der kognitiven Dissonanz )
2. einer wesentlich kleineren Minderheit ist es sogar egal, wenn die Preise sich von heute auf morgen verzehnfachen

Warum ist beides noch nie passiert?

Gedankengang II
"Wenn ihr das zu den Preisen kauft, ist das asozial gegenüber den anderen"

Ich habe während meines Studiums ab 2011 mit folgendem Sys gezockt:

Phenom 2 720 BE (3 Kerne)
AM2+ Board aus der Schulzeit
zusammengewürfelte 6-8 GiB RAM von 2-3 unterschiedlichen Herstellern
9800GT Green Edition 75W, später ersetzt durch eine GTX285, die jemand in Studentenwohnheim für 85 Euro vertickt hat)
24" 1920x1200 60 Hz ziemlich langsamer TFT aus der Schulzeit

Gezockt habe ich sehr viel und so ziemlich alles (WoW, CSS, Lol, APB Reloaded, Dystopia, CSS/HL2 mods, dutzende Indie spiele, diverse AAA Spiele, WC3)
Ich hatte unfassbar viel Spass beim zocken. Ich hab nie andere um schnellere Hw beneidetet. Allerdings haben viele mich um meinen 7ms Glasfaserping aus dem Studentenwohnheim beneidet.

Das ist nur eine Blockade in eurem Kopf "Ich bin seit Jahren ein Nvidia xx70 Kauefer, ich muss meine """Klasse""" halten". Nobody cares. Man spielt online dauernd mit Schülern, Studenten und Freunden mit Gammelrechnern oder Notebooks (oder auch Gammelnotebooks) zusammen, wann ist das schonmal ein Problem?

Zocken macht Spass!

Dampf
2020-08-29, 10:20:35
Meinst du extra reservierten Speicher für DLSS? Oder grundsätzlich? (Aber dann, wozu?)

Ich halte das schon für eine sinnvolle Idee. Die Tensor und auch RT Kerne ziehen enorm an der Speicherbandbreite die ja auch von den ALUs beantsprucht wird, wenn sie von den 10 GB 1 oder 2 Chips alleine zur Verfügung hätten, könnte das schon was bringen.

Wenn nicht ist es auch in Ordnung, schließlich hat Ampere maßgeblich schnellere Speicheranbindung (wohl auch ein Grund weswegen man sich für GDDR6X entschieden hat)

NC
2020-08-29, 10:26:14
Weil NV die Tensorkerne quasi mit eigener Infrastruktur versorgt (was durch Igor bestätigt ist). Das ist interessant, ich bin gespannt wie das in CUDA funktioniert. Bisher, bis zum A100, waren die "Tensor Cores" ja eigentlich nur eine Instruktionserweiterung in den SM (https://docs.nvidia.com/cuda/parallel-thread-execution/index.html ), jetzt werden das eigene Einheiten? Oder ist das wie DLSS, eine Softwarelösung?

Der Blogeintrag zum A100 hat davon nichts gesagt: https://developer.nvidia.com/blog/nvidia-ampere-architecture-in-depth
Bin echt gespannt was gamer-Ampere da neues bietet.

nordic_pegasus
2020-08-29, 10:31:32
Jahr | Name | Vollausbau
2013 | Titan | Nein
2014 | Titan Black | Ja
2014 | Titan Z | Ja (2x)
2015 | Titan X | Ja
2016 | Titan X | Nein
2017 | Titan Xp | Ja
2017 | Titan V | Nein
2018 | Titan RTX | Ja



den Vollausbau von GV100 (5376 Shader) gab es in keinem Produkt zu kaufen, selbst im Profi-Markt nicht.

Zu Pascal: hier hat Nvidia zunächst nur die GTX1080 und Titan X gelauncht, dann kam die GTX1080Ti mit gleicher Shader-Anzahl wie die Titan. Erst dann kam die "echte" Pascal Titan mit voller Shader-Zahl. Das war ein bewusster Stunt von Nvidia, um möglichst viele Upgrades innerhalb der Pascal-Generation zu generieren.

Ich spekuliere, dass Nvidia die 3090 nicht als Ersatz für eine Titan launcht, sondern später bringt. So kann man sich den Preis der 3090 als vermeintlichen Titan-Nachfolger schön reden um dann Anfang 2021 einen Refresh des Line-Ups zu machen mit einer 3080Ti (in die große Lücke zwischen 3080 und 3090) und einer Titan Ampere (Preis auf Niveau von Turing oder mehr).

igg
2020-08-29, 10:34:13
Von Twitter (https://twitter.com/d0cTB/status/1299473247671586816):
Maschinelle Übersetzung:
Mehrere Hersteller knacken den Ball wegen des elektrischen Risikos für ein Produkt, das bald veröffentlicht wird. Ich habe die Spezifikationen gesehen und ... es spielt buchstäblich mit dem Feuer. Ich kann nicht glauben, dass es so herauskommen wird, mit all den roten Cursorn.
Via Deepl etwas verständlicher:
Wegen des elektrischen Risikos für ein Produkt, das demnächst auf den Markt kommt, stoßen sich mehrere Hersteller die Köpfe zusammen. Ich habe die Spezifikationen gesehen und... es spielt buchstäblich mit dem Feuer. Ich kann nicht glauben, dass es so herauskommen wird, mit all den Schiebereglern im roten Bereich.

NC
2020-08-29, 10:35:00
Ich halte das schon für eine sinnvolle Idee. Die Tensor und auch RT Kerne ziehen enorm an der Speicherbandbreite die ja auch von den ALUs beantsprucht wird, wenn sie von den 10 GB 1 oder 2 Chips alleine zur Verfügung hätten, könnte das schon was bringen.Du meinst harte Partitionierung, anstatt dass die Last dynamisch verteilt wird? Das klingt wie damals Vertex/Pixel Shader.

Ich bin mir nicht sicher ob das so schlau wäre, denn das bedeutet dass du künstlich ein Bottleneck erstellst. Entweder ist non-RT limitierend, dann liegt die Bandbreite von 2 Chips ungenutzt rum. Oder RT ist limitiert, nutzt aber nicht die Bandbreite die die restlichen Speicherchips bieten würden.

Beispiel Ambient Occlusion, das wird oft als extra Pass berechnet. Da liegt mit RT-AO 100% Last auf RT, und wenn du dann nur 2 von 10 Chips nutzt, hast du nur 20% der Leistung, brauchst also 5 mal länger.

(Vielleicht fehlt mir ein wichtiger Teil der Information die das erklären würde.)

Dampf
2020-08-29, 10:36:14
Weil NV die Tensorkerne quasi mit eigener Infrastruktur versorgt (was durch Igor bestätigt ist).

Wo hat er das bestätigt? Bisher waren das doch immer Spekulatius.

Das wiederum macht weniger Sinn. Wenn man den TCs ein fixes, getrenntes Power-Budget gibt, dann wird im Falle der Inaktivierung der TCs, Performance verschwendet.

Bei Turing kann die GPU das flexibel wählen. Tensor Kerne inaktiv? Gut, dann geb ich den SMs das volle Power Budget und lass die Tensor Kerne beiseite.

Tensor Kerne aktiv? Gut, dann sorge ich für eine Aufteilung des Power-Budgets, je nach Last der beiden Einheiten.

Bei Ampere hättest du im zweiten Fall zwar einen Nutzen, aber einen deutlichen Nachteil im ersten Fall. IMO überwiegt der Nutzen nicht, um das rechtzufertigen.

Du meinst harte Partitionierung, anstatt dass die Last dynamisch verteilt wird? Das klingt wie damals Vertex/Pixel Shader.

Ich bin mir nicht sicher ob das so schlau wäre, denn das bedeutet dass du künstlich ein Bottleneck erstellst. Entweder ist non-RT limitierend, dann liegt die Bandbreite von 2 Chips ungenutzt rum. Oder RT ist limitiert, nutzt aber nicht die Bandbreite die die restlichen Speicherchips bieten würden.

Beispiel Ambient Occlusion, das wird oft als extra Pass berechnet. Da liegt mit RT-AO 100% Last auf RT, und wenn du dann nur 2 von 10 Chips nutzt, hast du nur 20% der Leistung, brauchst also 5 mal länger.

(Vielleicht fehlt mir ein wichtiger Teil der Information die das erklären würde.)

Stimmt, dass dann die Chips ungenutzt rumliegen, das hab ich nicht beachtet. Ist ja auch ähnlich wie ich oben mit dem Power Budget beschrieben hab. Da hast du recht.

MiamiNice
2020-08-29, 10:37:59
Im Big Navi Spekulationsthread fragt man sich bestimmt ob man an die 3070 rankommt.

Nein im BN Thread ist man der Meinung AMD bringt etwas was die 3090 easy zersägt und nur um 500€ kosten wird. Ganz im ernst, einfach mal rein schauen in den Thread. Da werden Luftschlößer erträumt sondergleichen. Absolut nicht zu verstehen, vor allem aufgrund der Historie von AMD.
Die selben User stapeln hier im Thread besonders tief wenn es um die Performance von Ampere geht.

[MK2]Mythos
2020-08-29, 10:41:06
Nein im BN Thread ist man der Meinung AMD bringt etwas was die 3090 easy zersägt und nur um 500€ kosten wird. Ganz im ernst, einfach mal rein schauen in den Thread. Da werden Luftschlößer erträumt sondergleichen. Absolut nicht zu verstehen, vor allem aufgrund der Historie von AMD.
Die selben User stapeln hier im Thread besonders tief wenn es um die Performance von Ampere geht.
Link bitte. Ich lese in beiden Threads mit und Träumer gibt es auf beiden Seiten. Du scheinst es mit den Fakten ja auch nicht so genau zu nehmen.

pixeljetstream
2020-08-29, 11:16:03
Mythos;12406624'] Ich lese in beiden Threads mit und Träumer gibt es auf beiden Seiten.

+1 wie soll es auch anders sein. Sind ja alles gleiche Menschen...

=Floi=
2020-08-29, 11:17:47
ob die skalierung der RTX eineheiten gleich bleibt, wenn man so viele shadereineheiten verbaut?!
Hätte viel weniger SP erwartet, aber dafür 3x mehr RTX einehiten.

Dural
2020-08-29, 11:20:15
Man braucht unteranderem für die ganzen dx11 games auch leistung. Und das geht bei dem alten zeug halt vor allem mit rohpower.

N0rG
2020-08-29, 11:23:07
Wenn die 34,5 Mrd. Transistoren und die 7nm stimmen, dann hätte GA102 mit 55mio/mm² eine geringere Dichte als GA100. Weist das eher auf einen 7nm Prozess von Samsung für GA102 hin, oder ist bei den gaming Chips von einer geringeren Dichte auszugehen?

Troyan
2020-08-29, 11:29:03
GA100 hat 20 Mrd. Transistoren mehr. Der Anteil an "gut packbaren" Transistoren ist also wesentlich höher als bei GA102. Das kann auch schon bis zu 10% ausmachen.
Dazu kommt bei GA102 GDDR6 Speichercontroller, I/O (GA100 kann keine Bilder ausgeben) etc.

rentex
2020-08-29, 11:31:46
Via Deepl etwas verständlicher:

Immer noch etwas kryptisch.
Es kann doch nicht sein, das der VRAM, zu so einer Hitzeentwicklung beiträgt?