PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste Hardware-Daten von nVidias GeForce RTX 3070, 3080 & 3090 ...


Leonidas
2020-08-28, 18:24:43
Link zur News:
https://www.3dcenter.org/news/erste-hardware-daten-von-nvidias-geforce-rtx-3070-3080-3090-aufgetaucht

hardtech
2020-08-28, 18:29:25
wann kommen daten zur 3060 und darunter?
kommen diese karten noch dieses jahr?

Leonidas
2020-08-28, 18:37:17
Du suchst was im Feld des GA106 mit 30 CU @ 192 Bit, alternativ mit Glück eine Salvage-Version des GA104. Letztere könnte irgendwann im Herbst erscheinen, beim GA106 muß man abwarten.

Gast
2020-08-28, 18:43:15
7nm muss nicht TSMC heißen , das kann auch Samsung sein.
Diese produzieren seit Ende 2019 7nm EUV Handysocs (9825er und 990er ).
Frühere Ausagen zu NVIDIAS Twain Chefe gehen auch klar in die Richtung das man vor hat bei Samsung in 7nm fertigen zu lassen.
Der Verbrauch von 320-350W ist ohne zuverlässige Angaben zur Leistung auch im Kontext "7nm" erstmal nicht als als Argument brauchbar.



Quelle: https://www.heise.de/newsticker/meldung/Nvidias-naechste-GPU-Generation-Von-Samsung-in-7-nm-Strukturbreite-gerfertigt-4460886.html

Complicated
2020-08-28, 20:54:04
IBMs Power10 ist ebenfalls Samsungs 7nm Fertigung. Allerdings mit lediglich 30 MT/mm² Packdichte.
Wäre schon möglich, dass Nvidia hier aufgrund der benötigten Packdichte den höheren Stromverbrauch in Kauf nehmen muss. Allerdings wäre das dann ein EUV-Design, was ich hier nicht glaube, sondern eher dass 8nm genutzt wurden. Was ja als 10nm-Derivat seine eigenen Herausforderungen hatte.

Gast
2020-08-28, 22:40:51
IBMs Power10 ist ebenfalls Samsungs 7nm Fertigung. Allerdings mit lediglich 30 MT/m² Packdichte.
Wäre schon möglich, dass Nvidia hier aufgrund der benötigten Packdichte den höheren Stromverbrauch in Kauf nehmen muss. Allerdings wäre das dann ein EUV-Design, was hier nicht glaube, sondern eher dass 8nm genutzt wurden. Was ja als 10nm-Derivat seine eigenen Herausforderungen hatte.

Die kolportierten 34,5 b Trans bei 627 mm2 sprechen auch eher für 7nm , der in 7 nm Samsung EUV gefertigte Exynos 990 hat sich in mehreren Test als kleines Inferno erwiesen ohne an einem SD 865 in 7nm TSMC vorbei zu kommen .
Das passt irgendwie langsam alles ins Bild.

zockerX
2020-08-28, 23:27:13
Das sind die tatsächlichen Daten. Diesmal ganz bestimmt... :wink: :rolleyes:

Rampage 2
2020-08-28, 23:43:05
Link zur News:
https://www.3dcenter.org/news/erste-hardware-daten-von-nvidias-geforce-rtx-3070-3080-3090-aufgetaucht


Bei der 3070 hast du falsch geschrieben - statt "GA104" hast du "TU104" geschrieben... (2. Absatz)

Zur "3070": sollte es davon nicht zwei Versionen geben? Eine "3070 Ti" mit vollem GA104 und eine 3070 non-Ti (oder "3060 Super") mit beschnittenem Chip (Salvage). Und sollte es nicht auch bei der 3070/Ti für die Karten-Hersteller die Möglichkeit einer Variante mit doppeltem Speicher geben? :eek:

R2

Leonidas
2020-08-29, 05:11:13
Bei der 3070 hast du falsch geschrieben - statt "GA104" hast du "TU104" geschrieben... (2. Absatz)


Gefixt.


Zur 3070 /Ti 16GB: Im Text gehe ich ja weiterhin davon aus, dass jene sinnig ist. Nur bestätigt ist sie bislang nicht.

Gast Ritis
2020-08-29, 09:11:36
Also wenn die 3080 wirklich in der Dimensionierung mit der 2080ti gleich bleibt aber dafür 70Watt mehr verbrät wäre das schon eine arge Enttäuschung.
Sind die 70 Watt dann nur für das bisschen Takt und die extra RT Einheiten mit simplen BVH XOR Berechnungen?
Der Speicher sollte doch nicht schuld sein.

Leonidas
2020-08-29, 09:16:39
Ich hoffe immer noch darauf, dass die Werte eher mit Spielraum zu sehen sind, sprich dass der Realverbrauch niedriger liegt.

Ravenhearth
2020-08-29, 13:04:45
Oder die 3090 übertrifft wie schon die 2080 Ti ihre TDP und kommt real auf annähernd 400W :freak:

Complicated
2020-08-29, 13:20:13
No Limit am Horizont zu sehen:
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/12-Pol-Stromanschluss-Loesungen-MSI-Be-Quiet-1357020/
Die kommende Grafikkarten-Iteration von Nvidia namens RTX 3000 wird auch einen neuen Stromanschluss - die eigens entwickelte 12-Pol-Strombuchse - bedürfen. Zwar hat der Hersteller betont, dass man einen passenden Adapter mitliefern wird, doch haben nun erste Netzteil-Hersteller eigene Lösungen vorgestellt. MSI etwa hat die neuen Netzteile A650GR, A750GF und A850GF präsentiert, welche wahlweise bis drei mal 8-Pins für die GPU und zwei 8-Pins für die CPU oder vier Mal 8-Pins für die Grafikkarte und einen 8-Pin für den Prozessor unterstützen.

Buddy Casino
2020-08-29, 16:28:11
> RTX 3070
> 8GB

They really don't want my money, do they. *pats 1070*

WedgeAntilles
2020-08-30, 10:20:16
> RTX 3070
> 8GB

They really don't want my money, do they. *pats 1070*

die 3070 mit 16GB wird wohl erst von den Boardpartnern kommen und nicht als FE.
Zumindest bei der 3080 ist die 20GB Variante der Boardpartner ja im letzten Leak noch mal deutlich angesprochen worden (was natürlich auch noch kein Beweis, aber doch ein sehr starker Hinweis ist).
Auch bei der 3080 ist die FE ja nur mit 10GB.
Relativ sicher scheint damit
3090 mit 24GB
3080 mit 10GB in der FE
3070 mit 8GB in der FE

Und die 3080 mit 20GB von den Boardpartnern scheint wohl auch relativ sicher.

Ich kann mir nicht vorstellen, dass es das bei der 3070 nicht ebenfalls eine 16GB Variante geben wird.

Mein Tipp ist Ende September/Anfang Oktober aber das ist natürlich reine Spekulation von meiner Seite.
(Gründe für die Speku: Es scheint sicher, dass es nicht als FE gleich kommt. Also dauert es etwas länger. In der Vergangenheit waren das immer ein paar Wochen. Bei 3,4 Wochen wäre das dann eben ungefähr Ende September / Anfang Oktober.
Das Ziel wird sicherlich sein, so früh wie möglich vor AMD rauszukommen.
Die so beliebte Idee des "Konters" finde ich persönlich nicht überzeugend.
Warum sollst du mit der attraktiven 16GB Variante warten, bis AMD rauskommt?
In meinen Augen Blödsinn, du haust die raus, sowie es geht.
Wenn das einige Wochen (oder gar 2-3 Monate) vor AMD ist, kannst du massig Käufer gleich einsacken.
Gerade als Marktführer.
Wenn ich bisher immer Nvidia gekauft habe - und Nvidia bringt die von mir gewünschten mehr Ram-Varianten.
Wieso genau soll ich da noch 2 Monate auf BigNavi warten und nicht gleich kaufen?
Weil AMD vielleicht 100 Euro billiger ist? Dann dürfte ich bei Hardware ja nie was kaufen, weil es 2 Monate immer irgend ein Bauteil ein paar Euro günstiger ist. Zumal ich ja sowieso zu Nvidia tendiere, wenn ich die bisher (fast) immer gekauft habe.
Ne, Nvidia kann da gleich von Beginn ein großes Stück des Kuchens sichern.
Und bekanntermaßen verkauft sich ja auch viel über Mund-zu-Mund Propaganda.
Im Freundeskreis haben schon 1,2 Leute die Ampere? Und sind zufrieden?
Och, dann kaufe ich die halt auch.
Was genau sollte ich gewinnen, wenn ich warte bis AMD BigNavi releast?
Gar nichts.)

Lowkey
2020-08-30, 10:56:05
Ich weiss nicht ob man noch im Namensschema denken darf, also ich will meine 1070 gegen eine 3070 tauschen. Das bedeutet aber nicht, dass die 3070 wirklich der preisliche oder tatsächliche Nachfolger wird ;)

Buddy Casino
2020-08-30, 11:03:28
die 3070 mit 16GB wird wohl erst von den Boardpartnern kommen und nicht als FE.

Du hast ja Recht, aber: the sheer audacity! Die 8GB Version sollte es garnicht erst nicht geben, ich vermute die existiert vor allem um dann bei der 16GB Version noch mal Aufpreis einsacken zu können. Ich kann mir nicht vorstellen dass die Leute ekstatisch ihre Schekel in eine Graphikkarte mit sehr begrenzter Lebensdauer investieren möchten, aber vl. irre ich mich auch.

WedgeAntilles
2020-08-30, 11:05:43
Ich weiss nicht ob man noch im Namensschema denken darf, also ich will meine 1070 gegen eine 3070 tauschen. Das bedeutet aber nicht, dass die 3070 wirklich der preisliche oder tatsächliche Nachfolger wird ;)

So gehte s mir mit meiner 970.
Gab ja mal Spekulationen über eine 3060TI. (davon hat man allerdings in den letzten Wochen nix mehr gehört - aber auch nicht unlogisch, schließlich starten ja die großen Karten 3090, 80 und 70.)

Die 3060 ist mir von den bisherigen Leaks etwas zu gammlig.
Dazu gehen 6GB Ram natürlich nicht. Und das für vermutlich 400 Euro? Ne danke, wenn das Ding 200 Euro wäre könnte man drüber reden. Aber stand jetzt sehe ich die 3060 als äußerst unattraktiv an. Dann lieber 300 Euro mehr ausgeben für ne 3070 mit 16GB.

Die 3070 wird halt sehr teuer, und für mein bisheriges FullHD etwas überdimensioniert.
Da klang das Gerücht um die 3060TI mit 12 GB ganz interessant.
Merklich besser als die 3060, schwächer - und damit wohl günstiger - als die 3070.
12GB wäre auch die richtige Ram-Größe für mich.

Könnte die "perfekte" Karte für mich sein, falls es sie denn wirklich geben wird.


Bei mir hat sich die Vorfreude und die Spannung auf Ampere in den letzten paar Wochen doch deutlich erhöht muss ich sagen :)
Dazu die tollen Prognosen für Zen 3.
Ja, ich freue mich drauf im Januar oder so meinen dann fast 6 Jahre alten Rechner wohl beruhigt in Rente schicken zu können und durch einen komplett neuen PC auszutauschen.

WedgeAntilles
2020-08-30, 11:22:39
Du hast ja Recht, aber: the sheer audacity! Die 8GB Version sollte es garnicht erst nicht geben, ich vermute die existiert vor allem um dann bei der 16GB Version noch mal Aufpreis einsacken zu können. Ich kann mir nicht vorstellen dass die Leute ekstatisch ihre Schekel in eine Graphikkarte mit sehr begrenzter Lebensdauer investieren möchten, aber vl. irre ich mich auch.

Mich irritiert vor allem eine 3060 mit 6GB, die finde ich besonders unattraktiv.

Vor ein paar Tagen habe ich schon mal etwas über Preisgestaltung und die dahinterliegende Psychologie geschrieben.

Wenn du viele kleine Preisschritte hast, mit denen der Käufer jedesmal etwas höhere Qualität einkauft, verkaufst du im Schnitt teurere Produkte. (Das ist keine graue Theorie, sondern in der Praxis nachgewiesen.)

Beispiel: Ich biete nur eine GraKa für 400 Euro an und eine deutlich bessere GraKa die aber 900 Euro kostet.
Da ist die Mehrheit halt bei 400 Euro, weil den meisten 900 Euro schlicht zu viel sind.
Ja, die 900 Euro Karte ist viel schneller, hat mehr Ram, aber der Schritt von 400 auf 900 ist viel zu groß um verlockend zu sein.
Wenn ich jetzt aber immer in 100 Euro Schritten bessere GraKas habe?

"3060 für 400 Euro, mit nur 6GB - mh, sehr wenig Ram, gefällt mir nicht so"
"3060 für 480 Euro mit 12 GB Ram - ja, der Aufpreis sollten mir mehr Ram wohl wert sein"
Jetzt bin ich gedanklich eher schon bei 480 Euro.
Wenn es jetzt noch ne 3060TI gibt die vielleicht 580 Euro kostet überlegt man sich vielleicht sogar noch mal nen hunderter mehr auszugeben.

Natürlich landet man da nicht statt bei 400 Euro am Ende bei 900 Euro.
Aber es ist erwiesen, dass halt einige bei 600 Euro statt bei 400 Euro einkaufen.

Durch mehrere Ram-Variationen kann Nvidia ein breites Spektrum (400-1000 Euro) kleinmaschig abdecken.
So dass man immer mit einem relativ kleinen Sprung zu einer "besseren" Lösung kommt.

Dadurch kann man als Hersteller ohne Preiserhöhungen (die generell immer negativ bei den Kunden ankommen) dennoch seine Marge steigern, weil man es schafft, dass ein Teil der Kunden zu einem höherpreisigen Modell greift (das mehr Marge bringt) als wenn man zwischen den einzelnen Modellen hohe Preissprünge drin hat.

(Anders Beispiel, was sehr bekannt ist: Autokauf. Geworben wird immer mit einem niedrigen Preis für ein Basismodell. Wer kauft am Ende wirklich das reine Basismodell? Fast jeder nimmt am Ende ein paar Extras. Bessere Motorisierung. Klimaanlage, Einparkhilfe, was weiß ich. Die überproportional viel Geld kosten. Aber wenn du halt schon mal gedanklich 15.000 Euro für das Basismodell ausgegeben hast, bist du halt auch bereit noch mal 2000 Euro in ein paar Extras zu investieren, die dir persönlich wichtig erscheinen. Gäbe es da nur das Basismodell für 15.000 Euro und das "Komplettpaket" für 25.000 Euro würden die meisten bei 15.000 Euro bleiben. Durch die ganzen Zwischenschritte bleiben weniger bei 15.000 Euro sondern sind dann halt bei 17.000 oder 18.000 Euro -> dir ist es als Hersteller ohne Preiserhöhung gelungen, den Durchschnittskäufer auf ein teureres Auto zu heben.)

Natürlich hat man auch negative Effekte - du hast eine deutlich breitere Palette die du anbieten musst. 10 unterschiedliche GraKas zu produzieren ist natürlich aufwändiger als nur 5.
Das kostet auch wieder etwas.

Was da jetzt der "richtige" Weg ist, kann man als Fremder unmöglich sagen, da muss man die zusätzlichen Kosten für die Bereitstellung von zig unterschiedlichen Karten kennen, die genauen Margen bei den einzelnen Karten und so weiter.

Ich kann mir aber schon vorstellen, dass dies ein Grund sein könnte, warum Nvidia auch die kleinen Speicherbestückungen anbietet.

Leonidas
2020-08-30, 13:05:17
Die 3060 ist mir von den bisherigen Leaks etwas zu gammlig.


Genau den Finger in die Wunde gelegt. Ich hoffe, NV legt sich hierbei nicht zu früh fest, sondern wartet die Reaktionen ab und sieht dann die Notwendigkeit einer 3060Ti mit 8 oder gleich 12 GB Speicher.

JVC
2020-08-30, 13:18:49
Was genau sollte ich gewinnen, wenn ich warte bis AMD BigNavi releast?
Gar nichts.
Gewissheit und vielleicht zu mindestens etwas niedrigere Preise :smile:
(unter umständen vermeidet man auch einen Fehlkauf)
Wie du von "Gar nichts." ausgehen kannst erschließt sich mir nicht.

Um wählen zu können, ist es notwendig die Auswahl zu kennen ;)
Daher warte Ich.

M.f.G. JVC

WedgeAntilles
2020-08-30, 17:49:25
Gewissheit und vielleicht zu mindestens etwas niedrigere Preise :smile:
(unter umständen vermeidet man auch einen Fehlkauf)
Wie du von "Gar nichts." ausgehen kannst erschließt sich mir nicht.

Um wählen zu können, ist es notwendig die Auswahl zu kennen ;)
Daher warte Ich.

M.f.G. JVC

Mein Beispiel war nicht auf einen speziellen Käufer bezogen.
Das "ich kaufe gleich" macht halt ein gewisser Prozentsatz der potentiellen Käufer.
Das gerade stärker interessierte und informierte eher warten - keine Frage.

Aber wenn nur 1/3 der Käufer "blind" zuschlägt ist das ja für dich als Firma schon mal ein großer Vorteil. Denn das ist gleich mal ein großes Stück des Kuchens (der zusätzlich durch die genannte Mund-zu-Mund Propaganda, Youtube und co dafür sorgt, dass dein anderes Stück vom Kuchen auch noch mal etwas größer wird)

Das sollte meine Argumentation dafür sein, dass Nvidia nicht künstlich wartet das Portfolio auszubauen um "zu kontern".

Oder anders ausgedrückt: Je mehr Käufer sich bei erscheinen von BigNavi bereits mit einer Nvidia Karte eingedeckt haben, desto besser für Nvidia.
-> Also haut Nvidia IMO das gesamte Portfolio in den nächsten Wochen raus.

Und es werden sich eben schon viele mit den Karten eindecken (ich denke da besonders an eine 16GB 3070er) bevor BigNavi kommt.
Eben weil viele Leute genau so denken wie ich schrieb: Was soll ich warten, hab ja bisher immer Nvidia gekauft und ob ich es 100 Euro spare oder nicht, dafür aber 2 Monate warten muss - was solls.

Ich wollte damit nicht generell in Frage stellen, ob es nicht vielleicht doch sinnvoller beim Kauf auf BigNavi zu warten. (Ob etwas sinnvoll ist oder nicht ist ja nicht unbedingt ein Kriterium, nach dem jeder handelt^^)

Das habe ich aber etwas unklar ausgedrückt, sorry.

Complicated
2020-08-30, 19:12:35
Da jeden Monat GPUs gekauft werden, sprechen wir hier von einem Anstieg von vielleicht 10-20%.
Der Rest kauft sowieso über das Jahr verteilt. Auch Nvidia wird es nicht schaffen in 3 Monaten 50% mehr Umsatz zu machen, weil sie etwas früher dran sind. Klar hat es einen Effekt. Doch man sollte das auch nicht überschätzen, gerade kurz vor Release der Konsolen, wo vielleicht nicht unbedingt die 1.000,- € GPU gekauft wird, sondern vielleicht eher eine für 500,- € und dafür die anderen 500,- € in die PS5 wandern zum Weihnachtsfest.

Es gibt ständig neue Käufer, wenn man von den Quartalszahlen der Unternehmen ausgeht.

WedgeAntilles
2020-08-30, 22:01:13
Ja, es gibt ständig neue Käufer, das ist richtig. Und nein, natürlich machen 2,3 Monate früher dran zu sein nicht 50% des Marktes aus, da hast du völlig recht.

Aber was willst du damit sagen? Dass du glaubst Nvidia wartet mit seinen attraktiven 16GB 3070 Varianten, bis AMD auf dem Markt ist mit BigNavi?

Das wird ja von vielen behauptet, was ich eben - siehe Ausführung in den vorhergehenden Posts - für Blödsinn halte.

Ob du jetzt 5% zusätzliche Käufer hast oder 15% ist doch "egal", es geht darum zusätzliche Käufer zu haben.
Und ein paar Prozent sind halt immer noch besser als 0%.

Badesalz
2020-08-30, 22:25:09
Ich versuch schon seit Tagen (!) zu begreifen wie das mit der TGP zwischen der 3080 und 3090 funktionieren soll.

Entweder laufen die Dies der 102-200 weit über die Effizienzgrenze überfahren... oder der GDDR6X der 3090 ist so extrem selektiert, daß es viel weniger Spannung braucht als auf der 3080. Sozusagen, immer nur ein Steinchen aus der Mitte des Waffers extra für die 3090...
ODER, der 102-300 ist so extrem selektiert (mit seiner viel niedrigeren Spannung als die anderen) gegenüber dem 102-200. Hätte aber immernoch und trotzdem 14 SM mehr zu versorgen :|

Weil, die 320W zu 350W, müssten fast komplett die +14GB (samt ihrer Stromversorgung) der 3090 auffressen. Und die GPU selbst? Der 300er zieht dann soviel wie der 200er oder wie?

Daredevil
2020-08-30, 22:42:40
GA102-200 hat halt einen deutlich ( ! ) niedrigeren Verbrauch, das wird bestimmt in Takt investiert.
Weniger Einheiten > Weniger Verbrauch
Kleineres Speicher Interface > Weniger Verbrauch
Weniger Speicher > Weniger Verbrauch
Langsamerer Speicher > Weniger Verbrauch
Kleinere Lüfter oder vielleicht langsamere > Weniger Verbrauch
Das kann man alles in 100Mhz Coretakt investieren und die Ersparnis ist dahin. :D

Ist ja nicht unüblich, das kleinere Karten höher boosten als die größeren und das geht halt auf die Effizienz. Siehe z.B. hier:
https://abload.de/img/unbenannt2tj4y.png

Badesalz
2020-08-30, 22:44:57
Dann läuft ER SELBST auf der 3080 aber mit zig Watt mehr als der 300er auf der 3090 (?)

Daredevil
2020-08-30, 22:50:00
Ja klar, warum nicht?
Dem 3080 DIE kann mehr Spielraum gegeben werden, dadurch verbraucht er sagen wir mal 220w.
Der 3090 DIE ist im Power Limit eingeschränkt durch den Speicher und andere Dinge, siehe oben, der könnte niedriger takten und dann z.B. mit 200w laufen, aber immer noch deutlich schneller sein als der 3080 DIE.

Wenn du eine 2080 aufs MAX OC prügelst, verbraucht die Karte ~300w. ( 2.0-2.1 Ghz )
Wenn du eine 2080ti aufs MAX UV drosselst, verbraucht die Karte ~150w. ( 1.5 Ghz )
Die 2080ti ist dabei leicht schneller, obwohl die 2080 doppelt so viel verbraucht.

Wäre das nicht eine Begründung, wieso die TGP so nah beieinander sein könnte?

Edit: Aber gut, die Unterschiede bei Turing waren auch viel größer.

Leonidas
2020-08-31, 05:43:14
GA102-200 hat halt einen deutlich ( ! ) niedrigeren Verbrauch, das wird bestimmt in Takt investiert.


Deutet sich ja an. Alle Taktraten-Angaben zu 3080 sind derzeit leicht höher als bei 3090.