PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia stellt GeForce RTX 3070, 3080 & 3090 offiziell vor


Leonidas
2020-09-01, 21:07:41
Link zur News:
https://www.3dcenter.org/news/nvidia-stellt-geforce-rtx-3070-3080-3090-offiziell-vor

TheGood
2020-09-01, 21:25:32
Wenn man das Video von DF Ansieht ist es zwischen 3080 und 2080 so um die 70% unter 4K, aber vielleicht ist mir da auch was entgangen, denn selbst Nvidia gibt diese Werte ohne RTX und DLSS nirgends an Edit: ne sie haben es auf der Folie ähnlich angegeben. DAnn stimmt das wohl schon irgendwie.

DAS RTX IO hast du gleich ganz weggelassen oder?

madshi
2020-09-01, 21:39:23
> Genauso gut wäre aber auch eine "kreative" Zählweise möglich,
> welche die mit Turing eingeführten INT32-Einheiten nunmehr als
> "CUDA Cores" mitzählt (nVidia sprach schließlich von "Shader-TFlops",
> nicht von "FP32-TFlops").

https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/rtx-3080/

"NEW SM: 2X FP32 THROUGHPUT"

RitterRost
2020-09-01, 21:40:25
Ich freue mich, dass NVIDIA den Preis für 2080Ti Performance auf 500€ gedeckelt hat - auch wenn man das erst irgendwann im Oktober richtig bestätigen kann, wenn die 3070 auch erhältlich ist.
Hoffentlich lässt AMD nicht so lange auf sich warten...

Mal sehen, wie in den Tests dann die 320 und 350Watt ankommen (Lautstärke, Erwärmung des Systems). Und was der erreichbare Boost Takt wird.
Ach, ich freue mich schon auf die Tests :-)

Daredevil
2020-09-01, 21:41:29
Endlich mal wieder ein riesen Sprung, davon bin ich total verblüfft. :)
War aber auch nötig, das Pascal>Turing ja nur ein "Tick" war, jetzt folgt halt der "Tock".

Ich fürchte, AMD wird hier schlicht kein Land sehen.

madshi
2020-09-01, 21:41:46
P.S: Außerdem bedeutet FLOPS "Floating Point Operations Per Second", das schließt per Definition Integer aus. Wenn Nvidia von Integer spricht, sagen sie "TOPS" statt "TFLOPS". Siehe z.B. hier:

https://developer.nvidia.com/blog/nvidia-ampere-architecture-in-depth/

WedgeAntilles
2020-09-01, 21:50:58
Bei den Preisen geht einem schon etwas die Hose auf :biggrin:

Merklich niedriger als erwartet.
Dazu merklich bessere Performance als lange geunkt wurden war.

Aber das ist natürlich nur der Beweis dafür, wie überlegen BigNavi ist ;D

Ne, ernsthaft, das bedeutet natürlich auch, dass die AMD Preise niedriger sein werden als erwartet.
Denn wäre Nvidia 200 Euro teurer gewesen, wäre auch BigNavi 150-200 Euro teurer gewesen.

Selbstverständlich sind die Preise immer noch hoch genug, dass Nvidia eine dicke Marge einfahren wird.

Für uns Spieler ist der Beginn der neuen GraKa Generationen auf jeden Fall eine tolle Nachricht.

Viel mehr Leistung, die befürchtete Preissteigerung hingegen blieb aus.
Und das wird auch für BigNavi gelten.

Egal ob Nvidia oder AMD - was will man mehr?

insane in the membrane
2020-09-01, 21:54:54
10 GB Speicher für das 900-1000€ Modell (nach Steuern) sind etwas enttäuschend für 2020. Flaschenhals? (immerhin steht auch mal wieder ein Leistungssprung im Konsolenlager bevor und der Anspruch der Ports dürfte merklich steigen)

Garstig
2020-09-01, 21:55:23
Marketinggeschwätz. Braucht man nicht weiter ausführen. Es ärgert einfach nur.

Die 3090 geht preislich gar nicht. Was soll dann erst die Titan kosten - sofern es denn noch eine geben wird.

Sofern die Leistungsangaben 3070 relativ zur 3080 korrekt sind, passen +50% "TFlops" (angesichts der Umdefinition muss man das in " setzen), +45% RT-TFlops, +46% Tensor-TFlops zwar so etwa zu +47% CUDA-Cores und mit Augen zu +45% Stromverbruach, aber so gar nicht zu +40% UVP. So viel können nur +25% VRAM von der teureren Sorte gar nicht einsparen. Da kauft doch niemand die 3070.

Ravenhearth
2020-09-01, 21:55:55
Denkbar wäre eine Aufstockung der Anzahl der Shader-Einheiten pro Shader-Cluster (128 anstatt 64). Genauso gut wäre aber auch eine "kreative" Zählweise möglich, welche die mit Turing eingeführten INT32-Einheiten nunmehr als "CUDA Cores" mitzählt (nVidia sprach schließlich von "Shader-TFlops", nicht von "FP32-TFlops").
Mal abgesehen davon, dass 2x FP32 schon bestätigt wurden, würde eine kreative Zählweise nicht erklären, wie die 3080 bei gleicher Anzahl an SMs 30-40% schneller sein kann als die 2080 Ti. Warum es keine +100% sind, ließe sich evtl dadurch erklären, dass die INT-Einheiten womöglich durch die FP-Einheiten ersetzt werden, erstere also wegfallen. Dazu kommt noch der abnehmende Grenzertrag und voila

Korvaun
2020-09-01, 21:56:13
Ich kann mir gut vorstellen das AMD z.b. enien 3080-Konter bringt der gleichen Speed&Preis hat aber gleich 16GB und möglicherweise etwas sparsamer beim Verbrauch. Wäre nicht schlecht....

Daredevil
2020-09-01, 22:00:52
Ich kann mir gut vorstellen das AMD z.b. enien 3080-Konter bringt der gleichen Speed&Preis hat aber gleich 16GB und möglicherweise etwas sparsamer beim Verbrauch. Wäre nicht schlecht....
AMD hat folgende Baustellen bzw. muss nachlegen wie folgt:
1. Quasi Verdopplung der Performance
und dabei
2. Spielbares Raytracing
3. Effizienz beibehalten
4. Karte gut kühlbar machen ( DIE Fläche, Kühler Design )
5. Kosten senken ( 7nm )

Möglich ist es, dann aber nicht mal eben so "aus dem Ärmel geschüttelt".
Ich wünsche es ihnen wirklich, aber diese Aufgabe ist schlicht zu groß aus meiner Laienhaften Sicht.

Gast
2020-09-01, 22:01:44
350Wp für die 3090??? So ne Heizung kommt mir nicht ins Haus. Bin ICH froh, dass es AMD gibt.

Raff
2020-09-01, 22:02:25
Wenn nicht mit RDNA 2, wann dann? Die Vorzeichen sahen nie besser aus seit ... Tahiti. Allerdings, und da wird jeder Techie/Geek zustimmen, ist der Vorsprung bei RT und KI-AA sowohl kaum aufzuholen als auch aufzuwiegen, wenn's fehlt.

MfG
Raff

madshi
2020-09-01, 22:02:59
Warum es keine +100% sind, ließe sich evtl dadurch erklären, dass die INT-Einheiten womöglich durch die FP-Einheiten ersetzt werden, erstere also wegfallen.
Das liegt wahrscheinlich eher an der Speicherbandbreite? Da ist ja die 3080 nur knapp 25% besser als die 2080 Ti.

anddill
2020-09-01, 22:07:19
350Wp für die 3090??? So ne Heizung kommt mir nicht ins Haus. Bin ICH froh, dass es AMD gibt.
Lol, Als Besitzer einer OC Vega muss ich da schmunzeln.

Daredevil
2020-09-01, 22:14:23
Wenn nicht mit RDNA 2, wann dann? Die Vorzeichen sahen nie besser aus seit ... Tahiti. Allerdings, und da wird jeder Techie/Geek zustimmen, ist der Vorsprung bei RT und KI-AA sowohl kaum aufzuholen als auch aufzuwiegen, wenn's fehlt.

MfG
Raff
Absolut, klar!
AMD war selten so nah dran, theoretisch Nvidia mal in den Arsch zu treten, weil sie einen Fertigungsvorteil haben. Den muss man jetzt halt umsetzen.
Wer Turing und Navi verglichen hat, muss jetzt halt Ampere und Navi vergleichen, auch da hat man aber "nur" billige Samsung Fertigung und astreine 7nm Fertigung.
AMD hat die besseren Vorraussetzungen, die sollen das gefälligst nutzen, mit RT wirds ihnen aber sicherlich nicht einfacher gemacht. :/

Raff
2020-09-01, 22:22:44
Wichtig ist vor allem, dass die High-End-GPUs der RTG endlich ihr Nischendasein ablegen. Vor einem Jahr wäre RDNA 2 auch mit 1st-Gen-7nm richtig geil gewesen, um Turing auf die Pelle zu rücken. Nix kam. Nun ist Nvidia einen Schritt weiter und AMD verweilt im Dornröschenschlaf. Warum zum Geier glaubt die Führungsetage von AMD, dass ein Halo-Produkt unwichtig ist?

MfG
Raff

Ravenhearth
2020-09-01, 22:27:57
Wenn AMD RDNA2 früher launchen könnte, würden sie das sicher tun ;)

Digidi
2020-09-01, 22:32:24
Wichtig ist vor allem, dass die High-End-GPUs der RTG endlich ihr Nischendasein ablegen. Vor einem Jahr wäre RDNA 2 auch mit 1st-Gen-7nm richtig geil gewesen, um Turing auf die Pelle zu rücken. Nix kam. Nun ist Nvidia einen Schritt weiter und AMD verweilt im Dornröschenschlaf. Warum zum Geier glaubt die Führungsetage von AMD, dass ein Halo-Produkt unwichtig ist?

MfG
Raff

Weil es das ist. Die 5700xt konnte trotzdem Marktteile Im Segment erringen wo am meisten zu hohlen ist, da braucht man keinen Top Dog.

Raff
2020-09-01, 22:44:19
Und ein abfärbendes Produkt, das man gerne hätte, aber nur die Kohlen für das nächstkleinere hat, soll nicht helfen? Dass "GI für Produkte" ;) funktioniert, ist in keiner Branche ein Geheimnis. AMDs Grafiksparte fehlt der Biss. Hoffentlich kommt der mit den zwischenzeitlich hochgefahrenen R&D-Investitionen bald zurück. Sonst fischt immer Nvidia die hungrigen Kunden ab, wie jetzt mit Ampääär.

MfG
Raff

Gast
2020-09-01, 22:44:50
Dies bedeutet, dass nVidia rein offiziell die Anzahl der Recheneinheiten zwischen Turing und Ampere sogar mehr als verdoppelt hat. Wie dies genau realisiert wurde, bleibt derzeit noch etwas im Dunklen: Denkbar wäre eine Aufstockung der Anzahl der Shader-Einheiten pro Shader-Cluster (128 anstatt 64).

Denkbar sind ziemlich genau 2 Varianten.

- Entweder wurden die INT32 ALUS durch FP32 ALUs ersetzt, damit bräuchte man auch nicht mehr Bandbreite.

- oder, und wahrscheinlicher, man stelle sich einen A100 SM vor und ersetze die FP64 ALUs durch FP32 ALUS. Mehr Bandbreite braucht man für die neuen Tensor-Cores eh schon, also könnte man diese auch für eine weiteres FP32 SIMD benutzen

Genauso gut wäre aber auch eine "kreative" Zählweise möglich, welche die mit Turing eingeführten INT32-Einheiten nunmehr als "CUDA Cores" mitzählt (nVidia sprach schließlich von "Shader-TFlops", nicht von "FP32-TFlops").

Das FL in FLOPs steht für Floating Point, damit ist INT per Definition ausgeschlossen, wie gesagt aber möglicherweise auf kosten von Concurrent INT32.

Eine echte Verdopplung im Wortsinn liegt dagegen aller Wahrscheinlichkeit nach nicht vor. Dafür ist selbst der hohe Transistoren-Aufwand (28 Mrd. Transistoren für den größen Gaming-Amere-Chip, aka wohl GA102) immer noch zu gering, denn dies sind "nur" +50% mehr Transistoren gegenüber dem vorhergehenden TU102-Chip.

Das behauptet auch niemand, es sind nur doppelt so viele FP32 ALUs pro SM, ALUs machen nur einen recht kleinen Teil des gesamten DIEs aus.
Nur die ALUs zu verdoppeln sollte mit der Transistoranzahl locker drinnen sein.

Und logischerweise wird ein reines verdoppeln der ALUs nicht zu einer verdoppelten Performance führen wenn der Rest gleich bleibt, vor allem wenn eben nicht die Rechenleistung limitiert.

was wiederum bedeutet, dass die 2,5fache Rechenleistung nicht wirklich ausgenutzt wird bzw. nicht gänzlich ausgenutzt werden kann, somit also keine "echte" Design-Verdopplung vorliegt.

Behauptet wie gesagt niemand, nicht mal der Jensen.

Nicht nur liegen zu "Big Navi" derzeit immer noch zu wenige Daten vor, vor allem aber muß nVidia erst einmal beweisen, welche Performance unter Spielen ohne RayTracing- und DLSS-Einsatz in Gaming-Ampere wirklich drin steckt

Ehrlich gesagt ist das eigentlich das Wichtigste, wenn man auch ohne Raytracing schneller als die 2080Ti rauskommt hat man schon eine sehr gute Basis, wo es schon schwierig wird durchgehend ohne CPU-Limit zu benchen.

Was man braucht ist deutlich mehr Leistung mit Raytracing, und dafür braucht es neben der Beschleunigung der Intersection Tests vor allem jede Menge Rechenleistung und genau das scheint Ampere zu liefern.

Gast
2020-09-01, 22:47:25
Die 3090 geht preislich gar nicht. Was soll dann erst die Titan kosten - sofern es denn noch eine geben wird.



Die 3090 ist die neue Titan. Nicht umsonst wurde die 3080 als "Flagship" vorgestellt und die 3090 dann als das "one more thing".

Und ja mehr als der doppelte Preis für 20% mehr Leistung ist ziemlich lächerlich, VRAM hin oder her.

Gast
2020-09-01, 22:50:11
Ich kann mir gut vorstellen das AMD z.b. enien 3080-Konter bringt der gleichen Speed&Preis hat aber gleich 16GB und möglicherweise etwas sparsamer beim Verbrauch. Wäre nicht schlecht....

Ich gehe mal davon aus, dass Nvidia schon halbwegs bescheid weiß was Big Navi kann und versucht die 3080 schon knapp davor und die 3090 außer Reichweite zu platzieren.

Sollte Big Navi dann doch vor der 3080 rauskommen hat man immer noch genügend Spielraum zum kontern, und sei es mit einer offiziellen 20GB Version die dann auch ansonsten noch ein bischen mehr Bums mitbekommt.

iamthebear
2020-09-01, 22:58:55
Man an der Differenz zwischen 3070 und 3080 (+50%) sehr gut, dass Nvidia die Leute dazu bewegen will, dass sie sich gleich die 3080 kaufen statt der 3070.
Der Unterschied zwischen 3070 und 3080 wird in etwa so groß sein wie zwischen 2060 und 2080.

Gast
2020-09-01, 23:08:12
ich verstehe nicht ganz, warum man die 3080 nicht mit 12gb gddr6 für 800-900€ gebracht hat.

naja, auf der anderen seiten braucht man wohl in zukunft keine rießige mengen an vram mehr mit NV IO / direct storage.

Ich bin gespannt, ob die einfachen AIB karten nicht nochmals 100€ billiger werden als die FE karten.

3080 non FE für 600€? count me in.

crux2005
2020-09-01, 23:17:12
@Leo: die Bilder nVidia Ampere: nVidia-eigene Benchmarks, Teil 2 und Teil 3 sind identisch. Sollte da evtl. ein anderes Bild bei Teil 3 sein?

Mal abgesehen davon, dass 2x FP32 schon bestätigt wurden, würde eine kreative Zählweise nicht erklären, wie die 3080 bei gleicher Anzahl an SMs 30-40% schneller sein kann als die 2080 Ti. Warum es keine +100% sind, ließe sich evtl dadurch erklären, dass die INT-Einheiten womöglich durch die FP-Einheiten ersetzt werden, erstere also wegfallen. Dazu kommt noch der abnehmende Grenzertrag und voila

Und evtl. limitiert dann was anderes im Spiel als die vorhandene Shader Leistung.

Buddy Casino
2020-09-01, 23:20:41
Man an der Differenz zwischen 3070 und 3080 (+50%) sehr gut, dass Nvidia die Leute dazu bewegen will, dass sie sich gleich die 3080 kaufen statt der 3070.
Der Unterschied zwischen 3070 und 3080 wird in etwa so groß sein wie zwischen 2060 und 2080.

Sieht ganz so aus. Ob sie das aufrechterhalten können hängt davon ab wieviel Druck RDNA2 macht, aber ehrlich gesagt glaube ich nicht dass AMD dem viel entgegensetzen kann. Alleine durch DLSS hat Nvidia hier einen großen Vorsprung, und falls die Latency-Improvements funktionieren werden Hardcore Gamer nur noch Nvidia kaufen.

Gebrechlichkeit
2020-09-01, 23:36:19
Digital Foundry Test, Preview 3080 (ohne DX12U "software patches")
4K Borderlands 3, 21 Sekunden Ladezeit (https://youtu.be/cWD01yUQdVA?t=328). Direct Storage noch nicht implementiert?

Wer keinen 24 Kerner hat, profitiert halt nix von der schnellen decom. RTio (bis 14GB/s, 24 Kerner Intel). Und die RTX3070 mit nur 8GBvram, kann man glaube ich gleich wegschmeissen.

Bisl besser als eine 2080ti, aber dank 3gb weniger vor dem Start bereits wertlos (ohne AA daddeln, nur High Settings) (https://youtu.be/9dMO8Geo4pA). COD Warfare goennt sich schon ueber 8GB bis 10GB vram (https://www.techpowerup.com/review/call-of-duty-modern-warfare-benchmark-test-performance-analysis/5.html).

Gast
2020-09-01, 23:54:13
Wer keinen 24 Kerner hat, profitiert halt nix von der schnellen decom. RTio (bis 14GB/s, 24 Kerner Intel). Und die RTX3070 mit nur 8GBvram, kann man glaube ich gleich wegschmeissen.

Bisl besser als eine 2080ti, aber dank 3gb weniger vor dem Start bereits wertlos (ohne AA daddeln, nur High Settings) (https://youtu.be/9dMO8Geo4pA). COD Warfare goennt sich schon ueber 8GB bis 10GB vram (https://www.techpowerup.com/review/call-of-duty-modern-warfare-benchmark-test-performance-analysis/5.html).
strom sparen? höherer cpu boost wegen geringerer cpu last, mehr speicherplatz im ram, such dir was aus.

COD MW läuft aber auch mit 8gb rund und diese hohe vram belegung hast du schon seit jahren. auswirkungen sind nicht festzustellen. es gibt titel, die belegen sogar mehr vram als vorhanden und trotzdem ruckelt nichts.

ich bin in 2 jahren auf tests gespannt die dann vermutlich festellen, das man mit 8gb immernoch problemlos zocken werden kann.

FlashBFE
2020-09-02, 00:16:13
Die NV-eigenen Benchmarks sind genauso geworden, wie ich es befürchtet habe. DLSS ist eine tolle Technologie, aber wenn jetzt alles nur noch damit verglichen wird, geht das an den realen Leistungen doch völlig vorbei.

Gerade die Vergleiche mit Pascal schreien doch zum Himmel, weil sie eben gar nicht vergleichbar sind. Pascal muss in den Benchmarks ein volles 4k-Bild berechnen, Turing und Ampere eben nicht. Und dann steht unter der Folie noch süffisant drunter, dass Pascal eben kein DLSS kann, also quasi Pech gehabt.

Genauso ist die 3090 eben jetzt "The World's First 8k Gaming GPU". Aber nur mit DLSS ohne zu erwähnen, welche Auflösung intern überhaupt gerendert wurde. Ich würde mich freuen, wenn es immerhin mehr als schlichtes 4k wäre.

Das führt zu Intransparenz über die realen Leistungswerte und viele Benchmarker werden das einfach so weitermachen, weil es vermutlich im Review Guide so drinsteht. Man muss sich mal vorstellen: Früher wurde Betrug gerufen, weil der Trilineare Filter in einigen wenigen Winkeln minimale Optimierungen hatte, die man real kaum gesehen hat. Dann gab es Filter-Tester, die jede theoretische Schwachstelle des Samplings abgeklopft haben. Ewige Diskussionen, ob Grafiktreiber die Shaderprogramme der Game-Engines optimieren dürfen, führten zu nichts. Und heute wird das kastrierte Bild schöngerechnet und alle jubeln. Nicht nur per DLSS, auch per VRS und ähnlichen Sparfunktionen.

p.s. Ich hoffe, eine Pro-Version der Switch bekommt DLSS und gibt dann ein 4k-Bild auf dem HDMI aus. Ich bin also durchaus für die Technologie.

Linmoum
2020-09-02, 00:30:54
Warum zum Geier glaubt die Führungsetage von AMD, dass ein Halo-Produkt unwichtig ist?Glaubt sie ja nicht. Deswegen wird es auch eines geben.


:)

Gast
2020-09-02, 01:00:47
Tja das wars wohl leider recht sicher für AMD`s kommende Ambitonen in der Oberklasse, selbst wenn big NAVI irgendwe in die Regionen einer RTX3080 kommen sollte ( was ich bezweifele die 3070 ist da schon realistischer bei vermuteten 5120 Shadern und um die 20 Tflops)
fehlt einfach das drum rum , NV hat mit der RTX Implementation in Spielen über 2 Jahre Vorsprung.
Noch wichtiger, DLSS gewinnt stark an Akzeptanz und macht so auch auf lowtier Karten wie der 3060/3070er hohe Auflösungen & Detailgrade spielbar.
Als wenn das noch nicht reicht kämpft AMD über ein Jahr nach Navis Launch nach wie vor mit den eigenen Treibern.
Durch die zwar selbstbewussten aber nicht angezogenen Preise drück man gleichzeit alle ältern Karten stark und hält den Spielraum fü BN sehr begrenzt.

Falls BN wieder erwarten genauso aussergewöhnlich gut wird kann eine 3080Ti mit 20 GB Vram für 799€ ohne bei den Preisen nachgeben zu müssen plaztiert werden analog zum Super move bei Turing.

Die Situation erinnert etwas an den Pascallaunch mit dem man mit einem Schlag AMD`s Vega das Wasser abgegraben hat.
Mit der Titan Xp dann noch kurze zeit später weiter progressiv vorgelegt, als darauf von AMD nur ein Schweigen im Walde zu vernehmen war hat man mit der 1080Ti nochmal eine Runde abgesahnt ohne sich strecken zu müssen.

Echt ne heftige Nummer von NV , ich hätte bei Ampere ja mit vielem gerechnet aber nicht mit so einem krassem Hammer.

crux2005
2020-09-02, 01:20:44
Wer keinen 24 Kerner hat, profitiert halt nix von der schnellen decom. RTio (bis 14GB/s, 24 Kerner Intel).

Ganz falsch verstanden.
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/

Daredevil
2020-09-02, 01:27:36
Glaubt sie ja nicht. Deswegen wird es auch eines geben.


:)
Joa. Hat ne gute Medienwirkung.
Nvidia: 8K GPU mit 24GB RAM
AMD: https://www.computerbase.de/2020-08/navi-amd-radeon-rx-5300-desktop/

Wieso kochen die alte Hardware neu auf? Wollen sie denn kein Geld verdienen und von Nvidia abgehängt werden? Eine "4k" Karte ist uns AMD seit Navistart schuldig. Das ist lame, darauf zu warten, gerade weil sie Nvidia gerade den vortritt lassen. Das tut doch nicht not. :(

Gebrechlichkeit
2020-09-02, 02:02:26
Ganz falsch verstanden.
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/

Ist das ganze nicht software basierend? CPU (via api,directstorage) muss vorher alles "gpu gerecht zurecht schneiden", damit die gpu was damit anfangen kann? Die ngen machen doch das ganze on-the-fly?

Und wenn einer der beiden Speicher voll ist, wird auf der nvme ausgelagert? Am Ende werden nur die wenigsten davon profitieren, weil 95% immernoch mit 1080p, intel pentiums unterwegs sind (leicht ueberspitzt formuliert).

Gast
2020-09-02, 02:03:43
Die 3090 ist die neue Titan.
Welche wilde Spekulation möchtest du uns damit verkaufen wollen? Dass die Ausbeute so mies ist, dass es nie GA102 im Vollausbau geben wird? Zu bezweifeln. Nicht als 'Gaming'-Karte/nur als Quadro geben wird? Hat es seit 480 nicht mehr gegeben.

Linmoum
2020-09-02, 02:09:20
Nvidia: 8K GPU mit 24GB RAM Nvidia-Marketing greift selbst bei Nerds.

Wieso kochen die alte Hardware neu auf?Da wird nichts aufgekocht. Teildefektes entsorgt man nicht auf der Müllhalde, sondern betreibt Resteverwertung. Und RDNA2 wird zuerst am anderen Ende der Skala gelauncht. Also ohne viel Aufwand was Neues unten, bis man das komplette Line-Up auf RDNA2 umgestellt hat.

Wollen sie denn kein Geld verdienen und von Nvidia abgehängt werden?Verstehe den Sinn dahinter wegen maximal zwei Monaten Zeitdifferenz jetzt eher weniger. Also was den dann offiziellen Launch angeht. Gibt ja noch andere Möglichkeiten, nech.

Eine "4k" Karte ist uns AMD seit Navistart schuldig. Das ist lame, darauf zu warten, gerade weil sie Nvidia gerade den vortritt lassen.Du musst nicht darauf warten. Produkte werden veröffentlicht, wenn sie fertig sind und nicht, weil bzw. wann mit-den-Füßen-auf-den-Boden-stampfende-Kunden das wollen. Was passiert, wenn man unfertige Produkte einfach auf den Markt wirft, hat man in der Vergangenheit, unabhängig von Herstellern, oft genug gesehen.

Das tut doch nicht not. :(In der aktuellen Konstellation als erster die Karten auf den Tisch zu legen, muss nicht von Vorteil sein. Kommt Zeit, kommt Rat. Man kann auch ohne noch eigens erfolgten Launch Dinge beeinflussen.

crux2005
2020-09-02, 02:27:55
Ist das ganze nicht software basierend? CPU (via api,directstorage) muss vorher alles "gpu gerecht zurecht schneiden", damit die gpu was damit anfangen kann? Die ngen machen doch das ganze on-the-fly?

Fällt dir das lesen so schwer? Alles bekannte steht in der News.

Die dedizierte HW (in diesem Fall eine GeForce mit RTX IO Fähigkeit) wird durch DirectStorage angesprochen damit sie die meiste Arbeit (lesen/schreiben der NVME.SSD Daten) der CPU übernimmt. On the fly. Wie auch sonst. :freak: Es wird natürlich noch eine CPU gebraucht, aber nur 0.5 Kerne von einem 10900K.

Und wenn einer der beiden Speicher voll ist, wird auf der nvme ausgelagert? Am Ende werden nur die wenigsten davon profitieren, weil 95% immernoch mit 1080p, intel pentiums unterwegs sind (leicht ueberspitzt formuliert).

Die wenigsten haben aktuell eine PS5/XBSX (leicht überspritzt formuliert).

Platos
2020-09-02, 03:34:23
Aber was ist denn mit den Preisen los?

Die RTX 3090 ist von der Leistung her nicht so viel besser, wie die 3080. Aber kostet tut sie extrem viel mehr. Mit der Begründung natürlich, dass sie viel Speicher hat.

Kommen also überhaupt noch Versionen mit mehr Speicher (3080 mit 16GB usw) ? Denn dann fragt man sich, was die kosten soll. Wird eine 3080 16GB trotzdem weitaus weniger kosten, wie eine 3090 oder wird sie dann 999 Dollar kosten :D

Und die 3070 sieht nicht so gut aus (relativ gesehen). Die 3080 ist ja deutlich besser vom P/L.
Edit: Aber was ist denn mit den TFLOPs nun los? Die 3070 soll 20 TFLOPs haben? Das wäre 50% mehr wie bei der 2080TI!? Laut nvidias eigenem Borderlands-Bench ist aber die 3070 "nur" geschätzt 60% schneller wie die 2070 (das wäre etwas besser wie die 2080Ti, was an sich gut ist, aber eben weit weg von 20 TFLOPs. Die 2080TI hat ja ca. 13.5 TFLOPs).

Naja, muss ich mir morgen ansehen.

crux2005
2020-09-02, 04:00:07
Ist das ganze nicht software basierend? CPU (via api,directstorage) muss vorher alles "gpu gerecht zurecht schneiden", damit die gpu was damit anfangen kann? Die ngen machen doch das ganze on-the-fly?

Und wenn einer der beiden Speicher voll ist, wird auf der nvme ausgelagert? Am Ende werden nur die wenigsten davon profitieren, weil 95% immernoch mit 1080p, intel pentiums unterwegs sind (leicht ueberspitzt formuliert).

Er spricht auch über das RTX IO:
https://www.youtube.com/watch?v=odvUvAae4hg&t=50m5s

Nightspider
2020-09-02, 04:02:33
Ich wünsche es ihnen wirklich, aber diese Aufgabe ist schlicht zu groß aus meiner Laienhaften Sicht.

Die Vorteile liegen klar auf AMDs Seite:

Besserer Prozess: Nicht nur 7nm sondern verbesserter 7nm Prozess mit deutlich besseren Yields und Kennwerten bei Effizienz und Transistordichte

-> deutlich höhere Taktraten möglich
-> doppelt so vielen Einheiten locker möglich
-> massiv überarbeitete Architektur

Bestätigt: RDNA2 hat 50% bessere Effizienz als RDNA1. Damit liegt man schon vor Ampere.

Glaub du willst das du so wahrhaben damit du ohne groß zu überlegen und abzuwarten schnell zur 3080 greifen kannst.

Raytracing ist ebenso enthalten und könnte sogar besser performen, da die Konsolen das auch supporten.

Grendizer
2020-09-02, 05:18:46
10 GB Speicher für das 900-1000€ Modell (nach Steuern) sind etwas enttäuschend für 2020. Flaschenhals? (immerhin steht auch mal wieder ein Leistungssprung im Konsolenlager bevor und der Anspruch der Ports dürfte merklich steigen)

Das mit der Dollar umrechnung üben wir dann nochmal :rolleyes:

edit: Achja .. etwas runterscrollen auf dieser Seite und da stehen schon die Europreise dran

https://www.nvidia.com/de-de/geforce/graphics-cards/30-series/?nvid=nv-int-cwmfg-24429#cid=gf73_nv-int-cwmfg_de-de

Um auch die Dollarumrechnung zu erklären:

699$ = 587,30 Euro und dann mal 1,16 Mwst = 681,26 (bei 19% wären es dann übrigens 698,53 Euro)

Leonidas
2020-09-02, 05:32:56
"NEW SM: 2X FP32 THROUGHPUT"


Danke für den Hinweis. Der fehlte im Event. Damit ist die Sache dann für mich sicher - und meine Bedenken über etwaige INT-Zählung sind vom Tisch.




@Leo: die Bilder nVidia Ampere: nVidia-eigene Benchmarks, Teil 2 und Teil 3 sind identisch. Sollte da evtl. ein anderes Bild bei Teil 3 sein?


Es sind unterschiedliche Bilder. Schau mal auf die Beschriftung rechts oben.

insane in the membrane
2020-09-02, 06:37:24
Das mit der Dollar umrechnung üben wir dann nochmal :rolleyes:

Um auch die Dollarumrechnung zu erklären:

699$ = 587,30 Euro und dann mal 1,16 Mwst = 681,26 (bei 19% wären es dann übrigens 698,53 Euro)
;D
1000€ mag tatsächlich etwas hochgegriffen sein, aber die Preise für die customer modelle werden natürlich anfangs deutlich näher an den 900€ als an den 700€ liegen. Wie immer halt.

Meine Frage war eigentlich, ob 10 gb vram in dem Performance-Segment wirklich angemessen sind?

Gast
2020-09-02, 07:32:58
;D
1000€ mag tatsächlich etwas hochgegriffen sein, aber die Preise für die customer modelle werden natürlich anfangs deutlich näher an den 900€ als an den 700€ liegen. Wie immer halt.

Meine Frage war eigentlich, ob 10 gb vram in dem Performance-Segment wirklich angemessen sind?

Aber die neuen FEs sehen doch gut aus und sollten auch gute kühlung haben. Warum dann ein custom diesmal für 100 oder 200 Euro mehr unbedingt notwendig?

Gast-chk
2020-09-02, 07:46:08
Frage: was bedeutet "GCP"?

Ich kenne "TDP" (thermal design power), dann gibt es noch, glaube ich, "typical board power", aber "GCP" habe ich bisher noch nicht gehört.

Gast
2020-09-02, 07:52:57
Danke für den Hinweis. Der fehlte im Event. Damit ist die Sache dann für mich sicher - und meine Bedenken über etwaige INT-Zählung sind vom Tisch.
Naja, wie von anderen schon geschrieben: INT32 Einheiten können keine floating point Operationen, und damit auch nicht in die FLOPS Wertung mit eingehen. Insofern war das sowieso abwägig.
Aber was ich mich frage: Wieso hat die A100 dann so wenig FLOPS? Hat die andere Shader? Ich bin da noch etwas skeptisch, vielleicht nutzt NV bei den Zahlen auch die Tensor Cores in der Rechnung. Die können ja theoretisch auch FP (bei der A100 glaube ich sogar FP64, bei den Gamern hat man das vielleicht auf FP32 reduziert).
Denn aktuell ergibt eigentlich die A100 keinen Sinn. Wenn ich viel Rechenleistugn brauche, wäre ich mit der 3090 besser dran, dazu ist die auch viel billiger und sparsamer. Das steht krass im Widerspruch zum Marktsegment der Chips.
Entsprechend bin ich da noch etwas skeptisch bezüglich der FLOP Angaben (wobei die eigentlich auch einem Gamer egal sind, da sind die FPS relevant).

Was ich hingegen überraschend finde, sind die gemäßigten Preise der 3080. Gut, die 20GB Variante wird wohl noch mal 200€ mehr kosten, aber ich hatte da mit deutlich mehr gerechnet (zwischen 3080 und 3090 ist ja ein ziemliches Loch, ich dachte die 3080 wäre grob 200€ teurer).

Mega-Zord
2020-09-02, 08:26:00
Die kleinen FEs Kosten ja nur 499 bzw. 699 EUR. Dass die 3090 FE auch "nur" 1499 EUR Kosten soll ist für mich daher überraschend, weil ich mit dem Preis für eine non-FE gerechnet habe. Vielleicht bekommt man ja eine wassergekühlte Custom vielleicht für 1700 EUR.

Gast
2020-09-02, 08:30:10
Nvidia: Hier hast du ein perfektes Straßenauto, mit dem du auf jeder deutschen Straße die Höchstgeschwindigkeit fahren kannst, Kurvenlage extrem gut, Beschleunigung von 0 auf 100 in 3 Sekunden! Und das alles zu einem mehr als angemessenem Preis!

Jeder: Cool!

Nvidia: Wir haben aber auch einen echten Rennwagen, der keine Straßenzulassung bekommt und von 0 auf 100 in 2,5 Sekunden beschleunigt. Du wirst dieses Auto nicht brauchen, außer du willst Rundenrekorde auf dem Nürburgring aufstellen! KAUF DIR DIESES AUTO NICHT, ES IST UNNÖTIG! WIR ERWÄHNEN NUR BEILÄUFIG, DASS ES DA IST! DER PREIS IST ENTSPRECHEND DER LEISTUNG EXTREM! KAUFE UNSER STRAßENAUTO! DAS RENNAUTO MACHT DICH NICHT GLÜCKLICHER!

3dcenter User: Was für ein Wucher! Was fällt Nvidia ein mir diese Option zu bieten die viel zu teuer ist? Ich brauche es nicht, aber ich will es! Aber ich will nicht den Preis zahlen! Wieso schenkt mir Nvidia nicht das Rennauto? Unerhört!

iamthebear
2020-09-02, 08:35:34
Kosten die FEs wirklich nur 700 Euro? Damals bei der 2080 waren es 800 Euro für die FEs und 700 Euro Listenpreis für die Partnermodelle, die aber keiner um den Preis verkauft hat.

Mega-Zord
2020-09-02, 08:36:57
Kosten die FEs wirklich nur 700 Euro? Damals bei der 2080 waren es 800 Euro für die FEs und 700 Euro Listenpreis für die Partnermodelle, die aber keiner um den Preis verkauft hat.

So steht es bei NV. Asus hat gestern selber noch keine Preise genannt.

Zergra
2020-09-02, 08:39:13
Frage: was bedeutet "GCP"?

Ich kenne "TDP" (thermal design power), dann gibt es noch, glaube ich, "typical board power", aber "GCP" habe ich bisher noch nicht gehört.


Naja, denke sowas wie Grafik Card Power,

im Grunde ein besserer Begriff.

hardtech
2020-09-02, 08:50:37
kein wort zur 3060. schade. mir sind die 220w zu viel bei der 3070.

denke, damit wird die 3060 eher auf ga106 als auf dem vermuteten ga104 basieren.

interessant wäre: wie gut der kühler der fe version zu custom kühler ohne wasser abschneidet. ergo: der sieht so potent aus, dass für einen leisen betrieb evtl sogar der fe kühler ausreichen könnte. wobei ich bei 220, 320 und 350w nicht an leise glaube. dazu sind die werte zu hoch.

Zergra
2020-09-02, 08:54:53
Die 3060 kommt doch relativ sicher mit dem GA104, bis jetzt ist nur ein Chip angekündigt (3070) und die hat ja quasi den Vollausbau, die 2SM merkt man am Ende auch nicht.

Daredevil
2020-09-02, 09:00:03
Die Vorteile liegen klar auf AMDs Seite:

Besserer Prozess: Nicht nur 7nm sondern verbesserter 7nm Prozess mit deutlich besseren Yields und Kennwerten bei Effizienz und Transistordichte

-> deutlich höhere Taktraten möglich
-> doppelt so vielen Einheiten locker möglich
-> massiv überarbeitete Architektur

Bestätigt: RDNA2 hat 50% bessere Effizienz als RDNA1. Damit liegt man schon vor Ampere.

Glaub du willst das du so wahrhaben damit du ohne groß zu überlegen und abzuwarten schnell zur 3080 greifen kannst.

Raytracing ist ebenso enthalten und könnte sogar besser performen, da die Konsolen das auch supporten.
Das alles hatte AMD auch schon mit RDNA1, wieso ist da nichts passiert? Wieso denkst du, wird First Gen RT gleichwertig wie etwas, wo Nvidia mehr Erfahrung hat?

Redirion
2020-09-02, 09:12:21
Danke für den Hinweis. Der fehlte im Event. Damit ist die Sache dann für mich sicher - und meine Bedenken über etwaige INT-Zählung sind vom Tisch.

Damit hatte der die Analyse des Gasts vom Januar(!) tatsächlich Recht behalten:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12196280#post12196280

Berniyh
2020-09-02, 09:43:01
Damit hatte der die Analyse des Gasts vom Januar(!) tatsächlich Recht behalten:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12196280#post12196280
Nicht schlecht. :)

Heißt dann: Gerüchten/Analysen von "Gast" ab sofort immer glauben. :D

hardtech
2020-09-02, 10:09:03
@zergra
ja nur wie lange willste auf die 3060 warten?
so ein versetzter launch ist irgendwie fies :redface:

Legendenkiller
2020-09-02, 10:12:57
Tja das wars wohl leider recht sicher für AMD`s kommende Ambitonen in der Oberklasse, selbst wenn big NAVI irgendwe in die Regionen einer RTX3080 kommen sollte ( was ich bezweifele die 3070 ist da schon realistischer bei vermuteten 5120 Shadern und um die 20 Tflops)
fehlt einfach das drum rum , NV hat mit der RTX Implementation in Spielen über 2 Jahre Vorsprung.
Noch wichtiger, DLSS gewinnt stark an Akzeptanz und macht so auch auf lowtier Karten wie der 3060/3070er hohe Auflösungen & Detailgrade spielbar.
Als wenn das noch nicht reicht kämpft AMD über ein Jahr nach Navis Launch nach wie vor mit den eigenen Treibern.
Durch die zwar selbstbewussten aber nicht angezogenen Preise drück man gleichzeit alle ältern Karten stark und hält den Spielraum fü BN sehr begrenzt.

Falls BN wieder erwarten genauso aussergewöhnlich gut wird kann eine 3080Ti mit 20 GB Vram für 799€ ohne bei den Preisen nachgeben zu müssen plaztiert werden analog zum Super move bei Turing.

Die Situation erinnert etwas an den Pascallaunch mit dem man mit einem Schlag AMD`s Vega das Wasser abgegraben hat.
Mit der Titan Xp dann noch kurze zeit später weiter progressiv vorgelegt, als darauf von AMD nur ein Schweigen im Walde zu vernehmen war hat man mit der 1080Ti nochmal eine Runde abgesahnt ohne sich strecken zu müssen.

Echt ne heftige Nummer von NV , ich hätte bei Ampere ja mit vielem gerechnet aber nicht mit so einem krassem Hammer.


Deswegen rüstet AMD beide Nextgen Konsolen aus, weil sie nix können :-)

Sony hatte Anfang des Jahres mal gesagt PS5 hat mehr Grakapower als die 2080. Und Konolen haben ja kein 350W Bignavi.

Also da könnte schon noch was gehen.

Ich warte auf jedenfall auf reale Test der 3070 und Navi2.

Gast
2020-09-02, 10:19:05
Das Nvidia mit den Preisen seine Fanboys und -girls so richtig abzockt halte ich nicht für vernünftig. Aber das ist nun ja schon seit einigen Generationen so und da klingt das für manche wohl tatsächlich vernünftig, dass man nicht noch mehr abgezockt wird wie vorher. ^^

Olliver
2020-09-02, 10:24:47
Die 3080 ist mehr als ich erwartet habe und gibt AMD sicher etwas zu grübeln.
Deswegen vermutlich auch Nvidias Verzicht auf eine Preiserhöhung, gegenüber der 2080.

Also habe ich zur Auswahl eine 3080 mit vermutlich zu geringem RAM und einer 3090 mit zuviel Preis.
Mal schauen wann es custom 3080 mit 20GB gibt und was Big Navi kann und für welchen Preis.
Das Niveau der 3080 sollte man doch erwarten können, oder?

Bei den custom Versionen auf Nvidia Basis stört mich seit Jahren, dass die Hersteller nvidias Aluminium mit gutem Design mit hässlichem Plastik ersetzen und dafür sogar mehr Geld wollen.
Ein paar Mhz für den Benchmark interessieren mich dagegen weniger.

Gast
2020-09-02, 10:30:32
Deswegen rüstet AMD beide Nextgen Konsolen aus, weil sie nix können :-)

Sony hatte Anfang des Jahres mal gesagt PS5 hat mehr Grakapower als die 2080. Und Konolen haben ja kein 350W Bignavi.

Also da könnte schon noch was gehen.

Ich warte auf jedenfall auf reale Test der 3070 und Navi2.

Was für ein abstruser Kommentar , Äpfel und Birnen aber sowas von.
Die vorherigen Generationen wurden aus Bulli und GCN Ableger gebaut weil die so leistungsfähig, Energieeffizienz waren?
Eher nicht ,zu der Zeit gab es für beide Segmente bessere .
Was es nicht gab war ein Anbieter der beides aus einer Hand mit Custom Zuschnitt liefern konnte Und das auch noch möglichst kosten effizient .

Die Xbox hat 12 tflops genauso viel wie eine RTX 2080s @2Ghz , nicht schlecht aber technisch Schon vor dem Launch überholt .

seba86
2020-09-02, 10:34:21
Weil hier manche verwirrt sind: TFlops Karte A != TFlops Karte B

Eine HD5870 hat z.B. 2,7 Tflops; eine 1050Ti hat 2.1 Tflops. Rechnerisch ist eine HD 5870 knapp 30% stärker.

Am Ende des Tages hat aber die 1050Ti ein 3Dc-Index von 360%, während die die HD5870 nur 210% aufweist (was aber immer in der Klasse der schnellsten Vega-APUs liegt imho) - also ist die 1050Ti in der Praxis gut 40% stärker...

Edit: @Olliver: Nvidia muss ja eingeschlagen haben wie eine Bombe. Nach fast einem Jahr schreibst du auch schon wieder ^^

Olliver
2020-09-02, 10:39:33
Wie die Zeit vergeht...
Aber lesen tue ich regelmäßig ;-)

Gast
2020-09-02, 10:53:51
Deswegen rüstet AMD beide Nextgen Konsolen aus, weil sie nix können :-)

Sony hatte Anfang des Jahres mal gesagt PS5 hat mehr Grakapower als die 2080. Und Konolen haben ja kein 350W Bignavi.

Also da könnte schon noch was gehen.

Ich warte auf jedenfall auf reale Test der 3070 und Navi2.

AMD hat auch die Konsolen beliefert, als AMD sich jeden Tag mit Bulldozer neu ins Bett geschissen hat ... das ist nun wirklich kein Benchmark. Konsolen hatten schon immer minderwertige Hardware, haben minderwertige Hardware und werden minderwertige Hardware haben.

Gast-LAZA
2020-09-02, 11:04:40
Nvidia GeForce RTX 3070 Ti: Lenovo nennt kleine Ampere-Grafikkarte mit 16 GB Speicher

https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3070ti-16-gbyte/

WedgeAntilles
2020-09-02, 11:05:29
Schon mal dran gedacht, dass es für die Konsolenhersteller strategisch fast zwingend ist AMD zu nehmen?

Gäbe es die AMD GraKa Sparte ohne die PS4 / X-Box überhaupt noch?
Für AMD sah es vor einigen Jahren ziemlich mies aus - ich habe natürlich keine Ahnung, wieviel Gewinn bei den Konsolen für AMD am Ende raussprang. Aber bei der Menge an verkauften Konsolen wird das schon einiges gewesen sein. Ob AMD ohne diese Gewinne aus dem Konsolengeschäft überlebt hätte ist alles andere als sicher.

Es wäre für die Konsolenhersteller ziemlich ungünstig auf Nvidia zu setzen.
Mit AMD gibt es ein Gegengewicht zu Nvidia und die Konsolenhersteller können deutlich attraktivere Preise bekommen, als wenn sie mit einem Nvidia-Monopolisten verhandeln müssten.

Dass AMD die Konsolen beliefert jetzt als "Beweis" für die technische Überlegenheit der AMD GraKas zu nehmen ist schon abenteuerlich.
Die Entscheidung die PS4 und die Xbox mit AMD zu bestücken war nachweislich nicht wegen der tecnischen Überlegenheit AMDs.
Und dass man nach erfolgreicher Zusammenarbeit auch bei der nächsten Konsole wieder zusammen arbeitet ist jetzt auch nicht unbedingt eine Revolution sondern gut nachvollziehbar.

Das bedeutet nicht, dass BigNavi nix taugen wird - es ist aber in keiner Weise ein Beleg, dass BigNavi besser als Ampere wird.

Gast Ritis
2020-09-02, 11:07:45
Die grosse Überraschung ist doch wirklich die doppelte FP32 Leistung je SM und die Marketing-Technische Verdoppelung der Einheiten. Die Frage wird sein wie das mit dem Speicherzugriff und der Auslastung in den Griff bekommen wird. Die DF-Videos zeigen hier noch nicht die notwendige Skalierung.

Beim Raytracing könnte das sehr lokal in den CUDAs Sinn machen. Vielleicht kommt da noch was mit Optimierungen.
Denke Ampere sieht noch deutlicher wie eine AI/KI Compute-Karte aus als schon Turing, das Ganze dann in bunt als Gaming-Karte verkauft.

Deshalb man darf GCN nicht vergessen. Viel höhere theoretische Flop-Leistung bei weniger Takt als alles was Nvidia jeweils dagegen stellen konnte. Unterm Strich aber höherer Energieverbrauch weil die Flops nicht als FPS bei niedrigerem Takt im Backend ausgelastet werden konnten. Nur bei sehr viel höheren Auflösungen sah GCN nicht dramatisch schlechter aus, oder wenn die Gaming-Last genau auf GCN angepasst war.

Das kann Ampere auch passieren. Es kommt auf Nvidia an wie viel die im Softwarestack optimieren können, kein Wunder war die längste Redezeit über Software (?).

Für RDNA2 sieht das da gar nicht so schlecht aus, wenn auch Nvidia auf SW-Anpassung bei alten Titeln für Reviews angewiesen ist.
Aber nach vorne geschaut, wenn RDNA mit der Shader-Anzahl und Takt ordentlich skaliert ist AMD wieder auf Augenhöhe, wenn auch erst mit Fertigungsvorteil und ohne Tricks ala DLSS gemessen. Ist nur RT-Performance die echte Unbekannte.

Das lässt nach wie vor auf ordentliche Preisanpassungen wie bei den CPUs hoffen. Es bleibt spannend.

Daredevil
2020-09-02, 11:11:10
Wo wir gerade die Konsolen ansprechen.
Linus hat in seinem Video etwas gesagt, was ich interessant fand.

Nvidia bietet hier Kampfpreise und Leistungssteigerungen, wie wir sie seit 2004 nicht mehr gesehen haben. Also dass die kleinste Karte die schnellste der alten Generation schlägt. ( Titan ausgenommen ).
Das kann Nvidia natürlich wegen FabelNavi machen, viel wichtiger ist aber imho der Punkt, dass Nvidia stark mit den Konsolen konkurrieren muss, also mit Sony und Microsoft und genau das muss AMD auch tun mit Navi.

Nvidia kann seine 3070 schlicht nicht für 700€ anbieten, da sonst Leute auf die Konsolen überspringen.
Wenn du dir für ~700-800€ einen 3070 Rechner bauen kannst mit 2080ti Leistung, dann ist das durchaus ein Argument, eine Konsole links liegen zu lassen, weil dieses Paket hat deutlich mehr wums hat durch die Features, welches die Konsolen nicht bieten.

AMD ist nicht der Hauptkonkurrent, AMD ist ein kleines Schaf. Die Konsolen sind es!
Deswegen wird auch hier vermutlich wieder die Streaming Fähigkeit ausgebaut, ein ähnliches System intigriert wie in der PS5 ( RTX IO ) und Raytracing/DLSS stark beworben, damit ein potentieller Konsolen Käufer doch einen PC nimmt. :)

Leonidas
2020-09-02, 11:16:59
Irgendjemand hatte es doch kurz vor Launch hier im Forum prognostiziert: Jetzt muß NV vorangehen, der Gegner sind die NextGen-Konsolen. Salami-Taktik und höhere Preise kann man dann machen, wenn die NextGen-Konsolen auch schon wieder "alt" sind.

Gast
2020-09-02, 11:25:07
Was für ein abstruser Kommentar , Äpfel und Birnen aber sowas von.
Die vorherigen Generationen wurden aus Bulli und GCN Ableger gebaut weil die so leistungsfähig, Energieeffizienz waren?
Wo hatte man denn bitte Bulldozer Kerne in den Konsolen. Vielleicht erst mal informieren, bevor man so einen Quark labert. In den Konsolen waren Puma basierte Kerne, die waren im Hinblick auf ihre Fertigung sehr energieeffizient und hatten wenig Flächenverbrauch, und das ist für Konsolen nun mal auch ein sehr wichtiges Thema.

BiZiNiZz
2020-09-02, 11:32:54
Irgendjemand hatte es doch kurz vor Launch hier im Forum prognostiziert: Jetzt muß NV vorangehen, der Gegner sind die NextGen-Konsolen. Salami-Taktik und höhere Preise kann man dann machen, wenn die NextGen-Konsolen auch schon wieder "alt" sind.

Neuer Konsolenzyklus beginnt, back 2 the roots, günstige Preise und je älter die Generation wird, dann steigen sie wieder, kam mir zumindest Last Gen so vor
Meinst du mich damit? :freak:

arcanum
2020-09-02, 11:38:44
Nvidia kann seine 3070 schlicht nicht für 700€ anbieten, da sonst Leute auf die Konsolen überspringen.
Wenn du dir für ~700-800€ einen 3070 Rechner bauen kannst mit 2080ti Leistung, dann ist das durchaus ein Argument, eine Konsole links liegen zu lassen, weil dieses Paket hat deutlich mehr wums hat durch die Features, welches die Konsolen nicht bieten.

mit einer 3070 liegt ein konsolenähnlicher build bei >1100€. wie kommst du auf 700€ wenn die graka bereits ~500€ kostet?
ansonsten gebe ich dir recht, dass sich nvidia diesmal wegen den kommenden konsolen (und wahrscheinlich auch bignavi und der aktuell herrschenden krise) bei der preisgestaltung bewegt hat.

Leonidas
2020-09-02, 11:39:46
Meinst du mich damit? :freak:


Sehr gut möglich. Bin nicht 100% sicher, weiss nur das ich es gestern hier so gelesen habe.

Daredevil
2020-09-02, 11:45:21
Es geht nicht darum, eine Konsole zu kopieren, sondern die Grafikleistung zu übertreffen und die Chance, dass eine 220w 3070 alleine das kann, ist immens hoch.
Wenn die 499€ Startpreis auf ~400-450€ gefallen sind bzw. günstige Customs verfügbar sind, bekommt man ein Gaming System mit Quadcore für ~800€ hin und ein Hexa Core System mit ~850€, samt allem drum und dran. ( Stand heute )
Für Aufrüster wird es halt einfacher.

aufkrawall
2020-09-02, 11:46:59
Nvidia GeForce RTX 3070 Ti: Lenovo nennt kleine Ampere-Grafikkarte mit 16 GB Speicher

https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3070ti-16-gbyte/
Uff, wenn man das stimmt: Muss man sich wohl kaufen. :redface:
(Wenn sich die Lüfter gescheit regeln lassen...)

Ravenhearth
2020-09-02, 11:57:18
Wo wir gerade die Konsolen ansprechen.
Linus hat in seinem Video etwas gesagt, was ich interessant fand.

Nvidia bietet hier Kampfpreise und Leistungssteigerungen, wie wir sie seit 2004 nicht mehr gesehen haben. Also dass die kleinste Karte die schnellste der alten Generation schlägt. ( Titan ausgenommen ).
Dann hat er die GTX 1070 vergessen. Die konnte die GTX 980 Ti ebenfalls schlagen. Und zwar bei zusätzlich mehr Speicher und deutlich weniger Verbrauch, statt weniger Speicher und nur etwas weniger Verbrauch.

Berniyh
2020-09-02, 12:02:27
viel wichtiger ist aber imho der Punkt, dass Nvidia stark mit den Konsolen konkurrieren muss, also mit Sony und Microsoft und genau das muss AMD auch tun mit Navi.
Müssen sie? Ist ja nicht so, als wenn AMD nicht auch an den Konsolen mitverdienen würde.
evtl. ist die Marge bei den eigenen GPUs besser, aber dennoch ist der Druck sich da mit den Konsolen messen zu müssen nicht ganz so hoch.
Eher dann indirekt, da AMD ja mit Nvidia konkurriert.

Gast
2020-09-02, 12:14:23
Dann hat er die GTX 1070 vergessen. Die konnte die GTX 980 Ti ebenfalls schlagen. Und zwar bei zusätzlich mehr Speicher und deutlich weniger Verbrauch, statt weniger Speicher und nur etwas weniger Verbrauch.

Die 1070 war zum Release nicht schneller als die 980 Ti

Leonidas
2020-09-02, 12:16:56
Die 1070 war zum Release nicht schneller als die 980 Ti


Nicht korrekt. Minimal schneller war sie schon bei Release:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-1070

seba86
2020-09-02, 15:16:21
Aus Leos bzw. dem obigen Artikel

Im Gegensatz zur GeForce GTX 1080, welche keinen neuen Preis/Leistungs-Maßstab setzte, stellt die GeForce GTX 1070 einen ebensolchen neuen Preis/Leistungs-Maßstab auf. Zukünftig werden sich alle Grafikkarten-Angebote, egal ob "alte" 28nm-Technik oder neue 14/16nm-Technik mindestens an diesem Preis/Leistungs-Verhältnis messen lassen müssen.

430 € für 800% am 31.05.2016 - also vor exakt 1555 Tagen bzw. über 4 Jahre her - 1% bekam man 0,54 €.
Heute bekommt man 345€ für 1090% für die günstigste 5700XT - das heißt 1% für 0,32 €.
Bei der 2080Ti sind es ca. 0,80 € (bei 1150€)

Wird die 3800 die 5700XT voraussichtlich schlagen?

EDIT: Ich komme im besten Case (doppelte Leistung einer 2080 zum Preis von 700€) auf 0,30 € - wird seehr sehr knapp.

Lehdro
2020-09-02, 15:18:17
Nvidia bietet hier Kampfpreise und Leistungssteigerungen, wie wir sie seit 2004 nicht mehr gesehen haben. Also dass die kleinste Karte die schnellste der alten Generation schlägt. ( Titan ausgenommen ).
Was ein Quatsch. Zumal die 3070 sicherlich nicht die kleinste Karte wird :redface:

Die 1070 hat die 980 Ti weggebügelt und war wesentlich effizienter (https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/4/#abschnitt_benchmarks_in_1920__1080_und_2560__1440), die GTX 970 hat nach der Logik die erste Titan locker geschlagen, kam extrem nah an die 780 Ti (<10%) und war massiv effizienter (https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/). Gehen wir noch weiter zurück: Die GTX 670 hat die GTX 580 einfach nur in Grund und Boden geprügelt (https://www.computerbase.de/2012-05/test-nvidia-geforce-gtx-670/3/#abschnitt_leistung_ohne_aaaf), selbst die 660 non Ti(!) kam auf Tuchfühlung ran (https://www.computerbase.de/2012-09/test-nvidia-geforce-gtx-660/4/#abschnitt_leistung_ohne_aaaf). Die GTX 460 1G hat selbst die GTX 285 im Schnitt nass gemacht (https://www.techpowerup.com/review/zotac-geforce-gtx-460-1-gb/31.html). Und damals waren alle Karten massiv günstiger als jetzt die RTX 3070.

Solch einen Quatsch habe ich ja schon lange nicht mehr gelesen. Es war bei NV eigentlich immer die Regel das spätestens die x70 Karte das alte Topmodell schlägt. Das war bei Turing nicht der Fall, jetzt wird es wieder der Fall sein und du beschreist das hier als wäre das eine zweite 8800 GTX. Verblendet? :confused:

Blutmaul
2020-09-02, 15:23:20
Die Preise der 70er und 80 sind vermutlich "angemessen".
Die 90er ist die Poserkarte mit Poserdraufschlag.

RTX ruckelt noch immer, zumindest Stellenweise, selbst in speziell geschossenen Videos, nicht nur bei der Nvidia Vorstellung, sondern auch bei Digital Foundry und dem Battlefield Schnipsel - und zwar so stark, das es sogar mir auffällt.

Insgesamt ein starker Erstschlag Nvidias - warten wir auf die Reaktion...

PS: Ausserdem EOL für SLI ???

Gast
2020-09-02, 15:26:00
Aus Leos bzw. dem obigen Artikel



430 € für 800% am 31.05.2016 - also vor exakt 1555 Tagen bzw. über 4 Jahre her - 1% bekam man 0,54 €.
Heute bekommt man 345€ für 1090% für die günstigste 5700XT - das heißt 1% für 0,32 €.
Bei der 2080Ti sind es ca. 0,80 € (bei 1150€)

Wird die 3800 die 5700XT voraussichtlich schlagen?

EDIT: Ich komme im besten Case (doppelte Leistung einer 2080 zum Preis von 700€) auf 0,30 € - wird seehr sehr knapp.

Der Vergleich hinkt aber etwas weil die GTX1080 5700XT ein stark beschränktes Featureset und Software Ökosystem haben.

Gast
2020-09-02, 22:32:50
Welche wilde Spekulation möchtest du uns damit verkaufen wollen? Dass die Ausbeute so mies ist, dass es nie GA102 im Vollausbau geben wird? Zu bezweifeln. Nicht als 'Gaming'-Karte/nur als Quadro geben wird? Hat es seit 480 nicht mehr gegeben.

Schau dir doch einfach den Stream an.
Die 3080 wird als "Flagship" präsentiert, und die 3090 für Titan-Käufer die einfach nicht genug Performance bekommen können.

Legendenkiller
2020-09-03, 08:03:28
Mal ne fragen wegender Anzahl der CUDA-Cores.
Wenn ich die duch 2 Teile komm ich genau auf die vorab vermuteten.

Kann das sein das NVidia hier HT/SMT einsetzt und so mal ebend die CUDA-Cores auf dem Papier verdoppelt hat ?

Weil rein von der Chipfläche und Transitoranzahl können es eigentlich nicht 2 bis 3mal so viele CUDA-Cores sein wie zu 10xx/20xx GPUs.

Gab es da schon mal irgenwo ein Aussage / Betrachtung dazu ?

Leonidas
2020-09-03, 12:07:01
Es ist tatsächlich die doppelte Anzahl an FP32 ... nur andere Chipteile sind halt nicht doppelt. Sprich 128 FP32-Kerne pro CU, wo es vorher 64 waren. Dafür ist natürlich dann die Auslastung der Kerne das Problem, weil das Verhältnis zu CUDA-Kerne zu anderen Chipteilen steigt.

Gast
2020-09-03, 13:08:27
Wo hatte man denn bitte Bulldozer Kerne in den Konsolen. Vielleicht erst mal informieren, bevor man so einen Quark labert. In den Konsolen waren Puma basierte Kerne, die waren im Hinblick auf ihre Fertigung sehr energieeffizient und hatten wenig Flächenverbrauch, und das ist für Konsolen nun mal auch ein sehr wichtiges Thema.

Lies den Text nochmal bevor du dich hoch machst das steht ganz klar Ableger drin .

Gast
2020-09-03, 17:53:32
Schau dir doch einfach den Stream an.
Die 3080 wird als "Flagship" präsentiert, und die 3090 für Titan-Käufer die einfach nicht genug Performance bekommen können.
Das nennt man Marketing und ist morgen schon Schnee von gestern. Für sowas braucht Nvidia nicht mal Sperrholz.

Gast
2020-09-05, 15:13:53
Das nennt man Marketing und ist morgen schon Schnee von gestern. Für sowas braucht Nvidia nicht mal Sperrholz.

Na sowas aber auch.

Genau es ist das Marketing was die Platzierung eines Produktes vornimmt.
Und dieses Marketing von Nvidia hat, warum auch immer, entschieden eine neue Grafikkarte mit der Bezeichnung 3090 als Nachfolger der alten Titan zu platzieren.