PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Ampere-Chips GA104 & GA106 kommen für GeForce RTX 3060, 3070 & 3070 Ti


Leonidas
2020-06-10, 13:26:28
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidias-ampere-chips-ga104-ga106-kommen-fuer-geforce-rtx-3060-3070-3070-ti

JVC
2020-06-10, 13:42:57
Danke für die gute übersichtliche Zusammenfassung :up:

Ich wäre doch überrascht, wenn NV auf 350Watt geht.
Da sollte dann aber doch ein größeres Leistungsplus als ~40% kommen...

Noch mehr überrascht wäre ich aber, wenn es AMD schafft
auf dem "mini" 7nm Die, noch mehr Watt kühlen zu können.

M.f.G. JVC

Gast
2020-06-10, 13:43:38
Ich weiß nicht warum ihm soviel Präsenz und credibility eingeräumt wird er lag bis auf den profi Ampere mechfach falsch wie man seiner Twitter History entnehmen kann , der Rät genauso ins Blaue wie die Pfeifen von HWU oder Redgamingmüll.

Sepkulatius ist ja schön und gut aber dann doch bitte wenigstens mit Substanz als Bodensatz wie den TDP Werte der geleakten Kühler ode DB einträgen wie von Tum Apisak immer ausgebuddelt.

WedgeAntilles
2020-06-10, 13:45:00
Wie ich schon mal schrieb:

Wenn man die Gerüchte zusammenfasst wird Ampere
- spät kommen (3060, 3070 erst 2021)
- teuer sein
- wenig Ram haben
- langsam sein
- viel Energie verbrauchen


Ich habe 0 Ahnung von Details und sage das jetzt nur als totaler Laie:
Kommt mir unglaubwürdig vor.
Teuer, langsam, spät, wenig Ram.

Sorry, aber wer soll das kaufen? Könnte ein reiner Monopolist vielleicht so machen.
Aber das Preis-Leistungs-Verhältnis muss sich mit AMD vergleichen.
Sonst brechen die Marktanteile massiv weg.

Klar, wenn BigNavi auch nix taugt geht das natürlich.
Aber da sind die Gerüchte ja eher das Gegenteil. Soll ja wohl eine gute Generation werden. (Klingt ja auch nicht unplausibel, wenn man sich die 5700/5700XT anschaut!)

Gast
2020-06-10, 13:50:22
Danke für die gute übersichtliche Zusammenfassung :up:

Ich wäre doch überrascht, wenn NV auf 350Watt geht.
Da sollte dann aber doch ein größeres Leistungsplus als ~40% kommen...

Noch mehr überrascht wäre ich aber, wenn es AMD schafft
auf dem "mini" 7nm Die, noch mehr weck kühlen zu könnte.

M.f.G. JVC

Bisher kann niemand sagen wie groß Navi 2.0 nun wird oder wie sich die Energiedichte verhält weil keine W/mm² Angaben bekannt sind , Fakt ist nur es muss weniger als bei NAVi 1.0 sein sonst kommt man selbst mit 350W nicht weit.
Navi 1.0 zeigt zwar das man da in grenzwertigen Bereichen arbeitet da selbst mit Wakü 70-80°C Hotspot erreicht werden. Bei den beworbenen 50% perf/Watt könnte man das aber entschärfen wenn man nicht wieder auf kannte näht.

Mega-Zord
2020-06-10, 13:56:30
Noch eine Enthusiast-Karte mit "nur" 11GB RAM wäre schon etwas traurig. 1.500 EUR "darf" eine 3090 schon mal nicht kosten. Und wenn AMD tatsächlich abliefern sollte, wäre ein Interessanter Markt zu erwarten.

Gast
2020-06-10, 14:09:13
Wie ich schon mal schrieb:

Wenn man die Gerüchte zusammenfasst wird Ampere
- spät kommen (3060, 3070 erst 2021)
- teuer sein
- wenig Ram haben
- langsam sein
- viel Energie verbrauchen


Ich habe 0 Ahnung von Details und sage das jetzt nur als totaler Laie:
Kommt mir unglaubwürdig vor.
Teuer, langsam, spät, wenig Ram.

Sorry, aber wer soll das kaufen? Könnte ein reiner Monopolist vielleicht so machen.
Aber das Preis-Leistungs-Verhältnis muss sich mit AMD vergleichen.
Sonst brechen die Marktanteile massiv weg.

Klar, wenn BigNavi auch nix taugt geht das natürlich.
Aber da sind die Gerüchte ja eher das Gegenteil. Soll ja wohl eine gute Generation werden. (Klingt ja auch nicht unplausibel, wenn man sich die 5700/5700XT anschaut!)

Schau dir die Situation pre Vega/Pascal Launch an,
AMD wurde zugetraut das Rad neu zu erfinden und der Hypetrain immer mehr angeschoben.
Währen man Nvida nix zugetraut hat. Das enede vom Lied kennen wir.

Situation pre Navi --> das Ding zerfickt ne 2080 und klopft bei er 2080Ti hier und da an... bekommen haben wir das nicht ganz wie wir wissen dafür aber Nvidia like Preise !

Turing hat in 12nm mit RT und Tensor Kernen grob die gleiche Perf / Watt wie Navi in 7nm.
Selbst wenn man architektonisch kaum etwas hinzu gewinnt und nur auf 8nm Schrinkt ( situation Maxwell 2.0 zu Pascal mit weniger Fertigungsvorteil Bonus)
sollte eine GA102 GPU wie auf der RTX3080 postuliert mit ~4300 Shadern nicht mehr Saufen als eine 2080Ti
oder bei gleichen Leistungsaufnahme mehr Performance rausholen.

Mit den geleakten 320W hätte man 55 W mehr als eine 2080Ti zur Verfügung in einem Prozess der Weniger Stromaufnahme verspricht, bei grob gleicher Shader Zahl aber mehr Membandwith.

Wenn das Teil nicht ne ganze Ecke auf eine 2080Ti drauflegt dann weiß ich auch nicht.
Damit NV GPUs nicht konkurenzfähig werden muss schon eine ganze Menge schief laufen oder Navi 2.0 ein absolutes ausnahme produkt wie damals die 9700pro, und selbst dann kann man immernoch über den Preis gehen wie einst bei Vega.

Ich seh das alles etwas entspannter , entweder wir bekommen brachial mehr Leistung zu fürstlichen Preisen mit abartiger abwärme oder wie bekommen die gewohnte Kelle zu sehr konkurenzfähigen Preisen.

zockerX
2020-06-10, 14:40:29
Die nächsten Speicherkrüppel. Kann Nvidia gerne behalten. Wenn AMD aus so einer Steilvorlage keinen Profit schlagen kann, sollten sie ihre GPU-Abteilung dicht machen und an Intel verkaufen.

Benutzername
2020-06-10, 14:46:18
Noch eine Enthusiast-Karte mit "nur" 11GB RAM wäre schon etwas traurig. 1.500 EUR "darf" eine 3090 schon mal nicht kosten. Und wenn AMD tatsächlich abliefern sollte, wäre ein Interessanter Markt zu erwarten.

Naja, bekommt man die 11GB überhaupt schon voll im Moment? Eine Radeon VII mit ihren 16GB ist ja auch völlig überdimensionieert fürs daddeln und wird das auch erstmal bleiben. Bei der "3090" mit angeblichen 24GB erst recht. Von daher nicht so schlimm wie ich finde. Die 6Gb die nVidia immernoch bei gtx1660 und rtx2060 verkauft sind eindeutig zu klein. Aber zehn/elf sollten erstmal reichen imho.


Tja falls an diesen Gerüchten was dran ist, ist Ampere vielleicht doch nicht so gut und nvidia hat sich in eine Sackgasse hinein entwickelt. die kolportierten 350W klingen auch nach Brechstange um mit Big Navi mithalten zu können. Kommen die dann mit Wasserkühlung? Kann aber auch alles nur Quatsch mit Soße aus der Gerüchteküche sein.


Bei Igor leckt es auch und er rührt auch fleißig die Gerüchte um und backt Spekulatius:
https://www.igorslab.de/exklusive-info-zu-nvidias-ampere-karten-mit-gddr6x-kurzem-pcb-und-einem-extrem-teuren-kuehler-fuer-die-fe-und-die-suche-nach-dem-leak/

Daredevil
2020-06-10, 14:51:21
Also ich habe lieber ne Karte mit 11GB bei 150% Performancerating als ne 22GB Karte bei 125% Performance Rating.
Ressourcen müssen halt irgendwie Sinnvoll verteilt werden und unterm Schnitt ( nicht überall ) sind dann FPS doch essentieller.

Wo ist denn z.B. schon einmal eine 2080ti verhungert?
Effizient die Karte betreiben bedeutet auch imho, dass man nicht 22GB verbaut und zu 80% den ganzen Spaß nicht in Spielen benutzt. :< Siehe die Radeon VII.

zockerX
2020-06-10, 14:55:04
Naja, bekommt man die 11GB überhaupt schon voll im Moment? Eine Radeon VII mit ihren 16GB ist ja auch völlig überdimensionieert fürs daddeln und wird das auch erstmal bleiben.
Das hängt vom Spiel und den Einstellungen ab. In Zukunft werden 11GB garantiert zu knapp bei der Leistung. Die Radeon7 war zu langsam um den Speicher vernünftig nutzen zu können. Damit war sie das komplette Gegenteil der RTX3000.

Daredevil
2020-06-10, 15:00:45
In Zukunft werden 11GB garantiert zu knapp bei der Leistung.
txm7el_wh5o
Speicherverbrauch einer 2080ti bei 4K:
Project Cars 2 - 4244mb
Assassin's Creed Origins - 6027mb
PUBG - 6362mb
Grand Theft Auto V - 6067mb
Shadow of the Tomb Raider - 6693mb
Forza Horizon 4 Demo - 5384mb
Fallout 4 - 4376mb
Far Cry 5 - 6464mb
The Witcher 3 - 6842mb
Battlefield 1 - 4423mb

Wie machst du das Fest?
Hast du auch Zahlen, Daten und Fakten dazu, oder spekulierst du nur in die Zukunft?

Wie soll an der Stelle überhaupt der Speicherbedarf noch signifikant weiter ansteigen, wenn 4K eh die "Maximale" Umgebung ist zur Zeit und 8K noch viel weiter weg ist?
Selbst die 11GB sind aktuell doch schon ausreichend für vereinzelte Ausflüge in Richtung 5K, 6K, meinetwegen auch 8K, solange die FPS noch oben sind. ( RTX off )

Edit:
Zudem machen eine höhere Bandbreite durch PCIe 4.0 nochmal einiges wett und schnellerer Speicher ebenso.
Kostet nicht viel, hilft aber das Bottleneck zu verschieben. Full of Ressourcen Win!

WedgeAntilles
2020-06-10, 15:00:56
Wenn es von etwas "viel" gibt, bringt das bis zu einem gewissen Grad auch einen Schlendrian.
Sind Ressourcen knapp wird effizient programmiert.
Gibt es eh genug von allem braucht man das weniger eng sehen.

Damit will ich nicht sagen, dass ich ne 6GB Karte sehen will ;)

Aber RAM kostet halt Geld.

Mein Traum wäre eine Karte, die +30% gegenüber der GTX 2070 bringt, gerne nur 8GB Ram hat - und dafür 350 Euro kostet.

Davon habe ich mehr als von einem Modell mit 12GB Ram, +50% Leistung und dafür 650 Euro.

Dampf
2020-06-10, 15:28:14
Ja, diese Liste macht so Sinn. Ich glaube das könnte das finale Lineup werden.

Das hängt vom Spiel und den Einstellungen ab. In Zukunft werden 11GB garantiert zu knapp bei der Leistung. Die Radeon7 war zu langsam um den Speicher vernünftig nutzen zu können. Damit war sie das komplette Gegenteil der RTX3000.

Nö. Warum das derzeitige VRAM Lineup so auch für die Zukunft passt, hab ich aber schon dutzende Male erklärt...

https://youtu.be/txm7el_wh5o
Speicherverbrauch einer 2080ti bei 4K:
Project Cars 2 - 4244mb
Assassin's Creed Origins - 6027mb
PUBG - 6362mb
Grand Theft Auto V - 6067mb
Shadow of the Tomb Raider - 6693mb
Forza Horizon 4 Demo - 5384mb
Fallout 4 - 4376mb
Far Cry 5 - 6464mb
The Witcher 3 - 6842mb
Battlefield 1 - 4423mb



Das ist ja nicht mal der Speicherverbrauch, sondern nur was von der Engine reserviert wird.

https://abload.de/img/vega20final20presentamyjcq.png

Ex3cut3r
2020-06-10, 15:47:25
Es ist einfach nur blauäugig mit einer neuen Konsolen Gen vor der Tür, zu denken, dass die momentanen Speichermengen von 6 - 8GB ausreichen werden. Geschichte wiederholt sich, 2013 dachte man auch das 2GB reichen werden, und schon 2 Jahre später hatte man Probleme, Probleme die ein 4GB VRAM Besitzer nicht hatte. Ich werde keine GPU mit 8 oder 10GB kaufen, 2 GB mehr sind auch ein Witz, was soll so eine Krumme Speicherbestückung bringen? 12GB oder 16GB machen IMO mehr Sinn. 16GB sehe ich für die nächste Konsolen Gen sowieso als ausreichenden Standard für die kommenden Jahre an.

Hätte nicht gedacht, dass Nvidia so ein "Scheiß" verzapfen wird. Stromverbrauch und die magere VRAM Bestückung lassen mich eher abschrecken. Mal sehen was AMD bietet.

Nightspider
2020-06-10, 15:54:51
Die Liste mit ~5 Jahre alten Spielen macht halt auch nur bedingt Sinn.

GTA5 erschien ja sogar noch für die PS360 mit 0,25GB VRAM. :ugly:

Bei 11GB würde ich mich ja noch halbwegs sicher fühlen aber 8GB bei der 3080 sind halt wirklich zu wenig.

Daredevil
2020-06-10, 16:04:13
Ja klar.
Wenn ein Spiel 7/8 GB nutzt, "reicht" das zwar, aber der Speicher ist an der Stelle sicherlich nicht "genug" vorhanden. ^^

amdfanuwe
2020-06-10, 16:09:23
Die Entwicklung dauert auch ein paar Jahre. Da hat Nvidia wohl nicht damit gerechnet, dass AMD was bringen könnte.
Die Speicherbestückung passt doch zu Nvidia. Reicht für die nächsten 2 Jahre, dann bitte neu kaufen. Hat man im unterem Bereich schon immer gehabt, 3,5GB 970:eek: , 4GB low End, 6GB mid Range. Einzig die High End Karten kann man länger nutzen.

Lehdro
2020-06-10, 16:22:48
Es ist einfach nur blauäugig mit einer neuen Konsolen Gen vor der Tür, zu denken, dass die momentanen Speichermengen von 6 - 8GB ausreichen werden. Geschichte wiederholt sich, 2013 dachte man auch das 2GB reichen werden, und schon 2 Jahre später hatte man Probleme, Probleme die ein 4GB VRAM Besitzer nicht hatte.
Genau so wird es sein, nur das derzeit mit RT nochmals ein VRAM intensives Feature hinzukommt. Sowas sieht man ja heute schon bei der RTX 2060 die mit ihren 6 GiB teilweise krass einbricht. Da steht dann zum Beispiel sowas im Fließtext:

Doch wie schlimm ist der Beschnitt wirklich? Dabei gibt es zwei Diskussionspunkte: Den für die meisten Spieler schmerzhaften Schwund der Leistung und den subtileren Schwund der Bildqualität. Letzterer wird außerhalb des PCGH-Universums überraschend selten thematisiert, findet jedoch in vielen PC-Spielen der vergangenen Jahre mit unterschiedlicher Ausprägung statt. Das Problem dabei ist: Lange bevor die Bildrate moderner Spiele ins Bodenlose fällt, werden dynamisch und weitgehend clever Texturdetails eingespart, um die Bildrate zu retten.
Quelle (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/6-gegen-8-GByte-Speicher-Benchmarks-1341307/)
*Ab UWQHD wird das Streaming zäh, es kommt zu Texturschwund. In Ultra HD genügt der Speicher schließlich nicht mehr, Texturen werden nur nur als MIP-Maps dargestellt. Mit 11 GiByte ist die Performance besser und die Darstellung vollständig.
Quelle (https://www.pcgameshardware.de/Control-Spiel-49246/Specials/Raytracing-Benchmarks-1330139/)
Dabei wirkt sich auch die Kapazität des Grafikspeichers aus: Modelle mit weniger als 6 GiByte werden laut unseren Beobachtungen öfter dazu genötigt, die Texturdetails zu reduzieren. Hier führen Änderungen des Kameraausschnitts öfter und länger anhaltend zur Texturbrei, da das Streaming aufgrund Platzmangels zäher arbeitet.

Das Sparen an Texturdetails entlastet die Grafikkarte, sodass Modelle mit geringer Kapazität gute Bildraten erreichen, aber - und das ist bei den Benchmarks weitgehend unsichtbar - bei der Bildqualität zurückfallen.
Quelle (https://www.pcgameshardware.de/Anno-1800-Spiel-61247/Tests/Benchmark-Test-1279896/2/)
Das "Ultimate"-Preset zieht optisch alle Register und erfordert mehr als 8 GiByte VRAM - Grafikkarten mit geringerer Speicherkapazität kranken nicht nur an deutlichen Nachladerucklern, sondern auch an vermehrtem Texturschwund. Modelle mit größerem Speicher offenbaren, dass in Ultra HD bis zu 9,5 GiByte adressiert werden
Quelle (https://www.pcgameshardware.de/Tom-Clancys-Ghost-Recon-Breakpoint-Spiel-67646/Specials/Benchmark-Test-Release-Review-Tipps-1333798/)
Ab UWQHD und erst recht in Ultra HD ist bei schnellen Kameraschwenks mit dieser Speicherkapazität Texturschwund zu beklagen, das Streaming lädt die höheren Auflösungen mit Verzögerung ein.
Quelle (https://www.pcgameshardware.de/Strange-Brigade-Spiel-61029/Specials/Benchmark-Test-Review-1263803/)
Was den Speicherhunger angeht, ist Metro Exodus genügsam. Egal ob "Ultra", "Extrem", mit oder ohne Raytracing, die Kapazität der Grafikkarte ist weniger wichtig als deren Rechenleistung. Das bedeutet nicht, dass die Menge des lokalen Speichers völlig egal ist, während unserer Tests stießen wir immer wieder auf Texturschwund. Dieser Brei, welcher beim Umherlaufen langsam der vollen Texturauflösung weicht, tritt vor allem bei Modellen mit weniger als 8 GiByte auf und wird außerdem von der Bildrate beeinflusst.
Quelle (https://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Technik-Test-Raytracing-DLSS-DirectX-12-1275286/2/)
Mit anderen Worten: Call of Duty WW2 läuft auch mit älteren Grafikkarten ordentlich, sieht dann aber nicht mehr bestmöglich aus, da das Streaming Details wegrationalisiert. Das Upgrade auf eine neue Grafikkarte mit 6 oder gleich 8 GiByte führt folglich nicht nur zu besseren Bildraten, sondern auch zu besser Grafik.[...]
Mit steigender Auflösung werden die Symptome stärker, WQHD ist bereits unansehnlich. In Ultra HD werden sehr viele Daten in den Hauptspeicher ausgelagert, sodass Texturbrei eher Regel denn Ausnahme ist.
Quelle (https://www.pcgameshardware.de/Call-of-Duty-WW2-Spiel-59925/Specials/Technik-Test-1239989/)

Wie man sieht: Die FPS bleiben also teilweise noch "gut", nur es sieht halt scheiße aus und Texturen werden verzögert oder gleich gar nicht reingestreamt. Reine FPS Zahlen Vergleiche sind also kompletter Nonsens in der VRAM Diskussion!

Das Problem wird sich zudem sicherlich schnell Richtung 8 GiB bewegen, 12 GiB sind dann der nächste logische Schritt.

Gast
2020-06-10, 16:22:59
Also wenn an den Gerüchten nur irgendwas dran ist, dann muss die Leistung pro SM massiv steigern.

Wenn man Igor glaubt werden die Teile ja massiv groß, was bei der geringen Steigerungen an SMs nur bedeuten kann, die SMs selbst werden massiv größer.

"Einfach" wäre beispielsweise aus GA100 den FP64 Block zu entfernen (was ja garantiert passieren wird) und mit einem FP32 Block zu ersetzen.

Oder es ist irgendeine andere "Secret Sauce" an irgendwelchen Einheiten von denen wir noch gar nichts wissen, die in Ampere drinnen sein werden.

Auf jeden Fall muss sich die Anzahl an Recheneinheiten pro SM von Turing massiv erhöhen, wenn an den geringen Steigerungen der SMs was drann ist, ansonsten würde man selbst wenn es nur 8nm sind bei winzigen DIEs landen.

WedgeAntilles
2020-06-10, 16:25:51
Einzig die High End Karten kann man länger nutzen.
Wenn du HighEnd Ansprüche hast - ja.
(Komisch, HighEnd Ansprüche braucht ne HighEnd Karte - wer hätte das gedacht?)

Ich habe meine GTX 970 immer noch...
Bin aber auch nur auf Full HD.
Wie wahrscheinlich 80% aller Spieler halt.

Du darfst ein Enthusiastenforum nicht mit der großen Masse gleichsetzen.
Denen reicht 4GB Speicher auch heute noch.

Das ändert allerdings nix daran, dass ich eine 3060 mit 6GB ebenfalls als lächerlich empfinden würde.
Aber 8GB? Reicht IMO gut.
Für die große Masse. (Und für die wird produziert. Nicht für ne handvoll User im 3DC^^)
Und die Enthusiasten müssen halt zur High End Lösung greifen.
Oder eben zu AMD, falls die pauschal mehr Ram haben sollten.

Gast
2020-06-10, 16:34:05
Zur TBP zwei mögliche Auflösungen:

- 350w als 125% Wert (maximal möglich für Übertaktungen). TBP der Karte im Markt wäre dann 280w, klingt deutlich realistischer.
- Vorgabe an Partner für mögliche Lastminute-Änderungen als Navi-Reaktion? Bei der 5600 gabs doch Probleme weil Partner die gewünschten Änderungen aufgrund billiger Komponenten nicht umsetzen konnten.


Bei den Gerüchten sind mir etwas zu viele Varianten im Umlauf. Wollte nVidia nicht auch von den TIs weg? Mit nur 3090,3080,3070 und 3060 ergibt sich ein wesentlich sinnvolleres Portfolio:

3090 mit 82SM und avg. 2000mhz hätte etwa 40% mehr Leistung als 2080TI
3080 mit 68SM und avg. 1900mhz +50% zur 2080 und 30% unter 3090
3070 mit 48SM und avg. 2050mhz +56% zur 2070 und 31% unter 3080
3060 mit 40SM und avg. 1900mhz +36% zur 2060 und 29% unter 3070

Schöne Abstufungen und selbst ohne Architekturänderungen ein ausreichendes Plus zur Vorgängergeneration.

Ex3cut3r
2020-06-10, 16:55:05
Das die meisten PC Gamer zumindest in Deutschland immer noch FHD rocken, wage ich langsam auch zu bezweifeln, in Deutschland wette ich das mindestens 50% der PC Gamer mittlerweile auf WQHD unterwegs sind, wenn nicht sogar mehr. Ich glaube im PCGH Forum gab es mal eine Umfrage.

EDIT:
Hier: https://www.pcgameshardware.de/Umfrage-Thema-136900/News/Fuer-kommende-GPU-Tests-1341926/

24% FHD
43% WQHD
10% UWQHD
13% 4K

WedgeAntilles
2020-06-10, 17:02:53
Nur das ein Forum halt so was von überhaupt nicht repräsentativ ist...
Denn per Definition ist da ja die deutlich engagierte Gruppe.
Und die ist natürlich besser ausgestattet.

Vielleicht sind es aber tatsächlich inzwischen mehr als ich dachte, will ich nicht ausschließen.

Die Zahlen vom PC Games Forum sind jedoch wertlos für eine Hochrechnung auf Deutschland.

Ex3cut3r
2020-06-10, 17:08:47
Sehe ich nicht so. Das sind noch sehr viele Schüler bzw. jüngere Unterwegs. Und wenn die schon 50% WQHD haben.....FHD is einfach mistig vor allem auf nen 27" Fliegengitter ahoi.

Gast
2020-06-10, 17:10:12
Situation pre Navi --> das Ding zerfickt ne 2080 und klopft bei er 2080Ti hier und da an... bekommen haben wir das nicht ganz wie wir wissen dafür aber Nvidia like Preise

Wenn das Teil nicht ne ganze Ecke auf eine 2080Ti drauflegt dann weiß ich auch nicht.

Ich seh das alles etwas entspannter , entweder wir bekommen brachial mehr Leistung zu fürstlichen Preisen mit abartiger abwärme oder wie bekommen die gewohnte Kelle zu sehr konkurenzfähigen Preisen.
Ich sehe das ähnlich und verstehe nicht, wieso manche auf die Idee kommen, die neuen NVs wären "langsam".
Aber bei Navi hast du unrecht. Zu Navi10 wurde schon immer gesagt, dass die Karte Midrange wird (war auch bedingt durch die Chipgröße klar). Gegen die 2080 hat die noch nie jemand gesehen.

Nicht der eine Gast
2020-06-10, 17:21:30
Mir kommen die Speicherkapazitäten auch zu niedrig vor. Auch wenn es ein Gerücht ist, kann man dieses Nvidia so zutrauen. Als Platzhirsch gibt man für gewöhnlich die Regeln bzw. Standards vor. Zusammen mit ihrem Review Guide, der fast schon skavisch von der Techpresse umgesetzt wird über den Einfluss bei der Entwicklung bzw. Portierung bis zur Treiber Team, welche die jeweils aktuelle Generation gut aussehen lässt kann das mit dem geringen Speicher aufgehen. Zumal die beiden großen Konsolenhersteller die aktuelle Konsolengeneration weiter unterstützten wollen und somit auch mit weniger Speicher zurecht kommen. Auch kann Nvidia spezialversion mit doppelten Speicher später herausbringen. Dazu sind nur andere Speicherchips notwendig.
Ich frage mich ob überhaupt massenweise auchreichend schnelle 2 GB Chips verfügbar sind? Zumal Nivia gerne schnelleren Speicher Als AMD verwendet und auch mehr als AMD für die RX 5500xt und der Spezialversion der rx5700 für Apple benötigt. Auch werden Sony und MS eine Menge 2gb Speicherchips benötigen.
Letztlich muss erstmal nur die haloprodukte viel Speicher besitzen. Und die sind teuer genug dafür. Der Rest ist doch erstmal egal.
Ansonsten nichts neues. Das Nvidia lieber den sicheren Weg mit großen Chips auf einer eingefahrenen Fertigungsweise. Auch das hat sich bewährt.

WedgeAntilles
2020-06-10, 17:36:24
Sehe ich nicht so. Das sind noch sehr viele Schüler bzw. jüngere Unterwegs. Und wenn die schon 50% WQHD haben.....FHD is einfach mistig vor allem auf nen 27" Fliegengitter ahoi.

Ok, Schüler und Jüngere stimmt.

Sagen wir so: 25% für FHD ist Deutschlandweit sicherlich trotzdem zu wenig.
Aber meine 80% sind sicherlich zu viel gewesen.

zockerX
2020-06-10, 17:45:08
https://youtu.be/txm7el_wh5o
Speicherverbrauch einer 2080ti bei 4K:
Project Cars 2 - 4244mb
Assassin's Creed Origins - 6027mb
PUBG - 6362mb
Grand Theft Auto V - 6067mb
Shadow of the Tomb Raider - 6693mb
Forza Horizon 4 Demo - 5384mb
Fallout 4 - 4376mb
Far Cry 5 - 6464mb
The Witcher 3 - 6842mb
Battlefield 1 - 4423mb

Wie machst du das Fest?
Hast du auch Zahlen, Daten und Fakten dazu, oder spekulierst du nur in die Zukunft?

Wie soll an der Stelle überhaupt der Speicherbedarf noch signifikant weiter ansteigen, wenn 4K eh die "Maximale" Umgebung ist zur Zeit und 8K noch viel weiter weg ist?
Selbst die 11GB sind aktuell doch schon ausreichend für vereinzelte Ausflüge in Richtung 5K, 6K, meinetwegen auch 8K, solange die FPS noch oben sind. ( RTX off )

Edit:
Zudem machen eine höhere Bandbreite durch PCIe 4.0 nochmal einiges wett und schnellerer Speicher ebenso.
Kostet nicht viel, hilft aber das Bottleneck zu verschieben. Full of Ressourcen Win!
Noch ältere Spiele hast du nicht gefunden? :wink:
Schau mal auf die neuen Konsolen und deren Speicher, insbesondere der der PS5. Mit UHD als neuem Standard, wird es auch höher aufgelöste Texturen geben, die wiederum mehr Speicher kosten.
Bereits heute kann man 11GB knacken (Extrembeispiel (https://www.pcgameshardware.de/Control-Spiel-49246/News/8K-VRAM-Verbraucht-Raytracing-18-5-GB-1331761/)). Da reichen beispielsweise Mods. Kennst du HisN? Der zwingt fast alles in die Knie. Hier gibt es einen Thread (https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/) zu dem Thema. Wenn sich selbst ein "simples" Transportfever 2 bis zu 9,2GB in WQHD genehmigt, dann kannst du dir denken, dass es da noch Titel geben wird, die sich noch mehr genehmigen. NFS Heat ist mit 12GB in UHD dabei. Das Meiste wird ja gar nicht erst richtig getestet. Der Verbrauch kann auch vom Level abhängen. Und momentan reden wird von Ports der aktuellen Konsolengeneration.
Zudem sind 11GB bereits 3 Jahre "alt". Bei einer 3090 reden wir vom Enthusiastenbereich. Da darf man durchaus eine gewisse Zukunftssicherheit erwarten. Bei der 2080Ti war das noch verschmerzbar, die ist aber auch bald 2 Jahre alt.

PCIe 4.0 ist derzeit eine absolute Nischenerscheinung. Sicher kann das die Problematik ein wenig abmildern, aber auch nicht lösen und VRAM ersetzen.

Ich werde keine GPU mit 8 oder 10GB kaufen, 2 GB mehr sind auch ein Witz, was soll so eine Krumme Speicherbestückung bringen?
Die 2GB mehr sind aufgrund der Speicheranbindung nötig. Alternative wäre eine Speicherteilung wie bei der 970 oder 660(Ti). Die höhere Speicheranbindung bringt mehr Speicherbandbreite bei gleichem Speichertakt und somit mehr Leistung. Ich persönlich halte diese Aufteilung in 10/11/12GB aber auch für unnötig und würde lieber andere Lösungen sehen.

Gast
2020-06-10, 17:45:58
Das die meisten PC Gamer zumindest in Deutschland immer noch FHD rocken, wage ich langsam auch zu bezweifeln, in Deutschland wette ich das mindestens 50% der PC Gamer mittlerweile auf WQHD unterwegs sind, wenn nicht sogar mehr. Ich glaube im PCGH Forum gab es mal eine Umfrage.

EDIT:
Hier: https://www.pcgameshardware.de/Umfrage-Thema-136900/News/Fuer-kommende-GPU-Tests-1341926/

24% FHD
43% WQHD
10% UWQHD
13% 4K

Tja nur leider wenig representativ in Hardwareforen voller Nerds danach zu fragen.
Ich kenne so einige die von einer Konsole/nix kommen ,die haben nichtmal nen dedizierten Monitor ,die zocken auf ihrer FullHD Glotze , selbst wenn Leute 1440p und höhrer auflösende Monitore haben zocken die mit nichten alle native weil dafür meist die bildproduzierende Blechbüchse nicht aussreicht.

Gast
2020-06-10, 17:50:36
Noch ältere Spiele hast du nicht gefunden? :wink:
Schau mal auf die neuen Konsolen und deren Speicher, insbesondere der der PS5. Mit UHD als neuem Standard, wird es auch höher aufgelöste Texturen geben, die wiederum mehr Speicher kosten.
Bereits heute kann man 11GB knacken (Extrembeispiel (https://www.pcgameshardware.de/Control-Spiel-49246/News/8K-VRAM-Verbraucht-Raytracing-18-5-GB-1331761/)). Da reichen beispielsweise Mods. Kennst du HisN? Der zwingt fast alles in die Knie. Hier gibt es einen Thread (https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/) zu dem Thema. Wenn sich selbst ein "simples" Transportfever 2 bis zu 9,2GB in WQHD genehmigt, dann kannst du dir denken, dass es da noch Titel geben wird, die sich noch mehr genehmigen. NFS Heat ist mit 12GB in UHD dabei. Das Meiste wird ja gar nicht erst richtig getestet. Der Verbrauch kann auch vom Level abhängen. Und momentan reden wird von Ports der aktuellen Konsolengeneration.
Zudem sind 11GB bereits 3 Jahre "alt". Bei einer 3090 reden wir vom Enthusiastenbereich. Da darf man durchaus eine gewisse Zukunftssicherheit erwarten. Bei der 2080Ti war das noch verschmerzbar, die ist aber auch bald 2 Jahre alt.

PCIe 4.0 ist derzeit eine absolute Nischenerscheinung. Sicher kann das die Problematik ein wenig abmildern, aber auch nicht lösen und VRAM ersetzen.


Die 2GB mehr sind aufgrund der Speicheranbindung nötig. Alternative wäre eine Speicherteilung wie bei der 970 oder 660(Ti). Die höhere Speicheranbindung bringt mehr Speicherbandbreite bei gleichem Speichertakt und somit mehr Leistung. Ich persönlich halte diese Aufteilung in 10/11/12GB aber auch für unnötig und würde lieber andere Lösungen sehen.

Von niesche bei PCI 4.0 sprechen aber GPUs 1000€ aufwärts als Mainstream sehen , ja klar.

Die neuen Konsolen strotzen auch nicht von VRAM da wäre ich mal vorsichtig mit Prognosen oder du landest schnell im "durch die neuen Consolen wird Multithread auf 8 und mehr CPU kerne super fix standard" Eimer.

Fragman
2020-06-10, 20:44:14
Ja, die Speicherfrage wird überschätzt, das sollte man doch die letzten Jahre gemerkt haben.
Engines wie UE5 bringen dann auch Funktionen mit, um Speicher zu sparen.
Und ehrlich, wer glaubt denn, das nv die Speicherbestückung im Lineup als zu niedrig ansetzt?

Nightspider
2020-06-10, 20:48:36
Die Xbox Series X hat 3 mal so viel VRAM zur Verfügung wie die Xbox One.

Und Texturen wird man auch besser von den HighEnd SSDs streamen, man wird also auch deutlich schärfere Texturen bekommen, trotz des vergleichsweise kleinen Sprunges beim (V)RAM.

Wenn wir pech haben brauchen wir am PC deutlich mehr VRAM, so lange keine SSD mit ~~6GB/s im PC steckt.

Mit den 10GB VRAM hätte die Xbox Series X Konsole bereits mehr VRAM als eine RTX3080 mit nur 8GB, sofern das stimmt.

Benutzername
2020-06-10, 21:52:25
Das hängt vom Spiel und den Einstellungen ab. In Zukunft werden 11GB garantiert zu knapp bei der Leistung. Die Radeon7 war zu langsam um den Speicher vernünftig nutzen zu können. Damit war sie das komplette Gegenteil der RTX3000.


Die größe des VRAM hat nix mit der Geschwindigkeit zu tun oder wie schnell die GPU Spielgrafik rechnet. Äpfel und Kartoffeln. :rolleyes:


--------------------------

Ja, die Speicherfrage wird überschätzt, das sollte man doch die letzten Jahre gemerkt haben.
Engines wie UE5 bringen dann auch Funktionen mit, um Speicher zu sparen.
Und ehrlich, wer glaubt denn, das nv die Speicherbestückung im Lineup als zu niedrig ansetzt?

Nvidia verlauft auch 1660 und 2060 mit nur 6 GB. Schon traditionell ist nVidia etwas knausrig mit VRAM.

--------------------


Die Xbox Series X hat 3 mal so viel VRAM zur Verfügung wie die Xbox One.

Und Texturen wird man auch besser von den HighEnd SSDs streamen, man wird also auch deutlich schärfere Texturen bekommen, trotz des vergleichsweise kleinen Sprunges beim (V)RAM.

Wenn wir pech haben brauchen wir am PC deutlich mehr VRAM, so lange keine SSD mit ~~6GB/s im PC steckt.

Mit den 10GB VRAM hätte die Xbox Series X Konsole bereits mehr VRAM als eine RTX3080 mit nur 8GB, sofern das stimmt.


Joa, wird wohl sie wie immer am PC enden. Stumpf viel mehr Speicher verbauen als bei den Konsolen um prinzipiell das gleiche Ergebnis zu erreichen. 24-32 GB RAM plus 16 GB VRAM um sich das streming der Texturen und 3D Modelle vom nichtflüchtigen Speicher zu sparen.

Daredevil
2020-06-10, 21:58:58
Noch ältere Spiele hast du nicht gefunden? :wink:

War das erste, was ich in Erinnerung hatte. :)
Extrembeispiele und Hisn kenne ich, keine Frage.

Aber mal andersrum, hast du denn eine Hand voll Spiele, wo z.B. eine 2080ti in UHD einbricht bzw. annähernd der komplette Speicher genutzt/adressiert wird? Also ootb. FFXV ist mir bekannt, aber das Spiel hamster ja einfach nur. :D

zockerX
2020-06-10, 23:45:34
[QUOTE=Benutzername;12333696]Die größe des VRAM hat nix mit der Geschwindigkeit zu tun oder wie schnell die GPU Spielgrafik rechnet. Äpfel und Kartoffeln. :rolleyes:
Das hat sehr wohl etwas miteinander zu tun. Du kannst auch 16GB in eine Geforce 710 oder von mir aus 1030 einbauen, nur wirst du davon nichts haben, weil der Chip dir nicht ansatzweise genug FPS bieten kann. Höchstens du nimmst ein 10 Jahre altes Spiel und machst 16K Texturen rein. Dann wiederum wird die Engine wahrscheinlich überfordert sein.
Der Punkt ist, bis die 16GB nützlich wären, ist die Radeon 7 schon längst zu lahm. Daher kann sie ihren Speichervorteil nur in Extremsituationen ausspielen. Das kennt man bereits von der Radeon 390.

War das erste, was ich in Erinnerung hatte. :)
Extrembeispiele und Hisn kenne ich, keine Frage.

Aber mal andersrum, hast du denn eine Hand voll Spiele, wo z.B. eine 2080ti in UHD einbricht bzw. annähernd der komplette Speicher genutzt/adressiert wird? Also ootb. FFXV ist mir bekannt, aber das Spiel hamster ja einfach nur. :D
Ich kann dir spontan leider nichts aus dem Ärmel schütteln. Die 2080Ti muss auch nicht heute einbrechen, es geht um die 3090. Und die möchtest du morgen sicher nicht wieder ersetzen. Wenn doch, mit was?
Fakt ist, dass man heute schon 11GB gut gefüllt bekommt und das mit der neuen Konsolengeneration sicher nicht besser wird. Ich meine wir reden hier von einem Produkt, das ziemlich sicher im vierstelligen Preisbereich sein wird. Da geht man doch keine Kompromisse ein.
Wenn ich mit die 8GB der angeblichen 3070Ti anschaue, dann haben wir da dasselbe Problem. 8GB waren bereits 2016 bei der 1070 Standard und der 3070Ti wird schnell deswegen die Puste ausgehen. Erinnert mich an die 780Ti.

Daredevil
2020-06-11, 00:04:04
No front jetzt, aber "Fakt ist, dass man 11GB voll bekommt" mit gleichzeitigem "Ich kann dir kein Spiel gerade nennen" beißt sich etwas zu viel für mich, so das man es "Fakt" darlegen kann. Ich lerne ja gerne weiter, so habe ich halt nur meine eigene Erfahrung von vielen Spielen, die ich selber halt casual anschmeiße, auch gerne mal mit RTX.

Ich bin ein potentieller Käufer einer Ampere Karte als Besitzer einer 2080ti und das einzige was mir in 4K fehlt aktuell ist nicht RAM, sondern Leistung und HDMI 2.1.
Und Ressourcen müssen halt richtig verteilt werden, das gelingt einem nicht, wenn man blind mit RAM um sich wirft. Nvidia ist kein Wohltäter. ^^

( Was nicht bedeutet, das ich es mir nicht wünschen würde, meinetwegen her damit... )

PS: 24GB GDDR6X "kosten" 60w laut Igor, das sollen 26% der gesamten GPU Power sein.

Gast
2020-06-11, 02:21:12
PS: 24GB GDDR6X "kosten" 60w laut Igor, das sollen 26% der gesamten GPU Power sein.

Das würde sogar genau zu den 320W vs. 350W zwischen 3080 und 3090 passen, weil der wesentliche Unterschied ist ja der verdoppelte Speicher.

Mit den 30W zusätzlicher Boardpower würde man sicherstellen, dass die 3090 nicht sogar teilweise langsamer herauskommt, weil der Mehrspeicher das Powerlimit einfach stärker belastet.

Leonidas
2020-06-11, 03:42:50
PS: 24GB GDDR6X "kosten" 60w laut Igor, das sollen 26% der gesamten GPU Power sein.


Wow. 60 GB nur für den Speicher selber:
https://www.igorslab.de/350-watt-fuer-nvidias-neues-ampere-spitzenmodell-rtx-3090-ich-rechne-mal-nach-warum-der-wert-so-stimmt/

Ich vermute allerdings, das Igor für GDDR6X noch keine Datenblätter hat und sich daher leicht nach oben verschätzt. Mehr als 1-1,5W pro Speicherchip sind eigentlich unüblich.

MiamiNice
2020-06-11, 04:51:00
Wenn ich das lese will ich möglichst eine Karte mit wenig Speicher. Was hat man davon wen unnützer Speicher das PT wegfrisst? Ich habe nie gesehen das die 11GB meiner Karte auch nur ansatzweise gefüllt sind. Und es liegt sicher nicht daran das ich nicht viel, oder nur bestimmten Stuff, oder nur auf einen FHD Moni spiele. Mehr Spicher ist aktuell unnützt wie nix anderes. Raster Power ist der Maßstab Anno 2020. Und das wird sich in nächster Zeit auch nicht bei den relevanten Games ändern.
Wenn jucken schon die spärlich gesäten casual AAA Games mit 6-8 Stunden solo Spielzeit und miesem MP die selbst auf einem 10 Jahre alten Rechner laufen -.-

Kleines Beispiel? EFT hat aktuell über 200k aktive Gamer. Das ist mehr als mancher Blockbuster nach der ersten Woche und in EFT hält sich das mittlerweile seit Monaten. Speicher braucht da keiner. Doppelte CPU und GPU Power als aktuell verfügbar wäre aber der absolute Bringer. Vor allem auf CPU Seite.

Ben Carter
2020-06-11, 10:51:51
Ich seh das mit der Speichermenge auch relativ entspannt. Die meiste Zeit nutzen die Spiele bei 4k irgendwas zwischen 5 und 7 GB. Selten mal, dass es wirklich über 8 geht. Da hab ich mit den 11 GB ausreichend Reserve bis zur nächsten Karte. Und ich denke, mit der nächsten, ob sie nun 11, 12 oder 16 hat bin ich mir ziemlich sicher, dass es wiederum reicht, bis ich wieder wechsel. Etwas enger sehe ich es bei den recht flotten 6 GB Karten, aber das ist halt dann eine Preisfrage. Wenn man mehr als 6 GB will muss man eben mehr Münzen einwerfen.

Bislang ist mir immer zuerst die GPU Power ausgegangen, bevor mir der Speicher ausgegangen ist.

Knuddelbearli
2020-06-11, 11:02:19
Die Speicherchips verbrauchen ja nur Strom, wenn sich da was tut? Nur das SI verbraucht doch immer nennenswert zusätzlichen Strom?

Ansonsten kann man ja einfach PT anheben bzw gleich BIOS Mod

Rabiata
2020-06-11, 13:11:32
Wenn ich das lese will ich möglichst eine Karte mit wenig Speicher. Was hat man davon wen unnützer Speicher das PT wegfrisst? Ich habe nie gesehen das die 11GB meiner Karte auch nur ansatzweise gefüllt sind.
Das könnte 1-2 Spiele-Generationen später noch kommen. Kann denjenigen egal sein, die dann eh eine neue GraKa kaufen. Aber wer das Teil auf lange Zeit nutzen will, sollte jetzt schon auf 16 GB Minimum achten.
Wenn Nvidia im High End weniger anbietet, dann nicht weil sie nicht können, sondern weil sie nicht wollen. Bei den Preisen, auf die hier spekuliert wird, wäre auch HBM locker in den Herstellungskosten drin. Zum Vergleich:
Die XFX Radeon VII geht mittlerweile für um die 600 Euro weg, und da sind 16 GB HBM2 mit 1 TB/s Bandbreite drin. Bei deutlich weniger Energieverbrauch als GDDR6x.

hardtech
2020-06-11, 13:36:07
16gb minimum speicher.
ja nee, ist klar. man kann es auch übertreiben.

zockerX
2020-06-11, 13:37:32
No front jetzt, aber "Fakt ist, dass man 11GB voll bekommt" mit gleichzeitigem "Ich kann dir kein Spiel gerade nennen" beißt sich etwas zu viel für mich, so das man es "Fakt" darlegen kann. Ich lerne ja gerne weiter, so habe ich halt nur meine eigene Erfahrung von vielen Spielen, die ich selber halt casual anschmeiße, auch gerne mal mit RTX.
Wenn du unbedingt ein Beispiel willst, X-Plane. Da bekommst du 11GB locker voll. Und ich kann mich nur wiederholen, mit der neuen Konsolengeneration werden die Anforderungen nicht sinken oder gleich bleiben.

Und Ressourcen müssen halt richtig verteilt werden, das gelingt einem nicht, wenn man blind mit RAM um sich wirft. Nvidia ist kein Wohltäter. ^^
Das hat nichts mit blind RAM um sich werfen zu tun. Nvidia hat in der Vergangenheit öfters damit gegeizt. 16GB wären bei einer 3090 angemessen. Bei der 3080 wären 10GB sogar ein Downgrade.

PS: 24GB GDDR6X "kosten" 60w laut Igor, das sollen 26% der gesamten GPU Power sein.
Das wird sich noch herausstellen. Das ist auch das geringste Problem, da es die Kühlung nicht negativ beeinflussen wird.
16GB würden wie gesagt reichen. Dann müsste man das Speicherinterface anpassen oder auf HBM2 gehen, wo soviel ich weiß auch krumme Bestückungen möglich sind.
Mir kommen die TDP-Angaben ohnehin seltsam vor. Bei deutlich besserer Fertigung wäre das bei vergleichbarer Leistung deutlich mehr Verbrauch. Von den Tensorcores kann das nicht kommen. Das müssten eigentlich 100W weniger sein.

Fragman
2020-06-11, 14:01:59
Wenn du unbedingt ein Beispiel willst, X-Plane. Da bekommst du 11GB locker voll.

Schau einfach in die Turingthreads und starte eine Suche hier im Forum. Dann findest du die entsprechenden Erklärungen warum, wieso, weshalb. ;)

Aroas
2020-06-11, 14:21:53
Wieder nur 6GB Speicher bei der 3060 wären wahrlich lächerlich. Die Karten dürften erneut nicht besonders günstig sein.
Bei 300€+ Kaufpreis erwarte ich einfach mindestens 8GB Speicher, sonst sehe ich von einem Kauf grundsätzlich ab.

Ex3cut3r
2020-06-11, 14:38:03
Ich glaube ich lasse diese Gen aus. Der Rohleistungsgewinn wäre trotz 350W von meiner 2080 zwar gut. Aber die erneute schwachbrüstige Speicherbestückung, macht mich persönlich nicht an, ich kaufe doch in 1,5-2 Jahre nicht schon wieder eine GPU nur weil der Speicher wieder mal nicht reicht, mit Kepler und Maxwell vorallem hatten wir auch eigentlich auch nur Krüppels, erst Pascal hat dann endlich für die 1070er 8GB geliefert. Ich verstehe schon, dass es Nvidia so am liebsten hat, dass man am besten alle 2 Jahre aufrüstet. Sei es wegen der Rohleistung oder aber wegen dem VRAM Mangel.

Aber nicht mit mir. Da gehe ich lieber in den Edelpuff. ;D

Corona hat mir ehrlich gesagt auch mein Kapital schrumpfen lassen. (Ich habe meine Eltern mit versorgt) Werden halt die Settings mit der 2080 für weitere 2 Jahre angepasst, und mal schauen was der Ampere Nachfolger bieten wird.

Gast
2020-06-11, 15:02:01
[QUOTE=Benutzername;12333696]
Das hat sehr wohl etwas miteinander zu tun. Du kannst auch 16GB in eine Geforce 710 oder von mir aus 1030 einbauen, nur wirst du davon nichts haben, weil der Chip dir nicht ansatzweise genug FPS bieten kann.780Ti.

Das stimmt nicht, auch mit der 1030 wird man maximale Texturdetails einstellen können, wenn sie denn 16GB an Speicher hätte.

Mehr Texturdetails sind nämlich bis auf den zusätzlichen VRAM-Verbrauch weitestgehend "gratis".

Und Texturdetails sind immer noch ein wesentlicher Faktor für die wahrgenommene Grafikqualität, sogar einer der wesentlichsten trotz aller Effekte. Gerade in First-Person Spielen reichen auch heute die Texturauflösungen immer noch nicht aus wenn man wirklich nahe an Objekte herangeht.

Das Beispiel mit der 1030 ist natürlich etwas extrem, die Karte ist so langsam, dass man oft sogar die Auflösung derart weit reduzieren müsste für spielbare Bildraten, dass man von mehr Texturauflösung gar nicht mehr profitieren kann.

Jede Grafikkarte die ausreichend Leistung für Spiele bringt um zumindest FullHD flüssig darzustellen könnte aber auch von mehr Texturspeicher profitieren.
Ab dem Midrange Bereich kann man so ziemlich jede Grafikkarte dazu überreden in FullHD spielbare Bildraten darzustellen indem man einige Effekte die optisch oft gar nicht groß auffallen aber massiv Leistung kosten reduziert/deaktiviert.

Auch mit einer derartigen Karte könnte man Texturen verwenden die 16GB problemlos auslasten könnten, ganz ohne dass das die Performance beeinflussen würde, wenn nur genügend VRAM vorhanden wäre.

Also alles ab einer 1660 oder so könnte auf jeden Fall was mit 16GB VRAM anfangen, wenn es nur die passende Software dafür geben würde.

Gast
2020-06-11, 15:09:22
[QUOTE=Leonidas;12333900
Ich vermute allerdings, das Igor für GDDR6X noch keine Datenblätter hat und sich daher leicht nach oben verschätzt. Mehr als 1-1,5W pro Speicherchip sind eigentlich unüblich.[/QUOTE]

Was er sich hier vor allem verschätzt ist, dass es hier um die Angabe des maximalen Verbrauchs eines Speicherchips handelt.

Ein Speicherchip braucht logischerweise nicht dauerhaft die maximale Leistungsaufnahme, insbesondere bei beidseitiger Bestückung, wie es ja bei der 24GB Karte der Fall sein wird, kann immer nur einer der beiden Chips überhaupt Daten Lesen/Schreiben, da beide ja die gleichen Datenleitungen im PCB verwenden.
Es ist damit unmöglich, dass beide Speicherchips gleichzeitig am maximalen Verbrauch arbeiten.

Das heißt zwar auch nicht dass die zusätzlichen Chips gar keine zusätzliche Energie verbrauchen, aber dass diese real ihre maximale Leistungsaufnahme steuern sie sicher nicht zum Kartenverbrauch bei.

Gast
2020-06-11, 15:14:52
Tja, bei Nvidia muss man alle 4 Jahre wegen mangelndem VRam aufrüsten ... bei AMD muss man jedes Jahr wegen mangelnder Leistung aufrüsten. Wäre doch mal klasse, wenn eine AMD Karte auch den zur Verfügung stehenden Speicher halbwegs sinnvoll ausnutzen könnte.

Gast
2020-06-11, 15:19:22
Wenn ich das lese will ich möglichst eine Karte mit wenig Speicher. Was hat man davon wen unnützer Speicher das PT wegfrisst?

Nur hat der Verbrauch nicht unbedingt viel mit der Speichermenge zu tun sondern mit der Anzahl der verbauten Speicherchips und bei fast allen Grafikkarten hast du genauso viel Speicherchips verbaut wie notwendig sind um das Speicherinterface zu füllen.

Wenn du einer 2080Ti nur halb so große Speicherchips verpasst würde das gar nichts bringen, und wenn du weniger Speicherchips verbauen würdest, würde sich das Interface entsprechend verkleinern.

Das ändert sich nur mit Grafikkarten mit doppelseitiger Speicherbestückung, wobei hier die zweite Hälfte der Speicherchips nicht wesentlich zum Verbrauch beitragt so lange auf diese gar nicht viele Zugriffe durchgeführt werden. Sie tragen natürlich immer einen Teil zum Verbrauch bei, da ja DRAM seine Ladung verliert uns ständig refresht werden muss, das muss natürlich mit allen Speicherchips gemacht werden.

Was Igors Rechnung auch nicht berücksichtigt ist, dass er einfach mit dem maximalen Verbrauch der Speicherchips rechnet, die Verbrauchen aber konstant ihren maximalen Verbrauch, und wie viel sie tatsächlich brauchen hängt im Wesentlichen von der aktuell benötigten Bandbreite und nicht von der verbauten Speichermenge. Wenn bei aktueller Last gar nicht die maximale Speicherbandbreite die eine GPU hat benötigt wird, sinkt auch der Anteil der Speicherchips am Verbrauch entsprechend.

zockerX
2020-06-11, 15:24:53
Schau einfach in die Turingthreads und starte eine Suche hier im Forum. Dann findest du die entsprechenden Erklärungen warum, wieso, weshalb. ;)
Warum, wieso, weshalb was?

RajaSu
2020-06-11, 15:29:51
Ich denke dieses Jahr hat AMD ein leichtes Spiel gegen das schwächelnde nvidia, mit AMD's RDNA2 superdupper roter 'RTG' Technologie wird man das kleine nvidia mit "BigNavi" nun endgültig in den Boden stampfen und mit .... bis zu 5-facher RTX 2080Ti Leistung in ausgesuchten, AMD optimierten Szenarien und mit AMD bewehrter 64 GB HBM3 mit 4TB/s Bandbreite GCN+/RDNA+ Technologie .... wird man der Neue Ampere RTX3000 Serie mit neuer hochoptimierter 'verlustfreien' Speicher Komprimierungs-Techniken .... für die nächsten 12 Jahre, weit überlegen sein!

AMD ist so viel Besser, als alle anderen .... dies weiß jeder Konsolen Gamer doch seit Geburt! RDNA2 mit 64GB HBM3 kommt für $149.90 USD für den AMD Kunden, noch vor Nvidia AMPERE RTX 3080Ti auf den Markt - AMD ist immer so viel Günstiger (teils auch mit völlig veralteter GCN+ Technologie) in 2020!

der'RajaKudriSu von Intel zittert schon Heute, auf seinem Stuhl!

Gast
2020-06-11, 21:39:32
Die Speicherchips verbrauchen ja nur Strom, wenn sich da was tut?

DRAM muss ständig refresht werden und braucht deshalb auch immer Strom.

Wer aber schon mal sein Notebook im Standby liegen gelassen hat und beobachtet hat wie langsam sich dabei der Akku entleert weiß, dass das nur sehr wenig ist.

etp_inxession
2020-06-12, 08:00:19
Steht und fällt eben alles mit der Entwicklung der Spiele für Konsolen.

Schlecht portierte Games mit massig Texturen, lechzen eben nach VRAM.

Generell ist man aber mit 8GB auch in Zukunft noch fähig zu spielen.
(Wenn man Regler bedienen kann, definitiv)

Wird ein interessanter Herbst.

Ich hoffe das die 5700 XT auf Preise um die 300 € fällt. Dann wird eine davon meine.

Rabiata
2020-06-12, 13:43:18
Generell ist man aber mit 8GB auch in Zukunft noch fähig zu spielen.
(Wenn man Regler bedienen kann, definitiv)

Wird ein interessanter Herbst.

Ich hoffe das die 5700 XT auf Preise um die 300 € fällt. Dann wird eine davon meine.
Ich denke sogar "nur" an eine 5500 XT 8GB und erwarte trotzdem, daß es im Laufe der Jahre zuerst am VRAM klemmen wird. Nach meiner bisherigen Erfahrung kommt mit steigenden Anforderungen zuerst das große Nachladegeruckel, bevor die FPS unter 30 fallen. Was ich persönlich (die 30 FPS) bei allem außer Shootern für OK halte.

MiamiNice
2020-06-12, 14:19:47
Nur hat der Verbrauch nicht unbedingt viel mit der Speichermenge zu tun sondern mit der Anzahl der verbauten Speicherchips und bei fast allen Grafikkarten hast du genauso viel Speicherchips verbaut wie notwendig sind um das Speicherinterface zu füllen.

Wenn du einer 2080Ti nur halb so große Speicherchips verpasst würde das gar nichts bringen, und wenn du weniger Speicherchips verbauen würdest, würde sich das Interface entsprechend verkleinern.

Das ändert sich nur mit Grafikkarten mit doppelseitiger Speicherbestückung, wobei hier die zweite Hälfte der Speicherchips nicht wesentlich zum Verbrauch beitragt so lange auf diese gar nicht viele Zugriffe durchgeführt werden. Sie tragen natürlich immer einen Teil zum Verbrauch bei, da ja DRAM seine Ladung verliert uns ständig refresht werden muss, das muss natürlich mit allen Speicherchips gemacht werden.

Was Igors Rechnung auch nicht berücksichtigt ist, dass er einfach mit dem maximalen Verbrauch der Speicherchips rechnet, die Verbrauchen aber konstant ihren maximalen Verbrauch, und wie viel sie tatsächlich brauchen hängt im Wesentlichen von der aktuell benötigten Bandbreite und nicht von der verbauten Speichermenge. Wenn bei aktueller Last gar nicht die maximale Speicherbandbreite die eine GPU hat benötigt wird, sinkt auch der Anteil der Speicherchips am Verbrauch entsprechend.

Ändert das den was an meiner generellen Aussage das es nicht schön ist wenn der Speicher das PT frisst? Und ich habe noch gar kein Speicher OC bedacht, was ja auf jeden Fall noch dazu kommt. Auch hier dürfte mehr Speicher eher kritisch sein.

Ich finde es mit dem Hintergrund auch sinnlos die Speichermengen an das Level der GPU anzupassen. Also langsamste Karte 8 GB, mittel 10, High End 11 und Ent 24. Klar, das Problem mit der Speicherbandbreite ist mir bewusst.

Ich hätte trotzdem gerne eine Karte mit 12 GB Speicher und trotzdem die Bandbreite der 24GB Karte. So wie es aktuell ist, ist es für Gamer einfach nur sinnlos.

Man will die schnellsten Karte mit dem schnellsten Speicher aber man will auch das maximale an OC was nur geht. Das geht mit 24GB Speicher aber definitiv nicht.

Sorry für Schreibfehler, ist nen schnell auf Arbeit Post mit 3€ Tasta.

Gast
2020-06-12, 17:43:36
[QUOTE=MiamiNice;12335571]Ändert das den was an meiner generellen Aussage das es nicht schön ist wenn der Speicher das PT frisst?/QUOTE]

Es ist aber nicht der Speicher, sondern zu >90% die benötigte Speicherbandbreite.

Deshalb ist ja Nvidia auch so viel effizienter, weil wie für die gleiche Leistung weniger Bandbreite benötigen.

Ich bin da'Spock
2020-06-13, 11:30:53
Ändert das den was an meiner generellen Aussage das es nicht schön ist wenn der Speicher das PT frisst? Und ich habe noch gar kein Speicher OC bedacht, was ja auf jeden Fall noch dazu kommt. Auch hier dürfte mehr Speicher eher kritisch sein.

Ich finde es mit dem Hintergrund auch sinnlos die Speichermengen an das Level der GPU anzupassen. Also langsamste Karte 8 GB, mittel 10, High End 11 und Ent 24. Klar, das Problem mit der Speicherbandbreite ist mir bewusst.

Ich hätte trotzdem gerne eine Karte mit 12 GB Speicher und trotzdem die Bandbreite der 24GB Karte. So wie es aktuell ist, ist es für Gamer einfach nur sinnlos.

Man will die schnellsten Karte mit dem schnellsten Speicher aber man will auch das maximale an OC was nur geht. Das geht mit 24GB Speicher aber definitiv nicht.

Sorry für Schreibfehler, ist nen schnell auf Arbeit Post mit 3€ Tasta.

Immer wieder faszinierend, wenn sich 08/15 Foren-Schreiberlinge highend Grafikkarten nach ihren 'ganz persönlichen Wünschen' erträumen - aber nur für max. $199 USD. Nvidia weiss ganz genau, was für die kommenden Gamer-Grafikkarten angebracht ist. Zudem werden die hoch-optimierten verlustfreien Speicher Komprimierungs-Techniken von Nvidia laufend verbessert. Der VRAM Speicherbedarf wird so oft ÜBERSCHÄTZT, es wird immer diese drolligen 08/15 User geben, die sich unbedingt 16GB, 24GB oder gar 48GB Speicherbestückung wünschen .... Aber nicht bereit sind dafür Geld auszugeben! Es gibt diese Grafikkartenb am Markt .... also kauft sie >>> Nvidia Quadro / Titan RTX 24GB oder Nvidia Quadro RTX 8000 mit sauteurem GPU Memory & 48 GB GDDR6 mit ECC!

>>> https://www.pny.com/file%20library/company/support/product%20brochures/nvidia%20quadro/english/rtx8000-datasheet.pdf

Viel Speicher hat nunmal seinen Preis, weil das ganze Platinenlayout & die GPU (breite Speicher-Schnittstelle 384-bit) samt Stromversorgung, dafür ausgelegt & teurer gefertigt werden müssen. Aber die Foren Schreiberling jammer halt gerne rum, seit Jahrzehnten .... und nur sie Alleine wissen, wie es besser geht! AMD & Nvidia sind ja so böse ....

Spock'von Vulcan .... findet es auch nach Jahrzehnten immer noch drollig ;o)

Gast
2020-06-13, 17:06:07
Zudem werden die hoch-optimierten verlustfreien Speicher Komprimierungs-Techniken von Nvidia laufend verbessert.


Verlustfreie Komprimierungen verringern den benötigten Speicherplatz im VRAM eben nicht, da diese eben verlustfrei sind und daher im vorhinein nicht bekannt ist wie viel Platz die Daten nach der Kompression noch benötigen werden.
Gleichzeitig kann eine verlustfreie Kompression nicht wissen, ob die aktuellen Daten möglicherweise überhaupt keine Redundanzen aufweisen und damit überhaupt keine Kompression möglich ist. Eine Verlustfreie Kompression muss diesen Extremfall immer beachten und daher so viel Speicher reservieren als wäre gar keine Kompression möglich.

Das was eingespart wird ist einzig die benötigte Speicherbandbreite um die Daten zu transportieren.

Zudem sind die Möglichkeiten eine bereits vorhandene Kompression zu verbessern begrenzt, da eine gewisse Menge an Information auch immer mindestens einen bestimmten Speicherplatz benötigt. Je näher man an diesem Limit bereits ist, desto weniger kann man hier noch verbessern.

Nachdem man bereits mehrere Generationen dieser Kompressionstechniken entwickelt hat ist es anzunehmen, dass man sich bereits recht nahe an diesem Limit befindet, und keine extremen Verbesserungen mehr möglich sind.