PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Vram bei Grafikkarten Utopische Entwicklung


Emperor
2016-05-27, 21:03:03
Also ich hab da echt mal eine frage,die Entwicklung der Grafikkarten wird in den Jahren wohl einen Utopischen sprung nach vorne machen wie es mir scheint wen ich mir das mal so anschaue.

2010 Geforce GTX 560 Ti 1GB Vergangenheit
2012 Geforce GTX 660 Ti 2GB Vergangenheit
2013 Geforce GTX 780 Ti 3GB Vergangenheit
2015 Geforce GTX 980 Ti 6GB Vergangenheit
201X Geforce GTX 1080 Ti 12GB Zukunft
201X Geforce GTX XXXX Ti XXGB (Volta) Zukunft

(Ich nehem immer nur die TI Versionen für meinen vergleich)

Wie sollen sich denn die Spiele da entwickeln,also von 2010 bis 2013 waren es kleine schritte aber dennoch immer das Doppelte,nur ist das Doppelte von der Gegenwart und Zukunft ja gewaltig und ich frag mich echt wie die Spiele sich dahin entwickeln werden und wie wie Realistisch es sein muss bei der Entwicklung.

Fusion_Power
2016-05-27, 21:21:36
Ich dachte ehr andersrum, die haben immer mehr VRAM weil Spiele halt immer mehr brauchen. Früher hat man halt noch ehr optimiert, heute hat man speicherhungrige "Megatextures" die eigentlich keiner will oder braucht. Mir gefällt diese Entwicklung nicht, ich kann auch mit Texturen leben die sich ab und an mal wiederholen, dafür spare ich dann lieber reales Geld bei Grafikkarten(VRAM).

z3ck3
2016-05-27, 21:25:29
Erst fängst du mit Midrange Karten an und führst dann Highend/Enthusiast auf.

2010 Geforce GTX 560 Ti 1GB Vergangenheit
2012 Geforce GTX 660 Ti 2GB Vergangenheit

müsste

2010 Geforce GTX 580 1.5GB Vergangenheit
2012 Geforce GTX 680 2GB Vergangenheit

lauten.

Es ist also mehr oder weniger die letzten Jahre immer zu einer Verdoppelung des Speichers gekommen. Das wird nicht unbedingt so weiter gehen. Der Speicherbedarf steigt schon immer, oft waren es Verdoppelungen und dann gab es eine Zeit lang eine gewisse Stagnation über ein oder zwei Generationen, weil der Mehrpreis nicht mehr durch den Nutzen gerechtfertigt werden konnte. Wenn 12 bzw. 16GB demnächst eine Weile ausreichen sollten, dann wird es auch keine Highendkarten, von Ausnahmen abgesehen, mit mehr Speicher geben. Jedenfalls solange nicht, wie hochperformanter Speicher teuer ist und der Nutzen nicht vorhanden ist.

Dicker Igel
2016-05-27, 21:26:38
Die 560 sollte wohl eher 'ne 580 sein, 660 wäre 680 ..., und 980 non TI passt da besser.

BlacKi
2016-05-27, 21:29:01
mit hbm muss das verdopplungsprinzip ja nicht zwingend fortgeführt werden. könnte sein das big volta mit nur 16 oder 20gb daherkommt, oder irgendwas dazwischen. aber das wird eher ab 2019 der fall sein, und 3 jahre sind ne lange zeit für grafikkarten.

woodsdog
2016-05-27, 21:29:29
mit 8-12 GB haben wir vermutlich den Konsolen Sweetspot für die nächsten 2-3 Jahre gefunden - mit dem üblichen TopDog Titan Ausreißer den zu Lebzeiten der Karte [bei den Erstkäufern] nie wirklich gebraucht wird.

Emperor
2016-05-27, 21:31:01
Ich hab das mit absicht gemacht da die TI im laufe der Jahre von der Midrange zur Enthusiasten Karte wurde.

Dicker Igel
2016-05-27, 21:32:07
mit 8-12 GB haben wir vermutlich den Konsolen Sweetspot für die nächsten 2-3 Jahre gefunden
Denke ich auch. Wobei die 12 dann wohl nur schlechte Ports skalieren.

Emperor
2016-05-27, 21:37:31
Denke ich auch. Wobei die 12 dann wohl nur schlechte Ports skalieren.

Was meint ihr mit Sweetport ?

Knuddelbearli
2016-05-27, 21:45:18
Ich hab das mit absicht gemacht da die TI im laufe der Jahre von der Midrange zur Enthusiasten Karte wurde.

finde ich auch richtig so. wenn man 480 580 nimmt müsste man ja auch die titan nehmen

Dicker Igel
2016-05-27, 21:47:15
Dann könnte man auch 580, 680 etc mit doppelten VRAM nehmen.

Knuddelbearli
2016-05-27, 21:55:45
580 ja 680 mit doppelten war aber schon eine xtrem Nischenprodukt das erst kurz vor deren Wachablösung gekommen ist oder?

Dicker Igel
2016-05-27, 21:58:08
670 und 680 gabs glaube schon beizeiten mit doppelter Bestückung. Bei der 780 war das eher Nische.

woodsdog
2016-05-27, 23:14:11
gekauft wurde trotzdem überwiegend die "normale" - kleinere - Karte.

Dicker Igel
2016-05-27, 23:40:09
Joar, zwar nicht in der Relation, aber 980 non TI war/ist wohl auch verbreiteter.

Würde das so sehen:

580 1.5
680 2
780 3
980 4
980TI 6
1080 8

Die Titanen sehe ich eher als Nerdisms.

Emperor
2016-05-28, 15:15:22
Joar, zwar nicht in der Relation, aber 980 non TI war/ist wohl auch verbreiteter.

Würde das so sehen:

580 1.5
680 2
780 3
980 4
980TI 6
1080 8

Die Titanen sehe ich eher als Nerdisms.

Jop ich hätte es sonst so machen müssen aber darum hab ich ja bewust nur die TI genommen da mann dort sehr deutlich eine stetige Verdoppelung sieht was zuerst sehr gering erscheint aber dann in der Zukunft wirklich gewaltig ist.

Oder mann nimmt nur die Titan Reihe und dann wird einem schlecht

2014 Geforce GTX Titan Black 6GB Vergangenheit
2015 GeForce GTX Titan X 12GB Gegenwart
201X Geforce GTX Titan Y 12-16GB? (Pascal) Zukunft
201X Geforce GTX Titan ?GB (Volta) Zukunft





Diese verdoppelung ist ja Anfangs noch Human und so wirklich gedanken macht man sich da nicht aber jetzt ist das wirklich schon etwas wo ich denke warum und für was.

Mortalvision
2016-05-28, 16:28:26
Hmm, du brauchst die Texturen nicht dekomprimieren?

Du hast viiiiel Platz für msaa, FAA etc?

Du kannst 3-2*4k Bildschirme in 3d Anwendungen (eher nicht games) nutzen?

Du gibst dem consumer das Gefühl, dass er als Besitzer einen großen, tollen Lümmel hat.

Du gibst dem Benutzer als Nicht-Besitzer das Gefühl, dass seine Lümmeleien zu wenig bringen, und er noch "mehr" raus holen könnte, wenn er nur ordentlich für das schöne, tolle Produkt bezahlen würde.

Du gibst den Besitzern suboptimaler Lümmel derselben Firma mit max. Lümmel das Gefühl, trotz ihrer beschnitten Mini-Lümmel mit Beschneidung der Anbindung ans Reservoir, zur großen Lümmelei-Society dazugehören zu dürfen :D

Knuddelbearli
2016-05-28, 17:17:58
und in 5 Jahren dann 32gb auf den high end karten?

denke aber mit hbm wird es dann eh erstmal stagnieren bzw langsamer werden

KHJ
2016-05-28, 17:59:52
Ich würd mir da nicht so viele gedanken machen.
Ich sehe das so wie beim Ram da hat man auch nur die Sprünge von 2x2 , 2x4 , 2x8
also derzeit sind wohl 2x4 + 2x8 Grössenteils verbaut, wobei dei 16Gb halt derzeit für Gamersysteme schon sehr gut bemessen sind mit massig Buffer , aber man weis nie wenn ein Game mal über die 8GB kommt und dann ist man froh wenn man die 16 GB hat und weniger dazwischen gibt es kaum es sei den man macht ne Mischbestückung, was bei den Preisen auch kaum sinn macht.

Bei Grafikkarten wird sich das die nächsten Generationen sicher nicht verdoppeln. Bei der Titan noch am ehesten möglich da hier die Käufer für unnötigen VRAM bereit sind zu zahlen und so sind die gerüchtemässigen 24GB vram vielleicht wirklich echt , aber totaler Overkill.
Im Mainstream gehe ich eher davon aus das wir noch einmal +8Gb auf insgesamt 16GB sehen und das dann 1-2 Generationen so bleiben wird.

Denkbar wäre auch das bei den 80er und 70er Karten mit 320 bit si und 384 bit si zwischenschritte von 10 und 12 Gb vram kommen, während dann die Volta und Nachfolgenden TI und Titan auf HBM setzen werden wo auch entweder 8 oder 16Gb derzeit machbar sind und diese dann 2 Generationen vielleicht mit 16 Gb HBM2 kommen.
Irgendwann wird dann sicher wieder ein Sprung auf 32Gb vram kommen und damit ein grösserer Sprung aber auch der kann dann eventuell wieder 2-3 Generationen beibehalten werden.

Theoretisch spricht auch nichts dagegen Grafikkarten mit zu viel Vram zu bestücken wie beim Systemram, solange das für den Kunden im preislichen Rahmen bleibt.

Emperor
2016-05-28, 18:56:58
Also was den Ram angeht ist Call of Duty Ghosts für den enormen Sprung glaub verantwortlich,es war das erste Spiel was derart viel Ram haben wollte von über 3GB und beim Vram ist es glaub ich Mittelerde Mordors Schatten was mehr als 4Gb Vram für Ultra Setting haben wollte.

Vor diesen beiden Spielen war das nicht,alle anderen wollten nur die normalen 2-4GB Ram und Vram.

Mittelerde Mordors Schatten Release 2. Oktober 2014
Geforce GTX 980 Ti 6GB Release 1. Jun. 2015
Geforce GTX Titan Black 6GB 18. Feb. 2014
Geforce GTX 780 Ti 3Gb 7. Nov. 2013
Geforce GTX 980 4GB 19. Sep. 2014

Ja zum Erscheinen von Mordors Schatten war es nur mit der Titan Black möglich das Spiel mit Ultra Settings zu spielen,alle anderen Karten hatten nur die normalen 2-3GB vRam

z3ck3
2016-05-28, 21:22:46
Das alles gab es schon immer.
1999 GF256 32 und 64 MB
2000 GF2 64 MB
2001 GF3 64 MB
2002 GF4 64 und 128 MB
2003 GF5900 128 und 256 MB

Jetzt eine Weile etwas Stagnation:

2004 GF6800 256 und 512 MB
2005 GF7800 256 und 512 MB
2006 GF7900 256 und 512 MB
2007 GF8800 512 und 768 MB
2008 GF9800 512 MB

Dann eine Weile bis aktuell kontinuierliches zunehmen des Speichers:

2008 GF280 1 GB
2010 GF480/580 1.5 GB
2012 GF680 2 GB
2013 GF780 3 GB
2014 GF980 4 GB
2015 GF980 Ti 6 GB
2016 GF1080 8 GB


Die mögliche Speichermenge hängt ja vor allem auch davon ab wie viel Bandbreite der Chip braucht um seine Performance zu entfalten (ein 256bit SI funktionieren halt nicht mit 6GB), bzw. wie viele Daten im Speicher gehalten werden können ohne das der Chip auf das Nachladen aus dem Systemram oder der HDD warten muss . Die 4Gb der AMD Fury waren/sind z.b. in vielen Szenarien ein Problem. Genauso wie bei der GTX 970 die 3.5GB Probleme gemacht haben. Diese Karten hätten eigentlich 8GB bzw. 7GB gebraucht. Wenn der Marktpreis es zulässt wird optimalerweise mehr Speicher verbaut als zum Release Zeitpunkt notwendig. Jedenfalls, wenn man den Chip selbst nicht ausbremsen, bzw. "Nachladeruckler" vermeiden will.

Und wenn man Highend Kauft, dann sollte auch der Speicher nicht bereits nach einem Jahr an sein Limit kommen. Wenn man im Midrange/Performance Segment eine Karte kauft, hat man ja auch oft genug die Auswahl eine Karte mit aktuell passender, später jedoch limitierender Speicher Ausstattung zu kaufen.

woodsdog
2016-05-28, 21:57:21
wobei zwischen 2011 und 2015 Nvidia eher die Bremse war was die breite Masse angeht.

Dicker Igel
2016-05-28, 22:14:29
Japp, die 480/580 hätten schon locker 2 vertragen, ganz zu schweigen von den 470/570'er ... 285 mit 2GB konnte man auch ewig nutzen, da hat dann eher das SM limitiert.

Emperor
2016-05-28, 22:43:36
Also bei AMD gab es da schon die ein oder andere gute Karte wie z.b die Radeon HD 7970 3GB,wer die zum Release 22. Dez. 2011 gekauft hatte konnte sie schon bis ins Jahr 2015 sehr gut nutzen.

Weil AMD war im Jahre 2011 schon bei 3GB

2010 Radeon HD 6870 1GB
2010 Radeon HD 6970 2GB
2011 Radeon HD 7870 2GB
2011 Radeon HD 7970 3GB (Tahiti)
2013 Radeon R9 280X 3Gb (Rebrand Tahiti)
2013 Radeon R9 290X 4GB (Hawaii)
2015 Radeon R9 390X 8GB (Rebrand Hawaii)
2015 Radeon R9 Fury X 4GB

Mit der HD 7970 im Jahre 2011 hate AMD eindeutig die Nase vorn,Nvidia hatte erst 2013 3Gb Vram,AMD aber schon 2 Jahre zuvor und die HD 7970 konnte man wirklich 4 Jahre lang nutzten von 2011 bis 2015,die Karte war ne Bombe und hat 500 Euro gekostet.AMD hatte auch schon 2010 2Gb Vram,wieder eher wie Nvidia,Nvidia hatte erst 2012 2Gb Vram.

Irgendwie hat AMD nichts drauß gemacht aus ihrem Vorteil.

Knuddelbearli
2016-05-28, 22:51:00
naja das ja eigentlich AMDs Problem. Ihre Karten halten zulange. Und zuwenige Leute schätzen das.

Emperor
2016-05-29, 07:25:00
naja das ja eigentlich AMDs Problem. Ihre Karten halten zulange. Und zuwenige Leute schätzen das.


Das stimmt aber,AMD baut wirklich langlibieg und die Leute unterschätzen das sehr,hier sieht man die Langlibigkeit von AMD Karten sehr gut.Hier im Test bei Max Payne 3 2012 http://www.gamestar.de/spiele/max-payne-3/artikel/max_payne_3,44752,2568893.html und hier bei The Witcher 2015 hällt die HD 7970 noch immer locker mit http://www.gamestar.de/spiele/the-witcher-3-wild-hunt/artikel/the_witcher_3_wild_hunt_systemanforderungen,49062,3085863,7.html#technik-tabelle und im Test von Max Payne 3 sieht man auch das AMD mit dem Vram vor Nvidia war.

Dieses Mainboard was ich habe habe ich seit 2010 und hatte zuerst einen Phenom II drauf,jetzt ist der FX drauf und die Kiste kann noch immer mit Aktuellen Spielen locker mithalten und das nach 6 Jahren,ich hab noch nciht mal ein UEFI Bios,das dingen ist vollkommen veraltet und fällt noch nicht um.

Ich hatte eine HD 7970 drin und mit dem Erscheinen von Batman Arkahm Knight musste ich sie ersetzten,da konnte sie dann nicht mehr mithalten 3Gb waren einfach zu wenig.Aber eine Karte 4 Jahre lang zu haben ist echt schon ne Leistung.

Viele haben immer über den Rebrand von AMD gemäkert,aber bei der 7970 konnte AMD es sich wirklich erlauben davon einen Rebrand zu machen weil der Chip es einfach hergab wie mit der R9 290.

AMD ihre beiden besten Chips sind die 2011 Radeon HD 7970 3GB (Tahiti) und die 2013 Radeon R9 290X 4GB (Hawaii).

Irgendwie macht AMD da was falsch mit ihrem Marketing und das wird auch irgendwannn mal ihr Todesstoß werden den Nvidia hat aufgehollt und ich hab mir schon eine GTX 1080 bestellt und warte nur noch auf den Paketdienst und mit der GTX 1080 habe ich die lebensdauer dieses Rechners nochmal um ein stück verlängert.Ich hab mich für die GTX 1080 entschieden weil Polaris nicht Highend sein wird und dieses kein nennenswerter Sprung wird da es von der 390X zu Polaris nur ein geringer Abstand ist. http://www.computerbase.de/2016-05/amd-radeon-r9-480-x-polaris-10-benchmarks/

Auch wenn Polaris 8GB Vram haben wird sind sie damit deutlich hinter Nvidia und Nvidia war beim Vram Jahre lang deutlich hinter AMD und AMD hat aus dem was sie hatten nichts gemacht,jetzt hollt Nvidia auf und legt AMD die Daummenschrauben an und wen die Vega nicht an die GTX 1080 rannkommt oder darüber ist das AMD ihr Untergang.

Das AMD mit dem Vram so weit vor Nvidia war ist kaum zu glauben.

Air Force One
2016-05-29, 10:22:00
Naja AMD bietet ja mit der R9 390 auch schon lange 8GB VRAM an. Bzw vorher schon etwas bei einigen 290Xern

AnarchX
2016-05-29, 10:41:59
Nvidia hat erkannt das man über VRAM-Limitierung langfristig mehr Karten verkaufen kann und als Marktführer kann man sich dies wohl erlauben, auch wenn es einem Teil der Kundschaft bewusst ist.
Es wird wohl sogar auch Chip-Ebene limitiert, dass kein Partner auf dumme Ideen kommt (siehe GTX 780 6GiB mit eigener Chip-Version).

Es braucht da wohl leider mehr Druck von Seiten AMDs, bei der GTX 680/670 waren die 4GiB Versionen fast zum Launch verfügbar.

Die nächsten Entwicklungen könnten wohl 10/12GiB bzw. 18GiB (GDDR5X erlaubt 12Gbit Chips) bei NV sein.

Emperor
2016-05-29, 11:39:47
Ich verstehe nicht warum AMD die Radeon R9 Fury X auf 4GB beschränkt hat,gerade diese und bei der 390X machen sie 8GB drauf.AMD sollte da mehr Druck machen nur leider vermute ich das Nvidia nun ein Ponopol anstrebt und AMD stück für stück zerquetschen wierd.

Auch hier bei der 390X hat AMD wieder einen deutlichen Vram vorteil eher wie Nvidia aber irgendwie wird daraus nichts.

Währe es nciht besser gewesen die Fury X mit 8GB zu bestücken besonders wegen dem HBM Speicher da die 980Ti schon 6Gb hat ? und warum führen sie den HBM Speicher bei Polaris nicht weiter,nun haben sie einen neuen Speicher der kleine schnelle Karten erlaubt aber setzten bei ihrer neuen Generation wieder auf einen veralteten.

AnarchX
2016-05-29, 11:54:48
Mehr als 1GiB HBM1 Stacks waren nicht verfügbar. Und HBM ist für 300€ Karten einfach noch zu teuer, die Fury Abverkäufe machen wohl kaum Gewinn. Mit Vega wird es wieder HBM2 geben.

MikePayne
2016-05-29, 11:56:57
naja das ja eigentlich AMDs Problem. Ihre Karten halten zulange. Und zuwenige Leute schätzen das.

Schön gesehen ;)

Nvidia hat erkannt das man über VRAM-Limitierung langfristig mehr Karten verkaufen kann und als Marktführer kann man sich dies wohl erlauben, auch wenn es einem Teil der Kundschaft bewusst ist.


Wenn man Bock auf so eine Abzocke hat...

Lowkey
2016-05-29, 12:05:42
Die Käufer achten auf Vergleichsmerkmale: 8 Gbyte hören sich besser an als 4 Gbyte. Und dann kommt das Argument: Spiele von morgen brauchen 8 Gbyte, also kaufe ich besser etwas mit mehr Speicher.

Abgesehen vom Marketing geht es doch immer um Ultra-Details. Die Vergleiche zeigen, dass die Qualitätsstufen teils nicht spürbar sind. Zwischen High und Ultra liegen manchmal keine sichtbaren Unterschiede, aber in den Benchmarks braucht Ultra mehr Leistung. Da stelle ich den Schatten von Ultra auf normal und die Texturen eine Stufe runter und kann flüssig zocken.

Die Entwicklung geht auf 12-16 Gbyte zu. Das liegt dann aber an 4k und den Nachfolgern. AMD teasert 16k für VR an. Und wenn ich heute eine Karte mit 16 Gbyte kaufen würde, dann wäre sie in 3 Jahren feature oder chiptechnisch am Ende.

Insofern kann man sowieso nur das kaufen, was der Geldbeutel hergibt bzw. was der eingesetze Monitor braucht.

PS: Doom auf Ultra braucht ja nur 4,1 Gbyte @ 1440p, praktisch per Aufräumfreigabe vermutlich weniger. 8 Gbyte auf 4k halten die nächsten 3 Jahre.

Emperor
2016-05-29, 12:10:15
Mehr als 1GiB HBM1 Stacks waren nicht verfügbar. Und HBM ist für 300€ Karten einfach noch zu teuer, die Fury Abverkäufe machen wohl kaum Gewinn. Mit Vega wird es wieder HBM2 geben.

Mich hat eine Fury X wegen der Wasserkühlung abgeschreckt und den 4GB,ich hatte die 980ti im Auge aber mit dem Release der 1080 hab ich mich dann eher für die entschieden.

Dicker Igel
2016-05-29, 12:22:35
Wenn man Bock auf so eine Abzocke hat...
Doppelter VRAM war ja verfügbar(mal ab von der 780), klar war das preisintensiver, aber man hatte ggf auch länger was davon. Die ganzen Ammenmärchen dass doppelter VRAM Unsinn ist, die GPU es nicht packt etc, hatte ich schon immer belächelt.

Emperor
2016-05-29, 13:35:47
mmmhhh das ja Kurios,wir tauschen uns hier über AMD und Nvidia aus und nicht einmal ist irgendiwe was abfälliges gefallen wie ich es aus anderen Foren kenne.Nichtmal als ich sagte das ich eine GTX 1080 mit einem FX-8150 Kopeln will.

Das gefällt mir,in anderen Foren wird man dafür geteert und gefedert und dann noch gebrantmarkt.

Jeder von uns hatte sicher schon sehr viele Karten und ich hatte auch Nvidia und dann eine Zeitlang AMD,jetzt noch bis der Postbote kommt ^^

Aber sowohl mit Nvidia wie auch AMD habe ich gute Erfahrungen gemacht und ich würd mich niemals auf eine Seite schlagen,nur jetzt wechsel ich mal wider die Seite und bin gespannt was kommt.
AMD muss dringend was machen und das ist mehr Druck,sie sind mit ihren Releases immer Zeitlich hinter Nvidia,klar kann man sagen die meisten Kunden werden Fanboys sein und die anderen warten,aber ich bin kein Fanboy und hab nun zugeschlagen was für AMD ein Kunde weniger ist.

Nvidia ist kmit der 1080 jetzt richtig mies abgegangen da AMD immer mit einer niedrigen TDP geworben hat bei Polaris und Nvidia hat garnicht gemacht und boom zum Release gabs den Schock die 1080 hat 180W und auch besseres Asynchrone Shader mit GDDR5X.

AMD hat es da echt schwer und auf Polaris schau ich garnicht erst,ich bin nur gespannt was die Vega haben wird und wie lange es bis zum Release dauert,aber die wird sicherlich 8GB HBM2 haben.

iuno
2016-05-29, 13:58:42
Ich verstehe nicht warum AMD die Radeon R9 Fury X auf 4GB beschränkt hat[...]
Währe es nciht besser gewesen die Fury X mit 8GB zu bestücken besonders wegen dem HBM Speicher da die 980Ti schon 6Gb hat ?
Natuerlich waere es besser gewesen, das war aber keine gewollte Einschraenkung. Es ist schlicht (heute noch) kein HBM verfuegbar, der bei der Fury 8 GiB Speicher erlaubt haette. Bisher gibt es nur die 4Hi Stacks von Hynix mit 4x2Gib und 500 Hz, also pro Stack 1 GiB Speicher und 128 GB/s Bandbreite. Und mehr als 4 Stacks haette man aus Platzgruenden (sowohl GPU/SI als auch Interposer) nicht verwenden koennen.

und warum führen sie den HBM Speicher bei Polaris nicht weiter,nun haben sie einen neuen Speicher der kleine schnelle Karten erlaubt aber setzten bei ihrer neuen Generation wieder auf einen veralteten.
"Veraltet" ist so ein haessliches Wort ;p. GDDR5 ist nicht veraltet, genausowenig wie Konsolen veraltet sind, nur weil es schnellere Hardware gibt - oder ein neuer Golf, nur weil es Ferraris gibt.
GDDR5 bedient einfach ein anderes Segment als HBM. GDDR5X wurde als lebensverlaengernde Massnahme noch eingeschoben, um dieses Segment noch etwas zu dehnen, aber am oberen Ende kommt man an HBM in Zukunft wohl nicht vorbei. HBM ist aber viel teurer als GDDR5, daher rechnet sich der Einsatz auf kleineren Karten noch nicht (auch wenn die Vorteile natuerlich trotzdem da waeren).
AMD geht daher den Weg mit HBM selbstverstaendlich weiter, aber nicht mit Polaris, weil die nur Einsteiger- bis Mittelklasseprodukte werden. Die haben ja schon angekuendigt, dass sie damit Marktanteile holen wollen und das geht nur mit guenstigen Preisen, vor allem wo sie ja offenbar auch stark auf die OEMs abzielen.
Darueber kommt Vega wohl zum Jahreswechsel nach, dann wieder mit HBM.
Die Käufer achten auf Vergleichsmerkmale: 8 Gbyte hören sich besser an als 4 Gbyte. Und dann kommt das Argument: Spiele von morgen brauchen 8 Gbyte, also kaufe ich besser etwas mit mehr Speicher.
Zweifellos, daher gibt es auch immer noch die Notebookloesungen mit viel/mehr Speicher (womoeglich dann auch noch DDR3 :ugly: ).
Es laesst sich aber auch beobachten, dass die Kunden sich durch "technische Details" beeindrucken lassen. Man darf z.B. bei Kaufberatungen oder etwa auf Preisvergleichsportalen oft den Unsinn lesen, 4 GiB HBM seien mehr wert als 6-8 GiB GDDR5, weil die Bandbreite hoeher ist und das den fehlenden Speicher ja ausgleiche :rolleyes: Ist natuerlich voelliger Unsinn, aber wenn das oft genug wiederholt und aufgenommen wird, setzt sich so eine Denkweise halt durch.
Daher kann ich mir auch vorstellen, dass Nvidia im Marketing etwas in die Richtung versuchen wird. GP100 hat auf dem Tesla P100 Modul nur 16 GiB HBM, das wird auch auf "normalen" Quadro/Tesla Erweiterungskarten der Fall sein. GP102 wird dagegen mit GDDR5X womoeglich mehr bekommen, bis es 8Hi Stacks gibt und man bei GP100 nachlegen kann. Das waere schon eine etwas absurde Situation

woodsdog
2016-05-29, 14:16:46
AC können sie immer noch nicht richtig. Nur schneller hin und her schalten.

-=Popeye=-
2016-05-29, 17:24:36
Also bei AMD gab es da schon die ein oder andere gute Karte wie z.b die Radeon HD 7970 3GB,wer die zum Release 22. Dez. 2011 gekauft hatte konnte sie schon bis ins Jahr 2015 sehr gut nutzen.

Weil AMD war im Jahre 2011 schon bei 3GB

2010 Radeon HD 6870 1GB
2010 Radeon HD 6970 2GB
2011 Radeon HD 7870 2GB
2011 Radeon HD 7970 3GB (Tahiti)
2013 Radeon R9 280X 3Gb (Rebrand Tahiti)
2013 Radeon R9 290X 4GB (Hawaii)
2015 Radeon R9 390X 8GB (Rebrand Hawaii)
2015 Radeon R9 Fury X 4GB

Mit der HD 7970 im Jahre 2011 hate AMD eindeutig die Nase vorn,Nvidia hatte erst 2013 3Gb Vram,AMD aber schon 2 Jahre zuvor und die HD 7970 konnte man wirklich 4 Jahre lang nutzten von 2011 bis 2015,die Karte war ne Bombe und hat 500 Euro gekostet.AMD hatte auch schon 2010 2Gb Vram,wieder eher wie Nvidia,Nvidia hatte erst 2012 2Gb Vram.

Irgendwie hat AMD nichts drauß gemacht aus ihrem Vorteil.

Dies Behauptung stimmt so nicht ganz.

Japp, die 480/580 hätten schon locker 2 vertragen, ganz zu schweigen von den 470/570'er ... 285 mit 2GB konnte man auch ewig nutzen, da hat dann eher das SM limitiert.

Schon vergessen?

Palit Geforce GTX 580 im Hands-on-Test: Was bringen 3 GiByte RAM? (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Palit-GTX-580-3GB-809415/)

Emperor
2016-05-29, 17:27:22
Dies Behauptung stimmt so nicht ganz

Darfst gerne Korrigieren wenn ein Fehler drin ist :-)

-=Popeye=-
2016-05-29, 17:45:19
Es geht einzig und allein um diese Aussage.

Mit der HD 7970 im Jahre 2011 hatte AMD eindeutig die Nase vorn, Nvidia hatte erst 2013 3Gb Vram, AMD aber schon 2 Jahre zuvor...

Knuddelbearli
2016-05-30, 14:25:16
mmmhhh das ja Kurios,wir tauschen uns hier über AMD und Nvidia aus und nicht einmal ist irgendiwe was abfälliges gefallen wie ich es aus anderen Foren kenne.Nichtmal als ich sagte das ich eine GTX 1080 mit einem FX-8150 Kopeln will.

Das gefällt mir,in anderen Foren wird man dafür geteert und gefedert und dann noch gebrantmarkt.


Ist aber leider auch hier selten so. Solche allgemeinen Threads werden meist in Ruhe gelassen aber in reinen AMD und NV Threads spielen dann immer die Fanboys der anderen Seite rum ...

KHJ
2016-06-15, 12:07:13
PS: Doom auf Ultra braucht ja nur 4,1 Gbyte @ 1440p, praktisch per Aufräumfreigabe vermutlich weniger. 8 Gbyte auf 4k halten die nächsten 3 Jahre.

Also bei mir in der Demo nimmt sich Doom in 1440p Ultra,16x af, tssaa 8x, VoF 130, 3400 MB auf der 970, in 1080 sind es 3100MB , mit DSR 2x 1440p sind es dann schon 3600-3700 und die fps gehen bis auf 30 runter.
Aber jedes Game braucht hier unterschiedlich viel Vram und es gäbe ja auch die Option "Alptraum" was bei der 970 gar nicht freigeschalten ist, aufgrund zu wenig Vram.
Das aber ziemlich gleichmässig, denke die Gameengine lädt wohl am Anfang des Levels gleich alle Texturen in den VRAM .

@Emperor
Du wirst von mir hier nun offiziell geteert und gefedert für deinen Frevel an NV eine AMD CPU zu verwenden.

Grafikspachtel
2016-06-15, 15:24:34
Du machst die Rechnung ohne die Spielekonsolen.
Da sehr viele große Spieletitel Konsolenports sind (mit "groß" meine ich Spiele mit Millionenbudgets und mehr als 50 Entwicklern), gibt die Konsole häufig die VRAM-Menge vor.

X360 (2005): 512MB GDDR3
PS3 (2006): 256MB XDR + 256MB GDDR3
Xbone (2013): 8GB DDR3 (5GB für Video)
PS4 (2013): 8GB GDDR5 (allerdings mit der APU geteilt, sodass wir mal mit 4-6GB Videospeicher rechnen können)

Bis 2013 waren 2GB VRAM okay.
Es gab halt vereinzelte Studios, die ihren PC-Versionen HD-Texturen spendieren und ordentlich VRAM fressen (e.g. Shadows of Mordor).
Seit 2014 ist man mit 4GB gut dabei. Die 390 bot bereits 8GB.
Ab Juli 2016 wird Polaris dann dafür sorgen, dass 8GB für die breite Masse erschwinglich wird.

Ich eiere auch noch mit 2GB herum (270X) und finde, dass 4GB VRAM bei Pitcairn nicht viel bringen würden... von daher passt die VRAM-Menge schon zum Chip.

N0Thing
2016-06-16, 00:35:25
Bis 2013 waren 2GB VRAM okay.
Es gab halt vereinzelte Studios, die ihren PC-Versionen HD-Texturen spendieren und ordentlich VRAM fressen (e.g. Shadows of Mordor).

Zumal das Spiel auch mehr VRAM belegt hat, als es gebraucht hätte. Ich habe es zwar nur in 1050p gespielt, aber trotz 2GB GTX 770 lief es trotz extra HD Content DLC einwandfrei in maximalen Details ohne Antialiasing (bzw. via SweetFX).

Inzwischen würde ich beim Grafikkartenkauf immer zu einer 8GB Version greifen, man sieht immer öfter mal einen Vorteil in 1080p, wenn mehr als 4GB zum Einsatz kommen und das auch ohne Skyrim Mods.

Grafikspachtel
2016-06-16, 12:15:30
Ich denke die aktuellen Konsolen geben mit ~5GB VRAM das neue Minimum vor.
Die hat eine aktuelle GPU ab jetzt einfach mitzubringen.

Da PCs selbst mit Mantle, Vulkan oder DX12 niemals so hardware-nah und effizient wie Konsolen sein können, ist man traditionell gezwungen die Lücke mit stärkerer Hardware zu stopfen.
Die Lücke wird durch Vulkan zwar kleiner, aber sie bleibt bestehen.

Hallo
2016-06-21, 10:02:35
Ich dachte ehr andersrum, die haben immer mehr VRAM weil Spiele halt immer mehr brauchen. Früher hat man halt noch ehr optimiert, heute hat man speicherhungrige "Megatextures" die eigentlich keiner will oder braucht. Mir gefällt diese Entwicklung nicht, ich kann auch mit Texturen leben die sich ab und an mal wiederholen, dafür spare ich dann lieber reales Geld bei Grafikkarten(VRAM).

:freak: Moment...?? :freak:

Ram kann man NIEMALS genug haben, das wird dir jeder Entwickler bestätigen.

Optimieren und PC in einem Satz zu erwähnen sagt einiges über dein Wissen (Nichtwissen) aus.

Und wenn du Geld sparen willst empfehle ich dir ein VCS 2600+E.T.:wink:

G3cko
2016-06-21, 11:24:43
Man sollte auch sonder Baufirmen außen vor lassen. Klar gab es eine GTX580 mit 3gb VRAM oder eine 7970 mit 6gb. Diese Varianten waren aber selten und teuer.

Daher ist es wichtig, was der Hersteller als Standard Ausführung vorgibt. Und hier war amd immer großzügiger. Musste man auch da es scheinbar sonst niemand kauft, aber man sieht ja den positiven Effekt über einen längeren Zeitraum.

-=Popeye=-
2016-07-24, 16:12:26
Interessanter Kommentar zum Thema VRAM.

RX 480 vs. GTX 1060 und Konsorten: Der "4 GiByte reichen locker"-Irrtum - Ein Kommentar von Raffael Vötter (http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Specials/4-GB-vs-8-GB-vs-6GB-1202557/)

edit: selbst 8GB sind zu wenig :freak:

https://abload.de/thumb/rottr_2016_07_24_14_4d8lcx.jpg (http://abload.de/image.php?img=rottr_2016_07_24_14_4d8lcx.jpg)