PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Navi 21 mit bis zu 16 GB sowie GeForce RTX 3080 mit Wahlmöglichkeit...


Leonidas
2020-08-07, 11:10:11
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-navi-21-mit-bis-zu-16-gb-sowie-geforce-rtx-3080-mit-wahlmoeglichkeit-auf-10-ode

Lehdro
2020-08-07, 11:22:04
Damit kommt man wohl bei NV seit langem mal wieder in die Situation sich zwischen der schnelleren Karte oder dem größeren VRAM entscheiden zu können. Der Aufpreis von 10 auf 20 GiB wird heftig sein, ebenso für 8 auf 16 GiB. Könnte also durchaus darin enden das eine 3070 Ti mit 16 GiB preislich nahe an eine 3080 mit 10 GiB rankommt....

Complicated
2020-08-07, 11:30:55
Dabei soll es auch eine 20-GB-Lösung geben, welche wohl "fürchterlich" sein soll
Google Übersetzt die Original-Quelle mit "beängstigend" was für eine überdurchschnittliche Performance stehen würde IMHO.
https://translate.google.de/?hl=de&tab=wT#view=home&op=translate&sl=zh-CN&tl=de&text=%E6%8D%AE%E8%AF%B4%E6%9C%89%E4%B8%AA20g%E7%9A%84%E4%B8%9C%E8%A5%BF%20%E5%90 %93%E6%AD%BB%E4%BA%BA%E4%BA%86%20%E7%9C%8B%E4%BD%A0%E4%BB%AC%E8%BF%98%E8%AF%B4%E 8%80%81%E9%BB%84%E6%89%A3%0A%E5%8F%A6%E5%A4%966x%E7%A1%AE%E5%AE%9A%E4%BA%86%209% E6%9C%88%E4%B8%8B%E5%8F%91%E5%B8%83%26%E4%B8%8A%E5%B8%82

Mega-Zord
2020-08-07, 11:34:25
Interessant ist sicher ein Vergleich zwischen 3090 mit 12 GB und einer 3080 mit 20 GB. Aber in der Vergangenheit gab es eigentlich fast keine Situationen, in denen der Langsamere Chip mit mehr Speicher besser abgeschnitten hat. Relevant ist es ja eigentlich nur, wenn die 10 GB wirklich zu wenig wären. Bis auf wenige Ausnahmen, wird dieser Fall aber vermutlich auf sich warten lassen.

Leonidas
2020-08-07, 11:36:15
Google Übersetzt die Original-Quelle mit "beängstigend"


Bei mir hatte es Google Translate als "fürchterlich" übersetzt. Aber die Wortwahl Deiner Übersetzung ist besser ... weniger fürchterlich ;)

JVC
2020-08-07, 11:37:02
"beängstigend" ist in meinen Augen selten etwas Gutes.
(bei 320bit könnten 20Gb auch "zu viel des guten" sein)

M.f.G. JVC

DragonFire
2020-08-07, 11:52:27
"beängstigend" ist in meinen Augen selten etwas Gutes.


Kann man so sehen. Aber mit "beängstigend" kann man auch "eingeschüchtert" oder "beeindruckt" meinen und dies ist bei einer Grafikkarte eben nichts negatives. Während "fürchterlich" immer eine "Abscheu" symbolisiert.

Jetzt aber genug der deutschen Sinnhaftigkeit.

Wenn bei AMD einmal 12 GB und einmal 16GB angeboten werden, dann rechne ich eher damit, dass die 16GB-Variante eine HBM2E Variante ist, während die 12 GB-Karte eine mit 384Bit-SI und GDDR6X darstellt.

NVIDIA hat nun das Problem, des zu wenigen Speichers in dieser Preis&Leistungsklasse. Daher schieben sie noch eine andere Variante ein, die der Kunde also noch extra bezahlen soll um 2020/21 eine angemessene Grafikkarte für den horrenden - oder sollte ich eher fürchterlichen verlangten Preis sagen - zu erhalten. Gut das man das Auswahl-Feature hat...

Und ja, 8/10 GB sind langsam echt zu wenig, siehe die Tests von Horizon Zero Dawn! Da werden 8GB schon zum Flaschenhals...

Ravenhearth
2020-08-07, 11:54:00
Gleichfalls scheint AMD erstmals seit längerem mit weniger Speicher (und einem kleineren Speicherinterface) für die Salvage-Lösung zu kalkulieren, da explizit für Navi 21 eine zweite Speicherbestückung (von 12 GB) genannt wurde.
Gabs erst kürzlich mit der RX 5600 XT

DragonFire
2020-08-07, 12:09:35
Jo...weil 12 GB ja auch so wenig sind...:uponder:

ChaosTM
2020-08-07, 12:17:21
Mit RTRT, ja..

JVC
2020-08-07, 12:31:15
... kann man auch "eingeschüchtert" oder "beeindruckt" meinen ...

Man könnte jetzt diese beiden Worte in die Ausgangssprache des Textes übersetzen
und das Ganze dann Vergleichen um die Bedeutung besser zu verstehen.

M.f.G. JVC

rentex
2020-08-07, 12:32:49
Vllt. sollte man auch die PCIe Anbindung berücksichtigen. 4.0 soll ja für Ampere gesetzt sein. 10/12 GB würden für 4.0 ja reichen. Beim 3.0 Modus wären 20GB durchaus nützlich. Jetzt mal,so hingesponnen...
Das ganze könnte sich aber als Fehlinterpretation rausstellen.

aufkrawall
2020-08-07, 12:35:19
10/12 GB würden für 4.0 ja reichen.
Ist kompletter Unfug.

KodeX
2020-08-07, 12:35:29
Meine chinesische Ehefrau übersetzt die ersten beiden Zeilen wie folgt:

1. Navi 21 wird es in zwei Versionen geben: 16 GB und 12 GB.
2. Das PCB-Sample ist bereits fertig. Es befindet sich zurzeit in kleinen Fabriken in Taiwan. Die Fertigung kann gerade so bis zum 11. November abgeschlossen werden. Mit der nicht öffentlichen Verteilung sollte man im Dezember oder Januar rechnen.

*Mit der "nicht öffentlichen Verteilung" meint sie wohl (nach ein wenig Recherche) die Verteilung an die Board-Parner.

Ich würde da also rauslesen, dass das (geplante) Release-Datum der 11. November sein wird und erste Partner-Karten im Dezember oder Januar erscheinen sollen.

JVC
2020-08-07, 12:50:46
1. Es gibt zwei Versionen von "Navi 21", mit 12 & 16 GB Grafikkartenspeicher.

Dann ist ja HBM noch immer nicht Fix aus dem Rennen und damit mehr Platz(505) für noch mehr CUs? :usweet:
(falls Ein HBM Speicherkanal defekt ist eben von 16 auf 12 runter, für die Resteverwertung)

M.f.G. JVC

WedgeAntilles
2020-08-07, 12:54:13
Bei mir hatte es Google Translate als "fürchterlich" übersetzt. Aber die Wortwahl Deiner Übersetzung ist besser ... weniger fürchterlich ;)

Wer sagt denn, dass sich das überhaupt auf die Performance bezieht - vielleicht ist das ja auch auf den Preis bezogen - der wird sicherlich auch fürchterlich, beängstigend oder wie auch immer :biggrin:

Generell finde ich es als Kunde schön, die Wahl zu haben.

Ist Nvidia auf 12GB begrenzt, bietet sich für AMD da eine tolle Möglichkeit anzugreifen. Jeder, der sehr viel VRam will, käme nicht um AMD rum. (Ja, die 16GB von AMD sind noch nicht bestätigt, ich würde da aber fast mein Leben drauf verwetten, dass AMD eine 16GB Version anbietet.)

Da würde es für Nvidia schon Sinn machen, den Käufern die Wahl zwischen 10,11,12 GB oder eben einer Variante mit mehr Ram zu geben.

RLZ
2020-08-07, 13:00:19
Ich würde nicht davon ausgehen, dass Nvidia sich irgendwie überraschen lässt. RDNA2 ist dank Konsolen schon lange im Umlauf und Nvidia dürfte eine ziemlich genaue Vorstellung haben, was von AMD kommt.

Gab es in der Vergangenheit eigentlich schon mal den Fall, dass bei einer Wahlmöglichkeit des Speicherausbaus, die kleinere Variante gelohnt hat?

Lehdro
2020-08-07, 13:11:09
Aber in der Vergangenheit gab es eigentlich fast keine Situationen, in denen der Langsamere Chip mit mehr Speicher besser abgeschnitten hat.
Doch gab es zur Genüge:

RX 580/480 4 GiB vs RX 570/470 8 GiB (selbiges mit den 5500XT 4 GiB)
R9 290X 4 GiB vs R9 390 8 GiB
GTX Titan 6 GiB vs GTX 780 Ti 3 GiB

Das kommt dir vielleicht auch nur so vor, weil es das bei NV schon seit Jahren nicht mehr aktiv gibt, mal abgesehen von ganz speziellen Grenzfällen wie 1050 Ti 4 GiB vs 1060 3 GiB. Sonst gibt es das bei NV eigentlich nur noch generationenübergreifend, da sich erst dann abweichende Speichermengen ergeben. Beispiele: 1070 Ti 8 GiB vs RTX 2060 6 GiB, GTX 1660 Ti 6 GiB vs GTX 1070 8 GiB oder GTX 1080 Ti 11 GiB vs RTX 2080 8 GiB. Darunter gibt es sicher einige Beispiele bei denen die mit mehr VRAM bestückte Karte in einzelnen Szenarien die eigentlich schnellere Karte merkbar schlägt und seien es nur Frametimes oder Bildqualität (fehlendene/niedriger aufgelöste Texturen).

Mega-Zord
2020-08-07, 13:13:02
Gab es in der Vergangenheit eigentlich schon mal den Fall, dass bei einer Wahlmöglichkeit des Speicherausbaus, die kleinere Variante gelohnt hat?

Ich würde die Frage ja umgekehrt stellen. Eine GTX 770 mit 4GB war eigentlich Blödsinn. Mir sind in jüngerer Vergangenheit aber auch keine anderen Beispiele bekannt. Wenn Spiele kommen, die von der großen Speichermenge profitieren, ist der Chip schon zu langsam. Es mag die eine oder andere Ausnahme geben. Schlechte Programmierung und ineffiziente Speichernutzung von Spielen zum Beispiel. Wenn man so einen Titel gerade gerne zockt, mag sich mehr Speicher lohnen.

Doch gab es zur Genüge:

RX 580/480 4 GiB vs RX 570/470 8 GiB (selbiges mit den 5500XT 4 GiB)
R9 290X 4 GiB vs R9 390 8 GiB
GTX Titan 6 GiB vs GTX 780 Ti 3 GiB

Das kommt dir vielleicht auch nur so vor, weil es das bei NV schon seit Jahren nicht mehr aktiv gibt, mal abgesehen von ganz speziellen Grenzfällen wie 1050 Ti 4 GiB vs 1060 3 GiB. Sonst gibt es das bei NV eigentlich nur noch generationenübergreifend, da sich erst dann abweichende Speichermengen ergeben. Beispiele: 1070 Ti 8 GiB vs RTX 2060 6 GiB, GTX 1660 Ti 6 GiB vs GTX 1070 8 GiB oder GTX 1080 Ti 11 GiB vs RTX 2080 8 GiB. Darunter gibt es sicher einige Beispiele bei denen die mit mehr VRAM bestückte Karte in einzelnen Szenarien die eigentlich schnellere Karte merkbar schlägt und seien es nur Frametimes oder Bildqualität (fehlendene/niedriger aufgelöste Texturen).

Welche Games zockt man mit einer 780 Ti denn, für die 3 GB nicht ausreichend sind? Vor allem, wie hoch war der Aufpreis für die Titan? Wenn du jetzt mit aktuellen spielen kommt, die für die Titan sprechen, ist das kein fairer Vergleich. Dann kauft man nämlich einfach Jahre später eine 1060 mit 6 GB und ersetzt die 780 Ti. Aber von Anfang an VRAM auf Vorrat zu kaufen ist doch Blödsinn. Wenn die Ampere Titan 1000 EUR mehr als die 3090 kostet, kannst du das mit keiner Milchmädchenrechnung schönreden. :D

BlacKi
2020-08-07, 13:37:03
Wer sagt denn, dass sich das überhaupt auf die Performance bezieht - vielleicht ist das ja auch auf den Preis bezogen - der wird sicherlich auch fürchterlich, beängstigend oder wie auch immer :biggrin:
die preise werden erst sehr spät, ca 7 tage vorher final gesetzt. deswegen glaub ich nicht daran, das er die preise kennt.

beängstigend kann, je nachdem in welchem umfeld man ist, vieles bedeuten. da gebe ich nicht viel drauf. auch das letztendliche bios mit dem powertarget kann man kurz vor und auch nach dem release nochmals abändern. d.h. die performance beeinflussen. vl plant nvidia die 3080 mit 220w kann aber wenn nötig kurz vor dem launch nochmals ein 320w bios nachschieben.

N0Thing
2020-08-07, 13:38:37
Bei mir hatte es Google Translate als "fürchterlich" übersetzt. Aber die Wortwahl Deiner Übersetzung ist besser ... weniger fürchterlich ;)

Ich würde Google (und auch andere Übersetzer wie der von Microsoft) immer nur ins Englische übersetzen lassen. Das klappt in der Regel deutlich besser als direkt ins Deutsche.
Die deutsche Übersetzung klingt eh oft danach, als ob erst nach Englisch und dann nach Deutsch übersetzt wurde. ;)V

It’s said that there is a 20g item which is scary.
In addition, 6x confirmed that it will be released and listed in September

Gast_16
2020-08-07, 13:45:28
Ich gehe mal davon aus, daß Ihr beim zweiten Eintrag im Chiphell-Forum auch die englische Übersetzung verwendet habt. Und "scary" passt doch zu einer Karte mit 20 Gig. Platt gesprochen: Wat ein Monster. Könnte besagte liebenswürdige Ehefrau hier evtl. noch mal den Ausdruck einordnen?

rentex
2020-08-07, 13:46:52
Ist kompletter Unfug.

Grandmaster?! In was den bitte?

Lese mal den Artikel, bevor du den "Grand Inquisitor" mimst.

https://www.computerbase.de/2020-02/amd-radeon-pcie-3.0-4.0-test/

N0Thing
2020-08-07, 13:57:50
Der Test zeigt nicht, dass 10/12GB für PCIe 4.0 ausreichen, sondern dass PCIe 4.0 die Auswirkungen von zu wenig VRAM abmildern kann. Das steht sogar genau so im Test selber.

Das zeigt, wie auch schon bei der Radeon RX 5500 XT, dass PCIe 4.0 bei Speichermangel zwar hilfreich ist, einen größeren Speicher aber nicht ersetzen kann

VfBFan
2020-08-07, 14:00:51
@rentex
Eine Karte mit zu wenig VRAM (Speichermangel) mit einer schnelleren PCIe-Anbindung ausgleichen zu wollen ist Quatsch, wenn es die gleiche Karte auch mit mehr Speicher gibt.

PS: Da war jemand schneller.

Sweepi
2020-08-07, 14:01:13
Deepl sagt folgendes:
This post was last edited by wjm47196 on 2020-8-6 21:03

They say there's a 20 gram piece... and it's scary as hell... because you're still saying it's yellow.
Also the 6x is confirmed for release & launch in September.

aufkrawall
2020-08-07, 14:02:22
Der Test zeigt nicht, dass 10/12GB für PCIe ausreichen, sondern dass PCIe 4.0 die Auswirkungen von zu wenig VRAM abmildern kann. Das steht sogar genau so im Test selber.
Und da sind die Frame Times nicht mal als Graph visualisiert. Natürlich wird es auch mit PCIe 4.0 bei VRAM-Pressure in Spielen Stocker geben. Wer das für zig hunderte Euro Anschaffungspreis für eine neue Grafikkarte ok findet: meinetwegen. Muss ich aber auch nicht für voll nehmen...

rentex
2020-08-07, 14:05:21
Also wirklich Leutz, meine Behauptung ist genau so gut wie dieses Gerücht...

Platos
2020-08-07, 14:12:28
Ich würde nicht davon ausgehen, dass Nvidia sich irgendwie überraschen lässt. RDNA2 ist dank Konsolen schon lange im Umlauf und Nvidia dürfte eine ziemlich genaue Vorstellung haben, was von AMD kommt.

Gab es in der Vergangenheit eigentlich schon mal den Fall, dass bei einer Wahlmöglichkeit des Speicherausbaus, die kleinere Variante gelohnt hat?

Naja, wdie GTX 960 kostete 20-30 Euro mehr. Aber bei 10 vs 20GB kann ich mir gut 150-300 Euro mehr vorstellen und dann ist man vlt. schon wieder bei der RTX 3080ti/3090. Und wenn es eine 3080 mit mehr Speicher gibt, wird das Topmodel sicherlich nicht nur mit 12GB vorhanden sein.

Also ich denke, das wird dann dieses Mal sehr, sehr viel teurer werden.

Sweepi
2020-08-07, 14:16:26
Noch bessere Variante von Deepl.com:

They say there's a 20 G piece... and it's scary as hell... and you guys are still saying that Huang is withholding it. Also the 6x is confirmed for release & launch in September.

This post was last edited by wjm47196 on 2020-8-5 12:45


1.navi21 has 2 versions, 16G/12G
2.pcb proofing completed, a small factory in the bay to get, progress barely caught up with double eleven, non-public estimated to wait until December or even to January next year to go!
3. It is rumored that zen3 will skip the 4000 and be named 5000 series.
4.4000 series apu big failure, what are all the crooked people looking for, Reviewing

Translated with www.DeepL.com/Translator (free version)

ChaosTM
2020-08-07, 14:18:38
Da steht nur wirres Zeugs drin (4.) -> kann man ignorieren

Sweepi
2020-08-07, 14:30:00
Noe, 4. is wirr, der Rest nicht.

Lehdro
2020-08-07, 14:45:15
Ich würde die Frage ja umgekehrt stellen. Eine GTX 770 mit 4GB war eigentlich Blödsinn.
Es sei denn du wolltest Watch Dogs spielen. (https://www.pcgameshardware.de/Watch-Dogs-Spiel-41939/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/) Oder dein Skyrim modden oder oder oder....
Mit diesem Next-Gen-Titel scheint aber auch die Ära der Zwei-GiByte-GPUs langsam zu Ende zu gehen, wie schon einige andere Titel wie Battlefield 4, Thief oder Titanfall vermuten ließen.

Welche Games zockt man mit einer 780 Ti denn, für die 3 GB nicht ausreichend sind? Vor allem, wie hoch war der Aufpreis für die Titan? Wenn du jetzt mit aktuellen spielen kommt, die für die Titan sprechen, ist das kein fairer Vergleich. Dann kauft man nämlich einfach Jahre später eine 1060 mit 6 GB und ersetzt die 780 Ti.
Dann nimm eine 780 6 GiB, dann "sparst" du sogar noch auf eine 780 Ti gesehen. Ausserdem netter Spin, "nicht ausreichend". Ich redete von merkbaren Vorteilen, nicht von kompletter Unspielbarkeit: Dafür gibt es immer noch die Detailregler. Aber warum auf die einzige Option verzichten die sichtbar Bildqualität bringt ohne Leistung zu kosten, sofern genug VRAM vorhanden ist? So krass war der Aufpreis bisher abseits der Titanen eigentlich nicht (meist 10%).

Aber von Anfang an VRAM auf Vorrat zu kaufen ist doch Blödsinn.
Kommt auf den Einzelfall und den Anwendungsfall an. Aber spätestens am Beispiel Fury und 1060 3 GiB sieht man dass das mit den Pauschalaussagen immer so eine Sache ist. Die beiden leiden richtig unter dem knappen VRAM, während gleichaltrige Karten mit mehr Bestückung in den Segmenten durchaus noch zu gebrauchen sind. Das wird anderen VRAM Krüppeln im Laufe der Zeit genauso gehen.

WedgeAntilles
2020-08-07, 15:03:36
die preise werden erst sehr spät, ca 7 tage vorher final gesetzt. deswegen glaub ich nicht daran, das er die preise kennt.

beängstigend kann, je nachdem in welchem umfeld man ist, vieles bedeuten. da gebe ich nicht viel drauf. auch das letztendliche bios mit dem powertarget kann man kurz vor und auch nach dem release nochmals abändern. d.h. die performance beeinflussen. vl plant nvidia die 3080 mit 220w kann aber wenn nötig kurz vor dem launch nochmals ein 320w bios nachschieben.

Ja, das mit dem Bezug auf den Preis war als Gag gedacht.
Der Text bezieht sich da sicher nicht drauf, es würde nur halt auch passen.

Palpatin
2020-08-07, 15:33:43
Welche Games zockt man mit einer 780 Ti denn, für die 3 GB nicht ausreichend sind? Vor allem, wie hoch war der Aufpreis für die Titan? Wenn du jetzt mit aktuellen spielen kommt, die für die Titan sprechen, ist das kein fairer Vergleich.
Es gab auch eine 780 mit 6gb, die war glaub ich etwas günstiger als die 780ti mit 3gb. Bei Release war die 780 6gb ca 20% langsamer als die 780ti.
Mit der Zeit schrumpfte der Vorsprung und es kamen einige Titel bei denen die 780ti Probleme hatte. Bei der 980ti war das Problem nicht so ausgeprägt.
Man kann das auch nicht immer mit den Avg FPS messen. Gibt Fälle, in denen weist die Karte mit dem geringeren VRAM höhere AVG FPS aus, hat aber fiese Lade-Ruckler so da das Spielgefühl auf der Karte ohne Ruckler mit weniger FPS besser ist.

unl34shed
2020-08-07, 15:43:10
Da steht nur wirres Zeugs drin (4.) -> kann man ignorieren

Ne auch 2. ist komisch, denn Navi 2x soll vor den Konsolen kommen und die werden bereits im November erwartet.

Lehdro
2020-08-07, 15:44:54
Ne auch 2. ist komisch, denn Navi 2x soll vor den Konsolen kommen und die werden bereits im November erwartet.
Das kam mir auch komisch vor, aber wird sich recht bald auflösen lassen. So lang ist es ja nun nicht mehr hin...

N0Thing
2020-08-07, 17:11:24
Mit dem November ist wohl das Referenzboard, bzw. das Referenzmodell der Grafikkarte gemeint, was bis Mitte November marktreif sein soll. Das würde gut zum Release der Konsolen passen.

Dezember und Januar kann man dann Eigendesigns der Hersteller erwarten, die üblichen 1-2 Monate später.

Digidi
2020-08-07, 17:15:50
Sollten die AMD Karten nicht vor den Konsolen kommen? Bei den Konsolen geht man von Thangsgiving aus, das wäre im November. Das heißt die Vorstellung sollte auch im Sepember Oktober erfolgen.

Gast Matthias
2020-08-07, 17:23:46
Bei mir hatte es Google Translate als "fürchterlich" übersetzt. Aber die Wortwahl Deiner Übersetzung ist besser ... weniger fürchterlich ;)

Ich weiß jetzt nicht wie gut deepl bei Chinesisch ist aber englisch können sie besser als google Translate.

Sie sagen, da ist ein 20-Gramm-Stück... und es ist verdammt beängstigend... weil du immer noch sagst, dass es gelb ist.
Auch die 6x ist für die Veröffentlichung und Einführung im September bestätigt.

https://www.deepl.com/translator#zh/de/%E6%8D%AE%E8%AF%B4%E6%9C%89%E4%B8%AA20g%E7%9A%84%E4%B8%9C%E8%A5%BF%20%E5%90%93%E 6%AD%BB%E4%BA%BA%E4%BA%86%20%E7%9C%8B%E4%BD%A0%E4%BB%AC%E8%BF%98%E8%AF%B4%E8%80% 81%E9%BB%84%E6%89%A3%0A%E5%8F%A6%E5%A4%966x%E7%A1%AE%E5%AE%9A%E4%BA%86%209%E6%9C %88%E4%B8%8B%E5%8F%91%E5%B8%83%26%E4%B8%8A%E5%B8%82
Interessanterweise kommt da sogar ein weitere Bestandteil den google entweder weggelassen oder den deepl hinzugefügt hat.

Gast Ritis
2020-08-07, 17:34:56
Also dass mit Navi2X erst im Dezember/Januar halte ich auch für falsche Info, ggf. ist dort ein bestimmtes Modell gemeint, vllt. das Topmodell, aber irgend etwas RDNA2 dürfen wir doch vor November erwarten. Hoffentlich kein Paperlaunch.

Bei dem 3080er 20GB Gerücht ist doch das unglaubwürdigste die schnelleren Karten kämen ohne eine entsprechend grosse/grössere VRAM Alternative. Das gab es IMO noch nie in einer Generation eines Herstellers. Das könnte Nvidia auch keinem plausibel erklären und alle Wale würden dann auf das Top-Produkt mit maximalem VRAM warten dass es (noch) nicht gibt....

Gast_16
2020-08-07, 18:28:08
Was haltet Ihr von dem Gedanken, daß das Gerücht aus dem Umkreis eines Boardpartners stammt und die ersten Karten zum Launch von AMD stammen?

Mega-Zord
2020-08-07, 18:55:24
Es sei denn du wolltest Watch Dogs spielen. (https://www.pcgameshardware.de/Watch-Dogs-Spiel-41939/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/) Oder dein Skyrim modden oder oder oder....


Dann nimm eine 780 6 GiB, dann "sparst" du sogar noch auf eine 780 Ti gesehen. Ausserdem netter Spin, "nicht ausreichend". Ich redete von merkbaren Vorteilen, nicht von kompletter Unspielbarkeit: Dafür gibt es immer noch die Detailregler. Aber warum auf die einzige Option verzichten die sichtbar Bildqualität bringt ohne Leistung zu kosten, sofern genug VRAM vorhanden ist? So krass war der Aufpreis bisher abseits der Titanen eigentlich nicht (meist 10%).

Kommt auf den Einzelfall und den Anwendungsfall an. Aber spätestens am Beispiel Fury und 1060 3 GiB sieht man dass das mit den Pauschalaussagen immer so eine Sache ist. Die beiden leiden richtig unter dem knappen VRAM, während gleichaltrige Karten mit mehr Bestückung in den Segmenten durchaus noch zu gebrauchen sind. Das wird anderen VRAM Krüppeln im Laufe der Zeit genauso gehen.

Krass, war mir gar nicht so bewusst. Habe bis 2018 viel Spaß mit meiner 780 Ti auf FHD gehabt. Aber Die auch bei deinem Beispielt ist eine Board-Partner-780 Ti mit 3 GB die schnellste Karte, schlägt die 6 GB Titan und die 8 GB 290X.

Leonidas
2020-08-07, 23:51:08
Wenn bei AMD einmal 12 GB und einmal 16GB angeboten werden, dann rechne ich eher damit, dass die 16GB-Variante eine HBM2E Variante ist, während die 12 GB-Karte eine mit 384Bit-SI und GDDR6X darstellt..


Es soll ja beiderseits der Navi 12 sein. Und der hat ganz sicher keine zwei Speicherinterfaces.




Meine chinesische Ehefrau übersetzt die ersten beiden Zeilen wie folgt:


Danke!!!





Ich würde Google (und auch andere Übersetzer wie der von Microsoft) immer nur ins Englische übersetzen lassen.


Exakt meine Vorgehensweise.

Gast
2020-08-08, 02:05:34
Und da sind die Frame Times nicht mal als Graph visualisiert. Natürlich wird es auch mit PCIe 4.0 bei VRAM-Pressure in Spielen Stocker geben. Wer das für zig hunderte Euro Anschaffungspreis für eine neue Grafikkarte ok findet: meinetwegen. Muss ich aber auch nicht für voll nehmen...


Allemal besser als total Aussetzer wie bei Navi bisher

Gast
2020-08-08, 16:46:51
Brauchen wir wirklich gleich 20 oder 24 GB Speicher?
Von 8 auf 20 und von 11 auf 24??? Da werden die Karten doch längst überholt sein, bis so viel Speicher verbraucht wird...
Ich denke dann machen schon die 12 und 16gb mehr Sinn..
Es gibt ja auch theoretisch die Möglichkeit für 1,5GB gddr6x das wäre doch sinnvoller eigentlich, aber wahrscheinlich würde ein 1.5 Baustein mehr als ein 2 Baustein kosten...
Oder wollen die nur doppelt so viele 1GB verbauen?

Leonidas
2020-08-09, 04:01:47
Brauchen wir wahrscheinlich nicht, korrekt. Leider fertigt niemand 1,5-GB-Chips von GDDR6, damit sind leider immer nur diese Verdopplungen möglich. Deswegen dürfte sich NV auch so lange dagegen gesträubt haben ...

Gast
2020-08-10, 22:50:02
Brauchen wir wahrscheinlich nicht, korrekt. Leider fertigt niemand 1,5-GB-Chips von GDDR6, damit sind leider immer nur diese Verdopplungen möglich. Deswegen dürfte sich NV auch so lange dagegen gesträubt haben ...

Ich glaube nicht, dass sich Speicherhersteller dagegen sträuben würden, wenn Nvidia (und auch AMD) entsprechende Abnahmen garantieren würden.

Gerade GDDR wird ja quasi ausschließlich von den beiden und den Konsolen (was dann auch wieder AMD wäre) verwendet, also das wäre keine "Extrawurst" für irgendeinen kleine Marktteilnehmer.

Im SoC/Mobile Bereich sind ja solche "krummen" Speichergrößen gang und gäbe, ich wüsste jetzt nichts was bei GDDR dagegen sprechen sollte.

Leonidas
2020-08-11, 03:57:32
Das spricht nochmals stark dafür, das NV die Sache mit dem doppelten Speicher erst spät beschlossen hat - zu spät, um bei den Speicherherstellern noch garantiert 1,5-GB-Chips zu bekommen. Denn gegenüber AMDs 16 GB hätte man mit 1,5-GB-Chips mit 18 GB Speicher auch gut dagestanden. Aber wenn man es zu spät plant, dann kann man halt nicht mehr eine Speicherfertigung übers Knie brechen.

Gast
2020-08-11, 14:51:20
Das spricht nochmals stark dafür, das NV die Sache mit dem doppelten Speicher erst spät beschlossen hat - zu spät, um bei den Speicherherstellern noch garantiert 1,5-GB-Chips zu bekommen. Denn gegenüber AMDs 16 GB hätte man mit 1,5-GB-Chips mit 18 GB Speicher auch gut dagestanden. Aber wenn man es zu spät plant, dann kann man halt nicht mehr eine Speicherfertigung übers Knie brechen.

Dem stelle ich gegenüber das eien Produktion von 1,5Gb Chips exclusive für einen kleinen Teil von NV`s Protfolio nicht unbedingt deutlich wirtschaftlicher sein muss als doppelte Menge mit 08/15 Chips aka Massenware.

Wie gut Vram als Zugpferdargument für Verkäufe zieht hat man auch schon bei Grenada , Polaris gesehen. Das Vramargument pro AMD war hier meist mit an erster Stelle.
Warum sollte NV das nicht auch nutzen zumal man ja 2. gleisig zu fahren scheint.

Leonidas
2020-08-11, 16:51:16
Auch dies ist möglich. Durch die automatisch kleinere Menge ist vielleicht niemals ein Preisvorteil zu erreichen.