Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Neosix
2020-10-06, 03:18:10
Ob das die Chancen für den Vollausbau Gerüchte der 3070 aka 3070TI mit 16GB steigert? Im Sinne von, wenn schon der Fetteste Chip als Vollausbau kommt, warum nicht auch kleinere.
dildo4u
2020-10-06, 03:37:34
Erstmal zero so lange ihnen die billig herzustellende 8GB Version aus den Händen gerissen wird macht es wenn Sinn mehr Bang for your Buck anzubieten.
Wie kommst du auf 10.572 Cuda cores, falsch abgeschrieben? Vollausbau sind 84*128, also 10.752
jup sorry Zahlendreher. Muss natürlich 10752 sein.
GeForce RTX 3090, 3080 & 3070: Nachfrage übersteigt Angebot noch bis 2021
Nvidia-CEO Jensen Huang macht potenziellen Interessenten einer GeForce RTX 3090, 3080 und 3070 wenig Hoffnung und geht aktuell davon aus, dass die hohe Nachfrage das Angebot noch bis ins Jahr 2021 übersteigen wird.
https://www.computerbase.de/2020-10/lieferbarkeit-geforce-rtx-3090-3080-jensen-huang-l/
super...
dargo
2020-10-06, 08:59:45
Marketing on the best. ;D
Nvidia-CEO Jensen Huang macht potenziellen Interessenten einer GeForce RTX 3090, 3080 und 3070 wenig Hoffnung und geht aktuell davon aus, dass die hohe Nachfrage das Angebot noch bis ins Jahr 2021 übersteigen wird. Zufrieden zeigte sich der Nvidia-Chef mit den Verkaufszahlen.
Dann nenne uns doch mal die Verkaufszahlen! :rolleyes:
dildo4u
2020-10-06, 09:01:14
Ohne Vergleichswerte komplett sinnfrei.
ChaosTM
2020-10-06, 09:10:04
Klassicher Jensen Bullshit. Dafür muss man ihn fast lieben :D
Dural
2020-10-06, 09:18:24
Ihr müsst echt Probleme haben :rolleyes:
Im Gegensatz zu euch habe ich mir eine 3090 bestellt, mich betrifft die Lieferbarkeit der Karten. Komischerweise ist es mir aber so ziemlich egal, und ich kann gut abwarten.
Ich freue mich schon auf den Q Abschluss bei NV, der wird richtig reinhauen.
Relic
2020-10-06, 09:23:52
Marketing on the best. ;D
Dann nenne uns doch mal die Verkaufszahlen! :rolleyes:
Naja als CEO kann er eigentlich nicht zufrieden sein, wenn einem alles aus den Händen gerissen wird, was man produzieren kann. Da verkauft man eindeutig zu günstig und lässt Marge liegen ;)
Schnitzl
2020-10-06, 09:45:04
ich denke schon dass er zufrieden ist. Alles, was produziert wird, wird verkauft und man ist früher dran als AMD. (d.h. man nimmt den einen oder anderen Kunden mit der evtl. AMD gekauft hätte aber jetzt wegen den Preisen zu nVidia greift)
wird navi2 ein flopp, hat man ein wenig marge verschenkt, das verkraftet nVidia
wird navi2 sehr gut, kommen einfach die upgrades mit mehr Speicher und die aktuellen Karten laufen aus
die upgrades sind dann natürlich wieder deutlich teurer :P
ChaosTM
2020-10-06, 09:49:11
Double dipping - das macht die Filmindustrie ähnlich. Der (einzig brauchbare) Directors Cut kommt immer erst später ;)
Korvaun
2020-10-06, 09:52:13
Zeigt eigentlich nur das der Launch zu früh war, scheint ja so das gelauncht wurde direkt nachdem die ersten Karten fertig vom Band gefallen sind ;)
Ist aber auch verständlich, nV will einfach die Zeit nutzen bis AMD BigNavi auspackt. Klar, es regen sie viele Leute auf, aber trotzdem wird alles gekauft was verfügbar ist. Die 20GB 3080 kann man wohl dieses Jahr komplett vergessen, wird höchstens ein astreiner Paperlaunch sollte AMD wirklich liefern.
dildo4u
2020-10-06, 09:55:21
AMDs Launch wird nichts ändern die Konnten schon nicht mit Partner Karten launchen als sie keine Nachfrage hatten.
=Floi=
2020-10-06, 10:26:42
Ob das die Chancen für den Vollausbau Gerüchte der 3070 aka 3070TI mit 16GB steigert? Im Sinne von, wenn schon der Fetteste Chip als Vollausbau kommt, warum nicht auch kleinere.
es gibt auch eine kleine quadro. Für so eine massenkarte wie eine normale 3070er für 500$/€ braucht man realistisch auf keinen vollausbau zu hoffen. Das ist imho unrealistisch.
basix
2020-10-06, 10:35:30
Vor allem sind 48 vs. 46 SM nicht die Welt und Taktspielraum ist vermutlich nicht viel vorhanden. Für die 3070 Ti kommt eher GA103 mit 256b G6X und 54-60 SM. Die 3080 wird vom GA103 Vollausbau beerbt und macht die Karte günstiger (deswegen ist sie momentan auch so günstig beim MSRP angesetzt, obwohl GA102 verbaut wird) und mit der 3070 Ti bekommen wir den entsprechenden GA103 Salvage. Eine 3060 Super trägt dann den GA104 Salvage (~38-40 SM) und der GA102 Salvage mit 72-75 SM rutscht zur 3080 Super hoch. Das macht mMn am meisten Sinn.
MiamiNice
2020-10-06, 10:39:08
Ich freue mich schon auf den Q Abschluss bei NV, der wird richtig reinhauen.
Bekommst als Botschafter einen dickeren Gehaltscheck bei mehr Umsatz?
fizzo
2020-10-06, 10:42:18
Für so eine massenkarte wie eine normale 3070er für 500$/€ braucht man realistisch auf keinen vollausbau zu hoffen. Das ist imho unrealistisch.
Massenkarte? Steam (https://store.steampowered.com/hwsurvey/videocard/) ...
Um 500$/€ bekommt man zeitnah eine neue Konsole mit Controller....mehr Speicher inklusive.
Neosix
2020-10-06, 11:32:01
Vor allem sind 48 vs. 46 SM nicht die Welt und Taktspielraum ist vermutlich nicht viel vorhanden. Für die 3070 Ti kommt eher GA103 mit 256b G6X und 54-60 SM. Die 3080 wird vom GA103 Vollausbau beerbt und macht die Karte günstiger (deswegen ist sie momentan auch so günstig beim MSRP angesetzt, obwohl GA102 verbaut wird) und mit der 3070 Ti bekommen wir den entsprechenden GA103 Salvage. Eine 3060 Super trägt dann den GA104 Salvage (~38-40 SM) und der GA102 Salvage mit 72-75 SM rutscht zur 3080 Super hoch. Das macht mMn am meisten Sinn.
Weiß nicht was ich von den GA103 Gerüchten halten soll, bitte korrigiert mich. Zuerst hieß es er wurde gecancelt. Bis dann erst vor kurzem neue GA103 Gerüchte auftauchten das es wieder neu aufgerollt wird, aber mit dem "alten" GA103 nichts zutun hat. Nur dauert so ein Chip mindestens 1 Jahr von der Validierung bis zur Fertigung. Also wieder Herbst 2021, und dann könnte NVIDIA doch eh die komplette Reihe womöglich als Super Refresh in 7nm TSMC neu auflegen. Also ka wie schnell kann der 103 überhaupt kommen?
Dural
2020-10-06, 11:53:10
https://twitter.com/I_Leak_VN/status/1312038087661252609/photo/1
Screemer
2020-10-06, 12:10:41
https://twitter.com/I_Leak_VN/status/1312038087661252609/photo/1
Und so lange sich das nicht ändert kann es nv und AMD völlig Wurst sein wie viele gpus Beinspielern landen.
Naja als CEO kann er eigentlich nicht zufrieden sein, wenn einem alles aus den Händen gerissen wird, was man produzieren kann. Da verkauft man eindeutig zu günstig und lässt Marge liegen ;)Der Fehler wird bei der nächsten Generation wieder behoben. :smile:
Und so lange sich das nicht ändert kann es nv und AMD völlig Wurst sein wie viele gpus Beinspielern landen.
für die 3080, macht das Sinn.
Aber die 3090 ist für diesen Zweck imho doch viel zu teuer/unnötig
WedgeAntilles
2020-10-06, 12:47:47
Marketing on the best. ;D
Davon abgesehen, dass dein Englisch furchtbar ist *g* - du lachst.
Aber ja, das ist Marketing.
Im Gegensatz zu AMD beherrscht Nvidia halt sein Fach.
Und kombiniert mit guten, teils etwas besseren Produkten, damit hast du im Laufe der Jahre halt 70-80% Marktanteil.
Vielleicht sollte AMD mal überlegen, ob es nicht sinnvoll wäre eine kompetente Person fürs Marketing ihrer GPU Sparte einzukaufen.
Verglichen mit den Forschungskosten kostet das ja quasi nix.
Und es könnte sich lohnen...
Blediator16
2020-10-06, 14:19:04
Davon abgesehen, dass dein Englisch furchtbar ist *g* - du lachst.
Aber ja, das ist Marketing.
Im Gegensatz zu AMD beherrscht Nvidia halt sein Fach.
Und kombiniert mit guten, teils etwas besseren Produkten, damit hast du im Laufe der Jahre halt 70-80% Marktanteil.
Vielleicht sollte AMD mal überlegen, ob es nicht sinnvoll wäre eine kompetente Person fürs Marketing ihrer GPU Sparte einzukaufen.
Verglichen mit den Forschungskosten kostet das ja quasi nix.
Und es könnte sich lohnen...
Was machst du hier wieder eine Geschichte aus dem PR Müll raus. Jeder CEO hätte behauptet seine 100 Karten wären so stark nachgefragt, dass sie kein Lieferproblem, sondern Nachfrageproblem haben ;D
dargo
2020-10-06, 14:20:36
ich denke schon dass er zufrieden ist. Alles, was produziert wird, wird verkauft und man ist früher dran als AMD.
Was hat er überhaupt produziert? 1.000 Karten weltweit? ;D Oder doch schon 2.000? :D Mindfactory als einer der größten deutschen Hardwarehändler hat nicht mal GA102 im Sortiment. Die Produktion muss unheimlich groß sein. :ulol: Das geilste dabei... er setzt die 3080 mit 699$ in den Markt und wundert sich dann über eine entsprechende Nachfrage? :facepalm: Bei der RTX 3070 erwarte ich gleiches bis schlimmeres. Nach grober Milchmädchenrechnung spuckt so ein Wafer anstatt 2x GA102 3x GA104 raus. Nur dürfte die Nachfrage bei einem 499$ UVP Produkt noch einiges höher werden.
dildo4u
2020-10-06, 14:22:28
Was machst du hier wieder eine Geschichte aus dem PR Müll raus. Jeder CEO hätte behauptet seine 100 Karten wären so stark nachgefragt, dass sie kein Lieferproblem, sondern Nachfrageproblem haben ;D
Das ganze sagt dir nur das es 4 Jahre nix brauchbares gab Pascal und dann nix.
In der Zeit haben manche schon von Intel Quad Core zu Zen auf Zen 2 aufgerüstet.
Zergra
2020-10-06, 14:22:30
Liegt nur daran das MF keine Lust hat, Karten zu verkaufen die sie nicht haben.
Gab ja zwischendurch ein paar 3080/3090
dargo
2020-10-06, 14:25:55
Liegt nur daran das MF keine Lust hat, Karten zu verkaufen die sie nicht haben.
Gab ja zwischendurch ein paar 3080/3090
Das sagt schon viel über die aktuelle Situation aus.
Daredevil
2020-10-06, 14:27:02
Liegt nur daran das MF keine Lust hat, Karten zu verkaufen die sie nicht haben.
Gab ja zwischendurch ein paar 3080/3090
Das sind auch die einzigen, die mich nicht zur Weißglut bringen.
Ich habe bei 5 Shops bestellt ( lieferbar ) und nichts bekommen. :D
Das regt mich mehr auf, als das halt nichts verfügbar ist. ^^
Asaraki
2020-10-06, 14:28:16
Das sind auch die einzigen, die mich nicht zur Weißglut bringen.
Ich habe bei 5 Shops bestellt ( lieferbar ) und nichts bekommen. :D
Das regt mich mehr auf, als das halt nichts verfügbar ist. ^^
Ungewissheit ist immer das dümmste an der ganzen Sache. Wenn man weiss, man kann eh keine haben, dann ist es ja auch nicht schlimm ^^
Hakim
2020-10-06, 14:48:59
Ich weiß noch damals beim 8700k launch wie genervt die MF Leute bezüglich Verfügbarkeitsanfragen waren. Daher verstehe ich es sogar wenn die nur Listen wenns verfügbar ist. Ich hatte damals 1x 8700 und 1x 8700k bestellt und soviel Terror gemacht das die am Ende 2x 8700k ohne Aufpreis versendet hatten :)
Dural
2020-10-06, 14:51:06
Tja und ich habe meinen neuen PC schon vor drei Wochen für Dezember geplant, einiges ist schon da, einiges wird noch eintreffen, zb. ist die 980 Pro 1TB ja auch erst später Lieferbar und die neuen AMD CPUs kommen auch noch.
Bis dann wird die bestellte 3090 auch da sein, Wakü Block dafür gibt es ja auch noch nicht, jedenfalls einen vernünftigen und nicht irgend welchen alpha schrott.
Also ich habe gar kein Stress.
Lawmachine79
2020-10-06, 16:26:31
Ich weiß noch damals beim 8700k launch wie genervt die MF Leute bezüglich Verfügbarkeitsanfragen waren. Daher verstehe ich es sogar wenn die nur Listen wenns verfügbar ist. Ich hatte damals 1x 8700 und 1x 8700k bestellt und soviel Terror gemacht das die am Ende 2x 8700k ohne Aufpreis versendet hatten :)
Man hat erst dann alles versucht, wenn Sie die Nummer unter vielen Nummern erkennen und Dich wegdrücken.
Asaraki
2020-10-06, 16:37:56
Man hat erst dann alles versucht, wenn du eine Unterlassungsklage hast und das Firmengelände nicht mehr betreten darfst
FTFY :D
Rampage 2
2020-10-06, 17:58:56
es gibt auch eine kleine quadro. Für so eine massenkarte wie eine normale 3070er für 500$/€ braucht man realistisch auf keinen vollausbau zu hoffen. Das ist imho unrealistisch.
Im Gegenteil: Erstens müsste der Chip spottbillig herzustellen sein (da 400> mm2 Chip und dann auch noch der billige, weil schlechte, 8nm-Prozess von Samsung, für die Nvidia vermutlich auch noch Ermäßigungen bekommen hat) und der Yield müsste aufgrund der Chipgröße locker für ausreichend Vollausbauten gut genug sein.
Zweitens ist der Abstand zur 3080 mit nur 46 SMs und 448 GB/sek. noch größer als beim Vollausbau, welcher wohl auch schnelleren Speicher spendiert bekommen wird... (s.w.u.)
Vor allem sind 48 vs. 46 SM nicht die Welt und Taktspielraum ist vermutlich nicht viel vorhanden.
Performance-mäßig natürlich nicht/kaum, aber ästhetisch bzw. psychologisch kann es einen großen Unterschied machen - für Leute wie mich, die es darauf ankommen lassen. Und mit Sicherheit bin ich da nicht der Einzige; vermutlich sogar in diesem Forum nicht;)
Außerdem hat das Ding nur 448GB/sek. Bandbreite und hat jetzt schon hier und da seine liebe Mühe, sich ggü. einer 2080 Ti zu behaupten. (die von Nvidia gezeigten Screenshots dürften allenfalls der Bestcase sein - und sogar da ist diese Limitierung teilweise zu sehen!)
Andererseits ist es für mich offensichtlich, warum die normale 3070 nur 448GB/sek. hat... (s.w.u.)
Für die 3070 Ti kommt eher GA103 mit 256b G6X und 54-60 SM. Die 3080 wird vom GA103 Vollausbau beerbt und macht die Karte günstiger (deswegen ist sie momentan auch so günstig beim MSRP angesetzt, obwohl GA102 verbaut wird) und mit der 3070 Ti bekommen wir den entsprechenden GA103 Salvage.
Die 3070 Ti würde den vollen GA104-Chip und schnelleren GDDR6-Speicher (16Gbps oder sogar die mysteriösen 18Gbps von Samsung) verwenden - mit 512-576 GB/sek. Bandbreite könnte das Ding eine 2080Ti endgültig überholen und sogar eine Titan RTX einholen oder überholen.
Für mich sind die nur 448GB/sek. der 3070 der beste Beweis für die Existenz einer 3070 Ti - wenn es diese nämlich nicht gäbe, hätte Nvidia für die 3070 garantiert den schnelleren GDDR6-Speicher von Samsung (16Gbps) verwendet, welcher bereits auf der 2080 Super zur Verwendung kommt!
Ich habe nämlich, ehrlich gesagt, keine andere Erklärung dafür, warum Nvidia ebendiesen Speicher nicht schon bei der normalen 3070 eingesetzt hat... (das Ding wird zwangsläufig in manchen Spielen an ihren 448GB/sek. zugrundegehen ggü. 2080 Ti)
Und der GA103-Salvage wäre wohl eher für eine 3070 Super (5 GPCs, 60 SMs, 3840 SPs, 256-320Bit GDDR6X) reserviert, die jetzige 3080 ist dann als Neuauflage auch eine GA103-Salvage mit ihrer ursprünglichen Konfiguration (6 GPCs, 68 SMs, 320Bit GDDR6X) und den GA103-Vollausbau (6 GPCs, 72 SMs, 320Bit GDDR6X) bekommt dann eine hypothetische, zukünftige 3080 Super, falls Nvidia sich zu solch einem Schritt entscheidet...
R2
Zergra
2020-10-06, 18:02:41
Für mich sind die nur 448GB/sek. der 3070 der beste Beweis für die Existenz einer 3070 Ti - wenn es diese nämlich nicht gäbe, hätte Nvidia für die 3070 garantiert den schnelleren GDDR6-Speicher von Samsung (16Gbps) verwendet, welcher bereits auf der 2080 Super zur Verwendung kommt!
Ich habe nämlich, ehrlich gesagt, keine andere Erklärung dafür, warum Nvidia ebendiesen Speicher nicht schon bei der normalen 3070 eingesetzt hat... (das Ding wird zwangsläufig in manchen Spielen an ihren 448GB/sek. zugrundegehen ggü. 2080 Ti)
Kosten kann man mit dem 14Gbps bestimmt einsparen, und wenn man die Bandbreite nicht wirklich braucht, kann man da Geld sparen.
Dural
2020-10-06, 18:09:03
Ihr vergisst nach wie vor das GA104 der Nachfolger von TU106 ist.
Einen TU104 Ersatz haben wir bis heute nicht, deswegen nimmt NV auch den GA102 und beschneidet ihn relativ gross.
Kommt wohl dank Samsung mit ihrer Fertigung (Billig) günstiger als extra einen neun Chip aufzulegen. Wenn der Prozess mit den Ampere GPUs eingefahren ist könnte schon einen GA103 kommen, das würde die Marge von NV nochmal erhöhen, die schon jetzt wohl richtig gut ist.
dargo
2020-10-06, 18:09:33
Im Gegenteil: Erstens müsste der Chip spottbillig herzustellen sein (da 400> mm2 Chip und dann auch noch der billige, weil schlechte, 8nm-Prozess von Samsung, für die Nvidia vermutlich auch noch Ermäßigungen bekommen hat) und der Yield müsste aufgrund der Chipgröße locker für ausreichend Vollausbauten gut genug sein.
Woher kommt eigentlich das Gerücht der 8nm Fertigungsprozess von Samsung wäre spottbillig? Quelle bitte zu welchen Konditionen Nvidia die 8nm Wafer bekommt.
Spar dir die Suche. Das sind geheime Internas die eh nie an die Öffentlichkeit kommen werden. Genauso wie zu welchen Konditionen AMD die 7nm Wafer von TSMC bekommt.
Ich sage dir wie ich die Lage sehe, natürlich spekuliere ich auch. Nvidia musste sich einen anderen Fertiger für Gaming-Ampere suchen da TSMC nicht genug Kapazitäten in 7nm inkl. Nvidia liefern kann. Und da AMD aktuell der größte Abnehmer bei TSMCs 7nm Fertigung ist musste jemand anders gehen.
Dural
2020-10-06, 18:15:11
Weil es einfach nur ziemlich logisch ist :rolleyes:
Wie so hätte NV sonst überhaupt wechseln wollen, man nimmt nur wegen einem Grund die schlechtere Fertigung, weil sie günstiger ist.
Übrigens sprich NV seit ca. einem halben Jahr von grossartigen Margen ende Jahr... :rolleyes:
Ihr würdet mal lieber die Bilanzen und die Aktionärs Versammlung der Hersteller anschauen, da gibt es echte Infos ohne viel blabla.
dargo
2020-10-06, 18:18:05
Weil Nvidia zu kleiner Fisch für TSMC in 2020+ ist. Womöglich auch ein unbequemer Verhandlungspartner. TSMC ist mittlerweile in einer verdammt guten Ausgangslage sich den/die Einkäufer Auftraggeber auszusuchen.
Dural
2020-10-06, 18:20:27
Du weisst schon das NV 9x mehr GPUs als AMD Herstellt? Und die Die bei NV in der Regel deutlich grösser sind?
Und die aktuellen GPUs von AMD in 7nm sind was Stückzahlen anbelangt ein Witz, da haben wir Faktor 30 oder so.
Und was ist mit GA100 in 7nm? Für den hat es noch gereicht nicht war?
dargo
2020-10-06, 18:22:35
Du weisst schon das NV 9x mehr GPUs als AMD Herstellt? Und die Die bei NV in der Regel deutlich grösser sind?
Und die aktuellen GPUs von AMD in 7nm sind was Stückzahlen anbelangt ein Witz, da haben wir Faktor 30 oder so.
Junge... soll ich dir alles wieder aufzählen was AMD in 7nm bei TSMC fertigen lässt? Dein Realitätsverlust ist mal wieder bezeichnend. Frag dich doch einfach warum die durch Apple freigewordenen Kapazitäten bei TSMC nicht durch Nvidia belegt wurden sondern weiterhin durch AMD und nicht die anderen Mitbewerber.
PS: dein 9x existiert wohl auch nur in deiner Scheinwelt. Bei einem 80%/20% Marktanteil bei dGPUs musst du uns das nochmal vorrechnen. Ist im Kontext aber eh völlig uninteressant. Als ob TSMC nur 7nm dGPUs fertigen würde. :freak:
Und was ist mit GA100 in 7nm? Für den hat es noch gereicht nicht war?
Ist dir bewusst welche Preise NV bei GA100 abruft? :rolleyes: Da wären wir wieder beim Thema Verhandlungspartner. Oder GA100 ist einfach von den Waferstückzahlen wesentlich einfacher zu sichern als das gesamte Portfolio Gaming-Ampere. Letzteres kann ich nicht objektiv einordnen.
GA100 ist schlicht kein Massenprodukt, aber eines mit Traummargen und dafür verkauft sich das dann echt viel im Verhältnis. Das ist aber kein Vergleich mit Matisse oder Vermeer, zumal man ja auch mehrere Chiplets für eine CPU braucht u.U. Selbst die Consumer-GPUs werden GA100 überholen von der Masse her, von den Mobilprozessoren gar nicht angefangen, wo AMD das größte Massenwachstum hatte. Nur sind die Dies eben teuer und AMD hat keine riesigen Margen daren. Edit: Ach ja die Konsolen hab ich obendrein noch vergessen :freak:. Allein die Series X wird mehr Wafer-Fläche erfordern als GA100.
NV wird 8 LPP ziemlich in Beschlag nehmen bei Samsung, aber GA100 ist wirklich von der Menge her nicht viel im Vergleich.
dargo
2020-10-06, 18:54:00
Die Konsolen dabei nicht vergessen. Das ist ein unheimlich großes Volumen welches AMD da für 2020+ bei TSMC bucht. Wir reden hier von Millionen Stückzahlen bis zum nächsten Shrink. Und ein XBSX SoC ist mit 360mm² auch nicht gerade super klein, das ist fast GA104.
Edit:
Lol... hast ergänzt. ;)
PS: auch haben wir in 2020 eine noch etwas andere Situation. Früher gab es nur eine Konsole von Sony und MS zum selben Releasezeitpunkt. Jetzt kommen von MS sogar zwei Konsolen gleichzeitig. Auch wenn der SoC der XBSS nicht so groß wird verschlingt der trotzdem genug Wafer.
basix
2020-10-06, 18:55:45
Allein die Series X wird mehr Wafer-Fläche erfordern als GA100.
Das ist noch eine deutliche Untertreibung bei ~7-10 Millionen SoCs pro Jahr
mczak
2020-10-06, 19:32:48
Jetzt kommen von MS sogar zwei Konsolen gleichzeitig. Auch wenn der SoC der XBSS nicht so groß wird verschlingt der trotzdem genug Wafer.
Fragt sich ob mit den 2 Konsolen von MS am Ende tatsächlich mehr Wafer benötigt werden? Klar die Idee ist sicher dass da einige Leute die billigere Konsole kaufen denen die High-End Modelle zu teuer sind. Aber anders herum kaufen dann wohl einige das billige Modell statt das teurere (beide kauft ja wohl keiner...).
Die billige kaufen diejenigen, die sich sonst die letzte Konsolengeneration gekauft hätte, eben wegen des Preises. Aber wir kommen doch arg OT.
SKYNET
2020-10-06, 20:41:40
Fragt sich ob mit den 2 Konsolen von MS am Ende tatsächlich mehr Wafer benötigt werden? Klar die Idee ist sicher dass da einige Leute die billigere Konsole kaufen denen die High-End Modelle zu teuer sind. Aber anders herum kaufen dann wohl einige das billige Modell statt das teurere (beide kauft ja wohl keiner...).
mich würd nicht wundern wenn die kleine konsole der "abfall" ist, wo nicht genug CUs / kerne funktionabel sind...
dargo
2020-10-06, 20:47:09
Ähm... what? Du meinst AMD/Microsoft verwurschtelt für die XBSS die kompletten 360mm²? :facepalm:
https://www.4players.de/4players.php/spielinfonews/XboxSeriesX/42086/2192687/Xbox_Series_S-Die_technischen_Daten_der_kleinen_Xbox_im_Vergleich_zur_Xbox_Series_X.html
Das Ding hat 20 aktive CUs mit 128Bit SI bei der schnellsten GDDR6 Anbindung (XBSX 320Bit SI). Bei einer Konsole plant man immer mit Redundanz. Schon die XBSX ist im Prinzip "Abfall" da 4 CUs deaktiviert sind.
Die billige kaufen diejenigen, die sich sonst die letzte Konsolengeneration gekauft hätte, eben wegen des Preises. Aber wir kommen doch arg OT.
Sehe ich genauso. Die XBSS wird mit ihren 4 TFLOPs irgendwo bei einer XB1X landen, dafür massive Vorteile bei der CPU haben im Hinblick auf 60fps Games.
SKYNET
2020-10-07, 00:06:19
Ähm... what? Du meinst AMD/Microsoft verwurschtelt für die XBSS die kompletten 360mm²? :facepalm:
https://www.4players.de/4players.php/spielinfonews/XboxSeriesX/42086/2192687/Xbox_Series_S-Die_technischen_Daten_der_kleinen_Xbox_im_Vergleich_zur_Xbox_Series_X.html
Das Ding hat 20 aktive CUs mit 128Bit SI bei der schnellsten GDDR6 Anbindung (XBSX 320Bit SI). Bei einer Konsole plant man immer mit Redundanz. Schon die XBSX ist im Prinzip "Abfall" da 4 CUs deaktiviert sind.
Sehe ich genauso. Die XBSS wird mit ihren 4 TFLOPs irgendwo bei einer XB1X landen, dafür massive Vorteile bei der CPU haben im Hinblick auf 60fps Games.
was sollen sie sonst mit den teildefekten chips machen? schreddern? glaubst wohl selbst nicht :freak:
Daredevil
2020-10-07, 00:18:56
Dein Realitätsverlust ist mal wieder bezeichnend. Frag dich doch einfach warum die durch Apple freigewordenen Kapazitäten
Welche Kapazitäten sind frei geworden?
Weil eigentlich produziert Apple zwar neu im 5nm, das bedeutet aber nicht, das alte Kapazitäten frei werden. ( iPhone SE, watch, iPhone XR/11 iPad/pro ect. )
=Floi=
2020-10-07, 00:24:57
was sollen sie sonst mit den teildefekten chips machen? schreddern? glaubst wohl selbst nicht :freak:
es wurde aber zu viel beschnitten und es wurde für die kleinere imho auch ein anderes board gebaut. Anfangs höätte ich noch gesagt, das ist der große chip, aber jetzt denke ich, die machen für die kleine nen eigenen. Auch wegen der stückzahlen zu den preisen. Denke die kleinere wird 10X so oft verkauft werden und da lohnt es ich einfach den halten chip wegzulassen.
Gipsel
2020-10-07, 00:27:43
was sollen sie sonst mit den teildefekten chips machen? schreddern? glaubst wohl selbst nicht :freak:Teildefekte Chips landen in der XBSX, die verbauen da nämlich Salvage. Volle Chips gibt es maximal im Dev-Kit.
Digidi
2020-10-07, 01:00:07
Volle Chips gibt es maximal im Dev-Kit.
Macht das Sinn? Der Dev sollte doch mit dem Worst Case arbeiten?
Neosix
2020-10-07, 01:04:34
Macht das Sinn? Der Dev sollte doch mit dem Worst Case arbeiten?
Oder auch anders rum brauchen mehr power als die endgültigen Konsolen, weil bei devkits meist neben dem Spiel, noch die devtools/debugtools parallel laufen und ebenfalls Leistung abzwacken.
N0Thing
2020-10-07, 01:12:19
Ihr vergisst nach wie vor das GA104 der Nachfolger von TU106 ist.
Einen TU104 Ersatz haben wir bis heute nicht, deswegen nimmt NV auch den GA102 und beschneidet ihn relativ gross.
Natürlich ist der GA104 der Nachfolger des TU104, sonst hätte Nvidia den Chip wohl sicherlich anders benannt. Nur weil dir die Performance nicht passt, kannst du doch nicht die Nomenklatur von Nvidia umdeuten.
w0mbat
2020-10-07, 01:59:34
Dural baut sich mal wieder seine Parallelwelt auf :ugly:
Blediator16
2020-10-07, 03:23:32
Natürlich ist der GA104 der Nachfolger des TU104, sonst hätte Nvidia den Chip wohl sicherlich anders benannt. Nur weil dir die Performance nicht passt, kannst du doch nicht die Nomenklatur von Nvidia umdeuten.
Er weiß ganz genau, dass das was er sagt, nicht stimmt. Er dreht sich das bloß zurecht.
TheAntitheist
2020-10-07, 04:12:22
Das sind auch die einzigen, die mich nicht zur Weißglut bringen.
Ich habe bei 5 Shops bestellt ( lieferbar ) und nichts bekommen. :D
Das regt mich mehr auf, als das halt nichts verfügbar ist. ^^
das passiert bei MF auch, hab meinen 3900x dort bestellt und 3 monate lang kam nicht einmal eine Email warum ich meine Vorbestellung nicht bekommen geschweige das sie sich verzögert, scheiss laden
dargo
2020-10-07, 06:40:58
was sollen sie sonst mit den teildefekten chips machen? schreddern? glaubst wohl selbst nicht :freak:
Was macht Sony mit den teildefekten SoCs für die PS5? Oh wait...
Auch dort wird es sicherlich Redundanz geben, höchstwahrscheinlich hat der SoC für Sony 40 CUs wovon 4 CUs deaktiviert sind. Wie stellst du dir so einen Auftrag über zig Millionen Stückzahlen im Zeitraum X vor ohne die Möglichkeit zu haben wie beim Desktop einen teildeaktivierten Chip als Salvage verkaufen zu können wenn ein Konsolen-SoC nur voll funktionsfähige Chips hätte? Das was aktuell als teildeaktiviert bei XBSX/XBSS sowie PS5 den Test nicht besteht landet natürlich im Müll. Sowas muss du halt bei deinem Auftrag im Preis berücksichtigen (Yieldrate). Ist wie in deinem Supermarkt in der frischen Obst/Gemüseabteilung bzw. allgemein Lebensmitteln. Auch dort musst du den Abfall im Preis mit kalkulieren. Denn alles wird garantiert nicht immer an Kunden verkauft.
prinz_valium_2
2020-10-07, 08:18:51
mich würd nicht wundern wenn die kleine konsole der "abfall" ist, wo nicht genug CUs / kerne funktionabel sind...
Ähm... what? Du meinst AMD/Microsoft verwurschtelt für die XBSS die kompletten 360mm²? :facepalm:
https://www.4players.de/4players.php/spielinfonews/XboxSeriesX/42086/2192687/Xbox_Series_S-Die_technischen_Daten_der_kleinen_Xbox_im_Vergleich_zur_Xbox_Series_X.html
Das Ding hat 20 aktive CUs mit 128Bit SI bei der schnellsten GDDR6 Anbindung (XBSX 320Bit SI). Bei einer Konsole plant man immer mit Redundanz. Schon die XBSX ist im Prinzip "Abfall" da 4 CUs deaktiviert sind.
was sollen sie sonst mit den teildefekten chips machen? schreddern? glaubst wohl selbst nicht :freak:
Wie oft denn noch?
Der Series S SOC hat 197,05mm²
https://www.xbox.com/de-DE/consoles/xbox-series-s#target-specs
dargo
2020-10-07, 08:21:18
Wieso zitierst du mich dabei jetzt? :tongue: Für mich ist es doch klar, dass es ein eigener SoC ist. Den großen dafür zu "verwurschteln" wäre auch komplett hirnverbrannt.
prinz_valium_2
2020-10-07, 08:27:49
Weil es aus deinem Kommentar nicht ersichtlich war, dass du weißt es gibt die Bestätigung über die tatsächliche Größe des SOC.
TheAntitheist
2020-10-07, 08:37:30
Was macht Sony mit den teildefekten SoCs für die PS5? Oh wait...
Auch dort wird es sicherlich Redundanz geben, höchstwahrscheinlich hat der SoC für Sony 40 CUs wovon 4 CUs deaktiviert sind. Wie stellst du dir so einen Auftrag über zig Millionen Stückzahlen im Zeitraum X vor ohne die Möglichkeit zu haben wie beim Desktop einen teildeaktivierten Chip als Salvage verkaufen zu können wenn ein Konsolen-SoC nur voll funktionsfähige Chips hätte? Das was aktuell als teildeaktiviert bei XBSX/XBSS sowie PS5 den Test nicht besteht landet natürlich im Müll. Sowas muss du halt bei deinem Auftrag im Preis berücksichtigen (Yieldrate). Ist wie in deinem Supermarkt in der frischen Obst/Gemüseabteilung bzw. allgemein Lebensmitteln. Auch dort musst du den Abfall im Preis mit kalkulieren. Denn alles wird garantiert nicht immer an Kunden verkauft.
die PS5 hat 40 CUs, 36 für die GPU und die 4 übrigen waren für was anderes, kann mich aber nicht erinnern.
rentex
2020-10-07, 11:16:46
Komplett OT!
Rampage 2
2020-10-07, 14:08:50
die PS5 hat 40 CUs, 36 für die GPU und die 4 übrigen waren für was anderes, kann mich aber nicht erinnern.
Bei der PS3 war auch eines der insgesamt 8 SPEs deaktiviert, um den Yield zu erhöhen. Von den verbliebenen 7 SPEs war eines für das Betriebssystem reserviert. Insgesamt konnten Spiele also nur maximal 6 SPEs nutzen:redface:
Und beim RSX war gleich die Hälfte des Speicherinterfaces und zugehörigen Backends kastriert:frown: (128 statt 256 Bit, 8 statt 16 ROPs)
R2
genervt
2020-10-07, 15:49:53
die PS5 hat 40 CUs, 36 für die GPU und die 4 übrigen waren für was anderes, kann mich aber nicht erinnern.
Das ist Mal weder ganz richtig noch ganz falsch. Die PS5 hat 36 CU für die GPU. Und 4 dedicated Audio-Processing Einheiten, die CUs im Aufbau nicht unähnlich sind.
Es sind aber nicht 40 CU
Daredevil
2020-10-07, 15:54:14
Jo, wir sind im Ampere Thread.
MiamiNice
2020-10-07, 22:27:24
Wir sollten den Thread umbenennen. Navi und Konsolen Thread :freak:
Und es sind immer die selben fünf AMD Nerds. Sind wahrscheinlich erst zufrieden wenn es im jeden Thread um AMD geht :rolleyes:
Troyan
2020-10-07, 22:48:44
Laut Videocardz könnte nVidia im Dezember noch die 3080 20GB und 3070 16GB vorstellen: https://videocardz.com/newz/nvidia-geforce-rtx-3080-20gb-to-launch-in-december
Könnte aber auch Dezember 2021 sein. ;D
Dural
2020-10-08, 01:05:17
Wird ja immer besser, keine 3070ti 16gb nur noch eine 3070 16gb. Mit anderen worten nv optimiert ihre gewinn marge mittlerweilen nach belieben.
Neosix
2020-10-08, 01:11:12
Oh das schmerzt jetzt :( Aber ich halte die pläne für Verfrührt, sollte AMD besseres Angebot als die 3070 anbieten, wird Nvidia reagieren und nicht erst 12 Monate abwarten.
r3ptil3
2020-10-08, 01:13:02
Oh das schmerzt jetzt :( Aber ich halte die pläne für Verfrührt, sollte AMD besseres Angebot als die 3070 anbieten, wird Nvidia reagieren und nicht erst 12 Monate abwarten.
Du weisst schon, dass das ein Scherz von ihm war?
Neosix
2020-10-08, 01:14:57
Ich habe mich auf den videocardz Artikel bezogen...
r3ptil3
2020-10-08, 01:21:04
Ich habe mich auf den videocardz Artikel bezogen...
Eben, nix mit 12 Monaten... 2 Monate.
Neosix
2020-10-08, 01:24:33
Nicht wenn mein Plan war sich ne 3070TI 16GB zu holen. Aber ja, werd ich wohl auf den Vollausbau verzichten müssen :/ Ich weiß der Unterschied ist vernachlässigbar, es ist eher ne Psychologische Sache.
r3ptil3
2020-10-08, 01:26:34
Nicht wenn mein Plan war sich ne 3070TI 16GB zu holen. Aber ja, werd ich wohl auf den Vollausbau verzichten müssen :/ Ich weiß der Unterschied ist vernachlässigbar, es ist eher ne Psychologische Sache.
In der Klasse würde ich eher Richtung AMD schauen, denn da werden die wohl ziemlich hart reinhauen.
Alles oberhalb ist/bleibt Nvidia-Gebiet.
Neosix
2020-10-08, 01:52:47
Nicht wenn man von der DLSS 2,x Geschichte was mitnehmen möchte. Ich glaube wirklich das in der Technologie die Zukunft liegt. Einfach weil irgend wann keine Shrinks mehr kommen. Von AMD kam bisher da kein Wort. Aber ja ich werde selbstverständlich die AMD Produkte abwarte und mich dann von Tests beraten.
reaperrr
2020-10-08, 02:23:58
was sollen sie sonst mit den teildefekten chips machen? schreddern? glaubst wohl selbst nicht :freak:
Äh... ja? So wie bei allen anderen vorherigen Konsolen auch?
Ich meine, selbst AMD, die grundsätzlich jeden $/€ gebrauchen können, schmeißen offenbar jeden N10 mit mehr als 2 defekten WGPs weg, weil deren Anzahl (abzüglich der Chips, die gänzlich unbrauchbar sind wegen Defekten in ROPs, Frontend o.ä.) offensichtlich zu gering ist, dass sich noch eine SKU unter der 5600 XT lohnen würde (und wenn irgendwelche 5500 XT massiv beschnittene N10 beherbergen würden, wäre das denk ich schon durchgesickert).
Die XSS würde gar nicht zu dem Preis existieren, wenn sie nicht einen viel kleineren und billigeren Chip verwenden würde.
Das Teure an der Konsolenentwicklung sind das Design im Vorfeld inkl. Debugging, Masken usw.
Die reinen Produktionskosten je Chip sind trotz 7nm so gering, dass sich der Extra-Aufwand, der nötig wäre um XSX-Chips mit mehr als 4 defekten CUs in der XSS zu verwursten, nicht lohnt.
Nightspider
2020-10-08, 04:01:13
Meint ihr Nvidia versucht mit Ampere 2 bis 2,5 Jahre zu überstehen?
Theoretisch halte ich 2021 auch einen Shrink für möglich auf 7nm (EUV?)
oder das Nvidia versuchen wird die nächste Generation schneller herauszubringen, Anfang 2022.
Spätestens wenn AMD Ende 2021/Anfang 2022 eine 5nm GPU herausbringt dürfte es dann eng für NV werden.
dildo4u
2020-10-08, 06:43:52
Meint ihr Nvidia versucht mit Ampere 2 bis 2,5 Jahre zu überstehen?
Theoretisch halte ich 2021 auch einen Shrink für möglich auf 7nm (EUV?)
oder das Nvidia versuchen wird die nächste Generation schneller herauszubringen, Anfang 2022.
Spätestens wenn AMD Ende 2021/Anfang 2022 eine 5nm GPU herausbringt dürfte es dann eng für NV werden.
RDNA3 ist vermutlich die Umstellung auf GPU Module das wird Dauern selbst laut Roadmap ist es 2022.Ich Tippe drauf das Beide Mitte 2022 was komplett Neues haben, dazwischen gibt es Refreches.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/52490-amd-spricht-ueber-zen-3-zen-4-sowie-rdna-2-und-rdna-3.html
Dural
2020-10-08, 09:11:41
Wir werden die nächsten 2 Jahre wohl keine neuen GPUs mehr sehen.
Eventuell neue Varianten wie Ti oder Super, aber was anderes als Ampere @ 8nm ziemlich sicher nicht.
Mich nervt das die 3070Ti storniert wurde, wäre eine ziemlich coole Desktop Karte gewesen :(
Armaq
2020-10-08, 10:13:05
Also wenn im Dezember die Varianten mit mehr RAM kommen sollten, wäre das für die Käufer der 10 GB 3080 ein echter Gesichtsfick.
Rampage 2
2020-10-08, 10:20:42
Laut Videocardz könnte nVidia im Dezember noch die 3080 20GB und 3070 16GB vorstellen: https://videocardz.com/newz/nvidia-geforce-rtx-3080-20gb-to-launch-in-december
Ich kanns mir einfach nicht vorstellen, dass die Ausbeute bei einem 400> mm2-Chip so schlecht sein soll, dass kein Vollausbau angeboten wird - die GTX 980 hatte einen 6 mm2 größeren Die (398 mm2) und kam trotzdem gleich als Full-Chip...
Ich bin immer noch überzeugt, dass Nvidia die 3070 Ti/Super aus rein produktpolitischen oder strategischen Gründen zurückhält - Letzteres, um eine Reserve zu haben, mit der man AMD kontern kann...
@ Neosix: an deiner Stelle würde ich trotzdem noch ein bisschen warten, bis sich diese Info bestätigt;)
Du weisst schon, dass das ein Scherz von ihm war?
Wirklich? (also auf Videocardz.com bezogen?)
R2
basix
2020-10-08, 10:24:52
Also wenn im Dezember die Varianten mit mehr RAM kommen sollten, wäre das für die Käufer der 10 GB 3080 ein echter Gesichtsfick.
Immerhin gibt es von diesen Käufern ja nicht allzu viele :ulol:
Aber ja, nicht so geil. Andereseits werden die 16/20 GByte Modelle deutlich teurer sein. Bis und mit 1440p sind 10GB auch noch nicht so tragisch, wenn auch nicht optimal für so eine teure Karte. Ich persönlich würde mich definitiv ärgern, die 10GB Karte wieder verkaufen (Peise sind ja gestiegen und Nachfrage ist da ;D) und eine mit mehr Speicher kaufen.
ShinyMcShine
2020-10-08, 10:37:18
Full GA104 mit 16GB vorerst gecancelt?
Sieht immer mehr so aus, als ob ich nach vielen Jahren mal wieder eine AMD Grafikkarte kaufe...
Sardaukar.nsn
2020-10-08, 11:09:51
Ich kann mit den 10gb gut leben. 20gb hat neben dem Aufpreis auch wieder andere Nachteile. Erhöhter Strombedarf zu Lasten des meist eh schon knappen Powerlimit, erhöhte Temperatur Dank der Chips auf der Rückseite. Zusammen wird das wohl zu weniger Boost bzw Performance als bei der 10gb Karte führen.
Fragman
2020-10-08, 11:11:41
Also wenn im Dezember die Varianten mit mehr RAM kommen sollten, wäre das für die Käufer der 10 GB 3080 ein echter Gesichtsfick.
Selbst wenn nv die vorstellt, was ändert das genau?
Die können aktuell nichts liefern und diese Situation ist schon bis 2021 angekündigt, für die bereits releaseden Karten.
Ich bin mal gespannt ob AMD das besser hinbekommt mit Zen3 und Navi2.
Intel hat Probleme, nv hat Probleme, mal sehen wies weiter geht.
WedgeAntilles
2020-10-08, 11:20:40
Also wenn im Dezember die Varianten mit mehr RAM kommen sollten, wäre das für die Käufer der 10 GB 3080 ein echter Gesichtsfick.
Wieso?
Wenn ich eine 3080 mit 10GB für 700 Euro oder eine 3080 mit 20GB für 900 Euro zur Wahl habe, wähle ich für mein persönlcihes Anforderungsprofil die 3080 mit 10GB.
Klar, kommt die 3080 mit 20GB zum quasi gleichen Preis und ersetzt die 3080 mit 10GB käme man sich als Käufer verarscht vor.
Das wird aber nicht passieren, es wird einen merklichen Aufpreis geben.
Und es kann jetzt auch keiner behaupten, dass mit einer 3080 20GB keiner rechnen konnte.
Es war doch klar, dass die kommt. Ob jetzt im Dezember oder evt. auch erst im Februar ist natürlich unklar. Aber als Überraschung kann man sie echt nicht bezeichnen.
Von daher wusste doch jeder Käufer was er kauf und was die Alternativen auf Sicht von ein paar Monaten sein werden?
dargo
2020-10-08, 11:24:43
Wir werden die nächsten 2 Jahre wohl keine neuen GPUs mehr sehen.
Eventuell neue Varianten wie Ti oder Super, aber was anderes als Ampere @ 8nm ziemlich sicher nicht.
Och... vielleicht doch. :uponder:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-7-oktober-2020
Könnte für einen Ampere-Refresh reichen. Wird wahrscheinlich davon abhängen ob TSMC genug Kapazitäten in 7nm frei hat. Bis mitte 2021 ist TSMC angeblich komplett ausgebucht.
Also wenn im Dezember die Varianten mit mehr RAM kommen sollten, wäre das für die Käufer der 10 GB 3080 ein echter Gesichtsfick.
Warum? Ich sage nur selbst schuld wer nicht warten kann/will. Ist auch noch fraglich ob die Stückzahlen im Dezember passen. Wenns genauso blöd wie jetzt läuft kann das schnell Januar/Februar 2021 werden.
Ich kann mit den 10gb gut leben. 20gb hat neben dem Aufpreis auch wieder andere Nachteile. Erhöhter Strombedarf zu Lasten des meist eh schon knappen Powerlimit, erhöhte Temperatur Dank der Chips auf der Rückseite. Zusammen wird das wohl zu weniger Boost bzw Performance als bei der 10gb Karte führen.
Dagegen steht aber höherer Verkaufswert/Interesse wenn die 20GB Karte wieder in 2-3 Jahren abgeschoben wird. ;)
Dural
2020-10-08, 11:30:02
10GB reichen locker aus :rolleyes:
Die Speicher Diskussion wird Masslos übertrieben, weil bis heute viele einfach nach wie vor nicht begreifen das Spiele so viel wie es geht in den Speicher laden, auch solche Daten die eventuell gar nicht benötigt werden. Wenn einer GPU der Speicher ausgeht brechen die FPS regelrecht zusammen, sofern die GPU selber nicht überlastet ist spürt und sieht man einen Speicher Mangel sehr schnell.
Die neuen Konsolen haben auch nicht mehr als 10GB für VMemory und das für 4K, wie so im PC Bereich dann 10GB nicht ausrechen sollte sich mal jeder selber Fragen :rolleyes:
ChaosTM
2020-10-08, 11:33:15
10GB sind jetzt schon oft zu wenig. Wie soll das erst nach dem Next Gen Launch ausschaun - Hirn einschalten ! ;)
dargo
2020-10-08, 11:37:17
Die neuen Konsolen haben auch nicht mehr als 10GB für VMemory und das für 4K, wie so im PC Bereich dann 10GB nicht ausrechen sollte sich mal jeder selber Fragen :rolleyes:
Und wieder die alte Märch. :facepalm: Die alten Konsolen haben 5,5GB zur Verfügung für Spiele. Warum brauche ich dann am PC 8GB Vram? :rolleyes: Und selbst diese 8GB reichen heute schon in HZD nicht mehr aus.
Daredevil
2020-10-08, 11:38:56
„Oft zu wenig“ kannst du nicht mal an zwei Händen abzählen. Wieviel Spiele gibt es? 10000 Stück? „Oft“ ist <10 da sicher nicht.
Das Next Generation mehr Speicher benötigt ist Spekulation, die auch schon bei der OneX nicht eingetreten ist.
Anscheinend muss jetzt jeder ne 1000€ GPU haben, sonst ist alles andere unspielbar. Na kloar.
dargo
2020-10-08, 11:41:27
Anscheinend muss jetzt jeder ne 1000€ GPU haben, sonst ist alles andere unspielbar. Na kloar.
Wie kommst du jetzt darauf? Schon Navi22 wird mindestens 12GB Vram haben. ;) Und Navi21 mit 16GB erwarte ich auch nicht bei 1.000€.
Dural
2020-10-08, 11:41:54
Schwachsinn, es gibt kaum ein Spiel das die 3080 aktuell in Nutzbaren Einstellungen überfordert. Hat @Raff vor kurzem hier selber geschrieben.
Lustigerweise habe ich oft 5-6GB Auslastung bei meiner 2070 in der Einstellung die ich Spiele, von wo das wohl kommt...
Und das wird nicht mal die tatsächlich benötigte Menge sein.
Wenn ihr glücklicher mit 20GB seit kauft sie doch, aber ich Wette jeder der hier gross rum schreit von zu wenig Speicher wird sich keine 3080 20GB kaufen, wie so oft...
ChaosTM
2020-10-08, 11:43:47
Es steht jedem frei, die 8/10GB Karten zu kaufen. Ich rate nur heftigst davon ab.
Wir wissen absolut nichts darüber, wie viel VRAM PC Games unter der nächsten Generation wirklich brauchen werden. 8/10/11 ist jetzt seit 3 Jahren Standard.
Es wird höchste Eisenbahn für etwas Fortschritt ;)
dargo
2020-10-08, 11:44:29
Lebe du in deiner Traumwelt weiter. :rolleyes:
Also Leute... schön die 3070 8GB und die 3080 10GB kaufen! Dural & Co garantieren euch kompromissloses Spielen. Bei Nebenwirkungen bitte direkt an Dural & Co wenden.
Dural
2020-10-08, 11:49:58
DU lebst in deiner Traumwelt.
Die PC Grafik ist schon längst an die Konsolen gekoppelt. So lange die neuen Konsolen aktuell bleiben wirst du jedes Spiel mit den 10GB zocken können.
Das früher oder später im PC nicht mehr alles max. gehen wird dürfte klar sein, die Vergangenheit hat aber ganz klar gezeigt das dann oft auch die GPU so wie so zu langsam ist. Mit wenigen Sonderfällen in oft einfach schlecht programmierten Spielen :rolleyes:
Daredevil
2020-10-08, 11:52:00
Wie kommst du jetzt darauf? Schon Navi22 wird mindestens 12GB Vram haben. ;) Und Navi21 mit 16GB erwarte ich auch nicht bei 1.000€.
Ne du, ich bleib bei einer VII, die hat viel mehr Ram , vorallem schnelleren. Endlich 4K in 30fps ohne Nachladeruckler!
Du spekulierst, deine Wunschvorstellung ist kein Fakt.
Es steht jedem frei, die 8/10GB Karten zu kaufen. Ich rate nur heftigst davon ab.
Wir wissen absolut nichts darüber, wie viel VRAM PC Games unter der nächsten Generation wirklich brauchen werden. 8/10/11 ist jetzt seit 3 Jahren Standard.
Es wird höchste Eisenbahn für etwas Fortschritt ;)
Das ist anders ausgedrückt komplett richtig, da stimme ich auch zu 100 Prozent zu. :)
Das wir nichts wissen und nicht in die Zukunft schauen können, das einigt uns. Das man Vorsorge treffen kann, ebenso.
Man kann aber auch unnötig Geld ausgeben, die Gefahr besteht. ( Vega 16gb, VII 16gb )
Dural
2020-10-08, 11:57:31
Ideal wäre halt eine 3080 12GB gewesen, entweder liegt es an Samsung oder NV wollte schlicht nicht. Ich tippe auf das 2.
dargo
2020-10-08, 12:11:06
Ne du, ich bleib bei einer VII, die hat viel mehr Ram , vorallem schnelleren. Endlich 4K in 30fps ohne Nachladeruckler!
Keine Ahnung was du immer mit deiner Luftpumpe @Vega20 willst. Das Ding kam aus der Not heraus mal kurz als Zwischenschieber in die Gamingsparte. Dafür war es nie konzipiert. Jedem der sich mit GPUs beschäftigt war dies auch klar.
Brillus
2020-10-08, 12:12:20
Wenn einer GPU der Speicher ausgeht brechen die FPS regelrecht zusammen, sofern die GPU selber nicht überlastet ist spürt und sieht man einen Speicher Mangel sehr schnell.
Das mit dem Einbrechen stimmt nur eben nicht. Viele Spiele passen sich halt an und liefer Matschtexture.
dargo
2020-10-08, 12:14:40
Das mit dem Einbrechen stimmt nur eben nicht. Viele Spiele passen sich halt an und liefer Matschtexture.
Richtig... oder fangen an in den Frametimes zu spiken ((Mini)ruckler). Solche Basics würde Dural auch kennen wenn er mit seinem GPUs auch spielen würde anstatt die im Schrank oder Vitrine zu verstauen. ;D
nordic_pegasus
2020-10-08, 12:15:26
Ideal wäre halt eine 3080 12GB gewesen, entweder liegt es an Samsung oder NV wollte schlicht nicht. Ich tippe auf das 2.
das bei der 3080 sowohl Speicherinterface als auch Shader deaktiviert sind, ist doch eine freie Entscheidung von Nvidia. Gibt auch genug Beispiele von Nvidia/AMD mit Cut-down Karten, welche das SI des vollen Chips haben. Genau darum finde ich die 10GB der 3080 so unnötig. Die 20GB Version wird dann wahrscheinlich preislich vergoldet, eine 12GB Version alleine (statt 10GB/20GB) hätte ausgereicht.
Daredevil
2020-10-08, 12:17:30
Keine Ahnung was du immer mit deiner Luftpumpe @Vega20 willst. Das Ding kam aus der Not heraus mal kurz als Zwischenschieber in die Gamingsparte. Dafür war es nie konzipiert. Jedem der sich mit GPUs beschäftigt war dies auch klar.
Will sagen, eine langsame GPU ( Navi ) macht mit viel Speicher keine bessere 4K Karte, selbst wenn man Texturen künstlich schärft.
Wenn die FPS fehlen, sind dir die Texturen am Ende auch egal.
Eine 3080 10gb ist nicht ausgewogen, aber immer noch eine bessere 4K Karte als eine 3070 16GB, weil letztere nicht viel FPS liefert. ( Durchschnitt 60 ).
Eine 3080 20GB ist sicherlich netter für 50-100€ Aufpreis, bei 200€ Aufpreis ist das aber schwierig rational begründbar.
Und wenn Spiele den Mangel selbst angleichen, gibt es nicht einmal Probleme mit ruckeln ect., das need ist also noch kleiner.
dargo
2020-10-08, 12:25:58
Dein Fehler ist du versteifst dich zu sehr auf 4k. Ich spiele mit 1440p und das wird die nächsten paar Jahre auch so bleiben wenn in der GPU-Produktion nicht irgendein Wunder geschieht der Leistungsverdoppelung erheblich verkürzt und günstiger macht (bsw. Chiplets + IO Auslagerung etc.). Und ich bin sicherlich nicht der Einzige. Für einen 1440p Gamer ist eine 3070 16GB wesentlich interessanter als eine 10GB 3080 auf 2-3 Jahre gesehen. Schon alleine wegen dem hohen Stromverbrauch der 3080. Zudem sollte die 3070 16GB auch etwas günstiger werden.
btw.
Mir wird die Diskussion auch langsam zu blöd mit euch. Kauft einfach was ihr wollt und gut ist.
Daredevil
2020-10-08, 12:29:49
Ich habe nen 4K 120hz OLED Display, das ist kein versteifen sondern reales Need. :)
Gerade bei alles unter 4K sind die Anforderungen an RAM doch noch mal niedriger.
8GB reichen in WQHD doch noch mehr aus, als in UWQHD bzw. 10gb in 4K.
Die 3070 16gb ist Quatsch, das ist ne 2080ti mit mehr Speicher, danach hat niemand gefragt.
Asaraki
2020-10-08, 12:29:52
btw.
Mir wird die Diskussion auch langsam zu blöd mit euch. Kauft einfach was ihr wollt und gut ist.
Das tun wir sowieso alle hier ;-) es geht doch um nichts! Alles easy :-)
nordic_pegasus
2020-10-08, 12:29:56
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/News/Proshop-1359423/
Proshop liefert ein paar absolute Zahlen zu Vorbestellungen und ausgelieferten Karten. So sind z.B. 3400 Karten der RTX 3080 bestellt worden, wovon 340 bislang geliefert wurden... Klingt für mich jetzt nicht danach, dass die Nachfrage zu hoch ist, sondern eher das Angebot einfach zu klein.
Brillus
2020-10-08, 12:38:35
Dein Fehler ist du versteifst dich zu sehr auf 4k. Ich spiele mit 1440p und das wird die nächsten paar Jahre auch so bleiben wenn in der GPU-Produktion nicht irgendein Wunder geschieht der Leistungsverdoppelung erheblich verkürzt und günstiger macht (bsw. Chiplets + IO Auslagerung etc.). Und ich bin sicherlich nicht der Einzige. Für einen 1440p Gamer ist eine 3070 16GB wesentlich interessanter als eine 10GB 3080 auf 2-3 Jahre gesehen. Schon alleine wegen dem hohen Stromverbrauch der 3080. Zudem sollte die 3070 16GB auch etwas günstiger werden.
btw.
Mir wird die Diskussion auch langsam zu blöd mit euch. Kauft einfach was ihr wollt und gut ist.
Jo bei mir ähnlich letztes Jahr erst neuen 1440p Screen gekauft und glaub den werde ich auch eine Zeit behalten. Zum Vergleich von vorherigen hatte ich 13+ Jahre der hatte nichtml FullHD. Wenn der nicht unglücklich kaputt geht werde ich erst eine 4k Screen bekommen wenn der Mainstream ist.
prinz_valium_2
2020-10-08, 12:45:48
Ideal wäre halt eine 3080 12GB gewesen, entweder liegt es an Samsung oder NV wollte schlicht nicht. Ich tippe auf das 2.
100% agreed.
Mit 12 wäre man auf der sicheren Seite.
20GB sind doch etwas overkill.
Wenn man eine 16GB 3070 bringt, kannst du aber nicht nur eine 10GB 3080 haben.
Aber mir soll es recht sein als Kunde. So muss Nvidia halt für den doppelten Speicher zahlen. Aber mehr als 100€ extra wird man dafür nicht zahlen. (ich jedenfalls nicht)
WedgeAntilles
2020-10-08, 12:59:38
„
Anscheinend muss jetzt jeder ne 1000€ AMD GPU haben, sonst ist alles andere unspielbar. Na kloar.
Ich habe es für dich angepasst.
Wie viele hunderte Seiten Diskussion über die 10GB haben wir nun eigentlich schon? :freak:
Ideal wäre halt eine 3080 12GB gewesen, entweder liegt es an Samsung oder NV wollte schlicht nicht. Ich tippe auf das 2.
Jedes Gigabyte mehr würde psychologisch zur Entspannung beitragen. Selbst 11GB wären schon wesentlich netter. (quasi das 12GB für 1440p Nutzer :D)
Bei Ampere ist meinem Bauchgefühl nach vieles am Sweetspot vorbeigelaufen. Hätte der Chip 8 GPCs (7 ist ne super seltsame Zahl...), hätte man für die 3090 mehr Abstand bekommen, Salvage hätte man bei gleicher Performance niedriger takten können und es wäre noch Platz für einen Chip mit 6 GPCs geblieben. Wird vermutlich aber auch wieder am Prozess liegen. Custom 8nm klingt für mich auch nach Hotfix, weil EUV nicht gut genug funktioniert. 2018 gab es da ja News über Verzögerungen bei Samsung. (ich stricke mal meine Story, dass Nvidia nach den Problemen wieder zu TSMC zurück wollte, aber nichts mehr bekommen hat). Bei nem Refresh mit neuem Prozess könnte ich mir vorstellen dass wir da wieder 3 Chips mit 4/6/8 GPCs sehen, die wieder mehr im Sweetspot laufen.
Ändert aber alles nix daran, dass die 3080 für die nächsten 2 Jahre eine echt nette Karte ist.
MiamiNice
2020-10-08, 13:19:00
Hat NV jetzt echt die 20GB 3080 noch für dieses Jahr angekündigt?!?
Das finde ich echt hart und unverschämt, gerade den 10GB Käufern ggü.
Troyan
2020-10-08, 13:19:54
Die A6000 liegt bei 39,8 TFLOPs und 300W. Das ist 16% höher als die RTX8000 bei >2x mehr Leistung.
Der 8nm Prozess ist vollkommen in Ordnung. Bandbreite skaliert eben nicht mehr im selben Maße. Dafür kann man der Ampere-GPU aber auch richtig Feuer geben, wenn man ein 500W Powerlimit hat.
Olliver
2020-10-08, 13:26:48
Hat NV jetzt echt die 20GB 3080 noch für dieses Jahr angekündigt?!?
Das finde ich echt hart und unverschämt, gerade den 10GB Käufern ggü.
Du bist ironisch, oder?
1. Die Ankündigung kommt nicht von Nvidia.
2. Das Gerücht über Varianten mit mehr Vram. ist älter als der Release der aktuellen Karten.
r3ptil3
2020-10-08, 13:26:50
Hat NV jetzt echt die 20GB 3080 noch für dieses Jahr angekündigt?!?
Das finde ich echt hart und unverschämt, gerade den 10GB Käufern ggü.
Wieso?
Wer eine 20Gb Karte will, verkauft einfach das 10Gb-Modell gut, da auch dann vermutlich nur eine mittelmässige Verfügbarkeit vorhanden ist.
Asaraki
2020-10-08, 13:34:22
Wieso?
Wer eine 20Gb Karte will, verkauft einfach das 10Gb-Modell gut, da auch dann vermutlich nur eine mittelmässige Verfügbarkeit vorhanden ist.
Und wartet dann 3 Monate auf die 20GB :D :D :D
Troyan
2020-10-08, 13:41:26
Und dann nochmal 3 Monate, weil die Karten für 200€ mehr verkauft werden als OVP. :D
r3ptil3
2020-10-08, 13:44:55
Wäre es denn besser, wenn es gar keine 10Gb Version gegeben hätte und stattdessen die 3080er mit 20Gb erst Ende Jahr rausgekommen wäre?
Mir ist die aktuelle Situation lieber, trotz miserabler Verfügbarkeit.
Troyan
2020-10-08, 14:01:53
nVidia hätte 12GB mit GDDR6 bringen können. Damit hätte man jedoch nur 767GB/s an Bandbreite, fast 200GB/s weniger als bei der 3090.
ChaosTM
2020-10-08, 14:06:41
Damit hätte man einen etwas komfortableren Abstand zum Flaggschiff und die 3080er wäre immer noch sauschnell.
pixeljetstream
2020-10-08, 14:07:51
Die Quadro nutzt ja G6 für die 48 GB Variante. Clocked aber auch deutlich niedriger, weil 2 Slot und Kartengröße durch OEMs vorgeschrieben ist.
dargo
2020-10-08, 14:09:55
nVidia hätte 12GB mit GDDR6 bringen können. Damit hätte man jedoch nur 767GB/s an Bandbreite, fast 200GB/s weniger als bei der 3090.
Die 3090 ist ja eh kaum schneller als die 3080. Um ehrlich zu sein würde ein GA102 mit 72 SMs imho besser passen und NV hätte bei GDDR6 bleiben können. Dann hätte die 3090 halt nur 35-40% auf die 2080TI draufgelegt. Imho besserer Kompromiss. Oder GA102 stärker auf 72SM beschneiden und die 84SM nur für Quadros. Für eine spätere Titan mit 84SM wäre auch noch Platz für GDDR6X. Bei =>3.000€ spielt der Aufwand dann wohl auch nicht so die große Rolle. Irgendwie steht sich NV mit der Titan selbst im Weg. :freak:
Hakim
2020-10-08, 14:25:24
Wenn die 20gb Version 200 ocken mehr kosten sollte und die 3070 16 gb preislich nah an den 3080 10gb ist, wird es auf jeden Fall eine 3080 10gb Version bei mir. Wobei ich BN eine Chance geben werde mich zu überzeugen
Asaraki
2020-10-08, 14:46:03
Und dann nochmal 3 Monate, weil die Karten für 200€ mehr verkauft werden als OVP. :D
Und dann kommt schon einer und bläst ins Horn, dass bald Biggest Navi kommt und alles zerstört.
@bardh : Ich sag ja, man macht's nie recht ^^
nordic_pegasus
2020-10-08, 15:37:29
Wäre es denn besser, wenn es gar keine 10Gb Version gegeben hätte und stattdessen die 3080er mit 20Gb erst Ende Jahr rausgekommen wäre?
Mir ist die aktuelle Situation lieber, trotz miserabler Verfügbarkeit.
da mir folgende Dinge im Ampere Line-Up unplausibel erscheinen:
- die 3090 kostet in Relation zur Leistung zu viel im Vergleich zur 3080
- die 10GB der 3080 sind knapp, die 24GB der 3090 wohl ein Tacken zu viel für eine Gaming Karte
- die 3090 ist KEIN Titan Nachfolger. Nicht weil ein paar Shader fehlen zum vollen GA102 (was bei dem Preis aber auch dreist ist), sondern weil die Prosumer-Features in produktiver Software im Vergleich zur Titan RTX nicht im Treiber freigegben wurden
- Consumer erhalten absehbar weder den GA102 noch GA104 Vollausbau, was einige potentielle Käufer (auch mich) stört
-G6X verkompliziert das PCB unnötig und zieht zu viel Strom, sollte nur als extreme Lösung verwendet werden
Darum mein alternativer Vorschlag:
- Titan Ampere mit GA102 Full-Chip, 24GB GDDR6X, Prosumer-Flags aktiv als inoffizieller Gaming Top-dog, ggfs. sogar als AIB-Karten
- GA102 Cut als 3080Ti (bischen mehr Shader als die 3080) mit vollem 384bit SI aber nur GDDR6 und 12GB als 3080Ti
- GA102 starker Cut unverändert als Vanilla 3080
- GA104 Full/Cut als 3070Ti und 3070
WedgeAntilles
2020-10-08, 15:40:51
Wäre es denn besser, wenn es gar keine 10Gb Version gegeben hätte und stattdessen die 3080er mit 20Gb erst Ende Jahr rausgekommen wäre?
Mir ist die aktuelle Situation lieber, trotz miserabler Verfügbarkeit.
Mir auch, ich kapiere das Rumgheule nicht.
Jemandem ist 10GB zu wenig? Dann soll erhalt auf die 20GB Variante warten. Dass es die geben wird ist doch seit Monaten zu 99% sicher.
Jemandem ist 20GB zu teuer? Derjenige kann die 10GB Variante kaufen.
Ist doch perfekt für alle.
Die einen bekommen mit 10GB eine klasse Karte für günstige 700 Euro.
Die anderen müssen halt etwas warten und können sich dann eine 20GB Karte für einen immer noch ordentlichen Preis kaufen.
Wenn Nvidia eine 12GB Karte gebracht hätte, wäre das Geheule genauso groß gewesen. Wahrscheinlcih sogar noch viel Größer.
12GB ist vieeel zu wenig, das reicht ja nirgends hin, AMD hat 16GB, jetzt werde ich gezwungen entweder AMD zu kaufen oder die 3090.
Nvidia ist sooo böse.
Würde nvidia ne 16GB Karte mit 3090 Leistung, 250 Watt und 500 Euro bringen würde wahrscheinlich trotzdem rumgeheult werden ohne Ende.
"Bäh, die Farbe ist so hässlich" "Der Name gefällt mir nicht" "für mein 16k Gaming ist die Karte soooo ungeeignet" oder sonst was.
Kann man einfach nicht ernst nehmen.
MiamiNice
2020-10-08, 15:49:22
Was ist den so die Meinung was NV für eine 20GB 3080 aufruft?
Ich tippe auf 999€.
Daredevil
2020-10-08, 15:53:49
Eine 3080 10GB und eine 3080 20GB hat halt auch völlig verschiedene Anwendungsgebiete, sofern man die Hardware auslasten möchte.
Ist für WQHD@144hz und 4K@60fps halt was dabei, wenn man will.
Zwei Karten, zwei Preispunkte.
@Miami
Ohne Konkurrenz sicher 899-999€, mit vielleicht bei 799€. Man hofft auf letzteres. :<
nordic_pegasus
2020-10-08, 15:58:49
Würde nvidia ne 16GB Karte mit 3090 Leistung, 250 Watt und 500 Euro bringen würde wahrscheinlich trotzdem rumgeheult werden ohne Ende.
"Bäh, die Farbe ist so hässlich" "Der Name gefällt mir nicht" "für mein 16k Gaming ist die Karte soooo ungeeignet" oder sonst was.
Kann man einfach nicht ernst nehmen.
Muss man mit Polemik auf faktische Kritikpunkte reagieren? Nur weil Du die 3080/3090 gut findest, sind automatisch alle anderen blöd, die nicht Deiner Meinung sind? Dies ist ein Diskussions-Forum, hier treten Personen mit untschiedlichen Ansichten in Diskurs.
Triniter
2020-10-08, 16:02:00
Das "Problem" ist die riesige Lücke zwischen 80 und 90, das sind halt laut NVidia 800€. Wenn du jetzt 20GB auf die 80 packst wird ja die Performance erst mal nicht direkt besser, die Karte hält nur länger. Bleibst NVidia unter 1000€ ist die 3090 defakto tot, keine 5% werden dann noch den Mehrpreis zahlen.
Der ganze Launch ist ein dermaßener Harakiri. Der geht nur dann gut wenn RDNA2 floppt man hat nirgendwo wirklich Luft nach oben. Ne 3080ti müsste ja den Chip der 3090 bekommen, da wissen wir schon was es in der Performance bringt. Ne 3090ti die dann noch mit den paar zusätzlichen Einheiten des GA102 Vollausbau kommen könnte würde auch niemanden hinterm Ofen vorholen weil auch kein nennenswerter Performancegewinn dabei rauskommen würde (Ich denke mal das sehen wir ja sehr gut aus dem Abstand 3080 zu 3090).
Hakim
2020-10-08, 16:07:22
Muss man mit Polemik auf faktische Kritikpunkte reagieren? Nur weil Du die 3080/3090 gut findest, sind automatisch alle anderen blöd, die nicht Deiner Meinung sind? Dies ist ein Diskussions-Forum, hier treten Personen mit untschiedlichen Ansichten in Diskurs.
Ja aber das ständige "kann man als Briefbeschwere nutzen", "Krüppelkarte" nervt doch auch und stellt alle Käufer als Böld da. Jeder hier weiß was er mit 10GB oder halt 20GB kauft, jedem das seine.
Fragman
2020-10-08, 16:09:06
Eigentlich macht die 20GB Version im Dezember doch nur Sinn, wenn nv bald wieder was neues bringt. Einfach mal so drauf los gedacht.
20GB sind zuviel (ich beschwer mich nicht!) und die Karte kommt zu "früh" mit schon angekündigten Lieferschwierigkeiten im nächsten Jahr. Dazu haben wir eine Lücke zur 3090 die man nicht schließen kann da die 10GB sicher keinen Aufpreis von 300 und mehr Euro kosten werden (vielleicht 200, realistischer sind 150).
Da könnte man schnell versucht sein zu Glauben, das nv etwas als Zwischenlösung gebracht hat.
Wurde hier schon öfter vermutet und dieses 20GB Gerücht passt da rein.
Dural
2020-10-08, 16:09:32
Ich würde nach wie vor den mehrpreis zahlen, bandbreite und einheiten fehlen immer noch, und ich habe mir die 3090 sicher nicht wegen den 24GB bestellt.
nVidia hätte 12GB mit GDDR6 bringen können. Damit hätte man jedoch nur 767GB/s an Bandbreite, fast 200GB/s weniger als bei der 3090.
Diese möglichkeit habe ich mir auch schon überlegt, problem dürfte sein das die Stückzahlen für GDDR6X alleine nur für die 3090 zu gering gewesen wäre.
Leonidas
2020-10-08, 16:11:04
Ideal wäre halt eine 3080 12GB gewesen, entweder liegt es an Samsung oder NV wollte schlicht nicht. Ich tippe auf das 2.
Mit 12 GB hätte es ein 384-bit-Interface geben müssen, was Salvage-technisch schlechter wäre (Chips mit Fehler im Speicherinterface = Halde) und (unter GDDR6X) die 3080 nochmals näher an die 3090 herangebracht hatte. NV konnte wohl gar nicht anders. Mit GDDR6 wäre es vermutlich zu langsam gewesen, siehe vorstehendes Posting.
Dural
2020-10-08, 16:12:50
Können schon, wollen nicht.
Problem wäre dann aber nach unten gewandert, GA104 mit nur 8GB, 16GB wäre nicht gegangen da die 3080 mit 12GB weniger hätte.
Man kann es drehen und wenden wie man will, aber NV scheint sich mit den 10GB etwas überlegt zu haben.
dargo
2020-10-08, 16:16:00
Mit 12 GB hätte es ein 384-bit-Interface geben müssen, was Salvage-technisch schlechter wäre (Chips mit Fehler im Speicherinterface = Halde)...
Witzigerweise ist das immer nur bei Nvidia ein Problem. Warum? AMD schafft es doch auch bei der ersten Salvagestufe das gleiche Speicherinterface wie beim TopDog zu liefern.
Dural
2020-10-08, 16:18:26
Ich glaube nicht das die SI gross Probleme machen, mit Ampere wo die ROPs erst noch entkoppelt sind erst recht nicht.
Das sind ganz bewusste Entscheidungen um die Karten vernünftig zu platzieren.
Leonidas
2020-10-08, 16:18:38
Witzigerweise ist das immer nur bei Nvidia ein Problem. Warum? AMD schafft es doch auch bei der ersten Salvagestufe das gleiche Speicherinterface wie beim TopDog zu liefern.
Eigentlich ist es auch bei NV kein Problem. Es wäre nur ein Vorteil dieser Karte bzw. dieses großen Interfaces, wenn man dafür auch Salvage-Varianten hat. Eine echte Bedingung dürfte es nicht sein. Da dürften andere Gründe wichtiger sein.
Dural
2020-10-08, 16:24:51
Man könnte auch sagen das es bei AMD auch keine Rolle spielt wenn die Karten immer die gleichen Bestückungen habe, bei den geringen Stückzahlen ;)
Bei NV die viele teure Karten verkaufen kann 1-2 Speicher Chips weniger und eine etwas bessere Verwertbarkeit der GPUs ganz schnell einige Millionen ausmachen. Und das ist purer Gewinn.
dargo
2020-10-08, 16:28:09
Stimmt ja... AMD schwimmt ja in Geld, die brauchen keinen Gewinn.
btw.
Deine These steht auf sehr wackeligen Füssen.
256Bit SI + 8GB GDDR6:
2060S
2070
2070S
2080
2080S
nordic_pegasus
2020-10-08, 16:55:51
Man kann es drehen und wenden wie man will, aber NV scheint sich mit den 10GB etwas überlegt zu haben.
durch das anteasern der 20GB Version (alleine schon weil die normale 3080 "3080 10G" genannt wird an vielen Stellen), ist doch klar, dass noch eine 20GB Version nachgeschoben wird.
Mit den Reviews wurde fast das tolle Preis-/Leistungs-Verhältnis der 3080 10GB Founders Edition gelobt, speziell der hochwertige Kühler. Faktisch ist die Founders Edition nicht verfügbar und soll es laut Gerüchten auch bleiben.
Die AIB Karten hingegen werden alle über UVP bleiben und haben teilweise schlechtere Kühllösungen. MLIS hat behauptet, das Nvidia im September/Oktober den AIBs einen Rabatt von $50 gewährt. Sofern es stimmen sollte, wird der Preis also steigen in den nächsten Wochen unabhängig von der tatsächlichen Verfügbarkeit und Preistreibern in den Market-Places.
Und dann wird irgendwann die 3080 20GB nachgeschoben zu einem absehbar höheren Preis, schließlich hat man dann fast 3090 Leistung mit massig VRAM. Der Preisrahmen zwischen 3080 10GB und 3090 ist riesig.
Damit bleibt dann der erste Eindruck einer 3080 10GB Founders Edition zu UVP 700 € im Kopf, man kauft aber die 3080 20GB AIB zu wahrscheinlich 1000€ plus. Marketing at its finest.
WedgeAntilles
2020-10-08, 17:20:15
Muss man mit Polemik auf faktische Kritikpunkte reagieren? Nur weil Du die 3080/3090 gut findest, sind automatisch alle anderen blöd, die nicht Deiner Meinung sind? Dies ist ein Diskussions-Forum, hier treten Personen mit untschiedlichen Ansichten in Diskurs.
Von deinem konstruktiven Posting abgesehen sind doch 95% der Posting:
Lollololol 10GB, lächerlich, so wenig, totaler Müller, Schrott, sofort veraltet, reine Abzocke.
Das sind für dich "faktische Kritikpunkte" und ein "Diskurs"?
Oder nicht vielleicht doch eher Postings der Kategorie: Bäh, die Farbe gefällt mir nicht?
Ich finde Ampere übrigens auch nicht perfekt.
Mir gefallen die 320W nicht, da wäre 270W für ne handvoll Prozentpunkte Leistung weniger die IMO deutlich bessere Wahl gewesen. Warum Nvidia den nicht gewählt hat kapiere ich nicht.
Armaq
2020-10-08, 17:46:04
Wieso?
Wenn ich eine 3080 mit 10GB für 700 Euro oder eine 3080 mit 20GB für 900 Euro zur Wahl habe, wähle ich für mein persönlcihes Anforderungsprofil die 3080 mit 10GB.
Klar, kommt die 3080 mit 20GB zum quasi gleichen Preis und ersetzt die 3080 mit 10GB käme man sich als Käufer verarscht vor.
Das wird aber nicht passieren, es wird einen merklichen Aufpreis geben.
Und es kann jetzt auch keiner behaupten, dass mit einer 3080 20GB keiner rechnen konnte.
Es war doch klar, dass die kommt. Ob jetzt im Dezember oder evt. auch erst im Februar ist natürlich unklar. Aber als Überraschung kann man sie echt nicht bezeichnen.
Von daher wusste doch jeder Käufer was er kauf und was die Alternativen auf Sicht von ein paar Monaten sein werden?
Also das aktuelle HighEnd Modell (die 3090 ist ja eine Prosumer Karte laut Nvidia) hat 1 GB weniger als das alte Modell. Es ist aber schneller und kann in Zukunft den Vorsprung ausbauen. Natürlich wäre mehr VRAM auch wünschenswert und auch für 1440p User von Vorteil. Mehr Puffer fängt einfach auch mehr Kinderkrankheiten (Memleak bei Release) ab, ein Spiel im Mai 2021 wird auf der 20 GB Karte besser laufen als auf der 10 GB Karte, weil jemand an irgendwas nicht gedacht hat.
Das war jedes Mal so und ist auch jetzt nicht anders. Ich versteh das schönreden nicht. Von September bis Dezember ist der Zeitraum doch arg klein für den Release einer zweiten Version, wenn du als Käufer damit ok bist, ich wäre es nicht. 2,5 Monate später ist meine Karte schon wieder out of date ...
Olliver
2020-10-08, 20:55:02
Ein update auf 20GB gibt es logischerweise erst, wenn Nvidia nicht mehr in der Situation ist mehr zu verkaufen als sie herstellen können.
Selbst wenn RDNA 2 mit Wundercash der Knaller wird, führt das erstmal dazu, dass die Miner Big Navi statt Ampere kaufen.
Dann werden die AMD Karten auch für X Monate nicht zu haben sein, aber vielleicht werden die Chancen Ampere überhaupt und sogar zu normalen Preisen zu bekommen spürbar größer.
dargo
2020-10-08, 21:25:47
Ich glaube kaum, dass BigNavi mit einem 256Bit SI für Miner interessant wird.
Olliver
2020-10-08, 22:06:29
Ich spekulierte eher das der neue Cash beim Mining beschleunigen könnte,
allerdings habe ich keinen Plan wieviel Speicher Mining eigentlich braucht,
sprich ob kürzere Latenzen wichtiger sind als Bandbreite.
Armaq
2020-10-08, 22:26:58
2020, der Bonus für Lisa wird wohl erheblich.
Alle Konsolen bei AMD mit GPU und CPU, Performancekrone in CPU und GPU Markt? Möglich wäre es.
Sunrise
2020-10-08, 22:40:32
2020, der Bonus für Lisa wird wohl erheblich.
Alle Konsolen bei AMD mit GPU und CPU, Performancekrone in CPU und GPU Markt? Möglich wäre es.
Für Lisa kann man so oder so nicht genug bezahlen. Was sie die letzten Jahre geleistet hat ist bahnbrechend.
Ich war glaub ich noch nie so beeindruckt von einer Person. Sie macht einfach ihr Ding, scheint dabei sehr viele positiv mitzuziehen und will einfach immer das Beste rausholen. Ebenso scheint sie ihre besten Leute im engen Kreis zu haben, IMHO macht auch Papermaster einen guten Job. Plummer scheint wohl auch ziemlich was drauf zu haben. Über das Core-Team für Zen brauchen wir glaube ich nicht sprechen.
Ganz im Gegensatz zu Intel, wo man eher den Eindruck hat, dort hat man sich jahrelang die Taschen voll gemacht und dann auch noch Konkurrenz behindert.
PS: Wolltest du das wirklich im Ampere-Thread posten? :D
Asaraki
2020-10-08, 22:54:45
Nie vergessen, die meisten hier sind objektiv. Dass “wir” trotzdem nicht die Lautesten sind hat halt so seine Gründe ne :-)
Go AMD!
Armaq
2020-10-08, 22:57:27
Für Lisa kann man so oder so nicht genug bezahlen. Was sie die letzten Jahre geleistet hat ist bahnbrechend.
Ich war glaub ich noch nie so beeindruckt von einer Person. Sie macht einfach ihr Ding, scheint dabei sehr viele positiv mitzuziehen und will einfach immer das Beste rausholen. Ebenso scheint sie ihre besten Leute im engen Kreis zu haben, IMHO macht auch Papermaster einen guten Job. Plummer scheint wohl auch ziemlich was drauf zu haben. Über das Core-Team für Zen brauchen wir glaube ich nicht sprechen.
Ganz im Gegensatz zu Intel, wo man eher den Eindruck hat, dort hat man sich jahrelang die Taschen voll gemacht und dann auch noch Konkurrenz behindert.
PS: Wolltest du das wirklich im Ampere-Thread posten? :D
Ne, der andere Tab ist der Navi-Thread. :D Mea culpa für offtopic.
WedgeAntilles
2020-10-08, 23:03:36
Das war jedes Mal so und ist auch jetzt nicht anders. Ich versteh das schönreden nicht. Von September bis Dezember ist der Zeitraum doch arg klein für den Release einer zweiten Version, wenn du als Käufer damit ok bist, ich wäre es nicht. 2,5 Monate später ist meine Karte schon wieder out of date ...
Ah so, Nvidia hat manche Käufer gezwungen, die 10GB Variante zu kaufen.
Das wusste ich nicht, dachte die Käufer hatten das freiwillig gemacht. Wissen, dass in kurzer Zeit eine 20GB Variante kommen wird.
qa1L'
2020-10-09, 05:55:49
lustig wird der 3080 20gb preis vor allem hinsichtlich der 3090^^
prinz_valium_2
2020-10-09, 07:26:59
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/News/Proshop-1359423/
Proshop liefert ein paar absolute Zahlen zu Vorbestellungen und ausgelieferten Karten. So sind z.B. 3400 Karten der RTX 3080 bestellt worden, wovon 340 bislang geliefert wurden... Klingt für mich jetzt nicht danach, dass die Nachfrage zu hoch ist, sondern eher das Angebot einfach zu klein.
Erschreckend.
Aber es war auch klar. Ich hatte keine Probleme 4 PS5 zu ordern, aber keinerlei Chance auch nur ansatzweise auf eine 3080 FE
Und ich war jedes mal innerhalb der ersten 5 Minuten da. :rolleyes:
Die hohen Händler Preise zeigen auch ein besonderes Bild. Das machst du nicht, bei 3000 Bestellungen. Das machst du nur, wenn Angebot gering und Nachfrage überschaubar ist. Weil die Nachfrage bei dem Preis eben noch geringer ist.
Dural
2020-10-09, 09:29:37
Das ist ein Reseller in Dänemark, die haben gerade mal 4,8Millionen Einwohner.
Ich finde die Zahlen von denen komplett unglaubwürdig, rund 10000 Karten bestellt, das hätte alleine einen Auftrags Wert von rund 10 Millionen. Wenn die Zahlen stimmen sollten wäre das definitiv die grösste Nachfrage nach Grafikkarten die es jemals gab.
Was da wohl in China und den USA abgeht :eek: da müssen Bestellungen von 100000de Karten Weltweit vorhanden sein. Bei einer 1/4 Million Karten sind das mal schlappe 200 Millionen Umsatz. Die Bestellten Karten müssten aber Wahrscheinlich Weltweit sogar im Millionen Bereich liegen = 1 Milliarde + und die Weihnachtszeit kommt erst noch... und was erst mit der 3070 abgehen wird...
Ich hoffe ihr habt Nvidia Aktien ;)
nordic_pegasus
2020-10-09, 09:33:32
Das ist ein Reseller in Dänemark, die haben gerade mal 4,8Millionen Einwohner.
Proshop ist auf Geizhals gelistet. Die bedienen Deutschland, wenn nicht sogar noch mehr Länder in der EU. Die sind bei vielen Produkten auch weit vorne im Preisvergleich gelistet, darum gehe ich auch von vielen Bestellungen aus Deutschland aus. Deshalb kann ich Deine Hochrechnung anhand der Einwohnerzahl Dänemarks nicht ganz folgen.
Chrisch
2020-10-09, 10:00:59
Korrekt, bei ProShop hab ich auch schon paar mal bestellt weil bester Preis @ Geizhals. Nie Probleme mit gehabt :)
=Floi=
2020-10-09, 11:29:17
Von deinem konstruktiven Posting abgesehen sind doch 95% der Posting:
Lollololol 10GB, lächerlich, so wenig, totaler Müller, Schrott, sofort veraltet, reine Abzocke.
Das sind für dich "faktische Kritikpunkte" und ein "Diskurs"?
Oder nicht vielleicht doch eher Postings der Kategorie: Bäh, die Farbe gefällt mir nicht?
sorry, aber was soll man an den 8 und 10 gb sonst da mit irgendwelchen messreihen noch bestätigen?! Die sache ist so banal wie sie nunmal ist. :rollyes:
Die vergangenheit bestätigte das oft genug. zB eine 780ti mit 3gb.
Auch hat man als user nicht die software der nächsten 3-4 jahre auf dem pc.
WedgeAntilles
2020-10-09, 12:01:23
sorry, aber was soll man an den 8 und 10 gb sonst da mit irgendwelchen messreihen noch bestätigen?! Die sache ist so banal wie sie nunmal ist. :rollyes:
Die vergangenheit bestätigte das oft genug. zB eine 780ti mit 3gb.
Auch hat man als user nicht die software der nächsten 3-4 jahre auf dem pc.
Wer bist du, dass du den Käufern vorschreibst was sie zu brauchen und zu kaufen haben?
Ernst gemeinte Frage?
Warum lässt du die Leute, die ne 3080 mit 10GB wollen die nicht einfach kaufen?
Oder glaubst du Nvidia zwingt die Leute mit vorgehaltener Waffe die Karten zu kaufen?
Wenn dir 10GB nicht genug sind kann ich das gut verstehen - ist ja völlig ok.
Nur: Dann kauf dir die 10GB Variante nicht sondern warte auf die 20GB Karte (falls es Nvidia sein soll).
Wem 10GB reichen kauft die 10GB
Wem 10GB nicht reichen warte auf die 20GB
Das ist doch simpel ohne Ende.
Ich kapiere den fanatischen Eifer mit dem die 10GB Käufer verfolgt werden nicht.
dargo
2020-10-09, 12:05:57
Wer bist du, dass du den Käufern vorschreibst was sie zu brauchen und zu kaufen haben?
Ernst gemeinte Frage?
Deine Lesekompetenz lässt zu wünschen übrig. Ich sehe nirgendwo, dass floi irgendwem vorschreibt was er/sie sich kaufen soll. Er stellt einfach nur 8-10GB in Frage mit Beispielen aus der Vergangenheit. Dir würde echt etwas frische Luft zum Abkühlen gut tun.
WedgeAntilles
2020-10-09, 13:11:37
Deine Lesekompetenz lässt zu wünschen übrig. Ich sehe nirgendwo, dass floi irgendwem vorschreibt was er/sie sich kaufen soll. Er stellt einfach nur 8-10GB in Frage mit Beispielen aus der Vergangenheit. Dir würde echt etwas frische Luft zum Abkühlen gut tun.
Er stellt 8-10GB in Frage, nachdem jedem klar ist, dass keiner zu 8-10GB gezwungen wird.
Sondern auf 16-20GB warten kann wenn ihm das lieber ist.
Für ihn sind 8-10GB Schrott.
Ok, er muss die nicht kaufen und für sein Anforderungsprofil sind die vielleicht auch Schrott.
Gilt aber nicht für alle, es gibt genug für die diese Rammenge völlig ok ist.
Er spricht 8-10GB seine Berechtigung zur Existenz ab und damit auch den Käufern das Recht zur Wahlmöglichkeit.
Das mehr Ram Vorteile hat, steht in keiner Art und Weise zur Diskussion, mehr ist immer gut.
Das ändert aber exakt 0 daran, dass es für Käufer sinnvoll ist, wählen zu können.
Denn mehr Ram hat auch Nachteile (Kosten).
Mein Posting geht also exakt auf das ein, was sein Post impliziert. Nämlich dass 8-10GB Ram nix taugt und damit keine Daseinsberechtigung hat.
Da fehlt es wohl dir an Leseverständnis. Aber von dir kommt ja selten mal was sinnvolles.
Du kannst es dir übrigens sparen darauf zu antworten, lese ich eh nicht mehr.
Daredevil
2020-10-09, 13:13:00
Wenn floi echt 10gb für spielen in FullHD in Frage stellt, dann hat er halt keine Ahnung.
( Anwendungszenarien sind für eine Betrachtung wichtig ... sonst ist das halt Gehaltlos )
Und ja, FullHD 360fps Gamer benötigen so eine Karte und nein, 20GB braucht man dort nicht.
Deswegen verstehe ich schon, dass manche hier „vorschreiben“ obwohl sie nicht mal eine Ahnung haben, wofür man das einsetzen will.
Exe meinte letztens sprichwörtlich „Jeder der so einen Speicherkrüppel kauft, ist halt dumm“. Bin ich jetzt dumm, weil ich vier Karten bestellt habe?
Der ist anscheinend der Bruder von dargo, weil bei beiden fehlen in letzter Zeit erheblich die Manieren hier im Internet.
Das man überhaupt Emotionen in so ein Thema reinbringen muss ist doch kindisch.
Wenn floi echt 10gb für spielen in FullHD in Frage stellt, dann hat er halt keine Ahnung.
( Anwendungszenarien sind für eine Betrachtung wichtig ... sonst ist das halt Gehaltlos )
Und ja, FullHD 360fps Gamer benötigen so eine Karte und nein, 20GB braucht man dort nicht.
Deswegen verstehe ich schon, dass manche hier „vorschreiben“ obwohl sie nicht mal eine Ahnung haben, wofür man das einsetzen will.
Exe meinte letztens sprichwörtlich „Jeder der so einen Speicherkrüppel kauft, ist halt dumm“. Bin ich jetzt dumm, weil ich vier Karten bestellt habe?
Der ist anscheinend der Bruder von dargo, weil bei beiden fehlen in letzter Zeit erheblich die Manieren hier im Internet.
Das wage ich zu bezweifeln, aber die Zukunft wird es zeigen.
Daredevil
2020-10-09, 13:23:14
Das wage ich zu bezweifeln, aber die Zukunft wird es zeigen.
Du kannst heute schon 4K Games spielen mit 11GB und zu 99 Prozent ( es gibt kaum Ausnahmen ) reicht der Speicher aus.
Wieso sollte denn deiner Meinung nach 1/4 der Pixel, die dargestellt werden jetzt schon für 10gb nicht mehr ausreichen oder in naher Zukunft?
Das würde ja bedeuten, für 4K braucht man 40gb bzw. jede Karte, die jetzt unter der 2080ti gekauft wurde, wäre Elektroschrott.
Man kann ja nur von Wahrscheinlichkeiten ausgehen, wie begründest du deine? Würde das gerne verstehen, es sei denn du hast krassen Insider Stoff, den du allen hier vorbehältst.
dargo
2020-10-09, 13:27:30
Exe meinte letztens sprichwörtlich „Jeder der so einen Speicherkrüppel kauft, ist halt dumm“. Bin ich jetzt dumm, weil ich vier Karten bestellt habe?
Der ist anscheinend der Bruder von dargo, weil bei beiden fehlen in letzter Zeit erheblich die Manieren hier im Internet.
Das man überhaupt Emotionen in so ein Thema reinbringen muss ist doch kindisch.
Weil mir euer Rumgeeier nur noch auf den Senkel geht. Ich bin nicht der Aufpasser von Exe, also was soll dieser Schwachsinn schon wieder? Ich hatte auch niemanden als dumm abgestempelt der sich eine 8GB 3070 oder 10GB 3080 kauft. Höchstens naiv oder blauäugig. Und ich hatte dir schon mal gesagt kauft was ihr wollt!
Er stellt 8-10GB in Frage, nachdem jedem klar ist, dass keiner zu 8-10GB gezwungen wird.
Sondern auf 16-20GB warten kann wenn ihm das lieber ist.
Für ihn sind 8-10GB Schrott.
Ok, er muss die nicht kaufen und für sein Anforderungsprofil sind die vielleicht auch Schrott.
Gilt aber nicht für alle, es gibt genug für die diese Rammenge völlig ok ist.
Er spricht 8-10GB seine Berechtigung zur Existenz ab und damit auch den Käufern das Recht zur Wahlmöglichkeit.
Bei dir nimmt das schon krankhafte Züge an soviel du an Energie in Ampere reinsteckst. Meine Güte... das ist nur eine belanglose Hardware um bissel Freizeit totzuschlagen! Du tust hier gerade so als wenn Floi bei jedem RTX 3080 Interessenten mit ner Knarre drohen würde er darf keine 10GB 3080 kaufen. :crazy: Als ob Interessenten kein eigenes Hirn hätten.
Ex3cut3r
2020-10-09, 13:30:16
Entschuldigung, wenn jemand es damals persönlich genommen hat, natürlich bist du nicht dumm @ DD.
Aber ich appelliere nochmal. In 1,5 Monaten kommen 20GB Versionen. Nächstes Jahr ist ein neues 2014 wegen der PS5 und Xbone Neu, Ass Unity, FC4, Dying Light sowie Watch Dogs 1 waren damals gute Beispiele warum 2GB Karten aus dem Vorjahr (2013) nicht mehr reichten. Wer 4GB gekauft hatte, hatte keine Probleme bzw. will weniger. AMD kommt jetzt mit der fast 3080 Performance und 16GB um die Ecke. Was will man dann mit 10GB? Sogar Nvidia selber korrigiert diesen Fehler bereits im Dezember.
Dural
2020-10-09, 13:52:45
:rolleyes::rolleyes::rolleyes:
Noch ein mal, die neuen Konsolen haben real auch nicht mehr als 10GB VMemory. Gerade die XBox ist da ziemlich eindeutig, aber das wird auch bei der PS5 in etwa so sein. Dazu kann Ampere, wie auch die Konsolen direkt ohne Umwege auf die SSD zugreifen.
Die letzte Konsolen Generation hatte total 8GB, also ca. 4-5GB für VMemory, logisch reichten dann im PC die 2-4GB Karten nicht mehr aus. Du bestätigst damit gerade das was ich schon lange sage, sofern man in etwa die Menge wie die neuen Konsolen hat, wird man keine Probleme bekommen.
Daredevil
2020-10-09, 13:58:30
:rolleyes::rolleyes::rolleyes:
Noch ein mal, die neuen Konsolen haben real auch nicht mehr als 10GB VMemory. Gerade die XBox ist da ziemlich eindeutig, aber das wird auch bei der PS5 in etwa so sein.
Dazu kann Ampere, wie auch die Konsolen direkt ohne Umwege auf die SSD zugreifen.
Das bedeutet aber nicht, dass jeder Konsolenqualität haben will, sonst hol ich mir halt eine Konsole.
In 4K+ sind 10GB knapp bemessen, in FullHD genug.
Schreibt doch halt mal den Bereich bei, den man abdecken möchte, sonst ist das doch Käse diese Diskussion.
Bei den CPUs schreiben wir doch auch von Workloads ( Multithreading aka Threadripper ) und Gaming ( Singlecore Leistung aka Zen3/CL ), dann kann man hier auch Grafikkarten empfehlen für bestimmte Auflösung+FPS, die man abdecken möchte.
Dann gibt es auch nicht diese pauschalen Aussagen, das 10GB reichen ( tun sie nicht ), oder das 10GB zu wenig sind ( sind sie nicht ).
Dural
2020-10-09, 14:00:26
Wie schon mehrfach gesagt, dann holt ihr euch halt eine Karte mit mehr Speicher, sie kommen ja wo ist das Problem?
Die Erfahrung zeigt aber ganz klar das man lieber in 1-2 Jahren eine neue GPU kauft und das man den Aufpreis somit besser spart.
Aber ist ja jedem selber überlassen.
Fragman
2020-10-09, 14:02:11
Die Ramdiskussion dürfte unsinnig sein, weil diese Karten die Zeiten nicht mehr sehen werden, wenn der mal zu knapp sein sollte. Wer heute eine 3080 kauft, der kauft in 2 Jahren wieder was neues. Dem ist auch egal, das die Karte dann vielleicht 100 Euro weniger im Wiederverkauf bringt.
Wenn demjenigen der Ram nicht reicht, wird er sidegraden auf eine 20Gb Version, auch kein Problem. Das ist eine reine Phantomdiskussion die den Thread hier nur zumüllt.
Sogar Nvidia selber korrigiert diesen Fehler bereits im Dezember.
Das sollte doch als Argument, gegen eine langfristige Anschaffung von 8-10Gb, genügen.
(außer man wechselt seine GPU sowieso sehr häufig)
Aber stimmt schon, als "low-Res-hi-Fps" Karte ist die 3080 10Gb natürlich absolut topp.
(auch FHD 240Hz will versorgt werden und da wäre mehr Ram nur unnötig teuer)
Ich bin halt eher der 4K+ "Eye-Candy" Typ und schon mit stabilen 60FPS zufrieden.
(für solche Absichten würde ich nicht weniger als 16Gb haben wollen)
M.f.G. JVC
Dampf
2020-10-09, 14:13:37
Schon wieder diese VRAM Diskussion? Wer will kauft sich die 10 GB Version. Wer nicht, der wartet.
Ist doch OK.
dargo
2020-10-09, 14:14:45
Die Ramdiskussion dürfte unsinnig sein, weil diese Karten die Zeiten nicht mehr sehen werden, wenn der mal zu knapp sein sollte. Wer heute eine 3080 kauft, der kauft in 2 Jahren wieder was neues. Dem ist auch egal, das die Karte dann vielleicht 100 Euro weniger im Wiederverkauf bringt.
Wie oft denn noch? :freak: 10GB sind heute schon in HZD zu wenig um spikefrei zu spielen. Ja... mag dem Spieler der HZD nicht spielen will egal sein. Ja... mag auch am miesen Speichermanagement vom Port liegen. Ändert nur nichts an den Fakten. Wie kann man nur die Realität derart leugnen?
:rolleyes::rolleyes::rolleyes:
Noch ein mal, die neuen Konsolen haben real auch nicht mehr als 10GB VMemory. Gerade die XBox ist da ziemlich eindeutig, aber das wird auch bei der PS5 in etwa so sein. Dazu kann Ampere, wie auch die Konsolen direkt ohne Umwege auf die SSD zugreifen.
Die letzte Konsolen Generation hatte total 8GB, also ca. 4-5GB für VMemory, logisch reichten dann im PC die 2-4GB Karten nicht mehr aus. Du bestätigst damit gerade das was ich schon lange sage, sofern man in etwa die Menge wie die neuen Konsolen hat, wird man keine Probleme bekommen.
Du kapierst es immer noch nicht oder?
Zu dem Vergleich Speichermenge Konsole vs. Vram PC hatte ich mich schon mehrmals geäußert. Das werde ich für dich nicht noch einmal auffrischen. Als weiteres... was willst du in naher Zukunft mit Direct Storage am PC? Seit wann gibt es DX12/Vulkan? Es sind ~5 Jahre. Hat am PC jeder Titel DX12/Vulkan? Nein, davon sind wir immer noch weit entfernt. Hat jeder DX12/Vulkan Titel Raytracing oder gar DLSS? Auch nicht, Turing gibt es seit 2018! PC ist keine Konsole wo du in kurzer Zeit (von mir aus 6-12 Monate) eine breite Fanbase von Millionen Spielern direkt mit deinem Mehraufwand in der Entwicklung ansprechen kannst! Merke... Features am PC brauchen deutlich länger als auf Konsole. Nur weil Direct Storage auf Konsole verwendet wird heißt es noch lange nicht, dass dies auch anfangs am PC kommt. Microsoft hat nicht mal Direct Storage in das Betriebssystem intergriert. Alles noch ziemlich ungelegte Eier.
Du kannst heute schon 4K Games spielen mit 11GB und zu 99 Prozent ( es gibt kaum Ausnahmen ) reicht der Speicher aus.
Wieso sollte denn deiner Meinung nach 1/4 der Pixel, die dargestellt werden jetzt schon für 10gb nicht mehr ausreichen oder in naher Zukunft?
Das würde ja bedeuten, für 4K braucht man 40gb bzw. jede Karte, die jetzt unter der 2080ti gekauft wurde, wäre Elektroschrott.
Man kann ja nur von Wahrscheinlichkeiten ausgehen, wie begründest du deine? Würde das gerne verstehen, es sei denn du hast krassen Insider Stoff, den du allen hier vorbehältst.
Noch. Das heißt rein gar nichts. Ich seh das Geheule schon nächstes Jahr, wenn die erste echten Next-Gen-Titel auch für PC erscheinen. Man kann einfach nicht oft genug davor warnen. Die 3080 mit 10GB ist einfach ein scheiss Produkt. Mit 20GB hingegen ist sie ein sehr gutes Produkt. Wenn die 10GB heute schon nicht mehr sorgenfrei sind taugt das Produkt nichts. Dafür sind 700€ schlicht zu teuer.
Hakim
2020-10-09, 14:43:46
Falls nächstes Jahr spiele kommen sollten bei denen 10gb zu wenig sind, was spricht den dagegen statt 200€ draufzuzahlen einfach bei den textur einstellungen von ultra auf high zu gehen? Glaubt man echt hier im Forum weiß einer nicht was er für 700€> kauft?
Jeder hat andere Anforderungen an eine graka, nervt doch die Leute nicht mit eurer persönlichen Vorstellung und drängt es nicht jedem auf. Pro warzone Spieler wie Huskerrs spielen alles auf low- very low. Nur so als Beispiel
Speicher ist ne Ausnahme, denn Speicher ist nicht zu ersetzen. Der Fall HZD zeigt das sehr eindrücklich. Die Effekte werden einfach ekelhaft, da reicht Texturen herunterstellen u.U. eben einfach nicht aus. Klar, zu wenig Leistung kann man regeln, das wäre kein großes Problem. Aber mit zu wenig Speicher schrottest du das Produkte frühzeitig. Das mag heute noch gehen (wenn auch jetzt schon nicht ideal), aber der Bedarf wird ja absehbar steigen. Und willst du 700€ ausgeben und dann schon ab nächsten Jahr herunterregeln müssen? Bei dem Preis muss das einfach kompromisslos laufen.
Troyan
2020-10-09, 14:46:38
Noch. Das heißt rein gar nichts. Ich seh das Geheule schon nächstes Jahr, wenn die erste echten Next-Gen-Titel auch für PC erscheinen. Man kann einfach nicht oft genug davor warnen. Die 3080 mit 10GB ist einfach ein scheiss Produkt. Mit 20GB hingegen ist sie ein sehr gutes Produkt. Wenn die 10GB heute schon nicht mehr sorgenfrei sind taugt das Produkt nichts. Dafür sind 700€ schlicht zu teuer.
Darf man eigentlich auch vor RT-Krüppel von AMD warnen? Oder sind RT-Krüppel vollkommen in Ordnung?
MartinRiggs
2020-10-09, 14:48:13
Darf man eigentlich auch vor RT-Krüppel von AMD warnen? Oder sind RT-Krüppel vollkommen in Ordnung?
;D:freak:;D Der war gut
Aha, Troyan weiss hier wieder schon Dinge vorher ;). Dann erleuchte uns doch mal. Wie schlecht wird denn das AMD-Produkt?
X-Bow
2020-10-09, 14:56:29
Das ist ein Reseller in Dänemark, die haben gerade mal 4,8Millionen Einwohner.
Ich finde die Zahlen von denen komplett unglaubwürdig, rund 10000 Karten bestellt, das hätte alleine einen Auftrags Wert von rund 10 Millionen. Wenn die Zahlen stimmen sollten wäre das definitiv die grösste Nachfrage nach Grafikkarten die es jemals gab.
Was da wohl in China und den USA abgeht :eek: da müssen Bestellungen von 100000de Karten Weltweit vorhanden sein. Bei einer 1/4 Million Karten sind das mal schlappe 200 Millionen Umsatz. Die Bestellten Karten müssten aber Wahrscheinlich Weltweit sogar im Millionen Bereich liegen = 1 Milliarde + und die Weihnachtszeit kommt erst noch... und was erst mit der 3070 abgehen wird...
Ich hoffe ihr habt Nvidia Aktien ;)
Wenn Samsung weiterhin nur 10.000 GA102 produziert dann ist das Weihnachtsgeschäft schon lange vorbei bis nV die Millionenstück erreicht:rolleyes:
Dural
2020-10-09, 14:58:08
Dazu muss man kein Hellseher sein, weil es schlicht ziemlich logisch ist... :rolleyes:
Ampere kann RT (Und Tensor) und normale Rechenaufgaben Gleichzeitig, Navi kann es nicht.
dargo
2020-10-09, 14:59:15
Aha, Troyan weiss hier wieder schon Dinge vorher ;). Dann erleuchte uns doch mal. Wie schlecht wird denn das AMD-Produkt?
Das ist das schöne an Troyan. Der hat keinen blassen Schimmer wie die RT-Performance bei RDNA2 ist, stempelt diese aber schon als schlecht ab weil AMD gewartet hat bis RT massentauglich ist. Der Typ bei der PS5 Vorstellung sprach übrigens von keinen hohen Kosten mit RT. Aber mit Konsolendetails hat Troyan es nicht so. ;)
Ampere kann RT (Und Tensor) und normale Rechenaufgaben Gleichzeitig, Navi kann es nicht.
Ampere ist momentan eine Luftpumpe in Games gemessen an der FP32 Leistung.
Dazu muss man kein Hellseher sein, weil es schlicht ziemlich logisch ist... :rolleyes:
Ampere kann RT (Und Tensor) und normale Rechenaufgaben Gleichzeitig, Navi kann es nicht.
Ampere kann AFAIK die TMU "gleichzeitig" mit dem RT-Core nutzen, das kann RDNA2 nicht. Und du weisst schon, dass das Auswirkungen hat? Wieso? Warum sollte man so auf die Performance des RT Rückschlüsse ziehen können? Weißt du, wie stark die RT-Recheneinheiten von N2x sind?
Armaq
2020-10-09, 15:24:03
Ich kann nicht verstehen wie man sich die 10 GB schönreden kann. Seit 20 Jahren gibt es nur einen klaren Trend. Warum erzählt man sich jetzt, dass zum dritten Mal hintereinander der Speicher um die 8GB reichen soll? Die 2080 Ti hätte schon 16 GB bekommen sollen und nicht 11, aber eine Karte mit noch mehr Rohleistung sollte nicht weniger VRam haben. Nochmal, welcher gegenläufige Trend ist den existent in der Industrie?
Ich kann nicht verstehen wie man sich die 10 GB schönreden kann. Seit 20 Jahren gibt es nur einen klaren Trend.
In den letzten 4 Jahren sind die RAM Preise auch zwischenzeitlich gestiegen, sie liegen jetzt auf dem Niveau, den ich im Sommer 2016 gezahlt habe. Sprich, die 8 GB auf meiner 1070 kosten Nvidia soviel wie die 8 GB auf der 3070. So werden wir vor die Wahl einer preislich attraktiven 3070 8 GB und einer überteuerten 16 GB Version gestellt.
Natürlich hätte da Nvidia reagieren müssen, zb durch ein anderes SI, das z. B. 10 oder 12 GB auf der 3070 erlaubt hätte, anstatt zu wenig (8) bzw. zu viel (16).
MasterElwood
2020-10-09, 15:33:42
Ich kann nicht verstehen wie man sich die 10 GB schönreden kann. Seit 20 Jahren gibt es nur einen klaren Trend. Warum erzählt man sich jetzt, dass zum dritten Mal hintereinander der Speicher um die 8GB reichen soll? Die 2080 Ti hätte schon 16 GB bekommen sollen und nicht 11, aber eine Karte mit noch mehr Rohleistung sollte nicht weniger VRam haben. Nochmal, welcher gegenläufige Trend ist den existent in der Industrie?
10GB sind eben nicht "um die 8GB" es sind eine Steigerung von immerhin 25 Prozent.
Und 10GB sind auch nur 9 Prozent weniger als bis vor paar Wochen bei NV noch das Maximum war.
dargo
2020-10-09, 15:39:54
@igg
Mal ein Extrembeispiel mit Navi 14.
https://geizhals.de/powercolor-radeon-rx-5500-xt-axrx-5500xt-4gbd6-dh-oc-a2199381.html?hloc=de
https://geizhals.de/powercolor-radeon-rx-5500-xt-axrx-5500xt-8gbd6-dh-oc-a2199372.html?hloc=de
Mir braucht also keiner mit dem Quatsch kommen 14Gbps GDDR6 (nichts anderes verwendet die RTX 3070) wäre heute noch so teuer. Bei anderen AIBs hast du da etwa 20-30€ Unterschied zwischen 4 und 8GB. Nimmst es halt *2 + kleiner Aufschlag eventuell für 2GB GDDR6 Chips.
btw.
Sony quetscht auch 16GB 14Gbps GDDR6 in die ganze PS5 für 399$. Klar... hier gibt es sicher geringere Margen. Dennoch...
Armaq
2020-10-09, 15:44:11
In den letzten 4 Jahren sind die RAM Preise auch zwischenzeitlich gestiegen, sie liegen jetzt auf dem Niveau, den ich im Sommer 2016 gezahlt habe. Sprich, die 8 GB auf meiner 1070 kosten Nvidia soviel wie die 8 GB auf der 3070. So werden wir vor die Wahl einer preislich attraktiven 3070 8 GB und einer überteuerten 16 GB Version gestellt.
Natürlich hätte da Nvidia reagieren müssen, zb durch ein anderes SI, das z. B. 10 oder 12 GB auf der 3070 erlaubt hätte, anstatt zu wenig (8) bzw. zu viel (16).
2080 Ti
FP16 (half) performance
26.90 TFLOPS (2:1)
FP32 (float) performance
13.45 TFLOPS
Pixel Rate
FP16 (half) performance
29.77 TFLOPS (1:1)
FP32 (float) performance
29.77 TFLOPS
13.45 / 29.77 = 0,45
Bei einer Steigerung 55% ist eine Ram-Reduktion von 10% ok? Ich vergleiche ja vs. 2080Ti, denn die 2080 ist noch weiter entfernt in Rechenleistung.
Troyan
2020-10-09, 16:54:40
Aha, Troyan weiss hier wieder schon Dinge vorher ;). Dann erleuchte uns doch mal. Wie schlecht wird denn das AMD-Produkt?
Ja gerne, hier: https://www.purepc.pl/test-wydajnosci-crysis-remastered-czy-mi-pojdzie-zalezy-co-masz?page=0,14
Software-RT. Aber bestimmt wird die nächste AMD Karte 3x schneller als die 5700XT bei doppelter Rechenleistung. ;D
Und nun stell dir mal vor, wenn man die 30FTLOPs und RT-Cores verwendet statt nur 30TFLOPs. Wird heftig für AMD. Aber 1080p ist auch eine gute Auflösung. ;D
Ex3cut3r
2020-10-09, 17:06:24
Ich kann nicht verstehen wie man sich die 10 GB schönreden kann. Seit 20 Jahren gibt es nur einen klaren Trend. Warum erzählt man sich jetzt, dass zum dritten Mal hintereinander der Speicher um die 8GB reichen soll? Die 2080 Ti hätte schon 16 GB bekommen sollen und nicht 11, aber eine Karte mit noch mehr Rohleistung sollte nicht weniger VRam haben. Nochmal, welcher gegenläufige Trend ist den existent in der Industrie?
Noch nie habe ich einen User so schnell zugestimmt wie dir. Das ist mir auch ein sehr großes Rätsel. Mit einer neuer Konsolen Gen, ist es einfach nur verdammt blauäugig davon auszugehen, dass 8-10GB reichen werden. Dazu kommt noch immer mehr RT Usage die auch VRAM braucht. 12 GB Minimum sollten es mindestens, bei einem Neukauf ende 2020 sein. 16GB sehe als Sweetspot für die nächsten 2 Jahre an, bis rauf auf 4K Auflösung. 20GB und mehr ist dann der pure Luxus. Aber 8 und 10GB sind einfach ein Witz. 8GB sogar noch mehr aka 3070....:ulol:
Bei einer Steigerung 55% ist eine Ram-Reduktion von 10% ok? Ich vergleiche ja vs. 2080Ti, denn die 2080 ist noch weiter entfernt in Rechenleistung.
Ich hab lediglich das Preisgefüge beim RAM als Grund angeführt, wieso die letzten 20 Jahre nicht mit den letzten 4 vergleichbar sind - gut finde ich es nicht, im Moment sieht es so aus, als würde ich die 1070 eine weitere Generation behalten :-( habe nicht vor ein Produkt zu kaufen, das beim Launch schon veraltet ist.
rentex
2020-10-09, 17:15:16
@igg
Mal ein Extrembeispiel mit Navi 14.
https://geizhals.de/powercolor-radeon-rx-5500-xt-axrx-5500xt-4gbd6-dh-oc-a2199381.html?hloc=de
https://geizhals.de/powercolor-radeon-rx-5500-xt-axrx-5500xt-8gbd6-dh-oc-a2199372.html?hloc=de
Mir braucht also keiner mit dem Quatsch kommen 14Gbps GDDR6 (nichts anderes verwendet die RTX 3070) wäre heute noch so teuer. Bei anderen AIBs hast du da etwa 20-30€ Unterschied zwischen 4 und 8GB. Nimmst es halt *2 + kleiner Aufschlag eventuell für 2GB GDDR6 Chips.
btw.
Sony quetscht auch 16GB 14Gbps GDDR6 in die ganze PS5 für 399$. Klar... hier gibt es sicher geringere Margen. Dennoch...
Ah klar! Man vergleicht die Menge an produzierten Konsolen, mit denen von Grafikkarten...kann nicht funktionieren. Bei den Konsolen spricht man von einigen Millionen Stück und sehr wahrscheinlich ganz anderen Abnahmepreisen...
TheAntitheist
2020-10-09, 17:16:01
:rolleyes::rolleyes::rolleyes:
Noch ein mal, die neuen Konsolen haben real auch nicht mehr als 10GB VMemory. Gerade die XBox ist da ziemlich eindeutig, aber das wird auch bei der PS5 in etwa so sein. Dazu kann Ampere, wie auch die Konsolen direkt ohne Umwege auf die SSD zugreifen.
Die letzte Konsolen Generation hatte total 8GB, also ca. 4-5GB für VMemory, logisch reichten dann im PC die 2-4GB Karten nicht mehr aus. Du bestätigst damit gerade das was ich schon lange sage, sofern man in etwa die Menge wie die neuen Konsolen hat, wird man keine Probleme bekommen.
nochmal das ist quatsch, wie wir sehen, können selbst einst sony exclusive titel, die ergo nur 5,5GB zur verfügung hatten (PS4) bei einem PC deutlich mehr VRAM verbrauchen (horizon zero dawn) und die konsolen haben 13,5 GB zur verfügung, egal wie oft du die Zahlen der XSX nennst, es bleibt bullshit. lass es einfach
Armaq
2020-10-09, 17:17:48
Ich hab lediglich das Preisgefüge beim RAM als Grund angeführt, wieso die letzten 20 Jahre nicht mit den letzten 4 vergleichbar sind - gut finde ich es nicht, im Moment sieht es so aus, als würde ich die 1070 eine weitere Generation behalten :-( habe nicht vor ein Produkt zu kaufen, das beim Launch schon veraltet ist.
Da die Preise mit Turing anstiegen, kann ich das nicht gelten lassen. ;)
Ich finde Ampere überhaupt nicht schlecht, aber es gibt zwei dicke Kritikpunkte: 275Watt und die Karte sieht immer noch Spitze aus, sie würde in Perf/W ggü. Turing deutlicher punkten, die Custom-Karten können ja sonstwas für Limits fahren und die Ram-Ausstattung ist dürftig.
Alles andere finde ich super. Der Kühler ist echt sexy, er macht sogar noch Sinn, auch ein mutigeres Board-Design, welches Board-Partner etwas fordert ist ebenso herausragend. GDDRX zu nehmen ist auch mutig, denn die Verfügbarkeit scheint ja nicht so gut zu sein. Sowas belohne ich vor meinem inneren Auge.
Edit: DLSS liegt bei mir auch sehr hoch im Kurs, viel höher als RT (auch wenn ich RT Beleuchtung extrem sexy finde, es ist ein unglaublich dezenter Effekt in der breiten Wahrnehmung). Die Creator Tools finde ich gut, aber werde sie wohl nicht oder nur ganz selten nutzen. Geforce Experience ist mMn. auch der richtige Weg den Kunden die richtigen Settings für ihre Karten in ihren Spielen vorzustellen. Das schafft einfach Freude und ist easy nutzbar. Viele Freunde nutzen das Tool tatsächlich aus, die Spyware darin ist einfach unschön.
dargo
2020-10-09, 17:22:26
Ah klar! Man vergleicht die Menge an produzierten Konsolen, mit denen von Grafikkarten...kann nicht funktionieren. Bei den Konsolen spricht man von einigen Millionen Stück und sehr wahrscheinlich ganz anderen Abnahmepreisen...
Was genau hast du jetzt an dem Vergleich mit Navi14 nicht verstanden?
kleeBa
2020-10-09, 17:25:27
Meine olle 1080 (non Ti) hat ja schon 8 GB VRAM.
Ein paar Jahre, Architekturen und Refreshes später, mit x-fach erhöhter Rohleistung, neuen Feature wie RT, einer neuen Konsolengeneration vor der Haustür und 1 -2 Auflösungsstufen höher als die früheren FullHD soll ich dann 10 GB VRAM als neuen heißen Scheiß akzeptieren?
Hm....:uponder:
Troyan
2020-10-09, 17:25:28
nochmal das ist quatsch, wie wir sehen, können selbst einst sony exclusive titel, die ergo nur 5,5GB zur verfügung hatten (PS4) bei einem PC deutlich mehr VRAM verbrauchen (horizon zero dawn) und die konsolen haben 13,5 GB zur verfügung, egal wie oft du die Zahlen der XSX nennst, es bleibt bullshit. lass es einfach
Die Series X hat nur 10GB, die Series S gar weniger als 8GB für 1440p. Die Spieleentwickler werden sich bei Multi-Plattform-Spielen an der Xbox orientieren.
aufkrawall
2020-10-09, 17:27:13
Die Series X hat nur 10GB, die Series S gar weniger als 8GB für 1440p. Die Spieleentwickler werden sich bei Multi-Plattform-Spielen an der Xbox orientieren.
Manche ja, manche nein. Deal with it (tut er natürlich nicht...).
dargo
2020-10-09, 17:28:23
Die Series X hat nur 10GB, die Series S gar weniger als 8GB für 1440p. Die Spieleentwickler werden sich bei Multi-Plattform-Spielen an der Xbox orientieren.
Das ist bullshit! Die XBSX hat genau 13,5GB Speicher für Spiele zur Verfügung + Direct Storage. Letzteres hat die XBSS natürlich auch. Ob die Entwickler bei den ersten Games gleich Direct Storage für Texturestreaming nutzen werden mag ich nicht beurteilen. Hängt wahrscheinlich vom Aufwand ab. Für schnellere Ladezeiten wird man das sicherlich gleich nutzen.
Armaq
2020-10-09, 17:28:30
Noch nie habe ich einen User so schnell zugestimmt wie dir. Das ist mir auch ein sehr großes Rätsel. Mit einer neuer Konsolen Gen, ist es einfach nur verdammt blauäugig davon auszugehen, dass 8-10GB reichen werden. Dazu kommt noch immer mehr RT Usage die auch VRAM braucht. 12 GB Minimum sollten es mindestens, bei einem Neukauf ende 2020 sein. 16GB sehe als Sweetspot für die nächsten 2 Jahre an, bis rauf auf 4K Auflösung. 20GB und mehr ist dann der pure Luxus. Aber 8 und 10GB sind einfach ein Witz. 8GB sogar noch mehr aka 3070....:ulol:
In dem Segment stimme ich dir zu, aber es gibt ja noch die Volkskarten. Es gibt viel mehr Käufer für 200 € und auch die verdienen eine solide Karte. Wie lächerlich die 3080 10 GB ist, werden wir bei der 3060 sehen. Diese Untergrenzen wurden ja schon häufig hier und auch ansonsten im Netz erwähnt (Stichwort kleine Xbox). In diesen 200 € muss neben dem Chip etwas mit dem VRam passieren, damit die Highend-Garde auch noch weiter eilen kann. Hier zu knausern wirft uns alle immer um eine Gen zurück.
ChaosTM
2020-10-09, 17:29:40
Durch das schnelle "direct to VRAM" streaming wird speziell die PS5 deutlich weniger Speicher brauchen als der PC. Zumindest zu Beginn. Das muss man mit viel V(RAM) totschlagen am PC :D
Troyan
2020-10-09, 17:51:48
Das ist bullshit! Die XBSX hat genau 13,5GB Speicher für Spiele zur Verfügung.
Es sind 10GB VRAM, nur die CPU und Co. sehen den restlichen Speicher. Die GPU hat überhaupt keinen Zugriff auf den langsam angebundenen Teil.
Armaq
2020-10-09, 17:54:00
Es sind 10GB VRAM, nur die CPU und Co. sehen den restlichen Speicher. Die GPU hat überhaupt keinen Zugriff auf den langsam angebundenen Teil.
Das ist doch komplett unified?
dargo
2020-10-09, 17:58:38
Es sind 10GB VRAM, nur die CPU und Co. sehen den restlichen Speicher. Die GPU hat überhaupt keinen Zugriff auf den langsam angebundenen Teil.
Eine CPU braucht 336GB/s Bandbreite? Für was denn? :freak: Und was ist "Co"? Zudem kannst du es drehen wie du willst. Der Speicher der Spielen zur Verfügung steht hat sich mit 13,5GB mehr als verdoppelt zu XB1 mit 5,5GB. Einzige Ausnahme war die XB1X.
Troyan
2020-10-09, 18:00:18
Nicht für die GPU:
"Memory performance is asymmetrical - it's not something we could have done with the PC," explains Andrew Goossen "10 gigabytes of physical memory [runs at] 560GB/s. We call this GPU optimal memory. Six gigabytes [runs at] 336GB/s. We call this standard memory. GPU optimal and standard offer identical performance for CPU audio and file IO. The only hardware component that sees a difference in the GPU."
In terms of how the memory is allocated, games get a total of 13.5GB in total, which encompasses all 10GB of GPU optimal memory and 3.5GB of standard memory.
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
dargo
2020-10-09, 18:02:43
Das ist doch komplett unified?
Der Aufbau ist etwas komplizierter.
https://www.pcgameshardware.de/Xbox-Series-X-Konsolen-268616/News/Unterschiedliche-schnelle-Speicher-kein-wirkliches-Problem-1345746/
Ändert nichts daran, dass es 13,5GB für Spiele sind und somit mehr als doppelt so viel.
Armaq
2020-10-09, 18:37:34
Nicht für die GPU:
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
Ok, damit hat man 10GB auf PC Niveau für GPU und 6 GB sind im Vergleich zum PC CPU abartig schnell. Die Latenzen dürften ebenso außerordentlich sein. Da Transfer von CPU zu GPU auf dem PC offenbar ein Bottleneck ist, gibt es DirectStorage auch in Zukunft hier.
Das muss man am PC mit Kapazität kompensieren im jetzt.
Dampf
2020-10-09, 19:58:50
Ok, damit hat man 10GB auf PC Niveau für GPU und 6 GB sind im Vergleich zum PC CPU abartig schnell. Die Latenzen dürften ebenso außerordentlich sein. Da Transfer von CPU zu GPU auf dem PC offenbar ein Bottleneck ist, gibt es DirectStorage auch in Zukunft hier.
Das muss man am PC mit Kapazität kompensieren im jetzt.
Die Latenzen von GDDR sind deutlich höher als DDR4 und geringe Latenzen sind gerade bei der CPU wichtig.
Wenn die 3,5 GB nicht genug sind, dann kann die CPU auch etwas vom schnellen Bus abknabbern. In einem CPU-intensiven Next Gen Spiel könnte es durchaus passieren, dass dann deutlich weniger als 10 GB für den Grafikspeicher zur Verfügung stünden. Das wäre bei einem PC natürlich nie der Fall.
Palpatin
2020-10-09, 20:11:01
Was die OneX in die 10GB laden muss ist das was der PC Spieler sieht wenn er die Regler auf medium oder im besten Fall high dreht. Bei einer 700 - 900€ Karte will ich aber mindestens very high oder ultra. eod
dargo
2020-10-09, 20:11:42
Die Latenzen von GDDR sind deutlich höher als DDR4 und geringe Latenzen sind gerade bei der CPU wichtig.
Du willst hier doch nicht etwa auf CPU-Seite eine Konsole mit einem PC vergleichen oder? :freak:
Armaq
2020-10-09, 20:26:36
Die Latenzen von GDDR sind deutlich höher als DDR4 und geringe Latenzen sind gerade bei der CPU wichtig.
Wenn die 3,5 GB nicht genug sind, dann kann die CPU auch etwas vom schnellen Bus abknabbern. In einem CPU-intensiven Next Gen Spiel könnte es durchaus passieren, dass dann deutlich weniger als 10 GB für den Grafikspeicher zur Verfügung stünden. Das wäre bei einem PC natürlich nie der Fall.
Ich kann mir das bei der Architektur nicht vorstellen. 300+ GB Bandbreite sind für eine PC CPU in 7 Jahren noch nicht drin, wenn wir uns so steigern wie bisher.
PC5-38400 to PC5-51200 für DDR5
Aufgrund der Art und Weise gehe ich davon aus, dass das auch bei der Latenz positive Auswirkungen hat?
DDR4 ist ja extrem gut dokumentiert, gibt es sowas auch für GDDR6? Habe fix nix gefunden.
https://en.wikipedia.org/wiki/CAS_latency
Edit: Input und Output kann simultan genutzt werden bei GDDR, das ist ja auch nicht zu verachten, wenn man ein shared subsystem hat und bspw. der Output CPU dann in den Input GPU fließt.
Die Latenzen von GDDR sind deutlich höher als DDR4 und geringe Latenzen sind gerade bei der CPU wichtig.
Wenn die 3,5 GB nicht genug sind, dann kann die CPU auch etwas vom schnellen Bus abknabbern. In einem CPU-intensiven Next Gen Spiel könnte es durchaus passieren, dass dann deutlich weniger als 10 GB für den Grafikspeicher zur Verfügung stünden. Das wäre bei einem PC natürlich nie der Fall.
Es wird kein Spiel weniger VRAM brauchen. Der RAM Verbrauch wird durch DS z. B. minimiert. Man wird den RAM Verbrauch des Spieles klein halten um möglichst viel VRAM nutzbar zu haben. Wichtig ist nur, dass der Framebuffer im schnellen Teil liegt. Die meisten Entwickler werden sich jedoch an die Aufteilung halten. Der PC muss also 10GB VRAM plus DirectStorage mit VRAM kompensieren.
mr coffee
2020-10-10, 00:21:55
Man kann es sich doch ganz einfach machen... wieviel hatte die PS4 verfügbar? 5.5 GB insgesamt? Das hat zum Ende der Generation zu optimalen 8-10 GB VRAM beim PC geführt. Wenn jetzt die neuen Konsolen mehr als doppelt so viel haben, wird sich der optimale VRAM am PC auch verdoppeln. Das heisst 16 GB wird das Minimum sein, was akzeptabel ist. Jetzt eine 10 GB Karte zu kaufen macht nur Sinn wenn man in 1-2 Jahren spätestens aufrüstet.
Hakim
2020-10-10, 00:56:28
So eine Konsolen Gen hält aber um die ~5 Jahre, in der ganzen Zeit gab es nur 3 Gamerkarten die überhaupt mehr als 8 GB Vram hatten (Ampere mal außen vor). Ich meine wer wirklich für 5 Jahre eine Karte kaufen will, wird mit Sicherheit gegen Ende Probleme mit 10GB und wohl möglich auch 16GB Vram haben wenn man alle Einstellungen ganz nach Rechts belassen will (nicht nur bei Vram Fresser Einstellungen wie Texturen).
Nazar
2020-10-10, 01:17:12
Falls nächstes Jahr spiele kommen sollten bei denen 10gb zu wenig sind, was spricht den dagegen statt 200€ draufzuzahlen einfach bei den textur einstellungen von ultra auf high zu gehen? Glaubt man echt hier im Forum weiß einer nicht was er für 700€> kauft?
Jeder hat andere Anforderungen an eine graka, nervt doch die Leute nicht mit eurer persönlichen Vorstellung und drängt es nicht jedem auf. Pro warzone Spieler wie Huskerrs spielen alles auf low- very low. Nur so als Beispiel
hmm... wenn man dieser Logik ernsthaft gefolgt wäre, würden immer noch 2GB VRAM reichen... sieht eben nicht gut aus und spielt sich scheiße, geht aber auch in 4K.
Man kann sich auch "Argumente" aus dem dunkelsten Ort seines Körpers "zaubern".
Mal ehrlich, das ist absoluter Blödsinn jetzt für eine GPU 700 Steine auf den Tisch zu legen, wenn man absehen kann, dass schon im Dezember selbst nVidia sagen wird, dass mehr als 10GB VRAM deutlich besser sind. :freak:
Hakim
2020-10-10, 01:43:32
Klar ist 20GB besser und Zukunftssicher, das stellt glaub ich niemand in frage, es bleibt aber jedem selbst überlassen den wahrscheinlich ~200€ Aufpreis zu zahlen. Darum ging es mir. Vielleicht kann man auch die 200€ mehr dann zu Nächsten Gen mitnehmen. Finde halt ehrlich gesagt 10gb evtl später zu wenig (wobei man hier halt in den Settings etwas korrigieren kann, Ultra>sehr Hoch), aber 20GB auch etwas zu viel den guten. In der Zukunft wo 20GB gebraucht werden drehen die neuen Gens von AMD und NV kreise um die 3080 (meine Glaskugel sagt das zumindest :) ).
=Floi=
2020-10-10, 04:36:24
Wie schon mehrfach gesagt, dann holt ihr euch halt eine Karte mit mehr Speicher, sie kommen ja wo ist das Problem?
Die Erfahrung zeigt aber ganz klar das man lieber in 1-2 Jahren eine neue GPU kauft und das man den Aufpreis somit besser spart.
von welchem geld? :ugly:
die brauchbaren karten gehen straight richtung 1000€ und soetwas kauft man nicht einfach jedes jahr neu.
Ich rede auch von 3-4 jahren und da dürfte die gpu leistung noch reichen, aber der vram nicht mehr. 1080p ist da auch dann egal.
Was gibt es daran nicht zu kapieren? Auich sollte man mal über umweltschutz nachdenken, indem so eine karte 4-6 jahre nutzbar sein sollte.
mir ging das abfällige des zitierten users nur so auf den senkel.
MasterElwood
2020-10-10, 05:12:58
Was gibt es daran nicht zu kapieren? Auich sollte man mal über umweltschutz nachdenken, indem so eine karte 4-6 jahre nutzbar sein sollte.
.
Was ist denn DAS für eine blöde Aussage? Es schmeißt doch keiner eine Highend Karte nach 2 Jahren weg! Die wird weiterverkauft an Jemanden mit geringeren Ansprüchen - oder bleibt im Schrank liegen als Backup :facepalm:
Redneck
2020-10-10, 07:52:51
Nicht für die GPU:
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
Da steht gpu optimal memory und nicht gpu only memory. D.h. der langsam angebundene Speicher kann ebenfalls von der gpu genutzt werden. Gtx970 reloaded.
10gb sind für eine Highend Karte Ende 2020 zu wenig.
Die 2080TI hatte schon 11gb. Da schmeißt man doch keine neue Karte auf den Markt die wesentlich schneller ist aber weniger Speicher hat. Da wurde der Rotstift angesetzt um auf diesen "niedrigen" UVP der FE zu kommen zu Lasten der Zukunftssicherheit. Hätten sie mal besser den Chip etwas sparsamer geregelt um am Kühlerdesign zu sparen statt am Speicher.
dargo
2020-10-10, 08:26:58
Da steht gpu optimal memory und nicht gpu only memory. D.h. der langsam angebundene Speicher kann ebenfalls von der gpu genutzt werden. Gtx970 reloaded.
Daran ist nichts GTX 970 reloaded. Die langsamer angebundenen 3,5GB hängen immer noch an 336GB/s und nicht an 28GB/s wie die GTX 970 mit ihrem 0,5GB Speicher. Zudem ist PC keine Konsole.
Fragman
2020-10-10, 11:21:03
Ich finde es wird Zeit, das wir endlich über die ünsäglichen 16GB anfangen zu diskutieren.
Wir werden demnächst 20 haben, da geht 16 auf keinen Fall mehr. Insbesondere, weil die Konsolen schon 16 haben und wir als PC Gamer einen Buffer brauchen. 20 wird schon knapp werden, reicht dann aber auch bis Ende nächsten Jahres. Die 16GB Käufer tun mir jetzt schon leid. Vielleicht kann man sammeln, dann müssen sich die ärmeren Menschen keine 16GB antun.
dargo
2020-10-10, 11:23:09
Du hast schon besser getrollt.
btw.
Die 3070 wird auch "nur" 16GB haben. :rolleyes:
Edit:
Ihr merkt noch nicht mal, dass Nvidia sich die Optionen bei der RTX 3080 mit der Segmentverschiebung (GA102) selbst versaut hat. Wäre GA104 RTX 3080/3070 hätte man wunderbar beide Karten mit 16GB GDDR6 bringen können (sogar 16/12GB wäre eine Option, bei 192Bit müsste man dann aber leider wieder zum 16Gbps greifen, 224Bit SI + 14GB 14Gbps GDDR6 mit dann 392GB/s wäre eine weitere Option für eine RTX 3070). Bei der RTX 3080 dann halt 16Gbps um sich etwas besser von der RTX 3070 abzugrenzen. Der Performanceabstand zwischen der RTX 3090 und RTX 3080 wäre dann größer wie jetzt, also wie bei Turing.
Fragman
2020-10-10, 11:28:33
Du hast schon besser getrollt.
btw.
Die 3070 wird auch "nur" 16GB haben. :rolleyes:
Ich hab heut morgen auch gleich einen geharnischten Brief and AMD und nv geschrieben. Schließlich sollen die wahren Opfer der Speicherkrise nicht vergessen werden.
just4FunTA
2020-10-10, 12:29:48
Ich finde es wird Zeit, das wir endlich über die ünsäglichen 16GB anfangen zu diskutieren.
Wir werden demnächst 20 haben, da geht 16 auf keinen Fall mehr. Insbesondere, weil die Konsolen schon 16 haben und wir als PC Gamer einen Buffer brauchen. 20 wird schon knapp werden, reicht dann aber auch bis Ende nächsten Jahres. Die 16GB Käufer tun mir jetzt schon leid. Vielleicht kann man sammeln, dann müssen sich die ärmeren Menschen keine 16GB antun.
es sollen erstmal 16gb kommen dann kann man auch darüber diskutieren. nv verarscht uns ja mit ihren 8 bis 10gb..
WedgeAntilles
2020-10-10, 12:51:46
Ich finde es wird Zeit, das wir endlich über die ünsäglichen 16GB anfangen zu diskutieren.
Wir werden demnächst 20 haben, da geht 16 auf keinen Fall mehr. Insbesondere, weil die Konsolen schon 16 haben und wir als PC Gamer einen Buffer brauchen. 20 wird schon knapp werden, reicht dann aber auch bis Ende nächsten Jahres. Die 16GB Käufer tun mir jetzt schon leid. Vielleicht kann man sammeln, dann müssen sich die ärmeren Menschen keine 16GB antun.
Und nicht vergessen, HZD braucht jetzt schon 16GB um perfekt zu laufen.
Falls 16GB überhaupt reichen dafür.
Alles unter 20GB ist definitiv viel zu wenig.
Da kann man in 12 Monaten vielleicht noch auf 800x600 mit low Details oder so spielen.
Alles unter 20GB ist die totale Abzocke und völlig unkaufbar.
Aber halt, ich vergaß - jede Nvidia-Speicherbestückung ist völlig falsch.
10GB? Viel zu wenig.
20GB? Viel zu viel.
Nur exakt das was AMD anbietet ist richtig. ;D
MiamiNice
2020-10-10, 12:54:57
Ihr seid mir PC User. Wer Ende des Jahres keine 24GB VRam hat ist nen Konsolen User :tongue:
Savay
2020-10-10, 13:19:27
Nichts einfacher als das. :rolleyes:
71759
Troyan
2020-10-10, 13:20:40
Der Division 2 Benchmark zeigt mit maximierten Einstellungen 20GB im RTSS Overlay an. Nur mal so zum Nachdenken. :D
dargo
2020-10-10, 13:29:36
Ach... jetzt ist plötzlich allocation Memory von Relevanz weil Nvidia eine 20GB RTX 3080 angeteasert hat? Du bist echt der Brüller. ;D Was liefert dann eigentlich die RTX 3080 10GB in deinem Benchmark? Standbilder?
ChaosTM
2020-10-10, 13:30:04
32 oder 48GB sollten es für next gen schon sein .. ;)
dargo
2020-10-10, 13:30:27
Mindestens.
dildo4u
2020-10-10, 13:56:10
Nvidia soll angeblich mehr Kapazität bei TSMC geordert haben.
Mit Google übersetzt:
It has also been reported that NVIDIA previously launched the annual great RTX 30 series, using a considerable contract discount Samsung Electronics 8nm process, but in 2021 will be converted to TSMC 7 nanometer process, a large number of orders.
In addition to TSMC's 7nm quote, NVIDIA has previously planned to spread the risk in response to Samsung's 8nm yield problem. NVIDIA 7nm single is also one of TSMC's key customers to maintain high-grade capacity utilization of 7nm in 2021.
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&Cat=40&id=0000595527_V0S6A1UA1TFVTO8VXV316&cf=A11
dargo
2020-10-10, 14:04:20
Das riecht ja fast nach diesem ominösen GA103 + eventuell GA102 Refresh. Und gleichzeitig eine schöne Bestätigung für miese Yields bei Samsung. Leider steht nichts genaueres wann in 2021. TSMC verdienst sich weiterhin ne goldene Nase. :freak:
Troyan
2020-10-10, 14:13:51
Nvidia soll angeblich mehr Kapazität bei TSMC geordert haben.
Mit Google übersetzt:
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&Cat=40&id=0000595527_V0S6A1UA1TFVTO8VXV316&cf=A11
Gott, wieviel Unsinn geschrieben wird. nVidia wird ihre Kapazitäten wegen GA100 und NVSwitches erhöhen.
Bei Samsung ist man, weil man eben das Risiko von Produktionsknappheit umgehen will. Also geht man nicht zu TSMC, um das Problem von Produktionsknappheit bei Samsung zu umgehen. :uclap:
AffenJack
2020-10-10, 14:22:38
Das riecht ja fast nach diesem ominösen GA103 + eventuell GA102 Refresh. Und gleichzeitig eine schöne Bestätigung für miese Yields bei Samsung. Leider steht nichts genaueres wann in 2021. TSMC verdienst sich weiterhin ne goldene Nase. :freak:
GA100 wird Nvidia aus den Händen gerissen und joa, GA103 würde ich da auch mit rechnen.
Ansonsten lustige Theorien deinerseits, soll ich auch? RDNA2 ist so unter Nvidias Erwartungen, dass Nvidia ihre Kapazitäten für GA103 stark erhöhen muss:freak: (Nicht ernst nehmen, hat aber genausoviele Fakten als Grundlage, wie deine "Bestätigung".)
aufkrawall
2020-10-10, 14:26:56
GA100 wird Nvidia aus den Händen gerissen und joa, GA103 würde ich da auch mit rechnen.
Das Prinzip Angebot und Nachfrage ist Neuland für dich? ;D
Hakim
2020-10-10, 15:31:08
Ihr seid mir PC User. Wer Ende des Jahres keine 24GB VRam hat ist nen Konsolen User :tongue:
Die Anforderungen hören doch nicht bei der graka auf, Konsolen haben 8 Cores, sagen wir um noch Puffer zu haben (unoptimierter porttrash), mindestens 10 oder besser 12 cores?
Geht wohl Richtung= alle die am Ende des Jahres keine 5900x + rtx 3090 haben sind...
dargo
2020-10-10, 15:34:38
Nur mal so am Rande... Spiele können nicht die ganzen 8 Cores in Anspruch nehmen. Bei 7C/14T ist schluss.
MiamiNice
2020-10-10, 17:57:22
Geht wohl Richtung= alle die am Ende des Jahres keine 5900x + rtx 3090 haben sind...
Die Gaming Power auf CPU Seite hat der geneigte PC User sowieso seit Jahren in der Kiste. Ist doch wohl klar :wink:
Hakim
2020-10-10, 18:01:03
Die Gaming Power auf CPU Seite hat der geneigte PC User sowieso seit Jahren in der Kiste. Ist doch wohl klar :wink:
Wechselst du auf 5900x oder 5950x? :tongue:
MiamiNice
2020-10-10, 18:05:27
Stehe nicht auf Sidegrades. Bei mit wird es nen Rocket Lake :tongue:
Mayk-Freak
2020-10-10, 18:20:44
Stehe nicht auf Sidegrades. Bei mit wird es nen Rocket Lake :tongue:
Wird auch wieder die beste Gaming CPU werden.
https://abload.de/thumb/bildere7jmk.png (https://abload.de/image.php?img=bildere7jmk.png)
Ex3cut3r
2020-10-10, 18:21:04
Von CoffeeLake auf Raketen Lake ist aber auch nix anderes als ein Sidegrade.
dargo
2020-10-10, 18:26:05
Kurz nach Rocket Lake kommt Zen3+ und Miami ist wieder Konsolenspieler. :freak:
Rampage 2
2020-10-10, 18:32:58
Nur mal so am Rande... Spiele können nicht die ganzen 8 Cores in Anspruch nehmen. Bei 7C/14T ist schluss.
Ich frage mich schon seit Jahren, warum Sony und MS das nicht über einen separaten, externen, billigen Co-Prozessor (oder was Ähnlichem) mit 2-4GB billigem DDR4-Speicher lösen - so hätte man nicht nur den 8. Kern frei, sondern auch noch ein paar zusätzliche GB für den Hauptspeicher - OS und User-Interface brauchen ja keine schnelle, leistungsfähige CPU & RAM. Auf diese Weise könnte beispielsweise die PS5 alle 8 Cores und ihre vollen 16GB Hauptspeicher für Spiele zur Verfügung stellen:uponder:
R2
dargo
2020-10-10, 18:38:10
Ich kann nur spekulieren. Denke aber würde den SoC unnötig verkomplizieren (Wirtschaftlichkeit) und ob Sony/MS dann ihre Ideen mit sowas verwirklichen können ist auch fraglich. Spiele gleichzeitig aufnehmen, zwischen mehreren Spielen in wenigen Sekunden wechseln und was weiß ich noch was die da noch alles mit diesen Multimediakisten vorhaben. Der Speicher dürfte jetzt dank Direct Storage weniger das Problem bei den Konsolen sein.
MiamiNice
2020-10-10, 18:56:21
Von CoffeeLake auf Raketen Lake ist aber auch nix anderes als ein Sidegrade.
Kommt drauf an welche Kerne da rein kommen und wie hoch man den Takt treiben kann. Wenn es nicht lohnt bleibt es 2021 bei altem und es wird ein Alder Lake. 15% im Single Thread sollten es schon sein, sonst lohnt der monetäre Aufwand imo nicht. Dafür geht es aktuell zu schnell mit dem Fortschritt, die Zukunftsaussichten sind zu gut.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.