Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
G7x ist mit HQ auch langsamer als R520 mit HQ. Und dabei filtert Letzterer bereits besser (weniger winkelabhängig) - fast so gut wie G80, sofern man die Sparmaßnahmen abschaltet. Das Grütz-AF hatte bei NV4x/G7x einen simplen, aber nachvollziehbaren Grund: Wenn die TMUs am Ackern waren, durften die ALUs nicht parallel weiterarbeiten. Ziemlich kurioses Design, aber vermutlich gab es dafür gute Gründe, die vielleicht mal irgendwo erwähnt wurden. Ich weiß es nicht.
MfG
Raff
robbitop
2020-09-11, 20:49:00
Auch NV4x und G7x gehören noch zur CineFX uArch. R300 hatte IIRC auch winkelabhängiges AF. Richtig gut war das AF bei ATI erst zur R520. Bei NV war es IIRC bei NV3x gut und bei NV4x/G7x auch winkelabhängig.
Ich sehe es auch so:
G80 auf Platz 1 und R300 auf Platz 2. Jeweils brachiale Leistungssteigerung (besonders bei Spielen mit aufwändigen Pixelshadern) und Features.
Da kam seit 2006 wirklich nichts mehr dran. Also in Bezug auf die relative Steigerung. Insofern grenzt es schon ein wenig an Größenwahn aktuelle Steigerungen mit G80 gleichzusetzen. :D
Das waren noch Zeiten ... :D robbi, NV20 und NV30 beherrschen lupenreines, sehr langsames 8:1 Tri-AF ohne Winkelabhängigkeit. Später wurde NV3x aber auch "optimiert", um gegen die R300-Karten zumindest manchmal einen Stich zu sehen. Die Winkelgrütze kam aus den genannten Gründen erst bei NV4x - und bei AMD verschwand sie erst bei R520. Wir sind hart offtopic, auch wenn ich die alten Geschichten liebe ... :D
Ampere ist leider kein G80, um mal den Bogen zu kriegen.
MfG
Raff
grobi
2020-09-11, 20:53:54
Ich werde von 2070 S auf 3090 umsteigen. Das ist mal eine gute Steigerung. Hoffe das ich auch gleich eine bekommen ohne länger zu warten.
mfg grobi
PingpiN
2020-09-11, 20:54:45
Weiß schon jemand wann die 20 GB Version der 3080 erscheinen wird?
Nachdem neuen Gerüchten wird es defenitiv diese Karte wenn man sie ungefähr für 800 Euro kaufen kann. Amd wird niemals an eine 3080 rankommen.. Schade wollte eigentlich wieder AMD mal ne chance geben. Naja haben ja für mein 3700 X bisschen was bekommen.:P
Rampage 2
2020-09-11, 20:55:26
Das Grütz-AF hatte bei NV4x/G7x einen simplen, aber nachvollziehbaren Grund: Wenn die TMUs am Ackern waren, durften die ALUs nicht parallel weiterarbeiten.
Das weiß ich bereits.;)
Aber wie verschlimmert AF die Pipelinestalls? Etwa, dass durch die erhöhte Texturlast die ALUs länger warten mussten? Hatte die erhöhte Texel-Leistung dem G70 denn GAR NICHT geholfen? :|
Zur Performance: In damaligen Reviews habe ich G70 dem R520 definitiv als überlegen in Erinnerung, insbesondere das 512MB-Modell. Also rein leistungsmäßig. BQ war bei R5xx höher, das stimmt wohl:wink:
R2
Dural
2020-09-11, 20:55:56
Passt doch, ampere hat ja 2,7x mehr alu leistung als turing.
Der vergleich mit g80 passt schon.
BlacKi
2020-09-11, 21:01:41
https://youtu.be/7gSg8fkSVm4
Die karten laufen mit 75grad gpu und sind leiser als die alten turing karten!
wow, tolles video. ziemlich viele infos direkt von der quelle und auch noch in deutsch.
dlss und die erhöhung des PT wurden schön nochmals deutlicher erklärt.
lars meinte, die 350w der 3090 sind deshalb so gewählt, weil bis dahin die leistungsaufnahme noch 1zu1 in performance gemünzt werden kann, bei turing soll das eben nicht so gewesen sein.
das lässt auf OC spielraum hoffen.
ich hoffe die bringen noch mehr solcher videos.
Daredevil
2020-09-11, 21:02:31
*zustimm*
Das Video ist echt klasse. :)
Das weiß ich bereits.;)
Aber wie verschlimmert AF die Pipelinestalls? Etwa, dass durch die erhöhte Texturlast die ALUs länger warten mussten? Hatte die erhöhte Texel-Leistung dem G70 denn GAR NICHT geholfen? :|
Es hat jedenfalls nicht geschadet. ;) Bei alten Spielen ohne komplexe Shader war die Leistung prima. Aber je mehr oder länger die Shader, desto öfter die Pipe-Stalls. Vermutlich waren die Dinger deswegen relativ sparsam, weil da immer etwas ge-eidelt hat ... ;D Das beantwortet auch ...
Zur Performance: In damaligen Reviews habe ich G70 dem R520 definitiv als überlegen in Erinnerung, insbesondere das 512MB-Modell. Also rein leistungsmäßig. BQ war bei R5xx höher, das stimmt wohl:wink:
R2
... diesen Punkt. Mit den Jahren wurde R5x0 immer besser und G7x wanderte immer weiter Richtung Tonne. Gut für Nvidia, dass G80 dann alle Missstände ausräumte.
Passt doch, ampere hat ja 2,7x mehr alu leistung als turing.
Der vergleich mit g80 passt schon.
Fiji hatte auch ~40 Prozent mehr FP32-Leistung als Maxwell ... (https://www.pcgameshardware.de/Geforce-GTX-980-Ti-Grafikkarte-265167/Specials/Geforce-GTX-980-Ti-vs-Radeon-R9-Fury-X-5-Jahre-spaeter-1350843/)
MfG
Raff
The_Invisible
2020-09-11, 21:05:22
wow, tolles video. ziemlich viele infos direkt von der quelle und auch noch in deutsch.
dlss und die erhöhung des PT wurden schön nochmals deutlicher erklärt.
lars meinte, die 350w der 3090 sind deshalb so gewählt, weil bis dahin die leistungsaufnahme noch 1zu1 in performance gemünzt werden kann, bei turing soll das eben nicht so gewesen sein.
das lässt auf OC spielraum hoffen.
ich hoffe die bringen noch mehr solcher videos.
Finde ich auch, warum gibts da nicht mehr davon oder ist es so schwer an die richtigen Leute ranzukommen? :confused:
Passt doch, ampere hat ja 2,7x mehr alu leistung als turing.
Der vergleich mit g80 passt schon.
In wie fern? Wenn die Leaks stimmen sollten, dann sieht es doch bei 25% zu ner Ti mit weniger Speicher, echt Scheiße aus.
Außer der 3090 ist alles Crap was da kommt von NV und den Vergleich zu G80 finde ich eher witzig weil du ziehst ne GPU mit Kultstatus ziemlich weit runter
Rampage 2
2020-09-11, 21:11:13
Es hat jedenfalls nicht geschadet. ;) Bei alten Spielen ohne komplexe Shader war die Leistung prima. Aber je mehr oder länger die Shader, desto öfter die Pipe-Stalls. Vermutlich waren die Dinger deswegen relativ sparsam, weil da immer etwas ge-eidelt hat ... ;D Das beantwortet auch ...
Aber wir rede(te)n ja von AF - inwiefern hat das die Stalls verstärkt? Mussten die ALUs länger warten?
... diesen Punkt. Mit den Jahren wurde R5x0 immer besser und G7x wanderte immer weiter Richtung Tonne. Gut für Nvidia, dass G80 dann alle Missstände ausräumte.
Mag sein - es lag aber vermutlich auch daran, dass beim R5xx-Refresh (R580) die ALU-Pipes verdreifacht wurden und das Nvidia mit dem Erscheinen des G80 die "Optimierungen" auch für den G7x mit späteren Treibern wieder entfernte...?
R2
Troyan
2020-09-11, 21:13:59
wow, tolles video. ziemlich viele infos direkt von der quelle und auch noch in deutsch.
dlss und die erhöhung des PT wurden schön nochmals deutlicher erklärt.
lars meinte, die 350w der 3090 sind deshalb so gewählt, weil bis dahin die leistungsaufnahme noch 1zu1 in performance gemünzt werden kann, bei turing soll das eben nicht so gewesen sein.
das lässt auf OC spielraum hoffen.
ich hoffe die bringen noch mehr solcher videos.
Geht auf jedenfall viel höher als Turing. 2080TI mit 350W ist das absolute Maximum. Bei Ampere scheint das ja so weit zu gehen, dass wohl noch 10%+ Luft ist.
Tesseract
2020-09-11, 21:15:41
R300 hatte IIRC auch winkelabhängiges AF. Richtig gut war das AF bei ATI erst zur R520. Bei NV war es IIRC bei NV3x gut und bei NV4x/G7x auch winkelabhängig.
"gut" ist ein feature wenn es sinnvoll nutzbar ist. das AF vom R300 war deswegen fantastisch weil es so schnell war. die frage ist nicht ob 16xAF am R300 besser als 16xAF aus dem lehrbuch aussieht sondern ob 16xAF am R300 besser als das 2-4xAF aussieht das man stattdessen dafür bekommen würde. damals war geometrie viel simpler mit vielen rechten winkeln und die mit abstand wichtigste textur war fast immer die (meist horizontale) bodentextur die volles 16x bekommen hat. ungünstige winkel waren meist äste, waffen oder sonstiges filigranes zeug wo es kaum aufgefallen ist aber massig leistung eingespart werden konnte. heute wär so eine filterung natürlich abartig schlecht weil die leistung sowieso da ist.
aber das wird jetzt langsam sehr OT.
|MatMan|
2020-09-11, 21:22:30
Es gibt sehr wohl noch Texturen darauf. Digidi extrapoliert ein bisschen. Einfach logisch denken dass man die Geometrie mehrfach instanziert, aber damit das nicht auffällt das material natürlich schon noch unabhängig hat.
Danke für die wie immer sehr fundierte Klarstellung!
Ich fand es nur witzig, wie man auf die Idee kommen kann die Texturen wegzulassen. Wenn grundlegende Dinge unklar / falsch verstanden sind, kommen halt lustige Dinge dabei heraus...
Armaq
2020-09-11, 21:35:07
Ampere ist leider kein G80, um mal den Bogen zu kriegen.
MfG
Raff
Damit ist ja dann auch alles wichtige gesagt. :smile:
Leider warten wir gute 6 Wochen um einen Vergleich zu AMD zu ziehen. Solange Nvidia alleine bei Performance über FHD, ist es halt auch schwer sie zu vergleichen.
Zen1 war schon so angelegt, dass man die Augenbraue lupfte, Zen2 zeigte klar auf, wer die neue Top-Arch hat.
Ampere scheint ein Intel 6700 oder so etwas zu sein. Melke den Kunden bei der vertretbaren Mindestmehrperformance.
Digidi
2020-09-11, 21:37:55
Danke für die wie immer sehr fundierte Klarstellung!
Ich fand es nur witzig, wie man auf die Idee kommen kann die Texturen wegzulassen. Wenn grundlegende Dinge unklar / falsch verstanden sind, kommen halt lustige Dinge dabei heraus...
Wieso ist das so Abwegig. Eine Textur wir hauptsächlich benutzt um den Raum zwischen Polygonen mit Informationen zu füllen und den daraus folgenden Pixeln einen Farbwert zuzuweisen. Wenn ein Polygon so klein ist wie ein Pixel braucht man nicht unbedingt mehr Texturen. Der Pixel bräuchte dann nur eine Farbinformation welche er vorher von den Texturen erhalten hat.
Dural
2020-09-11, 21:49:03
Was kann ampere dafür wenn die hohe fp32 leistung durch die software nicht umgesetzt wird?
60-80% ist heut zu tage einfach sehr viel mehr leistung.
Beim g80 vergleich muss man auch beachten das der g71 überhaupt nichts speizelles war, turing stand heute die beste architektur ist und ampere nur auf diese aufbaut. Ein vergleich ampere mit pascal ist deutlich fairer und da liegen welten dazwischen.
Tesseract
2020-09-11, 21:54:32
Wieso ist das so Abwegig. Eine Textur wir hauptsächlich benutzt um den Raum zwischen Polygonen mit Informationen zu füllen und den daraus folgenden Pixeln einen Farbwert zuzuweisen. Wenn ein Polygon so klein ist wie ein Pixel braucht man nicht unbedingt mehr Texturen. Der Pixel bräuchte dann nur eine Farbinformation welche er vorher von den Texturen erhalten hat.
"zwischen" polygonen passiert garnix. vereinfacht gesagt: wenn ein polygon gerendert wird sehen die TMUs für jedes bildschirmpixel das das polygon abdeckt in der textur nach welchen wert es haben müsste würde man den entsprechenden teil der textur ausschneiden und auf das polygon kleben.
wenn das polygon kleiner als ein pixel ist kommt da natürlich nur ein farbwert raus, dieser muss aber trotzdem dynamisch jeden frame neu ermittelt werden weil filterung mehr ist als nur einen festen wert lesen. würde man jedem micropolygon einen festen farbwert zuweisen würde es in der entfernung flimmern, in der nähe hättest du riesige einfärbige polygone falls diese doch mal größer als pixel werden usw.
primitive mit einem farbwert pro primitiv kann es tatsächlich geben, z.B. punktwolken oder voxel, aber auch da hat man die oben beschriebenen probleme.
Nazar
2020-09-11, 21:55:35
Wie so hat ampere so viel leistung? Nvidia: weil wir es können :biggrin:
Ampere skaliert sehr gut nach oben, es wird immer wie interessanter!
Egal was du für Zeug nimmst, das muss der Hammer sein!
Ich brauche die Adresse deines Dealers! :D
BlacKi
2020-09-11, 21:56:19
Egal was du für Zeug nimmst, das muss der Hammer sein!
Ich brauche die Adresse deines Dealers! :D
https://www.nvidia.com/de-de/
Dural
2020-09-11, 22:00:36
Die aussagen stammen aus dem video von pc welt... :rolleyes:
|MatMan|
2020-09-11, 22:05:48
Wieso ist das so Abwegig. Eine Textur wir hauptsächlich benutzt um den Raum zwischen Polygonen mit Informationen zu füllen und den daraus folgenden Pixeln einen Farbwert zuzuweisen. Wenn ein Polygon so klein ist wie ein Pixel braucht man nicht unbedingt mehr Texturen. Der Pixel bräuchte dann nur eine Farbinformation welche er vorher von den Texturen erhalten hat.
Achso, die Farbinformation bildet man sich dann ein, oder wo kommt die her?
Ich bin hier raus...
Ampere scheint ein Intel 6700 oder so etwas zu sein. Melke den Kunden bei der vertretbaren Mindestmehrperformance.
Dem Eindruck habe ich nicht. Die Mindestmehrperformance hätte man auch einfacher, also ohne Änderungen an der Architektur mit stumpf ein paar mehr SMs erreichen können. Man bekommt es in der Tiefe nicht so mit, aber ich habe schon den Eindruck, dass bei Ampere viel im Detail überarbeitet wurde, nur hat es aus irgendeinem Grund nicht so mit der Energieeffizienz geklappt. Den Effekt der Verbesserungen von Ampere werden wir zukünftig sicher noch sehen.
Nazar
2020-09-11, 22:06:06
Die AF Filter Diskussionen finde ich ja geil.... und dann schaut man sich die DLSS Diskussion dazu in diesem Thread an und die Aussagen bestimmter Personen zu "wie böse winkelabhängiges AF war" und der jetzt angeblich so geilen BQ mit DLSS und schon verspürt man den Drang bei speziellen Kliniken ein paar "Patienten" mit Persönlichkeitsspaltungen melden zu müssen. ;D
Dural
2020-09-11, 22:09:34
Die aussage ist an lächerlichkeit auch kaum zu überbieten, nv gibt jedes jahr einen miliarden beitrag für forschung und entwicklung aus :rolleyes:
Troyan
2020-09-11, 22:11:06
Die AF Filter Diskussionen finde ich ja geil.... und dann schaut man sich die DLSS Diskussion dazu in diesem Thread an und die Aussagen bestimmter Personen zu "wie böse winkelabhängiges AF war" und der jetzt angeblich so geilen BQ mit DLSS und schon verspürt man den Drang bei speziellen Kliniken ein paar "Patienten" mit Persönlichkeitsspaltungen melden zu müssen. ;D
Stimmt. Denn die ganzen miserablen Screen-Space Artefakte sind einfach perfekt für Leute, die BQ wollen. ;D
Digidi
2020-09-11, 22:20:14
"zwischen" polygonen passiert garnix. vereinfacht gesagt: wenn ein polygon redendert wird sehen die TMUs für jedes bildschirmpixel das das polygon abdeckt in der textur nach welchen wert es haben müsste würde man den entsprechenden teil der textur ausschneiden und auf das polygon kleben.
wenn das polygon kleiner als ein pixel ist kommt da natürlich nur ein farbwert raus, dieser muss aber trotzdem dynamisch jeden frame neu ermittelt werden weil filterung mehr ist als nur einen festen wert lesen. würde man jedem micropolygon einen festen farbwert zuweisen würde es in der entfernung flimmern, in der nähe hättest du riesige einfärbige polygone falls diese doch mal größer als pixel werden usw.
primitive mit einem farbwert pro primitiv kann es tatsächlich geben, z.B. punktwolken oder voxel, aber auch da hat man die oben beschriebenen probleme.
Ich hab mich da etwas falsch ausgedrückt. Ich meinte der Raum innerhalb eines Polygons wird mit der Farbinformation der Textur gefüllt. Also das gleiche was du meinst. Danke fürs korrigieren und die Ausführliche Erklärung.
P.s. Die Beschrenkungen sind mir ja bewusst. Deshalb hab ich ja gesagt das wenn man nahe Dran ist am Objekt das Polygon halt noch immer kleiner sein muss als ein Pixel ;)
Lawmachine79
2020-09-11, 22:26:45
Das waren noch Zeiten ... :D robbi, NV20 und NV30 beherrschen lupenreines, sehr langsames 8:1 Tri-AF ohne Winkelabhängigkeit. Später wurde NV3x aber auch "optimiert", um gegen die R300-Karten zumindest manchmal einen Stich zu sehen. Die Winkelgrütze kam aus den genannten Gründen erst bei NV4x - und bei AMD verschwand sie erst bei R520. Wir sind hart offtopic, auch wenn ich die alten Geschichten liebe ... :D
Ampere ist leider kein G80, um mal den Bogen zu kriegen.
MfG
Raff
Ist das geraten oder ein NDA-Verstoß ;)?
Troyan
2020-09-11, 22:32:11
G80 war revolutionär. Ampere ist Turing auf Speed. Also eher so wie GT200.
[MK2]Mythos
2020-09-11, 22:35:24
Ist das geraten oder ein NDA-Verstoß ;)?
:facepalm:
Musst du allen zeigen dass du den Hinweis verstanden hast? Lass es doch so stehen und "freu" dich aufs Review.
TheGood
2020-09-11, 22:36:23
Der ganze Hate kommt doch eh nur von den Lappen, die sich die Kiste nicht leisten können, oder sagen, dass sie das nicht wollen.
Erst bölken die Kids rum, dass 2080ti User Assis sind, weil die Nvidia damit zustimmen, teure Kisten zu verkaufen und dann holen sie sich ne 3070 und fühlen sich geil, die gleiche Leistung zu haben, ohne mal nachzudenken, wo die Kohle für die Forschung herkommt.
Ja mei.
DAs ist genauso ein dummes geschwätz wie von den von dir genannten Kidies.
40% Marge sagt hier noch am meisten aus...
Troyan
2020-09-11, 22:44:45
3070 kommt am 15.10. in die Läden: https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/397315/rtx-3080-founders-edition-review-date-sept-16th-/
robbitop
2020-09-11, 22:45:42
Passt doch, ampere hat ja 2,7x mehr alu leistung als turing.
Der vergleich mit g80 passt schon.
Leistung zählt. Und zwar top dog vs top dog. Und da werden es bestenfalls +60%. 2080ti vs 3090.
Das weiß ich bereits.;)
Aber wie verschlimmert AF die Pipelinestalls? Etwa, dass durch die erhöhte Texturlast die ALUs länger warten mussten? Hatte die erhöhte Texel-Leistung dem G70 denn GAR NICHT geholfen? :|
Zur Performance: In damaligen Reviews habe ich G70 dem R520 definitiv als überlegen in Erinnerung, insbesondere das 512MB-Modell. Also rein leistungsmäßig. BQ war bei R5xx höher, das stimmt wohl:wink:
R2
Da hatte die g70 Glück, dass die Shaderlast in den damaligen Spieleparcours noch moderat war. Oblivion und insbesondere Crysis ließen G7x und NV4x zusammenbrechen. Entweder Pixel oder Aritmetikberechnen. Nicht beides gleichzeitig. Je mehr Arithmetik desto mehr brach CineFX ein.
Dural
2020-09-11, 22:49:28
Wenn man ein gutes produkt abliefert darf man auch gutes geld verdienen
Und nur so zur info, es sind keine 40% sondern eher 50% + marge mit ampere ;)
robbitop
2020-09-11, 22:53:30
Wenn man ein gutes produkt abliefert darf man auch gutes geld verdienen
Und nur so zur info, es sind keine 40% sondern eher 50% + marge mit ampere ;)
Super für die Investoren. Schlecht für den Markt und die Endkunden. Wie man sich als Endkunde darüber freuen kann, bleibt mir schleierhaft.
"gut" ist ein feature wenn es sinnvoll nutzbar ist. das AF vom R300 war deswegen fantastisch weil es so schnell war. die frage ist nicht ob 16xAF am R300 besser als 16xAF aus dem lehrbuch aussieht sondern ob 16xAF am R300 besser als das 2-4xAF aussieht das man stattdessen dafür bekommen würde. damals war geometrie viel simpler mit vielen rechten winkeln und die mit abstand wichtigste textur war fast immer die (meist horizontale) bodentextur die volles 16x bekommen hat. ungünstige winkel waren meist äste, waffen oder sonstiges filigranes zeug wo es kaum aufgefallen ist aber massig leistung eingespart werden konnte. heute wär so eine filterung natürlich abartig schlecht weil die leistung sowieso da ist.
aber das wird jetzt langsam sehr OT.
Naja. Es ist schon doch häufiger mal aufgefallen. HL2 fällt mir ganz spontan ein. IMO war das nicht nur aus Performancegründen, sondern auch um Transistoren zu sparen (LoA Berechnung). R300 war für seine Zeit im alten 150nm ziemlich riesig.
y33H@
2020-09-11, 23:21:45
NDA um zwei Tage verschoben ...
https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/397315/rtx-3080-founders-edition-review-date-sept-16th-/
masked__rider
2020-09-11, 23:22:53
Also die Aorus Kühler sind schon richtige Trümmer:
https://www.youtube.com/watch?v=gAhGlkXQ10k
@y33H@
Ah, come on xD
Digidi
2020-09-11, 23:36:09
NDA um zwei Tage verschoben ...
https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/397315/rtx-3080-founders-edition-review-date-sept-16th-/
Warum denn das? Haben nicht alle reviewer Ihre karten bekommen? Habe mich so auf den 14 gefreut nach 2 jahren neuer Lesstoff XD
"Get ready for benchmark" deutet darauf hin das wohl vielleicht noch nicht der finale Treiber raus ist?
Lawmachine79
2020-09-11, 23:37:49
Mythos;12422401']:facepalm:
Musst du allen zeigen dass du den Hinweis verstanden hast? Lass es doch so stehen und "freu" dich aufs Review.
Ich habe das nicht als Hinweis gesehen und sehe es auch jetzt nicht als solchen.
Tesseract
2020-09-11, 23:41:35
Naja. Es ist schon doch häufiger mal aufgefallen. HL2 fällt mir ganz spontan ein. IMO war das nicht nur aus Performancegründen, sondern auch um Transistoren zu sparen (LoA Berechnung). R300 war für seine Zeit im alten 150nm ziemlich riesig.
ich wollte damit nicht sagen, dass sie absichtlich diese formel genommen haben um samples zu sparen sondern dass diese formel in der praxis verhältnismäßig gut aussah dafür wie viele samples eingespart wurden. dreht man stattdessen den AF grad global ein paar stufen runter (und damit die wichtigen 0° texturen) ist das stärker sichtbar.
das ganze design vom R300 ist auf "gerade so gut genug" ausgelegt (z.B. auch nur FP24) und dafür breit, genau das hat features wie shader, AA oder AF nutzbar gemacht.
Sunrise
2020-09-11, 23:51:41
Super für die Investoren. Schlecht für den Markt und die Endkunden. Wie man sich als Endkunde darüber freuen kann, bleibt mir schleierhaft.
Dass ist zwar richtig, allerdings muss man trotz NVs immernoch quasi-Monopol ab bestimmer GPU-Leistung (High-End/Enthusiast) auch sagen, dass NV auch einiges für den PC-Markt tut und da viel davon dann reinvestiert wird um den Markt so gut es geht am Leben zu halten (Konsolen graben immer mehr Marktanteil ab) und voran zu bringen. Die Preise sind aus meiner Sicht jetzt ganz gut, und könnten wieder mit Konkurrenz evtl. sogar noch besser werden, bzw. man bekommt nochmal mehr...der Endkunde hat auch etwas davon.
Denn sobald AMD hier endlich wieder einigermaßen mitspielt wird es noch besser, und NV kann sich im Endeffekt nicht auf der höheren Marge ausruhen, sondern muss ordentlich in den Fortschritt investieren, damit die Produkte relativ immer besser sind. Sowas kommt natürlich dann nicht aus dem Nichts, das kostet richtig. Bisher war das kein großer Faktor da NV fast schon machen konnte, was sie wollten, das ändert sich aber Ende des Jahres “etwas”, um es mal runterzureden...
IMHO kann man ihnen ankreiden, dass es seit Jahren nichtmehr TSMC ist und das ganz bewusst, das sieht von außen erstmal nach Sparmaßnahme aus, da TSMC der Technologieführer ist, der NV ja auch sein will/ist. Die TDP ist gestiegen, aber laut NV soll das auch sehr gut skalieren (werden wir dann sehen). Aber selbst damit im Hinterkopf, empfinde ich den Sprung unter dem Hintergrund der immer schwieriger werdenden Steigerungen der puren Rohleistung als gut, vor allem weil wir hier ja nicht nur Rohleistung bewerten dürfen, sondern insgesamt die Möglichkeiten, die Spiele mit Ampere haben werden, und da ist eben massiv mehr von allem da. Man muss NV zugute halten, dass RT hier früh in den Markt eingeführt wurde.
IMHO ist es nicht realistisch, immer komplexer werdende Ergebnisse zu erwarten, gleichzeitig massive Leistungssteigerungen...wenn das Umfeld schon praktisch am Limit ist, denn G80 in seiner Zeit hatte auch viel mehr Die-size, ein komplett neuer Prozess - allein dadurch wurde die Produktion auch massiv teurer, dann die ganzen Arch-Verbesserungen... Es kamen viele Investitionen zur gleichen Zeit in ein Produkt, als der Markt auch noch recht gut funktionierte.
Ich denke NV macht da dennoch vieles richtig, auch wenn es wirklich nervige Entscheidungen gibt, die NVs Position sichern sollen. Dennoch kann auch NV nichts dafür, dass die Konkurrenz nicht in der Lage war, mit ihnen mitzuhalten, so hart das auch klingt. NV und auch ATi/AMD hatten schließlich einen großen Anteil daran, dass hier keiner mehr im PC-Markt mithalten konnte. Das ging alles nicht ohne massive Investitionen in R&D und das wird auch eher schlimmer statt besser.
Damit ist ja dann auch alles wichtige gesagt. :smileÄh, nein? Es könnte auch ein Pascal sein - zwar kein G80, aber trotzdem absolut überzeugend. Einzig der RAM spricht aktuell dagegen.
Armaq
2020-09-11, 23:58:03
NDA um zwei Tage verschoben ...
https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/397315/rtx-3080-founders-edition-review-date-sept-16th-/
Also kommt ein neuer Treiber der das Powermanagement etwas anders regelt? Ist ja auch fies, Freitag Abend, hast 80% der Benchmarks in der Tasche, denkst du dir, ach bis Dienstag bekomme ich das schon hin und puff bekommst du Sonntag neue Software, die du unbedingt nutzen musst ...
monstar-x
2020-09-12, 00:17:20
3080 ca 15 % vor meiner TI? Boah.
Das stimmt auch aber auch nur in so fern, wenn die 3080 sich genau um 0% übertakten lässt.
Sind auf den Customs kartem 10% möglich, sind es wieder >25% (Wovon ich stark ausgehe)
Radeonfreak
2020-09-12, 00:23:15
Ja ich weiß. ;)
Bin schon gespannt auf die ersten Tests.
Ein Wechsel kommt aber trotzdem nicht infrage, es lohnt einfach nicht.
MiamiNice
2020-09-12, 00:23:59
NDA um zwei Tage verschoben ...
https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/397315/rtx-3080-founders-edition-review-date-sept-16th-/
Ist dat nen Joke?
Ich will auch was von dem Zeug das Jensen nimmt -.-
-=Popeye=-
2020-09-12, 00:38:35
Wie oft denn noch... die RTX3080 ist nicht der Nachfolger der RTX2080Ti. Genauso wenig war die RTX2080 nie der Nachfolger der GTX1080Ti... aber wie es scheint gibt es genug Deppen die genau dass annehmen.
Cubitus
2020-09-12, 00:54:06
Es lohnt sich, wenn überhaupt, für 2080ti Besitzer nur die 3090...
Aber die jetzige Leistung reicht noch aus um entspannt zu warten..
Nur all zu lange auch nicht, wenn man diese Genration erleben will, sollte man sich überlegen, zügig zu wechseln.
Da bei dem hohen Anschaffungspreis durch die Monate der Nutzungsdauer gerechnet werden muss..
1500 Euro/24 sind halt dann 62 Euro "Mitgliedsbeitrag" im Monat.
Wer nach einem Jahr erst wechselt zahlt so gesehen 124 Euro Monat und hat nach einem Jahr schon die neue Gen vor der Türe stehen.
Die Preise bleiben stabil, Nvidia zieht das so durch..
Außer man wartet dann wieder.. Wer aber prinzipiell eher dazu tendiert, das Schnellste haben zu wollen der wechselt besser gleich am Anfang..
Natürlich ließe sich diese Gen auch komplett aussitzen, macht aber keinen Spaß ;D
monstar-x
2020-09-12, 01:06:40
1500 Euro/24 sind halt dann 62 Euro "Mitgliedsbeitrag" im Monat.
Ist dass deine Finanzierungsrate der Bank oder einfach nur eine (eine Grundlage um den kauf schön zu rechen) Milchmädchenrechnung ;D ;D ;D
*spass
Cubitus
2020-09-12, 01:18:06
Ist dass deine Finanzierungsrate der Bank oder einfach nur eine (eine Grundlage um den kauf schön zu rechen) Milchmädchenrechnung ;D ;D ;D
*spass
Alles gut, aber man muss das halt so sehen wie es ist..
Als Enthusiast wechselst du eben alle zwei Jahre..
Wenn du jetzt nicht wechseln willst, dann muss dir klar sein diese Genration einfach auszusitzen.
Die Preise werden sich nicht ändern, es wird höchstens teurer (Boardpartner) und längere Zeit Lieferengpässe geben (Nvidia)
Blöde ist halt das der Gerbrauchtmarkt ruiniert ist.. Somit könnte man eine seine 2080ti auch einfach behalten und Spaß haben..
Solange man in 1080p spielt, ist die 2080ti noch Pfennig gut...
und zu dem monatlichen Beitrag, kenne Leute die sich in Edel-Sportclubs für 60+ Euro angemeldet haben, nur um ihr Gewissen zu beruhigen..
Und dann geht man nicht hin....:freak:
Finanziert wird bei mir nix.. Cash auf den Tisch und gut ist xD
Badesalz
2020-09-12, 01:21:51
OHNE eine Meinung dazu, ob die 10GB lachhaft sind oder nicht. Nur rein sachlich betrachtet.
Wenn es um den Speicher geht sehr relevant wenn man bei so einer Bomben Grafik nur noch mit 768 MB auskommt ;) Ihr befeurt doch die Ram diskussion!Ja. du tust es jedenfalls nicht... Für deine 768MB brauchst du
a) ein PCIe4.0/Nvme System, mit einer SSD die mind. 4 GB/s schaufelt
b) du brauchst dafür eine Engine mit... Mikropolygonen :rolleyes:
c) du brauchst dafür eine GPU die effektiv (mit Entpacken) 10 GB/s DirectStorage macht, ohne, daß ihr das auf die Frametimes schlägt (vorzugsweise, der Rest ist ja sonst direkt Showstopper)
d) du brauchst den Zeitpunkt, ab dem die Hersteller befinden, daß sich das für den PC (!) lohnt so zu coden, weil das dann bei ausreichend vielen Leute auch wirklich was bringt bzw. auseichend viele Leute was davon haben
Was hat jetzt der frisch gewordene 3080/10GB Besitzer davon? NICHTS. Bis in etwa Ende "2021" jedenfalls, hat er nichts davon. Bis dahin schlägt er sich mit seinen 10GB auf die klassische Weise...
Rampage 2
2020-09-12, 01:52:42
Das waren noch Zeiten ... :D robbi, NV20 und NV30 beherrschen lupenreines, sehr langsames 8:1 Tri-AF ohne Winkelabhängigkeit.
Korrektur an dieser Stelle: das "langsame" AF galt nur NV25 (GeForce 4) und NV30 (GeForce FX). Beim NV20 (GeForce 3) war es sehr performant - was auch immer Nvidia am NV25 vermasselt hat, dass es nicht mehr so schnell lief:freak:
Leistung zählt. Und zwar top dog vs top dog. Und da werden es bestenfalls +60%. 2080ti vs 3090.
Wollte ich auch darauf antworten: Ampere scheint ein Schritt rückwärts zu sein, was Einheiten-Effizienz (Auslastung, Perf pro SP) angeht - ich frage mich echt, warum Nvidia nicht die Zahl der SMs (und damit die Kontrollogik) verdoppelt hat bei gleicher Anzahl Recheneinheiten (also z.B. 10752 SPs beim GA102, aber in doppelt so viele SMs aufgeteilt) ? :|
G80 war da ein ganz anderes Pferd: das Mehr an Rohleistung wurde auch 100% (oder sogar mehr) in mehr echte Performance umgesetzt. Da ist ein Vergleich mit Ampere ziemlich daneben...
Da hatte die G70 Glück, dass die Shaderlast in den damaligen Spieleparcours noch moderat war. Oblivion und insbesondere Crysis ließen G7x und NV4x zusammenbrechen. Entweder Pixel oder Aritmetikberechnen. Nicht beides gleichzeitig. Je mehr Arithmetik desto mehr brach CineFX ein.
Ich will diesen Thread eigentlich nicht weiter derailen, aber habe immer noch keine Antwort auf die eigentliche Frage bekommen. Zuerst aber bzgl. Oblivion:
Ich hatte schon geahnt, dass du Oblivion erwähnen wirst, aber...
ROPs von G71/G73 deutlich besser als von G70 in Oblivion (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=301387)
Oblivion ist nen großer Haufen Codescheiße. Soweit mein Senf dazu...
Anscheinend lief das Spiel mit so ziemlich jeder Karte (auch ATI-Karten!) relativ schlecht - bei Nvidia kamen anscheinend auch noch Spiel- und Treiber-Bugs ins Spiel:wink:
Zu den Pipelinestalls: Ich hab' schon verstanden, dass die CineFX-Architektur ALU- und TEX-Operationen nicht gleichzeitig ausführen kann und Beides sich deswegen gegenseitig blockiert; ich hab' auch verstanden, dass das schlimmer wird, wenn die Shaderlast steigt. Was ich nicht verstanden habe, ist, wie/warum AF das ebenfalls verschlimmert - meine naheliegende Vermutung ist, dass mit AF die Texturlast steigt und damit die ALUs länger warten müssen... ist das korrekt? (ihr wisst es ja viel besser;))
R2
TheAntitheist
2020-09-12, 02:32:29
b) du brauchst dafür eine Engine mit... Mikropolygonen :rolleyes:
noch nie den Begriff gehört aber entweder meinst du das die Polys der Models kleiner sind als ein Pixel, das gibts schon länger als 10 Jahre.
Oder du meinst subdiv/tesselation was es auch schon lange gibt :confused:
der letzte GT Teil der PS3 hatte das sogar.
=Floi=
2020-09-12, 05:44:49
Ampere scheint ein Intel 6700 oder so etwas zu sein. Melke den Kunden bei der vertretbaren Mindestmehrperformance.
sorry, aber das ist einfach schwachsinn. Der RTX schritt ist ein sehr großer und sehr schwerer schritt und er ist wie zb bei der GF3 ein sehr früher.
Jammert an ampere nicht rum, weil man auch beim chip viel mehr wegstreichen können. Technisch ist die karte top. Auch an der chip größe sieht man, dass man wieder nahe ans limit ging.
Beim ram kann man ganz klar sagen, dass der kunde nicht kaufen braucht.
Beim G80 gab auch die software größere steigerungen her!
TheGood
2020-09-12, 07:02:39
Wenn man ein gutes produkt abliefert darf man auch gutes geld verdienen
Und nur so zur info, es sind keine 40% sondern eher 50% + marge mit ampere ;)
Dann soll aber keiner mit den hohen Entwicklungskosten kolpotieren....
Grundsätzlich kann ich die Aussage verstehen, aber bei diesen Margen fühle ich mich als Kunde verarscht und vielleicht werden irgendwann auch andere das so sehen.
Wenn man ein gutes produkt abliefert darf man auch gutes geld verdienen
Und nur so zur info, es sind keine 40% sondern eher 50% + marge mit ampere ;)
Quelle? Wenn das stimmen würde, wäre es Wucher am Kunden.
Ich glaub deinen Postings zu irgendwelchen Zahlen seitens Nvidia nicht ohne stichhaltige Belege. Behaupten kann jeder ...
woodsdog
2020-09-12, 07:56:11
Ich will diesen Thread eigentlich nicht weiter derailen, aber habe immer noch keine Antwort auf die eigentliche Frage bekommen.
R2
Doch, hast du. 3 Mal schon. Stop it.
Wie oft denn noch... die RTX3080 ist nicht der Nachfolger der RTX2080Ti. Genauso wenig war die RTX2080 nie der Nachfolger der GTX1080Ti... aber wie es scheint gibt es genug Deppen die genau dass annehmen.
Ja, ich frage mich auch wie oft ich ^ diesen ^ Mist eigentlich noch lesen muss.
- NV betitelt die 3080 offiziell als "The new Flagship".
- Es gibt keine TI
- Die 3090 ist Titan-Replacement
- zwischen 3080 und 3090 liegen gerade mal 20% Hardware, ~15% geschätzte Leistung.
Die 3080 IST bis auf weiteres der TI Nachfolger. Ob dir das gefällt oder in das Weltbild passt interessiert da nicht.
Vielleicht ändert sich das in einem Refresh, das kann aber nur Lederjacke sagen.
DrMabuse1963
2020-09-12, 08:27:44
@Badesalz, Punkt A stimmt nicht, ich meine es war ein Artikel von Raff wo steht das auch ne HDD auf PCI-3 funzt wenn ich mich nicht täusche.
Solltest du explizit das Beispiel meinen ist natürlich alles gut.
ChaosTM
2020-09-12, 08:42:50
Eine 3080 Hyper (Super hatten wir schon) kommt so sicher wie das Amen im Gebet. Mit 20Gb und 1-1.3K. Die Frage ist ob "zeitnah" oder erst in einem Jahr..
Add.: das gleiche gilt für die 48GB Titan - NV lässt das niemals aus.
Daredevil
2020-09-12, 08:45:54
Ja, ich frage mich auch wie oft ich ^ diesen ^ Mist eigentlich noch lesen muss.
- NV betitelt die 3080 offiziell als "The new Flagship".
- Es gibt keine TI
- Die 3090 ist Titan-Replacement
- zwischen 3080 und 3090 liegen gerade mal 20% Hardware, ~15% geschätzte Leistung.
Die 3080 IST bis auf weiteres der TI Nachfolger. Ob dir das gefällt oder in das Weltbild passt interessiert da nicht.
Vielleicht ändert sich das in einem Refresh, das kann aber nur Lederjacke sagen.
Ehm.
Nvidia spricht selber davon, das sie keine Preise gesenkt haben, und die Nachfolger ganz klar zu erkennen sind.
2070s>3070
2080s>3080
2080ti>Nichts
RTX Titan > 3090
Deine Meinung mag eine andere sein, Nvidia darf aber selber entscheiden, wer der Nachfolger ist.
Die 2080ti war ein Halo Produkt, deswegen will sich jeder damit messen. Der Porsche im Golf Kostüm.
( Quelle: PC Welt Interview )
MiamiNice
2020-09-12, 09:15:27
Sehe ich auch so.
Muss ich wohl doch die hässliche Founder Edition bestellen....
https://www.youtube.com/watch?v=SxtfNcm45xk&ab_channel=Moore%27sLawIsDead
nordic_pegasus
2020-09-12, 09:51:49
Ehm.
Nvidia spricht selber davon, das sie keine Preise gesenkt haben, und die Nachfolger ganz klar zu erkennen sind.
2070s>3070
2080s>3080
2080ti>Nichts
RTX Titan > 3090
Deine Meinung mag eine andere sein, Nvidia darf aber selber entscheiden, wer der Nachfolger ist.
Die 2080ti war ein Halo Produkt, deswegen will sich jeder damit messen. Der Porsche im Golf Kostüm.
( Quelle: PC Welt Interview )
Nvidia hat noch nie (in jüngster Zeit) das komplette Line-Up mit dem initialen Launch einer Generation vorgestellt. Wenn ich mir z.B. Pascal anschaue, war zunächst die GTX1080 für 10 Monate alleine am Markt, bis dann der wahre Top-Dog in Form der GTX1080Ti released wurde. Wenn man GTX1080Ti schon vorher haben wollte, durfte man dann die TitanX kaufen, welche dann obsolet wurde und durch die Titan Xp ersetzt wurde.
Bei Turing habe viele Reviewer zum Launch der RTX2080/2080Ti den Preisanstieg schön geredet, dass die Karten jeweils ein Product-Tier nach oben gerutscht wären. Also die RTX2080Ti wäre der Nachfolger der TitanXp. Dann kam 3 Monate nach Turing Launch kurz vor Weihnachten 2018 die Titan RTX. Ferner war die RTX2080 überraschend kein TU104 Vollausbau... somit war dann Luft für einen Super-Refresh in 2019.
Wenn ich jetzt auf die Ampere Karten bzw. GA102/104 Chips schaue, fällt auf, dass kein Chip bislang als Vollausbau verwendet wird. Die Spatzen pfeifen die 16/20GB Varianten der 3070/3080 von den Dächern. Micron kündigt schnelleren GDDR6X mit doppelter Kapazität für Anfang 2021 an. Und Portierungen auf TSMC 7nm werden auch gerne spekuliert. Darum sollte relativ klar sein, dass Nvidia bewusst noch Lücken um Portfolio gelassen hat für weitere Karten, entweder als Ergänzungen zum ersten Line-Up oder als Refresh. Egal ob die Karte 3090Super oder TitanA benannt wird, es wird noch etwas über der 3090 geben (voller GA102, ggfs. 48GB Speicher, zumindest 21Gbps Module). Ferner wird sicherlich eine 3070(Super/Ti) mit vollem GA104 kommen. Und dann reden wir nochmal über das Preisgefüge bei Nvidia.
MiamiNice
2020-09-12, 09:52:14
Muss ich wohl doch die hässliche Founder Edition bestellen....
https://www.youtube.com/watch?v=SxtfNcm45xk&ab_channel=Moore%27sLawIsDead
Den Typ kann man doch kaum ertragen. Der AMD Fanboi vorm Herrn ��
Wenn ich jetzt auf die Ampere Karten bzw. GA102/104 Chips schaue, fällt auf, dass kein Chip bislang als Vollausbau verwendet wird. Die Spatzen pfeifen die 16/20GB Varianten der 3070/3080 von den Dächern. Micron kündigt schnelleren GDDR6X mit doppelter Kapazität für Anfang 2021 an. Und Portierungen auf TSMC 7nm werden auch gerne spekuliert. Darum sollte relativ klar sein, dass Nvidia bewusst noch Lücken um Portfolio gelassen hat für weitere Karten, entweder als Ergänzungen zum ersten Line-Up oder als Refresh.
Ist doch eh vollkommen klar. NV einziger Grund die Karten so günstig zu machen sind AMD und Intel. Lassen sich dafür auch dafür auch noch von der Masse feiern - ist an Scheinheiligkeit nur von Epic zu überbieten. Nächstes Jahr kommen dann die Super Refreshes mit doppeltem Speicher und 200-300 Steinen mehr kosten + eine Ampere Titan. Bis dahin haben sie alle, die das nicht hinterfragen und sich von den Preisen blenden lassen, abgefischt. Dann kommt der Refresh und damit fischen sie die den Rest + Turing Besitzer ab. Aus Marketing Sicht sicher das beste was man machen kann. Menschlich gesehen sollte sich NV schämen. Sie lassen keinen Platz für Konkurrenz und manipulieren Menschen.
Also kommt ein neuer Treiber der das Powermanagement etwas anders regelt? Ist ja auch fies, Freitag Abend, hast 80% der Benchmarks in der Tasche, denkst du dir, ach bis Dienstag bekomme ich das schon hin und puff bekommst du Sonntag neue Software, die du unbedingt nutzen musst ...
Wo steht etwas von Power Management? :confused:
Am Rande bemerkt: Es wäre das nicht das erste Mal, dass ein spät gefundener Bug in Treiber und/oder Firmware Benchmarks und somit Stunden an mühsamer Arbeit vernichtet. Zeit ist ja skalierbar und ein freies Wochenende ist eh was für Weicheier. Davon sehe ich aber gottseidank nichts.
MfG
Raff
ChaosTM
2020-09-12, 10:10:05
Die Verspätung konnte nur was mit kaputten Treibern zu tun haben - viel Arbeit umsonst ..
Sardaukar.nsn
2020-09-12, 10:12:46
Unboxing mehrerer exotischer 3080. Ich versteh kein Wort, aber es sind ein paar richtige Klopper dabei.
VMYTxVl7_UE
Gouvernator
2020-09-12, 10:31:19
Muss ich wohl doch die hässliche Founder Edition bestellen....
https://www.youtube.com/watch?v=SxtfNcm45xk&ab_channel=Moore%27sLawIsDead
Der Typ erzählt alles aus seiner amerikanisch-kapitalistischen Perspektive warum NV das macht was die macht. Aber den Elefanten im Raum sieht er irgendwie nicht? Nämlich TSMC 7Nm. Es ist für mich viel logischer warum NV Kartenverkauf künstlich verknappt, wenn sie in Kürze was neues aus TSMC 7nm Produktion nachschieben. Die künstliche Verknappung seitens NV ist eher ein Hint auf was Besseres in Kürze als eine kapitalistische Strategie von Jensen. Wenn nach dem Launch die 3090 für ein paar Tage für einen Normalsterblichen verfügbar wird, dann kaufe ich eine. Wenn nicht dann auch besser so - lieber warten auf TSMC 7nm/NAVI.
MiamiNice
2020-09-12, 10:44:02
Die Verspätung konnte nur was mit kaputten Treibern zu tun haben - viel Arbeit umsonst ..
NVs Treiber reifen seit Jahren. Hört sich für mich nicht sehr realistisch an. Dachte jetzt eher daran das man irgendwie irgendwas erst jetzt freischaltet.
MasterElwood
2020-09-12, 10:49:11
Eine 3080 Hyper (Super hatten wir schon) kommt so sicher wie das Amen im Gebet. Mit 20Gb und 1-1.3K. Die Frage ist ob "zeitnah" oder erst in einem Jahr..
Add.: das gleiche gilt für die 48GB Titan - NV lässt das niemals aus.
"Super" = Refresh - keine Stufe höher/dazwischen. :facepalm:
ChaosTM
2020-09-12, 10:53:52
Wenn die Super/Hyper/Ti gleich nach dem AMD Launch kommen sollte, ist es definitiv kein Refresh sondern eine neue Stufe.
add.: ich rechne mit 2 zusatzlichen Rahmstufen ..
BigBangBacket
2020-09-12, 10:54:39
Wo steht etwas von Power Management? :confused:
Am Rande bemerkt: Es wäre das nicht das erste Mal, dass ein spät gefundener Bug in Treiber und/oder Firmware Benchmarks und somit Stunden an mühsamer Arbeit vernichtet. Zeit ist ja skalierbar und ein freies Wochenende ist eh was für Weicheier. Davon sehe ich aber gottseidank nichts.
MfG
Raff
Freie Wochenenden sind nur was für Konsolentester...
Es ist für mich absolut nicht nachvollziehbar wieso man die 3080 als Nachfolger der 2080ti ansieht. Das ist ja komplett an der Realität und Logik vorbeigedacht.
Und nur zur Sicherheit. Die 3080 sehe ich persönluch auch nicht als Nachfolger der 3080 Super an. Sehr seltsam manchmal
Armaq
2020-09-12, 10:55:44
Heizt euch nicht zu sehr auf. Nvidia selbst hat diesen Vergleich angestrebt in ihrem Launch, also müssen sie das jetzt auch aushalten.
nordic_pegasus
2020-09-12, 10:58:40
add.: ich rechne mit 2 zusatzlichen Rahmstufen ..
hmm... jetzt wird es auch noch kulinarisch. Kein Wunder, das Jensen die Karten in der Küche präsentiert hat.
-Ninetails-
2020-09-12, 11:02:21
Ich kann gerade nicht so richtig folgen. Welche Karte von welcher anderen Karte der Nachfolger ist, ist weshalb nochmal relevant?
BigBangBacket
2020-09-12, 11:03:46
hmm... jetzt wird es auch noch kulinarisch. Kein Wunder, das Jensen die Karten in der Küche präsentiert hat.
😂😂sehr gut....dafür gibt es diesen hier...fang ihn auf 😘
MiamiNice
2020-09-12, 11:04:12
Ich kann gerade nicht so richtig folgen. Welche Karte von welcher anderen Karte der Nachfolger ist, ist weshalb nochmal relevant?
Damit man sich einreden kann das die aktuelle Karte nicht krass out performed wird und man sein Gewissen beruhigt.
BigBangBacket
2020-09-12, 11:05:49
Ich kann gerade nicht so richtig folgen. Welche Karte von welcher anderen Karte der Nachfolger ist, ist weshalb nochmal relevant?
Ja gut wenn man alles mit allem vergleichen kann, können wir ja auch sagen das die 3090 der Nachfolger der 3060ti ist. Ist ja auch eine Null mit drin.
BlacKi
2020-09-12, 11:10:14
Heizt euch nicht zu sehr auf. Nvidia selbst hat diesen Vergleich angestrebt in ihrem Launch, also müssen sie das jetzt auch aushalten.
wo denn das? alles was ich mitbekommen habe ist der vergleich gegen die 2080. ist ja auch logisch. die 3080 ist der nachfolger der 2080, zumindest namens und preistechnisch.
rentex
2020-09-12, 11:17:37
Der Typ erzählt alles aus seiner amerikanisch-kapitalistischen Perspektive warum NV das macht was die macht. Aber den Elefanten im Raum sieht er irgendwie nicht? Nämlich TSMC 7Nm. Es ist für mich viel logischer warum NV Kartenverkauf künstlich verknappt, wenn sie in Kürze was neues aus TSMC 7nm Produktion nachschieben. Die künstliche Verknappung seitens NV ist eher ein Hint auf was Besseres in Kürze als eine kapitalistische Strategie von Jensen. Wenn nach dem Launch die 3090 für ein paar Tage für einen Normalsterblichen verfügbar wird, dann kaufe ich eine. Wenn nicht dann auch besser so - lieber warten auf TSMC 7nm/NAVI.
Machst du gerade alles am Fertigungsprozess fest?!
Ampere scheint ja ebenfalls mit Samsung 8nm zu funktionieren?
Zum x-ten Mal, die GPU ist nicht der Energiefresser und Temperaturtreiber!
Badesalz
2020-09-12, 11:34:22
Zum x-ten Mal, die GPU ist nicht der Energiefresser und Temperaturtreiber!Also... ich schätze nicht, daß man gleich den Löwenanteil der 320 oder 350W, selbst beim GDDR6X, jenem zuschreiben kann. Oder was meinst du?
Tesseract
2020-09-12, 11:55:44
weiß nicht ob das schon irgendwo offiziell gesagt wurde aber da ampere relativ "krumme" shaderzahlen hat habe ich mal etwas rumgetüftelt wie der innere aufbau aussehen könnte:
GA102: 6 GPC mit je 14 SM mit 2 bzw. 16 deaktivierten SM für 3090 und 3080
GA104: 4 GPC mit je 12 SM mit 2 bzw. 10 deaktivierten SM für 3070 und 3060Ti
der aufbau der SM mit 64 FP32 und 64 FP32/INT32 hybriden für insgesamt 128 FP32 pro SM ist ja schon bekannt.
Muss ich wohl doch die hässliche Founder Edition bestellen....
https://www.youtube.com/watch?v=SxtfNcm45xk&ab_channel=Moore%27sLawIsDead
Der Typ erzählt alles aus seiner amerikanisch-kapitalistischen Perspektive warum NV das macht was die macht. Aber den Elefanten im Raum sieht er irgendwie nicht? Nämlich TSMC 7Nm. Es ist für mich viel logischer warum NV Kartenverkauf künstlich verknappt, wenn sie in Kürze was neues aus TSMC 7nm Produktion nachschieben. Die künstliche Verknappung seitens NV ist eher ein Hint auf was Besseres in Kürze als eine kapitalistische Strategie von Jensen. Wenn nach dem Launch die 3090 für ein paar Tage für einen Normalsterblichen verfügbar wird, dann kaufe ich eine. Wenn nicht dann auch besser so - lieber warten auf TSMC 7nm/NAVI.
Zwei schöne Beispiel für den Versuch eine Logik aus starkem Informationsmangel heraus zu bilden. Genauso entstehen Religionen, Verschwörungstheorien und Beziehungsprobleme.
Das Wissen um Unwissenheit eine der wichtigsten Dinge für den Fortschritt der Menschheit. Ich bin aktuell verwundert, dass unsere Gesellschaft damit immer noch überhaupt nicht umgehen kann.
Nvidia hat Kapazitäten bei Samsung gebucht. Wir werden nicht zeitnah einen Wechsel erleben. Nächstes Jahr beim Refresh werden die Karten dann neu gemischt. Dann gibt es auch bei Samsung mindestens 7nm und bei Micron passenden Speicher für einen günstigen größeren Speicherausbau.
Leonidas
2020-09-12, 12:05:13
Und immer noch keine News zur 3070 Ti/Super (GA104-Full mit doppeltem Speicher) ? :frown:
Nein. Ich vermute, NV wird das so lange zurückhalten, bis klar ist, was RDNA2 macht.
Cyberfries
2020-09-12, 12:07:24
...wie der innere aufbau aussehen könnte:
Das wurde bereits in den Technik-Artikeln erklärt. Zitat von Computerbase:
Der große Gaming-Ampere-Chip GA102 verfügt über 7 GPCs mit je 12 SMs.
....
Bei der GeForce RTX 3080 mit derselben GPU ist ein GPC komplett abgeschaltet, von den verbleibenden sechs nutzen nur vier die vollen 12 SMs, zwei sind auf 10 SMs reduziert.
Dural
2020-09-12, 12:09:01
Die kommen erst nächstes jahr, da nv ziemlich sicher auf die neuen micron warten wird.
Eine 3080 mit 20 chips für 699.- ist ziemlich uncool. Habe ich ja schon mal angedeutet.
Adam D.
2020-09-12, 12:15:05
Nein. Ich vermute, NV wird das so lange zurückhalten, bis klar ist, was RDNA2 macht.
Das ist tatsächlich die wahrscheinlichste Vermutung. NV wird die Dinger nicht so schnell bringen, wenn sie nicht müssen wegen AMD. Wenn die dieses Jahr noch kommen, verprellt man damit auf jeden Fall einen Teil der Käufer, denen man vorher noch gesagt hat, dass VRAM definitiv kein Problem wird.
Edgecrusher86
2020-09-12, 12:42:06
NV wird bestimmt so etwas wie eine 3080 Ti bringen. Fast die Leistung der RTX 3090, aber zum Beispiel nur 12GB. Ich würde da auf 72SM - 9216 CC (FP32 komb.) tippen und 350W TGP, damit der "Boost" um 100 MHz höher liegt als bei der 3080 und 3090. Das Ganze dann auch mit mindestens 19,5 Gbps G6X oder gar ein bisschen mehr - schon ist die Lücke von 80 zu 90 quasi geschlossen. Das kann man dann zum Beispiel mit $799 MSRP bepreisen - als BFGPU Lite. Vermutlich aber erst in Q2/2021.
20-22GB wäre natürlich auch möglich - aber wie ich Huang kenne, will er ein Alleinstellungsmerkmal für die 3090 wahren.
Wer weiß, ob die 3080 20GB AIB Modelle überhaupt so schnell kommen oder erst zum Beispiel im Sommer 2021.
rentex
2020-09-12, 12:54:10
Also... ich schätze nicht, daß man gleich den Löwenanteil der 320 oder 350W, selbst beim GDDR6X, jenem zuschreiben kann. Oder was meinst du?
https://www.igorslab.de/ist-big-ampere-mit-luft-nur-schwer-kuehlbar-eine-thermische-prognose-gibt-aufschluss/
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/
Edgecrusher86
2020-09-12, 13:05:47
weiß nicht ob das schon irgendwo offiziell gesagt wurde aber da ampere relativ "krumme" shaderzahlen hat habe ich mal etwas rumgetüftelt wie der innere aufbau aussehen könnte:
GA102: 6 GPC mit je 14 SM mit 2 bzw. 16 deaktivierten SM für 3090 und 3080
GA104: 4 GPC mit je 12 SM mit 2 bzw. 10 deaktivierten SM für 3070 und 3060Ti
der aufbau der SM mit 64 FP32 und 64 FP32/INT32 hybriden für insgesamt 128 FP32 pro SM ist ja schon bekannt.
E: Ja, das hätte Sinn ergeben - ist dann aber doch anders geworden. ;)
RTX 3080 Blockschaltbild:
https://abload.de/img/nvidia-geforce-rtx-30wpj8o.png
RTX 3080: 4x GPC a 12SM, 2x GPC a 10SM angegeben.
MasterElwood
2020-09-12, 13:33:15
Menschlich gesehen sollte sich NV schämen. Sie lassen keinen Platz für Konkurrenz und manipulieren Menschen.
Hast du Fieber oder was? NV ist eine FIRMA - kein WOHLTÄTIGKEITSVEREIN!
Der SINN einer Firma ist es GEWINN zu machen - und zwar soviel wie möglich. Das ist die Aufgabe der Firmenführung - ganau DAFÜR werden sie von den Eigentümern (Shareholdern) bezahlt.
Wenn sie das nicht tun, können sie von den SH nicht nur gefeuert sondern im schlimmsten Fall sogar verklagt werden. :facepalm:
Wenns so einfach ist zu tun was NV tut - warum gibt's denn dann nicht massenhaft Konkurrenz?
Denk da mal drüber nach...
=Floi=
2020-09-12, 13:53:33
Es ist für mich viel logischer warum NV Kartenverkauf künstlich verknappt, wenn sie in Kürze was neues aus TSMC 7nm Produktion nachschieben.
ich behaupte, NV wird längerfristig bei samsung bleiben. Nebenbei hat man mit den super karten auch nicht 14nm abgelöst. Man hat oft genug gesehen, dass der prozessnode nicht so wichtig war. Die doppelten shader brauchen bei turing einfach mehr strom. Das kann man nicht mehr durch eine effizienzsteigerung ausgleichen.
woodsdog
2020-09-12, 14:05:53
Wenn die Super/Hyper/Ti gleich nach dem AMD Launch kommen sollte, ist es definitiv kein Refresh sondern eine neue Stufe.
add.: ich rechne mit 2 zusatzlichen Rahmstufen ..
Kannst du das auch mit etwas Substanz unterfüttern? :rolleyes:
das die 3080 20GB kommt ist ja praktisch sicher. Das macht die Karte aber nicht zur TI da ja praktisch keine Rechenleistung dazu kommen kann ohne der 3090 viel zu nah auf die Pelle zu rücken... Wo soll denn eine 3080 TI auch Platz finden? 3080 -> 10% 3080TI -> 10% 3090? :freak:
Viel "Luft" über der 350W 3090 ist auch nicht mehr. der ein-zwei(?) SM welcher da vom Vollausbau abgeknipst sind machen doch praktisch keinen Unterschied. Die Titan wird also spekulativ mit <5% mehr Rechenleistung und 48GB Säuferram losgeschickt? meh
Darüber hinaus ignoriert ihr weiterhin das NV die 3080 höchstselbst z.Z. als Flagship bezeichnet. v0v
Ich bleibe dabei, die 3080/3090 sind beide viel zu sehr auf Kante gebaut als das dort noch viel kommt. Eine Titan bzw. TI kommt frühstens mit dem Refresh unter irgendwas-not-Samsung-8nm. Das Potenzial der Fertigung ist mehr als ausgereizt bei den Stock-Verbrauchswerten.
Cyberfries
2020-09-12, 14:29:34
Ja, im Vollausbau werden wohl es 6x GPC a 14 SM sein
Bin ich im falschen Film? Ich hab bereits gesagt, dass das nicht stimmt - inkl. Quelle.
Was willst du mehr? Bunte Bilder? Kannste haben:
https://pics.computerbase.de/9/4/7/2/3/20-1260.png
das die 3080 20GB kommt ist ja praktisch sicher. Das macht die Karte aber nicht zur TI da ja praktisch keine Rechenleistung dazu kommen kann ohne der 3090 viel zu nah auf die Pelle zu rücken...
3090 Super @84SM mit 16Gbit-Speicher.
Einseitige Bestückung sollte ausreichend Energie sparen um noch etwas draufzulegen, dann besseres Binning, fertig.
Armaq
2020-09-12, 14:38:52
Hast du Fieber oder was? NV ist eine FIRMA - kein WOHLTÄTIGKEITSVEREIN!
Der SINN einer Firma ist es GEWINN zu machen - und zwar soviel wie möglich. Das ist die Aufgabe der Firmenführung - ganau DAFÜR werden sie von den Eigentümern (Shareholdern) bezahlt.
Wenn sie das nicht tun, können sie von den SH nicht nur gefeuert sondern im schlimmsten Fall sogar verklagt werden. :facepalm:
Wenns so einfach ist zu tun was NV tut - warum gibt's denn dann nicht massenhaft Konkurrenz?
Denk da mal drüber nach...
Achso, wie Intel "Gewinne" gemacht hat?
Natürlich kann man die Produktpolitik kritisch sehen.
Die Punkte die er anspricht sind durchaus legitim. Es wurde in einer PR-Show ein Produkt vorgestellt, dass innerhalb seines Lifecycles nicht unerheblich gefährdet ist obsolet zu sein. Die einzige Option ist die 3090, die wird 2 Jahre durchstehen und wahrscheinlich die Performance-Krone behalten oder zumindest nur marginal abgeben müssen.
Das Targeting der 10x0 Besitzer war auch recht deutlich, für sie ist die Mehrperformance auch wirklich erheblich, insbesondere wenn man DLSS mit in die Betrachtung aufnimmt. Über künstliche Scarcity & gefühlten Druck will man Upgrader noch vor Release von AMD abgreifen.
Man kann sich freuen wenn die Konkurrenz wieder mal etwas weiter vorne liegt. Das hilft allen Marktbeteiligten.
Edgecrusher86
2020-09-12, 14:41:37
Bin ich im falschen Film? Ich hab bereits gesagt, dass das nicht stimmt - inkl. Quelle.
Was willst du mehr? Bunte Bilder? Kannste haben:
https://pics.computerbase.de/9/4/7/2/3/20-1260.png
3090 Super @84SM mit 16Gbit-Speicher.
Einseitige Bestückung sollte ausreichend Energie sparen um noch etwas draufzulegen, dann besseres Binning, fertig.
Mit dem falschen Fuß aufgestanden oder warum so gereizt? War auf Arbeit und habe hier nur grob überflogen - daher die Posts davor nicht alle gelesen gehabt.
Interessante Konfiguration - sehr NV untypisch für einen 102er, wenn man mit den letzten Generationen vergleicht.
MasterElwood
2020-09-12, 14:55:30
Achso, wie Intel "Gewinne" gemacht hat?
Natürlich kann man die Produktpolitik kritisch sehen.
Die Punkte die er anspricht sind durchaus legitim. Es wurde in einer PR-Show ein Produkt vorgestellt, dass innerhalb seines Lifecycles nicht unerheblich gefährdet ist obsolet zu sein. Die einzige Option ist die 3090, die wird 2 Jahre durchstehen und wahrscheinlich die Performance-Krone behalten oder zumindest nur marginal abgeben müssen.
Das Targeting der 10x0 Besitzer war auch recht deutlich, für sie ist die Mehrperformance auch wirklich erheblich, insbesondere wenn man DLSS mit in die Betrachtung aufnimmt. Über künstliche Scarcity & gefühlten Druck will man Upgrader noch vor Release von AMD abgreifen.
Man kann sich freuen wenn die Konkurrenz wieder mal etwas weiter vorne liegt. Das hilft allen Marktbeteiligten.
Und NICHTS von dem was du hier schreibst hast was mit Menschlichkeit oder schämen zu tun. Und schon garnicht die 10GB. Weil
1. Sind die 10GB bekannt - ist also keine 970er Situation wo etwas verschwiegen wurde
2. Ist die Speicherproblematik weiiiit übertrieben (abgesehen von Leuten die es fürs Ego brauchen dass man alles auf Ultra hat - ob man es sieht oder nicht
3. Wissen wir dass es einen GRUND gibt für die krummen 10GB (2GB Speicher)
4. Hätte man mit mehr Speicher den Preis nicht halten können
5. Gibt's eine Alternative in der 3090
6. Und das wichtigste: Niemand wird dazu gezwungen das zu kaufen wenn er nicht will!
Also bitte entlich Ruhe mit dem Blablabla...
Digidi
2020-09-12, 14:56:19
Nein. Ich vermute, NV wird das so lange zurückhalten, bis klar ist, was RDNA2 macht.
Nvidia hat sich ja alle möglichkeiten offen gehalten. Es fehlen überall die TI Modell und Super gibts ja auch noch und die Titan ist auch noch nicht da.
Plenty of Möglichkeiten :biggrin:
@RLZ ich habe noch nie erlebt das es beim Refresh einen Umstieg auf einen anderen Node gab. Meißtens wurden die bestehenden Masken nachbearbeitet und versucht die Chipgüte zu erhöhen.
@RLZ ich habe noch nie erlebt das es beim Refresh einen Umstieg auf einen anderen Node gab. Meißtens wurden die bestehenden Masken nachbearbeitet und versucht die Chipgüte zu erhöhen.
Da war ich mir nicht 100% sicher, aber falls es mal gab, ist es super selten. Trotzdem ist das imho der frühste Zeitpunkt für einen Wechsel.
Nazar
2020-09-12, 16:07:23
Und NICHTS von dem was du hier schreibst hast was mit Menschlichkeit oder schämen zu tun. Und schon garnicht die 10GB. Weil
1. Sind die 10GB bekannt - ist also keine 970er Situation wo etwas verschwiegen wurde
2. Ist die Speicherproblematik weiiiit übertrieben (abgesehen von Leuten die es fürs Ego brauchen dass man alles auf Ultra hat - ob man es sieht oder nicht
3. Wissen wir dass es einen GRUND gibt für die krummen 10GB (2GB Speicher)
4. Hätte man mit mehr Speicher den Preis nicht halten können
5. Gibt's eine Alternative in der 3090
6. Und das wichtigste: Niemand wird dazu gezwungen das zu kaufen wenn er nicht will!
Also bitte entlich Ruhe mit dem Blablabla...
Bitte weniger unhaltbare Aussagen. :wink:
Die Aussagen zu 2. und 4. sind de facto falsch!
Der Speicher ist jetzt schon zu niedrig (Aussage von Epic Entwickler) und schon jetzt gibt es Spiele, die den VRAM an ihre Grenze bringen, auch wenn der Speicher dynamisch verwaltet wird.
Auch falsch ist die absolute Aussage, dass die Karten mit mehr Speicher teurer hätten werden müssen.
Manchmal kann ich mich nur noch wundern, dass einige Personen wirklich glauben, dass der fast 0.9 Milliarden Gewinn 2019 von nVidia auf Messers Schneide erwirtschaftet wurde. :rolleyes:
Nividia hätte sogar mit einer niedrigeren Preisgestaltung 2019 auch den dreifachen Gewinn auszeichnen können.
Denn, Gewinn ist Geld, dass keiner braucht!
Einfach mal darüber nachdenken und ansonsten ein wenig tiefer in Betriebswirtschaft eintauchen. :wink:
=Floi=
2020-09-12, 16:13:05
Gab es schon
zur 65nm/55nm ära mit den 8800er 9800er karten
GF7
Da war es aber auch noch viel leichter und ewig wird es mit den shrinks auch nicht so weitergehen können. Man investiert nicht einfach zig mio in den samsung prozess, um dann wieder umzusteigen. Denkt doch mal nach.
NV wird bei samsung mit nem eigens optimierten prozess hofiert und die verträge werden sicherlich längerfristig sein.
Glaubt ihr auch, NV möchte ohne fertigungskapazitäten dastehen? :ugly:
masked__rider
2020-09-12, 16:14:13
Bitte weniger unhaltbare Aussagen. :wink:
Die Aussagen zu 2. und 4. sind de facto falsch!
Der Speicher ist jetzt schon zu niedrig (Aussage von Epic Entwickler) und schon jetzt gibt es Spiele, die den VRAM an ihre Grenze bringen, auch wenn der Speicher dynamisch verwaltet wird.
Auch falsch ist die absolute Aussage, dass die Karten mit mehr Speicher teurer hätten werden müssen.
Manchmal kann ich mich nur noch wundern, dass einige Personen wirklich glauben, dass der fast 0.9 Milliarden Gewinn 2019 von nVidia auf Messers Schneide erwirtschaftet wurde. :rolleyes:
Nividia hätte sogar mit einer niedrigeren Preisgestaltung 2019 auch den dreifachen Gewinn auszeichnen können.
Denn, Gewinn ist Geld, dass keiner braucht!
Einfach mal darüber nachdenken und ansonsten ein wenig tiefer in Betriebswirtschaft eintauchen. :wink:
Bitte auch die verwendeten Auflösungen in Betracht ziehen. In UHD wirds vermutlich bald knapp mit 10GB, in WQHD könnte das noch ne ganze Weile reichen.
MasterElwood
2020-09-12, 16:24:02
Bitte weniger unhaltbare Aussagen. :wink:
Die Aussagen zu 2. und 4. sind de facto falsch!
Der Speicher ist jetzt schon zu niedrig (Aussage von Epic Entwickler) und schon jetzt gibt es Spiele, die den VRAM an ihre Grenze bringen, auch wenn der Speicher dynamisch verwaltet wird.
Auch falsch ist die absolute Aussage, dass die Karten mit mehr Speicher teurer hätten werden müssen.
Manchmal kann ich mich nur noch wundern, dass einige Personen wirklich glauben, dass der fast 0.9 Milliarden Gewinn 2019 von nVidia auf Messers Schneide erwirtschaftet wurde. :rolleyes:
Nividia hätte sogar mit einer niedrigeren Preisgestaltung 2019 auch den dreifachen Gewinn auszeichnen können.
Denn, Gewinn ist Geld, dass keiner braucht!
Einfach mal darüber nachdenken und ansonsten ein wenig tiefer in Betriebswirtschaft eintauchen. :wink:
Punkt 2 ist NICHT falsch. Viele dieser Spiele klopfen den Speicher einfach auf Verdacht voll - egal ob die Sachen wirklich gebraucht werden oder nicht. Und DIE Spiele die ihn WIRKLICH vollmachen - machen das meistens mit Texturen auf Ultra - bei denen du meistens in 4K garkeinen Unterschied siehst weils z.B. 8K Texturen sind, die in 4K garnix nützen.
Und zum Thema Gewinn. Schon interessant wie es NV schafft jedes Jahr neue Rekordgewinne zu erzielen, wo sie ja lt. Dir anscheinend alles falsch machen :-)
BlacKi
2020-09-12, 16:31:32
Denn, Gewinn ist Geld, dass keiner braucht!
lol, halt dich mal an deine eigenen aussagen pls.
Bitte weniger unhaltbare Aussagen. :wink:
Armaq
2020-09-12, 17:00:51
Und NICHTS von dem was du hier schreibst hast was mit Menschlichkeit oder schämen zu tun. Und schon garnicht die 10GB. Weil
1. Sind die 10GB bekannt - ist also keine 970er Situation wo etwas verschwiegen wurde
2. Ist die Speicherproblematik weiiiit übertrieben (abgesehen von Leuten die es fürs Ego brauchen dass man alles auf Ultra hat - ob man es sieht oder nicht
3. Wissen wir dass es einen GRUND gibt für die krummen 10GB (2GB Speicher)
4. Hätte man mit mehr Speicher den Preis nicht halten können
5. Gibt's eine Alternative in der 3090
6. Und das wichtigste: Niemand wird dazu gezwungen das zu kaufen wenn er nicht will!
Also bitte entlich Ruhe mit dem Blablabla...
Was ist bei dir denn heute schief gelaufen?
Natürlich ist 3x in Folge der gleiche Speicher zu wenig. Du kannst das ggf. nicht selbst testen, dann ist deine Naivität schön, aber mehr RAM und VRAM ist unabdingbar, sobald man es einmal selbst mitbekommen hat.
Du darfst gerne die 3070 nehmen und dich in 6 Monaten ärgern.
Die meisten Tests zu diesem Fakt beinhalten eben keinen Langzeittest. OpenWorld Games die man eine Weile an hat, saugen Ram und VRam schön auf. Das wird alles nicht weniger sondern mehr, weil die Käufer auch mehr wollen. Mein Aha-Erlebnis war Ghost Recon. 16 GB reichen aus ... dann Spiel mal ne Koop-Session etwas länger und schon merkst du genau, wann das Swap-File losrennt.
Deine unqualifzierten Aussagen sind das Problem, denn du willst nur recht haben, nimmst aber nicht die Gesamtlage auf.
Ich kann 350W bei der Grafikkarte selbst testen und es ist kein Pappenstiel, ich kann 12 Kerne voll ausreizen etc. Ich lächle jedes Mal wenn jmd. sagt 6 Kerne sind genug, 8GB VRam reichen aus und man braucht nur eine SSD mit 500 GB, der neue Energiesparplan von usmus vollbringt Wunder, der8auer hat das Gehemnis um Zen2 gelüftet - das war und ist alles Schwachsinn. Es ist häufig immer nur die Legitimation für eigene Entscheidungen. Igor hat klar aufgezeigt, was moderne Grafikkarten mit der Stromversorgung veranstalten, wer immernoch ein 500Watt NT kauft, der soll das bitte tun, aber sich nicht wundern, wenn man im "Spiel XX ist kacke und stürzt ab-Thread" nur noch mit dem Kopf schüttelt.
Ich kann da milde lächeln.
Brillus
2020-09-12, 17:03:18
Punkt 2 ist NICHT falsch. Viele dieser Spiele klopfen den Speicher einfach auf Verdacht voll - egal ob die Sachen wirklich gebraucht werden oder nicht. Und DIE Spiele die ihn WIRKLICH vollmachen - machen das meistens mit Texturen auf Ultra - bei denen du meistens in 4K garkeinen Unterschied siehst weils z.B. 8K Texturen sind, die in 4K garnix nützen.
Und zum Thema Gewinn. Schon interessant wie es NV schafft jedes Jahr neue Rekordgewinne zu erzielen, wo sie ja lt. Dir anscheinend alles falsch machen :-)
Dein Punkt ist nicht zu halten ich kann selbst mit 1024×756 Sachen bauen in denen man 4k vs. 8k Texturen sieht.
basix
2020-09-12, 17:18:39
@RLZ ich habe noch nie erlebt das es beim Refresh einen Umstieg auf einen anderen Node gab. Meißtens wurden die bestehenden Masken nachbearbeitet und versucht die Chipgüte zu erhöhen.
G92b und G200b ;)
prinz_valium_2
2020-09-12, 17:31:21
Bitte weniger unhaltbare Aussagen. :wink:
Die Aussagen zu 2. und 4. sind de facto falsch!
Der Speicher ist jetzt schon zu niedrig (Aussage von Epic Entwickler) und schon jetzt gibt es Spiele, die den VRAM an ihre Grenze bringen, auch wenn der Speicher dynamisch verwaltet wird.
Auch falsch ist die absolute Aussage, dass die Karten mit mehr Speicher teurer hätten werden müssen.
Manchmal kann ich mich nur noch wundern, dass einige Personen wirklich glauben, dass der fast 0.9 Milliarden Gewinn 2019 von nVidia auf Messers Schneide erwirtschaftet wurde. :rolleyes:
Nividia hätte sogar mit einer niedrigeren Preisgestaltung 2019 auch den dreifachen Gewinn auszeichnen können.
Denn, Gewinn ist Geld, dass keiner braucht!
Einfach mal darüber nachdenken und ansonsten ein wenig tiefer in Betriebswirtschaft eintauchen. :wink:
So viel zum Thema unhaltbare Aussagen, die de facto falsch sind :rolleyes:
Armaq
2020-09-12, 17:53:24
So viel zum Thema unhaltbare Aussagen, die de facto falsch sind :rolleyes:
Ein Unternehmen kann entscheiden wieviel Gewinn sie ausweisen. Sie müssen keinen Gewinn ausweisen, übrigens war das ne Strategie die so ein unbedeutendes Unternehmen wie Amazon lange gefahren hat. Hups :rolleyes:
Rampage 2
2020-09-12, 18:57:57
E: Ja, das hätte Sinn ergeben - ist dann aber doch anders geworden. ;)
RTX 3080 Blockschaltbild:
https://abload.de/img/nvidia-geforce-rtx-30wpj8o.png
RTX 3080: 4x GPC a 12SM, 2x GPC a 10SM angegeben.
Das bedeutet also, dass beim TU104/GA104 die Auslastung immer noch am höchsten ist vgl. mit GA102 oder TU102, da Letztere 12 SM pro GPC haben während TU104/GA104 mit nur 8 SM pro GPC schlanker ausfallen und dadurch besser ausgelastet werden können?
TU104 wiederum kann besser ausgelastet werden als GA104, weil es nur halb so viele Recheneinheiten bzw. doppelt so viel Kontrolllogik hat? Ist TU104 also immer noch die derzeit effizienteste Nvidia-GPU, was Einheiteneffizienz/-auslastung angeht?
R2
Hübie
2020-09-12, 20:00:42
Wie sich einige hier umgucken werden.. :rolleyes:
Edit: ich weiß gar nicht ob es mit konventionellen Tools möglich ist die Bandbreite der Caches zu messen, aber bei Ampére wurde diese massiv erhöht. Und nein, nicht durch Magie.
Sardaukar.nsn
2020-09-12, 20:33:58
Neue Infos zur 3080. Die FE scheinen wohl ein Power Target von max. 370W zu haben, während die mit Reference Design bei 350W dicht machen. Da ich eigentlich eine Ref. Karte kaufen und unter Wasser setzen wollte, finde ich das aktuell recht unschön. Würde sich direkt vom Start also eher ausgebremst anfühlen.
Als Alternative bleibt wohl eine Full-Custom Karte mit 3x8pin Stromanschluss.
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-FE-vs-Reference-AIB.jpg
https://videocardz.com/newz/overclocking-nvidia-geforce-rtx-3080-memory-to-20-gbps-is-easy
Troyan
2020-09-12, 20:34:53
War bei Turing genauso. Die Karten mit Non-A Chips wurden auch im Powerlimit beschränkt.
Hübie
2020-09-12, 20:44:38
Die gezeigten Karten von Nvidia sind übrigens keine REFERENZDESIGN-PCB.
woodsdog
2020-09-12, 21:09:49
Neue Infos zur 3080. Die FE scheinen wohl ein Power Target von max. 370W zu haben, während die mit Reference Design bei 350W dicht machen. Da ich eigentlich eine Ref. Karte kaufen und unter Wasser setzen wollte, finde ich das aktuell recht unschön. Würde sich direkt vom Start also eher ausgebremst anfühlen.
Als Alternative bleibt wohl eine Full-Custom Karte mit 3x8pin Stromanschluss.
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-FE-vs-Reference-AIB.jpg
https://videocardz.com/newz/overclocking-nvidia-geforce-rtx-3080-memory-to-20-gbps-is-easy
Was ja nur noch mal bestätigt das hier NV schlicht den normalen OC Spielraum in den Stock-Zustand überführt hat.
Unter Wasser wird man durch die Temp 50-60MHz gewinnen, danach rennt man wie mit Luft ins PL ohne Mod-Bios. v0v
Wasser macht nur noch wegen der Lautstärke Sinn, alles andere ist eh am Limit.
Hauwech
2020-09-12, 21:41:51
Hast du Fieber oder was? NV ist eine FIRMA - kein WOHLTÄTIGKEITSVEREIN!
Der SINN einer Firma ist es GEWINN zu machen - und zwar soviel wie möglich. Das ist die Aufgabe der Firmenführung - ganau DAFÜR werden sie von den Eigentümern (Shareholdern) bezahlt.
Wenn sie das nicht tun, können sie von den SH nicht nur gefeuert sondern im schlimmsten Fall sogar verklagt werden. :facepalm:
Wenns so einfach ist zu tun was NV tut - warum gibt's denn dann nicht massenhaft Konkurrenz?
Denk da mal drüber nach...
+1000
Hier wird sich so fleißig in die eigene Tasche gelogen, top. Als wenn die Meckerköppe es als nV oder jede andere Firma in der Position es nicht ganz genauso machen würden. Es würden ausnahmslos alle ganz genauso machen. Alle. Und es wäre euch scheissegal. Der gute Samariter und Mutter Theresa hätten bei euch Hausverbot und dürften sich per Verfügung nicht mal auf 1 Lichtjahr Distanz nähern.
Woher die hohen Margen kommen, dazu reicht die Hirnleistung bei vielen offensichtlich nicht aus. Schlimm. :(
BlacKi
2020-09-12, 21:51:16
War bei Turing genauso. Die Karten mit Non-A Chips wurden auch im Powerlimit beschränkt.
jop und trotzdem hab ich hier eine 2070s mit 314w PT dank bios flash.
vermutlich könnte man mit der FE sogar am ende weniger PT haben als die referenzmodelle, obwohl das bios ohne zu flashen bei den FE höher sein wird.
mich betriffts nicht, ich finde die 320w eigentlich schon zuviel.
Daredevil
2020-09-12, 22:42:11
Meh.
https://twitter.com/VideoCardz/status/1304874224247615500/photo/1
https://pbs.twimg.com/media/EhvX77hX0AERgJR?format=jpg&name=medium
https://pbs.twimg.com/media/EhvaodvXsAEccYA?format=jpg&name=medium
PS:
Nvidia hebt jetzt schon die Preise für Ampere, weil sie so sehr Angst vor BigNavi haben. ^^
Die haben bei der RTX 3080 die Preise leicht erhöht. Es sind jetzt 719€. Die 3090 wird sogar um 50€ teurer. Schon komisch.....
https://www.nvidia.com/de-at/geforce/buy/
mfg grobi
Doppelmeh.
Edit: Achso, ist nur das Ösiland, dann egal!
Dural
2020-09-12, 23:01:04
Sind das die neuen 12p stecker auf dem pcb? Wenn ja bis jetzt die beste karte um auf wakü umzurüsten.
masked__rider
2020-09-12, 23:05:05
Meh.
Doppelmeh.
Edit: Achso, ist nur das Ösiland, dann egal!
Bigbrain. Wir haben 20% MWSt ;)
Sind das die neuen 12p stecker auf dem pcb? Wenn ja bis jetzt die beste karte um auf wakü umzurüsten.
Glaubst du auch wirklich was du schreibst?
nordic_pegasus
2020-09-12, 23:07:24
Sind das die neuen 12p stecker auf dem pcb? Wenn ja bis jetzt die beste karte um auf wakü umzurüsten.
zähl mal die Lötstellen am Ende der Buchsen auf dem PCB. Das sind keine Standard-Buchsen. Die beiden 8-Pin Anschlüsse werden anscheinend auf flache Buchsen adaptiert (also 1 Reihe, 8 Pins statt 2 Reihen, 4 Pins).
Die meisten Tests zu diesem Fakt beinhalten eben keinen Langzeittest. OpenWorld Games die man eine Weile an hat, saugen Ram und VRam schön auf. Das wird alles nicht weniger sondern mehr, weil die Käufer auch mehr wollen. Mein Aha-Erlebnis war Ghost Recon. 16 GB reichen aus ... dann Spiel mal ne Koop-Session etwas länger und schon merkst du genau, wann das Swap-File losrennt.
Was du beschreibst ist ein Fass ohne Boden und eher ein Argument, dass Spieleentwickler lernen müssen, mit weniger klarzukommen.
Ich finde 8 GB RAM für die 3070 auch zu wenig, aber du beschreibst hier wunderbar, wieso DirectStorage mehr Aufmerksamkeit verdient und die regelmäßige RAM Verdoppelung weniger.
Screemer
2020-09-12, 23:23:52
Was du beschreibst ist ein Fass ohne Boden und eher ein Argument, dass Spieleentwickler lernen müssen, mit weniger klarzukommen.
Du willst schlicht keine besseren Games, oder? Damit meine ich übrigens nicht nur grafisch.
BlacKi
2020-09-12, 23:30:54
Meh.
https://twitter.com/VideoCardz/status/1304874224247615500/photo/1
https://pbs.twimg.com/media/EhvX77hX0AERgJR?format=jpg&name=medium
https://pbs.twimg.com/media/EhvaodvXsAEccYA?format=jpg&name=medium
sicher nicht optimal, hätte man anders lösen könne, aber in der mitte wollte die stecker auch niemand. naja, gibt schlimmeres.
was mir gerade auffällt, das kann aus mehreren gründen nicht die aorus sind, erstens wegen den anschlüssen von displayport, denn dort gibt es 3x hdmi 3x DP. zweitens ist die "verlängerungsschiene" hinter dem pcb an dem die kabel und stecker nach hinten weitergereicht werden nicht auf der aorus zu sehen. ausserdem sieht man bei der aorus das die stecker aufgelötet sind und nicht einfach ein verlängerungskabel darstellen.
die annahmen das es eine aorus ist, sind schlicht falsch. vl ist es eine eagle oder eine gaming oc.
edit: ja, ist die gaming oc, sieht man am logo auf dem kühler, das hat die aorus ebenfalls nicht.
https://gzhls.at/i/67/35/2366735-m4.jpg
Erbsenkönig
2020-09-13, 00:35:19
4. Hätte man mit mehr Speicher den Preis nicht halten können
Wenn schon, dann bitte richtig: Die eingeplante Marge hätte man nicht halten können.
Erbsenkönig
2020-09-13, 00:44:12
Was du beschreibst ist ein Fass ohne Boden und eher ein Argument, dass Spieleentwickler lernen müssen, mit weniger klarzukommen.
Aber wieso müssen sie das? Diese Argumentation dreht doch die Kausalkette um. Wenn Nvidia seit fast fünf Jahren bei ihren Karten, für die sie z.T. extreme Preise aufrufen, die VRAM Kapazität nicht erhöht bzw. dies nur marginal tut, dann ist dies doch ein Versäumnis Nvidias und nicht ein Versäumnis der Spieleentwickler. Es ist ja nicht so, als sei Arbeitsspeicher eine endliche Ressource, die nun aufgebraucht ist.
Es mag am Ende ja auch sein, dass manche Spiele schlecht optimiert sind, aber das ist ja nun keine Neuerung seit dem Festhalten an 8GB VRAM, sondern etwas, das es schon immer gab. Daran wird sich auch nichts ändern. Und als Kunde, der hier hunderte von Euros hinblättern soll, werde ich einen Teufel tun und irgendwelchen Spieleentwicklern den schwarzen Peter zuschieben. Dass hier nicht mehr kommt ist alleine auf Nvidia zurückzuführen und auf niemand anderen.
Armaq
2020-09-13, 00:56:47
Was du beschreibst ist ein Fass ohne Boden und eher ein Argument, dass Spieleentwickler lernen müssen, mit weniger klarzukommen.
Ich finde 8 GB RAM für die 3070 auch zu wenig, aber du beschreibst hier wunderbar, wieso DirectStorage mehr Aufmerksamkeit verdient und die regelmäßige RAM Verdoppelung weniger.
Was soll ich sagen. Dann verdonnere doch bitte alle Entwickler mal dazu, es richtig zu machen. :rolleyes:
Sowas kann man nicht ernst nehmen. Natürlich geht es nur in eine Richtung. Ob es auch mit weniger geht ist nicht die esoterische Frage.
Da VRam fest verbaut ist, wäre das als ob Intel in den Jahren ohne Ryzen einfach jeden auf 4 oder 8 GB Ram limitert hätte. Wie kann man das noch gut finden? Niemand muss sich schlecht fühlen, weil er ne 30x0 mit X GB VRam kaufen will.
Reaping_Ant
2020-09-13, 06:43:02
Niemand muss sich schlecht fühlen, weil er ne 30x0 mit X GB VRam kaufen will.
Das sollte aber dann in beide Richtungen gelten. Hier wird ja oft so getan als wären die 3070 und 3080 Schrott, weil man in manchen Spielen von die Texturen von Ultra auf Hoch stellen muss. Das ist vielleicht für die Enthusiasten hier im Forum unter ihrer Würde, macht die Karten aber noch lange nicht unbrauchbar. Wenn man sich der Einschränkung bewusst ist bieten beide Karten recht viel Leistung fürs Geld.
Wäre mir eine 3080 für den selben Preis mit 20 GB lieber? Auf jeden Fall. Wäre es mir 100€ Aufpreis wert? Wahrscheinlich. 200€? Wahrscheinlich nicht.
rentex
2020-09-13, 06:48:12
Schön zu sehen, das einige Customs das Kühlkonzept der FE übernehmen.
Badesalz
2020-09-13, 07:37:42
https://www.igorslab.de/ist-big-ampere-mit-luft-nur-schwer-kuehlbar-eine-thermische-prognose-gibt-aufschluss/
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/Das ist bekannt. Passt imho trotzdem nicht zum Gequoteten :rolleyes:
NV wird bestimmt so etwas wie eine 3080 Ti bringen. Fast die Leistung der RTX 3090, aber zum Beispiel nur 12GB.Könnte sein. Ich denke aber eher, es kommen "Super" und keine "Ti".
BigKid
2020-09-13, 07:42:08
Schön zu sehen, das einige Customs das Kühlkonzept der FE übernehmen.
Ich habe immer noch nicht verstanden was schön daran sein soll heisse Luft in meinen CPU Kühler und über dessen Spannungsversorgung sowie die RAMs
zu blasen...
Edit: Das einzige was mir dazu einfällt ist dass man überhaupt mal ne Airflow hinbekommt in nem normalen Gehäuse... als die Graka dagegen arbeiten zu lassen... vielleicht ist das besser als nix... Letztlich steigt warme Luft halt hoch ... ergo bleibt ja eh nur von unten nach oben und von vorne nach hinten ...
Also so gesehen konsequent...
Trotzdem bin ich mal auf Reviews gespannt die sich das anschauen... bin mal gespannt ob da dann nicht Komponenten auf dem Mobo den Hitzetod sterben... (oder zumindest früher)... oder throtteln...
Badesalz
2020-09-13, 07:48:59
Du willst schlicht keine besseren Games, oder? Damit meine ich übrigens nicht nur grafisch.Ah? Vielleicht hat er nur genug davon stinkigen, ranzigen Code nur mit vom eigenen Geld teuer erkauften HW-Overhaul vernünftig am laufen zu halten?
Es ist ja nicht so, daß sowas nur auf AC_Odyssey zutrifft...
rentex
2020-09-13, 08:07:00
@Badesalz Wird doch in den Artikeln schön erklärt.
@Screemer Bessere Games? Hier gehts um Optimierungen und brauchbare Ports, was viel Hardware mit "besseren Games" zu tun hat, erklärst du mir jetzt bitte...Danke!
Badesalz
2020-09-13, 08:10:41
Ja... GPU-Z erzählt, die GPU der 3080 zieht nur 185W. Das muss man wohl erstmal so glauben, daß 10GB RAM samt Bestromung 135W ziehen...
Was zieht dann die GPU auf der 3090? 160W? :D
"Schön erklärt" :up:
@Reaping_Ant
Bin bei dir. Wenn man Ultra Texturen nur auf 4k akzeptiert, holt man sich die 3090 und heult nicht rum.
rentex
2020-09-13, 08:27:40
Ich habe immer noch nicht verstanden was schön daran sein soll heisse Luft in meinen CPU Kühler und über dessen Spannungsversorgung sowie die RAMs
zu blasen...
Edit: Das einzige was mir dazu einfällt ist dass man überhaupt mal ne Airflow hinbekommt in nem normalen Gehäuse... als die Graka dagegen arbeiten zu lassen... vielleicht ist das besser als nix... Letztlich steigt warme Luft halt hoch ... ergo bleibt ja eh nur von unten nach oben und von vorne nach hinten ...
Also so gesehen konsequent...
Trotzdem bin ich mal auf Reviews gespannt die sich das anschauen... bin mal gespannt ob da dann nicht Komponenten auf dem Mobo den Hitzetod sterben... (oder zumindest früher)... oder throtteln...
Rechnest du mit ner auf 70 Grad erhitzter Luft am hinteren Lüfter?
Natürlich muss man nen vernünftigen Airflow im Gehäuse vorraussetzen...die 3080 FE und 3090 FE sind nichts für Mini Gehäuse.
Das hier irgendeine Komponente der Mobo PCB was abbekommt, bezweifle ich sehr stark.
Größere CPU Kühler , werden sich aber dagegen als etwas nachteilig erweisen.
Wenn man die Karten eh unter Wasser setzt, ist es wurst.
BigKid
2020-09-13, 08:33:39
Rechnest du mit ner auf 70 Grad erhitzter Luft am hinteren Lüfter?
Natürlich muss man nen vernünftigen Airflow im Gehäuse vorraussetzen...die 3080 FE und 3090 FE sind nichts für Mini Gehäuse.
Das hier irgendeine Komponente der Mobo PCB was abbekommt, bezweifle ich sehr stark.
Größere CPU Kühler , werden sich aber dagegen als etwas nachteilig erweisen.
Wenn man die Karten eh unter Wasser setzt, ist es wurst.
Muss ja nichtmal 70 Grad sein... Wenn da oben am Mobo normalerweise Raumtemperatur ist und jetzt sind da plötzlich - sagen wir mal 50 ... Dann sind das 20-30 Grad weniger Delta...
rentex
2020-09-13, 09:12:33
Wenn man drei Frontlüfter installiert hat, seh ich auch da kein Problem.
mironicus
2020-09-13, 09:13:54
Durch das heiße Gebläse lösen sich irgendwann einzelne Komponenten vom Mainboard wenn sie zu stark erhitzt werden. :D
Armaq
2020-09-13, 09:17:44
Das sollte aber dann in beide Richtungen gelten. Hier wird ja oft so getan als wären die 3070 und 3080 Schrott, weil man in manchen Spielen von die Texturen von Ultra auf Hoch stellen muss. Das ist vielleicht für die Enthusiasten hier im Forum unter ihrer Würde, macht die Karten aber noch lange nicht unbrauchbar. Wenn man sich der Einschränkung bewusst ist bieten beide Karten recht viel Leistung fürs Geld.
Wäre mir eine 3080 für den selben Preis mit 20 GB lieber? Auf jeden Fall. Wäre es mir 100€ Aufpreis wert? Wahrscheinlich. 200€? Wahrscheinlich nicht.
Schrott sind die Karten auf keinen Fall. Die Frage ist ob die genutzten Anwendungen nicht früher als gedacht einen wiederholten "Aufrüstdruck" erzeugen. Wer ne 3070 und aufwärts kauft, macht das ja nicht weil er so ein genügsamer Gamer ist. Man kann Spiele mit viel weniger Leistung genießen.
Aus meiner Sicht richtet sich die Kritik hier an die Modellpolitik (3x 8GB) und nicht an die Karte ist schlecht.
Alle 10x0 Besitzer haben hier einen dicken Performance-Sprung vor sich, aber die 1080Ti User stehen schon vor einer harten Wahl mit dem VRam. Die 2070 und 2080 User können für Performance aufrüsten, es sollte aber alles was dieses Jahr und sogar 2021 kommt noch locker passen. Es sei denn man hat besondere Ansprüche (144Hz), aber auch die kann man durch reduzierte Details mit der 20x0 erreichen.
Die Karten mit 16GB wären einfach ohne Kompromiss gewesen und für 699 fast schon ein must buy.
Was soll ich sagen. Dann verdonnere doch bitte alle Entwickler mal dazu, es richtig zu machen. :rolleyes:
Ist ganz einfach: Nextgen Konsole mit nur 10 (Xbox Series X) bzw 8 GB (Series S) auf maximaler Transferrate rausbringen, aber mit DirectStorage :-)
Du willst schlicht keine besseren Games, oder?Doch, aber ich glaube, dass Spieleentwickler zu mehr fähig sind, als alle Texturen dumm in den RAM zu laden. Schau dir mal die RAM Preise von 2016 bis heute an, sollen Grafikkarten allein aufgrund des Speichers stetig teurer werden?
MiamiNice
2020-09-13, 09:45:45
Hier wird ja oft so getan als wären die 3070 und 3080 Schrott.
Wie bezeichnest Du eine Karte die schneller als das aktuelle Topmodell ist, aber nicht genug VRam hat und diverse Games auszufahren? Was hat das mit Enthusiasmus zu tun so eine Karte zu bemängeln? Da passt nichts zusammen.
Der Hersteller hätte auch das doppelte am Vram verbauen können und wäre zum selben Preis noch immer in der Gewinnzone. Oder 100-200€ teurer machen, dann wäre die Marge nicht gesunken aber es gäbe ein besseres Fenster für Amd und Intel. Wollte man nicht. Marge und Marktdominanz waren wichtiger als eine ausgewogene Karte. Leidtragenden sind einzig und alleine die Käufer. Diese zwei Karte wurden ohne den Spieler im Kopf designt. Für mich ist das Schrott. Würde eher die 3070 16Gb kaufen als ne 3080. Und wenn ich ehrlich bin, gar keine Ampere wenn nicht die 3090. Eher ne 2080Ti ausm Ebay und dann Ampere erst nächster Jahr zu den Super Susis. Dann ne 3080 20gb für dir gewohnten 1000€+
Eine 3080 ist objektiv jetzt nicht kaufbar. Das ist vergleichbar mit Fenster auf -> Geld raus kippen.
rentex
2020-09-13, 09:46:18
Durch das heiße Gebläse lösen sich irgendwann einzelne Komponenten vom Mainboard wenn sie zu stark erhitzt werden. :D
;D;D;D
Hübie
2020-09-13, 09:49:37
Übrigens kann man ein Großteil der Elektronik-Komponenten im kommenden Jahr steuerlich geltend machen. Vor allem wenn man in der Medien- oder IT-Branche arbeitet. Das nur mal am Rande, falls einer noch überlegt ein Upgrade zu machen. :biggrin:
MiamiNice
2020-09-13, 10:04:26
Übrigens kann man ein Großteil der Elektronik-Komponenten im kommenden Jahr steuerlich geltend machen. Vor allem wenn man in der Medien- oder IT-Branche arbeitet. Das nur mal am Rande, falls einer noch überlegt ein Upgrade zu machen. :biggrin:
Das ging auch schon ohne Corona und viel Homeoffice 🤪
Matrix316
2020-09-13, 11:37:03
Wie bezeichnest Du eine Karte die schneller als das aktuelle Topmodell ist, aber nicht genug VRam hat und diverse Games auszufahren? Was hat das mit Enthusiasmus zu tun so eine Karte zu bemängeln? Da passt nichts zusammen.
Der Hersteller hätte auch das doppelte am Vram verbauen können und wäre zum selben Preis noch immer in der Gewinnzone. Oder 100-200€ teurer machen, dann wäre die Marge nicht gesunken aber es gäbe ein besseres Fenster für Amd und Intel. Wollte man nicht. Marge und Marktdominanz waren wichtiger als eine ausgewogene Karte. Leidtragenden sind einzig und alleine die Käufer. Diese zwei Karte wurden ohne den Spieler im Kopf designt. Für mich ist das Schrott. Würde eher die 3070 16Gb kaufen als ne 3080. Und wenn ich ehrlich bin, gar keine Ampere wenn nicht die 3090. Eher ne 2080Ti ausm Ebay und dann Ampere erst nächster Jahr zu den Super Susis. Dann ne 3080 20gb für dir gewohnten 1000€+
Eine 3080 ist objektiv jetzt nicht kaufbar. Das ist vergleichbar mit Fenster auf -> Geld raus kippen.
Das ist doch quatsch. 1GB weniger als eine 2080TI macht jetzt doch keinen riesen Unterschied. Dafür kostet die 3080 aber auch 400 € weniger. Und die teurere alternative 3090 kostet mal nur mal das DOPPELTE.
Ich glaube die allermeisten 3070/80 käufer werden das nicht mal merken.
Ich weiß nur, dass selbst ein Jedi Fallen Order mit einer 1080TI in 4K ziemlich schlecht läuft und ich gehe stark von aus, dass es mit einer 3080 deutlich besser spielbar sein wird. Ebenso der Flugsimulator 2020.
Dural
2020-09-13, 11:59:54
Selbst im jahr 2020 werden grafikkarten nur nach speicher beurteilt :freak:
10gb reichen nie und nimmer, gibt zwar kein spiel das über 10gb+ braucht und die neuen konsolen haben auch nicht mehr vmem zu verfügung, aber sie reichen nicht!!! :rolleyes:
Aber wo würden den wir hinkommen wenn die user begreifen würden das die spiele den speicher füllen und alles rein laden obwohl es gar nicht nötig wäre :confused:
Olliver
2020-09-13, 12:17:43
Lustig, dass sich die Leute immer so zweifelsfrei sicher sind, ob ein Vmem genug ist, oder nicht.
Es scheint ja technisch schwierig zu sein den wirklichen Gebrauch vom vollschaufeln zu unterscheiden.
Es war offensichtlich für mich das meine Titan x Maxwell und die Radeon VII nicht die Rechenleistung haben, um ihren Speicher auszunutzen.
Jetzt wird aber, in meiner Relation, mit der 3080 die Rechenleistung größer und der Vmem kleiner.
Erscheint mir falsch.
Und es ist halt typisch Nvidia, eine überdimensionierte RTX 3090 die zu teuer ist und eine 3080, wo der Wunsch nach einem Refresh direkt in die Hardware eingebaut ist.
Sollte eigentlich in der Featureliste stehen.
MiamiNice
2020-09-13, 12:18:36
Kein Spiel braucht aktuell über 10Gb? Ist das Sarkasmus oder spielst Du wenig?
Es macht btw. keinen Unterschied ob die Entwickler zu dämlich sind den VRam sinnvoll nutzen. Kannst Du am heimischen PC nichts gegen ausrichten.
Matrix316
2020-09-13, 12:20:02
Kein Spiel braucht aktuell über 10Gb? Ist das Sarkasmus oder spielst Du wenig?
Also ich schaue nie drauf wie viel VMEM ein Spiel braucht. Ich schau nur maximal nach den FPS und wie das Spielgefühl an sich ist.
Linmoum
2020-09-13, 12:21:37
Allein Raff würde darüber wahrscheinlich einen Monolog halten können. ;D
r3ptil3
2020-09-13, 12:24:19
Meh.
https://twitter.com/VideoCardz/status/1304874224247615500/photo/1
https://pbs.twimg.com/media/EhvX77hX0AERgJR?format=jpg&name=medium
https://pbs.twimg.com/media/EhvaodvXsAEccYA?format=jpg&name=medium
PS:
Nvidia hebt jetzt schon die Preise für Ampere, weil sie so sehr Angst vor BigNavi haben. ^^
Doppelmeh.
Edit: Achso, ist nur das Ösiland, dann egal!
Die Lösung mit den Stromsteckern stört mich nicht, aber die WLP... sieht nach max. 5 W/m K WLP aus.
Da wird man ja praktisch schon gezwungen den Kühler aufzumachen und durch Kryonaut zu ersetzen, damit man gleich mal 5K gewinnt.
Olliver
2020-09-13, 12:33:39
Also ich schaue nie drauf wie viel VMEM ein Spiel braucht. Ich schau nur maximal nach den FPS und wie das Spielgefühl an sich ist.
Klar, meine TitanX fing bei 8GB an zu ruckeln und die Radeon hatte noch nie mehr als rund 10GB gefüllt und ist dann noch spielbar.
Aber was passiert bei einer so starken Graka wie der 3080, wenn mehr als 10GB halt nicht da sind?
MasterElwood
2020-09-13, 12:43:48
Kein Spiel braucht aktuell über 10Gb? Ist das Sarkasmus oder spielst Du wenig?
Es macht btw. keinen Unterschied ob die Entwickler zu dämlich sind den VRam sinnvoll nutzen. Kannst Du am heimischen PC nichts gegen ausrichten.
Wenns WIRKLICH mal bei einem Game so ist: Texturen runter von ULTRA to HIGH.
Bamm. Sache erledigt.
Linmoum
2020-09-13, 12:44:48
Viel Geld für eine GPU ausgegeben und dann Details runterdrehen müssen weil es am Speicher mangelt. Sensationell.
Troyan
2020-09-13, 12:46:56
Die Xbox One X hatte ca. 10GB Speicher für die GPU. Die Series X hat 10GB für die GPU. Bei der Xbox gab es keine Verbesserung beim Speicher. Die 3080 hat 2GB mehr als die 2080Super und damit exakt das selbe Level wie die Series X.
Wieso es bei der Series X okay ist, hat bis jetzt niemand erklären können. Gleichzeitig hört man hier, wie wenig 10GB Speicher sind...
Würde man über die 8GB der 3070 reden, verstehe ich die Einwände. Aber Microsoft hat mit der Series X doch den Maßstab gesetzt.
Armaq
2020-09-13, 12:47:02
Viel Geld für eine GPU ausgegeben und dann Details runterdrehen müssen weil es am Speicher mangelt. Sensationell.
Ja, das ist einfach nicht wirklich eine Option.
Nochmal für die Ungläubigen. Spiele reduzieren die Details automatisch, wenn da zu wenig Ram ist, ohne das ihr das merkt.
Die Gigabyte-Karte sieht schon wieder mies verpastest aus! Nach dem Kauf gleich mal WLP auftragen, kost die Karte noch eine 10er mehr. :freak:
Die Xbox One X hatte ca. 10GB Speicher für die GPU. Die Series X hat 10GB für die GPU. Bei der Xbox gab es keine Verbesserung beim Speicher. Die 3080 hat 2GB mehr als die 2080Super und damit exakt das selbe Level wie die Series X.
Wieso es bei der Series X okay ist, hat bis jetzt niemand erklären können. Gleichzeitig hört man hier, wie wenig 10GB Speicher sind...
Würde man über die 8GB der 3070 reden, verstehe ich die Einwände. Aber Microsoft hat mit der Series X doch den Maßstab gesetzt.
Hat ja keiner gesagt, dass das ok ist. Aber die Xbox ist ja hier kein Thema, sondern 3x in Folge über Jahre die gleiche Menge an Ram zu bringen.
Troyan
2020-09-13, 12:50:42
Natürlich ist die Series X relevant. Wenn die nur 10GB hat, werden sich Entwickler bei Multiplattform-Spielen daran orientieren.
Matrix316
2020-09-13, 12:53:35
Klar, meine TitanX fing bei 8GB an zu ruckeln und die Radeon hatte noch nie mehr als rund 10GB gefüllt und ist dann noch spielbar.
Aber was passiert bei einer so starken Graka wie der 3080, wenn mehr als 10GB halt nicht da sind?
Nimm doch mal die 2080 Super vs 1080 TI:
https://www.youtube.com/watch?v=2W3EBDugtwM
Die 1080TI füllt oft den Speicher höher, aber die 2080 ist trotzdem schneller.
Und welche Titan soll das sein mit 8 GB? Die hatten doch erst 6 dann 12 GB. ;)
Zumal auch zwischen 8 und 10 ist doch ein größerer Unterschied als zwischen 10 und 11.
Und vielleicht sind ja auch die GDDR6 RAM Chips ziemlich teuer. Anscheinend kosten da 14 GB 800 Euro. ;)
Emil_i_Lönneberga
2020-09-13, 12:54:26
https://videocardz.com/newz/next-generation-nvidia-quadro-rtx-ampere-to-feature-10752-cuda-cores
Es wäre so einfach gewesen. Die 3080 mit 20GB GDDR6 16Gbps, eine zusätzliche Folie in der Präsentation, wie viel besser die 3090 wegen dem GDDR6X gegenüber der 3080 doch sei, wofür er von mir den :ufinger: bekommen hätte und es bei mir, ohne mit der Wimper zu zucken, die 699€ 3080 FE geworden wäre.
Jetzt ist es mir irgendwie vergangen und bis zum 28.10. wird erstmal gar nichts entschieden.
MiamiNice
2020-09-13, 12:56:57
Wenns WIRKLICH mal bei einem Game so ist: Texturen runter von ULTRA to HIGH.
Bamm. Sache erledigt.
Ja, geile Lösung mit einer Karte die eine derartige Rohpower hat. Wer sich da nicht verarscht verkommt :)
Natürlich ist die Series X relevant. Wenn die nur 10GB hat, werden sich Entwickler bei Multiplattform-Spielen daran orientieren.
Das die PC Ports dann aber ein gutes Stück mehr VRam wollen unterschlägst Du? Wenn Du die 10Gb der Türstopper als Argument anführst dann auch komplett. Und was ist mit PC only Games? Kein Interesse?
Ravenhearth
2020-09-13, 12:57:06
Die Xbox One X hatte ca. 10GB Speicher für die GPU. Die Series X hat 10GB für die GPU. Bei der Xbox gab es keine Verbesserung beim Speicher. Die 3080 hat 2GB mehr als die 2080Super und damit exakt das selbe Level wie die Series X.
Wieso es bei der Series X okay ist, hat bis jetzt niemand erklären können. Gleichzeitig hört man hier, wie wenig 10GB Speicher sind...
Würde man über die 8GB der 3070 reden, verstehe ich die Einwände. Aber Microsoft hat mit der Series X doch den Maßstab gesetzt.
Quatsch. Afaik gibts auf der One X 9GB RAM für Spiele, auf der Series X sinds 13,5GB. Kann sein, dass bei der Series X davon 10GB für die GPU sind, aber dann waren es bei der One X auch weniger, vielleicht 6-7GB (ist eine Entscheidung des Entwicklers).
aufkrawall
2020-09-13, 13:02:55
Kann sein, dass bei der Series X davon 10GB für die GPU sind, aber dann waren es bei der One X auch weniger, vielleicht 6-7GB (ist eine Entscheidung des Entwicklers).
Laut Troyans "Logik" hätte dann ja kein Spiel bisher jemals von mehr als 6-7GB VRAM profitiert. Seine Konsolen-Argumentation ist so absurd, aber irgendwie "muss" er ja den knappen VRAM verteidigen. Ein Trauerspiel.
Geforce RTX 3070: Nvidia nennt die finalen Spezifikationen, Launch am 15. Oktober (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/News/Finale-Spezifikationen-1357984/)
Nett, aber nichts, das TU102-Besitzer Angst machen sollte.
MfG
Raff
Troyan
2020-09-13, 13:07:55
Quatsch. Afaik gibts auf der One X 9GB RAM für Spiele, auf der Series X sinds 13,5GB. Kann sein, dass bei der Series X davon 10GB für die GPU sind, aber dann waren es bei der One X auch weniger, vielleicht 6-7GB (ist eine Entscheidung des Entwicklers).
"Memory performance is asymmetrical - it's not something we could have done with the PC," explains Andrew Goossen "10 gigabytes of physical memory [runs at] 560GB/s. We call this GPU optimal memory. Six gigabytes [runs at] 336GB/s. We call this standard memory. GPU optimal and standard offer identical performance for CPU audio and file IO. The only hardware component that sees a difference in the GPU."
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
Die Anbindung ist der limitierende Faktor. Es sind 10GB für die GPU. Kein Entwickler wird auf den langsamen Rest ausweichen.
Laut Troyans "Logik" hätte dann ja kein Spiel bisher jemals von mehr als 6-7GB VRAM profitiert. Seine Konsolen-Argumentation ist so absurd, aber irgendwie "muss" er ja den knappen VRAM verteidigen. Ein Trauerspiel.
Nein. Nach deiner Logik dürften Spiele auf den Konsolen überhaupt nicht richtig laufen, weil der Speicher dauernd vollläuft. Nur weil PC-Spiele vollkommen sinnbefreite Einstellungen und schlechte Ports erhalten, ist doch keine Grundlage.
Ravenhearth
2020-09-13, 13:08:53
Die 14Gbps bzw. 448GB/s finde ich an der 3070 am merkwürdigsten. Gibt es kein 16Gbps? Damit ist man doch niemals schneller als ne 2080 Ti, eher langsamer...
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
Die Anbindung ist der limitierende Faktor. Es sind 10GB für die GPU. Kein Entwickler wird auf den langsamen Rest ausweichen.
Ja, aber dein Punkt war, dass es bei der One X ebenfalls schon 10GB für die GPU waren, was nicht stimmt. Es waren 9GB für Spiele insgesamt, wovon aber nicht alles für die GPU war, eher 6-7GB.
Matrix316
2020-09-13, 13:09:27
Laut Troyans "Logik" hätte dann ja kein Spiel bisher jemals von mehr als 6-7GB VRAM profitiert. Seine Konsolen-Argumentation ist so absurd, aber irgendwie "muss" er ja den knappen VRAM verteidigen. Ein Trauerspiel.
Tausch 6-7 mit 8 und es stimmt doch, oder? Hier werden immer so Extremsituationen beschrieben, die die wenigsten wohl erleben werden.
ICH müsste mir gedanken machen mit meinem Ultra HD Monitor. Und ich denke mal die 10 GB der 3080 werden mir reichen. Zur Not kann man die immer noch verkaufen und auf was besseres umsteigen. ;) Oder Ultrawide mit richitg hohen Auflösungen. Aber in QHD und kleiner sehe ich da jetzt nicht unbedingt so viel bedarf.
Hakim
2020-09-13, 13:14:10
Ist die Performance Beschreibung der 3070 rein geschätzt oder vom 3080 bench Erfahrung beeinflusst?
Troyan
2020-09-13, 13:14:14
Die 14Gbps bzw. 448GB/s finde ich an der 3070 am merkwürdigsten. Gibt es kein 16Gbps? Damit ist man doch niemals schneller als ne 2080 Ti, eher langsamer...
Die 3070TI wird den schnelleren Speicher erhalten.
Ja, aber dein Punkt war, dass es bei der One X ebenfalls schon 10GB für die GPU waren, was nicht stimmt. Es waren 9GB für Spiele insgesamt, wovon aber nicht alles für die GPU war, eher 6-7GB.
Gut. Interessierte mich vor den neuen Karten nicht. Wobei es anscheinend der Fall ist, dass die Series S weniger Speicher für die GPU zur Verfügung hat als die One X.
Ist die Performance Beschreibung der 3070 rein geschätzt oder vom 3080 bench Erfahrung beeinflusst?
Direkt von nVidia: Schneller als die 2080TI (FE).
MiamiNice
2020-09-13, 13:15:45
Und vielleicht sind ja auch die GDDR6 RAM Chips ziemlich teuer. Anscheinend kosten da 14 GB 800 Euro. ;)
Das ist sowieso der Witz überhaupt in 2020. Die wenigsten scheinen zu schnallen warum die „kaputten“ Karten so günstig sind. NV lässt sich ganz scheinheilig feiern während die Leute mit, was auch immer, warten oder zur überteuerten 3090 greifen.
Kaputte Welt :biggrin:
Hat NV mal wieder alles richtig gemacht. Das nächste Rekord Quartal ist gesichert.
GZ @ Lederjacke
Hakim
2020-09-13, 13:15:46
Direkt von nVidia: Schneller als die 2080TI (FE).
Meinte die Einschätzung von Raff in seinem Beitrag
r3ptil3
2020-09-13, 13:18:32
Nett, aber nichts, das TU102-Besitzer Angst machen sollte.
MfG
Raff
Abgesehen vom Preisverfall von über 60%, wird das Ganze in 6 Monaten nochmals deutlich anders aussehen. Dann sieht man von den anfänglichen -/+ 5%, eine 3070 welche die 2080 Ti nicht selten deutlich schlägt.
Die fehlenden 3Gb wird dann auch der letzte Speicher-Kritiker nicht mehr erwähnen, weil die 2080 Ti sowieso zu lahm sein wird.
Bei der 3080 sind's dann nicht mehr 30%, sondern nicht selten weit über 50%.
Leonidas
2020-09-13, 13:19:29
GA104 bestätigt mit 48 SM, 6 GPC und damit auch 96 ROPs.
https://twitter.com/aschilling/status/1305029510329442310
https://pbs.twimg.com/media/EhxlarpXgAA819r?format=jpg&name=large
Ravenhearth
2020-09-13, 13:21:01
Tausch 6-7 mit 8 und es stimmt doch, oder? Hier werden immer so Extremsituationen beschrieben, die die wenigsten wohl erleben werden.
ICH müsste mir gedanken machen mit meinem Ultra HD Monitor. Und ich denke mal die 10 GB der 3080 werden mir reichen. Zur Not kann man die immer noch verkaufen und auf was besseres umsteigen. ;) Oder Ultrawide mit richitg hohen Auflösungen. Aber in QHD und kleiner sehe ich da jetzt nicht unbedingt so viel bedarf.
Ja, aber wenn der VRAM der neuen Xbox jetzt auf 10GB steigt, werden aus den 8GB am PC auch schnell 12GB für Next-Gen-Titel. Guck einfach, was bei der letzten Generation passiert ist: Erst waren 2GB bei GPUs Standard, und zwei Jahre später waren Spiele bei 3-4GB und der VRAM bei Grafikkarten hat sich verdoppelt. Die 2GB von damals sind die 8GB von heute. In ein paar Jahren brauchen Spiele 12-16GB. Dann steht man mit einer 3070/3080 mit 8/10GB dumm dar.
MartinRiggs
2020-09-13, 13:21:47
Geforce RTX 3070: Nvidia nennt die finalen Spezifikationen, Launch am 15. Oktober (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/News/Finale-Spezifikationen-1357984/)
Nett, aber nichts, das TU102-Besitzer Angst machen sollte.
MfG
Raff
Das habe ich mir schon die ganze Zeit gedacht, aber der Hypetrain läuft.
Für mich bleibt die 3070 ne VRAM Gurke
The_Invisible
2020-09-13, 13:21:59
Die 14Gbps bzw. 448GB/s finde ich an der 3070 am merkwürdigsten. Gibt es kein 16Gbps? Damit ist man doch niemals schneller als ne 2080 Ti, eher langsamer...
Sagt nichts aus, die 1070 hatte auch weniger Speicherbandbreite als die 980 Ti
woodsdog
2020-09-13, 13:23:06
kleiner Test meinerseits gerade eben.
Shadow of the Tombraider, Alles auf max abgesehen von RTX Schatten (duh!) und SMAA (war 2x statt 4x), integrierter Bench
9900k Stock, 32GB RAM, 1060-6GB, 2x1440 Display angeschlossen und aktiv. 4k via DSR
800x600, 5,7GB belegt +100FPS Avg
1920x1080, 5,7GB belegt, 55FPS Avg
2560x1440, 5,7GB belegt, 36FPS Avg
3840x2160, 5,7GB belegt, 17FPS Avg
Was nun? :confused:
Die Karte bricht offenkundig nicht wegen vollem Speicher ein, sie wird relativ zur Anzahl der Pixel sogar schneller je größer die Auflösung wird. :freak:
Das Game krallt sich offensichtlich alles was geht und es langt wohl auch noch in 4k mit 6GB. Ich habe keine Texturen einploppen sehen. Frametime-spikes gab es auch keine. Wenn die Engine hier aufgrund von Speichermangel Dinge "wegoptimiert" passiert das offenbar ohne das es mir auffällt. von daher v0v
PS: Der Inhalt des Posts erhebt keinen Anspruch allgemeingültig zu sein. Andere Engines können es ja auch anders machen. Wahrscheinlich kommt hier gleich wieder das völlig kaputte HZD von den üblichen Verdächtigen ins Spiel :rolleyes:
Ist glaub ich alles nur halb so schlimm wie hier immer schwarz/weiß diskutiert wird.
aufkrawall
2020-09-13, 13:24:09
Tausch 6-7 mit 8 und es stimmt doch, oder? Hier werden immer so Extremsituationen beschrieben, die die wenigsten wohl erleben werden.
Wohl dem, der sehen kann und will. Wenn man von einem Produkt verblendet ist (z.B., weil man die Leistung unbedingt haben will), will man es vielleicht auch etwas weniger merken.
Erinnert an die Texturfilterungs-Diskussion um Radeons pre Vega: Ich kann Leute nicht ernst nehmen, die die Probleme nicht bemerken (wollen). :cool:
Ravenhearth
2020-09-13, 13:24:51
Sagt nichts aus, die 1070 hatte auch weniger Speicherbandbreite als die 980 Ti
Ob die Bandbreiteneffizienz abermals so stark gestiegen ist? Die 3080 hat 70% mehr Bandbreite als die 3070, das ist auch im Verhältnis deutlich mehr.
Mangel76
2020-09-13, 13:27:14
Natürlich ist die Series X relevant. Wenn die nur 10GB hat, werden sich Entwickler bei Multiplattform-Spielen daran orientieren.
Dann sollten wir uns wohl alle eine 500€-Konsole kaufen, wenn ein High End PC keine bessere Optik hinkriegt 😁
dildo4u
2020-09-13, 13:28:20
Die Specs der 3070 passen für mich die wird im Laufe der Zeit eh eine 1440p Karte, möglich das die 2080 TI in 4k immer besser zurecht kommen wird.
Die Benches auf der Nvidia Seite vergleicht sie gegen 1070 und 2070 in 1440p.
Olliver
2020-09-13, 13:41:39
Nimm doch mal die 2080 Super vs 1080 TI:
https://www.youtube.com/watch?v=2W3EBDugtwM
Die 1080TI füllt oft den Speicher höher, aber die 2080 ist trotzdem schneller.
Und welche Titan soll das sein mit 8 GB? Die hatten doch erst 6 dann 12 GB. ;)
Zumal auch zwischen 8 und 10 ist doch ein größerer Unterschied als zwischen 10 und 11.
Und vielleicht sind ja auch die GDDR6 RAM Chips ziemlich teuer. Anscheinend kosten da 14 GB 800 Euro. ;)
Titan X Maxwell, die hatte 12GB konnte aber nicht mehr als 8 spielbar verwenden
ShinyMcShine
2020-09-13, 13:44:32
GA104 bestätigt mit 48 SM, 6 GPC und damit auch 96 ROPs.
https://twitter.com/aschilling/status/1305029510329442310
https://pbs.twimg.com/media/EhxlarpXgAA819r?format=jpg&name=large
Danke Dir dafür! Endlich "offiziell"...
Jetzt warte ich auf die 3070Ti mit vollem Chip, schnellerem (16Gbps) Speicher und doppelt so viel Speicherkapazität...
Vor dem Launch von Zen 3 hätte ich mir eh keine neue Karte gekauft...
kleeBa
2020-09-13, 13:45:51
Ja, aber wenn der VRAM der neuen Xbox jetzt auf 10GB steigt, werden aus den 8GB am PC auch schnell 12GB für Next-Gen-Titel. Guck einfach, was bei der letzten Generation passiert ist: Erst waren 2GB bei GPUs Standard, und zwei Jahre später waren Spiele bei 3-4GB und der VRAM bei Grafikkarten hat sich verdoppelt. Die 2GB von damals sind die 8GB von heute. In ein paar Jahren brauchen Spiele 12-16GB. Dann steht man mit einer 3070/3080 mit 8/10GB dumm dar.
Ich persönlich brauche die Karte (3080) aber jetzt und nicht in ein paar Jahren. Wenn in 2, 3 Jahren der "Leidensdruck" hoch genug geworden ist (wie jetzt mit meiner 1080) sind wir 1, 2 Generationen weiter.
Die Speicherdiskussion beunruhigt mich trotzdem. Solange mein 1440p Monitor noch dranhängt wird es wohl gehen, aber der soll auch demnächst was Größerem weichen.
Außerdem hängt noch ein 4k OLED dran. Mit der 1080 eher Krampf als Vergnügen, da hätte ich mir für die 3080 schon mehr VRAM Puffer gewünscht.
Au man....
BlacKi
2020-09-13, 13:55:04
Viel Geld für eine GPU ausgegeben und dann Details runterdrehen müssen weil es am Speicher mangelt. Sensationell.
die 3070/3080 mit 16gb/20gb wird nicht billig. jetzt wegen einem möglichen spiel 200-300€ mehr auszugeben und bei einem spiel von ultra auf high runtergehen zu müssen ist genauso dumm.
du kannst jetzt meckern das nv genug marge macht um das bezahlen zu können, aber dann wäre der markt für amd praktisch tot, bzw. einstellig.
amd profitiert von den lücken die nv hinterlässt. wenn navi mit 3080 performance und 16gb kommt, dann wäre das eine rießige lücke für amd und das ist auch gut so. hätte nv nicht solche lücken, dann gäbs amds grafiksparte schlichtweg nichtmehr.
deshalb verstehe ich es nicht, wenn die leute über die margen von nv meckern. die halten auch amd am leben, wenn auch nicht direkt.
GA104 bestätigt mit 48 SM, 6 GPC und damit auch 96 ROPs.
Alle Specs dazu findest du in der recht aufwendig validierten Tabelle bei PCGH. :)
MfG
Raff
ShinyMcShine
2020-09-13, 14:00:21
Ich hoffe, dass AMD mit Navi 16GB auf 3080 performt und das zum gleichen Preis. Somit wäre für eine 3070Ti mit 16GB preislich schonmal eine obere Grenze gesetzt (abzüglich 50-100€ oder so)...
Alle Specs dazu findest du in der recht aufwendig validierten Tabelle bei PCGH. :)
MfG
Raff
Danke dafür!
Platos
2020-09-13, 14:00:30
@Blacki: Ja, nvidia der holde Retter.
Olliver
2020-09-13, 14:01:10
https://videocardz.com/newz/next-generation-nvidia-quadro-rtx-ampere-to-feature-10752-cuda-cores
Es wäre so einfach gewesen. Die 3080 mit 20GB GDDR6 16Gbps, eine zusätzliche Folie in der Präsentation, wie viel besser die 3090 wegen dem GDDR6X gegenüber der 3080 doch sei, wofür er von mir den :ufinger: bekommen hätte und es bei mir, ohne mit der Wimper zu zucken, die 699€ 3080 FE geworden wäre.
Jetzt ist es mir irgendwie vergangen und bis zum 28.10. wird erstmal gar nichts entschieden.
Ich halte das halt für Absicht, um jetzt schon einen Bedarf für eine 3080Ti oder Super zu schaffen, die in einem Jahr herauskommt, wenn die Leute z.B, schon anfangen zu hoffen, das Hopper wirklich endlich genug Dampf für Raytracing hat.
Dann gibt es wieder Hopper mit zuwenig Speicher:smile:
Mann muss immer einen Bedarf offen lassen und plant natürlich auch für die Verkäufe in ein oder zwei Jahren.
Der Traum das AMD Nvidia´s Pläne beschleunigen kann, bleibt uns ja wenigstens noch mindestens 6 Wochen.
Sprich RDNA2 mit 16GB und 3080 Leistung, würde eine 3080 Ti früher nötig machen, andernfalls müssen wir halt ein Jahr Wartezeit einplanen.
wenn die Leute z.B, schon anfangen zu hoffen, das Hopper wirklich endlich genug Dampf für Raytracing hat.
Dann gibt es wieder Hopper mit zuwenig Speicher:smile:
Die Hoffnung wird immer wieder aufkommen im nächsten Jahrzehnt und trotzdem wird jede beliebige Mehrleistung direkt sinnvoll verbrannt werden.
Olliver
2020-09-13, 14:13:56
Die Hoffnung wird immer wieder aufkommen im nächsten Jahrzehnt und trotzdem wird jede beliebige Mehrleistung direkt sinnvoll verbrannt werden.
Klar ist geniales Marketing, jede Generation wird spürbar besseres Raytracing versprechen.
Vorher haben wir Generationen lang gehofft, 4K flüssig spielen zu können.
Die Mischung aus Fortschritt und Marketing hält uns am kaufen.
BlacKi
2020-09-13, 14:45:35
@Blacki: Ja, nvidia der holde Retter.
eher knechter und retter gleichzeitig. so ist das eben wenn man in führungsposition ist, aber man kein monopol haben will.
Digidi
2020-09-13, 14:55:46
Die Hoffnung wird immer wieder aufkommen im nächsten Jahrzehnt und trotzdem wird jede beliebige Mehrleistung direkt sinnvoll verbrannt werden.
Solange leute hier Predigen das die 3080 der wirkliche Nachfolger ist und nicht die 3090 wird es keinen Fortschritt geben. Zu Meiner Zeit wäre das ein Shit storm gewesen wenn Leute sich mit dem abgespeckten Chip und wenig VRAM hätten zufrieden geben sollen.
Ich kann nur sagen kauft die 3080 nicht. Sie ist zu viel Mist. Zu stark abgespeckt zu wenig Vram und wir haben auch keine Konkurrenz mehr am Markt weshalb auch Software Innovationen stagnieren.
Solange leute hier Predigen das die 3080 der wirkliche Nachfolger ist und nicht die 3090 wird es keinen Fortschritt geben. Zu Meiner Zeit wäre das ein Shit storm gewesen wenn Leute sich mit dem abgespeckten Chip und wenig VRAM hätten zufrieden geben sollen.
Die Tage wurde wieder drüber gemeckert, dass die 3080 ja wieder ein abgespeckter Topdog Chip ist und kein kleinerer Chip.
Nun gehts wieder wieder in die umgekehrte Richtung. Die Schleife wird immer schneller :freak:
Ernsthaft: Für den Endkunden ist das alles so vollkommen egal. Mich interessiert Leistung/Euro unter meinen selbst definierten Constraints.
Ich kann nur sagen kauft die 3080 nicht.
Und was ist die Alternative?
Digidi
2020-09-13, 15:02:53
Die Tage wurde wieder drüber gemeckert, dass die 3080 ja wieder ein abgespeckter Topdog Chip ist und kein kleinerer Chip.
Nun gehts wieder wieder in die umgekehrte Richtung. Die Schleife wird immer schneller :freak:
Ernsthaft: Für den Endkunden ist das alles so vollkommen egal. Mich interessiert Leistung/Euro unter meinen selbst definierten Constraints.
Und was ist die Alternative?
Dann halt anderster früher hast du 100% Leistungssteigerungen für 50 - 100 Euro Mehr bekommen. Wir sind hier mitlerweile bei 300-500 Euro für den gleichen Leistungsanstieg. Wenn man deiner Logik folgt......
Dann sollten wir uns wohl alle eine 500€-Konsole kaufen, wenn ein High End PC keine bessere Optik hinkriegt 😁
Zwei id Software Entwickler in mittlerweile gelöschten Tweets:
Also "it always scaled on PC" is nonsense. Every AAA game in the past decade or so has their assets made once so they run on min spec. Increasing sample counts a bit here and there for high settings isn't what you could truly have done with more power. Min spec matters.
The memory situation is a big issue on the S. The much lower amount of memory and the split memory banks with drastically slower speeds will be a major issue. Aggressively lowering the render resolutions will marginally help but will not completely counteract the deficiencies.
Quelle: https://wccftech.com/id-software-devs-concerns-xbox-series-s-specs/
Natürlich heißt das nicht, dass unser grafisches Maximum dem der Konsole entspricht. Der Umfang der Assets an sich wird daran allerdings sehr wohl orientiert.
Digidi
2020-09-13, 15:05:40
Hier kann man es gut sehen wo die 1080 mit der Konvention bricht. Vorher waren es immer 60% Leistungszuwachs seitdem man nur noch 1080 vergleicht sind es 20% zuwachs, nur bei der 480 auf 580 waren es auch nur 20% zuwachs. Da hat man aber den großen Chip zum gleichen Preis bekommen.
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/
Troyan
2020-09-13, 15:07:25
Richtig. Alle Assets und Texturen werden auf die Konsolen ausgerichtet. Am PC gibt es dann einfach höhere Auflösung bei Schatten und ein paar bessere Texturen. Aber wichtige Dinge wie Geometrie ist weiterhin miserabel, da höheraufgelöste Models auch mehr Speicher benötigen. Und wenn man hier liest, dass 10GB für die GPU heute schon zu wenig sind, dann wird es auch keine bessere Grafik geben.
Hier kann man es gut sehen wo die 1080 mit der Konvention bricht. Vorher waren es immer 60% Leistungszuwachs seitdem man nur noch 1080 vergleicht sind es 20% zuwachs:
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/
Die 499€ 3070 ist >2x schneller als die vor vier Jahren für 699€ eingeführte GTX1080. Wie wäre es einfach mal mit Abstand zu dem Thema.
Digidi
2020-09-13, 15:13:41
Die 499€ 3070 ist >2x schneller als die vor vier Jahren für 699€ eingeführte GTX1080. Wie wäre es einfach mal mit Abstand zu dem Thema.
Lol du bestätigst es ja vor 4 Jahren. Früher gab es 2 mal schneller zwischen den Generationen. Dsa heißt die 3070 müsste nun 2x schneller sein als die 2070.... Ist Sie das? Bestätigst ja meine These.
Matrix316
2020-09-13, 15:13:54
Hier kann man es gut sehen wo die 1080 mit der Konvention bricht. Vorher waren es immer 60% Leistungszuwachs seitdem man nur noch 1080 vergleicht sind es 20% zuwachs, nur bei der 480 auf 580 waren es auch nur 20% zuwachs. Da hat man aber den großen Chip zum gleichen Preis bekommen.
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/
Wieso vergleichen die eine 980TI mit einer 1080 und nicht mit der 1080TI? EDIT Ist ja ein uralter Test :D
Wenn war der erste richtige Bruch seit der 580 der 2080TI, denn die war nicht mehr so viel schneller zur 1080TI wie die 1080TI zur 980TI oder die 980TI zur 780TI.
Jetzt scheint aber die 3080 zur 2080TI so viel schneller zu sein wie eine 1080TI zur 980TI.
Und die 3090TI hätte man eh lieber Titan RTX 2 nennen sollen. 1600 € für eine Geforce ist doch Bullshit. 24 GB RAM braucht auch keiner. Hätte man die mit 12 oder 16 GB für 1000 € gebracht wäre das viel besser gewesen.
Zergra
2020-09-13, 15:16:23
Lol du bestätigst es ja vor 4 Jahren. Früher gab es 2 mal schneller zwischen den Generationen. Dsa heißt die 3070 müsste nun 2x schneller sein als die 2070.... Ist Sie das? Bestätigst ja meine These.
Die Zeiten sind einfach vorbei, das wird in den nächsten Jahren noch weniger werden.
Troyan
2020-09-13, 15:16:46
Lol du bestätigst es ja vor 4 Jahren. Früher gab es 2 mal schneller zwischen den Generationen. Dsa heißt die 3070 müsste nun 2x schneller sein als die 2070.... Ist Sie das? Bestätigst ja meine These.
Die GTX1080 war in 1440p 63% schneller als die GTX980: https://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/#abschnitt_benchmarks_in_2560__1440_und_1920__1080
Ein voller GA104 mit 16gbit/s wird >70% schneller als eine RTX2070 sein. Noch Fragen?
Digidi
2020-09-13, 15:16:59
@Matrix316
Genau aus diesem Grund den ich genannt habe. Man hat angefangen nicht mehr nach Top chip zu vergleichen sondern nach Preisklasse und deshalb zieht das Argument auch nicht mehr das man ordentlich Mehrleistung bekommt.
Genau das ist ja der Shit Storm den ich mir wünsche. Viele haben sich die 1080 schön geredet. Hätten die Kunden druck gemacht hätten sie auch eine 1080ti zum gleichen Preis bekommen wie die 1080...
@Troyan. Sie war aber nicht in der gleichen Preislage wie die 980. Verstehst du Preisleistung? Hör auf dir den Mist schönzureden. Wie kann man nur so Fanboy sein.
Matrix316
2020-09-13, 15:20:49
@Matrix316
Genau aus diesem Grund den ich genannt habe. Man hat angefangen nicht mehr nach Top chip zu vergleichen sondern nach Preisklasse und deshalb zieht das Argument auch nicht mehr das man ordentlich Mehrleistung bekommt.
Genau das ist ja der Shit Storm den ich mir wünsche. Viele haben sich die 1080 schön geredet. Hätten die Kunden druck gemacht hätten sie auch eine 1080ti zum gleichen Preis bekommen wie die 1080...
Du vergisst: Die 1080 kam für 750 oder so raus. Dann kam die 1080TI und die war am Anfang dann für 750 angeboten und die 1080 wurde dann billiger.
Dann kam die 2080 mit der Leistung der 1080TI zum Preis der 1080TI - am Anfang - diese wurde ja durch Mining plötzlich teurer und kostete am Ende 1200 Euro - wo Nvidia dann die 2080TI eingegliedert hat.
Jetzt kriegen wir eine 3070 mit ~ der Leistung der 2080TI für 500 €. Klar mit weniger Speicher, aber mit mehr, hätte Nvidia wahrscheinlich auch mehr $$$ verlangt.
Digidi
2020-09-13, 15:23:09
@Matrix316 Du bekommst also stillstand. Seit jahren kostet die gleiche Leistung immer mehr. Wie gesagt früher war das nicht so. Die 980 hat noch 600 Euro gekostet die 1080 schlug dann mit 750 Euro mit nicht viel mehrleistung und das zieht sich so weiter.
Troyan
2020-09-13, 15:24:29
Die Titan XP #1 kam zwei Monate oder so nach der GTX1080 und kostete $1200: https://www.computerbase.de/2016-07/nvidia-titan-x-vorgestellt/
Es gab bei Pascal nur die GTX1080 für Normalsterbliche und die GTX1080TI kam 10 Monate später auf den Markt. Die 3080 entspricht also klar der GTX1080 von damals. Was in 10 Monaten auf den Markt los ist, kann man dann ja sehen.
TheAntitheist
2020-09-13, 15:25:08
[STRIKE]
Und die 3090TI hätte man eh lieber Titan RTX 2 nennen sollen. 1600 € für eine Geforce ist doch Bullshit. 24 GB RAM braucht auch keiner. Hätte man die mit 12 oder 16 GB für 1000 € gebracht wäre das viel besser gewesen.
ES IST EINE KARTE FÜR CONTENT CREATOR, DAS WURDE ÖFTER GESAGT MAN. Eure 3080TI wird noch kommen aber hör auf immer wieder so einen quatsch zu spreaden, 24GB sind drigend nötig...
Digidi
2020-09-13, 15:48:53
Hier mal ein Beispiel was es verdeutlich. Seit Jahren stagnieren die Preise für Flops/Euro bei den Top tier Karten. Man hat mit der 3090 den jetzigen stand der 1080ti erreicht. Die 1080ti war wirklich noch fair. Nach MMoores Law müssten wir eigentlich schon bei 50 Flops/Euro sein...
Bei der 3090 habe ich die Tflops um 30% veringert da 50% ja nicht zu 100% nutzbar sind, falls sich jemand wundert.
w0mbat
2020-09-13, 16:05:48
Vielleicht wird Ampere auch eine Art zweiter Fermi und in ein paar Monaten gibt es einen refresh der mehr Leistung bei deutlich weniger Verbrauch bietet.
Matrix316
2020-09-13, 16:07:15
ES IST EINE KARTE FÜR CONTENT CREATOR, DAS WURDE ÖFTER GESAGT MAN. Eure 3080TI wird noch kommen aber hör auf immer wieder so einen quatsch zu spreaden, 24GB sind drigend nötig...
DANN SOLL MAN DIE ABER NICHT 3090 nennen, sondern "Titan RTX Creator NOT FOR GAMERS!!! Edition":rolleyes:
wolik
2020-09-13, 16:42:57
DANN SOLL MAN DIE ABER NICHT 3090 nennen, sondern "Titan RTX Creator NOT FOR GAMERS!!! Edition":rolleyes:
Das Problem mit Namen Titan RTX-A wäre das Preis von Titan RTX. 2,7K. Deswegen wurde (IMHO) 3090 in Leben gerufen. Ich vermute Verkaufszahlen von Titan RTX waren sehr, sehr schlecht.
Matrix316
2020-09-13, 16:45:14
Das Problem mit Namen Titan RTX-A wäre das Preis von Titan RTX. 2,7K. Deswegen wurde (IMHO) 3090 in Leben gerufen. Ich vermute Verkaufszahlen von Titan RTX waren sehr, sehr schlecht.
Keine Ahnung. Dass die 3090 keine Gamer Karte sein soll, les ich hier zum ersten Mal. Wobei die Titan RTX an sich schon viel zu teuer war. 1000 € weniger hätte es auch getan im Vergleich zur 2080TI und dann ist man ja schon im 3090 Bereich mitten drin.
TheAntitheist
2020-09-13, 17:32:31
DANN SOLL MAN DIE ABER NICHT 3090 nennen, sondern "Titan RTX Creator NOT FOR GAMERS!!! Edition":rolleyes:
was ändert denn der Name bitte an dem Produkt? was ist das denn für eine idiotische Begründung... die 24GB zeigen dir doch schon das sie nicht zum zocken sind, was brauchst du noch. Ein Warnhinweis der Regierung? ;D
und nur mal so Ti steht für Titan, also ob da RTX Titan oder 3080 Titan steht ist komplett scheiss egal.
Und nur weil du hier zum ersten mal ließt das es keine Karte an Gamer gerichtet ist, ist nicht unsere Schuld. Es wurde ja schon bei der Präsentation gesagt.
Warum hast du dich dann nicht bei der Volta beschwert? ist ja dann anscheinend auch ne Gamer Karte
BlacKi
2020-09-13, 17:34:09
Ich vermute Verkaufszahlen von Titan RTX waren sehr, sehr schlecht.
du meinst eine regelung durch den preis hätte nur den ärger der leute auf sich gezogen die die karte zu teuer gekauft haben? sowas gabs schon öfter.
aber eine preissenkung über die gesammte laufzeit hätte man trotzdem machen können.
Maorga
2020-09-13, 17:40:22
Liebe Community,
ich habe mir mal die 'VRAM' Problematik angeschaut. Da ich gerne aufrüsten würde, ich komme von einer 980Ti.
Zuerst habe ich mir den Verbrauch bei höheren Auflösungen angeschaut. Dabei kam ich auf folgende Erkenntnis:
Je nach Auflösung wird Speicher für den Frambuffer von 24 MiB bis 612 MiB (8K Tripple Buffering) belegt. Ich nutze einen Monitor mit einer Auflösung von 2560x1440, dadurch liegt der Bedarf an Speicher bei 63 MiB. Selbst mit 4K ist dieser bei 153 MiB - selbst mit einer Farbtiefe von 48 bit steigt dieser "nur" auf 230 MiB. Für die einzelnen Farbtiefen sind die Faktoren bei 40 bit 1,2 und bei 48 bit 1,5. Daher ist ein gravierender Mehrverbrauch von Speicher durch höhere Auflösung nicht gegeben.
Ebenso ist der Bandbreitenverbrauch durch den Framebuffer vernachlässigbar und wurde von mir nicht berücksichtigt. Ist in der Tabelle aufgeführt.
Nun habe ich die Speicherbandbreite mit dem Grafikspeicher in ein Verhältnis gesetzt. Dadurch konnte ich Speicher der als Reserve verfügbar ist, z.B. bei einer Bildwiederholrate von 60 Hz bei einer 2080Ti kann 0,73 GiB mit Texturen belegt sein welche nicht im aktuellen Frame / Bild verwendet wird.
Hier erkenne ich, dass die neue Generation von nVidia ein schlechtes Verhältnis bei der RTX 3080 gibt. Die RTX 3070 ist vom Verhältnis ähnlich den Vorgängern. Die RTX 3090 ist überdimensioniert vom Speicher, wenn man diese mit der RTX 2080 Ti vergleicht. Den die Speicherbandbreite steigt gegenüber der 2080 Ti um 33 % der Speicher hingegen um 118 %.
Folgendes zu den einzelnen Karten:
RTX 3070: Befindet sich im Sweetspot von Speicherbandbreite und Speicher. Eine sehr ausgewogene Karte.
RTX 3080: Dieser Karte hätte etwas mehr Speicher nicht geschadet, so mit 10 Chips a 1,5 GiB. Damit hätte die Karte 15 GiB was ein deutlich besseres Bild abgeben würde.
RTX 3090: Dieser Karte fehlt die Bandbreite für den größeren Speicher. Allerdings ist die Mehranzahl der Cores gegenüber der 3080 deutlich geringer. Daher überzeugt die Speicherbandbreite. Je nach Anforderung können 8 GiB für nicht verwendete Texturen bereitgestellt werden.
Raytracing: Hier denke ich, dass die Speicherbandbreite das A und O davon sind. Durch die sehr vielen Strahlen müssen immer wieder Information abgefragt werden, und zwar unbestimmt - da die Strahlen in jedwede Richtung abgelenkt werden. Dadurch finden viel mehr wahllose Zugriffe auf den Speicher statt, der nicht durch den Cache abgefangen werden kann, da keine Vorhersage getroffen werden kann.
Eine 3090 kommt für mich nicht infrage. Die 3070 ist mir zu schwach, daher wird wohl nur die 3080 für mich übrig bleiben. Dürfte für meine Anforderungen reichen.
Freue mich schon auf eure Kommentare, Hinweise und Verbesserungen.
Troyan
2020-09-13, 18:01:02
Das vollkommen Absurde hier ist doch, dass nVidia kritisiert wird immer mehr an das Maximum zu gehen. GM200 auf 208nm war 600mm^2 groß. TU102 ist noch mal 25% größer. Gäbe es TU102 nicht und nVidia wäre weiterhin auf 600mm^2 beschränkt, würde jeder hier die 3080 abfeiern, weil man nun 60%+ Mehrleistung gegenüber den Vorgänger erhält. Und selbst gegenüber von GP102 ala 1080TI sind es 82%+.
Wie man hier also auch nur so realitätsfremd schreiben könnte, man solle eine 3080 nicht kaufen, ist mir komplett schleierhaft. Einige sollten wirklich mal Abstand zu diesem belanglosen Thema finden und sich freuen, dass mit Ampere wieder mehr Leistung für das selbe Geld geboten wird.
=Floi=
2020-09-13, 18:01:08
warte, wenn es geht auf die karten mit doppeltem speicher.
Digidi
2020-09-13, 18:16:25
Das vollkommen Absurde hier ist doch, dass nVidia kritisiert wird immer mehr an das Maximum zu gehen. GM200 auf 208nm war 600mm^2 groß. TU102 ist noch mal 25% größer. Gäbe es TU102 nicht und nVidia wäre weiterhin auf 600mm^2 beschränkt, würde jeder hier die 3080 abfeiern, weil man nun 60%+ Mehrleistung gegenüber den Vorgänger erhält. Und selbst gegenüber von GP102 ala 1080TI sind es 82%+.
Wie man hier also auch nur so realitätsfremd schreiben könnte, man solle eine 3080 nicht kaufen, ist mir komplett schleierhaft. Einige sollten wirklich mal Abstand zu diesem belanglosen Thema finden und sich freuen, dass mit Ampere wieder mehr Leistung für das selbe Geld geboten wird.
Ich lege dir mal folgendes Video zugrunde. Vielleicht kapierst du mal das du total in deinem Bias gefangen bist.... Ich hab es aufgzeigt und Zahlen lügen nicht. Nach der 1080ti ist die Performance für den Preis auf einen Absteigenden Ast.
https://youtu.be/cjUDp3-4s14
Und hier nochmal die Zahlen:
Hakim
2020-09-13, 18:21:09
Ohne das "https://youtu.be/"
Troyan
2020-09-13, 18:42:25
Ich lege dir mal folgendes Video zugrunde. Vielleicht kapierst du mal das du total in deinem Bias gefangen bist.... Ich hab es aufgzeigt und Zahlen lügen nicht. Nach der 1080ti ist die Performance für den Preis auf einen Absteigenden Ast.
https://youtu.be/cjUDp3-4s14
Zahlen lügen nicht? Deine schon.
Hier mal Faktencheck für dich:
2016: Titan Xp #1: $1199 (Inflation: $1297) - 100% Leistung
2020: RTX 3090: $1499 - 182%+ Leistung (Rasterizing).
Aufpreis: 125% (116%)
P/L der 3090: 145,6% (156%)
Bias. Du hast es einfach richtig erkannt.
Digidi
2020-09-13, 18:44:35
Zahlen lügen nicht? Deine schon.
Hier mal Faktencheck für dich:
2016: Titan Xp #1: $1199 (Inflation: $1297) - 100% Leistung
2020: RTX 3090: $1499 - 182%+ Leistung (Rasterizing).
Aufpreis: 125% (116%)
P/L der 3090: 145,6% (156%)
Bias. Du hast es einfach richtig erkannt.
Du vergisst das bei der Titan XP eine 1080ti gab die kaum langsamer war und ganz dicht dran an der Titan XP. Jetzt hast du eine Riesen Lücke dazwischen... Vorher waren es nur 8% unterschied diemal sehen wir eine Lücke von 17% und eine GPC weniger. Hinzu kommt das Board und Kühlerdesign wo du bei der 3090 noch mal mehr rausholen kannst.
Titan XP 12,2 gflops 1080ti 11,3 gflops
3090 35,7 zu 29,8
Troyan
2020-09-13, 18:53:48
Ich vergesse nichts. Die 1080TI kam im März 2017 auf den Markt. 7 Monate nach der Titan Xp#1, die bis dato die schnellste Karte mit dem meisten VRAM war. Wer also mehr als 8GB haben wollte, musste die Titan Xp kaufen.
Jetzt kommt die 3080 auf den Markt, die 80%+ schneller als eine 1080TI ist und dabei genauso viel kostet. Die Karte wird in deiner Auflistung überhaupt nicht betrachtet.
Deine Behauptung ist daher einfach falsch. Und es wird auch nicht richtiger andere Produkte einfach zu ignorieren.
Platos
2020-09-13, 18:57:35
Die heisst aber Titan X und nicht Titan Xp. Bei der Titan Xp gabs schon eine 1080Ti.
Troyan
2020-09-13, 19:06:07
Ja, die zweite Pascal-Titan Karte. Die erste kam im August 2016 auf den Markt.
Die 3090 z.B. bietet deren Käufern nun 24GB statt 12GB und >80% mehr Leistung. Auch hier hat sich das P/L erheblich verbessert.
Man kann immer irgendwelche Zeitpunkte vergleichen. Aber das ist pervers verschoben, die 3090 mit der 1080TI zu vergleichen und dabei zu ignorieren, dass die Karte 13GB mehr Speicher hat.
ChaosTM
2020-09-13, 19:23:31
Doppelt soviel Speicher nach 3 Jahren ist gerade adäquat.
Digidi
2020-09-13, 19:23:33
Ja, die zweite Pascal-Titan Karte. Die erste kam im August 2016 auf den Markt.
Die 3090 z.B. bietet deren Käufern nun 24GB statt 12GB und >80% mehr Leistung. Auch hier hat sich das P/L erheblich verbessert.
Man kann immer irgendwelche Zeitpunkte vergleichen. Aber das ist pervers verschoben, die 3090 mit der 1080TI zu vergleichen und dabei zu ignorieren, dass die Karte 13GB mehr Speicher hat.
Nein das PL hat sich verschlechtert verstehst du das nicht? Man ist bei Tflops/Euro noch da wo man bei Pascal mal war. Nichts hat sich verbessert. Lerne Daten zu verstehen. Man wie kann man nur so ein Fanboy sein.
Armaq
2020-09-13, 20:53:13
Nein das PL hat sich verschlechtert verstehst du das nicht? Man ist bei Tflops/Euro noch da wo man bei Pascal mal war. Nichts hat sich verbessert. Lerne Daten zu verstehen. Man wie kann man nur so ein Fanboy sein.
Aber laut deiner Grafik sind besonders die 1080Ti und die 3090 (viele Flops per Euro) gute Karten. Die anderen Karten schneiden schlechter ab.
Wir nehmen mal bei deinem Vergleich einfach Zeit/Inflation etc. raus, das finde ich ok. Aber dann stechen doch in Punkte Flops pro € 1080Ti und 3090 hervor mit guten Ergebnissen. Die anderen Karten sind bei 10 oder weniger, diese bei 16.
Rampage 2
2020-09-13, 20:55:31
Danke Dir dafür! Endlich "offiziell"...
Jetzt warte ich auf die 3070Ti mit vollem Chip, schnellerem (16Gbps) Speicher und doppelt so viel Speicherkapazität...
Vor dem Launch von Zen 3 hätte ich mir eh keine neue Karte gekauft...
Ist damit jetzt die Existenz einer 3070 Ti "offiziell" oder nur die Daten zum GA104-Chip? Wenn's Letzteres ist, dann ist das keine Neuigkeit - dass der volle GA104 nicht 46, sondern 48 SMs besitzt, weiß man schon seit Wochen oder gar Monaten:rolleyes:
War bei der 2080 doch genauso gewesen: Man wusste, dass der volle TU104 48 SMs hatte, aber die 2080 Super kam trotzdem erst nächstes Jahr... (und ohne AMD's schlagkräftigen RDNA-Launch hätte es die 2080S vielleicht gar nicht gegeben...:facepalm:)
R2
Digidi
2020-09-13, 21:02:48
Aber laut deiner Grafik sind besonders die 1080Ti und die 3090 (viele Flops per Euro) gute Karten. Die anderen Karten schneiden schlechter ab.
Wir nehmen mal bei deinem Vergleich einfach Zeit/Inflation etc. raus, das finde ich ok. Aber dann stechen doch in Punkte Flops pro € 1080Ti und 3090 hervor mit guten Ergebnissen. Die anderen Karten sind bei 10 oder weniger, diese bei 16.
Die 1080Ti war sehr gut. Da ging es richtig ab. Die 3090 bräuchte einen Wert um 40-50 Tflops/Euro um Gut zu sein. Seit der 1080ti hat sich an Preis Leistung nichts getan.
Orbmu2k
2020-09-13, 21:08:22
@Digidi: hast du die 3080 bewusst ausgelassen? :D
Die sollte eine deutlich höhere TF/Euro haben
Digidi
2020-09-13, 21:09:40
@Digidi: hast du die 3080 bewusst ausgelassen? :D
Die sollte eine deutlich höhere TF/Euro haben
Es geht um die Top Dog Karten. Wenn man drunter vergleicht ist es immer besserr ;)
Wenn man mal hier schaut. Die Preise waren immer recht Konstat mit nur leichtem Ansteig. Dafür wurden die Flops meist verdoppelt. Der Bruch erfolgte so bei der 1080ti zur 2080ti da steigen die Flops nur Maginal.
https://www.computerbase.de/2017-01/radeon-hd-7970-290x-fury-x-vergleich/#abschnitt_die_testprobanden_besser_einordnen
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/#abschnitt_die_testprobanden_besser_einordnen
BlacKi
2020-09-13, 21:12:26
Edit: hier stand mal was
Orbmu2k
2020-09-13, 21:15:49
Es geht um die Top Dog Karten. Wenn man drunter vergleicht ist es immer besserr ;)
Aus dem Premiumsegment zu vergleichen macht nur wenig Sinn, dann müsstest du die jeweiligen TITANs heranziehen, weil nur diese zum Launch zu Verfügung standen so wie jetzt die 3090 die eindeutig eine TITAN ist.
Vergleich doch mal 780, 980, 1080, 2080, 3080, das sollte ein aussagekräftigeres Bild abgeben.
Digidi
2020-09-13, 21:19:05
Aus dem Premiumsegment zu vergleichen macht nur wenig Sinn, dann müsstest du die jeweiligen TITANs heranziehen, weil nur diese zum Launch zu Verfügung standen so wie jetzt die 3090 die eindeutig eine TITAN ist.
Vergleich doch mal 780, 980, 1080, 2080, 3080, das sollte ein aussagekräftigeres Bild abgeben.
Die Tis kahmen immer kurze Zeit später und diese waren immer nur marginal (8% bei der 1080ti) langsamer als die Titan. Zwischen 3080 und 3090 klafft nun ein Loch von 17% stats 8%
Vergleich auch mal die Flops seitdem es die Titans gibt stagnieren die flops bei der reinen 080 Reihe.
x-force
2020-09-13, 21:20:51
Vergleich doch mal 780, 980, 1080, 2080, 3080, das sollte ein aussagekräftigeres Bild abgeben.
das ergibt ein geschöntes bild, da die vorgänger eine ti version hatten, die einen deutlich größeren chip hatte.
erst die 780 hatte wieder den gleichen chip wie der topdog.
Orbmu2k
2020-09-13, 21:23:01
Die Tis kahmen immer kurze Zeit später und diese waren immer nur marginal (8% bei der 1080ti) langsamer als die Titan. Zwischen 3080 und 3090 klafft nun ein Loch von 17% stats 8%
Die Ti kamen zwischen 5 und 8 Monate später, das ist nicht gerade "kurz".
Du müsstest als warten ob in den nächsten 8 Monaten noch eine Ti kommt.
Nimm einfach die Klasse drunter dass ist viel besser vergleichbar bei einer pro Euro Analyse.
das ergibt ein geschöntes bild, da die vorgänger eine ti version hatten, die einen deutlich größeren chip hatte.
erst die 780 hatte wieder den gleichen chip wie der topdog.
Es geht doch um eine Leistung/Euro Analyse, da geht es nicht um die Chips sondern um ein Preissegment.
Digidi
2020-09-13, 21:24:13
Nvidia hat es mit TI und Titan gepackt maximale Verwirrung zu stiften. Hätten die neue Namen vergeben, anstelle ein Altes Schema mit viel Verwirrung zu versehen, würden wir uns heute rein über Chipfläche/euro oder Flops/Euro unterhalten und das ist für mich der einzige Weg für eine Sinvolle Diskussion ;) Ihr seit alle voll auf die Marketingfalle von Nvidia reingefallen.
Die 2080ti kahm doch direkt oder? Darn merkt man das du als Kunde nur ein Punchingball bist wenn du diesen mist mitmachst.
Ich nehme nicht eine klasse Drunter. Denn mein Argument ist ja das gerade die Top Klasse so langsam im Preis entgleitet und die Klassen darunter so langsam mitreißt. Es ist ja genau der Trick. Die viel teure Top Karte lässt die Karte drunter viel billiger erscheinen. Aber das ist sie nicht.
MasterElwood
2020-09-13, 21:38:00
Es geht um die Top Dog Karten. Wenn man drunter vergleicht ist es immer besserr
Die 3080 IST die Top Dog Gamer Karte. Bei der Präsentation nicht aufgepasst?
Digidi
2020-09-13, 21:39:11
Die 3080 IST die Top Dog Gamer Karte. Bei der Präsentation nicht aufgepasst?
Top dog ist der größte Chip mit dem höchsten ausbau und nicht was mir jemand in Lederjacke sagt fertisch! :facepalm:
TheAntitheist
2020-09-13, 21:42:45
Ich lege dir mal folgendes Video zugrunde. Vielleicht kapierst du mal das du total in deinem Bias gefangen bist.... Ich hab es aufgzeigt und Zahlen lügen nicht. Nach der 1080ti ist die Performance für den Preis auf einen Absteigenden Ast.
https://youtu.be/cjUDp3-4s14
Und hier nochmal die Zahlen:
dann vergleich nochmal Spiele mit raytracing, die laufen ja auch auf der 1080ti... dann wird ein schuh draus. darum ging es nämlich bei der 20er gen.
Digidi
2020-09-13, 21:44:13
dann vergleich nochmal Spiele mit raytracing, die laufen ja auch auf der 1080ti... dann wird ein schuh draus. darum ging es nämlich bei der 20er gen.
Das ist auch wider ein Argument dann versuch mal auf einer GTX 480 DX11.1 laufen zu lassen. Den fortschritt gabs früher Gratis dazu... .
Birdman
2020-09-13, 21:47:18
Nvidia hat es mit TI und Titan gepackt maximale Verwirrung zu stiften.
Ich weiss nicht was hier verwirrend sein sollte.
Jensen selbst hat gesagt/impliziert, dass die 3090 die neue Titan Linie ist.
Und wer denkt dass Jensen ja eh nur lügt, der muss nur den Preis und der RAM Ausbau der Karte anschauen um zu realisieren, dass es sich hier um das Produkt handelt, welches früher unter dem Namen "Titan" lief.
MiamiNice
2020-09-13, 21:49:57
Die 3080 IST die Top Dog Gamer Karte. Bei der Präsentation nicht aufgepasst?
Nö. Top Dog ist die 3090. Die 3080 ist mit dem Speicherausbau irgendwo eher im unterem High End.
wolik
2020-09-13, 21:51:07
du meinst eine regelung durch den preis hätte nur den ärger der leute auf sich gezogen die die karte zu teuer gekauft haben? sowas gabs schon öfter.
aber eine preissenkung über die gesammte laufzeit hätte man trotzdem machen können.
Nein. Ich meinte um das Markt (Angebot /Nachfrage) überhaupt zu haben, man hat mit Titan RTX mal versucht und total versagt. Aber aus diese Miesere raus zu kommen wurde 3090 "erschaffen" Ich zweifele immer noch ob Titan RTX-A in diese Serie das Welt erblickt.
Lawmachine79
2020-09-13, 21:51:58
Top dog ist der größte Chip mit dem höchsten ausbau und nicht was mir jemand in Lederjacke sagt fertisch! :facepalm:
Allein diese Diskussion mit den Begriffen zeigt, dass man sich nicht an Nomenklatur oder Vergangenheit oder Marketing orientieren sollte sondern sich einfach fragen muss wieviel Geld ist mit wieviel Leistung wert. Ist doch egal wer jetzt Top Dog ist, ob es keine Titan mehr gibt oder doch oder ob TI und Titan als Namen verwirrend sind.
Tesseract
2020-09-13, 21:54:00
ich verstehe diese wirren postings nicht. 3080 zählt nicht weil nicht "top dog", der "top dog" titan zählt aber auch nicht weil der nicht-top-top die rundere karte ist? :freak:
die klasse einer karte bestimmt einzig der preis. in jeder preisklasse in der eine ampere-karte existiert bietet sie mehr leistung pro euro als die karten davor. ergo bekommt man in diesen klassen mehr leistung pro euro. so schwer ist das ganze nicht.
Daredevil
2020-09-13, 21:54:24
Und wenn ein Ryzen 4800x mit 10 Kernen raus kommt, wird Digidi ihn permanent als 8-Kerner bezeichnen, weil war schon immer so.
Mein Lieblingssatz in Firmen ist stets "Das haben wir immer so gemacht" aka "Ich bin so flexibel und Frei wie der Eifelturm". Meine güte.
3080 ist das neue HighEnd, 3090 die unbezahlbare Karte für Nerds mit Job.
Wobei....... eigentlich müsste die 3090 ja der Nachfolger der GTX690 sein, war ja schon immer so.
Dual Chip confirmed!!11
Digidi
2020-09-13, 21:58:05
Und wenn ein Ryzen 4800x mit 10 Kernen raus kommt, wird Digidi ihn permanent als 8-Kerner bezeichnen, weil war schon immer so.
Mein Lieblingssatz in Firmen ist stets "Das haben wir immer so gemacht" aka "Ich bin so flexibel und Frei wie der Eifelturm". Meine güte.
3080 ist das neue HighEnd, 3090 die unbezahlbare Karte für Nerds mit Job.
Überleg Dir doch mal wohin wir kommen wenn AMD die Preis anheben würde. Wärst du damit einverstanden Wenn der nächste 10 Kerner 1500 Euro kostet und nicht 599 Euro nur weil er 2 Kerne mehr hat?
@Tesseract
Die Titans und Tis waren immer fast Gleich von der Leistung. Selbst wenn wir die Titans mit ihrem hohen Preis dazunehmen ist die Flops zahl über die letzen Generationen nur Maginal gestiegen zu dem verlangten Preis. Ich rede hier vor Titan Ära
Triniter
2020-09-13, 22:00:14
Ich rechne für mich anders: ich will eine Karte die mir Leistung und Speicher bietet die zueinander passen. Was bringt mir 24gb wenn der Chip nichts mehr bringt? Gleiches gilt andersrum, Leistung wäre da aber der RAM ist am Ende.
Ich weiß es derzeit noch nicht ob ich da aktuell wirklich fündig werde einen Nachfolger für die 1080ti zu finden. Bin sehr auf die Tests gespannt
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.