PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 14./15. Dezember 2020


Leonidas
2020-12-16, 09:21:34
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1415-dezember-2020

00-Schneider
2020-12-16, 10:11:36
300$ Aufpreis für die 3080Ti ggü. der 3080 finde ich etwas zu fett.

Cubitus
2020-12-16, 10:29:36
Ist aber ein andere Chip, nicht vergessen ;)
Das wäre eigl die Karte, so schnell wie 3090 GTX und genügend Speicher..

Preis wäre hoch aber nichts im Vergleich zu den 1600 Euro für die 3090..

00-Schneider
2020-12-16, 10:36:02
Ist aber ein andere Chip, nicht vergessen ;)
Das wäre eigl die Karte, so schnell wie 3090 GTX und genügend Speicher..

Preis wäre hoch aber nichts im Vergleich zu den 1600 Euro für die 3090..


Wie hoch wäre denn der angenommene Leistungsunterschied der 3080Ti ggü. der 3090 in 4K?

Raff
2020-12-16, 10:44:40
5–7 Prozent.

MfG
Raff

Asaraki
2020-12-16, 10:47:28
Wie hoch wäre denn der angenommene Leistungsunterschied der 3080Ti ggü. der 3090 in 4K?

Muss - wenn die Daten stimmen - marginal sein. Da wird PT mehr oder weniger definieren, welche Karte schneller ist. Eine Ti mit höherem PT dürfte eine 3090 hinter sich lassen, wenn auch nur knapp.

Lehdro
2020-12-16, 10:50:02
Also greift NV damit die Leute an denen die 3080 zu popelig ausgestattet ist im Speicherbereich, denen die 3090 zu teuer ist (500$ günstiger klingt doch super?) und die gleichzeitig "schneller" (im Rahmen der Messungenauigkeit) als die 6900XT für denselben Preis und dabei sogar noch extra VRAM in Petto haben wollen. Klingt nach einer soliden Strategie. AIB Modelle sind dann sicher wieder bei 1200€+.

Asaraki
2020-12-16, 11:06:44
Also greift NV damit die Leute an denen die 3080 zu popelig ausgestattet ist im Speicherbereich, denen die 3090 zu teuer ist (500$ günstiger klingt doch super?) und die gleichzeitig "schneller" (im Rahmen der Messungenauigkeit) als die 6900XT für denselben Preis und dabei sogar noch extra VRAM in Petto haben wollen. Klingt nach einer soliden Strategie. AIB Modelle sind dann sicher wieder bei 1200€+.

Mich haben sie schon :D hihi.

greeny
2020-12-16, 11:41:52
target="_blank">Biostar B550M-Silver: Mikro-ATX-Board für Ryzen 5000 mit solider Ausstattung [PC Games Hardware]
Öhm... ;)

Mega-Zord
2020-12-16, 12:04:11
Wenn das nicht wieder so ein Fantasie-Listenpreis ist...

Der Druck scheint nach dem ersten Schreck auch deutlich gesunken zu sein. SAM ist wohl nicht die Neuerfindung des Rades und gerade in 4k schlägt die ach so beschnittene 3080 selbst die 6900XT. Von der RT-Performance brauchen wir gar nicht sprechen.

Aroas
2020-12-16, 12:39:02
Wenn das alles so von NVidia kommt, dann ist die RTX 3000er Serie in Sachen Speicherausstattung an Lächerlichkeit kaum noch zu überbieten.
Eine 3060 mit satten 12GB Speicher, während eine viel schnellere 3070Ti nur 10GB hat?
Gleichzeitig eine 3060 mit mickrigen 6GB Speicher, obwohl die Karte deutlich schneller sein wird als alles, was bisher schon an 6GB krankt?

Was für ein Schwachsinniges Portfolio. Und dennoch wird zu Wucherpreisen gekauft wie doof.

Gast
2020-12-16, 13:29:48
Und dennoch wird zu Wucherpreisen gekauft wie doof.
Ja, eben... Hat NV doch alles richtig gemacht. Zumindest aus Sicht des Mitarbeiters und Aktionärs, die freuen sich über Bonus und Dividende...
Ich warte mal, bis die neuen Radeons auch mal lieferbar sind. Dann schau ich mal, was wie teuer ist und überlege mir, ob ich meine Nano in Rente schicke oder ob sie noch zwei Jahre läuft.

Legendenkiller
2020-12-16, 14:23:44
Da die 3080TI im Prinzip eine 3090 mit 20Gb Ram wird sind die 999€UVP und 1200€ Straßenpreis realistisch.


interessant wird die 3070Ti ... die rückt sehr nah an die 3080 und hat aber mehr Ram. Sie könnte also genauso viel oder mehr kosten aus die 3080/10Gbyte.

Wobei die 3080 aktuell soweit oberhalb der UVP legt, da ist es eh egal.


also IMO Straßenpreise: Q1 2021
3060 399€
3060Ti 499€
3070 599€
3070TI 749€
3080 999€
3080TI 1249€
3090 1599€

6800 649€
6800XT 799€
6900XT 1099€

Platos
2020-12-16, 14:40:24
Wo sind bitte 1000$ ein guter Preis? Man könnte meinen, bei manchen reicht das Gedächtnis nicht mehr bis zu Pascal hinab ;)

Aber manche hier kann man mit nvidias Taktik wohl ganz gut verarschen. Zuerst bringt man mit Turing eine 2080Ti, die 1200$ kostet, dann eine 3090 die 1500 kostet und dann eine 3080Ti, die ja dann "nur" noch 1000$ kostet (300 Dollar mehr, wie die 1080Ti bzw. 43% teurer).

Bei solchen Kunden würde ich auch ständig die Preise erhöhen. Die kann man sogar dazu bringen, dass eigentlich teure Preise für günstig gehalten werden:freak:

Legendenkiller
2020-12-16, 14:56:16
wer hat denn gesagt das es ein guter Preis ist?
Ich sagte realistisch.

Und solange wie eine 3080 ab 999€ kostet ... auf jeden Fall.

Die 3080TI wird bei 1200€ landen, ganz sicher. Die 2080Ti hat sich schließlich schon für 1200€ blendend verkauft.
zur 2080ti und 3090 verglichen müsste sie sogar eher bei 1300€ liegen.


PS: ich warte ja imernoch noch auf die versprochene "Doppelt so schnell wie eine 2080Ti für 700€ Grafikkarte" :-/
Wann wollte Nvidia die rausbringen? ... Das Datum hatte ich bei der Ankündigung vor 2-3 Monaten garnicht mitbekommen...

BlacKi
2020-12-16, 14:57:01
eine 3080ti für 1000$ ist im verhältnis zum konkurenten passend aufgestellt, obendrauf gibts 4gb mehr vram^^

der markt kauft eh alles weg. über die marktpreise braucht man garnicht zu diskutieren.

du hast halt die wahl, entweder kleinere sprünge, oder teurere preise. wen die kleineren sprünge nicht stören, kann allerdings auch kleinere karten kaufen.

die performance sprünge zwischen den fertigungsprozessen sind kleiner geworden. obendrein durch die hohe nachfrage auch teurer. natürlich werden die karten immer teurer.

Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1415-dezember-2020
steht ddr4 für zen4 denn wirklich zur debatte?

Gast
2020-12-16, 18:05:07
obendrein durch die hohe nachfrage auch teurer. natürlich werden die karten immer teurer.



Eine hohe Nachfrage müsste eigentlich zu einer hohen Anzahl verkaufter Katen führen und die Stückkosten damit signifikant senken, gerade in einem Bereich in dem die Entwicklungskosten einen großen Anteil an den Gesamtkosten haben.

Platos
2020-12-16, 18:13:39
Bei nvidia gibts natürlich nur deshalb Preiserhöhung, weil die kosten in der Produktion proportional gleichmässig steigen... ;);D

Und natürlich kann und sollte man über Preise diskutieren und diese auch kritisieren.

iamthebear
2020-12-16, 18:35:35
300$ Aufpreis für die 3080Ti ggü. der 3080 finde ich etwas zu fett.

Also ich finde die 300 Euro bei der 3080 Ti eigentlich noch human. Das sind vermutlich ca. 150 Euro für die zusätzlichen 20% Shader und 150 Euro für die zusätzlichen 10GB GDDR6X.

Zum Vergleich: Bei Turing gab es die 2080 Ti auch um 300 Euro mehr und man bekam:
.) 40% mehr Shader, was insgesamt ca. gleich viele Transistoren waren
.) Nur 3GB statt 10GB
.) Ein minimal größeres Speicherinterface

Von den Kosten auf Nvidia Seite ist die Erhöhung also durchaus berechtigt. Der Grund, dass beim Anwender fast nichts mehr davon ankommt liegt daran, dass Nvidia einfach bei der TDP ansteht und dass man vom zusätzlichen Speicher derzeit eben noch nichts spürt und ich behaupte auch nie wirklich viel spüren wird weil die Modi, wo man den VRAM wirklich braucht wie Native 4K + RTX sowieso nicht mit stabilen 60fps laufen.

Platos
2020-12-16, 19:00:30
Nvidia muss anscheinend wirklich nur Produkt A völlig überteuert auf den Markt werfen und dann Produkt B etwas günstiger (aber immer noch überteuert) auf den Markt bringen, damit die Leute sich selbst sagen, es sei ja eig. günstig.;D

Man, also ehrlich...

iamthebear
2020-12-16, 21:00:59
Bei nvidia gibts natürlich nur deshalb Preiserhöhung, weil die kosten in der Produktion proportional gleichmässig steigen... ;);D

Das liegt tatsächlich an den Produktionskosten, denn eine übertrieben hohe Marge hat Nvidia immer schon gehabt, spätestens seit dem Miningboom.

AMD macht derzeit keine Anstalten sie preislich unter Druck zu setzen. Wozu sollten sie auch, wenn TSMC sowieso nicht die Kapazitäten hat, um mehr zu produzieren.
Alles was AMD an GPUs produziert fehlt ihnen an Wafern für Zen3 und da wollen sie auf jeden Fall in den Servermarkt. Gleichzeitig werden Konsolen verkauft ohne Ende und da können sie auch nicht raus, weil da gibt es sicher bestehende Verträge mit Sony/Microsoft.

Leonidas
2020-12-17, 05:57:28
Öhm... ;)


Da wurde zuviel weggeschnitten ;) Richtiger Link ist:
https://www.pcgameshardware.de/Mainboard-Hardware-154107/News/Mikro-ATX-Board-Ryzen-5000-Biostar-B550M-Silver-1363598/





steht ddr4 für zen4 denn wirklich zur debatte?


DDR5 ... ja, auf jeden Fall im Server-Bereich. Und im Consumer-Bereich könnte AMD einfach davon profitieren, dass Intel die Anfangsarbeit übernimmt. Wenn Zen 4 in 2022 kommt, könnte DDR5 schon preisgünstig genug sein, dass sich das macht. Dabei hat AMD ja sowieso die Option eines Kombi-Interfaces (wird ja das billige I/O-Chiplet) oder der von zwei I/O-Varianten. Gute Chance also, dass Zen 4 DDR5 bringt.


Sofern Du es umgedreht meinst, sprich "warum noch DDR4" .... stimmt eigentlich, warum noch DDR4 bei Zen 4? Aber bei der CPU-Entwicklung startet man Jahre im voraus und kann nicht immer genau erkennen, welche Speichersorte zum Marktstart schon reif ist oder nicht. Ich denke, alle fahren da generell zweigleisig, um nicht auf dem falschen Fuß erwischt zu werden.

Legendenkiller
2020-12-17, 09:31:28
Nvidia muss anscheinend wirklich nur Produkt A völlig überteuert auf den Markt werfen und dann Produkt B etwas günstiger (aber immer noch überteuert) auf den Markt bringen, damit die Leute sich selbst sagen, es sei ja eig. günstig.;D

Man, also ehrlich...


Wenn man mit Marketing mehr Kundenbindung erreicht als mit der Leistung seiner Produkte... liegt es wohl an den Kunden ;-) Oder anders .. Die Leute wollen belogen werden, solage es sich gut anfühlt.

So gesehen wollen also viele Kunden mehr als nur Grafikkarten kaufen und Nvidia liefert Wunschgerecht ein Kauferlebniss :-)

Denniss
2020-12-17, 09:31:33
Wenn Bedarf besteht z.B. durch geringe Verfügbarkeit oder weit überhöhte Preise von DDR5 dann könnte AMD an den bisherigen (oder einen leicht verbesserten) I/O-Die einfach Zen4-Kerne anflanschen und für die bisherigen Sockel rausbringen.

Nazar
2020-12-17, 09:45:29
Zitat: Eine indirekte Begründung für diese Verschiebung liegt sicherlich in dem Punkt, dass es AMD mit der Radeon RX 6900 XT nicht geschafft hat, nVidia an der absoluten Leistungsspitze ernsthaft unter Druck zu setzen. Aller Vermutung nach dürfte diese Verschiebung aber eher daran liegen, dass nVidia einfach warten muß, ehe die Chipfertigung zum zugrundeliegenden GA102-Chip den Launch weiterer darauf basierender Grafikkarten erlaubt. Dass sich durch AMDs neue Spitzen-Grafikkarten kein direkter Zugzwang für nVidia ergibt, kommt für diese Entscheidung sicherlich erleichternd hinzu. /Zitat Ende

Du lernst es wohl nie, oder? :freak:

Mega-Zord
2020-12-17, 10:26:10
Zitat: Eine indirekte Begründung für diese Verschiebung liegt sicherlich in dem Punkt, dass es AMD mit der Radeon RX 6900 XT nicht geschafft hat, nVidia an der absoluten Leistungsspitze ernsthaft unter Druck zu setzen. Aller Vermutung nach dürfte diese Verschiebung aber eher daran liegen, dass nVidia einfach warten muß, ehe die Chipfertigung zum zugrundeliegenden GA102-Chip den Launch weiterer darauf basierender Grafikkarten erlaubt. Dass sich durch AMDs neue Spitzen-Grafikkarten kein direkter Zugzwang für nVidia ergibt, kommt für diese Entscheidung sicherlich erleichternd hinzu. /Zitat Ende

Du lernst es wohl nie, oder? :freak:

Ist doch so. Mit einer 3080 Ti würde NV ja nur die 3090 unter Druck setzten... warum sollten sie das tun?

Die 6800/6900 ist wirklich ein gelungener Wiedereinstieg in den Highend-Sektor. Aber für 4k und Raytraycing bietet im Moment NV mit zwei Karten das bessere Paket.

Buddy Casino
2020-12-17, 10:51:11
Eine hohe Nachfrage müsste eigentlich zu einer hohen Anzahl verkaufter Katen führen und die Stückkosten damit signifikant senken, gerade in einem Bereich in dem die Entwicklungskosten einen großen Anteil an den Gesamtkosten haben.

Da muss man zwei verschiedene Dinge unterscheiden:

Skalenfaktoren: die Kosten pro Stück sinken mit steigender Anzahl, bei 1Mio vs 10Mio habe ich die Fixkosten wie z.B. R&D auf mehr Einheiten verteilt. Das senkt die Stückkosten für den Hersteller, ermöglicht bessere Einkaufskonditionen und schafft Spielraum für Preissenkungen oder höheren Gewinn.
Angebot vs Nachfrage: auch bei 10Mio produzierten Einheiten und damit niedrigen Stückkosten kann der Preis trotzdem hoch bleiben, wenn die Nachfrage das Angebot übertrifft, oder der Markt von einem Anbieter beherrscht wird und dieser dadurch die Preise diktieren kann.


Die aktuelle Situation ist eher: Nachfrage übersteigt Angebot & Nvidia dominiert den Markt. Zumindest ersterer Punkt wird sich mit der Zeit geben. Man darf auch nicht vergessen dass auch Nvidia und AMD mit knappem Angebot zu kämpfen haben, nämlich Produktionskapazitäten bei TSMC und zu wenig Speicherchips.

WedgeAntilles
2020-12-17, 10:56:06
Zitat: Eine indirekte Begründung für diese Verschiebung liegt sicherlich in dem Punkt, dass es AMD mit der Radeon RX 6900 XT nicht geschafft hat, nVidia an der absoluten Leistungsspitze ernsthaft unter Druck zu setzen. Aller Vermutung nach dürfte diese Verschiebung aber eher daran liegen, dass nVidia einfach warten muß, ehe die Chipfertigung zum zugrundeliegenden GA102-Chip den Launch weiterer darauf basierender Grafikkarten erlaubt. Dass sich durch AMDs neue Spitzen-Grafikkarten kein direkter Zugzwang für nVidia ergibt, kommt für diese Entscheidung sicherlich erleichternd hinzu. /Zitat Ende

Du lernst es wohl nie, oder? :freak:

Mal überlegen.

Die 3090 ist
ohne RT minimal schneller
mit RT deutlich schneller
Mit DLSS unglaublich viel schneller
hat 8GB mehr Ram
im Anwednungsbereich weit überlegen

als die 6900XT.
Doch, ja, die 3090 ist MASSIV unter Druck durch die 6900XT. Not.

Aktuell gibt es nicht mal nen riesigen Preisunterschied. Die 3090 FE ist ja immer mal wieder erhältlich. Die 6900XT ist für 1000 Euro nie zu bekommen. Wenn überhaupt mal für 1200 Euro aufwärts.

Du jammerst wegen einer 100% von den Fakten gedeckten Aussage.
Dude, seriously?

etp_inxession
2020-12-17, 11:26:10
Schon mal drüber nachgedacht, das die 6900 XT nur eine Pseudo Karte ist, um genau die 3080ti abzufangen?
AMD hat nVidia genau dort wo Sie sie haben wollen. Bei einem Preis der 3080ti der knapp unter, sehr wahrscheinlich aber knapp über 4-stellig wird.

Somit ist im Sektor in dem am meisten ab- und umgesetzt wird, die 6800XT weiterhin die 1. Wahl für alle, die auf DLSS verzichten können.

Darunter kommen mit Navy Flounder sehr wahrscheinlich geniale Gegenspieler zur 3060(ti) bei gleicher VRAM Ausstattung (oder mehr) und etwas besserem Preis.

RT und DLSS spielen in diesem Sektor noch immer kaum eine Rolle.

AMD wird, bei besserer Verfügbarkeit, ziemlich sicher Marktanteile zurückgewinnen.

Nicht mit der 6900XT ... aber darunter.

nVidia wusste ganz genau, das man früher releasen muss um überhaupt noch Käufer zu finden.
Die 2 Monate Vorsprung sieht man in den Zahlen bis Q2/21 ... danach wird sich das ganze vermutlich etwas pro AMD drehen.

Auch wenn der gewünschte Marktanteil von 50/50 noch weit entfernt ist.

Nazar
2020-12-17, 18:53:11
Ist doch so. Mit einer 3080 Ti würde NV ja nur die 3090 unter Druck setzten... warum sollten sie das tun?
Die 6800/6900 ist wirklich ein gelungener Wiedereinstieg in den Highend-Sektor. Aber für 4k und Raytraycing bietet im Moment NV mit zwei Karten das bessere Paket.


Mal überlegen.

Die 3090 ist
ohne RT minimal schneller
mit RT deutlich schneller
Mit DLSS unglaublich viel schneller
hat 8GB mehr Ram
im Anwednungsbereich weit überlegen

als die 6900XT.
Doch, ja, die 3090 ist MASSIV unter Druck durch die 6900XT. Not.

Aktuell gibt es nicht mal nen riesigen Preisunterschied. Die 3090 FE ist ja immer mal wieder erhältlich. Die 6900XT ist für 1000 Euro nie zu bekommen. Wenn überhaupt mal für 1200 Euro aufwärts.

Du jammerst wegen einer 100% von den Fakten gedeckten Aussage.
Dude, seriously?



RT? Ernsthaft? Das ist also alles was von der Überlegenheit von nV übrig ist und dann wird davon gesprochen, dass AMD nV nicht ernsthaft an der Leistungsspitze unter Druck setzen konnte?
Also wo nochmal wurde in meinem Zitat RT erwähnt? :confused:

Mega-Zord
2020-12-17, 19:21:54
Lies doch einfach mal richtig. RT und 4k sind halt komplett 3090-Land und und in altertümlichen Settings ist sie auch noch etwas schneller als eine 6900XT. Was willst du denn eigentlich? Wenn du mit dir selbst im Unreinen bist, dann geb ich dir den AMD-Listenpreis einer 6900XT für deine grottige 3090. ;D

Es mag sein, dass man am Ende gar nicht das beste braucht und das persönliche Lieblingsspiel sogar auf der günstigeren Karte besser läuft. Aber wer die schnellste Karte benötigt, moderne Features nutzen will und nicht unter Realitätsverlust leidet, wird wohl in eine 3080 Ti oder eine 3090 investieren.

Ja, die 3090 ist der 6900XT in Punkto Leistung überlegen. Die Überlegenheit ist natürlich nciht vergleichbar mit 2080 Ti vs. Vega VII, aber das Preisgefüge ist ja auch ein anderes.

Birdman
2020-12-17, 20:22:08
Der einzige Vorteil der 6900XT liegt bei der Perf/Watt, ansonsten ist es aber wirklich keine Karte welche die 3090 in irgendeiner Form unter Druck setzt.

Eigentlich das aktuell überflüssigste Stück Hardware das man für einen überteuerten Preis kaufen kann...wenn man es denn überhaupt kaufen kann.

Gast
2020-12-18, 06:08:51
so wo liegt bitte ne 3090 ohne RT und DLSS über ner 6900xt ? nichtmal mit den 70w mehr an verbrauch , und hallo ich zocke 4k seit dem ersten monitor und DLSS können sie sich sonst wohin stek...
und wenn ihr ach solche bild quali liebhaber seid ( deswegen zocke ich auch 4k ) dann werdet auch ihr diese kack DLSS verhuntzde bild scheisse finden . und ehrlich auf RT verzichte ich bis wirklich genug leistung das ist für GANZES RT nicht dieses halbe abgeschnitene dings bums da . hatte die letzten 3-4 gens Nvidia wird ma zeit AMD ne chance zu geben weil die sich auch echt mühe geben und meine ansicht nach das bessere Produckt auf den markt gebracht haben .

Schreibfehler dürft ich behalten ;)

LG

Keine Fanboy

Mega-Zord
2020-12-18, 09:17:44
1 nice Ausdrucksweise und eine gute deutsch :D

DLSS Quality sieht wohl niemand, außer wenn er ich vielleicht mit der Lupe Screenshots ansieht, selbst dann ist es schwierig.

Es sagt ja auch niemand, dass die 6900 XT eine scheiß Karte ist. Aber die 3090 ist eben auch ohne RT immer noch etwas schneller. Kostet zwar mehr und verbraucht mehr... ist aber so. Daraus machen die ganzen NV-Hater dann "AMD ist scheiße!" Wer mit so einer Haltung durch die Welt läuft kann eigentlich nur noch bemitleidet werden.

Wenn ich das beste von Besten will, kaufe ich ja keine Grafikkarte, bei der sich jemand Mühe gegeben hat. Ich kaufe die schnellste Karte, die es gibt und zahle ggf. einen sehr hohen Preis. Die letzten paar Prozent waren schon immer extrem teuer.

Kack verhunzter Dreck noch mal!

1 ganz lieb Grus vong mir und guten Weinachten :)

Gast
2020-12-18, 10:28:35
DLSS Quality sieht wohl niemand, außer wenn er ich vielleicht mit der Lupe Screenshots ansieht, selbst dann ist es schwierig.



Doch das sieht man deutlich, DLSS Quality zeigt mehr feine Details und weniger Artefakte als TAA.

GerryB
2020-12-18, 14:16:43
Warum wird eigentlich immer die 6900 mit der 3090 verglichen?

Jensen hat eindeutig gesagt, die 3080 ist die größte Gamer.
3090 = Prosumer

Die 6900 darf ein mue mehr kosten als die 3080.(für nonRT-Player)
Und die ganzen Tabellen z.Vgl. kann man sich schenken, wenn net bei gleichen W gemessen wird.
Da ist halt die 6900 in der Range von der 3080. Kann sich Jeder selber ausrechnen, wieviel schneller ne
6900@320W ist.

Gast
2020-12-18, 15:24:03
Jensen hat eindeutig gesagt, die 3080 ist die größte Gamer.
3090 = Prosumer


Das hat die Lisa zur 6900 auch so in der Art gesagt.

Birdman
2020-12-18, 18:11:58
Warum wird eigentlich immer die 6900 mit der 3090 verglichen?
Wer macht das? Die AMD Fanboy Armada?
In den News geht es darum, wer die absolute Leistungskrone hat und ob man (nVidia) diese abgeben musste und sich daher zu einer raschen Reaktion gezwungen sah....und das ist eben nicht der Fall.

Ist ja nicht so dass nVidia irgendwie daran interessiert wäre, unbedingt und jederzeit das bessere Produkt in Sachen "Preis/Leistung" anbieten zu können - zumindest waren sie das die letzten 10 Jahre auch nicht, bzw. es hat sie nie gestört und direkt zu einer Handlung gezwungen/verleitet wenn es nicht so gewesen ist.

Gast
2020-12-18, 18:38:41
Wer macht das? Die AMD Fanboy Armada?
In den News geht es darum, wer die absolute Leistungskrone hat und ob man (nVidia) diese abgeben musste und sich daher zu einer raschen Reaktion gezwungen sah....und das ist eben nicht der Fall.

Ist ja nicht so dass nVidia irgendwie daran interessiert wäre, unbedingt und jederzeit das bessere Produkt in Sachen "Preis/Leistung" anbieten zu können - zumindest waren sie das die letzten 10 Jahre auch nicht, bzw. es hat sie nie gestört und direkt zu einer Handlung gezwungen/verleitet wenn es nicht so gewesen ist.

Achso also haben sie die Preise weil sie euch ´´auf´´ einmal LIEBEN gesenkt ?
kla junge und in meinen augen ist die 6900 besser als die 25% mehr Strom schlukende ach so dolle RT und Bildverschlimmbesserer DLSS wundertüte 3090 die auch 30% mehr kostet aber gerade mal in MANCHEN spielen schneller ist ;)
Bin kein fanboy hab grade ne 980TI drin davor meine 2080TI verkauft :) aber ich kaufe das Produkt das mir für mein geld das meiste bietet und Das ist nun mal AMD , und nein ich habe genug geld das ich mir warscheinlich gleich 10000x 3090 kaufen könnte aber ich verschenke kein geld schon garnicht an Nvidia die die menschnen mit ihrer preis politik verarschen . Wenn du eine karte kaufst weil dun fan bist vom namen pfff nicht mein problem aber mach nicht eine karte nieder nur weil du gegenüber einer marke dich treu fühlst warum auch immer -.-

Schreib fehler sind für euch dürft sie behalten .

Birdman
2020-12-18, 19:29:57
kla junge und in meinen augen ist die 6900 besser als die 25% mehr Strom schlukende ach so dolle RT und Bildverschlimmbesserer DLSS wundertüte 3090 die auch 30% mehr kostet aber gerade mal in MANCHEN spielen schneller ist ;).
- 300W vs 350W = 25% ?
- es ist besser, langsameres Raytracing zu haben?
- es ist besser, gar kein DLSS (oder equivalent) zu haben?
- 95% der Spiele sind "MANCHE"?

Keine Ahnung in welcher Welt Du lebst, aber da scheinen sich nicht gerade die intelligentesten Lebewesen zu tummeln.

Denniss
2020-12-18, 19:47:33
Die 6900XT kommt der 3090 in der Rasterleistung verdammt nahe und das für 2/3 des Preises bei etwas geringerem Stromverbrauch aber auch 8GiB weniger VRAM.
Die P/L-Krone hat sie auf jeden Fall.
Nvidia wird die 20GiB 3080 wohl nicht so schnell bringen weil entweder zu teuer oder mangel an GDDR6X-Chips. Die Pfennigfuchser warten bestimmt auf 2GiB Chips um die momentane Platine weiternutzen zu können

Mega-Zord
2020-12-18, 21:17:36
Die 6900XT kommt der 3090 in der Rasterleistung verdammt nahe und das für 2/3 des Preises bei etwas geringerem Stromverbrauch aber auch 8GiB weniger VRAM.
Die P/L-Krone hat sie auf jeden Fall.
Nvidia wird die 20GiB 3080 wohl nicht so schnell bringen weil entweder zu teuer oder mangel an GDDR6X-Chips. Die Pfennigfuchser warten bestimmt auf 2GiB Chips um die momentane Platine weiternutzen zu können

Was spräche dagegen, einfach die Platine der 3090 für eine 3080 Ti zu nutzen? Aber die wollen auch sicher noch die 3090 eine Zeit lang verkaufen. Bei der geplanten Preislage kauft die 3090 dann nämlich fast keiner mehr.

Im moment mag die 6900 XT noch gut funktionieren. Aber ein Nachfolger muss mehr RT-Leistung haben und eine Alternative zu DLSS bringen. Ich hätte gedacht, dass sie das besser im Griff haben aufgrund der Next-Gen-Konsolen. Um dynamische Skalierung führt die nächsten Jahre wohl kein Weg herum.

Denniss
2020-12-19, 02:01:34
die 3090 Platine + Kühler sind deutlich teurer und benötigen auch doppelt soviele Speicherbausteine. Wenn Nvidia da kein "pressing need" sieht dann wartet man auf die 2GiB VRAM Chips. Oder auf GA 103. Oder auf beides.

GerryB
2020-12-20, 22:11:25
Warum mich eigentlich 6900 vs. 3080@320W in UWQHD interessieren tät = die 6900@Stock ist sehr oft im PL und die 3080FE eigentlich kaum.(kommen dann tatsächlich 6,67% mehr Fps@320W raus? ...und skaliert SAM dann in B3+RE3 besser?)

Ne 3090@350W..520W ist dann glatt nochmal ne andere Kategorie=eigentlich aufgrund des Preises uninteressant, außer für 4k-RT-Gamer.(glaube net, das ne 6900Custom >>370..390W noch soviel mehr bringt, das kann nur der größere Chip der 3090 und der viiiele Vram=Stromverbrauch nutzen)

Abhilfe werden hoffentlich die Custom-Reviews bringen, damit mal Vgl.barkeit entsteht.
(falls ein Custom-Silent-Bios mal zufälligerweise genau die 320W hat)