PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Gaming-Ampere wieder nur mit ca. +35% Mehrp., dafür aber RTX für alle


Leonidas
2020-03-22, 16:07:20
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-gaming-ampere-wieder-nur-mit-ca-35-mehrperformance-dafuer-aber-rtx-fuer-alle

BlacKi
2020-03-22, 16:30:53
gleich geht wieder das QQ los, wegen dem focus auf RT...

ich hab kein problem damit wenn ich 1080ti performance x 1,35 + x 1,35 für 800€ bekomme, gepaart mit alltagstauglicher RT performance.

wobei das alles nur leaks mit unbekanntem wahrheits gehalt sind.

Lowkey
2020-03-22, 16:39:32
Nachdem der Abstand zwischen 1080Ti und 2080ti von Spiel zu Spiel größer wird, bekommst du für 800 Euro auch sehr selten schon eine 2080Ti mit aktuell knapp +50% Mehrleistung akzeptabler RT Performance.

Der limitierende Faktor in jedem Gaming PC ist nunmal die Grafikkarte und die Nachfrage nach Grafikkarten ist immer sehr hoch. Wenn nun doch nur ein paar Prozent herauskommen, ist das enttäuschend. Zudem lassen sich dann wohl Rückschlüsse auf Big Navi ziehen?

hardtech
2020-03-22, 17:16:16
enttäuschend.
bedenkt man, wie lange es turing und super turing bereits gibt.

Lehdro
2020-03-22, 18:42:40
Wenn es so kommt, so hoffe ich das AMD NV den Hintern versohlt bei der Rasterizer und RT Performance. Wenn schon "wenig" Performancesteigerung, dann wenigstens mit vernünftigen Preisen.

Wird aber wohl ein feuchter Traum bleiben.

seba86
2020-03-22, 19:37:06
Irgendwie scheint sich High-End immer mal wieder zu DOCH zu löhnen bei diesen niedrigen Schritten...

- 8800GTX hat EWIG gehalten
- HD5870
- 7970
- 1080Ti hält sich immer noch sehr wacker mit der 2070S + 11GB RAM; v.a. wenn die 3090 nur mit 12GB kommen sollte

Alles darunter müsste man schon 2-4x häufig so austauschen...

Platos
2020-03-22, 19:37:19
Gut, "nur" 35% ist ja eigentlich mal nichts, was schlimm sein muss. Die Frage ist nur, zu welchem Preis und das hängt dann von AMD ab, sofern sie zu ähnlichen Zeiten launchen.

Die Frage wäre also, was AMD schafft zu liefern:

Mit der Fury X gab es noch sowas wie ein 980Ti Konter, wobei das ein Krüppel war wegen den wenigern 4GB. Dann die Vega64, welche mit Ach und Krach und Stromverbrauch bis in die Hölle noch xx80-er Perfomance erreichte. Dann kam die 5700XT welche nur noch xx70-er Perfomance erreichte (dafür mit vernünftigen Stromverbrauch und kleinerer Chipfläche allerdings schon unter 7nm).

Naja, RDNA 2 müsste Wunder vollbringen, dass sie wieder xx80 Konter liefern können bei mehr oder weniger ähnlichem Stromverbrauch. AMD kann es sich nun auch nicht gerade leisten, riesen Chips zu produzieren, ergo ist es fragwürdig, inwiefern sie mehr bieten können wie nvidia.

Es hängt aus meiner Sicht also nun alles davon ab, wie gut bzw. wie "schlecht" der 8nm Samsung Prozess ist. Und wenn man sich mal anschaut, was AMD bei 7nm liefert und was nvidida bei 12nm liefert, siehts ehrlich gesagt nicht gerade so aus, als würde AMD riesige Vorteile haben, es sei denn RDNA2 ist die Wunderpille (was ich bezweifle)

Gast
2020-03-22, 19:45:47
Es hängt aus meiner Sicht also nun alles davon ab, wie gut bzw. wie "schlecht" der 8nm Samsung Prozess ist. Und wenn man sich mal anschaut, was AMD bei 7nm liefert und was nvidida bei 12nm liefert, siehts ehrlich gesagt nicht gerade so aus, als würde AMD riesige Vorteile haben, es sei denn RDNA2 ist die Wunderpille (was ich bezweifle)

Die zukünftige XBox liefert doch genug Anhaltspunkte, wonach
RDNA2 ein Riesensprung für AMD wird.

Gast
2020-03-22, 19:56:52
Diese News sind "alt", der erste Tweet ist schon vom 11.3.2020.

Das wäre allerdings wirklich ein Spiel mit dem Feuer, NV kann schließlich nicht erwarten, dass AMD ewig hinterherhängen wird.

Die Auslegung macht allerdings meiner Meinung nur Sinn, wenn wir hier eigentlich über den 2080 Nachfolger sprechen.
Dieser könnte bei 2080Ti + 30% herauskommen, und womöglich lässt der eigentliche 2080Ti Nachfolger auch noch länger auf sich warten, und wird dann die erwartete Mehrperformance bringen.

Möglicherweise bringt auch NV nur den größten Chip für den 2080Ti Nachfolger in 7nm, den Rest tatsächlich in 10/8nm.

Booby
2020-03-22, 19:59:04
@Platos
Das ist kompletter Schmarn:
Vergleiche mal die Transistoren: 2080/2070Super 13.6B, 5700XT 10.3.
Bei der Leistung/Transistor hat man jetzt schon die Parität.
Aktuell scheint es so, dass der Schritt Turing -> Ampere nicht größer sein wird als RDNA -> RDNA2.
Wenn AMD ähnlich große Chips bauen wird, sollte man in ähnlichen Regionen landen.

JVC
2020-03-22, 20:23:10
"– oder anders formuliert, die Ampere-Generation wird so etwas wie "Turing 2.0" mit voraussichtlich wieder nur ca. +35% Performancegewinn gegenüber der Vorgänger-Generation."
Danke das genügt.
Das passt zu den vermuteten "nur 12Gb".

"..die zuletzt kolportierte 8nm-Fertigung von Samsung ist ja letztlich nur ein 10nm-Derivat."
Im Zuge dessen vielleicht auch mal den Treadtitel "Ampere (Turing-Nachfolger, 7/8nm..." auf 10nm++ umändern.
Das verwirrt sonnst finde ich.

Was ist mit NV´s Schublade los, zwickt da was ?
(vielleicht kommt was Ti mäßiges ja etwas später)


Dieser Herbst/Winter wird Bombe ^^
Ich hätte gerne eine neue Graka mit HDMI 2.1 :smile:
Und nen 16Kern Zen3 :up:

M.f.G. JVC

Tigerfox
2020-03-22, 20:23:42
Naja, halbwegs plausible Zahlen, aber eben nur halbwegs:

- Seit Kepler hat NV bei jedem 04er-Chip 512 Shader draufgepackt, unabhängig vom Fertigungsprozeß (GK104: 1536, GM204: 2048, GP104: 2560, TU104: 3072)
- Von Kepler zu Maxwell wurde das erreicht, indem das Verhältnis von Shadern zum TMUs vergrößert wurde (Kepler SMX: 192:16, Maxwell SM: 128:8)
- Danach wurde dieses Verhältnis nicht mehr verändert, nur bei Turing ein SM halbiert
- Ebenso hat man seit Maxwell bei der Top-GPU immer 768 Shader dazugepackt
- Dadurch ist seit Maxwell die Top-GPU immer das 1,5-Fache der x04er-CPU, währen der GK110 noch das 1,875-Fache vom GK104 war

Ich halte es daher für unwahrscheinlich, dass es jetzt bei einem neuen Fertigungsprozeß und abgesichts der gigantischen Shaderzahlen, die für irgendwelche Quadros oder Teslas durch die Gegend spuken (108, 118 und 124) nur so wenig Fortschritt gibt.

Gast
2020-03-22, 20:29:46
Nvidia macht einen auf Intel, nicht mehr als nötig um noch vor der Konkurrenz zu sein. Das man das "Ti" erst malö streicht ist doch auch nachvollziehbar. Falls AMD, was nicht passiert, doch was ganz furchtbar schnelles auf den Markt wirft kann man immer Stück für Stück Richtung Vollausbau in die Gaming-Holzklasse drücken.

Geldmann3
2020-03-22, 20:54:12
Nur 12GB Vram, das wäre enttäuschend. Ich spiele in letzter Zeit öfter mal mit Machine Learning und die 11GB Vram meiner 2080 Ti pfeifen dabei dauernd aus dem letzten Loch. Selbst bei ML und RT Anwendungen in Gaming sehe ich 12GB Vram bald als großes Problem...

ChaosTM
2020-03-22, 21:11:36
Die 35% wären genau dort wo ich sie erwartet hab. Man muss sich ja noch Luft für den Refresh lassen. Vielleicht wird es ja ein "Übertaktungswunder"..
16GB erwarte ich bei der Großen Karte aber schon.

BlacKi
2020-03-22, 21:26:55
wenn die performance vermutung stimmt, dann glaube ich eher an 8/11/12 gb an 256 bis 384bit.

schreiber
2020-03-22, 22:10:32
35% mehr und dazu der Preis sicherlich wieder mal kräftig rauf. Ich glaub, die haben die Verkleinerungen der Fertigungsstrukturen tatsächlich nicht mehr im Griff und die Yields sind im Keller. Da wird in den nächsten Jahren nichts größeres an Performancesprüngen mehr kommen. Bei Prozessoren ist das ja auch schon lange der Fall.

WedgeAntilles
2020-03-22, 23:20:58
35% mehr und dazu der Preis sicherlich wieder mal kräftig rauf.

Halte ich für unwahrscheinlich - bzw. kommt es massiv drauf an, was AMD macht.

Jedenfalls im Bereich der 3070.
Die 5700XT ist bereits leicht schneller, als die 2070 (non super)

Falls da jetzt eine Steigerung von 40% bei AMD kommt wäre man mit dem Nachfolgemodell der 5700XT fast 15% vor Nvidias 3070.

Die 5700XT begann bei ca. 430 Euro (und ist inzwischen bereits bei unter 400 Euro angekommen.)

Die Frage ist natürlich, wie positioniert AMD den Nachfolger preislich?
Das wird der Preisbereich sein, den Nvidia nicht überbieten darf mit der 3070er.

Die 5700XT hat der 2070 schon merklich Marktanteile abgenommen - bei einem Preis-Leistungs-Verhältnis, das ca. 10% besser (inzwischen eher 15% besser) war.

10% - 15% besseres Preis-Leistungs-Verhältnis dürfte die Schmerzgrenze sein. Das kann sich Nvidia noch erlauben, da der Ruf besser ist.

Wenn jetzt der Nachfolger der 5700XT aber bereits 15% mehr Performance hat, kann Nvidia nicht auch noch teurer sein.
Sonst ist das Preis-Leistungs-Verhältnis nämlich um 20% und mehr schlechter.
Und da wird der Marktanteil dann äußerst stark einbrechen, jedenfalls im Bereich der 3060 + 3070.

(Klar, die 3080 bzw. 3080 TI werden davon nicht direkt betroffen sein, da AMD an diese Leistungsspitze nicht herankommen wird.)

Sollte der 5700XT-Nachfolger preislich bei ca. 450 Euro landen (ob das realitstisch ist kann ich nicht sagen) muss Nvidia auch in diesem Bereich sein.
Sonst können sie sich in diesem Preissegment von ihrer Marktführerschaft verabschieden.

Und eines ist auch klar: Ja, Nvidia kann es sich aktuell erlauben, ca. 10-15% höhere Preise zu verlangen (bei identischer Leistung).
Das hat sich Nvidia im Laufe der letzten 10, 15 Jahre erarbeitet.
Aber falls die großen Marktanteile erstmal verspielt sind und man durch zu hohe Preise große Käufergruppen zu AMD getrieben hat - dann ist es sehr fraglich, ob Nvidia bei der nächsten Generation diesen Bonus noch hat.
Falls die AMD GraKas + Treiber dann gute Qualität haben und die Käufer merken: Hey, läuft ja genauso problemlos wie die Nvidia Karte die ich immer hatte - dann heißt es bei der nächsten Generation: Jetzt kaufe ich das, was ein bisschen besser ist. Und wenn es nur 5% sind.

Dann hat Nvidia seine sehr komfortable Stellung verspielt.
Und damit eine Menge GEld verloren.

Falls Nvidia nicht völlig unfähige Analysten intern hat, werden die das auch genau wissen.

Und die 3070 entsprechend preislich einstufen.

MiamiNice
2020-03-22, 23:30:18
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-gaming-ampere-wieder-nur-mit-ca-35-mehrperformance-dafuer-aber-rtx-fuer-alle

Ich denke auch das NV sich seinen Namen damit verspielt.

Gastein
2020-03-23, 00:06:18
Nvidia muss RTX für alle bringen, die Konsolen setzen noch während der frühen Phase der Gen die neuen Minimum Features.
AMD hat auch schon früh gesagt sie bringen RT wenn es für alle GPUs Sinn macht. Also wird RDNA2 schnell den ganzen Stack übernehmen.
Besser man kauft nichts neues bis klar ist wie die neuen Konsolen wirklich performen.
Wenn man kann wartet man noch 12 Monate.

|MatMan|
2020-03-23, 00:07:00
Für GA104 wären +35% sehr cool, für GA102 ziemlich lahm...

etp_inxession
2020-03-23, 07:22:28
nVidia wird das schon so machen, das es Ihnen passt.

Die Ankündigung(en) wurden ja bis auf weiteres ausgesetzt.

Sicher auch, weil man von der Xbox RDNA2 schon etwas getriggert wurde.

nVidia hat vor allem eins .... Zeit ..
Eigentlich kann man sich entspannt anschauen wie Big Navi im PC Bereich performt und dann der 3080ti das SUPER verpassen ....

3080ti Super > Big Navi > 3080ti > ...

Preislich AMD rund 200 €uro drunter, ... wobei wir da trotzdem bei >1000 €uro sind.

Gast
2020-03-23, 08:15:48
Der gleiche Käse wie vor jedem Launch .
Befeuert von irgendwelchen Möchtegern Insidern.
Von AMD wird fest erwartet das Rad neu zu erfinden während NV es wieder eckig machen soll .

Die Erwartungshaltung gabs zu Fiji,Vega und Navi vor dem Launch auch schon , herausgekommen ist mM jedesmal nicht das prophezeite.

Rabiata
2020-03-23, 08:55:19
Naja, RDNA 2 müsste Wunder vollbringen, dass sie wieder xx80 Konter liefern können bei mehr oder weniger ähnlichem Stromverbrauch. AMD kann es sich nun auch nicht gerade leisten, riesen Chips zu produzieren, ergo ist es fragwürdig, inwiefern sie mehr bieten können wie nvidia.

Wieso das? AMD hat die RX 5700 gerade nicht als größten Chip positioniert, sondern durchblicken lassen daß da noch was größeres hinterherkommt. Big Navi mit bis zu 80 CU ist also nicht unmöglich, sondern wahrscheinlich.

Was die Performance/Watt angeht, lasse ich mich überraschen. Mir persönlich würde ja ein zweiter Betriebspunkt gefallen, bei dem die GPU mehr im Sweet Spot arbeitet. Etwas Performance für erheblich weniger Verbrauch geopfert.

seba86
2020-03-23, 09:49:55
Rabiata, dass ist doch bei AMD schon länger möglich durch UV. Wenn man Vega oder RX570 um 5% die Taktraten senkt, spart man doch 25% an Strom ein...

BlacKi
2020-03-23, 10:15:55
ein "niedrigerer betriebspunkt" hat den vorteil für kunden, das man diese leistung nicht zahlen muss. karten vorneweg bis an die kotzgrenze zu takten ist wie das verkaufen von OC reserven.

naja, mal sehen wie es kommt. nicht umsonst sitze ich noch auf meiner 1080ti.

MasterElwood
2020-03-23, 10:24:17
Also ich hab jetzt wie alle hier keine koreanischen Insider-Infos - aber +35% machen logisch gesehen keinen Sinn - aus mehreren Gründen:

1. Recht langer Abstand zu Turing
2. Zum ersten Mal seit langem echte Konkurrenz im Anflug
3. +35% gabs schon letztes Mal - 2x hintereinander kann sich NV sowas wohl nicht erlauben

WAS ich mir denken könnte ist, dass die "+35%" stimmen - aber das rundherum in der Übersetzung/Stille Post spielen wo falsch abgebogen ist - und die NORMALE 3080 betrifft - aber gerechtet auf die Super (was Sinn macht - man vergleicht ja mit dem direkten Vorgänger)

2080S + 35% = 3080 wäre dann 148.5% schneller als normale 2080

Da sind wir dann auch ziemlich genau bei den "+50%" die da vor Wochen mal im Umlauf waren :wink:


PS: Wenn man WUNSCHDENKEN aktiviert - könnte man auch annehmen die +35% sind 3090 auf 2080TI (sollte die später kommen) - dann wären es rund +75% !!!!!!!!!!!!!!!!!!
Wunschdenken - aber ist ja nicht so als hätten wir so einen Sprung nicht schon mal vor paar Jahren gehabt. Vielleicht will NV ja AMD zeigen wo der Hammer hängt :comfort:

Leonidas
2020-03-23, 10:28:10
Hoffen wir einfach mal, das die Gerüchteküche sich irrt. Leider zeigt derzeit mehr als nur ein Gerücht in diese Richtung.

Fragman
2020-03-23, 10:35:25
Naja, die Ramgerüchte machen Sinn mit den Konsolen im Hinterkopf und die Leistung so eigentlich auch. Rasterizer braucht man nicht mehr und bei RT steht noch ein Fragezeichen. Sollten sie die Leistung da verdoppeln können, wird das genügen.
Nv macht sich sicher mehr Gedanken über die Preise in Anbetracht der neuen Konsolen. Für die "gleiche" Leistung den doppelten Preis verlangen wird nur schwer zu verkaufen sein (gilt für amd und big navi genauso), aber ich wiederhole mich.

Interessanter ist da der Fertigungsprozess. Man wollte oder konnte nicht auf 7nm+ oder 6nm warten oder wäre das alles zu teuer geworden? Wenn nv bei den Turingpreisen schon so Denken muss, siehts wirklich nicht gut aus. Vielleicht war man einfach zu optimistisch.

MasterElwood
2020-03-23, 10:43:56
Rasterizer braucht man nicht mehr und bei RT steht noch ein Fragezeichen. Sollten sie die Leistung da verdoppeln können, wird das genügen.


Die RT Leistung ist genauso abhängig von der Rasterizer Leistung. Wenn die Rasterizer Leistung nicht passt - bekommst du keine anständige RT Leistung - soviele RT-Cores kannst garnicht reinstopfen.

Dorn
2020-03-23, 10:55:44
wenn die performance vermutung stimmt, dann glaube ich eher an 8/11/12 gb an 256 bis 384bit.
Eh und dann kommen die neuen Konsolen und die Spiele wollen 16GB VRam. :freak:
3060 8 GB 3070-3080 12 GB 3090 16 GB ist das minimum, alles anderen können die behalten.

Rayt. braucht ja auch massiv mehr Ram!

BlacKi
2020-03-23, 11:08:26
Eh und dann kommen die neuen Konsolen und die Spiele wollen 16GB VRam. :freak:
3060 8 GB 3070-3080 12 GB 3090 16 GB ist das minimum, alles anderen können die behalten.

Rayt. braucht ja auch massiv mehr Ram!
das liegt an den entwicklern das der vram verbrauch passt. wenn der entwickler das nicht anpasst, dann wären selbst 48gb nicht genug. man wird wohl einfach mehr ram brauchen und das streaming anpassen. spielbar wird das in jedem fall machbar sein.

tut mal nicht so als wäre das was neues. damals als die ps4 kam, hatte die ps4 auch 4x mehrv ram als die performanceklasse aka gtx 770. klar gabs die gerade rausgekommene r9 290x mit massiven 4gb vram, was aber eben auch nur der hälfte von dem entsprach was der ps4 zur verfügung stand. wer daher sagt, 8/12gb wären zu wenig um mit der ps5 zu konkurieren, den kann ich nicht ganz ernst nehmen weil die vergangenheit ihn widerlegt.
die speichermenge von 16gb der ps5 bestätigt eher meine befürchtung von 8-12gb vram der next gen.
dont get me wrong, ich befürchte es, nicht das ich darauf hoffe.

Fragman
2020-03-23, 11:26:43
Die RT Leistung ist genauso abhängig von der Rasterizer Leistung. Wenn die Rasterizer Leistung nicht passt - bekommst du keine anständige RT Leistung - soviele RT-Cores kannst garnicht reinstopfen.

Ja sicher, aber das heisst ja nicht, das man das nicht weiter in Hardware optimieren könnte.
Wissen wir denn, ob Turing schon den max Ausbau von RT darstellt oder ist da noch Platz für mehr Einheiten?

#44
2020-03-23, 11:27:34
tut mal nicht so als wäre das was neues. damals als die ps4 kam, hatte die ps4 auch 4x mehrv ram als die performanceklasse aka gtx 770. klar gabs die gerade rausgekommene r9 290x mit massiven 4gb vram, was aber eben auch nur der hälfte von dem entsprach was der ps4 zur verfügung stand. wer daher sagt, 8/12gb wären zu wenig um mit der ps5 zu konkurieren, den kann ich nicht ganz ernst nehmen weil die vergangenheit ihn widerlegt.
Zumal in den Konsolen CPU/GPU den Ram weiterhin gemeinsam nutzen müssen.
Eine 1:1 Umrechnung ist also eh nicht sinnvoll, da er gar nicht zu 100% als VRAM herhalten kann.

Bei der XBSX hat MS darüber hinaus ja schon angegeben, dass Spiele überhaupt nur 13,5GiB nutzen dürfen...

Troyan
2020-03-23, 11:30:08
RT Cores sind nicht das Problem. Das Problem ist alles drumherum. Raytracing ist nicht wirklich effizient auf heutiger Hardware. Wenn nVidia also mehr RT-Leistung ermöglichen will, reicht es auch nicht aus einfach nur mehr Einheiten zu verbauen, sondern ein muss auch ein anderer konzeptioneller Ansatz her.

Stellt sich die Frage, was sinnvoller ist: Weniger Anpassung für RT und dann per DLSS ausgleichen oder eine Architektur zu bauen, die noch stärker für RT entwickelt wurde und ältere Zöpfe stärker "kastriert".

JVC
2020-03-23, 11:33:09
das liegt an den Entwicklern das der vram verbrauch passt...
Und die schreien schon lange nach mehr RAM :smile:

Was sie an Ram bekommen, bekommen sie auch über kurz oder lang voll :wink:

Interessant wird wie viel "HBCC" auf den Konsolen noch zusätzlich für Texturen bereitstellen kann.
(man spekuliert ja über das 2-3 fache von dem was auf der GPU verbaut ist)

Vielleicht kann ja Navi 2x schon brauchbar "HBCC" ?
(dann würden 16Gb oder gar 12Gb vorerst locker reichen auf der GPU)


Bei der XBSX hat MS darüber hinaus ja schon angegeben, dass Spiele überhaupt nur 13,5GiB nutzen dürfen...
Vom DDR-Ram direkt, ja.
"HBCC-Ram" von der SSD scheint es aber auch noch zu geben...

M.f.G. JVC

MiamiNice
2020-03-23, 12:07:53
Ich frage mich, warum RT? Braucht kaum einer, hat kaum ein Spiel, von den interessanten Games, gar keins. Es ist auch kein interessantes Game mit RT in Entwicklung. Und ganz im Gegenteil explodiert die benötigte Raster Power.

Warum in aller Welt sollte NV so am Markt vorbei entwickeln?
Welcher Gamer soll solche RT Karten kaufen, es braucht einfach niemand?

JVC
2020-03-23, 12:35:16
Ich frage mich, warum RT ?
Man kann damit scheinbar bei Licht/Schatten-Effekten und Sound mit wenig Aufwand Viel erreichen ?

NV hat es vermutlich nur etwas zu gut(proprietär) gemeint.
Das kommt bei den Entwicklern scheinbar nicht so gut an...

Ich vermute sowieso das RT "stückchenweise", je nach dem Was die Entwickler schon gut und sinnvoll umsetzen können, kommen wird.

M.f.G. JVC

gmb
2020-03-23, 12:36:21
Surprisingly, the next gen chip will be based on Samsung 10nm node


Das ist erschreckend, damit wären sie immer noch eine volle Generation hinten dran, die density ist eher vergleichbar mit Intels 14nm Prozess. Unter den Voraussetzungen erscheint die grob spekulierte Mehrleistung von 35-40% plausibel.

Gast
2020-03-23, 12:39:21
Hoffen wir einfach mal, das die Gerüchteküche sich irrt. Leider zeigt derzeit mehr als nur ein Gerücht in diese Richtung.

Da nicht ersichtlich ist wer / wer ist und/oder wer von wem abschreibt/Ideen klaut ist das Alles eigendlich nichtmal eine Meldung wert.
Ich meine da macht sich einer im Januar 2020 einen Twitteraccount posaunt irgendwas in die Welt ohne die winzigsten Indizes auf Korrektheit und wird somit zur Quelle einer News von 2 A4 Seiten die von 20 anderen Publikation zitiert wird?
Da Wundert einen garnix mehr.

Ich finde es desweiteren erstaunlich das solche Selbsdarsteller und die sie pushenden Medien nicht abgestraft werden.
z.B. der HWUB Typ hat pre Launch schon soviel Stuß verbreitet ohne an Glaubwürdigkeit zu verlieren. WTFtech hat immernoch regen zulaufen!?


Was ist mit den Leuten los?

Gast
2020-03-23, 12:42:47
Ich frage mich, warum RT? Braucht kaum einer, hat kaum ein Spiel, von den interessanten Games, gar keins. Es ist auch kein interessantes Game mit RT in Entwicklung. Und ganz im Gegenteil explodiert die benötigte Raster Power.

Warum in aller Welt sollte NV so am Markt vorbei entwickeln?
Welcher Gamer soll solche RT Karten kaufen, es braucht einfach niemand?

Du bist nicht Nabel der Welt und somit evtl. auch nicht in der Lage von deinen Vorlieben eine Prognose für RT abzugeben.

AnnoDADDY
2020-03-23, 12:49:18
Ich frage mich, warum RT? Braucht kaum einer, hat kaum ein Spiel, von den interessanten Games, gar keins. Es ist auch kein interessantes Game mit RT in Entwicklung. Und ganz im Gegenteil explodiert die benötigte Raster Power.

Warum in aller Welt sollte NV so am Markt vorbei entwickeln?
Welcher Gamer soll solche RT Karten kaufen, es braucht einfach niemand?
bist du ein Kleinkind oder warum schließt du von dir auf alle anderen?

raytracing ist die Zukunft und schon sehr gut nutzbar, wesentlich sinnvoller als 120fps 4k wobei letzteres mit DLSS auch machbar ist bei sehr guter Bildqualität

WedgeAntilles
2020-03-23, 12:55:31
Möglicherweise lief der Umstieg auf 7NM auch nicht so phantastisch wie Nvidia dachte. Sie wollten es, haben es aber nicht so wirklich hinbekommen.

Und dann kamen vielleicht ein paar Überlegungen zusammen:
- Wir sind weit vorne, auch wenn wir jetzt wieder nur 35% hochgehen bleiben wir (leicht) an der Spitze
- gehen wir auf das kostengünstigere 10er Verfahren von Samsung, da wir das 7nm Verfahren nicht gut beherrschen
- die Konsolen kommen im Winter raus. Wollen wir da wirklich Midrange GraKas anbieten, die bereits teurer sind als die komplette Konsole? (also eine 3070 für 600 Euro)

So wurde vielleicht aus der Not eine Tugend gemacht:
Wenig Performance+, dafür günstigere Fertigung.

Und dann kann (vielleicht! reine Theorie) man die 3070er preislich so positionieren, dass nicht alleine die GraKa schon teurer als die komplette Konsole ist.
Für AMD ist es nicht so tragisch ob sich jemand nen neuen PC oder eine Konsole kauft (klar, beim PC wird es mehr Marge geben) - ganz leer geht AMD nie aus.
Aber für Nvidia ist jeder verkauft Konsole anstelle eines PCs ein großer Verlust.
Dazu kommt noch, dass ein Käufer, der keinen PC sondern ne Konsole kauft, mit großer Wkeit eine Nvidia Karte gekauft hätte -> jeder Umstieg ist sehr schlecht für Nvidia.

Und klar ist auch: Je größer der Spread zwischen PC und Konsole, desto mehr Umsteiger.
Ein "für den Preis der Konsole bekomme ich ja nicht mal ne Graka - scheiß drauf, ich kaufe mir ne Konsole" ist da imo kein völlig unrealistisches Szenario. Viele Leute reagieren gerade auf so einschlägige Dinge wie: "GraKa alleine schon teurer" emotional am stärksten.

Also ist vielleicht eine anvisierte Preisspanne von maximal 450 Euro für Nvidia gar nicht so unattraktiv. (für die 3070er. Ich sehe die 3060er und 3070er als potentiell interessanteste und wichtigste Karten für Nvidia. Die 3080er + 3080TI ist eine große Ausnahme und hat eine Sonderstellung (die absoluten enthusiasten steigen eh nicht auf Konsole um). Die niedrigen Karten 3050 sind eher Einsteiger und haben eine deutlich niedrigere Marge als der Bereich, der für die meisten Gamer relevant ist. 3060 + 3070)

Das ist natürlich reine Spekulation, ich habe nicht den Hauch einer Ahnung ob Nvidia auch nur im Ansatz diese Gedanken hat.
Persönlich finde ich den Gedanken aber nicht abwegig. Wobei ich auch keine Ahnung habe, ob das 10nm Verfahren tatsächlich so viel günstiger ist.

Und ja, da ist natürlich schon auch der Wunsch Vater des Gedanken. Eine 3070 für 450 Euro wäre toll :)

MiamiNice
2020-03-23, 13:04:50
Du bist nicht Nabel der Welt und somit evtl. auch nicht in der Lage von deinen Vorlieben eine Prognose für RT abzugeben.
bist du ein Kleinkind oder warum schließt du von dir auf alle anderen?

raytracing ist die Zukunft und schon sehr gut nutzbar, wesentlich sinnvoller als 120fps 4k wobei letzteres mit DLSS auch machbar ist bei sehr guter Bildqualität

Wie viele Spiele mit RT gibt es?
Damit ist die Diskussion dann auch schon beendet.
Wie viele Spiele ohne RT gibt es?
Und wie viele Spiele gibt es ohne RT die nicht mal ansatzweise auf max Details laufen weil GPU Power fehlt?

RT Spiele sind aktuell und noch sehr lange in der Unterzahl. Dafür haben wir Games wie z.b. heute Half Live Alyx die man nicht auf max zoggen kann weil die GPU schlapp macht.

Setzen 6, ihr beiden.
Kleinkind und meine Welt, lol. Mal hinterm Mond weg kommen und auf der Erde landen ihr zwei.

Asaraki
2020-03-23, 13:15:04
Wie viele Spiele mit RT gibt es?
Damit ist die Diskussion dann auch schon beendet.
Wie viele Spiele ohne RT gibt es?
Und wie viele Spiele gibt es ohne RT die nicht mal ansatzweise auf max Details laufen weil GPU Power fehlt?

RT Spiele sind aktuell und noch sehr lange in der Unterzahl. Dafür haben wir Games wie z.b. heute Half Live Alyx die man nicht auf max zoggen kann weil die GPU schlapp macht.

Setzen 6, ihr beiden.
Kleinkind und meine Welt, lol. Mal hinterm Mond weg kommen und auf der Erde landen ihr zwei.

Kauf einfach keine nV und alle sind happy, sie werden sicher gleich ihre Strategie ändern, wenn sie erstmal erfahren, dass du nicht mehr happy bist :)

Wer Recht hatte sehen wir dann in der Zukunft. Bis dann.

JVC
2020-03-23, 13:24:18
raytracing ist die Zukunft und schon sehr gut nutzbar, wesentlich sinnvoller als 120fps 4k
Das klingt nach jemandem der weder 4K noch 120Hz besitzt :confused:
Mir wäre die Leistung wesentlich wichtiger als mM.n. "unnatürlich glänziges"


wobei letzteres mit DLSS auch machbar ist bei sehr guter Bildqualität
Aber er besitzt eine Nivida ...

Die Glocke hat geläutet ;)
VRS wird m.M.n. das Rennen machen.
(das erinnert mich irgendwie an "G-Sync mit Modul" vs "gratis Free-Sync" ...)


Aber ja, RT ist die Zukunft, in Zukunft irgendwann mal :wink:
Der Weg zu echtem Vollbild RT ist noch verdammt weit.
Und bevor Das kommt, hätt Ich doch lieber die Leistung z.b. für ne 4K VR.

M.f.G. JVC

MiamiNice
2020-03-23, 13:30:52
Kauf einfach keine nV und alle sind happy, sie werden sicher gleich ihre Strategie ändern, wenn sie erstmal erfahren, dass du nicht mehr happy bist :)

Wer Recht hatte sehen wir dann in der Zukunft. Bis dann.

Ja, das würde alle Probleme lösen. Generell sollte ich der "Bestimmer" der Welt sein, dann ginge es allen gut. :up:

Gast
2020-03-23, 13:35:09
Viel wichtiger als die Mehrperformance ist doch eingeltich der Zeitpunkt, wann die Karten kommen. Und da bin ich aktuell noch skeptisch, ob die überhaupt dieses Jahr kommen. Bisher hat man eher Gerüchte um den HPC Chip gehört, bei den Gaming Chips war das eher ein grobes Rätselraten als Gerüchte... Insofern ist auch noch alles beim Performance+ drin, von +35% bis +50%. Aber bisher ist das alles noch sehr unpräzise, daher ist man vermutlich noch eine Weile vom Start entfernt und sollte sich dann auch nicht zu viele Gedanken über den Launch und die spekulierte Performance machen...

JVC
2020-03-23, 13:40:34
:massa: MiamiNice *der geschätzte Monarch* ;D
Wählen würde ich dich auch nicht :tongue: "Kim Mia Nice"

@Gast über mir.
Vermutlich nach AMD. (AMD kommt vermutlich ~10-11)
NV scheint im Moment etwas überrascht, oder hat sonstige Probleme.

M.f.G. JVC

BlacKi
2020-03-23, 14:17:48
Und ja, da ist natürlich schon auch der Wunsch Vater des Gedanken. Eine 3070 für 450 Euro wäre toll :)
wenn man die 2060s für 400 zum vergleich hernimmt und mit 1,35 multipliziert, dann schlägt man eine 2080 sogar und landet knapp unter ner 2080s.
das problem, es stehen immernoch 8gb im raum.

wenn ga102 nur 35% mehr bringt stört mich das weniger, aber weiterhin weit über 1000€ dafür? dann wird bei mir wohl ein vram downgrade geben oder navi2x. ich hoffe nv wird sich das überlegen.

wobei ich schon chancen sehe, falls navi2x preislich interessant wird, das auch nv mitzieht. die gefahr ist aber eher, das amd mit nv gleichzieht.

ach mist, warum musste covid ausgerechnet jetzt auftreffen... ich glaub es wäre schon jetzt interessanter.

Gast
2020-03-23, 14:27:08
Möglicherweise lief der Umstieg auf 7NM auch nicht so phantastisch wie Nvidia dachte. Sie wollten es, haben es aber nicht so wirklich hinbekommen.

Und dann kamen vielleicht ein paar Überlegungen zusammen:
- Wir sind weit vorne, auch wenn wir jetzt wieder nur 35% hochgehen bleiben wir (leicht) an der Spitze
- gehen wir auf das kostengünstigere 10er Verfahren von Samsung, da wir das 7nm Verfahren nicht gut beherrschen
- die Konsolen kommen im Winter raus. Wollen wir da wirklich Midrange GraKas anbieten, die bereits teurer sind als die komplette Konsole? (also eine 3070 für 600 Euro)

So wurde vielleicht aus der Not eine Tugend gemacht:
Wenig Performance+, dafür günstigere Fertigung.

Und dann kann (vielleicht! reine Theorie) man die 3070er preislich so positionieren, dass nicht alleine die GraKa schon teurer als die komplette Konsole ist.
Für AMD ist es nicht so tragisch ob sich jemand nen neuen PC oder eine Konsole kauft (klar, beim PC wird es mehr Marge geben) - ganz leer geht AMD nie aus.
Aber für Nvidia ist jeder verkauft Konsole anstelle eines PCs ein großer Verlust.
Dazu kommt noch, dass ein Käufer, der keinen PC sondern ne Konsole kauft, mit großer Wkeit eine Nvidia Karte gekauft hätte -> jeder Umstieg ist sehr schlecht für Nvidia.

Und klar ist auch: Je größer der Spread zwischen PC und Konsole, desto mehr Umsteiger.
Ein "für den Preis der Konsole bekomme ich ja nicht mal ne Graka - scheiß drauf, ich kaufe mir ne Konsole" ist da imo kein völlig unrealistisches Szenario. Viele Leute reagieren gerade auf so einschlägige Dinge wie: "GraKa alleine schon teurer" emotional am stärksten.

Also ist vielleicht eine anvisierte Preisspanne von maximal 450 Euro für Nvidia gar nicht so unattraktiv. (für die 3070er. Ich sehe die 3060er und 3070er als potentiell interessanteste und wichtigste Karten für Nvidia. Die 3080er + 3080TI ist eine große Ausnahme und hat eine Sonderstellung (die absoluten enthusiasten steigen eh nicht auf Konsole um). Die niedrigen Karten 3050 sind eher Einsteiger und haben eine deutlich niedrigere Marge als der Bereich, der für die meisten Gamer relevant ist. 3060 + 3070)

Das ist natürlich reine Spekulation, ich habe nicht den Hauch einer Ahnung ob Nvidia auch nur im Ansatz diese Gedanken hat.
Persönlich finde ich den Gedanken aber nicht abwegig. Wobei ich auch keine Ahnung habe, ob das 10nm Verfahren tatsächlich so viel günstiger ist.

Und ja, da ist natürlich schon auch der Wunsch Vater des Gedanken. Eine 3070 für 450 Euro wäre toll :)

Das ganze ist viel einfacher , die 8 nm hat er sich aus dem Arsch gezogen nachdem er gesehen hat das NV’s nächste Drive AGX Orin für das Jahr 2022 darauf basiert .

MiamiNice
2020-03-23, 14:41:00
Ich sehe schon meine AMD Karte die sich langsam in meinem PCI-E Slot materialisiert. Ist dann die erste private AMD GPU meines Lebens. Wenn NV das schafft, schreibe ich Lederjacke direkt einen Freundschaftsbrief.

etp_inxession
2020-03-23, 14:43:46
Bei 14.200 Beiträgen in einem Tech-Forum sollte man meinen einen Enthusiasten vorzufinden ...

Aber noch keine AMD Karte im Privaten Rechner zeigt dann doch das Gegenteil.

Leiten und blenden lassen von den vielen Bezahlten Portalen.

BlacKi
2020-03-23, 14:48:12
Bei 14.200 Beiträgen in einem Tech-Forum sollte man meinen einen Enthusiasten vorzufinden ...

Aber noch keine AMD Karte im Privaten Rechner zeigt dann doch das Gegenteil.

Leiten und blenden lassen von den vielen Bezahlten Portalen.
die letzte gpu von amd die nv spitze geschlagen hat, war 2013:freak: ich hab keine ahnung von was du redest.

auch demnächst sieht es nicht so aus als würde sich das ändern.

MiamiNice
2020-03-23, 14:57:39
Bei 14.200 Beiträgen in einem Tech-Forum sollte man meinen einen Enthusiasten vorzufinden ...

Aber noch keine AMD Karte im Privaten Rechner zeigt dann doch das Gegenteil.

Leiten und blenden lassen von den vielen Bezahlten Portalen.

Im privaten Rechner ist keine AMD Karte gewesen weil es sich nie gelohnt hat eine AMD / ATI Karte zu kaufen. Bis auf die 9800er damals ist das komplette AMD / ATI GPU Programm bis heute Müll³ und absolut nicht konkurrenzfähig.
Man ist mit NV immer besser gefahren als Gamer und das ganz ohne Fanboitum. Ganz sachlich.
Warum sollte man was schlechtes in seinen PC einbauen? Das machen nur Leute bei denen Leistung nicht an erster Stelle steht sondern so unwichtige Dinge wie Preis, Abwärme, Verbrauch u.s.w. u.s.f. Also die typischen AMD Kunden.

Asaraki
2020-03-23, 15:16:55
Bei 14.200 Beiträgen in einem Tech-Forum sollte man meinen einen Enthusiasten vorzufinden ...

Aber noch keine AMD Karte im Privaten Rechner zeigt dann doch das Gegenteil.

Leiten und blenden lassen von den vielen Bezahlten Portalen.

Ne wenn man erst seit paar Jahren zockt, dann passt das schon. Sind nicht alle hier so Oldschool, die kennen die guten alten Zeiten halt nicht ^^ so als 16 jähriger waren schon die nVidia Karten durch die Bank besser während der ganzen Gamingkarriere.

Außer du meinst Miami, der ist kein enthusiast. Das ist der am Tuningtreff mit dem „schnellen Luxuswagen” ^^

WedgeAntilles
2020-03-23, 15:19:51
Bei 14.200 Beiträgen in einem Tech-Forum sollte man meinen einen Enthusiasten vorzufinden ...

Aber noch keine AMD Karte im Privaten Rechner zeigt dann doch das Gegenteil.

Leiten und blenden lassen von den vielen Bezahlten Portalen.

Nö.
Hatte auch noch keine AMD Karte - weil es jedesmal wenn ich eine GraKa brauchte (ich wechsle die GraKas nicht so häufig, inzwischen nur noch alle 5 Jahre oder so) von Nvidia das bessere Angebot oder zumindest etwas Gleichwertiges gab. Und nach den ersten 3 Nvidia Karten mit denen ich nie ein Problem hatte, ziehe ich beim ähnlichen Preis-Leistungs-Verhältnis halt die Nvidia Karte vor. Warum soll ich einen Anbieter wechseln, wenn mir der andere Anbieter kein besseres Paket anbietet? (Bei der GraKa besteht das für mich primär aus Leistung, Preis, Treiberqualität)

Meine erste GraKa (TNT) war vielleicht noch eine Ausnahme, da wäre die Vodoo 3 wohl die bessere Wahl gewesen.
Das war aber zig Jahre vor "bezahlten Portalen"


Aber das ist irgendwie auch so ne typische Aussage: Ständig heißt es aus der AMD Ecke, wie teuer und schlecht Nvidia wäre.
Nur: Was besseres bietet AMD nicht.
In manchen Segmenten ist Nvidia leicht günstiger.
Teils ist es quasi identisch.
Aktuell ist die 5700XT grad etwas günstiger, aber 10% sind jetzt nicht die Welt.
Und in anderen Bereichen ist AMD gar nicht aufgestellt.

Ich kann mich nicht erinnern, dass AMD in den letzten 20 Jahren einmal ein signifikant besseres Produkt hatte.

Nicht falsch verstehen: In den meisten Fällen hatte auch Nvidia kein signifikant besseres Produkt.

Wenn man die letzten Jahre vom High-End-Bereich absieht, waren beide Marken eigentlich immer ziemlich ähnlich.

MiamiNice
2020-03-23, 15:25:00
Außer du meinst Miami, der ist kein enthusiast. Das ist der am Tuningtreff mit dem „schnellen Luxuswagen” ^^

Würde ich nicht mal so sehen. Ich stehe am Gaming Tuning Treff, weil alles andere interessiert mich nicht. Wie schnell die Kiste in Benches ist, ist, für mich, absolut irrelevant.

Gast2
2020-03-23, 15:27:10
Aber ja, RT ist die Zukunft, in Zukunft irgendwann mal :wink:
Der Weg zu echtem Vollbild RT ist noch verdammt weit.


Mit dedizierten RT-Beschleunigern ist das bereits seit 2016 und in 28nm möglich:
https://www.youtube.com/watch?v=uxE2SYDHFtQ

maximus_hertus
2020-03-23, 15:34:14
Im privaten Rechner ist keine AMD Karte gewesen weil es sich nie gelohnt hat eine AMD / ATI Karte zu kaufen. Bis auf die 9800er damals ist das komplette AMD / ATI GPU Programm bis heute Müll³ und absolut nicht konkurrenzfähig.
Man ist mit NV immer besser gefahren als Gamer und das ganz ohne Fanboitum. Ganz sachlich.
Warum sollte man was schlechtes in seinen PC einbauen? Das machen nur Leute bei denen Leistung nicht an erster Stelle steht sondern so unwichtige Dinge wie Preis, Abwärme, Verbrauch u.s.w. u.s.f. Also die typischen AMD Kunden.

2006: X1900 XT(X) vs GF 7900 => klarer Vorteil ATI

2009: HD 5870 vs GTX 285 => sehr klarer Vorteil AMD, bis dann im Sommer (also rund 9 Monate später) Thermi kaufbar war. Wobei die 480er nicht wirklich viel mehr leistete, gerade wenn man die Hitze und Stromentwicklung mit einrechnet.

2011/2012: HD 7970, die 8800GTX von AMD. Die GTX 680 war zum Launch minimalst (5-10%) schneller (aber 3-4 Monate später dran), aber sehr schnell (ab 2013) lag die AMD vorne und dank üppigem VRAM und Bandbreite konnte man später sogar die GTX 780 attackieren. Die GTX 680 war ein Krüppel by Design. Die 7970 GHz Edition war dann fast 1 Jahr (wenn man die 1000 Euro Titan ab Anfang 2013 weg lässt) die schnellste Karte mit +50% VRAM im Vergleich zur 680er.

Ende 2013: R9 290(X). Nur knapp hinter der 780 Ti, aber 4 statt 3GB VRAM. Am Ende gab es da keinen klaren Sieger und Gamer sind mit beiden Karten gut gefahren bzw. bei der AMD hatte man länger Top-Performance.

Danach wurde es aber dünn. Fury war ein eigentlich nV-typischer VRAM Krüppel, Vega "kaputt" bzw. bot nicht die Leistung, die nötig war. Navi wird man ja Ende 2020 sehen.


Das dir die ATI/AMD Karten jeweils nicht gefallen haben ist ja das eine, aber deine Aussage "sich nie gelohnt hat eine AMD / ATI Karte zu kaufen. Bis auf die 9800er damals ist das komplette AMD / ATI GPU Programm bis heute Müll³ und absolut nicht konkurrenzfähig." ist KOMPLETTER BULLSHIT.

ChaosTM
2020-03-23, 15:49:13
Die 290X war auch meine letzte AMD. Allerdings lief die schon hart an der Kotzgrenze.
Wenn man sie aber etwas herunter getaktet hat, war sie erstaunlich genügsam und auch noch ausreichen schnell.
Die andern, weiter oben genannten ATI/AMD Karten waren top. Speziell bei der sehr günstigen 9800SE ließ sich die Leistung per Omega Treiber glatt verdoppeln.

MiamiNice
2020-03-23, 16:03:50
Das dir die ATI/AMD Karten jeweils nicht gefallen haben ist ja das eine, aber deine Aussage "sich nie gelohnt hat eine AMD / ATI Karte zu kaufen. Bis auf die 9800er damals ist das komplette AMD / ATI GPU Programm bis heute Müll³ und absolut nicht konkurrenzfähig." ist KOMPLETTER BULLSHIT.

Ist es nicht. Zu den Zeiten waren die ATI Treiber noch unterirdisch und man musste teils Wochen nach Release eines Games warten um es zu spielen weil ATI erst den Treiber anpassen musste.

Als Gamer ist man mit NV !immer! besser gefahren. Ich bin seit dem C64 dabei und immer ein Gamer gewesen. Ich habe die Zeiten live miterlebt über die wir hier sprechen.

Lehdro
2020-03-23, 16:04:50
2009: HD 5870 vs GTX 285 => sehr klarer Vorteil AMD, bis dann im Sommer (also rund 9 Monate später) Thermi kaufbar war. Wobei die 480er nicht wirklich viel mehr leistete, gerade wenn man die Hitze und Stromentwicklung mit einrechnet.
Stromentwicklung? :freak:

Thermi kam zwar sehr spät (aber "nur" 6 Monate, nicht 9) war laut und heiß, jop, aber auch brachial schnell. Im Schnitt halt auch ~20% schneller (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD-743333/19/) und mit deutlich mehr Speicher. Hat sich über die Jahre auch sehr viel besser gehalten als AMDs VLIW Architektur (https://forums.anandtech.com/threads/hd5870-vs-gtx480-two-years-later.2224543/), der Performancevorsprung hat sich quasi verdoppelt, da sieht der Mehrverbrauch auf einmal nicht mehr ganz so desaströs aus. Hauptproblem bei dem Duell war AMD selber, kaum verfügbar (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Radeon-HD-5850-und-Radeon-HD-5870-Schlechte-Lieferbarkeit-Update-Keine-Aenderung-in-Sicht-695901/) und steigende Preise (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Angeblich-Preiserhoehung-bei-der-Radeon-HD-5850-Update-AMD-Statement-698540/). Was nützt das frühere Releasedatum wenn quasi nichts kaufbar (https://www.anandtech.com/show/3587) ist?

Asaraki
2020-03-23, 16:21:24
Würde ich nicht mal so sehen. Ich stehe am Gaming Tuning Treff, weil alles andere interessiert mich nicht. Wie schnell die Kiste in Benches ist, ist, für mich, absolut irrelevant.

Danke, genau das meinte ich ja. Du bist ein Gamer, kein Enthusiast. Das ist ok, aber stell dich nicht hin, als würde dich das Zeugs wirklich darüber hinaus interessieren wie viele FPS du kriegst. Also wundere dich halt auch nicht, wenn man dich nicht wahnsinnig ernst nimmt. Du bist nicht objektiv, du bist nicht am Kern interessiert und repräsentierst eine unglaublich kleine Käufergruppe. Du bist objektiv gesehen einfach nicht relevant. Ich auch nicht, nur hab ich damit kein Problem ^^

Ist es nicht. Zu den Zeiten waren die ATI Treiber noch unterirdisch und man musste teils Wochen nach Release eines Games warten um es zu spielen weil ATI erst den Treiber anpassen musste.

Als Gamer ist man mit NV !immer! besser gefahren. Ich bin seit dem C64 dabei und immer ein Gamer gewesen. Ich habe die Zeiten live miterlebt über die wir hier sprechen.

Sagt der Mensch, der nie eine ATI hatte. Ich frag doch auch nicht den Menschen mit Laktoseintoleranz, welche Milch ich kaufen soll. Wieso sollte irgendjemanden deine Meinung zu AMD interessieren? Ernste Frage, kannst gerne beantworten wenn du da was hast.

Ich bin seit 25 Jahren Gamer und ich bin mit ATI oft besser gefahren als nVidia und dann wieder andersrum. Wo warst du? Noch an deinem C64?

MiamiNice
2020-03-23, 16:33:33
Ich bin seit 25 Jahren Gamer und ich bin mit ATI oft besser gefahren als nVidia und dann wieder andersrum. Wo warst du? Noch an deinem C64?

Wäre interessant das auszudiskutieren. Außer der 9800er sehe ich nach meinem 3DFX Karten nichts, was ich hätte haben müssen von ATI. Auch wenn im nachhinein die ATI Karten immer länger brauchbar waren, so ist das für mich nie relevant gewesen da alle 1,5 - 2 Jahre eine neue GPU in die Kiste gewandert ist. Wenn das nur heute auch noch so wäre. Das waren schöne Zeiten.

€: Nur weil ich selbst keine ATI hatte, heißt das nicht das kein anderer aus meinem Kreis keine ATI hatte.

Denniss
2020-03-23, 16:46:47
Bitte zurück zum Thema. Danke.

Leonidas
2020-03-23, 17:28:44
Das ganze ist viel einfacher , die 8 nm hat er sich aus dem Arsch gezogen nachdem er gesehen hat das NV’s nächste Drive AGX Orin für das Jahr 2022 darauf basiert .


Gar nicht so falsch, die These.

Aber: Wann wurde das mit der 8nm-Fertigung von Drive AGX Orin erwähnt? Weil ich hab kürzlich Hinweise gesehen, wo Ampere bereits im letzten Juli auf 8nm genannt wurde.

MasterElwood
2020-03-23, 20:10:16
Ich frage mich, warum RT? Braucht kaum einer, hat kaum ein Spiel, von den interessanten Games, gar keins. Es ist auch kein interessantes Game mit RT in Entwicklung. Und ganz im Gegenteil explodiert die benötigte Raster Power.

Warum in aller Welt sollte NV so am Markt vorbei entwickeln?
Welcher Gamer soll solche RT Karten kaufen, es braucht einfach niemand?

Sorry - aber nach der Aussage kann man dich nicht mehr ernst nehmen. Eine Technologie nicht daran zu beurteilen welchen Nutzen sie bringt - sondern ob/wie sie JETZT verfügbar ist... :facepalm:

Verstehst du nicht was das Endziel ist in Sachen Grafik? Das Endziel ist DIE WIRKLICHKEIT. Oder zumindest das was ILM im Kino bringt. Das kriegst du mit Raster nicht hin. Raster ist nicht echt. Raster ist SCHEISSE - mit LAUTER Features damit es nicht nach Scheisse aussieht - sondern irgenwie nach echt. Aber es wird nie WIRKLICH echt aussehen - selbst wenn die GPU-Power ums tausendfache ansteigt.

PLUS es ist viel komplizierter/langwieriger anzuwenden als RT.

Raster ist eine NOTLÖSUNG die wir aus nur EINEM Grund benutzen: weil sie viel viel schneller ist als RT. Wären RT und Raster gleich schnell - Raster wär nicht mal aus der Graphics-Ursuppe gekommen... :rolleyes:

Gast
2020-03-23, 20:54:01
Gar nicht so falsch, die These.

Aber: Wann wurde das mit der 8nm-Fertigung von Drive AGX Orin erwähnt? Weil ich hab kürzlich Hinweise gesehen, wo Ampere bereits im letzten Juli auf 8nm genannt wurde.

Spekuliert/fabuliert "genannt" oder handfest bestätigt mit Fakten vom Hersteller oder einer Herstellernahen seriösen Quelle wie die Aussagen zum AGX Orin die direkt von NVIDIA sind?
Dieses ist seit 2018 auf Roadmaps vertreten ,seit Ende 2019 sind die Ausbaustufen ,Node, Rohleistungen und Verbräuche bekannt.

Das das nichts beweisen muss sieht man daran das die CPU Kerne eigendlich für einen anderen Node sind .
HWLX hat ja auch schon felsenfest behauptet Turing sei für 10nm gedacht gewesen nur mit Fakten untermaurn können sie es bis heute nicht.

Platos
2020-03-23, 23:19:34
Ernsthafte Frage: Warum ging man eigentlich überhaupt von TSMC aus? Es gab doch schon vor einem halben Jahr die Ankündigung, dass man von Samsung fertigen lassen wird. Irgendwie habe ich das selbt völlig vergessen. Ich meine, anscheinend war das ja sogar von nvidia bestätigt. Der Link verlinkst du übrigens selbst in einer alten News, Leonidas :)

https://www.golem.de/news/grafikchips-nvidia-nutzt-kuenftig-samsungs-7-nm-euv-node-1907-142277.html

MiamiNice
2020-03-24, 01:02:33
Sorry - aber nach der Aussage kann man dich nicht mehr ernst nehmen. Eine Technologie nicht daran zu beurteilen welchen Nutzen sie bringt - sondern ob/wie sie JETZT verfügbar ist... :facepalm:

Verstehst du nicht was das Endziel ist in Sachen Grafik? Das Endziel ist DIE WIRKLICHKEIT. Oder zumindest das was ILM im Kino bringt. Das kriegst du mit Raster nicht hin. Raster ist nicht echt. Raster ist SCHEISSE - mit LAUTER Features damit es nicht nach Scheisse aussieht - sondern irgenwie nach echt. Aber es wird nie WIRKLICH echt aussehen - selbst wenn die GPU-Power ums tausendfache ansteigt.

PLUS es ist viel komplizierter/langwieriger anzuwenden als RT.

Raster ist eine NOTLÖSUNG die wir aus nur EINEM Grund benutzen: weil sie viel viel schneller ist als RT. Wären RT und Raster gleich schnell - Raster wär nicht mal aus der Graphics-Ursuppe gekommen... :rolleyes:

Das Endziel für mich heißt Holo Deck. Ich bin gar nicht gegen RT. Nur so lange es nicht geutzt wird, ziehe ich halt das vor was da ist. Es gibt genau 5 RT Spiele. Da ist die RT Performance wahnsinnig wichtig aktuell.

Timbaloo
2020-03-24, 01:34:17
Könnt ihr mal aufhören den Troll zu füttern?

just4FunTA
2020-03-24, 01:38:45
Du brauchst doch erst grakas die ausreichend power für rt haben, am besten auch noch Konsolen die ausreichend power haben dann kommen auch die Spiele dafür. BF6 mit rt und 20 fps zieht halt nicht. :/

maximus_hertus
2020-03-24, 06:53:45
Stromentwicklung? :freak:

Thermi kam zwar sehr spät (aber "nur" 6 Monate, nicht 9) war laut und heiß, jop, aber auch brachial schnell. Im Schnitt halt auch ~20% schneller (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD-743333/19/) und mit deutlich mehr Speicher. Hat sich über die Jahre auch sehr viel besser gehalten als AMDs VLIW Architektur (https://forums.anandtech.com/threads/hd5870-vs-gtx480-two-years-later.2224543/), der Performancevorsprung hat sich quasi verdoppelt, da sieht der Mehrverbrauch auf einmal nicht mehr ganz so desaströs aus. Hauptproblem bei dem Duell war AMD selber, kaum verfügbar (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Radeon-HD-5850-und-Radeon-HD-5870-Schlechte-Lieferbarkeit-Update-Keine-Aenderung-in-Sicht-695901/) und steigende Preise (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Angeblich-Preiserhoehung-bei-der-Radeon-HD-5850-Update-AMD-Statement-698540/). Was nützt das frühere Releasedatum wenn quasi nichts kaufbar (https://www.anandtech.com/show/3587) ist?

Die 5870er waren am Anfang (September) nicht ganz leicht zu kriegen, aber es gab lieferbare Karten. Ich habe selber einige Tage nach Launch eine verkauft / in der Hand gehabt.

Die GTX 480 war knapp 2 Monate nach Launch überhaupt nicht zu bekommen. Ein Paperlaunch sie er im Bilderbuch steht.

Von daher September bis Juni, von mir aus Mai = 8 Monate.

Die Refkarten der 480er waren auch komplett unbenutzbar. Dagegen wirken die aktuellen Refkarten von AMD wie Silentkarten.

Je nach Test waren es auch mal nur 10% Differenz. Am Ende jedoch nichts, was eine Karte spielbar machte während die andere ruckeln würde.

@Miami

Die Treiber waren so schlecht, dass du noch nie einen installiert hast....

Schon tombman, Ruhe in Frieden, wusste: x ist schneller als y. Ich hab beides und teste selber. (Nicht ganz wortwörtlich, aber sinngemäß).

Wie gesagt, dass du ATI / AMD nicht magst ist völlig in Ordnung. Aber deine Behauptungen zeugen von maximaler Unwissenheit und dienen nur der Provokation, weil nicht der Wahrheit entsprechen.

Schreibe doch einfach, dass DU keinen Bock auf Radeon hattest/hast und suche nicht nach Gründen, die es so nicht gibt.

MiamiNice
2020-03-24, 12:23:29
Das kann ich so nicht schreiben weil es nicht richtig ist. Ich habe keine ATI / AMD gekauft weil sie nichts getaugt haben. Ist auch ein blödes Argument zu schreiben, Du hattest nie eine, also auch keine Ahnung. Ich spiele schon mein ganzes Leben online, auf Lans, mit Kumpels damals schon im BNC Netzwerk nach der Schule etc. pp. Ich bin mit dutzenden ATI Karten in Berührung gekommen und hatte immer nur Mitleid mit den Ownern.

Ich habe btw. generell Bock auf alles was FPS zaubert. Mir ist egal welche Marke da drauf steht.

Ben Carter
2020-03-24, 12:46:51
Ist es nicht. Zu den Zeiten waren die ATI Treiber noch unterirdisch und man musste teils Wochen nach Release eines Games warten um es zu spielen weil ATI erst den Treiber anpassen musste.

Als Gamer ist man mit NV !immer! besser gefahren. Ich bin seit dem C64 dabei und immer ein Gamer gewesen. Ich habe die Zeiten live miterlebt über die wir hier sprechen.
Das ist Unsinn. Im großen und ganzen haben die Treiber ab den DX9 Karten immer funktioniert, egal ob nV oder ATi/AMD. Nur hin und wieder gab es Zicken, bei beiden.

Ich selbst habe recht abwechselnd gekauft*, was gerade im Augenblick das bessere Produkt für mich war und keine Probleme gehabt. Aber AMD hatte auch hier und da das (deutlich) bessere Produkt, genauso wie nV. Erst in den letzten Jahren ist es oben rum bei AMD wirklich dünn geworden.

*) Savage 4, Voodoo 3 3000, Geforce 2 MX, GF4 TI 4600, 9800 Pro, 1800 GTO, 8800 GT512, HD5770, HD6950, 970GTX, 1080 GTX, 1080Ti, 2080Ti.

maximus_hertus
2020-03-24, 12:52:51
Das kann ich so nicht schreiben weil es nicht richtig ist. Ich habe keine ATI / AMD gekauft weil sie nichts getaugt haben. Ist auch ein blödes Argument zu schreiben, Du hattest nie eine, also auch keine Ahnung. Ich spiele schon mein ganzes Leben online, auf Lans, mit Kumpels damals schon im BNC Netzwerk nach der Schule etc. pp. Ich bin mit dutzenden ATI Karten in Berührung gekommen und hatte immer nur Mitleid mit den Ownern.

Ich habe btw. generell Bock auf alles was FPS zaubert. Mir ist egal welche Marke da drauf steht.

Ich habe über 10 Jahre täglich Gaming Rechner gebaut / verkauft / repariert. Das es bei einigen Games ein paar Tage nach Release gedauert hat, bis ATI Karten (dmals) optimal gelaufen sind, ja, das gab es. Seltener, aber umgekehrt (nVidia brauchte ein paar Tage) gab es auch.

Wir hatten unter den Mitarbeitern immer wieder LANs veranstaltet (lange WEs, etc) und egal ob nV oder ATI - irgendwie gab es nie ernsthafte Probleme. Zugegeben, wir haben nicht so oft Exoten gespielt, sondern uns eher im "Mainstream" aufgehalten (UT 99/2004/3, Q3, CS:Source, Left4Dead 1+2, Portal Coop, C&C Tiberium Wars und RA3, Battlefield 3 (klar, kein "LAN"-Spiel in dem Sinne), StarCraft 2, Diablo 3, und viele andere. Es gab keine speziellen ATI oder nV Probleme.

Mitleid mit den Ownern => Was konkret? Gab es in jedem Spiel kein Bild? Oder warum Mitleid? Aktuell kommt von dir nur dummes Geschwätz ohne echten Inhalt.

Aber das kannst du ja ändern :)

MiamiNice
2020-03-24, 12:58:39
Du schreibst es doch selber. Am Releasetag nicht spielbar, teilweise. Bis die gewünschte Leistung da war, liefen schon öfter mal literweise Wasser den Rhein runter. Abseits von Mainstream warten noch längeres warten auf Treiber. Der Treiber an für sich, weit nicht auf dem Stand von NV und das gerade damals.
Leistung, NV war so gut wie immer vorne. Was Du schreibst NV Treiber und Spiele nicht am ersten Tag spielbar - habe ich bei NV nie erlebt. Ich war immer der der Mitleid hatte mit seinen Kumpels, nicht umgekehrt.

Ich finde es strange das Du mir dummes Gequatsche unterstellst. Das sind allgemein bekannte Dinge, die lange keine Geheimnisse sind. Und als PC Laden Betreiber, so einen hatte ich damals btw. auch als es noch lohnte, weiß man so was.

Heute würde ich allerdings eine AMD Karte kaufen, mittlerweile ist es brauchbar.

maximus_hertus
2020-03-24, 13:31:25
Du schreibst es doch selber. Am Releasetag nicht spielbar

Exklusiv für dich:

ATI Releasetag: 50 fps
nVidia: 70 fps

Paar Tage später:

ATI 65 fps
nVidia: 71 fps

Unspielbar ist / war da nichts. NAtürlich gab es auf beiden(!) Seiten das ein oder andere Spiel, dass beschissen lief. Aber das waren eher SP, keine MP Games.

BlacKi
2020-03-24, 13:44:57
Heute würde ich allerdings eine AMD Karte kaufen, mittlerweile ist es brauchbar.
ist das so?
ich finde lediglich dass das problem mit den drawcalls und dem driver overhead unter dx9 - dx11 gebessert hat. sowohl navi10 aber auch besonders vega haben gewisse probleme.

jetzt werden die anderen sagen, das hat nv auch. aber nicht so wie die letzten amd karten.

Asaraki
2020-03-24, 14:03:58
ist das so?
ich finde lediglich dass das problem mit den drawcalls und dem driver overhead unter dx9 - dx11 gebessert hat. sowohl navi10 aber auch besonders vega haben gewisse probleme.

jetzt werden die anderen sagen, das hat nv auch. aber nicht so wie die letzten amd karten.

Nö, natürlich nicht. Also in der ganzen AMD vs nV Geschichte ist heute sicher nicht der "Zeitpunkt, an dem AMD vorne ist". Passt aber zu seinen anderen Aussagen, er hat scheinbar überhaupt keine Ahnung von der GPU Geschichte ^^ Der einzige Grund, warum er sowas sagt, ist weil sein Schneeflöckchen-Herz jetzt schmerzt, weil nVidia nicht seine Anforderungen priorisiert. That's it.

Aber man kann heute durchaus AMD kaufen und macht nichts falsch, so wollte ich das nicht sagen.

MasterElwood
2020-03-24, 14:34:05
Das Endziel für mich heißt Holo Deck. Ich bin gar nicht gegen RT. Nur so lange es nicht geutzt wird, ziehe ich halt das vor was da ist. Es gibt genau 5 RT Spiele. Da ist die RT Performance wahnsinnig wichtig aktuell.

Eben WEIL die Performance noch so mau ist und noch nicht viele Leute RT in Hardware haben, gibts erst 5 Games. Well - genauer gesagt gibts 0 Games - und 5 Games mit RT Features draufgepappt. Typisches Chicken/Egg Problem. Deswegen WAR es ja so wichtig dass NV den Anfang gemacht hat. Deswegen ist es ja so wichtig dass sie jede Generation massiv an der RT Performance schrauben. Ist genug Hardware mit genug Power unterm Volk - kommen auch die Games nach. :wink:

PS: Das Endziel von VR ist Holodeck - nicht von PC Grafik. :smile:

JVC
2020-03-24, 14:36:09
Also in der ganzen AMD vs nV Geschichte ist heute sicher nicht der "Zeitpunkt, an dem AMD vorne ist".
Sag das nochmal wenn RDNA2 da ist ;)
"Kim Mia Nice" entscheidet m.M.n. nicht über was er hat,
sondern was er eventuell als nächstes braucht.
(nicht jeder lebt in der Vergangenheit oder nur im Jetzt, manche denken auch voraus)

Durch die sich abzeichnende "schwäche" von NV (nur +35%? WTF)
(10nm, RAM-Bestückung, DLSS , ist HBCC bald mal wichtig?...)
hat AMD halt eventuell die Chance zu glänzen
(7nm, RAM-Bestückung, RDNA2(durch beide Konsolen weit verbreitet), VRS, HBCC...)

Taktfreudig scheint ja RDNA2 durchaus zu sein (PS5 2,23Ghz)
Ordentlich entschlackt haben sie ihn auch (der Platzbedarf ist überraschend gering)

Wie weit die Performance dann tatsächlich reicht werden wir sehen ;)


Edit: (um nen Doppelpost zu vermeiden)
Typisches Chicken/Egg Problem.
Ja, denn NV hat den Entwicklern einfach n Huhn hin gestellt :wink:


Deswegen WAR es ja so wichtig dass NV den Anfang gemacht hat.
NV hat den "Anfang" gesehen und hat schnell was möglichst kundenbindendes gebracht.
(das schmeckt den Programmierern aber scheinbar nicht so recht, daher so wenige Titel...)

"DirectX Raytracing:
DirectX Raytracing ist Teil von Microsoft's DirectX-Grafikschnittstelle und ermöglicht hardwarebeschleunigtes Raytracing.
DXR ist keine eigenständige Version von DirectX, sondern Teil von DirectX 12."
Und ebenso von Vulkan.

Ja, NV unterstützt DXR, aber ich denke nicht das es der Plan war einfach einem sich entwickelndem Standard selbstlos zu helfen ...
Wie selbstlos NV das eigene RT(X) gepuscht hat, sah/sieht man am Preis :wink:

M.f.G. JVC

P.s.: die 7 war meiner Meinung nach relativ selbstlos(aus der Not geboren)
7nm mit 16Gb HBM für ~699.- Punkt
Ich bin gespannt was NV für seine 10nm verlangen wird ;)

Gast
2020-03-24, 14:43:17
Sag das nochmal wenn RDNA2 da ist ;)
"Kim Mia Nice" entscheidet m.M.n. nicht über was er hat,
sondern was er eventuell als nächstes braucht.
(nicht jeder lebt in der Vergangenheit oder im Jetzt, manche denken auch voraus)

Durch die sich abzeichnende "schwäche" von NV (nur +35%? WTF)
(10nm, RAM-Bestückung, DLSS , ist HBCC bald mal wichtig?...)
hat AMD halt eventuell die Chance zu glänzen
(7nm, RAM-Bestückung, RDNA2(durch beide Konsolen weit verbreitet), VRS, HBCC...)

Taktfreudig scheint ja RDNA2 durchaus zu sein (PS5 2,23Ghz)
Ordentlich entschlackt haben sie ihn auch (der Platzbedarf ist überraschend gering)

Wie weit die Performance dann tatsächlich reicht werden wir sehen ;)

M.f.G. JVC

Der JVC wie er leibt und lebt, der weiß schon heute was es in Zukunft für GPUs auf RDNA 2.0 und Ampere gibt und was sie leisten und was nicht .

maximus_hertus
2020-03-24, 15:12:27
Aber man kann heute durchaus AMD kaufen und macht nichts falsch, so wollte ich das nicht sagen.

Im Prinzip das, nciht nur heute, sondern auch schon "früher". Das nV für den Hardcore-Gamer / Enthusiasten sehr häufig tolle Pakete schnürt - geschenkt. Das ATI da ncht immer mithalten konnte - auch das ist bzw. war so.


Aber eine 290X vs 780Ti war halt nicht so eindeutlig. 780 Ti bot minimal mehr fps, hatte aber nur 3GB. Im Prinzip ein Patt, mit minimalen Vorteilen bei nV. nV bot dazu PhysX und Co., AMD dafür Mantle. Ob man nun das ein oder andere Paket im Vorteil sieht - ist eine individuelle Sache. Objektiv gab es da keinen klaren Sieger.

Bei 5870 wird es etwas schwierig. Gegen die GTX 285 gab es nicht wirklich Argumente für die GTX 285. Die GTX 480 bot ab Mai/Juni zwar brachiale Power, aber mit krassen Nebenwirkungen. Kein gutes Gesamtpaket.

Die 7970 war dann eine sehr geile Karte. Eine der langlebigsten die es je gab. Quasi die 8800GTX von AMD. Die GTX 680 bot für kurze Zeit 5-10% mehr fps, aber schon 1 Jahr später wurde es teilweise übel durch den VRAM Krüppel (nur 2 GB).

Es sind nicht viele KArten und keine langen Zeiträume, aber es gab eben REadeonkarten, die mit der nV Konkurrenz mithalten oder sogar (deutlich) übertrumpfen konnte und sei es nur für 6-9 Monate.

Gast_16
2020-03-24, 15:19:41
Zumal es kaum möglich ist, aus der Vergangenheit zu extrapolieren.

35 % mehr Leistung mögen die, die sich Wunder erwartet haben, nicht befriedigen. Aber es ist nicht nichts. Was von AMD kommt, ist entscheidend für die Beurteilung. Hier wecken die auf den Konsolen angedeuteten Features und der erwartete Stromverbrauch durchaus Hoffnungen bei mir.

BlacKi
2020-03-24, 15:20:17
Die 7970 war dann eine sehr geile Karte. Eine der langlebigsten die es je gab. Quasi die 8800GTX von AMD. Die GTX 680 bot für kurze Zeit 5-10% mehr fps, aber schon 1 Jahr später wurde es teilweise übel durch den VRAM Krüppel (nur 2 GB).
das ist aber nur deine meinung. ich fand den driver overhead damals ein problem, und 2 jahre lang waren 2gb eben garkein problem. es war selbst 2014 als maxwell kam schon ein problem sinnvoll 3gb zu füllen.

dieses langlebigkeits thema ist bei den meisten kein problem, da sie eh regelmäßig wechseln, um eine gleichbleibende performance halten zu können. obendrauf sind nach wie vor nv karten wertstabiler. das sind eben alles vorteile, demgegenüber stehen nur 1gb mehr speicher, die die ersten 2 jahre keine relevanz hatten.

ich habe bei einem grafikkartenkauf überhaupt nicht vor sie 3- oder gar 4 jahre zu behalten. die spieleperformance ist, oder eher war damals nach 4 jahren einfach nichtmehr dieselbe wie beim kauf, da immer neuere anspruchsvollere spiele erscheinen.

IMHO bereue ich es damals keine 2080ti gekauft zu haben. es gab bisher keinen deutlichen preisverfall. und das ist letztendlich was ich zahle. ich zahle nur den wertverfall, nicht den kaufpreis.

Denniss
2020-03-24, 16:04:41
Sind die kolportierten +35% ein gemittelter wert über alle Features oder ist das nur Rasterleistung mit unbekannten Steigerungen bei RayTracing?
Ich könnte mir durchaus vorstellen daß NV die RT-Leistung ordentlich aufbohrt und bei Raster nur wenig ändert da bisher sowieso schnell genug.

maximus_hertus
2020-03-24, 16:12:21
das ist aber nur deine meinung. ich fand den driver overhead damals ein problem,

Trotz Driver Overhead war man 2013 schon vorne: https://www.computerbase.de/2013-12/grafikkarten-2013-vergleich/3/#diagramm-rating-2560-1600-4xaa-16xaf

Und 2 GB konnten, im High End Bereich, extrem weh tun:
https://www.computerbase.de/2013-12/grafikkarten-2013-vergleich/6/

Die 7970 liegt nur minimal hinter der 780er und die 770 bzw. 680 wird um knapp 30% geschlagen.


Ob das für die Einzelperson relevant war (2013 - 4K/UHD) ist die eine Sache. Aber es war bei der 7970 eben nicht das typische Radeon liegt hinten, Danke für nichts.


Edit: Das ganze ist eh sinnlos. Die Aussage, AMD / ATI wäre nur Schrott und es gab seit der 9800 keine Top-Karte ist Bullshit. Nicht mehr, nicht weniger. Ob einem die guten Karten / Gesamtpakete, die es ja gab (wenn auch nur zeitlich begrenzt im Vergleich zu nVidia), zugesagt haben, ist eine andere Sache.

JVC
2020-03-24, 16:14:59
@Denniss
Bis zu +40% ohne RT (Gerücht)
Und ob RT aufbohren sinnvoll ist .... (~+ 1XX% laut Hörensagen)

Mit den neuen Konsolen steht der Rahmen für die Programmierer.
Für den "Standard" würde NV kaum mehr RT-Leistung benötigen.(Licht Schatten Sound)
Keine Ahnung ob NV auf beginnendes Standard RT macht, oder ob sie weiter "RTX" puschen.(glänziges)

M.f.G. JVC

Ädit !
Da hätt ich doch glatt nen Gast übersehen der Mich anspricht :biggrin:
Der JVC wie er leibt und lebt,
Danke, Ja :smile: Ich lebe noch ;)

der weiß schon heute was es in Zukunft für GPUs auf RDNA 2.0 und Ampere gibt und was sie leisten und was nicht .
Das würde ich mir nie herausnehmen.
Ich betrachte nur so viel wie möglich und schlussfolgere daraus :cool:
(ich denke, vermutlich, wahrscheinlich, möglicherweise, ziemlich sicher, m.M.n....)
(hab auch viel zu viel Zeit zum informieren. Kreuz durch, liegen muss...)
Als "Orakel" lass ich mich gerne bezeichnen und werd auch häufig um Rat gebeten.
Als mein Kreuz noch gut war, hieß es immer "MacGyver mach was"^^

Mein Hobby (aufgrund meines 5ers alles im liegen) ist lernen und Informationsbeschaffung :freak:

Leonidas
2020-03-24, 16:33:03
Sind die kolportierten +35% ein gemittelter wert über alle Features oder ist das nur Rasterleistung mit unbekannten Steigerungen bei RayTracing?


Aller Voraussicht nach nur die Performance unter gewöhnlichen Raster-Games. RT kommt sicherlich mit deutlich mehr Bumms, wurde ja auch so gesagt (Konzentration auf RTX).

BlacKi
2020-03-24, 16:45:39
Und 2 GB konnten, im High End Bereich, extrem weh tun:
https://www.computerbase.de/2013-12/grafikkarten-2013-vergleich/6/

nice trollversuch. unter fhd selbst mit 4xaa liegt die 770 noch vor der 280x, 2 jahre nach dem erscheinen von kepler. und meine 670 damals liegt auch noch sehr gut.

spielbare fps???

maximus_hertus
2020-03-24, 17:30:27
1080p ist jetzt keine High-Endige Auflösung. Aber wie gesagt, es geht nur darum, dass es eben AMD Karten gab, die mithalten konnten. Die Aussage, dass es seit der Radeon 9800 aus 2003 keine einzige ATI/AMD Karte mehr gab, die man bedenkenlos kaufen konnte, ist schwachsinn. Nicht mehr, nicht weniger.

Persöhnliche Vorlieben, persöhnliche "Monitor/Auflösung-Realität" etc. ist ja davon ausgenommen.

In 5760x1080 (ja, Eyefinity/Surround ist eine Nische) sag die GTX 680 nie so richtig überragend aus. Klar gab es damals in der Auflösung hier und da Kompromisse bei den Details (je nach Game).

Mehr wird es von meiner Seite nicht geben, da es eh massiv Off-Topic ist.

MiamiNice
2020-03-24, 17:46:45
"Eyefinity" - Darüber habe ich zu Release herzlich gelacht. Wer wollte nicht schon immer auf zig Ränder von Bildschrimen schauen.
Das ist z.b. so ein Punkt. Ich hatte immer das Gefühl das ATI an mir vorbei entwickelt. Ich weiß nicht mehr welches NV Feature parallel zu Eyefinity kam, aber ich weiß noch wie ich dachte Gamerkarte / Officekarte. Und die Officekarte war sicherlich nicht die von NV. Ich hatte bei den Features öfter das Gefühl das NV wesentlich weiter ist, bzw. mehr die Gamer im Fokus hat. NV hat auch mehr die Entwickler unterstützt bzw. Geld gegeben damit die Games besser laufen. Mag man geteillter Meinung drüber sein "the way it's meant to be played", ich fand das immer super. Karten für Gamer halt.
Das NV Zeichen am Spielstart war auch immer ein Garant für "läuft supi". Wenn ich das ATI / AMD Logo sehe beim start vom einem Spiel, seufze ich noch heute aus Reflex. Und dabei sind die Zeiten schon lange um. Ne AMD Karte läuft heute nicht wirklich schklechter als eine NV.

Und deswegen, um dem Bogen zurück zu bekommen, wenn NV meint derart kastrierte Ampere Chips an Gamer ausliefern zu müssen, ich baue mir auch den neuen Navi ein. Und wenn ich die mit meiner Historie einbaue - hat NV ein Problem. Den ich bin einer der letzten die jemals eine AMD Karte einbauen würden.

Gast
2020-03-24, 18:13:49
1080p ist jetzt keine High-Endige Auflösung. Aber wie gesagt, es geht nur darum, dass es eben AMD Karten gab, die mithalten konnten. Die Aussage, dass es seit der Radeon 9800 aus 2003 keine einzige ATI/AMD Karte mehr gab, die man bedenkenlos kaufen konnte, ist schwachsinn. Nicht mehr, nicht weniger.

Persöhnliche Vorlieben, persöhnliche "Monitor/Auflösung-Realität" etc. ist ja davon ausgenommen.

In 5760x1080 (ja, Eyefinity/Surround ist eine Nische) sag die GTX 680 nie so richtig überragend aus. Klar gab es damals in der Auflösung hier und da Kompromisse bei den Details (je nach Game).

Mehr wird es von meiner Seite nicht geben, da es eh massiv Off-Topic ist.

1080P ist aber die in dem Zeitraum relevante Auflösung für diese GPUs.
Ich hatte selbst 6 Jahre eine HD7970 vom Start weg ,also länger als bei den meisten üblich da zu der Zeit das Studium absoluten Vorang hatte .

In dem Zeitabschnitt wo die 3Gb relevant wurden war die Rohleistung der Karte aber schon in Bereiche abgesackt wo dir das auch nicht mehr viel geholfen hat bis auf den Punkt das du die Texauflösung eine Stufe höher stellen konntest, da gab es schon 290/390X und Maxwell mit ensprechender Rohleistung zum Vram.
Versteh mich nicht flasch war ne gute Karte bis auf den Krach der Lüfter, hätte ich aber zu ner 680er wohl auch gesagt.

Meine ASUS hat Anfang Januar 2012 529€ gekostet, und war bereits gute 2,5 Jahre später von den Maxwell GTX in jeglicher hinsicht deklassiert so das ein aufrüsten hier ein No Brainer war wenn man nicht mit Detailverzicht leben wollte.

Bei einer enthusiasten GPU mit Langlebigkeit zu argumentieren ist mM wie um den Brei drum rum reden.

BlacKi
2020-03-24, 18:19:38
. Die Aussage, dass es seit der Radeon 9800 aus 2003 keine einzige ATI/AMD Karte mehr gab, die man bedenkenlos kaufen konnte, ist schwachsinn. Nicht mehr, nicht weniger.
immernoch deine meinung. natürlich konnte man sie kaufen, aber ob sie im nutzungszeitraum bis maxwell die bessere war wage ich stark zu bezweifeln. ich persönlich sehe keinen anhaltspunkt dafür.

die fps selbst unter 1080p@ultra sind mir damals schon zu wenig gewesen, was bedeutet das ich details reduzieren musste um wenigsten um die 100fps zu halten. das reduzierte nochmals weiter die vram belegung. somit waren die 50% mehr vram bis maxwell kam, komplett unnütz!

ich verstehe daher einfach nicht, warum die 2gb für damalige verhältnisse als vram krüppel deklariert werden.

Asaraki
2020-03-24, 19:08:10
Ich habe btw. generell Bock auf alles was FPS zaubert. Mir ist egal welche Marke da drauf steht.

Und wenn ich die mit meiner Historie einbaue - hat NV ein Problem. Denn ich bin einer der Letzten, die jemals eine AMD Karte einbauen würden.

"Rot hat er gesagt".
Ich beende die 'Diskussion'.

Edit: *kopfschüttel* Wie schaffst du das auf ein und derselben Seite nur... :D

Gast
2020-03-25, 02:09:00
Sind die kolportierten +35% ein gemittelter wert über alle Features oder ist das nur Rasterleistung mit unbekannten Steigerungen bei RayTracing?
Ich könnte mir durchaus vorstellen daß NV die RT-Leistung ordentlich aufbohrt und bei Raster nur wenig ändert da bisher sowieso schnell genug.

Man muss sich mal vom Gedanken verabschieden, dass das dermaßen getrennt ist.

Rasterizing besteht aus dem eigentlichen Rasterizing, also der Transformation von dreidimensionalen Dreiecken in den zweidimensionalen Screenspace und anschließend dem Shading.

Raytracing besteht aus dem eigentlichen Tracing, also dem Finden des Dreiecks welches vom Strahl getroffen wird und anschließend Shading.

In beiden Fällen limitiert aber nicht unbedingt und auch nicht oft die Rasterisierung bzw. das Tracing selbst, sondern das Shading.

Für mehr Performance braucht es also mehr Shading-Leistung, und diese beschleunigt zwangsweise beide Rendermethoden.

Leonidas
2020-03-25, 04:52:03
Für mehr Performance braucht es also mehr Shading-Leistung, und diese beschleunigt zwangsweise beide Rendermethoden.


Korrekt. Das wurde schon an anderer Stelle erwähnt, das ein dickerer RT-Core per se wahrscheinlich nichts bringt. Aber: Hoffen wir einfach darauf, das man bei RT noch genügend Optimierungsmöglichkeiten findet, mit weniger Shader-Power pro Strahl auszukommen. Wenn nicht, sind wir auf die Entwicklung der Shader-Power angewiesen - und dann wird es ein arg langer Weg für RT.

Fragman
2020-03-25, 08:26:08
Deshalb hatte ich schon die Frage gestellt, ob Turing da die richtige Balance hat.
Wir wissen von den Turing Modellen, das zumindest mehr Cores auch mehr Leistung bringen, siehe 2060 und 2080TI. Das wäre dann auch die einfachste Methode, mehr RT Leistung zu erhalten, einfach noch mehr cores dranhängen. Es sei denn, die TI stellt schon das obere Ende dieser Arch da und mehr bringt nichts. Dann müsste man halt auch mehr normale Shader dazubauen mit dem entsprechenden mehr an RT cores. Vielleicht ist das aber nicht nötig, da nv die Arch weiter optimiert hat und bei gleicher Shaderanzahl schon auf +35% Mehrleistung kommt?

Gast
2020-03-25, 17:05:24
Deshalb hatte ich schon die Frage gestellt, ob Turing da die richtige Balance hat.

Das lässt sich mit Turing nicht beantworten, da alle Karten das selbe Verhältnis von RT-Kernen und Shader-Kernen haben.

Einzig die TU104 basierten karten haben im Verhältnis mehr Rasterleistung zur RT und Shaderleistung als TU106 und TU102.

N0Thing
2020-03-25, 18:09:48
Ernsthafte Frage: Warum ging man eigentlich überhaupt von TSMC aus? Es gab doch schon vor einem halben Jahr die Ankündigung, dass man von Samsung fertigen lassen wird. Irgendwie habe ich das selbt völlig vergessen. Ich meine, anscheinend war das ja sogar von nvidia bestätigt. Der Link verlinkst du übrigens selbst in einer alten News, Leonidas :)

https://www.golem.de/news/grafikchips-nvidia-nutzt-kuenftig-samsungs-7-nm-euv-node-1907-142277.html


Es ist schon relativ lange von Nvidia bestätigt worden, dass sie sowohl TSMC als auch Samsung für die Produtktion von Halbleiterprodukten nutzen werden. Laut dem CEO persönlich sollte eigentlich TSMC die Hauptlast tragen und Samsung nur einen kleinen Teil, weshalb man davon ausgegangen ist, dass die Gamer-Chips von TSMC und die HPC-Chips von Samsung kommen würden.

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Ampere-7nm-Fertigung-bei-TSMC-und-Samsung-1339959/

Urspungsquelle im Netz: https://finance.technews.tw/2019/12/20/nvidia-7nm-for-tsmc/

Denniss
2020-03-25, 20:27:46
Wenn dieses Jahr nur der HPC-Chip von TSMC kommt dann ist die Meldung nicht mal falsch.

Nightspider
2020-03-25, 20:42:43
HPC wirft halt mehr Geld ab, da kann man auch den teureren Prozess nehmen und für HPC mehr Kapazitäten frei halten.

Natürlich verstimmt man dadurch etwas die Gamer und macht es AMD leichter aufzuholen.

WedgeAntilles
2020-03-26, 11:51:35
HPC wirft halt mehr Geld ab, da kann man auch den teureren Prozess nehmen und für HPC mehr Kapazitäten frei halten.


Gibt es da eigentlich genauere Zahlen?

Klar, ein HPC bringt weit mehr Gewinn als ne Mid-Range-Gaming Karte.
Aber wieviel Stück werden von HPC überhaupt verkauft?

Auch interessant wäre eine Statistik im GraKa Bereich.
Pro Karte bringt natürlich die 2080 + 2080TI massig Kohle.
Aber es werden ja weit mehr 2060 + 2070 verkauft.
Und noch mehr im low-midrange Bereich. Wo aber gleichzeitig die Marge / Karte am geringsten ist.

Da würde mich eine genauere Aufschlüsselung wirklich mal interessieren.

BlacKi
2020-03-26, 12:52:18
Da würde mich eine genauere Aufschlüsselung wirklich mal interessieren.
kannst du dir das nicht denken? schau dir mal die preise der pro karten an. viele von denen haben den selben chip wie die gamerkarten. bei den großen karten würde ich sagen liegt der materialwert bei 500-1000$ (48gb Vram XD)insgesammt gesehen. die karten werden dann aber für 9k$ verkauft. da ist marge bei 80-90%.
das mag pro wafer gesehen etwas abweichen.
aber...
genaue zahlen gibts wohl nicht.

Fragman
2020-03-26, 12:57:52
Die Preise für die großen sind deutlich über 1k, glaub sogar über 1,5k Dollar.
Das sind die reinen Produktionskosten, R&D und alles fehlt da noch im Preis, Ausschusskosten und so weiter. Der Chip ist natürlich auch nicht gleich. Und ja, die Dinger sind sicher auch teurer als sie sein müssten. Aber das ist dann auch das obere Ende des Machbaren in der "Massenproduktion".

WedgeAntilles
2020-03-26, 16:09:25
Ich meinte eher die Stückzahlen die da verkauft werden.

Aber euch beiden schon mal vielen Dank für die Kosteneinschätzung / Karte :)

Fragman
2020-03-26, 16:21:26
Zu den Stückzahlen kann ich keine wirklichen Zahlen beisteuern.
Zu Pascalzeiten wurde mir mal gesagt, das der Quadromarkt reicht klein ist und nicht wirklich Geld verdient wird, was immer das damals bedeutet hat.
Aber das war vor dem AI Boom mit deren kompakten Teslaboxen. Da hat sich in den letzten Jahren ja viel bewegt.

Platos
2020-03-26, 17:05:56
Es ist schon relativ lange von Nvidia bestätigt worden, dass sie sowohl TSMC als auch Samsung für die Produtktion von Halbleiterprodukten nutzen werden. Laut dem CEO persönlich sollte eigentlich TSMC die Hauptlast tragen und Samsung nur einen kleinen Teil, weshalb man davon ausgegangen ist, dass die Gamer-Chips von TSMC und die HPC-Chips von Samsung kommen würden.

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Ampere-7nm-Fertigung-bei-TSMC-und-Samsung-1339959/

Urspungsquelle im Netz: https://finance.technews.tw/2019/12/20/nvidia-7nm-for-tsmc/

Ach so, ja das ist mir dan nwohl entgangen/vergessen.

Aber wie der Kommentar direkt unter dir sagt, da steht ja nur für das Jahr 2020. Könnte also sogar sein, dass dieses Jahr gar keine Gaming-Beschleuniger kommen. oder nur ein geringer Teil.

Gast
2020-03-27, 02:28:25
Zu Pascalzeiten wurde mir mal gesagt, das der Quadromarkt reicht klein ist und nicht wirklich Geld verdient wird, was immer das damals bedeutet hat.


Quadro ist aber was ganz anderes als HPC, auch wenn man natürlich Quadro Karten als "günstige" HPC-Karten verwenden kann.

Legendenkiller
2020-03-30, 09:30:50
35% mehr und dazu der Preis sicherlich wieder mal kräftig rauf. Ich glaub, die haben die Verkleinerungen der Fertigungsstrukturen tatsächlich nicht mehr im Griff und die Yields sind im Keller. Da wird in den nächsten Jahren nichts größeres an Performancesprüngen mehr kommen. Bei Prozessoren ist das ja auch schon lange der Fall.

nö... Nvidia macht 1Mrd Gewinn auf 3 Mrd Umsatz.
nur mal als Vergleich.. VW hat in seinen Besten Jahren für 1Mrd Gewinn 10Mrd Umsatz benötigt.

Das ist Monopol Gewinnmaximierung ala Intel.
Aber wenns due Kunden bezahlen kann man das eigentlich auch nicht Nvidia vorwerfen. Die nehm nur das was bezahlt wird.

Ultron
2020-04-25, 23:42:15
Bei +35% wäre ich mega enttäuscht. Ich bin bei einer neuen Fertigungstechnik von dem doppelten ausgegangen... Ich brauch die Leistung dringend. :(