PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia soll mit "Ampere" einen Performance-Sprung von +70-75% bringen


Leonidas
2020-02-01, 15:13:13
Link zur News:
https://www.3dcenter.org/news/nvidia-soll-mit-ampere-einen-performance-sprung-von-70-75-im-hpc-bereich-bringen

JVC
2020-02-01, 15:45:01
",wäre damit das Thema der Ampere-Generation gefunden –
es würde primär um eine brachiale Steigerung der RayTracing-Performance gehen."
Das Thema interessiert Mich nicht wirklich...
Die Rohpower, HDMI2.1 und 16Gb sind Mir weit wichtiger.

M.f.G. JVC

Mortalvision
2020-02-01, 15:58:44
steht doch drinnen: HPC Leistung ist nicht auf eine Gamingdesktopkarte übertragbar...

iamthebear
2020-02-01, 16:21:30
1.) Die Frage ist weniger wieviel Ampere schneller ist, sondern eher wieviel schneller Ampere bei gleichem Preis ist.

2.) Raytracing ist mir auch komplett egal. Das wird bei mir immer aus sein. Für ein paar reflektionseffekte, die einem nach 5 Minuten sowieso nicht mehr auffallen opfere ich doch nicht so viel Performance.

Viel wichtiger wäre einmal HDMI 2.1

Leonidas
2020-02-01, 16:31:14
Ich denke, HDMI 2.1 kommt ganz automatisch mit neuen Chips. Es war für die letzten Chips einfach noch nicht spruchreif genug (Vorlaufzeiten zum Designabschluß beachten).

Die Frage des Preis-normierten Performance-Sprungs ist natürlich nach Turing mehr als berechtigt. Die läßt sich aber erst mit der offiziellen Vorstellung von Ampere-basierten Gaming-Produkten klären - vorher haben wir vielleicht Performance-Werte, aber keine belastbaren Preispunkte.

paul.muad.dib
2020-02-01, 16:59:36
Da die meisten PC Spiele gerade im AAA Bereich Konsolenports sind, kann selbst eine Verdreifachung der Raytraicing Leistung PC Spiele nicht so einfach zu reinen rt titeln machen. Und bei den next gen Konsolen würde ich nicht mit wesentlich mehr rt leistung als bei Turing rechnen.

Nvidia müsste also schon noch an anderer Stelle mehr bieten. Das Konzept 50% Preis erhöhung für RT ist ja bei Turing auch nicht unbedingt auf Begeisterung gestoßen.

Lehdro
2020-02-01, 17:54:53
Das Konzept 50% Preis erhöhung für RT ist ja bei Turing auch nicht unbedingt auf Begeisterung gestoßen.
Aber gekauft wurde es trotzdem :biggrin:

Kommt wohl sehr auf AMD an, wie sich NV genau positionieren wird preislich.

RLZ
2020-02-01, 19:04:06
Da die meisten PC Spiele gerade im AAA Bereich Konsolenports sind, kann selbst eine Verdreifachung der Raytraicing Leistung PC Spiele nicht so einfach zu reinen rt titeln machen. Und bei den next gen Konsolen würde ich nicht mit wesentlich mehr rt leistung als bei Turing rechnen.
Wir sind bei der Samplingrate noch so niedrig, dass man die Bildqualität bei Raytracing einfach durch hochdrehen von Parametern noch massiv steigern kann. Mehr brauchts eigentlich nicht um die zusätzliche Leistung von PC GPUs bis zum Release der Konsolen Refreshes zu verblasen.

MiamiNice
2020-02-01, 19:35:46
Kommt wohl sehr auf AMD an, wie sich NV genau positionieren wird preislich.

Was hat den AMD mit den Preisen von den High End Boliden von NV zu tun? AMD kommt nicht mal in die Richtung, NV kann an Preis dran schreiben was sie möchten.

Und eher Du wieder in Dein P/L Wahn fällst, lies mal bitte dies:

So viel Geld geben PCGH-Leser für Grafikkarten aus: AMD hat ein Problem
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/So-viel-Geld-geben-PCGH-Leser-fuer-Grafikkarten-aus-1342485/

Der relevante Teil:

Die PCGH-Leser geben mehrheitlich also mehr als 400 Euro aus und die größte Einzelgruppe in der Umfrage ist tatsächlich die, die mehr als 800 Euro für eine Grafikkarte hinblättert. Damit ist man ganz schnell in Regionen eines High-End-Custom-Designs mit 2080 Super oder gleich einer Geforce RTX 2080 Ti. Es zeigt sich also, dass AMD dringend eine Leistungsklasse (und damit auch Preisklasse) deutlich oberhalb der aktuellen RX 5700 XT benötigt.

Und noch ein netter Fact:

Jeder dem die Preispolitik und / oder die Leistung der 2080TI aufgestossen ist und ausgesetzt hat, muss eine 3080 kaufen. AMD kommt da nicht mal in die engere Wahl, sie sind quasi gar nicht existent. NV kann 1600€ an die 3080TI dran schreiben, diese Gen, und das Teil wird sich verkaufen.

Und nicht zu vergessen das die 30er Reihe die ersten richtigen RT Karten werden. Die 2080TI ist ja quasi ein Witz, mehr eine Tech Demo.

Gebrechlichkeit
2020-02-01, 23:13:35
Hat Nvidia das nicht auch zu Kepler oder Maxwell Zeiten behauptet? Am Ende waren es "bloss" 20%.

Lehdro
2020-02-02, 00:03:58
Was hat den AMD mit den Preisen von den High End Boliden von NV zu tun?
Frage ich mich auch. Niemand hat von High End gesprochen, nur du.

Und selbst wenn NV wieder alles eins nach oben schiebt, so bleibt für AMD trotzdem genug drunter über. So wie heutzutage beim ersten Schwung der Navi Karten - da hat dann NV tatsächlich mehrmals preislich bzw mit Mehrleistung bei den Refreshes reagiert (Super, RTX 2060). Das Ergebnis der Umfrage finde ich übrigens auch nicht überraschend, man dehnt halt alles auf die Generationenzyklen aus - wo früher alle 2 Jahre ne 250€ Karte gekauft wurde, gibt es heute dank Stagnation über den Zeitraum halt alle 4 Jahre ne 500€ Karte. Und wer früher jedes Jahr für 500€ das Flagschiff gekauft hat, kauft nun alle 2-3 Jahre 1000€+ Karten - tolle Erkenntnis ;D

MiamiNice
2020-02-02, 00:41:03
Mein Fehler. Ich dachte es ginge hier um Grafikkarten für Gamer PCs, nicht für Office Rechner. Mich interessieren per se nur die Top GPUs.

Iscaran
2020-02-02, 01:06:57
Und eher Du wieder in Dein P/L Wahn fällst, lies mal bitte dies:

So viel Geld geben PCGH-Leser für Grafikkarten aus: AMD hat ein Problem
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/So-viel-Geld-geben-PCGH-Leser-fuer-Grafikkarten-aus-1342485/

Der relevante Teil:


1. Ich glaube es ist ein bisschen vorschnell hierzu schliessen dass das den "Markt" wiederspiegelt.
2. eine Umfrage mit 1105 Teilnehmern - welche dann wohl auch eher die "hardcore" Abonnenten sind und sich im PCGH Forum tummeln ist nicht mal annähernd so repräsentativ wie es diese Aussage wiederspiegelt:
"So viel Geld geben PCGH-Leser für Grafikkarten aus:"

PCGh in Zahlen: https://de.wikipedia.org/wiki/PC_Games_Hardware
ca. 10.000 Abbonnenten und ca 25.000 Verkaufte Magazine...

Die "Gelegenheitsspieler" die sich das Abo oder Magazin kaufen sind mit Sicherheit nicht teilnehmer der "Umfrage"...

Daher glaube ich sind die Zahlen nicht viel Wert. Repräsentative für den "Hardware" durchschnitt ist wohl eher der Steam Hardware-Survey. Oder vielleicht auch die MindFactory Verkaufszahlen - aber mit Sicherheit nicht mal annähernd diese PCGH Forumsumfrage.

Die kann man nur so interpretieren: "Von 1105 unserer Nerds im Forum haben xx% GPUs für > 800€...."

Ja das hätte ich auch ohne Umfrage extrapoliert aus den Kommentaren, Diskussionen, Verkaufsberatungen und den Signaturen der Nerds.

MiamiNice
2020-02-02, 01:32:03
Es geht nicht um den Schnitt sondern darum was Nerds bereit sind für eine 3080TI zu zahlen. Dafür eignen sich die Zahlen doch super der gemeine Gamer kauft eh nicht in diesem Preisbereich.

Thomas555
2020-02-02, 02:19:01
So viel Geld geben PCGH-Leser für Grafikkarten aus: AMD hat ein Problem


Es ist doch klar, dass in einem PC-Forum die "Leser" mehr Geld ausgeben, als Lischen Müller.
Wenn die Leser das Geld haben, können sie es gerne ausgeben. NVIDIA freut sich.

Ampere wird bestimmt nicht gleich 50% Aufschlag kosten bei 50% Mehrleistung.
Das würde nicht so leicht gekauft werden.

Daredevil
2020-02-02, 02:31:17
Es ist doch klar, dass in einem PC-Forum die "Leser" mehr Geld ausgeben, als Lischen Müller.
Wenn die Leser das Geld haben, können sie es gerne ausgeben. NVIDIA freut sich.


Wieso "ist das klar"?
Wie viele der Leser von der Auto Bild o.ä. haben denn einen 80k€ Sportwagen Zuhause rumstehen? Ich würde da auch eher sagen, weniger Leute.

Zudem würde ich die PCGH nicht unbedingt als Nerdtempel abstempeln, die gibt es schon ewig und sind ziemlich "Dau freundlich", also für jedermann erreichbar. ( Das meine ich gar nicht abwertend, meine ersten Gehschritte sind auch nur dort entstanden, erst danach in Foren ... )

Und selbst wenn ein Volldau nicht weiß, was er kaufen soll, so hat er immer einen PC Guy in der Nähe, der eben in solchen Kreisen umher treibt und demnach die richtige Wahl empfiehlt.

Heutzutage zahlt man nun einmal mehr, wenn man was gescheites haben will. Das ist jetzt ja nichts neues mehr und zieht sich ebenso durch den PC Markt. Zudem sind die Leute auch mehr gewillt, Kohle auszugeben, weil generell alles teurer wird.
Auto... Smartphone... Fernseher.... Tablet..... Konsolen.... PCs.
You get what you pay for und da ist AMD nun einmal nicht vertreten im WQHD+ Bereich. ( + means 4K oder HighFPS )

PS: Ich sehe da aber nirgendwo eine Gefahr. Nvidia und AMD koexistieren schon ziemlich lange, das wird sich jetzt auch nicht ändern, nur weil Nvidia brachiale Kisten auf den Markt wirft. Die Prozessor Sparte hat ja auch überlebt, obwohl sie Jahrelang von Intel an einem Pferd angebunden durch die Stadt gezogen wurden.

Leonidas
2020-02-02, 03:18:04
Da die meisten PC Spiele gerade im AAA Bereich Konsolenports sind, kann selbst eine Verdreifachung der Raytraicing Leistung PC Spiele nicht so einfach zu reinen rt titeln machen.


Das will ja (derzeit) auch niemand. Es würde reichen, wenn die aktuellen RT-Titel unter der für die jeweilige Grafikkarte gedachten Auflösung funktionieren würden. Sprich, nicht mehr auf einer 2080Ti die Auflösung (oder Details) reduzieren, um RT nutzbar zu machen. DAS reicht bereits komplett aus, um RT einen Schub zu geben.

Von RT-only Spielen redet niemand. NV (und AMD) wollen sicherlich lange an dieser Aufrüstungs-Spirale verdienen, welche RT in Gang setzen dürfte.

MiamiNice
2020-02-02, 03:46:03
Das ist so wie so der Witz schlechthin. 1400€ GPU und wenn man das exclusive Feature nutzt sinken die FPS in bodenlose. Die 2080TI ist für mich die nutzloseste Karte von NV, für mich noch ein viel größerer Fauxpas als die GTX970. Hoffentlich wird die 3080TI das was die 2080TI hätte sein sollen.

konkretor
2020-02-02, 09:42:51
Die 2080TI ist super für günstige tensorflow 4x in einem Server. Willst die selbe Leistung mit Tesla Karten haben bist einiges mehr los.
Nvidia macht etwas zicken bei den Treibern in einer VM aber läßt sich umgehen. Noch...

Dann kann ich ja Anfang 2021 die 2080 TI in Rente schicken und durch was neues ersetzen!

Hoffentlich mit mehr RAM....

Mr.Smith
2020-02-02, 09:45:07
Wenn nVidia auf moderate +50% geht, die Chips dadurch kleiner und günstiger hinbekommt, können die Grafikkarten auch nur günstiger werden.

Stromhungrige Chips machen Karten auch teurer und aufwendiger.

die +50% beim VRAM könnte das ganze teurer machen, andererseits hatte nVidia bei der 1080ti schon vor 3 Jahren 11 GB VRam verbaut, sollte in 3 Jahren ja mind. 1/3 günstiger geworden sein EK.

Preis wird wohl stark davon abhängen, was AMD mit RDNA2 auf 7nm+ bieten kann.

JVC
2020-02-02, 10:13:47
Wenn nVidia auf moderate +50% geht, die Chips dadurch kleiner und günstiger hinbekommt, können die Grafikkarten auch nur günstiger werden.
, werden die Margen zur Freude der Aktionäre steigen.

Preis wird wohl stark davon abhängen, was AMD mit RDNA2 auf 7nm+ bieten kann.
Eben, freiwillig wird NV nicht günstiger als absolut notwendig...

M.f.G. JVC

Daredevil
2020-02-02, 10:51:18
Das ist so wie so der Witz schlechthin. 1400€ GPU und wenn man das exclusive Feature nutzt sinken die FPS in bodenlose. Die 2080TI ist für mich die nutzloseste Karte von NV, für mich noch ein viel größerer Fauxpas als die GTX970. Hoffentlich wird die 3080TI das was die 2080TI hätte sein sollen.

Vielleicht hast du aber auch einfach unrealistische Erwartungen.

etp_inxession
2020-02-02, 10:57:22
Auch von nVidia kommt wieder mal eine 5900-Like-GPU ...

Immer mal wieder kommen Generationen die einfach Kacke sind.

Vllt nicht mit Ampere ... aber vllt danach?

Lowkey
2020-02-02, 11:27:45
Der Titel ist aber Clickbait und die Relativierungen hier sind alles Spekulationen. In 2 Monaten wissen wir mehr.

Gast
2020-02-02, 11:54:57
Wenn Big Red 200 auf Tensor setzt und 3x Tensor-Cores stimmt, gäbe es noch eine andere, leider viel unangenehmere - wenn auch unwahrscheinliche, Erklärung für den Performance-Schub. Hoffen wir mal, dass dem nicht so ist.

MiamiNice
2020-02-02, 12:00:15
Vielleicht hast du aber auch einfach unrealistische Erwartungen.


Turing hat eher unerwartet wenig Power gebracht und weniger als die Generationen davor und wahrscheinlich auch danach. Dafür gab es RT welches Du heute genau wie gut usen kannst?
Ich glaube nicht das ich unrealistische Erwartungen hatte.

AnnoDADDY
2020-02-02, 12:03:34
Doch hast du. Warum sollte NVIDIA mehr Leistung bringen als nötig? Davon ab ist raytracing sehr gut nutzbar. Besser als jede andere Technologie zu Beginn nutzbar war.

MiamiNice
2020-02-02, 12:06:58
1. Weil es "normal" ist das wir etwas um 50% Aufschlag bekommen, Turing aber nur im Schnitt 35% brachte.

2. Wie viele Spiele kannst Du denn heute in gewöhnlicher Auflösung für eine Enthusiasten Karte spielen mit RT aktiviert? Und natürlich mit FPS über 60, versteht sich von selbst.

Daredevil
2020-02-02, 12:12:48
Also ich habe jedes Spiel angespielt und konnte es jedes mal nutzen und war von der Grafik begeistert. Tomb Raider, Control und BF hatte ich durch.
Ehm.... joa.

Ne 2080ti ist auch ohne RT keine native 4k@120fps Karte, das denkst du halt.

Ben Carter
2020-02-02, 12:13:14
Das will ja (derzeit) auch niemand. Es würde reichen, wenn die aktuellen RT-Titel unter der für die jeweilige Grafikkarte gedachten Auflösung funktionieren würden. Sprich, nicht mehr auf einer 2080Ti die Auflösung (oder Details) reduzieren, um RT nutzbar zu machen. DAS reicht bereits komplett aus, um RT einen Schub zu geben.
Nur reicht da eine Verdreifachung leider nicht aus, wenn man davon ausgeht, dass die Ti für 4k gedacht ist.

Ich denke, man hätte grundsätzlich die Möglichkeit den FullHD Karten genug RT Power mitzugeben, um in der Auflösung in (sehr) guten FPS bereichen zu bleiben, auch wenn die Qualität der Effekte noch etwas zunimmt, aber darüber hinaus braucht es leider doch nochmals um einiges mehr und der scheint auch nicht ganz so schnell zu kommen.

Ich hoffe zumindest, dass die non-RT Power ausreicht, um ohne Details zu reduzieren, 4k in allen Lebenslagen flüssig darzustellen (also im Schnitt über 50fps) aber ich fürchte, dass sich das noch nicht ausgeht. Dazu müsste man die 2080 Ti glatt verdoppeln. Oder SLI funktioniert wieder (und ohne groß daran herumspielen zu müssen).

Radeonfreak
2020-02-02, 12:16:16
Also ich habe jedes Spiel angespielt und konnte es jedes mal nutzen und war von der Grafik begeistert. Tomb Raider, Control und BF hatte ich durch.
Ehm.... joa.

Seh ich auch so.

Bei Shadow of the Tomb Raider hab ich bei RT Ultra nicht mal DLSS an und hab trotzdem 60fps+ (1440p)

Lowkey
2020-02-02, 12:27:30
Die ersten Benchmarks mit RT waren ernüchternd bis enttäuschend. Von daher stammt die negative Meinung über RT.

Nach ein paar Verbesserungen lief es später durchweg besser. Nur den Beigeschmack einer schlechten Generation hat es dennoch.

Leonidas
2020-02-02, 12:38:39
Der Titel ist aber Clickbait


Im Titel wird sogar drauf hingewiesen, worauf sich das bezieht und das es sich somit nicht auf Gaming bezieht. Ich würde mal denken, damit gehört 3DC zu einer sehr kleinen Minderheit, welche diesen Bezug bereits im Titel herstellen bzw. nicht per Titelwahl glauben lassen, es handle sich hier im Gaming-Ampere.

Und "Clickbait" bezeichnet im üblichen nicht Artikel, welche vielleicht uninteressant oder an der Zielrichtung des Lesers vorbei sind - Clickbait ist allein eine Bezeichnung für Titel, die viel mehr versprechen als drinsteht. Wie trifft dies auf diese Titelwahl zu? Ich bitte um Erklärung.




Nur reicht da eine Verdreifachung leider nicht aus, wenn man davon ausgeht, dass die Ti für 4k gedacht ist.


Wie den umliegenden Postings zu entnehmen, gibt es hierzu extrem verschiedene Ansichten. Man kann aber sicher sagen, das eine dreifache RT-Power entscheidend weiterhelfen dürfte - egal ob es nun schon zur Perfektion langt oder nicht.

MiamiNice
2020-02-02, 12:44:29
Also ich habe jedes Spiel angespielt und konnte es jedes mal nutzen und war von der Grafik begeistert. Tomb Raider, Control und BF hatte ich durch.
Ehm.... joa.

Und FPS? Spielbar? Kompetitiv spielbar? Auf Monitoren die zum Preis der GPU passen?

€: Und nein QHD ist keine Auflösung mehr für eine Enthusiasten Karte, QHD ist gemeiner standard der von ziemlich jeder GPU bedient wird.
Und €2: Kompetetiv spielbar heißt immer min. 60 Fps auch im absoluten Worst Case.
Und €3: Aktuelle VR Brillen haben heute mehr Auflösung als Monitore mit QHD und werden von Leuten, die sich auch hier im Thread tummeln, als unzureichend empfunden.

Und auch nicht zu vergessen das bei einigen Games die nötige RT Leistung down gepatcht wurde, weil eben nicht mal die TI spielbare FPS auf den Moni gezaubert hat.


Ne 2080ti ist auch ohne RT keine native 4k@120fps Karte, das denkst du halt.

Hab ich nie gesagt und auch nicht erwartet. Meine 50% Aufschlag hätte ich gerne gehabt und keine Ressourcenverschwendung für ein noch unnützes Feature. Das was die 3080TI an RT Leistung bringen wird, hätte der Einstand sein müssen.

basix
2020-02-02, 12:49:02
Ich denke, Nvidia wird mit dem Big Chip nur auf 6144 Shader Units gehen und den Takt etwas hochziehen, dann haben wir die +50% Leistung. Das wird immer noch ein 500-600mm2 Brummer und in 7nm entsprechend teuer.

Rabiata
2020-02-02, 13:56:21
Heutzutage zahlt man nun einmal mehr, wenn man was gescheites haben will. Das ist jetzt ja nichts neues mehr und zieht sich ebenso durch den PC Markt. Zudem sind die Leute auch mehr gewillt, Kohle auszugeben, weil generell alles teurer wird.
Auto... Smartphone... Fernseher.... Tablet..... Konsolen.... PCs.
You get what you pay for und da ist AMD nun einmal nicht vertreten im WQHD+ Bereich. ( + means 4K oder HighFPS )
Absolut gesehen wird P/L immer noch besser, nur langsamer.
Du mußt jetzt halt eine Klasse tiefer einkaufen für denselben Preis wie bei der Vorgängergeneration. Wenn wir jeweils die Listenpreise zum Launch für performancemäßig grob vergleichbare GraKas vergleichen, komme ich z.B. bei AMD auf:

R9 390X 8GB $429 USD
RX 580 8 GB $229 USD
RX 5500XT 8 GB $199 USD

Quellen: Wikipedia für die offiziellen Launchpreise, Userbenchmark für eine grobe Einstufung der Performance.

Die letzten Jahre ist der Fortschritt offensichtlich langsamer geworden. Das liegt aber auch an den Kosten in der Chipfertigung und -Entwicklung, die allmählich aus dem Ruder laufen. Da geht zwar noch "schneller" aber kaum noch "billiger pro Transistor". Eine Quelle (https://www.eejournal.com/article/racing-to-the-end-of-moores-law-the-new-world-semiconductor-order/).

Daredevil
2020-02-02, 14:03:51
Und FPS? Spielbar? Kompetitiv spielbar? Auf Monitoren die zum Preis der GPU passen?

€: Und nein QHD ist keine Auflösung mehr für eine Enthusiasten Karte, QHD ist gemeiner standard der von ziemlich jeder GPU bedient wird.
Und €2: Kompetetiv spielbar heißt immer min. 60 Fps auch im absoluten Worst Case.
Und €3: Aktuelle VR Brillen haben heute mehr Auflösung als Monitore mit QHD und werden von Leuten, die sich auch hier im Thread tummeln, als unzureichend empfunden.

Vielleicht hast du aber auch einfach unrealistische Erwartungen.

Es gibt auf dieser Welt drei Karten, die minimal über 60fps in Division2 in FullHD schaffen, alle anderen sind drunter. ( https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/2/#diagramm-the-division-2-1920-1080 )
Das bedeutet also, dass alle anderen unter einer 2070S für dich in 720p kompetitiv spielen müssen?

Ja nice.

BlacKi
2020-02-02, 14:15:18
Und FPS? Spielbar? Kompetitiv spielbar? Auf Monitoren die zum Preis der GPU passen?
sry, aber wer spielt competitive auf ultra? noch nichtmal in csgo wird oftmals AA ausgereizt.

wenn man neuere spiele unter dx12 nimmt hat turing +- 50% mehr performance als pascal. und das ohne RT. die letzten nv treiber gaben turing ebenfalls nochmal nen guten boost. die 2018er wertung mit knapp 35% 1080ti vs 2080ti sind schon lange geschichte und treffen nur noch auf ausnahmen zu. in COD und division 2 hat turing mittlerweile einen 50-60 prozentigen vorteil ggü. pascal. das wird mit den neueren spielen nur noch weiter in diese richtung gehen.

aber jetzt brauch ich mir keine RTX karte mehr kaufen. ich hätte doch 2018 zur 2080ti greifen sollen, auch wenn ich mit meiner 1080ti recht zufrieden war.

Lowkey
2020-02-02, 14:23:59
Hast du den Link auf aktuelle Tests?

@Leonidas:

Ich habe nur die Überschrift im Forum gelesen und lange widerstanden.

JVC
2020-02-02, 14:43:28
Du mußt jetzt halt eine Klasse tiefer einkaufen für denselben Preis wie bei der Vorgängergeneration.
Hat NV selbst nicht gesagt, das man eine Klasse höher kaufen soll wenn man n brauchbares Performanceplus haben möchte ?
(konnte ich als 1080Ti FE Besitzer nur leider nicht machen...und eine Klasse niedriger ist nicht schneller)

Wenn man neuere spiele unter dx12 nimmt hat turing +- 50% mehr performance als pascal.
Aber auch nur weil PA nicht wirklich gut DX12 kann ^^
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12198437&postcount=18
NV schafft es immer wieder die eigenen Karten "sehr kurzlebig" zu gestalten.
(was wohl für mich auch der Hauptgrund ist, falls möglich wieder auf AMD zu setzen)

M.f.G. JVC

Iscaran
2020-02-02, 15:32:03
€: Und nein QHD ist keine Auflösung mehr für eine Enthusiasten Karte, QHD ist gemeiner standard der von ziemlich jeder GPU bedient wird.


Auch da möchte ich gern einwerfen, dass WQHD vielleicht unter Nerds "Standard" ist - aber unter "den Gamern" an sich sind wir bei FullHD als Standard:

ca 65% der Nutzer haben ein FullHD screen:
1920 x 1080 64.41% -0.53%
https://store.steampowered.com/hwsurvey/
WQHD kommt gerade mal auf ca 5%:
2560 x 1440 5.86% -0.04%

Rabiata
2020-02-02, 16:13:55
Hat NV selbst nicht gesagt, das man eine Klasse höher kaufen soll wenn man n brauchbares Performanceplus haben möchte ?
(konnte ich als 1080Ti FE Besitzer nur leider nicht machen...und eine Klasse niedriger ist nicht schneller)
Da hab ich mich vielleicht mißverständlich ausgedrückt. Es ging mir darum, wie sich die Preise für jemand entwickeln, der dieselbe Performance auf einer neuen Karte wieder haben will. Der kann alle paar Jahre eine Klasse tiefer rutschen.

Macht natürlich kaum jemand solange die alte GraKa noch funktioniert. Das Ganze war mehr eine Argumentation gegen "es wird alles teurer"

Leonidas
2020-02-02, 17:11:45
@Leonidas:

Ich habe nur die Überschrift im Forum gelesen und lange widerstanden.


Alles klar, kein Problem. Im Forum musste ich leider kürzen.

Gast
2020-02-02, 18:38:05
Dabei sollte man einrechnen, das nVidia bei den nach Turing nachfolgenden Grafik-Generationen ein generell größeres Augenmerk darauf legen dürfte, anstatt der normalen Rendering-Power eher denn die RayTracing-Power zu steigern.

Das eine schließt das andere nicht aus.

Beides braucht jede Menge FLOPs.

Herkömliches Rendering braucht dazu noch TMUs, Raytracing die RT-Kerne.

Dazwischen gibt es aber jede Menge Hardware die beides beschleunigt.

+75% klingt eigentlich sehr realistisch, für 7nm und eine neue Architektur.

Mich würde nicht wundern, wenn Gaming noch mehr beschleunigt würde, weil GPGPU skaliert eigentlich nur mit der Rohleistung skaliert, während man Spieleleistung her noch durch Architekturverbesserungen steigern kann.

MiamiNice
2020-02-03, 00:01:16
Vielleicht hast du aber auch einfach unrealistische Erwartungen.

Es gibt auf dieser Welt drei Karten, die minimal über 60fps in Division2 in FullHD schaffen, alle anderen sind drunter. ( https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/2/#diagramm-the-division-2-1920-1080 )
Das bedeutet also, dass alle anderen unter einer 2070S für dich in 720p kompetitiv spielen müssen?

Ja nice.

Ich bin mir nicht ganz sicher ob ich Dir folgen kann. Wer keine 60 FPS dreht wahrscheinlich die Details runter, competitiv sowieso, da low Details bei vielen Spielen noch andere Vorteile bringen als nur FPS.

Mir ging es darum das die 2080TI keine Enthusiasten Karte im eigentlichem Sinn ist/war (außer natürlich beim Preis) sondern eher ein Stückwerk welches nur aufgrund mangelnder Konkurrenz so verkauft werden konnte. Die 2080Ti ist imo dem NV Label nicht würdig. Sie kann zwar alles aber nichts kann sie richtig. Schon gar nicht gemessen am direkten Vorgänger, da ist sie eher eine Enttäuschung. Nicht umsonst bekam man überall den Tip eine gebrauchte 1080TI statt einer 2080 / TI zu kaufen. Klingt gar nicht nach NV.



wenn man neuere spiele unter dx12 nimmt hat turing +- 50% mehr performance als pascal. und das ohne RT. die letzten nv treiber gaben turing ebenfalls nochmal nen guten boost. die 2018er wertung mit knapp 35% 1080ti vs 2080ti sind schon lange geschichte und treffen nur noch auf ausnahmen zu. in COD und division 2 hat turing mittlerweile einen 50-60 prozentigen vorteil ggü. pascal. das wird mit den neueren spielen nur noch weiter in diese richtung gehen.


Hast Du dazu Links? Eigentlich nicht mein Ding und wundert nicht unbedingt. Allerdings dürften lange nicht alle Games so skalieren, auch nicht alle neueren. Zu Release waren es 35% im Schnitt und der Grund die Vorstellung zu stonieren. Übrigens nicht nur für mich falls Du den 2080TI Release Thread hier im Forum noch mal ausgraben magst.

Auch da möchte ich gern einwerfen, dass WQHD vielleicht unter Nerds "Standard" ist - aber unter "den Gamern" an sich sind wir bei FullHD als Standard:

ca 65% der Nutzer haben ein FullHD screen:
1920 x 1080 64.41% -0.53%
https://store.steampowered.com/hwsurvey/
WQHD kommt gerade mal auf ca 5%:
2560 x 1440 5.86% -0.04%

Ich bin der Meinung wenn jemand 1400€ für einen Pixelschubser ausgibt hat er auch einen wertigen Monitor. Laut Leos Zahlen von heute liegen die Enthusiast GPU Verkäufe bei 2,7%, also könnte jeder 2080Ti Käufer auch einen WQHD Moni haben.

MiamiNice
2020-02-03, 00:01:40
doppelt, sorry.

BlacKi
2020-02-03, 10:18:12
Hast Du dazu Links? Eigentlich nicht mein Ding und wundert nicht unbedingt. Allerdings dürften lange nicht alle Games so skalieren, auch nicht alle neueren. Zu Release waren es 35% im Schnitt und der Grund die Vorstellung zu stonieren. Übrigens nicht nur für mich falls Du den 2080TI Release Thread hier im Forum noch mal ausgraben magst.

https://abload.de/thumb/tu6pkhr.png (https://abload.de/image.php?img=tu6pkhr.png)

Schnoesel
2020-02-03, 10:38:16
Tja nur ist eine 1080Ti FE (wie im CB Test) auch nicht der Knaller und 100% Kühler limitiert während eine 2080Ti FE quasi eine OC Edition mit gutem Kühler ist. Die wenigsten werden hier eine gammelige 1080ti FE haben sondern eine OC Custom. Das relativiert wieder einiges. Aber anscheinend zieht Nvidias trick hier ja ganz gut.

MiamiNice
2020-02-03, 10:45:49
https://abload.de/thumb/tu6pkhr.png (https://abload.de/image.php?img=tu6pkhr.png)


Das ist großer Murks, siehe Schnoesel.

JVC
2020-02-03, 11:11:53
Ich bin der Meinung wenn jemand 1400€ für einen Pixelschubser ausgibt hat er auch einen wertigen Monitor.

Meine Monitore waren immer teurer als meine Graka.
Der letzte "Monitor" war gut 3mal so teuer :wink::tongue:

Aber anscheinend zieht Nvidias trick hier ja ganz gut.
Wie jedes Mal... :frown:
NV ist Meister im verkaufen...
Dafür braucht man möglichst kurzlebige Produkte...

M.f.G. JVC

P.s.: Meine 1080Ti FE Default 250Watt, ist unter DX11 nur ~12-17% langsamer als ne Default 250Watt 2080Ti FE

BlacKi
2020-02-03, 11:32:48
ja, klar.
https://abload.de/thumb/d1tqkg2.png (https://abload.de/image.php?img=d1tqkg2.png)

wenn die 2080ti FE soviel stärker wäre, dann wäre sie glatt ihren aufpreis wert ;)

MiamiNice
2020-02-03, 11:36:22
P.s.: Meine 1080Ti FE Default 250Watt, ist unter DX11 nur ~12-17% langsamer als ne Default 250Watt 2080Ti FE

Um genau zu sein sind es 14.23 TFLOPS (2080TI FE) vs 12.064 TFLOPS (1080TI OC).

Meine 1080TI darf bis zu 400 Watt ziehen, wird selten wärmer als 40°, macht aber leider um 2150 zu. Die macht noch mehr als die 1080TI OC da oben. Da hat die 2080TI so richtig Sinn gemacht, gerade für den sehr schmalen Preis ;) Wasserblock wäre ja auch noch dazu gekommen.

Eigentlich eine Schande das die 2080TI das NV Logo tragen darf, natürlich nur meine Meinung, eher sich jemand beschwert.

BlacKi
2020-02-03, 11:41:28
lol

Lehdro
2020-02-03, 11:55:58
Tja nur ist eine 1080Ti FE (wie im CB Test) auch nicht der Knaller und 100% Kühler limitiert während eine 2080Ti FE quasi eine OC Edition mit gutem Kühler ist. Die wenigsten werden hier eine gammelige 1080ti FE haben sondern eine OC Custom.
Eine gute Custom 1080 Ti legt aber auch "nur" rund 10% drauf (https://www.computerbase.de/2017-03/asus-gtx-1080-ti-strix-oc-test/2/), ans Limit getrieben kommst du dann auf ~ +15% (was so ca 2 GHz GPU Takt wären). Da bleiben dann immer noch gut Prozente zugunsten der 2080 Ti übrig - aber keine 50% mehr. Diese Fälle werden aber in der Tat immer mehr werden, langfristig wird sich die 2080 Ti also eher mehr von der 1080 Ti absetzen als das heute oder gar zum Launch der Fall war.

Aber anscheinend zieht Nvidias trick hier ja ganz gut.
Wurde damals ja zurecht von vielen bemängelt dass da quasi Custom OC vs vanilla Referenzdesign getestet wurde bei Turing vs Pascal. Technisch ist der direkte Vergleich zwar gerechtfertigt, allerdings maximal manipulativ zulasten der Kunden - schade dass viele von der Techpresse davon abgesehen haben Custom 1080 Tis mit antreten zu lassen.

JVC
2020-02-03, 11:57:45
wenn die 2080ti FE soviel stärker wäre, dann wäre sie glatt ihren aufpreis wert ;)
Leider ist bei Ihr der Preis Prozentuell stärker gestiegen als die Leistung :ulol:


Meine 1080TI darf bis zu 400 Watt ziehen, wird selten wärmer als 40°, macht aber leider um 2150 zu.

Mein Beileid ;(
Meine schafft o.o.t.b. in kurzen Tests 2037MHz und hält in spielen immer 1940Mhz oder mehr (60Fps V-Sync/FPS-Cap).
Ein sehr kurzer plumper OC versuch (360Watt) ergab ohne Lüftertuning stabile 2112Mhz.(stress Test min~2065Mhz)

Aber leider ist PA wahrscheinlich "veraltet" bevor mir die Rohpower-Leistung zu wenig wird :(

M.f.G. JVC

BlacKi
2020-02-03, 12:06:35
Leider ist bei Ihr der Preis Prozentuell stärker gestiegen als die Leistung :ulol:


kommt drauf an an welcher karte man sich orientiert.

JVC
2020-02-03, 12:11:29
kommt drauf an an welcher karte man sich orientiert.
Na von meiner "superduper über hyper OC extrem krass für unglaublich teure ~820.-" aus gesehen :smile:
(da müsste man schon DX12 cherry picking betreiben damit sich der Aufpreis Prozentual rechnet)
(und NEIN, Aktionspreise von Durchschnittskarten zählen nicht)

M.f.G. JVC

BlacKi
2020-02-03, 12:18:02
Na von meiner "superduper über hyper OC extrem krass für unglaublich teure ~820.-" aus gesehen :smile:
(da müsste man schon DX12 cherry picking betreiben damit sich der Aufpreis Prozentual rechnet)
(und NEIN, Aktionspreise von Durchschnittskarten zählen nicht)

M.f.G. JVC
die ganze diskussion dreht sich nur um dx12 und kommende spiele. nicht darum wie groß in den anderen spielen der unterschied liegt.

zum release waren es im schnitt 35% einige spiele lagen sogar darunter, aber turing hat durch DX12 und treiberupdates den abstand enorm vergrößert. und der abstand wird weiter steigen.

mehr wollte ich nicht sagen.

JVC
2020-02-03, 12:27:58
@BlacKi
Da hast du auch absolut Recht.

Ich will nur sagen das NV bei PA ein böses Ablaufdatum eingebaut hat.
Bei TU haben sie mit RAM gegeizt und die entwicklungskosten von RT gleich auf die User abgewälzt.
Bin gespannt was als nächstes kommt...

In meinem Umfeld ist es aber tatsächlich so das versierte User mit NV Hardware fast doppelt so oft die Graka wechseln wie Die mit AMD Gpus.
Jetzt nach meinem eigenen NV-Ausflug (die teure 1080Ti) denke ich die Gründe zu verstehen.

M.f.G. JVC

Popeljoe
2020-02-03, 12:37:37
@BlacKi
Da hast du auch absolut Recht.

Ich will nur sagen das NV bei PA ein böses Ablaufdatum eingebaut hat.
Bei TU haben sie mit RAM gegeizt und die entwicklungskosten von RT gleich auf die User abgewälzt.
Bin gespannt was als nächstes kommt...

In meinem Umfeld ist es aber tatsächlich so das versierte User mit NV Hardware fast doppelt so oft die Graka wechseln wie Die mit AMD Gpus.
Jetzt nach meinem eigenen NV-Ausflug (die teure 1080Ti) denke ich die Gründe zu verstehen.

M.f.G. JVC
Für mich als, bisher fast reinem AMD User, ist die Aussage schwierig nachzuvollziehen. Wie sehen die Gründe denn genau aus?

Imo ist auch die drohende NV Offensive ein Grund für AMD die Preise derart hoch anzusetzen. Wenn NV mit der neuen Gen rauskommt, muss AMD seine Preise wieder massiv runtersetzen, weil sie sonst Absatzprobleme bekommen werden.
Spannend finde ich, die vernichtenden Kritiken gegenüber der 2080 Ti. Dies ist aber absolut nachvollziehbar, wenn man sich das PL Verhältnis gegenüber einer 1080 Ti ansieht.

aufkrawall
2020-02-03, 12:44:34
Wenn auf Nvida mal etwas vergleichsweise nicht so schnell läuft, wird gerne und schnell das vorzeitige Ende der betroffenen GPU-Generation ausgerufen.
Dass man betroffene Spiele meist trotzdem noch gut spielen kann, rückt dann gerne mal etwas in den Hintergrund.

Es scheint die Leute immer wieder erneut zu überraschen, dass mit expl. API mehr Leistung aus GCN rausgeholt werden kann...

Schnoesel
2020-02-03, 12:49:50
Von mir aus könne es auch 50% sein wenn ich meine Sea Hawk EK X die ich für 720€ gekauft habe vergleiche mit dem Preis, der lange Zeit für das 2080Ti Derivat aufgerufen wurde (ca. 1500€), ist das halt ein schlechter Scherz. Da musste ich nicht lange überlegen Turing zu überspringen.

JVC
2020-02-03, 13:05:37
Für mich als, bisher fast reinem AMD User, ist die Aussage schwierig nachzuvollziehen. Wie sehen die Gründe denn genau aus?

Die Treiber sind m.M.n. schlechter/unübersichtlicher.
Komischerweise hatte ich schon lange nicht mehr so viele Probleme wie mit meiner 1080Ti.
(das sind mehrere kleine nervige Sachen und natürlich die DX12 Schwäche)

Normal hab ich meine GPUs solange, bis ich auf zu viel verzichten muss weil die Leistung einfach nicht mehr reicht.
Aber die 1080Ti häng ich wirklich gerne an die "Wand" und freu mich auf nen hoffentlich besseren Nachfolger.

Ich werde kommende Produkte kritisch beäugen und das für Mich Passende auswählen :smile:

M.f.G. JVC

Daredevil
2020-02-03, 14:07:28
Um genau zu sein sind es 14.23 TFLOPS (2080TI FE) vs 12.064 TFLOPS (1080TI OC).

Meine 1080TI darf bis zu 400 Watt ziehen, wird selten wärmer als 40°, macht aber leider um 2150 zu. Die macht noch mehr als die 1080TI OC da oben. Da hat die 2080TI so richtig Sinn gemacht, gerade für den sehr schmalen Preis ;) Wasserblock wäre ja auch noch dazu gekommen.

Eigentlich eine Schande das die 2080TI das NV Logo tragen darf, natürlich nur meine Meinung, eher sich jemand beschwert.
Ja das passt doch.
Deine 1080ti läuft mit 400w@WaKü und meine ( 800€ ) 2080ti@1.5Ghz läuft mit 156w@800rpm und ist leicht schneller, mit der Option zum Afterburner. ^^
Sowas nennt man doch technologischen Fortschritt. ;)

MiamiNice
2020-02-03, 14:45:27
Sowas nennt man doch technologischen Fortschritt.

Das mögen einige so sehen für mich ist es mehr ein Sidegrade als ein Fortschritt. Mich interessiert mein Stromzähler null, Fortschritt messe ich in Balkenlänge. Und Dein Balken ist ähnlich kurz wie meiner ^^

Daredevil
2020-02-03, 14:59:12
Wohl wahr. ^^
Ich kann halt noch ~35% drauflegen, um auf knapp 330w@1300rpm zu kommen, sowas brauchts dann halt bei den AAA Titeln und RT. So what.
Ich wünsch mir auch mehr, so isses ja nicht. :D

Es ist halt keine perfekte 4K Karte, also kann es auch logischerweise keine perfekte RT Karte sein.
Kompromisse kann man eingehen, sollte man aber natürlich für den Preis nicht. Aber nun..... ist halt der Crysis Effekt.

Sardaukar.nsn
2020-02-03, 17:28:43
Meine 1080Ti wird mich jetzt auch noch eine Weile begleiten. Inzwischen hochkant und unter Wasser (siehe Signatur) macht die ihre 2025 Mhz bei 1.00v. Da ich aber eh nur auf 1440p unterwegs bin wird mir die Karte dieses Jahr bei Doom Eternal und Cyberpunk 2077 sicher noch guter Dienste erweisen.

Vielleicht gibt es ja in einem Jahr wieder soetwas wie den Media-Markt Superbowl Deal, dann kann man über eine 3080Ti reden. Aber die muss auch erstmal überzeugend werden. Die 2080Ti war es für mich auch diversen hier aufgeführten Gründen nicht.
Neben der reinen Leistung erwarte ich von der Ampere Generation (und den Monitor Herstellern) allerdings auch endlich den Sprung auf HDMI 2.1 und einen einheitlichen VRR Standard um endlich dieses G-Sync/Freesync Theater abharken zu können.

BlacKi
2020-02-04, 00:30:05
was ich bei der next gen noch nicht ganz für sicher halte ist:

hdmi2.1 - LG bringt nun wohl 4k120hz+vrr mit hdmi2.0. wenn die monitore dafür kein 2.1 benötigen, besteht zumindest die gefahr, das die next gen das nicht mitbringt.

16gb für die 3080. der speicher ist immernoch recht teuer. ich halte es nicht für gesichert das sich der speicher verdoppeln wird.

release der next gen vor dem cyberpunk release. RTX kann man mit der 1080ti sowieso nicht spielbar betreiben, aber auch so halte ich es für möglich das die 1080ti straucheln wird. ich hoffe nur das wir rechtzeitig karten dafür am markt haben werden, damit man turing wirklich überspringen kann.