PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Wie weit verbreitet ist Multi-GPU im Jahr 2019 noch?


Leonidas
2019-04-06, 19:37:35
Link zur Umfrage:
https://www.3dcenter.org/umfrage/wie-weit-verbreitet-ist-multi-gpu-im-jahr-2019-noch


Link zum Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-weit-verbreitet-ist-multi-gpu-im-jahr-2019-noch

Ben Carter
2019-04-06, 20:24:49
Ich hatte nie Multi-GPU genutzt, allerdings vor etwas über einem Jahr überlegt, es einzusetzen. Doch die vielen Probleme und Inkompatibilitäten haben mich davon abgehalten. Würde Multi-GPU halbwegs problemlos und mehr als +60% bringen, wäre ich sofort bereit, es einzusetzen.

lg Ben

ASTABOHNE
2019-04-07, 01:54:11
Hi@All, ich hatte das vor 20Jahren Voodoo2 SLI. >Danach war es nur Geld zum Fenster raus werfen.

Gruß

JVC
2019-04-07, 09:30:40
Hi@All, ich hatte das vor 20Jahren Voodoo2 SLI. >Danach war es nur Geld zum Fenster raus werfen.

This!

Habe noch immer zwei Voodoo1 und zwei Voodoo2 ...
Theoretisch habe ich genug alte Grakas, Multi-GPU hat mich nur nie interessiert.
(m.M.n. funktionierte es nie wirklich zufriedenstellend)

m.f.g. JVC

Daredevil
2019-04-07, 10:03:31
Bei manchen DX12 Titeln funktioniert das ganze schon ganz gut, als richtig gutes Beispiel wäre da Tomb Raider zu nennen. Aber sinnvoll ist es in der Hinsicht immer noch nicht, wenn zwei Karten so schnell sind wie eine einzige.
( Beispiel 2x Vega 64 > 1x2080ti )

Will man aber signifikant mehr Power als eine 2080ti, muss man halt dazu greifen und dafür ist es dann auch better than nothing.

pixeljetstream
2019-04-07, 10:05:44
Im Pro-Bereich kommt es auch für VR ganz gut an.

MadManniMan
2019-04-07, 10:12:34
Im Pro-Bereich kommt es auch für VR ganz gut an.

Ach da funzt das tatsächlich?

N0rG
2019-04-07, 10:21:41
Ich hatte mal eine 4870X2. Aufgrund von unsauberen Frametimes waren die Vorteile von den hohen FPS leider nicht gegeben. Und laut war das Ding -.-

greeny
2019-04-07, 11:55:25
Link zur Umfrage:
https://www.3dcenter.org/umfrage/weit-verbreitet-ist-multi-gpu-im-jahr-2019-noch
Hm, fehlt da nicht ein "Wie" vorne dran? @Überschrift/Link

drunken-n00b
2019-04-07, 14:50:22
Der Moment, wenn dir dein V2-Sli und das Rage Maxx System wieder einfällt, nachdem du selbstbewusst „nie genutzt“ ausgewählt hast....

Exxtreme
2019-04-07, 15:44:34
Hatte ich noch nie da die Nachteile viel zu heftig sind. Da kaufe ich lieber eine Grafiklösung mit einer GPU, dafür zwei Nummern größer.

Blutmaul
2019-04-07, 15:53:58
Hat mit Voodoo2-SLI sehr viel Freude gemacht.

Danach nicht mehr...

PacmanX100
2019-04-07, 17:33:36
Weit verbreitet vermutlich nie aber... gut fand ich das es oft weitere Optionen gab wie bei AMD wo man im Treiber höhere Stufen festlegen konnte (AA).
Die Argumente der Gegner haben mich nie abgehalten, fand es sogar recht sinnvoll. Wer z.B. eine 290X hatte konnte später einfach eine 390X dazu kaufen und hatte mehr performance so im schnitt 60 bis 85%. Einziges Problem was AMD jeher hatte der Treiber war teils instabil.

Bei den derzeitigen Horrorpreisen würd es sich fast schon wieder lohnen, denn ich sehe keine 80% performanceplus nur durch 200€ Mehreinsatz aber dafür sind die meisten Mainboards dann wieder ungeeignet und der Support zurückgefahren. ;)

iamthebear
2019-04-07, 17:58:43
Ich habe damals eine GTX 295 gekauft um 400 Euro ca. 2 Wochen nach Release. Das war damals 2 GTX 295 mit etwas niedrigerem Takt auf einer Karte.

Heute kostet das Single GPU Topmodell schon 1200 Euro. Da macht das Ganze überhaupt keinen Sinn mehr.

Generell war Multi GPU immer nur eine Krüppellösung, da man mit Mikrorucklern und schlechter Skalierung zu kämpfen hatte und alle Daten doppelt im RAM gehalten werden mussten. Da ist es wesentlich sinnvoller gleich einen großen Chip wie bei der RTX 2080 Ti aufzulegen mit breiterem Speicherinterface.

Ja klar Nvidia könnte nun Arbeit rein stecken um 2 RTX 2080 Ti mit NVLink zu koppeln inkl. Arbeit der Spieleentwickler damit das einigermaßen skaliert. Die Frage ist nur wozu? AMD ist sowieso was das Highend Modell angeht klar geschlagen als bringt es imagemäßig nichts und wieviele Leute würden es sich wirklich kaufen nur damit sie den Raytracing Modus auf Ultra hochschrauben können.

Leonidas
2019-04-08, 04:52:53
Hm, fehlt da nicht ein "Wie" vorne dran? @Überschrift/Link


Tatsächlich .... verdammt.
PS: Gefixt.

genervt
2019-04-08, 08:22:31
Voodoo 2 SLI Jahre später als das Doppel erschwinglich war und sogar für Ultima 9 einmal im Produktiveinsatz gehabt. Ansonsten gemieden wie der Teufel das Weihwasser

Dunkeltier
2019-04-08, 08:32:18
Hatte diesbezüglich schon alles im Einsatz. Von 3dfx über nVidia bis hin zu ATI. Sowohl mit mehreren Grafikarten als auch mehreren GPUs auf einer Platine. Zuletzt zwei Geforce GTX 480.

wolik
2019-04-08, 09:12:08
Was spricht für mGPU:
1. Grafikleistung Heute vom Morgen (5 Jahren, in Quad Lösung wäre 10Jahren).
2. Keine verbietet einzelne Grafikkarte zu nutzen. (SLI einfach deaktivieren).
3. Crysis, Division 1, GTA 5, Witcher 3 nur weniger zu nennen hätten nicht so fantastisch ausgesehen ohne mGPU (ich weiß das jetzt ACO und Division 2 nicht mehr mGPU unterstützen und FC5 sehr schlecht... Aber Star Citizen schon... Wieso? Grunde sind vielfältig.)

dagegen NUR:

1. Definitiv, Preis. besonders für MB, CPU. 40PCEe Line ist ein MUSS (oder NVLink).
2. Stromkosten.

Man soll sich eine Frage stellen, wo wären wir ohne mCPU? Core Duo war Durchbruch. So änlich wird mit GPU passieren/passieren müssen. Ohne mGPU wird nicht (bald) Möglich 8K/120FPS, UHD VR, RT, ect.
Timeframes: SLI braucht zwingend konstante FPS. Egal ob 60,50 oder 30. Mit Vsync.

Mega-Zord
2019-04-08, 15:54:26
Ich habe außerhalb von Testszenarien nie mehr als eine GPU benutzt. Es gab damals neue 7950 GX2 zum Spottpreis (179 EUR bei Alternate). Die habe ich mal kurz eingebaut und dann wieder meine 8800 GTS 640 MB eingebaut.
In meiner Sammlung (http://galerie.lanhost.de/v/User/mettlock/grakas/) habe ich diverse Dual-GPU-Karten, die alle mal getestet wurden. Aktuell habe ich eine Vintage-System mit einer 9800 GX2, aber da kommen jetzt zwei 8800 GTX rein. Ein V2-SLI hatte ich selbstverständlich auch schon in Betrieb mit selbst gebasteltem Kabel natürlich :D

Benutzername
2019-04-08, 16:00:30
Hi@All, ich hatte das vor 20Jahren Voodoo2 SLI. >Danach war es nur Geld zum Fenster raus werfen.

Gruß

+1

geht mir genauso.


Ich hatte mal hart einen Blick auf die Voodoo 5 geworfen, aber das zählt nicht so richtig als multi-gpu oder? :uponder:

Danach fragte Ich mich wozu das ganze Geld raushauen, wenn die Spiele auch so laufen. Und es fiel sowieso in eine Zeit in der Ich sowieso keine Zeit für sowas hatte. Studium und nebenher arbeiten. Also an mir zog das größtenteils vorbei.

MiamiNice
2019-04-08, 16:05:50
Ich fand MGPU schon immer suboptimal da man mit zwei Geräten eins befeuert. Ich sehe MGPU bei VR da man für jedes Display eine GPU hat. Sprich eher nicht die Möglichkeit geschaffen wird das ich VR mit 2 GPUs nutzen kann halte ich MGPU so überflüssig wie einen Kropf in den heimischen Gefilden.

bschicht86
2019-04-08, 18:35:35
Ich hab mir mGPU eingebaut, kurz (oder lange) nachdem es möglich wurde. Angefangen mit 2x HD2900 XTX, dann 2x HD4850, in einem anderen Rechner 2x HD4870 und in einem dritten Rechner dann 2x HD4870x2.

Bis vor kurzem war es noch ein Doppelgespann aus 2x HD7970, die ich aber kaum in CF genutzt habe. Für meinen neuen Rechner liegen dennoch 2x Vega64 bereit.

Jetzt fragt man sich berechtigt "Was soll das", aber ich finde, in einer Enthausiastenkiste sieht es irgendwie langweilig aus, wenn sie leer ist. :D

iamthebear
2019-04-08, 20:33:57
Was spricht für mGPU:
1. Grafikleistung Heute vom Morgen (5 Jahren, in Quad Lösung wäre 10Jahren).
2. Keine verbietet einzelne Grafikkarte zu nutzen. (SLI einfach deaktivieren).
3. Crysis, Division 1, GTA 5, Witcher 3 nur weniger zu nennen hätten nicht so fantastisch ausgesehen ohne mGPU (ich weiß das jetzt ACO und Division 2 nicht mehr mGPU unterstützen und FC5 sehr schlecht... Aber Star Citizen schon... Wieso? Grunde sind vielfältig.)

dagegen NUR:

1. Definitiv, Preis. besonders für MB, CPU. 40PCEe Line ist ein MUSS (oder NVLink).
2. Stromkosten.

Man soll sich eine Frage stellen, wo wären wir ohne mCPU? Core Duo war Durchbruch. So änlich wird mit GPU passieren/passieren müssen. Ohne mGPU wird nicht (bald) Möglich 8K/120FPS, UHD VR, RT, ect.
Timeframes: SLI braucht zwingend konstante FPS. Egal ob 60,50 oder 30. Mit Vsync.

1.) Ja man hat heute mehr FPS aber die Effekte von morgen wird man in heutigen Spielen nicht sehen. Und bei den Spielen von morgen wird man auch nicht volle Effekte aktivieren können, da der VRAM fehlt, da sich dieser leider nicht verdoppelt, da alles doppelt im RAM gehalten werden muss.
2.) Klar kann man die GPU einzeln nutzen. Die Frage ist nur warum hole ixh mir da eine 2. Grafikkarte.
3.) Man darf die Karten von damals nicht mit heite vergleichen. Es macht einen Unterschied ob das Single GPU Topmodell um 300 Euro oder um 1200 Euro zu haben ist.

Was dagegen spricht:
1.) Es funktioniert derzeit sowieso nicht mehr sinnvoll. NVLink ist für wissenschaftliche Berechnungen und nicht für Spiele.
2.) Der Preis ist das Argument. Es macht nur Sinn mit 2 RTX 2080 Ti und die kosten schon 1200 Euro. Eine davon kommt mit aktuellen Spielen in 4K locker klar und wer das Budget für 2 Karten um je 1200 Euro hat, der holt sich sowieso bei der nächsten Generation wieder das Neuste.
3.) Das Problem, dass man 2 GPUs, die Bilder unabhängig voneinander berechnen nicht ordentlich synchronisiert bekommt Stichwort Mikroruckler. Man bekommt 2 fast idente Bilder und jedes 2. Bild hat wieder einen Mikrolag.
4.) Wie schon erwähnt muss alles doppelt im Speicher gehalten werden, da selbst NVLink viel zu langsam ist als dass eine GPU sinnvoll auf den Speicher der anderen zugreifen könnte.

Und der Vergleich mit der CPU hinkt gewaltig. Jeder Shader (von denen es einige 1000 gibt) kann bei einer GPU wie ein Kern angesehen werden. Wenn dann musst du es mit 2 PCs vergleichen, die unabhängig voneinander ihre Aufgaben verrichten und nur über LAN kommunizieren. Selbst ein Multi Socket System hat performanten Zugriff auf einen gemeinsamen Speicher.

Was die ganzen Voodoo Nutzer angeht: Das kann man auch schwer vergleichen. Zu der damaligen Zeit war noch alles pixelbasierend und man hat einfach das Bild in 2 Teile teilen können und jede Karte berechnet eine Hälfte. Da hat das Ganze ja noch viel mehr Sinn ergeben.

bleikrone
2019-04-11, 08:21:21
Ich hatte nie Multi-GPU genutzt, allerdings vor etwas über einem Jahr überlegt, es einzusetzen. Doch die vielen Probleme und Inkompatibilitäten haben mich davon abgehalten. Würde Multi-GPU halbwegs problemlos und mehr als +60% bringen, wäre ich sofort bereit, es einzusetzen.

lg Ben

Bin ich der selben Meinung. Wenn es sich lohnt wäre ich bereit zu kaufen.

pixeljetstream
2019-04-11, 09:20:27
iamthebear, ich gebe Dir Recht dass es sich oft nicht lohnt. Aber NVlink wird sehr wohl für Grafik genutzt (VR, raytracing), nur liegt es halt stark an der Anwendung. Auch die Sache mit den Micro rucklern ist kein Problem der Technik, sondern der Verfahren (insbesondere der automatischen). Wenn man darauf hindesignt ist es machbar.
Nur ist der Markt bei Gaming zu klein, daher sieht man imo diese Art der Spezialisierung eben eher im Pro Bereich.

Demirug
2019-04-11, 12:46:30
Auch die Sache mit den Micro rucklern ist kein Problem der Technik, sondern der Verfahren (insbesondere der automatischen).

Da möchte ich etwas wiedersprechen. Ich bin nach wie vor davon überzeugt das man beim AFR mit ein paar zusätzlichen Schaltkreisen in den GPUs die Microruckler wegbekommen kann. Ich hatte damals hier irgendwo das Verfahren dafür beschrieben. Da es aber unter Umständen etwas die FPS im vergleich zum normalen AFR reduzieren könnte ging ich ebenso immer davon aus das es nicht unbedingt im Interesse der IHV ist so etwas einzubauen.

Exxtreme
2019-04-11, 14:14:21
Da möchte ich etwas wiedersprechen. Ich bin nach wie vor davon überzeugt das man beim AFR mit ein paar zusätzlichen Schaltkreisen in den GPUs die Microruckler wegbekommen kann. Ich hatte damals hier irgendwo das Verfahren dafür beschrieben. Da es aber unter Umständen etwas die FPS im vergleich zum normalen AFR reduzieren könnte ging ich ebenso immer davon aus das es nicht unbedingt im Interesse der IHV ist so etwas einzubauen.
Ich glaube, ganz wegbekommen kann man die Microruckler nicht. Man könnte es aber wohl mit extrapolierten Wartezeiten evtl. gut abmildern.

Demirug
2019-04-12, 10:48:40
Ich glaube, ganz wegbekommen kann man die Microruckler nicht. Man könnte es aber wohl mit extrapolierten Wartezeiten evtl. gut abmildern.

Man sollte sie auf das gleiche Level wie bei einer einzelnen GPU bekommen. Ohne VSync kann es dort ja auch passieren wen die Auslastung von Frame zu Frame schwankt.

Mr.Smith
2019-08-30, 14:30:34
Was fehlt ist eine einfache Umsetzung, mit wenig Aufwand für die Spiele Entwickler.
Es macht ja durchaus Sinn als Grafikkartenhersteller 2 GPU's pro User absetzen zu können.
Bei 1200€ für die beste Karte ist dies jedoch schon eine Karte schwierig.

Sofern Spiele mit so viel Leistung sinnvoll umgehen können, ergibt sich noch das Problem. Es muss auch für alle anderen noch gut spielbar sein.

Man müsste wohl viel tiefer ansetzen um die bestehenden Probleme sinnvoll angehen zu können, daher ist es nicht sehr wahrscheinlich.

Platos
2019-08-30, 15:46:17
Das Problem war doch schon immer die geringe Verbreitung von SLI und Crossifre. Solange Spieleentwickler da was selbst optimieren müssen und man es nicht hinkriegt, dass die beiden GPUs nicht einfach als eine GPU erkannt wird, bringt das alles gar nichts. Nur ist die Verbreitung zu gering, so dass nvidia da Ressourcen rein steckt.

Das wird also solange keine Relevanz spielen, wie es nicht absout nötig wird.

Und das Problem war doch sowieso nie, dass man bei den FPS nicht +80% oder mehr bekommen hat, sondern dass die Frametimes z.T sogar noch schlechter sind, als ohne SLI und somit bezahlt man für weniger mehr. Oder dann sind die Frametimesgewinne einfahc extrem niedrig. FPS bedeutet gar nichts, man müsste schon 1% oder 0,1% anschauen.

Gast
2019-08-30, 17:11:01
Temporärer SLI-Nutzer in der Vergangenheit.

Ich hatte mal aus Verlegenheit 2 980GTX herumliegen und im SLI betrieben, aber niemals bewusst in ein Multi-GPU-System investiert.

Angesichts dessen, dass man heute 750mm² GPUs mit 300W TDP bekommt, besteht aber keine Notwendigkeit mehr.

Im Verhältnis zu den ersten Multi-GPU-Lösungen (abseits von 3DFX SLI) die mit etwa 150W für 2 GPUs ausgekommen sind, ist Multi-GPU heutzutage wirklich nicht mehr notwendig.

Gast Ritis
2019-08-30, 18:03:45
SLI und Crossfire sind vom Ansatz her Alternate Frame Renderer bzw. AFR-Methoden.

Das mGPU in DirectX12 und Vulkan ist auf der Thread-Ebene möglich. Man kann je nach Leistung der vorhandenen GPUs Jobs verteilen. Gerade wenn das Jobs sind die nicht in den Rasterizer Backend gehen.

Sobald das einmal in Konsolen in Hardware eingebaut wird könnte es sich durchsetzen.

Für die DualGPU Lösungen bei Laptops strecken sich die Programmierer wohl kaum, das Power/Abwärme Target bremst jeden Zugewinn.

Bei Desktop iGPU mit dGPU kann es aber heute schon Sinn machen.

Vielleicht kommt da noch was mit PCIe4 oder PCIe5. Ein guter Anfang wäre wenn die Physik Beschleunigung und Audio Convolution via den beiden APIs dort ausgelagert würde. Vulkan wird ja OpenCL können.

Es hängt wie so oft an den Engine-Entwicklern das im Low Level Code schon zu implementieren und nicht stur auf eine GPU hin die ganze Engine auszurichten nur weil der ganze alte Code mit geschleppt werden soll und die Engine von der Armanduhr bis zum Desktop laufen soll.

Oxide Games - Dan Baker - die sind da Vorreiter.

Aber die meisten Entwickler ziehen sich bequem auf die Position zurück dass es ja doch jedes Jahr wieder schnellere GPUs gibt.

Gast
2019-08-30, 22:32:27
Das mGPU in DirectX12 und Vulkan ist auf der Thread-Ebene möglich. Man kann je nach Leistung der vorhandenen GPUs Jobs verteilen. Gerade wenn das Jobs sind die nicht in den Rasterizer Backend gehen.


Nur musst du trotzdem was die eine Karte berechnet irgendwie auf die andere bekommen, und nur weil das jetzt die Anwendung selbst machen kann und nicht der Treiber ist das immer noch teuer und ineffizient.

Das einzige was mit den heutigen Engines halbwegs sinnvoll ist, ist AFR, und auch die bisherigen DX12 Explicite Multi-GPU Implementierungen sind AFR.

Der Vorteil ist "nur" dass der Spieleentwickler die volle Kontrolle darüber hat, und nicht die Treiberentwickler quasi die Spielengine Reverse engieneeren müssen.


Sobald das einmal in Konsolen in Hardware eingebaut wird könnte es sich durchsetzen.

Zu teuer.

DennisO2
2019-08-30, 23:22:40
Damals war es günstiger, gleich die neue Karte zu kaufen, heute, mit den geringen Leistungsfortschritten und großen Preissteigerungen würde sich Crossfire viel mehr lohnen als damals.


2.) Der Preis ist das Argument. Es macht nur Sinn mit 2 RTX 2080 Ti und die kosten schon 1200 Euro. Eine davon kommt mit aktuellen Spielen in 4K locker klar und wer das Budget für 2 Karten um je 1200 Euro hat, der holt sich sowieso bei der nächsten Generation wieder das Neuste.


Das sehe ich anders. Es wäre zwar nicht im Sinne des Kartenherstellers, aber der Kunde käme mit zwei GPUs günstiger weg, wenn er die zweite Karte zum Auslaufpreis oder gar Gebrauchtpreis kauft. Zu dem Zeitpunkt könnte man eine neue Karte für 1000€ kaufen oder seine alte Karte mit einer Zusatzinvesition von vielleicht 400€ auf das neue Niveau bringen.

Gerade heutzutage sehe ich zwei GPUs im Rechner als besonders lohnenswert an. Früher kam die neue Karte grob das Gleiche, bot dafür aber die doppelte Leistung. Da hätte Crossfire schon zu 100% skalieren müssen, damit man keine Abstriche macht.
Momentan ist der Sprung von einer 1080TI auf eine 2080TI ja grob bei nur 30%. Wenn eine zweite 1080TI "nur" mit 60% skalieren würde, hätte man einen Vorteil von 30%.
Will man AMD kaufen, ist es momentan noch deutlicher. Der Sprung Vega64 zu 5700XT sind kaum 15%. Ich würde mir sofort eine zweite Vega64 Nitro+ kaufen, wenn (fast) alle Spiele mit mindesntens 50% skalieren würden.

Gast
2019-08-31, 02:04:37
Wie jetzt? Niemand mit so wirklich spannenden - also asymmetrischen - Combos?

Wer mehr will, als die schnellste Single-GPU bringt, hat auch heute keine Wahl.

Wenn man die gleiche Leistung ohne nennenswerten Aufpreis mit einer Single-GPU bekommt, lohnt sich das nur noch für Upgrades.

Für SLI/XF als Upgrade oder bei Kauf musste man aber vorbereitet sein. Stärkeres NT war im Gegensatz zu dem, was einem so manche Redaktion erzählen wollte, kein Thema. Die Unterschiede zu Single-GPU gleicher Leistung waren unerheblich. Musste man aber sofort bezahlen (oder altes verkaufen inkl. Umbau usw.), selbst wenn 2. GPU erst später kommen sollte.
Jedoch brauchte man passendes Board. Und wenn man nicht auch da Umbau vornehmen wollte, war das ein sofortiger und damit bei Upgradeplan bis dahin unnötiger Kostenfaktor.

Es gab lange zumindest auf dem Papier (preislich) attraktive CF/SLI-Alternativen zu den völlig überteuerten Top-Modellen. Z.B. HD 5770 oder GTX 460. Zitat Mitte 2012: "2x GTX 670 kosten ab 690,- [vs] der 930,- € teuren GTX 690". HD 6850 und später R9 280X als _die_ CF-Karte. Bei der 750Ti hat Nvidia SLI wohl auch deshalb unterbunden.

MasterElwood
2019-08-31, 05:06:25
Momentan ist der Sprung von einer 1080TI auf eine 2080TI ja grob bei nur 30%. Wenn eine zweite 1080TI "nur" mit 60% skalieren würde, hätte man einen Vorteil von 30%.


1. Es sind im Schnitt +40% zwischen 1080TI und 2080TI
2. Du würdest bei einem "alten" SLI System immer auf die neuen Features verzichten die jede neue Graka Generation bringt
3. Du würdest Microruckler haben

MasterElwood
2019-08-31, 05:12:20
Das sehe ich anders. Es wäre zwar nicht im Sinne des Kartenherstellers, aber der Kunde käme mit zwei GPUs günstiger weg, wenn er die zweite Karte zum Auslaufpreis oder gar Gebrauchtpreis kauft. Zu dem Zeitpunkt könnte man eine neue Karte für 1000€ kaufen oder seine alte Karte mit einer Zusatzinvesition von vielleicht 400€ auf das neue Niveau bringen.


Genauso günstig kommst du weg indem du bei jeder neuen GraKa Generation deine alte Karte verkaufst - und schon kostet dir jede neue Karte nur mehr die Hälfte. PLUS: Du hast immer die neuesten Features, keine Microruckler, immer neue Garantie, die Skalierung bei ALLEN Games...

JVC
2019-08-31, 07:47:29
1. Es sind im Schnitt +40% zwischen 1080TI und 2080TI

https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2080-Ti-vs-Nvidia-GTX-1080-Ti/4027vs3918
"Effective Speed +29% , Game FPS +26%"

Meine 1080Ti "out of the Box" ~143% ( https://www.userbenchmark.com/UserRun/8739664 )
Die 2080Ti durchschnittlich ~160% ( https://gpu.userbenchmark.com/ )
Da sind es schon nicht mal mehr 20% ...

Aber natürlich kann man in ausgewählten Spielen/"Tests" auch mehr als +40% zeigen ...

M.f.G. JVC

MasterElwood
2019-08-31, 11:21:49
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2080-Ti-vs-Nvidia-GTX-1080-Ti/4027vs3918
"Effective Speed +29% , Game FPS +26%"

Meine 1080Ti "out of the Box" ~143% ( https://www.userbenchmark.com/UserRun/8739664 )
Die 2080Ti durchschnittlich ~160% ( https://gpu.userbenchmark.com/ )
Da sind es schon nicht mal mehr 20% ...

Aber natürlich kann man in ausgewählten Spielen/"Tests" auch mehr als +40% zeigen ...

M.f.G. JVC

Selbe Seite: "Average User Bench: +42%"

DennisO2
2019-09-01, 14:22:59
Genauso günstig kommst du weg indem du bei jeder neuen GraKa Generation deine alte Karte verkaufst - und schon kostet dir jede neue Karte nur mehr die Hälfte. PLUS: Du hast immer die neuesten Features, keine Microruckler, immer neue Garantie, die Skalierung bei ALLEN Games...
Kommt auf den Gebrauchtpreis an. Wenn die Preise stark fallen, dann eher nicht. Dass ist mit dem Verkauf der alten Karte nicht viel zu holen, aber eine gleichwertige kostet auch nicht mal die Hälfte der Neuen.

Wenn die Pleise eher hoch bleiben, hast du Recht, dann muss man nur wenig auf die alte Karte drauflegen.

Gast
2019-09-01, 20:13:49
Angesichts dessen, wie Erstkäufer den Footern nach ihre Hardware maltretieren, kann man nur äußerst dringend von Gebrauchtkauf abraten. Aber: ebay - jeden Tag steht ein Dummer auf.