PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nachfolger GTX295?


Gast
2010-02-03, 14:14:28
Hallo, was wird der Nachfolger der GTX295 und wann ist mit dessen Erscheinen zu rechnen?

mapel110
2010-02-03, 14:21:03
Wenn nvidia beim alten Namensschema bleibt, heißt die Karte dann GTX 495 und soll im April/Mai bereits erscheinen.

AnarchX
2010-02-03, 14:22:17
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170
Als High-End-Nachfolger bei Nvidia erstmal die GTX 480 und dann ein wenig später wohl auch ein Dual-GPU-Nachfolger (GTX 490/495?).

Gast
2010-02-03, 15:36:40
Ich hoffe nur, dass man weiter gegen Microruckeln vorgeht, nur dann mache ich mir nochmal eine Dual-Grafikkarte in den Rechner.

kmf
2010-02-03, 17:36:28
Ich hoffe nur, dass man weiter gegen Microruckeln vorgeht, nur dann mache ich mir nochmal eine Dual-Grafikkarte in den Rechner.Da wird viel zu viel Wind drum gemacht. Ein aktuelles SLi-Sys ist relativ wenig von Mikroruckeln betroffen. Nvidia hat das derzeit mit aktuellen Treibern schon recht gut im Griff. Außerdem kann man immer noch die Auflösung etwas zurücknehmen, damit man wieder etwas mehr Polster hat.

Boah, wenn Raff das liest ... :devil:

Gast
2010-02-03, 18:18:46
Da wird viel zu viel Wind drum gemacht. Ein aktuelles SLi-Sys ist relativ wenig von Mikroruckeln betroffen. Nvidia hat das derzeit mit aktuellen Treibern schon recht gut im Griff. Außerdem kann man immer noch die Auflösung etwas zurücknehmen, damit man wieder etwas mehr Polster hat.

Boah, wenn Raff das liest ... :devil:

Wenn man beste Qualität will, dann ist man auf auf die Auflösung vom Monitor festgenagelt und wenn der 1920x1200 macht dann braucht man viel Power eines SLI-Systems ohne Ruckeln. Ich hoffe ein Fermi SLI lässt Crysis in 1920x1200 8xAA in very high ruckelfray :-)

Matrix316
2010-02-03, 19:59:59
Wenn nvidia beim alten Namensschema bleibt, heißt die Karte dann GTX 495 und soll im April/Mai bereits erscheinen.
Wieso eigentlich 495 und nicht 395?

AnarchX
2010-02-03, 20:34:41
Wieso eigentlich 495 und nicht 395?
Fun Fact of the Week: GeForce GTX 480 and GeForce GTX 470 will be the names of the first two GPUs shipped based on our new GF100 chip!
http://twitter.com/NVIDIAGeForce/status/8523402386

Raff
2010-02-03, 20:41:15
Da wird viel zu viel Wind drum gemacht. Ein aktuelles SLi-Sys ist relativ wenig von Mikroruckeln betroffen. Nvidia hat das derzeit mit aktuellen Treibern schon recht gut im Griff. Außerdem kann man immer noch die Auflösung etwas zurücknehmen, damit man wieder etwas mehr Polster hat.

Boah, wenn Raff das liest ... :devil:

Raff las und sagt: Wenn man ein größeres "Polster" braucht, um eine MGPU-Karte gescheit zu nutzen, sollte man keine MGPU-Karte einbauen. Das Mikroruckeln mag in einigen Titeln (die populären) halbwegs eingedämmt sein, aber die Eingabeverzögerung bei MGPU bleibt. Immer. Prinzipbedingt.

MfG,
Raff

aths
2010-02-03, 20:57:42
Da wird viel zu viel Wind drum gemacht. Ein aktuelles SLi-Sys ist relativ wenig von Mikroruckeln betroffen. Nvidia hat das derzeit mit aktuellen Treibern schon recht gut im Griff. Außerdem kann man immer noch die Auflösung etwas zurücknehmen, damit man wieder etwas mehr Polster hat.

Boah, wenn Raff das liest ... :devil:Oder wenn aths das liest :nono: Erstes athssches SLI-Theorem: Wenn man die Frameraten mit SLI/Crossfire auf einem Niveau hat dass Mikroruckeln nicht auffällt, benötigt man ohnehin kein SLI oder Crossfire *1. Zweites Theorem: Was SLI an Extra-Performance rausholt, frisst die verzögerte Reaktion auf die Eingabe wieder auf *2.


*1 SLI bringt im Durchschnitt etwa +70% Framerate. Die "effektive" FPS-Steigerung, abgeschwächt durch Mikroruckeln, schätze ich auf 50% wenn man Glück hat, 30% wenn man Pech hat. Wie ich zu den Zahlen komme ist etwas esoterisch, wenn jemand Messreihen hat werte ich die sehr gerne statistisch aus. Jedenfalls bringt der Ruckeleffekt auch Nachteile. Gleichmäßige 15 fps sind angenehmer als 10-20 fps mit Schwankungen in Zwei-Frame-Abständen.

*2 Nur einige 3D-Shooter haben auf maximaler Stufe 3D-Anforderungen die übliche Karten aus dem Performance-Segment nicht mehr packen. Gerade beim Shooter ist aber eine schnelle Reaktion auf die Eingabe notwendig.

joe kongo
2010-02-03, 21:15:17
Wenn SLI oder CF so sinnfrei wär
würdens die Firmen ja gar nicht machen.
Ich mein die verkaufen ihre Kunden ja nicht für doof.
:freak:

aths
2010-02-03, 21:17:52
Wenn SLI oder CF so sinnfrei wär
würdens die Firmen ja gar nicht machen.
Ich mein die verkaufen ihre Kunden ja nicht für doof.
:freak:Erstaundlich viele Kunden achten darauf dass ihre Karte im 16x-PCIe-2.0-Modus läuft obwohl das gegenüber 1.1 oder 8x Gen2 keine Vorteile bringt. Noch mehr Kunden kaufen 1600-er oder schnelleren Speicher obwohl sie ein System mit FSB haben und selbst mit FSB-Übertaktung nicht mal 1066-er Speicher ausgenutzt werden könnte.

Im Grafikkartenbereich gibt es Abnehmer für eine 9400 GT mit 2 GiB Speicher.

SLI hat in bestimmten Gebieten seine Berechtigung. 3-way SLI ist bereits grenzwertig, Quad-SLI kompletter Unsinn, trotzdem legen sich Leute das zu. (Quad-SLI ist kein Quad-SLI sondern SLI-SLI. Ineffizient bis zum abwinken.)

Ich will SLI nicht als komplett überflüssig darstellen, es gibt Szenarien da würde ich zu einem SLI-System raten. Dass die Technologie da ist und dank Masseneinsatz nicht mehr so krass teuer, finde ich gut.

Gast
2010-02-03, 21:47:50
Erstaundlich viele Kunden achten darauf dass ihre Karte im 16x-PCIe-2.0-Modus läuft obwohl das gegenüber 1.1 oder 8x Gen2 keine Vorteile bringt. Noch mehr Kunden kaufen 1600-er oder schnelleren Speicher obwohl sie ein System mit FSB haben und selbst mit FSB-Übertaktung nicht mal 1066-er Speicher ausgenutzt werden könnte.

Im Grafikkartenbereich gibt es Abnehmer für eine 9400 GT mit 2 GiB Speicher.

SLI hat in bestimmten Gebieten seine Berechtigung. 3-way SLI ist bereits grenzwertig, Quad-SLI kompletter Unsinn, trotzdem legen sich Leute das zu. (Quad-SLI ist kein Quad-SLI sondern SLI-SLI. Ineffizient bis zum abwinken.)

Ich will SLI nicht als komplett überflüssig darstellen, es gibt Szenarien da würde ich zu einem SLI-System raten. Dass die Technologie da ist und dank Masseneinsatz nicht mehr so krass teuer, finde ich gut.

In einem Punkt muss ich dir widersprechen. Bereits mit quadpumped FSB
@ 400 Mhz sind die Vorzüge von Bandbreitenüberhang seitens des RAM in Form von DDR2-1066 nicht von der Hand zu weisen. Wobei es der 800er zugegebenermaßen natürlich auch tut.

Mit dem Rest hast du recht. Allerdings trifft die Formulierung "nahezu Überflüssig" wohl ziemlich genau auf die Bedeutung von SLI zu.
Im Gamerbereich sowieso - im Profibereich gibt es nur ein paar wenige Einsatzszenarien, in denen SLI sinnvoll sein mag.

aths
2010-02-03, 22:06:55
In einem Punkt muss ich dir widersprechen. Bereits mit quadpumped FSB
@ 400 Mhz sind die Vorzüge von Bandbreitenüberhang seitens des RAM in Form von DDR2-1066 nicht von der Hand zu weisen. Wobei es der 800er zugegebenermaßen natürlich auch tut.Bei 400 MHz – also "1600" FSB benötigt man nur 800-er RAM da er im Dual-Channel-Modus läuft.

Die SLI-Diskussion ist insofern fast für müßig als da sich vor allem Leute SLI-fähige Motherboards kaufen die die Option einfach haben wollen. Rational ist das oft nicht, aber beim Hobby sollte man nicht nach Ratio suchen.

Coda
2010-02-03, 22:18:29
Ich mein die verkaufen ihre Kunden ja nicht für doof.
Mit so einer Aussage wäre ich sehr vorsichtig. Da habe ich schon so manches erlebt, was dagegen spricht.

Gast
2010-02-03, 22:30:21
Aber es ist doch unbestritten so, dass derjenige der eine hohe Auflösung hat
und max. Qualität will, dass der nicht auf max. Frames sondern auf sehr gute
Performance und allerbeste Bildqualität setzt und genau darin liegt doch der
Sinn von MGPU. Wer MGPU nur für mehr Frames kauft macht definitiv was
falsch.

joe kongo
2010-02-03, 22:36:15
Viele Marketinggags sind ja offensichtlich.
Aber bei SLI/CF hätte ich es mir nicht so vorgestellt.
Ich mein da werden Lizenzen gehandelt, Chipsätze ausgelegt, Monster wie die Asus Mars gebaut, 1000Watt Netzteile, usw..

Gast
2010-02-03, 22:46:10
Wer MGPU nur für mehr Frames kauft macht definitiv was
falsch.Genau da liegst du meilenweit daneben. AFR-MGPU macht nur dann Sinn, wenn du genügend mehr Frames erreichst um die zusätzliche Latenz auszugleichen und einen Monitor hast, der die auch darstellen kann, also entweder ne Röhre oder einen der ultraseltenen 120Hz-TFTs (und nicht nur einen zighundertHz-HDTVs, die können maximal 60Hz annehmen und rechnen die nur hoch).
Mit AFR erreichst du keine bessere Spielbarkeit, es sieht nur flüssiger aus.

Coda
2010-02-03, 22:58:38
Mit AFR erreichst du keine bessere Spielbarkeit, es sieht nur flüssiger aus.
Und nichtmal das ist sicher.

RaumKraehe
2010-02-03, 23:29:44
Wenn SLI oder CF so sinnfrei wär
würdens die Firmen ja gar nicht machen.
Ich mein die verkaufen ihre Kunden ja nicht für doof.
:freak:

Pro-biotischer Joghurt ist auch sinn frei und wird wunderbar verkauft.
Also auf eine solche Aussage würde ich mich nicht verlassen.

tombman
2010-02-04, 00:26:13
Ich hab kein Problem mit Quad-SLI ;)

Ratet mal was spielbar ist:
1.) 40fps mit 4-SLI
2.) 15fps mit Single-Gpu

y33H@
2010-02-04, 00:42:19
Bei den µRucklern und dem Input-Lag spiel ich nicht :usad:

tombman
2010-02-04, 00:57:41
Ich hab damit auch schon schnelle shooter gespielt- kein Problem...

Außerdem kann man im multiplayer SLI auch ausschalten- zb bei Quake Live etc...da dreht man eh alles ab, um besser sehen zu können.

Aber wenn man die Listung braucht, Stalker CS, Crysis etc, ist sie da ;)

Gast
2010-02-04, 02:49:40
Ich hab damit auch schon schnelle shooter gespielt- kein Problem...Durchaus möglich, weil ja noch andere Faktoren dazukommen als lediglich die verwendete Grafikhardware. Hat der Monitor Inputlag? Mit wieviel Hz wird er angesteuert? Hat die (Funk-)Maus oder Tastatur welchen? Ist Vsync an? DB oder TB? Und zuguterletzt, aber alles andere als unwichtig: Ist das Spiel so programmiert, dass die Engine relativ latenzfrei arbeitet oder nimmt es Latenz in Kauf, um die Optimierung auf MehrkernCPUs einfacher zu gestalten?

Die effektive Gesamtlatenz ist nicht so einfach und pauschal zu ermitteln wie Frametimes. Auch Quad-AFR kann auf die gleiche Gesamtlatenz kommen wie ein System mit nur einer GPU, aber Monitor und Steuergerätschaften mit Inputlag und TB statt DB. Und ob Mikroruckler nun durch TB oder AFR kommen ist eigentlich auch wurscht. Nur ist all das dem "Boaah-Balken!!1!elf!"-Konsumenten erstens schwer zu vermitteln und zweitens versuchts niemand ernsthaft. Wenn dann alles zusammenkommt, also hochlatente Engine, hinter lahmen Eingabegeräten hinterherhinkender Monitor auf 24Hz, Mikroruckler und Latenz durch Quad-AFR, Mikroruckler und Latenz durch TB, miese Netzwerkanbindung und ein Spiel welches schnelle Reflexe erfordert... Dann kann der Balken noch so lang sein, spielbar wirds dadurch auch nimmer. Nur versuch das mal Otto Normaldau zu erklären, wenn schon versierte Leute es nicht verstehen oder nicht verstehen wollen.

Bevor mich jetzt einer für den Rächer der enterbten AFR-Nutzer hält:
AFR stinkt. Monitore und Eingabegeräte mit Inputlag stinken. TB stinkt. Mikroruckler stinken. Latenz stinkt. Und vor allem: Balken stinken, Latenzermittlung rul0rt! Außer man zockt bevorzugt 3dmark. Dann stinken nur Mikroruckler - wenn es einem denn auch um die schönen Bilder geht und nicht nur um die gottverdammten nichtssagenden zum Himmel stinkenden Balken.[/rant]

Das alles jetzt bitte nicht auf dich beziehen tombman, die Aussage war nur der ideale Startpunkt für den kleinen Roundhousekick ;)

Ailuros
2010-02-04, 06:01:52
Das Thema ist ja eigentlich der 295 Nachfolger und nicht ob SLi bzw. AFR stinken.

Es soll im April kommen nur hab ich immer noch nicht kapiert wie man so etwas meistert mit einem chip der in etwa so viel Strom braucht wie eine GTX280. IMHO waere es logischer wenn NV zumindest auf einen vollen re spin wartet, aber ich kann es momentan nicht wissen.

Multi-chip/GPU kostet die IHVs relativ wenig im Gegensatz zum Verbraucher wo es ihn im Vergleich zu single chip/GPU um einiges mehr kostet. Nichtdestominder aber jedem das seine. Ich weiss warum mir persoenlich solche configs nicht zustehen.

Gast
2010-02-04, 08:46:42
Oder wenn aths das liest :nono: Erstes athssches SLI-Theorem: Wenn man die Frameraten mit SLI/Crossfire auf einem Niveau hat dass Mikroruckeln nicht auffällt, benötigt man ohnehin kein SLI oder Crossfire *1. Zweites Theorem: Was SLI an Extra-Performance rausholt, frisst die verzögerte Reaktion auf die Eingabe wieder auf *2.


*1 SLI bringt im Durchschnitt etwa +70% Framerate. Die "effektive" FPS-Steigerung, abgeschwächt durch Mikroruckeln, schätze ich auf 50% wenn man Glück hat, 30% wenn man Pech hat. Wie ich zu den Zahlen komme ist etwas esoterisch, wenn jemand Messreihen hat werte ich die sehr gerne statistisch aus. Jedenfalls bringt der Ruckeleffekt auch Nachteile. Gleichmäßige 15 fps sind angenehmer als 10-20 fps mit Schwankungen in Zwei-Frame-Abständen.

*2 Nur einige 3D-Shooter haben auf maximaler Stufe 3D-Anforderungen die übliche Karten aus dem Performance-Segment nicht mehr packen. Gerade beim Shooter ist aber eine schnelle Reaktion auf die Eingabe notwendig.


Danke, diesen Post habe ich mir gebookmarkt, besser kann mans nich erklaeren!

Gast
2010-02-04, 20:39:01
Das Thema ist ja eigentlich der 295 Nachfolger und nicht ob SLi bzw. AFR stinken.Eben wegen AFR kommt bei DoppelGPU-Karten aber immer wieder die gleiche Grundsatzdiskussion hoch. Daher der kleine Roundhousekick, der sowohl den Befürworten als auch der Gegenseite kräftig in die Cerealien uriniert. Weder SLI noch CF sind der heilige Gral, weder SLI noch CF sind global sinnlos. Kommt immer drauf an, warum man MGPU für was will, und die Frage lässt sich nicht so leicht pauschal anhand von Balken und Frametimes beantworten.
Eine ganz andere Sache wäre es natürlich, wenn die "GTX495" endlich mal eins von NVs interessanteren Patenten umsetzen würde, nämlich die Zweckentfremdung eines Teils der Speicherinterfaces zur Kommunikation der Chips auf einer Karte. Damit wäre dann effizientes SFR drin und das wäre gleich ein ganz anderes Kaliber als der bisherige AFR-Mist. Sagen wir mal 256bit für den Speicher, die restlichen 128bit zur Kommunikation der beiden GPUs. Ich glaube nicht wirklich daran, aber die Hoffnung stirbt bekanntlich zuletzt...

Gast
2010-02-04, 21:36:26
Eine ganz andere Sache wäre es natürlich, wenn die "GTX495" endlich mal eins von NVs interessanteren Patenten umsetzen würde, nämlich die Zweckentfremdung eines Teils der Speicherinterfaces zur Kommunikation der Chips auf einer Karte. Damit wäre dann effizientes SFR drin und das wäre gleich ein ganz anderes Kaliber als der bisherige AFR-Mist. Sagen wir mal 256bit für den Speicher, die restlichen 128bit zur Kommunikation der beiden GPUs. Ich glaube nicht wirklich daran, aber die Hoffnung stirbt bekanntlich zuletzt...Nachtrag:
Das (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=474623) war gemeint.

Grestorn
2010-02-05, 08:27:26
Oder wenn aths das liest :nono: Erstes athssches SLI-Theorem: Wenn man die Frameraten mit SLI/Crossfire auf einem Niveau hat dass Mikroruckeln nicht auffällt, benötigt man ohnehin kein SLI oder Crossfire *1. Zweites Theorem: Was SLI an Extra-Performance rausholt, frisst die verzögerte Reaktion auf die Eingabe wieder auf *2.

Ich sehe das komplett anders.

Beispiel Mass Effect 2: Mit 8xSQ in 1920x1200 ohne SLI nicht gut spielbar (um die 20 fps, fühlt sich unrund und sluggish an).

Mit SLI meist mehr als 30fps, recht gut spielbar, bei weitem nicht mehr so unrund.

Das gilt nicht für jedes Spiel in jeder Konstellation. Bei Batman habe ich SLI z.B. ausgeschaltet. Aber man sollte sich einfach wirklich von Pauschalurteilen hüten.

Leute, bitte lasst Eure Wertungen zu SLI, wenn ihr selbst kaum eigene Erfahrungen damit habt. Und wenn es sich dann auch noch so pseudo-wissenschaftlich klingt ("athssches Theorem"), dann krieg ich echt Pickel.

Grestorn
2010-02-05, 08:28:44
Danke, diesen Post habe ich mir gebookmarkt, besser kann mans nich erklaeren!

Seufz. Wie kann man nur die Aussage von jemanden ernst nehmen, der das Thema größtenteils theoretisch kennt und bestenfalls vereinzelte praktische Erfahrungen hat?

y33H@
2010-02-05, 09:15:11
ME2 ist UE3, ist ist mit aktuellem 3-Way-SLI ganz gut "entµRuckelt". Und ja, 20 Fps sind für UE3 eklig, über 30 müssens schon sein. B2T ;)

Ailuros
2010-02-05, 10:26:16
Eben wegen AFR kommt bei DoppelGPU-Karten aber immer wieder die gleiche Grundsatzdiskussion hoch. Daher der kleine Roundhousekick, der sowohl den Befürworten als auch der Gegenseite kräftig in die Cerealien uriniert. Weder SLI noch CF sind der heilige Gral, weder SLI noch CF sind global sinnlos. Kommt immer drauf an, warum man MGPU für was will, und die Frage lässt sich nicht so leicht pauschal anhand von Balken und Frametimes beantworten.

Nur leider wird fast dasselbe immer und immer wieder diskuttiert, deshalb sag ich jedem das seinige. Mir persoenlich stehen solche configs noch nicht zu, was aber das Thema auch nicht interessiert und auch nicht eine moegliche technische Debatte uber multi-GPU.

Eine ganz andere Sache wäre es natürlich, wenn die "GTX495" endlich mal eins von NVs interessanteren Patenten umsetzen würde, nämlich die Zweckentfremdung eines Teils der Speicherinterfaces zur Kommunikation der Chips auf einer Karte. Damit wäre dann effizientes SFR drin und das wäre gleich ein ganz anderes Kaliber als der bisherige AFR-Mist. Sagen wir mal 256bit für den Speicher, die restlichen 128bit zur Kommunikation der beiden GPUs. Ich glaube nicht wirklich daran, aber die Hoffnung stirbt bekanntlich zuletzt...

Beim Patentlesen bekomm ich stets einen netten Kopfschmerz und verstehe leider am Ende nur die Haelfte davon (oder weniger). In solch einem Fall wenn sich niemand hinsetzt und mir einiges verdammt vereinfacht erklaert hab ich es auch verdammt schwer zu halbwegs logischen Schlussfolgerungen zu kommen.

Unter diesen Vorraussetzungen jetzt lese ich ueber eine alternative Methode auf SFR basierend die im Vergleich zum heutigen AFR zwischen 35 und 50% mehr Leistung bringen soll. Hab ich jetzt ergo auf einer single core GPU 50fps durchschnittlich und ich bekomme mit zwei GPUs unter AFR 80fps, soll diese Methode auf bis zu 95fps skalieren was einer 90% Skalierung entspricht. Entschuldige aber irgendwie klingt es auch too good to be true fuer mich.

Erstens soweit ich die Methode verstanden habe ist ploetzlich parameter/state bandwidth kein besonderes Problem, was aber NV's jahrelanges Argument gegen tile based deferred renderrers widerspricht. Zweitens klingt mir die ganze Bearbeitung bzw. Verteilung fuer Geometrie relativ primitiv um bis zu 90% Skalierung in Leistung erreichen zu koennen.

http://v3.espacenet.com/publicationDetails/description?CC=WO&NR=2009068895A1&KC=A1&FT=D&date=20090604&DB=EPODOC&locale=en_EP

http://v3.espacenet.com/publicationDetails/biblio?DB=EPODOC&adjacent=true&locale=en_EP&FT=D&date=20090604&CC=WO&NR=2009068893A1&KC=A1

Wann ein Patent eingereicht wurde hat erstmal wenig damit zu tun in welcher Produktgeneration die jeweilige Implementierung erscheint. Nur so nebenbei fuer den anderen Thread ueber das multi-GPU Patent von NVIDIA.

Die obrigen zwei Patente beschreiben wie das load balancing auf multi-core TBDR innerhalb eines SoC genau vorlaeuft stets auf SFR basierend. Da es sich hier aber um hw scheduler pro core handelt, die Daten zuerst auf jeweilige cores verteilt werden und dann erst auf pipeline level verteilt und das Ganze auf unter der Vorraussetzung dass man stets zumindest Daten eines naechsten Frame hat (dank Verzoegerung) ist IMG's Angabe fuer fast lineare Skalierung (>95%) erstmal glaubhafter. Noch dazu dass es in diesem Fall keine feste macro tile Groesse gibt, sondern diese je nach workload angesetzt wird.

Das stets alles im Bereich der Theorie, denn fuer beide Methoden oben gibt es noch nichts reales um es in Echtzeit zu untersuchen. Auf jeden Fall scheint mir das NV Patent auch nicht als Allheitsmittel; Geometrie einfach so auf einem IMR zwischenzuspeichern klingt mir was Speicher- und Bandbreiten-Verbrauch betrifft zu umstaendlich ohne jegliche zusaetzliche Aenderungen.

aths
2010-02-05, 14:08:28
Seufz. Wie kann man nur die Aussage von jemanden ernst nehmen, der das Thema größtenteils theoretisch kennt und bestenfalls vereinzelte praktische Erfahrungen hat?Seufz. Wie kann man nur die Aussage von jemanden ernst nehmen, der das Thema größtenteils praktisch erlebt und bestenfalls vereinzelte theoretische Kenntnisse hat?

Wenn meine GTX 285 kaputtgeht, will ich zum Beispiel keine GTX 295 als Ersatz obwohl mein Netzteil reicht.

Bei SLI spielt der Effekt eine wesentliche Rolle, dass der angezeigten fps-Zahl geglaubt wird. Wie viel flüssiger es wirklich ist, wird von SLI-Usern kaum wahrgenommen. War es nicht Tombman, der einen Stein ins Rollen brachte indem er auf die Problematik ungleichmäßiger Frameverteilungen hinwies? Warum fiel das keinem Gamer in den Jahren zuvor auf? Auch heute stört sich nur ein verschwindend geringer Anteil am Mikroruckeln und Inputlag – obwohl er überall vorhanden ist. Die Leute wissen nicht, wie es wäre wenn die Framerate gleichmäßig verteilt und der Input-Lag wie bei Single-GPU-Rendering wäre. Einen ähnlichen Effekt scheinbarer Leistungssteigerung kann man durch gewisse 3DMark-CheatsOptimierungen erzielen: Die Karte bringt mehr Punkte, der Kunde hält den Treiber für schneller und freut sich.

Übliche DVD-Abspielsoftware auf dem PC stellte lange Schwarz als Grau dar, weil die falsche YPbPr-Umrechnung vorgenommen wird. Erst Jahre später gab es hier im Forum dazu Threads.

Noch heute mischen fast alle Malprogramme Weiß und Schwarz zu Dunkelgrau anstatt zu Mittelgrau. Auch Bildskalierungssoftware macht in der Regel diesen Fehler. Kaum einem fällt das negativ auf.

Insbesondere EA-Spiele fallen durch ultrakomplizierte Spielmenüs auf. Kaum jemand stört sich dran.

SLI bringt nicht nichts, aber deutlich weniger als ein Benchmark oder eine Timedemo vom durchschnittlichen fps-Wert her Glauben machen wollen. Den meisten ist das Latte, Hauptsache sie haben 140 fps obwohl ihr Monitor nur 60 Bilder pro Sekunde anzeigen kann. Was ist mit dem Tearing? Fällt diesen Usern nicht auf. Kthxbye.


Das Thema ist ja eigentlich der 295 Nachfolger und nicht ob SLi bzw. AFR stinken.

Es soll im April kommen nur hab ich immer noch nicht kapiert wie man so etwas meistert mit einem chip der in etwa so viel Strom braucht wie eine GTX280. IMHO waere es logischer wenn NV zumindest auf einen vollen re spin wartet, aber ich kann es momentan nicht wissen.

Multi-chip/GPU kostet die IHVs relativ wenig im Gegensatz zum Verbraucher wo es ihn im Vergleich zu single chip/GPU um einiges mehr kostet. Nichtdestominder aber jedem das seine. Ich weiss warum mir persoenlich solche configs nicht zustehen.Die GTX 280 kam auch mit 8+6 Pin, trotzdem war die GTX 295 möglich. Ich bin mir gar nicht mal so sicher ob Nvidia die Dual-GPU-Version sehr schnell raushauen will oder nicht erst mal an einer möglichst kompletten Produktpalette nach unten hin arbeitet.

Über kurz oder lang dürften bei SLI nicht Bilder oder Bildteile auf die GPUs verteilt werden, sondern Threads. Dann benötigt man wohl nur noch ein Extraframe Latenz zum Zusammensetzen und kann viele GPUs zusammenarbeiten lassen.

Grestorn
2010-02-05, 14:31:11
Seufz. Wie kann man nur die Aussage von jemanden ernst nehmen, der das Thema größtenteils praktisch erlebt und bestenfalls vereinzelte theoretische Kenntnisse hat?

Ich maße mir nicht an über meine theoretischen Kenntnisse in dem Bereich eine Aussage zu machen.

Wenn Du aber jemandem, der praktische Erfahrung mit etwas hat, sämtliches Mitspracherecht über dessen Nutzen absprichst, dann ist das schon außergewöhnlich arrogant. Gratuliere.

aths
2010-02-05, 19:20:38
Das war eine 1:1-Retourkutsche. Ich weiß wie sich zum Beispiel Crysis im SLI spielt.

Grestorn
2010-02-06, 12:19:28
Das war eine 1:1-Retourkutsche. Ich weiß wie sich zum Beispiel Crysis im SLI spielt.

Und Du findest es legitim, von einem Erfahrungswert ausgehend, eine allgemeingültige Aussage ("Theorem") zu treffen?

Crysis ist in der Tat problematisch. Je nach Situation bringt SLI einen Vorteil oder einen Nachteil. Auch die Treiberversion spielt bei Crysis eine große Rolle. Mit aktuelleren Treibern habe ich es schon länger nicht mehr probiert, muss ich zugeben. So ein Crysis-Fan bin ich nicht.

Gast
2010-02-06, 14:28:13
Beim Patentlesen bekomm ich stets einen netten Kopfschmerz und verstehe leider am Ende nur die Haelfte davon (oder weniger). In solch einem Fall wenn sich niemand hinsetzt und mir einiges verdammt vereinfacht erklaert hab ich es auch verdammt schwer zu halbwegs logischen Schlussfolgerungen zu kommen.Willkommen im Club und gepriesen sei Ibuprofen X-D
Unter diesen Vorraussetzungen jetzt lese ich ueber eine alternative Methode auf SFR basierend die im Vergleich zum heutigen AFR zwischen 35 und 50% mehr Leistung bringen soll. Hab ich jetzt ergo auf einer single core GPU 50fps durchschnittlich und ich bekomme mit zwei GPUs unter AFR 80fps, soll diese Methode auf bis zu 95fps skalieren was einer 90% Skalierung entspricht. Entschuldige aber irgendwie klingt es auch too good to be true fuer mich.Nachdem ich mir jetzt mal tatsächlich auch das Patent und nicht nur die Diskussion darüber angetan habe kommt es mir eher so vor, als würde es sich hauptsächlich auf besser skalierendes AFR für Worst-Case-Szenarien beziehen, die bisher kaum oder nur durch aufwendige "Treibermagie" skalieren. Also statt einem bescheidenen Sprung von 50 für die EinzelGPU auf 60 für AFR dann bis zu 90 für verbessertes AFR. Der ganze Tilekram scheint nur ein roter Hering zu sein. *seufz* Wäre ja auch zu schön gewesen :usad:

Nevermore4ever
2010-02-06, 17:02:59
Wenn man von SLI spricht, muss man meiner Meinung nach gerade in Zukunft auch über 3D-Stereo reden, wovon ich zu meiner Überraschung hier noch gar nichts gelesen habe.

Denn im Prinzip kann man da zwei Bilder gleichzeitig rendern, die auch wirklich den gleichen Zeitpunkt des Spielverlaufs darstellen, nur eben um ein paar Grad versetzt. Da sollten Mikroruckler eine noch geringere Rolle spielen (mir ist natürlich der Zeitversatz bei der Shutter-Technik bewusst).

Im Übrigen hat SLI für mich auch weniger einen Sinn als FPS-Booster, sondern als Bildqualitäts-Booster - per SLI-Anti-Aliasing. Dumm nur, dass man diese AA-Modi per nHancer freischalten muss.

Ich denke daher, dass SLI/CF eine große Zukunft bevorsteht - wenn man es für die richtigen Dinge einsetzt, worüber die Treiberprogrammierer auch mal noch ein bisschen nachdenken sollten.

AnarchX
2010-02-06, 17:17:03
Stereo-3D-SLI wäre sicherlich eine vernünftige Verwendung ohne Mikroruckler.
Jedoch verdoppelt sich der Rechenaufwand bei Stereo 3D nicht immer, sodass man hier zwischen AFR-Skalierung, Mikroruckler und Stereo-3D-Skalierung abwägen müsste.

Gast
2010-02-06, 17:20:56
Stellt sich nur die Frage, inwiefern das auch mit DX10 und DX11 harmoniert. Aber klar, eine GPU pro Auge hätte schon was. Müssten nur noch bezahlbare HMDs dazukommen, denn die Syncronisationsprobleme zwischen Shutterbrille und Display (Doppelbilder (nicht nur harmloses Ghosting) im oberen oder unteren Bilddrittel) nerven gewaltig.

Ailuros
2010-02-06, 17:57:45
Nachdem ich mir jetzt mal tatsächlich auch das Patent und nicht nur die Diskussion darüber angetan habe kommt es mir eher so vor, als würde es sich hauptsächlich auf besser skalierendes AFR für Worst-Case-Szenarien beziehen, die bisher kaum oder nur durch aufwendige "Treibermagie" skalieren. Also statt einem bescheidenen Sprung von 50 für die EinzelGPU auf 60 für AFR dann bis zu 90 für verbessertes AFR. Der ganze Tilekram scheint nur ein roter Hering zu sein. *seufz* Wäre ja auch zu schön gewesen :usad:

Es gibt doch zur Auswahl auch einen zweiten AFR modus in den Treibern oder? Kann es sein dass es sich um dieses handelt?

Grestorn?

aths
2010-02-06, 18:06:01
Und Du findest es legitim, von einem Erfahrungswert ausgehend, eine allgemeingültige Aussage ("Theorem") zu treffen?

Crysis ist in der Tat problematisch. Je nach Situation bringt SLI einen Vorteil oder einen Nachteil. Auch die Treiberversion spielt bei Crysis eine große Rolle. Mit aktuelleren Treibern habe ich es schon länger nicht mehr probiert, muss ich zugeben. So ein Crysis-Fan bin ich nicht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7827863#post7827863

Gast
2010-02-06, 18:35:04
Es gibt doch zur Auswahl auch einen zweiten AFR modus in den Treibern oder? Kann es sein dass es sich um dieses handelt?Nö, das Patent beschreibt ja Änderungen an der HW, nicht an der SW. Da die bisherigen DoppelGPU-Karten nicht fixer sind als zwei Karten mit jeweils einer GPU im SLI ist ziemlich sicher, dass das Patent sich nicht auf bereits kaufbare Produkte bezieht.

Was "Treibermagie" und "verbessertes AFR" angeht vermute ich folgendes:
Neben dem normalen AFR für ohne Probleme skalierende SW wird in alternativen AFR-Modi (oder gibts insgesamt nur 2?) einige Arbeit beiden GPUs aufgehalst (also obwohl GPU1 nur für die ungeraden Frames zuständig ist berechnet sie auch einiges, was eigentlich zu den geraden Frames gehört, genauso auch andersrum), da ansonsten die Bandbreite zwischen den GPUs so weit limitiert, dass man schlimmstenfalls unter das Tempo einer einzelnen GPU fällt. Hat man genug Bandbreite zwischen den GPUs kann man sich die doppelte Arbeit sparen und die Skalierung liegt näher am Optimum.

Grestorn
2010-02-06, 20:15:14
Es gibt doch zur Auswahl auch einen zweiten AFR modus in den Treibern oder? Kann es sein dass es sich um dieses handelt?

AFR2 ist nur AFR + eine bestimmte Kombination aus Kompatbilitätsbits, die mal von nVidia so ins CP aufgenommen wurde, weil sie bei recht vielen Spielen ganz gut funktioniert.

Gast
2010-02-06, 21:00:32
Bei 400 MHz – also "1600" FSB benötigt man nur 800-er RAM da er im Dual-Channel-Modus läuft.

Die SLI-Diskussion ist insofern fast für müßig als da sich vor allem Leute SLI-fähige Motherboards kaufen die die Option einfach haben wollen. Rational ist das oft nicht, aber beim Hobby sollte man nicht nach Ratio suchen.

Ich will wirklich keine Haarspalterei betreiben - aber genau das war doch auch meine Aussage. Diverse Test haben jedoch gezeigt, dass in den praktischen Tests eben doch ein Vorteil auf DDR2-1066-Seite gegenüber dem 800er besteht. Ich persönlich würde daher immer den 1066er vorziehen, auch aufgrund der Erfahrungen mit den 4x 2 GB in meinem eigenen System. Hinzu kommt, dass der 1066er auch noch in Zukunft bei den Overclockern recht beliebt bleiben dürfte. Der 800er hingegen nicht.

Ja, die SLI-Diskussion ist müßig. Ich finde es dennoch bedauerlich, dass die Ratio hier nichts zählt. Der Vergleich mit dem "probiotischen Joghurt" ist insofern ziemlich passend. Das jüngste Valve-Hardware-Survey zeigte glücklicherweise, dass SLI nur ein absolutes Randgruppenthema bei Leuten ist, die sich vor allem in Foren wie diesem Tummeln. Den Rest der Gamerwelt juckt SLI glücklicherweise wie der Sack Reis in China.
Ich frage mich jedoch schon seit der 7950 GX2 wann wir "echtes Multi-GPU" (damit meine ich nicht das was Galay gerade mit der GTS 250 macht) wie bei den Prozessoren erleben werden?

Kann mir das vielleicht einer der SLI-Freaks erläutern?
Warum ist von solchen Lösungen bisher noch überhaupt nichts in Sicht?

y33H@
2010-02-06, 23:28:06
Was ist an einer 7950 GX2 "echtes Multi-GPU" und was bei der Galaxy nicht?

Nevermore4ever
2010-02-06, 23:55:18
Vielleicht hat er sie mit der EVGA-Karte verwechselt, wo ein GTX 275 und ein GTS 250 zusammen verbaut werden.

Ich nehme an, es geht um die Frage, warum nicht mehrere Chips sich den selben Speicher teilen können. Das wäre natürlich prima und die Idee geisterte schon vor ein paar Jahren herum - warum man davon derzeit nichts mehr hört, frage ich mich auch.

=Floi=
2010-02-07, 00:26:56
lest mal genau.
er meint mehrere dice auf einem package.

y33H@
2010-02-07, 00:58:11
Ahhh =)

Nevermore4ever
2010-02-07, 01:15:31
Mehrere Dice auf einem Package hätten eben genau den Vorteil, dass sie sich den gleichen Speicher teilen. Oder? Und was bleibt sonst noch für ein Vorteil bei Chips, die ohnehin schon extrem auf Parallelität hin designt sind?

y33H@
2010-02-07, 01:17:28
Du kannst iirc auch zwei GPUs aufs PCB packen und bei den gleichen Speicher ansprechen lassen.

Nevermore4ever
2010-02-07, 01:24:16
Du kannst iirc auch zwei GPUs aufs PCB packen und bei den gleichen Speicher ansprechen lassen.

Echt? Ich bin zwar kein Chip-Guru, aber ich denke, dass das nicht geht - vor allem würde man es bei den Dual-Chip-Karten wie der GTX 295 ja dann doch wohl so machen, was aber nicht der Fall ist.

y33H@
2010-02-07, 02:01:11
Das hängt mit den aktuellen MGPU-Verfahren zusammen, meine ich. Genau kann ich es aber nicht sagen, daher "iirc".

Black-Scorpion
2010-02-07, 11:25:47
Wie willst du 2 GPUs auf eine Speicher zugreifen lassen?
Beide haben einen Speichercontroller und wissen nicht was der andere gerade tut.
Viel Spaß dabei.

Knuddelbearli
2010-02-07, 12:49:00
naja auf einem pcb wären die latenzen schon deutlich schlechter als auf einem package

Gast
2010-02-07, 19:16:17
naja auf einem pcb wären die latenzen schon deutlich schlechter als auf einem package

Dafür sind die thermischen Probleme dann noch größer als Sie eh schon sind.
Ich frage mich sowieso warum die Frage wo was ist und was geteilt wird so wichtig ist.
Wichtig ist wie gerendert wird und ich sehe da im Augenblick nicht mal eine Ansatz der Alternative zu AFR.
Würde es diesen geben, währe mir egal ob man doppelt so viel Speicher verbauen muss oder nicht.
Was soll überhaupt der Vorteil von MCM gegenüber einem Monolithen sein?

Coda
2010-02-07, 20:15:50
Wie willst du 2 GPUs auf eine Speicher zugreifen lassen?
Über einen Interconnect. Bei CPUs funktioniert das ganze auch.

Manche Daten wie Texturen sollte man aber trotzdem kopieren.

svenw
2010-02-08, 10:10:23
Ich glaube, das man das kaum thermisch hinbekommt. Schon 2 Cypress (von Fermi nicht zu reden) würden ja ca 400W verheizen und das auf einer Minifläche. Und dann noch die Spannungsversorgung für 400W über eine Fassung :uexplode:

aths
2010-02-08, 15:24:34
Ich will wirklich keine Haarspalterei betreiben - aber genau das war doch auch meine Aussage. Diverse Test haben jedoch gezeigt, dass in den praktischen Tests eben doch ein Vorteil auf DDR2-1066-Seite gegenüber dem 800er besteht. Ich persönlich würde daher immer den 1066er vorziehen, auch aufgrund der Erfahrungen mit den 4x 2 GB in meinem eigenen System. Hinzu kommt, dass der 1066er auch noch in Zukunft bei den Overclockern recht beliebt bleiben dürfte. Der 800er hingegen nicht.Ich kenne Tests auf einem 790-er wo 2000-er Speicher bis zu 2,9% schneller ist als 1333-er, obwohl bereits 1333-er "überschnell" ist. Wie dieser Effekt zustande kommt kann ich nicht erklären.

Gast
2010-02-08, 18:39:44
Tja, und was kauft man sich dann, wenn mal Crysis in 1920x1200 zocken will und das mit bester Qualität und Performance. Was würdest Du Dir da dann kaufen? Eine übertaktete 285er oder 5870er?

Gast
2010-02-08, 19:08:51
Ich glaube, das man das kaum thermisch hinbekommt. Schon 2 Cypress (von Fermi nicht zu reden) würden ja ca 400W verheizen und das auf einer Minifläche. Und dann noch die Spannungsversorgung für 400W über eine Fassung :uexplode:
Diese Chips leisten nicht von Natur aus soviel.
Erst durch hochprügeln mit ordentlich Spannung wirds heiss.

Man kann z.B. auch mit einem einzelnen G71 eine 300W Karte bauen.

y33H@
2010-02-08, 19:13:20
Tja, und was kauft man sich dann, wenn mal Crysis in 1920x1200 zocken will und das mit bester Qualität und Performance. Was würdest Du Dir da dann kaufenDas ist aktuell nach wie vor unmöglich. Tendenziell eine HD5870 OC.

Gast
2010-02-08, 19:26:59
Das ist aktuell nach wie vor unmöglich. Tendenziell eine HD5870 OC.

Dann also doch Crossfire bzw. SLI :-)))

y33H@
2010-02-08, 19:30:04
Nö, Input-Lag und µRuckler sucken.

mapel110
2010-02-08, 19:32:02
Nö, Input-Lag und µRuckler sucken.
Gibts von PCGH eigentlich einen Artikel, wo drauf eingegangen wird, wo und wann MR auftreten? Konkrete Auflistung von Spielen?

y33H@
2010-02-08, 19:40:31
µRuckler treten AFB-bedingt in praktisch jedem Spiel und die ganze Zeit über auf. Nur wann sie wie stark zu spüren sind, hängt von Engine, Fps, Anzahl an GPUs, Treiber, Bildschirm und restlichem Sys ab. Das zu pauschalisieren und in eine Liste zu packen, mache ich zumindest ungern.

Tendenziell übel sind Source-, X-Ray- und UE3-Titel bei um/unter 60 bis 40 Fps (4 GPUs bei CFX sind etwa fast immer unbrauchbar).

Gast
2010-03-30, 13:44:37
Völlig theroetische Überlegungen zu AFR mit SLI:
Ich hab mit einer Karte 15 fps. Baue ich eine zweite ein, gehe ich jetzt mal (theoretisch) davon aus, dass jetzt 30fps gerendert werden.
Bei 15 fps wird bei 60 hz refresh des Monitors also jeden vierten Refresh ein neues Bild angezeigt. Mit 30 hz AFR müsste also jeden zweiten Refresh ein neues Bild angezeigt werden. Weil sich jetzt aber die Szenen ja ändern, insbesondere bei Kameraschwenks oder schnellen Objekten im Vordergrund (also genau da, wo man Framerate braucht), ändert sich auch die Komplexität und die Synchronisierung der Karten wird schwierig. Kommt jetzt das Bild der zweiten Karte also nur etwas mehr als 1/120 Sekunde zu früh oder zu spät bei der ersten Karte an, rutscht das Bild in einen anderen Refresh und es kommt zu Microrucklern. Also werden zwei Refreshs hinternander unterschiedliche Bilder angezeigt, dann kommt zwei Refreshs kein neues Bild und es geht wieder von vorne los. Man hat weiterhin 30fps, aber die erlebte Bildrate ist eben näher an "zwei Bilder ohne neues Bild", was dann eben nur 20fps entspricht. Sicherlich ist das immernoch eine Steigerung und auch nur das Worst-Case Szenario, aber problematisch ist es dennoch.
Helfen würde hierbei übrigens auch die Refreshrate des Monitors zu erhöhen. Bei 120 hz Refresh wäre die erlebte Bildrate dann 24 fps (wobei das nicht mehr worst case wäre, weil eben mehr Möglichkeiten der Bildeverteilung vorhanden sind).