PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue SLI-Tests


Seiten : [1] 2

dildo4u
2004-11-22, 17:39:02
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD05MTYmdXJsX3BhZ2U9OA==


http://img.hexus.net/v2/graphics_cards/nvidia/sli/part1/images/doom3_hq.png


http://img.hexus.net/v2/graphics_cards/nvidia/sli/part1/images/hl2_sfr.png

Hellfire-Torrod
2004-11-22, 18:16:11
Schnell UND Teuer!

In den niedrigen Auflösungen verhungern die Zwillinge leider....

Gast
2004-11-22, 18:22:34
Ernüchternd. Alleine für Doom lohnen sich die beiden Grakas.

Dancer
2004-11-22, 18:40:49
Ernüchternd. Alleine für Doom lohnen sich die beiden Grakas.
mal abgesehen davon, dass recht wenig GAmes getestet wurden und es Probleme bei Far Cry gab, zeigt doch auch der HL2 Graph oben, dass auch dort SLI ordentlich zum tragen kommt.
Bei Maximaler Auflösung mit 4xaa und 8xAF immer noch über 100 FPS ist schon verdammt ordentlich.
Für den Anfang schonmal nicht schlecht. Mit zunehmender Treiberentwicklung ist da in jedem Fall noch mehr drinn in der Breite.

Adam D.
2004-11-22, 18:40:57
Ernüchternd. Alleine für Doom lohnen sich die beiden Grakas.
Ähm? Gegensätze? :|

r00t
2004-11-22, 18:45:21
über 100fps in hl2 bei 1600*XXXX , 4AA und 8AF das scho hammer!!

möcht mal wissen wie viel so ne ausstattung kostet und vorallem wie es auf 6AA und 16AF läuft :D

Blaire
2004-11-22, 18:47:31
Die Farcry HDR Ergebnisse sind recht ernüchternd. :confused:

MechWOLLIer
2004-11-22, 18:53:31
Die Farcry HDR Ergebnisse sind recht ernüchternd. :confused:
Die scheinen auch fats vollkommend CPU limitiert zu sein, Demirug hat mal ähliches erwähnt.
Also ich finde die Ergebnisse eigentlich ganz gut.
Ind GPU limitierenden Settings ca. 85% schneller, mehr hab ich auch nicht erwartet.

Gast
2004-11-22, 19:01:46
über 100fps in hl2 bei 1600*XXXX , 4AA und 8AF das scho hammer!!
Die haben anspruchslose Demos genommen, wenn ich mir die fps einer 6800U ansehe.

möcht mal wissen wie viel so ne ausstattung kostet und vorallem wie es auf 6AA und 16AF läuft :D
Mit 6XAA schon mal garnicht. :D
4xSSAA wären interessant. =)

Gast
2004-11-22, 19:10:51
mal abgesehen davon, dass recht wenig GAmes getestet wurden und es Probleme bei Far Cry gab, zeigt doch auch der HL2 Graph oben, dass auch dort SLI ordentlich zum tragen kommt.
Bei Maximaler Auflösung mit 4xaa und 8xAF immer noch über 100 FPS ist schon verdammt ordentlich.
Für den Anfang schonmal nicht schlecht. Mit zunehmender Treiberentwicklung ist da in jedem Fall noch mehr drinn in der Breite.

Schwanzbalken schauen reicht nicht, Artikel lesen ist Pflicht.

DeadMeat
2004-11-22, 19:12:53
Ich glaub die Meinungen sind klar. SLI ist ein Leistungsmäßiger erfolg, wenn auch sehr Teuer.

Demirug
2004-11-22, 19:30:11
Die scheinen auch fats vollkommend CPU limitiert zu sein, Demirug hat mal ähliches erwähnt.
Also ich finde die Ergebnisse eigentlich ganz gut.
Ind GPU limitierenden Settings ca. 85% schneller, mehr hab ich auch nicht erwartet.

Eine CPU Limitierung ist das nicht. Das HDR Verfahren ist nicht sehr SLI freundlich. Vorallem die frameübergreifenden Benutzung eines Rendertargets macht da Probleme. Damit ist AFR nicht mehr möglich. SFR stellt ein Problem da weil das HDR ein Fullscreen Posteffekt ist.

Eine kleine Änderung an Farcry sollte das Ding aber AFR kompatibel machen.

Mumins
2004-11-22, 19:52:35
Ich glaub die Meinungen sind klar. SLI ist ein Leistungsmäßiger erfolg, wenn auch sehr Teuer.

Das ist alles relativ, ein Board wird um die 200€ kosten, 2 Karten 800€(6800GT). Wenn man bedenkt, dass ne 6800Ultra oder ne X800XT PE so um die 600€ kosten, dann sind die 250€ Mehrkosten zu Board und Grakas nicht so viel. Zumal man Leistungsmässig ziemlich lang up to date sein wird.

MarcWessels
2004-11-23, 00:37:49
Eine kleine Änderung an Farcry sollte das Ding aber AFR kompatibel machen.

Wobei - was hätte man davon? AFR dürfte doch ähnlich der damaligen RageFuryMaxx zwar die fps erhöhren, gleichzeitig aber auch die Latenz, so daß man letztendlich als Spieler nichts davon hat.

Allgemein @ on Topic->

Im SFR-Modus bin ich von der Leistung mehr als überzeugt und wenn man sich die NIEDRIGSTE fps-Rate in Relation zur durchschnittlichen anschaut, so sieht es verdammt nach einer tatsächlichen Verdopplung der Performance aus! :cool:

Demirug
2004-11-23, 07:23:56
Wobei - was hätte man davon? AFR dürfte doch ähnlich der damaligen RageFuryMaxx zwar die fps erhöhren, gleichzeitig aber auch die Latenz, so daß man letztendlich als Spieler nichts davon hat.

Wieso sollte die Latenz grösser werden? Wenn kein Pre-Render Blocker in der Software ist wird sie sogar geringer. Allerdings auch nicht geringer als bei einer gleichschnellen Einchiplösung. Mit Pre-Render Blocker sieht es minimal anders aus. Dort bleibt die Latenz gleich. Ein schnellere Chip würde diese reduzieren können.

tombman
2004-11-23, 07:59:46
Hab den Artikel mit feuchten Augen gelesen und bin soooooo geil drauf ;)

Bei dem mir wichtigen 1600 und darüber Modus mit AA/AF geht das Ding ärger geil ab, so wie erwartet ;)

Und ist nicht erst der neue 67er beta FW Treiber "offiziell" SLI fähig?

Ich hab nur Angst, daß nicht gehypte games durch SLI nicht beschleunigt werden und/oder dauernd crashen --- des könnte man nvidia zutrauen :(

Ich hoffe mal darauf, daß die crashes durch die beta hardware (brigde + mobo + graka = alles beta) UND die beta Treiber zurückzuführen sind...

Denn ein instabiles SLI könnte dem Ruf von Nvidia mehr schaden als ein paar, zugegeben übermächtige, Balken in manchen games (Doom3 :D)

Hmm, außerdem beschleicht mich das Gefühl, daß des 2004 nix mehr wird mit SLI... wenn jetzt nicht mal die review Systeme für die Medien draußen sind...

Gast
2004-11-23, 08:27:32
Andauernd das selbe...
Ja, zwei kooperierende Grakas sind meist weit schneller als eine einzelne. Ja, das kann zu Problemchen und Bugs führen. Und nein, das Tempo interessiert mich kaum. Hauptsache Quadhead, ohne sich eine G200mms in den PCI pfropfen zu müssen. Surroundgaming mit drei Monitoren wie mit einer Parhelia, nur in dx9 und flüssig. DAS sind Argumente für SLI, nicht die ganzen Spekulationen, ob man dadurch dauerhaft Geld sparen könnte, da im Fall des Leistungsnotstandes einfach die zweite Graka nachgekauft wird. Kleiner Tip zu letzterem: Das wird sich nie lohnen. Die nächste Generation hat wieder doppelt so viel RAM, die nutzbare RAM-Menge eines SLI liegt hingegen unter dem nutzbaren RAM einer Einzelkarte. Und sagt jetzt bloß nicht: "Wer braucht schon ein GB auf der Graka?" 640k sollten angeblich auch für die Ewigkeit reichen...

r@w
2004-11-23, 09:16:44
Und ist nicht erst der neue 67er beta FW Treiber "offiziell" SLI fähig?Nein.

Auch der 67.02 ist, wie alle anderen vor und nach ihm, lediglich über die App-Profile SLI-'fähig'. Offenbar muss den Treiber noch immer für JEDE App gesagt werden, wie SLI hier arbeiten soll. Insofern SLI bei nicht unterstützten Apps wenig bis gar nichts bringen dürfte...

Allerdings wird die Unterstützung für Apps/Demos/Games (vor allem Benches ;-) von Treiber zu Treiber immer größer...
(ich merke das, weil ich den ganzen 'Müll' immer vor Installation raus schmeiße ;-)

Razor

Gast
2004-11-23, 09:35:10
Super, damit erreicht NV endlich die Geschwindigkeit einer X800xtpe (unter HL2 ;) ) !

BlackArchon
2004-11-23, 09:42:08
...Hauptsache Quadhead, ohne sich eine G200mms in den PCI pfropfen zu müssen. Surroundgaming mit drei Monitoren wie mit einer Parhelia, nur in dx9 und flüssig.
...Ich glaube mal gelesen zu haben, dass nur die Anschlüsse der primären Grafikkarte arbeiten. Also nix mit vier Monitoren.

tombman
2004-11-23, 09:48:00
del... Meinungsänderung siehe unten ;)

Demirug
2004-11-23, 09:48:31
Ich glaube mal gelesen zu haben, dass nur die Anschlüsse der primären Grafikkarte arbeiten. Also nix mit vier Monitoren.

Und ich habe von nVidia eine Bestätigung das beide Karten gleichzeitig einen Scanout durchführen kann. Diese können sich sogar einen Framebuffer teilen so das jeder Ausgang für einen Teil zuständig ist.

tombman
2004-11-23, 09:50:33
Nein.

Auch der 67.02 ist, wie alle anderen vor und nach ihm, lediglich über die App-Profile SLI-'fähig'. Offenbar muss den Treiber noch immer für JEDE App gesagt werden, wie SLI hier arbeiten soll. Insofern SLI bei nicht unterstützten Apps wenig bis gar nichts bringen dürfte...

Allerdings wird die Unterstützung für Apps/Demos/Games (vor allem Benches ;-) von Treiber zu Treiber immer größer...
(ich merke das, weil ich den ganzen 'Müll' immer vor Installation raus schmeiße ;-)

Razor

hmm, kann man den Treiber nicht zwingen eine bestimmte Methode bei einer unbekannten app zu benutzen?

oder geht SLi NUR bei dem Treiber bekannten apps? Weil dann wärs ja echt scheiße.

Sollte AFR nicht IMMER gehen?

r@w
2004-11-23, 09:56:25
Ich glaube mal gelesen zu haben, dass nur die Anschlüsse der primären Grafikkarte arbeiten. Also nix mit vier Monitoren.Das wäre aber reichlich unschön...
...und würde dieses 'Feature' fast ad absurdum führen!

Ein "entweder/oder" wäre ja noch einleuchtend, aber 'nur' Performance?
Neee....

Razor

r@w
2004-11-23, 10:03:27
Und ich habe von nVidia eine Bestätigung das beide Karten gleichzeitig einen Scanout durchführen kann. Diese können sich sogar einen Framebuffer teilen so das jeder Ausgang für einen Teil zuständig ist.Verstehe ich das richtig?

Die linke/rechte bzw. obere/untere Hälfte eines entsprechend großen Frames von jeweils einer GraKa berechnen lassen und diese dann auf jeweils max 2 Monitore ausgeben können? So wäre ja auch die Möglichkeit denkbar, dass eine Karte für das Zentrum und die andere für die 'Seiten' (i.e. links/rechts) zuständig ist und somit auf 3 Bildschirme ausgegeben werden kann. Und das bei voller Beschleunigung selbstverständlich...

DAS wäre dann wieder eindeutig ein Argument für SLI!

Razor

tombman
2004-11-23, 10:26:46
Super, damit erreicht NV endlich die Geschwindigkeit einer X800xtpe (unter HL2 ;) ) !

Muahaha, ich dachte zuerst du redest shit, aber ich hab was "rausgefunden".. ROFL

Wenn man sich den Text genau durchliest, erwähnt der hexus reviewer, daß er eine ANANDTECH demo verwendet hat um zu HL2 zu benchen :D
Und dann später bei den HL2 Ergebnissen redet er von einer PRISON demo.

1+1=2 --> daraus folgt er hat die "at_prison_05" demo verwendet !!!

Weiters hat er einen FX55 verwendet der natürlich schneller als mein jetziger 3.7ghz P4 EE (Luftkühlung) ist.

Er hatte nämlich bei 1024, 0/8, 126fps, ich dagegen nur 113fps.

Auf 1600x1200 4/8, hatte die SLI Lösung bestenfalls 109fps im SFR Modus und 97fps im AFR Modus.

Nun, jetzt hab ich das ganze mal mit einer nur LEICHT übertakteten X800XTPE @ 535/565 getestet, dh weniger oced als die 6800ultra waren (430core!) und bekam 90fps raus .... mit EINER X800XTPE.

MAUHAHAHAHHAAHAHA,

Nvidia BRAUCHT SLI um die selbe Leistung wie EINE X800XTPE unter HL2 zu erreichen.

Wie witzig is das? :D

tombman
2004-11-23, 10:32:30
ok, wir bewegen uns nahe an der cpu Grenze, aber trotzdem ;)

Demirug
2004-11-23, 10:33:15
Verstehe ich das richtig?

Die linke/rechte bzw. obere/untere Hälfte eines entsprechend großen Frames von jeweils einer GraKa berechnen lassen und diese dann auf jeweils max 2 Monitore ausgeben können? So wäre ja auch die Möglichkeit denkbar, dass eine Karte für das Zentrum und die andere für die 'Seiten' (i.e. links/rechts) zuständig ist und somit auf 3 Bildschirme ausgegeben werden kann. Und das bei voller Beschleunigung selbstverständlich...

DAS wäre dann wieder eindeutig ein Argument für SLI!

Razor

Das was du hier beschreibst müsste aktiv von der Anwendung so programmiert werden. Also für jeden Monitor ein eigenes Device (DX) bzw einen Context (OGL). Technisch machbar und der MS Flightsimulator unterstützt das IIRC auch schon.

Beim automatischen Verfahren wird der Anwendung einfach ein größerer Framebuffer zur Verfügung gestellt und jeder Monitor gibt einen Teil dieses Framebuffers auf. Das Render in diesen Framebuffer erfolgt dann mit den normalen SLI Verfahren (AFR oder SFR). Damit sollte auch eigentlich eine bessere Lastverteilung erreicht werden als mit einer festen Zuordnung von einzelnen Chips zu bestimmten Monitoren.

Ich weiss allerdings nicht in wie weit die Unterstützung für diese über mehr als einen Monitor gehenden Framebuffer schon in den Treibern eingebaut ist. In OGL soll es schon vorhanden sein zu DX wurde nichts gesagt.

r@w
2004-11-23, 10:57:10
hmm, kann man den Treiber nicht zwingen eine bestimmte Methode bei einer unbekannten app zu benutzen?

oder geht SLi NUR bei dem Treiber bekannten apps? Weil dann wärs ja echt scheiße.

Sollte AFR nicht IMMER gehen?Gute Frage...

Könnte mir vorstellen, dass es eine Art "Default-SLI-Modus" gibt, der bei einer unbekannten App aktiv ist.
Wie effizient dieser allerdings sein kann, vermag ich nicht zu sagen...

Hier mal die 'Mutichip'-Untertützung des aktuellen 66.93:
-------------------------------------------------------------------------------------
| AppNr | AppName | ParaValue |
-------------------------------------------------------------------------------------
| 1 | Medal of Honor | 1 |
-------------------------------------------------------------------------------------
| 4 | Quake3 | 1 |
-------------------------------------------------------------------------------------
| 7 | Halo | 400001 |
-------------------------------------------------------------------------------------
| 8 | Painkiller | 2 |
-------------------------------------------------------------------------------------
| 9 | Tomb Raider | 2C10401 |
-------------------------------------------------------------------------------------
| 16 | Jedi Academy | 400001 |
-------------------------------------------------------------------------------------
| 17 | Jedi Academy MultiPlayer | 400001 |
-------------------------------------------------------------------------------------
| 18 | Call of Duty | 4 |
-------------------------------------------------------------------------------------
| 19 | Call of Duty MultiPlayer | 4 |
-------------------------------------------------------------------------------------
| 21 | Splinter Cell | 4 |
-------------------------------------------------------------------------------------
| 23 | Doom 3 | 1 |
-------------------------------------------------------------------------------------
| 24 | Far Cry | 4C00002 |
-------------------------------------------------------------------------------------
| 25 | 3DMark01 | c00001 |
-------------------------------------------------------------------------------------
| 26 | 3DMark03 | 400001 |
-------------------------------------------------------------------------------------
| 27 | 3DMark05 | 2400401 |
-------------------------------------------------------------------------------------
| 28 | PCMark04 | 400001 |
-------------------------------------------------------------------------------------
| 29 | Unreal Tournament 2003 | 400001 |
-------------------------------------------------------------------------------------
| 30 | Unreal Tournament 2004 | 400001 |
-------------------------------------------------------------------------------------
| 31 | Unreal | 400001 |
-------------------------------------------------------------------------------------
| 32 | Half-Life 2 | 3C00401 |
-------------------------------------------------------------------------------------
| 33 | AquaMark 3 | 1 |
-------------------------------------------------------------------------------------
| 34 | Code Creatures | 1 |
-------------------------------------------------------------------------------------
| 35 | MS Flight Simulator 2004 | 4 |
-------------------------------------------------------------------------------------
| 36 | Comanche 4 | 4 |
-------------------------------------------------------------------------------------
| 37 | X2 The Threat | 400001 |
-------------------------------------------------------------------------------------
| 38 | Dungeon Siege | 4 |
-------------------------------------------------------------------------------------
| 39 | HDRLighting | 400001 |
-------------------------------------------------------------------------------------
| 40 | Trees of Pangaea | 20201 |
-------------------------------------------------------------------------------------
| 41 | City of Heroes | 1 |
-------------------------------------------------------------------------------------
| 42 | Serious Sam SE | 1 |
-------------------------------------------------------------------------------------
| 43 | Star Wars Jedi Knight Academy | 1 |
-------------------------------------------------------------------------------------
| 44 | Star Wars Jedi Knight II: Jedi Outcast | 1 |
-------------------------------------------------------------------------------------
| 45 | Star Wars: Knight of the Old Republic | 1 |
-------------------------------------------------------------------------------------
| 46 | IL 2 - Sturmovik: Forgotten Battles | 1 |
-------------------------------------------------------------------------------------
| 47 | Return to Castle Wolfenstien | 1 |
-------------------------------------------------------------------------------------
| 48 | Battlefield Vietnam | 2 |
-------------------------------------------------------------------------------------
| 49 | Colin McRae Ralley 4 | 2 |
-------------------------------------------------------------------------------------
| 50 | Sims 2 | 2 |
-------------------------------------------------------------------------------------
| 51 | Ground Control 2 | 4 |
-------------------------------------------------------------------------------------
| 52 | Max Payne 2 | 2 |
-------------------------------------------------------------------------------------
| 53 | Unreal 2 | 2 |
-------------------------------------------------------------------------------------
| 54 | Tribes Vengeance | 2 |
-------------------------------------------------------------------------------------
| 55 | Age of Mythology | 1 |
-------------------------------------------------------------------------------------
| 56 | Shadermark 2.1 | 2 |
-------------------------------------------------------------------------------------
| 57 | Armed and Dangerous | 1 |
-------------------------------------------------------------------------------------
| 58 | Battlefield 1942 | 2 |
-------------------------------------------------------------------------------------
| 59 | Battlefield 2 | 2 |
-------------------------------------------------------------------------------------
| 60 | Lock On | 4 |
-------------------------------------------------------------------------------------
| 61 | Contract Jack | 4 |
-------------------------------------------------------------------------------------
| 62 | Dark Age of Camelot: Trials of Atlantis | 4 |
-------------------------------------------------------------------------------------
| 63 | NHL 2005 | 4 |
-------------------------------------------------------------------------------------
| 64 | Prince of Persia | 4 |
-------------------------------------------------------------------------------------
| 65 | Perimeter | 4 |
-------------------------------------------------------------------------------------
| 66 | Tiger Woods 2005 | 4 |
-------------------------------------------------------------------------------------
| 67 | Kohan 2 | 4 |
-------------------------------------------------------------------------------------
| 68 | Silent Storm | 4 |
-------------------------------------------------------------------------------------
| 69 | Warhammer 40k Dawn of War | 1 |
-------------------------------------------------------------------------------------
| 70 | TOCA Race Driver 2 | 4 |
-------------------------------------------------------------------------------------
| 71 | Star Wars Battlefront | 4 |
-------------------------------------------------------------------------------------
| 72 | Rome Total War | 4 |
-------------------------------------------------------------------------------------
| 73 | Need for Speed Underground | 4 |
-------------------------------------------------------------------------------------
| 74 | Hitman Contracts | 4 |
-------------------------------------------------------------------------------------
| 75 | MVP Baseball | 4 |
-------------------------------------------------------------------------------------
| 76 | Madden 2005 | 4 |
-------------------------------------------------------------------------------------
| 77 | Soldiers Heroes of WWII | 4 |
-------------------------------------------------------------------------------------
| 78 | Joint Operations Typhoon Rising | 4 |
-------------------------------------------------------------------------------------
| 79 | Leisure Suit Larry | 4 |
-------------------------------------------------------------------------------------
| 80 | Tony Hawk's Underground | 4 |
-------------------------------------------------------------------------------------
| 81 | Myst 4 | 4 |
-------------------------------------------------------------------------------------
| 82 | Conan | 4 |
-------------------------------------------------------------------------------------
| 83 | America's Army | 4 |
-------------------------------------------------------------------------------------
| 84 | Thief 3 | 4 |
-------------------------------------------------------------------------------------
| 85 | Tron 2.0 | 2 |
-------------------------------------------------------------------------------------
| 86 | Spellforce | 2 |
-------------------------------------------------------------------------------------
| 87 | AquaNox 2 | 2 |
-------------------------------------------------------------------------------------
| 88 | Shadermark 2.1 | 2 |
-------------------------------------------------------------------------------------
| 89 | Return to Castle Wolfenstein: Enemy Territory | 1 |
-------------------------------------------------------------------------------------
77 Anwendungen werden also derzeit unterstützt...
(einige sind doppelt, weil ein Unterschied zwischn Single- und Multiplayer gemacht wird)

Es ist alles dabei, was Rang und Namen hat... wüsste jetzt nicht, ob schon mal irgendetwas via SLI gebencht wurde, was jetzt nicht in dieser 'Liste' steht. Die ganzen EXE's hab' ich mir jetzt mal in dieser Auflistung geschenkt (würde das Ganze auch 'etwas' unübersichtlich machen ;-), nur sei hier angemerkt, dass die Angabe der Version (wie z.Bsp. beim Shadermark) nicht zwingend sein muss, da verschieden Versionen oftmals durch gleiche Dateinamen aufgerufen werden...

Wie dem auch sei, diese Liste wird immer größer und ich weiß nicht, wie sich ein SLI-System verhält, wenn eine gestartete App nicht in dieser steht.

Razor

tombman
2004-11-23, 11:54:00
hmm, erkennt der Treiber die Anwendungen nach deren .exe Dateien?

Weil dann könnte man die ja einfach umbenennen für ältere games und schon sollte mit hoher Wahrscheinlichkeit ein passender Modus ausgewählt werden ;)

Btw, Gothic vermisse ich da schon mal in der Liste.

Überhaupt fehlt da so gut wie alles alte...

(del676)
2004-11-23, 12:00:42
wahrscheinlich werden games die 1600 mit 8xS AA flüssigst laufen nicht aufgenommen ;)

r@w
2004-11-23, 12:08:00
MAUHAHAHAHHAAHAHA,

Nvidia BRAUCHT SLI um die selbe Leistung wie EINE X800XTPE unter HL2 zu erreichen.

Wie witzig is das? :DSorry, tombman, aber ich vermute, dass Du es noch immer nicht verstanden hast.

HL2 ist ATI 'optimiert', während Doom3 z.Bsp. nVidia 'optimiert' ist. Erstaunlich ist in diesem Zusammenhang lediglich, dass es nVidia geschafft hat, hier (HL2) mit ATI gleichzuziehen, obwohl die Ausgangsvoraussetzung dafür denkbar ungünstig ist.

Mann, mann, mann...

Razor

r@w
2004-11-23, 12:21:26
Das was du hier beschreibst müsste aktiv von der Anwendung so programmiert werden. Also für jeden Monitor ein eigenes Device (DX) bzw einen Context (OGL). Technisch machbar und der MS Flightsimulator unterstützt das IIRC auch schon.Ah ja... an den FS dachte ich hier z.Bsp. auch, da dieser es ja auch unterstützt, beispielsweise die Intrumententafel auf ein eigenes Device auszugeben. Aber auch für Rennsimulationen wäre dies ein sehr interessantes Feld...

Beim automatischen Verfahren wird der Anwendung einfach ein größerer Framebuffer zur Verfügung gestellt und jeder Monitor gibt einen Teil dieses Framebuffers auf. Das Render in diesen Framebuffer erfolgt dann mit den normalen SLI Verfahren (AFR oder SFR). Damit sollte auch eigentlich eine bessere Lastverteilung erreicht werden als mit einer festen Zuordnung von einzelnen Chips zu bestimmten Monitoren.Hier dachte ich ebenfalls z.Bsp. an ID-Engine basierten OGL-Games, die es ja durchaus erlauben, doppelt, bzw. 3-fach breite Auflösungen zu nutzen (sodenn dies der Treiber anbietet). Vorstellbar wären hier ja z.Bsp. 3072x768 (i.e. 3x1024 zu 768)... und so etwas 2048x768 (2x1024 zu 768) wird ja schon jetzt durch den Treiber unterstützt, wenn man bei nur einer Karte via nView einen 'Horizontal Span' aktiviert... nur ist die Perorfmance hier dann mehr als 'dürftig'.

Ich weiss allerdings nicht in wie weit die Unterstützung für diese über mehr als einen Monitor gehenden Framebuffer schon in den Treibern eingebaut ist. In OGL soll es schon vorhanden sein zu DX wurde nichts gesagt.Nun ja... mich interessierte ja auch eher die technische Machbarkeit bzw. deren Abbildung auf ein SLI-System. Und das scheint zumindest möglich zu sein... wenn auch die Unterstützung durch den Treiber ja noch offen zu sein scheint.

Interessant ist dies aber allemal und würde den 'Mehrwert' eines SLI-Systems doch ganz erheblich steigern.
'Nur' Performance wäre mir einfach nicht genug gewesen...

Im übrigen würden auf dieser Basis ja auch 'kleine' SLI-Lösungen (z.Bsp. 2x 6600GT) Sinn machen.

Thx 4 Info!
:up:

Razor

StefanV
2004-11-23, 12:25:54
Sorry, tombman, aber ich vermute, dass Du es noch immer nicht verstanden hast.

HL2 ist ATI 'optimiert', während Doom3 z.Bsp. nVidia 'optimiert' ist. Erstaunlich ist in diesem Zusammenhang lediglich, dass es nVidia geschafft hat, hier (HL2) mit ATI gleichzuziehen, obwohl die Ausgangsvoraussetzung dafür denkbar ungünstig ist.

Mann, mann, mann...

Razor
Tschuldigung, aber diesen Bullshit von wegen *bäh, das ist aber 'ATI Optimiert' kann ich solangsam echt nicht mehr hören, anderen dürfte ähnlich sein.

SOLANGSAM WISSEN WIR; WAS EINIGE LEUTE MEINEN

Das ist doch nur ein schöngerede einer schlechten Architektur, das hat man auch schon zu FX Zeiten gemacht, nur machts das für den Gamer nicht besser, ganz im Gegenteil, IHR erzieht sie zu 'ATi Fanboys', aber das ist eine andere Geschichte...

Der letzte Teil ist an Hohn und Spott nicht zu überbieten X-D

_WENN_ die Architektur des nV4x so überlegen gewesen wäre, dann wäre es egal, was für Shader die bekommt...

WENN die Treiber für den nV4x so überlegen wären, dann wäre es egal, was für shader der bekommt...

Merst du was?!

Richtig, nV hat noch viel zu tun und so gut, wie einige Orakeln, scheinen weder nV4x noch die Treiber zu sein...

r@w
2004-11-23, 12:27:58
hmm, erkennt der Treiber die Anwendungen nach deren .exe Dateien?

Weil dann könnte man die ja einfach umbenennen für ältere games und schon sollte mit hoher Wahrscheinlichkeit ein passender Modus ausgewählt werden ;)Na dann mal viel Spaß beim Suchen...
Ist Dir aufgefallen, wie viele 'Optionen' es hier zu geben scheint.
Auch bräuchte man detaillierte Kenntnisse über die Arbeitsweise der zu nutzenden Engines.

So einfach, wie Du es hier darstellst, wird es vermutlich nicht sein...
(und ja, die Anwendungen werden an der EXE erkannt)

Btw, Gothic vermisse ich da schon mal in der Liste.

Überhaupt fehlt da so gut wie alles alte...Gut, dass Dir dies aufgefallen ist!

Und wenn es so etwas wie einen "Default-SLI-Modus" nicht geben sollte (weil technisch so nicht zu realisieren), dann sehe ich schwarz für eine 'breite' Unterstützung von Apps/Games durch SLI in Richtung Performance. Dies wäre dann grundsätzlich abhängig von nVidia, ob es unterstützt würde, oder eben nicht.

Auch würde mich wirklich mal interessieren, ob supersampling AA auch SLI-'tauglich' ist...

Razor

Gast
2004-11-23, 12:29:35
Sorry, tombman, aber ich vermute, dass Du es noch immer nicht verstanden hast.

HL2 ist ATI 'optimiert', während Doom3 z.Bsp. nVidia 'optimiert' ist. Erstaunlich ist in diesem Zusammenhang lediglich, dass es nVidia geschafft hat, hier (HL2) mit ATI gleichzuziehen, obwohl die Ausgangsvoraussetzung dafür denkbar ungünstig ist.

Mann, mann, mann...

Razor

1.) HL2 ist nicht ATI optimiert, es ist PS2.0 optimiert.
2.) Wo zieht NV mit ATI gleich (ausser mit SLI) ? Sie liegen bis zu 80% in HL2 zurück( xbit)
3.) D3 ist nicht NV optimiert. NV optimiert für D3 (Shaderreplacement)

r@w
2004-11-23, 12:38:02
Sorry Stefan, aber auch Du willst es offenbar nicht verstehen...
(was an sich ja keine Neuigkeit ist ;-)
Tschuldigung, aber diesen Bullshit von wegen *bäh, das ist aber 'ATI Optimiert' kann ich solangsam echt nicht mehr hören, anderen dürfte ähnlich sein.Trotzdem werde ich es immer wieder wiederholen, wenn jemand so einen Bullshit von sich gibt.

_WENN_ die Architektur des nV4x so überlegen gewesen wäre, dann wäre es egal, was für Shader die bekommt...

WENN die Treiber für den nV4x so überlegen wären, dann wäre es egal, was für shader der bekommt...Offenbar scheint es an Dir vorbei gegangen zu sein, dass nVidia und ATI hinsichtlich der Shader unterschiedliche Strategien verfolgen, die schon fast ein "entweder/oder" erzwingen. Was sehr gut auf einer R300-Architektur läuft, muss zwangsläufig Probleme auf einer NV30/40-Archtektur bekommen und vice versa. Ein Treiber kann diesen Sachverhalt nur abmindern, nicht aber gänzlich eliminieren. Auf jeden Fall dürfte es äusserst interessant werden, wenn ATI mit einer SM3-Architektur kommt, schließlich dürfte sich diese doch wohl ganz erheblich von der R300-(reinen SM2-)Architektur unterscheiden (müssen). Wir werden sehen...

Ich hege ja die Hoffnung, dass Du dies nochmal irgendwann begreifen wirst...
...na ja, nicht wirklich!
:D

Razor

r@w
2004-11-23, 12:40:49
1.) HL2 ist nicht ATI optimiert, es ist PS2.0 optimiert.
2.) Wo zieht NV mit ATI gleich (ausser mit SLI) ? Sie liegen bis zu 80% in HL2 zurück( xbit)
3.) D3 ist nicht NV optimiert. NV optimiert für D3 (Shaderreplacement)Ad1: PS2.0 und ATI-R300-Archtektur sind zwei austauschbare Begriffe.
Ad2: In diesem Thread geht es um SLI.
Ad3: D3 benutzt eine Schattentechnik, die der nVidia-Architekur besser schmeckt.
(Shader-Replacement betreiben beide überall ;-)

Razor

Gast
2004-11-23, 12:46:58
Tschuldigung, aber diesen Bullshit von wegen *bäh, das ist aber 'ATI Optimiert' kann ich solangsam echt nicht mehr hören, anderen dürfte ähnlich sein.


Bezueglich HL² stimmt es aber, oder wo ist der angepriesende, optimierte und fuenfmal solange gebrauchte FX Pfad?
Da diese Frage noch nicht beantwortet wurde, ist HL² auf ATi optimiert bzw. man bremst die Nvidia absichtlich ein.

_WENN_ die Architektur des nV4x so überlegen gewesen wäre, dann wäre es egal, was für Shader die bekommt...

Bullshit.
Wenn die Archtiektur nicht richtig angesprochen werde, dann ist es klar, dass diese nicht vernüenftig ausgelastet und damit das volle Potential entfacht wird.
Aber sehen wir es mal anders: Wenn die ATi hardware so überlegen waere, warum kann sie dann kein Profil 2.a/3.0 ausführen?
Ein Porsche ist in einem Stau, dichtem Stadtverkehr auch nicht schneller als mein Swift.


WENN die Treiber für den nV4x so überlegen wären, dann wäre es egal, was für shader der bekommt...

Bullshit.
Ein Treiber ist niemals so gut wie das compilieren mit dem dazugehoerigen Profil oder das gleich vernuenftige Schreiben von Shadern.
Aber, wenn der ATi treiber so gut waere, wieso kann er compilierte PS2.a Shader nicht umwandeln?

Merst du was?!

Jo...

Richtig,...

Valve hat noch viel zu tun, um einen fairen Komprimiß herzustellen.

LovesuckZ

StefanV
2004-11-23, 12:48:49
Sorry Stefan, aber auch Du willst es offenbar nicht verstehen...
(was an sich ja keine Neuigkeit ist ;-)
Nein, Razor, DU bist es, der nicht versteht und immer wieder die alte Laier abspielt, das alle so böse sind und nicht auf nV optimieren, und?!
Ist das mein/unser Problem, können wir daran was ändern?!


Trotzdem werde ich es immer wieder wiederholen, wenn jemand so einen Bullshit von sich gibt.
Wer im Glashaus sitzt :rolleyes:

Offenbar scheint es an Dir vorbei gegangen zu sein, dass nVidia und ATI hinsichtlich der Shader unterschiedliche Strategien verfolgen,
Offenbar ist dir entgagen, das das für einen Enduser völlig irrelevant ist und der nur möglichst schnelle Bilder auf dem Schirm haben möchte.

Aber das ganze ist nicht mein Problem, das ist nVs Problem, das sie das nicht gebacken bekommen...

Jaja, wer zu spät kommt, den bestraft das Leben, in diesem Fall doppelt und dreifach...


die schon fast ein "entweder/oder" erzwingen. Was sehr gut auf einer R300-Architektur läuft, muss zwangsläufig Probleme auf einer NV30/40-Archtektur bekommen und vice versa.
Schön, nur hat damit nV ein Problem, nicht wir...

Aber damals, als noch alle schön brav auf nV Optimiert haben, hast du auch nicht rumgeheult, das das so schlecht auf Fremdhardware läuft, oder irre ich mich da, lieber Razor?!
Warum machst du das denn jetzt?!
Ein Treiber kann diesen Sachverhalt nur abmindern, nicht aber gänzlich eliminieren.
Jaja, immer sind die anderen Schuld, nicht wahr?! :rolleyes:
Pech für nV würd ich sagen, zumal unter anderem FarCry ja eindrucksvoll bewiesen hat, das SM3 nicht soo viel (performance) für die NV4x Serie bringt und selbst da die ATIs noch schneller sind...

Da würd ich mal glatt sagen, das die R420 die deutlich stärkere Shaderhardware besitzt als die nV40, der das nur nachgesagt wird.

Auf jeden Fall dürfte es äusserst interessant werden, wenn ATI mit einer SM3-Architektur kommt, schließlich dürfte sich diese doch wohl ganz erheblich von der R300-(reinen SM2-)Architektur unterscheiden (müssen). Wir werden sehen...
Tja, die ATI wird alles in Grund und Boden stampfen, der wirds auch nicht wirklich interessiern, was ihr 'zum Fraß' vorgeworfen wird, genau wies bei der R300 war und bei der R420 ist...

Ganz im Gegensatz zu den (viel zu) wählerischen NV Teilen, aber da hat nV wohl drauf gehofft, das man auf ihre Shader Rücksicht nimmt...
Tja, dumm gelaufen.



Ich hege ja die Hoffnung, dass Du dies nochmal irgendwann begreifen wirst...
...na ja, nicht wirklich!
:D

Razor
Tja, Razor, du wirst nie was begreifen, besonders nicht das kleine einmaleins des Diskutierens, nicht wahr?!

Aber du wirst uns sicher den Sinn dieses letzten Satzes erklären können, nicht wahr, liebes Razorleinchen?!

StefanV
2004-11-23, 12:51:04
Bezueglich HL² stimmt es aber, oder wo ist der angepriesende, optimierte und fuenfmal solange gebrauchte FX Pfad?
Da diese Frage noch nicht beantwortet wurde, ist HL² auf ATi optimiert bzw. man bremst die Nvidia absichtlich ein.
Mein Schnuckelchen, wenn die nV Hardware so gut ist, wie von dir und anderen orakelt, dann kann man sie garnicht einbremsen.

Aber da das ja laut dir, mein Purzelchen, doch möglich sein soll, scheint nV wohl doch nur mit Wasser zu kochen und doch keine 'absolut Perfekte HW' hinzubekommen...

(del676)
2004-11-23, 12:53:30
wär ich mod würd ich allen bashern punkte geben und beim nächsten 3dc rl-treffen eine reinwatschen :)

r@w
2004-11-23, 13:00:08
Och Steffi... werden wir jetzt unsachlich?
:confused:
Aber das ganze ist nicht mein Problem, das ist nVs Problem, das sie das nicht gebacken bekommen......können.

Pech für nV würd ich sagen, zumal unter anderem FarCry ja eindrucksvoll bewiesen hat, das SM3 nicht soo viel (performance) für die NV4x Serie bringt und selbst da die ATIs noch schneller sind...Na ja... pari würd' ich sagen.
Und ich hoffe inständig, dass Du jetzt nicht wieder mit diesen Äpfel/Birnen-AF-Optimierungs-gemurkste Benchmark-Schnullern kommst.

Da würd ich mal glatt sagen, das die R420 die deutlich stärkere Shaderhardware besitzt als die nV40, der das nur nachgesagt wird.Tjo, offenbar bist Du als technischer Laie nicht in der Lage, diese Frage (mit Hintergrund) zu beantworten. Andere können dies und kommen seltsamer Weise zu einem ganz anderen Schluß.

Tja, die ATI wird alles in Grund und Boden stampfen, der wirds auch nicht wirklich interessiern, was ihr 'zum Fraß' vorgeworfen wird, genau wies bei der R300 war und bei der R420 ist...Oh mann...

Tja, Razor, du wirst nie was begreifen, besonders nicht das kleine einmaleins des Diskutierens, nicht wahr?!Also DAS bitte ich doch jetzt mal die anderen hier, sich wirklich auf der Zunge zergehen zu lassen...
;)

Razor

r@w
2004-11-23, 13:01:38
Mein Schnuckelchen,...Steffilein... wie wäre es, wenn ich Dich wieder "Schmääääärtz" nennen würde?
Bekomme gard' wieder richtig Lust darauf!
:D

Razor

Dr Hake
2004-11-23, 13:06:03
Bezueglich HL² stimmt es aber, oder wo ist der angepriesende, optimierte und fuenfmal solange gebrauchte FX Pfad?

LovesuckZ
Gibt s doch: Dx 8.1, sonst haette Valve sich diesen ja sparen koennen, sobald PS2 egal welcher Art auf die Fx treffen ist s halt Essig ;D

Demirug
2004-11-23, 13:08:14
Gibt s doch: Dx 8.1, sonst haette Valve sich diesen ja sparen koennen, sobald PS2 egal welcher Art auf die Fx treffen ist s halt Essig ;D


8.1 war für den R200 und derivate gedacht. Wobei der 8.1 ja der 8.0 Pfad ist bei lediglich ein paar Shader getauscht sind.

r@w
2004-11-23, 13:18:32
Gibt s doch: Dx 8.1, sonst haette Valve sich diesen ja sparen koennen, sobald PS2 egal welcher Art auf die Fx treffen ist s halt Essig ;DWitzig!
Und wieder einer, der es nicht rafft und zudem auch noch Fakten ignoriert.

Valve selbst hatte einen 'speziellen' NV30 DX9-Pfad angekündigt und auch den Aufwand mit diesem beziffert.
Heute ist davon allerdings rein gar nichts mehr zu sehen...
...sollte einem zumindest nachdenklich stimmen, oder?

Razor

Gast
2004-11-23, 13:20:42
Die Frage ist doch ganz einfach:

Welche der beiden tollen Karten kann PS2.0 schneller abarbeiten ? Wenn das beantwortet ist dann könnt ihr Fanboys da oben euch das ganze gebashe sparen, denn dann gibts daran nichts mehr zu rütteln.

Demirug ... ? ;)

Black-Scorpion
2004-11-23, 13:26:15
Witzig!
Und wieder einer, der es nicht rafft und zudem auch noch Fakten ignoriert.

Valve selbst hatte einen 'speziellen' NV30 DX9-Pfad angekündigt und auch den Aufwand mit diesem beziffert.
Heute ist davon allerdings rein gar nichts mehr zu sehen...
...sollte einem zumindest nachdenklich stimmen, oder?

Razor
Und was hat JC über D³ gesagt?
Da sollte auch das möglichste aus der Hardware rausgeholt werden.
Und was ist davon übrig geblieben, nichts.
Also immer schön auf dem Teppich bleiben.
Beide (id und Valve) haben in der Beziehung die Leute verar***t.
Also kannst du dir deine Verschwörungstheorien sparen.

r@w
2004-11-23, 13:36:06
Die Frage ist doch ganz einfach:

Welche der beiden tollen Karten kann PS2.0 schneller abarbeiten ? Wenn das beantwortet ist dann könnt ihr Fanboys da oben euch das ganze gebashe sparen, denn dann gibts daran nichts mehr zu rütteln.Wenn es ausschließlich PS2.0 geben würde, stimme ich Dir ja sogar zu.
Aber dem ist nicht so...

Selbst Futuremark hat es eingesehen, und eine Unterstützung von mehreren Rendertargets eingebaut, weil es das M$-SDK für DX9 so vorsieht. Und es ist wirklich kein großer Aufwand, mehrere Shadersets in seine Engine zu integrieren (oder diese zu erzeugen ;-).

Razor

tombman
2004-11-23, 13:37:50
@ r@w:

Du führst also Doom3 als Gegengewicht zur ATis HL2 ownage an?

LOL? In Doom3 ist die nv unter 10% schneller, in HL2 die Ati 80%.

Noch Fragen? :cool:

Aber klar, jetzt wirst sicher wieder anführen, valve sei ja auch 10 mal böser als id-software und hat eben 100mal mehr auf ATI optimiert (wie soll das gehen???) als Id auf Nvidia.

Tja, 10% vs 80% So schaut die traurige Wahrheit DERZEIT aus. (neuer HL2 Nvidia Treiber kann ja allen Erwartungen zum Trotz immer noch kommen)

Dr Hake
2004-11-23, 13:39:37
Witzig!
Und wieder einer, der es nicht rafft und zudem auch noch Fakten ignoriert.

Valve selbst hatte einen 'speziellen' NV30 DX9-Pfad angekündigt und auch den Aufwand mit diesem beziffert.
Heute ist davon allerdings rein gar nichts mehr zu sehen...
...sollte einem zumindest nachdenklich stimmen, oder?
Razor
zeige mir einen Titel der PS > 1.4 verwendet und auf welchem die Fx out of the box eine dem R300 gegenueber vergleichbare Geschwindigkeit bringt.....ach ja da waere Spellforce....aber basiert dies nicht auf einer Engine die schon laenger zum Benchen verwendet wird, und deshalb hingebungsvoll seitens nV beachtet wird?
Sorry aber wie es aussieht konnte Valve da nix machen, auch wenn sie es wollten.

Demirug
2004-11-23, 13:47:10
Die Frage ist doch ganz einfach:

Welche der beiden tollen Karten kann PS2.0 schneller abarbeiten ? Wenn das beantwortet ist dann könnt ihr Fanboys da oben euch das ganze gebashe sparen, denn dann gibts daran nichts mehr zu rütteln.

Demirug ... ? ;)

Das ist ganz einfach: KEINE der beiden.

Es gibt 2.0 Shader da ist eine Radeon schneller und es gibt 2.0 Shader da ist es eine GeForce. Da sich jedoch beide weigern die abosulten Details rauszurücken kann man das schwer aufgrund des Codes vorhersagen welcher Shader auf welcher Hardware wie schnell sein wird.

Gast
2004-11-23, 13:47:49
zeige mir einen Titel der PS > 1.4 verwendet und auf welchem die Fx out of the box eine dem R300 gegenueber vergleichbare Geschwindigkeit bringt.....ach ja da waere Spellforce....aber basiert dies nicht auf einer Engine die schon laenger zum Benchen verwendet wird, und deshalb hingebungsvoll seitens nV beachtet wird?
Sorry aber wie es aussieht konnte Valve da nix machen, auch wenn sie es wollten.

Spellforce läuft auf einer 9800XT immer noch schneller als auf einer 5950 ultra (computerbase.de)

Gast
2004-11-23, 13:49:44
Das ist ganz einfach: KEINE der beiden.

Es gibt 2.0 Shader da ist eine Radeon schneller und es gibt 2.0 Shader da ist es eine GeForce. Da sich jedoch beide weigern die abosulten Details rauszurücken kann man das schwer aufgrund des Codes vorhersagen welcher Shader auf welcher Hardware wie schnell sein wird.

Also im aktuellen Shadermark liegt ein NV40 in ALLEN PS2.0 Shadern deutlich hinter einem R420 (auch taktbedingt).

r@w
2004-11-23, 14:00:20
Und was hat JC über D³ gesagt?
Da sollte auch das möglichste aus der Hardware rausgeholt werden.
Und was ist davon übrig geblieben, nichts.JC hat ja auch geschrieben, warum der NV30-Pfad 'geknickt' wurde. Die Treiber (bzw. der interne Shader-Compiler) sollen mittlererweile so 'gut' sein, dass ein solcher Pfad (für seine Engine!) nun nicht mehr nötig ist. Und wie man gut an der Performance sehen kann, ist dem auch so.

Valve hingegen hat sich nicht geäussert und sollte dies dringend tun, um 'Mißverständnisse' zu vermeiden.
Sodenn dies denn überhaupt 'gewünscht' ist...

Razor

Gast
2004-11-23, 14:03:58
Seite A:

ATI Yeah NV Buuhh

Seite N:

NV Yeah ATI Buuhh

Nachdem das endlich geklärt wäre schauen wir gemeinsam auf den Threadtitel und erkennen, daß das hier nicht das Thema ist.

MODschaft:
Bitte aufräumen.

Rest:
Weitermachen. Aber bitte nicht so.

r@w
2004-11-23, 14:05:25
Du führst also Doom3 als Gegengewicht zur ATis HL2 ownage an?Jup.

Tja, 10% vs 80% So schaut die traurige Wahrheit DERZEIT aus. (neuer HL2 Nvidia Treiber kann ja allen Erwartungen zum Trotz immer noch kommen)Nö.
So sieht er derzeit bei HL2 vs. D3 aus.

Und Dir ist ja wohl auch bekannt, dass ATI erst mit neueren Treibern den Abstand zu nVidia reduzieren konnte (Shader-Replacement ahoi ;-). Warum aber ATI trotz des wesentlich höheren Taktes noch immer "10%" langsamer ist, als nVidia, wird dann ja vermutlich ein nicht zu ergründendes Geheimnis bleiben...
:D

Razor

r@w
2004-11-23, 14:06:22
Öhm... P.S.: mit SLI ist nVidia 'etwas' schneller... kommt mit den 10% dann leider nicht mehr so ganz hin ;)

r@w
2004-11-23, 14:07:55
Sorry aber wie es aussieht konnte Valve da nix machen, auch wenn sie es wollten.Das Problem ist ja, dass Valve ja was gemacht hat und diesen Aufwand auch bezifferte.
Nur ist davon nun leider nichts mehr zu sehen...

Razor

MegaManX4
2004-11-23, 14:08:29
Wieso sollte die Latenz grösser werden? Wenn kein Pre-Render Blocker in der Software ist wird sie sogar geringer. Allerdings auch nicht geringer als bei einer gleichschnellen Einchiplösung. Mit Pre-Render Blocker sieht es minimal anders aus. Dort bleibt die Latenz gleich. Ein schnellere Chip würde diese reduzieren können.

Ich bitte hier mal um ein wenig Hilfe, ich verstehe einfach nicht warum es überhaupt zu einer Latenz kommen sollte.

Wir haben 2 Grafikkarten die beim AFR Verfahren 2 unterschiedliche Bilder rendern. Soweit ists mir klar. Während Bild 1 angezeigt wird, wird Bild 2 schon in den Framebuffer der ersten Karte geschoben und dann angezeigt. Wie kann sich da eine Latenz einschleichen?
Die Ursache für Bild 2 ist doch die Eingabe des Benutzers. Bild 2 hat sich doch gegenüber Bild 1 nur deswegen verändert, weil ich als Benutzer eine Bewegung/Aktion der Spielfigur ausgelöst habe. Bild 2 ist also eine direkte Folge meiner Eingabe. Wo soll hier eine Latenz entstehen?

Klar, es gibt auch Situationen, in der Bilder nicht eine Folge einer direkten Benutzereingabe sind, z.B Filme in der Spielgrafik. Aber da kann einem Latenz, so es sie geben sollte, gar nicht auffallen.

Du erwähntest auch Pre-Rendering. Wieder etwas das ich nicht verstehe. Dem Namen her bedeutet es für mich, daß das Grafiksystem Bilder vorberechnet obwohl es dafür keine Ursache gibt. Würde das nicht bedeuten, daß die Grafikkarten annehmen, das sich der Bildschirminhalt in der Zeitspanne die die Pre-Render-Bilder in Anspruch nehmen, nicht ändert? Dann würde doch ein plötzlicher Szenenwechsel die im vorraus geleistete Arbeit zunichte machen, oder?

Ich bitte um Erleuchtung.

r@w
2004-11-23, 14:09:13
Also im aktuellen Shadermark liegt ein NV40 in ALLEN PS2.0 Shadern deutlich hinter einem R420 (auch taktbedingt).Nicht 'auch', sondern ausschließlich...
;)

Razor

Demirug
2004-11-23, 14:12:13
Also im aktuellen Shadermark liegt ein NV40 in ALLEN PS2.0 Shadern deutlich hinter einem R420 (auch taktbedingt).

23 von vielen abertausend möglichen Shadern. Zudem erinnere ich mich daran Tests gesehen zu haben wo ein NV40 bei einzelnen Shadern vor einem R420 lag. Zudem sollten wir in diesem Fall besser die Produktbezeichnungen benutzen. Von den Chips werden einfach zu viele Varianten verkauft.

mapel110
2004-11-23, 14:16:30
Seite A:

ATI Yeah NV Buuhh

Seite N:

NV Yeah ATI Buuhh

Nachdem das endlich geklärt wäre schauen wir gemeinsam auf den Threadtitel und erkennen, daß das hier nicht das Thema ist.

MODschaft:
Bitte aufräumen.

Rest:
Weitermachen. Aber bitte nicht so.

Lässt sich in solch einen Thread wohl nicht vermeiden. Topic ist ja mehr oder weniger ausgelutscht, also lassen wir die Kinder ein wenig spielen, solange es noch das eine oder andere Sachliche Posting gibt. :)

Demirug
2004-11-23, 14:19:45
Ich bitte hier mal um ein wenig Hilfe, ich verstehe einfach nicht warum es überhaupt zu einer Latenz kommen sollte.

Wir haben 2 Grafikkarten die beim AFR Verfahren 2 unterschiedliche Bilder rendern. Soweit ists mir klar. Während Bild 1 angezeigt wird, wird Bild 2 schon in den Framebuffer der ersten Karte geschoben und dann angezeigt. Wie kann sich da eine Latenz einschleichen?
Die Ursache für Bild 2 ist doch die Eingabe des Benutzers. Bild 2 hat sich doch gegenüber Bild 1 nur deswegen verändert, weil ich als Benutzer eine Bewegung/Aktion der Spielfigur ausgelöst habe. Bild 2 ist also eine direkte Folge meiner Eingabe. Wo soll hier eine Latenz entstehen?

Klar, es gibt auch Situationen, in der Bilder nicht eine Folge einer direkten Benutzereingabe sind, z.B Filme in der Spielgrafik. Aber da kann einem Latenz, so es sie geben sollte, gar nicht auffallen.

Du erwähntest auch Pre-Rendering. Wieder etwas das ich nicht verstehe. Dem Namen her bedeutet es für mich, daß das Grafiksystem Bilder vorberechnet obwohl es dafür keine Ursache gibt. Würde das nicht bedeuten, daß die Grafikkarten annehmen, das sich der Bildschirminhalt in der Zeitspanne die die Pre-Render-Bilder in Anspruch nehmen, nicht ändert? Dann würde doch ein plötzlicher Szenenwechsel die im vorraus geleistete Arbeit zunichte machen, oder?

Ich bitte um Erleuchtung.

Eine Input-Output Latenz hat man immer. Hierbei wird die Zeit gemesen die zwischen einer Eingabe (Maus; Keyboard) und der sichtbaren Reaktion auf dem Bildschirm vergeht. Diese setzt sich zusammen aus der Zeit bis die eingabe erfasst und verrechnet wird. Das Verrechnen teilt sich wiederum in den CPU und GPU Teil auf die aber auch überlappen können.

Beim Pre-Rendering werden lediglich die Anweisungen die zum rendern benötigt werden in einen Buffer geschrieben. In der Regel bis zu 3 Frames. Da das alles gerendert werden muss wird sich die Latenz entsprechend erhöhen weil die CPU schon wieder Daten schiebt und die GPU noch an einem Frame rendert der schon ein Stück zurück liegt.

StefanV
2004-11-23, 14:21:02
Ich bitte hier mal um ein wenig Hilfe, ich verstehe einfach nicht warum es überhaupt zu einer Latenz kommen sollte.

Wir haben 2 Grafikkarten die beim AFR Verfahren 2 unterschiedliche Bilder rendern. Soweit ists mir klar. Während Bild 1 angezeigt wird, wird Bild 2 schon in den Framebuffer der ersten Karte geschoben und dann angezeigt. Wie kann sich da eine Latenz einschleichen?
Die Ursache für Bild 2 ist doch die Eingabe des Benutzers. Bild 2 hat sich doch gegenüber Bild 1 nur deswegen verändert, weil ich als Benutzer eine Bewegung/Aktion der Spielfigur ausgelöst habe. Bild 2 ist also eine direkte Folge meiner Eingabe. Wo soll hier eine Latenz entstehen?

Klar, es gibt auch Situationen, in der Bilder nicht eine Folge einer direkten Benutzereingabe sind, z.B Filme in der Spielgrafik. Aber da kann einem Latenz, so es sie geben sollte, gar nicht auffallen.

Du erwähntest auch Pre-Rendering. Wieder etwas das ich nicht verstehe. Dem Namen her bedeutet es für mich, daß das Grafiksystem Bilder vorberechnet obwohl es dafür keine Ursache gibt. Würde das nicht bedeuten, daß die Grafikkarten annehmen, das sich der Bildschirminhalt in der Zeitspanne die die Pre-Render-Bilder in Anspruch nehmen, nicht ändert? Dann würde doch ein plötzlicher Szenenwechsel die im vorraus geleistete Arbeit zunichte machen, oder?

Ich bitte um Erleuchtung.

Eben, dadurch hast du einen Frame latenz...

Demirug
2004-11-23, 14:24:01
Nicht 'auch', sondern ausschließlich...
;)

Razor

IIRC liegen ein paar der Shader einem R420 wirklich gut. Da kommt ein NV40 auch taktbereinigt nicht ganz ran.

tombman
2004-11-23, 14:29:54
del

tombman
2004-11-23, 14:30:43
Öhm... P.S.: mit SLI ist nVidia 'etwas' schneller... kommt mit den 10% dann leider nicht mehr so ganz hin ;)

Was soll der Blödsinn denn jetzt?

Es geht hier um EINE Karte gegen EINE Karte. Und da ist ATi bei HL2 nun mal bis zu 80% schneller, während Nvidia in D3 nur lächerliche 10% schneller ist.

Und es geht eben auch darum, daß Nvidia ocing bereinigt 2 KArten braucht um so schnell wie EINE Ati Karte in HL2 zu sein.

Aber bitte, red noch 10 mal dagegen mit absurden Argumenten, dann muß ich diese Aussage eben noch 10 mal wiederholen und noch viel MEHR user und noobs begreifen es dann :D (und das wirst DU ned wollen :cool:)

tombman
2004-11-23, 14:33:09
Eben, dadurch hast du einen Frame latenz...

Ein frame Latenz??

Is mir sowas von egal, denn mit SLi wird man so gut wie immer 60fps haben mit Maximum Details, und ob ich jetzt 1/60sec etwas später bemerke hat sowas von 0 Auswirkung ;)

Bin ja kein Profi CS Kiddie, daß sowas was ausmachen würde :D:D

MegaManX4
2004-11-23, 14:34:17
Eine Input-Output Latenz hat man immer. Hierbei wird die Zeit gemesen die zwischen einer Eingabe (Maus; Keyboard) und der sichtbaren Reaktion auf dem Bildschirm vergeht. Diese setzt sich zusammen aus der Zeit bis die eingabe erfasst und verrechnet wird. Das Verrechnen teilt sich wiederum in den CPU und GPU Teil auf die aber auch überlappen können.

Beim Pre-Rendering werden lediglich die Anweisungen die zum rendern benötigt werden in einen Buffer geschrieben. In der Regel bis zu 3 Frames. Da das alles gerendert werden muss wird sich die Latenz entsprechend erhöhen weil die CPU schon wieder Daten schiebt und die GPU noch an einem Frame rendert der schon ein Stück zurück liegt.

Wäre es dann nicht besser überhaupt nicht zu "pre-rendern"?

MegaManX4
2004-11-23, 14:35:10
Eben, dadurch hast du einen Frame latenz...

Arrgh, bitte nicht so kryptisch. Bitte im Detail erklären. Irgendwie habe ich hier eine Denkblockade...

Bild 2 wäre ja in meinem beschriebenen Fall kein wirkliches Pre-Render-Bild, da es ja auf Eingaben des Benutzers basiert. Oder nicht?

StefanV
2004-11-23, 14:38:55
Arrgh, bitte nicht so kryptisch bitte. Bitte im Detail erklären. Irgendwie habe ich hier eine Denkblockade...
Wenn du jetzt Frame A renderst und gleichzeitig Frame B renderst und die Maus bewegst, dann kann frühestens Frame C die neuen Informationen erhalten.

Bei einer Grafikkarte hättest du jetzt bei Frame B schon die neuen Informationen (=Bewegung der Maus).

PS: dieses Posting ist vereinfacht, double und trippel Buffering nicht berücksichtigt ;)

Black-Scorpion
2004-11-23, 14:44:21
JC hat ja auch geschrieben, warum der NV30-Pfad 'geknickt' wurde. Die Treiber (bzw. der interne Shader-Compiler) sollen mittlererweile so 'gut' sein, dass ein solcher Pfad (für seine Engine!) nun nicht mehr nötig ist. Und wie man gut an der Performance sehen kann, ist dem auch so.

Valve hingegen hat sich nicht geäussert und sollte dies dringend tun, um 'Mißverständnisse' zu vermeiden.
Sodenn dies denn überhaupt 'gewünscht' ist...

Razor
Ja, für die NV3x Serie wurde es gesagt.
Und wo ist das optimale für ATI Karten?
Selbst für nVidia Karten wurde nicht das optimale aus den Karten geholt.
Afaik sagte Demi mal das nVidia in den Treibern (für D³) noch weit mehr wie nur Shaderreplacement betreibt.
Also kannst du der Aussage von JC genause Vertrauen wie der von Valve.

Demirug
2004-11-23, 14:49:11
Wäre es dann nicht besser überhaupt nicht zu "pre-rendern"?

Aus Latenzsicht ja. Prerendering dient dazu die Auslastung von CPU und GPU zu erhöhen. Vorallem wenn man sich in einem Bereich bewegt indem man nicht klar bei einer der beiden Komponeten limitiert ist sondern das immer etwas schwankt.

Gast
2004-11-23, 14:54:08
23 von vielen abertausend möglichen Shadern. Zudem erinnere ich mich daran Tests gesehen zu haben wo ein NV40 bei einzelnen Shadern vor einem R420 lag.

PS2.0, nicht 3.0 ;)

MegaManX4
2004-11-23, 14:54:26
Wenn du jetzt Frame A renderst und gleichzeitig Frame B renderst und die Maus bewegst, dann kann frühestens Frame C die neuen Informationen erhalten.

Bei einer Grafikkarte hättest du jetzt bei Frame B schon die neuen Informationen (=Bewegung der Maus).

PS: dieses Posting ist vereinfacht, double und trippel Buffering nicht berücksichtigt ;)

Frame B muss doch aber auch auf einer Bewegungsänderung beruhen, oder ist es in deinem Beispiel nur ein Füll-Frame das quasi identisch mit Frame A ist?
Wenn Frame B und Frame A sich unterscheiden, sehe ich als Spieler dann doch genau das was ich durch meine Eingaben bestimmt habe. Dann folgt Frame C und fertig.

Oder bin ich komplett auf dem Holzweg?

StefanV
2004-11-23, 14:57:11
Frame B muss doch aber auch auf einer Bewegungsänderung beruhen, oder ist es in deinem Beispiel nur ein Füll-Frame das quasi identisch mit Frame A ist?
Wenn Frame B und Frame A sich unterscheiden, sehe ich als Spieler dann doch genau das was ich durch meine Eingaben bestimmt habe. Dann folgt Frame C und fertig.

Oder bin ich komplett auf dem Holzweg?
Etwas (aber du hasts bald ;)), da Frame A und Frame B in der AFR Variante noch mit 'alten Eingabedaten' (ie Tastendrücke, Mausbewegungen usw) gerendert wird.

r@w
2004-11-23, 15:07:58
IIRC liegen ein paar der Shader einem R420 wirklich gut. Da kommt ein NV40 auch taktbereinigt nicht ganz ran.Schon klar... aber manchmal hat so ein Smilie bei mir auch einen Sinn.
;)

Razor

Demirug
2004-11-23, 15:08:03
PS2.0, nicht 3.0 ;)

Ja, ich meinte mit dem 2.0 Profil. bei den meisten Shadern bringt ein anderes Profil sowieso nichts weil der entsprechenden Shader nichts enthält was durch das höhere Profil profitieren könnte. Die Instructionorder ist ja inzwischen kein Problem mehr weil nVidia das selbsttätig umsortiert.

r@w
2004-11-23, 15:12:43
Es geht hier um EINE Karte gegen EINE Karte. Und da ist ATi bei HL2 nun mal bis zu 80% schneller, während Nvidia in D3 nur lächerliche 10% schneller ist.Lächerlich?
Und das bei einem Taktunterschied von satten 120MHz (520 zu 400!)...
Sorry, aber unter 'lächerlich' verstehe ich schon etwas anderes.

Und es geht eben auch darum, daß Nvidia ocing bereinigt 2 KArten braucht um so schnell wie EINE Ati Karte in HL2 zu sein.Ach... und jetzt geht es nun doch wieder um SLI?
Was denn nu?

Sorry, aber irgendwie redest Du 'wirr'.
;)

Vergleiche ich die schnellste ATI-Lösung gegen die schnellste nVidia-Lösung, dann ist meine (D3), wie auch Deine (HL2) Aussage korrekt. Dass dieser Vergleich hinkt, ist klar... und genau das wollte ich Dir klar machen.

Das "muhahaaa" schenke ich mir mal...

Razor

r@w
2004-11-23, 15:14:30
Wenn du jetzt Frame A renderst und gleichzeitig Frame B renderst und die Maus bewegst, dann kann frühestens Frame C die neuen Informationen erhalten.

Bei einer Grafikkarte hättest du jetzt bei Frame B schon die neuen Informationen (=Bewegung der Maus).

PS: dieses Posting ist vereinfacht, double und trippel Buffering nicht berücksichtigt ;)Das Problem hast Du doch aber auch, wenn Du vSync deaktivierst...
Wo ist jetzt also das Problem?
:confused:

Razor

r@w
2004-11-23, 15:15:51
Ja, für die NV3x Serie wurde es gesagt.
Und wo ist das optimale für ATI Karten?
Selbst für nVidia Karten wurde nicht das optimale aus den Karten geholt.
Afaik sagte Demi mal das nVidia in den Treibern (für D³) noch weit mehr wie nur Shaderreplacement betreibt.
Also kannst du der Aussage von JC genause Vertrauen wie der von Valve.Das Problem ist ja, dass es keine Aussage von Valve gibt!
(auch auf die Gefahr hin, mich schon wieder zu wiederholen ;-)

Razor

StefanV
2004-11-23, 15:16:00
Lächerlich?
Und das bei einem Taktunterschied von satten 120MHz (520 zu 400!)...
Sorry, aber unter 'lächerlich' verstehe ich schon etwas anderes.

Das ist nicht unser Problem, wenn nV nicht in der Lage ist, ihre Hardware so hoch zu prüglen, wie es ATi hinbekommt...

Außerdem hätte nV es wissen müssen, das der R420 so hoch geht, zumal der R300 auch schon sehr taktfreudig ist und mit bis zu ~400MHz Core Takt läuft trotz recht alter Fertigung...



Vergleiche ich die schnellste ATI-Lösung gegen die schnellste nVidia-Lösung, dann ist meine (D3), wie auch Deine (HL2) Aussage korrekt. Dass dieser Vergleich hinkt, ist klar... und genau das wollte ich Dir klar machen.

Das "muhahaaa" schenke ich mir mal...

Razor
Dennoch ists blödsinn irgendwas als 'ATI Optimiert' oder als 'nV Optimiert' darzustellen :rolleyes:...

StefanV
2004-11-23, 15:16:38
Das Problem ist ja, dass es keine Aussage von Valve gibt!
(auch auf die Gefahr hin, mich schon wieder zu wiederholen ;-)

Razor
Warum sollte Valve auch was sagen?!
Wo steht, das Valve was sagen muss/sollte?!

r@w
2004-11-23, 15:23:13
Das ist nicht unser Problem, wenn nV nicht in der Lage ist, ihre Hardware so hoch zu prüglen, wie es ATi hinbekommt...

Außerdem hätte nV es wissen müssen, das der R420 so hoch geht, zumal der R300 auch schon sehr taktfreudig ist und mit bis zu ~400MHz Core Takt läuft trotz recht alter Fertigung...Schon interessant, wie sich das Fähnchen in den (umgekehrten) Wind hängt...
Fällt Dir eigentlich auf, dass Du heute das Gegenteil anführst, als damals, als nVidia noch derjenige war, der 'nur' durch Takt gewann? Interessant, nicht wahr?
:D

Und um auf Dein Argument einzugehen... es war klar, dass der R420 so hoch geht, weil er ja im Prinzip nichts anderes ist (und auch nicht mehr kann), als ein aufgebohrter R300. Insofern ist es doch erstaunlich, wie ein Chip mit einer dermaßen großen Taktdifferenz mithalten kann.

Dennoch ists blödsinn irgendwas als 'ATI Optimiert' oder als 'nV Optimiert' darzustellen :rolleyes:...Nein ist es nicht.
Oder schenkst Du den Worten von Demirug keinen Glauben?
(und ich sage damit NICHT, dass Demirug meiner Argumentation folgt!)

Razor

Xmas
2004-11-23, 15:24:55
Also im aktuellen Shadermark liegt ein NV40 in ALLEN PS2.0 Shadern deutlich hinter einem R420 (auch taktbedingt).
Hast du einen Link zu aktuellen Shadermark-Ergebnissen. Hier im Benchmark-Forum finde ich leider nur einen Thread mit etwas älteren Ergebnissen, aber da liegen X800 XTPE und 6800Ultra fast gleichauf, und jede Karte kann einige Shader für sich entscheiden.



MegaManX4,
viele Bewegungsänderungen beruhen nicht auf Benutzereingaben, es gibt ja schließlich auch KI und Physik. CPU und GPU arbeiten asynchron. Während GPU1 eines SLI-Systems gerade an Frame 1 arbeitet, und GPU2 an Frame 2, arbeitet die CPU an Frame 3. Wenn jetzt Frame 1 fertig ist und zur Anzeige kommen soll, beginnt die CPU mit Frame 4. Die CPU kann nicht mitten im Frame die User-Eingaben berücksichtigen, das muss am Anfang geschehen. Da der User Frame 1 hier aber noch gar nicht gesehen hat, können die Reaktionen des Users auf Frame 1 frühestens in Frame 5 überhaupt sichtbar sein.

MegaManX4
2004-11-23, 15:25:07
Etwas (aber du hasts bald ;)), da Frame A und Frame B in der AFR Variante noch mit 'alten Eingabedaten' (ie Tastendrücke, Mausbewegungen usw) gerendert wird.

Aha. Ich dachte das SLI-Frame B wäre das Equivalent von Frame B einer Single GPU.

Die Frage ist nur ob man diese Latenz bei 100fps überhaupt merkt. Man ist ja quasi nur 1-4 Frame zurück (je nach Pre-Render-Limit). Zur Rage Fury Maxx Zeit, meinte ich mal in einem Review gelesen zu haben, das einige diese sogenannten "Pro-Gamer" sowas tatsächlich bemerken. Ist halt die Frage ob ein Mensch dazu überhaupt in der Lage ist. Aber was solls, jetzt kann ich wenigstens ruhig schlafen ;).

r@w
2004-11-23, 15:26:15
Warum sollte Valve auch was sagen?!
Wo steht, das Valve was sagen muss/sollte?!Valve hat damals 'gesagt', dass sie viiiiieeeeeellll Zeit und Resourcen darauf verwenden, dem NV30 (meinetwegen auch der generellen SM2-Architektur nVidias) einen eigenen Pfad zu spendieren. Heute ist davon aber auch nicht die geringste Spur zu sehen. Aber, es gibt da einen recht großen Deal zwischen ATI und Valve und eine augenscheinlich große Performance-Lücke zwischen ATI und seinem größten Konkurrenten.

Ich hoffe, dass auch Du jetzt verstehst...
...ne, nicht wirklich!
:D

Razor

Moco
2004-11-23, 15:30:28
Aha, auch in diesem Thread geht es nebenbei mal wieder um ATi vs. Nv.
Ich selbst bin seit Jahren zufriedener NV-User, ohne das Ganze irgendwie emotional zu sehen.
Im Augenblick scheint es in der Tat so zu sein, daß ATi trotz aller Bemühungen seitens NV einen Geschwindigkeitsvorteil bei der Mehrheit der derzeitigen Toptitel, die auf neueste Grafik-Technologien setzen, für sich beanspruchen kann.

Ich sehe es auch so, daß der Grund für diesen offensichtlichen Vorsprung dem User vollkommen egal sein kann; ähnlich wie seinerzeit bei Glide. Die Hintergründe, welche auch immer das sein mögen, sind für den Gamer vollkommen uninteressant!

Für mich persönlich ergibt sich daraus allerdings überhaupt kein Grund, zu ATi zu wechseln. Denn eines muß mann NV zu gute halten: Die Kompatibilität ist über jeden Zweifel erhaben. Soll heißen: Ich kann mir sich sicher sein, daß ich jedes Spiel vernünftig zocken kann, wenn auch in einigen Fällen langsamer als bei ATi.
Ich persönlich könnte z.B. nichts mit einer Karte anfangen, die mit dem für mich nach wie vor wichtigsten Game (Neverwinter Nights) derartige Probs macht wie es ATi-Karten nun mal tun.

Naja, die Prioritäten liegen halt unterschiedlich.

Gruß-

Moco

Gast
2004-11-23, 15:34:43
Ich stell euch mal ne frage :)
Ist es nicht egal WIE man die fps erreicht ?(balkenlänge zählt) :)

und da hat NV einfach z.z wenn verfügbar das schnellste was ein Gamer bekommen kann.
Und da kommt nichtmal der r480 ran.

StefanV
2004-11-23, 15:35:14
Für mich persönlich ergibt sich daraus allerdings überhaupt kein Grund, zu ATi zu wechseln. Denn eines muß mann NV zu gute halten: Die Kompatibilität ist über jeden Zweifel erhaben. Soll heißen: Ich kann mir sich sicher sein, daß ich jedes Spiel vernünftig zocken kann, wenn auch in einigen Fällen langsamer als bei ATi.

Naja, das war vor langer Zeit mal so, aktuell schauts eher so aus, als ob das eher auf die ATI Karten zutrifft, warum auch immer...

Black-Scorpion
2004-11-23, 15:38:08
Das Problem ist ja, dass es keine Aussage von Valve gibt!
(auch auf die Gefahr hin, mich schon wieder zu wiederholen ;-)

Razor
Das ist vielleicht für dich ein Problem. ;)
Für mich nicht, da das Beispiel JC zeigt das du keiner der beiden Aussagen glauben kannst.
Valve sagte sie optimieren.
JC sagte er holt das beste aus den Karten.
Was ist von beiden Aussagen übriggeblieben? Nichts!

Beide haben mit den Aussagen die User verar***t.
Nur mit dem Unterschied das JC es für die NV3x Besitzer zugegeben hat (für die anderen nicht).
Ob danach noch eine Aussage von jemanden kommt ist ega, verar***t ist Verar***t.

Moco
2004-11-23, 15:46:02
@ Stefan: Leider nein! Versuch mal mit 'ner Ati-Karte Neverwinter Nights zu zocken; viel Spaß...

Tigerchen
2004-11-23, 15:50:54
23 von vielen abertausend möglichen Shadern. Zudem erinnere ich mich daran Tests gesehen zu haben wo ein NV40 bei einzelnen Shadern vor einem R420 lag. Zudem sollten wir in diesem Fall besser die Produktbezeichnungen benutzen. Von den Chips werden einfach zu viele Varianten verkauft.

Das hieße ja Valve müßte bei ihren (tausenden?) Shadern expliziert darauf achten daß sie auf nV-Hardware schlecht läuft. Zumindest wenn razor Recht haben sollte und HL² absichtlich extra langsam(er) auf nV-Hardware läuft.

Tigerchen
2004-11-23, 15:54:37
Valve hat damals 'gesagt', dass sie viiiiieeeeeellll Zeit und Resourcen darauf verwenden, dem NV30 (meinetwegen auch der generellen SM2-Architektur nVidias) einen eigenen Pfad zu spendieren. Heute ist davon aber auch nicht die geringste Spur zu sehen. Aber, es gibt da einen recht großen Deal zwischen ATI und Valve und eine augenscheinlich große Performance-Lücke zwischen ATI und seinem größten Konkurrenten.

Ich hoffe, dass auch Du jetzt verstehst...
...ne, nicht wirklich!
:D

Razor

Vielleicht haben sie es aufgegeben weil der Aufwand für diese Karten dann doch zu groß war. Zumal die Akzeptanz der FX-Serie bei Gamern ja niicht so toll war. Für die paar FX5900/5950 User ist es wohl kaum lohnend.

Demirug
2004-11-23, 17:21:41
Das hieße ja Valve müßte bei ihren (tausenden?) Shadern expliziert darauf achten daß sie auf nV-Hardware schlecht läuft. Zumindest wenn razor Recht haben sollte und HL² absichtlich extra langsam(er) auf nV-Hardware läuft.


Es sind nur wenige Grundshader aus denen per Permutation dann viele Shader entstehen. Zudem musste da ja Valve gar nicht darauf achten weil nach dem Source Diebstahl ja bekannt wurde das ATI an den Shadern mit programmiert hat.

Demirug
2004-11-23, 17:22:34
Vielleicht haben sie es aufgegeben weil der Aufwand für diese Karten dann doch zu groß war. Zumal die Akzeptanz der FX-Serie bei Gamern ja niicht so toll war. Für die paar FX5900/5950 User ist es wohl kaum lohnend.


Wieso aufgegeben? Es war doch fertig.

Jesus
2004-11-23, 18:56:15
@ Stefan: Leider nein! Versuch mal mit 'ner Ati-Karte Neverwinter Nights zu zocken; viel Spaß...

öh hab ich , wo ist da das Problem ?

Quasar
2004-11-23, 19:43:17
Ich stell euch mal ne frage :)
Ist es nicht egal WIE man die fps erreicht ?(balkenlänge zählt) :)

und da hat NV einfach z.z wenn verfügbar das schnellste was ein Gamer bekommen kann.
Und da kommt nichtmal der r480 ran.

Ich vermute mal, dieses "Argument" wird auf weiter Strecke ignoriert werden - die Gründe dürften offensichtlich sein.

Botcruscher
2004-11-23, 22:26:19
http://www.de.tomshardware.com/graphic/20041123/index.html

SLI-Test.

Gast
2004-11-23, 22:40:04
http://www.de.tomshardware.com/graphic/20041123/index.html

SLI-Test.

Das Fazit is goil :)

Fazit: Alles wird platt gemacht


Und man staune das es in HL2 stellen gibt wo die x800 net sooo arg schneller is als eine 6800u

Botcruscher
2004-11-23, 22:42:23
Mit einem 17 TFT macht das höchstens die Brieftasche platt... ;)

Gast
2004-11-23, 22:50:06
Mit einem 17 TFT macht das höchstens die Brieftasche platt... ;)


das sind gern genommene ausreden :)
ob ich nun 2x im jahr neue hardware kauf (zb. gfx) oder einmal das mit sli
is wurscht
da kommt am ende das selbe raus (leistung) oda net?

aber is ja auch egal :)

Gast
2004-11-23, 22:51:29
Mit einem 17 TFT macht das höchstens die Brieftasche platt... ;)

aber in deinem fall hast du recht
mit einem 17" bringt es nix
schade ums geld :)

dildo4u
2004-11-23, 23:33:45
Tjo damit kann man die sache eigentlich auch abhacken.:down:


"Existiert für ein Spiel kein Profil, gibt es einfach kein SLI Rendering! Das Erstellen eigener Profile ist derzeit nicht möglich. Laut NVIDIA existieren im Treiber aber bereits über 50 Profile für Spiele mit SLI. Bei neueren Titeln heißt es für Besitzer von SLI-Systemen also: Warten auf einen neuen Treiber. Aber auch dann ist nicht garantiert, dass SLI mit diesem Spiel möglich sein wird. So soll es Spiele geben, die einfach nicht mit dem SLI-Betrieb kompatibel sind. Microsofts Flight Simulator 9 und Novalogics Joint Operations verursachen beispielsweise Probleme. Woran es genau liegt, konnten wir zum Testzeitpunkt noch nicht herausfinden. NVIDIA spricht nur von Frame-Buffering-Techniken, die in solchen Spielen zum Einsatz kommen und die für SLI problematisch sind. Von den 10 Spielen, die wir für diesen Test vorgesehen haben, waren 2 nicht SLI-kompatibel. NVIDIA will immerhin eine Übersicht ins Netz stellen, in der alle SLI-tauglichen Spiele gelistet sind."

Gast
2004-11-24, 00:36:13
Tjo damit kann man die sache eigentlich auch abhacken.:down:


"Existiert für ein Spiel kein Profil, gibt es einfach kein SLI Rendering! Das Erstellen eigener Profile ist derzeit nicht möglich. Laut NVIDIA existieren im Treiber aber bereits über 50 Profile für Spiele mit SLI. Bei neueren Titeln heißt es für Besitzer von SLI-Systemen also: Warten auf einen neuen Treiber. Aber auch dann ist nicht garantiert, dass SLI mit diesem Spiel möglich sein wird. So soll es Spiele geben, die einfach nicht mit dem SLI-Betrieb kompatibel sind. Microsofts Flight Simulator 9 und Novalogics Joint Operations verursachen beispielsweise Probleme. Woran es genau liegt, konnten wir zum Testzeitpunkt noch nicht herausfinden. NVIDIA spricht nur von Frame-Buffering-Techniken, die in solchen Spielen zum Einsatz kommen und die für SLI problematisch sind. Von den 10 Spielen, die wir für diesen Test vorgesehen haben, waren 2 nicht SLI-kompatibel. NVIDIA will immerhin eine Übersicht ins Netz stellen, in der alle SLI-tauglichen Spiele gelistet sind."

Abhaken würde auch reichen. Ne, im Ernstl, ich wusste gar ned, dass dieses SLI noch an derartige Voraussetzungen gebunden ist.
So find ich es irgendwie nicht so dolle. Ok, ich hätts eh nie gekauft, aber nun ist es effektiv nahezu nutzlos.
Mal sehen, ob ATI's AMR hier besser sein wird.

Gast
2004-11-24, 00:37:19
Das Fazit is goil :)

Fazit: Alles wird platt gemacht


Und man staune das es in HL2 stellen gibt wo die x800 net sooo arg schneller is als eine 6800u

Das Fazit ist eine PEINLICHKEIT für manch einem hier

Gast
2004-11-24, 00:38:47
Abhaken würde auch reichen. Ne, im Ernstl, ich wusste gar ned, dass dieses SLI noch an derartige Voraussetzungen gebunden ist.
So find ich es irgendwie nicht so dolle. Ok, ich hätts eh nie gekauft, aber nun ist es effektiv nahezu nutzlos.
Mal sehen, ob ATI's AMR hier besser sein wird.

AMR brauchen se doch gar nicht mehr!

Ich sehe jetzt schon die Dev.-Träume, einen Treiber zu schreiben der die ATI Stärken und NV-Stärken vereint.

;)

mapel110
2004-11-24, 02:11:19
http://www.anandtech.com/video/showdoc.aspx?i=2284


http://www.anandtech.com/video/showdoc.aspx?i=2284&p=5
237 zu 329 Watt

NVIDIA ForceWare 69.33 Drivers *habenwill* =)

/edit
http://www.hardocp.com/article.html?art=Njk2LDE=
http://www.firingsquad.com/hardware/nvidia_nforce_4_sli/

Quasar
2004-11-24, 07:00:20
Tjo damit kann man die sache eigentlich auch abhacken.:down:


"Existiert für ein Spiel kein Profil, gibt es einfach kein SLI Rendering! Das Erstellen eigener Profile ist derzeit nicht möglich. Laut NVIDIA existieren im Treiber aber bereits über 50 Profile für Spiele mit SLI. Bei neueren Titeln heißt es für Besitzer von SLI-Systemen also: Warten auf einen neuen Treiber. Aber auch dann ist nicht garantiert, dass SLI mit diesem Spiel möglich sein wird. So soll es Spiele geben, die einfach nicht mit dem SLI-Betrieb kompatibel sind. Microsofts Flight Simulator 9 und Novalogics Joint Operations verursachen beispielsweise Probleme. Woran es genau liegt, konnten wir zum Testzeitpunkt noch nicht herausfinden. NVIDIA spricht nur von Frame-Buffering-Techniken, die in solchen Spielen zum Einsatz kommen und die für SLI problematisch sind. Von den 10 Spielen, die wir für diesen Test vorgesehen haben, waren 2 nicht SLI-kompatibel. NVIDIA will immerhin eine Übersicht ins Netz stellen, in der alle SLI-tauglichen Spiele gelistet sind."
Das habe ich auch gedacht. SLi nur für ausgewählte Titel ist wie Shaderreplacement im Treiber: Volle Performance nur nach Gusto von nV.

Gerade für ältere Titel wäre das eine willkommene Gelegenheit, diese vielleicht mal mit absoluten Overkill-Einstellungen, wie 2048er Auflösung mit etwas Supersampling und AF zu zocken.

edit:
Weiteres Fazit zu THG: UT2004, Call of Duty, The Sims, MSFS2004, Battlefield Vietnam und HL2 sind auch ohne SLi mehr als schnell genug, Doom3 nur für 1600x1200 mit AA/AF sinnig, Far Cry nur in 1600x1200 oder 1280x1024 mit AA/AF.

Wenn man schon den Nutzen von SLi herausstellen will, sollte man sich von den eingefahrenen Testmustern lösen - daß zwei Grafikkarten schneller sind als eine, sollte auch so klar sein. Eher interessant wäre gewesen, zu sehen, wieviel Bildqualität man bei noch spielbaren FPS erzielen kann. Schade, THG.

Demirug
2004-11-24, 07:24:29
Tjo damit kann man die sache eigentlich auch abhacken.:down:


"Existiert für ein Spiel kein Profil, gibt es einfach kein SLI Rendering! Das Erstellen eigener Profile ist derzeit nicht möglich. Laut NVIDIA existieren im Treiber aber bereits über 50 Profile für Spiele mit SLI. Bei neueren Titeln heißt es für Besitzer von SLI-Systemen also: Warten auf einen neuen Treiber. Aber auch dann ist nicht garantiert, dass SLI mit diesem Spiel möglich sein wird. So soll es Spiele geben, die einfach nicht mit dem SLI-Betrieb kompatibel sind. Microsofts Flight Simulator 9 und Novalogics Joint Operations verursachen beispielsweise Probleme. Woran es genau liegt, konnten wir zum Testzeitpunkt noch nicht herausfinden. NVIDIA spricht nur von Frame-Buffering-Techniken, die in solchen Spielen zum Einsatz kommen und die für SLI problematisch sind. Von den 10 Spielen, die wir für diesen Test vorgesehen haben, waren 2 nicht SLI-kompatibel. NVIDIA will immerhin eine Übersicht ins Netz stellen, in der alle SLI-tauglichen Spiele gelistet sind."

Soweit ich bisher sehen konnte (in ermangeln eines SLI Systems aber nicht ausprobieren) liegen die SLI Informationen mit in der Datei nvapps.xml. Es wäre also ein leichtes da noch zusätzliche Einträge zu ergänzen. Problematisch ist nur das man da aufgrund der schon eingetragenen Werte mehr als nur AFR oder SFR einstellen kann. Wenn man diese Spezialitäten aber nicht braucht sollte man reines AFR/SFR hinbekommen können.

Spasstiger
2004-11-24, 07:40:17
Der Erfolg von SLI ist in meinen Augen doch arg anzuzweifeln.
Derzeit braucht eigentlich niemand die Leistung von 2 GeForce 6800 Ultra Karten, eine Radeon X800 XT PE ist mit ihrem schönen 6-fach AntiAliasing eigentlich die bessere Wahl für High-End-Gamer. SuperSampling Tests mit SLI hab ich leider noch keine gesehen.
Und bis Games auch in üblichen Settings soviel Grafikpower brauchen, gibts für normales Geld schnellere Karten und durch den Verkauf der alten Karte kann man auch noch was gutmachen.
Und der spätere Nachkauf einer zweiten Karte ist auch nur bedingt interessant, weil SLI Mainboards sicher nicht billig sein werden und keiner investiert gerne 50-100 Euro mehr in eine Technik, die er dann evtl. gar nicht nutzt.

Gast
2004-11-24, 08:41:49
tja das hört sich fast so an als ob das tolle SLI inkompatibel mit Fullscreen Framebuffer Effekten wäre. Dann schonmal gute Nacht, denn die werden wir mit Sicherheit in dem kommenden Games noch in wesentlich stärkerem Umfang sehen als es jetzt der Fall ist.

-> Griff ins Klo NV ! :(


Das mit "für jedes Spiel ein Treiber" ist doch jetzt schon fast so. Welches neue Game läuft denn (auf meiner FX z.b.) mit einem Treiber schon stabil / schnell und ohne Grafikfehler? Das dauert immer 1 bis 2 Revisionen bis da mal was geht. Von daher sehe ich da keine Änderung zur jetzigen Situation.

Gast
2004-11-24, 08:52:17
Und man staune das es in HL2 stellen gibt wo die x800 net sooo arg schneller is als eine 6800u

ATI Catalyst v4.11, kein Wunder ;)
Sonst wärs wohl peinlich geworden wenn die X800 in allen Auflösungen schneller ist als ein 6800U SLI System (was sie dann wohl knapp wäre).

Demirug
2004-11-24, 09:05:12
tja das hört sich fast so an als ob das tolle SLI inkompatibel mit Fullscreen Framebuffer Effekten wäre. Dann schonmal gute Nacht, denn die werden wir mit Sicherheit in dem kommenden Games noch in wesentlich stärkerem Umfang sehen als es jetzt der Fall ist.

-> Griff ins Klo NV ! :(


Das mit "für jedes Spiel ein Treiber" ist doch jetzt schon fast so. Welches neue Game läuft denn (auf meiner FX z.b.) mit einem Treiber schon stabil / schnell und ohne Grafikfehler? Das dauert immer 1 bis 2 Revisionen bis da mal was geht. Von daher sehe ich da keine Änderung zur jetzigen Situation.

AFR ist kompatibel zu Fullscreen Posteffekten. Bei SFR ist es dagegen schon etwas kritischer. Es funktioniert aber man hat einen Overhead für das Zusammenkopieren der Textureteile der grösser sein kann als das was man spart. Primär ein Bandbreitenproblem (Chip-Speicher und Chip-Chip).

incurable
2004-11-24, 09:38:01
Also nach den ersten Artikeln ist meine Vorfreude auf SLi merklich gesunken, insbesondere die Treiber-Abhängigkeit, die weitgehend nicht vorhandenen Vorteile bei meiner "Auflösung der Wahl" (1280x1024, TFT-induziert) und die wahnwitzigen idle-Stromverbräuche lassen mich vor einem Kauf zurückschrecken.

tombman
2004-11-24, 10:08:56
@ r@w... red mit dir selbst weiter, polemisieren kannst allein besser...

und jetzt zu dem viel wichtigeren ON-T :D:

tjo, meine Freude sinkt auch je mehr reviews ich lese.

Ganz am Anfang dachte ich, SLI sei völlig transparent wie zu 3dfx Zeiten, aber so suckt es echt.

Nvidia wird natürlich die mainstream benchmarks in die Liste aufnehmen, dazu noch ein paar extreme hypegames und das wars dann.

So Sachen wie Gothic II in 2048 mit 4xSSAA kann man dann vergessen, oder andere kranke Experimente um die Graka zu quälen ;)

Des peinlichste ist ja, daß ausgerechnet HDR in Far Cry SLI völlig zusammenbrechen läßt-- gerade da wo man die Leistung schwer brauchen würde...

Nicht gehypte games wird man dann wahrscheinlich gar ned zum laufen bekommen--- oder bis irgendein freak rausbekommt welche Hacks man in der Liste aktivieren muß um es doch zum laufen zu bringen; zumindest AFR sollte gehen.

Oder es kommt im Jahre Schnee, wahrscheinlich wann der R520 am Markt ist (muahahah) , neue Treiber hinaus die dann, oh Wunder, SLI bei gewissen games dann doch freischalten ...rofl ... oder eigentlich eher *heul*

Naja, warten wir mal die ersten user reviews mit final hw und sw ab---- und i weiß ned ob ICH die liefern werde nach diesen ersten Aussichten :(

p.s.: hmm, wie war das noch mit Alienwares Video Array Technik -- geht immer? :D:D
2x X850 @ alienware? :D:D

tombman
2004-11-24, 10:27:31
@ demirug

Könntest du mal bitte das hier
http://www.alienware.com/ALX_pages/main_content.aspx
checken und uns sagen ob Alienware wirklich das erreicht was Nvidias SLI nicht schafft`Nämlich völlige Transparenz?

Hier der beste Teil der ALX FAQs

Compare Alienware's Video Array to Nvidia's SLI

Similarities:

Goal –
Both technologies have the same objective; to dramatically increase the graphics performance of your PC by using multiple graphics cards working together to draw the same image.
Performance –
The performance increase resulting from either technology could be up to 100%. These gains will be realized in applications that are primarily limited by the GPU. For example, rendering software, CAD/CAM programs, and the latest games like Far Cry, Half-Life 2, and Doom 3.
Both technologies require extra overhead (e.g. textures have to be sent to both video cards). Therefore, some data travels twice through the PCI Express bus and, as a result, the average performance increase could be less than 100%.
Differences:

Flexibility –
Alienware’s Video Array works with video cards from any manufacturer; ATI, NVidia, 3DLabs, Matrox, or others. Since you are not tied to any one manufacturer’s products, you can configure the Video Array with the video cards that work best for your application.
The Video Array uses off-the-shelf video cards and drivers. There is no need to have any special provisions in hardware or software for Video Array to work. When there is a new feature or optimization implemented in the drivers, they become readily available through Video Array.
Alienware’s Video Array is not limited to 2 video cards. Future implementations may take advantage of this and put 4 or more video cards into one system. This would probably be more geared towards professional applications like rendering farms.

Full Solution –
It’s not enough just to get two high-performance video cards to work in parallel. The combined power requirement and increased heat generated by two graphics cards are beyond the capabilities of most PCs on the market today. As a result, Alienware has engineered complete power and Silent Liquid Cooling systems for Video Array and will be bringing the total system solution to market in the ALX line of high-performance PCs.

Features –
Video Array implements Frame Locking with any video cards, a feat previously available exclusively on extremely high-end professional class video cards. Frame locking synchronizes display refresh and buffer swaps across multiple cards, preventing visual artifacts and ensuring image continuity in multi-monitor (or multiple video card) applications like simulations.



Will this require driver support from the graphics card manufacturers?

This will not require driver support from the graphics card manufacturers. The system was designed to be independent of the video card manufacturers’ drivers, using Alienware’s Video Array (including software and merger hub) and X2 motherboard.


Wieso beginne ich den Video Merger HUB zu lieben? :D:D

Demirug
2004-11-24, 10:56:22
@ demirug

Könntest du mal bitte das hier
http://www.alienware.com/ALX_pages/main_content.aspx
checken und uns sagen ob Alienware wirklich das erreicht was Nvidias SLI nicht schafft`Nämlich völlige Transparenz?

Die FAQ kenne ich. Die Technik von Alienware hat aber die gleichen Problemen wie nVidias SLI. Im Prinzip sogar noch verstärkt weil sie...

... keine direkte Möglichkeit haben Daten von Karte A nach Karte B zu bekommen.

... AFAIK kein AFR Modus haben.

Der zusätzliche Treiberlayer den sie brauchen wird mit hoher Wahrscheinlichkeit auch eine höhere CPU Last verursachen als das im Treiber fest eingebaute SLI. Unterhalb dieses Layers arbeiten dann ja noch 2 Standardtreiber welche entsprechend dann alle arbeiten 2 mal erledigen müssen.

Bei "exotischen" Rendertechniken wird also Alienware auch nicht umhin kommen den Zusatzlayer anzupassen und bei gewissen Effekten entweder auf Multichip komplett verzichten müssen oder ein falsche Resultat liefern.

robbitop
2004-11-24, 12:06:31
würde Supertiling all diesen Problemen aus dem Weg gehen?
Wenn ja, warum macht man es über AFR?

Grestorn
2004-11-24, 12:53:10
Naja, das war vor langer Zeit mal so, aktuell schauts eher so aus, als ob das eher auf die ATI Karten zutrifft, warum auch immer...Stimmt nicht. Und eigentlich kann das nur jemand behaupten oder wiederlegen, der Karten von beiden Hersteller gleichzeitig benutzt.

Derzeitiger Stand bei mir (Spiele bei denen ich zeitweise Probleme hatte):

nVidia: 1 (*)
ATI: 3 (**)

*) EQ2 Beta lief mit dem 61.72 nicht einwandfrei. Man musste einen Beta-Treiber nutzen, aber freundlicherweise hat nVidia noch vor dem Release von EQ2 einen korrigierten Treiber offiziell freigegeben. Also keine echten Einschräknungen hier.

**) Die Schatten- und OpenGL-Geschichte, über die ich in anderen Threads ja schon ausführlich geschrieben habe. Beides hat ein Spielen bestimmter Spiele über mehrere Monate unmöglich gemacht.

Demirug
2004-11-24, 13:18:11
würde Supertiling all diesen Problemen aus dem Weg gehen?
Wenn ja, warum macht man es über AFR?

Supertiling ist in dieser Beziehung auch nicht besser.

robbitop
2004-11-24, 13:25:30
Supertiling ist in dieser Beziehung auch nicht besser.
Warum, wenn man fragen darf?
Intern läuft doch seit R300 auch supertiling.

MechWOLLIer
2004-11-24, 16:37:45
Mhm, imo hat THG einige interessante Ergebnisse zum Vorschein gebracht.
So wundert es mich, dass SLI auch ohne SLI-Bridge zu funktionieren scheint. Dann schneller als nur mit einer Karte, aber langsamer als mit zweien.
Weiß einer, was denn genau die SLI Bridge macht und warum es auch ohne geht?

Demirug
2004-11-24, 17:06:27
Warum, wenn man fragen darf?
Intern läuft doch seit R300 auch supertiling.

Weil jede Art von Rendertargetsplit Variante Probleme bekommt wenn Render2Texture eingesetzt wird. In diesem Fall müssen entweder beide Chips die Texture vollständig rendern oder jeder Chip rendert einen Teil. Dann müssen aber sobald beide Chips fertig sind die jeweils fehlenden Teilen beim anderen durch kopieren ergänzt werden. Das könnte im schlimmsten Fall sogar länger dauern als wenn man beide gleich alles rendern lassen hätte.

Demirug
2004-11-24, 17:08:52
Mhm, imo hat THG einige interessante Ergebnisse zum Vorschein gebracht.
So wundert es mich, dass SLI auch ohne SLI-Bridge zu funktionieren scheint. Dann schneller als nur mit einer Karte, aber langsamer als mit zweien.
Weiß einer, was denn genau die SLI Bridge macht und warum es auch ohne geht?

Das was THG da gemssen hat kann eigentlich nicht sein. Nicht weil die Bridge gefehlt hat sondern weil MultiGPU deaktiviert war.

Die Bridge ist dazu da das sich die beiden Chips direkt unterhalten können.

tombman
2004-11-25, 02:41:43
Noch ein höchstinteressanter Satz im Anandtech review:

If the driver hasn’t been profiled with a game, it will default to single-GPU mode to avoid any rendering issues, but the user can always force SLI mode if they wish.

Hallo? Dh man kann also doch forcen? Und wie geht das?

edit: in den comments zu dem Artikel hat schon ein user gemeint, daß forcen nicht geht und anand crap schreibt. Ich hab jetzt selbst noch mal die Fragen gestellt dort, die wichtig sind.

MechWOLLIer
2004-11-25, 07:56:57
Aha, also THG schreibt, dass wenn kein Profil vorhanden ist man kein SLI bekommen kann, und Anandtech schreibt genau das gegenteil... :crazy:
Das ist mal wieder Pressearbeit.....
Gibt es diesbezüglich von Nvidia nicht eine Aussage, die das einfch klären könnte?

r@w
2004-11-25, 09:30:17
@ r@w... red mit dir selbst weiter, polemisieren kannst allein besser...Keine Argumente?
War ja klar!
:D

Dann mal fröhliches weiter-rum-seiern...

Razor

r@w
2004-11-25, 09:40:58
Und noch mal an die, die offenbar den Thread nicht wirklich gelesen haben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2472422&postcount=29

Das steht sehr deutlich, dass Games für SLI speziell unterstützt werden müssen.
Zumindest ist aber jetzt die Frage geklärt, ob es eine Default-SLI-Modus gibt... NEIN!

Hinsichtlich der Performance macht für mich ein SLI-System sowieso keinen Sinn, da für die von mir 'gewüschten' Auflösungen offenbar kein SLI notwendig ist und hier schon eine 6600GT vollkommend ausreichend ist. Wer es allerdings liebt, seine Augen mit 1600 zu 'quälen', mag etwas an solch merkwürdigen Konstruktionen finden (kein Wunder, dass tombman hier so einsteigt ;-).

Mich würde vielmehr interssiern, ob die "Breitbild"-Mechanismen funktionieren, wie Demirug und ich ja schon diskutierten. Dafür braucht's ja eigentlich keine MultiChip-Unterstützung, sondern nur eine recht einfache Lastverteilung auf die beiden Karten (so sollten 2 Screens mit 2 Karten die gleiche Leistung bringen, wie ein Sceen mit nur einer Karte).

Dann und nur dann würde SLI für mich persönlich Sinn machen... vor allem, wenn man die erweiterten Möglichkeiten mit nView ins Feld zieht (3D-Desktop und paralleles Video-Encoden oder Im WoZi spielen und im ArbZi arbeiten... was auch immer).

Razor

Gast
2004-11-25, 09:52:10
THG sagt, Surround Gaming ist nicht möglich, was sehr schade ist.

Für deine Beispiele empfehle ich eher Dual Core/CPU.

robbitop
2004-11-25, 09:57:28
Wer es allerdings liebt, seine Augen mit 1600 zu 'quälen', mag etwas an solch merkwürdigen Konstruktionen finden (kein Wunder, dass tombman hier so einsteigt ;-).


Naja wenn man einen passenden Monitor dafür hat (20" TFT z.B. oder 21" CRT), dann ists aufgrund der dpi schon zu empfehlen auf 16x12 zu gehen.
Allerdings besitzen die Wenigsten solch ein Gerät. (Tombman besitzt es allerdings IIRC)

btw: kann man nicht durch einen eigenen Eintrag AFR/SFR für die jeweilge Anwendung, die nicht unterstützt ist, erzwingen?

tombman
2004-11-25, 10:02:57
Keine Argumente?
War ja klar!
:D

Dann mal fröhliches weiter-rum-seiern...

Razor

doch genügend, aber du hast nix mehr zu reden. Was sollst denn auch sagen, daß eine x800 so schnell wie 2 6800er in HL2 sind? :cool:

Außerdem führe ich keine flame wars mit feigen members hinter Gast-accounts ;)

tombman
2004-11-25, 10:07:06
Naja wenn man einen passenden Monitor dafür hat (20" TFT z.B. oder 21" CRT), dann ists aufgrund der dpi schon zu empfehlen auf 16x12 zu gehen.
Allerdings besitzen die Wenigsten solch ein Gerät. (Tombman besitzt es allerdings IIRC)

btw: kann man nicht durch einen eigenen Eintrag AFR/SFR für die jeweilge Anwendung, die nicht unterstützt ist, erzwingen?

ich hab sogar 24" Zoll CRT... bei 1600x1200 fängt der Spaß also erst an ;)
2304x1440 würde mich noch mehr interessieren ;)

Was daran ´Qual´sein soll, kann dir nur r@w erklären ;)

tombman
2004-11-25, 10:09:19
Und noch mal an die, die offenbar den Thread nicht wirklich gelesen haben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2472422&postcount=29

Das steht sehr deutlich, dass Games für SLI speziell unterstützt werden müssen.


rofl, du quotest dich selbst als Beweis? muahahaha :D

r@w
2004-11-25, 10:10:43
THG sagt, Surround Gaming ist nicht möglich, was sehr schade ist.

Für deine Beispiele empfehle ich eher Dual Core/CPU.Schade... denn das wäre ein für mich wirklich zählendes Pro für SLI-Systeme.

Allerdings meinte Demirug, etwas anderes von nVidia-Leuten gehört zu haben.
Vielleicht funzt es ja nocht nicht...

Die Hoffnung stirbt zuletzt!
:D

Razor

Gast
2004-11-25, 10:12:22
Außerdem führe ich keine flame wars mit feigen members hinter Gast-accounts ;)Das hat schon seine Gründe, die ich hier und schon gar nicht Dir darlegen werde.

Ansonsten: mach' den Kopf zu!
(Argumente hast Du ja offenbar keine)
:D

Razor

r@w
2004-11-25, 10:12:54
rofl, du quotest dich selbst als Beweis? muahahaha :DVerständnisschwierigkeiten?
War ja klar...

Razor

tombman
2004-11-25, 10:15:29
Das hat schon seine Gründe, die ich hier und schon gar nicht Dir darlegen werde.

Ansonsten: mach' den Kopf zu!
(Argumente hast Du ja offenbar keine)
:D

Razor

Was verstehst denn nicht bei X800 = 2x 6800 in HL2?

Das war MEIN Argument für die lächerliche HL2 perf von NVIDIAS 6800ultra.

Und was hast du? GAR NIX :cool:

Asmodeus
2004-11-25, 10:18:16
ich hab sogar 24" Zoll CRT... bei 1600x1200 fängt der Spaß also erst an ;)
2304x1440 würde mich noch mehr interessieren ;)

Was daran ´Qual´sein soll, kann dir nur r@w erklären ;)

Da würde mich interessieren, mit welcher Bildwiederholfrequenz Du 2304x1440 spielen kannst. Bei einer festgelegten maximalen Videobandbreite von 165 MHz laut VESA Standard dürften nicht mal 50Hz möglich sein. Und das wäre dann schon eine "Qual" ;) , vorallem auf einem CRT. Bei DualLink fähigen Grafikkarten dürfte es mehr sein, aber den Modus beherrschen nunmal nur Profigrafikkarten meines Wissens nach.

Gruss, Carsten.

tombman
2004-11-25, 10:20:18
Da würde mich interessieren, mit welcher Bildwiederholfrequenz Du 2304x1440 spielen kannst. Bei einer festgelegten maximalen Videobandbreite von 165 MHz laut VESA Standard dürften nicht mal 50Hz möglich sein. Und das wäre dann schon eine "Qual" ;) , vorallem auf einem CRT. Bei DualLink fähigen Grafikkarten dürfte es mehr sein, aber den Modus beherrschen nunmal nur Profigrafikkarten meines Wissens nach.

Gruss, Carsten.

?? was interessiert mich VESA?

der Sony hat 121khz und damit gehen sich knapp 80hz für 2304x1440 aus :cool:

r@w
2004-11-25, 10:25:14
Und was hast du? GAR NIXSoll ich dazu noch was sagen?
Interessiert Dich ja 'eh nicht...

Oder einfach mal kurz:
- HL2 ist auf ATI hin optimiert
- HL2 bietet keinen (ausgleichenden) nVidia-Pfad, obwohl dieser versprochen wurde und auch schon fertig war
- HL2 ist nur ein Beipsiel und läßt keinen Rückschluss auf andere RealWorld-Anwendungen zu

Falls jemand anderes an (weitergehenden) Gesichtspunkten interessiert ist, werde ich sicher und gerne noch einmal darauf eingehen.

Razor

Asmodeus
2004-11-25, 10:25:39
?? was interessiert mich VESA?

der Sony hat 121khz und damit gehen sich knapp 80hz für 2304x1440 aus :cool:

*G* VESA sollte dich insofern interessieren, als dass eben diese 165 MHz Videobandbreite für jede Verbindung, egal ob analog (VGA-Anschluss) oder digital (DVI-Anschluss) nun mal Standard sind, und somit physisch gar nicht mehr möglich ist.

Bei einer Auflösung von 3840x2400 habe ich hier genau noch 15 Hz Bildwiederholfrequenz, eben wegen dieser Beschränkung. Und da können es bei 2304x1440 gar nicht mehr als 50 Hz sein. ;) Oder hab ich jetzt irgendwas vergessen :confused:

Gruss, Carsten.

Gast
2004-11-25, 10:32:24
Was verstehst denn nicht bei X800 = 2x 6800 in HL2?

Das war MEIN Argument für die lächerliche HL2 perf von NVIDIAS 6800ultra.

Und was hast du? GAR NIX :cool:

Was redest du denn bitte für einen Stuss...
Also nachdem was ich so über die Masse der HL Benchmark Reviews gelesen habe ist die Performance der GF6xxx Serie mehr als gut.
Genereller Kosenz ist, dass an einigen Stellen ATI an anderen Nvidia schneller ist.
Ein Desaster wie für ATI bei Doom3 hat sich hier für Nvidia nicht ergeben. Die Karten laufen rund.
Naja und wie lange es dauert bis deren Treiberabteilung sich auf HL2 eingeschossen hat braucht man ja wohl nicht mehr näher erläutern.
Man darf nicht vergessen, dass die erst seit dem Launch bzw. ne Woche davor Zugriff hatten.
Das ATI als enger Partner von Valve, der auch Kohle rüberwachsen lässt, um ein vielfaches länger Zugriff hatte auf HL2 und die Engine leuchtet wohl auch ein.

Deswegen versteh ich die ganze Aufregung nicht. Das ist doch alles totaler Kokolores. Am Ende hat sich das alles sowieso wieder ausgeglichen. Bei Doom3 sind ja auch nicht mehr die anfänglichen Vorsprünge da, auch wenn natürlich nach wie vor Nvidia vor ATI liegt.
Wie kann man sich nur an so einem Schwachsinn hochziehen. Das ist sowas von albern.... unglaublich.

tombman
2004-11-25, 10:37:45
Soll ich dazu noch was sagen?
Interessiert Dich ja 'eh nicht...

Oder einfach mal kurz:
- HL2 ist auf ATI hin optimiert
- HL2 bietet keinen (ausgleichenden) nVidia-Pfad, obwohl dieser versprochen wurde und auch schon fertig war
- HL2 ist nur ein Beipsiel und läßt keinen Rückschluss auf andere RealWorld-Anwendungen zu

Falls jemand anderes an (weitergehenden) Gesichtspunkten interessiert ist, werde ich sicher und gerne noch einmal darauf eingehen.

Razor

-Wie kann etwas für eine shader 2.0 Karte optimiert sein und auf einer shader 3.0 super-flexibel-Karte nur mit HALBEM SPEED rennen?

-Bei einer Optimierung denkt man an ein paar fps, nicht mehr als 20% Unterschied, aber sicher nicht an 80%!!!!111
(siehe Doom3, da ist Nvidia auch nur 10% schneller-- SOWAS versteht man unter Optimierung)

-hab ich das behauptet?

Die Nvidia HL2 Schlappe kann man nicht einfach mit "Optimierung" abtun, dazu sind 80% einfach VIEL ZU VIEL!

Und das darüber LACHEN mit "mauhhahha" ist daher absolut gerechtfertigt und von KEINEM argumentativ angreifbar, schon gar ned von dir :cool:

tombman
2004-11-25, 10:40:13
Was redest du denn bitte für einen Stuss...


Du willst jetzt ned wirklich, daß ich die screenshots hier poste, oder?

Ich hab die Anandtech "at_prison_05" demo selbst nachgebenched und EINE X800XTPE ist so schnell wie ZWEI 6800ultras.

tombman
2004-11-25, 10:46:15
Und da können es bei 2304x1440 gar nicht mehr als 50 Hz sein. ;) Oder hab ich jetzt irgendwas vergessen :confused:

Gruss, Carsten.

--und siehe da, die Ungläubigen sahen, daß es 74hz waren und waren beschämt... und sie öffneten ihre Herzen und nannten es Wunder...

:D:D:D

http://img115.exs.cx/img115/9847/wunder.jpg

Tjell
2004-11-25, 10:48:10
?? was interessiert mich VESA?

der Sony hat 121khz und damit gehen sich knapp 80hz für 2304x1440 aus :cool:Du meinst nicht zufällig den FW900 von Sony? Da sitze ich zu Arbeitszeiten auch davor und ich muß sagen, daß es gerade so für ergonomische 1600 × 1024 reicht, alles darüber ist eine Qual für mich. Aber da ist jeder anders leidensfähig.

Daß im Übrigen SLI durchweg eine viel höhere Leistung erbringt, als eine einzelne Grafikkarte, dürfte als eindeutig falsche Annahme auf der Hand liegen. Prozentual tut sich SLI doch recht eindrucksvoll hervor (-> THG (http://www.de.tomshardware.com/graphic/20041123/index.html)), auch wenn der absolute Abstand in FPS je nach Fall recht gering sein kann.

tombman
2004-11-25, 10:53:13
Du meinst nicht zufällig den FW900 von Sony? Da sitze ich zu Arbeitszeiten auch davor und ich muß sagen, daß es gerade so für ergonomische 1600 × 1024 reicht, alles darüber ist eine Qual für mich. Aber da ist jeder anders leidensfähig.



Ich bezweifle, daß du in der Arbeit eine Graka hast die darüber noch ein anständiges Signal liefern kann :D

Ich hab 1920x1200 eingestellt, also die von Sony empfohlene Auflösung und da ist sowohl auf der x800xtpe als auch auf der 6800ultra alles superscharf.

2304x1440 wäre mir für den Desktop zu klein in der Schrift, aber von der Schärfe her geht es auch noch. Und in games ist 2304x1440 einfach der absolute Wahnsinn. Da sind die Linien wie mit dem Lineal gezogen ;)

HL2 2304x1440, 2/16, timedemo "d1_canals_09" (ja, die böse Wassermap die fps frißt ohne Ende :D) --- über 30fps :cool:

Tjell
2004-11-25, 10:57:44
Ich bezweifle, daß du in der Arbeit eine Graka hast die darüber noch ein anständiges Signal liefern kann :D
...Ich persönlich traue der Quadro4 900 XGL doch einiges zu. Oder hast Du da andere, handfeste Erkenntnisse zu bieten, die mich meiner Überzeugung berauben können?

robbitop
2004-11-25, 10:59:22
-Wie kann etwas für eine shader 2.0 Karte optimiert sein und auf einer shader 3.0 super-flexibel-Karte nur mit HALBEM SPEED rennen?

-Bei einer Optimierung denkt man an ein paar fps, nicht mehr als 20% Unterschied, aber sicher nicht an 80%!!!!111
(siehe Doom3, da ist Nvidia auch nur 10% schneller-- SOWAS versteht man unter Optimierung)



Du machst es Dir hier zu einfach. Ich kratze zwar auch nur an der Oberfläche bezüglich Erkenntnisse über die Shaderpipeline selbst, jedoch kann sogar ich mir soetwas vorstellen.
Gewisse SFUs laufen auf ATi's Pipelines deutlich fixer, andere widerum auf NV's.
Aufgrund von Transistorrestriktionen kann man nicht alles extrem schnell machen. ATi z.B. kann jeden Takt, ohne die aritmetische Shaderleistung zu berühren, eine Tex Op kostenlos abstoßen. Das ist in der Praxis eigentlich von geringer bedeutung, da für beispielswesise 8 Takte eine Tex Op genügt und die anderen 7 Takte volle aritmetische Leistung gefragt ist.
NV's Pipeline verliert hierdurch paritell die SU1. Auf dieser ist dann IIRC nur noch ein MUL2 möglich. Kein SFU mehr. Die SU2 kann noch MUL/ADD/Dot.
Falls SFU gefragt ist, schaut man diesen Takt in die Röhre.
Und so gibt es noch viele viele andere Besonderheiten in beiden Pipelines. Schwächen bei ATi und bei NV.
Wenn man die Shader also auf eine der beiden Architekturen auslegt, dann kann man den zusätzlichen Takt bei der XT PE hinzugerechnet schon mal auf 80% Mehrleistung kommen. Es gibt da keine universellen Pipelines.

Wie Demirug schon sagte, schrieb ATi die Shader selbst für HL2.
Und im Gegensatz zu Doom3, ist hier ein Replacement kaum möglich, da es einfach zu viele Shader sind. In Doom3 werden nicht allzuviele eingesetzt.
Und natürlich ist es ziemlich bitter für NV User, dass ihre Karten dank Vavle nicht das Maximum an Leistung herausholen.

Aber man sieht oft immer genau das, was man sehen will (ging mir auch oft so). Bei 80% Differenz bei einer sehr ähnlichen Architektur mit sonst sehr ähnlichen Leistungen sollte man doch leicht kritisch werden und versuchen zu hinterfragen, nicht?

just my 2 cents.

robbitop
2004-11-25, 11:01:52
Ich persönlich traue der Quadro4 900 XGL doch einiges zu. Oder hast Du da andere, handfeste Erkenntnisse zu bieten, die mich meiner Überzeugung berauben können?

wenn sie andere DACs als die GF4 Serie verwendet, dann ja. Denn diese war nicht gerade berüht dafür. (Standard Layout).
Aber natürlich haben die Quaddros ganz andere Anforderungen.

tombman
2004-11-25, 11:11:20
dh, du weißt auch nicht warum es so ist, und spekulieren können wir alle.

Außerdem ist es doch völlig irrelevant WIESO nvidia da so schwächelt. dann ist die 6800ultra eben doch nicht so geil und flexibel wie manche denken. Wenn man dem Gegner = ATi so eine Blöße gibt, dann wird dieser eben irgendwann genau da zustechen. Was mit HL2 eben passiert ist.

ich behalte mir das Recht vor über Nvidia in diesem Fall zu lachen.

Und was soll der Blödsinn schon wieder mit dem "was man sehen will"??

Schon wieder vergessen, daß ich auch eine 6800ultra habe und sogar plane mir SLI zu holen?

Schon wieder vergessen, daß ich mich ÄRGERE und NICHT FREUE, daß SLI profilabhängig ist?

Die ewig gültige Tatsache, daß tombman != biased ist, sollte wirklich jedem klar sein.

Falls ATI eine angeblich technologisch überlegene hardware hätte, welche in einem game 80% langsamer als Nvidia wäre, würde ich genauso lachen....

tombman
2004-11-25, 11:18:23
Ich persönlich traue der Quadro4 900 XGL doch einiges zu. Oder hast Du da andere, handfeste Erkenntnisse zu bieten, die mich meiner Überzeugung berauben können?

ich brauch dich gar ned überzeugen, und wie das Bild auf deiner uralten quadro aussieht is mir auch egal.

bei MIR rennt es superscharf auf 1920x1200 und akzeptabel auf 2304x1440.

Mir ist über die Jahre hin aufgefallen, daß je neuer die Kartengenerationen sind, auch die DACs immer schärfere Bilder in hohen Auflösungen bieten. Und das fast unabhängig vom Hersteller.

Ist ja auch logisch: ATI und Nvidia wissen, daß je mehr Leistung man hat, desto wahrscheinlicher ist es auch hohe Auflösungen zu fahren. Deshalb können die neuesten Karten auch in 2D ein sehr gutes Bild liefern bei sehr hohen Auflösungen.

p.s: ist bei mir auch über ein BNC Kabel angeschlossen, D-SUB sieht aber genauso gut aus....
(die 6800ultra liefert sogar noch ein Äutzerl schärferes 2D als die X800XTPE, aber beides verdient die Note 1)

Asmodeus
2004-11-25, 11:26:21
ich brauch dich gar ned überzeugen, und wie das Bild auf deiner uralten quadro aussieht is mir auch egal.

bei MIR rennt es superscharf auf 1920x1200 und akzeptabel auf 2304x1440.

Mir ist über die Jahre hin aufgefallen, daß je neuer die Kartengenerationen sind, auch die DACs immer schärfere Bilder in hohen Auflösungen bieten. Und das fast unabhängig vom Hersteller.

Ist ja auch logisch: ATI und Nvidia wissen, daß je mehr Leistung man hat, desto wahrscheinlicher ist es auch hohe Auflösungen zu fahren. Deshalb können die neuesten Karten auch in 2D ein sehr gutes Bild liefern bei sehr hohen Auflösungen.

p.s: ist bei mir auch über ein BNC Kabel angeschlossen, D-SUB sieht aber genauso gut aus....
(die 6800ultra liefert sogar noch ein Äutzerl schärferes 2D als die X800XTPE, aber beides verdient die Note 1)

Also, mit deinen Timings hast Du recht, hab ich hier auch gerade ausprobiert. Aber, und jetzt kommt das aber :wink: auf dem Kabel stehen trotzdem nur 165 MHz Videobandbreite zur Verfügung und somit wird das Bild extrem matschig, denn der Monitor kann nunmal auch nicht mehr draus machen, als was ankommt. Und auf nem TFT sieht man diese schlechtere Bildqualität natürlich sofort, was auf nem CRT, vorallem bei den extremen Auflösungen noch nicht so auffällt, da die Schärfe eh nachlässt.

Gruss, Carsten.

Tjell
2004-11-25, 11:32:37
ich brauch dich gar ned überzeugen, und wie das Bild auf deiner uralten quadro aussieht is mir auch egal.

bei MIR rennt es superscharf auf 1920x1200 und akzeptabel auf 2304x1440.
...Oh ja, da ist sie wieder - die Tombman'sche "Mirdochegalwasbeidirläuftundwiedudassiehsthauptsacheichliegerichtig"-Meinung.

Sehr hilfreich.

tombman
2004-11-25, 11:33:38
ähmmm. du ich sitz davor und brauch ned rumtheoretisieren -- es IST scharf. Basta ;)

Oder glaubst SOny und co bauen Monitore die OFFIZIELL 2304x1440 Maximalauflösung haben wenn sie wissen, daß die Kabel die Schärfe eh zerstören würden? Eben.

Fazit: PRAXIS > THEORIE :cool:

robbitop
2004-11-25, 11:35:09
dh, du weißt auch nicht warum es so ist, und spekulieren können wir alle.

Außerdem ist es doch völlig irrelevant WIESO nvidia da so schwächelt. dann ist die 6800ultra eben doch nicht so geil und flexibel wie manche denken. Wenn man dem Gegner = ATi so eine Blöße gibt, dann wird dieser eben irgendwann genau da zustechen. Was mit HL2 eben passiert ist.

ich behalte mir das Recht vor über Nvidia in diesem Fall zu lachen.

Und was soll der Blödsinn schon wieder mit dem "was man sehen will"??

Schon wieder vergessen, daß ich auch eine 6800ultra habe und sogar plane mir SLI zu holen?

Schon wieder vergessen, daß ich mich ÄRGERE und NICHT FREUE, daß SLI profilabhängig ist?

Die ewig gültige Tatsache, daß tombman != biased ist, sollte wirklich jedem klar sein.

Falls ATI eine angeblich technologisch überlegene hardware hätte, welche in einem game 80% langsamer als Nvidia wäre, würde ich genauso lachen....

Ich weiß nicht, warum du dich so aufregst. Ich warf dir nicht explizit vor, biased zu sein. Ich sagte nur, dass du es dir zu einfach machst. Der Besitz einer Grafikkarte X ändert daran nichts.
NVIDIA kann dafür nichts, dass HL2 auf ihren Karten schlecht läuft. Die Shader wurden konsequent so geschrieben, dass sie auf ATi's Hardware eben gut laufen und vermutlich sogar so dass sie umgekehrt schlecht laufen.
Das kennen wir doch auch aus Doom3 bevor man mit dem Shaderreplacement begann.

Schau dir mal die Situation bevor es Shaderreplacement in Doom3 gab an. Eine 6600GT steht auf einmal gegen eine XT PE. Obwohl diese doch laut deiner Ansicht so starke Shaderhardware hat. Schon allein daran sieht man wie unterschiedlich die Pipelines sind und wie unterschiedlich deren Stärken und Schwächen sein können, damit es reicht mit 1/2 der Ausführungseinheiten an die Stärke des anderen heranzukommen.
Ist fast so als würde ein Maurer plötzlich brötchen backen müssen und ein Bäcker die Arbeit des Maurers übernehmen. Das gestalltet sich dann kontraprouktiv.
Glück für ATi, dass man hier effektiv die Shader umschreiben konnte.
Gehst du wenigstens mit dieser Aussage konform?

Wenn ja, kannst du dir vieleicht vorstellen, dass es möglich ist Spiele auf jeder noch so schnellen Plattform langsam zu gestalten.
Genaue tiefere Fakten, würde vermutlich bis auf 2 Leute eh niemand von uns verstehen und davon mal abgesehen würden Leute wie wir sowas nie in die Finger bekommen.
Spekulation ist, wenn eine Sache wahrscheinlich ist, nichts Falsches.

IMO ist es eher suboptimal, dass ISVs sich von IHVs einwickeln lassen und das Ganze mitmachen. Man hätte für beide Spiele Pfade für alle IHVs machen können.

tombman
2004-11-25, 11:36:09
Oh ja, da ist sie wieder - die Tombman'sche "Mirdochegalwasbeidirläuftundwiedudassiehsthauptsacheichliegerichtig"-Meinung.

Sehr hilfreich.

ja wie soll ich dir denn helfen? Soll ich nach Deutschland fahren, einen Strahlungskäfig um deinen Elektrosmog Arbeitsplatz bauen, die crapige Quadro rausreißen, meine 6800ultra reingeben und dir so zeigen wie GEIL ein Bild in 2304x1440 auf dem Sony aussehen kann? :D

Demirug
2004-11-25, 11:42:54
Ich hätte immer noch gerne einen Beweiss dafür das es wirklich die Pixel-Shader sind was nVidia bei HL2 ausbremst. Ansonsten sind das nämlich alles nur wilde Spekulationen und Verdächtigungen.

robbitop
2004-11-25, 11:45:24
Ich hätte immer noch gerne einen Beweiss dafür das es wirklich die Pixel-Shader sind was nVidia bei HL2 ausbremst. Ansonsten sind das nämlich alles nur wilde Spekulationen und Verdächtigungen.

Da widerspreche ich dir keinesfalls. Es sind Spekulationen und ausgehen von Dingen die in letzter Zeit passiert, sind (Doom3, Verschwinden es NV Pfades, Leistungen der sourceengine usw) diese doch naheliegend.
Was könnte sonst ein plausibler Grund dafür sein?

tombman
2004-11-25, 11:49:40
Ich weiß nicht, warum du dich so aufregst. Ich warf dir nicht explizit vor, biased zu sein. Ich sagte nur, dass du es dir zu einfach machst.

Dafür inexplizit, was für mich noch schlimmer ist. Ich mag keine indirekte Sprache "von hinten rum"; vorallem wo ich soweiso alles entdecke ;)

Ich mache es mir zu einfach wenn ich über Nvidia in diesem Fall lache?
Welche shader sind denn angeblich so unschmackhaft für Nvidia, daß sie so langsam laufen und die Nvidia nicht replacen kann? Vorallem wo "at_prison_05" nicht mal das berühmte Wasser enthält, sondern eine reine Innenmap ist?
Reicht da Spekulation schon nicht mehr aus? ;)

tombman
2004-11-25, 11:51:03
Ich hätte immer noch gerne einen Beweiss dafür das es wirklich die Pixel-Shader sind was nVidia bei HL2 ausbremst. Ansonsten sind das nämlich alles nur wilde Spekulationen und Verdächtigungen.

DANKE :D

Demirug
2004-11-25, 11:57:16
Da widerspreche ich dir keinesfalls. Es sind Spekulationen und ausgehen von Dingen die in letzter Zeit passiert, sind (Doom3, Verschwinden es NV Pfades, Leistungen der sourceengine usw) diese doch naheliegend.
Was könnte sonst ein plausibler Grund dafür sein?

ALLES.

Es reicht schon ein schlechte Memoryalignment von einem Rendertarget um die Leistung böse in den Keller zu ziehen.

Eine bestimmte Kombination von Renderstates die erstmalig von HL2 so benutzt wird und der Treiber dadurch in den langsameren Kompatibilitätsmodus zwingt.

...

robbitop
2004-11-25, 12:01:30
ALLES.

Es reicht schon ein schlechte Memoryalignment von einem Rendertarget um die Leistung böse in den Keller zu ziehen.

Eine bestimmte Kombination von Renderstates die erstmalig von HL2 so benutzt wird und der Treiber dadurch in den langsameren Kompatibilitätsmodus zwingt.

...

Nunja ok, also wäre mehr als eine IHV Spezifische Shader- Optimierung im Bereich des Möglichen. Aber nichts destotrotz handelt es sich offensichtlich um eine IHV spezifische Optimierung.

@Tombman
nein, lachen darfst du natürlich worüber du willst. Lachen ist gesund ;)
Nur das Fazit, NV40 sei generell ein unbrauchbares und langsames Stück an Hardware, dass du implizit immer wieder fällst, ist zu einfach.

Mag ja sein, dass eine 6800U einer XT PE generell etwas unterlegen ist, sobald Füllrate o.ä. gefragt ist. Aber in diesen Dimensionen .....? nunja..

Asmodeus
2004-11-25, 12:01:42
ja wie soll ich dir denn helfen? Soll ich nach Deutschland fahren, einen Strahlungskäfig um deinen Elektrosmog Arbeitsplatz bauen, die crapige Quadro rausreißen, meine 6800ultra reingeben und dir so zeigen wie GEIL ein Bild in 2304x1440 auf dem Sony aussehen kann? :D

Naja, und das sagt jemand, der vor einem CRT mit ner Lochmaske so gross wie Scheunentore (0.23) sitzt :wink: Macht Spass, in Deinem Stil zu schreiben :D

Gruss, Carsten.

r@w
2004-11-25, 12:12:34
-Wie kann etwas für eine shader 2.0 Karte optimiert sein und auf einer shader 3.0 super-flexibel-Karte nur mit HALBEM SPEED rennen?Hat Demirug bereits erklärt und bedarf hier keiner weitern Darlegung.
Und was soll jetzt bitte SM3 mit HL2 zu tun haben?

-Bei einer Optimierung denkt man an ein paar fps, nicht mehr als 20% Unterschied, aber sicher nicht an 80%!!!!111
(siehe Doom3, da ist Nvidia auch nur 10% schneller-- SOWAS versteht man unter Optimierung)Ein bissel werden sie ganz sicher noch heraus holen.
Ansonsten werde ich hier jetzt nicht wiederholen, was der werte Gast bereits zum Besten gegeben hat...
(das mit dem 'Stuss' und ich gebe ihm vollkommen recht ;-)

-hab ich das behauptet?Ja!
Und Du tust es noch...

Schließlich gehauptest Du ja, dass diese Differenz von einer generell schlechten PS2.0-Shader-Performance herrührt.
Das ist nicht nur falsch, sondern auch blanker Unsinn...

Die Nvidia HL2 Schlappe kann man nicht einfach mit "Optimierung" abtun, dazu sind 80% einfach VIEL ZU VIEL!Siehst Du?
Und Dein hohles Gelächter kannst Du Dir ruhig schenken... oder meist Du, dass es hier etwas zur Sache tut?

Nein?
Dann versuch' Dich einfach am Riemen zu reißen und zumindest ansatzweise Verständis für hier genannte Argumente aufzugringen, denen Du bisher rein gar nichts entgegen zu setzen hattest...

Razor

r@w
2004-11-25, 12:16:02
HL2 2304x1440, 2/16, timedemo "d1_canals_09" (ja, die böse Wassermap die fps frißt ohne Ende :D) --- über 30fps :cool:30fps average?
Unspielbar!
:down:

Und die Signalquali kannst Du bei dieser Auflösung vergessen...
(auch und gerade mit Deinem super-dollen 24'er ;-)

Razor

r@w
2004-11-25, 12:29:35
Die ewig gültige Tatsache, daß tombman != biased ist, sollte wirklich jedem klar sein.Oh mann...
Dann bist Du einfach nur blöde?

Sorry, ich will Dich hier wirklich nicht beleidigen, aber von Dir kommen hier überhaupt keine Argumente. Du betest hier nur immer und immer wieder das Gleiche herunter (ATI 80% schneller), nur scheint es Dich überhaupt nicht zu interessieren, warum das so ist. Und wieso ignorierst Du die Tatsache, dass ATI höchstpersönlich die Shader für HL2 geschrieben hat und damit das Game in Gänze auf ATI hin optimiert wurde. Damit läuft einher, dass es auf nVidia-Hardware sehr weit davon entfernt ist, optimal zu laufen... was ganz sicher auch beabsichtigt war.

Erst wenn die Frage nach dem Warum geklärt ist, kann man daraus ableiten, ob die eine Architektur nun wirklich effizienter ist, als eine andere. Du aber siehst nur einen Benchmark "ATI ist 80% schneller" und stößt nur ein wenig intelligentes und reichlich hohles Gelächter aus, dass es schon fast bemitleidenswert erscheint... sorry.

Versuche doch bitte den technischen Hintergrund, den Dir z.Bsp. Demirug und Robbi liefern, wenigstens ansatzweise zu verstehen. Das würde den 'Umgang' mit Dir zumindest ein wenig weniger lästig machen...

Razor

r@w
2004-11-25, 12:35:23
Aber man sieht oft immer genau das, was man sehen will (ging mir auch oft so). Bei 80% Differenz bei einer sehr ähnlichen Architektur mit sonst sehr ähnlichen Leistungen sollte man doch leicht kritisch werden und versuchen zu hinterfragen, nicht?

just my 2 cents.Danke robbi!
Dem ist schlicht nichts hinzu zu fügen...
:up:

Razor

tombman
2004-11-25, 12:59:27
30fps average?
Unspielbar!
:down:

Und die Signalquali kannst Du bei dieser Auflösung vergessen...
(auch und gerade mit Deinem super-dollen 24'er ;-)

Razor

wären dir 15fps average mit 6800ultra lieber? :D

und von meiner Signalqualität kannst DU doch nur träumen ;)

tombman
2004-11-25, 13:00:04
Naja, und das sagt jemand, der vor einem CRT mit ner Lochmaske so gross wie Scheunentore (0.23) sitzt :wink: Macht Spass, in Deinem Stil zu schreiben :D

Gruss, Carsten.

Lochmaske?

Trinitron Streifenmaske baby, beste wo gibt ;)

tombman
2004-11-25, 13:02:35
Nunja ok, also wäre mehr als eine IHV Spezifische Shader- Optimierung im Bereich des Möglichen. Aber nichts destotrotz handelt es sich offensichtlich um eine IHV spezifische Optimierung.

@Tombman
nein, lachen darfst du natürlich worüber du willst. Lachen ist gesund ;)
Nur das Fazit, NV40 sei generell ein unbrauchbares und langsames Stück an Hardware, dass du implizit immer wieder fällst, ist zu einfach.



So ein Fazit hab ich nie gefällt- reine Interpetation deinerseits.

Ich zeige nur manchmal Fälle auf, wo die 6800ultra jämmlerlich versagt, und das schmeckt einigen offenbar nicht- ihr Pech.

Gast
2004-11-25, 13:04:37
Dann belege es doch mal und behaupte nich nur...

Tjell
2004-11-25, 13:04:40
So ein Fazit hab ich nie gefällt- reine Interpetation deinerseits.

Ich zeige nur manchmal Fälle auf, wo die 6800ultra jämmlerlich versagt, und das schmeckt einigen offenbar nicht- ihr Pech.Was sagst Du eigentlich zu den Ergebnissen bei THG, wovon ich den Link gepostet habe?

Das sieht nicht gerade nach 80 % langsamer für eine 6800 Ultra und erst recht nicht für SLI aus. :confused:

tombman
2004-11-25, 13:14:41
Oh mann...
Dann bist Du einfach nur blöde?

Sorry, ich will Dich hier wirklich nicht beleidigen, aber von Dir kommen hier überhaupt keine Argumente. Du betest hier nur immer und immer wieder das Gleiche herunter (ATI 80% schneller), nur scheint es Dich überhaupt nicht zu interessieren, warum das so ist. Und wieso ignorierst Du die Tatsache, dass ATI höchstpersönlich die Shader für HL2 geschrieben hat und damit das Game in Gänze auf ATI hin optimiert wurde. Damit läuft einher, dass es auf nVidia-Hardware sehr weit davon entfernt ist, optimal zu laufen... was ganz sicher auch beabsichtigt war.

Erst wenn die Frage nach dem Warum geklärt ist, kann man daraus ableiten, ob die eine Architektur nun wirklich effizienter ist, als eine andere. Du aber siehst nur einen Benchmark "ATI ist 80% schneller" und stößt nur ein wenig intelligentes und reichlich hohles Gelächter aus, dass es schon fast bemitleidenswert erscheint... sorry.

Versuche doch bitte den technischen Hintergrund, den Dir z.Bsp. Demirug und Robbi liefern, wenigstens ansatzweise zu verstehen. Das würde den 'Umgang' mit Dir zumindest ein wenig weniger lästig machen...

Razor

Du hast wohl noch immer nicht kapiert, daß ich nicht nach deinen oder sonstwelchen Regeln spiele sondern lache über was ich will. Es interessiert mich einen Scheißdreck WARUM etwas so und so ist wenn Nvidia VERSAGT.
Keiner von uns ist in der Lage zu wissen warum Nvidia teilweise so böse abloost, denn wenn es so wäre, wäre er nicht hier sondern würde für Nvidia arbeiten, oder aber er düfte es nicht verbreiten. Alles andere sind bestenfalls Spekulationen u.a. von Leuten wie DIR, die glauben ihr Halbwissen berechtigt sie andere mit völliger Sicherheit zu belehren. Du bist in deinen Aussagen 10mal radikaler als Demirug selbst, der sich selbst nicht sicher ist, WARUM die 6800ultra in HL2 so abloost.
Ich wollte nie ANALysieren warum es eine HL2 Schwäche bei nvidia gibt, und genau dieser Umstand ist es, denn DU nicht ertragen kannst. Wie kann einer nur eine Tatsache als gegeben ansehen und sich drüber ergötzen ohne die Hintergründe zu erfragen? Tja, ICH KANN ES :D

Nvidia versagt einfach ein bischen zu oft und ich zeige es auf. Und dann lach ich drüber. Und dann haben einige ein Problem damit. Und dann lach ich auch über die ;)

Alles klar?

tombman
2004-11-25, 13:26:29
Was sagst Du eigentlich zu den Ergebnissen bei THG, wovon ich den Link gepostet habe?

Das sieht nicht gerade nach 80 % langsamer für eine 6800 Ultra und erst recht nicht für SLI aus. :confused:

1.) unbekannte demos
2.) cat 4.11 (<-- cat 4.12 ist der richtige für HL2)

Gast
2004-11-25, 13:26:47
Oh mann...
Dann bist Du einfach nur blöde?

Razor

Dein Ton ist äusserst unsympathisch.

r@w
2004-11-25, 13:29:00
wären dir 15fps average mit 6800ultra lieber? :DNö, ist genauso scheiße!
Das ist ja der Grund, warum ich solch sinnfreie Vergleiche ablehne...

Razor

tombman
2004-11-25, 13:30:28
Nö, ist genauso scheiße!
Das ist ja der Grund, warum ich solch sinnfreie Vergleiche ablehne...

Razor

geh bitte, 15fps sind unspielbar, 30fps sind spielbar. ATI > Nvidia ;)

Und das war die canal timedemo... normal im game hast 50fps locker

r@w
2004-11-25, 13:32:59
Und dann haben einige ein Problem damit.Ich zum Beispiel habe nur ein Problem mit Dir...

Worüber Du lachst, ist mir eigentlich ziemlich Wurst.
Die Art, wie Du lachst, ist einfach nur hohl.

Razor

tombman
2004-11-25, 13:34:12
Ich zum Beispiel habe nur ein Problem mit Dir...



Und das ist gut so ;)

Tjell
2004-11-25, 13:40:26
1.) unbekannte demos
2.) cat 4.11 (<-- cat 4.12 ist der richtige für HL2)
Zu 1.:
Ja und? Ich habe bisher eher diese Ergebnisse von THG in anderen Reviews bestätigt gesehen, als die Aussage "80 % langsamer".

Zu 2.:
Jetzt suchst Du aber nach nem Strohhalm.
Ein gleicher Manier könnte man sagen, daß der 67.02 für die 6800er der "richtige HL2-Treiber" sei. Pille-palle.

r@w
2004-11-25, 13:42:35
Und das ist gut so ;)Ja... weil unvermeidbar.

geh bitte, 15fps sind unspielbar, 30fps sind spielbar.Ist beides unspielbar... interessanter wären hier die minimum fps.

Was sagst Du jetzt im übrigen zu Tjell's THG-Vergleich (http://www.de.tomshardware.com/graphic/20041123/index.html)?
Selbst bei HL2 (http://www.de.tomshardware.com/graphic/20041123/sli-performance-25.html) und einer 1600'er Auflösung, liegt hier der 'Vorsprung' einer XTPE zur Ultra nur bei knappen 3%.

Razor

tombman
2004-11-25, 13:43:38
Zu 1.:
Ja und? Ich habe bisher eher diese Ergebnisse von THG in anderen Reviews bestätigt gesehen, als die Aussage "80 % langsamer".

Zu 2.:
Jetzt suchst Du aber nach nem Strohhalm.
Ein gleicher Manier könnte man sagen, daß der 67.02 für die 6800er der "richtige HL2-Treiber" sei. Pille-palle.

1.) seufz--- screenshot kommt gleich
2.) nein kannst nicht, 67.02 bringt nix in HL2, aber jeder weiß, daß cat 4.12 einen fetten boost für ATi bringt in HL2.

(del676)
2004-11-25, 13:47:35
geh bitte, 15fps sind unspielbar, 30fps sind spielbar. ATI > Nvidia ;)

Und das war die canal timedemo... normal im game hast 50fps locker

ich habs GANZE game in 1920 2xAA 16xAF DURCHgespielt und NIE unter 25fps ghabt :rolleyes:

tombman
2004-11-25, 13:51:31
ich habs GANZE game in 1920 2xAA 16xAF DURCHgespielt und NIE unter 25fps ghabt :rolleyes:

Wir reden hier aber von 2304x1440 und nicht von 1920x1200.... wer lesen kann... ;)

aber sind ja eh NUR 44% mehr Pixel ... rofl.

tombman
2004-11-25, 13:54:46
Noch Fragen? :cool:

http://www.xbitlabs.com/images/video/half-life/update/canals_1600_candy.gif

loci2005
2004-11-25, 13:56:52
Mit dieser Graka-Config (http://www.de.tomshardware.com/graphic/20041123/sli-performance-33.html) funzt garantiert jedes Spiel am schnellsten :biggrin:

Messala
2004-11-25, 14:01:13
Mit dieser Graka-Config (http://www.de.tomshardware.com/graphic/20041123/sli-performance-33.html) funzt garantiert jedes Spiel am schnellsten :biggrin:

Das glaub' ich auch!
WILL HABEN!! ;D

loci2005
2004-11-25, 14:02:44
-Wie kann etwas für eine shader 2.0 Karte optimiert sein und auf einer shader 3.0 super-flexibel-Karte nur mit HALBEM SPEED rennen?

-Bei einer Optimierung denkt man an ein paar fps, nicht mehr als 20% Unterschied, aber sicher nicht an 80%!!!!111
(siehe Doom3, da ist Nvidia auch nur 10% schneller-- SOWAS versteht man unter Optimierung)

-hab ich das behauptet?

Die Nvidia HL2 Schlappe kann man nicht einfach mit "Optimierung" abtun, dazu sind 80% einfach VIEL ZU VIEL!

Und das darüber LACHEN mit "mauhhahha" ist daher absolut gerechtfertigt und von KEINEM argumentativ angreifbar, schon gar ned von dir :cool:

Ist schon lustig diese Diskussion, weitermachen :D

Tjell
2004-11-25, 14:11:15
Auch wenn es Dich nicht interessiert, warum die 6800er in "canals" (und sicher auch ähnlichen Bedingungen mit Wasser und Reflexionen) derart langsam ist, Tombman, mich interessiert es schon und es sieht eher nach einem üblen softwareseitigen Bug aus (Treiber oder - eher unwahrscheinlich - "unpassenden" Shadern).

Die übrigen Benchmarks liegen im Rahmen des üblichen Leistungbildes der Grafikkarten.

aths
2004-11-25, 14:24:33
Die Nvidia HL2 Schlappe kann man nicht einfach mit "Optimierung" abtun, dazu sind 80% einfach VIEL ZU VIEL!Ich bin gerade nicht im Bilde.

- Bei welchen Settings (Auflösung, AA, AF) liegt die Radeon mit 80% vorne?

- Liegt sie in diesen Settings generell um 80% vorne, oder nur in ganz bestimmmten Timedemos?

mapel110
2004-11-25, 14:30:12
Ich bin gerade nicht im Bilde.

- Bei welchen Settings (Auflösung, AA, AF) liegt die Radeon mit 80% vorne?

- Liegt sie in diesen Settings generell um 80% vorne, oder nur in ganz bestimmmten Timedemos?

Im "canal" level ist die Performance so unterschiedlich.
siehe tombmans letzten post hier im thread.

Gast
2004-11-25, 14:34:08
Ich bin gerade nicht im Bilde.

- Bei welchen Settings (Auflösung, AA, AF) liegt die Radeon mit 80% vorne?

- Liegt sie in diesen Settings generell um 80% vorne, oder nur in ganz bestimmmten Timedemos?


Das kann dir jeder mit Hirn sagen: "nur in ganz bestimmmten Timedemos"

Und das isses was die meisten aber überhaubt net raffen.

dazu ein bs.

die timedemo spuckt 30 fps aus richtig?:) (net gut spielbar) :)

aber im spiel hat man ja 50 fps...ist soweit auch richtig.... Siehe unten..

Zitat von tombman
geh bitte, 15fps sind unspielbar, 30fps sind spielbar. ATI > Nvidia

Und das war die canal timedemo... normal im game hast 50fps locker

nun meine frage ? gilt die regel nur für ATI ?

Gast
2004-11-25, 14:35:31
Im "canal" level ist die Performance so unterschiedlich.
siehe tombmans letzten post hier im thread.

ahh grrr mabel110 war schnella :D

Gast
2004-11-25, 15:19:06
Noch Fragen? :cool:

http://www.xbitlabs.com/images/video/half-life/update/canals_1600_candy.gif


Schlechter Test. Gibts bessere von firingsquad.com oder tomshardware.de

Jesus
2004-11-25, 15:24:34
Schlechter Test. Gibts bessere von firingsquad.com oder tomshardware.de

wo leider nicht mit Reflect All geteste wurde, was anscheinend hauptsächlich für den Einbruch verantwortlich ist...

btw, wenn Speicherbandbreite oder Füllrate ausschlaggebend wären, wieso kann dann eine X800 Pro mit viel weniger Füllrate und weniger Speicherbandbreite als eine 6800Ultra dieser oft (auch in hohen Auflösungen) das Wasser reichen ?

Dr Hake
2004-11-25, 15:24:57
Schlechter Test. Gibts bessere von firingsquad.com oder tomshardware.de
warum?

tombman
2004-11-25, 15:27:02
Schlechter Test. Gibts bessere von firingsquad.com oder tomshardware.de

nein, xbit ownt fs und thg. Die nehmen wenigstens die neuesten Treiber die Sinn machen...

dildo4u
2004-11-25, 15:27:50
nForce4 SLI Performance Preview

Diesmal im SLI Modus 6800GT
und 6600GT
wie man sieht is die sli kombo der 6600GT schneller als eine einzelne 6800GT sonst bei anderen games war sie meist langsammer daran sieht man ganz gut das HL2 in erster linie takt braucht

http://www.firingsquad.com/hardware/nvidia_nforce_4_sli/page16.asp

tombman
2004-11-25, 15:30:57
http://www.xbitlabs.com/images/video/half-life/update/dog_1600_candy.gif

Tja....

Und ich hab SELBST schon reine INNENLEVELS OHNE WASSER getestet wo die x800xtpe die 6800ultra geradezu vernichtet hat... (prison)

es liegt also ganz sicher nicht nur am reflect all und dem Wasser shader..

tombman
2004-11-25, 15:39:11
Und bevor jemand auf xbit labs, einer meiner eindeutigen Lieblingsseiten rumhackt.

Software:

Microsoft Windows XP Pro SP2, DirectX 9.0c;
ATI CATALYST 4.12 beta;
NVIDIA ForceWare 66.93.
.
.
.
We also wanted to check out the influence of NVIDIA’s new driver (ForceWare 67.02) on the performance, but found that the difference between the new version and ForceWare 66.93 was no more than 1-2fps in the three scenes we used in our tests. Considering that the absolute fps rates are about 60-100fps, this difference fits into the measurement error range.


Dh, sie hatten die NEUESTEN Treiber und die besten Einstellungen.... und nix half Nvidia ;)

dildo4u
2004-11-25, 15:40:05
Fazit von Xbit labs:

"On the other hand, graphics cards on the GeForce 6800 Ultra and GT chips from NVIDIA do not look completely hopeless against their competitors. Using such cards you will still have enough performance for a comfortable play. Moreover, the difference between the top-end solutions from ATI and NVIDIA depends heavily on the specific game scene."

tombman
2004-11-25, 15:46:20
Fazit von Xbit labs:

"On the other hand, graphics cards on the GeForce 6800 Ultra and GT chips from NVIDIA do not look completely hopeless against their competitors. Using such cards you will still have enough performance for a comfortable play. Moreover, the difference between the top-end solutions from ATI and NVIDIA depends heavily on the specific game scene."

als review site könnens natürlich ned so aggressive Töne rauslassen wie zb ich (hehe), aber die Zahlen sprechen eine deutliche Sprache ;)

Gast
2004-11-25, 16:53:00
als review site könnens natürlich ned so aggressive Töne rauslassen wie zb ich (hehe), aber die Zahlen sprechen eine deutliche Sprache ;)

Lies mal das hier !

MORE MONEY, SAME PERFORMANCE
"It's obvious that the extra expenditure for SLI isn't buying you anything in Far Cry, especially with HDR lighting enabled. Which leads me on nicely to the question of just what SLI buys you for your money."
www.hexus.net


SLI SLOWER THAN WITH JUST ONE CARD IN HALF LIFE 2
"At 1024 x 768 you see there's basically no performance improvement with SLI enabled, and in some cases it's actually slightly slower."
www.hexus.net

MONTHS AWAY FROM AVAILABILITY
"the majority of manufacturers won't have product on the streets until the first few months of 2005. "
-> Anand Lal Shimpi, Anandtech

POOR GAME COMPATIBILITY
"At present a number of games will not run at all with SLI."
"We disapprove of the situation that SLI currently is only possible with games released by NVIDIA."
"When buying an SLI system you should note that not all games work with this mode. Without the right SLI profile in the driver the game runs only on one card with SLI activated, and sometimes even more slowly than when SLI is deactivated."
->Lars Weinand, Tom's Hardware Guide

A SERIES OF DEFECTIVE BIOS COMPONENTS
"The source of the problems turned out later to be a series of defective Bios components"
->Lars Weinand, Tom's Hardware Guide

"We did have issues with stability on our 6800 Ultra cards. NVIDIA explained that we had cards with the wrong BIOS installed, so we flashed the cards but still experienced the same crashing issues."
->Kyle Bennett, HardOCP

'LITERALLY RAINING CRASHES' - POOR DRIVERS
With the arrival of the first SLI-capable motherboards our enthusiasm was quickly dampened however. It was literally raining crashes and the lab SLI configuration with the GeForce 6800 and 6600 GT PCIe cards either could not be recognized or the computer would crash after a few seconds of error messages. Anybody who is willing to invest over $1,000 for 3D graphics on his computer will also be able to live with the risk of an occasional game or computer crash while running SLI. Waiting for the next driver update or using some kind of leaked driver in order to use SLI with a new game is not a lot of fun and will most certainly not be seen as acceptable by the group for which it is targeted
->Lars Weinand, Tom's Hardware Guide

"They are not to the level of stability that we would sign off on for your consumption."
"It did seem as through their load balancing algorithm was somewhat flawed or broken in parts of this game. While I am sure it is not simple to apply dynamic SFR to any game, it certainly should be working properly if it does try to apply it. Quite frankly I was surprised to see this issue in FarCry as NVIDIA surely knew that it would be one of the games to draw focus in almost any SLI article that you will read today."

"We still experienced the same hitching/pausing however, which can distract from gameplay. The Radeon X800Pro or X800XT-PE did not experience this problem. Hopefully this is a driver issue we will see fixed, but that is yet to be seen. Quite frankly, we find these hitches unacceptable in this particular game. It really detracts from gameplay and should not be happening on any DX9 video card"

->Kyle Bennett, HardOCP

"Moreover, in certain games such as Unreal Tournament 2004, the AFR selected by NVIDIA does not offer increased performance, quite the contrary, and in others as IL-2 Pacific Fighters it introduces graphic bugs when certain graphics settings are selected."
->Marc Prieur, Hardware.fr

NOISY
"An SLI machine is noisy, overheats and consumes an enormous amount of power."
->Julien Jay, Clubic.com


Fragen???

;) Wir brauchen kein SLI!

Gast
2004-11-25, 16:53:47
Und bevor jemand auf xbit labs, einer meiner eindeutigen Lieblingsseiten rumhackt.


Dh, sie hatten die NEUESTEN Treiber und die besten Einstellungen.... und nix half Nvidia ;)

Und nich jeder testet Custom Demos. Übrigens stehen die HL2 Treiber von Nvidia noch aus. Bei CS:Source kamen sie ja auch etwas später und die X800XT verliert gegen die 6800 Ultra. ;) Firingsquad.com

Gast
2004-11-25, 17:16:26
Lies mal das hier !

MORE MONEY, SAME PERFORMANCE
"It's obvious that the extra expenditure for SLI isn't buying you anything in Far Cry, especially with HDR lighting enabled. Which leads me on nicely to the question of just what SLI buys you for your money."
www.hexus.net


SLI SLOWER THAN WITH JUST ONE CARD IN HALF LIFE 2
"At 1024 x 768 you see there's basically no performance improvement with SLI enabled, and in some cases it's actually slightly slower."
www.hexus.net

MONTHS AWAY FROM AVAILABILITY
"the majority of manufacturers won't have product on the streets until the first few months of 2005. "
-> Anand Lal Shimpi, Anandtech

POOR GAME COMPATIBILITY
"At present a number of games will not run at all with SLI."
"We disapprove of the situation that SLI currently is only possible with games released by NVIDIA."
"When buying an SLI system you should note that not all games work with this mode. Without the right SLI profile in the driver the game runs only on one card with SLI activated, and sometimes even more slowly than when SLI is deactivated."
->Lars Weinand, Tom's Hardware Guide

A SERIES OF DEFECTIVE BIOS COMPONENTS
"The source of the problems turned out later to be a series of defective Bios components"
->Lars Weinand, Tom's Hardware Guide

"We did have issues with stability on our 6800 Ultra cards. NVIDIA explained that we had cards with the wrong BIOS installed, so we flashed the cards but still experienced the same crashing issues."
->Kyle Bennett, HardOCP

'LITERALLY RAINING CRASHES' - POOR DRIVERS
With the arrival of the first SLI-capable motherboards our enthusiasm was quickly dampened however. It was literally raining crashes and the lab SLI configuration with the GeForce 6800 and 6600 GT PCIe cards either could not be recognized or the computer would crash after a few seconds of error messages. Anybody who is willing to invest over $1,000 for 3D graphics on his computer will also be able to live with the risk of an occasional game or computer crash while running SLI. Waiting for the next driver update or using some kind of leaked driver in order to use SLI with a new game is not a lot of fun and will most certainly not be seen as acceptable by the group for which it is targeted
->Lars Weinand, Tom's Hardware Guide

"They are not to the level of stability that we would sign off on for your consumption."
"It did seem as through their load balancing algorithm was somewhat flawed or broken in parts of this game. While I am sure it is not simple to apply dynamic SFR to any game, it certainly should be working properly if it does try to apply it. Quite frankly I was surprised to see this issue in FarCry as NVIDIA surely knew that it would be one of the games to draw focus in almost any SLI article that you will read today."

"We still experienced the same hitching/pausing however, which can distract from gameplay. The Radeon X800Pro or X800XT-PE did not experience this problem. Hopefully this is a driver issue we will see fixed, but that is yet to be seen. Quite frankly, we find these hitches unacceptable in this particular game. It really detracts from gameplay and should not be happening on any DX9 video card"

->Kyle Bennett, HardOCP

"Moreover, in certain games such as Unreal Tournament 2004, the AFR selected by NVIDIA does not offer increased performance, quite the contrary, and in others as IL-2 Pacific Fighters it introduces graphic bugs when certain graphics settings are selected."
->Marc Prieur, Hardware.fr

NOISY
"An SLI machine is noisy, overheats and consumes an enormous amount of power."
->Julien Jay, Clubic.com


Fragen???

;) Wir brauchen kein SLI!


Schick das mal aths :D

MechWOLLIer
2004-11-25, 17:29:26
wie man sieht is die sli kombo der 6600GT schneller als eine einzelne 6800GT sonst bei anderen games war sie meist langsammer daran sieht man ganz gut das HL2 in erster linie takt braucht

Das ist allerdings nur in diesem einen HL2 TD der Fall, in der anderen Timedemos und Doom3 liegen die 6800GT und die 2x6600GT glreich auf. In allen anderen Spielen dagegen ist die 6800GT schneller.

Gast
2004-11-25, 17:43:08
;) Wir brauchen kein SLI!

Wir brauchen auch keine PC´s am besten gema wieder alle auf die Bäume und jeder kriegt n Banänsche...

Ob wirs brauchen stellt sich doch gar nicht die Frage, wenns einen net beist sollte mans links liegen lassen und nicht die Hasstriaden drauf schüren.

SLI ist ne sinnvolle Option für jene die es sich genehmigen möchten. Kein "normalo" wird sich so ein System anschaffen, also wayne...
Der Rest hat wieder was zu meckern und zu stacheln...

loci2005
2004-11-25, 17:46:39
wo leider nicht mit Reflect All geteste wurde, was anscheinend hauptsächlich für den Einbruch verantwortlich ist...

btw, wenn Speicherbandbreite oder Füllrate ausschlaggebend wären, wieso kann dann eine X800 Pro mit viel weniger Füllrate und weniger Speicherbandbreite als eine 6800Ultra dieser oft (auch in hohen Auflösungen) das Wasser reichen ?

Das Hauptmanko der NV Karten ist die immernoch schlechtere Shader-Performance. An was das genau liegt kann ich nicht sagen, vielleicht arbeitet die ATi Infrastruktur einfach effizienter. Genau deswegen zieht die ATi-Karte(n) bei neueren Spielen NV davon. In hohen Auflösungen werden die Shaderanforderungen dann so hoch, dass sie wohl einerseits den VRAM sprengen, andererseits durch Ineffektivität einmal mehr die Performance ausbremsen. Half Life 2 und Doom 3 sind zwei gute Beispiele dafür warum NV oder ATi in gewissen Spielen Vorteile haben. Nicht zu vergessen die durch Sponsoraktivitäten etwas bessere "Optimierungen" (Streitfall)....

MechWOLLIer
2004-11-25, 18:00:53
Die Shader des NV40 sind generell gesehen alles andere als lahm. Sie können schneller, allerdings auch langsamer sein als die Shaderberechnungen des R420. Und das der große Vorsprung der ATI Karte in HL2 wirklich an den Shader liegt ist nur reine Vermutung.
Und ich bezweifele, dass der R420 allgemein Shader um 80% schneller berechnen kann als der NV40.

tombman
2004-11-25, 18:30:11
@ Gast

du bist ned auf dem neuesten Stand..

das finale asus mobo und das gigabyte mobo rennen superstabil. das gigabyte hat bei anandtech sogar einen neuen fsb Rekord aufgestellt :eek:

Daß nicht alle games rennen is noch ned sicher.... und solange es für die wichtigsten games profile gibt ---> WAYNE

1024 weniger fps ? ---> R O F L , sind dir 200fps nicht genug?

FYI: es geht nicht um 1024, sondern um 1600x1200 mit AA/AF und aufwärts, und da ownt SLI alles und zwar deutlich.

Gast
2004-11-25, 18:47:10
@ Gast

du bist ned auf dem neuesten Stand..

das finale asus mobo und das gigabyte mobo rennen superstabil. das gigabyte hat bei anandtech sogar einen neuen fsb Rekord aufgestellt :eek:

Daß nicht alle games rennen is noch ned sicher.... und solange es für die wichtigsten games profile gibt ---> WAYNE

1024 weniger fps ? ---> R O F L , sind dir 200fps nicht genug?

FYI: es geht nicht um 1024, sondern um 1600x1200 mit AA/AF und aufwärts, und da ownt SLI alles und zwar deutlich.

Hahahaha

Der war gut, glaubst du alle anderen liegen falsch???

Schau dir die Links oben an, lies dich ersteinmal an wenn du mitreden willst!

tombman
2004-11-25, 18:51:23
Hahahaha

Der war gut, glaubst du alle anderen liegen falsch???

Schau dir die Links oben an, lies dich ersteinmal an wenn du mitreden willst!

das hab ich schon lange vor dir ....

die ersten review boards waren KEINE final mobos...

tombman
2004-11-25, 18:53:00
und die X800XT verliert gegen die 6800 Ultra. ;) Firingsquad.com


http://www.firingsquad.com/hardware/counter_strike_source/images/20484aa8af.gif

Gast
2004-11-25, 18:58:30
tobman braucht keine Links, Tests und Reviews den er testet alles selba X-D

Tigerchen
2004-11-25, 19:01:51
@ Gast

du bist ned auf dem neuesten Stand..

das finale asus mobo und das gigabyte mobo rennen superstabil. das gigabyte hat bei anandtech sogar einen neuen fsb Rekord aufgestellt :eek:

Daß nicht alle games rennen is noch ned sicher.... und solange es für die wichtigsten games profile gibt ---> WAYNE

1024 weniger fps ? ---> R O F L , sind dir 200fps nicht genug?

FYI: es geht nicht um 1024, sondern um 1600x1200 mit AA/AF und aufwärts, und da ownt SLI alles und zwar deutlich.

Wieviele besitzen wohl einen guten Monitor oder gar TFT mit dem das darstellbar ist?
Ich nicht. Und bei vielen anderen ist wohl auch nicht mehr drin als ein 17" TFT oder 19" Monitor. Also interessiert in der Regel allenfalls die 1280er Auflösung. Für mein 15" TFT sogar nur die 1024er Auflösung.

tombman
2004-11-25, 19:05:08
1280 laß ich mir ja noch einreden, aber darunter sollte man kein SLI fahren, is rausgeschmissenes Geld...

denn immerhin kann man ja noch 8xAA einschalten und schön alpha TExturen glätten @ 1280 :D

Gast
2004-11-25, 19:05:20
das hab ich schon lange vor dir ....

die ersten review boards waren KEINE final mobos...

achso, können wir dann davon ausgehen das die serien-boards besser sind ???

wohl kaum, das ist der gleiche chip und sli kann nunr mal nicht mit 68xxx oder 66xx funktionieren ohne Probleme!

Gast
2004-11-25, 19:05:58
http://www.firingsquad.com/hardware/counter_strike_source/images/20484aa8af.gif

LOL!! Wer spielt denn in so einer kranken Auflösung?
Alles über 1600x1200 ist mehr als übertrieben. Selbst 1600x1200 können die meisten Leute nicht zocken.

Bei 1600x1200 ratzt die 6800 Ultra, die X800XTPE weg.

http://www.firingsquad.com/hardware/counter-strike_source/images/c1600.gif

http://www.firingsquad.com/hardware/counter-strike_source/images/ity1600.gif

http://www.firingsquad.com/hardware/counter-strike_source/images/dust1600.gif

tombman
2004-11-25, 19:06:42
tobman braucht keine Links, Tests und Reviews den er testet alles selba X-D

Die firinqsqad Sachen kann i leider ned testen, weil die &(/&$)(/ dort ihre &$§&$% custom demos nicht zum DL anbieten --> klar, damit ich Oberchecker des ned nachprüfen kann ... :)

tombman
2004-11-25, 19:09:18
LOL!! Wer spielt denn in so einer kranken Auflösung?


die Leute die eine X800XTPE haben ;)



Alles über 1600x1200 ist mehr als übertrieben. Selbst 1600x1200 können die meisten Leute nicht zocken.

Bei 1600x1200 ratzt die 6800 Ultra, die X800XTPE weg.

http://www.firingsquad.com/hardware/counter-strike_source/images/c1600.gif

http://www.firingsquad.com/hardware/counter-strike_source/images/ity1600.gif

http://www.firingsquad.com/hardware/counter-strike_source/images/dust1600.gif

Und was willst mit diesen irrelevanten CAT 4.9 benchmarks?

CAT 4.12 oder der Tod! :D

Und selbst mit cat 4.9 liegt ATI nur lächerliche 10% hinten...und sowas willst vergleichen mit bis zu 80% Nvidia-HL2 Schlappe? nene....

Gast
2004-11-25, 19:13:59
die Leute die eine X800XTPE haben ;)

Und was willst mit diesen irrelevanten CAT 4.9 benchmarks?

CAT 4.12 oder der Tod! :D

Und selbst mit cat 4.9 liegt ATI nur lächerliche 10% hinten...und sowas willst vergleichen mit bis zu 80% Nvidia-HL2 Schlappe? nene....

Es wurde auch nur ein alter 65.xx Nvidia Treiber getestet und? die neuen 67.xx sind deutlich flotter! :D Und deine 80% Märchen kannst du auch knicken, schließlich kommen seltsamerweise die meisten anderen Reviews zu ganz anderen knapperen Ergebnissen.
Und wir warten mal die nächsten HL2 Treiber von Nvidia ab. Dann rechnen wir nochmal nach. ;)

Quasar
2004-11-25, 19:15:33
-Wie kann etwas für eine shader 2.0 Karte optimiert sein und auf einer shader 3.0 super-flexibel-Karte nur mit HALBEM SPEED rennen?

RSQ, sehr kurze Shader, viele Texturzugriffe im Shader (bsw. durch reflectionen) und vermutlich auch ein Übermaß an Temps.

Das sollte genügen, um den nV40 einzubremsen.

tombman
2004-11-25, 19:19:18
Es wurde auch nur ein alter 65.xx Nvidia Treiber getestet und? die neuen 67.xx sind deutlich flotter! :D Und deine 80% Märchen kannst du auch knicken, schließlich kommen seltsamerweise die meisten anderen Reviews zu ganz anderen knapperen Ergebnissen.
Und wir warten mal die nächsten HL2 Treiber von Nvidia ab. Dann rechnen wir nochmal nach. ;)

die 80% kann ich NICHT knicken, denn wenn die anderen NOOB review Seiten nur mit schlappen "reflect world" testen und OHNE cat 4.12, dann is das egal was die rausbekommen.

Es reicht eben nicht irgendwelche Treiber zu nehmen, ein paar custom timedemos zu benchen und dann das ganze zu veröffentlichen.

Man nimmt gefälligst das schnellste und die härtesten Einstellungen, und genau das versuchen Seiten wie xbit labs auch immer-- deswegen mag ich die ja auch so.

Und bevor man Aussagen macht, lieber Gast, sollte man sich IMMER ansehen welche hardware und software denn verwendet wurde für die Tests.

tombman
2004-11-25, 19:21:57
RSQ, sehr kurze Shader, viele Texturzugriffe im Shader (bsw. durch reflectionen) und vermutlich auch ein Übermaß an Temps.

Das sollte genügen, um den nV40 einzubremsen.

na toll, und das wußte Nvidia nicht bei der Entwicklung des NV40?

Sind denn kurze shader und Reflexionen so selten? hehe.

Oder hat Nvidia geglaubt, es wird jetzt jeder developer super lange 3.0 shader nehmen, die KEIN MENSCH braucht derzeit, nur damit der NV40 cool dasteht?

Bischen mehr Praxisbezug und weniger Größenwahn würde Nvidia gut tun ;)

robbitop
2004-11-25, 19:22:24
RSQ, sehr kurze Shader, viele Texturzugriffe im Shader (bsw. durch reflectionen) und vermutlich auch ein Übermaß an Temps.

Das sollte genügen, um den nV40 einzubremsen.

Texturzugriffe kann ich nachvollziehen.
Gibst du mir bitte ein wenig Nachhilfe, warum RSQ beim NV4x langsam ist oder kurz Shader?

Ist RSQ nicht nativ in den SUs vorhanden und braucht ein langsames Makro?
AFAIK benötigt es bei ATi wie auch bei NV je 2 Takte.
Einer für das Reziproke und einen für die Quadratwurzel. Oder liege ich hier falsch?

Warum "bremsen" kurze Shader NV4x? Vieleicht wegen der VLIW Architektur, wo der Treiber die Steuerlogik übernimmt? Wegen der langen Pipeline und den damit verbundenen Latenzen?
Ich weiß es leider nicht., wüßte es jedoch gern.

Quasar
2004-11-25, 19:26:55
Mir ist über die Jahre hin aufgefallen, daß je neuer die Kartengenerationen sind, auch die DACs immer schärfere Bilder in hohen Auflösungen bieten. Und das fast unabhängig vom Hersteller.

Dann wird sich die c't, die das mit passendem Meßequipment prüft und zu genau dem gegenteiligen Fazit kommt, wohl irren. Alternativ könnten die Pressesamples, die dort vermessen werden, natürlich auch alle von minderer Qualität sein oder die CE-Zertifizierung macht die SQ mal wieder kaputt.

Quasar
2004-11-25, 19:27:42
1.) unbekannte demos
2.) cat 4.11 (<-- cat 4.12 ist der richtige für HL2)
Cat4.12 - du meinst den Treiber, der diese lustigen "Fehldarstellungen" im VST erzeugt? Tut er das evtl. auch in den Demos, besonder bei "reflect all"?

Xmas
2004-11-25, 19:32:18
Ist RSQ nicht nativ in den SUs vorhanden und braucht ein langsames Makro?
AFAIK benötigt es bei ATi wie auch bei NV je 2 Takte.
Einer für das Reziproke und einen für die Quadratwurzel. Oder liege ich hier falsch?
RSQ braucht 2 Takte auf NV40, das ist der einzige Befehl der länger braucht als auf R420. POW benötigt auf beiden 2 Takte, FRC nur auf R420. Und SIN/COS macht NV40 in einem Takt, R420 braucht mindestens 6.

Quasar
2004-11-25, 19:34:02
Texturzugriffe kann ich nachvollziehen.
Gibst du mir bitte ein wenig Nachhilfe, warum RSQ beim NV4x langsam ist oder kurz Shader?

Ist RSQ nicht nativ in den SUs vorhanden und braucht ein langsames Makro?
AFAIK benötigt es bei ATi wie auch bei NV je 2 Takte.
Einer für das Reziproke und einen für die Quadratwurzel. Oder liege ich hier falsch?

Warum "bremsen" kurze Shader NV4x? Vieleicht wegen der VLIW Architektur, wo der Treiber die Steuerlogik übernimmt? Wegen der langen Pipeline und den damit verbundenen Latenzen?
Ich weiß es leider nicht., wüßte es jedoch gern.
http://www.3dcenter.org/artikel/nv40_pipeline/index4.php
Zweiter Abschnitt. ;)
ATi kann es offenbar in einem Takt.

Was kurze Shader angeht:
Je kürzer der Shader, desto größer der potentiell verbleibende Vorteil von höherem Takt und desto größer (bei Texturnutzung) der Nutzen, kostenfrei eine Textur zu samplen.

robbitop
2004-11-25, 19:35:03
man muss natürlich Restriktionen eingehen bei einem Design. Gewisse Dinge leiden immer darunter. Schau dir mal die Situation in Doom3 an.
Die XT PE verliert trotz 33% mehr takt ggü der NV40.
Die R300 hat ebenfalls schwächen.

Je nach Design schaut man wo Schwächen am Ehesten zu verschmerzen sind.
Eine Shaderanalyse ist für so ein Design die Basis. Texturzugriffe z.B. kommen normalerweise nicht soo häufig vor wie A Ops. somit sparte man das für andere Dinge ein.

Man kann immer etwas so programmieren, dass es woanders schlecht läuft, so fern man das möchte.
Wenn du das nicht einsiehst, scheinst du blind zu sein.
(das ist kein Bezug auf HL2 sondern generell)

@Quasar
großes Dankeschön an Dich :)

Quasar
2004-11-25, 19:41:46
na toll, und das wußte Nvidia nicht bei der Entwicklung des NV40?

Sind denn kurze shader und Reflexionen so selten? hehe.
Vermutlich wussten sie's. RSQ ist die einzige Funktion, die ggü. dem nV30 nicht signifikant, soll heissen, um mehr, als taktbereinigt Faktor 4, beschleunigt wurde.

Kurze Shader sind nicht selten, werden aber vermutlich immer seltener, je weiter man sich davon entfernt, simples Multitexturing über seine Shader-Engine laufen zu lassen.
Ein erstes Indiz ist bsw. der Pixelshader-Feature Test aus dem Murks05 - nach Aussage von Futuremark befinden sich dort die längsten Shader des Benchmarks.

(Ich hoffe, du verzeihst, daß ich auf das stumpfsinnige Zeug, das ich aus dem Quote verbannt habe, nicht weiter eingehen mag)

Demirug
2004-11-25, 19:44:48
RSQ braucht 2 Takte auf NV40, das ist der einzige Befehl der länger braucht als auf R420. POW benötigt auf beiden 2 Takte, FRC nur auf R420. Und SIN/COS macht NV40 in einem Takt, R420 braucht mindestens 6.

IIRC braucht RSQ(FP16) nur einen Takt. Der FP32 RSQ belegt dafür im Gegenzug auch noch Teile ausserhalb der SFU.

LERP ist auch noch so eine Sache die dem NV40 weniger schmeckt weil beide SUs belegt werden.

Jesus
2004-11-25, 20:02:01
Cat4.12 - du meinst den Treiber, der diese lustigen "Fehldarstellungen" im VST erzeugt? Tut er das evtl. auch in den Demos, besonder bei "reflect all"?

Also ich habe den Cat 4.12b jetz seit einer Woche drauf und noch nirgends Fehldarstellungen gesehen ("Spiele" VST ;) ,HL2, Vampire 2, Mohpa, NFSU2 ).

Er bringt mit jedenfalls gewaltig Leistung im VST (von 50 auf 60 FPS). Vorallem das Wasser scheint (mit Reflekt all) wesentlich schneller dargestellt zu werden, wo ich vorher kaum mehr spielbare Frameraten hatte bei HL2 in 1280x1024 4xAA 8xAF ist es jetzt super flüssig ).

(hab ich auch schonmal gepostet)

Mills
2004-11-25, 20:11:21
weniger Größenwahn würde Nvidia gut tun ;)
:rolleyes: Dir aber auch.
Schon Dein Spruch, wer ne X800XT-PE hat, würde demzufolge in 2000er Auflösungen spielen, dokumentiert bestenfalls das Dein Ego etwas groß geraten ist. Kannst sicher sein, das 99% der User nie über 1600 6/16 gehen, denn die wenigsten (sorry, ausser Dir natürlich) haben einen entsprechenden Monitor für übergroße Auflösungen bei anständigen Hertz-Zahlen. In diesem Zusammenhang könntest Du mal aufhören, ständig von Dir auf andere schliessen. Kommt nicht wirklich gut... ;)

tombman
2004-11-25, 21:06:32
@ quasar... die Fehldarstellungen gibt es nur wenn man den VST falsch bedient ;)
Du mußt nach jedem AA Wechseln des game neu starten oder du hast die rosa Punkte.
Ist aber völlig egal, den die scores ändern sich dadurch ned. Jedenfalls macht der VST keine Probleme und zeigt alles korrekt an mit korrekten fps.

@ Größenwahn: so gut wie alle reviews schreiben doch selbst, daß unter 1600x1200 SLI ned viel Sinn macht. SLi ist so teuer, daß nur diejenigen es kaufen werden die auch entsprechende Monitore, Cpus und Netzteile haben. 1280 MIT AA ist die unterste Schmerzgrenze wo SLi noch SInn macht ...

Quasar
2004-11-25, 21:17:56
Nein, die Rosa-Fehler meine ich nicht. Eher sowas (http://www.driverheaven.net/showpost.php?p=487783&postcount=78) im VST, oder auch sowas (http://www.driverheaven.net/showpost.php?p=488204&postcount=117) in "Source" allgemein.

Scheint sich ja auf 4.12BETA zu beschränken... ;|

Gast
2004-11-25, 21:25:18
Des war jut. Und des traurige is der merkts garned.

Jesus
2004-11-25, 22:48:52
Nein, die Rosa-Fehler meine ich nicht. Eher sowas (http://www.driverheaven.net/showpost.php?p=487783&postcount=78) im VST, oder auch sowas (http://www.driverheaven.net/showpost.php?p=488204&postcount=117) in "Source" allgemein.

Scheint sich ja auf 4.12BETA zu beschränken... ;|

Also auf CSS Maps würde ich mal nicht so viel geben, da gibts so einige (beta) Bugs..

In HL2 und Vampire 2 sowie im VST hab ich sowas noch nicht gesehen (alles Source ;) ).

Nicht jeder neue Beta Treiber ist einer der durch irgendeinen Cheat (diesmal wohl ungefilterte Texturen?) fps gewinnt...

Es soll ja auch Leute geben die Treiber etwas "falsch" (de)installieren.


EDIT: Ist es eigentlich normal dass die canals demo von tommti in Zeitlupe abläuft ?

gruntzmaker
2004-11-25, 23:09:02
Also auf CSS Maps würde ich mal nicht so viel geben, da gibts so einige (beta) Bugs..

In HL2 und Vampire 2 sowie im VST hab ich sowas noch nicht gesehen (alles Source ;) ).

Nicht jeder neue Beta Treiber ist einer der durch irgendeinen Cheat (diesmal wohl ungefilterte Texturen?) fps gewinnt...

Es soll ja auch Leute geben die Treiber etwas "falsch" (de)installieren.

Najo wenn Jesus damit zurecht kommt wieso denn nicht...

@tombman: Wenn ATis neue Karte kommt wird Nvidia eh platt sein wie ne Flunder, da wird ne gf68 bereits nach nur einem Jah die Mainstream Klasse sein bis hoch zur Ultra und dann macht auch SLI Sinn, also keine Frage der Auflösung sondern des Preises, an dem man immer seine Grakas Monitore und Auflösungen richten sollte nicht umgekehrt und Nvidia ist sicherich nicht größenwahnsinnig sondern einfach nur Opfer ihrer eigenen Tricks, ATi hat verdammt gut gelernt und sich die Entwickler zusammengeklaubt wos nur ging, ganz genauso wie damals als 3dfx noch lebte und nVidia das tat. SLI wird dann interessant wenn sich die Masse es leisten kann nicht wenn der fRamezeiger über die 30 Penunsen kommt.
Ich hoffe ja Alienware bringt ihr gutes AGP/PCI XPRESS SLI raus (Alienware Video Array), das wär super aus meiner Lage heraus und für andere sicher auch...

tombman
2004-11-26, 15:49:54
Nein, die Rosa-Fehler meine ich nicht. Eher sowas (http://www.driverheaven.net/showpost.php?p=487783&postcount=78) im VST, oder auch sowas (http://www.driverheaven.net/showpost.php?p=488204&postcount=117) in "Source" allgemein.

Scheint sich ja auf 4.12BETA zu beschränken... ;|

nein, das scheint sich auf gewisse unfähige user zu beschränken. Bei mir gibts keine cat 4.12 Fehler ;)

Amun-Re
2004-11-26, 15:59:13
Zum gegenwertigen Zeitpunkt sollte sich für meine Begriffe keiner ernsthaft mit der Anschaffung eines SLI Setups auseinandersetzen.

Das begründet sich einfach darin das gewöhnlich jeder für das investierte Geld auch einen adäquaten Gegenwert erwartet der momentan eben nicht gegeben ist.

Die Performance weiss zwar zu überzeugen und das selbst mit dem etwas Overhead belasteten SFR Mode allerdings sind die Forceware Treiber im momentanen Stadium noch weit davon entfernt SLI nicht nur als leistungsstarke sondern auch als stabile Lösung anzupreisen.

Die Lösung über Profiles mit dezidierter Unterstützung für das jeweilige Spiel finde ich eher suboptimal besser wäre eine transparente Lösung denn jemand der SLI besitzt fragt sich ohnehin nicht ob er es aktivieren will oder nicht allerhöchstens ob AFR oder SFR.

Quasar
2004-11-26, 16:09:52
nein, das scheint sich auf gewisse unfähige user zu beschränken. Bei mir gibts keine cat 4.12 Fehler ;)

Äh, ja. Glaub' ich dir glatt....
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2441633&postcount=61
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2451590&postcount=118
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2453224&postcount=127
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2451836&postcount=120
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2452837&postcount=125
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2453292&postcount=128
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2454798&postcount=142

Alle doof, ausser mich, gell? ;)

Dr Hake
2004-11-26, 16:52:08
kann es sein dass das hier die Ursache fuer den Geschwindigkeitszuwachs und Bildfehler einzelner bei HL2 ist?
"Well, at least in our conditions the Fast Z Reject brought no performance gains at all; maybe this should be attributed to our demos, maybe CATALYST4.12 beta driver turns this on by default, maybe Valve has quietly enabled Fast Z Reject for the RADEON X800 in a minor update for the game"
quelle:
http://www.xbitlabs.com/articles/video/display/half-life_16.html

Jesus
2004-11-26, 17:03:43
Äh, ja. Glaub' ich dir glatt....Alle doof, ausser mich, gell? ;)

Du kannst gern noch 10 solche Posts bringen, deswegen erscheinen bei mir und bei den meisten anderen auch KEINE Grafikfehler (komisch das kein Reviewer was von "Fehlern" berichtet hat, und auch auf den Vergleichsscreenshots sieht man nichts ...).

Aber wenn ich mal welche sehen sollte sag ichs dir als erstes ... :|

P.S.: Kuck mal ich kann auch sowas posten: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=185629 ... :ubash:

Mr. Lolman
2004-11-26, 17:14:13
nein, das scheint sich auf gewisse unfähige user zu beschränken. Bei mir gibts keine cat 4.12 Fehler ;)

dito

Dr Hake
2004-11-26, 17:14:45
kann es sein dass das hier die Ursache fuer den Geschwindigkeitszuwachs und Bildfehler...
Kommando zurueck betreffend der Bildfehler. Bei beyond3d haben einige keine Fehler mit 11b, aber welche mit 11 und 12.