PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia SLI@[H]ardOCP


Seiten : [1] 2 3

deekey777
2004-10-13, 10:43:42
NVIDIA SLI : It’s back! (http://www.hardocp.com/article.html?art=NjMz)

"NVIDIA SLI : It’s back! NVIDIA is re-introducing multiple video card 3D acceleration, and it may just change your mind on your next video card purchase."

Performance:
"SLI Benchmarks:
These are some raw numbers direct from NVIDIA that show off the power of coming SLI configurations with DOOM3 and Halo. And for those of you wondering just how big SLI will make your ePenis, 3DMark05.
Tabelle (http://www.hardocp.com/image.html?image=MTA5NzYwMzIxNWNGVnNoMkFBMEZfMV8xX2wuZ2lm)

DOOM3 - 1600x1200,32-bit, 4XAA
Halo - 1600x1200, 32-bit, NoAA
3DMark05 - 1024x768 Default
Athlon 64 4000+ 1GBDDR400, ASUS nForce4 SLI

q@w
2004-10-13, 10:53:57
Sunday, June 27, 2004
Date


:rolleyes:

Oder war die Tabelle noch nicht bekannt?

q@w
2004-10-13, 10:59:12
Oh ja, Tabelle war neu.
Nun denn... hängt eure Schw***e daneben... :|

DrumDub
2004-10-13, 10:59:29
ziemlich überzeugend die ergebnisse. ca. 70-80% leistungsgewinn. :)

quasar, die tabelle war noch nicht bekannt. die ist ganz neu und auf der frontpage von hardocp verlinkt. der artikel ist tatsächlich alt.

deekey777
2004-10-13, 11:06:01
Oh ja, Tabelle war neu.
Nun denn... hängt eure Schw***e daneben... :|


Das heisst ePenise!

Aber der Artikel ist tatsächlich alt. ;(

Die Tabelle dagegen druckfrische aus der Presse.

DrumDub
2004-10-13, 11:36:55
Das heisst ePenise!

ich bin ja eher für ne gute echte deutsche abkürzung: ESV. ;D

Holundermann
2004-10-13, 11:54:49
hui, das geht ja performt ordentlich, hat nv gut hinbekommen die sli implementierung (schreibt man das so?). die frage ist nur wer sich sowas leistet, aber gerade im einsteigermarkt mit nem pci express board könnt ich mir vorstellen dieses jahr ne 6600gt für 220€ zu kaufen und nächstes jahr noch eine für sagen wir 100€ :) um wieder up to date zu sein.

aber eigentlich ists nicht mehr wie eine spielerei für absolute enthusiasten. frag mich wann tombman sich so ein system zulegt :) - oder ist er doch zu rot gefärbt??

Sackgesicht
2004-10-13, 14:21:00
ziemlich überzeugend die ergebnisse. ca. 70-80% leistungsgewinn. :)
cut


und wie sieht es abseits der von nV handverlesenen Szenarien aus? Glaube eher um 30-40%.

Coda
2004-10-13, 14:26:08
Solang das Spiel kein Prerender verhindert ist das überall drin.

Deshalb wird es wohl bei UT 2004 schlechter aussehen. Mag sich aber durch nen entsprechenden Patch wieder ändern.

stav0815
2004-10-13, 14:28:22
und wie sieht es abseits der von nV handverlesenen Szenarien aus? Glaube eher um 30-40%.

wo siehst du hier handverlesene Szenarien? Halo z.B. war keine Parade des nv40, der 3D Mark is imho ein guter Test um die theorethische Leistungsfähigkeit zu testen... alleinig Doom3 is NV Gebiet.

Coda
2004-10-13, 14:32:20
Wie gesagt, es kommt allein auf's Prerender-Lock an, sonst kann man nämlich das Bild komplett abwechselnd rendern und da ist immer 70-80% drin (einleuchtend oder?)
Wenn der Lock da ist, muss das Bild gesplittet werden was nicht ganz so performant ist.

eXistence
2004-10-13, 14:39:21
könntest du mal kurz erklären, was genau prerender bezeichnet?
ich kanns mir zwar ungefähr zusammenreimen, allerdings verstehe ich nicht, wieso man das verhindern sollte...

Coda
2004-10-13, 14:59:39
Weil man sonst nen Mouselag bekommt (das Far Cry Phänomen)

Aber da 2 Karten ja ungefähr doppelt so schnell sind würde das bei SLi nix ausmachen wenn man 1 Frame zulässt (die Input-Latenz würde nicht wesentlich zunehmen)

Sackgesicht
2004-10-13, 15:07:51
wo siehst du hier handverlesene Szenarien? Halo z.B. war keine Parade des nv40, der 3D Mark is imho ein guter Test um die theorethische Leistungsfähigkeit zu testen... alleinig Doom3 is NV Gebiet.
hiermit meinte ich nicht das Spiel an sich, sondern wollte mich darauf beziehen dass es in jedem Spiel Szenarien gibt die sich besser fuer SLI eignen, da sich die Graka Last 50/50 aufteilen kann als bei anderen, wo eher 80/20 wahrscheinlich ist (Himmel, Wasser etc)

mapel110
2004-10-13, 15:14:26
hiermit meinte ich nicht das Spiel an sich, sondern wollte mich darauf beziehen dass es in jedem Spiel Szenarien gibt die sich besser fuer SLI eignen, da sich die Graka Last 50/50 aufteilen kann als bei anderen, wo eher 80/20 wahrscheinlich ist (Himmel, Wasser etc)

Ja, Ergebnisse von den Einzelbenchmarks vom 3dmark03 oder 05 wären interessant.

Tigerchen
2004-10-13, 15:32:16
hui, das geht ja performt ordentlich, hat nv gut hinbekommen die sli implementierung (schreibt man das so?). die frage ist nur wer sich sowas leistet, aber gerade im einsteigermarkt mit nem pci express board könnt ich mir vorstellen dieses jahr ne 6600gt für 220€ zu kaufen und nächstes jahr noch eine für sagen wir 100€ :) um wieder up to date zu sein.

aber eigentlich ists nicht mehr wie eine spielerei für absolute enthusiasten. frag mich wann tombman sich so ein system zulegt :) - oder ist er doch zu rot gefärbt??

Ich hoffe du hast auch gesehen welche CPU da genommen wurde.

DanMan
2004-10-13, 18:52:18
Ich hoffe du hast auch gesehen welche CPU da genommen wurde.
Jo, aber eine schwächere CPU sollte nicht viel an der Leistungsdifferenz ändern; nur an den absoluten Zahlen. Oder geh ich da falsch in der Annahmne?

egdusp
2004-10-13, 19:01:50
NV SLI arbeitet mit einem Lastverteilungsverfahren. Stand mal in einem Artikel bei der Vorstellung von SLI.

AFAIK rendert eine Karte den oberen Teil, während die andere den unteren rendert. Der Treiber schaut dann, welche zuerst fertig ist und passt die Teile entsprechend an, also z.B. rendert KArte 1 40% der oberen Bildschirmhälfte und entsprechend die andere 60% der unteren.

Deshalb sollte auch kein Mauslag entstehen. Der einzige Lag entsteht bei der Übertragung des Halbbildes von Karte 1 zu Karte 2 (Über PCIe oder SLI Connector). Und das sind ja lächerliche 1600*1200*4 (32bit) * 60 (fps) /2 (Halbbild) = 220 Mbyte/s.

Durch dieses Verfahen sollten sie in allen Situationen, die Füllraten, bzw. PS limitiert sind die LEistung nahezu verdoppeln können.

mfg
egdusp

mapel110
2004-10-13, 19:03:39
Jo, aber eine schwächere CPU sollte nicht viel an der Leistungsdifferenz ändern; nur an den absoluten Zahlen. Oder geh ich da falsch in der Annahmne?

1. Wer sich ein SLI-System leisten kann, hat auch das nötige "Kleingeld" für eine gute CPU. Zumal es SLI ohnehin nur für die neueren CPUs geben wird ....
2. Wer gibt soviel Geld aus, um dann in 640x480 zu zocken?! Ergo wird man eher dafür sorgen, dass die Grafikkarte eher zum Flaschenhals wird. Auflösung hoch, AA und AF an --> CPU nicht mehr so wichtig.

Tigerchen
2004-10-13, 19:05:19
Jo, aber eine schwächere CPU sollte nicht viel an der Leistungsdifferenz ändern; nur an den absoluten Zahlen. Oder geh ich da falsch in der Annahmne?

Das sollte man mal genau austesten und gegenüber stellen.
Die ersten SLI-Tests wurden ja auf einem schwächeren System gemacht. Da schnitt SLI nicht so toll ab.
Dann wurde mit Dual-athlon64 und einem 4000+ getestet. Da schnitt SLI viel besser ab. Zum Geld sparen scheint SLI also nicht geeignet zu sein.

DanMan
2004-10-13, 19:07:22
@egdusp: Da hast du wohl recht. Dann hat sich das mit dem Vorrendern ja wohl erledigt. Das übliche Schlechtreden halt.

reunion
2004-10-13, 20:08:16
These are some raw numbers direct from NVIDIA that show off the power of coming SLI configurations with DOOM3 and Halo.


schon alleine deshalb würde ich die Ergebnisse mit vorsicht nehmen, ich erinnere mich noch gut an die ersten Geforce FX 5800U benchs von NV.

tombman
2004-10-15, 19:00:38
aber eigentlich ists nicht mehr wie eine spielerei für absolute enthusiasten. frag mich wann tombman sich so ein system zulegt :) - oder ist er doch zu rot gefärbt??

Du kannst deinen Arsch drauf verwetten, daß ich mir sowas hole ;) Schließlich sind weit über 10000 3dm05 (ocing) völlig unmöglich mit nur einer Karte zu erreichen (selbst die "maccis" dieser Welt kommen nicht weit über 8000 mit einer x800xtpe)

Und ich finds geil, daß asus offenbar schon SLI NF4 mobos hat ;)

Das ganze noch gepaart mit einem FX55 (= die freak Variante des A64 4000)
@ > 3ghz und die Sau geht ab ;)

Mantikor
2004-10-16, 10:23:44
Tombman...du bist cool :D .

@Topic: Ist für einen armen Schüler wie mich leider nicht drin.
Ich frage mich ob das SLI Gespann im Endeffekt es schafft mit einem NV50/R520 gleichzuziehen. Wahrscheinlich ist es genau die Messlatte bei NV die es gilt zu überwinden.

@Tombman: Willst du mir nicht deine alte 6800Ultra abtreten, wenn du dein neues System hast? :ulove3:
;-)
Mfg Der Mantikor

Gast
2004-10-16, 11:18:53
Das sind ja recht nette Ergebnisse. Kommen zwar direkt von Nvidia aber letztlich ist doch absehbar, dass die High End Krone von NV gepachtet sein wird für ne Weile. Wenn sie das System auch bei den zukünftigen GPUs einsetzen, was ja Jens Neuschäfer von NV bestätigt hat in einem Interview, dann wird die Konkurenz wohl vorerst im High End nicht mehr punkten können. Da müsste der R5xx schon verdammt schnell sein.
Nvidias Vorteil wird bis zum neuen DX sein, dass sie kaum noch neue Transistoren verbraten müssen für Features. Es ist so gut wie alles da was benötigt wird. Man kann also jetzt den Spielraum durch kleinere Prozesse für mehr Pipes also verbreitern der Architektur und/oder für mehr Takt nutzen.
Und zum Schluss klebt man einfach 2 Boards per SLI Bridge zusammen et voila dürfte man wohl in allen Benchmarks siegen. Ich sehe da schwere Zeiten auf die Konkurenz zukommen, wenn sie nicht mit einer ähnlichen Methode auf den Markt preschen.

ATI z.b wird gezwungen sein neue Prozesse hauptsächlich mal für Features und Verbreitern der Architektur zu nutzen. Ohne SLI sehe ich da eigentlich kaum Chancen für ATI im High End vorne zu bleiben. Naja und die Wirkung auf die restliche Produktpalette kennt ja jeder, wenn in jedem Review plötzlich der Balken der ein oder anderen Firma ganz oben steht und dann wahrscheinlich noch mit einem Komfortablen Vorsprung.

Tigerchen
2004-10-16, 14:29:56
Das sind ja recht nette Ergebnisse. Kommen zwar direkt von Nvidia aber letztlich ist doch absehbar, dass die High End Krone von NV gepachtet sein wird für ne Weile. Wenn sie das System auch bei den zukünftigen GPUs einsetzen, was ja Jens Neuschäfer von NV bestätigt hat in einem Interview, dann wird die Konkurenz wohl vorerst im High End nicht mehr punkten können. Da müsste der R5xx schon verdammt schnell sein.
Nvidias Vorteil wird bis zum neuen DX sein, dass sie kaum noch neue Transistoren verbraten müssen für Features. Es ist so gut wie alles da was benötigt wird. Man kann also jetzt den Spielraum durch kleinere Prozesse für mehr Pipes also verbreitern der Architektur und/oder für mehr Takt nutzen.
Und zum Schluss klebt man einfach 2 Boards per SLI Bridge zusammen et voila dürfte man wohl in allen Benchmarks siegen. Ich sehe da schwere Zeiten auf die Konkurenz zukommen, wenn sie nicht mit einer ähnlichen Methode auf den Markt preschen.


Tja. Wenn Seiten wie 3D-Center fürs nV-Marketing mittels SLI einspannen lassen hat ATI wirklich keine Chance. Wenn ich mir so die News vom 14.10. anschaue könnte das auch direkt aus der Feder von nVidia stammen.

dildo4u
2004-10-16, 14:37:20
Tja. Wenn Seiten wie 3D-Center fürs nV-Marketing mittels SLI einspannen lassen hat ATI wirklich keine Chance. Wenn ich mir so die News vom 14.10. anschaue könnte das auch direkt aus der Feder von nVidia stammen.

Hmm naj warum sollten sie es schelcht reden davon werden die ergebnisse auch nicht schlechter.Ati kann ja noch auf alienware hoffen dann gibt bald vieleicht X800XT im doppelpack.

9800ProZwerg
2004-10-16, 14:49:11
Du kannst deinen Arsch drauf verwetten, daß ich mir sowas hole ;) Schließlich sind weit über 10000 3dm05 (ocing) völlig unmöglich mit nur einer Karte zu erreichen (selbst die "maccis" dieser Welt kommen nicht weit über 8000 mit einer x800xtpe)

Und ich finds geil, daß asus offenbar schon SLI NF4 mobos hat ;)

Das ganze noch gepaart mit einem FX55 (= die freak Variante des A64 4000)
@ > 3ghz und die Sau geht ab ;)

Sag mal, was muss ich machen damit ich soviel Geld habe wie du :biggrin: ?

Gast
2004-10-16, 15:12:09
Sag mal, was muss ich machen damit ich soviel Geld habe wie du :biggrin: ?

Rote Zahlen auf deim Konto :)

reunion
2004-10-16, 15:31:32
Hmm naj warum sollten sie es schelcht reden davon werden die ergebnisse auch nicht schlechter.Ati kann ja noch auf alienware hoffen dann gibt bald vieleicht X800XT im doppelpack.

Jeder R300/R420 wäre theoretisch in der Lage 255 weitere Chips mit je 1GB VRAM anzusprechen, nur ist ATi dieses sinnlose Vorhaben offensichtlich zu blöd. Klar, durch SLI kann ich mehr Leistung erreichen als mit einem Chip, aber zu welchen preis? Doppelter Stromverbrauch, doppelte Wärmeentwicklung, Spezielmainboard mit 2 16xPCIe-Slots, mehr als doppelter Preis, ect. Und das alles für vielleicht 30%-70% Mehrleistung? No, thanks. :cool:

dildo4u
2004-10-16, 15:34:03
Jeder R300/R420 wäre theoretisch in der Lage 255 weitere Chips mit je 1GB VRAM anzusprechen, nur ist ATi dieses sinnlose Vorhaben offensichtlich zu blöd. Klar, durch SLI kann ich mehr Leistung erreichen als mit einem Chip, aber zu welchen preis? Doppelter Stromverbrauch, doppelte Wärmeentwicklung, Spezielmainboard mit 2 16xPCIe-Slots, mehr als doppelter Preis, ect. Und das alles für vielleicht 30%-70% Mehrleistung? No, thanks. :cool:
tjo das kann man sehen wie man will dann dürfte es nach deiner rechnung auch kein ferrari geben ist nur 100km/h schneller als ein bmw braucht aber doppellt so viel sprit wie ein normales auto warum soll sowas wie sli für PC verrückte nicht angeboten werden.?

Gast
2004-10-16, 15:42:46
Tja. Wenn Seiten wie 3D-Center fürs nV-Marketing mittels SLI einspannen lassen hat ATI wirklich keine Chance. Wenn ich mir so die News vom 14.10. anschaue könnte das auch direkt aus der Feder von nVidia stammen.


Was soll das denn?
Es geht doch nur darum wer das schnellste hat. So ist das nunmal. Wieviel das kostet ist vollkommen wurscht. Das macht dann der Markt. Ich könnte mir zb. vorstellen, dass man SLI Karten in Bundels vertickt also 2 Karten + Bridge in einem Karton zu einem etwas günstigeren Preis als wenn sie einzeln verkauft.
An der High End Krone ändert das aber nichts.
Bei der Frage nach dem 1. Platz gehts eben nur um FPS bei etwa gleicher BQ. Wie das erreicht wird ist egal. Wer 1. ist der ist eben 1. und genauso muss es auch von den Medien betrachtet werden. Es steht ja ATI frei ähnliche Wege einzugehen. Aber nur auf 6800U Niveau bleiben bzw. dem dann jeweils äquivalenten Konkurenzprodukt wird für ATI nicht reichen wenn sie ihre Position halten wollen. Das ist doch gut. Konkurenz belebt das Geschäft und der vorne ist sollte dann auch das meisste absetzen am Markt und das hat ja bekanntlich mit eniger Zeitverzögerung natürlich auch Bestand.

Den einzigen den so etwas nicht gefällt dürften die extremen Fanboys sein. Aber das kann doch dem normalen Kunden hier im Board egal sein. ATI wird so richtig gut gefordert werden. Was will ich als Kunde mehr. So komm ich zur schnellstmöglichen Entwicklung, da es sich keiner leisten kann auf Dauer immer nur 2. Sieger zu sein. Nvidia war jetzt ne Ganze Weile 2ter. Man sieht, dass sie nicht vorhaben das noch ein Jahr zu sein also haben sie gearbeitet und werden dafür verdienter Maßen die Lorbeeren ernten - auch von der Presse. Ich wüsste nicht was daran falsch sein sollte. ATI zb. hat sich doch sehr ausgeruht mit der aktuellen Palette. Das sieht doch jeder. Das finde ich nicht so sonderlich löblich. Da wäre mehr drinn gewesen für den Kunden wie Nvidia ja bestens derzeit vormacht.

Gast
2004-10-16, 15:54:00
tjo das kann man sehen wie man will dann dürfte es nach deiner rechnung auch kein ferrari geben ist nur 100km/h schneller als ein bmw braucht aber doppellt so viel sprit wie ein normales auto warum soll sowas wie sli für PC verrückte nicht angeboten werden.?

So ist es. Für alles gibt es einen Markt und der High End Markt ist nun mal eben nicht nur dazu da ein paar wenige mit dem schnellsten zu versorgen sondern hat eben auch seine marketingtechnische Wirkung.

SM3.0, FP-Filtering und SLI für maximale Performance. Da gibts keinen Zweifel wer der Herr im Hause sein wird. Gut für den Kunden und schlecht für ATI aber die werden sich dann eben dementsprechend anstrengen um zu gegebener Zeit zurückzuschlagen.
Was will man denn mehr als Käufer. Davon, dass ATI sich da oben mit ihrer minimal Hardware (vorsicht ist extra überzogen dargestellt) halten kann habe ich doch als Kunde gar nix. So verlieren sie bei der Performance recht drastisch und das wird fehlende Technologie noch mehr für den Massenkunden offenbaren. Dann wirds Zeit für sie sich anzustrengen. Das haben sie einfach nicht im ausreichenden Ausmaß gemacht genauso wie Nvidia die letzten Jahre.
Ich kann überhaupt nicht verstehen wieso man dann noch rumjammern muss nur weil die Lieblingsfirma dann mal nicht mehr oben ist und offensichtliche Designschwächen ziemlich deutlich offenbart werden. Das ist dich gut für die weitere Entwicklung. ATI verdient momentan mit ihren Produkten einfach nicht gelobt zu werden, genauso wenig wie Nvidia es verdient hat zu FX zeiten. Die wurden da knallhart abgestraft und das vollkommen zu Recht. Wenn ATI seine Richtung nicht ändert wird sie das selbe Schicksal erleiden. Mir als Käufer nur Recht.

Gast
2004-10-16, 17:52:22
Sag mal, was muss ich machen damit ich soviel Geld habe wie du :biggrin: ?

jo, sag ma echt, wie kannst du dir des leisten oO? bist du irgendson manager :)
oder hat dein vater n hardware shop? oder fallen dir die sachen imma von lkw zu? :)

sry für ot :(

Gast
2004-10-16, 17:58:50
Wenn ATI seine Richtung nicht ändert wird sie das selbe Schicksal erleiden. Mir als Käufer nur Recht.

abgesehen davon, dass atis hardware keineswegs besonders schlechter für das gamer-gebiet geeignet is, wie kann es dir recht sein, wenn auf einmal nur noch nvidia da is oO?

Tigerchen
2004-10-16, 19:01:10
Was soll das denn?
Es geht doch nur darum wer das schnellste hat. So ist das nunmal. Wieviel das kostet ist vollkommen wurscht. Das macht dann der Markt. Ich könnte mir zb. vorstellen, dass man SLI Karten in Bundels vertickt also 2 Karten + Bridge in einem Karton zu einem etwas günstigeren Preis als wenn sie einzeln verkauft.
An der High End Krone ändert das aber nichts.
Bei der Frage nach dem 1. Platz gehts eben nur um FPS bei etwa gleicher BQ. Wie das erreicht wird ist egal. Wer 1. ist der ist eben 1. und genauso muss es auch von den Medien betrachtet werden. Es steht ja ATI frei ähnliche Wege einzugehen. Aber nur auf 6800U Niveau bleiben bzw. dem dann jeweils äquivalenten Konkurenzprodukt wird für ATI nicht reichen wenn sie ihre Position halten wollen. Das ist doch gut. Konkurenz belebt das Geschäft und der vorne ist sollte dann auch das meisste absetzen am Markt und das hat ja bekanntlich mit eniger Zeitverzögerung natürlich auch Bestand.

Den einzigen den so etwas nicht gefällt dürften die extremen Fanboys sein. Aber das kann doch dem normalen Kunden hier im Board egal sein. ATI wird so richtig gut gefordert werden. Was will ich als Kunde mehr. So komm ich zur schnellstmöglichen Entwicklung, da es sich keiner leisten kann auf Dauer immer nur 2. Sieger zu sein. Nvidia war jetzt ne Ganze Weile 2ter. Man sieht, dass sie nicht vorhaben das noch ein Jahr zu sein also haben sie gearbeitet und werden dafür verdienter Maßen die Lorbeeren ernten - auch von der Presse. Ich wüsste nicht was daran falsch sein sollte. ATI zb. hat sich doch sehr ausgeruht mit der aktuellen Palette. Das sieht doch jeder. Das finde ich nicht so sonderlich löblich. Da wäre mehr drinn gewesen für den Kunden wie Nvidia ja bestens derzeit vormacht.

Was bringt es mir als Otto Normalkunde wenn da mit SLI-Benchmarkbalken gekeult wird? Leisten kann oder will man sich daß dann doch nicht. Der einzige Effekt ist daß der Ruhm auf die kleineren Modelle überstrahlt. Und das ist der Einzige Zweck den nV mit der Vorstellung von SLI verfolgt. Ist genau so ein Schwachsinn wie diverse Extrem Edition oder FX CPU's.

Du kannst das gerne gut finden. Aber wer den Schwindel durchschaut wendet sich angewidert ab.

Gast
2004-10-16, 19:41:11
Jeder R300/R420 wäre theoretisch in der Lage 255 weitere Chips mit je 1GB VRAM anzusprechen, nur ist ATi dieses sinnlose Vorhaben offensichtlich zu blöd. Klar, durch SLI kann ich mehr Leistung erreichen als mit einem Chip, aber zu welchen preis? Doppelter Stromverbrauch, doppelte Wärmeentwicklung, Spezielmainboard mit 2 16xPCIe-Slots, mehr als doppelter Preis, ect. Und das alles für vielleicht 30%-70% Mehrleistung? No, thanks. :cool:

Full Ack.

Die High End Karten von heute sind ausreichend schnell um in den höchsten Auflösungen in 99% der Spiele mit AA und AF zu spielen. Was braucht man mehr?
Eine 6800Ultra erfordert ja schon ein gutes Netzteil, aber 2 von den Monstern...
Blanker Unsinn.
Wenn Spiele rauskommen, die wirklich die Power brauchen, dann haben wir schon die Nachfolger-Generation am Start oder besser.
Dann besser jetzt eine Karte, die eh alles packt, und in einem Jahr die nächte Generation, die dann ökonomisch sinnvoller ist.

tombman
2004-10-16, 20:11:01
Full Ack.

Die High End Karten von heute sind ausreichend schnell um in den höchsten Auflösungen in 99% der Spiele mit AA und AF zu spielen. Was braucht man mehr?
Eine 6800Ultra erfordert ja schon ein gutes Netzteil, aber 2 von den Monstern...
Blanker Unsinn.
Wenn Spiele rauskommen, die wirklich die Power brauchen, dann haben wir schon die Nachfolger-Generation am Start oder besser.
Dann besser jetzt eine Karte, die eh alles packt, und in einem Jahr die nächte Generation, die dann ökonomisch sinnvoller ist.

1.) spezielle mainboards wird mit dem nf4 SLI nicht mehr so ganz stimmen, der wird ned viel teurer werden als die PRO Variante. (klar, JETZT bräuchte man noch dual workstation mobos, aber des wird sich dieses Jahr noch ändern)

2.) 99% der games in 1600 mit 4/16 und 60fps? Sicher nicht. 30fps- ja, was aber bedeutet in die Ruckelgrenze zu kommen bei den Minimum frames.
Und 60 fps (= 30fps Minimum) bedeutet eben SLI.

3.) SLI hat aber auch eine anderer psychologische Wirkung. Die Spieledesigner legen das game immer so aus, daß die maximale Detailstufe mit allem drum und dran auf der besten hardware flüssig rennt-- das Problem ist nur, daß bei denen 30fps noch als flüssig in den Köpfen rumspukt, ich aber 60fps will. Und genau da kommt SLI ins Spiel, denn SLI gibt mir die power die "Fehler" bzgl fps der Designer auszugleichen :D

Und gnaz abgesehen davon bekommt man praktisch schon jetzt die Leistung enes NV5x oder R5xx- wie geil is das? :D

aths
2004-10-16, 21:12:34
[COLOR="#000088"]
Was bringt es mir als Otto Normalkunde wenn da mit SLI-Benchmarkbalken gekeult wird? Leisten kann oder will man sich daß dann doch nicht. Der einzige Effekt ist daß der Ruhm auf die kleineren Modelle überstrahlt. Und das ist der Einzige Zweck den nV mit der Vorstellung von SLI verfolgt. Ist genau so ein Schwachsinn wie diverse Extrem Edition oder FX CPU's. (Bitte bitte Mehrzahlbildung ohne Apostroph.)

Ja, das ist der Hauptgedanke bei NVs SLI.

Du kannst das gerne gut finden. Aber wer den Schwindel durchschaut wendet sich angewidert ab. Schwindel wäre es, wenn SLI

- der Presse vorbehalten bleibt

- die Leistungssteigerung in tatsächlichen Games sehr gering ist

mictasm
2004-10-17, 00:37:33
Was bringt es mir als Otto Normalkunde wenn da mit SLI-Benchmarkbalken gekeult wird? Leisten kann oder will man sich daß dann doch nicht. Der einzige Effekt ist daß der Ruhm auf die kleineren Modelle überstrahlt. Und das ist der Einzige Zweck den nV mit der Vorstellung von SLI verfolgt. Ist genau so ein Schwachsinn wie diverse Extrem Edition oder FX CPU's.

Du kannst das gerne gut finden. Aber wer den Schwindel durchschaut wendet sich angewidert ab.


Wie genau war jetzt der Zusammenhang, den du vorher zu 3DCenter hergestellt hast?

Du darfst gerne ein Produkt gut/schlecht finden. Nur verstehe ich deinen Vorwurf an 3DCenter als nv-Marketing Plattform nicht? Gerade wenn du für dich meinst, dieses Marketing zu durchschauen, solltest du auch in der Lage sein, den Begriff "Berichterstattung" einordnen zu können.

Möchtest du jetzt ernsthaft 3DCenter eine einseitige Bevorzugung unterstellen? Ist es nicht logisch, den Technologieführer in einem Markt auch so zu nennen? Nur weil du vielleicht eine andere Firma Nvidia vorziehst, darf 3DC keine Fakten berichten? Und denk dran, dass du für DICH schreibst, nicht für die Allgemeinheit ("man").

Ich weiss schon, was nun kommt. "Ich schreibe es, da sonst jeder Noob darauf hereinfällt." LÖL


abgesehen davon, dass atis hardware keineswegs besonders schlechter für das gamer-gebiet geeignet is, wie kann es dir recht sein, wenn auf einmal nur noch nvidia da is oO?


Wie kommst du darauf, dass sich ATI in Luft auflöst, wenn Nvidia mal ein Jahr die Leistungs- und Technologiekrone trägt?

Tigerchen
2004-10-17, 05:43:36
Wie genau war jetzt der Zusammenhang, den du vorher zu 3DCenter hergestellt hast?

Du darfst gerne ein Produkt gut/schlecht finden. Nur verstehe ich deinen Vorwurf an 3DCenter als nv-Marketing Plattform nicht? Gerade wenn du für dich meinst, dieses Marketing zu durchschauen, solltest du auch in der Lage sein, den Begriff "Berichterstattung" einordnen zu können.

Möchtest du jetzt ernsthaft 3DCenter eine einseitige Bevorzugung unterstellen? Ist es nicht logisch, den Technologieführer in einem Markt auch so zu nennen? Nur weil du vielleicht eine andere Firma Nvidia vorziehst, darf 3DC keine Fakten berichten? Und denk dran, dass du für DICH schreibst, nicht für die Allgemeinheit ("man").

Ich weiss schon, was nun kommt. "Ich schreibe es, da sonst jeder Noob darauf hereinfällt." LÖL



Hmm. Ich finde die "News" zum Thema SLI sehr einseitig. Von kritischer Berichterstattung keine Spur. Man merkt du findest das gut.

Welche Formulierungen ich verwende darfst du getrost mir überlassen. Man braucht nun wirklich kein Hellseher zu sein um zu erkennen daß SLI kein Massenprodukt sein wird.

mictasm
2004-10-17, 06:22:01
Löl, man merkt, du findest das schlecht.

Man braucht kein Hellseher zu sein, um festzustellen, dass allein in diesem Forum locker 10 Kunden darauf bereits warten. Rechne das mal hoch...

Gast
2004-10-17, 06:40:47
Löl, man merkt, du findest das schlecht.
Ich finde das auch nicht toll. Das beweist doch nur, daß Nvidia es nur über stromfressende Monster schaffen kann ATI zu übertrumpfen. Ein Armutszeugniss. Mehr nicht.

Tigerchen
2004-10-17, 06:44:17
Löl, man merkt, du findest das schlecht.

Man braucht kein Hellseher zu sein, um festzustellen, dass allein in diesem Forum locker 10 Kunden darauf bereits warten. Rechne das mal hoch...

In solchen Foren halten sich Freaks auf. Seinerzeit warteten in solchen Foren auch Massen an Käufern für Voodoo 5 Grafikkarten. Wenn ich das mal hochgerechnet hätte wäre die V5 wohl der Verkaufsschlager des Jahrhunderts geworden.

LovesuckZ
2004-10-17, 09:17:33
Ich finde das auch nicht toll. Das beweist doch nur, daß Nvidia es nur über stromfressende Monster schaffen kann ATI zu übertrumpfen. Ein Armutszeugniss. Mehr nicht.

Oha, man merkt, dein ATischrein scheint anzufangen zu bröseln.
Nichts wie hin und schnell wieder zusammenkleben!!!!!111

Ich weiß nicht,wie Sli ein Armutszeugnis sein koennte. Dann muesste auch die XTPE eins sein, weil man nicht idn der Lage ist, Technologie und Speed unter einem Hut zu packen. Dazu kommt noch, die geringere Verfuegbarkeit.
Das ganze treffe natuerlich auch auf die Ultra Variante des NV40 zu.
Wie du oder Tigerchen argumentierst, muesste man beiden herstellern auch das Bereitstellen von 500€ Karten ankreiden, da diese "stromfressende[n] Monster" wären und der "Otto Normalkunde [sich diese nicht] Leisten kann".
Und das laesst sich auf jede anderen Markt uebernehmen (ts, wofür'nen ferrari).

r@h
2004-10-17, 09:17:52
Was bringt es mir als Otto Normalkunde wenn da mit SLI-Benchmarkbalken gekeult wird? Leisten kann oder will man sich daß dann doch nicht. Der einzige Effekt ist daß der Ruhm auf die kleineren Modelle überstrahlt. Und das ist der Einzige Zweck den nV mit der Vorstellung von SLI verfolgt. Ist genau so ein Schwachsinn wie diverse Extrem Edition oder FX CPU's.Hast Du ATI's Verlautbarung bezüglich der völlig übertakteten X800 XTPE (monstermäßtige Trockeneis/Kompressor-Kühlungskombi ;-) nun absichtlich 'vergessen' oder findest Du das, was ATI da treibt, tatsächlich besser?
:confused:

Ich kann jedenfalls NIRGENDWO einen Unterschied bei den IHV's oder ganz generell bei den Hardware-Herstellern feststellen...

Aber sieh Du ruhig weiter durch Deine rosa getünchte Brille!
:D

Razor

r@h
2004-10-17, 09:23:52
Welche Formulierungen ich verwende darfst du getrost mir überlassen. Man braucht nun wirklich kein Hellseher zu sein um zu erkennen daß SLI kein Massenprodukt sein wird.Klar, aber eine X800XTPE wird eines sein...
*gg*

Und das selbstredend mit beiliegender Monster-Kühlung!
Sag mal... merkst Du eigentlich noch was?

Bei der V2-SLI hat damals auch keiner nach dem Preis 'geheult'. Und auch diese war im eigentlichen Sinn kein Massenprodukt (wie im übrigen ALLE High-End-/Professionell-orientierten Systme), sondern einfach nur brutal schnell.

Und hier ist es nichts anderes...
Aber vielleicht beantwortest Du mir jetzt mal trotzdem eine Frage:
"Was ist denn jetzt bitte so schlecht daran, dass nVidia mal wieder die Oberhand in Sachen Performance hat?"

Kränkt das irgendwie Dein Ego, oder könnte dies auch wirklich relevante Gründe haben?
:confused:

Razor

Tigerchen
2004-10-17, 09:53:18
Hast Du ATI's Verlautbarung bezüglich der völlig übertakteten X800 XTPE (monstermäßtige Trockeneis/Kompressor-Kühlungskombi ;-) nun absichtlich 'vergessen' oder findest Du das, was ATI da treibt, tatsächlich besser?
:confused:

Ich kann jedenfalls NIRGENDWO einen Unterschied bei den IHV's oder ganz generell bei den Hardware-Herstellern feststellen...

Aber sieh Du ruhig weiter durch Deine rosa getünchte Brille!
:D

Razor

In der Tat weiß ich nichts davon daß ATI eine Karte mit Trockeneiskühlung rausbringen will. Außerdem gehts in diesem Thread expliziert um SLI. Aber mit oder ohne Trockeneis die X800 PE stelle ich ohne Probleme in eine Reihe mit nV's SLI, Intel's Extreme Edition und AMD's FX-Serie. Und ich wünsche mir bei all diesem Unfug eine angemessen kritische Sicht auf solche Artikel seitens der 3D-Center Crew.

Gast
2004-10-17, 09:53:18
ziemlich überzeugend die ergebnisse. ca. 70-80% leistungsgewinn. :)

quasar, die tabelle war noch nicht bekannt. die ist ganz neu und auf der frontpage von hardocp verlinkt. der artikel ist tatsächlich alt.

HaHaHa,

einem NVIDIA Benchmark zu glauben ist genauso hirnrissig wie an den Osterhasen zu glauben! Aus dem ALTER sind wir schon lange raus!

Gast
2004-10-17, 10:43:07
abgesehen davon, dass atis hardware keineswegs besonders schlechter für das gamer-gebiet geeignet is, wie kann es dir recht sein, wenn auf einmal nur noch nvidia da is oO?

Wie kommst du darauf, dass dann nur noch Nvidia da wäre? Ich denke du verstehst die Zusammenhänge nicht und hast auch nicht richtig gelesen was ich geschrieben habe.

Ich habe geschrieben, dass ATI sich dann mehr anstrengen muss und darauf wird es hinauslaufen, da sich der 2. Platz in den Benchmarks und auch nur der 2. Platz in der Technologie sich unweigerlich mit einiger Zeitverzögerung in geringeren Verkaufszahlen niederschlagen wird.

Finde ich das gut? Natürlich finde ich das gut. Dann wird ATI nämlich gezwungen was besseres abzuliefern als das was es momentan gibt. Was habe ich als allgemeiner Kunde davon, dass ATI seine Quartalsergebnisse ständig steigert? Richtig nichts. Man sollte sich mal fragen wie sie das im abgelaufenen Quartal geschafft haben? - Richtig durch die X300 und X800. Genau betrachtet sind das reine abzock Produkte. Erstens mal haben sie den Namen nicht verdient und zweitens sind sie auch noch richtig dreist teurer als die Produkte die sie eigentlich sind - 9600etc...

Mit SLI und einem klaren Performance und Technologieführer Nvidia wird es in Zukunft für ATI schwer solche Produkte abzuliefern. Und genau das finde ich gut, weil sie sich dann mehr ins Zeug legen. Dass sie das diesmal nicht gemacht haben ist sowas von deutlich, da braucht man keine Brille mehr.

Nochmal ich habe nichts davon wenn ATI Minimalstprodukte abliefert. Davon hat nur ATI was aber das ist mir als Kunde wurscht.
Mit SLI wird Nvidia vorerst vorne sein und das ist doch in Ordnung. ATI war doch lange genug vorn. Irgendwann ist es dann wieder ATI. Von diesem ständigen Wechselspiel habe ich als Kunde mehr. Und es braucht keiner Angst haben ATI würde pleite gegen. Die sind gross genug und deswegen finde ich schadet so ein SLI Dämpfer für sie auch nicht.
Die Konkurenz hat diesmal eindeutig mehr investiert und ist mehr Risiko eingegangen und wird dafür am Ende ohne Zweifel mit der Technologie und Performancekrone entlohnt werden und das ist fair und gerecht und im Sinne der allg. Kundschaft. Zu einem anderen Schluss kann auch ein Reviewer oder eine Hardwareseite und Zeitschrift nicht kommen.
Es geht hier nicht darum, dass die eigene Lieblingsfirma vorne ist. Das sollten sich einiger hier mal klar machen.

Gast
2004-10-17, 10:44:05
sorry meinte in meinem Post X300 und X600 nicht die X800.

reunion
2004-10-17, 10:57:16
ATI verdient momentan mit ihren Produkten einfach nicht gelobt zu werden, genauso wenig wie Nvidia es verdient hat zu FX zeiten. Die wurden da knallhart abgestraft und das vollkommen zu Recht. Wenn ATI seine Richtung nicht ändert wird sie das selbe Schicksal erleiden. Mir als Käufer nur Recht.

Bis auf den kleinen Unterschied das die jetztige ATi produktpalette bis auf den fehlenden SM3.0 Support in keinster Weise minderwertiger (wenn nicht sogar tw. schneller) ist als die jeweiligen Konkurrenzprodukte, was zu FX-zeiten ein bisschen anders war.

reunion
2004-10-17, 11:03:53
Bei der V2-SLI hat damals auch keiner nach dem Preis 'geheult'. Und auch diese war im eigentlichen Sinn kein Massenprodukt (wie im übrigen ALLE High-End-/Professionell-orientierten Systme), sondern einfach nur brutal schnell.


Die V2 SLI würde ich schon als Massenprodukt bezeichnen, laut Aussagen von 3dfx haben sich gleich zu beginn mehr als 40% der V2-käufer damals das SLI Bundle gegönt. Außerdem war das ganze damals viel extremer, denn bereits eine V2 pulverisierte die Konkurrenz mindestens um den Faktor 2-3 und bot dank bi-Texturfilter auch noch die überlegene BQ, jeder der auf seinen PC etwas spielen wollte war praktisch auf 3dfx angeweisen.

Ailuros
2004-10-17, 11:50:00
Die V2 SLI würde ich schon als Massenprodukt bezeichnen, laut Aussagen von 3dfx haben sich gleich zu beginn mehr als 40% der V2-käufer damals das SLI Bundle gegönt. Außerdem war das ganze damals viel extremer, denn bereits eine V2 pulverisierte die Konkurrenz mindestens um den Faktor 2-3 und bot dank bi-Texturfilter auch noch die überlegene BQ, jeder der auf seinen PC etwas spielen wollte war praktisch auf 3dfx angeweisen.

Das Preis-Leistungsverhaeltnis war trotdem bekloppt. Du kannst es hin und her reissen wie Du es willst aber zwei V2's kosteten mich damals knappe 600$ + eine zusaetzliche 2D Karte. Tragische Ironie war dass all dieses noch idiotischer erschien als die V3 auf den Markt kam und wir reden hier nicht um Jahrelangen Unterschied.

Was an NV's SLI heute genauso bekloppt ist, ist die Tatsache dass jemand einen extrem hohen Preis dafuer zahlen wird wenn es verfuegbar sein wird und innerhalb ein paar Monaten bis zu etwas weniger als einem Jahr wird man gleich oder bessere Leistung fuer die Haelfte der Unkosten eines SLI Systems bekommen.

Die Kleinigkeit hier ist eben dass fuer das Publikum auf das SLI ziehlt, Unkosten keine Debatte sind, weil sie eben auch mehr als das ausgeben wuerden fuer ein solches System.

Das mit der Bildqualitaet ist auch Schmarren; mit einem ueberteurem NV SLI bekommt der Freak der soviel ausgeben will, spielbarere hybride MSAA/SSAA modi in hohen Aufloesungen. Ich wuerde selber nicht in so ein Ding investieren, aber wenn Unkosten kein Problem fuer mich waeren und ich ein fanatischer Flight-sim waere haette ich jeden Grund mir so ein Ding zu besorgen.

Galt genauso fuer die nie veroeffentlichte V5 6000. Was genau haette die 600$ teure V5 6k damals geliefert? Zweimal so hohe RGSS Leistung und das mit einem zwielichtigen 50W externen Stromversorger. Das Ding wurde storniert und fand sein zu Hause in Quantum3D's AAlchemy Systemen in 4-way oder 8-way multi-chip configs.

Quantum3D arbeitet seit 2001 mit NVIDIA zusammen nur seither mit multi-board configs in Independence Systemen. Hier wird eben nur ein quasi profi System zur breiteren Verfuegung gestellt und ja man kann es eventuell auch als quasi Verzweiflungsakt ansehen, genauso wie es auch bei 3dfx aussah. Einmal beim VSA-100 und einmal beim nie veroeffentlichten Spectre.

Ich persoenlich war schon immer gegen multi-chip/board Konfiguration eben wegen dem sehr hohen Kaufspreis und der Redundanz die damit kommt. Meiner Meinung nach werden Grafik-IHVs sehr schnell dem multi-core CPU Trend in der absehbaren Zukunft folgen, nur ist es eben ein fundamentaler Unterschied mehr als einen core auf einem einzelnen die quasi eingebettet zu haben.

Von dem abgesehen wuerde es NV SLI nicht geben und ATI wuerde mit einem 4-way simFusion6500 fuer den PC antanzen, waere die ganze Argumentation genau anders rum. Je nach dem was unser Lieblings-IHV gerade verkauft und dessen PR/Marketing Abteilung herumtrommelt. Nachdem fehlt es wohl viel zu vielen die Faehigkeit es ein bisschen objektiver anzusehen und wohl auch an Personalitaet, da es immer schwerer wird heutzutage User mit ihrer eigenen persoenlichen Meinung zu finden. :|

Leonidas
2004-10-17, 11:56:52
Das sind ja recht nette Ergebnisse. Kommen zwar direkt von Nvidia aber letztlich ist doch absehbar, dass die High End Krone von NV gepachtet sein wird für ne Weile. Wenn sie das System auch bei den zukünftigen GPUs einsetzen, was ja Jens Neuschäfer von NV bestätigt hat in einem Interview, dann wird die Konkurenz wohl vorerst im High End nicht mehr punkten können.



Ich sehe persönlich nicht, daß wir nun wegen SLI die HighEnd-Krone plötzlich an eine Dual-GFX geben sollen. Der Kampf lautet nach wie vor single GF68U vs. single XT-PE. SLI spielt in einer eigenen Liga, sollte immer extra betrachtet werden, weil der Kostenpunkt einfach ein enormer Unterschied ist.

Ailuros
2004-10-17, 11:57:05
Nochmal ich habe nichts davon wenn ATI Minimalstprodukte abliefert. Davon hat nur ATI was aber das ist mir als Kunde wurscht.
Mit SLI wird Nvidia vorerst vorne sein und das ist doch in Ordnung. ATI war doch lange genug vorn. Irgendwann ist es dann wieder ATI. Von diesem ständigen Wechselspiel habe ich als Kunde mehr. Und es braucht keiner Angst haben ATI würde pleite gegen. Die sind gross genug und deswegen finde ich schadet so ein SLI Dämpfer für sie auch nicht.
Die Konkurenz hat diesmal eindeutig mehr investiert und ist mehr Risiko eingegangen und wird dafür am Ende ohne Zweifel mit der Technologie und Performancekrone entlohnt werden und das ist fair und gerecht und im Sinne der allg. Kundschaft. Zu einem anderen Schluss kann auch ein Reviewer oder eine Hardwareseite und Zeitschrift nicht kommen.
Es geht hier nicht darum, dass die eigene Lieblingsfirma vorne ist. Das sollten sich einiger hier mal klar machen.

Copy.

Leonidas
2004-10-17, 11:59:19
Tja. Wenn Seiten wie 3D-Center fürs nV-Marketing mittels SLI einspannen lassen hat ATI wirklich keine Chance. Wenn ich mir so die News vom 14.10. anschaue könnte das auch direkt aus der Feder von nVidia stammen.




Wenn es von NV wäre, dann gäbe es 70% mehr Adjektive mit 50%igem Superlativ-Anteil.

Im übrigen sehe ich diese News unverbissen. Über das Thema mußte schlicht berichtet werden - auch zu dem Punkt der Zukunfts-Technologie, denn wäre dieser anders gelagert, hätte ich das auch gesagt (SLI auf NV50 lohnt sich beispielsweise nicht mehr, da dann WGF schon zu nahe ist). Und ich kann SLI auch nicht künstlich langsamer machen.

Leonidas
2004-10-17, 12:04:24
Hmm. Ich finde die "News" zum Thema SLI sehr einseitig. Von kritischer Berichterstattung keine Spur. Man merkt du findest das gut.



Es ist schwierig etwas zu kritisieren, wenn es genau das erfüllt, was man erwartet *. Und Kritik um der Kritik willen kann nur ein Fanboy fordern.


* Das SLI teuer ist, ist wohl allgemein bekannt. Sonstige Kritikpunkte? Spezial-Mobo? Erledigt sich mit nForce4. Laut? Wenn man die richtigen 68U erwischt, mitnichten. Strombedarf? Sicherlich, aber: Who cares? Mich interessiert das nicht. Und für absolute HighEnd-Systeme ist die Frage nach dem Stromverbrauch sowieso eher lächerlich. Dies sind alles sicherlich Punkte, die bedenkenswert sind, jedoch echte Spaßverderber? Nein, das wäre nur der Preis.

Ailuros
2004-10-17, 12:06:32
Ich sehe persönlich nicht, daß wir nun wegen SLI die HighEnd-Krone plötzlich an eine Dual-GFX geben sollen. Der Kampf lautet nach wie vor single GF68U vs. single XT-PE. SLI spielt in einer eigenen Liga, sollte immer extra betrachtet werden, weil der Kostenpunkt einfach ein enormer Unterschied ist.

Ja das sollte man betonen. Von dem abgesehen kann ich den Zukauf eines solchen Systems nicht verstehen wenn es um 3dmark Protzereien geht.

Einen bewussten Simulatoren-Fan der genau weiss was er mit der zusaetzlichen Leistung anstellen kann, kann ich aber verstehen. Den groessten Unterschied in Leistung werden sowieso wohl die hybriden MS/SSAA modi in hoeheren Aufloesungen machen. Fuer anspruchsvolle FPS Spiele ist es selbst bei doppelter Leistung IMHO Quark. Bei einem racing/flight/space sim aber dann wiederrum nicht.

Eine quasi Leistungskrone ist es dann schon, nur eben von einer total anderen Perspektive gesehen.

Gast
2004-10-17, 13:35:05
Ich sehe persönlich nicht, daß wir nun wegen SLI die HighEnd-Krone plötzlich an eine Dual-GFX geben sollen. Der Kampf lautet nach wie vor single GF68U vs. single XT-PE. SLI spielt in einer eigenen Liga, sollte immer extra betrachtet werden, weil der Kostenpunkt einfach ein enormer Unterschied ist.
Der Kostenpunkt zwischen einer GF6600GT oder GF6800non Ultra oder GF6800GT auf der einen und einer X800XT-PE auf der anderen Seite ist auch enorm und rechtfertigt nicht den Leistungsgewinn den man mit einer X800XT-PE hat.

Der Kampf um die High End Krone heisst immer: "Wer hat das schnellste und für den Retail und OEM Markt lieferbare System bzw. Produkt vorzuweisen".
Kosten spielen keine Rolle.
Der Leistungsvorsprung rechtfertigt den Preis, da jedes zum gleichen Zeitpunkt erhältliche Konkurenzprodukt total zerstört wird in den Benchmarks.
Irgendwelche künstlich zusammengewürfelte und ausgedachte Kämpfe um die Leistungskrone sind irrelevant, da wie ich oben bereits schrieb das schnellste lieferbare zählt und es Kunden geben wird die das kaufen und die interessiert es nicht wie eine XT-PE sich gegenüber einer 6800U verhält, wenn es was schnelleres gibt.

Tigerchen
2004-10-17, 14:06:21
Es ist schwierig etwas zu kritisieren, wenn es genau das erfüllt, was man erwartet *. Und Kritik um der Kritik willen kann nur ein Fanboy fordern.


* Das SLI teuer ist, ist wohl allgemein bekannt. Sonstige Kritikpunkte? Spezial-Mobo? Erledigt sich mit nForce4. Laut? Wenn man die richtigen 68U erwischt, mitnichten. Strombedarf? Sicherlich, aber: Who cares? Mich interessiert das nicht. Und für absolute HighEnd-Systeme ist die Frage nach dem Stromverbrauch sowieso eher lächerlich. Dies sind alles sicherlich Punkte, die bedenkenswert sind, jedoch echte Spaßverderber? Nein, das wäre nur der Preis.

Wieso erledigt sich das mit dem Spezialmainboard? Die Spezialversion des nForce4 für SLI wird nachgereicht. Das ist kein Fanboygeblubber. Das sagt nV selber. Und glaubst du wirklich das gibts für nen Schnäppchenpreis?

Gast
2004-10-17, 14:23:41
Oha, man merkt, dein ATischrein scheint anzufangen zu bröseln.
Nichts wie hin und schnell wieder zusammenkleben!!!!!111

Ich weiß nicht,wie Sli ein Armutszeugnis sein koennte. Dann muesste auch die XTPE eins sein, weil man nicht idn der Lage ist, Technologie und Speed unter einem Hut zu packen. Dazu kommt noch, die geringere Verfuegbarkeit.
Das ganze treffe natuerlich auch auf die Ultra Variante des NV40 zu.
Wie du oder Tigerchen argumentierst, muesste man beiden herstellern auch das Bereitstellen von 500€ Karten ankreiden, da diese "stromfressende[n] Monster" wären und der "Otto Normalkunde [sich diese nicht] Leisten kann".
Und das laesst sich auf jede anderen Markt uebernehmen (ts, wofür'nen ferrari).
LS,

imo ist das ein Armutszeugniss, weil Nvidia ohne SLI nicht die Performancekrone, welche an die X800XT geht, erreichen würden. Nvidia wollte sich nicht zum 2-ten Mal nach der miserablen FX-Serie blamieren und musste was bringen damit sie wieder zeigen können, dass sie was drauf haben im Bereich Grakas.
Nur ist das der falsche Weg. Von SLI werden höchstens 1% der Anwender gebrauch machen. Ist genauso ein Verzweifelungstat wie bei Intel mit dem EE.
Einfach Unsinn.

Gast
2004-10-17, 14:37:06
Es ist schwierig etwas zu kritisieren, wenn es genau das erfüllt, was man erwartet *. Und Kritik um der Kritik willen kann nur ein Fanboy fordern.


* Das SLI teuer ist, ist wohl allgemein bekannt. Sonstige Kritikpunkte? Spezial-Mobo? Erledigt sich mit nForce4. Laut? Wenn man die richtigen 68U erwischt, mitnichten. Strombedarf? Sicherlich, aber: Who cares? Mich interessiert das nicht. Und für absolute HighEnd-Systeme ist die Frage nach dem Stromverbrauch sowieso eher lächerlich. Dies sind alles sicherlich Punkte, die bedenkenswert sind, jedoch echte Spaßverderber? Nein, das wäre nur der Preis.
Leo,

man sollte über alle Neuigkeiten berichten, sehr gut.
Allerdings muss ich Tigerchen Recht geben. Ich sehe in der News nichts von der horrenden Verlustleistung zweier 6800. Warum?
Sieht man nur das positive bei Nvidia? Warum werden negative Aspekte von SLI nicht angesprochen? Grün?

Wer hat diesen Scheiss geschrieben:?
"Ein gewichtiger Punkt pro SLI ist allerdings, daß wir heute eine Situation haben, wo sich ein prinzipieller Nachteil von SLI eben nicht ergibt."
Die horrende Verlustleistung ist kein Nachteil?
Alles klar.
Berichten ja, aber bei der Wahrheit bleiben.

robbitop
2004-10-17, 15:04:22
LS,

imo ist das ein Armutszeugniss, weil Nvidia ohne SLI nicht die Performancekrone, welche an die X800XT geht, erreichen würden. Nvidia wollte sich nicht zum 2-ten Mal nach der miserablen FX-Serie blamieren und musste was bringen damit sie wieder zeigen können, dass sie was drauf haben im Bereich Grakas.
Nur ist das der falsche Weg. Von SLI werden höchstens 1% der Anwender gebrauch machen. Ist genauso ein Verzweifelungstat wie bei Intel mit dem EE.
Einfach Unsinn.

Wieso? In großen Benchmarkparcours mit je aktuellen Treibern nehmen sich die Ultra und die XT-PE nicht viel.
NV40 schneidet bei Doom3 deutlich besser ab und R420 in Far Cry.
Durchschnitt: Gleichstand.
Allerdings hat NV technologisch einfach eine Karte von Morgen zu bieten.
Deutlich flexiblere und mächtigere Pipelines einen Videoprozessor und brauchbare HDR Hardware.
Bei langen Shadern (was derzeit nicht der Fall ist) sollte sich das Verhältnis in Richtung NV40 verschieben. 3DMark ist für mich kein Argument da Synthie.
NV40 ist eine Karte die heute gleichschnell ist, wie eine R420 und in 2 Jahren zu Unreal3 mit viel HDR immernoch zu gebrauchen ist. Bei viel HDR und langen Shadern wird das beim R420 anders sein.
Ausserdem kann der VS3 nette Vorberechnungen für den PS machen.

NV bietet mit der Serie6 IMO eine wirklich brauchbare Produktpallette an dieses Jahr.

Quasar
2004-10-17, 15:18:55
LS,

imo ist das ein Armutszeugniss, weil Nvidia ohne SLI nicht die Performancekrone, welche an die X800XT geht, erreichen würden. Nvidia wollte sich nicht zum 2-ten Mal nach der miserablen FX-Serie blamieren und musste was bringen damit sie wieder zeigen können, dass sie was drauf haben im Bereich Grakas.
Nur ist das der falsche Weg. Von SLI werden höchstens 1% der Anwender gebrauch machen. Ist genauso ein Verzweifelungstat wie bei Intel mit dem EE.
Einfach Unsinn.

Genau dasselbe könnte man von High-End Modellen allgemein behaupten, die es nur in homöopathischen Dosen am Markt zu kaufen gibt, weil - richtig - der jeweilige IHV verzweifelt versucht mit höherer Spannung und maximaler Taktung die Längeren der Benchmarkbalken in seiner Farbe einzufärben.

Gast
2004-10-17, 15:25:02
Wieso? In großen Benchmarkparcours mit je aktuellen Treibern nehmen sich die Ultra und die XT-PE nicht viel.
NV40 schneidet bei Doom3 deutlich besser ab und R420 in Far Cry.
Durchschnitt: Gleichstand.
Nö,
bei collin2005, Panzers, Joint Operations z.B. ist ATI um Längen überlegen.
Tauscht Nvidia nicht die Shader aus, ist man bei Nvidia schlecht aufgehoben.
Einfach Beschiss, wie es Razor sagen würde.
Ich will eine Karte die überall ihre Leistung bringt, nicht in angepassten Spielen. ;)

Allerdings hat NV technologisch einfach eine Karte von Morgen zu bieten.
Deutlich flexiblere und mächtigere Pipelines einen Videoprozessor und brauchbare HDR Hardware.
Korrekt. Allerdings interessiert mich keine theoretische Überlegenheit, ich will Beweise sehen, welche es zur Zeit nicht gibt.
Epic meint, dass die meisten HDR Shader auch auf dem R420 ohne Qualiverlust funken, nur sehr wenige HDR Shader zeigen leichte(kaum sichtbare) Fehler.

Bei langen Shadern (was derzeit nicht der Fall ist) sollte sich das Verhältnis in Richtung NV40 verschieben. 3DMark ist für mich kein Argument da Synthie.
NV40 ist eine Karte die heute gleichschnell ist, wie eine R420 und in 2 Jahren zu Unreal3 mit viel HDR immernoch zu gebrauchen ist. Bei viel HDR und langen Shadern wird das beim R420 anders sein.
Ausserdem kann der VS3 nette Vorberechnungen für den PS machen.

NV bietet mit der Serie6 IMO eine wirklich brauchbare Produktpallette an dieses Jahr.
Der 3dMurks2005 ist wirklich keine Messlatte, da hast du Recht. :)
Allerdings gibt es viele Spiele, wo der NV40 nicht seine volle Leistung entfalten kann.
Warum das so ist frag lieber bei Nvidia nach. ;)
Warum sollte bei langen Shadern der NV40 überlegen sein?
Die zur Zeit längsten Shader bietet FarCry, und ATI ist schneller.
Also, ich will Beweise sehen.

Quasar
2004-10-17, 15:25:11
Leo,

man sollte über alle Neuigkeiten berichten, sehr gut.
Allerdings muss ich Tigerchen Recht geben. Ich sehe in der News nichts von der horrenden Verlustleistung zweier 6800. Warum?
Sieht man nur das positive bei Nvidia? Warum werden negative Aspekte von SLI nicht angesprochen? Grün?

Wer hat diesen Scheiss geschrieben:?
"Ein gewichtiger Punkt pro SLI ist allerdings, daß wir heute eine Situation haben, wo sich ein prinzipieller Nachteil von SLI eben nicht ergibt."
Die horrende Verlustleistung ist kein Nachteil?
Alles klar.
Berichten ja, aber bei der Wahrheit bleiben.

Hm,
wieviel mehr als 10% über dem Verbrauch einer 6800ultra liegen denn zwei 6600GT (wenn man mal vom "Idealfall" 3DMark05 ausgeht)?

Wie hoch liegt die Verlustleistung der XTPE über der einer Pro (resp. die einer Ultra über der einer GT)?

Wieviel Verlustleistung brachte die von Macci übertaktete (und vermutlich ge-voltmoddete) XTPE auf die Waage?

Wieviel mehr Saft saugt ein Pentium4 Prescott gegenüber bsw. einem P3-S und in welchem Verhältnis dazu steht die Mehrleistung?

Es war schon immer so, daß für die letzten, sagen wir, 10% Performance überdurchschnittlich viel gezahlt werden musste - seien es die Spitzenmodelle der jeweiligen CPU-Reihen, seien es High-End Grafikkarten oder seien es Festplatten mit der markthöchsten Drehzahl. Das gilt sowohl für den monetären als auch den Energieverbrauchssektor.

Warum auf einmal der Aufstand darum? ...

Quasar
2004-10-17, 15:27:47
Die zur Zeit längsten Shader bietet FarCry, [...]

Das ist dein Ernst?

Gast
2004-10-17, 15:34:52
Hm,
wieviel mehr als 10% über dem Verbrauch einer 6800ultra liegen denn zwei 6600GT (wenn man mal vom "Idealfall" 3DMark05 ausgeht)?

Wie hoch liegt die Verlustleistung der XTPE über der einer Pro (resp. die einer Ultra über der einer GT)?

Wieviel Verlustleistung brachte die von Macci übertaktete (und vermutlich ge-voltmoddete) XTPE auf die Waage?

Wieviel mehr Saft saugt ein Pentium4 Prescott gegenüber bsw. einem P3-S und in welchem Verhältnis dazu steht die Mehrleistung?

Es war schon immer so, daß für die letzten, sagen wir, 10% Performance überdurchschnittlich viel gezahlt werden musste - seien es die Spitzenmodelle der jeweiligen CPU-Reihen, seien es High-End Grafikkarten oder seien es Festplatten mit der markthöchsten Drehzahl. Das gilt sowohl für den monetären als auch den Energieverbrauchssektor.

Warum auf einmal der Aufstand darum? ...
*MEGALOL*

Du hast den Sinn meiner Postings verstanden?
Es geht hier nicht um die 6600GT. Diese im SLI Modus zu betreiben wäre der grösste Blödsinn, den es gibt. Eine 6800U ist schneller bei weniger Verlustleistung.
Wer sich eine Kombi von 2* 6600GT antut, der muss Probleme mit dem logischen Denken haben.

Hauwech
2004-10-17, 15:35:22
Ich weiss gar nicht was einige hier wollen.

Wer plant so ein System sein eigen zu nennen der wird sich seine Informationen schon holen. Das ein NF4 SLI Board nicht billig sein wird ist klar. Das ein entsprechendes Netzteil nicht billig sein wird ist auch klar. Die passenden Prozessoren werden auch nicht gerade für 50 Euro über den Tisch gehen. Verlustleistung ist hier uninteressant weil wer sich so ein System holen kann, der kann auch die Stromkosten dafür bezahlen. Wem es zu laut ist kann sich dann auch noch eine Wakü holen.

Das Gegenstück ist das Alienware System mit ATI Karten. Wird das billig? Ich glaube nicht.

Nvidia wird auch nicht gerade von wahnsinnigen Absatzzahlen ausgehen. Wo Geld eher keine Rolle spielt ist der professionelle Bereich. Die Mehrkosten die sich hier ergeben dürften durch die höhere Leistung mehr als ausgeglichen werden. SLI nur für Gamer zu sehen ist imho ein wenig kurzsichtig. Nvidia wäre dämlich wenn sie davon auf längere Sicht nicht profitieren würden. Der ganze SLI Kram kommt bestimmt nicht aus einer Bierlaune heraus.

Schade das sie keine Chipsätze für Intel anbieten. Wäre bestimmt interessant.

Gast
2004-10-17, 15:35:44
Das ist dein Ernst?
Nein, habe Shadermark 2.1 und 3dMurks2005 vergessen. ;D

robbitop
2004-10-17, 15:45:07
Nö,
bei collin2005, Panzers, Joint Operations z.B. ist ATI um Längen überlegen.
Tauscht Nvidia nicht die Shader aus, ist man bei Nvidia schlecht aufgehoben.
Einfach Beschiss, wie es Razor sagen würde.

Quelle? Unter welchen Bedingungen?
(das supertolle AI AF??)


Korrekt. Allerdings interessiert mich keine theoretische Überlegenheit, ich will Beweise sehen, welche es zur Zeit nicht gibt.
Epic meint, dass die meisten HDR Shader auch auf dem R420 ohne Qualiverlust funken, nur sehr wenige HDR Shader zeigen leichte(kaum sichtbare) Fehler.

Die sieht man erst in zukünftigen Spielen wie Unreal3. Zur Zeit sind alles nur kurze Pillepalle Shader im Einsatz.

Es geht nicht um die Qualität sondern um die Performance. Bei echtem HDR bricht R420 nunmal weg.


Der 3dMurks2005 ist wirklich keine Messlatte, da hast du Recht. :)
Allerdings gibt es viele Spiele, wo der NV40 nicht seine volle Leistung entfalten kann.
Warum das so ist frag lieber bei Nvidia nach. ;)
Warum sollte bei langen Shadern der NV40 überlegen sein?
Die zur Zeit längsten Shader bietet FarCry, und ATI ist schneller.
Also, ich will Beweise sehen.
Nicht dein Ernst?
Es gibt derzeit keine Spiele in denen der aritmetische PS Durchsatz bei NV40/R420 limitieren.
Wenn dann ists die Füllrate. R420 hat durch 33% Mehrtakt auch 33% mehr Füllrate dazu noch das tolle AI-AF (ich kenne leider nur sehr wenige Tester, die wirklich wissen was sie da überhaupt machen).
Der Takt ist nunmal Fakt, so werden die Karten ausgeliefert (und klar auch ohne AI AF würde die R420 bei extremen AF und hoher Auflösung gewinnen ...33% an Füllrate kann man kaum aufholen).

Wenn allerdings mal der PS Output/Bandbreite/ZStencil limitierende Komponenten sind, dann siehts besser für NV40 aus, trotz 33% weniger Takt.
Im Midrangebereich sind die Taktraten zw beiden IHVs gleich und dort dürfte es wenn es mal zu obigen kommt noch heftiger werden.

Quasar
2004-10-17, 15:50:13
*MEGALOL*

Du hast den Sinn meiner Postings verstanden?
Es geht hier nicht um die 6600GT. Diese im SLI Modus zu betreiben wäre der grösste Blödsinn, den es gibt. Eine 6800U ist schneller bei weniger Verlustleistung.
Wer sich eine Kombi von 2* 6600GT antut, der muss Probleme mit dem logischen Denken haben.
Ja, das was du "Sinn deines Postings" nennst, habe ich schon verstanden. :D

Aber das, was man gemeinhin "Argumentation" nennt, scheinst du wiederum nicht verstanden zu haben. :)

Die Tabelle auf Seite hast du gesehen? Zwei 6600GT können durchaus schneller als eine 6800u sein. =) Und wenn sie das schaffen können, bleibt noch die Frage, die ich stellte: Wie schaut's mit der Verlustleistung aus?

SLI kann somit durchaus Sinn ergeben - sicher nicht für jeden, aber ein Markt ist ein Markt ist ein Markt. ;)

Quasar
2004-10-17, 15:52:02
Nein, habe Shadermark 2.1 und 3dMurks2005 vergessen. ;D

Na, da bin ich ja glatt sprachlos von deiner umwerfend untermauerten Argumentation....
Far Cry hat etwas andere Probleme, als lange Shader. Mit Version 1.1 sind IIRC Shader um 40-50 Instruktionen schon die absolute Ausnahme. Spellforce hat 'längere'. ;)

edit:
Bevor ich's vergesse: EOD für mich mit dir, falls du nicht doch noch so etwas zustande bringst, das man mit etwas gutem Willen ein Argument nennen könnte. X-D

Gast
2004-10-17, 15:57:56
Quelle? Unter welchen Bedingungen?
(das supertolle AI AF??)
Du hast aber die Funktion von AI verstanden?
Es geht nicht nur um AF. ;)

Die sieht man erst in zukünftigen Spielen wie Unreal3. Zur Zeit sind alles nur kurze Pillepalle Shader im Einsatz.
Wenn Unreal3 rauskommt, gehören der R420 und NV40 in die Schrottpresse. ;)

Es geht nicht um die Qualität sondern um die Performance. Bei echtem HDR bricht R420 nunmal weg.
Beweise? Links? Nichts davon kannst du liefern. :)


Nicht dein Ernst?
Es gibt derzeit keine Spiele in denen der aritmetische PS Durchsatz bei NV40/R420 limitieren.
Wenn dann ists die Füllrate. R420 hat durch 33% Mehrtakt auch 33% mehr Füllrate dazu noch das tolle AI-AF (ich kenne leider nur sehr wenige Tester, die wirklich wissen was sie da überhaupt machen).
Der Takt ist nunmal Fakt, so werden die Karten ausgeliefert (und klar auch ohne AI AF würde die R420 bei extremen AF und hoher Auflösung gewinnen ...33% an Füllrate kann man kaum aufholen).

Wenn allerdings mal der PS Output/Bandbreite/ZStencil limitierende Komponenten sind, dann siehts besser für NV40 aus, trotz 33% weniger Takt.
Im Midrangebereich sind die Taktraten zw beiden IHVs gleich und dort dürfte es wenn es mal zu obigen kommt noch heftiger werden.
Ich rede nicht von der PE, sondern von der normalen XT, welche die 6800U locker in die Tasche steckt.
Zum AI habe ich mich schon oben geäusert. ;)
Zum 2-ten Mal. Hast du Beweise?
Ne. :D

aths
2004-10-17, 16:02:25
Beweise? Links? Nichts davon kannst du liefern. :)Man sollte zwar nicht ständig auf HDR rumreiten, da auch bei HDR-Rendering die GPU noch mehr zu tun hat. Doch dass NV40 quasi dedizierte HDR-Units hat, beweist z. B. tbs Shadermark (Filterung von FP-Texturen, kann die Radeon-TMU nicht.)

aths
2004-10-17, 16:06:55
[COLOR="#000088"]
Hmm. Ich finde die "News" zum Thema SLI sehr einseitig. Von kritischer Berichterstattung keine Spur. Man merkt du findest das gut.

Welche Formulierungen ich verwende darfst du getrost mir überlassen. Man braucht nun wirklich kein Hellseher zu sein um zu erkennen daß SLI kein Massenprodukt sein wird. 3dc hat sich noch nie ausschließlich auf Massenprodukte konzentriert.

Dass mictasm einseitige, unkritische Berichterstattung gut findet, davon merke ich btw nicht. Allerdings merkt er wahrscheinlich ebenso wie ich eben nicht, dass die 3dc-News bezüglich SLI einseitig und unkritisch wären.

Gast
2004-10-17, 16:07:10
Na, da bin ich ja glatt sprachlos von deiner umwerfend untermauerten Argumentation....
Far Cry hat etwas andere Probleme, als lange Shader. Mit Version 1.1 sind IIRC Shader um 40-50 Instruktionen schon die absolute Ausnahme. Spellforce hat 'längere'. ;)

edit:
Bevor ich's vergesse: EOD für mich mit dir, falls du nicht doch noch so etwas zustande bringst, das man mit etwas gutem Willen ein Argument nennen könnte. X-D

Du Schlumeier,
FarCry benutzt bei Taschenlampe und Mündungsfeuer mehr als 100 Instruktionen. :P
Laber mal kein Scheiss, du hast keine Ahnung.
Ich weiss schon, warum du die Diskussion beenden willst, weil du keine Argumente hast. Einfach arm.

Gast
2004-10-17, 16:09:09
Man sollte zwar nicht ständig auf HDR rumreiten, da auch bei HDR-Rendering die GPU noch mehr zu tun hat. Doch dass NV40 quasi dedizierte HDR-Units hat, beweist z. B. tbs Shadermark (Filterung von FP-Texturen, kann die Radeon-TMU nicht.)
aths,
die X800Xt ist in Shadermark 2.1 schneller als die 6800U.
Was gibt es da zu diskutieren?

aths
2004-10-17, 16:12:52
aths,
die X800Xt ist in Shadermark 2.1 schneller als die 6800U.
Was gibt es da zu diskutieren?... welche Shader schneller sind, und welche langsamer, das wäre z. B. eine Diskussionsgrundlage.

Zu diskutieren wäre auch, ob man die 6800 U als verfügbares Produkt ansieht. Und ob die X800 XT (oder gar XT PE) auch.

robbitop
2004-10-17, 16:14:31
Du hast aber die Funktion von AI verstanden?
Es geht nicht nur um AF. ;)

ja es geht auch um Shaderreplacement. Aber mir ging es um den Aspekt des AFs.

Wenn Unreal3 rauskommt, gehören der R420 und NV40 in die Schrottpresse. ;)

Ist ja schön, dass DU das Geld hast, dir jede neue GPU kaufen zu können. Es gibt viele Leute (die meisten), die sich nur rund alle 4 Jahre eine neue Grafikkarte kaufen (meist in nem neuen KomplettPC).


Beweise? Links? Nichts davon kannst du liefern. :)

Nichts, wofür ich nicht etwas auf die Finger von ein paar Leuten bekommen würde, sorry. Ohne öffentlich zugängliche Demos o.Ä. kann man das nicht beweisen. Aber ich denke dass du nur ein paar Architekturspezifische Artikel bei 3DC/B3D lesen solltest und ein paar Kommentare von Entwicklern die dort "herumlungern" oder vieleicht mal Demirug (3D Entwickler) dazu befragen solltest. Sind zwar alles keine Beweise, aber Entwickler sollten es wissen ;)



Ich rede nicht von der PE, sondern von der normalen XT, welche die 6800U locker in die Tasche steckt.

Nochmal: unter welchen BEDINGUNGEN? Und wo ist der Link wo ich das sehen kann?
Ehrlich gesagt testen die meisten Leute ohne zu wissen was sie tun.
Wobei es bei computerbase von Carsten Spille sicher etwas dazu gibt.
Er ist einer der Wenigen, die wissen, was genau sie da tun (wobei ich jetzt keine Zahlen oder Ergebnisse weiss ....müsste ich mir mal antun).

Gast
2004-10-17, 16:16:40
... welche Shader schneller sind, und welche langsamer, das wäre z. B. eine gute Diskussionsgrundlage.

Zu diskutieren wäre auch, ob man die 6800 U als verfügbares Produkt ansieht. Und ob die X800 XT (oder gar XT PE) auch.
aths,
die meisten Shader sind bei einer X800Xt schneller, Ausnahmen bestätigen die Regel, wie immer beim logischen Denken. :D
BTW die X800XT ist verfügbar.

robbitop
2004-10-17, 16:17:23
aths,
die X800Xt ist in Shadermark 2.1 schneller als die 6800U.
Was gibt es da zu diskutieren?
Dann mach mal das SM3 Profil an bei der NV4x und bei ATi das SM2B (beides das Max was sie können).

mapel110
2004-10-17, 16:55:03
aufräumarbeiten

/edit
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=176977
da gehts weiter, was Farcry angeht.

@Pit
2004-10-17, 18:21:59
As Zeitmangel konnte ich nicht alle Beiträge lesen, möchte aber hier etwas hinzufügen, nämlich den Einsatz von (prof.) Quadro Grafikkarten via SLI. Diese Kombination konnte ich zwar noch nicht testen, es besteht aber bei den "Profis" mit Sicherheit Bedarf. Beispiel: Echtzeitvisualisierung eines Fahrzeugs mit ca. 5 Mio Polygone zu Präesentationszwecke. Die Grafikkarten, die ich bis jetzt getestet habe, sind alle überfordert. Oder Beispiel CATIA: Ich habe eine Karosserie eines Autos vollständig als Baugruppe in den Speicher geladen. Jetzt will ich das Teil drehen und wenden, wenn ich 3 FPS schaffe (mit Hardware, die mehere tausende von Euro verschlingen würde), dann war das schon viel. Würde ich 6 FPS schaffen, wäre das für den, der es braucht, eine Sensation. Ob das SLI schafft, bleibt abzuwarten ;)

Ergo ist SLI nicht nur den Gamer mit dickem Geldbeutel oder eP......-Komplex von Interesse :)

aths
2004-10-17, 18:37:57
aths,
die meisten Shader sind bei einer X800Xt schneller, Ausnahmen bestätigen die Regel, wie immer beim logischen Denken. :D
BTW die X800XT ist verfügbar.Hm, was verstehst du unter "verfügbar"? Ich hab kürzlich mal in einem Laden nach Karten gefragt. Mit einigen Wochen Wartezeit würde ich vielleicht eine 6800 U kriegen, aber nur, weil ich dort guter Kunde bin. Eine 6800 GT wäre eher drin. Eine X800 XT gar nicht. Nach meiner persönlichen (unvollständigen, nicht allgmeingültigen) Erfahrung kann man 6800 GT und X800 Pro gerade mal so "verfügbar" nennen. Wenn ich mich recht entsinne, schneidet die GT allerdings gegenüber der Pro fast immer (und teilweise ziemlich deutlich) besser ab.

Hast du einen Link zum Bench, wo die X800 XT beim SM2.1 meistens schneller ist als die 6800 U?

robbitop
2004-10-17, 18:44:33
hat er doch vorhin gegeben. Das war aber mit SM2 Profil beim NV40
nicht mit dem SM3.0 :rolleyes:

Gast
2004-10-17, 18:49:01
hat er doch vorhin gegeben. Das war aber mit SM2 Profil beim NV40
nicht mit dem SM3.0 :rolleyes:
junge, wenn du keine Ahnung hast, dann lieber mal die Fresse halten. :D
Les die Benchmarks von tb noch mal.

Leonidas
2004-10-17, 19:56:40
Der Kostenpunkt zwischen einer GF6600GT oder GF6800non Ultra oder GF6800GT auf der einen und einer X800XT-PE auf der anderen Seite ist auch enorm und rechtfertigt nicht den Leistungsgewinn den man mit einer X800XT-PE hat.




Mag sein. Aber dies sind alteingesessene Marktsegmente. SLI ist dagegen Über-HighEnd. Ich will jedenfalls ein 1000-$-Gerät nicht mit einem 500-$-Gerät vergleichen.

Leonidas
2004-10-17, 19:58:30
Der Leistungsvorsprung rechtfertigt den Preis, da jedes zum gleichen Zeitpunkt erhältliche Konkurenzprodukt total zerstört wird in den Benchmarks.
Irgendwelche künstlich zusammengewürfelte und ausgedachte Kämpfe um die Leistungskrone sind irrelevant, da wie ich oben bereits schrieb das schnellste lieferbare zählt und es Kunden geben wird die das kaufen und die interessiert es nicht wie eine XT-PE sich gegenüber einer 6800U verhält, wenn es was schnelleres gibt.


Auch wenn Geld keine Rolle spielt, kauft man nicht für 10% Mehrleistung eine 1000% teurere Karte (Beispiel). Insofern wäre ich vorsichtig mit Verallgemeinerungen.

SLI spielt nun einmal in einer eigenen 1000-$-Liga. Entweder man will diesen Weg gehen - oder nicht.

Leonidas
2004-10-17, 19:59:50
Wieso erledigt sich das mit dem Spezialmainboard? Die Spezialversion des nForce4 für SLI wird nachgereicht. Das ist kein Fanboygeblubber. Das sagt nV selber. Und glaubst du wirklich das gibts für nen Schnäppchenpreis?



Sehe ich weiterhin unverbissen. Die taiwanesischen Mobo-Hersteller bzw. deren Manager werden zwar wegen der 10 Dollar Mehrkosten reihenweise Selbstmord begehen, aber wenn interessieren 10 Dollar oder 15 Euro im Endpreis?

Leonidas
2004-10-17, 20:06:27
Leo,

man sollte über alle Neuigkeiten berichten, sehr gut.
Allerdings muss ich Tigerchen Recht geben. Ich sehe in der News nichts von der horrenden Verlustleistung zweier 6800. Warum?
Sieht man nur das positive bei Nvidia? Warum werden negative Aspekte von SLI nicht angesprochen? Grün?

Wer hat diesen Scheiss geschrieben:?
"Ein gewichtiger Punkt pro SLI ist allerdings, daß wir heute eine Situation haben, wo sich ein prinzipieller Nachteil von SLI eben nicht ergibt."
Die horrende Verlustleistung ist kein Nachteil?
Alles klar.
Berichten ja, aber bei der Wahrheit bleiben.


Die horrende Verlustleistung ist kein Nachteil? .... Ja, wo ist denn der exakte Nachteil - außer eine astronomischen Zahl auf dem Papier?

Für Intel+AMD sind zu hohe Verlustleistungen gravierend - sie schränken die zukünftigen Taktmöglichkeiten ein, was ein erheblicher Nachteil ist. Doch bei einer GFX? nVidia wird den NV40 nicht weiter übertakten, sondern es kommt ein neuer Chip (NV48). Die 68U ist ein feststehenden Produkt - so lange es funktioniert, ist es eigentlich egal, wie hoch die Verlustleistung ist.

Bezüglich Kühlerei: Jo, mein, das sind zwei einzelne Karten. Wenn sich eine sauber und halbwegs leise kühlen läßt, geht das auch bei zweien, OHNE das sich dabei die Lautstärke verdoppelt. In diesem Fall funktioniert die Rechnung "doppelte Verlustleistung = doppelte Probleme" schlicht nicht. Komisch, daß ich das dazusagen muß, dies sollte eigentlich selbsterklärend sein.

Bezüglich Verlustleistung in Bezug auf Stromverbrauch: Es gibt Leute, die sich dafür interessieren - und andere, die sich dafür nicht interessieren. Zudem stellen die GFX auch immer nur einen Teil des gesamten Stromverbrauchs dar - und das meiste wird wohl von uneffektiven Netzteilen vergeudet. Dazu kommt, daß User mit derartigen HighEnd-Ansprüchen sicherlich zumeist keine radikalen Energiesparer sind - für den Zielmarkt sehe ich da also keine Probleme. Und letztens: Es gibt keine eierlegenden Wollmilchsäue, sprich: Kein Produkt kann in jedem Punkt ein Optimum bieten.

aths
2004-10-17, 20:08:29
Bezüglich Kühlerei: Jo, mein, das sind zwei einzelne Karten. Wenn sich eine sauber und halbwegs leise kühlen läßt, geht das auch bei zweien, OHNE das sich dabei die Lautstärke verdoppelt.Zur Verdopplung der Lautstärke würde man die zehnfache Energie benötigen.

reunion
2004-10-17, 21:41:28
Wieso? In großen Benchmarkparcours mit je aktuellen Treibern nehmen sich die Ultra und die XT-PE nicht viel.
NV40 schneidet bei Doom3 deutlich besser ab und R420 in Far Cry.
Durchschnitt: Gleichstand.


Sorry, aber das ist dann doch nicht dein ernst? Mit den neuersten 4.11b Treibern ist die X800XT-PE auch schon in Doom3 gleichauf mit der 6800U, und in praktisch allen anderen Spielen ist sie bei hohen Auflösungen plus AA/AF durchgehend vor der 6800U. Es gibt dazu zahlreichen Reviews im netz die dies bestätigen. Und ja natürlich liegt das an der deutlich höheren Füllrate im vergleich zur 6800U den die anderen Karten (X800pro, X700 usw.) nicht haben...

reunion
2004-10-17, 21:44:14
Das ist dein Ernst?

FarCry ist das einzig mir bekannte Spiel bei dem die 96 Anweisungen von PS2.0 nicht ausreichen.

Quasar
2004-10-17, 22:00:28
Ist hier rausgesplittet worden:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2349200&postcount=10

Mumins
2004-10-17, 22:04:26
Eine X800 XT gar nicht.
http://www.geizhals.at/deutschland/a100629.html

aths
2004-10-17, 22:07:29
http://www.geizhals.at/deutschland/a100629.htmlWenn man mit Geizhals Shops findet, die die Karte angeblich liefern können, ist sie deshalb noch nicht unbedingt wirklich zu bekommen.

Black-Scorpion
2004-10-17, 22:12:08
Wenn man mit Geizhals Shops findet, die die Karte angeblich liefern können, ist sie deshalb noch nicht unbedingt wirklich zu bekommen.
http://www3.atelco.de/8c1PTzw-KPIP0R/lo/articledetail.jsp?aid=3880&agid=279&ref=13
http://shop.vv-computer.de/shop/info/501007/

robbitop
2004-10-18, 01:39:23
schön zu hören, dass ATi nun auch endlich bessere Performance bei Doom3 bringt :)

vermutlich haben nun beide diese Replacements.
Habe mich länger schon nicht mehr mit solchen Reviews beschäftigt.

tombman
2004-10-18, 01:57:25
alles is verfügbar... wenn man sich drum kümmert.

"in den Laden gehen" != sich drum kümmern ;D

Wenn man will kann man sogar eine 6800 GT in PCI-e Format bekommen @ ebay USA.
(sind alle aus Dell Rechnern gepulled :D)

Doc_Nitro
2004-10-18, 03:53:45
http://www.thedodgegarage.com/3dfx/

Unter diesem Link solltet Ihr mal die Prototypen angucken, da kommen einem alten 3DFX'ler die Tränen :frown: zumal wenn man weiss von wem diese Entwicklung ursprünglich kommt. Schade für 3DFX dass Ihr Erzfeind nun die Früchte erntet.

Ailuros
2004-10-18, 04:24:45
Sorry, aber das ist dann doch nicht dein ernst? Mit den neuersten 4.11b Treibern ist die X800XT-PE auch schon in Doom3 gleichauf mit der 6800U, und in praktisch allen anderen Spielen ist sie bei hohen Auflösungen plus AA/AF durchgehend vor der 6800U. Es gibt dazu zahlreichen Reviews im netz die dies bestätigen. Und ja natürlich liegt das an der deutlich höheren Füllrate im vergleich zur 6800U den die anderen Karten (X800pro, X700 usw.) nicht haben...

Links bitte zu den zahlreichen Reviews wenn moeglich.

Von dem abgesehen 6800U und X800 XT/PE verbleiben seltene Paradiesvoegel, da koennt ihr auf dem Quark noch lange herumreiten aber das miese 1% das diese darstellen machen keinen besonderen Unterschied, nur um laecherliche Eindruecke in Reviews fuer die Leistungskrone zu gewinnen.

Das Verkaufsvolumen waechst von =/< 6800GT/X800PRO, um die absolut hoechsten Prozentuale im low end/value Bereich zu erreichen.

Weiterhin:

Nein es ist auf jeden Fall nicht nur dank der hoeheren Fuellrate, weil eben die Bandbreite auf den XT's fuer diese viel zu gering ist. Eine hoehere Taktrate bedeutet auch um einiges hoehere arithmetische-, VS- und AF-Leistung.

Ailuros
2004-10-18, 04:33:45
http://www.thedodgegarage.com/3dfx/

Unter diesem Link solltet Ihr mal die Prototypen angucken, da kommen einem alten 3DFX'ler die Tränen :frown: zumal wenn man weiss von wem diese Entwicklung ursprünglich kommt. Schade für 3DFX dass Ihr Erzfeind nun die Früchte erntet.

Multi-chip =! Multi-board

genau so wie

Scan Line Interleaving =! Scalable Link Interface

Um Himmels Willen es gab schon multi-GPU Independence System bei Quantum3D die auf die NV3x Generation basierten und in dem Fall, hat es garantiert nichts mit 3dfx zu tun.

Tigerchen
2004-10-18, 06:17:19
Sehe ich weiterhin unverbissen. Die taiwanesischen Mobo-Hersteller bzw. deren Manager werden zwar wegen der 10 Dollar Mehrkosten reihenweise Selbstmord begehen, aber wenn interessieren 10 Dollar oder 15 Euro im Endpreis?

Massenproduktion = günstige Preise.
Ich gehe von eher bescheidenen Stückzahlen aus.

Tigerchen
2004-10-18, 06:23:23
Zur Verdopplung der Lautstärke würde man die zehnfache Energie benötigen.

2 Grafikkarten geben allerdings doppelt soviel Wärme ab wie eine. Da mußt du dich natürlich auch drum kümmern wenn du so ein SLI-System aufbaust. Und je mehr surrende Lüfter desto weniger Spaß macht so ein PC.

Gast
2004-10-18, 09:07:19
2 Grafikkarten geben allerdings doppelt soviel Wärme ab wie eine.

und belasten das Netzteil mehr als eine, weshalb der NT Luefter natuerlich nicht in der Laermrechnung fehlen darf

mictasm
2004-10-18, 09:13:15
Das ist alles sicher zu beachten. Allerdings wird es die Kunden einer solchen Kombination nicht vom Kauf abhalten. Es gibt ja auch wunderbare Wasserkühlungen für die 6800er. Und das ist ja dann langsam ein eher kleiner Anteil am Gesamtpreis.

Gast
2004-10-18, 09:30:56
Nein, das wird es sicher nicht. Allerdings ist es nicht schlecht darauf hinzuweisen dass SLI nicht nur Vorteile hat. Interessant wird es auch sein wie das Gespann sich in der Praxis schlagen wird (Treiberprobleme, mysterioese Abstuerze, ja oder nein?) Seit meiner Fury Maxx Zeit bin ich Doppelchiploesungen, egal ob auf einer oder zwei Karten, das Problem bleibt das Zusammenfuehren der verschiedenen Rechenergebnisse, eher skeptisch gegenueber eingestellt. Aber wer weiss, vielleicht loest PCI-E in diesem Sinne einige Probleme.

Gast
2004-10-18, 09:47:37
Wieso? Allerdings hat NV technologisch einfach eine Karte von Morgen zu bieten.
Deutlich flexiblere und mächtigere Pipelines einen Videoprozessor und brauchbare HDR Hardware.

Ist nicht dein Ernst? Wer den VP der GF6 Reihe als Argument anfuehrt hat schon verloren.
btw: ab welcher Treiberversion funktioniert HWTnL beim Savage2000?

aths
2004-10-18, 09:54:46
2 Grafikkarten geben allerdings doppelt soviel Wärme ab wie eine. Da mußt du dich natürlich auch drum kümmern wenn du so ein SLI-System aufbaust. Und je mehr surrende Lüfter desto weniger Spaß macht so ein PC.
Wenn mir meine Mathefertigkeiten keinen bösen Streich gespielt haben, würde ich zum Schluss kommen, dass zwei Lüfter nur 30% lauter sind als ein einzelner Lüfter. Die SLI-fähigen 6800 GT müssen afaik nicht zwingend laut gekühlt werden.

Tigerchen
2004-10-18, 10:18:06
Wenn mir meine Mathefertigkeiten keinen bösen Streich gespielt haben, würde ich zum Schluss kommen, dass zwei Lüfter nur 30% lauter sind als ein einzelner Lüfter. Die SLI-fähigen 6800 GT müssen afaik nicht zwingend laut gekühlt werden.

Man könnte auch das Gehäuse auf lassen. Zumindest solange keine Kinder, Hunde und Katzen ihr Interesse anmelden.:biggrin:

Ailuros
2004-10-18, 12:40:45
Nein, das wird es sicher nicht. Allerdings ist es nicht schlecht darauf hinzuweisen dass SLI nicht nur Vorteile hat. Interessant wird es auch sein wie das Gespann sich in der Praxis schlagen wird (Treiberprobleme, mysterioese Abstuerze, ja oder nein?) Seit meiner Fury Maxx Zeit bin ich Doppelchiploesungen, egal ob auf einer oder zwei Karten, das Problem bleibt das Zusammenfuehren der verschiedenen Rechenergebnisse, eher skeptisch gegenueber eingestellt. Aber wer weiss, vielleicht loest PCI-E in diesem Sinne einige Probleme.


Fury MAXX hatte tatsaechlich so einige Probleme. ATI benutzt aber seither nicht mehr AFR sondern SuperTiling fuer multi-chip Loesungen (in professionellen Maerkten).

SLI bei NV4x ist eine merkwuerdige Mischung aus tiling und AFR, wobei drei verschiedene modi verfuegbar sind. In einem kann man sich AFR total entsorgen, falls es Probleme aufweisen sollte. Den ganzen Spass kann man ja auch pro Applikation mit presets festnageln wen man will.

aths
2004-10-18, 12:42:55
[COLOR="#000088"]
Man könnte auch das Gehäuse auf lassen. Zumindest solange keine Kinder, Hunde und Katzen ihr Interesse anmelden.:biggrin:Dem Luftstrom kommt es afaik eher zugute, wenn das Gehäuse geschlossen ist.

DanMan
2004-10-18, 12:53:30
Also ich, für meinen Teil, glaube kaum, dass die Abwärme und die Lautstärke merklich zunehmen, wenn die Karten im 2D Betrieb laufen. Und wenns dann beim Zocken ein bisschen wärmer und lauter im Gehäuse wird - ja mein Gott, dann ist das halt so. Gibt schlimmeres.

Ailuros
2004-10-18, 12:58:16
Tigerchen,

Wuerde mir Geld nur so aus den Hosentaschen fliessen wuerde ich auch nicht prinzipiell nein sagen gegen ein weiter verfuegbares simFusion6500 System. Dabei waere es mir schnuppe was das Ding kostet, wieviel Strom es verbraucht usw usw., aber dann eher die Vervierfachung von R3xx Leistung und die Moeglichkeit bis zu 24x sample sparce MSAA anzuwenden.

Es gibt sogar Verrueckte mit Nostalgie-Kollern die Uebersummen fuer eine veraltete V5 6000 ausgeben. Hier spielt der Sammlerwert zwar eine grosse Rolle, aber wenige von uns wuerden =/>1000$ noch heute fuer so ein Ding ausgeben.

Nochmal ich persoenlich sehe momentan (von der Vergangenheit bis heute) multi-chip/board Loesungen als quasi Verzweiflungs-akt an, egal woher so eine Idee kommt. Es wird aber stets Anfrage fuer solches Zeug geben, wenn auch beschraenkt.

Es wurden schon gewisse *cough* Systeme mit ATI boards und einem PCI-E zu viel gesichtet; falls ATI einen Marketing-Reaktions-Schachzug gegen SLI ziehen sollte, muss so mancher von Euch dann doch wohl die dementsprechende Logik nochmal durchkaemmen. Erfahrung mit SuperTiling hat ATI schon seit langem; theoretisch brauchen sie nur ein Brueckchen und dementsprechende Treiber.

Fuer die IHVs sind das auch quasi sehr teure Experimente da der extra Kompatibilitaets-/Treiber-Aufwand nicht gerade gering ist, aber von Nutzen wird dieses fuer die absehbare Zukunft dann schon sein. Falls sie tatsaechlich irgendwann dual cores in einem chip einbetten sollten, dann hilft die gesammelte Erfahrung auf jeden Fall. Zumindest der CPU Markt rennt ja schon in die Richtung und im GPU Markt wachsen die Transistoren-Raten um einiges schneller.

robbitop
2004-10-18, 13:55:05
theoretisch brauchen sie nur ein Brueckchen und dementsprechende Treiber.


Ich weiss zwar nicht ob das stimmt aber laut TI hat NV seit 2,5 Jahren an SLi
Treibern gearbeitet. Wenn das stimmt, geht das nicht "mal eben".

Erfahrung in Multichipboards hat NV und Quantum3D auch seit Jahren und dennoch hat man es "anders" realisiert.

Tigerchen
2004-10-18, 13:58:40
Tigerchen,

Wuerde mir Geld nur so aus den Hosentaschen fliessen wuerde ich auch nicht prinzipiell nein sagen gegen ein weiter verfuegbares simFusion6500 System. Dabei waere es mir schnuppe was das Ding kostet, wieviel Strom es verbraucht usw usw., aber dann eher die Vervierfachung von R3xx Leistung und die Moeglichkeit bis zu 24x sample sparce MSAA anzuwenden.

Es gibt sogar Verrueckte mit Nostalgie-Kollern die Uebersummen fuer eine veraltete V5 6000 ausgeben. Hier spielt der Sammlerwert zwar eine grosse Rolle, aber wenige von uns wuerden =/>1000$ noch heute fuer so ein Ding ausgeben.

Nochmal ich persoenlich sehe momentan (von der Vergangenheit bis heute) multi-chip/board Loesungen als quasi Verzweiflungs-akt an, egal woher so eine Idee kommt. Es wird aber stets Anfrage fuer solches Zeug geben, wenn auch beschraenkt.

Es wurden schon gewisse *cough* Systeme mit ATI boards und einem PCI-E zu viel gesichtet; falls ATI einen Marketing-Reaktions-Schachzug gegen SLI ziehen sollte, muss so mancher von Euch dann doch wohl die dementsprechende Logik nochmal durchkaemmen. Erfahrung mit SuperTiling hat ATI schon seit langem; theoretisch brauchen sie nur ein Brueckchen und dementsprechende Treiber.

Fuer die IHVs sind das auch quasi sehr teure Experimente da der extra Kompatibilitaets-/Treiber-Aufwand nicht gerade gering ist, aber von Nutzen wird dieses fuer die absehbare Zukunft dann schon sein. Falls sie tatsaechlich irgendwann dual cores in einem chip einbetten sollten, dann hilft die gesammelte Erfahrung auf jeden Fall. Zumindest der CPU Markt rennt ja schon in die Richtung und im GPU Markt wachsen die Transistoren-Raten um einiges schneller.

Danke. Das ist in etwa der Stil den ich in den News beim Thema SLI vermisse. Eine angemessen kritische Sicht eben.

robbitop
2004-10-18, 14:03:46
Ist nicht dein Ernst? Wer den VP der GF6 Reihe als Argument anfuehrt hat schon verloren.
btw: ab welcher Treiberversion funktioniert HWTnL beim Savage2000?


http://www.xbitlabs.com/articles/video/display/geforce6600gt-theory_6.html

Gast
2004-10-18, 14:08:53
http://www.xbitlabs.com/articles/video/display/geforce6600gt-theory_6.html
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=175613

Ailuros
2004-10-18, 14:23:40
Ich weiss zwar nicht ob das stimmt aber laut TI hat NV seit 2,5 Jahren an SLi
Treibern gearbeitet. Wenn das stimmt, geht das nicht "mal eben".

Erfahrung in Multichipboards hat NV und Quantum3D auch seit Jahren und dennoch hat man es "anders" realisiert.

Ja und? Quantum hat ihre eigene Systeme, eigenes Software/Algorithmen und die damaligen 3dfx HW war auch nicht identisch mit dem was im Desktop Bereich verfuegbar war oder haette verfuegbar sein sollen (Beispiel V5 6k).

Erste NV3x basierende Independence Systeme (multi-board configs) arbeiteten schon damals mit Quantum's eigenen Clarity 16xRGSS Algorithmus. Das Zeug ist aber auch nur anwendbar weil Quantum auch nur spezialisierte professionelle Applikationen auf die Dinger wirft.

Das mit dem "mal eben" ist auch Quark, wenn Du auch nicht weisst wie lange sich schon ATI mit SuperTiling beschaeftigt. Ueber Nacht kam das auch nicht, sondern schon bei dem Konzept-Anfang vom R300. Nun rechne mal weiter nach hinten.

robbitop
2004-10-18, 14:25:25
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=175613
und?

robbitop
2004-10-18, 14:32:38
Ja und? Quantum hat ihre eigene Systeme, eigenes Software/Algorithmen und die damaligen 3dfx HW war auch nicht identisch mit dem was im Desktop Bereich verfuegbar war oder haette verfuegbar sein sollen (Beispiel V5 6k).

Erste NV3x basierende Independence Systeme (multi-board configs) arbeiteten schon damals mit Quantum's eigenen Clarity 16xRGSS Algorithmus. Das Zeug ist aber auch nur anwendbar weil Quantum auch nur spezialisierte professionelle Applikationen auf die Dinger wirft.

Das mit dem "mal eben" ist auch Quark, wenn Du auch nicht weisst wie lange sich schon ATI mit SuperTiling beschaeftigt. Ueber Nacht kam das auch nicht, sondern schon bei dem Konzept-Anfang vom R300. Nun rechne mal weiter nach hinten.

Mir ist klar, dass Evans and Sunderland mehrere R300 mit supertiling verbinden kann. Und mir ist klar dass das seit 2 Jahren recht gut funktioniert.

Ich habe mich halt nur gefragt, warum NV SLi entworfen hat, wenn man nicht auch den Q3D Algoritmus nehmen könnte. Und daraus habe ich versucht einen Analogieschluss zu ziehen.

Darf ich dich nun so verstehen, dass der Q3D Algoritmus nicht im Dektopbereich brauchbar wäre und man deshalb SLi entwarf und dass Supertiling im Desktopbereich gut funktionieren würde, so dass ATi nichts Neues entworfen hat?
Wenn ja, dann danke ich dir für meine neugewonnenen Erkenntnisse. Wenn nein, dann bitte erklärs nochmal :)

Gast
2004-10-18, 14:34:04
und?
das und das http://www.anandtech.com/video/showdoc.aspx?i=2238&p=2 zeigen wohl dass der Videoprozessor kein Argument fuer den nV40 ist, sondern er bestenfalls eventuell an das herankommt was Ati seit Jahren funktionierend anbietet. Alles andere ist Wunschdenken deinerseits.
Traeumende Gruesse

Ailuros
2004-10-18, 14:36:14
Danke. Das ist in etwa der Stil den ich in den News beim Thema SLI vermisse. Eine angemessen kritische Sicht eben.


Waere ich fuer die Seite hier verantwortlich wuerde ich es aber auch nicht auf die Frontseite pflastern, genauso wenig wie ich auch nicht mit aehnlicher Leichtigkeit sagen wuerde dass R420 nur ein doppelt aufgepeppter R3xx mit kleinen Aenderungen ist und in dem Sinn auch ein quasi "Verzweiflungs-Akt" um mit den Resource-hungrigen Consolen-Vertraegen nicht am Ende leer darzustehen.

Bei NVIDIA hat es einmal geklappt mit dem NV25, indem man einfach (wegen der XBox1) die Ti200/500 dazwischenschob und NV25 verzoegerte. Der ganze Plan verpulverte sich in ein grosses Disaster als man ein zu grosses Risiko mit dem damals noch unreifen low-k 130nm einging und dann 9 Monate nur mit einer NV25 gegen die R300 stehen konnte.

Aus genau den Fehlern hat ATI gelernt und R420 war ein sehr bewusster und ueberhaupt nicht unlogischer Schachzug.

Wo die Relevanz liegt? NVIDIA weiss genau dass es mit breiter Verfuegbarkeit vor Q1 2006 fuer NV50 wohl nichts mehr werden wird. Man muss also ueberleben koennen und da hilft eben SLI doch noch mit, trotz des sehr hohen Preises.

Ein voriger User hat den Nagel sehr stark auf den Kopf getroffen: die endlose Schwankung zwischen ATI und NVIDIA wo mal der eine oder mal der andere mehr Vorteile hat ist nur fuer das beste Interesse der Konsumenten. Es haelt den Konkurrenz-Druck so hoch wie moeglich und vermeidet auch quasi monopolistische Tendenzen im Markt.

Wehe wenn einer der Beiden staendig mit nur Erfolgen ankommen wuerden. Ich drehe es mal leicht in eine andere Richtung: ich bin froh dass endlich AMD behaupten kann dass ihre Verkaufsprozentuale um einiges gewachsen sind; Intel ist mir mit den Jahren zu grosskotzig geworden und ich bevorzuge eine bessere Balanz auch in diesem Markt fuer die Zukunft.

Ailuros
2004-10-18, 14:38:53
Mir ist klar, dass Evans and Sunderland mehrere R300 mit supertiling verbinden kann. Und mir ist klar dass das seit 2 Jahren recht gut funktioniert.

Ich habe mich halt nur gefragt, warum NV SLi entworfen hat, wenn man nicht auch den Q3D Algoritmus nehmen könnte. Und daraus habe ich versucht einen Analogieschluss zu ziehen.

Darf ich dich nun so verstehen, dass der Q3D Algoritmus nicht im Dektopbereich brauchbar wäre und man deshalb SLi entwarf und dass Supertiling im Desktopbereich gut funktionieren würde, so dass ATi nichts Neues entworfen hat?
Wenn ja, dann danke ich dir für meine neugewonnenen Erkenntnisse. Wenn nein, dann bitte erklärs nochmal :)

SuperTiling ist eben auch in single boards quasi aktiv auf Radeons. Was genau glaubst Du machen die Macro-tiling relevante Extensionen in Radeon-Treibern?

Damit ich nicht falsch verstanden werde, weil es sich nur um einen Anteil von Supertiling handelt:

Eric Demers auf B3D:

The R3xx and the R4xx have a rather interesting way of tiling things. Our setup unit sorts primitives into tiles, based on their area coverage. Some primitives fall into 1 tile, some into a few, some cover lots. Each of our backend pixel pipes is given tiles of work. The tiles themselves are programmable in size (well, powers of 2), but, surprisingly, we haven't found that changing their size changes performance that much (within reason). Most likely due to the fact that with high res displays, most primitives are large. There is a sweet spot in the performance at 16, and that hasn't changed in some time. Even the current X800 use 16, though I think we need to revisit that at some point in the future. Possibly on a per application basis, different tile sizes would benefit things. On our long list of things to investigate.

Anyway, each pipe has huge load balancing fifos on their inputs, that match up to the tiles that they own. Each pipe is a full MIMD and can operate on different polygons, and, in fact, can be hundreds of polygons off from others. The downside of that is memory coherence of the different pipes. Increasing tile size would improve this, but also requires larger load balancing. Our current setup seems reasonably optimal, but reviewing that, performance wise, is on the list of things to do at some point. We've artificially lowered the size of our load balancing fifos, and never notice a performance difference, so we feel, for current apps, at least, that we are well over-designed.

In general, we have no issues keeping all our units busy, given the current polygons. I could imagine that if you did single pixel triangles in one tile over and over, that performance could drop due to tiling, but memory efficiency would shoot up, so it's unclear that performance overall would be hurt. The distribution of load accross all these tiles is pretty much ideal, for all the cases we've tested. Super tiling is built on top of this, to distribute work accross multiple chips.

As well, just like other vendors, we have advance sequences that distribute alu work load to our units, allocate registers and sequence all the operations that need to be done, in a dynamic way. That's really a basic requirement of doing shading processing. This is rarely the issue for performance.

Performance issues are still very texture fetch bound (cache efficiency, memory efficiency, filter types) in modern apps, as well as partially ALU/register allocation bound. There's huge performance differences possible depending on how your deal with texturing and texture fetches. Even Shadermark, if I recall correctly, ends up being texture bound in many of its cases, and it's very hard to make any assumptions on ALU performance from it. I know we've spent many a time in our compiler, generating various different forms of a shader, and discovering that ALU & register counts don't matter as much as texture organization. There are no clear generalizable solutions. Work goes on.

http://www.beyond3d.com/forum/viewtopic.php?p=389402&highlight=#389402

***edit: vorsichtig durchlesen; das SuperTiling Patent kann man uebrigens leicht finden wenn man nachstoebert und Eric ist einer der Erfinder.

robbitop
2004-10-18, 14:49:23
das und das http://www.anandtech.com/video/showdoc.aspx?i=2238&p=2 zeigen wohl dass der Videoprozessor kein Argument fuer den nV40 ist, sondern er bestenfalls eventuell an das herankommt was Ati seit Jahren funktionierend anbietet. Alles andere ist Wunschdenken deinerseits.
Traeumende Gruesse

Ich vertraue nur wenigen Redaktionen. Dazu gehört Anand gewiss nicht.
Das liegt daran, dass die meisten Tester schlichtweg inkompetent sind. Viele wissen gar nicht genau was sie tun. Überlegen nicht, denken nicht kritisch, hinterfragen nicht, schreiben unter Zeitdruck und besitzen IMO zuwenig Kenntnisse über die Materie. Das ist bei B3D, xbit anders. Ansonsten fallen mir noch Artikel von Carsten Spille bei computerbase ein, wo Zeit, Neugier, Skepsis und Komeptenz dahinter steht.

Ich wünsche mir erstma GAR NICHTS. Warum? Weil mir persönlich der VP egal ist. Ich sehe xbit hat ihn zum Laufen bekommen und die Jungs wissen was sie tun.


SuperTiling ist eben auch in single boards quasi aktiv auf Radeons. Was genau glaubst Du machen die Macro-tiling relevante Extensionen in Radeon-Treibern?

erklärs mir :)

Ailuros
2004-10-18, 14:53:32
erklärs mir :)

Zu einer besseren Erklaerung als der Erfinder selber, kann ich bei weitem nicht kommen. SuperTiling erweitert nur das load balancing von single- auf multi-chip, wobei in beiden Faellen quasi aehnliche Methoden angewendet werden. Denk an load balancing zwischen quads auf dem gleichen chip und quads auf verschiedenen chips (oder boards im Fall von SLI).

***edit: es muesste auch nicht sehr viel unterschiedlich bei NVIDIA mal ganz vereinfacht sein; man ist von einem quad auf NV3x auf 4 bei NV4x gegangen. Natuerlich sind die Methoden am Ende um einiges verschieden, aber der Zweck ist im Grund der gleiche: load balancing.

Und hierauf hab ich auch im vorigen Post gezielt als ich sagte dass relevante Technologie und Erfahrung fuer zukuenftige multi-core auf single-dies nur nutzvoll sein kann.

Ailuros
2004-10-18, 15:01:24
Uebrigens ich brauch noch ein wenig Zeit das Ganze ans Tageslicht zu bringen, aber ich hab einen kleinen Update fuer das 6800 write-up geschrieben. Ich weiss jetzt nicht ob es 3 oder 6 Seiten in html am Ende werden aber eine Sektion beschaeftigt sich mal ganz oberflaechig mit Overlay/VMR post-processing und hoffentlich ein Gedankenssporn fuer alle IHVs.

robbitop
2004-10-18, 15:07:27
ah habe deinen Ausschnitt "übersehen".
Soetwas habe ich mir auf Quadebene schon fast gedacht. Wavey hatte soetwas mal angedeutet.

Leonidas
2004-10-18, 15:08:42
Danke. Das ist in etwa der Stil den ich in den News beim Thema SLI vermisse. Eine angemessen kritische Sicht eben.



Ich glaube, da verrennst Du Dich etwas. Das war nämlich faktisch eine Kritik an der Preisklasse - und dies verbietet sich meines Erachtens nach prinzipiell. Soll ich plötzlich auf jede HighEnd-Karte einschlagen, weil sie kein gutes Preis/Leistungsverhältnis hat - und auf jede LowCost-Karte, weil sie nicht tauglich ist für moderne und kommende Spiele? Jeder kauft sich seine HW, wie es seine Geldbörse zuläßt, es gibt diesbezüglich kein Weg, auf dem *wir alle* gehen sollten. Insofern finde ich Kritik an dem Preis der SLI-Geschichte nicht wirklich sinnvoll, weil es so aussieht, als würdest Du denjenigen Usern, die diesen Weg gehen wollen, sagen, daß sie prinzipiellen Schwachsinn begehen.

MuLuNGuS
2004-10-18, 15:14:05
eben,

deswegen kann man sich ja auch autos mit unterschiedlicher motorisierung kaufen.
man kauft die power die man braucht mit dem nötigen kleingeld. wer braucht schon ein auto mit mehr als 100PS...spaß machts aber dennoch...hrhr

Gast
2004-10-18, 15:35:08
Ich wünsche mir erstma GAR NICHTS. Warum? [b]Weil mir persönlich der VP egal ist.[b/] Ich sehe xbit hat ihn zum Laufen bekommen und die Jungs wissen was sie tun.


Du widersprichst dir, einmal ist er dir egal, ein andermal ein Argument fuer den nV4x
"Ich sehe xbit hat ihn zum Laufen bekommen und die Jungs wissen was sie tun."
Ich habe ein schwarzes Schaf gesehen deshalb sind alle Schafe schwarz. (cf Das Induktionsproblem von CF Popper). Ausserdem sehe ich nur was ich will. Blinde Gruesse

Gast
2004-10-18, 15:44:41
Ich glaube, da verrennst Du Dich etwas.
Das glaube ich kaum. Tigerchen hat da schon Recht.

Das war nämlich faktisch eine Kritik an der Preisklasse - und dies verbietet sich meines Erachtens nach prinzipiell.
Wieso das denn? Wenn man für 30-70% Mehrleistung mehr als 100% mehr Geld ausgeben muss, dann sollte darauf hingewiesen werden. So verstehe ich kritische Berichterstattung.

Soll ich plötzlich auf jede HighEnd-Karte einschlagen, weil sie kein gutes Preis/Leistungsverhältnis hat
Warum solltest du, wenn es nicht so ist?
Heute sind wir in einer Situation, wo die High End Karten ein top P/L Verhältniss haben, wenn man mit 9800PRO oder 6800LE/NU vergleicht.

Insofern finde ich Kritik an dem Preis der SLI-Geschichte nicht wirklich sinnvoll, weil es so aussieht, als würdest Du denjenigen Usern, die diesen Weg gehen wollen, sagen, daß sie prinzipiellen Schwachsinn begehen.
Dieses gute P/L Verhältniss bietet SLI eben nicht.
Von den ganzen anderen Nachteilen wie ein spezielles Mainboard, Verlustleistung, Lautstärke mal ganz abgesehen.
Deswegen halte ich SLI auch für Schwachsinn. Wie einige hier schon angesprochen haben, riecht es hier stark nach Verzweifelungstat.
ATI könnte auch SLI bringen, nur wozu?
Wenn ein IHV irgendein Schwachsinn bringt, heisst das noch lange nicht, dass der andere IHV genauso schwachsinnig ist, und die gleiche Scheisse baut.

Manchmal musst du wirklich bisschen kritischer sein.

@MuLuNGuS

nur sieht das bei Autos ganz anders aus. Bei 100% mehr Motorleistung, zahlt man bestimmt nicht 100% mehr. ;)

@Pit
2004-10-18, 15:55:37
Die Diskussion ist (verständlicherweise ;) ) einseitig auf Spielegrafikkarten ausgerichtet. In einem Post weiter oben habe ich schon versucht anzudeuten, dass in einem bestimmten Industriezweig Leistung um "jeden" Preis gesucht wird, da wäre man sogar dankbar, wenn 4 Grafikkarten in einem System stecken und skalieren könnten...Diesen High-End-Abnehmern geht es nicht um Verlustleistung oder um das Geld, die zahlen auch das doppelte des jetzt schon teuersten Produktes, nein, denen geht es um pure Leistung, die verglichen zur schnellsten einzeln verfügbaren Grafikkarte nicht erhältlich ist.

Ich weiss von einem Projekt einer Simulation, für dieses Projekt gibt es momentan noch keine ausreichend schnelle Grafikkarte. Diese Herren und Damen "Entwickler" würden mir wahrscheinlich nicht nur die Hände küssen, hätte ich eine GraKa (Genlock, SLI, wurscht) mit 300 Watt Verl.l. und Lärmentwicklung wie im Windkanal, aber dafür mit dem Leistungspotential, was sie benötigen. ;D

DanMan
2004-10-18, 16:24:24
Zum Thema "Bericht" - der ist immer rein sachlich und ohne Bewertung. Mit Bewertung nennt man das z.B. Meinung/Test/Kolumne. Es ist also völlig normal, dass in den Nachrichten keine Kritik geübt wird. Dafür sind ja die Artikel und das Forum da.

mapel110
2004-10-18, 16:45:27
Das glaube ich kaum. Tigerchen hat da schon Recht.

Wieso das denn? Wenn man für 30-70% Mehrleistung mehr als 100% mehr Geld ausgeben muss, dann sollte darauf hingewiesen werden. So verstehe ich kritische Berichterstattung.

Warum solltest du, wenn es nicht so ist?
Heute sind wir in einer Situation, wo die High End Karten ein top P/L Verhältniss haben, wenn man mit 9800PRO oder 6800LE/NU vergleicht.

Dieses gute P/L Verhältniss bietet SLI eben nicht.
Von den ganzen anderen Nachteilen wie ein spezielles Mainboard, Verlustleistung, Lautstärke mal ganz abgesehen.
Deswegen halte ich SLI auch für Schwachsinn. Wie einige hier schon angesprochen haben, riecht es hier stark nach Verzweifelungstat.
ATI könnte auch SLI bringen, nur wozu?
Wenn ein IHV irgendein Schwachsinn bringt, heisst das noch lange nicht, dass der andere IHV genauso schwachsinnig ist, und die gleiche Scheisse baut.

Manchmal musst du wirklich bisschen kritischer sein.

@MuLuNGuS

nur sieht das bei Autos ganz anders aus. Bei 100% mehr Motorleistung, zahlt man bestimmt nicht 100% mehr. ;)

Wie siehts denn mit dem Preisleistungsverhältnis von der 6800 Ultra im Vergleich zur 6800 GT aus?

Für High End zahlt man immer drauf.
Der 3800+ A64 kostet 600 €, der 3200+ kostet 150 €. Ist deswegen der 3800+ Schwachsinn?

Gast
2004-10-18, 20:01:01
Wie siehts denn mit dem Preisleistungsverhältnis von der 6800 Ultra im Vergleich zur 6800 GT aus?
Ganz gut. Etwa 20% mehr Leistung bei 20% mehr Kohle.

Für High End zahlt man immer drauf.
Der 3800+ A64 kostet 600 €, der 3200+ kostet 150 €. Ist deswegen der 3800+ Schwachsinn?
Das muss man differenziert betrachten. Ich finde das zwar Unsinn, aber wenn man bedenkt, dass die meisten modernen Spiele CPU limitiert sind, ist eine starke CPU von Vorteil.

mapel110
2004-10-18, 20:16:18
Ganz gut. Etwa 20% mehr Leistung bei 20% mehr Kohle.

Das muss man differenziert betrachten. Ich finde das zwar Unsinn, aber wenn man bedenkt, dass die meisten modernen Spiele CPU limitiert sind, ist eine starke CPU von Vorteil.

und wenn man AA und AF in Verbindung mit hohen Auflösungen nutzen will, sind die meisten Spiele Grafikkartenlimiert. :P

Xmas
2004-10-18, 20:19:50
nur sieht das bei Autos ganz anders aus. Bei 100% mehr Motorleistung, zahlt man bestimmt nicht 100% mehr. ;)
Beim Tuning vielleicht nicht, aber ab eines gewissen Modellniveaus schon.

Quasar
2004-10-18, 20:20:50
Du musst das differenziert sehen, mapel110.... so wie der Gast.

Dann erkennst du, das nVidia evil (http://www.beyond3d.com/forum/viewtopic.php?p=360852&highlight=#360852) ist. Immer.

robbitop
2004-10-18, 20:36:43
Nvidia:
1. Nvidia is evil.
2. Nvidia "may" be doing app specific optimizations (how evil!) but we have no proof
3. Nvidia cheated in 3dMark!
4. Nvidia gives the end user the option to use brilinear filtering! (They are evil!)
5. Nvidia may be doing shader replacements that I can't notice but makes the game faster (how evil!) and no, we have no proof of this either..
6. Once again, Nvidia is evil?

ATI:
1. Nvidia is evil!
2. ATI "may be doing app specific optimization (this is good!) but we have no proof
3. Nvidia cheated in 3dMark!
4. ATI uses a brilinear filtering without the option to turn it off unlike Nvidia therefore, Nvidia is evil!
5. ATI may be doing shader replacements that I can't notice but makes the game faster (good work ATI!) and no, we have no proof of this either..
6. ATI's execs are being investigated for insider trading so....Nvidia is an immoral company!
7. ATI is being sued by its stockholders for unethical accounting practices and inaccurate financial reports (As long as it doesn't hurt us PC enthusiasts!)
8. ATI has been reducing filtering quality to enhance performance since the r200 era. (Nvidia is evil!)
9. Therefore, Nvidia is evil? .

netter humor X-D

Ailuros
2004-10-19, 06:59:08
ATI könnte auch SLI bringen, nur wozu?

Aus dem gleichen Grund warum es momentan X800 XT PE gibt.

Leonidas
2004-10-19, 07:23:24
Wieso das denn? Wenn man für 30-70% Mehrleistung mehr als 100% mehr Geld ausgeben muss, dann sollte darauf hingewiesen werden. So verstehe ich kritische Berichterstattung.



Du hast (die von mir vorgebrachte Argumentation) immer noch nicht begriffen!

Die von Dir vorgenannte Regel läßt sich prinzipiell überall anwenden. Und wenn wir das tun, kommen wir im Endeffekt auf eine GF2MX mit 10 Euro gebraucht heraus.

Fakt ist, jeder kauft in dieser Sparte, wie es sein Geldbeutel hergibt. Was für einen Sinn macht es, einen Mainstream-Käufer von LowCost- oder HighEnd-Modellen zu überzeugen? Richtig, keinen! Insofern macht es auch keinen Sinn für Leute, die diese 1000 $ ausgeben wollen, diese bezüglich des schlechten Preis/Leistungsverhältnisses zu aggittieren.

Die Entscheidung, wieviel Geld man ausgeben möchte, ist keine, welche ich kritisieren oder anzweifeln möchte (es sei denn, es handelt sich um unrealistische Vorgaben, wie Spiele-Grafik für 50 Euro). Dies wäre auch schlicht unhöfflich, wenn ich 1000-$-Käufern vorhalten würde, daß ihre Entscheidung Blödsinn wäre. Noch besser wäre es, wenn ich das bei 500-$-Käufern machen würde, da hab ich noch mehr User, mit denen ich mich anlegen kann ... sorry, so läuft das eben nicht. Wer so viel Geld ausgeben will, der soll es tun - es gibt da keinen Protest von mir.

Der Hinweis, daß SLI super-teuer ist, ergibt sich doch schon automatisch durch die benötigten zwei Grafikkarten, oder nicht? Und selbst wenn nicht - wer dann irgendwann man endgültig zur Tat schreitet, wird es schnell merken, was der Spaß kostet. Eine besondere Werbung für SLI sehe ich dadurch nicht - ich habe für diejenigen, die SLI interessiert, berichtet, was es neues gibt. Genauso wie man über einen FX-55 berichtet, der auch nur die wenigstens interessieren dürfte. Doch die Geschmäcker (und Geldbeutel) sind halt verschieden - und meine Aufgabe ist es sicherlich nicht, alle zu einer möglichst optimalen Einheits-Hardware zu bewegen - die DDR ist vorbei :-) ...



Nebenbei: 70% mehr Leistung bei 100% mehr Kohle ist schon vergleichsweise richtig gut. Es gibt andere Bereiche, da bezahlt man für 70% mehr locker 200-300% mehr.

Gast
2004-10-19, 08:11:29
@MuLuNGuS

nur sieht das bei Autos ganz anders aus. Bei 100% mehr Motorleistung, zahlt man bestimmt nicht 100% mehr. ;)

die leistung eines 50ps polo zu verdoppeln mag ja keine 100% mehrkosten verursachen, bei einer high-end maschine von der wir hier reden ist das halt etwas anderes....

http://www.mtm-online.de/html/bimoto/detail.htm

leistung verdoppeln ist nunmal sauteuer, glaub es oder laß es.

MuLuNGuS
2004-10-19, 08:12:46
einloggen um die uhrzeit scheint auch eine kunst für sich zu sein...:):)

Gast
2004-10-19, 10:11:28
Das glaube ich kaum. Tigerchen hat da schon Recht.

Wieso das denn? Wenn man für 30-70% Mehrleistung mehr als 100% mehr Geld ausgeben muss, dann sollte darauf hingewiesen werden. So verstehe ich kritische Berichterstattung.


Na wenn das so ist, dann darf man ja die X800 XT-PE und die GF6800 Ultra gar nicht mehr benchen. Im Vergleich zu einer GF6800GT bieten die beiden noch ein deutlich mieseres Verhältnis zwischen Leistungszuwachs und höherem Preis. Das bedeutet dann, dass die 6800GT der Sieger schlechthin ist. Naja ich denke mal du wirst gleich wieder eine Ausrede finden damits in dein Bild passt.


Warum solltest du, wenn es nicht so ist?
Heute sind wir in einer Situation, wo die High End Karten ein top P/L Verhältniss haben, wenn man mit 9800PRO oder 6800LE/NU vergleicht.


Also gemessen an einer 6800LE/NU bzw 6800GT oder 6600GT haben heutige High End Karten ein beschissenes P/L Verhältnis, das schlechter ist als das von SLI.


Dieses gute P/L Verhältniss bietet SLI eben nicht.
Von den ganzen anderen Nachteilen wie ein spezielles Mainboard, Verlustleistung, Lautstärke mal ganz abgesehen.


Da die große Mehrheit sowieso auf PCI-E beim Neukauf umrüsten wird, ist das Mainboard schonmal kein Problem. Der nForce4 bietet abseits von SLI bereits so viel, dass ein gewisser Preis gerechtfertigt ist. Er wird auch nicht groß teurer werden als nForce2Ultra etc.. Ich rechne mit 150 bis 200 Euro fürs Board. Dafür ist dann aber auch alles dabei was das Hertz begehrt.
Hier ein bisschen mehr zu investieren macht in jedem Fall Sinn.


Deswegen halte ich SLI auch für Schwachsinn. Wie einige hier schon angesprochen haben, riecht es hier stark nach Verzweifelungstat.
ATI könnte auch SLI bringen, nur wozu?
Wenn ein IHV irgendein Schwachsinn bringt, heisst das noch lange nicht, dass der andere IHV genauso schwachsinnig ist, und die gleiche Scheisse baut.


Wieso Verzweiflungstat? Es richtet sich an eine bestimmte Preisgruppe und erfüllt damit voll und ganz die Bedürfnisse. Nebenbei sichert es eben auch die High End Krone. Mit deiner Argumentation könnte ich auch gegen die XT-PE argumentieren. Über die Grenzen der Vernunft hinaus mit maximaler Taktrate und minimalster Ausbete irgendwas hinbiegen um bloß am Ende vorn zu bleiben. Die Lieferfähigkeit dieses Fake Produkts kennt ja jeder. Die war sogar so grausam, dass ATI vor kurzem angefangen hat eine normale XT einzuführen. Das passt schon eher ins Bild einer Verzweiflungstat. Die GF6800GT und U haben ATI einfach überrascht. Die geplante Pro war zu schwach und ist es immer noch.

Und was den 2. Punkt angeht ATI könne mal eben SLI bringen. Forget it. Wenn sie das mal eben schnell könnten, hätten sie es gemacht. Können sie aber nicht, weil sie es in der Form für den Retail Markt nicht reif haben. So einfach ist die Wahrheit. Das heisst nicht dass sie es nie bringen können aber derzeit haben sie es nicht und können es nicht bringen. Und somit wird vorerst dann nur noch der 2. Platz übrig bleiben. So einfach ist das.

Im übrigen ist SLI eine wunderbare Möglichkeit die Performance zu steigern und trozdem lieferbar zu bleiben. Mann muss nämlich nicht bis ans maximal erträgliche bei einer GPU gehen.

Gast
2004-10-19, 10:57:51
Im übrigen ist SLI eine wunderbare Möglichkeit die Performance zu steigern und trozdem lieferbar zu bleiben. Mann muss nämlich nicht bis ans maximal erträgliche bei einer GPU gehen.


Hier will ich zu meiner eigenen Aussage noch wenig anknüpfen. Mit SLI muss ich wie gesagt nicht den maximalen Takt bei einer GPU rausholen. Ich bin somit unabhängiger vom Fertigungsprozess. Lieferfähigkeit wird damit dann nicht mehr so zu dem Problem wie es bei der X800XT-PE oder auch der GF6800U der Fall ist.

Man kann beim SLI Verbund recht moderat takten und sollte eine der beiden Karten den Takt nicht schaffen, kann man sie immer noch als GF6800GT oder was auch immer verkaufen.
Dies ist ein riesen Vorteil im Vergleich zur 3dfx Dual Chip Lösung bei der V5 zum Beispiel. War hier ein Chip qualitativ nicht gut genug, konnte man die Karte vergessen. Man musste also vorher aufwendig rumselektieren und gut testen. Das ist viel zu teuer in der Produktion.
Bei der Dual Karten Variante ist das nicht der Fall. Hier sind die Toleranzen anscheinend größer und das Ganze ist aus Herstellersicht besser beherrschbar. Es gibt viel weniger Ausschuss, da die Karten auch für sich alleine gut absetzbar sind am Markt. Einen einzelnen Chip einer V5 konnte man aber nicht verkaufen.

Eine ziemlich clevere Methode die Nvidia da eingeschlagen hat - das muss man ihnen lassen. Daran dürfte ATI ne Ganze weile zu knabbern haben. Jetzt muss nur der nForce4 langsam in die Pötte kommen.

Gast
2004-10-19, 11:02:24
Also gemessen an einer 6800LE/NU bzw 6800GT oder 6600GT haben heutige High End Karten ein beschissenes P/L Verhältnis, das schlechter ist als das von SLI.


;D Du weisst ja sicher was 2 6.600Gts kosten, ohne den Mehrpreis fuer Board, etc mit einzurechnen


Da die große Mehrheit sowieso auf PCI-E beim Neukauf umrüsten wird, ist das Mainboard schonmal kein Problem. Der nForce4 bietet abseits von SLI bereits so viel, dass ein gewisser Preis gerechtfertigt ist. Er wird auch nicht groß teurer werden als nForce2Ultra etc.. Ich rechne mit 150 bis 200 Euro fürs Board. Dafür ist dann aber auch alles dabei was das Hertz begehrt.
Hier ein bisschen mehr zu investieren macht in jedem Fall Sinn.
Du bist sicher nicht der erste der sich in die eigene Tasche rechnet...



Die geplante Pro war zu schwach und ist es immer noch..
Es wuerde reichen wenn Ati im Referenzdesign den RAM Takt auf 500Mhz erhoehen wuerde um mit der GT pari zu sein (siehe x800pro Toxic), warum man bei Standardmaesig verbauten 2ns Speicher darauf verzichtet duerfte Atis Geheimnis bleiben

Und was den 2. Punkt angeht ATI könne mal eben SLI bringen. Forget it. Wenn sie das mal eben schnell könnten, hätten sie es gemacht. Können sie aber nicht, weil sie es in der Form für den Retail Markt nicht reif haben. So einfach ist die Wahrheit. Das heisst nicht dass sie es nie bringen können aber derzeit haben sie es nicht und können es nicht bringen. Und somit wird vorerst dann nur noch der 2. Platz übrig bleiben. So einfach ist das.
Spekulation, vielleicht wollen sie auch nicht

Im übrigen ist SLI eine wunderbare Möglichkeit die Performance zu steigern und trozdem lieferbar zu bleiben. Mann muss nämlich nicht bis ans maximal erträgliche bei einer GPU gehen.
Rechtgeb, nur was ist wenn "Mann" "Frau" ist.

"Many words are spoken when there's nothing to say"

Quasar
2004-10-19, 11:09:33
Ein Vorteil (neben den hunderten von Nachteilen...) von SLI wurde IMO bisher noch gar nicht erwähnt, dabei wäre gerade dieser für mich als Enduser einer der (ge-)wichtigsten.

Erweiterbarkeit zum kleinen Preis.
Ja, richtig gehört - und genau so wurde es in meinem Bekanntenkreis damals zu Zeiten der Voodoo2 auch praktiziert, insofern ist's also nicht sehr weit hergeholt.

Dazu muss man erstmal von "unserer" Freak-Attitüde wegkommen und sich bewußt machen, daß es Leute gibt, die sehr viel rationaler an die Sache herangehen, als "wir".

Man kauft sich jetzt eine gut performende Mid-Range Karte zum halbwegs moderaten Preis - bsw. eine 6600GT. Soweit ich das überblicke, ist man so mit etwa 230-250 max. dabei.

Damit kann man, ausserhalb unserer Freak-Ansprüche, wohl bis mitte nächsten Jahres prima alle möglichen Games zocken.

Mitte nächsten Jahres kommt dann das fiktive Killer-Spiel raus, für das die 6600GT nicht mehr reicht - und nun kommt der Vorteil von SLI zum tragen:
Man kauft sich eine zweite, dann deutlich preiswertere (geschätzt ~150EUR, gebraucht entsprechend weniger) hinzu und hat wieder eine ganze Weile Ruhe oder kann mit entsprechend höheren BQ-Settings spielen.

Genau so wurde SLI damals, wie gesagt, in meinem Bekanntenkreis genutzt - und sicherlich nicht nur dort.

@Pit
2004-10-19, 11:11:35
Eine ziemlich clevere Methode die Nvidia da eingeschlagen hat - das muss man ihnen lassen. Daran dürfte ATI ne Ganze weile zu knabbern haben. Jetzt muss nur der nForce4 langsam in die Pötte kommen.

Während ich für den Spielebereich weniger Befürchtungen sehe, sehe ich im prof. Sektor den Abstand der Leistung bei einigen Anwendungen im SLI-Betrieb für die Konkurrenz als uneinholbar...NVIDIA hat bei CAD/DCC bisweilen die Nase schon vorn, jetzt wirds für einige Mitbewerber möglicherweise ganz dunkel am Horizont...Wir warten aber ersteinmal die Tests ab, denn stabil muss das Ganze auch noch sein.

Gast
2004-10-19, 11:39:12
Man kauft sich jetzt eine gut performende Mid-Range Karte zum halbwegs moderaten Preis - bsw. eine 6600GT. Soweit ich das überblicke, ist man so mit etwa 230-250 max. dabei.

Damit kann man, ausserhalb unserer Freak-Ansprüche, wohl bis mitte nächsten Jahres prima alle möglichen Games zocken.

Mitte nächsten Jahres kommt dann das fiktive Killer-Spiel raus, für das die 6600GT nicht mehr reicht - und nun kommt der Vorteil von SLI zum tragen:
Man kauft sich eine zweite, dann deutlich preiswertere (geschätzt ~150EUR, gebraucht entsprechend weniger) hinzu und hat wieder eine ganze Weile Ruhe oder kann mit entsprechend höheren BQ-Settings spielen.

Genau so wurde SLI damals, wie gesagt, in meinem Bekanntenkreis genutzt - und sicherlich nicht nur dort.
250+150 = 400, dafuer bekommst du praktisch eine GF6.800GT, und hast die Performance schon heute. Richtig Aufruesten zum kleinen Preis kannst du ergo nicht, nur die Cashflows streuen (obschon gerade dies fuer viele begrenzte Budgets Sinn macht, insofern ack obschon Milchmaedchenrechnung).

Quasar
2004-10-19, 11:45:52
250+150 = 400, dafuer bekommst du praktisch eine GF6.800GT, und hast die Performance schon heute..

Richtig, allerdings sind das ziemliche Worst-Case Vorstellungen. Geizhals behauptet heute schon eine 6600GT (MSI, Leadtek) für unter 200EUR.

Die zweite dann entsprechend billiger - eventuell bist du dann ja sogar schon mit 300EUR gesamt dabei.

Und nicht zu vergessen, daß du in manchen Fällen dann mit einer 6600GT-SLI 16 Pipes mit 500MHz anstatt 350MHz _nutzbar_ hast.

Aber wie gesagt, es lassen sich sowohl Vor- als auch Nachteile zuhauf finden, je nachdem, in welche Richtung man sucht. :)

Gast
2004-10-19, 11:59:50
@quasar
Endlich ein Argument das ich mag :Daumen.

ShadowXX
2004-10-19, 12:04:30
Ein Vorteil (neben den hunderten von Nachteilen...) von SLI wurde IMO bisher noch gar nicht erwähnt, dabei wäre gerade dieser für mich als Enduser einer der (ge-)wichtigsten.

Erweiterbarkeit zum kleinen Preis.
Ja, richtig gehört - und genau so wurde es in meinem Bekanntenkreis damals zu Zeiten der Voodoo2 auch praktiziert, insofern ist's also nicht sehr weit hergeholt.

Dazu muss man erstmal von "unserer" Freak-Attitüde wegkommen und sich bewußt machen, daß es Leute gibt, die sehr viel rationaler an die Sache herangehen, als "wir".

Man kauft sich jetzt eine gut performende Mid-Range Karte zum halbwegs moderaten Preis - bsw. eine 6600GT. Soweit ich das überblicke, ist man so mit etwa 230-250 max. dabei.

Damit kann man, ausserhalb unserer Freak-Ansprüche, wohl bis mitte nächsten Jahres prima alle möglichen Games zocken.

Mitte nächsten Jahres kommt dann das fiktive Killer-Spiel raus, für das die 6600GT nicht mehr reicht - und nun kommt der Vorteil von SLI zum tragen:
Man kauft sich eine zweite, dann deutlich preiswertere (geschätzt ~150EUR, gebraucht entsprechend weniger) hinzu und hat wieder eine ganze Weile Ruhe oder kann mit entsprechend höheren BQ-Settings spielen.

Genau so wurde SLI damals, wie gesagt, in meinem Bekanntenkreis genutzt - und sicherlich nicht nur dort.

Jupps...genau das haben die meisten bis jetzt übersehen....

Alle gehen immer davon aus, das man jetzt und hier (und dazu sofort) sich so ein SLI-Gespann zulegt.

Aber das ist glaube ich nicht der "wahre" Sinn, der sich dahinter versteckt, sondern genau der von die genannte....Man nennt es auch Käuferbindung.

P.S.
bevor ich mir den "Refresh" des nv40 zulege (der wahrscheinlich sowieso höchstens 15% schneller sein wird), würde ich sehr wahrscheinlich auch eher zur SLI Lösung greifen...denn der nv50 kommt bestimmt nicht vor 2006....
(Leider ist meine Ultra eine APG und darum scheidet für mich die SLI Lösung damit aus...)
Dadurch wird mein nächste Karte fast zwangsläufig wieder eine ATI (r520) werden, falls diese deutlich vor dem nv50 erscheinen sollte...

Gast
2004-10-19, 12:06:33
und zum Thema das erste Anandtech Preview zum nForce4 SLI, leider ohne Benchmarks, da das Review Board keine SLI Version war.

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2248

Allerdings bestätigt Anandtech die neulich von Nvidia geleakten Ergebnisse.
Da dürfte es für die Konkurenz bald ganz dunkel am Performancetron werden.

Traxx
2004-10-19, 12:29:56
250+150 = 400, dafuer bekommst du praktisch eine GF6.800GT, und hast die Performance schon heute.

Und auch die ganzen 400 sind schon heute raus...

Greetings
Traxx

reunion
2004-10-19, 15:28:07
Allerdings bestätigt Anandtech die neulich von Nvidia geleakten Ergebnisse.


Das liegt daran das es sich auch um die von NV geleakten Ergebnisse handelt ;)
Soetwas nennt man dann schlicht abschreiben ;D

ShadowXX
2004-10-19, 15:35:36
Das liegt daran das es sich auch um die von NV geleakten Ergebnisse handelt ;)
Soetwas nennt man dann schlicht abschreiben ;D

No...einfach mal etwas genauer hingucken:


While nVidia was not ready to ship nForce4 SLI reference boards for review, they were demonstrating a major manufacturer's nF4 SLI board with a pair of nVidia 6800 Ultra video cards at 1600x1200 resolution at 4x AA. We also got to play with the SLI system with an Athlon 64 4000+ CPU, confirming benchmarks that were supplied by nVidia.


Sind wohl also Anandtech-Eigene Ergebnisse....

Tigerchen
2004-10-19, 15:37:19
Ich glaube, da verrennst Du Dich etwas. Das war nämlich faktisch eine Kritik an der Preisklasse - und dies verbietet sich meines Erachtens nach prinzipiell. Soll ich plötzlich auf jede HighEnd-Karte einschlagen, weil sie kein gutes Preis/Leistungsverhältnis hat - und auf jede LowCost-Karte, weil sie nicht tauglich ist für moderne und kommende Spiele? Jeder kauft sich seine HW, wie es seine Geldbörse zuläßt, es gibt diesbezüglich kein Weg, auf dem *wir alle* gehen sollten. Insofern finde ich Kritik an dem Preis der SLI-Geschichte nicht wirklich sinnvoll, weil es so aussieht, als würdest Du denjenigen Usern, die diesen Weg gehen wollen, sagen, daß sie prinzipiellen Schwachsinn begehen.

Jeder kann den Weg gehen den er will. Aber die Hype um SLI befremdet mich schon sehr. Jedesmal wenn ATI, nV, AMD oder Intel so einen Wahnsinn als ultimatives CPU oder 3D-Erlebnis vorstellen wird das ganz groß rausgebracht und dann wird im Forum gestritten was besser ist. Extrem Edition oder FX. Das ist dann die Frage. Und nach ein paar Monaten, wenn die Ware dann endlich verfügbar ist kauft es dann doch keine Sau weil es den meisten dann doch, zu Recht, zu teuer ist. Warum muß 3D-Center da also noch Öl ins Feuer gießen?
Wann wurde SLI vorgestellt? Wann werden wir es im Consumermarkt sehen?
Warum stellt es nV vor, verzögert dann aber die Auslieferung eines bezahlbaren SLI-fähigen Chipsatzes? Fühlt man sich da nicht manchmal wie ein Pferd dem mit einer Angel eine Möhre vor die Nase gehalten wird damit es schneller läuft?

Tigerchen
2004-10-19, 15:40:11
Die Diskussion ist (verständlicherweise ;) ) einseitig auf Spielegrafikkarten ausgerichtet. In einem Post weiter oben habe ich schon versucht anzudeuten, dass in einem bestimmten Industriezweig Leistung um "jeden" Preis gesucht wird, da wäre man sogar dankbar, wenn 4 Grafikkarten in einem System stecken und skalieren könnten...Diesen High-End-Abnehmern geht es nicht um Verlustleistung oder um das Geld, die zahlen auch das doppelte des jetzt schon teuersten Produktes, nein, denen geht es um pure Leistung, die verglichen zur schnellsten einzeln verfügbaren Grafikkarte nicht erhältlich ist.

Ich weiss von einem Projekt einer Simulation, für dieses Projekt gibt es momentan noch keine ausreichend schnelle Grafikkarte. Diese Herren und Damen "Entwickler" würden mir wahrscheinlich nicht nur die Hände küssen, hätte ich eine GraKa (Genlock, SLI, wurscht) mit 300 Watt Verl.l. und Lärmentwicklung wie im Windkanal, aber dafür mit dem Leistungspotential, was sie benötigen. ;D

Wenn dir eine Diskussion über Multichip im Profibereich am Herzen liegt dann kannst du ja einen Extrathread aufmachen. Das ist ein ganz anderes Thema.

Da sich nV mit der Vorstellung von SLI ganz gezielt an Gamer gewendet hat würde ich dieses Thema gerne gesondert betrachten.

ShadowXX
2004-10-19, 15:46:07
Jeder kann den Weg gehen den er will. Aber die Hype um SLI befremdet mich schon sehr. Jedesmal wenn ATI, nV, AMD oder Intel so einen Wahnsinn als ultimatives CPU oder 3D-Erlebnis vorstellen wird das ganz groß rausgebracht und dann wird im Forum gestritten was besser ist. Extrem Edition oder FX. Das ist dann die Frage. Und nach ein paar Monaten, wenn die Ware dann endlich verfügbar ist kauft es dann doch keine Sau weil es den meisten dann doch, zu Recht, zu teuer ist. Warum muß 3D-Center da also noch Öl ins Feuer gießen?
Wann wurde SLI vorgestellt? Wann werden wir es im Consumermarkt sehen?
Warum stellt es nV vor, verzögert dann aber die Auslieferung eines bezahlbaren SLI-fähigen Chipsatzes? Fühlt man sich da nicht manchmal wie ein Pferd dem mit einer Angel eine Möhre vor die Nase gehalten wird damit es schneller läuft?


Ich verstehe zwar bis zu einem gewissen grad deinen Standpunkt, aber vielleicht sollten wir uns über das Thema noch mal in einem halben Jahr unterhalten, wenn SLI Mainboards und GT/Ultra Varianten zum "normalen" Alltag gehören....

Erst dann kann man richtig über Sinn und Unsinn von SLI streiten.....am Anfang kosten solche Technologien immer unsummen, die kaum jemand bezahlen kann/will.

Wenn man aber in ca. 6 Monaten GTs für 350Euro bekommen kann und SLI Boards für 150Euro sieht das ganze IMHO nicht mehr so unvernünftig aus...
Mann hat dann die möglichkeit sich so eine "Combo" zu kaufen und später dann irgendwann nochmal eine GT dazu, wenns zu knapp bei den Games wird...

Und die Lösung ist dann sicher billiger, als sich eine ganz neue GraKa zuzulegen.
Ob sich allerdings SLI-Ultra Systeme in hinblick auf Verlusleistung und Kühlung wirklich grossartig durchsetzen, bezweifle ich selbst...

Aber bei GT-SLI-Systeme könnte ich mir durchaus vorstellen, das diese weiter verbreitet anzutreffen sind.....

nV hat das ganze sicher auch im Hinblick auf die lange Durststrecke bis zum nv50 designed....

Beispiel:
als die Voodoo2 rauskam dachte ich nicht einen Augenblick daran, mir mal eine zweite reinzusetzen, da zum Zeitpunkt meine V2 kaufs eine einzelne schon knapp 600 DM kostete....als dann ca. 1 Jahr später die Wahl zwischen V3 und einer weiteren V2 (für nur noch 200DM) anstand, hab ich mich für die SLI-V2 Lösung entschieden....

reunion
2004-10-19, 15:54:43
No...einfach mal etwas genauer hingucken:



Sind wohl also Anandtech-Eigene Ergebnisse....

Anandtech-Werte:
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2248&p=3

[H]ardocp-Werte:
http://www.hardocp.com/image.html?image=MTA5NzYwMzIxNWNGVnNoMkFBMEZfMV8xX2wuZ2lm

Noch fragen?
Die Werte sind bis auf die letzte Stelle hinter dem Komma absolut identisch.

Quasar
2004-10-19, 16:01:03
[...]Da sich nV mit der Vorstellung von SLI ganz gezielt an Gamer gewendet hat [...]
... und das allerhöchstens deine Rezeption des Launches darstellt...

ShadowXX
2004-10-19, 16:12:57
Anandtech-Werte:
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2248&p=3

[H]ardocp-Werte:
http://www.hardocp.com/image.html?image=MTA5NzYwMzIxNWNGVnNoMkFBMEZfMV8xX2wuZ2lm

Noch fragen?
Die Werte sind bis auf die letzte Stelle hinter dem Komma absolut identisch.

Dann muss man den Satz von Anandtech wohl so interpretieren, das Sie es wohl durchaus "nachgemessen" haben, allerdings an einem fremden System und dabei wohl nur kurz die Ergebnisse gegengecheckt haben.....ohne diese grossartig zu dokumentieren...

Weil sonst wäre dieser Satz nonsense...weil Sie ja direkt sagen das Sie auch an so einem System waren....

Ist ja auch egal....warten wir einfach mal "neutrale" Tests ab....

Gast
2004-10-19, 18:53:10
Ein Vorteil (neben den hunderten von Nachteilen...) von SLI wurde IMO bisher noch gar nicht erwähnt, dabei wäre gerade dieser für mich als Enduser einer der (ge-)wichtigsten.

Erweiterbarkeit zum kleinen Preis.
Ja, richtig gehört - und genau so wurde es in meinem Bekanntenkreis damals zu Zeiten der Voodoo2 auch praktiziert, insofern ist's also nicht sehr weit hergeholt.

Dazu muss man erstmal von "unserer" Freak-Attitüde wegkommen und sich bewußt machen, daß es Leute gibt, die sehr viel rationaler an die Sache herangehen, als "wir".

Man kauft sich jetzt eine gut performende Mid-Range Karte zum halbwegs moderaten Preis - bsw. eine 6600GT. Soweit ich das überblicke, ist man so mit etwa 230-250 max. dabei.

Damit kann man, ausserhalb unserer Freak-Ansprüche, wohl bis mitte nächsten Jahres prima alle möglichen Games zocken.

Mitte nächsten Jahres kommt dann das fiktive Killer-Spiel raus, für das die 6600GT nicht mehr reicht - und nun kommt der Vorteil von SLI zum tragen:
Man kauft sich eine zweite, dann deutlich preiswertere (geschätzt ~150EUR, gebraucht entsprechend weniger) hinzu und hat wieder eine ganze Weile Ruhe oder kann mit entsprechend höheren BQ-Settings spielen.

Genau so wurde SLI damals, wie gesagt, in meinem Bekanntenkreis genutzt - und sicherlich nicht nur dort.


Genau.:)

Wozu jedes Jahr eine neue Karte mit pipeline-Verdoppelung im Chip wenn man das auch extern haben kann durch Nachrüsten einer zweiten Karte.

mapel110
2004-10-19, 19:04:52
Genau.:)

Wozu jedes Jahr eine neue Karte mit pipeline-Verdoppelung im Chip wenn man das auch extern haben kann durch Nachrüsten einer zweiten Karte.

weil eine einzelne Karte effizienter ist?!

omg, klar, es entstehen somit Graka-kosten laut Quasar von ca 350 €. Da sind mir doch 400 € für eine GT, die keine Effiziensprobs hat und die Leistung voll entfalten kann, lieber. obendrein kann ich jetzt AA und AF aufdrehen bis zum Anschlag und bin bei der Mainboardwahl nicht so eingeschränkt und auch preislich nicht so belastet(beim Mainboard).

Klar, jemand kauft ein 200 € Mobo zusammen mit einer Midrange Karte. Das glaubt doch noch nicht mal nvidia selbst.(imo)

SLI mag im Highend seine Daseinsberechtigung haben, im mid range nicht IMO.

ShadowXX
2004-10-19, 21:39:58
Klar, jemand kauft ein 200 € Mobo zusammen mit einer Midrange Karte. Das glaubt doch noch nicht mal nvidia selbst.(imo)

SLI mag im Highend seine Daseinsberechtigung haben, im mid range nicht IMO.

Das würde ich nicht unbedingt so stehen lassen....ich kenne mehrere, die sich durchaus 200Euro Mainboards kaufen, aber denen bei der Grafik durchaus Midrange bzw. unteres High-End reicht.

Man muss das ganze nicht zu sehr auf die jetzige Situation beziehen, wo alles neu und teuer ist. Wie ich schon erwähnte, kann das ganze in einem halben Jahr schon ganz anders aussehen.

Klar, lohnen tut sich SLI nur für diejenigen, die sich jetzt ein SLI-Board und dazu eine 6800GT (vielleicht auch noch 6600GT) kaufen und dann mitte nächsten Jahres sich noch eine dazuholen.....
Sofort ein SLI-Paket zu besorgen ist momentan quatsch....und auch in einem halben Jahr sehr wahrscheinlich...aber bei der Situatiion die ich am Anfang beschrieben habe, könnte es durchaus seinen nutzen haben.

(Extrem High-End mal ausgeschlossen....Tombman wird wohl demnächst erst mal mit seinem SLI-68U gespann im Benchmark-Forum aufräumen (incl. Übertaktung der 68US))

Und ich bin ehrlich.....wenn es 68U als PCIe incl. den dazugehöreden Boards schon vor 2 Monaten gegeben hätte, hätte ich mir "vorsichtshalber" auch diese Variante zugelegt.......der Weg bis zum nv50 ist weit....(wobei man natürlich auch mal gucken muss, was denn der r520 leisten wird...wobei ich ehrlich gesagt keine Wunderdinge von Ihm erwarte).

Jesus
2004-10-19, 22:20:32
Das würde ich nicht unbedingt so stehen lassen....ich kenne mehrere, die sich durchaus 200Euro Mainboards kaufen, aber denen bei der Grafik durchaus Midrange bzw. unteres High-End reicht.
.

Er meinte damit wohl ein teurers SLI fähiges MB ;)

ironMonkey
2004-10-19, 22:40:01
Man könnte sagen 50€ mehr fürs Brett dafür das eine 2te Graka reinpasst, was mich an dem ganzen immer noch stört ist, das es mit der Leistung rauf und runter geht, zwar sind ja ein paar Zahlen schon bekannt und die sehen sehr gut aus wie ich finde, doch sind derzeit etwas mehr als 2 Spiele und 1 Bench erhältlich.

Sind eigentlich schon PCI-E Karten von NV erhältlich????


Gruß

zeckensack
2004-10-19, 23:00:59
Ein Vorteil (neben den hunderten von Nachteilen...) von SLI wurde IMO bisher noch gar nicht erwähnt, dabei wäre gerade dieser für mich als Enduser einer der (ge-)wichtigsten.

Erweiterbarkeit zum kleinen Preis.
Ja, richtig gehört - und genau so wurde es in meinem Bekanntenkreis damals zu Zeiten der Voodoo2 auch praktiziert, insofern ist's also nicht sehr weit hergeholt.
<...>Schöner, viel genutzter Vergleich, nur leider gibt's einen gewichtigen Unterschied. Damals hatte jedes Board mindestens zwei PCI-Slots. Es war schlicht nicht nötig, sich ein "passendes" Board für ein SLI-Gespann zu kaufen, weil man's sowieso schon hatte.

Irgendwie juckt's mich auch, wenn ich daran denke dass 3dfx selbst, nachdem sich mit dem AGP ein dedizierter Slot für die Grafik etabliert hatte, das Thema SLI dann mit mehreren Chips auf einer einzelnen Karte anging, statt mit mehreren Karten. Dafür muss es ja Gründe gegeben haben :|
Sicherlich fiel dadurch der Aufrüstvorteil weg, aber es wurde eben auch eine Bastellösung vermieden.

Quasar
2004-10-19, 23:08:04
Richtig, das ist momentan noch ein Nachteil, den man sicherlich nur schwierig schönreden kann. Besonders ärgerlich natürlich für early-adopters, die sich schon jetzt eine PCIe-Lösung gegönnt haben - für die ist der SLI-Express dann abgefahren.

Aber ehrlich gesagt, erwarte ich für die nähere Zukunft, daß sich Boards mit mehr als nur einem PCIe-16x Steckplatz durchsetzen und dann haben wir wieder die beschrieben Situation.
Und sicherlich wird es dann auch Multi-Board-Lösungen anderer Hersteller geben. 3dlabs bietet ja für ihre Realizm-Serie schon etwas vergleichbares an - Single-Board-SLI wie ehemals Quantum3D mit der Obsidian2 X24. ;)

Ailuros
2004-10-20, 04:54:13
Die MSRPs fuer nForce4 boards werden in etwa 200$ fuer 2 PCI-E und 150$ fuer single PCI-E boards sein fuer den Anfang. Die 50$ sind das kleinste Problem. Der Unterschied fuer ein anstaendiges =/>650W Netzteil ist dann eher ein Gedanke. Das billigste 660W Netzteil (Enermax und kein Billigmist) dass ich finden konnte, liegt momentan bei ~230$ US.

Und ich bin ehrlich.....wenn es 68U als PCIe incl. den dazugehöreden Boards schon vor 2 Monaten gegeben hätte, hätte ich mir "vorsichtshalber" auch diese Variante zugelegt.......der Weg bis zum nv50 ist weit....(wobei man natürlich auch mal gucken muss, was denn der r520 leisten wird...wobei ich ehrlich gesagt keine Wunderdinge von Ihm erwarte).

So hoch ist die NV48-SLI Leistung die ich bis jetzt gesehen habe nun auch wieder nicht, dass ein chip der naechsten Generation diese Marge nicht erreichen koennte. Wenn nicht dann steht dann wohl ATI in einem eher schlechten Licht da, wenn man bedenkt dass NV50 nur um einige Monate um die Ecke sein wird.

Gast
2004-10-20, 08:27:30
Aber ehrlich gesagt, erwarte ich für die nähere Zukunft, daß sich Boards mit mehr als nur einem PCIe-16x Steckplatz durchsetzen und dann haben wir wieder die beschrieben Situation.

Der Markt wird aber winzig bleiben, OEMs werden ganz darauf verzichten, und wenn du im Retailmarkt geschaetzte 10% Marktanteil erreichst ist der Gesamtanteil verschwindend gering. Die wichtigste Aufruesterkundschaft ist hiermit aussen vor: Kaeufer eines MM, oder oae PCs die nach dem Kauf feststellen das die Grafik des Ghz Monsters vorsichtig ausgedrueckt unter aller S... ist.

Gast
2004-10-20, 10:28:08
http://www.computerbase.de/news/hardware/chipsaetze/nvidia/2004/oktober/nforce_4_nvidias_sli-chipsatz/

man beachte die Enge auf dem Board. Beim Einsatz von Doppelslotkarten bleiben gerade zwei Pci Slots, ob der dritte bei Einslot Karten nutzbar ist, sei noch zu beweisen. Ausserdem wie es aussieht kein PCI-E 1x Slot. Zu Denken gibt auch die Naehe des 2ten PCI-16x Slots zum NB-Luefter (insbesondere wenn man die Groesse der nV PCBs bedenkt)

ShadowXX
2004-10-20, 13:24:03
So hoch ist die NV48-SLI Leistung die ich bis jetzt gesehen habe nun auch wieder nicht, dass ein chip der naechsten Generation diese Marge nicht erreichen koennte. Wenn nicht dann steht dann wohl ATI in einem eher schlechten Licht da, wenn man bedenkt dass NV50 nur um einige Monate um die Ecke sein wird.

Klar.....es ging auch mehr um die theoretische Überlegung.

Wenn ich jetzt ein SLI Mainboard incl. einer PCIe 68U hätte und die SLI-Lösung sagen wir "nur" 10% unter der Leistung einer r520 liegen würde, dann könnte man überlegen, ob man anstatt zu einer 600Euro r520XT doch lieber zu noch einer weiteren ca. 400 Euro 68U PCIe greift....(Preise auf das Erscheinungdatum des r520 gemünzt).

Oder aber, wenn man jetzt eine 68GT hat...ob einem dann vielleicht nicht auch die Leistung von eine 68GT SLI-Gespann reicht...(wenn man als Gegenpart eine fiktive r520Pro nimmt).

Ich gebe allerdings zu, das dies extrem theoretische Gedanken sind, die beim normalen User wohl kaum vorkommen.....

SLI ist extrem High-End und wird es bleiben....selbst ich, der im Bekantenkreis als HW-Verrückter gelte, werde mir sowas wohl nicht beschaffen....

Und auch das mit dem NT sollte wirklich bedacht und mit in die Kostenkalkulation mit aufgenommen werden....

Aber nur, weil nV diese Möglichkeit anbietet, sollte man Sie nicht verurteilen.....niemand wird dazu gezwungen sich sowas anzuschaffen....

Und alle bis jetzt genannten "Nachteile" sind wohl sehr aus der Sicht des einzelnen zu betrachtet.....Mich würde in dem Zusammenhang auch interessieren, wie die Meinung mancher Forenuser zu der ganzen Sache wäre, wenn ATI damit angekommen wäre...

Aber nV ist ja evil....das dürfen wir nie vergessen...

Xmas
2004-10-20, 13:29:08
Während ich für den Spielebereich weniger Befürchtungen sehe, sehe ich im prof. Sektor den Abstand der Leistung bei einigen Anwendungen im SLI-Betrieb für die Konkurrenz als uneinholbar...NVIDIA hat bei CAD/DCC bisweilen die Nase schon vorn, jetzt wirds für einige Mitbewerber möglicherweise ganz dunkel am Horizont...Wir warten aber ersteinmal die Tests ab, denn stabil muss das Ganze auch noch sein.
Hast du schon mal SPEC Viewperf-Ergebnisse von Wildcat Realizm 100-Systemen gesehen? Dann wird evtl. klar warum NVidia im professionellen Markt SLI braucht.

q@w
2004-10-20, 13:36:25
Meinst du nicht die Realizm-800? Single-Board-SLI ;)

Mit einer einzelnen 100er wird die QFX4000 doch noch halbwegs fertig.

robbitop
2004-10-20, 13:52:32
Meinst du nicht die Realizm-800? Single-Board-SLI ;)

Mit einer einzelnen 100er wird die QFX4000 doch noch halbwegs fertig.

3DLabs nutzt ein anderes Verfahren IIRC ;)

Xmas
2004-10-20, 14:08:19
Meinst du nicht die Realizm-800? Single-Board-SLI ;)

Mit einer einzelnen 100er wird die QFX4000 doch noch halbwegs fertig.
Nein, ich meine Realizm 100, weil es zur Zeit noch keine Realizm 800 Ergebnisse gibt. Aber wenn das niedrigste neue Modell von 3DLabs das High-End-Modell QuadroFX 4000 schlägt, muss NVidia eben nachlegen.

Gast
2004-10-20, 14:16:51
Und alle bis jetzt genannten "Nachteile" sind wohl sehr aus der Sicht des einzelnen zu betrachtet.....Mich würde in dem Zusammenhang auch interessieren, wie die Meinung mancher Forenuser zu der ganzen Sache wäre, wenn ATI damit angekommen wäre......
Warum? Ein Problem ist ein Problem und bleibt ein Problem, egal ob aus der roten oder gruenen oder weiss/schwarz getuepfelten Ecke.

Aber nV ist ja evil....das dürfen wir nie vergessen...
Schmarrn, es gibt genausoviele die behaupten nVidia is sacred

Gast
2004-10-20, 14:20:56
Warum? Ein Problem ist ein Problem und bleibt ein Problem, egal ob aus der roten oder gruenen oder weiss/schwarz getuepfelten Ecke.


Die Bedeutung eines problems in Sachen grafikkarten haengt immer daran, ob es mit A oder N anfaengt.

LovesuckZ

@Pit
2004-10-20, 16:11:34
[OFF TOPIC]

Hast du schon mal SPEC Viewperf-Ergebnisse von Wildcat Realizm 100-Systemen gesehen? Dann wird evtl. klar warum NVidia im professionellen Markt SLI braucht.

Ich darf in diesem Thread nichts zu prof. Grafikkarten posten ;), aber rate mal, warum wir aktuell auf 3DChips kein ViewPerf mehr einsetzen? Als "Benchmark" setze ich ausschliesslich Anwendungen wie SolidWorks, ProE, CATIA, Maya usw. ein, einfach deshalb, weil durch die synthetischen Benchies weder die tatsächliche Arbeitsumgebung noch die wahre Performance reflektiert wird, zudem die Hersteller vor allem auf ViewPerf hin ihre Treiber optimieren. Was nun genau SLI im WS-Segment bringen wird, werde ich dann berichten können, wenn entsprechende Treiber freigegeben sind.

[/OFF TOPIC]

ShadowXX
2004-10-20, 16:48:00
Nur eine klitzekleine Ergänzung zu LovesuckZ kurzem aber treffendem Post:

Warum? Ein Problem ist ein Problem und bleibt ein Problem, egal ob aus der roten oder gruenen oder weiss/schwarz getuepfelten Ecke.


Welches Problem???


Schmarrn, es gibt genausoviele die behaupten nVidia is sacred

Das auch nur ironisch......


Und jetzt noch als lustige Randbemerkung:
Momentan hab ich eine nV (davor ne ATI), aber ich hätte es für eine tolle Idee von ATI gehalten, wenn diese mit SLI angekommen wären und eben nicht nV.....
(obwohl ich ja momentan einer der bösen nV "Anhänger" bin....warum eigentlich??? Nur weil auf meiner GraKa ein nV Chip ist??? Weder nV noch ATI sind für mich Helden oder Götter, sondern irgendwelche Hardwarehersteller, von denen ich je nach Lust und Laune meine Komponenten kaufe (indirekt)... ich setze da überhaupt keine Preferenzen oder bevorzugungen...wenn morgen Realtek eine GraKa rausbringt, die mich anspricht, dann kaufe ich die.)

Quasar
2004-10-20, 19:02:13
Nein, ich meine Realizm 100, weil es zur Zeit noch keine Realizm 800 Ergebnisse gibt. Aber wenn das niedrigste neue Modell von 3DLabs das High-End-Modell QuadroFX 4000 schlägt, muss NVidia eben nachlegen.
Realizm 100 und QFX4000 sind, ebenso wie die FGL V5100 die Einsteigermodelle der neuen Generation.

Die Realizm200 hat 'nur' mehr Speicher onboard und die Realizm 800 muss QFX4400 (+SLI) und FGL V7100 schlagen.

Leider sind die Ergebnisse in den Spec-Tabellen nicht mit vergleichbaren Systemen entstanden, so daß eine echte Vergleichbarkeit IMO noch nicht gegeben ist.

@Pit
2004-10-20, 19:57:30
[OFF TOPIC]

Realizm 100 und QFX4000 sind, ebenso wie die FGL V5100 die Einsteigermodelle der neuen Generation.

Hä? Die FX4000 ist keine Einsteigerkarte, sondern was AGP angeht High-End, danach kommt bei NVIDIA nichts mehr. ZUdem sind die PCIe-Einsteigermodelle PCIe bei ATI die V3100/3200 und nicht die V5100.

Wenn wir schon bei SLI bleiben wollen, dann wäre da noch die FX1400 zu nennen, die es natürlich noch nicht gibt. Die 3400 gibts, aber die 4400 (ebenso SLI-fähig) hat noch keiner von der Presse gesehen...und die ist PCIe High-End-End.

ViewPerf ist Schrott, glaubt nicht, was dieser Benchmark zu vermitteln versucht. Beispiel: In unseren aktuellen Tests hängt eine GeForce FX5950U unter CATIA in fast allen Disziplinen die FireGL-Karten ab, in ViewPerf hätte die FX5950 keine Chance.

So, nun geht gehts wieder on topic weiter, musste das los werden ;)

[/OFF TOPIC]

Quasar
2004-10-20, 20:04:06
Deswegen schrieb ich extra "...der neuen Generation".
AGP und PCIe sehe ich nicht so konsequent getrennt - wer die Leistung benötigt, kauft sich auch das System drumherum.

http://www.nvidia.com/object/IO_11761.html
QuadroFX 4400.

http://www.ati.com/products/workstation.html
FGL V3100 und V3200 basieren AFAIK auf dem X600 und sind somit rein Radeon 9600-Karten und für mich nicht der "neuen Generation" zugehörig.

@Pit
2004-10-20, 20:10:18
FGL V3100 und V3200 basieren AFAIK auf dem X600 und sind somit rein Radeon 9600-Karten und für mich nicht der "neuen Generation" zugehörig.

Ich habe mich nur an dem Wort "Einsteiger" gestört, ansonsten hast du Recht.

MikBach
2004-10-20, 20:18:46
Und jetzt noch als lustige Randbemerkung:
Momentan hab ich eine nV (davor ne ATI), aber ich hätte es für eine tolle Idee von ATI gehalten, wenn diese mit SLI angekommen wären und eben nicht nV.....

Ansichtsache. Es gibt auch Sachen, die man nicht braucht.
Egal ob jetzt ATI oder Nvidia mit SLI kommt, ich finde es zur Zeit einfach Blödsinn. Zu Voodoo2-Zeiten war das wirklich sinnvoll, da man in 1024x768 spielen konnte, was gegenüber 800x600 eine (für fast jeden) sichtbare Verbesserung der BQ bedeutete.
Heute können die Highendkarten(R420/NV40) die meisten Spiele in 1600x1200 mit AA und AF mit spielbaren Frameraten darstellen. Mehr braucht man nicht wirklich, es sei denn man hat ePotenzprobleme und muss der Welt irgendwas beweisen.

Das wichtigste Argument ist hier nicht der Mehrpreis für die Mainboards, sondern wie Ailuros schon richtig bemerkte das Monsternetzteil.

Nvidia sollte mal besser an den Treibern arbeiten, und damit meine ich nicht Shaderreplacement ;), als solche Sachen zu bringen, die die Welt nicht braucht.

Quasar
2004-10-20, 20:19:05
Mit Einsteiger meinte ich eigentlich, daß beides "nur" die 12-Pipe-Versionen der Chips sind - es also durchaus noch Steigerungsmöglichkeiten gäbe, auch ohne SLI.

Frieden. ;)

Ailuros
2004-10-20, 20:40:39
Klar.....es ging auch mehr um die theoretische Überlegung.

Wenn ich jetzt ein SLI Mainboard incl. einer PCIe 68U hätte und die SLI-Lösung sagen wir "nur" 10% unter der Leistung einer r520 liegen würde, dann könnte man überlegen, ob man anstatt zu einer 600Euro r520XT doch lieber zu noch einer weiteren ca. 400 Euro 68U PCIe greift....(Preise auf das Erscheinungdatum des r520 gemünzt).

Die Theorie macht zwar Sinn aber entweder wuerde ich persoenlich ein volles SLI System bauen oder eben auf ein einfacheres single board PCI-E System. Ich sehe keinen besonderen Grund in diesem Fall warum ich 50-70 euro mehr fuer ein dual-peg mobo und 100-150 euro mehr fuer ein ueberteures PSU kaufen sollte um die Moeglichkeit fuer die Zukunft zu haben dass.....

Von dem ganzen theoretischen Quark abgesehen, baue ich mir konstant eigentlich nur mainstream Systeme und dass wenn Platformen ausgereift und ziemlich billig sind. In dem Sinn werde ich im naechsten Jahr wohl auf ein 3800+ oder sogar 4000+ System mit nForce4 zielen, aber nur wenn die demenstprechenden CPU Preise auch logischer werden. So kann ich meistens etwas mehr fuer eine mainstream zu high end GPU investieren. Ich wuerde aber weder NV4x-SLI oder zukuenftige Generations-GPUs mit nur einem 64bit 3000/3200+ begleiten. Irgendwo wird der Spass dann doch zu uebermaessig teuer und mit vorsichtigeren zukuenftigen Kombinationen (je nachdem was auf dem Markt dann verfuegbar ist und was es kostet bzw. insgesamt leistet). Ich gehoere auch nicht offensichtlich zur potentiellen SLI-Kundschaft. Die Unkosten koennte ich schon eventuell unter etwas Druch heute tragen, aber meine Ansprueche sind nun auch nicht wieder so verrueckt hoch dass:

a) Heutige Spiele nicht spielbar sind und das in hohen Aufloesungen mit AA/AF.
b) Ich nicht eventuell weniger als ein Jahr warten kann.

Das etwas lange yadda yadda hat nicht unbedingt direkt was mit SLI zu tun, sondern nur mein persoenlicher Standpunkt zu der ganzen Angelegenheit und wo genau bei mir genug ist.

Oder aber, wenn man jetzt eine 68GT hat...ob einem dann vielleicht nicht auch die Leistung von eine 68GT SLI-Gespann reicht...(wenn man als Gegenpart eine fiktive r520Pro nimmt).

Ich gebe allerdings zu, das dies extrem theoretische Gedanken sind, die beim normalen User wohl kaum vorkommen.....

Und auch extrem spekulativ.

SLI ist extrem High-End und wird es bleiben....selbst ich, der im Bekantenkreis als HW-Verrückter gelte, werde mir sowas wohl nicht beschaffen....

Und auch das mit dem NT sollte wirklich bedacht und mit in die Kostenkalkulation mit aufgenommen werden....

Eben. Siehe "novel sized drivel" oben :)

Aber nur, weil nV diese Möglichkeit anbietet, sollte man Sie nicht verurteilen.....niemand wird dazu gezwungen sich sowas anzuschaffen....

Und alle bis jetzt genannten "Nachteile" sind wohl sehr aus der Sicht des einzelnen zu betrachtet.....Mich würde in dem Zusammenhang auch interessieren, wie die Meinung mancher Forenuser zu der ganzen Sache wäre, wenn ATI damit angekommen wäre...

Es gibt keinen einzigen Grund SLI zu verurteilen. Was jetzt User und Bevorzugungen betrifft, wird sie sich dann eben je nach dem Geblubbere der PR/marketing Abteilung des Lieblings-IHVs richten; auch nichts neues....

Aber nV ist ja evil....das dürfen wir nie vergessen...

Fanatische Folger fuer die eine oder andere Seite sind das wahre "EviL(tM)" hier ;)

Ailuros
2004-10-20, 20:53:58
Ansichtsache. Es gibt auch Sachen, die man nicht braucht.
Egal ob jetzt ATI oder Nvidia mit SLI kommt, ich finde es zur Zeit einfach Blödsinn. Zu Voodoo2-Zeiten war das wirklich sinnvoll, da man in 1024x768 spielen konnte, was gegenüber 800x600 eine (für fast jeden) sichtbare Verbesserung der BQ bedeutete.
Heute können die Highendkarten(R420/NV40) die meisten Spiele in 1600x1200 mit AA und AF mit spielbaren Frameraten darstellen. Mehr braucht man nicht wirklich, es sei denn man hat ePotenzprobleme und muss der Welt irgendwas beweisen.

Das wichtigste Argument ist hier nicht der Mehrpreis für die Mainboards, sondern wie Ailuros schon richtig bemerkte das Monsternetzteil.

Nvidia sollte mal besser an den Treibern arbeiten, und damit meine ich nicht Shaderreplacement ;), als solche Sachen zu bringen, die die Welt nicht braucht.

Ich bemerkte aber auch (in der Vergangenheit) dass es stets einige geben wird die:

a) Geld ausgeben werden dass sie nicht wirklich haben, um Leuten zu imponieren die sie nicht wirklich ausstehen koennen (siehe Protzereien mit Benchmark-Zahlen als einfaches Beispiel).

b) Eine wesentlich kleinere Gruppe als (a) die bewusst weiss fuer was sie ein SLI System gebrauchen koennen; hybride SS/MSAA modi in sehr hohen Aufloesungen fuer Simulations-Spiele erwaehnte ich und jemand kam auch mit dem Gedanken fuer Professionelle Anwendungen die genauso ein Gedanke sein koennten.


Und das mit den Aufloesungen ist auch relativ; was genau und unter welchen Umstaenden ist genau genug? Mein 21" CRT schafft 2048*1536*32@75Hz. Ihr koennt mir sagen was ihr wollt ueber die dot-pitch Theorien oder wie die genaue Optimierung von Q3a genau aussieht usw usw, aber ich hab tatsaechlich nochmal das Spiel wieder nach einiger Zeit gespielt mit 4xAA/8xAF in dieser verrueckt hohen Aufloesung, was eine ziemlich angenehme Erfahrung war (egal ob das Spiel schon veraltet ist). Es wird auch ein paar Leute geben die Interesse fuer solche Aufloesungen haben und noch um einiges anspruchsvollere Spiele.

Man darf nicht vergessen dass wenn man mehrere Tausende von Euros fuer ein System ausgibt und nicht zu den Verrueckten der Kategorie (a) oben gehoert, dass man schwer von Grenzen hoeren moechte.

Ein Benutzer der natuerlich ein SLI System an einen 15" Bildschirm schnallt, sollte wohl eher erschossen werden.... :D

MikBach
2004-10-20, 21:18:41
@Ail
mit meinem Posting wollte ich halt zum Ausdruck bringen, dass es zu Voodoo2 Zeiten wirklich was gebracht. Sogar die Massen sehen einen Unterschied zwischen 800x600 und 1024x768.
Einen Unterschied zwischen 1600x1200 mit 4xaa/8xAF und 2048x1536 werden wohl nur die wenigsten beim Spielen wahrnehmen können.

ShadowXX
2004-10-21, 09:50:52
@Ail
mit meinem Posting wollte ich halt zum Ausdruck bringen, dass es zu Voodoo2 Zeiten wirklich was gebracht. Sogar die Massen sehen einen Unterschied zwischen 800x600 und 1024x768.
Einen Unterschied zwischen 1600x1200 mit 4xaa/8xAF und 2048x1536 werden wohl nur die wenigsten beim Spielen wahrnehmen können.

Das mag schon sein.....aber D3 mit 1600x1200 und 8xS AA + 16AF oder sogar 16xAA wäre doch auch ganz nett.....

MikBach
2004-10-21, 12:53:35
Das mag schon sein.....aber D3 mit 1600x1200 und 8xS AA + 16AF oder sogar 16xAA wäre doch auch ganz nett.....
Klar. Wenn man im God Modus die Grafikpracht eines Spiels bewundern will, hat man da Vorteile. Beim Spielen dürfte da kaum was auffallen. Ich wundere mich immer wieder, was einige BEIM SPIELEN da alles sehen(oder sehen wollen).

Tigerchen
2004-10-21, 15:48:46
@Ail
mit meinem Posting wollte ich halt zum Ausdruck bringen, dass es zu Voodoo2 Zeiten wirklich was gebracht. Sogar die Massen sehen einen Unterschied zwischen 800x600 und 1024x768.
Einen Unterschied zwischen 1600x1200 mit 4xaa/8xAF und 2048x1536 werden wohl nur die wenigsten beim Spielen wahrnehmen können.


Die heimelige Erinnerung an die glorrreiche Voodoo 2 Zeit wird es auch sein die den Wunsch nach SLI oder Dual-Karten am leben erhalten. Das scheint mit ATI/nv gar nicht mal so viel zu tun zu haben. Schließlich erinnere mich noch an die Woge der Begeisterung die selbst gestandenen Gurus erfasste als XGI die Volari V8 Duo vorstellte. Und dies absolut kritiklos, einfach nur weil DUO angesagt war. Solche Phänomene sind mir immer unheimlich.

Ailuros
2004-10-22, 04:37:02
@Ail
mit meinem Posting wollte ich halt zum Ausdruck bringen, dass es zu Voodoo2 Zeiten wirklich was gebracht. Sogar die Massen sehen einen Unterschied zwischen 800x600 und 1024x768.
Einen Unterschied zwischen 1600x1200 mit 4xaa/8xAF und 2048x1536 werden wohl nur die wenigsten beim Spielen wahrnehmen können.

V2 skalierte aber nur Fuellrate mein Herr und da ich Idiot damals stolze 600$ umgerechnet fuer die Dinger damals auf den Ladentisch legte weiss ich auch genau wie idiotisch ich mich fuehlte als dann die V3 nach nicht allzu langer Zeit erschien.

Ich spielte Q3a uebrigens in 2048*1536*32 mit 4xAA/8xAF und das Ding ist durchaus spielbar (***edit: um es genauer zu machen >100fps). Ob nun ein theoretischer EER von 8192*6144 wahrnehmbar ist oder nicht, ueberlasse ich Deiner Phantasie.

Ailuros
2004-10-22, 04:46:00
Klar. Wenn man im God Modus die Grafikpracht eines Spiels bewundern will, hat man da Vorteile. Beim Spielen dürfte da kaum was auffallen. Ich wundere mich immer wieder, was einige BEIM SPIELEN da alles sehen(oder sehen wollen).

Ich war sehr spezifisch wo ich einen Grund als Beispiel fuer SLI sehen koennte, wenn Unkosten keine Rolle spielen: Simulations-spiele in sehr hohen Aufloesungen mit hybriden SS/MSAA modi. Ein wahrer Simulations-fan hat bei diesen Spielen genug Zeit und Gelegenheit die Umgebung zu bewundern und weiss auch meistens den Unterschied von hochqualitativem FSAA eben aus dieser Erfahrung zu schaetzen. Und genau aus diesem Grund ist extravagante Leistung auch nicht notwendig.

Selbst wenn ein solches Spiel CPU limitiert ist, wird man von der doppelten Fuellrate immer noch enorm profitieren.

6800U =

max 6400MPixels/sec
quad texturing ~1600MPixels/sec
2x SSAA + quad texturing ~800MPixels/sec

6800U SLI =

max 12800MPixels/sec
quad texturing ~3200MPixels/sec
2x SSAA + quad texturing ~1600MPixels/sec

Ailuros
2004-10-22, 04:54:03
Die heimelige Erinnerung an die glorrreiche Voodoo 2 Zeit wird es auch sein die den Wunsch nach SLI oder Dual-Karten am leben erhalten. Das scheint mit ATI/nv gar nicht mal so viel zu tun zu haben. Schließlich erinnere mich noch an die Woge der Begeisterung die selbst gestandenen Gurus erfasste als XGI die Volari V8 Duo vorstellte. Und dies absolut kritiklos, einfach nur weil DUO angesagt war. Solche Phänomene sind mir immer unheimlich.


Ich kann mich an keinen "Guru" hier erinnern der damals besonders begeistert war damals ueber die Idee (und ich gehoere ja sowieso nicht zu dieser Gruppe).

Waeren Unkosten kein Problem und es haette ein breit verfuegbares simFusion6500q mit bis zu 24x sample sparce MSAA gegeben, haette ich mir so ein Ding auch geschnappt und da haette ich auch Grund gehabt begeistert zu sein, was aber bei einer Volari Duo wohl eher nicht der Fall ist. Muss ich noch extra erklaeren warum ich von den "FSAA"-Faehigkeiten der letzteren aus mehreren Gruenden nicht viel halte?

Ailuros
2004-10-22, 05:03:26
Klar. Wenn man im God Modus die Grafikpracht eines Spiels bewundern will, hat man da Vorteile. Beim Spielen dürfte da kaum was auffallen. Ich wundere mich immer wieder, was einige BEIM SPIELEN da alles sehen(oder sehen wollen).

Setz mich 10m von zwei Monitoren weg und probier mal auf dem einem setup kein AA und auf dem anderen jegliches AA zu benutzen. Ich brauch Sekunden um den Unterschied in Echtzeit zu sehen, egal wie hoch die Aufloesung ist und wie schnell das Spiel.

Ich konnte sogar aliasing an manchen Stellen in Pixar's Finding Nemo entdecken und dabei verwendet Pixar 64x sample FSAA und motion blur. Ich will ja jetzt nicht jemand selbst indirekt beleidigen aber ein AA-Fan hat auch logischerweise auch ein ausserordentlich trainiertes Auge wenn es zu aliasing kommt; sowohl bei Poly-Kanten als auch bei Texturen.

dildo4u
2004-10-24, 10:29:14
http://overklokking.no/pressemeldinger/asus_a8n-sli_3dmark05.html


http://overklokking.no/pressemeldinger/pics/asus_a8n-sli_3dmark05.jpg
Mit einem A64FX 55 und 2mal NV45 10118 punkte.
Is whol doch eher cpu limitiert bei der normalen auflösung.

LovesuckZ
2004-10-24, 11:07:27
Mit einem A64FX 55 und 2mal NV45 10118 punkte.
Is whol doch eher cpu limitiert bei der normalen auflösung.

WIe kommst du darauf?

dildo4u
2004-10-24, 11:40:05
WIe kommst du darauf?
Hmm naja bei hardocp warens doch grad mal 9200 punkte und ein A64 4000
Der A64FX55 bringt ja hier den performance sprung um 1000 punkte die karten sind ja die selben.

MechWOLLIer
2004-10-24, 13:14:31
Der FX-55 hat gerade mal 200Mhz mehr und das sind nie im leben 1000Punkte, egal wie CPU-Limitiert der mark05 da gewesen ist.
Außerdem steht da als Graka immer nur NV45, aber nie genaue Taktraten.
und wer weiß, vielleicht wurde ja bei 10118Punkten ein neuerer Treiber benutzt.

dildo4u
2004-10-24, 13:17:19
Der FX-55 hat gerade mal 200Mhz mehr und das sind nie im leben 1000Punkte, egal wie CPU-Limitiert der mark05 da gewesen ist.
Außerdem steht da als Graka immer nur NV45, aber nie genaue Taktraten.
und wer weiß, vielleicht wurde ja bei 10118Punkten ein neuerer Treiber benutzt.
Ist der NV45 nich einfach ein NV40 mit PCI Express zumindest die 6800GTs sind gleich getaktet egal ob PCI Express oder AGP

MechWOLLIer
2004-10-24, 13:45:17
Ist der NV45 nich einfach ein NV40 mit PCI Express zumindest die 6800GTs sind gleich getaktet egal ob PCI Express oder AGP
Ja, imo sollte der NV45 nichts anderes sein als ein NV40 mit PCI-Express. und da kann halt keiner sagen, ob z.B. eine GT oder eine ultra zum Einsatz gekommen ist.

Ailuros
2004-10-24, 14:46:39
Ja, imo sollte der NV45 nichts anderes sein als ein NV40 mit PCI-Express. und da kann halt keiner sagen, ob z.B. eine GT oder eine ultra zum Einsatz gekommen ist.

Eine Ultra klingt wahrscheinlicher da das Resultat um etwas hoeher ist als 6800U SLI. 6800GT SLI erreicht in 3dmark05 etwas mehr als 8k.

tombman
2004-10-27, 12:10:44
asus hatte 2 ultras laufen.... und die restlichen 1000 Punkte könnte schon die cpu sein, sind ja nur 10%.

Gott was würd ich dafür geben GENAU dieses Asus System (FX55 + AN8-SLI + 2x nv45u) jetzt schon zu haben ;)

Tjell
2004-10-27, 12:14:57
...Gott was würd ich dafür geben GENAU dieses Asus System (FX55 + AN8-SLI + 2x nv45u) jetzt schon zu haben ;)
Wie sieht es mit ca. 6000 $ aus?!?

Klick die Fremdwesen-Technologie (http://www.alienware.com/Configurator_Pages/area-51_alx_sli.aspx?SysCode=PC-AREA51ALXX2SLI-D&SubCode=SKU-DEFAULT&cs=1).

Zwar auf Intel-Basis mit 3,6 GHz Xeon statt FX55 und AN8, aber immerhin.

:ucatch:

Blaire
2004-10-27, 15:49:47
asus hatte 2 ultras laufen.... und die restlichen 1000 Punkte könnte schon die cpu sein, sind ja nur 10%.

Gott was würd ich dafür geben GENAU dieses Asus System (FX55 + AN8-SLI + 2x nv45u) jetzt schon zu haben ;)

Vor nächstes Jahr wirds wohl nix werden wie man hört. ;(

arcanum
2004-10-29, 14:31:26
erstes sli preview:

http://www.anandtech.com/video/showdoc.aspx?i=2258&p=1

mich haben die benches auf jeden fall überzeugt und ich werde mir wohl definitiv eine 6800gt pcie zulegen. ich frage mich, was jetzt die ganzen zweifler dazu sagen.

Mantikor
2004-10-29, 15:00:55
Auch wenn ich nicht zu den Zweiflern gehöre, aber die FarCry Mehrperformance kann man rein mathematisch doch schon ausschließen, oder. Mehr als 100% Mehrleistung ist doch "irgendwie" seltsam. (51 vs 105). Es könnte höchstens sein, dass die GT (normal) Werte nicht stimmen. Kann das mal jemand mit nem anderen Test vergleichen?

Mfg Der Mantikor

DrumDub
2004-10-29, 15:23:33
erstes sli preview:

http://www.anandtech.com/video/showdoc.aspx?i=2258&p=1

mich haben die benches auf jeden fall überzeugt und ich werde mir wohl definitiv eine 6800gt pcie zulegen. ich frage mich, was jetzt die ganzen zweifler dazu sagen.

die sache mit dem der aufteilung des pci-e-lanes ist ja genia gelöst:

The card itself has two ways of being inserted; if installed in one direction the card will configure the PCI Express lanes so that only one of the slots is a x16. In the other direction, the 16 PCI Express lanes are split evenly between the two x16 slots. You can run a single graphics card in either mode, but in order to run a pair of cards in SLI mode you need to enable the latter configuration. There are ways around NVIDIA's card-based design to reconfigure the PCI Express lanes, but none of them to date are as elegant as they require a long row of jumpers.

also in der sli-konfiguration laufen beide 16x slots mit 8 pci-e-lanes und in der normalen der genutzte mit 16 lanes.


Mantikor

das kann nicht eigentlich nicht sein, außer bei der einfachkonfiguration hat was gebremst. da haben die bei anand wohl geschlampt.
der rest der benchmarks ist aber sehr plausibel. zwischen 30-70% mehr performace.

Lyf
2004-10-29, 15:39:01
Auch wenn ich nicht zu den Zweiflern gehöre, aber die FarCry Mehrperformance kann man rein mathematisch doch schon ausschließen, oder. Mehr als 100% Mehrleistung ist doch "irgendwie" seltsam. (51 vs 105). Es könnte höchstens sein, dass die GT (normal) Werte nicht stimmen. Kann das mal jemand mit nem anderen Test vergleichen?



Hat mich auch gewundert, aber eine mögliche Erklärung fällt mir ein. Und zwar wenn die beiden Grafikkarten unterschiedliche Teile(oben/unten) des Bildes rendern brauchen sie nicht unbedingt die gleichen Texturen. Das heisst die effektive Texturmenge erhöht sich (normalerweise geht man ja davon aus, dass beide Karten die gleichen Texturen haben, wie es bei der Voodoo war). Was bei einer 1600x1200 mit 4xAA schon einen Performanceeinfluss haben könnte (auch wenn 256MB schon eine Menge ist).
Lyuf

Xmas
2004-10-29, 16:29:11
Beim Texturspeicher kann man IMO nicht sparen, da es sich ja erst nach dem Clipping entscheidet ob das Objekt mit der Textur im entsprechenden Bildteil sichtbar ist oder nicht.

Was aber leicht möglich ist, ist dass man den Frame-Split limitiert (z.B. max 75% - 25%) und so einen Teil des Framebuffer-Speichers einspart.

MechWOLLIer
2004-10-29, 16:29:16
Mhm,interessanter Test und die Leistung enttäsucht mich eigentlich nicht.
Was ich ganz interessant finde, dass in den niedrigeren Settings die 6600GT SLI vor der 6800GT liegt und in hohen Settings anders herum.

DrumDub
2004-10-29, 16:32:28
Hat mich auch gewundert, aber eine mögliche Erklärung fällt mir ein. Und zwar wenn die beiden Grafikkarten unterschiedliche Teile(oben/unten) des Bildes rendern brauchen sie nicht unbedingt die gleichen Texturen. Das heisst die effektive Texturmenge erhöht sich (normalerweise geht man ja davon aus, dass beide Karten die gleichen Texturen haben, wie es bei der Voodoo war). Was bei einer 1600x1200 mit 4xAA schon einen Performanceeinfluss haben könnte (auch wenn 256MB schon eine Menge ist).
Lyuf

hmm. meinste damit, dass die beiden karten zusammen schneller sind, weil der einzelnen gt der speicher ausgeht, sodass die über den agp-bus die texturdaten holen muss, während die daten im sli-modus lokal gespeichert werden?

edit: okay, war wohl quatsch die überlegung. siehe xmas posting. könnte also eher was mit filter on scanout bei 1600x1200 und 4xmsaa zu tun haben dank weniger framebuffer verbrauch im sli-modus?

MechWOLLIer
2004-10-29, 16:37:10
Mhm, ich habe imo mal irgendwo gelesen, dass in den Speicher der einen graka nichts anderes reinkommt als auch in den Speicher der zweiten graka. Man hat ja, nur weil man zwei 6600GTs hat, imo nicht automatisch 256MB.

Tigerchen
2004-10-29, 17:07:07
erstes sli preview:

http://www.anandtech.com/video/showdoc.aspx?i=2258&p=1

mich haben die benches auf jeden fall überzeugt und ich werde mir wohl definitiv eine 6800gt pcie zulegen. ich frage mich, was jetzt die ganzen zweifler dazu sagen.

So wie ich das lese ist 6600 SLI ziemlich sinnfrei. Und 6800 GT nur in Verbindung mit einer CPU der 800 ,-$ Klasse überzeugend. Meine Zweifel bestätigen sich.

Gast
2004-10-29, 17:14:19
erstes sli preview:

http://www.anandtech.com/video/showdoc.aspx?i=2258&p=1

mich haben die benches auf jeden fall überzeugt und ich werde mir wohl definitiv eine 6800gt pcie zulegen. ich frage mich, was jetzt die ganzen zweifler dazu sagen.

Eine 6800GT schneller als 2 6600GT, sehe den den Sinn von SLI für die 6600GT als nicht gegeben.

Lyf
2004-10-29, 18:06:02
Beim Texturspeicher kann man IMO nicht sparen, da es sich ja erst nach dem Clipping entscheidet ob das Objekt mit der Textur im entsprechenden Bildteil sichtbar ist oder nicht.

Was aber leicht möglich ist, ist dass man den Frame-Split limitiert (z.B. max 75% - 25%) und so einen Teil des Framebuffer-Speichers einspart.
Man spart aber nur auf einer Grafikkarte(eine braucht ja den vollen Satz), und dann hat man aber wiederum das Problem, dass die Texturspeicher unterschiedlich sind.

Du hast eventuell recht, dass es nicht moeglich ist vorher zu entscheiden, ob eine Textur wirklich gebraucht wird. Ich habe mir gedacht, dass es eine gewisse Logik im Treiber erfordert, aber bei genauerem Nachdenken ist es wirklich nicht einfach zu realisieren. Das Problem ist, dass der Treiber an dieser Stelle keine Information wie BoundingBoxes etc hat.
Andererseits muessen die beiden Grafikkarten relativ unabhaengig laufen, weil sie verschiedene Teile des Bildes rendern und damit auch wahrscheinlich unterschiedliche Texturen haben. Ich weiss leider nicht genug wie das Texturmanagement zwischen Direct3D und Treiber aussieht, muessen die Texturen wirklich im Grafikspeicher vorhanden sein, auch wenn nicht wirklich gezeichnet wird? Ist halt auch nur eine Idee.


Mhm, ich habe imo mal irgendwo gelesen, dass in den Speicher der einen graka nichts anderes reinkommt als auch in den Speicher der zweiten graka. Man hat ja, nur weil man zwei 6600GTs hat, imo nicht automatisch 256MB.
Nein so meinte ich das nicht. Dass die meisten Texturen identisch sind, ist mir klar, aber ich dachte vielleicht, dass sie vielleicht nicht absolut identisch sein muessen(was einem effektivem Texturspeicher von vielleicht 160MB entspricht). Macht aber natuerlich die Verwaltung schwieriger.

Interessant wäre aber schon, was ueber das SLI kommuniziert wird, ausser dem Framebuffer und wie breitbandig die Kommunikation ist, was DrumDub angesprochen hat.
Lyf

mapel110
2004-10-29, 18:45:06
erstes sli preview:

http://www.anandtech.com/video/showdoc.aspx?i=2258&p=1

mich haben die benches auf jeden fall überzeugt und ich werde mir wohl definitiv eine 6800gt pcie zulegen. ich frage mich, was jetzt die ganzen zweifler dazu sagen.

Merkwürdig, dass es dort nur Benchmarks mit 4xAA gibt. Mich würde mal benchmarks ohne AA interessieren. Aber vielleicht leidet da die Effiziens von SLI. hmmmmm.

Demirug
2004-10-29, 18:55:24
Merkwürdig, dass es dort nur Benchmarks mit 4xAA gibt. Mich würde mal benchmarks ohne AA interessieren. Aber vielleicht leidet da die Effiziens von SLI. hmmmmm.

Wahrscheinlich ja weil man häufiger am CPU Limit hängen wird.

mapel110
2004-10-29, 18:58:59
Wahrscheinlich ja weil man häufiger am CPU Limit hängen wird.

Das ist mir klar. Aber speziell bei der 6600 GT wärs interessant gewesen.

Gast
2004-10-29, 19:19:43
Schade das heutige Spiele immer noch so extrem CPU abhängig sind, wird sich das vieleicht in absehbarer Zukunft ändern?
Ich mein das GT-SLI System sollte man mit ner deftig übertackteten CPU mal testen, um die wahre Leistungsgrenze zu sehen, und 8xSAA Benchs kommen hoffentlich auch bald zum Zuge, oder traut sich wer da schon Aussagen auf den Speed zu machen?

LovesuckZ
2004-10-29, 19:34:47
und 8xSAA Benchs kommen hoffentlich auch bald zum Zuge, oder traut sich wer da schon Aussagen auf den Speed zu machen?

2xSSAA halbiert, 4xSSAA viertelt die Fillrate.
Und 8xSSAA nuesste sie dann achteln...

Xmas
2004-10-29, 21:02:20
Meiner Meinung nach zeigt der Test dass bei der 6600GT SLI nicht so recht lohnt, aber bei der 6800GT durchaus das erreicht wird was versprochen wurde. Und für wen Geld keine Rolle spielt, dem kann man 6800-SLI durchaus empfehlen.


Man spart aber nur auf einer Grafikkarte(eine braucht ja den vollen Satz),
Meinst du jetzt den Textur- oder Framebuffer-Speicher?
Beim Framebuffer kann man auf beiden Karten sparen, wenn man den Split limitiert. Beim 3dfx-SLI war der Split ja fest 50-50, und jede Karte/jeder Chip benötigte nur die Hälfte des Framebuffer-Speichers.
Wenn man den dynamischen Split auf 75% limitiert, dann müssen beide Karten nur jeweils 3/4 des nötigen Framebuffer-Speichers reservieren. Und das restliche Viertel sind bei 1600x1200 mit 4xAA schon mal über 20 MiB.


2xSSAA halbiert, 4xSSAA viertelt die Fillrate.
Und 8xSSAA nuesste sie dann achteln...
Ich denke, der Gast meint 8xS AA, was nur einen 2x Supersampling-Anteil hat.

arcanum
2004-10-29, 21:34:54
So wie ich das lese ist 6600 SLI ziemlich sinnfrei. Und 6800 GT nur in Verbindung mit einer CPU der 800 ,-$ Klasse überzeugend. Meine Zweifel bestätigen sich.


dass die 6600gt performance unter sli zu bescheiden ist, kann ich nachvollziehen. aber was soll daran falsch sein, mit aktuellen karten next-gen leistung zu erreichen? es würde sich ja auch keiner beschweren wenn morgen eine einzelne karte mit der performance vom sli setup erscheinen würde. jemand der sich ein solches setup holt, hat bestimmt nicht vor in auflösungen zu spielen in der die cpu limitiert - was angesichts der brachialen leistung auch nicht notwendig ist. und dass leistungsfähigere karten nach stärkeren cpus verlangen ist bei einzelkarten auch nicht anders - niemand würde jemanden mit einer 1ghz cpu eine x800/6800 empfehlen.

ich glaube, dass die refresh chips es sehr schwer haben werden, an die hier gebotene performance zu kommen - kein wunder dass nvidia bisher nichts in der richtung hat verlauten lassen.

vinacis_vivids
2004-10-29, 22:08:37
wurde OC mal mit SLI getestet? kann man die einzeln Ocen oder immer im synchronen Takt?
Wäre mal interessant 2x6800 Ultra zu testen und dazu noch zu Ocen.

:biggrin:

Gast
2004-10-29, 22:37:45
Ich denke, der Gast meint 8xS AA, was nur einen 2x Supersampling-Anteil hat.

Genau, wobei ich den "neuen" 8xS Modus meine, der der nicht ganz soviel Leistung frisst. Was für ein 4xAA Modus testen die immer eigentlich, man kann ja auch 4xS aktivieren.
Ich nehme aber mal an das SLI nicht den neuen HDR Effekt in FarCry beschleunigen kann oder?

RyoHazuki
2004-10-29, 23:36:28
Also,

wenn jemand etwas "richtig" böses haben will, dann braucht er :

- Tyan Dual Opteron SLI Board ca. 600,- Euro
- 2 x Opteron 250 (2,4GHZ) ca. 1800,- Euro
- 2 x Gainward PowerPack! Extreme/2600 (450/1200) ca. 1200,- Euro
- Corsair DIMM XMS Kit 2048MB PC3200 reg ECC ca. 800,-

Total : 4400,- Euro

Anmerkung:
- Mainboard
- CPU´s
- Grafikkarten
- Arbeitsspeicher

da fehlt noch einiges...

Dann ist man zumindest nicht wirklich CPU Limitiert (bei Software die Dual CPU´s unterstützt) ansonsten immernoch. ;D

Update:
Spinn ich ? Oder ist bei Anandtech im letzten Far Cry Benchmark die 6800 GT SLI Kombi in echt mehr als doppelt so schnell ?

non SLI : 51 FPS
with SLI: 105 FPS

tobu4
2004-10-30, 00:08:20
wurde OC mal mit SLI getestet? kann man die einzeln Ocen oder immer im synchronen Takt?
Wäre mal interessant 2x6800 Ultra zu testen und dazu noch zu Ocen.

:biggrin:
Ich denk mal die kann man nur synchron ocen, sonst könnte man ja auch 6800gts mit ultras mischen oder?

vinacis_vivids
2004-10-30, 00:37:38
man kann die nicht mischen weil sie wohl etwas unterschiedliches PCB habn. aber wenns rausskommt wirste mehr erfahren. eventuell lassen die sich doch mischen (GT@Ultra Bios) :biggrin:

mapel110
2004-10-30, 02:25:35
Ich nehme aber mal an das SLI nicht den neuen HDR Effekt in FarCry beschleunigen kann oder?

Ich sehe keinen Grund, warum das nicht der Fall sein sollte.

aths
2004-10-30, 06:13:09
Genau, wobei ich den "neuen" 8xS Modus meine, der der nicht ganz soviel Leistung frisst. Was für ein 4xAA Modus testen die immer eigentlich, man kann ja auch 4xS aktivieren.
Ich nehme aber mal an das SLI nicht den neuen HDR Effekt in FarCry beschleunigen kann oder?Natürlich wird das entsprechend beschleunigt.

Mantikor
2004-10-30, 09:10:02
Ist es eigetnlich möglich (was denkt ihr?) mit SLi (68GT) auf 1280x1024 mit 8xAF und HDR (In FarCry) zu zocken?

Mfg Der Mantikor

EDIT: Sache vergessen

Gast
2004-10-30, 10:16:53
HDR und AA schließen sich (noch) aus. Das wird wohl erst Zukünftige Hardware bieten, ob schon next Gen das kann bezweifle ich mal.

Mantikor
2004-10-30, 10:51:06
Ich dachte, das es am 64Bit Framebuffer liegt, den FarCry verwendet, oder?!

Gast
2004-10-30, 14:17:34
Für HDR brauchst du ja den 64bit großen Framebuffer (die größere Farbabstufung ermöglicht erst die Effekte), wenns mich net deucht werden in der Filmindustrie noch höhrere genutzt, aber da wird ja noch alles per Software/CPU berechnet, ohne Beschleunigerkarte.

Mantikor
2004-10-30, 14:51:56
Hatte nicht irgendwo ein "Guru" geschrieben, dass es auch "anders" geht?!

tombman
2004-10-30, 15:01:53
Vor nächstes Jahr wirds wohl nix werden wie man hört. ;(

Also die Grafikkarten und den fx55 könnte ich heute schon haben wenn ich wollte (ebay ist mein Freund), aber das mainboard is der Kasus Knacksus...

Naja, ich denke schon, daß die mobos dieses Jahr noch kommen-- zwar wie üblich in homöopathischen Dosen, aber wenn am Markt ist, schaff ich es auch eines zu bekommen ;)

Demirug
2004-10-30, 15:24:49
Der HDR Modus von Farcry nutzt eine FP16 Textur als Renderziel für das eigentliche Bild. Dieser wird dann noch heftig verrechnet (da suche ich aber noch die richtigen Shader weil das etwas merkwürdig ist). Im letzten Schritt wird dann aber auf jeden Fall der Inhalt der FP16 Texture auf den 8 Bit Framebuffer umgerechnet.

Beim HDR Verfahren von Farcry scheint mir eine FP16 Texture als zwischenspeicher fast unausweichlich. Um HDR-Effekte ohne FP-Texture zu realisieren muss ein Pixel in einem Pass vollständig berechnet werden können. Kommt transparenz zum Einsatz ist das meist schon relative schwer zu realisieren (aber nicht völlig unmöglich). Zudem muss man in diesem einen Pass auch alle Detailmaps usw mit einbringen. Shadertechnisch sehr lustig aber machbar. Allerdings hat man dann solche Shader wie: "Objekt mit 2 Detail maps und 4 Lichtquellen (T1, T2, T3, T4) das Teilweise im Wasser liegt und durch eine Fensterscheibe betrachtet wird."

Das grössere Problem das man Shadertechnisch dann auch nicht mehr lösen kann ist die Abhängigkeit zu benachbarten Pixel. FC errechnet soweit ich das bisher erkennen konnte einen Durchschnitts Heligkeitswert für das gesamte Bild welcher dann beim Abbilden des FP16 Zahlenraums auf den "normalen" darstellbaren Raum zum Einsatz kommt.

Man kann mit diesem Wert durchaus interesante Sachen machen. Ein hübhscer Tricks ist z.B. Das wenn dieser eine bestimmte schwelle unterschreitet (es also sehr dunkel ist) man das Bild beim Abbilden etwas aufhellt dafür aber mit Graustufen rendert. Natürliche Nachtsicht sozusagen.

Tigerchen
2004-10-30, 16:24:09
dass die 6600gt performance unter sli zu bescheiden ist, kann ich nachvollziehen. aber was soll daran falsch sein, mit aktuellen karten next-gen leistung zu erreichen? es würde sich ja auch keiner beschweren wenn morgen eine einzelne karte mit der performance vom sli setup erscheinen würde. jemand der sich ein solches setup holt, hat bestimmt nicht vor in auflösungen zu spielen in der die cpu limitiert - was angesichts der brachialen leistung auch nicht notwendig ist. und dass leistungsfähigere karten nach stärkeren cpus verlangen ist bei einzelkarten auch nicht anders - niemand würde jemanden mit einer 1ghz cpu eine x800/6800 empfehlen.

ich glaube, dass die refresh chips es sehr schwer haben werden, an die hier gebotene performance zu kommen - kein wunder dass nvidia bisher nichts in der richtung hat verlauten lassen.

Was daran falsch ist? Vor gar nicht langer Zeit wurden die Leute mit FX und Extreme Edition CPU`s heiß gemacht. In Diskussionen die zur Einführungen dieser HighestEnd Prozessoren geführt wurden ging es hoch her. Etwa so wie jetzt bei der SLI-Hype. Doch am Ende wollte und will sich sowas dann doch kaum einer leisten. Unterm Strich bleibt bei solchen forcierten Stürmen im Wasserglas nicht viel übrig außer aufgewühlten Gemütern. Daher sollte man seine gesunde Skepsis bei solchen Themen bewahren.
Die heutige Newsseite des 3D-Center zeigt daß so eine gewisse Skepsis wohl nun auch bei der Redaktion eingekehrt ist. Ich hoffe das bleibt so.

Lyf
2004-10-30, 17:02:57
Meinst du jetzt den Textur- oder Framebuffer-Speicher?
Beim Framebuffer kann man auf beiden Karten sparen, wenn man den Split limitiert. Beim 3dfx-SLI war der Split ja fest 50-50, und jede Karte/jeder Chip benötigte nur die Hälfte des Framebuffer-Speichers.
Wenn man den dynamischen Split auf 75% limitiert, dann müssen beide Karten nur jeweils 3/4 des nötigen Framebuffer-Speichers reservieren. Und das restliche Viertel sind bei 1600x1200 mit 4xAA schon mal über 20 MiB.

Ich meinte schon Framebuffer. Ich dachte mir, dass es für den Scanout einfacher wäre, wenn die Grafikkarte nur auf ihren eigenen Speicher zugreift.
Das also nach dem Rendern, die zweite Grafikkarte einfach ihren Teil rüberkopiert. Aber spricht eigentlich auch nicht viel dagegen, die Daten erst beim Scanout über SLI rüberzusenden.
Was ich bei der REchnung der Ersparnis nicht verstehe, wenn es so funktioniert, warum wird bei beiden nur Viertel eingespart. Man braucht doch nur so viele überlappende Zeilen wie FSAA braucht oder?
Lyf

Demirug
2004-10-30, 17:48:12
Lyf, gehe davon aus das nVidias SLI vorzugsweise im AFR Modus läuft und dann lässt sich kein Speicher sparen weil beide Chips eine vollständigen Framebuffer brauchen.

Xmas
2004-10-30, 17:58:35
Was ich bei der REchnung der Ersparnis nicht verstehe, wenn es so funktioniert, warum wird bei beiden nur Viertel eingespart. Man braucht doch nur so viele überlappende Zeilen wie FSAA braucht oder?
Lyf
Welche überlappenden Zeilen?

Bei den Voodoos war die Aufteilung fest 50-50, egal ob abwechselnde Zeilen wie bei V2 oder abwechselnde Streifen wie bei V5. Da hielt auch jeder Chip in seinem Speicher genau die Hälfte des Bildes.

Bei SLI von NVidia ist beim Split-Modus die Aufteilung dynamisch, je nach Szene berechnet eine Karte mehr oder weniger vom Bild. Nun ist es aber aus Performance-Gründen unmöglich, jedesmal wenn die Last wechselt mehr oder weniger Framebuffer-Speicher zu allokieren. Man muss schon vorher einen Bereich fest reservieren. Wenn man nun den Split auf maximal 75% - 25% limitiert, dann braucht man auch nur maximal 75% des Speichers für das gesamte Bild auf einer Karte zu reservieren.

arcanum
2004-10-31, 04:15:02
Was daran falsch ist? Vor gar nicht langer Zeit wurden die Leute mit FX und Extreme Edition CPU`s heiß gemacht. In Diskussionen die zur Einführungen dieser HighestEnd Prozessoren geführt wurden ging es hoch her. Etwa so wie jetzt bei der SLI-Hype. Doch am Ende wollte und will sich sowas dann doch kaum einer leisten. Unterm Strich bleibt bei solchen forcierten Stürmen im Wasserglas nicht viel übrig außer aufgewühlten Gemütern. Daher sollte man seine gesunde Skepsis bei solchen Themen bewahren.
Die heutige Newsseite des 3D-Center zeigt daß so eine gewisse Skepsis wohl nun auch bei der Redaktion eingekehrt ist. Ich hoffe das bleibt so.


zeig mir mal einen bench, in dem ein fx/p4ee die regulären cpus um bis zu 30-90% überflügelt. und solange es dafür einen markt gibt machen die sachen sinn - nur weil du dir das nicht leisten willst/kannst heisst das noch lange nicht, dass der rest der welt genauso denkt. wenn es nach dir ginge, würden wohl 99,99% der luxusgüter auf der welt verschwinden.

Tigerchen
2004-10-31, 04:49:18
zeig mir mal einen bench, in dem ein fx/p4ee die regulären cpus um bis zu 30-90% überflügelt. und solange es dafür einen markt gibt machen die sachen sinn - nur weil du dir das nicht leisten willst/kannst heisst das noch lange nicht, dass der rest der welt genauso denkt. wenn es nach dir ginge, würden wohl 99,99% der luxusgüter auf der welt verschwinden.


Ich behaupte daß es dafür keinen Markt gibt. Genausowenig wie für fx/p4ee.
Was ich mir nicht leisten kann/will ist ohne Relevanz. Ich mache mich nicht zum Masstab.

MikBach
2004-10-31, 07:54:27
Setz mich 10m von zwei Monitoren weg und probier mal auf dem einem setup kein AA und auf dem anderen jegliches AA zu benutzen. Ich brauch Sekunden um den Unterschied in Echtzeit zu sehen, egal wie hoch die Aufloesung ist und wie schnell das Spiel.

Ich konnte sogar aliasing an manchen Stellen in Pixar's Finding Nemo entdecken und dabei verwendet Pixar 64x sample FSAA und motion blur. Ich will ja jetzt nicht jemand selbst indirekt beleidigen aber ein AA-Fan hat auch logischerweise auch ein ausserordentlich trainiertes Auge wenn es zu aliasing kommt; sowohl bei Poly-Kanten als auch bei Texturen.
Ja, da gebe ich dir Recht.
Ist mir auch schon aufgefallen, daß wenn ich jemandem beim Spielen zusehe, ich auch in hohen Einstellungen noch Aliasing sehe.
Wenn ich aber selber spiele, nehme ich das Aliasing kaum oder gar nicht wahr. Nur bei langsamen Spielen, Rollenspiele z.B.

MikBach
2004-10-31, 08:02:57
Ich behaupte daß es dafür keinen Markt gibt. Genausowenig wie für fx/p4ee.
Was ich mir nicht leisten kann/will ist ohne Relevanz. Ich mache mich nicht zum Masstab.

Na ja, es wird immer PC Freaks und fps Verrückte geben, die sich Sachen kaufen, die sie nicht wirklich brauchen. Aber Recht hast du schon. Der Markt dürfte verschwindend gering sein.
Hier geht es mehr ums Prestige. :rolleyes:

Nvidia sollte sich mal besser um die breite Masse kümmern und den VP auf die Sprünge helfen, und nicht sauteure, leistungsfressende Monster auf den Markt zu werfen, die kaum jemanden interessieren.