PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia GeForce 7900 Quad SLI/7950X2


Seiten : 1 2 [3]

dargo
2006-06-17, 10:51:40
mike49[/POST]']Ohne jetzt nachgerechnet zu haben: Das sollte schon in etwa so hinkommen.

Nicht vergessen, daß der Stromverbrauch quadratisch zur Spannung steigt ;)

G7950GX2 = 160W
G7900GTX = 95W

Habe beide Werte von Geizhals genommen weil ich sie nicht kenne.
Das macht bei mir 68% höhere Verlustleistung der G7950GX2 bei 50% mehr Spieleleistung (nach Angabe von Palpatin).

The_Invisible
2006-06-17, 10:55:11
laut computerbase: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/24/#abschnitt_stromverbrauch

kommts schon in etwa hin. idle wäre halt schön wenn ein core abschalten oder extrem runtertakten/vcore senken würde

mfg

dargo
2006-06-17, 11:12:41
The_Invisible[/POST]']laut computerbase: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/24/#abschnitt_stromverbrauch

kommts schon in etwa hin. idle wäre halt schön wenn ein core abschalten oder extrem runtertakten/vcore senken würde

Auf diesen Test würde ich mich nicht verlassen. Ich glaube kaum, dass der 3DMark06 die Grafikkarte voll auslastet. Dh. die Werte können noch höher sein.
Was ich auch merkwürdig finde - Laut CB liegt eine X1900XTX nur 9W höher wie eine G7800GTX 512MB, was schon mal nicht stimmen kann.

Laut http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_4.html sind es 26W Unterschied!

Gast
2006-06-17, 11:29:39
dargo[/POST]']Auf diesen Test würde ich mich nicht verlassen. Ich glaube kaum, dass der 3DMark06 die Grafikkarte voll auslastet. Dh. die Werte können noch höher sein.


die verhältnisse werden aber trotzdem stimmen, wenn ein test eine graka mehr auslastent, dann auch eine andere, der stromverbrauch steigt gleichermaßen.

dargo
2006-06-17, 11:34:24
Gast[/POST]']die verhältnisse werden aber trotzdem stimmen, wenn ein test eine graka mehr auslastent, dann auch eine andere, der stromverbrauch steigt gleichermaßen.
Jein. :)
Der Verbrauch steigt zwar, aber nicht linear. Das sieht man schon an der Transistorenanzahl eines R580 und G71.

Palpatin
2006-06-17, 13:52:10
Also ich bin bei der Gx2 von ca 150 Watt ausgegangen und bei der gtx von 120 Watt. Also ca 30 Watt differenz unter last bestätigen Anandtech und computerbase tests unter load. Hab im I-net keinen Test gefunden der eine differenz von größer 30% bestätigen würd.

dargo
2006-06-17, 14:00:57
Palpatin[/POST]']Also ich bin bei der Gx2 von ca 150 Watt ausgegangen und bei der gtx von 120 Watt. Also ca 30 Watt differenz unter last bestätigen Anandtech und computerbase tests unter load. Hab im I-net keinen Test gefunden der eine differenz von größer 30% bestätigen würd.
Also, die GTX liegt hier (http://www.vr-zone.com/?i=3335&s=8) bei 89W. Von 120W habe ich noch nichts gesehen.

PS: vorhin habe ich mich mit den 95W bei der GTX vertan. Die G7800GTX 512MB liegt bei 95W. Wobei Vr-Zone wieder 128W gemessen haben. :|

Palpatin
2006-06-17, 14:45:26
Hmm leider wurd bei vr zone keine gx2 gemessen. http://www.anandtech.com/video/showdoc.aspx?i=2769&p=3 aber wenn man davon ausgeht das die x1900xt weniger als die xtx die mit 135 watt gemessen wurde braucht und die gx 2 dann nochmal weniger dann kommt man auf ca 120watt für die gx2. Nen beleg für die oben aufgeführte 65 Watt differenz hab ich noch nirgends finden können imo sind eher zwischen 25 und 30. Was dann wiederum zwischen 20 und 35 % unterschied ergibt je nachdem von welchem grundwert man ausgeht und wie man den drei satz anwendet.

Gast
2006-06-17, 15:41:26
insane in the membrane[/POST]']achso, ich dachte, dass seien einfach zwei aneinandergeheftete 7900gtx-boards. gut, wenn es zwei aneinandergeheftete 7900gt-boards sind, ist es verständlich;)Stimmt aber auch nicht ganz. Die 7950GX2 hat 2x 512 MiB Speicher, eine 7900GT nur 256. Auch ist die 7950GX2 ein Stück höher getaktet als die 7900GT. Es sind also eher zwei übertaktete 512MiB-Versionen der 7900GT. Das PCB ist natürlich auch ein komplett anderes.

Kladderadatsch
2006-06-17, 18:03:38
Gast[/POST]']Stimmt aber auch nicht ganz. Die 7950GX2 hat 2x 512 MiB Speicher, eine 7900GT nur 256. Auch ist die 7950GX2 ein Stück höher getaktet als die 7900GT. Es sind also eher zwei übertaktete 512MiB-Versionen der 7900GT. Das PCB ist natürlich auch ein komplett anderes.
jaja, es ging mir ums prinzip..

dargo
2006-06-17, 19:20:50
Palpatin[/POST]']Hmm leider wurd bei vr zone keine gx2 gemessen. http://www.anandtech.com/video/showdoc.aspx?i=2769&p=3 aber wenn man davon ausgeht das die x1900xt weniger als die xtx die mit 135 watt gemessen wurde braucht und die gx 2 dann nochmal weniger dann kommt man auf ca 120watt für die gx2. Nen beleg für die oben aufgeführte 65 Watt differenz hab ich noch nirgends finden können imo sind eher zwischen 25 und 30. Was dann wiederum zwischen 20 und 35 % unterschied ergibt je nachdem von welchem grundwert man ausgeht und wie man den drei satz anwendet.
Frage:
Ist die GPU und Speicherspannung der GX2 indentisch wie bei einer G7900GT 256MB?

Gast
2006-06-17, 22:41:18
Der Speicher macht nicht so viel aus.

Bei ATI liegt der Unterschied zwischen einer X1800 XT (1,4ns) mit 256 und 512 MB bei nur 7W unter Last und der taktet bekanntlich mit 750 MHz.

Die GPU Spannung ist wohl das ausschlaggebende, denn der Takt allein macht nicht so viel aus, doch zwischen 1,4 und 1,2V liegen welten.
Vorallem wenn beides kombiniert zusammentrifft: Niedrigerer Coretakt als bei einer GTX und gleichzeitig noch ne geringere Spannung.

Bleiben wir mal bei der Theorie und gehen davon aus, das ein GTX Chip mit 650 MHz und 1,4V arbeitet und dabei 70W verbraucht.
Rechnerisch würde ein Chip, der bei 500 MHz arbeitet und 1,2V braucht, dann nur noch 39,56W brauchen!
Selbst wenn man zwei Chips zusammennimmt, kommt man dann auf nur 79W.

Selbst bei 700 MHz und nur 1,2V bleibt man immer noch bei 55,38W und das zeigt deutlich, das für die Verlustleistung die Spannung der entscheidenste Faktor ist.

Das erklärt auch, warum bei der GX2 bisher keine Taktraten erreicht wurden, die bei 650-700 MHz liegen, wie man es von der GTX gewöhnt ist.

Jetzt wäre die Frage interessant, ob XFX mit der GX2 M570 die Corespannung erhöhen musste, um diese Taktrate zu erreichen.

dargo
2006-06-18, 00:48:26
@Gast
Das ist zwar eine schöne Rechnung, man sollte aber folgendes nicht vergessen - Ab einem gewissen Punkt bei der GPU-Spannung ist für eine stabile Stromversorgung eine höhere Anzahl an Spannungswandlern nötig. Und gerade diese verbraten nicht wenig an Leistung, zb. bei einer X1900XT/XTX.

Bei ATI liegt der Unterschied zwischen einer X1800 XT (1,4ns) mit 256 und 512 MB bei nur 7W unter Last und der taktet bekanntlich mit 750 MHz.
Hast du dafür einen Link?

Gast
2006-06-18, 00:57:07
Deswegen ist es die Theorie.
In der Praxis kommen auch Leckströme hinzu, die man nicht berechnen kann.

Obwohl... das spricht noch viel für die Methode, mehrere GPUs zu verbauen... denn je geringer diese getaktet sind und je geringer die VCore, desto weniger Probleme hat man. Auch die Kühlung darf billiger sein.
Noch dazu kommt, das 500 MHz Chips billiger herzustellen sind, als welche die umbedingt 700 MHz schaffen müssen.

Die GX2 ist momenten sogar für unter 510 Euro zu haben, das spricht für sich.

dargo[/POST]']@Gast
Hast du dafür einen Link?

Solltest Du dir eigentlich denken können. GDDR3 ist nur ne abwandlung von DDR2 und dieser Arbeitsspeicher braucht selbst als 1 GB DDR2/1000 Modul (500 MHz) nur ca. 2W.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/20/#abschnitt_stromverbrauch

Gast
2006-06-18, 09:50:37
Gast[/POST]']Deswegen ist es die Theorie.
In der Praxis kommen auch Leckströme hinzu, die man nicht berechnen kann.

Obwohl... das spricht noch viel für die Methode, mehrere GPUs zu verbauen... denn je geringer diese getaktet sind und je geringer die VCore, desto weniger Probleme hat man. Auch die Kühlung darf billiger sein.
Noch dazu kommt, das 500 MHz Chips billiger herzustellen sind, als welche die umbedingt 700 MHz schaffen müssen.

Die GX2 ist momenten sogar für unter 510 Euro zu haben, das spricht für sich.



Solltest Du dir eigentlich denken können. GDDR3 ist nur ne abwandlung von DDR2 und dieser Arbeitsspeicher braucht selbst als 1 GB DDR2/1000 Modul (500 MHz) nur ca. 2W.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/20/#abschnitt_stromverbrauch

dargo
2006-06-18, 10:41:51
Gast[/POST]']
Obwohl... das spricht noch viel für die Methode, mehrere GPUs zu verbauen... denn je geringer diese getaktet sind und je geringer die VCore, desto weniger Probleme hat man. Auch die Kühlung darf billiger sein.
Noch dazu kommt, das 500 MHz Chips billiger herzustellen sind, als welche die umbedingt 700 MHz schaffen müssen.

Das ist ein großer Vorteil. Es gibt aber noch größere Nachteile (bezogen auf die Kosten). Im Falle der GX2 doppelte Auslegung des 512MB Vrams und zwei PCBs.


Gast[/POST]']
Solltest Du dir eigentlich denken können. GDDR3 ist nur ne abwandlung von DDR2 und dieser Arbeitsspeicher braucht selbst als 1 GB DDR2/1000 Modul (500 MHz) nur ca. 2W.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/20/#abschnitt_stromverbrauch
Hier ist wieder die Frage ob der 3DMark05 den vollen 512MB Vram ausschöpft. Das glaube ich nämlich nicht. Aber gut, es ist ein Anhaltspunkt. Wobei hier gibts wieder ein Problem. Eine X1800XT 256MB hat AFAIK "nur" 5 Spannungswandler, die (neue) X1800XT 512MB dagegen 6 Spannungswandler.
Sollte CB also das neue PCB bei der 512MB Version verwendet haben hast du wohl recht, dass der zusätzliche Vram nicht besonders viel Leistung frisst.

Mumins
2006-06-18, 12:00:14
Hast du dafür einen Link?

Edit

Gast
2006-06-18, 20:42:15
dargo[/POST]']Hier ist wieder die Frage ob der 3DMark05 den vollen 512MB Vram ausschöpft.

Mehr als die Hälfte nutzt er auf jeden Fall, denn das zeigen die Benchmarksergebnisse.

dargo
2006-06-20, 23:28:43
http://www.alternate.de/html/shop/productDetails.html?artno=JCXXN1&artno=JCXXN1&
Erwarten uns hier etwa bald weitere Preissenkungen beim Konkurent ATI?

Gast
2006-06-21, 00:58:47
dargo[/POST]']http://www.alternate.de/html/shop/productDetails.html?artno=JCXXN1&artno=JCXXN1&
Erwarten uns hier etwa bald weitere Preissenkungen beim Konkurent ATI?

Das ist die alte 7900 GX2... hat mit der neuen wenig zu tun, wahrscheinlich wollen sie die alten Bestände einfach abverkaufen.

dargo
2006-06-21, 11:01:27
Gast[/POST]']Das ist die alte 7900 GX2... hat mit der neuen wenig zu tun, wahrscheinlich wollen sie die alten Bestände einfach abverkaufen.
Ups, habe ich was verpasst?
Bitte um Aufklärung. :)

Und ich habe mich schon gewundert wieso die so lang ist. :|
Wurde nur das PCB geändert?

Gast
2006-06-21, 11:39:25
Ja, Leistungstechnisch sind die gleich, die Länge wurde aber verkürzt (von über 30 auf ca. 22, soweit ich weiß).

Also die alte GX2 würde ich mir nie antun wollen, die macht sicher Probleme in den meisten Systemen...

AnarchX
2006-06-21, 12:47:13
dargo[/POST]']Ups, habe ich was verpasst?
Bitte um Aufklärung. :)

Und ich habe mich schon gewundert wieso die so lang ist. :|
Wurde nur das PCB geändert?

Nicht nur das, auf der alten 7900GX2 kommen AFAIK auch noch nicht so sparsame G70 Chips zum Einsatz.

MechWOLLIer
2006-06-22, 11:26:27
Nein, auf der 7900 GX2 wird auch schon der G71 verbaut.
nur auf dieser halben Designstudie von Dell kamen 2xG70 zum Einsatz.

AnarchX
2006-06-22, 14:14:34
Quad-SLI (7950 GX2) und der Stand der Dinge@CB
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/juni/quad-sli_7950_gx2_stand_dinge/

dargo
2006-06-24, 10:06:04
Die G7950GX2 wird immer interessanter.
http://www.pctweaker.de/product_info.php?refID=geizhalsat&info=p2036_ASUS-Extreme-N7950GX2-2PHT-1024MB-Retail.html

Ist zwar immer noch sehr viel Kohle, aber im Vergleich zu anderen Grakas bietet diese auch entsprechend mehr Leistung.

Was mich noch interessieren würde:

1. Lassen sich die Lüfter per Software (wie zb bei den ATIs mit dem ATITool) temperatursteuern? Vorallem 2D wäre mir sehr wichtig. Die Lüfter sollen zwar sehr leise laut Reviews sein. Ich bezweifle aber, dass mir das reicht.

2. Lassen sich die GPUs in 2D untertakten und die Spannung senken? Das wäre besonders wichtig. Der Stromverbrauch in 2D stört mich ziemlich. Außerdem könnte man dann die Lüfter dementsprechnend weiter in der Drehzahl reduzieren.

Gast
2006-06-24, 10:24:11
AnarchX[/POST]']Quad-SLI (7950 GX2) und der Stand der Dinge@CB
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/juni/quad-sli_7950_gx2_stand_dinge/

Warum gibt man an mit TSAA gebencht zu haben, obwohl das nicht unter OpenGL funktioniert? ...

dargo
2006-06-24, 11:08:45
dargo[/POST]']Die G7950GX2 wird immer interessanter.
http://www.pctweaker.de/product_info.php?refID=geizhalsat&info=p2036_ASUS-Extreme-N7950GX2-2PHT-1024MB-Retail.html

Verdammt, so langsam gehen mir die falschen Preisangaben auf den Sack. :mad:
Vor paar Minuten hat sie noch 100€ weniger gekostet.

MechWOLLIer
2006-06-24, 15:26:00
Gast[/POST]']Warum gibt man an mit TSAA gebencht zu haben, obwohl das nicht unter OpenGL funktioniert? ...

Das haben wir so angegeben, obwohl wir wissen, dass TSSAA unter OpenGL nicht wirklich funktioniert, weil es in den D3D-Anwednungen nunmal funktioniert und dort dann die Bezeichnung gefehlt hätte.

TM30
2006-07-02, 04:54:24
mal ne Frage. Gibts qualitative Unterschiede vom 8xS AA zum SLI8X AA? (Transparenz Supersampling ist bei beiden an...)

Weil mit erstem habe ich im 3dmark05 unter 1280x1024 7700Punkte und mit letzerem habe ich 10668 Punkte.

aths
2006-07-03, 16:33:31
TM30[/POST]']mal ne Frage. Gibts qualitative Unterschiede vom 8xS AA zum SLI8X AA?Ja. Sie SLI-Version bietet eine bessere Kantenauflösung bei vertikalen Kanten.

TM30[/POST]']Weil mit erstem habe ich im 3dmark05 unter 1280x1024 7700Punkte und mit letzerem habe ich 10668 Punkte.Wenn mir die Anmerkung erlaubt ist: Besser wäre die Formulierung "Weil ich mit erstem ich im 3dmark05 unter 1280x1024 7700 Punkte habe, und mit letzerem habe ich 10668 Punkte."

TM30
2006-07-03, 22:01:27
So, hier mal ein paar Quad SLI Benches mitn 3Mark2005.

Ist nen A64 Single Core @ 2,8Ghz (jaja zu lahm, aber der Conroe kommt) und 2GB RAM @ 200Mhz 2-3-2-5 1T

Fazit: Ich brauch nen größeren TFT (wusst ich aber auch schon vorher)

Der linke Wert ist immer unter 1024x768, der rechte unter 1280x1024 gemacht.

0xAA 0xAF High Performance

12255 | 11509 3DMark05 Score
GT1 45,7 | 44,4
GT2 35,9 | 35,1
GT3 71,8 | 62,7

4xTSAA 16xAF High Quality

11976 | 11172 3DMark05 Score
GT1 45,3 | 44,3
GT2 35,0 | 33,3
GT3 69,3 | 60,5

8xS TSAA 16xAF High Quality

11759 | 10792 3DMark05 Score
GT1 44,9 | 43,7
GT2 34,8 | 32,6
GT3 66,6 | 56,5

SLI8xTSAA 16xAF High Quality

11928 | 11168 3DMark05 Score
GT1 44,9 | 44,3
GT2 34,9 | 33,2
GT3 69,3 | 60,6

SLI16xTSAA 16xAF High Quality

6683 | 5788 3DMark05 Score
GT1 29,3 | 25,7
GT2 18,6 | 15,7
GT3 35,2 | 30,8

SLI32xTSAA 16xAF High Quality

6303 | 5344 3DMark05 Score
GT1 27,6 | 23,6
GT2 17,7 | 14,9
GT3 32,8 | 27,8

dildo4u
2006-07-04, 16:53:14
"Die NVIDIA GeForce 7950GX2 gilt derzeit als die schnellste Grafikkarte für den Desktop-PC-Markt. Shamino aus dem VR-Zone Team hat es nun geschafft einen Wasserkühler auf eine NVIDIA GeForce 7950GX2 zu packen, durch den allerdings -30C° kaltes Ethanol läuft. Somit waren Taktraten von 766 MHz GPU- und 912 MHz Speichertakt möglich. Die Temperaturen lagen unter Last bei angenehmen +3°C. Auf einem Intel D975XBX Mainboard zusammen mit einem Intel Core 2 Duo Extreme Edition X6800 auf 4.492 MHz waren so 13.033 3DMark06 Punkte möglich."

http://static.hardwareluxx.de:443/hardware/andreas/News/GeForce7950GX2_cool_3.jpg

http://static.hardwareluxx.de:443/hardware/andreas/News/GeForce7950GX2_cool_1.jpg

http://www.hardwareluxx.de/story.php?id=4186

TM30
2006-07-04, 18:20:13
wow, fettes Respect ;D

Mike1
2006-07-04, 18:22:39
TM30[/POST]']wow, fettes Respect ;D
why?
hätt ich das geld würd ich sowas vll auch machen ;)

was ich mich grad frag is, warum bei dem link im ersten post ein X1900XT CF und nicht ein X1900XTX CF gespann verwendet wurde.
das is nämlich irgendwie unfair

The_Invisible
2006-07-04, 18:26:06
Mike1[/POST]']why?
hätt ich das geld würd ich sowas vll auch machen ;)

was ich mich grad frag is, warum bei dem link im ersten post ein X1900XT CF und nicht ein X1900XTX CF gespann verwendet wurde.
das is nämlich irgendwie unfair

weils keine xtx masterkarte gibt ;)

mfg

dildo4u
2006-07-04, 18:40:38
http://pics.computerbase.de/1/4/9/1/1/1.jpg


Preis und Taktraten sind leider noch nicht bekannt.

Gast
2006-07-04, 19:06:00
Und wo ist der Link zur Quelle?

LovesuckZ
2006-07-04, 19:07:11
Gast[/POST]']Und wo ist der Link zur Quelle?

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/juli/wassergekuehlte_geforce_7950_gx2/

TM30
2006-07-04, 20:35:22
Mike1[/POST]']why?
hätt ich das geld würd ich sowas vll auch machen ;)

ich hätte locker das Geld aber nicht den Skill dazu, deswegen Respekt.

Mike1
2006-07-04, 23:05:41
TM30[/POST]']ich hätte locker das Geld aber nicht den Skill dazu, deswegen Respekt.
schenkst mir was wenn der versuch meine X1800XT zu reparieren fehlschlägt? büttttteeeee ;)

TM30
2006-07-04, 23:08:29
hätte noch ne S3 Trio PCI die ich dir schenken könnte, damit kämst du dann wenigstens noch ins Internet http://ugly.plzdiekthxbye.net/small/s005.gif

----


hier noch ein paar 3DMark06 Ergebnisse von meinem Quad.

NUR in 1280x1024 gebencht... (1024x768 is echt vollkommen sinnlos ;))

0xAA 0xAF High Performance

6821 3DMark06 Score
GT1 30,143
GT2 31,624
HDR1 35,651
HDR2 39,223

4xTSAA 16xAF High Quality

6414 3DMark06 Score
GT1 27,990
GT2 26,447
HDR1 32,922
HDR2 37,028

8xS TSAA 16xAF High Quality

6274 3DMark06 Score
GT1 27,056
GT2 25,620
HDR1 31,711
HDR2 36,175

SLI8xTSAA 16xAF High Quality

6421 3DMark06 Score
GT1 28,064
GT2 26,460
HDR1 32,869
HDR2 37,229

SLI16xTSAA 16xAF High Quality

3547 3DMark06 Score
GT1 12,264
GT2 11,689
HDR1 14,373
HDR2 17,919

SLI32xTSAA 16xAF High Quality

3409 3DMark06 Score
GT1 11,677
GT2 11,284
HDR1 13,641
HDR2 15,956

AnarchX
2006-07-05, 01:18:56
Wassergekühlte GeForce 7950 GX2
http://pics.computerbase.de/1/4/9/1/1/1.jpg
http://pics.computerbase.de/1/4/9/1/1/3.jpghttp://pics.computerbase.de/1/4/9/1/1/4.jpghttp://pics.computerbase.de/1/4/9/1/1/2.jpg
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/juli/wassergekuehlte_geforce_7950_gx2/

Wird wohl ein teurer Spass werden:

Update: Wie in den Kommentaren angemerkt wurde, gibt es den Kühler bereits einzeln zu kaufen. Der Cool-Matic 7950GX2 von Innovatek kostet mit einer Schlauchverbindung zwischen den Kühlkörpern 149,- Euro, mit einer als „SLI-Bridge“ bezeichneten Metallverbindung 189,- Euro.

Blacksoul
2006-07-05, 02:29:16
Ist da wirklich jeweils 1 GiB pro Karte verbaut?
Afaik kann man den VRam doch nicht zusammenrechnen.



t.blacksoul.d

dildo4u
2006-07-05, 02:49:58
Blacksoul[/POST]']Ist da wirklich jeweils 1GB pro Karte verbaut?
Nö ist Marketing Verarschung.

aths
2006-07-05, 03:01:12
Blacksoul[/POST]']Ist da wirklich jeweils 1GB pro Karte verbaut?Wenn ich mir diese Anmerkung erlauben darf: Die Frage müsste korrekt lauten mit "1 GiB". Zwischen Einheit und Zahl bitte Leerzeichen lassen, und ein GB wären nur 10^9 Byte, gemeint sind 2^30 Byte, also GiB. (Das machen praktisch alle Hersteller falsch, die schreiben MB obwohl sie MiB meinen.)

Blacksoul[/POST]']Afaik kann man den VRam doch nicht zusammenrechnen. Wurde bei Voodoo5 auch schon so gemacht.

Ein bisschen schade, dass mein Mainboard kein SLI unterstützt – dann könnte ich wenigstens dereinst die 7600 GT um eine zweite ergänzen :)

dildo4u[/POST]']Nö ist Marketing Verarschung.Bitte mit Bindestrich: Marketing-Verarschung.

Blacksoul
2006-07-05, 03:15:43
aths[/POST]']Wenn ich mir diese Anmerkung erlauben darf: Die Frage müsste korrekt mit "1 GiB". Zwischen Einheit und Zahl bitte Leerzeichen lassen, und ein GB wären nur 10^9 Byte, gemeint sind 2^30 Byte, also GiB.


Hey, da steht aber "1 GB". Mal sehen, evtl. finde ich ja genug Leute für eine Sammelklage. ;)

aths[/POST]']
Wurde bei Voodoo5 auch schon so gemacht.


Hey, toll. Weil es damals falsch gemacht wurde, braucht man es heute ja nicht zu verbessern.



t.blacksoul.d

aths
2006-07-05, 03:17:07
Blacksoul[/POST]']Hey, da steht aber GB. Mal sehen, evtl. finde ich ja genug für eine Sammelklage ;)1 GiB sind ja mehr als ein GB.

Blacksoul[/POST]']Hey, toll. Weil es damals falsch gemacht wurde, braucht man es heute ja nicht zu verbessern. "Falsch" ist hier ein dehnbarer Begriff, finde ich. Die Voodoo5 5500 bietet in der Tat 64 MiB, die gezeigte GX2 in der Tat 1024 MiB. Die kann man auf der anderen Seite nicht so nutzen wie auf Single-GPU-Karten, da mindestens die Texturen mehrfach vorgehalten werden. Bei Dualcore-CPUs wird soweit ich weiß auch die gesamte Cache-Größe angegeben.

Blacksoul
2006-07-05, 03:36:39
aths[/POST]']1 GiB sind ja mehr als ein GB.

"Falsch" ist hier ein dehnbarer Begriff, finde ich. Die Voodoo5 5500 bietet in der Tat 64 MiB, die gezeigte GX2 in der Tat 1024 MiB. Die kann man auf der anderen Seite nicht so nutzen wie auf Single-GPU-Karten, da mindestens die Texturen mehrfach vorgehalten werden. Bei Dualcore-CPUs wird soweit ich weiß auch die gesamte Cache-Größe angegeben.


64KB Level 1 instruction cache per core (128KB total)
64KB Level 1 data cache per core (128KB total)
Up to 1MB Level 2 cache per core (2MB total)


Bei Intel ist es natürlich vom Prozessor abhängig.
Beim Product Brief für die Pentium D 900-Reihe heißt es "2x 2MB Level 2 Cache (4MB total)". Also das gleiche wie bei AMD.
Handelt es sich aber widerum im einen Core (2) Duo, so würde eine Angabe stimmen, da der Cache ja geteilt wird.

Sofern es sich also nicht um einen Cache handelt, der von beiden Kernen geteilt wird, halte ich die gesamte Angabe der Cache-Größe alleine für grenzwertig.

Zu diesem Thema hatten wir allerdings schon einen Thread.



t.blacksoul.d

Gast
2006-07-05, 16:11:37
Blacksoul[/POST]']Hey, da steht aber "1 GB". Mal sehen, evtl. finde ich ja genug Leute für eine Sammelklage. ;)Es gibt in Deutschland keine "Sammelklagen". ;)

Physikalisch ist auf der Karte auch 1 GiB (512 MiB pro Chip) Speicher vorhanden. Da viele Daten beim SLI-Betrieb aber doppelt im Vram liegen müssen, kann man den Speicher nicht einfach zusammenzählen, außer man ist um möglichst große Zahlen bemüht, wie z.b. die Marketingabteilung.

Ich fände es korrekter, wenn sie einfach "2x 512 MiB" schreiben würden. Dann weiß jeder was gemeint ist.

TM30
2006-07-08, 02:12:34
Mal ne Frage. Wenn ich im Treiber Quad SLI ausschalte, ist dann eine GPU oder sind zwei aktiv?

Weil ich hab jetzt mein Matrox TripleHead2Go bekommen, und wenn ich da mit Quad SLI den 3dmark06 unter 3840x1024 benche, komme ich auf 4798 Punkte (ohne AA und AF). Stelle ich Quad SLI aus, dann habe ich noch 2208 Punkte. Da wäre ja Quad SLI 126% schneller als "normales SLI" und das kann doch gar nicht sein, oder etwa doch?

Beim 3Dmark05 sinds übrigens 8209 bzw. 3935 Punkte...

AnarchX
2006-07-08, 02:20:31
TM30[/POST]']Mal ne Frage. Wenn ich im Treiber Quad SLI ausschalte, ist dann eine GPU oder sind zwei aktiv?



Was sagt der Fillrate-Test?
Eigentlich müssten dann noch 2 GPUs aktiv sein.

TM30
2006-07-08, 02:34:35
Quad SLI:

Single Texturing: 22744,215
Multi Texturing: 45223,276

Ohne SLI:

Single Texturing: 5976,318
Multi Texturing: 11901,735

... demnach ist nur eine GPU aktiviert.

AnarchX
2006-07-08, 02:39:09
TM30[/POST]']Quad SLI:

Single Texturing: 22744,215
Multi Texturing: 45223,276

Ohne SLI:

Single Texturing: 5976,318
Multi Texturing: 11901,735

... demnach ist nur eine GPU aktiviert.

Mit NHancer oder über den Treiber(Global) mal probiert AFR zu aktivieren?

TM30
2006-07-08, 02:40:30
AFR geht doch bei Quad SLI nicht...

mir gings ja nur drum, ob nun eine oder 2 GPUs rendern, wenn ich SLI ausschalte im Treiber.

AnarchX
2006-07-08, 02:42:11
TM30[/POST]']AFR geht doch bei Quad SLI nicht...

mir gings ja nur drum, ob nun eine oder 2 GPUs rendern, wenn ich SLI ausschalte im Treiber.

Meinte ja damit 2 GPUs vielleicht laufen im Singlebetrieb.
Aber das ist ja eh nicht relevant?

TM30
2006-07-08, 02:46:51
ahso... doch ;)

ich probiers mal :)

MechWOLLIer
2006-07-08, 12:11:48
TM30[/POST]']AFR geht doch bei Quad SLI nicht...

mir gings ja nur drum, ob nun eine oder 2 GPUs rendern, wenn ich SLI ausschalte im Treiber.

Natürlich geht das. Ist nur ein entsprechendes Profil vonnöten.

dildo4u
2006-07-09, 18:07:11
3x nVidia GeForce 7950 GX2
Gigabyte, Leadtek, XFX

Die Performance bei GPU lastigen Games ist echt der Hammer.Aber richtig ab gehts erst unter Opengl ab.Die XFX ist fast zwei mal so schnell wie eine 7900GTX bei Riddick.:eek:


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/

TM30
2006-07-09, 18:36:57
Computerbase soll endlich die Dinger mal im Quad benchen...

natürlich nur in hohen Auflösungen, denn sonst kommen die Lamer und Nixchecker wieder und meinen, Quad SLI bringt nix.

dildo4u
2006-07-09, 18:40:18
TM30[/POST]']Computerbase soll endlich die Dinger mal im Quad benchen...

natürlich nur in hohen Auflösungen, denn sonst kommen die Lamer und Nixchecker wieder und meinen, Quad SLI bringt nix.Der Treiber funzt doch eh noch nicht so richtig unter D3D.


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/juni/quad-sli_7950_gx2_stand_dinge/

Gast
2006-07-10, 00:16:56
Naja, wirklich überzeugen tut nur die XFX M570. Die ist knapp 15% schneller als die normale GX2 und der Aufpreis hält sich in Grenzen (510 gegen 580 Euro). In dem Fall ist das Preis/Leistungsverhältniss gar nicht schlecht.

Insgesamt ist die Karte fast 40% schneller als eine X1900 XTX, das soll schon was heißen.

Allerdings zeigt Oblivion bereits, wohin der Trend geht... dort hängt eine einzelne X1900 XTX die schnellste GX2 locker ab.

Pure Füllrate scheint bald wohl nicht mehr gefragt zu sein, dafür Shaderpower umso mehr...

Blaire
2006-07-10, 00:19:45
Gast[/POST]']
Allerdings zeigt Oblivion bereits, wohin der Trend geht... dort hängt eine einzelne X1900 XTX die schnellste GX2 locker ab.

Pure Füllrate scheint bald wohl nicht mehr gefragt zu sein, dafür Shaderpower umso mehr...

Dann stimmt mit dem Profil oder Applicationkennung irgendwas nicht , ich hatte X1900 Crossfire und 7900GTX@SLI und da war praktisch Gleichstand in der Performance.

AnarchX
2006-07-10, 00:21:28
Gast[/POST]']
Allerdings zeigt Oblivion bereits, wohin der Trend geht... dort hängt eine einzelne X1900 XTX die schnellste GX2 locker ab.

Pure Füllrate scheint bald wohl nicht mehr gefragt zu sein, dafür Shaderpower umso mehr...

Oblivion zeigt höchstens den Trend an, dass man teilweise immer schlechter programmiert... ;)
Das bei Oblivion etwas definitiv falsch gelaufen ist wurde hier schon diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=301387&highlight=Oblivion+ROPs

Gast
2006-07-10, 00:22:12
Blaire[/POST]']Dann stimmt mit dem Profil oder Applicationkennung irgendwas nicht , ich hatte X1900 Crossfire und 7900GTX@SLI und da war praktisch Gleichstand in der Performance.

Scheint aber wohl zu stimmen. In den Benches ohne AA+AF liegt die GX2 deutlich vorn, in AA+AF jedoch nicht mehr...

Wäre die Erkennung fehlerhaft, wäre sie überall langsamer gewesen.

Gast
2006-07-10, 00:24:35
Finde ich nicht.

Übliches gebrabbel, die hälfte davon ist nicht mal wahr. Oblivion benötigt keine High End Karte um gut zu laufen (ich habs mit einer R9800 Pro gezockt), CPU Power ist dort mehr gefragt.

Kannst auch die Conroe-besitzer fragen... irgendwo gabs hier mal einen Bench... mit Conroe fast doppelte fps.

Wundert mich übrigens gar nicht. Die Grafik ist zwar hübsch, aber nicht das wichtigste an dem Spiel. Die meiste Leistung frisst die meiner Meinung nach überaus brauchbare KI.
Man muss das natürlich in Relation sehen... dort laufen hunderte Charaktere herum, nicht nur ein paar wenige wie in diversen Shootern.

Blaire
2006-07-10, 00:27:25
Gast[/POST]']Scheint aber wohl zu stimmen. In den Benches ohne AA+AF liegt die GX2 deutlich vorn, in AA+AF jedoch nicht mehr...

Wäre die Erkennung fehlerhaft, wäre sie überall langsamer gewesen.

Nicht unbedingt manchmal wirds erkannt und manchmal eben nicht, der Fehler existierte bereits bei den Forceware 84.xx und ist auch im 91.xx vorhanden.
Große Unterschiede waren jedenfalls nicht zu erkennen zwischen 7900GTX SLI vs. Ati X1900CF (1600x1200 HDR enabled ,16xAF und maximalen Details)

MechWOLLIer
2006-07-10, 12:27:08
Das kommt immer ganz auf die Stelle an, die man sich in dem Spiel aussucht. Das ist je nach dem leider immer sehr verschieden.
Und SLI rennt schon mit dem richtigen Profil, mehr ist da bei nVidia einfach nicht drin.

Gast
2006-07-10, 14:35:01
Gast[/POST]']Allerdings zeigt Oblivion bereits, wohin der Trend geht... dort hängt eine einzelne X1900 XTX die schnellste GX2 locker ab.

Pure Füllrate scheint bald wohl nicht mehr gefragt zu sein, dafür Shaderpower umso mehr...Oblivion zeigt überhaupt keinen Trend an. Die XFX-GX2 hat deutlich mehr Shaderpower als jede x1900xtx und trotzdem liegt sie hinten. Oblivion liegt den R5x0-Karten einfach besser, das ist alles.

Gast
2006-07-10, 14:38:54
Hieß es anfangs nicht eigentlich, dass man Oblivion quasi nicht benchen kann, da diverse Dinge (Gräser o.ä.) zufällig verteilt werden und demnach die Last bei jedem Durchlauf unterschiedlich ist?

Wie habt ihr das gehandhabt, MechWollier? Im Test steht leider nicht genau dabei wie gebencht wurde.

MechWOLLIer
2006-07-10, 17:07:02
Es stimmt, die Umgebung wird immer neu gestaltet. Es ist aber nicht so, dass nach dem Laden jeder GRasbüschel an einem anderen Platz sitzt. Viel tut sich da nicht.
Ich habe die Testsezene mehr als nur ein paar mal verglichen. Die Ergebnisse waren, wenn man vielleicht mal von einer Messungenauigkeit von 0,2 FPS absieht, immer identisch.

Gast
2006-07-10, 18:27:26
MechWOLLIer[/POST]']Es stimmt, die Umgebung wird immer neu gestaltet. Es ist aber nicht so, dass nach dem Laden jeder GRasbüschel an einem anderen Platz sitzt. Viel tut sich da nicht.
Ich habe die Testsezene mehr als nur ein paar mal verglichen. Die Ergebnisse waren, wenn man vielleicht mal von einer Messungenauigkeit von 0,2 FPS absieht, immer identisch.Ok, danke für deine Antwort.

AnarchX
2006-08-09, 08:42:19
nVidia GeForce 7950 GX2 Quad-SLI
3D-Beschleunigung, unendliche Weiten...

Artikel@CB:>LINK< (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2_quad-sli/)

Zapat
2006-08-09, 14:25:02
nVidia GeForce 7950 GX2 Quad-SLI
3D-Beschleunigung, unendliche Weiten...

Artikel@CB:>LINK< (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2_quad-sli/)

Ich hab immer gedacht das Quad SLi das schnellste in kranken einstellungen sein soll.^^

AnarchX
2006-08-09, 14:28:31
Ich hab immer gedacht das Quad SLi das schnellste in kranken einstellungen sein soll.^^

Wenn 4Way-AFR läuft (da aktuell nur bei OpenGL) so ist es auch Quad-SLI auch die aktuelle Speerspitze der Consumer-Grafikhardware.

Mr. Lolman
2006-08-09, 14:42:34
nVidia GeForce 7950 GX2 Quad-SLI
3D-Beschleunigung, unendliche Weiten...

Artikel@CB:>LINK< (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2_quad-sli/)

Die konnten bei 4 Frames Lag keine Latenz merken? Komisch, ich merks schon bei 3 deutlich...

AnarchX
2006-08-09, 14:47:24
Die konnten bei 4 Frames Lag keine Latenz merken? Komisch, ich merks schon bei 3 deutlich...

Das kommt wohl auch etwas aufs Spiel, in spüre jedenfalls das Prerender-Limit von 3FPS, wenn es aktiviert nicht unbedingt deutlich....

Mr. Lolman
2006-08-09, 14:54:34
Das kommt wohl auch etwas aufs Spiel, in spüre jedenfalls das Prerender-Limit von 3FPS, wenn es aktiviert nicht unbedingt deutlich....

Ja natürlich kommts auch aufs Spiel an. Ich habs halt bei Q3a bei konstant 125fps gemerkt. Als es aus war, war meine Score deutlich besser. Dabei war der zusätzliche Lag bei Prerenderlimit 3 gerade mal 24ms. Bei 60fps Multiplayer (Doom³, Quake4, Prey) und nem Prerenderlimit von 4 beträgt der Lag schon 67ms...

MechWOLLIer
2006-08-09, 18:02:56
Also ich halte 4WayAFR für problemlos spielbar - zumindest stört mich die Latenz nicht, jedoch bin ich nunmal auch kein Pro-Gamer;)

Mr. Lolman
2006-08-09, 20:27:24
Naja, Quake4 mit 60fps und Prerenderlimit 4 steuert sich ca. so gut wie mit Prerenderlimit 0 und 25fps...

Gast
2006-08-09, 20:37:54
Oblivion zeigt überhaupt keinen Trend an. Die XFX-GX2 hat deutlich mehr Shaderpower als jede x1900xtx und trotzdem liegt sie hinten.
Theoretisch hast du natürlich recht. Das kann in der Praxis aber anders aussehen. Gab ja schon recht viele Diskussionen hier, das der G70 recht ineffizient ist, was auch an den nicht entkoppelten ALUs (oder auch TMUs, wie man´s nimmt) liegt.

Oblivion liegt den R5x0-Karten einfach besser, das ist alles.
Die Frage ist nur warum. ;)
Das kann man technisch sicher begründen. Zaubern kann ATI auch nicht...:)

AnarchX
2006-08-09, 20:54:38
Die Frage ist nur warum. ;)
Das kann man technisch sicher begründen. Zaubern kann ATI auch nicht...:)

Nunja in den Entwickler-PCs steckten ATI-Karten und man hat auch eben für die XBox360 mit ATI-GPU entwickelt...:wink:
Da soll es eine starke Anpassung an ATIs Hierarchical-Z geben, die für die gute Performance der ATI-Karten verantwortlich sein soll.

Gast
2006-08-09, 21:14:10
Nunja in den Entwickler-PCs steckten ATI-Karten und man hat auch eben für die XBox360 mit ATI-GPU entwickelt...:wink:
Und? :confused:
Far Cry ist auf NV-Karten entwickelt worden und ist auf jenen ziemlich lahm in Vergleich mit der Konkurrenz aus Kanada... :D

Da soll es eine starke Anpassung an ATIs Hierarchical-Z geben, die für die gute Performance der ATI-Karten verantwortlich sein soll.
Interessant.
Wo kann man das nachlesen? :)

Mr. Lolman
2006-08-09, 21:21:59
*falsch verstanden* ;)

AnarchX
2006-08-09, 21:22:42
Und? :confused:
Far Cry ist auf NV-Karten entwickelt worden und ist auf jenen ziemlich lahm in Vergleich mit der Konkurrenz aus Kanada... :D

Geforce FX ist ein Kapitel für sich und hat mit Oblivion weniger zu tun...:wink:
Zudem optimiert ATI ihre Treiber heute immernoch für FC...:|


Interessant.
Wo kann man das nachlesen? :)

Hatten die Gurus mal hier verlauten lassen.

Gast
2006-08-09, 21:38:43
Geforce FX ist ein Kapitel für sich und hat mit Oblivion weniger zu tun...:wink:
Ne, die FX war nicht gemeint. Das wäre etwas unter der Gürtellinie. :)
Eine X800XT PE schlägt eine 7800GT, von einer 6800Ultra (der Konkurrent) reden wir besser nicht. Die ist noch langsamer (bei vergleichbarer BQ) als in den Benchmarks:
Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_sapphire_radeon_x800_gt_gto_gto/17/#abschnitt_far_cry)

Zudem optimiert ATI ihre Treiber heute immernoch für FC...:|
Echt?
Die sollten ihr Know-how besser woanders nutzen.
Mir geht es ziemlich auf die Eier, daß die BQ bei AI-low immer weiter runtergeschraubt wird.
Vor einem halben Jahr konnte man noch die meisten Spiele mit AI-low spielen, nun muß man meistens AI ausschalten, weil man sonst mit Flimmern "belohnt" wird. :(

Hatten die Gurus mal hier verlauten lassen.
Ahhh soo.. ;)

The_Invisible
2006-08-10, 08:02:01
Ne, die FX war nicht gemeint. Das wäre etwas unter der Gürtellinie. :)
Eine X800XT PE schlägt eine 7800GT, von einer 6800Ultra (der Konkurrent) reden wir besser nicht. Die ist noch langsamer (bei vergleichbarer BQ) als in den Benchmarks:
Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_sapphire_radeon_x800_gt_gto_gto/17/#abschnitt_far_cry)


dann sieh dir auf den selben testseiten AoE3 an, da ist ne 6800u so schnell wie ne x1800xt

es gibt immer spiele wo die eine karte "besser" ist als die andere, das war immer so und wird auch immer so bleiben, zudem gibts auch immer ausnahmespiele wo der unterschied besonders groß ist (bei Computerbase wird zudem unfairerweise HQ gegen AI on gebencht)

mfg

Gast
2006-08-10, 09:34:38
dann sieh dir auf den selben testseiten AoE3 an, da ist ne 6800u so schnell wie ne x1800xt

es gibt immer spiele wo die eine karte "besser" ist als die andere, das war immer so und wird auch immer so bleiben, zudem gibts auch immer ausnahmespiele wo der unterschied besonders groß ist
Ja, klar.
Wollte nur ganz dezent andeuten, daß eine generelle Aussage, wie Spiel X ist auf NV/ATI programmiert worden, deswegen ist es schneller, unmöglich ist.
Far Cry beweist, daß diese Aussage Käse ist.

(bei Computerbase wird zudem unfairerweise HQ gegen AI on gebencht)

mfg
Quatsch.
Was die BQ angeht sind AI-low und NV@HQ am besten miteinander vergleichbar.
Andere Settings machen keinen Sinn.
Oder was würdest du vorschlagen?

Grestorn
2006-08-10, 11:01:02
Ja, klar.
Wollte nur ganz dezent andeuten, daß eine generelle Aussage, wie Spiel X ist auf NV/ATI programmiert worden, deswegen ist es schneller, unmöglich ist.
Far Cry beweist, daß diese Aussage Käse ist.

Quatsch.
Was die BQ angeht sind AI-low und NV@HQ am besten miteinander vergleichbar.
Andere Settings machen keinen Sinn.
Oder was würdest du vorschlagen?

AI off gegen HQ. ATI ist selbst schuld, wenn dann auch alle Optimierungen, die sich nicht auf die BQ auswirken, inkl. CF ausgeschaltet ist.

Dummheit muss bestraft werden.

Bei AI low sind halt weiterhin Optimierungen auf Kosten der BQ aktiv.

Grestorn
2006-08-10, 11:03:21
Ich hab keine Lust den ganzen Mega-Thread durchzuarbeiten.

Ich hab mir extra wegen nHancer nun eine 2. 7900GX2 geholt. In meinem A8N-SLI Prem. kann ich die aber nicht einbauen, weil dann die SATA Anschlüsse blokiert sind.

Gibt es irgendeine definitive Aussage, mit welchem MB ich 2 7900GX2 nutzen kann, ohne dass irgendwelche Anschlüsse blockiert werden?

AnarchX
2006-08-10, 12:14:02
Ja, klar.
Wollte nur ganz dezent andeuten, daß eine generelle Aussage, wie Spiel X ist auf NV/ATI programmiert worden, deswegen ist es schneller, unmöglich ist.
Far Cry beweist, daß diese Aussage Käse ist.


Nur liegt soetwas in diesem Fall wohl vor, mit der Performance bei Oblivion ist einfach wirklich etwas sehr im Argen bei den Nvidia-Karten.

Blaire
2006-08-10, 16:35:48
Nur liegt soetwas in diesem Fall wohl vor, mit der Performance bei Oblivion ist einfach wirklich etwas sehr im Argen bei den Nvidia-Karten.

Soweit würde ich garnicht mal gehn , ich würde eher sagen auf die Settings kommt es an. Alles an maximalen Details reinknallen geht ohnehin mit jetzigen Karten noch nicht, schon garnicht bei hohen Auflösungen >1600x1200
Da ich damals selbst zwei X1900CF und 7900GTX besaß ,waren bei meinen verwendeten spielbaren Settings (1600x1200 16xAF HDR enabled )die Karten nahezu gleich auf. Auf Computerbase wird z.b. mit TRSAA gebencht mit Frameraten die eh nicht spielbar sind ja toll da ist Ati vorne , aber was nutzt es denn ob man nun 8 fps oder 15 fps bekommt beides ist nicht spielbar! Man muss ausgewogene Settings verwenden die spielbar sind das hab ich auch schon MechWollier mitgeteilt. So sieht es so aus als wäre Ati dort deutlicher vorne aber in der Praxis wird man davon nicht viel merken.

Mr. Lolman
2006-08-10, 17:05:33
Auf ATis spielt man Oblivion ohnehin mit HDR+(A)AA...

Blaire
2006-08-10, 17:31:29
Auf ATis spielt man Oblivion ohnehin mit HDR+(A)AA...

Das HDR+AA ist natürlich ein gutes Argument nur leider nicht sinnvoll einsetzbar will man gute FPS bei hoher Auflösung ,die wichtig sind bei Kämpfen.

The_Invisible
2006-08-10, 17:44:51
AI off gegen HQ. ATI ist selbst schuld, wenn dann auch alle Optimierungen, die sich nicht auf die BQ auswirken, inkl. CF ausgeschaltet ist.

Dummheit muss bestraft werden.

Bei AI low sind halt weiterhin Optimierungen auf Kosten der BQ aktiv.

ja, wie der test hier zb http://hardtecs4u.com/reviews/2006/x1900_7900/

aber dem schenken gewisse leute sowieso keine beachtung da "unfair"

mfg

Gast
2006-08-10, 17:54:50
AI off gegen HQ. ATI ist selbst schuld, wenn dann auch alle Optimierungen, die sich nicht auf die BQ auswirken, inkl. CF ausgeschaltet ist.

Dummheit muss bestraft werden.

Bei AI low sind halt weiterhin Optimierungen auf Kosten der BQ aktiv.
Sorry, aber ich bin mit dieser Aussage nicht einverstanden.
Ich vergleiche die BQ, nicht welche Schalter gerade aktiv sind.
Und was die BQ angeht, ist eben AI-low mit NV@HQ am besten vergleichbar.
Siehe vielleicht auch hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4644559#post4644559

Bei AI-off ist die Qualli aber meistens besser als NV@HQ, deswegen nicht vergleichbar.

The_Invisible
2006-08-10, 18:01:30
Sorry, aber ich bin mit dieser Aussage nicht einverstanden.
Ich vergleiche die BQ, nicht welche Schalter gerade aktiv sind.
Und was die BQ angeht, ist eben AI-low mit NV@HQ am besten vergleichbar.
Siehe vielleicht auch hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4644559#post4644559

Bei AI-off ist die Qualli aber meistens besser als NV@HQ, deswegen nicht vergleichbar.

so kaputtoptimierte spiele kann man sowieso nicht hernehmen, kann man gleich ut2003/2004 nehmen, außerdem unterscheidet sich das bild ganz ordentlich je nach spiel/level

besser ist da schon alle optimierungen aus und halt extra darauf hinweisen das diese karte im gesamten die bessere bq liefert

mfg

Mr. Lolman
2006-08-10, 18:07:04
Das HDR+AA ist natürlich ein gutes Argument nur leider nicht sinnvoll einsetzbar will man gute FPS bei hoher Auflösung ,die wichtig sind bei Kämpfen.

Ich spiel Oblivion seit je her mit 1280x1024 HDR + 4xPAAA, die fps reichen, auch für Kämpfe und die Optik ist einfach atemberaubend...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4203730&postcount=24
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4241829&postcount=135
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4380839&postcount=727
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4500012&postcount=352

Frank1974
2006-08-10, 18:07:16
ja, wie der test hier zb http://hardtecs4u.com/reviews/2006/x1900_7900/

aber dem schenken gewisse leute sowieso keine beachtung da "unfair"

mfg

Es gibt eh nicht den Ultimativen Fair Test, ATI und Nvidia haben beide ihre Macken, hatte von beiden Herstellern Karten und war meist immer enttäuscht, ich würde auch nie einen von beiden verteidigen, wie gewisse Leute hier :rolleyes:, es sind nur dumme Grafikkarten, mehr nicht, warum deshalb hier immer Flamewar entstehen, entzieht sich meiner Kenntnis...

mfg
Frank

Blaire
2006-08-10, 18:20:34
Ich spiel Oblivion seit je her mit 1280x1024 HDR + 4xPAAA, die fps reichen, auch für Kämpfe und die Optik ist einfach atemberaubend...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4203730&postcount=24
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4241829&postcount=135
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4380839&postcount=727
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4500012&postcount=352

Schöne Bilder keine Frage , aber ich möchte nich wissen wie die Frameraten dort runterfalln, sicher teilweise unter die 20 fps Marke alleine das PAAA zieht doch schon enorm.
Aber um was generelles zu sagen jeder hat andere Geschmack der eine mag lieber 1024x768 mit viel AA , der eine will 1600x1200 unbedingt haben weil sein TFT dies als native Auflösung voraussetzt , ein anderer 2560x1600 usw.
So oder so muss man bei Oblivion Kompromisse eingehn um die FPS in spielbaren Regionen zu halten für mich sind dort 30 fps Minimum viel tiefer darf es nicht fallen sonst brauch ichs nicht spielen. Aber das ist meine Meinung das mag jeder sehen wie er will.

Frank1974
2006-08-10, 18:28:54
So oder so muss man bei Oblivion Kompromisse eingehn um die FPS in spielbaren Regionen zu halten für mich sind dort 30 fps Minimum viel tiefer darf es nicht fallen sonst brauch ichs nicht spielen. Aber das ist meine Meinung das mag jeder sehen wie er will.

Die CPU spielt in Oblivion eine fast größere Rolle wie die GK, in den Städten bricht bei mir extrem ein, und das liegt an der CPU an nix anderem, ob da NV oder ATI drin ist, ist da völlig egal, mit einem Conroe@4000MHz aufwärts wären es bestimmt 30fps :rolleyes:.

mfg
Frank

Blaire
2006-08-10, 18:32:11
Die CPU spielt in Oblivion eine fast größere Rolle wie die GK, in den Städten bricht bei mir extrem ein, und das liegt an der CPU an nix anderem, ob da NV oder ATI drin ist, ist da völlig egal, mit einem Conroe@4000MHz aufwärts wären es bestimmt 30fps :rolleyes:.

mfg
Frank

Ist richtig Frank. Die Schatten gehn auf die CPU, die Gräser Vegetation alles GPU drum sagte ich ja ich hab das Game so optimiert das beides gleich gut harmoniert und ich trotzdem ne ansprechende Framerate bekomme.

Gast
2006-08-10, 18:32:15
so kaputtoptimierte spiele kann man sowieso nicht hernehmen, kann man gleich ut2003/2004 nehmen, außerdem unterscheidet sich das bild ganz ordentlich je nach spiel/level

besser ist da schon alle optimierungen aus
Die Idee ist zwar nicht schlecht, hat aber auch Nachteile.
Das Blöde ist, daß man bei ATI auch die guten Optimierungen abschaltet und es damit schon gar nicht vergleichbar wird.
Außerdem habe ich bei meinem NV40 oft anhand der BQ gemerkt, daß irgendwelche Optimierungen an sein müssen, obwohl ich alle ausgestellt habe.
Will sagen, ich habe nicht wirklich das Vertrauen zu den GPU-Herstellern, daß da auch wirklich alles abgeschaltet ist.
So muss man IMMER die BQ beim Testen begutachten, da dies sich sogar von einem Treiber zum anderen extrem ändern kann.

Frank1974
2006-08-10, 18:37:18
Ist richtig Frank. Die Schatten gehn auf die CPU, die Gräser Vegetation alles GPU drum sagte ich ja ich hab das Game so optimiert das beides gleich gut harmoniert und ich trotzdem ne ansprechende Framerate bekomme.

Ja, aber ist das nicht ein wenig peinlich für ein Game, das man es selbst auf solchen, ich nenne es mal Ultrahighend Maschinen wie deiner, erst mal selber optimieren muss, bei so einem PC müsste es rennen wie Sau, auf Hohen Einstellungen, das ist meine Meinung, da haben aber weder NV, ATI, AMD noch Intel Schuld, liegt ganz allein bei Bethesda, oder liege ich da falsch?

mfg
Frank

Blaire
2006-08-10, 18:41:59
Ja, aber ist das nicht ein wenig peinlich für ein Game, das man es selbst auf solchen, ich nenne es mal Ultrahighend Maschinen wie deiner, erst mal selber optimieren muss, bei so einem PC müsste es Rennen wie sau, auf Hohen Einstellungen, das ist meine Meinung, da hat aber weder NV, ATI, AMD noch Intel Schuld, liegt gganz allein bei Bethesda, oder liege ich da falsch?

mfg
Frank

So ist das nunmal das war früher nicht anders bei Wing Commander 2 da musste man auch nen 386er haben , ein 286 war schon zu langsam und man war notgedrungen kompromissbereit. Software verkauft Hardware so war es damals ,so ist es heute.

Frank1974
2006-08-10, 18:48:29
So ist das nunmal das war früher nicht anders bei Wing Commander 2 da musste man auch nen 386er haben , ein 286 war schon zu langsam und man war notgedrungen kompromissbereit. Software verkauft Hardware so war es damals ,so ist es heute.

Klar war es immer so, aber dein PC stellt mit 4 Grafikchips das Höchste dar was es im Moment gibt, naja deine CPU ist ein wenig angestaubt :biggrin:, aber trotzdem, mehr kannst du im Moment doch eh nicht kaufen an GPU-Leistung, das man da noch Kompromisse eingehen soll, ist mehr als ne Frechheit von der ganzen Industrie, egal ob Hardware oder Software.

mfg
Frank

The_Invisible
2006-08-10, 18:54:09
Es gibt eh nicht den Ultimativen Fair Test, ATI und Nvidia haben beide ihre Macken, hatte von beiden Herstellern Karten und war meist immer enttäuscht, ich würde auch nie einen von beiden verteidigen, wie gewisse Leute hier :rolleyes:, es sind nur dumme Grafikkarten, mehr nicht, warum deshalb hier immer Flamewar entstehen, entzieht sich meiner Kenntnis...

mfg
Frank

ganz einfach, wir sind menschen und wollen eben das verteidigen/rechtfertigen was man sich zugelegt hat (egal in welchen bereich jetzt). in manchem bereich isses einem egal, in nem anderen ist man extrem kritisch (wie die leuts hier eben mit hardware oder noch spezifischer)

ich habe hier jedenfalls die erfahrung gemacht: wenn man versucht einen post neutral zu verfassen kommt immer irgendwer der das ausnutzt und das posting sofort auf eine seite "zieht". dann zieht man natürlich zurück, kommt noch einer dazu etc...

deshalb sollte man hier nur posting schreiben die so wenig angriffsfläche als möglich haben :D

mfg

MechWOLLIer
2006-08-11, 11:41:38
Da ich damals selbst zwei X1900CF und 7900GTX besaß ,waren bei meinen verwendeten spielbaren Settings (1600x1200 16xAF HDR enabled )die Karten nahezu gleich auf. Auf Computerbase wird z.b. mit TRSAA gebencht mit Frameraten die eh nicht spielbar sind ja toll da ist Ati vorne , aber was nutzt es denn ob man nun 8 fps oder 15 fps bekommt beides ist nicht spielbar! Man muss ausgewogene Settings verwenden die spielbar sind das hab ich auch schon MechWollier mitgeteilt. So sieht es so aus als wäre Ati dort deutlicher vorne aber in der Praxis wird man davon nicht viel merken.

Du hast zweifelfrei recht, dass TSSAA in 1600x1200 in Oblivion ziemlicher Overkill sind, nur würde ich wahnsinnig, wenn ich in jedem Spiel immer nur das testen würde, was auch flüssig läuft.

Blaire
2006-08-20, 18:59:39
http://www.xbitlabs.com/images/video/7games-gpus/premium/tesin_hdr_prem.gif

http://www.xbitlabs.com/images/video/7games-gpus/premium/tesout_hdr_prem.gif

http://www.xbitlabs.com/articles/video/display/7games-gpus_3.html

^^ Das bestätigt meine Aussage das sich 2x7900GTX vs. X1900 Crossfires in spielbaren! Settings nicht viel nehmen.

Gast
2006-08-20, 19:05:30
^^ Das bestätigt meine Aussage das sich 2x7900GTX vs. X1900 Crossfires in spielbaren! Settings nicht viel nehmen.

Schonmall auf die MIN FPS geachtet.;)

Grestorn
2006-08-20, 19:07:27
Schonmall auf die MIN FPS geachtet.;)

53 zu 47? Wow. Welch Unterschied :)

Bei hohen Auflösungen gewinnt die GTX SLI Lösung bei den MinFPS, teilweise sehr deutlich.

Gast
2006-08-20, 19:27:36
Da habt ihr euch mal wieder die schönsten Rosinen rausgepickt. :rolleyes:

Nicht nur das bei Oblivion ATI teilweise deutlich in Front ist, nein, auch kommt hinzu, das dieses Spiel an vielen Stellen hochgradig CPU abhängig ist. Toller Benchmark, muss ich echt mal sagen. :rolleyes:

Blaire
2006-08-20, 19:36:04
Da habt ihr euch mal wieder die schönsten Rosinen rausgepickt. :rolleyes:

Nicht nur das bei Oblivion ATI teilweise deutlich in Front ist, nein, auch kommt hinzu, das dieses Spiel an vielen Stellen hochgradig CPU abhängig ist. Toller Benchmark, muss ich echt mal sagen. :rolleyes:

Eben genau ist doch das Problem viele Reviews im Netz testen CPU Limitierte Settings bei Oblivion und dann wundern sie sich warum SLI oder QuadSLI nix bringt eben weil die CPU die Grafikkarten verhungern lässt. Darum muss man ausgewogene Settings verwenden die weniger cpulastig sind und die Grafikkarten fordern!

Gast
2006-08-20, 19:54:10
Ich finde den Artikel besser:

http://www.firingsquad.com/hardware/geforce_7900_7950_gx2_quad_sli_update/

Da ist schön deutlich erkennbar, das teilweise einmal Crossfire oder SLI die bessere Performance abliefert - je nach Game versteht sich.
Das Oblivion hochgradig ATI bevorzugt, sollte nun mittlerweile jedem aufgefallen sein und das dieses eine Ergebniss sich nicht auf alle anderen übertragen lässt, sollte demnach auch klar sein.

Und wer bencht bitte nur in 1920x1200 bei SLI oder gar Quad SLI? Die Auflösung nutze ich ja schon mit einer One-Chip Karte!

Siehe z.B. den Unterschied:
http://www.firingsquad.com/hardware/geforce_7900_7950_gx2_quad_sli_update/images/q42560.gif

http://www.firingsquad.com/hardware/geforce_7900_7950_gx2_quad_sli_update/images/fol2560.gif

http://www.firingsquad.com/hardware/geforce_7900_7950_gx2_quad_sli_update/images/fear2560.gif

Blaire
2006-08-24, 22:05:51
http://www.theinq.com/default.aspx?article=33920

Neuer Performance Treiber für QuadSLI soll wohl kommen...

Grestorn
2006-08-25, 08:24:07
http://www.theinq.com/default.aspx?article=33920

Neuer Performance Treiber für QuadSLI soll wohl kommen...

Schön :)

Gestern habe ich endlich alle Komponenten für mein neues Quad-SLI System zusammenbekommen. Nach dem Einschalten der große Schreck: Keine Reaktion.

Nach kurzen nachdenken und probieren bin ich darauf gekommen, dass die PCIe Poweradapter (mein NT hat ja nur 2, ich brauch aber 4) falsch beschalten sind (Schluck!). So ein Scheiß! Ich dachte, die wären inzwischen genormt.

Hoffentlich haben die Grafikkarten und das NT das unbeschadet überstanden... :( Jedenfalls startet der Rechner mit nur einer GraKa hoch. Mehr habe ich aber gestern nicht mehr probiert.

MadManniMan
2006-08-25, 12:01:21
Klar war es immer so, aber dein PC stellt mit 4 Grafikchips das Höchste dar was es im Moment gibt, naja deine CPU ist ein wenig angestaubt :biggrin:, aber trotzdem, mehr kannst du im Moment doch eh nicht kaufen an GPU-Leistung, das man da noch Kompromisse eingehen soll, ist mehr als ne Frechheit von der ganzen Industrie, egal ob Hardware oder Software.

Aber ists nicht so, daß z.B. Oblivion mit Quad SLI gar nicht so gut klarkommt?

Mr. Lolman
2006-08-25, 12:04:39
Wahrscheinlich weil mit Quad-SLI AFR nicht läuft, bzw. laufen darf...

Gast
2006-08-25, 12:08:03
Wahrscheinlich weil mit Quad-SLI AFR nicht läuft, bzw. laufen darf...Richtig. 4-way-AFR ist zur Zeit unter D3D nicht möglich. Aber vielleicht bringt NV ja noch einen Beta-Treiber und pfeift auf die WHQL-Vorgaben

Mr. Lolman
2006-08-25, 12:12:37
Richtig. 4-way-AFR ist zur Zeit unter D3D nicht möglich. Aber vielleicht bringt NV ja noch einen Beta-Treiber und pfeift auf die WHQL-Vorgaben

Wobei ich mir auch denke, dass bei den niedrigen fps von Oblivion ein Lag von 4-Frames deutlich merkbar sein dürfte...

MadManniMan
2006-08-25, 12:46:03
Wahrscheinlich weil mit Quad-SLI AFR nicht läuft, bzw. laufen darf...

Stimmt, da war ja was!

Und ich kann ehrlich gesagt auch gern auf ein Prerenderlimit von 4 verzichten. Dafür würde ich mir kein Ultra High End käufen.

The_Invisible
2006-08-25, 12:48:08
Stimmt, da war ja was!

Und ich kann ehrlich gesagt auch gern auf ein Prerenderlimit von 4 verzichten. Dafür würde ich mir kein Ultra High End käufen.

default ist ja 3, also wird 4 nicht weiter auffallen

mfg

Mr. Lolman
2006-08-25, 13:46:12
default ist ja 3, also wird 4 nicht weiter auffallen

mfg

1. Manchen sind schon die 3 Frames zuviel
2. Kommts immer auf die fps an. ZB. beträgt der Lag bei nem Prerenderlimit von 4 @ 30fps schon mehr als 133ms.

Grestorn
2006-08-25, 14:08:54
1. Manchen sind schon die 3 Frames zuviel
2. Kommts immer auf die fps an. ZB. beträgt der Lag bei nem Prerenderlimit von 4 @ 30fps schon mehr als 133ms.

Man kann sich dann aussuchen, ob man lieber das hat, oder stattdessen mit Dual-SLI 20 fps hat, bei denen dann das Delay mit VSync bis zu 3/20 sec. (150ms) beträgt.

Man kann natürlich auch die Einstellungen so wählen, dass man mit Quad-SLI 60 fps hat - dann beträgt das Delay nur 4/60 sec, also 66ms.

MadManniMan
2006-08-25, 14:46:54
Man kann sich dann aussuchen, ob man lieber das hat, oder stattdessen mit Dual-SLI 20 fps hat, bei denen dann das Delay mit VSync bis zu 3/20 sec. (150ms) beträgt.

Man kann natürlich auch die Einstellungen so wählen, dass man mit Quad-SLI 60 fps hat - dann beträgt das Delay nur 4/60 sec, also 66ms.

Wenn Dual-SLI 20 Frames bringt, wirst Du mit Quad-SLI vielleicht 35 FPS haben, was immernoch 114ms Delay bedeutet.

Grestorn
2006-08-25, 14:56:26
Wenn Dual-SLI 20 Frames bringt, wirst Du mit Quad-SLI vielleicht 35 FPS haben, was immernoch 114ms Delay bedeutet.

Ich bin eigentlich von den 30 fps ausgegangen, die lolman postuliert hat... :)

was ist besser, 133 ms delay (oder 114 nach Deiner Rechnung), oder 150ms?

Ich wollte damit nur sagen, dass der Delay kein echter Nachteil von Quad-SLI ist.

MadManniMan
2006-08-25, 15:07:26
Ich bin eigentlich von den 30 fps ausgegangen, die lolman postuliert hat... :)

was ist besser, 133 ms delay (oder 114 nach Deiner Rechnung), oder 150ms?

Ich wollte damit nur sagen, dass der Delay kein echter Nachteil von Quad-SLI ist.

Natürlich hast Du Recht, daß jene geringeren ms weitaus besser sind, aber dazu eine Frage: ich habe mich in der letzten Zeit lang nicht mehr so intensiv mit der Materie befaßt, wie mans vielleicht von mir erwarten würde, aber ich habe durchaus den Eindruck daß 2x7950GX2 in vielen Situationen nicht schneller ist, als eine doppelte 7900GTX - dann werden die 4 Frames durchaus zum Problem, zumal ich je nach Spiel recht allergisch drauf reagiere und schonmal (so möglich) an der Einstellung rumpfusche.

Grestorn
2006-08-25, 15:17:27
Natürlich hast Du Recht, daß jene geringeren ms weitaus besser sind, aber dazu eine Frage: ich habe mich in der letzten Zeit lang nicht mehr so intensiv mit der Materie befaßt, wie mans vielleicht von mir erwarten würde, aber ich habe durchaus den Eindruck daß 2x7950GX2 in vielen Situationen nicht schneller ist, als eine doppelte 7900GTX - dann werden die 4 Frames durchaus zum Problem, zumal ich je nach Spiel recht allergisch drauf reagiere und schonmal (so möglich) an der Einstellung rumpfusche.

Quad-SLI läuft beim aktuellen Treiber nur bei OpenGL Spielen mit voller Kraft. Da der Treiber derzeit kein Prerender von 4 unter D3D zulässt (WHQL verbietet das), kann unter D3D kein 4-fach AFR genutz werden (jede Karte rendert ein komplettes Bild). Und nur das würde die volle Performance bringen.

Gerüchteweise soll jetzt doch ein Treiber rauskommen, der sich nicht um diese WHQL Vorgabe schert und damit 4-fach AFR unter D3D möglich macht. Wir werden sehen.

MadManniMan
2006-08-25, 15:45:14
Unterm Strich ist die ganze Überlegung für mich müßig, da ich mir ein derartiges Mondsystem sowieso nicht zulegen könnte, doch spinnen wir mal weiter :D

So wie Dus berichtest machts natürlich Sinn - wie geht Quad-SLI denn dann eigentlich Oblivion z.B. an, von dem man ja regelmäßig liest, daß Quad-SLI lahmer ist, als 7900GTXer SLI.

Im Endeffekt muß mans wirklich selbst spüren, aber ich stör mich selbst an einem Punkt: man sollte also 33% mehr Frames für vergleichbare Flutschigkeit (bei natürlich verbessertem allgemeinen Eindruck) einplanen, dann bleiben nicht mehr viel von den immer wieder erwähnten 60% Vorteil gegenüber einfachem SLI (richtig so?) - doch bau ich mir sowas zusammen, will ich doch um Himmels Willen völlig irre Auflösungen und Einstellungen fahren und nicht sich selbst relativierende Frameratenerhöhungen erfahren, nich?

Gast
2006-08-26, 11:40:09
So wie Dus berichtest machts natürlich Sinn - wie geht Quad-SLI denn dann eigentlich Oblivion z.B. an, von dem man ja regelmäßig liest, daß Quad-SLI lahmer ist, als 7900GTXer SLI.In Oblivion kommt AFR-of-SFR zur Anwendung. Das bedeutet, dass jeweils zwei Karten zusammen ein Bild rendern. Also Chip 0+1 rendern Bild 1 und Chip 2+3 rendern Bild 2. Das ist natürlich nicht so performant wie 4-way-AFR, wo jeder Chip ein komplettes Bild rendert. Bei SFR skaliert die Vertexleistung auch nicht mit.

Wie schon gesagt, funktioniert 4-way-AFR zur Zeit nur unter OpenGL, da die D3D9-API für ein WHQL-Zertifikat nur ein Prerenderlimit von maximal 3 Frames erlaubt. Damit AFR mit 4 Karten funktioniert, müsste die Graka die Parameter für 4 Frames entgegennehmen können.

Hoffentlich lässt NV bald einen Treiber "leaken", der auf die WHQL-Vorgaben pfeift und 4-way-AFR auch unter D3D möglich macht.

Gast
2006-08-26, 13:01:13
Hallo

Ich verstehe nicht ganz, was das Prerenderlimit mit der Zahl an Chips zu tun hat bei AFR. Können bei einem Limit von 3 nicht zuerst die ersten drei Chips arbeiten (1-2-3) und bei dem nächsten Satz an 3 Parametern geht es mit den Chips (4-1-2) weiter und dann (3-4-1) usw.?

Grestorn
2006-08-27, 14:39:31
Hallo

Ich verstehe nicht ganz, was das Prerenderlimit mit der Zahl an Chips zu tun hat bei AFR. Können bei einem Limit von 3 nicht zuerst die ersten drei Chips arbeiten (1-2-3) und bei dem nächsten Satz an 3 Parametern geht es mit den Chips (4-1-2) weiter und dann (3-4-1) usw.?

Das Prerender gibt an, wieviele Bilder "im voraus" berechnet werden dürfen. Eine höhere Anzahl an Recheneinheiten bringt nur dann etwas, wenn diese die Bilder auch GLEICHZEITIG rechnen dürfen. In Deinem Beispiel rechnen aber immer nur drei Karten.

AnarchX
2006-08-30, 10:55:33
nVidias Quad-SLI am Limit
Quad-SLI mit Conroe, ForceWare 91.45 und 30-Zoll-Display

Angefangen hat anno dazumal alles mit einer einzelnen Grafikkarte, die nicht mehr als ein paar simple 2D-Anweisungen auf den Bildschirm zeichnen konnte. Mittlerweile sind wir im Desktop-Bereich bei vier hochgezüchteten GPUs angelangt, die für schnellste 3D-Grafik in Auflösungen vom Kaliber 2560x1600 inklusive qualitätsverbessernder Features wie Anti-Aliasing sowie dem anisotropen Filter sorgen können. Die Rede ist hier natürlich von nVidias Quad-SLI-Technologie, die nichts anderes als die Kombination zweier „Doppelgrafikkarten“ des Typs GeForce 7950 GX2 darstellt. Dieses Gespann hatten wir vor einigen Wochen mit dem ersten, offiziell für Quad-SLI freigegebenen Treiber ForceWare 91.37 auf dem Prüfstand. Und das System sorgte insgesamt für gemischte Gefühle in der Redaktion. Wer mehr darüber lesen möchte, dem sei unser erster Quad-SLI-Artikel zu empfehlen. [...]
http://pics.computerbase.de/1/5/1/1/7/10_m.jpg


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidias_quad-sli_limit/

dildo4u
2006-08-30, 11:15:51
Die Kombination von einem dicken Conroe und Quad SLI ist bei Doom3 und Quake 4 ja echt der Hammer. :eek:

"Etwas überrascht waren wir bei den Messungen mit einer Conroe-CPU von Intel. Dass der Core 2 ein sehr schneller Prozessor ist, war uns zwar vorher schon bewusst. Damit, dass die Differenzen zu einem wahrlich nicht langsamen AMD Athlon 64 FX-60 aber dermaßen groß sind, haben wir jedoch im Vorfeld nicht gerechnet. Vor allem in Anwendungen, in denen Quad-SLI gut skaliert, bringt der Core 2 Extreme X6800 spielend 20 Prozent mehr Leistung. In diesem Fall kann Quad-SLI die Mehrleistung ordentlich umsetzen"

Gast
2006-08-30, 11:20:52
Ich bin eigentlich von den 30 fps ausgegangen, die lolman postuliert hat... :)

was ist besser, 133 ms delay (oder 114 nach Deiner Rechnung), oder 150ms?

Ich wollte damit nur sagen, dass der Delay kein echter Nachteil von Quad-SLI ist.

Die Rechnung ist Käse. Jemand der einen guten Skill in einem Game haben will stellt das Prerender Limit nach unten.

Ergo, bis auf den ineffektiven SFR-Modus ist spätestens Quad-SLI was für Leute die mit einer hohen Framerate protzen müssen, ein wirklich praktischer Nutzen entsteht dadurch nicht.

Gast
2006-08-30, 11:22:40
Die Kombination von einem dicken Conroe und Quad SLI ist bei Doom3 und Quake 4 ja echt der Hammer. :eek:

...und bei vielen anderen Games/Anwendungen ernüchternd.

The_Invisible
2006-08-30, 12:21:29
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidias_quad-sli_limit/

thx, ideale lektüre für die mittagspause ;)

mfg

Gast
2006-08-30, 16:07:03
...und bei vielen anderen Games/Anwendungen ernüchternd.Wenn man den Preis miteinbezieht mag das sein. Trotzdem ist die Kombination aus Conroe EE und QuadSLI das beste, was man momentam im Consumermarkt kriegen kann. Ich hätte nicht das Geld dazu, aber ich gönne es den Leuten, denen der Preis egal ist.

Gast
2006-08-30, 17:53:12
Wenn man den Preis miteinbezieht mag das sein. Trotzdem ist die Kombination aus Conroe EE und QuadSLI das beste, was man momentam im Consumermarkt kriegen kann. Ich hätte nicht das Geld dazu, aber ich gönne es den Leuten, denen der Preis egal ist.

Nein, so war das nicht gemeint. In den Vorzeige-Games Q4 und D3, welche ja bekanntlich 2 der wenigen Games sind, die unter OGL laufen, skaliert Quad-SLI gut. Bei den meisten anderen Games macht sich Ernüchterung breit, kaum schneller als SLI bzw. teilweise langsamer.

Woher das rührt ist klar, Quad-SLI skaliert ur ordentlich mit AFR. Das hat aber wieder den nachteil das die Frames im voraus gerendert werden MÜSSEN, d.h. man hat von der höheren Framerate kein besseres Ansprechverhalten des Games, es läßt sich in den meisten fällen sogar schlechter steuern. Das Fazit steht weiter oben.

Sonyfreak
2006-09-03, 19:33:08
Hab ich grad zufällig im Internet entdeckt: Triple-SLI (http://digi.163.com/06/0621/15/2K5BGG38001618J1.html) :biggrin:

mfg.

Sonyfreak

AnarchX
2006-09-03, 19:36:05
Hab ich grad zufällig im Internet entdeckt: Triple-SLI (http://digi.163.com/06/0621/15/2K5BGG38001618J1.html) :biggrin:


^^
Octo-SLI sollte aber doch auchmal auf dem entsprechenden Boards zum Laufen gebracht werden - 8Way-AFR;D

Blackpitty
2006-09-19, 20:59:11
Kann man die Taktraden der 7900GX2 im 2D senken? geht das, wenn man das im Treiber bei Übertaktung einstellt?

AnarchX
2006-09-19, 21:02:35
Kann man die Taktraden der 7900GX2 im 2D senken? geht das, wenn man das im Treiber bei Übertaktung einstellt?

Falsches Unterfoum! ;)
Mach doch einen Thread im richtigen Unterforum auf:
http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=42
Da sollte dir besser geholfen werden.