PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 9800 GTX...oups...ich habe eine...?!


Skinny12
2008-03-29, 13:23:49
Hi!

Ich war auf dem Weg...mir mal die Preise für eine 9800 GX2 anzuschauen..meine GTX war auch einfach zu lange drin...dennoch, ich war/bin kein Freund von SLI...konnte mich damals mit zwei 7900 GTX nicht überzeugen, doch ich zuckte...WE...ich wollte basteln.

Also schaue ich so die Karten durch...und was entdecke ich?

Gigabyte 9800 GTX ??!! Ich dachte, die kommen im April?

Nun, Sinn oder Unsinn wurden ausreichend diskutiert...was mich überzeugte, war der Preis..."nur" € 289,-

Da musste ich sie mitnehmen...;)

Jetzt durchläuft sie gerade die ersten Tests, wenn Interesse besteht, gebe ich gerne erste Infos durch.

Sie aus wie eine GTX (auch sehr ähnlicher Kühler) ist aber leichter, Treiber der bei lag war 174.40.

Jetzt bin ich mal gespannt, was COD4 so sagt...

LG
Skinny

Aen-Die
2008-03-29, 13:25:42
Glückwunsch :biggrin:

Bin auch schockiert wie lange die 8800GTX durchhält. Aber ich warte mal geduldig auf die roten/grünen. Vielleicht überraschen sie uns ja mit was schönem :biggrin:

Skinny12
2008-03-29, 14:03:33
So,

sie läuft unauffällig und smooth wie erwartet.

Cod 4 pendelt sich (mit einem Quad@2.80) bei 1920x1200 auf der Mulitplayer "Owergrown" (viel Gras) mit 4XAA bei ca. 90 Frames ein, ca. 10-15 mehr als die 8800 GTX, Crysis hat bei gleicher Auflösung und Shader mittel im Urwald ca. 45 und mit Shader hoch ca. 32 frames..also auch hier ca. 15% mehr als die 8800 GTX.

Ansonsten fällt auf, dass die Karte sehr kühl bleibt, im idle sind es 42 Grad und unter Last dann max. 65 Grad, wobei auffällt, dass der ansonsten sehr leise Lüfter ab 60 Grad hoch geht, aber immer angenehm und leise bleibt, also auf 8800 GTX Niveau, ggf. sogar etwas besser...

Weiterhin bin ich begeistert, dass Rivatuner genauso seinen Dienst verrichtet wie vorher...takten per "Hardware accerleration", bei 2D smarte 230 Mhz und unter Last die regulären 675 Mhz.

Übertakten geht gut, habe spontan mal 715 Mhz getestet, kein Thema, allerdings ist die Mehrleistung (wie immer bei ca. 10% Übertaktung) im Bereich der Messgenauigkeit, ob 31 oder 32 Frames bei Crysis...who care...but...who cares about crysis anyway...?;)

Ein spontaner Test bei 3dMark 06 enttäuscht ein wenig, da nur knapp 13.000 Punkte, kenne aber keine echten Vergleichwerte...

Gruss again
Skinny

O RLY?
2008-03-29, 14:08:05
Ein spontaner Test bei 3dMark 06 enttäuscht ein wenig, da nur knapp 13.000 Punkte, kenne aber keine echten Vergleichwerte...Als Vergleich:
habe mit einem C2Q @3,2 GHz und einer 8800 GT ~13000

dargo
2008-03-29, 14:10:09
Wie kann man nur von einer 768MB G8800GTX auf eine 512MB G9800GTX umsteigen? :| Unfassbar...

PS: aus Langerweile?

Skinny12
2008-03-29, 14:11:36
Als Vergleich:
habe mit einem C2Q @3,2 GHz und einer 8800 GT ~13000

Auch Vista Sp1? Sorry, hatte ich vergessen zu erwähnen...

martma
2008-03-29, 14:12:15
Würde mich mal interessieren, ob die 9800GTX in hohen Auflösungen mit AA und AF auch hinter die 8800GTX/Ultra zurückfäll wie die 9800 GX2. Kannst Du mal Tests in hohen Auflösungen mit AA und AF in verschiedenen Games machen?

Skinny12
2008-03-29, 14:12:36
Wie kann man nur von einer 768MB G8800GTX auf eine 512MB G9800GTX umsteigen? :| Unfassbar...

PS: aus Langerweile?

Hehe...und weil ich die HD-Funktionen brauche...inkl. HDMI

Und weil es so schön ist, hier gedisst zu werden ;)

Gruss Skinny

Skinny12
2008-03-29, 14:13:29
Würde mich mal interessieren, ob die 9800GTX in hohen Auflösungen mit AA und AF auch hinter die 8800GTX/Ultra zurückfäll wie die 9800 GX2. Kannst Du mal Tests in hohen Auflösungen mit AA und AF in verschiedenen Games machen?

Konkretes Beispiel?

Damit man ggf. vergleichen kann...

LG

Gast in Hast
2008-03-29, 14:16:11
Mich würde interessieren, ob auch die neuen NV-Karten das Problem mit den pfeiffenden Spulen geerbt haben. Hast du mal den Artefakt-Scan von ATITool (ohne Vsync) laufen lassen, da hört man das Zirpen am Besten?

Auf jeden Fall ein Glücksgriff, ein paar Tage vor dem offiziellen Launch macht so ein Kärtchen sicher besonders Spaß, da schaut man auch nicht auf jeden Cent.

Skinny12
2008-03-29, 14:20:29
Mich würde interessieren, ob auch die neuen NV-Karten das Problem mit den pfeiffenden Spulen geerbt haben. Hast du mal den Artefakt-Scan von ATITool (ohne Vsync) laufen lassen, da hört man das Zirpen am Besten?


Nope, bei 1.000 Frames Totenstille...

Gruss Skinny

Gast
2008-03-29, 14:29:27
Was ist an der 9800GTX denn jetzt besser als an einer 8800GTS 512, ausser natürlich leicht höherem takt??

puntarenas
2008-03-29, 14:32:38
- zu 100% kein Spulenpfeifen (1 von 1)
- bessere Übertaktbarkeit (höhere GPU-Spannung, 1,2V gegenüber 1,15V IIRC)
- stabilere Stromversorgung (4+2 Phasen gegenüber 3+1 Phasen IIRC)
- ansprechenderes Design
- hübscherer Name

fast vergessen:

- Triple-SLI
- HybridPower

Gast
2008-03-29, 14:38:29
Also nix nennenswertes, ausser triple Sli vielleicht, aber naja, das ist Tombman-Gebiet.;)

O RLY?
2008-03-29, 14:43:12
Auch Vista Sp1? Sorry, hatte ich vergessen zu erwähnen...
Yep, mit Vista x64 und SP1.

Gast
2008-03-29, 14:46:45
Also nix nennenswertes, ausser triple Sli vielleicht, aber naja, das ist Tombman-Gebiet.;)
Nö, Tombman will Leistung, also muss er bei seinen G80 bleiben, denn kein G92 könnte ihn glücklich machen.
Tombman wartet auf GT200, angeblich ohne SLI, aber wir wissen doch das er es ohne nicht aushalten wird.

Laxer
2008-03-29, 14:50:41
Wo hast Du denn die Karte aufgetrieben?

Skinny12
2008-03-29, 14:51:01
Yep, mit Vista x64 und SP1.

Jepp, kommt hin, die 400 Mhz der CPU gleichen die paar MHZ der Graka wohl aus...

Gruss Skinny

Skinny12
2008-03-29, 14:51:55
Wo hast Du denn die Karte aufgetrieben?

PC-Spezialist in Bonn...hatte 5 rumliegen...der Preis erscheint mir i.o. und angemessen...

Gruss Skinny

Luke007
2008-03-29, 14:53:56
Mich würde interessieren, ob auch die neuen NV-Karten das Problem mit den pfeiffenden Spulen geerbt haben. Hast du mal den Artefakt-Scan von ATITool (ohne Vsync) laufen lassen, da hört man das Zirpen am Besten?

Das liegt nicht an NV! Meine Gainward 8800GT zirpt, meine Colorful 8800GT hingegen garnicht.

andre29
2008-03-29, 14:54:42
@Skinny

Wohnst du in Bonn?

Gast
2008-03-29, 14:56:36
Hehe...und weil ich die HD-Funktionen brauche...inkl. HDMI

was bringt dir da die neue karte?
wenn du eine derartige karte hast wird doch wohl deine cpu mehr als schnell genug sein um auch mit dem VP1 auszukommen, HDCP gibt es auch auf der 8800GTX

Aen-Die
2008-03-29, 14:56:48
Das liegt nicht an NV! Meine Gainward 8800GT zirpt, meine Colorful 8800GT hingegen garnicht.

ist wohl glück, wie bei tfts, crts usw. Einfach schwankungen in der Fertigung

Gast
2008-03-29, 14:59:54
Das liegt nicht an NV! Meine Gainward 8800GT zirpt, meine Colorful 8800GT hingegen garnicht.
Nvidia macht die Vorgaben fürs Referenzdesign, wenn die Bauteiltoleranzen Phänomene wie Spulenpfeifen zulassen, dann liegt das IMHO sehr wohl an Nvidia. Kann aber natürlich gut sein, dass dies bei der 9800GTX nun nicht mehr oder nur noch sehr selten vorkommt, bei älteren Karten war das Ärgernis aber weit verbreitet und eine komplett unauffällige Karte eher eine Seltenheit, man konnte mit einem leisen Zwitschern schon zufrieden sein. :(

Gast
2008-03-29, 15:06:49
Nvidia macht die Vorgaben fürs Referenzdesign, wenn die Bauteiltoleranzen Phänomene wie Spulenpfeifen zulassen, dann liegt das IMHO sehr wohl an Nvidia.

jede spule kann pfeifen, aber sie muss nicht, selbst aus der gleichen baureihe können die spulen ein unterschiedliches verhalten zeigen.

dildo4u
2008-03-29, 15:20:46
Ein spontaner Test bei 3dMark 06 enttäuscht ein wenig, da nur knapp 13.000 Punkte, kenne aber keine echten Vergleichwerte...

Gruss again
Skinny
Der 3Dmark ist mit der Karte schon heftig CPU limitiert mit 5GHz und OC der Karte(Mit Lufkühlung ohneV-Mods) sind fast 20000 drinn.

http://www.xtremesystems.org/forums/showthread.php?t=181939

martma
2008-03-29, 15:39:27
Der 3Dmark ist mit der Karte schon heftig CPU limitiert mit 5GHz und OC der Karte(Mit Lufkühlung ohneV-Mods) sind fast 20000 drinn.

http://www.xtremesystems.org/forums/showthread.php?t=181939

Wobei dann schon auch sehr viele Punkte von der CPU kommen, und die 9800GTX ist jawohl auch extrem übertaktet. Dieses Ergebnis ist also mit einem "normalen" PC nicht erreichbar.

dildo4u
2008-03-29, 15:44:58
und die 9800GTX ist jawohl auch extrem übertaktet.
Jo aber ohne Mods mit Lukü also zumindest der OC der Karte ist kein Problem gibt schon ein paar Userberichte mit über 830mhz Core.Ansonsten kann die Karte ja nix dafür das der 3Dmark langsam CPU limitiert wird bei 1280*1024 ohne AA.

Luke007
2008-03-29, 15:55:02
Die 9800GTX ist bei höheren Auflösungen bzw. mit AA/AF schneller.

http://www.tweaktown.com/articles/1356/1/page_1_introduction/index.html

dargo
2008-03-29, 16:07:30
Die 9800GTX ist bei höheren Auflösungen bzw. mit AA/AF schneller.

http://www.tweaktown.com/articles/1356/1/page_1_introduction/index.html
Schneller als was? Und vorallem wieviel schneller?

MSABK
2008-03-29, 16:37:23
Kannst du ein Bild von der 9800 GTX machen?

Skinny12
2008-03-29, 16:50:09
Kannst du ein Bild von der 9800 GTX machen?

Argh...leider schon fest im Tower...sieht aber identisch zu der 8800 GTS 512 aus...

Gruss Skinny

Walkman
2008-03-29, 17:15:22
Da wirst du aber nicht drum rum kommen, wenn du die Gurus hier überzeugen willst...;)

Gast
2008-03-29, 17:18:45
Argh...leider schon fest im Tower...sieht aber identisch zu der 8800 GTS 512 aus...

Gruss Skinny

Stell dich ned so an....Seitenteil abmachen, Karte ablichten, fertig ! :D

Luke007
2008-03-29, 17:23:59
Schneller als was? Und vorallem wieviel schneller?
Ich vergleiche die mit der 8800GT. Ich würde sagen das die 9800GTX ~10% schneller ist mit AA/AF.

dargo
2008-03-29, 17:29:42
Ich vergleiche die mit der 8800GT. Ich würde sagen das die 9800GTX ~10% schneller ist mit AA/AF.
Und deswegen so viel Wind? :)

Skinny12
2008-03-29, 17:32:25
Da wirst du aber nicht drum rum kommen, wenn du die Gurus hier überzeugen willst...;)


An Argwohn hatte ich nicht gedacht....

http://84.19.188.123:8080/rpv/webspace/DSCN0095.jpg

http://84.19.188.123:8080/rpv/webspace/image.jpg

Gruss Skinny

Gast
2008-03-29, 17:43:26
Du musst das einfach verstehn, im Internet und speziell hier im Forum geht das ned anders :D

Luke007
2008-03-29, 17:48:10
Und deswegen so viel Wind? :)
Ich mach deswegen doch keinen Wind. :D
Hier mal ein Extrembeispiel (bei der 9800GTX wurden wohl die ersten beiden Werte vertauscht):
http://i32.tinypic.com/2wr2d1l.gif

Gast
2008-03-29, 18:52:25
Ich mach deswegen doch keinen Wind. :D
Hier mal ein Extrembeispiel (bei der 9800GTX wurden wohl die ersten beiden Werte vertauscht):
http://i32.tinypic.com/2wr2d1l.gif
Kann nicht sein. Die GTX hat genauso viel VRAM, und ist rechnerisch vielleicht 20% schneller. :)

Sorkalm
2008-03-29, 19:37:23
Argh...leider schon fest im Tower...sieht aber identisch zu der 8800 GTS 512 aus...

Identisch? Auf den Vorabbildern hatte die auf jedenfalls ein etwas weicheres Design als der harte Eckkühler der 8800 GTS 512. Gleich war nur die typische Delle...

dargo
2008-03-29, 19:42:04
Ich mach deswegen doch keinen Wind. :D
Hier mal ein Extrembeispiel (bei der 9800GTX wurden wohl die ersten beiden Werte vertauscht):
http://i32.tinypic.com/2wr2d1l.gif
Dieser Test ergibt überhaupt keinen Sinn wie schon Gast richtig angemerkt hat. Nicht nur auf die Balkenlänge achten sondern auch etwas nachdenken. :wink:

Luke007
2008-03-29, 20:03:45
Kann nicht sein. Die GTX hat genauso viel VRAM, und ist rechnerisch vielleicht 20% schneller. :)
Wo habe ich was von VRam geschrieben? Die VRAM sind viel höher getaktet bei der 9800GTX (1100Mhz).

Dieser Test ergibt überhaupt keinen Sinn wie schon Gast richtig angemerkt hat. Nicht nur auf die Balkenlänge achten sondern auch etwas nachdenken. :wink:
Wo sieht ihr da keinen Sinn?
1920x1200 noAA/AF
8800GT: 58,21fps
9800GTX: 114,62fps

schnuggel
2008-03-29, 20:14:48
Ich habe eine

MSI 8800 GTS 512 OC -Version

730 GPU / 1825 Shader / 1944 Ram

Die ist sogar schneller als Deine 9800 GTX ;D

Sonnst faßt kein Unterschied zu dir , sie hat ja auch nur DX 10

und keine 10.1 wie hier behauptet wird .

Der Shader bringt mehr als der etwas höhere Ramtakt
es ist bei beiden Karten der gleiche G92 Chip

Skinner
2008-03-29, 20:15:58
PC-Spezialist in Bonn...hatte 5 rumliegen...der Preis erscheint mir i.o. und angemessen...

Gruss Skinny

Wenn das Nvidia erfährt, gibts mal richtig Ärger. Startschuss ist ja erst am 01.04 ;D

dargo
2008-03-29, 20:30:29
Wo sieht ihr da keinen Sinn?
1920x1200 noAA/AF
8800GT: 58,21fps
9800GTX: 114,62fps
Wenn du das selber nicht erkennst dann kann ich dir auch nicht mehr helfen. :tongue:
Schau dir mal die Specs der beiden Karten nochmal an. Und die getestete GT war sogar OC. Aber selbst ohne OC ist der Unterschied vieeel zu groß.

Johnny Rico
2008-03-29, 21:17:01
Wenn das Nvidia erfährt, gibts mal richtig Ärger. Startschuss ist ja erst am 01.04 ;D

Die im Laden konnten doch nicht wissen das er ein Mitglied im berühmt berüchtigten 3DCenter ist :-)

Da gibt es nun jede Menge NV Karten und dann sind die alle fast gleich schnell bzw. langsam, wie eine Karte, die 2 Jahre alt ist =(
Ich will endlich POWER für meinen Widescreen!! ;d

Sorkalm
2008-03-29, 21:36:12
730 GPU / 1825 Shader / 1944 Ram

Die ist sogar schneller als Deine 9800 GTX ;D

Naja, es fehlt halt etwas an Bandbreite.

cl55amg
2008-03-29, 22:26:56
Hehe...und weil ich die HD-Funktionen brauche...inkl. HDMI

Gruss Skinny


Was genau meinst du? Ob HDMI oder DVI ist bei der Karte recht egal?
Welche Vorteile bietet der neue Videoprozessor in der GPU, das ein Umstieg lohnenswert wäre?

Luke007
2008-03-29, 23:18:12
der Unterschied vieeel zu groß.
Achso die Quelle ist dir zu unseriös, sags doch gleich. :crazy2:

Skinny12
2008-03-29, 23:26:14
Was genau meinst du? Ob HDMI oder DVI ist bei der Karte recht egal?
Welche Vorteile bietet der neue Videoprozessor in der GPU, das ein Umstieg lohnenswert wäre?

Neue PureVideo HD Funktionen für GeForce 9800 GX2 hinzugefügt und 9600 GT:
Dynamische Kontrastverstärkung
Dynamische Verstärkung von Blau-, Grün- und Hauttönen
Dual-Stream Dekodierbeschleunigung*

cR@b
2008-03-29, 23:27:46
Hmm mit größerem Speicherinterface hätte ich sie auch mitgenommen aber leider muss man da wohl oder übel bis zum GT200 warten :(

4711
2008-03-29, 23:55:19
Ich habe eine

MSI 8800 GTS 512 OC -Version

730 GPU / 1825 Shader / 1944 Ram

Die ist sogar schneller als Deine 9800 GTX ;D

Sonnst faßt kein Unterschied zu dir , sie hat ja auch nur DX 10

und keine 10.1 wie hier behauptet wird .

Der Shader bringt mehr als der etwas höhere Ramtakt
es ist bei beiden Karten der gleiche G92 Chip

nützt alles nix meine GTS/92 taktet noch höher,
Eine halbe Stunde Stalker in 1680x1050 mit2xAA> Zeitlupe>Affengriff>zurück>weiter bis zum nächstenmal>soviel zu dem nicht vorhandenem "Bugi",bis jetzt allerdings nur bei Stalker,auch noch wählerisch.

Gast
2008-03-29, 23:58:13
Neue PureVideo HD Funktionen für GeForce 9800 GX2 hinzugefügt und 9600 GT:

die kein mensch braucht und objektiv die bildqualität verschlechtern.

Gast
2008-03-30, 00:07:07
Wo sieht ihr da keinen Sinn?
1920x1200 noAA/AF
8800GT: 58,21fps
9800GTX: 114,62fps
Denk doch bitte mal eine Sekunde nach.

600Mhz vs 675 Mhz GPU Takt:
16 ROPS vs 16 ROPS
56 TMUs vs 64 TMUs
56 TAUs vs 64 TAUs

1512Mhz vs ~ 1687Mhz Shadertakt
112 Shader-Einheiten vs 128 Shader-Einheiten

900Mhz vs 1100Mhz Speichertakt:
512MiB vs 512MiB
256Bit SI vs 256bit SI

Mir wars jetzt zu blöd, hab einfach die Default Settings verglichen, aber verrate mir doch bitte, wie hier die 9800GTX mal eben doppelt so schnell sein soll.
Ich komme auf kanpp über 20%, sofern nicht der zu kleine VRAM limitiert.

Luke007
2008-03-30, 01:23:28
Ah das ist euer Problem. Woher die Leistung kommt? Gute frage, vielleicht wurden die Shader optimiert? Ich vertraue einfach mal den derzeitigen Tests.

Schau dir mal die 9600GT an. Diese hat auch weniger Streamprozessoren (64 vs. 112 -> 8800GT) und Textureinheiten (32 vs. 56 -> 8800GT) und bricht nicht gleich total gegenüber der 8800GT ein.

cl55amg
2008-03-30, 01:43:13
die kein mensch braucht und objektiv die bildqualität verschlechtern.

Ja da kann ich nur zustimmen.



Ah das ist euer Problem. Woher die Leistung kommt? Gute frage, vielleicht wurden die Shader optimiert? Ich vertraue einfach mal den derzeitigen Tests.

Schau dir mal die 9600GT an. Diese hat auch weniger Streamprozessoren (64 vs. 112 -> 8800GT) und Textureinheiten (32 vs. 56 -> 8800GT) und bricht nicht gleich total gegenüber der 8800GT ein.

Du hast leider nicht viel Sachkenntnis zu dieser Thematik und kommst zu diesen falschen Schlüssen.

Bevor du versuchst auf dem Niveau zu diskutieren, les dich nochmal etwas tiefer in die Thematik.

Mit dem Post bist du nur ein gefundes fressen...

Tigershark
2008-03-30, 01:44:23
Ack. Und übrigens auch merkwürdig, dass die 9800 GTX bei dem verlinkten Test in 1920x1200 (als einzige Karte) deutlich mehr FPS abliefert als in 1600x1200....sehr seriös :D

kiwit
2008-03-30, 03:05:20
Ich sag nur..... Higher is Better !!!:massa:

cl55amg
2008-03-30, 03:14:20
Ich sag nur..... Higher is Better !!!:massa:

hehe :)

Klar, wenn die eine Karte 8800 heisst und die andere 9800, dann ist ja die Nummer höher. Sie muss auch mindesten 50% schneller sein, denn: "higher is better".

Sie können ja nicht einfach die Karte "9" nennen, da müssen noch weitere Oprimierungen sein. Sonst könnten die verantwortlichen nicht ruhig schlafen in der Nacht... ;)

erwingage
2008-03-30, 03:14:43
Wenn das Nvidia erfährt, gibts mal richtig Ärger. Startschuss ist ja erst am 01.04 ;D

als aprilscherz!!!:biggrin::biggrin::biggrin:

Gast
2008-03-30, 04:58:25
Besser als deine Karte in deiner Sig ist die allemal ;)

kruemelmonster
2008-03-30, 09:25:40
hehe :)

Klar, wenn die eine Karte 8800 heisst und die andere 9800, dann ist ja die Nummer höher. Sie muss auch mindesten 50% schneller sein, denn: "higher is better".

Sie können ja nicht einfach die Karte "9" nennen, da müssen noch weitere Oprimierungen sein. Sonst könnten die verantwortlichen nicht ruhig schlafen in der Nacht... ;)

hehe :)

So siehts aus, aber was soll man auch erwarten wenn der Konkurrenzdruck fehlt. Solange AMD nix richtig dickes auf die Beine stellt wird NV weiterhin fleissig jeden 10% Speed Bump als neues Produkt vermarkten.
Geschichte wiederholt sich.

Mir fehlt momentan jedenfalls der Anreiz nen neuen Pixelbeschleuniger zu kaufen. Meine übertaktete G80 GTS 640 MiB langt mir noch dicke in 1280x1024 und jedes bisherige SingleGPU Nachfolgeprodukt bringt mir nicht genug Mehrleistung für die zu investierenden €'s.

erwingage
2008-03-30, 10:17:47
Besser als deine Karte in deiner Sig ist die allemal ;)
ist trotzdem ein aprilscherz:biggrin:

centurio81
2008-03-30, 10:45:17
Mir fehlt momentan jedenfalls der Anreiz nen neuen Pixelbeschleuniger zu kaufen. Meine übertaktete G80 GTS 640 MiB langt mir noch dicke in 1280x1024 und jedes bisherige SingleGPU Nachfolgeprodukt bringt mir nicht genug Mehrleistung für die zu investierenden €'s.

So gehts bei mir auch..
Sogar in 1920x1200 bringt sie bei den meißten games genügend Leistung..
Crysis is ja immer das Extrem Beispiel.. :biggrin:

Gast
2008-03-30, 11:41:35
1920x1200>Dummes Zeug mit bischen AA und noch ein paar hohen shadern ist essig!>Kein vram keine FPS,solch dumme schreiberei sollte sofort gelöscht werden!

Gast
2008-03-30, 12:36:54
Ah das ist euer Problem. Woher die Leistung kommt? Ja, das ist das Problem.

Gute frage, vielleicht wurden die Shader optimiert?
Nein, der Chips ist der selbe.

Ich vertraue einfach mal den derzeitigen Tests.

Ich nicht, es passt alles vorne und hinten nicht.
Auf bessere Treiber brauchst du auch nicht warten, die jetztigen hatten genug Reifezeit.


Schau dir mal die 9600GT an. Diese hat auch weniger Streamprozessoren (64 vs. 112 -> 8800GT) und Textureinheiten (32 vs. 56 -> 8800GT) und bricht nicht gleich total gegenüber der 8800GT ein.
Schau dir auch den Rest an:
Gleichviel VRAM, gleichviel Bandbreite,
gleichviele ROPs, dafür höher getaktet, die TMUs und TAUs sind auch höher getaktet,
weniger Shadereinheiten, dafür höher getaktet.

Alles zusammen gezählt ergibt:
Bei VRAM oder Bandbreiten Limit ist die 9600GT so schnell wie 8800GT.
Bei ROP Limitierung ist die 9600GT schneller!
Bei TAUs, TMUs und Shaderlimitierung ist die 8800GT schneller.
Das die 8800GT unterm Strich 30% schneller ist, ist jetzt nicht so ungewöhnlich.

schnuggel
2008-03-30, 13:03:43
nützt alles nix meine GTS/92 taktet noch höher,
Eine halbe Stunde Stalker in 1680x1050 mit2xAA> Zeitlupe>Affengriff>zurück>weiter bis zum nächstenmal>soviel zu dem nicht vorhandenem "Bugi",bis jetzt allerdings nur bei Stalker,auch noch wählerisch.

Ich glaube wohl kaum das es mit der 9800 GTX anders aus sieht bei diesem Spiel !

Auf jeden Fall läuft meine Original mit den Werten ohne Probleme ! =)

MSI 8800 GTS 512 OC -Version

730 GPU / 1825 Shader / 1944 Ram

Was ich nur besser finde ist der Spannungsregler sowie die 2x 6 Pin Stromanschluß der Karte !

PS. Ram könnte ich auch auf 2.200 takten , geht sogar ohne Probleme !

Luke007
2008-03-30, 13:05:26
Du hast leider nicht viel Sachkenntnis zu dieser Thematik und kommst zu diesen falschen Schlüssen.

Bevor du versuchst auf dem Niveau zu diskutieren, les dich nochmal etwas tiefer in die Thematik.

Mit dem Post bist du nur ein gefundes fressen...
Lächerlich ;D, ich glaube eher das es umgekehrt ist. Wie wäre es mal wenn du was erklärst oder mal alles liest und es gedanklich verarbeitest? Übrigens sind eher deine Kontraproduktiven Antworten niveaulos und passen hier nicht ins 3DC-Forum.

Und übrigens auch merkwürdig, dass die 9800 GTX bei dem verlinkten Test in 1920x1200 (als einzige Karte) deutlich mehr FPS abliefert als in 1600x1200....sehr seriös :D
Antwort:
Hier mal ein Extrembeispiel (bei der 9800GTX wurden wohl die ersten beiden Werte vertauscht):
http://i32.tinypic.com/2wr2d1l.gif


@Gast bzw. an einige von euch
Jeder glaubt eben an das was er will. Und Spätestens bei mehreren Reviews bzw. seriösen Quellen hört jeder auf rumzunörgeln.

Skinny12
2008-03-30, 13:14:54
Nun, ich bin einen Tag und einige Spiele(tests) weiter und muss sagen, dass ich happy bin, leise, kühl sehr flott und -das Wichtigste- extrem unproblematisch. Der G92 mag kein UBERChip sein, aber er ist sehr stabil und ausgereift...

Gruss Skinny

Gast
2008-03-30, 13:28:45
Jeder glaubt eben an das was er will. Und Spätestens bei mehreren Reviews bzw. seriösen Quellen hört jeder auf rumzunörgeln.
Wie kommst du darauf? Wo soll die Leistung plötzlich herkommen?
Die Religionsforen sind weiter unten, hier zählen Fakten!
Und Fakt ist, die 9800GTX kann nur 12% schneller als die 8800GTS 512 sein.
Fakt ist, der Karte würde mehr VRAM sehr gut tun.

Jetzt du:
Warum sollte die 9800GTX der Hammer sein? Der gepostete Bench ist Müll, erst Balken vertauschen, dann irsinnige Werte eintragen.

Der G92 mag kein UBERChip sein, aber er ist sehr stabil und ausgereift...
Ja, aber es gibt ihn schon länger zu kaufen, auch mit 1GiB VRAM.
Jetzt das Ganze Paket teurer zu kaufen ist imho Geldverbrennung, es sei denn man ist geil auf die schwarze Platine.

Gast
2008-03-30, 13:29:36
Nun, ich bin einen Tag und einige Spiele(tests) weiter und muss sagen, dass ich happy bin, leise, kühl sehr flott und -das Wichtigste- extrem unproblematisch.
Was hattest du vorher drin?

Luke007
2008-03-30, 13:38:15
Wie kommst du darauf? Wo soll die Leistung plötzlich herkommen?
Die Religionsforen sind weiter unten, hier zählen Fakten!
Und Fakt ist, die 9800GTX kann nur 12% schneller als die 8800GTS 512 sein.
Fakt ist, der Karte würde mehr VRAM sehr gut tun.

Jetzt du:
Warum sollte die 9800GTX der Hammer sein? Der gepostete Bench ist Müll, erst Balken vertauschen, dann irsinnige Werte eintragen.

Wieso sollte der Karte mehr Vram gut tun? Mit einem 256bit SI kann man da nicht viel drehen.
Und Fakten siehst du ja im Review. ;) Und ich habe nirgends geschrieben das die 9800GTX der hammer ist!
Wir warten nun einfach auf seriöse Quellen. Dann kann ich auch endgültig ein Urteil schliessen.

Megamember
2008-03-30, 13:47:35
Mehr Ram ist immer besser und ausserdem wenn die Karte im Sli läuft zählen die 256Bit Speicherbandbreite doppelt, dann ist nurnoch der dürftige Ramausbau entscheidend.

Gast
2008-03-30, 13:51:05
Wieso sollte der Karte mehr Vram gut tun? Mit einem 256bit SI kann man da nicht viel drehen.
Und Fakten siehst du ja im Review. ;) Und ich habe nirgends geschrieben das die 9800GTX der hammer ist!
Wir warten nun einfach auf seriöse Quellen. Dann kann ich auch endgültig ein Urteil schliessen.



Ach, hör nicht drauf.

Ich hätte erst garnicht hier ins Forum geschrieben wenn ich solch eine Karte hätte, zumal du ja auch leider keine Benchmark vergleiche liefern kannst.

Gast
2008-03-30, 14:00:32
Wieso sollte der Karte mehr Vram gut tun? Mit einem 256bit SI kann man da nicht viel drehen.
Bitte den Takt nicht verschweigen.
Es sind 70,4GB/s vs 57,6GB/s bei der 8800GT.

Wenn der VRAM voll ist, muss sie auf den System RAM auslagern, na das wird ein Spass bei 10GB/s, dann doch lieber 1GiB VRAM. Kann schnell mal die Frames verdoppeln.


Und Fakten siehst du ja im Review.
Eben nicht. Wir sehen Balken. ;)
Ich kann dir auch welche malen. ;)


Wir warten nun einfach auf seriöse Quellen. Dann kann ich auch endgültig ein Urteil schliessen.
Ich spekuliere lieber jetzt.
Und nach den Fakten zu urteilen bin ich mit meiner 8800GT sehr gut gefahren, zum Glück habe ich nicht auf die 9800GT gewartet.

Gast
2008-03-30, 14:09:58
Mehr Ram ist immer besser und ausserdem wenn die Karte im Sli läuft zählen die 256Bit Speicherbandbreite doppelt, dann ist nurnoch der dürftige Ramausbu entscheidend.

Laber doch nix falsches, im SLI berechnet jede Karte ihr eigenes Bild. Ist das SI am Ende brechen beide Karten ein, das bringt zwar immer noch mehr FPS als bei ner Single Karte. Aber das SI zählt ganz sicher nicht doppelt, da die eine Karte nicht auf den Speicher der anderen zugreifen kann...

Megamember
2008-03-30, 14:40:55
Genauso stand es aber in einem Review der GX2. Kann sein das es bei der anders ist.

Skinny12
2008-03-30, 15:57:47
Was hattest du vorher drin?

8800 GTX...jaja,ich weiss ;)

Gruss Skinny

dargo
2008-03-30, 16:23:48
Laber doch nix falsches, im SLI berechnet jede Karte ihr eigenes Bild. Ist das SI am Ende brechen beide Karten ein, das bringt zwar immer noch mehr FPS als bei ner Single Karte. Aber das SI zählt ganz sicher nicht doppelt, da die eine Karte nicht auf den Speicher der anderen zugreifen kann...
Was ist das denn wieder für ein Käse? Das SI verdoppelt sich bei SLI, egal ob AFR oder SFR. Dass am Schluss kaum 100% bleiben liegt einfach an der SLI-Effizienz.

9800ProZwerg
2008-03-30, 17:50:29
Das SI verdoppelt sich bei SLI, egal ob AFR oder SFR.

Wirklich:confused:
Hat man dann also bei G92 SLI 512Bit SI?
Das wusste ich gar nicht...

Gast
2008-03-30, 17:51:53
Nein, man hat die doppelte Bandbreite.

Das Auge
2008-03-30, 18:07:25
Nein, man hat die doppelte Bandbreite.

Sei doch mal nicht so kleinlich, 512bit SI klingt einfach besser ;)

dargo
2008-03-30, 18:24:30
Wirklich:confused:
Hat man dann also bei G92 SLI 512Bit SI?
Das wusste ich gar nicht...
Man hat wie schon Gast richtig gesagt hat die doppelte Bandbreite. Ob man jetzt rechnerisch das SI verdoppelt oder den Speichertakt spielt keine Rolle. Natürlich darf man beides nicht doppelt rechnen sonst kommt man auf die vierfache Bandbreite, was natürlich Quatsch wäre.

Gast
2008-03-30, 18:30:44
Man hat wie schon Gast richtig gesagt hat die doppelte Bandbreite. Ob man jetzt rechnerisch das SI verdoppelt oder den Speichertakt spielt keine Rolle. Natürlich darf man beides nicht doppelt rechnen sonst kommt man auf die vierfache Bandbreite, was natürlich Quatsch wäre.


Man hat ja auch 2 Kerne etc.

So wie du es geschrieben hast liest es sich als hätte man das SI auf 512bit erhöt und das ganze auch noch dynamisch.

Die Bandbreite ist doppelt so hoch, aber die Last ist auch doppelt so hoch.

Gast
2008-03-30, 18:42:25
Die Bandbreite ist doppelt so hoch, aber die Last ist auch doppelt so hoch.

nicht wenn auflösung etc. gleich bleiben.

dargo
2008-03-30, 18:53:54
Die Bandbreite ist doppelt so hoch, aber die Last ist auch doppelt so hoch.
Hä? Warum sollte die Last bei gleichen Settings doppelt so hoch sein? :|

Gast
2008-03-30, 19:23:03
Sei doch mal nicht so kleinlich, 512bit SI klingt einfach besser ;)
Genauso gut könnte man den ohnehin schon falschen Marketing Takt verdoppeln, wäre genauso falsch, aber 4400Mhz klingt einfach abartig geil. ;)

LeChuck
2008-03-30, 20:07:13
Genau wie z.B. DDR-2000 nicht mit 2000MHz taktet sondern mit 1000MHz, es wird lediglich die Bandbreite (in der Theorie) verdoppelt.

mike49
2008-03-30, 20:47:32
Genau wie z.B. DDR-2000 nicht mit 2000MHz taktet sondern mit 1000MHz, es wird lediglich die Bandbreite (in der Theorie) verdoppelt.

In den Taktregionen gibt es bestenfalls DDR3-Speicher.

Bei DDR3-2000 arbeitet eine Speicherzelle übrigens mit einem physikalischen Takt von 250MHz was dann - dank 8-fach Prefetch - zu 2.000MHz wird ;)

Gast
2008-03-30, 21:22:12
Bei DDR3-2000 arbeitet eine Speicherzelle übrigens mit einem physikalischen Takt von 250MHz was dann - dank 8-fach Prefetch - zu 2.000MHz wird ;)
Es sind außen nur 1000Mhz. ;) Mess mal nach. :D

kruemelmonster
2008-03-30, 21:38:56
Auch wenn's mittlerweile ganz schön OT geworden ist hab ich mal ne kleine SLI Verständnisfrage:

Man hat also n GPUs und somit die n-fache Füllrate eines einzelnen Chips. So weit, so gut, macht ja Sinn zwecks Parallelverarbeitung.

Nur wieso sollte sich das SI ver-n-fachen? Es sind doch in dem VRAM eines jeden Chips die gleichen Daten vorhanden, deshalb hat man doch bei z.B. der 1 GiB G92 GX2 effektiv nur 512 MiB VRAM zur Verfügung.
Wenn also jeder VRAM inhaltsgleich mit seinen Nachbarn ist, dann kann man doch nicht einfach die Angabe der Interfacebreite verdoppeln (oder ver4fachen etc.). Dann könnte man ja auch sagen das ein RAID1 Verbund aus 2 SATA2/300 Platten ein SATA 600 Interface besitzt (oder bei 4 Platten SATA 1200 etc.).

Oder isses mal wieder nur Marketing? Dann würde mich aber wundern warum das hier im Forum so kommuniziert wird.

mike49
2008-03-30, 21:39:10
Es sind außen nur 1000Mhz. ;) Mess mal nach. :D
Schon klar, I/O-Takt liegt dann bei 1.000MHz.

Dank DDR werden halt (hypothetische) 2.000MHz draus. Trotzdem läuft die Speicherzelle selbst aber 'nur' mit 250MHz und nicht mit 1.000 ;)

LeChuck
2008-03-30, 22:10:43
Is ja auch egal .. auf jeden Fall sind es nicht 2000 MHz.
Back to topic? :)

Gast
2008-03-30, 22:11:27
Nur wieso sollte sich das SI ver-n-fachen?

weil jede GPU ihr eigenes speicherinterface hat und damit unabhängig voneinander auf den speicher zugreifen kann.

die daten im VRAM ändern sich ja von frame zu frame kaum.

Gast
2008-03-30, 22:17:47
Is ja auch egal .. auf jeden Fall sind es nicht 2000 MHz.
Back to topic? :)
Nicht?
Dann wird es Zeit mir eine andere CPU zu kaufen,denk nicht drüber nach du raffst es sowie so nicht.

LeChuck
2008-03-30, 22:29:59
Nicht?
Dann wird es Zeit mir eine andere CPU zu kaufen,denk nicht drüber nach du raffst es sowie so nicht.

Aha!

misterh
2008-03-30, 22:35:46
Nicht?
Dann wird es Zeit mir eine andere CPU zu kaufen,denk nicht drüber nach du raffst es sowie so nicht.

http://de.wikipedia.org/wiki/DDR-SDRAM

kruemelmonster
2008-03-30, 22:53:12
weil jede GPU ihr eigenes speicherinterface hat und damit unabhängig voneinander auf den speicher zugreifen kann.

die daten im VRAM ändern sich ja von frame zu frame kaum.

Weil jede GPU ihr eigenes Speicherinterface hat und damit unabhängig voneinander auf ihren eigenen Speicher zugreifen kann, der auch noch die gleichen Daten wie der zweite VRAM enthält.

Jede GPU greift über ihr eigenes SI auf ihren eigenen VRAM zu. Eine GX2 stellt mir nach meinem Verständnis somit zwar 2x 9,6 = 19,2 GPixel/s Füllrate zur Verfügung, diese kommen aber letztlich nur aus einem 2x 64 = 64 GB/s Speicherinterface.
An dieser Stelle findet für mich keine Verdoppelung statt, da ja in beiden VRAMs die gleichen Daten liegen. Beide GPUs schöpfen also gemeinsam pro Sekunde aus 64 GB an unterschiedlichem Datenmaterial. Von einem 512bit Interface könnte man mMn erst dann sprechen, wenn tätsächlich pro Sekunde 128 GB an sich unterscheidenden Daten übertragen werden können.

Daher sind für mich auch diese Aussagen hier schlichtweg falsch:

Mehr Ram ist immer besser und ausserdem wenn die Karte im Sli läuft zählen die 256Bit Speicherbandbreite doppelt, dann ist nurnoch der dürftige Ramausbau entscheidend.


[...]

Was ist das denn wieder für ein Käse? Das SI verdoppelt sich bei SLI, egal ob AFR oder SFR. Dass am Schluss kaum 100% bleiben liegt einfach an der SLI-Effizienz.

Wirklich:confused:
Hat man dann also bei G92 SLI 512Bit SI?
Das wusste ich gar nicht...

Nein, man hat die doppelte Bandbreite.

Sei doch mal nicht so kleinlich, 512bit SI klingt einfach besser ;)

Man hat wie schon Gast richtig gesagt hat die doppelte Bandbreite. Ob man jetzt rechnerisch das SI verdoppelt oder den Speichertakt spielt keine Rolle. Natürlich darf man beides nicht doppelt rechnen sonst kommt man auf die vierfache Bandbreite, was natürlich Quatsch wäre.

Das Auge
2008-03-30, 23:06:06
Die Bandbreite ist aber nunmal höher, der Speicherinhalt wird ja effektiv, auch wenn er doppelt vorhanden ist, von zwei GPU's bearbeitet, die beide über ihren eigenen Bus drauf zugreifen.

Ist also eher mit Dualchannel-Ram zu vergleichen, statt mit Raid ;)

sklave_gottes
2008-03-30, 23:17:26
Weil jede GPU ihr eigenes Speicherinterface hat und damit unabhängig voneinander auf ihren eigenen Speicher zugreifen kann, der auch noch die gleichen Daten wie der zweite VRAM enthält.

Jede GPU greift über ihr eigenes SI auf ihren eigenen VRAM zu. Eine GX2 stellt mir nach meinem Verständnis somit zwar 2x 9,6 = 19,2 GPixel/s Füllrate zur Verfügung, diese kommen aber letztlich nur aus einem 2x 64 = 64 GB/s Speicherinterface.
An dieser Stelle findet für mich keine Verdoppelung statt, da ja in beiden VRAMs die gleichen Daten liegen. Beide GPUs schöpfen also gemeinsam pro Sekunde aus 64 GB an unterschiedlichem Datenmaterial. Von einem 512bit Interface könnte man mMn erst dann sprechen, wenn tätsächlich pro Sekunde 128 GB an sich unterscheidenden Daten übertragen werden können.

Daher sind für mich auch diese Aussagen hier schlichtweg falsch:




[...]


Du kannst die Speicherbandbreite doppelt zählen. Da ja jede Karte mit z.b. 64 GB/sec daten in den speicher schreibt, diese sich aber den Frameaufbau Teilen. Also 2x64GB/sec genau so wie mit der füllraten.

Und das mit dem Sata Interface ist übrigens auch falsch. 2 Festplatten an jeweil einem 300MB/sec sata Interface im Raid 0 können Theoretisch 600MB/sec daten austauschen. Das heist das Interface kannst du auch verdoppeln. Siehe ramdisk(i-ram test). Da beim i-ram ausschliesslich das interface blockiert, wird hier gerne mit raid gearbeitet um diesen Praktisch zu verdoppeln...

mfg martin

kruemelmonster
2008-03-31, 00:01:00
Die Bandbreite ist aber nunmal höher, der Speicherinhalt wird ja effektiv, auch wenn er doppelt vorhanden ist, von zwei GPU's bearbeitet, die beide über ihren eigenen Bus drauf zugreifen.

Ist also eher mit Dualchannel-Ram zu vergleichen, statt mit Raid ;)

Beim DC-RAM wird aber über 2 Interfaces auf einen gemeinsamen Speicher zugegriffen. Es werden also z.B. bei PC2-6400 im DC 12,8 GB/s sich unterscheidende Daten transportiert.

Ich würde es meinetwegen statt mit RAID1 auch mit den unterschiedlichen L2 Cache Strategien bei Intel & AMD vergleichen wollen (bitte nicht schlagen dafür, ich bin mir aller Unzulänglichkeiten des Vergleiches an allen Ecken und Enden bewusst, hoffe jedoch dass er trotzdem verständlich ist)

Das SI bei SLI entspricht der Bauweise von AMD, pro Kern einen dedizierten L2 Cache zu haben.

Von einem ver-n-fachten SI sollte man mMn erst dann sprechen, wenn n GPUs über ihr jeweils eigenes Interface an einen gemeinsamen VRAM angeschlossen sind. Dies entspräche dann der Intel'schen Architektur eines gemeinsamen L2 Caches für jeweils 2 Kerne.

Ich hab mich mal mit Paint bewaffnet und mal zurechtgeklickt wie so ein ver-n-fachtes SI auszusehen hätte. Während des Klickens ist mir dann aufgefallen, dass ich mir (ganz grob) so eigentlich ATI's künftige MultiChip Architektur vorstelle, dann sicherlich noch mit nem HW Scheduler in der Mitte der GPUs und wat-weiß-ich-nich-noch-alles...
Das wird routingtechnisch auf dem PCB bestimmt nicht einfach werden, schließlich ist der VRAM ja kein monolithischer Klotz wie in meinem Bild.

/edit:

@sklave_gottes:

Mir geht es schlicht darum das in beiden VRAMs die z.B. gleichen Texturen vorhanden sind, daher mein Vergleich mit RAID1.

Gast
2008-03-31, 00:10:07
vergiß es,die IQ Hirsche sind doch weg wenn Argumente kommen.

cl55amg
2008-03-31, 02:35:57
@ Kruemelmonster

Ich kann deine Argumentation gut nachvollziehen.

"Effektiv" gesehen hat man kein verdoppeltes Speicherinterface, da sich die selben Daten im RAM befinden.
Ich dachte dies hätte man schon zu 7950GX2 Zeiten geklärt?

Und dies sieht man ja auch den Benchmarks, wo die 9800GX2 gerade in Bereichen wo es auf Speicherbandbreite und den vRam ankommt, schwächelt.

Deine Zeichnung, die ja einen shared vRam für mehrere GPUs darstellt ist interessant.

Gast
2008-03-31, 09:55:24
@ Kruemelmonster

Ich kann deine Argumentation gut nachvollziehen.

"Effektiv" gesehen hat man kein verdoppeltes Speicherinterface, da sich die selben Daten im RAM befinden.
Ich dachte dies hätte man schon zu 7950GX2 Zeiten geklärt?




Offensichtlich wurde es nicht ausreichend geklärt, weil ihr es immer noch nicht verstanden habt.

Da beide Chips in SLI gleichzeitig rechnen, verdoppelt sich die Speicherbandbreite.

Gast
2008-03-31, 10:43:09
Jede GPU greift über ihr eigenes SI auf ihren eigenen VRAM zu. Eine GX2 stellt mir nach meinem Verständnis somit zwar 2x 9,6 = 19,2 GPixel/s Füllrate zur Verfügung, diese kommen aber letztlich nur aus einem 2x 64 = 64 GB/s Speicherinterface.
An dieser Stelle findet für mich keine Verdoppelung statt, da ja in beiden VRAMs die gleichen Daten liegen. Beide GPUs schöpfen also gemeinsam pro Sekunde aus 64 GB an unterschiedlichem Datenmaterial. Von einem 512bit Interface könnte man mMn erst dann sprechen, wenn tätsächlich pro Sekunde 128 GB an sich unterscheidenden Daten übertragen werden können.

Daher sind für mich auch diese Aussagen hier schlichtweg falsch:

es sind nicht zwangsläufig in beiden karten die selben daten im VRAM, es ist lediglich sinnvoll es so zu machen, schließlich werden sich die texturen nicht von frame zu frame ändern.

auch in der praxis sind nicht in beiden karten genau die gleichen daten im VRAM. texturdaten werden natürlich in beiden karten mehr oder weniger die gleichen vorhanden sein, der framebuffer ist aber unterschiedlich, schließlich berechnet jede karte ihr eigenes bild.

während die eine karte an frame 0 rechnet, rechnet ja die 2. karte bereits an frame 1.
beide karten werden natürlich weitgehend die gleichen texturdaten brauchen, aber auch nicht unbedingt die gleichen texturen zum gleichen zeitpunkt, was dank des doppelten interfaces auch kein problem ist.
aber auch bei einer einzelnen karte wäre das nicht anders. dort wird zuerst frame 0 berechnet und danach frame 1. für frame 1 werden natürlich wieder (weitgehend) die selben texturdaten aus dem speicher gelesen wie bei frame 0 und beim nächsten frame wieder und wieder.
bei SLI können diese schritte aber parallel geschehen, damit kann man durchaus von einer verdopplung des interfaces sprechen.
die schreibenden zugriffe auf frame- und z-buffer (die auch den großteil der bandbreite konsumieren) beinhalten bei SLI natürlich sowieso auch verschiedene daten.

kruemelmonster
2008-03-31, 14:49:35
Dann ist das aber noch lange keine Ver-n-fachung, sondern z.B. bei 2 GPUs nur eine Steigerung irgendwo zwischen 1 und 2, abhängig von diversen Faktoren.

Ver-n-fachung sieht wie gesagt anders aus, und solange eine Architektur wie die von mir skizzierte nicht zu haben ist, sollte man auch nicht von 512bit SI sprechen oder Sachen raushauen wie Man hat [...] die doppelte Bandbreite. Ob man jetzt rechnerisch das SI verdoppelt oder den Speichertakt spielt keine Rolle.
Das ist dann nämlich grundverkehrt, mit der gleichen Argumentation könnte ich dann auch einen 3 GHz QuadCore als 12 GHz CPU beschreiben.

Gast
2008-03-31, 16:45:31
Dann ist das aber noch lange keine Ver-n-fachung, sondern z.B. bei 2 GPUs nur eine Steigerung irgendwo zwischen 1 und 2, abhängig von diversen Faktoren.



Nein, die Steigerung ist exakt 2. Du hast es nur immer noch nicht verstanden.

Gast
2008-03-31, 18:32:33
Dann ist das aber noch lange keine Ver-n-fachung, sondern z.B. bei 2 GPUs nur eine Steigerung irgendwo zwischen 1 und 2, abhängig von diversen Faktoren.

natürlich ist es eine ver-n-fachung, und wenn AFR gut funktioniert ist man sogar in der realen performance nahe dran. der rest ist die SLI-effizienz, auch wenn man eine einzelne GPU bauen würde die doppelt so groß ist würde man nicht in jedem fall die doppelte performance bekommen.

cl55amg
2008-04-01, 00:35:24
Ich denke ihr habt recht, es entsteht theoretsich eine Verdoppelung des Speicher Interface.
Der Demirug hat es bestätigt.
Effektiv hängt es natürlich von der jweiligen Situation ab.

Bei einer Singlekarte sollte ein 512Mbit Interface effizienter sein, da die SLI Ineffiziens wegfällt?

Gast
2008-04-01, 00:53:47
Ja einer Single Karte ist sowieso effizienter, aber bei einem 512Mbit SI brächten wir erstmal keine Bandbreiten Sorgen haben. ;)