PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GTS 512MB: (P)Review-Thread


Seiten : [1] 2 3 4

AnarchX
2007-11-29, 07:44:13
http://img262.imageshack.us/img262/2162/img0021668mi5.jpg

Testberichte:

deutsch :
Test: Nvidia GeForce 8800 GTS 512 -Nachbrenner gezündet@CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/)
MSI NX8800 GTS T2D512E OC @ HT4u (http://www.ht4u.net/reviews/2007/msi_nx8800gts/)

eng. und andere Sprache:
OCWorkbench (http://www.ocworkbench.com/2007/gigabyte/gv-nx88S512H-b/g1.htm)
AnandTech (http://www.anandtech.com/video/showdoc.aspx?i=3175)
bit-tech (http://www.bit-tech.net/hardware/2007/12/11/nvidia_geforce_8800_gts_512/1)
Dinox PC (Italian/Italiano) (http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=713)
DriverHeaven (http://www.driverheaven.net/reviews/nvidia8800gts/index.php)
FiringSquad (http://www.firingsquad.com/hardware/nvidia_geforce_8800_gts_512mb/)
FPSLabs (http://www.fpslabs.com/reviews/video/nvidia-geforce-8800gts-512-review)
Guru3D (http://www.guru3d.com/article/Videocards/479/)
Hardware Canucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3635-xfx-8800gts-512mb-g92-alpha-dog-edition-review.html)
HEXUS (http://www.hexus.net/content/item.php?item=10738)
HotHardware (http://www.hothardware.com/Articles/NVIDIA%5FGeForce%5F8800%5FGTS%5FRefresh%5FAsus%5Fand%5FXFX/)
I4U News (http://www.i4u.com/full-review-344.html)
Legit Reviews (http://legitreviews.com/article/610/1/)
Reg Hardware (http://www.reghardware.co.uk/2007/12/10/review_nvidia_8800_gts/)
PC Perspective (http://www.pcper.com/article.php?aid=494&type=expert)
Tech ARP (http://www.techarp.com/showarticle.aspx?artno=479)
techPowerUp! (http://www.techpowerup.com/reviews/Zotac/GeForce_8800_GTS_512_MB)
TechSpot (http://www.techspot.com/review/79-geforce-8800-gts-512/)
NVIDIA GeForce 8800GTS 512MB G92 Tested @ Tweaktown (http://www.tweaktown.com/articles/1234/nvidia_geforce_8800gts_512mb_g92_tested/index.html)
G92-8800GTS Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0712%2 F1175013.html&langpair=zh%7Cen&hl=de&ie=UTF-8) (Chin.)
ASUS Extreme N8800GTS (512MB, G92) @ Legion Hardware (http://www.legionhardware.com/document.php?id=708&p=0) !alternativ! (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6091603&postcount=415) thx@myopF
[Tweaktown.com] Asus EN8800GTS vs. EN8800GTS Top (http://www.tweaktown.com/articles/1244/3/page_3_the_cards/index.html)
Nvidia GeForce 8800 GTS 512 review @ Techspot (http://www.techspot.com/review/79-geforce-8800-gts-512/page1.html)
http://www.vr-zone.com/articles/Nvidia_8800_GTS_512MB_Review_-_The_Essence_of_128_Shader_Processors/5441.html#Scene_1
http://www.driverheaven.net/reviews/nvidia8800gts/index.php
http://www.guru3d.com/article/Videocards/479/
http://anandtech.com/video/showdoc.aspx?i=3175
http://www.techpowerup.com/reviews/Zotac/GeForce_8800_GTS_512_MB/





Erwähnenswerte Versionen:

Spezfikationen:

GPU:

Bezeichnung: G92-400
Prozess: 65nm
Transistorenanzahl: 754 Mio.

Funktionseinheiten:

128 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL)
64 TAs, 64 bi-TMUs
16 ROPs(8 Z, 4xMSAA in einem Takt)
256-Bit Speicherinterface (4 fach unterteilt)


512MiB GDDR3

Taktraten:

TMU/ROPs: 650MHz
Shadertakt: 1625MHz
Speichertakt: 970MHz

Theoretische Leistungs-Daten:

Pixelfüllrate: 10400 MPix/s
Texelfüllrate: 41600 MTex/s
arithmetische Leistung: MADD -> 416 GFLOPs, MADD+MUL -> 624 GFLOPs
Speicherbandbreite: 62 GB/s

8800 GT:

Pixelfüllrate: 9600 MPix/s
Texelfüllrate: 33600 MTex/s
arithmetische Leistung: MADD -> 336 GFLOPs, MADD+MUL -> 504 GFLOPs
Speicherbandbreite: 57,6 GB/s


8800 GTS 640MB (Nov06):

Pixelfüllrate: 10000 MPix/s
Texelfüllrate: 12000 MTex/s (kostenloses Bi-AF bzw. tri-Filterung)
arithmetische Leistung: MADD -> 230 GFLOPs, MADD+MUL -> 346 GFLOPs
Speicherbandbreite: 64 GB/s

Majestic
2007-11-29, 08:01:02
Hab das Review nur kurz überflogen.... Aber ich hatte mit nem deutlicheren Abstand gerechnet.

AnarchX
2007-11-29, 08:05:38
Hab das Review nur kurz überflogen.... Aber ich hatte mit nem deutlicheren Abstand gerechnet.

Da wird wohl der Unterschied von nur 8% bei der Speicherbandbreite seine Auswirkungen haben.

Mal sehen was in den Crysis-Benches herauskommt die sie später ergänzen wollen, UT3 wäre auch interessant, da es ja auch nicht bandbreitenlastig ist.

MadManniMan
2007-11-29, 08:08:48
Hab das Review nur kurz überflogen.... Aber ich hatte mit nem deutlicheren Abstand gerechnet.

Die Karte hat nicht die geringste Chance, irgendwas auszuspielen, weil Tweaktown mal wieder nen beschissenen Scheißtest hingelegt hat - in diesem Bereich ohne AA und AF zu testen, ist hirnverbrand. :|

Gast
2007-11-29, 08:10:20
Irgendwie stimmt da was mit der Leistungsaufnahme nicht.
http://images.tweaktown.com/imagebank/88gtsg92_g_11.gif

Die 3870 müsste im Idle weniger verbrauchen als die 8800GT, Last stimmt wieder. Und die neue GTS soll fast so viel wie die 2900XT ziehen?

Stormscud
2007-11-29, 08:17:05
Ohne ist ja nicht ganz richtig. Nach den DX10 Tests kommen doch noch AA/AF Benches. Wenn auch nicht für alle Spiele.

Gast
2007-11-29, 08:17:29
Warum gibts du noch immer diese 289mm² Die-Fläche an, obwohl das nachweislich falsch ist?

Die_Allianz
2007-11-29, 08:34:28
wenn sich in kommenden Reviews kein anderer trend zeigt, gibts keinen Grund zur neuen GTS zu greifen!
Einfach eine GT holen und einen neuen Kühler drauf! Fertig

der verbrauch ist auch pervers, wenn die Messung korrekt ist.

Schade

MadManniMan
2007-11-29, 08:38:32
Ohne ist ja nicht ganz richtig. Nach den DX10 Tests kommen doch noch AA/AF Benches. Wenn auch nicht für alle Spiele.

Stimmt schon, aber eben viel zu wenig - die Karten werden einfach nicht an ihre Grenzen gebracht. Wie sollen sie da ihr Potential zeigen?

GeneralHanno
2007-11-29, 08:39:48
ich hab das rewiev schnell überflogen (die schule muss warten) und für mich scheint es so, als würde unter AA+AF der vram und/oder die bandbreite limitieren...

Gast
2007-11-29, 08:44:43
Ich denke auch dass die 512 MB VRam und die geringe Speicherbandbreite ordentlich limitieren!
Trotzdem ist die Karte interessant, vor allem wenn sie noch mit 1 GB VRam kommen sollte.

MfG :cool:
James@work

Henroldus
2007-11-29, 08:56:20
naja, so groß ist der Sprung von der 8800GT laut dieses Tests ja doch nicht.
da hätte es nicht mehr gelohnt zu warten und 100 Eur mehr zu investieren.

Adam D.
2007-11-29, 09:01:22
Abwarten, ich trau dem Laden nicht. Wenn ich schon die Lautstärke-Tests anschaue, wo ich die 8800GT lauter als alle anderen sein soll - so ein unglaublicher Unfug.
Dazu noch wirklich dämliche Tests: wo soll die 8800GTS da ihre Power ausspielen? Abwarten, bis wir andere Reviews sehen.

MadManniMan
2007-11-29, 09:14:49
ich hab das rewiev schnell überflogen (die schule muss warten) und für mich scheint es so, als würde unter AA+AF der vram und/oder die bandbreite limitieren...

Der VRAM ist natürlich ein Problem - auch die Bandbreite könnte gerade für aktuellere Titel (vermehrt HDR-Rendering) und hohe AA-Modi knapp werden.

Aber was das AF anbelangt, dürfte die GTS-512 ihre brachiale Textur-Power ausspielen können.

DrumDub
2007-11-29, 10:26:49
toll, aa/af tests bei 1280x1024... klar, dass sich da die gts nicht merklich von der gt absetzen kann. :rolleyes:

Gast
2007-11-29, 10:38:10
Der VRAM ist natürlich ein Problem - auch die Bandbreite könnte gerade für aktuellere Titel (vermehrt HDR-Rendering) und hohe AA-Modi knapp werden.

Aber was das AF anbelangt, dürfte die GTS-512 ihre brachiale Textur-Power ausspielen können.

AF ist aber nicht so wichtig wie aa?!!!!!!!!!

Gast
2007-11-29, 10:38:43
toll, aa/af tests bei 1280x1024... klar, dass sich da die gts nicht merklich von der gt absetzen kann. :rolleyes:

Komisch den mist haben sie seit der X2900 eingeführt.

MadManniMan
2007-11-29, 10:46:31
AF ist aber nicht so wichtig wie aa?!!!!!!!!!

Wie meinen?

Endorphine
2007-11-29, 12:06:19
Was will man denn mit einer 512 MB G92-8800GTS? :confused: Bei der 8800GT hab' ich ja noch Verständnis für den Geiz bei der Speichergröße, aber bei der GTS? An nVidias Stelle hätte ich die Karte gleich mit 1 GB VRAM gelaunched und die 512 MB Version den Kartenherstellern als Option überlassen.

Damit wäre für alle G92-Käufer mal abgesehen vom Dualslot-Kühler ein wirklicher Kaufanreiz vorhanden... AF ist aber nicht so wichtig wie aa?!!!!!!!!! Das ist Geschmackssache. Mir ist z. B. AF deutlich wichtiger als AA. Ich behaupte weiterhin, dass der Großteil der Spieler weder AA noch AF nutzt. Die starten einfach das Spiel und spielen los.

AnarchX
2007-11-29, 12:08:54
Es soll nunmal eine "8800 GTS" bleiben, die man eben über die geringe Bandbreite/Speichermenge auf die benötigte Leistung herunterbremst.
Schliesslich wird ja durch diese Karte wohl wieder das Verhältnis GT<GTS<GTX<Ultra hergestellt.

Gast
2007-11-29, 12:10:30
.Damit wäre für alle G92-Käufer mal abgesehen vom Dualslot-Kühler ein wirklicher Kaufanreiz vorhanden...

Ganz genau. Dieser Geiz am Grafikspeicher geht mir langsam auf den Senkel. Seit Jahren hängen wir bei dieser Größe und statt sie weiter zu erhöhen, wird es wieder weniger ...

Ist meines erachtens der größte Nachteil an der "neuen Generation". Was nützen die tollsten Features, wenn die Texturmatsche bleibt? ;)

GeneralHanno
2007-11-29, 13:23:12
Abwarten und Tee rauchen. In den nächsten Tagen gibt es hoffentlich noch weitere Tests. Und einige Boardpartner werden wohl auch eine GTS 1024 bringen.

tombman
2007-11-29, 13:34:47
Gleich mal das wichtigste rausgeschrieben:

http://img101.imageshack.us/img101/7628/88gtsg92g23ai6.gif (http://imageshack.us)

OC ging das Teil auf 720/1050!!

Die GTX wird damit ziemlich überflüssig. Außer man hat Angst wegen dem Ram, der Ram Bandbreite oder Triple SLI.
Vorallem sollte man bedenken, daß das bereits eine OC GTX war!

Gast
2007-11-29, 13:45:44
OC ging das Teil auf 720/1050!!



Das sind gerade einmal ~10%.



Die GTX wird damit ziemlich überflüssig. Außer man hat Angst wegen dem Ram, der Ram Bandbreite oder Triple SLI.
Vorallem sollte man bedenken, daß das bereits eine OC GTX war!

Defintiv nicht. Spätestens mit AA bricht die neue GTS im Vergleich zur GTX/Ultra vermutlich weg.

tombman
2007-11-29, 13:48:42
Das sind gerade einmal ~10%.

Ist doch egal, die GTX rennt ohne "schwere Geschütze" wie vmods nicht so hoch. Und durch die selbe SP Anzahl wurde die GTX geowned.

Defintiv nicht. Spätestens mit AA bricht die neue GTS im Vergleich zur GTX/Ultra vermutlich weg.
Da glaube ich weniger dran, aber dazu brauchts mehr Tests.

dargo
2007-11-29, 13:52:24
Ich behaupte weiterhin, dass der Großteil der Spieler weder AA noch AF nutzt. Die starten einfach das Spiel und spielen los.
Das wird schon hinkommen. Aber glaubst du ernsthaft diese Leute kaufen sich eine ~300€ Grafikkarte? Ich glaube nicht so daran. Für diejenigen tuts auch eine ~150€ HD3850. :)

Es soll nunmal eine "8800 GTS" bleiben, die man eben über die geringe Bandbreite/Speichermenge auf die benötigte Leistung herunterbremst.
Schliesslich wird ja durch diese Karte wohl wieder das Verhältnis GT<GTS<GTX<Ultra hergestellt.
Die Bandbreite der neuen GTS ist imho aber im Verhältnis zur GT sehr unausgewogen. Der Karte hätten 1,1Ghz beim Vram ganz gut getan.

AnarchX
2007-11-29, 13:58:03
Die Bandbreite der neuen GTS ist imho aber im Verhältnis zur GT sehr unausgewogen. Der Karte hätten 1,1Ghz beim Vram ganz gut getan.

ROP-Leistung und Bandbreite wurden doch gleichmäßig um ~8% erhöht.

Sicherlich wäre mehr Bandbreite wünschenswert gewesen, aber es soll nunmal eine "8800 GTS" sein, da muss man eben auf die AIBs setzen, dass sie 1.0ns Samsung verbauen, der bis zu 1.2GHz schafft oder eben 0.83ns Speicher.

GeneralHanno
2007-11-29, 13:58:44
ich habe mal hier unter crysis @ 1920*1200 den unterschied GTS512 zu GT512 ausgerechnet. das sind ziemlich genau 10%. die chipleistung liegt aber 8/7 * 650/600 = 1,24 , also 24% höher. also ist der flaschenhals der GTS512 klar die pixelfüllrate/bandbreite/vram, weil diese größen im vergleich zur GT kaum oder gar nicht verbessert wurden.

dargo
2007-11-29, 13:59:18
Da glaube ich weniger dran, aber dazu brauchts mehr Tests.
Ich denke, wenn du Spiele (außer Crysis) in "perversen" Auflösungen und AA fährst wird die neue GTS immer noch nicht an die GTX ganz rankommen. Bei Crysis limitiert sicherlich alles andere, noch vor der Bandbreite.

AnarchX
2007-11-29, 14:02:24
@GeneralHanno

Bei der 8800 GT würde ich aufpassen, wohlmöglich ist es die MSI OC mit 660/950MHz, die ja TT damals getestet hatte (http://www.tweaktown.com/reviews/1210/3).
edit: scheint es wohl zu sein:
http://www.tweaktown.com/articles/1211/2/page_2_benchmark_results/index.html

Also wäre der Unterschied zwischen Std. GT und GTS wohl etwas größer. ;)

dargo
2007-11-29, 14:03:04
ROP-Leistung und Bandbreite wurden doch gleichmäßig um ~8% erhöht.

Die SPs wurden aber um ~14% erhöht. Ich meinte es aber eher im Verhältnis zum G80. Bei der GT gings noch um jeden €uro, da kann ich es noch nachvollziehen. Aber sind solche Sparmaßnahmen bei einer ~300€ Graka wirklich noch notwendig?

AnarchX
2007-11-29, 14:07:25
Die SPs wurden aber um ~14% erhöht.
Für die arithmetische Leistung ist die BW ja weniger relevant, ebenso für die TMUs mit >8xAF.


Ich meinte es aber eher im Verhältnis zum G80. Bei der GT gings noch um jeden €uro, da kann ich es noch nachvollziehen. Aber sind solche Sparmaßnahmen bei einer ~300€ Graka wirklich noch notwendig?
Die Karte wird wohl nunmal konzipiert sein, nicht ewig bei 300€ zu bleiben, wie die G80-GTS, welche bei diesem Preis ausläuft.

Aber wie schon gesagt versucht man sie wohl von GTX und Ultra noch etwas fern zu halten und schliesslich die Verwirrung im Portfolio, die durch die viel zu schnelle 8800 GT entstand, zu lösen.

dargo
2007-11-29, 14:12:50
Aber wie schon gesagt versucht man sie wohl von GTX und Ultra noch etwas fern zu halten und schliesslich die Verwirrung im Portfolio, die durch die viel zu schnelle 8800 GT entstand, zu lösen.
Und eben das ist es was mich so beim G92 ankotzt. :mad:
Man bremst den G92 nur unnötig aus.

Würde man die GTX/Ultra einstellen stände einer neuen 700/1200Mhz GTS (von mir aus G8800GTO) mit 1GB Vram für ~399$ imho nichts im Wege. Als G8800GTS 640 Besitzer guckt man dumm aus der Wäsche. Es kommt kein vernünftiges Upgrade. :(

Die_Allianz
2007-11-29, 14:18:37
wenn sich die bisherigen Ergebnisse bestätigen, darf die neue GTS höchstens für 260 übern tisch gehen.
Die Mehrleistung gegenüber einer GT ist ja fast verschwindend. Sonst hat sie ja auch nichts zu bieten (breiteres SI z.B.)

Man kann die nächsten Tests noch abwarten, meiner Meinung nach wird sich aber nicht neues zeigen.

dargo
2007-11-29, 14:21:19
wenn sich die bisherigen Ergebnisse bestätigen, darf die neue GTS höchstens für 260 übern tisch gehen.
Die Mehrleistung gegenüber einer GT ist ja fast verschwinden. Sonst hat sie ja auch nichts zu bieten (breiteres SI z.B.)

Du darfst nicht nur die Leistung betrachten. Eventuell ist das PCB etwas komplexer (mehr Bauteile), außerdem wurde ein höherwertiger Kühler verbaut. Ausgehend von 200€ bei der GT würde ich aber ebenfalls sagen - ~260€ für die neue GTS wären ok.

puntarenas
2007-11-29, 14:22:24
Unschön finde ich, dass wieder kein anständiger 2D-Modus vorgesehen ist. Nvidia ist sicher nicht zu blöd dazu, der (relativ geringe?) Aufwand scheint sich aufgrund der mangelnden Nachfrage aber nicht zu rechnen. Meine Zeitgenossen kotzen mich an :(

Hakim
2007-11-29, 14:23:26
Naja! Wenn ich etwa 40-50€ draufzahlen muss für eine GTS würde ich das noch grad so machen. Aber keinen € mehr! So groß ist der Abstand nicht.

dargo
2007-11-29, 14:25:34
Unschön finde ich, dass wieder kein anständiger 2D-Modus vorgesehen ist. Nvidia ist sicher nicht zu blöd dazu, der (relativ geringe?) Aufwand scheint sich aufgrund der mangelnden Nachfrage aber nicht zu rechnen. Meine Zeitgenossen kotzen mich an :(
Ich sehe das nicht so eng. Die neue GTS verbraucht praktisch genauso viel wie die alte 640MB GTS. Mit dem Rivatuner komme ich also bei 200/200Mhz aufs gleiche Ergebnis wie jetzt. :)
Klar, ein echter 2D Modus, vorallem mit einer Spannungssenkung wäre viel besser.

Was ich sehr gut finde, der neue GTS Kühler ist genauso leise wie der Alte. :up:

puntarenas
2007-11-29, 14:33:04
Klar, ein echter 2D Modus, vorallem mit einer Spannungssenkung wäre viel besser.

Ich finde ja den 2D-Verbrauch der alten GTS auch schon indiskutabel, aber wenn ich nicht spiele, wo mir der Verbrauch dann egal wäre, idlet auf meinem System eben den lieben langen Tag ein Linuxdesktop, da ist Rivatuner eben keine Lösung. Ist natürlich ein Spezialfall, aber auch davon abgesehen empfinde ich 2D-Taktraten und Spannungsabsenkung als "must have".

Hoffnung machen mir aber die guten Verbrauchswerte der RV670er, das könnte Nvidia ja dazu bewegen, für die nächte Chipgeneration etwas ehrgeiziger in Sachen Stromsparfunktionen zu agieren.

Back2Topic: Angesichts der Leistung hatte ich auch mehr erwartet, aber die 8800GT 512MB quasi zu ersetzen klingt plausibel und wird sich wohl rechnen.

LovesuckZ
2007-11-29, 14:43:05
Es wird keine 8800GT ersetzt...


Aber wie schon gesagt versucht man sie wohl von GTX und Ultra noch etwas fern zu halten und schliesslich die Verwirrung im Portfolio, die durch die viel zu schnelle 8800 GT entstand, zu lösen.

Es gibt auch keine Verwirrung im Portfolio. Oder geht ihr davon aus, dass nVidia die 8800GT bei 6 Cluster nicht auf 600/1500/900Mhz getaktet hätte?

Gast
2007-11-29, 14:47:11
Es gibt auch keine Verwirrung im Portfolio. Oder geht ihr davon aus, dass nVidia die 8800GT bei 6 Cluster nicht auf 600/1500/900Mhz getaktet hätte?

Natürlich gibt es die: 8600GTS ist schneller als 8600GT, 8800GTS ist langsamer als 8800GT. Wie die ursprüngliche 8800GT ausgesehen hätte kann nur spekuliert werden, ich nehme allerdings doch an, dass der Name ursprünglich auch zur Leistung gepasst hätte.

GeneralHanno
2007-11-29, 16:14:41
Also wenn TT als GT eine MSI OC Karte genommen hat, dann finde ich das ganz schön dämlich, aber sei es drum ...

Ich halte den 2D-Verbrauch auch für indiskutabel. Für Leute die zu über 70% an ihrem Rechner spielen, mag das ja ok sein. Allen Anderen würde ich aber zu einer 3870 raten.

€dit: PCGH meint die GT sei nicht übertaktet ?!
http://www.pcgameshardware.de/?article_id=622955

Anarchy-HWLUXX
2007-11-29, 16:21:39
Ich halte den 2D-Verbrauch auch für indiskutabel. Für Leute die zu über 70% an ihrem Rechner spielen, mag das ja ok sein. Allen Anderen würde ich aber zu einer 3870 raten.

Der Idle unterschied beim TT test ist nichtmal erwähnenswert ... oder siehst du andere zahlen ?

Da es ne OC GT ist sollte diese dann nochmal unter der 3870er liegen wenn nicht Übertaktet.

GeneralHanno
2007-11-29, 16:26:11
Im CB test verbraucht die 3800er Serie wesentlich weniger in Idle als die 8800GT: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/26/#abschnitt_leistungsaufnahme

Und da die GTS512 sogar noch mehr als die GT verbraucht, ist der idle-Verbrauch einfach zu hoch.

laser114
2007-11-29, 16:55:43
Soll Nvidia zaubern?

Die sehr niedrigeren Idle-Verbräuche sind durch PowerPlay zustandegekommen. Wenn Nvidia nicht die Mobil-Funktionen auch auf den Desktop holt wird das nicht. ;)

dildo4u
2007-11-29, 17:17:31
Die Karte liegt vor einer OC Version einer 8800GTX für 300€ kein schlechter Deal.

Die BFG 8800GTX OC2 verfügt über 768 MByte GDDR3 Speicher, der über eine 384 Bit breite Schnittstelle angebunden ist. Die GPU taktet mit 626 MHz, der Speicher mit 2000 MHz.

http://www.my-hardwarediscount.de/2-15-128-0-0-3585/BFG-8800GTX-OC2-Retail-TV-Out-2x-DVI.html?r=3

http://images.tweaktown.com/imagebank/88gtsg92_g_23.gif

Die_Allianz
2007-11-29, 17:28:26
ach komm...
die alten GTX/GTS/Ultras sind doch nur für die kunden noch im sortiment, die vom G92 noch nix bemerkt haben!
Die paar % die sie vor einer GT liegt.... von der seite sieht es schon ganz anders aus! Wie gesagt mehr als 260 ist das ding nicht wert. (mir jedenfalls nicht)

dildo4u
2007-11-29, 17:40:44
Ja und dort oben gibt es keine Konkurrenz Nvidia könnte dafür auch locker 350€ nehmen.Ein High-End Zuschlag musste man schon immer bezahlen(Siehe GTX/Ultra) nicht erst seit der neuen 8800GTS.Und selbst dann ist Preislich noch genug Luft für eine neue GTX oder Ultra um 450-500€.

Gast
2007-11-29, 18:10:16
Hm. Penis, Penis und Penis.

Bleibt zu hoffen, dass die Version mit 1024 Men in Black ein wenig mehr Hüftschwung hat und davon ordentliche wassergekühlte übertaktete Modelle auf den Jahrmarkt kommen.

Gast
2007-11-29, 18:11:00
Hm. Penis, Penis und Penis.

Bleibt zu hoffen, dass die Version mit 1024 Men in Black ein wenig mehr Hüftschwung hat und davon ordentliche wassergekühlte übertaktete Modelle auf den Jahrmarkt kommen.
Wäre IMHO aktuell sogar sinnvoller für High-End-User, sich das im SLI zu kaufen, als noch auf die Ultra zu setzen.

Gast
2007-11-29, 18:21:20
Wartet doch erstmal ab, ihr zieht hier viel zu voreilige Schlüsse.

Eine GeForce 8800 Ultra würde ich jederzeit vorziehen, ganz einfach weil sie die größere Bandbreite und vorallem 768MB Speicher zu bieten hat.

Der Test dort oben ist noch ziemlich für die Tonne, erst wenn viele Reviews zustande kommen und unterschiedliche und vorallem sehr aktuelle Anwendungen getestet werden, wird sichtbar, das die GTS an Performance verliert, sobald Auflösung oder Detailgrad nach oben geht.

Ihre Rohpower nützt ihr nix, wenn der VRAM am Ende ist und das ist bei NVIDIA merkwürdigerweise sehr früh der Fall... schon die GTS320 kann heute kaum noch ein Kraut gewinnen und das sind immerhin mehr, als die 256MB 3850 zu bieten hat ...

Achja: Es gibt natürlich auch stark übertaktete GTX OC oder Ultra OC. Im vergleich zu diesen wird die GTS-512 natürlich auch nicht viel besser dastehen...

Geizhals kurz mal überflogen:
Chiptakt: 630MHz, Speichertakt: 1030MHz • Unified Shader/Pixel-Pipelines: 128@1350MHz - GTX von ASUS.

Chiptakt: 684MHz, Speichertakt: 1161MHz • Unified Shader/Pixel-Pipelines: 128@1680MHz - Ultra von Leadteak.

Gegen diese Karten wird die GTS einen schweren Stand haben. Für die Multi-GPU User wird ein Wechsel allein schon aus Speichergründen keinen Sinn machen, denn spätestens ab 1920x1200 6xAA und höher wird das schnell zum Limit...

Gast
2007-11-29, 18:31:28
Noch was vergessen: Da nützt es dann auch nicht viel, wenn die Speichermenge (sicherlich mit einem saftigen Deppenaufschlag) in die Höhe geht, aber die Bandbreite immer noch so mickrig bleibt.

Mit GDDR3 ists eigentlich unmöglich Bandbreitenmäßig an der jetzigen Ultra vorbeizuziehen.

Ph0b0ss
2007-11-29, 19:09:40
Dieses mickrige 256bit-Speicherinterface passt einfach nicht zum G92, da bräuchte es schon mindestens DDR4 @1,6Ghz und mehr!

Die neue Geforce2 ist geboren, ganz toll NV! :uup:

Wann kommt endlich mal was Richtiges???

Gast
2007-11-29, 19:19:12
Das Hautproblem ist eben, das diese Einsparungen bei High-End GPUs nicht zu suchen haben.

Wenn die GTS-512 widerum schneller ist als ne GTX, dann kränkelt sie noch mehr an Bandbreite als die echte GTX, denn was nützt erhöhte Rohleistung, wenn stattdessen Bandbreite beschnitten wird?

Für Besitzer von GTX/Ultra Karten wärs meines erachtens fast schon ein Downgrade.
768 > 1024 MB, aber 384 bit > 256 bit.

Nun, was spricht nun der dicke Speicher, wenn bei jedem Zugriff auf eben diesen, die Bandbreite limitiert? Nicht allzu viel.
Wenn die Rohleistung schon höher ist, möchte man das natürlich nutzen - mehr AA, höhere Auflösungen.

Mir wärs lieber, NVIDIA würde mal ne 1 GB Karte als Standard anbieten, sonst setzen die sich nie durch. Diese der Kartenbauer entscheidet-Mentalität führt immer nur zu nutzlosen Designs...

Spieleentwickler gehen bekanntlich von der Masse aus und wenn jetzt wieder 512MB Karten kommen, bleiben wir auch noch etliche Jahre bei dieser Menge - also wird sich auch die Qualität der Texturen nur minimal verbessern können, dumm gelaufen...

LovesuckZ
2007-11-29, 19:22:48
Solange wie es keine Speichersteine mit 128mb gibt, ist es wohl kaum möglich 1024mb als Standard anzubieten.
Ansonsten sollen die neuen Karten eine wesentlich bessere Margen bieten. Die 8800GTS ist nicht nur schneller als die alte, sondern auch für nVidia wesentlich billiger zu fertigen.

Gast
2007-11-29, 19:31:56
Solange wie es keine Speichersteine mit 128mb gibt, ist es wohl kaum möglich 1024mb als Standard anzubieten.

Dann solltest du dir aber auch mal die Frage stellen, wie es ATI gelingen konnte, die 2900Pro mit 1024MB GDDR4 @ 925 MHz für knapp 250€ abzuverkaufen... das gelang (vorallem zu diesem Preis) schließlich auch. ;)

Klar ist der G92 nur deswegen entstanden, weil er günstiger ist. Sonst hätten die das Interface auch nicht verkleinert. Das dumme an der ganzen Sache ist, das daraus kein echter Mehrwert für den Käufer entsteht oder ein Kaufanreiz fehlt.

Diese Mehrleistung mag zwar voll und ganz bei der 8800GT zutreffen und dort besteht das Problem in dieser Form kaum, denn die 200€ Karte wird wohl vorzugsweise auf Rechnern einzug halten, die z.B. noch nen 22" TFT mit 1680er Auflösung haben. Aber als High-End User mit 1920 / 4+ AA taugt weder die eine, noch die andere Lösung als "Upgrade" bisheriger GTXen oder Ultras.

Ich will gar nicht wissen, wie die Multi-GPU Benchmarks einer GTS-512/1024 bei 2560x1600 4xAA ausfallen werden ...

James Ryan
2007-11-29, 19:45:27
Die neue Geforce2 ist geboren, ganz toll NV! :uup:


Alles wie damals, da war NVIDIA auch konkurrenzlos. ;D

MfG :cool:

LovesuckZ
2007-11-29, 19:53:52
Dann solltest du dir aber auch mal die Frage stellen, wie es ATI gelingen konnte, die 2900Pro mit 1024MB GDDR4 @ 925 MHz für knapp 250€ abzuverkaufen... das gelang (vorallem zu diesem Preis) schließlich auch. ;)

Deswegen machte nVidia Gewinn und die Grafikkartenabteilung von AMD Minus. :P


Klar ist der G92 nur deswegen entstanden, weil er günstiger ist. Sonst hätten die das Interface auch nicht verkleinert. Das dumme an der ganzen Sache ist, das daraus kein echter Mehrwert für den Käufer entsteht oder ein Kaufanreiz fehlt.

Ein geringerer Stromverbrauch ist kein Kaufanreiz? :confused:


Diese Mehrleistung mag zwar voll und ganz bei der 8800GT zutreffen und dort besteht das Problem in dieser Form kaum, denn die 200€ Karte wird wohl vorzugsweise auf Rechnern einzug halten, die z.B. noch nen 22" TFT mit 1680er Auflösung haben. Aber als High-End User mit 1920 / 4+ AA taugt weder die eine, noch die andere Lösung als "Upgrade" bisheriger GTXen oder Ultras.

Die 8800GTS ist kein Upgrade. Nicht deine Fantasievorstellung mit der Wirklichkeit vertauschen.


Ich will gar nicht wissen, wie die Multi-GPU Benchmarks einer GTS-512/1024 bei 2560x1600 4xAA ausfallen werden ...

Öh, ja. :rolleyes:

Gast
2007-11-29, 20:01:51
Deswegen machte nVidia Gewinn und die Grafikkartenabteilung von AMD Minus. :P

Übertrieben... immerhin hat die 2900Pro neben den 1024MB, noch ein 512 bit Interface und kam in 80nm daher!!

Dagegen wären 1024MB @ 256 bit @ 65 nm Chip doch ein Witz. Selbst ATI hätte mit solch einer Reduzierung ordentlich was gespart bei der gleichen Karte.

Ein geringerer Stromverbrauch ist kein Kaufanreiz? :confused:

Definitiv nicht für High-End Besitzer (tauscht du den 50W NVIDIA Chipset gleich mit? ;D) Der Wertverlust durch den Tausch ist zum Teil größer, als der Gewinn durch den geringeren Verbrauch ...

Nach dem jetzigen Stand ist die 8800-GTS auch nicht in jedem Fall besser. Sobald Bandbreite zählt, wird sie ordentlich federn lassen müssen. Sie kann daher auch mal langsamer sein.

Und du würdest wirklich, deine GTX/Ultra unter Wert verkloppen um dafür eine Karte zu holen, die weniger Bandbreite, weniger Verbrauch aber auch manchmal weniger Leistung hat? Ich nicht. ;)

Dann auch noch der ganze Aufwand: Ausbauen, verkaufen, verpacken... wozu das ganze?

Spasstiger
2007-11-29, 20:08:46
Ich befürchte schon, dass die 8800 GTS 512 MB über 300€ kosten und somit gegenüber der 8800 GT für dann vielleicht 210€ ein eher schlechter Deal sein wird. Ich will mehr Speicherbandbreite und mehr Speicher für mehr Power mit 4x bis 8xTransparenz-AA und Hybrid-AA in 1680x1050. :)

HOT
2007-11-29, 20:12:51
Wenn man sich die Karte so anschaut, stellt man schnell fest, dass mit der genausowenig TripleSLI drin ist wie mit der GT. Die haben halt nur einen Connector...
TripleSLI bleibt nur für G80 Karten interessant. Irgendwie finde ich das unverständlich, weil NV ja darauf setzen wollte.

Adam D.
2007-11-29, 20:17:26
Hmm, irgendeine Berechtigung für GTX und Ultra muss es halt noch geben. Und die ist TSLi.

LovesuckZ
2007-11-29, 20:21:02
Ich befürchte schon, dass die 8800 GTS 512 MB über 300€ kosten und somit gegenüber der 8800 GT für dann vielleicht 210€ ein eher schlechter Deal sein wird. Ich will mehr Speicherbandbreite und mehr Speicher für mehr Power mit 4x bis 8xTransparenz-AA und Hybrid-AA in 1680x1050. :)

Du musst erstmal eine 8800GT für 210€ erwischen. So wie es scheint, hat nVidia doch keine Anpassung der Preise vorgenommen. Immerhin ist die 8800GT für diesen Preis (edit: 250€) in sehr vielen Läden zu haben.

Und du würdest wirklich, deine GTX/Ultra unter Wert verkloppen um dafür eine Karte zu holen, die weniger Bandbreite, weniger Verbrauch aber auch manchmal weniger Leistung hat? Ich nicht

Das muss jeder für sich entscheiden. Immerhin handelt es sich bei den GTX und Ultra-Karten nicht um solchen Krüppel wie bei der 2900XT.

AnarchX
2007-11-29, 20:21:28
Solange wie es keine Speichersteine mit 128mb gibt, ist es wohl kaum möglich 1024mb als Standard anzubieten.

Gibt es :
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5991636&postcount=522

Würde mich auch nicht wundern, wenn Samsung diese auch im nicht öffentlichen Angebot hat.

LovesuckZ
2007-11-29, 20:23:07
Gibt es :
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5991636&postcount=522

Würde mich auch nicht wundern, wenn Samsung diese auch im nicht öffentlichen Angebot hat.

900Mhz - nicht gerade die Welt, oder?

Spasstiger
2007-11-29, 20:23:29
Ich glaube, ich werde mir Crysis noch eine Weile aufsparen und auf die nächsten High-End-Karten warten (damit meine ich nicht die Dual-Chip-Lösungen). Dann werd ich zwar etwas mehr Geld raus hauen, hab aber auch überproportional mehr Freude als mit den suboptimalen derzeitigen Lösungen.
Außerdem wirds mir mein Studium danken, wenn ich nicht mitten im Semester ein Rechnerupgrade vornehme. ;)

AnarchX
2007-11-29, 20:33:05
900Mhz - nicht gerade die Welt, oder?
Ist eben die Frage wieviel mehr man für die 1GiB Version ausgeben will bzw. was sie kosten soll, bei anderen Karten wird der Mehrspeicher günstig erkauft aber mit deutlich langsameren Speicher (z.B. 8600GTs 512MiB mit 500MHz GDDR2), wo ~900MHz gegenüber 970MHz ja noch recht annehmbar wären.
Mal wie Zotac bei ihrer kommenden 1GiB-Version vorgehen wird, die ja sogar 1.0ns Samsung versprochen haben.

myopF
2007-11-29, 20:34:56
hm ich denke die geringe mehrleistung liegt unter anderem auch daran das bei der gt kurzfristig ein cluster mehr als geplant freigeschaltet wurde (korrigiert mich wenn ich da gerüchten aufgessesen bin).
ich hatte gehofft das die karte tsli fähig wäre. mit der 1gb version und gescheitem speicher hätte man die unrentablere ultra (chipgröße) in rente schicken können.

LovesuckZ
2007-11-29, 21:01:15
Ist eben die Frage wieviel mehr man für die 1GiB Version ausgeben will bzw. was sie kosten soll, bei anderen Karten wird der Mehrspeicher günstig erkauft aber mit deutlich langsameren Speicher (z.B. 8600GTs 512MiB mit 500MHz GDDR2), wo ~900MHz gegenüber 970MHz ja noch recht annehmbar wären.

Es handelt sich hier um 1.1ns Speicher. Ich würd' nicht davon ausgehen, dass der Speicher auf 900MHz läuft. So wie der 1.0ns nicht wirklich für den Betrieb von 1000MHz ausgelegt ist, wird es wohl bei dem 1.1ns nicht anders aussehen.
Daher schätze ich, wäre man wohl mit 800MHz an den Start gegangen.

Die_Allianz
2007-11-29, 21:01:36
hm ich denke die geringe mehrleistung liegt unter anderem auch daran das bei der gt kurzfristig ein cluster mehr als geplant freigeschaltet wurde (korrigiert mich wenn ich da gerüchten aufgessesen bin).

gute frage. jeder plappert das immer nach, aber woher kommt die behauptung eigentlich?

LovesuckZ
2007-11-29, 21:03:43
gute frage. jeder plappert das immer nach, aber woher kommt die behauptung eigentlich?

Nun, macht muss die Umstände betrachten. Der Tradeoff bei den G80 Karten lag bei 6 Cluster - etwa 70% an verkaufbaren Chips.
nVidia verwendet 6 Cluster G92 Chips für den Laptopmarkt. Ich denke, die 8800GT war schon immer mit 7 Cluster geplant. Jedoch auch mit 6 Cluster wäre man bei den jetzigen Taktraten wesentlich schneller als eine 8800GTS. Das Portfolio wäre daher so oder so im Arsch.

dargo
2007-11-29, 21:11:00
Du musst erstmal eine 8800GT für 210€ erwischen. So wie es scheint, hat nVidia doch keine Anpassung der Preise vorgenommen. Immerhin ist die 8800GT für diesen Preis (edit: 250€) in sehr vielen Läden zu haben.

Nö, vor ein paar Tagen haben einige hier im Forum eine für 200€ bekommen.

Gast
2007-11-29, 21:12:04
Die neue GTS mit 300€ und mehr hat ein schlechtes P/L Verhältnis, die wenigen % mehr Leistung zur GT sind den Mehrpreis nicht Wert, da man eine GT für 230€ und weniger bekommen kann (wenn man kein N00b ist).
Und mit dem 256SI und 512mb Vram bricht die in höheren Auflösungen und Qualitätseinstellungen genauso ein wie die GT.

GeneralHanno
2007-11-29, 21:19:54
Ist eigentlich schon bekannt, mit welcher VID die 8800GTS512 ausgeliefert werden soll :confused:

AnarchX
2007-11-29, 21:24:44
Jedoch auch mit 6 Cluster wäre man bei den jetzigen Taktraten wesentlich schneller als eine 8800GTS. Das Portfolio wäre daher so oder so im Arsch.
Wer sagt, dass diese Taktraten so geplant waren? ;)
Immerhin sollte die Karte ja mal 8700GTS heißen.

Gast
2007-11-29, 21:25:54
Ich freue mich jetzt schon auf den CB-Test, da wird die neue GTS(G92) bei Dirt und Crysis bei 4xAA+16AF schön auf die Fresse bekommen und sich wohl noch hinter der XT und GTS(G80) einreihen dürfen.

LovesuckZ
2007-11-29, 21:27:30
Wer sagt, dass diese Taktraten so geplant waren? ;)
Immerhin sollte die Karte ja mal 8700GTS heißen.

Aha, sollte die Karte mit 6 Cluster und 400/1000/600MHz auf dem Markt kommen? :rolleyes:

AnarchX
2007-11-29, 21:34:17
Aha, sollte die Karte mit 6 Cluster und 400/1000/600MHz auf dem Markt kommen? :rolleyes:
Möglich, aber wohl eher 4-5 Cluster mit etwas höheren Taktraten, vielleicht soetwas wie die 8800M-GTS.

NV glaubte ja eine zeitlang, dass RV670 doch um einiges weniger ist, als was er schliesslich geworden ist. Als man dies erfuhr wurden ein paar Roadmaps umgeworfen, was nun den gewissen Verwirrungen, wie der viel zu starken "8800 GT" und drei verschiedenen 8800 GTS führte.

Aber das ist hier eher OT und da sich dein Diskussionstil wieder eine bestimmte Richtung bewegt -> E.O.D.

LovesuckZ
2007-11-29, 21:42:39
NV glaubte ja eine zeitlang, dass RV670 doch um einiges weniger ist, als was er schliesslich geworden ist. Als man dies erfuhr wurden ein paar Roadmaps umgeworfen, was nun den gewissen Verwirrungen, wie der viel zu starken "8800 GT" und drei verschiedenen 8800 GTS führte.

Deswegen auch dieser Shrink, gell? :rolleyes:
Wir sollten doch einfach nur die Tatsachen ins Auge sehen: Wenn beim G80 70% der Chips mindesten 6 funktionsfähige Cluster beinhalten, sollte dies beim G92 deutlich höher sein. Man shrinkt keinen Chip, um dann nur die Hälfte zu verwenden. Das ist wirtschaftlich unsinnig, vorallen, wenn man dafür Chips verwendet werden müssen, die weitaus mehr aktive Cluster beinhalten.


Aber das ist hier eher OT und da sich dein Diskussionstil wieder eine bestimmte Richtung bewegt -> E.O.D.

Wie wäre es endlich mit Argumente? Ich habe bis jetzt keine Folie gesehen, die von einer 8700GTS gesprochen hätten.

Marty98
2007-11-29, 21:44:17
Soll Nvidia zaubern?

Die sehr niedrigeren Idle-Verbräuche sind durch PowerPlay zustandegekommen.

Die kommen nur durch den 300 MHz Takt und die Spannungssenkung zu stande.

Gast
2007-11-29, 21:49:33
Die kommen nur durch den 300 MHz Takt und sie Spannungssenkung zu stande.

Wat meinste was Powerplay ist? Und wenn NV das nicht gebacken bekommt ist das echt Arm.
Auserdem wie soll es sonst gehen, wenn man nicht den Takt+ Spannung senkt?

Deine Kompetenz hat man in deinen Freds ja schon gesehen....lol

AnarchX
2007-11-29, 21:53:00
Deswegen auch dieser Shrink, gell? :rolleyes:
Wir sollten doch einfach nur die Tatsachen ins Auge sehen: Wenn beim G80 70% der Chips mindesten 6 funktionsfähige Cluster beinhalten, sollte dies beim G92 deutlich höher sein. Man shrinkt keinen Chip, um dann nur die Hälfte zu verwenden. Das ist wirtschaftlich unsinnig, vorallen, wenn man dafür Chips verwendet werden müssen, die weitaus mehr aktive Cluster beinhalten.
G92 ist nunmal vielleicht nicht das, was G92 früher war, wie schon gesagt Roadmaps (inkl. Codenames) wurden umgeworfen.;)


Wie wäre es endlich mit Argumente? Ich habe bis jetzt keine Folie gesehen, die von einer 8700GTS gesprochen hätten.
Dass eine 8800 GT schneller als eine 8800 GTS ist und das Vorhandensein von 3 verschiedenen SKUs, die alle als 8800 GTS bezeichnet werden, ist doch Argument genug, dass es hier gewisse Dinge nicht so abliefen wie geplant.

Aber wie schon gesagt E.O.D., bevor du dich wieder darüber beschwerst, dass wir viel zu wenig für GraKas bezahlen und ATi generell schuld ist... ;D

Die kommen nur durch den 300 MHz Takt und sie Spannungssenkung zu stande.
AFAIK soll Powerplay auch gewisse Chipteile abschalten.

LovesuckZ
2007-11-29, 21:59:53
G92 ist nunmal vielleicht nicht das, was G92 früher war, wie schon gesagt Roadmaps (inkl. Codenames) wurden umgeworfen.;)

Der G92 ist genau das, wie man ihn designt hat. Es gibt keinen anderen Chip außer den G92, der im Herbst auf den Markt kommen sollte.


Dass eine 8800 GT schneller als eine 8800 GTS ist und das Vorhandensein von 3 verschiedenen SKUs, die alle als 8800 GTS bezeichnet werden, ist doch Argument genug, dass es hier gewisse Dinge nicht so abliefen wie geplant.

Um das zu behaupten, müsste du wissen, wie die aus deiner Sicht eigentliche 8800GT hätte aussehen müssen. Leider sehe ich keine Folie oder andere Argumente. Selbst mit 6 Cluster bei diesem Chip wären Taktraten unter 600/1500MHz Verschwendung.

Henroldus
2007-11-29, 22:24:57
Nö, vor ein paar Tagen haben einige hier im Forum eine für 200€ bekommen.
nun da hatte ich aber glück, sie war nur ca 2h lieferbar.
bei ebay gehen die teils noch für über 300eur weg :eek: so krank wie das ist.
ich behalt sie trotzdem, der wiederverkaufswert wird nicht allzu sehr sinken und der aufpreis der GTS rechtfertigt nicht die 10% mehrleistung

Marty98
2007-11-29, 23:22:34
AFAIK soll Powerplay auch gewisse Chipteile abschalten.

Eben, soll. Ich glaube aber es ist wohl nur der 2D Modus der eine Rolle spielt. Sonst würde die Temp bei 669 MHz Idle Desktop (0% GPU Last) nicht genauso hoch sein wie bei 100% GPU Last (jeweils 85C+ bei mir).

Marty98
2007-11-29, 23:25:11
Deine Kompetenz hat man in deinen Freds ja schon gesehen....lol

Das wird Thread geschrieben.

Gast
2007-11-30, 00:37:47
Das wird Thread geschrieben.


ach, echt?

myopF
2007-11-30, 01:05:01
die lieferkeit ist aber ein schweres indiz gegen das argument der verschwendung.
ein chip mit 6 (aktiven) clustern wäre jedenfalls ne ecke einfacher zu fertigen.
und die intakten hätte man ja für die gts bevoraten können oder halt früher launchen.
sieht imho eher nach einem schnellschuß wegen der 3870 aus.

Gortha
2007-11-30, 01:07:50
Ich muß sagen, dass die GTS ungefähr um die Größenordnung wie von mir erwartet schneller ist als die GT.

Bei Standardtakten kassiert die G92GTS diese dort getestete OC GTX in Crysis.
Das ist doch sehr zufriedenstellend für eine wesentlich günstigere Karte.


An die paar Freaks die in höheren Auflösungen als 1600x1200 zocken und dann auch noch
meinen AA und AF groß dazuzuballern. Ihr seid die Ausnahme. Ihr seid so wenige, dass es
fast vollkommen irrelevant ist. Für einige von euch reicht ja anschenend noch nichtmal SLI -
nein Triple-SLI, welch Schwachsinn, muß her. Und ihr seid enttäuscht das die GTS
diesen nicht bieten. :rolleyes:
Diese neue GTS soll halt eine GTS sein. Es wurde euch keine GTX² versprochen.

Als Single-Karte ist sie meiner Meinung im aktuellen
Markt ein tolles Angebot, wenn sie um 250€+ liegen wird.
Evtl. bekommt die 1024er-Version ja noch schnelleren Speicher, dann würde ich sie erst recht
jeder anderen 8800er vorziehen.
Und selbst wenn nicht, ist man mit 1024 MB etwas zukunftssicherer.

Wer in geringen bis moderaten Auflösungen spielt, z.B. in 1024x bis 1600x und etwas AA
und/oder AF will kann mit ner GT und auch der GTS ne Zeitlang, sehr gut leben.

MfG

LovesuckZ
2007-11-30, 01:27:46
die lieferkeit ist aber ein schweres indiz gegen das argument der verschwendung.

Ich gehe stark davon aus, dass die Produktion eher spät angelaufen ist und somit die Verfügbarkeit nicht wirklich überragend ist.


ein chip mit 6 (aktiven) clustern wäre jedenfalls ne ecke einfacher zu fertigen.
und die intakten hätte man ja für die gts bevoraten können oder halt früher launchen.

Kommt drauf an, wie das Portfolio aussieht. Anscheinend verwendet nVidia die 6 Cluster für den Mobile-Markt. Ausserdem muss man sehen, dass wir den Punkt nicht kennen, wo weniger Cluster keinen Sinn machen. Wie schon gesagt, war dieser Punkt bei den G80 bei 6 Cluster - 70% der Chips am Anfang konnten verkauft werden.
Es ist mir jedoch unerklärlich, warum man nicht einfach einen 5 Cluster Chip entworfen hat. Damit wäre man wahrscheinlich genauso groß wie der r670 und mit entsprechenden Taktraten auf dem selben Niveau wie die 8800GT.


sieht imho eher nach einem schnellschuß wegen der 3870 aus.

Welche Karte ist lieferbar und welche nicht? ;)

myopF
2007-11-30, 02:07:21
naja bei der 3870 scheint die pcb ausrede zumindest plausibel zu sein, der 3850 is ja derselbe chip nur niedriger getaktet, aber der is recht gut verfügbar (amd hat aber auch gesagt sie wollen sich auf die 3850 konzentrieren afair) was zumindest gegen fertigungsprobleme beim chip spricht.
aber das sind alles nur indizien :D

übrigens wegen der 6 cluster g92 mobilegpu, wie kommen die auf die 5w idle? krasse selektierung? ausserdem müsste dann ja eig bei jedem g92 das 2d profilzeug (technisch) kein problem sein.

Gast
2007-11-30, 02:20:58
naja bei der 3870 scheint die pcb ausrede zumindest plausibel zu sein, der 3850 is ja derselbe chip nur niedriger getaktet, aber der is recht gut verfügbar (amd hat aber auch gesagt sie wollen sich auf die 3850 konzentrieren afair) was zumindest gegen fertigungsprobleme beim chip spricht.
aber das sind alles nur indizien :D



Die haben auch die Prduktion jetzt erhöht für die 70iger

Zitat: "....Ausserdem hat AMD den Anteil der HD 3870-Karten bei der Produktion erhöht. Bisher stand hier die HD 3850 im Vordergrund."

http://www.gamestar.de/news/pc/hardware/grafikkarten/amd/1475844/amd.html

Gast
2007-11-30, 07:40:10
Eben, soll. Ich glaube aber es ist wohl nur der 2D Modus der eine Rolle spielt. Sonst würde die Temp bei 669 MHz Idle Desktop (0% GPU Last) nicht genauso hoch sein wie bei 100% GPU Last (jeweils 85C+ bei mir).

Das ist doch keine Begründung. Im idle-Desktop steht der Lüfter faktisch, unter Last dreht es zumindest halbwegs auf. Klar das die Temperatur in die Höhe schießt, wenn du die Karte im idle übertaktest, wo der Lüfter nur für 300Mhz und gesenkte Spannung eingestellt ist.

Gast
2007-11-30, 08:02:41
[QUOTE=LovesuckZ;6071851Es ist mir jedoch unerklärlich, warum man nicht einfach einen 5 Cluster Chip entworfen hat. Damit wäre man wahrscheinlich genauso groß wie der r670 und mit entsprechenden Taktraten auf dem selben Niveau wie die 8800GT.
[/QUOTE]

Erstens wäre man mit 5 Cluster noch immer größer als RV670 (zumindest in 65nm) und zum anderen bräuchte man für die Leistung der 8800GT mit nur 5 Cluster schon Taktraten von 840Mhz Chip- und 2100Mhz Shadertakt.

Henroldus
2007-11-30, 09:25:45
Das ist doch keine Begründung. Im idle-Desktop steht der Lüfter faktisch, unter Last dreht es zumindest halbwegs auf. Klar das die Temperatur in die Höhe schießt, wenn du die Karte im idle übertaktest, wo der Lüfter nur für 300Mhz und gesenkte Spannung eingestellt ist.
eine ordentliche Lüftersteuerung sollte auf einen Temperatursensor basieren!

Gast
2007-11-30, 11:15:55
eine ordentliche Lüftersteuerung sollte auf einen Temperatursensor basieren!

Tut sie auch. Nur der dreht eben erst ab ~88°C hoch. Sonst steht der Lüfter fast, was im idle bei 300Mhz und gesenkter Spannnung ausreicht für unter 50°C.

LovesuckZ
2007-11-30, 11:27:55
Erstens wäre man mit 5 Cluster noch immer größer als RV670 (zumindest in 65nm) und zum anderen bräuchte man für die Leistung der 8800GT mit nur 5 Cluster schon Taktraten von 840Mhz Chip- und 2100Mhz Shadertakt.

Texturleistung ist doch vollkommen unbedeutend, solange wie man nicht auf Späße ala Supersampling setzt. Bei 40 TMUs wäre man sowieso locker vor dem Konkurrenten und einem Shadertakt von 2000-2100MHz sollte bei einem DIE von ca. 230mm² nichts im Wege stehen.

MadManniMan
2007-11-30, 11:34:43
Texturleistung ist doch vollkommen unbedeutend, solange wie man nicht auf Späße ala Supersampling setzt.

Aha. Aus diesem Grund ist der R600 auch so nah am G80 bei STALKER, weil ja Texturleistung bei AF unwichtig ist :|

Marty98
2007-11-30, 12:41:29
naja bei der 3870 scheint die pcb ausrede zumindest plausibel zu sein, der 3850 is ja derselbe chip nur niedriger getaktet, aber der is recht gut verfügbar (amd hat aber auch gesagt sie wollen sich auf die 3850 konzentrieren afair) was zumindest gegen fertigungsprobleme beim chip spricht.

Wieso spricht es gegen Fertigungsprobleme? Vielleicht lassen sich viele Chips nicht auf die 3870 Taktraten bringen.

Marty98
2007-11-30, 12:43:46
Das ist doch keine Begründung. Im idle-Desktop steht der Lüfter faktisch, unter Last dreht es zumindest halbwegs auf. Klar das die Temperatur in die Höhe schießt, wenn du die Karte im idle übertaktest, wo der Lüfter nur für 300Mhz und gesenkte Spannung eingestellt ist.

Du meinst also dass bei 669 MHz die Lüfterdrehzahl falsch ist?

deekey777
2007-11-30, 12:45:54
Texturleistung ist doch vollkommen unbedeutend, solange wie man nicht auf Späße ala Supersampling setzt. Bei 40 TMUs wäre man sowieso locker vor dem Konkurrenten und einem Shadertakt von 2000-2100MHz sollte bei einem Die von ca. 230mm² nichts im Wege stehen.
Was hat jetzt die Texturleistung mit Supersampling zu tun.
Die Texturleistung ist und bleibt enorm wichtig, selbst wenn sich das "ALU-TEX-Verhältnis" zugunsten der ALU-Last verändert.

-/\-CruNcher-/\-
2007-11-30, 12:46:16
Eine andere Frage wäre ist die Stalker Engine überhaupt eine gut optimierte und effiziente Engine und wenn ja, wieso wird sie dann nicht zur Lizenzsierung freigegeben?
3D Engines müssen auf jeder Hardware gleichgut optimiert sein am Besten einen eigenen Path benutzen ansonsten ist eine 3D Engine wertlos.

myopF
2007-11-30, 14:22:17
Wieso spricht es gegen Fertigungsprobleme? Vielleicht lassen sich viele Chips nicht auf die 3870 Taktraten bringen.
die chips sind intakt, taktung ist dann idr nur eine frage der selektion.
desweiteren haben wir ja bereits einige 3850 in der nähe der 775 mhz der 3870 gesehen, trotz des pll bugs im bios. jetzt ist nur die frage ob die 70er ne andere vid hat was die these unterstützen würde.
imho sprechen die indizien für ati, ändert aber an der "real situation" leider nix ;)

MadManniMan
2007-11-30, 14:28:28
Eine andere Frage wäre ist die Stalker Engine überhaupt eine gut optimierte und effiziente Engine und wenn ja, wieso wird sie dann nicht zur Lizenzsierung freigegeben?
3D Engines müssen auf jeder Hardware gleichgut optimiert sein am Besten einen eigenen Path benutzen ansonsten ist eine 3D Engine wertlos.

Is ja sowas von klar, daß Du eine solche Frage stellst. Wetten, daß es Dir scheiegal wäre, wenn die nV-Karten hier nicht besser abschneiden würden? :rolleyes:

Also: Stalker nutzt Parallax Mapping - und zusammen mit AF schreit das nicht nur nach Shaderpower, sondern auch nach ordentlich Füllrate. Siehe Gothic 3: Parallax Mapping, auch nur AF möglich, ATi steht schlecht da.

Und was willst Du mit Deinen "Paths"? Es sollte gerade vermieden werden, unterschiedliche zu benutzen. Ein guter SM2, SM3 oder SM4 Pfad und gut ist.

:|

Marty98
2007-11-30, 14:30:24
die chips sind intakt, taktung ist dann idr nur eine frage der selektion.
desweiteren haben wir ja bereits einige 3850 in der nähe der 775 mhz der 3870 gesehen, trotz des pll bugs im bios. jetzt ist nur die frage ob die 70er ne andere vid hat was die these unterstützen würde.
imho sprechen die indizien für ati, ändert aber an der "real situation" leider nix ;)

Eben - es ist eine Sache der Selektion. Die schlechteren werden zu 3850 und die besseren zu 3870. Deshalb kann es immer noch sein dass nicht genug "gute" Chips vorhanden sind, wodurch fast alles zu 3850 wird.

LovesuckZ
2007-11-30, 14:32:58
die chips sind intakt, taktung ist dann idr nur eine frage der selektion.
desweiteren haben wir ja bereits einige 3850 in der nähe der 775 mhz der 3870 gesehen, trotz des pll bugs im bios. jetzt ist nur die frage ob die 70er ne andere vid hat was die these unterstützen würde.


Die 3870 soll irgendwas um die 1,34V und die 3850 um die 1,2xV haben.

PCGH_Carsten
2007-11-30, 14:53:43
Tut sie auch. Nur der dreht eben erst ab ~88°C hoch. Sonst steht der Lüfter fast, was im idle bei 300Mhz und gesenkter Spannnung ausreicht für unter 50°C.
So schaut's mal aus.

Gast
2007-11-30, 15:26:34
Du meinst also dass bei 669 MHz die Lüfterdrehzahl falsch ist?

Nein, die Lüfterdrehzahl bleibt solange am minimum, bis eine gewissen Temperatur (ca. 90°C) überschritten wird. Das die Karte bei 669 Mhz wärmer wird als bei 300Mhz sollte ja wohl nicht verwundern, oder? Egal wie sehr du die Karte blastest, sie wird nie viel mehr als 90°C erreichen, da ab dann der Lüfter solage hochdreht, bis diese Grenztemperatur wieder unterschritten wird.

Gast
2007-11-30, 15:27:21
Die 3870 soll irgendwas um die 1,34V und die 3850 um die 1,2xV haben.

3870 1.20-1.26V, 3850 keine Ahnung.

Gast
2007-11-30, 15:30:46
Extrem schade und fehlt, Übertaktbarkeit mit dem neuen Kühler.

Ich sag nur "WOW", gleichstand mit dieser Karte

BFG NVIDIA GeForce 8800 GTX OC2 768MB PCIe
Core Clock 626MHz (vs. 575MHz standard)
Shader Clock 1450MHz (vs. 1350MHz standard)

Die karte ist schon meine aber mit 1024 MB ^^

dildo4u
2007-11-30, 15:30:56
Alternate will 300€ für die Gigabyte GeForce 8800 GTS (G92) 512mb haben.

http://geizhals.at/eu/a298333.html

http://www.hardwareschotte.de/hardware/preise/proid_9213179/preis_GIGABYTE+GeForce+8800GTS+GV-NX88S512H-B

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/gigabyte_aufmerksamkeit_g92_gts/

Wenn das NDA fällt wird Alternate sicher auch die Bezeichung ändern.

dargo
2007-11-30, 15:50:29
Alternate will 300€ für die Gigabyte GeForce 8800 GTS (G92) 512mb haben.

http://geizhals.at/eu/a298333.html

Schön, dann kann man von ca. 270€ ausgehen. Schließlich gehört Alternate nicht zu den preisgünstigten Anbietern. Also wenn die Verfügbarkeit stimmt wären sogar 260€ drin.

Gast
2007-11-30, 16:04:51
Schließlich gehört Alternate nicht zu den preisgünstigten Anbietern. Also wenn die Verfügbarkeit stimmt wären sogar 260€ drin.

Öhm, ich glaube du hast da was verpasst. Bei beworbenen Produkten ist Alternate zum Teil sogar der günstigste Anbieter schlechthin, so wie es z.B. bei der 7800GS+ oder GX2 war ...

Ich würde micht nicht zu früh freuen!

LovesuckZ
2007-11-30, 16:08:19
Schön, dann kann man von ca. 270€ ausgehen. Schließlich gehört Alternate nicht zu den preisgünstigten Anbietern. Also wenn die Verfügbarkeit stimmt wären sogar 260€ drin.

Ja, wie bei jeder neuen Karten nach zwei bis drei Monaten.
Alternate ist am Start meisten am günstigsten, da sie die ersten Karten erhalten.

Gast
2007-11-30, 16:11:36
Also die neue 8800 GTS ist ne Enttäuschung für mich, kommt nicht an die GTX ran, kaum brauchbar schneller als die 8800 GT, Speicherinterface limitiert, nur 512MB Vram, dabei limitiert dieser vermutlich schon die 8800 GT, wieder ein inaktzeptabler Stromverbrauch, besonders unter Idle und dann vermutlich rund 100€ teurer als 8800GT und 150€ teurer als HD3870. Auch wenn man die NV-Fanboys berücksichtigt, dürfte es diese Karte schwer haben.

myopF
2007-11-30, 16:12:04
Eben - es ist eine Sache der Selektion. Die schlechteren werden zu 3850 und die besseren zu 3870. Deshalb kann es immer noch sein dass nicht genug "gute" Chips vorhanden sind, wodurch fast alles zu 3850 wird.
mir gings es primär um den prozess an sich, bzw die yield rate der verwendbaren gpus. und umso länger der prozess läuft umso besser werden idr die taktmöglichkeiten. und wie gesagt man hat leider noch net genug daten um zu sagen mit x volt bekommt man x % der 50er auf 70er niveau.
das wird noch ne weile dauern.
bis jetzt sinds halt nur indizien, ich zumindest würde es amd gönnen, die haben eh schon genug probleme und ein gesunder wettbewerb is für meine geldbörse auch besser :D

LovesuckZ
2007-11-30, 16:16:12
Also die neue 8800 GTS ist ne Enttäuschung für mich, kommt nicht an die GTX ran,

Die Karten sollen die alte 8800 GTS ersetzen.

dildo4u
2007-11-30, 16:20:09
Also die neue 8800 GTS ist ne Enttäuschung für mich, kommt nicht an die GTX ran,
Die einzig verfügbare Review sieht das anders dort überholt eine non OC 8800GTS(G92) eine OC Version der 8800GTX. (BFG OC2 GPU: 626 MHz Speicher: 1000MHz) Da fragt man sich doch wo manche Gäste ihre Geheim Infos her haben. :rolleyes:


"8800GTX stock has pretty much dried up and is overpriced now. The Ultra is just an absolute sick waste of money and the 3870 really has nothing on the new G92 based variant of the 8800GTS. This means that if you’re looking for a top video card this Christmas the 8800GTS 512MB is probably going to be the card you’re looking at"

http://s4.directupload.net/images/071130/zmdy46t4.gif

http://www.tweaktown.com/articles/1234/17/page_17_final_thoughts/index.html

HD-Ronny
2007-11-30, 16:24:49
Also die neue 8800 GTS ist ne Enttäuschung für mich, kommt nicht an die GTX ran, kaum brauchbar schneller als die 8800 GT, Speicherinterface limitiert, nur 512MB Vram, dabei limitiert dieser vermutlich schon die 8800 GT, wieder ein inaktzeptabler Stromverbrauch, besonders unter Idle und dann vermutlich rund 100€ teurer als 8800GT und 150€ teurer als HD3870. Auch wenn man die NV-Fanboys berücksichtigt, dürfte es diese Karte schwer haben.

Zudem kommt ab Februar die Geforce 9000er Serie mit DirectX10.1 und Shader 4.1 .
http://www.winfuture.de/news,36117.html

Gast
2007-11-30, 16:43:33
Zudem kommt ab Februar die Geforce 9000er Serie mit DirectX10.1 und Shader 4.1 .
http://www.winfuture.de/news,36117.html

eben, deswegen ist ja die GTS ne Enttäuschung. Wer gibt schon ca. 350€ aus, nur um zwei Monate bis zur 9000er Serie zu überbrücken. Dann schon lieber unter 200 ne HD3870 kaufen oder warten bis die 8800GT auf unter 220 fällt.

Gast 257
2007-11-30, 16:50:59
Die einzig verfügbare Review sieht das anders dort überholt eine non OC 8800GTS(G92) eine OC Version der 8800GTX. (BFG OC2 GPU: 626 MHz Speicher: 1000MHz) Da fragt man sich doch wo manche Gäste ihre Geheim Infos her haben. :rolleyes:

Wurde da ohne AA getestet?
Was fürn Treiber? Den Crysis-Cheat Treiber? Siehe 3DC-News.
Warum keine höheren Auflösungen mit viel AA?

Ist ja kein wunder, das sich die Vorteile der bisherigen Karten (mehr Speicher, Bandbreite) nicht zeigen, wenn die Testbedingungen so aufgestellt sind, das die neue Karte die besten Bedingungen hat. :rolleyes:

HD-Ronny
2007-11-30, 16:53:27
eben, deswegen ist ja die GTS ne Enttäuschung. Wer gibt schon ca. 350€ aus, nur um zwei Monate bis zur 9000er Serie zu überbrücken. Dann schon lieber unter 200 ne HD3870 kaufen oder warten bis die 8800GT auf unter 220 fällt.

Seh ich doch genauso ;)

dildo4u
2007-11-30, 16:56:27
eben, deswegen ist ja die GTS ne Enttäuschung. Wer gibt schon ca. 350€ aus, nur um zwei Monate bis zur 9000er Serie zu überbrücken. Dann schon lieber unter 200 ne HD3870 kaufen oder warten bis die 8800GT auf unter 220 fällt.
300€ siehe Alternate Link für die 8800GTS und die Geforce 9 kommt whol erstmal nur als Topmodell wären also ca 450-500€.

dildo4u
2007-11-30, 17:02:33
Wurde da ohne AA getestet?
Was fürn Treiber? Den Crysis-Cheat Treiber? Siehe 3DC-News.
Warum keine höheren Auflösungen mit viel AA?

Bei der Auflösung(1920*1200) kannst du AA vergessen bei Crysis selbst mit einer Ultra.

Deathcrush
2007-11-30, 17:05:16
300€ siehe Alternate Link für die 8800GTS und die Geforce 9 kommt whol erstmal nur als Topmodell wären also ca 450-500€.

Egal, her mit dem TOP Modell ^^. Warum sollte ich jetzt von einer GTS auf eine GTS umrüsten. Macht null Sinn. Crysis @Max wird auch mit der neuen GTS ein Problem sein.

Gast 257
2007-11-30, 17:13:31
Bei der Auflösung(1920*1200) kannst du AA vergessen bei Crysis selbst mit einer Ultra.

Coole Ausrede ...

Nein, bei einem Test der ROHLEISTUNG verschiedener Karten sind die frames völlig egal. Du willst NUR die LeistungsDIFFERENZ messen und NICHT die Spielbarkeit!!
Oder sagen wir es so: Wenn wir bei 1280x1024 0xAA testen würden, wäre der Unterschied zwischen langsamster und schnellster Karte bei sagen wir mal maximal 5 %. Jetzt ist dies aber kein Grafiktest, also wird der reale Leistungsunterschied, der z.B. bei der 1920x1200 6xAA in 30% resultieren wurde, NIE sichtbar! Und das , obwohl er in ALLEN Anwendungen, die Grafik limitiert sind, auftritt!

FAKT ist, das die Unterschiede bei allen Anwendungen mit viel AA deutlich zugunsten der bisherigen Karten ausgehen würden. Daher ist dieser Test für die Tonne, noch dazu, weil Crysis vor kurzem noch durch einen Treiber unter Cheatverdacht stand und die sogar dabei schreiben, sie hätten die Werte für GTX und Ultra aus einem anderen Test "übernommen".
Also worth noting is that we've carried over our Crysis test results from when we had both an 8800GTX and Ultra in our lab. You will find these results on page 18.

Der Test ist und bleibt einfach für die Tonne, ob du das sehen willst oder nicht, das ändert nichts daran!

Gast
2007-11-30, 17:20:51
Bei der Auflösung(1920*1200) kannst du AA vergessen bei Crysis selbst mit einer Ultra.

Der Test ist definitiv für die Tonne. Spiele ohne AA und AF zu testen ist ein absoluter Witz. Das dürfte man nicht einmal mit ner betagten X1950 Pro oder 7900GTX machen.

Die 8800GTS wird mit AF und AA dank ihrer 256Bit und 512MB Vram gehörig zusammenbrechen. Sogar die 8800GT bricht wegen dem Vram zusammen, warum sollte das bei der GTS anders sein, die Voraussetzungen sind schließlich die Gleichen.

Gast
2007-11-30, 17:22:22
Der Test ist definitiv für die Tonne. Spiele ohne AA und AF zu testen ist ein absoluter Witz. Das dürfte man nicht einmal mit ner betagten X1950 Pro oder 7900GTX machen.

Die 8800GTS wird mit AF und AA dank ihrer 256Bit und 512MB Vram gehörig zusammenbrechen. Sogar die 8800GT bricht wegen dem Vram zusammen, warum sollte das bei der GTS anders sein, die Voraussetzungen sind schließlich die Gleichen.

Imho führt momentan kein Weg an HD3870 oder 8800GT (unter 250€) vorbei. Alles andere ist total überteuert und demnächst schon total veraltet.

deekey777
2007-11-30, 17:58:53
...
Also: Stalker nutzt Parallax Mapping - und zusammen mit AF schreit das nicht nur nach Shaderpower, sondern auch nach ordentlich Füllrate. Siehe Gothic 3: Parallax Mapping, auch nur AF möglich, ATi steht schlecht da.

...

:|
Beim PM (wie bei allen Bump-Mapping-Verfahren) kommt es auf die (Pixel)Shader-Leistung an.
Warum STALKER ATi nicht schmeckt, ist weiterhin nicht ganz klar.

AnarchX
2007-11-30, 18:15:35
Bei Play.com wird schon eine PNY 8800 GTS 512MB gelistet:
http://img77.imageshack.us/img77/2336/3563944xlv1.jpg
http://www.play.com/PC/PCs/4-/3563944/PNY-Verto-GeForce-8800-GTS-512MB-GDDR3-PCI-Express-x16-Graphics-Card/Product.html#
Specs stimmen nicht ganz.

Aber interessant ist der RRP von £229.99... :|

dargo
2007-11-30, 19:54:41
Imho führt momentan kein Weg an HD3870 oder 8800GT (unter 250€) vorbei. Alles andere ist total überteuert und demnächst schon total veraltet.
Die "richtige" High-End Karte kommt noch von NV. Laut Gerüchten soll es im Februar 2008 so weit sein.

Bei Play.com wird schon eine PNY 8800 GTS 512MB gelistet:
http://img77.imageshack.us/img77/2336/3563944xlv1.jpg
http://www.play.com/PC/PCs/4-/3563944/PNY-Verto-GeForce-8800-GTS-512MB-GDDR3-PCI-Express-x16-Graphics-Card/Product.html#
Specs stimmen nicht ganz.

Aber interessant ist der RRP von £229.99... :|
Was ist denn so interessant an 310€?

Gortha
2007-11-30, 20:32:10
Wurde da ohne AA getestet?
Was fürn Treiber? Den Crysis-Cheat Treiber? Siehe 3DC-News.
Warum keine höheren Auflösungen mit viel AA?

Ist ja kein wunder, das sich die Vorteile der bisherigen Karten (mehr Speicher, Bandbreite) nicht zeigen, wenn die Testbedingungen so aufgestellt sind, das die neue Karte die besten Bedingungen hat. :rolleyes:

Getestet wurde mit: Forceware 169.01 (OC GTX & OC Ultra), Forceware 169.06 (8800GTS 512MB)

KA, ob einer davon der Cheattreiber ist.

Aber ich verstehe dich nicht so ganz, 1920x1200 ist doch schon sehr Bandbreiten- & Speicherhungrig. Ich kann das jetzt nicht genau umrechen,
aber kommt es nicht ungefähr 1600x1200 mit 2xAA oder 1280x960(1024)@4`
aa+8af gleich?
Also viel mehr stellt der Durchschnitt(User) denke ich sowieso nicht ein.

LG
Gortha

Hakim
2007-11-30, 20:34:39
Verdammt irgendwie bringt mir das Stepup Service von evga diesmal nix. Die GTS ist den aufpreis fast nicht wert und die GF9 reihe kommt zu spät :(

Gast
2007-12-01, 02:51:48
Getestet wurde mit: Forceware 169.01 (OC GTX & OC Ultra), Forceware 169.06 (8800GTS 512MB)

Guck mal in die News vom 23. November und davor: http://www.3dcenter.de/news/2007/woche47.php

Wenn die wirklich einen "Cheattreiber" verwendet haben (und das gerade bei Crysis, wo es aufgefallen ist), dann ist das Ergebniss nicht zu gebrauchen. Wir wissen ja nicht, was NVIDIA da alles getan hat, um die Ergebnisse zu pushen. Auch wenn es ein Bug gewesen soll: Wer sagt, das dieser nicht dazu geführt haben könnte, das die Ergebnisse höher ausfallen als sonst? Beliebig fortführbar. ;)

Aber ich verstehe dich nicht so ganz, 1920x1200 ist doch schon sehr Bandbreiten- & Speicherhungrig.

Aber nicht ohne AA+AF. Die Leute die sich ne 1024MB Karten kaufen werden, sind eben diejenigen, die auch Auflösungen ab 1920x1200 4xAA/16xAF (und höher) fahren werden.

Der Durchschnittsuser wird sich eine ~300$ Karte überhaupt nicht leisten. ;)

Es gibt ja auch bei begrenzten (durch den TFT) Auflösungen von 1280x1024 / 1680x1050 die Möglichkeit, alternativ die Qualitätseinstellungen hochzuschraben und das alles spielt den Karten mit mehr Speicher & Bandbreite in die Hände...

Marty98
2007-12-01, 03:23:27
Wenn die wirklich einen "Cheattreiber" verwendet haben (und das gerade bei Crysis, wo es aufgefallen ist), dann ist das Ergebniss nicht zu gebrauchen. Wir wissen ja nicht, was NVIDIA da alles getan hat, um die Ergebnisse zu pushen. Auch wenn es ein Bug gewesen soll: Wer sagt, das dieser nicht dazu geführt haben könnte, das die Ergebnisse höher ausfallen als sonst?

Ein Indiz dagegen ist dass Beiträge wie deiner nur von Gästen kommen.

169.12 ist da und hat gleiche oder bessere Performance wie der angebliche Cheattreiber.

Gast
2007-12-01, 03:34:48
Ein Indiz dagegen ist dass Beiträge wie deiner nur von Gästen kommen.

Ein Indiz ist das höchstens dafür, das du dich nicht ausreichend informierst hast und du an der Intelligenz anderer Leute zweifelst, nur weil sie sich keinen Nickname zulegen möchten. :hammer:

Hier gabs genug Diskussionen zu dem Treiber, einfach mal suchen und nicht labern!

169.12 ist da und hat gleiche oder bessere Performance wie der angebliche Cheattreiber.

Der wurde nicht im Review verwendet, daher irrelevant.

Marty98
2007-12-01, 03:41:10
Ein Indiz ist das höchstens dafür, das du dich nicht ausreichend informierst hast und du an der Intelligenz anderer Leute zweifelst, nur weil sie sich keinen Nickname zulegen möchten. :hammer:

Wenn jemand in Grafikchipforum als Gast postet dann meistens um rumzutrollen. Oft wird auch erst eingelogt, ein Beitrag geschrieben, dann ausgelogt und als Gast der eigene Beitrag bestätigt. Gast-Beiträge sind einfach extrem fanboylastig.

Hier gabs genug Diskussionen zu dem Treiber, einfach mal suchen und nicht labern!

169.04 wurde doch gar nicht bei Tweaktown verwendet.

Arcanoxer
2007-12-01, 05:44:30
Bei geizhals.at tauchen nun auch die ersten auf.

Gigabyte GeForce 8800 GTS (G92) (http://geizhals.at/deutschland/a298333.html) (279€)
XFX GeForce 8800 GTS 650M (G92) (http://geizhals.at/deutschland/a298468.html) (350€)

Doomi
2007-12-01, 10:20:34
also für 280 € würde ich mir eine kaufen, 290 € inkl. Porto ist bei mir aber die Schmerzgrenze für so eine Karte. Wenn ich damit in meinen Einstellungen mit 1600 x 1200 und 8 AF + 2 AA ( mehr nutze ich nie ) wirklich so schnell wie mit einer non OC 8800 ultra fahre dann sind mir die 290 € das wert.

Moralelastix
2007-12-01, 15:37:33
http://geizhals.at/eu/a298480.html
Preis: EUR 269,99 Kostenlose Lieferung.

"Verfügbarkeit: Gewöhnlich versandfertig in 1 bis 2 Monate."

lol!

Die_Allianz
2007-12-01, 15:40:37
oh gott ich habe irgendwie im gefühl, das die neue GTS genauso verfügbar sein wird, wie die GT! nämlich gar nicht.
nichtmal die gammlige 3870 gibts als notlösung zu kaufen.
die traurigste lage seit langer, langer zeit.

Haufenweise geile games, aber keine karten.

Moralelastix
2007-12-01, 15:43:57
Hoffentlich nicht, mein Bruder klaut mir sonst die alte GTS aus dem Rechner und ich hab keinen Ersatz. :biggrin:

Gast
2007-12-01, 15:44:08
169.04 wurde doch gar nicht bei Tweaktown verwendet.

Lies die verlinkte 3DC-News, vorher lohnt sich das diskutieren hier nicht.

Gortha
2007-12-01, 16:28:20
Naja@Gast

Aber es wuden ja OC GTX&Ultra und auch die neue GTS mit einem "Cheattreiber" getestet.
Es mag zwar sein, dass beide Treiber eine etwas unterschiedliche Crysisperformance liefern,
jedoch wurde hier ja nicht gegen ATi gemessen, sondern uns interessiert der Verlgiech zwischen
GTX und G92GTS. Und hier siegt die G92GTS selbst bei 1920x1200.

Aber nicht ohne AA+AF. Die Leute die sich ne 1024MB Karten kaufen werden, sind eben diejenigen, die auch Auflösungen ab 1920x1200 4xAA/16xAF (und höher) fahren werden.

Der Durchschnittsuser wird sich eine ~300$ Karte überhaupt nicht leisten. ;)

Es gibt ja auch bei begrenzten (durch den TFT) Auflösungen von 1280x1024 / 1680x1050 die Möglichkeit, alternativ die Qualitätseinstellungen hochzuschraben und das alles spielt den Karten mit mehr Speicher & Bandbreite in die Hände...

Auch ohen AA&AF ist 1920x1200 schon ein dicker Hund. Neuere Spiele kann man mit einer GTS/GTX
sowieso nicht in solchen Auflösungen erst recht mit AA&AF spielen. Und bei älteren wird die G92
GTS keine Probleme mit derartigen Settings haben, solange man es nicht übertreibt.
Wer nicht zuerst alle Gamesettings aufs Maximum setzt und vorher an AA und erst recht an AF
rumspielt hat eh den Knall nicht gehört.

Zu behaupten der Durchschnittsuser würde sich so eine Karte nicht kaufen stimmt sicher im
großen, ist aber zu pauschal.
Denn ich z.B. bin zwar kein Durchschnittsuser aber ich fahre eher konservative Auflösungen,
bzw. Durchschnittliche. Games zocke ich auf meinem 21"CRT eigentlich immer @ 1280x960 oder
1152x864. Details@Max, höchstens eine zu leistungsfressende Option reduziert.
Dann mit 2xAA/4xAA und keinem bis 8xAF. Hauptsache die FPS stimmen am Ende.
Mit ner 8800 wird sich das vielleicht auf 1280x960 & 1600x1200 ändern, aber die Power
hat die 512erVersion und erst recht die 1024er auf jeden Fall für mich.

LG
Gortha

Razor
2007-12-01, 17:37:19
Die kommen nur durch den 300 MHz Takt und die Spannungssenkung zu stande.
Nein.

PowerPlay (oder PowerMizer bei nVidia) ist eine Mobile-Variante einer PowerSave-Implementation.
Takt und Spannungsabsenkung sind hier nur ein Merkmal, die Deaktivierung von Chipteilen das sehr viel wichtigere...

Für den normalen Desktop-Betrieb reicht z.Bsp. nur ein Cluster (und der nicht einmal vollständig), auch der Speicher wird nicht komplett gebraucht... sowie andere Komponenten des Chips, wie z.Bsp. der Video-Prozessor oder auch Bauteile des PCBs. Je nachdem wieviel Aufwand man damit treiben möchte, ergibt das ein ganz erhebliches Einsparungspotential.

Bei AMD vermute ich lediglich, Takt- und Spannungsabsenkung und eben die Deaktivierung von Clustern. Dürfte die noch vertretbastete Variante sein, die wirtschaftlich auf einer Desktop-Karte implementiert werden kann... passt auch zu der Leistungsaufnahme der neuen AMD-Karten, denn diese wären im Idle für Notebooks noch zu hoch.

Übrigens: die reine Taktabsenkung um 50% bringt bei der 8800GT bei 1,05Vc gerade mal 4W.
Und um wieviel hier die GPU-Spannung noch abgesenkt werden kann, ohne Teile der GPU zu deaktivieren, weiß wohl nur nVidia.
Vermutlich nicht viel, wenn man physikalische Gesetzmäßigkeiten bei 754mio Transistoren annimmt...

Eben, soll. Ich glaube aber es ist wohl nur der 2D Modus der eine Rolle spielt. Sonst würde die Temp bei 669 MHz Idle Desktop (0% GPU Last) nicht genauso hoch sein wie bei 100% GPU Last (jeweils 85C+ bei mir).
Wieso bist Du der Meinung, dass PowerPlay aktiv ist, wenn Du den Takt in 2D auf solch absurde Werte hoch jagst?
:confused:

670MHz ist der normale 3D-Takt.

Crysis @Max wird auch mit der neuen GTS ein Problem sein.
Crysis @ Ultra, hohen Auflösungen und AA wird noch in den nächsten Jahren ein Problem sein.
Oder meinst Du, dass die GeForce "9" GTX/Ultra um einen Faktor von 100 schneller ist?
Selbst den Faktor 10 würde ich noch für arg unrealistisch halten...

169.12 ist da und hat gleiche oder bessere Performance wie der angebliche Cheattreiber.
Nein.
Er ist da, behebt die 'Probleme' und ist langsamer... natürlich.
Ebenso wie der 169.09 im übrigen... und auch mit dem 169.06 (GTS512 Test) sollte schon wieder alles OK gewesen sein.

Razor

AnarchX
2007-12-02, 10:33:42
http://img146.imageshack.us/img146/6364/powerconsumptionjm1.png
http://en.expreview.com/?p=72

Laut ihnen sollen die ES, wie TT eins verwendet, eine noch höhere Leistungsaufnahme haben.

Matze71
2007-12-02, 11:50:31
Hmmm, der Amazon Preis (269 EUR) für die G92 GTS ist ja heiß, ob sich der Umstieg von einer G80 GTS 640 lohnt?

Gast
2007-12-02, 12:02:27
Hmmm, der Amazon Preis (269 EUR) für die G92 GTS ist ja heiß, ob sich der Umstieg von einer G80 GTS 640 lohnt?
Aus Performance Sicht: Naja sie ist zwar deutlich schneller, aber nein, für einen Highendkäufer bleibt nur warten auf das neue Highend übrig.
Aus der Abwärme Sicht: JA!
Aus der Feature Sicht: JA wenn du den Videoprozessor zu schätzen weißt.

Matze71
2007-12-02, 12:07:49
Performance ist das wichtigste Kriterium.
Abwärme ist egal, wird eh mittels H2O gekühlt.
Je mehr Features desto besser ;)

dargo
2007-12-02, 12:16:33
Hmmm, der Amazon Preis (269 EUR) für die G92 GTS ist ja heiß, ob sich der Umstieg von einer G80 GTS 640 lohnt?
Es hängt vieles vom Aufpreis ab. Ich bin in der selben Lage. Kann mich auch nicht entscheiden. Auf der einen Seite könnte so ein Upgrade ~70€ kosten. Auf der anderen Seite ein Downgrade beim Vram. Und die "geringe" Speicherbandbreite schreckt mich auch irgendwie ab. Ich glaube, ich warte doch erstmal die neuen DX10.1 High-End Karten von NV ab. Sind ja nur noch ~3 Monate. Wobei, laut Gerüchten soll die neue GTX im Februar (die mir eh zu teurer sein wird) erscheinen, und erst im Juni die neue GTS. Das ist noch verdammt lang hin. :(

robbitop
2007-12-02, 12:57:46
Man schaue sich bitte die aktuellen 8800GT Tests an. Dann schaue man bitte auf die extremen Einbrüche mit AA in den neusten Spielen. Übel. da geht eindeutig der VRAM (und/oder Bandbreite) aus. Die alte GTS, die GTX brechen dagegen deutlich weniger ein. Nur aus dem Grund kam die RV670 in den Tests mal an die GT ran.
Am gleichen Problem wird auch die GTS-512 leiden.

Wenn man von der jetzigen GTS-640 ein kompromisloses Upgrade machen will(!!), dann sollte man zur 1024er greifen oder zur GTX-768.
Allerdings läßt sich (zumindest die A3) hervorragend übertakten, so dass die GTS-640 eigentlich recht gut darstehen sollte. (RAM, Bandbreite, Rohleistung)

horn 12
2007-12-02, 13:00:38
http://www.forumdeluxx.de/forum/showthread.php?t=424405&page=7
Jener hat schon eine GTS 512 MB!!

Rebell
2007-12-02, 13:02:49
die Karten brechen aber wohl weniger durch die 512MB ein.. eher durch die geringere Bandbreite.
Aber schon klar.. 512MB sind für Quality Settings oft schon zu wenig.

troublemaker55
2007-12-02, 13:10:02
Mit der 1Gb Version ist erst anfang nächsten Jahres zu rechnen oder erscheint die zeitgleich mit der 512 MB Version der G92 GTS?

Super Grobi
2007-12-02, 13:13:04
die Karten brechen aber wohl weniger durch die 512MB ein.. eher durch die geringere Bandbreite.
Aber schon klar.. 512MB sind für Quality Settings oft schon zu wenig.

Seh ich eben so. 1gb wären nett, wenn man diesen auch mit ordentlichen Takt betreibt. Die 256bit müssen doch etwas ausgegliechen werden. Da NV noch auf DDR3 setzt, geht da wohl nicht soviel, oder?

SG

dargo
2007-12-02, 13:51:17
Seh ich eben so. 1gb wären nett, wenn man diesen auch mit ordentlichen Takt betreibt. Die 256bit müssen doch etwas ausgegliechen werden. Da NV noch auf DDR3 setzt, geht da wohl nicht soviel, oder?

SG
Verdammt, GDDR5 lässt sich zu lange Zeit. :(

Wenn man von der jetzigen GTS-640 ein kompromisloses Upgrade machen will(!!), dann sollte man zur 1024er greifen oder zur GTX-768.

Ne, sorry. Der Leistungsvorsprung der GTX von ca. 45% ist mir einfach zu gering.

Matze71
2007-12-02, 15:40:28
So, Amazon Bestellung ist getätigt. Sollten noch "schlechte" Reviews kommen wird halt storniert.

Hakim
2007-12-02, 15:47:20
Wieso knallt man der GTS keine schnelleren speicher? Die ATI 3870 hat doch schn 1125 Mhz Speicher. Wäre es ein Problem GDDR4 speicher zu verbauen?

dargo
2007-12-02, 16:37:32
Wieso knallt man der GTS keine schnelleren speicher? Die ATI 3870 hat doch schn 1125 Mhz Speicher. Wäre es ein Problem GDDR4 speicher zu verbauen?
Keine Ahnung. Man will wohl die neue High-End Karte die angeblich im Februar erscheinen soll nicht "gefährden". Da gab es doch mal das Gerücht vom großen Einkauf von 1,6Ghz GDDR4 bei NV. Vielleicht sind diese Chips nur für das Topmodel reserviert. Bei einem 256Bit SI würden denke ich die 102,4GB/s Speicherbandbreite ganz gut zu einer neuen GTX passen. Eine 1GB Vram GTX wäre doch was feines.

reunion
2007-12-02, 16:41:59
Wieso knallt man der GTS keine schnelleren speicher? Die ATI 3870 hat doch schn 1125 Mhz Speicher. Wäre es ein Problem GDDR4 speicher zu verbauen?

NV kann und/oder will offensichtlich keinen GDDR4 verbauen. Selbst die 3870 hat schon 0.8ns GDDR4 verbaut, der bis zu 1250Mhz spezifiziert ist.

dildo4u
2007-12-02, 16:46:10
Wenn der Abstand dann mit der neuen 9800 GTX wieder so sein soll wie vor 1 Jahr GTS--> GTX(ca 45% mher Speed) "darf" man der Karte(G92GTS) jetzt whol nicht mher Speicherbandbreite geben.

dargo
2007-12-02, 16:53:44
Wenn der Abstand dann mit der neuen 9800 GTX wieder so sein soll wie vor 1 Jahr GTS--> GTX(ca 45% mher Speed) "darf" man der Karte(G92GTS) jetzt whol nicht mher Speicherbandbreite geben.
Es soll angeblich auch eine neue GTS auf Basis vom G90(?) geben. Von daher könnte der Abstand der G92GTS zur neuen GTX größer als ~45% ausfallen. Auf der anderen Seite - vielleicht wirds sowas wie eine GTO wieder geben?

Edit:
Ich meine also eine GTX und später GTO auf Basis von D9E.

Hakim
2007-12-02, 16:58:52
Wäre es möglich das ein Hersteller selber schnellere GDDR4 Speicher verbaut oder gibt es da vertragliche vorgaben seitens NV?

dargo
2007-12-02, 17:01:25
Wäre es möglich das ein Hersteller selber schnellere GDDR4 Speicher verbaut oder gibt es da vertragliche vorgaben seitens NV?
Das Problem ist eher der GDDR3. Der läuft afaik schon ziemlich an der Grenze des machbaren. GDDR4 Speicher auf einem GDDR3 PCB beißt sich etwas.

Moralelastix
2007-12-02, 17:33:32
An die Leute die bei Amazon bestellt haben:

Was für ein Versanddatum wurde bei der Bestellung angeben?

Gast
2007-12-02, 17:51:10
"Voraussichtlicher Versand dieser Artikel: 21 Dezember 2007 - 11 Januar 2008"

scape

Gast
2007-12-02, 17:51:25
Das Problem ist eher der GDDR3. Der läuft afaik schon ziemlich an der Grenze des machbaren. GDDR4 Speicher auf einem GDDR3 PCB beißt sich etwas.
Wie meinst du das?

Verhindert das Referenz PCB einen höheren Takt, weil es am Anschlag ist?

reunion
2007-12-02, 17:52:52
Wie meinst du das?

Verhindert das Referenz PCB einen höheren Takt, weil es am Anschlag ist?

GDDR4 ist nicht pinkompatibel zu GDDR3. Man benötigt also ein anderes PCB-Design.

Moralelastix
2007-12-02, 18:01:15
????

Hab eben grad ne Steam Hardwareumfrage gemacht und mir dann den Link mit der aktuellen Übersicht angesehen(schon lang nimmer angeschaut).

http://www.steampowered.com/status/survey.html

10% Geforce 8800 WOW!

Die müssen sich ja wirklich wie warme Semmmeln verkaufen.
Kein Wunder das NV die 1 Milliarde Umsatzgrenze genkackt hat.

Gast
2007-12-02, 18:14:00
GDDR4 ist nicht pinkompatibel zu GDDR3. Man benötigt also ein anderes PCB-Design.
Oh schade. :(

Und Palits eigenes PCB ist auch für GDDR3 ausgelegt. :(


10% Geforce 8800 WOW!

Die müssen sich ja wirklich wie warme Semmmeln verkaufen.
Kein Wunder das NV die 1 Milliarde Umsatzgrenze genkackt hat.
Das ist also der neueste Trick:

Man bringt eine Highend Karte raus, erst Monate später gibt es eine lahme überteuerte Mittelklasse.
Ja kein Wunder wenn dann mehr zur teuren Lösung greifen.
Dazu kommen noch die absolut stabilen Preise. :mad:

Nakai
2007-12-02, 18:51:06
????

Hab eben grad ne Steam Hardwareumfrage gemacht und mir dann den Link mit der aktuellen Übersicht angesehen(schon lang nimmer angeschaut).

http://www.steampowered.com/status/survey.html

10% Geforce 8800 WOW!

Die müssen sich ja wirklich wie warme Semmmeln verkaufen.
Kein Wunder das NV die 1 Milliarde Umsatzgrenze genkackt hat.

Krank! Immer noch 3,79% mit ner ollen FX5200. NV weiß halt wie man Karten verkauft. ;)

Ja kein Wunder wenn dann mehr zur teuren Lösung greifen.
Dazu kommen noch die absolut stabilen Preise.

Da kann man nichts machen, so ist es eben...leider.


mfg Nakai

HD-Ronny
2007-12-02, 19:11:56
An die Leute die bei Amazon bestellt haben:

Was für ein Versanddatum wurde bei der Bestellung angeben?


Das ist doch im Moment vollkommen irrelevant,wer bei Amazon bestellt wird sofort bei eintreffen der Ware beliefert.Da noch nicht einmal der Eingang der GTS datierbar ist,ist es umso fragwürdiger wann die Ware ausgeliefert wird.
Allgemein wird die GTS ab dem 14 Dezember in EU erwartet,danach sollte man sich richten.

Voraussichtlicher Versand dieser Artikel: 20 Dezember 2007 - 10 Januar 2008
1 "PNY GeForce 8800 GTS PCIe 512MB Grafikkarte DDR3 2xDVI-I Dual Link HDTV-Out"
Elektronik; EUR 269,99
Verkauft von: Amazon.de

F5.Nuh
2007-12-02, 20:15:49
Ich hoffe man kann bald Karten von besseren Herstellern vorbestellen. Die PNY's sind immer so abgespeckt.

up¦²
2007-12-03, 13:42:21
expreview hat sich mal die PCB von G92-8800GTS und G92-8800GT vorgeknöpft:
http://www.expreview.com/news/hard/2007-12-03/1196676541d7147.html

Moralelastix
2007-12-03, 13:59:35
Also laut dem Link hat die GTS 3 Phasen Spannungswandler oder was?

Gabs nicht auch GT Karten mit 3 Phasen?

Jetzt versteh ich auch diese komische schräge Anordnung des Lüfters(sieht ja ziemlich dämlich aus). NV wollte halt einfach das GT PCB verwenden um die Kosten zu senken.

Mir wurscht, Hauptsach die Lüftung ist genau so gut wie die der alten GTS.

Gibts schon wo Bilder von dem zerlegten Kühler?

Gast
2007-12-03, 14:03:45
Krank! Immer noch 3,79% mit ner ollen FX5200. NV weiß halt wie man Karten verkauft. ;)

Genau das zeigt die Situation vieler PCs.

Nicht jeder kauft alle Wechseljahre Hardware. Die FX ist von 2003, das macht 4 Jahre. Gar nicht so viel, denk mal drüber nach. Mich wundert eher, das es nur noch so wenige sind, weil sie sich gut verkaufen konnte, dank niedrigem Preis und D3D9.

Gast
2007-12-03, 14:06:42
Also laut dem Link hat die GTS 3 Phasen Spannungswandler oder was?

Ja 3 für die GPU + 1 für den RAM/IO.


Gabs nicht auch GT Karten mit 3 Phasen?
Sollten noch kommen von zb Palit/Gainward und Galaxy.


Mir wurscht, Hauptsach die Lüftung ist genau so gut wie die der alten GTS.
Mir auch, der alte Waküblock passt. :)

Hakim
2007-12-03, 15:18:12
Ich bin immer noch am überlegen ob sich ein Upgrade auf eine GTS lohnt. Wenn ich für 300€ (eher unwahrscheinlich) eine OC GTS samt 1 GB bekomme, würde ich das machen.

Mstrmnd
2007-12-03, 15:59:40
Ich bin immer noch am überlegen ob sich ein Upgrade auf eine GTS lohnt. Wenn ich für 300€ (eher unwahrscheinlich) eine OC GTS samt 1 GB bekomme, würde ich das machen.
LoL, für 300 Euro bekommst Du beim Launch eine non-OC mit 512 MiB. Auch etwas später werden die Preise für OC wohl um 300 liegen, aber nie im Leben für die 1 GiB-Versionen, sollten diese überhaupt kommen. Diese werden doch eher irgendwo zwischen 350 für non-OC und 400 für OC liegen. Erst wenn die 9800GTX antanzt wird es entweder eine Preiskorrektur geben, oder die alten Karten werden einfach ersetzt, ohne dass sich der Preis ändert.

Realyn
2007-12-03, 19:59:44
Rein aus Interesse, wann ist mit der nächsten Generation, also 9800 zu rechnen?

Spasstiger
2007-12-03, 20:02:59
Man bringt eine Highend Karte raus, erst Monate später gibt es eine lahme überteuerte Mittelklasse.
Ja kein Wunder wenn dann mehr zur teuren Lösung greifen.
Dazu kommen noch die absolut stabilen Preise. :mad:
Die gute, günstige Mittelklasse gab es schon zu GeForce-8-Relase: Radeon X1900/X1950.

Ich führe den Erfolg der GeForce-8800-Reihe in der Steam-Umfrage auf folgende Punkte zurück:
- Nvidia-Karten sind bei Spielern weit beliebter als ATI-Karten
- Die GeForce-8800-Reihe ist der GeForce-7900/7950-Reihe extrem überlegen und das in allen Punkten: Performance, Bildqualität, Features

Gast
2007-12-03, 20:39:26
Die gute, günstige Mittelklasse gab es schon zu GeForce-8-Relase: Radeon X1900/X1950.

Ah fast vergessen. :) Also gabs nur auf AMD Seite eine gute Mittelklasse.

Nur der Stromverbrauch ist für Mittelkassen Niveau etwas hoch.


- Nvidia-Karten sind bei Spielern weit beliebter als ATI-Karten

The way it's meant to be played. ;D

Anarchy-HWLUXX
2007-12-03, 21:49:12
The way it's meant to be played. ;D

Und HL² wurd mit ATI Karten gebundeled ...

Das Auge
2007-12-03, 21:55:23
Und HL² wurd mit ATI Karten gebundeled ...

HL2 - und sonst nichts. Das twimtbp-Logo darf man dagegen in so gut wie jedem Spiel wegklicken. DAS ist erfolgreiches Marketing, es funktioniert ja wie man sieht.

Die_Allianz
2007-12-03, 22:17:36
HL2 - und sonst nichts. Das twimtbp-Logo darf man dagegen in so gut wie jedem Spiel wegklicken. DAS ist erfolgreiches Marketing, es funktioniert ja wie man sieht.

die leute ohne ahnung kaufen nV wegen der Werbung vor dem Game, und die leute, die sich informieren hatten seit über einem jahr keine andere Wahl als 8800!
X-D

nur gute werbung bringt auch nichts. ;)

laser114
2007-12-03, 22:24:21
Joa, aber wenn ich mir mal anschaue wie schwach die X1950-Karten vertreten sind, obwohl die X1950 Pro monatelang die P/L-Karte war ist das schon komisch.
Und das sind die Valve-Statistiken, daher HL2 ist da grade dabei!

Das Auge
2007-12-03, 22:40:48
nur gute werbung bringt auch nichts. ;)

Aber sie hilft enorm. Bis zum G80 war AMD/ATI mit seinen Produkten ebenbürtig bzw. sogar überlegen. Dennoch kauften die Leute mehr Nvidia. Woran das wohl liegen mag? :naughty:

Nvidia hat sich in der Zockergemeinde einfach einen ungemein guten Ruf erarbeitet. Man darf den Durchschnittszocker nicht mit dem Durchschnittsmember des 3DC gleichsetzen, der immer top informiert ist ;)

AnarchX
2007-12-04, 11:00:17
http://img101.imageshack.us/img101/5465/g92gtsnvra5.png
http://www.nvidia.com/page/geforce8.html

Aber warum nun 1GHz Speichertakt?

Gast
2007-12-04, 11:05:48
Um dieselbe Bandbreite wie die alte GTS zu haben?

Anarchy-HWLUXX
2007-12-04, 11:15:11
Aber warum nun 1GHz Speichertakt?

Wieso net ;D Mmmmhhhh, nice.

dargo
2007-12-04, 12:00:01
http://img101.imageshack.us/img101/5465/g92gtsnvra5.png
http://www.nvidia.com/page/geforce8.html

Aber warum nun 1GHz Speichertakt?
Was ist denn jetzt an dieser Meldung neu? :confused:
Die 30Mhz mehr Speichertakt?

ShinyMcShine
2007-12-04, 12:00:02
http://img101.imageshack.us/img101/5465/g92gtsnvra5.png
http://www.nvidia.com/page/geforce8.html

Aber warum nun 1GHz Speichertakt?

Hat vielleicht auch marketingtechnischen Hintergrund? Mit 1000MHz wirbt es sich leichter als mit 970MHz. Und ich denke dass jeder RAM-Baustein den nVidia erst für 970MHz verbaut hat, auch die werbewirksameren 1000MHz verträgt. Und kosten tun sie wohl auch dasselbe. :)
Sollten auch eigentlich bald ein paar Reviews rauskommen, da es in Taiwan die Karte wohl schon zu kaufen gibt?

robbitop
2007-12-04, 13:42:13
Sofern NV nicht baldigst das Speichermanagement verbessert, bringt die Extrapower der GTS mit 4xAA und neusten Spielen nur wenig.

MadManniMan
2007-12-04, 13:52:27
Sofern NV nicht baldigst das Speichermanagement verbessert, bringt die Extrapower der GTS mit 4xAA und neusten Spielen nur wenig.

Wieso?

LovesuckZ
2007-12-04, 13:57:33
Sofern NV nicht baldigst das Speichermanagement verbessert, bringt die Extrapower der GTS mit 4xAA und neusten Spielen nur wenig.

Die 8800GT ist eigentlich in 90% aller Fälle vor der 8800GTS 640MB. So schlimm kann es also nicht sein.

K4mPFwUr$t
2007-12-04, 13:59:19
die probleme mit dem "VRAM bug" bestehen also immer noch?
das ihr bei hohen auflösung langsam die leistung ausgeht liegt dann menr am VRAM, weil die bandbreite dann 1:1 die selbe ist.

robbitop
2007-12-04, 14:21:15
Die 8800GT ist eigentlich in 90% aller Fälle vor der 8800GTS 640MB. So schlimm kann es also nicht sein.
Ich sagte bei "neuen Spielen". Also die Crysis Generation. Alles was ab jetzt rauskommt, hat einen riesen Hunger nach Texturspeicher. Bisher sehe ich Crysis, CoJ und CoH. Und natürlich alles, was jetzt noch rauskommen wird.

Und jetzt schau dir bitte mal den Drop der GT bei 4xMSAA (bei den von mir genannten Spielen) an. Furchterregend. So furchterregend, dass man deutlich unterhalb der GTS und der RV670 liegt.Ursache: VRAM läuft über.
Alle anderen Karten brechen prozentuael deutlich weniger ein. Razors Speichermessung belegt das Ganze. Und das sogar schon ab 1280x1024. Je höher die Auflösung desto schlimmer wirds natürlich, da der Framebuffer immer größer wird.

In den "alten Kamellen" reicht der VRAM natürlich noch. Aber wer kooft schon eine Grafikkarte nur für alte Spiele? Die soll bitte mindestens 1 Jahr halten. Da sind so dämliche Flaschenhälse sehr hinderlich.

Und nein, das hat nichts mit irgendeinem ominösen VRAM-Bug zu tun.
ATI scheint (ist wohl einer der wenigen aktuellen Stärken) einfach das Speichermanagement auf einem ganz anderen Level zu betreiben. Die Texturen sind so platziert, dass wirklich nur die imminent benötigen Texturen im Speicher liegen und alle anderen bei Bedarf nachgestreamt werden. Natürlich geht das nicht zu 100% und jedes Prozent dahin kostet richtig Aufwand. Schade, dass die VRAM-Virtualisierung in D3D10 keinen Einzug fand..Dann wäre das kein so großes Problem mehr.

Razor
2007-12-04, 14:24:12
Ich sagte vor "neuen Spielen". Also die Crysis Generation. Und jetzt schau dir bitte mal den Drop der GT bei 4xMSAA an. Furchterregend. So furchterregend, dass man unterhalb der GTS und der RV670 liegt. Und zwar deutlich. Ursache: RAM läuft über.

In den "alten Kamellen" reicht der VRAM natürlich noch. Aber wer kooft schon eine Grafikkarte nur für alte Spiele?
a) es gibt keine "Crysis-Generation"!
b) wo bitte soll "der Drop der GT bei 4xMSAA" zu beobachten sein?

Wäre nett, wenn Du zu solchen Behauptungen auch immer gleich einen Link 'spendierst', damit Deine Aussage nicht einfach ignoriert wird.

Razor

Grestorn
2007-12-04, 14:28:04
Und jetzt schau dir bitte mal den Drop der GT bei 4xMSAA an. Furchterregend. So furchterregend, dass man deutlich unterhalb der GTS und der RV670 liegt. Und zwar deutlich. Ursache: RAM läuft über.

Ach. Wenn dem so wäre, dann dürfte der Einbruch erst nach einer Weile kommen.

Die Möglichkeit, dass der GT die Speicherbandbreite ausgeht, kalkulierst Du nicht ein?

Im Übrigen: Die Verwaltung des Speichers für Texturen obliegt doch DX selbst und nicht dem Treiber, oder?

Gast
2007-12-04, 14:33:09
Razors Speichermessung belegt das Ganze.

Sind diese öffentlich zugänglich?

Razor
2007-12-04, 14:34:48
Die Möglichkeit, dass der GT die Speicherbandbreite ausgeht, kalkulierst Du nicht ein?
Nö, muss er ja auch nicht...
Schließlich dürfte der Bandbreiten-'Nachteil' zur GTS320/640 verschwindend gering sein... wenn er überhaupt vorhanden ist.

Mich würden eher die Benches interessieren, die robbi hier anscheinend immer zugrunde legt.
Alles, was ich bis dato dazu sah, sagt Gegenteiliges...
(nebst eigener Erfahrungen natürlich... der Speicher geht NIRGENDWO aus und Crysis wurde - wie bei allen - zurecht 'gestutzt' ;-)

Razor

AnarchX
2007-12-04, 14:41:30
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/20/#abschnitt_crysis

Die 88GT fällt hier mit MSAA massiv zurück und die 320er GTS stürzt gar ab, wo die 256MB 3850 fleissig weiter arbeitet...

Da ist definitiv etwas nicht in Ordnung!

LovesuckZ
2007-12-04, 14:46:53
Und? Die Karten haben eben einen höhreren Speicherbedarf. Müssen wir das wieder durchkauen? Unterschiedliche Architekturen, unterschiedliche Schwächen.

robbitop
2007-12-04, 14:49:00
Im Übrigen: Die Verwaltung des Speichers für Texturen obliegt doch DX selbst und nicht dem Treiber, oder?
Die obliegt natürlich dem Treiber.


a) es gibt keine "Crysis-Generation"!
b) wo bitte soll "der Drop der GT bei 4xMSAA" zu beobachten sein?

Wäre nett, wenn Du zu solchen Behauptungen auch immer gleich einen Link 'spendierst', damit Deine Aussage nicht einfach ignoriert wird.

Razor


a.) Das ist doch bloß eine Titulierung. Sprachliche Stilmittel Abiturstufe Deutsch Grundkurs. Also Pillepalle. Du weißt doch aber was gemeint ist? ;)
b)http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/23/#abschnitt_call_of_juarez

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/24/#abschnitt_company_of_heroes

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/25/#abschnitt_crysis


Ach. Wenn dem so wäre, dann dürfte der Einbruch erst nach einer Weile kommen.
Nein. Texturdaten liegen natürlich sofort vor. Und sollten idealerweise bei nichtgebrauch wieder gelöscht werden (hing es nicht auch hier beim damaligen "VRAM-Bug"?) Es ist eine reine Frage des Managements.


Die Möglichkeit, dass der GT die Speicherbandbreite ausgeht, kalkulierst Du nicht ein?
Siehe Razor und AnarchX. Die Bandbreite ist fast die gleiche wie beider GTS640. Die GTS liegt mit 4xAA trotz weniger Rohleistung und fast gleicher Bandbreite deutlich vorn. Was hat sie der GT voraus? Vor allem die Speichermenge. Ein so drastischer Einbruch ist nur dann fällig, wenns nen drastischen Flaschenhals gibt.
Der Prozentuale Einbruch ist drastisch verschieden.

Und? Die Karten haben eben einen höhreren Speicherbedarf. Müssen wir das wieder durchkauen? Unterschiedliche Architekturen, unterschiedliche Schwächen.
Es geht doch nicht darum, auf Schwächen zu zeigen. Es geht darum zu zeigen, dass die hammer Rohpower der GTS von nem blöden, trivialen Flaschenhals gefangen ist.

Ich verstehe sowieso nicht, wie manche emotional reagieren, wenn man Schwächen eines Produktes eines kapitalischen Großkonzerns, an dem die allermeisten keine Aktien besitzen oder dort tätig sind, beleuchtet. Denk mal drüber nach. ;)

AnarchX
2007-12-04, 14:49:56
Und? Die Karten haben eben einen höhreren Speicherbedarf. Müssen wir das wieder durchkauen? Unterschiedliche Architekturen, unterschiedliche Schwächen.

Ein Absturz soll also eine Architekturschwäche sein? ;D

Es geht doch darum, dass man diese Problem nicht leugnen sollte oder gar als normal abtuen soll, da hier große Chancen bestehen, dass es eben massiv über den Treiber verbesserbar ist, im Gegensatz zu den gekoppelten TMUs bei CineFX oder der geringen Texelleistung bei R6xx.

Razor
2007-12-04, 14:50:34
Vielleicht meint er ja die Tests auf computerbase.de?

- Company of Heroes DX9 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/10/#abschnitt_company_of_heroes): bei 1280 'überrennt' die 88GT sogar die 88GTX
- Company of Heroes DX10 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/19/#abschnitt_company_of_heroes): sooo "furchtbar" sieht es für die 88GT doch gar nicht aus
- Call of Juarez DX10 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/18/#abschnitt_call_of_juarez): auch die GTS640 "kackt hier ab" (GTX/Ultra sehen auch nicht 'gut' aus ;-)
- Crysis DX10 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/20/#abschnitt_crysis): na ja... Crysis halt ;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/20/#abschnitt_crysis

Die 88GT fällt hier mit MSAA massiv zurück und die 320er GTS stürzt gar ab, wo die 256MB 3850 fleissig weiter arbeitet...

Da ist definitiv etwas nicht in Ordnung!
Jo... die Peformance unter Crysis generell.
Oder ist die Performance einer 88GTX mit 25fps avg etwa in Ordnung?
:confused:

Ich plädiere langsam dafür, Crysis bei solchen Betrachtungen aussen vor zu lassen, denn einen Aussagegehalt kann ich hier nicht erkennen... ausser vielleicht: "Vergleiche von unterschiedlichen, unterirdischen Performance-'Messungen' sind absolut sinnfrei!".

Razor

P.S.: vielleicht sollte diese elendige D3D10-Diskussion 'ausgelagert' werden... denn sie hat vermutlich recht wenig mit der generellen Performance von irgendwelchen Grafikkarten zu tun (wie man ja an 2900XT, HD38x0 und G80 gut erkennen kann), sondern vielmehr mit der Implementierung, auch und vor allem unter Vista. Das auszudiskutieren hier wohl den Rahmen sprengen würde, oder?

LovesuckZ
2007-12-04, 14:51:40
Ein Absturz soll also eine Architekturschwäche sein? ;D

Wenn der Speicher irgendwann zu diesem Problem führt, ja.


Es geht doch darum, dass man diese Problem nicht leugnen sollte oder gar als normal abtuen soll, da hier große Chancen bestehen, dass es eben massiv über den Treiber verbesserbar ist, im Gegensatz zu den gekoppelten TMUs bei CineFX oder der geringen Texelleistung bei R6xx.

Genauso gut müsste man das AA und Texturleistungsproblem bei den AMD Karten hervorheben.

MadManniMan
2007-12-04, 14:54:40
Machen wirs doch mal ganz banal und betrachten die kummulierten D3D10-Ergebnisse vom CB-Test:

1280 * 1024 - GT im Mittel 123% der GTS 640 Leistung
+4*AA/16*AF - GT im Mittel 106% der GTS 640 Leistung

Bei gleich Bandbreite schreit hier die Speichermenge.

robbitop
2007-12-04, 14:57:49
@Razor
bitte den Prozentualen Einbruch betrachten. Nicht, obs trotzdem noch "gut aussieht".
Meine drei Links habe ich ja gebracht.

Razor
2007-12-04, 14:58:07
a.) Das ist doch bloß eine Titulierung. Sprachliche Stilmittel Abiturstufe Deutsch Grundkurs. Also Pillepalle. Du weißt doch aber was gemeint ist? ;)
Eben nicht...
Nochmal: Es gibt einfach keine "Crysis-Generation"!

Vermutlich wird nicht einmal die nächste Generation an Grafikkarten mit den höchsten Einstellungen klar kommen... insofern sollte sich jeder die Engine so zurecht 'biegen', dass es bei ihm läuft. Auf Hardware zu warten, die das Game "in maximalen Details" nebst AA und AF darstellen kann, ist sinnfrei... OK, es sei denn, man hat so bis Ende 2009 zeit!
;)

Machen wirs doch mal ganz banal und betrachten die kummulierten D3D10-Ergebnisse vom CB-Test:

1280 * 1024 - GT im Mittel 123% der GTS 640 Leistung
+4*AA/16*AF - GT im Mittel 106% der GTS 640 Leistung

Bei gleich Bandbreite schreit hier die Speichermenge.
Laß mal die D3D10-Benchies weg und schau' mal, was dann dabei heraus kommt.
"Apples to Apples, please!"

@Razor
bitte den Prozentualen Einbruch betrachten. Nicht, obs trotzdem noch "gut aussieht".
Meine drei Links habe ich ja gebracht.
Der prozentuale Einbruch ist Irrelevant, wenn die Ausgangsbasis schon 'irrelevant' war.
"Wow, nur 50% von unspielbarer Performance... ist ja noch unspielbarer! Boah ey..."
;)

Razor

robbitop
2007-12-04, 14:59:16
Machen wirs doch mal ganz banal und betrachten die kummulierten D3D10-Ergebnisse vom CB-Test:

1280 * 1024 - GT im Mittel 123% der GTS 640 Leistung
+4*AA/16*AF - GT im Mittel 106% der GTS 640 Leistung

Bei gleich Bandbreite schreit hier die Speichermenge.

Und das obwohl die meisten Spiele den VRAM nicht soo leerlutschen. Da reissen schon die wenigen Spiele das aritmetische Mittel hoch.

Sorry aber wer diese Tendenz nicht erkennt, ist blind oder stur. ;)

AnarchX
2007-12-04, 15:00:39
Wenn der Speicher irgendwann zu diesem Problem führt, ja.
Darf es aber nicht, wenn es ein vorraussichtlich nicht behebbares Problem wäre, so hätte man diese Karte niemals ausgeliefert...


Genauso gut müsste man das AA und Texturleistungsproblem bei den AMD Karten hervorheben.

Es geht doch darum, dass man diese Problem nicht leugnen sollte oder gar als normal abtuen soll, da hier große Chancen bestehen, dass es eben massiv über den Treiber verbesserbar ist, im Gegensatz zu den gekoppelten TMUs bei CineFX oder der geringen Texelleistung bei R6xx.
...

Gast
2007-12-04, 15:00:51
Genauso gut müsste man das AA und Texturleistungsproblem bei den AMD Karten hervorheben.

Welches Problem? Die Karten haben einfach zu wenig TMUs und zu schwache ROPs, das ist kein Problem, sondern eine Designentscheidung. Doch warum benötigt nV deutlich mehr VRAM als die Konkurrenz? Es gibt dafür keine begründete, nachvollziehbare Erklärung.

robbitop
2007-12-04, 15:03:04
Eben nicht...
Nochmal: Es gibt einfach keine "Crysis-Generation"!

Vermutlich wird nicht einmal die nächste Generation an Grafikkarten mit den höchsten Einstellungen klar kommen... insofern sollte sich jeder die Engine so zurecht 'biegen', dass es bei ihm läuft. Auf Hardware zu warten, die das Game "in maximalen Details" nebst AA und AF, ist sinnfrei... OK, es sei denn, man hat so bis Ende 2009 zeit!
;)

Ok tituliere ich es für dich anders. Die kommenden und neusten Spiele. Das ist eine klare Tendenz.
Selbst ohne Benchmarkbelege, die es nun zu Genüge gibt: Der VRAM Bedarf steigt stetig. Du hast ja selbst Messungen gemacht und gesehen, dass bei 4xMS der VRAM gut gefüllt war. Und du kennst die VRAM Entwicklung der letzten Jahre.

Laß mal die D3D10-Benchies weg und schau' mal, was dann dabei heraus kommt.
"Apples to Apples, please!"

Razor
Wieso soll er die D3D10 Benches weglassen? Das ist die neuste Spielegeneration. Auch die jetzt herauskommenden Spiele und die bald herauskommenden Spiele werden sich nicht anders verhalten. Der Bedarf an Texturspeicher nimmt natürlich zu.

vor 2 Jahren waren 256 MiB langsam aber sicher eng (was du u.A. auch lange nicht wahrhaben wolltest) und nun werden 512 MiB laaangsam aber sicher eng. Das ist nunmal die Entwicklung.
Manche Karten und Treiber kriegen das Speichermanagement besser hin, andere nicht so gut. Mit Virtualisierung des VRAMs würde es für uns alle jetzt ein bisschen lockerer sein.

robbitop
2007-12-04, 15:04:22
Der prozentuale Einbruch ist Irrelevant, wenn die Ausgangsbasis schon 'irrelevant' war.
"Wow, nur 50% von unspielbarer Performance... ist ja noch unspielbarer! Boah ey..."
;)

Razor
Der prozentuale Einbruch ist eben nicht irrelevant für diese Untersuchungen.
er zeigt nämlich Charakteristika und Tendenzen.


Genauso gut müsste man das AA und Texturleistungsproblem bei den AMD Karten hervorheben.

Tut man doch zu genüge. In jedem Artikel und in vielen Threads wird darüber geredet. Hier geht's jedoch um die die objektive Bewertung 8800GTS. Und nicht um irgendwelche emotionalen Streitereien, wer nun besser ist. :rolleyes:

LovesuckZ
2007-12-04, 15:05:31
Welches Problem? Die Karten haben einfach zu wenig TMUs und zu schwache ROPs, das ist kein Problem, sondern eine Designentscheidung. Doch warum benötigt nV deutlich mehr VRAM als die Konkurrenz? Es gibt dafür keine begründete, nachvollziehbare Erklärung.

Und warum sollte nVidia's Speicherverbrauch keine Designentscheidung sein? Nur weil wir es aufgrund des technischen Wissens nicht erklären können, ist es kein Bug in der Hardware - auch unlogisch, da die Speicherzellen ja nicht von alleine entscheiden, was sie behalten und was nicht.
Es ist nVidia's Problem, dass sie mehr Speicher als der Konkurrent benötigen. Ich bezweifel, dass dies durch ein Treiberupdate gebessert werden kann.
Es ist einfach vergleichbar mit AMD, die mit dem AF cheaten, um die geringere Texturleistung auszugleichen und beim AA eben auf günstige Software hoffen. Beides lässt sich wie bei nVidia eben nur schwer mit dem Treiber beheben.

Gast
2007-12-04, 15:10:38
Darf es aber nicht, wenn es ein vorraussichtlich nicht behebbares Problem wäre, so hätte man diese Karte niemals ausgeliefert...


Dann hätte man einen R600 auch nicht ausliefern dürften. Gewisse Bugs werden durchaus in Kauf genommen, wenn es wie zB hier nur eine sehr geringe Menge der Karten wirklich ernsthaft betrifft, und das nur unter speziellen Bedingungen überhaupt auftritt. Jedenfalls ist mit bei den G7x-Karten nie so ein eklatanter VRAM-hunger aufgefallen.

reunion

Razor
2007-12-04, 15:12:57
Sorry aber wer diese Tendenz nicht erkennt, ist blind oder stur. ;)
Sorry, aber es gibt da keine "Tendenz"...
Das, was dort zusammen gefasst wird, verwischt einfach nur das Ergebnis... was bei Statistiken solcher Art immer mal wieder vorkommt.
Dort, wo die Performance generell indiskutabel ist, sollte man keine Vergleiche mehr anstellen - so einfach ist das.

Ok tituliere ich es für dich anders. Die kommenden und neusten Spiele. Das ist eine klare Tendenz.
Nein.
Siehe UT3, COD4 & Co.

Selbst ohne Benchmarkbelege, die es nun zu Genüge gibt: Der VRAM Bedarf steigt stetig. Du hast ja selbst Messungen gemacht und gesehen, dass bei 4xMS der VRAM gut gefüllt war. Und du kennst die VRAM Entwicklung der letzten Jahre.
Du meinst schon wieder Crysis, oder?
Zeige mir EINE Karte, die meine Einstellungen mit 4xMSAA fährt... da bricht selbst eine Ultra zusammen!

Ansonsten ja, deswegen empfehle ich "heute" ja auch 512MB.

Wieso soll er die D3D10 Benches weglassen? Das ist die neuste Spielegeneration. Auch die jetzt herauskommenden Spiele und die bald herauskommenden Spiele werden sich nicht anders verhalten. Der Bedarf an Texturspeicher nimmt natürlich zu.
Dann bewerte diese Spiele anders!
Separiere sie zum Beispiel und stelle gesonderte Betrachtungen an.

Wenn man jetzt auch noch die Unwägbarkeit eines nonSP-Windows OS und die 'neue' Treiber-Architektur mit ins Feld zeiht, dann können Ergebnisse gleich in vielfacher Art mißinterpretiert werden... neue GraKa-Generation, unfertige Treiber und ein OS-Hersteller, der selbst schon sagt, dass das OS wohl "zu früh" für den Markt kam.

Sorry, aber solange solche Ergebnisse nicht auf einer bewährten Plattform nachvollzogen werden können, sind sie zu separieren.
Punkt.

Der prozentuale Einbruch ist eben nicht irrelevant für diese Untersuchungen.
er zeigt nämlich Charakteristika und Tendenzen.
Nochmal: nein.
Es ist einfach totaler Unfug zwischen Unspielbarkeiten unterscheiden.
Statistischer Datenmüll halt...

Und 'Müll' zu diskutieren überlasse ich lieber Spekulanten...
Denn mehr ist es nicht - reine "Spekulation".

Razor

Gast
2007-12-04, 15:13:05
@lovesuckz

gibt es von dir eigentlich nur gegenverweise auf ati/amd, wenn jemandwas gegen dein nv sagt?

kann man nicht mal sachlich über die neue gts reden, anstatt immer wieder amd/ati ins spiel zu bringen. die roten interessieren hier in dem tread ja garnicht.

aber deine rufe nach dem moto: "ja aber... die haben auch das und das..." kenne ich nur aus dem kindergarten.

robbitop
2007-12-04, 15:13:33
Und warum sollte nVidia's Speicherverbrauch keine Designentscheidung sein? Nur weil wir es aufgrund des technischen Wissens nicht erklären können, ist es kein Bug in der Hardware - auch unlogisch, da die Speicherzellen ja nicht von alleine entscheiden, was sie behalten und was nicht.
Es ist nVidia's Problem, dass sie mehr Speicher als der Konkurrent benötigen. Ich bezweifel, dass dies durch ein Treiberupdate gebessert werden kann.
Dir fehlt offenbar in dieser Richtung ein wenig das Verständnis.

Es ist einfach vergleichbar mit AMD, die mit dem AF cheaten, um die geringere Texturleistung auszugleichen und beim AA eben auf günstige Software hoffen. Beides lässt sich wie bei nVidia eben nur schwer mit dem Treiber beheben.
Nochmal: dieser OT-Kram/Flame gehört hier nicht hin.

robbitop
2007-12-04, 15:16:25
Razor:
Ich respektiere deine pragmatische Meinung als Spieler.
Ich versuche das aber als Redakteur eher wissenschaftlich zu erfassen und Ursachen zu ergründen und damit Tendenzen zu bilden. Das scheinen einige andere auch zu wollen.

Diese Sichtweisen scheinen mir inkompatibel. Somit schlage ich zwischen uns beiden vor:
we agree to disagree. Right? :)

Razor
2007-12-04, 15:22:46
Ich respektiere deine pragmatische Meinung als Spieler.
Ich versuche das aber als Redakteur eher wissenschaftlich zu erfassen und Ursachen zu ergründen und damit Tendenzen zu bilden.
Auch Wissenschaftler versuchen teilweise die Realität nicht aus den Augen zu verlieren...
Denn oft interssiert den geneigten Bürger ausschließlich die Realität!

Hypothesen bleiben - auch wenn sie auf vermeintlich gesicherten Fakten beruhen - eben Hypothesen...
...man könnte auch "Spekulationen" sagen.

Erst die Überprüfung einer These stellt heraus, ob diese auf korrekten Annahmen fußte, oder es eben doch eine Fehlinterpretation der gesichteten "Fakten" war.

Und diese Überprüfung steht erst noch aus, oder?
Darin sind wir uns ja hoffentlich einig...

Diese Sichtweisen scheinen mir inkompatibel. Somit schlage ich zwischen uns beiden vor:
we agree to disagree. Right? :)
Du meinst Realismus vs. wissenschaftlicher Spekulation?
Ja, "we agree to disagree"!
:up:

Razor

Gast
2007-12-04, 15:33:55
Jedenfalls ist mit bei den G7x-Karten nie so ein eklatanter VRAM-hunger aufgefallen.

reunion

Dun wirst doch nicht allen Ernstes behaupten wollen, dass man G7x und G8x technisch miteinander vergleichen kann?

LovesuckZ
2007-12-04, 15:38:47
@lovesuckz

gibt es von dir eigentlich nur gegenverweise auf ati/amd, wenn jemandwas gegen dein nv sagt?

kann man nicht mal sachlich über die neue gts reden, anstatt immer wieder amd/ati ins spiel zu bringen. die roten interessieren hier in dem tread ja garnicht.

aber deine rufe nach dem moto: "ja aber... die haben auch das und das..." kenne ich nur aus dem kindergarten.

Ich weiß nicht, was du willst: Innerhalb der eigenen Architektor haben die nVidia Karten keinen "Vram Bug". Wie auch, sie verhalten sich genauso, wie man es erwarten kann.
Ohne Vergleiche mit der Konkurrenzhardware, kann man eine Stärke oder Schwäche überhaupt nicht feststellen und einschätzen.

robbitop
2007-12-04, 15:42:43
Du meinst Realismus vs. wissenschaftlicher Spekulation?
Ja, "we agree to disagree"!
:up:

Razor
Korrekt. Denn ich kann nicht mit Sicherheit sagen, dass in den nächsten Monaten ein ähnlicher VRAM Verbrauch üblich wird. Vieleicht stagniert er auch. (selbst wenn die Tendenz der Steigung des VRAM-Bedarfs bisher immer zeigte, dass es stieg).

Fakt ist bisher:

Bei 3 neuen D3D10 Spielen bricht die GT mit 4xMS stark ein.
Bei diesen 3 neuen Spielen ist die Leistung in 1280 und 4xMS jedoch noch ausreichend.

Allerdings profitiert in solchen Situationen die GTS nicht so von iherer erhöhten Shaderleistung, wie sie könnte. Ich spekuliere, anhand des bisherigen Trends, dass sich das bald ausweiten wird.

AnarchX
2007-12-04, 15:47:30
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6083608#post6083608

Allerdings profitiert in solchen Situationen die GTS nicht so von iherer erhöhten Shaderleistung, wie sie könnte. Ich spekuliere, anhand des bisherigen Trends, dass sich das bald ausweiten wird.
Das befürchte ich auch, sodass ich immernoch auf eine 1GiB 8800 GT warte bzw. die Besserung des Problems durch NV.
Im Endeffekt wäre diese 1GiB-GT wohlmöglich einer 512MiB-GTS gar vorzuziehen.

Razor
2007-12-04, 15:53:55
Korrekt. Denn ich kann nicht mit Sicherheit sagen, dass in den nächsten Monaten ein ähnlicher VRAM Verbrauch üblich wird. Vieleicht stagniert er auch. (selbst wenn die Tendenz der Steigung des VRAM-Bedarfs bisher immer zeigte, dass es stieg).
Ich könnte nicht einmal mit Sicherheit sagen, inwieweit Vista überhaupt 'weiter' verbreitet wird...
Und wenn dieser VRAM 'Verbrauch' üblich werden sollte, dann haben hier ALLE Gamer ein Problem, denn KEINE Karte ist in der Lage auf Basis eines solchen Vergleiches überhaupt spielbare fps auf den Bildschirm zu bekommen.

Fakt ist bisher:

Bei 3 neuen D3D10 Spielen bricht die GT mit 4xMS stark ein.
Bei diesen 3 neuen Spielen ist die Leistung in 1280 und 4xMS jedoch noch ausreichend.
Fakt ist auch, dass auch die anderen Karten stark einbrechen - zumindest in einem von den Dreien auch die gts mit 640MB und damit +20% mehr VRAM - genauso stark, wie die gt. Reichen hier etwa selbst die 640MB nicht mehr? Schade nur, dass auch die 2900XT mit ihren 1GB vollkommen zusammen bricht... aber hier liegt es zumindest nicht an der Bandbreite bzw. der VRAM-Mange, oder etwa doch?

Allerdings profitiert in solchen Situationen die GTS nicht so von iherer erhöhten Shaderleistung, wie sie könnte. Ich spekuliere, anhand des bisherigen Trends, dass sich das bald ausweiten wird.
Da es sich hier wohl nicht um einen "Trend" handelt, spekuliere ich auf bessere Treiber... weitere "Performance-Fixes" für Vista oder sogar Vistas Nachfolger, um diese 'Problematik' zu lösen...
;)

Razor

AnarchX
2007-12-04, 15:55:59
Fakt ist auch, dass auch die anderen Karten stark einbrechen - zumindest in einem von den Dreien auch die gts mit 640MB und damit +20% mehr VRAM - genauso stark, wie die gt. Reichen hier etwa selbst die 640MB nicht mehr? Schade nur, dass auch die 2900XT mit ihren 1GB vollkommen zusammen bricht... aber hier liegt es zumindest nicht an der Bandbreite, oder?

CB testet doch nur eine 512MiB 2900XT?

Razor
2007-12-04, 15:58:52
CB testet doch nur eine 512MiB 2900XT?
Habe ich gare mal nachgeschaut:
"ATi Radeon HD 2900 XT (742/828), 512 MB"
Also: jup.

Bliebe also abzuwarten, ob eine 2900XT mit 1GB genauso den Bach runter geht...

Razor

robbitop
2007-12-04, 16:06:25
Ich könnte nicht einmal mit Sicherheit sagen, inwieweit Vista überhaupt 'weiter' verbreitet wird...
Und wenn dieser VRAM 'Verbrauch' üblich werden sollte, dann haben hier ALLE Gamer ein Problem, denn KEINE Karte ist in der Lage auf Basis eines solchen Vergleiches überhaupt spielbare fps auf den Bildschirm zu bekommen.

Es geht mir darum, Tendenzen aufzuzeigen.

Fakt ist auch, dass auch die anderen Karten stark einbrechen - zumindest in einem von den Dreien auch die gts mit 640MB und damit +20% mehr VRAM - genauso stark, wie die gt. Reichen hier etwa selbst die 640MB nicht mehr? Schade nur, dass auch die 2900XT mit ihren 1GB vollkommen zusammen bricht... aber hier liegt es zumindest nicht an der Bandbreite bzw. der VRAM-Mange, oder etwa doch?
Ein paar Zahlen:

prozentualer Einbruch von 4xMS bei 12x10

GT/GTS640
CoJ*: 56%/22%
Crysis: 53%/30,7%
CoH: 41,77%/7%


*hier hat CB wohl bei 12x10 die GTS640 bei NoAA "vergessen", ergo musste ich hier 16x12 nehmen

Die paar MiB mehr machen offenbar schon hammer was aus im Einbruch. Wenn die GTS mit ihren 640 MiB noch die gleiche Rohleistung hätte, wie die GT würde sie die GT512 bei 4xMS vernichten. Ich erwarte nicht, dass sich diese Tendenz umkehren wird.


Da es sich hier wohl nicht um einen "Trend" handelt, spekuliere ich auf bessere Treiber... weitere "Performance-Fixes" für Vista oder sogar Vistas Nachfolger, um diese 'Problematik' zu lösen...
;)

Razor
Das ist sogar eine sehr wahrscheinliche Möglichkeit. ATI beherrscht das Speichermanagement deutlich besser. Bis dahin kann auch NVIDIA mit Treiberupdates kommen. Das würde die Situation deutlich verbessern und den Trend etwas verlangsamen...vieleicht stark genug, dass der VRAM für die Lebzeit der GTS512 ausreicht.

Ob ein solcher Treiber kommen wird, weiß ich jedoch nicht. Sowas ist verdammt tricky.

LovesuckZ
2007-12-04, 16:23:35
Die paar MiB mehr machen offenbar schon hammer was aus im Einbruch. Wenn die GTS mit ihren 640 MiB noch die gleiche Rohleistung hätte, wie die GT würde sie die GT512 bei 4xMS vernichten. Ich erwarte nicht, dass sich diese Tendenz umkehren wird.


Sie hat 25% mehr Speicher. Bei gleicher Rohleistung wäre sie also hier im Vorteil. Das ist nicht neu - sollte es hoffentlich nicht sein.

robbitop
2007-12-04, 16:31:17
Offenbar ist es für viele neu, dass das ein entscheidender Vorteil ist und sein wird.
Deshalb rate ich zu mehr Speicher (1024er Karten der GT und der GTS sollen ja kommen).
Gerade die sehr Rohleistungsstarke GTS sollte in der 1024er Version gekauft werden, wenn sie halten soll und MS genutzt wird.

reunion
2007-12-04, 17:33:54
Dun wirst doch nicht allen Ernstes behaupten wollen, dass man G7x und G8x technisch miteinander vergleichen kann?

Warum sollte ein G8x mehr VRAM verbrauchen als ein G7x oder ein R6xx oder sonst irgend ein anderer Chip?

robbitop
2007-12-04, 17:40:05
Speichermanagement.
Schau dir mal die Benches vom RV670 an. Der scheint das deutlich besser zu machen.

reunion
2007-12-04, 17:44:19
Speichermanagement.
Schau dir mal die Benches vom RV670 an. Der scheint das deutlich besser zu machen.

Warum kann ein G8x nicht auf dasselbe Speichermanagement zurückgreifen, dass auch schon bei den G7x-Karte angewandt wurde? Bei solchen Dingen sollten die Architektur relativ unbedeutend sein, es geht ja nur darum, nicht unnötig Dinge im VRAM zu halten. Oder wird da irgendetwas zusätzlich zwischengespeichert? Für mich ist das nicht plausibel. Entweder es ist ein Bug, der sich nicht mittels Treiber umgehen lässt, oder es ist nV schlicht egal.

Razor
2007-12-04, 17:48:06
Speichermanagement.
Schau dir mal die Benches vom RV670 an. Der scheint das deutlich besser zu machen.
Weil eine GTS320 abkachelt und eine 3850 256MB dann immerhin noch 4fps hinbekommt?
Ich weiß nicht, was besser ist... Ultra-Slideshow oder gar nicht erst darstellen.

Razor

Blaire
2007-12-04, 17:51:03
Speichermanagement.
Schau dir mal die Benches vom RV670 an. Der scheint das deutlich besser zu machen.

Ich bleibe dabei , es liegt an den Nvidia Vista Treibern...vermutlich können Ati Karten derzeit damit besser umgehn wenn man hohe BQ Settings verwendet.

master_blaster
2007-12-04, 17:53:34
Erster Review der GTS: http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475960/nvidia.html

Razor
2007-12-04, 17:56:02
Ich bleibe dabei , es liegt an den Nvidia Vista Treibern...vermutlich können Ati Karten derzeit damit besser umgehn wenn man hohe BQ Settings verwendet.
Jo... vermute ich auch.
Wäre auch eine Erklärng dafür, warum Crysis unter WinXP/DX9 so viel besser performt.
(high@DX10 unter Vista vs. high@DX9 unter WinXP)

Razor

AnarchX
2007-12-04, 17:56:44
Weil eine GTS320 abkachelt und eine 3850 256MB dann immerhin noch 4fps hinbekommt?
Ich weiß nicht, was besser ist... Ultra-Slideshow oder gar nicht erst darstellen.

Ein Absturz ist absolut inakzeptabel.

Aber mal ein anderes Beispiel:
http://img141.imageshack.us/img141/4364/1162704071122rv6708800gmh8.jpg
http://64.233.179.104/translate_c?hl=de&langpair=zh%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0711/1162704_7.html
8800 GT 256M stürzt ab, wo eine 3850 für manchen durchaus akzeptable 16FPS erreicht die wohlmöglich noch steigerbar sind mit etwas Tweaking, wobei aber der Speicherverbrauch vielleicht gleich bleibt und somit die 88 GT weiterhin nicht lauffähig wäre.

Razor
2007-12-04, 17:57:03
Erster Review der GTS: http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475960/nvidia.html
Öhm...
Erster Post dieses Treads?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=393044

Razor

Razor
2007-12-04, 17:59:30
8800 GT 256M stürzt ab, wo eine 3850 für manchen durchaus akzeptable 16FPS erreicht die wohlmöglich noch steigerbar sind mit etwas Tweaking, wobei aber der Speicherverbrauch vielleicht gleich bleibt und somit die 88 GT weiterhin nicht lauffähig wäre.
"akzeptable 16fps"?
Ist das Dein ernst?
:confused:

Nicht einmal die 22fps unter 1280 wäre 'akzeptabel'...

Razor

master_blaster
2007-12-04, 18:00:01
Öhm...
Erster Post dieses Treads?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=393044

Razor
Ähem ... :redface:

LovesuckZ
2007-12-04, 18:02:22
Ein Absturz ist absolut inakzeptabel.

Aber mal ein anderes Beispiel:
http://img141.imageshack.us/img141/4364/1162704071122rv6708800gmh8.jpg
http://64.233.179.104/translate_c?hl=de&langpair=zh%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0711/1162704_7.html
8800 GT 256M stürzt ab, wo eine 3850 für manchen durchaus akzeptable 16FPS erreicht die wohlmöglich noch steigerbar sind mit etwas Tweaking, wobei aber der Speicherverbrauch vielleicht gleich bleibt und somit die 88 GT weiterhin nicht lauffähig wäre.


Beide brechen aufgrund des Speichers ein. Eine herabsetzung der Qualität auf beiden Karten käme beiden zugute.

reunion
2007-12-04, 18:07:59
Beide brechen aufgrund des Speichers ein.

Wo bricht die 3850 aufgrund des Speichers ein? Sie skaliert genau so, wie man es aufgrund der Auflösungsstufen erwarten würde. Jede höhere Auflösungsstufe kostet 25-30%, was Aufgrund der wesentlich stärker steigenden Pixelanzahl nicht verwunderlich ist. Ein abruptes "Einbrechen" ist nicht auszumachen. Die 8800GT halbiert hingegen gleich fast mal die fps bei 1280 x 1024 und stellt bei höheren Auflösungsstufen anscheinend gar nichts mehr dar.

robbitop
2007-12-04, 18:08:50
Weil eine GTS320 abkachelt und eine 3850 256MB dann immerhin noch 4fps hinbekommt?
Ich weiß nicht, was besser ist... Ultra-Slideshow oder gar nicht erst darstellen.

Razor
Razor für diese Diskussion sind absolute Werte irrelevant. Prozentuale/ relative Einbrüche geben einzig Aufschluss über eine solche Charakteristik.

@Reunion
es liegt in der Art des Rasterizing Prozesses, dass es nicht einfach vorraussagbar ist, welche Texturdaten präzise im VRAM zum Zeitpunkt benötigt werden. Denn das Nachladen kostet Zeit. Das ist eine komplexe Entwicklung, solange keine Virtualisierung des Speichers verwendet wird.
Offenbar betreiben beide IHVs unterschiedliche Philosophien oder haben einfach unterschiedliche Prioritäten in der Speicherverwaltung.

Die 512er 3800 scheint nicht so "abrupt" einzubrechen. Ebenfalls die 256er. Die Charakteristik ist defintiv eine andere.

AnarchX
2007-12-04, 18:09:28
Beide brechen aufgrund des Speichers ein.
Naja, bei der 3850 sieht es eher nach der Belastung durch die höhere Auflösung aus und nicht nach einem überproportionalen Einbruch, wie bei der 88GT.


Eine herabsetzung der Qualität auf beiden Karten käme beiden zugute.
Als würden alle Grafik-Optionen eines Spieles einen niedrigen Speicherverbrauch nach sich ziehen.

laser114
2007-12-04, 18:38:57
Wer bestellt?

http://www.hardwareversand.de/articledetail.jsp?aid=19431&agid=554&ref=13
http://www.atelco.de/articledetail.jsp?aid=19431&agid=554&ref=13

Sofort lieferbar, beides versteht sich, ist ja im Endeffekt der selbe Laden.

robbitop
2007-12-04, 19:07:58
Für den Preis bestellt man sich als Forumfuchs doch lieber eine 8800GTX, die in Forenmarktplätzen mittlerweile für ca 320 EUR verfügbar sind.

Nakai
2007-12-04, 19:11:21
"akzeptable 16fps"?

Besser als 0 von der GT.
Dann drehst eben die Texturqualität etwas runter, dann gibts schon wieder relativ spielbare Fps.
Vll läufst dann auf der GT wieder.


mfg Nakai