PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 9600 GT: (P)Review-Thread


Seiten : [1] 2

AnarchX
2008-02-21, 14:28:03
http://img404.imageshack.us/img404/6366/96gtvt9.jpg (http://imageshack.us)

Testberichte:

deutsch :
http://www.ht4u.net/reviews/2008/asus_en9600_gt/
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt/
http://www.pcgameshardware.de/aid,633071/Test/Benchmark/PCGH-Test_Geforce_9600GT/
http://www.ht4u.net/reviews/2008/msi_geforce_9600_gt/

eng. und andere Sprache:
http://www.legionhardware.com/html/doc.php?id=724
http://www.ocworkbench.com/2008/ecs/N9600GT-512MX-P-with-Accelero-S2/g1.htm
http://www.tweaktown.com/reviews/1293/nvidia_geforce_9600gt_512mb_g94_tested/index.html
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0801%2 F1205247.html&langpair=zh%7Cen&hl=de&ie=UTF-8
http://vga.zol.com.cn/82/822135.html
http://www.vr-zone.com/articles/64_Shader_Processors%3A_NVIDIA_Geforce_9600GT/5575-1.html
http://en.hardspell.com/doc/showcont.asp?news_id=2561&pageid=2423
http://www.anandtech.com/video/showdoc.aspx?i=3234
http://guru3d.com/article/content/501/
http://www.hexus.net/content/item.php?item=11865
http://www.neoseeker.com/Articles/Hardware/Reviews/palit9600gtsonic/
http://www.tomshardware.com/2008/02/21/nvidia_geforce_9600_gt/
http://www.expreview.com/review/2008-02-22/1203657713d7905_12.html
http://www.hardware.fr/articles/705-1/dossier-geforce-9600-gt-radeon-hd-3650.html
http://www.ixbt.com/video3/g94-part1.shtml (Kartenübersicht)
http://www.ixbt.com/video3/g94-part2.shtml (Theorie)
http://www.ixbt.com/video3/g94-part3.shtml (Spiele)
http://www.firingsquad.com/hardware/nvidia_geforce_9600_gt_performance/
http://www.pcinlife.com/article/graphics/2008-02-21/1203606520d503.html (mit 256MB 96GT)
http://www.xbitlabs.com/articles/video/display/gainward-bliss9600gt-512gs.html

Spezfikationen:

GPU:

Bezeichnung: G94-300
Prozess: 65nm
Transistorenanzahl: 505 Mio.
Die-Size: ~240mm²

Funktionseinheiten:

64 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL)
32 TAs, 32 bi-TMUs
16 ROPs(8 Z, 4xMSAA in einem Takt)
256-Bit Speicherinterface (4 fach unterteilt)


256/512MiB GDDR3

Taktraten:

TMU/ROPs: 650MHz
Shadertakt: 1625MHz
Speichertakt: 900MHz

Theoretische Leistungs-Daten:

Pixelfüllrate: 10400 MPix/s
Texelfüllrate: 20800 MTex/s
arithmetische Leistung: MADD -> 208 GFLOPs, MADD+MUL -> 312 GFLOPs
Speicherbandbreite: 57,6GB/s

8800 GT:

Pixelfüllrate: 9600 MPix/s
Texelfüllrate: 33600 MTex/s
arithmetische Leistung: MADD -> 336 GFLOPs, MADD+MUL -> 504 GFLOPs
Speicherbandbreite: 57,6 GB/s


Verbrauch:
http://img510.imageshack.us/img510/892/9600gtpower6f88651ya4.png (http://imageshack.us)
(Karte allein) von Xbit-Labs (http://www.xbitlabs.com/articles/video/display/gainward-bliss9600gt-512gs.html)

9600 GT @ Geizhals (http://geizhals.at/deutschland/?cat=gra16_512&asuch=9600gt&sort=p)

AnarchX
2008-02-21, 14:32:00
Stromverbrauch sieht wohl trotz 95W TDP doch gar nicht so schlecht aus:
http://img512.imageshack.us/img512/163/power2aa45358lm4.jpg (http://imageshack.us)
http://www.legionhardware.com/html/doc.php?id=724

An den Shadern hat sich nichts getan, wenn auch manche Ergebnisse danach aussehen. Hier wird hauptsächlich die hohe Bandbreite und die hohe Z-Füllrate der 9600 GT entscheident sein, teilweise a wohl auch der hohe Setuptakt von 650MHz, wie man hier am simple VS-Test sieht:
http://img123.imageshack.us/img123/9704/g943dm6featurekr3.png (http://imageshack.us)
http://vga.zol.com.cn/82/823396.html

GeneralHanno
2008-02-21, 14:34:25
CB dürfte den test um 15 uhr hochladen, oder?

das_Apo
2008-02-21, 14:35:48
Da hab ich gleich mal eine dumme Frage. So steht z.B. in den News, dass die 9600GT von der Leistung her der 8800GT teilweise recht nahe kommt. Aber wie wird das zukünftig bei wachsendem Bedarf an Shaderpower ausschauen, wird es sich da nicht bemerkbar machen, dass die 9600GT nur 64 Shadereinheiten hat?

dildo4u
2008-02-21, 14:38:07
Die Serie 9 Verbesserungen bringen ziehmlich viel eine 9800GTX mit 128 Shadern@750mhz plus 512bit Speicherinterface und 1.2GHz Ram dürfte ein echtes Monster werden.

Hvoralek
2008-02-21, 14:42:29
Die Serie 9 Verbesserungen bringen ziehmlich viel Die was bitte?

eine 9800GTX mit 128 Shadern@750mhz plus 512bit Speicherinterface und 1.2GHz Ram dürfte ein echtes Monster werden.Das ist ein ganz einfacher D8P wie der der 8800 GTS 512. Da gibt es kein 512- bit- SI und keine großartigen Verbesserungen ggü. den 8800ern (nur ggü. G80 ein bisschen Kleinkram). Wenn es bei D9P irgendwelche Neuigkeiten gibt, betreffen die nicht die 9800er.

AnarchX
2008-02-21, 14:45:43
Da hab ich gleich mal eine dumme Frage. So steht z.B. in den News, dass die 9600GT von der Leistung her der 8800GT teilweise recht nahe kommt. Aber wie wird das zukünftig bei wachsendem Bedarf an Shaderpower ausschauen, wird es sich da nicht bemerkbar machen, dass die 9600GT nur 64 Shadereinheiten hat?
Das ist definitiv eine Frage die ich mir auch stelle, aber irgendwie habe ich die Vermutung, dass die Bandbreite und die Z-Füllrate der 8800 GT wohlmöglich einfach zu gering sind um diese 60% Vorteil bei der ALU-Leistung irgendwann mal in einem Spiel deutlich zu offenbaren.

Aber warten wir besser noch ein paar Tests ab, Stalker mit 16xAF ist auch noch ein interessanter Kandidat, wo Tex-Fill wichtig sein sollte.

dildo4u
2008-02-21, 14:47:00
Die was bitte?


"After entered DX10 times, the new products did not change the structure obviously. NVIDIA afford this data: if shielded some of the G80 core SP to 64 and reduce to 256bit and then adjust the clock to GeForce 9600GT standard, the test results are:


http://www.hardspell.com/pic/article/2008/2/3/3ed94cc9-f0fa-4389-9985-2b574b29d9fa.jpg

We can see though they used the same specs, G94 core efficiency is much higher than G80 core. In DX10 game Crysis, its performances improved about 118%. This is depends on G94 technology improvement."

http://en.hardspell.com/doc/showcont.asp?news_id=2561&pageid=2428


"From the above pictures we can see the differences of G92, G94 and G80 core clearly. In the new G94 core, as it faces to mid-end market, its SP is 64, but it used 256bit bus. Because it used new dynamic compress technology, its performances even reach or exceed 8800GS.

http://en.hardspell.com/doc/showcont.asp?news_id=2561&pageid=2429

Gast
2008-02-21, 14:49:34
@AnarchX

Schreibs pls mit oben rin ;)

http://www.ht4u.net/reviews/2008/asus_en9600_gt/

Gast
2008-02-21, 14:51:57
Warum wird die 9800 GTX nicht mit denselben Vorteilen ausgestattet? :(

AnarchX
2008-02-21, 15:02:11
@AnarchX

Schreibs pls mit oben rin ;)

http://www.ht4u.net/reviews/2008/asus_en9600_gt/
Wiedermal ein schöner Test. :up:

NDA ist nun gefallen...

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt/

dildo4u
2008-02-21, 15:07:09
@AnarchX Der Transistorcount für die 9600GT wird von HT4U mit 505Mio angegeben.

http://www.ht4u.net/reviews/2008/asus_en9600_gt/index2.php

Gast
2008-02-21, 15:10:07
Und die Preise dazu.
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=9600&filter=+Liste+aktualisieren+&pixonoff=off

Denke hier stimmt alles (P/L)

Radeonator
2008-02-21, 15:12:49
Schaut aus, als ob nVidia wieder nen Wurf wie die 7600GT gelungen wäre. Ist scheinbar jetzt mode...6600GT= :down: , 7600GT :up: , 8600GT :down: , 9600GT :up:

Ergo etwas mehr Entwicklungszeit und im 2ten Zyklus kommt das eigentliche Produkt. Ist bei ATi ja das gleiche Spiel ;)

Anarchy-HWLUXX
2008-02-21, 15:14:48
Warum wird die 9800 GTX nicht mit denselben Vorteilen ausgestattet? :(
Weil man dafür einen neuen Core braucht ... wobei - alle Infos zur 9800GTX sind nur gerüchte, kann immernoch ein neuer Core sein.


@Radeonator - 6600GT ne schlechte Karte ? KA wie du darauf kommst aber ich hab das anders in erinnerung ... die 7600GT war auch OK, 8600er serie dann viel zu lahm egal wie man es dreht.

dildo4u
2008-02-21, 15:19:31
Weil man dafür einen neuen Core braucht ... wobei - alle Infos zur 9800GTX sind nur gerüchte, kann immernoch ein neuer Core sein.

Ebend bei der 8800GTX(G80) waren sich alle "Experten" auch ganz sicher das er so oder so aussieht und dann kams doch anders.Nvidia ist was die Geheimhaltung angeht ab 2006 wesentlich effektiver geworden.

AnarchX
2008-02-21, 15:22:36
Ebend bei der 8800GTX(G80) waren sich alle "Experten" auch ganz sicher das er so oder so aussieht und dann kams doch anders.
Nur ist im Treiber schon der G92-420 vorhanden und die 9800 GX2 würde ja auch keinen Sinn mehr machen, zudem wartet für H2 noch ein Monster bei NV;)

Aber diese Diskussion sollte im passenden Thread geführt werden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395419
:wink:

Und die Preise dazu.
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=9600&filter=+Liste+aktualisieren+&pixonoff=off

Denke hier stimmt alles (P/L)
Da scheint wohl nur das Budget zu entscheiden zwischen 9600 GT und 8800 GT. =)

Gast
2008-02-21, 15:26:21
Dann ist eine 9800 GTX relativ unnötig. Was würde sie mehr bieten können als eine 8800 GTX wenn sie nicht dieselben Kompressionsverfahren des G94 anbieten kann? Sie müsste sich einen Vorsprung durch sehr viel höhere Taktungen erkaufen.

GeneralHanno
2008-02-21, 15:32:56
endlich mal ne mainstramkarte mit wumms. ähnlich wie die 6600GT damals. insbesondere mit AA+AF scheinen beim G94 seine bandbreite und füllrate zu greifen, so dass er es fast mit der 8800GT (nicht ganz) und der 3870 (gleichstand) aufnehmen kann!

Radeonator
2008-02-21, 15:36:24
Weil man dafür einen neuen Core braucht ... wobei - alle Infos zur 9800GTX sind nur gerüchte, kann immernoch ein neuer Core sein.


@Radeonator - 6600GT ne schlechte Karte ? KA wie du darauf kommst aber ich hab das anders in erinnerung ... die 7600GT war auch OK, 8600er serie dann viel zu lahm egal wie man es dreht.

OK unter AGP im Gegensatz zur ATi Konkurenz war Sie einigermaßen gut, aber die 7600GT war um einiges besser :)

siegemaster
2008-02-21, 15:38:09
Die Karte ist ja schon verfügbar?! Wie sieht die leistung im vergleich zu 8800 GT aus?

dildo4u
2008-02-21, 15:39:07
Ein 9600GT SLI ist für 300€ ja auch ein echter Preis Leistungshammer wenn man das mal mit einer 3780 X2 vergleicht.Sogar bei 1600*1200 mit 4XAA und AF liegt das 9600GT SLI mit 512mb noch gut.


http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet

AnarchX
2008-02-21, 15:39:19
Die Karte ist ja schon verfügbar?! Wie sieht die leistung im vergleich zu 8800 GT aus?
:uban:
Wozu gibt es in #1 eine Liste von Testberichten... X-D

Ein 9600GT SLI ist für 300€ ja auch ein echter Preis Leistungshammer wenn man das mal mit einer 3780 X2 vergleicht.Sogar bei 1600*1200 mit 4XAA und AF liegt das 9600GT SLI mit 512mb noch gut.


Liegt wohl am 174er Treiber, immerhin skaliert sie ja ziemlich prächtig mit 60%+. Da kann man sich wohl schon mal die Balkenleistung der 9800 GX2 ausmalen. ;)

Razor
2008-02-21, 15:39:31
Dann ist eine 9800 GTX relativ unnötig. Was würde sie mehr bieten können als eine 8800 GTX wenn sie nicht dieselben Kompressionsverfahren des G94 anbieten kann? Sie müsste sich einen Vorsprung durch sehr viel höhere Taktungen erkaufen.
Was für "dieselben Kompressionsverfahren des G94"?
Oder besser: was soll an dem G94 anders sein, als beim G92, nur dass der Die nun auf 505mio transis zusammen gestaucht wurde?
(64 statt 128SP halt... ist billiger herzustellen und braucht so auch weniger saft ;-)
:confused:

Ach ja... leistungsseitig wohl etwa 20-25% unterhalb der 88GT einzuordnen... taktbereinigt.
Gleiches Speicherinterface, nur unterschiedliche GPU-Ausstattung.

Bei 650MHz etwa 20% langsamer, als die GT im Standard mit 600MHz.
Preis ist demnach zu hoch derzeit, was normal sein dürfte.

Wenn die 88GT heute mit 175€ daher kommt, dürften es also bei der 96GT maximal 140€ sein.
Derzeitiger Kurs 1,4736 USD = 1 EUR
- 8800GT MSRP 199USD +20% Taxes = 162,05€ (mit 175€ also noch zu teuer)
- 9600GT MSRP 189USD +20% Taxes = 153,91€ (hat schon den empfohlenen Verkaufspreis)

Razor

LovesuckZ
2008-02-21, 15:44:35
240mm² bei 505 Millionen transistoren? Zwietens war logisch, aber die Größe ist heftig. Eigentlich hätte er bei unter 200mm² liegen müssen, immerhin wird ein G96 wohl nur 130mm² haben...

Anarchy-HWLUXX
2008-02-21, 15:44:54
:uban:
Wozu gibt es in #1 eine Liste von Testberichten... X-D

Ich fordere die Prügelstrafe :ucatch: ;)


Tu mal den Link hier @ #1 :

http://geizhals.at/deutschland/?cat=gra16_512&asuch=9600gt&sort=p

Hamster
2008-02-21, 15:46:24
imo ist die 9600gt eine sehr interessante karte.

bin mal gespannt, wie diese sich preislich entwickelt. derzeit liegt sie mir noch zu nah an der 8800gt. denn für die 30euro aufpreis, greife ich dann doch lieber zu dieser. sollte der preisabstand sich allerdings vergrößern, könnte man sich das echt überlegen.

laser114
2008-02-21, 15:50:21
240mm² bei 505 Millionen transistoren? Zwietens war logisch, aber die Größe ist heftig.

Die Packdichte hat sich im Vergleich zum G92 nur leicht geändert, und das in die normale Richtung (ein kleinerer Chip ist üblicherweise etwas größer als die proportionale Verkleinerung an den Transistoren). Der G92 liegt irgendwo bei rund 330 mm², bei der exakt gleichen Packdichte beim G94 kommt man also rechnerisch auf 221 mm² - dazu der kleine "Aufpreis" weil der Chip kleiner ist -> das passt. ;)


Übrigens: Ich habe grade den PCGH-Test mir angesehen, dort sind 9600 GT und 8800 GT mit dem selben Treiber getestet wurden und die Minimum-FPS angesehen, welche auf der 9600 GT praktisch immer höher als bei der 8800 GT sind. Die neue Karte scheint mir die bessere Wahl zu sein.

2B-Maverick
2008-02-21, 15:52:25
ATI steht nun unter Preisdruck:
9600GT = 3870 von der Leistung

Auch Idle Verbrauch der 9600GT nur 10W höher als bei der 3870.

Da muss dann wohl der Preis entscheiden.
Und lieferbar ist die 9600 schon ab 150€. Die 3870 kostet min. 15€ mehr.

hmmmm... ;( (bin halt doch im Herzen AMD Fan :)

CU
Markus

LovesuckZ
2008-02-21, 15:55:46
Amd scheint fleißig dabei zu sein in Amerika die Preise zu senken. Dort fiel der OVP von 259$ auf 189$. Man fürchtet wohl die 9600gt doch sehr.

Razor
2008-02-21, 15:58:59
Übrigens: Ich habe grade den PCGH-Test mir angesehen, dort sind 9600 GT und 8800 GT mit dem selben Treiber getestet wurden und die Minimum-FPS angesehen, welche auf der 9600 GT praktisch immer höher als bei der 8800 GT sind. Die neue Karte scheint mir die bessere Wahl zu sein.
Habe ich da was an den Augen?
:D

Also ich sehe da eigentlich überall einen recht deutlichen Vorteil für die 88GT... min und avg.
Aber vielleicht habsch da auch 'nen Knick in der Linse... nur logisch wärs nicht.

Richtig deutlich ist der Unterscheid aber in Games wie Crysis oder Bioshock... krasse 20% Rückstand für die 9600GT.

Razor

w0mbat
2008-02-21, 16:00:54
http://www.hardware-infos.com/tests.php?test=35&seite=1


Unter 1680x1050, 4xAA / 16xAF muss die 9600 GT einen Gang zurückschalten und der HD 3850, wenn auch sehr knapp, das Feld überlassen. Rund 1,5 Prozent Rückstand muss der Nvidia-Chip hinnehmen - die HD 3850 zeigt einmal mehr ihr starkes Auftreten, wenn AA und AF ins Spiel kommen. Für einen deutlichen Vorsprung zur HD 2900 Pro reicht es aber weiterhin und auch die 8800 GT ist mit rund 12 Prozent Rückstand immer noch auf einer "Wellenlänge" bzw. setzt nicht zu überirrdischen Überholmanövern an.

LovesuckZ
2008-02-21, 16:03:54
Ja, oder man spielt eben andere Games - wie UT3 oder Call of Duty 4.

Gast
2008-02-21, 16:04:33
Stromverbrauch sieht wohl trotz 95W TDP doch gar nicht so schlecht aus:
http://img512.imageshack.us/img512/163/power2aa45358lm4.jpg (http://imageshack.us)
http://www.legionhardware.com/html/doc.php?id=724


Messungen hinter dem Netzteil sind für eine solche Aussage äußerst ungeeigent.

Gast
2008-02-21, 16:06:19
240mm² bei 505 Millionen transistoren? Zwietens war logisch, aber die Größe ist heftig. Eigentlich hätte er bei unter 200mm² liegen müssen, immerhin wird ein G96 wohl nur 130mm² haben...

Vor was sollte sich AMD genau fürchten? Das nV ein 25% größeres Die als RV670 unter dessen Preis verkaufen muss?

Gast
2008-02-21, 16:08:27
Falscher Quote oben:

Amd scheint fleißig dabei zu sein in Amerika die Preise zu senken. Dort fiel der OVP von 259$ auf 189$. Man fürchtet wohl die 9600gt doch sehr.

Vor was sollte sich AMD genau fürchten? Das nV ein 25% größeres Die als RV670 unter dessen Preis verkaufen muss?

LovesuckZ
2008-02-21, 16:09:23
Vor was sollte sich AMD genau fürchten? Das nV ein 25% größeres Die als RV670 unter dessen Preis verkaufen muss?

Tja, vor genau dem, was AMD gemacht hat: Über Masse zu Geld kommen. Eine 3850 muss unter die 100€, um attraktiv zu sein. Das wird beiden sowas von Schaden in Zukunft. Und eine 3870 muss ebenfalls preislich attraktiver sein, da IDLE-Verbrauch und Videobeschleunigung für viele wohl kein ernsthaftes Argument darstellen.

Gast
2008-02-21, 16:10:49
Imho wird es der 9600 GT genau so gehen wie allen letzten Performancekarten von Nvidia: Bei Release verhältnismäßig stark aber nach ein paar Monaten aufgrund fehlender arithmetischer Leistung zunehmend an Boden verlierend gegenüber der Konkurrenz.

Gast
2008-02-21, 16:11:35
Tja, vor genau dem, was AMD gemacht hat: Über Masse zu Geld kommen. Eine 3850 muss unter die 100€, um attraktiv zu sein. ...

Einfach nur lol :D

Hvoralek
2008-02-21, 16:12:32
http://en.hardspell.com/doc/showcont.asp?news_id=2561&pageid=2429Und den Vergbleich bitte noch einmal mit einem D8P, Der takt- und einheitenbereinigt schon etwas schneller ist als G80. Selbst wenn bei D9P intern irgendwelcher Kleinkram optimiert worden wäre, wären das keine "Serie 9 Verbesserungen", solange es für die 9800er keine neue Version des D8P gibt. Etwa 5% (bzw. noch weniger ggü. D8P, wenn überhaupt) sind auch beim besten Willen nicht "ziemlich viel".

Gast
2008-02-21, 16:12:49
http://www.abload.de/img/12i93g.gif (http://www.abload.de/image.php?img=12i93g.gif)

http://www.abload.de/img/16g5as.gif (http://www.abload.de/image.php?img=16g5as.gif)

http://www.abload.de/img/19uyky.gif (http://www.abload.de/image.php?img=19uyky.gif)


Im Vorzeige Game von NV ist es nicht gerade der Hit,naja sonst ist Graka o.k.

LovesuckZ
2008-02-21, 16:14:25
Einfach nur lol :D

Was, lol? Eine 9600GT liegt zwischen der 3870 und 8800GT. Verbraucht unter Last deutlich weniger und ist deutlich kühler - das waren alles mal Argumente für die 38xx Karten.
Warum sollte man eine 3850 - 512 kaufen, wenn es für den exakt gleichen Preis eine 9600gt gibt?

dildo4u
2008-02-21, 16:14:53
Zotac hat mal wieder eine schöne Amp Edition geschnürt.

Chiptakt: 725MHz, Speichertakt: 1000MHz, Shadertakt: 1625Mhz

http://geizhals.at/deutschland/a316056.html

Sind Shader und Core Clock beim G94 unabhängig voneinander?

AnarchX
2008-02-21, 16:15:37
Sind Shader und Core Clock beim G94 unabhänig voneinander?

Sind sie doch bei jeder G8x/G9x GPU.

Gast
2008-02-21, 16:17:09
Warum sollte man eine 3850 - 512 kaufen, wenn es für den exakt gleichen Preis eine 9600gt gibt?

*bessere VC
*Powerplay
*DX10.1
*kein Vram Bug

Anarchy-HWLUXX
2008-02-21, 16:20:27
*bessere VC
*Powerplay
*DX10.1
*kein Vram Bug
- Was ist VC ?
- Was ist PowerPlay ?
- DX10.1 gibt es noch nicht und für XP User komplett egal
- Ist nicht bestätigt das der noch da ist

;)

laser114
2008-02-21, 16:24:35
Habe ich da was an den Augen?
:D

Also ich sehe da eigentlich überall einen recht deutlichen Vorteil für die 88GT... min und avg.
Aber vielleicht habsch da auch 'nen Knick in der Linse... nur logisch wärs nicht.

Da gehts los:
http://www.pcgameshardware.de/?menu=browser&article_id=633071&image_id=779377

Tritt zwar nicht immer auf, aber meist dann wenn die Minimum-FPS runter gehen (also dann wenn die relevant werden).

Dürfte an der aktivierten Kompressionsmethode liegen. 9600 GT 256 vs. 8800 GT 256 wäre mal interessant.

dildo4u
2008-02-21, 16:29:56
firingsquad: NVIDIA GeForce 9600 GT Performance Preview

http://www.firingsquad.com/hardware/nvidia_geforce_9600_gt_performance/

Razor
2008-02-21, 16:30:24
Ja, oder man spielt eben andere Games - wie UT3 oder Call of Duty 4.
Bei PCGH?
Bist Du sicher, dort die Bildchen richtig geschaut zu haben?

CoD4:
1280 noAA - 66/81,8 vs. 62/72,1
1280 4xAA - 49/58,2 vs. 41/49,4
1680 noAA - 63/73,1 vs. 54/63,4
1680 4xAA - 43/48,4 cs. 37,41,4

UT3:
1280 noAA - 56/106,4 vs. 53/101,2
1280 4xAA - 51/78,2 vs. 50/72,4
1680 noAA - 53/98,5 vs. 51/83,9
1680 4xAA - 40/56,3 vs. 36/50,4

Gerade CoD4 zeigt sehr deutlich, dass der 9600GT da ordentlich die Luft weg bleibt, aber selbst UT3 schlägt sehr deutlich zugunsten der 8800GT aus.
Oder wolltest Du was anderes damit sagen?
:confused:

Imho wird es der 9600 GT genau so gehen wie allen letzten Performancekarten von Nvidia: Bei Release verhältnismäßig stark aber nach ein paar Monaten aufgrund fehlender arithmetischer Leistung zunehmend an Boden verlierend gegenüber der Konkurrenz.
Jup... sieht so aus.
Aber viel wichtiger scheint zu sein: sehr viel günstiger herzustellen!
(und dank geringerer Leistungsaufnahme gut für den OEM Bereich ;-)

Da gehts los:
http://www.pcgameshardware.de/?menu=browser&article_id=633071&image_id=779377

Tritt zwar nicht immer auf, aber meist dann wenn die Minimum-FPS runter gehen (also dann wenn die relevant werden).

Dürfte an der aktivierten Kompressionsmethode liegen. 9600 GT 256 vs. 8800 GT 256 wäre mal interessant.
Na das halte ich eher für einen krassen Fehler, denn ALLE anderen Tests sprechen eine ganz andere Sprache.
Und noch einmal: von welchen "Kompressionsmethoden" redet ihr da?
:confused:

Zumal sich das Ganze selbst bei PCGH-Crysis mit 4xAA doch wieder strak relativiert, gell?
Trotzdem... die noAA-Benchies werden vermutlich fehlerhaft sein, wenn sie nicht durch andere Tests bestätigt werden.



Was ich richtig cool finde... bei 1680 sind die min fps glatt doppelt so hoch, wie bei 1280... jeha! :D:|
Vielleicht hätte PCGH ganz gut daran getan, die 88GT sowohl mit dem alpha, als auch mit dem offiziellen Treiber zu testen, gell?



Razor

deekey777
2008-02-21, 16:34:05
Schaut aus, als ob nVidia wieder nen Wurf wie die 7600GT gelungen wäre. Ist scheinbar jetzt mode...6600GT= :down: , 7600GT :up: , 8600GT :down: , 9600GT :up:

Hm? Die 6600GT war von ihrem Start bis zum Launch der 7600GT der Mittelklassen-König.
6600GT :up:, 7600 GT :up: :up:, 8600GTS :down: :down: ... Die 9600GT ist wirklich ein Hammer.

Gast
2008-02-21, 16:35:08
Wiso testet CB nichtmehr Colin McRae? Ist das Game zu alt? Oder liegt es daran das die G9x ab 1600x1200 4xAA/16xAF komplett wegbrechen -> http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/14/#abschnitt_colin_mcrae_dirt

:rolleyes:

Gast
2008-02-21, 16:38:02
- Was ist VC ?
- Was ist PowerPlay ?
- DX10.1 gibt es noch nicht und für XP User komplett egal
- Ist nicht bestätigt das der noch da ist

;)

VC-1-Beschleunigung, Powerplay sollte klar sein, aber auch nicht das der Vram Bug gefixt ist (siehe G92)

laser114
2008-02-21, 16:41:23
Bei PCGH?
Bist Du sicher, dort die Bildchen richtig geschaut zu haben?

Gerade CoD4 zeigt sehr deutlich, dass der 9600GT da ordentlich die Luft weg bleibt, aber selbst UT3 schlägt sehr deutlich zugunsten der 8800GT aus.
Oder wolltest Du was anderes damit sagen?
:confused:

Ich glaube er meinte diesen Test (http://www.hardware-infos.com/tests.php?test=35&seite=11).
Allerdings gibts da im Fazit mit ein paar Karten einen Test von UT3 und CoD4, wo es in dem angesprochenen Setting (1680*1050, 4x AA / 16x AF) genauso aussieht.

LovesuckZ
2008-02-21, 16:42:14
*Powerplay

Habe ich erwähnt. Dafür erhalt man Mehrleistung bei gleichem bis geringerem Verbrauch.

*kein Vram Bug

Und tauscht man gegen einen AA-Bug, der in jeder Auflösung auftritt. Was für ein Vorteil. ;D

35007
2008-02-21, 16:42:54
Naja, halt die erste "offizielle" Mainstreamkarte mit 256bit SI. Etwas Chipkosmetin betrieben und voila hier ist die neue Mainstreamlösung.

Dass sie schneller als die HD3850 ist, war ein mehr als logischer Schritt. Nvidia hatte noch etwas Zeit, das Konzept zugunsten der Leistung zu überarbeiten. Ich denke sie hatten die 9600GT schon etwas länger in der Tasche, wenn man bedenkt, wie lange es vom G80 bis zum D9P gedauert hat.

Als erste "anständige" Performancelösung würde ich die Karte nicht nennen, das ist sicherlich die HD3850.

Interessant ist, ob sich der Preis in den nächsten Monaten auf 8600GT Regionen zubewegt.

Ansonsten ist es eine schöne Karte mit passabler Leistung. Sie soll trotzdem im Preis fallen.

35007

Alexander
2008-02-21, 16:43:56
Übrigens: Ich habe grade den PCGH-Test mir angesehen, dort sind 9600 GT und 8800 GT mit dem selben Treiber getestet wurden und die Minimum-FPS angesehen, welche auf der 9600 GT praktisch immer höher als bei der 8800 GT sind. Die neue Karte scheint mir die bessere Wahl zu sein.
Ist mir auch aufgefallen. Wieso soll man noch eine 8800GT kaufen,wenn doch die Minimum-FPS immer das eigentliche Problem darstellen?

Gast
2008-02-21, 16:45:21
HD-DVD ist Tod. Fast alle BD Titel sind entweder MPEG2HD oder H.264...

Gast
2008-02-21, 16:47:25
Und tauscht man gegen einen AA-Bug, der in jeder Auflösung auftritt. Was für ein Vorteil. ;D

Wenn du den G9x meinst,hast völlig recht ;D

http://www.abload.de/img/unbenanntlzf.jpg (http://www.abload.de/image.php?img=unbenanntlzf.jpg)

LovesuckZ
2008-02-21, 16:48:33
Ich glaube er meinte diesen Test (http://www.hardware-infos.com/tests.php?test=35&seite=11).
Allerdings gibts da im Fazit mit ein paar Karten einen Test von UT3 und CoD4, wo es in dem angesprochenen Setting (1680*1050, 4x AA / 16x AF) genauso aussieht.

Interessant, dass ist die erste Seite, die in diesen Test die 3850 deutlich vorne sieht...

The_Invisible
2008-02-21, 16:51:05
Wenn du den G9x meinst,hast völlig recht ;D

http://www.abload.de/img/unbenanntlzf.jpg (http://www.abload.de/image.php?img=unbenanntlzf.jpg)

das ist kein bug, sondern ineffiziens. dafür gibt es aber 8x/16xCSAA

mfg

35007
2008-02-21, 16:53:10
Wie viel schneller ist denn das 8XCSAA gegenüber der herkömmlichen Rendermethode?

35007

reunion
2008-02-21, 16:54:53
Was, lol? Eine 9600GT liegt zwischen der 3870 und 8800GT. Verbraucht unter Last deutlich weniger und ist deutlich kühler - das waren alles mal Argumente für die 38xx Karten.
Warum sollte man eine 3850 - 512 kaufen, wenn es für den exakt gleichen Preis eine 9600gt gibt?

Die 9600GT liegt bestenfalls auf dem Niveau der 3870, und das auch nur mit 4xAA/16xAF. Ohne AA/AF oder mit 8xAA/16xAF liegt die 3870 deutlich vorne. Den niedrigeren Lastverbrauch verspielt man durch den höheren idle-Verbrauch. Die Preise der RV670-Karten werden sicherlich sinken. Die niedrigere Arithmetikleistung der 9600GT wird in Zukunft sicher nicht zum Vorteil. Wo liegen die Vorteile einer 9600GT?

LovesuckZ
2008-02-21, 16:55:07
Wie viel schneller ist denn das 8XCSAA gegenüber der herkömmlichen Rendermethode?

35007

Es schwankt je nach Spiel. In Farcry mit HDR ist es z.B fast doppelt so schnell.

Hvoralek
2008-02-21, 16:59:18
Wie viel schneller ist denn das 8XCSAA gegenüber der herkömmlichen Rendermethode?Das ist kaum langsamer als normales 4x MSAA. Sieht aber auch nicht allzu viel besser aus.

Razor
2008-02-21, 17:00:47
Ist mir auch aufgefallen. Wieso soll man noch eine 8800GT kaufen,wenn doch die Minimum-FPS immer das eigentliche Problem darstellen?
Dir ist auch aufgefallen, dass der Crysis-Test dort völlig irrwitzige Werte zeigt?
Interessant...
:D

Wo liegen die Vorteile einer 9600GT?
Für nVidia?
;D

Razor

LovesuckZ
2008-02-21, 17:01:00
Die 9600GT liegt bestenfalls auf dem Niveau der 3870, und das auch nur mit 4xAA/16xAF. Ohne AA/AF oder mit 8xAA/16xAF liegt die 3870 deutlich vorne.

12% ist wohl kaum so deutlich. Dafür ist die 3870 auch 12% teurer zur Zeit. Zur 3850 herrscht in diesen Settings Gleichstand. Und 8xMSAA ist bei G8x/9x kein Problem, da es genug Alternativen gibt.

Den niedrigeren Lastverbrauch verspielt man durch den höheren idle-Verbrauch. Die Preise der RV670-Karten werden sicherlich sinken. Wo liegen die Vorteile einer 9600GT?

Mit was vergleichst du? +10 und -30 zur 3870 gleichen den IDLE mehr als deutlich aus. Wer eine Stunde am Tag spielt, muss schon 3h00m01 Idlen, um einen Gewinn zu haben.
Die Vorteile liegen doch klar auf der Hand: Deutlich kühler als die Konkurrenz - jaja, das ist seit der Kritik an der 8800GT ein Vorteil - bessere Leistung, bessere Bildqualität. Wer spielt, sollte eher hier zugreifen. Wer deutlich länger idlet, ist mit einer 3850 besser beraten. Die 3870 ist dagegen bei einem höhreren Preis kaum noch interessant.

Gast
2008-02-21, 17:04:31
Wie viel schneller ist denn das 8XCSAA gegenüber der herkömmlichen Rendermethode?

35007

http://www.ht4u.net/reviews/2007/nvidia_g80_roundup/index20.php

Zwar nicht mehr ganz frisch, aber an der Grundausssage dürfte sich nur wenig geändert haben.

Gast
2008-02-21, 17:05:52
was ist das denn für ein bescheuerter Test....X² und GT SLI gegen den Rest der Welt....

Alexander
2008-02-21, 17:11:08
Dir ist auch aufgefallen, dass der Crysis-Test dort völlig irrwitzige Werte zeigt?
Interessant...
:D
Könntest du deinen Überheblichkeitslevel vielleicht auf ein normales Niveau herunter schrauben? Dazu müsstest du den Regler nur auf halbe Kraft runter drehen. Oder gar auf ein drittel?

Danke.

Razor
2008-02-21, 17:14:35
Danke.
Nö, ganz sicher nicht.

Schau auch Du gerne ALLE anderen Tests an (auch die bei PCGH!) und urteile selbst...
...der Crysis-Test bei PCGH ist leider mächtig in die Hose gegangen.

Razor

Gast
2008-02-21, 17:27:39
Wie isn das jetzt, kann man jetzt mit einer HD3850 länger durchhalten als mit einer 9600GT?
Weil als ATI-Typie stiere ich auch schon ne weile auf die 9600GT nur könnte deren Lebensdauer eher gering sein und die Atis in diesen Regionen auch noch in einem Jahr, natürlich mit verminderten Settings, für vernünftige Framerates in dann aktuellen Spielen sorgen während die 9600GT nicht mehr zu gebrauchen sind. So ein Szenario wäre nicht das erste mal....
Ich Spiele und arbeite am Rechner jeweils zu etwa 50% was ist dann die bessere Wahl, weil hab gehört, dass die HD3850 schon für unter 100Eur gesichtet wurde.

Mal ehrlich, auch wenn ich sonst ein Ati-Fanboy bin, die 9600Gt ist echt scharf (aber erst ab 150Eur), nur gebt mir sinnvolle antworten und keine NV-Werbung bitte.

LovesuckZ
2008-02-21, 17:30:45
Nein, das wird nicht passieren. Die theoretische Rechenleistung der 3850 ist deutlich höher aber was am Ende durchkommt, ist eben von der Anwendung abhängig.

GeneralHanno
2008-02-21, 17:30:51
Ist eigentlich schon die anliegende Kernspannung bekannt? Themperaturreserven scheinen ja da zu sein. Also Vmod ahoi ;D

Alexander
2008-02-21, 17:32:57
Nö, ganz sicher nicht.

Schau auch Du gerne ALLE anderen Tests an (auch die bei PCGH!) und urteile selbst...
...der Crysis-Test bei PCGH ist leider mächtig in die Hose gegangen.

Razor


Du hast meinen Beitrag nicht mal verstanden...... Man kann auf fehlerhafte Tests auch hinweisen, ohne den arroganten Obermacker raushängen zu lassen. Oder meinst du, dass du mit solchem Auftreten jemanden beeindrucken kannst?

Gespräch beendet.

LovesuckZ
2008-02-21, 17:35:01
Ist eigentlich schon die anliegende Kernspannung bekannt? Themperaturreserven scheinen ja da zu sein. Also Vmod ahoi ;D

Ja, siehe Bild:

http://resources.vr-zone.com/yantronic/9600gt/p545/gpuvolt.jpg

http://www.vr-zone.com/articles/64_Shader_Processors%3A_NVIDIA_Geforce_9600GT/5575-5.html

Gast
2008-02-21, 17:39:17
Die 9600GT liegt bestenfalls auf dem Niveau der 3870, und das auch nur mit 4xAA/16xAF. Ohne AA/AF oder mit 8xAA/16xAF liegt die 3870 deutlich vorne. Den niedrigeren Lastverbrauch verspielt man durch den höheren idle-Verbrauch. Die Preise der RV670-Karten werden sicherlich sinken. Die niedrigere Arithmetikleistung der 9600GT wird in Zukunft sicher nicht zum Vorteil. Wo liegen die Vorteile einer 9600GT?

Schaut man sich die tests aber einzeln an, dann sind die beiden fast gleich auf. UNd da gibt es halt 2 bis 3 games, die die NV in keller ziehen und somit das "schlechte" Rating zustande kommt.
Wenn ich aber als fanboy, das Performancerating Qualität Rating zum vergleich nehm, kann man sich vieles schön reden.

Nichts für ungut :D

p.s. Is nicht auf dich bezogen. (allgemein)

AnarchX
2008-02-21, 17:44:33
Mal eine Monstertabelle von PCinlife, mit vielen Benchmarks und Karten unter anderem auch die 9600 GT 256MB:
http://img254.imageshack.us/img254/1583/gameresultcompare2b54d0ug4.th.png (http://img254.imageshack.us/my.php?image=gameresultcompare2b54d0ug4.png)
http://www.pcinlife.com/article/graphics/2008-02-21/1203606520d503_19.html

Auch interessant:
“The new compression technology kicks in at higher resolutions and AA settings. G80 based architectures sometimes could not compress all surfaces at such extreme settings. This is new to G92/G94.”

LovesuckZ
2008-02-21, 17:51:09
Quelle?
Bis jetzt sehe ich eher, dass der 174.xx Treiber das erledigt.

/edit: Okay, ich muss mich korrigieren. Die 9600GT ist ja nur 35% hinter der 8800GTX...

AnarchX
2008-02-21, 17:52:47
Quelle?
Bis jetzt sehe ich eher, dass der 174.xx Treiber das erledigt.
http://www.pcinlife.com/article/graphics/2008-02-21/1203606520d503_1.html

Aber die Gerüchte darüber gibt es doch schon seit dem G92-Lauch.

GeneralHanno
2008-02-21, 17:55:33
hmm. 1,15V, ich hatte ja gehofft, dass der chip mit etwas weniger spannung auskommt (so wie die 8800GT). raum für nen vmod ist aber immer noch ;)

AnarchX
2008-02-21, 18:00:52
hmm. 1,15V, ich hatte ja gehofft, dass der chip mit etwas weniger spannung auskommt (so wie die 8800GT). raum für nen vmod ist aber immer noch ;)
Für 650MHz brauch es wohl eben etwas mehr Spannung.

Aber was ich auch interessant finde ist, dass bei VR-Zone alle Karten über 1.1GHz beim Speichertakt schaffen:
http://img139.imageshack.us/img139/83/clockcompare2b6473eazs3.jpg (http://imageshack.us)

Gast
2008-02-21, 18:01:19
Nein, das wird nicht passieren. Die theoretische Rechenleistung der 3850 ist deutlich höher aber was am Ende durchkommt, ist eben von der Anwendung abhängig.

Wie kannst du dir da so sicher sein? Vielleicht wird in einem Jahr eben mehr auf Geometrie gesetzt und dann sieht es vielleicht ganz düster für die 9600GT aus.

Gast
2008-02-21, 18:02:08
MSI mit zwei 1000ern: davon eine silent!
MSI N9600GT ZILENT 1G
http://www.msi.eu/news/press/2008/PR_N9600GT.pdf :up:

LovesuckZ
2008-02-21, 18:02:23
Und der Quidingbumskack schafft nichtmal die Spezifikation. :ugly:

Wie kannst du dir da so sicher sein? Vielleicht wird in einem Jahr eben mehr auf Geometrie gesetzt und dann sieht es vielleicht ganz düster für die 9600GT aus.

Das wird doch schon seit Mai gepredigt. nVidia ist viel zu stark in D3D10 involviert, dass soetwas passieren wird.

Gast
2008-02-21, 18:06:05
Hä?
Also besticht NV Microsoft damit die extra auf NV tunen, oder wie?

Sorry, aber das ist mal total hirnrissig...

dllfreak2001
2008-02-21, 18:16:10
Warum muss man sowas predigen?

Thunder99
2008-02-21, 18:17:27
Wenn mann du quer Beet die Benches anschaut wird es sehr schwer für ATI´s HD3850/70

Fast überall wird sie geschlagen, inklusive Stromverbrauch :eek: und der Verlust beim Zuschalten von AF ist ja extrem gering (Bei Gothic 3 @ CB 9600GT 30 zu 29 fps // HD3870 30 zu 20 fps :eek: )

Gast
2008-02-21, 18:23:14
Zotac GeForce 9600 GT, 1024MB GDDR3 :up:
http://geizhals.at/eu/?cat=gra16_512&asuch=9600gt

knallebumm
2008-02-21, 18:24:52
Unter 1280x1024 4xAA/16xAF ist eine 9600gt in Crysis bei computerbase schneller als eine 8800gts 512. (wenn auch vielleicht nicht mehr spielbar)

Wie geht das denn?

Einige sagen hier, daß es in Zukunft an Arithmetikleistung fehlen wird. Welches Spiel ist denn im Moment in dieser Hinsicht besonders fordernd?

AnarchX
2008-02-21, 18:29:13
Unter 1280x1024 4xAA/16xAF ist eine 9600gt in Crysis bei computerbase schneller als eine 8800gts 512. (wenn auch vielleicht nicht mehr spielbar)

Wie geht das denn?

Die GTS verwendet noch einen Treiber vom Dez. 2007.
Schau besser hier:
http://www.pcgameshardware.de/?menu=browser&article_id=633071&image_id=779380

Gast
2008-02-21, 18:29:38
Unter 1280x1024 4xAA/16xAF ist eine 9600gt in Crysis bei computerbase schneller als eine 8800gts 512. (wenn auch vielleicht nicht mehr spielbar)

Wie geht das denn?

Computerbase übernimmt die alten Meßwerte, daher liegen zwischen den Tests oft mehrere Treiberversionen. Es kann natürlich auch einfach sonst was schief gelaufen sein, sind auch nur Menschen :)

Gast
2008-02-21, 18:39:38
Die UT3-Engines ist auf extreme Polycounts ausgelegt.
Mich würde es nicht wundern wenn die da was nachlegen.
Außerdem soll es ja eine der beliebtesten Engines werden.

AnarchX
2008-02-21, 18:45:25
Die UT3-Engines ist auf extreme Polycounts ausgelegt.
Mich würde es nicht wundern wenn die da was nachlegen.
Außerdem soll es ja eine der beliebtesten Engines werden.
Von Multiplattformtiteln und da sind imo die 3D-Modelle wohl das letzte was für den PC extra angefertigt wird. Zudem bleibt einem hohen Polycount auch das Problem, dass man die entstehenden Kanten wieder alle glätten muss.

btw.
iXBT hat auch wieder einen schönen Test im Angebot:
http://www.ixbt.com/video3/g94-part1.shtml (Kartenübersicht)
http://www.ixbt.com/video3/g94-part2.shtml (Theorie)
http://www.ixbt.com/video3/g94-part3.shtml (Spiele)

Gast
2008-02-21, 18:47:40
Wohl eher die Texturen, denn die Modelle...

dargo
2008-02-21, 19:01:05
Zotac GeForce 9600 GT, 1024MB GDDR3 :up:
http://geizhals.at/eu/?cat=gra16_512&asuch=9600gt
Naja, ich hab da so meine Bedenken ob bei einer G9600GT 1GB Vram wirklich nötig sind. Wobei, bei SLI würde es denke ich schon Sinn machen.

GeneralHanno
2008-02-21, 19:11:39
das mit dem ramtakt ist mir auch schon aufgefallen. CB und PCGH kommen auf 1,1GHz , und das bei 1ns GDDR3 ...
scheinbar hat samsung ganze arbeit geleistet

Gast
2008-02-21, 19:18:35
So wirklich vom Hocker gerissen haben mich die jüngsten Benchmarks der Karte aber nicht gerade! Verstehe auch nicht warum hier Vergleiche zur 6600GT und 7600GT gemacht werden, die 6600GT hatte die 5900Ultra geschlagen und ich glaube die 7600GT war auch schneller als die 6800Ultra. Und was sehen wir nun hier? Die 8800Ultra ist immernoch VIEL schneller als die 9600GT, also ich habe mir da mehr erhofft!

Sven77
2008-02-21, 19:28:08
So wirklich vom Hocker gerissen haben mich die jüngsten Benchmarks der Karte aber nicht gerade! Verstehe auch nicht warum hier Vergleiche zur 6600GT und 7600GT gemacht werden, die 6600GT hatte die 5900Ultra geschlagen und ich glaube die 7600GT war auch schneller als die 6800Ultra. Und was sehen wir nun hier? Die 8800Ultra ist immernoch VIEL schneller als die 9600GT, also ich habe mir da mehr erhofft!

ist das jetzt ein witz?

LovesuckZ
2008-02-21, 19:34:20
ist das jetzt ein witz?

Nein, ein Gastposting. :biggrin:

GeneralHanno
2008-02-21, 19:34:25
So wirklich vom Hocker gerissen haben mich die jüngsten Benchmarks der Karte aber nicht gerade! Verstehe auch nicht warum hier Vergleiche zur 6600GT und 7600GT gemacht werden, die 6600GT hatte die 5900Ultra geschlagen und ich glaube die 7600GT war auch schneller als die 6800Ultra. Und was sehen wir nun hier? Die 8800Ultra ist immernoch VIEL schneller als die 9600GT, also ich habe mir da mehr erhofft!

wenn du auch nur etwas ahnung hättest (und nich bloß auf die marketing namen starren würdest), würdest du die 9600GT mit der 7900GTX (oder sogar 7950GX2) vergleichen :rolleyes:

AnarchX
2008-02-21, 19:34:35
Naja, zwischen NV38 und NV43 lag ein deutlicher Architektursprung und zwischen NV40 und G73 lagen 21 Monate bei auch nicht unerheblichen RnD-Einsatz in G7x.
Zudem gab es weder 6600 GT noch 7600 GT am Einführungstag schon unter 150€.
Also passt der Vergleich nicht unbedingt.

Gast
2008-02-21, 19:35:15

Sven77
2008-02-21, 19:36:37
irgendwie muss man sich die ATI-teile anscheinend schönreden.... respektive die Nvidias schlecht

Adam D.
2008-02-21, 19:37:16
irgendwie muss man sich die ATI-teile anscheinend schönreden...
Wieso? 3850 sind und 3870 sind weiterhin konkurrenzfähige Produkte.

LovesuckZ
2008-02-21, 19:39:05
Wieso? 3850 sind und 3870 sind weiterhin konkurrenzfähige Produkte.

Die 8800GT auch. ;)
Nur die 3850 ist eine Alternative, da hier die Officefeature stimmen. Die 3870 ist dagegen zu teuer.

Der Gast von deinem Quote
2008-02-21, 19:43:37
wenn du auch nur etwas ahnung hättest (und nich bloß auf die marketing namen starren würdest), würdest du die 9600GT mit der 7900GTX (oder sogar 7950GX2) vergleichen :rolleyes:
Dachte das wäre die 8600GT gewesen? Aber du hast recht, sehe bei den Bezeichnungen der Grafikkarten nicht so wirklich mehr durch. Aber Nvidia macht das schon clever, 2 verschiedene Grafikkarten mit der gleichen Bezeichnung "8800GT" zu verkaufen, das zieht die Karte natürlich in allen Listen ganz nach vorne und der nicht so informierte User denkt natürlich alle kaufen nur Nvidia Karten! ;)

@AnarchX: Da hast du natürlich recht, für den Preis ist die Karte top!

Sven77
2008-02-21, 19:50:55
Wieso? 3850 sind und 3870 sind weiterhin konkurrenzfähige Produkte.

Nicht falsch verstehen, ich hab erst demletzt nem Kumpel eine 3850 256MB verbaut, in der Preisregion unter 150Eur (noch) absoluter Platzhirsch. Aber mit der 8800er GT unter 200Eur verfügbar, und jetzt der 9600 GT dürften die 3850 512MB und die 3870 einen schweren Stand haben. Schlecht sind die natürlich nicht, aber darum gehts ja nicht wirklich...

Gast
2008-02-21, 20:16:06
Dann warte ich nochmal lieber, vielleicht fallen die Preise noch ordentlich....

Botcruscher
2008-02-21, 20:29:04
Die Preisanpassung wird auch ganz sicher kommen. Schön für alle.=)

PS: Für 150€ ist die 9600Gt aber auch ganz schön überteuert. Eine 88GT gibts ab 175 und die 3870 ist mit ~160 dabei. Das Ding muss einfach unter die 130 Ocken.

GeneralHanno
2008-02-21, 20:30:36
@gast: der sprung von der GF8 zur GF9 kann man eigentlich mit dem wechsel von der 7800 zu 7900 vergleichen ! daher ist die 9600GT eigentlich eine 8700GTS ;)

daher halte ich diese ganzen marketingbezeichnungen auch für schlecht (z.b. die HD3k ist auch eine HD2k usw ...)

Thunder99
2008-02-21, 20:40:51
Die Preisanpassung wird auch ganz sicher kommen. Schön für alle.=)

PS: Für 150€ ist die 9600Gt aber auch ganz schön überteuert. Eine 88GT gibts ab 175 und die 3870 ist mit ~160 dabei. Das Ding muss einfach unter die 130 Ocken.
Mit Versand aber bei 170€ für die HD3870

Wenn wie schon gesagt der Preis der HD3870 noch ein wenig fällt ist sie immer noch ein sehr konkurrenzfähiges Produkt bis zum Launch der RV7xx Karten.


daher halte ich diese ganzen marketingbezeichnungen auch für schlecht (z.b. die HD3k ist auch eine HD2k usw ...)
Wobei ATI beim Namenswechsel auch ein kleines Feature Update bieten konnte, was nvidia NICHT kann 10.0 -> 10.1

dargo
2008-02-21, 20:42:14
PS: Für 150€ ist die 9600Gt aber auch ganz schön überteuert. Eine 88GT gibts ab 175 und die 3870 ist mit ~160 dabei. Das Ding muss einfach unter die 130 Ocken.
Wie lange ist die G8800GT verfügbar? Warte erstmal 2-4 Wochen und dann vergleiche die Preise nochmal. ;)

Botcruscher
2008-02-21, 20:59:41
Deswegen sagte ich auch für 150€;) In 4 Wochen sehen wir das Ding bei mindestens 125. Das wäre mir die Karte wert. Bis AMTI neue Karten bringt dauert es ja auch nicht mehr sooo lange.

dildo4u
2008-02-21, 21:08:42
Deswegen sagte ich auch für 150€;) In 4 Wochen sehen wir das Ding bei mindestens 125. Das wäre mir die Karte wert. Bis AMTI neue Karten bringt dauert es ja auch nicht mehr sooo lange.
Die Karte ist so schnell wie eine 3870 braucht weniger Strom und ist dir nur 125€ Wert an welchem Maßstab misst du da?

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet

Selbst mit 150€ hat sie schon jetzt das beste P/L Verhältniss.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/29/#abschnitt_preis_leistung_verhaeltnis

Razor
2008-02-21, 21:08:52
Gespräch beendet.
Sowieso... oder meinst Du, dass ich darauf irgendwie hätte reagieren wollen?
(ausser so wie jetzt, weil Du es provoziert hast ;-)

Und 'Verstehen kann man ausschließlich nur Dinge, die man nachvollziehen kann, gell?

Auch interessant:


“The new compression technology kicks in at higher resolutions and AA settings. G80 based architectures sometimes could not compress all surfaces at such extreme settings. This is new to G92/G94.”

Nicht 'auch', sondern 'sehr'!
Ergo: kein Unterschied zwischen G92/94... hätte mich auch gewundert.

Ein interessanter Hinweis im übrigen auf die effizientere Nutzung zur Verfügung stehender Bandbreite bei den G9x-
Gab ja so einige hier, die beim G92 nichts davon wissen wollten...

Zotac GeForce 9600 GT, 1024MB GDDR3 :up:
http://geizhals.at/eu/?cat=gra16_512&asuch=9600gt
Bei der Rohleistung vermutlich noch viel sinnloser als beim 8800GT.
Wenn es da überhaupt noch eine Steigerung geben kann... :rolleyes:

Unter 1280x1024 4xAA/16xAF ist eine 9600gt in Crysis bei computerbase schneller als eine 8800gts 512. (wenn auch vielleicht nicht mehr spielbar)

Wie geht das denn?
Schau' Dir einfach an, welche Treiber da benutzt werden...

Schau besser hier:
http://www.pcgameshardware.de/?menu=browser&article_id=633071&image_id=779380
Besser nicht...

Naja, ich hab da so meine Bedenken ob bei einer G9600GT 1GB Vram wirklich nötig sind. Wobei, bei SLI würde es denke ich schon Sinn machen.
Auch hier steht der Beweis noch aus... bis dato habe ich nichts gesehen, was diese Theorie stützt.
Aber wer weiß?

Die Preisanpassung wird auch ganz sicher kommen. Schön für alle.=)

PS: Für 150€ ist die 9600Gt aber auch ganz schön überteuert. Eine 88GT gibts ab 175 und die 3870 ist mit ~160 dabei. Das Ding muss einfach unter die 130 Ocken.
Na ja.... im Prinzip ist die 9600GT preislich genau da, wo nVidia sie hinhaben wollte... bei 189USD. Aber in 1-2 Monaten wird sie sicher auf den niedrigeren Einstandspreis fallen... 169USD. Das wären dann 137,62€ (nach heutigem Wechselkurs)... aber die 8800GT müsste auch noch ein bissel fallen, denn die ist derzeit noch ein bissel zu teuer... 162,05 wäre hier das 'Ziel'.

Razor

Razor
2008-02-21, 21:11:00
Selbst mit 150€ hat sie schon jetzt das beste P/L Verhältniss.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/29/#abschnitt_preis_leistung_verhaeltnis
Vergiß den CB-Test in diesem Zusammenhang...
Beispiel: 8800GT wurde mit 169.01 gebencht, die 9600GT mit 174.12 - klar :rolleyes:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/5/#abschnitt_testsystem

Razor

Hvoralek
2008-02-21, 21:15:57
Computerbase übernimmt die alten Meßwerte, daher liegen zwischen den Tests oft mehrere Treiberversionen. Es kann natürlich auch einfach sonst was schief gelaufen sein, sind auch nur Menschen :)Wobei es da schon z.T. seltsame Ergebnisse gibt. Z.B. soll das hier mit denselben Treiberversionen für G8x zustande gekommen sein: [GTS- 512- Test] (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/19/#abschnitt_call_of_juarez) [9600- GT- Test] (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/19/#abschnitt_call_of_juarez). Das Testsystem ist das gleiche, also wie kommt das zustande? Gab es zwischendurch ein Update des Spiels, das so viel Leistung gebracht hat? Wenn ja, warum wurden G80er mit einem uralten 163er- Treiber nachgetestet? :|

irgendwie muss man sich die ATI-teile anscheinend schönreden.... respektive die Nvidias schlechtEine Nvidiakarte damit schlechtreden zu wollen, dass sie für 150€ nicht eine 8800 GTX erreiche, wäre da wohl eher kontraproduktiv. AMD hat das bisher nur für 400€ und mit AFR- Problemen überhaupt geschafft.

Dachte das wäre die 8600GT gewesen?Die Lage mit der 8600 GTS und 9600 GT kann wohl ungefähr vergleichen mit der X1600 XT und der X1650 XT: Die erste ziemlicher Murks und deutlich langsamer als die High- End- Karten der Vorgängergeneration, die zweiten grob doppelt so schnell. Hier hat Nvidia sehr irreführend eine "neue Generation" begonnen.

Aber Nvidia macht das schon clever, 2 verschiedene Grafikkarten mit der gleichen Bezeichnung "8800GT" zu verkaufen, das zieht die Karte natürlich in allen Listen ganz nach vorne und der nicht so informierte User denkt natürlich alle kaufen nur Nvidia Karten! ;)Es gibt doch nur eine 8800 GT (wenn man die Speicherausstattung nicht berücksichtigt). 8800 GTSen gibt es in vielen Versionen: 6- C- G80, 7- C- G80, 8- C- D8P, das ist wirklich etwas wirr.

Botcruscher
2008-02-21, 21:24:23
Die Karte ist so schnell wie eine 3870 braucht weniger Strom und ist dir nur 125€ Wert an welchem Maßstab misst du da?


Ich zieh die gerigere Leistung vom Preis der 88GT ab(Umrechnungskurs $-€ tut sein übriges und 4 Wochen sind ja noch eine Lange Zeit für SpeKu). Nebenbei hab ich das Gefühl der Karte bei der nächsten Spielegeneration die Luft ausgeht.
Stromverbrauch ist schön aber erst zählen Balken.

Die 3870 wird eh im Preis noch angeglichen.

PS: Der CB Test ist mir mit den ganzen Treiberversionen sehr suspekt.

dildo4u
2008-02-21, 21:48:57
Passiv gekühlte GeForce 9600 GT von Sparkle

http://pics.computerbase.de/2/0/5/6/4/2.jpg

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/februar/passiv_geforce_9600_gt_sparkle/

Razor
2008-02-21, 22:35:55
Wobei es da schon z.T. seltsame Ergebnisse gibt. Z.B. soll das hier mit denselben Treiberversionen für G8x zustande gekommen sein: [GTS- 512- Test] (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/19/#abschnitt_call_of_juarez) [9600- GT- Test] (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/19/#abschnitt_call_of_juarez). Das Testsystem ist das gleiche, also wie kommt das zustande? Gab es zwischendurch ein Update des Spiels, das so viel Leistung gebracht hat? Wenn ja, warum wurden G80er mit einem uralten 163er- Treiber nachgetestet? :|
Oder ein Update von Vitza... wer weiß?
Gerade diesen D3D10-only Benches treue ich überhaupt nicht über den Weg.
(bei Crysis war dieses Mißtrauen mehr als berechtigt, wie man ja sah)

Man muss sich ja nur mal dieses grottige PT Boats anschaun... was bitte soll da eine solche Leistung 'fressen' :confused:

Razor

Tectrex
2008-02-21, 23:11:42
Wobei es da schon z.T. seltsame Ergebnisse gibt. Z.B. soll das hier mit denselben Treiberversionen für G8x zustande gekommen sein: [GTS- 512- Test] (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/19/#abschnitt_call_of_juarez) [9600- GT- Test] (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/19/#abschnitt_call_of_juarez). Das Testsystem ist das gleiche, also wie kommt das zustande? Gab es zwischendurch ein Update des Spiels, das so viel Leistung gebracht hat? s wirr.
Achte da mal auf die 3870, 3850 u. 2900XT, die haben auf einmal weniger FPS, das muss aber ein sehr schlechtes Update gewesen sein^^
Bei 1280x1024 4xAA/16xAF:...

Schrotti
2008-02-21, 23:16:16
Computerbase muss einen Fehler gemacht haben.

Wie sonst, sollte die 9600GT bei Company of Heroes unter DX10 und 1280x1024 4xAA/16xAF schneller sein als eine 8800GT.

Geht ja gar nicht.

dildo4u
2008-02-21, 23:20:40
Computerbase muss einen Fehler gemacht haben.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6299395&postcount=116

Tectrex
2008-02-21, 23:20:59
Computerbase muss einen Fehler gemacht haben.

Wie sonst, sollte die 9600GT bei Company of Heroes unter DX10 und 1280x1024 4xAA/16xAF schneller sein als eine 8800GT.

Geht ja gar nicht.
Schau mal bei Crysis ;)
Und geantwortet wurde das der neue Treiber (der nur bei der 9600GT verwendet wurde) in einigen Games deutlich schneller ist.
http://www.computerbase.de/forum/showpost.php?p=3845295&postcount=46

Edit: Zu langsam^^

Schrotti
2008-02-21, 23:29:01
Dann sollte man aber die älteren Karten mit dem aktuellen Beta Treiber auch benchen.

Man was für ein Chaos bei CB.

Hvoralek
2008-02-21, 23:30:23
Oder ein Update von Vitza... wer weiß?... von dem nur Nvidiakarten profitieren, und dann gleich so stark? :|

Egal, was es war: Wenn CB wirklich in der Zwischenzeit sämtlich G80er und D8Ps neu gebencht hat, warum bitte mit alten bis uralten Treibern?

Gast
2008-02-21, 23:36:52
Wenn man die ungereimtheiten bei CB rausrechnet,liegt die 9600GT zwischen der 3850er und 3870er wie erwartet und ist um 150€ P/L mäßig O.K.

;)

Razor
2008-02-21, 23:45:05
... von dem nur Nvidiakarten profitieren, und dann gleich so stark? :|

Egal, was es war: Wenn CB wirklich in der Zwischenzeit sämtlich G80er und D8Ps neu gebencht hat, warum bitte mit alten bis uralten Treibern?
Ich glaub' da ja auch nicht dran... irgendetwas hat CB da mächtig verbockt.
Aber wie gesagt... nahezu sämtliche D3D10-Benchies haben irgendwelche Macken, die so gar nicht plausibel erscheinen wollen.

Wenn man die ungereimtheiten bei CB rausrechnet,liegt die 9600GT zwischen der 3850er und 3870er wie erwartet und ist um 150€ P/L mäßig O.K.
Solange die 8800GT noch 175€ kostet... ja.
Ob das langfristig so bleiben wird, muss die Zeit zeigen...

Razor

mapel110
2008-02-21, 23:54:19
http://www.hardware.fr/articles/705-1/dossier-geforce-9600-gt-radeon-hd-3650.html
Hier gibts auch noch einen Test.

Das scheint mal ein guter zu sein. Werte sehen stimmig aus.

Spasstiger
2008-02-22, 00:07:02
Das Kärtchen schlägt sich echt nicht schlecht. Wenn die Preise noch um 20€ fallen, haben wir die neue Radeon X1950 Pro. ;)

Gast
2008-02-22, 00:17:01
Das Kärtchen schlägt sich echt nicht schlecht. Wenn die Preise noch um 20€ fallen, haben wir die neue Radeon X1950 Pro. ;)

Ich weis garnet was du hast? Billigste 3870 164€ vS 9600 145€. Und da die beide in einer Liga spielen, denk ich ist des doch ein guter preis. Findsscch ;)

robbitop
2008-02-22, 00:17:39
Ich hoffe, dass CB den Artikel dringend korrigiert. Auch wenn es irgendwo vermerkt ist, ist das ein ziemlicher Fauxpas, der das teuer erarbeitete Image schnell hinunterziehen kann. Alte Messwerte nimmt man generell nicht. Wer weiß, was neben dem Treiber noch alles am System anders ist.
Ein Benchmarkdiagramm gilt ja schließlich für einen Vergleich. Da nützt es nichts, wenn das irgendwo genannt wird. Wie sagt man so schön "Bilder sagen mehr als tausend Worte" .. der Mensch nimmt optische Sachen wie Diagramme und Schaltbilder eben besonders gut auf.

Spasstiger
2008-02-22, 00:30:22
Ich weis garnet was du hast? Billigste 3870 164€ vS 9600 145€. Und da die beide in einer Liga spielen, denk ich ist des doch ein guter preis. Findsscch ;)
Die 9600 GT ist preislich noch zu nah an der 8800 GT dran. Bei der Wahl zwischen einer 9600 GT für 150€ und einer 8800 GT für 180€ mit alternativem Kühler (z.B. AC Accelero S1), würde ich eher die 8800 GT nehmen.
Wobei auch das Einsatzgebiet natürlich eine Rolle spielt. Der um 20 Watt niedrigere idle-Verbrauch macht die 9600 GT zum Beispiel zum bevorzugten Partner für einen HTPC, der häufig genutzt wird (z.B. als digitaler Videorekorder).

Razor
2008-02-22, 00:35:59
Der um 20 Watt niedrigere idle-Verbrauch macht die 9600 GT zum Beispiel zum bevorzugten Partner für einen HTPC, der häufig genutzt wird (z.B. als digitaler Videorekorder).
Na ja... fürn HTPC ist die 9600GT aber mal VIEL zu teuer!
Da kommen eher 9400/9500 ins Spiel, die auch schon um die Ecke 'luern'...
Auch ATI hat da ein paar sehr nette Gerätschaften anzubieten.

Aber mehr als 60€ (was schon viel ist) darf so eine Karte nicht kosten.
(mal davon abgesehen, dass die 9600GT viel zu heiß wird)

Razor

Spasstiger
2008-02-22, 00:52:41
Na ja... fürn HTPC ist die 9600GT aber mal VIEL zu teuer!
Da kommen eher 9400/9500 ins Spiel, die auch schon um die Ecke 'luern'...
Auch ATI hat da ein paar sehr nette Gerätschaften anzubieten.

Aber mehr als 60€ (was schon viel ist) darf so eine Karte nicht kosten.
(mal davon abgesehen, dass die 9600GT viel zu heiß wird)

Razor
Manche wollen mit ihrem HTPC auch auf dem FullHD-Fernseher zocken (ich wäre z.B. so ein Kandidat, hätte ich eine eigene Wohnung und einen FullHD-Fernseher). Und da sollte es schon mind. eine 9600 GT sein. Es ist zumindest eine der energieeffizientesten Karte unter der Anforderung "spieletauglich".

jojo4u
2008-02-22, 01:04:44
Es ist zumindest eine der energieeffizientesten Karte unter der Anforderung "spieletauglich".

Kommt darauf an ob man hauptsächlich spielt oder hauptsächlich Filme schaut. Die 3850er is ja in idle einiges besser.

jojo4u
2008-02-22, 01:05:39
Ich habe es bisher so verstanden dass aktuelle ATI Karten durch AF in Mitleidenschaft gezogen werden und Nvidia Karten bei AA schneller die Puste ausgeht. Also Patt?

Spasstiger
2008-02-22, 01:20:36
Ich habe es bisher so verstanden dass aktuelle ATI Karten durch AF in Mitleidenschaft gezogen werden und Nvidia Karten bei AA schneller die Puste ausgeht. Also Patt?
Mit 8xMSAA gewinnen die Nvidias keinen Stich. Aber es gibt ja auch 8xCSAA, was gegenüber 8xMSAA nur selten im Nachteil ist, aber wesentlich weniger Performance kostet.
Eine Radeon HD3870 hat bis auf die Füllrate deutlich mehr Rohpower (mehr Shaderleistung, mehr Bandbreite) als eine GeForce 9600 GT und dümpelt trotzdem meistens auf dem gleichen Niveau herum.

knallebumm
2008-02-22, 05:38:58
Bei computerbase scheints mehrere Ungereimtheiten zu geben.

Hab die Links aus dem hwl Forum.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/19/#abschnitt_call_of_juarez
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/19/#abschnitt_call_of_juarez
1280x1024 4xAA/16xAF

HD 3870 verliert massig FPS bei einem späteren Test,die 8800gt bekommt welche dazu.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/21/#abschnitt_crysis
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis

2900xt verliert, 8800gts 512 bekommt einen dazu.

Wenn ich richtig geguckt habe sind Testsystem und Treiber bei den jeweiligen Tests identisch.

Sind die Werte falsch übernommen worden oder gibts ne andere Erklärung?

:)

Gast
2008-02-22, 08:14:40
Mit 8xMSAA gewinnen die Nvidias keinen Stich. Aber es gibt ja auch 8xCSAA, was gegenüber 8xMSAA nur selten im Nachteil ist, aber wesentlich weniger Performance kostet.


Nur selten im Nachteil ist ja wohl ziemlich schöngeredet. 8xCSAA verwendet nur vier Eingangswerte und sorgt deshalb bei vielen Kanten für inhomogene Glättung. Einen sauberen 8xMSAA-Modus kann man damit IMHO in keinster Weise das Wasser reichen, selbst 16xCSAA schafft das nicht.

Gast
2008-02-22, 08:15:55
Ich weis garnet was du hast? Billigste 3870 164€ vS 9600 145€. Und da die beide in einer Liga spielen, denk ich ist des doch ein guter preis. Findsscch ;)

Wenn man die Umgereimtheiten bei CB rausrechnet spielt die Karte eher zwischen 3850 und 3870. Der Preis ist angemessen, aber nicht überragend.

Razor
2008-02-22, 08:18:16
Bei computerbase scheints mehrere Ungereimtheiten zu geben.

Hab die Links aus dem hwl Forum.
Haben die schon wieder abgeschrieben?
Hat Hvoralek hier doch schon längst angemerkt:
Wobei es da schon z.T. seltsame Ergebnisse gibt. Z.B. soll das hier mit denselben Treiberversionen für G8x zustande gekommen sein: [GTS- 512- Test] (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/19/#abschnitt_call_of_juarez) [9600- GT- Test] (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/19/#abschnitt_call_of_juarez). Das Testsystem ist das gleiche, also wie kommt das zustande? Gab es zwischendurch ein Update des Spiels, das so viel Leistung gebracht hat? Wenn ja, warum wurden G80er mit einem uralten 163er- Treiber nachgetestet? :|
Da stimmt so einiges nicht beim CB-Test, also einfach ignorieren.
(auch wenn es viiiiiiiiele 'Balken' gibt ;-)

Razor

Gast
2008-02-22, 09:03:58
Ich hoffe, dass CB den Artikel dringend korrigiert. Auch wenn es irgendwo vermerkt ist, ist das ein ziemlicher Fauxpas, der das teuer erarbeitete Image schnell hinunterziehen kann. Alte Messwerte nimmt man generell nicht. Wer weiß, was neben dem Treiber noch alles am System anders ist.

ROFL. Wie lange treibt die Computerbase denn schon dieses Spielchen? 1,2,3 oder gar 4 Jahre? Die schmeißen schon seit Ewigkeiten die Ergebnisse von alten Tests mit in ihre neuen Diagramme rein. Damit wird man sich das "teuer" erarbeitete Image sicher nicht versauen. Damit hat man sich das Image wohl eher aufgebaut. Es wird fast ausschließlich auf die Menge der Balken geschaut. Jeder der halbwegs nachdenkt, sollte wissen, dass es quasi unmöglich ist für jeden Launch-Artikel rund 20 Karten zu benchen.

Ich finds geil zu lesen, wie dir das jetzt auf einmal auffällt, obwohl die CB das schon seit Ewigkeiten so handhabt.

AnarchX
2008-02-22, 09:28:08
Expreview hat auch wieder ein paar schön aufbereitete Benchmarks:
http://www.expreview.com/review/2008-02-22/1203657713d7905_12.html

The_Invisible
2008-02-22, 10:02:35
Nur selten im Nachteil ist ja wohl ziemlich schöngeredet. 8xCSAA verwendet nur vier Eingangswerte und sorgt deshalb bei vielen Kanten für inhomogene Glättung. Einen sauberen 8xMSAA-Modus kann man damit IMHO in keinster Weise das Wasser reichen, selbst 16xCSAA schafft das nicht.

auch mal gesehen oder beziehst du dich nur auf die theorie?

16x sieht schon sehr ordentlich aus.

mfg

Gast
2008-02-22, 10:31:50
Ich glaub die wird mit kommenden arithmetiklastigen Spielen deutlich einbrechen und unter einer HD3850 rumlungern. Von der reinen Rechenrohleitung ist die nur 2/3 so stark wie eine HD3850 und kann bis auf der Texelfüllrate der ATI nicht das Wasser reichen. Also wieder mal so ein Spaß, wo die 9600GT innerhalb eines Jahres für aktuelle Spiele vollkommen unbrauchbar wird und die selbt dann bei minimalen Qualitätseinstellungen nicht mehr laufen.
Außerdem nochmal, die UT3-Engine ist seit jeher auf extreme Polycounts ausgelegt und kommende Spiele werden in dieser Hinsicht nicht anspruchsloser, ich denke hier wird die Karte ohne Gnade wegbrechen.


Ist eben alles eine Frage der Skalierung. Die Karte füllt das Segment zwischen 3850 und 3870 aus mehr aber nicht.

RoNsOn Xs
2008-02-22, 10:34:16
was ist cs? kann man das auch über nhancer einstellen?

AnarchX
2008-02-22, 10:44:36
Ich glaub die wird mit kommenden arithmetiklastigen Spielen deutlich einbrechen und unter einer HD3850 rumlungern. Von der reinen Rechenrohleitung ist die nur 2/3 so stark wie eine HD3850 und
Nur sind Rohleistungsdaten nicht alles:
http://www.ixbt.com/video3/g94-part2.shtml

kann bis auf der Texelfüllrate der ATI nicht das Wasser reichen. Also wieder mal
Naja, Z-Fill ist mehr als 3mal so hoch bei der 9600GT und die Bandbreite ist auch höher.
Im Endeffekt bleibt der 3850 nur ihre höhere arithmetische Leistung, die aber mit den Nachteilen einer Vektorarchitektur einhergeht.


Außerdem nochmal, die UT3-Engine ist seit jeher auf extreme Polycounts ausgelegt und kommende Spiele werden in dieser Hinsicht nicht anspruchsloser, ich denke hier wird die Karte ohne Gnade wegbrechen.

Wie oft den noch, "hohe" Polycounts sind out, Shader ist das Mittel der Wahl für heutige Devs. Zudem werden die meisten UE3-Titel Multiplattform-Games sein, wo die schwächste Plattform den Polycount vorgibt, die stärken Plattformen bekommen dann eben nur bessere Texturen und aufwändigere Shader, alles andere wäre kein vertretbarer Aufwand.
Und was nützen einem z.B. 5 Mio. Polys pro Frame, wenn man dann >8xMSAA brauch um überhaupt vernünftig spielen zu können, ohne dass es einem die Augen ausflimmert.

Gast
2008-02-22, 10:57:45
Spielekonsolen sind nicht Arithmetisch unterbemittelt, eben wie du es gesagt hast es wird eher bei den Texturen und Shadern gespart.
Moderne Konsolen können abartige Polycounts berechnen!
Und alle UT-Engines waren bis jetzt Polygonmonster wenn man sie mal mit dem ID-Kramm vergleicht.

Gast
2008-02-22, 10:57:50
...
Und was nützen einem z.B. 5 Mio. Polys pro Frame, wenn man dann >8xMSAA brauch um überhaupt vernünftig spielen zu können, ohne dass es einem die Augen ausflimmert.

Sorry, das ist gelinde gesagt einfach Käse.

AnarchX
2008-02-22, 10:58:41
Sorry, das ist gelinde gesagt einfach Käse.
Begründung?

Spielekonsolen sind nicht Arithmetisch unterbemittelt, eben wie du es gesagt hast es wird eher bei den Texturen und Shadern gespart.
Moderne Konsolen können abartige Polycounts berechnen!
Aber auch nicht bei wirklich mehr als ein G94 und eher spart man hier an Polygonen, da AA auf den Konsolen ziemlich teuer ist.


Und alle UT-Engines waren bis jetzt Polygonmonster wenn man sie mal mit dem ID-Kramm vergleicht.
Ja, das war so bis zur UE2.X:
PCGH: How exactly are you utilizing the functions of Direct X 10?

Epic: Unreal Tournament 3 will ship with full DX10 support, with multi-sampling
being the biggest visible benefit of the new graphics interface. Additionally,
with DX10 under Vista we have the possibility to use the video memory more
efficiently, to be able to display textures with a higher grade of detail as it
would be possible with the DX9 path of Vista. Most effects of UT3 are more bound to the fillrate than to basic features like geometry processing. That's why DX10 has a great impact on performance, while we mostly forgo the integration of new features.
Mittlerweile ist man aber wie schon gesagt da angekommen, wo der Polycount ausreichend ist und Rechenleistung in andere, sinnvollere Effekte investiert wird.

Vertigo
2008-02-22, 11:03:32
was ist cs? kann man das auch über nhancer einstellen?
Coverage Sampling = CS. Natürlich kann man das über nHancer einstellen, aber auch im normalen nVidia-CP.

Gast
2008-02-22, 11:20:53
Begründung?
...


Weil ein Flimmern idR an Objektkanten auftritt, d.h. nicht bei besserer Objektgeometrie. Genauso könnte man ja pauschalisieren: Was soll man mit mehr Pixelshading wenn die ja tendenziell zum flimmern neigen und man deswegen immer teures SS bräuchte.

Gast
2008-02-22, 11:28:59
Ich bleib dabei. Die 9600GT wird duch die Verwendung der aktuellen Beta-Treiber in den meisten Reviews im Verhältnis besser dargestellt als sie ist. Was glaubt ihr warum im 174.16 Release Treiber keine Unterstützung für die 8800 GT/GTS drin ist, obwohl es ie gleiche Architketur ist?! Imho hat das Methode.


In ein paar Monaten wird sie dazu noch weiter an Boden auf GF8800 und HD38XX verlieren. Aber dann steht ja schon ne neue Karte an und das Spielchen beginnt von neuem: "Was schert mich mein Geschwätz von gestern..."

Manche lernen es nie.

Gast
2008-02-22, 11:29:05
Wie sieht es eigentlich mit der Unterstützung der Hybrid-Geschichte der kommenden NV-Chipsätze durch die 9600 GT aus ? Beschränkt es sich dabei aufgrund der hohen Leistungsfähigkeit nur auf Hybrid-Power ?

Gortha
2008-02-22, 11:38:21
Ich weis garnet was du hast? Billigste 3870 164€ vS 9600 145€. Und da die beide in einer Liga spielen, denk ich ist des doch ein guter preis. Findsscch ;)

Die 9600 Ist allenfalls minimal schneller als eine 3850 512MB.

Kannst die doch nciht mit der 70er vergleichen!

RoNsOn Xs
2008-02-22, 11:44:41
unter der 70 richtig, dafür aber auch im preis. haut also schon hin ;)

Gast
2008-02-22, 12:07:14
Die 9600 Ist allenfalls minimal schneller als eine 3850 512MB.

Kannst die doch nciht mit der 70er vergleichen!

allenfalls?.Ich würd eher sagen das die 3870er allenfalls minimal schneller ist (wenn überhabut). Die 9600er hat eine top preis/leistung

http://www.expreview.com/review/2008-02-22/1203657713d7905_12.html

Vertigo
2008-02-22, 12:08:09
Die 9600 Ist allenfalls minimal schneller als eine 3850 512MB.

Kannst die doch nciht mit der 70er vergleichen!
Klar kann man das vergleichen - die 9600GT ist nur wenig langsamer, dafür aber auch günstiger. ATI hat ja auch als Reaktion auf die 9600GT unlängst Preissenkungen für 3850 und 3870 angekündigt.

35007
2008-02-22, 12:30:42
http://www.ht4u.net/reviews/2007/nvidia_g80_roundup/index20.php

Zwar nicht mehr ganz frisch, aber an der Grundausssage dürfte sich nur wenig geändert haben.
Es schwankt je nach Spiel. In Farcry mit HDR ist es z.B fast doppelt so schnell.
Das ist kaum langsamer als normales 4x MSAA. Sieht aber auch nicht allzu viel besser aus.

Danke für eure Aussagen. Jetzt ist mir das Thema CSAA geläufig!

35007

Exxtreme
2008-02-22, 15:47:45
Ist doch völlig wayne welche Karte man da nimmt. In der Praxis geben die sich nix spürbares. Dafür sind sie preislich zu nah beieinander.

Gast
2008-02-22, 16:21:05
Hier noch ein Review ;) (fehlt auf der ersten Seite)

http://www.firingsquad.com/hardware/nvidia_geforce_9600_gt_performance/

laser114
2008-02-22, 16:35:05
Hier noch ein Review ;) (fehlt auf der ersten Seite)

http://www.firingsquad.com/hardware/nvidia_geforce_9600_gt_performance/

Da fehlen mehrere, AnarchX aktualisiert das wohl nicht ständig. ;)

deekey777
2008-02-22, 16:49:34
Da fehlen mehrere, AnarchX aktualisiert das wohl nicht ständig. ;)
Böser AnarchX!
Man kann aber:
a) Eine PM an den Mod deines Vetrauens schicken, dass er die fehlenden Reviews nachfügt.
b) Den Beitrag melden und die gesamte Moderation darauf aufmerksam machen.

Sk4tz
2008-02-22, 16:52:45
ist es sinnvoll sich die zu holen wenn man eine 8600gts hat? ;)
eher net würde ich sagen oder?
bei cb schaut es relativ lohnend aus wenn man sie für günstig bekommt... bin mir aber net so sicher ob ichs brauche ;)

deekey777
2008-02-22, 16:59:06
ist es sinnvoll sich die zu holen wenn man eine 8600gts hat? ;)
eher net würde ich sagen oder?
bei cb schaut es relativ lohnend aus wenn man sie für günstig bekommt... bin mir aber net so sicher ob ichs brauche ;)
CB testet mit unterschiedlichen Treibern.
Aber: Machen wir es ganz mathematisch.
8600GTS: zwei Cluster mit je 8 TMUs und 16 ALUs, 128bit-SI sowie 2 ROP-Partitions
9600GT: 4 solche Cluster, 256bit-SI sowie vier ROP-Partitions.
Jetzt zahlt man noch den "Frühkäuferaufschlag", in ein paar Wochen (insbesondere weil die Cebit näher wird) wird der Preis sinken.

Wenn du auf Balken stehst: http://www.ixbt.com/video3/g94-part3-d.shtml#p18

Gast
2008-02-22, 16:59:49
Böser AnarchX!
Man kann aber:
a) Eine PM an den Mod deines Vetrauens schicken, dass er die fehlenden Reviews nachfügt.
b) Den Beitrag melden und die gesamte Moderation darauf aufmerksam machen.

c) man könnte sich auch einfach mal freuen, dass er sich überhaupt die Mühe macht und die Eingangsposting in seinen Threads pflegt damit man sich nicht immer durch den ganzen Thread durchwühlen muss. Das darf als indirektes Dankeschön angesehen werden ;).

laser114
2008-02-22, 17:00:05
Man kann aber:
a) Eine PM an den Mod deines Vetrauens schicken, dass er die fehlenden Reviews nachfügt.
b) Den Beitrag melden und die gesamte Moderation darauf aufmerksam machen.

Und man kanns auch übertreiben. ;)
Ich würde nicht wegen jeder solchen kleinen Angelegenheit genervt werden wollen, und im gleichen Sinne nerve ich damit also nicht unnötig Mods. Wenn AnarchX es interessiert, wird er es schon nachtragen, bezahlt wird er dafür aber nicht. Also: Bitte kein Stress. :)

PS: Sorry fürs OT.

AnarchX
2008-02-22, 17:02:12
Na, dann listet doch die fehlenden Reviews auf, wenn ihr der Meinung seit, dass diese unbedingt noch in #1 sollten.;)

Spasstiger
2008-02-22, 17:05:18
ist es sinnvoll sich die zu holen wenn man eine 8600gts hat? ;)
eher net würde ich sagen oder?
bei cb schaut es relativ lohnend aus wenn man sie für günstig bekommt... bin mir aber net so sicher ob ichs brauche ;)
Doppelte Performance lohnt imo, wobei du halt auch bereit sein musst, noch etwa 75€ draufzulegen (nach Verkauf der 8600 GTS). Bei Qualitätseinstellungen ist die 9600 GT ja sogar mehr als dreimal so schnell (siehe Link von deekey777), da macht sich der größere Grafikspeicher bemerkbar.

Mir persönlich würde 8600-GTS-Niveau nicht ansatzweise reichen, sonst wäre ich ja auch nicht von der X1900 AIW auf die 2900 Pro gewechselt (welche im Schnitt doppelt so schnell ist). Die 2900 Pro ist gerade so ok für meine Anforderungen, aber nicht so zufriedenstellend, dass ich sie noch im nächsten Jahr haben werde. ;)

Gast
2008-02-22, 19:45:19
bei hwluxx gab es einen Thread dazu wo darauf eingegangen wurde. Die 9600GT bricht bei FC2 vollkommen weg....

dargo
2008-02-22, 20:09:38
Öhm, wo gibt es schon FC2? :confused:

Gast
2008-02-22, 21:02:54
wo bekomm ich diese karte?

http://www.vr-zone.com/articles/64_Shader_Processors%3A_NVIDIA_Geforce_9600GT/5575-4.html

die sonic hat laut gh 1625mhz shader, im test schreiben sie 1750mhz ...
da sieht ja keiner mehr durch ^^
ists die trotzdem?

http://geizhals.at/deutschland/a316230.html

Schlammsau
2008-02-22, 21:28:51
Das ist ja wirklich ein nettes Stück Hardware was nVidia da aufgestellt hat! Und das zu einem wirklich akzebtablen Preis.
Nur eine Frage, warum hat nVidia mit der Karte eine neue Generation eingeläutet? Wenn sie ja noch auf dem G90 basiert! Und keine neuen Features hinzugekommen sind (DX10.1)!
Stromverbrauch ist gesunken, aber dennoch Verbesserungswürdig!
Wenn sie vor 3 Monaten erschienen wäre, dürfte mir Entscheidung zwischen nVidia und ATI wesentlich schwerer gefallen sein.

Sk4tz
2008-02-22, 22:42:22
danke jungs - weissi bescheid :)

Liszca
2008-02-23, 04:09:12
Schaut aus, als ob nVidia wieder nen Wurf wie die 7600GT gelungen wäre. Ist scheinbar jetzt mode...6600GT= :down: , 7600GT :up: , 8600GT :down: , 9600GT :up:

Ergo etwas mehr Entwicklungszeit und im 2ten Zyklus kommt das eigentliche Produkt. Ist bei ATi ja das gleiche Spiel ;)

wobei das ja gerade bei mainstream für den käufer echt beschissen ist, weil eigentlich solltest du da immer die aktuelle generation besitzen. bei high end kann man ja mal eine generation auslassen ohne gleich mit unspielbaren auflösungen konfrontiert zu werden.

Cpl. Dwayne Hicks
2008-02-23, 10:53:17
Warum ist die leistung der HD3870 bzw. 2900XT denn von einem test auf den anderen so abgesunken in Crysis?


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/21/#abschnitt_crysis

verglichen hiermit:


http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis

Hab ich da was nicht mitgekriegt ist das Spiel auf ATi Karten seit dem 1.1 Patch langsamer geworden? Oder liegts an dem neueren Catalyst?

:confused:

laser114
2008-02-23, 11:07:26
Hab ich da was nicht mitgekriegt ist das Spiel auf ATi Karten seit dem 1.1 Patch langsamer geworden? Oder liegts an dem neueren Catalyst?

Sie sind doch nicht langsamer geworden. Allerdings wurden beim Wechsel auf 1.1 nur bei Nvidia neue Treiber eingesetzt, also z. B. die 2900 XT weiterhin auf 7.10 getestet - was ich etwas merkwürdig finde, denn wenn man eh neu bencht kann man auch den neueren Treiber nehmen.

Gast
2008-02-23, 11:22:36
cb halt :rolleyes:

Cpl. Dwayne Hicks
2008-02-23, 11:23:34
Ach so, auf die Treiber Version hab ich jetzt garnicht geachtet...:rolleyes: :biggrin:

Das ist schon merkwürdig dass die 2900XT und 38x0 nicht mit dem gleichen Treiber gebencht haben.
Aber das erklärt immernoch nicht warum beide Karten bei dem neueren langsamer in 4xAA und 16xAF sind... also muss es doch an dem 1.1 Patch liegen.

Oder vielleicht haben sie dieses Mal mit Catalyst AI off gebencht

=Floi=
2008-02-23, 12:53:38
http://www.tomshardware.com/de/9600GT-GeForce-G94,testberichte-239954.html

für den 1. thread
in diesem review zieht die 9600GT vor allem bei AA gut an

dargo
2008-02-23, 12:57:15
Die Bechmarks sind doch alle für die Tonne. Gibt es irgendwo Benchmarks wo bei allen NV Karten ein 174-er FW verwendet wird?

mapel110
2008-02-23, 13:02:07
Die Bechmarks sind doch alle für die Tonne. Gibt es irgendwo Benchmarks wo bei allen NV Karten ein 174-er FW verwendet wird?
Der hardware.fr-test hat das getan. Den find ich persönlich am besten bzw aussagekräftigsten.

puntarenas
2008-02-23, 13:04:58
Die Bechmarks sind doch alle für die Tonne. Gibt es irgendwo Benchmarks wo bei allen NV Karten ein 174-er FW verwendet wird?
Die Benchmarks sind insofern interessant, dass sie zeigen wie schön die bandbreitenschonende Kopmprimierung den Rückschritt auf ein 256Bit-Interface ein wenig kompensieren kann. Wobei man natürlich bei der 9600GT nicht von Rückschritt sprechen kann, in dem Segment ist das sicher angemessen.

Zum Vergleich der Karten untereinander taugen die Benchmarks nicht wirklich, im Moment scheint mir die 9600GT innerhalb der NVidia-Familie etwas zu gut wegzukommen. Vergleiche zum ATI-Konterpart sind dagegen aussagekräftig :)

Razor
2008-02-23, 13:16:30
Nur eine Frage, warum hat nVidia mit der Karte eine neue Generation eingeläutet? Wenn sie ja noch auf dem G90 basiert! Und keine neuen Features hinzugekommen sind (DX10.1)!
Stromverbrauch ist gesunken, aber dennoch Verbesserungswürdig!
Die Frage ist eher, warum nVidia nicht schon mit G92 und G98 die 9'er Familie eingeläutet hat... ware ja auch logischer.

Und warum muss eine neue Generation immer gleich mit einem D3D-'Sprung' (im Falle von D3D10.1 ist 'Sprung' allerdings hart überzogen ;-) einher gehen... da gibt es genug andere Eigenschaften, die das rechtfertigen würden.

Der Stromverbrauch ist hingegen mehr als akzeptabel!
Muss ja nicht gleich jeder wie ATI Mobile-Features in den Desktop-Bereich bringen...
(und es wird sich zeigen müssen, ob ATI daran überhaupt wirklich Geld verdienen kann... neueste Preissenkungen beachtend)

Mit 10W weniger im Idle ist sie auf Niveau der 7x00-Reihe und mit 30W weniger unter Last absolut angemessen unterwegs!
(beides ist wohl dem Transistor-Count von nur 2/3 einer 8800GT geschuldet ;-)

Razor

Razor
2008-02-23, 13:18:27
Der hardware.fr-test hat das getan. Den find ich persönlich am besten bzw aussagekräftigsten.
Ja... auch PCGH hat das getan.
Allerdings sollte man dort den Crysis-Test komplett aussen vor lassen...
...tut man dies, ist auch das Review gelungen.

Razor

dargo
2008-02-23, 13:19:35
Der Stromverbrauch ist hingegen mehr als akzeptabel!
Muss ja nicht gleich jeder wie ATI Mobile-Features in den Desktop-Bereich bringen...
(und es wird sich zeigen müssen, ob ATI daran überhaupt wirklich Geld verdienen kann... neueste Preissenkungen beachtend)

Ich finde den Stromverbrauch der G9600GT in Idle sogar hervorragend. Irgendwo habe ich gesehen, dass sie gleichviel verbraucht wie eine G7950GT, also afaik ~22W. Den Rest erledigt der Rivatuner. :wink:

dargo
2008-02-23, 14:23:03
Der hardware.fr-test hat das getan. Den find ich persönlich am besten bzw aussagekräftigsten.
Ah, danke. Endlich ein brauchbarer Test. :)
Die G8800GT ist also zwischen 12 und 25% schneller als die G9600GT. Ich habe nur die für mich relevanten Settings mit AA/AF berücksichtigt. Also sind die <140€ durchaus gerechtfertigt.

Spasstiger
2008-02-23, 15:47:04
An der 9600 GT sieht man imo schön, wie bandbreitenlimitiert die 8800 GT eigentlich ist. Zur 9600 GT passt die Bandbreite dagegen.

reunion
2008-02-23, 15:52:42
An der 9600 GT sieht man imo schön, wie bandbreitenlimitiert die 8800 GT eigentlich ist. Zur 9600 GT passt die Bandbreite dagegen.

Richtig. G92 hätte ein 512-bit SI benötigt. Warum NV das SI ggü. G80 dann auch noch zusammenstutzt ergibt für mich keinen Sinn.

dildo4u
2008-02-23, 16:04:39
Richtig. G92 hätte ein 512-bit SI benötigt. Warum NV das SI ggü. G80 dann auch noch zusammenstutzt ergibt für mich keinen Sinn.
Damit man die 8800GT(180€) und GTS(230€) billiger herstellen und verkaufen kann ATI ist mit der 3000 Serie ja sogar von 512 auf 256Bit zurückgegangen.Imo passt die Performance doch für die Preisregion richtig problematisch wirds imo erst wenn sie auch die neue 9800 GTX nur mit 256Bit ausstatten und dann noch 400€ dafür haben wollen.

dargo
2008-02-23, 16:10:28
An der 9600 GT sieht man imo schön, wie bandbreitenlimitiert die 8800 GT eigentlich ist. Zur 9600 GT passt die Bandbreite dagegen.
Die ROPs bitte nicht vergessen, diese sind auch gleich geblieben. An der G9600GT sehe ich eher, dass der Zeitpunkt für Arithmetik-Monster noch (?) nicht da ist.

Damit man die 8800GT(180€) und GTS(230€) billiger herstellen und verkaufen kann ATI ist mit der 3000 Serie ja sogar von 512 auf 256Bit zurückgegangen.
Richtig, man hat wohl eingesehen, dass ATI ihre Produkte sehr günstig anbieten kann. Ein G92 mit 512Bit SI hätte heute keine 170-210€ (GT-GTS) kosten können.

Hvoralek
2008-02-23, 16:56:10
Warum ist die leistung der HD3870 bzw. 2900XT denn von einem test auf den anderen so abgesunken in Crysis?Die 3870 ist doch etwas schneller geworden. Dass man auch hier anscheinend mit alten Treibern nachgetestet hat (und zwar auch G8x mit alten Treibern), ist ebenso unverständlich wie bei CoH.

Und warum muss eine neue Generation immer gleich mit einem D3D-'Sprung' (im Falle von D3D10.1 ist 'Sprung' allerdings hart überzogen ;-) einher gehen... da gibt es genug andere Eigenschaften, die das rechtfertigen würden.Nämlich?

Aquaschaf
2008-02-23, 17:43:32
Interessante Karte, verleitet mich fast dazu damit meine 1900XT zu ersetzen.

Razor
2008-02-23, 17:51:30
Nämlich?
Kleinerer Fertigungsprozess (geringere Stromaufnahme), voll funktionsfähiger VP2, kein NVIO-Chip, PCIe2.0, bandbreitenschonende Maßnahmen...

...und das wichtigste: wesentlich günstiger herzustellen!
(nicht nur der Chip, sondern auch das ganze PCB samt Kühlung, was für die Hersteller wichtig ist, gell?)
:D

Da gab es schon wesentlich kleinere "Sprünge"...

Razor

reunion
2008-02-23, 17:57:38
Damit man die 8800GT(180€) und GTS(230€) billiger herstellen und verkaufen kann ATI ist mit der 3000 Serie ja sogar von 512 auf 256Bit zurückgegangen.Imo passt die Performance doch für die Preisregion richtig problematisch wirds imo erst wenn sie auch die neue 9800 GTX nur mit 256Bit ausstatten und dann noch 400€ dafür haben wollen.

Das ist keine Begründung. G92 wird durch das 256-bit SI offenkundig enorm ausgebremst. Von der doppelten Rohleistung einer 8800GTS(G92) ggü. eine 9600GT bleiben in der Praxis vielleicht noch 30% über. Die anderen 70% werden sinnlos verbrannt. Wenn man etwas gegen RV670 braucht dann hätte man auch zB eine Chip mit sechs Cluster und 256-bit SI bauen können. Der wäre wohl praktisch genau so schnell wie der jetzige G92, der mangels Bandbreite ohnehin verhungert.

dildo4u
2008-02-23, 18:02:48
Das ist keine Begründung. G92 wird durch das 256-bit SI offenkundig enorm ausgebremst. Von der doppelten Rohleistung einer 8800GTS(G92) ggü. eine 9600GT bleiben in der Praxis vielleicht noch 30% über. Die anderen 70% werden sinnlos verbrannt. Wenn man etwas gegen RV670 braucht dann hätte man auch zB eine Chip mit sechs Cluster und 256-bit SI bauen können. Der wäre wohl praktisch genau so schnell wie der jetzige G92, der mangels Bandbreite ohnehin verhungert.
Das Spielt für den Enduser aber keine Rolle der Preis passt zur Performance Nvidia "verschwendet" da Transistoren ja aber wie man bei der 9600GT sieht scheint man sich bei NV jetzt auf sher ausgewogene Karten zu konzentrieren.

GeneralHanno
2008-02-23, 18:05:10
nvidia sind 2 "glücksgriffe" gelungen:
G80 und G94

beide chips setzten weniger aritmetikleistung, dafür um so mehr auf füllraten und bandbreite satt!

Razor
2008-02-23, 18:15:17
Das ist keine Begründung. G92 wird durch das 256-bit SI offenkundig enorm ausgebremst.
Sagt Dir der Begriff "Mainstream" etwas?
Es gibt etwa 30% Mehrleistung für einen etwa 30% höheren Preis.
Das ist schlicht "Ideal"!

Razor

Nakai
2008-02-23, 18:16:56
Sagt Dir der Begriff "Mainstream" etwas?
Es gibt etwa 30% Mehrleistung für einen etwa 30% höheren Preis.
Das ist schlicht "Ideal"!

Razor

Ideal ist es ja. Aber trotzdem wird der Chip ausgebremst.


mfg Nakai

Hvoralek
2008-02-23, 18:46:44
Kleinerer Fertigungsprozess (geringere Stromaufnahme), voll funktionsfähiger VP2, kein NVIO-Chip, PCIe2.0, bandbreitenschonende Maßnahmen...

...und das wichtigste: wesentlich günstiger herzustellen!
(nicht nur der Chip, sondern auch das ganze PCB samt Kühlung, was für die Hersteller wichtig ist, gell?)
:D

Da gab es schon wesentlich kleinere "Sprünge"...Also eine "neue Generation" für eine repartierte Videoeinheit, PCIe 2.0 und geringeren Stromverbrauch bei nur etwas niedrigerer Leistung? Vom kleineren Fertigungsprozess und der effizienteren Bandbreitennutzung hat der User nur mittelbar etwas und ob nun ein NVIO da drauf sitztwird den meisten auch herzlich egal sein.

Wo gab es denn DMn kleinere Unterschiede? Zumindest einen nennenswerten Leistungszuwachs oder irgendeinen Unterschied im Featureset gab es bisher fast immer. Man muss schon weit zurück gehen, um etwas Vergleichbares zu finden. Selbst bei der Geforce 4 Ti gab es immerhin mehr Leistung, einen zweiten VS und SM 1.3 statt 1.1. Nach Deiner Logik hätte man ja sogar mit NV 41 eine "neue Generation" einleiten können (110 nm statt 130 und ggü. NV 40 reparierte Videoeinheit).

reunion
2008-02-23, 18:46:48
Sagt Dir der Begriff "Mainstream" etwas?
Es gibt etwa 30% Mehrleistung für einen etwa 30% höheren Preis.
Das ist schlicht "Ideal"!

Razor

Für den Kunden sicherlich, für nV ist es sicher nicht ideal, wenn 70% der möglichen Mehrleistung brach liegt.

LovesuckZ
2008-02-23, 18:49:08
Mehr Bandbreite ist nur durch einen dickeren Chip und einer aufwendigeren Platine oder durch GDDR4 Speicher möglich.
nVidia wollte eine ingesamt preisgünstigere Karte als die 8800GTS. Und die schlägt man - hat also das gewollte erreicht. Ausserdem sieht man an der 8800GS, dass Bandbreite nicht wirklich von so starker Limitierung ist.

reunion
2008-02-23, 18:53:56
Mehr Bandbreite ist nur durch einen dickeren Chip und einer aufwendigeren Platine oder durch GDDR4 Speicher möglich.
nVidia wollte eine ingesamt preisgünstigere Karte als die 8800GTS. Und die schlägt man - hat also das gewollte erreicht. Ausserdem sieht man an der 8800GS, dass Bandbreite nicht wirklich von so starker Limitierung ist.

Warum dann überhaupt ein so dicker Chip? Wenn ich mir die 9600GT so ansehe glaube ich das ein sechs Cluster Chip nicht/kaum langsamer wäre als eine 8800GTS.

LovesuckZ
2008-02-23, 18:56:39
Warum dann überhaupt ein so dicker Chip? Wenn ich mir die 9600GT so ansehe glaube ich das ein sechs Cluster Chip nicht/kaum langsamer wäre als eine 8800GTS.

Die Frage steht doch schon seit Oktober. Man hat wohl einfach AMD überschätzt - wahrscheinlich dachte man, dass schon im Januar der rv770 käme.
Alles andere macht keinen Sinn, da man sonst nie auf 8 Cluster und hohe Taktraten gehen würde.
Und wie man sieht, wäre selbst eine 9800x2 mit zwei 9600GT mehr als konkurrenzfähig.

AnarchX
2008-02-23, 19:09:07
Nein, man hat RV670 unterschätzt im Bezug auf Leistung und Termin, selbst AMD war überrascht, dass das A11 Silizium schon in die Produktion gehen konnte. Und leistungsmässig hatte NV eher etwas in Richtung RV570 erwartet.

Was eben dazu führte, dass wir nun erst Anfang 2008 G94 sehen, welcher der eigentliche Konkurrent zum "RV670" war.


Warum man G92 an der Bandbreite verhungern lässt, ist wiederrum eine andere Frage, ich würde darauf tippen, dass es wohl hier um die relativ bandbreitenunabhängige Shaderleistung ging, die man für sein Tesla-Lineup benötigt, entsprechende 1 TFLOP-Produkte mit hoher Pro-Watt-Leistung sollen wohl hier bald kommen.

reunion
2008-02-23, 19:11:02
Die Frage steht doch schon seit Oktober. Man hat wohl einfach AMD überschätzt - wahrscheinlich dachte man, dass schon im Januar der rv770 käme.
Alles andere macht keinen Sinn, da man sonst nie auf 8 Cluster und hohe Taktraten gehen würde.

Ne, das stimmt nicht. G92 sollten den deutlich teureren G80 ersetzen. Das Problem war nur das die Antwort auf den früher als geplant erschienenen RV670, nämlich der G94 erst jetzt kam und man so mangels Alternativen G92 hier reinquetschen musste.


Und wie man sieht, wäre selbst eine 9800x2 mit zwei 9600GT mehr als konkurrenzfähig.

Er wäre zumindest auf Augenhöhe mit etwas höheren Taktraten ja.

Warum man G92 an der Bandbreite verhungern lässt, ist wiederrum eine andere Frage, ich würde darauf tippen, dass es wohl hier um die relativ bandbreitenunabhängige Shaderleistung ging, die man für sein Tesla-Lineup benötigt, entsprechende 1 TFLOP-Produkte mit hoher Pro-Watt-Leistung sollen wohl hier bald kommen.

Trotzdem ergibt das für mich nur wenig Sinn, der Chip ist völlig unbalanciert designet.

dargo
2008-02-23, 19:12:47
Für den Kunden sicherlich, für nV ist es sicher nicht ideal, wenn 70% der möglichen Mehrleistung brach liegt.
Wenn du glaubst, dass nur die Bandbreite beim G92 limitiert dann irrst du.

LovesuckZ
2008-02-23, 19:30:30
Nein, man hat RV670 unterschätzt im Bezug auf Leistung und Termin, selbst AMD war überrascht, dass das A11 Silizium schon in die Produktion gehen konnte. Und leistungsmässig hatte NV eher etwas in Richtung RV570 erwartet.

Deswegen einen 8 Cluster-Chip, der dann dreimal so schnell gewesen wäre? :rolleyes:
Ne, hätte man AMD unterschätzt, wäre man im Oktober maximal mit 6 Cluster angetreten. Dann hätte man die Karte auch wesentlich besser 8700 nennen können.


Was eben dazu führte, dass wir nun erst Anfang 2008 G94 sehen, welcher der eigentliche Konkurrent zum "RV670" war.

Selbst dann hätte man neben dem konkurrenzfähigen G94 noch einen übergroßen G92.


Warum man G92 an der Bandbreite verhungern lässt, ist wiederrum eine andere Frage,[...]

Billige Herstellung der Platine und weniger Kontakte zur GPU.

reunion
2008-02-23, 19:43:21
Deswegen einen 8 Cluster-Chip, der dann dreimal so schnell gewesen wäre? :rolleyes:
Ne, hätte man AMD unterschätzt, wäre man im Oktober maximal mit 6 Cluster angetreten. Dann hätte man die Karte auch wesentlich besser 8700 nennen können.


Nochmal: G92 sollte G80 ersetzen und nicht gegen RV670 antreten. Dafür war G94 gedacht, der aber zu spät kam.


Billige Herstellung der Platine und weniger Kontakte zur GPU.

Dann braucht man auch keinen so großen Chip wenn man ihn an der Bandbreite verhungern lässt.

Wenn du glaubst, dass nur die Bandbreite beim G92 limitiert dann irrst du.

Mit einem breiteren SI gibt es auch mehr ROP-Power.

Gast
2008-02-23, 19:43:36
Deswegen einen 8 Cluster-Chip, der dann dreimal so schnell gewesen wäre? :rolleyes:
Ne, hätte man AMD unterschätzt, wäre man im Oktober maximal mit 6 Cluster angetreten. Dann hätte man die Karte auch wesentlich besser 8700 nennen können.



Selbst dann hätte man neben dem konkurrenzfähigen G94 noch einen übergroßen G92.



Billige Herstellung der Platine und weniger Kontakte zur GPU.

Ich denke Nvidia wurde in zweierlei Hinsicht überrascht.

Zum einen dass es keinen High End Single Chip von ATI gibt. (Haben ATI überschätzt)

Zum anderen dass der Midrange Chip RV670 so stark wird. (Haben ATI unterschätzt)

dargo
2008-02-23, 19:49:19
Mit einem breiteren SI gibt es auch mehr ROP-Power.
Klar, aber nur weil es designmäßig beim G8x/G9x nicht anders geht. Für höhere Bandbreite braucht man nicht zwangsläufig ein breiteres SI.

LovesuckZ
2008-02-23, 19:51:42
Nochmal: G92 sollte G80 ersetzen und nicht gegen RV670 antreten. Dafür war G94 gedacht, der aber zu spät kam.

Gegen was dann? :confused:
Der G92 sollte erstmal die 8800GTS ersetzen. Die waren nämlich schon bei 230€ angelangt. Hier hätte ein 6 Chip locker gereicht. Die 8800GTX wäre durch eine X2 ersetzt worden. Der G94 wäre so oder so gekommen.


Dann braucht man auch keinen so großen Chip wenn man ihn an der Bandbreite verhungern lässt.

Weil man von AMD mit mehr gerechnet habe und gleichzeitig billiger produzieren wollte.

AnarchX
2008-02-23, 19:55:41
Nochmal: G92 sollte G80 ersetzen und nicht gegen RV670 antreten. Dafür war G94 gedacht, der aber zu spät kam.

Ja, G94 sollte wohl eher als "GF8700 GTS" gegen die "HD29x0 Pro" antretten im Q1, was ja durchaus zu seinen Specs gepasst hätte.

G92 war wohl Anfangs eher als G80GTS-Replacement @ $299 und als 8800M gedacht und sollte als G92GX2 schliesslich den R680, der sich in alten Docs nach Singlechip liest, massiv an die Wand spielen.

Im September soll dann aber massiv die Roadmap bei NV verändert wurden sein, zufällig wo AMD ein tieferen Einblick in den RV670 gewährte und es klar wurde das A11 schon starten kann. Aber hier kann man wohl schon sagen, dass NV den RV670 etwas überschätzt hat, der damals noch mit 825MHz geplant war.

Die Einführung der GeForce9-Serie ist wohl auch eher ein Idee der näheren Vergangenheit: Notwendigkeit durch HD3000, H-SLI-Chipsätze verschoben sich und man machte nun eben HybridPower GF9-exklusiv.

Razor
2008-02-24, 09:10:26
Ideal ist es ja. Aber trotzdem wird der Chip ausgebremst.
Ja und?
Das ist pure Absicht und für den Preis absolut unschlagbar!
Was nützt mir massig Bandbreite (wie im Falle der 9600GT), wenn die Rohleistung zu schwach ist?
:confused:

Schließlich musste ich für die 88GT nur 210€ zahlen... keine >300€, wie es noch bei der 7900GT der fall war, oder >300€ wie bei der FX5900, oder... verstehst Du, was ich meine? Und wenn man jetzt sieht, wieviel für die ganzen G80-Karten gezahlt wurde, dann müssen den Besitzern doch die Augen tränen...

Also mir persönlich ist es lieber dass die Bandbreite limitiert (weil das eigentlich nur Auflösungen betrifft, die mich 'eh nicht interessieren), als die Rohleistung, von der man zukünftig wohl gar nicht genug haben kann...

Also eine "neue Generation" für eine repartierte Videoeinheit, PCIe 2.0 und geringeren Stromverbrauch bei nur etwas niedrigerer Leistung? Vom kleineren Fertigungsprozess und der effizienteren Bandbreitennutzung hat der User nur mittelbar etwas und ob nun ein NVIO da drauf sitztwird den meisten auch herzlich egal sein.
Wie Du das bewertest ist mir und wohl auch nVidia vollkommen wurscht. Und der Video-Prozessor wurde nicht 'repariert', sondern beim G80 war der 'alte' VP (der VP1 wohlgemerkt!) infunktional... ein kleiner, aber gewichtiger Unterschied. Vom kleineren Fertigungsprozess (geringerer Stromverbrauch) hat der User etwa 2 Jahre etwas und die effizientere Bandbreitennutzung darf man schon jetzt bewudern, wenn man Vergleiche zur GTX bei gängigen Auflösungen sieht... nur dass die 88GT die Hälfte kostet.

Sorry, aber man kann sich auch etwas einreden...
Der "Sprung" im Mainstream ist gewaltig und rechtfertigt natürlich eine neue Version.

Wo gab es denn DMn kleinere Unterschiede? Zumindest einen nennenswerten Leistungszuwachs oder irgendeinen Unterschied im Featureset gab es bisher fast immer. Man muss schon weit zurück gehen, um etwas Vergleichbares zu finden. Selbst bei der Geforce 4 Ti gab es immerhin mehr Leistung, einen zweiten VS und SM 1.3 statt 1.1. Nach Deiner Logik hätte man ja sogar mit NV 41 eine "neue Generation" einleiten können (110 nm statt 130 und ggü. NV 40 reparierte Videoeinheit).
Was redest Du da für einen... ähm... ich reiß mich zusammmen.

Was ist denn mit der Architektur-Änderung bezüglich der TMU des G92 ggü dem G80?
Das einzige, was Deiner Meinung wirklich 'fehlt', scheint der D3D-Level zu sein... sonst ist ALLES da!

Sorry, aber dieser kleine Hüpfer auf D3D10.1 würde IMO absolut keinen "Sprung" rechtfertigen...

Die einzige Frage, die bleibt:
Warum wurden G92 und G98 nicht schon in der "Generation 9" unter gebracht?
Aber auch diese Frage läßt sich mit ein bischen Nachdenken sehr schnell beantworten... ;)

Für den Kunden sicherlich, für nV ist es sicher nicht ideal, wenn 70% der möglichen Mehrleistung brach liegt.
Wenn man die verkaufszahlen sieht, dürfte es für nVidia schon 'ideal' sein... :rolleyes:
Und von den 70% Mehrleistung träumst vermutlich nur Du...
(auch möchte ich speziell Dich noch darauf hinweisen, dass hier nicht die 9600GT mit der 8800GTS512 verglichen wird... aber das nur am Rande ;-)

Mehr Bandbreite ist nur durch einen dickeren Chip und einer aufwendigeren Platine oder durch GDDR4 Speicher möglich.
nVidia wollte eine ingesamt preisgünstigere Karte als die 8800GTS. Und die schlägt man - hat also das gewollte erreicht. Ausserdem sieht man an der 8800GS, dass Bandbreite nicht wirklich von so starker Limitierung ist.
Dem ist nicht wirklich viel hinzu zu fügen...
:up:

Razor

Razor
2008-02-24, 09:24:19
Dann braucht man auch keinen so großen Chip wenn man ihn an der Bandbreite verhungern lässt.
Sag mal... seit Ihr wirklich der Meinung, dass nVidia ausschließlich den Consumer-Markt im Auge hat?
Da ist noch der komplett unberücksichtigte professionelle Sektor, der bis ins Militär geht...

DAS ist wichtig und dafür entwickelt man. Der Consumer-Bereich fällt einfach davon ab und da gibts dann auch mal ab und an ein paar Überraschungen, wie z.Bsp. den G92. Die professionellen Produkte werden dann auf ein 'ordentliches' Maß zurück geschraubt, damit sie in das Line-Up für Consumer-Produkte passen.

Mit der 8800GT hat man dann gleich mehrere Fliegen mit einer Klappe geschlagen... man brachte den sowieso schon vorhandenen Chip 'leicht' beschnitten auf den Markt, um
a) die neue Lösung von ATI in den Boden zu stampfen
b) die unlukrativ gewordene 88GTS-Schiene komplett zu ersetzen (war zu aufwändig in der Herstellung)
c) die Lücke im Mainstream-Segment zu füllen, die seit G80 offen klaffte

Das sind IMO sehr gute Gründe, warum nVidia tat, was sie taten... :D

Gegen was dann? :confused:
Der G92 sollte erstmal die 8800GTS ersetzen. Die waren nämlich schon bei 230€ angelangt. Hier hätte ein 6 Chip locker gereicht. Die 8800GTX wäre durch eine X2 ersetzt worden. Der G94 wäre so oder so gekommen.
Ähm... und wieder 100% ACK!
:up:

...und man machte nun eben HybridPower GF9-exklusiv.
Was nicht korrekt ist, sorry... auch die G92 sind "Hybrid-Power" kompatibel.
Wer auch immer diesen Unfug 'braucht'... wenn er an nVidia Chipsätze gebunden ist.

Razor

Gast
2008-02-24, 09:49:13
Sag mal du hast ja nicht mehr alle....

NV hat die aktuelle ATI-Generation eben ncht einfach so in den Boden gestampft. Sonst müssten sie ja keine 9600GT nachlegen, die es auch nicht schafft sich leistungstechnisch deutlich von einer HD3870 abzusetzen.
Das Militärgeschäft ist eine alte Domäne von 3Dfx gewesen, dass war bei der Unternehmensgründung eben kein primärziel. Genausowenig ist es aktuell noch ein Zugpferd weil NV bis dato mehr von Consumerprodukten lebt.
Interessant ist es auch, dass die ATIs innerhalb der Preisklassen die NV teilweise bei OGL Spielen deutlich schlagen.

Selten so nen zusammengewürfelten Mist gelesen wie von dir Razor!

Captain Future
2008-02-24, 10:02:21
Was ist denn mit der Architektur-Änderung bezüglich der TMU des G92 ggü dem G80? Das einzige, was Deiner Meinung wirklich 'fehlt', scheint der D3D-Level zu sein... sonst ist ALLES da!

Sorry, aber dieser kleine Hüpfer auf D3D10.1 würde IMO absolut keinen "Sprung" rechtfertigen...


Hi Razor,
Diese TMU-Geschichte gab es doch schon bei der 8600 und der 8500, oder? Und ein kleiner Hüpfer ist DirectX 10.1 doch auch nicht? Immerhin kann man jetzt endlich Kantenglättung mit Global Illumination und Deferred Rendering und so weiter haben.

Gast
2008-02-24, 10:48:53
Hi Razor,
Diese TMU-Geschichte gab es doch schon bei der 8600 und der 8500, oder? Und ein kleiner Hüpfer ist DirectX 10.1 doch auch nicht? Immerhin kann man jetzt endlich Kantenglättung mit Global Illumination und Deferred Rendering und so weiter haben.

Hätte DX10.1 bei NV zuerst Einzug gehalten, wäre es ein gewaltiger Fortschritt gewesen. Nun hat es aber ATI eher gebracht --> unbedeutend und nichts wert.

AnarchX
2008-02-24, 12:08:41
Was nicht korrekt ist, sorry... auch die G92 sind "Hybrid-Power" kompatibel.
Wer auch immer diesen Unfug 'braucht'... wenn er an nVidia Chipsätze gebunden ist.

Nein, GF8 ist nicht HybridPower kompatibel, obwohl selbst G80 in alten Folien, bevor man sich eben für die GF9-Einführung entschied, als HybridPower kompatibel präsentiert wurde.

Hvoralek
2008-02-24, 12:08:55
Wie Du das bewertest ist mir und wohl auch nVidia vollkommen wurscht. Und der Video-Prozessor wurde nicht 'repariert', sondern beim G80 war der 'alte' VP (der VP1 wohlgemerkt!) infunktional... ein kleiner, aber gewichtiger Unterschied.Mit "repariert" meinte ich einen erweiterten Funktionsumfang (Ob der VP1 so geplant war oder eine Notlösung, ist mir auch herzlich egal). Dir wird aufgefallen sein, dass ich auch für R6xx gerne "reparierte" ROPs fordere. Natürlich funktionieren die ROPs auch jetzt, aber leider mit recht beschränktem Funktionsumfang.

Vom kleineren Fertigungsprozess (geringerer Stromverbrauch) hat der User etwa 2 Jahre etwas und die effizientere Bandbreitennutzung darf man schon jetzt bewudern, wenn man Vergleiche zur GTX bei gängigen Auflösungen sieht... nur dass die 88GT die Hälfte kostet.Von geringrerem Stromverbrauch und niedrigeren Preisen hat man etwas, ja. Der Fertigungsprozess als solcher bringt dem User genau das, aber auch nur das. Also zähle bitte entweder den Fertigungsprozess selbst auf oder dessen Auswirkungen, aber nicht beides. Und die effizientere Bandbreitennutzung bringt schlicht etwas Geschwindigkeit. Die ist also in der Leistungsbetrachtung schon komplett enthalten. Man könnte natürlich von deutlich weniger Leistung bei klar geringerem Stromverbrauch sprechen und dann separat von etwas zusätzlicher Leistung durch Bandbreitensparmaßnahmen. Das ändert aber nichts an der Leistung im Ergebnis.

Der "Sprung" im Mainstream ist gewaltig und rechtfertigt natürlich eine neue Version.Ach, jetzt geht es plötzlich um den Leistungszuwachs im Mainstream (zufälligerweise genau die Begründung, die Nvidia jetzt für den Beginn der 9000er- Reihe anführt). Na denn: Warum gab es bei den letzten Sprüngen im Mainstreambereich keine "neuen Generationen", sondern immer im High- End? Was war insbesondere mit der bescheidenen X1600 gegenüber den viel schnelleren X1650XT/ X1950 Pro? Es hat m.W. noch nie vorher irgendein Grafikchiphersteller eine "neue Generation" mit einem Leistungszuwachs in der Mitteklasse begründet. Das Abgrenzungskriterium waren bisher immer High- End- Leistung und Featureset. Das einzige, was D8P in der Hinsicht zu bieten hat, ist ein reparierter (okay, genauert: erweiterter) VP. Zumindest ich brauche eine GraKa aber v.a. zum Spielen und nur nachrangig zur Videobeschleunigung.

Was ist denn mit der Architektur-Änderung bezüglich der TMU des G92 ggü dem G80?Die auch höchstens ein bisschen Leistung bringt. und keinen sonstigen Nutzen oder "eigenen" Wert hat. Das kann man vlt. mit Fetch4 auf R580 vergleichen.

Das einzige, was Deiner Meinung wirklich 'fehlt', scheint der D3D-Level zu sein... sonst ist ALLES da!Einen neuen D3D- Level verlange ich nicht zwingend. Aber bitte entweder einen Leistungszuwachs im High- End oder irgendwelche Erweiterungen im Featureset (Das könnten mMn durchaus auch neue AA- Modi o.ä. sein). Irgendetwas, was das Spitzenmodell der neuen Generation nennenswert besser macht als das der vorherigen.

Nehem wir noch einmal auf, was wir "alles" haben: Niedrigerer Stromverbrauch bei nur etwas geringerer Leistung, besserer VP und ein paar interne Umbauten, die aber nichts nützen, was nicht in der Auflistung oben schon enthalten wäre. Bleibt im Ergebnis: Etwas geringerer Stromverbrauch und besserer VP.

Sorry, aber dieser kleine Hüpfer auf D3D10.1 würde IMO absolut keinen "Sprung" rechtfertigen...Jedenfalls eher als das hier.

dargo
2008-02-24, 13:27:48
Das einzige, was D8P in der Hinsicht zu bieten hat, ist ein reparierter (okay, genauert: erweiterter) VP. Zumindest ich brauche eine GraKa aber v.a. zum Spielen und nur nachrangig zur Videobeschleunigung.

Ich frage mich eh warum der VP von Razor so überbewertet wird. Ich habe den noch nie benutzt. Wofür auch im Zeitalter von C2Ds bzw. Quadcores. Und nein, für einen HTPC kauft man sich keinen G92. Dafür ist der zu teuer.

LovesuckZ
2008-02-24, 13:38:45
Senkung des Stromverbrauches.

dargo
2008-02-24, 13:41:13
Senkung des Stromverbrauches.
Ich bezweifle, dass eine G8800GT/GTS mit dem VP weniger Strom verbraucht als zb. ein E8200 mit einer IGP.

LovesuckZ
2008-02-24, 13:44:20
Darum geht es nicht. Auch auf einer High-End Maschine möchte man sich einen HD-Film ansehen. Und statt den Dual/Quad-Core auf volle Pulle laufen zu lassen, könnte es genauso gut auch die Grafikkarte.

Gast
2008-02-24, 13:48:11
Ist interessant. ;)
Beim G8x war der Stromverbrauch (Idle) nicht wichtig. Jetzt beim G92 ist es auf einmal ein Argument dafür.
Schön wie einige hier die Flagge immer schön in den Wind drehen um dahin zukommen wie es gerade passt.

LovesuckZ
2008-02-24, 13:49:36
Ne, du scheinst gerade rot zu sehen.
Wem der IDLE-Verbrauch egal war, der hat immernoch einen G80. Denn der interessiert sich auch nicht für einen verbesserten Videoprozessor.

Gast
2008-02-24, 13:53:23
Ne, du scheinst gerade rot zu sehen.
Wem der IDLE-Verbrauch egal war, der hat immernoch einen G80. Denn der interessiert sich auch nicht für einen verbesserten Videoprozessor.
Ich sehe kein Rot sondern Blau. ;)

dargo
2008-02-24, 14:12:39
Darum geht es nicht. Auch auf einer High-End Maschine möchte man sich einen HD-Film ansehen. Und statt den Dual/Quad-Core auf volle Pulle laufen zu lassen, könnte es genauso gut auch die Grafikkarte.
Dass ein E8200 dabei mit 100% Auslastung arbeitet halte ich aber für ein Gerücht. Sogesehen verbraucht die CPU weniger als wenn der G92 es über den VP erledigen würde.

LovesuckZ
2008-02-24, 14:15:48
Dass ein E8200 dabei mit 100% Auslastung arbeitet halte ich aber für ein Gerücht. Sogesehen verbraucht die CPU weniger als wenn der G92 es über den VP erledigen würde.

Man braucht einiges an CPU Power, um 1080p zu decodieren. Und wie man an der 9600GT btw. 38xx sieht, sind die Unterschiede beim IDLEN zwischen IGP und Graka nicht mehr so groß.

deekey777
2008-02-24, 15:48:52
Bei der Wiedergabe von HD DVDs/BDs werden zumindest HD3000 (und wohl auch die kleinen HD2000) auf 3D-Takt getaktet. Auf der anderen Seite stellt sich die Frage, wieviel sie Saft sie dabei verbrauchen.

Man kann die VPs nur dann den CPUs vorziehen, wenn diese auch die gleiche oder bessere Bildqualität liefern. Eine bloße Entlastung der CPU bringt nichts, wenn das Bild durch die Nutzung der Videoprozessoren ruckelt.

AnarchX
2008-02-24, 16:58:36
MSI N9600GT-T2D512-OC (NVIDIA GeForce 9600 GT overclocked) (http://www.ht4u.net/reviews/2008/msi_geforce_9600_gt/)@HT4u

...inkl. 8800 GT @ FW174.12 :up:

Hvoralek
2008-02-24, 18:26:09
MSI N9600GT-T2D512-OC (NVIDIA GeForce 9600 GT overclocked) (http://www.ht4u.net/reviews/2008/msi_geforce_9600_gt/)@HT4u

...inkl. 8800 GT @ FW174.12 :up:Der neue Treiber macht also einen Unterschied, aber keinen großen.

Gast
2008-02-25, 20:25:16
Wenn man ganz genau hinschaut steckt da ne Geforce in der Rille.

puntarenas
2008-02-28, 00:02:13
Kann mir jemand mit Französischkenntnissen mal auf die Sprünge helfen, mich würde interessieren ob in dem Test bei hardware.fr mit AF getestet wurde:
http://www.hardware.fr/articles/705-1/dossier-geforce-9600-gt-radeon-hd-3650.html

Überhaupt wundert mich ein wenig, dass die halbierte TMU-Anzahl nur so wenig auf die Performance durchzuschlagen scheint, sind 64 TMUs beim G92 ähnlich "überdimensioniert" in aktuellen Spielen wie die 128 Shadereinheiten?

mapel110
2008-02-28, 00:13:47
AF und HDR war immer aktiviert, wenn sie im Spiel verfügbar waren.

IdR stehts auf den jeweiligen Seiten nochmal, ob AF aktiviert war.
http://babelfish.altavista.com/
Die Seite liefert ganz passable Übersetzungen.

Überhaupt wundert mich ein wenig, dass die halbierte TMU-Anzahl nur so wenig auf die Performance durchzuschlagen scheint, sind 64 TMUs beim G92 ähnlich "überdimensioniert" in aktuellen Spielen wie die 128 Shadereinheiten?
Durch Taktanhebung wurde das etwas ausgeglichen. Eventuell gibts auch ein paar Treiberschweinereien mehr für die Neuner-Serie.

puntarenas
2008-02-28, 00:24:04
Danke, bin immer mehr erstaunt, was die 9600GT mit ihren "mickrigen" 505 Mio. Transistoren zu leisten vermag. Nur im PCGH-Test (http://www.pcgameshardware.de/aid,633071/Test/Benchmark/PCGH-Test_Geforce_9600GT/) steht sie in Relation zur 8800GT deutlich schlechter da.

Babelfish hätte die Information sogar erstaunlich leserlich geliefert:
Das anisotropische Filtern sowie das HDR sind in allen Fällen aktiviert worden, wo sie im Spiel verfügbar sind. Schließlich das transparency/wurde adaptive antialiasing in Methode aktiviert multisampling.

Also sogar TMSAA, ansonsten breche ich aber bei maschinellen Übersetzungen vom Stuhl, da müssen Babelfish und Google mal noch ein wenig dran stricken. Für Benchmarkbalken reicht mein Französisch allerdings ohnehin. :)

Edit:
Eventuell gibts auch ein paar Treiberschweinereien mehr für die Neuner-Serie.
Anscheinend ja nicht: Klick für PCGH_Carsten (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6314286#post6314286)

dildo4u
2008-02-29, 19:14:11
Techpowerup hat Linkboost endeckt was es schon seit dem 680i Chipsatz gibt und erklärt nun alle? 9600GT Tests für ungültig. :lol:

http://www.techpowerup.com/reviews/NVIDIA/Shady_9600_GT/

"It is certainly nice for NVIDIA to see their GeForce 9600 GT reviewed on NVIDIA chipsets with LinkBoost enabled where their card leaves the competition behind in the dust (even more). Also it could send a message to customers that the card performs considerably better when used on an NVIDIA chipset? Actually this is not the case, the PCI-Express frequency can be adjusted on most motherboards, you will see these gains independent of Intel/AMD CPU architecture or Intel/NVIDIA/AMD/VIA chipset."

http://img264.imageshack.us/img264/9220/pciaa3.jpg

AnarchX
2008-02-29, 19:35:20
Natürlich dumm, wenn man nichts über die verwendete Testplattform weiß und sich nicht erinnert, dass man wohl im BIOS mal etwas herumgespielt hat. X-D

Aber wohlmöglich hat NV ihm das Board so gegeben, mit eine BIOS-PW, sodass er nichts ändern kann...:upara:


Trotzdem erstaunlich, dass wohl durch LinkBoost über 800MHz OC möglich sind. AFAIK wurde auchmal berichtet, dass die G80-8800 damals etwas mehr Spannung auf dem 680i bekamen und somit sich besser übertakten ließen, ist da eigentlich etwas dran?

Lawmachine79
2008-02-29, 21:16:51
Natürlich dumm, wenn man nichts über die verwendete Testplattform weiß und sich nicht erinnert, dass man wohl im BIOS mal etwas herumgespielt hat. X-D

Aber wohlmöglich hat NV ihm das Board so gegeben, mit eine BIOS-PW, sodass er nichts ändern kann...:upara:


Trotzdem erstaunlich, dass wohl durch LinkBoost über 800MHz OC möglich sind. AFAIK wurde auchmal berichtet, dass die G80-8800 damals etwas mehr Spannung auf dem 680i bekamen und somit sich besser übertakten ließen, ist da eigentlich etwas dran?
Deine Frage kann ich nicht beantworten, aber in diesem Zusammenhang ist interessant, daß auf einem Gigabyte K8NF-9 (NF4-NonUltra Sockel 939) das aktivieren der Funktion "Robust Graphics Booster" im Bios die GPU (ja, direkt die GPU) übertaktet wird. Die Beobachtung habe ich auf einer 6800GT und auf einer 8800GTS gemacht - vielleicht packe ich demnächst mal eine ATI rein und prüfe, ob der Effekt nur bei NV - GPUs auftritt.

Etwas genauer:
Die 88GTS wird von 500 auf 513 Mhz übertaktet.
Die 68GT von 350 auf 385 (!) Mhz.
Sind beides Retailkarten, also keine OC - Versionen oder so.

Ach und ist es theoretisch möglich, daß ein Grafikchip seinen Takt über den PCI-E Takt + Multiplikator ("stufenlos") generiert (ähnlich wie eine CPU über einen FSB-Takt bzw. Referenztakt) ? Das würde die Beobachtung auf dem 680i erklären.

Gast
2008-02-29, 21:21:08
Wenn das stimmt, sind die Ergebnisse natürlich fürn Podex!

Die Unterschiede sind garnicht mal so klein.

mictasm
2008-02-29, 22:00:55
Mal etwas ganz anderes: Wird es von der 9600GT eine Low-Profile Version von irgendeinem Hersteller geben?

Disco Stu
2008-02-29, 23:28:07
ich bin mal so frei meinen erfahrungsbericht bei cb.de hier zu verlinken - evtl. interessiert es ja jemanden :)

http://www.computerbase.de/forum/showthread.php?t=386630

neidi
2008-02-29, 23:29:17
ich bin mal so frei meinen erfahrungsbericht bei cb.de hier zu verlinken - evtl. interessiert es ja jemanden :)

http://www.computerbase.de/forum/showthread.php?t=386630

einloggen wäre auch ma toll gewesen - ich depp :D - also der bericht is von mir - sorry fürs doppelpostin :/

dargo
2008-02-29, 23:39:17
Etwas genauer:
Die 88GTS wird von 500 auf 513 Mhz übertaktet.

Falls du die G80GTS meinst - diese taktet standardmäßig mit 513Mhz an der GPU.

Gast
2008-02-29, 23:57:49
Falls du die G80GTS meinst - diese taktet standardmäßig mit 513Mhz an der GPU.
Nö, es sind 500Mhz.

Lawmachine79
2008-02-29, 23:59:22
Falls du die G80GTS meinst - diese taktet standardmäßig mit 513Mhz an der GPU.
Sollten eigentlich 500 sein.

dargo
2008-03-01, 00:01:30
Nö, es sind 500Mhz.
Nein, es sind 513Mhz. Glatte 500Mhz sind gar nicht möglich wegen dem Taktgeber.

Sollten eigentlich 500 sein.
Warum?
Der Speicher der G80GTS taktet mit glatten 800Mhz auch nicht.

Liszca
2008-03-01, 22:23:06
Bisher dachte ich ja das die sli leistung der 9600 gt ein echter meilenstein wäre!

aber dann musste ich leider im neoseeker review sehen dass alles beim alten ist :eek: ;D

Gast
2008-03-01, 22:50:42
einloggen wäre auch ma toll gewesen - ich depp :D - also der bericht is von mir - sorry fürs doppelpostin :/

Du hast aber schöne progs..... ;D