PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Kolumne: Nvidia enttäuscht mit der GeForce 8600


Leonidas
2007-04-26, 15:58:16
Link:
http://www.3dcenter.org/artikel/2007/04-26.php


Update 27. April 02:50
Tabelle eingefügt

deekey777
2007-04-26, 16:11:13
Gestern, heute, morgen



Um mit den Direct3D10-GPUS preislich nach unten Spielraum zu haben und um in der kommenden Auseinandersetzung AMDs Grafikchip-Abteilung namens ATI ärgern zu können, ist die Schaffung der vergleichsweise schmalen Chips aus Nvidias Sicht sinnvoll. Dank der Unified Shader und der Skalarpipline-Technologie à la G80-Chip sind diese auch schneller als es zunächst den Anschein hat. Da nicht alles zur gleichen Zeit geschehen kann, ist es auch kein Problem, wenn nicht alle verkleinerten Versionen zur selben Zeit in den Markt gebracht werden. Das Problem ist, dass die Viertelversion gleich GeForce 8600 genannt wir
:smile:

paul.muad.dib
2007-04-26, 16:23:24
Von der Sacher her richtig, aber auffallend viele Rechtschreibfehler und viele Wiederholungen im Text.

So wie die 8600 kein Mittelklasse Niveau erreicht, bleibt auch der Artikel weit unter dem sonstigen 3DCenter Niveau.

Finde die Idee aber gut, explizit auf die begrenzte Leistung aufmerksam zu machen. Es fehlen aber auch Benchmarks, die die Aussagen unterstützen und imo ein Hinweis auf die vom P/L Verhältnis besseren Radeon X1950 Karten, die das eigentliche Problem für die 8600 darstellen.

Mot
2007-04-26, 17:20:08
Noch zu Zeiten von GeForce 6600 GT und 7600 GT stand dieses Suffix einmal für Grafikkarten zu bezahlbaren Preisen, welche aber dennoch nicht mit Leistung geizten.


Die technischen Daten deuten aber eher darauf hin, dass diese Karten viel schneller von neuen, modernenen (?) Spielen eingeholt werden als die vorherigen Mainstream-Generationen seitens Nvidia.


Genau wie die GeForceFX-Serie insgesamt war diesen Chips im Gaming-Segment jedoch kein großer Erfolg beschieden.


Ob die Antialiasing-Fähigkeiten irgendwie beschnitten sind, ist derzeit noch nicht völlig klar – doch für 8x-Antialiasing in modernsten Shootern wurde die GeForce 8600 Serie ja auch gar nicht entwickelt.

GeForce 8600 GTS und GT sind für 256 MiB Speicherausbau vorgesehen, die architekturmäßig erneut halbierte GeForce 8500 GT soll hingegen auch gleich auch in einer 512-MiB-Version gelauncht werden - das ist wieder mal eine Meisterleistung einfallsloser Produktmanager.
Wieso darf man nicht nur mit 'nem Zitat antworten?
Alle von Word bemängelt (und das zu Recht).

dr.denton
2007-04-26, 17:24:05
Au toll, wir hängen uns an Rechtschreibfehlern auf, die ja keinem von uns passieren würden :|

Ansonsten: schöner Artikel - zwar nicht weltbewegend aber es ist gut, dass mal von quasi-"offizieller" Seite gesagt wird, was schon lange durch die Foren geistert.

mfG

denton

aths
2007-04-26, 17:25:45
Von der Sacher her richtig, aber auffallend viele Rechtschreibfehler und viele Wiederholungen im Text.

So wie die 8600 kein Mittelklasse Niveau erreicht, bleibt auch der Artikel weit unter dem sonstigen 3DCenter Niveau.Es ist als Kolumne eine Meinungsäußerung, kein "harter" Artikel. Dass es eine Kolumne ist, müsste noch explizit ergänzt werden.

Finde die Idee aber gut, explizit auf die begrenzte Leistung aufmerksam zu machen. Es fehlen aber auch Benchmarks, die die Aussagen unterstützen und imo ein Hinweis auf die vom P/L Verhältnis besseren Radeon X1950 Karten, die das eigentliche Problem für die 8600 darstellen.Mir gehts weniger um die Leistung, eher um die Leistung anbetrachts des Namens. D3D10-Karten mit 8500- und 8600-er Leistung sind imo sinnvoll. Nur nicht unter dieser Bezeichnung.

Leonidas
2007-04-26, 17:56:38
Schreibfehler + Titel gefixt.

Mot
2007-04-26, 18:12:00
Au toll, wir hängen uns an Rechtschreibfehlern auf, die ja keinem von uns passieren würden :|

Es geht einfach nur darum das zwei weitere Minuten mit der Word Rechtschreibprüfung nicht geschadet hätten.

Schreibfehler + Titel gefixt.
Super :)

Heimatloser
2007-04-26, 18:49:35
Als Fazit bleibt leider im Moment, daß die Hersteller teilweise den Eindruck erwecken sie würden die Käufer gezielt verwirren wollen.

Damit will ich hier kein Anti-Nvidia-Ding lostreten, sondern ich beziehe das auf praktisch fast alle.

Ich höre mir ja gerne immer mal an, was nicht so technisch versierte dazu sagen.

Einer meiner Bekannten hat das schön ausgedrückt, als er sagte die 6600GT und 7600GT (die er beide gekauft hatte) wären wohl nur aus "versehen" so starke Karten vom P-/L-Verhältnis her gewesen.

So hat Nvidia bei ihm im Nachhinein den guten Eindruck wieder zu nichte gemacht den er hatte, weil er davon ausging die Mainstream Reihe wäre ein gewolltes Schnäppchen für die Kunden.

Normalerweise wäre er ein sicherer Kunde für Nvidias neue Reihe gewesen, doch nun wartet er erst mal was von Ati so rauskommt.

Das schlimme ist leider, daß es einem mit den beiden Firmen auch genau umgekehrt so ergehen könnte.

Es ist unschön wie wenig die tatsächliche Leistung wirklich transparent dem Kunden rüber gebracht wird.

DerHeimatlose

Saw
2007-04-26, 18:55:24
Deswegen habe ich mir auch eine X1950Pro zugelegt. Was nützt mir eine DirectX10 Karte, die gerade mal für Aero ausreicht, aber bei den kommenden DirectX10-Spielen total einknickt. Und auf DirectX10 kann ich zur Zeit getrost drauf verzichten, wie auch auf Vista.

DaEmpty
2007-04-26, 19:34:44
Mit Direct3D10 können mehr Ressourcen pro Shader genutzt werden als mit Direct3D9, doch das ergibt nur Sinn, wenn die Ressourcen auch gebraucht werden
Gebraucht werden die Ressourcen, aber sie sind leider nicht in der Praxis nutzbar. Zumindest wenn man von Spielen ausgeht.


Von Aufweichung der Namensgebung zu sprechen führt imo zu einer zu positiven Betrachtung. Nvidia nutzt die Namensgebung regelrecht aus. Kunden verlassen sich auf das bisherige Namensschema - kaufen - und fallen wie bei der X1600 rein.

Gast
2007-04-26, 19:35:01
DX10 kostet Transistoren, die man eben nicht in mehr TMUs oder Recheneinheiten investieren konnte.
Ich verstehe nicht, warum die Leute die Designentscheidung kritisieren. Entweder wir wollen, dass sich DX10 von der Hardwarebasis schneller durchsetzt oder wir sind mit einem weiteren GF4MX Fiakos zu frieden. Eine 7900GTX auf 80nm hätte locker DIE Niveau einer 7600GT erreicht. Wäre dies eine bessere Entscheidung gewesen?

Alexander
2007-04-26, 19:40:36
Der Artikel liest sich wie ein nachts, auf die schnelle geschriebenes Schulreferat eines 16jährigen. Und die enorme Menge an technischer Daten wirkt lieblos reingestopft.

godess
2007-04-26, 20:06:15
Die 8600 GT (zum Preis von ungefähr 130 Euro) ist wiederum deutlich schwächer als die GeForce 8600 GTS. Früher hieß die "Beinahe-Ultra" GT und die deutlich niedriger getaktete Version hatte gar kein Kürzel. Damit weicht Nvidia bei der GeForce 8600 GT wiederum etablierte Benamungs-Kritieren auf.Naja...so einfach ist es dann doch nicht, denn eigentlich gabs denn Fall nur einmal, dass eine GT eine fast-Ultra war, und zwar bei der 6800GT bzw Ultra. Davor gabs nie GT, ab GeForce 7 keine Ultra. Also kann man hier schlicht nicht von "etablierter Namensgebung" reden.

Wenn wir ehrlich sind, gabs bei jeder GeForce-Generation unterschiedliche Nomenklatur (abgesehen von Ti bei 3 und 4), es gab nie eine etablierte Namensgebung. Das einzige was etabliert ist (erst seit FX), ist das der High-end sektor x800 und x900 hat, und Mainstream x600 und x700. Und davon ist NVIDIA hier auch nicht abgewichen, auch wenn die Performance 8600 Reihe äußerst zu wünschen übrig lässt (was man aber angesichts noch nicht gelaunchter ATI-Produkte nachvolziehen kann), denn Low-End ist die 8600er sicher auch nicht!

Killa Tomacco
2007-04-26, 20:25:49
Damit entpuppt sich nun aber die GeForce 8880 GTS mit 320 MiB RAM nicht als kurzfristiger Lückenbüßer, sondern mindestens mittelfristige als Verbindung zum HighEnd-Bereich.

Gast
2007-04-26, 21:20:15
ich frage mich, was will uns dieser artikel/diese kolumne sagen.

dass die 8600er reihe verdammt langsam gegenüber der 8800er reihe ist? schön wissen wir von unzähligen benchmarks
um genau zu sein könnte man das gleiche auch von der 8800GTS gegeüber der GTX behaupten, so einen riesen unterschied gab es zwischen den 2 größten modellen auch noch nie. um es mal mit der NV40-bezeichnung zu sagen haben wir nun eine 6800 mit dem namen einer 6800GT.

dass es sinn macht eine einzige GPU-reihe mit dermaßen großen leistungsunterschieden zu bringen will ich auch in frage stellen. bei CPUs haben wir innerhalb einer reihe schließlich auch maximal 100% unterschied.

die geringe leistung wird aber nicht mal wirklich kritisiert, was ohne eigene benchmarks auch recht sinnlos wäre, da es genügend artikel gibt, die das zeigen.

es wird gesagt dass die 8600er reihe nicht zur bisher üblichen namensgebung passt.
dabei frag ich mich was soll die bisher übliche namensgebung sein? die x600 reihe war in der 5er, 6er und 7er serie bei NV ein halber high-end-chip, in der 4er serie dagegen der topchip. bei ATI war die 6er-serie in der 9er und der X-generation ein halber high-end-chip, in der X1-generation dagegen 1/4.

die bedeutung der ganzen kürzel ändert sich sowieso schon fast von generation zu generation und wird von den beiden IHVs teilweise gegenläufig verwendet.

genau genommen dürfte die ganze 7er reihe von NV nicht so heißen sondern müssten nach "konvention" 6400, 6700 und 6900 heißen.

wie man sieht gibt es bei diesen "konventionen" dermaßen viele "außnahmen" dass man wohl kaum von etablierten bezeichnungen reden kann. bezeichnungen werden seit jeher von generation zu generation verschieden verwendet, ebenso wie die kürzel. alles natürlich sehr verwirrend, aber doch nichts wirklich neues.

namen tun imo nichts zur sache, auf die leistung kommt es an, namen dagegen sind unwichtig.

Gast
2007-04-26, 21:54:05
Scheinbar ist Nvidia hier gut aufgestellt.
Scheinbar oder anscheinend?

Gast
2007-04-26, 22:01:07
bei ATI war die 6er-serie in der 9er und der X-generation ein halber high-end-chip, in der X1-generation dagegen 1/4.


der X600 war nur 1/4 highend

Gast
2007-04-26, 22:29:20
der X600 war nur 1/4 highend

stimmt, da hab ich mich getäuscht.

Gast
2007-04-26, 22:52:22
so einen riesen unterschied gab es zwischen den 2 größten modellen auch noch nie. um es mal mit der NV40-bezeichnung zu sagen haben wir nun eine 6800 mit dem namen einer 6800GT.

Die X800XTPE hat gegenüber der X800Pro eine ca. 50% höhrere Textur- und Rechenleistung (12P mit 470MHz vs. 16P mit 525Mhz).


dass es sinn macht eine einzige GPU-reihe mit dermaßen großen leistungsunterschieden zu bringen will ich auch in frage stellen. bei CPUs haben wir innerhalb einer reihe schließlich auch maximal 100% unterschied.


Eine CPU ist auch wesentlich weniger kostenintensiv als eine Grafikkarte. Oder seit wann hat die CPU eine Platine, Speicher und sonstigen Quatsch?

Heimatloser
2007-04-26, 23:24:03
Wenn ich mir die Kritiken so anschaue sollte das 3DCenter vielleicht keine Artikel mehr veröffentlichen.

Vor allem der Member mit dem Nick Gast scheint es generell besser zu können......:|

DerHeimatlose

aths
2007-04-26, 23:59:52
Von Aufweichung der Namensgebung zu sprechen führt imo zu einer zu positiven Betrachtung. Nvidia nutzt die Namensgebung regelrecht aus. Kunden verlassen sich auf das bisherige Namensschema - kaufen - und fallen wie bei der X1600 rein.Man kanns so oder so sehen. Wie gesagt ist die 8600 GT der 7600 GT mindestens ebenbürtig, oft überlegen. Die 5200 zum Beispiel war ja deutlich langsamer als die 4200. (Allerdings wurde das 200-600-800-Schema erst mit der FX eingeführt.) NV führt jetzt ständig neue Kürzel ein, GTS, GTX ... da vermisse ich die klare Linie. Nvidia hat nirgendwo offiziell erklärt, was die 600 im Namen bedeutet. Deshalb kann ich mich da nicht zu weit auf dem Fenster lehnen.

War die 5600 ein Upgrade zur 4600? Kaum. Die 6600 GT war hingegen ein extremes Upgrade, selbst zur 5800 oder 5900. Die 7600 GT konnte die 6600 GT locker übertrumpfen. Die 8600 GT hat es mit dem Übertrumpfen ihres Vorgängers nicht so leicht, erst die 8600 GTS schafft das spielend. Solche Verwirrungstaktik liegt nicht im Interesse des Kunden.

aths
2007-04-27, 00:00:29
Der Artikel liest sich wie ein nachts, auf die schnelle geschriebenes Schulreferat eines 16jährigen. Und die enorme Menge an technischer Daten wirkt lieblos reingestopft.Schreib einen besseren und Leonidas wird ihn veröffentlichen.

aths
2007-04-27, 00:04:03
Naja...so einfach ist es dann doch nicht, denn eigentlich gabs denn Fall nur einmal, dass eine GT eine fast-Ultra war, und zwar bei der 6800GT bzw Ultra. Davor gabs nie GT, ab GeForce 7 keine Ultra. Also kann man hier schlicht nicht von "etablierter Namensgebung" reden.Aus meiner Sicht etablierte NV mit dem NV40 das GT-Kürzel als "Fast-Ultra-Niveau". Gab es keine Ultra, dann weil es NV für nicht nötig hielt, ein ensprechendes Modell nachträglich zu platzieren. Später wurde "GT" noch um einen Buchstaben erweitert, anstatt den Ultra-Zusatz zu verwenden.

Wenn wir ehrlich sind, gabs bei jeder GeForce-Generation unterschiedliche Nomenklatur (abgesehen von Ti bei 3 und 4), es gab nie eine etablierte Namensgebung. Das einzige was etabliert ist (erst seit FX), ist das der High-end sektor x800 und x900 hat, und Mainstream x600 und x700. Und davon ist NVIDIA hier auch nicht abgewichen, auch wenn die Performance 8600 Reihe äußerst zu wünschen übrig lässt (was man aber angesichts noch nicht gelaunchter ATI-Produkte nachvolziehen kann), denn Low-End ist die 8600er sicher auch nicht!NV ist davon nicht abgewichen obwohl die Performance äußerst zu wünschen übrig lässt? Gegen die Performance der 8600-er Reihe habe ich wie gesagt nix – nur gegen die Bezeichnung als 8600.

Scheinbar oder anscheinend?Scheinbar. Denn tatsächlich halte ich NV mit der 8600 für nicht besonders gut aufgestellt im Mid-Range-Bereich. Da muss (und wird) NV noch nachlegen. Kräftig nachlegen.

aths
2007-04-27, 00:07:27
ich frage mich, was will uns dieser artikel/diese kolumne sagen.

dass die 8600er reihe verdammt langsam gegenüber der 8800er reihe ist? schön wissen wir von unzähligen benchmarks Mein Problem ist wie gesagt nicht die Performance der 8600-er Karten, sondern dass sie als "GeForce 8600" vermarktet werden. D3D10-Karten mit der Performance der "8600"-er Reihe halte ich für sinnvoll. Die Benamung nicht.

es wird gesagt dass die 8600er reihe nicht zur bisher üblichen namensgebung passt.
dabei frag ich mich was soll die bisher übliche namensgebung sein? die x600 reihe war in der 5er, 6er und 7er serie bei NV ein halber high-end-chip, in der 4er serie dagegen der topchip. bei ATI war die 6er-serie in der 9er und der X-generation ein halber high-end-chip, in der X1-generation dagegen 1/4.

die bedeutung der ganzen kürzel ändert sich sowieso schon fast von generation zu generation und wird von den beiden IHVs teilweise gegenläufig verwendet.Innerhalb eines IHVs sollte die Benamung aber klar sein, finde ich. Das dient uns allen. In den letzten drei Generationen war die 600-er im Wesentlichen eine Halbierung der Architektur. Davon weicht Nvidia jetzt krass ab. Die Kolumen will darauf noch mal gesondert aufmerksam machen.

wie man sieht gibt es bei diesen "konventionen" dermaßen viele "außnahmen" dass man wohl kaum von etablierten bezeichnungen reden kann. bezeichnungen werden seit jeher von generation zu generation verschieden verwendet, ebenso wie die kürzel. alles natürlich sehr verwirrend, aber doch nichts wirklich neues.

namen tun imo nichts zur sache, auf die leistung kommt es an, namen dagegen sind unwichtig.Das finde ich nicht.

Gast
2007-04-27, 00:14:44
Ich finde die neuen Midragen Karten vollkommen in Ordnung, denn sie liegen in ihrem Preissegment von der Performance her genau richtig. Bissl mehr an Performance wäre zwar wünschenswert gewesen, aber wer ist denn nach Jahren Graka Erfahrung noch so blauäugig und erwartet von "neuen" Midrange Karten das da gegenüber der alten Generation +20% Performance bei rumkommt? Und das unter 200€...

Ich gehe davon aus das eine 8700 Serie kommen wird die die Lücke zwischen 8600GTS und 8800GTS schließen wird, denn die 8800GTS320 nehme ich nicht ernst. Ab 250€ wenn auch in hohen Auflösungen es noch zur Sache gehen darf muss 1. die RAM Größe stimmen und 2. der Abstand zum alten Generationen Highend. Das macht die 8800GTS640 sehr gut und der Preis ist ja auch weit runter so dass 0,0 Argumente mehr für Karten aus der alten Generation vorhanden sind.

Sollte keine 8700Serie kommen und ATI auch ein Performance Loch haben wie nV, halte ich das für einen zu seltsamen Zufall...

LovesuckZ
2007-04-27, 00:25:02
Mein Problem ist wie gesagt nicht die Performance der 8600-er Karten, sondern dass sie als "GeForce 8600" vermarktet werden. D3D10-Karten mit der Performance der "8600"-er Reihe halte ich für sinnvoll. Die Benamung nicht.


Der Leistungsabstand zwischen der 8600GTS und der 7600GT ist im ähnlichen Verhältnis wie der beim vergleich der 7600GT und 6600GT. In neueren Spielen wie Oblivion, Stalker oder Rainbow Six:Vegas kann eine 8600GTS sogar nochmal zu legen.
Ich sehe daher nicht, warum die Bezeichnung unpassend wäre.

Leonidas
2007-04-27, 02:55:35
Schreib einen besseren und Leonidas wird ihn veröffentlichen.


Exakt. Eine gute Kolumne wird immer veröffentlicht.


PS: Weitere Schreibfehler gefixt + Tabelle hinzugefügt.

Alexander
2007-04-27, 08:05:39
Schreib einen besseren und Leonidas wird ihn veröffentlichen.
Ist eine Trotzreaktion alles was man bei Kritik von dir erwarten kann?

Tigerchen
2007-04-27, 08:06:44
Mir gehts weniger um die Leistung, eher um die Leistung anbetrachts des Namens. D3D10-Karten mit 8500- und 8600-er Leistung sind imo sinnvoll. Nur nicht unter dieser Bezeichnung.

Immer wieder erstaunlich.;D Mehr sage ich diesmal nicht dazu. :biggrin:

Alexander
2007-04-27, 08:12:28
Der Leistungsabstand zwischen der 8600GTS und der 7600GT ist im ähnlichen Verhältnis wie der beim vergleich der 7600GT und 6600GT. In neueren Spielen wie Oblivion, Stalker oder Rainbow Six:Vegas kann eine 8600GTS sogar nochmal zu legen.
Ich sehe daher nicht, warum die Bezeichnung unpassend wäre.
Daher hätte die 8600GTS den Namen 8600GT verdient, und die 8600GT hätte 8600GS heißen sollen.

²Thom
2007-04-27, 09:20:46
Das Sommerloch ist dieses Jahr überaus früh an.

FlashBFE
2007-04-27, 09:21:32
Daher hätte die 8600GTS den Namen 8600GT verdient, und die 8600GT hätte 8600GS heißen sollen.

Die Namenskürzel sind sowieso reiner Quatsch. Bei einer vierstelligen Produktnummer wäre es kein Problem, alle Varianten mit dieser Nummer auszudrücken. Also z.B. 8670, 8650,8630. 8627 ;). Dann werden auch noch ständig neue Kürzel eingeführt, bei ATI dann auch gerne in umgekehrter Bedeutung. Dann werden abgespeckte Chips eingeführt, die die gleiche Nummer aber nur ein anderes Kürzel haben. Oder auf alte Technik wird einfach ein komplett neuer Name draufgeklebt.

Seht es doch einfach ein: Die Grafikchipnamen sind nicht dafür gedacht, um es dem Kunden einfacher zu machen, sondern als Marketingwerkzeug um ihm etwas zu suggerieren, ihn zu lenken.

Deswegen finde ich die Kolumne von der Absicht gut gemeint, aber am Thema vorbei. Man hätte einfach mal zusammentragen sollen, was Grafikchips allgemein für immer neue bescheuerte Namen verpasst kriegen und dieses anmängeln.

tombman
2007-04-27, 10:48:38
Wieder so typisch...95% aller Leser beklagen den Stil oder die Rechtschreibung :rolleyes:
Und das bei einem, der normal immer sehr drauf achtet...

Aber bei schlimmstem "Türkendeutsch", wo einfachste Wörter beinhart frech komplett falsch geschrieben werden regt sich keiner auf...

Aths, laß sie reden, is nur Neid, weil sie nicht auf die Titelseite kommen ;)

Zum Artikel selbst kann ich ned viel sagen, Midrange interessiert mich Nüsse ;D

RavenTS
2007-04-27, 11:02:44
Also aus meiner Sicht fixierst du (aths) zu sehr auf die völlig bezugslosen Marketing-Namen. Ob nun GT oder GTS oder was auch immer, das sind einfach nur vom Makreting schön erfundene Begriffe, wenn sie mal passen ist das wunderbar, ansonst sollte man auch sie dazu benutzen dem Kunden in einem Jahr direkt was anzudrehen, was er so vielleicht nicht erwartet hat.

Ist jetzt vielleicht die viel gescholtene Sichtweise des Marketings (aka Bedürfnisse erst schaffen und dann ausnutzen), aber da es hier keine Standardisierung gibt, seh ich das relativ locker, wenn nVIDIA nun wieder neue, alte Anhängsel aus dem Hut zaubert und man schon wieder neue Produktebenen schafft.
Das wär vielleicht eher ein Thema für eine Kolummne über die öfter mal unlogische und ärgerliche Arbeitsweise des Marketings..!

MadManniMan
2007-04-27, 11:11:18
Schön geschrieben, gefällt mir wirklich sehr gut!

Für die *600er Serie hat nV über Jahre hinweg so etwas wie eine Corporate Identity aufgebaut, die sich mit "halbierter High-End Chip" recht gut beschreiben läßt. Die Relevanz einer - in Grenzen - nachvollziehbaren Nomenklatur wurde damit zumindest angedeutet, wenn nicht unterstrichen.

Jetzt kommt der G84 daher (den ich für gut, aber noch zu teuer halte - 100 bzw. 150 € für GT und GTS wären OK) und torpediert jene Bestrebung vollends. Über "8400" oder "8500" wäre niemand böse gewesen ... aber halt! Diese beiden Namen sind ja bereits mit den von uns sicherlich als "8200" erwarteten Karten belegt.

Summa summarum: G84 & G86 sind absolut im Rahmen, nur die Namen sind beschissen.



Immer wieder erstaunlich.;D Mehr sage ich diesmal nicht dazu. :biggrin:


Warum sind diese Karten nicht sinnvoll?

Vertigo
2007-04-27, 11:19:12
Also aus meiner Sicht fixierst du (aths) zu sehr auf die völlig bezugslosen Marketing-Namen. Ob nun GT oder GTS oder was auch immer, das sind einfach nur vom Makreting schön erfundene Begriffe, wenn sie mal passen ist das wunderbar, ansonst sollte man auch sie dazu benutzen dem Kunden in einem Jahr direkt was anzudrehen, was er so vielleicht nicht erwartet hat.

Ist jetzt vielleicht die viel gescholtene Sichtweise des Marketings (aka Bedürfnisse erst schaffen und dann ausnutzen), aber da es hier keine Standardisierung gibt, seh ich das relativ locker, wenn nVIDIA nun wieder neue, alte Anhängsel aus dem Hut zaubert und man schon wieder neue Produktebenen schafft.
Das wär vielleicht eher ein Thema für eine Kolummne über die öfter mal unlogische und ärgerliche Arbeitsweise des Marketings..!
In der Kolumne wird doch auch dargelegt, wie das Verhältnis von Mainstream zu High-End in der Vergangenheit aussah. Unberührt von Namen, auch wenn diese zuletzt aus Marketinggründen stets GeForce Y600/Y800/Y900 usw. lauteten. Es fällt schon auf, dass die GeForce-8-Mainstream-Karten vom High-End weiter weg sind, als das eben bei den vorherigen Generationen der Fall war. Insofern halte ich die in der Kolumne geäußerte Kritik für angebracht und gerechtfertigt.

Noch etwas: dass hier in der Diskussion - wie so oft - die Rechtschreibung und stilistische Schwächen ausgeschlachtet werden statt über die Inhalte zu diskutieren, finde ich schade. Wenn man sich in diesem Zusammenhang aths' Auftritte hier im Forum vor Augen hält, kommt das aber auch nicht von ungefähr. Dennoch muss so etwas nicht sein.

Tigerchen
2007-04-27, 12:10:49
Mir gehts weniger um die Leistung, eher um die Leistung anbetrachts des Namens. D3D10-Karten mit 8500- und 8600-er Leistung sind imo sinnvoll. Nur nicht unter dieser Bezeichnung.

Immer wieder erstaunlich.;D Mehr sage ich diesmal nicht dazu. :biggrin:


Warum sind diese Karten nicht sinnvoll?

Ich habe nicht geschrieben daß sie nicht sinnvoll sind. Ich bezweifel nur ihre Leistungsfähigkeit bei den kommenden D3D10 Krachern im D3D10 Modus. Analog zu den Erfahrungen mit den ersten Midrange/Lowcost SM 3.0 Karten.

MadManniMan
2007-04-27, 12:29:57
Ich habe nicht geschrieben daß sie nicht sinnvoll sind. Ich bezweifel nur ihre Leistungsfähigkeit bei den kommenden D3D10 Krachern im D3D10 Modus. Analog zu den Erfahrungen mit den ersten Midrange/Lowcost SM 3.0 Karten.


Ja, das ist natürlich richtig - aber darum solls ja auch nur nebenbei gehen, schließlich sollten wir uns darüber freuen, daß die Hardwarebasis breiter wird und D3D10 auch bald benützt wird. Und immerhin reichts für ein paar Techdemos ;)

Gast
2007-04-27, 12:34:39
Warum sind diese Karten nicht sinnvoll?

imo ist weniger als halber high-end-speed innerhalb einer generation nicht sinnvoll.

alles darunter kann man noch leicht mit den auslaufmodellen der vorgängergeneration abdecken.

die riege der sinnlosen einsteigerkarten hat mit der FX5200 begonnen und wurde dann weiter fortgeführt.

MadManniMan
2007-04-27, 13:15:47
Hm, anders... Kann man mit einer 8500 GT in 1024 zocken?

AnarchX
2007-04-27, 13:26:22
Hm, anders... Kann man mit einer 8500 GT in 1024 zocken?

Nunja, wenn dir eine Leistung, die zwischen 7600GS und 7300GT liegt, ausreicht, dann schon. Es handelt sich nunmal nur um 1/8 G80.

Aber OC-freudig scheint sie zu sein, so hatte ich schon 700MHz mit passiver Kühlung gesehen.

paul.muad.dib
2007-04-27, 14:46:31
Es ist als Kolumne eine Meinungsäußerung, kein "harter" Artikel. Dass es eine Kolumne ist, müsste noch explizit ergänzt werden.

Mir gehts weniger um die Leistung, eher um die Leistung anbetrachts des Namens. D3D10-Karten mit 8500- und 8600-er Leistung sind imo sinnvoll. Nur nicht unter dieser Bezeichnung.

"Artikel" ist der Oberbegriff für alle geschriebenen Veröffentlichungen. Mir geht es auch um die Leistung in Anbetracht des Namens. Bei NV sollte man erwarten können, dass die Mittelklasse der neuen Generation das Niveau der Oberklasse der vorherigen Generation erreicht (6600) oder sogar übertrifft (7600).

Gast
2007-04-27, 15:20:59
6600GT und 7600GT konnten immer nur zwei Jahre alte High End Karten schlagen. Das schafft auch die 8800GTS, wenn man sie mit der 7800gtx vergleicht.

godess
2007-04-27, 18:38:27
der X600 war nur 1/4 highendDas war aber auch nur eine 9600XT auf PCIe (damit man schnell den PCIe Markt bedienen konnte). Die eigentliche Mittelklasse der X-Reihe war X700. Die X600 -genauso die X300- gehören faktisch nicht zur X-Reihe!

joe kongo
2007-04-27, 20:28:31
Ganz klar ist mir der Artikel nicht, soll die 8600er halb so schnell sein wie die
8800GTX aber dafür nur 1/3 kosten ?
Wo ist dann der Platz für die GTS mit 320MB ?

Leonidas
2007-04-27, 23:53:54
Der Platz der 8800GTS320 ergibt sich dadurch, daß sie ca. 1/2 der 8800GTX kostet, ca. 2/3 bis 3/4 Leistung bringt und damit die 8600GTS faktisch überflüssig macht, so lange zwischen 8800GTS320 und 8600GTS nicht mindestens ein Preisabstand von 100 Euro liegt.

Gast
2007-04-27, 23:57:36
Außer wenn der Speicher ausgeht, dann ist die 8800GTX 3-4x so schnell.

paul.muad.dib
2007-04-28, 10:49:44
6600GT und 7600GT konnten immer nur zwei Jahre alte High End Karten schlagen. Das schafft auch die 8800GTS, wenn man sie mit der 7800gtx vergleicht.

Es geht aber hier nicht um die 8800. Das ist keine Mittelklasse Karte sondern abgespecktes High-End. Und das mit den zwei Jahren ist auch etwas übetrieben. Die 6600 kam z.B. 1 1/2 Jahre nach 5900 Ultra und 9800 pro bzw. 1 Jahr nach 5950 Ultra.
Die 7600 GT kam ein JAhr nach der X850 XT.

MadManniMan
2007-04-28, 11:16:25
Nunja, wenn dir eine Leistung, die zwischen 7600GS und 7300GT liegt, ausreicht, dann schon. Es handelt sich nunmal nur um 1/8 G80.

Also ich habe hier eine X800 XL, welche ähnliche Leistungsregionen erreicht und ich erfreue mich in einem gewissen Rahmen besten Spielevergnügens ;)

Ergo: mit einer 8500 GT kann man zocken, also ist sie brauchbar.


Aber OC-freudig scheint sie zu sein, so hatte ich schon 700MHz mit passiver Kühlung gesehen.

...und relativ günstig. Der Preis wird aber sicher bald fallen.


Und solange wir vor 64bit Krüppeln verschont bleiben (was leider nicht mehr lang der Fall sein wird), ist auch der G86 grundsätzlich für den geringen Anspruch durchaus OK.

Gast
2007-04-28, 11:33:58
Und solange wir vor 64bit Krüppeln verschont bleiben (was leider nicht mehr lang der Fall sein wird), ist auch der G86 grundsätzlich für den geringen Anspruch durchaus OK.

ist er nicht, es gibt genug bestehende hardware die das gleiche erreicht, ergo ist er überflüssig.

das war beim low-end allerdings schon immer so, nur mittlerweile muss man schon den sinn der mid-range-karten hinterfragen (war ehrlicherweise bei der X1600 und X600 auch der fall)

Gast
2007-04-28, 12:06:41
das war beim low-end allerdings schon immer so, nur mittlerweile muss man schon den sinn der mid-range-karten hinterfragen (war ehrlicherweise bei der X1600 und X600 auch der fall)

Ich sehe den Sinn nicht dieser "hinterfragen" nicht.
Der G84 ist wirtschaftlicher als der rv570 und als der G71. Er bietet zum tweiten aufjedenfall den besseren Preis, auch wenn es um die Leistungsfrage geht - Bildqualität anyone?
Aber es ist immer wieder schön zu sehen, wieviele Leute das GF4MX Fiakos schon wieder vergessen haben.

MadManniMan
2007-04-28, 12:08:55
ist er nicht, es gibt genug bestehende hardware die das gleiche erreicht, ergo ist er überflüssig.

Sicher - es gibt 7600 GS oder X800 XL in der selben Leistungsregion und zu günstigerem Preis ... aber in einer ganz anderen Featureliga.
Wenn 3 Chips die selbe Leistung bringen, jeweils aber SM2.0, SM3.0 und SM4.0 abdecken, dann ist ein dezent höherer Preis auch gerechtfertigt.


das war beim low-end allerdings schon immer so, nur mittlerweile muss man schon den sinn der mid-range-karten hinterfragen (war ehrlicherweise bei der X1600 und X600 auch der fall)

LowEnd bietet eben den Vorteil, bei Leistung älterer Midrangekarten weniger zu verbrauchen und mehr zu bieten. Für geringes Budget ist das immer sinnvoll.

Matrix316
2007-04-28, 12:33:51
Schade finde ich, dass die Karte dermaßen gegen eine in etwa gleich teure X1950XT total abloost und nicht mal ein gleichwertiger Ersatz wäre.

aths
2007-04-28, 15:09:26
Schade finde ich, dass die Karte dermaßen gegen eine in etwa gleich teure X1950XT total abloost und nicht mal ein gleichwertiger Ersatz wäre.Die ist auch noch ganz frisch, wird aber mit der Zeit billiger. Lost wie wirklich "total" ab? Hat die X1950 XT D3D10-Features?

Smoke Screen
2007-04-28, 22:04:35
Die ist auch noch ganz frisch, wird aber mit der Zeit billiger. Lost wie wirklich "total" ab? Hat die X1950 XT D3D10-Features?

D3D10-Features sind zur Zeit,und sicher noch für den größten Teil dieses Jahres
von eher akademischem Interesse,zumal ja auch noch Vista exklusiv.
Was zählt ist preiswerte Power in D3D9. So wird dann zweifellos eher zu einer 1950pro
/XT oder 8800GTS/320 gegriffen als zu einer 8600GTS.

Gast
2007-04-29, 12:10:53
Ich sehe den Sinn nicht dieser "hinterfragen" nicht.
Der G84 ist wirtschaftlicher als der rv570 und als der G71.


davon hab ich als kunde allerdings wenig wenn die gewinnspanne bei NV hoch ist.

abgesehen davon bezweifle ich auch dass die GPU soviel wirtschaftlicher ist. die transistorenzahl liegt ungefähr im bereich des G71 (RV570 hab ich nicht im kopf, dürfte aber wohl auch ähnlich sein), und wahnsinnig viel ersparnis bringt 80nm gegenüber 90nm auch nicht.

nur ist der vergleich mit RV570 und G71 leider überhaupt nicht angebracht, da die leistung größtenteils deutlich darunter liegt. könnte die 8600er-reihe hier mithalten würde sie ja einen sinn machen, immerhin vergleichbare leistung bei deutlich geringerem stromverbrauch, leider ist aber auch die leistung entsprechend niedriger.

die einzige daseinsberechtigung bekommt die GPU noch evtl. durch den verbesserten videoprozessor, wobei man auch dessen sinn in frage stellen muss, angesichts der tatsache dass dual-core-cpus mittlerweile verdammt günstig sind und in aller regel selbst ohne hardwarebeschleunigung H.264-videos in FullHD ruckelfrei darstellen können, und das ganze erst recht mit der hardwarebeschleunigung der letzten generation. die neue generation schafft es nun zwar die cpu-last noch weiter zu senken, nur ruckelfreier geht es eben nicht mehr ;)


Er bietet zum tweiten aufjedenfall den besseren Preis, auch wenn es um die Leistungsfrage geht - Bildqualität anyone?


blöderweise ist der preis aber viel zu hoch. die bildqualität ist natürlich ein argument welches immer für die G8x-generation sprechen wird, zumindest bis man die leistung der 8600 gesehen hat. diese reicht nämlich selbst heute oft nicht für ordentliche qualitätssettings und erst recht für kommende spiele.

das tolle AF der 80er serie ist ja schön und gut, nur wenn die leistung nicht ausreicht es einzuschalten bringt es mir auch recht wenig. ebenso beim FSAA, gerade die aus qualitäts-performancesicht interessanten CSAA-modi sollten eigentlich für die mittelklasse interessant sein, dachte ich zumindest, bis ich sah dass die performance oft nicht mal für 4xFSAA ausreicht.


Aber es ist immer wieder schön zu sehen, wieviele Leute das GF4MX Fiakos schon wieder vergessen haben.

bis auf den namen war die GF4MX imo die beste midrangekarte aller zeiten. damals gab es erstmals auch im einsteigersegment ein 128bit-DDR-interface, welches damit gleich groß wie bei den high-end-karten war. trotz einiger verbesserungen in der ausnützung der bandbreite waren damalige grafikkarten dennoch recht stark von eben jener abhängig. dadurch war die 4MX-serie leistungsmäßig garnicht mal so weit hinter dem high-end. dazu gab es nutzbares 2xMSAA.

einzig alleine der name war ziemlich blöd gewählt, imo hätte NV damals einen eigenen markennamen für das einsteigersegment einführen sollen, ähnlich wie intel mit dem celeron.

Gast
2007-04-29, 12:15:19
Wenn 3 Chips die selbe Leistung bringen, jeweils aber SM2.0, SM3.0 und SM4.0 abdecken, dann ist ein dezent höherer Preis auch gerechtfertigt.


dummerweise bieten aber 2chips davon, die zwar SM4 nicht abdecken die wesentlich bessere leistung.



LowEnd bietet eben den Vorteil, bei Leistung älterer Midrangekarten weniger zu verbrauchen und mehr zu bieten. Für geringes Budget ist das immer sinnvoll.

auch das ist bei der 8600er serie nicht der fall. sie ist etwas schneller als ihr vorgänger, verbraucht aber auch etwas mehr. insgesamt hat sich das energie-performance-verhältnis zwar verbessert, aber nur so geringfügig dass es nicht der rede wert sit.

Gast
2007-04-29, 12:24:50
Die ist auch noch ganz frisch, wird aber mit der Zeit billiger.


momentan ist sie allerdings alles anderes als empfehlenswert, ua. wegen dem viel zu hohen preis.


Lost wie wirklich "total" ab?


kommt darauf an mit welchen karten verglichen wird, im vergleich zu X19xx-karten und G79xx-karten ja. vergleicht man das ganze mit den alten midrange-karten natürlich nicht.


Hat die X1950 XT D3D10-Features?

toll, bis D3D10-only spiele kommen wird die performance einer 8800GTS wohl das minimum für spielbare frameraten sein, bis dahin gibt es auch die midrangekarten der nächsten generation die deutlich mehr leistung für den gleichen preis bieten werden. aufgrund der beschränkung auf Vista wird sich D3D10 auch erst sehr langsam durchsetzen, von daher ist dieses checklistenfeature kein kaufgrund für eine karte unterhalb des high-end-segmentes (zumindest so lange dieses dermaßen schwach ist)

Matrix316
2007-04-29, 13:39:41
Die ist auch noch ganz frisch, wird aber mit der Zeit billiger. Lost wie wirklich "total" ab? Hat die X1950 XT D3D10-Features?
Was ist besser? X850XT oder 7300 GS? Was bringen mir DX10 Features, wenn die Karte wahrscheinlich schon zu langsam ist für zukünftige DX10 Games?

Tigerchen
2007-04-29, 14:19:42
Was ist besser? X850XT oder 7300 GS? Was bringen mir DX10 Features, wenn die Karte wahrscheinlich schon zu langsam ist für zukünftige DX10 Games?

Solche Argumente haben für aths noch nie gezählt. Der höchste Techlevel ist automatisch die beste Karte. Obs dem Konsumenten was bringt? Egal. Das ist Technikbegeisterung pur.:uclap:

Piffan
2007-04-29, 14:57:51
So ist es meiner Meinung auch. Solche Karten sind für Konsumenten und nicht für Technik- Freaks. Der Konsument kriegt feuchte Augen, wenn er mit seiner supermodernen Karte die wunderschönen Shader gar nicht aktivieren kann, weils in eine Diashow ausartet. Der Vergleich X850XT versus 7300 bringt es auf den Punkt....

Gast
2007-04-29, 14:59:02
davon hab ich als kunde allerdings wenig wenn die gewinnspanne bei NV hoch ist.

Was ist für dich als Kunde besser:
Zwei gesunde Konkurrenten oder ein Unternehmen, welches den Kampf nicht überlebt? Ein Monopol wäre wohl deutlich schneller. Daher hat der Kunde einen Vorteil, wenn beide Produkte für die Unternehmen wirtschaftlich sind.

abgesehen davon bezweifle ich auch dass die GPU soviel wirtschaftlicher ist. die transistorenzahl liegt ungefähr im bereich des G71 (RV570 hab ich nicht im kopf, dürfte aber wohl auch ähnlich sein), und wahnsinnig viel ersparnis bringt 80nm gegenüber 90nm auch nicht.

Die Größe des DIE ist 169mm² (G84) zu 196mm² (G71) bzw. 230mm² (rv570).

nur ist der vergleich mit RV570 und G71 leider überhaupt nicht angebracht, da die leistung größtenteils deutlich darunter liegt. könnte die 8600er-reihe hier mithalten würde sie ja einen sinn machen, immerhin vergleichbare leistung bei deutlich geringerem stromverbrauch, leider ist aber auch die leistung entsprechend niedriger.

Der rv570 wird vom Markt verschwinden, wenn AMD ihre Generation aufbietet. Und der G71 (7900GT) wird in neueren Spielen deutlich geschlagen.


die einzige daseinsberechtigung bekommt die GPU noch evtl. durch den verbesserten videoprozessor, wobei man auch dessen sinn in frage stellen muss, angesichts der tatsache dass dual-core-cpus mittlerweile verdammt günstig sind und in aller regel selbst ohne hardwarebeschleunigung H.264-videos in FullHD ruckelfrei darstellen können, und das ganze erst recht mit der hardwarebeschleunigung der letzten generation. die neue generation schafft es nun zwar die cpu-last noch weiter zu senken, nur ruckelfreier geht es eben nicht mehr ;)

Zwischen 20% und 80%+ herrscht ein massiver Unterschied. Die Bearbeitung auf der GPU bedeutet, dass die CPU "rumidlen" kann und dadurch nicht auf vollen Touren laufen muss.


das tolle AF der 80er serie ist ja schön und gut, nur wenn die leistung nicht ausreicht es einzuschalten bringt es mir auch recht wenig.

AF kostet auf den G8x Karten deutlich weniger Leistung als auf den G7x Karten. Dazu ist noch deutlich hübscher.

damals gab es erstmals auch im einsteigersegment ein 128bit-DDR-interface, welches damit gleich groß wie bei den high-end-karten war.

Und ein Featureset, welches auf dem Niveau der GF2MX war. Eine Techonologiebremse der besonderen Art.


dummerweise bieten aber 2chips davon, die zwar SM4 nicht abdecken die wesentlich bessere leistung.

Nur der rv570 ist besser. der G71 (7900GT) hat in neueren Spielen keine Chance und liegt nur in älteren, texturlästigen, Spielen vorne

auch das ist bei der 8600er serie nicht der fall. sie ist etwas schneller als ihr vorgänger, verbraucht aber auch etwas mehr. insgesamt hat sich das energie-performance-verhältnis zwar verbessert, aber nur so geringfügig dass es nicht der rede wert sit.

Die Karte hat deutliche Verbesserungen gegenüber dem G7x, das das nicht alles kostenlos ist, sollte jedem klar sein.
Und ich rede hier nichtmal vom DX10 Featureset, sondern von allgemeineren technischen Fortschritten: Getrennte Textur- und Recheneinheiten, deutlich verbesserter Videoprozessor, deutlich besseres AF...

aths
2007-04-29, 15:11:26
Was ist besser? X850XT oder 7300 GS? Was bringen mir DX10 Features, wenn die Karte wahrscheinlich schon zu langsam ist für zukünftige DX10 Games?Warum bringst du jetzt ein vollkommen übertriebenes Beispiel? Nur weil hier die 850 XT die bessere Gamerkarte ist, heißt das nicht, dass du allgemein recht hättest.

So ist es meiner Meinung auch. Solche Karten sind für Konsumenten und nicht für Technik- Freaks. Der Konsument kriegt feuchte Augen, wenn er mit seiner supermodernen Karte die wunderschönen Shader gar nicht aktivieren kann, weils in eine Diashow ausartet. Der Vergleich X850XT versus 7300 bringt es auf den Punkt....Nein, dieser Vergleich ist vollkommen übertrieben.

aths
2007-04-29, 15:13:10
D3D10-Features sind zur Zeit,und sicher noch für den größten Teil dieses Jahres
von eher akademischem Interesse,zumal ja auch noch Vista exklusiv.
Was zählt ist preiswerte Power in D3D9. So wird dann zweifellos eher zu einer 1950pro
/XT oder 8800GTS/320 gegriffen als zu einer 8600GTS.D3D10-Karten liefern aufgrund verbesserter Effizienz mehr D3D9-Power als ihre Rohleistungsdaten vermuten lassen. Es spricht nichts dagegen, sich eine D3D10-Karte zu kaufen in dem Wissen, nicht ein einziges D3D10-Spiel damit zu zocken. Dazu kommen bei der G80-Serie BQ-Features wie die Option auf vorzügliches 16x AF und 8x sparse Multisampling-AA mit Transparenz-Glättung.

Der Preis der 8600 GT und GTS dürfte sich noch anpassen. Falls nicht, verschwindet das Modell wieder vom Markt. Es müssten eh über kurz oder lang noch "halbe G80s" kommen.

aths
2007-04-29, 15:16:19
[COLOR="#000099"]
Solche Argumente haben für aths noch nie gezählt. Der höchste Techlevel ist automatisch die beste Karte. Falsch.

aths
2007-04-29, 15:24:54
momentan ist sie allerdings alles anderes als empfehlenswert, ua. wegen dem viel zu hohen preis.Karten die gerade frisch auf den Markt gekommen sind, sind zunächst so ausgepreist, dass nur die kaufen die sie unbedingt haben wollen. Dann wir der Preis gesenkt, um größere Kundschaften zu erreichen. Das ist nicht nur bei der 8600-er Serie so.

kommt darauf an mit welchen karten verglichen wird, im vergleich zu X19xx-karten und G79xx-karten ja. vergleicht man das ganze mit den alten midrange-karten natürlich nicht.Soweit ich das sehe, lost die 8600 GTS gegen 7900-er Modelle (vielleicht mit Ausnahme der Highend-7900-er) keineswegs "total" ab.

Man kann von einer Mittelklassen-Karte imo generell nicht erwarten, dass die Highend-Produkte der direkten Vorgänger-Generation übertroffen werden. So betrachtet muss sich die 8600 GTS nur mit einer 7800 messen lassen.

toll, bis D3D10-only spiele kommen wird die performance einer 8800GTS wohl das minimum für spielbare frameraten sein, bis dahin gibt es auch die midrangekarten der nächsten generation die deutlich mehr leistung für den gleichen preis bieten werden. aufgrund der beschränkung auf Vista wird sich D3D10 auch erst sehr langsam durchsetzen, von daher ist dieses checklistenfeature kein kaufgrund für eine karte unterhalb des high-end-segmentes (zumindest so lange dieses dermaßen schwach ist)Ich weiß nicht warum ständig mit D3D10-only-Spielen diskutiert wird. Mit D3D10 lassen sich komplexe Effekte schneller rendern als mit D3D9. Bei gleicher Rohleistung hat man mit einer D3D10-compliant GPU die Wahl zwischen mehr Performance oder mehr Effekten. Wer sich jetzt eine Karte kauft, sollte nicht daran denken, dass er die D3D10-Features noch für D3D10-only-Spiele gebrauchen könnte. Bis die ersten Spiele keinen D3D9-Fallback mehr anbieten, wird noch viel Zeit vergehen.

Vom AF der GF8-Serie profitiert man auch in jedem DX7-Game welches Texturen nutzt.

Smoke Screen
2007-04-29, 17:08:10
D3D10-Karten liefern aufgrund verbesserter Effizienz mehr D3D9-Power als ihre Rohleistungsdaten vermuten lassen. Es spricht nichts dagegen, sich eine D3D10-Karte zu kaufen in dem Wissen, nicht ein einziges D3D10-Spiel damit zu zocken. Dazu kommen bei der G80-Serie BQ-Features wie die Option auf vorzügliches 16x AF und 8x sparse Multisampling-AA mit Transparenz-Glättung.

Sicher. Deshalb war man auch so mutig und hat die VRAM-Anbindung auf
128Bit kastriert. Mit dem Ergebniss das eine 8600GTS langsamer ist als eine
1950pro,die es aber im Schnitt ein Fuffi billiger gibt.


Der Preis der 8600 GT und GTS dürfte sich noch anpassen. Falls nicht, verschwindet das Modell wieder vom Markt. Es müssten eh über kurz oder lang noch "halbe G80s" kommen.

Ja,der Preis fällt ja bereits. Ich glaube jedoch,daß wenn nun endlich die R600-
Serie gelaunched wird das gesamte Preisgefüge sich wieder neu sortiert.
Die 8800GTS/320 wird sich dann wohl da preislich einpendeln wo die 8600GTS
jetzt ist.

aths
2007-04-29, 17:30:55
Sicher. Deshalb war man auch so mutig und hat die VRAM-Anbindung auf
128Bit kastriert. Mit dem Ergebniss das eine 8600GTS langsamer ist als eine
1950pro,die es aber im Schnitt ein Fuffi billiger gibt.Die 8600-er Serie ist nur gerade so stark, wie es NV für erforderlich hielt. Mit dem schlanken Speicherinterface – für die Architekturbreite allerdings auch ausreichend – sind geringere Preise machbar, was jetzt direkt nach dem Launch natürlich noch nicht zu sehen ist. Wie die Kolumne beschreibt, ist die 8600 als 8600 eine Enttäuschung. Alle Mittelklasse-Karten von NV hatten bisher nur eine 128-Bit-Anbindung; bei der 6600 wurde z. B. bei den ROPs etwas gespart, und bis auf die allerletzten Modelle gabs die GT nur mit 128 MiB: Offensichtlich gehts da um Marge, nicht um beste Performance.

Seit der GeForce 2 MX nehme ich NV künstliche Beschränkungen krumm. Eine GeForce 2 MX mit 128-Bit-DDR-Interface wäre anfangs deutlich, später kaum noch teurer gewesen, aber böte gerade bei 32 Bit deutlich mehr Leistung.

Ja,der Preis fällt ja bereits. Ich glaube jedoch,daß wenn nun endlich die R600-
Serie gelaunched wird das gesamte Preisgefüge sich wieder neu sortiert.
Die 8800GTS/320 wird sich dann wohl da preislich einpendeln wo die 8600GTS
jetzt ist.Wir werden sehen. Jedenfalls ist es nicht erstaunlich, dass frisch gelaunchte Karten für die meisten zu teuer sind. Preisdiskriminierung findet man nicht nur bei Grafikkarten.

Gast
2007-04-29, 18:02:49
Sicher. Deshalb war man auch so mutig und hat die VRAM-Anbindung auf
128Bit kastriert.

die bandbreite ist das kleinste problem der 8600er serie, im verhältnis zur rechenleistung hat man sogar mehr bandbreite als die 8800er.

Gast
2007-04-29, 18:21:13
D3D10-Karten liefern aufgrund verbesserter Effizienz mehr D3D9-Power als ihre Rohleistungsdaten vermuten lassen. Es spricht nichts dagegen, sich eine D3D10-Karte zu kaufen in dem Wissen, nicht ein einziges D3D10-Spiel damit zu zocken.


nichts. es spricht allerdings etwas dagegen eine D3D10-karte mit niedriger rohleistung zu kaufen die es trotz toller effizienz nicht schafft D3D9-karten der vorgängergeneration, die zwar nicht so effizient aber dafür mit genügend rohleistung ausgestattet ist, zu schlagen und dabei noch mehr kostet.


Dazu kommen bei der G80-Serie BQ-Features wie die Option auf vorzügliches 16x AF und 8x sparse Multisampling-AA mit Transparenz-Glättung.

ähm, 8xMSAA auf der 8600GT, soll ich jetzt lachen? der karte geht oft genug die leistung mit 4xMSAA aus, bestenfalls die CSAA-modi sind noch halbwegs nutzbar, wobei auch dafür die leistung oft kaum reicht.


Der Preis der 8600 GT und GTS dürfte sich noch anpassen. Falls nicht, verschwindet das Modell wieder vom Markt. Es müssten eh über kurz oder lang noch "halbe G80s" kommen.


eben deshalb sind die karten ja absolut nicht zu empfehlen. momentan viel zu teuer, und sie werden wahrscheinlich recht schnell (wohl dann wenn die 65nm-fertigung weit genug ist) von deutlich schnelleren modellen abgelöst und in der versenkung verschwinden.

Soweit ich das sehe, lost die 8600 GTS gegen 7900-er Modelle (vielleicht mit Ausnahme der Highend-7900-er) keineswegs "total" ab.

Man kann von einer Mittelklassen-Karte imo generell nicht erwarten, dass die Highend-Produkte der direkten Vorgänger-Generation übertroffen werden. So betrachtet muss sich die 8600 GTS nur mit einer 7800 messen lassen.

wenn du sie mit beschnittenen G71-karten vergleichst hast du ja noch recht, aber gegen alle voll funktionistüchtigen 7900er karten sieht die karte überhaupt kein land.

von einer midrange-karte erwarte ich mir zumindest die halbe performance der highend-karte der gleichen generation, und wenn diese die vorgängergeneration um 100% schlägt folgt daraus zwangsläufig dass die neue midrangekarte mit den alten highendkarten mithalten muss.

Ich weiß nicht warum ständig mit D3D10-only-Spielen diskutiert wird. Mit D3D10 lassen sich komplexe Effekte schneller rendern als mit D3D9.

nur blöd wenn die rohleistung trotzdem nicht ausreicht, und noch blöder wenn >90% der spiele reine D3D9-spiele sind die von der höheren effizienz von D3D10 überhaupt nicht profitieren.

allgemein scheint das G80-design sehr ineffizient für kleine karten zu sein, die 8600GTS braucht immerhin 41% der transistoren um gerade mal 1/4 der leistung/takt zu erreichen.

aths
2007-04-29, 18:31:00
nichts. es spricht allerdings etwas dagegen eine D3D10-karte mit niedriger rohleistung zu kaufen die es trotz toller effizienz nicht schafft D3D9-karten der vorgängergeneration, die zwar nicht so effizient aber dafür mit genügend rohleistung ausgestattet ist, zu schlagen und dabei noch mehr kostet.Die Preise der 8600-er pendeln sich noch realistisch ein.

ähm, 8xMSAA auf der 8600GT, soll ich jetzt lachen? der karte geht oft genug die leistung mit 4xMSAA aus, bestenfalls die CSAA-modi sind noch halbwegs nutzbar, wobei auch dafür die leistung oft kaum reicht.Gerade Käufer einer 8600-er spielen nicht nur das allerneueste.

eben deshalb sind die karten ja absolut nicht zu empfehlen. momentan viel zu teuer, und sie werden wahrscheinlich recht schnell (wohl dann wenn die 65nm-fertigung weit genug ist) von deutlich schnelleren modellen abgelöst und in der versenkung verschwinden.Ich glaube dass hier keiner gesagt hat, dass man jetzt zuschlagen und eine 8600-er kaufen soll. In der Kolumne erwähne ich dass höchstwahrscheinlich auf absehbare Zeit noch stärkere Modelle kommen werden, was eher als Aufforderung zur Zurückhaltung zu werten ist.

wenn du sie mit beschnittenen G71-karten vergleichst hast du ja noch recht, aber gegen alle voll funktionistüchtigen 7900er karten sieht die karte überhaupt kein land.Seit wann übertrumpfen Mittelklassekarten direktes Vorgänger-Highend? Das vielleicht mal bei der 6600 GT einmalig der Fall.

von einer midrange-karte erwarte ich mir zumindest die halbe performance der highend-karte der gleichen generation, und wenn diese die vorgängergeneration um 100% schlägt folgt daraus zwangsläufig dass die neue midrangekarte mit den alten highendkarten mithalten muss.Verbesserungen um 100% sind selten. Die Kolumne beschreibt, dass ich nichts gegen die Performance der 8600 habe, aber gegen die Bezeichnung als 8600.

nur blöd wenn die rohleistung trotzdem nicht ausreicht, und noch blöder wenn >90% der spiele reine D3D9-spiele sind die von der höheren effizienz von D3D10 überhaupt nicht profitieren.

allgemein scheint das G80-design sehr ineffizient für kleine karten zu sein, die 8600GTS braucht immerhin 41% der transistoren um gerade mal 1/4 der leistung/takt zu erreichen.Die Leistung pro Takt würde gegenüber dem G80 gesteigert, siehe Verbesserungen an der TMU. Natürlich hat man bei D3D10 einen recht großen Overhead. Das dürfte insbesondere bei integrierten Grafiklösungen noch zum Problme werden.

seahawk
2007-04-29, 18:43:43
So slchecht ist der Artikel nicht auch wenn er imho im Fazit etwas daneben leigt. Die Leistung ist im Vergleich zur 7600er Serie schon genug gestiegen um den 8600er Titel zu beahlten und auch in ihrer technischen Auslegung entsprcht die Karte der 7600er,, wenn man diese als schnellste NV Karte mit 128Bit Speicherinterface begreift. Was imho mehr Sinn macht als die BEtrachtung der 600er Reihe im Bezug auf das High-Edn-Angebot, da dieses sich eben auch mit eienr 7950GX2 messen lassen mußte.

The Cell
2007-04-29, 18:58:36
Es ist kein Artikel, es ist eine Kolumne.
Und aths, wo mir es gerade einfällt: qua definitione, nicht definitionem. Du benutzt es ja gerne.
Appellativ, nicht Akkusativ. Per würde diesen bedingen.

Gruß,
QFT

Smoke Screen
2007-04-29, 20:20:27
Am Ende zählt doch nur was letzlich für Leistung pro Kosten rauskommt,und
da ist die 8600GTS sehr ungünstig plaziert. Egal ob man nun ältere Games a
la Fear oder aktuelle a la Stalker betrachtet die 8600GTS ist langsamer als
eine 1950pro die ab 135€ lieferbar ist,und damit ein ungünstiges Angebot.
Mehr wollte ich gar nicht zum Ausdruck bringen.
Ehrlich gesagt verstehe ich nicht wieso NVidia ausgerechnet zu diesem Zeit-
punkt mit überteuerten Midrange Karten auf den Markt kommt.

Gast
2007-04-29, 20:54:35
Also ich bin nicht enttäuscht von der 8600, die ist genau das was ich erwartet habe und von ATIs RV630 erwarte ich auch nicht mehr.
Wer sein Erwartungen natürlich zu hoch ansetzt, der wird von beiden Produkten enttäuscht sein.

"Halbe G80" werden kommen, wenn nvidia dies für nötig hält und nicht, weil irgendwelche Spieler das wollen.

Tigerchen
2007-04-30, 09:08:47
Gerade Käufer einer 8600-er spielen nicht nur das allerneueste.


Und darum können diese Leute mit dem Kauf einer 1950Pro noch ein paar Euro sparen und kriegen dafür noch die schnellere Karte.

Gast
2007-04-30, 09:49:44
... die dennoch kein 8xMSAA kann!!
Vielleicht solltest du aths´ Antworten auf andere Postings nicht aus dem Kontext reissen.

Vertigo
2007-04-30, 10:01:42
... die dennoch kein 8xMSAA kann!!
Vielleicht solltest du aths´ Antworten auf andere Postings nicht aus dem Kontext reissen.
... was auch nichts daran ändert dass die 8500/8600-Karten mit 8x MSAA in vernünftigen Auflösungen bei aktuellen Spielen überfordert sind. Außerdem ist der optische Unterschied zwischen dem 6x MSAA der Radeon und dem 8x MSAA der GeForce8 eigentlich nicht der Rede wert. Außer dass eine X1950Pro mit 6x MSAA schneller sein dürfte als eine 8600GTS mit 8x MSAA, wodurch das 6x MSAA der Radeon eher als nutzbar einzustufen ist.

aths
2007-04-30, 12:05:43
Es ist kein Artikel, es ist eine Kolumne.
Und aths, wo mir es gerade einfällt: qua definitione, nicht definitionem. Du benutzt es ja gerne.
Appellativ, nicht Akkusativ. Per würde diesen bedingen.Google findet "qua definitionem" deutlich häufiger als "qua definitione".

So slchecht ist der Artikel nicht auch wenn er imho im Fazit etwas daneben leigt. Die Leistung ist im Vergleich zur 7600er Serie schon genug gestiegen um den 8600er Titel zu beahlten und auch in ihrer technischen Auslegung entsprcht die Karte der 7600er,, wenn man diese als schnellste NV Karte mit 128Bit Speicherinterface begreift. Was imho mehr Sinn macht als die BEtrachtung der 600er Reihe im Bezug auf das High-Edn-Angebot, da dieses sich eben auch mit eienr 7950GX2 messen lassen mußte.Wieso muss sich die 600-er mit dem Ultrahighend messen? Meine Betrachtung ist da etwas anders:

5600 muss sich mit 4600/4800 messen (und kann nicht eindeutig gewinnen)
6600 muss sich mit 5800 messen (aber zieht auch jede 5900 ab)
7600 GT muss sich mit 6800 GT messen (was sie einigermaßen packt)
8600 GT muss sich mit 7800 GT messen (wie das ausgeht ist, weiß ich jetzt nicht.)

aths
2007-04-30, 12:11:12
Am Ende zählt doch nur was letzlich für Leistung pro Kosten rauskommt,und
da ist die 8600GTS sehr ungünstig plaziert. Egal ob man nun ältere Games a
la Fear oder aktuelle a la Stalker betrachtet die 8600GTS ist langsamer als
eine 1950pro die ab 135€ lieferbar ist,und damit ein ungünstiges Angebot.
Mehr wollte ich gar nicht zum Ausdruck bringen.
Ehrlich gesagt verstehe ich nicht wieso NVidia ausgerechnet zu diesem Zeit-
punkt mit überteuerten Midrange Karten auf den Markt kommt.Die Preise werden sich schon einpendeln. Falls nicht, kauft keiner und die 8600-er werden für NV zur Schlappe. Aus Marketing-Sicht bietet NV jetzt eben die einzigen D3D10-Midrange-Karten und verlangt dafür einen Extrabonus beim Preis.

Also ich bin nicht enttäuscht von der 8600, die ist genau das was ich erwartet habe und von ATIs RV630 erwarte ich auch nicht mehr.
Wer sein Erwartungen natürlich zu hoch ansetzt, der wird von beiden Produkten enttäuscht sein.

"Halbe G80" werden kommen, wenn nvidia dies für nötig hält und nicht, weil irgendwelche Spieler das wollen.Was NV für nötig hält oder nicht hängt hoffentlich auch vom Spielerwillen ab.

[COLOR="#000099"]
Und darum können diese Leute mit dem Kauf einer 1950Pro noch ein paar Euro sparen und kriegen dafür noch die schnellere Karte.... mit weniger Features. Keiner hier im Thread sagte, dass man hier und jetzt eine 8600 GT(S) kaufen soll. Die Preise werden sich noch anpassen. Auch von ATI sind D3D10-Karten zu erwarten, die langsamer sind als eine 1950 Pro und trotzdem teurer.

... was auch nichts daran ändert dass die 8500/8600-Karten mit 8x MSAA in vernünftigen Auflösungen bei aktuellen Spielen überfordert sind. Außerdem ist der optische Unterschied zwischen dem 6x MSAA der Radeon und dem 8x MSAA der GeForce8 eigentlich nicht der Rede wert. Außer dass eine X1950Pro mit 6x MSAA schneller sein dürfte als eine 8600GTS mit 8x MSAA, wodurch das 6x MSAA der Radeon eher als nutzbar einzustufen ist.Wer aktuelle Spiele mit maximalen Details und BQ-Settings spielen will, ist mit einer 8600 natürlich nicht gut beraten. Aber es ist durchaus sinnvoll, für ältere Games die Option für hohe BQ zu haben.

Warum wird hier immer mit der 1950-er verglichen? Kein Mensch sagt, dass alle 1950-er Besitzer sich jetzt eine 8600-er kaufen sollen.

Gast
2007-04-30, 12:13:00
Google findet "qua definitionem" deutlich häufiger als "qua definitione".



Was denn das für eine Logik unseres Rechtschreibgurus? Ist neuerdings Google die Referenz für korrekte Grammatik? Wenn das so sein sollte können wir den Genitiv wohl direkt abschaffen, denn die meisten Leute (zumindest sehr, sehr viele) verwenden ihn im allgemeinen Sprachgebrauch wohl falsch oder garnicht. Also diese Aussage von DIR, ausgerechnet von Dir, find ich herrlich. You made my day...
BTW: Grammatikalisch ist "qua definitionem" schlicht und einfach nur falsch.


Marc-

aths
2007-04-30, 12:26:25
Was denn das für eine Logik unseres Rechtschreibgurus? Die Logik besteht aus der Annahme, dass die Mehrheit der Leute korrekt schreibt. Allerdings bin ich kein Rechtschreibguru.

Ist neuerdings Google die Referenz für korrekte Grammatik? Wenn das so sein sollte können wir den Genitiv wohl direkt abschaffen, denn die meisten Leute (zumindest sehr, sehr viele) verwenden ihn im allgemeinen Sprachgebrauch wohl falsch oder garnicht. Also diese Aussage von DIR, ausgerechnet von Dir, find ich herrlich. You made my day...Schön für dich. Mit der Google-Methode liegt man zwar nicht immer richtig, aber in den meisten Fällen. Wenn du jetzt mal eine Sache besser weißt als G00lge finde ich das ":uclap:"

BTW: Grammatikalisch ist "qua definitionem" schlicht und einfach nur falsch.Aha.

Appellativ, nicht Akkusativ. Per würde diesen bedingen.

Google findet übrigens:

000.290x "qua definitione"
000.523x "qua definitionem"
000.841x "per definitione"
238.000x "per definitionem"

Offensichtlich sollte es besser "per definitionem" heißen, siehe auch http://de.wikipedia.org/wiki/Per_definitionem, so dass "qua definitione(m)" ohnehin ungebräuchlich ist und man "per definitionem" verwenden sollte. Danke für den Hinweis.

aths
2007-04-30, 14:11:28
Ja, das ist natürlich richtig - aber darum solls ja auch nur nebenbei gehen, schließlich sollten wir uns darüber freuen, daß die Hardwarebasis breiter wird und D3D10 auch bald benützt wird. Und immerhin reichts für ein paar Techdemos ;)Eben, eben. Eine breite D3D10-Hardwarebasis ist besser als eine breite D3D9-Hardwarebasis.

imo ist weniger als halber high-end-speed innerhalb einer generation nicht sinnvoll.

alles darunter kann man noch leicht mit den auslaufmodellen der vorgängergeneration abdecken.

die riege der sinnlosen einsteigerkarten hat mit der FX5200 begonnen und wurde dann weiter fortgeführt.Die FX 5200 ist nicht sinnlos. Für ambitionierte Zocker ist sie sinnlos, aber es gibt weitaus mehr Leute die keine ambitionierten Zocker sind.

Imo ist 1/3 vom theoretischen Highend-Speed (in der Praxis dürfte die Skalierung nicht ganz so schlecht sein) durchaus noch sinnvoll für Spieler. Natürlich nicht für Spieler mit hohen Ansprüchen. Auslauf-Modelle der Vorgänger-Generation müssen natürlich noch lange nicht ausgetauscht werden; beim Neukauf hielte ich es durchaus für sinnvoll, eher auf die Technik zu setzen. Beispiel GeForce 4 Ti 4600 vs. Radeon 9600. Je moderner das Spiel, desto besser ist man mit der 9600 beraten.

Ich sag mal so:

- Ultrahighend (Singlechip) 110-120%
- Highend 100%
- Mittelklasse ca. 55%
- Mittelklasse-Einsteiger 35-40%

Das hielte ich für eine sinnvolle Skalierung.

Tigerchen
2007-04-30, 14:50:27
... mit weniger Features. Keiner hier im Thread sagte, dass man hier und jetzt eine 8600 GT(S) kaufen soll. Die Preise werden sich noch anpassen. Auch von ATI sind D3D10-Karten zu erwarten, die langsamer sind als eine 1950 Pro und trotzdem teurer.


Würde mich ebenso vom Kauf abhalten. Features die ich letztlich nicht nutzen kann sind kein Kaufargument. Zumindest für mich.

Gast
2007-04-30, 15:20:02
Die FX 5200 ist nicht sinnlos. Für ambitionierte Zocker ist sie sinnlos, aber es gibt weitaus mehr Leute die keine ambitionierten Zocker sind.


für die hat aber auch eine GF4MX gereicht. das einzige was der FX5200 einen sinn hätte geben können wäre Vista gewesen, welches für den neuen desktop ja PS2 voraussetzt. nur hat sich vista ja bekanntermaßen so lange verschoben, dass dies auch kein argument mehr für die FX5200 ist. (wobei man fairerweise sagen musste, dass NV das damals noch nicht wissen konnte)

Gast
2007-04-30, 15:22:58
Ich habe eine 8600 einer X1950 vorgezogen. Warum?
Sehr gute BQ, locker passiv kühlbar, gute Performance, sparsamer als ne x1950 Pro.
Für die X1950 hat nur die Leistung gesprochen.

Matrix316
2007-04-30, 15:34:36
4200TI konnte mit der GF3 TI-500 mithalten und übertrumpfen
5600 ist deutlich langsamer als 4600 Ultra
7600 GT ist schneller als 6800 Ultra
8600 GT sollte mal mit einer 7900GT bzw. 7800 GTX mithalten können
8600 GTS erwarte ich mindestens 7900 GTX Niveau :) (vom Preis her würde es passen)

Gast
2007-04-30, 15:39:17
Schön für dich. Mit der Google-Methode liegt man zwar nicht immer richtig, aber in den meisten Fällen. Wenn du jetzt mal eine Sache besser weißt als G00lge finde ich das ":uclap:"


Google, nicht "G00lge".
Im Übrigen solltest du vielleicht deine eigenen Artikel korrekturlesen, bevor du dich in diesem Forum über die Rechtschreibqualitäten anderer "lustig" machst. Denn zumindest in dieser Hinsicht war der Artikel ziemlich katastrophal.
Sonst kritisiere ich das ja eher weniger, aber in deinem Fall....

Gast
2007-04-30, 16:35:52
Im Übrigen solltest du vielleicht deine eigenen Artikel korrekturlesen, bevor du dich in diesem Forum über die Rechtschreibqualitäten anderer "lustig" machst.Ich denke nicht, dass Aths sich über Rechtschreibfehler der Forumsnutzer lustig macht. Er weist sie lediglich auf ihre Fehler hin, was ich auch gut finde. Manche Leute empfinden das oft als persönlichen Angriff, aber so ist es nicht gemeint. Ich bin sogar dankbar, wenn mich jemand auf meine Fehler hinweist. Ich denke, dass Aths das ähnlich sieht, wenn du ihn freundlich auf die Fehler in seinen Artikeln hinweist.

aths
2007-04-30, 17:08:03
[COLOR="#000099"]
Würde mich ebenso vom Kauf abhalten. Features die ich letztlich nicht nutzen kann sind kein Kaufargument. Zumindest für mich. Leute wie Matrix und du machen allerdings den umgekehrten Fehler:

- Feststellung, dass ein Produkt X Feature A hat.
- Beweis, dass Feature A zur Lebzeit des Produktes X unnütz ist.
- Schlussfolgerung, dass alle Vorteile des Produktes X im Vergleich zu Produkt Y unnütz sind. Hier liegt der Fehler.

Je nach dem wie man es betrachtet kann die 8600 GTS oder sogar GT im Vergleich zu einer 1950 Pro durchaus als das rundere Produkt gesehen werden, erst recht wenn sich die Preise der 8600-er normalisiert haben.

Leider wird D3D10-Compliance hier gerne nur rein unter dem Gesichtspunt "Spiele-Grafik" betrachtet. Damit werden Kriterien so konstruiert, dass am Ende das gewünschte Ergebnis steht. Die GPU als allgemeinen Streamdaten-Koprozessor zu nutzen geht bei einer D3D10-GPU sehr viel besser als mit einer D3D9-GPU. Bei D3D10 gibts auch neue Datenformate, um in 32 Bit drei Werte mit hoher Dynamik zu speichern, statt früher gleich 64 Bit (für dann vier Werte) zu verballern. Das HDR-Rendertarget und HDR-Texturen kommen jetzt mit 32 statt 64 Bit aus – während D3D9-Karten beim HDR-Rendering an der Bandbreite verhungern, wird vernünftige Beleuchtung mit D3D10 endlich zu vernünfigen Performance-Kosten möglich. Matrix schreibt dann noch fälschlicherweise "DX10" – das kann ich ab: Die Fachbegriffe nicht richtig zuordnen können, aber mitdiskutieren.

Du machst im Vergleich zu Matrix einen anderen Fehler: Mit blauer Farbe zu nerven. Das kann man – im Gegensatz zu "DX10" (ein Fehler wie er jedem mal passieren kann) – erst recht nicht ernst nehmen (da Absicht.)

aths
2007-04-30, 17:10:18
für die hat aber auch eine GF4MX gereicht. das einzige was der FX5200 einen sinn hätte geben können wäre Vista gewesen, welches für den neuen desktop ja PS2 voraussetzt. nur hat sich vista ja bekanntermaßen so lange verschoben, dass dies auch kein argument mehr für die FX5200 ist. (wobei man fairerweise sagen musste, dass NV das damals noch nicht wissen konnte)Genau. Wäre Longhorn (Vista) wie ursprünglich geplant erschienen, hätte NV mit der FX 5200 voll absahnen können. Jetzt ist man als Spieler froh, dass das nicht geklappt hat und die Leute erst später auf – dann leistungsfähigere – DX9-Karten umgestiegen sind bzw. noch umsteigen.

Die FX 5200 hat gegenüber der GeForce4 MX noch weitere Vorteile. DX9 ist auch ein Vorteil. Beispielsweise für Postfilter-Shader beim Mediaplayer Classic. Die FX 5200 bietet auch im 3D-Bereich mehr: 4x Multisampling (ok, leider nur im OG-Muster) und 8x AF. Ältere Spiele kann man auf einer FX 5200 in besserer Grafik genießen als mit einer GF4 MX. Über DX9-Pixelshading in Spielen brauchen wir nicht zu sprechen, aber die FX 5200 bietet ja auch SM1. Bei Spielen wie Morrowind lassen sich dann Shader-Effekte zuschalten, die man auf der GF4 MX nicht sieht. Beim Beispiel Max Payne 2 kann man mit der FX 5200 alle Shader-Effekte haben, mit der GF4 MX keinen einzigen. Solange man ein 128-Bit-Speicherinterface hat, war die FX 5200 für Gelegenheitszocker durchaus interessant.

aths
2007-04-30, 17:14:34
Ich habe eine 8600 einer X1950 vorgezogen. Warum?
Sehr gute BQ, locker passiv kühlbar, gute Performance, sparsamer als ne x1950 Pro.
Für die X1950 hat nur die Leistung gesprochen.Genau: Spiele-Leistung ist für Spieler zwar das entscheidende Kriterium, aber nicht alle Käufer sind Spieler. Ich kaufte – obwohl ich auch spiele – Nvidia-Karten (6600, 7600) vor allem wegen der 2D-Features die man mit Nview hat. Vieles davon ist zwar reine Softwaresache, wird mir bei ATI aber so nicht geboten. Außerdem war meine 6600 GT passiv gekühlt, die 7600 GT ist es auch – ich mags einfach nicht, wenn der PC Krach macht. Ebensowenig gebe ich nur ungerne viel Geld für aufwändige leise aktive Kühlung aus. Spiele-Leistung ist für mich wichtig, aber nicht das wichtigste. Was mich bei der GF6 und 7 am meisten nervt sind die Qualitätskompromisse bei der anisotropen Filterung. Das finde ich deutlich lästiger als die begrenzte 3D-Leistung.

Für die Ti 4600 gab ich knapp 600 € aus. Dass die Performance von späteren Karten schon bald deutlich übertroffen wurde, war mir gleichgültig. Dass die Ti nicht mal Pixelshader 1.4 bot, geschweige denn 2.0, schmerzte hingegen. Die (passiv gekühlte) Radeon 9600 die ich hatte, bot nicht die Ti-4600-Performance, aber in Max Payne 2 alle Effekte (da Pixelshader-1.4-Support) und war auch für Far Cry brauchbar.

Ich denke nicht, dass Aths sich über Rechtschreibfehler der Forumsnutzer lustig macht. Er weist sie lediglich auf ihre Fehler hin, was ich auch gut finde. Manche Leute empfinden das oft als persönlichen Angriff, aber so ist es nicht gemeint. Ich bin sogar dankbar, wenn mich jemand auf meine Fehler hinweist. Ich denke, dass Aths das ähnlich sieht, wenn du ihn freundlich auf die Fehler in seinen Artikeln hinweist.So ist es. Es muss noch nicht mal besonders freunlich sein, es kann auch neutral formuliert sein. Die Kritiker haben Recht – ich hätte die Kolumne vorher noch durch ein Rechtschreibkontrolle jagen sollen. Lustig mache ich mich über Schreibfehler anderer natürlich nicht. Einerseits mache ich selbst oft genug Fehler, andererseits wäre das ziemlich arm, sich über Schreibfehler zu belustigen.

Matrix316
2007-04-30, 18:24:05
Leute wie Matrix und du machen allerdings den umgekehrten Fehler:

- Feststellung, dass ein Produkt X Feature A hat.
- Beweis, dass Feature A zur Lebzeit des Produktes X unnütz ist.
- Schlussfolgerung, dass alle Vorteile des Produktes X im Vergleich zu Produkt Y unnütz sind. Hier liegt der Fehler.

Je nach dem wie man es betrachtet kann die 8600 GTS oder sogar GT im Vergleich zu einer 1950 Pro durchaus als das rundere Produkt gesehen werden, erst recht wenn sich die Preise der 8600-er normalisiert haben.

Von den Preisen sehe ich aber eher die X1950XT als direkten Konkurrenten der 8600 GTS. Und da hilft selbst DX10 nicht mehr um Land zu gewinnen, denn ich glaube nicht, dass (ich glaube das sagte ich schonmal) zukünftige DX10 Spiele wie Crysis oder so mit einer 8600GTS annehmbar laufen (es sei denn in 800x600 ;)). Gerade weil heute große TFTs so billig sind, wird die Leistung der Grakas umso wichtiger für Spiele, wenn man nicht Matschgrafik haben will.

Gast
2007-04-30, 21:03:44
Matrix schreibt dann noch fälschlicherweise "DX10" ? das kann ich ab: Die Fachbegriffe nicht richtig zuordnen können, aber mitdiskutieren.



Wieso fälschlicherweise DX10?

seahawk
2007-04-30, 21:07:03
Google findet "qua definitionem" deutlich häufiger als "qua definitione".

Wieso muss sich die 600-er mit dem Ultrahighend messen? Meine Betrachtung ist da etwas anders:

5600 muss sich mit 4600/4800 messen (und kann nicht eindeutig gewinnen)
6600 muss sich mit 5800 messen (aber zieht auch jede 5900 ab)
7600 GT muss sich mit 6800 GT messen (was sie einigermaßen packt)
8600 GT muss sich mit 7800 GT messen (wie das ausgeht ist, weiß ich jetzt nicht.)

Der letzer Vergleich geht relativ unentschieden aber mit Tendenz zur GTS aus. Die heutige GT ist ha die ehmalige GS.

Sogesehen kann ich, abgesehen vom Preis, Deine dargelegte Enttäuschung nicht ganz verstehen. Erst in Relation zur 8800 erscheint die 8600 enttäuschend.

Vertigo
2007-04-30, 21:20:45
Wer aktuelle Spiele mit maximalen Details und BQ-Settings spielen will, ist mit einer 8600 natürlich nicht gut beraten. Aber es ist durchaus sinnvoll, für ältere Games die Option für hohe BQ zu haben.

Natürlich, aber gerade hier liegt doch der große Nachteil ggü. Grafikkarten der DX9-Generation in der gleichen Preisklasse, wie eben X1950Pro. Diese besitzen den allermeisten Benchmarks zufolge einen deutlichen Leistungsvorteil ggü. 8600GT(S), gerade in älteren Spielen. Bleibt der etwas bessere AF und das mit 8x wiederum etwas bessere MSAA sowie die Hybrid-AA-Modi. Nur fehlt es dafür dann oft an Leistung. Die BQ der Radeon mag technisch etwas schlechter sein, die Bildverbesserungstechniken sind aber eher anwendbar aufgrund der besseren Performance.

Warum wird hier immer mit der 1950-er verglichen? Kein Mensch sagt, dass alle 1950-er Besitzer sich jetzt eine 8600-er kaufen sollen.
Weil es aktuell der Gegner in dieser Preisklasse ist, ganz einfach. Freilich wird kaum jemand diesen Wechsel vollziehen. Bei einer Neuanschaffung stellt es sich aber komplizierter dar. Niemand kann sagen wann wieviele D3D10-Spiele auf den Markt kommen, wie groß die Unterschiede zum alten DX9-Renderpfad sein werden, welche Spiele gar exlusiv für D3D10 erscheinen und vor allem: wie gut diese Titel dann auf einer 8600GTS performen.

Gerade im PC-Bereich, wo sich die Preise für Hardware binnen Monaten halbieren und vierteln können, macht es keinen Sinn Features auf Vorrat zu kaufen. Wer heute eine neue Grafikkarte kauft, ist in dieser Preisklasse imo mit einer X1950Pro wesentlích besser bedient. Sobald D3D10-Titel verfügbar sind, wird das natürlich anders aussehen. Aber wann wird das sein? In einem Jahr? Was wird dann für Hardware zu diesem Kurs kaufbar sein? Ich finde, die Zeit bis dahin kann man getrost mit einer DX9-Karte überbrücken, auch wenn man sie sich erst dieser Tage zuzulegen plant.

Matrix316
2007-05-01, 12:08:50
Matrix schreibt dann noch fälschlicherweise "DX10" – das kann ich ab: Die Fachbegriffe nicht richtig zuordnen können, aber mitdiskutieren.

Heißt DirectX 10 jetzt nicht mehr DirectX 10? ;)

Gast
2007-05-01, 12:16:24
Heißt DirectX 10 jetzt nicht mehr DirectX 10? ;)Es gibt kein DirectX 10. Du meinst Direct3D 10.

Gast
2007-05-01, 12:17:59
Google findet "qua definitionem" deutlich häufiger als "qua definitione".

Ist es nicht der Duden, der maßgeblich für die deutsche Rechtschreibung ist?

Gast
2007-05-01, 12:19:25
Es gibt kein DirectX 10. Du meinst Direct3D 10.

Nur ~138.000mal auf microsoft.com. http://search.microsoft.com/results.aspx?mkt=en-US&setlang=en-US&q=DirectX+10

Anfangs hat Big M wohl auf D3D10 gesetzt, aber die lebendige Sprache und die Macht der Gewohnheit haben sogar Redmond in die Knie gezwungen.

Gast
2007-05-01, 12:20:40
Nur ~138.000mal auf microsoft.com. http://search.microsoft.com/results.aspx?mkt=en-US&setlang=en-US&q=DirectX+10

Anfangs hat Big M wohl auf D3D10 gesetzt, aber die lebendige Sprache und die Macht der Gewohnheit haben sogar Redmond in die Knie gezwungen.
Sorry, Suchfehler:
http://search.microsoft.com/results.aspx?q=%22DirectX+10%22&qsc0=0&FORM=QBME1&l=1&mkt=en-US&PageType=99

Gast
2007-05-01, 12:36:06
Anfangs hat Big M wohl auf D3D10 gesetzt, aber die lebendige Sprache und die Macht der Gewohnheit haben sogar Redmond in die Knie gezwungen.Ja, mir ist durchaus bewusst, dass selbst MS mittlerweile resigniert hat, weil die ganzen DAUs alle immer von "DX10" geredet haben.

Matrix316
2007-05-01, 19:07:22
Das hat nichts mit DAU zu tun. Direct X ist der Überbegriff und Direct3D, DirectShow, DirectPlay, DirectInput etc. sind die einzelnen Unterabteilungen.

http://www.directupload.net/images/070501/temp/lhkeXo8r.jpg (http://www.directupload.net/file/d/1049/lhkeXo8r_jpg.htm)

Gast
2007-05-02, 21:25:47
Ja, mir ist durchaus bewusst, dass selbst MS mittlerweile resigniert hat, weil die ganzen DAUs alle immer von "DX10" geredet haben.

zwischen DX8.1 und 9 hat sich auch nur die 3D-schnittstelle geändert, trotzdem nannte man es DX9, und jetzt soll das falsch sein?

Smoke Screen
2007-05-03, 00:06:24
Gerade im PC-Bereich, wo sich die Preise für Hardware binnen Monaten halbieren und vierteln können, macht es keinen Sinn Features auf Vorrat zu kaufen. Wer heute eine neue Grafikkarte kauft, ist in dieser Preisklasse imo mit einer X1950Pro wesentlích besser bedient. Sobald D3D10-Titel verfügbar sind, wird das natürlich anders aussehen. Aber wann wird das sein? In einem Jahr? Was wird dann für Hardware zu diesem Kurs kaufbar sein? Ich finde, die Zeit bis dahin kann man getrost mit einer DX9-Karte überbrücken, auch wenn man sie sich erst dieser Tage zuzulegen plant.

Genau. Aus diesem Grund macht der Kauf einer Midrangekarte der 1.Generation
kaum Sinn,denn wenn dann Nutzen aus allen Features gezogen werden kann
weil es die passende Software gibt ist sie schon wieder überholt.
Ich meine zur Zeit ist einzig die 8800GTS/320 interessant. Zwar preislich noch
klar über Schnäppchenniveau,aber sie wird sich in diese Richtung bewegen.
Warten wir mal drei Monate ab.

sloth9
2007-05-03, 23:04:22
Die Logik besteht aus der Annahme, dass die Mehrheit der Leute korrekt schreibt. Allerdings bin ich kein Rechtschreibguru.

[..]



;D
Was hat lateinische Grammatik mit Rechtschreibung zu tun?
Entweder man kann Latein, oder nicht.
Dann aber bitte nicht so pseudowissenschaftlich "auf intellektuell" rumschwadronieren.
Ich werfe auch nicht mit russischen Sprachbrocken um mich, weil ich die Sprache nicht kann.
Der Verweis auf Google-Treffer ist zu köstlich.
Jede Ente/jeder Fake wird von Blog zu Blog, von Seite zu Seite getragen, Relevanz?

aths
2007-05-04, 14:27:12
;D
Was hat lateinische Grammatik mit Rechtschreibung zu tun?
Entweder man kann Latein, oder nicht.
Dann aber bitte nicht so pseudowissenschaftlich "auf intellektuell" rumschwadronieren.
Ich werfe auch nicht mit russischen Sprachbrocken um mich, weil ich die Sprache nicht kann.
Der Verweis auf Google-Treffer ist zu köstlich.
Jede Ente/jeder Fake wird von Blog zu Blog, von Seite zu Seite getragen, Relevanz?In der Regel hat die Allgemeinheit Recht, was Schreibweisen angeht. Da gibt es natürlich auch populäre Ausnahmen, vor allem beim Deppen-Apostroph. Um lateinische Phrasen zu nutzen muss man nicht unbedingt Latein können. In der Mathematik und noch stärker im Rechtswesen sind lateinische Phrasen üblich, ohne dass gleich "auf intellektuell rumschwadroniert" wird.

Genau. Aus diesem Grund macht der Kauf einer Midrangekarte der 1.Generation
kaum Sinn,denn wenn dann Nutzen aus allen Features gezogen werden kann
weil es die passende Software gibt ist sie schon wieder überholt.
Ich meine zur Zeit ist einzig die 8800GTS/320 interessant. Zwar preislich noch
klar über Schnäppchenniveau,aber sie wird sich in diese Richtung bewegen.
Warten wir mal drei Monate ab.Es kommt doch nicht darauf an, aus allen Features Nutzen zu ziehen.

Midrange-Karten bleiben meistens länger im PC als Highend-Karten. Deshalb würde ich gerade im Midrange-Bereich eher auf Features setzen. Das kann natürlich jedermann auch anders sehen.

aths
2007-05-04, 14:30:34
Das hat nichts mit DAU zu tun. Direct X ist der Überbegriff und Direct3D, DirectShow, DirectPlay, DirectInput etc. sind die einzelnen Unterabteilungen.Aber (soweit ich weiß) ist nur D3D10 vom Funktionsumfang neu.




Natürlich, aber gerade hier liegt doch der große Nachteil ggü. Grafikkarten der DX9-Generation in der gleichen Preisklasse, wie eben X1950Pro. Diese besitzen den allermeisten Benchmarks zufolge einen deutlichen Leistungsvorteil ggü. 8600GT(S), gerade in älteren Spielen.Gerade in älteren Spielen konnte eine Radeon 9800 Pro auch eine GeForce 6600 GT abziehen. Je moderner das Spiel umso besser für die 6600.

Bleibt der etwas bessere AF und das mit 8x wiederum etwas bessere MSAA sowie die Hybrid-AA-Modi. Nur fehlt es dafür dann oft an Leistung. Die BQ der Radeon mag technisch etwas schlechter sein, die Bildverbesserungstechniken sind aber eher anwendbar aufgrund der besseren Performance.

Weil es aktuell der Gegner in dieser Preisklasse ist, ganz einfach. Freilich wird kaum jemand diesen Wechsel vollziehen. Bei einer Neuanschaffung stellt es sich aber komplizierter dar. Niemand kann sagen wann wieviele D3D10-Spiele auf den Markt kommen, wie groß die Unterschiede zum alten DX9-Renderpfad sein werden, welche Spiele gar exlusiv für D3D10 erscheinen und vor allem: wie gut diese Titel dann auf einer 8600GTS performen. Das ist imo irrelevant, weil D3D10-exklusive Titel noch Jahre auf sich warten lassen dürften und auch ein übertaktetes 8600-GTS-SLI-Gespann das nicht mehr packen dürfte.

Bei komplexen D3D9-Spielen müsste bei gleicher Rohleistung die D3D10-Karte mehr Endleistung bieten. Auf D3D10-Karten sind GPGPU-Rechnungen (theoretisch) relativ problemlos möglich.

Gerade im PC-Bereich, wo sich die Preise für Hardware binnen Monaten halbieren und vierteln können, macht es keinen Sinn Features auf Vorrat zu kaufen. Wer heute eine neue Grafikkarte kauft, ist in dieser Preisklasse imo mit einer X1950Pro wesentlích besser bedient. Sobald D3D10-Titel verfügbar sind, wird das natürlich anders aussehen. Aber wann wird das sein? In einem Jahr? Was wird dann für Hardware zu diesem Kurs kaufbar sein? Ich finde, die Zeit bis dahin kann man getrost mit einer DX9-Karte überbrücken, auch wenn man sie sich erst dieser Tage zuzulegen plant.Weder Features auf Vorrat noch Leistung auf Vorrat ergeben viel Sinn. Allerdings werden Midrangekarten oft gekauft, weil das Budget begrenzt ist; entsprechend bleibt die Hardware recht lange in Gebrauch. Dann könnte sich ein höheres Featureset mehr auszahlen als die höhere 3D-Rohleistung.

Bei mangelnder Leistung kann man die Details runterregeln. Bei mangelndes Features hat man keine Wahl.

Vertigo
2007-05-04, 14:52:28
Gerade in älteren Spielen konnte eine Radeon 9800 Pro auch eine GeForce 6600 GT abziehen. Je moderner das Spiel umso besser für die 6600.

Waren die Unterschiede seinerzeit so extrem wie heute zw. X1950Pro und 8600GT(S)? Ich meine nicht.
Das ist imo irrelevant, weil D3D10-exklusive Titel noch Jahre auf sich warten lassen dürften und auch ein übertaktetes 8600-GTS-SLI-Gespann das nicht mehr packen dürfte.
Das sehe ich genau so.
Bei komplexen D3D9-Spielen müsste bei gleicher Rohleistung die D3D10-Karte mehr Endleistung bieten. Auf D3D10-Karten sind GPGPU-Rechnungen (theoretisch) relativ problemlos möglich.

Das ist ein interessanter Punkt. Aber kann das auch überlegene Rohleistung ausgleichen? Über welche Dimensionen reden wir hier? 10%, 100%, 1000%? Ich habe da leider keine Vorstellung.
Weder Features auf Vorrat noch Leistung auf Vorrat ergeben viel Sinn. Allerdings werden Midrangekarten oft gekauft, weil das Budget begrenzt ist; entsprechend bleibt die Hardware recht lange in Gebrauch. Dann könnte sich ein höheres Featureset mehr auszahlen als die höhere 3D-Rohleistung.
Midrangekarten werden vor allem in Komplett-Rechnern verbaut, wo eher die Featureliste als die Leistung bei aktuellen Spielen den Ausschlag gibt. Allein deswegen werden sich D3D10-Karten nun relativ flott verbreiten. Im Retailmarkt sieht es imo etwas anders aus, auch wenn sich bestimmt viele Leute mit einer D3D10-Karte auf der sicheren Seite wähnen. Es ist eben abzuwägen ob man D3D10-Spiele, wenn sie denn verfügbar sind, mit (stark) reduzierten Details oder dann doch lieber gar nicht spielen will. Oder eben mit einer dann aktuellen Karte fürs gleiche Geld.

Gast
2007-05-04, 16:02:21
Bei mangelnder Leistung kann man die Details runterregeln. Bei mangelndes Features hat man keine Wahl.

auch bei fehlenden features kann man die details, die diese features brauchen ausschalten. von spielen die ohne D3D10-features garnicht starten brauchen wir nicht reden, wenn diese kommen wird die 8600er reihe nicht mal für 640x480 ausreichen.

Mr. Lolman
2007-05-04, 16:32:48
Gerade in älteren Spielen konnte eine Radeon 9800 Pro auch eine GeForce 6600 GT abziehen. Je moderner das Spiel umso besser für die 6600.

Imo zog die 6600GT ihre Mehrleistung hauptsächlich aus den Filter'optimierungen'.

Gast
2007-05-04, 16:35:03
Imo zog die 6600GT ihre Mehrleistung hauptsächlich aus den Filter'optimierungen'.Nö. Viel mehr war sie aufgrund der höheren Füllrate und Shaderleistung schneller als eine 9800pro. Die 6600GT taktet in der Referenz-Ausführung immerhin mit 500 MHz.

Mr. Lolman
2007-05-04, 16:47:33
Nö. Viel mehr war sie aufgrund der höheren Füllrate und Shaderleistung schneller als eine 9800pro. Die 6600GT taktet in der Referenz-Ausführung immerhin mit 500 MHz.

Dafür hatte sie nur eine 128bit-Speicheranbindung. Und zumindest von Serious Sam 2 weiss ich, dass 9800pro und 6600GT gleichschnell sind (man findet ja im Netz blöderweise kaum HQ Benchmarks von 6600GT und 9800p)

Gast
2007-05-04, 17:04:42
Dafür hatte sie nur eine 128bit-Speicheranbindung.Dafür aber für damalige Verhältnisse extrem schnellen Speicher. (500 MHz, bei den OC-Versionen war sogar 1,6ns-GDDR3 verbaut, der mit 600 MHz lief.)

Matrix316
2007-05-05, 16:42:29
Aber (soweit ich weiß) ist nur D3D10 vom Funktionsumfang neu.


Und? Die Grafikkarte nutzt ja auch quasi nur Direct3D (und DirectDraw). ;) DirectX ist halt die allgemeine Überschrift aller DirectIrgendwas Schnittstellen.

Ich mein, Direct3D10 ist ja nicht Falsch als Bezeichnung, aber DirectX 10 auch nicht unbedingt, da D3D10 eben nur bei DX10 dabei ist und sonst nirgends.

Smoke Screen
2007-05-05, 17:32:11
I
Es kommt doch nicht darauf an, aus allen Features Nutzen zu ziehen.


Eben. Zumal bestimmte Features zur Zeit Null Relevanz haben. Deswegen wird
eher zur 1950pro oder 7900GS gegriffen. Beide teilweise erheblich preiswerter
und performanter.
Die Leadtek 7900GS eignet sich z.B. gut für HTPCs weil sie sehr leise
ist. Ein sehr gern gesehenes Feature.
Zudem lassen sich die 7900GS-Karten im Schnitt gut ocen und dann sieht die
8600GTS sowieso kein Land mehr.

Gast
2007-05-06, 11:36:47
Genau. Wäre Longhorn (Vista) wie ursprünglich geplant erschienen, hätte NV mit der FX 5200 voll absahnen können.


wobei ich sogar zweifel habe, dass zumindest die kleinen versionen überhaupt dafür schnell genug sind.

meine 7600Go ruckelt auf 2D-taktraten (100/130MHz) spürbar wenn 5 oder mehr fenster offen sind, ich glaube kaum dass da die FX5200 schneller ist, zumindest nicht in den kleineren versionen.

aths
2007-05-07, 00:19:55
Was für ein Speicherinterface hat die 7600 Go? (64 oder 128 Bit DDR?)

NOFX
2007-05-07, 12:13:49
Die GeForce8 Reihe stellt in etwa einen Sprung gegenüber der 7er Reihe dar, wie seinerzeit die 6er gegen die 5er. Damals hat die Mittelklasse in Form der 6600GT enorm von dem Sprung profitiert, jetzt dagegen überhaupt nicht. Die 8600 sind leistungsmäßig so positioniert, als wenn die 8800er Reihe bei der GTS320 enden würde, was sie jedoch nicht tut.

Wie sieht denn die zukünftige 8100/8200 aus? Ist die dann nurnoch 1/16 bzw. 1/32 des G80? Imho hätte die jetzige 8600 den Namen 8400 verdient mit GT und GTS Endung und die 8500 wäre eine 8400LE geworden. Die 8600 hätte dann ein halber G80 mit 256Bit Speicheranbindung werden können.

Tigerchen
2007-05-07, 14:38:36
Die GeForce8 Reihe stellt in etwa einen Sprung gegenüber der 7er Reihe dar, wie seinerzeit die 6er gegen die 5er. Damals hat die Mittelklasse in Form der 6600GT enorm von dem Sprung profitiert, jetzt dagegen überhaupt nicht. Die 8600 sind leistungsmäßig so positioniert, als wenn die 8800er Reihe bei der GTS320 enden würde, was sie jedoch nicht tut.

Wie sieht denn die zukünftige 8100/8200 aus? Ist die dann nurnoch 1/16 bzw. 1/32 des G80? Imho hätte die jetzige 8600 den Namen 8400 verdient mit GT und GTS Endung und die 8500 wäre eine 8400LE geworden. Die 8600 hätte dann ein halber G80 mit 256Bit Speicheranbindung werden können.

Ja die Sache mit dem 128 Bit Speicherinterface finde ich auch bedenklich. Auch bei ATI`s neuen R600 Derivaten. Ich finde das nicht mehr zeitgemäß. Und Spiele wie Call of Duty 2 reagieren auch äußerst allergisch drauf.

Gast
2007-05-07, 20:58:48
Was für ein Speicherinterface hat die 7600 Go? (64 oder 128 Bit DDR?)

128bit DDR und 256MB

sloth9
2007-05-11, 20:57:26
In der Regel hat die Allgemeinheit Recht, was Schreibweisen angeht. Da gibt es natürlich auch populäre Ausnahmen, vor allem beim Deppen-Apostroph. Um lateinische Phrasen zu nutzen muss man nicht unbedingt Latein können. In der Mathematik und noch stärker im Rechtswesen sind lateinische Phrasen üblich, ohne dass gleich "auf intellektuell rumschwadroniert" wird.

[...]



Und machen sich regelmäßig äußerst lächerlich damit.
Da wird dann z.B. von mehreren Alternativen gesprochen.

RavenTS
2007-05-11, 22:58:47
Und machen sich regelmäßig äußerst lächerlich damit.
Da wird dann z.B. von mehreren Alternativen gesprochen.

Oder gar von der Einzigsten...also Ausnahmen bestätigen die Regel! ;)

RaumKraehe
2007-05-12, 02:41:06
Tja, ich stimme dem vollkommen zu. Also dem Thema der Kolumne. Da ich langjähriger Midrange-Käufer bin kann ich den bisherigen Benchmarks der 8600er Serie nicht viel abgewinnen. Ich hatte die 6600 GT und momentan die 7600 GT und war bisher sehr zufreiden. Entäuschend war da nur die 5600 FX. :(

Auch für mich wird da wirklich eher die 8800GTS/320 interessant. Allerdings könnte ich mir vorstellen das sich der Preis, aufgrund der recht regen Nachfrage , doch relativ lang stabil halten wird.

aths
2007-05-12, 23:14:34
Und machen sich regelmäßig äußerst lächerlich damit.
Da wird dann z.B. von mehreren Alternativen gesprochen.Oder gar von der Einzigsten...also Ausnahmen bestätigen die Regel! ;)In den meisten Fällen schreibt die Mehrheit richtig. Natürlich gibt es auch weit verbreitete Fehler. Bei Domian hört man z. B. immer wieder „geschockt“ (statt „schockiert“) oder „... gehabt“, obwohl das „gehabt“ dort gar nicht hingehört. („Ich hatte angerufen gehabt, ...“)


Tja, ich stimme dem vollkommen zu. Also dem Thema der Kolumne. Da ich langjähriger Midrange-Käufer bin kann ich den bisherigen Benchmarks der 8600er Serie nicht viel abgewinnen. Ich hatte die 6600 GT und momentan die 7600 GT und war bisher sehr zufreiden. Entäuschend war da nur die 5600 FX. :(

Auch für mich wird da wirklich eher die 8800GTS/320 interessant. Allerdings könnte ich mir vorstellen das sich der Preis, aufgrund der recht regen Nachfrage , doch relativ lang stabil halten wird.Mal gucken wie es 1-2 Monate nach dem R600-Launch aussehen wird.

Gast
2007-05-31, 07:19:45
Was die Ossis schon immer gedacht, aber nie gewagt haben auszusprechen, wird hier in typischer SED-Manier dem Gläubigen nahegebracht: Nvidia hat "nur" soundsoviel Prozent der Leistung des unereichbaren Klassenbesten 8800 erreicht. Wie toll. Was für eine Aussage.

Welch eine journalistische Meisterleistung. Und so unglaublich neu. Ich erkläre hier folgendes (wenn gewünscht, an Eidesstatt):

Mein Gymnasialrektor hat unserer Klasse/Stufe vor etwa 25Jahren die Produktivitätssteigerung in der DDR anhand folgender Anekdote erläutert: Wenn die heute einen Trabbi hergestellen und morgen zwei, so wird das als eine 100%ige Steigerung dargestellt(PR:"verkauft"). Der gute Mann kannte Leo und seine Schreiberlinge seinerzeit nicht, aber die "relativen" Methoden, mit denen derartige Dinge so verfälscht werden, scheinen nicht ausgestorben zu sein, oder um es mit einem Goebbels-Zitat zu halten: Glaube keiner Statistik, die du nicht selber gefälscht hast: http://www.klein-singen.de/statistik/churchill.php

Sauber 3dc, Leo erfüllt zu 100% (sic!) sein Pensum und das, was von den Ossis zu erwarten war oder ist. Was soll man auch von Menschen erwarten, die 40 Jahre lang vergewaltigt worden sind. Es ist ein geben und nehmen, und wir bekommen, was diese Leute geben können. Sie haben es nicht anders gelernt. Wir auch nicht.

Was soll an der 8600GT schlecht sein? Die absoluten Zahlen/Benchmarks sprechen eine andere Sprache. Die Zahlen sagen, daß sie dem Mitbewerber ebenbürtig/überlegen sind. Warum also Verhältnisse schaffen? Evtl. ist die 88er-Premium-Klasse einfach zu stark. JA und? Wenn das Durchschnittseinkommen in Deutschland bei €5000.- liegen würde und die durchschnittliche Spitze bei 50000.- . Wären die €5000.- unter heutigen Verhältnissen dann schlecht?

Mein Herz schlägt links, zwo , drei, vier..lalalabla: http://www.laut.de/vorlaut/news/2000/12/14/01319/index.htm ... der Neider hat es schlecht gewusst.

GOTT beware mich vor solchen VerFÜHRERn. Fuck you, Mr. Gasch! Du machst Geld mit solchen Mitteln und bist damit nicht besser als viele andere, die du kritisierst.

MadManniMan
2007-05-31, 08:20:35
Hm, schade... am Anfang dachte ich, das hier würde jetzt lustig werden.

Da Du selbst aber überhaupt nicht an Dich ranläßt, was die Kritik bezwecken will und dadurch auch gar nicht kapierst, was ausgesagt wird, kommst Du mit Satire nicht sehr weit.
Im Übrigen ist derlei Gerede gern komplex, spitzfindig und weniger direkt; will sagen: was Du da herredest, ist ziemlich plump.

Wer ist Dein Auftraggeber?

aths
2007-05-31, 16:43:37
GOTT beware mich vor solchen VerFÜHRERn. Fuck you, Mr. Gasch! Du machst Geld mit solchen Mitteln und bist damit nicht besser als viele andere, die du kritisierst.Zunächst hat Mr. Gasch die Kolumne nicht geschrieben, nur veröffentlicht. Dann ist der Autor (ich) auch gelernter Ossi, aber wurde ebenfalls keine 40 Jahre "vergewaltigt", in meinem Fall waren es nur 12; weitere 18 brachte ich in westlicher Freiheit zu.