PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kommende Mid-Range Karten. Schneller als X1900XT/7950GT?


Gmax
2006-11-08, 17:40:02
Hi, werden die kommenden Mid-Range Karten von Ati und nVidia in etwa gleich schnell wie die X1900XT und 7950GT sein? Ich dachte da an die 512mb Versionen.
Wenn man sich die soeben erschienene 8800 mit ihren
681 Millionen Transistoren ansieht und davon ausgeht, daß etwa die Hälfte dieser Menge im kommenden MR Bereich Standard wird (also ~ 340 Millionen), dann liegen diese mit den beiden oben genannten Chips in etwa gleichauf.
Ganz zu schweigen von den DX10 Features.
Was zeigt da die Grafikkartengeschichte?

aths
2006-11-08, 18:17:49
Hi, werden die kommenden Mid-Range Karten von Ati und nVidia in etwa gleich schnell wie die X1900XT und 7950GT sein? Ich dachte da an die 512mb Versionen.Das werden wir dann sehen.

MSABK
2006-11-08, 18:39:24
Ich denke schon das die kommenden Midrange Karten schneller als die aktuellen High End Karten sein werden.

War ja in der vergangenheit auch meistens so.

StefanV
2006-11-08, 18:45:38
Hi, werden die kommenden Mid-Range Karten von Ati und nVidia in etwa gleich schnell wie die X1900XT und 7950GT sein? Ich dachte da an die 512mb Versionen.
Wenn man sich die soeben erschienene 8800 mit ihren
681 Millionen Transistoren ansieht und davon ausgeht, daß etwa die Hälfte dieser Menge im kommenden MR Bereich Standard wird (also ~ 340 Millionen), dann liegen diese mit den beiden oben genannten Chips in etwa gleichauf.
Ganz zu schweigen von den DX10 Features.
Was zeigt da die Grafikkartengeschichte?
Wie denn, wenn die 8800GTS etwa in der Gegned der x1950XTX ist...

Gmax
2006-11-08, 18:57:19
Wie denn, wenn die 8800GTS etwa in der Gegned der x1950XTX ist...

Ja, stimmt, ist mir auch schon aufgefallen. Die Frage ist doch, was mit neuen Treibern noch rausgeholt werden kann. Ansonsten siehts eher schlecht aus für die GTS...

Gast
2006-11-08, 19:22:13
Wie denn, wenn die 8800GTS etwa in der Gegned der x1950XTX ist...

Öhm, also für mich ist die 8800 GTX keine Midrange Karte!.

Die 7900 GTX ist ja auch keine Midrange Karte nur weil es darüber noch eine GX2 gibt.

Die Midrange Karten kommen erst noch bei beiden Herstellern und deshalb glaube ich eher nicht, das die sie aktuellen Topkarten in jedem Falle überflügeln...

Allerdings hoffe ich, das endlich mal 512 MB bei ~200 Euro Karten einzug hält.

Undertaker
2006-11-08, 20:05:53
Öhm, also für mich ist die 8800 GTX keine Midrange Karte!.

Die 7900 GTX ist ja auch keine Midrange Karte nur weil es darüber noch eine GX2 gibt.

Die Midrange Karten kommen erst noch bei beiden Herstellern und deshalb glaube ich eher nicht, das die sie aktuellen Topkarten in jedem Falle überflügeln...

Allerdings hoffe ich, das endlich mal 512 MB bei ~200 Euro Karten einzug hält.

du hast ihn wohl falsch verstanden; er wollte nur sagen, dass, wenn die high-end karte 8800gts schon kaum schneller ist als eine x1950xtx ist, die kommenden midrange karten nie in die reichweite einer x1900xt/7900gt kommen werden

AnarchX
2006-11-08, 20:45:45
Mal meine Speku:
8600GTS = 1/2 8800GTX@650MHz in 65nm
Mit dem Stand der Treiber zu diesem Zeitpunkt sollte eine X1950XTX bzw. 7900GTX doch kein Problem mehr sein in den dann aktuellen Titeln.;)

Wie denn, wenn die 8800GTS etwa in der Gegned der x1950XTX ist...
Das wird sich schon noch durch kommende Treiber ändern oder blieb die X1800XT in der Gegend der 7800GTX... ;)

Fetza
2006-11-08, 21:01:31
Wie denn, wenn die 8800GTS etwa in der Gegned der x1950XTX ist...

schonmal den benchmark mit oblivion gesehen? die gts ist in solch shaderlastigen spielen deutlich schneller, und das wird wohl in naher zukunft damit auch die regel sein.

greetz

Fetza

Mr. Lolman
2006-11-08, 23:44:56
schonmal den benchmark mit oblivion gesehen? die gts ist in solch shaderlastigen spielen deutlich schneller, und das wird wohl in naher zukunft damit auch die regel sein.

greetz

Fetza

naja....

http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif

StefanV
2006-11-09, 06:03:30
Das wird sich schon noch durch kommende Treiber ändern oder blieb die X1800XT in der Gegend der 7800GTX... ;)
Hellseher oder Wunschdenken? :rolleyes:

Fetza
2006-11-09, 06:14:46
naja....


stimmt nicht?...

AnarchX
2006-11-09, 06:43:17
Hellseher oder Wunschdenken? :rolleyes:
Sachverständnis...;)
z.B. hat Demirug schon angedeutet, dass der G80 mit den aktuellen Treibern vom Shadercompiler noch nicht ganz ausgelastet wird.
Siehe auch hier. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4967344&postcount=635)

Aber du wirst doch eingestehen müssen, dass bei neuen Architekturen, am Anfang die Treiber immernoch nicht am Optimum waren?

seahawk
2006-11-09, 07:01:41
Mal meine Speku:
8600GTS = 1/2 8800GTX@650MHz in 65nm
Mit dem Stand der Treiber zu diesem Zeitpunkt sollte eine X1950XTX bzw. 7900GTX doch kein Problem mehr sein in den dann aktuellen Titeln.;)


Das wird sich schon noch durch kommende Treiber ändern oder blieb die X1800XT in der Gegend der 7800GTX... ;)
Naja, nur holt ATI mit späteren Treibern immer mehr aus der hArdware als NV.

Die XTX ist praktisch gleichauf mit der GTS, es ist imho nicht zu erwarten, dass es Midrange.Karten von NV geben wird, die einen 1950XT schlagen bevor es nicht den Refresh des G80 gibt.

AnarchX
2006-11-09, 07:45:45
Naja, nur holt ATI mit späteren Treibern immer mehr aus der hArdware als NV.
Beweis?
Das man bei der GeForce7 nicht mehr viel über Treiber herausholen konnte ist ja klar, da man dies schon indirekt durch die Optimierung der Treiber auf GF6 tat(gleiche Architektur).

Aber wir werden es ja dann zur CeBIT 2007 sehen...

Ailuros
2006-11-09, 08:47:53
naja....

http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif

An dem Furz wird gerade gearbeitet jegliche Treiber-"Blasen" zu entfernen. Was besseres ist Dir nicht eingefallen als eine der wenigen Aussnahen oder?

Ailuros
2006-11-09, 08:59:46
Wie denn, wenn die 8800GTS etwa in der Gegned der x1950XTX ist...

Momentan :P Ebenso wie es damals bei der 6800nonU hiess dass der Abstand zur damaligen 9800 PRO zu klein war bei der Veroeffentlichung; ein paar Treiberupdates und die Sache war geregelt.

Ich wuerde eher fragen wer mehr Chancen hat den mainstream D3D10 wieder zu gewinnen und das jetzt nur nach den momentanen Indizien die aber keine Garantie darstellen:

1.) ATI soll danach mit dem R600 mit sehr hohen Taktraten kontern. Klingt mir aber wieder nicht nach guter Skalierbarkeit nach unten.

2.) NVIDIA kommt hoechstwahrscheinlich im mainstream Segment mit einem 256bit bus an und falls die bisherigen Indizien stimmen sollten wird es selbst auf R600 nicht anders sein. Fuer mich mag die Busbreite auf GPUs gleich gar nichts definieren was die finale Leistung betrifft, aber was klingt Dir billiger GDDR3 oder GDDR4? Selbst wenn RV600 und G83 (oder wie immer die Dinger heissen werden) fast auf Gleichstand kommen sollten, jagt ihnen NV wieder die Preise runter.

***edit: uebrigens ganz so nebenbei, es reicht wenn D3D10 GPUs ca. 2x mal so schnell werden als G73/RV560.

Fetza
2006-11-09, 09:03:32
Naja, nur holt ATI mit späteren Treibern immer mehr aus der hArdware als NV.

Die XTX ist praktisch gleichauf mit der GTS, es ist imho nicht zu erwarten, dass es Midrange.Karten von NV geben wird, die einen 1950XT schlagen bevor es nicht den Refresh des G80 gibt.

entschuldige mal bitte, aber da ich jetzt schon ein paar dieser nicht wirklich qualifizierten äusserungen von dir gelesen habe, muss ich dich nun doch mal fragen ob du überhaupt irgend ein review der gts karten gelesen hast? Da ich davon ausgehe, das dem nicht so sein kann sei dir dieses hier vorgeschlagen:

http://www.tweaktown.com/articles/977/1/page_1_introduction/index.html

und wenn du dir dann mal ganz langsam und gründlich die benchmarks durchsiehst, wirst du feststellen, das die gts der 1950er karte in Jedem test klar überlegen ist, sobald es in den bereich hdr und hohen auflösungen geht.

Die sache mit den treibern hat sich ja anarch angenommen.

Einen chip hersteller zu bevorzugen ist ja gut und schön, erlebe ich bei autos auch öfter (hey, vw - is ja die marke überhaupt, da kann nichts gegen anstinken). Aber derart krasse performance unterschiede nicht zu sehen(-wollen).... da muss ich an meinen alten mathelehrer denken - wir sind alle erschaffer eigener realitäten.

Was die mid-range karten angeht, könntest du recht haben - oder auch nicht, man wird sehen;)

seahawk
2006-11-09, 10:56:11
Die Frage ist doch, wieweit liegt eine abgespeckte GTS mit 256Bit Pseicheranbindung vor ner 1950XTX. Midrange-Karten werden seltne für hohe Auflösungen ausgelegt.

Coda
2006-11-09, 11:02:41
2.) NVIDIA kommt hoechstwahrscheinlich im mainstream Segment mit einem 256bit bus an

Wieso nicht 192 bit?

Hauwech
2006-11-09, 11:47:36
Kommt wahrscheinlich darauf an ob man mit 192bit genauso viele Layer wie mit 256bit braucht oder nicht. Wenn es genauso viele sind, dann kann ich mir durchaus eine 8600GT mit 256bit und eine 8600GS mit 192bit vorstellen um die von einander, neben Taktraten, weiter abzugrenzen. Die Palette wird dann vielleicht mit 128bit nach unten abgerundet. Trotzdem denke ich, wir werden wieder 64bit Karten sehen.

DrumDub
2006-11-09, 12:15:47
interessant ist die frage wie dann dass verhältnis der sps zu dem si aussieht.

bei der 8800gtx haben wir 8sp-cluster gegenüber einer 6x64bit si-anbindung. bei der 8800gts sind es 6sp-cluster gegenüber einer 5x64bit si-anbinung.

das verhältnis vom si zu den sps ist also bei der 8800gts höher als bei der 8800gtx.

8800gtx: 6/8=0,75
8800gts: 5/6=0,83

denkbar wäre für midrage:

4/4=1 (256bit si, eher unwahrscheinlich, wegen des verhältnisses si/sps)
4/5=0,8 (auch 256bit si, halte ich auch für überdimensoniert mit 5 sps)
3/4=0,75 (192bit, halbe 8800gtx: halte ich für am wahrscheinlichsten)

Mr. Lolman
2006-11-09, 14:32:33
An dem Furz wird gerade gearbeitet jegliche Treiber-"Blasen" zu entfernen. Was besseres ist Dir nicht eingefallen als eine der wenigen Aussnahen oder?

Wenig?*


http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018407.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13531.png http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13530.png http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl604_thumb.jpg
Da dürften dann demnach noch einige Treiberblasen zu entfernen sein. Hoffentlich gelingt ihnen das besser, als damals beim NV30 ;)

*Gibt sicher noch mehr, aber ich hatte kein Bock alle Reviews abzugrasen, deswegen auch 'nur' Scores aus 3 verschiedenen Reviews. Es kann auch sein, dass ich den ein oder anderen Benchmark übersehen hab, bei dem das Verhältnis ähnlich ist, aber mir gings nur darum, zu zeigen, dass das anscheinend doch nicht so wenig Ausnahmen sind.

MadManniMan
2006-11-09, 18:43:08
Die Diskussion zur GTS/XTX ist für mich momentan deshalb nur mit Kopfschmerzen zu verfolgen, da es nur Extremisten(tm) beider Seiten gibt, welche die Argumente austauschen.
Fassen wir doch mal zusammen: es gibt Szenarien, in denen eine GTS nicht wirklich schneller ist. Nich wahr? Gut. Andererseits gibt es unbestrittenerweise (?) ebenso Apps, die die GTS vorn zeigen. Auch richtig? Toll.

Sind wir nun also fähig, vernünftige Schlüsse zu ziehen? Ja? Na wunderbar!

Black-Scorpion
2006-11-09, 19:22:41
Wie man durch den angeblich hohen Takt des R600 auf die Skalierbarkeit bei den Mainstream Karten schließt ist schon reichlich seltsam.

AnarchX
2006-11-09, 19:50:05
Wie man durch den angeblich hohen Takt des R600 auf die Skalierbarkeit bei den Mainstream Karten schließt ist schon reichlich seltsam.
Aber er hat recht, bei Mainstream sind meist nicht so hohe Taktraten wie bei Highend möglich, da man hier auf die neusten Fertigungsgrößen setzt um möglich günstig zu produzieren.
Bei der Generation R4xx ist es ja auch danebengeganen, so hat der RV410 in 110nm nicht die X700XT Takraten geschafft und man musste einen teueren R420/R480 für die den Ersatz benutzen -> X800GT.

Relic
2006-11-09, 20:04:59
Aber er hat recht, bei Mainstream sind meist nicht so hohe Taktraten wie bei Highend möglich, da man hier auf die neusten Fertigungsgrößen setzt um möglich günstig zu produzieren.
Bei der Generation R4xx ist es ja auch danebengeganen, so hat der RV410 in 110nm nicht die X700XT Takraten geschafft und man musste einen teueren R420/R480 für die den Ersatz benutzen -> X800GT.

Normalerweise ermöglichen aber die neuen Fertigungsgrößen höhere Taktraten, wenn man sie im Griff hat. Mit den RV410 in 110nm hast du ein denkbar schlechtes Beispiel ausgewählt da die 110nm Fertigung von Anfang an als "Value" Fertigung geplant wo, was man z. B. auch am fehlenden low-k sieht.

Black-Scorpion
2006-11-09, 20:06:57
Wieso hat er recht?
Was weiß er denn so viel über den R600?
Was hat der R600 mit dem Vorgänger gemeinsam?
Es soll tatsächlich schlaue Leute bei ATI geben die Sachen bauen und einschätzen können ohne andere fragen zu müssen.

AnarchX
2006-11-09, 20:16:13
Normalerweise ermöglichen aber die neuen Fertigungsgrößen höhere Taktraten, wenn man sie im Griff hat.
Aber dies hat man meist eben nicht, wenn man diese Prozesse für Mainstream/Lowend verwendet, da man so den neuen Prozess testet und vom Fertiger so auch einen günstigeren Tarif bekommt.

Bei RV410 ging es eben nach hinten los, man erreichte eben nicht die hohe Taktraten, die bei R420 möglich waren in einem schon erprobten Prozess und eben nötig waren um gegen die Effizienz von NV4x anzukommen.
Nebenbei gelang es nV dann mit dem NV43(GF66) deutlich besser -> 500MHz, ~20Mio Transistoren mehr als RV410 und auch noch 110nm ohne low-k.

So sind eben relativ hohe Taktraten bei einem Highendmodell, welches noch in einem relativ erprobten Prozess gefertigt wird, nicht wirklich als positiv zu sehen, da man hier doch nur versucht gegen schlechte Effizienz im Design anzukommen.

Black-Scorpion
2006-11-09, 20:49:07
Nochmal die Frage was ihr über den R600 wisst um hier auf die Skalierbarkeit und der schlechten Effizienz und den dadurch verbundenen hohen Taktraten zu kommen?
Das es eine Designentscheidung ist wie der Chip aussehen soll kommt wohl keinem in den Sinn?

Und du hasst natürlich das Design vom R600 schon gesehen und kannst die Effizienz deswegen genau einschätzen.

The_Invisible
2006-11-09, 23:46:39
Wenig?*


http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018407.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13531.png http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13530.png http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl604_thumb.jpg
Da dürften dann demnach noch einige Treiberblasen zu entfernen sein. Hoffentlich gelingt ihnen das besser, als damals beim NV30 ;)

*Gibt sicher noch mehr, aber ich hatte kein Bock alle Reviews abzugrasen, deswegen auch 'nur' Scores aus 3 verschiedenen Reviews. Es kann auch sein, dass ich den ein oder anderen Benchmark übersehen hab, bei dem das Verhältnis ähnlich ist, aber mir gings nur darum, zu zeigen, dass das anscheinend doch nicht so wenig Ausnahmen sind.

selbst wenn die gts nur gleichschnell ist wie ne 1950xtx hat sie dennoch viel mehr zu bieten, außerdem gibt es auch genügend balken wo ne gts ne 1950xtx ganz schön "abkassiert"

mfg

Captain Jack
2006-11-10, 00:19:20
Normal müsste man die Ati ab sofort mit HQAF und teilweise mit AI disabled ( man schaue FEAR) benchen um fair zu testen. Die jetzigen Reviews sind bis dato für die Katz die 8800gts würde dann noch viel deutlicher vorne liegen das ist ja mal Fakt.

Mr. Lolman
2006-11-10, 01:59:31
Normal müsste man die Ati ab sofort mit HQAF und teilweise mit AI disabled ( man schaue FEAR) benchen um fair zu testen. Die jetzigen Reviews sind bis dato für die Katz die 8800gts würde dann noch viel deutlicher vorne liegen das ist ja mal Fakt.
Naja, der G80 filtert per default auch brilinear. Beides zu benchen befürworte ich sogar, aber bevor man ausschliesslich mit AIoff bencht sollte man noch genauere Vergleiche anstellen...

Ailuros
2006-11-10, 04:38:47
Wieso nicht 192 bit?

Hauwech hat schon einen Anteil beantwortet; das andere was ich noch dazu spekulieren wuerde ist dass es 4*64 mem controller schon seit einer Ewigkeit gibt.

Ailuros
2006-11-10, 05:08:08
Wenig?*


http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018407.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13531.png http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13530.png http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl604_thumb.jpg
Da dürften dann demnach noch einige Treiberblasen zu entfernen sein. Hoffentlich gelingt ihnen das besser, als damals beim NV30 ;)

*Gibt sicher noch mehr, aber ich hatte kein Bock alle Reviews abzugrasen, deswegen auch 'nur' Scores aus 3 verschiedenen Reviews. Es kann auch sein, dass ich den ein oder anderen Benchmark übersehen hab, bei dem das Verhältnis ähnlich ist, aber mir gings nur darum, zu zeigen, dass das anscheinend doch nicht so wenig Ausnahmen sind.

Dann nehmen wir eben Fall fuer Fall und ich muss mir die Links per Hand ausgraben da im Spoiler bei mir nur 4 Graphs auftauchen:

Quake4-HardwareFR: Was soll hier merkwuerdig sein dass ich verpasst habe oder vergleichst Du moeglicherweise 8800GTX single core scores mit CF scores? 101.3 in 1920+4xAA vs. 54.9 fps auf einer R580+ und weniger auf einer G71. Fast zwei mal die Leistung ist eine Treiberblase fuer Dich? Du liebe Zeit....

FEAR-HardwareFR: Nun dass klingt schon eher nach etwas; nur benutzt Damien wohl nicht das eingebaute timedemo.

SplinterCell-HWfr: Splinter Cell verhaelt sich in etwa so in allen Reviews. +1

NFSCarbon-HWfr: Laecherlichster "Punkt" von allen, da die G7x Leistung ein Augenoeffner sein sollte. Und ja mein voriger Kommentar war total gerechtfertigt.

B&W-Anand: Was genau soll hier komisch sein bei der Aufloesung?

BF2-Anand: Ich sehe auch hier nichts absolut merkwuerdiges.

FC-PConline: Ebenso.

HL2-PConline: Ja man braucht absolut mehr als 211fps in 1600 mit 4xAA, als ob man in einem so CPU limitierten Spiel nicht nur um einiges hoeher in Aufloesung und AA samples gehen kann.

Keiner der obrigen Faelle ist so extrem und offensichtlich problematisch auf ALLEN Geforces wie Carbon. Ich glaube Du musst Dir schon was besseres einfallen lassen, denn das war kein besonders gelungener Versuch. Natuerlich koennen sie noch mehr aus den Treibern herausholen, aber dass heisst bei weitem nicht dass G80 nicht das liefert was man erwarten koennte.

Ailuros
2006-11-10, 05:24:22
Nochmal die Frage was ihr über den R600 wisst um hier auf die Skalierbarkeit und der schlechten Effizienz und den dadurch verbundenen hohen Taktraten zu kommen?
Das es eine Designentscheidung ist wie der Chip aussehen soll kommt wohl keinem in den Sinn?

Und du hasst natürlich das Design vom R600 schon gesehen und kannst die Effizienz deswegen genau einschätzen.

Bei welcher Taktrate laufen die R600 samples bei Entwicklern derzeit und mit welcher vergleichbarer Leistung?

Das Resultat ist zwar versprechend fuer R600, aber manche "aber" kann man schon einschaetzen. Wenn man halt daneben liegt, dann umso besser fuer den Markt insgesamt.

Wo genau ist Dein Problem? Spekulations-forum ahoi und ja ich liege auch oefters falsch, aber liege auch des oefteren auf dem richtigem Pfad. Garantiert ist gar nichts bis zur Veroeffentlichung.

aths
2006-11-10, 11:12:03
Da dürften dann demnach noch einige Treiberblasen zu entfernen sein. Hoffentlich gelingt ihnen das besser, als damals beim NV30 ;)Beim G80 werden im Moment noch nicht mal alle ALUs genutzt. NV hat noch einiges an Treiberarbeit vor sich. Imo hat jeder IHV bei einer neuen Architektur auch sechs Monate Zeit verdient.

Black-Scorpion
2006-11-10, 11:15:31
Ich habe kein Problem.
Ich finde es wie gesagt nur seltsam das vom R600 fast nichts bekannt ist und hier schon auf die Skalierbarkeit und die Effizienz der Midrange Karten abgeleitet wird.
Das würde Sinn machen wenn der R600 schon draußen ist.
So aber ist es reines lesen im Kaffeesatz.

Ailuros
2006-11-10, 11:36:43
Ich habe kein Problem.
Ich finde es wie gesagt nur seltsam das vom R600 fast nichts bekannt ist und hier schon auf die Skalierbarkeit und die Effizienz der Midrange Karten abgeleitet wird.
Das würde Sinn machen wenn der R600 schon draußen ist.
So aber ist es reines lesen im Kaffeesatz.

Wenn es nur dann Sinn machen wuerde, gaebe es keinen einzigen Grund fuer die Existenz des Spekulationsforums. Nichtdestominder falls ich wirklich so gut waere beim Kaffeesatz-auslesen, muesste ich eine zweite Karriere daraus machen mit den bisherigen Erfolgs-raten.

Der bisherige Misserfolg im Mainstream-Segment ist ATI und Orton voll bewusst und es spiegelt sich auch wieder in oeffentlichen Aussagen. Das Thema ist dann eher was fuer Massnahmen sie dafuer gezogen haben. Und ja ob Du es einsehen willst oder nicht eine gut skalierbare Architektur mit maessiger Taktrate die man nur mit um einiges hoehere Frequenzen uebertrumpfen kann deutet nicht unbedingt in diese Richtung.

Ob das letztere jetzt stimmt oder nicht, liegt wohl eher daran ob sich die Entwickler die das Ding momentan in der Hand haben verzettelt haben.

The_Invisible
2006-11-10, 11:42:37
Normal müsste man die Ati ab sofort mit HQAF und teilweise mit AI disabled ( man schaue FEAR) benchen um fair zu testen. Die jetzigen Reviews sind bis dato für die Katz die 8800gts würde dann noch viel deutlicher vorne liegen das ist ja mal Fakt.

naja, mit AI off würds gegen den G7x@HQ aber auch nicht gut ausschauen ;)

mfg

Black-Scorpion
2006-11-10, 12:07:35
Wenn es nur dann Sinn machen wuerde, gaebe es keinen einzigen Grund fuer die Existenz des Spekulationsforums. Nichtdestominder falls ich wirklich so gut waere beim Kaffeesatz-auslesen, muesste ich eine zweite Karriere daraus machen mit den bisherigen Erfolgs-raten.

Der bisherige Misserfolg im Mainstream-Segment ist ATI und Orton voll bewusst und es spiegelt sich auch wieder in oeffentlichen Aussagen. Das Thema ist dann eher was fuer Massnahmen sie dafuer gezogen haben. Und ja ob Du es einsehen willst oder nicht eine gut skalierbare Architektur mit maessiger Taktrate die man nur mit um einiges hoehere Frequenzen uebertrumpfen kann deutet nicht unbedingt in diese Richtung.

Ob das letztere jetzt stimmt oder nicht, liegt wohl eher daran ob sich die Entwickler die das Ding momentan in der Hand haben verzettelt haben.
Und was haben die R4xx/R5xxer damit zu tun?
Aber schön zu sehen wie du deine Schlüsse ziehst.
Bin mal gespannt was für Rätselraten über die Midrange Karten bei nVidia veranstaltet wird.
Die müssen ja dann bombig laufen weil es die alte ja auch getan haben.
Und woraus du deine Schlüsse ziehst und aus was du liest ist mir sowas von egal.
Spekulieren über etwas ist ja schön und gut, auf auf welcher Grundlage wird hier spekuliert?
Darauf was mit einer anderen Architektur passiert ist?
Darauf das sie den Fehler in der noch aktuellen Serie gemacht haben?
Denk mal daran wie bescheiden die Midrange Serie beim NV3x war.
Hat dich das auch veranlasst anzunehmen und zu spukulieren wie bescheiden die Midrange Karten beim NV4x laufen?

Man kann es sich auch einfach machen.

Ailuros
2006-11-10, 12:20:54
Und was haben die R4xx/R5xxer damit zu tun?
Aber schön zu sehen wie du deine Schlüsse ziehst.

Ohne jegliche Insider Infos wuerde ich ueberhaupt keine Schluesse ziehen. Ich sag nur stets dass was ich zu jedem Zeitpunkt als angebracht fuehle.

Bin mal gespannt was für Rätselraten über die Midrange Karten bei nVidia veranstaltet wird.
Die müssen ja dann bombig laufen weil es die alte ja auch getan haben.
Und woraus du deine Schlüsse ziehst und aus was du liest ist mir sowas von egal.

Dann glaub aber auch nicht dass mich Deine Meinung jetzt schert oder dass ich etwas an meinem Verhalten aendern werde.

Spekulieren über etwas ist ja schön und gut, auf auf welcher Grundlage wird hier spekuliert?

Steht in meiner Unterschrift.

Darauf was mit einer anderen Architektur passiert ist?
Darauf das sie den Fehler in der noch aktuellen Serie gemacht haben?

Nur einmal? Oder ist es eher eine Folge von einer Reihe an falschen Design-entscheidungen die sich konstant wiederholen?

Denk mal daran wie bescheiden die Midrange Serie beim NV3x war.

Trotz allem hat ATI nicht mehr in diesem Segment verkauft. Und das hat natuerlich nichts mit dem obrigen zu tun denn NV hat mit der DX9.0 Fahne gewedelt.

Hat dich das auch veranlasst anzunehmen und zu spukulieren wie bescheiden die Midrange Karten beim NV4x laufen?

Alles andere als bescheiden fuer ihre Zeit.

Man kann es sich auch einfach machen.

Ich mach es Dir noch einfacher: ich kann Dir leider nicht das sagen was Du eben hoeren willst. Was Dir jetzt nach all dem passt oder nicht ist ausschliesslich Dein Problem; Grund zur Panik gibt es sowieso keine.

Mr. Lolman
2006-11-10, 23:11:49
Keiner der obrigen Faelle ist so extrem und offensichtlich problematisch auf ALLEN Geforces wie Carbon. Ich glaube Du musst Dir schon was besseres einfallen lassen, denn das war kein besonders gelungener Versuch. Natuerlich koennen sie noch mehr aus den Treibern herausholen, aber dass heisst bei weitem nicht dass G80 nicht das liefert was man erwarten koennte.

Was erzählst du da? Es ging ursprünglich um die GTS!

Ailuros
2006-11-11, 08:47:55
Was erzählst du da? Es ging ursprünglich um die GTS!

Was soll sich daran grandios aendern an all dem vorigen? Die GTS ist auch auf allen Ebenen reduziert im Vergleich zur GTX.

Nochmal NFS Carbon ist eine Ausnahme, da das Ding aus welchem Grund auch immer zu langsam auf allen GeForces laeuft.

Mr. Lolman
2006-11-11, 10:44:02
Was soll sich daran grandios aendern an all dem vorigen? Die GTS ist auch auf allen Ebenen reduziert im Vergleich zur GTX.

Nochmal NFS Carbon ist eine Ausnahme, da das Ding aus welchem Grund auch immer zu langsam auf allen GeForces laeuft.

Das ist aber schon ewig so, dass ATi bei fast allen Rennspieln besser ist, als NV. Dass die GTS reduziert ist, ist klar, aber es ging Fetza in seinem Post um die GTS, was ich eben als Anlass sah, ein paar Benchmarks rauszusuchen. Ändern tun sich dabei alle deine Aussagen:

Quake4: auf der X1950XTX minimal flotter
FEAR: gleich schnell
SC: in der max Auflösung auf ATi um >18% schneller
Carbon: 7% flotter
B&W2, BF2, FC, HL2: gleich flott

The_Invisible
2006-11-11, 11:07:19
http://www.driverheaven.net/reviews/8800nvidiareviewx120/oblivion.php

die min fps machens, und das ist auch noch x1950 CF

mfg

sulak
2006-11-11, 11:24:10
Das ist aber schon ewig so, dass ATi bei fast allen Rennspieln besser ist, als NV. Dass die GTS reduziert ist, ist klar, aber es ging Fetza in seinem Post um die GTS, was ich eben als Anlass sah, ein paar Benchmarks rauszusuchen. Ändern tun sich dabei alle deine Aussagen:

Quake4: auf der X1950XTX minimal flotter
FEAR: gleich schnell
SC: in der max Auflösung auf ATi um >18% schneller
Carbon: 7% flotter
B&W2, BF2, FC, HL2: gleich flott

Ich halte das zwar für lächerlich, weil man je nach Standpunkt es sich zurecht legen kann, aber hier haste ein Gegenbeispiel:
http://firingsquad.com/hardware/nvidia_geforce_8800_preview/page19.asp

Wie wärs ihr wartet ab bis User hier im Forum Benchmarks durchführen, dann wird man sehen wie sich die Karten auf Alltagsmaschinen verhalten. Alles andere ist doch reine Zeitverschwendung, der eine zeigt diese Webseite der andere die, Hü und Hot...

Coda
2006-11-11, 11:27:19
Hauwech hat schon einen Anteil beantwortet; das andere was ich noch dazu spekulieren wuerde ist dass es 4*64 mem controller schon seit einer Ewigkeit gibt.

Ich tippe eben auf einen halben G80 und da dann auch die Hälfte der ROPs verbaut werden würde ;)

Ailuros
2006-11-11, 11:39:47
Ich tippe eben auf einen halben G80 und da dann auch die Hälfte der ROPs verbaut werden würde ;)

Wenn das Ding dann aber auch wirklich die Haelfte der ROPs brauchen wird.

Ailuros
2006-11-11, 11:54:48
Das ist aber schon ewig so, dass ATi bei fast allen Rennspieln besser ist, als NV.

Ach ja? Im Fall von den neuesten Spielen der NFS Serie, steht eben reicht zufaellig die motion trail Schmiererei (wobei die auch noch den Nerv haben das Zeug motion blur zu nennen) den Multisampling Buffern den Radeons besser.

Und obwohl die obrige Behauptung sowieso nicht zu 100% stimmt, denn man braucht als Beispiel fuer die engine die EA seit F1 2001 benutzte eher einen Schuss Supersampling um das verfutzte MIPmapping rechtzustellen, kackt ATI generell ganz schoen im Gegenteil in flight sims ab. Nur leider setzte sich noch keine Sau hin und hat diese Unterschiede gezeigt.

Dass die GTS reduziert ist, ist klar, aber es ging Fetza in seinem Post um die GTS, was ich eben als Anlass sah, ein paar Benchmarks rauszusuchen. Ändern tun sich dabei alle deine Aussagen:

Quake4: auf der X1950XTX minimal flotter
FEAR: gleich schnell
SC: in der max Auflösung auf ATi um >18% schneller
Carbon: 7% flotter
B&W2, BF2, FC, HL2: gleich flott

Und es ist das erste Mal dass eine GPU bei ihrer Vorstellung nicht das liefern was sie wirklich dazu faehig sind und das aus mehreren Gruenden? Dass die Treiber noch nachschieben werden ist ein Aspekt (ist aber nicht mit der Carbon Treiberblase zu vergleichen, weil diese zu extrem ist), der weitere ist wohl dass aus diesen Spielchen nicht allzu viel mehr rauszuholen ist usw usw.

Ich bin zu faul wie die anderen Gegenfaelle zu suchen, denn es ist sowieso nicht allzu schwer eine Realitaet so hinzubiegen wie es gerade einem passt.

Fuer ATI heisst es momentan "put up or shut up" und bei der kombinierten Leistungs- und zur gleichen Zeit Qualitaetssteigerung der G80 Familie werden sie es garantiert nicht leicht haben. Im Vergleich zu NV's eigenen GPUs liegt die 8800GTS sowieso auf sehr gutem Nivaeu trotz all dem was man in heutigen und zukuenftigen Applikationen noch rausquetschen koennte.

Oder anders: wir sollten diese Debatte wohl nochmal wiederholen wenn ATI ihren eigenen zweitrangigen R600 veroeffentlicht. Nur noch 4 Monate wenn alles nach Plan laeuft oder?

Coda
2006-11-11, 12:00:06
Wenn das Ding dann aber auch wirklich die Haelfte der ROPs brauchen wird.

Mehr wird nVIDIA bei einem Mainstream-Teil kaum verbauen.

Ailuros
2006-11-11, 12:03:20
Mehr wird nVIDIA bei einem Mainstream-Teil kaum verbauen.

Ich hab auch nicht mehr gemeint ;)

AnarchX
2006-11-11, 12:05:06
Mehr wird nVIDIA bei einem Mainstream-Teil kaum verbauen.

Ein Problem, was aber aus einem 192bit SI folgt wäre wieder die Speicherbestückung, so sind doch 384MB imo zu wenig und 768MB wäre schon wieder zuviel für eine Mainstream-Karte.
Aber zusammen mit GDDR4, werden die kommenden Mainstream-Karten auf jeden Fall eine sehr nette Speicherbandbreite haben.

Ailuros
2006-11-11, 12:11:27
Ein Problem, was aber aus einem 192bit SI folgt wäre wieder die Speicherbestückung, so sind doch 384MB imo zu wenig und 768MB wäre schon wieder zuviel für eine Mainstream-Karte.
Aber zusammen mit GDDR4, werden die kommenden Mainstream-Karten auf jeden Fall eine sehr nette Speicherbandbreite haben.

Zu was GDDR4 fuer den Anfang? Beispiel: 700MHz GDDR3@256bit = 44.8GB/sec

AnarchX
2006-11-11, 12:17:25
Zu was GDDR4 fuer den Anfang? Beispiel: 700MHz GDDR3@256bit = 44.8GB/sec

Hier kommt es ganz darauf an, ob es wirklich ein 256bit SI wird und wann genau die Mainstreamkarten kommen.
2007 wird imo doch nicht mehr viel GDDR3 bei >=Mainstream verbaut werden oder?

joe kongo
2006-11-11, 22:45:55
Da dürften dann demnach noch einige Treiberblasen zu entfernen sein. Hoffentlich gelingt ihnen das besser, als damals beim NV30 ;)

*Gibt sicher noch mehr, aber ich hatte kein Bock alle Reviews abzugrasen, deswegen auch 'nur' Scores aus 3 verschiedenen Reviews. Es kann auch sein, dass ich den ein oder anderen Benchmark übersehen hab, bei dem das Verhältnis ähnlich ist, aber mir gings nur darum, zu zeigen, dass das anscheinend doch nicht so wenig Ausnahmen sind.

Ähm, wenn ich mich auch mal einmischen darf, wer kauft sich für derart hohe Auflösungen nur eine GTS ?

Palpatin
2006-11-15, 18:14:17
Ich glaub das die kommenden Mid-Range Karten sich zwischen 1900XT und 7950 GT einordnen werden. Zummindest in aktuellen Games.

StefanV
2006-11-15, 18:27:54
Ich glaub das die kommenden Mid-Range Karten sich zwischen 1900XT und 7950 GT einordnen werden. Zummindest in aktuellen Games.
Ich nicht, eher zwischen x1600 und x1900.

seahawk
2006-11-15, 18:29:40
Also X1600 ist nicht mal mehr Midrange.

Palpatin
2006-11-15, 23:55:09
Naja grad bei neuern Spielen wie Oblivion Splintercell DarkMessiah Prey Carbon Gothic 3 usw ist die 7900er GT schon deutlich überfordert in 1680er Auflösung reichts in keinem der gennanten Games für AA denk das der G80 Mid Range da schon mehr Power hat.

paul.muad.dib
2006-12-04, 16:49:42
Naja grad bei neuern Spielen wie Oblivion Splintercell DarkMessiah Prey Carbon Gothic 3 usw ist die 7900er GT schon deutlich überfordert in 1680er Auflösung reichts in keinem der gennanten Games für AA denk das der G80 Mid Range da schon mehr Power hat.

Midrange ist eher nicht für Auflösungen oberhalb von 1280x1024 ausgelegt.

Imo ergibt sich aus dem aktuellen Preisgefüge schon, dass die Midrange Karten mindestens die Leistung einer X1950 XT/7900 GTX erreichen sollten. Denn erstere wird, sofern noch produziert zum Launchzeitpunkt genau in deren Preispunkt liegen. Gut, es bleibt noch der Vorteil von DX10, aber das zieht nur, solange die Karte nicht langsamer ist und ist für Midrange ohnehin nicht so entscheident.

Dazu kommen die Produktionskosten. Durch ein breiteres Speicherinterface und die hohe Transistorzahl + fehlende Produktionserfahrung wird die Herstellung wohl ähnlich viel kosten.


Andersherum, wenn der 8600 GT langsamer ist als die X1950 XT müsste sie sich mit der X1950 pro messen. Nach unten ist also auch weniger Platz, der bleibt nur nach oben.

Gmax
2006-12-07, 22:31:01
Wird es zusammen mit dem R600 auch eine Mid Range DX 10 Karte von Ati geben?
Oder will man das Nvidia überlassen:cool:

paul.muad.dib
2006-12-07, 22:33:53
Wird es zusammen mit dem R600 auch eine Mid Range DX 10 Karte von Ati geben?
Oder will man das Nvidia überlassen:cool:

Die Frage ist nicht ob, sondern wann. Aktuell hat AMD/ATI ja ganz gut Midrange Karten.

Gmax
2006-12-07, 22:52:41
Naja, ich dachte da an eine DX10 fähige X2600 Pro ( wie auch immer sie heißen möge ).
Irgenwelche Infos?
Inquirer hat ja mal was darüber geschrieben (http://theinquirer.net/default.aspx?article=34627), aber nicht wann sie kommen sollen, oder aber sie wurden mal wieder von diversen "Informanten" verarscht.

Von Nvidia weiss man, daß mit der Einführung des 8800
Refresh auch Mid Range Karten kommen werden.

Ich hoffe, ATI kann dann auch was vorzeigen...

DrumDub
2006-12-08, 13:02:20
Ich hoffe, ATI kann dann auch was vorzeigen... bei amd/ati kommen die midrangekarten wohl erst im h207... die von nv kommen wohl im märz 07... logischerweise hinkt amd/ati da wieder hinterher.

Godmode
2006-12-08, 13:07:41
bei amd/ati kommen die midrangekarten wohl erst im h207... die von nv kommen wohl im märz 07... logischerweise hinkt amd/ati da wieder hinterher.

Warum ist es nicht möglich die Midrange Karten gleich mit den Highend Karten einzuführen? Das wäre doch die optimale Politk, somit könnte der Markt mit einem Launch erschlagen werden!

paul.muad.dib
2006-12-08, 19:02:18
Warum ist es nicht möglich die Midrange Karten gleich mit den Highend Karten einzuführen? Das wäre doch die optimale Politk, somit könnte der Markt mit einem Launch erschlagen werden!

Man will ja zunächst die Restbestände an alten High-End Karten abverkaufen.

Godmode
2006-12-08, 19:07:40
Man will ja zunächst die Restbestände an alten High-End Karten abverkaufen.

Ok, das klingt plausibel!

Gmax
2006-12-08, 22:02:31
Man will ja zunächst die Restbestände an alten High-End Karten abverkaufen.

Das müsste dann aber auch für nvidia gelten...
Schade :(

The_Invisible
2006-12-08, 23:17:07
Das müsste dann aber auch für nvidia gelten...
Schade :(

nvidia macht das schon seit über einem monat

mfg

Byteschlumpf
2006-12-10, 01:43:00
Aufgrund der Beschränktheit der Auflösung auf 1280x1024 meines 19" TFTs bin ich auch nur an Karten interessiert, die bei dieser Auflösung auch noch gut mit hohen AA + AF Werten unterwegs sind.

Derzeit nutze ich eine X800XT zusammen mit einem E6300, wobei die Karte später am liebstem durch eine obere Midrange DX10 Karte ersetzt werden sollte.

Wie seht ihr das?
Würde eine X1950Pro, X1950XT oder 7950GT einen deutlich schnelleren Ersatz für eine X800XT darstellen (Nutzungszeitraum etwa 12Monate) oder lohnt sich das Warten auf schnellere DX10 Modelle?

Man will ja zunächst die Restbestände an alten High-End Karten abverkaufen.
7950GX2 für 200 Öken! :tongue:

Gast
2006-12-10, 12:57:21
Wie seht ihr das?
Würde eine X1950Pro, X1950XT oder 7950GT einen deutlich schnelleren Ersatz für eine X800XT darstellen (Nutzungszeitraum etwa 12Monate) oder lohnt sich das Warten auf schnellere DX10 Modelle?Wenn du mit der x800xt noch ein paar Monate auskommst, würde ich warten bis die 8800GTS oder ein R600-Derivat zu einem günstigen Preis erhältlich sind.

Ansonsten kannst dir ruhig eine x1950xt oder eine 7950GT holen. Die x1950pro wäre mir zu langsam, wenn man von einer x800xt ausgeht.

Ich persönlich werde meine 7800GTX/256 behalten bis man eine 8800GTX zu einem guten Preis bekommt.

deekey777
2006-12-10, 14:19:29
Wird es zusammen mit dem R600 auch eine Mid Range DX 10 Karte von Ati geben?
Oder will man das Nvidia überlassen:cool:
Die Midrange-G80er sollen im März kommen (sie werden wahrscheinlich in 80 nm gefertigt, auch das kann ein Grund für den verzögerten Start sein - nicht nur der Abverkauf der G70er).
Ich hoffe, wir sehen irgendwann im Frühling die Midrange-Grafikkarten von AMD.

seahawk
2006-12-10, 15:04:05
Wenn selbst NV erst im März damit rauskommt ? Vor 2HJ07 erwarte ich nichts handfestes von AMD/ATI.

Mr.Soapdown
2006-12-17, 12:58:00
Kommt wahrscheinlich darauf an ob man mit 192bit genauso viele Layer wie mit 256bit braucht oder nicht. Wenn es genauso viele sind, dann kann ich mir durchaus eine 8600GT mit 256bit und eine 8600GS mit 192bit vorstellen um die von einander, neben Taktraten, weiter abzugrenzen. Die Palette wird dann vielleicht mit 128bit nach unten abgerundet. Trotzdem denke ich, wir werden wieder 64bit Karten sehen.

Wenn ich sowas lese wird mir übel, bestimmt nicht weil du unrecht hast. Diese Speku trifft´s doch schon gut.

Der Trend ist doch für jede 50€ Preisunterschied eine eigene VGA "zu machen".

Gast
2006-12-17, 13:06:15
Der Trend ist doch für jede 50€ Preisunterschied eine eigene VGA "zu machen".Was ist denn daran so verkehrt? Du hast so mehr Auswahl und kannst dir dann das Modell raussuchen, das dir am ehesten zusagt.

Palpatin
2006-12-17, 16:24:47
Kam die x1600 und x1300 nicht ca. zeitgleich mit der x1800 oder hab ich da was falsch in erinnerung .... gibts konkrete quellen das zum R600 launch nicht gleich auch midrange erscheinen.

croatianlegend
2006-12-17, 17:06:48
wenn man bedenkt wie die 7600GT am markt eingeschlagen hat oder die 6600GT würds mich nicht wundern wenn die "8600GT" wie auch immer.. die jetzigen top karten ablösen..bzw gleich auf wären..

AnarchX
2006-12-17, 17:11:06
Kam die x1600 und x1300 nicht ca. zeitgleich mit der x1800 oder hab ich da was falsch in erinnerung .... gibts konkrete quellen das zum R600 launch nicht gleich auch midrange erscheinen.

Korrekt sie kamen zum gleichen Zeitpunkt, aber X1600 war eher unteres Midrange und X1300 LowEnd, welche eher Konkurrenz zu vergleichbaren Produkten aus der GeForce6-Serie waren.
Das richtige Midrangeprodukt kam erst mit der X1650XT im Oktober 2006, also ein Jahr später...

Mr.Soapdown
2006-12-18, 09:16:59
Was ist denn daran so verkehrt? Du hast so mehr Auswahl und kannst dir dann das Modell raussuchen, das dir am ehesten zusagt.

Verkehrt an der übertriebenen Modellvielfalt ist, daß die Unterschiede für den Laien nicht erkennbar sind. Wilde Monster auf den Packungen suggerieren, dass es sich um eine super Gamerkarte handelt, obwohl das gute Stück nur für´s Büro geeignet ist.

Recht hast du nur in Bezug auf den informierten Käufer.

Cubitus
2006-12-18, 09:55:53
naja nicht immer, bei der X300 war ein trauriges Alien drauf:D

aths
2006-12-18, 12:01:46
Verkehrt an der übertriebenen Modellvielfalt ist, daß die Unterschiede für den Laien nicht erkennbar sind. Wilde Monster auf den Packungen suggerieren, dass es sich um eine super Gamerkarte handelt, obwohl das gute Stück nur für´s Büro geeignet ist.

Recht hast du nur in Bezug auf den informierten Käufer.ELSA hatte mal eine GeForce 2 MX 200 mit einem Joystick gebundelt – für mich die Krönung in Sachen Dreistigkeit.

Ein Problem, was aber aus einem 192bit SI folgt wäre wieder die Speicherbestückung, so sind doch 384MB imo zu wenig und 768MB wäre schon wieder zuviel für eine Mainstream-Karte.
Aber zusammen mit GDDR4, werden die kommenden Mainstream-Karten auf jeden Fall eine sehr nette Speicherbandbreite haben.Über kurz oder lang könnte es beides geben – 192 Bit und 256 Bit. Sicherlich wird dann diskutiert werden, was nun das wahre Mainstream-Modell ist. Mainstream dürte aber eher eine "8200" werden. Mittelklasse ist nicht unbedingt Mainstream.

Gast
2006-12-18, 12:27:44
Verkehrt an der übertriebenen Modellvielfalt ist, daß die Unterschiede für den Laien nicht erkennbar sind. Wilde Monster auf den Packungen suggerieren, dass es sich um eine super Gamerkarte handelt, obwohl das gute Stück nur für´s Büro geeignet ist.

Recht hast du nur in Bezug auf den informierten Käufer.Ja, da hast du natürlich nicht ganz unrecht. Allerdings ist mein Verständnis für uninformierte Käufer nicht sonderlich groß. Ich habe auch keinen Plan von Kühlschränken, trotzdem informiere ich mich vor dem Kauf oder gehe eben in ein Fachgeschäft (also kein MM oder Saturn) und lasse mich beraten.

Mr.Soapdown
2006-12-18, 13:43:21
Ja, da hast du natürlich nicht ganz unrecht. Allerdings ist mein Verständnis für uninformierte Käufer nicht sonderlich groß. Ich habe auch keinen Plan von Kühlschränken, trotzdem informiere ich mich vor dem Kauf oder gehe eben in ein Fachgeschäft (also kein MM oder Saturn) und lasse mich beraten.

Leider wird´s jetzt OT (splitten ??).

Nein nicht splitten...... abschließend von mir, denn wir könnten uns alle lang drüber unterhalten.

Klar auch da hast du Recht. Ich nehme sogar die Verkäufer hinter der Ladentheke mit ins Boot. Echte Aufklärung findet selten statt, teilweise weil der Käufer einen Dickkopp hat und es eigentlich garnicht wissen will.


@Topic

Beispiel: ein ehemaliger Händler hatte nur 3 oder 4 CPU-Ausführungen im Regal. Nur die Eckpfeiler sozusagen:

Einstieg 1700+, Middle 2600+ und Highend 3200+, alle Zwischenstufen lohnen nicht wirklich.

Soetwas ist sicher auch übertragbar auf VGA´s und liegt klar in der Verantwortung des Verkäufer´s.

Wieviel Ausführungen gibt es denn wirklich zwischen 45 und 500 Euo eines Chipsatzherstellers? Habe mir da noch keine Gedanken gemacht. Selbst im mittleren Bereich doch wohl 4 Abstufungen.

Undertaker
2006-12-18, 14:20:45
ELSA hatte mal eine GeForce 2 MX 200 mit einem Joystick gebundelt – für mich die Krönung in Sachen Dreistigkeit.

hmm... da möchte ich mal meine 6200le tc (32bit si, 266mhz :D) zitieren:

"Get the latest effects without compromising performance"
"...delivers blazing speeds on next-generation, shadow-intensive games like Doom 3"
"People with high blood pressure, a back or heart condition should not use this card; the unmatched graphics quality may be too exhilarating and realistic"

;D

Gast
2006-12-18, 14:23:37
"People with high blood pressure, a back or heart condition should not use this card; the unmatched graphics quality may be too exhilarating and realistic"XFX? Fast der gleiche Text steht auch bei meiner 7800GTX auf der Packung.

Mr.Soapdown
2006-12-18, 14:33:22
Ich möchte auf die News hinweisen. Bei orthy.de gibbet was nett-frech Geschriebenes zu 1950er Karten.

Undertaker
2006-12-18, 14:51:51
XFX? Fast der gleiche Text steht auch bei meiner 7800GTX auf der Packung.

jop... schon interessant das die die 6200le mit der 7800gtx gleichsetzen :D

Gast
2006-12-18, 16:13:33
Ja, da hast du natürlich nicht ganz unrecht. Allerdings ist mein Verständnis für uninformierte Käufer nicht sonderlich groß. Ich habe auch keinen Plan von Kühlschränken, trotzdem informiere ich mich vor dem Kauf oder gehe eben in ein Fachgeschäft (also kein MM oder Saturn) und lasse mich beraten.

die beratung hilft dir auch nix wenn die karte mutwillig kastriert und alle spuren dahin auf der verpackung verschleiert werden