PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GT - Performance D3D10 in 65nm im Oktober?


Seiten : 1 [2] 3 4 5

Gast
2007-10-11, 12:51:25
Bei 1000Mhz GDDR4 ergibt sich 64GB/s

Wie hoch willst du denn RAM noch prügeln?

AnarchX
2007-10-11, 12:52:05
Vielleicht bietet ja G92 mit seinem Design eine Möglichkeit eine TF zu deaktivieren, sodass in der GT nur 28TA/TFs aktiv sind?

Da hätten wir 9.6GPix, 16.8GTex und halt 504GFLOPs (um sich gegen den RV670 richtig zu behaupten) und eben 58GB/s, was zu einem Preis von $249 wieder passen würde und halt auch zur Bandbreite. :uponder:

dargo
2007-10-11, 12:52:18
Ich sehe nichts schlaues daran, einen schnellen Chip zu entwicklen, der dann an der Bandbreite verhungert.

Er verhungert nicht an Bandbreite sondern das Verhältnis zum G80 ist etwas geringer.


Und so blöd ist nV sicher auch nicht.

Wie blöd muss dann AMD bei der R6x0 Reihe gewesen sein wenn bei vorhandener Bandbreite unter Verwendung von AA eh nichts bei rumkommt? :D

Bei 1000Mhz GDDR4 ergibt sich 64GB/s

Wie hoch willst du denn RAM noch prügeln?
Wenn man 1Ghz braucht wozu dann GDDR4? Das macht auch GDDR3 locker mit. Bei GDDR4 müssten schon 1,2Ghz bei rumkommen damit sich das auch lohnt.

Gast
2007-10-11, 12:57:55
Wie blöd muss dann AMD bei der R6x0 Reihe gewesen sein wenn bei vorhandener Bandbreite unter Verwendung von AA eh nichts bei rumkommt? :D

Wenn ein 256Bit SI zu wenig ist, dann kann ATI mit einem 512bit SI die Probleme eines krummen SI umgehen.



Wenn man 1Ghz braucht wozu dann GDDR4? Das macht auch GDDR3 locker mit. Bei GDDR4 müssten schon 1,2Ghz bei rumkommen damit sich das auch lohnt.
Das macht dann 76,GB/s :)

dargo
2007-10-11, 12:59:02
Wenn ein 256Bit SI zu wenig ist, dann kann ATI mit einem 512bit SI die Probleme eines krummen SI umgehen.

Was für Probleme?

Ailuros
2007-10-11, 13:02:30
Ich sehe nichts schlaues daran, einen schnellen Chip zu entwicklen, der dann an der Bandbreite verhungert. Und so blöd ist nV sicher auch nicht.

reunion

Es liegt mehr an der Z-Fuellrate als an der Bandbreite. Eine 2900PRO hat zwar auf Papier etwa genau soviel z-fill wie eine 8800GT, aber auweia wenn man auf der ersten entweder 4xMSAA oder shadowmaps benuetzen wuerde.

R6x0 verhungern an z-fill hauptsaechlich IMHO; da kann es scheissegal sein ob eine 8800GT nun 51GB oder eine heutige 8800GTS 64GB Bandbreite hat. Die 25% Unterschied fuer die Bandbreite sind Kruemeln im Vergleich zum Z-Fill Unterschied zwischen 8800GT und 2900PRO in Echtzeit.

Was soll den in diesem Sinn eine 2900PRO sein? Bandbreiten-ueberfuettert? LOL ;)

Gast
2007-10-11, 13:02:46
Was für Probleme?
Spekulation. ;)

Ailuros
2007-10-11, 13:04:47
Mit 7 Cluster und Taktraten von 600/1500/900 würde sie fast die GTX schlagen. Also doch weniger Cluster?

reunion

Eine 8800GT ist 8800GTS/320 Ersatz; zu etwas guenstigerem Preis und etwas mehr Leistung. Kein GTX-Vergleichs-Material. Fuer solche Modelle muss man noch ein paar Monate abwarten.

Ailuros
2007-10-11, 13:06:38
Spekulation. ;)

Das krumme SI ist nicht nur aeusserst billig sondern auch ziemlich flexibel. Es ist wohl eher ein Vorteil als ein "Problem".

Gast
2007-10-11, 13:09:04
Das krumme SI ist nicht nur aeusserst billig sondern auch ziemlich flexibel. Es ist wohl eher ein Vorteil als ein "Problem".
Dafür ist es sicher schwieriger einen Chip für das krumme SI startklar zu machen als es einfach zu verdoppeln. ;)
Und der VRAM-Bug ...

dargo
2007-10-11, 13:10:47
Das krumme SI ist nicht nur aeusserst billig sondern auch ziemlich flexibel. Es ist wohl eher ein Vorteil als ein "Problem".
Der Gast im Post #254 wollte damit wohl auf den angeblichen "Vram-Bug", der überwiegend bei der G8800GTS 320 auftreten soll, hinweisen. Bis heute habe ich keinen Beweis gesehen, dass es überhaupt einen solchen Bug gibt.

Und der VRAM-Bug ...
Was habe ich gesagt. ;D

Henroldus
2007-10-11, 13:10:54
Bei 1000Mhz GDDR4 ergibt sich 64GB/s

Wie hoch willst du denn RAM noch prügeln?
1000MHZ hatte schon die X1950XTX vor über einem Jahr und (schneller)Speicher ist seit dem verdammt günstig geworden.

AnarchX
2007-10-11, 13:11:06
http://img516.imageshack.us/img516/4682/06ex1.jpg
http://news.expreview.com/2007-10-11/1192099246d3907.html

dargo
2007-10-11, 13:12:52
http://img516.imageshack.us/img516/4682/06ex1.jpg
http://news.expreview.com/2007-10-11/1192099246d3907.html
Nicht schlecht, jetzt hätte ich gerne das selbe aber bitte nochmal mit 4xAA/16xAF. :)

Gast
2007-10-11, 13:14:13
1000MHZ hatte schon die X1950XTX vor über einem Jahr und (schneller)Speicher ist seit dem verdammt günstig geworden.
Gut und was soll dann der Mist, von wegen die Bandbreite reicht nicht für AA?

Dann reicht sie doch. :)

Henroldus
2007-10-11, 13:16:32
http://img516.imageshack.us/img516/4682/06ex1.jpg
http://news.expreview.com/2007-10-11/1192099246d3907.html
das ist nur der 05er und das noch mit nem E6600@3,6GHz also nix mit 10k+ im 3DMark06 :frown:
faguckt :hammer:
zum Glück

dargo
2007-10-11, 13:17:16
Gut und was soll dann der Mist, von wegen die Bandbreite reicht nicht für AA?

Dann reicht sie doch. :)
Natürlich reicht sie. Das einzige was passieren könnte wäre, dass die G8800GT in höheren Auflösungen mit AA im Verhältnis zur alten G8800GTS 640 etwas langsamer wird (natürlich solange der Vram nicht limitiert) als ohne. Dafür muss man aber erstmal vernünftige Game-Benches abwarten.

das ist nur der 05er und das noch mit nem E6600@3,6GHz also nix mit 10k+ im 3DMark06 :frown:
Hast du was mit den Augen? :)
Ich sehe da eindeutig 3DMark06.

Edit:
Ups, selbst den Fehler entdeckt. :D

Gast
2007-10-11, 13:18:24
Eine 8800GT ist 8800GTS/320 Ersatz; zu etwas guenstigerem Preis und etwas mehr Leistung. Kein GTX-Vergleichs-Material. Fuer solche Modelle muss man noch ein paar Monate abwarten.

Eben, damit kann man die 7 Cluster schonmal vergessen.

reunion

Gast
2007-10-11, 13:19:39
;5921643']Wenn interessiert der Name wenn die Performace stimmt?

Mich, weil nV sich die Namen nicht zusammenschnaps sondern das auch einen Sinn hat.

reunion

Ailuros
2007-10-11, 13:21:14
Eben, damit kann man die 7 Cluster schonmal vergessen.

reunion

Wieso vergessen? Das Resultat heisst dann eben ganz einfach 8800GTS und nicht GT ;)

Gast
2007-10-11, 13:23:16
Wieso vergessen? Das Resultat heisst dann eben ganz einfach 8800GTS und nicht GT ;)

Natürlich, aber die kostet dann auch entsprechend mehr. Die Folie hinten sagte ja aus das die 8800GT 7 Cluster mit 600/1500/900 zu Preisen unter 250$ bekommt

reunion

GeneralHanno
2007-10-11, 13:30:02
die 3Dmurks 05 und 06 ergebnisse liegen auf niveau einer 8800ULTRA (mit C2D@3,44GHz). das wäre in der tat nicht schlecht. stellt sich also die frage, wie es mit der AA/AF performence aussieht.

Gast
2007-10-11, 13:30:52
Natürlich, aber die kostet dann auch entsprechend mehr. Die Folie hinten sagte ja aus das die 8800GT 7 Cluster mit 600/1500/900 zu Preisen unter 250$ bekommt
reunion

Und warum soll das nicht gehen? AMD verkauft auch bald 2900XT Karten für ca. 250$, da soll es bei nVidia nicht möglich sein, das gleiche zu machen?

LovesuckZ

Gast
2007-10-11, 13:32:43
Dafür ist es sicher schwieriger einen Chip für das krumme SI startklar zu machen als es einfach zu verdoppeln. ;)

Hä? Wieso sollte es schwieriger sein? Es hängt alles an der Zahl der ROP-Partitionen zusammen. Das Interface ist so flexible, dass man sehr einfach in 64bit Schritten skalieren kann. Siehe dazu auch die 8800GTS.


Und der VRAM-Bug ...

Was hat der nochmal mit dem Speicherinterface zu tun?

LovesuckZ

Ailuros
2007-10-11, 13:34:56
Und warum soll das nicht gehen? AMD verkauft auch bald 2900XT Karten für ca. 250$, da soll es bei nVidia nicht möglich sein, das gleiche zu machen?

LovesuckZ

PRO oder XT? :confused:

Jeglicher Vergleich ist sowieso etwas merkwuerdig; NVIDIA will weiterhin Gewinn machen und AMD eben gerade nicht allzu hohe rote Zahlen abschreiben. Im zweiten Fall kann man eventuell sogar sehr nahe an den Unkosten verkaufen.

Gast
2007-10-11, 13:36:40
PRO oder XT? :confused:


Die Pro ist eine XT, jedenfalls kostet eine Pro ATi genauso viel wie eine XT.

MfG :cool:

Gast
2007-10-11, 13:41:43
PRO oder XT? :confused:

Jeglicher Vergleich ist sowieso etwas merkwuerdig; NVIDIA will weiterhin Gewinn machen und AMD eben gerade nicht allzu hohe rote Zahlen abschreiben. Im zweiten Fall kann man eventuell sogar sehr nahe an den Unkosten verkaufen.

Mir ging es eher um die X2950gt/pro/whatever.
Für Reunion ist es vollkommen logisch, dass man solch eine 2950pro (vollwertiger Core mit 750MHz/1800Mhz @ 256bit und 512mb) für 250$ verkaufen kann, aber es bei nVidia ein Unding wäre ein 7 Cluster G92 für den selben Preis in den Markt zubringen.

LovesuckZ

GeneralHanno
2007-10-11, 13:42:26
warum sollten 200$ nicht realistisch sein?

die 2900GT kostet so viel wie eine 2900xt (512bit PCB + 80nm-die + dualslotkühler) und wird trotzdem für 199$ auf den markt gebracht.

warum sollten 200$ für die 2950pro / 8800GT nicht passen: 256bit PCB + 55/65nm-die + singelslotkühler)

Gast
2007-10-11, 13:51:50
Er verhungert nicht an Bandbreite sondern das Verhältnis zum G80 ist etwas geringer.


Ich weiß schon. Nur dein Beitrag klang für mich so als ob nV absichtlich zu wenig Bandbreite bereitstellt da man das nicht braucht um mit der Konkurrenz mitzuhalten.


Wie blöd muss dann AMD bei der R6x0 Reihe gewesen sein wenn bei vorhandener Bandbreite unter Verwendung von AA eh nichts bei rumkommt? :D


Darum gings doch gar nicht. Das 512-bit Si war zumindest im Desktopmarkt zweifellos nicht die schlauste Entscheidung.

Gast
2007-10-11, 13:53:56
Und warum soll das nicht gehen? AMD verkauft auch bald 2900XT Karten für ca. 250$, da soll es bei nVidia nicht möglich sein, das gleiche zu machen?

LovesuckZ

Weil das weder zum Namen noch zum Verkaufspreis passt. Es ging nicht darum ob es aus wirtschaftlicher Sicht gehen würde.

reunion

AnarchX
2007-10-11, 13:54:56
aber es bei nVidia ein Unding wäre ein 7 Cluster G92 für den selben Preis in den Markt zubringen.

Naja, mit diesen Specs ist die 8800 GT wohl deutlich schneller als die 2950Pro und G92 wird wohl eben der 290mm² Die sein, was einiges mehr sind als die 194mm² bei ATi.

Gast
2007-10-11, 13:55:51
Für Reunion ist es vollkommen logisch, dass man solch eine 2950pro (vollwertiger Core mit 750MHz/1800Mhz @ 256bit und 512mb) für 250$ verkaufen kann, aber es bei nVidia ein Unding wäre ein 7 Cluster G92 für den selben Preis in den Markt zubringen.

LovesuckZ

Nein, das behauptest ganz alleine du, ich habe dies nirgends gesagt.

reunion

Gast
2007-10-11, 13:57:35
Naja, mit diesen Specs ist die 8800 GT wohl deutlich schneller als die 2950Pro und G92 wird wohl eben der 290mm² Die sein, was einiges mehr sind als die 194mm² bei ATi.

Das interessiert doch Lovesuckz gar nicht.

reunion

Gast
2007-10-11, 14:00:54
Naja, mit diesen Specs ist die 8800 GT wohl deutlich schneller als die 2950Pro und G92 wird wohl eben der 290mm² Die sein, was einiges mehr sind als die 194mm² bei ATi.

BTW, laut AiL soll die 8800GT weiterhin die 8800GTS 320MB ersetzen, die 7 Cluster erscheinen da alles andere als logisch. Ich glaube weiterhin das bei der 8800GT nur vier-fünf Cluster aktiviert sind und es eben auch eine 8800GTS auf G92 Basis geben wird, zu einem höheren Preis versteh sich.

Hvoralek
2007-10-11, 14:01:10
Fudo labert (zum Vergleich) was von "HD2950XT scores 528 Gigaflops (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3573&Itemid=34)" aber auch immer wieder von 65nm :confused: obwohl die 55nm für ATI Chips doch klar sein solltenNaja, zumindest rechnen kann der Mann anscheinend (64*5*2*0,825 = 528).

Wo steht denn da etwas von 65 nm?

Gast
2007-10-11, 14:02:54
Nein, das behauptest ganz alleine du, ich habe dies nirgends gesagt.
reunion

Natürlich. Du gehst immer nur vom Namen aus, ohne alle Informationen zu kennen.
Die größe des DIE spielt nur dann eine Rolle, wenn nVidia nicht mehr den von ihnen erwünschten Preis erhält. Alles andere spielt keine Rolle.

Gast
2007-10-11, 14:06:45
Natürlich. Du gehst immer nur vom Namen aus, ohne alle Informationen zu kennen.
Die größe des DIE spielt nur dann eine Rolle, wenn nVidia nicht mehr den von ihnen erwünschten Preis erhält. Alles andere spielt keine Rolle.

Der Name ist auch so ziemlich das einzige, was sicher ist. Und dieser sagt klar aus wo sich die Karte innerhalb der Reihe positioniert. Sowohl die Leistung als auch der Preis wird sich daran orientieren.

reunion

seahawk
2007-10-11, 14:09:08
BTW, laut AiL soll die 8800GT weiterhin die 8800GTS 320MB ersetzen, die 7 Cluster erscheinen da alles andere als logisch. Ich glaube weiterhin das bei der 8800GT nur vier-fünf Cluster aktiviert sind und es eben auch eine 8800GTS auf G92 Basis geben wird, zu einem höheren Preis versteh sich.

Wer sagt, dass ein Ersatz nur die gleiche Performance haben darf ? Die 8800GT bedient das gleiche Marktsegment ist aber eben eine Refreshgeneration weiter.

Wobei ich bei der Leistung ungefähr die Mitte zwischen 8600GTS und 8800 GTS 320Mb erwarte. 4 Cluster, 64SP mehr nicht.

Gast
2007-10-11, 14:09:48
Die größe des DIE spielt nur dann eine Rolle, wenn nVidia nicht mehr den von ihnen erwünschten Preis erhält. Alles andere spielt keine Rolle.

Der von nV erwünschte Preis für das Die hat zwangsläufig einen großen Einfluss auf den finalen Verkaufspreis.

reunion

Gast
2007-10-11, 14:10:29
Der Name ist auch so ziemlich das einzige, was sicher ist. Und dieser sagt klar aus wo sich die Karte innerhalb der Reihe positioniert. Sowohl die Leistung als auch der Preis wird sich daran orientieren.
reunion

Du hast keine Ahnung, wie nVidia das Schema der Namensvergabe weiterführt. Vielleicht wollen sie den überaus populären Namen "8800" weiterverwenden?
Es macht auch, wenn du wirklich über finanzielle Aspekte reden willst, keinen Sinn, eine Karte mit einem Chip weiterzuführen, der in der Produktion wesentlich teurer ist.

Gast
2007-10-11, 14:11:45
Der von nV erwünschte Preis für das Die hat zwangsläufig einen großen Einfluss auf den finalen Verkaufspreis.
reunion

Aha. nVidia denkt sich schon etwas, vielleicht glaubst du das nicht, weil sie für dich anscheinend kein so gutes, wirtschaftlich starkes Unternehmen wie AMD sind.

LovesuckZ

dargo
2007-10-11, 14:14:17
Wobei ich bei der Leistung ungefähr die Mitte zwischen 8600GTS und 8800 GTS 320Mb erwarte. 4 Cluster, 64SP mehr nicht.
Wie soll das:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5921701&postcount=263

damit möglich sein?

Gast
2007-10-11, 14:17:04
Aha. nVidia denkt sich schon etwas, vielleicht glaubst du das nicht, weil sie für dich anscheinend kein so gutes, wirtschaftlich starkes Unternehmen wie AMD sind.

LovesuckZ

Das hat wiedermal nichts, aber auch gar nichts mit meinem Beitrag zu tun. Ich werde in Zukunft nicht mehr auf deine Beiträge eingehen, da du außer Unterstellungen ohnehin nichts zu sagen hast.

reunion

seahawk
2007-10-11, 14:18:06
Fake, falsche GPU-ID, ne andere Version von G92 als die 8800GT.....

Es sit undenkbar, dass NV einen deutlich größeren Chip, der deutlich leistungsfähiger ist für weniger Geld verkaufen kann als ATI den RV670 der zusätzlich noch in 55nm kommt. Wenn das Ding so stark wärem hätte sie es 8850GT oder 8900GTS oder was auch immer genannt, aber sicher nicht unter dem bekannten Produkt 8800GTS angeordnet.

AnarchX
2007-10-11, 14:18:57
Vielleicht hat NV seine Zählweise geändert, 64 MADD-SPs + 48 MUL-SPs, die anderen 16 MUL-SPs sind stets für SFUs/Interpolationen gebunden...;D

Wobei dann wieder die 1.5GHz und die 12k im 3DMark nicht wirklich passen.

Naja, imo sieht es ganz danach aus, dass NV einen nie da gewesenen Preis-Leistungskracher für $249 bringen wird, was aber auch gewisse Folgen, wie schon erwähnt, für die Zukunf haben könnte...

Gast
2007-10-11, 14:20:15
Wenn das Ding so stark wärem hätte sie es 8850GT oder 8900GTS oder was auch immer genannt, aber sicher nicht unter dem bekannten Produkt 8800GTS angeordnet.

Mit Logik kommst du hier nicht weit.

Henroldus
2007-10-11, 14:22:32
Naja, zumindest rechnen kann der Mann anscheinend (64*5*2*0,825 = 528).

Wo steht denn da etwas von 65 nm?
hier:
What's improved on RV670 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3570&Itemid=34)
"The RV670 is a redesigned and improved R600 core done in 65 nanometre with official support for PCIe 2.0"
(ein anderer Artikel)

LovesuckZ
2007-10-11, 14:25:57
Das hat wiedermal nichts, aber auch gar nichts mit meinem Beitrag zu tun. Ich werde in Zukunft nicht mehr auf deine Beiträge eingehen, da du außer Unterstellungen ohnehin nichts zu sagen hast.
reunion

Natürlich hat der Beitrag etwas mit deinem zu tun. Du unterstellst nVidia doch gerade Unfähigkeit. Sie verkauften 480mm² Chip gewinnbringend für ca. 400€. Nun soll es für sie nicht möglich sein einen ca. 280mm² für 250€ mit gleichbleibender bzw. sogar höhrerer Marge zu verkaufen? :rolleyes:

Die gelbe Eule
2007-10-11, 14:48:16
NV hat diesmal wieder den Vorteil früher zu liefern als ATi und gerade das wird einen ordentlichen Schub geben. Wenn der RV670 draußen ist, passen sich die Preise von alleine an.

seahawk
2007-10-11, 14:50:00
14 Tage, wenn NV einen Hardlaunch hinkriegt, was zweifelhaft ist.

dildo4u
2007-10-11, 14:50:45
Lustig wie manche denken NV würd sich die Butter vom Brot nehmen lassen im Refresh Battle mit einer so überlegenen Basis wie dem G80. :rolleyes: Was hats eigentlich beim R600 gebracht das man die neuere unerprobtere Fertigungstechnologie genutzt hat?

Coda
2007-10-11, 14:52:43
14 Tage, wenn NV einen Hardlaunch hinkriegt, was zweifelhaft ist.
Es gibt nur noch Hardlaunches von nVIDIA.

Winter[Raven]
2007-10-11, 14:52:44
Seahawk ... im Gegensatz zu ATI konnte Nvidia in letzter Zeit was Handfestes liefern... lehn dich nicht zuweit aus dem Fenster.

Die gelbe Eule
2007-10-11, 14:54:05
Die ATiler bekommen hier das Flattern, da wohl nicht das bei rot erscheint, was bei grün günstiger über die Theke kommt.

Adam D.
2007-10-11, 15:01:11
Die ATiler bekommen hier das Flattern, da wohl nicht das bei rot erscheint, was bei grün günstiger über die Theke kommt.
Wäre es umgekehrt, würdest du auch das Flattern kriegen ;)

Ich hoffe sehr auf einen Hardlaunch, aber von Nvidia ist man in der Regel nicht anderes gewohnt. Die Karte wird 'n starkes Stück, ATi wird mit dem RV670 adequat kontern, die Preise regeln sich und der Kunde hat eine tolle Ausgangssituation. Gute Verhältnisse.

Gast
2007-10-11, 15:03:37
Die Karte wird 'n starkes Stück, ATi wird mit dem RV670 adequat kontern, die Preise regeln sich und der Kunde hat eine tolle Ausgangssituation. Gute Verhältnisse.
Hoffentlich.

Noch einmal ein G80 ähnliches Jahr würde ich nicht aushalten. :)

Adam D.
2007-10-11, 15:06:43
Hoffentlich.

Noch einmal ein G80 ähnliches Jahr würde ich nicht aushalten. :)
Dazu wird es mit Sicherheit erstmal nicht kommen. Der RV670 wird stark, das ist so gut wie gesichert. Die Frage ist, wie stark der RV670XT wirklich wird. Wenn wir Glück haben, wird das >>8800GTS für 300$.
Die Karten werden dann wieder neu gemischt, wenn die High-End-Modelle beider Firmen kommen. Ich bin sehr gespannt :)

Die gelbe Eule
2007-10-11, 15:07:46
Wäre es umgekehrt, würdest du auch das Flattern kriegen ;)

Ich hoffe sehr auf einen Hardlaunch, aber von Nvidia ist man in der Regel nicht anderes gewohnt. Die Karte wird 'n starkes Stück, ATi wird mit dem RV670 adequat kontern, die Preise regeln sich und der Kunde hat eine tolle Ausgangssituation. Gute Verhältnisse.

Weniger, da ich eh nur 1360x768 (37" LCD TV) Peformance brauche und da könnte ich mir zur Not auch die 8800GTS 320MB wieder kaufen.

Adam D.
2007-10-11, 15:12:24
Weniger, da ich eh nur 1360x768 (37" LCD TV) Peformance brauche und da könnte ich mir zur Not auch die 8800GTS 320MB wieder kaufen.
Das war eher darauf bezogen, dass dein Herz eher grün als rot ist ;)

Und auch für 1360x768 kann man doch 'ne starke Karte kaufen und ordentlich Q-Settings reinhauen :tongue:

Die gelbe Eule
2007-10-11, 15:15:08
Ich kaufe mir das, was problemlos funktioniert. Und da ich eh Hellgate:London spielen werde, welches das NV Logo trägt, bin ich hier besser bedient. Der G92 wird für die kleinen Auflösungen volle Qualität bieten können und das sollte reichen.

dildo4u
2007-10-11, 15:18:24
Auf einem HDTV mit der Auflösung ist alles ohne 4XAA unerträglich.(Selber getestet)Also die Karte sollte dafür schon Luft haben.

Adam D.
2007-10-11, 15:26:36
Ich kaufe mir das, was problemlos funktioniert. Und da ich eh Hellgate:London spielen werde, welches das NV Logo trägt, bin ich hier besser bedient. Der G92 wird für die kleinen Auflösungen volle Qualität bieten können und das sollte reichen.
Das bezweifle ich nicht. Trotzdem bist du biased, du kannst es nicht leugnen :wink: Aber darum soll es hier nicht gehen.

Ich bin noch bzgl. einer Sache gespannt: die Laustärke des Lüfters. Wenn ich da an meine 7900GT denke ... Oh noez :usad:

Ailuros
2007-10-11, 16:19:15
Dazu wird es mit Sicherheit erstmal nicht kommen. Der RV670 wird stark, das ist so gut wie gesichert. Die Frage ist, wie stark der RV670XT wirklich wird. Wenn wir Glück haben, wird das >>8800GTS für 300$.
Die Karten werden dann wieder neu gemischt, wenn die High-End-Modelle beider Firmen kommen. Ich bin sehr gespannt :)

Falls die zwei Pfeile vor der 8800GTS irgend ein hohes Prozentual an Leistungsunterschied andeuten sollte, werden wohl leider zu viele enttaeuscht werden und das gilt fuer beide IHVs.

Um wieviel schneller waren in der Vergangenheit jeweils Refresh-Modelle in jeglichem Markt-segment?

Wer mit $300 irgend etwas in der Richtung 2*8800GTS erwartet, muss wohl noch einige Zeit dafuer warten.

Superheld
2007-10-11, 16:31:20
http://img516.imageshack.us/img516/4682/06ex1.jpg
http://news.expreview.com/2007-10-11/1192099246d3907.html

wieviel soll die GT kosten, die geht ja kanns schön ab:eek:

GeneralHanno
2007-10-11, 16:33:11
wenn du ein paar seiten durchblätterst, sähest du, dass die 8800GT 512MB 249$ kosten soll.

Gast
2007-10-11, 16:35:12
Eine 2900PRO hat zwar auf Papier etwa genau soviel z-fill wie eine 8800GT,
16*8*600 > 16*2*600
;)

Oder weißt du was, was wir nicht wissen?

Adam D.
2007-10-11, 16:38:58
Falls die zwei Pfeile vor der 8800GTS irgend ein hohes Prozentual an Leistungsunterschied andeuten sollte, werden wohl leider zu viele enttaeuscht werden und das gilt fuer beide IHVs.
Ich erwarte Performance von ~10-15% über der GTS für den RV670 und ~ GTS-Performance für die 8800GT. Dass man hier keine Wunder kaufen kann, ist ja klar - für den Preis.

Um wieviel schneller waren in der Vergangenheit jeweils Refresh-Modelle in jeglichem Markt-segment?
Ein bisschen. So wie jetzt :)

Wer mit $300 irgend etwas in der Richtung 2*8800GTS erwartet, muss wohl noch einige Zeit dafuer warten.
Das sollte allen klar sein, aber ich glaube auch, dass das inzwischen angekommen ist ;)

dargo
2007-10-11, 16:53:09
Wer mit $300 irgend etwas in der Richtung 2*8800GTS erwartet, muss wohl noch einige Zeit dafuer warten.
Das erwartet auch sicherlich niemand. Aber für 449$ schon. :D
Weißt du ob da noch was dieses Jahr, Anfang nächstes Jahr in dieser Richtung kommt? Falls du es überhaupt sagen darfst.

Gast
2007-10-11, 16:54:19
Dafür ist es sicher schwieriger einen Chip für das krumme SI startklar zu machen als es einfach zu verdoppeln. ;)
Und der VRAM-Bug ...
WTF? Das SI ist weder krumm noch sonstwas. Mehr noch: Es ist je nach Chip quasi automatisch "passend" - und zwar passend zur Anzahl der ROPs, welche jeweils einen 64-Bit-MC beinhalten.

GeneralHanno
2007-10-11, 17:10:24
erste 8800GT 512mb GDDR3 gelistet:

http://www.toppreise.ch/prod_125785.html

dargo
2007-10-11, 17:13:20
erste 8800GT 512mb GDDR3 gelistet:

http://www.toppreise.ch/prod_125785.html
Wieviel ist das umgerechnet in €uro? Möchte wissen ob die Händler den Launch schon wieder beim Preis ausnutzen.

Gast
2007-10-11, 17:15:41
DFür umgerechnet 192,65€

dargo
2007-10-11, 17:19:43
DFür umgerechnet 192,65€
Mit deutscher Mwst? :eek:
Das wäre selbst vor dem Launch schon sehr günstig.

Henroldus
2007-10-11, 17:23:23
bei vergleichbarer Leistung wie die aktuelle 8800GTS 512 wäre das ne Preissenkung um 100EUR, wenn sich dass so fortsetzt gibts endlich GTX Leistung für schlappe 350Eur :biggrin:

reunion
2007-10-11, 17:27:23
Naja, zumindest rechnen kann der Mann anscheinend (64*5*2*0,825 = 528).


Das hat er nur von einer Folie abgeschrieben.

Gast
2007-10-11, 17:28:27
Bei 7,6 Prozent Schweizer MwSt sind es dann 343,29€ ink. 19% MwSt (ohne Versandkosten)

dargo
2007-10-11, 17:31:53
Bei 7,6 Prozent Schweizer MwSt sind es dann 343,29€ ink. 19% MwSt (ohne Versandkosten)
:confused:

Was ist der Umrechnungsfaktor für den Schweizer Franken?

GeneralHanno
2007-10-11, 17:34:55
1 CHF = 0,6024 EUR

nordic_pegasus
2007-10-11, 17:38:32
Bei 7,6 Prozent Schweizer MwSt sind es dann 343,29€ ink. 19% MwSt (ohne Versandkosten)


312 CHF / (1 - 0,076) / 1,6601 * (1 + 0,19) = 206 Euro ;)

dargo
2007-10-11, 17:38:43
1 CHF = 0,6024 EUR
Ok, dann hätten wir 290CHF ohne Schweizer Mwst. Das ganze mal 0,6024€ ergibt ~175€. Mit deutscher Mwst also ~208€. Ein sehr guter Preis. :up:

Edit:
Ups, zu langsam.

Adam D.
2007-10-11, 17:39:58
Ok, dann hätten wir 290CHF ohne Schweizer Mwst. Das ganze mal 0,6024€ ergibt ~175€. Mit deutscher Mwst also ~208€. Ein sehr guter Preis. :up:
Dito. Bin mal sehr gespannt, wo sich das einfädeln wird und ab wann die Karten verfügbar sind. Ausgeliefert wird wohl Ende Oktober, die Frage ist nur, wieviele Exemplare vorhanden sind :uponder:

Gast
2007-10-11, 17:40:55
Stimmt Umrechnung vergessen *Fresse*

GeneralHanno
2007-10-11, 17:41:11
das klingt beruhigend. wenn man 249$ umrechnet in € + 19% mwst kommt man auf 210€. warten wir am besten die nächsten tage ab, bis mehr shops/hersteller gelistet sind.

9800ProZwerg
2007-10-11, 17:41:37
Ok, dann hätten wir 290CHF ohne Schweizer Mwst. Das ganze mal 0,6024€ ergibt ~175€. Mit deutscher Mwst also ~208€. Ein sehr guter Preis. :up:


In der Tat!
Mensch, wird Nvidia doch wieder interessant für mich!
RV670 vs 8800GT...

seahawk
2007-10-11, 17:57:22
Bevor ich den 8800GT interessant nennen würde, sollte man RC670 Gladiator abwarten.

Mit 4 Clustern und 16 ROPs zieht die 8800GT nix vom Teller. Und die Werte die wir jetzt so in den Foren seheh nstamme nsicher von einem späteren Topmodell des G92.

9800ProZwerg
2007-10-11, 18:01:21
Bevor ich den 8800GT interessant nennen würde, sollte man RC670 Gladiator abwarten.

Mit 4 Clustern und 16 ROPs zieht die 8800GT nix vom Teller. Und die Werte die wir jetzt so in den Foren seheh nstamme nsicher von einem späteren Topmodell des G92.

Woher willst du das wissen?

seahawk
2007-10-11, 18:04:48
Guck Dir den Preis an. Der ist weit näher an 8600GTS als an 8800GTS.

James Ryan
2007-10-11, 18:07:14
Woher willst du das wissen?

Er weiß es nicht, er hofft es nur damit der RV670 nicht gnadenlos untergeht. ;)

MfG :cool:

seahawk
2007-10-11, 18:14:57
Er weiß es nicht, er hofft es nur damit der RV670 nicht gnadenlos untergeht. ;)

MfG :cool:


Echt ?

8600GTS 256 MB - > 180 Euro
8800GTS 320 MB - > 260 Euro
8800GTS 640 MB - > 310 Euro

8800 GT 512 MB -> 210 Euro

Wo ist die wohl leistungsmäßig anzusiedeln ?

Henroldus
2007-10-11, 18:20:03
Echt ?

8600GTS 256 MB - > 180 Euro
8800GTS 320 MB - > 260 Euro
8800GTS 640 MB - > 310 Euro

8800 GT 512 MB -> 210 Euro

Wo ist die wohl leistungsmäßig anzusiedeln ?
du vergleichst alte Generation(und 6 Monate alte Preise) mit der neuen Generation :|, das kann nicht gut gehen.
Am 29. Oktober werden Preise und damit die P/L Verhältnisse ordentlich durchgeschüttelt, das verspreche ich :deal:

dargo
2007-10-11, 18:25:37
Echt ?

8600GTS 256 MB - > 180 Euro
8800GTS 320 MB - > 260 Euro
8800GTS 640 MB - > 310 Euro

8800 GT 512 MB -> 210 Euro

Wo ist die wohl leistungsmäßig anzusiedeln ?
Die G8800GTS 320 gibts praktisch mit der G8800GT nicht mehr und wer sagt, dass die G8600GTS bei 180€ bleibt? ;)
Außerdem kostet die günstigste G8600GTS (512MB) ~145€. Ob man da schon den Preis anpasst? ;)

PS: die G8600GTS 256 kostet 120€.

James Ryan
2007-10-11, 18:55:19
Echt ?

8600GTS 256 MB - > 180 Euro
8800GTS 320 MB - > 260 Euro
8800GTS 640 MB - > 310 Euro

8800 GT 512 MB -> 210 Euro

Wo ist die wohl leistungsmäßig anzusiedeln ?

Milchmädchenrechnung :rolleyes:

HD 2900 XT 512 MB --> 340€
HD 2900 Pro 512 MB -> 211€

Wo ist letztere Karte leistungsmäßig?

MfG :cool:

Hvoralek
2007-10-11, 19:03:28
Milchmädchenrechnung :rolleyes:

HD 2900 XT 512 MB --> 340€
HD 2900 Pro 512 MB -> 211€Eher
HD 2900 XT 512 MB --> 340€
RV670 Gladiator --> ~280€, aber wohl schneller.

James Ryan
2007-10-11, 19:06:07
Eher
HD 2900 XT 512 MB --> 340€
RV670 Gladiator --> ~280€, aber wohl schneller.

Den RV670 habe ich bewusst rausgelassen um zu zeigen dass solche Rechnungen schon heutzutage absoluter Nonsens sind.
Die HD 2900 Pro ist dafür das beste Beispiel!

MfG :cool:

Hvoralek
2007-10-11, 19:11:19
Den RV670 habe ich bewusst rausgelassen um zu zeigen dass solche Rechnungen schon heutzutage absoluter Nonsens sind.
Die HD 2900 Pro ist dafür das beste Beispiel!Da passt das insofern noch, als die 2900 Pro günstiger, aber auch langsamer ist als die XT. Zwar steht der Aufpreis in einem ziemlich üblen Verhältnis zur Mehrleistung, aber das ist nun nicht so außergewöhnlich, gerade im oberen Bereich eines Line- Ups (Denke bloß mal an High- End- CPUs). Be der 8800 GT stören sich viele daran, dass sie wohl günstiger werden wird als die GTS 320 und deshalb nicht schneller sein könne. Da passt der Vergleich zwischen den beiden 2900ern gerade nicht.

sklave_gottes
2007-10-11, 20:05:27
Milchmädchenrechnung :rolleyes:

HD 2900 XT 512 MB --> 340€
HD 2900 Pro 512 MB -> 211€

Wo ist letztere Karte leistungsmäßig?

MfG :cool:


naja die XT ist bissel biliger ab 312€
http://www.idealo.de/preisvergleich/OffersOfProduct/oesg/735280_-radeon-hd-2900-xt-512mb-ae-x290x-t355-palit-xpertvision.html

Bei der 8800gt weis man nach den vielen news echt nicht mehr wie es weiter geht.

Ailuros
2007-10-12, 05:53:38
Bevor ich den 8800GT interessant nennen würde, sollte man RC670 Gladiator abwarten.

Mit 4 Clustern und 16 ROPs zieht die 8800GT nix vom Teller. Und die Werte die wir jetzt so in den Foren seheh nstamme nsicher von einem späteren Topmodell des G92.

Ein Gast hat vor 2 Seiten eine 4x mal so hohe Z-Fuellrate ausgerechnet fuer eine 8800GT gegen eine 600MHz/2900PRO, was zwar uebertrieben ist, aber ein *2 Faktor stimmt dann schon.

Was soll der Quark genau mit der angeblichen ROP Schwaeche oben? Du wirst wohl einfache Z-Fuellraten selber ausrechnen koennen:

8800GTS(heute) = 20*500 = 10GPixels/s
8800GT = 16*600 = 9.6GPixels/s

Zaehlt man jetzt MSAA mit:

GTS = 40GPixels/s
GT = 38,4GPixels/s
2900PRO = 19,2 GPixels/s

Bevor Du ueberhaupt auf ROPs anspielst, muesstest Du mir erstmal erklaeren wie ein RV670 so einfach die 38GPixels/s erreichen koennte. Eine Idee waere natuerlich 1.6GHz Frequenz....

seahawk
2007-10-12, 06:43:26
Füllrate wirtd aber weniger wichtig unter DX10 und die arithmetische Leistung von RV70 dürfte häher liegen als von G92.

Die gelbe Eule
2007-10-12, 07:38:54
Ein paar Benchmarks:

19.881 3DM05 * 12.072 3DM06 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3587&Itemid=1)

Winter[Raven]
2007-10-12, 08:38:46
Füllrate wirtd aber weniger wichtig unter DX10 und die arithmetische Leistung von RV70 dürfte häher liegen als von G92.

Sorry, der Argument zieht echt nicht mehr... wielange verspricht man uns schon Spiele die so eine Ari.Schleuder brauchen?

Solange Nvidia mit ihren Gpus bei den Devs und Gamern punkten kann, wird sich auch nicht sehr viel ändern.

p.s. du kennst die Meinung von Nvidia oder? "Wir bringen das wenn es wirklich nötig ist".

Was können wir für die Fehlentscheidungen die AMD/ATI da fabrizieren?

GeneralHanno
2007-10-12, 08:42:16
Bevor Du ueberhaupt auf ROPs anspielst, muesstest Du mir erstmal erklaeren wie ein RV670 so einfach die 38GPixels/s erreichen koennte. Eine Idee waere natuerlich 1.6GHz Frequenz....

oder aufgebohrte ROPs mit doppelt so vielen z-testern ;)

robbitop
2007-10-12, 09:11:45
Füllrate wirtd aber weniger wichtig unter DX10
Was hat die API mit dem Content zu tun? Die Entwicklung draengt allerdings dahin. Allerdings spart man bei ATI massiv Fuellrate beim AF. Das sieht man auch. Es flimmert. Schaltet man die Optimierung aus, bricht das ganze mangels Fuellrate ein.


und die arithmetische Leistung von RV70 dürfte häher liegen als von G92.
G92 scheint ja ein geshrinkter G80 zu sein, der die gesamte Lineup des G80 ersetzt und die 8800GT ( deaktivierte/er Cluster und nur 256 Bit SI) hinzufuegt.

1.)entsprechende Dokumente ueber PEG 2.0 SKUs sind aufgetaucht
2.)289 mm^2 und die TDP sprechen dafuer
3.)auch dass man den teuren 90nm G80 nun guenstiger fertigen kann
4.)3DMark-Werte deutlich ueber 10k. Das ist mit 4 Clustern IMO kaum zu machen.

Ergo steht wieder ein aehnliches GFLOP Verhaeltnis wie zw G80 und R600 aus.
In der Spielepraxis sehe ich die R600 mitnichten vorn, was Aritmetik betrifft.
Die Einheiten laufen lange nicht so effizient (R600 ALUs sind im Prinzip immernoch Vektor SIMDs, die splitten) und haben weiterhin noch immer die Aufgabe, SFUs durchzufuehren, TEX-fetches. All das erledigen beim G80 bereits die SFU ALUs. Am Ende des Tages duerften in Spielen die Aritmetikleistungen beider GPUs nicht allzu unterschiedlich sein.

Bei GPGPU aufgaben und synthetischen Shadern mag das natuerlich anders aussehen (weniger Ansprueche auf die Granularitaet, weniger TEX).

Bl@de
2007-10-12, 09:23:21
wann wird es denn etwas in der leistungsklasse der 8800gtx geben ? auch ende oktober oder erst nächstes jahr ? die frage kann man ruhig auch auf ati ausweiten wenn es sich denn überhaupt gut einschätzen lässt.

die frage ist sozusagen. wird es nächsten monat eine neue high-end gpu geben ?

Winter[Raven]
2007-10-12, 09:25:12
wann wird es denn etwas in der leistungsklasse der 8800gtx geben ?

Nächstes Jahr ... ~q2 2008

aths
2007-10-12, 09:25:38
Füllrate wirtd aber weniger wichtig unter DX10 und die arithmetische Leistung von RV70 dürfte häher liegen als von G92.Texturfüllrate wird weiterhin immer wichtiger, nur weniger schnell wichtig als arithmetische Leistung.

aths
2007-10-12, 09:27:16
;5924288']Sorry, der Argument zieht echt nicht mehr... wielange verspricht man uns schon Spiele die so eine Ari.Schleuder brauchen?

Solange Nvidia mit ihren Gpus bei den Devs und Gamern punkten kann, wird sich auch nicht sehr viel ändern.

p.s. du kennst die Meinung von Nvidia oder? "Wir bringen das wenn es wirklich nötig ist".Nvidia bringt leider nur das, was nötig ist. ATI/AMD strampeln sich seit Jahren ab, während sich NV mit der G80-Architektur in der Hand auf der faulen Bärenhaut ausruht.

Bl@de
2007-10-12, 09:31:17
;5924412']Nächstes Jahr ... ~q2 2008

bäh viel zu lang :biggrin: na ja trotzdem mal 8800gt/r670 abwarten und gucken was die so draufhaben. was hier in dem thread geredet wird ist eh nur spekulatius

Winter[Raven]
2007-10-12, 09:31:35
Nvidia bringt leider nur das, was nötig ist. ATI/AMD strampeln sich seit Jahren ab, während sich NV mit der G80-Architektur in der Hand auf der faulen Bärenhaut ausruht.

Komm, das ist ne Verallgemeinerung, ich will nicht wissen wieviele R&D Ressourcen bei Nvidia im Laufe der letzten Jahre in die G80 Architektur geflossen sind.

Deswegen sehe ich nicht ein, warum Nvidia jetzt der Faule sein soll...

robbitop
2007-10-12, 09:43:35
Das verstehe ich jetzt allerdings auch nicht. 5 Jahre Entwicklung fuer den G80 und das Teil ist ein hochmoderner Chip. Ich sehe keinen Punkt, in dem das R6xx Design dort einen technischen Vorsprung haben sollte. Zumal G80 noch nichtmal 1 Jahr auf dem Markt ist.

aths
2007-10-12, 09:46:22
;5924433']Komm, das ist ne Verallgemeinerung, ich will nicht wissen wieviele R&D Ressourcen bei Nvidia im Laufe der letzten Jahre in die G80 Architektur geflossen sind.

Deswegen sehe ich nicht ein, warum Nvidia jetzt der Faule sein soll...Nvidia hätte die G80-Serie sinnvoller zuschneiden können. Aber es ist das alte Spiel: Entweder muss man relativ hohe Performance kaufen (8800) oder sich mit relativ wenig 3D-Leistung zufrieden geben (8600 und kleiner) – dazwischen gibt es nichts.

Gast
2007-10-12, 09:53:43
Nvidia bringt leider nur das, was nötig ist.

Sei doch froh drum, sonst wäre AMD längst pleite.

seahawk
2007-10-12, 10:48:59
bäh viel zu lang :biggrin: na ja trotzdem mal 8800gt/r670 abwarten und gucken was die so draufhaben. was hier in dem thread geredet wird ist eh nur spekulatius

Naja irgendeine Version von G92 wird sicher auch die GTX ablösen. Schneller sicherlich, ob bemerkenswert schneller wird man sehen müssen.

tomsen
2007-10-12, 11:13:28
Ich wollte mir heute eine Zotac 8800 GTS 640MB holen. Macht das überhaupt Sinn sich so eine Karte zu holen? Würdet ihr auf die neue 8800GT/GTS warten?

DrumDub
2007-10-12, 11:14:02
Naja irgendeine Version von G92 wird sicher auch die GTX ablösen. Schneller sicherlich, ob bemerkenswert schneller wird man sehen müssen. nv wird nichts viel schnellers bringen, so lange sie nicht seitens der konkurrenz dazu gezwungen sind. mit dem g9x gehts erstmal ums kohle scheffeln, so lange die konkurrenz schwächelt.

Henroldus
2007-10-12, 11:52:07
Ich wollte mir heute eine Zotac 8800 GTS 640MB holen. Macht das überhaupt Sinn sich so eine Karte zu holen? Würdet ihr auf die neue 8800GT/GTS warten?
in 2 wochen kommen die neuen Modelle, da hol ich mir doch jetzt keine Karte mehr vor allem zu einem Preis der immer noch der gleiche wie vor einem halben Jahr ist! :|
es gibt zwar nie den richtigen zeitpunkt für einen HW-Kauf und warten könnte man immer aber im Moment heisst es echt schauen was da auf uns zukommt.
wenn schon nicht schneller, dann aber billiger und stromsparender.

seahawk
2007-10-12, 12:02:44
nv wird nichts viel schnellers bringen, so lange sie nicht seitens der konkurrenz dazu gezwungen sind. mit dem g9x gehts erstmal ums kohle scheffeln, so lange die konkurrenz schwächelt.

Erwarte ich doch auch.

GT etwas unter alter GTS
GTS etwas unter alter GTX
GTX etwas unter alter Ultra

ob die Ultra weiterlebt wird man sehen.

Gast
2007-10-12, 12:06:35
nv wird nichts viel schnellers bringen, so lange sie nicht seitens der konkurrenz dazu gezwungen sind. mit dem g9x gehts erstmal ums kohle scheffeln, so lange die konkurrenz schwächelt.

Aufgrund der Komplexibilität des 90nm Chips und der Größe, wäre es viel sinniger die 8800 Karten mit 65nm Chips zu ersetzen. So könnte man die 8800GTX weiterlaufen lassen und gleichzeitig Preise von 450€ verlangen. Ein neuer Namen hat das Problem, dass man dann auch eine wesentlich schnellere Karte hervorzaubern müsste. Sonst würden es viele nicht verstehen, warum eine 8900GTX nicht schneller aber genauso teurer wäre.

tomsen
2007-10-12, 12:07:34
@Henroldus

Tja dann wäre das Warten auf die neuen Karten wirklich sinnvoll. Aber ich glaube ehrlich gesagt nicht so recht an den Preis. 200 Euro für ne Karte auf über 8800GTS Niveau mit 512MB?

AnarchX
2007-10-12, 12:09:38
Aber ich glaube ehrlich gesagt nicht so recht an den Preis. 200 Euro für ne Karte auf über 8800GTS Niveau mit 512MB?

Siehe die Werbung von NV in #1 -> "The Wait is Over." ;D

AnarchX
2007-10-12, 13:39:03
Mal etwas interessanteres:
GT vs Ultra - 3DM06 4xAA/8xAF (http://news.expreview.com/2007-10-12/1192187831d3927.html)

GT:
http://img530.imageshack.us/img530/9748/8800gt06js4.jpg
Ultra:
http://img524.imageshack.us/img524/2889/8800ultra06yi2.jpg

:ugly:

Henroldus
2007-10-12, 13:43:54
Mal etwas interessanteres:
GT vs Ultra - 3DM06 4xAA/16xAF (http://news.expreview.com/2007-10-12/1192187831d3927.html)

GT:
http://www.expreview.com/img/news/071012/8800gt_06.jpg
Ultra:
http://www.expreview.com/img/news/071012/8800ultra_06.jpg

:D
und das zum halben Preis :eek:
ich glaubs erst wenn die Karte auf dem Markt ist

dildo4u
2007-10-12, 13:45:05
und das zum halben Preis :eek:

Weniger eine Ultra kostet mher als 400€.

dargo
2007-10-12, 13:46:40
Füllrate wirtd aber weniger wichtig unter DX10 und die arithmetische Leistung von RV70 dürfte häher liegen als von G92.
Bist du dir da ganz sicher?
Unreal Tournament 3 wird mit einer vollen Unterstützung für Direct X 10 ausgeliefert, das Multi-Sampling unter DX 10 ist der größte sichtbare Nutzen der neuen Grafikschnittstelle. Außerdem haben wir mit Direct X 10 unter Vista die Möglichkeit, den Videospeicher effizienter zu nutzen, um Texturen mit einem höheren Detailgrad darzustellen, als das mit dem Direct-X-9-Pfad von Vista möglich ist. Die meisten Effekte von UT 3 sind eher an die Füllrate als an grundlegenden Features wie das Verarbeiten von Geometrie gebunden. Daher wirkt sich Direct X 10 sehr deutlich auf die Performance aus, während wir auf die Integration neuer Features weitestgehend verzichten.
http://www.pcgameshardware.de/?article_id=602272&page=3

;)

Henroldus
2007-10-12, 13:49:21
Weniger eine Ultra kostet mher als 400€.
naja 249$ vs 540€ (http://geizhals.at/deutschland/a254949.html)
wobei eine Ultra eh unverhältnissmässig teuer ist

Gast
2007-10-12, 13:55:04
Das ist wesentlich schneller als eine 8800GTS.

dargo
2007-10-12, 13:55:39
Mal etwas interessanteres:
GT vs Ultra - 3DM06 4xAA/16xAF (http://news.expreview.com/2007-10-12/1192187831d3927.html)

GT:
http://img530.imageshack.us/img530/9748/8800gt06js4.jpg
Ultra:
http://img524.imageshack.us/img524/2889/8800ultra06yi2.jpg

:ugly:
Endlich Benchmarks mit AA/AF. :up:
~31% mehr für die Ultra im SM3.0 Score. Ich weiß allerdings nicht ob hier noch die CPU etwas limitiert. Trotzdem dürfte das ein beachtliches Ergebnis sein. Die Frage ist nur, wie sieht es in Games aus? :D

Edit:
Wenn das alles stimmt, könnte man bei der neuen "G8800GTX" auf G92 Basis mit folgenden Taktraten rechnen 700-750/2000-2400/1000Mhz? Das wäre ein ideales Upgrade für mich. :D

dildo4u
2007-10-12, 13:58:45
Von den AA und AF 3DMark Ergebnissen bei Computerbase her würde die 8800GT direkt zwischen der 8800GTS 640mb und der 2900XT liegen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/7/#abschnitt_3dmark06

AnarchX
2007-10-12, 14:01:56
edited -> Waren nur doch nur 8xAF...

Trotzdem beachtlich für 200€, aber vielleicht eine Vorschau auf das was D3D10-Games fordern werden. Und die 8800GT soll ihrem Status Performance gerecht bleiben. :D

Henroldus
2007-10-12, 14:03:24
Von den AA und AF 3DMark Ergebnissen bei Computerbase her würde die 8800GT direkt zwischen der 8800GTS 640mb und der 2900XT liegen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/7/#abschnitt_3dmark06
wohl eher nicht, AF und 4xAA sind angeschaltet ;) also über 8800GTX

dargo
2007-10-12, 14:05:11
Von den AA und AF 3DMark Ergebnissen bei Computerbase her würde die 8800GT direkt zwischen der 8800GTS 640mb und der 2900XT liegen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/7/#abschnitt_3dmark06
Vergiss es (zumindest die Gesamtpunktezahl). Bei dem Link von AnarchX war ein Quadcore@3,6Ghz im Einsatz. Bei CB ist es ein Dualcore@3,46Ghz.

dildo4u
2007-10-12, 14:06:37
wohl eher nicht, AF und 4xAA sind angeschaltet ;) also über 8800GTX
Hä bei Computerbase gibts doch auch AA und AF Benches du musst auf die Prozente achten die Gesammtpunkte kann man nicht vergleichen weil die Ergebnisse oben mit eine Quad-Core CPU sind.

Gast
2007-10-12, 14:07:46
Vielleicht könnte hier juemand mit einer 8800GTS@Standard mal den 3DMark2006 mit den selben Settings durchlaufen und die beiden Grafikkarten Scores posten.
Das sollte einen guten Anhaltspunkt geben, wo die GT im Vergleich zur GTS liegt.

dildo4u
2007-10-12, 14:08:32
Vergiss es. Bei dem Link von AnarchX war ein Quadcore@3,6Ghz im Einsatz. Bei CB ist es ein Dualcore@3,46Ghz.
Wie gesagt ich ging jetzt von deinen 33% aus und hab das auf die Computerbase Ergebnisse umgemünzt ohne die Gesammtpunkte zu beachten naja egal.

dargo
2007-10-12, 14:10:13
wohl eher nicht, AF und 4xAA sind angeschaltet ;) also über 8800GTX
Wenn die Ultra 31% schneller ist als die GT dann kann die GT nicht über einer GTX liegen. ;)

PS: wobei ich hier eher von 35-40% Vorteil für die Ultra ausgehen würde, nämlich wegen eventuellem CPU-Limit (unter Vorbehalt).

Vielleicht könnte hier juemand mit einer 8800GTS@Standard mal den 3DMark2006 mit den selben Settings durchlaufen und die beiden Grafikkarten Scores posten.
Das sollte einen guten Anhaltspunkt geben, wo die GT im Vergleich zur GTS liegt.
Mache ich gleich ...

Henroldus
2007-10-12, 14:23:25
Hä bei Computerbase gibts doch auch AA und AF Benches du musst auf die Prozente achten die Gesammtpunkte kann man nicht vergleichen weil die Ergebnisse oben mit eine Quad-Core CPU sind.
die Benches meinte ich auch, aber linear runterrechnen geht nicht so einfach.
ein Vergleich auf dem gleichen Testsystem wäre glaubwürdiger.
AnarchX' Link ist da schon ganz annehmbar.
Die Aussage ist doch aber trotzdem, dass wir hier für wenig Geld verdammt viel Leistung bekommen werden.
Mit einem Kauf warte ich trotzdem bis zum 15. Nov (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355) ;) auch wenns schwer wird

dargo
2007-10-12, 14:35:12
G8800GT
http://img530.imageshack.us/img530/9748/8800gt06js4.jpg

G8800GTS 640 @standard in 1280x1024 4xAA/8xAF
http://www.pictureupload.de/originals/pictures/121007143153_3D.PNG

Das Ergebnis der G8800GT ist für diesen Preis einfach nur Hammer. :eek:

Man darf hier allerdings nicht vergessen, dass die CPU bei der G8800GT ca. 18% schneller ist als meine. Und beim 3DMark06 limitiert in 1280x1024 4xAA/8xAF noch selbst ein C2D@3,6Ghz etwas (wie ich anhand von CB Benches herausfinden konnte). Dabei spielt es bei den SM2/SM3 Scores keine Rolle ob es ein Dual- oder Quadcore ist.

Was bleibt, ist der verdammt niedrige Preis für etwas mehr G8800GTS (alt) Performance.

[dzp]Viper
2007-10-12, 14:36:30
G8800GT
http://img530.imageshack.us/img530/9748/8800gt06js4.jpg

G8800GTS 640 @standard
http://www.pictureupload.de/originals/pictures/121007143153_3D.PNG

Das Ergebnis der G8800GT ist für diesen Preis einfach nur Hammer. :eek:

Man darf hier allerdings nicht vergessen, dass die CPU bei der G8800GT ca. 18% schneller ist als meine. Und beim 3DMark06 limitiert in 1280x1024 4xAA/8xAF noch selbst ein C2D@3,6Ghz etwas (wie ich anhand von CB Benches herausfinden konnte). Dabei spielt es bei den SM2/SM3 Scores keine Rolle ob es ein Dual- oder Quadcore ist.

Was bleibt, ist der verdammt niedrige Preis für etwas mehr G8800GTS (alt) Performance.

Schau dir mal den krassen Unterschied bei den CPU-Scores an :|. Die doppelte Score (5500 vs 2800) bei gerade mal ca. 20% mehr Leistung? Da kann was net stimmen

/edit: Achso - das war auch noch dazu ein Quadcore CPU.... na kein Wunder

dildo4u
2007-10-12, 14:37:08
Viper;5925628']
Fast das doppelte bei gerade mal ca. 20% mehr Leistung? Da kann was net stimmen
Dual gegen Quad-Core die 3DMark CPU Tests skalieren sher gut mit Multicore CPUs.

Adam D.
2007-10-12, 14:37:49
Quad vs. Dual. Aber dass das so krank ist, halte ich für unrealistisch :|

[dzp]Viper
2007-10-12, 14:43:01
Dual gegen Quad-Core die 3DMark CPU Tests skalieren sher gut mit Multicore CPUs.

Also ohne den Quad und dem Plus an mehr Takt, wäre die 8800GT wohl eher auf GTS@ Standard Niveau. Denn die andere Werte profitieren ja ebenfalls stark vom Quadcore...

Henroldus
2007-10-12, 14:44:29
Quad vs. Dual. Aber dass das so krank ist, halte ich für unrealistisch :|
naja, man hat sich an die gleichbleibende Leistung im Performance/Highendsegment seit einem Jahr gewöhnt.
Eine Steigerung ist längst überfällig!

dildo4u
2007-10-12, 14:46:42
Viper;5925651']Also ohne den Quad und dem Plus an mehr Takt, wäre die 8800GT wohl eher auf GTS@ Standard Niveau.Nein drüber der SM3.0 Test ist auch jeden Fall GPU limitiert mit AA und AF.Die 8800GT wird whol genau so viele Recheneinheiten haben wie die GTS nur halt @600mhz Core.

Adam D.
2007-10-12, 14:47:33
naja, man hat sich an die gleichbleibende Leistung im Performance/Highendsegment seit einem Jahr gewöhnt.
Eine Steigerung ist längst überfällig!
Ich meinte eher den Unterschied zwischen Quad und Dual. Aber sonst geb ich dir recht. Sieht wohl so aus, dass GT = alte GTS, mal langsamer, mal schneller.

dargo
2007-10-12, 14:52:40
Nein drüber der SM3.0 Test ist auch jeden Fall GPU limitiert mit AA und AF.Die 8800GT wird whol genau so viele Recheneinheiten haben wie die GTS nur halt @600mhz Core.
Nicht ganz, schau dir die 3DMark06 Skalierung bei CB in höheren Auflösungen an.

@[dzp]Viper
Die SM2/SM3 Scores werden nur von einem CPU-Core berechnet. Da kannst du einen Octa-Core einsetzen (wenn es den gäbe), an den beiden Scores ändert das rein gar nichts.

Superheld
2007-10-12, 16:18:18
also ist sie doch schneller als die GTS:eek:

die sm2/sm3 score kann man doch offentlich vergleichen:|

DrumDub
2007-10-12, 16:43:42
was mich wundert, ist, dass sm2 und sm3 score unterschiedlich skalieren bei der 8800gt im verhältnis zur 8800 gts. ich denke daher schon, dass die quad-core-cpu da nen einfluss auf den score hat.

Superheld
2007-10-12, 16:46:43
wie unterschiedlich, die gt ist einfach schneller als die gts, die Quad-Punkte fließen da net mit ein;)

reunion
2007-10-12, 16:54:38
Mal etwas interessanteres:
GT vs Ultra - 3DM06 4xAA/8xAF (http://news.expreview.com/2007-10-12/1192187831d3927.html)

GT:
http://img530.imageshack.us/img530/9748/8800gt06js4.jpg
Ultra:
http://img524.imageshack.us/img524/2889/8800ultra06yi2.jpg

:ugly:

Naja, beim GPU-limitierten SM3-Score ist die Ultra 31% schneller. Jetzt darf man nicht die Verbesserungen des G84 vergessen, die beim 3dmark bekanntlich beachtliche Vorteile bringen. Auch könnte die Ultra durchaus noch tw. am CPU-Limit hängen.

DrumDub
2007-10-12, 17:00:51
wie unterschiedlich, die gt ist einfach schneller als die gts, die Quad-Punkte fließen da net mit ein;) ich meinte das folgende:

sm 3.0 score gt (3958) vs. gts (3058) +30,2%
sm 2.0 score gt (3343) vs. gts (2717) +23%

AnarchX
2007-10-12, 17:01:44
Jetzt darf man nicht die Verbesserungen des G84 vergessen, die beim 3dmark bekanntlich beachtliche Vorteile bringen.
Ja, der postiert sich ziemlich gut im 3DMark06:
http://www.digit-life.com/articles2/digest3d/0907/itogi-video-m61-wxp-aaa-1280-pcie.html
http://www.digit-life.com/articles2/digest3d/0907/itogi-video-m62-wxp-aaa-1280-pcie.html
(wobei hier der X6800 auch limitieren könnte...)

Wenn man hier noch etwas weiter verbessert hat, wäre das vielleicht sogar mit 4C und einer SD von 1.8GHz+ möglich. Aber dagegen spricht doch einiges mittlerweile...

GeneralHanno
2007-10-12, 17:06:37
vll wurde die HRDR performence gesteigert (siehe HDRR der hd2000 reihe)

reunion
2007-10-12, 17:06:50
Ja, der postiert sich ziemlich gut im 3DMark06:
http://www.digit-life.com/articles2/digest3d/0907/itogi-video-m61-wxp-aaa-1280-pcie.html
http://www.digit-life.com/articles2/digest3d/0907/itogi-video-m62-wxp-aaa-1280-pcie.html

Wenn man hier noch etwas weiter verbessert hat, wäre das vielleicht sogar mit 4C und einer SD von 1.8GHz+ möglich. Aber dagegen spricht doch einiges mittlerweile...

Was spricht denn konkret dagegen? Sowohl der Name, als auch der Verkaufspreis sprechen ganz klar dafür. Und mehr als die 3dmark-Werte gibt es AFAIK noch nicht, und diese sprechen wie du selbst sagst auch nicht gegen 4C, siehe G84 mit nur zwei Cluster.

AnarchX
2007-10-12, 17:11:58
Was spricht denn dagegen?
Eben die Folie von NV...
Dann noch der Heatspreader für einen 4C-160mm² Die und die Information, dass es nur G92(einen G80-Shrink) gibt.

Ganz logisch scheint alles nicht, aber es ist wohl nunmal der Plan von NV sein, mit dem sie gewisse Ziele beabsichtigen.

reunion
2007-10-12, 17:16:55
Eben die Folie von NV...


Stimmt.


Dann noch der Heatspreader für einen 4C-160mm² Die und die Information, dass es nur G92(einen G80-Shrink) gibt.


Naja, selbst wenn G92 ein G80 Shrink ist, weiß man deshalb ja noch nicht, wieviele Einheiten bei der 8800GT tatsächlich aktiviert sind.


Ganz logisch scheint alles nicht, aber es ist wohl nunmal der Plan von NV sein, mit dem sie gewisse Ziele beabsichtigen.

Ja, momentan widerspricht sich noch einiges.

Die gelbe Eule
2007-10-12, 17:24:06
Laut Fudo soll der RV670 genauso aufgebaut sein wie der R600, halt nur 55nm, paar Mhz mehr und 256bit. 3DMark Scores sind hier fast die gleichen wie bei der GT. Da kann man ansetzen, wie die Karte aufgebaut sein könnte. 600/1500/900 sind ja nun auch bestätigt.

AnarchX
2007-10-12, 17:24:53
Naja, selbst wenn G92 ein G80 Shrink ist, weiß man deshalb ja noch nicht, wieviele Einheiten bei der 8800GT tatsächlich aktiviert sind.

Wohl eben 7C+4RPs mit niedrigerem Takt.

Hier gibt es noch ein paar Dokumente zur 8800GT, aber nichts unbedingt interessantes:
GeForce 8800 GT product and markings info (http://forums.vr-zone.com/showthread.php?t=194582)

dargo
2007-10-12, 17:28:13
ich meinte das folgende:

sm 3.0 score gt (3958) vs. gts (3058) +30,2%
sm 2.0 score gt (3343) vs. gts (2717) +23%
Interne Verbesserungen beim G92 unter Einsatz von HDRR?

reunion
2007-10-12, 17:29:36
Wohl eben 7C+4RPs mit niedrigerem Takt.


Dafür ist die 3dmark-Leistung selbst ohne G84-Verbesserungen (die fast sicher an Board sein werden) im Vergleich zur 8800U IMO zu niedrig. Wo soll der Unterschied von >30% denn herkommen, von der Speicherbandbreite? Glaube ich kaum. Denn immerhin soll auch die 8800GT mit 600/1500/900 takten, was kaum niedriger ist als bei der 8800U. Auch wäre der Preis viel zu niedrig, wenn man einen vollen G92 weiter um ~500€ verkaufen will (es sei denn dieser hat mehr als acht Cluster).

AnarchX
2007-10-12, 17:32:59
Dafür ist die 3dmark-Leistung im Vergleich zur 8800U IMO zu niedrig. Denn immerhin soll auch die 8800GT mit 600/1500/900 takten, was kaum niedriger ist als bei der 8800U.

256Bit @900MHz vs 384Bit@1080MHz

Auch wäre der Preis viel zu niedrig, wenn man eine. vollen G92 weiter um ~500€ verkaufen will.

Warum sollte man 2mal soviel Speicher-Bandbreite und damit 256MB mehr VRAM und vielleicht 52% mehr Tex und 66% Pix-Leistung und eben 50%+ arithmetische Leistung ->8C+6RP @ ~0.8/2/1.2GHz, nicht für 500€+ verkaufen können? ;)

seahawk
2007-10-12, 17:37:50
Sehe ich auch wie reunion 4C mehr nicht. Die effektive Verbesserung der 3DMark Werte ala 8600.

reunion
2007-10-12, 17:38:00
Warum sollte man 2mal soviel Speicher-Bandbreite und damit 256MB mehr VRAM und vielleicht 33% mehr Tex und 66% Pix-Leistung und eben 50%+ arithmetische Leistung nicht für 500€+ verkaufen können? ;)

Naja okay, für High-End musste man fast immer kräftig draufzahlen. Die GT dürfte dann doch direkt mit RV670 konkurrieren. Wobei deine Zahlen schon ziemlich optimistisch angesetzt sind IMHO, da bräuchte man schon ziemlich hohe Taktraten.

AnarchX
2007-10-12, 17:41:56
Wobei deine Zahlen schon ziemlich optimistisch angesetzt sind IMHO.
Es sind die, welche doch schon seit Ewigkeiten herumschwirren für G9x-HighEnd. (siehe ergänzte Taktraten)

Wobei Ailuros etwas von der Überschätzung von 65/55nm durch beide IHVs sagte, vielleicht ein möglicher Grund warum man diese Taktraten nicht mehr 2007 liefern kann.

Aber naja, darüber wird ja bald die 8800 GT indirekt Auskunft geben können mit ihren OC-Ergebnissen.

robbitop
2007-10-12, 18:09:11
Dafür ist die 3dmark-Leistung selbst ohne G84-Verbesserungen (die fast sicher an Board sein werden) im Vergleich zur 8800U IMO zu niedrig. Wo soll der Unterschied von >30% denn herkommen, von der Speicherbandbreite? Glaube ich kaum. Denn immerhin soll auch die 8800GT mit 600/1500/900 takten, was kaum niedriger ist als bei der 8800U. Auch wäre der Preis viel zu niedrig, wenn man einen vollen G92 weiter um ~500€ verkaufen will (es sei denn dieser hat mehr als acht Cluster).
Grob gerechnet komme ich auf 6 Cluster fuer die 8800GT.
Das "Mehr" an TAUs bringt sowieso nur bei ST was. Wenn die AA-Leistung der RV670 besser ist als die der R600, kommen beide Karten auf ein aehnliches Level. +/- ein paar Prozent.

Gast
2007-10-12, 18:22:48
Naja, beim GPU-limitierten SM3-Score ist die Ultra 31% schneller. Jetzt darf man nicht die Verbesserungen des G84 vergessen, die beim 3dmark bekanntlich beachtliche Vorteile bringen.

"Beachtliche Vorteile"? Du meinst das tolle 1:1 Tri-Setup? :rolleyes:
Eine 8600GTS erreicht mit AA/AF mitnichten 50% der GTS. Im SM2.0 Test erreicht sie mit einem 3GHz C2D 1524 Punkte und im SM3.0 Test sind es 1205 Punkte. Ein 4Cluster Chip mit 600MHz/1800MHz/1800MHz hätte nur 78% mehr Texturleistung, 80% mehr Speicherbandbreite und 148% mehr Rechenleistung. Da der 3DMark2006 nicht von der Rechenleistung abhängig ist, ist sie nicht verantwortlich für die Ergebnisse der Seite.
Das bedeutet, dass ein doppeltet G84 folgendes Ergebnis im Vergleich zu Dargo's Ergebnis hätte:
SM2.0: 3048 vs 3058
SM3.0: 2410 vs 2717

Tja, alleinig die CPU wäre eine Erklärung für die deutlich besseren Ergebnisse.

http://www.xbitlabs.com/articles/video/display/powercolor-hd2600pro_18.html#sect0

LovesuckZ

reunion
2007-10-12, 18:42:56
Grob gerechnet komme ich auf 6 Cluster fuer die 8800GT.

Mal sehen, ich würde auch eher auf sechs Cluster tippen, wären da nicht die Folien mit den 112SPs. Zumindest ist es jetzt schon ziemlich sicher was von nV kommt, nämlich ein geshrinkter G80. Einer GX2 mit "close to 1TFLOP" steht dann auch nichts mehr im Wege, oder man schafft das mit einem Single-Chip und >2.3Ghz ALU-Takt.


Das "Mehr" an TAUs bringt sowieso nur bei ST was.


Viel bedeutender ist wohl das verbesserte Tri-Setup. Schau dir mal Vertexshadervergleiche zwischen G84 und G80 an. Und das der 3dmark auch mit der Vertexleistung skaliert, ist ja nichts neues.


Wenn die AA-Leistung der RV670 besser ist als die der R600, kommen beide Karten auf ein aehnliches Level. +/- ein paar Prozent.

Mhm, leistungsmäßig bleibt nV wohl knapp in Front, allerdings benötigt man dafür ein 50% größeres Die wenn die 289mm² stimmen. Und die Vorteile in punkto Leistungsaufnahme sind sicher auch nicht mehr so gravierend.

"Beachtliche Vorteile"? Du meinst das tolle 1:1 Tri-Setup? :rolleyes:


Ja, genau das. Da kannst du mit dem Augen rollen so viel du willst.


Eine 8600GTS erreicht mit AA/AF mitnichten 50% der GTS.


Ja, der postiert sich ziemlich gut im 3DMark06:
http://www.digit-life.com/articles2/digest3d/0907/itogi-video-m61-wxp-aaa-1280-pcie.html
http://www.digit-life.com/articles2/digest3d/0907/itogi-video-m62-wxp-aaa-1280-pcie.html
(wobei hier der X6800 auch limitieren könnte...)

Wenn man hier noch etwas weiter verbessert hat, wäre das vielleicht sogar mit 4C und einer SD von 1.8GHz+ möglich. Aber dagegen spricht doch einiges mittlerweile...

Es sind beide male über 50%, einmal nur knapp, und einmal deutlich mehr.


Da der 3DMark2006 nicht von der Rechenleistung abhängig ist, ist sie nicht verantwortlich für die Ergebnisse der Seite.

Das schließt du woraus?

LovesuckZ
2007-10-12, 18:50:37
Ja, genau das. Da kannst du mit dem Augen rollen so viel du willst.

Warum führt dann die 2900XT nicht so prächtig in diesem Bench? :rolleyes:


Es sind beide male über 50%, einmal nur knapp, und einmal deutlich mehr.

Eine 8600GTS führt vor der 8600GT mit 51% und und 47%. Nicht wirklich glaubwürdig, oder?

/edit: Es ist die Speicherbandbreite, die mit AA limitiert. Eine GTS hat die doppelte Speicherbandbreite und ist doppelt so schnell. Eine GTX hat gegenüber der GTS nur 35% mehr und ist in diesem Bereich schneller. Eine 8800GT dürfte daher garnicht schneller sein...

reunion
2007-10-12, 19:04:42
Warum führt dann die 2900XT nicht so prächtig in diesem Bench? :rolleyes:



Eine 8600GTS führt vor der 8600GT mit 51% und und 47%. Nicht wirklich glaubwürdig, oder?

/edit: Es ist die Speicherbandbreite, die mit AA limitiert. Eine GTS hat die doppelte Speicherbandbreite und ist doppelt so schnell. Eine GTX hat gegenüber der GTS nur 35% mehr und ist in diesem Bereich schneller. Eine 8800GT dürfte daher garnicht schneller sein...

Hör mal auf in diesem Binärmuster zu denken. Die Zeiten, in denen es nur einen großen Flaschenhals gab, sind längst vorbei. Theoretisch kann in jedem einzelnen Frame etwas völlig anderes limitieren, und auch das ist natürlich von Karte zu Karte unterschiedlich. In habe nie gesagt, dass der 3dmark nur von der Vertexleistung abhängt, aber er skaliert eben auch mit dieser. Genauso wie anscheinend auch mit der Speicherbandbreite, wie du ja gerade glaubst.

LovesuckZ
2007-10-12, 19:08:48
Wenn er so gut mit der Vertexleistung skalieren sollte, wieso schneidet die 2900XT nicht besser ab?

AnarchX
2007-10-12, 19:10:50
Wenn er so gut mit der Vertexleistung skalieren sollte, wieso schneidet die 2900XT nicht besser ab?

Die Frage ist eher: Warum schneidet sie so gut ab?
Die Antwort darauf hast du ja schon... ;)

reunion
2007-10-12, 19:11:41
Wenn er so gut mit der Vertexleistung skalieren sollte, wieso schneidet die 2900XT nicht besser ab?

Sie liegt eh ausgezeichnet, immerhin auf GTX/U-Niveau, ich verstehe nicht was du jetzt willst. Das sie nur wegen der höheren Vertexleistung nicht allen davon fliegt sollte klar sein und wurde von mir auch nie behauptet.

LovesuckZ
2007-10-12, 19:20:37
Die Frage ist eher: Warum schneidet sie so gut ab?
Die Antwort darauf hast du ja schon... ;)

Sollte anhand der Dokumentation des 3DMark2006 erkennbar sein: In den SM3.0 Test liegt es neben der brachialen rechenleistung auch an der höherwertigen Filterung. Und in dem SM2.0 Test fällt sie wegen den schlechteren ROPs ab. Ich sehe aber keinen grund anzunehmen, dass das Tri-Setup hier irgendwie ein ausschlaggebender Punkt wäre.

robbitop
2007-10-12, 19:28:02
Viel bedeutender ist wohl das verbesserte Tri-Setup. Schau dir mal Vertexshadervergleiche zwischen G84 und G80 an. Und das der 3dmark auch mit der Vertexleistung skaliert, ist ja nichts neues.
Tri-Setup, Schmi-Setup. Ausser in Synthies limitiert das bei keinem halbwegs anstaendigen Chip. ;)



Mhm, leistungsmäßig bleibt nV wohl knapp in Front, allerdings benötigt man dafür ein 50% größeres Die wenn die 289mm² stimmen. Und die Vorteile in punkto Leistungsaufnahme sind sicher auch nicht mehr so gravierend.
Kommt drauf an, wie leaky der 55 nm Prozess ist.
Was die Groesse angeht, nehme ich an, dass ein voller G92 8x Cluster besitzt und dementsprechend teurer verkauft werden kann (GTX/Ultra). Die abgespeckten Karten: 8800GTS (7 Cluster?)/GT (6Cluster?) ect sind dann ja sozusagen nur recycelte Chips.

reunion
2007-10-12, 19:50:11
Tri-Setup, Schmi-Setup. Ausser in Synthies limitiert das bei keinem halbwegs anstaendigen Chip. ;)


Das bezog sich auch auf den 3dmark.


Kommt drauf an, wie leaky der 55 nm Prozess ist.

Die TDP-Angaben sind jedenfalls vielversprechend: Ein RV670Pro mit minimal mehr Takt als ein R600XT hat eine TDP von 105W vs. 240W bei der XT auf R600 Basis.


Was die Groesse angeht, nehme ich an, dass ein voller G92 8x Cluster besitzt und dementsprechend teurer verkauft werden kann (GTX/Ultra). Die abgespeckten Karten: 8800GTS (7 Cluster?)/GT (6Cluster?) ect sind dann ja sozusagen nur recycelte Chips.

Natürlich. Die Frage, die bleibt, ist, was nV gegen den Dual Rv670 stellt. Kommt ein recht hoch getakteter G92 oder auch eine Dual-Karte?

AnarchX
2007-10-12, 19:56:09
Kommt ein recht hoch getakteter G92 oder auch eine Dual-Karte?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5888050&postcount=359

Die Entwicklungen in der nahen Vergangenheit deuten doch immer mehr auf Variante 1 hin, wenn sie auch durch gewisse Probleme vielleicht nicht mehr 2007 kommt, sondern gemeinsam mit der 2950X2X im Januar.

Mr. Lolman
2007-10-12, 20:12:43
Tri-Setup, Schmi-Setup. Ausser in Synthies limitiert das bei keinem halbwegs anstaendigen Chip. ;)


Schmi?

Ailuros
2007-10-12, 21:39:44
Sie liegt eh ausgezeichnet, immerhin auf GTX/U-Niveau, ich verstehe nicht was du jetzt willst. Das sie nur wegen der höheren Vertexleistung nicht allen davon fliegt sollte klar sein und wurde von mir auch nie behauptet.

Da G80 in der Mehrzahl der Faelle zwei Takte fuer einen Tri braucht und R600 nur einen, ist das Resultat nicht unbedingt was besonderes.

robbitop
2007-10-12, 21:41:54
Natürlich. Die Frage, die bleibt, ist, was nV gegen den Dual Rv670 stellt. Kommt ein recht hoch getakteter G92 oder auch eine Dual-Karte?
Laut Fudo kommt eine 8850GX2. Ich schaetze mal, das werden 8 C Dinger sein aber mit weniger Takt und weniger Spannung (siehe G71 GX2).

Schmi?
Das ist sinnfrei gereimt. Ein sprachliches Stilmittel.

laser114
2007-10-12, 21:48:13
Laut Fudo kommt eine 8850GX2. Ich schaetze mal, das werden 8 C Dinger sein aber mit weniger Takt und weniger Spannung (siehe G71 GX2).

Wann hat er denn von der 8850 GX2 geschrieben?

Ailuros
2007-10-12, 21:49:50
Die TDP-Angaben sind jedenfalls vielversprechend: Ein RV670Pro mit minimal mehr Takt als ein R600XT hat eine TDP von 105W vs. 240W bei der XT auf R600 Basis.

Von Problemen mit 55nm hab ich bis jetzt noch nichts hoeren koennen, aber es ist auch ziemlich frueh dafuer. Wie dem auch sei vielsprechend ist stets relativ zur Veroeffentlichungs-Zeit. Kommt das Ding zu seiner projezierten Zeit an, kann man u.U. von einem Vorteil reden. Zwar keinem grossen aber es waere immerhin etwas und es heisst dann auch natuerlich dass AMD um weites bessere Chancen hat ihren Schlepptop-Marktanteil wieder auf Trab zu bringen.

Dafuer muesste aber RV670 kleiner, stromsparender und schneller sein als G92.


Natürlich. Die Frage, die bleibt, ist, was nV gegen den Dual Rv670 stellt. Kommt ein recht hoch getakteter G92 oder auch eine Dual-Karte?

Single chip waere im Vorteil was die Spiele-Kompatibilitaet betrifft; dual chip ist insgesamt billiger herzustellen IMHO.

robbitop
2007-10-12, 21:57:45
Naja, um eine RV670 Dual zu schlagen, braucht es aber einen verdammt hochgetakteten 8x Cluster Chip. Eher wird IMO eine Dual G92 mit maessigen VCore und Takt dafuer herhalten.

Dass sowas billiger herzustellen sein soll, als eine grosse Einzelkarte bezweifle ich.

(doppelte RAM Menge noetig, PCB Kosten steigen erheblich, Packaging ebenfalls, Spannungswandlung wird auch viel teurer)

Wenn man jedoch die Deckungsbeitraege fuer's R&D noch draufrechnet, ist eine GX2 bis zu einem Umsatz X allerdings IMO billiger, ja.

AnarchX
2007-10-12, 22:22:23
Naja, um eine RV670 Dual zu schlagen, braucht es aber einen verdammt hochgetakteten 8x Cluster Chip.
Sagen wir mal RV670 ist mit 750/1200MHz(das was es auf der X2X geben wird) ca. 15% schneller als eine 2900XT, wären das bei einer CF-Skalierung von 1.8, die ATi immer angibt, ca doppelte 2900XT-Performance.
Eine 8800Ultra schafft schon 1.5fache (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet) 2900XT-Performance, aber es gibt auch Extremfälle wo es weit mehr ist.

Imo sollte es kein Problem sein, einen "65nm-G80" auf solche Taktraten zu bringen, die nötig sind um die 40% Leistung (wenn denn bei der X2X CF richtig läuft ;)), die man für einen Sieg braucht, zu holen, wenn man sich schon die 8800GT anschaut, die mit Single-Slot-Kühlung Ultra-Taktraten bei nur einem Cluster weniger schafft.


Eher wird IMO eine Dual G92 mit maessigen VCore und Takt dafuer herhalten.

Aber wofür führt dann NV 3-Wege-SLI ein? ;)

Gast
2007-10-12, 22:26:51
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/oktober/neue_geforce_8800_gts_g92-basis/

reunion
2007-10-12, 22:45:43
Naja, um eine RV670 Dual zu schlagen, braucht es aber einen verdammt hochgetakteten 8x Cluster Chip. Eher wird IMO eine Dual G92 mit maessigen VCore und Takt dafuer herhalten.


Eben. Andererseits ist ein 289mm² Die schon verdammt groß für eine Dual-Karte.

AnarchX
2007-10-12, 22:48:33
Andererseits ist ein 289mm² schon verdammt groß für eine Dual-Karte.
Genau, warum sollte man einen so fetten Chip bauen und ihn auf niedrigen Taktraten laufen lassen, wenn es auch ein kleinerer/günstigerer Chip mit höheren Taktraten getan hätte, der die gleiche Leistung erbringen würde?

reunion
2007-10-12, 22:52:29
Genau, warum sollte man einen so fetten Chip bauen und ihn auf niedrigen Taktraten laufen lassen, wenn es auch ein kleinerer/günstigerer Chip mit höheren Taktraten getan hätte, der die gleiche Leistung erbringen würde?

Naja, die gleiche Leistung wie mit einer Dual-Karte erreichst du mit höheren Taktrate bei weitem nicht. Siehe 7900GTX vs. GX2, und bald 2950XT vs X2X. Nur wären zwei 289mm² Dice inkl. den anderen Kram wohl schon verdammt teuer.

Habe dich falsch verstanden.

GeneralHanno
2007-10-12, 23:00:23
dennoch sollten wir nicht vergessen, dass es eine 1-TERA-FLOP-SKU geben soll (auf aktionärskonferenz angekündigt).

das ist mit 128SP nicht möglich. also MUSS noch etwas größeres (D8E) kommen. entweder 2*G92 oder eben ein neuer high-end chip mit noch mehr clustern/SP.

reunion
2007-10-12, 23:02:46
Naja, mit den schon länger herumgeisternden 2.4Ghz wäre das inkl. MUL schon möglich:

128 x 3 x 2.4 = 921.6 GFLOPs = "close to 1 TFLOP"

Nur wäre das schon eine enorme Taktsteigerung, fraglich ob das nur wegen 65nm machbar ist.

AnarchX
2007-10-12, 23:17:15
Nur wäre das schon eine enorme Taktsteigerung, fraglich ob das nur wegen 65nm machbar ist.

112SPs@1.5GHz scheinen ja schon mit 1.05/1.1V machbar zu sein, wo eine 8800 Ultra noch für 128SPs@1.5GHz 1.3/1.35V brauchte.

reunion
2007-10-12, 23:20:27
112SPs@1.5GHz scheinen ja schon mit 1.05/1.1V machbar zu sein, wo eine 8800 Ultra noch für 128SPs@1.5GHz 1.3/1.35V brauchte.

Trotzdem, 2.4Ghz wären nochmal satte 60% mehr Takt. Und so hoch wird man die Spannung bei 65nm wohl nicht mehr treiben können. Ich verstehe ohnehin nicht, warum G80 eine so hohe Spannung benötigt und vorallem trotzdem noch so kühl bleibt. Ein R600XT hat in 80nm nur 1.15V und braucht trotzdem mehr Strom.

AnarchX
2007-10-12, 23:38:27
Trotzdem, 2.4Ghz wären nochmal satte 60% mehr Takt. Und so hoch wird man die Spannung bei 65nm wohl nicht mehr treiben können.
Laut dem RV670-Guide (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5889187&postcount=372), will doch ATi sogar 1.26V geben, bei 55nm.

Und 50-60% mehr Takt hatte man in Vergangenheit bei dem Wechsel von einem Fullnode auf den anderen sogar mit steigender Komplexität geschafft (siehe NV40 -> G71)

Hatte vor kurzem auch etwas von einem Verbrauch unter einer 8800GTX, für NVs kommendes High-End gehört. ;)


Ich verstehe ohnehin nicht, warum G80 eine so hohe Spannung benötigt und vorallem trotzdem noch so kühl bleibt.
Ein R600XT hat in 80nm nur 1.15V und braucht trotzdem mehr Strom.
Naja, 90GT und 80HS sind nunmal zwei verschiedene Prozesse und zwei doch sehr verschiedene Designs zu vergleichen ist wiederrum auch nicht so einfach, da intern so manche Dinge anders ablaufen und eben einen entsprechend anderen Verbrauch verursachen
(Man erinnere sich an Ailuros Aussage, dass der R600 im Laufe der Entwicklung mal bei ca. 1W pro MHz lag.)

up¦²
2007-10-13, 02:09:17
Nur 17% "schwächer" als die 8800 Ultra ... ??? :eek:
http://translate.google.com/translate?sourceid=navclient-menuext&hl=en&u=http%3A%2F%2Fnews%2Eexpreview%2Ecom%2F2007%2D10%2D12%2F1192187831d3927%2Ehtml

Superheld
2007-10-13, 02:13:17
joa haut ganz schön rein die Karte:)

GeneralHanno
2007-10-13, 08:57:01
17% wenn man 3dmak incl quad CPU betrachtet :D

es wurde mit AA/AF norm aufl. gebencht.
SM2 : U liegt 17% vor GT
SM3: U liegt 30% vor GT

Power
2007-10-13, 10:05:03
liegt immer noch 300 Punkte hinter meiner BFG 8800GTS320 OC die mit nem 6750@3.4Ghz befeuert wird, mit dem 3.6GHz Quad sollte ich auf 10500 punkte kommen

AnarchX
2007-10-13, 10:22:59
liegt immer noch 300 Punkte hinter meiner BFG 8800GTS320 OC die mit nem 6750@3.4Ghz befeuert wird, mit dem 3.6GHz Quad sollte ich auf 10500 punkte kommen

4xAA/8xAF!

dargo
2007-10-13, 10:25:47
Nur 17% "schwächer" als die 8800 Ultra ... ??? :eek:
http://translate.google.com/translate?sourceid=navclient-menuext&hl=en&u=http%3A%2F%2Fnews%2Eexpreview%2Ecom%2F2007%2D10%2D12%2F1192187831d3927%2Ehtml
Schau mal auf Seite 19. ;)

Gast
2007-10-13, 10:30:30
Die Karte is gekofft jippie. Denkmal von meiner jetzigen 7900GS, is das sicher nen richtiger Sprung nach vorn ;)

Gast
2007-10-13, 11:59:28
In Auflösungen von 1920 x 1200 wird der Rückstand der 8800GT zur Ultra, denke ich um einiges größer

Gast
2007-10-13, 12:54:28
Nur 17% "schwächer" als die 8800 Ultra ... ??? :eek:
http://translate.google.com/translate?sourceid=navclient-menuext&hl=en&u=http%3A%2F%2Fnews%2Eexpreview%2Ecom%2F2007%2D10%2D12%2F1192187831d3927%2Ehtml

Zeit is reif für ne neue highend Karte
in Top Spielen 8800gtx + 50%.....danke :D

Adam D.
2007-10-13, 14:48:42
In Auflösungen von 1920 x 1200 wird der Rückstand der 8800GT zur Ultra, denke ich um einiges größer
GT und Ultra konkurrieren aber auch in keinster Weise, die GT zielt nicht auf einen Einsatz in solchen Auflösungen ab.

dargo
2007-10-13, 14:53:05
In Auflösungen von 1920 x 1200 wird der Rückstand der 8800GT zur Ultra, denke ich um einiges größer
In diesen Auflösungen ist eher ein G8800GTX/Ultra Gespann nötig um noch vernünftig aktuelle Spielen zocken zu können.

Gast
2007-10-13, 15:01:19
In diesen Auflösungen ist eher ein G8800GTX/Ultra Gespann nötig um noch vernünftig aktuelle Spielen zocken zu können.

Weswegen wir endlich eine neue HIgh-End-Grafikkarte brauchen!!

Ist mir egal von Nvidia oder ATI, HAUPTSACHE ist, dass sie viel schneller als eine 8800Ultra ist, einen gescheiten 2D/3D-Stromsparfunktion hat und nicht komplett überteuert ist.

Gibt doch ziemlich viele Leute, die einen 24''TFT+ haben und die native Auflösung genießen wollen ;)

Gast
2007-10-13, 15:37:35
Weswegen wir endlich eine neue HIgh-End-Grafikkarte brauchen!!

Ist mir egal von Nvidia oder ATI, HAUPTSACHE ist, dass sie viel schneller als eine 8800Ultra ist, einen gescheiten 2D/3D-Stromsparfunktion hat und nicht komplett überteuert ist.

Gibt doch ziemlich viele Leute, die einen 24''TFT+ haben und die native Auflösung genießen wollen ;)
Kommt doch nächstes Jahr. Aber eine 3D-Stromsparfunktion, was soll das sein? Denke bei den Power Karten wird sich der 3D-Verbrauch wieder um die 150 Watt einpendeln.

Gast
2007-10-13, 15:58:18
Kommt doch nächstes Jahr. Aber eine 3D-Stromsparfunktion, was soll das sein? Denke bei den Power Karten wird sich der 3D-Verbrauch wieder um die 150 Watt einpendeln.

LOL.........wollte 2D schreiben!

Mich interessiert es nicht wirklich, wenn die Karte bei Anwendungen komplett ausgelastet ist, wie viel Strom si verbraucht.

Aber mich interessiert es schon, wenn ich einfach durch das Internet surfe/Office-Anwendung benutze und die Karte verbraucht immer noch soviel Strom für nichts.

Nächstes Jahr erst?

Man, normalerweise doch immer im Jahresrythmus! :((

AnarchX
2007-10-13, 16:37:39
Game Benches!
http://translate.google.com/translate?u=http%3A%2F%2Fwww.force.game.tw%2F&langpair=zh%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Gast
2007-10-13, 16:40:55
Game Benches!
http://translate.google.com/translate?u=http%3A%2F%2Fwww.force.game.tw%2F&langpair=zh%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Geil. =)

GeneralHanno
2007-10-13, 16:41:48
trotz full-HD und AA kann sich die GT(256bit) vor der GTS(320bit) positionieren.

Gast
2007-10-13, 16:46:02
trotz full-HD und AA kann sich die GT(256bit) vor der GTS(320bit) positionieren.
Wayne zum SI. ;)

Ich würde sagen: trotz 57500 MB/s zu den 64000 MB/s der GTS.
Also bei gerade mal 900Mhz VRAM. :)

GeneralHanno
2007-10-13, 16:48:05
stimmt. die speicherbandbreite wäre etwas korrekter.

man sieht aber, dass selbst bei solchen "kranken" settings nicht die bandbreite limitiert.

James Ryan
2007-10-13, 16:51:19
Game Benches!
http://translate.google.com/translate?u=http%3A%2F%2Fwww.force.game.tw%2F&langpair=zh%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Alles Fake werden gleich die üblichen Verdächtigen wieder rufen! ;D
Die Karte wird der Hammer für den Preis! :eek:
Zugleich aber auch der Todesstoß für die klassische GTS. Aber gut, wurde auch Zeit nach einem Jahr!

MfG :cool:

Gast
2007-10-13, 16:51:52
Game Benches!
http://translate.google.com/translate?u=http%3A%2F%2Fwww.force.game.tw%2F&langpair=zh%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Hier ist doch irgendwas faul:
http://bp2.blogger.com/_gQWohSISwpA/RxC5c4lRPeI/AAAAAAAAACs/tmyuK5XLwDM/s400/scct.jpg

Die gelbe Eule
2007-10-13, 16:58:44
Hier liegen auch 100MHz mehr GPU Takt an, Ergebnisse gehen in Ordnung.

Gast
2007-10-13, 17:01:50
Ultra >30% schneller als GTX?
GT schneller als GTX?

Nein, Tim, ich glaube nicht.

GeneralHanno
2007-10-13, 17:05:32
in grenzbereichen ist es doch bekannt, dass selbst 10% mehr takt eine sehr große beschleunigung bringen kann. es kann aber auch ein messfehler sein (ein faker würde glaubhaft faken ;))

Adam D.
2007-10-13, 17:17:54
Also irgendwas stimmt da doch nicht. Und es soll mir hier keiner erzählen, wie Nvidia die 8800GT glaubhaft an den Mann bringen soll, wenn sie die GTS hinter sich lässt und max. 220€ kostet. Also nicht, dass das meine Traumkarte wäre (ich warte sehnsüchtig auf die ersten Shops), aber das macht doch keinen Sinn :|

Gast
2007-10-13, 17:18:37
Alles Fake werden gleich die üblichen Verdächtigen wieder rufen! ;D

Ich hätte eher erwartet, dass die nVidia-Fraktion hier Fake ruft, denn immerhin wird die 8800GTS von der 2900XT laut diesem Test mit durchschnittlich 17% deutlich abgehängt ;)

dargo
2007-10-13, 17:28:26
Weswegen wir endlich eine neue HIgh-End-Grafikkarte brauchen!!

Das Problem ist eher, dass 1920x1200 (ich nehme mal an du meinst inkl. 4xAA/16xAF) erstmal SLI Gebiet bleibt. Wenn irgendwas doppelt so schnelles wie eine G8800GTX erscheint dann ist es nur ein Frage der Zeit bis diese wieder für solche BQ zu langsam ist. Die Spieleentwicklung wird nicht stehen bleiben in 2008.

seahawk
2007-10-13, 17:33:25
http://www.force.game.tw/

Wenn die Besnches stimmen ist die 8800Gt im Schnitt langsamer als 2900XT und damit sicher langsamer als Gladiator. :uup:

dargo
2007-10-13, 17:34:52
Game Benches!
http://translate.google.com/translate?u=http%3A%2F%2Fwww.force.game.tw%2F&langpair=zh%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Also, den SCCT Benchmark kann man schon mal vergessen. Da stimmt was nicht. Auch Prey kommt mir etwas spanisch vor, wie kann eine Ultra langsamer sein als eine GTX? :|
Der Rest zeigt aber meine Vermutungen, knapp über G8800GTS.

http://www.force.game.tw/

Wenn die Besnches stimmen ist die 8800Gt im Schnitt langsamer als 2900XT und damit sicher langsamer als Gladiator. :uup:
Für eine Gladiator wird es eine neue G8800GTS geben. ;)

Gast
2007-10-13, 17:38:14
http://www.force.game.tw/

Wenn die Besnches stimmen ist die 8800Gt im Schnitt langsamer als 2900XT und damit sicher langsamer als Gladiator. :uup:

Lern mal Zählen. Baumschule?

Gast
2007-10-13, 17:38:14
Wenn die Besnches stimmen ist die 8800Gt im Schnitt langsamer als 2900XT und damit sicher langsamer als Gladiator. :uup:
In 4 von 5 Benches ist die 8800GT schneller.

Gast
2007-10-13, 17:40:13
Für eine Gladiator wird es eine neue G8800GTS geben. ;)

Jups.

Adam D.
2007-10-13, 17:45:04
Nach den letzten Informationen sind dann doch die neue GTS und die GT auf etwa dem selben Niveau. Sinn?

Gast
2007-10-13, 17:45:52
Tja seahawk, da willst du schon provoziern, und dann stellst du dich so dämlich an. Hier wars so friedlich bis JETZT, und nun kommst du spinner an. Dich solltns mal verwarn.

Gast
2007-10-13, 17:47:07
Ich versteh das nicht, du warst doch auch immer ein nvidia Fan seahawk.

James Ryan
2007-10-13, 17:49:54
Nach den letzten Informationen sind dann doch die neue GTS und die GT auf etwa dem selben Niveau. Sinn?

Die neue GTS wird wohl auf G92 basieren und 128 SPs haben.
Die GT reiht sich nahtlos drunter ein, passt also alles.

MfG :cool:

Adam D.
2007-10-13, 17:53:41
Die neue GTS wird wohl auf G92 basieren und 128 SPs haben.
Die GT reiht sich nahtlos drunter ein, passt also alles.

MfG :cool:
Ah, verstehe. Das macht Sinn. Die nächsten 16 Tage werden hart, echt hart ;(

Ailuros
2007-10-13, 18:07:47
http://www.force.game.tw/

Wenn die Besnches stimmen ist die 8800Gt im Schnitt langsamer als 2900XT und damit sicher langsamer als Gladiator. :uup:

Es waere angebrachter wenn Du die GT mit einer 2900PRO vergleichen wuerdest. Erstmal sind die beiden direkte Konkurrenz zum gleichen Preis und hier gibt es garantiert nichts zum jubeln. Bon apetit.

derguru
2007-10-13, 18:12:06
wann sollen die gt karten ca raus kommen?

Gast
2007-10-13, 18:12:54
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385361

laser114
2007-10-13, 18:18:56
Es waere angebrachter wenn Du die GT mit einer 2900PRO vergleichen wuerdest.

Die Pro kann man aber jetzt kaufen, die GT noch nicht. Und der RV670 kommt auch bald. Kann man so also eigentlich nicht sehen.

Dass das kein Grund ist jetzt eine Grafikkarte zu kaufen sollte klar sein.

Bl@de
2007-10-13, 18:32:38
argh wenn die karte so gut wird will ich nicht solange warten :biggrin:

seahawk
2007-10-13, 19:41:26
Ich versteh das nicht, du warst doch auch immer ein nvidia Fan seahawk.

Schade, dass Du ein Gast bist, so kann ich Dir keien PM schicken.

reunion
2007-10-13, 20:14:17
Game Benches!
http://translate.google.com/translate?u=http%3A%2F%2Fwww.force.game.tw%2F&langpair=zh%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Fast wie erwartet knapp über der alten GTS und damit wohl knapp unter der neuen. Wobei der Test doch einen faden Beigeschmack hinterlässt, da manche Ergebnisse nicht stimmen können.

LovesuckZ
2007-10-13, 20:47:28
Fast wie erwartet knapp über der alten GTS und damit wohl knapp unter der neuen.

Sry, aber du hast das nicht erwartet. :rolleyes:

/edit: Aus meiner Sicht sind die Ergebnisse nicht real.

Gast
2007-10-13, 21:23:21
/edit: Aus meiner Sicht sind die Ergebnisse nicht real.
Ja du hast Angst um deine 1 Jahr alte GTX.

ShadowXX
2007-10-13, 21:27:48
Ja du hast Angst um deine 1 Jahr alte GTX.
Wieso sollte er da "Angst" haben...bis auf bei SCCT ist die GTX überall (deutlich) schneller.....falls die Benches echt sind.

Interessant wäre jetzt, warum es bei SCCT es diesen "Ausrutscher" gibt.

Gast
2007-10-13, 21:34:28
Wieso sollte er da "Angst" haben...bis auf bei SCCT ist die GTX überall (deutlich) schneller.....falls die Benches echt sind.

Angst das die Mittelklasse Performancemäßig massiv aufgeholt hat. :)

ShadowXX
2007-10-13, 21:44:55
Angst das die Mittelklasse Performancemäßig massiv aufgeholt hat. :)
Das ist nach einem Jahr absolut nicht ungewöhnlich....normalerweise passiert das nach einem halben Jahr.

Es geht wohl mehr darum, das der Name (und der Preis) der Karte konträr zu den Benches stehen.

LovesuckZ
2007-10-13, 21:44:56
So ein Quatsch. Das ist ganz normal bei Grafikkarten.

dargo
2007-10-13, 22:15:01
Ja du hast Angst um deine 1 Jahr alte GTX.
Wie lange bis du eigendlich im PC-Bereich tätig? Seit 3 Monaten? *hust*

AnarchX
2007-10-13, 23:59:33
Fast wie erwartet knapp über der alten GTS und damit wohl knapp unter der neuen.
Wobei Werte aus etwas niedrigeren Setting auch interessant wären, hier wird wohl langsam Bandbreite oder ROP-Leistung ein Flaschenhals.

Aber der Test hat natürlich einige Ungereimtheiten, es ist halt wie immer, die ersten Karten bekommen die harmlosen Dilettanten.:biggrin:

Ailuros
2007-10-14, 08:21:06
Die Pro kann man aber jetzt kaufen, die GT noch nicht. Und der RV670 kommt auch bald. Kann man so also eigentlich nicht sehen.

Fuer den Verbraucher der nicht warten will gibt es zu diesem Preis momentan die GTS/320; hingegen richtet die PRO auch nichts besonderes an.

Dass das kein Grund ist jetzt eine Grafikkarte zu kaufen sollte klar sein.

Tja wie schon oefters gesagt, wartet ab bis die gesamte Produktpalette beider IHVs auf Ladentischen liegt. Metaphorisch heisst dass ganz einfach dass ein "Gladiator" in einer Arena meisstens 50:50 Chancen hat zu ueberleben. Ein "Messiah" ist dann wohl schon was anderes oder? ;)

Ailuros
2007-10-14, 08:32:09
Fast wie erwartet knapp über der alten GTS und damit wohl knapp unter der neuen. Wobei der Test doch einen faden Beigeschmack hinterlässt, da manche Ergebnisse nicht stimmen können.

Es gibt bei allen IHVs und bei der Mehrzahl der Refreshes kleine "Feinschleifungen" einiger Aspekte der Architektur die zu einer leichten Effizienz-steigerung fuehren. Gleiches wird auch fuer Gladiator gelten; was man sich merken sollte ist dass es nie genug Zeit und Resourcen in solchen Faellen gibt um zu fundamentalen Aenderungen zu fuehren.

NV hat ein bisschem am z-cull Zeug herumgefuchtelt seit G84; in manchen Faellen hilft es dann schon wenn das Ganze nicht von den 2 ROP partitions des G84 quasi "erwuergt" wird. AMD von der anderen Seite wird mit einigen kleinen Aenderungen in den ROPs wohl ankommen, aber fuer fundamentale Aenderungen muesste man mehr als nur eine Stelle in der Architektur umkrempeln.

Falls AMD es tatsaechlich geschafft hat von single cycle 2 auf single cycle 4xMSAA innerhalb einer Generation zu steigen, nehm ich ihnen den Hut ab.

robbitop
2007-10-14, 09:32:42
NV hat ein bisschem am z-cull Zeug herumgefuchtelt seit G84; in manchen Faellen hilft es dann schon wenn das Ganze nicht von den 2 ROP partitions des G84 quasi "erwuergt" wird.
Ein G84 hat nur 2 Cluster, ein G80 hat 8. Das wäre 1/4 der Rechenleistung.
Hingegen hat er aber schon 1/3 des SIs und damit auch der ROPs.
Wenn G84 von 2 ROPs "erwürgt" würde, würde G80 schon blutend am Boden liegen. :D
Da pro ROP jedoch 32 Z-Tester und 4 Blender anfallen, kann G84 immerhin mit 64 Z-Tests und 8 Blendern aufwarten. Das ist schon deutlich besser (ausser die nicht limitierenden Blender, wegen G84s Bandbreite) als R600 und das bei geringerer Rohleistung. IMO wird da höchstens R600 erwürgt.

AMD von der anderen Seite wird mit einigen kleinen Aenderungen in den ROPs wohl ankommen, aber fuer fundamentale Aenderungen muesste man mehr als nur eine Stelle in der Architektur umkrempeln.

Falls AMD es tatsaechlich geschafft hat von single cycle 2 auf single cycle 4xMSAA innerhalb einer Generation zu steigen, nehm ich ihnen den Hut ab.

Der ganz fiese Flaschenhals kommt auch IMO nicht von den ROPs im R600. Die 32 Z Tester sind ein Teilproblem. Ein Loop kostet nur einen Extra-Takt. Die Berechnung eines Pixels viele viele Takte mehr.

In irgendeiner Stelle scheint ein Bottleneck aufzutreten, der so sicher nicht geplant war (IMO zusehr ein Detailproblem um es mit einem Schlagwort "ROP" oder "Colorcompression" am GPU-Blockschaltbild zu finden). Das scheinen sie im RV670 gefixt zu haben. Dann kann man IMO R580 artigen Einbrüchen in MSAA rechnen. Hätte man mehr Z-Tester, wäre der Einbruch dann geringer.

seahawk
2007-10-14, 10:00:16
Tja wie schon oefters gesagt, wartet ab bis die gesamte Produktpalette beider IHVs auf Ladentischen liegt. Metaphorisch heisst dass ganz einfach dass ein "Gladiator" in einer Arena meisstens 50:50 Chancen hat zu ueberleben. Ein "Messiah" ist dann wohl schon was anderes oder? ;)

Was ist ein "Messiah" ? Ich meine im Hinblick auf GPUs.

GeneralHanno
2007-10-14, 10:06:23
die 8800ULTRA ;) zumindest für kinder mit viel geld. er meint es ist nicht gesichert, dass die 2950xt ein überflieger wird.

Gast
2007-10-14, 10:07:48
Schade, dass Du ein Gast bist, so kann ich Dir keien PM schicken.
Wie meinst du das konkret?

Gast
2007-10-14, 10:09:23
Wie lange bis du eigendlich im PC-Bereich tätig? Seit 3 Monaten? *hust*
Du hast meine Aussage wohl nicht ganz korrekt aufgenommen.

Wir hatten auch schon bessere Diskussionen.

Adam D.
2007-10-14, 10:57:34
Was ist ein "Messiah" ? Ich meine im Hinblick auf GPUs.
R680 Codename "Messia" :uup:

Beim Kampf zwischen G92 und RV670 gibt's wohl ein unentschieden und die neue ATi haut dann alles weg. Hoffentlich :usad:

Und so lange muss dann halt die 8800GT durchhalten :biggrin: