PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GTS 512MB: (P)Review-Thread


Seiten : 1 [2] 3 4

Razor
2007-12-04, 19:12:19
Für den Preis bestellt man sich als Forumfuchs doch lieber eine 8800GTX, die in Forenmarktplätzen mittlerweile für ca 320 EUR verfügbar sind.
Neue Karten mit gebrauchten zu vergleichen ist 'irgendwie'... doof.

Real sind die 88GTX schon ab 379€ zu haben... z.Bsp. bei Alternate (http://www.alternate.de/html/product/details.html?articleId=168311&showTechData=true).

Ich persönlich finde den Preis für die GTS512 zu hoch... aber ich würde mir auch NIEMALS einen G80 kaufen.
Auch nicht, wenn er 300€ kosten würde...
;)

Razor

Razor
2007-12-04, 19:15:15
Besser als 0 von der GT.
Nö... 16fps sind unspielbar, wie auch natürlich '0'!
;)

Und an den Details läßt sich immer und überall schrauben, muss aber nicht sein.
Persönlich empfinde ich beide Produkte als unzureichend: 3850 und 8800GT mit 256MB (OK, dazu auch 8800GTS320 ;-).

512MB VRAM sollten heutzutage schon sein...

Razor

dildo4u
2007-12-04, 19:18:06
Die 512mb reichen für die G92 GTS sogar bis zu 1600*1200 mit 4XAA 16XAF (siehe 8800GT Hardtecs4u Test) also los kaufen wir brauchen Userberichte. ;)

http://www.hardtecs4u.com/images/reviews/2007/msi_ati_hd3800/crysis_1600.png

http://www.hardtecs4u.com/reviews/2007/msi_ati_hd3800/index17.php

Gast
2007-12-04, 19:18:14
Neue Karten mit gebrauchten zu vergleichen ist 'irgendwie'... doof.

Real sind die 88GTX schon ab 379€ zu haben... z.Bsp. bei Alternate (http://www.alternate.de/html/product/details.html?articleId=168311&showTechData=true).

Ich persönlich finde den Preis für die GTS512 zu hoch... aber ich würde mir auch NIEMALS einen G80 kaufen.
Auch nicht, wenn er 300€ kosten würde...
;)

Razor

Wie immer biste nur am SCHWÄTZEN..........

Razor
2007-12-04, 19:23:54
Wie immer biste nur am SCHWÄTZEN..........
Und wie immer müssen Gäste dümmliche Kommentare abgeben.

Gut, dass es auch Gäste gibt, die dieses Klischee nicht erfüllen!

Razor

AnarchX
2007-12-04, 19:24:38
Die 512mb reichen für die G92 GTS sogar bis zu 1600*1200 mit 4XAA 16XAF (siehe 8800GT Hardtecs4u Test) also los kaufen wir brauchen Userberichte. ;)

http://www.hardtecs4u.com/images/reviews/2007/msi_ati_hd3800/crysis_1600.png

http://www.hardtecs4u.com/reviews/2007/msi_ati_hd3800/index17.php

Solang man Windows XP und High verwendet. Hier wäre mal ein Vergleich mit "Very High"@XP interessant.
edit:
CB verwendet wohl doch auch nur High:
Damit der Benchmark auch nur annähernd spielbare Werte erzielt, haben wir sämtliche Details von „Very High“ auf „High“ zurückgestellt. Nichtsdestotrotz verwenden wir weiterhin die Direct3D-10-Version von Crysis.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/20/#abschnitt_crysis

Da sieht man doch, dass es deutlich besser gehen könnte mit dem Speichermanagment.

Gast
2007-12-04, 19:24:38
Warum sollte ein G8x mehr VRAM verbrauchen als ein G7x oder ein R6xx oder sonst irgend ein anderer Chip?

Weil er mit anderem Maschinencode gefüttert wird. Die Befehle für den Chip zum Abarbeiten des Shadercode müssen ja auch in den RAM.

robbitop
2007-12-04, 19:30:38
Die Settings sind vermutlich nicht mit den maximalen Texturdetails. Schließlich ist es nur die Demo. Es ist anzunehmen, dass aus Platzgründen dort nicht die besten Texturen dabei sind.

dildo4u
2007-12-04, 19:33:35
Da sieht man doch, dass es deutlich besser gehen könnte mit dem Speichermanagment.
Eigentlich sieht man da nur wie Buggy und Nutzlos Vista ist die fps sind selbst unter High(DX10) viel schlechter als unter High mit XP.Wie gesagt ein Test mit der Very High Config unter XP wäre wirklich interresant die CB Ergebnisse kann man zur Zeit vergessen da Vista.(Treiber Müll,OS ohne SP1 Müll ect)

dildo4u
2007-12-04, 19:39:45
Die Settings sind vermutlich nicht mit den maximalen Texturdetails. Schließlich ist es nur die Demo. Es ist anzunehmen, dass aus Platzgründen dort nicht die besten Texturen dabei sind.
Es sind die selben Texturen weil auch CB die Vollversion nur unter High testet aber halt unter Vista was schlechter läuft als XP mit den exakt selben Einstellungen.Also erstmal die Bedingungen der verschiedenen Tests checken bevor man der V-Ram ist alle schreit. ;)

Moralelastix
2007-12-04, 19:46:12
Die 512mb reichen für die G92 GTS sogar bis zu 1600*1200 mit 4XAA 16XAF (siehe 8800GT Hardtecs4u Test) also los kaufen wir brauchen Userberichte. ;)

http://www.hardtecs4u.com/images/reviews/2007/msi_ati_hd3800/crysis_1600.png

http://www.hardtecs4u.com/reviews/2007/msi_ati_hd3800/index17.php

An dem Benchmark is wohl was faul!
Wieso is ne GTX schneller als ne Ultra?

Razor
2007-12-04, 19:52:35
Die Settings sind vermutlich nicht mit den maximalen Texturdetails. Schließlich ist es nur die Demo. Es ist anzunehmen, dass aus Platzgründen dort nicht die besten Texturen dabei sind.
Die Demo ist/war zu der Retail-Version absolut identisch.
(auf den ersten Level bezogen, natürlich ;-)

Eigentlich sieht man da nur wie Buggy und Nutzlos Vista ist die fps sind selbst unter High(DX10) viel schlechter als unter High mit XP.Wie gesagt ein Test mit der Very High Config unter XP wäre wirklich interresant die CB Ergebnisse kann man zur Zeit vergessen da Vista.(Treiber Müll,OS ohne SP1 Müll ect)
Exakt... und deswegen kann man die anderen D3D10-Tests auch gleich vergessen.
Daraus eine "Tendenz" ablesen zu wollen, kann man schon fast als fahrlässig ansehen...

Es sind die selben Texturen weil auch CB die Vollversion nur unter High testet aber halt unter Vista was schlechter läuft als XP mit den exakt selben Einstellungen.Also erstmal die Bedingungen der verschiedenen Tests checken bevor man der V-Ram ist alle schreit. ;)
Womit Du den Nagel auf den Kopf getroffen haben dürftest!
Es würde schon reichen, das Ganze nochmal unter WinXp nach zu testen...
(und dann bitte mit "High Quality" im Treiber und nicht nur mit dem schrottigen Default ;-)

Razor

dildo4u
2007-12-04, 19:53:57
An dem Benchmark is wohl was faul!
Wieso is ne GTX schneller als ne Ultra?


Liegt am LOD System von Crysis ein 100% gleicher Ablauf gelingt nicht immer weil Teilweise mal Büsche etc. mal früher oder mal später aufpoppen.Aber die Werte mit AA und AF scheinen vergleichbar zu sein siehe die andere Auflösung.

MadManniMan
2007-12-04, 20:52:38
Hm, wir zeigen hier Zahlenwerte auf, liefern Erklärungen, erreichen für fast alle einen Konsens, dann kommen Razor und LS daher:

LS) ...versucht von einer Schwäche der 512 MB G92 gegenüber den 640er G80 abzulenken, indem auf andere Karten und Irrelevanz verwiesen wird.

Razor) ...erklärt auf Grund absoluter Zahlen jede Betrachtung für unsinnig. Ist, als würde vor Gericht ein nachweislich schuldiger frei gesprochen, weil seine Schuld mit illegalen Mitteln nachgewiesen wurde. :ucatch:


Belassen wir es also dabei und freuen wir uns darauf, dass unsere nV-Bots im nächsten Thread mit dieser Thematik herausgesprungen kommen ;)

LovesuckZ
2007-12-04, 20:57:33
Objektivität ist nicht gebunden an eine Firma. Deswegen empfehle ich dir, einfach lesen zu lernen. Manchmal hilft es, die Postings richtig zu verstehen. :rolleyes:

Tigershark
2007-12-04, 21:01:34
Hm, wir zeigen hier Zahlenwerte auf, liefern Erklärungen, erreichen für fast alle einen Konsens, dann kommen Razor und LS daher:

LS) ...versucht von einer Schwäche der 512 MB G92 gegenüber den 640er G80 abzulenken, indem auf andere Karten und Irrelevanz verwiesen wird.

Razor) ...erklärt auf Grund absoluter Zahlen jede Betrachtung für unsinnig. Ist, als würde vor Gericht ein nachweislich schuldiger frei gesprochen, weil seine Schuld mit illegalen Mitteln nachgewiesen wurde. :ucatch:


Belassen wir es also dabei und freuen wir uns darauf, dass unsere nV-Bots im nächsten Thread mit dieser Thematik herausgesprungen kommen ;)


100% ack.

Schade eigentlich....

MadManniMan
2007-12-04, 21:05:54
LS, ich unterstelle Dir nicht, dass Du nicht in Gänze begreifst, was hier dargestellt wird. Und auch unterstelle ich nicht, dass Deine Feststellungen tatsächlich falsch wären.

Was ich Dir jedoch unterstelle, ist, dass Du stets so formulierst, dass - welche Festellung es auch immer betrifft - Aussagen aller Art nV weniger schlecht da stehen lassen.

nV steht gut da? - Stärke von nV
nV steht schlecht da? - ATi mal besonders gut und nV damit höchsten "normal gut", aber keineswegs schlecht oder irrelevant

So läuft es immer. Seit Anbeginn Deiner Zeit hier im Forum.
Warum? Keine Ahnung, vielleicht aus Prinzip. Aber Du magst ja auch Frauen aus Prinzip nicht.

Gast
2007-12-04, 21:06:45
Wenn sich das bewahrheit, kommt die GTS doch mit 1 GHz GDDR3 daher. Das wäre ja immerhin ne minimale Steigerung. :)
Schreibt die CB mit Bild: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/dezember/nvidia_offizielles_geforce_8800_gts/

Schade ists, das auf diese Weise OC-Reserven kaum noch vorhanden sein dürften. Über 1,1 GHz Speicher und 1,8 GHz Shader zu kommen, dürfte schwierig werden.

MadManniMan
2007-12-04, 21:08:33
Schade eigentlich....

Aber absolut.

Beide sind firm mit der Thematik (der Eine zumeist noch mehr, als der andere, aber das mal Außen vor ;) ), sind mündig, haben jahrelange Erfahrung, kennen ihre Gesprächspartner bemerkenswert gut - entscheiden sich aber dafür, einen bestimmten Weg zu gehen.
Eine Bereicherung sind sie in jedem Thread. Und wenn es nur um den Grad der Unterhaltsamkeit geht. Aber konstruktiv ist anders.


Und ich bin raus.

LovesuckZ
2007-12-04, 21:14:14
Was ich Dir jedoch unterstelle, ist, dass Du stets so formulierst, dass - welche Festellung es auch immer betrifft - Aussagen aller Art nV weniger schlecht da stehen lassen.

Ich habe mich doch bei diesem Thema mehr als klar ausgedrückt. Der VRAM Verbrauch ist genauso tragisch wie die schlechte Textur- und AA-Leistung bei AMD. Nur wird zweitens bei AMD nicht als Bug sondern als technische Limitierung weggeredet. Warum sollte dies beim Vram nicht auch sein?


nV steht gut da? - Stärke von nV
nV steht schlecht da? - ATi mal besonders gut und nV damit höchsten "normal gut", aber keineswegs schlecht oder irrelevant

Komisch, zu erst sagst du, ich würde den Vorteil der 8800GTS640mb wegreden und jetzt plötzlich rede ich nVidia Hardware besser? :rolleyes:
Entscheide dich und komm dann wieder - ja?

Nakai
2007-12-04, 21:19:05
So läuft es immer. Seit Anbeginn Deiner Zeit hier im Forum.

Wieso nur hier?
NV war seit 3 Jahren etwa Marktführer ohne Konkurrenz(bis zum R300, aber da gings nur kurze Zeit etwas anders), da hat sich ins Hirn reingebrannt, dass NVs Waren einfach hochwertig sein müssten.

Nö... 16fps sind unspielbar, wie auch natürlich '0'!

Kommt drauf an, bei welchem Genre. Bei Strategiespielen, sind 16 fps ausreichend.

Und an den Details läßt sich immer und überall schrauben, muss aber nicht sein.

Wenn einem die Frames nicht genug sind, dann dreht man die Details runter. das belastet den Vram nicht so und gibt Frames.
Ansonsten könnte man mit einer X800XT selbst Oblivion oder G3 nichtmal flüssig spielen...


mfg Nakai

€:

Der VRAM Verbrauch ist genauso tragisch wie die schlechte Textur- und AA-Leistung bei AMD.

Welche schwache AA-Leistung?
Okay, beim R600 können wir darüber reden.

Razor
2007-12-04, 21:24:58
Und siehe da, der Manni kommt... und schon gibts wieder ein ATI vs. nVidia.
Chöööön...

Und wieder ein Thread im Ar... - schade eigentlich.

Aber vielleicht erklärst Du mir ja trotzdem, lieber Manni, wie das nach dem "Razor)" zu verstehen ist.
Mir ist da irgendwie die Relevanz in diesem Thread abhanden gekommen... bzw. von anfang an nicht plausibel gewesen.

Razor

P.S.: das absolute Zahlen immer in ihrem Kontext betrachtet werden sollten, dürfte auch unseren Statistikern hier nichts neues sein... auch wenn es hier vielleicht duch so einige gibt, die der Regierung tatsächlich abnehmen, dass die Arbeitslosen auf dem niedrigsten Stand seit Beginn der Geschichtsschreibung sind.Aber das steht gottlob auf einem ganz anderen Blatt.

laser114
2007-12-04, 21:26:01
Und siehe da, der Manni kommt... und schon gibts wieder ein ATI vs. nVidia.

Als ob das Problem an einer Person hängt. Dass dem nicht so ist, dürfte doch klar sein, und ich denke auch die beteiligten Personen hier wissen, dass sie die Threads zerstören... :rolleyes:

AnarchX
2007-12-04, 21:29:47
Schade ists, das auf diese Weise OC-Reserven kaum noch vorhanden sein dürften. Über 1,1 GHz Speicher und 1,8 GHz Shader zu kommen, dürfte schwierig werden.
Naja, vielleicht verbaut man ja mal etwas besseren 1.0ns GDDR3, wie z.B. Samsung der auf der 8600GTS ~1.2GHz schaffte. Die GPU dürfte dank 3-Phasen-Versorgung und vielleicht etwas höherer Spannung und dem Dual-Slot-Kühler wohlmöglich auch etwas mehr Potential haben, aber das wird sich zeigen müssen.

Telema
2007-12-04, 21:34:40
Hardwareversand hat den Status von "sofort verfügbar" auf verfügbar ab den 11.12" geändert

Razor
2007-12-04, 21:36:31
Kommt drauf an, bei welchem Genre. Bei Strategiespielen, sind 16 fps ausreichend.
Na dann zeig mir mal ein Strategiespiel mit einer derart miesen Performance...
...bezogen auf die hier diskutierte Thematik.

Wenn einem die Frames nicht genug sind, dann dreht man die Details runter. das belastet den Vram nicht so und gibt Frames.
Toll...
Bevor ich Details runter schraube, nehme ich aber erst einmal Auflösung und AA, gell?
Und genau darum geht es hier.

Wer die Wahl hat - und das sollte eigentlich bei ALLEN der Fall sein - 20€ mehr für 512MB vs. 256MB zu bezahlen...
...der sollte das tun.
Punkt.

Nicht mehr und auch nicht weniger...

Razor

laser114
2007-12-04, 21:37:08
Hardwareversand hat den Status von "sofort verfügbar" auf verfügbar ab den 11.12" geändert

Wahrscheinlich ausverkauft.

LovesuckZ
2007-12-04, 21:44:10
Welche schwache AA-Leistung?
Okay, beim R600 können wir darüber reden.

Die, die AMD Hardware betrifft, wenn man mit 4AA spielt. :rolleyes:

Gast
2007-12-04, 21:44:22
Na dann zeig mir mal ein Strategiespiel mit einer derart miesen Performance...
Supreme Commander.
Auch wenn es am CPU Limit liegt, kann man dann die Grafik hochschrauben.



Kommt drauf an, bei welchem Genre. Bei Strategiespielen, sind 16 fps ausreichend.
16fps sind vielleicht sehr ruckelig, aber 0fps sind indiskutabel. Da bringt selbst eine 6200 mehr.



Bevor ich Details runter schraube, nehme ich aber erst einmal Auflösung und AA, gell?

Ich nicht.
Native Auflösung ist Pflicht, genauso wie ein Minimum an AA.



Wer die Wahl hat - und das sollte eigentlich bei ALLEN der Fall sein - 20€ mehr für 512MB vs. 256MB zu bezahlen...
...der sollte das tun.
Punkt.

Stimmt.

Razor
2007-12-04, 21:48:54
Supreme Commander.
Auch wenn es am CPU Limit liegt, kann man dann die Grafik hochschrauben.
Wie meinen?

16fps sind vielleicht sehr ruckelig, aber 0fps sind indiskutabel. Da bringt selbst eine 6200 mehr.
Bei dem Game?
Wohl kaum...

Ich nicht.
Native Auflösung ist Pflicht, genauso wie ein Minimum an AA.
Manchmal hat man bei AA keine Wahl...
Aber klar... native Auflösung und sonst nix!

Allerdings sollte man sich dann nicht über die miese Performance bei Crysis beschweren, wennman so dämlich war, sich 'nen 1920'er TFT zu holen... oder Schlimmeres.

Aber für solche Leute gibts dann ja SLI... oder gar Triple-/QuadSLI.
Wer dann aber an einer Performance-Lösung herum mäkelt, der tut mir einfach nur leid.

Razor

Gast
2007-12-04, 21:54:21
Wie meinen?

Die FPS sind im Keller, bei ~16fps. Dank 3Ghz C2D.
Jetzt kann man wie blöde die Optik hochschrauben und bleibt trotzdem bei 16fps.Vielleicht nicht das beste Beispiel. ;)
Aber mit 16fps bleibt es spielbar!


Bei dem Game?
Wohl kaum...

Also schlechter als Absturz kann die 6200 gar nicht sein!
Selbst mit 1fps wäre sie besser.
Ok der Vergleich war mit Absicht extrem.


Crysis

Ach komm schon das Spiel ist tot. =)

Nakai
2007-12-04, 22:36:25
Die, die AMD Hardware betrifft, wenn man mit 4AA spielt.

Seh ich nicht... (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/5/#abschnitt_aa_und_af_skalierung)

Toll...
Bevor ich Details runter schraube, nehme ich aber erst einmal Auflösung und AA, gell?
Und genau darum geht es hier.

Rofl...
Mit einem 19er TFT niedrigere Auflösung?
Und dann noch AA, dass ich wirklich alle Kanten sehe?
Ist nur meine Meinung...aber eigentlich wurde es schon genannt...

Na dann zeig mir mal ein Strategiespiel mit einer derart miesen Performance...

Supreme Commander, wurde aber schon genannt.
http://3dcenter.de/artikel/2007/06-25_a.php

Sehr lesenswert.

Aber eigentlich muss das jeder selbst entscheiden.


Allerdings sollte man sich dann nicht über die miese Performance bei Crysis beschweren, wennman so dämlich war, sich 'nen 1920'er TFT zu holen... oder Schlimmeres.

Aber für solche Leute gibts dann ja SLI... oder gar Triple-/QuadSLI.
Wer dann aber an einer Performance-Lösung herum mäkelt, der tut mir einfach nur leid.

So seh ich das auch. Wer so einen Bildschirm hat, hat auch Geld für nen SLI-Gespann.


mfg Nakai

Gast
2007-12-04, 23:01:22
So seh ich das auch. Wer so einen Bildschirm hat, hat auch Geld für nen SLI-Gespann.

Das ist völliger Blödsinn. Da bei einem TFT die Auflösung nach oben hin begrenzt ist, ist es richtig, sich gleich was anständiges anzuschaffen.

Außerdem denkt ihr nicht weit genug. Mancheiner mag nen großen TFT vorallem fürs arbeiten (z.B. Office) verwenden. Den Bildschirm behält man JAHRE, aber ein dafür nötiges Grafikkartengespann muss STÄNDIG erneuert werden = vielfache Kosten!
Daher ist diese Argumentation vollkommen für die Tonne!

robbitop
2007-12-04, 23:07:53
Es sind die selben Texturen weil auch CB die Vollversion nur unter High testet aber halt unter Vista was schlechter läuft als XP mit den exakt selben Einstellungen.Also erstmal die Bedingungen der verschiedenen Tests checken bevor man der V-Ram ist alle schreit. ;)
Erstmal analytisch nachdenken, bevor man jeden Unsinn glaubt.

Ich habe konsistent in 3 unabhängigen Spielen die Einbrüche aufgezeigt und dabei alle anderen Variablen ausgeschlossen.

Es wäre möglich, dass die Demo und die Vollversion differieren oder die Timedemos differieren.

Die Demo ist/war zu der Retail-Version absolut identisch.
(auf den ersten Level bezogen, natürlich ;-)
Hast du dafür Belege?

dildo4u
2007-12-04, 23:12:36
Erstmal analytisch nachdenken, bevor man jeden Unsinn glaubt.
Die Tests bei Computerbase und Hardtecs sind exakt gleich bis auf das OS also liegt die Vermutung nahe das es am Vista Treiber liegt.Wie Razor schon geschrieben hat sind Demo und Vollversion identisch vom Content her was dir jeder betätigen kann der die Demo und die Full gezockt hat.

mapel110
2007-12-04, 23:16:10
Prozentual gesehen muss die Radeon ja eine andere Charakteristik haben. Ihr fehlts an Füllrate, aber dafür hat sie mehr Speicherbandbreite. Und ich kann mir vorstellen, dass ATI durch die lange Durststrecke mit der alten Generation x1900 viel in Sachen Speichermanagement tun musste, um noch ein wenig konkurrenzfähig zu sein.

btw mich würde mal ein Langzeittreibervergleich der Radeon 1900 interessieren. Speziell bei Farcry hat sich da wohl vieles getan.

robbitop
2007-12-04, 23:16:24
Die Tests bei Computerbase und Hardtecs sind exakt gleich bis auf das OS also liegt die Vermutung nahe das es am Vista Treiber liegt.Wie Razor schon geschrieben hat sind sowohl Demo als auch Vollversion identisch vom Content her wie dir jeder betätigen kann der die Demo und die Full gezockt hat.
Das könnte ein valider Grund sein. Danke für den Hinweis.
Entweder ist das Speichermanagement vom NV Vistatreiber schlechter, oder (was nicht unwahrscheinlich ist) hat der D3D10 Renderpfad andere Charakteristika.

Eine Benchmark Crysis D3D9 @veryhigh wäre jetzt sehr gut.

robbitop
2007-12-04, 23:17:56
Prozentual gesehen muss die Radeon ja eine andere Charakteristik haben. Ihr fehlts an Füllrate, aber dafür hat sie mehr Speicherbandbreite.
Sobald der VRAM voll ist, spielt das keine große Rolle mehr. :D

Und ich kann mir vorstellen, dass ATI durch die lange Durststrecke mit der alten Generation x1900 viel in Sachen Speichermanagement tun musste, um noch ein wenig konkurrenzfähig zu sein.

Die Radeons waren auf diesem Gebiet schon immer ein wenig besser.

Zum Crysis HT4U Bench:

http://www.hardtecs4u.com/images/reviews/2007/msi_ati_hd3800/crysis_1280.png

Man scheint hier immerhin schon auf der VRAM-Schwelle zu liegen. Die GT verliert 35%, die GTS640 verliert 28%.
Komischerweise kehrt sich dieses Verhältnis in 1600x1200 um. Seltsam.

dargo
2007-12-04, 23:38:22
Bei dem Game?
Wohl kaum...

Du gehst jetzt zwar von einer Karte aus, aber übertrage das mal auf SLI und CF.

LovesuckZ
2007-12-04, 23:43:01
Die GTS hat immernoch 11% mehr Speicherbandbreite.

dargo
2007-12-05, 00:12:24
Die GTS hat immernoch 11% mehr Speicherbandbreite.
Und was möchtest du mir jetzt damit sagen? Oder war das gar nicht für mich gedacht?

LovesuckZ
2007-12-05, 00:24:38
Und was möchtest du mir jetzt damit sagen? Oder war das gar nicht für mich gedacht?

Das bezog sich auf robbitop:


Man scheint hier immerhin schon auf der VRAM-Schwelle zu liegen. Die GT verliert 35%, die GTS640 verliert 28%.
Komischerweise kehrt sich dieses Verhältnis in 1600x1200 um. Seltsam.

Seh ich nicht... (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/5/#abschnitt_aa_und_af_skalierung)

Das Problem ist, wenn man sich nur auf eine Quelle stützt, dass einem dadurch nicht die ganze Wahrheit offenbart wird. Es gibt genug Test, die klar zeigen, dass sich die Situation gebessert, aber nicht aufgelöst hat. Schau dir einfach mal den HT4U Test an.

Gast
2007-12-05, 00:57:16
Nur blöd dass meistens auch AF dazugeschalten wird, somit entsteht der Eindruck des AA-Problems, obwohl man das wieder auf die Füllrate zurückführen kann.

robbitop
2007-12-05, 07:35:40
Klar, damit wäre es zu erklären, dass die GT stärker einbricht als die GTS in den von mir genannten Spielen. Füllrate, warum bin ich nicht selbst drauf gekommen? (Ironie)

Moralelastix
2007-12-05, 11:07:48
Sobald der VRAM voll ist, spielt das keine große Rolle mehr. :D


Die Radeons waren auf diesem Gebiet schon immer ein wenig besser.

Zum Crysis HT4U Bench:

http://www.hardtecs4u.com/images/reviews/2007/msi_ati_hd3800/crysis_1280.png

Man scheint hier immerhin schon auf der VRAM-Schwelle zu liegen. Die GT verliert 35%, die GTS640 verliert 28%.
Komischerweise kehrt sich dieses Verhältnis in 1600x1200 um. Seltsam.

Is ja kaum zu glauben. Die GT soll jetzt schon schneller(ohne AA/AF) als ne Ultra sein.

Die wird mir ja immer sympatischer.:biggrin:
Könnt's nicht wieder ein Messfehler sein?
Und wenn sie bei 1600x.....(ohne AA/AF) wieder hinter die Ultra/GTX zurückfällt auf was deutet das hin?
Speicherinterface zu knapp?

Nakai
2007-12-05, 14:04:21
Das Problem ist, wenn man sich nur auf eine Quelle stützt, dass einem dadurch nicht die ganze Wahrheit offenbart wird. Es gibt genug Test, die klar zeigen, dass sich die Situation gebessert, aber nicht aufgelöst hat. Schau dir einfach mal den HT4U Test an.

Nur blöd dass meistens auch AF dazugeschalten wird, somit entsteht der Eindruck des AA-Problems, obwohl man das wieder auf die Füllrate zurückführen kann.

Das gleiche hätt ich auch geantwortet.

Das ist völliger Blödsinn. Da bei einem TFT die Auflösung nach oben hin begrenzt ist, ist es richtig, sich gleich was anständiges anzuschaffen.


Naja, kann ich nur teilweise zustimmen. Wer SLI oder CF hat, sollte sich gleich einen netten Monitor beschaffen, um die Karten ausnutzen zu können. Natürlich ist mit auch klar, das großer Monitor nicht gleich SLI voraussetzt.
Ich hätte es anmerken sollen...


mfg Nakai

Razor
2007-12-05, 14:14:47
Ach komm schon das Spiel ist tot. =)
Hey... ich min noch nicht mal durch!
(derzeit im Core ;-)

Supreme Commander, wurde aber schon genannt.
Ja, genannt und kommentiert.
Und wie genau paßt hier jetzt ein absolutes CPU-Limit in diesen Thread?

Ich habe konsistent in 3 unabhängigen Spielen die Einbrüche aufgezeigt und dabei alle anderen Variablen ausgeschlossen.
Du hast 3 Beispiele genannt, die alle eine Gemeinsamheit haben... Vista und D3D10.

Zumindest bei einem Deiner Beispiele wurde bereits gezeigt, dass das Verhalten hinsichtlich der Performance unter D3D10 (Vista) und D3D9 (WinXP, vermutlich auch Vista) bei sonst absolut gleichen Einstellungen (InGame 'high') vollkommen unterschiedlich ist... selbstverständlich damit auch die Schlussfolgerungen daraus sich sehr unetrscheiden.

WinXP hui, Vista pfui.
OK, war vielleicht ein bissel 'platt'...
;)

Also liegt die Vermutung nahe, dass dies auch bei den anderen Beispielen so ist, welches aber natürlich der Bestätigung harrt.

quid pro quo

Zeige Du nun, dass Deine Hyptothe den weiteren Vergleichen (D3D10 Vista vs. D3D9 WinXP bei sonst gleichen Einstellungen) stand hält. Kannst Du dies nicht, bitte ich Dich darum, Deine Hypothese mit der bereits bekannten Einschränkung auch so zu formulieren.

Keinesfalls sollte sie als Fakt hingestellt werden, wie Du es bereits tust.

Es wäre möglich, dass die Demo und die Vollversion differieren oder die Timedemos differieren.
Hast du dafür Belege?
Ja, mich.
Sowohl der Content, als auch die Timedemos sind 100% identisch!

Wenn Du mir das nicht 'glaubst' musst Du dies selber überprüfen, bevor DU eine vollkommen unbelegte Hypothese aufstellst.

Die 'Beweislast' umzukehren ist übrigens nicht gerade ein feiner Zug von Dir... Du behauptest etwas (Unterschied von Demo zu Game), also musst Du auch beweisen, dass dem so ist, gell?
;)

Razor

Nakai
2007-12-05, 14:17:49
Ja, genannt und kommentiert.
Und wie genau paßt hier jetzt ein absolutes CPU-Limit in diesen Thread?

Nein, das hab ich nie behauptet. Ich ging nur auf deine Behauptung ein, dass 18 FPS unspielbar sind...

mfg Nakai

Razor
2007-12-05, 14:26:26
Nein, das hab ich nie behauptet. Ich ging nur auf deine Behauptung ein, dass 18 FPS unspielbar sind...
Auch bei einem Strategiespiel sind 18fps 'ätzend'.
Diese Rucklei beim scrollen ist einfach vollkommen 'daneben'...

Razor

Reg. aber abgemeldet!!!
2007-12-05, 14:28:07
Hm, wir zeigen hier Zahlenwerte auf, liefern Erklärungen, erreichen für fast alle einen Konsens, dann kommen Razor und LS daher:

LS) ...versucht von einer Schwäche der 512 MB G92 gegenüber den 640er G80 abzulenken, indem auf andere Karten und Irrelevanz verwiesen wird.

Razor) ...erklärt auf Grund absoluter Zahlen jede Betrachtung für unsinnig. Ist, als würde vor Gericht ein nachweislich schuldiger frei gesprochen, weil seine Schuld mit illegalen Mitteln nachgewiesen wurde. :ucatch:


Belassen wir es also dabei und freuen wir uns darauf, dass unsere nV-Bots im nächsten Thread mit dieser Thematik herausgesprungen kommen ;)
Ich kann dir versichern, dass jeder rational denkende Mensch spätestens bei Razors Postings Mordgelüste bekommt. Dem Mann ist nicht zu helfen. Was er hier verzapft geht auf keine Kuhhaut. Gottseidank - für ihn - diskutieren wir über ein Forum und nicht auf der Straße. Aber da würde er sich sowas wohl auch gar nicht trauen.

Nakai
2007-12-05, 14:31:03
Auch bei einem Strategiespiel sind 18fps 'ätzend'.
Diese Rucklei beim scrollen ist einfach vollkommen 'daneben'...

Razor

Achso, dann sagst du, dass 3DC Falschaussagen macht?

Speziell zu den für Supreme Commander angesetzten Savegames läßt sich noch sagen, daß diese eher mit Vorsicht aufgenommen wurden und es in diesem Spiel noch weitaus stressendere Szenen gibt. Dies hängt allerdings damit zusammen, daß in absoluten Massenschlachten auf den großen Karten selbst unser auf 3.2 GHz übertakteter Core 2 Duo nie über 10 fps kommt - was dann aber auch keinen großen Sinn mehr macht. Überhalb von 10 fps ist das Spiel allerdings trotz der nominell niedrigen Framerate vernünftig spielbar, erst unterhalb der 10-fps-Grenze wird es zähflüssig. Generell muß man an so ein Spiel wohl eine andere Frameraten-Erwartung richten als an einen schnellen Shooter, für den selbst 30 fps manchen Spielern noch als zu gering erscheinen mögen.


mfg Nakai

Razor
2007-12-05, 14:47:29
Gottseidank - für ihn - diskutieren wir über ein Forum und nicht auf der Straße. Aber da würde er sich sowas wohl auch gar nicht trauen.
Auch auf der Straße würde ich Dich als aboluten Proleten titulieren...
...und ungespitzt in den Boden rammen!

Wieder mal ein unerträglicher Beleg für den Verfall in diesem Forum... leider.

Razor

Razor
2007-12-05, 14:50:37
Achso, dann sagst du, dass 3DC Falschaussagen macht?
Nein.
Aber lies meinen Post nochmal genau...

Wenn der Verfasser es nicht für 'ätzend' halt, dass beim Scrollen alles nur noch so vor sich hin ruckelt und auch sonst die Darstellung eher Augenkrebs verursacht, dann ist das sein persönliches Recht.

Ich muss mich dem doch abr nicht anschließen, oder?

Razor

robbitop
2007-12-05, 15:59:26
Du hast 3 Beispiele genannt, die alle eine Gemeinsamheit haben... Vista und D3D10.

Zumindest bei einem Deiner Beispiele wurde bereits gezeigt, dass das Verhalten hinsichtlich der Performance unter D3D10 (Vista) und D3D9 (WinXP, vermutlich auch Vista) bei sonst absolut gleichen Einstellungen (InGame 'high') vollkommen unterschiedlich ist... selbstverständlich damit auch die Schlussfolgerungen daraus sich sehr unetrscheiden.

WinXP hui, Vista pfui.
OK, war vielleicht ein bissel 'platt'...
;)
Klar, es wird bei 3 D3D10 Spielen bleiben und Vista wird unwichtig sein...
Unabhängig von Vista macht jede Karte dicht, wenn der VRAM voll ist.
Bei den heutigen Spielen scheint das vieleicht unter D3D9 kaum der Fall zu sein. Der D3D10 Treiber scheint ein etwas schlechteres Memorymanagement zu haben. Die Grenze scheint nicht mehr so weit entfernt zu sein.
Wie wäre es mit ner VRAM Messung in Crysis in 12x10 bei 4xMS?

In jetzigen Spielen scheint das Problem wohl doch noch nicht imminent zu sein. Ja da hast du recht. Aber CB ist immerhin ein Indikator, dass das ein Problem werden könnte. Insofern muss ich meine These wieder relativieren.


Ja, mich.
Sowohl der Content, als auch die Timedemos sind 100% identisch!
Und wie stellst du das fest? Durch bloßes hinschauen, ohne Differenzbilder, ohne Texturanalyse? Du weißt, wie gut das menschliche Gedächtnis ist..besonders in Vergleichen.

fulgore1101
2007-12-05, 16:21:49
der ganze thread ist zugemüllt mit technikgeschwafel und spekulationen. dabei hatte ich mir erhofft hier reviews der neuen gts zu finden. durch 16 seiten habe ich mich gekämpft und habe genau 1 gefunden. :|

dildo4u
2007-12-05, 16:30:35
der ganze thread ist zugemüllt mit technikgeschwafel und spekulationen. dabei hatte ich mir erhofft hier reviews der neuen gts zu finden. durch 16 seiten habe ich mich gekämpft und habe genau 1 gefunden. :|
Das NDA läuft erst am 11.12 ab von daher wirds die Masse an Reviews erst danach geben.Möglich das bis dahin mal hier und da was geleaked wird.

Nakai
2007-12-05, 16:45:55
Nein.
Aber lies meinen Post nochmal genau...

Wenn der Verfasser es nicht für 'ätzend' halt, dass beim Scrollen alles nur noch so vor sich hin ruckelt und auch sonst die Darstellung eher Augenkrebs verursacht, dann ist das sein persönliches Recht.

Ich muss mich dem doch abr nicht anschließen, oder?


Okay das subjektive Empfinden spielt auch eine Rolle, da stimm ich dir zu.

mfg Nakai

MadManniMan
2007-12-05, 16:55:11
Ich muss mich dem doch abr nicht anschließen, oder?

Razor

Nein, Du brauchst nur nicht so zu tun, als würden all unserer Gedankenspielchen völlig unwichtig sein, nur weil Du Dich als einzig gültigen Maßstab heranziehst.

AGENT_SMITH
2007-12-05, 16:58:03
die ersten G92 8800gts sind da: http://cgi.ebay.de/8800-GTS-512MB-G92-Schnell-wie-Ultra-Weltneuheit-XFX_W0QQitemZ310004772018QQihZ021QQcategoryZ148515QQssPageNameZWDVWQQrdZ1QQcmdZV iewItem

MFG

Nakai
2007-12-05, 17:01:32
Nein, Du brauchst nur nicht so zu tun, als würden all unserer Gedankenspielchen völlig unwichtig sein, nur weil Du Dich als einzig gültigen Maßstab heranziehst.

Das ist sein subjektives Empfinden. Dagegen was zu sagen wäre unmöglich. ;)
Nur das man dieses subjektive Empfinden auch anders deuten kann, sollte klar sein. Aber da er anscheinend noch kein Supreme Commander gezockt hat, sollte er den Kommentar, dass es mies ruckelt, sein lassen.

mfg Nakai

Mr. Lolman
2007-12-05, 17:08:33
Auch bei einem Strategiespiel sind 18fps 'ätzend'.
Diese Rucklei beim scrollen ist einfach vollkommen 'daneben'...

Razor


Oblivion ging mit 18 fps ganz gut. Crysis eigentlich auch. Wenn sonst kein Lag dazukommt (zB durch Prerenderlimit, Monitor oder Maus) sind 18fps für ein durchschnittliches SP-Spiel ausreichend.

Henroldus
2007-12-05, 17:28:20
die ersten G92 8800gts sind da: http://cgi.ebay.de/8800-GTS-512MB-G92-Schnell-wie-Ultra-Weltneuheit-XFX_W0QQitemZ310004772018QQihZ021QQcategoryZ148515QQssPageNameZWDVWQQrdZ1QQcmdZV iewItem

MFG
100 euro weniger und man könnte drüber nachdenken :redface:

Gast
2007-12-05, 17:37:54
Auch bei einem Strategiespiel sind 18fps 'ätzend'.
Diese Rucklei beim scrollen ist einfach vollkommen 'daneben'...

Mag sein, dass es nicht mehr so flüssig ist.

Aber es ginig doch um den Verglich das eine nicht gerade billige 8800GTS 320 oder 8800GT 256 BEREITS HEUTE FÜR DIE MÜLLTONNE IST!
150-250€ aus dem Fenster geblasen
Und du verteidigst diesen Absturz noch ....

Diese Karten dürfen nicht abstürzen! Aber sie tuen es, d.h. sie sind ein Haufen teurer Schrott! 18fps kann man immer hochtweaken, oder sich damit abfinden, aber ein schwarzer Bildschirm....

Mumins
2007-12-05, 18:29:26
100 euro weniger und man könnte drüber nachdenken :redface:

Da würd ich schon aus Protest nichts kaufen. Dieser Laden verarscht die Leute ohne Ende. Braucht man nur die anderen Sach

Gast
2007-12-05, 18:45:18
Nö... 16fps sind unspielbar, wie auch natürlich '0'!
;)

Und an den Details läßt sich immer und überall schrauben, muss aber nicht sein.
Persönlich empfinde ich beide Produkte als unzureichend: 3850 und 8800GT mit 256MB (OK, dazu auch 8800GTS320 ;-).

512MB VRAM sollten heutzutage schon sein...

Razor


du scheinst einfach nicht zu begreifen, dass g7x das verhalten des g8x nicht hatte :rolleyes:

Superheld
2007-12-05, 21:00:10
Crysis Benchmark

http://bfg8800gts.in905.com/

Blaire
2007-12-05, 21:10:54
Optisch edelst. =)

Majestic
2007-12-05, 21:24:06
Ich finde der alte (G80) GTS-Kühler sah "optisch" weitaus besser aus.

Deathcrush
2007-12-05, 21:47:02
Crysis Benchmark

http://bfg8800gts.in905.com/


Ich steh mit meiner alten GTS besser da.

Gast
2007-12-05, 22:13:43
Ich steh mit meiner alten GTS besser da.

Ich find mein Auto auch besser Als des vom Nachbarn ;)

Deathcrush
2007-12-05, 22:28:04
Wollte damit nur deutlich machen das es Sinnlos ist, für GTS@G80 Besitzer auf eine GTS@G92 umzusteigen ;)

Grindcore
2007-12-05, 22:46:19
Aber sowas von.

Gast
2007-12-05, 22:49:16
Warum sollte das sinnlos sein?

Das Upgrade kann zum Teil kostenlos durchgeführt werden und dafür bekommt man leicht höhere Performance und einen geringeren Verbrauch.

Alte GTS640 Karten sind noch einiges Wert, für diejenigen die den Aufwand nicht scheuen, lohnt sich das sicher.

Deathcrush
2007-12-05, 22:51:52
Bei den Crysis-Benchmark bin ich aber leicht schneller. Also von mehr Perfomance kann nicht die Rede sein. Ausserdem kostet die GTS G92 rund 330.-. Wenn man sein alte GTS verkauft bekommt man vielleicht noch 270-280€. Also zahlt man 50€ für identische Perfomance.

ShinyMcShine
2007-12-05, 22:54:40
Die 8800GTS@G92 bekommt Konkurrenz aus eigenem Hause:

http://forum.donanimhaber.com/m_19461389/tm.htm

Bei einer 1GB GT kann man schon auch schwach werden, hoffentlich ziehen andere bald nach...

Gast
2007-12-05, 22:55:33
Was ist daran neu?

Spasstiger
2007-12-05, 22:59:09
Der Vorteil der G92 8800 GT scheint gegenüber der 8800 GT zu gering zu sein, um einen zukünftigen Aufpreis von 30% rechtfertigen zu können. Die höhere Rechenleistung und Füllrate der GTS verpuffen größtenteils im Nichts wegen der zu geringen Speicherbandbreite und dem zu kleinen Speicher in einigen Fällen.

Eine G80 8800 GTS würde ich gegen eine 8800 GT tauschen, denn bei dem Tausch legt man nix drauf, wenn die 8800 GT mal großflächig verfügbar ist.
Eine G80 8800 GTX würde ich sogar behalten und gar nicht eintauschen.

Gast
2007-12-05, 23:12:31
ich würde die gts sicher nicht gegen eine gt tauschen. die gt ist viel billiger verarbeitet.

Gast
2007-12-05, 23:16:08
Ich schon.

Die GT ist immer schneller, bis ihr der VRAM ausgeht.
Ansonsten bietet sie nur Vorteile:
- Beim Tausch gibts für eine 1 Jahr alte Karte Geld zurück + eine neue
- geringerer Stromverbrauch -> leichter zu kühlen
- kürzer
- 1 Slot
- ein Videoprozessor, sogar in der Version 2 ist an Board

Gast
2007-12-05, 23:17:49
Bei den Crysis-Benchmark bin ich aber leicht schneller.

Und? Das ist eine 1 Anwendung von 4657433. Dann auch noch unter dem Vorbehalt des Treiber-Cheatverdachts (siehe 3DC-News). An deiner Stelle würde ich in dieser Hinsicht Crysis schnell mal vergessen, schauen wir uns die Sache in 6 Monaten nochmal an.

Also ich hät kein Problem damit, wenn eine Anwendung minimal langsamer wird, dafür 4657433 andere deutlich schneller, was auch nichts neues ist. In fast jedem Review gibts Fälle, wo die neue, der alten davon zieht (und das schafft zT schon die 8800GT).

desert
2007-12-05, 23:22:27
also ich habe getauscht, eine 8800 gts 640 mb gegen eine 8800 gt.

Für die alte noch 290,00 euro bekommen, die neue für 253,00 euro bezahlt.

Alle die jetzt noch auf ihrer g80 gts sitzen und die die nicht in den nächsten 2-3 wochen verkaufen werden sich den arsch abärgern.

Die gebrauchtpreise für die g80 gts werden rapide fallen, sobald die verfügbarkeit und die bekannheit der 8800 gt so richtig ansteigen.

Denn wer will schon 250,00 euro für eine g80 gts ausgeben, wenn er für 200,00 euro eine schnellere 8800gt bekommt. Deswegen jetzt g 80 gts verkaufen.

Ich verkaufe meine 8800 gt wieder sobald die ersten g 92 gts verfügbar werden, da bekomme ich für meine 8800gt noch richtig schotter auf ebay, weil alle gamestar usw gelesen haben und wissen wie schnell die ist.

Von einer g92 gts wissen die wenigsten etwas.

@deathcrush
und komischerweise ist meine 8800 gt bei crysis gute 26 % schneller als meine 8800 gts, die auch noch auf 631 mhz und 950 ddr2 übertaktet war. mann kann immer nur ein system vergleichen, nciht vom eigenem auf das andere schliessen. Weisst du die genauen einstellungen die im benchmark waren?

dargo
2007-12-05, 23:31:06
die ersten G92 8800gts sind da: http://cgi.ebay.de/8800-GTS-512MB-G92-Schnell-wie-Ultra-Weltneuheit-XFX_W0QQitemZ310004772018QQihZ021QQcategoryZ148515QQssPageNameZWDVWQQrdZ1QQcmdZV iewItem

MFG
Lol, 389€. :ucrazy2:
Das wäre selbst für eine 1GB GTS imho etwas zuviel.

Gast
2007-12-05, 23:34:26
Lol, 389€. :ucrazy2:
Das wäre selbst für eine 1GB GTS imho etwas zuviel.
Hier noch billiger http://geizhals.at/deutschland/a298468.html ;D

dargo
2007-12-05, 23:42:26
Ich verkaufe meine 8800 gt wieder sobald die ersten g 92 gts verfügbar werden, da bekomme ich für meine 8800gt noch richtig schotter auf ebay, weil alle gamestar usw gelesen haben und wissen wie schnell die ist.

Ja, du bekommst richtig viel Schotter, wenn die GTs dann ~190€ in Online-Shops kosten. ;)
Außerdem werden die ersten GTS´s richtig günstig wie man am Link vom Gast sehen kann. :rolleyes:

410€ für eine GTS. ;D
http://www.csv-direct.de/artinfo.php?artnr=A0640037&pva=gei

Gast
2007-12-05, 23:44:21
Man das ist wie Lotto spielen.

Ich habe erst gegeizt für 350€ eine G80GTS zu holen und jetzt muss ich sehen wie einige daraus Profit schlagen.

Deathcrush
2007-12-05, 23:47:56
Weisst du die genauen einstellungen die im benchmark waren?

Steht doch auf der Seite, alles @High 1680x1050. Aber wie gesagt, der tausch von einer alten GTS auf eine neue GTS halte ich für überflüssig, gerade wenn die GTS noch stark übertaktet ist. Man macht verlust, bestimmt an die 100€ wenn man jetzige Preise nimmt, für einen geringen Prozentsatz an Leistung.

desert
2007-12-05, 23:57:33
Ja, du bekommst richtig viel Schotter, wenn die GTs dann ~190€ in Online-Shops kosten. ;)
Außerdem werden die ersten GTS´s richtig günstig wie man am Link vom Gast sehen kann. :rolleyes:

410€ für eine GTS. ;D
http://www.csv-direct.de/artinfo.php?artnr=A0640037&pva=gei



lesen kannst du aber oder? um was wollen wir wetten das ich meine gt so in 2-3 wochen über meinen einkaufspreis verkaufen kann. Behalt du mal lieber deine tolle 8800gts und kriege so in 3 wochen so 150,00 euro dafür. Überall wird momentan rumerzählt was für eine gute karte die 8800 gt ist, und wie langsam die 8800 gts dagegen ist. Überall liest man nur von 8800 gtx perfomance. So und wenn man nun die ganzen honks in betracht zieht die bei ebay rumlaufen, denke ich schon mal das ich wesentlich mehr bekomme für meine 8800 gt als du für deine 8800 gts bekommen wirst.

Du wartest einfach zu lange. Bis jetzt habe ich dieses jahr ungefähr 100,00 euro bezahlt für meine ganzen grafikkarten dieses jahr.

es kommt immer darauf die grafikkarten zum richtigen zeitpunkt zu verkaufen. Die gts z.b. laufen nicht mehr so gut wie vor 2-3 wochen, wo eigentlich jede noch an die 300,00 euro ran kam. Ich werde mit meinem upgrade keinen grossen verlust machen schätze mal so 30 euro, währenddessen du immer noch deine g80 gts hast, werde ich meine g92 gts haben, du wirst dann zur neuen g92 gts schon eher so 130 euro zu bezahlen müssen.

Aber du wirst ja sowieso erzählen das die power nicht ausreichend ist um zu wechseln. Und du dann im februar so 350 euro nehmen in die hand nehmen musst, um den g90 zu kaufen, weil dann die g80 gts endgültig nichts mehr wert sein wird, da der markt dann von g92 gt´s überschwemmt wird.

Deathcrush
2007-12-06, 00:02:58
Ich glaube kaum das die jetzigen GTS G92 Nutzer im Januar/Februar eine High End Karte für 500-600.- kaufen werden ;)

Dargo macht es genau richtig, warten was passiert und dann verkaufen. Bei Ebay bekommt man immer gut Geld für seine Hardware, ich selber mach mir da auch keine Gedanken. Ich hatte vor 2-3 Monaten selbst meine X1950XT ÜBER einkaufspreis verkauft.


P.S Ich bezweilfe stark das man für eine GTS in 3 Wochen nur noch 150.- bekommt.

dargo
2007-12-06, 00:03:09
Aber du wirst ja sowieso erzählen das die power nicht ausreichend ist um zu wechseln. Und du dann im februar so 350 euro nehmen in die hand nehmen musst, um den g90 zu kaufen, weil dann die g80 gts endgültig nichts mehr wert sein wird, da der markt dann von g92 gt´s überschwemmt wird.
Willst du mit mir ernsthaft wetten, dass ich es nicht schaffe mit ~200€ Aufpreis mindestens 200% der G8800GTS Leistung zu bekommen? tss
Ich warte auf die richtigen Karten im neuen Jahr. ;)


Ich werde mit meinem upgrade keinen grossen verlust machen schätze mal so 30 euro, währenddessen du immer noch deine g80 gts hast, werde ich meine g92 gts haben, du wirst dann zur neuen g92 gts schon eher so 130 euro zu bezahlen müssen.

Sorry, aber eine GTS mit 512MB Vram interessiert mich überhaupt nicht. Ich will 1GB mit mehr Power haben. ;)

P.S Ich bezweilfe stark das man für eine GTS in 3 Wochen nur noch 150.- bekommt.
Ist auch völliger Blödsinn. :) Aber lassen wir ihm die Freude mit seiner späteren G92GTS. ;)

@Deathcrush
Wenn man sich das mal richtig durch den Kopf gehen lässt hätte ich im März 2007 (da hatte ich die GTS gekauft) schon die Leistung einer G92@8800GTS, nämlich mit der G8800GTX haben können. lol
Einfach ~130€ mehr bezahlt - fertig. Und dabei wäre man noch nicht mal mit den 512MB der neuen GTS so eingeschränkt. Nee, lasst mal. ;)

Deathcrush
2007-12-06, 00:27:07
Nvidia will die Kuh einfach noch mal so richtig melken und viele gehen halt darauf ein ;)


Ich rechne einfach so

Meine GTS rennt mit ~25-30% mehr Leistung, also auf GT-GTS @G92 Niveau. Würde ich mir jetzt eine GTS kaufen, müsste ich die Karte um 130MHZ (auf 780MHZ, sprich 20%) übertakten, um mich richtig absetzen zu können und ich glaube nicht das sie das schafft. Dann wird man allerdings vielleicht pech haben, das der Speicher bzw die Speicherbandbreite nicht ausreichen wird. Und selbst wenn ich 10% mehr FPS hätte, das ist mir keine 50€ Wert, ja nicht einmal 25€. Die 10% quetsche ich auch noch locker aus meine GTS heraus, denn die schafft locker die 1700MHZ Shadertakt ^^ Nur was bringen mit die 10% wenn Crysis dennoch nicht flüssig läuft?

dargo
2007-12-06, 00:33:07
Nur was bringen mit die 10% wenn Crysis dennoch nicht flüssig läuft?
Richtig! Alles, außer Crysis läuft bei mir mehr als zufriedenstellend. Also brauchen wir für Crysis was richtig fettes.

Dr.Dirt
2007-12-06, 00:37:15
Ich steh mit meiner alten GTS besser da.
Das denke ich nicht, inzwischen sind die Werte korrigiert wegen falschen settings. ;)

Deathcrush
2007-12-06, 00:40:45
Die wichtigen min. FPS sind trotzdem noch niedriger. Und er hat seine Karte schon übertaktet und ich habe noch 8AF HQ im Treiber aktiv. Hatte nämlich schon kurzzeitig mit den gedanken einer GTX gespielt :D :D Der wechsel lohnt nicht. Für Leute die noch keine 8800er haben, natürlich ein super Angebot.

Meine Werte
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6064464&postcount=753

Dr.Dirt
2007-12-06, 00:46:02
Die wichtigen min. FPS sind trotzdem noch niedriger. Und er hat seine Karte schon übertaktet und ich habe noch 8AF HQ im Treiber aktiv. Hatte nämlich schon kurzzeitig mit den gedanken einer GTX gespielt :D :D

Meine Werte
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6064464&postcount=753
AF kostet so gut wie gar keine Leistung und oc bringt auch kaum was, insgesamt maximal 3FPS avg.
Da steht die G92 GT oder GTS trotzdem noch besser da als die alte G80 GTS.

Deathcrush
2007-12-06, 00:47:33
Natürlich kostet HQ AF Leistung, was denkst du denn? Gerade bei Crysis.

Gast
2007-12-06, 00:55:19
Eine OC GTS g80 sollte so knapp 30FPS bei 1680x1050 alles High avg. machen.
Ich hatte 29,5Fps mit der 2900XT@880mhz damals.

Und wegen 2-3Fps brauch man sich hier garnicht in die Haare kriegen....

Deathcrush
2007-12-06, 00:58:41
1680x1050 0AA/0AF @ 648/1670/900

AVG: 29,38
Min:17,34 - Max: 34,36


GTS G92 Niveau, völlig Kostenlos und ohne Lieferzeiten ;) Und sogar höhere min FPS

Gast
2007-12-06, 01:00:43
1680x1050 0AA/0AF

AVG: 29,38
Min:17,34 - Max: 34,36
Sag ich ja knapp 30Fps also genauso schnell wie die OC GT mit 675mhz

MadManniMan
2007-12-06, 05:56:25
GTS G92 Niveau, völlig Kostenlos und ohne Lieferzeiten ;) Und sogar höhere min FPS


Und den fehlenden HW-Block streichen wir aus dem Bewusstsein?

Gast
2007-12-06, 06:19:03
Und den fehlenden HW-Block streichen wir aus dem Bewusstsein?

Ist ja nicht verkehrt. Denn so viel auszumachen scheinen diese nicht, da vorher z.B. Speicherbandbreite limitiert.

Für Übertakter stellt sich auch noch ein ganz anderes Problem: Es kann durchaus sein, das die Karte mit weniger Recheneinheiten ein höheres Taktpotential gegenüber dem größeren Bruder hat und daher identische oder gar bessere Ergebnisse liefert.

Dr.Dirt
2007-12-06, 07:42:44
1680x1050 0AA/0AF @ 648/1670/900

AVG: 29,38
Min:17,34 - Max: 34,36


GTS G92 Niveau, völlig Kostenlos und ohne Lieferzeiten ;) Und sogar höhere min FPS
Über 10% Rückstand ist bei dir G92 GTS Niveau, das ist nichtmal GT Niveau, ich lande bei 32,93 fps avg, mit oc.

MartinRiggs
2007-12-06, 07:43:26
Richtig! Alles, außer Crysis läuft bei mir mehr als zufriedenstellend. Also brauchen wir für Crysis was richtig fettes.

Nö brauchen wir nicht mehr, die meisten haben sich auch mit "lahmen" Karten durch das Game gequält und da das Game sowieso nicht der Megabringer ist wird dafür auch nicht aufgerüstet:biggrin:

ShinyMcShine
2007-12-06, 08:17:49
Gibt es eigentlich nicht schon ein paar Benchmarks von Usern im Netz, welche die G92 GTS schon gekauft haben? Soll ja durchaus schon vorgekommen sein (im Computerbase-Forum hat einer sogar behauptet, zwei G92 GTS bekommen zu haben). Normale Käufer haben ja auch kein NDA unterschrieben...
Auf die (einzigen) Benchmarks von TweakTown will man sich ja nicht unbedingt verlassen.
Gilt das NDA für Hardwareseiten eigentlich auch, wenn es die Karte schon im Handel zu kaufen gibt? Macht doch keinen Sinn, oder?

desert
2007-12-06, 08:35:27
Nvidia will die Kuh einfach noch mal so richtig melken und viele gehen halt darauf ein ;)


Ich rechne einfach so

Meine GTS rennt mit ~25-30% mehr Leistung, also auf GT-GTS @G92 Niveau. Würde ich mir jetzt eine GTS kaufen, müsste ich die Karte um 130MHZ (auf 780MHZ, sprich 20%) übertakten, um mich richtig absetzen zu können und ich glaube nicht das sie das schafft. Dann wird man allerdings vielleicht pech haben, das der Speicher bzw die Speicherbandbreite nicht ausreichen wird. Und selbst wenn ich 10% mehr FPS hätte, das ist mir keine 50€ Wert, ja nicht einmal 25€. Die 10% quetsche ich auch noch locker aus meine GTS heraus, denn die schafft locker die 1700MHZ Shadertakt ^^ Nur was bringen mit die 10% wenn Crysis dennoch nicht flüssig läuft?


merkwürdig nur das meine übertaktete gts nur 25 fps erreicht hat unter 1280 x 1024 alles high und meine gt erreicht flockige 31 fps. Aber hast schon recht deine übertaktete g80 gts fegt die g92 gts, die von der rechenpower stärker als die gtx, förmlich weg. Absolut lachhaft, du versuchst dir hier doch nur einzureden, das deine g80 gts noch mithalten kann, was nicht der fall ist.
Komischerweise ist die g80 gtx teilweise 30 % schneller als deine gts, aber du machst mit ein bischen oc 32 alu´s wett, die auch noch höher getaktet werden als bei der gtx.


Wie gesagt ich hatte beide karten hier, und ich bin ja so blöde und gebe die langsamere zurück. Und behalte nicht meine tolle und schnellere g80 gts und verzichte auch noch auf 40,00 euro umtauschgewinn. Mein gott ich brauche sofort meine g80 gts wieder.

Die gt ist zwar schneller, verbraucht weniger strom, ist leiser, aber hey die g80 gts ist ja viel cooler.

Stimmt ich sollte noch warten bis ich für meine gts nichts mehr bekommen hätte und dann mal wieder so richtig viel geld ausgeben für highend. Komische logik

MadManniMan
2007-12-06, 08:51:00
Nö brauchen wir nicht mehr, die meisten haben sich auch mit "lahmen" Karten durch das Game gequält und da das Game sowieso nicht der Megabringer ist wird dafür auch nicht aufgerüstet:biggrin:

Isses eigentlich grad "in", Crysis kleinzureden?

Gut, ich habe nur die Demo gespielt - und das ohne jeden Eye-Candy, weil ich nicht die Graka dafür habe - aber da das Gameplay nach "FarCry mit Gimmicks" schmeckt und die Grafik ja nun wirklich ein absoluter Reisser ist, sehe ich irgendwie keine Grundlage dafür, Crysis nicht als Knaller zu sehen. :|

desert
2007-12-06, 08:57:54
Isses eigentlich grad "in", Crysis kleinzureden?

Gut, ich habe nur die Demo gespielt - und das ohne jeden Eye-Candy, weil ich nicht die Graka dafür habe - aber da das Gameplay nach "FarCry mit Gimmicks" schmeckt und die Grafik ja nun wirklich ein absoluter Reisser ist, sehe ich irgendwie keine Grundlage dafür, Crysis nicht als Knaller zu sehen. :|

ist genauso in wie vista bashen;)

ich warte aber ehrlich gesagt noch bis ich crysis in voller pracht geniessen kann, momentan ist es mir zu ruckelig.

Passenger82
2007-12-06, 09:02:18
Isses eigentlich grad "in", Crysis kleinzureden?

Gut, ich habe nur die Demo gespielt - und das ohne jeden Eye-Candy, weil ich nicht die Graka dafür habe - aber da das Gameplay nach "FarCry mit Gimmicks" schmeckt und die Grafik ja nun wirklich ein absoluter Reisser ist, sehe ich irgendwie keine Grundlage dafür, Crysis nicht als Knaller zu sehen. :|

Sie haben nahezu alle Features gestrichen die mich an dem Spiel im Vorfeld gereizt haben und eine Grafik mit gegen Ende fast schon perversem Hardwarehunger geschaffen.
Und mehr als die Grafik hat Crysis nicht zu bieten was nicht schon (in besserer Form) dagewesen wäre....

Deathcrush
2007-12-06, 09:02:18
merkwürdig nur das meine übertaktete gts nur 25 fps erreicht hat unter 1280 x 1024 alles high und meine gt erreicht flockige 31 fps.

Tja, und ich habe unter 1680x1050 29,xx AVG FPS. Komisch oder. Vielleicht hast du dein PC auch einfach nur falsch eingerichtet :D

Majestic
2007-12-06, 09:02:19
Isses eigentlich grad "in", Crysis kleinzureden?

Gut, ich habe nur die Demo gespielt - und das ohne jeden Eye-Candy, weil ich nicht die Graka dafür habe - aber da das Gameplay nach "FarCry mit Gimmicks" schmeckt und die Grafik ja nun wirklich ein absoluter Reisser ist, sehe ich irgendwie keine Grundlage dafür, Crysis nicht als Knaller zu sehen. :|


Ohne jetzt wieder eine endlose Diskussion los zu treten... Aber...Ich habe die Demo sowie das eigendliche Spiel durchgespielt und bis auf ein paar Gimmicks die wirklich nice sind, ist das Spiel meiner Meinung nach völlig überbewertet. Klar Grafik ist ne pracht aber das ist nicht alles. Die Story erschlafft (leider) beim erreichen des Alienschiffes und das wird zum Ende hin immer schlimmer. Und ich bin eigendlich ein SciFi-Liebhaber. Von den den vielen Abstürzen und anderen Merkwürdigkeiten (Performancedrops ohne Grund) mal abgesehn die vielleicht durch nen Patch mal gefixt werden. Es ist ne schöne Techdemo. Sollte vielleicht in 3DMark0X aufgenommen werden als GPU-Bench.

desert
2007-12-06, 09:24:36
Tja, und ich habe unter 1680x1050 29,xx AVG FPS. Komisch oder. Vielleicht hast du dein PC auch einfach nur falsch eingerichtet :D

jo jetzt wo du es sagst, wie konnte ich und nur alle reviewer so dumm sein und das übersehen, das doch in wahrheit nur die ganzen computer falsch eingerichtet sind, und es daran liegt das die gts schneller ist ist. Wie konnte das nur passieren, ich habe doch nur bei beiden grafikkarten alles high gestellt, wahrscheinlich habe ich bei der gts nur übersehen das ich wohl alles auf very high gestellt hatte, sonst würde die ja erst richtig abgehen wie ein zäpfchen. Deine verbläst ja schon eine ultra. Muss ja ein richtiges schätzen sein.

Du hast meine volle bewunderung, alle anderen sagen zwar das die gts zu schwach für 1680 x 1050 ist, aber deine legt ja erst so richtig los bei 1680 x 1050 und lässt mühelos eine gtx hinter sich.

Mein gott was bin ich blöde gewesen, danke für diese erleuchtung

Deathcrush
2007-12-06, 09:26:47
Mein gott was bin ich blöde gewesen, danke für diese erleuchtung

Keine Ursache, jederzeit wieder *g

AnarchX
2007-12-06, 09:31:34
G92-8800GTS Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0712%2 F1175013.html&langpair=zh%7Cen&hl=de&ie=UTF-8) (Chin.)

Ati75
2007-12-06, 09:57:13
Also ich habs gemacht. Hab für meine "alte" GTS noch 260€ bekommen, und die "neue" GTS für 279€ bei grafikkartenpower.de bestellt. Die ist in der Zwichenzeit zwar auch bei 330€ angelangt, aber ich bekomm die Karte zum Preis von 279€. Jetzt hoffe ich natürlich, dass ich die Karte auch nächste Woche bekomme. Im Moment gurke ich mit ner 7100GS rum, und das ist ne Qual. An spielen is nicht zu denken, und grad im Moment hab ich nen Haufen Games da (COD4,Crysis,NfS : ProStreet...). War ein teurer Monat :). Aber so gehts glaub ich grad vielen...Im Nachhinein wars vielleicht nicht gerade die klügste Investition, die 640er GTS hätts mir auf jeden Fall noch getan, aber wenn ich die schon so gut verkaufen kann, dann mach ich das auch. Living on the bleeding edge of technology sag ich da nur. Is nun mal teures Hobby. Andere Leute greifen sich da an den Kopf. Aber so ists nun mal...

MadManniMan
2007-12-06, 10:25:53
Hm... ich denke, man kann guten Gewissens behaupten, dass sich eine G92-GTS nur dann lohnt, wenn sie entweder nur 10% teurer als eine GT-512 ist, oder aber mit 1024 MB daherkommt.

Henroldus
2007-12-06, 10:46:17
nun ja:
http://img3.pconline.com.cn/pconline/0712/06/1175013_071206_G92_8800GTS_COJ_thumb.jpg
nicht sonderlich berauschend, es krankt wohl doch an der Bandbreite.
Die GTX ist in Reallifebenchmarks immer noch schneller und das schon ohne AA!

dildo4u
2007-12-06, 10:49:09
Kommt aufs Game an bei Dirt dem einzige Game was dort mit 4XAA getestet wurde ist sie schneller im Schnitt liegt sie auf dem gleichen Level wie die GTX natürlich bei weniger Stromverbrauch.

http://s2.directupload.net/images/071206/x7rmfriu.jpg

Der Rest der Tests ist leider ohne AA.

http://s5.directupload.net/images/071206/bl92wuyr.jpg

http://s3.directupload.net/images/071206/3luyr8zi.jpg

dargo
2007-12-06, 11:03:39
Kommt aufs Game an bei Dirt dem einzige Game was dort mit 4XAA getestet wurde ist sie schneller im Schnitt liegt sie auf dem gleichen Level wie die GTX natürlich bei weniger Stromverbrauch.

http://s2.directupload.net/images/071206/x7rmfriu.jpg

Selbst hier sieht man was passiert wenn die Anforderung an die Bandbreite (eventuell auch den Vram) steigt. In 1920x1200 mit 4xAA nur noch 37fps für die GTX und 38,5fps für die neue GTS. Es magelt dem G92 einfach an Bandbreite und Vram. Nee, lieber erstmal die richtigen Karten abwarten. Würde es eine 1GB G92GTS für ~300€ geben könnte man es sich überlegen, aber so nicht.

dildo4u
2007-12-06, 11:10:39
1920*1200 ist auch SLI Gebiet bis 1600*1200 scheint die Bandbreite noch zu reichen.Und die Meisten werden whol maximal 22 Zoll TFTs(1680*1050) haben vor daher passt die Performance perfekt zur Preisklasse um 300€.

dargo
2007-12-06, 11:27:10
1920*1200 ist auch SLI Gebiet bis 1600*1200 scheint die Bandbreite noch zu reichen.Und die Meisten werden whol maximal 22 Zoll TFTs(1680*1050) haben vor daher passt die Performance perfekt zur Preisklasse um 300€.
1920x1200 war nur ein Beispiel wenn die Anforderung an die Bandbreite steigt. Ich bin eh auf 1280x1024 begrenzt. Dann nutze ich aber auch 8xQMSAA oder 4x-8xS wenn die Leistung reicht. ;)

Für User die keinen G80 haben finde ich die G8800GT immer noch am interessantesten. Man müsste nur einen Hersteller finden der keinen Referenzkühler verwendet und trotzdem ~200€ verlangt. Das wird wohl etwas schwierig sein.

PS: der Dirt-Test in 1600x1200 4xAA ist für die Tonne. In 1920x1200 ist die Ultra ~8% schneller als die GTX und in 1600x1200 plötzlich ~17%? :|
Da stimmt was nicht.

AnarchX
2007-12-06, 11:32:02
PS: der Dirt-Test in 1600x1200 4xAA ist für die Tonne. In 1920x1200 ist die Ultra ~8% schneller als die GTX und in 1600x1200 plötzlich ~17%? :|
Da stimmt was nicht.
Auch die 88GT sollte nicht vor der GTX liegen, naja wie so oft sind die Pre-NDA-Tests eher von minderer Qualität.

Majestic
2007-12-06, 11:33:51
1920x1200 war nur ein Beispiel wenn die Anforderung an die Bandbreite steigt. Ich bin eh auf 1280x1024 begrenzt. Dann nutze ich aber auch 8xQMSAA oder 4x-8xS wenn die Leistung reicht. ;)

Für User die keinen G80 haben finde ich die G8800GT immer noch am interessantesten. Man müsste nur einen Hersteller finden der keinen Referenzkühler verwendet und trotzdem ~200€ verlangt. Das wird wohl etwas schwierig sein.

Der Referenzkühler ist doch nicht schlecht....:confused: Aber für Leute die es brauchen sollen die doch nen Silencer (oder HD3870 Derivat) oder Accerlero X1(schon geplannt von Inno3D) verbauen und gut ist. Die Kühler sind billig und gut.

Deathcrush
2007-12-06, 11:35:10
Jap für Neueinsteiger sind die Karten sehr interessant, aber für 8800er (G80) Besitzer nur ein neues Spielzeug was man eigentlich nicht braucht. Ausser vielleicht dem Reitz des neuen. Aber wenn schon ein Spiel auf der 8800GTS OC nicht flüssig läuft, dann wird es auf der G92 ebenfalls nicht flüssig laufen und wenn man Pech hat, sogar schlechter wegen dem VRAM und der Speicherbandbreite.

dargo
2007-12-06, 11:43:19
Auch die 88GT sollte nicht vor der GTX liegen, naja wie so oft sind die Pre-NDA-Tests eher von minderer Qualität.
Jepp. Naja, der CB-Test wird wohl nicht mehr lange dauern.

Gast
2007-12-06, 15:52:09
Also die 8800GTS überzeugt mich ganz und gar nicht für den Preis!

Und die 1GB Version dürfte sich nur um ein Gimmick handeln.

crux2005
2007-12-06, 17:09:40
2x GeForce 8800GTS-512 SLi:

http://s4.directupload.net/images/071206/temp/gxor78fn.jpg (http://s4.directupload.net/file/d/1268/gxor78fn_jpg.htm)

;)

LovesuckZ
2007-12-06, 17:12:27
Welchen Speichertakt haben deine Karten?

crux2005
2007-12-06, 17:17:38
wenn sie im PC sind sag ich es dir

Ati75
2007-12-06, 18:14:32
Wo hast du die Karten bestellt? Was für ein Hersteller ist das?

ShinyMcShine
2007-12-06, 18:23:26
Hersteller ist ASUS, sieht man auf dem Bild...
Bin auch gespannt auf die Taktraten. Auf der kurzfristig verfügbaren Seite bei nVidia waren ja 1000MHz gelistet, während die im Umlauf befindlichen Modelle anscheinend mit 1940MHz laufen.
Wenn Du dann Zeit hast crux, wären natürlich Benchmarks sehr wünschenswert... :)
Außerdem bin ich mittlerweile echt der Meinung, dass nVidia das NDA für die G92-GTS aufheben könnte, damit die Hardwareseiten ihre Reviews präsentieren können. Was für'n Zweck erfüllt denn ein NDA, wenn es die Karten schon im Handel gibt (auch wenn nur vereinzelt)?

Gast
2007-12-06, 18:25:44
Hersteller ist ASUS, sieht man auf dem Bild...
Setzen, 6.

Asus hat nur seinen Aufkleber raufgepappt oder auch selbst das nicht und nur raufpappen lassen.

ShinyMcShine
2007-12-06, 18:30:43
Setzen, 6.

Asus hat nur seinen Aufkleber raufgepappt oder auch selbst das nicht und nur raufpappen lassen.

Oh je, 'tschuldigung, dass ich die Frage mißinterpretiert habe.
Trotzdem hat er die Karten wohl aus einem ASUS Karton raus...
:rolleyes:

LovesuckZ
2007-12-06, 18:32:27
Außerdem bin ich mittlerweile echt der Meinung, dass nVidia das NDA für die G92-GTS aufheben könnte, damit die Hardwareseiten ihre Reviews präsentieren können. Was für'n Zweck erfüllt denn ein NDA, wenn es die Karten schon im Handel gibt (auch wenn nur vereinzelt)?

Chancengleichheit.

ShinyMcShine
2007-12-06, 18:34:12
Naja, andere Seiten halten es da aber auch nicht so genau. Immerhin gibt es schon zwei Reviews...

crux2005
2007-12-06, 19:58:27
Wo hast du die Karten bestellt? Was für ein Hersteller ist das?

bei "uns" im Shop, Asus

Welchen Speichertakt haben deine Karten?

972 MHz also 1944MHz

Hersteller ist ASUS, sieht man auf dem Bild...
Bin auch gespannt auf die Taktraten. AUf der kurzfristig verfügbaren Seite bei nVidia waren ja 1000MHz gelistet, während die im Umlauf befindlichen Modelle anscheinend mit 1940MHz laufen.
Wenn Du dann Zeit hast crux, wären natürlich Benchmarks sehr wünschenswert... :)

972 MHz ;) also 1944MHz

hab jetzt aber nur 1 im betrieb, da mein SLI board erst in 2,3 Tagen kommt :mad:

Nakai
2007-12-06, 20:02:30
plz del

Gast
2007-12-06, 20:37:02
bei "uns" im Shop, Asus



972 MHz also 1944MHz



972 MHz ;) also 1944MHz

hab jetzt aber nur 1 im betrieb, da mein SLI board erst in 2,3 Tagen kommt :mad:

Mach doch mal bitte eine GPUZ Validation.....

Razor
2007-12-06, 21:05:45
Mach doch mal bitte eine GPUZ Validation.....
Wozu?
Das sind die Standard-Referenzkarten (mit "Aufkleber" ;-)...
650/1625/970 mit 128SP und DualSlot-Design

Also völlig normal!

Razor

LovesuckZ
2007-12-06, 21:42:50
8800GTS @ 832/2001/1030 mit 100% Lüfter? (http://img409.imageshack.us/img409/5422/068312001dv6.jpg)

http://forum.beyond3d.com/showpost.php?p=1102692&postcount=73

Gast
2007-12-06, 21:43:30
Also völlig normal!

Laut NVIDIA sind 1000 MHz Speichertakt die Referenz.
http://pics.computerbase.de/1/9/8/7/8/1.png

AnarchX
2007-12-06, 21:46:42
Laut NVIDIA sind 1000 MHz Speichertakt die Referenz.
http://pics.computerbase.de/1/9/8/7/8/1.png
Nur ist diese Eintragung wieder auf NVs HP verschwunden und am Mittwoch werden dann wohl dort auch die richtigen 970MHz stehen.

8800GTS @ 832/2001/1030 mit 100% Lüfter? (http://img409.imageshack.us/img409/5422/068312001dv6.jpg)

http://forum.beyond3d.com/showpost.php?p=1102692&postcount=73
=) Jetzt fehlt nur noch 1GiB 0.83ns GDDR3 mit ordentlicher Vmem...

Kommt übrigens aus dem XS:
http://www.xtremesystems.org/forums/showpost.php?p=2607460&postcount=128

Adam D.
2007-12-06, 21:51:11
8800GTS @ 832/2001/1030 mit 100% Lüfter? (http://img409.imageshack.us/img409/5422/068312001dv6.jpg)

http://forum.beyond3d.com/showpost.php?p=1102692&postcount=73
Alter Latz, 2k Shader-Takt. Das ist Wahnsinn :eek:

Ich warte jetzt erstmal ab, eventuell gönn ich mir doch noch eine. Da ATi sich ja weigert, mir 'ne HD3870 zu 'nem gescheiten Preis zu verkaufen, muss ich so lange bei meiner GT bleiben ... GTS mit 1GB VRAM und sie ist mein ... Wenn man sie bezahlen kann :redface:

Gast
2007-12-06, 22:01:01
Nur ist diese Eintragung wieder auf NVs HP verschwunden und am Mittwoch werden dann wohl dort auch die richtigen 970MHz stehen.

Der Eintrag ist verschwunden, weil er da gar nicht hätte erscheinen dürfen vor dem Launch.. Und warum sollte NVIDIA vorab bessere Infos bekanntgeben? Das wäre ja Quatsch und negativ-Presse.

Dum_Di_Dum
2007-12-06, 22:39:34
Im Standart

http://img132.imageshack.us/img132/7834/gts512bh3.th.jpg (http://img132.imageshack.us/my.php?image=gts512bh3.jpg)

dargo
2007-12-06, 22:58:06
Alter Latz, 2k Shader-Takt. Das ist Wahnsinn :eek:

Was ist denn daran so besonders? Das sind "nur" 23% mehr als Standard. Nicht nur auf große Zahlen achten sondern es in Relation sehen. ;)

Gast
2007-12-06, 22:59:26
Was ist denn daran so besonders? Das sind "nur" 23% mehr als Standard. Nicht nur auf große Zahlen achten sondern es in Relation sehen. ;)

Die abschließende Frage, wieviel von dieser Leistung wegen der mageren Bandbreite verpufft, stellt sich dann auch noch. ;)

dargo
2007-12-06, 23:01:38
Die abschließende Frage, wieviel von dieser Leistung wegen der mageren Bandbreite verpufft, stellt sich dann auch noch. ;)
Richtig, der Speicher ist um lächerliche 6% übertaktet wo die Karte eh schon an der Bandbreite verhungert. lol

Machen wir mal einen Vergleich:

G8800GTX@G80 = 575/900Mhz mit 86,4GB/s
G8800GTS@G92OC = 832/1030Mhz mit 65,92GB/s

Wie kann man nur den G92 so verhungern lassen (45% mehr Rohleistung bei 24% weniger Bandbreite)? :crazy2:

Gast
2007-12-06, 23:07:03
Richtig, der Speicher ist um lächerliche 6% übertaktet wo die Karte eh schon an der Bandbreite verhungert. lol
Ich suche noch nach einer Eindeutigen Feststellung was mehr limitiert:
Die mangelnde Bandbreite oder die 512MiB.

Die Pros bei CB erzählen dir ja zb. das 1GiB nur Marketing ist. :mad:

LovesuckZ
2007-12-06, 23:23:33
Wie kann man nur den G92 so verhungern lassen (45% mehr Rohleistung bei 24% weniger Bandbreite)? :crazy2:

Immer noch nicht verstanden, dass hier die 8800GTS abgelöst werden soll?
Ansonsten ist Rohleistung beim G92 nunmal sehr einfach zu erreichen. Wieso sollte man diese verschenken, wenn anscheinend die Ausbeute so gut ist, dass man mit 650Mhz/1650MHz an den Start gehen kann?
Es ist billiger diese Karte zu fertigen als die alte 8800GTS. Und deutlich schneller wird sie auch sein.

dargo
2007-12-06, 23:27:04
Immer noch nicht verstanden, dass hier die 8800GTS abgelöst werden soll?

Immer noch nicht verstanden, dass NV hier ganz klar die eigene GTX nicht gefährden will? Die neue GTS könnte deutlich mehr leisten wenn man ihr (1GB) GDDR4 verpasst hätte.

Gast
2007-12-06, 23:30:23
Immer noch nicht verstanden, dass hier die 8800GTS abgelöst werden soll?
Das erledigt doch schon die G92 GT.

BvB123
2007-12-06, 23:54:02
Alter Latz, 2k Shader-Takt. Das ist Wahnsinn :eek:



Selbst meine Zotac AMP macht ihre 1,9Ghz Shader Takt mit Standard Lüfter und weniger SPannung als die GTS ;)

LovesuckZ
2007-12-06, 23:57:52
Das erledigt doch schon die G92 GT.

Sie ersetzt die 8800GTS320. Und wer weiß, vielleicht war sie wirklich nur as 6 Cluster Variante geplant - AMD's 3870 VAPO kam wohl ungelegen. Zweimal AMD überschätzt.
Es sollte doch bemerkt worden sein, dass nVidia das gleiche PCB und den gleichen Speicher weiterverwendet. Die neue Karte löst nicht nur die wesentlich teure 8800GTS640 ab, nein sie ist für nVidia auch wesentlich margenreicher als die 8800GT.


Immer noch nicht verstanden, dass NV hier ganz klar die eigene GTX nicht gefährden will? Die neue GTS könnte deutlich mehr leisten wenn man ihr (1GB) GDDR4 verpasst hätte.

Dafür wurde sie nie erdacht. Bitte nicht deine Wunschvorstellung mit der Wirklichkeit vertauschen. nVidia will die 8800GTS nicht als GTX Ablösung einsetzen. Durch den anscheinend sehr guten 65nm Prozeß und der Architektur sind hohe Taktraten (650MHz TMU/ROP, 1650MHz Recheneinheiten) anscheinend selbst bei 8 Cluster eine Leichtigkeit. Mal gucken, wie es mit dem Stromverbrauch aussehen wird.

myopF
2007-12-07, 03:44:18
nur musst du doch zugeben, mit dem besseren speicher wäre man über gtx niveau, und das mit einem billiger herzustellenendem chip & pcb. nv hätte also dicke vorteile gehabt den g80 komplett abzulösen. mir ist das zumindest schleierhaft.
ich frage mich was passieren würde wenn ein vendor sein eigenes layout für gddr4 machen würde und damit dem highend gtx/ultra markt konkurrenz macht :D

Gast
2007-12-07, 08:46:25
Sie ersetzt die 8800GTS320. Und wer weiß, vielleicht war sie wirklich nur as 6 Cluster Variante geplant - AMD's 3870 VAPO kam wohl ungelegen. Zweimal AMD überschätzt.

Du bist wirklich unheimlich komisch.


Es sollte doch bemerkt worden sein, dass nVidia das gleiche PCB und den gleichen Speicher weiterverwendet. Die neue Karte löst nicht nur die wesentlich teure 8800GTS640 ab, nein sie ist für nVidia auch wesentlich margenreicher als die 8800GT.


Die neue GTS könnte problemlos die noch viel teurer herzustellende 8800GTX ablösen, wenn man ihr etwas mehr Bandbreite/VRAM spendieren würde.


Mal gucken, wie es mit dem Stromverbrauch aussehen wird.

140W TDP sind jedenfalls so wenig nicht.

reunion

Razor
2007-12-07, 10:38:02
8800GTS @ 832/2001/1030 mit 100% Lüfter? (http://img409.imageshack.us/img409/5422/068312001dv6.jpg)
http://forum.beyond3d.com/showpost.php?p=1102692&postcount=73
100% Lüfter?
*urgs*

Auch das restliche System scheint 'leicht' über-beansprucht, gell?
Soll ich mal schaun', was passiert, wenn ich 'ne Klimaanlage auf voller Leistung in den Rechner blasen lasse?
;)

Laut NVIDIA sind 1000 MHz Speichertakt die Referenz.
http://pics.computerbase.de/1/9/8/7/8/1.png
Ähmm...
Nur ist diese Eintragung wieder auf NVs HP verschwunden und am Mittwoch werden dann wohl dort auch die richtigen 970MHz stehen.
Danke!
:D

Die Pros bei CB erzählen dir ja zb. das 1GiB nur Marketing ist. :mad:
Was auch stimmig sein dürfte...

...mit dem besseren speicher wäre man über gtx niveau, und das mit einem billiger herzustellenendem chip & pcb...
Hast Du eigentlich überhaupt eine Vorstellung davon, wieviel aufwändiger und komplizierter das PCB hätte sein müssen, wenn es ein 512Bit SI hätte integrieren müssen? Ganz offensichtlich nicht...

So, wie GT/GTS jetzt sind, sind sie im Markt als "Performance"-Karten top plaziert und dürften nVidia (GPUs), wie auch den Herstellern (PCBs un dder 'Rest' ;-) eine ausserordentlich gute Marge liefern. Wer tatsächlich der Meinung ist, dass nVidia die GTXen mit ihrer eignen "Performance"-Riege hätte angreifen wollen, der tut mir wirklich leid... warum hätten sie das tun sollen?

Die GT/GTS ersetzen schlicht GTS320/640 und das sogar ausserordentlich gut... für den Consumer mit hoher Leistung zu kleinem Preis und für die IHV/Hersteller mit großer Marge zu kleiner Investition.

Besser geht es nicht.

Razor

myopF
2007-12-07, 10:48:26
ich meinte kein breiteres si sondern wortwörtlich "besseren" speicher, sprich gddr4.
und imho ist ein gtx/ultra pcb teurer als das der gts (ua gerade wegen des schmaleren si).
ich finde die steigerung ist zu inhomogen (rohleistung vs bandbreite) um eine optimale leistungssteigerung zu bringen. anscheinend ist dies von nv gewollt um die alte g80 für highend (tri sli) attraktiv zu halten. ich kanns nur net verstehen da dies imho unrentabler ist(oder vl schmeisst tsmc im 90nm prozess grad mit rabatten um sich? ;))

dargo
2007-12-07, 11:12:46
ich meinte kein breiteres si sondern wortwörtlich "besseren" speicher, sprich gddr4.
und imho ist ein gtx/ultra pcb teurer als das der gts (ua gerade wegen des schmaleren si).

Vollkommen korrekt! Es würde schon eine G92GTS @650/1625/1600Mhz 1GB GDDR4 reichen um sich die G8800GTX/Ultra zu sparen. Und mir soll keiner erzählen das wäre nicht billiger für NV.

AnarchX
2007-12-07, 11:35:38
Legion HW:
http://img442.imageshack.us/img442/7103/asusextremen8800gts5121ex7.jpg (http://www.legionhardware.com/document.php?id=708&p=0)

Interessanterweise mal ein Test unter WinXP. :up:

gentoo
2007-12-07, 11:40:12
Ich verfolge den Thread jetzt schon eine Zeit lang
und bin mir meiner Kaufwahl momentan unsicher geworden.:confused:

Ich habe zwei Gainward Geforce 8800GT´s (700/1025/1500) bestellt und
erhoffe mir dadurch auch unter 1680x1050 mit AA und AF spielen zu können.

Wenn auf Preis/Leistung Rücksicht genommen wird,
ist es vernünftiger auf 2 GTS zu warten oder auf zwei GT's mit 1GB Speicher ?

Sind die 512MB der GT's knapp bemessen um bei dieser Auflösung im SLI-Mode
zu fahren ?

lg,
gentoo

dargo
2007-12-07, 11:44:40
Legion HW:
http://img442.imageshack.us/img442/7103/asusextremen8800gts5121ex7.jpg (http://www.legionhardware.com/document.php?id=708&p=0)

Interessanterweise mal ein Test unter WinXP. :up:
Das ist zwar lobenswert, aber dieser Test ist ebenfalls für die Tonne.

1. Die GTS verwendet einen anderen Treiber.
2. Der Crysisbenchmark sieht sehr merkwürdig aus.
3. Der Fearbenchmark sieht auch komisch aus.

Gast
2007-12-07, 12:27:18
Legion HW:
http://img442.imageshack.us/img442/7103/asusextremen8800gts5121ex7.jpg (http://www.legionhardware.com/document.php?id=708&p=0)

Interessanterweise mal ein Test unter WinXP. :up:

Haben die das entfernt???

Gast
2007-12-07, 12:38:32
Jupp...

Deathcrush
2007-12-07, 12:45:42
Sind die 512MB der GT's knapp bemessen um bei dieser Auflösung im SLI-Mode
zu fahren ?

lg,
gentoo

Kommt auf das Spiel an. Aber wenn du in 1680x1050 mit Qualitätssettings (AA/AF) spielen willst, kann der Speicher bei dem einen oder anderen Spiel ans limit kommen. Daher halte ich SLI bei den Karten für wenig Sinnvoll.

Gast
2007-12-07, 12:47:18
und keiner hat die screens noch im cache?

falls doch, bitte posten.

myopF
2007-12-07, 12:52:18
ich habn paar, sec eben uppen. sind aber net viele da nur kurz überflogen.

http://www.picupload.net/t-6d4a5771e038bd5416807d403f251818.png (http://www.picupload.net/s-6d4a5771e038bd5416807d403f251818-png.php)http://www.picupload.net/t-5d929cd5333a5a3e6e105d191c384734.png (http://www.picupload.net/s-5d929cd5333a5a3e6e105d191c384734-png.php)
http://www.picupload.net/t-35fe964c760b973946e2c9520f4b63bf.png (http://www.picupload.net/s-35fe964c760b973946e2c9520f4b63bf-png.php)http://www.picupload.net/t-affbb5f6b756e8cf49ff7f9419c462b6.png (http://www.picupload.net/s-affbb5f6b756e8cf49ff7f9419c462b6-png.php)
http://www.picupload.net/t-e14f964cf1655547147ec021790b9877.png (http://www.picupload.net/s-e14f964cf1655547147ec021790b9877-png.php)
http://www.picupload.net/t-17fa1df726e4591e1ab98dbf32b362d1.png (http://www.picupload.net/s-17fa1df726e4591e1ab98dbf32b362d1-png.php)
http://www.picupload.net/t-4ad2d2046cb8d45fbb1b71014f38dc2d.png (http://www.picupload.net/s-4ad2d2046cb8d45fbb1b71014f38dc2d-png.php)http://www.picupload.net/t-df40f09af9afa62262e46b9e06cf67c9.png (http://www.picupload.net/s-df40f09af9afa62262e46b9e06cf67c9-png.php)
Measuring the performance of the GeForce 8800 GTS 512 has been difficult, as we found it to be slower than the GTX in some tests while faster in others. Furthermore, while the 8800 GTS 512 did remain constantly ahead of the 8800 GT, the winning margin constantly changed depending on the game. For example, the 8800 GTS 512 was 7% faster in Quake Wars and 13% faster in S.T.A.L.K.E.R, while there was a 38% performance advantage seen in F.E.A.R! So determining where the 8800 GTS 512 sits in terms of performance in the GeForce 8800 family is not easy.

While the GeForce 8800 GTS 512 was consistently faster than the 8800 GT in all games tested, for the most part we found it to only offer a small boost in performance. Given the difference in specifications we expected to see a lot more out of the 8800 GTS 512 when compared to the 8800 GT. It would appear that being limited to almost the same amount of memory bandwidth due to the use of a 256-bit memory bus, has restricted the performance of this new GeForce 8800 GTS graphics card.

Given that the 8800 GTS 512 MSRP is roughly $50-$100 US more than the 8800 GT, you have to wonder if it’s worth it? Of course the 8800 GT is yet to sell at the suggested $250 US price point, with most pushing much closer to $300 US, so will the 8800 GTS 512 do the same? If so, we should expect to see the 8800 GTS 512 retail for around $370 US, which places it even closer to the GeForce 8800 GTX in terms of price. Though having said that, the cheaper GeForce 8800 GTX cards still sell for about $100 US more and given the difference in performance between these two products, the 8800 GTS 512 is certainly the better value option, even at $370 US.

At this point we can only speculate to what the real cost of a GeForce 8800 GTS 512 graphics card will be and as for availability, well that’s a whole other story. At this point it looks doubtful that many will be able to slip a GeForce 8800 GTS 512 into their stocking before Christmas, if the GeForce 8800 GT is anything to go by. So it will be very interesting to see if in a week’s time online retails have stock or not. All speculation aside, if Nvidia can get the 8800 GTS 512 out in numbers, and at $350 US or less, we believe it will be a huge success.

Although the Nvidia reference cooler is nice and quiet, it does allow the GeForce 8800 GTS 512 to operate quite hot, as we consistently saw stress temperatures reach over 80 degrees while gaming. The plastic shroud that is designed to direct air-flow over the heatsink often became too hot to touch as well, so we imagine that there is quite a lot of excess heat being dumped into the case. In terms of power consumption the 8800 GTS 512 was very similar to the GTX under load, using a considerable amount of power.

Unfortunately we only had our ASUS GeForce 8800 GTS 512 for 24 hours, which limited the number of tests that we could run. This means we have left out the overclocking performance numbers for now, though we do hope to add these in the near future when possible. That said, we did quickly overclock the card, reaching a 711MHz core and 2114MHz memory frequency. This did appear to have a serious impact on the 1920x1200 performance, so we are very keen to completely retest this graphics card at those frequencies.

dr_mordio
2007-12-07, 12:58:27
ich habn paar, sec eben uppen. sind aber net viele da nur kurz überflogen.

danke.

besser ein wenig als garnichts.

MfG
Alex

gentoo
2007-12-07, 13:14:22
Kommt auf das Spiel an. Aber wenn du in 1680x1050 mit Qualitätssettings (AA/AF) spielen willst, kann der Speicher bei dem einen oder anderen Spiel ans limit kommen. Daher halte ich SLI bei den Karten für wenig Sinnvoll.


Was ich gesehen habe ist der Performacegewinn unter DX9 oft bei
80% unter XP. Unter Vista und DX10 liegt der Gewinn meistens nur
bei wenigen FPS - da das aber nahezu bei jedem DX10 Spiel und
jeder Graka ist bin ich mir nicht sicher :confused:

Die GT mit 1GB hat vermutlich zwar den Speicher aber immer noch das
256-Bit Speicherinterface als Flaschenhals.

lg,
gentoo

AnarchX
2007-12-07, 13:17:05
Was ich gesehen habe ist der Performacegewinn unter DX9 oft bei
80% unter XP. Unter Vista und DX10 liegt der Gewinn meistens nur
bei wenigen FPS - da das aber nahezu bei jedem DX10 Spiel und
jeder Graka ist bin ich mir nicht sicher :confused:

SLI und Vista arbeitet eben noch nicht wirklich optimal, zudem scheint Vista auch mehr VRAM zu verbrauchen, sodass der VRAM früher der Flaschenhals wird.


Die GT mit 1GB hat vermutlich zwar den Speicher aber immer noch das
256-Bit Speicherinterface als Flaschenhals.


Unter SLI verdoppelt sich aber die Bandbreite theoretisch bei gleich bleibendem 1GiB effektiven Speicher. Also doch um einiges sinnvoller, bei einem vernünftigen Aufpreis.

Hakim
2007-12-07, 14:04:29
Wurde schon erwähnt das die Asus GTS einen anderen Lüfter hat. Sieht aus wie die Kühlung der alten GTS. Wenn denn das bild stimmt. Sieht mir zusehr nach der alten GTS aus. http://geizhals.at/deutschland/a299368.html


Edit: Ok ist falsches bild....sieht normal so aus http://www.hpci.at/cgi-bin/hshop/iboshop.cgi?showd20740!0,4340034650,GKX175_1

AnarchX
2007-12-07, 14:09:15
Da wird wohl GH einfach das alte/falsche Bild eingefügt haben, denn das ist definitiv kein G92-PCB ;)

nomadhunter
2007-12-07, 14:10:34
Jep. G92 (http://geizhals.at/img/pix/299368.jpg) G80 (http://geizhals.at/img/pix/224910.jpg)
Andere URL aber exakt das gleiche Bild.

Gast
2007-12-07, 14:39:33
Vollkommen korrekt! Es würde schon eine G92GTS @650/1625/1600Mhz 1GB GDDR4 reichen um sich die G8800GTX/Ultra zu sparen. Und mir soll keiner erzählen das wäre nicht billiger für NV.
Ich erzähle dir das wäre teurer für NV.

NV/die Hersteller haben noch die ganzen G80 Karten rumliegen.
Die müssen weg. Und ein noch stärkerer G92 würde das verhindern.

Hakim
2007-12-07, 14:45:36
Könnte auch die Pixelfüllrate in höheren Auflösungen und AA die G92 etwas gegenüber der GTX/Ultra limitieren?

dildo4u
2007-12-07, 14:48:33
Nein da die bei der G92 GTS ja höher ist als bei der Ultra.

Hakim
2007-12-07, 14:52:46
Habe ich einen Denkfehler?

GTX 24 * 575 = 13800

G92GTS 16 * 650 = 10400

dildo4u
2007-12-07, 14:55:14
Ja die G92 GTS hat 24*650.

http://pics.computerbase.de/1/9/8/7/8/1.png

rrmarkus
2007-12-07, 14:58:11
Ich hab die Karte heute bekommen (die von Gigabyte)... Irgendwie lässt sich nur der Treiber von der Gigabyte CD installieren (7.15.11.6906) und im Rivatuner fehlen so ziemlich alle Einstellungsdialoge.

Weiß jemand, welche Tweakingtools die Karte bereits unterstützen?

Dank & Gruss
markus

Hakim
2007-12-07, 14:59:12
Du meinst Texelfüllrate. Ich meine Pixelfüllrate. Bei 16 ROPs und 650 Mhz müssen normal 10400 Mpix/s rauskommen

Gast
2007-12-07, 15:12:49
http://www.forumdeluxx.de/forum/show...346738&page=64
169.17

Gast
2007-12-07, 15:13:54
http://www.forumdeluxx.de/forum/showthread.php?t=346738

Ati75
2007-12-07, 15:18:06
Ich hab die Karte heute bekommen (die von Gigabyte)... Irgendwie lässt sich nur der Treiber von der Gigabyte CD installieren (7.15.11.6906) und im Rivatuner fehlen so ziemlich alle Einstellungsdialoge.

Weiß jemand, welche Tweakingtools die Karte bereits unterstützen?

Dank & Gruss
markus

Jetzt muss ich nochmal fragen, da ich auch ne Gigabyte bestellt habe, von grafikkartenpower.de . Wo hast du deine bestellt?

rrmarkus
2007-12-07, 15:54:50
Jetzt muss ich nochmal fragen, da ich auch ne Gigabyte bestellt habe, von grafikkartenpower.de . Wo hast du deine bestellt?

Bei Alternate...

Ati75
2007-12-07, 15:56:11
Danke. Ich bestell mal wieder immer bei den "falschen".

Ihr merkt ich kann nicht mehr warten, CoD 4 ruft :D

rrmarkus
2007-12-07, 16:08:33
Danke. Ich bestell mal wieder immer bei den "falschen".

Ihr merkt ich kann nicht mehr warten, CoD 4 ruft :D

CoD4 hab ich grad schon mal kurz angeschmissen... 1920x1200 mit 4xFSAA und mittleren Details läuft schon mal ganz OK. ;-)

rrmarkus
2007-12-07, 16:10:15
http://www.forumdeluxx.de/forum/showthread.php?t=346738

"Das NVIDIA Setup-Programm konnte keine Treiber finden, die mit der aktuellen Hardware kompatibel sind..."

Gast
2007-12-07, 16:28:40
Ich hab die Karte heute bekommen (die von Gigabyte)

Wie viel bezahlt? Wann bestellt? :)

tombman
2007-12-07, 16:34:48
Also bis jetzt ist mal die GTX, mal die GTS schneller...nehmen sich ned viel...

Lohnt sich ned für mich, jetzt irgendwas zu machen, ich warte bis zum Frühjahr, da gibts dann wieder neues HighEnd von Nvidia mit FETTEM Chip :D

Gast
2007-12-07, 16:37:30
Lohnt sich ned für mich, jetzt irgendwas zu machen, ich warte bis zum Frühjahr, da gibts dann wieder neues HighEnd von Nvidia mit FETTEM Chip :D
Logisch, was willst du mit Mittelklasse? ;)

Wenn dann brauchst du jetzt Triple SLI.

Razor
2007-12-07, 16:50:12
Ich hab die Karte heute bekommen (die von Gigabyte)... Irgendwie lässt sich nur der Treiber von der Gigabyte CD installieren (7.15.11.6906) und im Rivatuner fehlen so ziemlich alle Einstellungsdialoge.

Weiß jemand, welche Tweakingtools die Karte bereits unterstützen?
Der 169.06 wurde wohl extra modifiziert, damit die GTS512 unterstützt wird.
Auch der originale Treiber 169.06 tut das per default nicht...

Dürfte übrigens der Grund gewesen sein, warum des vorherige Review mit dem 169.06 gemacht wurde...
(warum haben die das nicht selber korrigiert?)

1) willst Du einen neueren Treiber nutzen musst Du diesen selbst modifizieren... ist nicht sonderlich schwer.
2) warum sollte der RT mehr 'kennen', als die Treiber selbst? Da müsste die RivaTuner.cfg angepasst werden...

Der G92 ist ja der gleiche... hat halt nur 'ne andere DeviceID.

http://www.forumdeluxx.de/forum/showthread.php?t=346738
Nö.

Razor

dargo
2007-12-07, 16:54:11
Also bis jetzt ist mal die GTX, mal die GTS schneller...nehmen sich ned viel...

Lohnt sich ned für mich, jetzt irgendwas zu machen, ich warte bis zum Frühjahr, da gibts dann wieder neues HighEnd von Nvidia mit FETTEM Chip :D
Bei 2 GTXen gibts bis 2008 leider keine Alternativen. Die neue GTS wäre für dich sogar ein Downgrade.

rrmarkus
2007-12-07, 17:39:35
Wie viel bezahlt? Wann bestellt? :)

Bestellt habe ich die Karte am 30.11 für 299 Euro. Der Link in den Shop war allerdings kurz nach der Bestellung schon wieder verschwunden... Wollte nicht so viel ausgeben, aber warte schon seit Ende Oktober auf eine GT und hab die Geduld verloren.


@Razor: Danke für die Erklärung. Ich schaue mir das File mal an...

Gast
2007-12-07, 17:56:44
aber warte schon seit Ende Oktober auf eine GT und hab die Geduld verloren.
Naja ich warte schon länger. :(
Aber ich habe auch noch nichts bestellt, ich bestelle doch nicht auf gut Glück...

crux2005
2007-12-07, 21:36:15
Asus GeForce 8800 GTS 512 auf Foto gebannt (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/dezember/asus_geforce_8800_gts_512_foto/)

AnarchX
2007-12-08, 13:10:01
[Tweaktown.com] Asus EN8800GTS vs. EN8800GTS Top (http://www.tweaktown.com/articles/1244/3/page_3_the_cards/index.html)

[...]
The TOP on the other hand gets a bump in both the memory and core clock; the core clocks comes in at 740MHz which is quite a significant increase along with the shader clock moving to 1800MHz. The 512MB of GDDR3 also gets a nice little bump being taken to 2070MHz DDR.
[...]

Der RAM-Takt/Bandbreite wiedermal ziemlich erbärmlich.
Warum nicht einfach 0.83ns GDDR3 oder den 1.0ns GDDR3 von Samsung, welchen ASUS auf ihre 8600GTS TOP auf 1145MHz laufen hat (http://geizhals.at/deutschland/a251196.html). :|

Gast
2007-12-08, 13:36:25
Diese Breite des Speicherinterface verkrüppelt einfach die Karte!

Gast
2007-12-08, 13:38:22
Der RAM-Takt/Bandbreite wiedermal ziemlich erbärmlich.
Warum nicht einfach 0.83ns GDDR3 oder den 1.0ns GDDR3 von Samsung, welchen ASUS auf ihre 8600GTS TOP auf 1145MHz laufen hat (http://geizhals.at/deutschland/a251196.html). :|

Das verstehe ich erst recht nicht. Wieso wird bei einer 150,- Karte schnellerer RAM verbaut und höher getaktet, als bei einer 300,- Karte? Was macht das für einen Sinn? Am Profit kanns ja kaum liegen, sonst hättens die 150,- Karte nicht gebracht...

dargo
2007-12-08, 13:41:45
Warum nicht einfach 0.83ns GDDR3 oder den 1.0ns GDDR3 von Samsung, welchen ASUS auf ihre 8600GTS TOP auf 1145MHz laufen hat (http://geizhals.at/deutschland/a251196.html). :|
Lol, ein weiteres Indiz, dass man die eigene GTX nicht gefährden will.

AnarchX
2007-12-08, 13:43:42
Noch ein andere Beispiele für >=1.1GHz GDDR3 @ GF8600:
http://geizhals.at/deutschland/a263074.html
http://geizhals.at/deutschland/a251120.html
http://geizhals.at/deutschland/a250980.html
http://geizhals.at/deutschland/a250983.html
...welche sogar noch erhältlich sind.

Stellt sich wirklich die Frage woran es nun liegen mag, am Qimonda-Speicher oder hat NV das Referenz-PCB entsprechend geplant, dass man hier nicht deutlich über 1GHz selbst mit entsprechenden Speicher hinauskommt um eben die Karten von GTX/Ultra fern zu halten?:|
edit: Dass die AIBs hier ihre Hand mit im Spiel haben, wäre natürlich auch eine Möglichkeit bzw. die wahrscheinlichste. Was da wohl nach dem G80-EOL passieren mag? ;)

dargo
2007-12-08, 13:55:45
Was da wohl nach dem G80-EOL passieren mag? ;)
Das sehe ich mittlerweile auch so. Man muss erstmal den G80 "aussterben" lassen. Erst dann kommen die richtigen Karten.

Gast
2007-12-08, 14:22:09
Könnte mir vorstellen, das der G92 uns noch länger begleiten wird...

Vielleicht wird deshalb an allen Ecken und Enden gespart, um den G92 später als Low und Mainstream-Cost zu vermarkten (unter 150, 200€), wenn die neuen High End Chips kommen und das obere Feld besetzen.

LovesuckZ
2007-12-08, 14:44:11
Ich weiß nicht, aber ihr seht schon, dass man hier die gleiche Platine wie bei der 8800GT verwendet?

AnarchX
2007-12-08, 14:56:39
Ich weiß nicht, aber ihr seht schon, dass man hier die gleiche Platine wie bei der 8800GT verwendet?
Die man aber auch mit anderen GDDR3 bestücken könnte und die Custom-Designs, bis auf zwei Karten in Asien, von Herstellern die immer sich in diesem Bereich von den anderen abhoben, bleiben ja auch bei ~1GHz bisher.

Wird wohl wirklich einfach daran liegen, dass die Hersteller nicht ihre GTX/Ultra Verkäufe bis zu deren EOL gefährden wollen.

dargo
2007-12-08, 15:06:09
Ich weiß nicht, aber ihr seht schon, dass man hier die gleiche Platine wie bei der 8800GT verwendet?
Und?

LovesuckZ
2007-12-08, 15:51:33
Die man aber auch mit anderen GDDR3 bestücken könnte und die Custom-Designs, bis auf zwei Karten in Asien, von Herstellern die immer sich in diesem Bereich von den anderen abhoben, bleiben ja auch bei ~1GHz bisher.

Mit anderem Speicher`bestücken? :confused:
Wie kennen nicht die Preise und Verfügbarkeit von Samsung. Und wieso sollte nVidia zwei Produktionsstraßen einführen und somit wieder die Kosten erhöhen?
Es geht hier alleinig um die Ersetzung der 8800GTS - vorallen der 8800GTS320 - mit Chips und Karten, die wesentlich billiger zu fertigen sind.
Das sich der Chip sich so gut takten lässt - mindesten 700Mhz TMUs/ROPs und den hohen Shadertakt von mindesten 1675MHz - sowie eventuell eine Erhöhung der Clustereinheit (6->7, 7->8) lässt nicht darauf schließen, dass man die GTX jetzt schon ersetzen wollte. Das geht auch nicht, da man dafür mindesten 1024mb und einem Speicher um die 1200MHz bräuchte. Und da nVidia ihre Margen lieben und AMD diese eben stark drücken, wird es keine Referenz mit 1024mb für 300€ von nVidia geben.
Daher sollte man seine Wunschvorstellung bzw. Träumerei nicht über der Wirklichkeit stellen.


Wird wohl wirklich einfach daran liegen, dass die Hersteller nicht ihre GTX/Ultra Verkäufe bis zu deren EOL gefährden wollen.

Richtig, da die Karte nie für den Ersatz gedacht war. :rolleyes:

Matze71
2007-12-09, 11:51:54
http://geizhals.at/deutschland/?a=291595&t=alle&plz=&va=nachnahme&vl=de&v=l#filterform

449 EUR, absolut irre!!!!!!!

Gast
2007-12-09, 12:04:48
http://geizhals.at/deutschland/?a=291595&t=alle&plz=&va=nachnahme&vl=de&v=l#filterform

449 EUR, absolut irre!!!!!!!
Klasse wieder die teuerste rausgesucht. :uclap:

http://geizhals.at/deutschland/?a=291468&t=alle&plz=&va=nachnahme&vl=de&v=l#filterform
254€

Nakai
2007-12-09, 12:30:36
Na endlich mal ne lieferbare und der Preis geht sogar.

mfg Nakai

AnarchX
2007-12-09, 14:50:28
Noch eine Karte mit ~800/2000MHz GPU unter Luft-Kühlung:
My max clocks so far with stock air, delta blowing into fan, 25C ambient.
Pretty sure this is my max for stock.
(My RAM speed is reported incorrectly in memset)

http://img.photobucket.com/albums/v310/T_M/177253DMark06.jpg
http://www.xtremesystems.org/forums/showpost.php?p=2614476&postcount=28

Da scheint G92-400 wohl doch eine etwa höhere Qualität aufzuweisen bzw. hat eine höhere Vgpu oder eben beides.

Und hier gibt es noch einen:
8800GTS G92 quick test on 3dmark06 (http://www.xtremesystems.org/forums/showthread.php?t=168694)
Mit höheren Auflösungen und AA-Settings.

Moralelastix
2007-12-09, 15:32:47
Klasse wieder die teuerste rausgesucht. :uclap:

http://geizhals.at/deutschland/?a=291468&t=alle&plz=&va=nachnahme&vl=de&v=l#filterform
254€

Und was wollen wir mit ner GT zu dem Preis? Ich hab 15,- mehr für ne GTS(G92) bezahlt!

"Sparkle GeForce 8800 GT, 512MB GDDR3, 2x DVI, TV-out, PCIe 2.0 (SF-PX88GT512D3-HP)"

LovesuckZ
2007-12-09, 15:38:25
Noch eine Karte mit ~800/2000MHz GPU unter Luft-Kühlung:

http://www.xtremesystems.org/forums/showpost.php?p=2614476&postcount=28

Da scheint G92-400 wohl doch eine etwa höhere Qualität aufzuweisen bzw. hat eine höhere Vgpu oder eben beides.


vGPU = 1.188V idle, ~1.237V loaded (ATItool)
http://www.xtremesystems.org/forums/showthread.php?p=2614476#post2614476

8800GT soll ja 1,05/1,1V haben.

Moralelastix
2007-12-09, 15:40:37
Die Chips schreien förmlich nach einem Voltmod, was?!!

LovesuckZ
2007-12-09, 15:44:36
Die Chips schreien förmlich nach einem Voltmod, was?!!

Und wenn man sieht, dass der Stromverbrauch dabei irgendwo auf GTS Niveau liegt, muss einem ja richtig Angst und Bange werden bei dem GTX Ersatz.

Moralelastix
2007-12-09, 15:47:02
Sollen die neuen GTX im gleichen Fertigungsprozess daherkommen?

Ist echt jammerschade das der G92 nicht in 55nm gekommen is. Wieso eigentlich nicht AMD machts doch auch?

AnarchX
2007-12-09, 15:49:50
Sollen die neuen GTX im gleichen Fertigungsprozess daherkommen?

Bei NVs Prozesstrategie ist das sehr wahrscheinlich, wohlmöglich basiert die neue GTX gar nur auf einem G92-xxx-A3.;)

Mal sehen was sich bei der 8800 GTS noch tut, momentan bietet ASUS 740/1800MHz, was wohl noch überboten wird.

Ist echt jammerschade das der G92 nicht in 55nm gekommen is. Wieso eigentlich nicht AMD machts doch auch?
Weil 55nm sehr neu ist und NV nach NV30 nicht nochmal so ein Risiko eingehen wollte, ATi scheint ja auch Glück gehabt zu haben diesmal, da der RV670 eigentlich erst für Anfang 2008 geplant war.
Ansonsten wird wohl AMD mit RV670,635,610 entsprechend die Kapazitäten auch bei TSCM auslasten.

Moralelastix
2007-12-09, 15:54:28
Vielleicht is die neue GTX einfach nur ein G92 @ 55nm?

LovesuckZ
2007-12-09, 15:59:19
Vielleicht is die neue GTX einfach nur ein G92 @ 55nm?

Nein, das wäre wirtschaftlich unsinnig. Der 65nm Prozeß scheint sehr gut zu laufen und die Konkurrenz kann gegen den Single-Core Chip nur eine 3870^2 aufbieten, die teurer zu fertigen ist.


Weil 55nm sehr neu ist und NV nach NV30 nicht nochmal so ein Risiko eingehen wollte, ATi scheint ja auch Glück gehabt zu haben diesmal, da der RV670 eigentlich erst für Anfang 2008 geplant war.


Vielleicht hat AMD auch nur den Start mit einem schlechteren Sample des Chips oder bei bewusster schlechter Verfügbarkeit des Speichers vorgezogen. Die Verfügbarkeit der 8800GT und der 3870 sich doch sehr unterschiedlich, so dass Argumente ala "fehlende Bauteile" nicht als Argumente mehr zählen.

reunion
2007-12-09, 16:28:09
Die Verfügbarkeit der 8800GT und der 3870 sich doch sehr unterschiedlich, so dass Argumente ala "fehlende Bauteile" nicht als Argumente mehr zählen.

Ja, zum einem Preis, zu dem sie nicht gekauft wird - Verfügbarkeit ist was anderes. Zudem wurde die 8800GT satte drei Wochen früher vorgestellt, das wird auch immer gerne ignoriert.

LovesuckZ
2007-12-09, 16:33:44
Ja, zum einem Preis, zu dem sie nicht gekauft wird - Verfügbarkeit ist was anderes. Zudem wurde die 8800GT satte drei Wochen früher vorgestellt, das wird auch immer gerne ignoriert.

Ebay, der perfekte Ort um sich die Marktdurchdinglichkeit anzusehen. Es gibt nur ganz wenige 3870 Karten im deutschsprachigen Raum.
AMD konnte "satte drei Wochen länger produzieren". Das folgt aus deiner Argumentation.
Es bleibt schlussendlich nur die Frage: Wo sind die 3870 Karten. Und abseits der Chips oder der Speicherbestückung bezweifel ich Lieferprobleme von Bauteilen. Denn die müssten beide Hersteller betreffen.

dargo
2007-12-09, 16:44:31
Und abseits der Chips oder der Speicherbestückung bezweifel ich Lieferprobleme von Bauteilen. Denn die müssten beide Hersteller betreffen.
Wenns nicht die Bauteile sind frage ich mich wie du dazu kommst:

Der 65nm Prozeß scheint sehr gut zu laufen..

reunion
2007-12-09, 16:46:58
Ebay, der perfekte Ort um sich die Marktdurchdinglichkeit anzusehen. Es gibt nur ganz wenige 3870 Karten im deutschsprachigen Raum.

Es ging um die Verfügbarkeit, nicht um die Marktdurchdringlichkeit. Ich bestreite nicht, dass noch nicht sonderlich viele 3870-Karte ausgeliefert wurden. Aber wie gesagt, die 8800GT hat hier auch eine Vorsprung von drei Wochen, was bei einem Chip, der vor noch nicht mal einem Monat vorgestellt wurde nicht wenig ist.


AMD konnte "satte drei Wochen länger produzieren". Das folgt aus deiner Argumentation.

Nein, das folgt nur dann, wenn man davon ausgehen würde, dass die Produktion bei beidem zur selben Zeit gestartet wurde. Was aber höchstwahrscheinlich nicht der Fall ist.


Es bleibt schlussendlich nur die Frage: Wo sind die 3870 Karten. Und abseits der Chips oder der Speicherbestückung bezweifel ich Lieferprobleme von Bauteilen. Denn die müssten beide Hersteller betreffen.

Die Bauteilbestückung der 8800GT und 3870 Karten ist in keinster Weise identisch. Schau dir doch die Platinen an. Was natürlich nicht bedeutet, dass er wirklich daran liegen muss.

nomadhunter
2007-12-09, 17:17:44
Die Bauteilbestückung der 8800GT und 3870 Karten ist in keinster Weise identisch. Schau dir doch die Platinen an. Was natürlich nicht bedeutet, dass er wirklich daran liegen muss.
Ist das nicht fast nur Standardware? Ich glaub nicht, dass es je einen Mangel an Kondensatoren/Spannungswandlern/Widerständen geben wird.

LovesuckZ
2007-12-09, 17:19:21
Es ging um die Verfügbarkeit, nicht um die Marktdurchdringlichkeit. Ich bestreite nicht, dass noch nicht sonderlich viele 3870-Karte ausgeliefert wurden. Aber wie gesagt, die 8800GT hat hier auch eine Vorsprung von drei Wochen, was bei einem Chip, der vor noch nicht mal einem Monat vorgestellt wurde nicht wenig ist.

Die Marktdurchdringlichkeit ist jedoch an der Verfügbarkeit gekoppelt. Ebay zeigt eindrucksvoll, dass es a)keine neuen Karten irgendwie gibt und b)dass nur ganz wenige Karten im Umlauf sind. Selbst zum Startzeitpunkt der 8800GT war die Karte besser verfügbar als die 3870.


Nein, das folgt nur dann, wenn man davon ausgehen würde, dass die Produktion bei beidem zur selben Zeit gestartet wurde. Was aber höchstwahrscheinlich nicht der Fall ist.

nVidia soll laut Gerüchten den Launch zwei Wochen vorgezogen haben. Man hat also bei vorgezogenem Launch eine besser Verfügbarkeit als AMD geschafft. Und die 3850 ist im Gegensatz zur 3870 und 8800GT wesentlich besser verfügbar. Somit scheint das A11 Sample wohl ausreichend für den 3850 Chip zu sein, aber nicht gut genug für die 3870 Karten.
Und sollte es am Speicher liegen, müsste man AMD den Vorwurf machen, warum sie nicht auf den 0,9ns GDDR4 Speicher setzen. Eben den, den sie auch auf den 2600XT Karten verbaut haben.

@dargo:
Die Chips lassen sich selbst mit geringer Spannung gut takten. Ausserdem wissen wir nicht, inweiweit nVidia die Karten vom Markt zurückhält.

up¦²
2007-12-10, 02:46:55
HD 3850 Crossfire vs. 8800GTS 512MB G92
http://www.tweaktown.com/articles/1246/1/page_1_introduction/index.html
gegen 2x 140€ ... :wink:

tombman
2007-12-10, 02:57:18
HD 3850 Crossfire vs. 8800GTS 512MB G92
http://www.tweaktown.com/articles/1246/1/page_1_introduction/index.html
gegen 2x 140€ ... :wink:
Lol, die G92er gewinnt immer noch ;D;D

up¦²
2007-12-10, 03:30:52
Lol, die G92er gewinnt immer noch ;D;D

Nvidia Geforce 8800 GTS 512 MB G92
Shader/Pixelpipelines: 128 / 1625 Mhz
GPU-Takt: 650 MHz
GPU-Speicher Takt: 1000 MHz
Speicherbus: 256bit
max Verbrauch ca. 110 Watt
Dual DVI, TV-Out, HDCP
Lieferbar voraussichtlich ab 06.12.2007 EUR 339,-

Nanu: felix Austria würde ich sagen!
http://www.skc.at/index.aspx?rubrikNr=4476
512er GTS vorrätig!?

Gast
2007-12-10, 14:29:41
wann kommen endlich die Reviews?

aber die Karte enttäuscht mich doch schon sehr (wohl dank des tollen Speicherinterfaces)!

up¦²
2007-12-10, 16:48:03
Nvidia GeForce 8800 GTS 512 review
http://www.techspot.com/review/79-geforce-8800-gts-512/

PS...
Inzwischen gelistet:
http://geizhals.at/eu/a299974.html

nomadhunter
2007-12-10, 19:43:50
Die Asus ist sogar schon bei mehreren Shops auf Lager, und das 3 Tage vor dem offiziellen Launch: http://geizhals.at/eu/a299368.html
Scheint als würde es bei der neuen GTS nicht die Lieferprobleme der GT zu geben. Dafür ist die Karte aber auch ohne Lieferprobleme sauteuer.

mapel110
2007-12-10, 19:46:37
Erstmal abwarten. Ich kann mir gut vorstellen, dass es ähnlich schlecht mit der Verfügbarkeit aussieht wie bei der GT. Ist ja schließlich der selbe Chip und am Boardlayout gibts bestimmt auch nicht die großen Änderungen, womit auch die sonstigen Bauteile gleich bleiben sollten (wenn es denn wirklich bei diesen Lieferprobleme gibt).

F5.Nuh
2007-12-10, 19:47:44
Das ist doch extremst überteuert.. zu dem preis hole ich mir lieber eine GTX, was ich auch getan habe. Keine lust mehr auf die ganze verwirrende kacke von nvidia. :mad:

Gortha
2007-12-10, 19:54:22
Da wird wieder ordentlich von den elenden Distributoren & E-Tailern draufgeschlagen.
Gut, die Armen haben ja sonst fast keine Margen. Aber sie übertreiben es doch schon derbst.

Wie war das!? 249 DOLLAR bis 299 $ MSRP in den Staaten. Bedeutet:
170 EURO bis 204 € Straßenpreis bei Einführung. Für eine G92GTS!

Die Euroländer werden wieder derbst beschissen und ausgesaugt.

Solange die GTs nicht für 200 € und weniger gehandelt werden und die G92GTS unter 260 €
werde ich mir keine holen.
Auf bescheißen lassen hab ich keinen Bock und auch keine Not zu.

MfG

Gast
2007-12-10, 19:58:10
hahaha XD

Die Europäer, vor allem die Deutschen lassen halt alles mit sich machen :(

siehe PS3 !

trollkopf
2007-12-10, 19:58:17
altes Thema, mal wieder Steuern vergessen...

Metalmaniac
2007-12-10, 20:00:32
Habe mir gerade die GTS bestellt von ASUS. Ist zwar 100€ teurer als meine inzwischen stornierte Zotac AMP, aber dafür sollte ich sie noch diese Woche bekommen, während man mir bei der AMP kaum Hoffnung auf eine Lieferbarkeit noch dieses Jahr machen konnte, zumindest nicht bei dem Shop wo ich bestellte. "Faxen dicke" nennt man wohl sowas :mad:!

P.S.: Inzwischen sind die AMPs preislich übrigens der neuen GTS sehr viel näher gekommen.

Gortha
2007-12-10, 20:01:13
altes Thema, mal wieder Steuern vergessen...

Was für Steuern du Troll!?

Zoll wird in den Staaten genauso gezahlt wie hier in der EU.
Kommt weiterhin aus Asien das Zeug...

und Luxus/Mehrwertsteuer gibts auch überall!

trollkopf
2007-12-10, 20:10:36
es gab doch mal was in den news dazu, ich meine mich zu erinnern, das die MSRP in den USA im Gegensatz zu Europa ohne Steuern sind.
natürlich sind die preise derzeit unverschämt, aber die Rechnung 249 DOLLAR bis 299 $ = 170 EURO bis 204 € Strassenpreis haut deswegen nicht hin...

Gortha
2007-12-10, 20:19:23
Ist nicht richtig Trollkopf, das was ich schrieb haut sehr wohl hin:

"The (manufacturer's) suggested retail price (MSRP or SRP), list price or recommended retail price (RRP) (originally, Monroney suggested retail price) of a product is the price the manufacturer recommends that the retailer sell it for."

http://en.wikipedia.org/wiki/MSRP

mapel110
2007-12-10, 20:20:18
250 dollar ohne Steuern entspricht derzeit etwa 202 € mit Steuern in D.

1,47 € Dollar = 1 Euro
+19% Mehrwertsteuer

Gortha
2007-12-10, 20:21:18
250 dollar ohne Steuern entspricht derzeit etwa 202 € mit Steuern in D.

1,47 € Dollar = 1 Euro
+19% Mehrwertsteuer

Oben lesen. der MSRP ist mir Steuern.

LovesuckZ
2007-12-10, 20:24:30
Dann bestell doch in den USA. Wo ist da das Problem? :confused:

nomadhunter
2007-12-10, 20:24:51
@Gortha: Wo steht in dem WP-Artikel was über Steuern?

In den USA ist es nicht unüblich, auch z.B. in Läden die Preise ohne MwSt anzugeben, was bei uns ja gar nicht erlaubt ist. Deswegen glaube ich auch eher, dass die Angaben ohne MwSt sind. Außerdem ist die Mehrwertsteuer ja bei denen viel niedriger (vom Bundesstaat abhängig, AFAIK so 7-8%).

299$ sind also ~204€ netto und ~243€ brutto bei 19% MwSt.

Woher kommen eigentlich die 249$? War nicht mal von 299-349$ für die GTS die Rede? Das wären dann 243-284€ inkl. Steuern. Dazu eben noch die typischen Aufschläge für uns Europäer.

LovesuckZ
2007-12-10, 20:26:16
Woher kommen eigentlich die 249$? War nicht mal von 299-349$ für die GTS die Rede? Das wären dann 243-284€ inkl. Steuern. Dazu eben noch die typischen Aufschläge für uns Europäer.

Ja, 299-349$ soll der Einführungspreis der 8800GTS sein. Und der wird selbst in den USA nicht gehalten am Anfang.

Gortha
2007-12-10, 20:30:17
Dort steht indirekt, dass die Steuer schon drinnen ist, im unten fett markierten:

The (manufacturer's) suggested retail price (MSRP or SRP), list price or recommended retail price (RRP) (originally, Monroney suggested retail
price) of a product is the price the manufacturer recommends that the retailer sell it for.

Mal davon abgesehen, dass es totaler Blödsinn ist, davon auszugehen, dass in
die Amis steuerfrei einkaufen würden. ;D

EDIT

Jo, bei dem preis hatte ich mich vertan. natürlich 299$ bis 349$

nomadhunter
2007-12-10, 20:34:43
Nochmal, wo steht da was von Steuern? Damit kann genau so gut gemeint sein, dass die Händler die Karten für den Preis + Steuern verkaufen. Wie schon gesagt ist es dort nicht unüblich, dass auf dem Preisschild z.B. 1$ steht und man an der Kasse dann 1,08$ oder so zahlt.

Grestorn
2007-12-10, 20:43:24
Oben lesen. der MSRP ist mir Steuern.

Nein. In USA werden alle Preise ohne VAT (Value Added Tax = Mehrwertssteuer) angegeben. Auch in den Läden!

Die Steuer kommt dann erst an der Kasse dazu.

HD-Ronny
2007-12-10, 21:43:27
So ist es ,man kriegt ja kopfschmerzen wenn man das jedesmal neu durchkauen muss.
@gortha
Fast jeder Bundestaat hat seine eigene Tax,daher sind die Preisempfehlungen der Hersteller immer ohne VAT.

Matrix316
2007-12-10, 22:30:32
Das ist doch extremst überteuert.. zu dem preis hole ich mir lieber eine GTX, was ich auch getan habe. Keine lust mehr auf die ganze verwirrende kacke von nvidia. :mad:
Eine GT ist zur Zeit auch nur für 300 € sicher lieferbar.

Gast
2007-12-10, 22:43:26
Eine GT ist zur Zeit auch nur für 300 € sicher lieferbar.
Oder man bewegt seinen Arsch und klappert Geizhals ab. Dann sind es nur 260€.

desert
2007-12-10, 22:51:13
und jetzt noch mal bitte zeigen den händler der sie auch lieferbar hat für diesen preis.

ich liebe dieses geizhals geschreie immer, alle fahren total auf den kleinsten preis ab, nur liefern kann sie keiner.

so ab 300,00 euro kannst du welche ab lager mit glück kaufen

TheBrother
2007-12-10, 22:51:27
Nein. In USA werden alle Preise ohne VAT (Value Added Tax = Mehrwertssteuer) angegeben. Auch in den Läden!

Die Steuer kommt dann erst an der Kasse dazu.

Genau so ist es - jeder Bundesstaat hat seine eigene VAT.

Gruß

Brother