PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Versuch Nr. 3 (erstes Posting beachten!)


Seiten : 1 2 3 4 [5] 6 7 8 9

Ailuros
2006-11-02, 06:49:28
Das ist aber OGSS. Damit alles zumindest etwas geglättet wird, müsste man dann schon 2x2x verwenden. Und auch das MS- EER ist angesichts des Aufwandes eher bescheiden.

8xS = 4*8, 16xS = 8*8

Im zweiten Fall ist Dank des RGMS Anteils der EER hoch genug und der LOD wird auch um -1.0 versetzt (was ja meistens so ist fuer 4xSS).

Ich hab noch nichts von hybriden modi gehoert oder gesehen, aber sie sollen noch da sein. Was jetzt die moeglichen neuen betrifft, ich wuerde auf nicht mehr als 8xRGMS + jeweils 2x oder 4xSS raten.

Und da es womoeglich wieder zu weit OT gehen wird, ich hab schon in der Vergangenheit meine Zweifel ausgedrueckt dass sie zusaetzliche Transistoren fuer RGSS eingelegt haben. Ich weiss zwar noch gar nichts was dieses Thema betrifft, aber es besteht nur noch eine kleine Chance dass noch nichts darueber erwaehnt wurde.

Gast
2006-11-02, 06:55:44
Ist eigentlich schon bekannt ob trotz des neuen AA weiterhin Mischmodi (MS+SS) zur Verfügung stehen?Ich kann mir kaum vorstellen, dass NV die Unterstützung für die Hybridmodi aus dem Treiber entfernt. Inoffiziell wird man sie wohl weiterhin mit dem Nhancer o.ä. anwählen können. 4xS wurde mit dem 4x MSAA der Geforce 6 aus Marketingsicht ja auch überflüssig und trotzdem blieb es im Treiber.

Ailuros
2006-11-02, 06:57:43
Das wäre aber nicht schön wenn das wirklich so wäre, kann ich nicht glauben. Waren da die Treiberentwickler faul, oder schreibt der Typ Bullshit?

Es ist absolutes BS; wenn man keine blassen Schimmer hat wie USCs im Grunde arbeiten, sollte man sich auch von so ungluecklichen Kommentaren zurueckhalten.

ShadowXX
2006-11-02, 08:41:41
Es ist absolutes BS; wenn man keine blassen Schimmer hat wie USCs im Grunde arbeiten, sollte man sich auch von so ungluecklichen Kommentaren zurueckhalten.
Gibts schon Infos bezüglich Granularität (Funktionalität als WasWeißIch-Shader nur in Blöcken oder auch einzeln) oder "Umschaltzeiten" (gibts waitstates zwischen dem Wechsel von z.B. PS zu VS).

Ailuros
2006-11-02, 09:57:32
Gibts schon Infos bezüglich Granularität (Funktionalität als WasWeißIch-Shader nur in Blöcken oder auch einzeln) oder "Umschaltzeiten" (gibts waitstates zwischen dem Wechsel von z.B. PS zu VS).

Selbst wenn ich solches Zeug zur Verfuegung haette wuerde ich nichts sagen. Darum geht's hier gar nicht; eher darum dass der Trottel der den Abschnitt schrieb keine blasse Ahnung hat wovon er spricht. Nicht dass der Rest der schlecht uebersetzten Aussagen von der gleichen Quelle irgendwelchen Sinn machen, aber dass mit dem USC war wohl das extremste aller.

ShadowXX
2006-11-02, 10:06:06
.......eher darum dass der Trottel der den Abschnitt schrieb keine blasse Ahnung hat wovon er spricht. Nicht dass der Rest der schlecht uebersetzten Aussagen von der gleichen Quelle irgendwelchen Sinn machen, aber dass mit dem USC war wohl das extremste aller.
Es ist klar, dass das BS war. Darum gings mir wiederum nicht.........ich hatte den Quote-Button mehr aus gewohnheit gedrückt.

Coda
2006-11-02, 11:41:11
Das wäre aber nicht schön wenn das wirklich so wäre, kann ich nicht glauben. Waren da die Treiberentwickler faul, oder schreibt der Typ Bullshit?

Übler Bullshit.

Gast
2006-11-02, 11:51:02
E6600 @ 3.15GHz
2GB G.Skill HZ6400
Gigabyte 965P DQ6

3DMark 06
8800GTS - 8840 Marks
7950GX2 - 8424 Marks
X1950XTX - 6790 Marks
X1900XT - 5846 Marks

PREY - 1600 x 1200 - Max Settings
8800GTS - 84.3FPS
7950GX2 - 85.4FPS
X1950XTX - 71.7FPS
X1900XT - 40.7FPS

FEAR - 1600 x 1200 - Max Settings - Min/Avg
8800GTS - 64/101
7950GX2 - 72/114
X1950XTX - 41/86
X1900XT - 36/73

http://we.pcinlife.com/thread-646718-1-1.html

gguru
2006-11-02, 11:53:12
E6600 @ 3.15GHz
2GB G.Skill HZ6400
Gigabyte 965P DQ6

3DMark 06
8800GTS - 8840 Marks
7950GX2 - 8424 Marks
X1950XTX - 6790 Marks
X1900XT - 5846 Marks

PREY - 1600 x 1200 - Max Settings
8800GTS - 84.3FPS
7950GX2 - 85.4FPS
X1950XTX - 71.7FPS
X1900XT - 40.7FPS

FEAR - 1600 x 1200 - Max Settings - Min/Avg
8800GTS - 64/101
7950GX2 - 72/114
X1950XTX - 41/86
X1900XT - 36/73

http://we.pcinlife.com/thread-646718-1-1.html

Uuuh, da lohnt sich die GTS ja garnicht.

tombman
2006-11-02, 12:01:16
"Verkrüppelte" Karten lohnen sich IMO sowieso nie. Obwohl selbst die GTS verdammt stark ist, auf GX2 Niveau, und das sind ja eigentlich zwei Karten.
Eine GTX ist sogar stärker als eine GX2!

Eine GTX oder sogar ZWEI werden 1920x1200 erst so RICHTIG rocken ;)

Gast
2006-11-02, 12:01:56
die Werte bei Prey stimmen irgendwie nicht bei den Ati's

Gouvernator
2006-11-02, 12:04:37
Ich glaube Nv hat ATI voll erwischt *schnief*
Aber eine GTX oder sogar ZWEI werden 1920x1200 erst so RICHTIG rocken
Kommt aufs Spiel an. Bei BF2 reicht eine 1900XTX vollkommen für 1920x1200, bei FEAR oder Crysis also was neuerem würde denke ich auch 8800GTX SLI nicht ausreichen.

Die gelbe Eule
2006-11-02, 12:17:49
Hi @ alpha Treiber. Jeder weiß das der 98.68er mehr als beschissen ist, weil wenn andere schon einen Treiber haben, wo soll er sonst herkommen als von Asus? GTS und GTX werden sich noch absetzen, trotzdem muss der Preis gerechtfertigt bleiben, also 375€ max für die GTS, 475€+ für die GTX ...

Gouvernator
2006-11-02, 12:32:06
375€... für die GTX
Das wäre ein Grund auch für mich über ein Kauf nachzudenken, aber die können sich den Rachen nicht vollstopfen und müssen immer so teuer sein am Anfang :mad:

LovesuckZ
2006-11-02, 12:39:37
"Verkrüppelte" Karten lohnen sich IMO sowieso nie.

Das ist einzig preisabhängig, ob sich "Verkrüppelte" Karten lohnen.

Gast
2006-11-02, 12:41:55
Hi @ alpha Treiber. Jeder weiß das der 98.68er mehr als beschissen ist, weil wenn andere schon einen Treiber haben, wo soll er sonst herkommen als von Asus? GTS und GTX werden sich noch absetzen, trotzdem muss der Preis gerechtfertigt bleiben, also 375€ max für die GTS, 475€+ für die GTX ...

Für das Spitzenmodell GTX finde ich 500€+ gerechtfertigt da es die schnellste Standalone Grafikkarte der Welt zu dem Zeitpunkt sein wird. Nicht das ich mir den Preis herbeiwünsche aber ich gehe davon aus das es so sein wird und die 500€Grenze erst mit dem G81 oder einer höheren Verfügbarkeit des G80 unterschritten wird.

Und die GTS wird auch nicht unter 400€ sein, sie ist einer 7950GX2 ja ebenbürtig und die Kosten alle über 450€. Zumal die GTS ja nicht den "Nachteil" hat, der einem immer unter die Nase gerieben wird, das SLI nicht immer funktioniert oder eben etwas mehr vom Benutzer fordert als den Treiber zu installieren.

Die gelbe Eule
2006-11-02, 12:54:05
Das wäre ein Grund auch für mich über ein Kauf nachzudenken, aber die können sich den Rachen nicht vollstopfen und müssen immer so teuer sein am Anfang :mad:

War der Preis nicht irgendwo bei 450$? Das wäre nach aktuellem Kurs 350€ und man möchte ja auch gegen die ATi X1950XTX antreten. Solltes dies der Fall sein, hätte man die Intel/AMD Situation, ATi muss dann viel günstiger anbieten, weil sie weniger leisten und somit wird das ganze Preisgefüge bei ATi komplett verschoben.

Gast
2006-11-02, 13:11:54
E6600 @ 3.15GHz
2GB G.Skill HZ6400
Gigabyte 965P DQ6

3DMark 06
8800GTS - 8840 Marks
7950GX2 - 8424 Marks
X1950XTX - 6790 Marks
X1900XT - 5846 Marks

PREY - 1600 x 1200 - Max Settings
8800GTS - 84.3FPS
7950GX2 - 85.4FPS
X1950XTX - 71.7FPS
X1900XT - 40.7FPS

FEAR - 1600 x 1200 - Max Settings - Min/Avg
8800GTS - 64/101
7950GX2 - 72/114
X1950XTX - 41/86
X1900XT - 36/73

http://we.pcinlife.com/thread-646718-1-1.html

HMM die Spiele werte enttäuschen mich ein bisschen.Kann es sein das die 8800 nur wegen dx 10 specs gut beim 3dmark abschneidet?Die Spiele benches sind mehr als durchschnittlich.

[MK2]Mythos
2006-11-02, 13:14:09
Zu den 450 $ kommen dann aber noch die Steuern in den USA, da dort jeder Bundesstaat einen anderen Wert hat, man sollte also ca 1:1 umrechnen.

eXodia
2006-11-02, 13:19:04
HMM die Spiele werte enttäuschen mich ein bisschen.Kann es sein das die 8800 nur wegen dx 10 specs gut beim 3dmark abschneidet?

Nein.

Die Spiele benches sind mehr als durchschnittlich.

Genau, bei Prey kann eine GTS nur mit einer GX2 mithalten und bei Fear liegt sie leicht unter der GX2, das ist natürlich sehr enttäuschend :eek: *Wer Ironie findet, kann sie behalten*

Regards

IceLord
2006-11-02, 13:22:20
HMM die Spiele werte enttäuschen mich ein bisschen.Kann es sein das die 8800 nur wegen dx 10 specs gut beim 3dmark abschneidet?Die Spiele benches sind mehr als durchschnittlich.
Du hast schon gesehen dass das die GTS ist?

LovesuckZ
2006-11-02, 13:25:54
War der Preis nicht irgendwo bei 450$? Das wäre nach aktuellem Kurs 350€ und man möchte ja auch gegen die ATi X1950XTX antreten.

Wenn etwas in Amerika 450$ kostet, kostet es in Europa 450€. Das sollte bekannt sein.
Ansonsten will Nvidia nicht mit der X1950XTX konkurrieren. Hierfür sind die 79xx Modelle vorgesehen.

Solltes dies der Fall sein, hätte man die Intel/AMD Situation, ATi muss dann viel günstiger anbieten, weil sie weniger leisten und somit wird das ganze Preisgefüge bei ATi komplett verschoben.

nvidia macht sich doch nicht frewillig die Margen für ihre G7x Produktreihe kaputt. Ein herabsetzen des Startpreises der Karte hätte ebenso einen effekt auf die eigenen Produkte.

Spasstiger
2006-11-02, 13:28:06
E6600 @ 3.15GHz
2GB G.Skill HZ6400
Gigabyte 965P DQ6

3DMark 06
8800GTS - 8840 Marks
7950GX2 - 8424 Marks
X1950XTX - 6790 Marks
X1900XT - 5846 Marks

PREY - 1600 x 1200 - Max Settings
8800GTS - 84.3FPS
7950GX2 - 85.4FPS
X1950XTX - 71.7FPS
X1900XT - 40.7FPS

FEAR - 1600 x 1200 - Max Settings - Min/Avg
8800GTS - 64/101
7950GX2 - 72/114
X1950XTX - 41/86
X1900XT - 36/73

http://we.pcinlife.com/thread-646718-1-1.html
Geschwindigkeitsmäßig auf Niveau einer 7950 GX2, deutlich besseres AF, neue AA-Modi, D3D10-Tauglichkeit und sogar günstiger als die 7950 GX2. Passt! :)
Ist auch erstaunlich, dass die 8800 GTS mit 96 Skalarprozessoren in 3DMark06 schneller ist als die 7950 GX2 mit 96 Vektorprozessoren, obwohl ein Vektorprozessor ja umgerechnet 4 Skalarprozessoren entspricht. :eek: (ja, ich weiß, dass die Vektorprozessoren nur im 3:1 oder 2:2 Verhältnis angesprochen werden können ;))
Ok, der hohe Streamprozessortakt reißt einiges raus.

P.S.: Bis vor drei oder vier Monaten hatte ich noch ernsthafte Zweifel daran, ob die ersten D3D10-High-End-Karten überhaupt das Niveau der GX2 übertreffen werden können oder ob es dazu wieder einer GX2 bedarf. Aber Nvidia zumindest scheint einen guten Job gemacht zu haben. Schon die GTS erreicht GX2-Niveau bei durchweg besseren Features.

mapel110
2006-11-02, 13:28:37
Vorallem wäre es dämlich, vor Weihnachten die Preise (zu) niedrig zu machen.

Die gelbe Eule
2006-11-02, 13:35:04
Es gibt schon eine 7900GTO, welche den 7950GTs und 7900GTX preislich wegrennt. Da es auch hier Stückzahlen im 5stelligen Bereich sind, was bei High End nunmal viel ist und die G7Xer gut den Mainstream füttern können, welcher beim G8X eh erst in 4-6 Monaten ansteht, passt eigentlich alles.

eXistence
2006-11-02, 13:58:12
Ich bin zwar nicht ganz auf dem aktuellen Stand (man korrigiere mich also bitte, wenn ich irgendwas nicht ganz richtig verstanden habe...), aber etwas wundert mich schon sehr:

nV schafft es mit seinen neuesten HighEnd-Boliden gut das doppelte an Leistung herauszuholen (verglichen mit der Vorgängergeneration von nV), aber:
Die Leistung der aktuellen ATI-Karten wird garnicht mal sooo sehr überflügelt.
Was will nV da machen? eine 8800GX2 rausbringen?
SLI-Onboard kann doch bestenfalls ne Notlösung sein...

Gast
2006-11-02, 14:01:14
Was will nV da machen? ..
Mit Bildqualität punkten. Nicht umsonst wurde das CP dautauglich gemacht (haben ja beide großen Hersteller gemacht).

ShadowXX
2006-11-02, 14:07:42
Ich bin zwar nicht ganz auf dem aktuellen Stand (man korrigiere mich also bitte, wenn ich irgendwas nicht ganz richtig verstanden habe...), aber etwas wundert mich schon sehr:

nV schafft es mit seinen neuesten HighEnd-Boliden gut das doppelte an Leistung herauszuholen (verglichen mit der Vorgängergeneration von nV), aber:
Die Leistung der aktuellen ATI-Karten wird garnicht mal sooo sehr überflügelt.
Was will nV da machen? eine 8800GX2 rausbringen?
SLI-Onboard kann doch bestenfalls ne Notlösung sein...
Das ist ja (wie schon mehrmals erwähnt) nur die GTS, nicht die GTX.

Und wartet erst mal benches mit AA ab.....die werte da oben sind ohne AA.

Gast
2006-11-02, 14:13:21
Das ist ja (wie schon mehrmals erwähnt) nur die GTS, nicht die GTX.

Und wartet erst mal benches mit AA ab.....die werte da oben sind ohne AA.

Sicher?

Ich bin mir nicht mehr sicheer, da ich Fear lange nicht mehr gespielt habe aber ich meine mich zu erinnern dass die Werte der X1900XT meinen einstellungen mit 4xAA und 8xAF entsprechen!

Vielleicht kann mal jemand mit einer X1900XT Fear Benchen?

Slipknot79
2006-11-02, 14:16:36
E6600 @ 3.15GHz
2GB G.Skill HZ6400
Gigabyte 965P DQ6

3DMark 06
8800GTS - 8840 Marks
7950GX2 - 8424 Marks
X1950XTX - 6790 Marks
X1900XT - 5846 Marks

PREY - 1600 x 1200 - Max Settings
8800GTS - 84.3FPS
7950GX2 - 85.4FPS
X1950XTX - 71.7FPS
X1900XT - 40.7FPS

FEAR - 1600 x 1200 - Max Settings - Min/Avg
8800GTS - 64/101
7950GX2 - 72/114
X1950XTX - 41/86
X1900XT - 36/73

http://we.pcinlife.com/thread-646718-1-1.html

Naja ernüchternd, da würd ich eher warten bis Crysis am Markt kommt (wegen D3D10), da lohnt sich ne GTS eher, falls bis dahin nicht noch was anderes rauskommt.

Die gelbe Eule
2006-11-02, 14:19:22
Ich bin zwar nicht ganz auf dem aktuellen Stand (man korrigiere mich also bitte, wenn ich irgendwas nicht ganz richtig verstanden habe...), aber etwas wundert mich schon sehr:

nV schafft es mit seinen neuesten HighEnd-Boliden gut das doppelte an Leistung herauszuholen (verglichen mit der Vorgängergeneration von nV), aber:
Die Leistung der aktuellen ATI-Karten wird garnicht mal sooo sehr überflügelt.
Was will nV da machen? eine 8800GX2 rausbringen?
SLI-Onboard kann doch bestenfalls ne Notlösung sein...

Such Dir mal Benches unter opengl mit AA/AF vom R520 vor dem offiziellen Release, dann weißt Du warum der CAT noch gepatcht wurden musste und diese Werte hier mal nichts aussagen ;)

Slipknot79
2006-11-02, 14:20:44
Vorallem wäre es dämlich, vor Weihnachten die Preise (zu) niedrig zu machen.


Daher sich immer Geld zu Weihnachten schenken lassen :)

ShadowXX
2006-11-02, 14:22:01
Sicher?

Ich bin mir nicht mehr sicheer, da ich Fear lange nicht mehr gespielt habe aber ich meine mich zu erinnern dass die Werte der X1900XT meinen einstellungen mit 4xAA und 8xAF entsprechen!

Vielleicht kann mal jemand mit einer X1900XT Fear Benchen?
Aber bestimmt nicht bei 1600x1200 alles maxed und noch 4xMSAA/8xAF.....ich hab selbst ne x1900xt und die werte bekomme ich bei 1280x960 mit 4xAA/8xAF.

Spasstiger
2006-11-02, 14:27:23
Was will nV da machen? eine 8800GX2 rausbringen?
SLI-Onboard kann doch bestenfalls ne Notlösung sein...
In einem Interview mit einem Nvidia-Vertreter in der PC Games Hardware hieß es, dass Nvidia am GX2-Konzept festhalten wolle.
Ich könnte mir da zwei 8800 GTS im Sandwich-Design durchaus vorstellen.
Außerdem, wo ist die Performance der 8800 GTS schlecht? Man bedenke, dass die Karte günstiger sein wird als die 7950 GX2 und das bei mehr Speicher, besserem AF, D3D10-Support, etc.
Die 8800 GTX ist ja von den theoretischen Daten her gegenüber der 8800 GTS nochmal deutlich aufgebohrt, 20-30% Mehrleistung in Spielen sollten zu erwarten sein (während z.B. der Unterschied 6800 GT vs. 6800 Ultra weniger als 10% betrug).

-=[SP]=-DRE@MER
2006-11-02, 14:30:53
Sry, falls ich ne Frage wiederhole, aber ich wollt jetzt nciht den ganzen Thread durchlesen...

Was mich interessieren würde ist die Frage, ob NVidia schon was über den Stromverbrauch der 8800 GTX verlauten lassen hat?

Cya

The_Invisible
2006-11-02, 14:33:45
Naja ernüchternd, da würd ich eher warten bis Crysis am Markt kommt (wegen D3D10), da lohnt sich ne GTS eher, falls bis dahin nicht noch was anderes rauskommt.

anscheinend sind lange fps balken immer noch am wichtigsten...

mfg

eXodia
2006-11-02, 14:33:47
=-DRE@MER']Sry, falls ich ne Frage wiederhole, aber ich wollt jetzt nciht den ganzen Thread durchlesen...

Was mich interessieren würde ist die Frage, ob NVidia schon was über den Stromverbrauch der 8800 GTX verlauten lassen hat?

Cya

Sry., aber warum fragst du hier nach, wenn du in einem anderen Thread schreibst das die GTX "ziehen soll wie sau" ?

Die gelbe Eule
2006-11-02, 14:34:40
Was dann auch leichter zu bewerkstelligen ist, um dem R600 paroli zu bieten, sollte er schneller sein. Doch da hört sich alles nicht so gut an und NV lacht sich wieder einen Ast.

5 Tage noch, dann hab ich auch eine GTS ;)

Spasstiger
2006-11-02, 14:39:58
Und ich werde wahrscheinlich die GTX nächstes Jahr zu einem annehmbaren Preis (400€) zusammen mit einem neuen Rechner holen. Die GTS erscheint mir irgendwie zu abgespeckt (5 statt 6 ROP-Cluster+Speicherinterfaces, 6 statt 8 ALU+TMU-Gruppen). Wenn sich nur die Taktraten unterscheiden würden, wärs was anderes.

Gast
2006-11-02, 14:45:24
Und ich werde wahrscheinlich die GTX nächstes Jahr zu einem annehmbaren Preis (400€) zusammen mit einem neuen Rechner holen. Die GTS erscheint mir irgendwie zu abgespeckt (5 statt 6 ROP-Cluster+Speicherinterfaces, 6 statt 8 ALU+TMU-Gruppen). Wenn sich nur die Taktraten unterscheiden würden, wärs was anderes.
Für den Endkunden ist es völlig egal, ob sich das Produkt durch Takt oder durch weniger Ausführungseinheiten unterscheidet.
Er sieht ja letztendlich nur eine bestimmte Geschwindigkeit zu einem bestimmen Preis.

Ist ja nicht so, dass bei der einen Variante der Geometrie-Shader fehlt oder so. Featuretechnisch sind beide identisch.

Die gelbe Eule
2006-11-02, 14:46:15
Es ist aber endlich eine Karte die mal länger drin bleiben darf ...

Spasstiger
2006-11-02, 14:49:19
Für den Endkunden ist es völlig egal, ob sich das Produkt durch Takt oder durch weniger Ausführungseinheiten unterscheidet.
Er sieht ja letztendlich nur eine bestimmte Geschwindigkeit zu einem bestimmen Preis.

Ist ja nicht so, dass bei der einen Variante der Geometrie-Shader fehlt oder so. Featuretechnisch sind beide identisch.
Ja, stimmt schon, aber ich werde die Karte wohl auch übertakten und bei der GTS weiß man halt, dass man damit nie das volle Leistungspotential des G80 ausschöpfen können wird. Ich will den G80 so haben, wie er maximal ausgelegt wurde. Aber vielleicht wird mich auch der R600 anlachen, bei der Entscheidung zwischen ATI und NV hab ich mich noch nicht festgelegt. Der G80 hat mich aber nach den bisherigen Infos schon überzeugt.

Und ich werd die GTX ja auch erst für 400 Euro und nicht für 600 Euro kaufen. Also kann der Winter erstmal vorüberziehen. ;)

Moralelastix
2006-11-02, 14:55:06
Seh ich auch so! Was brauch ich ne DX10 Karte ohne DX10 Spiel und ohne Vista?


Ist genau so wie beim Pabst und seinen Eiern.:biggrin:

misterh
2006-11-02, 14:58:31
Ich hols mir auch.

Preis interessiert mich nicht in moment. hauptsache ich kriege schnell eine :biggrin:

Die gelbe Eule
2006-11-02, 15:04:00
Seh ich auch so! Was brauch ich ne DX10 Karte ohne DX10 Spiel und ohne Vista?


Ist genau so wie beim Pabst und seinen Eiern.:biggrin:

War das nicht damals Argument bei ATi auf DX 9.0c zu verzichten und die R420/480 trotzdem zu kaufen? Die erste Marge wird eh komplett ausverkauft sein, egal ob Vista da ist oder nicht ;)

SentinelBorg
2006-11-02, 15:06:20
Seh ich auch so! Was brauch ich ne DX10 Karte ohne DX10 Spiel und ohne Vista?


Ist genau so wie beim Pabst und seinen Eiern.:biggrin:
Ja, aber wenn die GTS für weniger Kosten die gleiche DX9 Performance hat wie eine 7950GX2 und dazu eine bessere Bildqualität, einfachere Handhabung und mehr Features für die Zukunft, dann ist das doch eine klare WinWin-Situation?

Und zum Thema GTS vs. GTX kann ich nur sagen, dass doch letztendlich nur die Frage entscheidend ist, wieviel Leistung bekomme ich pro Euro? Zumal die GTS durch ihre kürzere Bauweise und den geringeren Stromverbrauch auch handlicher ist.

Sentinel

Moralelastix
2006-11-02, 15:10:30
Wie?

Was ich einfach damit sagen will ist das man doch eh erst ne DX10 Karte bräuchte wenn ich DX10 auch nutzen kann(in erster Linie zum Spielen).

Soll ich mir nur wegen ner besseren DX9 Leistung jetzt schon ne Karte kaufen obwohl ich die neuen Features zum Großteil gar nicht Ingame nutzen kann? Bullshit!

Ich kauf erst wenn Crysis da ist und die ersten Tests auch wirklich zeigen das die DX10 Performance stimmt. Was nutz mir die Hardware zum Launch von Crysis wenn die Software / Treiber / D3D10 Performance grottig is?

Nix!

Ailuros
2006-11-02, 15:20:32
Jeder sollte aufruesten wenn er sich fuehlt dass er eine Aufruestung braucht oder will.

Der BS-Punkt mit Crysis ist langsam so ausgelatscht dass es ans laecherliche grenzt. Crysis wird nicht mehr oder weniger ein "D3D10 Spiel" sein als Spiele die auf der UE3 engine basieren werden als Beispiel.

Moralelastix
2006-11-02, 15:29:47
Aber es hat wenigstens einen D3D10 Renderpfad und damit sollte mal der Anfang gemacht sein.

Und wenn die Aussagen von Crytek stimmen werden die das Spiel nach und nach immer weiter optimieren. Wie bei FarCry damals und HDR.

Im Übrigen will ich hier nichts an einem Spiel festmachen. Aber meines Wissens ist es das Erste das einen solchen Pfad haben wird.

Oder weißt Du mehr?


Aber ich würd sagen wir lassen das hier sonst kriegt DK777 wieder nen Hals!

collapse
2006-11-02, 15:34:45
Also die Gesammte U3 Engine soll einen eigenen RenderPfad haben. Crysis sowiso die hätten es spätestens nach 3 Monaten sowiso wieder Integriert fleißige Männlein *GG* hat man ja das Paradebeispiel FarCry wo es eindeutig auch so gegangen ist. = )

mfg

collapse

Ailuros
2006-11-02, 15:38:23
Aber es hat wenigstens einen D3D10 Renderpfad und damit sollte mal der Anfang gemacht sein.

Mit ein paar Beschleunigungen a la SM3.0 path in Far Cry. Wobei ich aber SM2.0+ GPUs nicht unbedingt im Nachteil sah was die Leistung und Features betrifft, eher das Gegenteil.

Und wenn die Aussagen von Crytek stimmen werden die das Spiel nach und nach immer weiter optimieren.

Ebenso wie Far Cry.

http://www.mitrax.de/?cont=artikel&aid=24&page=10

Und noch einige Monate spaeter:

Far Cry v1.2 / SM3.0 path
1280*960*32 / 4xAA / 4xAF (quality)

ForceWare 61.45

Research: 37.74 fps
Regulator: 32.14 fps
Training: 36.12 fps
Volcano: 36.87 fps

ForceWare 65.73

Research: 43.09 fps
Regulator: 37.71 fps
Training: 40.65 fps
Volcano: 42.65 fps

http://www.mitrax.de/?cont=artikel&aid=24&page=15

Im Übrigen will ich hier nichts an einem Spiel festmachen. Aber meines Wissens ist es das erste das einen solchen Pfad haben wird.

Oder weißt Du mehr?

Ich weiss wie die Reaktionen bis jetzt von diversen ISVs fuer G80 aussehen.

Gast
2006-11-02, 15:44:41
wurde noch nicht gepostet

http://uk.theinquirer.net/?article=35483

Ailuros
2006-11-02, 15:45:39
*kopfschuettel* *seufz*

Gast
2006-11-02, 15:46:53
auf deutsch

http://translate.google.com/translate?u=http%3A%2F%2Fuk.theinquirer.net%2F%3Farticle%3D35483&langpair=en%7Cde&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Die gelbe Eule
2006-11-02, 15:53:07
Anisotropic filtering has been raised in quality to match for ATI's X1K marchitecture, so now Nvidia offers angle-independent Aniso Filtering as well, thus killing the shimmering effect which was so annoying in numerous battles in Alterac Valley (World of WarCraft), Spywarefied (pardon, BattleField), Enemy Territory and many more. When compared to GeForce 7, it looks like GeForce 7 was in the stone age compared to the smoothness of the GeForce 8 series. Expect interesting screenshots of D3D AF-Tester Ver1.1. in many of GF8 reviews on the 8th

Der Part läßt doch hoffen ^^

Spasstiger
2006-11-02, 15:58:53
Der Part läßt doch hoffen ^^
Naja, das wuAF wurde doch auch schon in der PCGH bestätigt.

dargo
2006-11-02, 16:01:47
In einem Interview mit einem Nvidia-Vertreter in der PC Games Hardware hieß es, dass Nvidia am GX2-Konzept festhalten wolle.
Ich könnte mir da zwei 8800 GTS im Sandwich-Design durchaus vorstellen.

Das glaube ich nun wirklich nicht. Das wären dann ~1350-1400 Millionen Transistoren. :|
Ich frage mich dann wie NV das im Sandwich kühlen will. Bei der G7950GX2 musste man schon mit den Taktraten runter (mit der Spannung wohl auch?).

Das einzige was ich mir vorstellen kann ist eine GX2 erst in 65nm.

Es ist aber endlich eine Karte die mal länger drin bleiben darf ...
Wurde das nicht mit jeder neuen Generation behauptet?
Ich könnte wetten der G90 wird wieder doppelt so schnell sein wie der G80 usw. usf. ;)

tombman
2006-11-02, 16:04:14
ALso je mehr man liest desto mehr will man eine.
Die offiziellen Retailpreise (600€ für eine GTX) sind gar ned mal übel, nur leider werden die Geschäfte locker mal 100€ draufhauen am Anfang :(

MiamiNice
2006-11-02, 16:05:30
Seh ich auch so! Was brauch ich ne DX10 Karte ohne DX10 Spiel und ohne Vista?


Ist genau so wie beim Pabst und seinen Eiern.:biggrin:

Ich sehe es eher so: Die ersten DX10 Karten kann man wahrscheinlich eh für DX10 Games vergessen, das wird wohl erst mit dem refresh was (lasse mich gerne angenehm überraschen).
Ich sehe die ersten DX10 Karten eher als "über" DX9 Beschleuniger. Und mit den Specs hat die Karte auch schon nen reservierten Platz in meinem PCI-E Port.

MfG

dildo4u
2006-11-02, 16:09:16
Ich sehe es eher so: Die ersten DX10 Karten kann man wahrscheinlich eh für DX10 Games vergessen, das wird wohl erst mit dem refresh was (lasse mich gerne angenehm überraschen).
Ich sehe die ersten DX10 Karten eher als "über" DX9 Beschleuniger. Und mit den Specs hat die Karte auch schon nen reservierten Platz in meinem PCI-E Port.

MfG
Naja zumindest Crysis unterstützt ja nativ D3D10 und das läuft in den neusten Videos ja auf einem G80 was anderes wird Crytek zur Zeit auch nicht in den Entwickler PCs haben.

http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=103&ttitle=Crysis_G80_Flyover_Video_-_WMV

http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=104&ttitle=Crysis_G80_Gameplay_Video_-_WMV

Aber mir ist schon klar das man whol ein G80 SLI braucht wenn man das dann noch in hoher Auflösung plus AA/AF zocken will.

Grestorn
2006-11-02, 16:11:43
Das glaube ich nun wirklich nicht. Das wären dann ~1350-1400 Millionen Transistoren. :|
Ich frage mich dann wie NV das im Sandwich kühlen will. Bei der G7950GX2 musste man schon mit den Taktraten runter (mit der Spannung wohl auch?).

So übertaktungsstabil wie sich die 7900GX2 erwiesen hat, dürfte das kaum das Problem gewesen sein...

Trotzdem halte ich es für eher ungewiss, ob es nochmal eine GX2 geben wird. Höchstens wenn man anders die Performancekrone über einen längeren Zeitraum verlieren würde.

Godmode
2006-11-02, 16:15:42
So übertaktungsstabil wie sich die 7900GX2 erwiesen hat, dürfte das kaum das Problem gewesen sein...

Trotzdem halte ich es für eher ungewiss, ob es nochmal eine GX2 geben wird. Höchstens wenn man anders die Performancekrone über einen längeren Zeitraum verlieren würde.

Es wäre eine sehr einfache Möglichkeit viel Performance rauszuhauen. In 65nm dürfte das sicherlich kein Problem sein.

AnarchX
2006-11-02, 16:16:30
Ich denke mal eine GX2 wird wohl eher mit dem (65nm) Refresh G81 irgendwann im H1 2007 kommen, eher wird es wohl kaum nötig sein.

dildo4u
2006-11-02, 16:16:50
Mit zwei GTS Chips würde es wohl sogar schon jetzt gehen.

AnarchX
2006-11-02, 16:19:03
Mit zwei GTS Chips würde es wohl sogar schon jetzt gehen.

Wieso GTS-Chip?
Man könnte doch auch einen nicht deaktivierten G80 mit moderaten Taktraten(~400MHz) an den Start schicken.

Aber wie schon gesagt, warum sollte es nV machen, die notwendigkeit besteht atm einfach nicht.

Moralelastix
2006-11-02, 16:19:27
Oha!
http://uk.theinquirer.net/?article=35483
Also, we have to say that the market is now set for repeat of 2005 and the R520/580 vs.G70/71 duel, since Nvidia will probably offer a spring refresh of the high-end model at the same time as DAAMIT launches the long delayed R600 chip. µ



G80 boasts 24 raster operation units
http://uk.theinquirer.net/?article=35495
"This means when it comes to drawing pixels, after all the calculations G80 should not be much faster than the exsisting G71 marchitecture"

dildo4u
2006-11-02, 16:21:09
Wieso GTS-Chip?
.
Vieleicht bessere Ausbeute?Die Karte darf ja auch nicht zu Teuer werden immerhin müssen noch 1.4GB Speicher verbaut werden.

AnarchX
2006-11-02, 16:24:59
Vieleicht bessere Ausbeute?Die Karte darf ja auch nicht zu Teuer werden immerhin müssen noch 1.4GB Speicher verbaut werden.

Das wäre natürlich ein Argument...

Oha!

Also, we have to say that the market is now set for repeat of 2005 and the R520/580 vs.G70/71 duel, since Nvidia will probably offer a spring refresh of the high-end model at the same time as DAAMIT launches the long delayed R600 chip. µ
Da wird wohl neben G86 und G84, vielleicht sogar schon der G81(65nm) auf der CeBIT vorgestellt werden.:wink:

Gast
2006-11-02, 16:50:12
G80 boasts 24 raster operation units
http://uk.theinquirer.net/?article=35495
"This means when it comes to drawing pixels, after all the calculations G80 should not be much faster than the exsisting G71 marchitecture"

Das zeigt mal wieder, wie wenig der liebe Fuad von dem versteht, was er schreibt.

up¦²
2006-11-02, 17:02:30
8800 GTS:


E6600 @ 3.15GHz
2GB G.Skill HZ6400G
Gigabyte 965P DQ6
3DMark 06
8800GTS - 8840 Marks
7950GX2 - 8424 Marks
X1950XTX - 6790 Marks
X1900XT - 5846 Marks
PREY - 1600 x 1200 - Max Settings
8800GTS - 84.3FPS
7950GX2 - 85.4FPS
X1950XTX - 71.7FPS
X1900XT - 40.7FPS
FEAR - 1600 x 1200 - Max Settings - Min/Avg
8800GTS - 64/101
7950GX2 - 72/114
X1950XTX - 41/86
X1900XT - 36/73

aus:
http://gathering.tweakers.net/forum/list_message/26774011#26774011

Gast
2006-11-02, 17:05:12
hm enttäuschend,warte sowieso auf ati,und schau dann weiter

Gast
2006-11-02, 17:09:34
Ist ja auch "nur" die GTS

Gouvernator
2006-11-02, 17:18:20
Anisotropic filtering has been raised in quality to match for ATI's X1K marchitecture, so now Nvidia offers angle-independent Aniso Filtering as well, thus killing the shimmering effect which was so annoying in numerous battles in Alterac Valley (World of WarCraft), Spywarefied (pardon, BattleField), Enemy Territory and many more. When compared to GeForce 7, it looks like GeForce 7 was in the stone age compared to the smoothness of the GeForce 8 series. Expect interesting screenshots of D3D AF-Tester Ver1.1. in many of GF8 reviews on the 8th

Der Part läßt doch hoffen ^^
Gutes AF kostet viel, sehr viel . Manchmal wenn ich mit der Auflösung in BF2 einbisschen übertreibe, das beste Mittel die Leistung aufzubessern ist dann nicht das AA sondern das gute AF zurückzuschrauben (AreaAF, trilineares Filtering...) Das bring mehr Leistung als wenn ich von 6xAA auf 4xAA zurückschalte. Dann mit allen Optimierungen beim AF läuft es wie geschmiert mit 6xAA+AAA ...usw.

deekey777
2006-11-02, 17:18:33
hm enttäuschend,warte sowieso auf ati,und schau dann weiter
Was genau ist daran entäuschend bzw. enttäuschend im Bezug auf was?
Nehmen wir zB Oblivion als Beispiel und schalten den HDR-Modus ein: Wo hat die 7950GX2 das Nachsehen? Bethesda hat versichert, dass deren HDRR nicht mit MSAA möglich ist, und jetzt ist zu lesen, dass die 8800er in Oblivion genau das beherrschen soll. Die 8800GTS schafft in Oblivion 100% mit HDRR+MSAA, wieviel Prozent schafft eine 7950GX2? Hm...
Und was ist mit der X1950XTX? Hier wird es schwieriger, denn unter D3D9 liefert die X1950XTX zwar weniger FPS, hat aber vergleichbare Qualitäts-Features.
Es ist meiner Meinung nach zu früh, ein Fazit zur Leistung der 8800GTS zu bilden.

Spasstiger
2006-11-02, 17:26:06
Gutes AF kostet viel, sehr viel .
Der G80 hat aber auch 64 TMUs (bei 32 TAs).

Gouvernator
2006-11-02, 17:32:32
Der G80 hat aber auch 64 TMUs (bei 32 TAs).
Ja schön. Nur , in Verbindung mit hohen AA modi und hoher Auflösung wird es nichts nützen, die Zeiten sind vorbei als AF praktisch kostenlos war.

AnarchX
2006-11-02, 17:36:13
Ja schön. Nur , in Verbindung mit hohen AA modi und hoher Auflösung wird es nichts nützen, die Zeiten sind vorbei als AF praktisch kostenlos war.
Falsch, AF wird zunehmend weniger kosten, da sich die Hauptlast immer mehr auf die Arithmetik verlagert.
Wann war AF praktisch kostenlos? In der Vergangheit war es noch so teuer, dass man es teilweise gar nicht anbot -> Radeon 8500.

Neosix
2006-11-02, 17:42:17
muss aber sagen das ich als käufer der etwas länger für g80 gesparrt hat doch mich etwas verarscht fühle. irgend wie hab cih das gefühl das g80 künstlich gebemmst wird. um nachher bei dem refresh den r600 wieder zu schlagen. die g80 ist gerade so schnell genug um sie als next gen bezeichnen zu können. aber nicht schnell genug um alles weit hinter sich zu lassen. das hinterässt doch einen bitteren nachgeschmack. (die vebeserte bq hab cih aber zur kentniss genommen)

da frage cih mich ernsthaft ob cih nicht lieber auf den refresh warten soll auch wenn meine derzeitige hardware veraltet ist...

Gast
2006-11-02, 17:42:45
Vieleicht bessere Ausbeute?Die Karte darf ja auch nicht zu Teuer werden immerhin müssen noch 1.4GB Speicher verbaut werden.

Der Chip auf der GTS Karte ist genau der selbe wie auf der GTX!!
Abfall, da ein Teil des Chips defekt ist, deaktiviert man ihn und verkauft ihn eben abgespeckt mehr nicht. Ein "GTS-Chip" kostet genausoviel wie einer für die GTX Karten in der Herstellung, letztlich macht nur die verwendete Speichermenge einen Preisunterschied in den Herstellungskosten.

Sollte NV für die GTS ein eigenes PCB Layout entworfen haben, spart man da natürlich auch nochmal.

BTW, was macht hier viele so sicher das es schon im Frühling zur Cebit nen Refresh in Form des G81 geben wird? Forstellung der 7800GTX war Juni05, die 7900GTX im März06, wenn man wieder 9 Monate dazwischen hat, dann würde man erst im August07 mit dem G81 kommen, was zur Holiday Session passen würde.

AnarchX
2006-11-02, 17:43:50
muss aber sagen das ich als käufer der etwas länger für g80 gesparrt hat doch mich etwas verarscht fühle. irgend wie hab cih das gefühl das g80 künstlich gebemmst wird. um nachher bei dem refresh den r600 wieder zu schlagen. die g80 ist gerade so schnell genug um sie als next gen bezeichnen zu können. aber nicht schnell genug um alles weit hinter sich zu lassen. das hinterässt doch einen bitteren nachgeschmack. (die vebeserte bq hab cih aber zur kentniss genommen)

G80 lässt jedenfalls die Single-GPU-Lösungen alle doch weit hinter sich, mehr sollte man auch nicht von ihm verlangen...

Gast
2006-11-02, 17:46:40
Gutes AF kostet viel, sehr viel .

Was heist kosten? Wenn die Architektur darauf ausgelegt ist, kostet es wenig Leistung von AF aus (0*AF) zu 16*AF.
Abwarten und die ausführlichen Tests lesen, wenn man beim Sprung von 0xAA auf 4xAA weniger Leistung verliert als die alte Generation warum sollte sowas beim AF nicht auch einzubauen sein?

Gast
2006-11-02, 17:48:51
muss aber sagen das ich als käufer der etwas länger für g80 gesparrt hat doch mich etwas verarscht fühle. irgend wie hab cih das gefühl das g80 künstlich gebemmst wird. um nachher bei dem refresh den r600 wieder zu schlagen. die g80 ist gerade so schnell genug um sie als next gen bezeichnen zu können. aber nicht schnell genug um alles weit hinter sich zu lassen. das hinterässt doch einen bitteren nachgeschmack. (die vebeserte bq hab cih aber zur kentniss genommen)

da frage cih mich ernsthaft ob cih nicht lieber auf den refresh warten soll auch wenn meine derzeitige hardware veraltet ist...

ähm, nur so eine Idee aber warum entscheidest du nicht erst nachdem es überhaupt Tests zu der Karte gibt?!

Raff
2006-11-02, 17:54:17
Falsch, AF wird zunehmend weniger kosten, da sich die Hauptlast immer mehr auf die Arithmetik verlagert.
Wann war AF praktisch kostenlos? In der Vergangheit war es noch so teuer, dass man es teilweise gar nicht anbot -> Radeon 8500.

Es gab wirklich Zeiten, wo AF nahezu kostenlos war ... allerdings ist das natürlich auf Ineffizienzen zurückzuführen. Nvidias GeForce2 (die ganze Serie von MX bis Ultra) verhungert(e) so massiv an ihrer Bandbreite, dass das maximale 2x AF praktisch umsonst eingesetzt werden kann. Interessant ist es übrigens auch bei einer GeForce FX im SM2.0-Betrieb: Die ALUs limitieren derart fies, dass man das noch immer fette 8x AF sehr günstig (10-20% Einbruch) bekommt ... 4x AA übrigens auch. Gesehen habe ich das z.B. in V.I.E.R.

MfG,
Raff

Neosix
2006-11-02, 18:02:59
ähm, nur so eine Idee aber warum entscheidest du nicht erst nachdem es überhaupt Tests zu der Karte gibt?!

sorry werde nach so langer wartezeit langsam ungedüldig ihr habt ja recht :(
ich denke durch treibermodifizierungen sind ordentliche leistungssteigerungen noch drin. man hat hier immerhin mit einer neuen architektur zutun.
also lasset und auf wundertreiber hoffen ^^

Gast
2006-11-02, 18:03:53
Forstellung der 7800GTX war Juni05, die 7900GTX im März06Naja, dazwischen war ja noch die GTX/512. Hab mich schon ein wenig geärgert als die rausgekommen ist. Vor kurzem noch knapp 600€ für eine 256er-GTX bezahlt und dann kam die 512er mit 1,1ns-Speicher und hohem Chiptakt. Aber so ist es eigentlich immer im Graka-Geschäft.

Gast
2006-11-02, 18:09:05
Falsch, AF wird zunehmend weniger kosten, da sich die Hauptlast immer mehr auf die Arithmetik verlagert.
Wann war AF praktisch kostenlos? In der Vergangheit war es noch so teuer, dass man es teilweise gar nicht anbot -> Radeon 8500.

Radeon 8500 konnte AF und war damit pfeilschnell (okok, inwieweit das tatsächlich AF war, ist wieder ne andere Frage;))

Axel
2006-11-02, 18:10:05
Falsch, AF wird zunehmend weniger kosten, da sich die Hauptlast immer mehr auf die Arithmetik verlagert.
Wann war AF praktisch kostenlos? In der Vergangheit war es noch so teuer, dass man es teilweise gar nicht anbot -> Radeon 8500.

Die Radeon 8500 konnte AF!

Gast
2006-11-02, 18:12:27
nein hatte sie nicht

Gast
2006-11-02, 18:17:37
Naja, dazwischen war ja noch die GTX/512. Hab mich schon ein wenig geärgert als die rausgekommen ist. Vor kurzem noch knapp 600€ für eine 256er-GTX bezahlt und dann kam die 512er mit 1,1ns-Speicher und hohem Chiptakt. Aber so ist es eigentlich immer im Graka-Geschäft.

Die GTX512 war kein neuer Chip :)
Außerdem hättest dich auch geärgert wenn du dir die 512 gekauft hättest, da die 7900Serie 6Monate später kam. Im Grunde wirst dich immer Ärgern, zumal 600€ für die 7800GTX wohl eher selten waren, da ich 520€ dafür im Juni05 hingeblettert habe. Allerdings sehe ich das so nicht, da ich die Karte auch für 300 weiterverkauft habe, also isse nicht teuer in dem Sinne. Was andere für Midrange alle 3Jahre ausgeben hau ich halt einmal im Jahr raus, alte Karte wird vertickt (wer sammelt is selbst schuld) und ne neue für nen Aufpreis rein.

gguru
2006-11-02, 18:25:48
Die GTX512 war kein neuer Chip :)
Außerdem hättest dich auch geärgert wenn du dir die 512 gekauft hättest, da die 7900Serie 6Monate später kam. Im Grunde wirst dich immer Ärgern, zumal 600€ für die 7800GTX wohl eher selten waren, da ich 520€ dafür im Juni05 hingeblettert habe. Allerdings sehe ich das so nicht, da ich die Karte auch für 300 weiterverkauft habe, also isse nicht teuer in dem Sinne. Was andere für Midrange alle 3Jahre ausgeben hau ich halt einmal im Jahr raus, alte Karte wird vertickt (wer sammelt is selbst schuld) und ne neue für nen Aufpreis rein.

Und wer kauft sie dir immer ab?

MiamiNice
2006-11-02, 18:30:46
Naja zumindest Crysis unterstützt ja nativ D3D10 und das läuft in den neusten Videos ja auf einem G80 was anderes wird Crytek zur Zeit auch nicht in den Entwickler PCs haben.

http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=103&ttitle=Crysis_G80_Flyover_Video_-_WMV

http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=104&ttitle=Crysis_G80_Gameplay_Video_-_WMV

Aber mir ist schon klar das man whol ein G80 SLI braucht wenn man das dann noch in hoher Auflösung plus AA/AF zocken will.

Crysis und UT2K7 sind die beiden einzigsten Spiele die mir auf anhieb einfallen. Ich glaube das man in den ersten DX10 Games nicht allzuviel Unterschied zwischen DX9 und DX10 Pfad sehen wird.
1 Karte wird, wie Du schon schriebst, sicher nicht für max. Details in DX10 reichen bei anständiger Auflösung. Vielleicht reicht aber 1 Karte für das selbe Setting unter DX9.

MfG

Gast
2006-11-02, 18:35:23
Die GTX512 war kein neuer Chip :)Ja, stimmt schon. Trotzdem war es eine feine Karte, wenn auch überteuert.

zumal 600€ für die 7800GTX wohl eher selten waren, da ich 520€ dafür im Juni05 hingeblettert habe..Ja, es waren auch nicht ganz 600€, sondern 550€ + Versand. War so eine XFX-Extreme-Edition mit 490/650.

gguru
2006-11-02, 18:38:39
Crysis und UT2K7 sind die beiden einzigsten Spiele die mir auf anhieb einfallen. Ich glaube das man in den ersten DX10 Games nicht allzuviel Unterschied zwischen DX9 und DX10 Pfad sehen wird.
1 Karte wird, wie Du schon schriebst, sicher nicht für max. Details in DX10 reichen bei anständiger Auflösung. Vielleicht reicht aber 1 Karte für das selbe Setting unter DX9.

MfG

Eben das Gegenteil soll der Fall sein. Mit DX10 soll nix besser als mit v9 aussehen, sondern vor allem schneller laufen. Zumindest laut Tim Sweeney.

Gast
2006-11-02, 18:38:45
nein hatte sie nicht

Sehr wohl hatte sie das. Aber nur mit extremer Winkelabhängigkeit (nur die 90°-Winkel wurden berücksichtigt).

mapel110
2006-11-02, 18:44:06
Eben das Gegenteil soll der Fall sein. Mit DX10 soll nix besser als mit v9 aussehen, sondern vor allem schneller laufen. Zumindest laut Tim Sweeney.
Wenn man wiederum mehr Speed zur Verfügung hat, kann man das auch in bessere Effekte ummünzen. :)

Sehr wohl hatte sie das. Aber nur mit extremer Winkelabhängigkeit (nur die 90°-Winkel wurden berücksichtigt).
Schlimmer war, dass es AF nur mit bilinearem Filtering gab.

p.s. aber die 8500er ist hier sehr Offtopic

Gast
2006-11-02, 20:39:35
Bis jetzt überzeugt mich der G80 noch nicht. Da er anscheinend sehr CPUlimitiert ist, können wohl nur die Wenigsten die volle Leistung dieser Karte entfachen. Nun frage ich mich wie der R600 wird.
Falls der R600 "nur" Transis bei 80Nm groß ist, sollte er wirtschaftlicher sein als der G80. Durch den kleineren Fertigungsprozess sollten hohe Taktraten drin sein. Es scheint das ATI den NvidiaWeg, wie beim G70 und G71, also einen abgespeckteren Chip mit hohem Takt.

Eine Frage nebenbei, wie schnell sie die Streamprozessoren, also die Scalaralus des G80 und welche ALUs verwendet der R600?

WEGA
2006-11-02, 20:43:09
Bis jetzt überzeugt mich der G80 noch nicht. Da er anscheinend sehr CPUlimitiert ist, können wohl nur die Wenigsten die volle Leistung dieser Karte entfachen. Nun frage ich mich wie der R600 wird.
Falls der R600 "nur" Transis bei 80Nm groß ist, sollte er wirtschaftlicher sein als der G80. Durch den kleineren Fertigungsprozess sollten hohe Taktraten drin sein. Es scheint das ATI den NvidiaWeg, wie beim G70 und G71, also einen abgespeckteren Chip mit hohem Takt.

Eine Frage nebenbei, wie schnell sie die Streamprozessoren, also die Scalaralus des G80 und welche ALUs verwendet der R600?
kommt doch auf die eingestellte grafik an und bei den min fps bringt es immer was.

Raff
2006-11-02, 20:46:49
Bis jetzt überzeugt mich der G80 noch nicht. Da er anscheinend sehr CPUlimitiert ist, können wohl nur die Wenigsten die volle Leistung dieser Karte entfachen.

Auch einen G80 kriegt man klein: nutzbares Super-Sampling. Aber leider nur OG.

MfG,
Raff

Grestorn
2006-11-02, 20:48:57
Bis jetzt überzeugt mich der G80 noch nicht. Da er anscheinend sehr CPUlimitiert ist, können wohl nur die Wenigsten die volle Leistung dieser Karte entfachen. Nun frage ich mich wie der R600 wird.
Falls der R600 "nur" Transis bei 80Nm groß ist, sollte er wirtschaftlicher sein als der G80. Durch den kleineren Fertigungsprozess sollten hohe Taktraten drin sein. Es scheint das ATI den NvidiaWeg, wie beim G70 und G71, also einen abgespeckteren Chip mit hohem Takt.

Eine Frage nebenbei, wie schnell sie die Streamprozessoren, also die Scalaralus des G80 und welche ALUs verwendet der R600?

Angenommen der R600 wäre ähnlich leistungsfähig, wieso sollte er dann weniger CPU abhängig sein? Die Logik geht mir nicht ein.

Je Leistungsfähiger die GPU desto eher limitiert die CPU. Das ist doch eine logische Konsequenz.

Hvoralek
2006-11-02, 20:51:38
Angenommen der R600 wäre ähnlich leistungsfähig, wieso sollte er dann weniger CPU abhängig sein? Die Logik geht mir nicht ein.

Je Leistungsfähiger die GPU desto eher limitiert die CPU. Das ist doch eine logische Konsequenz.Eben. Wie sollte eine GraKa besser überzeugen als durch weitgehende CPU- Limitierung in den meisten realitätsnahen Situationen?

Moralelastix
2006-11-02, 20:52:01
Der Gast meint bestimmt das der G80 besonders stark mit der CPU skaliert.

LovesuckZ
2006-11-02, 20:56:07
Der Gast meint bestimmt das der G80 besonders stark mit der CPU skaliert.

Und das bedeutet? :wink:
Eine CPU-limitierung ist doch besser als wenn die Karte jetzt schon für höhere AUflösung mit AA/AF keine Leistung mehr hätte.

aths
2006-11-02, 20:58:49
Was heist kosten? Wenn die Architektur darauf ausgelegt ist, kostet es wenig Leistung von AF aus (0*AF) zu 16*AF.
Abwarten und die ausführlichen Tests lesen, wenn man beim Sprung von 0xAA auf 4xAA weniger Leistung verliert als die alte Generation warum sollte sowas beim AF nicht auch einzubauen sein?"AF aus" entspricht 1x AF (nicht 0x), AA aus entspricht 1x AA (ebenfalls nicht 0x.)

Gast
2006-11-02, 21:02:28
Hier treibt sich auch keiner rum, der Preise nennen kann? Es kann ja nicht sein, dass die Karte in der Schweiz 550€ im UK 750€ kostet.

Scose
2006-11-02, 21:07:36
Hier treibt sich auch keiner rum, der Preise nennen kann? Es kann ja nicht sein, dass die Karte in der Schweiz 550€ im UK 750€ kostet.

In der Schweiz ist Hardware meist generell günstiger als in den benachbarten Ländern...

Gast
2006-11-02, 21:16:59
"AF aus" entspricht 1x AF (nicht 0x), AA aus entspricht 1x AA (ebenfalls nicht 0x.)

1x AF bedeutet aber das es appliziert wird oder? Diese irreführende Erläuterung der PCGamesHardware mit den 64TMUs/32TS und 2xBiAF bring mich durcheinander ^^

Slipknot79
2006-11-02, 21:21:02
In der Schweiz ist Hardware meist generell günstiger als in den benachbarten Ländern...


gibts sowas wie www.geizhals.ch? ^^

Gast
2006-11-02, 21:28:01
In der Schweiz ist Hardware meist generell günstiger als in den benachbarten Ländern...

Ich habe das genaue Gegenteil gehört. Braucht man ja nur die Preise der restlichen Hardware vergleichen.

gguru
2006-11-02, 21:28:48
gibts sowas wie www.geizhals.ch? ^^

Ja, wurde sogar schon in diesem Thread erwähnt: toppreise.ch

Es waren die Geforce 8800 GTX für ~518€ und die GTS für ~395€ von ASUS gelistet. Jetzt zeigen sie nurnoch die von eVGA.

Gast
2006-11-02, 21:31:42
Also bei mir werden nur Asus und keine EVGAs gelistet.

Gast
2006-11-02, 21:38:09
warum findet ihr diese karte überhaupt interessant,der leistungssprung is ganz schwach. oder bezahlt ihr gern 600 für unspürbaren sprung ?

dildo4u
2006-11-02, 21:39:26
warum findet ihr diese karte überhaupt interessant,der leistungssprung is ganz schwach. oder bezahlt ihr gern 600 für unspürbaren sprung ?Unspürbar? eine 8800GTX ist schneller als zwei 1950XTX im Crossfire.

Oben eine 8800GTX
Unten zwei 1950XTX beide Setups wurden OC.

http://img205.imageshack.us/img205/3797/screenshot150vx0.jpg

http://img205.imageshack.us/img205/9112/screenshot149zt3.jpg

Gast
2006-11-02, 21:43:26
Wann wird es eine DDR4-Version geben ?

AnarchX
2006-11-02, 21:44:50
Wann wird es eine DDR4-Version geben ?

Wahrscheinlich im H1 2007..;)
Beim Refreshmodell wird man wohl auf jeden Fall auf GDDR4 setzen, schnelleren GDDR3 gibt es ja fast nicht.

Godmode
2006-11-02, 22:04:45
Wahrscheinlich im H1 2007..;)
Beim Refreshmodell wird man wohl auf jeden Fall auf GDDR4 setzen, schnelleren GDDR3 gibt es ja fast nicht.

Gibt dann eine schöne Explosion bei der Speicherbandbreite!

Gast
2006-11-02, 22:08:04
der G80 besitzt angeblich bereits schon eine 512 anbindung, von der 1/3 deaktiviert sei und erst mit DDR4-Einführung durch Nvidia aktiviert wird, dann würde das nämlich erst sinn machen.

vielleicht sollte man hier den ersten aufguss auch mit vorsicht genißen, zumal directx10 noch in den kinderschuhen steckt und erst den refresh abwarten, der dann viel ausballancierter auf dx10 agiert und aus treibersicht viel optimierter ist.

AnarchX
2006-11-02, 22:09:41
Gibt dann eine schöne Explosion bei der Speicherbandbreite!
min. 50% mehr Speicherbandbreite bei einer "8900GTX" sollten ja kein Problem sein.

Aber auch beim Mainstream sollte ja einiges mit GDDR4 möglich sein...=)
8600GTS mit 160bit und GDDR4@1400MHz *träum*

edit:
der G80 besitzt angeblich bereits schon eine 512 anbindung, von der 1/3 deaktiviert sei und erst mit DDR4-Einführung durch Nvidia aktiviert wird, dann würde das nämlich erst sinn machen.
Mit GDDR4 macht aber so ein 512bit SI eher weniger Sinn... :|

Gast
2006-11-02, 22:11:03
Ja, wurde sogar schon in diesem Thread erwähnt: toppreise.ch

Es waren die Geforce 8800 GTX für ~518€ und die GTS für ~395€ von ASUS gelistet. Jetzt zeigen sie nurnoch die von eVGA.

Hat wohl seine Gründe...waren alle etwas früh dran.
Aber die Shops haben sie, mein bevorzugter Shop macht bei Toppreise leider nicht mit aber ich weiss das er die Karten da hat und wird sie am Tag X morgens auf der Page listen und dann heisst es, wer zuerst kommt....

Scose
2006-11-02, 22:12:25
Das oben war von mir.... und glaubt mir einfach, Hardware gibts hier günstiger. :)

Aber zuviel OT hier...sorry

Superheld
2006-11-02, 22:12:44
Unspürbar? eine 8800GTX ist schneller als zwei 1950XTX im Crossfire.

ja und was bringt mir das wenn ich kein Core 4ghz habe, nichts.

dildo4u
2006-11-02, 22:12:48
der G80 besitzt angeblich bereits schon eine 512 anbindung, von der 1/3 deaktiviert sei und erst mit DDR4-Einführung durch Nvidia aktiviert wird, dann würde das nämlich erst sinn machen.
.Quark der G80 kommt mit 384Bit und GDDR4 schon locker über 100GB/sec Speicherbandbreite das unendlich viel Speicherbandbreite nix bringt sieht man an der 1950XTX die kaum Mherleistung hat obwhol der Speichertakt um über 20% erhöt wurde.

AnarchX
2006-11-02, 22:17:02
ja und was bringt mir das wenn ich kein Core 4ghz habe, nichts.

Für was gibt es hohe Auflösungen, AA, AF, auch einen G80 kann man an seine Grenzen bringen. ;)

btw.
Sonst werden immer die CPUs schlecht gemacht, dass man eh nicht von einer schnelleren profitiert da die GraKa limitiert und nun ist es die GraKa die durch die CPU "ausgebremst" werden soll... X-D ;D

Paul Brain
2006-11-02, 22:44:07
Für was gibt es hohe Auflösungen, AA, AF, auch einen G80 kann man an seine Grenzen bringen. ;)

btw.
Sonst werden immer die CPUs schlecht gemacht, dass man eh nicht von einer schnelleren profitiert da die GraKa limitiert und nun ist es die GraKa die durch die CPU "ausgebremst" werden soll... X-D ;D
Jop. Is mir unverständlich, wie sich Leute Jahr um Jahr oder sogar öfter neue High-End-Hardware kaufen, aber mit einem SXGA-Bildschirm herumeiern.

Holts euch bei ebay um ein paar Hunderter einen FW900, dann habts einen Breitbild-CRT, das beste wo gibt fürs Gaming. Dann kann man mal schaun, ob bei 1920x1200+ und sämtlichen Settings auf "Highest" noch die CPU limitiert...


On-Topic: Ist etwas über nVidias Pläne bekannt, die Streamprozzis via API oder so zugänglich zu machen? Um sie z.B. für F@H nutzen zu können...

eXodia
2006-11-02, 22:45:19
warum findet ihr diese karte überhaupt interessant,der leistungssprung is ganz schwach. oder bezahlt ihr gern 600 für unspürbaren sprung ?

Stimmt, ganz schwach, fast unmerklich, ich meine eine 8800GTX ist ungefähr so schnell wie ein X1950XTX CF und eine 8800GTS ist ungefähr mit einer 7950GX2 gleichzusetzten. Dazu kommen die neuen, ziemlich sinnbefreiten, Features ... Ja, ich denke du hast Recht, das kann man alles als unspürbar beschreiben, wobei das doch fast schon etwas zu übertrieben ist ...

Regards

P.S. Speziell wenn du jetzt von ner 9800Pro aufrüstest ist es mehr ein downgrade, hast ja ganze 1000 Punkte mehr ...

Gast
2006-11-02, 22:45:39
Und da es womoeglich wieder zu weit OT gehen wird, ich hab schon in der Vergangenheit meine Zweifel ausgedrueckt dass sie zusaetzliche Transistoren fuer RGSS eingelegt haben. Ich weiss zwar noch gar nichts was dieses Thema betrifft, aber es besteht nur noch eine kleine Chance dass noch nichts darueber erwaehnt wurde.Wenn zusätzliche Transistoren nötig wären ginge kein TSSAA. Kann der G80 noch TSSAA? Ich gehe doch mal sehr schwer davon aus, also sollte SGSSAA problemlos über den Treiber implementierbar sein.

|MatMan|
2006-11-02, 22:48:54
was ist das für ein Schwachsinn den hier einige Leute von sich geben, dass der G80 enttäuschend langsam und sich ein Wechsel nicht lohnen würde??

1. bringt es auch jetzt was für Leute, die im Moment ein SLI/ Crossfire System haben, da ja eine 8800 GTX etwa so schnell ist, wie das bisherige System...
2. hat nicht jeder hier das absolute Topmodell der (noch) aktuellen Generation
3. Ich z.B. kaufe eine Grafikkarte nur jede 2te Generation, langsam ist es wieder mal Zeit und da ist eine Karte mit G80 schon sehr interessant (so oder so ähnlich geht es sicherlich der Mehrzahl der Leute...)

ShadowXX
2006-11-02, 22:52:59
Wenn zusätzliche Transistoren nötig wären ginge kein TSSAA. Kann der G80 noch TSSAA? Ich gehe doch mal sehr schwer davon aus, also sollte SGSSAA problemlos über den Treiber implementierbar sein.
Du weisst das Sie für das TSAA ein paar Loops drehen müssen um das mit dem RG hinzubekommen, oder?

Das wär für Fullscreen-RGSSAA wohl nicht der wirklich geeignete weg.

was ist das für ein Schwachsinn den hier einige Leute von sich geben, dass der G80 enttäuschend langsam und sich ein Wechsel nicht lohnen würde??

1. bringt es auch jetzt was für Leute, die im Moment ein SLI/ Crossfire System haben, da ja eine 8800 GTX etwa so schnell ist, wie das bisherige System...
2. hat nicht jeder hier das absolute Topmodell der (noch) aktuellen Generation
3. Ich z.B. kaufe eine Grafikkarte nur jede 2te Generation, langsam ist es wieder mal Zeit und da ist eine Karte mit G80 schon sehr interessant (so oder so ähnlich geht es sicherlich der Mehrzahl der Leute...)
Dem kann ich mich nur anschliessen. Ich hab momentan ne x1900xt und für mich wird der Sprung auf eine 8800GTX ein ordentlicher sein......von den restlichen Extra-Features (schnelleres AA, höheres AA, mehr auswahl beim AA, besseres AF) gar nicht zu reden.

Das das Ding auch DX10 kann steht für mich sogar eher unter den "unwichtigen" Features.

Kosh
2006-11-02, 22:53:55
Stimmt, ganz schwach, fast unmerklich, ich meine eine 8800GTX ist ungefähr so schnell wie ein X1950XTX CF und eine 8800GTS ist ungefähr mit einer 7950GX2 gleichzusetzten. Dazu kommen die neuen, ziemlich sinnbefreiten, Features ... Ja, ich denke du hast Recht, das kann man alles als unspürbar beschreiben, wobei das doch fast schon etwas zu übertrieben ist ...

Regards

Bin ja eigentlich deiner Meinung,aber man kann die Sache auch anders sehen.

Die neuen 8800er Karten sind zur Zeit nicht schneller als die schnellsten NV 79xx oder ATI 19xx Karten (jeweils mit 2 Grafikchips)

Wenn man nur danach geht was hinten rauskommt,dann sind die 8800er Karten eine Enttäuschung,selbst wenn auf der 7950GX 10 Grafikchips arbeiten würden.
Denn es kommt halt nicht mehr raus (gibt aber ja noch andere Vorteile der neuen Karten),obwohl ein Grafikchip der 8800er so schnell ist wie 2 79xxer.

Eine 8850 ,also auch mit 2 Grafikchips ,würde mich Leistungsmässig mal interessieren.

Gast
2006-11-02, 22:54:46
Gibt halt leute die kein Antialiasing kennen und in 1024 rumkrebsen. KLAR das man da keinen Unterschied sieht, ich mein was soll die Graka da auch machen auser auf die CPU warten...
1600*1200 und min. 4xAA+16xAF WU is die Meßlatte, und da müssen halt erstmal gescheite GAME Benches bei, dann werden wie sehen wie ne 8800GTX die alte Generation versägt. Das sie schneller sein wird is klar, ob sie nur n bissl schneller als ein SLI/XFire System ist, is mir schnurz, sie muss die Singlekarten um 50% und mehr schlagen dann isse eine Steigerung dies bisher bei keinem Generationsprung gab, so schauts aus.
SLI/XFire vergleich gibts dann wenn 2x8800GTX aneinanderkleben, und da darf dann der Quadcore bei 4GHz brennen damit man da unterschiede messen kann, oder eben 16xAA

Paul Brain
2006-11-02, 22:56:30
was ist das für ein Schwachsinn den hier einige Leute von sich geben, dass der G80 enttäuschend langsam und sich ein Wechsel nicht lohnen würde??

1. bringt es auch jetzt was für Leute, die im Moment ein SLI/ Crossfire System haben, da ja eine 8800 GTX etwa so schnell ist, wie das bisherige System...
2. hat nicht jeder hier das absolute Topmodell der (noch) aktuellen Generation
3. Ich z.B. kaufe eine Grafikkarte nur jede 2te Generation, langsam ist es wieder mal Zeit und da ist eine Karte mit G80 schon sehr interessant (so oder so ähnlich geht es sicherlich der Mehrzahl der Leute...)
Trolls, Feed, Fanboy, kapische?

eXodia
2006-11-02, 22:58:26
Bin ja eigentlich deiner Meinung,aber man kann die Sache auch anders sehen.

Die neuen 8800er Karten sind zur Zeit nicht schneller als die schnellsten NV 79xx oder ATI 19xx Karten (jeweils mit 2 Grafikchips)

Wenn man nur danach geht was hinten rauskommt,dann sind die 8800er Karten eine Enttäuschung,selbst wenn auf der 7950GX 10 Grafikchips arbeiten würden.
Denn es kommt halt nicht mehr raus (gibt aber ja noch andere Vorteile der neuen Karten),obwohl ein Grafikchip der 8800er so schnell ist wie 2 79xxer.

Eine 8850 ,also auch mit 2 Grafikchips ,würde mich Leistungsmässig mal interessieren.

Ich hoffe doch sehr das meine Ironie zum Tragen gekommen ist ...

Regards

ShadowXX
2006-11-02, 23:00:39
Bin ja eigentlich deiner Meinung,aber man kann die Sache auch anders sehen.

Die neuen 8800er Karten sind zur Zeit nicht schneller als die schnellsten NV 79xx oder ATI 19xx Karten (jeweils mit 2 Grafikchips)

Du kannst doch nicht 2 GPU-Gespanne mit einer 1 GPU-Karte vergleichen.
Wenn dann musst du gegen ein G80-SLI gespann vergleichen.

Davon abgesehen wars die letzten beiden male genauso. Die jeweils neue Karte (7800 bzw. 7900) war gerade mal so schnell, meist sogar etwas langsamer als ein SLI-Gespann der Vorgängergeneration. Da hat sich kaum jemand aufgeregt.

Paul Brain
2006-11-02, 23:01:34
Gibt halt leute die kein Antialiasing kennen und in 1024 rumkrebsen. KLAR das man da keinen Unterschied siehtDafür reicht aber dann echt eine 9800Pro. Ich weiß wovon ich red, meine Freundin hat so eine in ihrem AthlonXP und fährt die in XGA auf ihrem 17"er. Damit rennt jedes aktuelle Spiel, momentan is bei ihr Hitman:BloodMoney angesagt, und da hats sogar AF und 4xAA eingeschalten...

So nebenbei bemerkt ist eine GX2 einfach nicht heterosexuell. Ob ich zwei GTs im SLi fahr oder so eine Karte einsetze kommt aufs selbe raus, es werden auch in beiden Fällen zwei Slots belegt. Ich kann die GX2 leider nicht als eigenständige, einzelne Karte ansehen, tut mir leid. Wäre vielleicht anders, wenn sie nicht aus zwei Platinen bestehen würde, aber so wie's aktuell gelöst ist: pervers. Also sollte man sie nicht mit einem einzelnen G80 vergleichen.
Das ist ungefähr so wie die unsägliche Diskussion Turbodiesel <-> Saugbenziner.

Ich würde mir wünschen, daß der G80 ab sofort hier nur mehr gegen 7900GTX und X1950XTX antreten müßte.

Kosh
2006-11-02, 23:09:20
Ich hoffe doch sehr das meine Ironie zum Tragen gekommen ist ...

Regards

Jupp,keine Bange :D

Du kannst doch nicht 2 GPU-Gespanne mit einer 1 GPU-Karte vergleichen.
Wenn dann musst du gegen ein G80-SLI gespann vergleichen.

Davon abgesehen wars die letzten beiden male genauso. Die jeweils neue Karte (7800 bzw. 7900) war gerade mal so schnell, meist sogar etwas langsamer als ein SLI-Gespann der Vorgängergeneration. Da hat sich kaum jemand aufgeregt.

Doch,kann man, muss man wenn es primär nach der Leistung geht.

Wenn ich ein 7950GX2 hätte (also die mit den 2 Grafikchips),dann habe ich eine Singlekarte. Und die neue ist nunmal nicht schneller.

WIe gesagt,selbst wenn die 7950GX2 10 Grafikchiups hätte, es zählt nicht wie die Leistung erreicht wird sondern was hinten rauskommt und zur Zeit kommt halt nicht mehr raus bei der 8800er.

Logischerweise sieht man ,das der 8800er Klasse zu sein scheint,weil er alleine das schafft wofür die 7900er Serie 2 Chips braucht.
NVIDIA wird somit ohne Probeme die aktuelle 7950GX2 locker vernichten,wenn sie ebenfalls eine 8850GX2 rausbringen würden.

Gast
2006-11-02, 23:09:34
Du weisst das Sie für das TSAA ein paar Loops drehen müssen um das mit dem RG hinzubekommen, oder?

Das wär für Fullscreen-RGSSAA wohl nicht der wirklich geeignete weg.Gegenfrage:
Ist OGSSAA mit MSAA-Additiven, um auf eine erträgliche EER zu kommen, wirklich geeigneter? Es frisst mehr Speicher und Bandbreite für die (fast) gleiche Qualität, dürfte außerdem noch langsamer sein. OK, schon aus Kompatibilitätsgründen möchte ich beide Optionen haben (eigentlich mehr als "beide", neben Standard-OGSSAA (wie seit Urzeiten angeboten) wäre ein "dummes" OGSSAA, was einfach nur höhere Auflösungen anbietet als der Monitor drauf hat und das Bild anschließend auf die Ausgabeauflösung eindampft, für die hartnäckigeren FSAA-Verweigerer aus der ISV-Fraktion noch interessant), würde aber sicher meistens SGSSAA wählen.

LovesuckZ
2006-11-02, 23:24:09
WIe gesagt,selbst wenn die 7950GX2 10 Grafikchiups hätte, es zählt nicht wie die Leistung erreicht wird sondern was hinten rauskommt und zur Zeit kommt halt nicht mehr raus bei der 8800er.


Aus diesem Grund kann die GX2 nicht als Single-Karte angesehen werden, da sie immernoch den SLI-Bedingungen unterworfen ist.
So kann es sein, dass eine GX2 langsamer als eine 7900GTX ist, da der SLI-Modus nicht funktioniert. Oder der Geschwindigkeitsgewinn nicht gerade sehr groß ist...
Abgesehen davon wird niemand eine 7900GTX SLI-Combo auch als "Single-Karte" bezeichnen, nur weil die Leistung auf dem Niveau der GX2 liege.

cl55amg
2006-11-02, 23:26:12
@ Demirug und Aths

In der PCGH steht beim G80 Artikel das ATI vollwertige 10 bit LUTs
verwendet, und NV erst jetzt nachzieht.

Diese Information hat mich sehr überrascht, hat die Geforce 7 Generation eine beschnittene 10 bit LUT?
Wie wirkt sich das auf die Bildqualität aus?

Vielen dan an alle die mir das erklären können.

deekey777
2006-11-02, 23:30:54
Die GF7 hat gar keinen Support für das 10-bit-Format.

cl55amg
2006-11-02, 23:34:58
Die GF7 hat gar keinen Support für das 10-bit-Format.

Könntest du etwas näher ausführen? Ich steh da etwas auf dem Schlauch.
ATI hat also eine "vollwertige" 10 bit LUT? Wie wirkt sich das praktisch aus?

deekey777
2006-11-02, 23:51:50
Die X1000er Serie beherrscht das 1010102-Format als Textur-Format und als Framebuffer (zu sehen in der Toyshop-Technologiedemo oder in AoE3³), zusätzlich kann die X1000er Serie dieses auf dem Bildschirm ausgeben (30-bit-RAMDAC).
Oder?

Gast
2006-11-03, 00:09:23
Die X1000er Serie beherrscht das 1010102-Format als Textur-Format und als Framebuffer (zu sehen in der Toyshop-Technologiedemo oder in AoE3³), zusätzlich kann die X1000er Serie dieses auf dem Bildschirm ausgeben (30-bit-RAMDAC).
Oder?

Erstmal nen Eizo haben der mit den 10Bit LUT auch Nativ umgehn kann.

Ansonsten hat das nichts mit dem Low Dynamic Range 10Bit Format am Hut, sonst wäre 16Bit Medium Dynamic Range (was ja als HDR bezeichnet wird *lol*) ja Schwachsinn weils kein Monitor darstellen kann.

Gast
2006-11-03, 00:31:49
Oder einen stinknormalen CRT, der jede beliebige Farbtiefe darstellen kann, da er ja analog angesteuert wird. Nur auf "HDR"-Helligkeitswerte bekommt man den natürlich nicht, aber einen Monitor kauft man ja auch nicht, um sich den Asitoaster sparen zu können.

aths
2006-11-03, 00:36:23
@ Demirug und Aths

In der PCGH steht beim G80 Artikel das ATI vollwertige 10 bit LUTs
verwendet, und NV erst jetzt nachzieht.

Diese Information hat mich sehr überrascht, hat die Geforce 7 Generation eine beschnittene 10 bit LUT?
Wie wirkt sich das auf die Bildqualität aus?

Vielen dan an alle die mir das erklären können.Schon GeForce 4 hat eine 10-Bit-LUT.

Die X1000er Serie beherrscht das 1010102-Format als Textur-Format und als Framebuffer (zu sehen in der Toyshop-Technologiedemo oder in AoE3³), zusätzlich kann die X1000er Serie dieses auf dem Bildschirm ausgeben (30-bit-RAMDAC).
Oder?Einen 10-Bit-RAMDAC haben GeForce-Karten schon länger. 30 Bit Farbe im Framebuffer zu speichern beherrschen bisher erhältliche GeForce-Karten jedoch nicht.

aths
2006-11-03, 00:44:02
Du weisst das Sie für das TSAA ein paar Loops drehen müssen um das mit dem RG hinzubekommen, oder?

Das wär für Fullscreen-RGSSAA wohl nicht der wirklich geeignete weg.Was wäre denn geeigneter?

Dem kann ich mich nur anschliessen."Weißt" und "anschließen" bitte mit ß.

Das das Ding auch DX10 kann steht für mich sogar eher unter den "unwichtigen" Features.D3D10 bringt mehr als nur neue Features.

Paul Brain
2006-11-03, 01:54:25
Ausführlichkeiten vom Gerüchteblatt:

http://www.theinquirer.net/default.aspx?article=35483

Gasthaus
2006-11-03, 02:03:58
Jop. Is mir unverständlich, wie sich Leute Jahr um Jahr oder sogar öfter neue High-End-Hardware kaufen, aber mit einem SXGA-Bildschirm herumeiern.

Holts euch bei ebay um ein paar Hunderter einen FW900, dann habts einen Breitbild-CRT, das beste wo gibt fürs Gaming. Dann kann man mal schaun, ob bei 1920x1200+ und sämtlichen Settings auf "Highest" noch die CPU limitiert...


On-Topic: Ist etwas über nVidias Pläne bekannt, die Streamprozzis via API oder so zugänglich zu machen? Um sie z.B. für F@H nutzen zu können...

Das Zauberwort um GK-Limitierung zu erhalten,SSAA:) und so schön...

Ich würde mich wundern(und freuen)wenn das unter 1280 ein G80 knickfrei hinkriegt im Vergleich zu MSAA.

aths
2006-11-03, 02:13:56
Ausführlichkeiten vom Gerüchteblatt:

http://www.theinquirer.net/default.aspx?article=35483Ein "Blatt" das so etwas schreibt: "Anisotropic filtering has been raised in quality to match for ATI's X1K marchitecture, so now Nvidia offers angle-independent Aniso Filtering as well, thus killing the shimmering effect which was so annoying in numerous battles in Alterac Valley (World of WarCraft), Spywarefied (pardon, BattleField), Enemy Territory and many more.", (Hervorhebung in Kursivschrift von mir) also nur Unsinn verzapft, hat nicht mal das Prädikat "Gerüchteküche" verdient.

Gasthaus
2006-11-03, 02:16:30
Bin ja eigentlich deiner Meinung,aber man kann die Sache auch anders sehen.

Die neuen 8800er Karten sind zur Zeit nicht schneller als die schnellsten NV 79xx oder ATI 19xx Karten (jeweils mit 2 Grafikchips)

Wenn man nur danach geht was hinten rauskommt,dann sind die 8800er Karten eine Enttäuschung,selbst wenn auf der 7950GX 10 Grafikchips arbeiten würden.
Denn es kommt halt nicht mehr raus (gibt aber ja noch andere Vorteile der neuen Karten),obwohl ein Grafikchip der 8800er so schnell ist wie 2 79xxer.

Eine 8850 ,also auch mit 2 Grafikchips ,würde mich Leistungsmässig mal interessieren.

Oder einfacher,das ist ein 100% Sprung von EINEM GK-Chip zu EINEM andern.
Das kam das letzte mal vor beim Sprung vom NV30/35 bzw.R350/360 auf NV40 und wurde als einmalig gefeiert.

Doch der allergrösste Vorteil,die Mehrleistung steht immer zur Verfügung da man sich nicht mit SLI/CF befassen muss.
Also was soll die Aufregung?Erwarten hier einige etwa Faktor vier um ja doppelt so schnell zu sein wie GX2?

xL|Sonic
2006-11-03, 03:07:35
Da ich jetzt nicht wirklich den Überblick über den Thread hier habe, kann mir vielleicht jemand ganz kurz die Vorzüge des G80s im Vergleich zur bestehenden GrKa Generation sagen, was neu und was besser ist oder gibt es irgendwo einen Artikel darüber, der das alles zusammenfasst? :)

Danke

up¦²
2006-11-03, 03:12:50
Bekannt?
http://www.vtr-hardware.com/news/n8786-leadtek-px8800-gtx-tdh-et-px8800-gts-tdh.html

aths
2006-11-03, 03:19:58
Da ich jetzt nicht wirklich den Überblick über den Thread hier habe, kann mir vielleicht jemand ganz kurz die Vorzüge des G80s im Vergleich zur bestehenden GrKa Generation sagen, was neu und was besser ist oder gibt es irgendwo einen Artikel darüber, der das alles zusammenfasst? :)

DankeWenn der offizielle Vorstellungstermin da ist, dürfte es genügend Artikel im Netz geben.

Die gelbe Eule
2006-11-03, 05:43:05
http://www.vtr-hardware.com/media/images/news/1/8837.jpg

Sieht nett aus, ist zwar der gleiche Kühler, aber andere "Kappe" drauf.

Ailuros
2006-11-03, 06:27:21
Ein "Blatt" das so etwas schreibt: "Anisotropic filtering has been raised in quality to match for ATI's X1K marchitecture, so now Nvidia offers angle-independent Aniso Filtering as well, thus killing the shimmering effect which was so annoying in numerous battles in Alterac Valley (World of WarCraft), Spywarefied (pardon, BattleField), Enemy Territory and many more.", (Hervorhebung in Kursivschrift von mir) also nur Unsinn verzapft, hat nicht mal das Prädikat "Gerüchteküche" verdient.

Ich hab mich gestern krankgelacht mit dem Mist.

***edit: es gibt genug Material dass man analysieren koennte beim AF und den diversen modi; ich weiss jetzt nicht ob Du unbedingt eine GPU dafuer brauchst, aber das Ganze duerfte schon einen Artikel wert sein. Wenn ich mir den Leistungsunterschied der optimierten modi ansehe, kann ich zwar bei bestem Willem nicht deren Zweck verstehen, aber die Aenderungen sind durchaus (trotz allem) interessant und haben IMO gar nichts mit der Vergangenheit zu tun.

Ailuros
2006-11-03, 06:44:33
Was wäre denn geeigneter?


Ein T-buffer :D

Spass beiseite ich hab sowieso vor Simon ueber das Thema ein paar Fragen zu stellen da ich mir vorstelle dass er sich ausfuehrlich mit hybriden modi beschaeftigt hat.

Das etwas in der Richtung wieder auftaucht, wuerde mich nicht wundern:

http://www.beyond3d.com/forum/showpost.php?p=46390&postcount=103

Weiterhin bleibt es dabei dass man sie nie alle zufriedenstellen kann und dass es verdammt schwer ist eine optimale Loesung fuer alle Faelle zu finden.

Gast
2006-11-03, 08:54:17
Ich frag mich ja schon warum nv speziell beim Lüfter wieder auf so einen kleineren, mit Sicherheit schneller drehenden, umgestiegen sind.

Der erinnert mich an die FX 5900 Ultra, nur der Durchmesser ist grösser.

Das Konzept von 7800GTX-512/7900GTX war doch wirlich gut und hätte man in ähnlicher Form sicherlich auch auf die 8800 adaptieren können.

Aber vielleicht ist er ja wirklich leise auch wenns nicht so aussieht...

Gast
2006-11-03, 09:36:03
Wäre es Möglich aus dieser Karte noch eine 1-Slot Karte zu machen, wenn man bedenkt was das für ein Monster mit der Anzahl an Trasen und Abwärme ist ?

aths
2006-11-03, 10:02:27
Ein T-buffer :DDie Füllraten-Anforderung bleibt dieselbe.

Ich hab mich gestern krankgelacht mit dem Mist.

***edit: es gibt genug Material dass man analysieren koennte beim AF und den diversen modi; ich weiss jetzt nicht ob Du unbedingt eine GPU dafuer brauchst, aber das Ganze duerfte schon einen Artikel wert sein.Das ist mir auch einen Extra-Artikel wert, aber dazu brauche ich in jedem Fall eine Karte.

Gast
2006-11-03, 10:10:52
Servus !

Ist hier etwas Wahres dran:

http://www.directupload.net/file/d/860/Jdol7ywa_jpg.htm

Gruß,
-Ghosty

Coda
2006-11-03, 10:12:52
Also das der kleine Chip für Physik ist ist auszuschließen ;)

DrumDub
2006-11-03, 10:12:56
Servus !

Ist hier etwas Wahres dran:

http://www.directupload.net/file/d/860/Jdol7ywa_jpg.htm

Gruß,
-Ghosty nein.

tombman
2006-11-03, 10:19:27
Aus diesem Grund kann die GX2 nicht als Single-Karte angesehen werden, da sie immernoch den SLI-Bedingungen unterworfen ist.
So kann es sein, dass eine GX2 langsamer als eine 7900GTX ist, da der SLI-Modus nicht funktioniert.
Und das kommt wann genau vor? :rolleyes:

SLi funkt zu 99.99% immer mit >60% mehr fps :cool:

@all:

1.) eine 7950GX2 ist NICHT das selbe wie zwei Stück 7900GTs. Klar, beide Lösungen verbrauchen 2 Steckplätze, aber die GX2 kann auch in NICHT SLI mainboards laufen und sogar in mainboards die nur EINEN PCI-e 16x slot haben.
2.) Eine GX2 ist eine Einzelkarte, auch wenn zwei Chips draufsitzen.
3.) die 8800GTX ist SCHNELLER als eine 7950GX2 und hat einen Haufen mehr features.

600€ für eine 8800GTX ist daher noch vertretbar, wenn man die 470€ für eine 7950GX2 bedenkt.

tombman
2006-11-03, 10:20:11
http://www.vtr-hardware.com/media/images/news/1/8837.jpg

Sieht nett aus, ist zwar der gleiche Kühler, aber andere "Kappe" drauf.
Sieht VERDAMMT sexy aus ;)

Gast
2006-11-03, 10:38:10
Ich habe bislang nur die 3dMark05/06-Werte gesehen.
Gibt es denn auch schon Game-Benchmarks in irgend einer Form ?

[dzp]Viper
2006-11-03, 10:39:38
Ich habe bislang nur die 3dMark05/06-Werte gesehen.
Gibt es denn auch schon Game-Benchmarks in irgend einer Form ?

Ja gabs schon. Und da lag die 8800gts kurz hinter den werten einer 7950 GX2. Aber nur sehr knapp dahinter.

Man kann schon sagen, dass die 8800GTs die selbe Performance wie eine 7950GX2 hat.


PREY - 1600 x 1200 - Max Settings
8800GTS - 84.3FPS
7950GX2 - 85.4FPS
X1950XTX - 71.7FPS
X1900XT - 40.7FPS

FEAR - 1600 x 1200 - Max Settings
8800GTS - 101
7950GX2 - 114
X1950XTX - 86
X1900XT - 73

Atma
2006-11-03, 10:58:44
Viper']
X1950XTX - 71.7FPS
X1900XT - 40.7FPS

~30 fps mehr nur durch GDDR4 ? :eek: :confused:. Auch wenn ich ne X1950 XTX hab, glaub ich das einfach nicht.

Hvoralek
2006-11-03, 11:01:49
~30 fps mehr nur durch GDDR4 ? :eek: :confused:. Auch wenn ich ne X1950 XTX hab, glaub ich das einfach nicht.76% mehr fps durch 38% höhere Bandbreite passt wirklich nicht.

DrumDub
2006-11-03, 11:01:52
~30 fps mehr nur durch GDDR4 ? :eek: :confused:. Auch wenn ich ne X1950 XTX hab, glaub ich das einfach nicht. die x1900xt (625/725) ist nicht identisch x1900xtx (650/775). es müssten x1900xtx und x1950xtx verglichen werden. außerdem kann es in dem benchmark auch noch die 256mb variante der x1900xt sein, die dort getestet wurde. steht leider nicht dabei....

mapel110
2006-11-03, 11:03:47
die x1900xt (625/725) ist nicht identisch x1900xtx (650/775).
Trotzdem sind die Zahlen unrealistisch.
Ich warte da lieber auf Zahlen von erfahrenen Testern.

DrumDub
2006-11-03, 11:07:11
Trotzdem sind die Zahlen unrealistisch.
nicht unbedingt. anscheinend gibts bei der x1900xt und xtx noch einen treiberbug bei fear: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xt_256_mb/11/#abschnitt_fear

Ich warte da lieber auf Zahlen von erfahrenen Testern. das sowieso. am 8.11. wissen wir mehr. ;)

Gast
2006-11-03, 11:17:52
Servus !

Hier sind schon einmal Daten für die benötigten Netzteile:

FOR GeForce 8800 GTS PRODUCT PAGE (please note all products on the list will be compatible):
“A minimum power supply specification of 600W is to be used with this new graphics card. The following list of power supplies have been tested and certified to be compatible. This is not a comprehensive list, but it may be used as a resource in acquiring a suitable power supply.”
GeForce 8800 GTX PAGE (please note all products with specs higher than 700W will be compatible):
“A minimum power supply specification of 700W to be used with this new graphics card. The following list of power supplies have been tested and certified to be compatible. This is not a comprehensive list, but it may be used as a resource in acquiring a suitable power supply.”
Coolmax CUG-700B Green Power 700W
Coolmax CTG-1000 Green Power 1000W
Silverstone Zeus ST85ZF 850W
Silverstone Strider ST75F 750W
Silverstone Strider ST60F 600W
Enermax Liberty ELT620AWT 620W
Enermax Galaxy EGA850EWL 850W
Enermax Galaxy EGA1000EWL 1000W
AthenaPC Athena Power AP-P4ATX85FE 850W
Cooler Master iGreen Power RS-600-ASAA 600W
Mushkin "HP-550" 550200 550W
Mushkin "XP-650" 550100 650W
Thermaltake W0104RU 650W
Thermaltake W0117RU 750W


Gruß
-Ghosty

Gast
2006-11-03, 11:20:01
Servus !

Hier sind schon einmal Daten für die benötigten Netzteile:

FOR GeForce 8800 GTS PRODUCT PAGE (please note all products on the list will be compatible):
“A minimum power supply specification of 600W is to be used with this new graphics card. The following list of power supplies have been tested and certified to be compatible. This is not a comprehensive list, but it may be used as a resource in acquiring a suitable power supply.”
GeForce 8800 GTX PAGE (please note all products with specs higher than 700W will be compatible):
“A minimum power supply specification of 700W to be used with this new graphics card. The following list of power supplies have been tested and certified to be compatible. This is not a comprehensive list, but it may be used as a resource in acquiring a suitable power supply.”
Coolmax CUG-700B Green Power 700W
Coolmax CTG-1000 Green Power 1000W
Silverstone Zeus ST85ZF 850W
Silverstone Strider ST75F 750W
Silverstone Strider ST60F 600W
Enermax Liberty ELT620AWT 620W
Enermax Galaxy EGA850EWL 850W
Enermax Galaxy EGA1000EWL 1000W
AthenaPC Athena Power AP-P4ATX85FE 850W
Cooler Master iGreen Power RS-600-ASAA 600W
Mushkin "HP-550" 550200 550W
Mushkin "XP-650" 550100 650W
Thermaltake W0104RU 650W
Thermaltake W0117RU 750W


Gruß
-Ghosty

Das ist schonmal blödsinn - vielleicht für SLI.

Gast
2006-11-03, 11:20:08
Jo diesen Treiber bug habe ich bekomme den aber irgendwie nicht weg.
Weis einer eine Lösung, sollte ich vielleicht mal einen alten Treiber testen?

Doomi
2006-11-03, 11:23:30
Servus !

Hier sind schon einmal Daten für die benötigten Netzteile:

FOR GeForce 8800 GTS PRODUCT PAGE (please note all products on the list will be compatible):
“A minimum power supply specification of 600W is to be used with this new graphics card. The following list of power supplies have been tested and certified to be compatible. This is not a comprehensive list, but it may be used as a resource in acquiring a suitable power supply.”
GeForce 8800 GTX PAGE (please note all products with specs higher than 700W will be compatible):
“A minimum power supply specification of 700W to be used with this new graphics card. The following list of power supplies have been tested and certified to be compatible. This is not a comprehensive list, but it may be used as a resource in acquiring a suitable power supply.”
Coolmax CUG-700B Green Power 700W
Coolmax CTG-1000 Green Power 1000W
Silverstone Zeus ST85ZF 850W
Silverstone Strider ST75F 750W
Silverstone Strider ST60F 600W
Enermax Liberty ELT620AWT 620W
Enermax Galaxy EGA850EWL 850W
Enermax Galaxy EGA1000EWL 1000W
AthenaPC Athena Power AP-P4ATX85FE 850W
Cooler Master iGreen Power RS-600-ASAA 600W
Mushkin "HP-550" 550200 550W
Mushkin "XP-650" 550100 650W
Thermaltake W0104RU 650W
Thermaltake W0117RU 750W


Gruß
-Ghosty

na dann gute Nacht. Wo soll das ganze noch hinführen? 600 und 700 Watt .. ich wette ich könnte eine 8800 GTS auch locker mit einem guten 430 Watt Seasonic Netzteil betreiben..

Ailuros
2006-11-03, 11:33:07
Bis jetzt ist auf jeden Fall einem Bekannten eine 8800GTX auf einem 420W PSU noch nicht explodiert.

Wer keine Ahnung von dem Zeug hat sollte sich gefaelligst zurueckhalten Mist zu posten.

Gast
2006-11-03, 11:36:20
@Gast: Das sind gepürfte Netzteile, es ist eine Empfehelung von den Vendors.

@Doomi: Sehe ich auch so. Also ich warte meinerseits, bis die ihren Energieverbrauch gedrosselt haben. Das ist bei einer neuen Architektur immer der Fall. Danach kommt die Feinarbeit. Ergo, ein evtl. Refresh (und ich bete zu Gott der kommt noch im März) ist für eine längere Sicht aus Kostengründen und Handhabung für den Verbraucher viel effizienter.

Hier sind die Daten für den "SLI-Effekt":

The following PSU's have been load tested with parameters suitable for G80 SLI configurations:
PC Power and Cooling 1KW-Quad SLI (TC1kW4E) 1000W (to be phased out.)
PC Power and Cooling 1KW-SR 1000W
Zippy PSL-6850P 850W (available mid to late Nov. 2006)
Topower/ePower TOP-1000 1000W (available some time in Nov. 2006)
The following PSU's have been "paper certified." In other words, the power distribution and number of PCI-e connectors (4 for G80 SLI) meet the criteria, but they have yet to have been tested:
Tagan TG900-U96 900W
Tagan TG1100-U96 1100W
Silverstone Zeus ST85ZF 850W
Etasis ET-850 850W
Etasis ET-750 750W

Gruß
-Ghosty

Ailuros
2006-11-03, 11:49:29
NVIDIA schlaegt offiziell zumindest 450W/30A fuer die 8800GTX vor. Von mir aus koennt Ihr glauben dass ihr unbedingt ein 700W PSU fuer das Ding braucht; manchmal kann Ignoranz ziemlich teuer werden.

Anarchy-HWLUXX
2006-11-03, 12:01:40
also ich werd es mit meinem 480W Tagan versuchen ...

Die gelbe Eule
2006-11-03, 12:03:20
Die Daten sind von Club SLi, sagt doch alles ... S L i !!!

drmaniac
2006-11-03, 12:05:08
und vor allen neue und moderen Netzteile laufen auch unter Überlast noch ganz normal und in der Norm. Ein Bequit Pro mit 550 watt hat z.b. in einem Dauerbelastungstest stabile 800 Watt gebracht...

Gast
2006-11-03, 12:08:05
@Ailuros
"Bis jetzt ist auf jeden Fall einem Bekannten eine 8800GTX auf einem 420W PSU noch nicht explodiert.
Wer keine Ahnung von dem Zeug hat sollte sich gefaelligst zurueckhalten Mist zu posten."


a) Das sind Zitate und kein --Mist--. Wer lesen kann ist klar im Vorteil. Ich habe meine persönliche Meinung oder ein Testergebnis dazu meinerseits nicht deklarieren lassen. Sie stammen von Vendors, die alle den G80 bereits haben. Dein Bekannter, der offensichtlich über sehr viel Budget und einem Testlabor verfügt, hatte nicht einmal die Zeit sich ein besseres Netzteil zu besorgen und "experimentiert" mal freudig mit so einer teuren Karte herum. Außerdem sollte man so etwas nur unter Dauerlast austesten und nicht einmal 10 Minuten mit benchen austesten.
b) Vielleicht habe ich Dir jetzt aber auch nur deine Illusionen genommen bezüglich des G80 wenn du so reagierst
c) Du musst nicht persönlich noch beledigend werden (wir kennen uns nicht), und woher willst du wissen, dass ich keine Ahnung habe. Ich helfe lediglich diesen Thread und 3d-center (zumal es eine der besten Informationsseiten ist) mit Informationen und Details aus, ob nun 100% handfest oder ob als Gerücht. Immerhin ist das hier (noch) ein "Spekulatius-Thread" über den G80
d) Sorry für OT

Gruß
-Ghosty

Slipknot79
2006-11-03, 12:22:44
NVIDIA schlaegt offiziell zumindest 450W/30A fuer die 8800GTX vor. Von mir aus koennt Ihr glauben dass ihr unbedingt ein 700W PSU fuer das Ding braucht; manchmal kann Ignoranz ziemlich teuer werden.


DIe Daten sind immer wieder übertrieben und schon rennen die Leute raus um sich >600W zu kaufen, wofür auch immer. Bin selbst ein guter Beweis dass ein 350W NT zumindest für mein System in der Sign ausreicht. 4 RAM Module, 3 HDDs, Dual Core, 7800GTX, 1 opt LW, 4 Lüfter, 1 Soundkarte, 1 TV Karte

Aber ein guter Netzteiltest geht so (Leistung mit nem Wattmeter messen):

1 Graka, 1 Single Core :
3DMark 05 oder 06 starten, Fillrate Test ausführen.

1 Graka oder 2 Grakas (SLI/CF), Dual Core:
3DMark 05 oder 06 (Fillrate Test) starten auf CPU0, Prime 95 auf CPU1
(Hier hatte ich 460W gemessen, 70% Wirkungsgrad macht also 322W, genau richtig für mein 350W NT)

tombman
2006-11-03, 12:27:31
Des kannst ned vergleichen...die 7800er zeiht ned soviel. Hau mal X1900 Crossfire rein und dann meß nochmal- da wird dir schlecht ;D;D

mapel110
2006-11-03, 12:28:57
Des kannst ned vergleichen...die 7800er zeiht ned soviel. Hau mal X1900 Crossfire rein und dann meß nochmal- da wird dir schlecht ;D;D
Eine 8800 GTX wird aber sicher weniger verbrauchen als ein 1900er Crossfire-Verbund.

Gast
2006-11-03, 12:29:32
kannste 100w mehr druf packen

Slipknot79
2006-11-03, 12:33:26
Des kannst ned vergleichen...die 7800er zeiht ned soviel. Hau mal X1900 Crossfire rein und dann meß nochmal- da wird dir schlecht ;D;D


Das ist mir schon klar, wollte nur drauf hinweisen dass die ganzen Vendorangaben tatsächlich fürn Hugo sind.

Laut DFI müsste ich ein 500W (mindestens) Netzteil nehmen.

Laut Handbuch:

Athlon 64 FX-55
6800 Ultra x2
> 25A
>= 500W

ShadowXX
2006-11-03, 13:04:04
@Ailuros
"Bis jetzt ist auf jeden Fall einem Bekannten eine 8800GTX auf einem 420W PSU noch nicht explodiert.
Wer keine Ahnung von dem Zeug hat sollte sich gefaelligst zurueckhalten Mist zu posten."


a) Das sind Zitate und kein --Mist--. Wer lesen kann ist klar im Vorteil. Ich habe meine persönliche Meinung oder ein Testergebnis dazu meinerseits nicht deklarieren lassen. Sie stammen von Vendors, die alle den G80 bereits haben. Dein Bekannter, der offensichtlich über sehr viel Budget und einem Testlabor verfügt, hatte nicht einmal die Zeit sich ein besseres Netzteil zu besorgen und "experimentiert" mal freudig mit so einer teuren Karte herum. Außerdem sollte man so etwas nur unter Dauerlast austesten und nicht einmal 10 Minuten mit benchen austesten.
b) Vielleicht habe ich Dir jetzt aber auch nur deine Illusionen genommen bezüglich des G80 wenn du so reagierst
c) Du musst nicht persönlich noch beledigend werden (wir kennen uns nicht), und woher willst du wissen, dass ich keine Ahnung habe. Ich helfe lediglich diesen Thread und 3d-center (zumal es eine der besten Informationsseiten ist) mit Informationen und Details aus, ob nun 100% handfest oder ob als Gerücht. Immerhin ist das hier (noch) ein "Spekulatius-Thread" über den G80
d) Sorry für OT

Gruß
-Ghosty
nVidia (das sind die, die die GPU und das Referenzdesign herstellen, falls du es nicht weißt) selbst sagt 450W/30A fuer die 8800GTX.

Ich habe sogar noch ein Interview von letztens im Ohr, wo ebenfalls einer von nV sagte: Alles was momentan für ein SLI-Gespann ausreicht, reicht auch dicke für eine 8800GTX.

Die Füllraten-Anforderung bleibt dieselbe.

Es ging mir nicht um die Füllrate, sondern um den Vorgang um zu dem RG-Muster zu kommen. Das benötigt momentan mehr als einen Takt....d.h. dort kann man noch verbessern in dem man es durch was dediziertes ersetzt (was natürlich nicht geschehen wird).

Ailuros
2006-11-03, 13:04:58
a) Das sind Zitate und kein --Mist--. Wer lesen kann ist klar im Vorteil. Ich habe meine persönliche Meinung oder ein Testergebnis dazu meinerseits nicht deklarieren lassen. Sie stammen von Vendors, die alle den G80 bereits haben. Dein Bekannter, der offensichtlich über sehr viel Budget und einem Testlabor verfügt, hatte nicht einmal die Zeit sich ein besseres Netzteil zu besorgen und "experimentiert" mal freudig mit so einer teuren Karte herum. Außerdem sollte man so etwas nur unter Dauerlast austesten und nicht einmal 10 Minuten mit benchen austesten.

Anscheinend liegt Dir das lesen auch nicht besonders gut, denn es dauerte mehr als einen Versuch Dich darauf aufmerksam zu machen, dass die angegebenen Daten uebertrieben sind.

Mein "Freund" fuehrt eine der anerkanntesten 3D Seiten und ist ein paar grosse Schritte entfernt von einem Laien. Er hat mehr als eine GPU im Einsatz und da es Gott sei Dank auch mit einem 420W PSU geht, sollte es Dir etwas sagen.

Vendors haben gewisse Interessen und Du nicht. Das erstmal klargesetzt machen wir weiter:

b) Vielleicht habe ich Dir jetzt aber auch nur deine Illusionen genommen bezüglich des G80 wenn du so reagierst

Dass ich genaue Daten ueber G80 habe und Du nicht, kann man in paar Sekunden sehen wenn man ein bisschen diesen Thread durchliest.

c) Du musst nicht persönlich noch beledigend werden (wir kennen uns nicht), und woher willst du wissen, dass ich keine Ahnung habe. Ich helfe lediglich diesen Thread und 3d-center (zumal es eine der besten Informationsseiten ist) mit Informationen und Details aus, ob nun 100% handfest oder ob als Gerücht. Immerhin ist das hier (noch) ein "Spekulatius-Thread" über den G80.

Wieviele G80 sind schon durch deine Haende momentan gelaufen? Da man die Antwort leicht erraten kann, beantworte die Frage ob Du eine Ahnung hast oder nicht dann selber.

Und es ist mir auch gleichgueltig wer sich betroffen oder beleidigt fuehlt; mir geht es darum dass keine unnoetige Panikmache fuer die User vorgeht und dass sie so gut wie moeglich informiert werden. Ob es Dir nun passt oder nicht man braucht NUR ein PSU mit 30A auf dem +12V rail fuer eine G80, und ich bestehe auch darauf weil ich genau Stromverbrauch-messungen in der Hand habe.

Gast
2006-11-03, 13:07:39
Diese persönlichen Angriffe sind definitiv nicht für die Reputation gut. Sollte man lassen, vor allem wenn kein Gegenbeweis aufgrund Langzeittests vorhanden ist. Wäre es ein anderer Teilnehmer, wäre dieser für solche Aussagen bestimmt verwarnt worden. Sind doch eh alles Spekulationen. Warum also aufeinander herumhacken?

crane
2006-11-03, 13:18:42
Ob es Dir nun passt oder nicht man braucht NUR ein PSU mit 30A auf dem +12V rail fuer eine G80, und ich bestehe auch darauf weil ich genau Stromverbrauch-messungen in der Hand habe.

D.h., dass ein Enermax Liberty 500W mit 2 12V Schienen a 22A ausreicht oder muss auf einer 12 Volt Schiene 30A sein ?

DerRob
2006-11-03, 13:30:59
D.h., dass ein Enermax Liberty 500W mit 2 12V Schienen a 22A ausreicht oder muss auf einer 12 Volt Schiene 30A sein ?
wenn du beide 12V schienen an die grafikkarte anschließt, wirds wohl reichen ;)

edit: wobei es dann mit den restlichen komponenten doch etwas knapp werden könnte. die combined-leistung der beiden 12V leitung beträgt nämlich auch nur 32A, das heißt, es bleiben im ungünstigsten fall nur noch 2A für das restliche system... ;(

oder ist bei den leistungsanforderungen von nvidia das restliche system bereits mit einberechnet?

Gast
2006-11-03, 13:37:23
D.h., dass ein Enermax Liberty 500W mit 2 12V Schienen a 22A ausreicht oder muss auf einer 12 Volt Schiene 30A sein ?Ja, reicht dicke.
edit: wobei es dann mit den restlichen komponenten doch etwas knapp werden könnte. die combined-leistung der beiden 12V leitung beträgt nämlich auch nur 32A, das heißt, es bleiben im ungünstigsten fall nur noch 2A für das restliche system... ;(NV meint mit den 30 A auf der 12-V-Rail nicht nur die Grafikkarte. Die Empfehlung gilt für das Gesamtsystem und da wurde auch schon berücksichtigt, dass dort ein Prescott/Smithfield/Presler zum Einsatz kommen könnte

Gast
2006-11-03, 13:43:07
edit: wobei es dann mit den restlichen komponenten doch etwas knapp werden könnte. die combined-leistung der beiden 12V leitung beträgt nämlich auch nur 32A, das heißt, es bleiben im ungünstigsten fall nur noch 2A für das restliche system... ;(

oder ist bei den leistungsanforderungen von nvidia das restliche system bereits mit einberechnet?
Ich gehe mal davon aus, dass die 30A auf 12V nicht exclusiv für die nVidia-Karte gemeint sind - sonst würden wir nicht von einem PC-Netzteil, sondern einem Graka-Netzteil sprechen.

Ailuros
2006-11-03, 13:45:17
Also ein Tagan 580W mit 20A (split) und 32A (combined) haelt den Brummer auch aus.

***edit: mein UPS zeigt den Load ganz grob an; bei 1500VA steigt der Pegel unter Last nur auf 2/5.

Gast
2006-11-03, 13:57:38
@Gast: Das sind gepürfte Netzteile, es ist eine Empfehelung von den Vendors.

-Ghosty
Welches Vendors und was ist deine Quelle? Wie hier schon mehrfach gesagt wurde, gibt der GPU-Hersteller Nvidia selbst deutlich andere Werte an.

Gaestle
2006-11-03, 14:04:44
Diese persönlichen Angriffe sind definitiv nicht für die Reputation gut. Sollte man lassen, vor allem wenn kein Gegenbeweis aufgrund Langzeittests vorhanden ist. Wäre es ein anderer Teilnehmer, wäre dieser für solche Aussagen bestimmt verwarnt worden. Sind doch eh alles Spekulationen. Warum also aufeinander herumhacken?

Reputation hin oder her, ich persönlich habe mich gefragt, warum er solange ruhig geblieben ist, bei dieser geballten Ladung Ignoranz und sinnfreier Marktschreierei hier im Thread, von Leuten, die offensichtlich genauso viel Schimmer von der Materie haben, wie ich (nämlich keinen).

Moralelastix
2006-11-03, 14:06:22
NVIDIA "G80" GeForce 8800GTX Performance Explored
http://www.dailytech.com/article.aspx?newsid=4812

Blackpitty
2006-11-03, 14:06:29
hoffe das ist neu: 8800GTX knapp 60% schneller als eine x1950XTX:eek:


:edit: mist, zu langsam;( ;(


http://www.dailytech.com/article.aspx?newsid=4812

Ailuros
2006-11-03, 14:08:04
Power consumption was measured using a Kill-A-Watt power meter that measures a power supply’s power draw directly from the wall outlet. The power supply used in the test system is a Thermaltake Toughpower that carries an efficiency rating up to 85%.

DailyTech previously reported NVIDIA recommends a 450-watt power supply for a single GeForce 8800GTX graphics card. This isn’t too farfetched of a recommendation. Power consumption of NVIDIA’s GeForce 8800GTX isn’t as bad as expected. When compared to AMD’s current flagship ATI Radeon X1950 XTX, the GeForce 8800GTX only consumes 24% more power at idle. The power consumption differences under load decreases to around 4%. Considering the performance differences, the GeForce 8800GTX is no worse than AMD’s ATI Radeon X1950 XTX in terms of performance-per-watt.

http://www.dailytech.com/article.aspx?newsid=4812

GeForce8800GTX = 321W (system consumption under load)
X1950XTX = 308W

Ailuros
2006-11-03, 14:11:58
hoffe das ist neu: 8800GTX knapp 60% schneller als eine x1950XTX:eek:


:edit: mist, zu langsam;( ;(


http://www.dailytech.com/article.aspx?newsid=4812

HL2 = +93%
Q4 = +93%
Prey = +60%

So und jetzt bleiben noch die hoeheren AA-modi uebrig und um einiges hoehere Aufloesungen.

DrumDub
2006-11-03, 14:14:17
http://www.dailytech.com/article.aspx?newsid=4812
der wert bei q4 wirkt bei der x1950xtx viel zu niedrig. möchte gerne mal wissen, was die da gemessen haben...

deekey777
2006-11-03, 14:14:23
Es ist wieder das gleiche wie Anfang Sommer, als auf der Computex (http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770) Netzteile mit einer Leistung von 1000 W gezeigt wurden, die aufgrund der Empfehlungen seitens der Grafikkartenhersteller entwickelt wurden.
Und da ging das Theater los, dass die kommenden Grafikkarten 300 W verbrauchen. Später kamen noch Fehlinformationen, der R600 braucht gleich drei Slots für die Kühlung und verbraucht zig tausend Watt, die aber für falsch bzw. missverstanden erklärt wurden.
Die Netzteilhersteller müssen ihre Produkte verkaufen. Man nutzt die verbreitete Angst, dass die 800GTX mit deren zwei 12-V-Anschlüssen gleich eine 10000000 W braucht, und verbreitet solche Empfehlungen. Dass so eine geschäftsschädigende Liste nicht von nVidia kommen kann, soll doch jedem klar sein.
Ailuros' Einwand ist absolut berechtigt: Man muss hier nicht irgendwelche Sachen posten, ohne diese vorher kritisch zu betrachten.

Ailuros
2006-11-03, 14:24:09
der wert bei q4 wirkt bei der x1950xtx viel zu niedrig. möchte gerne mal wissen, was die da gemessen haben...

Stimmt schon aber man kann ja auch nicht wissen was fuer ein timedemo sie genau benutzt haben; wie dem auch sei ich wuerde selber weder Q4 noch HL2 in einem Vergleich benutzen.

Ronny145
2006-11-03, 14:25:14
HL2 = +93%
Q4 = +93%
Prey = +60%

So und jetzt bleiben noch die hoeheren AA-modi uebrig und um einiges hoehere Aufloesungen.



Dazu noch das Treiberpotenzial und wir können von über 100% ausgehen in hohen settings. Unter Volllast fast der gleiche Verbrauch wie die X1950XTX, ist doch nicht übel und die GT sollte drunter liegen. Hätte da mehr erwartet für "nur" 90 nm. Nur der Idle Verbrauch ist etwas hoch.

Ailuros
2006-11-03, 14:30:42
Launch Treiber hat noch keiner.

deekey777
2006-11-03, 14:31:48
Stimmt schon aber man kann ja auch nicht wissen was fuer ein timedemo sie genau benutzt haben; wie dem auch sei ich wuerde selber weder Q4 noch HL2 in einem Vergleich benutzen.
Überhaupt:
DailyTech schreibt was von "HL2: Lost Coast", aber wenn sie den integrierten Benchmark benutzt haben, ist das Ergebnis weltfremd, besser gesagt: Man weiß nur, welche Lesitung die einzelnen Grafikkarten im HL2: LC VST erreichen. Dumm nur, dass zB das HDR-Lightning oder Bloom nicht zum Einsatz kommen. Man braucht eine selbstaufgezeichnete Sequenz, um irgendwelche Schlüße zB auf HL2: Ep. 1 zu ziehen.

Slipknot79
2006-11-03, 14:57:41
http://images.dailytech.com/nimage/2872_large_2870_large_G80_2.jpg


Ganz schön viele Schrauben für ne Kühlung :(

Blackpitty
2006-11-03, 15:05:14
Auch nicht mehr als sonst!

Die kleinen in der Mitte halten dieses Kranz-HS um-auf der GPU fest

stav0815
2006-11-03, 15:11:10
Auch nicht mehr als sonst!

Die kleinen in der Mitte halten dieses Kranz-HS um-auf der GPU fest

ICh weiss ja ned wie das bei dir ist, aber meine 6800GT hat 4 Schrauben um den Kühler zu halten :confused:

Slipknot79
2006-11-03, 15:16:42
Auch nicht mehr als sonst!

Die kleinen in der Mitte halten dieses Kranz-HS um-auf der GPU fest



Um ne Wakü zu montieren, muss ich mit 19 Schrauben hantieren. Vor 1 Jahr (7800GTX) waren es noch 12.

Und weil man die Schrauben nicht verlieren will, kommen die zur Lagerung wieder in den Kühler rein. Also heißt es erneut mit 19 Schrauben zu hantieren. Also muss ich 38mal herumschrauben, vor 1 Jahr war es noch 24mal (2x12).

AnarchX
2006-11-03, 15:17:34
ICh weiss ja ned wie das bei dir ist, aber meine 6800GT hat 4 Schrauben um den Kühler zu halten :confused:
Bei einer 7900GTX/GTO sind es mittlerweile auch schon neun sichtbare Schrauben. (http://pics.computerbase.de/1/5/7/0/2/7.jpg);)

Bei den 800Gramm der 8800GTX brauch es halt ein paar mehr Schrauben.

Gast
2006-11-03, 15:32:48
So wie das Lüfterdesign aussieht, wird man allerdings wohl nicht so das ganz große Bedürfnis haben, schnell einen Neuen drauf zu basteln. Sieht deutlich gelungener aus, als der ATI Lüfter. Bei diesem war die Idee gut, nur die Ausführung lies zu wünschen übrig.

Gibt es schon Messungen zur Laustärke unter Vollast und Idle?

dargo
2006-11-03, 15:32:52
Bis jetzt überzeugt mich der G80 noch nicht. Da er anscheinend sehr CPUlimitiert ist, können wohl nur die Wenigsten die volle Leistung dieser Karte entfachen.
Ich kann dir garantieren, dass selbst eine G8800GTX in Quake4 mit 1280x1024 4xAA/16xAF mit einem Core 2 Duo @3,3Ghz limitiert. ;)
Und das ist praktisch in jedem Ego-Shooter der Fall.

Gast
2006-11-03, 15:40:16
Um ne Wakü zu montieren, muss ich mit 19 Schrauben hantieren. Vor 1 Jahr (7800GTX) waren es noch 12.

Und weil man die Schrauben nicht verlieren will, kommen die zur Lagerung wieder in den Kühler rein. Also heißt es erneut mit 19 Schrauben zu hantieren. Also muss ich 38mal herumschrauben, vor 1 Jahr war es noch 24mal (2x12).

Um dir das zu ersparen, werden die Dinger ja auch vormontiert ausgeliefert. Bastler haben eben Pech gehabt. Wobei ich Schrauben ja noch besser finde, als Klebstoff, den man nur im Backofen oder in der Kühltruhe loswird. :)

Gast
2006-11-03, 15:50:56
Du würdest nicht ernsthaft solch filigrane Halbleiter und Elkos in einen Backofen stecken? Das wäre mehr als mutig.

dargo
2006-11-03, 15:53:32
Trotzdem sind die Zahlen unrealistisch.
Ich warte da lieber auf Zahlen von erfahrenen Testern.
Die getestete X1900XT hatte 256MB (was für total bekloppter Vergleich mal wieder :uhammer: ). Anscheinend ging ihr der Speicher aus, deswegen der hohe Einbruch.

WEGA
2006-11-03, 15:55:57
kannste 100w mehr druf packen
tjo, also laut dailytech brauch sie unter last keine 20W mehr als eine 1950xtx

Gast
2006-11-03, 15:56:04
Du würdest nicht ernsthaft solch filigrane Halbleiter und Elkos in einen Backofen stecken? Das wäre mehr als mutig.
Ich denke, dass du trotz deines Postings meine Intention verstehst.

dargo
2006-11-03, 15:59:24
http://www.dailytech.com/article.aspx?newsid=4812

GeForce8800GTX = 321W (system consumption under load)
X1950XTX = 308W
:up:

Dann hatte ich doch recht mit den 130-140W für eine G8800GTX. :)
Gibt es schon Werte der G8800GTS?

Müsste bei ca. 100-110W liegen wenn NV die Spannung etwas gesenkt hat.

WEGA
2006-11-03, 16:04:54
:up:

Dann hatte ich doch recht mit den 130-140W für eine G8800GTX. :)
Gibt es schon Werte der G8800GTS?

Müsste bei ca. 100-110W liegen wenn NV die Spannung etwas gesenkt hat.
braucht bestimmt einiges weniger. die hat ja auch ein kleineres layout.
110 schätze ich auch mal.

dargo
2006-11-03, 16:09:03
Nur der Idle Verbrauch ist etwas hoch.
Der ist sogar deutlich zu hoch. Ich würde aber erstmal die nächsten Treiber abwarten. Das Problem kennen wir schon vom R520. :wink:
Es ist durchaus möglich, dass bestimmte Einheiten in 2D nicht abgeschaltet werden (oder die Spannung nicht gesenkt wird) wie es eigendlich geplant war.

Edit:
Man muss sich das mal nur durch den Kopf zergehen lassen. Die G8800GTX braucht in Idle laut dieser verlinkten Messung ca. 78W! :|

Das ist schon fast 3D Niveau einer G7900GTX. ;D

Nee, da stimmt was mit dem Treiber nicht, wenn dailytech richtig gemessen haben.

Atma
2006-11-03, 16:20:24
229 Watt fürs idlen bei der GTX finde ich verdammt viel.. warum werden bei GPU's keine Stromspartechniken für den idle Modus entwickelt ? Technisch sollte es doch möglich sein nicht benötigte Teile in der GPU abzuschalten wenn sie nicht gebraucht werden oder ?

dargo
2006-11-03, 16:21:43
229 Watt fürs idlen bei der GTX finde ich verdammt viel.. warum werden bei GPU's keine Stromspartechniken für den idle Modus entwickelt ? Technisch sollte es doch möglich sein nicht benötigte Teile in der GPU abzuschalten wenn sie nicht gebraucht werden oder ?
Hast du überhaupt den Beitrag vor dir gelesen? :)

WEGA
2006-11-03, 16:32:06
229 Watt fürs idlen bei der GTX finde ich verdammt viel.. warum werden bei GPU's keine Stromspartechniken für den idle Modus entwickelt ? Technisch sollte es doch möglich sein nicht benötigte Teile in der GPU abzuschalten wenn sie nicht gebraucht werden oder ?
allein wenn man die zahl sieht kann man sich doch denken, dass es das ganze system ist.

Gaestle
2006-11-03, 16:32:25
Hast du überhaupt den Beitrag vor dir gelesen? :)

Er bezieht sich wohl auf die DailyTech-Werte und diese wiederum beziehen sich auf das ganze System (mit allem drum und dran).

DiGiTaL
2006-11-03, 16:39:40
Launch Treiber hat noch keiner.

Das bedeutet?

Ist der Launch Treiber noch besser/schneller? :rolleyes:

Die gelbe Eule
2006-11-03, 16:40:57
Es gibt einfach noch keinen :)

deekey777
2006-11-03, 16:42:25
allein wenn man die zahl sieht kann man sich doch denken, dass es das ganze system ist.
So wie ich sein Posting lese, hat er nichts anderes geschrieben. Er schreibt nur, dass der Idlen mit der 8800GTX viel Saft verbraucht.

dargo
2006-11-03, 17:02:21
Er bezieht sich wohl auf die DailyTech-Werte und diese wiederum beziehen sich auf das ganze System (mit allem drum und dran).
Das Gesamtsystem ist völlig uninteressant. Ich sehe zumindest keine Angaben zum NT. Außerdem wurde ein "kleiner" Stromfresser @Kentsfield und ein NV Board benutzt.

Kleine Übersicht:
Eine X1950XTX liegt bei 33W in Idle. Zählt man die gemessene Differenz von dailytech zu den 33W kommt man auf die von mir genannten 78W. Natürlich darf man nicht genau den Differenzbetrag von 45W nehmen da sich die Effizienz des NT unter Umständen bei anderer Last etwas ändern kann. Normalerweise ist sie bei höherer Last etwas besser solange man das NT nicht am Limit betreibt.

Somit würde ich von ca. 70-80W für die G8800GTX in Idle ausgehen, was natürlich ein schlechter Scherz von NV wäre. Ich tippe auf einen nicht ausgereiften Treiber.

Gast
2006-11-03, 17:10:09
du könntest Hellseher werdern :-(

Gast
2006-11-03, 17:13:05
woher willst du wissen das idle zu hoch ist
40w mehr für eine neue Karte sind doch nicht viel

dargo
2006-11-03, 17:14:23
du könntest Hellseher werdern :-(
Hehe. :)

Ich weiß nicht ob du dich an den Launch vom R520 erinnerst. Als die ersten Karten gemessen wurden war der tatsächliche Stromverbrauch in 2D einiges höher als mit späteren Treibern. Ich glaube dieser Bug wurde erst mit dem Cat. 5.11 behoben (weiß es nicht mehr so genau). Genau so einen Bug vermute ich jetzt im G80.


40w mehr für eine neue Karte sind doch nicht viel
In Idle sind das Welten. Wozu Energie verschwenden?

Spasstiger
2006-11-03, 17:18:39
woher willst du wissen das idle zu hoch ist
40w mehr für eine neue Karte sind doch nicht viel
Viele Spielerechner brauchen unter Idle nichtmal 100 Watt (z.B. Athlon 64 @ Cool'n'Quiet + GeForce 6800 NU + 1 GB RAM).

Gast
2006-11-03, 17:20:00
Wenn der hohe Idle-Verbrauch sich bestätigt ist das in der Tat schlecht. Aber vielleicht sollten erstmal weitere Testberichte abgewartet werden?

Gast
2006-11-03, 17:20:32
Ein Thermaltake Toughpower - Netzteil benutzen die, steht da.

bestimmt 550W

Gast
2006-11-03, 17:37:31
Macht euch mal keine Sorgen um den Stromverbrauch im Idle. Da werden wohl die Stromsparfunktionen noch nicht aktiv gewesen sein. War ja bei R520 auch so, wie Dargo schon anmerkte. Das wird aber schon noch kommen. Ich sehe keinen Grund warum der G80 im Idle absolut gesehen nennenswert mehr verbrauchen sollte als ein R580.

Gast
2006-11-03, 17:39:17
Grafikkartenpower.de hat die Karten gelistet.

crane
2006-11-03, 17:46:33
Grafikkartenpower.de hat die Karten gelistet.

Unter € 600,- für die GTX - nicht schlecht...
GTS für € 100,- weniger...

dargo
2006-11-03, 17:47:10
Ein Thermaltake Toughpower - Netzteil benutzen die, steht da.

bestimmt 550W
Sorry, hab es glatt übersehen. :redface:

Sie mussten mindestens das Thermaltake Toughpower 600W genommen haben. Das 550W Modell hat eine Effizienz bis 80%.

Gehen wir davon aus, dass bei der Last mit der X1950XTX in Idle das NT noch eine Effizienz von 80% aufweist, würde es folgendermassen aussehen:

System mit X1950XTX (brutto/netto) - 184W/147,2W
System mit G8800GTX (brutto/netto) - 229W/183,2W

Die X1950XTX hat in Idle, wie gesagt, 33W. Würde also für die G8800GTX 69W in Idle bedeuten. Vorrausgesetzt natürlich, in beiden Fällen (184W zu 229W) ist die Effizienz des NTs gleich.

Bin gespannt was bald xbitlabs dazu sagt. :D

up¦²
2006-11-03, 17:57:50
Zum ersten mal schneller als die österreicher :smile:
NL-pricewatch für g80:
http://tweakers.net/pricewatch/zoeken?keyword=8800&catID=&scoreMin=&priceMin=0&priceMax=&land=

http://img508.imageshack.us/img508/1060/28816wl6.jpg

überraschung: die gts könnte unter 400 auftauchen ...

Dunkeltier
2006-11-03, 18:02:06
Viele Spielerechner brauchen unter Idle nichtmal 100 Watt (z.B. Athlon 64 @ Cool'n'Quiet + GeForce 6800 NU + 1 GB RAM).

Das ist aber kein Spielerechner mehr, sondern nur noch unteres Mainstream. :rolleyes:

Gast
2006-11-03, 18:06:15
komisch da steht überall GDDR4

Gast
2006-11-03, 18:08:43
Zum ersten mal schneller als die österreicher :smile:
NL-pricewatch für g80:
http://tweakers.net/pricewatch/zoeken?keyword=8800&catID=&scoreMin=&priceMin=0&priceMax=&land=

überraschung: die gts könnte unter 400 auftauchen ...


Sind viele Fehlerhafte Produktbeschreibungen im Netz, GDDR4, is klar. Aber Preise sind gut, Niederlande sind meist auf deutschem Preis-Niveau.

dargo
2006-11-03, 18:08:53
komisch da steht überall GDDR4
Auf dem bunten Karton von MSI steht aber DDR3. :wink:

up¦²
2006-11-03, 18:14:39
Sind viele Fehlerhafte Produktbeschreibungen im Netz, GDDR4, is klar. Aber Preise sind gut, Niederlande sind meist auf deutschem Preis-Niveau.
NL meist min. 10% über D, aber mal abwarten: ist ja spannend wie beim eröffnungskurs!
Salland ist übrigens seriös, wundert mich wegen des ddr4-fehlers ...
aber ausschliessen würde ich nicht, dass eine vierer auftaucht :rolleyes:

http://img75.imageshack.us/img75/1630/28819tl5.jpg
BFG GeForce 8800 GTX

AnarchX
2006-11-03, 18:16:21
Nvidia speeds up 80nm production schedule to beat ATI
[...]The revised versions of G73 (codenamed G73-B1) and G72, along with the highly anticipated G80, will be targeted to compete with ATI solutions from mid-range to high-end market segments, the paper noted. [...]
http://www.digitimes.com/bits_chips/a20061103PB208.html
Aber anhand des Stromverbrauchs war es ja schon klar, dass es sich um 80nm handelt.

Also sind für einen Refresh vielleicht 65nm gar nichtmal so unrealistisch...

up¦²
2006-11-03, 18:25:10
http://www.digitimes.com/bits_chips/a20061103PB208.html
Aber anhand des Stromverbrauchs war es ja schon klar, dass es sich um 80nm handelt.

Also sind für einen Refresh vielleicht 65nm gar nichtmal so unrealistisch...

Irgendein TSMC bobo hatte sich doch neulich verplappert :biggrin:
http://www.xbitlabs.com/news/video/display/20061026014448.html

Spasstiger
2006-11-03, 19:14:10
Das ist aber kein Spielerechner mehr, sondern nur noch unteres Mainstream. :rolleyes:
Mein Spielerechner ist ein P4 2,53 GHz mit Radeon 9700 ...

AnarchX
2006-11-03, 19:21:49
Bilder verschiedenener GTS/GTX

http://i133.photobucket.com/albums/q74/biggaroupa/xfx_8800_gts.jpg
http://i133.photobucket.com/albums/q74/biggaroupa/pny_8800_gtx.jpghttp://i133.photobucket.com/albums/q74/biggaroupa/pny_8800_gts.jpg
http://i133.photobucket.com/albums/q74/biggaroupa/evga_8800_gts.jpg
http://i133.photobucket.com/albums/q74/biggaroupa/bfg_8800_gtx.jpghttp://i133.photobucket.com/albums/q74/biggaroupa/bfg_8800_gts_2.jpg
http://i133.photobucket.com/albums/q74/biggaroupa/bfg_8800_gts_1.jpg

http://we.pcinlife.com/thread-647763-1-1.html

SentinelBorg
2006-11-03, 19:23:10
Irgendwie sind die Preise momentan etwas seltsam. Entweder ist die GTS zu teuer oder die GTX zu günstig. Denn im Schnitt ist die GTX nur 30% teurer als die GTS, von der reinen Shaderleistung liegt sie aber 50% vor der GTS. Zudem man von den GTS eigentlich ein besseres Preis/Leistungsverhältnis erwarten dürfte, als von der GTX.

Mindfactory hat übrigens nun auch zwei von Sparkle gelistet: GTS für 521€ und die GTX für 679€.

Sentinel

dargo
2006-11-03, 19:28:11
Vorbildlich finde ich auch, dass anscheinend jeder Hersteller noch einen PCIe Stromadapter beilegt, auch wenn Dieser kaum noch was kostet.