PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread Second Edition


Seiten : 1 [2]

Majestic
2004-07-04, 20:25:37
Original geschrieben von seahawk
Und wer sich eine X800 kaufen will, der muss nicht unbedingt im GeForce6800 Thread immer nur die Vorteile der X800 posten und die Nachteile der GeForce anprangern.

Dann soll er einen Thread aufmachen mit dem Titel "Warum ich die X800 viel besser finde" und fertig.

Manche haben halt immer das zwangvolle Bedürfnis andere mit ihrer Einstellung missionieren zu wollen. Ich finde auch wer sich ne X800 (wirklich gute Karte) holen will und die Nvidia nicht mag soll das tun und anderen die Vorfreude auf neues Schmuckstück nicht verderben durch ewiges Störfeuer.

Mmmmmh
2004-07-04, 21:08:56
Original geschrieben von aths
Das wird man nie erreichen.

Das ist auch nicht sooo wichtig. Beispiel die NRM_PP-Hardware: Praktisch kein Shader kann pro Takt eine NRM_PP-Anweisung gebrauchen. Insofern ist diese Lösung ineffizient. Aber wegen der höheren Rohleistung natürlich besser, als wenn NRM grundsätzlich nach der oldschool-Methode gemacht werden müsste. Zwei (jeweils auf bestimmte Operationen limitierte) Shaderunits pro Takt auszulasten ist prinzipiell schwieriger, als nur eine (Allzweck-) Unit auszulasten.

Okay war etwas unglücklich ausgedrückt mit der 100%igen Auslastung. Was ich meine ist, ob man noch Leistung herausholen kann, indem man die Arbeit(Effektivität) der Shaderunits verbessert. Soweit ich das weiß und verstanden habe, verfügt die erste Shaderunit vereinfacht gesagt über eine Multiplikationsfunktion und über spezielle Funktionen zum Laden von Texturen, außerdem die FP16- Normalisierung und weitere einfache rechenfunktionen. Die zweite Shaderunit ist aber nur auf basis rechenfunktionen beschränkt. Müsste doch noch ein bißchen was herauszuholen sein wenn man die Zusammenarbeit beider Shaderunits über den Shadercompiler verbessert? Mmh Oder lieg ich da völlig falsch?

aths
2004-07-04, 21:29:33
Original geschrieben von Mmmmmh
Okay war etwas unglücklich ausgedrückt mit der 100%igen Auslastung. Was ich meine ist, ob man noch Leistung herausholen kann, indem man die Arbeit(Effektivität) der Shaderunits verbessert. Soweit ich das weiß und verstanden habe, verfügt die erste Shaderunit vereinfacht gesagt über eine Multiplikationsfunktion und über spezielle Funktionen zum Laden von Texturen, außerdem die FP16- Normalisierung und weitere einfache rechenfunktionen. Die zweite Shaderunit ist aber nur auf basis rechenfunktionen beschränkt. Müsste doch noch ein bißchen was herauszuholen sein wenn man die Zusammenarbeit beider Shaderunits über den Shadercompiler verbessert? Mmh Oder lieg ich da völlig falsch? Die zweite Shader Unit kann immerhin auch addieren, oder Skalarprodukte berechnen, was die erste Unit nicht kann. Außer RCP und RSQ sitzen alle weiteren SFUs in der zweiten Shader Unit. Mein nächster großer Artikel für 3DCenter ist auf drei Teile angelegt, wobei der zweite Teil genauer auf Optimierungsmöglichkeiten eingeht.

DanMan
2004-07-04, 21:31:34
Original geschrieben von aths
Weil ich nicht einsehe, dass ATI und NV nach Belieben mit dem Begriff HDR umgehen :) und praktisch alles was über FX8 (also über 1,0) hinaus geht schon HDR nennen.
Fällt eigentlich nur mir auf, dass NV das Merkmal HPDR nennt und nicht HDR? High-Precision Dynamic Range, nicht High Dynamic Range.

Mmmmmh
2004-07-04, 21:35:23
Ahh na dann werd ich ja bald meine Fragen detailiert beantwortet bekommen.
*gespanntundwartenddenwissensdrangzustillen*

PS: Wann kommt denn der Dreiteiler?:wink2:

aths
2004-07-05, 02:00:09
Original geschrieben von Mmmmmh
Ahh na dann werd ich ja bald meine Fragen detailiert beantwortet bekommen.Ganz so detailliert wird's leider nicht – etliche Details kriege ich nicht eingeordnet (scheinen widersprüchlich) weshalb ich sie weglasse. Sinn soll sein, eine Ahnung davon zu kriegen unter welchen Gesichtspunkten NV die Pipe im NV40 gestaltete.

Original geschrieben von Mmmmmh
PS: Wann kommt denn der Dreiteiler?:wink2: It's not done! It's done when it's done! Um es mit Mark Rein zu sagen: Two weeks. (Achtung, zwei mal Insider.)

aths
2004-07-05, 02:00:32
Original geschrieben von DanMan
Fällt eigentlich nur mir auf, dass NV das Merkmal HPDR nennt und nicht HDR? High-Precision Dynamic Range, nicht High Dynamic Range. Das fällt auch mir auf. Aber seit wann ist FP16 "high precision"?

Melbourne, FL
2004-07-05, 04:34:47
Original geschrieben von LovesuckZ
Nein, man hat die vermurkste Qualitaet wieder gerade gerichtet.

Hmm...das kann man aber mit dem Tommi-Systems Patch auch und ich hab da von den Nvidia Usern nur gutes gelesen, dass der Performancedrop gering waere (bei FP16). Ausserdem gibt es laut einigen Experten hier noch gewaltiges Optimierungspotential fuer die NV3X Serie...deswegen hab ich da eigentlich mehr erwartet.

Original geschrieben von LovesuckZ
Vergleiche bei Firingsquad mal die AA und AA/AF vergleiche.

Danke fuer den Hinweis! ATI hat also eine echt flotte AF-Optimierung gebaut. Ich wuerde mir wuenschen, dass sich das mal jemand genauer ansieht. Ich persoenlich stoere mich z.B. am brilinearen Filter nicht...aber die LOD-Optimierung wuerde ich bestimmt bemerken...ich bin recht anfaellig was flimmern angeht. Waere doch interessant mal rauszukriegen, wie die Performance mit brilinearer aber ohne LOD-Optimierung aussieht.

@Demirug: Lies mal dieses Interview...da werden einige interessante Fragen beantwortet, z.B. dass im 1.2 Patch static branching verwendet wird und dass im 1.3 Patch Unterstuetzung fuer HDR bei Nvidia und 3dc bei ATI geplant ist: http://firingsquad.com/features/crytek_far_cry/

Alexander

Demirug
2004-07-05, 07:35:49
Original geschrieben von Melbourne, FL
@Demirug: Lies mal dieses Interview...da werden einige interessante Fragen beantwortet, z.B. dass im 1.2 Patch static branching verwendet wird und dass im 1.3 Patch Unterstuetzung fuer HDR bei Nvidia und 3dc bei ATI geplant ist: http://firingsquad.com/features/crytek_far_cry/

Alexander

In erster Näherung werden da Behauptungen aufgestellt. Das sie static branching benutzten ist zwar nicht ganz falsch aber in so fern nicht richtig das die Karte mit Patch 1.2 keinen Branch zu sehen bekommt. Die Branchs und Loops gibt es nur in den HLSL Scripten.

Zudem würden sie auch am 2.0 Instruction limit hängen wenn sie mal entsprechend optimieren würden.

Mmmmmh
2004-07-05, 10:26:26
Original geschrieben von aths
Ganz so detailliert wird's leider nicht – etliche Details kriege ich nicht eingeordnet (scheinen widersprüchlich) weshalb ich sie weglasse. Sinn soll sein, eine Ahnung davon zu kriegen unter welchen Gesichtspunkten NV die Pipe im NV40 gestaltete.


Das ist doch erstmal detailiert genug für mich, um die Pipe ein bißchen besser verstehn zu können.

Na dann freu ich mich schon "demnächst" also einen netten kleinen Artikel darüber lesen zu dürfen.


It's not done! It's done when it's done! Um es mit Mark Rein zu sagen: Two weeks. (Achtung, zwei mal Insider.)

Schon klar!:D

r@w
2004-07-05, 13:01:29
Original geschrieben von Demirug
In erster Näherung werden da Behauptungen aufgestellt. Das sie static branching benutzten ist zwar nicht ganz falsch aber in so fern nicht richtig das die Karte mit Patch 1.2 keinen Branch zu sehen bekommt. Die Branchs und Loops gibt es nur in den HLSL Scripten.Im HLSL-Script gibt es Loops and Branches und wenn man diese auf SM3 compiliert, verschwinden diese?
:???:
Original geschrieben von Demirug
Zudem würden sie auch am 2.0 Instruction limit hängen wenn sie mal entsprechend optimieren würden. Auch hier...
Wieso sollten sie unter SM3 am "2.0 instruction limit hängen" ?

Ich denke mal, dass Melbourne auf den SM3-Pfad im Patch 1.2 hinaus wollte und nicht auf die modifizierten Shader unter SM2.

Oder habe ich da jetzt was falsch verstanden ?
:???:

Razor

Demirug
2004-07-05, 13:28:06
Original geschrieben von r@w
Im HLSL-Script gibt es Loops and Branches und wenn man diese auf SM3 compiliert, verschwinden diese?
:???:

Ja weil in dem Script an den entsprechenden Stellen vor dem kompilieren passenden Konstanten eingesetzt werden die dazu führen das der Compiler die Loops und Branches entfernt weil sie nicht mehr gebraucht werden. Das ist eine ähnliche Technik wie sie auch bei HL2 benutzt wird.

Auch hier...
Wieso sollten sie unter SM3 am "2.0 instruction limit hängen" ?

Ich denke mal, dass Melbourne auf den SM3-Pfad im Patch 1.2 hinaus wollte und nicht auf die modifizierten Shader unter SM2.

Oder habe ich da jetzt was falsch verstanden ?
:???:

Razor

Ich habe die Aussage im Interview so verstanden das sie bei 2.0 kein Problem mit dem Instruction limit hätten. Dazu dann eben mein Kommentar das wenn man die Lichtpass-Optimierungen die man bei SM3 Benutzt auch bei 2.0 benutzten würde eben ein Problem mit dem 2.0 Limit hätte.

r@h
2004-07-05, 14:11:19
Original geschrieben von Demirug
Ja weil in dem Script an den entsprechenden Stellen vor dem kompilieren passenden Konstanten eingesetzt werden die dazu führen das der Compiler die Loops und Branches entfernt weil sie nicht mehr gebraucht werden. Das ist eine ähnliche Technik wie sie auch bei HL2 benutzt wird.Ähmmm...
D.h., dass dann auch aus einem Shader(-Script) wieder mehrere compilierte Shader werden ?
Oder stehe ich jetzt endgültig auf dem Schlauch ?

Bei HL2 dachte ich eher an den Umstand, dass eben sehr komplexe Shader, die durchaus mit dynamic, also bedigtem Branching zu lösen gewesen wären, in viele kleine zerlegt wurden, weil es anders auf SM2-Hardware nicht zu lösen gewesen wäre...
Original geschrieben von Demirug
Ich habe die Aussage im Interview so verstanden das sie bei 2.0 kein Problem mit dem Instruction limit hätten. Dazu dann eben mein Kommentar das wenn man die Lichtpass-Optimierungen die man bei SM3 Benutzt auch bei 2.0 benutzten würde eben ein Problem mit dem 2.0 Limit hätte. OK, dann habe ich Dich hier falsch verstanden.

Dann ist allerdings der SM3-Pfad, hier bei FC, wohl aber als die einfachste Form der Implementierung dessen anzusehen, da ja nicht einmal ansatzweise die Möglichkeiten des SM3 genutzt werden.

Frage mich also nur, warum Crytek für diesen Patch solange gebraucht haben will...
Aber das steht wohl auf einem anderen Blatt.

Razor

Demirug
2004-07-05, 15:30:13
Original geschrieben von r@h
Ähmmm...
D.h., dass dann auch aus einem Shader(-Script) wieder mehrere compilierte Shader werden ?
Oder stehe ich jetzt endgültig auf dem Schlauch ?

Nein aus einem Shaderscript werden viele (sehr viele) Shader compiliert. Eben für jede mögliche Variante einer.

Bei HL2 dachte ich eher an den Umstand, dass eben sehr komplexe Shader, die durchaus mit dynamic, also bedigtem Branching zu lösen gewesen wären, in viele kleine zerlegt wurden, weil es anders auf SM2-Hardware nicht zu lösen gewesen wäre...
OK, dann habe ich Dich hier falsch verstanden.

Nein, die HL2 Shader enthalten statische Branching (wie die Farcry Shaderscripte auch). Da das bei SM2 nicht geht wird eben jede mögliche Variante compiliert und dann von der CPU die jeweils passenden gewählt. Das gleiche macht Farcry auch. Der Unterschied ist nur das manche der compilierte Shader für 2.0 und 2.X zu komplex sind weil sie zu viele Interpolatoren brauchen. 9 werden teilweise gebraucht und SM2 hat nur 8. Bei 2.0 reicht dann auch öfter mal die Länge nicht.

Dann ist allerdings der SM3-Pfad, hier bei FC, wohl aber als die einfachste Form der Implementierung dessen anzusehen, da ja nicht einmal ansatzweise die Möglichkeiten des SM3 genutzt werden.

Ja, man nutzt lediglich die Programmlänge und die zusätzlichen Interpolatoren.

Frage mich also nur, warum Crytek für diesen Patch solange gebraucht haben will...
Aber das steht wohl auf einem anderen Blatt.

Razor

Das musst du Crytek fragen. Wobei ich lieber wissen möchte warum man das ganze nicht schon früher für SM2 eingebaut hat.

r@h
2004-07-05, 19:45:28
Herzlichen Dank für den Hintergrund, Demirug.

Gehört hier vielleicht nicht ganz her, aber offenbar hat Crytek bei FiringSqad einiges dazu gesagt:
http://www.firingsquad.com/features/crytek_far_cry/
We’re using looping and branching mainly. We’re using the floating point FP16 FP 32 of course. But mainly we’re using the aspect of making sure that more lighting can be accomplished with flow control and branching so we can encode for example 4 lights in one pass, which is speeding up the rendering. Our utilization of 3.0 shader model is essentially tied to performance improvements. So for example we can render, previously with 2.0 we were rendering one light per pass and now we’re rendering up to four lights per pass.

Second aspect is that we’re using geometry instancing which is a big performance gainer, mostly for outdoors but also for indoors. On the outdoors we’re using for example to reduce the draw calls from trees, grass, and other vegetation objects, we’re using the same or similar object meshes in different positions and orientations. They’re rendered in one draw call with different attributes in the vertex shader. That reduces the draw calls.
Macht das Sinn ?
:???:

IMO ja, wenn man das von Dir dargelegte berücksichtigt...

Interessant fand' ich auch, dass bei denen für HDR offenbar fp32 benötigt wird und die FX'en wohl auch in der Lage sind, dieses Feature in Patch 1.3 zu nutzen.

Ist wohl aber ein bissel OT hier, oder ?

Razor

Jesus
2004-07-05, 19:51:51
so neuer FC patch Test auf THG :

http://graphics.tomshardware.com/graphic/20040705/farcry-03.html

wie man sieht und liest, "stumpfere" Reflexionen auf den Rohren, und kleinerer Flashlight Radius, auf der 6800 mit Patch 1.2 + nette Grafikfehler auf dem r420.


Vielleicht sollte mal jemand diese neue SM3.0 BQ etwas genauer unter die Lupe nehmen. Nicht dass es am ende nichts gebracht hat und NV darauf gedrängt hat einfach die Shader- oder Lichqualität etwas zu reduzieren um an mehr Performance zu kommen ;) ( ich weiss das ist eine Unterstellung, aber so ist man ATI ja auch auf die schliche gekommen ;) )

Allerdings:
Although we could make out minor rendering differences between SM 2.0 and SM 3.0, speaking of reduced quality would be inappropriate. The intensity of the lighting may be slightly dimmer, but this is only noticeable in a direct side-by-side comparison of screenshots.

Gast
2004-07-05, 20:06:36
Bis jetzt hat Fart Cry auf den FXen nie richtig funktioniert, immer war was zu meckern, warum solls denn diesmal anders sein... und warum solls bei den 68ern anders sein...
Vieleicht hat Crytek nochmal geschludert und beim R420 Pfad was versucht zu verbessern, mit 3DC rumgespielt und es ging nach hinten los...

Demirug
2004-07-05, 20:22:20
Original geschrieben von Jesus
Vielleicht sollte mal jemand diese neue SM3.0 BQ etwas genauer unter die Lupe nehmen. Nicht dass es am ende nichts gebracht hat und NV darauf gedrängt hat einfach die Shader- oder Lichqualität etwas zu reduzieren um an mehr Performance zu kommen ;) ( ich weiss das ist eine Unterstellung, aber so ist man ATI ja auch auf die schliche gekommen ;) )

Sobald der Patch öffentlich ist kann sich jeder die beiden Shaderscripte selbst ansehen.

Man wird einen kleinen Unterschied zwischen dem SM2 und SM3 Pfad feststellen wenn es darum geht den Entfernungsabhänigen Teil der Beleuchtung zu bestimmen. SM3 errecht die Distance pro Pixel. SM2 berechnet pro Vertex und interpoliert.

Majestic
2004-07-05, 20:23:23
Original geschrieben von Jesus
so neuer FC patch Test auf THG :

http://graphics.tomshardware.com/graphic/20040705/farcry-03.html

wie man sieht und liest, "stumpfere" Reflexionen auf den Rohren, und kleinerer Flashlight Radius, auf der 6800 mit Patch 1.2 + nette Grafikfehler auf dem r420.


Vielleicht sollte mal jemand diese neue SM3.0 BQ etwas genauer unter die Lupe nehmen. Nicht dass es am ende nichts gebracht hat und NV darauf gedrängt hat einfach die Shader- oder Lichqualität etwas zu reduzieren um an mehr Performance zu kommen ;) ( ich weiss das ist eine Unterstellung, aber so ist man ATI ja auch auf die schliche gekommen ;) )

Allerdings:


Jesus und Jünger gehet hin und vermehred ATI´s Umsatz in dem ihr euch ne X800PRO/XT kauft. Dann ist wenigstens endlich mal ruhe hier mit diesem "Die 1 Millionen Gründe warum ich mir keine Geforce kaufe.....";D

xL|Sonic
2004-07-05, 20:25:06
Original geschrieben von Majestic
Jesus und Jünger gehet hin und vermehred ATI´s Umsatz in dem ihr euch ne X800PRO/XT kauft. Dann ist wenigstens endlich mal ruhe hier mit diesem "Die 1 Millionen Gründe warum ich mir keine Geforce kaufe.....";D

Als wenn es andersrum anders wäre ;)

Majestic
2004-07-05, 20:29:55
Original geschrieben von Valmar
Als wenn es andersrum anders wäre ;)

Sagt ja niemand da es anders wäre. Ist egal von welcher Seite es kommt einfach nur ätzend......

Demirug
2004-07-05, 20:30:39
Original geschrieben von r@h
Macht das Sinn ?
:???:

IMO ja, wenn man das von Dir dargelegte berücksichtigt...

Interessant fand' ich auch, dass bei denen für HDR offenbar fp32 benötigt wird und die FX'en wohl auch in der Lage sind, dieses Feature in Patch 1.3 zu nutzen.

Ist wohl aber ein bissel OT hier, oder ?

Razor

Sie brauchen FP16 Rendertarget-Blending für HDR. Das kann derzeit nur der NV40 (und 3dlabs wird es auch können). Die Gründe warum das so ist sind relative klar aber das wäre hier wirklich zu OT.

Gast
2004-07-05, 20:30:53
Original geschrieben von Demirug
Sobald der Patch öffentlich ist kann sich jeder die beiden Shaderscripte selbst ansehen.

Man wird einen kleinen Unterschied zwischen dem SM2 und SM3 Pfad feststellen wenn es darum geht den Entfernungsabhänigen Teil der Beleuchtung zu bestimmen. SM3 errecht die Distance pro Pixel. SM2 berechnet pro Vertex und interpoliert.

Um´s kurz zu sagen (damit auch Jesus das versteht): SM3 berechnet die Beleuchtung genauer.

Tjell
2004-07-05, 20:32:41
Hmm, kommt mir gerade so in den Sinn, wo ich mir mal wieder ein Video zu "Schlacht um Mittelerde" reingezogen habe... :sabber:

Wie wird sich eigentlich nach Euren Mutmaßungen der eventuelle Einsatz von SM3.0 bei diesem Spiel auf die Performance auswirken? Glaubt Ihr, daß die vielen Figuren (Orks oder so) schneller gerendert werden können?

Gast
2004-07-05, 20:34:28
Original geschrieben von Tjell
Glaubt Ihr, daß die vielen Figuren (Orks oder so) schneller gerendert werden können?

Es kann auf jeden Fall wesentlich die CPU entlasten.

Tjell
2004-07-05, 20:37:20
Also diesmal muß ich (ja ja) Jesus in Schutz nehmen!

Man kann aus subjektiver Sichtweise von schlechterer Bildqualität sprechen, wenn es im Spiel weniger starke Reflektionen unter Verwendung des SM3.0 gibt, nämlich dann, wenn man übertriebene Glanzeffekte als besser ansieht.

Vielleicht ist aber aus genau diesem Grund Crytek hergegangen, und hat die Intensität dieser Effekte (dank höherer Präzision) reduziert??

Tjell
2004-07-05, 20:39:59
Original geschrieben von Gast
Es kann auf jeden Fall wesentlich die CPU entlasten.

Und genau auf so einen Effekt hoffe ich ja, denn so könnte mir die Grafikkarte (6800 Ultra) einige Zeit eine Aufrüst-Verschnaufpause bringen, denn ich will meinen derzeitigen PC noch solange wie möglich nutzen, um dann ca. 2005/2006 ein komplett neues System zusammenzubasteln. :)

Jesus
2004-07-05, 20:41:19
ehm verwendet man für solche Zwecke nicht eher Vertex Shader als PS ?

Demirug
2004-07-05, 20:43:00
Original geschrieben von Tjell
Vielleicht ist aber aus genau diesem Grund Crytek hergegangen, und hat die Intensität dieser Effekt (dank höherer Präzision) reduziert??

Auf höhere Präzision würde ich nicht setzten. (FP16 gibt es auch noch bei PS3 ;) ) Die Pro-Pixel Entfernugsberechnung ist aber wahrscheinlich die Ursache dafür.

Demirug
2004-07-05, 20:46:51
Original geschrieben von Jesus
ehm verwendet man für solche Zwecke nicht eher Vertex Shader als PS ?

Man kann Entfernungen im VS berechnen und Interpolieren. Wenn man Positionen im VS berechnet und diese Interpoliert und die Entfernung dann erst im PS errechnet wird es genauer. Ist aber auch aufwendiger.

dildo4u
2004-07-05, 21:37:35
http://www.hothardware.com/articleimages/Item550/v1.png

http://gamesfiles.giga.de/redirect/relatedlink.php?rellink=http%3A%2F%2Fwww.hothardware.com%2Fviewarticle.cfm%3Fart icleid%3D550%26cid%3D2

http://www.firingsquad.com/hardware/far_cry_sm30/images/far1280.gif

http://gamesfiles.giga.de/redirect/relatedlink.php?rellink=http%3A%2F%2Fwww.firingsquad.com%2Fhardware%2Ffar_cry_sm 30%2F

robbitop
2004-07-05, 21:45:40
wie stehts mit den Optimierungen?

Gohan
2004-07-05, 22:20:46
Bitte nicht Kommentarlosi rgendwelche Graphen oder Balkendiagramme posten, die kennt doch eh schon jeder und interpretiert sie so wie er es will.

tombman
2004-07-05, 22:23:37
es gibt keine 6800 ultra extreme.

Und mach mal 1600x1200, 4xAA, 16xAF ;)

dildo4u
2004-07-05, 22:32:30
Original geschrieben von tombman
es gibt keine 6800 ultra extreme.

Und mach mal 1600x1200, 4xAA, 16xAF ;)

http://www.komplett.de/k/ki.asp?sku=300416&cks=ASS&assoc=5CC91B77-D620-418E-A01C-1E269119C879

Gainward GeForce 6800 Ultra 256MB DDR3 AGP, "CoolFX Ultra/2600 GS" 450Plus mhz

Also getaktet mit 450mhz plus bedeutet man kann inklusive garantie noch höher takten mit dem tool von Gainward

tombman
2004-07-05, 22:49:47
Original geschrieben von dildo4u
http://www.komplett.de/k/ki.asp?sku=300416&cks=ASS&assoc=5CC91B77-D620-418E-A01C-1E269119C879

Gainward GeForce 6800 Ultra 256MB DDR3 AGP, "CoolFX Ultra/2600 GS" 450Plus mhz

Also getaktet mit 450mhz plus bedeutet man kann inklusive garantie noch höher takten mit dem tool von Gainward

is nix anderes als eine von Haus aus übertaktete 6800ultra mit Garantie. (ROFL, fast 900€!!???)
es gibt keinen ultra extreme chip.

dildo4u
2004-07-05, 22:56:34
Original geschrieben von tombman
is nix anderes als eine von Haus aus übertaktete 6800ultra mit Garantie. (ROFL, fast 900€!!???)
es gibt keinen ultra extreme chip.

es gibt auch kein Ultra chip sind wenn du so willst auch nur selektierte NV40 chips da baugleich mit GT chips

Grestorn
2004-07-05, 23:08:24
Original geschrieben von tombman
is nix anderes als eine von Haus aus übertaktete 6800ultra mit Garantie. (ROFL, fast 900€!!???)
es gibt keinen ultra extreme chip.
Die "normale" Ultra Extreme (nicht CoolFX, also mit normalem Kühler) kostet "nur" € 660,-: Alternate (http://www4.alternate.de/html/nodes_info/jagw38.html).

Und wie Dildo schon geschrieben hat, was unterscheidet, Chipmäßig, eine GT von einer Ultra von einer Ultra Extreme? Richtig, der Takt, sonst nichts.

Wenn jemand eine NV40 mit 450 MHz verkauft, dann ist diese nicht übertaktet, denn sie ist vom Hersteller für diese Frequenz spezifiziert. Läuft sie damit nicht einwandfrei, ist es ein Reklamationsgrund. Punkt.

tombman
2004-07-05, 23:09:18
Original geschrieben von dildo4u
es gibt auch kein Ultra chip sind wenn du so willst auch nur selektierte NV40 chips da baugleich mit GT chips

es gibt OFFIZIELLE Taktungen und inoffizielle ÜBERtaktungen.

DAS is der Unterschied.

Weil sonst bietet Firma XYZ einen 600/600 x800xt KE (knight rider edition) an um 900€ und in allen "reviews"
wird dann diese gegen die UE gebenched-- klar worauf ich hinaus will?

robbitop
2004-07-05, 23:11:06
diese Knight Rider Edition existiert aber nicht, die von Gainward schon ;)

war aber klar, dass von dir so eine Reaktion kommt

Tjell
2004-07-05, 23:12:48
Original geschrieben von tombman
es gibt OFFIZIELLE Taktungen und inoffizielle ÜBERtaktungen.

DAS is der Unterschied.

Weil sonst bietet Firma XYZ einen 600/600 x800xt KE (knight rider edition) an um 900€ und in allen "reviews"
wird dann diese gegen die UE gebenched-- klar worauf ich hinaus will?

1. Offiziell ist, was die Herstellerfirma der Karte spezifiziert.

2. Den Herstellern steht es frei, eine Knight Rider Edition rauszubringen. :bäh: Wundert mich sowieso, warum das noch keiner macht.

tombman
2004-07-05, 23:13:06
Original geschrieben von grestorn
Die "normale" Ultra Extreme (nicht CoolFX, also mit normalem Kühler) kostet "nur" € 660,-: Alternate (http://www4.alternate.de/html/nodes_info/jagw38.html).

Und wie Dildo schon geschrieben hat, was unterscheidet, Chipmäßig, eine GT von einer Ultra von einer Ultra Extreme? Richtig, der Takt, sonst nichts.

Wenn jemand eine NV40 mit 450 MHz verkauft, dann ist diese nicht übertaktet, denn sie ist vom Hersteller für diese Frequenz spezifiziert. Läuft sie damit nicht einwandfrei, ist es ein Reklamationsgrund. Punkt.

Verkaufen kannst sowas schon, aber sicher nicht in benchmarks antreten lassen bei offiziellen reviews.

Weil sonst mach ich _eine_ Firma auf, schnall eine Kompressorkühlung auf die x800xt und verkaufe sie als
TE (tombman edition) um 700€ mit 700/700 Takt.

Und dann schick ich samples an Anandtech (der testet eh alles was er bekommt ;)) und lasse sie gegen jede Nvidia gewinnen.

Alles klar?

Tjell
2004-07-05, 23:15:55
Original geschrieben von tombman
Verkaufen kannst sowas schon, aber sicher nicht in benchmarks antreten lassen bei offiziellen reviews.

Weil sonst mach ich _eine_ Firma auf, schnall eine Kompressorkühlung auf die x800xt und verkaufe sie als
TE (tombman edition) um 700€ mit 700/700 Takt.

Und dann schick ich samples an Anandtech (der testet eh alles was er bekommt ;)) und lasse sie gegen jede Nvidia gewinnen.

Alles klar?

Soso, Serienkarten werden also nicht getestet oder gar gewertet, wenn sie von den Standardvorgaben der Chipschmieden abweichen?? Das wäre mir neu, oder warum las man so häufig von der Gainward CoolFX 1600 irgendwas als Testsieger?

Hm.

tombman
2004-07-05, 23:18:46
Original geschrieben von Tjell
Soso, Serienkarten werden also nicht getestet oder gar gewertet, wenn sie von den Standardvorgaben der Chipschmieden abweichen?? Das wäre mir neu, oder warum las man so häufig von der Gainward CoolFX 1600 irgendwas als Testsieger?

Hm.

Man kann auch keinen AMG getunten Mercedes gegen BMW antreten lassen und dann behaupten Mercedes ownt Bmw.

Man kann ja einen eigenen review schreiben der SPEZIELL die gainward als Sonderversion begutachtet, aber nicht in einem ALLGEMEINEN Nvidia vs ATI review.

dildo4u
2004-07-05, 23:21:27
Original geschrieben von tombman
Man kann auch keinen AMG getunten Mercedes gegen BMW antreten lassen und dann behaupten Mercedes ownt Bmw.

Dann sollte man auch überall nur die X800XT testen den die X800XTPE ist ja auch eine tuner karte mit nicht zulässigen taktraten :balla:

tombman
2004-07-05, 23:24:30
Original geschrieben von dildo4u
Dann sollte man auch überall nur die X800XT testen den die X800XTPE ist ja auch eine tuner karte mit nicht zulässigen taktraten :balla:

Nein, die 520/560 core bei der PE sind OFFIZIELLE ATi Taktraten.
http://www.ati.com/products/radeonx800/radeonx800series/index.html

dildo4u
2004-07-05, 23:25:52
Original geschrieben von tombman
Nein, die 520/560 core sind OFFIZIELLE ATi Taktraten. Aha wo kann man das nachlesen auf der ati seite find ich dazu nix

tombman
2004-07-05, 23:26:43
du warst zu schnell ;)

http://www.ati.com/products/radeonx800/radeonx800series/index.html

Dort steht ganz deutlich PLATINUM EDITION!

ati hp
What's in the Box:
RADEON X800 PRO or RADEON X800 XT or RADEON X800 XT PLATINUM EDITION graphics card

dildo4u
2004-07-05, 23:28:55
ok jetzt bin ich zu frieden

Gast
2004-07-06, 09:38:29
Original geschrieben von tombman
du warst zu schnell ;)

http://www.ati.com/products/radeonx800/radeonx800series/index.html

Dort steht ganz deutlich PLATINUM EDITION!

Und wo steht da was von den Takten?

deekey777
2004-07-06, 09:41:29
Original geschrieben von Gast
Und wo steht da was von den Takten?

Auf der offizielen ATi Seite werden grundsätzlich keine Taktraten angegeben.

Crushinator
2004-07-06, 09:56:07
Wenn Ihr Eure Postings nicht auf der Spüllwiese wiederfinden möchtet, folgt bitte dem Appel nach Vernunft und verlasst den Thread - wie im ersten Post drum gebeten wurde - besenrein, danke!

Tjell
2004-07-06, 09:59:36
Original geschrieben von tombman
...
Man kann ja einen eigenen review schreiben der SPEZIELL die gainward als Sonderversion begutachtet, aber nicht in einem ALLGEMEINEN Nvidia vs ATI review.

Kann man durchaus, denn es wird diese Karten geben, und ob die sich "Ultra Extreme Edition" oder "Heinz" nennen ist vollkommen Banane.

Im Übrigen ist noch nicht ganz klar, ob es die XT PE auch hierzulande mit 520/560 geben wird. Bisher kann man nur ein Erscheinen der XT mit 500/500 mit Sicherheit erwarten.

Tombman hat außerdem recht:
Auf der offiziellen ATI-Seite steht etwas zu den Taktraten, allerdings ein wenig versteckt:
ATI X800 (http://www.ati.com/products/radeonx800/index.html) --> Product Comparison --> die beiden X800 anhaken --> NEXT klicken --> lesen, verstehen.

Unter Berücksichtigung, was ich vorher schrieb, sollte man aber noch nicht allzuviel auf die Angaben zur XT PE geben, die wird wahrscheinlich genauso selten anzutreffen sein, wie eine Ultra auf EE-Takt. Die XT PE ist meiner Meinung nach nur dazu auserkoren gewesen, die Schwanz... äh... Balkenlängenvergleiche zu gewinnen.

xL|Sonic
2004-07-06, 10:37:03
Original geschrieben von Tjell
Kann man durchaus, denn es wird diese Karten geben, und ob die sich "Ultra Extreme Edition" oder "Heinz" nennen ist vollkommen Banane.

Im Übrigen ist noch nicht ganz klar, ob es die XT PE auch hierzulande mit 520/560 geben wird. Bisher kann man nur ein Erscheinen der XT mit 500/500 mit Sicherheit erwarten.

Tombman hat außerdem recht:
Auf der offiziellen ATI-Seite steht etwas zu den Taktraten, allerdings ein wenig versteckt:
ATI X800 (http://www.ati.com/products/radeonx800/index.html) --> Product Comparison --> die beiden X800 anhaken --> NEXT klicken --> lesen, verstehen.

Unter Berücksichtigung, was ich vorher schrieb, sollte man aber noch nicht allzuviel auf die Angaben zur XT PE geben, die wird wahrscheinlich genauso selten anzutreffen sein, wie eine Ultra auf EE-Takt. Die XT PE ist meiner Meinung nach nur dazu auserkoren gewesen, die Schwanz... äh... Balkenlängenvergleiche zu gewinnen.

Sicher wird es die XT PE geben und auch nur diese, was AGP angeht.
Eine XT wird es nur bei PCI-E geben und dort dann auch nur mit einem niedrigeren Takt.

LovesuckZ
2004-07-06, 10:41:08
Original geschrieben von tombman
es gibt keine 6800 ultra extreme.


Nein?
Dann luegt wohl gainward, wenn sie ihre Specifications (http://www.gainward.de/new/products/ultra_2000/comparison.html) angeben...

xL|Sonic
2004-07-06, 10:44:22
Fragt sich nur, wieviele davon im Endeffekt wirklich produziert und ausgeliefert werden :o

LovesuckZ
2004-07-06, 10:49:01
Original geschrieben von Valmar
Fragt sich nur, wieviele davon im Endeffekt wirklich produziert und ausgeliefert werden :o

Es gibt von gainward die CoolFX Serie, schon ausgelieftert.
Es gibt von EVGA eine ebenfalls Extreme Serie in den USA, schon ausgeliefert.
Und auch BFG liefert in den USA schon Extremevariaten aus.
Ist es nicht auch interessant, dass fast alle Ultrakarten ind en USA mit einen 3D Takt von 420MHz erscheinen? Wohl auch eine Illusion, gibt Nvidia diese doch nicht an :freak:

reunion
2004-07-06, 10:56:51
Original geschrieben von LovesuckZ
Es gibt von gainward die CoolFX Serie, schon ausgelieftert.



Gainward hat mal erwähnt das nur eine von 1000 Stück die erhöhten Taktraten mitmacht :naughty:
(Auch wenn das vermutlich nur Marketing war um die hohen Preise zu rechtfertigen)

[dzp]Viper
2004-07-06, 11:00:24
Original geschrieben von LovesuckZ
Nein?
Dann luegt wohl gainward, wenn sie ihre Specifications (http://www.gainward.de/new/products/ultra_2000/comparison.html) angeben...

es gibt offiziell von NV keine Ultra Extreme
Punkt Ende Aus!

Was dann die Hersteller mit den Ultra karten noch machen (übertakten oder so) ist denen überlassen.

Wenn ich mir die Spezifikationen von deinem Link durchlese
http://www.gainward.de/new/products/ultra_2000/comparison.html
dann sehe ich, dass es da keine 6800 Ultra Extreme gibt - nur eine übertaktete 6800 ultra. (siehe Engine name)

Der name "Ultra Extreme" ist nur "ausgedacht" - es gibt ihn offiziell nirgends!

Tjell
2004-07-06, 11:08:40
Original geschrieben von [dzp]Viper
...
Der name "Ultra Extreme" ist nur "ausgedacht" - es gibt ihn offiziell nirgends!
Ob ausgedacht oder nicht: Um die Leistung z. B. einer 6800 Ultra CoolFX bei Tests anzugeben, kann man zur Vereinfachung von einer Ultra Extreme Edition sprechen, da wohl die meisten diese (inoffizielle) Bezeichnung kennen. Ob richtig oder falsch spielt da keine Rolle. Solange Hersteller mit entsprechender Garantie bis zu 70 MHz "übertaktete" Ultra-Karten rausbringen, ist die Aufführung einer UEE bei den Benchmarks vollkommen legitim.

LovesuckZ
2004-07-06, 11:09:06
Original geschrieben von [dzp]Viper
es gibt offiziell von NV keine Ultra Extreme
Punkt Ende Aus!

Es gibt offiziell von Nvidia auch keine Karte im Handel zu kaufen.
Das bedeutet nach eurer Logik, dass es ueberhaupt keine Karten auf dem Markt gaebe, NV40 Karten illusionen von Nvidia Fanboys waeren.
:freak:

Was dann die Hersteller mit den Ultra karten noch machen (übertakten oder so) ist denen überlassen.

Genau, weil man nur von diesen Karten kaufen kann. Das heißt auch, dass, wenn sie "xxx" Karten mit einem Chiptakt von 450MHz anbieten, dass dies diese Extreme Varianten sind. Der Name ist doch vollkommen egal, außer fuer einen ATi User...
/edit: Wie Tjell schon sagte: Sie muessen diesen Takt garantieren.

Wenn ich mir die Spezifikationen von deinem Link durchlese
http://www.gainward.de/new/products/ultra_2000/comparison.html
dann sehe ich, dass es da keine 6800 Ultra Extreme gibt - nur eine übertaktete 6800 ultra. (siehe Engine name)

Es ist egal, wie der Engine Name lautet. Die Karten basieren alle auf den NV40 Core. Und wenn gainward die Karten eben uebertaktet: Mir als User interessiert nur der Takt. Und der wird mir garantiert. Um den rest muss sich Gainward kuemmern.
"Entertaiment", sagte jemand im NVNews.net Forum und damit hat er reicht. Immer wieder lustig, wie man versucht Nvidia zu kritisieren, auch wenn es eigentlich laecherlich ist.

[dzp]Viper
2004-07-06, 11:23:44
Original geschrieben von LovesuckZ
Es gibt offiziell von Nvidia auch keine Karte im Handel zu kaufen.
Das bedeutet nach eurer Logik, dass es ueberhaupt keine Karten auf dem Markt gaebe, NV40 Karten illusionen von Nvidia Fanboys waeren.
:freak:



Du weisst genau, dass ich die NV40 Chips meine

von NV gibts da eben:
6800 NU
6800 GT
6800 Ultra

Mehr gibt es nicht...
Was die Hersteller dann noch an OC garantieren oder nicht, hat damit nichts zu tun!

Laut deiner Aussage brächte ATI eigentlich garkeine ATI XT PE rausgebracht haben - das hätten wohl dann schon die Kartenhersteller gemacht indem sie die Karten übertaktet hätte? :freak:

Darum hänge ich mich auch daran auf, dass es offiziell keine 6800 ultra extreme (als Chip) gibt.
Gainward bringt einfach eine Übertaktete Version der 6800 ultra unter einem anderen Namen - das ist alles :ratlos:

Original geschrieben von LovesuckZ
Immer wieder lustig, wie man versucht Nvidia zu kritisieren, auch wenn es eigentlich laecherlich ist.

Wer kritisiert hier Namen? Ich sicher nicht...

Ich habe dir nur versucht klar zu machen, dass es von NV keinen 6800 Ultra Extreme Chip gibt...

[dzp]Viper
2004-07-06, 11:26:48
Original geschrieben von Tjell
Ob ausgedacht oder nicht: Um die Leistung z. B. einer 6800 Ultra CoolFX bei Tests anzugeben, kann man zur Vereinfachung von einer Ultra Extreme Edition sprechen, da wohl die meisten diese (inoffizielle) Bezeichnung kennen. Ob richtig oder falsch spielt da keine Rolle. Solange Hersteller mit entsprechender Garantie bis zu 70 MHz "übertaktete" Ultra-Karten rausbringen, ist die Aufführung einer UEE bei den Benchmarks vollkommen legitim.

ja das stimmt - dann kommt der Name aber von Gainward und nicht von NV...
Aber bei Gainward heißt sie ja dann:

Gainward PowerPack! Extreme/2600

X-D

deekey777
2004-07-06, 11:33:29
Original geschrieben von [dzp]Viper
Du weisst genau, dass ich die NV40 Chips meine

...

Ich habe dir nur versucht klar zu machen, dass es von NV keinen 6800 Ultra Extreme Chip gibt...

Leute sind vergesslich. Als die 6800 U EE zum Release der R420 Serie nachgeschoben wurde, war der Aufschrei laut, dass nVidia mit allen Mitteln versuche, die Performancekrone zu behalten. Dann gab's die Meldung, dass nVidia (als Chiplieferant) gar keine 6800U EE liefern will, sondern den Herstellern überlassen hat, selbst zu entscheiden, ob sie eine 6800 U EE in ihrem Angebot haben wollen oder nicht. Und was lohnt sich für den Hersteller mehr: Eine 6800GT oder eine 6800U bzw. 6800 U EE

@[dzp]Viper: Bringt nichts...

seahawk
2004-07-06, 11:38:09
Könnt ihr die Diskussion einstellen.

NV stellt es den IHVs frei ihre KArten über das Niveau der Ultra zu takten.

ATI legt momentan die Taktvorgaben fest.

Ist ein NV40 mit den Taktunger der UE eine UE, oder keine UE, weil NV ihn nicht UE nennt??

Sinnlose Diskussion. Also hört auf den Thread damit zu verderben.

LovesuckZ
2004-07-06, 11:41:37
Original geschrieben von [dzp]Viper
von NV gibts da eben:
6800 NU
6800 GT
6800 Ultra

Mir als Endkunde ist es egal, was fuer ein Chip verwendet wird, solange die versprochenden Eigenschaften eingehalten werden. Dazu zaehlt auch die auf der Verpackung (Leadtek wirbt bei ihrer 6800NU mit "16 Pipelines" :freak: ).
Außer man sitzt in einer Werkstatt und baut sich seine eigenen Karten zusammen, mit Chips, Platine und Speicher...

Mehr gibt es nicht...
Was die Hersteller dann noch an OC garantieren oder nicht, hat damit nichts zu tun!

Worin liegt also der Unterschied zwischen dem "nicht existierenden" NV40 Ultra Extreme Chip und den "existieren" NV40 Ultra Chips mit 450/600 MHz, die von einigen Partnern angeboten werden?

Laut deiner Aussage brächte ATI eigentlich garkeine ATI XT PE rausgebracht haben - das hätten wohl dann schon die Kartenhersteller gemacht indem sie die Karten übertaktet hätte? :freak:

Kann man XTPE Karten von ATi (als Brand) in Deutschland kaufen? Nein, richtig.
Aber du regst dich wahrscheinlich auch auf, wenn die Hersteller andere Kuehloesungen verwenden oder die Platine veraendern: Weil, entspricht ja nicht dem Referenzprodukt, da es nicht solche Karten von ATi zu testzwecken gibt...

Ich habe dir nur versucht klar zu machen, dass es von NV keinen 6800 Ultra Extreme Chip gibt...

Es gibt von nvidia auch keine Karten. Nochmal: Als Endkunde kann es dir doch egal sein, welcher Chip verwendet wird.

Tjell
2004-07-06, 11:47:29
Original geschrieben von seahawk
Könnt ihr die Diskussion einstellen.

NV stellt es den IHVs frei ihre KArten über das Niveau der Ultra zu takten.

ATI legt momentan die Taktvorgaben fest.

Ist ein NV40 mit den Taktunger der UE eine UE, oder keine UE, weil NV ihn nicht UE nennt??

Sinnlose Diskussion. Also hört auf den Thread damit zu verderben.

Nein, das ist nicht sinnlos, solange immer wieder rumgemault wird, es gäbe doch keine Ultra Extreme und deshalb dürfe man diese nicht in Benchmarks angeben. Diese Argumentation ist sinnlos.

Denn ob da nun im Balkendiagramm "Ultra Extreme", "Heinz" oder "6800 OC@450 MHz" steht ist vollkommen egal, Hauptsache das Benchen an sich ist sinnvoll durchgeführt worden.

.

Grestorn
2004-07-06, 11:47:38
Original geschrieben von [dzp]Viper
Du weisst genau, dass ich die NV40 Chips meine

von NV gibts da eben:
6800 NU
6800 GT
6800 Ultra

Mehr gibt es nicht...
Es gibt diese Chips nicht. Es gibt derzeit einen NV40 Chip, Punkt.

Alle NV40 Chips werden, ebenso wie die R420, auf die selbe Art produziert mit dem selben Waver usw.

Wie man die Chips hinterher auf den Karten vermarktet, ist rein die Sache des jeweiligen Herstellers, der die ganzen Chips nach bestimmten Kriterien sortiert: Chips mit defekten Pipes in die NU Kiste, Chips mit niedriger Taktausbeute in die GT Kiste, Chips mit guter Taktausbeute in die Ultra Kiste und Chips mit hoher Taktausbeute in die UE Kiste (in wie weit nVidia hier bereits eine Vorselektion vornimmt und entsprechend die Preise festlegt ändert nichts an der Vorgehensweise an sich).

Und in den Reviews werden am Ende sowieso nicht die Chips gegeneinander antreten (das passiert nur in Previews mit Prototypen oder Referenz-Boards) sondern immer fertige, im Handel erhältliche Karten. Und selbstverständlich ist es dann legitim, eine Gainward 2600/GS UltraExtreme gegen eine XYZ x800 Knight Rider Edition antreten zu lassen, selbst wenn beide Bezeichnungen niemals von ATI bzw. nVidia genannt wurden.

Was ist eigentlich so schlimm daran, dass derzeit die schnellste Karte in den Schwanzlängen-Diagrammen von nVidia ist (um ein paar Prozent)? In ein paar Wochen kommt die neue mega-geile x800 Karte, die wieder etwas flotter ist, dann ist halt wieder ATI um ein paar Prozent vorne...

Das ganze ist so was von bescheuert... Als ob Euer eigenes Ansehen oder Eure Potenz von den Balkenlängen dieser Grafikkarten abhängen würde... ;D

Wenn ich mich für eine Grafikkarte entscheide, spielt die Performance eine Rolle, neben vielen vielen anderen Kriterien. Und da in diesem Fall die Performance ziemlich nah beieinanderliegt (mit Stärken im einen oder anderen Punkt) werde ich mich einfach mehr auf die restlichen Kriterien zur Entscheidungsfindung einstellen...

Tjell
2004-07-06, 11:50:55
Ich darf mich grestorns Meinung anschließen.

[dzp]Viper
2004-07-06, 12:28:07
Ich glaube, wir reden aneinander vorbei :D

Original geschrieben von LovesuckZ

Aber du regst dich wahrscheinlich auch auf, wenn die Hersteller andere Kuehloesungen verwenden oder die Platine veraendern: Weil, entspricht ja nicht dem Referenzprodukt, da es nicht solche Karten von ATi zu testzwecken gibt...



Es gibt von nvidia auch keine Karten. Nochmal: Als Endkunde kann es dir doch egal sein, welcher Chip verwendet wird.

zu 1. nein - tu ich nicht und habe ich auch nirgendswo gesagt, dass ich so einer Meinung bin - du nimmst es aber einfach an - zu viel Fantasie? ;)
Mir ist das ziemlich egal - ich finde es sogar gut, dass es andere Layounts und co. gibt.

Mir ging es ganz allein darum, dass es eben diese Bezeichnung "6800 Ultra Extreme" (die hier viele verwenden) garnicht gibt.
Wenn, dann gibt es halt von Gainward übertaktet Karten welche sich vom Namen unterscheiden.
Aber das war bei Gainward schon immer so :D

Was die Hersteller dann mit den Chips machen, ist mir vollkommen egal - ich will schliesslich auch nur Leistung und Qualität :)

Zu 2. Ist mir auch egal - hab nie was anderes Behauptet oder gesagt....

Mmmmmh
2004-07-06, 12:30:09
Original geschrieben von grestorn
Es gibt diese Chips nicht. Es gibt derzeit einen NV40 Chip, Punkt.

Alle NV40 Chips werden, ebenso wie die R420, auf die selbe Art produziert mit dem selben Waver usw.

Wie man die Chips hinterher auf den Karten vermarktet, ist rein die Sache des jeweiligen Herstellers, der die ganzen Chips nach bestimmten Kriterien sortiert: Chips mit defekten Pipes in die NU Kiste, Chips mit niedriger Taktausbeute in die GT Kiste, Chips mit guter Taktausbeute in die Ultra Kiste und Chips mit hoher Taktausbeute in die UE Kiste (in wie weit nVidia hier bereits eine Vorselektierung vornimmt und entsprechend die Preise festlegt ändert nichts an der Vorgehensweise an sich).

Und in den Reviews werden am Ende sowieso nicht die Chips gegeneinander antreten (das passiert nur in Previews mit Prototypen oder Referenz-Boards) sondern immer fertige, im Handel erhältliche Karten. Und selbstverständlich ist es dann legitim, eine Gainward 2600/GS UltraExtreme gegen eine XYZ x800 Knight Rider Edition antreten zu lassen, selbst wenn beide Bezeichnungen niemals von ATI bzw. nVidia genannt wurden.

Was ist eigentlich so schlimm daran, dass derzeit die schnellste Karte in den Schwanzlängen-Diagrammen von nVidia ist (um ein paar Prozent)? In ein paar Wochen kommt die neue mega-geile x800 Karte, die wieder etwas flotter ist, dann ist halt wieder ATI um ein paar Prozent vorne...

Das ganze ist so was von bescheuert... Als ob Euer eigenes Ansehen oder Eure Potenz von den Balkenlängen dieser Grafikkarten abhängen würde... ;D

Wenn ich mich für eine Grafikkarte entscheide, spielt die Performance eine Rolle, neben vielen vielen anderen Kriteriern. Und da in diesem Fall die Performance ziemlich nah beieinanderliegt (mit Stärken im einen oder anderen Punkt) werde ich mich einfach mehr auf die restlichen Kriterien zur Entscheidungsfindung einstellen...
:laola:
:up: Damit wäre alles gesagt!!!

LovesuckZ
2004-07-06, 12:48:55
Original geschrieben von [dzp]Viper
Mir ging es ganz allein darum, dass es eben diese Bezeichnung "6800 Ultra Extreme" (die hier viele verwenden) garnicht gibt.


http://www.evga.com/6800EE/default.asp
Und sind Bezeichnungen nicht Schall und Rauch? Fakt ist, dass einige Partner Karten verkaufen, welche ueber die Taktrate von 450/550 (600) verfuegen. Genau die selben, wie von Nvidia's 6800UE.

[dzp]Viper
2004-07-06, 12:55:47
Original geschrieben von LovesuckZ
http://www.evga.com/6800EE/default.asp
Und sind Bezeichnungen nicht Schall und Rauch? Fakt ist, dass einige Partner Karten verkaufen, welche ueber die Taktrate von 450/550 (600) verfuegen. Genau die selben, wie von Nvidia's 6800UE.

schön und gut - ist halt eine Bezeichung eines Herstellers für eine höher getaktete Karte.

"Nvidia´s 6800UE" - die gibt es nicht mehr ;)
Den Chipnamen haben die Hersteller aber übernommen und zeichnen nun so ihre Karten aus, welche höher getaktet sind als normale 6800ultras...
Ok - es ist eigentlich genau das selbe wie als würden die Chips von NV direkt kommen (da muss ich dir zustimmen)...

Ausserdem besteht ja immernoch die Frage, wann den die ersten Karten mit 450/600 auf den Markt kommen - selbst die normalen Ultras gibts noch nicht wirklich ;)

Aber damit sollten wir diese Diskussion lassen - dreht sich ja sonst eh nur noch im kreis oder? :)

LovesuckZ
2004-07-06, 13:08:21
Original geschrieben von [dzp]Viper
schön und gut - ist halt eine Bezeichung eines Herstellers für eine höher getaktete Karte.

Ich dachte es geht darum, dass die Bezeichnung "6800 Ultra Extreme" nicht verwendet werde :|

[ize=!]Ausserdem besteht ja immernoch die Frage, wann den die ersten Karten mit 450/600 auf den Markt kommen - selbst die normalen Ultras gibts noch nicht wirklich ;)[/Size]

CoolFX gab es in Deutschland schon zu kaufen.
eVGAs UE wurden an einige in den USA schon ausgeliefert.

Tjell
2004-07-06, 13:19:28
Original geschrieben von LovesuckZ
...
CoolFX gab es in Deutschland schon zu kaufen.
eVGAs UE wurden an einige in den USA schon ausgeliefert.

Goil! Die Käufer der eVGA 6800 Ultra Extreme Edition werden wöchentlich ausgelost! Krass. Wahrscheinlich nur 1 pro Woche. :D

dildo4u
2004-07-06, 13:44:23
Original geschrieben von Tjell
Goil! Die Käufer der eVGA 6800 Ultra Extreme Edition werden wöchentlich ausgelost! Krass. Wahrscheinlich nur 1 pro Woche. :D naj wird ja auch heiss begehrt sein die karte eine 6800UE für 550$ das sind ja höstens 480€

[dzp]Viper
2004-07-06, 13:45:16
Original geschrieben von LovesuckZ
CoolFX gab es in Deutschland schon zu kaufen.
eVGAs UE wurden an einige in den USA schon ausgeliefert.

Bei ca. 10-15 Karten weltweit..... X-D

Riptor
2004-07-06, 14:23:45
@ grestorn: :up: Ganz genau meine Meinung! :up:

Ich weiß schon, warum ich mich auch in Zukunft aus diesen Fanboy-Philosophien heraushalten werde. :naughty:

Gast
2004-07-06, 14:34:18
Original geschrieben von dildo4u
naj wird ja auch heiss begehrt sein die karte eine 6800UE für 550$ das sind ja höstens 480€

Wie kommst du auf den Preis, wenn die Ultra schon zwischen 550 und 600 Euro liegt.

Quelle (Alternate - auch wenn sie nicht die billigsten sind):
http://www4.alternate.de/cgi-bin/frameset.pm?js=1

[dzp]Viper
2004-07-06, 14:37:47
Original geschrieben von Gast
Wie kommst du auf den Preis, wenn die Ultra schon zwischen 550 und 600 Euro liegt.

Quelle (Alternate - auch wenn sie nicht die billigsten sind):
http://www4.alternate.de/cgi-bin/frameset.pm?js=1

richtig

die Gainwardkarte mit 450 mhz GPU kostet "nur" 665€ :freak:

also nix mit 480€ ;)

Tjell
2004-07-06, 14:40:50
Original geschrieben von Gast
Wie kommst du auf den Preis, wenn die Ultra schon zwischen 550 und 600 Euro liegt.

Quelle (Alternate - auch wenn sie nicht die billigsten sind):
http://www4.alternate.de/cgi-bin/frameset.pm?js=1

Das ist der Preis in den USA, einfach nur in €uro umgerechnet. Hat aber nichts mit dem hiesigen Preisniveau zu tun.

r@w
2004-07-06, 14:45:05
Original geschrieben von Tjell
Das ist der Preis in den USA, einfach nur in €uro umgerechnet. Hat aber nichts mit dem hiesigen Preisniveau zu tun. Zumal man wenigstens die 'Taxes' zu den amerikanischen Preisen dazu rechnen sollte, bevor man versucht, die dortigen Preise mit den hisigen zu vergleichen.

Razor

tombman
2004-07-07, 09:54:55
es geht nicht darum ob es KArten zu kaufen gibt, die einen UE Takt haben. Es geht darum wie man das der Öffentlichkeit präsentiert.

Ein Test wo eine 6800UE eine X800XT PE schlägt läßt viele Glauben, Nvidia hätte eine Karte die schneller ist in gewissen Bereichen als eine X800XT PE.

Also wäre das eine Manipulation der Balkenlänge zum Vorteil von Nvidia und imo unzulässig.

Vorallem hat das NICHTS in einem Test ATI UHE vs. NV UHE (UHE = ultra high end) zu suchen.

Es kommt also auf die Präsentation an, und da haben sich einige sites als offensichtlich nvidia-freundlich herauskristallisiert.

Wenn man schon die Gainward-Karte mit in so einen Vergleich hineinnehmen will, dann muß dann GANZ ANDERS präsentiert werden. Zb, mit einem deutlichen Hinweis bei jedem Balken, anderer Schrift/Farbe usw...

Oder ich muß wirklich die Knight Rider Edition X800XT KE rausbringen ;)

mrdigital
2004-07-07, 11:04:32
Tombman, sei doch mal so gut und versuch Leute freundlicher anzusprechen. Das hat nichts mit Recht haben / im Recht sein zu tun, sondern ist einfach allgemeine Umgangsform. Wenn du deinen Ton mässigst, werden andere deine Argumente vielleicht auch eher überdenken und man hat am Ende ein produktives Ergebniss und nicht einen sinnlosen Streit.

Crushinator
2004-07-07, 11:12:04
*Die letzten Seiten mal einwenig aufgeräumt und die Sticheleien in den berühmten Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=153158) gemerged*

Lieber Tombman,

da Du Dich inzwischen jedem Appel an Vernunft widersetzt und nicht nur diesen Thread mit ins Verderben zu ziehen scheinst, bekommst Du hiermit eine Verwarnung in Form von Punkten.

Nur vorsorglich:
Eine Diskussion über Verwarnungen hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im 3DCenter-Forum zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046

robbitop
2004-07-07, 11:56:54
@tombman
du bist für dein Verhalten verantwortlich und nicht andere.
Wenn du meinst, es seien hier alle NVIDIA Fanboys, bitte, dann lass sie doch. Fanboys stellen sich durch ihre Aussagen selbst als lächerlich hin..darauf zu reagieren ist sinnlos. Dein Betragen hier im Forum zeigt allerdings, dass du gewisse Fehler nicht einsiehst, und dass du nicht immer sachlich bleiben kannst und dass dein Ton wirklich miserabel ist.
Geistige Reife beweist man eigentlich nur, wenn man einigermaßen sachlich bleibt. Rumschreien und rumpöbeln ...und hey die anderen sind schuld...das ist das Letzte.

danke.

tombman
2004-07-07, 11:59:02
Original geschrieben von robbitop
@tombman
du bist für dein Verhalten verantwortlich und nicht andere.

mein Verhalten unterscheidet sich nicht von den anderen hier...

ich kann ja nicht mit mir allein im thread flamen, da gehören immer mehrere dazu.

Korak
2004-07-07, 12:07:02
Wow, da hat die Verwarnung ja imposante 36min geholfen. Jetzt ist hier mal ein Ende.

@ tombman: Wir sind weder blind noch blöde.

Und nein ich werde diesen Thread nicht aufräumen. Der verschwindet jetzt sang- und klanglos in der Versenkung


Update: Thread wird wohl heute Abend oder im laufe des Tages aufgeräumt und dann wieder geöffnet. Punkte gibts dann auch noch dazu.

Winter[Raven]
2004-07-07, 12:18:47
Allen Gerüchten zutrotz, Nvidia ist mit IB sehr zufrieden und wird auch in Zukunft bei IBM produzieren.

Quelle: PCGH

Damit ist wohl der Grund für die rare Menge an NV40 chips zuerklären.

Bitte ... nicht spammen und bashen!

Madkiller
2004-07-07, 15:57:57
Original geschrieben von tombman
mein Verhalten unterscheidet sich nicht von den anderen hier...

ich kann ja nicht mit mir allein im thread flamen, da gehören immer mehrere dazu.


Da der Thread in absehbarer Zeit eh wieder geöffnet wird:

Ich möchte dazu mal 2 Dinge sagen:

Einmal:
Man kann nicht provoziert werden, man kann sich nur provozieren lassen.
Ist ein kleiner aber feiner Unterschied, und nimmt dich keineswegs aus der Verantwortung.

Zum anderen ergibt 2 x Unrecht noch lange kein Recht.
Auch von daher war dein Verhalten falsch.

Wenn du deiner Meinung nach von jemanden ungerechtfertigt angegangen wirst, hast du die Möglichkeit das zu melden, und wir kümmern uns dann ggf darum.
Denn wenn du hier gegen die Forumsregeln durch deine "Selbstjustiz" verstößt, mußt du mit Konsequenzen rechnen. Die Gründe warum du das gemacht hast, sind absolut 2.Rangig.



Nur vorsorglich für alle :
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im 3DCenter-Forum zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046

Korak
2004-07-08, 14:22:21
So, wieder offen. Ihr dürft Chrushi dafür anbeten ;)

Crushinator
2004-07-08, 15:25:27
Diskussionen über die Wiedereröffnung des Thread ggf. dort (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=153696) weiterführen bitte.

deekey777
2004-07-09, 21:51:58
Bei Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2113) ist ein Test ua einer 6800 zu finden, welche sich gar nicht mal so übel schlägt.

q@e
2004-07-10, 11:00:48
Das, was ich bisher von der non-Ultra so gesehen habe, ist die Karte teilweise wirklich gestraft mit nur 128MB - denn trotz 12 Pipes und relativ niedrigem Takt gäbe es in einigen Games durchaus noch die Möglichkeit eine oder zwei Stufen höher zu schalten, wenn das VRAM nicht ausginge.

Karümel
2004-07-10, 11:48:04
Aber mehr als 128 MB ram braucht ma doch eigentlich nicht wenn man notfalls auf AA verzichten kann, oder?
Ich frage weil die normale 6800 für mich eigentlich die Karte ist welche ich mir evtl. kaufen werde, die anderen sind mir viel zu teuer. Obwohl knapp 300 Euro für eine 6800 ja auch nicht gerade billig sind.

q@e
2004-07-10, 17:40:07
Ohne AA reichen 128MB (noch). =)

M@g
2004-07-10, 17:47:20
Kommt auf die Auflösung an *klugscheis*
Für 1024 als Spielauflösung mit AA hat se genug Power, siehe div Benchmarks (sogar in FarCry).

q@e
2004-07-10, 23:23:02
Original geschrieben von M@g
Kommt auf die Auflösung an *klugscheis*

Eigentlich mehr darauf, ob TP genutzt wird, und wie groß die Texturen des jeweiligen Game-Levels sind.
*klugscheiss*

dildo4u
2004-07-15, 19:07:10
Bei giga Help wird heut Abend die Aopen 6800GT und Ultra vorgestellt um 21uhr

http://www.giga.de/index.php?storyid=102129

BvB123
2004-07-15, 20:14:37
WO steht denn das das um 21 uhr kommt?

und kann man das über internet schauen?

Black-Scorpion
2004-07-15, 20:25:32
Original geschrieben von BvB123
WO steht denn das das um 21 uhr kommt?
Weil GIGA Help immer (Mo-Fr) um 21.00Uhr kommt. ;)
http://www.giga.de/index.php?bereichid=9
und kann man das über internet schauen?
Ja, per Stream.
http://www.giga.de/features/live/

'edit' Links hinzugefügt

dildo4u
2004-07-15, 20:30:54
Original geschrieben von BvB123
WO steht denn das das um 21 uhr kommt?

und kann man das über internet schauen?

hier gibt den stream
http://www.giga.de/features/live/

Aqualon
2004-07-16, 09:21:18
Original geschrieben von q@e
Ohne AA reichen 128MB (noch). =)
Wobei sich die Frage stellt, welchen Sinn eine GeForce 6800 macht, wenn man eh kein AA benutzen will.

Da kann man sich die 300 Euro eigentlich sparen und eine schnelle Karte der Vorgängergeneration holen, die bestimmt auch noch 1-2 Jahre alle Spiele gut darstellen wird und bei weitem nicht so viel kostet. Der einzige Vorteil der 6800 wäre dann noch die Shader 3.0 Unterstützung, bei der aber noch niemand sagen kann, wann sie wirklich Vorteile mit sich bringt.

Aqua

q@e
2004-07-16, 09:26:14
Ich wage mal zu behaupten, daß, wenn das 128MB-Limit nicht mit ins Spiel kommt, die GF6800 in >95% der Spielsituationen alles aus der Vorgängergeneration ziemlich überfährt.

Und wer kennt schon die Anforderungen von D3 und HL2 genau?

Aqualon
2004-07-16, 10:02:44
Original geschrieben von q@e
Ich wage mal zu behaupten, daß, wenn das 128MB-Limit nicht mit ins Spiel kommt, die GF6800 in >95% der Spielsituationen alles aus der Vorgängergeneration ziemlich überfährt.

Und wer kennt schon die Anforderungen von D3 und HL2 genau?
Genau kennt sie natürlich niemand, aber weder ID noch Valve werden Spiele herausbringen, die eine NV40 bzw. R420 basierte Grafikkarte benötigen, um wirklich gut zu laufen.

Wer immer die höchste Qualität bei allen Spielen möchte, muss zwangsweise die neueste und schnellste Hardware kaufen. Aber wenn man auf AA verzichten kann, gehört man IMHO nicht zu den Hardcoregamern bzw. Qualitätsfetischisten, die auf die neueste Hardware angewiesen sind. Mag sein, dass man gewisse Spiele der nächsten 1-2 Jahre nicht in voller Qualität mit allen Effekten auf einer NV3x bzw. R3xx benutzen kann, aber mit kleinen Einschränkungen sollten alle Spiele flüssig laufen.

Das Spielerlebnis wird schließlich nicht alleine dadurch besser, dass man gewisse gut aussehende Effekte hat. Ein Spiel muss einfach ein gutes Gesamtpaket aus Grafik, Sound, Handlung und Spielspaß darstellen und dann ist es meiner Meinung nach nicht so wichtig, ob jetzt die Grafik wirklich alle theoretischen Möglichkeiten ausnutzt oder nicht. Wenn ein Spiel mehr grafische Möglichkeiten bietet, als die momentane Hardware darstellen kann und auch sonst langfristig Spaß macht, ist es doch schön das Spiel nach 1 oder 2 Jahren nochmal zu spielen, wenn man neue Hardware hat. Serious Sam 1 habe ich zum ersten Mal in 512*384 auf nem P200 MMX gespielt und es hat Spaß gemacht. 1 Jahr danach in 1024*768 mit mehr Effekten hat es immer noch viel Spaß gemacht und ich habe gestaunt, wie gut das Spiel eigentlich aussehen kann.

Klar ist die 6800 eine schnelle Karte und wohl auch meist schneller als NV3x bzw. R3xx, aber man sollte sich trotzdem fragen, ob man die Power überhaupt braucht und das gesparte Geld nicht anderweitig sinnvoller einsetzen kann. Ein gutes System besteht ja schließlich nicht nur aus einer schnellen Grafikkarte.

Aqua

Grestorn
2004-07-16, 10:07:32
Original geschrieben von Aqualon
Klar ist die 6800 eine schnelle Karte und wohl auch meist schneller als NV3x bzw. R3xx, aber man sollte sich trotzdem fragen, ob man die Power überhaupt braucht und das gesparte Geld nicht anderweitig sinnvoller einsetzen kann. Ein gutes System besteht ja schließlich nicht nur aus einer schnellen Grafikkarte.

Nun, wenn man seine Kiste hauptsächlich zum Spielen einsetzt, dann gibt es allerdings kaum wichtigere Komponenten, wenn es um das Spielvergnügen geht.

Klar kann man Geld für leisere Komponenten (LC o.ä.) ausgeben, klar ist der Prozessor wichtig und wenn die Festplatte schon mehr als 5 Jahre auf dem Buckel hat dauer das Laden sicher auch etwas länger.

Unterm Strich bleibt aber: Wenn man alte oder neue Spiele "besser" machen will, muss man das Geld in eine GraKa investieren, nur so bekommt man höhere Auflösungen, bessere Kantenglättung, schärfere Texturen und alle Effekte bei neuen Spielen. Keine andere Investition bringt einem Spieler vergleichbar viel.

aths
2004-07-16, 11:05:09
Original geschrieben von Aqualon
Das Spielerlebnis wird schließlich nicht alleine dadurch besser, dass man gewisse gut aussehende Effekte hat. So ist es. Die "Spielerfahrung" setzt sich aus vielen Bausteinen zusammen, in denen Grafikeffekte und Auflösung nur Bestandteile eines größeren Komplexes sind.
Original geschrieben von Aqualon
Ein Spiel muss einfach ein gutes Gesamtpaket aus Grafik, Sound, Handlung und Spielspaß darstellen und dann ist es meiner Meinung nach nicht so wichtig, ob jetzt die Grafik wirklich alle theoretischen Möglichkeiten ausnutzt oder nicht. Eben. Erst mal alle ingame-Details zu maxen ist eine Sitte, oft zu unsinnigen Konfigurationen führt.
Original geschrieben von Aqualon
Serious Sam 1 habe ich zum ersten Mal in 512*384 auf nem P200 MMX gespielt und es hat Spaß gemacht. 1 Jahr danach in 1024*768 mit mehr Effekten hat es immer noch viel Spaß gemacht und ich habe gestaunt, wie gut das Spiel eigentlich aussehen kann.Exakt: Die Begründung, Karten wie die 6800 (oder X800) solle man in 1600x1200 benchen, da man sie sonst nicht ausnutzen würde, kann sich eigentlich nur ein Vollhorst ausgedacht haben. Man sollte immer praxisnah benchen, und nur wenige fahren 1600x1200. Für alle, die maximal 1280x1024 fahren, haben Benches in 1600x1200 nur theoretischen Wert – ungefähr so, als würde man mit dem 3DMark Spieletauglichkeit feststellen wollen.
Original geschrieben von Aqualon
Klar ist die 6800 eine schnelle Karte und wohl auch meist schneller als NV3x bzw. R3xx, aber man sollte sich trotzdem fragen, ob man die Power überhaupt braucht und das gesparte Geld nicht anderweitig sinnvoller einsetzen kann. Ein gutes System besteht ja schließlich nicht nur aus einer schnellen Grafikkarte.Leider hat NV die 6800 GT jetzt von mir zurückverlangt :( so dass ich wieder die 5900 XT nutze. Welche allerdings ebenfalls "mehr als ausreichend" ist.

Jeder, der eine 5700 (oder 9600) hat, kann praktisch jedes Spiele vernünftig spielen. (Zwei oder drei Ausnahmen bestätigen die Regel.)

q@e
2004-07-16, 11:15:26
Wenn jemand (in diesem Falle Karümel) aber schon offen über so eine Karte nachdenkt und sich nur des Preises wegen nicht für eine noch "Größere" interessiert, liegt die Vermutung nahe, daß er aktuelle und kommende Games nicht unbedingt mit reduzierten Details spielen möchte - ansonsten kann ich Far Cry auch auf einem Celeron@566 und einer R9200SE zocken (selbst probiert - geht!).

Und da mein Argument gegen eine 6800 die geringe VRAM-Größe durch seinen erklärten Verzicht auf AA negiert wurde, ist diese Karte wohl das beste, was momentan in seinen Preisrahmen passt.

Tjell
2004-07-16, 11:20:46
Was mich betrifft:
Ich habe mich an Anti-Aliasing und den Einsatz des anisotropen Filters gewöhnt und möchte bzw. kann diese nicht mehr missen.

Ein Beispiel: BFV mit seiner grottig programmierten Grafikengine ruckelt bei 1024×768, höchsten Details und dem Einsatz von AA und AF gewaltig. Um es flüssig spielen zu können, muß ich entweder auf AA und AF verzichten oder die Details runterschrauben. Beides ist inakzeptabel für mich, weil es dann in meinen Augen grottig aussieht, vor allem wenn ich auf AA verzichte bekomme ich Augenkrebs.

So bleibt mir nur die Wahl, auf BFV zu verzichten oder eine neue Graka zu kaufen. Damit mir nicht langweilig wird (was aufrüsten angeht) mache ich letzteres. :)

dildo4u
2004-07-20, 09:22:46
http://www.trustedreviews.com/article.aspx?head=15&page=1291

Review:Gainward PowerPack! CoolFX Ultra/2600 TV-DVI-DVI

trelkowski
2004-07-20, 11:10:19
Gibt es eigentlich eine GT mit 2xDVI?
Vor ein paar Tagen konnte man, z.B. bei Gainward, noch eine GT mit 2xDVI finden, die ist jetzt verschwunden. cyberport.de (http://www.cyberport.de) listet die Karte zwar noch, ist mir aber zu unsicher. Mit zwei TFTs wäre Dual-DVI schon nett. Und so einen Ultra-Extrem-Strom-Fresser brauch ich nicht. Da fragt man sich doch bei steigender Verbreitung von TFTs mit DVI-Anschluss, ob der zweite DVI-Ausgang eigentlich so kompliziert (und damit teuer) zu produzieren ist, dass die Hersteller darauf verzichten? Adapter auf VGA gibt es ja trotzdem!

LovesuckZ
2004-07-20, 11:24:47
Das Referenzdesign der GT Karten sieht keine 2xDVI vor.
Es ist daher zur zeit wohl fast unmoeglich solch eine Karte zu bekommen, da die ersten nur stur nach dem referenzdesign gefertig sind.

KiBa
2004-07-20, 12:14:53
wie siehts andersrum aus? gibts auch ultra karten mit normalem vga-anschluß? hab bis jetzt nur dvi+adapter gesehen, macht das irgendeinen unterschied (bildqualiität)?

Winter[Raven]
2004-07-20, 12:39:53
Original geschrieben von KiBa
wie siehts andersrum aus? gibts auch ultra karten mit normalem vga-anschluß? hab bis jetzt nur dvi+adapter gesehen, macht das irgendeinen unterschied (bildqualiität)?

Nein, Nvidia meinte mal vor ne Weile, man wolle sich in der Zukunft mehr um DVI kümmern, und diesen auch verbauen. Die Ultra ist wohl der erste Schritt dahin.

trelkowski
2004-07-20, 18:26:12
Man möge mich steinigen, aber sieht das Platinenlayout der GT bis auf den 2. Stromanschluss nicht dem der Ultra zum Verwechseln ähnlich? Soweit meine Ahnung reicht, sind die Schaltungen für DVI in den 6800er Chip integriert. Also ist auch kein zusätzlicher Chip auf der Plaine nötig.

Seltsam ist auch, dass die Gainward PP! Ultra/2400 GS von einigen Shops mit 2xDVI gelistet wird.

Egal, muss halt 'ne Ultra her, wenn denn mal Asus oder MSI mit einem eigenen und vor allem leisen Kühlerdesign glänzen. Ich vermute, dass dies erst mit dem Refresh NV48(e) umgesetzt wird.

Torian.cc
2004-07-20, 18:38:14
Öm, soweit ich weiss, hat ASUS ein eigenes Kühlerdesign auf ihren 6800ertern verbaut!
Blockiert nicht den ersten PCI, soll aber einen Höllenlärm machen. Zum Übertakten ist der Kühler/Lüfter aber anscheinend bestens geeignet (zumindest laut PCGamesHardware).
Die von PCGH haben, soweit ich mich erinnern kann, eine ASUS V9999 Ultra Deluxe (´ne andere gibts anscheinend garnicht...) auf stabile 470MHz übertaktet!!

Der Kauf einer ASUS V9999 Ultra Deluxe hat sich für mich leider erstmal erledigt, da das schöne, in mühsamer Arbeit, zusammengesparte Geld für ´nen neuen 22 Zoll-Monitor verwendet wurde. Denn der hat vor ein paar Wochen, nach nur 3 Jahren und 6 Wochen Laufzeit, leider schon den Geist aufgegeben :(
Also werde ich wohl doch auf den Refresh NV48 warten "müssen".

All denen, die aber doch schon eine Geforce 6800 ergattern konnten, wünsche ich viel Freude mit Ihrem neuen Stück Hardware *grmblfjx+neidischsei* ;)

MfG
Tori

dildo4u
2004-07-21, 22:44:33
http://www.elitebastards.com/page.php?pageid=5603&head=1&comments=1

PNY GeForce 6800GT review

Winter[Raven]
2004-07-22, 01:24:36
GEforce 6800 GT, schlägt R420 PE in allen DOOM III Benches ... Ob mit AA oder AF oder beides, die GT bleibt vorne ... ;D

http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_1_l.gif

http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_2.gif

http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif

Hellfire-Torrod
2004-07-22, 01:47:34
Es gab doch mal diese heftigsten Diskusionen über einen extremen Quality-modus der selbst nicht auf einer 6800Ultra Flüssig darstellbar währe. DIe Benches dort oben scheinen aber etwas anderes zu zeigen :???:

dildo4u
2004-07-22, 01:50:24
Original geschrieben von Hellfire-Torrod
Es gab doch mal diese heftigsten Diskusionen über einen extremen Quality-modus der selbst nicht auf einer 6800Ultra Flüssig darstellbar währe. DIe Benches dort oben scheinen aber etwas anderes zu zeigen :???: Jo den High Quality mode steht ja da =)

Hellfire-Torrod
2004-07-22, 16:49:43
Nur mit dem kleinen unterschied , dass es flüssig spielbar zu sein scheint.

seahawk
2004-08-05, 13:50:37
http://www.anandtech.com/video/showdoc.aspx?i=2113&p=2

Ach ja, es gibt keine 6800 UE zu kaufen ??

dildo4u
2004-08-07, 22:28:10
BFG GeForce 6800 Ultra OC

http://www.bleedinedge.com/reviews/6800_ultra/6800_ultra_01.html

http://www.bleedinedge.com/reviews/6800_ultra/BFG6800/6800%20Ultra%20OC.jpg

Jesus
2004-08-09, 11:22:58
']GEforce 6800 GT, schlägt R420 PE in allen DOOM III Benches ... Ob mit AA oder AF oder beides, die GT bleibt vorne ... ;D


http://www.computerbase.de/artikel/hardware/grafikkarten/grafikkartenperformance_doom_3/4/#1024x768_pixel

Radeonator
2004-08-09, 12:14:13
Hat jemand die 6800 mit 128MB, wenn ja, wie läuft das Teil?

Tjell
2004-08-09, 13:31:47
tjell

wo ist denn da ne 6800gt getestet bei chip online getestet worden? um die gings jesus. versteh daher den zusammenhang nicht ganz.
Na hoppla, ist da nicht im ersten Bild sogar die 6800 konkurrenzfähig?

Auszug aus dem Fazit von Chip Online:
(Daniel Bader, CHIP Redakteur)
Doch für ATI kommt’s noch schlimmer: Selbst die GeForce 6800, Nvidias günstigste Grafikkarte im Highend-Bereich, liegt bei den meisten Benchmarks vor ATIs Radeon X800 XT PE. Dabei kostet sie mit etwa 280 Euro gerade mal die Hälfte.
Nicht, daß Chip Online gerade durch hervorragende Reviews berühmt geworden ist...

Mr. Lolman
2004-08-09, 13:56:24
Die hätten besser mit neueren Treiber getestet, so wie hier z.B.: http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3hotfix_atikarten/

Tjell
2004-08-09, 14:13:20
Die hätten besser mit neueren Treiber getestet, so wie hier z.B.: http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3hotfix_atikarten/
Das, worauf Du verweist, ist kein neuer ATI-Treiber, sondern ein inoffizieller Hotfix eines ATI-Mitarbeiters, der das Programm (Spiel) Doom3 an sich verändert, sprich einige Shader umschreibt.

Chip hat ForceWare-Treiber in der Version 61.77 (Nvidia) beziehungsweise Catalyst 4.9 Alpha Version 8.05 (ATI) verwendet, ist also auf neuem Stand.

Kaum erdreistet sich NV mal in einem einzigen Spiel (signifikant) schneller zu sein, muß doch jede News herausgefischt werden, die (an anderer Stelle vorgekommen) NV Cheating oder ID Parteinahme vorwirft oder, wie hier geschehen, irgendwelche Alpha-Treiber von ATI als den Performance-Egalisierer feiert.

Als bräche eine Welt zusammen, wenn NV auch mal einen Benchmark gewinnt. Bei HL2 wird sicherlich ATI wieder vorne liegen, solange jedoch NV spielbare Werte bei guter Qualität liefert, ist das doch auch wurscht.



An dieser Stelle steige ich aus meiner Rolle als Don Quijote aus diesem Thema aus.

DrumDub
2004-08-09, 14:36:19
Na hoppla, ist da nicht im ersten Bild sogar die 6800 konkurrenzfähig?


ist sie (ohne aa+af). das will auch keiner bestreiten. es ging auch lediglich um die aussage, dass die 6800gt in allen d3 benches schneller ist als ne x800xt pe. diese aussage ist nunmal falsch.

LovesuckZ
2004-08-09, 15:21:33
geforce 6600 zur Quakecon? (http://www.xbitlabs.com/news/video/display/20040806105201.html)

es ging auch lediglich um die aussage, dass die 6800gt in allen d3 benches schneller ist als ne x800xt pe. diese aussage ist nunmal falsch.

Raven bezieht sich auf den Test von hardocp.com, wie man am Datum erkennen kann.
Wie kann also seine Aussage falsch sein, wenn zum damaligen Zeitpunkt, sie stimmte?

DrumDub
2004-08-09, 16:05:48
[SIZE=1Raven bezieht sich auf den Test von hardocp.com, wie man am Datum erkennen kann.
Wie kann also seine Aussage falsch sein, wenn zum damaligen Zeitpunkt, sie stimmte?[/SIZE]

nun denn. so gesehen haste natürlich recht. ist halt ne frage der perspektive... hätte er geschrieben in allen benches auf hardocp.com, wär die aussage ja auch (jetzt) nicht falsch.
die frage hängt ja auch immer stark von der auflösung und aa/af ab, was da für ergebnisse bei rauskommen. in 640x480 ist die x800xt pe ja auch immer schneller als alle 6800er. nur ist das wirklich uninteressant.
spannender sind da die ergebnisse bei 1600x1200 4xaa/8af, die sowohl auf der 6800gt, als auch auf der x800xt pe frameraten im absolut spielbaren bereich (ca. 50fps) liefern. nur ist die x800 pro der konkurrent für die 6800gt.

deshalb bin ich auch der überzeugung, dass die 6800gt vom p/l-verhältnis her momentan die beste karte für den anspruchsvollen gamer ist, die es auf dem markt gibt.

Mr. Lolman
2004-08-09, 16:49:40
Das, worauf Du verweist, ist kein neuer ATI-Treiber, sondern ein inoffizieller Hotfix eines ATI-Mitarbeiters, der das Programm (Spiel) Doom3 an sich verändert, sprich einige Shader umschreibt.

Chip hat ForceWare-Treiber in der Version 61.77 (Nvidia) beziehungsweise Catalyst 4.9 Alpha Version 8.05 (ATI) verwendet, ist also auf neuem Stand.


Dann wundere ich mich, warum solche enormen Performanceunterschiede zw. den Chip und den CB Ergebnissen zu finden sind, da ja nicht nur Hr. Perssons Hotfix getestet wurde, sondern auch der 4.9beta im Vergleich mit dem 4.7


Kaum erdreistet sich NV mal in einem einzigen Spiel (signifikant) schneller zu sein, muß doch jede News herausgefischt werden, die (an anderer Stelle vorgekommen) NV Cheating oder ID Parteinahme vorwirft oder, wie hier geschehen, irgendwelche Alpha-Treiber von ATI als den Performance-Egalisierer feiert.

Als bräche eine Welt zusammen, wenn NV auch mal einen Benchmark gewinnt. Bei HL2 wird sicherlich ATI wieder vorne liegen, solange jedoch NV spielbare Werte bei guter Qualität liefert, ist das doch auch wurscht.


Mir ist dass doch egal wer welche Benchmarks gewinnt. Mit dem Link wollt ich nur demonstrieren, dass zumindest von meiner Seite eine Verwunderung da ist, warum die Chip Ergebnisse so stark von dem was CB herausbekommen hat, abweichen.

Jesus
2004-08-09, 19:48:50
ich verstehe ehrlich gesagt nicht wo dein problem ist. Im X800 thread wurden ja schliesslich auch nicht die allerersten Benchmarks stehen gelassen mit aktivierten optimierungen wo die X800 überall schneller war.

Wenn sich sachen ändern durch neue Treiber etc. dann darf man das doch posten, oder ist das verboten ? tsts...

seahawk
2004-08-09, 20:00:51
Und die Hotfixes + Treiber werden imho noch mehr ändern.

Mich wundert nur, dass niemand Protest schreit, wenn die Hotfixes Shadereplacement vornehmen.

Quasar
2004-08-09, 20:12:37
ich verstehe ehrlich gesagt nicht wo dein problem ist. Im X800 thread wurden ja schliesslich auch nicht die allerersten Benchmarks stehen gelassen mit aktivierten optimierungen wo die X800 überall schneller war.

Wenn sich sachen ändern durch neue Treiber etc. dann darf man das doch posten, oder ist das verboten ? tsts...
Vergleiche bitte Thread-Thema und Post-Thema (meine Hervorhebung in deinem Posting) mit der Situation hier. =)

Zur Erinnerung: Thread-Thema nV40/GF6800-Thread und X800. ;)


@Seahawk:
Das darfst du doch nicht vergleichen - vorsorglich ist es nur ein BETA-Treiber (also alle ein Mißverständnis, falls irgendwelche Irregularitäten auffallen) und eine rein private Shader-Änderung von Humus, der rein zufällig bei ATi angestellt ist.

saccus
2004-08-10, 10:28:38
Welche Graka würdet ihr mir empfehlen ???

9800xt oder http://www.fortknox.de/cat2.php?art=67697

Quasar
2004-08-10, 10:45:59
Gehört hier zwar nicht unbedingt rein, aber wenn der Preisunterschied (so vorhanden) dir egal ist - letztere, da die ebenfalls 256MB hat, was bei den bisherigen GF6800nu mit nur 128MB IMO ein Finger-Weg Grund war.

Madkiller
2004-08-10, 11:37:32
Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=161241) kann die OT-Diskussion fortgesetzt werden.

StefanV
2004-08-10, 11:39:39
Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=161241) kann die OT-Diskussion fortgesetzt werden.

THX, für deine Mühe, Madkiller!!

Kannst du nicht mal aufhören hier rumzuspammen??
1. sehe ich das nicht als Spam an, sich für etwas zu bedanken.
Sowas könnte man ja auch z.B. als Höflichkeit betrachten, sich für etwas zu bedanken...

2. öhm, nunja, kannst dir sicher denken, was ich hier schreiben wollte, oder?

Unregi
2004-08-10, 11:45:50
THX, für deine Mühe, Madkiller!!


Kannst du nicht mal aufhören hier rumzuspammen??

nggalai
2004-08-10, 11:53:22
Und die Hotfixes + Treiber werden imho noch mehr ändern.

Mich wundert nur, dass niemand Protest schreit, wenn die Hotfixes Shadereplacement vornehmen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=160662

Das Geschrei ist zwar nicht gross, aber da. ;)

Aktueller Stand ist übrigens, dass Humus' Original-Hotfix bei weitem nicht äquivalent zum Original ist und Probleme macht. Nimmt man einen weitestgehend äquivalenten Patch (z.B. den aktuellen von Demirug fast zu hinterst im Thread), hält sich der Performance-Gewinn im Rahmen resp. liegt fast innerhalb der Messgenauigkeit.

93,
-Sascha.rb

dildo4u
2004-08-10, 17:29:22
http://www.nvnews.net/reviews/evga_geforce_6800gt/index.shtml

evga 6800GT review bei nvnews

dildo4u
2004-08-29, 00:06:42
MSI 6800 128mb Review mit dabei 6800GT und X800pro

http://www.vr-zone.com/reviews/MSI/6800/1.jpg


http://www.vr-zone.com/?i=1208&s=1

winter
2004-08-29, 00:37:02
Ja, die Verpackung kenne ich :P mit dem Unterschied dass bei mir de ganzen CDs in der Schachtel rumflogen da die ned mit einem Gummi zusammengebunden waren X-D

dildo4u
2005-04-16, 18:03:20
Review der PCI-E Club3D GeForce 6800 Ultra 425/550 auf hardwareluxx


"Club3D ist einer der ersten Hersteller, der GeForce 6800 Ultra-Karten für PCI-Express in Stückzahlen verkauft. Wir schauen uns die High-End-Karte, die mit 425 Mhz GPU- und 550 Mhz Speichertakt bereits sehr schnell unterwegs ist, genauer an und testen sie gegen die anderen Top-Karten im PCI-Express-Bereich... "


http://www.hardwareluxx.de/cms/artikel.php?action=show&id=164

Black-Scorpion
2005-04-16, 19:37:57
Eins ist gerade aufgefallen.
Bei meiner Club3D X800 XL ist das Zubehör anders.

PowerDVD 5 und Colin McRae Rally 2005 (DVD) dafür das Handbuch nur auf CD.

Gast
2005-04-16, 19:42:52
Eins ist gerade aufgefallen.
Bei meiner Club3D X800 XL ist das Zubehör anders.

PowerDVD 5 und Colin McRae Rally 2005 (DVD) dafür das Handbuch nur auf CD.
Ähm, und was hat das mit dem NV40/6800-Thread zu tun?

dildo4u
2005-05-01, 18:45:49
Passt nicht so 100% aber hier mal 4 6600GTs AGP im Test bei Computerbase.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/viermal_geforce_6600_gt_agp/