PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia launched Geforce 6800 Extreme Edition und cheatet?


Senior Sanchez
2004-05-04, 22:10:48
Hi,

erstmal eins vorweg (ist jetzt kein geschleime): Respekt an Ati was sie da scheinbar vollbracht haben. Mit halbwegs normaler Technik stellen sie eine Karte zusammen die dem Geforce-Monster (was anderes bleibt mir da nich übrig zu sagen, weil das Teil ist einfach pure Gewalt!) ebenbürtig/überlegen ist. Was mir allerdings vllt fehlen würde, sind die Video-Fähigkeiten der Geforce 6800 in der Ati, aber gut sone Karte is hauptsächlich zum zocken da.

Aber nun hat der Launch der GF 6800 Extreme Edition mich doch leicht an etwas erinnert, was wir doch schonmal hatten:
Ein Unternehmen produziert was sehr leistungsstarkes und der direkte Konkurrent feuert zum Launch des neuen Produkts gleich noch irgendwie ne extreme variante hinterher. Das hatten wir doch schon mal! Richtig, als AMD den Athlon 64 gelaunched hat und Intel am gleichen Tag noch seinen P4 Extreme Edition nachgefeuert hat. Auffällig sind übrigens die Ähnlichkeiten in den Produktnamen der "schlechten Verlierer" (Pentium 4 EXTREME edition, Geforce 6800 EXTREME edition) ;)))

Naja, aber anscheinend optimiert nVidia da mal wieder zu viel an den Treibern (http://www.chip.de/news/c_news_11844422.html). Wie wahr diese Behauptung sowie die ganzen bisherigen Benchmark-Ergebnisse der X800XT sind, wird sich zeigen (ich weiß das chip.de nicht gerade ne sehr gute quelle ist, ich vertraue auch mehr auf www.3dcenter.de ;))) ).

Ich wollts jedenfalls nur mal so bemerkt haben :)


mfg Senior Sanchez

GUNDAM
2004-05-04, 22:16:17
Ich glaub kaum das diese Extreme Edtion eine chance gegen die X800 hat. Vor allem, was wird diese Karte kosten? Die 6800Ultra soll ja schon 550 Euro kosten. Wird die dann 600 Euro und aufwärts kosten?

Raff
2004-05-04, 22:23:12
Ja, die lieben Optimierungen ... Mir persönlich ist das sowas von wurscht - unter 2 Bedingungen:

1. Der Speedzuwachs muss überall im Spiel zu sehen sein, nicht nur in einer Timedemo!
2. Es darf Nullkommanix an der Bildqualität flöten gehen!

Solange das zutrifft, verstehe ich den Aufruhr nicht.

MfG,
Raff

P.S: Die 6800 Ultra Extreme ist doch nur dazu da, um Benches zu gewinnen, Prestige ist alles. Kaufen werden dieses völlig überteuerte Geschoss nur die Wenigsten - genau wie den P4EE.

Senior Sanchez
2004-05-04, 22:27:40
P.S: Die 6800 Ultra Extreme ist doch nur dazu da, um Benches zu gewinnen, Prestige ist alles. Kaufen werden dieses völlig überteuerte Geschoss nur die Wenigsten - genau wie den P4EE.

Ja sicher ist das Prestige, aber ist halt interessant zu sehen was nVidia da in seiner "Verzweiflung" tut um doch noch die Performance-Krone zu bekommen.


mfg Senior Sanchez

martma
2004-05-04, 22:46:21
nVidia macht sich zum 2. mal nach der 5800er lächerlich mit ihren spielchen.

Godmode
2004-05-05, 00:20:17
Laut Nvidia ligt es an dem Z Cull Bug. Demirug meinte also das durch diesen Bug Dinge gerendert werden, die nicht gerendert werden sollten. Durch den neuen Treiber haben sie das gefixt.

Es wird mit neueren FarCry Versionen und neuen Treibern sicherlich noch mehr Performace geben, da es jetzt noch Probs gibt die am Spiel selber liegen. Zb wird der NV40 nicht richtig erkannt... naja die werden da sicherlich noch was an Performance rausholen.

Und nur weil sie bei Chip.de schreiben, dass es ein Cheat ist würde ich eher warten was zb Leo, Ahts, Demi,... dazu sagen.

Ich verstehe schon manche im Bezug auf Nvidia und Cheating, aber bei ATI sind sie auch nicht besonders zimperlich, man vergisst halt schnell, ich will da nix altes mehr rauskramen, aber will nur darauf hinweisen, das beide Firmen cheaten und gecheatet haben.

LovesuckZ
2004-05-05, 08:03:01
Original geschrieben von Senior Sanchez
Ja sicher ist das Prestige, aber ist halt interessant zu sehen was nVidia da in seiner "Verzweiflung" tut um doch noch die Performance-Krone zu bekommen.
mfg Senior Sanchez

Müssen sie ja, nachdem kein Reviewer die Featurelosigkeit des r420 bemaengelt. Ich meine, so blind kann man nicht sein, um das zu übersehen.
Und da heutzutage sowieso sich alles nur über die Leistung verkauft, kann man gleich den HQ Button aus dem Controlplanel streichen...

Porno
2004-05-05, 09:01:55
Original geschrieben von LovesuckZ
Müssen sie ja, nachdem kein Reviewer die Featurelosigkeit des r420 bemaengelt. Ich meine, so blind kann man nicht sein, um das zu überheben.
Und da heutzutage sowieso sich alles nur über die Leistung verkauft, kann man gleich den HQ Button aus dem Controlplanel streichen...

Du bist damals auch sicher auf den T&L Hype hereingefallen...

aths
2004-05-05, 09:22:55
Original geschrieben von LovesuckZ
Müssen sie ja, nachdem kein Reviewer die Featurelosigkeit des r420 bemaengelt. 3DCenter gehört nicht zu den Seiten, die du liest? ;(
Original geschrieben von Porno
Du bist damals auch sicher auf den T&L Hype hereingefallen... T&L ist afaik weniger einfach zu implementieren gewesen, als man jetzt PS_3_0-Support implementieren kann.

Natürlich ist die Frage berechtigt, was 3.0 jetzt bringt. Unter Umständen ein wenig mehr Leistung als mit dem 2_0 (bzw. 2_A) Profil.

q@w
2004-05-05, 10:06:48
Original geschrieben von Jean-Luc Picard
Ich glaub kaum das diese Extreme Edtion eine chance gegen die X800 hat. Vor allem, was wird diese Karte kosten? Die 6800Ultra soll ja schon 550 Euro kosten. Wird die dann 600 Euro und aufwärts kosten?

Die 6800 Ultra wird aktuell bie Einzelhändlern mit ~530EUR gelistet, während die X800 XT bei ATi für 499 US-Dollar geplant ist, worauf noch Steuern und Europazuschlag kommen.

Ich würde zumindest nicht darauf wetten, daß die X800XT günstiger wird, als die 6800 Ultra.
Wieviel sich nV bzw. die Boardhersteller für die Extreme zahlen lassen, läßt sich schwer abschätzen - kommt drauf an, wieviel schneller sie dann am Ende wirklich ist, als die 6800 Ultra.

;Q

micki
2004-05-05, 11:59:19
ps 3.0 kann bei aufwendiger beleuchtung mit vielen lichtquellen und shadowmaps sehr viel performance bringen..

z.b. backface-pixel zu lichtquellen, outofrange pixel, beschattete pixel müssen nicht eine instruction schlucken wie es bei ps2.0 nötig wäre und gerade diese bedingungen ändern sich nicht von pixel zu pixel sondern werden grossflächiger im bild vorhanden sein was trotz der koppelung der 16pipes viel boost bringen sollte...

MfG
micki

Godmode
2004-05-06, 00:37:30
Original geschrieben von micki
ps 3.0 kann bei aufwendiger beleuchtung mit vielen lichtquellen und shadowmaps sehr viel performance bringen..

z.b. backface-pixel zu lichtquellen, outofrange pixel, beschattete pixel müssen nicht eine instruction schlucken wie es bei ps2.0 nötig wäre und gerade diese bedingungen ändern sich nicht von pixel zu pixel sondern werden grossflächiger im bild vorhanden sein was trotz der koppelung der 16pipes viel boost bringen sollte...

MfG
micki

Ja stimmt schon, aber wir wissen einfach noch wie effektiv der NV40 bei SM3.0 ist, wird aber nicht mehr so lange dauern denke ich. Ich bin eigentlich schon eher der Meinung das PS3.0 beim NV40 schon was bringt, aber es ist halt noch recht ungewiss.

Kommt halt echt drauf an wie sie SM3.0 implentiert haben: nutzbar oder nur für Devs und erst mit der nächsten Gen nutzbar.

Coda
2004-05-06, 15:40:38
T&L ist afaik weniger einfach zu implementieren gewesen, als man jetzt PS_3_0-Support implementieren kann.
Klar kann man dem HLSL compiler sagen, das er PS 3.0 ausspucken soll, nur muss der Code dann auch die Features nutzen die PS 3.0 brauchen, sonst bringt das außer dem erhöhten instruction und register count mal gar nix.

Also ich würde sagen, dass es mindestens genauso schwer zu implementieren ist, wenn man es WIRKLICH nutzen will.

tokugawa
2004-05-07, 01:15:53
Original geschrieben von bans3i
Ja stimmt schon, aber wir wissen einfach noch wie effektiv der NV40 bei SM3.0 ist, wird aber nicht mehr so lange dauern denke ich. Ich bin eigentlich schon eher der Meinung das PS3.0 beim NV40 schon was bringt, aber es ist halt noch recht ungewiss.

Kommt halt echt drauf an wie sie SM3.0 implentiert haben: nutzbar oder nur für Devs und erst mit der nächsten Gen nutzbar.

SM3.0-äquivalente Shader sind ja schon unter OpenGL auf der NV40 nutzbar, soweit ich weiß. Aber keine Ahnung wie die Extension dazu heißt.

tokugawa
2004-05-07, 01:20:07
Original geschrieben von Coda
Klar kann man dem HLSL compiler sagen, das er PS 3.0 ausspucken soll, nur muss der Code dann auch die Features nutzen die PS 3.0 brauchen, sonst bringt das außer dem erhöhten instruction und register count mal gar nix.


Naja, und potentiellen leichten Performance-Vorteilen, je nach Shadern.

Original geschrieben von Coda
Also ich würde sagen, dass es mindestens genauso schwer zu implementieren ist, wenn man es WIRKLICH nutzen will.

Anwendungsfallbeispiel:

In einer Anwendung (Spiel) wird ein Charakter gerendert, mit 3 verschiedenen "MeshGroups" (definiere ich mal so als eine Gruppe von Vertizes die dasselbe Material haben).

Derzeit sieht es so aus:
- Lade Shader 1
- Render MeshGroup 1
- Lade Shader 2
- Render MeshGroup 2
- Lade Shader 3
- Render MeshGroup 3

Das switchen der Shader kostet Zeit. Daher könnte man, wenn man will, jetzt einfach die 3 Shader in einen hinzufügen und mittels Branching alle MeshGroups in einem Rutsch rendern. Schon hast du deine "Ausnutzung".

Natürlich würde dann das eine gewisse Veränderung im Programmcode erfordern.

An Effekten werden wir wohl noch sehen müssen, was mit SM 3.0 alles möglich ist.

r@h
2004-05-07, 03:14:20
Original geschrieben von Senior Sanchez
Ja sicher ist das Prestige, aber ist halt Interessant zu sehen was nVidia da in seiner "Verzweiflung" tut um doch noch die Performance-Krone zu bekommen.Ich finde es viel interessanter, was ATI tut, um überhaupt irgend etwas interessantes zu bieten.

Oder ist es nicht der "helle wahnsinn", ein Monster mit 180mio Transistoren auf 520MHz zu ziehen ? Deswegen wohl auch die 'verkrüppelten' R420-Varianten, weil man ja den dabei anfallenden 'Schrott' ja auch noch verkaufen möchte.

IMO wird es nur wenige R420 mit vollen Specs zu kaufen geben... was selbstredend auch für den NV40 in der 'EE'-Version gelten wird.

Razor

tokugawa
2004-05-07, 11:18:47
Original geschrieben von r@h
Ich finde es viel interessanter, was ATI tut, um überhaupt irgend etwas interessantes zu bieten.

Oder ist es nicht der "helle wahnsinn", ein Monster mit 180mio Transistoren auf 520MHz zu ziehen ? Deswegen wohl auch die 'verkrüppelten' R420-Varianten, weil man ja den dabei anfallenden 'Schrott' ja auch noch verkaufen möchte.

IMO wird es nur wenige R420 mit vollen Specs zu kaufen geben... was selbstredend auch für den NV40 in der 'EE'-Version gelten wird.

Razor

Stimmt, und wenn ich mir's recht überleg ist mir der High-End-Wettkampf irgendwie sowieso schnurz...

Ich bin hauptsächlich gespannt auf das Rennen im Midrange-Segment unter 200 Euro...

Winter[Raven]
2004-05-07, 11:26:40
180mio Transistoren auf 520MHz zu ziehen ?

Du meinst 160 Millionen ... ;) *eg*