PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14

Radeonator
2004-04-15, 15:10:57
Winkelabhängig ja, aber FULL trilinear und nicht Bilinear...AFAIK...

p.s.: Liebe Fanboy Gemeinde, egal aus welcher Ecke...tut uns einen gefallen : GET A LIVE!!! Evtl. Mal den Onkel Psycho Doktor aufsuchen und euch unterstützen lassen, das meine ich nicht aus Spass!!!

DrumDub
2004-04-15, 15:11:10
Original geschrieben von Winter[Raven]
Rofl ... *lach*. Hätte Nvidia auch den NV30 wirklich kanpp an den DX9.0 Vorgaben gebaut, brächte der NV30 auch sichelrich keine Optimierungen.

Würde ATi nicht ständig auf der Suche nach "wo kann ich Transis einsparen, damit ich höher takten kann" sein, hääten wir heute nicht so einen Mülll mit dem AF.


ati hat eben nur die hw des r3x0 auf kosten der flexibilität und features optimiert. deshalb hat nv eben eine solche software-optimierung wie brilinear nötig gehabt (die aber auch nur auf grund der flexiblen hw des nv3x möglich ist), um gegen den geschwindigkeitsvorteil des winkeladaptiven-af von ati bestehen zu können. da hat hot schon völlig recht. sieh nicht immer alles durch die grüne brille. ;)

Gast
2004-04-15, 15:12:58
Original geschrieben von aths
Gut, dass das mal jemand fragt.

Anfänglich war der NV40 mit nur 12 Pixelpipelines geplant.

Und wieviel Transistoren hätte der 12er-Chip gehabt?

LovesuckZ
2004-04-15, 15:13:39
Original geschrieben von aths
Anfänglich war der NV40 mit nur 12 Pixelpipelines geplant.

die jetzige normale Variante?

Marodeur
2004-04-15, 15:14:10
Original geschrieben von Radeonator
p.s.: Liebe Fanboy Gemeinde, egal aus welcher Ecke...tut uns einen gefallen : GET A LIVE!!! Evtl. Mal den Onkel Psycho Doktor aufsuchen und euch unterstützen lassen, das meine ich nicht aus Spass!!!

Schwerschwer... Da müssten wir ja auch alle hinschicken die auf AEG-Waschmaschinen schwören, die nur Golf fahren, die nur Bohrer von Bosch holen... Da ist doch die halbe Bevölkerung beim Dok... ;)

HOT
2004-04-15, 15:15:28
Original geschrieben von Quasar
Was macht Hardware-Cheats in deinen Augen weniger verwerflich, als Software-Cheats?

Na ja, es war ne andere Zeit vor 3 Jahren. Als die R300 Entwicklung begann hat man sich eben solche Gedanken um die Nutzbarkeit des AF gemacht. Ich würde DAS nicht als Cheat bezeichnen. Sicher ist es eine Einschränkung, aber ich akzeptiere den Zeitrahmen einfach nicht, in dem sich das bei NV abgespielt hat. Bei ATI schon finde ich.

aths
2004-04-15, 15:15:57
Original geschrieben von DrumDub
ati hat eben nur die hw des r3x0 auf kosten der flexibilität und features optimiert. deshalb hat nv eben eine solche software-optimierung wie brilinear nötig gehabt (die aber auch nur auf grund der flexiblen hw des nv3x möglich ist), um gegen den geschwindigkeitsvorteil des winkeladaptiven-af von ati bestehen zu können. da hat hot schon völlig recht. sieh nicht immer alles durch die grüne brille. ;) Imo ist der "brilineare" Filter eigentlich erst für den NV40 gedacht gewesen (da x1) aber er wurde halt schon im NV30 ausprobiert (da es bei mehreren Texturen oder bei AF ja auch bei einer x2-Architektur was bringen kann.)

Am liebsten wäre mir folgende Konfigurationsmöglichkeit für jede Texture-Stage:

- Full tri
- "bri"
- Force bi

- Volles AF
- Limitiertes AF (limitiert auf 8x, 4x oder 2x, oder auf 1x.)

Winkelabhängigkeiten à la ATI machen nämlich unter dem Aspekt "Qualität pro Füllrate" keinen Sinn. Man spart ja nur dann Füllrate, wenn bestimmte Winkel benachteiligt werden. In der Natur hängt die Schärfe aber nicht vom dem Winkel ab, wo der ATI-Style verringertes AF zeigt.

ow
2004-04-15, 15:17:18
Original geschrieben von aths
Nvidia ist dafür zuständig, welches AF ihr Produkt anbietet. Da kann man lange diskutieren, warum sie es verschlechtert haben. Die Verantwortung liegt bei NV. *Ich* akzeptiere diesen Rückschritt nicht.


Das wird NV glatt am Ar... vorbeigehen was du akzeptierst und was nicht.

Wen interessiert schon korrektes AF, wenn alle Reviews nur reine Schwanzlaengenvergleiche sind nach der Art "wer hat den laengsten Balken beim Benchen".

NV hat hier alles richtig gemacht und mit diesem genialen Schachzug ATi schon im Vorfeld den Wind aus den Segeln genommen. :D

aths
2004-04-15, 15:18:06
Original geschrieben von Quasar
Ack.

Aber eine Frage, hat der Treiber-Schalter für "High-Quality" bei euch eine erkennbare Wirkung gehabt? Musst du Leo fragen. Afaik nein.

Gast
2004-04-15, 15:18:55
Original geschrieben von ow
Das wird NV glatt am Ar... vorbeigehen was du akzeptierst und was nicht.

Wen interessiert schon korrektes AF, wenn alle Reviews nur reine Schwanzlaengenvergleiche sind nach der Art "wer hat den laengsten Balken beim Benchen".

NV hat hier alles richtig gemacht und mit diesem genialen Schachzug ATi schon im Vorfeld den Wind aus den Segeln genommen. :D

Das klingt so als würdest du die Interessen von Nvidia vertreten und nicht die des Kunden (also deine)!

DrumDub
2004-04-15, 15:19:22
Original geschrieben von aths
Eine NV35-Pipe kann pro Takt:

- über 2 TMUs verfügen
- jede beliebige Op ausführen (Shader Core)
- plus 1 oder 2 MADs. (FPU)

Eine NV40-Pipe kann pro Takt:

- Über 1 TMU verfügen
- Ein MUL oder eine SFU rechnen (Unit #1)
- Plus 1 MAD (Unit #2)

Betrachtung gilt jeweils für 4 Komponenten pro Vektor.

ah, jetzt hab ichs kapiert. danke. :)

HOT
2004-04-15, 15:20:59
Original geschrieben von ow
Das wird NV glatt am Ar... vorbeigehen was du akzeptierst und was nicht.

Wen interessiert schon korrektes AF, wenn alle Reviews nur reine Schwanzlaengenvergleiche sind nach der Art "wer hat den laengsten Balken beim Benchen".

NV hat hier alles richtig gemacht und mit diesem genialen Schachzug ATi schon im Vorfeld den Wind aus den Segeln genommen. :D

Das könnte sich aber auch zu einem üblen Eigentor entwickeln...

Rampage 2
2004-04-15, 15:21:02
Original geschrieben von aths
Die TMUs sind natürlich bilineare TMUs, die per Loop aber auch trilinear und anisotrop filtern können.

Also halbiert sich die Füllrate beim Einschalten von trilinearem Filter (von 6.4 auf 3.2Gpixel) oder wie ?

HOT
2004-04-15, 15:21:40
Original geschrieben von Gast
Das klingt so als würdest du die Interessen von Nvidia vertreten und nicht die des Kunden (also deine)!

Zustimmung

aths
2004-04-15, 15:23:32
Original geschrieben von ow
Das wird NV glatt am Ar... vorbeigehen was du akzeptierst und was nicht.Abgesehen davon, dass dein Stil sich ausdrücken, in meiner Sozialumgebumg eher ungewohnt ist, kann ich dein Statement nicht unbedingt bestätigen.
Original geschrieben von ow
Wen interessiert schon korrektes AF, wenn alle Reviews nur reine Schwanzlaengenvergleiche sind nach der Art "wer hat den laengsten Balken beim Benchen".Wirklich alle Reviews? Gewinnt die 6800 U nicht auch mit bestmöglichem AF gegen alles, was es jetzt gibt? Kann Nvidia nicht darauf hinweisen, dass 16x AF nicht gleich 16x AF ist? Früher konnten sie das nicht, weil ATI mit einem Vergleich der AA-Modi gekontert hätte. (Dieses bitte nicht unter den Tisch kehren, wenn 4xAA/8xAF-Benches kritisiert werden.) Jetzt stehen sie mit dem 4x RGMSAA immerhin konkurrenzfähig betreffs des AA da.
Original geschrieben von ow
NV hat hier alles richtig gemacht und mit diesem genialen Schachzug ATi schon im Vorfeld den Wind aus den Segeln genommen. :D Bei dir hat NV eigentlich immer alles richtig gemacht, ja. Ich sehe das anders. Vor allem sehe ich keinen Grund, dieses AF bei einer Karte wie der 6800 U zu verteidigen. Das kannst du ja wieder anders sehen.

ice cool69
2004-04-15, 15:23:45
@ ow

Nvidia hätte alles richtig gemacht wenn sie einem die Wahl gelassen hätten. Sie hätten den Winkelabhängigen Modus ja "AF der Konkurrenz" nennen können.
Dann wären alle zufrieden gewesen, auch wir Grafikenthusiasten.

aths
2004-04-15, 15:25:43
Original geschrieben von Rampage 2
Also halbiert sich die Füllrate beim Einschalten von trilinearem Filter (von 6.4 auf 3.2Gpixel) oder wie ? Ja. Die bilineare Füllrate kann (bei 32-Bit-Rendering mit Z-Buffer) aufgrund der Bandbreitenproblematik im Moment sowieso nicht ausgespielt werden, bei trilinearer Filterung sollte die Hitrate im Texturcache im Mittel etwas besser sein. (Das müsste ich aber erst noch mal genau durchdenken.) Zumindest fallen weniger Color- und Z-Zugriffe bei trilinear im Verhältnis zu den Samplingtakten an.

ow
2004-04-15, 15:26:31
Original geschrieben von Gast
Das klingt so als würdest du die Interessen von Nvidia vertreten und nicht die des Kunden (also deine)!


Ist Fairness beim Kartenvergleich nicht im Interesse ALLER?

Andre
2004-04-15, 15:27:04
Original geschrieben von aths
Nvidia ist dafür zuständig, welches AF ihr Produkt anbietet. Da kann man lange diskutieren, warum sie es verschlechtert haben. Die Verantwortung liegt bei NV. *Ich* akzeptiere diesen Rückschritt nicht.

Da bist du aber in der Minderheit, so scheint es.
NV richtet sich wie jedes Unternehmen nach der Nachfrage. Und die Nachfrage sagte bis vor kurzem:
ATIs AF ist kaum unterscheidbar zu NVs AF. Das war eindeutig der Tenor in fast allen Reviews und wurde auch von Usern als Totschlagargument gegen NV verwendet.
Und NV macht genaudas, was kommen musste:
Wenn man doch angeblich keinen Unterschied sieht, braucht man es auch nicht realisieren. So einfach ist das aths. Die Nachfrage bestimmt das Angebot.

aths
2004-04-15, 15:27:17
Original geschrieben von LovesuckZ
die jetzige normale Variante? NV40 ist von vornherein skalierbar geplant. Ich denke es war nicht der große Aufwand, das Design dann mit 16 Pipes zu bauen. Offenbar sind die Chips aber noch nicht gut genug, dass genügend 16-er abfallen, so wie es aussieht, ist der 12-er ja auch ein NV40. (Eigentlich würde ich erwarten, dass NV wieder mal wegen jeder Kleinigkeit eine neue Chipbezeichnung findet.)

aths
2004-04-15, 15:28:07
Original geschrieben von ice cool69
@ ow

Nvidia hätte alles richtig gemacht wenn sie einem die Wahl gelassen hätten. Sie hätten den Winkelabhängigen Modus ja "AF der Konkurrenz" nennen können.Sozusagen, ja.
Original geschrieben von ice cool69
Dann wären alle zufrieden gewesen, auch wir Grafikenthusiasten. Und ich erst :) Und nggalai erst :) Und viele andere Meinungsmultiplikatoren :)

ow
2004-04-15, 15:28:19
Original geschrieben von ice cool69
@ ow

Nvidia hätte alles richtig gemacht wenn sie einem die Wahl gelassen hätten. Sie hätten den Winkelabhängigen Modus ja "AF der Konkurrenz" nennen können.
Dann wären alle zufrieden gewesen, auch wir Grafikenthusiasten.


Hast du bei deiner ATi-Karte die Wahl?? Nein? Was jammerst du dann ueber NV??


btw. Nv laesst einem die Wahl, nur jetzt noch nicht. Ein wichtiger Unterschied.

Andre
2004-04-15, 15:28:26
Original geschrieben von Gast
Das klingt so als würdest du die Interessen von Nvidia vertreten und nicht die des Kunden (also deine)!

NV hat das Interesse des Kunden vertreten - zumindest der Mehrzahl, welche meinte, dass ATIs AF nicht erkennbar schlechter sei.

crane
2004-04-15, 15:28:44
Wurde glaube ich noch nicht gepostet:

Update April 14th, 2004: Futuremark has reviewed the ForceWare 60.72 drivers for the launch of the GeForce 6800 Series graphics cards at NVIDIA's specific request. We found that the 60.72 drivers used with the GeForce 6800 Series fulfill the optimization guidelines for 3DMark03 Build 340.

http://www.futuremark.com/community/drivers/?approved

DrumDub
2004-04-15, 15:29:22
Original geschrieben von aths
Winkelabhängigkeiten à la ATI machen nämlich unter dem Aspekt "Qualität pro Füllrate" keinen Sinn. Man spart ja nur dann Füllrate, wenn bestimmte Winkel benachteiligt werden. In der Natur hängt die Schärfe aber nicht vom dem Winkel ab, wo der ATI-Style verringertes AF zeigt.

der grund für die implementierung war sicher nicht unbedingt schneller bei af zu sein als nv. das war nur ein nebeneffekt der geringeren filterqualität.
der grund dafür war imho, genau wie "nur" fp24 zu implementieren, transistoren, mithin herstellungskosten, zu sparen.

Andre
2004-04-15, 15:29:26
Original geschrieben von aths
Und ich erst :) Und nggalai erst :) Und viele andere Meinungsmultiplikatoren :)

Meinungsmultiplikatoren?
Ich denke, du überschätzt das ganz gewaltig, aths.

Gast
2004-04-15, 15:30:36
Sicher, aber nicht auf dem Weg den Nvidia geht. Sie hätten einfach das winkelabhängige AF als Option bieten und entsprechend auf die Problematik hinweisen sollen. Dann wären auch alle Freunde von möglicht optimalen AF zufrieden.

Wie es Nvidia bist jetzt gelöst hat, ist es supotimal und man sollte es als Kunde auch kritisieren.

ow
2004-04-15, 15:31:26
Original geschrieben von Andre
Da bist du aber in der Minderheit, so scheint es.
NV richtet sich wie jedes Unternehmen nach der Nachfrage. Und die Nachfrage sagte bis vor kurzem:
ATIs AF ist kaum unterscheidbar zu NVs AF. Das war eindeutig der Tenor in fast allen Reviews und wurde auch von Usern als Totschlagargument gegen NV verwendet.
Und NV macht genaudas, was kommen musste:
Wenn man doch angeblich keinen Unterschied sieht, braucht man es auch nicht realisieren. So einfach ist das aths. Die Nachfrage bestimmt das Angebot.


Besonders witzig ist doch, dass insbesondere die ganzen Ati User hier jetzt jammern welche aber das AF der R3xx immer als absolut genial dargestellt haben. (Ganz zu schweigen von denjenigen, die sogar das R2xx AF angepriesen haben).

aths
2004-04-15, 15:32:27
Original geschrieben von Andre
Da bist du aber in der Minderheit, so scheint es.
NV richtet sich wie jedes Unternehmen nach der Nachfrage. Und die Nachfrage sagte bis vor kurzem:
ATIs AF ist kaum unterscheidbar zu NVs AF. Das war eindeutig der Tenor in fast allen Reviews und wurde auch von Usern als Totschlagargument gegen NV verwendet. Von einigen ja. Viele guckten gar nicht auf den Modus, und stellen 8x gegen 8x ein.
Original geschrieben von Andre
Und NV macht genaudas, was kommen musste:
Wenn man doch angeblich keinen Unterschied sieht, braucht man es auch nicht realisieren. So einfach ist das aths. Die Nachfrage bestimmt das Angebot. So einfach ist das nicht, Andre.

Sie hätten als Default-Setting den ATI-Style nehmen können, und zur Not via manuellem Registry-Eintrag, den sie nur an gewisse Leute rausgeben, volle Qualität anbieten, um auch diese zufriedenzustellen.

Die, die die Computermassenmedien lesen, kaufen in der Regel höchstens Mittelklasse-Karten. Seiten wie 3DCenter sprechen Leute an, die viel Geld für eine Grafikkarte auswählen, und sich entsprechend dem Budget vorher informieren. Wir erreichen bei weitem nicht so viele Leser, aber im Verhältnis sind bei uns jene, die Highend kaufen, sehr stark vertreten.

ow
2004-04-15, 15:33:28
Original geschrieben von DrumDub
der grund für die implementierung war sicher nicht unbedingt schneller bei af zu sein als nv. das war nur ein nebeneffekt der geringeren filterqualität.
der grund dafür war imho, genau wie "nur" fp24 zu implementieren, transistoren zu sparen.

Nein, der Grund war sicher nur der Speed.

Warum sollte ATi es denn bei Radeon1 und R8500 noetig gehabt haben, Transistoren zu sparen?

aths
2004-04-15, 15:33:42
Original geschrieben von ow
btw. Nv laesst einem die Wahl, nur jetzt noch nicht. Ein wichtiger Unterschied. So wie sich David Kirk gegenüber mir geäußert hat, würde ich jetzt keine Wette darauf eingehen, dass es noch die volle AF-Qualität geben wird. Auf eine eindeutige Antwort, die man nicht groß auszulegen braucht, warte ich noch.

aths
2004-04-15, 15:34:44
Original geschrieben von Andre
NV hat das Interesse des Kunden vertreten - zumindest der Mehrzahl, welche meinte, dass ATIs AF nicht erkennbar schlechter sei. Das Interesse des Kunden hätten sie vertreten, wenn sie beides anbieten würden (so die HW es kann) also ATI-Style und S3-Style.

Rampage 2
2004-04-15, 15:36:25
Original geschrieben von aths
Ja. Die bilineare Füllrate kann (bei 32-Bit-Rendering mit Z-Buffer) aufgrund der Bandbreitenproblematik im Moment sowieso nicht ausgespielt werden, bei trilinearer Filterung sollte die Hitrate im Texturcache im Mittel etwas besser sein. (Das müsste ich aber erst noch mal genau durchdenken.) Zumindest fallen weniger Color- und Z-Zugriffe bei trilinear im Verhältnis zu den Samplingtakten an.

Und wieviel Leistung kostet das dann bei z.B. UT2004 unter 1600x1200x32Bit @4xAA+16xAF flyby von bilinear auf trilinear zu gehen - 50% ???

Warum hat NV nicht einfach 16x1tri - Architektur gemacht? Damit wäre das Füllratenproblem endgültig gelöst.

ow
2004-04-15, 15:36:57
Original geschrieben von aths
So wie sich David Kirk gegenüber mir geäußert hat, würde ich jetzt keine Wette darauf eingehen, dass es noch die volle AF-Qualität geben wird. Auf eine eindeutige Antwort, die man nicht groß auszulegen braucht, warte ich noch.

Was hat er denn genau gesagt, der DK??

aths
2004-04-15, 15:37:00
Original geschrieben von Andre
Meinungsmultiplikatoren?
Ich denke, du überschätzt das ganz gewaltig, aths. Das denke ich nicht.

Acht Leute aus Deutschland wurden vorab von Kirk über den NV40 gebrieft. 3DCenter war dabei. Vier Leute aus Deutschland waren beim Editor's Day 2004. 3DCenter war dabei. (Neben c't, Chip, und PCGH.) Sowas ist viel wichtiger, als beim Launch irgendwo in einer Halle rumzusitzen.

aths
2004-04-15, 15:39:12
Original geschrieben von Rampage 2
Und wieviel Leistung kostet das dann bei z.B. UT2004 unter 1600x1200x32Bit @4xAA+16xAF flyby von bilinear auf trilinear zu gehen - 50% ??? Nein. Linear mit der Füllrate skalieren höchstens einige synthetische Benchmarks. (Vor Fragezeichen bitte kein Leerzeichen lassen.)
Original geschrieben von Rampage 2
Warum hat NV nicht einfach 16x1tri - Architektur gemacht? Damit wäre das Füllratenproblem endgültig gelöst. Trilineare TMUs kosten mehr Transistoren. Die Bandbreite ist schon für 16 bilineare TMUs zu knapp.

Rasta-Fahndung
2004-04-15, 15:39:23
Original geschrieben von HOT
Die Shaderpower ist schier unglaublich :D
Damit ist der Hauptnachteil plötzlich der Hauptvorteil bei NV. Das Chipdesign ist echt wahnsinnig effizient.

Was ist eigentlich mit der Bildqualität der Shader? Wenn ic mir die FarCry Pics im Test von tomshardware.de ansehe, dann muss man doch klar sagen, dass die Quali mies ist.
Gibts da schon genauere Hinweise, warum das so ist? Wurde das schonmal diskutiert? Ich packs nicht., den ganzen Thread durchzulesen.. :)

DrumDub
2004-04-15, 15:40:10
Original geschrieben von ow
Nein, der Grund war sicher nur der Speed.

Warum sollte ATi es denn bei Radeon1 und R8500 noetig gehabt haben, Transistoren zu sparen?

dann lies noch mal den ati-filtertricks artikel. die af implementierung hat nämlich noch nen paar andere hintergründe, als nur die winkeladaptivität.

ShadowXX
2004-04-15, 15:40:44
Original geschrieben von ow
btw. Nv laesst einem die Wahl, nur jetzt noch nicht. Ein wichtiger Unterschied.

Du scheinst mehr zu wissen als aths....der ist sich darüber nämlich absolut nicht im klaren, ob es eine generelle HW-Limitierung oder einer vom Treiber ausgelöste Limitierung ist.

Oder hast du eine Quelle, womit du deine Behauptung belegen kannst??

Wir wissen es momentan alle nicht...und selbst wenn es über den Treiber geschieht, wissen wir nicht, ob nV jemals eine Option zulässt diese Optimierung auszuschalten.
(Siehe BriLinear in den aktuellen Detos für die FX'en).

Ich finde es einfach nur schade, das nV ihr AF zurückgeschraubt hat...allerdings stimme ich zu, das es (zumindest auf eine gewisse weise) wohl legitim ist...

deekey777
2004-04-15, 15:41:15
Original geschrieben von ow
Ist Fairness beim Kartenvergleich nicht im Interesse ALLER?

Fairness? Nein! Objektivität? Ja!!!
Siehe THG: Hier wird nur gesagt, dass die AF Qualität der 6800 Ultra der von 9800XT "angepasst" wurde. Dass aber diese im Vergleich zu der AF Qualität (mit dem aktuellen Treiber!) schlechter geworden ist, wird verschwiegen.

Rampage 2
2004-04-15, 15:41:41
Original geschrieben von aths
Nein. (Vor Fragezeichen bitte kein Leerzeichen lassen.)


Wieviel Leistung kostet es dann?

Warum soll ich keine Leerstelle vor Fragezeichen lassen?:???:

Winter[Raven]
2004-04-15, 15:42:08
Original geschrieben von Rasta-Fahndung
Was ist eigentlich mit der Bildqualität der Shader? Wenn ic mir die FarCry Pics im Test von tomshardware.de ansehe, dann muss man doch klar sagen, dass die Quali mies ist.
Gibts da schon genauere Hinweise, warum das so ist? Wurde das schonmal diskutiert? Ich packs nicht., den ganzen Thread durchzulesen.. :)

Bei der HL2 Alpha mit der der NV40 gebencht wurden die Shader verwendet die für ATI geschrieben wurden, und auch auf ATI optimiert.

Also hast du die selbe Shader Qualität bei der Alpha wie mit Readen Karten.

DrumDub
2004-04-15, 15:42:33
Original geschrieben von Rasta-Fahndung
Was ist eigentlich mit der Bildqualität der Shader? Wenn ic mir die FarCry Pics im Test von tomshardware.de ansehe, dann muss man doch klar sagen, dass die Quali mies ist.
Gibts da schon genauere Hinweise, warum das so ist? Wurde das schonmal diskutiert? Ich packs nicht., den ganzen Thread durchzulesen.. :)

das liegt an farcry und nich am nv40. punkt.

mayo
2004-04-15, 15:42:38
Ich weiß es klingt utopisch, aber jmd oder etwas sollte dieser Betrügerei mit dem AF einen Riegel vorschieben. Vielleicht Microsoft die einfach im nächsten DirectX vorschreiben, dass alle Winkel mit dem vorgegeben AF-Grad gefiltert werden müssen. (+-10%)

Die meisten User akzeptieren die Winkelabhängigkeit sowieso nur, weil sie nicht verstehen, was dies zu bedeuten hat. Sie schauen sich die Bilder vom AF-Test an und können diese überhaupt nicht interpretieren. Und das ist glaub ich noch stark untertrieben. Dann lesen sie, was der Reviewer dazu meint. Und Tomshardware sagt das AF ist immernoch besser als bei ATI. super :(

aths
2004-04-15, 15:43:07
Original geschrieben von DrumDub
der grund für die implementierung war sicher nicht unbedingt schneller bei af zu sein als nv. das war nur ein nebeneffekt der geringeren filterqualität.
der grund dafür war imho, genau wie "nur" fp24 zu implementieren, transistoren, mithin herstellungskosten, zu sparen. Das denke ich auch.

Übrigens hat der NV40 weitere nette Möglichkeiten. ATI-like nur 5 Bit LOD-Fraction bei TF? Kann der NV40 auch, wenn er will. Auf die Frage, welchen Nutzen das hat, meine Kirk, das würde man dann sehen.

aths
2004-04-15, 15:43:37
Original geschrieben von ow
Was hat er denn genau gesagt, der DK?? Mailverkehr zitiere ich nicht.

aths
2004-04-15, 15:44:19
Original geschrieben von mayo
Und Tomshardware sagt das AF ist immernoch besser als bei ATI. super :( Ist es auch. Ein wenig.

LovesuckZ
2004-04-15, 15:44:54
Original geschrieben von aths
Übrigens hat der NV40 weitere nette Möglichkeiten. ATI-like nur 5 Bit LOD-Fraction bei TF? Kann der NV40 auch, wenn er will. Auf die Frage, welchen Nutzen das hat, meine Kirk, das würde man dann sehen.

Aehm, ist das das, was man in den Screenshots beim Filtertester sieht?
So sah die Filterung einer NV30 nicht aus, nein nicht die Winkelabhaengigkeit...

HOT
2004-04-15, 15:45:25
Original geschrieben von Andre
Da bist du aber in der Minderheit, so scheint es.
NV richtet sich wie jedes Unternehmen nach der Nachfrage. Und die Nachfrage sagte bis vor kurzem:
ATIs AF ist kaum unterscheidbar zu NVs AF. Das war eindeutig der Tenor in fast allen Reviews und wurde auch von Usern als Totschlagargument gegen NV verwendet.
Und NV macht genaudas, was kommen musste:
Wenn man doch angeblich keinen Unterschied sieht, braucht man es auch nicht realisieren. So einfach ist das aths. Die Nachfrage bestimmt das Angebot.

Bitte NICHT falsch verstehen! Der Chip ist nahezu genial, da sagt niemand was gegen.
ABER An dem AF ist niemalnd anders schuld als NV!

aths
2004-04-15, 15:46:56
Original geschrieben von ShadowXX
Du scheinst mehr zu wissen als aths....der ist sich darüber nämlich absolut nicht im klaren, ob es eine generelle HW-Limitierung oder einer vom Treiber ausgelöste Limitierung ist.Kirks Aussagen sind hin und wieder schwammig. Er sprach von einer generell geänderten LOD-Berechnung. Inwieweit das in der Hardware fix oder flexibel ist, hat er noch nicht gesagt. Selbst wenn die HW das könnte – eins ist klar. Falls der R420 dem NV40 performancemäßig das Wasser reichen kann (wovon ich schon ausgehe) stehen die Chancen schlecht, dass wir die bestmöglichen Texturen kriegen, die die NV40-HW liefern könnte. Siehe Zwang zur "adaptiven" trilinearen Filterung bei den FXen.

Andre
2004-04-15, 15:48:09
Original geschrieben von aths
Das denke ich nicht.

Acht Leute aus Deutschland wurden vorab von Kirk über den NV40 gebrieft. 3DCenter war dabei. Vier Leute aus Deutschland waren beim Editor's Day 2004. 3DCenter war dabei. (Neben c't, Chip, und PCGH.) Sowas ist viel wichtiger, als beim Launch irgendwo in einer Halle rumzusitzen.

Wir beide wissen doch ganz genau, wer die Masse anspricht.

aths
2004-04-15, 15:48:44
Original geschrieben von LovesuckZ
Aehm, ist das das, was man in den Screenshots beim Filtertester sieht?
So sah die Filterung einer NV30 nicht aus, nein nicht die Winkelabhaengigkeit... Hm?

Was das 5-Bit-LOD-Fraction-Problem angeht, steht alles im "ATIs Filtertricks"-Artikel.

aths
2004-04-15, 15:49:30
Original geschrieben von Andre
Wir beide wissen doch ganz genau, wer die Masse anspricht. Mein anderes Posting hast du doch auch gelesen?

Original geschrieben von aths
Die, die die Computermassenmedien lesen, kaufen in der Regel höchstens Mittelklasse-Karten. Seiten wie 3DCenter sprechen Leute an, die viel Geld für eine Grafikkarte auswählen, und sich entsprechend dem Budget vorher informieren. Wir erreichen bei weitem nicht so viele Leser, aber im Verhältnis sind bei uns jene, die Highend kaufen, sehr stark vertreten.

Die AF-Tester, die weltweit eingesetzt werden, wurden von Xmas und Demirug geschrieben. Einige Leute im 3DCenter-Forum haben insofern national wie international einen gewissen Einfluss. Auch einige Printmedien haben gewisse Ideen, die im 3dc-Umfeld geboren sind, übernommen. (Was wir schreiben, ist ja auch nicht alles auf unserem eigenen Mist gewachsen. Ein Erfahrungs- und Ideenaustausch ist selbstverständlich, und nützlich.) Im deutschsprachigen Web hat 3dc meiner Erfahrung nach einen ganz guten Ruf. Was z. B. THG schreibt, mag von der "Meinungsmultiplikation" deutlich schwerer wiegen als das was wir hier tun, aber 3dc ist eine Stimme in der Vielfalt.

DrumDub
2004-04-15, 15:51:26
könnte ja sein, dass die "alte" form des afs den quadros vorbehalten bleibt, wobei dann wieder dir frage ist, obs dann nicht gehackte treiber geben wird, wenn der nv40 das generell kann.

geht bei den quadro fxen aktuell auch nur brilinear?

ShadowXX
2004-04-15, 15:54:36
Original geschrieben von aths
Kirks Aussagen sind hin und wieder schwammig. Er sprach von einer generell geänderten LOD-Berechnung. Inwieweit das in der Hardware fix oder flexibel ist, hat er noch nicht gesagt. Selbst wenn die HW das könnte – eins ist klar. Falls der R420 dem NV40 performancemäßig das Wasser reichen kann (wovon ich schon ausgehe) stehen die Chancen schlecht, dass wir die bestmöglichen Texturen kriegen, die die NV40-HW liefern könnte. Siehe Zwang zur "adaptiven" trilinearen Filterung bei den FXen.

Jupps...sehe ich genauso.

Falls der nv40 die Möglichkeit hat "GFFX-AF like" zu Filtern, würden wir dieses wohl nur dann zu Gesicht bekommen, wenn der r420 (wesentlich) langsamer als dieser wäre. (nV also auf der sicheren Seite...)

ice cool69
2004-04-15, 15:56:09
@ ow

Was soll ich jammern? Ich stelle bei mir sowieso nie viel mehr als 4xAF ein, weil ich ATI's Methode nicht mag.
Wenn ich mir jetzt eine NV40 kaufen möchte weil ich diese für den wohl beste. Grafikchip der kommenden Generation halte (so wie ich den R3x0 als aktuell besten Grafikchip halte), habe ich wohl das Recht mich darüber aufzuregen dass nvidia einen Rückschritt gemacht hat und einfach alles so gemacht hat wie ATI in der ALTEN Generation.

Langsam aber sicher geht es mir auf die Nerven wie du dich hier benimmst, auch wenn du anscheinend schlechtes Benehmen bei mir siehst und es für nötig hälst mir irgendwelche Strafpunkte aufzubrummen (klär mich doch bitte über diese auf).
Du bist Moderator und sollst für ein ruhiges und angenehmes Diskussionsklima sorgen, stattdessen läufst du dauernd auf Konfrontation und legst dich mit irgendwelchen Leuten an die eine andere Meinung haben als du.

Bekomm ich jetzt den nächsten Strafpunkt???

mayo
2004-04-15, 15:56:35
Ich finde die Ungenauigkeit bei der Berechnung vom LOD beim r3xx ist zu vernachlässigen.

Das AF ist bei nvdia und ati nun genauso schwachsinnig.

Blos Nvidia kann man ankreiden das ihr Chip der neuere technisch höher entwickelte ist und somit kann ich doch ordenliches AF verlangen. Vorallem ist es kein wirklicher Grund das AF zu beschränken nur weil es ATI so vorgemacht hat. Das ist eine Ausrede und soll nur kaschieren, dass auf jeden Fall die Benchmarks gewonnen werden sollen.

LovesuckZ
2004-04-15, 15:56:44
Original geschrieben von ShadowXX
Falls der nv40 die Möglichkeit hat "GFFX-AF like" zu Filtern, würden wir dieses wohl nur dann zu Gesicht bekommen, wenn der r420 (wesentlich) langsamer als dieser wäre. (nV also auf der sicheren Seite...)

oder ATi beim AF nachgelegt hat. Eigentlich müsste auch David Krik wissen, dass für High End Gamer die IQ Einstellungen Kaufargumente sind und wenn man schon nicht beim AA konkurenzfaehig sein wird, dann wenigsten beim AF...

Radeonator
2004-04-15, 15:58:41
Original geschrieben von ice cool69
@ ow

Nvidia hätte alles richtig gemacht wenn sie einem die Wahl gelassen hätten. Sie hätten den Winkelabhängigen Modus ja "AF der Konkurrenz" nennen können.
Dann wären alle zufrieden gewesen, auch wir Grafikenthusiasten.

Das glaub ich nicht Tim! Fanboys würden auch dann nicht zufrieden sein, wenn das nicht favorisierte Produkt quasi perfekt wäre. Es geht nur darum zu mäckeln, das andere schlecht zu reden...Sinn und Zweck ???

Ich will nicht behaupten das die 6800er Perfekt wäre, jedoch ein weiterer boost nach vorne ist Sie in jedem Fall.
Jetzt müsste nur jemand das Datum auf 26 drehen...dann weiss man mehr und vor allem weiss ich dann, welche next Gen Card in meinen Rechner kommt ;)

ShadowXX
2004-04-15, 15:58:42
Original geschrieben von DrumDub
könnte ja sein, dass die "alte" form des afs den quadros vorbehalten bleibt, wobei dann wieder dir frage ist, obs dann nicht gehackte treiber geben wird, wenn der nv40 das generell kann.

geht bei den quadro fxen aktuell auch nur brilinear?

Das "AF-Problem" hat nix mit Bri/Trilinear zu tun...das BriLineare Filtering kann man jetzt schon per Treiber auf normales Tri umstellen (dafür übrigens ein Lob an nV).

nV hat aber eine Winkelabhängigkeit mit ins AF (ähnlich ATI, funktioniert aber wohl anders) aufgenommen. Darüber zerreden wir uns momentan den Kopf....

ShadowXX
2004-04-15, 16:01:04
Original geschrieben von LovesuckZ
oder ATi beim AF nachgelegt hat. Eigentlich müsste auch David Krik wissen, dass für High End Gamer die IQ Einstellungen Kaufargumente sind und wenn man schon nicht beim AA konkurenzfaehig sein wird, dann wenigsten beim AF...

Ja...da hast du recht...hatte ich zwar auch im Kopf, aber irgendwie vergessen es mit zu posten....

mayo
2004-04-15, 16:03:24
Ich finde nvidia hat im übrigen auch kein besonderes Lob dafür verdient den Zwang zur Brilinearer Filterung nun aufgegeben zu haben.

Ich halte trilinere Filterung einfach für selbstverständlich!

Gast
2004-04-15, 16:13:28
John Carmack, President und Technical Director von id Software, über NV40:

"Da die Entwicklung von DOOM 3 bald abgeschlossen sein wird, besteht meine Arbeit darin, die nächste Generation der Rendering Technologie zu entwickeln. NV40 ist dafür die Plattform meiner Wahl, bedingt durch die Unterstützung sehr langer Fragment-Programme, allgemeinem Floating Point Blending und Filtering sowie wegen der extrem hohen Performance."

ice cool69
2004-04-15, 16:13:50
Aber den Zwang für "brilinear" wegzunehmen ist schonmal ein kleines, positives Umdenken.
Wenn sie diesen rausgenommen haben, warum sollte der höchste Filtermmodus der noch nicht funktioniert nicht ein Modus sein der ganz perfekt ist?
Um die Benchmarks zu gewinnen hätte man ja auch gleich den Zwang für "brilinear" drinnen lassen können und noch mehr Frames rauskitzeln können.

Ich bin optimistisch und habe noch Hoffnung dass nvidia volles AF möglich macht, dann ist meine nächste Graka eine mit NV40-Chip. :)

deekey777
2004-04-15, 16:20:36
Original geschrieben von Gast
John Carmack, President und Technical Director von id Software, über NV40:

"Da die Entwicklung von DOOM 3 bald abgeschlossen sein wird, besteht meine Arbeit darin, die nächste Generation der Rendering Technologie zu entwickeln. NV40 ist dafür die Plattform meiner Wahl, bedingt durch die Unterstützung sehr langer Fragment-Programme, allgemeinem Floating Point Blending und Filtering sowie wegen der extrem hohen Performance."

Ich poste einfach, was ich schon im D3 Sammelthread geschrieben habe:
"JC wollte doch sein nächstes Projekt auf einer NV30 entwickeln" ;D

Warum denn der Sinneswandel?

Edit: Ich habe den fehlenden Smiley eingefügt!

SKYNET
2004-04-15, 16:23:21
Original geschrieben von deekey777
Ich poste einfach, was ich schon im D3 Sammelthread geschrieben habe:
"JC wollte doch sein nächstes Projekt auf einer NV30 entwickeln"

Warum denn der Sinneswandel?


weil mehr möglich ist ? weil schneller ?

Mark3Dfx
2004-04-15, 16:23:24
Stimmt genau.
JC hatte immer ein Statement pro die aktuelle schnellste Karte für Doom III am Markt.
Erst der NV30
dann R300
dann NV35 usw usw.
*gähn*

Gast
2004-04-15, 16:25:47
Original geschrieben von Gast
John Carmack, President und Technical Director von id Software, über NV40:

"Da die Entwicklung von DOOM 3 bald abgeschlossen sein wird, besteht meine Arbeit darin, die nächste Generation der Rendering Technologie zu entwickeln. NV40 ist dafür die Plattform meiner Wahl, bedingt durch die Unterstützung sehr langer Fragment-Programme, allgemeinem Floating Point Blending und Filtering sowie wegen der extrem hohen Performance."

Das ist schön für JC, aber wen interessierts. Bis die neue Engine fertig ist, vergehen wohl noch ein paar Jahre und ein paar Next-Gen-GraKas, es wird viel Geld fließen, es werden noch viele Design-Entscheidnungen getroffen usw. usw.

Die Aussage stellt also kein Kriterium für einen anstehenden Grafikkarten-Kauf dar.

betasilie
2004-04-15, 16:27:02
Original geschrieben von Gast
John Carmack, President und Technical Director von id Software, über NV40:

"Da die Entwicklung von DOOM 3 bald abgeschlossen sein wird, besteht meine Arbeit darin, die nächste Generation der Rendering Technologie zu entwickeln. NV40 ist dafür die Plattform meiner Wahl, bedingt durch die Unterstützung sehr langer Fragment-Programme, allgemeinem Floating Point Blending und Filtering sowie wegen der extrem hohen Performance."
Bis die nächste Enginegenaration von id eingesetzt wird, gibt es mindestens schon den NV50 unf R500.

Odal
2004-04-15, 16:28:12
Original geschrieben von deekey777
Ich poste einfach, was ich schon im D3 Sammelthread geschrieben habe:
"JC wollte doch sein nächstes Projekt auf einer NV30 entwickeln" ;D

Warum denn der Sinneswandel?

Edit: Ich habe den fehlenden Smiley eingefügt!

weil die NV40 featuretechnisch mehr bietet als die NV30 und die kommende Konkurenz :D

MuLuNGuS
2004-04-15, 16:30:20
ihr fangt an euch um kopf und kragen zu reden ...

ich gehe immer einen guten kompromiss aus auflösung/quali ein sprich:
ich gehe zur zeit in singleplayergames eh nie über AA2x/AF4x und in multiplayergames(UT2004 + BF1942) spiel ich ganz ohne AA/AF alles -> (1280*1024)

also ist mir das alles total bockwurst.

ganz heimlich im kämmerllien heißt es ja dann doch wieder: uuhhh, shit ohne AA/AF krieg ich ja 50FPS mehr...schnell mal wieder ausmachen ...lol

Odal
2004-04-15, 16:30:46
Original geschrieben von betareverse
Bis die nächste Enginegenaration von id eingesetzt wird, gibt es mindestens schon den NV50 unf R500.

sicher gibts das bis sie eingesetzt wird ;) aber meinst du JC macht nun nach doomIII erstmal pause und braeunt sich die plautze?
der sitzt unter garantie schon eine weile an einem engine nachfolge und macht sich zumindest gedanken

deekey777
2004-04-15, 16:32:13
Original geschrieben von betareverse
Bis die nächste Enginegenaration von id eingesetzt wird, gibt es mindestens schon den NV50 unf R500.

So optimistisch?

DrumDub
2004-04-15, 16:34:45
Original geschrieben von ShadowXX
Das "AF-Problem" hat nix mit Bri/Trilinear zu tun...das BriLineare Filtering kann man jetzt schon per Treiber auf normales Tri umstellen (dafür übrigens ein Lob an nV).

nV hat aber eine Winkelabhängigkeit mit ins AF (ähnlich ATI, funktioniert aber wohl anders) aufgenommen. Darüber zerreden wir uns momentan den Kopf....

das weiß ich. ;)
mir gings lediglich darum, ob bri auf den quadro fxen mit den neueren 5x.xx treibern auch nicht abstellbar ist, obwohl die hw dazu fähig ist und im profibereich wohl immer die höchste iq gefagt ist. bri war ja nur ne reaktion von nv auf atis af-methode und den daraus resultierenden geschwindigkeitsvorteil, (auch wenn er nicht so groß war, wie der durch die einsparungen beim r3x0)

Mehrpack
2004-04-15, 16:41:04
Original geschrieben von MuLuNGuS
ihr fangt an euch um kopf und kragen zu reden ...

ich gehe immer einen guten kompromiss aus auflösung/quali ein sprich:
ich gehe zur zeit in singleplayergames eh nie über AA2x/AF4x und in multiplayergames(UT2004 + BF1942) spiel ich ganz ohne AA/AF alles -> (1280*1024)

also ist mir das alles total bockwurst.

ganz heimlich im kämmerllien heißt es ja dann doch wieder: uuhhh, shit ohne AA/AF krieg ich ja 50FPS mehr...schnell mal wieder ausmachen ...lol

hi,
also bis zu farcry habe ich mit meiner 9700pro alle games in 4xAA und 16xAF gezockt, bei 1024x768 und wenns geht auch in 1280x960/1024.
bei farcry war nur noch das mit dem AF drin.

mir ist FSAA und AF schon wichtig, ich kaufe mir deswegen die karten, nicht weil ich dann 300 Frames in irgend einem Benchmark oder Game habe.

Mehrpack

aths
2004-04-15, 16:41:18
Original geschrieben von mayo
Ich finde die Ungenauigkeit bei der Berechnung vom LOD beim r3xx ist zu vernachlässigen.Das finde ich z. B. nicht. Wenn ich das richtig sehe, gibt es noch mindestens 2 ATI-"Optimierungen", die im "Filtertricks"-Artikel nicht stehen, weil ich nicht genau sagen kann, woher sie kommen, ich sehe nur in synthetischen Testprogrammen, dass sie da sind.

Insgesamt sind die Texturen noch erträglich, aber manchmal glaube ich Textur-Aliasing zu sehen, außerdem scheint mir das Problem mit nicht genau aneinanderpassenden Polygonen bei ATI größer als bei NV. NV hat diesbezüglich die erforderliche Präzision im Griff.

ATI hat erheblich "optimiert", ohne dass es erhebliche Verschlechterungen gibt (abgesehen vom AF.) Nur in der Summe finde ich das doch manchmal störend. Zugegebenermaßen sind meine Ansprüche diesbezüglich auch besonders hoch.

aths
2004-04-15, 16:42:57
Original geschrieben von LovesuckZ
oder ATi beim AF nachgelegt hat. Eigentlich müsste auch David Krik wissen, dass für High End Gamer die IQ Einstellungen Kaufargumente sind und wenn man schon nicht beim AA konkurenzfaehig sein wird, dann wenigsten beim AF... Gutes Argument. Wenn schon beim MSAA im Hintertreffen, könnte man wenigstens mit genialem AF zu glänzen versuchen. Standardmäßig kann ja der ATI-Style eingestellt sein. Meinetwegen kann es im Treiber eine Warnung geben, wenn man im CP den Slider auf "Maximum" stellt, à la man hätte jetzt deutlich überlegene Texturqualität was entsprechend Leistung kostet. Aber wozu kauft man sich denn eine 6800 U? Der Leistung wegen — um sie in Qualität zu stecken, oder nicht?

aths
2004-04-15, 16:44:22
Original geschrieben von ShadowXX
Das "AF-Problem" hat nix mit Bri/Trilinear zu tun...das BriLineare Filtering kann man jetzt schon per Treiber auf normales Tri umstellen (dafür übrigens ein Lob an nV).Lob für die Selbstverständlichkeit, trilineare Filterung anzubieten? Ich hoffe ja, dass der Fulltri-Slider auch auf den FXen funzt. (Das müsste man mal testen :) Den Treiber habe ich ja da. Nur keine FX. Mal Leo fragen ... Es kann aber sein, dass der Treiber ein Spezialtreiber ist der ausschließlich mit NV40 zusammenarbeitet. Dann müsste man gucken, ob man per INF-Hack was hinkriegt.)

aths
2004-04-15, 16:46:30
Original geschrieben von Gast
John Carmack, President und Technical Director von id Software, über NV40:

"Da die Entwicklung von DOOM 3 bald abgeschlossen sein wird, besteht meine Arbeit darin, die nächste Generation der Rendering Technologie zu entwickeln. NV40 ist dafür die Plattform meiner Wahl, bedingt durch die Unterstützung sehr langer Fragment-Programme, allgemeinem Floating Point Blending und Filtering sowie wegen der extrem hohen Performance." Gute Wahl.

Was die Länge der Shaderprogramme angeht, habe ich im Artikel keine Zahl genannt, einfach weil NV40 dort auf lange Sicht "genug" bietet.

Viele Features sind im NV40 neu, wir werden sie (manchmal in aufpolierter Form) in den nächsten Generationen wiedersehen. Davon mal abgesehen, dass der NV40 im Vergleich mit dem kommenden NV50 ein wenig "unfertig" aussieht, halte ich das Design aus Sicht eines Ingenieurs (der ich noch nicht bin) für schlich genial. Im Artikel habe ich ja Features wie die FP-Filterung in höchsten Tönen gepriesen, obwohl es unwahrscheinlich ist, das innerhalb der 6800-Lebensspanne außerhalb von Techdemos zu sehen.

betasilie
2004-04-15, 16:49:36
Original geschrieben von deekey777
So optimistisch?
Ich sagte ja mindestens. ;) Wenn man von der Entwicklungsdauer von DooommIII ausgeht, sollte das eher R700 und NV70 sein.

Außerdem glaube ich ein Verhältniss zwischen der Anzahl J.C.s Supersportwagen gefunden zu haben und den Aussagen, dass der aktuelle Grafikchip von NV das non-plus-ultra ist. ;D

Nichts gegen J.C.! Ich würde die Kohle von Nvidia auch dankend annehmen.

betasilie
2004-04-15, 16:51:52
Original geschrieben von aths
Gute Wahl.

Was die Länge der Shaderprogramme angeht, habe ich im Artikel keine Zahl genannt, einfach weil NV40 dort auf lange Sicht "genug" bietet.

Viele Features sind im NV40 neu, wir werden sie (manchmal in aufpolierter Form) in den nächsten Generationen wiedersehen. Davon mal abgesehen, dass der NV40 im Vergleich mit dem kommenden NV50 ein wenig "unfertig" aussieht, halte ich das Design aus Sicht eines Ingenieurs (der ich noch nicht bin) für schlich genial. Im Artikel habe ich ja Features wie die FP-Filterung in höchsten Tönen gepriesen, obwohl es unwahrscheinlich ist, das innerhalb der 6800-Lebensspanne außerhalb von Techdemos zu sehen.
Im Grunde genommen geht es doch aber nicht explizit um den NV40, sondern um Karten mit Shader3.0-Einheit.

Gast
2004-04-15, 16:58:14
Original geschrieben von aths
Gute Wahl.

Davon mal abgesehen, dass der NV40 im Vergleich mit dem kommenden NV50 ein wenig "unfertig" aussieht, halte ich das Design aus Sicht eines Ingenieurs (der ich noch nicht bin) für schlich genial.

Bin schon ganz ungeduldig. Was weißt du den vom NV50.

Gast
2004-04-15, 17:11:23
Original geschrieben von Gast
Das klingt so als würdest du die Interessen von Nvidia vertreten und nicht die des Kunden (also deine)!

das glaube ich nicht. Ich glaube OW kotzt es genauso an wie mich auch. Der Punkt ist, dass wir den Umstand nicht Nvidia anlasten sondern denen die für diese Entwicklung eindeutig verantwortlich sind.
Fanboys, User, Reviwer und nicht zu letzt ATI.

Du kannst Nvidia keinen Vorwurf machen. Die sind eine Firma und da gehts jeden Tag ums überleben und Geld verdienen. Wenn man auf der einen Seite für jeden Müll gebasht wird aber auf der anderen Seite mangelnde Qualität beim AF der Konkurenz überhaupt nicht kritisiert wird oder viel zu wenig und so gu wie keinen Einfluss auf Kaufentscheidungen hat, dann wirst du dich als Firma fragen ob es noch Sinn macht hier mehr zu bieten als andere, wenn es ohnehin nicht honoriert wird.

Den AA Vorteil von ATI hat man ja zurecht auch honoriert nur beim AF hat man das unter den Tisch fallen lassen mehr oder weniger. Das lässt sich mit der allgemeinen Massenhysterie erklären. Die Leute drehen ihren Kopf wie der Wind grad weht und laufen auch rum wie die Lemminge.
Nvidia hat jetzt einfach darauf reagiert mehr nicht.

Ist schade so aber letztlich ist der Konsument und der Tester hier in gewisser Weise selber schuld, da mit zweierlei Maß gemessen wurde. Es war eben gerade in alles an den FXen schlecht zu reden, weils alle gemacht haben.

Gast
2004-04-15, 17:13:15
Original geschrieben von Gast
Bin schon ganz ungeduldig. Was weißt du den vom NV50.

Das weiß keiner !

Es gibt Leute die lesen was über den nächsten chip und träumen sich was zurecht.

Quasar
2004-04-15, 17:19:18
Original geschrieben von aths
[...]FP-Filterung in höchsten Tönen gepriesen, obwohl es unwahrscheinlich ist, das innerhalb der 6800-Lebensspanne außerhalb von Techdemos zu sehen.

Das wäre doch mal eine feine Sache für Bildbearbeitung, oder nicht?

DrumDub
2004-04-15, 17:34:55
Original geschrieben von Quasar
Das wäre doch mal eine feine Sache für Bildbearbeitung, oder nicht?

das gibts doch dieses nette video von nv, wo gerade das in echtzeit demonstriert wird. muss grad mal nach dem link suchen. mom.

gefunden: http://developer.nvidia.com/object/sdk_home.html

ist das video "3d-paint" (ftp://download.nvidia.com/developer/Movies/NV40-LowRes-Clips/3DPaint.avi).

AYAlf
2004-04-15, 17:38:21
Original geschrieben von Gast
das glaube ich nicht. Ich glaube OW kotzt es genauso an wie mich auch. Der Punkt ist, dass wir den Umstand nicht Nvidia anlasten sondern denen die für diese Entwicklung eindeutig verantwortlich sind.
Fanboys, User, Reviwer und nicht zu letzt ATI.

Du kannst Nvidia keinen Vorwurf machen. Die sind eine Firma und da gehts jeden Tag ums überleben und Geld verdienen. Wenn man auf der einen Seite für jeden Müll gebasht wird aber auf der anderen Seite mangelnde Qualität beim AF der Konkurenz überhaupt nicht kritisiert wird oder viel zu wenig und so gu wie keinen Einfluss auf Kaufentscheidungen hat, dann wirst du dich als Firma fragen ob es noch Sinn macht hier mehr zu bieten als andere, wenn es ohnehin nicht honoriert wird.

Den AA Vorteil von ATI hat man ja zurecht auch honoriert nur beim AF hat man das unter den Tisch fallen lassen mehr oder weniger. Das lässt sich mit der allgemeinen Massenhysterie erklären. Die Leute drehen ihren Kopf wie der Wind grad weht und laufen auch rum wie die Lemminge.
Nvidia hat jetzt einfach darauf reagiert mehr nicht.

Ist schade so aber letztlich ist der Konsument und der Tester hier in gewisser Weise selber schuld, da mit zweierlei Maß gemessen wurde. Es war eben gerade in alles an den FXen schlecht zu reden, weils alle gemacht haben.

ja die armen .. der maechtigste graka chip konzern der welt wurde tatsaechlich von einer hand voll kanadiern dazu gezwungen eine solch schwerwiegende entscheidung zu treffen. und wir geben ati die hauptschuld. einer muss ja der boomann sein.

nvidiafanboys, seht doch mal bitte den tatsachen ins auge. und verzapft nicht so einen mist. meine hausaufgaben hat auch der hund gefressen .. und deshalb bin ich nicht dran schuld? schwachfug. sorry, aber sowas regt mich echt auf!

Gast
2004-04-15, 17:38:26
NV und http://www.doomvision.de/q4/images/avatars/507904cf3e5a70b8e09d6.gif sind ein liebes Paar,JC sagt zu jeder neuen Gen das sie Hammer ist.

Zur Geforce 4 !sagte er das sie ideal für Doom3 ist hahahaaa

seahawk
2004-04-15, 17:46:21
Ist das schlechtere AF nicht ein Problem bei den Quadro Varianten ??

Argo Zero
2004-04-15, 17:52:52
Original geschrieben von Gast
NV und http://www.doomvision.de/q4/images/avatars/507904cf3e5a70b8e09d6.gif sind ein liebes Paar,JC sagt zu jeder neuen Gen das sie Hammer ist.

Zur Geforce 4 !sagte er das sie ideal für Doom3 ist hahahaaa

Und was bezweckst du damit bzw. was willst du uns damit sagen?
Soweit ich weiß stehen ATi und ID-Software in guter Cooperation.

LovesuckZ
2004-04-15, 18:10:08
NV40 karten kann man bei Alienware schon auswählen und sie selbst sagen, dass die Karten "Now Available!" seien.
Somit hat Nvidia die zur Zeit schnellste kaufbare Grafikkarte am Markt!

betasilie
2004-04-15, 18:12:57
Original geschrieben von Argo Zero
Und was bezweckst du damit bzw. was willst du uns damit sagen?
Soweit ich weiß stehen ATi und ID-Software in guter Cooperation.
Technologisch ist id auch mit ATI zugange, aber Marketingaussagen kommen von JC halt auch, und die sind eigentlich immer für NV.

Ist ja auch nicht weiter schlimm. Andere Firmen, wie z.B. Valve, machen ja auch Marktingaussagen für die Konkurrenz. ;)

deekey777
2004-04-15, 18:18:52
Original geschrieben von Argo Zero
Und was bezweckst du damit bzw. was willst du uns damit sagen?
Soweit ich weiß stehen ATi und ID-Software in guter Cooperation.

Gemein: Auf welcher Grafikkarte wurde denn die später geleakte Demo präsentiert? ;D

Wie ich schon früher gesagt habe, was mir aber keiner glauben will/wollte: HL2 wurde der Presse (noch vor der E3 2003) auf einer 4600 gezeigt. Darum sind diese Unterstellungen nervend.

MadMan2k
2004-04-15, 18:35:44
Original geschrieben von LovesuckZ
NV40 karten kann man bei Alienware schon auswählen und sie selbst sagen, dass die Karten "Now Available!" seien.
Somit hat Nvidia die zur Zeit schnellste kaufbare Grafikkarte am Markt!
sagt dir das Wort "Vorbestellung" etwas?
Die Karte ist auch nicht kaufbar, denn unter einem Kauf stelle ich mir die Übergabe der Ware in meinen Besitz und nicht nur ihre bezahlung vor.

Sephiroth
2004-04-15, 18:39:23
Original geschrieben von AYAlf
ja die armen .. der maechtigste graka chip konzern der welt wurde tatsaechlich von einer hand voll kanadiern dazu gezwungen eine solch schwerwiegende entscheidung zu treffen. und wir geben ati die hauptschuld. einer muss ja der boomann sein.

nvidiafanboys, seht doch mal bitte den tatsachen ins auge. und verzapft nicht so einen mist. meine hausaufgaben hat auch der hund gefressen .. und deshalb bin ich nicht dran schuld? schwachfug. sorry, aber sowas regt mich echt auf!
:bonk:
aus lauter Jux und Tollerei wird nV sich nicht für diese Form des AF entschieden haben. Ich gebe da ow und dem Gast nur Recht. Ich hoffe nur das man es wirklich wieder in den orig. Zusatnd mittels Treiber versetzen kann.

dildo4u
2004-04-15, 18:56:08
http://www.frazpc.pl/komentarz/10396
hier mal ein paar echte bilder der Asus NV40 leider mit referens lüfter frag mich warum.Grad asus hat ja immer auf eigene kühler designs gesetzt


http://people.freenet.de/Dildo4u/asusnv40.jpg

Mehrpack
2004-04-15, 19:01:10
hi,
nunja der lüfter ist doch nen anderer bloss die kühlkörper sind doch reference, bloss noch nen paar LED`s.

bloss was ich mich frage, warum unbedingt die abluft mitten in den pc geblasen werden muss, wenn das teil sowieso so eine bauhöhe hat das der 2 slot zu ist, so kann man ja net mal mit nem slotkühler da die warme luft rausholn :(.

Mehrpack

Omnicron
2004-04-15, 19:04:38
Original geschrieben von dildo4u
http://www.frazpc.pl/komentarz/10396
hier mal ein paar echte bilder der Asus NV40 leider mit referens lüfter frag mich warum.Grad asus hat ja immer auf eigene lüfter designs gesetzt


Das Bild hat Linkschutz. Dann war dieses Asus Design Rendering vor ein paar Tagen wohl doch kein Fake.
Aber den Referenzkühler mit blauen LEDs zu modden finde ich auch nicht sehr kreativ von Asus. Hoffentlich gibts da kreativere Hersteller. :D

dildo4u
2004-04-15, 19:08:11
Original geschrieben von Omnicron
Das Bild hat Linkschutz. Dann war dieses Asus Design Rendering vor ein paar Tagen wohl doch kein Fake.
Aber den Referenzkühler mit blauen LEDs zu modden finde ich auch nicht sehr kreativ von Asus. Hoffentlich gibts da kreativere Hersteller. :D bild gefixt ick lass mich nicht austricksen ;-)

Hellfire-Torrod
2004-04-15, 19:14:42
Lecka grafikkarte :O

Frag mich eher wann man die kaufen kann!

Thomas_B
2004-04-15, 19:26:36
Original geschrieben von Hellfire-Torrod
Lecka grafikkarte :O

Frag mich eher wann man die kaufen kann!

Ich finde den NV40 aufgrund seiner Bauweise eher PEINLICH!

Vom technologischen Aspekt aufgrund der 2* Seperaten Stromversorgungen ein technisches Desaster.

Die Treiber die zum Launch präsentiert worden sind lassen Eindeutig den Rückstand von nv erkennen.

Unter einem "it means to be played" Farcry - Game so abzulooooosen ist mehr als "BÄNDE" sprechend!

Gast
2004-04-15, 19:29:54
Hab mir noch nich alle Tests und Threads durchlesen können daher die Frage: Wie siehts im 2D Betrieb aus? Lüftergeräusch, Strohmverbrauch?

Ich HOFFE das die Entwickler daran gedacht ham denn 100Watt im 2D währe wohl ne Frechheit!

Hellfire-Torrod
2004-04-15, 19:30:46
jajajajajaja....und vom fernsehgucken kricht man viereckige augen.........
Na, mir gefällt das desigt, das mit dem Stom is verkraftbar , die Treiber sind für den anfang garnicht mal so übel und farCry is ne sache für sich....SO :asshole: ;D

Gast
2004-04-15, 19:34:45
Original geschrieben von dildo4u
http://www.frazpc.pl/komentarz/10396
hier mal ein paar echte bilder der Asus NV40 leider mit referens lüfter frag mich warum.Grad asus hat ja immer auf eigene kühler designs gesetzt


http://people.freenet.de/Dildo4u/asusnv40.jpg

Das kann doch nicht das einzige Bild sein.

Quasar
2004-04-15, 19:35:48
Original geschrieben von Thomas_B
Ich finde den NV40 aufgrund seiner Bauweise eher PEINLICH!
Hm, ja, eine Single-Slot Lösung wäre eleganter gewesen. Aber dann kannst du dich ja mit der non-ultra begnügen - selbst wenn der Chiptakt derselbe bleibt, verspeist sie noch alle anderen erhältlichen Karten zum Frühstück.

Original geschrieben von Thomas_B
Vom technologischen Aspekt aufgrund der 2* Seperaten Stromversorgungen ein technisches Desaster.
Ja, wie gesagt, die non-ultra wäre vielleicht was für dich - hat auch nur einen Stromanschluss.
Wenn ich mir die Messungen, die es bisher so gibt, anschaue, dann scheint die Leistungsaufnahme zumindest unter Windows sogar niedriger als die einer R9800XT zu sein - ganz schön peinlich für ATi, mit einem halb so schnellen Chip mehr Strom zu brauchen.
In 3D sieht's ja so furchtbar auch nicht aus und wer weiß, wieviel das Ding noch aus dem Mainboard schluckt - vielleicht (so gut wie) gar nichts mehr, damit man die Regelverluste des Board umgehen kann?


Original geschrieben von Thomas_B
Die Treiber die zum Launch präsentiert worden sind lassen Eindeutig den Rückstand von nv erkennen.
Wieso das?


Original geschrieben von Thomas_B
Unter einem "it means to be played" Farcry - Game so abzulooooosen ist mehr als "BÄNDE" sprechend!
Ablooooooosen? Du meinst, weil der 1.1-Patch bei einigen 2.0-Shadern FP16 erzwingt? Das dürfte sich beheben lassen... =)

Odal
2004-04-15, 19:39:58
Original geschrieben von Gast
Hab mir noch nich alle Tests und Threads durchlesen können daher die Frage: Wie siehts im 2D Betrieb aus? Lüftergeräusch, Strohmverbrauch?

Ich HOFFE das die Entwickler daran gedacht ham denn 100Watt im 2D währe wohl ne Frechheit!

quasar hats ja schon angedeutet...


im 2D etwas mehr als eine 5950 ultra (3 watt oder so mehr) aber noch weniger als eine 9800XT

laut 3DCenter ist das lueftergeraeusch durchaus ertraeglich/angenhem (ob damit nun der 2D oder 3D gemeint war konnt ich nicht herauslesen :D aber wenns im 3D auch leise ist umso besser)

Gast
2004-04-15, 19:40:16
http://www.frazpc.pl/pliki/2002/auto/s/1082028448827290.jpg

http://www.frazpc.pl/pliki/2002/auto/s/1082028457425989.jpg

Der Standard Lüfter scheint wirklich leise zu sein,selbst Asus übernimmt das Design.

Glaube nicht das die ATI noch cooler ausschaun kann

betasilie
2004-04-15, 19:41:02
ATI wird noch cooler aussehen, da außer den Hinweis uaf den Limkschutz nichts zu sehen ist. ;)

Gast
2004-04-15, 19:44:29
Original geschrieben von Quasar
Hm, ja, eine Single-Slot Lösung wäre eleganter gewesen. Aber dann kannst du dich ja mit der non-ultra begnügen - selbst wenn der Chiptakt derselbe bleibt, verspeist sie noch alle anderen erhältlichen Karten zum Frühstück.


Ja, wie gesagt, die non-ultra wäre vielleicht was für dich - hat auch nur einen Stromanschluss.
Wenn ich mir die Messungen, die es bisher so gibt, anschaue, dann scheint die Leistungsaufnahme zumindest unter Windows sogar niedriger als die einer R9800XT zu sein - ganz schön peinlich für ATi, mit einem halb so schnellen Chip mehr Strom zu brauchen.
In 3D sieht's ja so furchtbar auch nicht aus und wer weiß, wieviel das Ding noch aus dem Mainboard schluckt - vielleicht (so gut wie) gar nichts mehr, damit man die Regelverluste des Board umgehen kann?



Wieso das?



Ablooooooosen? Du meinst, weil der 1.1-Patch bei einigen 2.0-Shadern FP16 erzwingt? Das dürfte sich beheben lassen... =)

Ich merke du bist nicht gerade INFORMIERT was die Grafikkarten von ATI angeht. Deine Aussagen sind nicht RICHTIG.

Wenn du möchtest können wir gerne nach dem R420 Launch weiter diskutieren, die Info's die mir vorliegen zeigen mir ganz klar das der R420 weit vor dem NV40 liegen wird.

Was meinst du warum jemand Geld ausgibt für ein Feature welches gar nicht benötigt wird? Damit er eine Story hat, ja jaklar ist der NV40 langsamer als eine R420, aber er hat ja PS3.0 Support.

Ich lach mich wech*g*

Endorphine
2004-04-15, 19:44:47
Original geschrieben von Gast
http://www.frazpc.pl/pliki/2002/auto/s/1082028448827290.jpg

http://www.frazpc.pl/pliki/2002/auto/s/1082028457425989.jpg

Der Standard Lüfter scheint wirklich leise zu sein,selbst Asus übernimmt das Design.

Glaube nicht das die ATI noch cooler ausschaun kann Man kann auf den Bildern auch erkennen, dass Asus offenbar eine Lüfterdrehzahlüberwachung implementiert hat. Vielleicht bietet die Karte damit Hardwaremonitoring/-management über das Referenzniveau hinaus.

Endorphine
2004-04-15, 19:46:38
Original geschrieben von betareverse
ATI wird noch cooler aussehen, da außer den Hinweis uaf den Limkschutz nichts zu sehen ist. ;) Zeige das Bild isoliert an ("View Image") und dann F5 drücken bzw. den Refresh Button in der Browser-GUI, schon ist der Linkschutz umgangen =).

nagus
2004-04-15, 19:46:39
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjM=

http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjI=

find ich relativ interessant, dass NV40 gegen R360 verliert, wenn 8xfsaa(NV) gegen 6xfsaa(ATI) gebencht wird... wobei beide ca. die gleiche bildqualität haben.

ich hab so eine ahnung, wie ati nv40 schlagen wird... ;)

Gast
2004-04-15, 19:47:35
Original geschrieben von Gast
http://www.frazpc.pl/pliki/2002/auto/s/1082028448827290.jpg

http://www.frazpc.pl/pliki/2002/auto/s/1082028457425989.jpg

Der Standard Lüfter scheint wirklich leise zu sein,selbst Asus übernimmt das Design.

Glaube nicht das die ATI noch cooler ausschaun kann

wenn ich was schönes sehen will, kauf ich mir ein bild und nagel das an die wand. Grakas kommen bie mir in den rechner und da kommts auf die leistung an.

betasilie
2004-04-15, 19:48:02
Original geschrieben von Endorphine
Zeige das Bild isoliert an ("View Image") und dann F5 drücken bzw. den Refresh Button in der Browser-GUI, schon ist der Linkschutz umgangen =).
Klar, habe ich auch gemacht. ;)

tokugawa
2004-04-15, 19:49:54
Original geschrieben von Gast
Ich merke du bist nicht gerade INFORMIERT was die Grafikkarten von ATI angeht. Deine Aussagen sind nicht RICHTIG.

Wenn du möchtest können wir gerne nach dem R420 Launch weiter diskutieren, die Info's die mir vorliegen zeigen mir ganz klar das der R420 weit vor dem NV40 liegen wird.

Was meinst du warum jemand Geld ausgibt für ein Feature welches gar nicht benötigt wird? Damit er eine Story hat, ja jaklar ist der NV40 langsamer als eine R420, aber er hat ja PS3.0 Support.

Ich lach mich wech*g*

Schade dass du anonym unterwegs bist. Ich hätte dich gerne nochmal auf diese doch recht starken Aussagen hingewiesen wenn die R420 PRO und/oder XT doch auch mit Doppelstromanschluß kommt. So kannst du leider in deiner Anonymität verschwinden falls es doch für dich peinlich wird...

Argo Zero
2004-04-15, 19:51:37
Original geschrieben von nagus
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjM=

http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjI=

find ich relativ interessant, dass NV40 gegen R360 verliert, wenn 8xfsaa(NV) gegen 6xfsaa(ATI) gebencht wird... wobei beide ca. die gleiche bildqualität haben.

ich hab so eine ahnung, wie ati nv40 schlagen wird... ;)

Der NV40 mischt SS- und MSAA bei dem 8x Modus, was zur einer deutlich besseren Bildqualität führt. Sprich: Winkelabhängigkeit.

Siehe auch hier: http://www20.tomshardware.com/graphic/20040414/geforce_6800-43.html

Gast
2004-04-15, 19:52:30
Original geschrieben von dildo4u
http://www.frazpc.pl/komentarz/10396
hier mal ein paar echte bilder der Asus NV40 leider mit referens lüfter frag mich warum.Grad asus hat ja immer auf eigene kühler designs gesetzt


http://people.freenet.de/Dildo4u/asusnv40.jpg

Wie geht das denn,auf Asus Seite usw gibts keine Bilder aber auf dieser komischen Seite ?

tokugawa
2004-04-15, 19:56:09
Original geschrieben von HOT
Nein, NV hat diese "Schwäche" eben ausgenutzt. So ist das Geschäft eben. Die Verantwortung liegt bei NV bei sonst niemandem.

Falsch, die Verantwortung für die unklare Berichterstattung bzw. das Ignorieren der Winkelabhängigkeit bei ATI liegt bei jenen Medien, die so etwas geschrieben haben.

Die Verantwortung, das dann als Signal zu sehen und es ebenfalls so zu machen liegt, wie ich bereits in meinem Post sagte - dein "Nein" ist also ein "Nein" ins Leere, bei NVIDIA.

Aber, und das ist mein Punkt: man kann es NVIDIA nicht wirklich ankreiden, denn in gewisser Weise war das - leider - ein aufgrund der Medien vorgegebenen Bewertung der Winkelabhängigkeit (bzw deren Nicht-schlecht-Bewertung) - ein logischer Schritt. NVIDIA kann eben auch nicht gegen den Strom schwimmen.

Godmode
2004-04-15, 19:57:15
Original geschrieben von nagus
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjM=

http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjI=

find ich relativ interessant, dass NV40 gegen R360 verliert, wenn 8xfsaa(NV) gegen 6xfsaa(ATI) gebencht wird... wobei beide ca. die gleiche bildqualität haben.

ich hab so eine ahnung, wie ati nv40 schlagen wird... ;)

Wenn ATI einen 6x oder und 8x RGMSAA Modi implementiert hat, könnte ich mir gut vorstellen das der R420 da um einiges schneller ist, naja abwarten.

Ich frage mich warum man da nicht wenigstens 8x noch integriert hat? Kostet das wirklich soviele Transistoren? Oder ist es wegen der fehlenden Bandbreite. Naja Supersampling ist jedenfalls einfach zu performanceraubend.

tokugawa
2004-04-15, 19:58:15
Original geschrieben von Gast
Das ist schön für JC, aber wen interessierts. Bis die neue Engine fertig ist, vergehen wohl noch ein paar Jahre und ein paar Next-Gen-GraKas, es wird viel Geld fließen, es werden noch viele Design-Entscheidnungen getroffen usw. usw.

Die Aussage stellt also kein Kriterium für einen anstehenden Grafikkarten-Kauf dar.


Sehe ich auch so. Außerdem haben Entwickler ja andere Anforderungen als Gamer.

tokugawa
2004-04-15, 20:00:01
Original geschrieben von betareverse
Ich sagte ja mindestens. ;) Wenn man von der Entwicklungsdauer von DooommIII ausgeht, sollte das eher R700 und NV70 sein.

Außerdem glaube ich ein Verhältniss zwischen der Anzahl J.C.s Supersportwagen gefunden zu haben und den Aussagen, dass der aktuelle Grafikchip von NV das non-plus-ultra ist. ;D

Nichts gegen J.C.! Ich würde die Kohle von Nvidia auch dankend annehmen.

Ich dachte der "John" mit dem Supersportwagen war immer John Romero?

Naja ok, den hat der ja auch über ebay kürzlich versteigern müssen als seine Abteilung von Ion Storm den Bach runtergegangen ist...

Radeonator
2004-04-15, 20:05:13
Liebe Mods können wir nicht ein Fanboy Forum aufmachen? Diese haltlosen Fanboy gebete sind absolut lächerlich, fern jeder Realität und zum :kotz:

Dieses Kindergarten geheule geht mir dermaßen auf den ****
Geht endlich wieder in die Schule und bleibt da Kinners, bitte...

Das was bisher bekannt ist, lässt ATi vorerst definitiv den kürzeren ziehen. Vom Feature set, der Fillrate etc. Aber sehr bald werden wir entweder, wieder positiv überrascht oder auch net. Bitte unterlasst diesen 8x vs 6x quatsch, IMO sieht das 4xFSAA besser aus, als die ATi Lösung, somit müsste nach eurer Logik 4xfsaa nV vs 6xFSAA ATi verglichen werden, non ? Alles quatsch...

Gast
2004-04-15, 20:07:55
Original geschrieben von nagus
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjM=

http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjI=

find ich relativ interessant, dass NV40 gegen R360 verliert, wenn 8xfsaa(NV) gegen 6xfsaa(ATI) gebencht wird... wobei beide ca. die gleiche bildqualität haben.

ich hab so eine ahnung, wie ati nv40 schlagen wird... ;)

me too...
und die Benchmarkergebnisse bei den Games sind auch nicht so doll (relativ gesehen zu NVs Marktschreiergesülze).
Was bringts mir , wenn ich 1600x1200 auch noch mit AA und AF spielen, kann wenn ich das gar nicht benötige (und ich meine die meißten anderen Gamer brauchen das auch noch nicht (20' und höher ist noch lange keine Standard Hardware).
Auf die synthtischen Benchmarkergebnisse (für die NV sicherlich die Treiber auch nochmal "optimiert" hat um
ihr Bla Bla "ist Faktor 2-3 schneller" einloesen zu koennen), kann ich auch verzichten.

Glaube auch das ATI dieses Mal wieder besser sein wird (und hier meine ich Leistung und nicht die Technik (oder wie alt sie ist) die dahinter steckt, denn ich hinterfrage nicht wie sie es machen sondern berurteile, was am Ende an Leistung für mich rauskommt, denn dafür geht die Kohle raus). Mir ist dabei völlig egal, wie elegant oder clever das Chipdesign ist.... bringt mir alles nichts wenn der Chip lahmt...


Immerhin haben die Leute ,die sich auf NV eingeschossen haben und für die partout keine andere Marke in Frage kommt, jetzt ein gutes Produkt zur Auswahl.

Thomas_B
2004-04-15, 20:10:17
Original geschrieben von Radeonator
Liebe Mods können wir nicht ein Fanboy Forum aufmachen? Diese haltlosen Fanboy gebete sind absolut lächerlich, fern jeder Realität und zum :kotz:

Dieses Kindergarten geheule geht mir dermaßen auf den ****
Geht endlich wieder in die Schule und bleibt da Kinners, bitte...

Das was bisher bekannt ist, lässt ATi vorerst definitiv den kürzeren ziehen. Vom Feature set, der Fillrate etc. Aber sehr bald werden wir entweder, wieder positiv überrascht oder auch net. Bitte unterlasst diesen 8x vs 6x quatsch, IMO sieht das 4xFSAA besser aus, als die ATi Lösung, somit müsste nach eurer Logik 4xfsaa nV vs 6xFSAA ATi verglichen werden, non ? Alles quatsch...

Also meine lieber Pappa,

1. Ist eine Grafikkarte die mehr Strom verbraucht als Ihr Vorgänger keine technische Errungenschaft, sonder ein Rückschritt!

2. Ist das Ergebnis bei Farcry, NACHZUSELSEN bei GAMESTAR und Golem mehr als bedenklich.

3. Wo sind bitteschön die 13.000 Punkte bei 3DMARK hin??? Habe ich mich da verhört die letzten Wochen???

11276 sind nicht 13.000!

dildo4u
2004-04-15, 20:10:26
Original geschrieben von Radeonator
Liebe Mods können wir nicht ein Fanboy Forum aufmachen? Diese haltlosen Fanboy gebete sind absolut lächerlich, fern jeder Realität und zum :kotz:

Dieses Kindergarten geheule geht mir dermaßen auf den ****
Geht endlich wieder in die Schule und bleibt da Kinners, bitte...

Das was bisher bekannt ist, lässt ATi vorerst definitiv den kürzeren ziehen. Vom Feature set, der Fillrate etc. Aber sehr bald werden wir entweder, wieder positiv überrascht oder auch net. Bitte unterlasst diesen 8x vs 6x quatsch, IMO sieht das 4xFSAA besser aus, als die ATi Lösung, somit müsste nach eurer Logik 4xfsaa nV vs 6xFSAA ATi verglichen werden, non ? Alles quatsch... Fragt sich wer den fanboy ist " Nichts desto trotz hat ATi bezüglich Anti-Aliasing die derzeit beste Lösung auf dem Markt anzubieten" Zitat aus dem aktuellen 3Dcenter test mit NV40 im test

tokugawa
2004-04-15, 20:15:35
Original geschrieben von Gast
me too...
und die Benchmarkergebnisse bei den Games sind auch nicht so doll (relativ gesehen zu NVs Marktschreiergesülze).
Was bringts mir , wenn ich 1600x1200 auch noch mit AA und AF spielen, kann wenn ich das gar nicht benötige (und ich meine die meißten anderen Gamer brauchen das auch noch nicht (20' und höher ist noch lange keine Standard Hardware).
Auf die synthtischen Benchmarkergebnisse (für die NV sicherlich die Treiber auch nochmal "optimiert" hat um
ihr Bla Bla "ist Faktor 2-3 schneller" einloesen zu koennen), kann ich auch verzichten.

Glaube auch das ATI dieses Mal wieder besser sein wird (und hier meine ich Leistung und nicht die Technik (oder wie alt sie ist) die dahinter steckt, denn ich hinterfrage nicht wie sie es machen sondern berurteile, was am Ende an Leistung für mich rauskommt, denn dafür geht die Kohle raus). Mir ist dabei völlig egal, wie elegant oder clever das Chipdesign ist.... bringt mir alles nichts wenn der Chip lahmt...


Immerhin haben die Leute ,die sich auf NV eingeschossen haben und für die partout keine andere Marke in Frage kommt, jetzt ein gutes Produkt zur Auswahl.

Ich fand NV's "Marketinggesülze" (im Vergleich zum NV30-Launch damals) diesmal doch eher moderat. Das meiste Gesülze kam doch eh nicht von NVIDIA selbst, sondern von den Fanboys und auch anderen...

Im Übrigen wäre idente Framerate bei 1280x1024 gegenüber 1024x768 als "doppelte" Leistung interpretierbar (doppelte Pixelanzahl). Sooo fern von der Wahrheit war das "durchschnittlich 80% schneller" nicht, wenn ich mir die Zahlen aller Sites bisher anschaue.

Den Vorteil sehe ich weniger darin in 1600x1200 zu fahren (da würde mein eigener 17-Zöller meine Augen ausbrennen - aber ich plane schon ein Upgrade :D meine Augen werden's mir danken), als darin, höhere IQ Settings in meinen Standardauflösungen (1024x768) zu fahren. Bei älteren wäre ja vielleicht sogar das 8x AA (MSAA+SSAA) drin.

Da ich auch Grafik programmiere, sind die neuen Features für mich ebenfalls recht lecker - aber natürlich, dem Gamer bringen sie in der Gegenwart noch nicht sehr viel.

Auf jeden Fall bin ich jetzt gespannt auf den R420. Irgendwer hat ja zuerst launchen müssen... und dass jetzt quasi nur eine Seite der Medaille bekannt ist, sehen Fanboys (beider Lager) ja leider nicht...

Argo Zero
2004-04-15, 20:16:35
Könntet ihr euch bitte auf einem akzeptablen Niveau unterhalten und die persönlichkeiten via PM austragen?!

DrumDub
2004-04-15, 20:20:45
Original geschrieben von Radeonator
Liebe Mods können wir nicht ein Fanboy Forum aufmachen? Diese haltlosen Fanboy gebete sind absolut lächerlich, fern jeder Realität und zum :kotz:

Dieses Kindergarten geheule geht mir dermaßen auf den ****
Geht endlich wieder in die Schule und bleibt da Kinners, bitte...

absolut. langsam nervt es wirklich.

IMO sieht das 4xFSAA besser aus, als die ATi Lösung,

wie belegst du das? bis auf die gammakorrektur isses afaik identisch.

joehler
2004-04-15, 20:22:34
... oh je, was ist nur aus dem Top 3DCenter geworden?

*** Nochmal für die, die es nicht wissen - 26.April wird ATI die R420 vorstellen. Also bevor irgendwer eine Nvidia vs ATI Diskussion starten will, bitte bis dahin warten, dann kann man sich wenigstens auf fairer Basis kloppen.

Gast
2004-04-15, 20:24:35
Im Moment reicht mir meine Radeon 9800 Pro.
In 1600*1200 zocke ich sowieso nicht.
Außerdem verbraucht die weniger Strom und ist deutlich leiser. In einem Test stand was von 7,1 Sone. Das wäre extrem laut. Noch dazu wird die Karte sicherlich 500-600 € kosten. In 1 Jahr wird die vielleicht interesant. Aber da gibt es dann noch bessere Karten.

DrumDub
2004-04-15, 20:26:18
Original geschrieben von Thomas_B
Also meine lieber Pappa,

1. Ist eine Grafikkarte die mehr Strom verbraucht als Ihr Vorgänger keine technische Errungenschaft, sonder ein Rückschritt!

2. Ist das Ergebnis bei Farcry, NACHZUSELSEN bei GAMESTAR und Golem mehr als bedenklich.

3. Wo sind bitteschön die 13.000 Punkte bei 3DMARK hin??? Habe ich mich da verhört die letzten Wochen???

11276 sind nicht 13.000!

1. schwachsinn. 6 watt mehr strom zu verbrauchen bei mehr doppelter rohpower im vergelich zur 5950u ist natürlich verschwendung. :bonk:

2. du raffst es nicht. das problem bei far cry ist ein spezielles. schau die mal tr:aod, hl2 etc. an.

3. knapp 12000 (siehe: http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=11), mehr als das doppelte ner 5950u. ich hab nie was anderes gehört, weiß nicht was du für quellen hast.

Gast
2004-04-15, 20:28:20
@ tomas, geh doch zurück in dein ati forum. Solch ein geflame können wir hier echt nicht gebrauchen. Ich denke jeder gescheite user hier weiß, was der nv40 leisten kann. Im Durchschnitt ist er doppelt so schnell wie die 9800XT, bei manchen benchmarks wie z.B, FARCRY liegt es schlicht an den treibern, wobei beim fall farcry es auch am spiel selber liegt, da cryteck die optimierungen die seinerzeit für den nv3X gedacht waren nicht mehr entfernt hat. Und warum der nv40 in den ganz niedrigen Auflösungen nur ca 50% schneller ist, ist doch auch klar oder soll ich dir das auch noch erklären. AUßERDEM WAS WILLST DU MIT SO NER NIEDRIGEN Auflösung wo du eh schon 200FPS und mehr hast mit noch mehr FPS. Es kommt doch nur darauf an ob man sogar in den Auflösungen von 1600*1200 mit vollem AF und AA und höchsten details trotzdem noch super flüssig spielen kann und das ist beim nv40 ja auch der Fall, als einzigste Grafikkarte zurzeit. Oder nenn du mir ein Spiel, was auf dem nv40 laggen würde (farcry aus treibergründen mal außer acht gelassen). Nichtmal DOOM3 oder Halflife2 werden dem nv40 alles abverlangen, da bin ich mir ziemlich sicher.

Gast
2004-04-15, 20:30:37
Original geschrieben von tokugawa
Ich fand NV's "Marketinggesülze" (im Vergleich zum NV30-Launch damals) diesmal doch eher moderat. Das meiste Gesülze kam doch eh nicht von NVIDIA selbst, sondern von den Fanboys und auch anderen...

Im Übrigen wäre idente Framerate bei 1280x1024 gegenüber 1024x768 als "doppelte" Leistung interpretierbar (doppelte Pixelanzahl). Sooo fern von der Wahrheit war das "durchschnittlich 80% schneller" nicht, wenn ich mir die Zahlen aller Sites bisher anschaue.

Den Vorteil sehe ich weniger darin in 1600x1200 zu fahren (da würde mein eigener 17-Zöller meine Augen ausbrennen - aber ich plane schon ein Upgrade :D meine Augen werden's mir danken), als darin, höhere IQ Settings in meinen Standardauflösungen (1024x768) zu fahren. Bei älteren wäre ja vielleicht sogar das 8x AA (MSAA+SSAA) drin.

Da ich auch Grafik programmiere, sind die neuen Features für mich ebenfalls recht lecker - aber natürlich, dem Gamer bringen sie in der Gegenwart noch nicht sehr viel.

Auf jeden Fall bin ich jetzt gespannt auf den R420. Irgendwer hat ja zuerst launchen müssen... und dass jetzt quasi nur eine Seite der Medaille bekannt ist, sehen Fanboys (beider Lager) ja leider nicht...

stimmt, dieses Mal war der Hype von NV "maßvoller" trotzdem
geht mir dabei immer die Hutkrampe hoch , wenn ich hinterher die Ergebnisse mit den früheren Aussagen vor product launch vergleiche.

PS 3.0 ist ja schön und nett, nur wer unterstützt das
in einer der neuen "must have " Titel ??
Und habe ich rein optisch auch einen Zugewinn von den Features oder findet die Technik nur intern , in der Hardware statt und auf dem Monitor erkennt man keinen Unterschied ? Wenn davon nichts zu sehen ist -> rausgeschmissenes Geld.

Ich hab nen 21'er und spiele immer noch mit 1024x768 und es
reicht (noch) vollkommen aus (9700pro).....
Ich denke ich noch locker auf den R500 warten.
gruß

Godmode
2004-04-15, 20:43:10
Original geschrieben von Thomas_B
Also meine lieber Pappa,

1. Ist eine Grafikkarte die mehr Strom verbraucht als Ihr Vorgänger keine technische Errungenschaft, sonder ein Rückschritt!

2. Ist das Ergebnis bei Farcry, NACHZUSELSEN bei GAMESTAR und Golem mehr als bedenklich.

3. Wo sind bitteschön die 13.000 Punkte bei 3DMARK hin??? Habe ich mich da verhört die letzten Wochen???

11276 sind nicht 13.000!


1. Preschrott braucht mehr, A64/FX braucht mehr: bessere Leistung = mehr Stromverbrauch.

2. Bei FarCry gibts ein Problem: entweder liegt es an den Treibern die ja noch nicht final sind, oder es liegt am Game da einfach noch was modifieziert werden muss.

3. CPU-Limitiert? ka aber ich denk mal die haben den auf nem 5 GHz Mach 2 gebencht

tokugawa
2004-04-15, 20:43:27
Original geschrieben von Gast
stimmt, dieses Mal war der Hype von NV "maßvoller" trotzdem
geht mir dabei immer die Hutkrampe hoch , wenn ich hinterher die Ergebnisse mit den früheren Aussagen vor product launch vergleiche.

PS 3.0 ist ja schön und nett, nur wer unterstützt das
in einer der neuen "must have " Titel ??
Und habe ich rein optisch auch einen Zugewinn von den Features oder findet die Technik nur intern , in der Hardware statt und auf dem Monitor erkennt man keinen Unterschied ? Wenn davon nichts zu sehen ist -> rausgeschmissenes Geld.

Ich hab nen 21'er und spiele immer noch mit 1024x768 und es
reicht (noch) vollkommen aus (9700pro).....
Ich denke ich noch locker auf den R500 warten.
gruß


Naja, wie gesagt, PS3.0 und die anderen NV40 Features (PS3.0 ist ja nicht das einzige, ich find die anderen ehrlich gesagt mindestens genauso interessant) bringen gegenwärtig eh nicht viel. Aber als Entwickler würd ich mir die Karte wohl eher zulegen als ein "Speed-Monster" das auf alter Architektur basiert. Als Gamer nimmt man sich natürlich das, was am schnellsten ist bei gewünschter Bildqualität.

Außerdem halte ich alles was über 300 Euro kostet irgendwie sowieso für rausgeschmissenes Geld :D aber auch nur deswegen weil ich eher Midrange/Mainstream kaufe aber dafür häufiger upgrade (eben wegen den Features meistens - daher finde ich auch eine langsamere, aber trotzdem feature-komplette "kleine" Variante eines Chips eine gute Idee. Ich find sogar die FX5200 recht lecker, hab mir überlegt eine zu kaufen nur um mit NV3x-Shadern rumzuspielen, wo Performance egal ist).

"Unterstützung" für die neuen Features kämen halt eher von mir selbst als von "aktuellen" Titeln, aber das wäre für mich ok. Man sieht: es hängen solche Entscheidungen immer von den eigenen Gegebenheiten ab. Von da her hielt ich die FX5800 Ultra auch nicht für einen Beweis für die "Dummheit" des Käufers, wie das manchmal von manchen angedeutet oder auch klar ausgesprochen wurde.

Und letztendlich glaube ich, es ist nie eine schlechte Idee, eine Generation zu überspringen...

NVIDIA-seitig wäre also für mich dann die nächste Karte ein NV4x Ableger (meine NVIDIA Maschine hat eine GF4 Ti4200).

ATI-seitig kann ich noch warten (Radeon 9500 Pro), es sei denn es kommt ein richtig günstiges Angebot (die 9800 Pro für rund 200 Euro hat mich schon sehr in Versuchung gebracht...).

Godmode
2004-04-15, 20:51:50
Original geschrieben von Gast
stimmt, dieses Mal war der Hype von NV "maßvoller" trotzdem
geht mir dabei immer die Hutkrampe hoch , wenn ich hinterher die Ergebnisse mit den früheren Aussagen vor product launch vergleiche.

PS 3.0 ist ja schön und nett, nur wer unterstützt das
in einer der neuen "must have " Titel ??
Und habe ich rein optisch auch einen Zugewinn von den Features oder findet die Technik nur intern , in der Hardware statt und auf dem Monitor erkennt man keinen Unterschied ? Wenn davon nichts zu sehen ist -> rausgeschmissenes Geld.

Ich hab nen 21'er und spiele immer noch mit 1024x768 und es
reicht (noch) vollkommen aus (9700pro).....
Ich denke ich noch locker auf den R500 warten.
gruß

Also bei PS3.0 kann man von nem Speedupgrade reden, das heißt man kann PS2.0 Shader in gewissen Fällen schneller ausführen. Ich weiß aber nicht ob PS3.0 wirklich performant nützbar ist, denke mal in richtigem Maße wirds schon gehn, aber von PS3.0 only keine Rede.

Meinst du mit der Genauigkeit jetz das neue HDR Feature? Soweit ich weiß bringt das genau den Vorteil das überblendete Szenen auch realer aussehen, was irgendwas damit zu tun hat, dass unser Auge logarithmisch arbeitet. Schlagt mich wenn ich mich irre. :)

Das ist deine Meinung und da braucht sich keiner aufregen, wenn du nicht mehr(IQ/RES) brauchst ist das gut so und sparst dir viel Geld für ne neue Graka.

Aquaschaf
2004-04-15, 20:53:09
Original geschrieben von joehler
... oh je, was ist nur aus dem Top 3DCenter geworden?



Der Kommentar ist überflüssig.

Piffan
2004-04-15, 20:53:56
Original geschrieben von Argo Zero
Könntet ihr euch bitte auf einem akzeptablen Niveau unterhalten und die persönlichkeiten via PM austragen?!

Im Grunde kann man doch den ganzen bösartigen Mist schließen. Hier sind doch offensichtlich wieder bezahlte Spinner unterwegs. Die haben schon versucht, Farcry kaputt zu reden, jetzt geht es hier gegen den NV.....
Da wird gelogen, offensichtlicher Mist aus anderen Reviews zitiert oder nur selektiv aus dem Zusammenhang gerissen zitiert usw....WAr das 3dCenter schon immer so verseucht?

Wann merken diese Schwachmaten endlich, dass es nischt nützt? Der NV ist momentan der Überchip, muss man nicht drüber reden.
Wenn Ati seine Karten auf den Tisch gelegt hat, dann kann man flamen und lügen, was das Zeug hält. Derzeit überfüssig.

LovesuckZ
2004-04-15, 20:58:09
Original geschrieben von Thomas_B
Ich finde den NV40 aufgrund seiner Bauweise eher PEINLICH!

Gefaellt die die farbe nicht? Dass die Karte eckig und nicht rund ist?

Vom technologischen Aspekt aufgrund der 2* Seperaten Stromversorgungen ein technisches Desaster.

"technisches Desaster"? War das ein r300 vor 1 1/2 Jahren auch? Und was hat das mit dem "technologischen Aspekt" zu tun?

Die Treiber die zum Launch präsentiert worden sind lassen Eindeutig den Rückstand von nv erkennen.

Hm, seit wann gab es eine neue Generation, bei denen die Treiber schon so perfekt waren?

Unter einem "it means to be played" Farcry - Game so abzulooooosen ist mehr als "BÄNDE" sprechend!

Hoppla, ich denke, dass Nvidia unter Farcry ein wenig besser als ATi zur zeit mit dem Patch 1.1 ist. Der Leistungsvorsprung liegt bei ca. 100%...

Lustiger Troll
2004-04-15, 21:01:35
Original geschrieben von Thomas_B
Also meine lieber Pappa,

1. Ist eine Grafikkarte die mehr Strom verbraucht als Ihr Vorgänger keine technische Errungenschaft, sonder ein Rückschritt!

2. Ist das Ergebnis bei Farcry, NACHZUSELSEN bei GAMESTAR und Golem mehr als bedenklich.

3. Wo sind bitteschön die 13.000 Punkte bei 3DMARK hin??? Habe ich mich da verhört die letzten Wochen???

11276 sind nicht 13.000!

Zu 1, nVIDIA hat diesmal einen auf Bruteforce machen müssen, Leistung um jeden Preis, dir scheint es nict zu Passen das NV ein verdammt gutes Produkt gemacht hat, bist evtl. ein Fanboy. Wie hoch ist den der Leistungsverbrauch einer X800XT, richtig das weiss keiner, und im 2d wird die gf68 sicher weniger saft brauchen als die r420.

Zu 2 Gamestar und Golem fällt mir so spontan nur eins ein, :lolaway:

Zu 3 ein Bild sagt mehr als 1000 Worte.
http://users.quick-line.ch/error/NV40/3dmark2k3.jpg

LovesuckZ
2004-04-15, 21:04:56
Original geschrieben von Mehrpack
bloss was ich mich frage, warum unbedingt die abluft mitten in den pc geblasen werden muss, wenn das teil sowieso so eine bauhöhe hat das der 2 slot zu ist, so kann man ja net mal mit nem slotkühler da die warme luft rausholn :(.
Mehrpack

Das Ding ist ein Single-Slot-Kühler, sieht man schön hier (http://www.beyond3d.com/forum/viewtopic.php?p=258437#258437).

LovesuckZ
2004-04-15, 21:06:55
http://vr-zone.com/?i=681&s=2

So. Einige Single-Slot Lösungen sind dabei. nvidia hat diesmal bezueglich der Wärmeabgabe alles richtig gemacht.

http://vr-zone.com/newspics/Apr04/15/6800U_set-s.jpg (http://vr-zone.com/?i=679)

dildo4u
2004-04-15, 21:14:19
Original geschrieben von LovesuckZ
http://vr-zone.com/?i=681&s=2

So. Einige Single-Slot Lösungen sind dabei. nvidia hat diesmal bezueglich der Wärmeabgabe alles richtig gemacht. Naja z.B nur 400mhz core takt nicht bös gemeint aber schon ein ziehmlicher kompromiss

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8329.JPG wat sind das für anschlüsse?

ow
2004-04-15, 21:16:57
Original geschrieben von dildo4u
Naja z.B nur 400mhz core takt nicht bös gemeint aber schon ein ziehmlicher kompromiss




Hältst du >220Mio. Transistoren auch für einen Kompromiss?

Hellfire-Torrod
2004-04-15, 21:17:50
WTF?Leadtek (http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8328.JPG)

Mark3Dfx
2004-04-15, 21:18:02
"wat sind das für anschlüsse?"

2x LAN RJ45 & 1x BNC ? :| ;D

dildo4u
2004-04-15, 21:18:10
Original geschrieben von ow
Hältst du >220Mio. Transistoren auch für einen Kompromiss? naja ati kommt mit 500 core und nur 180mio also PS3 für NV40 Speedplus für ATI?

Godmode
2004-04-15, 21:18:31
Original geschrieben von dildo4u
Naja z.B nur 400mhz core takt nicht bös gemeint aber schon ein ziehmlicher kompromiss

wat sind das für anschlüsse?

Quadro

Endorphine
2004-04-15, 21:19:02
Original geschrieben von dildo4u
Naja z.B nur 400mhz core takt nicht bös gemeint aber schon ein ziehmlicher kompromiss

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8329.JPG wat sind das für anschlüsse? Die sind für den Framelock. Steht auch dran (Bilder anklicken für große Version)
http://www.elsa-jp.co.jp/product/01hiend/fx3000g/photo/ps_quadroFX_3000g_ico.jpg (http://www.elsa-jp.co.jp/product/01hiend/fx3000g/photo/ps_quadroFX_3000G.jpg) http://www.elsa-jp.co.jp/product/01hiend/fx3000g/photo/ph_quadroFX_3000G_ico.jpg (http://www.elsa-jp.co.jp/product/01hiend/fx3000g/photo/ph_quadroFX_3000G.jpg)

deekey777
2004-04-15, 21:19:18
http://www.de.tomshardware.com/graphic/20030908/opengl-ati-nvidia-06.html


Ich mache es mir einfach und zitiere einfach:
"Oben rechts sehen Sie eine BNC-Buchse für den Genlock. Damit lässt sich die Karte mit einer externen Referenzsignal synchronisieren. Eine typische Anwendung ist der so genannte House Sync bei Fernsehsendern (On-Air Broadcast). Damit lässt sich sicherstellen, dass alle Monitore einheitlich flimmern, was weniger anstrengend für das Personal ist. Ebenso benutzt man den Genlock für die Post Production in Studios:

Compositing
Editing Solutions
Sync to Audio
Sync to character generator
Die zwei Anschlüsse, die wie RJ45-Netzwerkbuchsen aussehen, dienen dem Framesync. Dadurch lässt sich eine Multi-System-Synchronization herstellen."

tokugawa
2004-04-15, 21:20:11
Original geschrieben von LovesuckZ
http://vr-zone.com/?i=681&s=2

So. Einige Single-Slot Lösungen sind dabei. nvidia hat diesmal bezueglich der Wärmeabgabe alles richtig gemacht.

http://vr-zone.com/newspics/Apr04/15/6800U_set-s.jpg (http://vr-zone.com/?i=679)

Die Doppelslot Leadtek sieht ja mal interessant aus, hat die einen integrierten TV tuner? Und was sollen die zwei RJ45-Buchsen?

EDIT: bla, zu spät gepostet...

EDIT2: ich find's schade dass die Bilder von MSI nicht mehr gezeigt haben. Hätte mich interessiert, da ja deren 5900er Serie auch extrem leise war.

deekey777
2004-04-15, 21:25:01
Original geschrieben von ow
Hältst du >220Mio. Transistoren auch für einen Kompromiss?

Es ist ein Kompromis zw. Transenzahl/Takt und "Stromverbrauch", da die 6800 Ultra sonst über 100 Watt verbraten würde (http://www.heise.de/newsticker/meldung/46461)

betasilie
2004-04-15, 21:26:25
Original geschrieben von deekey777
http://www.de.tomshardware.com/graphic/20030908/opengl-ati-nvidia-06.html


Ich mache es mir einfach und zitiere einfach:
"Oben rechts sehen Sie eine BNC-Buchse für den Genlock. Damit lässt sich die Karte mit einer externen Referenzsignal synchronisieren. Eine typische Anwendung ist der so genannte House Sync bei Fernsehsendern (On-Air Broadcast). Damit lässt sich sicherstellen, dass alle Monitore einheitlich flimmern, was weniger anstrengend für das Personal ist. Ebenso benutzt man den Genlock für die Post Production in Studios:

Compositing
Editing Solutions
Sync to Audio
Sync to character generator
Die zwei Anschlüsse, die wie RJ45-Netzwerkbuchsen aussehen, dienen dem Framesync. Dadurch lässt sich eine Multi-System-Synchronization herstellen."
Danke für die Erklärung. :)

Hellfire-Torrod
2004-04-15, 21:26:34
AOpen (http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8305.JPG)
sogar nur mit einem Stromanschluss oder is das die nonUltra? (denke, wes ist die ultra.

LovesuckZ
2004-04-15, 21:27:08
Original geschrieben von Hellfire-Torrod
AOpen (http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8305.JPG)
sogar nur mit einem Stromanschluss oder is das die nonUltra? (denke, wes ist die ultra.

Non Ultra.

dildo4u
2004-04-15, 21:28:41
Original geschrieben von Hellfire-Torrod
AOpen (http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8305.JPG)
sogar nur mit einem Stromanschluss oder is das die nonUltra? (denke, wes ist die ultra. aber trotzdem 2 slot design?

Hellfire-Torrod
2004-04-15, 21:31:41
Auf den verpackungen steht Ultra!

Gast
2004-04-15, 21:32:36
Die Pixelview ;D

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8332.JPG

Endorphine
2004-04-15, 21:34:32
Original geschrieben von Gast
Die Pixelview ;D

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8332.JPG Dual-DVI — nice one :up:.

betasilie
2004-04-15, 21:34:33
Original geschrieben von Gast
Die Pixelview ;D

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8332.JPG
:w00t: Das Ding ist wohl ein Witz!?

Gast
2004-04-15, 21:36:34
wieso ein witz?

kiss
2004-04-15, 21:37:04
Die Karten sehen jawohl alle richtig GEIL aus. Am besten gefällt mir die Pexelview und die ASUS!

Einfach nur der Hammer :D

tokugawa
2004-04-15, 21:37:40
Gibt's irgendwo Bilder vom Kühler der MSI?

Bin schon gespannt wer diesmal die leiseste 6800 baut.

Gast
2004-04-15, 21:37:58
Irgendwas ist hier faul,wo sind die Stecker

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8328.JPG

kiss
2004-04-15, 21:40:01
Hehe auf der Leadtek steht Quadro FX....die haben einfach die alten Karten genommen!!! :D

Gast
2004-04-15, 21:40:02
Warum ist der Leadtek Lüfter so extrem flach und klein,de muß doch abartig laut sein

Sephiroth
2004-04-15, 21:40:03
Original geschrieben von Gast
Irgendwas ist hier faul,wo sind die Stecker

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8328.JPG
Das zum einen und zum anderen klebt das nen Geforce FX Aufkleber drauf und ist auch sonst nicht all zu doll bestückt.

Lustiger Troll
2004-04-15, 21:40:19
Lieber Gast das ist eine Quadro 3000, die basiert noch auf dem NV38. Sie braucht somit nur einen Anschluss und der ist da oben rechts.

aths
2004-04-15, 21:40:26
Original geschrieben von Gast
Wenn du möchtest können wir gerne nach dem R420 Launch weiter diskutieren, die Info's die mir vorliegen zeigen mir ganz klar das der R420 weit vor dem NV40 liegen wird.Komisch, dass mir solche Infos nicht vorliegen. (Ohne Apostroph die Infos bitte. Danke.)

Original geschrieben von Gast
Was meinst du warum jemand Geld ausgibt für ein Feature welches gar nicht benötigt wird? Damit er eine Story hat, ja jaklar ist der NV40 langsamer als eine R420, aber er hat ja PS3.0 Support.

Ich lach mich wech*g* Far Cry wird Pixelshader 3.0 nutzen. Nach den Infos, die mir vorliegen, auch für neue Effekte =)

Winter[Raven]
2004-04-15, 21:40:30
Original geschrieben von Gast
Irgendwas ist hier faul,wo sind die Stecker

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8328.JPG

Das ist eine Geforce FX. Steht doch druff, Nvidia Quadro FX!

Gast
2004-04-15, 21:41:11
Original geschrieben von Gast
@ tomas, geh doch zurück in dein ati forum. Solch ein geflame können wir hier echt nicht gebrauchen. Ich denke jeder gescheite user hier weiß, was der nv40 leisten kann. Im Durchschnitt ist er doppelt so schnell wie die 9800XT, bei manchen benchmarks wie z.B, FARCRY liegt es schlicht an den treibern, wobei beim fall farcry es auch am spiel selber liegt, da cryteck die optimierungen die seinerzeit für den nv3X gedacht waren nicht mehr entfernt hat. Und warum der nv40 in den ganz niedrigen Auflösungen nur ca 50% schneller ist, ist doch auch klar oder soll ich dir das auch noch erklären. AUßERDEM WAS WILLST DU MIT SO NER NIEDRIGEN Auflösung wo du eh schon 200FPS und mehr hast mit noch mehr FPS. Es kommt doch nur darauf an ob man sogar in den Auflösungen von 1600*1200 mit vollem AF und AA und höchsten details trotzdem noch super flüssig spielen kann und das ist beim nv40 ja auch der Fall, als einzigste Grafikkarte zurzeit. Oder nenn du mir ein Spiel, was auf dem nv40 laggen würde (farcry aus treibergründen mal außer acht gelassen). Nichtmal DOOM3 oder Halflife2 werden dem nv40 alles abverlangen, da bin ich mir ziemlich sicher.

Witz komm raus! Treiberprobleme bei einem NVIDIA Sponsored Spiel sind undiskutabel!

aths
2004-04-15, 21:42:01
Original geschrieben von nagus
find ich relativ interessant, dass NV40 gegen R360 verliert, wenn 8xfsaa(NV) gegen 6xfsaa(ATI) gebencht wird... wobei beide ca. die gleiche bildqualität haben.

ich hab so eine ahnung, wie ati nv40 schlagen wird... ;) Nagus, bitte nicht Äpfel mit Birnen vergleichen, schon gar nicht Äpfel mit Apfelsinen.

NVs 8x-Modus ist rein polygonkanten-glättungstechnisch sogar schlechter als ATIs 6x-Modus. Dafür ist er, was Texturen (vor allem beim Alphatesting) angeht, *erheblich* besser. Da steckt ein 4x Supersampling-Anteil drin. Die Karte läuft dann mit effektiv 25% der Füllratenleistung.

Winter[Raven]
2004-04-15, 21:42:16
Far Cry wird Pixelshader 3.0 nutzen. Nach den Infos, die mir vorliegen, auch für neue Effekte

ah, auf einmal?

Gestern hast du es noch mit FALSCH abgestempelt.

aths
2004-04-15, 21:43:06
Original geschrieben von Thomas_B
Also meine lieber Pappa,

1. Ist eine Grafikkarte die mehr Strom verbraucht als Ihr Vorgänger keine technische Errungenschaft, sonder ein Rückschritt!Fast immer braucht ein neuerer Chip auch mehr Strom. Ist z. B. bei den CPUs schön zu sehen.

Original geschrieben von Thomas_B
2. Ist das Ergebnis bei Farcry, NACHZUSELSEN bei GAMESTAR und Golem mehr als bedenklich.Das sind ja auch auf Grakas spezialisierte Fachmagazine :eyes:

Original geschrieben von Thomas_B
3. Wo sind bitteschön die 13.000 Punkte bei 3DMARK hin??? Habe ich mich da verhört die letzten Wochen???Auf dem Editor's Day hat NV von ~12500 gesprochen. Hängt natürlich von der CPU ab.

tokugawa
2004-04-15, 21:43:23
Original geschrieben von Gast
Witz komm raus! Treiberprobleme bei einem NVIDIA Sponsored Spiel sind undiskutabel!

Ich hab eher was von einem Problem des Spiels (Bug) gehört. Liegt auch im Bereich des möglichen.

EDIT: und bei neuerer Hardware darf sowas schon mal erlaubt sein. "indiskutabel" ist es sicher nicht, alles kann man diskutieren :D

aths
2004-04-15, 21:45:01
Original geschrieben von Quasar
Das wäre doch mal eine feine Sache für Bildbearbeitung, oder nicht? Hängt vom Content ab. Und richtige Filmstudios arbeiten oft mit FP32.

aths
2004-04-15, 21:45:37
Original geschrieben von Gast
NV und http://www.doomvision.de/q4/images/avatars/507904cf3e5a70b8e09d6.gif sind ein liebes Paar,JC sagt zu jeder neuen Gen das sie Hammer ist.

Zur Geforce 4 !sagte er das sie ideal für Doom3 ist hahahaaa Er sagte zu einem Zeitpunkt, als die GeForce4 Ti die schnellste Karte war, dass sie unter allen erhältlichen Karten die beste für Doom3 sei.

kiss
2004-04-15, 21:45:37
Die haben mit einem AMD64 3400+ und der 6800ultra etwas über 13000 punkte bei 3dmark2003 geschafft!
Also, es hängt vom System ab.... :)



Man ich halt es hier nicht mehr aus, immer etwas negatives suchen und posten.....
Das einzigste was ich an der 6800 auszusetzen habe, ist, das mit dem AnistropischenFilter.
Der Stromverbauch ist garnicht so hoch wie manche denken...

Z.B. im IDLE MODUS verbraucht sie weniger als ne 9800xt aber mehr als eine 5950ultra!

Lustiger Troll
2004-04-15, 21:45:46
Das ist eine Quadro FX 3000 die oben ist die Quadro FX 3000G.
http://www.hothardware.com/reviews/images/quadrofx3k/thmb/qfx3ksmall.jpg

Gast
2004-04-15, 21:46:16
Gainward und albatron sind ja gewaltig creativ ;D

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8316.JPG

Aber Albatron ist immer schön billig und fast alle nehmen den Standardkühler,dann entscheidet wohl der Preis

deekey777
2004-04-15, 21:47:55
Original geschrieben von Gast
Witz komm raus! Treiberprobleme bei einem NVIDIA Sponsored Spiel sind undiskutabel!

FC? FC ist ein TWIMTBP Spiel und kein von nVidia sponsored Spiel.

Gast
2004-04-15, 21:48:42
Original geschrieben von Gast
Die Pixelview ;D

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8332.JPG

Schaut mal genau hin,das Ding hat sogar ne Digital Anzeige

Lustiger Troll
2004-04-15, 21:50:38
Original geschrieben von deekey777
FC? FC ist ein TWIMTBP Spiel und kein von nVidia sponsored Spiel.

Falsch FC ist kein TWIMTBP Spiel, oder kommt nur bei mir da kein NV Logo am anfang???

Gast
2004-04-15, 21:51:08
NE FRAGE, ist das eine 1 slot oder 2 slot Lösung von Pixelview?

LovesuckZ
2004-04-15, 21:51:44
Original geschrieben von Gast
NE FRAGE, ist das eine 1 slot oder 2 slot Lösung von Pixelview?

1 Slot.

kiss
2004-04-15, 21:52:52
Original geschrieben von Gast
NE FRAGE, ist das eine 1 slot oder 2 slot Lösung von Pixelview?


Jo es ist eine 1 Slot Kühlung!!!

Gast
2004-04-15, 21:53:05
wow, du hast meine frage innerhal einer minute beantwortet :O

deekey777
2004-04-15, 21:53:16
Original geschrieben von Lustiger Troll
Falsch FC ist kein TWIMTBP Spiel, oder kommt nur bei mir da kein NV Logo am anfang???

:abgel:

Ich halte einfach die Verpackung von FC in meinem Händen - und siehe da: Ein TWIMTBP Logo!!! Und darüber ein AMD 64 Logo, rechts davon der Grüne Punkt.

Klugscheissen macht Spass!!!!
:arsch2:

Godmode
2004-04-15, 21:53:33
Am besten ist es, wenn wir auf dieses "Kind" einfach nicht mehr eingehen, sry nicht auf jüngere bezogen, eher auf unreife die nicht normal diskutieren können.

bezogen auf Thomas_B

(del676)
2004-04-15, 21:53:34
wirds ne Gainward Golden Sample geben? eventuell mit 650 mhz ramtakt?

wär super :)

Fadl
2004-04-15, 21:53:45
Interessant finde ich das einige Hersteller wie z.B. Asus auf eine 1 Slot Kühlung setzen während andere den 2 Slot Kühler zu bevorzugen scheinen.
Da wird man wohl abwarten müssen welche Lösung die leisere sein wird.
Ausserdem fällt auf das die Asus karte kein dual DVI hat.

aths
2004-04-15, 21:54:14
Original geschrieben von ow
Hältst du >220Mio. Transistoren auch für einen Kompromiss? Das ist klar ein Kompromiss. Ich habe mit Kirk z. B. über das "fehlende" ADD in Shader Unit 1 geredet. Er sagte, eine Unit die MUL, aber nicht MAD kann, verbraucht eben weniger Transistoren. Eine NV40-Pipe kann jetzt nicht mehr immer pro Takt eine Register-Combiner-Instruktion ausführen. Weil man beim Chipdesign Kompromisse eingehen muss.

tokugawa
2004-04-15, 21:54:48
Original geschrieben von Lustiger Troll
Falsch FC ist kein TWIMTBP Spiel, oder kommt nur bei mir da kein NV Logo am anfang???


http://www.nzone.com/object/nzone_twimtbp_gameslist.html

Godmode
2004-04-15, 21:55:11
Ich könnte mir vorstellen, dass die IHV die ne 2Slot Kombo nehmen, mehr Core / Mem Takt bieten werden.

(del676)
2004-04-15, 21:55:47
Original geschrieben von Gast
Warum ist der Leadtek Lüfter so extrem flach und klein,de muß doch abartig laut sein

brille putzen, da sind ZWEI platinen übereinander :)

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8329.JPG

Lustiger Troll
2004-04-15, 21:56:40
Original geschrieben von tokugawa
http://www.nzone.com/object/nzone_twimtbp_gameslist.html

Ok ihr habt recht :weg:

aths
2004-04-15, 22:01:30
Original geschrieben von deekey777
FC? FC ist ein TWIMTBP Spiel und kein von nVidia sponsored Spiel. FC ist im TWIMTBP-Programm. Das bezieht sich allerdings auf Kompatibilität: Spiele mit dem Logo garantieren praktisch, dass sie auf Nvidia-Karten fehlerfrei laufen. Es heißt nicht, dass sie auf GeForce-Karten "am besten" laufen (also mit bester Performance oder höchster Detailstufe.) Ein netter Eidos-Mitarbeiter hat mir z. B. erzählt, dass sie genauso mit ATI zusammenarbeiten. Und Thief III ist zwar ein TWIMTBP-Spiel, aber sie testen für ATI nicht weniger, als für GeForce-Karten.

Sephiroth
2004-04-15, 22:03:19
http://www.frazpc.pl/pliki/2002/auto/1082028448827290.jpg
http://www.frazpc.pl/pliki/2002/auto/1082028451743020.jpg
http://www.frazpc.pl/pliki/2002/auto/1082028454893349.jpg
http://www.frazpc.pl/pliki/2002/auto/1082028457425989.jpg

http://www.frazpc.pl/komentarz/10396

ach verdammt, wie soll man denn nur bei diesem thread halbwegs am ball bleiben? da schaut man mal ein paar mins net rein und schon hat man 2 seiten zu lesen ;(

LovesuckZ
2004-04-15, 22:04:17
Original geschrieben von aths
Ein netter Eidos-Mitarbeiter hat mir z. B. erzählt, dass sie genauso mit ATI zusammenarbeiten. Und Thief III ist zwar ein TWIMTBP-Spiel, aber sie testen für ATI nicht weniger, als für GeForce-Karten.

Sowas ähnliche sagte auch Mark Rein in diesem "Interview": http://www.golem.de/0404/30809-2.html

thop
2004-04-15, 22:04:19
Original geschrieben von Gast
http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8332.JPG
Die hässlichste Grafikkarte die ich je gesehen habe! Die sieht aus wie der Traum eines jeden Riceboy Modders.

deekey777
2004-04-15, 22:06:59
Original geschrieben von aths
FC ist im TWIMTBP-Programm. Das bezieht sich allerdings auf Kompatibilität: Spiele mit dem Logo garantieren praktisch, dass sie auf Nvidia-Karten fehlerfrei laufen. Es heißt nicht, dass sie auf GeForce-Karten "am besten" laufen (also mit bester Performance oder höchster Detailstufe.) Ein netter Eidos-Mitarbeiter hat mir z. B. erzählt, dass sie genauso mit ATI zusammenarbeiten. Und Thief III ist zwar ein TWIMTBP-Spiel, aber sie testen für ATI nicht weniger, als für GeForce-Karten.

Hm? Bisher kann man behaupten, dass 90% aller aktuellen TWIMTBP Spiele auf einer R3x0 besser laufen als auf einer FX. ;D
Im Ernst: Das ist schon klar, dass kein Spielehersteller (ausser VALVe) es sich leisten kann, die Besitzer einer Konkurrenzgrafikkarte zu benachteiligen (auch id zählt dazu).

Birdman
2004-04-15, 22:07:38
Original geschrieben von Gast
Was bringts mir , wenn ich 1600x1200 auch noch mit AA und AF spielen, kann wenn ich das gar nicht benötige (und ich meine die meißten anderen Gamer brauchen das auch noch nicht (20' und höher ist noch lange keine Standard Hardware).

Glaube auch das ATI dieses Mal wieder besser sein wird (und hier meine ich Leistung und nicht die Technik (oder wie alt sie ist) die dahinter steckt, denn ich hinterfrage nicht wie sie es machen sondern berurteile, was am Ende an Leistung für mich rauskommt, denn dafür geht die Kohle raus).

LOL?
Hier hat Herstellerspezifische Liebe wohl zu diesem Widerspuch in sich geführt...
Wenn du (und angeblich die meisten anderen Gamer) AA und AF in den hohen Auflösungen nicht brauchst, wieso willst du denn eine einer Meinung nach nochmals schnellere ATi Karte kaufen?
In deinen Settings ist ja eine TI4600 die schnellste Karte die es gibt. (siehe entsprechende Reviews hier auf 3dc wo die GF4 Karten bei CPU Limitierung fast immer "deutlich" vor allem andern liegen)

(del676)
2004-04-15, 22:08:47
Original geschrieben von einem MSI Marketing Fuzzi:
MSI™ Copper ULTRA™ Cooling Technology---
BLAZING SPEEDS WITHOUT SWEAT
Continuing the MSI tradition of incorporating only the best engineering process and design techniques, MSI NX6800 Ultra series take advantage of the most advanced and sophisticated Copper ULTRA™ Cooling technology. This advanced ventilation cooling mechanism enables higher performance through faster clock rates, while still remains in comparable low GPU temperature-- a perfect metal craft for a perfect graphics from MSI.


"This advanced ventilation cooling mechanism enables higher performance through faster clock rates"

das gfällt mir :D :D :D


quelle: http://www.msi.com.tw/html/newsrelease/product_news/2004_0415_NX6800Ultra.htm

ow
2004-04-15, 22:12:48
Original geschrieben von aths
Das ist klar ein Kompromiss. Ich habe mit Kirk z. B. über das "fehlende" ADD in Shader Unit 1 geredet. Er sagte, eine Unit die MUL, aber nicht MAD kann, verbraucht eben weniger Transistoren. Eine NV40-Pipe kann jetzt nicht mehr immer pro Takt eine Register-Combiner-Instruktion ausführen. Weil man beim Chipdesign Kompromisse eingehen muss.

Hehe, wenn du das so siehst, dann ist natürlich alles ein Kompromiss. :D

Aber hältst du etwa 400MHz bei >220Mio. Transistoren für zu wenig für das Erstlingswerk der NV4x Generation?

aths
2004-04-15, 22:15:34
Original geschrieben von deekey777
Hm? Bisher kann man behaupten, dass 90% aller aktuellen TWIMTBP Spiele auf einer R3x0 besser laufen als auf einer FX. ;D
Im Ernst: Das ist schon klar, dass kein Spielehersteller (ausser VALVe) es sich leisten kann, die Besitzer einer Konkurrenzgrafikkarte zu benachteiligen (auch id zählt dazu). Auch Valve benachteiligt einen Big Player wie Nvidia nicht. Gabe wird bezahlt, groß auf den Putz zu hauen, ja. Letztlich optimieren sie für alle relevanten Architekturen so weit, wie es eben geht.

aths
2004-04-15, 22:17:21
Original geschrieben von ow
Hehe, wenn du das so siehst, dann ist natürlich alles ein Kompromiss. :D

Aber hältst du etwa 400MHz bei >220Mio. Transistoren für zu wenig für das Erstlingswerk der NV4x Generation? Ich hatte 433 MHz erhofft. (Als noch über 500 oder 550 MHz spekuliert wurde, überlegte ich, ob angesichts der voraussichtlichen RAM-Taktung deutlich unter 800 MHz nicht ein Chiptakt von 433 MHz genug wäre. Nun sind es 400. Angesichts des 220-Millionen-Monsters kein schlechter Wert, und bestimmt nicht das letzte Wort in der NV40-Technologie.)

Ein bisschen enttäuscht war ich schon – die Ultra mit nur 400 MHz?! Aber Leos Benchmarks zeigen imo, dass das erst mal genug ist. Mir ist eigentlich egal, wie die Leistung zustande kommt. Wenn sie 8x1 bei 800 MHz hätten – meinetwegen.

deekey777
2004-04-15, 22:20:00
Original geschrieben von aths
Auch Valve benachteiligt einen Big Player wie Nvidia nicht. Gabe wird bezahlt, groß auf den Putz zu hauen, ja. Letztlich optimieren sie für alle relevanten Architekturen so weit, wie es eben geht.

Logisch, der (Image-)Schaden, den VALVe mit der Präsentation des HL2 Benchmarks und seiner Ergebnisse nVidia zugefügt hat, ist aber nicht zu verzeihen.

"Der Chiptakt liegt allerdings mit 400 MHz niedriger als beim Vorgänger (475 MHz). Auch den Takt des 256 MByte fassenden GDDR3-Speichers (Graphics Double Data Rate 3 RAM) muss Nvidia vorerst auf 550 MHz begrenzen, um die Leistungsaufnahme der Karte nicht über 100 Watt ansteigen zu lassen." (heise)

(Miniedit: Was braucht mehr Saft: der GDDR3-Speicher oder die 222 Mio. Transen?)

Godmode
2004-04-15, 22:21:34
Schnell mal ganz was anderes:

Stellt euch vor, dass sich in ner Pipe des NV40 gerade ein Quad befindet, das mit PS3.0 ausgeführt wird. Plötztlich wird festgestellt das ein Pixel des Quads nicht mehr wichtig ist und wird rausgeworfen. Die anderen müssten ja dann weiterberechnet werden, oder?

Könnte man sagen dass Branching nur dann effektiv Performance bringt, wenn das ganze Quad rausfliegt?

Godmode
2004-04-15, 22:25:37
Original geschrieben von deekey777
Logisch, der (Image-)Schaden, den VALVe mit der Präsentation des HL2 Benchmarks und seiner Ergebnisse nVidia zugefügt hat, ist aber nicht zu verzeihen.

"Der Chiptakt liegt allerdings mit 400 MHz niedriger als beim Vorgänger (475 MHz). Auch den Takt des 256 MByte fassenden GDDR3-Speichers (Graphics Double Data Rate 3 RAM) muss Nvidia vorerst auf 550 MHz begrenzen, um die Leistungsaufnahme der Karte nicht über 100 Watt ansteigen zu lassen." (heise)

(Miniedit: Was braucht mehr Saft: der GDDR3-Speicher oder die 222 Mio. Transen?)


Ja das stimmt, Imageschaden ist sicherlich das schlimmste was einem Unternehmen passieren kann.

Zu der Taktreduzierung denke ich mal, nicht so schlimm haben sie bei TNT2U auf GF1, GF2U und GF3 auch gemacht.

Was sind eigentlic aus den dubiosen 150 W geworden, davon spricht eigentlich niemand mehr?

Winter[Raven]
2004-04-15, 22:26:25
Original geschrieben von aths
Ich hatte 433 MHz erhofft. (Als noch über 500 oder 550 MHz spekuliert wurde, überlegte ich, ob angesichts der voraussichtlichen RAM-Taktung deutlich unter 800 MHz nicht ein Chiptakt von 433 MHz genug wäre. Nun sind es 400. Angesichts des 220-Millionen-Monsters kein schlechter Wert, und bestimmt nicht das letzte Wort in der NV40-Technologie.)

Bei Xbit hat man schön gemerkt wie gut der NV40 mit höheren nhz skaliert, bei 35 mhz mehr:

Nur einige von vielen Beispielen:

UT2003: 16 Frames @ 1024: 17 Frames @ 1204
Half Life 2 Alpha: 7 Frames @ 1024 : 10 Frames @ 1600
Firestarter: 16 Frames @ 1024 : 28 Frames @ 1204 : 22 @ 1600

Godmode
2004-04-15, 22:29:24
OT: das wär doch ne tolle Kühlungslösung, den ganzen PC mit diesem Trokenen Wasser befüllen :)http://futurezone.orf.at/futurezone.orf?read=detail&id=227113&tmp=82361

DrumDub
2004-04-15, 22:31:34
Original geschrieben von bans3i
Was sind eigentlic aus den dubiosen 150 W geworden, davon spricht eigentlich niemand mehr?

111w sinds geworden. erstaunlich wenig für 95 millionen tramsistoren mehr als beim nv3x.

Radeonator
2004-04-15, 22:38:15
Original geschrieben von DrumDub
wie belegst du das? bis auf die gammakorrektur isses afaik identisch.

Hatte ich zwar schonmal geposted , abo auf den Flügeln kann man bei ATi deutlich jaggies erkennen, bei nV sieht das deutlich besser aus. Zudem sieht das nV Bild irgendwie klarer aus (alle screens). Nen Arbeitskollege ist nen absoluter ATi Fan , jedoch hat er ohne das ich was gesagt habt, sofort die Unterschiede gesehen (er hat selbst ne 9800XT).

Omnicron
2004-04-15, 22:52:47
Original geschrieben von Ulukay
"This advanced ventilation cooling mechanism enables higher performance through faster clock rates"

das gfällt mir :D :D :D


quelle: http://www.msi.com.tw/html/newsrelease/product_news/2004_0415_NX6800Ultra.htm

Gibts schon ein Pic von der Karte?
Wenn MSI den Sonnenkühler wieder einsetzt und diesmal aus echtem Kupfer wäre schon fein =)

K29!ll3r
2004-04-15, 23:27:09
Weiss nicht ob's schon gepostet wurde, aber hat die 6800 U etwa auch noch ein kleineres Problem in C&C Generals Zero Hour??
Siehe: http://www.xbitlabs.com/articles/video/display/nv40_41.html
Die Bilder bitte auch betrachten, sind ziemlich unten auf der Page...:D

Odal
2004-04-15, 23:35:37
Original geschrieben von K29!ll3r
Weiss nicht ob's schon gepostet wurde, aber hat die 6800 U etwa auch noch ein kleineres Problem in C&C Generals Zero Hour??
Siehe: http://www.xbitlabs.com/articles/video/display/nv40_41.html
Die Bilder bitte auch betrachten, sind ziemlich unten auf der Page...:D

jo wenn man sich die ergebnisse anschaut scheint die auch noch nen kleines problem zu haben...sind halt noch keine final NV40 treiber

aths
2004-04-15, 23:52:23
Original geschrieben von bans3i
Schnell mal ganz was anderes:

Stellt euch vor, dass sich in ner Pipe des NV40 gerade ein Quad befindet, das mit PS3.0 ausgeführt wird. Plötztlich wird festgestellt das ein Pixel des Quads nicht mehr wichtig ist und wird rausgeworfen. Die anderen müssten ja dann weiterberechnet werden, oder?

Könnte man sagen dass Branching nur dann effektiv Performance bringt, wenn das ganze Quad rausfliegt? Abgesehen davon, dass vielleicht etwas Bandbreite gespart wird, bringt es wahrscheinlich nichts, wenn nur ein Pixel rausfliegt.

Gast
2004-04-16, 00:10:58
Original geschrieben von Gast Ich hab nen 21'er und spiele immer noch mit 1024x768 und es
reicht (noch) vollkommen aus (9700pro).....
Ich denke ich noch locker auf den R500 warten.
gruß

Und Du würdest natürlich üüüüüüüüberhaupt nicht lieber in 1600x1200 spielen, ne? *augenverdreh*

Demirug
2004-04-16, 00:19:06
Original geschrieben von aths
Abgesehen davon, dass vielleicht etwas Bandbreite gespart wird, bringt es wahrscheinlich nichts, wenn nur ein Pixel rausfliegt.

Ja, das ist eben der Nachteil von SIMD.

Gast
2004-04-16, 00:19:46
Wer nicht? Aber was für ein Sinn hat es jedes Jahr 500€ zu blechen, nur damit man mit 1600x1200 spielen kann ;) !

SKYNET
2004-04-16, 00:28:58
Original geschrieben von bans3i

Was sind eigentlic aus den dubiosen 150 W geworden, davon spricht eigentlich niemand mehr?

hirngespinster irgentwelcher ATI fanboys die meinten die NV40 schlecht zumachen.

Winter[Raven]
2004-04-16, 00:31:27
Wann ist der Offizielle Verkaufsstart von den NV40 Karten?

Auf der NV40 Party in Taipei gabs ja von allen Nvidia Herstellern schon Grafikkarten.

nggalai
2004-04-16, 00:31:46
Original geschrieben von SKYNET
hirngespinster irgentwelcher ATI fanboys die meinten die NV40 schlecht zumachen. Nope, aber denk mal über eigentlich angepeilte RAM/GPU-Takte nach. ;)

93,
-Sascha.rb

Demirug
2004-04-16, 00:32:17
Original geschrieben von SKYNET
hirngespinster irgentwelcher ATI fanboys die meinten die NV40 schlecht zumachen.

Ich vermute mal das die 150Watt das Maximum sind was der Spannungswandler auf den A1-NV40-PCBs verkraftet.

UnreaL
2004-04-16, 00:38:38
Nabend

wieviel Watt macht eine 100 MHz steigerung aus?
default ist ja jetzt nun 400/550 bei rund 110 Watt
was könnt da ein takt von 500/550 an mehr Watt dazu kommen?

byby

Odal
2004-04-16, 00:41:34
Original geschrieben von Demirug
Ich vermute mal das die 150Watt das Maximum sind was der Spannungswandler auf den A1-NV40-PCBs verkraftet.

na diese vermutung koenntest du doch bestaetigen/entkraeften ihr habt ja ne karte da..und aus der bezeichnung von dem ding bekommt man das schon raus...

was mich dann weiter ueberlegen laesst...kommt man (bzw. kann man) mit dem nv40 durch taktsteigerungen noch in die 140-150 watt region? d.h. gibts eventuell noch nen neues platinenlayout? vielleicht fuer den refresh....

SKYNET
2004-04-16, 00:44:13
Original geschrieben von nggalai
Nope, aber denk mal über eigentlich angepeilte RAM/GPU-Takte nach. ;)

93,
-Sascha.rb

wenn ich danach gehe müsste die R420(X800XT) ja 150W haben..... ;)

danach darf man nicht gehn.
weil wenn ich mir die verlustleistung eines A64 anschaue und dann durch MHz auf den prescott hochrechne höre ich lieber bei 160W auf weil sonst wird mir schlecht ;)

Demirug
2004-04-16, 00:49:38
Original geschrieben von Odal
na diese vermutung koenntest du doch bestaetigen/entkraeften ihr habt ja ne karte da..und aus der bezeichnung von dem ding bekommt man das schon raus...

was mich dann weiter ueberlegen laesst...kommt man (bzw. kann man) mit dem nv40 durch taktsteigerungen noch in die 140-150 watt region? d.h. gibts eventuell noch nen neues platinenlayout? vielleicht fuer den refresh....

wie oft den noch?

Ich hatte nie einen NV40 und alle die eine zum testen hatten mussten diesen wieder abgeben.

Odal
2004-04-16, 00:54:18
Original geschrieben von Demirug
wie oft den noch?

Ich hatte nie einen NV40 und alle die eine zum testen hatten mussten diesen wieder abgeben.

achso :D ich dachte ihr durftet die karte behalten ;)

ich haett denn nich wieder hergegeben bis der r420 draussen ist

Iceman346
2004-04-16, 01:06:42
Original geschrieben von SKYNET
wenn ich danach gehe müsste die R420(X800XT) ja 150W haben..... ;)


Wieso? Weniger Transistoren als nen NV40 bei gleichem Fertigungsprozess, also warum sollte der R420, selbst bei höherem Takt, mehr Strom verbraten?
Außerdem waren die bisherigen ATi Karten etwas weniger Stromhungrig als die Nvidia Pendants, vielleicht setzt sich das ja in Zukunft fort.

Ich werde den NV40 jedenfalls nicht über den grünen Klee loben solange ich vom R420 noch keine ordentlichen Tests gesehen habe.

thop
2004-04-16, 01:14:49
Man darf auch nicht vergessen dass ATI in low-k produziert (bzw. produzieren lässt).

Hellfire-Torrod
2004-04-16, 01:29:32
Mal ne dumme frage : was is dieses "low-k" eigendlich?

Gast
2004-04-16, 01:31:52
Das wird viele freun: PR von MSI
Noise (db) Level Environment Description
90~100 Airport
80~90 Construction Site
70~80 Crowded Street
60~70 Meeting Room
50~60 Resident Area
30~50 Library
30 MSI TWIN FLOW™(26db)
=)

http://www.msi.com.tw/program/newsrelease/news_page.php?UID=286

up

Gast
2004-04-16, 01:36:14
PixelView GeForce 6800 (http://www.prolink.com.tw/mailnews/0415.htm)
http://www.prolink.com.tw/2003/image/products/vga/FX/6800/6800%20Box.jpg

up

VooDoo7mx
2004-04-16, 02:37:55
So wie es ausschaut, ist Nvidia mit der Kühllösung ein sehr großer Wurf gelungen.
Wenn sogar Hersteller wie Gainward,Asus und Albatron den Referenzkühler verwenden, die eigentlich sonst immer auf eigene Kühllösungen setzen.
Gainward hatte sogar bei der FX5800U nen eigenes Design...

Außerdem sieht es für mich momentan fast so aus, dass ich schon morgen nen NV40 kaufen könnte...

Wurdde dieses Bild eigentlich schon geposted?

http://gfx.turtled.com/n/36000/36151_3b.jpg

betasilie
2004-04-16, 03:05:15
Original geschrieben von thop
Die hässlichste Grafikkarte die ich je gesehen habe! Die sieht aus wie der Traum eines jeden Riceboy Modders.
Mein Reden! Kitschiger geht´s nicht mehr. ;)

Meister Röhrich
2004-04-16, 03:22:52
Wer's ganz eilig hat, unbedingt eBay tracken, da kommts zuerst als im Retail !

Im übrigen sind damals massenhaft Presse-Karten von der 59xx bei eBay gelandet ...

Gast
2004-04-16, 03:23:38
Original geschrieben von Demirug
Ich vermute mal das die 150Watt das Maximum sind was der Spannungswandler auf den A1-NV40-PCBs verkraftet.

Dann laß ich mal besser n Voltagemod bleiben. :D

Gast
2004-04-16, 03:26:57
Original geschrieben von Gast
Wer nicht? Aber was für ein Sinn hat es jedes Jahr 500€ zu blechen, nur damit man mit 1600x1200 spielen kann ;) !

Na, alle 20 Monate würde ich mal eher sagen denn die Refreshes bringen ja immer recht unerhebliche Performancesteigerungen.

Ich bekomm für meine alte Karte 150 €, ergo sind's 350 € für 20 Monate gewesen und 17,50 € im Monat ist nich sooooo viel, finde ich. ;)

betasilie
2004-04-16, 03:43:14
Original geschrieben von Gast
Na, alle 20 Monate würde ich mal eher sagen denn die Refreshes bringen ja immer recht unerhebliche Performancesteigerungen.

Ich bekomm für meine alte Karte 150 €, ergo sind's 350 € für 20 Monate gewesen und 17,50 € im Monat ist nich sooooo viel, finde ich. ;)
Für welche 20 Monate alte karte bekommst Du 150€?

Coda
2004-04-16, 03:54:00
9700 Pro ?

zeckensack
2004-04-16, 04:18:04
Original geschrieben von VooDoo7mx
Wurdde dieses Bild eigentlich schon geposted?

http://gfx.turtled.com/n/36000/36151_3b.jpg Och, nein, erst drei oder vier Mal :D
Nur leider jeweils ohne Kommentar. Was ist daran so interessant, wenn man fragen darf? ?(

SKYNET
2004-04-16, 04:52:54
Original geschrieben von zeckensack
Och, nein, erst drei oder vier Mal :D
Nur leider jeweils ohne Kommentar. Was ist daran so interessant, wenn man fragen darf? ?(

far cry PS3.0 ?

Bassu
2004-04-16, 05:30:34
Original geschrieben von SKYNET
far cry PS3.0 ?

Immer diese unwissenden;D
http://personal.inet.fi/atk/kjh2348fs/farcry3.0shaders.jpg

Gast
2004-04-16, 07:24:22
Original geschrieben von LovesuckZ
1 Slot.

Es gibt keine 1 Slot Lösung, schon gar nicht von Pixelview!

GillianSeed
2004-04-16, 07:29:04
Auf Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/april/geforce_6800_ultra_bildergalerie/) gibts ne Ansammlung der 6800 Ultra Grafikkarten mit Pics.
Neben der PixelView find ich die Sparkel am :kotz:
Ist es ein Feuerball? Ist es ein Vulcan? Nein es ist eine Geforce ;D

Radeonator
2004-04-16, 08:05:19
Original geschrieben von GillianSeed
Auf Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/april/geforce_6800_ultra_bildergalerie/) gibts ne Ansammlung der 6800 Ultra Grafikkarten mit Pics.
Neben der PixelView find ich die Sparkel am :kotz:
Ist es ein Feuerball? Ist es ein Vulcan? Nein es ist eine Geforce ;D

Ist es ein Feuerball?Ist es ein Vulcan? Nein, ES IST SH1c3EGAL WIE DIE KARTE ausschaut... ;D

Lustiger Troll
2004-04-16, 08:05:28
Original geschrieben von Gast
Es gibt keine 1 Slot Lösung, schon gar nicht von Pixelview!

Brille putzen, oder sieht das nach ner 2slotkühlung aus?
http://www.computerbase.de/picture/news/7466/13.jpg

MuLuNGuS
2004-04-16, 08:15:06
hmm,

der lüfter scheint dem referenzteil aber auch nur nachempfunden worden zu sein..
die karten werden erstmal sowieso noch zu teuer sein(selbst wenn man es sich leisten kann)
mal sehen wie es kurz nach dem 26. aussieht.

weiter oben meinte jemand das er für seine 9700pro noch 150€ bekommt, dies scheint mir ein wenig zu optimistisch :D

Mark3Dfx
2004-04-16, 08:18:33
Ich freu mich allein schon deshalb auf den nV40 und R420
weil mit deren Release die 5950U oder 9800XT im Preis drastisch sinken werden.

Was schätzt Ihr ~250€?