PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv30 nicht der überchip?


ice cool69
2002-11-17, 12:54:05
also wer von euch glaubt denn angesichts der 99%igen sicherheit eines 128bit speicherinterfaces noch wirklich an ein "in den boden rammen" der radeons?

ganz ehrlich ich glaube nicht dass nvidia sich bei aktuellen spielen die performancekrone zurückholen kann. auch nicht bei spielen wie doom3.

und alles was danach kommt dürfte eher für nv35 und r350 interessant sein.

in meinen augen geht diese runde zum ersten mal klar an ati. was meint ihr? anderer meinung?

Exxtreme
2002-11-17, 12:56:04
Sehe ich auch so. Vor allem wenn ATi die Treiber weiterhin so optimiert wie bisher. Die neuen haben bei der R9700 wieder in einigen Spielen deutlich zugelegt.

Liquaron
2002-11-17, 13:00:23
Ich kann mir kaum vorstellen das so ein Megakonzern wie Nvidia jetzt eine gleiche oder sogar langsamere Karte als die Radeon 9700 pro rausbringt. Sie werden schon wissen was sie tuen. Ich denke sie wird mindestens genau so schnell sein + ein paar mehr features als die Radeon haben. Damit will sie den Käufer beeindrucken.Ob es klappt und wie es da noch mit dem Preis aussieht wird sich zeigen. Ich denke im moment kann man dies noch nicht sagen solange keine offiziellen Benchmarks draußen sind. Vielleicht wissen wir ab Morgen schon deutlich mehr. Warten wir es ab !

Exxtreme
2002-11-17, 13:05:53
Warum denn nicht? Der Riva128 *würg* war auch nicht der Überchip. Er war schlechter als eine Voodoo1, NV hat ihn trotzdem veröffentlicht. Was wäre denn die Alternative? Den Chip nicht bringen und die ganzen Entwicklungskosten in den Sand setzen?
Originally posted by Liquaron
Ich kann mir kaum vorstellen das so ein Megakonzern wie Nvidia jetzt eine gleiche oder sogar langsamere Karte als die Radeon 9700 pro rausbringt.

seahawk
2002-11-17, 13:06:02
Ich denke die ATI beleibt die beste Grafikarte der aktuellen Generation. Die NV30 wird wohl ein Flop.

Unregistered
2002-11-17, 13:11:21
Ich glaube nur an den OSTERHASSEN Weil den Blöden Weihnachtsmann müsste ich eben umhauen. :)

Liquaron
2002-11-17, 13:12:18
wenn Nvidia diesen NV30 Chip wirklich in den Sand setzt hole ich mir wohl eine Radeon 9700 pro. Das mache ich aber letztendlich vom Preis abhängig. Dann kann ich nur sagen peinlich Nvidia. Jetzt sind sie schon so ein großer Konzern und würden dann wirklich den Technologiesprung verpennen. Aber das ist ja alles noch nicht bestätigt. Mir soll es egal sein Hauptsache die Preise purzeln. Von welcher Firma letztendlich meine Graka ist , ist mir ziemlich egal.

starfish
2002-11-17, 13:12:19
der nv30 kann ja ruhig langsamer sein als die 9700er aber er muss halt dann billiger sein.

Quasar
2002-11-17, 13:13:33
Originally posted by Exxtreme
Warum denn nicht? Der Riva128 *würg* war auch nicht der Überchip. Er war schlechter als eine Voodoo1, NV hat ihn trotzdem veröffentlicht. Was wäre denn die Alternative? Den Chip nicht bringen und die ganzen Entwicklungskosten in den Sand setzen?
Darf ich mal lachen?
Der nV3 war der erste Kombichip, der leistungsmässig in die Nähe einer Voodoo kam. Wie gut 3dfx mit angepapptem 2D-Teil noch war, konnte man ja beim "überflieger" Voodoo-Rush sehen.

So scheisse er aus heutiger Sicht natürlich ist, war der nV3 der beste Chip, den man zu der Zeit kriegen konnte.

edit:
Zum Topic:
In der Rohleistung kann ich mir gut vorstellen, dass es da in vielen Spielen mehr oder weniger ein Patt geben wird (wie's ja jetzt auch schon ist). Bleiben Quality-Features, wo es sehr schwer wird, bei niedrigerer Speicherbandbreite am FSAA der R300 vorbeizuziehen (zumindest mit herkömmlichen Mitteln).
Was AF angeht: Wenn nV bei ihrer AF-Implementierung bleibt, müssten die TMUs schon deutlich mächtiger werden, als ATis, um da mithalten zu können.
Bei Shadergeschichten kann ich mir hingegen gut vorstellen, dass nV ATi im Staub stehen lässt....

ice cool69
2002-11-17, 13:15:32
features die die nächsten 2 jahre nicht genutzt werden bzw. wenn sie genutzt werden ist die nv30 veraltet und zu lahm...

was die karte können muss momentan ist bei dx8 abgehn wie sau. vielleicht kommt noch das eine oder andere game dazu welches sich an die neuen pixel und vertex shader 2.0 herantastet, aber das gelobte cineFX ist doch in der praxis wenn wir ehrlich sind vollkommen fürn hugo.

in meinen augen sind die r9700er deutlich atraktivere karten, besonders weil sie wohl deutlich billiger sein werden und trotz des früheren releasetermins mit dem nv30 wohl teilweise mehr als mithalten können werden.

Börk
2002-11-17, 13:17:25
Die frage ist eigentlich wo ist der NV30 schneller/langsamer.
Ich denke ohne AA und AF kann der NV30 dank höherem Chiptakt und 2 TMUs die Radeon9700 klar schlagen. Bei AA ist der NV30 vielleicht dank guter AA technik schneller als die Radeon bei AF wird dann allerdings die Radeon führend bleiben.
Insgesamt aber wird der NV30 grad wegen der höheren performance ohne AA/AF sich besser verkaufen, eben weil kein dau sich für AA/AF interessiert.

Unregistered
2002-11-17, 13:21:49
Originally posted by Quasar

Darf ich mal lachen?
Der nV3 war der erste Kombichip, der leistungsmässig in die Nähe einer Voodoo kam. Wie gut 3dfx mit angepapptem 2D-Teil noch war, konnte man ja beim "überflieger" Voodoo-Rush sehen.

So scheisse er aus heutiger Sicht natürlich ist, war der nV3 der beste Chip, den man zu der Zeit kriegen konnte.



Full Ack.

Exxtreme
2002-11-17, 13:26:41
Wie bitte? Der Riva128ZX kann nicht mal richtig bilinear filtern! Und viele Alphablending-Modi beherrscht er auch nicht. Alles in allem blieb der Riva128 was Bildqualität betrifft weit hinter einer Voodoo1 zurück, egal welche API. Schon mal Heretic2, Hexen2, Incoming verglichen? Ich schon.

Der Voodoo Rush war tatsächlich ein Reinfall.

P.S. Die Paar müde Frames, die der Riva128 schneller war, waren angesichts der deutlich schlechteren BQ, ziemlich egal... mir zumindest.
Originally posted by Quasar

Darf ich mal lachen?
Der nV3 war der erste Kombichip, der leistungsmässig in die Nähe einer Voodoo kam. Wie gut 3dfx mit angepapptem 2D-Teil noch war, konnte man ja beim "überflieger" Voodoo-Rush sehen.

So scheisse er aus heutiger Sicht natürlich ist, war der nV3 der beste Chip, den man zu der Zeit kriegen konnte.

starfish
2002-11-17, 13:28:54
Originally posted by burk23
Bei AA ist der NV30 vielleicht dank guter AA technik schneller als die Radeon bei AF wird dann allerdings die Radeon führend bleiben.


wieso sollte der nv30 bei aa schneller sein. hierbei tippe ich auf die radeon, da sie ein 256bit speicherinterface hat und in sache aa und af der nv30 sich nicht stark zum geforce4 unterscheiden soll.

nggalai
2002-11-17, 13:30:55
Hi there,

Originally posted by ice cool69
features die die nächsten 2 jahre nicht genutzt werden bzw. wenn sie genutzt werden ist die nv30 veraltet und zu lahm...

was die karte können muss momentan ist bei dx8 abgehn wie sau. vielleicht kommt noch das eine oder andere game dazu welches sich an die neuen pixel und vertex shader 2.0 herantastet, aber das gelobte cineFX ist doch in der praxis wenn wir ehrlich sind vollkommen fürn hugo.
es kommt immer auf den Zielmarkt an. NV hat's offensichtlich zu einem grossen Teil auf die DCC-Branche abgesehen, mit der CineFX-Architektur. Von daher gesehen kann man das Statement oben höchstens für Spieler so stehen lassen, und da sag ich dann auch mal "full-Gamer-ACK" dazu. ;)

Ansonsten, zur Performance: das wird sich bei der Markteinführung zeigen müssen. Bis dahin werden noch ein paar Monate ins Land gehen. Nächste Woche einen nicht-erhältlichen Chip mit verfügbarer Hardware zu vergleichen bringt nix. Ich persönlich tippe jedoch darauf, dass sich die R300 und NV30 wenig geben werden. Mal wird der Chipset vorn liegen, mal der andere. Es verdichten sich jedoch die Anzeichen dafür, dass der NV30 deutlich flotter sein wird, als manche glauben. Aber eben: abwarten ist angesagt.

ta,
-Sascha.rb

Demirug
2002-11-17, 13:33:46
Eigentlich habe ich diesen Thread schon länger erwartet aber das er kommen würde war ja so sicher wie das Armen in der Kirche.

Was nun den Übergang von DX8 zu DX9 übergeht wird dieser schneller sein als der von DX7 zu DX8. Der Grund dafür ist einfach. Beim Übergang von DX7 zu DX8 änderte sich sehr viel. Engines die nutzen aus dieser neuen Technik ziehen wollten mussten deshalb auch stark verändert werden. Der Übergang von DX8 zu DX9 ist viel einfacher da die Shader nur in den Möglichkeiten stark erweitert wurde das handling ist das gleiche.

In wie fern die Entwickler die besseren Möglichkeiten der NV30 Shader im vergleich zum R300 nutzen werden muss sich zeigen. Mit zunehmeder Nutzung der HighLevel sprachen wird dies aber IMO passieren da der Compieler dann die optimierungen vornehmen kann.

um nun wieder etwas zu Thema zurückzukommen:

Was wissen wir über den Speed des NV30? Fast nichts und die wenigen offizielen Daten sage nicht viel aus.
Was wissen wir über das AA des NV30? Nichts
Was wissen wir über das AF des NV30? Nichts

Also mehr als raten ist im Moment sowieso nicht drin

ow
2002-11-17, 13:39:49
Originally posted by Exxtreme
Wie bitte? Der Riva128ZX kann nicht mal richtig bilinear filtern! Und viele Alphablending-Modi beherrscht er auch nicht. Alles in allem blieb der Riva128 was Bildqualität betrifft weit hinter einer Voodoo1 zurück, egal welche API. Schon mal Heretic2, Hexen2, Incoming verglichen? Ich schon.

Der Voodoo Rush war tatsächlich ein Reinfall.

P.S. Die Paar müde Frames, die der Riva128 schneller war, waren angesichts der deutlich schlechteren BQ, ziemlich egal... mir zumindest.



Wo hast du denn das her?
Der Riva128 filtert einwandfrei bilinear inkl. mipmapping.
Die Blending Modi sind ausreichend, um damals alles korrekt darzustellen. Die BQ erreicht annähernd V1 Niveau, der Riva128 kann grosse Texturem verarbeiten wie sie noch nichtmal ein V3 schafft!

Exxtreme
2002-11-17, 13:53:08
Woher ich das habe? Ich habe einen Rechner in dem eine Riva128ZX werkelt. ;)
Jetzt läuft nur noch Linux drauf.

2 Beispiele möchte ich nennen. Heretic2, wenn man z.B. ins Wasser sprang. Bei der Voodoo breiteten sich die Wellen kreisförmig aus, bei der Riva128 quadratisch.
3DMark99, der Wasserfall. Bei der Voodoo sah er "normal" aus, bei der Riva128 hat man schwarze Polygone runterfliessen sehen.
Originally posted by ow


Wo hast du denn das her?
Der Riva128 filtert einwandfrei bilinear inkl. mipmapping.
Die Blending Modi sind ausreichend, um damals alles korrekt darzustellen. Die BQ erreicht annähernd V1 Niveau, der Riva128 kann grosse Texturem verarbeiten wie sie noch nichtmal ein V3 schafft!

ow
2002-11-17, 13:56:48
Originally posted by Exxtreme
Woher ich das habe? Ich habe einen Rechner in dem eine Riva128ZX werkelt. ;)
Jetzt läuft nur noch Linux drauf.

2 Beispiele möchte ich nennen. Heretic2, wenn man z.B. ins Wasser sprang. Bei der Voodoo breiteten sich die Wellen kreisförmig aus, bei der Riva128 quadratisch.
3DMark99, der Wasserfall. Bei der Voodoo sah er "normal" aus, bei der Riva128 hat man schwarze Polygone runterfliessen sehen.



Zu Heretic2 kann ich nichts sagen, aber im 3DM99 war das nur ein leichtes Treiberproblem, die notwendigen Funktionen beherrscht der Riva128 jedenfalls.

ice cool69
2002-11-17, 13:57:40
@ demirug

also

1. schreibt man AMEN ohne R. soweit ich weiß.
2. mal ganz ehrlich die vorteile des nv30 wirst du auch 2003 nicht sehen. es ist noch nichtmal die doom3-zeit angebrochen da beschwörst du schon die dx9 auf den zeitplan?

kann ja sein dass der übergang leichter ist, aber es gibt noch nicht einmal angekündigte spiele welche über dx9 features verfügen werden. klar, von dx9s pixel und vertex shader macht vielleicht das eine oder andere game vereinzelt gebrauch, der rest von dx9 wird sich aber im leben nicht vor 2004 etablieren, da gehe ich jede wette ein.

und die pixel und vertex shader 2.0 beherrscht der r300 genauso gut wie der nv30.

in nächster zeit ist nunmal rohpower und dx8 das wichtigste (wie gesagt vielleicht vereinzelt ps und vs 2.0) und hier ist bei der renderpower sicherlich der nv30 vorne, wenn das ganze aber auch mit AA und AF in hohen auflösungen stattfinden soll wird der r300 vorne liegen.
da letzteres bei games der nächsten anderthalb jahre wichtiger sein wird sehe ich eindeutig die r300 vor dem nv30, besonders was das preis/leistungsverhältnis angeht.

Quasar
2002-11-17, 13:57:58
Originally posted by Exxtreme
Wie bitte? Der Riva128ZX kann nicht mal richtig bilinear filtern! Und viele Alphablending-Modi beherrscht er auch nicht. Alles in allem blieb der Riva128 was Bildqualität betrifft weit hinter einer Voodoo1 zurück, egal welche API. Schon mal Heretic2, Hexen2, Incoming verglichen? Ich schon.
Der Voodoo Rush war tatsächlich ein Reinfall.
P.S. Die Paar müde Frames, die der Riva128 schneller war, waren angesichts der deutlich schlechteren BQ, ziemlich egal... mir zumindest.
Was gab's denn für Alternativen im Kombi-Chip Bereich? *wart_wart_wart* Richtig - keine!

Die Alternative, die ich auch vorgezogen hätte, wäre, wie ein Kumpel es damals hatte: Voodoo Graphics für 400DM und Matrox Millenium für etwa denselben Preis.
Ich haben demgegenüber direkt nach Verfügbarkeit 350DM für meine STB Velocity128 bezahlt.

ice cool69
2002-11-17, 14:06:31
quatsch die v1 hat doch keine 400DM gekostet oder?

Quasar
2002-11-17, 14:09:03
Nee, stimmt. Anfangs hat se sogar 600DM gekostet. Dann, kurz vor Erscheinen der Voodoo2 ist sie auf 250-300DM gefallen.

Aber lasst uns mal lieber zum Topic zurückkehren, sonst fängt Exxtreme gleich noch mitm nV1 an und ich muss die ATi Mach64 rauskramen ;)

StefanV
2002-11-17, 14:16:12
Originally posted by ow



Zu Heretic2 kann ich nichts sagen, aber im 3DM99 war das nur ein leichtes Treiberproblem, die notwendigen Funktionen beherrscht der Riva128 jedenfalls.

Was auch 'nett' war, waren die 'netten' abstürze bei Wing Commander Prophecy bei den Diamond 1.15er Treibern...

So eine miese Karte wie die Riva 128 hab ich sonst nie wieder erlebt...

Exxtreme
2002-11-17, 14:18:01
Originally posted by Quasar
Aber lasst uns mal lieber zum Topic zurückkehren, sonst fängt Exxtreme gleich noch mitm nV1 an und ich muss die ATi Mach64 rauskramen ;)
OK, lassen wir es. :bier:
Wobei ich eine Mach64 mit stolzen 2 MB auch noch habe. ;)
Das was sie konnte, das konnte sie gut. :lol:

StefanV
2002-11-17, 14:18:34
Originally posted by Quasar

Was gab's denn für Alternativen im Kombi-Chip Bereich? *wart_wart_wart* Richtig - keine!

Die Alternative, die ich auch vorgezogen hätte, wäre, wie ein Kumpel es damals hatte: Voodoo Graphics für 400DM und Matrox Millenium für etwa denselben Preis.
Ich haben demgegenüber direkt nach Verfügbarkeit 350DM für meine STB Velocity128 bezahlt.

Rendition Verieté ??

StefanV
2002-11-17, 14:19:45
Originally posted by ice cool69
quatsch die v1 hat doch keine 400DM gekostet oder?

Anfangs 600DM.

Ich hab meine aber lange nach Erscheinen der V2 für stolze 100DM gekauft =)

ice cool69
2002-11-17, 14:33:32
ein freund von mir hatte sich damals ne miro highscore mit ganzen 6 MB ram gekauft (alle anderen v1 hatten nur 4). da war noch ein gutes stück bevor die ersten v2 rauskamen und das teil hatte damals nur 150 DM gekostet...

aber da ich sonst nicht mehr viel weiß aus dieser zeit glaub ich euch das mal mit den 600 bzw. 400 DM.

aber ma zurück zum thema, noch hat nicht jeder seine meinung zu diesem threat abgegeben. besonders was die kompetenteren leute dazu meinen würd ich gern wissen.

aber auch was hier so der eine oder andere nvidiot hinschreibt dürfte lustig werden :D

Quasar
2002-11-17, 14:34:09
Originally posted by Stefan Payne
Rendition Verieté ??

AFAIR kaum eine Alternative.....nur unter RRedline wirklich gut.

StefanV
2002-11-17, 14:40:13
Originally posted by Quasar


AFAIR kaum eine Alternative.....nur unter RRedline wirklich gut.

AFAIR war die V2200 in etwa so schnell wie die Riva 128.

Razor
2002-11-17, 15:00:22
Ich sach' nur eines: Morgen wissen wir (hoffentlich) mehr !

Ich stmme da Demirug voll und ganz zu, denn momentan kann hier nur geraten werden und das, verquickt mit diversen Wunsch- und Tagträumen. Sorry, Leut's...
:D

Bis denne

Razor

Quasar
2002-11-17, 15:14:39
Originally posted by Stefan Payne


AFAIR war die V2200 in etwa so schnell wie die Riva 128.

In etwa....maybe. Kam aber leider ein wenig deutlich später und war schwer zu kriegen. Dazu der Spass mit den angepassten MiniGLs, die nur für ein paar Games verfügbar waren.

Schade eigentlich, denn die Veritès waren die ersten programmierbaren Chips im Massenmarkt...

http://www6.tomshardware.com/graphic/98q1/980121/index.html
^^ guckst du da.

Demirug
2002-11-17, 15:15:50
Originally posted by ice cool69
@ demirug

also

1. schreibt man AMEN ohne R. soweit ich weiß.


Ja da hast du recht

2. mal ganz ehrlich die vorteile des nv30 wirst du auch 2003 nicht sehen. es ist noch nichtmal die doom3-zeit angebrochen da beschwörst du schon die dx9 auf den zeitplan?


ja das tuhe ich weil der schritt für die Entwickler von DX8 zu DX9 wie gesagt recht klein ist. Wer also jetzt gerade ein Spiel für DX8 in der Entwicklung hat wird das ohne grosse Probleme auf DX9 hochziehen können

kann ja sein dass der übergang leichter ist, aber es gibt noch nicht einmal angekündigte spiele welche über dx9 features verfügen werden. klar, von dx9s pixel und vertex shader macht vielleicht das eine oder andere game vereinzelt gebrauch, der rest von dx9 wird sich aber im leben nicht vor 2004 etablieren, da gehe ich jede wette ein.

Was für einen Rest? Ausser den neuen Pixel und Vertextshader ist da nicht viel übrig.

und die pixel und vertex shader 2.0 beherrscht der r300 genauso gut wie der nv30.

Ja nur der NV30 kann 2.0+. Damit lassen sich durchaus einige Sachen beschleunigen bzw überhaupt erst in einem Pass durchführen. Wobei davon wird wie ich vermute nur bei den grösseren Titeln gebrauch gemacht wird bzw. wenn das ganze durch einen Compieler automatisch optimiert wird.

in nächster zeit ist nunmal rohpower und dx8 das wichtigste (wie gesagt vielleicht vereinzelt ps und vs 2.0) und hier ist bei der renderpower sicherlich der nv30 vorne, wenn das ganze aber auch mit AA und AF in hohen auflösungen stattfinden soll wird der r300 vorne liegen.
da letzteres bei games der nächsten anderthalb jahre wichtiger sein wird sehe ich eindeutig die r300 vor dem nv30, besonders was das preis/leistungsverhältnis angeht.

Bei der Rohpower deutet alles auf eien vorteil des NV30 hin. Über AA und AF sage ich aus bekannten gründen nichts. Und was den Preis angeht kann man auch nur abwarten.

Xmas
2002-11-17, 15:27:53
Originally posted by burk23
Die frage ist eigentlich wo ist der NV30 schneller/langsamer.
Ich denke ohne AA und AF kann der NV30 dank höherem Chiptakt und 2 TMUs die Radeon9700 klar schlagen. Bei AA ist der NV30 vielleicht dank guter AA technik schneller als die Radeon bei AF wird dann allerdings die Radeon führend bleiben.
Insgesamt aber wird der NV30 grad wegen der höheren performance ohne AA/AF sich besser verkaufen, eben weil kein dau sich für AA/AF interessiert.
Ehrlich gesagt nehme ich eher das Gegenteil an. AA braucht fast nur zusätzliche Bandbreite, und wenn NVidia wieder Multisampling verwendet, wird es schwer hier irgendwie am R300 mit sehr guter Kompression, Samplemaske und Gammakorrektur vorbeizukommen. Ein anderer Algorithmus könnte hier natürlich Vorteile bringen.
AF dagegen braucht zwar auch viel Bandbreite, aber eher noch mehr Füllrate (Textursamplerate, um genau zu sein), und die sollte der NV30 zu genüge haben (~2,5x NV25). Ich war erstaunt als ich hier (http://www.digit-life.com/articles2/radeon/r9500-9700.html) gesehen habe wie stark die R9700 mit 16x Tri AF einbricht. Ich denke da sollte der NV30 vorbeiziehen.

Unregistered
2002-11-17, 15:31:24
Der NV30 wird für mich aus den Gründen interessant sein, aus denen der R300 sich als uninteressant erwiesen hat:

- Er unterstützt Win9x. R300 unterstützt offiziell nur WinME, 2K und XP; den inoffziellen Win98SE-Support kann man nicht ernstnehmen, das zeigen Posts in diversen Foren und auch meine eigenen Erfahrungen.
- Er legt mein Netztteil nicht lahm.
- Er hat ordentliche Treiber.

R300 hat in diesen Diszplinen mit Pauken und Trompeten versagt. NV30 wird sich noch beweisen müssen, sonst bleibt nur das Warten auf einen anderen Chip, oder ein neues OS und Netzteil müssen her. Netzteil ginge ja noch, aber OS...
Ab März 2003 wissen wir mehr.

Dunkeltier
2002-11-17, 15:48:58
Originally posted by Unregistered
Der NV30 wird für mich aus den Gründen interessant sein, aus denen der R300 sich als uninteressant erwiesen hat:

- Er unterstützt Win9x. R300 unterstützt offiziell nur WinME, 2K und XP; den inoffziellen Win98SE-Support kann man nicht ernstnehmen, das zeigen Posts in diversen Foren und auch meine eigenen Erfahrungen.
- Er legt mein Netztteil nicht lahm.
- Er hat ordentliche Treiber.

R300 hat in diesen Diszplinen mit Pauken und Trompeten versagt. NV30 wird sich noch beweisen müssen, sonst bleibt nur das Warten auf einen anderen Chip, oder ein neues OS und Netzteil müssen her. Netzteil ginge ja noch, aber OS...
Ab März 2003 wissen wir mehr.

- Die R300 läuft auch unter Windows 98 perfekt.
- Tut der NV30 sehr wohl. Schaue dir das NVidia Video an. Das Ding hat auch solch einen enorm hohen Strombedarf.
- NVidia's Treiber sind genauso gut/schlecht wie Ati's. Ich spreche aus Erfahrungen, ich habe schon Karten beider Firmen aus mehreren Generationen besessen.

3dfx Voodoo5 5500
2002-11-17, 15:52:40
Originally posted by Liquaron
Ich kann mir kaum vorstellen das so ein Megakonzern wie Nvidia jetzt eine gleiche oder sogar langsamere Karte als die Radeon 9700 pro rausbringt. Sie werden schon wissen was sie tuen.

das dachte ich mir bei 3Dfx ende 2000 auch nicht, das so ein megakonzern eine gleich oder langsamere karte als der kongurrent bringt.
sie werdens schon wissen...hat man ja gesehen...hoffentlich passiert nvidia auch mal so was, damit die die preise endlich mal ein stück nach unten fallen lassen.

zum topic.
die zwei werden sich nicht viel nehmen, denke mal die nv30 wird indirekt den nv25 ti4600 ablösen und ati und nvidia werden sich in den games die performancekrone teilen.
bei dem einem eben nv marginal schneller bei dem anderen eher die ati, wobei ich behaupte, dass nv bei der ogl api oben auf bleibt.

Pussycat
2002-11-17, 16:03:02
Originally posted by burk23
Insgesamt aber wird der NV30 grad wegen der höheren performance ohne AA/AF sich besser verkaufen, eben weil kein dau sich für AA/AF interessiert.

Ich nehme aber an, dass mit der NV30 sogar PCGames _mit_ AA benchen wird. Warum? Ganz einfach, weil es sonst nämlich kein Unterschied gibt. Und "NV30 VS R300 - wer schneller ist, wissen wir nicht" lässt sich wohl sehr schlecht verkaufen.

Börk
2002-11-17, 16:17:21
Originally posted by Xmas

Ehrlich gesagt nehme ich eher das Gegenteil an. AA braucht fast nur zusätzliche Bandbreite, und wenn NVidia wieder Multisampling verwendet, wird es schwer hier irgendwie am R300 mit sehr guter Kompression, Samplemaske und Gammakorrektur vorbeizukommen. Ein anderer Algorithmus könnte hier natürlich Vorteile bringen.
AF dagegen braucht zwar auch viel Bandbreite, aber eher noch mehr Füllrate (Textursamplerate, um genau zu sein), und die sollte der NV30 zu genüge haben (~2,5x NV25). Ich war erstaunt als ich hier (http://www.digit-life.com/articles2/radeon/r9500-9700.html) gesehen habe wie stark die R9700 mit 16x Tri AF einbricht. Ich denke da sollte der NV30 vorbeiziehen.
Stimmt bei AA haste recht.(allerdings glaub ich dass der NV30 FAA benutzt)
Der NV30 is bei AF aber nur gut wenn er Tri TMUs hat, aber soweit ich weiss hat der die net, also hat er die gleichen AF probs wie die GF4Ti.
Aber natürlich sind die BiTMUs nur ein Gerücht, wie eigentlich alles was wir über den NV30 wissen.

Xmas
2002-11-17, 16:32:03
Originally posted by burk23
Stimmt bei AA haste recht.(allerdings glaub ich dass der NV30 FAA benutzt)
Der NV30 is bei AF aber nur gut wenn er Tri TMUs hat, aber soweit ich weiss hat der die net, also hat er die gleichen AF probs wie die GF4Ti.
Aber natürlich sind die BiTMUs nur ein Gerücht, wie eigentlich alles was wir über den NV30 wissen.
Nun, wie gesagt:
NV25: 4x2 @ 300MHz
NV30 vermutlich: 8x2 @ 400+MHz
Und mit der mehr als doppelten Füllrate sollte der NV30 schon deutlich besser mit AF sein.

Snake
2002-11-17, 16:35:36
Also ich meine aus den wenigen Kommentaren von den NV Leuten heraus- gehört zu haben das der NV30 neue Maßstäbe in Sachen Bildqualität setzen soll ( oder nicht?! Schönere Pixel) . Und wenn jetzt der NV30 die Bildqualität der Matrox z.B. übertrifft und dabei nur leicht unter den r300 bleibt ,ist die Sache doch überhaupt nicht tragisch. Also wenn die Qualität des NV30 wirklich so viel besser wird als die des R300 und er nur etwas langsamer ist als letzteres ist doch alles in Butter oder nicht?!

seahawk
2002-11-17, 16:40:54
Wir werden ma lsehen was wird, allerdings könnte ich mit nach Jahren wirklich mal wieder ne ATI-Akrte holen. Nach der komischen Rage §D die ich mal hatte war ich ja erstmal vollkommen bedient.

Bei Leistungsgleichstand werde ich mir wohl wieder NVidia holen, hatte nie Probleme mit den Karten. -> Die Frage ist nur ob der NV30 in der LEistung gleichziehen kann.

Iceman346
2002-11-17, 16:49:39
Originally posted by Snake
Also ich meine aus den wenigen Kommentaren von den NV Leuten heraus- gehört zu haben das der NV30 neue Maßstäbe in Sachen Bildqualität setzen soll ( oder nicht?! Schönere Pixel) . Und wenn jetzt der NV30 die Bildqualität der Matrox z.B. übertrifft und dabei nur leicht unter den r300 bleibt ,ist die Sache doch überhaupt nicht tragisch. Also wenn die Qualität des NV30 wirklich so viel besser wird als die des R300 und er nur etwas langsamer ist als letzteres ist doch alles in Butter oder nicht?!

Um die Qualität zu übertreffen braucht er aber auch mindestens 6x AA das auch Gammakorrekt ist. Solange der NV30 da nicht mehr bietet (bzw mindestens das Gleiche) ist mit schöneren Pixeln nix. Und ne höhere Stufe AF (wie beim Iquirer angedeutet) ist imo nicht wirklich sinnvoll. 16x reicht mehr als aus.

Quasar
2002-11-17, 16:59:47
Originally posted by Xmas

Nun, wie gesagt:
NV25: 4x2 @ 300MHz
NV30 vermutlich: 8x2 @ 400+MHz
Und mit der mehr als doppelten Füllrate sollte der NV30 schon deutlich besser mit AF sein.

Eigentlich kannst du bei der GF4 4*1*300 rechnen.....ich denke, dass dieses beim nV30 nicht mehr zutreffen wird.

aths
2002-11-17, 17:17:22
Originally posted by Quasar
Eigentlich kannst du bei der GF4 4*1*300 rechnen.....ich denke, dass dieses beim nV30 nicht mehr zutreffen wird. Falls du auf den "AF-Bug" anspielst, ich vermute mal, der ist beim NV30 auch vorhanden.

Razor
2002-11-17, 17:20:36
Originally posted by aths
Falls du auf den "AF-Bug" anspielst, ich vermute mal, der ist beim NV30 auch vorhanden.
Warum das ?
???

Razor

StefanV
2002-11-17, 17:35:36
Originally posted by Razor

Warum das ?
???

Razor

Weil der S3TC Bug auch in der GF3 ist??

Korak
2002-11-17, 17:37:02
Das ist nicht wirklich ein Grund.

Exxtreme
2002-11-17, 17:50:33
Originally posted by Stefan Payne


Weil der S3TC Bug auch in der GF3 ist??
Apropos S3TC-Bug. Ich bin gespannt ob der NV30 diesen auch hat... *eg*
;)

Xmas
2002-11-17, 17:50:52
Originally posted by Quasar
Eigentlich kannst du bei der GF4 4*1*300 rechnen.....ich denke, dass dieses beim nV30 nicht mehr zutreffen wird.
Eher so ein Mittelding. Denn bei der Basetextur ist IMHO trilinear Pflicht. Erst bei weiteren Texturen die nur bilinear gefiltert werden (z.B. Lightmaps) wäre der Vorteil gegenüber NV25 entsprechend größer. Man kann also grob in der Praxis von der 3fachen Füllrate ausgehen, wenn diese Limitierung beim NV30 nicht vorhanden ist (und davon gehe ich aus).

Dunkeltier
2002-11-17, 20:12:35
http://www.k-hardware.de/news.php?s=n0b0dy&news_id=1384

Demirug
2002-11-17, 20:29:20
Ach da schreibt K-Hardware doch nur bei Inquirer ab und Fuads kristall kugel ist ja etwas trübe in letzer Zeit

Radeonator
2002-11-17, 20:41:56
Die NV30 bräuchte lediglich gutes AA und ein sauberes AF vorzuweisen.Der Preis muss im 500€uro Rahmen bleiben und die Leistung sowie Stabilität müssen stimmen. Dann würde die NV30 nie und nimmer ein Flop, selbst wenn sie "nur" das 9700er Pro Niveau hätte.

KingLouis
2002-11-17, 20:42:57
ich denke mal, dass der nv30 bei shader anwendungen und in niedrigen auflösungen schneller sein wird. (nvidia karten waren bisher immer in kleinen auflösungen schneller, was sich dann in hohen zum teil umkehrte). In hohen auflösungen mit af und aa wird der r300 schneller sein.

StefanV
2002-11-17, 20:44:19
Originally posted by Radeonator
Die NV30 bräuchte lediglich gutes AA und ein sauberes AF vorzuweisen.Der Preis muss im 500€uro Rahmen bleiben und die Leistung sowie Stabilität müssen stimmen. Dann würde die NV30 nie und nimmer ein Flop, selbst wenn sie "nur" das 9700er Pro Niveau hätte.

Soweit ganz richtig.

Wenn die NV30 allerdings öfter langsamer als die R300 ist, dann könnte NV durchaus einige Problemchen bekommen...

ice cool69
2002-11-17, 22:05:55
so wies aussieht ist der nv30 der renderking und der r300 der bandbreitenking.
welche karte schneller ist die, die bandbreite und renderpower am ausgeglichensten aufweisen kann. und hier siehts theoretisch beim r300 etwas besser aus.

ist aber wirklich nur speku. das einzige was keine speku ist ist die tatsache dass nvidias neuester die bisherige konkurrenz wohl nichtmehr in den boden rammen kann wie das bisher immer der fall war...

Unregistered
2002-11-17, 22:47:30
nur nochmal zur voodoo1: anmerkung ich hab mir im juni 1997 eine v1 gekauft. Die war von diamond und hat 299 DM gekostet. ein halbes jahr später kam noch eine neue 2d karte hinzu eine Riva 128 :) naja ihr könnt euch denke auf was ich weiter gespielt habe. Denn KEIN einziges Game lief damals OHNE Grafikfehler auf der Riva 128.

Quasar
2002-11-17, 22:56:30
Soll man sowas glauben? ;)
Gut, dass auf meiner Riva128 das meiste einwandfrei lief (Glide-only Games natürlich ausgenommen).

Unregistered
2002-11-17, 23:03:04
Ich habe meine riva 128 geliebt denn die hatte damals schon multimonitoring was ich von meiner voodoo1 nich behaupten kann....
Und geil war auch das AGP-like Texture Caching
Ausserdem war sie als DirectX/3D Beschleuniger gedacht...
Und wisst ihr was das Beste ist?? Meine Riva 128 von Diamond hatte 5 Jahre Garantie *g*

Unregistered
2002-11-17, 23:22:43
jo quasar das kannste glauben ;)
irgendwann gibt man es natürlich auf und was danach dann alles lief, ka :)

zeckensack
2002-11-17, 23:34:36
Originally posted by ice cool69
das einzige was keine speku ist ist die tatsache dass nvidias neuester die bisherige konkurrenz wohl nichtmehr in den boden rammen kann wie das bisher immer der fall war... Eigentlich hat NV noch nie die Konkurrenz so richtig in Grund und Boden gerammt.

Ausnahmen bestätigen die Regel, die einzige Karte die dies konnte war tatsächlich die Ti4600, allerdings auch nur mit aktivem AA.

Riva128 vs Rendition V2200 vs Voodoo 1 war eher eine Niederlage ...
RivaTNT vs Voodoo2 war auch eine Niederlage ...
Rage128/Pro vs TNT2/Ultra war kein hoher Sieg ...
Gf2GTS vs Radeon DDR war kein hoher Sieg ... (Gf2Ultra schon, kam dafür aber auch erst später)
Gf2/4MX vs Radeon 7500 sieht bitter aus (bis auf's AA bei der Gf4MX)
Gf3Ti500 vs Radeon 8500 ist ausgeglichen (kein eindeutiger Sieger feststellbar)
Ti4200 vs Radeon 8500 ist ohne AA kein hoher Sieg (bishin zu drögem Gleichstand bei bestimmten Spielen)

Klar muß man das Multisampling rausnehmen, aber unter 'in den Boden rammen' verstehe ich eben klare Siege, auch ohne daß man sich in Spezialgebiete vorwagen muß.

Guten Abend :)

s0ck3
2002-11-17, 23:42:58
also ich weis nicht, warum hier so viele auf der armen Riva128 herumhacken... zuerst werkelte sie in meinem P100 und später noch im P2-300.
Probleme gab es nur mit Glide-only Games wie GTA (-> Softare-Modus eben), aber sonst ging eigentlich alles... auch das alte Unreal bekam man (wenn auch nicht sonderlich schnell) mit den OpenGL-ICD-Treibern zum laufen. Selbst die anfänglichen Counter-Strike Versionen (Beta 2,3) liefen darauf anstandslos, bis man dazu überging den Grafik-RAM mit Texturen zu flooden

Salvee
2002-11-17, 23:52:46
Will auch noch was zu meiner ersten 3D-Karte sagen :D
War die 3DExploRer von Asus mit Riva128 und 4MB SGRAM. Bei D3D um Welten der Voodoo1 überlegen (90MHz Chiptakt und 128Bit-Raminterface gg. 50MHz Chiptakt und 64Bitanbindung), besonders bei Forsaken ging das Teil ab ohne Ende. Brauchte allerdings eine dicke CPU, skalierte dann aber wesentlich besser als eine V1 (ab 166MHz kaum noch Zuwachs). Nachteilig war zu Anfang KEIN OGL-ICD(mighty nV, man stelle sich vor), ziemlich miese BQ, sprich mieses Alpha-Blending, mieser Bilinearer Filter (sah aus wie sehr 'grieseliges' Dithering), haufenweise Clippingfehler durch mangelnde Z-Präzision. Aber als PS1-Umsteiger war sie trotzdem eine Wucht!! :)

Ach ja, gleich ists Montag...bei mir

Edit: THX Zeckensack, wie komm ich auf 90MHz ? Naja,:nighty:
Edit2: Hehe, hier (http://www.st.com/stonline/books/pdf/docs/5354.pdf) das offizielle STG-Datasheet.

zeckensack
2002-11-17, 23:57:20
Salvee,

die Riva128 lief genauso wie die Voodoo 1 mit 50MHz, 90MHz wurden erst bei der RivaTNT erreicht.

Quasar
2002-11-18, 00:00:21
Nee, Zecki, die Riva128 lief sogar schon mit 100MHz iirc....

Dunkeltier
2002-11-18, 00:08:29
Seit der Geforce 256 macht NVidia nur noch das gleiche wie 3dfx damals. Wiederverwerten, wiedervewerten, wiederverwerten...

zeckensack
2002-11-18, 00:09:03
Originally posted by Quasar
Nee, Zecki, die Riva128 lief sogar schon mit 100MHz iirc.... Du scheinst Recht zu haben ...

Sorry für die Verwirrung, das ist ja echt erstaunlich:
Anette (http://www.google.com/search?q=riva+128+overclocking&sourceid=opera&num=0&ie=utf-8&oe=utf-8)

Skua
2002-11-18, 00:50:20
Originally posted by Salvee
Will auch noch was zu meiner ersten 3D-Karte sagen :D
War die 3DExploRer von Asus mit Riva128 und 4MB SGRAM. Bei D3D um Welten der Voodoo1 überlegen (90MHz Chiptakt und 128Bit-Raminterface gg. 50MHz Chiptakt und 64Bitanbindung), besonders bei Forsaken ging das Teil ab ohne Ende. Brauchte allerdings eine dicke CPU, skalierte dann aber wesentlich besser als eine V1 (ab 166MHz kaum noch Zuwachs). Nachteilig war zu Anfang KEIN OGL-ICD(mighty nV, man stelle sich vor), ziemlich miese BQ, sprich mieses Alpha-Blending, mieser Bilinearer Filter (sah aus wie sehr 'grieseliges' Dithering), haufenweise Clippingfehler durch mangelnde Z-Präzision. Aber als PS1-Umsteiger war sie trotzdem eine Wucht!! :)


da stimm ich doch glatt mal zu. meine diamond viper v330 war damals für mich die einzige lösung, da 2d/3d mit einer karte, erträglicher preis (glaube 360dm) und "gutes" 3d.

und das beste: habe neulich mit nem kumpel gesprochen, der mich dran erinnerte, dass ich ihm dann damals die karte verkauft hatte - und die läuft heute noch im rechner seines vaters zur vollsten zufriedenheit. :D is halt doch schöneres 2d als mit ner v1... ;D

[edit} rechtschreibung...

Kai
2002-11-18, 01:55:00
Originally posted by Dunkeltier
Seit der Geforce 256 macht NVidia nur noch das gleiche wie 3dfx damals. Wiederverwerten, wiedervewerten, wiederverwerten...

Nee klar .. und ATI hat das Rad jetzt schon 3 mal neu erfunden, hm?

ow
2002-11-18, 09:10:03
Originally posted by Quasar
Soll man sowas glauben? ;)
Gut, dass auf meiner Riva128 das meiste einwandfrei lief (Glide-only Games natürlich ausgenommen).


Das kenne ich auch nicht anders.

chicki
2002-11-18, 09:18:14
hmmm, hatte ati nicht auch schon ne 9700pro mit ddr2 interface gezeigt oder spielt mir mein gehirn jetzt einen streich?
(meine das mal irgendwo gelesen zu haben, mit einem ddr2 controler).
Wenn ja könnte ati die auch rechtzeitig zum nv 30 paperlaunchen und würde es ganz dunkel für nv aussehen.
und btw vodoo1 > nv - mein vodoo-rechner mit S3 2d graka (2mb ram :) )geht grade ausser betrieb - 330dm oder so hat die damals gekostet. Und gebts zu Q1 und Q2 liefen doch richtig geil da drauf :D

Unregistered
2002-11-18, 15:28:56
Originally posted by Dunkeltier


- Die R300 läuft auch unter Windows 98 perfekt.
- Tut der NV30 sehr wohl. Schaue dir das NVidia Video an. Das Ding hat auch solch einen enorm hohen Strombedarf.
- NVidia's Treiber sind genauso gut/schlecht wie Ati's. Ich spreche aus Erfahrungen, ich habe schon Karten beider Firmen aus mehreren Generationen besessen.
Zu -:
Operating Systems Support

* Windows® XP
* Windows® 2000
* Windows® Me
Unter Win98SE kann es zwar funktionieren, dass wäre aber rein zufällig.
Zu -: Echt bombig, von einem solchen bewusst nichtssagenden Video die Verlustleistung einer Grafikkarte zu erkennen! Da warte ich doch lieber erst einmal Tests ab.
Zu -: Eine solche Flut von Beschwerden über Inkompatibilitäten gibt es nur bei ATi. Auch wenn so manche offizielle NV-Treiber Macken haben, aktuell der umstrittene 40.72, schneidet NV im Endeffekt besser ab.

Aber es stimmt schon, in den kommenden NV30-Tests wird weder die Unterstützung von Win9x überprüft (die wird aber immerhin von NV garantiert), noch wird auf die Verlustleistung Rücksicht genommen. Sämtliche Testrechner haben als OS WinXP und mindestens ein 400-Watt-NT. Und wenn nur 3DMark und Quake3 getestet werden, wird man über Inkompatibilitäten auch nicht viel erfahren.

x-dragon
2002-11-18, 15:38:21
Originally posted by Unregistered
...
Operating Systems Support

* Windows® XP
* Windows® 2000
* Windows® Me

Unter Win98SE kann es zwar funktionieren, dass wäre aber rein zufällig.
... Kann es sein das ATI es deswegen so schreibt, weil MS keine Treiber mehr für Windows98 zertifiziert?

nggalai
2002-11-18, 16:03:04
Originally posted by X-Dragon
Kann es sein das ATI es deswegen so schreibt, weil MS keine Treiber mehr für Windows98 zertifiziert? Ja.

ta,
-Sascha.rb

Exxtreme
2002-11-18, 16:03:10
So ist das. :)
Für WinDOS98 gibt es kein WHQL-Zertifikat mehr.
Originally posted by X-Dragon
Kann es sein das ATI es deswegen so schreibt, weil MS keine Treiber mehr für Windows98 zertifiziert?

ow
2002-11-18, 16:05:47
Originally posted by X-Dragon
Kann es sein das ATI es deswegen so schreibt, weil MS keine Treiber mehr für Windows98 zertifiziert?


Ja, das ist auch meine Vermutung. Steht auch so auf der ATi Website.

Etwas seltsam finde ich allerdings, dass die Suche nach Radeon1 W98 Treibern die ganze Zeit zum CAT 2.1 (9039) fuehrte und jetzt der 2.4 (9069) dort zu finden ist (2.2/2.3 wurden wohl 'uebersprungen').

Ob eine Treiber WHQL ist oder nicht, interessiert doch eh keinen User. Funktionieren muss er, egal ob MS WHQL Logo oder nicht.



WinME und W98 haben praktisch denselben OS-Kernel. Bis auf einige Ausnahmen bei WDM-Treibern laufen 'W98'-Treiber auch unter ME und umgekehrt.

Unregistered
2002-11-18, 17:07:18
Originally posted by Exxtreme
So ist das. :)
Für WinDOS98 gibt es kein WHQL-Zertifikat mehr.
So wie für die WHQL NVIDIA Windows 95/98/ME Display Drivers? ;)
Ne, ne, ATi mit Win98SE ist Glückssache. Die Treiberarchitektur von 98SE und Me hat schon gewisse Unterschiede.

Exxtreme
2002-11-18, 17:26:22
Originally posted by Unregistered
So wie für die WHQL NVIDIA Windows 95/98/ME Display Drivers? ;)
Keine Ahnung, frag nVidia... ;)
Originally posted by Unregistered
Ne, ne, ATi mit Win98SE ist Glückssache. Die Treiberarchitektur von 98SE und Me hat schon gewisse Unterschiede.
WinDOS98 und WinDOS ME unterscheiden sich nur marginal. Die Treiberarchitektur ist in etwa gleich geblieben. Wie gesagt, die Treiber laufen nur ATi kann sie nicht mehr supporten weil Micros~1 WinDOS98 nicht mehr supportet.

Desti
2002-11-18, 18:38:15
Auf jeden Fall hat die Karte den ÜBERKühler :P

x-dragon
2002-11-18, 18:43:21
Originally posted by Desti
Auf jeden Fall hat die Karte den ÜBERKühler :P damit auch alle wissen was du meinst :)

Kompromisslos ist auch die Kühltechnik: Heatpipes leiten die Abwärme des Chips zu einem Wärmetauscher beim Slotblech, über den der Lüfter kühle Außenluft ansaugt. Dass die Grafikkarte zwei Slots belegt und wie bei ATI ihren Strom über einen separaten Anschluss direkt vom Netzteil bezieht, dürfte dann auch nicht mehr überraschen.
Quelle:http://www.heise.de/newsticker/data/anw-18.11.02-006/ Hat jemand vielleicht schon ein Bild davon? :)

StefanV
2002-11-18, 18:51:48
Originally posted by Unregistered

Zu -:

Unter Win98SE kann es zwar funktionieren, dass wäre aber rein zufällig.
Zu -: Echt bombig, von einem solchen bewusst nichtssagenden Video die Verlustleistung einer Grafikkarte zu erkennen! Da warte ich doch lieber erst einmal Tests ab.
Zu -: Eine solche Flut von Beschwerden über Inkompatibilitäten gibt es nur bei ATi. Auch wenn so manche offizielle NV-Treiber Macken haben, aktuell der umstrittene 40.72, schneidet NV im Endeffekt besser ab.

Aber es stimmt schon, in den kommenden NV30-Tests wird weder die Unterstützung von Win9x überprüft (die wird aber immerhin von NV garantiert), noch wird auf die Verlustleistung Rücksicht genommen. Sämtliche Testrechner haben als OS WinXP und mindestens ein 400-Watt-NT. Und wenn nur 3DMark und Quake3 getestet werden, wird man über Inkompatibilitäten auch nicht viel erfahren.

Huch, meine Terratec DMX 6Fire hat unter Windows 98 auch keinen Mux von sich gegeben.

Erst unter Windows 98SE war sie zur Mitarbeit zu Bewegen.

Was machen wir nun?
ATI ist nicht der Einzige, der keine W98 Treiber mehr anbietet, eine Katastrophe!!!

StefanV
2002-11-18, 18:52:40
Originally posted by Unregistered
So wie für die WHQL NVIDIA Windows 95/98/ME Display Drivers? ;)
Ne, ne, ATi mit Win98SE ist Glückssache. Die Treiberarchitektur von 98SE und Me hat schon gewisse Unterschiede.


Der einzig mir bekannte Unterschied zwischen 98 (NICHT SE!!!) und ME ist das WDM Treiber Modell, das unter Windows 98 noch nicht zuverlässig funzt.

Desti
2002-11-18, 19:15:23
Originally posted by X-Dragon
damit auch alle wissen was du meinst :)

Hat jemand vielleicht schon ein Bild davon? :)

http://www.hardocp.com/images/articles/1037482125yomDI2gHPV_5_8_l.jpg

Birdman
2002-11-18, 19:31:19
ei, nv stimmt mich echt nachdenklich....

- nur ordered grid 4x und 8xFSAA....da zieht dann imho das 6xFSAA der R9k7 meilenweit davon.
- verlustleistung hoch sieben...jedenfalls wenn man sich den Kühler ankukkt. Imho gehen da dann sich an die 60Watt durch die spannungswandler...viel freude mit der lautstärke.

dazu noch einige weitere punkte die mich stören, insgesammt nicht wirklich etwas das mich aus den socken haut, sondern nur enttäuschungen. und dabei wäre ich echt froh gewesen, wieder von der verfickten radeon weg zu kommen...soviele treiberbugs will ich einfach ned in kauf nehmen bei meiner hardware.

seahawk
2002-11-18, 19:34:11
Ja die Lautstärke macht mir auch Sorge ....

Bei mir hängt die Entscheidung von der Lieferbarkeit ab.

Kriege ich Ende Januar ne NV30 dann nehme ich die, wenn nicht ne ATI R9700pro.

(Natürlich nur wenn man bis dahin auch schöne SIS655 oder Intel E7205 boards kriegt)

ow
2002-11-18, 19:38:48
Der Kühler kann auch ein reines Show-Objekt sein. Wer weiss?:D

Abwarten.

Birdman
2002-11-18, 19:39:14
ui, grad noch gesehen dass der GFX nur ein 8x1 Design hat wie die radeon und nicht wie immer angenommen ein 8x2.....wenn da so weitergeht muss Nv noch hoffen, damit überhaupt eine Radeon 9500 zu schlagen.

Richthofen
2002-11-18, 19:50:54
glaub nit.
Die machen das durch den Takt wett bei den Szenarios die nicht Bandbreitenbeschränkt sind.
Bei den Bandbreitenintensiven Dingen also AA, scheint wohl die Colour Compression der Schlüssel zu sein.
Bin mal gespannt wie doll es einbricht mit AA aber Radeon9700 Speed sollte da schon übersprungen werden.
Das 6XS gefällt mir schon.

MadManniMan
2002-11-18, 20:03:18
Originally posted by Richthofen

Das 6XS gefällt mir schon.

hat jede gf3 schon

MadManniMan
2002-11-18, 20:04:23
Originally posted by Richthofen

Bei den Bandbreitenintensiven Dingen also AA, scheint wohl die Colour Compression der Schlüssel zu sein.


bandbreitenmäßig wird der nv30 nix reißen. farben komprimieren(hört sich das deutsch dämlich an ;D) macht auch schon der r300, beim nv30 ist es nur wieder ne revolution ;)

Birdman
2002-11-18, 20:04:42
was bringen FSAA modi die nur in D3D zur verfügung stehen? imho gar nix, da kauf ich mir lieber ne rolle toilettenpapier, als ne karte mit solch halbherzig implementierten features.

MadManniMan
2002-11-18, 20:08:31
Originally posted by Birdman


- nur ordered grid 4x und 8xFSAA....da zieht dann imho das 6xFSAA der R9k7 meilenweit davon.
- verlustleistung hoch sieben...jedenfalls wenn man sich den Kühler ankukkt. Imho gehen da dann sich an die 60Watt durch die spannungswandler...viel freude mit der lautstärke.



tja, der kühler schaut pervers drein. und das fsaa ist für mich eine einzige enttäuschung! sicherlich sind 45° winkel beim 8xS unmerklich glatter als beim 4* von ati und das supersampling bringt immerhin sattes 2tap af für lau(vorsicht ironie) und auch alpha texturen werden plötzlich wieder in alle richtungen geglättet(CSler, holt euch ne GFFX und stoßt in neue quälitätsdimensionen vor ;D), aber schon atis 6* sollte besser ausschauen...

MadManniMan
2002-11-18, 20:09:07
Originally posted by Birdman
was bringen FSAA modi die nur in D3D zur verfügung stehen? imho gar nix, da kauf ich mir lieber ne rolle toilettenpapier, als ne karte mit solch halbherzig implementierten features.

naja, untet openGL kann man ja immernoch 4*9tap genießen :rofl:

Quasar
2002-11-18, 20:10:26
Originally posted by MadManniMan


hat jede gf3 schon

6xS??? Komisch, dann muss ich ein Montagsmodell erwischt haben, meine schafft nur 4xS.

MadManniMan
2002-11-18, 20:12:18
Originally posted by Quasar


6xS??? Komisch, dann muss ich ein Montagsmodell erwischt haben, meine schafft nur 4xS.

huppala, 6xS? hab 6x gelesen und gedacht(wenn auch nicht geschrieben), also das alte 4xS. hm, wie könnte man sich 6xS dann vorstellen? bei 8xS ist das noch leicht, aber 6?

vielleicht quinblurrx mit SS? :D

hm, irgendwer ne idee?

StefanV
2002-11-18, 20:18:29
Originally posted by Richthofen
glaub nit.
Die machen das durch den Takt wett bei den Szenarios die nicht Bandbreitenbeschränkt sind.
Bei den Bandbreitenintensiven Dingen also AA, scheint wohl die Colour Compression der Schlüssel zu sein.
Bin mal gespannt wie doll es einbricht mit AA aber Radeon9700 Speed sollte da schon übersprungen werden.
Das 6XS gefällt mir schon.

Hm...

Wie war das noch mit dem Hersteller, der sich mit seinem RAM Interface verspekuliert hat und seine '3er' und '4er' nur mit einem 64bit MEM Interface ausgestattet hat??

Irgendwie sehe ich nicht mehr viel von S3 und das obwohl die Savage 3D/4 schon einige (Bandbreiten) Effizienz steigernde Maßnahmen hatte(AFAIK Fast Z Clear)...

Die NV30 wird es extrem schwer gegen die Radeon 9700 haben, insbesondere da die Radeon völlig auf RGAA ausgelegt ist...

NV nutzt immer noch das veraltete/schlechte OGAA ein...

Ein Armutszeugnis, daß sie Altlasten aus 2 Generationen mitschleppen...

StefanV
2002-11-18, 20:20:26
Originally posted by ow
Der Kühler kann auch ein reines Show-Objekt sein. Wer weiss?:D

Abwarten.

Glaub ich weniger.

Auf Produktshows wurde AFAIK meist ein 'ausreichender' Kühler verwendet (außer bei der Parhelia ;))...

Mit anderen Worten:

Auf Retail Karten werden noch größere Monster zu finden sein...

Quasar
2002-11-18, 20:24:46
OGAA?? Komisch, überall lese ich davon, nur nicht in den offiziellen Doks oder Previews....
(ausser bei Heise, aber ob die eine haben, um das zu beurteilen?)

Birdman
2002-11-18, 20:28:37
Originally posted by Quasar
OGAA?? Komisch, überall lese ich davon, nur nicht in den offiziellen Doks oder Previews....
(ausser bei Heise, aber ob die eine haben, um das zu beurteilen?)
Onkel Toms hats das auch so drin....

Desti
2002-11-18, 20:36:35
Originally posted by ow
Der Kühler kann auch ein reines Show-Objekt sein. Wer weiss?:D

Abwarten.

Ja genau und die Buchse an der Seite ist nicht zur Stromversorgung, sonder da kommt Strom raus, der per Electronenfluxxkompensator aus der elektromagnetischen Abstrahlung des Chips gewonnen wird. :)

Quasar
2002-11-18, 20:36:43
Antialiasing

The GeForceFX has been outfitted with new antialiasing modes. In addition to 6XS, a new 8x mode is available which uses twice as many pixels to calculate an image as 4x mode. Thanks to the lossless Z and color compression, antialiasing is much faster on the GeForceFX than on its predecessor. NVIDIA promises that in practice even 8x mode will be usable without frame rates dropping to abysmal levels. Beyond that, NVIDIA also uses gamma correction. The AA filter is very variable in many respects. The texture crispness (sharpness) can be manipulated through a higher number of samples, better filtering as well as the use of high-definition mipmaps. Since each pipeline can calculate up to 1024 texture operations in one pass, filtering techniques can be very complex without having too much of a negative impact on performance.

Bin ich blind oder blöd oder beides oder steht das woanders im Artikel?

Unregistered
2002-11-18, 20:38:04
Originally posted by Desti


Ja genau und die Buchse an der Seite ist nicht zur Stromversorgung, sonder da kommt Strom raus, der per Electronenfluxxkompensator aus der elektromagnetischen Abstrahlung des Chips gewonnen wird. :)

Klingt logisch. Stimmt das? ???

Xmas
2002-11-18, 21:13:07
Originally posted by Quasar


Bin ich blind oder blöd oder beides oder steht das woanders im Artikel? [/SIZE]
Quasar, das Problem ist dass da nichts von RG oder anderen Samplemustern steht, sowie nichts zum 2x und 4x AA, weshalb man wohl davon ausgehen muss dass sich da nichts geändert hat. Und wenn 6xS und 8x auf diesen Modi basieren, sind sie eben größtenteils ordered Grid, leider.

x-dragon
2002-11-18, 21:16:55
Originally posted by Unregistered

Klingt logisch. Stimmt das? ??? Ähm kennst du vielleicht "Zurück in die Zukunft" Teil 1,2 oder 3 ? Die Zeitmaschine dort wird mit einem "Electronenfluxxkompensator" angetrieben :).

MadManniMan
2002-11-18, 21:25:01
Originally posted by Xmas

Quasar, das Problem ist dass da nichts von RG oder anderen Samplemustern steht, sowie nichts zum 2x und 4x AA, weshalb man wohl davon ausgehen muss dass sich da nichts geändert hat. Und wenn 6xS und 8x auf diesen Modi basieren, sind sie eben größtenteils ordered Grid, leider.

wie daher 8xS aussieht, sollte klar sein, aber ich rätsele immer noch über den 6xS modus... aths, ne idee?

Quasar
2002-11-18, 21:26:27
Originally posted by Xmas

Quasar, das Problem ist dass da nichts von RG oder anderen Samplemustern steht, sowie nichts zum 2x und 4x AA, weshalb man wohl davon ausgehen muss dass sich da nichts geändert hat. Und wenn 6xS und 8x auf diesen Modi basieren, sind sie eben größtenteils ordered Grid, leider.
So gesehen schon, aber hier wird's schon wieder als Fakt gehandelt....und das möchte ich doch lieber erstmal abwarten. :)

BTW, hab ich mir in den letzten Tagen wirklich VIELE antialiasedte Bilder angeschaut, und zwischen 4x und 6x bsw. ist der Unterschied selbst auch Standbildern mit Vergrößerung rein akademisch.

StefanV
2002-11-18, 21:29:07
Originally posted by Quasar

So gesehen schon, aber hier wird's schon wieder als Fakt gehandelt....und das möchte ich doch lieber erstmal abwarten. :)

BTW, hab ich mir in den letzten Tagen wirklich VIELE antialiasedte Bilder angeschaut, und zwischen 4x und 6x bsw. ist der Unterschied selbst auch Standbildern mit Vergrößerung rein akademisch.

Weils irgendwann nicht mehr besser werden kann...

Nur noch in sehr seltenen Fällen würde man eine verbesserung der BQ bemerken, idR soltle der Unterschied zwischen 4x und 6x bei der 9700 zu vernachlässigen sein...

MadManniMan
2002-11-18, 21:48:32
Originally posted by Stefan Payne



idR soltle der Unterschied zwischen 4x und 6x bei der 9700 zu vernachlässigen sein...

[speku]

ack, aber ersteres wird gerade mal MINIMAL(nicht in der EER!) durch den 8xS überboten und ich bezweifle, dass der performance hit ähnlich gering ist

aths
2002-11-19, 21:29:35
MMM, "meine" 6xS-Idee ist schamlos von Xmas' Idee abgekupfert :D

Der 8x-Modus ist ja schon seit 9 Monaten im FSAA-Artikel beschrieben.

aths
2002-11-19, 21:30:59
Originally posted by Quasar
So gesehen schon, aber hier wird's schon wieder als Fakt gehandelt....und das möchte ich doch lieber erstmal abwarten. :)Da ändert sich nichts mehr. Gäbe es 4x RGMSS, bestünde kein Anlass für den 6xS-Modus. Und einen 8x "an ordered grid"-Modus würde auch kein Mensch mehr brauchen.

aths
2002-11-19, 21:33:12
Originally posted by MadManniMan
ack, aber ersteres wird gerade mal MINIMAL(nicht in der EER!) durch den 8xS überboten und ich bezweifle, dass der performance hit ähnlich gering ist Das ist genau der Kasus Knacktus. Für ein 8xS-Pixel braucht man 4 Takte, für einen 4x RGMS-Pixel nur einen Takt. Bei 8xS ist "2x Quasi-AF" schon drin, aber auch 4x RGMS + 2x AF sollte schneller sein.

Quasar
2002-11-19, 21:53:15
Originally posted by aths
Da ändert sich nichts mehr. Gäbe es 4x RGMSS, bestünde kein Anlass für den 6xS-Modus. Und einen 8x "an ordered grid"-Modus würde auch kein Mensch mehr brauchen.

Und wie passt dann DK's Aussage dazu, es (das Grid) wäre non-rectangular?

Ordered-Rotated(Shifted)-Grid-Multisampling?

BTW, es gibt sehr wohl einen Sinn im xS-Modus ggü. 4xRGMS: Den Supersampling-Anteil....sonst bestehst du doch auch so sehr darauf, dass dir die Wahl gelassen wird...

nggalai
2002-11-19, 21:58:15
Originally posted by aths
Da ändert sich nichts mehr. Gäbe es 4x RGMSS, bestünde kein Anlass für den 6xS-Modus. Und einen 8x "an ordered grid"-Modus würde auch kein Mensch mehr brauchen. *Quasar-anschliess*

Ausserdem lässt sich das auch noch gut vermarkten . . . wie in einigen Deutschen NV-Treibern statt "4xS" einfach "6x" drinsteht. Grössere Zahlen = gut hat NV ja schon in der Vergangenheit mit Ihrem "64tap AF" ausprobiert . . . ;)

ta,
-Sascha.rb

zeckensack
2002-11-19, 21:59:12
DK sprach von einem 'skewed' Grid, Skew bezeichnet normalerweise eine 'schiefe' Konstellation.

6xSkewed ergäbe eine EER von 6x horizontal und 3x vertikal. (das wären dann 2x3 Samples, denkbar wären auch 3x2). Ich kann auch ein Bildchen malen, wenn's sein muß.

Höhnangst
2002-11-19, 22:01:17
Originally posted by Quasar
BTW, es gibt sehr wohl einen Sinn im xS-Modus ggü. 4xRGMS: Den Supersampling-Anteil....sonst bestehst du doch auch so sehr darauf, dass dir die Wahl gelassen wird...
Nunja, "nicht mehr brauchen" schließt das Vorhandensein bzw. die Implementierung doch nicht aus, oder?

Quasar
2002-11-19, 22:33:14
Nein, sicher nicht. IMO braucht eh kein Mensch, dessen Monitor beim Zocken 1600x1200 darstellen kann (also auch viele 19"er), mehr als ein vernünftiges 2xRGAA.
Die ersparte Leistung sollte IMO eher in schönere Texturen, bzw. deren optimale Aufbereitung investiert werden.

nggalai
2002-11-19, 22:36:29
Und schonwieder *Quasar-anschliess*.

Wird langsam unheimlich. ;)

Zu FSAA-Sache: Da wird aths neuer Artikel hoffentlich noch ein wenig Infos bringen, auch wenn ich mich frage, woher die kommen--im gegenwärtigen 3DC-Preview steht ja ein paarmal drin, dass NV "nicht mit Details rausrückt" etc. Aber Spekulation scheint's ja nicht zu werden, also freue ich mich schonmal auf die Quellenangaben. ;)

Ansonsten: Kaufbare Hardware abwarten, und dann vergleichen.

ta,
-Sascha.rb

Quasar
2002-11-19, 22:37:04
adj.
1. Placed or turned to one side; asymmetrical.
2. Distorted or biased in meaning or effect.
3. Having a part that diverges, as in gearing.
4.
a)Mathematics. Neither parallel nor intersecting. Used of
straight lines in space.
b)Statistics. Not symmetrical about the mean. Used of
distributions.
Wenn ich mir das so anschaue, finde ich mehr und mehr gefallen an "skewed grid"....

aths
2002-11-19, 22:52:19
Originally posted by Quasar
Und wie passt dann DK's Aussage dazu, es (das Grid) wäre non-rectangular?Das passt auf 6xS doch ganz gut???
Originally posted by Quasar sonst bestehst du doch auch so sehr darauf, dass dir die Wahl gelassen wird... Sie lassen aber nicht die Wahl zwischen 4x RG und 8xS.

aths
2002-11-19, 22:53:14
Originally posted by zeckensack
6xSkewed ergäbe eine EER von 6x horizontal und 3x vertikal. 6xS wird eine EER von 3x4 liefern. Dessen bin ich mir verdammt sicher. Das Bild kommt, wenn Leo mit dem Aufbereiten meines abendlichen Ergusses (ihhh) fertig ist.

zeckensack
2002-11-19, 22:54:41
Quasar,

a)Mathematics. Neither parallel nor intersecting. Used of
straight lines in space.
Ist nur im 3D-Raum korrekt.

Im 2D-Raum ist diese Bedingung garnicht erfüllbar ...

Hier mal das versprochene Bildchen eines 2x3 Skewed Grid mit 6x3 EER.

aths
2002-11-19, 22:55:53
Originally posted by Quasar
Nein, sicher nicht. IMO braucht eh kein Mensch, dessen Monitor beim Zocken 1600x1200 darstellen kann (also auch viele 19"er), mehr als ein vernünftiges 2xRGAA.
Die ersparte Leistung sollte IMO eher in schönere Texturen, bzw. deren optimale Aufbereitung investiert werden. Imo falscher Denkansatz. Denn 4x RG kostet bei vernünftiger "Framebuffer Compression" nur realativ wenig mehr an Leistung. Der Qualität rechtfertigt das auf jeden Fall. Darüber wird es dann allerings in der Tat langsam unsinnig, auf immer höhere EER-Stufen zu setzen.

aths
2002-11-19, 22:57:02
Originally posted by Quasar
Wenn ich mir das so anschaue, finde ich mehr und mehr gefallen an "skewed grid".... Was nV "skewed" nennt, nutzt die Möglichkeiten, die von der Subpixel-Anzahl geboten werden, nicht aus. Es gibt bessere Lösungen (siehe ATI) als nVidias "skewed" grid.

aths
2002-11-19, 22:57:47
Originally posted by zeckensack
Hier mal das versprochene Bildchen eines 2x3 Skewed Grid mit 6x3 EER. Ich kann dir versichern, dass es falsch ist :D (Sollte es doch richtig sein, geb ich dir einen aus.)

zeckensack
2002-11-19, 23:01:43
Originally posted by aths
Ich kann dir versichern, dass es falsch ist :D (Sollte es doch richtig sein, geb ich dir einen aus.) Würde mich auch wundern, wenn das die exakte und endgültige Lösung sein sollte.

Das Bildchen sollte eigentlich nur demonstrieren was 'skewed' heißt, ohne jeglichen Bezug zu wasauchimmer :stareup: :D

Quasar
2002-11-19, 23:04:34
Originally posted by aths
Imo falscher Denkansatz. Denn 4x RG kostet bei vernünftiger "Framebuffer Compression" nur realativ wenig mehr an Leistung. Der Qualität rechtfertigt das auf jeden Fall. Darüber wird es dann allerings in der Tat langsam unsinnig, auf immer höhere EER-Stufen zu setzen.

Mag sein, mag aber auch nicht sein. Nach dem, was ich mir in den letzten Tagen so angeschaut habe, kann ich dir versichern, dass selbst auf Standbildern einer Originalauflösung von 800x600 nur geringfügige Unterschiede zwischen 4x und 6xFSAA zu erkennen waren. Ich erwartete daher, dass in doppelt so hoher Auflösung beider Achsen die Unterschiede wirklich nur noch Makulatur sind, was sich beim Betrachten einiger normal Texturierter Games auch als richtig (für mein optisches Emfpinden) herausstellte.
Mag sein, dass manche auf Treppchen empfindlicher reagieren, aber Ärzte empfehlen, öfters mal die Treppe zu nutzen, soll angeblich fithalten ;)
Bei Ultima IX und SeSam SE hingegen sticht auch einem ungeübten Beobachter sofort das deutliche Profitieren vom Supersampling-Anteil bei gleichzeitig aktivem AF ins Auge (4xS+8x vs. 4x+8x vs 6x+16x)....

Just my Einschätzung.

Quasar
2002-11-19, 23:11:13
Originally posted by aths
Was nV "skewed" nennt, nutzt die Möglichkeiten, die von der Subpixel-Anzahl geboten werden, nicht aus. Es gibt bessere Lösungen (siehe ATI) als nVidias "skewed" grid.
Auch das mag theoretisch stimmen (sicherlich auch praktisch), aber ist es möglicherweise gar nicht so einfach, den MS-Modus mit dem SS-Anteil zu verknüpfen....

Wie dem auch sei, ein spielbar schneller 4xS-Modus sogar im alten Abtastmuster erfüllte bei einer Auflösung von 1600x1200 meine Ansprüche an reine Kantenglättung. 2x2-SS (egal in welchem Grid) mit 2xMS (ebenfalls egal ob Rotated um Winkel =! 90° oder nicht) wäre absolut zufriedenstellend und in Verbindung mit mind. 4xAF für die während des Spiels wahrnehmbare Qualität in hohen Auflösung. Für Zeilen unterhalb der 1000er-Grenze mögen ja zweistellig bezeichnete FSAA-Modi schön und gut sein, auf großformatigen Monitoren können sie aber die viel störendere zu niedrige Zeilenanzahl nicht ausgleichen.

aths
2002-11-19, 23:17:03
Originally posted by Quasar
Mag sein, mag aber auch nicht sein. Nach dem, was ich mir in den letzten Tagen so angeschaut habe, kann ich dir versichern, dass selbst auf Standbildern einer Originalauflösung von 800x600 nur geringfügige Unterschiede zwischen 4x und 6xFSAA zu erkennen waren. Ich erwartete daher, dass in doppelt so hoher Auflösung beider Achsen die Unterschiede wirklich nur noch Makulatur sind, was sich beim Betrachten einiger normal Texturierter Games auch als richtig (für mein optisches Emfpinden) herausstellte.Wieso "selbst" auf Standbildern? Nur in Bewegung kann sich AA voll entfalten. Hier sollte man auch höherwertige Modi eher ausmachen können als auf einem Standbild. Und: Du redest von 4x vs. 6x, ich gehe eher von 2x vs. 4x (beides mal RG) aus.

Originally posted by Quasar
Mag sein, dass manche auf Treppchen empfindlicher reagieren, aber Ärzte empfehlen, öfters mal die Treppe zu nutzen, soll angeblich fithalten ;)
Bei Ultima IX und SeSam SE hingegen sticht auch einem ungeübten Beobachter sofort das deutliche Profitieren vom Supersampling-Anteil bei gleichzeitig aktivem AF ins Auge (4xS+8x vs. 4x+8x vs 6x+16x)....

Just my Einschätzung. Ich habe nichts gegen Supersampling - solange es wahlfrei bleibt. Ohne Supersampling bietet GeForce FX eine EER von maximal 2x2. Und das ist mir eben viel zu wenig.

aths
2002-11-19, 23:30:41
Originally posted by Quasar
Auch das mag theoretisch stimmen (sicherlich auch praktisch), aber ist es möglicherweise gar nicht so einfach, den MS-Modus mit dem SS-Anteil zu verknüpfen....Nee, das ist ziemlich einfach. Es gäbe einen komplizierteren Weg, 8x mit einer Kombination zu erreichen, aber damit würde (wegen der Performance) 6xS überflüssig werden.
Originally posted by Quasar
Wie dem auch sei, ein spielbar schneller 4xS-Modus sogar im alten Abtastmuster erfüllte bei einer Auflösung von 1600x1200 meine Ansprüche an reine Kantenglättung.Sagen wir mal so: NV30 erfüllt diesbezüglich alle Wünsche (inkl. 8xS), die ich an NV25 gestellt hätte. Für einen Nex-Gen-Chip, gerade anbetrachts ATIs Vorlage, ist das aber einfach zuwenig.

4xS ist mir zu "schlecht". Bei vertikalen Kanten nervt das Aliasing weiterhin sehr. (Ich möchte 8xS auch auf meiner GeForce4 haben!)
Originally posted by Quasar
2x2-SS (egal in welchem Grid) mit 2xMS (ebenfalls egal ob Rotated um Winkel =! 90° oder nicht) wäre absolut zufriedenstellend und in Verbindung mit mind. 4xAF für die während des Spiels wahrnehmbare Qualität in hohen Auflösung. Für Zeilen unterhalb der 1000er-Grenze mögen ja zweistellig bezeichnete FSAA-Modi schön und gut sein, auf großformatigen Monitoren können sie aber die viel störendere zu niedrige Zeilenanzahl nicht ausgleichen. Wieso diese Entweder-Oder-Entscheidung? Wie wäre es mit hohen Auflösungen UND 4x RG o.ä.?

Von einem Nex-Gen-Chip erwarte ich genau dies.

MadManniMan
2002-11-19, 23:39:48
Originally posted by aths
MMM, "meine" 6xS-Idee ist schamlos von Xmas' Idee abgekupfert :D

Der 8x-Modus ist ja schon seit 9 Monaten im FSAA-Artikel beschrieben.

moin ahts. ja dein 8xS vorschlag einst... den hatte ich vergessen, war aber auf den gleichen gekommen - liegt ja auch nahe!

aber das 6xS mit 3*4 EER? *grübel, schwitz* aaaah!

-> o = Multisampling / x = Supersampling

---x---x---
-----o----o
---x---x---

-> ich finds nich so toll

Quasar
2002-11-19, 23:45:21
aths,
Zu deinem ersten Posting
Zur Erklärung: Ich habe Screenshots von 4x und 6x bei einer nativen Auflösung von 800x600 verglichen, um sie 1:1 zum Betrachten noch realisierbar zu halten. In Bewegung bleibe ich dabei, dass es zwischen 2x und 4x in hoher Auflösung (hätte ich wohl dazuschreiben sollen) keinen wirklich störend wahrnehmbaren Unterschied mehr für mich gibt.

Es hat eh keinen Sinn darüber zu streiten.
Ab einem gewissen Grad sind Kanten für mich nunmal nicht mehr störend wahrnehmbar. Wenn man gezielt danach sucht, findet man an einigen Stellen auch in 1600x1200 mit 6xFSAA noch leicht wabernde Kanten (die man auf Standbildern ebenfalls mit entsprechender Vergößerung visualisieren kann), insofern kannst man von wirklicher Eliminierung wohl erst dann reden, wenn physikalisch keine Aliasing-Artefakte mehr vorhanden sind.

Was für eine EER ein Produkt dabei bietet, ist für mich zwar interessant, aber in der Sache eher unbedeutend.

Zu deinem zweiten Posting:
Fein, wenn du dich so gut im Chipdesign auskennst....ich tue dies nicht. Ausserhalb der Theorie mögen evtl. noch praktische Einschränkungen bestehen, die sich nicht mit dem Verschieben zweier Overhead-Folien mit Sample-Patterns simulieren lassen.

Entweder-Oder ganz einfach deswegen, weil ein Chip nunmal keine 125Millionen völlig variabler Transistoren hat. In Utopia mag es so einen Chip geben, in der Theorie vielleicht auch, in der Praxis muss man, soweit ich weiss, noch immer ein paar Einschränkungen in Kauf nehmen und Kompromisse eingehen, um bestimmte gesteckte Ziele innerhalb der bewältigbaren Aufwandes zu erreichen.

Ich erwarte von einem Next-Gen Chip nicht mehr und nicht weniger, als mir einen objektiv (Leistung) und subjektiv (Bildqualität) geldwerten Mehrwert gegenüber der Vorgängergeneration zu bringen. ATi hat dies im Vergleich zur R8500 sicher komplett hinbekommen (bis auf TruForm und DVD-Playback, aber das kann ja noch kommen....warten wir auf die Plug-Ins). nVidia verspricht, ebensolches zu tun. Inwieweit die Versprechungen gehalten werden, sehe ich dann ja früh genug *eg*

aths
2002-11-19, 23:50:16
Quasar,

der Supersampling-Anteil wird rein treiberseitig realisiert. So ähnlich wie GF1/2 ohne dedizierte Hardware mit OGSS-AA "nachgerüstet" wurden, geht das auch, wenn man MSAA mit OGSS kombinieren will.

NV20, sogar NV17 wären ebenfalls in der Lage (vom Speicher abgesehen) 6xS und 8x Anti-Aliasing zu machen.

Klar ist 2x RGAA bei 1600x1200 schon ganz gut. Aber erst 4x RGAA (gamma-korrigiert) würde mich an die Wahrnehmungsgrenze treiben. Die NV30-Lösung ist einfach ineffizent, da gibts nichts zu deuteln.

Quasar
2002-11-19, 23:50:20
Aco, hab auch n Bild gemalt....
(ist aber nur'n grobes Schema)
Rot = Supersampling, Grün= Multisampling *hoff*

aths
2002-11-19, 23:52:17
Originally posted by Quasar
Aco, hab auch n Bild gemalt....
(ist aber nur'n grobes Schema)
Rot = Supersampling, Grün= Multisampling *hoff* Bilder gibts heute abend :D

MadManniMan
2002-11-19, 23:52:30
warum so ein "seltsames" anordnen des MS? mir scheint meine "skizze" (kann mans erkennen?) schlüssiger...

MadManniMan
2002-11-19, 23:53:40
Originally posted by aths
Bilder gibts heute abend :D

wahnsinn... wie soll ich die max. 6 minuten(s ist 23:54) bitte rumbekommen?

aths
2002-11-19, 23:53:41
Originally posted by MadManniMan
moin ahts. ja dein 8xS vorschlag einst... den hatte ich vergessen, war aber auf den gleichen gekommen - liegt ja auch nahe!

aber das 6xS mit 3*4 EER? *grübel, schwitz* aaaah!

-> o = Multisampling / x = Supersampling

---x---x---
-----o----o
---x---x---

-> ich finds nich so toll Im Prinzip richtig, allerdings um 90° gedreht, und die x und o sind falsch zugeordnet. Alle deine Buchstaben müssten "o" sein, und zwischen je zwei "o"-Paaren liegt 1 "x".

Quasar
2002-11-19, 23:53:43
Originally posted by aths
Quasar,

der Supersampling-Anteil wird rein treiberseitig realisiert. So ähnlich wie GF1/2 ohne dedizierte Hardware mit OGSS-AA "nachgerüstet" wurden, geht das auch, wenn man MSAA mit OGSS kombinieren will.

NV20, sogar NV17 wären ebenfalls in der Lage (vom Speicher abgesehen) 6xS und 8x Anti-Aliasing zu machen.

Ja....und?
Es geht mir nicht darum, mit jeder Generation von Hardware eine neue Subsample-Maske als der Weisheit letzter Schluss verkauft zu bekommen....ich will nutzbares FSAA in allen Auflösungen.

Da hat ATi sehr gut vorgelegt...von der Samplemaske her hat nV kaum noch die Möglichkeit es besser zu machen, wieso also nicht auf anderem Wege versuchen zu Punkten.

Oder möchtest du im Treiber ein weisses Feld, in dem du das gewünscht Subpixelmuster durch anklicken einer beliebigen Anzahl von Pixel selbst festlegen kannst?

aths
2002-11-19, 23:54:19
Originally posted by MadManniMan
wahnsinn... wie soll ich die max. 6 minuten(s ist 23:54) bitte rumbekommen? Ein athsscher Abend kann schon mal über den Tag hinaus gehen :naughty:

Quasar
2002-11-19, 23:55:56
Originally posted by MadManniMan
warum so ein "seltsames" anordnen des MS? mir scheint meine "skizze" (kann mans erkennen?) schlüssiger...

Warum nicht? Man hätte eine höhere "EER" ;)

aths
2002-11-19, 23:59:04
Originally posted by Quasar
Ja....und?
Es geht mir nicht darum, mit jeder Generation von Hardware eine neue Subsample-Maske als der Weisheit letzter Schluss verkauft zu bekommen....ich will nutzbares FSAA in allen Auflösungen.Das ist so schwammig formuliert, dass auch GeForce3 diese Anforderung bequem erfüllt. Und, ehrlich gesagt, in anbetracht der Karten-Generation bin ich bei mir mit Ti 4600 auch zufrieden.

Vom NV30 bin ich trotzdem enttäuscht.
Originally posted by Quasar
Da hat ATi sehr gut vorgelegt...von der Samplemaske her hat nV kaum noch die Möglichkeit es besser zu machen, wieso also nicht auf anderem Wege versuchen zu Punkten.nV hat es nicht mal "gleich gut" gemacht.

AA mit OGSS "zu verbessern" lohnt nicht, solange der Monitor noch mitspielt: Über die Auflösung zu gehen lohnt dann eher. Bei ATI hingegen schaltet man einfach noch eine AA-Stufe höher. Und wenn man trotz allem Leistung überschüssig hat, bringt ATIs Methode ein höheres Plus an Qualität als die NV-Methode.
Originally posted by Quasar
Oder möchtest du im Treiber ein weisses Feld, in dem du das gewünscht Subpixelmuster durch anklicken einer beliebigen Anzahl von Pixel selbst festlegen kannst? Diese Idee hatte ich in der Tat schon.

MadManniMan
2002-11-20, 00:01:19
Originally posted by aths
Im Prinzip richtig, allerdings um 90° gedreht, und die x und o sind falsch zugeordnet. Alle deine Buchstaben müssten "o" sein, und zwischen je zwei "o"-Paaren liegt 1 "x".

?-)

wem? wessen auto fuhr mein hamster am arm? uggah!

Exxtreme
2002-11-20, 00:01:59
Also DAS wäre ein echt cooles Feature...
Originally posted by Quasar

Oder möchtest du im Treiber ein weisses Feld, in dem du das gewünscht Subpixelmuster durch anklicken einer beliebigen Anzahl von Pixel selbst festlegen kannst?

MadManniMan
2002-11-20, 00:03:35
Originally posted by Quasar


Warum nicht? Man hätte eine höhere "EER" ;)

jupp, aber der 6xS modus soll ja ne 4*3 EER haben

btw: aths, wie lange noch und wo dann dein artikel *heul und vor warten fast auseinanderfall*

Quasar
2002-11-20, 00:14:25
Originally posted by aths
Das ist so schwammig formuliert, dass auch GeForce3 diese Anforderung bequem erfüllt. Und, ehrlich gesagt, in anbetracht der Karten-Generation bin ich bei mir mit Ti 4600 auch zufrieden.

Vom NV30 bin ich trotzdem enttäuscht.
nV hat es nicht mal "gleich gut" gemacht.

AA mit OGSS "zu verbessern" lohnt nicht, solange der Monitor noch mitspielt: Über die Auflösung zu gehen lohnt dann eher. Bei ATI hingegen schaltet man einfach noch eine AA-Stufe höher. Und wenn man trotz allem Leistung überschüssig hat, bringt ATIs Methode ein höheres Plus an Qualität als die NV-Methode.

Diese Idee hatte ich in der Tat schon.

§1) Das tut sie ( =GF3 ) in der Tat nicht, da sie selbst für 2xFSAA in diversen neuen Games IMO nicht mehr die nötigen Reserven bietet. BTW, war diese "Erwartungshaltung" nur auf das FSAA bezogen, gleiches gilt natürlich für die Texturfilterung (wobei ich 4xAF gemeinhin schon als ausreichend empfinde).
Zum Beispiel hat mir die Demo von MotoGP extrem gut gefallen, nicht etwa wegen der schnöden bump-mapped'ten Strecke oder dem Environment Mapping auf den Visieren, sondern viel mehr wegen dem Motion-Blur bei hohen Geschwindigkeiten. Schade, dass das Feature nicht zusammen mit FSAA (zumindest nicht mit Multisampling per Multisample-Buffer) erreicht werden konnte.

§2) Ja, möglicherweise. Ich habe noch kein Testsample der nV30 und auch in den PDFs noch nichts wirklich offizielles zu den FSAA-Modi gelesen.

§3)Ich sprach auch nicht von "AA verbessern" in dem Sinne, wie du es anscheinend verstanden hast, sondern allgemein davon, nicht einfach die Konkurrenz zu kopieren, sondern eine Alternative anzubieten. Multisampling tut eben anders als Supersampling....

§4) Echt??

Quasar
2002-11-20, 00:20:32
Originally posted by MadManniMan


jupp, aber der 6xS modus soll ja ne 4*3 EER haben

btw: aths, wie lange noch und wo dann dein artikel *heul und vor warten fast auseinanderfall*
Dann verschieb's halt n bissel. Hab gleich mal den Quincunx.-Modus draus gemacht...

aths
2002-11-20, 00:45:38
Originally posted by MadManniMan
jupp, aber der 6xS modus soll ja ne 4*3 EER habenWie gesagt, das ist Xmas' Idee :) und in der Tat so clever, dass ich davon ausgehe, dass nVidia genau das realisiert hat.

aths
2002-11-20, 00:54:26
Originally posted by Quasar
§2) Ja, möglicherweise. Ich habe noch kein Testsample der nV30 und auch in den PDFs noch nichts wirklich offizielles zu den FSAA-Modi gelesen.Ich schon. Natürlich - wie du - nur zu 6xS und 8x. Zu 4x sagten sie nichts. Eine effizientere 4x-Maske würde dazu aber Anlass geben - und z.B. 6xS schlicht überflüssig machen.
Originally posted by Quasar
§3)Ich sprach auch nicht von "AA verbessern" in dem Sinne, wie du es anscheinend verstanden hast, sondern allgemein davon, nicht einfach die Konkurrenz zu kopieren, sondern eine Alternative anzubieten. Multisampling tut eben anders als Supersampling....OGSS lässt sich wie gesagt per Treiber immer noch realisieren. Hätten sie diesen HRAA-Verschnitt als Alterntative, würde ich das sehr begrüßen. Doch nach wie vor nur HRAA anzubieten, finde ich für einen Nex-Gen-Chip sehr dürftig.
Originally posted by Quasar
§4) Echt?? Wäre bei einer "programmierbaren" (parametrisierbarn) Maske (Smoothvision á la White Paper lässt grüßen) durchaus drin.

Quasar
2002-11-20, 01:11:20
Originally posted by aths
Ich schon. Natürlich - wie du - nur zu 6xS und 8x. Zu 4x sagten sie nichts. Eine effizientere 4x-Maske würde dazu aber Anlass geben - und z.B. 6xS schlicht überflüssig machen.

Wäre bei einer "programmierbaren" (parametrisierbarn) Maske (Smoothvision á la White Paper lässt grüßen) durchaus drin.

§1) Naja, ich bin noch etwas hin- und hergerissen, ob ich DK's und Tamari's Äußerungen glauben soll, oder den Dingen, die sich aus dem in den PDFs nicht gesagten folgern liessen. Ersteres würde mir mehr zusagen.

§2) Dass es möglich wäre nahm ich auch an, aber nicht, dass jemand ernsthaft daran gedacht hätte, sich sowas zu wünschen ;)

aths
2002-11-20, 01:26:52
Originally posted by Quasar
§1) Naja, ich bin noch etwas hin- und hergerissen, ob ich DK's und Tamari's Äußerungen glauben soll, oder den Dingen, die sich aus dem in den PDFs nicht gesagten folgern liessen. Ersteres würde mir mehr zusagen.Ich sehe da keinen Widerspruch.
Originally posted by Quasar
§2) Dass es möglich wäre nahm ich auch an, aber nicht, dass jemand ernsthaft daran gedacht hätte, sich sowas zu wünschen ;) Sowas...

BTW, noch mal kurz zum 'eigenen Weg' beim AA. Wieso sollte nV da nichts ATI "nachmachen"? Gammakorrigierte Filterung haben sie ja auch "nachgemacht", ebenso, eine DX9-Karte zu bauen... Der nV-eigene Weg beim FSAA ist nunmal recht alt, und durch ATI inwzischen einfach überholt.

Tarkin
2002-11-20, 08:19:15
sehr guter Artikel...

http://www.tech-report.com/etc/2002q4/geforce-fx/index.x?pg=1

(sorry, falls das schon vorher gepostet wurde)

Lost Prophet
2002-11-20, 14:00:22
@ ow

ich mach mal copy & paste, da thread closed


------------------------------------------------------

ich weiß mit sicherheit nicht so viel wie einige hier aber
ich "vertraue" mal auf die daten von nv

man muss kein prophet sein um zu wissen warum so hohe taktraten brauchen dh so einen monsterkühler und einen großen ausschuss in kauf nehmen, weil sie sonst die preformance krone nicht zurückerobern können

nv hat einen guten namen aber auch der würd schwer haben wenn man eine gen lang nicht spitzenreiter war/ist

wenn es nicht am design bzw layout liegt and was dann

ich glaub nicht das nv schlechtere treiber hat als ATI??


ok, der thread titel war schlecht gewählt ich entschuldige mich
er hätte lauten sollen Wer hat im mom das beste design??
ich habs versuch zu editeiern ging aber nicht

ich möcht hier nicht flamen, lieber würd ich mein wissen bereichern
in bezug auf obige frage


cya axel

--------------------------------------------------

Xmas
2002-11-20, 16:25:05
Originally posted by Quasar
Aco, hab auch n Bild gemalt....
(ist aber nur'n grobes Schema)
Rot = Supersampling, Grün= Multisampling *hoff*
Das funktioniert nicht. Du kannst nicht einfach den Supersampling-Anteil vom Multisampling-Anteil entkoppeln. Wenn schon dann "besteht" ein SS-Sample aus 2 oder 4 MS-Samples.

aths
2002-11-20, 17:23:46
Tarkin, Purple_Stain,

ich denke ein Artikel (bzw. ein Posting) ist nicht deshalb gut, weil dort über den NV30 hergezogen wird. Er hat andere Stärken als der R300. Auf welche Sachen man nun mehr Wert legt, ist ziemlich subjektiv. Ich halte den NV30 insgesamt (!) für weder für eine Enttäuschung noch für eine Offenbarung. Bestimmte Aspekte enttäuschen mich schon, andere begeistern wiederum.

-error-
2002-11-20, 17:39:31
20.11.2002, 09:50

GeForce FX in München: Gerüchte-Küche brodelt




GeForce FX goes Germany: Im Méridien-Hotel in München wurden Fahndungserfolge bezüglich der Chip-Spezifikationen von Nvidias GeForce-FX-Grafikkarte erzielt.

München (db) – Mit großem Aufwand stellte Nvidia im Münchener Méridien-Hotel seine neue Grafikkarte, die GeForce FX, vor.

Geoff Ballew, seines Zeichens Senior Produkt Manager von Nvidia, führte unter dem Motto "Cinematic Computing" durch das Programm. Dabei stand vor allem die CineFX-Engine der GeForce-FX-GPU, die Bilder in Kino-Qualität auf den Bildschirm zaubern soll, im Vordergrund. Dabei wurden verschiedene Nvidia- und Spiele-Demos wie der zukünftige 3D-Shooter "Stalker" gezeigt.

Noch geheim: Die Spezifikationen
In der abschließenden Fragerunde biss man immer dann auf "Ballew-Granit", wenn es um genauere Spezifikationen und Termine für den Verkaufsstart der neuen FX-Grafikkarte ging.

Zwei Dinge wurden dabei deutlich ausgesprochen: GeForce-FX-Grafikkarten werden erst am Anfang des nächsten Jahres - sprich Januar oder Februar - großflächig in Deutschland erscheinen. Und zweitens: Auf GeForce-FX-Karten kommt ausschließlich DDR-II-Speicher zum Einsatz - das "langsamere" DDR-I-RAM ist für den GeForce FX nicht vorgesehen.

CHIP Online meint:
Diese Verschwiegenheit seitens Nvidia gefällt uns ganz und gar nicht! Also was liegt näher, als der Sache selbst auf den Grund zu gehen. Im Internet finden sich hierzu erste detaillierte Spezifikationen:


Die Size (Chipfläche): 205 Quadratmillimeter

Verlustleistung des Chips: zirka 35 Watt

Speicher: 128 MByte ("4Mx32"), aufgeteilt in 8 Speicherblöcke zu je 16 MByte

Beim verwendeten DDR-II-Speicher forschen wir nach und werden auf der Homepage von Samsung prompt fündig: Der einzige momentan erhältliche DDR-II-Speicher mit Namen GDDR-II wird in 4Mx32-Größe angeboten und deckt sich mit den vorherigen Angaben.

Die eigentliche Überraschung: Außer 500 MHz (effektiv 1 GHz) schnellem Video-RAM bietet Samsung GDDR-II-Speicher mit 450 und 400 MHz Taktrate an. Wer jetzt an ein abgespecktes GeForce-FX-(MX!)-Modell denkt, liegt wohl gar nicht so falsch...

Info: www.nvidia.de

QUELLE: http://www.chip.de/news_stories/news_stories_8920348.html



http://www.kurts-smilies.de/hahaha.gifhttp://www.chip.de/teaserbilder/3257661_69fed4fde8.gifhttp://www.blind-board.de/images/smilies/rofl.gif

aths
2002-11-20, 20:17:26
Originally posted by Quasar
Und wie passt dann DK's Aussage dazu, es (das Grid) wäre non-rectangular?Hast du mal den Link dazu?

Quasar
2002-11-20, 21:03:25
Klar, bin nur leider jetzt erst von der Arbeit gekommen... :(
nVidia declined to provide more details about the actual sample patterns. Tamasi and Kirk would only say that the sample positions and patterns have changed, and that they are non-rectangular.
Das (^^^) stand da: http://www.extremetech.com/article2/0,3973,710345,00.asp

Lost Prophet
2002-11-20, 22:36:29
Originally posted by aths
Tarkin, Purple_Stain,

ich denke ein Artikel (bzw. ein Posting) ist nicht deshalb gut, weil dort über den NV30 hergezogen wird. Er hat andere Stärken als der R300. Auf welche Sachen man nun mehr Wert legt, ist ziemlich subjektiv. Ich halte den NV30 insgesamt (!) für weder für eine Enttäuschung noch für eine Offenbarung. Bestimmte Aspekte enttäuschen mich schon, andere begeistern wiederum.

Full Ack

auf der anderen seite ist es auch nicht deshalb gut weil ein chip in den höchsten himmel gelobt wird

natürlich hat jeder stärken und schwächen
aber es hat auch jeder eine meinung
ich hab meine hier schon kundgetan weiteremale wären überflüssig

natürlich ist das dem fortschritt sehr zuträglich aber ich denke die erwartungen an nv waren höher ( die letzten jahre eigentlich immer ungeschlagen)

ich würd mir auch einen nv30 kaufen wenn das preis/leistungs verhätniss stimmt

das tut es meiner meinung nach nicht

cya axel

ow
2002-11-21, 08:54:26
Originally posted by Purple_Stain


ich würd mir auch einen nv30 kaufen wenn das preis/leistungs verhätniss stimmt

das tut es meiner meinung nach nicht

cya axel


Und meiner Meinung nach ist diese Aussagen unsinnig, weil weder Preis noch Leistung des NV30 bekannt sind.
Also kann man auch nix ueber ein Preis-/Leistungsverhaeltnis sagen.

aths
2002-11-21, 16:01:16
Originally posted by Quasar
Klar, bin nur leider jetzt erst von der Arbeit gekommen... :(

Das (^^^) stand da: http://www.extremetech.com/article2/0,3973,710345,00.asp "Wieso wurde ich darüber nicht informiert?"

and adds 6X, 6XS and even 8X filtering modes.


Immerhin stützt First and foremost, according to David Kirk, "4X AA is the design center of NV30. It is the most efficient operation of the hardware…. The focus is making 4X FSAA run fast, so everything is sized, everything is computed, and every data path's width is targeted at 4X FSAA." meine Behauptung, 4x bleibt OG.

6x, so es diesen Modus gibt, wäre dann vermutlich 4x OGMS + 1x1.5 OGSS. Wirklich Sinn macht 6x allerdings nicht, da er schlechter als 4xS ist...

Pussycat
2002-11-21, 16:53:17
Wenn 4x OG ist, können die nur mal hoffen dass die Mags keine Qualitätsvergleiche machen. Das wäre jetzt wirklich der Hammer wenn die ganze 3dFX tech wohl Verspätungen und kein gutes AA gebracht hätten.
Wohl finde ich die 'entkopplung' der Pipelines interessant, dass könnte zukunftsträchtiger sein als das R300-design (auch wenn's jetzt nicht sehr toll ausschaut).

edit: WIEDER EIN PAGEFLIP! M-M-Mann hat bald keine Chanche mehr.

aths
2002-11-21, 17:13:35
Dank Leonidas ist es gute alte 3dc-Tradition, Benchmarks mit Screenshots zu hinterlegen.

MadManniMan
2002-11-21, 18:07:51
Originally posted by Pussycat
edit: WIEDER EIN PAGEFLIP! M-M-Mann hat bald keine Chanche mehr.

:asshole:

;)

Ailuros
2002-11-22, 06:44:55
Off topic:

Hat jemand schon das hier gesehen?

http://www.beyond3d.com/forum/viewtopic.php?t=3233&start=60

Schlussvolgerungen koennt Ihr selber ziehen ;)

zeckensack
2002-11-22, 07:21:14
Originally posted by Ailuros
Off topic:

Hat jemand schon das hier gesehen?

http://www.beyond3d.com/forum/viewtopic.php?t=3233&start=60

Schlussvolgerungen koennt Ihr selber ziehen ;) Ist doch alles bekannt ???

Tarkin
2002-11-22, 08:16:37
hat das schon jemand gesehen?

@ www.hardocp.com

"The first order of business for NVIDIA is to get NV30 off the ground. Though we picked up product specifics at the launch on Monday, we had a chance to get more detail on the timing of the ramp and remaining challenges yesterday. As expected, NVDIA has chosen not to use low-k dielectric on the NV-30, a decision which involves some performance compromises but also lowers the risk of any manufacturing miscues. With the part now qualified, waiting on system integrators to finish boards is the issue – that clearly is not going to happen until the April quarter.

It will be very important for NVIDIA to successfully ramp the lower-cost versions of NV3X in time to hit the April 2003 quarter, however. The successful launch of the high-end part will not be enough to support a revenue upturn in the April quarter. Management was not willing to answer questions about whether additional versions of NV3X have taped out, although the intention to hit the April quarter was reiterated during our conversation."


... April?!? Na das kann ja noch heiter werden. Also für mich klingt das nach Voodoo5 auf der ganzen Linie.

Salvee
2002-11-22, 08:27:23
Originally posted by Tarkin

... April?!?

Dass die Kerle sich nie gescheit ausdrücken wollen *grrr*
'April Quarter' kann wieder alles mögliche bedeuten, von Bilanzierungszeiträumen (kA. wie die bei nV sind) bis hin zum 'normalen' Sprachgebrauch
(da würde es imo den Zeitraum von Januar bis April umfassen).

zeckensack
2002-11-22, 08:36:07
Originally posted by Salvee


Dass die Kerle sich nie gescheit ausdrücken wollen *grrr*
'April Quarter' kann wieder alles mögliche bedeuten, von Bilanzierungszeiträumen (kA. wie die bei nV sind) bis hin zum 'normalen' Sprachgebrauch *zustimm*

Extrem nervig sowas.

Ich würde das jetzt als April-Juni deuten. Freund Richthofen hatte AFAIR vor kurzem noch 'january quarter' als Januar bis März ausgelegt.

Demirug
2002-11-22, 08:41:12
Originally posted by Tarkin
hat das schon jemand gesehen?

@ www.hardocp.com

It will be very important for NVIDIA to successfully ramp the lower-cost versions of NV3X in time to hit the April 2003 quarter, however. The successful launch of the high-end part will not be enough to support a revenue upturn in the April quarter. Management was not willing to answer questions about whether additional versions of NV3X have taped out, although the intention to hit the April quarter was reiterated during our conversation."

Ich habe mal den entscheidenten Teil fett gemacht. Es geht um NV31 und möglicherweise den ominösen NV34 Chip. Mit NV30 Karten hat das erst mal nichts zu tun. Wobei mal wieder zu lesen ist das man mit Highend Karten kein Geld machen kann.

Wir reden hier also von den Kämpfen im Mainstream. Und dort hat ATI im Moment auch noch gewisse Probeleme am Hals. Weil man es nicht schafft das PCB für die 9500er hinzubekommen sind die wenigen Anbieter gezwungen auch für diese Karten auf das teure PCB für die 9700er zurückzugreifen und ATI muss die 9500er Chips deswegen auch auf den teurern (weil mehr pins) 9700er Chipträger packen. Das sich da kaum noch was verdiehnen läst dürfte der Grund für die schlechte Verfügbarkeit sein.

Liquaron
2002-11-22, 08:44:11
Ach Nvidia kann mich langsam mal kreuzweise. ich habe keinen Bock mehr auf das blöde hin und her verschiebe des Release Termines und der Spezifikationen der GeforceFX. ich werde mir endgültig nach Weihnachten die Radeon 9700 pro zulegen. Sie wird dann mit sicherheit zu einem fairen Preis angeboten. Ich glaube außerdem das ich nicht der einzige bin dem das so geht. Toll Nvidia ist es echt gelungen ihr hart aufgebautes Image zu versauen. Naja hauptsache ich habe eine anständige Graka in meinem Rechner. Da ist es mir echt egal von welcher Firma sie kommt. :smokin:

Salvee
2002-11-22, 08:56:45
Originally posted by Demirug


Ich habe mal den entscheidenten Teil fett gemacht. Es geht um NV31 und möglicherweise den ominösen NV34 Chip. Mit NV30 Karten hat das erst mal nichts zu tun.

Die zwei Sätze in Tarkins Post vor 'dem entscheidenden Teil' sagen aber genau das gleiche über den NV30.

"As expected, NVDIA has chosen not to use low-k dielectric on the NV-30, a decision which involves some performance compromises but also lowers the risk of any manufacturing miscues. With the part now qualified, waiting on system integrators to finish boards is the issue – that clearly is not going to happen until the April quarter."

Demirug
2002-11-22, 09:03:28
ja Salvee nur haben wir was NV30 Karten angeht schon eine Aussage direkt von einem Hersteller:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=41399

Ok auch diese muss nicht zwangsläufig stimmen ist aber IMO aber mehr aussagekraft wie eine Meldung ohne Quellenangabe bei hardocp.

Quasar
2002-11-22, 10:21:38
Originally posted by Tarkin
[...]that clearly is not going to happen until the April quarter.[...]
[...] The successful launch of the high-end part will not be enough to support a revenue upturn in the April quarter.[...]
[..]whether additional versions of NV3X have taped out, although the intention to hit the April quarter [...]
... April?!? Na das kann ja noch heiter werden. Also für mich klingt das nach Voodoo5 auf der ganzen Linie.

April Quarter, April Quarter, April Quarter.....

Wenn das January Quarter Nov-Jan umfasst (CC über das Oct-Qarter anfang November), liegt das April Quarter von Februar bis April.

Was das Board Design (und um das scheint es hier zu gehen angeht, betrifft das IMO nur herstellerspezifische Designs, da nV ein Referenzdesign seit jeher mitliefer, mit dem die Karten anfänglich produziert werden können...
Die Fraglichkeit ob das April-Quarter überhaupt erreicht werden kann bezieht sich ausdrücklich nur auf die "additional version of nV3x", nicht den nV30, von dem bezweifelt wurde, dass dessen Verkäufe die Bilanz im April-Quarter deutlich nach oben biegen können.

Zu deiner Eigenleistung, Tarkin:
Prima, wenn's ne weitere Voodoo5 wird, gibt's dazu auch ne Daul-Chip Version, sie hat "die ultimative Bildqualität", alle nVidiots werden noch in fünf Jahren von dem Teil schwärmen und vorgeben nichts anderes zum Daddeln zu brauchen, ATi wird nV aufkaufen, und sowohl PC als auch Konsolen- und integrierten Mainboardmarkt dominieren und ein durchschnittlicher PC mit Monopoly-Bauteilen von Intel und ATi wird dann wieder 15k-20000 Euro kosten. :D

Demirug
2002-11-22, 10:38:58
Ich habe das Radeon PCB Thema das ich ausgelöst habe mal abgesplitet:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=41476

seahawk
2002-11-22, 11:09:11
Originally posted by zeckensack
*zustimm*

Extrem nervig sowas.

Ich würde das jetzt als April-Juni deuten. Freund Richthofen hatte AFAIR vor kurzem noch 'january quarter' als Januar bis März ausgelegt.

Nöh, auch hier geht es wieder um die Bilanzen von NV.

Damit ist April Quarter, die 3 Monate die mit April enden.

Nocheinmal :

January - Quarter : Nov, Dez, Jan
April - Quarter : Feb, Mar, Apr
July - Quarter : Mai, Jun, Jul
October - Quarter : Aug, Sept, Okt

Guckt euchmal NV Geschäftsberichte an.

So also selbst wenn auch die NV30 Boards betroffen sind geht aus diesem Artikel hervor, dass die meisten Boardhersteller erst ab Februar (1. Monat April-Quarter) Boards liefern können. Dies ist ja nichts neues, da es hier um Bilanz relevante Mengen geht und die Menge im Januar für die Bilanz unbedeutend sein dürfte.

StefanV
2002-11-22, 13:37:06
Originally posted by seahawk


Nöh, auch hier geht es wieder um die Bilanzen von NV.

Wirklich??

Ist es sicher, welches Quartal (ie. Geschäftsquartal/Kalender Quartal) gemeint ist?

WIR wissen nicht, welches Quartal gemeint ist, da diese Nachricht eher an Investoren gerichtet ist, würde man vermuten, daß man das Geschäfts Quartal meint.

Nur wenns für NV nicht gut ausschaut, dann könnte man das Kalender Quartal meinen...

seahawk
2002-11-22, 18:16:15
Hast Du schon mal von einen Kalender "April-Quarter" gehört ??

Diese Begriffe machen nur im Zusammenhang mit Bilanzen sinn und da sich es ja offentsichtlich um eine Aussage über Einflüsse auf die Bilanzen von NV geht ist es wohl sicher, dass hier auch die entsprechenden Quartalsbegriffe benutzt werden. Denn für Investoren ist es egal in welchem Monat das Ding kommt, für die ist wichtig im welchem Geschäftsquartal das Ding positive Auswirkungen auf die Bilanz hat.

Pussycat
2002-11-22, 22:09:13
wäre es nicht logischer Februar-März-April das 'February-quarter' zu nennen?

StefanV
2002-11-22, 22:26:32
Originally posted by Pussycat
wäre es nicht logischer Februar-März-April das 'February-quarter' zu nennen?

Jo, eben DAS ist das Problem...

DAS wissen wir nicht...

gibt also 3 Möglichkeiten:

a) Karlender Quartal
b) Quartal ENDET im April
c) Quartal FÄNGT im April AN

Was er meint, ist nicht ganz sicher, möglich wäre alles...

Schaut nicht gut aus, für den NV30...

just my 2 cent

Richthofen
2002-11-22, 22:56:19
"
wäre es nicht logischer Februar-März-April das 'February-quarter' zu nennen?
"

Nein. Nicht das Bilanzquartal.
NVs Bilanzquartale werden nach dem Monat bezeichnet, mit dem das Quartal abgeschlossen wird, und in dem auch meisst der Conf. Call stattfindet.
Also January Quater ist das 4. Quartal.
April Quater ist das 1. Quartal.
Das war bei denen schon immer so und das wird auch immer so sein.

Xmas
2002-11-23, 02:11:33
Originally posted by Richthofen
"
wäre es nicht logischer Februar-März-April das 'February-quarter' zu nennen?
"

Nein. Nicht das Bilanzquartal.
NVs Bilanzquartale werden nach dem Monat bezeichnet, mit dem das Quartal abgeschlossen wird, und in dem auch meisst der Conf. Call stattfindet.
Also January Quater ist das 4. Quartal.
April Quater ist das 1. Quartal.
Das war bei denen schon immer so und das wird auch immer so sein.
Jep, und das Kalenderquartal wird mit Zahlen bezeichnet, nicht mit Monaten.

Richthofen
2002-11-23, 12:12:44
genau das und wer wie ich immer bei den Conference Calls dabei ist weiss das dann eben auch und lacht sich schlapp wie alle Webseiten und Leute in den Foren das falsch interpretieren :)

April quater ist definitiv 1st quater 2003 also das quater in dem Nvidia die Massenverfügbarkeit von Boards angibt.
January quater ist das 4th quater 2002 in dem Nvidia den Launch und die Produktion von NV30 angibt.

Also immer genau zuhören von A) welchem quater die Rede ist und B) was für diesen Zeitraum angekündigt ist - also Grafikchips oder Grafikkarten. Auch das sind 2 paar Schuhe. Wenn man des öfteren solche Investor Conference Calls mitmacht, gewöhnt man sich an die schleierhafte Ausdrucksweise. Ist bei allen anderen Firmen nicht anders.
Liegt auch dara, das man keine Insider Infos 100% plakativ liefern will.

3dfx Voodoo5 5500
2002-12-09, 20:20:26
lohnt sich sowieso erst nach release was drüber was zu sagen.
weil alles andere ist nicht relevant.

Richthofen
2002-12-09, 23:02:43
nich unbedingt.
Wenn du am Kapitalmarkt so denkst, wirst du immer erst dann loslegen, wenn alle anderen das auch wissen. Dann hast aber nix mehr von.
Also jeden Conf Call mitmachen viel lesen und genau zuhören, was gesagt wird dann bekommst die nächste PowerGRaka geschenkt :)