PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FX - Woran liegts?


aths
2003-01-27, 20:35:53
Siehe Frage.

edit: Ergänzung: Ich traue nV durchaus zu, aus der NV3x-Serie letztlich einen komerziellen Erfolg zu landen, als auch ihr Image aufzubessern. Dazu müssten sie natürlich erst mal nachlegen, aber soviel "Kredit" haben sie bei mir schon, dass ich denen das zutraue. Wenn die erst mal 2 Monate mit echter Hardware am Treiber gebastelt haben, wird's wohl schon etwas anders aussehen. Ein nächstes Stepping könnte vielleicht auch noch was bringen.

Exxtreme
2003-01-27, 20:41:36
/me sagt:
"Das ganze Board (mit RAM etc.) ist schlecht optimiert - hohe Latenzzeiten etc.".

Rampage 2
2003-01-27, 20:46:55
Ich würde sagen, dass die GFFX noch eine Menge Bugs hat - und ein
besserer Treiber müsste auch her.

duckofdeath
2003-01-27, 20:50:31
nvidia hats einfach verhaut! weil von wegen die größte entwicklung in der spielegeschichte oder 20k+ 3dmarks....

Liquaron
2003-01-27, 20:53:45
lol sie sprachen von einer Revolution.
Ja von einer Revolution der Dummheit.
Diese Karte passt einfach nicht zu Nvidia. Sie sollten die am besten schnell wieder einstampfen und von neu anfangen.

Iceman346
2003-01-27, 20:56:07
IMO wirkt das ganze wie derbe Fehler im Chip. Ich meine mit dieser Füllrate müsste die Karte zumindestens bei den "üblichen Verdächtigen" wie 3DMark, UT2k3 Flyby und Q3 vorne liegen und das recht deutlich, tut sie aber nicht. Dazu kommt das Nvidia die Erwartungen natürlich kräftig mit ihrem FUD gesteigert hat, daß sie jetzt deutlich hinter ihren eigenen Aussagen liegen ist natürlich bitter.

skampi
2003-01-27, 21:05:08
Originally posted by Iceman346
IMO wirkt das ganze wie derbe Fehler im Chip. Ich meine mit dieser Füllrate müsste die Karte zumindestens bei den "üblichen Verdächtigen" wie 3DMark, UT2k3 Flyby und Q3 vorne liegen und das recht deutlich, tut sie aber nicht. Dazu kommt das Nvidia die Erwartungen natürlich kräftig mit ihrem FUD gesteigert hat, daß sie jetzt deutlich hinter ihren eigenen Aussagen liegen ist natürlich bitter.

Meiner Meinung liegt es nicht an der Speicheranbindung/-bandbreite. Wie ich schon mehrfach schrieb, hat Anand den Speicher um 10% übertaktet und trotzdessen nur einen Performancegewinn von 0,2% messen können.

IMHO sind wahrscheinlich die TMUs des Nv30 nicht so effektiv designed wie die des R300 (wurde ja auch viel Geheimniskrämerei darum betrieben). Diesen Punkt gibts aber leider nicht im Poll, weshalb ich nicht gestimmt habe:(.

Iceman346
2003-01-27, 22:06:46
Originally posted by skampi


Meiner Meinung liegt es nicht an der Speicheranbindung/-bandbreite. Wie ich schon mehrfach schrieb, hat Anand den Speicher um 10% übertaktet und trotzdessen nur einen Performancegewinn von 0,2% messen können.

IMHO sind wahrscheinlich die TMUs des Nv30 nicht so effektiv designed wie die des R300 (wurde ja auch viel Geheimniskrämerei darum betrieben). Diesen Punkt gibts aber leider nicht im Poll, weshalb ich nicht gestimmt habe:(.

Lesen rulz ;) Wo rede ich von der Speicherbandbreite? Ich redete von Fehlern im Chip welcher Art auch immer.

nggalai
2003-01-27, 22:08:06
Ich hab' ein Problem mit der Fragestellung an und für sich--Woran liegt was? Was haben die Leute denn von den Benchmarks der GFFX erwartet? Ich sehe einige Probleme (z.B. die Grafikfehler, welche auf [H] dokumentiert wurden), aber Performance-mässig hätte ich nicht mehr erwartet. Nur weil eine Grafikkarte höher getaktet ist, muss sie noch lange nicht in Real-World Applikationen (i.e. Spielen) gleichviel schneller abgehen. Von der Performance her hab' ich an der GFFX eigentlich nichts auszusetzten. Was bei den meisten Tests fehlte, waren Sachen, für die die GFFX gebaut wurde--lange Shader, oder allgemein exzessiver Shader-Gebrauch, und sei's nur Bump-Mapping. Ich persönlich würde mich nicht wundern, wenn die Karte z.B. unter DooM3 noch einige Leute performance-mässig überraschen würde.

Das einzige, was mich stört, sind Lüfter, Stromverbrauch, Format der Karte, Hitzeentwicklung und Preis. Die Grafikfehler werden mit neueren Treibern ausgebügelt werden.

Je nachdem, was denn nun mit "Woran liegt's?" gemeint ist, fällt meine Antwort also auf "Treiber" (Grafikfehler), "Mischung aus Hardwarefehlern" (oder eher Design-Problem -- Hitzeentwicklung, Lüfter, Stromverbrauch, Format) oder "nix" (allgemeine Spiele-Performance).

ta,
-Sascha.rb

Ficus
2003-01-27, 22:11:53
hmm...

Das jetzt so viele für "die FX ist unausgereift" gevotet haben wundert mich doch sehr.
Ist vielleicht auch ne Definition Frage.
Unter "reifen" verstehe ich, dass das vorhandene nur um Kleinigkeiten ausgebaut werden muss um zu einem viel besseren Ergebnis zu führen (von 128 auf 256bit ist imo keine Kleinigkeit)

Beispiel:
1) Ich habe eine "unausgereifte" Frucht-A an einer Pflanze.
Ausser Licht, Wasser, Wärme, und etwas Zeit (alles im kostengünstig vorhanden) brauch ich nix.
2) Ich habe eine "unausgereifte Frucht-A an einer Pflanze.
Frucht-A stellt mich nicht zufrieden und ich möchte gerne ne Frucht-B draus machen.
Dazu bedarf es etwas mehr als nur obengenanntes.

Also ich hab für "Das ganze Board ist schlecht optimiert" gestimmt...hätte aber lieber für *Das ganze Board ist schlecht auf seine Komponenten abgestimmt* gevotet.

Ich hoff ich bin nicht zu Biologisch geworden ;)

Demirug
2003-01-27, 22:14:32
nggalai, im Prinzip gegbe ich dir recht denke aber trotzdem das in den Treiber noch etwas performances begraben ist.

Die Vermutung bezüglich DOOM III hatte ich auch schon.

aths
2003-01-27, 22:20:35
Originally posted by nggalai
Ich hab' ein Problem mit der Fragestellung an und für sich--Woran liegt was? Was haben die Leute denn von den Benchmarks der GFFX erwartet? Bei 500 MHz vs. 325 habe ich in hohen Auflösungen deutliche Vorteile für die FX erwartet. Das Voting sollte eigentlich nur ein Anreiz sein, in diesen Thread zu kommen :)

Thowe
2003-01-27, 22:21:42
Die Karte ist ein Brutkasten der nichts ausreifen wird, ich glaube auch nicht das zukünftige Treiber etwas reissen werden. Das Ding hat ein Schuss in der Hardware, für Treiber und Layout hatten sie genug Zeit und durchaus auch echte Hardware zum testen. Die Signature von ram triffts schon ganz gut, vor einen Jahr wäre die Karte mit 300-400 Mhz Marktgerecht gewesen, jetzt hängt alles davon ab, wie Unreal 2, DOOM 3 und andere neue Spiele performen werden.

Axel
2003-01-27, 22:29:26
Ich denke, in der Karte steckt einfach nicht mehr drin. Vielleicht ist die Leistungsfähigkeit der PS (oder waren es die VS) noch nicht deutlich geworden, weil die entsprechende Software fehlt. Aber der Chip selbst sollte ausgereift sein, bei den Problemen die der Herstellungsprozeß mit sich brachte, da sollten genügend Probeexemplare abgefallen sein. Die Treiber... naja, eigentlich wird ja immer gesagt, die wären auch schon jetzt fast ausgereift. Ich erwarte dort auch keine Wunderdinge.

nagus
2003-01-27, 22:33:53
was mich wundert. warum braucht eine GPU die in kupfer-prozess und 0,13µm technik gefertigt wird 75(!)W ?!?!?!

AlfredENeumann
2003-01-27, 22:40:58
Noch ein paar Treiberupdates und die Karte läuft schon schneller und vor allem runder. Trotzdem gibt es signifikante Hardware-Designfehler welches es der Ultra-Variante schwer machen unters Volk zu kommen.
Das schlimmste ist die Lautstärke. Aber vielleicht ist es ja beabsichtigt. Nach dem Motto: Wir haben ja ne schnelle Karte, aber kauft bitte die 400MHz-Variante weil hier ist die Ausbeute größer !!!

VoodooJack
2003-01-27, 22:55:20
Mein Voting: Mischung aus allem - die FX ist unausgereift.

Quasar
2003-01-27, 22:58:52
Woran es IMO _nicht_ liegt, ist die Speicherbandbreite. Wen nVidia mit weniger Bandbreite als ATi einen geringeren Einbruch bei 2xFSAA sogar bis in 1600 hinbekommt, ist Bandbreite ausreichend vorhanden. Klar, bei 4x wird's knapp und bei noch höheren Einstellungen zieht die Radeon davon.

Woran noch einiges liegt, denke ich, ist die Art, wie die Textursampler angesprochen werden. Mit "älteren", also aktuellen Titeln werden offenbar, wie hier schon spekuliert, recht umständliche Operationen bezgl. Texturfilterung benötigt. Hier rächt sich, dass nV nach dem Motto "specialization is for insects" vorgegangen ist und ähnlich dem P10 quasi eine VPU geschaffen hat.

Wenn man sich mal die Performance mit dem momentan einzigen Titel anschaut, bei dem mehr als DX7-Hardware richtig gefordert wird, Codecreatures, so wird klar, dass die GFFX so schlecht gar nicht ist. Nur bei aktuellen Titeln reicht's im Ganzen halt nicht für mehr als "nur" ein Unentschieden (wobei ATi aber auch heftig vorgelegt hat!).

Auch das VS-Array scheint bezgl. komplexerer Aufgaben noch einiges mehr in petto zu haben, als viele das angesichts der vormals spekulierten "3 Vetexshader" wohl erwartet hätten.

Ich bin mal gespannt, wann der erste "unreg" hier mal ein paar Benches mit einer höchst illegalen, allseits vorhandenen alpha postet...

ram
2003-01-27, 23:09:24
Originally posted by nggalai
aber Performance-mässig hätte ich nicht mehr erwartet. Nur weil eine Grafikkarte höher getaktet ist, muss sie noch lange nicht in Real-World Applikationen (i.e. Spielen) gleichviel schneller abgehen. Von der Performance her hab' ich an der GFFX eigentlich nichts auszusetzten.

Leistungsmässig durfte man nun wirklich nicht mehr erwarten. IMO ein Lob an Nvidia, dass sie aus dem schmalen Speicherinterface und mit Speicher mit solch miesen Latenzzeiten derart gute Performance rausholen. Dennoch war die Designentscheidung für 128bit wohl falsch. 256bit ist nicht nur schneller, sondern trotz der aufwändigeren Verdrahtung auch billiger.

Exxtreme
2003-01-27, 23:16:03
ram,

Originally posted by ram
Leistungsmässig durfte man nun wirklich nicht mehr erwarten. IMO ein Lob an Nvidia, dass sie aus dem schmalen Speicherinterface und mit Speicher mit solch miesen Latenzzeiten derart gute Performance rausholen. Dennoch war die Designentscheidung für 128bit wohl falsch. 256bit ist nicht nur schneller, sondern trotz der aufwändigeren Verdrahtung auch billiger.

das Problem ist IMHO, daß bei 500 MHz Chiptakt doch mehr hinten rauskommen müsste. Die Karte scheint nicht bandbreitenlimitiert zu sein wie es die Benchmarks von Anand andeuten. Es muss irgendwo anders hacken. An Treiberprobleme glaube ich aber auch nicht. Erstens hatten die Entwickler, bedingt durch die Verspätung, Zeit die Treiber zu optimieren. Und zweitens, hat man sicherlich Benchmarkoptimierung vorgenommen und da kann sich die Karte auch nicht absetzen.

ram
2003-01-27, 23:19:40
Originally posted by Exxtreme
das Problem ist IMHO, daß bei 500 MHz Chiptakt doch mehr hinten rauskommen müsste. Die Karte scheint nicht bandbreitenlimitiert zu sein wie es die Benchmarks von Anand andeuten.

So einfach wie sich Anand das vorstellt ist die Sache IMO nicht.

Exxtreme
2003-01-27, 23:21:45
Originally posted by ram


So einfach wie sie Anand das vorstellt ist die Sache IMO nicht.
Erklärung bitte. :D
Also Anand hat den Speicher gut übertaktet, gebracht hat's praktisch nichts.

Demirug
2003-01-27, 23:26:21
Originally posted by Exxtreme

Erklärung bitte. :D
Also Anand hat den Speicher gut übertaktet, gebracht hat's praktisch nichts.

Ja ein Indiz ist das schon, aber Anand hätte noch eine Gegenprobe machen sollen also runtertakten bis es sich erkennbar auswirkt.

zeckensack
2003-01-27, 23:50:58
NV hat wohl den Bevölkerungsanteil an Tauben und Gehörlosen etwas überschätzt ;)

AlfredENeumann
2003-01-28, 00:50:19
Originally posted by zeckensack
NV hat wohl den Bevölkerungsanteil an Tauben und Gehörlosen etwas überschätzt ;)

Das sagte Beethoven auch immer wenn er tagsüber im Park spazierte "Wir tauben müssen zusammenhalten !!



@aths. Ich würde gerne mal deine meinung über Nvidias neues Flagshiff hören.

Ailuros
2003-01-28, 06:26:01
Originally posted by zeckensack
NV hat wohl den Bevölkerungsanteil an Tauben und Gehörlosen etwas überschätzt ;)

Immer diese Meckereien.......die Karte kommt mit hoch-Qualitativen Ohren-Stoepseln und dazu noch gratis: FXdeaf(tm) ;D

aths,

Was Deine Frage betrifft, bin ich momentan weder enttaeuscht noch ueberwaeltigt. Ich warte lieber ab bis ich noch ein paar Reviews sehe, und wie es mit den Treiberupdates aussehen wird.

Nichtsdestominder lag NV30 oder R300 nie in meinen Plaenen. Da bin ich schon eher auf R400/NV35 fixiert.

JTHawK
2003-01-28, 09:20:37
ich gehe nichmal davon aus das nvida bei der karte mist gebaut hat .. die architektur ist nicht für so hohe taktraten ausgesetzt .. nur mit dieser monster kühlung stabil zu betreiben .. die geringste übertaktung und die karte regelt runter weil sie zu heiss wird ..

in meinen augen hat nvidia ihr ziel von 500 mhz zwar erreicht .. der chip ist eine komplette neuentwicklung .. nur leider ist meiner bescheidenen meinung nach die architektur einfach nicht mehr auf dem stand der dinge .. (ich rede nicht vom fertigungsverfahren) .. sondern eifach vom chipdesign .. oder sagen wir .. man hat mit der FX den sprung zu ATIs R300 gemacht .. dass man ihn in die schranken weisen wollte wird Nvidia nicht mehr offiziell sagen ..

im großen und ganzen sind beide jetzt gleich auf .. nur das ATI technologisch weiter ist .. UND noch taktreserven hat .. was der relaunch als R350 mit 400 mhz zeigen wird .. (ok sind immer noch weniger als Nvidia - aber dafür benötigt der chip nicht diese brachiale rohpower um die leistung zu zeigen .. das ist das selbe AMD - INTEL problem was wir gerade haben ... nich das ATI noch ein performance rating einführt .. damit die DAUs net nur auf die mhz zaheln gucken)

ich freu mich aber schon auf die "DAUs" .. die in den Laden kommen .. die "ach-so-tolle-und-schnelle" GeforceFX kaufen .. und nach 2 Tagen wieder angerannt kommen mit dem Satz: "Das ding is kaputt .. der Lüfter macht komische Geräusche" --- buhahahah .. das wird lustig wenn die dann begreifen das da nix putt ist .. ich glaub die wollen dann ganz schnell umtauschen ..

KM
2003-01-28, 11:43:04
Ich vermute, es liegt am neuen 130nm-Prozess.
Als Intel seine ersten Prozessoren in 130nm-Prozess auslieferte, war die Übertaktung auch nicht gewaltig. Nach rund einem halben Jahr haben sie es einigermaßen unter Kontrolle. Mittlerweile sind bis 3,5 GHz möglich (je nach Prozessor). AMD muss noch am 130nm-Prozess feilen.
NVidia hat sich voll dem anvertraut und wurde "enttäuscht".
ATI baut noch im reifen 150nm-Prozess und wartet bis 130nm reif geworden ist. Ich denke, die stellen sich nebenbei noch auf 130nm um und "drucken" noch im 150nm ihr Geld damit.

Zum Verbrauch:
Der Chip ist am oberen Limit getaktet, und da verbrauchen viele mehr. Die müssen den Prozess in Ordnung bringen
Ein Vergleich:
ATI R300:
40 Watt bei 107Mio Transistoren: 0,375 µW
NVidia GFFX:
75 Watt bei 125Mio Transistoren: 0,6 µW

Ok, so ganz korrekt ist es nicht, aber man kann sehen, dass NVidia den Verbrauch trotz Verringerung des Prozesses den Verbrauch erhöht hat! Es kocht im Chip gewaltig! Kein Wunder für die Turbine!

Unregistered
2003-01-28, 12:14:24
Originally posted by KM
Ich vermute, es liegt am neuen 130nm-Prozess.
Als Intel seine ersten Prozessoren in 130nm-Prozess auslieferte, war die Übertaktung auch nicht gewaltig. Nach rund einem halben Jahr haben sie es einigermaßen unter Kontrolle. Mittlerweile sind bis 3,5 GHz möglich (je nach Prozessor). AMD muss noch am 130nm-Prozess feilen.
....



Hööö? Die ersten 0,13er Northwoods waren der Hammer beim uebertakten.

Unregistered
2003-01-28, 12:18:21
Originally posted by Unregistered



Hööö? Die ersten 0,13er Northwoods waren der Hammer beim uebertakten.

;D

ram
2003-01-28, 13:05:26
Originally posted by Exxtreme
Erklärung bitte. :D
Also Anand hat den Speicher gut übertaktet, gebracht hat's praktisch nichts.

Der FX Speichercontroller mit den Schreibcaches ist offenbar auf synchronen Betrieb (500 core <> 500 MHz Speicher, 400 Core <> 400 MHz Speicher) ausgelegt. Wenn man da einseitig am Speichertakt schraubt, verliert die Schnittstelle an Effizienz und man gewinnt kaum was.

Unregistered
2003-01-28, 13:26:15
Originally posted by ram
Der FX Speichercontroller mit den Schreibcaches ist offenbar auf synchronen Betrieb (500 core <> 500 MHz Speicher, 400 Core <> 400 MHz Speicher) ausgelegt. Wenn man da einseitig am Speichertakt schraubt, verliert die Schnittstelle an Effizienz und man gewinnt kaum was.

Das erklaert auch diesen test von Hardware.fr
http://www.hardware.fr/articles/453/page9.html

Unregistered
2003-01-28, 13:27:12
Ah, Nachtrag:

http://www.hardware.fr/medias/photos_news/00/05/IMG0005784.gif

aths
2003-01-28, 13:53:25
Originally posted by AlfredENeumann
@aths. Ich würde gerne mal deine meinung über Nvidias neues Flagshiff hören. Hätte ich die Ti 4600 noch nicht, sondern wäre mit der Voodoo4 noch immer "ausgehungert" und würde nach was schnellerem lechzen, stünde jetzt die Frage 5800 ohne Ultra vs. 9700 Pro. Ähnlich wie Quasar vermute ich, dass beim NV30 per Treiber noch nachgelegt werden könnte. Erinnern wir uns an den Radeon 8500-Start: Für einige ein Desaster. Weder stimmte die Leistung, noch die Kompatibilität, noch funktionierte Smoothvision... was der NV30 wirklich bringt lässt sich imo erst in einigen Monaten sagen (wo er sich u.U. bereits gegen den R350 messen lassen muss.) Die FlowFX-Kühlung sehe ich als Verzweiflungstat. Lieber 'ne passiv gekühlte GF3 Ti 200 als so ein Monster, meine ich.

aths
2003-01-28, 13:54:10
Originally posted by Ailuros
Nichtsdestominder lag NV30 oder R300 nie in meinen Plaenen. Da bin ich schon eher auf R400/NV35 fixiert. Und ich auf NV45 :)

aths
2003-01-28, 13:55:39
Originally posted by ram
Der FX Speichercontroller mit den Schreibcaches ist offenbar auf synchronen Betrieb (500 core <> 500 MHz Speicher, 400 Core <> 400 MHz Speicher) ausgelegt. Wenn man da einseitig am Speichertakt schraubt, verliert die Schnittstelle an Effizienz und man gewinnt kaum was. Ich stimme da trotz einiger gegenläufigen Indizien zu, dass der NV35 dringend ein 256-Bit-Interface braucht.

Ailuros
2003-01-28, 15:03:14
Nettes Bildchen von Typedef diesmal:

http://home.attbi.com/~typedef.enum/fxoops.jpg

Meine Freundin waere wohl aeusserst zufrieden mit ner FX ;D

robbitop
2003-01-28, 15:49:59
@JTHawK
technologisch gesehen ist es genau anders rum ;-)
Die Shader der R300 sind vom R200 nur leicht verbessert.
NV hingegen hat eine fast komplett neue Architektur hingelegt mit wesendlich flexibleren shadern und TMUs.

Was sie wirklich verbockt haben war das FSAA.

Zum Punkt ProMhz Leistung:
es ist wie Intel und AMD jeder geht einen anderen Weg um Performance zu holen.

Die GF FX hat eine hohe Rohleistung und versucht durch maximalen derzeitigen DDR Takt und Effizienzmassnahmen alles aus einem 256bit DDR Interface zu holen.

Wenn man sich mal die Kurve des "Vorsprungs" der FX anschaut, dann sieht man dass die Bandbreite irgendwann erschöpft ist, aber für ein 128bit DDR Interface auch recht gut.

Die FX ist denke ich einfach nur eine neuentwicklung und musste mit den Problemen des 0,13µ Prozess kämpfen und deshalb kam sie eben später und noch ist nicht aller Tage abend. Ausserdem lässt sich VS/PS 3.0 hier wesendlich leichter nachrüsten und ebenfalls das 256bit DDR Interface. (NV35 vieleicht?).

Tja warum erzeugt das Ding soviel Abwärme?
Weil sie ganz einfach vom ATi "Aufguss" R300 überrascht waren und niemals erwqarteteten dass ein Redesign so viel schneller sein könnte.
(Verbesserungen am R300 so signifikannt dass die schwächen des R200 fast weg waren und verdopplung der Rohpower/Fillrate).
Somit haben sie das Ding ganz einfach übertaktet auf 500Mhz und ich denke die DDR2 2ns Produktion hat den GF FX auch gebremst.

Man darf auch nicht vergessen, dass der NV30 im LowKDielectric prozess hergestellt werden sollte und sie plötzlich wegen instabilitäten ohne diesen auskommen mussten.

zum Treiber: die GF FX ist zur Zeit das einzige wirkliche Neudesign seit der GF1 und der R200 damals und hat deshalb eben beit beta Treibern mit Kinderkrankheiten zu kämpfen. Diese Architektur soll eben noch laut spekulationen bis zum NV4x Vorhalten sie haben eine Hürde durchbrochen und können sich nach dem sie die wichtigsten überwunden haben mit der optimierung und Bugbekämpfung beschäftigen.


Somit sind die logischen schritte klar:
NV30 -> NV35:
256bit DDR
Low K Dielectric for no Staubsauger
6-8AA Sampler pro Pipe und RG 6-8 MSAA.
Bugfreie Treiber.
Chipinternes Bugfixing
damit evl auch 10-20% Taktsteigerung???

MfG
Robbitop

BlackBirdSR
2003-01-28, 16:04:59
Originally posted by robbitop


MfG
Robbitop

soso.. R200 aufguss?

gut zu wissen dass ATI keine 2 Entwicklungsteams am arbeiten hat, und die leute von Gigapixel die R200 als Basis benutzt haben.

robbitop
2003-01-28, 16:12:48
das hat Demirug oben recht schön begründet, ich habe es nur nochmal anders ausgedrückt ;-)

Sicher ist das AA gleichgeblieben und das AF errinnert sehr an das des R200. Jedoch ist es trilinear und das erste winkelabhängige adaptive AF Verfahren von NV, insofern würde ich hier keine grossen abstriche machen.

(und das mit Gigapixel und R200 ist ja wohl wirklich ein bisschen daneben)

btw das "Aufguss" sätzte ich auch aus dem obigen Grund in ANFÜHRUNGSZEICHEN.

zu den 2 Entwicklerteams, da bin ich mir nicht ganz sicher wie EAST und WEST arbeiten..ich denke mal so wie bei NV jeder macht seinen Chip. Doch hat Demirug es begründet und ich denke er wird es wissen.
Auch alle Nachfolgenden Chips des NV10 sind nur "Aufgüsse" mal mehr mal weniger stark...

auch der NV30 ist ein Teilaufguss doch hier wurde eben extrem viel neuentwickelt und ein so komplexer chip brauchte viel Zeit und ENtwickler, deswegen sind Gigapixel/3dfx an Board, nicht wegen ihrer Ideen.

Exxtreme
2003-01-28, 16:20:29
Robbitop,

eigentlich ist jeder Chip irgendwo ein Aufguss. Und auch der NV30 ist keine vollständige Neuentwicklung. Es sind wahrscheinlich mehr Änderungen drin als bei GF2 -> GF3 -> GF4Ti aber wie man z.B. am Antialiasing sieht, so vollständig neu ist das Design auch nicht. Da hat ATi deutlich mehr Änderungen in den Chipgenerationen drin gehabt. Und wie man sieht, hat auch NV mit Schwierigkeiten zu kämpfen bei der Treiberentwicklung obwohl die Treiberabteilung doch relativ viel Zeit hatte die Treiber zu optimieren und die Bugs zu beseitigen. Und man sieht auch ganz deutlich, was die unified driver architecture auch bei NV in der Praxis bedeutet (:wink: @ ow).

aths
2003-01-28, 16:40:13
Originally posted by robbitop
6-8AA Sampler pro Pipe und RG 6-8 MSAA.Es reicht nicht, einfach nur mehr Sampler zu haben. NV2x und NV3x haben 4 Sampler, können aber kein 4x RG.

BlackBirdSR
2003-01-28, 16:51:27
Originally posted by robbitop
das hat Demirug oben recht schön begründet, ich habe es nur nochmal anders ausgedrückt ;-)

Sicher ist das AA gleichgeblieben und das AF errinnert sehr an das des R200. Jedoch ist es trilinear und das erste winkelabhängige adaptive AF Verfahren von NV, insofern würde ich hier keine grossen abstriche machen.

(und das mit Gigapixel und R200 ist ja wohl wirklich ein bisschen daneben)


weil ich auch ArtX meinte, und nicht Gigapixel ;)

robbitop
2003-01-28, 17:02:12
BlaclBird: ansonsrten ack?

@Aths: "Es reicht nicht, einfach nur mehr Sampler zu haben. NV2x und NV3x haben 4 Sampler, können aber kein 4x RG."

hab ich gesagt dass diese Änderung dass hervorruft?
ich weiss dass es nicht so ist, bin in dem bereich auch nich ganz ungebildet ;-) habs nur vergessen aufzuschreiben

Pirx
2003-01-28, 18:04:41
@Robbitop

"Low K Dielectric for no Staubsauger"

Soll das viel in Richtung weniger Verlustleistung bringen? Das würde dann doch bestimmt durch dein 10-20% Mehrtakt "aufgefressen".

Ist NV30 in Cu-Prozess gefertigt?

robbitop
2003-01-28, 18:08:37
we will see, ausserdem kann man ein bisschen thermisches Redesign machen, und optimierung, ich denke das klappt schon, denn Flow FX ist wohl eine Verzweiflungstat, um den oc GF5 stabil zu halten.

Demirug
2003-01-28, 18:08:44
Originally posted by Pirx
Ist NV30 in Cu-Prozess gefertigt?

0,13 ist bei TSMC immer Kupfer.

askibo
2003-01-28, 18:18:50
Welcher 0,15µ Fertigunsprozess ist denn für den R350 vorgesehen? Al oder Cu?

seahawk
2003-01-28, 18:57:04
Ich glaube immer mehr an die Treiber.

Laut Beyond 3D verfügen die 42.63 noch nicht mal über DX 9 Funktionalität. Wer weiß welche anderen leistungsfördernden Maßnahmen noch nicht aktiviert oder nur zum Teil genutzt werden.

Außerdem hat einer Ahnung welches Stepping der Test GPU hatte ??

Weiterhin liegen die Angaben von NV und den Herstellern im Bezug auf FX Flow und die Testberichte soweit auseinander, dass ich mir auch vorstellen kann, dass es ein Vorserienmodell war.

Spake
2003-01-28, 19:18:45
ich glaube immer mehr an die komplett neuen wege der fx mit ihrem VS Array und der pipeline-architektur
nv hat dort einfach zu viel zun schnell veränder/verbessern wollen und deshalb ist die leistung im moment nicht auf dem niveau einer konventionellen lösung
selbst der P10 von 3Dlabs setzt größtenteils noch auf eine normale architektur

nicht dass mich jm falsch versteht aber ich hab nichts gegen die leistung:
sie schlagen eine R9700Pro aber eben im nicht in den maßen welche ich bei 500 Core erwartet hätte

an der speicherbandbreite liegt es aber wohl nicht sondern eher am Core
nvidia hat Ati beim design wohl unterschätzt und bügelt dass durch einen hohen takt aus

Mehrpack
2003-01-28, 19:49:30
Originally posted by seahawk
Ich glaube immer mehr an die Treiber.

Laut Beyond 3D verfügen die 42.63 noch nicht mal über DX 9 Funktionalität. Wer weiß welche anderen leistungsfördernden Maßnahmen noch nicht aktiviert oder nur zum Teil genutzt werden.

Außerdem hat einer Ahnung welches Stepping der Test GPU hatte ??

Weiterhin liegen die Angaben von NV und den Herstellern im Bezug auf FX Flow und die Testberichte soweit auseinander, dass ich mir auch vorstellen kann, dass es ein Vorserienmodell war.

hi,
wegen der lautstärke, da kann man viel sagen, auf vielen billig lüftern steht auf leise drauf, bloss sowas ist immer realtiv, jemand der auf ner baustelle arbeitet wird diese FX Flow als leise empfinden, und nen DJ dürfte da garnix mehr hören ;), bloss jemand der in nem ruhigen büro arbeitet wird sich die haare raufen.

es mag zwar sein das nvidia was noch aus den treiber rausholn kann aber wäre es da nicht noch besser gewesen 2 oder 3 wochen zu warten bis die neuen treiber verfügbar sind, bei dem verzug hätte das keinen grossen unterschied mehr gemacht, und dann den testern die besseren treiber zum testen in die die hand zu drücken?
ausserdem waren die GF3 treiber und die r300 treiber am anfang auch nicht DX8 bzw DX9 fähig.
bloss weile diese unterstützung noch fehlt kann man jetzt nicht sagen das dann die karte noch schneller wird.
klar ist nur eins das noch weitere treiberrevisionen kommen werden, wie die sich auswirken muss man sehn.
bloss ein nachtest zieht nie solche beachtung auf sich wie die ersten finaltest.

Mehrpack

Crazytype
2003-01-28, 20:01:50
meines wissens gibs doch ein dx9 fähigen nv treiber der 42.9x oder so.

nggalai
2003-01-28, 20:13:31
Hi seahawk,
Originally posted by seahawk
Außerdem hat einer Ahnung welches Stepping der Test GPU hatte ??
Thilo hatte eine A2, was dem final stepping (i.e. Verkauf-Produkt) entspricht.

ta,
-Sascha.rb

Hauwech
2003-01-28, 20:36:54
@nggalai
Hmm wuerde vermuten das wir in ein paar Monaten neuere Steppings sehen. Die werden staendig verbessern, nicht nur die Ausbeute und alles so belassen. Das der low-k bis jetzt noch nicht funktioniert heisst nicht das die es in spaeteren Steppings nicht vielleicht doch noch einbringen. Vielleicht weiss ja CMKRNL schon etwas mehr? :)

nggalai
2003-01-28, 21:53:34
Hi Hauwech,

Naja, angesichts dessen, dass schon recht bald NV31 und NV34 da sind, und der NV35 sicherlich auch nicht mehr sooo lange auf sich warten lassen wird, würd's mich schon wundern, wenn da noch eine grosse Revision zu kämte.

ta,
-Sascha.rb

betasilie
2003-01-29, 04:19:51
Die ganze Hardware hat nen Wurm. Der Speicherdurchsatz ist zu klein und der Chip liefert für 500MHz viel zu wenig. Warscheinlich ist das Bordlayout auch viel zu heftig und daher unausgereift.

Crushinator
2003-01-29, 04:28:32
Ich habe für "Mischung aus allem" gevotet, weil es IMHO offensichtlich ist, daß sowohl die Treiber unausgereift sind, Speicherinterface für höhere AA-Modi nicht ausreichend und die Hardware z.Z. einfach am Ende ist.

Was mich aber echt wundert ist, daß NV solange (fast 3 Monate) nach der ersten Vorstellung in Nov. - wo der Beweis erbracht wurde, daß die Karte als "fertige" Hardware existiert - immer noch nicht den Treiber "fertiggestellt" hat. Das hätte ich nie und nimmer gedacht, und ich bin bekanntlich kein NV-Fan.

Es bleibt eigentlich nur zu hoffen, daß der endgültige Treiber noch was rausholt, denn für eine Hardwareänderung ist es schon viel zu spät.

seahawk
2003-01-29, 08:33:48
Originally posted by nggalai
Hi Hauwech,

Naja, angesichts dessen, dass schon recht bald NV31 und NV34 da sind, und der NV35 sicherlich auch nicht mehr sooo lange auf sich warten lassen wird, würd's mich schon wundern, wenn da noch eine grosse Revision zu kämte.

ta,
-Sascha.rb

Du meinst, dass NV den NV35 vorzieht, da der NV30 nicht mehr viel Potential hat ?

Salvee
2003-01-29, 08:49:20
NV35 hat doch höchstwahrscheinlich nicht mal das erste Tapeout hinter sich.
Vor Oktober/November würde ich mir da keine grossen Hoffnungen machen.

nggalai
2003-01-29, 09:05:40
Hi seahawk,

nö, eher wie's Salvee gebracht hat:Originally posted by Salvee
Vor Oktober/November würde ich mir da keine grossen Hoffnungen machen. Eine neue Revision des NV30 macht man nicht über Nacht, und kostet ziemlich Kohle. Was liegt näher, als das Ding so zu lassen wie's jetzt ist (wird sich auch so verkaufen), dann schnellstmöglich (billigere/leisere ;)) NV31 Karten nachzuschieben, um in einem grösseren Markt Bestand zu haben, und dann Mitte Jahr den NV35 anzukündigen und im Q3/4 auszuliefern? So nachm Motto "möglichst schnell drüberwischen, dann hat's niemand gesehen". ;)

War das bei der Geforce SDR und Geforce DDR nicht ähnlich? Die Karten kamen recht schnell nacheinander auf den Markt.

ta,
-Sascha.rb

Axel
2003-01-29, 09:15:50
Originally posted by nggalai

War das bei der Geforce SDR und Geforce DDR nicht ähnlich? Die Karten kamen recht schnell nacheinander auf den Markt.

ta,
-Sascha.rb

Die DDR-Variante war so etwas wie die ultra-Version. Beide wurden gleichzeitig angekündigt und ausgeliefert.

Ich persönlich weis immer noch nicht, was ich von der FX halten soll. Jetzt gibt es wieder Gerüchte, daß die DX9-Fähigkeiten nur provisorisch implementiert worden und ob das AA nun auf dem Stand ist, den es haben soll, ist auch fraglich. Ich habe den Eindruck, daß die Probleme nicht nur beim Fertigungsprozeß liegen. Ein schnell nachgeschobener NV35 macht deshalb momentan keinen Sinn, da er mit denselben Problemen belastet wäre.

oO_KIWI_Oo
2003-01-29, 09:21:37
Ich denke das Teil muss auf jeden Fall noch mal "revisioniert" werden. Für mich macht die ganze Karte einfach einen sehr unausgereiften Eindruck. Das fängt beim Kühler an, geht über die Speicherbandbreite bis zum Treiber.

Ich denke auch, das nV mit den Treibern noch einiges gut machen kann, aber an den großen Wurf glaube ich mit diesem Design nicht ;)

Bevor ich mir so ein Teil hole, muss der Staubsauger weg und der Chip überarbeitet werden.

fckwman
2003-01-29, 14:36:59
Originally posted by askibo
Welcher 0,15µ Fertigunsprozess ist denn für den R350 vorgesehen? Al oder Cu?

Der R350 is angeblich auch schon 0,13µ.

http://www.k-hardware.de/news.php?s=&news_id=1570

askibo
2003-01-29, 14:49:43
Originally posted by fckwman


Der R350 is angeblich auch schon 0,13µ.

http://www.k-hardware.de/news.php?s=&news_id=1570

Naja, das ist mal wieder so eine typische "Inquirer-Fuad" Meldung. ;)

Das Tapeout des R350 war ja in 0,15. Ich kann mir nicht vorstellen dass das jetzt noch kurzfristig geändert wurde.

robbitop
2003-01-29, 15:16:41
mhhh naja so schlecht ist der GF FX nun auch wieder nicht, dass man diese untergangsstimmung verbreiten muss.

Treiber bessern sich sicher und die Shader sind etwas komplett neues und auch die TMUs..nur die AA Sampler und die Art wie man sie nutzt scheinen alt zu sein und evl das Speicherinterface.

Und so schlecht isses für 128bit DDR nicht.

Immerhin 20% Vorsprung ok dieser schmilzt nach Auiflösung wieder ein,
das liegt sicher auch an der Bandbreite.
Da hat sich NV eben vertan und in letzter Sekunde das Teil "übertaktet" ^^

aber wenn es ein 256bit DDR Interface bekommt und ein neues RG Grid, dann ist sie meiner meinung nach sicher nicht schlecht.

Das mit den 74W glaube ich sowieso noch nicht so ganz, weil dort sogar der Grosse alpha 8045 ins schwitzen kommt, das ist die Abwärme eines TB1400.naja und wer Wasserkühlung besitzt, den wird das eh nicht stören ;-)

okok die Abwärme muss sich ändern...aber das wäre bei der R300 sicher ähnlich bei den Takten (gleicher Fertigungsprozess vorrausgesetzt).
So wies aussieht muss beim nächsten Chip lowk Dielectric her.

Spake
2003-01-29, 16:59:11
ich glaube eher daran dass sich nvidia mit ihrer pipeline-architektur und iher VS-array überarbeitet hat oder dass die karte noch ein paar-verschlimmbesserungen hat

jedenfalls iher pipes sind ja ein bissl "komisch" und deshalb können die wohl bei einem hohem takt keine überzeugende fillrate haben könnte doch zutreffen oder?

und dass mit ihrem VS-array könnte zusammen mit ihren pipes zu einem schlechten ergebnis bei nature führen welches ja doch ein paar ganz nette shader voraussetzt

könnte sein dass die noch etwas per treiber nachbügeln können aber dass scheint ihr kleinstes prob zu sein

robbitop
2003-01-29, 17:27:15
der Fillratentest von 3DMark ist ein Bandbreiten test.
Somit kann man nix genaues über die Füllrate sagen.
Zu den Pipes sollte Demirug etwas sagen und ob wer weiss, ob die Pipearchitektur ineefizienter als die des R300 ist (ich denke nach wie vor, dass die Bandbreite der Fehlende BAustein zum Speed ist)

Der Naturetest nutzt afaik doch den Vertexshader, oder?

Spake
2003-01-29, 17:48:16
@ robbitop
wieos 3Dmurks
wo rede ich von fillrate und 3dmurks
cih sagte nur dass die fillrate fehlt:
wenn selbst realworld-games die fillrate nett wirklich ausnutzen können
die betonung hierbie auf realworld sprich q3 ut2003 etc.

und außerdem :
nature nutz im prinzip doch eher beides:
sowohl PS als auch VS
wieso sonst ein so gutes wasser

und ähm dort wo bandbreit doch ganz wichtig ist:
bei AA scheint die fx doch eher nicht zu lahmen und eine übertaktung des speichers scheint auch nichts zu bringen

abe rich stimme dir zu dass demirug etc ihren senf dazu geben sollten

Demirug
2003-01-29, 17:54:55
Originally posted by robbitop
der Fillratentest von 3DMark ist ein Bandbreiten test.
Somit kann man nix genaues über die Füllrate sagen.
Zu den Pipes sollte Demirug etwas sagen und ob wer weiss, ob die Pipearchitektur ineefizienter als die des R300 ist (ich denke nach wie vor, dass die Bandbreite der Fehlende BAustein zum Speed ist)

Der Naturetest nutzt afaik doch den Vertexshader, oder?

Der Fillratetest misst schon die Fillrate aber er wird (gerade beim ST) sehr oft von der Bandbreite eingeschrängt.

Ob die Pipes des NV30 nun ineffizienter sind als die des R300 ist sehr schwer zu sagen vorallem da NVIDIA nicht gerade viel über den Aufbau verraten hat.

ATI hat das R200 Problem des gegenseitigen Blockieren von TMUs und ALUs in den R300 "übernommen".

Im NV25 hatte NVIDIA dieses Problem definitive auch. Das war mir über den NV30 bekannt ist deutet darauf hin das man dieses Problem einigermassen gelösst hat aber dem Treiber abverlangt das er die Shader für diese Architektur passend optimiert.

Aber was nun wirklich besser ist können nur Tests zeigen.

aths
2003-01-29, 19:48:59
Originally posted by Demirug
ATI hat das R200 Problem des gegenseitigen Blockieren von TMUs und ALUs in den R300 "übernommen".

Im NV25 hatte NVIDIA dieses Problem definitive auch. Wie ist das zu verstehen? Spielst du darauf an, dass beim NV25 eine Pipeline eine fest definierte Anzahl Pixelshader-Ops ausführen kann?

Demirug
2003-01-29, 20:34:41
Originally posted by aths
Wie ist das zu verstehen? Spielst du darauf an, dass beim NV25 eine Pipeline eine fest definierte Anzahl Pixelshader-Ops ausführen kann?

Nein, es geht um folgenden Zusammenhang:

NV20/25:

Bekanntermassen bis 4 Texturops und bis zu 8 Colorops. Die Takte für die Colorops lassen sich leicht ausrechnen da ja pro Takt zwei Befehle ausgeführt werden. Also nach maximal 4 Takten ist der Colorteil eines PS durchs. Bei den Texturops hängt die Anzahl der Takte aber auch von den benutzten Filtern (bi, tri, af) ab.

Braucht man also zum Ausführen der Texturops mehr Takte als für den Colorteil läuft dieser leer. Umgekehrt gilt das gleiche.

R300: ACHTUNG ATI hat das bisher nicht bestätigt. Es handelt sich um eine Vermutung meinerseits aufgrund von Aussagen von ATI und der PS 2.0 Spezifikation

Auch hier werden die Textur und Arithmetic ops parralele für zwei Pixel ausgeführt.

Texture
Arithmetic
1.Phase
Texture
Arithmetic
2.Phase
Texture
Arithmetic
3.Phase
Texture
Arithmetic
4.Phase
Texture
Arithmetic

Für jeder der 5 Phasen gilt nun das gleiche wie für den NV2x PS. Brauchen die Texturops mehr Takte als die Arithmeticops laufen die ALUs leer und umgekehrt.

NV30: Auch hier ist wieder ein spekulativer Anteil drin.

Hier wurde die Trennung von Textur und Arithmeticops aufgehoben. Trift der PS auf eine Texturop startet er den Fetch macht aber sofort mit der nächsten Anweisung weiter bis er auf eine Anweisung trift welche den Texturwert braucht. Sollte dieser aber noch nicht vorhanden sein ist auch hier warten angesagt. Der Trick besteht also darin Texturewerte so früh wie möglich zu fetchen und so spät wie möglich zu benutzen. Da man aber nicht erwarten kann das sich alle Shaderschreiber an diese Regel halten muss der Treiber den Shader notfalls optimieren (Ich denke mal das dieser Code noch komplett fehlt).

Razor
2003-02-02, 12:10:37
Originally posted by Exxtreme

Und man sieht auch ganz deutlich, was die unified driver architecture auch bei NV in der Praxis bedeutet (:wink: @ ow).
Was auch immer Du damit zum Ausdruck bringen möchtest...
Korrigier mich, aber soweit ich weiß, gibt es noch keinen finalen gffx-Treiber.

Somit haben sie ganz offizell noch einen BETA-Status !

Deswegen finde ich diese Fragestellung auch reichlich merkwürdig, weil man zum jetzigen Zeitpunkt eigentlich noch überhaupt nichts sagen kann. Und da die Treiber eindeutig BETA sind, sollte man erst einmal in diese Richtung schauen.

Erst wenn damit alles OK ist, darf man gerne Rückschlüsse ziehen...
Klar wird die 'ultra' zu schnell laufen und deswegen solch eine exorbitante Kühlung benötigen, damit aber auf die Architektur rückschließen zu wollen, ist sicher nicht legitim.

nggalai hat da schon vollkommen recht:
Treiber, Hardware, sonstwas oder nix !
;-)

In diesem Sinne

Razor

Razor
2003-02-02, 12:16:49
Originally posted by Mehrpack

es mag zwar sein das nvidia was noch aus den treiber rausholn kann aber wäre es da nicht noch besser gewesen 2 oder 3 wochen zu warten bis die neuen treiber verfügbar sind, bei dem verzug hätte das keinen grossen unterschied mehr gemacht, und dann den testern die besseren treiber zum testen in die die hand zu drücken?
Die Zeit... die liebe Zeit...

nVidia war sowieso schon viel zu spät dran. Hätten Sie jatzt auch die CeBit verpaßt (auf der sie ja die Mainstream-Produkte vorstellen wollen), hättes das richtig Zeit gekostet.

Sie hatten einfach keine andere Wahl und deswegen die unfertigen Treiber und auch dieses höllische 'FX flow'... eine Verzweiflungstat eben (TM@aths ;-).

Mal schauen, was sie noch daraus machen, aber warten hätten sie sicher nicht mehr können.

Bis denne

Razor

Razor
2003-02-02, 12:21:47
Originally posted by nggalai
War das bei der Geforce SDR und Geforce DDR nicht ähnlich? Die Karten kamen recht schnell nacheinander auf den Markt.

ta,
-Sascha.rb
Genau das geht mir auch durch den Kopf...
Nu kann ich ums Verrecken nicht mehr daran erinnern, wieviel zeitlicher Abstand dazwischen war.

Aber gleiches Spiel: 'rückständiges' Speicherinterface, ungenügende Leistung...
Ob das auch auf die gffx zutrifft, mag mal dahin gestellt sein, aber die Situation ist die gleiche.

Und auch das Debakel 'gfsdr' wurde sehr schnell vergessen !
Weisst Du, wie schnell dann die gfddr nachgeschoben wurde ?
Ich meine mich an ca. 3 Monate erinnern zu können...

Bis denne

Razor

Unregistered
2003-02-02, 13:36:21
Originally posted by Razor

Genau das geht mir auch durch den Kopf...
Nu kann ich ums Verrecken nicht mehr daran erinnern, wieviel zeitlicher Abstand dazwischen war.

Aber gleiches Spiel: 'rückständiges' Speicherinterface, ungenügende Leistung...
Ob das auch auf die gffx zutrifft, mag mal dahin gestellt sein, aber die Situation ist die gleiche.

Und auch das Debakel 'gfsdr' wurde sehr schnell vergessen !
Weisst Du, wie schnell dann die gfddr nachgeschoben wurde ?
Ich meine mich an ca. 3 Monate erinnern zu können...

Bis denne

Razor

Nein, die GF1 SDR war kein wirkliches Debakel, weil es keine wirkliche Konkurrenz gab.

Mehrpack
2003-02-02, 17:52:11
Originally posted by Razor

Die Zeit... die liebe Zeit...

nVidia war sowieso schon viel zu spät dran. Hätten Sie jatzt auch die CeBit verpaßt (auf der sie ja die Mainstream-Produkte vorstellen wollen), hättes das richtig Zeit gekostet.

Sie hatten einfach keine andere Wahl und deswegen die unfertigen Treiber und auch dieses höllische 'FX flow'... eine Verzweiflungstat eben (TM@aths ;-).

Mal schauen, was sie noch daraus machen, aber warten hätten sie sicher nicht mehr können.

Bis denne

Razor

hi,
ob sie nun die dinger erst mitte febura zum testen geschickt hätten, hätte ja auch die cebit nicht verpasst.
ausserdem bei der verspätung seh ich es eher als nicht mehr relevant an noch 2 oder 3 wochen zu warten.
naja egal.

soweit ich weiss war zwischen der Geforce 256 SDR und der mit DRR gut 3 abstand oder sogar etwas mehr.
ich kann mich bloss net mehr so daran errinnern.

Mehrpack

Com1
2003-02-02, 23:33:20
Ich habe für Hardware Fehler gestimmt. Die 0.13 µ Fertigung macht wohl noch starke Probleme... anders kann ich die großen Hitzprobleme der Karte nicht erklären, NV hätte sonst auch kaum zu so harten Maßnahmen wie FX-Flow oder automatische Takt-Drosselung gegriffen.

Andreas Tidl
2003-02-03, 23:37:32
Meine Stimme wurde bei den Treiberungereimtheiten eingetragen, da ich der Meinung bin, dass es Nvidia gelingen wird die Defizite mit einem ähnlich guten "Wunderdetonator" wie zu Zeiten des Radeon 8500 Releases auszugleichen. Dieser Treiber befähigte auch damals schon die nvidiaschen Karten zu vorher für unmöglich gehaltener Leistung. ATI wurde damals regelrecht demoralisiert.

Ailuros
2003-02-04, 12:08:56
Dabei war es in letzter Zeit aber nicht immer so. Die 40xx-er Serie versprach auch einen bis zu 25% Aufschwung, der aber wohl nur Anwendungen wie Codecreatures oder 3dmark betrafen, die mich eigentlich wenig interessieren.

Mal abgesehen davon es sieht tatsaechlich so aus als ob da noch so einiger Raum da ist fuer Leistungs-Verbesserungen. Allein die Vertex Shader Leistung sieht zu niedrig aus, als Beispiel.

Irgendwie hab ich das Gefuehl dass ATI diesmal auch das vorgesehen hat, sonst haetten sie auch keinen refresh fuer den R300 geplant.

Unregistered
2003-02-04, 12:43:03
Originally posted by Andreas Tidl
Meine Stimme wurde bei den Treiberungereimtheiten eingetragen, da ich der Meinung bin, dass es Nvidia gelingen wird die Defizite mit einem ähnlich guten "Wunderdetonator" wie zu Zeiten des Radeon 8500 Releases auszugleichen. Dieser Treiber befähigte auch damals schon die nvidiaschen Karten zu vorher für unmöglich gehaltener Leistung. ATI wurde damals regelrecht demoralisiert.

Jaja, damals...., da war noch alles anders (besser?).

Mein Tip, die Organisation des Chips (Pipelines etc.) wurde umgestellt. So wird der Nv30 aber zu Lebzeiten davon nicht mehr profitieren.

Ailuros
2003-02-08, 04:46:08
Also wenn HardOCP's letzte Notiz dann doch stimmt, dann hatte der Inquirer gar nicht zuviel unrecht letztendes:

GFFX Ultra No More:
As we noted here Thursday, the GeForceFX 5800 Ultra will never make it to retail. Those of you that PreBuy the cards will still get an Ultra model with the FX Flow cooling unit. Those who don't will have the opportunity to get the non-Ultra version (500/800) off the retail shelves for a price of US$300.00 although the price is not confirmed.

Jetzt beginnt es so langsam aber wirklich schlecht fuer NV auszusehen...

aths
2003-02-08, 05:09:57
Originally posted by Ailuros
Jetzt beginnt es so langsam aber wirklich schlecht fuer NV auszusehen... Die normale Version soll mit 500/"800" getaktet sein? Ich denke, 400/400 ("800") ist der Takt?

Ailuros
2003-02-08, 05:16:58
Hab ich auch schon bemerkt, aber die Sache mit der FX-Ultra wurde schon mehr als zu oft erwaehnt, was wohl kein Zufall sein kann.

Demirug
2003-02-08, 10:18:53
Originally posted by Ailuros
Hab ich auch schon bemerkt, aber die Sache mit der FX-Ultra wurde schon mehr als zu oft erwaehnt, was wohl kein Zufall sein kann.

Ja, oder mal wieder ein Fall von "Wer hat bei wem abgeschrieben"

Ailuros
2003-02-08, 14:42:28
Normalerweise sind inoffizielle Antworten fuer solche Fragen schnell beantwortet. Wenn's zu still wird, dann kann so manches verdaechtig sein.

Abgesehen davon waere ein solches Geruecht nur aus purer Luft gegriffen, sehe ich wenig Grund warum eine Firma nicht die Behauptungen sofort verleugnet.

JTHawK
2003-02-09, 20:06:41
Originally posted by JTHawK
ich gehe nichmal davon aus das nvida bei der karte mist gebaut hat .. die architektur ist nicht für so hohe taktraten ausgesetzt .. nur mit dieser monster kühlung stabil zu betreiben .. die geringste übertaktung und die karte regelt runter weil sie zu heiss wird ..

in meinen augen hat nvidia ihr ziel von 500 mhz zwar erreicht .. der chip ist eine komplette neuentwicklung .. nur leider ist meiner bescheidenen meinung nach die architektur einfach nicht mehr auf dem stand der dinge .. (ich rede nicht vom fertigungsverfahren) .. sondern eifach vom chipdesign .. oder sagen wir .. man hat mit der FX den sprung zu ATIs R300 gemacht .. dass man ihn in die schranken weisen wollte wird Nvidia nicht mehr offiziell sagen ..

im großen und ganzen sind beide jetzt gleich auf .. nur das ATI technologisch weiter ist .. UND noch taktreserven hat .. was der relaunch als R350 mit 400 mhz zeigen wird .. (ok sind immer noch weniger als Nvidia - aber dafür benötigt der chip nicht diese brachiale rohpower um die leistung zu zeigen .. das ist das selbe AMD - INTEL problem was wir gerade haben ... nich das ATI noch ein performance rating einführt .. damit die DAUs net nur auf die mhz zaheln gucken)

da hab ich doch mal recht gehabt .. die ultra einzustellen und nur noch die normale zu vermarkten ist das eizige was nvidia den hals rettet .. ein ultra debakel auf dem markt konnten auch die sich nicht lesiten .. das haben die marketing experten aus dem haus erkannt und das einzig richtige gemacht .. weg mit der ultra - zu viel aufwand für zu wenig gewinn ..

Richthofen
2003-02-13, 22:38:01
gewinn wird in dem bereich bei Nvidia eh keiner gemacht.
Wie man an den Zahlen vom aktuellen Quartal sehen kann.
Satte 50 Mio Gewinn. Kann mir eigentlich nicht vorstellen das da schon GF FX Chips dabei sind im grossen Umfang :)

Andreas Tidl
2003-02-13, 23:13:41
Originally posted by Richthofen
gewinn wird in dem bereich bei Nvidia eh keiner gemacht.
Wie man an den Zahlen vom aktuellen Quartal sehen kann.
Satte 50 Mio Gewinn. Kann mir eigentlich nicht vorstellen das da schon GF FX Chips dabei sind im grossen Umfang :)

Denke ich auch nicht. In der 3DMark Datenbank sind ohnehin gerade einmal 2 Einträge von GFX Quadro Boards (300/400 Mhz). Scheint also, dass nur Entwickler oder wichtige Kunden ein Board erhalten haben und das man sicher Probleme mit den hohen Taktraten hat.

Bin mir aber nach wie vor nicht sicher, ob die nicht-Existenz der GeForceFx wirklich soviel in Nvidias Bilanzen ausmachen wird? Das Kerngeschäft läuft mit Sicherheit immer noch blendend, weil der gute Name halt auch was hermacht und nicht jeder gleich auf aktuelle Trends setzt. Nicht jeder, der eine Grafikkarte kauftm gehört zu den 3Dcenter Enthusiasten von denen scheinbar jetzt schon 50% eine Radeon 9xxx zu haben scheinen. ;)

Von daher könnte ich mir gut vorstellen, dass sich Nvidia gerade noch so bis zum neuen Chip wird "retten" können. Vorrausgesetzt natürlich, dass die nächste Generation auch zeitlich erscheint und qualtitativ den jetzigen "Flop-Chip" kompensieren kann.


Andreas

Pussycat
2003-02-17, 21:35:16
Naja, auch Lamestar-leser wissen jetzt, dass die GFFX nicht so super ist. Aber viele haben ja nichtmal Lamestar-niveau :'(.

Nichtdestotrotz wird NV es prima überstehen können. Nur falls auch der nv35 ein rie-se-flop wird mach ich mich da ernsthaft sorgen. Jetzt haben die ja noch die Hälfte mehr Marktanteile als ATI.

2B-Maverick
2003-02-24, 10:04:51
Originally posted by Pussycat
Naja, auch Lamestar-leser wissen jetzt, dass die GFFX nicht so super ist. Aber viele haben ja nichtmal Lamestar-niveau :'(.

Nichtdestotrotz wird NV es prima überstehen können. Nur falls auch der nv35 ein rie-se-flop wird mach ich mich da ernsthaft sorgen. Jetzt haben die ja noch die Hälfte mehr Marktanteile als ATI.

Ich frage mich nur, was NV beim NV35 grossartig ändern will:
dieses verkappte 4x2 + irgendwas Layout der Pipes wird ja wohl kaum verändert werden.
Und gerade das macht momentan ja wohl Probleme (mindestens für die Treiber-Programmierer).
DX9 hat min. 24Bit pro Kanal Anforderung -> statt FP16 müsste NV also FP32 nutzen.. und das läuft nur halb so schnell wie ATIs 24Bit implementierung.

Ich sehe daher bis zum NV40 erst mal schwarz für NV.

Pussycat
2003-02-24, 23:02:56
Ich mache mich auch um den nv31 Sorgen. Irgendwie bleibt da nicht viel übrig, wenn man noch mal die Hälfte der schlechten pipes rausnimmt.

Unregistered
2003-02-25, 14:31:42
Originally posted by Richthofen
gewinn wird in dem bereich bei Nvidia eh keiner gemacht.
Wie man an den Zahlen vom aktuellen Quartal sehen kann.
Satte 50 Mio Gewinn. Kann mir eigentlich nicht vorstellen das da schon GF FX Chips dabei sind im grossen Umfang :)


Hä? Ich denke das waren größtenteils Rückstellungen. Du laberst dir auch alles so hin, wie du es brauchst.

Richthofen
2003-02-25, 16:36:24
Was denn zum Teufel bitte für Rückstellungen???

Endorphine
2003-02-25, 17:43:25
Originally posted by Richthofen
Was denn zum Teufel bitte für Rückstellungen??? Vermutung: Er hat wahrscheinlich keine Ahnung von Wirtschaft und meint entweder Rücklagen (oder -bildung) oder Abschreibungen.

Kann mir unter "Rückstellungen" auch nichts vorstellen...

LovesuckZ
2003-02-25, 18:12:46
Hm, vielleicht wird der NV35 ein richtiges 8*1 Design bekommen. Und wenn nvidia ihre NV31 auf diesen Design aufgebaut haben bzw abgebaut, dann duerfte der NV31 keine Probs mit dem 4*1 haben.
Wie sollte es sonst aussehen? 2*2*1 ?

Richthofen
2003-02-25, 18:40:07
"
Vermutung: Er hat wahrscheinlich keine Ahnung von Wirtschaft und meint entweder Rücklagen (oder -bildung) oder Abschreibungen.

Kann mir unter "Rückstellungen" auch nichts vorstellen...
"

Nene es gibt schon Rückstellungen in Bilanzen zb. Rückstellungen für Pensionen usw...
Aber ich wollte von ihm wissen von was für Rückstellungen er in Bezug auf die tadellose NV Bilanz vom 4. Quartal 2002 redet, da ich mich da an keine nennenswerte Zahl erinnere.
Und da ich denke das er da geistigen Dünschiss geredet hat, würd ich gern von ihm Aufklärung haben.

Dad is ja das schöne. Mich interessiert eigentlich überhaupt nicht ob nun High End Karte XY so und soviel % schneller ist und das bessere P/L Verhältnis hat.
Mich interessiert nur was hinten rauskommt an Cash. Firmen die dauerhaft nix erwirtschaften sind für mich nen Dreck wert. Die mach ma lieber schnell dicht, dann verdienen die anderen mehr, zumal das bessere P/L schon immer die schlechtere Firma mit dem schlechteren Image hatte.
Wer zahlt schon gern für nen mieses Image das selbe wie für nen gutes Image. Ne Marke bleibt halt ne Marke.

Um das Ganze mal auf den Punkt zu bringen hier mal die wichtige Passage aus dem Press Release:
"
For the fourth quarter of fiscal 2003, revenues were $469.0 million, compared to $503.7 million for the fourth quarter of fiscal 2002. Net income for the fourth quarter of fiscal 2003 was $50.9 million, or $0.30 per diluted share, compared to net income of $76.0 million, or $0.43 per diluted share, for the fourth quarter of fiscal 2002.

On February 6, 2003, NVIDIA and Microsoft announced the settlement of all issues related to pricing of the Microsoft Xbox GPU and MCP chips. As a result of the settlement NVIDIA recognized $40.4 million in additional revenue in the fourth quarter of fiscal year 2003. Of the $40.4 million, revenues associated with unit sales in the fourth quarter of fiscal 2003 were $4.8 million and revenues associated with unit sales in prior quarters were $35.6 million.

"

Halten wir also fest, 50 Mio $ eingesackt bei 469 Mio $ Umsatz.
Die 40,4 Mio Sonderzahlung von MS sind übrigens kein Gewinn sondern lediglich Umsatz, der dann Anteilig mit X-Box Chipverkäufen pro Quartal verrechnet wird. Im 4. Quartal waren das 4,8 Mio.
Wieviel Gewinn nun in diesen 4,8 Mio steckt ist nicht ersichtlich aber ich vermute mal bei ca 25 bis 30% Marge ca. 1 Million Sonderzahlung bzw. Sondereinnahmen als Gewinn.
Lächerlich........
Das Geschäft läuft prächtig :)

Unregistered
2003-02-25, 21:00:46
Originally posted by Richthofen
Halten wir also fest, 50 Mio $ eingesackt bei 469 Mio $ Umsatz.
Die 40,4 Mio Sonderzahlung von MS sind übrigens kein Gewinn sondern lediglich Umsatz, der dann Anteilig mit X-Box Chipverkäufen pro Quartal verrechnet wird. Im 4. Quartal waren das 4,8 Mio.
Wieviel Gewinn nun in diesen 4,8 Mio steckt ist nicht ersichtlich aber ich vermute mal bei ca 25 bis 30% Marge ca. 1 Million Sonderzahlung bzw. Sondereinnahmen als Gewinn.
Lächerlich........
Das Geschäft läuft prächtig :)

Ok, das ist doch mal ne Antwort.

Die Rückstellung für das 4.Quartal sollte aber demzufolge fast vollständig in den ausgew. Gewinn eingehen, da Deckungsbeitrag.

Das soll Nvidias Ergebnis nicht schmälern.

Originally posted by Endorphine

Vermutung: Er hat wahrscheinlich keine Ahnung von Wirtschaft und meint entweder Rücklagen (oder -bildung) oder Abschreibungen.

Kann mir unter "Rückstellungen" auch nichts vorstellen...


:lol:
Auch nicht schlecht.

Richthofen
2003-02-25, 21:12:26
ich weiss noch immer nicht von welcher Rückstellung du redest.

Rückstellungen macht man auf fest kalkulierbare Ausgaben in der Zukunft zum Beispiel Pensionsrückstellungen oder eben auf nicht fest kalkulierbare Ausgaben in der Zukunft zum Beispiel aktuell bei der Hypovereinsbank im 4. Quartal eine Risikovorsorge auf eventuell ausfallende Kredite.
Von einer derartigen Rückstellung lese ich bei Nvidia nix.

Eusti
2003-02-25, 22:49:37
Originally posted by Richthofen

For the fourth quarter of fiscal 2003, revenues were $469.0 million, compared to $503.7 million for the fourth quarter of fiscal 2002. Net income for the fourth quarter of fiscal 2003 was $50.9 million, or $0.30 per diluted share, compared to net income of $76.0 million, or $0.43 per diluted share, for the fourth quarter of fiscal 2002.

On February 6, 2003, NVIDIA and Microsoft announced the settlement of all issues related to pricing of the Microsoft Xbox GPU and MCP chips. As a result of the settlement NVIDIA recognized $40.4 million in additional revenue in the fourth quarter of fiscal year 2003. Of the $40.4 million, revenues associated with unit sales in the fourth quarter of fiscal 2003 were $4.8 million and revenues associated with unit sales in prior quarters were $35.6 million.

Halten wir also fest, 50 Mio $ eingesackt bei 469 Mio $ Umsatz.

Die 40,4 Mio Sonderzahlung von MS sind übrigens kein Gewinn sondern lediglich Umsatz, der dann Anteilig mit X-Box Chipverkäufen pro Quartal verrechnet wird. Im 4. Quartal waren das 4,8 Mio.
Wieviel Gewinn nun in diesen 4,8 Mio steckt ist nicht ersichtlich aber ich vermute mal bei ca 25 bis 30% Marge ca. 1 Million Sonderzahlung bzw. Sondereinnahmen als Gewinn. Lächerlich........

Das Geschäft läuft prächtig :) OK, dann wollen wir mal. Das Statement zu den 40 Mio. Dollar von Microsoft sagt folgenden aus:

In den vergangenen Quartalen hat M$ selbstständig den Preis für die X-Box-Chips gesenkt und bestritten den Betrag nachzuzahlen. NVidia hat den von Microsoft bestrittenen Teil in den vergangenen Quartalen NICHT als Umsatz gebucht, da man nicht sicher sein konnte, diesen Teil zu erhalten.

Jetzt hat man sich mit M$ geeinigt und "Glück" gehabt. M$ zahlt 40 Mio. Dollar nach. Die in Februar nachgezahlten 40 Mio. Dollar werden komplett in Q4 verbucht. Die 40 Mio. sind somit voll ins Ergebnis eingeflossen und haben den Gewinn direkt gesteigert.

Die Aussage, das sich 35 Mio. Dollar auf vorangegangene Quartale beziehen, ist lediglich formhalber. Obwohl die 35 Mio. Dollar sich auf Vorquartale beziehen, wurden Sie doch in Q4 im Umsatz gebucht (die anderen Quartale waren ja bereits abschliessend veröffentlicht und nicht mehr zu ändern).

Ohne diesen Sonderumsatz von 35 Mio. Dollar (dem KEINE, aber auch GAR KEINE KOSTEN entgegenstehen), hätte das Ergebnis von NVidia sich so dargestellt:

Quartale / Q4 2003 / Q4 2002 / Abweichung
Umsatz / 433 Mio. / 504 Mio. / -14% Umsatz
Gewinn*) / 37 Mio. / 109 Mio. / -66% Gewinn
*) vor Steuern (da dieser Steuereffekte eleminiert)

Halten wir also fest: NVidia konnte das Ergebnis in Q4 aufgrund einer Einigung mit M$ aufrecht erhalten. Des "echte" Betriebsergebnis ist stark eingebrochen. Der Trend sieht katastrophal aus. Ich erwarte, das NVidia in Q1 oder Q2 in die roten Zahlen rutschen wird.

[Anmerkung:] Im Falle von Kritik, erwarte ich, das diese konstruktiv begründet wird, da ich mir extra den NVidia-Geschäftsbericht reingezogen habe (obwohl ich bereits total übermüdet bin und eigendlich ins Bett gehöre). Thx!

Pussycat
2003-02-26, 14:27:13
Originally posted by Richthofen

Und da ich denke das er da geistigen Dünschiss geredet hat, würd ich gern von ihm Aufklärung haben.


Gibst DU denn eine Aufklärung wenn du mal wieder unhaltbaren Quatsch redest? Meine Sig meinte immer, dass wäre nicht so.

Unregistered
2003-02-27, 11:25:09
Da hat sich unser Möchtegern-Finanz-Weisser aber ganz schön in die Nesseln gesetzt.:)

Unregistered
2003-03-09, 21:02:16
Originally posted by Richthofen
"
Vermutung: Er hat wahrscheinlich keine Ahnung von Wirtschaft und meint entweder Rücklagen (oder -bildung) oder Abschreibungen.

Kann mir unter "Rückstellungen" auch nichts vorstellen...
"

Nene es gibt schon Rückstellungen in Bilanzen zb. Rückstellungen für Pensionen usw...
Aber ich wollte von ihm wissen von was für Rückstellungen er in Bezug auf die tadellose NV Bilanz vom 4. Quartal 2002 redet, da ich mich da an keine nennenswerte Zahl erinnere.
Und da ich denke das er da geistigen Dünschiss geredet hat, würd ich gern von ihm Aufklärung haben.

Dad is ja das schöne. Mich interessiert eigentlich überhaupt nicht ob nun High End Karte XY so und soviel % schneller ist und das bessere P/L Verhältnis hat.
Mich interessiert nur was hinten rauskommt an Cash. Firmen die dauerhaft nix erwirtschaften sind für mich nen Dreck wert. Die mach ma lieber schnell dicht, dann verdienen die anderen mehr, zumal das bessere P/L schon immer die schlechtere Firma mit dem schlechteren Image hatte.
Wer zahlt schon gern für nen mieses Image das selbe wie für nen gutes Image. Ne Marke bleibt halt ne Marke.

Um das Ganze mal auf den Punkt zu bringen hier mal die wichtige Passage aus dem Press Release:
"
For the fourth quarter of fiscal 2003, revenues were $469.0 million, compared to $503.7 million for the fourth quarter of fiscal 2002. Net income for the fourth quarter of fiscal 2003 was $50.9 million, or $0.30 per diluted share, compared to net income of $76.0 million, or $0.43 per diluted share, for the fourth quarter of fiscal 2002.

On February 6, 2003, NVIDIA and Microsoft announced the settlement of all issues related to pricing of the Microsoft Xbox GPU and MCP chips. As a result of the settlement NVIDIA recognized $40.4 million in additional revenue in the fourth quarter of fiscal year 2003. Of the $40.4 million, revenues associated with unit sales in the fourth quarter of fiscal 2003 were $4.8 million and revenues associated with unit sales in prior quarters were $35.6 million.

"

Halten wir also fest, 50 Mio $ eingesackt bei 469 Mio $ Umsatz.
Die 40,4 Mio Sonderzahlung von MS sind übrigens kein Gewinn sondern lediglich Umsatz, der dann Anteilig mit X-Box Chipverkäufen pro Quartal verrechnet wird. Im 4. Quartal waren das 4,8 Mio.
Wieviel Gewinn nun in diesen 4,8 Mio steckt ist nicht ersichtlich aber ich vermute mal bei ca 25 bis 30% Marge ca. 1 Million Sonderzahlung bzw. Sondereinnahmen als Gewinn.
Lächerlich........
Das Geschäft läuft prächtig :)


Aha, also gibts du doch offen zu das AMD nur zweite Wahl ist. :D ;D Was du manchmal für einen %!$#~|} redest...

Pussycat
2003-03-10, 11:30:58
Hat es das nicht schon immer gemacht? Normalerweise labert er über einen qualitätsbonus den man für Intel und auch für das geliebte nVidia bezahlt.

So läuft das Geschäft.

[VFV_Spitfire]
2003-03-16, 10:06:02
Die fX ist viel zu unausgereift. Die Treiber ebenfalls und die Speicherbandbreite ist zu gering ausgefallen. Wollen wir mal hoffen, dass die NV35 und NV40 einen besseren Start haben.

Henrik
2003-03-17, 16:05:55
imo profitiert der r300 mehr von höherer speicherbandbreite als die fx. das sieht man ja wenn man radeon 9500 pro vs. 9700 nonpro bencht.
ich denke die fx ist sicherlich nicht schlecht aber im vergleich zum r300 sieht sich ziemlich alt aus, vor allem wenn ati auf 0.l3 nm fertigung umsteigt :D

Eusti
2003-03-17, 17:32:15
Originally posted by _3dfx_rulez
imo profitiert der r300 mehr von höherer speicherbandbreite als die fx. das sieht man ja wenn man radeon 9500 pro vs. 9700 nonpro bencht.
ich denke die fx ist sicherlich nicht schlecht aber im vergleich zum r300 sieht sich ziemlich alt aus, vor allem wenn ati auf 0.l3 nm fertigung umsteigt :D Worauf gründet deine Annahme. Gab es irgendwo Tests, bei dennen Speicher-Takt und Core-Takt in unterschiedlichen Kombinationen getestet wurden. Ich hab bislang eigendlich immer nur FX-Tests mit Speichertakt=Coretakt gesehen. Um zu beurteilen, wie viel der FX die Speicherbandbreite bringt, müsste man eine FX mit 250/1000 testen. Die dann gemessene Geschwindigkeit (z.B. 70%) müsste man dann verdoppeln und hätte die Leistung einer GFFX mit 256bit Speicher (z.B. 140% einer normalen GFFX). Hast du irgendwo so einen Test aufgetrieben?

LovesuckZ
2003-03-30, 20:20:10
Eine Frage an die Experten: Nvidia filtert ja nur beim App. richtig trilinear. Nun meine Frage: Warum hat man unter D3D so einen derben Einbruch in der Leistung zu Balanced und unter OpenGL kann man sogar mit App AF mit ATI mithalten?

mapel110
2003-03-30, 23:03:57
Originally posted by LovesuckZ
Eine Frage an die Experten: Nvidia filtert ja nur beim App. richtig trilinear. Nun meine Frage: Warum hat man unter D3D so einen derben Einbruch in der Leistung zu Balanced und unter OpenGL kann man sogar mit App AF mit ATI mithalten?

beispiele ?

also nenne zwei opengl spiele, bei denen nvidia besser da steht, als bei den meisten d3d games.

wieviel AF an leistung kostet, hängt auch vom spiel selber ab. da quervergleiche anzustellen ist wohl mehr als schwierig.

zeckensack
2003-03-31, 08:08:02
Originally posted by LovesuckZ
Eine Frage an die Experten: Nvidia filtert ja nur beim App. richtig trilinear. Nun meine Frage: Warum hat man unter D3D so einen derben Einbruch in der Leistung zu Balanced und unter OpenGL kann man sogar mit App AF mit ATI mithalten? Laut Thilo sieht's unter GL einfach nur schlechter aus, und unter D3D nicht. Mir würde das als Erklärung schon reichen ;)

ow
2003-03-31, 09:03:23
Originally posted by zeckensack
Laut Thilo sieht's unter GL einfach nur schlechter aus, und unter D3D nicht. Mir würde das als Erklärung schon reichen ;)

Mir nicht.

AFAIk ist immer noch ungeklaert, ob der GF4 D3D-AF-Bug auch den GFFX betrifft. Das wuerde mich wirklich brennend interessieren.

LovesuckZ
2003-03-31, 17:33:20
Originally posted by mapel110
beispiele ?
also nenne zwei opengl spiele, bei denen nvidia besser da steht, als bei den meisten d3d games.


http://www.xbitlabs.com/images/video/geforce-fx/q3-2.gif

http://www.xbitlabs.com/images/video/geforce-fx/ss.gif

Twar nur ohne AF, doch unter UT2003 bricht auch die FX nur mit Trilinear deutlich ein

http://www.xbitlabs.com/images/video/geforce-fx/ut.gif
http://www.xbitlabs.com/images/video/geforce-fx/ut-2.gif

Bilder stammen aus dem XbitLabs GeforceFX Test (http://www.xbitlabs.com/articles/video/display/geforce-fx.html)

LovesuckZ
2003-03-31, 17:34:35
Originally posted by zeckensack
Laut Thilo sieht's unter GL einfach nur schlechter aus, und unter D3D nicht. Mir würde das als Erklärung schon reichen ;)

Das erklaert aber immer noch nicht, warum reines Trilinear unter D3D so fuerchterlich langsam ist.

kami
2003-04-01, 13:27:00
weiss nicht obs schon gepostet wurde, habs nirgends gesehen ...

Und zwar hat jemand im Beyond3d Forum Spekulationen bzgl. der NV3x
Architektur anhand seiner Erfahrungen und Tests aufgestellt .. die Diagramme sehen ganz nett aus , ob das realistisch ist kann ich nicht beurteilen, da ich nur Bahnhof verstehe :D

http://www.beyond3d.com/forum/viewtopic.php?t=5124

Aufgeschnappt hab ich den Link bei GPU - Rumor - Watch ...

gruß
kami :rofl:

Ailuros
2003-04-09, 05:33:31
Originally posted by ow


Mir nicht.

AFAIk ist immer noch ungeklaert, ob der GF4 D3D-AF-Bug auch den GFFX betrifft. Das wuerde mich wirklich brennend interessieren.

Es waere interessant wenn jemand auf einer FX "application" bilinear vs trilinear testen koennte, am besten auf 300/650MHz; dass man es auch vergleichen kann.

RyoHazuki
2003-04-26, 01:41:31
also ich poste zwar etwas spät, aber egal....

also wenn man auf seite 2 ?

den benchamrk anschaut,

sieht man das die FX egal welchen takt man erhöht deutlich zulegt.

Also muss sie meiner meinung nach Füllraten und banbreiten limitiert sein.

4x2 architektur (nicht mehr wirklich zeitgemäß)
128Bit DDR Interface (auch nicht)


Allerdings muss ich dazu sagen, die Radeon 9700 benutzt die "neuen" features (256 bit Controller, 8 Pipes) und kann sich nicht wirklich gegenüber der FX behaupten. Das liegt einfach am TAKT ! Dieser EXTREM hohe takt bringt die FX zu solchen leistungen.

wie über mir schon jemand erwähnt hatte sollte man die karte mal auf 300/650 takten und gegen ne TI4600 antreten lassen.

Die Pro MHZ leistung dürfte nur um ein geringes gestiegen sein (nicht AA).

mapel110
2003-04-27, 23:55:43
Originally posted by RyoHazuki
Die Pro MHZ leistung dürfte nur um ein geringes gestiegen sein (nicht AA).

sie ist gesunken !
die rohperformance der 4600er ist besser bei gleichem takt.

Unregistered
2003-04-28, 22:04:26
Originally posted by Demirug
nggalai, im Prinzip gegbe ich dir recht denke aber trotzdem das in den Treiber noch etwas performances begraben ist.

Die Vermutung bezüglich DOOM III hatte ich auch schon.

John Carmack hat auch zugegeben das die FX der Radeon 9700 Pro überlegen sei in Doom 3

mapel110
2003-04-29, 01:42:20
Originally posted by Unregistered


John Carmack hat auch zugegeben das die FX der Radeon 9700 Pro überlegen sei in Doom 3

kommt auf den renderingpfad an.

ausserdem hat er gesagt, dass es situationen gibt, in denen mal die fx und mal die radeon vorn liegt.


benches der alpha gibts ja auch, und da siehts recht ausgewogen aus.
http://www.digit-life.com/articles2/radeon/r9800pro.html

StefanV
2003-04-29, 09:27:43
Originally posted by Unregistered
John Carmack hat auch zugegeben das die FX der Radeon 9700 Pro überlegen sei in Doom 3

:rofl:

So wie du es zitiert hast, hat er es bestimmt nie gesagt!!

JC sagte sowas wie, daß die Radeon 9700 mit ARB2 (OGL2) Pfad deutlich überlegen wäre, die GF FX aber einen eigenen Pfad bräuchte, um an die Leistungen der R300 heranzukommen.

seahawk
2003-04-29, 09:31:17
So auch nicht. Bei dem OGL2 Renderpfad liegen beide in etwas gleich auf, mit Vorteilen für die Radeon. Allerdings ist die FX bei Benutzung des besondern FX-Pfads schneller als die Radeon.

StefanV
2003-04-29, 09:37:11
Originally posted by mapel110
benches der alpha gibts ja auch, und da siehts recht ausgewogen aus.
http://www.digit-life.com/articles2/radeon/r9800pro.html

In der Alpha fehlt leider der ARB2 Pfad :(

StefanV
2003-04-29, 09:39:08
Originally posted by seahawk
So auch nicht. Bei dem OGL2 Renderpfad liegen beide in etwas gleich auf, mit Vorteilen für die Radeon. Allerdings ist die FX bei Benutzung des besondern FX-Pfads schneller als die Radeon.

Das beide im ARB2 Pfad gleich schnell sind glaubst du wohl selbst nicht, oder (zumindest wenn JC auf 32bit FP gesetzt hat)??

Die FX kann nicht wirklich im ARB2 Pfad schneller sein als die Radeon 9700, schau dir mal an, wieviele Instruktionen beide Pro takt verarbeiten können.

Und da liegt die R300 schon vor der NV30, die NV30 schafft nichtmal das, was die RV350 schafft...

seahawk
2003-04-29, 09:56:13
So hat er das gesagt.... frag J.C.

Xmas
2003-04-29, 15:57:05
The NV30 runs the ARB2 path MUCH slower than the NV30 path.
Half the speed at the moment. This is unfortunate, because when you do an
exact, apples-to-apples comparison using exactly the same API, the R300 looks
twice as fast, but when you use the vendor-specific paths, the NV30 wins.

pubi
2003-05-04, 15:05:39
Ich denke, die FX wurde ueberfrueht auf den Markt geworfen um etwas zu haben, was zumindest an die neuen ATIs rankommt. Habe deshalb fuer die letzte Iotion gevotet.

Quasar
2003-05-13, 16:20:42
Originally posted by zeckensack
Laut Thilo sieht's unter GL einfach nur schlechter aus, und unter D3D nicht. Mir würde das als Erklärung schon reichen ;)

Unter D3D sieht man aber auch die Unterschiede. Man muss allerdings ziemlich genau hinschauen...