PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was ist bei der FX schiefgelaufen?


Ficus
2003-01-27, 08:52:46
Nach dem Extremetech die Benchmarks von Tecchannel weitestgehend bestätigt hat (weitere werden sicher folgen), darf man sich (bzw.ich euch) fragen, wo das "Problem" der FX liegt.

Hauwech
2003-01-27, 10:46:12
Treiber: Wuerde behaupten da stecken noch 10-15% vielleicht auch etwas mehr drin. So ein recht neues Design ist bestimmt auch nicht so einfach zu verstehen, aehnlich wie bei, uebertrieben gesagt, Konsolen wo die Spiele mit der Zeit halt qualitativ einfach besser werden.

Design: Frage mich, ob es mit solchen Arrays einfach grundsaetzliche Leistungseinbussen irgendwo gibt. Wenn die schoen flexibel zu programmieren sind kann ich mir vorstellen das die zwar an und fuer sich recht gut sind aber halt durch die Flexibilitaet auch etwas an Effiziens gegenueber eines *herkoemmlichen* PS/VS-Designs verlieren. Allgemeine Logikschaltungen <> spezialisierte Logikschaltungen oder so aehnlich... Demi kann da bestimmt mehr zu sagen. :)
Man darf natuerlich nicht vergessen das es der erste Versuch mit sowas war, da ist das doch schon beachtlich. Klar, da sitzen Leute bei denen von denen man auch was erwarten kann aber es gibt immer ein erstes Mal.
Scheint teilweise auch einfach ein Speicherbandbreitenproblem zu sein. Selbst mit Tricks kann man die fehlende Bandbreite gegenueber der R300 halt nicht ersetzen oder herzaubern. Vielleicht wird es mit dem NV35 mit 256bit DDRI oder II Speicherinterface besser.

Getestete Software: Mir ist schon klar das es komplett unmoeglich ist bei einer neuen Grafikkarte die eine neue DX-Version unterstuetzt ein neues richtiges Spiel zu erwarten das die Karte gut ausnutzt, R300 ebenso. Vielleicht sollte man hier auf D3 warten um zu sehen was die FX leisten kann/koennte. Halt keine Software dabei die Gebrauch von langen Shadern macht, da koennte ich mir vorstellen das die durchaus ordentlich zulegen kann.

Was mich verwundert ist, das nur Onkel Tom geschrieben hat das es ein Testboard ist und mit der finalen Version auch der Lautstaerkepegel sich noch verbessern soll, oder habe ich das soweit bei den anderen ueberlesen?

Demirug
2003-01-27, 11:27:51
Ja Treiber wären durchaus eine mögliche Erklärung. Wobei wie Exxtreme in einem anderen Thread schon gesagt hat NVIDIA ja aufgrund der verspätungen Zeit bei den Treibern gewonnen hat. Es stellt sich aber die Frage in wie weit NVIDIA ohen echte Chips Performancesanalysen machen konnte. Nur mit dem Simulatoren stelle ich mir das trotz der grossen Serverfarm (die aber mehr von den Designern belegt sein dürfte) sehr mühselig vor.

Ein Array gibt es ja derzeit nur bei den Vertexshadern und generelle Leistungsverluste gibt es da eigentlich nicht. Es stellt sich natürlich die Frage in wie weit dieses Array in der Hardware kontrolliert wird und welchen Anteil die Treiber haben. Sollte ein nicht unerheblicher Teil von den Treibern kommen könnte es hier durchaus noch Verbesserungen geben wenn die Entwickler die Sache besser verstehen. Aber im Vertexbereich sehe ich derzeit sowieso keine alzu grossen Problemen da kaum ein Spiel die Vertexpower welche R300 und NV30 haben wirklich nutzt.

Mit dem Bandbreitenproblem ist das so eine Sache. Bei Anand hat ein übertakten des Speichers nicht wirklich was gebracht. Der Test war zwar lediglich mit 1024*768 ohne AA/AF aber eigentlich hätte es dort auch schon etwas bringen müssen. Bei den AA Modies scheint aber die Kompression möglicherweise nicht so viel zu bringen wie man sich erhofft hat.

In wie fern die Treiber schon auf die neuen Pixelshader-ALUs angepasst sind ist sicherlich auch eine interesante Frage. Seit den NV10 Tage hat sich da im Prinzip nicht so viel getan und gerade das DX7 Multitexturing und das OpenGL MT sind sehr massiv auf die alten ALUs optimiert gewesen.

Möglicherweise hat man sich durch das vollständige Freigeben der abhängigen Texturefetchs auch ein kleines Eigentor geschossen. Die Sache ist sicherlich der richtige Schritt aber möglicherweise war er einfach zu früh. Aber auch hier könnten die Treiberprogrammier möglicherweise noch was rausholen.

Gerade das doch recht schlechte abschneiden bei den "Advanced Shader" Test vom 3d Mark deutet darauf hin das da noch etwas nicht ganz in Ordnung sein kann. Entweder muss die FX den Test mit den "alten" Shadern im Multipass bestreiten was natürlich auf die Bandbreite schlägt, oder die FX bekommt hier mal PS 1.4 vorgesetzt die dann wohl noch etwas treiberarbeit erfordern.

Unregistered
2003-01-27, 11:43:11
also ich finde die geforce fx verhält sich zur zeit(diverse benschmarks) wie ne übertacktete gef4 auf 500 mhz cpu und speicher takt von neuen technologien oder verbesserungen gar ner neuen grafikkarten generation ist da noch nichts zu sehen ich denke mal das aber alles am treiber liegt...

Richthofen
2003-01-27, 12:31:39
ich denke das größte Manko ist einfach process technology.
Die haben auf einen recht fortschrittlichen Prozess bei TSMC gesetzt und den konnte TSMC nicht liefern.
Also muss man Kompromisse eingehen.
Deswegen war es wohl schon schwer genug auf diese Ergebnisse zu kommen.
Ansonsten scheinen mir aber auch noch Treiberfehler vorzuliegen.
Das 2x AA zum Beispiel sieht auf den Screenshots viel zu schlecht aus als das es 2 RG MS AA wie bei der GF4Ti ist.
Spielraum für Verbesserungen ist sicher noch einiger vorhanden, und für die Radeon9700 wird es reichen. Allerdings für den R350 sicher nicht nur denke ich weiss das Nvidia auch.
Ich glaub die sind froh das das Teil endlich raus ist (Derek Perez oder BB haben sowas auch mal durchblicken lassen in einem Gespräch) und sie sich neuen Aufgaben zuwenden können. Nagut letzteres werden sie seit Monaten sicher schon machen, denn für die Arbeiten an der FX in den letzten Monaten haben die garantiert nicht die Designer beschäftigt.
Ich glaube auch, daß sie alles daran setzen werden den low-k Prozess bei TSMC für den nächsten Chip zu bekommen und natürlich muss man abwarten wie sich die kleinen Teile so machen. Ich denke da können sie recht optimistisch sein, denn die werden sehr günstig sein und da ist viel Spielraum. Da muss man nicht bis zum letzten gehen.
Die Lautstärke ist schon zielich nervig, aber so ist das eben, wenn man auf einen gewissen Prozess hin entwickelt und den nicht haben kann. Ich würde das mit dem T-Bred A von AMD vergleichen. Der liess sich kaum übertakten und lief an der Grenze. Beim T-Bred B sah das schon eher nach 0.13 aus. Ich finde allerdings den Throttle Mechanismus sehr gut, dass muss ich trotz der Lautstärke sagen.
Da brauch man eigentlich keine Bedenken haben das das Teil in Rauch aufgeht, wie es schon bei so mancher CPU oder Graka passiert ist, wenn man zu eifrig beim OCen war.

Achja habe ich vergessen zu erwähnen - bei den AA Einheiten scheint sich das Fehlen der 2 pro Pipe gegenüber dem R300 bemerkbar zu machen.

daflow
2003-01-27, 12:56:20
Ich quote mich mal, da es hier wohl besser hinpasst:
Originally posted by PeTa
Wenn ich mir jetzt die Vergleichsbenches zwischen ti4600 und fx5800 Ultra anschau, frag ich mich schon wie das seien kann.
Mal rein hypothetisch: Man nehme als Basis einen NV25 takte ihn auf 500 Mhz und spendiere ihm eine 500MHZ DDR2 Anbindung muestte eine solche Karte nicht schon auf die Werte kommen, die die 5800 Ultra erreicht? 4pixelpilines mehr, LmaIII etc. bringt das so wenig?

AlfredENeumann
2003-01-27, 13:25:35
Originally posted by PeTa
Wenn ich mir jetzt die Vergleichsbenches zwischen ti4600 und fx5800 Ultra anschau, frag ich mich schon wie das seien kann.
Mal rein hypothetisch: Man nehme als Basis einen NV25 takte ihn auf 500 Mhz und spendiere ihm eine 500MHZ DDR2 Anbindung muestte eine solche Karte nicht schon auf die Werte kommen, die die 5800 Ultra erreicht? 4pixelpilines mehr, LmaIII etc. bringt das so wenig?


Vom jetzigen Standpunkt aus wäre das wirklich besser gewesen. Aber wenn man sich so die theoretischen Benschmarks anschaut, dann ist dieser Nvidia-Treiber schlimmer als jeder bisher von ATI veröffentlichte. Nvidias Treiberprogramierer kochen halt auch nur mit wasser. Die haben die gleichen Probs wie ATI damals, als sie mit der Radeon Serie angefangen haben. Da mußten komplett neue Treiber her. Man konnte nicht mehr auf alten aufbauen, wie es bei Nvidia seit Jahren ist. Darum waren diese bisher ja so "perfekt".
Ich glaube man kann aus der Karte noch ein wenig Leistung rausholen. Allerding das AA haben die sich ganz gehörig versaut. Das wird nimmer besser. Was man so in den einzelen Foren ließt hat sich damit anscheinend einen großen teil der Gamer vergrault, alleine wegen der "Turbine" oben drauf. Ich denke mal das so in drei Monaten. So zum release des R350 die Karte/Treiber einigermaßen Bugfrei ist.

Exxtreme
2003-01-27, 13:48:52
Hmm, also ich denke, daß die Leistung gar nicht so enttäuschend ist wenn man ATis R300 mal aussen vor lässt. Ich meine ggü. dem NV25 ist das eine wirklich grosse Steigerung. Die Probleme liegen eigentlich ganz woanders. Das Teil verliert z.B. die komplette HSR-Fähigkeit beim 4x MSAA da die Early-Z-Units dazu gebraucht werden. ATis R300 verliert diese Fähigkeit aber nicht komplett beim MSAA da hier auch noch HierarchicalZ mitwirkt welches zudem effektiver zu sein scheint als Early-Z.
Eine andere Sache ist, daß vielleicht der DDRII-Speicher doch sehr viel ineffizienter ist als bislang vermutet.
Und man weiss jetzt, daß die Karte viel Hitze produziert. Es könnte auch sein, daß der Chip mit Absicht nicht ausgelastet wird nur damit er nicht am Hitzetod stirbt.

Naja, alles Spekulationen. ATi hat es geschafft mit der Kombination aus Brute-Force und Effizienz (HSR, Subpixelmasken etc.) einen rundum gelungenen Chip zu designen. NVIDIA macht auf Brechstange, lässt aber die Effizienz vermissen.

Demirug
2003-01-27, 14:00:18
Was die Subpixel Anordnung angeht hat NVIDIA wirklich geschlafen. Es hätten ja noch nicht mal unbedingt 6 AA-Sampler sein müssen aber das Grid ändern wäre schon mal ein Schritt gewesen. Aber das ist ja schon lange bekannt und möglicherweise hat NV beim NV35 endlich ein einsehen.

Was das HSR angeht würde ich mal 3 grosse Fragezeichen setzen. Da hat NV bei den letzten Chips zu viel gebastelt um da wirklich zu sagen was den nun im NV30 wie verbaut wurde. Deswegen warte ich da lieber noch einen Overdrawtest zu dem Thema ab.

daflow
2003-01-27, 14:02:08
Originally posted by Exxtreme
..Ich meine ggü. dem NV25 ist das eine wirklich grosse Steigerung. .
und genau das empfinde ich nicht so;)
Für die Eckdaten und die Taktung einer GFFX-Ultra gegenüber einer TI4600 find ich die Rohleistung enttäuschend gering.

Unregistered
2003-01-27, 14:41:08
Originally posted by PeTa

und genau das empfinde ich nicht so;)
Für die Eckdaten und die Taktung einer GFFX-Ultra gegenüber einer TI4600 find ich die Rohleistung enttäuschend gering.


Vielleicht hat es ja was mit den BI-TMUs zu tun. Die Hälfte der TMUs pro Pipe, dafür doppelt so viele Pipes,das ganze bei 66% mehr Takt. Die BQ-"Optimierungen" mal nicht mitgerechnet könnte das ungefähr hinkommen.

Achill
2003-01-27, 14:42:35
Ich finde, dass eine GFFX-Ultra gegenüber einer TI4600 schon zulegt, besonders bei 4xAA und 8XAF.
Doch leider sehe ich keine wirkliche verbesserung in den heutzutage genutzten futures (bei spielen), es ist einfach nur mehr rohleistung.

und PS & VS 2.0 werden wir eh erst später sehen und dann ist wahrscheinlich der R300 also auch der NV30 zu langsam...

Ich denke für NV ist noch nichts verloren, sie müssen einfach drastig den preis runter setzen, und ein normaler NV30 kann sich sicher zwischen einer Radeon9700 und Radeon9700Pro plazieren, wenn NV den preis auch zwischen die beiden karten packt, wird sich mit sicherheit auch gekauft und das preis-leistungsverhältnis stimmt auch wieder.

und bei der ultra müssen sie einfach irgendwie den fön leiser bekommen - dann wird auch diese gekauft.

Unregistered
2003-01-27, 14:58:17
Originally posted by Achill

Ich denke für NV ist noch nichts verloren, sie müssen einfach drastig den preis runter setzen, und ein normaler NV30 kann sich sicher zwischen einer Radeon9700 und Radeon9700Pro plazieren, wenn NV den preis auch zwischen die beiden karten packt, wird sich mit sicherheit auch gekauft und das preis-leistungsverhältnis stimmt auch wieder.

und bei der ultra müssen sie einfach irgendwie den fön leiser bekommen - dann wird auch diese gekauft.

Die Karte ist aber das Sptzenerzeugnis und kostet ein Heidengeld in der Fertigung (Kühlung, 12-Layer). Wenn nVidia den Preis runtersetzt, haben sich die Entwicklungskosten nicht gerechnet, von den Billigkarten mal ganz abgesehen (Wenn die Specs stimmen können die auch die MX weiterbauen). Wenn die Firma ihr Image retten will, gebe ich dir aber recht. Man kann jetzt nur noch über den Preis den Markt überzeugen

skampi
2003-01-27, 15:18:51
Originally posted by Achill

Ich denke für NV ist noch nichts verloren, sie müssen einfach drastig den preis runter setzen, und ein normaler NV30 kann sich sicher zwischen einer Radeon9700 und Radeon9700Pro plazieren, wenn NV den preis auch zwischen die beiden karten packt, wird sich mit sicherheit auch gekauft und das preis-leistungsverhältnis stimmt auch wieder.




Du hast wohl die Bildqualitätsvergleich nicht mitbekommen? Bei gleiche BQ hat die FX Ultra ja schon Probleme, sich vor der 9500Pro zu halten.

Scream
2003-01-27, 15:18:54
Könnte es auch sein, dass die Testversionen mit "nur" 128 MB ausgestattet waren? Andere Hersteller kündigten die 5800 Pro ja mit 256 MB Speicher an. Das könnte doch bei AA noch etwas Geschwindigkeit bringen?

Neo69
2003-01-27, 15:20:56
@demirug:

Was das HSR angeht würde ich mal 3 grosse Fragezeichen setzen. Da hat NV bei den letzten Chips zu viel gebastelt um da wirklich zu sagen was den nun im NV30 wie verbaut wurde. Deswegen warte ich da lieber noch einen Overdrawtest zu dem Thema ab.

http://www.tomshardware.com/graphic/20030127/geforce_fx-25.html

die karte kann ihren 50%igen vorsprung in sachen coretakt zwar nicht umsetzen, schneidet aber nicht schlecht ab.

skampi
2003-01-27, 15:25:50
Originally posted by Neo69
@demirug:

die karte kann ihren 50%igen vorsprung in sachen coretakt zwar nicht umsetzen, schneidet aber nicht schlecht ab.

Du hast wohl die Bildqualitätsvergleich nicht mitbekommen? Bei gleiche BQ hat die FX Ultra ja schon Probleme, sich vor der 9500Pro zu halten.
Siehe http://www.anandtech.com

Der harte Kern wird sich wahrscheinlich demnächst auf die Gamestar und THG berufen.;D

Exxtreme
2003-01-27, 15:27:42
Originally posted by Neo69
@demirug:



http://www.tomshardware.com/graphic/20030127/geforce_fx-25.html

die karte kann ihren 50%igen vorsprung in sachen coretakt zwar nicht umsetzen, schneidet aber nicht schlecht ab.
Ja, aber ging es eher um HSR in Verbindung mit AA. Die GF4Ti verliert da ihre HSR-Fähigkeiten und es wäre interessant zu wissen ob es bei der GFFX genauso ist.

Demirug
2003-01-27, 15:34:11
skampi: Ich denke mal der Link (geht nicht) verweist auf den Villagemark. Dieser ist aber zum Testen des HSRs nicht Syntetisch genung.

Und nachdem NV gerade beim HSR ständig rumgeändert hat ist die frage welche Lösung jetzt in der FX zum Einsatz kommt.

@Exxtreme: Bei der GF4TI gibt es da nichts zu verlieren weil die kein Fillratesparendes HSR hat. Die MX dagegen hat es in der besagten weise (Z-Tests der AA-Sampler werden benutzt).

Achill
2003-01-27, 15:46:59
Originally posted by skampi



Du hast wohl die Bildqualitätsvergleich nicht mitbekommen? Bei gleiche BQ hat die FX Ultra ja schon Probleme, sich vor der 9500Pro zu halten.


ich gehe einmal davon aus, das dort etwas zu sehr optimiert wurde und das NV da sicher noch etwas machen wird - jedenfalls hoff ich es für sie.
Und zwischen einer 9500Pro und einer GFX-U liegen glaube ich immer noch welten.

Ich bin der meinung, dass man noch eine Treibergeneation abwarten sollte und erst dann das endurteil fällt, Geschwindigkeit und BQ.

Ich sage nur mal Q3 und ATI, da gab es auch einen Treiber mit einem Bug, viel Geschwindigkeit hatte es ja im gegensatz zu denn folgenden treibern nicht gebraucht.
Aber das ist vergangenheit, warum sollte NV das nicht auch probieren, müssen sie halt durchs feuer Rennen wie ATI damals.
Sie machen es nur etwas geschickter, nämlich in allen spielen nur nicht in einem ;) - aber wie gesagt, warten wir noch einen richtigen Detornator ab, dann kann man sagen Bug oder wenn es immer noch ist, gewollt.

ich selber habe ja eine 9700Pro - mir ist das eigendlich egal - trozdem würde ich es mir nicht wünschen, wenn NV zu sehr abgeschlagen wird. Weil somit konkurenten für ATI fehlen - am besten wäre ein regelmäßiger wechsel im abstand von 3 monaten, damit würde jede firma immer mal der schnellst sein, somit high end am anfang teuer los werden und wenn die anderen komen freut sich der user mit dem kleinen geldbeutel weil die preise purzeln :)

also mein motto für jetzt, tee trinken und auf den nächten detor. warten - evtl. rückt ATI ja auch noch neue Treiber raus mit 16Bit AA, gesehen haben wir es ja schon.

Ailuros
2003-01-27, 15:54:51
Originally posted by Demirug
skampi: Ich denke mal der Link (geht nicht) verweist auf den Villagemark. Dieser ist aber zum Testen des HSRs nicht Syntetisch genung.

Und nachdem NV gerade beim HSR ständig rumgeändert hat ist die frage welche Lösung jetzt in der FX zum Einsatz kommt.

@Exxtreme: Bei der GF4TI gibt es da nichts zu verlieren weil die kein Fillratesparendes HSR hat. Die MX dagegen hat es in der besagten weise (Z-Tests der AA-Sampler werden benutzt).

OT: Bei >1.0GHz CPU's wuerde ich raten T&L in der Anwendung auszuschalten.

Was andere Overdraw tests betrifft wie z.B. GL_EXTREME oder auch stencilops (siehe FableMark), schaetze ich dass B3D diese auch testen wird.

Uebrigens wie schon erwaehnt, da stimmt irgend was nicht mit dem Vertex Shader.

Labberlippe
2003-01-27, 16:06:55
Hi

So nochmal mein Statement.

Ich glaube wirklich das ATi nVIDIA mit einen 256 Anbindung überrascht hat.
Vermutlich wird nVIDIA sich nicht vorstellen haben können, das ATi diesen weg geht.
Auch wenn nVIDIA dann die Infos hatte, so kann ich mir gut vorstellen das die Zeit dann für eine Änderung nicht mehr gereicht hat.
Als verschieben und schleunigst sehen das man auf höhere Taktraten kommt. Wahrscheinlich war der NV30 zwar als eue Ära gedacht aber mit einer leichten Steigerung zur GeForce4. (Wie es damals bei der GeForce3 war.)

Der Hacken daran war aber das nVIDIA nichts mehr unternehemen konnte weil der R300 einfach zu stark war.
Das war nVIDIA mittlerweile bewusst und man musste diese Lösung mit der Heatpipe finden. (Vermutlich auch deshalb das Argument mit den Kopfhörer)

Ich glaube kaum das sich ein Entwickler die Ultra ins System setzt, den wird die kleine Variante auch reichen.
Den Rest wie die anderer Karte performt kann der Entwickler sicher abschätzen.
Kurz wenn die Entwickler von den Tools überzeugt sind, wird die Ultra hier kaum einen Beinbruch darstellen.

Viel mehr Sorgen macht mir zusätzlich auch noch der Treiber, wenn solche Bildqualitäts Fehler wie hier auftreten dann gute nacht.
Ausser nVIDIA wird als notlösung schnell einen eigenen Treiber für die FX erzeugen.
Vielleicht macht der UDA Treiber zuviele Troubles.

Tjo was kann nVIDIA jetzt machen.?

A: Schnell einen Treiber bringen, was die BQ wieder hebt.
B: Die Endkunden Karten mit einen anderen Lüfter versehen.
Klar wird die Heatpipe beim Flagschiff bleiben aber man sollte einen Lüfter wählen der nicht schrillt.

oder nVIDIA wird schleunigst einen Chip nachschieben, was auf alle Fälle eine bessere Lösung wäre.

Gruss Labberlippe

Unregistered
2003-01-27, 16:34:07
was mich doch sehr erstaunt ist die geringen leistung beim Singletexturing der GeForcFX. Da "klemmt" doch irgendwas.

Labberlippe
2003-01-27, 16:40:07
Originally posted by Unregistered
was mich doch sehr erstaunt ist die geringen leistung beim Singletexturing der GeForcFX. Da "klemmt" doch irgendwas.

Jo, der ganze Chip.

Gruss Labberlippe

Ailuros
2003-01-27, 16:43:45
Bitte nicht ernst nehmen, aber solche Scherze hab ich schon erwartet:

http://mac01holomatrix.homestead.com/files/vacuumfx.jpg

StefanV
2003-01-27, 16:43:49
Originally posted by Neo69
@demirug:

http://www.tomshardware.com/graphic/20030127/geforce_fx-25.html

die karte kann ihren 50%igen vorsprung in sachen coretakt zwar nicht umsetzen, schneidet aber nicht schlecht ab.

Ja, und wo sind die FSAA Tests ??

Richtig, nicht da :)

Und auch ansonsten schaut eine Radeon 9700 auch nicht übel aus, wenn man den Taktvorsprung der GF FX bedenkt...

Unregistered
2003-01-27, 16:45:01
Originally posted by Stefan Payne


Und auch ansonsten schaut eine Radeon 9700 auch nicht übel aus, wenn man den Taktvorsprung der GF FX bedenkt...

hehe, GeforceFx der P4 unter den GPU´s

Aquaschaf
2003-01-27, 16:50:28
an treibern kann es nicht liegen .
die haben mehr als genug zeit gehabt die treiber zu optimieren .
was man ja an der bildqualität sehen kann :D

HOT
2003-01-27, 17:46:40
Originally posted by Aquaschaf
an treibern kann es nicht liegen .
die haben mehr als genug zeit gehabt die treiber zu optimieren .
was man ja an der bildqualität sehen kann :D

:rofl:

Ich glaube nicht, dass sich ein entickler eine NV30 einbauen wird. Die werden jetzt zu ATI wechseln, weil bei NV jetzt erstmal für'n Jahr Sendepause ist.

LovesuckZ
2003-01-27, 18:35:55
Originally posted by Unregistered
was mich doch sehr erstaunt ist die geringen leistung beim Singletexturing der GeForcFX. Da "klemmt" doch irgendwas.

Mir wurde gesagt, dass der Fillrate Test vom 3dMark2001 auch von der Bandbreite abhaengig sei. Somit sollte mal diesen nicht so ueber bewerten.

Richthofen
2003-01-27, 18:53:09
"
Ich glaube nicht, dass sich ein entickler eine NV30 einbauen wird. Die werden jetzt zu ATI wechseln, weil bei NV jetzt erstmal für'n Jahr Sendepause ist.
"

Glaub ich eher nicht. Für einen Entwickler sind sicher andere Dinge maßgeblich als Frames / Sekunde, AA und AF.
Der schaut auf die DX und OpenGL Funktionalität, auf die Treiber und nicht zu vergessen auf die ganze Entwickler Doku und die Tools die zur Verfügung gestellt werden zum Bleistift CG.
Nvidia hat die Entwickler zu Zeiten für sich gewonnen, als sie nach wie vor im Schnitt die etwas langsameren Produkte hatten im Vergleich zu 3dfx aber sie haben einzigartigen Developer Support geboten. Von daher sehe ich hier keine Änderung.

Gohan
2003-01-27, 18:57:58
Wenns nach Developer Support gehen würde, wäre Matrox Marktführer ;)

Demirug
2003-01-27, 19:03:02
Originally posted by Gohan
Wenns nach Developer Support gehen würde, wäre Matrox Marktführer ;)

Eher SIS oder S3 ;)

AlfredENeumann
2003-01-27, 19:12:51
Originally posted by Richthofen
"
Ich glaube nicht, dass sich ein entickler eine NV30 einbauen wird. Die werden jetzt zu ATI wechseln, weil bei NV jetzt erstmal für'n Jahr Sendepause ist.
"

Glaub ich eher nicht. Für einen Entwickler sind sicher andere Dinge maßgeblich als Frames / Sekunde, AA und AF.
Der schaut auf die DX und OpenGL Funktionalität, auf die Treiber und nicht zu vergessen auf die ganze Entwickler Doku und die Tools die zur Verfügung gestellt werden zum Bleistift CG.
Nvidia hat die Entwickler zu Zeiten für sich gewonnen, als sie nach wie vor im Schnitt die etwas langsameren Produkte hatten im Vergleich zu 3dfx aber sie haben einzigartigen Developer Support geboten. Von daher sehe ich hier keine Änderung.

JA, nur schade das sich die Entwickler leider kein GeForce FX Ultra, sondern ein normales Modell in den Rechner setzen. Und die Fehlerfreien, perfekten Treiber für die FX sind eine Wohltat für jeden Entwickler.

nagus
2003-01-27, 19:18:15
Originally posted by AlfredENeumann


JA, nur schade das sich die Entwickler leider kein GeForce FX Ultra, sondern ein normales Modell in den Rechner setzen. Und die Fehlerfreien, perfekten Treiber für die FX sind eine Wohltat für jeden Entwickler.


geile signatur ;D

Iceman346
2003-01-27, 19:50:51
Originally posted by Richthofen
"
Ich glaube nicht, dass sich ein entickler eine NV30 einbauen wird. Die werden jetzt zu ATI wechseln, weil bei NV jetzt erstmal für'n Jahr Sendepause ist.
"

Glaub ich eher nicht. Für einen Entwickler sind sicher andere Dinge maßgeblich als Frames / Sekunde, AA und AF.
Der schaut auf die DX und OpenGL Funktionalität, auf die Treiber und nicht zu vergessen auf die ganze Entwickler Doku und die Tools die zur Verfügung gestellt werden zum Bleistift CG.
Nvidia hat die Entwickler zu Zeiten für sich gewonnen, als sie nach wie vor im Schnitt die etwas langsameren Produkte hatten im Vergleich zu 3dfx aber sie haben einzigartigen Developer Support geboten. Von daher sehe ich hier keine Änderung.

Hoffentlich kommt kein Entwickler auf die Idee nur noch cG einzusetzen, dann kriegen wir noch sonne Situation die damals mit Glide...

robbitop
2003-01-27, 20:24:17
cG ist opensource und Kompatibel mit anderen Karten....

Glide war was ganz anderes und damals war es die erste wirkliche 3 D Accelerator API und es gab nur die Voodoos die das beherrschten und niemand musste auf lahme Karten rücksicht nehmen... Glide wurde dadurch zur Revolution

MeLLe
2003-01-27, 20:37:31
Originally posted by LovesuckZ
Mir wurde gesagt, dass der Fillrate Test vom 3dMark2001 auch von der Bandbreite abhaengig sei. Somit sollte mal diesen nicht so ueber bewerten.
AFAIK heissen die Fillrate-Tests "Fillrate-Test", weil diese so designt sind, dass eben doch das Fillrate-Limit erreicht wird, und nicht andere Subsysteme des Rechners bremsen.
Sonst wären es´keine Fillrate-Tests. Oder? ;)

Exxtreme
2003-01-27, 20:39:43
Originally posted by MeLLe

AFAIK heissen die Fillrate-Tests "Fillrate-Test", weil diese so designt sind, dass eben doch das Fillrate-Limit erreicht wird, und nicht andere Subsysteme des Rechners bremsen.
Sonst wären es´keine Fillrate-Tests. Oder? ;)
Also der Fillrate-Test vom 3DMurks ist nur dann ein Fillrate-Test wenn man genug Bandbreite hat. Wenn man wenig Bandbreite hat, werden die Ergebnisse verfälscht.

LovesuckZ
2003-01-27, 20:50:21
Originally posted by MeLLe
Oder? ;)

Naja, ich bin misstaurisch geworden als der Fillratetest auf meiner 9500 mit 16AF nicht eingebrochen ist...

Demirug
2003-01-27, 20:53:57
Originally posted by Exxtreme

Also der Fillrate-Test vom 3DMurks ist nur dann ein Fillrate-Test wenn man genug Bandbreite hat. Wenn man wenig Bandbreite hat, werden die Ergebnisse verfälscht.

Ja und beim ST reicht die Bandbreite eigentlich nie

Iceman346
2003-01-27, 20:58:15
Originally posted by robbitop
cG ist opensource und Kompatibel mit anderen Karten....

Glide war was ganz anderes und damals war es die erste wirkliche 3 D Accelerator API und es gab nur die Voodoos die das beherrschten und niemand musste auf lahme Karten rücksicht nehmen... Glide wurde dadurch zur Revolution

cG ist aber auch von Nvidia beherrscht im gewissen Maße. Solange von M$ HLSL herauskommt und für Open GL solls ja auch noch ein entsprechendes Programm geben fände ich es nicht gut wenn Entwickler zu cG greifen würden einfach weil es hier vielleicht möglich wäre andere Karten zu benachteiligen.

Demirug
2003-01-27, 21:13:53
Originally posted by Iceman346


cG ist aber auch von Nvidia beherrscht im gewissen Maße. Solange von M$ HLSL herauskommt und für Open GL solls ja auch noch ein entsprechendes Programm geben fände ich es nicht gut wenn Entwickler zu cG greifen würden einfach weil es hier vielleicht möglich wäre andere Karten zu benachteiligen.

Cg und MS HLSL sind zu über 99% kompatibel. Für DirektX 9 erzeugt Cg ganz normalen DX9 Shader code. Bei OpenGL muss sowieso jeder Hersteller solange es kein OpenGL 2.0 gibt was eigenes machen.

Was nun die Benachteiligung angeht so stimmt das sogar zu einem gewiessen Mass.

Der MS HLSL Compiler kann derzeit nur DX9 2.0 Shader erzeugen.
Der Cg Compiler kann nun aus dem gleichen HLSL Code auch einen für NVIDIA optimierten 2.0+ Shader erzeugen.

Die Entwickler haben also die option aus dem gleichen Code zwei Shader zu bauen wobei es durchaus im Bereich des möglichen das der vom Cg Compiler erzeugte Shader auf einer NVIDIA Karte schneller läuft als der vom MS Compiler erzeugte Shader.

Der Vorteil ist aber nur ein Performances Vorteil die Effekte wären identisch.

Ich habe damit ehrlich gesagt kein Problem und ATI könnte ja auch noch einen zu HLSL Compiler bauen der für ihrer Karte optimiert.

Crushinator
2003-01-29, 14:04:46
Originally posted by Demirug Ich habe damit ehrlich gesagt kein Problem und ATI könnte ja auch noch einen zu HLSL Compiler bauen der für ihrer Karte optimiert. Aus der Sicht des Kunden, sollte ATi entweder genau dies tun oder den CG-Compiler lizensieren bzw. in Zusammenarbeit mit NV weiterentwicklen, aus wirtschaftlichen Aspekten sowieso. Ich schätze aber leider, daß es - wenn überhaupt - zu Ersterem kommt.