PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv40 und r420, werden die schwächen behoben sein?


Seiten : 1 [2]

Demirug
2004-01-19, 10:17:08
Original geschrieben von MadManniMan
Mal ganz davon ab, daß das da oben nicht ernst gemeint war... Welche "Organisation" besitzt der NV30/35? Wie "heftig" ist der Unterschied davon nach 8*1?


Was die TMUs angeht 4*2. Was die ALUs/FPU angeht ist das so konfuss das es kaum einer wirklich wissen will. Und selbst wenn gibt es da keine 100% richtige Antwort weil nVidia die letzten Details nicht verraten hat.

aths
2004-01-19, 10:26:28
Original geschrieben von MadManniMan
Mal ganz davon ab, daß das da oben nicht ernst gemeint war... Welche "Organisation" besitzt der NV30/35? Wie "heftig" ist der Unterschied davon nach 8*1?Sobald besser als bilinear gefiltert wird, ist es Wurst, ob 8x1 oder 4x2. Seit NSR (GF2) setzt Nvidia auf 2 bilineare TMUs pro Pipe.

MadManniMan
2004-01-19, 13:32:24
Jungs, danke fürs Feedback aber darüber war ich mir im Klaren. Die Aussagen waren als rethorische Fragen gedacht, die sich reunion stellen sollte, wenn er sagt, daß er nV kein 8*1 Design zutraut, weil das zu pralle wäre.

;)

Und nun bis morgen, ich muß auf arbeit...

nagus
2004-01-19, 13:35:22
:cop: Fuad :cop:

http://www.theinquirer.net/?article=13693

DrumDub
2004-01-19, 13:40:06
Original geschrieben von nagus
:cop: Fuad :cop:

http://www.theinquirer.net/?article=13693

allerdings... ;D

Exxtreme
2004-01-19, 13:44:19
Original geschrieben von Gast
Den Entwicklern kann der Speed unter den neuen Features erst einmal komplett egal sein, wichtig ist der HW-Support.
Nicht unbedingt. Also die Entwickler werden schon die schnellere Karte bevorzugen nämlich weil sie der Endkunde mit hoher Wahrscheinlichkeit auch haben wird.

Ailuros
2004-01-19, 15:10:52
Original geschrieben von robbitop
@AiL
150nm nenne ich einfach mal Zwischenschritt, weil nur die GPU Hersteller ihn verwandten. Ich will erstt selbst sehen dass es bei 110nm anders ist.

90nm erlaubt sehr hohe Taktraten, aber durch die extrem kleinen Strukturen werden Leckströme derzeit ein riesen großes Problem, daß selbst mit SOI nicht wirklich eingedämmt werden kann. BlackBirdSR hat mal eine Methodik erläutert die Intel bis zum 65nm Prozess hinzufügen will, um diesem Problem entgegenzutreten (afaik war es highk Materialien zw die Gates und das Substrat...ich weiss es nicht mehr genau). Man sieht es an allen möglichen 90nm CPUs. Der Stromverbrauch scheint nicht wirklich zu sinken (siehe Prescott und Dothan im Gegensatz zu NW und Banias).
Aber die Taktfreudigkeit wird natürlich gesteigert.
Und somit kann man imo den Trend des steigenden Verbrauchs wieder einmal leider bejahen :-(

Nochmal ich sagte 2005.

Und wenn Du schon Deine Argumente zwischen dem VPU und CPU Maerkten trennen willst, dann mach es bitte fuer alle Umstaende. Nein das eine hat mit dem anderen nichts zu tun.

Ailuros
2004-01-19, 15:11:38
Original geschrieben von nagus
:cop: Fuad :cop:

http://www.theinquirer.net/?article=13693

Nein.

Gast
2004-01-19, 15:12:40
Original geschrieben von Exxtreme
Nicht unbedingt. Also die Entwickler werden schon die schnellere Karte bevorzugen nämlich weil sie der Endkunde mit hoher Wahrscheinlichkeit auch haben wird.

?? Da sehe ich keinen Zusammenhang.

DrumDub
2004-01-19, 15:17:47
Original geschrieben von Ailuros
Nein.

nein zu fuad oder nein zum inquirer artikel?

Ailuros
2004-01-19, 15:21:08
Doch. Applaus von der Entwickler-Seite, und zufriedene Käufer.

Waere es auf NV35/6/8 begrenzt, haette ich nicht viel einzuwenden. Wenn ich aber so in Richtung NV31/4 schaue, dann hab ich so manchen Zweifel.

Auf jeden Fall sind da die Kaeufer nicht so zufrieden wie sie mit einer NV25 waren.

Ailuros
2004-01-19, 15:23:24
Original geschrieben von DrumDub
nein zu fuad oder nein zum inquirer artikel?

Nein zum Inhalt des Artikels.

aths
2004-01-19, 15:48:53
Original geschrieben von Ailuros
Waere es auf NV35/6/8 begrenzt, haette ich nicht viel einzuwenden. Wenn ich aber so in Richtung NV31/4 schaue, dann hab ich so manchen Zweifel.Hm, NV34 wird doch in großen Stückzahlen abgesetzt. Wirklich gegen den Willen des Käufers? Die Entwickler werden über den NV34 sehr froh sein, weil das heißt, dass sich endlich die DX7-Basis etwas verkleinert.
Original geschrieben von Ailuros
Auf jeden Fall sind da die Kaeufer nicht so zufrieden wie sie mit einer NV25 waren. Ich persönlich bin mit dem NV25 nicht so sehr zufrieden :|

DrumDub
2004-01-19, 15:50:28
Original geschrieben von Ailuros
Nein zum Inhalt des Artikels.

wollt ich doch beim inquirer meinen. ;D
danke für die info...

Ailuros
2004-01-19, 16:22:22
Hm, NV34 wird doch in großen Stückzahlen abgesetzt. Wirklich gegen den Willen des Käufers? Die Entwickler werden über den NV34 sehr froh sein, weil das heißt, dass sich endlich die DX7-Basis etwas verkleinert.

Obwohl es ein positiver Aspekt ist dass sich die dx7 Basis verkleinert hat, heisst es aber nicht gleich dass sich die dx9.0 Basis auch in Realitaet vergroessert hat. Was ein Entwickler wohl mit einer NV34 und dx9.0 anrichten koennte, kann ich mir persoenlich zwar nicht vorstellen, aber wireframe muss ja sein Reizen haben in 640*480.

Wieso hab ich das Gefuehl dass wenn die Konkurrenz auch Value dx9.0 Loesungen seit Q4 2002 gehabt haette, dass wir heute mehr zufriedene Kaeufer haetten?

Ich persönlich bin mit dem NV25 nicht so sehr zufrieden.

Schon eine 5600U direkt damit verglichen? (und ich meine jetzt nicht nur eine handvoll von beliebten Spielen).

Demirug
2004-01-19, 16:56:33
Ailuros, die DX9 Basis hat sich durch die ganzen NV3X Chips vergrössert. Vorallem die Basis in der Statistik. Publischer sehen es gerne wenn ein Spiel auf einer möglichst grossen Anzahl von Rechner "lauffähig" ist. Erreicht in der entsprechenden Statistik der Anteil der Karten die DX9 Fähigkeiten haben einen gewissen Prozentsatz können sich die Entwickler die DX8 Fallbacks sparen womit mehr Zeit für andere Dinge oder einen eingehaltenen Releasetermin bleibt. Langsam laufen ist tolerierbar. Überhaupt nicht laufen dagegen eher nicht.

mapel110
2004-01-19, 17:09:14
Original geschrieben von Demirug
Überhaupt nicht laufen dagegen eher nicht.

"überhaupt nicht laufen" scheint aber auch eine definitionfrage zu sein. immerhin werden jetzt bei vielen derzeit erscheinenden spielen, die dx7karten-user ausgesperrt. und ich denke, da spielt auch die erreichbare performance mit dx7-karten eine rolle und weniger die features.

seahawk
2004-01-19, 18:58:02
Original geschrieben von DrumDub
nein zu fuad oder nein zum inquirer artikel?

Die Info im Artikel ist definitv "zweifelhaft"

Gast
2004-01-19, 19:21:40
Ich denke, daß ich von meinem Bekanntenkreis durchaus auf einen großen Teil der Käuferschaft schließen kann.

Wenn ein Game per se läuft, auch wenn's langsam ist, wird erstmal die Schuld beim eigenen Rechner gesucht, der Aufrüstwille ist da. Wenn das Spiel aber dagegen komplett verweigert, sei es wegen DX9, sei es wegen MMX (gab da auf einer LAN mal eine lustige Szene mit DeltaForce, einem Kumpel mit P200MMX und seinem Nachbarn mit P200 :naughty: ), ist erstmal das Game "scheisse".

Zum nV34:
Ailuros, mal auf ein anderes Gebiet übertragen, glaube ich, daß etliche Menschen, die keinen 350PS-Siebener BMW, eine Mercedes S-Klasse oder einen Ferrari fahren, mit ihrem Auto trotzdem zufrieden sind. Einige finden sogar einen Smart richtig Klasse.

Zum Thema nV31u vs. nV25:
Warum High-End und Mid-Range vergleichen? Als der nV25 erschien, war er "King of the Hill", selbst seine (taktvoll) abgespeckten Varianten.
Der nV36, auch in Ultra-Flavor, war nie mehr als ein Mid-Range Versuch und dazu nichtmal ein gelungener.

Ein Leistungsvergleich ist zudem wenig sinnvoll, da ein Side-grade von einer GF4 Ti auf alles unterhalb einer FX5800U/R9700 i.d.R. (!) Blödsinn wäre.

Für Aufrüster solltest du die GF2-Kundschaft in Betracht ziehen, bzw. die Kyro-Käufer - das wäre in etwa eine Liga, für die ein anständiger und sinnvoller Speed-Boost drin wäre.

;Q

Ailuros
2004-01-20, 02:18:18
Original geschrieben von Demirug
Ailuros, die DX9 Basis hat sich durch die ganzen NV3X Chips vergrössert. Vorallem die Basis in der Statistik. Publischer sehen es gerne wenn ein Spiel auf einer möglichst grossen Anzahl von Rechner "lauffähig" ist. Erreicht in der entsprechenden Statistik der Anteil der Karten die DX9 Fähigkeiten haben einen gewissen Prozentsatz können sich die Entwickler die DX8 Fallbacks sparen womit mehr Zeit für andere Dinge oder einen eingehaltenen Releasetermin bleibt. Langsam laufen ist tolerierbar. Überhaupt nicht laufen dagegen eher nicht.

Kein Zweifel. Nur uebersehe ich die Wichtigkeit der Leistung eigentlich nie. DX9.0 im Value-segment war NV's kluger Gegenschlag gegen ATI's R3xx bulk; wie getroffen dieser Zug IMO war hab ich schon oefters erwaehnt.

Aber die Zufriedenheit der Entwickler bzw. Kaeufer ist IMMER relativ zu dem was erstmal verfuegbar ist. Haette ATI nicht einen sehr guten Erfolg mit der R3xx gelandet, dann waere heute die gesamte NV3x-Linie wieder die beste verfuegbare dx9.0 Loesungs-Pallette weil man es nicht mit etwas besserem zum vergleichen haette. Hypothese anders rum haette ATI nicht die bekloppte 9200/9100 oder was immer im Value Bereich gehabt, sondern eine R3xx basierende dx9.0 Loesung, aendern sich die Standards auch gleich wieder.

Mir ging es im uebrigen eher um mainstream Loesungen; wuerde ich letztes Jahr oder heute eine budget Loesung in Betracht nehmen dann waere eine 5200Ultra der einzige Kandidat an den ich denken wuerde, aber dann eher fuer dessen MSAA Faehigkeiten. Kommt es aber zu mainstram Loesungen, dann sehe ich nichts was der Rede wert ist mit einer 5600/U. 5700/U ist dabei ein ganz anderes Kapitel und beide Meinungen basieren nicht auf benchmarks bzw. reviews.

Ailuros
2004-01-20, 02:30:06
Zum Thema nV31u vs. nV25:
Warum High-End und Mid-Range vergleichen? Als der nV25 erschien, war er "King of the Hill", selbst seine (taktvoll) abgespeckten Varianten.
Der nV36, auch in Ultra-Flavor, war nie mehr als ein Mid-Range Versuch und dazu nichtmal ein gelungener.

5600U vs Ti4200 *ahem*

Zum nV34:
Ailuros, mal auf ein anderes Gebiet übertragen, glaube ich, daß etliche Menschen, die keinen 350PS-Siebener BMW, eine Mercedes S-Klasse oder einen Ferrari fahren, mit ihrem Auto trotzdem zufrieden sind. Einige finden sogar einen Smart richtig Klasse.

Ich hab schon etliche Male versucht aehnliche Parallele fuer Beispiele zu finden und jedesmal war es ein schlechter Vergleich. Ganz einfach der Durschnitts-Verbraucher kann eine teure/billige VGA mit einem Monats-lohn erstellen, wobei ein Auto ueber die Jahresgrenze wenn nicht mehr steigt (je nach Einkommen/budget etc.).

OT: ich fahre auch keine teure oder schnelle Karren. Frueher war ich absolut verrueckt mit Geschwindigkeit, hab mich da aber eher mit sehr schnellen Motorraedern ausgetobt. Hab den Sport in der Zwischenzeit aber aufgegeben.

Kommt ganz drauf an ob man das kauft was man wirklich braucht oder sich einfach einem gewissen Lebensstandard anpasst: Leute kaufen Sachen die sie nicht brauchen, mit Geld dass sie nicht haben, um Leuten zu imponieren die sie Grunde gar nicht gern haben. [/end of philosophy rant] ;)

aths
2004-01-20, 02:47:01
Original geschrieben von Ailuros
Obwohl es ein positiver Aspekt ist dass sich die dx7 Basis verkleinert hat, heisst es aber nicht gleich dass sich die dx9.0 Basis auch in Realitaet vergroessert hat. Was ein Entwickler wohl mit einer NV34 und dx9.0 anrichten koennte, kann ich mir persoenlich zwar nicht vorstellen, aber wireframe muss ja sein Reizen haben in 640*480.Dank Early-Z müssten gefüllte Polygone eigentlich schneller zu rendern sein, als ein Wireframe.

Original geschrieben von Ailuros
Wieso hab ich das Gefuehl dass wenn die Konkurrenz auch Value dx9.0 Loesungen seit Q4 2002 gehabt haette, dass wir heute mehr zufriedene Kaeufer haetten?Zu deinen Gefühlen kann ich nichts sagen :)

Original geschrieben von Ailuros
Schon eine 5600U direkt damit verglichen? (und ich meine jetzt nicht nur eine handvoll von beliebten Spielen). Wieso vergleichen? Die 5600 nU ist nicht sehr schnell, aber schnell genug für die meisten Spiele. _Empfehlen_ würde ich für Spiele mindestens 5700 U, das ist klar. Die kostet aber auch 'n Zacken mehr.

aths
2004-01-20, 02:51:25
Original geschrieben von Demirug
Erreicht in der entsprechenden Statistik der Anteil der Karten die DX9 Fähigkeiten haben einen gewissen Prozentsatz können sich die Entwickler die DX8 Fallbacks sparen womit mehr Zeit für andere Dinge oder einen eingehaltenen Releasetermin bleibt.Bzw. einen DX7-Fallback sparen. Irgendwann muss auch mal gut sein mit DX7. Bei DX8 kann man ja immerhin das Shader-Modell verwenden. Mir schwant, dass uns eine lange Ära des DX9-Techlevels bevor steht.

mapel110
2004-01-20, 03:51:28
Original geschrieben von aths
Mir schwant, dass uns eine lange Ära des DX9-Techlevels bevor steht.

ja, dank dem billigen 5200er schrott :freak: an ATI kanns ja nicht liegen, wenns eine zu breite dx9-käuferschicht gibt :)

/edit
directx7 wird doch mittlerweile schon aufgegeben, aber wie ich oben schon schrieb, eher weil man einsieht, dass die performance dieser karten nicht mehr ausreichen würde, und nicht aufgrund mangelnder/fehlender feature.

Ailuros
2004-01-20, 04:19:55
Dank Early-Z müssten gefüllte Polygone eigentlich schneller zu rendern sein, als ein Wireframe.

Bei early-Z optimierten Applikationen/Spielen ja. Dabei ist der Markt ja momentan regelrecht ueberschwemmt mit diesen.


Wieso vergleichen? Die 5600 nU ist nicht sehr schnell, aber schnell genug für die meisten Spiele. _Empfehlen_ würde ich für Spiele mindestens 5700 U, das ist klar. Die kostet aber auch 'n Zacken mehr.

Wo liegt dann der Grund fuer ein Argument ueberhaupt?

aths
2004-01-20, 04:22:15
Original geschrieben von mapel110
directx7 wird doch mittlerweile schon aufgegebenNV hat DX7 kürzlich mit der MX 4000 wieder mal neu aufgebacken.
Original geschrieben von mapel110
aber wie ich oben schon schrieb, eher weil man einsieht, dass die performance dieser karten nicht mehr ausreichen würde, und nicht aufgrund mangelnder/fehlender feature. Wenn es danach ginge, dürfte es die 5200 nicht geben, schon gar nicht die mit 64-Bit-Interface.

aths
2004-01-20, 04:30:40
Original geschrieben von Ailuros
Bei early-Z optimierten Applikationen/Spielen ja. Dabei ist der Markt ja momentan regelrecht ueberschwemmt mit diesen. Front-to-Back-Sorting lohnt auch bei Karten, die kein Early-Z unterstützen.

Original geschrieben von Ailuros
Wo liegt dann der Grund fuer ein Argument ueberhaupt? Für welche Spiele ist eine 5600 untauglich? Die 5900 XT mag deutlich attraktiver erscheinen, ist aber auch deutlich teurer. Sieh es mal so: Der Kunde heute will DirectX9. Die 5200 ist nun gleich gar nicht gut, die 5600 hat immerhin Z+Color-Compression.

Ailuros
2004-01-20, 05:04:12
Front-to-Back-Sorting lohnt auch bei Karten, die kein Early-Z unterstützen.

Wunderbar. Nur gilt das mehr oder weniger schon fuer die Mehrzahl der Karten der vorigen Generation.

Für welche Spiele ist eine 5600 untauglich? Die 5900 XT mag deutlich attraktiver erscheinen, ist aber auch deutlich teurer. Sieh es mal so: Der Kunde heute will DirectX9. Die 5200 ist nun gleich gar nicht gut, die 5600 hat immerhin Z+Color-Compression.

Typisch; wieder ein Argument fuer's Argument. Im Vergleich mainstream zu mainstream zwischen Generationen, ist eine 5600 wohl nicht dem was ich bisher von NV gewohnt war ebenbuertig.

Vergleich eine Ti200 mit einer Ti4200. Noch einen Schritt weiter mit Ti4200 und 5600/U. Im ersten Fall hast Du Unterschiede die man auch in real time sehen kann, im zweiten Fall sind die realen Unterschiede zwischen gering bis minimal.

Was dx9.0 betrifft, der Kunde will das was ihm angedreht wird und hoehere API Komplianz verkauft sich nun mal besser. Hier sind mir die jeweiligen Schachzuege jedes IHVs aber im Grunde egal und ich weigere mich auch fuer jeden Fall auch denen anzupassen.

Im Value segment ist es mir schnuppe ob 9200 jetzt dx8.1 oder 5200 zeitig dx9.0 unterstuetzen; die letztere werde ich persoenlich bevorzugen aus total anderen Gruenden als Papier-Komplianz (siehe oben). Und wenn ich schon in den Marketing/PR Wirrwarr reingezogen werde, derartige Argumente gab es von Seiten NV zu Zeiten GF4MX/dx7.0 wohl nicht. Fuer mich gibt es einen gigantischen Unterschied zwischen Marketing/Geschaeftszuegen eines IHV, und dem was der Verbraucher eigentlich gebrauchen kann. NV brauchte einen effektiven Gegenschlag gegen ATI's R3xx bulk, und es ist ihnen auch blendend gelungen mit der Transition von dx9.0 in den Value-segment.

aths
2004-01-20, 06:51:43
Original geschrieben von Ailuros
Wunderbar. Nur gilt das mehr oder weniger schon fuer die Mehrzahl der Karten der vorigen Generation.Japp, und weil Early Z somit Füllrate spart, halte ich es für möglich, dass gefüllte Polygone von einer 5200 schneller gerendert werden, als Wireframe-Modelle.

Original geschrieben von Ailuros
Typisch; wieder ein Argument fuer's Argument. Im Vergleich mainstream zu mainstream zwischen Generationen, ist eine 5600 wohl nicht dem was ich bisher von NV gewohnt war ebenbuertig.

Vergleich eine Ti200 mit einer Ti4200. Noch einen Schritt weiter mit Ti4200 und 5600/U. Im ersten Fall hast Du Unterschiede die man auch in real time sehen kann, im zweiten Fall sind die realen Unterschiede zwischen gering bis minimal.Das ist ja richtig. Richtig ist aber auch, dass die 5600 für die meisten Spiele reicht. Zwar nicht, weil sie vernünftige Leistung bringen würde, sondern weil die meisten Spiele relativ wenig Leistung voraussetzen. Solange man prinzipiell mit einer GF2 GTS alles noch spielen kann, wird das mit der 5600 erst recht möglich sein.

Die neue Ti 200 bzw. Ti 4200 ist die 5900 XT: Aktuelle Leistung, anständiger Preis. 200 € ist für viele aber zu viel. Dann müssen sie mit weniger Leistung auskommen.

Original geschrieben von Ailuros
Was dx9.0 betrifft, der Kunde will das was ihm angedreht wird und hoehere API Komplianz verkauft sich nun mal besser. Hier sind mir die jeweiligen Schachzuege jedes IHVs aber im Grunde egal und ich weigere mich auch fuer jeden Fall auch denen anzupassen.Du kannst ja jemandem im Ruhe erklären, warum er lieber auf DX8 setzen sollte. Die meisten wollen DirectX9 und fragen nicht nach Shader-Power. Sollen sie doch das Checklist-Feature kriegen.

Original geschrieben von Ailuros
Im Value segment ist es mir schnuppe ob 9200 jetzt dx8.1 oder 5200 zeitig dx9.0 unterstuetzen; die letztere werde ich persoenlich bevorzugen aus total anderen Gruenden als Papier-Komplianz (siehe oben). Und wenn ich schon in den Marketing/PR Wirrwarr reingezogen werde, derartige Argumente gab es von Seiten NV zu Zeiten GF4MX/dx7.0 wohl nicht. Fuer mich gibt es einen gigantischen Unterschied zwischen Marketing/Geschaeftszuegen eines IHV, und dem was der Verbraucher eigentlich gebrauchen kann.Ich habe mir abgewöhnt, festzulegen, was "der Verbraucher" eigentlich gebrauchen kann.

Original geschrieben von Ailuros
NV brauchte einen effektiven Gegenschlag gegen ATI's R3xx bulk, und es ist ihnen auch blendend gelungen mit der Transition von dx9.0 in den Value-segment. Die 5600 sehe ich brauchbare Mittelklassen-DX8-Karte, immerhin hat sie MSAA und hochwertiges AF. Und das Checklist-Feature "DirectX9 compliant". Die 5700 ist natürlich in jeder Hinsicht überlegen. Kostet aber auch mehr.

Bin gespannt, wie der Mainstream-Chip auf NV40-Basis aussieht. (Konkret, ob das Teil eine Ti 4600 wegrockt, oder nicht.)

Quasar
2004-01-20, 07:46:49
Original geschrieben von Ailuros
5600U vs Ti4200 *ahem*


Sorry, meinte auch den nV31.... denn so mißlungen finde ich den nV36 schon nicht mehr, auch wenn er mein persönliches Portfolio nicht ausfüllen würde.

Quasar
2004-01-20, 07:49:27
Original geschrieben von aths
Der Kunde heute will DirectX9. Die 5200 ist nun gleich gar nicht gut, die 5600 hat immerhin Z+Color-Compression.

Wovon zumindest Ersteres nix zu bringen scheint und letzteres nur in Verbindung mit FSAA.

[hier folgt wahrscheinlich noch ein edit, wenn ich meine Folie zum Thema wiedergefunden habe]

zeckensack
2004-01-20, 08:30:56
Kleine OT-Deutsch-Stunde @ Ail :kicher:
Original geschrieben von Ailuros
Wo liegt dann der Grund fuer ein Argument ueberhaupt? False friends.

Argument (deutsch) <=> reason/proof [for one's opinion]; point [in a discussion]

argument (englisch) <=> der Streit; schwächer/freundlicher: der Zank (zanken); politisch korrekt: die Meinungsverschiedenheit

Argumentation (deutsch) <=> process of presenting supporting arguments; reaching a conclusion; train of thought

/:kicher:

aths
2004-01-20, 08:35:07
Original geschrieben von Quasar
Wovon zumindest Ersteres nix zu bringen scheintAußer dem besseren Gefühl beim Kunden :) (Und natürlich der "Startbarkeit" auch neuester Spiele.)
Original geschrieben von Quasar
und letzteres nur in Verbindung mit FSAA.Japp. Aber wieso "nur"?

Quasar
2004-01-20, 10:48:26
Original geschrieben von aths
Außer dem besseren Gefühl beim Kunden :) (Und natürlich der "Startbarkeit" auch neuester Spiele.)
Meinte eigentlich nur die Z-Compression, nicht DX9, da ist ja auch eine nV34 im Vergleich zur nV31 nicht benachteiligt.

Original geschrieben von aths
Japp. Aber wieso "nur"?
'Nur' deswegen, weil es IMO ein Luxus ist, bei ohnehin schon knapper Framerate bzw. dem Zwang zu Detail-Verzicht, noch FSAA einzuschalten.

aths
2004-01-20, 15:11:54
Original geschrieben von Quasar
Meinte eigentlich nur die Z-Compression, nicht DX9, da ist ja auch eine nV34 im Vergleich zur nV31 nicht benachteiligt.Z- und Color-Compression :) Wobei letzteres natürlich nur bei MSAA wirkt.

Original geschrieben von Quasar
'Nur' deswegen, weil es IMO ein Luxus ist, bei ohnehin schon knapper Framerate bzw. dem Zwang zu Detail-Verzicht, noch FSAA einzuschalten. Für mich ist FSAA bei einer Karte für Spiele Pflicht :) Zur Not 800x600, Hautpsache, Antialiasing.

Ailuros
2004-01-20, 15:41:39
Original geschrieben von aths

Die neue Ti 200 bzw. Ti 4200 ist die 5900 XT: Aktuelle Leistung, anständiger Preis. 200 € ist für viele aber zu viel. Dann müssen sie mit weniger Leistung auskommen.

Dafuer gibt es die 5700 und deshalb bin ich auch der Meinung dass dieser ein eher wuerdiger mainstream Nachfolger zur vorigen NV2x Generation ist als die langweilige 5600.

Du kannst ja jemandem im Ruhe erklären, warum er lieber auf DX8 setzen sollte. Die meisten wollen DirectX9 und fragen nicht nach Shader-Power. Sollen sie doch das Checklist-Feature kriegen.

Dein eigener Punkt ueber reale trilineare MT Fuellrate bzw. Leistung waere wohl genug :D

Ich habe mir abgewöhnt, festzulegen, was "der Verbraucher" eigentlich gebrauchen kann.

Gibt es also keine Sinn mehr den Normalverbraucher zumindest versuchen zu informieren? Entweder durch sites wie diese, dessen Foren oder sogar Artikel ;) Festlegen sicher nicht.

Die 5600 sehe ich brauchbare Mittelklassen-DX8-Karte, immerhin hat sie MSAA und hochwertiges AF. Und das Checklist-Feature "DirectX9 compliant". Die 5700 ist natürlich in jeder Hinsicht überlegen. Kostet aber auch mehr.

Hat eine NV25 genauso und hat auch teilweise bessere Leistung wenn man den brilinearen Mist auf dem NV31 in Betracht nimmt.

Bin gespannt, wie der Mainstream-Chip auf NV40-Basis aussieht. (Konkret, ob das Teil eine Ti 4600 wegrockt, oder nicht.)

Hmmm ich kann schon an was denken, aber ich bin mir sicher dass Du das gerade nicht hoeren willst ;)

Ailuros
2004-01-20, 15:45:49
Z- und Color-Compression Wobei letzteres natürlich nur bei MSAA wirkt.

Der eigentliche Vorsprung bei MSAA im Vergleich zu vorigen Loesungen ist die Erweiterung des filter on scanout tricks fuer 4xOGMS bei NV3x. Wobei 2xRGMS aber yadda yadda (na Du weisst schon)....*kicher*

Ailuros
2004-01-20, 15:55:56
Original geschrieben von zeckensack
Kleine OT-Deutsch-Stunde @ Ail :kicher:
False friends.

Argument (deutsch) <=> reason/proof [for one's opinion]; point

argument (englisch) <=> der Streit; schwächer/freundlicher: der Zank (zanken); politisch korrekt: die Meinungsverschiedenheit

Argumentation (deutsch) <=> process of presenting supporting arguments; reaching a conclusion; train of thought

/:kicher:

*seufz* Argument ist umso viel leichter als Meinungsverschiedenheit im Deutschen zu benutzen....

In Englisch jedoch kann man argument fuer beide obrigen Faelle benutzen, daher kommt auch meine Verwirrung:

1.
A discussion in which disagreement is expressed; a debate.
A quarrel; a dispute.
Archaic. A reason or matter for dispute or contention: “sheath'd their swords for lack of argument” (Shakespeare).

2.
A course of reasoning aimed at demonstrating truth or falsehood: presented a careful argument for extraterrestrial life.
A fact or statement put forth as proof or evidence; a reason: The current low mortgage rates are an argument for buying a house now.
A set of statements in which one follows logically as a conclusion from the others.

3.
A summary or short statement of the plot or subject of a literary work.
A topic; a subject: “You and love are still my argument” (Shakespeare).
[i]Logic. The minor premise in a syllogism.
Mathematics.
a)The independent variable of a function.
b]The angle of a complex number measured from the positive horizontal axis.
Computer Science. A value used to evaluate a procedure or subroutine.
Linguistics. In generative grammar, any of various positions occupied by a noun phrase in a sentence.

Danke fuer die Korrektur (#@%&%! = altgriechischer Fluch) :D

Exxtreme
2004-01-20, 15:58:18
Original geschrieben von Ailuros
Danke fuer die Korrigierung :D
Ähhm, Korrektur...

Du lernst es aber noch. :)

Ailuros
2004-01-21, 04:17:20
:...(

Gast
2004-01-21, 07:15:20
Original geschrieben von aths
Z- und Color-Compression :) Wobei letzteres natürlich nur bei MSAA wirkt.

Z-Compression hat der nV34 auch, zumindest, wenn ich meine nicht wiederauffindbare Präsentation richtig im Gedächtnis habe.

Original geschrieben von aths
Für mich ist FSAA bei einer Karte für Spiele Pflicht :) Zur Not 800x600, Hautpsache, Antialiasing.

So ist es für dich. Ich suche mir lieber einen Kompromiss, bei dem ich auch die dargestellte Qualität auf dem Monitor berücksichtige. Das kann je nach Spiel schon unterschiedlich sein, aber ich setze mich nicht vor dem Spielen hin und rechne mir die zu benutzende EE-Auflösung aus.

Wenn ich eine GF2MX habe, nutze ich FSAA zum Beispiel eher selten, während es bei einer R9800p ebenso selten einen Grund gibt, darauf mind. mit vier Subsamples zu verzichten. Bei den GeForces ist's schwieriger, denn da kommt noch die Entscheidung hinzu, ob es sich eventuell lohnt, für einen Supersampling-Anteil auf etwas Auflösung zu verzichten.

Aber einfach nur um 8xS-AA benutzen zu können, schalte ich bestimmt nicht auf 512x384 runter, wenn das Game auch höhere Auflösungen anbietet... :eyes:

;Q

aths
2004-01-21, 10:53:37
Original geschrieben von Gast
Z-Compression hat der nV34 auch, zumindest, wenn ich meine nicht wiederauffindbare Präsentation richtig im Gedächtnis habe.Du selbst hattest mich erst darauf hingewiesen, dass NV34 auch keine Z-Compression hat.

Original geschrieben von Gast
aber ich setze mich nicht vor dem Spielen hin und rechne mir die zu benutzende EE-Auflösung aus.Faulpelz!!
Original geschrieben von Gast
So ist es für dich. Ich suche mir lieber einen Kompromiss, bei dem ich auch die dargestellte Qualität auf dem Monitor berücksichtige. Das kann je nach Spiel schon unterschiedlich sein,... wobei mir das Bild mit AA grundsätzlich lieber ist.
Original geschrieben von Gast
Wenn ich eine GF2MX habe, nutze ich FSAA zum Beispiel eher selten, während es bei einer R9800p ebenso selten einen Grund gibt, darauf mind. mit vier Subsamples zu verzichten. Bei den GeForces ist's schwieriger, denn da kommt noch die Entscheidung hinzu, ob es sich eventuell lohnt, für einen Supersampling-Anteil auf etwas Auflösung zu verzichten.GF2 MX ist nun wirklich keine "AA-Karte", 5600 deutlich eher, gell?
Original geschrieben von Gast
Aber einfach nur um 8xS-AA benutzen zu können, schalte ich bestimmt nicht auf 512x384 runter, wenn das Game auch höhere Auflösungen anbietet... :eyes:Beim 8xS-Modus lohnt das ja auch nicht (da großer OGSSAA-Anteil.)

Gast
2004-01-21, 12:40:30
Original geschrieben von aths
Du selbst hattest mich erst darauf hingewiesen, dass NV34 auch keine Z-Compression hat.
Vor meinem Versuch eines Systemwechsels habe ich allerdings noch eine Präsentation gesehen (die ich nun nicht mehr finde), auf der das anders dargestellt wird. Mal sehen, morgen bin ich wieder zuhaus' und suche nochmal.

Original geschrieben von aths
Faulpelz!!
:P

Original geschrieben von aths
... wobei mir das Bild mit AA grundsätzlich lieber ist.
Mir auch, aber nur, wenn es die restliche Bildqualität durch den Stolperstein "Performance" nicht zu sehr einschränkt.

Original geschrieben von aths
GF2 MX ist nun wirklich keine "AA-Karte", 5600 deutlich eher, gell?
Es war nur dieses Argument "Für mich ist FSAA bei einer Karte für Spiele Pflicht Zur Not 800x600, Hautpsache, Antialiasing." weitergedacht bis ins extrem. Ich wollte damit zeigen, daß obiges eben _deine_ Ansicht ist, während ich eine FX5600 nicht als AA-Spielekarte ansehe ;)

Original geschrieben von aths
Beim 8xS-Modus lohnt das ja auch nicht (da großer OGSSAA-Anteil.)
Gerade der 8xS-Modus wäre einer der lohnendsten, wenn man ältere Games von Alpha-Test-Jaggies befreien will. 4xS kann das nur auf einer Achse. :naughty:

;Q

MadManniMan
2004-01-21, 12:47:51
Original geschrieben von Gast
Gerade der 8xS-Modus wäre einer der lohnendsten, wenn man ältere Games von Alpha-Test-Jaggies befreien will. 4xS kann das nur auf einer Achse. :naughty:

Nimm doch 4*OGSS, fetzt doch auch *Nortie*

zeckensack
2004-01-21, 14:04:06
Original geschrieben von Gast
Gerade der 8xS-Modus wäre einer der lohnendsten, wenn man ältere Games von Alpha-Test-Jaggies befreien will. 4xS kann das nur auf einer Achse. :naughty:Alpha-Test-Jaggies kann man auch ganz einfach über eine höhere Auflösung reduzieren, so weit der Monitor das zulässt. Das ist locker besser als 4xS.

Statt 1024x768/4xS schlage ich 1280x960/2xRGMS vor. Sollte ähnliche Performance liefern, und insgesamt besser aussehen, weil - * - die höhere Auflösung gleichmässig auf beide Achsen verteilt ist, und zudem die Lokalität der Samples nicht durch den Downfilter vernichtet wird. Last but not least ergibt sich auch ganz automatisch eine insgesamt höhere Texturqualität**. Mipmapping ahoi.

Edition E:
*trotz insgesamt weniger Farb-Samples (4xS => 2; 1280x960/1024x768 => 1.25²=1.5625)
**das durch 4xS eingeführte 2x-quasi-AF ist extrem winkelabhängig :naughty:

aths
2004-01-22, 08:06:06
Original geschrieben von zeckensack
Statt 1024x768/4xS schlage ich 1280x960/2xRGMS vor. Sollte ähnliche Performance liefern, und insgesamt besser aussehen, weil - * - die höhere Auflösung gleichmässig auf beide Achsen verteilt ist, und zudem die Lokalität der Samples nicht durch den Downfilter vernichtet wird.Das mit der besseren Verteilung auf der Achse stimmt natürlich. Bei WC3 z. B. hätte ich gerne ein um 90° gedrehtes 4xS-Muster, um das Alphatest-Gras besser zu glätten.

Die Vernichtung der Lokalität der Samples führt aber auch dazu, dass die Farbänderungen pro Pixel weniger drastisch ausfallen. Das kommt dem Empfinden dann wieder ein Stück entgegen. Ich denke, mehr als ca. 1000 Zeilen ist auf heutigen Monitor-Flächen Quatsch, man sollte jede Performance dann in die "echtere" Pixelfarbe investieren. Ein PAL-Bild hat nur 576 sichtbare Zeilen, kaum jemand regt sich über die Auflösung auf (zumindest, bis er mal HDTV gesehen hat.)

Was Texturqualität angeht, bin ich der Meinung: AF to the max. Bringt mehr als xS-Modi und mehr als gesteigerte Auflösung.

Quasar
2004-01-22, 09:17:25
Original geschrieben von aths
Du selbst hattest mich erst darauf hingewiesen, dass NV34 auch keine Z-Compression hat.


Du hast recht. Ich habe nochmal geschaut und alles was ich noch gefunden habe, sagt eindeutig, daß der nV34 keine Z-Compression hat.

AccuView Anti-Aliasing, ZCulling und FastZClears sind 'das einzige', was neben dem CBMC noch zur Effizienzverbesserung öfftl. dokumentiert ist.

Nachsatz:
Klar ist 8xS ineffizienz und ein leistungsfresser sondergleichen. Aber ich sagte das ja auch nur in Bezug auf und im Vergleich zu 4xS-AA. Denn wenn mich ein Game so stark mit A-Test-Jaggies nervt (oder eben in der max. Auflösung auf 640 beschränkt ist), daß ich gern zu einem Supersampling-Anteil griffe, dann nähme ich, wenn möglich, gleich 8xS.

robbitop
2004-01-22, 09:29:01
640x480 sieht selbst mit AF und Supersampling sehr matschig aus imo. Es fehlen einfach die Pixel :)

aths
2004-01-22, 09:31:46
Original geschrieben von Quasar
Du hast recht. Ich habe nochmal geschaut und alles was ich noch gefunden habe, sagt eindeutig, daß der nV34 keine Z-Compression hat.
NV31 hat Z- und Color-Compression, was die Karte für mich in den Rang einer AA-Karte hebt :) wenn auch die Grundleistung nicht sehr berauschend ist. MSAA zuzuschalten dürfte aber nicht sehr stark auf die Performance gehen.
Original geschrieben von Quasar
Denn wenn mich ein Game so stark mit A-Test-Jaggies nervt (oder eben in der max. Auflösung auf 640 beschränkt ist), daß ich gern zu einem Supersampling-Anteil griffe, dann nähme ich, wenn möglich, gleich 8xS. Ich auch X-D

Quasar
2004-01-22, 09:52:20
Original geschrieben von robbitop
640x480 sieht selbst mit AF und Supersampling sehr matschig aus imo. Es fehlen einfach die Pixel :)

Klar, aber was willst du bei alten Games machen, die einfach auf Voodoo1 optimiert, bzw. realitätsnah programmiert waren und die Auflösung auf 640x480 oder auch 800x600 beschränken?
Manche dieser Games machen auch heute noch Spaß und "aktuelle Games mit DX9" kann ich als Besitzer einer Grafikkarte "mit unterirdisch und grottig" performenden Shadereinheiten ja leider nicht spielen. X-D

Original geschrieben von aths
NV31 hat Z- und Color-Compression, was die Karte für mich in den Rang einer AA-Karte hebt :) wenn auch die Grundleistung nicht sehr berauschend ist. MSAA zuzuschalten dürfte aber nicht sehr stark auf die Performance gehen.
Ok, da haben wir dann unterschiedlich Ansichten. Features allein zählen bei mir im Praxiseinsatz nur beschränkt. Sie sollten schon sinnvoll nutzbar sein.
Und um das in Sachen FSAA einer FX5600 pauschal zu bescheinigen, schwankt mir die Performance zu starkt beim Zuschalten desselben und gleichzeitiger Nutzung von 4xAF.
(FSAA-Karten wären für mich Radeons mit acht Pipelines, und FXen mit 4x2-Architektur)

Teilweise läßt sich's noch gut damit leben, aber manchesmal geht die (eh nur mäßig vorhandene) Leistung doch den Bach runter.

Ailuros
2004-01-22, 12:42:20
Manche dieser Games machen auch heute noch Spaß und "aktuelle Games mit DX9" kann ich als Besitzer einer Grafikkarte "mit unterirdisch und grottig" performenden Shadereinheiten ja leider nicht spielen.

Spass beiseite und total OT; welches der sogenannten heutigen als dx9.0 klassifizierten Spiele manchen denn ueberhaupt Spass?

TR:AoD? :puke:

Halo? :help:

X2? nicht mein :bier:

et cetera

Ausser einer handvoll von Aussnahmen langweile ich mich in letzter Zeit mit mehr als nur ein paar der neuen Spiele (egal ob mit oder ohne dx9.0 Effekten). MP2 war nicht unbedingt schlecht aber ich fragte mich ob ich ein Spiel oder einen Film mit ein bisschen interactivity gekauft hatte.

Ich hab auf das originale Unreal damals etwa so reagiert: :O

seahawk
2004-01-22, 13:04:54
Ich fand KOTOR gut, auch wenn das sicher nicht an DX9 lag. :D

ShadowXX
2004-01-22, 13:11:37
Original geschrieben von Ailuros
Spass beiseite und total OT; welches der sogenannten heutigen als dx9.0 klassifizierten Spiele manchen denn ueberhaupt Spass?

TR:AoD? :puke:

Halo? :help:

X2? nicht mein :bier:

et cetera

Ausser einer handvoll von Aussnahmen langweile ich mich in letzter Zeit mit mehr als nur ein paar der neuen Spiele (egal ob mit oder ohne dx9.0 Effekten). MP2 war nicht unbedingt schlecht aber ich fragte mich ob ich ein Spiel oder einen Film mit ein bisschen interactivity gekauft hatte.

Ich hab auf das originale Unreal damals etwa so reagiert: :O

Wo du recht hast, hast du recht...

Im Prinzip sind für mich nv35 und r3xx auch nur sehr schnelle DX8 Karten, bei denen man endlich AA und AF vernünftig nutzen kann + ein paar Eye-Candies dafür, das man so früh neue Technologie gekauft hat...

Eigentlich erwarte ich immer erst von der Nachfolgegeneration, das Sie vernünftig mit jeweils älteren DX-Specs läuft...

J.S.Shadow

Quasar
2004-01-22, 13:15:36
Original geschrieben von ShadowXX
Im Prinzip sind für mich nv35 und r3xx auch nur sehr schnelle DX8 Karten, bei denen man endlich AA und AF vernünftig nutzen kann + ein paar Eye-Candies dafür, das man so früh neue Technologie gekauft hat...


Bingo, der Mann hat soviele Kleinwagen gewonnen, die er an die Ohren gebunden nach Hause tragen kann...

Evtl. wird jetzt meine Entscheidung zugunsten der FX5800u ein wenig verständlicher... =)

edit:
@Ailuros:
PoP: Sands of Time soll ja ganz nett sein und auch von FarCry verspreche ich mir aufgrund der B... err Demo eigentlich einiges.
Das soll allerdings nicht den Sarkasmus schmälern, den du gequotet hast ;)

MadManniMan
2004-01-22, 13:21:32
Original geschrieben von zeckensack
Statt 1024x768/4xS schlage ich 1280x960/2xRGMS vor. Sollte ähnliche Performance liefern, und insgesamt besser aussehen

Nun, also ich hab dereinst mit meiner Ti200 1024/4xS 1280/2*RG stets vorgezogen, letzteres war natürlich schneller, aber zB Morrowind oder diverse Rennspiele kommen mit Supersampling richtig gut.

:kicher: Ergo: Theorie ist fein und gut, aber hin und wieder braucht auch ein zäcki mair praktische Dings! :kicher:

Ailuros
2004-01-22, 14:19:36
Quasar,

Das FarCry demo weigere ich mich herunterzuladen mit 56K. So verrueckt bin ich nun auch wieder nicht. Ich warte erstmal das finale Spiel ab. In meinen Plaenen steht fuer H1 2004, meinen Hauptspeicher zu verdoppeln und eine 256MB naechster Generation Graka. Wenn dann das Spiel immer noch nicht akzeptabel laeuft (mindestens 1152*864*32, high in game detail, 2xAA/8xAF), dann bezweifle ich dass ich mich mit einem solchem Ram-Fresser beschaeftigen werde.

ShadowXX,

Wo du recht hast, hast du recht...

Und wo ich unrecht habe, habe ich unrecht...wow ich fuehle mich ploetzlich uebermaessig normal. :D


Im Prinzip sind für mich nv35 und r3xx auch nur sehr schnelle DX8 Karten, bei denen man endlich AA und AF vernünftig nutzen kann + ein paar Eye-Candies dafür, das man so früh neue Technologie gekauft hat...

War es nicht schon immer so mehr oder weniger? Vergleiche hier bitte die paar lachhafte extra Belichtungen in MDK2 und die Leistung der ersten dx7 Karten in diesem, mit deren Leistung in UT2k3. ;)

ShadowXX
2004-01-22, 15:05:37
Original geschrieben von Ailuros
Und wo ich unrecht habe, habe ich unrecht...wow ich fuehle mich ploetzlich uebermaessig normal. :D

War es nicht schon immer so mehr oder weniger? Vergleiche hier bitte die paar lachhafte extra Belichtungen in MDK2 und die Leistung der ersten dx7 Karten in diesem, mit deren Leistung in UT2k3. ;)

Das ist so eine typische Deutsche Redewendung...als Zustimmung zu verstehen...

J.S.Shadow

Coda
2004-01-22, 18:14:26
Original geschrieben von seahawk
Ich fand KOTOR gut, auch wenn das sicher nicht an DX9 lag. :D
Vor allem ist KOTOR OpenGL ...

seahawk
2004-01-22, 18:46:13
Original geschrieben von Coda
Vor allem ist KOTOR OpenGL ...

Was wollte uns wohl dieser :D Smilie sagen ??

Ailuros
2004-01-23, 04:21:08
Original geschrieben von ShadowXX
Das ist so eine typische Deutsche Redewendung...als Zustimmung zu verstehen...

J.S.Shadow

Sarkasmus ist mir angeboren :D

Gast
2004-01-27, 23:08:59
Kennt ihr schon das hier ?

http://www.ttecx.de/files/news/arti....txt&showtopic=

Ich möcht mal eure Meinung zu den Benchmarks hören,ich mein 190FPS bei UT2003 in 1600...hm hm hm

Ich bin schon mächtig auf den März gespannt,diesmal wirds echt spannend.
Nach der MEGA Schlappe von NV,müßen sie wirklich alles geben.

Ich will von NV ein gleichwertiges AA und vorallem bessere Leistung

von ATI, schneller,das AA und AF fand ich gut

Wenn die beiden in der Leistung und Qualität gleich sein sollten,würde ich mich für NV entscheiden.

robbitop
2004-01-27, 23:42:50
ist ne alte Kamelle und längst geklärt.
3dc hat einen Artikel heut mit recht ähnlichem Inhalt mit deutlich mehr Details und einer "geheimen" Quelle.

aths
2004-01-28, 01:34:48
Original geschrieben von robbitop
ist ne alte Kamelle und längst geklärt.
3dc hat einen Artikel heut mit recht ähnlichem Inhalt mit deutlich mehr Details und einer "geheimen" Quelle. Drei geheime Quellen*. Und das ist eigentlich schon zu viel gesagt.

* Was nicht heißt, dass im Artikel nur richtiges steht.

Endorphine
2004-01-28, 01:41:24
Original geschrieben von aths
Drei geheime Quellen*. Und das ist eigentlich schon zu viel gesagt.

* Was nicht heißt, dass im Artikel nur richtiges steht. Die geheimen Quellen sind Fata Morganas, die aths beim Schlafwandeln gesehen hat. Er schlafwandelt durch das Trauma, das er beim R9700P-Launch durch die kolossale AA-Mehrleistung und Mehrqualität ggü. seiner 570-EUR NV25U erlitten hat. ;)

Edit: Ich mach ja Rechtschreibfehler... :o

Ailuros
2004-01-28, 04:04:34
Je komplexer Architekturen werden, desto riskanter sind solche Artikel heutzutage.

Und um mich an meine Tradition von kryptischen Mist zu halten, NV40 sieht besser aus als das IMHO, und der Rest was NV41/5 betrifft hat da viel zu viel Verwirrung mitgespielt.

Gast
2004-01-28, 10:53:10
Guter "zusammengefasster" Artikel @ aths & Leo.

Das mit den Quellen ... da musste ich allerdings schmunzeln, denn entweder war das alles bereits bekannt, oder ihr habt wirklich tief gegraben, was ich natürlich anerkenne (und wenn es denn stimmen sollte, Respekt).

OT:
Ich hab auf das originale Unreal damals etwa so reagiert: :O [/SIZE]

Das weiß ich übrigens noch wie heute, Unreal war für mich einfach ein unglaublich faszinierendes Game. Alle 3 Sekunden mit offenem Mund, das bringen nur sehr sehr wenige Spiele zustande. Die Physik war unglaublich, Hölzer die nach dem Zerschiesen der Fässer auf dem Wasser schwimmen. EPIC hat allerdings durch diesen "Kommerz-Mist" wie Unreal 2 und Unreal Tournament 2003 bei mir wieder einiges an Vertrauen eingebüßt. Dabei arbeiten dort eigentlich nur Profis, doch gerade hier merkt man, das das Management doch die eigentliche Macht hat...übrigens analog zum NV30-Debakel, was sicherlich zu einem sehr großen Teil auf die Kappe des NVIDIA-Managements geht (auch wenn ich die eigentliche Story kenne).

Eminent
2004-02-19, 09:33:23
Ich hab leider selten die Zeit mich selber zu informieren und hab jetzt auch nur 5 der 16 hier gelesen.

Könnt ihr mich vielleicht mal kurz auf den neuesten Stand bringen was die NexGen-Chip von ATI und nVidia angeht?

Danke

mapel110
2004-02-19, 10:20:24
Original geschrieben von Eminent
Ich hab leider selten die Zeit mich selber zu informieren und hab jetzt auch nur 5 der 16 hier gelesen.

Könnt ihr mich vielleicht mal kurz auf den neuesten Stand bringen was die NexGen-Chip von ATI und nVidia angeht?

Danke

http://www.3dcenter.org/artikel/2004/01-27_a.php
imo recht aktuell und treffend. :)

Eminent
2004-02-19, 10:49:38
Oh den Artikel hatte ich noch gar nicht gesehen! :idea:

DANKE

LovesuckZ
2004-02-24, 17:03:49
Eine Schwaeche der NV30/35/38 Karten ist ja, dass sie bei single texturing Games nicht, wie bei den Midrangekarten, ihre "Pipelinestruktur" aendern. Ich haette dazu aber mal nen paar Fragen:

Wenn ein Spiel nur auf singletexturing setzt (einige Maps in UT2003/4 etc), jedoch trilineare Filterung zulaesst, verfügt dann eine NV30 Karte über eine 4x1 tri-tmu Architektur? Meinerserachtens wird doch dann die 2. brachliegende TMU miterwendet? Wenn dies so sein sollte, warum haengt man dann trotzdem hinter (hier 5900XT) einer 5700U bzw. (hier 5950U) einer 9800pro/xt Karte?
Und, wie groß stehen die Chancen, dass Nvidia diese Methode nun auch bei den großen "next-gen" Karten verwenden werden?

Gast
2004-02-24, 17:58:36
Heute wurde gemeldet das der R420 in Massenproduktion gehen könnte.
Warum sollten sie es noch heraus zögern ?
Einige behauten ATI wartet noch ab aber warum.

Wenn der R420 früher erscheint, verkaufen sie auch mehr,weil eimige schon ganz heiß sind. *händereib*

Gast
2004-02-24, 18:46:58
Den R420 verschieben nur weil die aktuellen Karten gut laufen ist kein Grund.Dann würde ja nie neue Karten erscheinen,denn ältere Karten laufen immer gut,auch wenn der R420 erscheint, werden alten noch gut laufen.

Weil sie in einer anderen Preiskategorie sind,ist also kein Grund ihn zu verschieben.

Wenns sie den R420 vor dem NV40 bringen,hat nur Vorteile

- die Hardwaregeilen holen sich das Teil eh sofort
- ATI hat die volle Aufmerksamkeit
- dadurch wird auch der Verkauf der älteren Karten angekurbelt

Godmode
2004-02-24, 19:08:41
Ich glaub auf HT4U steht das sie die noch vorhandenen Bestände an 9800xt verkaufen wollen. Ich weiss ja nicht aber vielleicht wäre es ja doch für beide besser wenn sie am selben Tag die Chips vorstellen würden. Zb wenn ATI als erstes den R420 vorstellt wird Nvidia sicher versuchen auf die technischen Nachteile dieses Chips voll einzugehen!! Und umgekehrt. Wenn sie beide am selben Tag den ihre Karten aufdecken wäre diese Gefahr geringer!

LovesuckZ
2004-02-24, 19:13:11
Original geschrieben von Gast
Dann würde ja nie neue Karten erscheinen,denn ältere Karten laufen immer gut,auch wenn der R420 erscheint, werden alten noch gut laufen.

9800XT liegt dann wie Blei in den Regalen. Denn es ist die Karte für den Hardwarefreak. Der Pappi von nebenan wird sich wohl kaum eine 400€ teure Karte kaufen...

Wenns sie den R420 vor dem NV40 bringen,hat nur Vorteile
- die Hardwaregeilen holen sich das Teil eh sofort

Die Hardwaregeilen warten auf den NV40, weil sie nicht verblendet sind. Nur Fanatiker greifen sofort zu, da sie aus Prinzip keine Nvidiahardware kaufen.

- ATI hat die volle Aufmerksamkeit

Aeh, ja?!

- dadurch wird auch der Verkauf der älteren Karten angekurbelt

9800xt wird sich nicht mehr kaufen. Alles darunter steht wohl kaum im Zusammenhang mit dem r420, da diese Leute sich die Karte sowieso nicht leisten koennen / wollen.

egdusp
2004-02-24, 19:20:11
Vielleicht wollen sie NV keine Möglichkeit geben ihre Präsentation auf den R420 abzustimmen. Wenn ATI die R420 jetzt schon veröffentlicht, dann können sie nur Benchmarks gegen ihre eigenen R360 machen, bzw. gegen die GFFX => Absätze der R360 brechen ein. NV könnte dann für die Previews Benchmarks auswählen, bzw. programmieren, die die R420 schlecht aussehen lassen. Also z.B. Techdemos, die extrem auf PS 3.0 setzen, auf PS 2.0 aber auch laufen.

Außerdem hätte NV dann noch Zeit ATI Treibercheatereien nachzuweisen. NV wird zwar auch cheaten, aber so kurzfristig können die Previewer das kaum aufdecken.

Vielleicht will ATI aber auch nur Massenverfügbarkeit zur Präsentation sicherstellen oder aber sie nutzen die Zeit um ihre Treiber zu verbessern. IMHO sind es vor allem Treiberungereimtheiten, die viele informierten Käufer von einem frühen Kauf abhält. Diese wollen halt kein Bananenprodukt (reift beim Anwender).

mfg
egdusp

Gast
2004-02-24, 19:23:09
Die 9800xt wird dann aber auch billiger,außerdem warten jetzt sowieso alle auf die neuen Karten und kaufen sich keine highend Karte mehr.

betasilie
2004-02-24, 19:25:37
Original geschrieben von egdusp
Vielleicht wollen sie NV keine Möglichkeit geben ihre Präsentation auf den R420 abzustimmen. Wenn ATI die R420 jetzt schon veröffentlicht, dann können sie nur Benchmarks gegen ihre eigenen R360 machen, bzw. gegen die GFFX => Absätze der R360 brechen ein. NV könnte dann für die Previews Benchmarks auswählen, bzw. programmieren, die die R420 schlecht aussehen lassen. Also z.B. Techdemos, die extrem auf PS 3.0 setzen, auf PS 2.0 aber auch laufen.

Außerdem hätte NV dann noch Zeit ATI Treibercheatereien nachzuweisen. NV wird zwar auch cheaten, aber so kurzfristig können die Previewer das kaum aufdecken.

Vielleicht will ATI aber auch nur Massenverfügbarkeit zur Präsentation sicherstellen oder aber sie nutzen die Zeit um ihre Treiber zu verbessern. IMHO sind es vor allem Treiberungereimtheiten, die viele informierten Käufer von einem frühen Kauf abhält. Diese wollen halt kein Bananenprodukt (reift beim Anwender).

mfg
egdusp
Ich finde deine Analyse ziemlich gut. :up:

Gast
2004-02-24, 19:27:28
Original geschrieben von egdusp
Vielleicht wollen sie NV keine Möglichkeit geben ihre Präsentation auf den R420 abzustimmen. Wenn ATI die R420 jetzt schon veröffentlicht, dann können sie nur Benchmarks gegen ihre eigenen R360 machen, bzw. gegen die GFFX => Absätze der R360 brechen ein. NV könnte dann für die Previews Benchmarks auswählen, bzw. programmieren, die die R420 schlecht aussehen lassen. Also z.B. Techdemos, die extrem auf PS 3.0 setzen, auf PS 2.0 aber auch laufen.

Außerdem hätte NV dann noch Zeit ATI Treibercheatereien nachzuweisen. NV wird zwar auch cheaten, aber so kurzfristig können die Previewer das kaum aufdecken.

Vielleicht will ATI aber auch nur Massenverfügbarkeit zur Präsentation sicherstellen oder aber sie nutzen die Zeit um ihre Treiber zu verbessern. IMHO sind es vor allem Treiberungereimtheiten, die viele informierten Käufer von einem frühen Kauf abhält. Diese wollen halt kein Bananenprodukt (reift beim Anwender).

mfg
egdusp

Hoffe letzteres triff zu,einer von den beiden muß aber anfangen.

Wäre toll die Redaktionen im März schon finale Karten bekommen werden,will endlich echte Benchmarks.

Gast
2004-02-24, 19:30:38
Original geschrieben von egdusp
Vielleicht wollen sie NV keine Möglichkeit geben ihre Präsentation auf den R420 abzustimmen. Wenn ATI die R420 jetzt schon veröffentlicht, dann können sie nur Benchmarks gegen ihre eigenen R360 machen, bzw. gegen die GFFX => Absätze der R360 brechen ein. NV könnte dann für die Previews Benchmarks auswählen, bzw. programmieren, die die R420 schlecht aussehen lassen. Also z.B. Techdemos, die extrem auf PS 3.0 setzen, auf PS 2.0 aber auch laufen.

Außerdem hätte NV dann noch Zeit ATI Treibercheatereien nachzuweisen. NV wird zwar auch cheaten, aber so kurzfristig können die Previewer das kaum aufdecken.

Vielleicht will ATI aber auch nur Massenverfügbarkeit zur Präsentation sicherstellen oder aber sie nutzen die Zeit um ihre Treiber zu verbessern. IMHO sind es vor allem Treiberungereimtheiten, die viele informierten Käufer von einem frühen Kauf abhält. Diese wollen halt kein Bananenprodukt (reift beim Anwender).

mfg
egdusp

Das was du ansprichst kann aber auch kommen wenn beide Karten da sind.
Techdemos mit Shader 3.0 sind sicher schon lange fertig und bereit.

betasilie
2004-02-24, 19:38:24
Die IHVs werden sich auch freuen, denn weniger Zeitdruck für´s PCB bedeutet auch weniger Ausgaben.

egdusp
2004-02-24, 19:38:32
Original geschrieben von Gast
Das was du ansprichst kann aber auch kommen wenn beide Karten da sind.
Techdemos mit Shader 3.0 sind sicher schon lange fertig und bereit.

Nur bedingt. Treibercheatereien aufzudecken braucht Zeit, wenn beide am selben Tag launchen fehlt diese Zeit.

Techdemos können kurzristig auch noch angepasst werden. NV muss nur rausfinden, wo die Schwachstellen des R420 liegen. Z.b. bei langen Shadern mit mehr als X Instruktionen, oder bei häufigen Wurzelberechnungen, oder bei Mehrfachspiegelungen, etc..
Sobald sie die Specs haben, können sie bestimmte Techdemos auswählen, die natürlich schon größtenteils fertig sind.
Sollte ATI seine Karten schon an Reviewer verschickt haben, wird NV wichtige Erkenntnisse daraus gewinnen können, selbst wenn sie selber keine Karte haben.

mfg
egdusp

Gast
2004-02-24, 19:52:59
Der R300 kamm Monate vorm NV30 und hats geschadet ?

betasilie
2004-02-24, 19:54:49
Original geschrieben von Gast
Der R300 kamm Monate vorm NV30 und hats geschadet ?
Das war was anderes, denn erstens stand DX9 ins Haus und zweitens was der R200 absolut nicht mehr konkurrenzfähig, wenn er das überhaupt mal war.

LovesuckZ
2004-02-24, 19:55:48
Original geschrieben von Gast
Der R300 kamm Monate vorm NV30 und hats geschadet ?

Sehr nah am Thema, leider sahst du die Klippe nicht...
NV30 vs. r300 ist wohl nicht so zu betrachten, wie NV40 vs. r420.
Aber auch du, lieber Gast, wirst dies noch erkennen.

StefanV
2004-02-24, 19:58:20
Original geschrieben von betareverse
Das war was anderes, denn erstens stand DX9 ins Haus und zweitens was der R200 absolut nicht mehr konkurrenzfähig, wenn er das überhaupt mal war.

Der R200 wäre wirklich gut geworden, wenn er fertig gewesen wäre und so gefunzt hätte, wie er geplant war *eg*

So war er zwar ganz nett, aber irgendwie nicht wirklich 'schön'...

betasilie
2004-02-24, 20:03:14
*ups*

betasilie
2004-02-24, 20:03:58
Original geschrieben von Stefan Payne
Der R200 wäre wirklich gut geworden, wenn er fertig gewesen wäre und so gefunzt hätte, wie er geplant war *eg*

So war er zwar ganz nett, aber irgendwie nicht wirklich 'schön'...
Klar, im Ansatz war er gut, aber letztendlich nicht ganz optimal. ;) Zudem waren die Treiber von ATI damals ziemlich crappy. Da war ein Imagewechsel mit dem R300 sehr wichtig und um so früher, desto besser.

Godmode
2004-02-24, 20:23:42
Also die Treiber waren ja wirklich einfach ein Zustand!!! Ich weiss nicht mehr bei welchen Games aber hatte immer Grafik-Fehler und Freeze also einfach hässlich. Aber da gibt es ja so einige Firmen die sich mit Treibern nicht so gut auskennen :) zb XGI :asshole: ;D :asshole:

zeckensack
2004-02-24, 20:31:54
Original geschrieben von LovesuckZ
Die Hardwaregeilen warten auf den NV40, weil sie nicht verblendet sind. Nur Fanatiker greifen sofort zu, da sie aus Prinzip keine Nvidiahardware kaufen.Wie schön, dass wenigstens noch einer (nämlich du) neutral und unvoreingenommen an die Sache herangeht :up:
Applaus! =)

Godmode
2004-02-24, 20:37:12
Ich streiche schon jeden vergangen Tag im Kalender aus und kann die CEBIT gar nicht mehr erwarten!!! Ich bin einfach schon so extremst gespannt wie das rennen um den 3D-Thron ausgehen wird. Aber ich glaube einfach das in gewissen Situationen ATI und in anderen wieder Nvidia vorne sein wird und manchmal wird es Gleichstand geben!! Bekommt ihr vom 3DC eigentlich bald Testboards?

betasilie
2004-02-24, 21:46:15
Original geschrieben von zeckensack
Wie schön, dass wenigstens noch einer (nämlich du) neutral und unvoreingenommen an die Sache herangeht :up:
Applaus! =)
Ich bin auch immer wieder froh neutrale Empfehlungen im Forum zu lesen. =)

Ailuros
2004-02-24, 22:03:29
Original geschrieben von betareverse
Ich bin auch immer wieder froh neutrale Empfehlungen im Forum zu lesen. =)

Wenn Du die Augen staendig zu hast, kann wohl von lesen nicht die Rede sein HA HA HA :D

Odal
2004-02-25, 02:37:07
Original geschrieben von zeckensack
Wie schön, dass wenigstens noch einer (nämlich du) neutral und unvoreingenommen an die Sache herangeht :up:
Applaus! =)

war doch eigentlich neutral gemeint (evt. unguenstig formuliert) er meinte halt das informierte leute welche nicht nur auf eine marke fixiert sind, eben noch abwarten ob das produkt der konkurenz nicht besser ist.

aths
2004-02-27, 23:38:13
Original geschrieben von egdusp
NV könnte dann für die Previews Benchmarks auswählen, bzw. programmieren, die die R420 schlecht aussehen lassen. Also z.B. Techdemos, die extrem auf PS 3.0 setzen, auf PS 2.0 aber auch laufen.Traditionell laufen Nvidias Techdemos in OpenGL.

egdusp
2004-02-28, 00:10:18
Original geschrieben von aths
Traditionell laufen Nvidias Techdemos in OpenGL.

Aber bisher waren die Chips auch immer mächtiger als die Schnittstelle. War zwar beim NV30 auch schon nicht mehr so, aber da gab es keine Zahl zu vermarkten, sondern nur Features.
Beim Launch der GFFX gab es noch kein DX9c oder Shader 2_A.

Diesmal gilt es aber ATI bloßzustellen, also werden sie zumindest mit einigen Techdemos auch PS 3.0 nutzen.

Ein Problem der bisherigen Techdemos war ja, dass Effekte gezeigt wurden, die nie in Spielen auftauchten, da zu aufwändig oder (was hier entscheidend ist) nicht kompatibel mit der Konkurrenz.

Außerdem könnten sie so bei M$ vielleicht noch ein paar Pluspunkte sammeln, vor allem was DX next angeht.

Es hört sich doch ungemein gut an zu sagen: "Wir unterstützen alle DX 9 Features", .. die Konkurrenz aber nicht.

mfg
egdusp

marco42
2004-02-28, 01:36:35
Original geschrieben von Gast
Hoffe letzteres triff zu,einer von den beiden muß aber anfangen.

Wäre toll die Redaktionen im März schon finale Karten bekommen werden,will endlich echte Benchmarks.

There are lies, damn lies and benchmarks. Sorry, konnte ich mir jetzt nicht verkneifen. :-)

aths
2004-02-28, 02:02:27
Original geschrieben von egdusp
Es hört sich doch ungemein gut an zu sagen: "Wir unterstützen alle DX 9 Features", .. die Konkurrenz aber nicht.Ich bin ziemlich sicher, dass der NV40 nicht alle DX9-Features unterstützt, er unterstützt immerhin alle, um Pixel- und Vertexshader 3.0 melden zu dürfen, so dass es zur entsprechenden Compliance reicht. Aber DX9 umfasst ja noch mehr.

Wenn sie speziell auf dem Gebiet Pixelshader punkten wollen, brauchen sie natürlich Direct3D-Demos.

Ailuros
2004-02-28, 04:32:05
Original geschrieben von aths
Ich bin ziemlich sicher, dass der NV40 nicht alle DX9-Features unterstützt, er unterstützt immerhin alle, um Pixel- und Vertexshader 3.0 melden zu dürfen, so dass es zur entsprechenden Compliance reicht. Aber DX9 umfasst ja noch mehr.

Wenn sie speziell auf dem Gebiet Pixelshader punkten wollen, brauchen sie natürlich Direct3D-Demos.

Sollte das als Beispiel auf adaptive Tesselation in dx9.0 u.a. gerichtet sein, bin ich der Meinung dass dieses nur dank Matrox ihren Weg in dx9.0 fand. Kann man schnell abhaken, wenn man nochmal die Unterstuetzung von DM bei Matrox bedenkt.

ice cool69
2004-03-03, 01:36:31
"Wer nicht verblendet ist wartet auf den NV40"

Der Satz erinnert mich an eine Lern-Session mit einem Freund wo wir schon so verzweifelt waren und er gesagt hat:

"Ich glaube A, B und C sind richtig, wenns nicht stimmt sagen wir wir hättens eh gewusst".

Danach kurz Ruhe und wir haben beide aufgelacht und uns am Boden gekringelt. Wir waren so blöd dass wir versucht haben uns selbst BILLIGST zu bescheißen und uns dann auf die Schliche gekommen sind.

Wer objektiv ist und vor Neutralität nur so strotzt der kauft nvidia. ;D;D;D

egdusp
2004-03-03, 02:04:54
Original geschrieben von ice cool69
Wer objektiv ist und vor Neutralität nur so strotzt der kauft nvidia. ;D;D;D

???

Was willst du uns damit sagen?
Etwa, dass alle NV Anhänger behaupten neutral und objektiv zu sein.

Kann schon sein, aber bei den ATI Anhängern wird es nicht anders sein.

mfg
egdusp

P.s.: Ich habe 2 ATI und 0 NV Karten in meinen Rechnern.

seahawk
2004-03-03, 08:42:09
Ich freue mich schon auf die ersten ATI R420 Benches, das wirde eine Spaß. :D

Tigerchen
2004-03-03, 16:07:26
Original geschrieben von LovesuckZ
Sehr nah am Thema, leider sahst du die Klippe nicht...
NV30 vs. r300 ist wohl nicht so zu betrachten, wie NV40 vs. r420.
Aber auch du, lieber Gast, wirst dies noch erkennen.
______________________________________________________
Die Hardwaregeilen warten auf den NV40, weil sie nicht verblendet sind. Nur Fanatiker greifen sofort zu, da sie aus Prinzip keine Nvidiahardware kaufen.


@Lovesuckz!
Es sind Aussagen wie diese die es mir so unendlich schwer machen deine Postings für glaubwürdig zu befinden. Ziehe doch wenigstens mal in Erwägung daß es nicht immer an mir liegt wenn wir uns hier ewig streiten.

Godmode
2004-03-03, 16:22:13
Ich finde jeder sollte sich die Karte kaufen die er am besten findet oder benötigt!! Ich werde mir vielleicht doch eher einen NV40 kaufen da ich mich schon auf das spielen mit den PS/VS 3.0 freue. Außer die Leistung des NV40 ist exorbitant schlecht, dann würde ich wohl eher doch zum R420 tendieren.

Aber es einfach jedem seine Sache, was wer will/braucht!!

Gast
2004-03-03, 16:32:18
Ich erwarte mir von beiden neuen Karten mindestens einen 50% Leistungssprung.

Z.B in Farcry 1024 mit 4xAA 8xAF,wenn sie das nicht schaffen sind das auch keine Next Gen Chips

LovesuckZ
2004-03-03, 16:57:11
Original geschrieben von Tigerchen

@Lovesuckz!
Es sind Aussagen wie diese die es mir so unendlich schwer machen deine Postings für glaubwürdig zu befinden. Ziehe doch wenigstens mal in Erwägung daß es nicht immer an mir liegt wenn wir uns hier ewig streiten.


:???: