Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : News vom 30.08.04 - der Hammer!!!!


Gast
2004-08-31, 22:55:12
Zitat:... Nebenbei spricht der Programmierer des RivaTuners aber auch eine Warnung aus, GeForce 6800 Karten zu kaufen, weil teilweise Versionen mit nur 8 Pixel-Pipelines und 4 Vertex Shadern herumschwirren. Dem muß allerdings widersprochen werden.

Zitat Ende:

Naja,

Habt Ihr nicht auch am 19. November 2002 / von aths & Leonidas / Seite 1 von 3 folgendes behauptet!

Zitat:

Damit wird die Grundarchitektur der GeForceFX aller Wahrscheinlichkeit eine Leistung erreichen, welche jener der Radeon 9700 Pro entweder ebenbürtig oder überlegen ist. Die von nVidia einmal genannten 30 Prozent Performance-Vorteil gegenüber der Radeon 9700 Pro könnten dabei durchaus zutreffend sind. Dies liegt im Rahmen der Möglichkeiten, allerdings nach unserem Dafürhalten eher an deren oberen Ende

Zitat Ende:

Sagt mal, wer glaubt euch eigentlich noch ?????

Hörst doch bitte auf Sachen zu behaupten die weder Hand noch Fuss haben!

Quasar
2004-08-31, 23:21:40
Huhu Gast :wink:
Da deine Threads ja regelmäßig verschoben werden, solltest du's doch langsam mitbekommen haben, daß Kommentare bezüglich News und Artikeln hier ein eigenes Unterforum haben...
:eyes:


Wie dem auch sei - was ist an der heutigen News, von der du nur einen Teil zitierst, denn bitte so verdammenswert?

Jesus
2004-08-31, 23:33:12
Sagt mal, wer glaubt euch eigentlich noch ?????

ich nicht :tongue:

G/\st
2004-09-01, 00:05:09
ich nicht :tongue:

dann behalt es für dich?

Ailuros
2004-09-01, 02:26:37
Wenn ich was hasse, ist es wenn man mit Absicht nur wahlweise Anteile einer kompletten Aussage zitiert um einen nicht existierenden Punkt zu erreichen:

Anonymer Threadstarter:

Zitat:... Nebenbei spricht der Programmierer des RivaTuners aber auch eine Warnung aus, GeForce 6800 Karten zu kaufen, weil teilweise Versionen mit nur 8 Pixel-Pipelines und 4 Vertex Shadern herumschwirren. Dem muß allerdings widersprochen werden.

Kompletter newsblurb auf der 3DCenter Hauptseite:

Gemäß einer Meldung seitens Guru3D wird die nächste Version des RivaTuners für GeForce 6800 Grafikkarten nicht nur die Möglichkeit bieten, die deaktivierten 4 Pixel-Pipelines, sondern auch den einen deaktivierten Vertex Shader freizuschalten. Daß die GeForce 6800 nur 5 anstatt der 6 Vertex Shader von GeForce 6800 GT/Ultra hat, ergibt sich aus diversen Tests der Geometrieleistung, welche gar keinen anderen Schluß zulassen. Für die Gesamtperformance spielt allerdings diese kleine Beschneidung der GeForce 6800 keine Rolle, da es keine uns bekannten Geometrie-limitierten Spiele gibt ...

... Nebenbei spricht der Programmierer des RivaTuners aber auch eine Warnung aus, GeForce 6800 Karten zu kaufen, weil teilweise Versionen mit nur 8 Pixel-Pipelines und 4 Vertex Shadern herumschwirren. Dem muß allerdings widersprochen werden, denn bei diesen Karten handelt es sich zwangsläufig um GeForce 6800LE Karten. Wenn diese nicht als solche deklariert sind, dann wäre dies natürlich eine grobe Unterlassungssünde des Anbieters, doch ist dies nicht den regulären GeForce 6800 Karten (12 Pixel-Pipelines mit 5 Vertex Shadern) anzulasten. Nebenbei ergibt sich aber damit auch die Information, daß die GeForce 6800LE Karten zwei deaktivierte Vertex Shader haben, was teilweise vermutet worden war, aber noch nicht als sicher galt.

Eine weitere Dokumentation oder Gegenbeweiss dass der obrige newsblurb nicht stimmt, ist wohl nicht zu erwarten. Derartige Vorwuerfe ueber Ungenauigkeiten bei jeglichem Online Journalismus sollte man belegen koennen und man sollte sich auch schon gar nicht hinter der Anonymitaet verstecken um nur noch einen Flamewar hervorzurufen, weil es mal wieder Spass macht.

Was das zweite Zitat betrifft, handelt es sich um einen Artikel, wo basierend auf NVIDIA spezifische Aussagen und technischen Nummern spekuliert wurde. Nichtdestotrotz behaelt der Artikel genug Vorbehaltungen.

Ähnlich gemächlich fängt nVidia demzufolge auch mit der Vorstellung des GeForceFX-Chips an: Momentan gibt es im Web ausschließlich Previews zu lesen, welche allesamt auf nVidia´s Marketing-Unterlagen basieren (mit der Betonung auf "Marketing"). Nicht einmal Tom´s Hardware und AnandTech haben eine GeForceFX-Karte abbekommen - ein Paperlaunch wie er im Buche steht. Selbst wann erste Karten zu Testzwecken freigegeben werden, ist derzeit noch völlig ungewiß. So sind die nachfolgenden Zeilen so ziemlich das einzige griffige, was sich momentan zur GeForceFX sagen läßt ...

Lesen bildet; schreiben heisst dass man die Verantwortung seiner Meinung und Aussagen tragen will und sich nicht hinter irgend einer feigen Anonymitaet versteckt.

Kein Grund zur Panik; ehrlich ;)

Thowe
2004-09-01, 13:05:59
...

Sagt mal, wer glaubt euch eigentlich noch ?????



Jeder der Ahnung hat?

Wieder n feiger Gast
2004-09-01, 15:57:08
Lesen bildet; schreiben heisst dass man die Verantwortung seiner Meinung und Aussagen tragen will und sich nicht hinter irgend einer feigen Anonymitaet versteckt.

Kein Grund zur Panik; ehrlich ;)
Wenn ich manche Texte lese habe ich das Gefühl ich werde zurückgebildet. Anonymität ist nicht feige, jedenfalls nicht zwangsläufig. Umlaute regeln!;)

Faster
2004-09-01, 16:16:44
Dann les die texte nochmal bis du sie vollkommen verstanden hast! ;)

Und: ae = ä

Das gute A
2004-09-01, 16:48:23
@ Gäste: Irgendwelche, aus dem Kontext gerissene, einzelne Sätze zu zitieren und darin irgendwelche angeblichen Unstimmigkeiten anzuprangern ist m.E. nach ein wenig billig.

Zumal verstehe ich die Aufregung nicht so ganz, was soll daran falsch sein, was in den News steht? Vielleicht bemüht ihr Euch einmal, zuerst zu lesen, das Gelesene gedanklich zu verstehen und zu verarbeiten und postet dann etwas Konstruktives zur Sache.

Wäre ja denkbar, dass ihr das hinbekommt... oder?

Grüße vom A

Leonidas
2004-09-01, 17:06:16
Zitat:... Nebenbei spricht der Programmierer des RivaTuners aber auch eine Warnung aus, GeForce 6800 Karten zu kaufen, weil teilweise Versionen mit nur 8 Pixel-Pipelines und 4 Vertex Shadern herumschwirren. Dem muß allerdings widersprochen werden.

Zitat Ende:

Naja,

Habt Ihr nicht auch am 19. November 2002 / von aths & Leonidas / Seite 1 von 3 folgendes behauptet!

Zitat:

Damit wird die Grundarchitektur der GeForceFX aller Wahrscheinlichkeit eine Leistung erreichen, welche jener der Radeon 9700 Pro entweder ebenbürtig oder überlegen ist. Die von nVidia einmal genannten 30 Prozent Performance-Vorteil gegenüber der Radeon 9700 Pro könnten dabei durchaus zutreffend sind. Dies liegt im Rahmen der Möglichkeiten, allerdings nach unserem Dafürhalten eher an deren oberen Ende

Zitat Ende:

Sagt mal, wer glaubt euch eigentlich noch ?????

Hörst doch bitte auf Sachen zu behaupten die weder Hand noch Fuss haben!



Wo liegt jetzt das Problem oder der Widerspruch. Bitte um Erklärung.

Aqualon
2004-09-01, 17:26:40
Wo liegt jetzt das Problem oder der Widerspruch. Bitte um Erklärung.
Wahrscheinlich träumt der Gast von perfekten Redakteuren, denen unter keinen Umständen jemals ein Fehler unterläuft...

Aqua

MikBach
2004-09-01, 17:37:49
Wo liegt jetzt das Problem oder der Widerspruch. Bitte um Erklärung.
Das Problem liegt darin, dass hier oft zu sehr auf die Technik geschaut wird, daraus werden Schlüsse auf die Performance gezogen, welche meistens nicht eintreffen.
Auch Gurus können irren, sind ja nur Menschen.
Als im letzten Jahr einige Diskussionen zu 9800/5900 stattfanden, waren die meisten Gurus davon überzeugt, das in DX9-Spielen eine 5900 der 9800 ebenbürtig oder sogar überlegen sein wird. Das hat sich nun als blanker Unsinn herausgestellt. Ich habe behauptet, dass in DX9-Spielen eine 9800 deutlich überlegen sein wird, da musste ich gegen die Gurus "bestehen". OK, Exxtreme hat mir bisschen geholfen. Sogar ow musste seine 2 Cent reindrücken, obwohl er nicht wirklich was zur Diskussion bei zu tragen hatte. Ausserdem habe ich damals bemängelt, das der 2.a-Compilerstandard für Entwickler nicht angenehm sein wird, das hat man natürlich nicht so gesehen.
Ich habe mir zwar vorgenommen den Thread in Frieden ruhen zu lassen, aber damit jeder versteht, was ich damit sagen will, bitte schön:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=111351&page=3&pp=20
Man muss zwar bis Ende lesen, um alles zu verstehen, aber es lohnt sich um zu sehen, warum man nicht von Technik/Architektur auf Performance schliessen kann, was die Gurus(besonders aths) doch so gerne machen.
Mehr will ich zur Zeit nicht sagen.
Das sollte erstmal reichen.

MfG MikBach

Gast
2004-09-01, 18:29:58
Das Problem liegt darin, dass hier oft zu sehr auf die Technik geschaut wird, daraus werden Schlüsse auf die Performance gezogen, welche meistens nicht eintreffen.
Auch Gurus können irren, sind ja nur Menschen.
Als im letzten Jahr einige Diskussionen zu 9800/5900 stattfanden, waren die meisten Gurus davon überzeugt, das in DX9-Spielen eine 5900 der 9800 ebenbürtig oder sogar überlegen sein wird. Das hat sich nun als blanker Unsinn herausgestellt. Ich habe behauptet, dass in DX9-Spielen eine 9800 deutlich überlegen sein wird, da musste ich gegen die Gurus "bestehen". OK, Exxtreme hat mir bisschen geholfen. Sogar ow musste seine 2 Cent reindrücken, obwohl er nicht wirklich was zur Diskussion bei zu tragen hatte. Ausserdem habe ich damals bemängelt, das der 2.a-Compilerstandard für Entwickler nicht angenehm sein wird, das hat man natürlich nicht so gesehen.
Ich habe mir zwar vorgenommen den Thread in Frieden ruhen zu lassen, aber damit jeder versteht, was ich damit sagen will, bitte schön:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=111351&page=3&pp=20
Man muss zwar bis Ende lesen, um alles zu verstehen, aber es lohnt sich um zu sehen, warum man nicht von Technik/Architektur auf Performance schliessen kann, was die Gurus(besonders aths) doch so gerne machen.
Mehr will ich zur Zeit nicht sagen.
Das sollte erstmal reichen.

MfG MikBach

Mike,

du sprichst mir aus der Seele!

Mein vielen Be(i)(r)(i)chten *g* habe ich manchmal das Gefühl das nicht lange überlegt wird und die technischen Daten der (zb. der Grünen) Hersteller die Mods und Reds überzeugen, eine Hammernews daraus zu machen und was für EIDE und SCHWÜRE ich schon hier in den letzten Monaten gelesen habe auf FX und co.*ggg*

Da muss sich keiner hier wundern wenn einige schon daran denken dieser Seite einen NEUEN Link zu schenken, so wie: www.nv3dcenter.de, das schöne an dieser Sache wäre, das ist sogar RECHTLICh erlaubt.

Linken und umleiten, ist zu jeder Seite im WÄWÄWÄ erlaubt.

Wenn ich mir die Startseite anschaue lese ich ich sogar so einen SW-Sinn wie "Neu: GeForce-Karten: Ältere Spiele verschönern

Gast
2004-09-01, 18:33:43
Jeder der Ahnung hat?

So ist es! :up:

Gast
2004-09-01, 18:35:46
So ist es! :up:

Naja Glaube versetzt bekanntlich auch Berge, aber das hier geht zu weit!

Warum spamt Ihr so*ggg*

Gast
2004-09-01, 18:38:00
Das Problem liegt darin, dass hier oft zu sehr auf die Technik geschaut wird, daraus werden Schlüsse auf die Performance gezogen, welche meistens nicht eintreffen.


Beispiele? Behaupten kannst du viel.


Auch Gurus können irren, sind ja nur Menschen.


Richtig.


Als im letzten Jahr einige Diskussionen zu 9800/5900 stattfanden, waren die meisten Gurus davon überzeugt, das in DX9-Spielen eine 5900 der 9800 ebenbürtig oder sogar überlegen sein wird.


Beispiele? Behaupten kannst du viel.


Das hat sich nun als blanker Unsinn herausgestellt. Ich habe behauptet, dass in DX9-Spielen eine 9800 deutlich überlegen sein wird, da musste ich gegen die Gurus "bestehen".


Oh, ein blindes Huhn ........:D


Hm.... wo ist jetzt was verwertbares in deinem Posting.....

MikBach
2004-09-01, 18:44:47
Da muss sich keiner hier wundern wenn einige schon daran denken dieser Seite einen NEUEN Link zu schenken, so wie: www.nv3dcenter.de, das schöne an dieser Sache wäre, das ist sogar RECHTLICh erlaubt.
Nah, wir wollen mal nicht übertreiben. Ich halte 3dCenter nicht für "grün", wie das einige hier sehen. Es ist einfach das Problem, dass einige Gurus viel zu techikverliebt sind und dabei die blanke Realität vergessen.

Wenn ich mir die Startseite anschaue lese ich ich sogar so einen SW-Sinn wie "Neu: GeForce-Karten: Ältere Spiele verschönern
Diesen Artikel finde ich persönlich sehr gut, allerdings mehr für Einsteiger, also die breite Masse. Hier werden einige Vorteile der Geforce sehr praxisnah beschrieben, und das stimmt auch. SSAA kann ältere Spiele, wo nicht so viel Power gebraucht wird wirklich schöner machen. Das sieht mit einer ATI mit 6xAA und 16xAF zwar nur bisschen schlechter aus, beim Doublescan hat Nvidia aber Vorteile. Einer der wenigen Artikel, dem ich meine volle Zustimmung aussprechen kann.
Ausnahmsweise:
@ aths :up:

MikBach
2004-09-01, 18:47:53
@ die komischen Gäste

Die Beispiele sind in dem von mir verlinkten Thread, man muss ihn nur lesen, und auch verstehen.

Wenn das nicht reicht, kann ich noch paar verlinken, wo aths mit seiner Technikverliebtheit glänzt und leider Unrecht hat(te).

G/\st
2004-09-01, 18:53:08
Mike,

du sprichst mir aus der Seele!

Mein vielen Be(i)(r)(i)chten *g* habe ich manchmal das Gefühl das nicht lange überlegt wird und die technischen Daten der (zb. der Grünen) Hersteller die Mods und Reds überzeugen, eine Hammernews daraus zu machen und was für EIDE und SCHWÜRE ich schon hier in den letzten Monaten gelesen habe auf FX und co.*ggg*

Da muss sich keiner hier wundern wenn einige schon daran denken dieser Seite einen NEUEN Link zu schenken, so wie: www.nv3dcenter.de, das schöne an dieser Sache wäre, das ist sogar RECHTLICh erlaubt.

Linken und umleiten, ist zu jeder Seite im WÄWÄWÄ erlaubt.

Wenn ich mir die Startseite anschaue lese ich ich sogar so einen SW-Sinn wie "Neu: GeForce-Karten: Ältere Spiele verschönern

tja,nur machen dir ein paar sachen ein strich durch die Rechnung :)

oder warum wurden letzter zeit soviel Punkte verteilt?,und dies NUR an Nvijaner :) (zumal sie locker zu 75% immer recht hatten).
das sieht eher pro ATI dann aus?
da werden falsche Zitate/Benchmarks aufgestellt etc. das kümmert kein

zum glück gibt es genuch user mit top hardware .

Gast
2004-09-01, 19:00:34
@ die komischen Gäste

Die Beispiele sind in dem von mir verlinkten Thread, man muss ihn nur lesen, und auch verstehen.

Wenn das nicht reicht, kann ich noch paar verlinken, wo aths mit seiner Technikverliebtheit glänzt und leider Unrecht hat(te).


Und was ist mit dir?
Von Technik keine Ahnung aber Recht haben wollen? LOL

Irren kann sich jeder. Und gerade bei Artikeln die einen hohen Grad an Spekulationen beinhalten ist auch die Wahrscheinlichkeit eines Irrtums höher.

MikBach
2004-09-01, 19:02:54
Nvijaner :) (zumal sie locker zu 75% immer recht hatten).

Lol. Wo darf ich das nachlesen, das die Nvidianer so viel Recht im letzten Jahr hatten? ;D

MikBach
2004-09-01, 19:07:52
Und was ist mit dir?
Von Technik keine Ahnung aber Recht haben wollen? LOL

Was geht denn hier ab?
Nur noch Gäste am Start, oder was? ;D
Eigentlich sollte ich auf so ein Dünnpfiff nicht antorten. :D
Aber ich helfe dir gerne lieber Gast.
Den von mir verlinkten Thread lesen, dann verstehen, und dann schweigen. :biggrin:

G/\st
2004-09-01, 19:18:33
Lol. Wo darf ich das nachlesen, das die Nvidianer so viel Recht im letzten Jahr hatten? ;D



1. dann musst du mehr als blind sein
2. hu? wer redet von JAhr/en ?
3. es darf weiter ge/Lol werden.

MikBach
2004-09-01, 19:26:14
1. dann musst du mehr als blind sein
2. hu? wer redet von JAhr/en ?
3. es darf weiter ge/Lol werden.
Alles klar G/\st, ich rede vom letzten Jahr ab jetzt, also bis 9/2003. Wer hat da wohl insgesamt gesehen Recht gehabt? ;D
Und spar dir solche Sprüche mit "blind" du Taugenichts. Reg dich mal, dann sehen wir mal weiter. Sonst kann man noch nicht mal prüfen, ob du die Unterschiede zwischen Virtual DM und DM auf dem Kasten hast.
Erklär sie mir, dann darfst du auch weiter mitreden.

G/\st
2004-09-01, 19:40:33
Alles klar G/\st, ich rede vom letzten Jahr ab jetzt, also bis 9/2003. Wer hat da wohl insgesamt gesehen Recht gehabt? ;D
Und spar dir solche Sprüche mit "blind" du Taugenichts. Reg dich mal, dann sehen wir mal weiter. Sonst kann man noch nicht mal prüfen, ob du die Unterschiede zwischen Virtual DM und DM auf dem Kasten hast.
Erklär sie mir, dann darfst du auch weiter mitreden.


..hehe das zeigt doch das du mehr als nur blind sein musst.

lese doch erst nochmal genau in ruhe durch mein junge :))

hier ging es bei meinem zitaten nur um nv3dcenter.de gespinne.
und das 3dcenter pro nv sei. <-- schwachsinn³

aber wie gesagt,es darf weiter ge/Lol werden :)

tokugawa
2004-09-01, 19:48:35
Das Problem liegt darin, dass hier oft zu sehr auf die Technik geschaut wird, daraus werden Schlüsse auf die Performance gezogen, welche meistens nicht eintreffen.
Auch Gurus können irren, sind ja nur Menschen.
Als im letzten Jahr einige Diskussionen zu 9800/5900 stattfanden, waren die meisten Gurus davon überzeugt, das in DX9-Spielen eine 5900 der 9800 ebenbürtig oder sogar überlegen sein wird. Das hat sich nun als blanker Unsinn herausgestellt. Ich habe behauptet, dass in DX9-Spielen eine 9800 deutlich überlegen sein wird, da musste ich gegen die Gurus "bestehen". OK, Exxtreme hat mir bisschen geholfen. Sogar ow musste seine 2 Cent reindrücken, obwohl er nicht wirklich was zur Diskussion bei zu tragen hatte. Ausserdem habe ich damals bemängelt, das der 2.a-Compilerstandard für Entwickler nicht angenehm sein wird, das hat man natürlich nicht so gesehen.
Ich habe mir zwar vorgenommen den Thread in Frieden ruhen zu lassen, aber damit jeder versteht, was ich damit sagen will, bitte schön:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=111351&page=3&pp=20
Man muss zwar bis Ende lesen, um alles zu verstehen, aber es lohnt sich um zu sehen, warum man nicht von Technik/Architektur auf Performance schliessen kann, was die Gurus(besonders aths) doch so gerne machen.
Mehr will ich zur Zeit nicht sagen.
Das sollte erstmal reichen.

MfG MikBach

Ich zitiere: "Das liegt im Bereich des Möglichen"

Diese Analyse ist 100% zutreffend. Es liegt auch heute noch im Bereich des Möglichen, dass die FX 5900 die 9700 Pro um 30% in einigen Fällen übertrifft. Es kommt immer darauf an, was man mißt. Wenn man es auf DX9-Spiele einschränkt, hast du recht. Aber die von Gast kritisierten News gehen eindeutig auf die generelle Performance ein. Wir wissen, dass die SM2.0 Performance der FXen nicht gut ist. Aber das ist ja nur ein Performance-Faktor.

Wenn man eine (Performance-)Aussage trifft, muß man immer dazu sagen, auf welche Fälle es zutrifft.

Eine Aussage, die lautet "Es existieren Fälle, wo die FX 5900 30% schneller als eine 9700 Pro ist", ist absolut korrekt.

Die Aussage "Die 9700 Pro ist in allen Fällen schneller als eine FX 5900" ist inkorrekt.

Einfache Prädikatenlogik.


das der 2.a-Compilerstandard für Entwickler nicht angenehm sein wird


Das hat sich als falsch bewahrheitet. Auch in Anbetracht von SM3.0.

PS: Die Kritik, dass 3DCenter zu NV-lastig ist, sowie auch die öfters damals bei Release des R300 geäußerte Kritik, dass 3DCenter zu ATI-lastig ist, gleicht sich aus. Das zeigt IMO, dass 3DCenter in Wirklichkeit neutral ist.

Und dass gewisse "Gäste" immer wieder aus harmlosen, neutralen, und richtigen Statements irgendwelche Pro-ATI oder pro-NV Statements rauslesen wollen und gleich eine Voreingenommenheit unterstellen, zeigt eher die Voreingenommenheit der Gäste.

Ist ja logisch, wenn man einmal, richtigerweise, Hersteller X für etwas Positives lobt, ist das ja nichts schlimmes. Aber wenn dann ein Gast kommt und sagt, dieses Lob ist nicht gerechtfertigt und total "biased", macht es das Lob ja nicht unrichtig, sondern zeigt im Gegensatz nur, wie dieser Gast einfach nicht aushalten kann (psychisch oder was auch immer), dass einmal der "Feind" ein Lob bekommt.

Ich verstehe solches Verhalten nicht. Was gibt es einem, so enorm fixiert zu sein, und alles zu bekämpfen, was die Konkurrenz des eigenen "Lieblingsherstellers" (schon einen Lieblingshersteller zu haben ist eine Absurdität) in einem etwas besseren Licht da stehen läßt?

MikBach
2004-09-01, 19:49:30
..hehe das zeigt doch das du mehr als nur blind sein musst.

lese doch erst nochmal genau in ruhe durch mein junge :))

hier ging es bei meinem zitaten nur um nv3dcenter.de gespinne.
und das 3dcenter pro nv sei. <-- schwachsinn³

aber wie gesagt,es darf weiter ge/Lol werden :)
Was meinst mit blind?
Ich habe das mit 3dcenter pro nv nicht gebracht. Du bist hier im falschem Film.
Du scheinst anscheinend blind zu sein. Das mit 3dcenter pro nv hat ein anderer Gast gebracht nicht ich.
Also, LOL. ;D

MikBach
2004-09-01, 19:57:52
Wenn man es auf DX9-Spiele einschränkt, hast du recht. Aber die von Gast kritisierten News gehen eindeutig auf die generelle Performance ein. Wir wissen, dass die SM2.0 Performance der FXen nicht gut ist. Aber das ist ja nur ein Performance-Faktor.
Ich verstehe dich nicht!
Was habe ich denn anderes behauptet?
Nur, dass eine 9800 die 5900 in der Performance bei DX9 in der Pfeife raucht. Mehr nicht!

Wenn man eine (Performance-)Aussage trifft, muß man immer dazu sagen, auf welche Fälle es zutrifft.
Habe ich doch gesagt. DX9!

Eine Aussage, die lautet "Es existieren Fälle, wo die FX 5900 30% schneller als eine 9700 Pro ist", ist absolut korrekt.
Wo soll das zutreffen?
Und, Ausnahmen bestätigen die Regel. ;)


Die Aussage "Die 9700 Pro ist in allen Fällen schneller als eine FX 5900" ist inkorrekt.
Habe ich das behauptet?
Ich sprach doch von einer 9800, und noch mal Ausnahmen bestätigen die Regel.


Das hat sich als falsch bewahrheitet. Auch in Anbetracht von SM3.0.
Sehe ich nicht so. Dadurch hatten die Progger mehr Arbeit. Mehr wollte ich mit meiner Aussage damals nicht behaupten.

LovesuckZ
2004-09-01, 20:16:27
Sehe ich nicht so. Dadurch hatten die Progger mehr Arbeit.

Ich sage, die Mehrarbeit steht in guter Relation zum "Gewinn".

Gast
2004-09-01, 20:25:11
Ich sage, die Mehrarbeit steht in guter Relation zum "Gewinn".


Welche Mehrarbeit? Den HLSL Compiler mit verschiedenen Zieltargets laufen zu lassen?

MikBach
2004-09-01, 20:27:05
Ich sage, die Mehrarbeit steht in guter Relation zum "Gewinn".
Lol.
Und?
Wäre Nvidia auf PS2.0 aufgesprungen, gäbe es keine Probleme mit Performance, Kompatibilität und Treibern.
Die Mehrarbeit ist FAKT. Dadurch kommen die Spiele später. Das ist übel. Danke Nvidia! Dass wir wegen einem IHV länger auf Spiele warten mussten ist einfach Schweinerei.

MikBach
2004-09-01, 20:28:18
Welche Mehrarbeit? Den HLSL Compiler mit verschiedenen Zieltargets laufen zu lassen?
Nicht alle proggen in HLSL!
Frag Demi.

mapel110
2004-09-01, 20:30:59
Habe ich doch gesagt. DX9!


Dir ist schon bewusst, dass es dx9-konforme Shader gibt, die auf dem nv30 laufen, aber nicht auf r300?

Lol.
Und?
Wäre Nvidia auf PS2.0 aufgesprungen, gäbe es keine Probleme mit Performance, Kompatibilität und Treibern.
Die Mehrarbeit ist FAKT. Dadurch kommen die Spiele später. Das ist übel. Danke Nvidia! Dass wir wegen einem IHV länger auf Spiele warten mussten ist einfach Schweinerei.

O_o Das verstehe wer will, ich nicht.

Demirug
2004-09-01, 20:33:55
Nicht alle proggen in HLSL!
Frag Demi.

Also ich kenne jetzt keinen der seine 2.0 Shader in Shaderassembler schreibt. Bei 1.X Shadern kommt das zum Teil noch vor aber auch dort gehen immer mehr in Richtung HLSL. Leider hat man dort noch manchmal das Problem das der Compiler eine oder zwei Anweisungen mehr als das Optimum braucht. Bei den Limits von 1.X kann das ärgerlich sein.

MikBach
2004-09-01, 20:42:54
Dir ist schon bewusst, dass es dx9-konforme Shader gibt, die auf dem nv30 laufen, aber nicht auf r300?
Klar, der NV30 kann eine Shaderlänge von 1024, welche dann in Zeitlupe läuft und keinen wirklichen Nutzen bringt.
Das ist es ja, was ich die ganze Zeit predige. Specs sind für die Tonne. Was in der Praxis rauskommt, das ist relevant. Der Rest->Tonne. :)

O_o Das verstehe wer will, ich nicht.
Was gibt es daran nicht zu verstehen?
Gäbe es bei Nvidia 2.0 statt 2.a/X müssten wir auf die Spiele nicht so langen warten. Logisch? oder soll ich noch weiter ausholen?

mapel110
2004-09-01, 20:46:19
1.Klar, der NV30 kann eine Shaderlänge von 1024, welche dann in Zeitlupe läuft und keinen wirklichen Nutzen bringt.
Das ist es ja, was ich die ganze Zeit predige. Specs sind für die Tonne. Was in der Praxis rauskommt, das ist relevant. Der Rest->Tonne. :)

2.Was gibt es daran nicht zu verstehen?
Gäbe es bei Nvidia 2.0 statt 2.a/X müssten wir auf die Spiele nicht so langen warten. Logisch? oder soll ich noch weiter ausholen?

zu 1 kann Demirug sicher mehr sagen. =)

zu 2 Wir oft kam es in der Geschichte der Grakas schon vor, dass alle IHVs die gleiche Funktionalität boten? (soweit ich zurück denken kann(fast 10 Jahre), nie)

MikBach
2004-09-01, 21:03:40
zu 2 Wir oft kam es in der Geschichte der Grakas schon vor, dass alle IHVs die gleiche Funktionalität boten? (soweit ich zurück denken kann(fast 10 Jahre), nie)
Der Punkt ist doch, dass bei DX7/8 noch nie ein Spiel so viel später gekommen ist, wie es zu 2.a-Zeiten der Fall war. Damals war die Programmierung noch einfacher und erst das 2.a-Profil hat die Sache extrem komplizierter gemacht. Ist auch logisch, die Karten heute werden immer "unterschiedlicher". Es ist immer schwerer auf alle Karten gleich gut zu optimieren. Früher war das einfacher. Heute muss man einfach viel mehr Kompromisse eingehen, weil die Architekturen samt Treiberunterstützung sich viel mehr unterscheiden.

Demirug
2004-09-01, 21:08:23
Klar, der NV30 kann eine Shaderlänge von 1024, welche dann in Zeitlupe läuft und keinen wirklichen Nutzen bringt.
Das ist es ja, was ich die ganze Zeit predige. Specs sind für die Tonne. Was in der Praxis rauskommt, das ist relevant. Der Rest->Tonne. :)

Farcry läuft mit dem SM2B oder auch SM30 Pfad besser als mit dem SM2 Pfad. Sowohl SM2B wie auch SM30 haben Shader mit längen die über das 2.0 Limit hinausgehen.

OK 1024 (bzw 512 unter DX) ist sehr grosszügig. Wobei das keine so grosse Rolle spielt da die FXen die Shaderprogramme sowieso im Grafikkartenspeicher haben.

LovesuckZ
2004-09-01, 21:13:40
Wäre Nvidia auf PS2.0 aufgesprungen, gäbe es keine Probleme mit Performance, Kompatibilität und Treibern.

Was, Nvidia hat keine PS2.0 Karte? :lol:, sry, aber, :rofl:

Die Mehrarbeit ist FAKT. Dadurch kommen die Spiele später. Das ist übel. Danke Nvidia! Dass wir wegen einem IHV länger auf Spiele warten mussten ist einfach Schweinerei.

Welche Mehrarbeit?
Schildere doch bitte diese, da du ja ein insider bist.

LovesuckZ
2004-09-01, 21:15:39
Der Punkt ist doch, dass bei DX7/8 noch nie ein Spiel so viel später gekommen ist,

Halo?
Half - Life?
Daikatana (?)?

wie es zu 2.a-Zeiten der Fall war.

Beweise?

Damals war die Programmierung noch einfacher

Stimmt, damals konnte man innerhalb von 2h ein Topspiel programmieren.

und erst das 2.a-Profil hat die Sache extrem komplizierter gemacht.

Beweise?

Nicht alle proggen in HLSL!


Beweise?

Ist auch logisch, die Karten heute werden immer "unterschiedlicher". Es ist immer schwerer auf alle Karten gleich gut zu optimieren. Früher war das einfacher. Heute muss man einfach viel mehr Kompromisse eingehen, weil die Architekturen samt Treiberunterstützung sich viel mehr unterscheiden.

Und, was hat das mit dem 2.a Profil zu tun?!

Klar, der NV30 kann eine Shaderlänge von 1024, welche dann in Zeitlupe läuft und keinen wirklichen Nutzen bringt.

Ein shader mit 1024 mathematischen Anweisungen wid unter Umstaenden schneller sein als 16 mit 64. Somit kann der NV30 durch diese Moeglichkeit Speed gewinnen.


Das ist es ja, was ich die ganze Zeit predige. Specs sind für die Tonne. Was in der Praxis rauskommt, das ist relevant.

Jap, daher ist deine vorige Aussage falsch.

Gäbe es bei Nvidia 2.0 statt 2.a/X müssten wir auf die Spiele nicht so langen warten. Logisch? oder soll ich noch weiter ausholen?

Ja, hole weiter aus.
Ich verstehe nicht, wie Nvidia die Entwicklung zurueckhalte, wenn sie im einen PS2.0 Shader ausfuehren koennen.
Dagegen hat ATi die PS2.a Entwicklung zurueckgehalten, da sie nicht immer solch einen Shader verwenden koennen und Entwickler muessten deswegen einen Extrapfad schreiben.
Deswegen "müssen wir auf die Spiele [...] so langen warten. Logisch? oder soll ich noch weiter ausholen?"

Demirug
2004-09-01, 21:27:28
Der Punkt ist doch, dass bei DX7/8 noch nie ein Spiel so viel später gekommen ist, wie es zu 2.a-Zeiten der Fall war. Damals war die Programmierung noch einfacher und erst das 2.a-Profil hat die Sache extrem komplizierter gemacht. Ist auch logisch, die Karten heute werden immer "unterschiedlicher". Es ist immer schwerer auf alle Karten gleich gut zu optimieren. Früher war das einfacher. Heute muss man einfach viel mehr Kompromisse eingehen, weil die Architekturen samt Treiberunterstützung sich viel mehr unterscheiden.

:D *sorry*

Du hast dich scheinbar nie mit der Programmierung von DX7 Hardware abgequält. Das ist nun mal überhaupt nicht einfach weil es für jede Kleinigkeit Caps gibt und selbst wenn man völlig konform zu diesen Caps bleibt der Treiber immer noch Veto sagen kann.

Den einzigen Vorteil den man damals noch hatte war das die Karten sowieso zu schwach für richtig anspruchsvolle Sachen waren. So ist man mit wenigen Effekten ausgekommen um die Kunden glücklich zu machen.

MikBach
2004-09-01, 21:27:57
OK 1024 (bzw 512 unter DX) ist sehr grosszügig. Wobei das keine so grosse Rolle spielt da die FXen die Shaderprogramme sowieso im Grafikkartenspeicher haben.
Hä?
Und was ist mit FP32 bei einer Shaderlänge von 1024. Schon mal über die Ungenauigkeit nachgedacht?
Das hat doch aths immer bei der Fx so angepriesen.

@ LS
Bringe Gegenargumente zu meinen Aussagen, sonst ist alles nur heisse Luft. :freak:
Und HL hat sich bestimmt nicht wegen der Shaderproblematik verspätet, dafür gab es andere Gründe.
Bei Halo musste Nvidia selbst die Shader proggen, weil es sonst ein Desaster gegeben hätte.

G/\st
2004-09-01, 21:28:27
Was meinst mit blind?
Ich habe das mit 3dcenter pro nv nicht gebracht. Du bist hier im falschem Film.
Du scheinst anscheinend blind zu sein. Das mit 3dcenter pro nv hat ein anderer Gast gebracht nicht ich.
Also, LOL. ;D

1.da du nicht erkennst was ich meine
2.hab ich auch nicht gesagt oder?
3.besser als ein schlechter film :)
4.ich erkenne immerhin das du da wohl was in falschen Hals bekommen hast :)
5.jup, das weiss ich doch .wo isn das prob?

sagte doch du musst blind sein.
nicht eine einziges word ging gegen dein/e .., hm feldzug?

ps. wie gesagt,es darf weiter ge/Lol werden :)

LovesuckZ
2004-09-01, 21:31:46
Hä?
@ LS
Bringe Gegenargumente zu meinen Aussagen, sonst ist alles nur heisse Luft. :freak:

Noe, da du keinen Plan vom Diskutieren hast:
Keine Argumente und nur Vermutungen, die auf irrglauben basieren.
Ehrlich gesagt, solltest du dich vorher ein wenig informieren (zu sagen, du waerest dumm, geht dann doch zu weit).
Und nein, ich bin kein Gott mit Demirug's Wissen, aber ich Gegensatz zu dir, leiere ich mir nichts aus meinen Rippen.

Und HL hat sich bestimmt nicht wegen der Shaderproblematik verspätet, dafür gab es andere Gründe.

Du wolltest Gegenargumente und ich gab sie dir zu dieser Aussage:
Der Punkt ist doch, dass bei DX7/8 noch nie ein Spiel so viel später gekommen ist,

Auch frueher verspaeteten sich Spiele und dies lag bestimmt nicht nur am Ps2.a Profil...

MikBach
2004-09-01, 21:37:01
Den einzigen Vorteil den man damals noch hatte war das die Karten sowieso zu schwach für richtig anspruchsvolle Sachen waren. So ist man mit wenigen Effekten ausgekommen um die Kunden glücklich zu machen.
Sorry. :D
Das ist genau das was ich meinte. ;D
Machmal denke ich ich halt, dass man mein "Anliegen" versteht, weil ich das schon im Kopf habe. Werde versuchen mich demnächst deutlicher auszudrücken. :)
Bin halt kein Freund von langen Texten. ;)

MikBach
2004-09-01, 21:43:17
Noe, da du keinen Plan vom Diskutieren hast:
Keine Argumente und nur Vermutungen, die auf irrglauben basieren.
Ehrlich gesagt, solltest du dich vorher ein wenig informieren (zu sagen, du waerest dumm, geht dann doch zu weit).
Und nein, ich bin kein Gott mit Demirug's Wissen, aber ich Gegensatz zu dir, leiere ich mir nichts aus meinen Rippen.
No comment, sonst kriege ich wieder Punkte.

Du wolltest Gegenargumente und ich gab sie dir zu dieser Aussage:
Der Punkt ist doch, dass bei DX7/8 noch nie ein Spiel so viel später gekommen ist,

Auch frueher verspaeteten sich Spiele und dies lag bestimmt nicht nur am Ps2.a Profil...
Halt mich fest ich falle gleich um. ;D
DX7/8 und PS2.a. MegaLol.
Vielleicht solltest du dich erstmal besser informieren.
Ich sagte doch, dass es normal sein kann, wenn sich Knüller, wie z.B. HL verspäten. Das hatte jedoch nichts mit der Shaderproblematik zu tun. ;)

Demirug
2004-09-01, 21:45:58
Hä?
Und was ist mit FP32 bei einer Shaderlänge von 1024. Schon mal über die Ungenauigkeit nachgedacht?
Das hat doch aths immer bei der Fx so angepriesen..

Wo soll das Problem sein? Auf einer CPU rechnet man in der Regel auch nur mit FP32. Zudem hängt es ja auch immer davon ab was man rechnet.

LovesuckZ
2004-09-01, 21:50:44
No comment, sonst kriege ich wieder Punkte.


Brauchst du nicht, ich denke nach deinen drei Auftritten hier im Unterforum sollte dein Bild fuer jederman komplett sein.

DX7/8 und PS2.a. MegaLol.

Der Punkt ist doch, dass bei DX7/8 noch nie ein Spiel so viel später gekommen ist, wie es zu 2.a-Zeiten der Fall war..

Vielleicht solltest du dich erstmal besser informieren.

Gut, dann zeige mir, dass die verspaeteten Spiele die Folge vom PS2.a Profil sind.

Ich sagte doch, dass es normal sein kann, wenn sich Knüller, wie z.B. HL verspäten. Das hatte jedoch nichts mit der Shaderproblematik zu tun. ;)

Noe, sollte eigentlich nicht vorkommen, oder? Frueher gab es ja kein Ps2.a Profil, waerum sollten die sich sich dann verpaeten?

Demirug
2004-09-01, 21:51:49
Sorry. :D
Das ist genau das was ich meinte. ;D
Machmal denke ich ich halt, dass man mein "Anliegen" versteht, weil ich das schon im Kopf habe. Werde versuchen mich demnächst deutlicher auszudrücken. :)
Bin halt kein Freund von langen Texten. ;)

Scheninbar meinen wir aber nicht das gleiche.

Weil ich in diesem Zusammenhang beim besten Willen nicht das problem mit den Shaderprofilen nicht sehen kann.

Shaderentwicklung ist allgemein aufwendiger geworden weil die Shader komplexer werden und man auch noch mehr davon braucht. HLSL und die Shaderprofile vereinfachen die Sache aber gegenüber einer reinen Assemblerschnittstelle.

MikBach
2004-09-01, 22:00:11
Wo soll das Problem sein? Auf einer CPU rechnet man in der Regel auch nur mit FP32. Zudem hängt es ja auch immer davon ab was man rechnet.
Richtig, es hängt davon ab, was man rechnet. Eine CPU ist heute nicht mehr für Grafikberechnungen(Pixel) relevant, sondern höchstens für die Geometrie. Bei PS-Berechnungen mit FP32 und einerer Shaderlänge von 1024 bei mehreren Shadern würdest du extrem viele Artefakte haben, oder gar nichts mehr erkennen können. :D

@ LS
Du beantwortest meine Quotes nicht richtig. Bringe ein oder zwei Qoutes, sonst ist es aus dem Zusammenhang gerissen. Und man versteht gar nicht was du überhaupt meinst. Also neuer Versuch bitte. Und mindestens zwei Sätze zusammen, sonst hat es keinenm Sinn sich mit dir zu unterhalten.
Bringe 2 Qoutes zum meiner Aussage und beantworte sie mit ganzen Sätzen, sonst kann ich leider keinen Bezug zu meinen Aussagen finden.

Demirug
2004-09-01, 22:19:05
Richtig, es hängt davon ab, was man rechnet. Eine CPU ist heute nicht mehr für Grafikberechnungen(Pixel) relevant, sondern höchstens für die Geometrie. Bei PS-Berechnungen mit FP32 und einerer Shaderlänge von 1024 bei mehreren Shadern würdest du extrem viele Artefakte haben, oder gar nichts mehr erkennen können. :D

Den Shader will ich sehen. Du bist dir bewusst das im Offlinerendering für Flime meist auch nur mit FP32 gerechnet wird? Dort kommen teilweise sehr komplexe Shader zum Einsatz.

IVN
2004-09-01, 22:22:07
@Demirug

Are you sure that no 64bit CPUs are used in rendering farms,for example Pixar?

Quasar
2004-09-01, 22:27:46
Richtig, es hängt davon ab, was man rechnet. Eine CPU ist heute nicht mehr für Grafikberechnungen(Pixel) relevant, sondern höchstens für die Geometrie. Bei PS-Berechnungen mit FP32 und einerer Shaderlänge von 1024 bei mehreren Shadern würdest du extrem viele Artefakte haben, oder gar nichts mehr erkennen können. :D

Stimmt, bei Shrek 2 konnte ich vor lauter Artefakten den Esel kaum mehr vom Oger unterscheiden - furchtbar. Und das bei nur FP16...

Jesus
2004-09-01, 22:31:28
Den Shader will ich sehen. Du bist dir bewusst das im Offlinerendering für Flime meist auch nur mit FP32 gerechnet wird? Dort kommen teilweise sehr komplexe Shader zum Einsatz.

naja range overflows & precision verlust ;) da brauchen wir halt doch irgendwann double precision fp;)

Der Punkt ist doch, dass bei DX7/8 noch nie ein Spiel so viel später gekommen ist,

Auch frueher verspaeteten sich Spiele und dies lag bestimmt nicht nur am Ps2.a Profil...

vielleicht nicht durch 2.X, aber mglw. durch PP. Denn das ist wirklich Mehraufwand; alles manuell nachzuchecken und nach Artefakten abzusuchen, und zu sehen ob PP genügt oder ob man doch FP nehmen muss (z.b. reichen 16 bit nichtmal um 1024er Texturen richtig zu addressieren ( mit bi-filter ) ).

MikBach
2004-09-01, 22:37:52
Den Shader will ich sehen. Du bist dir bewusst das im Offlinerendering für Flime meist auch nur mit FP32 gerechnet wird? Dort kommen teilweise sehr komplexe Shader zum Einsatz.
Filme haben eine bestimmte "Unschärfe". Da fällt das nicht auf, aber "unser" Razor würde bestimmt Augenkrebs von dieser Geschichte bekommen. ;)
Ich habe jetzt nicht den Plan um diese Uhrzeit die Ungenauigkeit auszurechnen. Aber aths kann dir sicherlich dabei helfen. Er ist spitze in solchen Berechnungen. :up:
@ IVN
Eine 64-Bit CPU tut hier nichts zur Sache. Was die Graka vermasselt, kann die CPU nicht wieder gut machen.
Wie gesagt. Bei PS-Instruktionen darf man sich nur auf die Graka verlassen. Da hilft auch 128-Bit bei der CPU nichts. Es sein denn man macht es auf die "Steinzeit"-Weise. Das dürfte heute aber kaum möglich sein, da man dafür spezielle Programme bräuchte, wo ich nicht weiss, ob es solche überhaupt gibt.
Bin nicht im Filmgeschäft tätig. ;D

BlackBirdSR
2004-09-01, 22:38:32
@Demirug

Are you sure that no 64bit CPUs are used in rendering farms,for example Pixar?

Dazu benötigst du keine 64Bit CPUs.
Selbst die meisten 32Bit CPUs sind in der Lage mit double precision (64Bit) FP zu rechnen.
Bei x86 geht das sowohl mit FPU als auch SSE2.

Demirug
2004-09-01, 22:44:32
naja range overflows & precision verlust ;) da brauchen wir halt doch irgendwann double precision fp;)

Das hängt im wesentlichen von der Stabilität des Verfahrens ab. Und bei Shadern hat man in der Regel gar keinen Ketten die lang genug für solche Probleme sind. Lange Shader werden ja primär dazu gebraucht eine Vielzahl von Effektschichten in einem Pass aufzutragen.

vielleicht nicht durch 2.X, aber mglw. durch PP. Denn das ist wirklich Mehraufwand; alles manuell nachzuchecken und nach Artefakten abzusuchen, und zu sehen ob PP genügt oder ob man doch FP nehmen muss (z.b. reichen 16 bit nichtmal um 1024er Texturen richtig zu addressieren ( mit bi-filter ) ).

Das prüfen ob eine Variable zur Textureaddressierung benutzt wird kann relative einfach automatisiert werden.

IVN
2004-09-01, 22:46:40
@MikBach


Read my post again.I was tallking about Rendering Farms.I didn't say anything about desktop Comuters..

MikBach
2004-09-01, 22:52:17
@MikBach
Read my post again.I was tallking about Rendering Farms.I didn't say anything about desktop Comuters..
Ich habe mich hier auf den Post von Demi bezogen.
Er sprach von Filmen. Die werden bestimmt nicht von Desktop-PCs berechnet, sondern von Servern.

Gast
2004-09-01, 22:56:26
Ich habe mich hier auf den Post von Demi bezogen.
Er sprach von Filmen. Die werden bestimmt nicht von Desktop-PCs berechnet, sondern von Servern. Solcherlei Cluster basieren heutzutage auch auf kostengünstiger x86-Hardware. Die New-Economy Seifenblase ist Geschichte, heute muss alles wieder wirtschaftlich sein.

Was willst du uns überhaupt sagen?

MikBach
2004-09-01, 23:20:35
Solcherlei Cluster basieren heutzutage auch auf kostengünstiger x86-Hardware. Die New-Economy Seifenblase ist Geschichte, heute muss alles wieder wirtschaftlich sein.

Was willst du uns überhaupt sagen?
Genau das was ich geschrieben habe. :)
Filme werden nicht von einem Rechner gemacht, sonder von einem Rechnerverbund oder Servern. Mit nur einem Desktoprechner müsste man Jahre "verschwenden".

Leonidas
2004-09-02, 00:54:44
Das Problem liegt darin, dass hier oft zu sehr auf die Technik geschaut wird, daraus werden Schlüsse auf die Performance gezogen, welche meistens nicht eintreffen.
Auch Gurus können irren, sind ja nur Menschen.




Sicherlich war die Performance-Aussage zum NV30 seinerzeit ein Irrtum. Und? So etwas passiert, ganz besonders bei unvollständiger Faktenlage. Zumindestens habe ich seinerzeit erkannt, daß die der NV30 zugesprochenen 30% Vorteil gegenüber dem R300 im besten Fall das obere Ende der Skala bedeuten - habe mir also die Möglichkeit offengelassen, daß es weniger wird. Wer konnte schon zu jener Zeit ahnen, daß es so viel weniger wird? Der Gast will wohl hoffentlich nicht darauf, daß ich seinerzeit ohne jegliche Faktengrundlage die tatsächliche Performance des NV30 mittels Kristallkugel treffgenau hätte erkennen müssen - wider der Meinung sämtlicher Experten und Meinungsmacher auf diesem Gebiet, welche allesamt mehr vom NV30 erwartet haben?!

Ich warte immer noch auf eine Erklärung des Gastes, wo nun der Widerspruch liegen soll bzw. der Aufhänger für sein erbostes Posting.

Leonidas
2004-09-02, 00:56:47
Da muss sich keiner hier wundern wenn einige schon daran denken dieser Seite einen NEUEN Link zu schenken, so wie: www.nv3dcenter.de, das schöne an dieser Sache wäre, das ist sogar RECHTLICh erlaubt.




Nein, wäre es nicht. Die Benutzung unseres Namens kann ich untersagen. Und "nv3dcenter.de" würde zweifelslos unseren Namen benutzen. Ganz nebenbei könnte man dem Ersteller der Seiten (ganz besonders bei entsprechendem Inhalt) noch niedere Absichten unterstellen sowie möglicherweise beweisen, was für denjenigen richtig teuer werden könnte.

Leonidas
2004-09-02, 00:58:05
und was für EIDE und SCHWÜRE ich schon hier in den letzten Monaten gelesen habe auf FX und co.*ggg*




Bla!

Zeig mir, wo ich Eide und Schwüre in den News abgelegt habe! Zeig her oder sei still!

tokugawa
2004-09-02, 01:45:42
Ich verstehe dich nicht!
Was habe ich denn anderes behauptet?
Nur, dass eine 9800 die 5900 in der Performance bei DX9 in der Pfeife raucht. Mehr nicht!

Habe ich doch gesagt. DX9!


Ich weiß. Ich wollte nur zeigen, dass deine Erwähnung (auch dieses anderen Threads) absolut OT war. Weil der Gast eben eine News kritisiert hat, wo es explizit um "Möglichkeit" ging ("es ist möglich", also den "Existiert"-Quantor), und nicht um alle Fälle abzudecken (also den All-Quantor) noch um den Spezialfall DX9. Performance-technisch stellt sich die theoretische Frage genauso wie die "praktische" Frage. Zumindest für technisch Interessierte.


Wo soll das zutreffen?
Und, Ausnahmen bestätigen die Regel. ;)


Och, da lässt sich sicher ein Praxis-Fall konstruieren/finden. Eine Ausnahme ist es nicht, da solche Fälle wohl einfach die Stärken der FX 5900 ausnutzen (also deren Balance in den Performance-Elementen in der Performance-Kette mehr auf die FX 5900 ausgelegt ist). Wie gesagt, Performance ist nicht eine Zahl, sondern die Summe und das Produkt von vielen kleinen Aspekten, die je nach Software anders gewichtet sind. Und die FX 5900 ist in manchen dieser Performance-Elemente eben der 9800 Pro überlegen. Von daher ist es "möglich", dass die FX 5900, wie in den News behauptet, auch um 30% schneller ist als die 9700 Pro in gewissen Fällen. In der Frage der "Möglichkeit" zählen halt theoretische Überlegungen auch dazu. Aus welchen man leicht praktische Beispiele machen kann (zumindest Entwickler können in der Regel die performance-relevanten Elemente balancieren).


Habe ich das behauptet?
Ich sprach doch von einer 9800, und noch mal Ausnahmen bestätigen die Regel.


Wie gesagt, sind keine "Ausnahmen", sondern berechnete Fälle. "Regel" ist so ein unmathematisches Wort (selbst stochastisch gesehen), das gefällt mir gar nicht.


Sehe ich nicht so. Dadurch hatten die Progger mehr Arbeit. Mehr wollte ich mit meiner Aussage damals nicht behaupten.

Man könnte es auch so sehen: Durch die "enge Straße" SM 2.0 hatte man auch mehr Arbeit, denn man muß ja für SM 2.0 auch programmieren anstatt für rein SM 2.0a. Das wäre dieselbe Argumentation.

Im direkten Vergleich allerdings, wenn man "rein SM2.0" und "rein SM2.0a" hernimmt, verliert man sicher weniger Haare durch SM 2.0a, aufgrund besserer Fähigkeiten und weniger Limitationen. SM 2.0 könnte für einige Aufgaben bereits relativ stressig limitiert sein. So gesehen wäre SM 2.0a "weniger Arbeit", da man die Shader nicht so sehr auf 2.0er Länge und 2.0er Features trimmen muß.

Auf der anderen Seite stimmt es natürlich, dass SM 2.0 der DX9-Hauptstandard geworden ist, und den kann man halt nicht übersehen. Von der Warte aus gesehen, dass man SM 2.0 "sowieso" unterstützen muß, und SM 2.0a "optional", hast du natürlich recht, da ist es mehr Arbeit.

Soll allerdings Leute geben, die auch rein SM 2.0a verwenden, als Vorgeschmack auf SM 3.0. Das war ja bekannt, dass die erweiterten Caps von SM 2.0a dann Standard-Teil von SM 3.0 sind, man hat also mit SM 2.0a schon "annähernd" SM 3.0 programmiert. Das ist in Anbetracht dessen, wenn man z.B. letzten Winter mit einer Spiele-Engine begonnen hat und noch keine NV40 zur Verfügung hatte, allerdings schon SM 3.0 Shader programmieren wollte, schon nützlich gewesen. Einige Features die Teil von SM 3.0 waren, hatte man dann schon nutzen können.

So leicht wie "SM 2.0a war nur mehr Arbeit für die Programmierer" ist die Sache halt nicht. Da muß man Aussagen schon genauer differenzieren.

tokugawa
2004-09-02, 01:47:16
Lol.
Und?
Wäre Nvidia auf PS2.0 aufgesprungen, gäbe es keine Probleme mit Performance, Kompatibilität und Treibern.
Die Mehrarbeit ist FAKT. Dadurch kommen die Spiele später. Das ist übel. Danke Nvidia! Dass wir wegen einem IHV länger auf Spiele warten mussten ist einfach Schweinerei.

NVIDIA unterstützt doch SM 2.0 auch (ach ja, verwend bitte SM und nicht PS. Mir geht die dauernde Pixel Shader-Fixierung auf den Sack).

SM 2.0A ist ja eine Obermenge von SM 2.0.

tokugawa
2004-09-02, 01:55:51
Filme haben eine bestimmte "Unschärfe". Da fällt das nicht auf, aber "unser" Razor würde bestimmt Augenkrebs von dieser Geschichte bekommen. ;)
Ich habe jetzt nicht den Plan um diese Uhrzeit die Ungenauigkeit auszurechnen. Aber aths kann dir sicherlich dabei helfen. Er ist spitze in solchen Berechnungen. :up:
@ IVN
Eine 64-Bit CPU tut hier nichts zur Sache. Was die Graka vermasselt, kann die CPU nicht wieder gut machen.
Wie gesagt. Bei PS-Instruktionen darf man sich nur auf die Graka verlassen. Da hilft auch 128-Bit bei der CPU nichts. Es sein denn man macht es auf die "Steinzeit"-Weise. Das dürfte heute aber kaum möglich sein, da man dafür spezielle Programme bräuchte, wo ich nicht weiss, ob es solche überhaupt gibt.
Bin nicht im Filmgeschäft tätig. ;D

Äh. Du hast echt keine Ahnung.

Trotz aller Features im Bereich Grafikkarten werden viele Offline-Render-Geschichten wie auch Filme nach wie vor über die CPU gerendert. Es gibt zwar Sachen, mit denen selbst das Offline-Rendering auf die GPU verlagert wird, aber mir wäre neu, dass sich das bereits durchgesetzt hat.

Vor allem da es im Offline-Rendering einige unbestreitbare Vorteile gibt: erstens lassen sich da Rendertechniken wie Raytracing einsetzen, die nicht per GPU durchführbar sind. Weiters ermöglicht es Global Illumination, was ebenfalls für die GPU noch nicht besonders "feasible" ist.

Weiters gibt es grad im Offline-Rendering neue "spezialisierte Rendertechniken", die halt noch nicht wirklich mit Shadern bzw GPU-Features generell funktionieren. Ich hab vor kurzer Zeit mal eine Präsentation für ein Rendering-Symposium gesehen, da ging es um "Skylight Polarization", also die Polarisation des Himmelslichts (bewirkt, dass der Himmel generell blau ist, Sonnenuntergänge jedoch rot, usw.). Es wurde ein approximative Formel vorgestellt, mir der sich das sehr wirklichkeitsnah simulieren ließ. Ich sag dir, die Formel wäre selbst für SM 3.0 schwer am Limit.

Die "Steinzeitweise", über die CPU zu rendern, ist halt noch immer flexibler als über die GPU.

Gast
2004-09-02, 02:22:13
Äh. Du hast echt keine Ahnung.


Wieso brauchen manche Leute solange, das festzustellen?!

Gast
2004-09-02, 07:23:00
Wieso brauchen manche Leute solange, das festzustellen?!


Das habe ich mich auch gerade gefragt. Das ist in den ganzen inhaltslosen Postings doch mehr als deutlich zu erkennen.

MikBach
2004-09-02, 07:48:16
Sicherlich war die Performance-Aussage zum NV30 seinerzeit ein Irrtum. Und? So etwas passiert, ganz besonders bei unvollständiger Faktenlage. Zumindestens habe ich seinerzeit erkannt, daß die der NV30 zugesprochenen 30% Vorteil gegenüber dem R300 im besten Fall das obere Ende der Skala bedeuten - habe mir also die Möglichkeit offengelassen, daß es weniger wird. Wer konnte schon zu jener Zeit ahnen, daß es so viel weniger wird? Der Gast will wohl hoffentlich nicht darauf, daß ich seinerzeit ohne jegliche Faktengrundlage die tatsächliche Performance des NV30 mittels Kristallkugel treffgenau hätte erkennen müssen - wider der Meinung sämtlicher Experten und Meinungsmacher auf diesem Gebiet, welche allesamt mehr vom NV30 erwartet haben?!

Och man, bei extrem dünner Faktenlage sieht man den NV30 schon bis zu 30% vorne, wenn die Praxis(TR6, Shadermark) damals doch gezeigt hat, dass eine 9800 deutlich schneller in DX9 sien wird. Seltsam.
Der NV30 ist/war für DX9 einfach eine Fehlkonstruktion. Zu viele FX12-Einheiten, welche in DX9-Spielen nicht oder kaum benutzt werden. FP32(Full Prezision in DX9, da NV keine FP24 anbietet) seeehr langsam.
Wer das damals nicht gesehen hat, der muss auf beiden Augen blind oder einfach nur resistent gegen Fakten sein. ;)

edit: Leo, das ist jetzt nicht auf Dich bezogen(und Deine News), sondern auf das Gelaber einiger Gurus in dem von mir verlinkten Thread.

MikBach
2004-09-02, 08:00:37
Och, da lässt sich sicher ein Praxis-Fall konstruieren/finden. Eine Ausnahme ist es nicht, da solche Fälle wohl einfach die Stärken der FX 5900 ausnutzen (also deren Balance in den Performance-Elementen in der Performance-Kette mehr auf die FX 5900 ausgelegt ist). Wie gesagt, Performance ist nicht eine Zahl, sondern die Summe und das Produkt von vielen kleinen Aspekten, die je nach Software anders gewichtet sind. Und die FX 5900 ist in manchen dieser Performance-Elemente eben der 9800 Pro überlegen.
Wie gesagt, sind keine "Ausnahmen", sondern berechnete Fälle. "Regel" ist so ein unmathematisches Wort (selbst stochastisch gesehen), das gefällt mir gar nicht.

Dazu kann ich nur sagen: aths2.
Sorry Tokugawa, aber du laberst Scheisse.
Klar kann man einen oder gar mehrere Fälle finden, wo der NV30 schneller sein kann. Ob das allerdings auf DX9 in Full Prezision zutrifft will ich mal stark anzweifeln.
Schau dir einfach die ganzen DX9-Benchmarks an, dann wirst du feststellen, dass eine FX dort nichts zu lachen hat. Und darauf wollte ich eigentlich hinaus.

Im direkten Vergleich allerdings, wenn man "rein SM2.0" und "rein SM2.0a" hernimmt, verliert man sicher weniger Haare durch SM 2.0a, aufgrund besserer Fähigkeiten und weniger Limitationen. SM 2.0 könnte für einige Aufgaben bereits relativ stressig limitiert sein. So gesehen wäre SM 2.0a "weniger Arbeit", da man die Shader nicht so sehr auf 2.0er Länge und 2.0er Features trimmen muß.

Auf der anderen Seite stimmt es natürlich, dass SM 2.0 der DX9-Hauptstandard geworden ist, und den kann man halt nicht übersehen. Von der Warte aus gesehen, dass man SM 2.0 "sowieso" unterstützen muß, und SM 2.0a "optional", hast du natürlich recht, da ist es mehr Arbeit.

Da 2.0 der "normale" Standard, wie auch 3.0 ist, verstehe ich nicht, was du mit dieser Argumentation sagen willst.
2.a und 2.b sind "Nebenprodukte" um besser die Möglichkeiten der einzelnen Karten anzusprechen.

MikBach
2004-09-02, 08:03:16
Äh. Du hast echt keine Ahnung.

Hier muss ich dir Recht geben, vom Rendering in Filmen habe ich wirklich nicht so viel Ahnung.

Demirug
2004-09-02, 08:10:04
Der NV30 ist/war für DX9 einfach eine Fehlkonstruktion. Zu viele FX12-Einheiten, welche in DX9-Spielen nicht oder kaum benutzt werden. FP32(Full Prezision in DX9, da NV keine FP24 anbietet) seeehr langsam.

Da der NV30 entworfen wurde bevor DX9 fertig war könnte man das ganze auch umdrehen in:

DX9 (bzw PS 2.0/2.X) ist eine Fehlkonstruktion für den NV30.

Da sind schöne was wäre wenn spielchen möglich. Aber das gehört dann eben ins reich der Spekulation.

MikBach
2004-09-02, 08:26:24
NVIDIA unterstützt doch SM 2.0 auch (ach ja, verwend bitte SM und nicht PS. Mir geht die dauernde Pixel Shader-Fixierung auf den Sack).

Ich habe hier bewusst PS geschrieben, da die VS-Power einer NV30/35 locker für heutige Spiele reicht. Das Problem ist die PS(2)-Performance.

MikBach
2004-09-02, 08:31:25
Da der NV30 entworfen wurde bevor DX9 fertig war könnte man das ganze auch umdrehen in:

DX9 (bzw PS 2.0/2.X) ist eine Fehlkonstruktion für den NV30.

Da sind schöne was wäre wenn spielchen möglich. Aber das gehört dann eben ins reich der Spekulation.
Korrekt. :)
Es geht mir aber um die Aussagen in dem von mir verlinkten Thread. Und damals sollte man es schon geahnt haben, dass eine FX in DX9-Spielen ablosen wird.
BTW ich sehe Du fühlst Dich angesprochen. War nicht meine Absicht. Ich meinte damit eher aths.

Jesus
2004-09-02, 12:15:25
Da der NV30 entworfen wurde bevor DX9 fertig war könnte man das ganze auch umdrehen in:

DX9 (bzw PS 2.0/2.X) ist eine Fehlkonstruktion für den NV30.

Da sind schöne was wäre wenn spielchen möglich. Aber das gehört dann eben ins reich der Spekulation.

eh ist der R300 nicht vor den FXen rausgekommen ?

Demirug
2004-09-02, 13:15:17
eh ist der R300 nicht vor den FXen rausgekommen ?

Ja, nur was hat das damit zu den das man bei Shadermodel 2.0 kaum Rücksicht auf den NV30 genommen hat?

Leonidas
2004-09-02, 13:26:31
Och man, bei extrem dünner Faktenlage sieht man den NV30 schon bis zu 30% vorne, wenn die Praxis(TR6, Shadermark) damals doch gezeigt hat, dass eine 9800 deutlich schneller in DX9 sien wird. Seltsam.



Nein. Man achte bitte auf die Details!

Diese Aussage unsererseits wurde vor *jeglichen* Benchmarks aufgestellt, inklusive TR6 und Shadermark. Niemand hatte also eine Ahnung, die auf wenigstens einem Benchmark basierte.

LovesuckZ
2004-09-02, 14:58:47
@ LS
Du beantwortest meine Quotes nicht richtig. Bringe ein oder zwei Qoutes, sonst ist es aus dem Zusammenhang gerissen. Und man versteht gar nicht was du überhaupt meinst. Also neuer Versuch bitte. Und mindestens zwei Sätze zusammen, sonst hat es keinenm Sinn sich mit dir zu unterhalten.
Bringe 2 Qoutes zum meiner Aussage und beantworte sie mit ganzen Sätzen, sonst kann ich leider keinen Bezug zu meinen Aussagen finden.

Wieso sollte ich Dummheit mit Klugheit kontern, wenn die Dummheit auf die Klugheit nie eingeht?
Du willst vernuenftige Saetze, dann beantworte sie auch. Solltest du es nicht machen, dann bist du unfaehig zu diskutieren.

Wäre Nvidia auf PS2.0 aufgesprungen, gäbe es keine Probleme mit Performance, Kompatibilität und Treibern.
Die Mehrarbeit ist FAKT. Dadurch kommen die Spiele später. Das ist übel.
Danke Nvidia! Dass wir wegen einem IHV länger auf Spiele warten mussten ist einfach Schweinerei.
Gäbe es bei Nvidia 2.0 statt 2.a/X müssten wir auf die Spiele nicht so langen warten. Logisch? oder soll ich noch weiter ausholen?
Der Punkt ist doch, dass bei DX7/8 noch nie ein Spiel so viel später gekommen ist, wie es zu 2.a-Zeiten der Fall war. Damals war die Programmierung noch einfacher und erst das 2.a-Profil hat die Sache extrem komplizierter gemacht.

1. Belege diese These bitte mit Argumente.
2. Belege diese These bitte mit Argumente.
3. Belege diese These bitte mit Argumente.
4. Belege diese These bitte mit Argumente.
5. Belege diese These bitte mit Argumente.

Nun, belege du erstmal deine Behauptungen (oder Luegen?), dann kannst du anderen sagen, sie sollen Gegenargumente bringen.
Wie gesagt: Entweder du machst es oder du bist unfaehig zu diskutieren. Und bevor ich ein Puntke bekomme: Diskutieren lernt man in der Sekundarstufe I und jede Lehrer wird bei solchen verhalten die selbe Meinung vertreten, da eine These ohne Argument und Stuetze in einer Diskussion nicht standhaft ist.

Gast
2004-09-02, 17:18:23
eh ist der R300 nicht vor den FXen rausgekommen ?

das schon nur wird eine neue DX9 Version ja nicht entworfen bzw. mit Specs festgezurrt wenn das entsprechende Hardware Produkt da ist sondern viel früher.
Zumal man auch bedenken muss, dass es den NV30 schon lange als Hardware gab. Naürlich nur in erlesensten Kreisen bei Nvidia und eventuell M$. Also rein von den DX Specs dürfte sich da im Jahr der Fertigstellung nicht viel geändert haben.
Insofern könnte man Demis Aussage durchaus stehen lassen.

Gast
2004-09-02, 18:26:49
Korrekt. :)
Es geht mir aber um die Aussagen in dem von mir verlinkten Thread. Und damals sollte man es schon geahnt haben,



Nun, dann mal her mit deinen Argumenten sofern du welche hast. Warum sollte man das geahnt haben? Hätte der NV30 nicht ebenso wie ein NV40 performen können bzgl. 2.0er Shader?

MikBach
2004-09-02, 21:21:41
Nein. Man achte bitte auf die Details!

Diese Aussage unsererseits wurde vor *jeglichen* Benchmarks aufgestellt, inklusive TR6 und Shadermark. Niemand hatte also eine Ahnung, die auf wenigstens einem Benchmark basierte.
Welche DX9-Benchmarks ausser Shadermark und TR6 habt ihr damals benutzt?

@ LS
Megalol. Ich kann nicht mehr vor Lachen. Du hast wirklich das Talent zum Komiker.
Lies den von mir verlinkten Tread. Sehe, wer damals Recht gehabt hat und schreibe bitte nicht so ein Unsinn.
Ich bin dumm und und du bist klug? Alles klar. *lach* *kippvomstuhl*
Deswegen hattest du damals auch so viel zu sagen in dem von mir verlinkten Thread.
Was für Belege willst du denn noch?
Liess dir noch mal diesen Thread durch, dann weisst du bescheid.

BTW ich habe kein Bock mehr auf Gastpostings zu antworten, will mich einfach nicht von irgendwelchen Spacken provozieren lassen. Regt euch, dann sehen wir weiter. Dann dürft ihr auch an anspruchsvollen Diskussionen teilnehmen. Sonst ab auf die Spielwiese. ;)

Quasar
2004-09-02, 21:24:48
Welche DX9-Benchmarks ausser Shadermark und TR6 habt ihr damals benutzt?


Welcher Teil von folgendem Statement war zu kompliziert oder unverständlich formuliert?

"Diese Aussage unsererseits wurde vor *jeglichen* Benchmarks aufgestellt, inklusive TR6 und Shadermark. Niemand hatte also eine Ahnung, die auf wenigstens einem Benchmark basierte."

edit:
Wieviele nV30 gab es zum Zeitpunkt des Artikels bereits, die auf finalen Taktraten liefen?

"Habt Ihr nicht auch am 19. November 2002 / von aths & Leonidas / Seite 1 von 3 folgendes behauptet!"

MikBach
2004-09-02, 21:35:21
Welcher Teil von folgendem Statement war zu kompliziert oder unverständlich formuliert?

"Diese Aussage unsererseits wurde vor *jeglichen* Benchmarks aufgestellt, inklusive TR6 und Shadermark. Niemand hatte also eine Ahnung, die auf wenigstens einem Benchmark basierte."

edit:
Wieviele nV30 gab es zum Zeitpunkt des Artikels bereits, die auf finalen Taktraten liefen?

"Habt Ihr nicht auch am 19. November 2002 / von aths & Leonidas / Seite 1 von 3 folgendes behauptet!"
Hä?
Du hast aber den Sinn von dem, was ich geschrieben habe verstanden?
Ich habe Leo doch schon gesagt, dass sich die meisten Postings von mir nicht auf die News non ihm beziehen, sondern auf den von mir verlinkten Thread!
Liesst du auch alles oder laberst du nur BS?
12/2003 war die Sachlage doch schon viel Transparenter. Wie ich schon geschrieben habe. ;)
Wer es zu der von mir genannten Zeit nicht gesehen hat und sich Guru schimpft, der ist entweder auf beiden Augen blind oder einfach resistent gegen Fakten.
Ich empfehle dir wirklich diesen Thread gründlichzu lesen.

Kakarot
2004-09-02, 21:41:29
BTW ich habe kein Bock mehr auf Gastpostings zu antworten, will mich einfach nicht von irgendwelchen Spacken provozieren lassen. Regt euch, dann sehen wir weiter. Dann dürft ihr auch an anspruchsvollen Diskussionen teilnehmen. Sonst ab auf die Spielwiese. ;)
Sry, aber Dein Verhalten ist unter aller Sau, nicht nur in diesem thread, es ist mir relativ egal, für wie toll Du Dich hälst und deshalb meinst in ignoranter Art und Weise mit anderen usern diskutieren zu dürfen. Aber keiner bezeichnet hier nicht registrierte user als "Spacken", ohne dafür zumindest eine Punkt zu kassieren, es gilt in diesem Forum eine gewisse Umgangsformen einzuhalten, wenn Dir das nicht möglich ist, dann hast Du die längste Zeit in diesem Forum unter dem nick MikBach gepostet.

Kakarot

Ach ja, der Form halber:

1 Punkt

Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
Regeln und Richtlinien für die Moderation (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046)

Quasar
2004-09-02, 21:43:08
Danke für die wie immer freundlichen Worte - hier kann man es sich offenbar erlauben. ;)
edit: Offenbar doch nicht...

Dann frage ich mal zurück:
Du hast schon gesehen, was du gequotet hast von Leonidas? Und worauf sich dieses Quote bezog?

Richtig, den Artikel vom 19.11.2002.... :)

MikBach
2004-09-02, 21:58:59
@ Kakarot, hast Post;)

BlackBirdSR
2004-09-02, 23:17:38
Sicherlich war die Performance-Aussage zum NV30 seinerzeit ein Irrtum. Und? So etwas passiert, ganz besonders bei unvollständiger Faktenlage. Zumindestens habe ich seinerzeit erkannt, daß die der NV30 zugesprochenen 30% Vorteil gegenüber dem R300 im besten Fall das obere Ende der Skala bedeuten - habe mir also die Möglichkeit offengelassen, daß es weniger wird. Wer konnte schon zu jener Zeit ahnen, daß es so viel weniger wird?

Ganz richtig.
Sowas passiert, schließlich kann man auch nur anhand von Daten handeln die man vorab bekommt.
Und eben aus Erfahrung, die aber nicht immer zum Ziel führt.

Ein tolles Beispiel ist der P4:
Selbst absolute Cracks auf dem Gebiet, welche heute noch Artikel schreiben wo mir einfach die Spucke wegbleibt, haben damals sowas verlauten lassen:
"
entnommen aus:
http://www.realworldtech.com/page.cfm?ArticleID=RWT040400000000

[...]I would go so far as estimate that Willamette might achieve 20 to 30% higher performance than P6 on a clock for clock basis on most integer code. Including the 50% or more higher clock rate, that is equivalent to an absolute integer performance approaching twice that of the P6 in the same manufacturing process.[...]

[...]Everything else being equal, Willamette will likely enjoy at least a similar level of clock normalized performance or IPC advantage running general purpose integer code over K7 that the K7 enjoys over the P6 core.[...]

"

Wichtig ist, dass der Autor seine Fehler erkannt hat, und auch heute noch einer der Quellen für interne Abläufe im P4 ist.

Ist es bei 3dc nicht auch ähnlich?

Also warum darauf rumreiten. Es passiert, und nur solche die dann nicht davon abweichen wollen, sollten dafür Kritik einstecken.

MikBach
2004-09-03, 08:04:29
Dann frage ich mal zurück:
Du hast schon gesehen, was du gequotet hast von Leonidas? Und worauf sich dieses Quote bezog?

Richtig, den Artikel vom 19.11.2002.... :)
Bitte Quasar, liess doch meinen Post genau:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2204426&postcount=70
Dann dürfte alles klar sein. :)
Threads entwickeln sich machmal in eine ganz andere Richtung.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=162627
hier hat sich aus einem Cheatvorwurf eine allgemeine Diskussion zur BQ entwickelt. Und war es falsch? Nein, es sind neue Erkenntnisse dazugekommen, welche teilweise auch mich überrascht haben.
OT kann manchmal sinnvoll sein, siehe auch den Kommentar von Mapel110:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2150078&postcount=159
Dazu das Ende der Diskussion:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=162627&page=8&pp=20

Also dort war es mit Sicherheit deutlich mehr OT als hier.

aths
2004-09-03, 12:41:16
Das Problem liegt darin, dass hier oft zu sehr auf die Technik geschaut wird, daraus werden Schlüsse auf die Performance gezogen, welche meistens nicht eintreffen.
Auch Gurus können irren, sind ja nur Menschen.Ein Glück, dass wir ach so gurigen Gurus keien Übermenschen sind ...

Jeden Tag freue ich mich aufs neue, bei meinem Nick das Wort "Guru" zu lesen. Das baut auf. Und ja, mein bisschen Technikwissen verstellt mir den Blick aufs Wesentliche. Ich lese ab heute nur noch THG. Sry dafür, wenn einige Aussagen in den Artikeln nicht stimmen. Dass der große Rest stimmt und man hin und wieder tiefergehende Informationen enthält als man sonst im deutschsprachigen Teil des Internets bekommt, ist natürlich unwichtig. Und warum eigentlich auf die Technik gucken, wenn man einfach aus den White Papers abschreiben kann, die doch alles so gut erklären? Unnütze Arbeit.

Gut finde ich auch, wenn aus einem Artikel zitiert wird ohne dass die Inhalte späterer Artikel in Betracht gezogen werden. Dass man mit der Zeit dazulernt und seine Auffassung ändert, wäre eines vernünftigen Redakteurs unwürdig.

Als im letzten Jahr einige Diskussionen zu 9800/5900 stattfanden, waren die meisten Gurus davon überzeugt, das in DX9-Spielen eine 5900 der 9800 ebenbürtig oder sogar überlegen sein wird. Das hat sich nun als blanker Unsinn herausgestellt.Wurde auch genügend hinterfragt, warum das so ist? Ich möchte nicht nur wissen, dass etwas so und so ist, sondern auch verstehen, warum.
Ausserdem habe ich damals bemängelt, das der 2.a-Compilerstandard für Entwickler nicht angenehm sein wird, das hat man natürlich nicht so gesehen.Das sehe ich auch immer noch nicht so. PS_2_A und VS_2_A bieten den mächtigeren Befehlssatz. Im Vertexshader ist sogar dynamisches Branching möglich. Im Pixelshader gibts die Prediction.

Man muss zwar bis Ende lesen, um alles zu verstehen, aber es lohnt sich um zu sehen, warum man nicht von Technik/Architektur auf Performance schliessen kann, was die Gurus(besonders aths) doch so gerne machen. Hm, in dem Thread, an den ich mich sogar noch teilweise erinnere, lese ich aus den Postings eines gewissen MikBachs nicht gerade heraus, dass er sich in der Materie auskennt.

Mehr will ich zur Zeit nicht sagen.
Das sollte erstmal reichen.Hehe. Ich antworte wie man sieht ja sogar auf Leute, die kein "Guru" im Titel haben, allerdings finde ich es etwas billig, wenn so pauschal auf Gurus rumgehackt wird.

Quasar
2004-09-03, 13:50:32
Bitte Quasar, liess doch meinen Post genau:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2204426&postcount=70
Dann dürfte alles klar sein. :)

Du hast in diesem Posting leider keinen Thread verlinkt - und so kann sich das "damals" nur auf den 19.11.2002 beziehen. Weder nV30 noch R9800 waren zu dem Zeitpunkt verfügbar - wie es mit TRAOD und SM2 aussah, müsste ich nachschauen. :)

Somit dürfte alles klar sein.

aths
2004-09-03, 13:50:33
Och man, bei extrem dünner Faktenlage sieht man den NV30 schon bis zu 30% vorne, wenn die Praxis(TR6, Shadermark) damals doch gezeigt hat, dass eine 9800 deutlich schneller in DX9 sien wird. Seltsam.
Der NV30 ist/war für DX9 einfach eine Fehlkonstruktion. Zu viele FX12-Einheiten, welche in DX9-Spielen nicht oder kaum benutzt werden. FP32(Full Prezision in DX9, da NV keine FP24 anbietet) seeehr langsam.Die FP32-Einheiten sind nicht das, was langsam ist.

MikBach
2004-09-04, 08:06:50
Ein Glück, dass wir ach so gurigen Gurus keien Übermenschen sind ...

Jeden Tag freue ich mich aufs neue, bei meinem Nick das Wort "Guru" zu lesen. Das baut auf. Und ja, mein bisschen Technikwissen verstellt mir den Blick aufs Wesentliche. Ich lese ab heute nur noch THG. Sry dafür, wenn einige Aussagen in den Artikeln nicht stimmen. Dass der große Rest stimmt und man hin und wieder tiefergehende Informationen enthält als man sonst im deutschsprachigen Teil des Internets bekommt, ist natürlich unwichtig. Und warum eigentlich auf die Technik gucken, wenn man einfach aus den White Papers abschreiben kann, die doch alles so gut erklären? Unnütze Arbeit.
Ach komm aths, nicht direkt beledigt sein. ;)
Ich finde deine Technikartikel sehr interessant. Nur könntest du dir die Seitenhiebe auf ATI sparen.
NV40-Artikel.
"Wie wir wissen ist der R300-Chip ebenfalls ein Kompromiss: Er bietet nur geringe Filter-Präzision und die Shader unterliegen vielen Beschränkungen."
Bei den Shadern teilweise Ack. Wenn ATI den 2.0Standard erfüllt und ein anderer Hersteller den übertrifft, dann übt man keine Kritik an ATI, da sie ja den Standard erfüllen, sonder könnte sagen, dass Nvidia hier bisschen mehr bietet. Verstehst du was ich meine? ;)
Welche Filter-Präzision meinst du?


Wurde auch genügend hinterfragt, warum das so ist? Ich möchte nicht nur wissen, dass etwas so und so ist, sondern auch verstehen, warum.
Hä?
Interessiert 90% der Käufer nicht, warum ein R350 in zukünftigen Spielen( vom damaligen Standpunkt aus gesehen) schneller sein wird als ein NV35.

Das sehe ich auch immer noch nicht so. PS_2_A und VS_2_A bieten den mächtigeren Befehlssatz. Im Vertexshader ist sogar dynamisches Branching möglich. Im Pixelshader gibts die Prediction.
Das habe ich mir schon gedacht, dass du das so siehst. Es ging mir eigentlich um die Mehrarbeit für Entwickler(Stichwort pp_hints) beim 2.a-Profil.

Hm, in dem Thread, an den ich mich sogar noch teilweise erinnere, lese ich aus den Postings eines gewissen MikBachs nicht gerade heraus, dass er sich in der Materie auskennt.
Richtig. ;D
Damals konnte man mich im Vergleich mit dir als 3D_Noob bezeichnen.
Aber man lernt ja dazu.
Was auch seltsam ist, dass ich mit weniger Wissen die bessere Prognose abgeliefert habe. ;)

Hehe. Ich antworte wie man sieht ja sogar auf Leute, die kein "Guru" im Titel haben, allerdings finde ich es etwas billig, wenn so pauschal auf Gurus rumgehackt wird.
Danke, dass du auch auf die "Sterblichen" eingehst. :)
Und noch mal, ich hacke nicht pauschal auf den Gurus rum. Nur du bist mir da bisschen zu fanatisch was die Technik angeht.
Na ja, du bist halt so. :)
Wäre ja langweilig, wenn jeder nach dem gleichen Muster denken würde.

MikBach
2004-09-04, 08:15:09
Du hast in diesem Posting leider keinen Thread verlinkt - und so kann sich das "damals" nur auf den 19.11.2002 beziehen. Weder nV30 noch R9800 waren zu dem Zeitpunkt verfügbar - wie es mit TRAOD und SM2 aussah, müsste ich nachschauen. :)

Somit dürfte alles klar sein.
Was soll klar sein?
Dass du nicht den ganzen Thread gelesen hast? :)
Bitte:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2202456&postcount=12
hier ist der Link zum Thread, welcher Gegenstand meiner Diskussion hier ist.