PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12

ShadowXX
2004-03-25, 09:07:40
Ich bin eigentlich nur gespannt, wann ATI denn mal endlich die Katze (sprich TechSpecs) aus dem Sack lässt...

Sie lassen sich im moment ja Zeit...nV hat die Präsentation für den 12/14 April angekündigt und ATI sagt gar nix...

Ist der ATI so "gut", oder so "schlecht" das Sie sich nicht darüber weiter äussern....

Man könnte natürlich auch etwas diabolisch fragen: Braucht nV den Gerüchterummel um den nV40 interessant zu machen???
Und ATI ist so ein Gerüchterummel egal, da sie "wissen" das Ihr Chip schneller ist???
(und bevor mir Raven an die Gurgel springt...klar das kann natürlich auch andersherum sein...(ATI weiss das sie kein Land sehen werden, sagen deshalb nix und hoffen, das viele die Karte einfach kaufen, weil ATI draufsteht...))

Fragen über Fragen....ich hoffe das ATI auch bald mal ne Präsentation ankündigt....

J.S.Shadow

Odal
2004-03-25, 10:05:25
Original geschrieben von ShadowXX
Sie lassen sich im moment ja Zeit...nV hat die Präsentation für den 12/14 April angekündigt und ATI sagt gar nix...

Ist der ATI so "gut", oder so "schlecht" das Sie sich nicht darüber weiter äussern....

Man könnte natürlich auch etwas diabolisch fragen: Braucht nV den Gerüchterummel um den nV40 interessant zu machen???
Und ATI ist so ein Gerüchterummel egal, da sie "wissen" das Ihr Chip schneller ist???


naja da wir ja hier im spekulationsthread sind....

meine logik wuerde sagen, wenn sie was zu bieten haetten wuerden sie dosiert informationen durchsickern lassen...denn nichts ist bessere werbung als in irgendeiner form immer "praesent" zu sein...
Ati waere dumm wenn sie das nicht nutzen wuerden, zumal es auch in gewisser form den verkauf jetziger chips beim DAU (der auch mal PC Games usw. liesst) beeinflusst...
ich spekuliere das sich Ati ein wenig fuer ihren chip (der nicht schlecht sein muss) "schaemt" denn was sollen sie durchsickern lassen/ offiziel bestaetigen? das sie keine PS3.0 unterstuetzen? vermutlich weniger pipes (auch wenn das nicht wirklich was zu sagen hat) als die konkurenz besitzen? Im AF vielleicht immer noch etwas hinterherhaengen?
da bleibt dann nur noch die performance (die durchaus beeindruckend sein kann) nur diese laesst sich erst nach der chippraesentation "vermarkten"

Original geschrieben von ShadowXX
Fragen über Fragen....ich hoffe das ATI auch bald mal ne Präsentation ankündigt....

J.S.Shadow


das wuerde ich auch begruessen... zumal ich mir sowieso den besseren der beiden (vom P/L auch wenn ich einwenig an nvidia haenge) kaufen werde...
mitunter stoert es mich das die midrange chips erst so spaet kommen sollen (werde mir vermutlich keinen HighEnd wegen schlechten P/L zulegen)...wenn Ati nun etwas offenkundiger waere bezueglich release usw. wuerden sich beide wohl mehr beeilen um die midrange chips rauszubringen...

[dzp]Viper
2004-03-25, 10:17:13
Ich frag mich zwar wo www.hartware.de das Bild her hat :| aber egal :D

http://gfx.turtled.com/n/36000/36012_1b.jpg

StefanV
2004-03-25, 10:30:41
Original geschrieben von [dzp]Viper
Ich frag mich zwar wo www.hartware.de das Bild her hat :| aber egal :D

http://gfx.turtled.com/n/36000/36012_1b.jpg

Hm, interessant...

Pi mal Daumen ists genauso groß wie der Core der R3x0...

reunion
2004-03-25, 10:37:37
Original geschrieben von Stefan Payne
Hm, interessant...

Pi mal Daumen ists genauso groß wie der Core der R3x0...

Ja, er wird allerdings in einem kleineren Fertigungsprozess hergestellt...

Ailuros
2004-03-25, 11:03:26
Original geschrieben von Odal
naja da wir ja hier im spekulationsthread sind....

meine logik wuerde sagen, wenn sie was zu bieten haetten wuerden sie dosiert informationen durchsickern lassen...denn nichts ist bessere werbung als in irgendeiner form immer "praesent" zu sein...
Ati waere dumm wenn sie das nicht nutzen wuerden, zumal es auch in gewisser form den verkauf jetziger chips beim DAU (der auch mal PC Games usw. liesst) beeinflusst...
ich spekuliere das sich Ati ein wenig fuer ihren chip (der nicht schlecht sein muss) "schaemt" denn was sollen sie durchsickern lassen/ offiziel bestaetigen? das sie keine PS3.0 unterstuetzen? vermutlich weniger pipes (auch wenn das nicht wirklich was zu sagen hat) als die konkurenz besitzen? Im AF vielleicht immer noch etwas hinterherhaengen?
da bleibt dann nur noch die performance (die durchaus beeindruckend sein kann) nur diese laesst sich erst nach der chippraesentation "vermarkten"

Theoretisch einer marketing-technischen Logik angepasst gibt es da nichts sich darueber zu schaemen, denn ATI weiss wohl schon seit ~2 Jahren wie sich diese Runde ausspielen wird. Wie ich schon spekuliert habe (immer IMHO bitte nicht vergessen) hat ATI wohl mit Absicht die Disorientierung fuer den XBox2 Design sehr frueh bezahlen wollen; im gegebenen Fall mit R420. Lieber frueher als spaeter; schlecht ist die Idee eigentlich nicht; es geht aber nur darum dass dieser Zug von ATI schon seit sehr langem entschieden wurde und ATI war sich wohl schon damals ueber die Nachteile bewusst.

Von der Shader-Perspektive sah es wohl schon immer so aus als ob ATI hier nicht auf dem gleichen Niveau wie NVIDIA sein wuerde; egal was fuer verwirrende Info in den letzten 2 Jahren dem Publikum "off the record" gegeben wurden.

Leistung ist ein Kapitel dass man nicht unbedingt einfach so vorhersehen kann, also heisst es auch hier abwarten und Tee-trinken.

nagus
2004-03-25, 11:15:39
Original geschrieben von [dzp]Viper
Ich frag mich zwar wo www.hartware.de das Bild her hat :| aber egal :D

http://gfx.turtled.com/n/36000/36012_1b.jpg


1A fake.

mapel110
2004-03-25, 11:45:34
Original geschrieben von MadManniMan
:|

Ömm, find ich den Schalter für hohe Details bei aktuellen Spielen nich, oder hab ich wirklich noch nirgends derlei Ingame-Quali gesehen, wie die 3 Videos sie bieten?

NFSU, Prince of Persia, Farcry

Ich bezieh das rein auf die Grafik, und nicht auf zum Beispiel das "Schadensmodell" das in der ersten Demo gezeigt wird.

btw R420 sollte doch diese Woche gelauncht werden?! War wohl auch ne Fake meldung?! :grübel:

Exxtreme
2004-03-25, 11:52:20
Original geschrieben von mapel110
btw R420 sollte doch diese Woche gelauncht werden?! War wohl auch ne Fake meldung?! :grübel:
Die Woche ist noch nicht vorbei. :naughty:

AlfredENeumann
2004-03-25, 13:05:49
Original geschrieben von Sphinx
Wieso ,) ? - Der NV40 - Der kocht schon ,) die Eier hart.

Ne im ernst - Diese ganze Spekulationsgeschichte wird Übertrieben ~ dermaßen das...

Der NV40 Chip DER Chip des Jahrhundert´s ist. Fehlt nur noch die Behauptung Doppelt so schnell als der R420...

und über den R420 wird jetzt schon hergezogen als der Lacher des Jahrhunderts "NUR PS2.x"...

Wenn beide Karten angekündigt sind und offiziell vorgestellt werden. Dann mach ich mir mal hier ein Review wer am besten lag mit seinen Spekulationen und wer eventuell zum Psychiater gehen sollte wegen des Realitätsverlust´s durch zuviel Forumbeiträgen...


Ich hab hier im Thread, oder überhaupt im Spekuforum ein Deja vu.

R300 <-> NV30

Gleiche argumente. Der eine soll totaler misst sein weil er von dem einen IHV kommt, und der andere ...

AlfredENeumann
2004-03-25, 13:18:15
Original geschrieben von nagus
1A fake.


Glaube ich auch.
Schaut mal hier:
http://www.radeon2.ru/articles/img/chiptable/r350.jpg

ShadowXX
2004-03-25, 13:20:27
Original geschrieben von AlfredENeumann
Ich hab hier im Thread, oder überhaupt im Spekuforum ein Deja vu.

R300 <-> NV30

Gleiche argumente. Der eine soll totaler misst sein weil er von dem einen IHV kommt, und der andere ...

Nicht nur du....

Ich bin deshalb auch sehr auf die ersten unabhängigen Benches beider Chips gespannt...

Auch dem "Speku-Papier" hört sich der nv40 ja ziemlich gut an, aber das tat auch der nv30...
Und selbst wenn die meisten der Spekus stimmen sollten, muss man erst mal sehen, was der nv40 denn daraus macht..

Den ATI sehe ich allerdings nicht weniger Skeptisch...wobei ich auch damals den r300 am Anfang sehr skeptisch betrachtet habe.
Zumindest gibt es beim ATI keine grossartigen Infos, somit kann ich von diesem Chip zumindest nicht enttäuscht werden (ich erwarte beim r420 allerdings auch nix anderes, als einen auf "hochglanz-polierten" r360)

J.S.Shadow

[dzp]Viper
2004-03-25, 13:23:47
Original geschrieben von AlfredENeumann
Glaube ich auch.
Schaut mal hier:
http://www.radeon2.ru/articles/img/chiptable/r350.jpg

hm scheint so :D

eigentlich auch egal - ich denke mal, dass wir in 1-2 wochen schon richtige bilder haben werden -vielleicht sogar schon previews oder so :)

mapel110
2004-03-25, 13:24:14
Original geschrieben von Exxtreme
Die Woche ist noch nicht vorbei. :naughty:

Soweit ich mich errinnern kann, sind GPUs noch nie Freitags oder überhaupt Ende der Woche vorgestellt worden. Es war immer Montags, Dienstags oder Mittwochs, oder im Falle von Techchannel auch mal Sonntags Abends ;)

ow
2004-03-25, 13:34:51
.

[dzp]Viper
2004-03-25, 13:37:42
Original geschrieben von ow
Was haben die bei ATi gemacht in den letzten [b]2 Jahren[/i]? Nix?


möglichkeit 1.

Sie haben geld gehortet :D

möglichkeit 2.

sie werkeln an etwas, von dem noch niemand was weiss

möglichkeit 3.

sie waren faul

möglichkeit 4.

sie waren faul und geldgeil X-D

Mr. Lolman
2004-03-25, 13:45:50
Original geschrieben von ow
Und das soll dann keine Enttaeuscheung sein? Was haben die bei ATi gemacht in den letzten [b]2 Jahren[/i]? Nix?
Der R420 koennte die groesste Enttaeuschung werden seit es 3D Grafikchips gibt.


Ja klar, und deswegen wollte Thomas sie auch gleich mitnehmen, während der Staubsuager wahrscheinlich erst mit dem nächsten Refresh interessant wird...

Andererseits: Warum sollte ATi grossartig was machen, wenns NV immernoch nicht gebacken bekommt, sich trotz neuester Chips von OCten R300s (nichts anderes sind die R350, R360 imo) abzusetzen.

Quasar
2004-03-25, 13:47:23
Original geschrieben von ow
Und das soll dann keine Enttaeuscheung sein? Was haben die bei ATi gemacht in den letzten [b]2 Jahren[/i]? Nix?

Sie haben die ArtX-Kuh gemolken bis zum geht-nicht-mehr. Und du kannst sicher sein, daß jede Firma das so gemacht hätte, die einen leistungsmäßigen Vorsprung hat (s. nV 2000-2002).
ArtX oder Team "West" hat die R3xx-Serie geschrumpft, optimiert und umgearbeitet. Design Team "East" (ATi) brütet über der XBox2 und den integrierten Chipsätzen.

Mich würde mal interessieren, wie lange es schon feststeht, daß FP32 für 3.0-Shader-Compliance benötigt werden. Eventuell wurde ATi hier ja genaus so überrascht, wie nV, als sie erfuhren, daß FP24 für 2.x-Shader genügen würde.

R420 ist vielleicht wirklich als 3.0-Chip geplant gewesen und musste später zurückgestuft werden?

edit:
Schade, das Car_Demo kann ich nicht gucken - meine RageXL will das irgendwie nicht wiedergeben. Vielleicht liegt's auch an WMPC.

ShadowXX
2004-03-25, 13:50:14
Original geschrieben von ow
Und das soll dann keine Enttaeuscheung sein? Was haben die bei ATi gemacht in den letzten 2 Jahren? Nix?
Der R420 koennte die groesste Enttaeuschung werden seit es 3D Grafikchips gibt.

Ich hatte ja nur geschrieben, dass es für mich keine Enttäuschung wäre, da ich nicht mehr erwarte...

Ich habe allerdings nicht gesagt, dass ich Ihn dann auch kaufen würde...

Aber insgesamt gesehen, wäre es natürlich eine Enttäuschung und man müsste sich wirklich fragen, was Sie dies letzten 2 Jahre gemacht haben...
AiL hatte einen netten Erklärungsansatz dazu...die XBoxII-GPU Entwicklung, für die ATI "in kauf" nimmt, das der jetzige "Next-Gen-Chip" (wenn man ihn dann überhaupt so nennen kann) nicht so ganz das Gelbe vom Ei wird...

Allgeimen betrachtet, wäre es für das Image von ATI definitiv ein Rückschritt...der r3x0 könnte schnell als "Zufallstreffer" bewertet werden.
Sie hätten dann mit dem r500 wieder die gleiche Marketing und Überzeugungsproblemem wie beim r3x0 am Anfang...

J.S.Shadow

//edit: kleine "Bold" Korrektur

DrumDub
2004-03-25, 13:52:29
Original geschrieben von Quasar
R420 ist vielleicht wirklich als 3.0-Chip geplant gewesen und musste später zurückgestuft werden?

da frage ich mich dann aber: warum, wenn man die möglichkeit hat mit nv featuremäßig gleichzuziehen? <verschwörungstheorie> oder steckt da m$ dahinter? </verschwörungstheorie> nv haben ja wohl ihre neue opengl-extensions auf der gdc gepusht.

Exxtreme
2004-03-25, 13:54:58
Original geschrieben von Quasar
Mich würde mal interessieren, wie lange es schon feststeht, daß FP32 für 3.0-Shader-Compliance benötigt werden.

Steht das wirklich fest, daß für PS3.0 32-Bit FP benötigt werden? IIRC reichen hier immer noch 24-Bit FP. :kratz:
Original geschrieben von Quasar
R420 ist vielleicht wirklich als 3.0-Chip geplant gewesen und musste später zurückgestuft werden?
So wie es aussieht, entspricht die Pixelshader-Unit des R420 featuremässig weitgehend der R3x0-Serie.


Hmm, aber was ist, wenn das mit dem originalen R400 passiert ist? Daß dieser für die PS3.0-Compliance plötzlich nicht gereicht hat? Ich könnte mir tatsächlich vorstellen, daß ATi keine Verzögerung in Kauf nehmen wollte und diese PS-Units durch getunte R3x0-PS-Units ausgetauscht hat.

Quasar
2004-03-25, 13:57:06
Original geschrieben von DrumDub
da frage ich mich dann aber: warum, wenn man die möglichkeit hat mit nv featuremäßig gleichzuziehen? <verschwörungstheorie> oder steckt da m$ dahinter? </verschwörungstheorie> nv haben ja wohl ihre neue opengl-extensions auf der gdc gepusht.

...als 3.0-Chip geplant während man noch davon ausging, FP24 würde reichen. So hat man vielleicht (also evtl.) die ganzen Features, aber nur auf FP24 Basis, wofür es dann keinen passenden Compiler gibt, diese als 3.0 zu compilieren.

Ungefähr dasselbe Problem, welches nV letztes Jahr mit dem nV30 hatte, bevor das Summer_Update des DX-SDK erschien. nV wäre bei strikter Compliance eben gezwungen (und tat es in einigen Treibern ja auch), die höhere FP32-Lösung zu nutzen und FP16 ungenutzt zu lassen. Wenn ATi aber weiterhin ausschließlich FP24 hat....

Quasar
2004-03-25, 13:59:26
Original geschrieben von Exxtreme
Steht das wirklich fest, daß für PS3.0 32-Bit FP benötigt werden? IIRC reichen hier immer noch 24-Bit FP. :kratz1:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1670382#post1670382
keine Ahnung, D sagte es jedenfalls.

Original geschrieben von Exxtreme
So wie es aussieht, entspricht die Pixelshader-Unit des R420 featuremässig weitgehend der R3x0-Serie.


Hmm, aber was ist, wenn das mit dem originalen R400 passiert ist? Daß dieser für die PS3.0-Compliance plötzlich nicht gereicht hat? Ich könnte mir tatsächlich vorstellen, daß ATi keine Verzögerung in Kauf nehmen wollte und diese PS-Units durch eine getunte R3x0-PS-Units ausgetauscht hat.
Gereicht hat er vielleicht, aber möglicherweise war er zu ehrgeizig und man hat eingesehen, daß man ihn erst mit ausgereiften 0,09µ produzieren könnte oder ihn so abspecken müssen, wie gerüchteweise der nV30, so daß die Performance stark gelitten hätte.
Wer weiß? (Wavey vielleicht? ;) )

DrumDub
2004-03-25, 14:02:30
Original geschrieben von Quasar
...als 3.0-Chip geplant während man noch davon ausging, FP24 würde reichen. So hat man vielleicht (also evtl.) die ganzen Features, aber nur auf FP24 Basis, wofür es dann keinen passenden Compiler gibt, diese als 3.0 zu compilieren.

Ungefähr dasselbe Problem, welches nV letztes Jahr mit dem nV30 hatte, bevor das Summer_Update des DX-SDK erschien. nV wäre bei strikter Compliance eben gezwungen (und tat es in einigen Treibern ja auch), die höhere FP32-Lösung zu nutzen und FP16 ungenutzt zu lassen. Wenn ATi aber weiterhin ausschließlich FP24 hat....

ah... okay, habs verstanden. wobei demi doch schon meinte, das ps 3.0 ohne fp32 keinen sinn machen? wie kann da ati mit ps 3.0 und nur fp24 entwicklen?

Quasar
2004-03-25, 14:05:32
Original geschrieben von Demirug
Auf Seite 30 findet man übrigens die (AFAIK) erste öffentliche bestätigung das PS 3.0 FP32 fordert. IMHO ein guter Schritt mit FP24 müsste man bei zu vielen Shader 3.0 Effekten einfach zu sehr aufpassen.

Auf der Seite PS2a-Profile findet man interessanterweise auch einen Hinweis darauf, daß nV centroid-Sampling unterstützt.

Und bei 2b scheint man statt 12 (2.0) und 22 (2.a) sogar mit 32 Temp-Registern hantieren zu dürfen...

comments?

edit:
Whoppa!
VS_3_0 Profile:
Nur Dynamic Looping ist spezifiziert, kein dynamisches Branchen?
Kann das der Grund sein, warum der R420 auf einmal als VS3.0 gehandelt wird?

edit2:
Install by default to the Program Files folder
This is NOT always “C:\Program Files” !

YEAH! Endlich!!!

ow
2004-03-25, 14:10:08
.

ow
2004-03-25, 14:13:30
.

Quasar
2004-03-25, 14:15:22
Original geschrieben von DrumDub
ah... okay, habs verstanden. wobei demi doch schon meinte, das ps 3.0 ohne fp32 keinen sinn machen? wie kann da ati mit ps 3.0 und nur fp24 entwicklen?

Er meinte AFAIK nicht, daß es keinen Sinn macht, sondern daß man (wohl durch die Programmlänge) da an Grenzen der Genauigkeit stossen kann, wenn man nicht aufpasst. (correct me if i'm wrong)

Und das wäre ziemlich aufwendig, daß bei jedem einzelnen Shader durchzuprobieren, ob's da evtl. Artefakte gibt...

Exxtreme
2004-03-25, 14:15:33
Original geschrieben von ow
Wie waere es zur Abwechslung mal mit technischer Innovation?? Es gibt durchaus noch etwas nach PS2.0.
Nun ja ... wie innovativ der R420 tatsächlich ist, wird sich noch zeigen. Es gibt nicht nur Pixelshader. ;)

ow
2004-03-25, 14:15:36
.

Quasar
2004-03-25, 14:16:16
Original geschrieben von ow
Steht das denn schon sicher fest, dass PS3.0 FP32 voraussetzt?
Dass irgendwann FP32 gebraucht werden wird ist wohl schon lange klar, insofern haette ATi da ruhig in dieser Richtung was tun koennen.

Dieselbe Antwort, wie für E:

Original geschrieben von Quasar
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1670382#post1670382
keine Ahnung, D sagte es jedenfalls.

ow
2004-03-25, 14:18:37
.

Quasar
2004-03-25, 14:20:57
TruForm 3.0?
(ab jetzt völlig ohne GPU-Belastung)

*SCNR*

Exxtreme
2004-03-25, 14:23:10
Original geschrieben von ow
Nun, was erwartest du denn fuer Innovationen von R420??
Besseres Antialiasing, besseren anisotropen Filter etc. Für mich sind Features, die ich JETZT nutzen kann viel wichtiger als Features, die in der Zukunft oder womöglich niemals genutzt werden. :)

DrumDub
2004-03-25, 14:23:29
Original geschrieben von Quasar
Er meinte AFAIK nicht, daß es keinen Sinn macht, sondern daß man (wohl durch die Programmlänge) da an Grenzen der Genauigkeit stossen kann, wenn man nicht aufpasst. (correct me if i'm wrong)

okay, stimmt. so habe ich es auch verstanden.

Und das wäre ziemlich aufwendig, daß bei jedem einzelnen Shader durchzuprobieren, ob's da evtl. Artefakte gibt...

das meinte ich mit "keinen sinn machen". ;)

das problem ist imho dabei, dass sich so etwas ja nicht wie bei mv3x mit pp lösen bzw. über ein compilerprofil automatisiern lässt. der aufwand wäre für die entwickler einfach zu hoch. ergo: keiner machts und es gibt nur ps 2.x shader für den r4x0. hmm... da macht das zurückschrauben auf ps 2.x wieder sinn aus der sicht von ati. da könntest du doch irgendwie recht haben...

Quasar
2004-03-25, 14:26:17
Original geschrieben von Exxtreme
Besseres Antialiasing, besseren anisotropen Filter etc. Für mich sind Features, die ich JETZT nutzen kann viel wichtiger als Features, die in der Zukunft oder womöglich niemals genutzt werden. :)

4 ROPs pro Pipe könnte ATi wirklich mal springen lassen, stimmt. Aber 32xAF ATi-style braucht nun wirklich keine Sau, oder sollen nur noch genau 90°-Winkel davon profitieren?

Börk
2004-03-25, 14:30:21
Original geschrieben von ow
Wie waere es zur Abwechslung mal mit technischer Innovation?? Es gibt durchaus noch etwas nach PS2.0.
Stimmt, so wie damals NV, die ne ganze Zeit lang auch nur PS 1.1 konnten, während die Konkurrenz weiter war. Damals hast du bestimmt auch nicht geschrien...
Und seien wir mal ehrlich, PS 3.0 ist doch wirklich zur Zeit noch vollkommen unnötig, da erst die ersten PS 2.0 Spiele rauskommen. In einem Jahr siehts warscheinlich anders aus, aber da steht ja vielleicht der R500 schon vor der Tür.
Und wie Exxtreme auch schon gesagt hat, bei der nächsten Generation interessiert mich die Geschwindigkeit mit AA/AF vielmehr, als irgendwelche tollen PS 3.0 demos, die ich mir angucken kann...

P.S.: Das Bild vom R420 ist garantiert fake. Schon alleine, dass da noch das alte ATI Logo drauf ist :bonk:

Demirug
2004-03-25, 14:30:43
Original geschrieben von Quasar
Auf der Seite PS2a-Profile findet man interessanterweise auch einen Hinweis darauf, daß nV centroid-Sampling unterstützt.

Und bei 2b scheint man statt 12 (2.0) und 22 (2.a) sogar mit 32 Temp-Registern hantieren zu dürfen...

comments?

Temps waren bei der R300 Architektur schon immer "billig".

edit:
Whoppa!
VS_3_0 Profile:
Nur Dynamic Looping ist spezifiziert, kein dynamisches Branchen?
Kann das der Grund sein, warum der R420 auf einmal als VS3.0 gehandelt wird?


3.0 kann schon branchen. Hat der gute wohl einfach vergessen dazu zu schreiben. Wäre ja unsinnig wenn 2.A mehr als 3.0 kann.

Demirug
2004-03-25, 14:35:39
Original geschrieben von Quasar
Er meinte AFAIK nicht, daß es keinen Sinn macht, sondern daß man (wohl durch die Programmlänge) da an Grenzen der Genauigkeit stossen kann, wenn man nicht aufpasst. (correct me if i'm wrong)

Und das wäre ziemlich aufwendig, daß bei jedem einzelnen Shader durchzuprobieren, ob's da evtl. Artefakte gibt...

Das war es nicht.

Eines der Ziele der VS 3.0/PS 3.0 kombination ist es Physik auf die GPU auszulagern. Man "rendert" zum Beispiel in einem ersten Pass Partikelpositionen in einen Buffer (Textur) welche dann in einem zweiten Pass von VS 3.0 benutzt wird. Ist der PS jetzt aber nur FP24 kann man die Partikelposition nicht genau genug berechnen. Das bezieht sich im Prinzip auf jeden Effekt bei dem man den Pixelshader benutzt um geometrische Daten für den Vertexshader zu berechnen.

ShadowXX
2004-03-25, 14:38:14
Original geschrieben von Exxtreme
Besseres Antialiasing, besseren anisotropen Filter etc. Für mich sind Features, die ich JETZT nutzen kann viel wichtiger als Features, die in der Zukunft oder womöglich niemals genutzt werden. :)

Besseres AF, wäre das wichtigste...beim AA würde es mir reichen, wenn Sie es "schneller" machen würden...

(das würden doch die mehr ROPs ala Quasar bewirken, oder??)

Exxtreme
2004-03-25, 14:41:42
Original geschrieben von ShadowXX
(das würden doch die mehr ROPs ala Quasar bewirken, oder??)
Wenn die Bandbreite ausreicht dann würde es tatsächlich helfen. Beim R3x0 war die Bandbreite meist knapp bemessen, deswegen war es eine 'sinnvolle' Einsparmaßnahme nur 2 ROPs per Pipeline.

StefanV
2004-03-25, 14:47:05
müsste man nicht bei 4 ROPs auch den 6x MOdus in die Tonne Treten, da der nicht mehr wirklich was taugt??

Exxtreme
2004-03-25, 14:50:14
Original geschrieben von Stefan Payne
müsste man nicht bei 4 ROPs auch den 6x MOdus in die Tonne Treten, da der nicht mehr wirklich was taugt??
Hängt von der verfügbaren Bandbreite ab. :) Sollte diese bei 8x AA nicht ausreichen dann würde 6x AA wiederum was bringen.

Demirug
2004-03-25, 14:55:55
Color-ROPs sind ja gar nicht so wichtig. Mehr Z/Stencil ROPs wären eine wesentlich sinnvollere Investition.

VooDoo7mx
2004-03-25, 14:56:16
Original geschrieben von Quasar
Sie haben die ArtX-Kuh gemolken bis zum geht-nicht-mehr. Und du kannst sicher sein, daß jede Firma das so gemacht hätte, die einen leistungsmäßigen Vorsprung hat (s. nV 2000-2002).
ArtX oder Team "West" hat die R3xx-Serie geschrumpft, optimiert und umgearbeitet. Design Team "East" (ATi) brütet über der XBox2 und den integrierten Chipsätzen.


Liest sich ganz lustig, stimmt aber so nicht ganz.
ArtX äh ich meinte natürlich ATi West hat das R300 Grunddesign entwickelt. ATi East hat parallel dazu den RV250 und später sämtliche Abkömmlinge wie des R300 + Mainbaordchipsätze gekümmert.
ArtX hat sich nach dem R300 an den R400 gewagt der aber dann verworfen wurde und kümmert sich nun um den R500 und dessen X-Box2 Abkömmling und vielleicht sogar noch um einen Chip für den Gamecube Nachfolger...

StefanV
2004-03-25, 14:56:29
Original geschrieben von Exxtreme
Hängt von der verfügbaren Bandbreite ab. :) Sollte diese bei 8x AA nicht ausreichen dann würde 6x AA wiederum was bringen.

Stimmt, ansonsten bringts nicht wirklich was :|

Nur, wenn man schon 4 ROPs verbaut, dann wird man wohl auch gleich 'nen 8x Modus dranhängen...

Gast
2004-03-25, 15:05:43
Original geschrieben von Mr. Lolman
Ja klar, und deswegen wollte Thomas sie auch gleich mitnehmen, während der Staubsuager wahrscheinlich erst mit dem nächsten Refresh interessant wird...

Andererseits: Warum sollte ATi grossartig was machen, wenns NV immernoch nicht gebacken bekommt, sich trotz neuester Chips von OCten R300s (nichts anderes sind die R350, R360 imo) abzusetzen.

Ich liebe Penetrante Fanatiker, aber mach dich nicht lächerlich ...

Woher willst du wissen ob der NV40 eine Staubsaugerkühlung druff hat ?

Wie OW schon anmerkt, sollte Ati wirklich nur einen Refresh ihres R3xx serie produziert haben und nur kleine verbesserungen bringen, SCHANDE ÜBER ATI !

Demirug sagte mal in einem Tread, genau diese Einstellung von ATI könnte ihre Gunst bei den Entwicklern kosten und diese vermehrt wieder auf Nvidia setzen werden.

AlfredENeumann
2004-03-25, 15:07:11
Original geschrieben von ow
Der R420 koennte die groesste Enttaeuschung werden seit es 3D Grafikchips gibt.


Für wen?
Diejenigen die einfach nur ne schnelle Karte haben wollen sollte es reichen.

deekey777
2004-03-25, 15:17:18
Original geschrieben von ow
Und das soll dann keine Enttaeuscheung sein? Was haben die bei ATi gemacht in den letzten 2 Jahren? Nix?
Der R420 koennte die groesste Enttaeuschung werden seit es 3D Grafikchips gibt.

Woher diese pissimistische Einstellung? Nur weil der R420 keine (Pixel-)Shader 3.0 unterstützt, sondern "nur" 2.x, bedeutet das doch keinen Weltuntergang! Es ist eine Tatsache, dass der NV40 die PS 2.0 Leistung der R3x0 Generation ein- und überholen wird. Wow, PS 3.0 - wer sagt aber, dass die NV 40 bei PS 3.0 Anwendungen nicht versagen wird, wie es bei der NV3x-Generation mit FP32 der Fall war?

Gast
2004-03-25, 15:20:42
Ahso ... was vergessen ...

Ist schon sehr amüsant das Benehmen der MODS ! Nvidia anhänger werden verwarnt und gebannt, aber Penetrante Fanatiker dürfen weiter posten. Die Postings werden nicht einmal Editiert.

Der beitrag von Lolman war eindeutig ein Geflamme ... aber hay ... wie wärs wenn ihr den Forum in 3DCenter - Fanatiker - Unite !

deekey777
2004-03-25, 15:30:09
Original geschrieben von ow
Nun, was erwartest du denn fuer Innovationen von R420??

Die 0.13 low-k Fertigung ist schon interessant -> siehe 9600XT, das Ding läuft mit 500 MHz, der Kühler wird kaum warm.

aths
2004-03-25, 15:38:01
Original geschrieben von ShadowXX
Besseres AF, wäre das wichtigste...beim AA würde es mir reichen, wenn Sie es "schneller" machen würden...

(das würden doch die mehr ROPs ala Quasar bewirken, oder??) Nein. Oder anders gesagt, nur bei bilinearem Singletexturing. Bei nur zwei trilinear gefilterten Texturen ist mehr als genug an ROP-Logik für 6x MSAA da.

Gast
2004-03-25, 15:38:20
Original geschrieben von deekey777
Woher diese pissimistische Einstellung? Nur weil der R420 keine (Pixel-)Shader 3.0 unterstützt, sondern "nur" 2.x, bedeutet das doch keinen Weltuntergang! Es ist eine Tatsache, dass der NV40 die PS 2.0 Leistung der R3x0 Generation ein- und überholen wird. Wow, PS 3.0 - wer sagt aber, dass die NV 40 bei PS 3.0 Anwendungen nicht versagen wird, wie es bei der NV3x-Generation mit FP32 der Fall war?

Wenn du aber davon ausgehst, dass die PixelShader-Leistung des NV40 gleich oder besser des R420 ist, ist es doch irrelevant, ob PS3 Anwendungen mäßige Leistung bringen. (Mal davon abgesehen, dass dies noch lange kein Faktum darstellt!) Der R420 kann (wahrschewinlich - noch ist ja nichts offiziell) keine PS3 only Effekte darstellen, also ist es weniger von Bedeutung ob der NV40 hier schnell ist oder nicht.

Allerdings kann der NV40 (wahrscheinlich) PS2-Effekte durch PS3 beschleunigen. Demirug hat dies ja schon mehrmals erläutert.

Bei deiner Grundannahme der gleich schnellen bzw. schnelleren Pixelshader des NV40 (gegenüber R420) hätte Nvidia den ursprünglichen Nachteil der schlechten Pixelshader-Leistung (des NV3x) in einen gewichtigen Vorteil umgewandelt.
Dann wäre ein Respekt aber wahrlich fällig!

[dzp]Viper
2004-03-25, 15:39:06
Original geschrieben von deekey777
Die 0.13 low-k Fertigung ist schon interessant -> siehe 9600XT, das Ding läuft mit 500 MHz, der Kühler wird kaum warm.

und sogut wie immer auf 600 mhz @ GPU übertaktbar...

aths
2004-03-25, 15:40:08
Original geschrieben von Gast
Ist schon sehr amüsant das Benehmen der MODS ! Nvidia anhänger werden verwarnt und gebannt, Wer denn z. B.?
Original geschrieben von Gast
Der beitrag von Lolman war eindeutig ein Geflamme ... aber hay ... wie wärs wenn ihr den Forum in 3DCenter - Fanatiker - Unite ! Manchmal höre ich das genaue Gegenteil – während Nvidioten rumtrollen dürften, bekämen ATI-Fanboys Maulkörbe …

aths
2004-03-25, 15:43:43
Original geschrieben von ow
Der R420 koennte die groesste Enttaeuschung werden seit es 3D Grafikchips gibt. Ob er den NV30 diesbezüglich toppen kann?
Original geschrieben von ow
Und das soll dann keine Enttaeuscheung sein? Was haben die bei ATi gemacht in den letzten 2 Jahren? Nix? Vermutlich entwickelt ATI schon länger am R500, vielleicht sogar schon am R600. Natürlich würde es auch mich freuen, mal ein paar Ergebnisse als kaufbare HW im Laden zu sehen.

Ansonsten hat ATI in der Vergangenheit mit der 9700 und 9800 die Herzen der Highend-Freaks wie im Sturm erobert, und sich mit der 9600 eine treue Gemeinde gesichert. Nvidia konnte streckenweise über Monate den Kanadiern nichts nur annähernd vergleichbares (zum vergleichbaren Preis) entgegensetzen, erst seit der niedrig getakteten 5900-er spielen sie wieder auf gleicher Augenhöhe mit – jedenfalls im Midrange-Segment.

deekey777
2004-03-25, 15:44:55
Original geschrieben von Gast
Wenn du aber davon ausgehst, dass die PixelShader-Leistung des NV40 gleich oder besser des R420 ist, ist es doch irrelevant, ob PS3 Anwendungen mäßige Leistung bringen.
...
Dann wäre ein Respekt aber wahrlich fällig!

Ich gehe davon aus, dass der kommende NV40 Chip die PS 2.0 Leistung der R3x0 ein- und überholen wird. Da steht nichts von der R420 Generation...

aths
2004-03-25, 15:46:54
Original geschrieben von Exxtreme
Besseres Antialiasing, besseren anisotropen Filter etc. Für mich sind Features, die ich JETZT nutzen kann viel wichtiger als Features, die in der Zukunft oder womöglich niemals genutzt werden. :) Exxtreme, das halte ich für zu eng gedacht.

Du als Kunde mit diesem Standpunkt – das ist vollkommen richtig, ja. Aber denken wir mal über uns als "Jetzt-Nutzer" hinaus. Wann, meinst du denn, werden Shader 3.0-Spiele entwickelt? Von XGI (und PowerVR) weiß man praktisch sicher, dass sie 3.0 eben nicht "auslassen" wollen.

3.0 ist näher an 4.0 als 2.0.

Auf welchen Karten werden wohl die neuen Engines entwickelt? Ist dieser Trend gut für ATI?

Demirug
2004-03-25, 15:47:10
Original geschrieben von aths
Ansonsten hat ATI in der Vergangenheit mit der 9700 und 9800 die Herzen der Highend-Freaks wie im Sturm erobert, und sich mit der 9600 eine treue Gemeinde gesichert. Nvidia konnte streckenweise über Monate den Kanadiern nichts nur annähernd vergleichbares (zum vergleichbaren Preis) entgegensetzen, erst seit der niedrig getakteten 5900-er spielen sie wieder auf gleicher Augenhöhe mit – jedenfalls im Midrange-Segment.

Das zeigt aber auch wie schnell die Highend-Freaks das Lager wechseln.

[dzp]Viper
2004-03-25, 15:48:37
Original geschrieben von Demirug
Das zeigt aber auch wie schnell die Highend-Freaks das Lager wechseln.

klar - solange das gesamtpacket stimmt ist das doch auch in ordnung oder?

aths
2004-03-25, 15:49:59
Original geschrieben von [dzp]Viper
klar - solange das gesamtpacket stimmt ist das doch auch in ordnung oder? Das Paket. (ohne c, bitte.)

Original geschrieben von deekey777
Ich gehe davon aus, dass der kommende NV40 Chip die PS 2.0 Leistung der R3x0 ein- und überholen wird. Da steht nichts von der R420 Generation... Davon kannst du sowas von ausgehen … pro Takt erwarte ich mindestens doppelte Power gegenüber R3x0.

Einfacher Ansatz: Die R300-Pipes sind nicht so "fett" wie die NV35-Pipes. Sie enthalten praktisch nur das notwendigste, inkl. der berühmten Split-Möglichkeit. Nehmen wir an, dass Nvidia bei 16 Pipes im Chip die Pipes verglichen mit dem NV35 abspecken musste. Letztlich läuft es darauf hinaus, mindestens die R300-Rechenkraft pro Pipe zu haben. Da zum Entwicklungsbeginn vom NV40 einigermaßen klar gewesen sein dürfte, was R300 kann, hat Nvidia vielleicht noch anderweitig die Pipes verbessert (wie, sei mal dahin gestellt.) Sehr vereinfacht gesagt, ist für PS 2.0 der NV40 also mindestens ein 2x R300.

aths
2004-03-25, 15:54:59
Original geschrieben von AlfredENeumann
Für wen?
Diejenigen die einfach nur ne schnelle Karte haben wollen sollte es reichen. Was ist mit denjenigen, die nicht einfach nur mehr Speed wollen, sondern auch mehr Features, und besseres AF als ATI anbietet?

Ein NV30 kann prinzipiell (shadertechnisch) alle DX-Techdemos rendern, die für den R300-R360 da sind. Ein NV34 kann (rein shadertechnisch, von der Performance wollen wir mal nicht reden) Demos rendern, wo ein R420 wahrscheinlich nur die Meldung bringt, dass bestimmte Caps nicht unterstützt werden.

Ist das nicht irgendwie wenigstens ein bisschen peinlich für ATI, dass eine nicht mehr taufrische Value-Lösung eine größere Pixelshader-Featurepalette hat, als ATIs kommendes Highend-Flaggschiff?

ShadowXX
2004-03-25, 15:58:23
Original geschrieben von aths
Nein. Oder anders gesagt, nur bei bilinearem Singletexturing. Bei nur zwei trilinear gefilterten Texturen ist mehr als genug an ROP-Logik für 6x MSAA da.

Dann mal anders gefragt:
gäbe es überhaupt eine Möglichkeit die MSAA-Geschwindigkeit zu erhöhen???

So wie ich es jetzt verstanden habe, ist es zum grössten Teil ja wohl (abgesehen von den ROPs) ein Bandbreitenproblem...(also mehr Color-ROPs bringt nix, da zuwenig Bandbreite...kann man das Problem irgendwie lösen??)

J.S.Shadow

Gast
2004-03-25, 15:59:50
Original geschrieben von deekey777
Ich gehe davon aus, dass der kommende NV40 Chip die PS 2.0 Leistung der R3x0 ein- und überholen wird. Da steht nichts von der R420 Generation...

Dann entschuldige ich mich, hatte das glatt überlesen. Für mich stand dies gar nicht zur Debatte, weil wenn das nicht der Fall wäre der NV40 von einer zur nächsten Sekunde absolut uninteressant werden würde.

deekey777
2004-03-25, 16:00:55
@aths:

Das, was du von mir zitiert hast, bezieht sich auf ein Posting eines Gastes, der wiederum ein Posting von mir zitiert hat und dabei etwas verdreht hat. Es ist schon selbst einem Blinden klar, dass die NV40 die R3x0-Generation zum Frühstück frisst. Es ging mir eher darum, dass zuviele Leute den R420 als die Entäuschung des Jahres abstempeln - ohne dass es keinen einzigen Vergleich zu der Konkurrenz gibt.

aths
2004-03-25, 16:03:29
Original geschrieben von ShadowXX
Dann mal anders gefragt:
gäbe es überhaupt eine Möglichkeit die MSAA-Geschwindigkeit zu erhöhen??? Z- und Color-Compression verbessern, mehr cachen. Viel Aufwand für vergleichsweise geringe Steigerungen.
Original geschrieben von ShadowXX
So wie ich es jetzt verstanden habe, ist es zum grössten Teil ja wohl (abgesehen von den ROPs) ein Bandbreitenproblem...(also mehr Color-ROPs bringt nix, da zuwenig Bandbreite...kann man das Problem irgendwie lösen??)Wieso Bandbreite? Lasst mir doch mal die Bandbreite aus dem Spiel... Bandbreite ist ein Problem, wenn entweder nur extrem kurze Shader, oder nur wenige und dann noch nur sehr einfach gefilterte Texturen im Spiel sind. Bei höherwertigen Texturfiltern bzw. langen arithmetischen Shaderteilen dreht die GPU ohnehin etliche Takte, und greift dabei nicht (oder kaum) auf den Speicher zu. In dieser Zeit können ganz bequem die Cachelines der fertigen Quads geburstet werden.

Natürlich muss der Speicher-Controller auf solche Lastenverteilung vorbereitet sein. Davon gehe ich eigentlich aus.

aths
2004-03-25, 16:05:26
Original geschrieben von deekey777
Es ging mir eher darum, dass zuviele Leute den R420 als die Entäuschung des Jahres abstempeln - ohne dass es keinen einzigen Vergleich zu der Konkurrenz gibt. Es gibt Dinge, die man über Hörensagen mitbekommt. Für ATI hoffe ich, dass sie es schaffen, in fordernden Szenen ca. 2x die R360-Power (abgesehen von der XT, sagen wir dass wir mit der Pro vergleichen) zu liefern. Dazu ist sooo viel gar nicht notwendig: Bei 50% mehr Pipes noch 33% mehr Takt.

Exxtreme
2004-03-25, 16:05:49
Original geschrieben von aths
Exxtreme, das halte ich für zu eng gedacht.

Du als Kunde mit diesem Standpunkt – das ist vollkommen richtig, ja. Aber denke wir mal über uns als "Jetzt-Nutzer" hinaus. Wann, meinst du denn, werden Shader 3.0-Spiele entwickelt? Von XGI (und PowerVR) weiß man praktisch sicher, dass sie 3.0 eben nicht "auslassen" wollen.

Das Problem an der Sache ist, daß ich mit dem Kauf der Radeon 64 damals sehr viele Features mitgekauft habe, die man ausser in den ATi-Demos nirgends gesehen hat. Von daher sind mir Features, die man in Zukunft möglicherweise benutzen wird, nicht so wichtig aufgrund meiner Erfahrung.
Original geschrieben von aths
Auf welchen Karten werden wohl die neuen Engines entwickelt? Ist dieser Trend gut für ATI?
Für die Engines wird IIRC sowieso jetzt HLSL verwendet. Dieser Shadercode lässt sich einfach in PS2.x und PS3.0 Low-Level-Code compilieren. Und wie schon gesagt, PS3.0 bringt effektmässig praktisch keine Vorteile ggü. PS2.x.

Exxtreme
2004-03-25, 16:08:06
Original geschrieben von Demirug
Das zeigt aber auch wie schnell die Highend-Freaks das Lager wechseln.
Aber natürlich. :) Sollte der NV40 dem R420 weit überlegen sein, wechsle ich auch das Lager. :)

aths
2004-03-25, 16:21:20
Original geschrieben von Exxtreme
Das Problem an der Sache ist, daß ich mit dem Kauf der Radeon 64 damals sehr viele Features mitgekauft habe, die man ausser in den ATi-Demos nirgends gesehen hat. Von daher sind mir Features, die man in Zukunft möglicherweise benutzen wird, nicht so wichtig aufgrund meiner Erfahrung. Diese Erfahrung habe ich auch gemacht, obwohl ich mit der Ti 4600 quasi bewusst auf "bewährte" (nicht taufrische) Technik setzte: Von richtigen DX8-Games bis heute keine Spur, und wie ich inzwischen weiß, reicht weder die Power der Karte, noch die Rechengenauigkeit.

BTW, du meinst nicht die Radeon 256?

Original geschrieben von Exxtreme
Für die Engines wird IIRC sowieso jetzt HLSL verwendet. Dieser Shadercode lässt sich einfach in PS2.x und PS3.0 Low-Level-Code compilieren. Und wie schon gesagt, PS3.0 bringt effektmässig praktisch keine Vorteile ggü. PS2.x. Das sagst du so einfach in deinem jugendlichen Leichtsinn … bekanntlich kann man mit PS 3.0 die Effekte recht einfach "lodden", wodurch bei gleichem Grundspeed mehr Power für Zusatzeffekte übrig bleibt. Gerade wegen HSLS besteht eine gute Chance, dass Shader 3.0 einigermaßen schnell genutzt wird.

Letztlich kauft man mit der ersten 3.0-Generation eine sehr schnelle 2.0 (bzw. 2.X-) Generation, das ist schon klar. GF256-Käufer sahen kaum was von T&L, GF3-User kaum was von Shadern... für Shader 3.0-Spiele einen NV40 kaufen zu wollen, wäre aus der Erfahrung her beurteilt, sehr vermessen.

ShadowXX
2004-03-25, 16:25:17
Original geschrieben von aths
Z- und Color-Compression verbessern, mehr cachen. Viel Aufwand für vergleichsweise geringe Steigerungen.
Wieso Bandbreite? Lasst mir doch mal die Bandbreite aus dem Spiel... Bandbreite ist ein Problem, wenn entweder nur extrem kurze Shader, oder nur wenige und dann noch nur sehr einfach gefilterte Texturen im Spiel sind. Bei höherwertigen Texturfiltern bzw. langen arithmetischen Shaderteilen dreht die GPU ohnehin etliche Takte, und greift dabei nicht (oder kaum) auf den Speicher zu. In dieser Zeit können ganz bequem die Cachelines der fertigen Quads geburstet werden.

Natürlich muss der Speicher-Controller auf solche Lastenverteilung vorbereitet sein. Davon gehe ich eigentlich aus.

Danke für die Ausführungen...wieder was gelernt...

Exxtreme
2004-03-25, 16:41:01
Original geschrieben von aths
BTW, du meinst nicht die Radeon 256?

Am Ende hieß die GraKa "Radeon 64". Radeon 256 war mal im Gespräch.
Original geschrieben von aths
Letztlich kauft man mit der ersten 3.0-Generation eine sehr schnelle 2.0 (bzw. 2.X-) Generation, das ist schon klar. GF256-Käufer sahen kaum was von T&L, GF3-User kaum was von Shadern... für Shader 3.0-Spiele einen NV40 kaufen zu wollen, wäre aus der Erfahrung her beurteilt, sehr vermessen.
Das mag schon sein. Nur bringen PS3.0-Shader IMHO zu wenig um diese jetzt zu pushen. T&L ggü. non-T&L war ein großer Fortschritt, Shader ggü. Nicht-Shader auch. Aber PS2.x vs. PS3.0 ist im Endeffekt nicht wirklich viel.

Aber wie gesagt, ich schaue mir beide Produkte erst einmal an bevor ich mich entscheide.

Gast
2004-03-25, 16:43:27
Original geschrieben von Gast
Ich liebe Penetrante Fanatiker, aber mach dich nicht lächerlich ...

Woher willst du wissen ob der NV40 eine Staubsaugerkühlung druff hat ?

Wie OW schon anmerkt, sollte Ati wirklich nur einen Refresh ihres R3xx serie produziert haben und nur kleine verbesserungen bringen, SCHANDE ÜBER ATI !

Demirug sagte mal in einem Tread, genau diese Einstellung von ATI könnte ihre Gunst bei den Entwicklern kosten und diese vermehrt wieder auf Nvidia setzen werden.


LOL, die Gunst der Entwickler. Demi (oder sein Entwickler -Studio) hatte sich auch eine NV30 geholt,... von wegen Gunst. Die hatte ATi nie, und 3dfx auch nur ganz am Anfang.

Und lächerlich würde ich mich machen, wenn ich tatsächlich keinen Grund hätte sowas zu schreiben. Nur hat Thomas B. anscheinend schon beide Karten gesehen und meinte wortwörtlich:

Original geschrieben von Thomas_B
Im Betrieb war der rote Ferrari sehr leise, was sicherlich auf Autobahnen zur Verwirrungen bei anderen Verkehrsteilnehmern, vorzugsweise Jaguar-Fahrer ;-)führen könnte, aber Jaguar-Fahrer haben ja sowieso keine Probleme mit Lautstärke!


Ok das muss nichts heissen, ausser dass Ati sehr leise war.... ist halt Auslegungssache ;)

BodyLove
2004-03-25, 16:43:35
Insofern kann man sagen, dass man als einzelner die Aussage treffen kann, dass man lieber auf Leistung, als auf Features setzt. Aber gesamtgesellschaftlich gesehen,sollte man sich für die Features entscheiden.;)

Und da sind wir wieder beim OEM-Markt. Nirgendwo wird Features gefragt als dort. Sogar die Leistung steht dort eher im Zweiten Rang. Bsp. Fx5200. Also hat der OEM-Markt doch was Gutes.;)

Wie dem Auch sei, ich hole mir das, was schnell ist. Möge mir Aths verzeihen, ich persönlich finde mehr Leistung wichtiger, als mehr features. Für mich ist das was jetzt geboten wird wichtiger, als das was in zukunft geboten wird. Genauso gut kaufe ich mir jetzt keinen AMD64, nur weil es 64bit unterstützt. Im Retailmarkt läuft nichts ohne Leistung. Einmal in Verruf gekommen, kann man sich nicht mehr so leicht absetzen. Siehe fx5800U und fx5900U. Obwohl beide gute Karten waren, und man bei der fx5900U sogar fehler, die bei der fx5800U entstanden sind, ausgemerzt hat, konnte es oberflächig die Mehrzahl der Käufer nicht für sich gewinnen.


Jetzt werden die Karten vollkommen neu gemischt...

Ps. Ich weiss nicht, ob man davon ableiten kann, dass Ati vom R420 nichts preisgibt, dass diese schlecht ist. Mögllicherweise ist sie das. Möglicherweise aber auch nicht. Beim Release des NV30 war es doch genauso. Zuerst verglich man die Leistung mit den TIs, und dann mit den neuen Radeons. Zeigte einige Benchmarks, wo der Nv30 gut aussah. Aber Summa Summarum waren die Hoffnungen dahin. Der Radeonspross blieb weitesgehend vorne. Ich wil damit sagen, dass auch nichts Sagen, nicht Schaden kann.

robbitop
2004-03-25, 16:44:21
@Exxtreme
das will ich sehen ;D

@voodoo7mx und andere

laut einer Aussage von ATi kann man nicht mehr nacht ArtX und ATi unterscheiden. Die Teams wurden wirklich vermengt, so dass East und West beide eine Durchmengung sind.
Somit kann "ArtX" erstmal gar nix mehr entwickelt haben.
Ist eben Manpower und etwas Know How was dazu kommt, vA für die RadeonIGP Serie war ArtX mit ausgeprägtem Know How wichtig. Dave Orton war wichtig, er hat die Zielstellung des Unternehmens geändert.
Und das R300 Grunddesign wurde schon laaange vorher entwickelt. Das Grunddesign ist der R200. So war es schon lang geplant. Die Pipeline, das Trisetup, die MS Sampler. Alles war schon vorher da. R300 ist im Prinzip eine extreme Erweiterung und ein Debug vom R200 mit auf FP Einheiten.

@Quasar
zu deinen Ausführungen: und wer entwickelt R500 wenn beide Teams beschäftigt waren? NV50 und R500 sind angeblich seit Jahren in Entwicklung. Laut Demi könnte man hier das erste mal von einer Neuentwicklung sprechen

ich stelle mir vor, dass das mit der Teamaufteilung nicht so simpel ist, wie es immer dargestellt worden ist.
Man braucht permanent Chipsätze, Neue Chips Refreshes davon jeweils Ableger..Treiber braucht man ja auch noch ..

Ich könnte mir allerdings vorstellen dass das R500 Team zum Ende der Entwicklung Ableger für XBOX2 und Nintendo6 entwickelt/umbaut...

ich weiss es nicht...nur mal ein kleines Gedankenspiel eben..

Demirug
2004-03-25, 16:52:18
nVidia hat schon angefangen Shadermodel 3.0 zu pushen. Sie sind wieder mal an der Stelle angekommen wo wir mit T&L schonmal waren. nVidia sieht in Shadermodel 3.0 primär eine Entlastung der CPU weil man damit z.B. Physikberechnungen (Wind, Wellen, ...) die vorher die CPU übernehmen musste jetzt der Grafikkarte überlässt. Bei der zunehmenden CPU Lastigkeit von Spielen sicher keine schlechte Idee.

Exxtreme
2004-03-25, 16:53:13
Original geschrieben von robbitop
@Exxtreme
das will ich sehen ;D

Also wenn das P/L-Verhältnis stimmt und die Features mich überzeugen wenn ich mir eine GraKa kaufen will dann kaufe ich mir eine NV-GraKa. Bisher hat es Nvidia halt nicht geschafft so ein Angebot auf die Beine zu stellen.

Demirug
2004-03-25, 16:59:58
Original geschrieben von Gast
LOL, die Gunst der Entwickler. Demi (oder sein Entwickler -Studio) hatte sich auch eine NV30 geholt,... von wegen Gunst. Die hatte ATi nie, und 3dfx auch nur ganz am Anfang.

Es gab keinen Zwang schnell eine DX9 Karte zu haben weil nicht noch auf die schnelle ein paar DX9 Effekte in ein Produkt eingepflegt werden mussten. Jeder der dies aber tun musste kam an ATI nicht vorbei.

Wobei man natürlich hier auch bemerken muss das die letzte Dev-Newsletter eine bestimmte Message vermittelt. Die eine hälfte ist GDC und in der anderen erzählen sie wie wunderbar es doch ist mit ATI Hardware zu entwickeln.

betasilie
2004-03-25, 17:11:43
Original geschrieben von VooDoo7mx
Liest sich ganz lustig, stimmt aber so nicht ganz.
ArtX äh ich meinte natürlich ATi West hat das R300 Grunddesign entwickelt. ATi East hat parallel dazu den RV250 und später sämtliche Abkömmlinge wie des R300 + Mainbaordchipsätze gekümmert.
ArtX hat sich nach dem R300 an den R400 gewagt der aber dann verworfen wurde und kümmert sich nun um den R500 und dessen X-Box2 Abkömmling und vielleicht sogar noch um einen Chip für den Gamecube Nachfolger...
Sag mal, hast Du immer noch nicht mitbekommen, dass die ArtX Leute auf beide Teams verteilt wurden? :kratz:

ow
2004-03-25, 17:37:42
.

ow
2004-03-25, 17:42:17
.

ow
2004-03-25, 17:49:23
.

[dzp]Viper
2004-03-25, 17:54:30
Original geschrieben von ow
Auch da stimme ich zu, aber ATi läuft jetzt Gefahr all das wieder zu verspielen. Und dafür will mir beim besten Willen kein Grund einfallen.

ATI hat sich unter den Gamern einen Namen gemacht - und gerade den Gamern liegt geschwindigkeit mehr am herzen als irgendwelche features die erst in 1-2 Jahren richtig genutzt werden...

Was Du und andere Entwickler die gerne massig features zum testen haben wollen, ist 99% der gamer egal!
Deswegen werden sich die Gamer auch nur die Karten kaufen, die in REALEN SPIELEN am schnellsten sind.

Wenn wir jetzt mal annehmen, dass der r420 schneller als der NV40 ist und der NV40 aber mehr Features bietet die aber heutzutage noch garnicht genutzt werden - welche karte werden sich die gamer wohl kaufen? ;)

ow
2004-03-25, 17:57:42
.

LovesuckZ
2004-03-25, 17:59:17
/edit: 7. Seite übersehen :|

ow
2004-03-25, 18:03:54
.

ironMonkey
2004-03-25, 18:12:54
Original geschrieben von ow
Was meinst du welche Features kommende Spiele nutzen werden, wenn praktisch ausschliesslich auf NV Hardware entwickelt wird? Und was meinst du auf welchen Chips diese Spiele garantiert gut laufen werden?


Gegenfrage, wie sieht es den derzeit mit Spielen aus??????Ankündigen kann man viel machen wenn der Tag lang ist.



Gruß

PS: Ohne genügen Power nützen einem die besten Effekte nix.

Crushinator
2004-03-25, 18:14:42
Original geschrieben von ow
(...) PS3.0 bringt Vorteile ggü. 2.0, weil damit machen Effekte erst in Realtime möglich werden. Wurde schon des öfteren hier im Forum dargelegt. Sorry, aber ich wäre mir nicht sicher ob "manche Effekte in einem Pass rendern" auch hieße, daß Mehrpass zwangsläufig keine "Realtime Effekte" liefern würde.

[dzp]Viper
2004-03-25, 18:16:05
Original geschrieben von ow
Was meinst du welche Features kommende Spiele nutzen werden, wenn praktisch ausschliesslich auf NV Hardware entwickelt wird? Und was meinst du auf welchen Chips diese Spiele garantiert gut laufen werden?

das "problem" ist aber, dass sich die meisten Gamer ihre Karte für JETZT oder naher (3-4 monate) Zukunft kaufen

Nicht für spiele die in einem bis zwei Jahren erscheinen den bis dahin gibts eh schon eine neue generation die genau diese features besser kann...

Wenn sich schnelligkeit + features vereinen, DANN ist das natürlich perfekt :)

Features sind nicht alles ow

LovesuckZ
2004-03-25, 18:18:12
Original geschrieben von ironMonkey
Gegenfrage, wie sieht es den derzeit mit Spielen aus??????Ankündigen kann man viel machen wenn der Tag lang ist.


Stalker soll wohl als eines der ersten Spiele Unterstuetzung für PS/VS3.0 haben. Das HL2 koennte dies ebenfalls.

Demirug
2004-03-25, 18:21:10
Original geschrieben von crushinator
Sorry, aber ich wäre mir nicht sicher ob "manche Effekte in einem Pass rendern" auch hieße, daß Mehrpass zwangsläufig keine "Realtime Effekte" liefern würde.

Ich glaube nicht das ow hier Multipass meint.

Einfache Beispiel: Shadowmapping und Lichtberechnung in einem Pass. Sagen wir mal das für den Schatten 4 Takte benötigt werden und für das Licht 8. Eine 2.0/2.A/2.B Lösung wird nun pro Pixel 12 Takte brauchen. Eine 3.0 Lösung springt nach 4 Takten zum nächsten Pixel wenn sie feststellt das der Pixel im Schatten liegt. Habe ich nun 50% Schatten dann braucht die 3.0 Lösung im durchschnitt 8 Takte pro Pixel. die 2.? Lösungen brauchen immer 12 Takte. 4 Takte eingespart die man für etwas anderes nutzen kann.

Gast
2004-03-25, 18:22:47
Original geschrieben von VooDoo7mx
Liest sich ganz lustig, stimmt aber so nicht ganz.
ArtX äh ich meinte natürlich ATi West hat das R300 Grunddesign entwickelt. ATi East hat parallel dazu den RV250 und später sämtliche Abkömmlinge wie des R300 + Mainbaordchipsätze gekümmert.
ArtX hat sich nach dem R300 an den R400 gewagt der aber dann verworfen wurde und kümmert sich nun um den R500 und dessen X-Box2 Abkömmling und vielleicht sogar noch um einen Chip für den Gamecube Nachfolger...

Dann hat Chris Hook, der wohl ein ziemlich hohes Tier bei ATi ist, mich beim Termin auf der CeBit wohl absichtlich angelogen... :|

;Q

Gast
2004-03-25, 18:24:28
Original geschrieben von aths
Ob er den NV30 diesbezüglich toppen kann?


Ich bin zumindest nicht enttäuscht.

;Q

Crushinator
2004-03-25, 18:28:45
@Demi

Selbst wenn dem genau so wäre, würde es ja bedeuten, daß man den Nachteil der 2.x Architekturen in diesem speziellen Fall durch mehr Parallelität und/oder mehr Takt ausgleichen könnte, oder verstehe ich das falsch? ;)

Gast
2004-03-25, 18:29:19
Original geschrieben von aths
Das sagst du so einfach in deinem jugendlichen Leichtsinn … bekanntlich kann man mit PS 3.0 die Effekte recht einfach "lodden", wodurch bei gleichem Grundspeed mehr Power für Zusatzeffekte übrig bleibt. Gerade wegen HSLS besteht eine gute Chance, dass Shader 3.0 einigermaßen schnell genutzt wird.

Wobei 3DCenter dann wieder in erste Linie mitmarschiert, wenn es "Cheats" aufzudecken gilt, die durch LOD entstehen, was PS2.x-Chips nicht können, oder?

8fach-Zoom auf ein Pixel-Quad im Background eines 3DMark-Quality-Shot ahoi. ;)

;Q

Gast
2004-03-25, 18:31:51
Original geschrieben von betareverse
Sag mal, hast Du immer noch nicht mitbekommen, dass die ArtX Leute auf beide Teams verteilt wurden? :kratz:

Auch dir nochmal:
Sogar auf zwei Nachfragen hin hat Chris Hook bestätigt, daß das ArtX-Team, Design Team "West", zum großen Teil unverändert blieb.

;Q

Demirug
2004-03-25, 18:32:39
Original geschrieben von crushinator
@Demi

Selbst wenn dem genau so wäre, würde es ja bedeuten, daß man den Nachteil der 2.x Architekturen in diesem speziellen Fall durch mehr Parallelität und/oder mehr Takt ausgleichen könnte, oder verstehe ich das falsch? ;)

Ja, in diesem Fall natürlich. Bei diesem Beispiel bräuchte der 2.X Chip eine um 50% höhere Shadergrundleistung um mit einem 3.0 Chip mitzuhalten.

Gast
2004-03-25, 18:33:25
Original geschrieben von [dzp]Viper
ATI hat sich unter den Gamern einen Namen gemacht - und gerade den Gamern liegt geschwindigkeit mehr am herzen als irgendwelche features die erst in 1-2 Jahren richtig genutzt werden...

Hat man gut am Untergang von 3dfx gesehen, wie sehr Gamer auf die 60fps-Kampagne abgefahren sind.

;Q

r@e
2004-03-25, 18:45:54
Original geschrieben von robbitop
laut einer Aussage von ATi kann man nicht mehr nacht ArtX und ATi unterscheiden. Die Teams wurden wirklich vermengt, so dass East und West beide eine Durchmengung sind. Somit kann "ArtX" erstmal gar nix mehr entwickelt haben.Immer, wenn diese Aussage kommt, dann kommt das hier von mir:
(bzw. höchstpersönlich von ATI ;-)
The RADEON 9700 is the first architecture developed by ATI's west coast development team, which includes the former ArtX team, known for developing the graphics for the NINTENDO GAMECUBE™.Quelle: http://www.ati.com/companyinfo/press/2002/4512.html

So wäre ich doch sehr an dieser "Aussage von ATI" interessiert, von der Du da gesprochen hast...
;-)

Razor

Crushinator
2004-03-25, 18:46:48
Original geschrieben von Demirug
Ja, in diesem Fall natürlich. Bei diesem Beispiel bräuchte der 2.X Chip eine um 50% höhere Shadergrundleistung um mit einem 3.0 Chip mitzuhalten. Dann bin ich ja beruhigt. :D

r@e
2004-03-25, 18:47:51
Original geschrieben von Exxtreme
Also wenn das P/L-Verhältnis stimmt und die Features mich überzeugen wenn ich mir eine GraKa kaufen will dann kaufe ich mir eine NV-GraKa. Bisher hat es Nvidia halt nicht geschafft so ein Angebot auf die Beine zu stellen. Oh doch !
... das haben sie sogar schon oft...
(wenn auch nicht unebdingt mit dem MV30 ;-)

Razor

r@e
2004-03-25, 18:49:29
Original geschrieben von betareverse
Sag mal, hast Du immer noch nicht mitbekommen, dass die ArtX Leute auf beide Teams verteilt wurden? :kratz: Steht wo ?
:???:

Razor

Demirug
2004-03-25, 18:59:27
Original geschrieben von crushinator
Dann bin ich ja beruhigt. :D

Es gibt eben immer zwei Wege ein Problem zu lösen. Den Eleganten und den mit der reinen Gewalt. Problematisch wird es eben nur wenn die Entwickler anfangen Teilberechnungen von der CPU auf die GPU zu verlagern. CPUs werden leicher nicht mit der gleichen Steigerung schneller wie GPUs.

robbitop
2004-03-25, 19:19:15
naja solche PR Aussagen kann ich nicht ernst nehmen razor.

Ich weiss leider nicht wo ich das gelesen habe...


Jedenfalls weisst auch keiner der PR Leute darauf hin, dass R300 "nur" ein extrem aufgebohrter R300 ist.

Crushinator
2004-03-25, 19:23:19
Original geschrieben von Demirug
Es gibt eben immer zwei Wege ein Problem zu lösen. Den Eleganten und den mit der reinen Gewalt. Nur scheinen sich die Geister daran zu scheiden, was man als elegant bezeichnen kann. Ist das Erreichen des selben Ziels mit weniger aufwendigen Schaltungen und den sich hoffentlich daraus ergebenden (u.A. wirtschaftlichen) Vorteile in der Fertigung elegant oder nicht?

r@e
2004-03-25, 19:23:59
Original geschrieben von robbitop
naja solche PR Aussagen kann ich nicht ernst nehmen razor.

Ich weiss leider nicht wo ich das gelesen habe...Hmmm...
Du nimmst die offizielle Presse-Mitteilung nicht ernst, aber eine nicht referenzierte Aussage (vom gleichen IHV !) aber schon ? Ist nicht Dein ernst, oder ?

Warum sollte ATI sich hier selbst belügen ?
:???:
Original geschrieben von robbitop
Jedenfalls weisst auch keiner der PR Leute darauf hin, dass R300 "nur" ein extrem aufgebohrter R300 ist. Den Satz habe ich nun leider gar nicht verstanden...

Razor

Demirug
2004-03-25, 19:27:04
Original geschrieben von crushinator
Nur scheinen sich die Geister daran zu scheiden, was man als elegant bezeichnen kann. Ist das Erreichen des selben Ziels mit weniger aufwendigen Schaltungen und den sich hoffentlich daraus ergebenden (u.A. wirtschaftlichen) Vorteile in der Fertigung elegant oder nicht?

Elegant ist es wenn man das Ziel mit den geringsten Einsatz erreicht. Das dumme ist nur die Frage was man als Masstab nehmen soll. Vielleicht Watt pro Pixel? Oder Cent pro Pixel?

r@e
2004-03-25, 19:29:40
Original geschrieben von crushinator
Nur scheinen sich die Geister daran zu scheiden, was man als elegant bezeichnen kann. Ist das Erreichen des selben Ziels mit weniger aufwendigen Schaltungen und den sich hoffentlich daraus ergebenden (u.A. wirtschaftlichen) Vorteile in der Fertigung elegant oder nicht? Was willst Du damit sagen ?
Dass die Zielrichtung von NV3x und R3x0 die gleiche war ?

Vergiß bitte nicht, welches Spektrum diese Entwicklungsschiene von nVidia hier abgedeckt hat... Vom Ultra-Low-End bis zum Ultra-High-End war im Consumer-Markt alles dabei. Die 'Kleinste' wurde von den OEM's 'gekauft' und im professionellem Umfeld (zuletzt sogar beim Militär) wird diese Chip-Familie ebenfalls eingesetzt.

Eine eierlegende Wollmilchkuhsau, sozussagen.

Lediglich der erste 'High-Ender' hat - wenn auch nicht unbedigt zu hohen Verkaufszahlen - zumindest zur Belustigung der Öffentlichkeit beigetragen (wovon sich die Mitarbeiter nVidia's nicht ausgenommen haben ;-).

Razor

betasilie
2004-03-25, 19:36:37
Original geschrieben von Gast
Auch dir nochmal:
Sogar auf zwei Nachfragen hin hat Chris Hook bestätigt, daß das ArtX-Team, Design Team "West", zum großen Teil unverändert blieb.

;Q
Original geschrieben von r@e
Steht wo ?
:???:

Razor
Afair wurde das mehrmals in Interviews so dargestellt. Wundert mich doch sehr, dass das nun nicht mehr so sein soll.

robbitop
2004-03-25, 19:36:39
naja sie sagen Team XXX hat die 9700 entwickelt.
Letztendlich hat Team XXX dieses Projekt nicht wirklich entwickelt. R200 war die Basis und ich glaube kaum dass man ohne ein paar ATi Ingenieure ein solches Design so gut aufbrezeln kann.

Beim R300 hat man sich selbst übertroffen, das lag daran dass man sich nicht mehr so sehr um das Grunddesign kümmern musste.

betasilie
2004-03-25, 19:40:50
Original geschrieben von ow
Was meinst du welche Features kommende Spiele nutzen werden, wenn praktisch ausschliesslich auf NV Hardware entwickelt wird? Und was meinst du auf welchen Chips diese Spiele garantiert gut laufen werden?
Das wurde beim NV30 auch behauptet, weil er ja CineFX hat und die Entwickler das unterstützen würden. Es ist aber genau anders gekommen.

Der NV40 wird die Gamer nur mit Rohleistung überzeugen können. Features in Form von PS3.0 werden erstmal nicht ins Gewicht fallen, wenn der NV40 langsamer ist, als der R420, und wenn die ersten Games kommen, die echte PS3.0-Effekte nutzen, muss der NV40 erstmal zeigen, ob er dann mit einem R500 mithalten kann was die PS3.0-Performance angeht.

reunion
2004-03-25, 19:41:36
Original geschrieben von ow
Und das soll dann keine Enttaeuscheung sein? Was haben die bei ATi gemacht in den letzten 2 Jahren? Nix?


Keine Ahnung, aber aufjedenfall haben sie was gemacht, davon kannst du ausgehn, warte mal den R500 ab :naughty:




Der R420 koennte die groesste Enttaeuschung werden seit es 3D Grafikchips gibt.

Warum? Weil er kein PS3.0 unterstützt (oder bist du etwa schon genauer Informiert?)

Nur zur Info, der R3xx war dem nV3x technologisch auch weit unterlegen, trozdem hat dass dem R3xx sicher nicht geschadet, denn auch wenn dus nicht glaubst was letztendlich zählt ist immernoch der nackte Speed und nicht irgendwelches marketing!

Exxtreme
2004-03-25, 19:42:27
Original geschrieben von r@e
Oh doch !
... das haben sie sogar schon oft...
(wenn auch nicht unebdingt mit dem MV30 ;-)

Razor
Nein Razor. Zu dem Zeitpunkt (!) als ich eine neue GraKa brauchte, hatten die NV-Boards entweder qualitative Defizite oder waren hoffnungslos überteuert im Vergleich zu vergleichbaren Boards von ATi. Von daher fahre ich seit 3 Generationen ATi. Und sollte der NV40 tatsächlich 150 W schlucken und der R420 nicht, dann wird auch Generation 4 an ATi gehen.

reunion
2004-03-25, 19:45:18
Original geschrieben von ow
Ich betrachte technische Entwicklungen aus genau einer Sicht: dem technischen Fortschritt.

Und da sähe es bei ATi derzeit wohl extrem mager aus.
Pure Geschwindigkeit? Das ist was für pubertierende Kiddies zum Schwanzlängenvergleich. Nicht mein Ding.


Vielleicht nicht dein Ding, aber jeder N00b kauft sich die schnellere Karte, nicht die zukunftsichere...

reunion
2004-03-25, 19:47:02
Original geschrieben von ow
S.o. Ich sehe da den Vergleich nicht ganz. Die NV3xe sind ein erheblicher technischer Fortschritt ggü. den NV2x.
Der R420 könnte nicht viel anderes sein als ein R360 mit mehr Pipelines. See the difference?


Und war er deswegen erfolgreich?

Exxtreme
2004-03-25, 19:49:28
Original geschrieben von reunion
Vielleicht nicht dein Ding, aber jeder N00b kauft sich die schnellere Karte, nicht die zukunftsichere...
Richtig zukunftssichere Karten waren meist die mit viel Rohpower für damalige Zeiten, siehe GF3 und R300. Und selbst mit der ach so zukunftsunsicheren Voodoo5 konnte man noch lange Zeit ordentlich zocken.

aths
2004-03-25, 19:49:42
Original geschrieben von betareverse
Features in Form von PS3.0 werden erstmal nicht ins Gewicht fallen, wenn der NV40 langsamer ist, als der R420, und wenn die ersten Games kommen, die echte PS3.0-Effekte nutzen, muss der NV40 erstmal zeigen, ob er dann mit einem R500 mithalten kann was die PS3.0-Performance angeht. Hm? Gegen den R500 wird NV kaum den NV40 stellen. Features in Form von PS 3.0 werden auch ins Gewicht fallen, z. B. weil ein bestimmter Kreis von Enthusiasten uuunbedingt die NV-Techdemos auf dem eigenen PC gerendert sehen will.

reunion
2004-03-25, 19:50:53
Original geschrieben von LovesuckZ
Stalker soll wohl als eines der ersten Spiele Unterstuetzung für PS/VS3.0 haben. Das HL2 koennte dies ebenfalls.

Ich glaube das die 8 Mio $ von ATi für Value genug waren um HL2 ohne PS3.0-Support zu veröffentlichen :naughty:

aths
2004-03-25, 19:51:05
Original geschrieben von reunion
Nur zur Info, der R3xx war dem nV3x technologisch auch weit unterlegen, trozdem hat dass dem R3xx sicher nicht geschadet, denn auch wenn dus nicht glaubst was letztendlich zählt ist immernoch der nackte Speed und nicht irgendwelches marketing! Nö. Zählte nur der nackte Speed, wäre FSAA und AF bedeutungslos. Ebenso Feautures wie Pixelshader :) (Wozu aufwendige Shader-Effekte, wenn Multi- oder gar Singletexturing viel schneller ist?)

r@e
2004-03-25, 19:52:56
Original geschrieben von robbitop
Beim R300 hat man sich selbst übertroffen, das lag daran dass man sich nicht mehr so sehr um das Grunddesign kümmern musste. :???:

Razor

reunion
2004-03-25, 19:54:26
Original geschrieben von aths
Nö. Zählte nur der nackte Speed, wäre FSAA und AF bedeutungslos. Ebenso Feautures wie Pixelshader :) (Wozu aufwendige Shader-Effekte, wenn Multi- oder gar Singletexturing viel schneller ist?)

Okay, vielleicht etwas unglücklich ausgedrückt =)
(Ich glaube aber trozdem das du verstehst was ich damit sagen wollte ;) )

robbitop
2004-03-25, 19:55:51
was verstehst du daran nicht Razor?
R300 basiert sehr stark auf R200.
Somit konnte man sich um andere Dinge kümmern zeitlich gesehen..

r@e
2004-03-25, 19:56:21
Original geschrieben von betareverse
Afair wurde das mehrmals in Interviews so dargestellt. Wundert mich doch sehr, dass das nun nicht mehr so sein soll. Hast Du Dir mal angeschaut, von wann diese Presse-Mitteilung ist ?
:???:"Thursday, July 18, 2002"Da wir ja nun schon wieder eine neue Seite haben:
http://www.ati.com/companyinfo/press/2002/4512.html

Razor

r@e
2004-03-25, 19:58:39
Original geschrieben von betareverse
Das wurde beim NV30 auch behauptet, weil er ja CineFX hat und die Entwickler das unterstützen würden. Es ist aber genau anders gekommen.Meinst Du nicht, dass dies u.U. an dem fast einem Jahr später erscheinenden NV30 lag ?
:???:

Irgendwie habe ich hier das Gefühl, dass es nicht nur der Kirche obliegt, Geschichte nachträglich zu verändern...

Razor

r@e
2004-03-25, 20:01:54
Zu früh... mist !
;-)
[UOTE]Original geschrieben von betareverse
Der NV40 wird die Gamer nur mit Rohleistung überzeugen können. Features in Form von PS3.0 werden erstmal nicht ins Gewicht fallen, wenn der NV40 langsamer ist, als der R420, und wenn die ersten Games kommen, die echte PS3.0-Effekte nutzen, muss der NV40 erstmal zeigen, ob er dann mit einem R500 mithalten kann was die PS3.0-Performance angeht. [/QUOTE]Spekualtiv gesehen, wurde der NV40 mit VS/PS3.0 bereits in Verbindung mit 'ner NextGen-Game-Engine (Unreal3) argwönisch beäugt... allerdings sprach man da nicht von einer Slideshow, sondern vielmerh von einer wahrhaftig athemberaubenden - fast schon photorealistisch anmutenden - Darstellung des Gezeigten.

Vielleicht such' ich Dir noch mal den Link heraus...
;-)

r@e
2004-03-25, 20:03:29
Original geschrieben von Exxtreme
Nein Razor. Zu dem Zeitpunkt (!) als ich eine neue GraKa brauchte, hatten die NV-Boards entweder qualitative Defizite oder waren hoffnungslos überteuert im Vergleich zu vergleichbaren Boards von ATi. Von daher fahre ich seit 3 Generationen ATi. Und sollte der NV40 tatsächlich 150 W schlucken und der R420 nicht, dann wird auch Generation 4 an ATi gehen. Seit 3 Genereationen "hatten die NV-Boards entweder qualitative Defizite oder waren hoffnungslos überteuert" ?
:???:

Ich bitte Dich !
Ein bischen mehr Realismus...

Razor

r@e
2004-03-25, 20:04:17
Original geschrieben von reunion
Vielleicht nicht dein Ding, aber jeder N00b kauft sich die schnellere Karte, nicht die zukunftsichere... Jeder "N00b" kauft 'nen Komplett-PC und keine Grafikkarte.

Razor

ow
2004-03-25, 20:05:09
.

ow
2004-03-25, 20:07:39
.

r@e
2004-03-25, 20:07:48
Original geschrieben von robbitop
was verstehst du daran nicht Razor?
R300 basiert sehr stark auf R200.
Somit konnte man sich um andere Dinge kümmern zeitlich gesehen.. Sagen wir: er verhielt sich in vielen Dingen ähnlich...
(das Rad wurde ja auch ziemlich sicher nicht neu erfunden ;-)

Das, eine flog raus (und wurde durch den ArtX-Kern erstezt), das andere blieb drin.
Was verstehst Du daran nicht, robbi ?

Razor

r@e
2004-03-25, 20:07:59
Original geschrieben von aths
Hm? Gegen den R500 wird NV kaum den NV40 stellen. Features in Form von PS 3.0 werden auch ins Gewicht fallen, z. B. weil ein bestimmter Kreis von Enthusiasten uuunbedingt die NV-Techdemos auf dem eigenen PC gerendert sehen will. Nicht nur die NV-Techdemos...
:D

Razor

ow
2004-03-25, 20:08:56
.

reunion
2004-03-25, 20:09:25
Original geschrieben von ow
Ich wusste doch die ganze Zeit, dass wir hier jede Menge N00bs haben. :naughty:

Zumindest mehr als du glaubst ;)

reunion
2004-03-25, 20:11:13
Original geschrieben von ow
Wer oder was? Die NV3xe?
Aber selbstverständlich sind die erfolgreich ansonsten würde NV wohl kaum Gewinne einfahren.

Ich meinte deswegen(also wegen der besseren Pixelshader).
So wie ich das sehe wohl kaum, da die meisten eben die schnellere karte kaufen, nicht die technologisch bessere...

aths
2004-03-25, 20:11:54
Original geschrieben von ow
Wer oder was? Die NV3xe?
Aber selbstverständlich sind die erfolgreich ansonsten würde NV wohl kaum Gewinne einfahren. Gewinne fuhr (und fährt) NV wohl vor allem mit dem NV34 ein. Für den Highend-Freak (der auf PS-2.0-Spiele schielt) hatten sie kaum was konkurrenzfähiges da.

aths
2004-03-25, 20:12:57
Original geschrieben von reunion
Ich meinte deswegen.
Meinermeinug wohl kaum, da die meisten eben die schnellere karte kaufen, nicht die technologisch bessere... Welche Karte ist schneller? 5900 oder 9600 XT? Hängt doch sehr vom Spiel ab. Wie soll man dann einfach die Karte kaufen, "die schneller ist"?

ow
2004-03-25, 20:13:39
.

reunion
2004-03-25, 20:15:58
Original geschrieben von aths
Welche Karte ist schneller? 5900 oder 9600 XT? Hängt doch sehr vom Spiel ab. Wie soll man dann einfach die Karte kaufen, "die schneller ist"?

Klar, wenn es ATi nicht gelingt schneller zu sein als NV hat man natürlich einen gewissen nachteil.

reunion
2004-03-25, 20:18:15
Original geschrieben von ow
Das habe ich auch garnicht behauptet.
Der FX5200 hilft aber eben der DX9 Bonus enorm.

Glaube ich nicht, eher da es eben keine Konkurrenz zur FX5200 gibt, da die R9200 einfach schon ziemlich veraltet ist(SSAA, bi-AF, auch meistens langsamer als FX5200,...)

LovesuckZ
2004-03-25, 20:20:02
Original geschrieben von aths
Ob er den NV30 diesbezüglich toppen kann?


Kann er gar nicht, da er über keine PS(/VS)3.0 verfügé, diese sich nichtt negativ auf den Speed auswirken koennen. Ausserdem unterstuetzt er nichtmal FP32, wodurch
das Argument mit der besseren Genauigkeit kaum angewendet werden kann. Ausserdem scheint es, dass das AA der beiden Next-Gen Karten gleich sei. Nun, habe er kein besseres AF und ist nicht deutlich schneller, dann ist es eine groeßere Enttaeuschung als der NV30, der ja für seinen schlechten PS2.0 Speed kritisiert (bitte die Ironie bemerken), die für die Zukunft so bedeuten waeren (Verfügbarkeit April'03). Nicht vergessen, dass immer so geaechtete AA, nunja, dagegen wurde das AF kaum gelobt...

VooDoo7mx
2004-03-25, 20:22:41
Original geschrieben von betareverse
Der NV40 wird die Gamer nur mit Rohleistung überzeugen können. Features in Form von PS3.0 werden erstmal nicht ins Gewicht fallen, wenn der NV40 langsamer ist, als der R420, und wenn die ersten Games kommen, die echte PS3.0-Effekte nutzen, muss der NV40 erstmal zeigen, ob er dann mit einem R500 mithalten kann was die PS3.0-Performance angeht.

Ich bin echt immer wieder beeindruckt das einige Lute eine Zeitmaschine zu besitzen scheinen.

Ich frag dich jetzt mal ganz offen betarverse: Nimmst du mich auch mal mit auf einen Tripp in die Zukunft? Ich würde auch gerne mal den NV40 in Aktion sehen so wie du ihn schon gesehen hat.
Wenn du auf meine Bitte eingehen möchtest, dann schrreib mir eine PN.

Selbst wenn es erstmal kein Game mit PS 3.0 geben wird können die 3.0 Shader z.B. 2.0 Shader beschleunigen.
Alleine schon von diesen Faktum her, kann man den Nutzen von PS 3.0 keinesfalls abstreiten.

Wieso sollte sich außerdem der R500 mit dem NV40 bezüglich Pixelshader 3.0 Performance messen müssen? Das sind 2 unetrschiedliche Generationen! :bonk:
Oder siehst du den GF4TI4600 auch als direkten Gegner vom 9800Pro?
Der R500 wird sich mit dem NV50 messen müssen und zu diesen Zeitpunkt geht es dann auch nicht mehr um PixelShader 3.0 sondern um Shader 4.0...

Und nochwas:
Selbst wenn das ehemalige ArtX Team verteilt wurde, was nicht passiert ist und auch mehrfach wiederlegt wurde, wäre der R300 niemals so gut ohne das knowhow von ArtX gewesen. ATi wäre ohne den Aufkauf vielleicht sogar den eher mittelmäßigen NV30 hinterhergedümpelt...
Soviel dazu...

robbitop
2004-03-25, 20:24:57
@razor
Demi meinte mal, dass man sehr vieles 1:1 übernommen hat und viel davon eben dupliziert hat.
Eben mehr als üblich ;)
ist aber eigentlich total OT =)

reunion
2004-03-25, 20:31:36
Original geschrieben von VooDoo7mx
[..]wäre der R300 niemals so gut ohne das knowhow von ArtX gewesen. ATi wäre ohne den Aufkauf vielleicht sogar den eher mittelmäßigen NV30 hinterhergedümpelt...
Soviel dazu...

Würde mich jetzt mal wirklich intressieren woher du dass zu wissen glaubst?
Kristallkugel?

Und was gefällt auch daran eigendlich nicht das ATi ArtX für immerhin 400Mio $ aufgekauft hat?
Ist ja wohl logisch das man die neuen technologien dann auch benützt, Ati hat ArtX aufgekauft und damit ist ArtX ATi!
Oder glaubst du dass nV die 3dfx technologie in den Mülleiner geschmissen hat?
Ich könnte jetzt auch einfach behaupten der nV40 wird nur so gut(sofern die Gerüchte überhaupt stimmen) weil das "3dfx-team" ihn entwickelt hat ;)

LovesuckZ
2004-03-25, 20:39:48
Was ich vergaß:
Sollte der r420 und seine Ableger über keine PS/VS3.0 verfügen, dann kann man diese Karten niemanden empfehlen, da sie nicht zukunftstauglich sind.

betasilie
2004-03-25, 20:44:07
Original geschrieben von ow
?
Was ist genau anders gekommen?
CineFX wird unterstützt wie man am Beispiel von FarCry sieht.
Alleine das hilft den NV3xen aber nicht, weil sie einfach etwas zu schwach in der Shaderleistung sind.
Es geht hier aber um die nächste Chipgeneration und da wird das wohl etwas anders aussehen.
Nunja, Du hast behauptet, dass der R420 der größte Flop der GPU-Geschichte wird und somit hast Du selbst in die Vergangenheit ausgeholt.

Es ist insofern anders gekommen, dass der NV30 imho der größte Flop der GPU-Geschichte war, in vielerlei Hinsicht, und der Markt hat das, trotz der völlig überzogenen Marketingaussagen seitens NV, bemerkt.

Wenn der NV40 auf dem Papier Shader3.0 unterstützt, aber langsamer ist als ein R420, wird das ähnlich ablaufen.

Original geschrieben von VooDoo7mx
Ich bin echt immer wieder beeindruckt das einige Lute eine Zeitmaschine zu besitzen scheinen.

Ich frag dich jetzt mal ganz offen betarverse: Nimmst du mich auch mal mit auf einen Tripp in die Zukunft? Ich würde auch gerne mal den NV40 in Aktion sehen so wie du ihn schon gesehen hat.
Wenn du auf meine Bitte eingehen möchtest, dann schrreib mir eine PN.

Selbst wenn es erstmal kein Game mit PS 3.0 geben wird können die 3.0 Shader z.B. 2.0 Shader beschleunigen.
Alleine schon von diesen Faktum her, kann man den Nutzen von PS 3.0 keinesfalls abstreiten.

Wieso sollte sich außerdem der R500 mit dem NV40 bezüglich Pixelshader 3.0 Performance messen müssen? Das sind 2 unetrschiedliche Generationen! :bonk:
Oder siehst du den GF4TI4600 auch als direkten Gegner vom 9800Pro?
Der R500 wird sich mit dem NV50 messen müssen und zu diesen Zeitpunkt geht es dann auch nicht mehr um PixelShader 3.0 sondern um Shader 4.0...

Und nochwas:
Selbst wenn das ehemalige ArtX Team verteilt wurde, was nicht passiert ist und auch mehrfach wiederlegt wurde, wäre der R300 niemals so gut ohne das knowhow von ArtX gewesen. ATi wäre ohne den Aufkauf vielleicht sogar den eher mittelmäßigen NV30 hinterhergedümpelt...
Soviel dazu...
Ich habe nie eine Aussage zur Performance des NV40 gemacht. Vielleicht wird er schneller als der R420, vielleicht auch langsamer. Kannst Du mir mal bitte zeigen, wo ich irgendeine Aussage mache über die Leistung eines NV40 gemacht habe? :gruebel:

... Ich sagte lediglich, dass die Features eines NV40 den allermeisten Kunden relativ egal sein werden, wenn der R420 schneller ist.

Und meine Aussage, dass sich der R500 mit dem Nv40 messen muss was die PS3.0-Performance in Spielen angeht, beruht darauf, dass vor dem Release des R500 wohl kaum ein Game mit PS3.0-only-Effekten erscheinen wird. Im Endeffekt muss sich der R500 natürlich mit dem NV50 messen und genau darauf wollte ich hinnaus; ich bezweifel, dass für die User die PS3.0-Funktionaltät des NV40 wirklich interessant sein wird, außer halt zum Beschleunigen von PS2.0-Effekten. ow behauptet aber, dass NV Vorteile aus der PS3.0 Funktionaltät ziehen wird und ich sage, dass ist quatsch, weil die allermeisten DX9-Spiele (2004/2005) lediglich 2.0Shader nutzen werden oder 3.0Shader zum beschleunigen.

Und da sind wir wieder bei meiner Aussage, dass das Rennen zwischen ATI und NV in der R420/NV40-Generation nicht über den Tech-Level entschieden wird, sondern über die Performance, die NV natürlich auch aus ihren PS3.0 Einheiten holen wird und auch soll.

Dass das know-How von ArtX maßgeblich am Erfolg des R3xx beteiligt war, will ich nicht bestreiten.

BodyLove
2004-03-25, 20:48:48
http://pcweb.mycom.co.jp/news/2003/10/09/28ml.jpg
http://pc.watch.impress.co.jp/docs/2003/1003/kaigai02.jpg
http://pc.watch.impress.co.jp/docs/2003/1003/kaigai03.jpg

Kann einer die Fotos bestätigen?

Quelle, *klick* (http://images.google.de/imgres?imgurl=pcweb.mycom.co.jp/news/2003/10/09/28ll.jpg&imgrefurl=http://pcweb.mycom.co.jp/news/2003/10/09/28.html&h=480&w=640&sz=37&tbnid=RZIJ6RYV024J:&tbnh=101&tbnw=134&prev=/images%3Fq%3Dnv40%26hl%3Dde%26lr%3D%26ie%3DUTF-8%26oe%3DUTF-8%26sa%3DG)

robbitop
2004-03-25, 20:49:06
ArtX wurde vA wegen des KnowHows über Chipsätze gekauft.

robbitop
2004-03-25, 20:50:04
ersterer ist irgendein Testchip, nichts kräftiges. Die beiden anderen sind NV36

Gast
2004-03-25, 20:50:33
dass die diskussionen oft dermassen downhill gehen könnn....

Exxtreme
2004-03-25, 20:50:35
Original geschrieben von LovesuckZ
Was ich vergaß:
Sollte der r420 und seine Ableger über keine PS/VS3.0 verfügen, dann kann man diese Karten niemanden empfehlen, da sie nicht zukunftstauglich sind.
War die Voodoo5 angeblich auch nicht. Fast überall wurde rumgetöhnt, daß man mit einer Karte ohne T&L "sehr bald" aufgeschmissen sein würde. Und trotzdem konnte man mit der V5 lange Zeit gut zocken. Daß man keine Benchmarkrekorde im 3DMark einfahren konnte ist natürlich klar. :)

Black-Scorpion
2004-03-25, 20:52:28
Original geschrieben von LovesuckZ
Was ich vergaß:
Sollte der r420 und seine Ableger über keine PS/VS3.0 verfügen, dann kann man diese Karten niemanden empfehlen, da sie nicht zukunftstauglich sind.
Dann empfehle ab sofort auch keine GF 5xxx mehr.
Denn diese sind es auch nicht.

betasilie
2004-03-25, 20:52:55
Original geschrieben von LovesuckZ
Was ich vergaß:
Sollte der r420 und seine Ableger über keine PS/VS3.0 verfügen, dann kann man diese Karten niemanden empfehlen, da sie nicht zukunftstauglich sind.
Nicht zukunfttauglich sind lediglich Karten, die eine miese Shader2.0-Performance bieten, daher sollte man wohl von allen aktuellen nVidia-FX-Karten die Finger lassen. ... Bei FarCry sieht man ja sehr schön was mit aktuellen NVidia-Karten passiert, wenn ein echtes Nextgen-Spiel angetrieben werden soll.

Und ob Karten auf NV40-Basis wirklich ausreichend Performance haben für zukünftige Spiele, die richtige PS3.0-Effekte nutzen werden, ist wohl sehr zweifelhaft. Die Shader3.0 eines NV40 werden fast auschließlich zur Lebzeiten der Karten zum Beschleunigen der 2.0Shader genutzt werden und nicht für Eyecandys, auch wenn NVs Marketingabteilung und Du das natürlich anders sehen werden.

BodyLove
2004-03-25, 20:55:09
Original geschrieben von robbitop
ersterer ist irgendein Testchip, nichts kräftiges. Die beiden anderen sind NV36
danke.

Demirug
2004-03-25, 20:56:31
Über die Speed zu streiten ist doch sinnloss weil es viel zu wenige Anhaltpunkt gibt.

Für den Spieler werden die zusätzlichen DX Feastures von NV40 und R420 erst mal keinen optischen Mehrgenuss bringen. Kurzfristig sind höchstens leichte bis mittlere Performancegewinne drin. Das hängt aber stark davon ab welche Effekte ein Spiel derzeit nutzt.

Wer sich aber nicht jeden neuen Chip kauft dürfte IMHO zur Lebenszeit schon noch erleben das ein Spiel von den Features gebrauch macht. Die für den Spieler IMHO wichtige Frage ist auch noch wie viele Refreshchips wir mit dieser Generation noch erleben werden? DX-Next kommt ja eher später als früher.

aths
2004-03-25, 21:03:27
Original geschrieben von ow
Das habe ich auch garnicht behauptet.
Der FX5200 hilft aber eben der DX9 Bonus enorm. Du hast vom NV30 gesprochen, und der tat NVs Image nicht gerade gut :)

aths
2004-03-25, 21:06:55
Original geschrieben von LovesuckZ
Was ich vergaß:
Sollte der r420 und seine Ableger über keine PS/VS3.0 verfügen, dann kann man diese Karten niemanden empfehlen, da sie nicht zukunftstauglich sind. Nah? Meinst du, dass man ca. 2006 unbedingt Pixelshader 3.0 braucht, um dann moderne Spiele spielen zu können? Ich meine das nicht. Wenn eine Karte vom Techlevel her ca. 2 Jahre ausreicht, ist sie "nicht zukunftstauglich" :???:

betasilie
2004-03-25, 21:08:10
Original geschrieben von Demirug
Wer sich aber nicht jeden neuen Chip kauft dürfte IMHO zur Lebenszeit schon noch erleben das ein Spiel von den Features gebrauch macht. Die für den Spieler IMHO wichtige Frage ist auch noch wie viele Refreshchips wir mit dieser Generation noch erleben werden? DX-Next kommt ja eher später als früher.
Es stellt sich aber nun die Frage, ob eine NV40-Karte mit PS3.0 wirklich in der Lage ist einen Toptitel, der in 18 Monaten erscheint, mit PS3.0-Effekten wirklich spielbar darzustellen.

aths
2004-03-25, 21:08:20
Original geschrieben von betareverse
Die Shader3.0 eines NV40 werden fast auschließlich zur Lebzeiten der Karten zum Beschleunigen der 2.0Shader genutzt werden und nicht für Eyecandys, auch wenn NVs Marketingabteilung und Du das natürlich anders sehen werden. Du schreibst "werden", als sei das Fakt. Woher hast du dieses Wissen?

BodyLove
2004-03-25, 21:11:53
So jetzt habe ich endlich das "blöde" Foto gefunden.

http://www.ixbt.com/short/2k4-03/1079923527-NV40_1.jpg

Tatsächlich, 2 Stromanschlüsse.

betasilie
2004-03-25, 21:14:10
Original geschrieben von aths
Du schreibst "werden", als sei das Fakt. Woher hast du dieses Wissen?
Sorry, ich präzisiere:

Imho werden Karten auf NV40-Basis in den nächsten 18 Monaten in fast keinem Game PS3.0-Eyescandys zeigen.

STALKER könnte ein Ausnahme sein, wobei der AHA-Effekt imho sehr klein sein würde und bei STALKER haben die Jungs noch einiges elementareres zu tun, als Marketingeyecandys für NV einzubauen, denn bis jetzt bin ich von der Qualität des Spiels nicht überzeugt, obwohl ich mich sehr freuen würde, wenn das Game gut wird.

BodyLove
2004-03-25, 21:18:06
da ich nicht wusste, wie man im editieren eine Datei anhängt gehe ich diesen weg. Das Foto oben funzt irgendwie nicht. Sorry dafür.

LovesuckZ
2004-03-25, 21:20:46
Original geschrieben von Anonym_001
Dann empfehle ab sofort auch keine GF 5xxx mehr.
Denn diese sind es auch nicht.

Das wurde von den einschlaegigen fanatiker (puh, keine Namen genannt...) schon sehr oft durchgekaut. Deswegen ist der R420 auch nicht zukunftstauglich, da er im Gegensatz zur NV30/35/38 nichtmal über PS3.0 und eventuell VS3.0 verfüge.
Denn ein jahr hat man sich fast ausschließlich durch die Theorietester aufgegeilt und die schlechte PS2.0 leistung der Nvidiakarten kritisiert, komisch, ploetzlich kommt ATi nicht mehr hinter her, sei die neue Technik nicht mehr relevant. kaemen solche Aussagen nicht, koennte man dies als "Sarkasmus" sehen...

Original geschrieben von aths
Nah? Meinst du, dass man ca. 2006 unbedingt Pixelshader 3.0 braucht, um dann moderne Spiele spielen zu können? Ich meine das nicht. Wenn eine Karte vom Techlevel her ca. 2 Jahre ausreicht, ist sie "nicht zukunftstauglich"

Den Nvidiakarten wurde die "Zukunftstauglichkeit" abgesprochen, da deren PS2.0 nicht ausreiche. Und was haben wir seit April '03 für PS2.0 Spiele? Halo, wird kritisiert, wegen den Shadern, TR:6 wegen dem Spiel selbst. dazu kommt noch Knightshift...
Erst FarCry macht PS2.0 zum TopArgument der r300 Karten, ein Jahr spaeter. Und ehrlich, das war es dann auch schon. Somit sind doch auch die Nvidiakarten praechtig geeigent für die Zukunft?
Und "moderne Spiele" bedeutet wohl auch noch DX7 Techlevel...

Original geschrieben von betareverse
Nicht zukunfttauglich sind lediglich Karten, die eine miese Shader2.0-Performance bieten,[...]

Erklaere mir doch mal, warum eine Karte mit "miese[r] Shader2.0-Performance" nicht zukunftstauglich waere, aber eine Karte, die nicht mal über Shader3.0 verfüge für die Zukunft reiche? Widerspruch? Widerspruch!

Ist schon lustig, wie die Meinung in Richtung ATi Schwaenke, auch bei den Usern, die sich als "neutral" betiteln...

robbitop
2004-03-25, 21:24:30
Vorteil der Shader 3.0 Technologie:
-bei VS3 kann man doch die CPU entlasten
-PS3 kann aus Performancesicht ein Vorteil sein

Gast
2004-03-25, 21:27:03
Original geschrieben von LovesuckZ
Was ich vergaß:
Sollte der r420 und seine Ableger über keine PS/VS3.0 verfügen, dann kann man diese Karten niemanden empfehlen, da sie nicht zukunftstauglich sind.

:rofl:
Ja, LS, aber ich fürchte, die meisten hier werden sich ihrer Argumenation wider die GF4MX kaum entsinnen können. ;)

;Q

betasilie
2004-03-25, 21:28:58
Original geschrieben von LovesuckZ
Erklaere mir doch mal, warum eine Karte mit "miese[r] Shader2.0-Performance" nicht zukunftstauglich waere, aber eine Karte, die nicht mal über Shader3.0 verfüge für die Zukunft reiche? Widerspruch? Widerspruch!

Ist schon lustig, wie die Meinung in Richtung ATi Schwaenke, auch bei den Usern, die sich als "neutral" betiteln...
Wenn Spiele mit PS3.0-Effekten anstehen würden oder angekündigt wären, aber danach sieht es halt nicht aus. Spiele mit PS2.0-Effekten sind allerdings einige für dieses Jahr angekündigt und FarCry gibt es schon. Da sehen die aktuellen NVidia-Karten einfach schlecht aus.

Ich bin neutral, dass wirst Du sehen, wenn ich ggf. bald mit meinem NV40 angeben werde. Ich würde dann aber nicht mit der PS3.0-Funktionaltät angeben, sondern mit der Performance, dem AF und den hoffentlich gut performenden 4*MSAA(RG). ;)

Gast
2004-03-25, 21:29:14
Original geschrieben von Exxtreme
War die Voodoo5 angeblich auch nicht. Fast überall wurde rumgetöhnt, daß man mit einer Karte ohne T&L "sehr bald" aufgeschmissen sein würde. Und trotzdem konnte man mit der V5 lange Zeit gut zocken. Daß man keine Benchmarkrekorde im 3DMark einfahren konnte ist natürlich klar. :)
Also nochmals:
3dfx' Untergang widerspricht deiner Argumentation, daß Speed alleine für die Gamer reicht.

Die Zeiten der CS-Kiddies sind vorbei.

Demirug
2004-03-25, 21:29:39
Original geschrieben von robbitop
Vorteil der Shader 3.0 Technologie:
-bei VS3 kann man doch die CPU entlasten

Dafür braucht in der Regel eine Kombinbation aus VS3 und FP32 Pixelshader. Für ein paar Sachen reicht aber auch VS3 aleine.

Gast
2004-03-25, 21:30:13
Original geschrieben von betareverse
Nicht zukunfttauglich sind lediglich Karten, die eine miese Shader2.0-Performance bieten, daher sollte man wohl von allen aktuellen nVidia-FX-Karten die Finger lassen. ... Bei FarCry sieht man ja sehr schön was mit aktuellen NVidia-Karten passiert, wenn ein echtes Nextgen-Spiel angetrieben werden soll.

Gleich mal meine FX wieder einbauen und FC installieren. (Hoffentlich ist die deutsche Version auf "Blut" patchbar, sonst war's ein 45% Fehlkauf)

;Q

Gast
2004-03-25, 21:33:43
Original geschrieben von betareverse
Ich bin neutral, dass wirst Du sehen, wenn ich ggf. bald mit meinem NV40 angeben werde.

Bin ich neutral, wenn ich jetzt protze, daß mein Rechner mit meiner RageXL nur ~60W bei SETI verbraucht?

LovesuckZ
2004-03-25, 21:34:11
Original geschrieben von betareverse
Wenn Spiele mit PS3.0-Effekten anstehen würden oder angekündigt wären, aber danach sieht es halt nicht aus. Spiele mit PS2.0-Effekten sind allerdings einige für dieses Jahr angekündigt

Dafür werden NV40 und r420 locker ausreichen. Das hat aber nichts mit zukunfttauglichkeit zu tun, da beide Karten doch wohl für PS/VS2.0 Anwendungen gebaut werden...

und FarCry gibt es schon. Da sehen die aktuellen NVidia-Karten einfach schlecht aus.

Gab es FarCry schon letztes Jahr? Nein, jedoch wurde dort schon die "zukunftstauglichkeit" der Karten abgesprochen.
Und so scheine es leider auch für den R420 und seine Ableger auszusehen. Traurig aber wahr!

betasilie
2004-03-25, 21:34:48
Original geschrieben von Gast
Gleich mal meine FX wieder einbauen und FC installieren. (Hoffentlich ist die deutsche Version auf "Blut" patchbar, sonst war's ein 45% Fehlkauf)

;Q
Die Datei "System.cfg" mit dem Editor öffnen und dort den Eintrag g_gore = "1" auf g_gore = "2" ändern.

Zudem ist es nötig die Datei "german.pak" im Ordner "/fcdata/localized" mit Winrar oder Winace zu öffnen und darin das Soundfile im Ordner "Languages/Voicepacks/Jack" mit dem Namen "jump_48.wav" zu löschen..
Berichte mal. ;)

Börk
2004-03-25, 21:35:16
Original geschrieben von Gast
:rofl:
Ja, LS, aber ich fürchte, die meisten hier werden sich ihrer Argumenation wider die GF4MX kaum entsinnen können. ;)

;Q
Der NV2x war ja auch so ein Fall. Für mehrere Jahre blieb NV auf dem PS 1.1 Techlevel stehen, obwohl ATI mit PS 1.4 schon wesentlich weiter war. Und das Ergebniss? Es wurden kaum(gar keine?) Spiele entwickelt, die PS 1.4 benutzt haben. Und genauso wird es sicherlich auch hier der Fall sein. Die meisten Spieleentwickler werden sich einfach für die größte Basis entscheiden und das ist nunmal PS 2.0.
PS 3.0 wird dann evtl. zur geschwindigkeitssteigerung benutzt werden, aber mehr wohl auch nicht. Und solange, die Grundspeed des R420 hoch genug ist, ist das dann auch kein Problem für ATI.
Wenn der NV40 aber so schon gleich schnell oder gar schneller ist, dann sehe ich schwarz für ATI...

P.S.: Natürlich wird es nicht ganz so drastisch sein wie damals zu Zeiten der Radeon 8500, weil NV einfach viel mehr Einfluss hat als ATI damals, aber so wichtig wird PS 3.0 in der Zukunft wohl nicht sein.

aths
2004-03-25, 21:35:47
LS,

Sind wir uns hier einig: Die ATI-Produkte von R300 - R360, ebenso vom RV350 und RV360, sind in der jeweils gleichen Klasse in "Shader 2.0-Spielen" ca. doppelt so schnell wie die Nvidia-Konkurrenz. Insofern sind von den aktuellen Karten die ATIs zukunftstauglicher.

Wie lange dauerte es, bevor man überhaupt Shader 2.0 sah? Recht lange. Nehmen wir an, dass wir Shader 3.0 früher sehen. Trotzdem reicht 2.0 aus, wenn die Performance hoch genug ist.

So sehr ich die neue Technik im NV40 begrüße, der durchschnittliche (!) Kunde fährt imo mit einem R420 kaum oder gar nicht schlechter, als mit einem NV40.

DrumDub
2004-03-25, 21:37:55
Original geschrieben von Gast
Gleich mal meine FX wieder einbauen und FC installieren. (Hoffentlich ist die deutsche Version auf "Blut" patchbar, sonst war's ein 45% Fehlkauf)

;Q

also bei der demo waren die unterschiede schon erkennbar, wobei die sich bei 1600x1200 etwas relativiert haben (speicherbandbreite?):

http://www.xbitlabs.com/articles/video/display/ati-nvidia-roundup_9.html

von der final hab ich noch keine benchmarks gesehen, aber die sollte ja schon noch ein bisschen auf den nv3x optimiert sein.

Black-Scorpion
2004-03-25, 21:37:56
Original geschrieben von LovesuckZ
Deswegen ist der R420 auch nicht zukunftstauglich, da er im Gegensatz zur NV30/35/38 nichtmal über PS3.0 und eventuell VS3.0 verfüge.
Hab ich was verpasst?
Seit wann haben NV3x PS/VS 3.0. :???:

LovesuckZ
2004-03-25, 21:38:47
Original geschrieben von aths
Insofern sind von den aktuellen Karten die ATIs zukunftstauglicher.

Ich habe keine Lust mich zu wiederholen, ausserdem widerspreche sich dies mit deinem untenaufgeführten Beispiel...

Börk
2004-03-25, 21:40:37
Original geschrieben von aths
LS,

Sind wir uns hier einig: Die ATI-Produkte von R300 - R360, ebenso vom RV350 und RV360, sind in der jeweils gleichen Klasse in "Shader 2.0-Spielen" ca. doppelt so schnell wie die Nvidia-Konkurrenz. Insofern sind von den aktuellen Karten die ATIs zukunftstauglicher.

Wie lange dauerte es, bevor man überhaupt Shader 2.0 sah? Recht lange. Nehmen wir an, dass wir Shader 3.0 früher sehen. Trotzdem reicht 2.0 aus, wenn die Performance hoch genug ist.

So sehr ich die neue Technik im NV40 begrüße, der durchschnittliche (!) Kunde fährt imo mit einem R420 kaum oder gar nicht schlechter, als mit einem NV40.
Zu Abschnitt 1 und 2 Full Ack.
Zu Abschnitt 3, woher willst du denn wissen welche der beiden Karten die bessere ist? Oder gehst du jetzt einfach mal davon aus, dass die PS 2.0 Performance beider Karten auf gleichem Niveau ist?

betasilie
2004-03-25, 21:40:50
Original geschrieben von LovesuckZ
Dafür werden NV40 und r420 locker ausreichen. Das hat aber nichts mit zukunfttauglichkeit zu tun, da beide Karten doch wohl für PS/VS2.0 Anwendungen gebaut werden...
Darauf will ich ja hinnaus.

Original geschrieben von LovesuckZ
Gab es FarCry schon letztes Jahr? Nein, jedoch wurde dort schon die "zukunftstauglichkeit" der Karten abgesprochen.
Und so scheine es leider auch für den R420 und seine Ableger auszusehen. Traurig aber wahr!
PS2.0 und PS3.0 sind aber auch nicht vergleichbar. PS2.0 ist die Compliancegrenze für DX9-Karten, PS3.0 einfach nur Bonus. Daher wird der PS3.0 niemals die Relevanz erhalten, wie der PS2.0 und dementsprechend werden PS3.0-Effekte irgendwann mal vereinzelt in Spielen anszutreffen sein, aber imho wird das einige Zeit dauern.

PS:
Ich verstehe ja auch die Technophilen unter den Anwesenden, die es ATI übel nehmen, dass sie noch keine PS3.0 bieten werden mit dem R420, aber der Markt ist halt nicht technophil, jedenfalls nicht, solange es in der Rohperformance Unterschiede gibt oder es nicht wirklich Spiele gibt, die den Technikvorsprung in Form von Eyecandys demonstrieren.

Exxtreme
2004-03-25, 21:42:14
Original geschrieben von Gast
Also nochmals:
3dfx' Untergang widerspricht deiner Argumentation, daß Speed alleine für die Gamer reicht.

Die Zeiten der CS-Kiddies sind vorbei.
Dein Vergleich hinkt ein wenig da 3dfx mit ihrer Hardware eigentlich schon ziemlich rückständig waren. Sprich, es gab Spiele, die von 32 Bit Farbtiefe profitierten etc und 3dfx diese noch nicht unterstützte. Ich kenne aber kein Spiel, bei dem man Qualitätseinbußen in Kauf nehmen muss wenn man keine PS3.0-fähige Hardware hat.

Ausserdem haben eher Managementfehler den Untergang von 3dfx besiegelt und nicht die Hardware.

Sphinx
2004-03-25, 21:45:23
Mein R97oo Pro ist noch so zukunftsicher das ich die Zeit bis PCI-E Ära anrollt überbrückt habe ! und überbrücken werde...

Denn Ende diesen Jahres ~ nächstes Jahr spielt hier die Creme ala Creme nicht mit 1xx Watt AGP Karten die auch PS3.0|VS3.0 unterstützen sondern mit wirklich neuen Sachen wie PCI-E...

,) Aber mal schauen ob sich nicht doch eine Gelegenheit ergibt (welches ich als Kaufkriterium) gesetzt habe um meine R97oo Pro in die Rente zu schicken als vorletzte AGP Grafikkarte...btw. lezte...

aths
2004-03-25, 21:47:46
Original geschrieben von LovesuckZ
Ich habe keine Lust mich zu wiederholen, ausserdem widerspreche sich dies mit deinem untenaufgeführten Beispiel... Das ist ja das Problem: In deiner Argumentation sehe ich ziemliche Inkonsistenz. Da kannst du dich wiederholen, imo biegst du dir ein Weltbild zurecht, was mit der Wirklichkeit nur bedingt übereinstimmt. Niemand ist wirklich objektiv, die meisten sind kaum um Sachlichkeit bemüht (der Vorwurf geht auch an gewisse ATI-Fans.) Bei deiner Argumentation finde ich allerdings keinen Zugang zum Verständnis. Dass in der R300-R360-Generation die DX9-Produkte von ATI gegenüber denen von Nvidia jeweils rund doppelt so schnell sind (in "Pixelshader-2.0-Spielen"), ist wirklich nachprüfbar. Und in 18 Monaten wird Pixelshader 3.0-Support sicherlich willkommen sein, aber nicht erforderlich. Schon deshalb, weil ATI jetzt als Technologiebremse fungiert.

aths
2004-03-25, 21:48:35
Original geschrieben von burk23
Zu Abschnitt 1 und 2 Full Ack.
Zu Abschnitt 3, woher willst du denn wissen welche der beiden Karten die bessere ist? Oder gehst du jetzt einfach mal davon aus, dass die PS 2.0 Performance beider Karten auf gleichem Niveau ist? Um 20 oder 30% will ich nicht streiten. Im großen und ganzen schätze ich das Niveau vergleichbar ein. Einen Unterschied um Faktor 2, wie zuletzt bei ATI vs. NV, erwarte ich nicht.

Gast
2004-03-25, 21:53:13
Original geschrieben von Sphinx
Mein R97oo Pro ist noch so zukunftsicher das ich die Zeit bis PCI-E Ära anrollt überbrückt habe ! und überbrücken werde...

Denn Ende diesen Jahres ~ nächstes Jahr spielt hier die Creme ala Creme nicht mit 1xx Watt AGP Karten die auch PS3.0|VS3.0 unterstützen sondern mit wirklich neuen Sachen wie PCI-E...

,) Aber mal schauen ob sich nicht doch eine Gelegenheit ergibt (welches ich als Kaufkriterium) gesetzt habe um meine R97oo Pro in die Rente zu schicken als vorletzte AGP Grafikkarte...btw. lezte...

Sehr cool!, ich habe ähnliches vor !;-) Also grüner Jaguar streng dich an !

Quasar
2004-03-25, 22:01:09
Original geschrieben von betareverse
Die Datei "System.cfg" mit dem Editor öffnen und dort den Eintrag g_gore = "1" auf g_gore = "2" ändern.

Zudem ist es nötig die Datei "german.pak" im Ordner "/fcdata/localized" mit Winrar oder Winace zu öffnen und darin das Soundfile im Ordner "Languages/Voicepacks/Jack" mit dem Namen "jump_48.wav" zu löschen..
Berichte mal. ;)

Heute Nacht.... *froi*
(und danke für den Tip!)

Original geschrieben von Exxtreme
Dein Vergleich hinkt ein wenig da 3dfx mit ihrer Hardware eigentlich schon ziemlich rückständig waren. Sprich, es gab Spiele, die von 32 Bit Farbtiefe profitierten etc und 3dfx diese noch nicht unterstützte. Ich kenne aber kein Spiel, bei dem man Qualitätseinbußen in Kauf nehmen muss wenn man keine PS3.0-fähige Hardware hat.

Ausserdem haben eher Managementfehler den Untergang von 3dfx besiegelt und nicht die Hardware.

*huch*
Hab' ich was verpasst? Ich dachte immer, 16Bit würde auf jeden Fall reichen und 22Bit wäre ja sowieso viel besser (da schneller) als 32Bit.

Komisch, hab' schon damals die Voodoo-Priester nicht verstehen können...

StefanV
2004-03-25, 22:07:22
Original geschrieben von Quasar
*huch*
Hab' ich was verpasst? Ich dachte immer, 16Bit würde auf jeden Fall reichen und 22Bit wäre ja sowieso viel besser (da schneller) als 32Bit.

Komisch, hab' schon damals die Voodoo-Priester nicht verstehen können...

Das Schlimme ist ja, daß sie damals Recht hatten, zumindest im Vergleich zur TNT, die ja 'etwas' wegbrach, bei 32bit *scnr*

Aber die G400 hat sie damals eh alle weggefegt *eg*

robbitop
2004-03-25, 22:16:29
soweit ich gelesen habe bringt NVIDIA bis zum NV50 keine nennenswerten Refreshes. Etwas mehr Takt, vieleicht ein Shrink, aber ich gehe davon aus, dass wenn die Leistungsdaten von NV40 stimmen, kommt man damit sicher gut bis zum NV50 als Highend Gamer aus.

R420 wird imo allerdings in Punkto Verlustleistung in Relation zu diesem Monster ganz gut dastehen.

DrumDub
2004-03-25, 22:24:18
Original geschrieben von aths
Das ist ja das Problem: In deiner Argumentation sehe ich ziemliche Inkonsistenz. Da kannst du dich wiederholen, imo biegst du dir ein Weltbild zurecht, was mit der Wirklichkeit nur bedingt übereinstimmt. Niemand ist wirklich objektiv, die meisten sind kaum um Sachlichkeit bemüht (der Vorwurf geht auch an gewisse ATI-Fans.) Bei deiner Argumentation finde ich allerdings keinen Zugang zum Verständnis. Dass in der R300-R360-Generation die DX9-Produkte von ATI gegenüber denen von Nvidia jeweils rund doppelt so schnell sind (in "Pixelshader-2.0-Spielen"), ist wirklich nachprüfbar. Und in 18 Monaten wird Pixelshader 3.0-Support sicherlich willkommen sein, aber nicht erforderlich. Schon deshalb, weil ATI jetzt als Technologiebremse fungiert.

ack!

Original geschrieben von Quasar
*huch*
Hab' ich was verpasst? Ich dachte immer, 16Bit würde auf jeden Fall reichen und 22Bit wäre ja sowieso viel besser (da schneller) als 32Bit.

Komisch, hab' schon damals die Voodoo-Priester nicht verstehen können...

na ja, bei der v3 vs. tnt2 wars ja auch noch so, dass 32bit in games noch nicht wirklich nutzbar war so rein speedmäßig. mit der gf 256 sah das dann anders aus.

und 22bit auf der v3 sieht besser aus, als 16bit auf dem tnt2 oder irgend weiner anderen graka. ;)

ow
2004-03-25, 22:32:31
.

aths
2004-03-25, 22:36:57
Original geschrieben von ow
Ja, er war leider etwas sehr spät.
Grossartig gelitten hat NVs Image aber dennoch nicht IMO. Das mag im Auge des Betrachters liegen. Vergleiche die Performance von ATIs Aktien-Kurs mit dem von NV in jener Zeit.

betasilie
2004-03-25, 22:37:32
Original geschrieben von ow
Ja, er war leider etwas sehr spät.
Grossartig gelitten hat NVs Image aber dennoch nicht IMO.
;D Ist das ernst gemeint?

aths
2004-03-25, 22:37:50
Original geschrieben von robbitop
soweit ich gelesen habe bringt NVIDIA bis zum NV50 keine nennenswerten Refreshes. Etwas mehr Takt, vieleicht ein Shrink, aber ich gehe davon aus, dass wenn die Leistungsdaten von NV40 stimmen, kommt man damit sicher gut bis zum NV50 als Highend Gamer aus.In der NV40-Pipe gibt es ganz sicher noch Potenzial für Verbesserungen.

ow
2004-03-25, 22:42:33
.

MarcWessels
2004-03-25, 22:42:42
Original geschrieben von Sphinx
Mein R97oo Pro ist noch so zukunftsicher das ich die Zeit bis PCI-E Ära anrollt überbrückt habe ! und überbrücken werde...

D.h., Du hast vor, FarCry ruckelig oder nur in Medium-Details zu spielen?

deekey777
2004-03-25, 22:43:36
Original geschrieben von MarcWessels
D.h., Du hast vor, FarCry ruckelig oder nur in Medium-Details zu spielen?

Was ist los?

ironMonkey
2004-03-25, 22:43:53
NV hat schon gelitten, das sieht man am Umsatz von ATI............

Im Allgeminen finde ich die Diskusion etwas komisch, noch ist nichts offiziell und wenn ATI keine PS 3.0 wird das schon seine Gründe haben, mir kommt es so vor als denken viele das man das mal eben einbaut und dann mehr Leistung hat........



Gruß

aths
2004-03-25, 22:44:44
Original geschrieben von ow
Ähm.... irgendwie ist die Entwicklung seit DX9 wohl an dir vorrübergegangen??

Man programmiert heute in HLSL und mit dem Erscheinen des NV40 werden die Spiele auch 3.0er Shader unterstützen.Nah. Das würde ich abwarten.
Original geschrieben von ow
So ein Compilerdurchlauf mit Zielprofil 3.0 ist eine Sache von Minuten. Entwicklungsaufwand = 0,0. Eine Sache von Minuten ist > 0,0 :) Zudem muss dann erst mal ein Patch inkl. dem neuen Content bereitgestellt werden usw.

Demirug
2004-03-25, 22:48:32
Original geschrieben von aths
Nah. Das würde ich abwarten.
Eine Sache von Minuten ist > 0,0 :) Zudem muss dann erst mal ein Patch inkl. dem neuen Content bereitgestellt werden usw.

Wir müssen gar nicht warten bis es einen NV40 zu kaufen gibt. :D

http://ubbxforums.ubi.com/6/ubb.x?a=tpc&s=400102&f=452106891&m=804108303

Content brauchst du nur wenn du einen neuen Effekt einbaust.

Nur frage ich mich ob Crytek eine andere NDA unterschrieben hat als ich weil eigentlich dürften sie den Compiler ja noch gar nicht für Releasezwege nutzen.

Winter[Raven]
2004-03-25, 23:58:46
Original geschrieben von Demirug
Wir müssen gar nicht warten bis es einen NV40 zu kaufen gibt. :D

http://ubbxforums.ubi.com/6/ubb.x?a=tpc&s=400102&f=452106891&m=804108303

Content brauchst du nur wenn du einen neuen Effekt einbaust.

Nur frage ich mich ob Crytek eine andere NDA unterschrieben hat als ich weil eigentlich dürften sie den Compiler ja noch gar nicht für Releasezwege nutzen.

Die Shader 3.0 PR Maschine läuft wohl langsam an ... *eg*

betasilie
2004-03-26, 00:06:51
Original geschrieben von Winter[Raven]
Die Shader 3.0 PR Maschine läuft wohl langsam an ... *eg*
:eyes:

@Demi
Das ist doch jetzt aber nix neues. ... Nur weil Shader3.0-Profile bei aktuellen Games kommen, heißt doch nun wirklich nicht, dass es dort PS3.0-FXs gibt.

deekey777
2004-03-26, 00:11:40
Original geschrieben von Demirug
Wir müssen gar nicht warten bis es einen NV40 zu kaufen gibt. :D

http://ubbxforums.ubi.com/6/ubb.x?a=tpc&s=400102&f=452106891&m=804108303

Content brauchst du nur wenn du einen neuen Effekt einbaust.

Nur frage ich mich ob Crytek eine andere NDA unterschrieben hat als ich weil eigentlich dürften sie den Compiler ja noch gar nicht für Releasezwege nutzen.

Ich bin kein Profi, aber kann es sein, dass mit diesem Patch einfach der PS 2.0 Code in PS 3.0 Code "übersetzt" wird?

Sumpfmolch
2004-03-26, 00:17:17
Original geschrieben von MarcWessels
D.h., Du hast vor, FarCry ruckelig oder nur in Medium-Details zu spielen?

was auf einer 9700pro nicht ordentlich läuft, das läuft auf 9800xt/fx5950U auch nicht wesentlich besser...

du meinst also farcry läuft nur auf nv40/r420 karten anständig ? :D

MarcWessels
2004-03-26, 00:52:35
Genau das wollte ich damit zum Ausdruck bringen.

Radeonator
2004-03-26, 01:09:50
Original geschrieben von Sumpfmolch
was auf einer 9700pro nicht ordentlich läuft, das läuft auf 9800xt/fx5950U auch nicht wesentlich besser...

du meinst also farcry läuft nur auf nv40/r420 karten anständig ? :D

Guckst du hier : http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=131643&perpage=20&pagenumber=18

Die links in meinem Posting GENAU anschauen, dann hast du deine Antwort ;)

Mr. Lolman
2004-03-26, 02:10:32
Original geschrieben von Demirug
...für Releasezwege...

Auch wenns mir widerstrebt Leute auszubessern: Demi, es heisst der Zweck !

MadManniMan
2004-03-26, 02:18:53
Original geschrieben von mapel110
NFSU, Prince of Persia, Farcry

Hm, PoP hab ich nur auf Screenies gesehen. Die Charaktere sehen sicherlich auf den ersten Blick ähnlich gut aus, wie die nette Madamè aus dem Noir-Dings, aber das war ja nicht alles! Die gesamte Szenerie hatte einen ungeheuren Polycount, krasse Lichtbrechung(Die Gläser! Ahoi!) und wirklich schöne Schatten. ...hätte aber gern eine höhere Auflösung gesehen...

Die NFSU-Autos mit dem aus der Crash-Szene gleichsetzen? Naja... sicherlich sind die größten Differenzen hinter uns, aber Steigerungen gabs immer. Zu aller erst möcht ich Autos wie in der ATi-Car Demo sehen ;)

Und FarCry? Meinst, wegen der allgemeinen Quali? Da muß ich dir Recht geben. Wenn du allerdings die Viecher aus dem Spiel mit dem Xenomorph vergleichen willst... hm. Ohne das Morphing erwarte ich derartige Kreaturenoptik - wenn überhaupt - frühestens für B&W2.

Du siehst, die Demos haben mich beeindruckt!


Original geschrieben von mapel110
Ich bezieh das rein auf die Grafik, und nicht auf zum Beispiel das "Schadensmodell" das in der ersten Demo gezeigt wird.

Damit tu ich mich schwer... denn das Schadensmodell ist auch irgendwie ein Partikelmodell und gehört durch seine intensiven optischen Spielereien zu der Betrachtung.

MadManniMan
2004-03-26, 02:25:48
Original geschrieben von aths
In der NV40-Pipe gibt es ganz sicher noch Potenzial für Verbesserungen.

Hat denn der liebe ätz Drinseiten-Infos? :freak:


@FC und PS3.0 ... Vorbereitung auf das "Speedupdate" durch PS3.0 per TexKill und Branching?


@ow: Was stört dich so daran, daß viele einfach lieber einen Schritt wie von R200 auf R300 sehen, anstelle von einem vom NV25 auf den NV30?
Und - noch ein Argument, noch ein Argument! - findest du nicht ähnlich shice, daß nV noch immer NV19s und gar NV11s(!) produziert, während ATi immerhin den PS1.4 Chip RV280 bauen tut? ;)

Ailuros
2004-03-26, 04:28:02
Original geschrieben von aths
Dass in der R300-R360-Generation die DX9-Produkte von ATI gegenüber denen von Nvidia jeweils rund doppelt so schnell sind (in "Pixelshader-2.0-Spielen"), ist wirklich nachprüfbar. Und in 18 Monaten wird Pixelshader 3.0-Support sicherlich willkommen sein, aber nicht erforderlich. Schon deshalb, weil ATI jetzt als Technologiebremse fungiert.

Technologiebremse ja und nein.

"Ja" wahrscheinlich hier:

http://www.beyond3d.com/forum/viewtopic.php?t=9854

(obwohl ich persoenlich nicht unbedingt damit bis zu 100% uebereinstimme)

"Nein" weil NVIDIA wohl nicht der einzige IHV durch 2004 mit PS/VS3.0 Unterstuetzung sein wird. Kleine IHVs spielen zwar eine genauso "kleine" Rolle im Markt, aber IMHO werden Entwickler schon zu >2.0 Shader greifen wenn es moeglich und fuer den Vorteil ihrer Spiele ist. Ob dann alleine ATI ausreicht die Entwickler zu bremsen oder von 3.0 abzuhalten muessen wir wohl abwarten.

Hier gibt es noch eine wichtigere Frage: angenommen die 18 Monate stimmen, wird ATI in dem Zeitraum R5xx veroeffentlicht haben oder nicht?

Ailuros
2004-03-26, 04:39:45
Original geschrieben von betareverse

Ich verstehe ja auch die Technophilen unter den Anwesenden, die es ATI übel nehmen, dass sie noch keine PS3.0 bieten werden mit dem R420, aber der Markt ist halt nicht technophil, jedenfalls nicht, solange es in der Rohperformance Unterschiede gibt oder es nicht wirklich Spiele gibt, die den Technikvorsprung in Form von Eyecandys demonstrieren.

Mir als Verbraucher wird fuer dieses Jahr wohl PS3.0 wenn nicht ganz dann bis zu einem sehr hohen Grad egal sein.

Das aendert aber nichts daran dass ATI sich durch Marketing so wendet und ihre Unfaehigkeit PS3.0 zeitlich zu integrieren, einfach als unwichtigen Technologie-sprung mehr oder weniger praesentiert.

Natuerlich kann jetzt kein Marketing-Heini ankommen und oeffentlich sagen, dass sie zu beschaeftigt mit anderen Projekten sind/waren, dass so grosse Modifikationen im R420 gar nicht moeglich waren; ich wuerde mir wuenschen wenn wir alle als User diese eher doofen Entschuldigungen nicht gleich adoptieren wuerden.

Bei einem persoenlichen Dilemma zwischen R420 und NV40 waere wohl PS3.0 Unterstuetzung der letzte Grund der meine Entscheidung beinflussen koennte; das aendert aber nichts fuers obrige.....

r@e
2004-03-26, 05:04:34
Original geschrieben von robbitop
@razor
Demi meinte mal, dass man sehr vieles 1:1 übernommen hat und viel davon eben dupliziert hat.
Eben mehr als üblich ;)
ist aber eigentlich total OT =) Jo leider...
Aber interessant ist dieses (eigentlich uralte) Thema allemal !
*schüff*
;-)

Razor

r@e
2004-03-26, 05:06:10
Original geschrieben von reunion
Ich könnte jetzt auch einfach behaupten der nV40 wird nur so gut(sofern die Gerüchte überhaupt stimmen) weil das "3dfx-team" ihn entwickelt hat ;) Es gibt kein "3dfx-Team" !
:D

Razor

P.S.: Dazu gibt es nicht einmal Gerüchte... ;)

r@e
2004-03-26, 05:08:57
Original geschrieben von betareverse
Es ist insofern anders gekommen, dass der NV30 imho der größte Flop der GPU-Geschichte war, in vielerlei Hinsicht, und der Markt hat das, trotz der völlig überzogenen Marketingaussagen seitens NV, bemerkt.Der größte "Flop" ?

Du schließt hier also die mit großem Abstand am meisten gekaufte und verbaute DX9-Karte mal eben locker mit ein ? Sorry, aber das ist eindeutig eine "6" in Wirtschaft !

Razor

betasilie
2004-03-26, 05:09:28
Original geschrieben von Ailuros
Mir als Verbraucher wird fuer dieses Jahr wohl PS3.0 wenn nicht ganz dann bis zu einem sehr hohen Grad egal sein.

Das aendert aber nichts daran dass ATI sich durch Marketing so wendet und ihre Unfaehigkeit PS3.0 zeitlich zu integrieren, einfach als unwichtigen Technologie-sprung mehr oder weniger praesentiert.

Natuerlich kann jetzt kein Marketing-Heini ankommen und oeffentlich sagen, dass sie zu beschaeftigt mit anderen Projekten sind/waren, dass so grosse Modifikationen im R420 gar nicht moeglich waren; ich wuerde mir wuenschen wenn wir alle als User diese eher doofen Entschuldigungen nicht gleich adoptieren wuerden.

Bei einem persoenlichen Dilemma zwischen R420 und NV40 waere wohl PS3.0 Unterstuetzung der letzte Grund der meine Entscheidung beinflussen koennte; das aendert aber nichts fuers obrige.....
Da gebe ich dir recht. Ich hätte mich auch gefreut, wenn ATI und NV den Sprung zu PS3.0 zusammen gemacht hätten, am besten bis hin zum Valuesegment, denn wenn ATI auch PS3.0 unterstützt hätte, dann würde es auch viel schneller Anwendungen geben, die PS3.0-FXe nutzen würden. ATI ist somit die Technolgiebremse, so wie Nv damals mit der Unterstützung für die sinnvollen PS1.4, nur wird ATI das vom Markt nicht angekreidet werden, wenn die Performance des R420 stimmt.

Außerdem kommt ja auch noch was von PVR und vieleicht ist ATI dann gezwungen einen R500 aus dem Ärmel zu zaubern? :)

MadManniMan
2004-03-26, 05:10:26
Original geschrieben von r@e
Es gibt kein "3dfx-Team" !
:D

Razor

P.S.: Dazu gibt es nicht einmal Gerüchte... ;)


Nicht richtig hingelesen hast - re meinte, daß man ohne wirklich handfeste Indizien (schöne Blasphemie btw) ebensogut behaupten könnte, die übernommenen 3dfx-Ingenieure hätten die entscheidenden Impulse am NV40 gegeben, wie man es oft bei ArtX und dem R300 tut.

Der liebe Herr Orton ist unzweifelhaft an der neuen Ausrichtung ATis schuld, aber das ist IMHO auch das einzig unzweifelhafte Indiz.

MadManniMan
2004-03-26, 05:11:48
Original geschrieben von r@e
Der größte "Flop" ?

Du schließt hier also die mit großem Abstand am meisten gekaufte und verbaute DX9-Karte mal eben locker mit ein ? Sorry, aber das ist eindeutig eine "6" in Wirtschaft !

Razor

Er sagte nicht die NV3X-Reihe, sondern spezifisch NV30. Und die 5800 war ja nun nicht grad der Chartstürmer.

r@e
2004-03-26, 05:17:02
Original geschrieben von betareverse
Nicht zukunfttauglich sind lediglich Karten, die eine miese Shader2.0-Performance bieten, daher sollte man wohl von allen aktuellen nVidia-FX-Karten die Finger lassen. ... Bei FarCry sieht man ja sehr schön was mit aktuellen NVidia-Karten passiert, wenn ein echtes Nextgen-Spiel angetrieben werden soll.Stimmt... läuft Supergut auf meinem Kärtchen... und das sogar mit AA/AF (was ich nicht gedacht hätt' ;-)

Und die Bildquali ist auf der FX gar besser !
:D
Original geschrieben von betareverse
Und ob Karten auf NV40-Basis wirklich ausreichend Performance haben für zukünftige Spiele, die richtige PS3.0-Effekte nutzen werden, ist wohl sehr zweifelhaft. Die Shader3.0 eines NV40 werden fast auschließlich zur Lebzeiten der Karten zum Beschleunigen der 2.0Shader genutzt werden und nicht für Eyecandys, auch wenn NVs Marketingabteilung und Du das natürlich anders sehen werden. Da die NV40-Serie wohl wieder top-down vermarktet und ob des größeren Feature-Sets (z.Bsp. 'echtes' "NextGen"-Video-Encoding) wohl wieder vom OEM-Markt geliebt werden dürfte, würde ich von "Lebzeiten" lieber nicht reden wollen...

Über Performance läßt sich noch rein gar nichts sagen... also auch nicht, dass sie schlecht sein wird. Schon gar nicht in einem Bereich, der wohl erst Anfang 2006 eine Rolle spielen wird...

... nur will ich bis dahin ALLE Techschritte (auch deren Fehltritte ;-) miterleben können und nicht auf veralteter Technologie sitzen. Aber jeder mag das für sich anders sehen...

Razor

MadManniMan
2004-03-26, 05:21:31
Original geschrieben von r@e
... nur will ich bis dahin ALLE Techschritte (auch deren Fehltritte ;-) miterleben können und nicht auf veralteter Technologie sitzen. Aber jeder mag das für sich anders sehen...

Razor

Ach, das hat immer sowas Negatives, wenn du dich über ATi-HW äußerst - spitzfindige Zeitgenossen könnten gar an das Wörtlein "abfällig" denken... :kicher:

Üb dich doch mal darin, weniger provokant zu $chr41b0r/|/ - auch wenns das Gegenüber vormacht.


PS: Was hat dich eigentlich zu deiner subjektiv positiveren Haltung nV über gebracht?

betasilie
2004-03-26, 05:21:36
Original geschrieben von r@e
Der größte "Flop" ?

Du schließt hier also die mit großem Abstand am meisten gekaufte und verbaute DX9-Karte mal eben locker mit ein ? Sorry, aber das ist eindeutig eine "6" in Wirtschaft !

Razor
Du willst mir also erzählen, dass der NV30 (5800er Reihe) die meistverkaufte GPU der Welt ist? :bigl: Sorry, ich kenne die Zahlen nicht, aber das glaube ich wohl eher nicht. Scheinbar bist Du schon am träumen, was an der Uhrzeit liegen mag.

Außerdem redete ich vom techischen Standpunkt aus vom Flop (auf den Kontext achten!)
Der NV30 war eine Fehlkonstruktion, weil 1. die Karten viel zu heiß wurden, 2. die Kühllösung ein Witz war, 3. die Performance im Vergleich zum R300 unter aller Sau war, 4. weil die Effizienz der Shader völlig mangelhaft war und 5. weil sie ihr total veraltetes Antialiasing den Kunden auf´s Auge drücken wollten.

Zu guter letzt muss man die Entwicklungszeit betrachten und und sich die großkotzigen Ankündigungen von NV vor Augen halten. Nicht dass andere da nicht übertreiben, aber NVs Marketing grenzte imho am Wahnsinn, was sich aber glücklicher Weise scheinbar etwas gebessert hat.

r@e
2004-03-26, 05:22:30
Original geschrieben von Gast
Bin ich neutral, wenn ich jetzt protze, daß mein Rechner mit meiner RageXL nur ~60W bei SETI verbraucht? Was würdest Du sagen, wenn ich Dir nun sage, dass ich mit meiner FX5900 (und dem restlichen System ;-) nicht viel mehr 'verbrauche' ?
;-)

Razor

r@e
2004-03-26, 05:26:41
Original geschrieben von aths
Sind wir uns hier einig: Die ATI-Produkte von R300 - R360, ebenso vom RV350 und RV360, sind in der jeweils gleichen Klasse in "Shader 2.0-Spielen" ca. doppelt so schnell wie die Nvidia-Konkurrenz. Insofern sind von den aktuellen Karten die ATIs zukunftstauglicher.Ähmm...
Sorry, dass ich Dir hier wiedersprechen muss.
Geschwindigkeit ist doch nicht gleich Zukunftstauglichkeit !

Sie sind schneller, keine Frage, aber "zukunftstauglicher" sicher nicht (versuche Dich an Deine gf4ti4600 zu erinnern !). Ganz im Gegenteil... wenn nicht mal der R420 den Techlevel eines NV30 schlagen kann...

Razor

MadManniMan
2004-03-26, 05:30:58
Original geschrieben von r@e
Ganz im Gegenteil... wenn nicht mal der R420 den Techlevel eines NV30 schlagen kann...

Razor

...es wird sich zeigen müssen, inwiefern PS2.X / VS3.0 (?) auf Seiten des R420 gegenüber den S3.0 des NV40 mit dem Sprung PS1.3/VS1.1 vom NV25 auf die neuen S2.0 zu vergleichen sind.
Man darf einfach nicht vergessen, daß wir uns immernoch innermitten von DX9 befinden :ratlos:

betasilie
2004-03-26, 05:31:30
Original geschrieben von r@e
Stimmt... läuft Supergut auf meinem Kärtchen... und das sogar mit AA/AF (was ich nicht gedacht hätt' ;-)

Und die Bildquali ist auf der FX gar besser !
:D

Da habe ich gestern erst was anderes von zwei Kumpels gehört. Der eine will sich jetzt sogar eine 9800Pro kaufen und seine 5800er verscherbeln. :D
Original geschrieben von r@e
Über Performance läßt sich noch rein gar nichts sagen... also auch nicht, dass sie schlecht sein wird. Schon gar nicht in einem Bereich, der wohl erst Anfang 2006 eine Rolle spielen wird...

Genau mein Reden, daher sollte sich der Gamer nicht unbedingt von einem PS3.0 leiten lassen.

Original geschrieben von r@e
... nur will ich bis dahin ALLE Techschritte (auch deren Fehltritte ;-) miterleben können und nicht auf veralteter Technologie sitzen. Aber jeder mag das für sich anders sehen...

Aha, dann hattest Du bestimmt eine DX8-Karte mit PS1.4 Unterstützung. :naughty: ... Ich z.B. nicht, weil ich lieber eine schnelle PS1.3 Karte von NV mein eigen nennen wollte. Aber jeder mag das für sich anders sehen.

... Komisch, dass für dich immer NV die besseren Karten macht und Du dir nur Karten von NV kaufst. Meinst Du nicht, dass Du deinen Anspruch auf Ernsthaftigkeit etwas gefährdest? :bigl2:

r@e
2004-03-26, 05:33:18
Original geschrieben von Demirug
Wir müssen gar nicht warten bis es einen NV40 zu kaufen gibt. :D

http://ubbxforums.ubi.com/6/ubb.x?a=tpc&s=400102&f=452106891&m=804108303Du meinst das hier ?
FarCry-Patch (wird ca. 26.3. relesad):
<snip>
-Improved shader speed (up to two times faster) for NVidia Geforce FX cards on very high settings
<snap>Interessant !
:D

Razor

MadManniMan
2004-03-26, 05:35:10
Original geschrieben von betareverse
Da habe ich gestern erst was anderes von zwei Kumpels gehört. Der eine will sich jetzt sogar eine 9800Pro kaufen und seine 5800er verscherbeln. :D

Razor hat aber nen NV35!

betasilie
2004-03-26, 05:37:51
Original geschrieben von r@e
Ähmm...
Sorry, dass ich Dir hier wiedersprechen muss.
Geschwindigkeit ist doch nicht gleich Zukunftstauglichkeit !

Sie sind schneller, keine Frage, aber "zukunftstauglicher" sicher nicht (versuche Dich an Deine gf4ti4600 zu erinnern !). Ganz im Gegenteil... wenn nicht mal der R420 den Techlevel eines NV30 schlagen kann...

Razor
:spock: Du vergleichst die 4600Ti, eine DX8-Karte, die noch nichtmal PS1.4 unterstützt, mit DX9-Karten? ... Die Entwickler werden den kleinsten Nenner suchen und sich daran orientieren, so wie damals auch PS1.4 nicht unterstützt wurde. Den kleinsten DX9-Nenner hat ATI in Form der R300-Reihe; also FP24 und PS2.0. CineFX hat keine Beachtung gefunden und PS3.0 wird auch eine große Beachtung finden, solange ATI nicht mitzieht. Alles andere sind Träumereien.

betasilie
2004-03-26, 05:40:26
Original geschrieben von MadManniMan
Razor hat aber nen NV35!
Ok, dass hört sich schon besser an.

Ich bin übrigens gespannt demnächst irgendwo ein Review zu finden, wo NV35 gegen den R350/360 bei FarCry antritt. Leistung wie IQ-Vergleiche würden mich doch sehr interessieren.

MadManniMan
2004-03-26, 05:43:03
Original geschrieben von betareverse
Ok, dass hört sich schon besser an.

Ich bin übrigens gespannt demnächst irgendwo ein Review zu finden, wo NV35 gegen den R350/360 bei FarCry antritt. Leistung wie IQ-Vergleiche würden mich doch sehr interessieren.

Da fehlt ne 3!

Vor allem horche ich bei dem auf, was Razorle da rausgesnipped hat. Ich meine jetzt nicht zwangsläufig, daß man da Unteschiede sehen wird, aber was man da gemacht hat, wäre schon gut zu wissen.
Ich gehe mal von viel PP aus.

r@e
2004-03-26, 05:46:18
Original geschrieben von MadManniMan
Nicht richtig hingelesen hast - re meinte, daß man ohne wirklich handfeste Indizien (schöne Blasphemie btw) ebensogut behaupten könnte, die übernommenen 3dfx-Ingenieure hätten die entscheidenden Impulse am NV40 gegeben, wie man es oft bei ArtX und dem R300 tut.

Der liebe Herr Orton ist unzweifelhaft an der neuen Ausrichtung ATis schuld, aber das ist IMHO auch das einzig unzweifelhafte Indiz. Des nicht richtigen hinlesens muss ich nun Dich bezichtigen, liebes Mannilein.

Auch für Dich dann noch mal dies hochoffizielle Statement von ATI höchstpersönlich, welches so nicht einfach ingnoriert werden sollte. Eindeutiger kann man dies (offiziell !) gar nicht formulieren...

Weil Du es bist (und weil ich richtig 'spasssss' dabei hab' ;-) :
Winning architecture for unheard-of performance

<schnappel>
The RADEON 9700 is the first architecture developed by ATI's west coast development team, which includes the former ArtX team, known for developing the graphics for the NINTENDO GAMECUBE™. http://www.ati.com/companyinfo/press/2002/4512.html
(und das war 2002 ;-)

Razor

r@e
2004-03-26, 05:48:34
Original geschrieben von MadManniMan
Er sagte nicht die NV3X-Reihe, sondern spezifisch NV30. Und die 5800 war ja nun nicht grad der Chartstürmer. Ohne den NV30 hätt' es den NV34 nicht gegeben.
Und damit den (mit Abstand) erfolgreichsten DX9-Chip, den es bis jetzt gegeben hat...

Ohne das Ei eben keine Henne.
Und wehe, Du fragst mich jetzt, wo das erste Ei her gekommen ist !
:D

Razor

betasilie
2004-03-26, 05:51:39
Original geschrieben von r@e
Ohne den NV30 hätt' es den NV34 nicht gegeben.
Und damit den (mit Abstand) erfolgreichsten DX9-Chip, den es bis jetzt gegeben hat...

Ohne das Ei eben keine Henne.
Und wehe, Du fragst mich jetzt, wo das erste Ei her gekommen ist !
:D

Razor
Lächerlich, wie Du dir alles zurecht biegst. Exxtreme und ich redeten vom NV30, sowie ow vom R420 gesprochen hat und nicht von irgendwelchen Ablegern - erst lesen, dann schreiben. :banghead:

betasilie
2004-03-26, 06:00:36
Original geschrieben von MadManniMan
Da fehlt ne 3!

Vor allem horche ich bei dem auf, was Razorle da rausgesnipped hat. Ich meine jetzt nicht zwangsläufig, daß man da Unteschiede sehen wird, aber was man da gemacht hat, wäre schon gut zu wissen.
Ich gehe mal von viel PP aus.
Ich bin da auch mal gespannt. Razors Aussage traue ich auch nicht so ganz über dem Weg. ;)

MadManniMan
2004-03-26, 06:00:37
Original geschrieben von r@e
Auch für Dich dann noch mal dies hochoffizielle Statement von ATI höchstpersönlich, welches so nicht einfach ingnoriert werden sollte. Eindeutiger kann man dies (offiziell !) gar nicht formulieren...


:bigl:

Ja sicherlich war da das ArtX-Team involviert, aber denkst denn, ATi hätte ohne die Leutz(Bis auf Dave Orton! Der ist wahrlich wichtig!) aus dem R200 nicht den R300 gemacht, den wir erlebt haben? Ich denke schon.

r@e
2004-03-26, 06:09:28
Original geschrieben von MadManniMan
Ach, das hat immer sowas Negatives, wenn du dich über ATi-HW äußerst - spitzfindige Zeitgenossen könnten gar an das Wörtlein "abfällig" denken... :kicher:

Üb dich doch mal darin, weniger provokant zu $chr41b0r/|/ - auch wenns das Gegenüber vormacht.Hmmm...
Mag sein, dass das mit eine Rolle spielt.

Eigentlich meinte ich mit 'veralteter Technologie' eher den NV35, den ich derzeit mein Eigen nenne. Und vermutlich könnte mich der NV40 dazu bringen, von meiner ursprünglichen Inention abzuweichen und mir nur alle 2 Jahre 'ne neue GraKa anzuschaffen.

Könnte aber auch daran liegen, dass der NV35 ja 'ne second-generation ist, welche ich bis dato ebenfalls nie in Betracht zog.
Who knows ?
Original geschrieben von MadManniMan
PS: Was hat dich eigentlich zu deiner subjektiv positiveren Haltung nV über gebracht? Gute Frage...

Vermutlich bin ich einfach sauer, weil ich mir seinerzeit zuerst 'ne R9500 zulegte (die 'dank' mod zu einer R9700 mutierte ;-) und ich dann feststellen musste, dass Geschwindigkeit einfach nicht alles ist... und diese popelige FX5200 mir den Mehrwert brachte, den ich erwartete... 300€ also, nur um festzustellen, dass nVidia für mich (!) geeigneter zu sein scheint.

Allerdings war der NV30 nie ein Thema für mich. Der NV35 aber (von MSI !) durchaus interessierte und dann auch gekauft wurde.

Früher sagte man "wer braucht schon PS2.x ?" und wollte damit die NV3x 'verunglimpfen'... jetzt kommt ein "wer braucht schon PS3.0 ?" und gibt sich mit PS2.x zufrieden... merkwürdige Geschichte das ist.

Schaun' mer mal.

Razor

r@e
2004-03-26, 06:11:25
Original geschrieben von MadManniMan
...es wird sich zeigen müssen, inwiefern PS2.X / VS3.0 (?) auf Seiten des R420 gegenüber den S3.0 des NV40 mit dem Sprung PS1.3/VS1.1 vom NV25 auf die neuen S2.0 zu vergleichen sind.
Man darf einfach nicht vergessen, daß wir uns immernoch innermitten von DX9 befinden :ratlos: Klar.
Und zudem befinden wir uns noch immer im Reich der Spekulation !
:D

Razor

MadManniMan
2004-03-26, 06:11:51
Original geschrieben von r@e
Ohne den NV30 hätt' es den NV34 nicht gegeben.
Und damit den (mit Abstand) erfolgreichsten DX9-Chip, den es bis jetzt gegeben hat...

Ohne das Ei eben keine Henne.
Und wehe, Du fragst mich jetzt, wo das erste Ei her gekommen ist !
:D

Razor

...womit du grundsätzlich ersteinmal recht hast. Aber bedenke Folgendes: es ging zum Einen wirklich erst explizit nur um den NV30, aber wo das Thema jetzt angeschnitten ist auch nochwas zum NV34 von mir...

Ich denke, daß der NV34 dank der grundsätzlichen Philosophie nVs so oder so erfolgreich gewesen wäre, egal wie auch immer die Basis NV3X ausgesehen hätte. nV konnte es sich bei den DX8-Chips anfangs leisten, sich einen Value-Chip mit aktuellsten Techlevel, da sich die DX7-HW noch wunderbar verkaufte und die Ti-Reihe ebenso wie warme Semmeln wegging, aber als es anno 1998 galt, bei den OEMs Fuß zu fassen, kam der TnT2 M64 / Vanta. Weiter ging es dann mit dem NV11, der noch heut produziert wird.
Es gab stets preislich attraktive Ableger, was sich beim Auslassen eines "richitgen" GF4MX - also sowas wie ein NV21 - spätestens dann rächte, als ATi mit den RV250/280 zu punkten anfing.

Ich will sagen: scheißegal, wie gut oder schlecht das High-End NV3X-Gerät anfangs geworden wäre, ein Value-DX9-Kärtchen wäre trotzdem zum Erfolg verdammt. Ich sehe da eher ein Versagen bei ATi...

r@e
2004-03-26, 06:15:30
Original geschrieben von betareverse
Da habe ich gestern erst was anderes von zwei Kumpels gehört. Der eine will sich jetzt sogar eine 9800Pro kaufen und seine 5800er verscherbeln. :DSchau' mal hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=130926

Zu dem Rest sag ich erst mal nichts...
(keine Zeit, muss gleich los und finde die Kommentare von Manni echt interessanter ;-)

Razor

r@e
2004-03-26, 06:18:02
OK, einen noch (dann 'is aber schluss ;-)...
Original geschrieben von betareverse
:spock: Du vergleichst die 4600Ti, eine DX8-Karte, die noch nichtmal PS1.4 unterstützt, mit DX9-Karten? aths sprach von "zukunftssicherheit durch Geschwindigkeit" und wollte ihm dies wiederlegen. Mit Tech-Leveln hat das wenig gemein und dass DX9 nicht gleich DX9 ist, wirst auch Du vermutlich schon mitbekommen haben...

Razor

r@e
2004-03-26, 06:20:06
Original geschrieben von betareverse
Ich bin da auch mal gespannt. Razors Aussage traue ich auch nicht so ganz über dem Weg. ;) Welche "Aussage" ?
:???:

Razor

P.S.: Ich kann's echt nicht lassen... ;)
(9min noch, dann muss ich spätestens duschen)

MadManniMan
2004-03-26, 06:20:48
Aso, ich dachte du meintest den R420 + dessen Ableger mit "veralteter Technologie". So ists IMHO aus dem Kontext zu schließen und v.a. anzunehmen, wenn man dich kennt :evil:

Die Erklärung mit dem R95 ist irgendwie deshalb blöd, weil du schon vor R300-Zeiten deine Meinung hattest ;) Ich denke eher, das lag am NV20 - wenn ich so an deine Posts nach dem Kauf deiner Elsa auf 3DConcept denke - du verstehst?

Stichpunkt "verunglimpfen": das Problem hier ist imho, daß einfach noch keine Sau wirklich über den Ausgang des Duells weiß. Wenn jetzt Jemand wie du das Techlevel als höherrelevant einstuft, dann kann es sein, daß mancherlei Zeitgenosse sich irgend auf den Schlips getreten fühlt und - wohl unbewußt - sich angegriffen fühlt. Aber was erzähl ich dir das... war doch schon immer so in den 3DC...-Foren!

Und wo du grad vom Spekulatius-Reich sprichst ... hier sollte man wahrlich nicht alles zu verbissen sehen. ow ist mir da so ein Kandidat ... ich sag nur "Alles Kiddies hier!" ;D


Und nochmal: irgendein "Ein-Account-Namens-Razor"-Revival in Planung?

r@e
2004-03-26, 06:22:53
Original geschrieben von MadManniMan
:bigl:

Ja sicherlich war da das ArtX-Team involviert, aber denkst denn, ATi hätte ohne die Leutz(Bis auf Dave Orton! Der ist wahrlich wichtig!) aus dem R200 nicht den R300 gemacht, den wir erlebt haben? Ich denke schon. Nein, das denke ich nicht...
Und zudem 'profitiert' ATI seither von dieser 'Symbiose' mit der R3x0-Reihe und wohl nun auch mit dem R420. Offenbar haben sie schlicht nichts 'eigenes' oder gar 'neues'.

Keine Ahnung wo ATI jetzt ohne ArtX wär'.
(erfahren werden wir dies wohl nie ;-)

Razor

r@e
2004-03-26, 06:30:42
Original geschrieben von MadManniMan
...womit du grundsätzlich ersteinmal recht hast. Aber bedenke Folgendes: es ging zum Einen wirklich erst explizit nur um den NV30, aber wo das Thema jetzt angeschnitten ist auch nochwas zum NV34 von mir...Du kannst doch den "Basis-Level" nicht ohne den Rest betrachten !
Oder meinst Du, dass der NV34 nicht schon mit den ersten Grundrissen der NV3x/4x-Technologie eingelant und sogar als prime-goal festgelegt wurde ?
Hmmm...
Original geschrieben von MadManniMan
Ich denke, daß der NV34 dank der grundsätzlichen Philosophie nVs so oder so erfolgreich gewesen wäre, egal wie auch immer die Basis NV3X ausgesehen hätte. nV konnte es sich bei den DX8-Chips anfangs leisten, sich einen Value-Chip mit aktuellsten Techlevel, da sich die DX7-HW noch wunderbar verkaufte und die Ti-Reihe ebenso wie warme Semmeln wegging, aber als es anno 1998 galt, bei den OEMs Fuß zu fassen, kam der TnT2 M64 / Vanta. Weiter ging es dann mit dem NV11, der noch heut produziert wird.
Es gab stets preislich attraktive Ableger, was sich beim Auslassen eines "richitgen" GF4MX - also sowas wie ein NV21 - spätestens dann rächte, als ATi mit den RV250/280 zu punkten anfing.nVidia hat damals wohl eingesehen, dass ein Low-Tech Low-Entry-Produkt irgendwie nicht das Bedürfnis der Consumerschaft da draußen traf und hat dies korrigiert. Trotzdem war der Entry-Level gf4mx ein Erfolg (und das mit ohne Mitteln ;-). ATI wollte dem nun nacheifern und scheiterte...

Und siehe da, zukünftig wird's wohl (nach Deinem Roadmap ;-) auch von ATI ein Entry-Level mit High-Tech geben. Ob sie wohl dafür 'gescholten' werden ?

Ich vermute mal: nein !
(zumindest nicht von der ATI-Anhängerschaft ;-)
Original geschrieben von MadManniMan
Ich will sagen: scheißegal, wie gut oder schlecht das High-End NV3X-Gerät anfangs geworden wäre, ein Value-DX9-Kärtchen wäre trotzdem zum Erfolg verdammt. Ich sehe da eher ein Versagen bei ATi... OK, Du bist zu dem gleichen Schluss gekommen.

Und es ist jetzt eine Minute nach halb sieben !
:D

Razor

r@e
2004-03-26, 06:33:07
@Manni

Sorry, gerne hätte ich Dir auf den letzten Post geantwortet...
(wäre mir sogar sehr, sehr wichtig !)

Aber die Zeit hat mich im Nacken.
Muss los...

Vielleicht später ?

Gruss

Razor

MadManniMan
2004-03-26, 06:35:08
Ömm, ich antworte auch besser mal später, ich hätt zwar was und ich hab auch erste 15:00 Schicht, aber ein bissel pennen wär schon in Ordnung ... :spock:

Viel Spaß noch bei der Arbeit, MMM

Demirug
2004-03-26, 07:25:44
Zu Farcry und PS 3.0:

Natürlich wird es sich dabei mit grosser Wahrscheinlichkeit um die gleichen Shader einfach als 3.0 compiliert handeln. In wie weit sich daraus direkt ein Performancevorteil ergibt kann ich aus dem Stehgreif nicht sagen. Darum geht es aber gar nicht. nVidia wird versuchen eine Reihe von Entwicklern genau zum gleichen Schritt zu überreden. Dann werden sie eine grosse Liste machen mit Spielen die PS 3.0 nutzen. Diese Liste wird dann ein wichtiger Teil der Kampange gegen ATI. Die Argumentation wird sein das ATI ja rückständige Hardware hat weil es ja spiele gibt die bessere Technik als ATI sie hat nutzen. Ich bin mir fast sicher das dieser Trick gut funktionieren wird. Man schaue sich doch nur die Lage jetzt an. Wenn ATI PS 2.0 sowie FP24 nutzt und bei nVidia nur FP16 oder gar nur PS 1.X zum Einsatz kommt wird von der breiten Masse erst mal davon ausgegangen das es bei nVidia ja schlechter aussehen muss. IMHO werden wir genau den gleiche Effekt bei PS 3.0 (und FP32) gegen PS 2.0 (mit wohl FP24) erleben. "Es benutzt besser Shader also muss es besser aussehen." Mit dem Trick wurde ja auch aus HL2 das DX9-PS 2.0 vorzeige Spiel. Sie benutzen einfach für jeden Effekt PS 2.0 ob es nun nötig ist oder nicht.

robbitop
2004-03-26, 09:03:41
naja vA der Performanceschub interessiert mich und bringt sogar den Kunden etwas.

Ich glaube sogar das der FX5200 Nachfolger aus der NV40 Serie sicher ebenso erfolgreich ist. Man hat Shader 3.0 und dazu noch MPEG En/Decoding. Features und Technologie sind im Massen und OEM Markt wohl einfach beliebter slas Geschwindingkeit. Wobei man über die Geschwindigkeit noch keine Aussagen machen kann.

Exxtreme
2004-03-26, 09:10:58
Original geschrieben von r@e
Sie sind schneller, keine Frage, aber "zukunftstauglicher" sicher nicht (versuche Dich an Deine gf4ti4600 zu erinnern !). Ganz im Gegenteil... wenn nicht mal der R420 den Techlevel eines NV30 schlagen kann...

Razor
Techlevel? :lol: Der Sprung von PS2.0 auf PS3.0 ist nicht so groß wie manche hier vermuten. Praktisch alle Effekte, die man mit PS3.0 machen kann, gehen auch mit PS2.0 ... nur langsamer in vielen Fällen ... was man aber mit potenter PS2.0-Hardware ausgleichen kann.

Als Techlevel würde ich eher den Sprung von DX9 -> DX10 verstehen. Razor, war der Sprung von PS1.3 auf PS1.4 auch ein Techlevel?

robbitop
2004-03-26, 09:18:44
der sprung von 2.0 auf 2.x ist größer als von 2.x auf 3.0.
Aber das 2.x was ATi bieten kann sagt nichts über die Mächtigkeit des Shaders aus. Aths hatte dazu mal was gesagt.

r@w
2004-03-26, 09:36:45
Original geschrieben von Exxtreme
Techlevel? :lol: Der Sprung von PS2.0 auf PS3.0 ist nicht so groß wie manche hier vermuten. Praktisch alle Effekte, die man mit PS3.0 machen kann, gehen auch mit PS2.0 ... nur langsamer in vielen Fällen ... was man aber mit potenter PS2.0-Hardware ausgleichen kann. Ah ja, "Branching" und Texturzugriffe mit dem VS sind also 'kleine' Schritte ?
Warum hat dann ATI diese nicht "mal eben" implementiert ?
:???:

Ich denke mal, dass Du sehr genau wissen wirst, was alles damit möglich wird. Und klar, mit MT läßt sich auch fast JEDER Effekt relisieren. Dazu braucht's dann gar keinen Shader mehr, aber ist das auch gangbar ? Oder besser: gibt es CPU's in Verbindung mit GPU's, die z.Bsp. so etwas wie FarCry ausschließlich mit MT auf den Bildschirm bringen können ? Nein ? Hmmm...

Genauso wird es sich wohl auch mit dem PS3.0 verhalten.

Klar kann man (HL2-like ;-) zigtausen von Shadern proggen und damit die GPU zuballern, um zum Ziel zu gelangen. Dass es aber auch eleganter oder gar effizienter geht, braucht man hier aber wohl auch nicht zu erwähnen.

Aber das Thema hatten wir schon mal, Exxtreme.
Und bis dato bin ich nicht davon überzeugt, dass die PS3.0 'überflüssig' sind.
So wie's ausschaut, wird ATI wohl der einzige IHV sein, der PS3.0 'ausläßt', aber spätestens mit PS4.0 wird's dann (auch von ATI ;-) wieder unterstützt.

Wir werden sehen.

nVidia wird vermutlich schon dafür sorgen, dass ihr Marketing-Instrument "PS3.0" auch bei den Entwicklern Anklang findet und damit zumindest über die Hintertür dem Endbenutzer zum Vorteil gereicht.
Original geschrieben von Exxtreme
Als Techlevel würde ich eher den Sprung von DX9 -> DX10 verstehen. Razor, war der Sprung von PS1.3 auf PS1.4 auch ein Techlevel? Nö.
:D

Ganz im Gegenteil, der PS1.4 war ein "Exclusiv-Feature" von ATI.
Und ist es auch geblieben...
(von der PS2.0-Kompatibilität mal abgesehen ;-)

Damals war es schlicht unnötig, heute ist es Makulatur.

Razor

Exxtreme
2004-03-26, 09:40:26
Original geschrieben von Demirug
Ich bin mir fast sicher das dieser Trick gut funktionieren wird. Man schaue sich doch nur die Lage jetzt an. Wenn ATI PS 2.0 sowie FP24 nutzt und bei nVidia nur FP16 oder gar nur PS 1.X zum Einsatz kommt wird von der breiten Masse erst mal davon ausgegangen das es bei nVidia ja schlechter aussehen muss. IMHO werden wir genau den gleiche Effekt bei PS 3.0 (und FP32) gegen PS 2.0 (mit wohl FP24) erleben. "Es benutzt besser Shader also muss es besser aussehen." Mit dem Trick wurde ja auch aus HL2 das DX9-PS 2.0 vorzeige Spiel. Sie benutzen einfach für jeden Effekt PS 2.0 ob es nun nötig ist oder nicht.
Nun ja ... ATi kann immer noch mit "SMARTSHADER 3.x" kontern. Das wird wohl reichen um die "Masse" zu verwirren. Ich gebe zu, das wäre kein feiner Marketingschachzug aber ich könnte mir vorstellen, daß ATi das tatsächlich bringt.

Demirug
2004-03-26, 09:50:12
Original geschrieben von Exxtreme
Techlevel? :lol: Der Sprung von PS2.0 auf PS3.0 ist nicht so groß wie manche hier vermuten. Praktisch alle Effekte, die man mit PS3.0 machen kann, gehen auch mit PS2.0 ... nur langsamer in vielen Fällen ... was man aber mit potenter PS2.0-Hardware ausgleichen kann.

Oder eine potentere CPU.

Als Techlevel würde ich eher den Sprung von DX9 -> DX10 verstehen. Razor, war der Sprung von PS1.3 auf PS1.4 auch ein Techlevel?

So wie es im Moment aussieht wird der Sprung von DX9 zu DX-Next kein echter für Spiele relevanter Techlevel. Shadermodel 4 = Shadermodel 3 ohne Limits. Von dem Limits beim 3er Model dürfte man aber im grossen und ganzen noch ein Stück weit weg sein wenn DX-Next kommt. Interesant sind natürlich die anderen Vereinfachungen.

ow
2004-03-26, 09:59:15
.