PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was macht Ati gegen den NV35??


duckofdeath
2003-05-12, 19:47:05
Also die 256mb 9800er mit nur 10 mhz höherem speichertakt kanns doch nicht gewesen sein oder!? Also ich rechne mal mit einer viel höher getakteten version sobald nvidia die karten wirklich ausliefert

LovesuckZ
2003-05-12, 19:54:00
man geht davon aus, dass ATi eine hoehere getaktete karte hinter verschlossenen Tueren nocht hat. Ob diese offiziel ist oder nur eine Partner eine hoeher getaktete auf den markt bringen, ist noch ungewiss.

mapel110
2003-05-12, 23:35:29
die 9800er mit 256 mb ist doch bereits höher getaktet. 380/350 anstatt 380/340.

Omnicron
2003-05-12, 23:46:47
Ja was werden sie denn machen ?
Alles was sie können würde ich sagen.
Erstmal an den Treiber feilen, -> auf R9800.
Wie schon gesagt, evtl. höher getaktet Versionen (Deluxe, Ultra, was weiss ich) auf den Markt bringen.
Und an ihrem nächsten Chip basteln.

Wobei Nvidia wahrscheinlich an denselben Sachen arbeiten wird, um evtl. wieder kontern zu können. ;)

Für mich als Endkunden ist so ein Konkurrenzkampf doch was feines. :D

DrFreaK666
2003-05-12, 23:57:31
[B]Originally posted by mapel110
die 9800er mit 256 mb ist doch bereits höher getaktet. 380/350 anstatt 380/340.

Hm, ich dachte die R9800Pro benutzt DDR2??
Wieso dann nur 10MHz mehr??

Demirug
2003-05-12, 23:59:21
Originally posted by DrFreaK666


Hm, ich dachte die R9800Pro benutzt DDR2??
Wieso dann nur 10MHz mehr??

Weil DDR-II Speicher verdammt viel Leistung verbraucht. und bei 16 Chips...

DrFreaK666
2003-05-13, 00:14:50
Originally posted by Demirug


Weil DDR-II Speicher verdammt viel Leistung verbraucht. und bei 16 Chips...

Und wegen 10MHz braucht man DDR2???
Da gibts bestimmt auch DR1, welches 350MHz verträgt und dazu bestimmt billiger ist als DDR2...

naja...

Demirug
2003-05-13, 00:21:29
Originally posted by DrFreaK666


Und wegen 10MHz braucht man DDR2???
Da gibts bestimmt auch DR1, welches 350MHz verträgt und dazu bestimmt billiger ist als DDR2...

naja...

ja warum man bei 350 MHz da plötzlich DDR-II Speicher verbaut habe ich auch nicht verstanden. Das macht wirklich 0 Sinn.

DrFreaK666
2003-05-13, 00:24:46
Hm, verbraucht DDR2- bei 350MHz weniger Leistung als DDR1 bei 350MHz??

duckofdeath
2003-05-13, 00:33:30
vielleicht wollen sie den overclockern bessere chancen beim ram overclocken geben *G* weil die sollen ja bis 400 gehen

DrFreaK666
2003-05-13, 00:39:36
Originally posted by duckofdeath
vielleicht wollen sie den overclockern bessere chancen beim ram overclocken geben *G* weil die sollen ja bis 400 gehen

Das wäre doch sehr dumm von ATI...

mapel110
2003-05-13, 01:03:52
imo kanns nur bedeuten, dass recht bald eine neue version auf den markt kommt und quasi jetzt schon mal der ausschuss an 256 mb karten verkauft wird.

Richthofen
2003-05-13, 01:22:22
also viele optionen haben sie nicht mehr.
Sie müssen sich jetzt fragen, ob es Sinn macht Ressourcen zu verwenden um den R350 nochmal zu beschleunigen durch mehr Takt oder ob sie sich lieber auf den Spätherbst konzentrieren. Das Gefecht gegen den NV40 wird schwer genug, denn ein erheblicher Nachteil ist wohl schonmal das Featureset, da der R400 nun gestrichen ist. ATI wird wohl mit keiner PS/VS 3.0 aufwarten können. Und Nvidia wird das mit der Marketing Abteilung knallhart ausspielen. Das kennt man ja.
Hinzu kommt, dass eine Steigerung bei der 9800pro keinen Sieg garantiert. Sie können den Core erhöhen und den DDR II Takt. Nur muss man sich im klaren sein, dass Nvidia das auch machen kann. Der NV35 Controller kann auch DDR II ansprechen. Mehr Coretakt ist in jedem Fall drinn dank 0.13. Auch wenn TSMCs 0.13 Prozess nicht das gelbe vom Ei ist, so wird es denoch so sein, dass dieser mit jedem Monat besser wird. Nvidia kann nebenbei nochmal feilen was das thermische Verhalten angeht. Beim 0.15 dürfte bald Ende sein.

Ich seh es so. Höher takten können beide. Insofern ist es vielleicht sinnvoller, sich auf den Herbst zu konzentrieren und in Kauf zu nehmen, dass Nvidia jetzt erstmal wieder führt.

Xmas
2003-05-13, 01:47:15
Ich bin nicht der Meinung, dass ATI auf den NV35 jetzt sofort reagieren muss. Sie haben jetzt ein gutes Produkt-Lineup und sollten sich darauf konzentrieren, mit den kleineren Chips Geld zu machen.

duckofdeath
2003-05-13, 01:53:09
nur mal angenommen die schicken eine karte mit 425/425 oder gar 425/450 auf den markt, könnte der den nv35 schlagen??
ja nvidia könnte kontern aber ob man ohne wieder den staubsauger zu benutzen auf über 500mhz kommt ist imho fraglich

Unregistered
2003-05-13, 03:02:15
500 würden doch bereits reichen. Ein Grossteil des Staubsaugers war dem DDR II RAM zu verdanken. Wenn ATI also ähnlich schnellen DDR II einsetzen will, dann wird es dort eine ähnlich warme Angelegenheit. Die haben beide absolut keinen Einfluss auf die Herstellung und Qualität der RAMs.
500 MHZ sind beim NV35 auch mit der jetzigen Kühlung locker drinn. Abbrennen tut er dir nicht, weil er sich selber thermal überwacht. Es macht für ATI nicht wirklich Sinn hier in die thermalen Grenzbereiche zu gehen. Da hat meiner Ansicht nach mit dem NV35 Nvidia die besseren Karten.

Ich denke auf Spätherbst konzentrieren und an den Treibern feilen ist sinnvoller. Wenn sie den High End Wahnsinn mitmachen wollen auf Gedeih und verderb, dann kann das auch nach hinten losgehen. Die 9800pro mit 256 MB und DDR II war schonmal nicht so clever. Da dürften einige enttäuscht sein und ATI ist nunmal nicht in der Position wie Nvidia. Meisstens rächen sich Fehler bei den kleineren Playern viel mehr als bei den grossen.

Ailuros
2003-05-13, 03:32:20
500 MHZ sind beim NV35 auch mit der jetzigen Kühlung locker drinn. Abbrennen tut er dir nicht, weil er sich selber thermal überwacht. Es macht für ATI nicht wirklich Sinn hier in die thermalen Grenzbereiche zu gehen. Da hat meiner Ansicht nach mit dem NV35 Nvidia die besseren Karten.

Unter der Voraussetzung dass sich ATI nicht auf 13nm mit dem R3xx wagt.

Das Gefecht gegen den NV40 wird schwer genug, denn ein erheblicher Nachteil ist wohl schonmal das Featureset, da der R400 nun gestrichen ist. ATI wird wohl mit keiner PS/VS 3.0 aufwarten können.

Ich bin mir immer noch nicht so sicher ob ATI naechsten Fruehling ohne PS/VS3.0 dasteht. Immer noch ein ganzes Jahr bis dahin.

Ich seh es so. Höher takten können beide. Insofern ist es vielleicht sinnvoller, sich auf den Herbst zu konzentrieren und in Kauf zu nehmen, dass Nvidia jetzt erstmal wieder führt.

Kommt ganz drauf an welche Perspektive man nimmt. Zwischen NV35 und R350, ist der letztere in meinem Buch im Qualitaet/Leistungs-Bereich immer noch der klare Sieger.

4xOGMS vs 4x sparsely sampled MS:

http://www.hardocp.com/image.html?image=MTA1MjY1OTc3OGJRaTJVSURadEJfNl8xOV9sLmpwZw==

Beide liegen >125fps laut Framecounter.

http://www.hardocp.com/image.html?image=MTA1MjY1OTc3OGJRaTJVSURadEJfNl8yM19sLmpwZw==

Vergleichbare edge quality hm? Immer noch nicht. Aber der Framecounter kommt gerade ueber die 60fps hinaus.

Ich weiss ich werde in der naechsten Zeit hoeren dass NV35 um so und so viel schneller ist; die Frage ist nur unter welchen genauen Bedingungen.

AMC
2003-05-13, 09:48:37
Originally posted by Ailuros
Ich weiss ich werde in der naechsten Zeit hoeren dass NV35 um so und so viel schneller ist; die Frage ist nur unter welchen genauen Bedingungen.

...unter 8x Quality AF! (Was bekanntermassen qualitativ besser ist als ATI´s Variante.)

AMC

Richthofen
2003-05-13, 12:06:31
Originally posted by Ailuros


Unter der Voraussetzung dass sich ATI nicht auf 13nm mit dem R3xx wagt.



Ich bin mir immer noch nicht so sicher ob ATI naechsten Fruehling ohne PS/VS3.0 dasteht. Immer noch ein ganzes Jahr bis dahin.



Kommt ganz drauf an welche Perspektive man nimmt. Zwischen NV35 und R350, ist der letztere in meinem Buch im Qualitaet/Leistungs-Bereich immer noch der klare Sieger.

4xOGMS vs 4x sparsely sampled MS:

http://www.hardocp.com/image.html?image=MTA1MjY1OTc3OGJRaTJVSURadEJfNl8xOV9sLmpwZw==

Beide liegen >125fps laut Framecounter.

http://www.hardocp.com/image.html?image=MTA1MjY1OTc3OGJRaTJVSURadEJfNl8yM19sLmpwZw==

Vergleichbare edge quality hm? Immer noch nicht. Aber der Framecounter kommt gerade ueber die 60fps hinaus.

Ich weiss ich werde in der naechsten Zeit hoeren dass NV35 um so und so viel schneller ist; die Frage ist nur unter welchen genauen Bedingungen.

Es geht hier um eine höher getaktete R350 Version. Natürlich kann ATI auf 0.13 setzen und das werden sie auch machen aber eben erst im Spätherbst. Wir reden hier von der höher getakteten Version in den nächsten 2 Monaten. Das wird eher eine stink normale 9800pro mit mehr Takt und mehr DDR II Takt sein. Und das ist in meinen AUgen nicht sinnvoll. Nvidia hat jetzt die Krone inne und würde sofort reagieren und das selbe machen. Also 50 MHZ Core rauf und DDR II draufpappen. ATI hat da irgendwie nix zu gewinnen, von daher sollten sie sich eher auf die wichtigen Dinge konzentrieren. Ich sehe auch noch nicht das ATI im Frühjahr 2004 mit PS und VS3.0 dasteht.

Und bitte nicht immer die Rosinen rauspicken. Wir wissen alle das RG besser ist als OG. Aber genauso wissen wir auch das winkelunabhängiges AF besser ist als winkelabhängiges. Kannst dir ja bei xbitlabs anschaun.
IQ ist bei beiden eher gleich nur die Performance beim NV35 deutlich besser. Von der allgemeinen Kompatibilität ganz zu schweigen. Die ist bei Nvidia sowieso besser. Insofern kann sich jetzt jeder seine Rosinen picken wie er will. Bottom line bleibt das ATI momentan 2. ist.

mapel110
2003-05-13, 12:30:16
Originally posted by Richthofen


Es geht hier um eine höher getaktete R350 Version. Natürlich kann ATI auf 0.13 setzen und das werden sie auch machen aber eben erst im Spätherbst. Wir reden hier von der höher getakteten Version in den nächsten 2 Monaten. Das wird eher eine stink normale 9800pro mit mehr Takt und mehr DDR II Takt sein. Und das ist in meinen AUgen nicht sinnvoll. Nvidia hat jetzt die Krone inne und würde sofort reagieren und das selbe machen. Also 50 MHZ Core rauf und DDR II draufpappen. ATI hat da irgendwie nix zu gewinnen, von daher sollten sie sich eher auf die wichtigen Dinge konzentrieren. Ich sehe auch noch nicht das ATI im Frühjahr 2004 mit PS und VS3.0 dasteht.

Und bitte nicht immer die Rosinen rauspicken. Wir wissen alle das RG besser ist als OG. Aber genauso wissen wir auch das winkelunabhängiges AF besser ist als winkelabhängiges. Kannst dir ja bei xbitlabs anschaun.
IQ ist bei beiden eher gleich nur die Performance beim NV35 deutlich besser. Von der allgemeinen Kompatibilität ganz zu schweigen. Die ist bei Nvidia sowieso besser. Insofern kann sich jetzt jeder seine Rosinen picken wie er will. Bottom line bleibt das ATI momentan 2. ist.

wieso gehts du davon aus, dass nvidia noch spielraum nach oben hat beim core takt ? die kühlung ist zwar leiser geworden im vergleich zur 5800er ultra (16 zu 9 sone), aber immernoch wesentlich lauter als ATIs 3 sone.
stand in irgendeinem der reviews.

stickedy
2003-05-13, 12:49:58
Eben! Die nehmen ja nicht ohne Grund vom NV30 -> NV35 50 MHz Chiptakt weg! So schlägt die 5900U die 9800P ja nur mit Ach und Krach.
Bei knapp 20% mehr Chiptakt und 25% mehr Speichertakt wärs ja auch ein Armutzeugniss sonders gleichen wenns nicht so wäre.
Mit nochmal 50 MHz mehr wäre der NV35 deutlicher in Führung, warum haben sie es also nicht gemacht? Der NV35 hat 5 Millionen Transisitoren als der NV30. Ich denke mal, dass beim NV35 keine 500 MHz mit normaler Kühlung drin sind und das FlowFX-Debakel wollten sie wohl nicht wiederholen.
Ich denke das ATi entweder mit einem höher getakteten R350 in 0,15 in den den nächsten 2 Monaten kontern wird oder gleich mit einem R350 in 0,13 Micron der dann wohl auf 500 MHz mit Standard-Kühlung kommen sollte. Das wäre dann der Tiefschlag für NVidia...

Tarkin
2003-05-13, 13:03:03
Tja, sieht aus, als ob nVidia mit dem nv35 nicht sehr lange in Führung bleiben wird. Alles hängt davon ab, wann die neuen FXn erhältlich sein werden.

http://www.theinquirer.net/?article=9470

seahawk
2003-05-13, 13:19:47
R360 - a-ha.

Naja, wünschen wir es ATI, auch wenn der NV35 sicherlich noch Potential hat.

Ich finde anstatt mit dauernden neuen Revisonen des R300 zu kommen sollte ATI erstmal an den Treibern arbeiten. Es gibt eigentlich keinen Grund den R350 im July schon wieder zum alten Eisen zu legen - so stark ist der NV35 nicht.

PS ist es leicht erklärbar warum ATI bei TSMC für das 3 Quartal mehr fertigen läst - NV wird seine Produktion zu IBM verrschieben, so dass Kapazitäten bei TSMC frei werden ... hoffentlich sind dann die Lieferschwierigkeiten bei ATI vorbei ...

Richthofen
2003-05-13, 15:02:18
Originally posted by Tarkin
Tja, sieht aus, als ob nVidia mit dem nv35 nicht sehr lange in Führung bleiben wird. Alles hängt davon ab, wann die neuen FXn erhältlich sein werden.

http://www.theinquirer.net/?article=9470

Also wenn ich jetzt zurückrechne, dass der NV35 im Januar sein Tape-Out hatte und man seit Ende Januar bereits mit First Sillicon produziert und wir nun Anfang Mai haben, dann wird es noch ne ganze Weile bis zum R360 dauern.
Und Nvidia wird die Schrauben auch nochmal anziehen können, allerdings wohl ohne neues Tape-Out. Der NV35 ist gut genug um 500 MHZ Core mitzumachen.

Mein Eindruck ist, ATI sollte sich lieber auf die wichtigen Dinge Ende 2003 und vor allem auf die Treiber konzentrieren. Die Doom3 Story ist heute auf jeder Webseite sogar den Finanzseiten. Das ist in meinen Augen für ATI Schlimmer als das nun der NV35 den R350 abgelöst hat als bestes High End Produkt.
Das Spiel mit den schrittweisen Takterhöhungen können sie nicht gewinnen. Ich finde da verschwenden die nur sinnlos Ressourcen. Ende 2003 wird schwer genug werden zumindestmal was das Marketing betrifft. Da wird sich eine ziemlich grosse Lücke auftun.

seahawk
2003-05-13, 15:27:05
Full ack.

Der Leistungsunterschied gegenüber der FX5900Ultra ist nicht kaufentscheident groß. Da können die Vorteile von ATI (besseres AA) durchaus mithalten.

Allerdings sind die Doom Benchmarks sehr negativ eingeschlagen. Ich denke hier ist Handlungsbedarf. ATI braucht einen Treiber der den Abstand verringert und sie brauchen ihn bald, nicht erst wenn Doom3 da ist. DoomIII ist momentan dass Spiel auf das hin viele Gamer ihre Hardware kaufen.

Denkbar ist natürlich, dass der R360 die Vorteile des NV35 bei Doom ausgleicht, also nur ein auf DoomIII optimierter R350 ist. (sehr denkbar imo)

ATI sollte liebr sehen, dass sie Ende des jAhres 2003/Anfang2004 eine Karte haben die den Features (Speed ist wahrscheinlich nicht so das Problem) des NV40 gewachsen ist. (und wie man so hört soll der NV40 gut im Plan liegen...)

LovesuckZ
2003-05-13, 15:40:26
Ich verstehe nur das hier nicht:
R360 will be manufactured by TSMC using 0.15µ process [...]

Warum sollten sie sich weiter auf dem 0.15 nm Prozeß sich beschraenken und dann auch noch den dritten r300 Aufguß bringen?

Tarkin
2003-05-13, 15:40:36
Originally posted by Richthofen


Also wenn ich jetzt zurückrechne, dass der NV35 im Januar sein Tape-Out hatte und man seit Ende Januar bereits mit First Sillicon produziert und wir nun Anfang Mai haben, dann wird es noch ne ganze Weile bis zum R360 dauern.
Und Nvidia wird die Schrauben auch nochmal anziehen können, allerdings wohl ohne neues Tape-Out. Der NV35 ist gut genug um 500 MHZ Core mitzumachen.

1. Ich sagte ja: Alles kommt darauf an, wann die neuen FXn erhältlich sein werden... Das kann auch noch bis Juli oder August dauern. Wenns dann soweit ist, wird ATi mit dem r360 auftrumpfen.

2. Glaube ich nicht, dass Nvidia den Takt erhöhen wird (kann). Bei 500Mhz Core wäre wohl wieder ein Dustbuster notwendig.

[
Mein Eindruck ist, ATI sollte sich lieber auf die wichtigen Dinge Ende 2003 und vor allem auf die Treiber konzentrieren. Die Doom3 Story ist heute auf jeder Webseite sogar den Finanzseiten. Das ist in meinen Augen für ATI Schlimmer als das nun der NV35 den R350 abgelöst hat als bestes High End Produkt.
Das Spiel mit den schrittweisen Takterhöhungen können sie nicht gewinnen. Ich finde da verschwenden die nur sinnlos Ressourcen. Ende 2003 wird schwer genug werden zumindestmal was das Marketing betrifft. Da wird sich eine ziemlich grosse Lücke auftun.

3. Wer das Spiel mit den schrittweisen Takterhöhungen gewinnt, steht in den Sternen. Ich vermute mal, dass Ati es nicht wagen wird die r360 zu releasen, wenn diese langsamer, bzw. "nur" gleich schnell sein sollte als nVidias nv35.

4. Die Sache mit den Doom III benchmarks ist ohne Zweifel ein schwerer Schlag für ATi (sie wurden sozusagen mit runtergelassenen Hosen erwischt. Aber Doom 3 ist noch nicht erhältlich, und die ATi Treiber wurden mit sicherheit noch nicht auf Doom 3 optimiert. Warum auch für ein Spiel optimieren, dass noch min. 6 Monate auf sich warten läßt) ... außerdem hat ATi mit Half-Life 2 auch nicht gerade gekleckert ;-) ...und das stand auch in den allen "Finanz-News": http://biz.yahoo.com/bw/030509/95476_1.html

Vertex
2003-05-13, 15:58:43
Originally posted by Tarkin
2. Glaube ich nicht, dass Nvidia den Takt erhöhen wird (kann). Bei 500Mhz Core wäre wohl wieder ein Dustbuster notwendig.


Vielleicht doch nicht. Schau mal da rein:

http://www.chip.de/artikel/c_artikelunterseite_10482825.html

"Unser Referenz-Modell lief auch nach den modifizierten Einstellungen stabil - und das bei geschlossenem Gehäuse."

Keine Ahnung wie stabil die wirklich war, aber... (schau selbst)
http://www.chip.de/ii/11090490_ca2780130c.gif

Vielleicht nochmals als Vergleich: (rechts)
http://www.chip.de/ii/11089761_017e7428ec.jpg



Was denkst du darüber?

Vertex
2003-05-13, 16:06:34
Quasar meinte dazu:

Originally posted by Quasar Vielleicht wird da der 2ns-RAM benutzt, der auch bei einem Review-Sample einer Powercolor Radeon9800p eingesetzt wurde.
Das würde die Übertaktung auf 500MHz realen Speichertakt sicher erklären. Kann schon sein, dass einige Review- Samples mit 2ns- RAM rausgegangen sind.

Aber was is mit dem Chiptakt???

Richthofen
2003-05-13, 17:16:04
Originally posted by Tarkin


1. Ich sagte ja: Alles kommt darauf an, wann die neuen FXn erhältlich sein werden... Das kann auch noch bis Juli oder August dauern. Wenns dann soweit ist, wird ATi mit dem r360 auftrumpfen.

2. Glaube ich nicht, dass Nvidia den Takt erhöhen wird (kann). Bei 500Mhz Core wäre wohl wieder ein Dustbuster notwendig.



3. Wer das Spiel mit den schrittweisen Takterhöhungen gewinnt, steht in den Sternen. Ich vermute mal, dass Ati es nicht wagen wird die r360 zu releasen, wenn diese langsamer, bzw. "nur" gleich schnell sein sollte als nVidias nv35.

4. Die Sache mit den Doom III benchmarks ist ohne Zweifel ein schwerer Schlag für ATi (sie wurden sozusagen mit runtergelassenen Hosen erwischt. Aber Doom 3 ist noch nicht erhältlich, und die ATi Treiber wurden mit sicherheit noch nicht auf Doom 3 optimiert. Warum auch für ein Spiel optimieren, dass noch min. 6 Monate auf sich warten läßt) ... außerdem hat ATi mit Half-Life 2 auch nicht gerade gekleckert ;-) ...und das stand auch in den allen "Finanz-News": http://biz.yahoo.com/bw/030509/95476_1.html
zu 1) ja bleib anzuwarten. Borsti sagt, wenn alles glatt läuft noch Ende Juni

zu2) der Dustbuster ist nur fürs DDR II Notwendig in Kombination mit der Abwärme des NV30. Der 35 ist thermal überarbeitet und DDR II ist auch nicht drauf. Einige Webseiten haben das Teil OCed und 500 MHZ sind drinn mit der vorhandenen Kühlung. Wenn sie also selektieren, packen sie auch über 500 MHZ ohne extra Kühlung. Sollte ATI hochfrequenten DDR II nutzen wollen werden sie auch eine fette Kühlung benötigen. Der 0.15 wird nicht mehr viel besser, der 0.13 schon noch. Von daher wird Nvidia hier den längeren Atem haben. Da sind die Ausgangsbedingungen einfach besser.

zu 3) da gibts nichts zu gewinnen. Ich bin der Meinung, dass ATI sich damit nur verzettelt und aufreibt. Sie können einfach nix gewinnen dabei. Ihr Marktanteil ist bei hoffnungsloser Überlegenheit nicht gestiegen. Da wird nichts passieren. Sie sollten besser sich auf die anderen Segmente vor allem Low End kümmern und um die Treiber. Im Low End haben sie sehr viel Nachholfbedarf. Ich weiss nicht ob sie es sich leissten wollen, dass in ein paar Monaten 70% der DX9 Basis aus der CineFX Engine bestehen. Um die 5200 müssen sie sich Gedanken machen.

zu4) viel Optimieren können sie nicht, da ihre Architektur unter ARB2 bereits optimal läuft. Nvidia hat seinen Chips auf der Hardware Seite mehr mitgegeben um besser mit den modernen Spielen zu Recht zu kommen. Doom3 wird Nvidia zumindest beim Duell R3xx NV3xx dominieren. Letztlich hat das J.C schon gesagt bevor der NV30 auch nur annähernd sichtbar wurde. Und das bewahrheitet sich. Ich beziehe mich dabei nicht auf die 10fps bei Hardocp. Das ist ein Treiberbug. Aber auch andere haben gebencht (Tom und Anand) und auch dort liegt Nvidia klar vorn bei Doom3.

duckofdeath
2003-05-13, 19:00:04
wenn es den rv360 wirklich gibt dann könnte der genau die antwort auf den fx 5200 sein

nagus
2003-05-13, 19:20:06
Originally posted by Richthofen


Also wenn ich jetzt zurückrechne, dass der NV35 im Januar sein Tape-Out hatte und man seit Ende Januar bereits mit First Sillicon produziert und wir nun Anfang Mai haben, dann wird es noch ne ganze Weile bis zum R360 dauern.
Und Nvidia wird die Schrauben auch nochmal anziehen können, allerdings wohl ohne neues Tape-Out. Der NV35 ist gut genug um 500 MHZ Core mitzumachen.

Mein Eindruck ist, ATI sollte sich lieber auf die wichtigen Dinge Ende 2003 und vor allem auf die Treiber konzentrieren. Die Doom3 Story ist heute auf jeder Webseite sogar den Finanzseiten. Das ist in meinen Augen für ATI Schlimmer als das nun der NV35 den R350 abgelöst hat als bestes High End Produkt.
Das Spiel mit den schrittweisen Takterhöhungen können sie nicht gewinnen. Ich finde da verschwenden die nur sinnlos Ressourcen. Ende 2003 wird schwer genug werden zumindestmal was das Marketing betrifft. Da wird sich eine ziemlich grosse Lücke auftun.

da bin ich absolut deiner meinung. ATI sollte schleunigst etwas gegen diese "bad-press" unternehmen. egal ob die doom3 benchmarks jetzt aussagekräftig sind oder nicht.

auf jeder kack-seite steht jetzt, dass nvidia ATI bei doom3 haushoch schlägt, was natürlich absoluter schwachsinn ist. vielleicht das die NV35 mit dem optimierten renderpfad 10 oder 20% schneller ist, aber sicher nicht 300%!

was ich auch äußertst "witzig" finde... auf der letzten E3 lief Doom3 einwandfrei auf einem alpha-board mit alpha treibern von ati.... und jetzt solls pltötzlich nicht mehr laufen????

jedenfalls hat Nvidia und Id-software bei mir entgültig "ausgeschissen" wie man bei uns so schön sagt. solche machenschaften und klimmzüge sind unfair. noch dazu da ATI von diesem vergleichstest nix gewußt hatt bzw. nicht gefragt wurde.

... und JC sollte mal ernsthaft überlegen was ihm das bringt dass er bei diesem "spiel" von nvidia mitmacht... , außer der hass aller radeon besitzer.

Birdman
2003-05-13, 19:28:21
Originally posted by nagus
jedenfalls hat Nvidia und Id-software bei mir entgültig "ausgeschissen" wie man bei uns so schön sagt. solche machenschaften und klimmzüge sind unfair. noch dazu da ATI von diesem vergleichstest nix gewußt hatt bzw. nicht gefragt wurde.

na ja, wenn man der Meinung ist, dass man Alphas einfach so mal leaken kann, muss man halt mit solchen "Massnahmen" rechnen.
ATi hat sich da selbst verschissen, da habe ich absolut kein Mitlied. (Wie kann man überhaupt mitleid mit einem manufacturer haben?)

Unregistered
2003-05-13, 19:30:51
Originally posted by Demirug


ja warum man bei 350 MHz da plötzlich DDR-II Speicher verbaut habe ich auch nicht verstanden. Das macht wirklich 0 Sinn.


Vielleicht war nix anderes zu bekommen. NV kauft doch wie die Irren Speicher ohne ende.

nagus
2003-05-13, 19:48:26
Originally posted by Birdman

na ja, wenn man der Meinung ist, dass man Alphas einfach so mal leaken kann, muss man halt mit solchen "Massnahmen" rechnen.
ATi hat sich da selbst verschissen, da habe ich absolut kein Mitlied. (Wie kann man überhaupt mitleid mit einem manufacturer haben?)


*hüstl* ... das JC es jetzt ATI heimzahlen will glaub ich kaum. und WENN, wär er tatsächlich noch dämlicher als ich bisher vermutet haben... NUR weil EIN ATI mitarbeiter *vielleicht* verantwortlich für diesen leak war will er dem gesamten unternehmen schaden????

Pirx
2003-05-13, 19:51:38
Ob nicht ein Großteil des Vorteils (außer D3) des NV35 (kommt ja meist erst bei hohen Auflösungen+AAzum tragen) vom hohen Speichertakt kommt?
Hier könnte ATi leicht nachziehen, natürlich fehlt etwas Füllrate. (würde mich direkt mal interessieren: 5900Ultra vs R9800pro bei gleichem Speichertakt)

nagus
2003-05-13, 19:54:41
falls es noch niemand gepostet hat: ATi´s statement ... http://biz.yahoo.com/rc/030512/tech_graphics_1.html

egdusp
2003-05-13, 20:15:41
Originally posted by nagus
falls es noch niemand gepostet hat: ATi´s statement ... http://biz.yahoo.com/rc/030512/tech_graphics_1.html

Nun, so richtig überzeugend hört sich das ja nicht an. Es hört sich eher so an, als ob ATI die Doom3 Benchmarks als irrelevant hinstellen will, da sich noch viel dran ändern kann. JC hat aber gesagt, dass die Engine praktisch fertig ist.

Jedenfalls ist jetzt klar, dass ATI ein "product update" bringen wird, was höchstwahrscheinlich ein höher getakteter R350 sein wird, der laut TI immer noch in .15 gefertigt wird.
IMHO gibt ATI jetzt neuen Respins eigene Codenamen, was durchaus in der Presse und im Internet zu den erhofften Wirkungen (=Aufmerksamkeit) führt.
Sie haben ja schon vor einiger Zeit angekündigt, dass sich die GPUs eher wie die CPUs entwicklen werden, also öfter neue höher getaktete Respins.

Ich glaube aber nicht, dass ATI nur durch neue Treiber noch den Rückstand des R350 zum 5900 aufholt.

mfg
egdusp

Unregistered
2003-05-13, 21:20:31
Erst der große Hype und dann die GROSSE Entäuschung. Wenn es so wird, dann wäre das ja ein richtige Schenkelklopfer und ich würd mich biegen vor Lachen :) Hat eigentlich jemand von euch schon Doom3 aus der Sicht von gemachten Unreal2-Erfahrungen in die Rechnung aufgenommen?!

Unreal2?
Aber selbstverständlich ist das absolut undenkbar für Doom3.
Was JC macht wird immer gut. Nur ist es eben nicht JC persönlich, sondern die ID Level-Designer, die für die Spannung und Story verantwortlich sind. Wir werden es ja sehen...

Crushinator
2003-05-13, 23:52:42
Originally posted by nagus ... und JC sollte mal ernsthaft überlegen was ihm das bringt dass er bei diesem "spiel" von nvidia mitmacht... , außer der hass aller radeon besitzer. Nun beruhig' Dich erstmal. JC wird auf gar keinen Fall so dämlich sein, sich auf ein Spiel eingelassen zu haben. Ich bin mir ziemlich sicher, daß es demnächst ein klarstellendes Statement von ihm geben wird. Sollte jedoch trotzdem so eine Unprofessionalität von JC gegeben haben, wird er's früher oder später mit niedrigeren Verkaufszahlen zurückbezahlt bekommen. Ich gehe jedenfalls erstmal vom postiven Sinne aus.

Crushinator
2003-05-14, 00:06:57
Originally posted by Unregistered Vielleicht war nix anderes zu bekommen. NV kauft doch wie die Irren Speicher ohne ende. Erstens würde es kein Speicherhersteller der Welt bevorzugen, nur einen Kunden zu beliefern und zweitens frage ich mich, wieso nVidia soviel DDR2 gekauft haben sollte, wo sie den NV35 doch nur mit DDR1 bestücken. Ganz zu schweigen davon, daß die NV30 "schon längst" aus der Produktpalette verschwunden sind. Ergo gehe ich davon aus, daß sie die Karte nur so günstig wie nur möglich produzieren wollten. Das könnte sich in gute Margen niederschlagen zumal die Karte nun wirklich nicht viiiiiel langsamer als die der Konkurrenz zu sein scheint.

Ailuros
2003-05-14, 04:47:05
...unter 8x Quality AF! (Was bekanntermassen qualitativ besser ist als ATI´s Variante.)

AMC

Aliasing schlaegt bei mir mehr in´s Auge, als Winkel-abhaengige Texturfilterung. Mir wird´s schon uebel wenn ich aliasing in einem Film sehe.

Ausser wenn man in einem Flight Simulator eine Aussenkamera benutzt und das Flugzeug oft zu Seiten "bankt", ist es schwer einen Unterschied in den meisten Spielen zu sehen.

Es geht hier um eine höher getaktete R350 Version. Natürlich kann ATI auf 0.13 setzen und das werden sie auch machen aber eben erst im Spätherbst.

a) Ausser dem breiteren Bus, was genau ist der NV35 im Vergleich zum NV30? R3xx hatte einen 256-bittigen bus von Anfang an, da muss man auch weniger "korrigieren".

b) Na und? Wann kommt Doom3 denn auf den Markt? Denn ausser dem demo (ich komm nochmal zu dem zurueck) von einem noch nicht veroeffentlichten Spiel, sehe ich keinen extravaganten Vorsprung.

Nvidia hat jetzt die Krone inne und würde sofort reagieren und das selbe machen.

Komischerweise hat sich fast nichts in unmittelbar brauchbaren IQ features von NV30 geaendert, nur dass NV35 schneller ist, und schon wird eine imaginative "Krone" wieder propagandiert, und ueberhaupt von NV fans die bisher aeusserst still ueber NV30 waren (nein ich mein nicht die Forum-Teilnehmer hier).

ATI hat da irgendwie nix zu gewinnen, von daher sollten sie sich eher auf die wichtigen Dinge konzentrieren. Ich sehe auch noch nicht das ATI im Frühjahr 2004 mit PS und VS3.0 dasteht.

Das mit dem Shader3.0 Quatsch ist ja sowieso nur fuer die Entwickler interessant, aber Du hattest schon recht dass es IHVs voll auspielen werden. Und ich benutze mit Absicht Mehrzahl fuer IHVs, da NV nicht alleine damit sein wird auf dem Markt. Ich will trotzdem nichts ausschliessen fuer ATI bis ich mir sicher bin. "Glaubwuerdige Quellen" raten oefters genauso viel wie jeder andere oder schreiben ihre Spekulationen in bestimmter Orakel-Form dass mehrere als eine Moeglichkeiten darauf antreffen koennen.

Und bitte nicht immer die Rosinen rauspicken. Wir wissen alle das RG besser ist als OG. Aber genauso wissen wir auch das winkelunabhängiges AF besser ist als winkelabhängiges. Kannst dir ja bei xbitlabs anschaun.

Danke; siehe Anfang dieses Posts. Der "application"- Verschmier-moechtegernAnisotropic modus auf NV30/NV35 ist um einige Mal schlimmer. Wenn ich eine Anfrage stelle in wievielen Situationen in meisten Spielen auf 22 und 67 Grad Winkel rotieren, dann sind die "Rosinen" um etliche Male weniger als die AA Unterschiede zwischen einer ordered grid und sparsely sampled Methode.

Ich kann mir beide AA/AF Alternativen in real time anschauen, da brauch ich xbitlabs erst gar nicht dazu.

IQ ist bei beiden eher gleich nur die Performance beim NV35 deutlich besser. Von der allgemeinen Kompatibilität ganz zu schweigen. Die ist bei Nvidia sowieso besser. Insofern kann sich jetzt jeder seine Rosinen picken wie er will. Bottom line bleibt das ATI momentan 2. ist.

ROFL zum letzten Satz. Ich hab keinerlei Interesse im einen oder anderen IHV, ganz zu schweigen persoenlichen Gewinn wehr von den beiden mehr Kohle macht oder wer vorne oder weiter hinten liegt. Im Endeffekt handelt es sich nur um dummes Silizium, nicht mehr und nicht weniger.

Die Argumente sind immer gleich durch die Jahre, nur wenig aendert sich da; nur leider hab ich persoenlich genauso viel "Glueck" oder "Pech" mit allerlei Produkten.

Problem ist dass ich das kritisieren werde was mir persoenlich nicht gefaellt und dabei ist es mir schnuppe ob es die betreffende Firma mag oder nicht. NVIDIA haette nach all der Kritik von mehreren Seiten den AA Algorithmus erneuern sollen, dann haette ich wirklich wenig Grund zum meckern.

Was Kompatibilitaet betrifft, ich versuch immer noch einen anstaendigen Treiber >42xx zu finden, der wirklich problemlos in allen Situationen laeuft; um ehrlich zu sein ist das kein Grund um mich zu beschweren da ich mit dem zeitigen Treiber keine Probleme habe.

Mein Eindruck ist, ATI sollte sich lieber auf die wichtigen Dinge Ende 2003 und vor allem auf die Treiber konzentrieren. Die Doom3 Story ist heute auf jeder Webseite sogar den Finanzseiten. Das ist in meinen Augen für ATI Schlimmer als das nun der NV35 den R350 abgelöst hat als bestes High End Produkt.
Das Spiel mit den schrittweisen Takterhöhungen können sie nicht gewinnen. Ich finde da verschwenden die nur sinnlos Ressourcen. Ende 2003 wird schwer genug werden zumindestmal was das Marketing betrifft. Da wird sich eine ziemlich grosse Lücke auftun.

Mit den Doom3 Prophezeiungen wuerde ich persoenlich ein bisschen vorsichtiger sein, ueberhaupt wenn es sich um ein demo handelt dass ATI bis jetzt noch nicht in die Finger bekam, und es sich trotz allem um ein noch nicht veroeffentlichtes Spiel handelt.

Ich hab nicht allzu grosse Zweifel dass NV3x einen Vorteil bei D3 haben werden, aber nicht um das Prozentual wie die letzten Tests zeigen.

"We have been planning to put together a proper pre-release of Doom for benchmarking purposes, but we have just been too busy with actual game completion. The executable and data that is being shown was effectively lifted at a random point in the development process, and shows some obvious issues with playback, but we believe it to be a fair and unbiased data point. We would prefer to show something that carefully highlights the best visual aspects of our work, but we recognize the importance of providing a benchmark for comparison purposes at this time, so we are allowing it to be used for this particular set of tests. We were not happy with the demo that Nvidia prepared, so we recorded a new one while they were here today. This is an important point -- while I'm sure Nvidia did extensive testing, and knew that their card was going to come out comfortably ahead with the demo they prepared, right now, they don't actually know if the demo that we recorded for them puts them in the best light. Rather nervy of them, actually.

The Nvidia card will be fastest with "r_renderer nv30", while the ATI will be a tiny bit faster in the "r_renderer R200" mode instead of the "r_renderer ARB2" mode that it defaults to (which gives some minor quality improvements). The "gfxinfo" command will dump relevant information about the functioning renderer modes and optimizations. At some point, after we have documented all of the options and provided multiple datasets, Doom is going to be an excellent benchmarking tool, but for now you can still make some rough assessments with it."

http://www.anandtech.com/video/showdoc.html?i=1821&p=21

reunion
2003-06-09, 14:06:55
[QUOTE][SIZE=1]Original geschrieben von Richthofen
zu2) der Dustbuster ist nur fürs DDR II Notwendig in Kombination mit der Abwärme des NV30. Der 35 ist thermal überarbeitet und DDR II ist auch nicht drauf. Einige Webseiten haben das Teil OCed und 500 MHZ sind drinn mit der vorhandenen Kühlung. Wenn sie also selektieren, packen sie auch über 500 MHZ ohne extra Kühlung. Sollte ATI hochfrequenten DDR II nutzen wollen werden sie auch eine fette Kühlung benötigen. Der 0.15 wird nicht mehr viel besser, der 0.13 schon noch. Von daher wird Nvidia hier den längeren Atem haben. Da sind die Ausgangsbedingungen einfach besser.

Wach auf!
Wenn wirklich 500 mhz "drin wären" hätte mann auch 500 mhz genommen.
Einige Webseiten haben auch den r9800pro OCed und 420-430 mhz waren drin mit verhandener Kühlung. Warum hat ATI dann nicht gleich diese 420-430 mhz genommen ???

Siehst du was ich meine ???
Nur weil ein paar ausgewählte Testsamples so hoch geh heißt das noch lange nicht das auch eine ausreichende Zahl aller(!) Chips diese 500mhz schafft

mfg

reu

Winter[Raven]
2003-06-09, 14:19:00
Wach auf!
Wenn wirklich 500 mhz "drin wären" hätte mann auch 500 mhz genommen.

hhmmm ... hört sich für mich nach einem super Schachzug. Bringt Ati eine die Karte die sie im Herbst vorstellen wollen die Schneller als die NV35 ist, ist es für Nvidia leicht ein draufzulegen ... da können die wider drauf Pushen das die so doll und cool ist ... so wäre sie trotzdem auch bis zum NV40 die Sieger was die Performance angeht.

Sunrise
2003-06-09, 15:31:07
- Somewhat OFF-Topic

NVIDIA: "Guten Tag Herr Carmack, wir sind gerade dabei, unserem NV35 den letzten Schliff zu verpassen, brauchen aber noch etwas Feedback. Wir wären sehr erfreut, wenn sie sich die Zeit nehmen, und uns Tips bezüglich einer Optimierung auf Doom3 geben könnten"

Carmack: "Kein Thema, ich habe die Engine bereits fertig, ich warte gespannt auf ein Sample, und werde ihnen dann mitteilen, was sich mit ihrem neuen Chip bzgl. einer Optimierung auf Doom3 anfangen lässt.

-> Shadow Buffer

Gerüchte, das Carmack GEGEN ATI spielt halte ich nicht für wahr, was hätte er davon ? Hass, weil ATI die Doom3-Alpha geleaked hat ? Macht keinen Sinn.

Carmack hat Spaß am programmieren, und an Hardware, zzgl. einem Fable für NVIDIA, da sie wohl öfter schon ein offenes Ohr für ihn hatten.
Das ist absolut nachvollziehbar, aber gleich irgendwelche Verschwöhrungstheorien in den Raum zu werfen, finde ich etwas daneben.

Wenn ATI relativ kurz vor der Fertigstellung neuer Hardware wäre, würde er sicherlich auch (wenn ATI das will, und ihn nett fragt) diese testen, und ihnen Tips geben. Doom3 ist SEIN Baby, und ich kann mir beim besten Willen nicht vorstellen, das er das irgendwie ablehnt.

- Zum Thema:

@Richthofen

Wenn wir einen Chip aus der Produktion von IBM sehen, dieser dann auch noch ein erweitertes Featureset inkl. Verbesserungen beim AA etc. beeinhaltet, und dieser zusätzlich auch noch schnell ist, dann bin ich deiner Meinung.

Ich habe aber bisher keine Grafikhardware mit dieser Komplexität von IBM gesehen, womit ich sagen will, das man auch hier skeptisch sein kann. IBM ist zwar ein "BIG-Player", aber zaubern können die auch nicht.
-

Was ATI gegen den NV35 macht ? Bisher ist der NV35 noch in keinem Ladengeschäft erhältlich, und bei dem geringen Leistungsunterschied, besteht meiner Meinung nach kein wirklicher Handlungsbedarf.

Sollte der NV40 rechtzeitig erscheinen, dann muß ATI allerdings etwas passendes haben, sonst (wir kennen NVIDIA) wendet sich das Blatt relativ schnell. Loci darf sich nicht verspäten, und man muß von der Roh-Performance schneller sein, da NVIDIA sicherlich wieder Features ausgräbt, die sich gut anhören, im Endeffekt aber wieder reines Marketing sind.

Richthofen
2003-06-09, 15:44:15
Original geschrieben von reunion
[QUOTE][SIZE=1]Original geschrieben von Richthofen
zu2)
Wach auf!
Wenn wirklich 500 mhz "drin wären" hätte mann auch 500 mhz genommen.
Einige Webseiten haben auch den r9800pro OCed und 420-430 mhz waren drin mit verhandener Kühlung. Warum hat ATI dann nicht gleich diese 420-430 mhz genommen ???

Siehst du was ich meine ???
Nur weil ein paar ausgewählte Testsamples so hoch geh heißt das noch lange nicht das auch eine ausreichende Zahl aller(!) Chips diese 500mhz schafft

mfg

reu

Es zeigt sehr wohl das Potential und ich zweifel ehrlich gesagt nicht daran, dass Nvidia in der Lage sein wird nochmal höher zu takten. Zieh dir mal die User Bereichte rein von Leuten die eine NV30 FX5800 normal gekauft haben. Diese Karten haben keinen Dustbuster und so gut wie jeder schaffte mehr als 500 Core / 1000 DDR.
Was ATI kann, kann NV auch und da würde ich sagen ist beim 0.13 mit steigender Laufzeit mehr Luft als beim 0.15.
Und wenn man so einige Spezies in den entsprechenden Foren hört, dann ist eine FX5900 Ultra + nochmal MegaUltra Variante in Arbeit.
Vielleicht kommen sie ohne Respin aus, vielleicht aber auch nicht. Wenn sie eins benötigen, dann ist das schon längst in Arbeit.

Meine Vermutung:
Dauert es nach dem R360 Launch noch bis zum NV40, weil das Debuggen etc.. länger dauert und mehr Respins gebraucht werden, dann gibts es kurzerhand eine höher getaktete NV35 Version, die man Vorsorge halber schonmal in Arbeit hat. Ist das Zeitfenster zwischen R360 und NV40 eher gering, wird man davon absehen und gleich den NV40 bringen.

Momentan können sie erstmal abwarten was ATI macht. Jetzt liegt halt NV wieder vorn.

mapel110
2003-06-09, 16:30:12
wenn sie jetzt aber schon ihr pulver verschiessen, was rohpower angeht, bleibt ja für den nv40 nichts mehr.

der r300 ist bei gleicher taktfrequenz effizienter als der nv35.

Keel
2003-06-09, 16:51:44
Original geschrieben von nagus
da bin ich absolut deiner meinung. ATI sollte schleunigst etwas gegen diese "bad-press" unternehmen. egal ob die doom3 benchmarks jetzt aussagekräftig sind oder nicht.

auf jeder kack-seite steht jetzt, dass nvidia ATI bei doom3 haushoch schlägt, was natürlich absoluter schwachsinn ist. vielleicht das die NV35 mit dem optimierten renderpfad 10 oder 20% schneller ist, aber sicher nicht 300%!

was ich auch äußertst "witzig" finde... auf der letzten E3 lief Doom3 einwandfrei auf einem alpha-board mit alpha treibern von ati.... und jetzt solls pltötzlich nicht mehr laufen????

jedenfalls hat Nvidia und Id-software bei mir entgültig "ausgeschissen" wie man bei uns so schön sagt. solche machenschaften und klimmzüge sind unfair. noch dazu da ATI von diesem vergleichstest nix gewußt hatt bzw. nicht gefragt wurde.

... und JC sollte mal ernsthaft überlegen was ihm das bringt dass er bei diesem "spiel" von nvidia mitmacht... , außer der hass aller radeon besitzer.

1.) Sehe ich genauso. Die Alpha bleibt kaum aussagekräftig, gibt nur einen groben Ausblick. Aber eins ist Fakt: das ist schlechte PR für ATI. Und ob es uns nun gefällt oder nicht, ATI MUSS da was machen.

2.) Finde ich auch lächerlich. Ob nun 5 FPS schneller oder langsamer, so wie es jetzt aussieht, wird die Performance schon "ausreichend" sein. Offensichtlich gibt es hier keine großen Unterscheide zwischen NV und ATI, daher kann man hier auch kaum von einem haushohen Sieg sprechen.

3.) Ach dem 10 FPS-Bug würde ich jetzt nicht so eine hohe Bedeutung beimessen, letztes Mal wusste ATI ja von einer Vorführung und konnte sich deshalb vorbereiten. Diesmal hatte NV den Vorteil: sie wussten von einem Test, haben ihn selbst gemacht und waren entsprechend vorbereitet. ATI war in diesem Moment wohl in einer sehr unglücklichen Lage, das sollten die jedoch gebacken bekommen.
Noch etwas: ATI sollte möglichst bald etwas tun, denn ATI muss schon vor dem Verkauf von Doom 3 akzeptable Ergebnisse liefern, nicht erst, wenn das Spiel draußen ist. Zwar würdest du vielleicht nicht deine neue GraKa an den Werten in D3 festmachen, aber viele werden das tun. Bei mir wird im 4. Quartal eine neue GraKa fällig, die D3 Werte werden da zwar nicht alleinig ausschlaggebend sein, aber dennoch von ziemlich hoher Bedeutung.

4.) Was ist schon fair?
Wenn JC zwischen NV und ATI wählen müsste (nur mal angenommen), würde er sich wohl ziemlich sicher für NV entscheiden, allein schon wegen des wesentlich höheren Marktanteils. Aber das wird er bestimmt nicht machen, denn er würde sich so um eine Menge potentielle Kunden bringen, daher würde ich mir da keine Sorgen machen.

Richthofen
2003-06-09, 18:22:57
Original geschrieben von mapel110
wenn sie jetzt aber schon ihr pulver verschiessen, was rohpower angeht, bleibt ja für den nv40 nichts mehr.

der r300 ist bei gleicher taktfrequenz effizienter als der nv35.

Warum sollten sie alles verschiessen? Versteh ich nicht.
Der NV40 wird schnell genug sein sich auch vom höher getakteten NV35 klar abzusetzen. Soviel wird Nvidia den NV35 auch nicht erhöhen müssen im Takt, weil ATI wahrscheinlich selber auch beim R360 nicht grad bahnbrechende Rekorde bieten wird.

Wenn es zwischen R360 und NV40 noch bisselr dauert ist für Nvidia kein Grund da, nicht einfach nochmal ne schnellere NV35 Variante nachzulegen. 0.13 wird sich mit steigender Laufzeit verbessern und ein kleines Respin oben drauf und schon haben sie ihre 50 bis 100 MHZ mehr rausgeholt. Mehr RAM brauchen sie nicht. Bandbreite ist genug vorhanden, was die OC Tests belegen.

reunion
2003-06-09, 19:25:31
Original geschrieben von Richthofen
Es zeigt sehr wohl das Potential und ich zweifel ehrlich gesagt nicht daran, dass Nvidia in der Lage sein wird nochmal höher zu takten. Zieh dir mal die User Bereichte rein von Leuten die eine NV30 FX5800 normal gekauft haben. Diese Karten haben keinen Dustbuster und so gut wie jeder schaffte mehr als 500 Core / 1000 DDR.

Das lustige daran ist ja das die meisten 5800 ultra nur knapp über 500 gehn während mit den non ultra 550+ drin sind ??? Da stellt sich die Frage welche Kühlung besser ist. Die normale oder die FX-flow :)

Was ATI kann, kann NV auch und da würde ich sagen ist beim 0.13 mit steigender Laufzeit mehr Luft als beim 0.15.
Und wenn man so einige Spezies in den entsprechenden Foren hört, dann ist eine FX5900 Ultra + nochmal MegaUltra Variante in Arbeit.
Vielleicht kommen sie ohne Respin aus, vielleicht aber auch nicht. Wenn sie eins benötigen, dann ist das schon längst in Arbeit.

Ohne neuem Tape-Out geht da sicher nicht (persöhnliche Meinung). Denn die meisten 5900ultra geht bei ca. 500mhz die puste aus. Was anderes wäre es freilich wenn so wie bei der 9600pro man um 100-150mhz hochgehn könnte (was ja nicht der fall ist).

Meine Vermutung:
Dauert es nach dem R360 Launch noch bis zum NV40, weil das Debuggen etc.. länger dauert und mehr Respins gebraucht werden, dann gibts es kurzerhand eine höher getaktete NV35 Version, die man Vorsorge halber schonmal in Arbeit hat. Ist das Zeitfenster zwischen R360 und NV40 eher gering, wird man davon absehen und gleich den NV40 bringen.

Ich glaube kaum das man einen Chip entwickelt der nur dann kommt wenn sich der nachfolgende verschiebt.

Momentan können sie erstmal abwarten was ATI macht. Jetzt liegt halt NV wieder vorn.

Was bis zum R500 vermutlich nicht viel sein wird :)

Mr. Lolman
2003-06-09, 19:31:40
Warum alle gegen die Doom3 Benches wettern? Die wurden doch nur auf medium Quality gemacht. Auf Highquality (ohne TC, mit AF) sind die Karten sowieso wieder gleichauf (oder ATi ist geringfügig schneller)

Nochwas zu den Botmatch benches. Hier sieht man, das die NV Karte bei 4xAA, 8xAF leicht vorne ist. Seltsam, denn bei wirklich vergleichbaren Settings und dem '3d Center Pyramid Demo'(-> Benchmark Forum) ist eine R300(@400/350MHz) ca. 87% schneller (37.1 vs. 19.8 fps) als eine NV30(@400/400). Eine R300(@275/270) ist immerhin noch um 64% schneller. Ob die NV35 (deren wundersamer AA/AF Vorsprung ggü. der NV30 mir immernoch unerklärlich ist) diese 64% aufholt kann ich mir auch nicht vorstellen.

Soviel zur Aussagekraft div. Standardbenchmarks.

seahawk
2003-06-09, 19:32:46
Der R500 komt Ende 2004, das muss sich NV keine Gedanken machen.

PS. Sollte der NV35 auf 500 Mhz gehen (imo bei Verbesserung des Prozesses ohne Respin möglich) reicht das wahrscheinlich um die Zeit bis zum NV40 zu überbrücken.

reunion
2003-06-09, 19:40:48
Original geschrieben von Mr. Lolman
Warum alle gegen die Doom3 Benches wettern? Die wurden doch nur auf medium Quality gemacht. Auf Highquality (ohne TC, mit AF) sind die Karten sowieso wieder gleichauf (oder ATi ist geringfügig schneller)

??? Link ???

Richthofen
2003-06-09, 19:41:56
Original geschrieben von reunion
Was anderes wäre es freilich wenn so wie bei der 9600pro man um 100-150mhz hochgehn könnte (was ja nicht der fall ist).

Das hat sich auch schon wieder beruhigt. Da waren einige recht fleissig beim Auswählen der Test Samples :)


Ich glaube kaum das man einen Chip entwickelt der nur dann kommt wenn sich der nachfolgende verschiebt.

Den Respin macht man nebenbei. Dafür muss ja kein komplett neuer Chip entwickelt werden. Das sind eher Designoptimimierungen im kleinen Rahmen.
Wenn das Zeitfenster nicht gross genug ist, dann wird man das Respin für die vorhandenen FX5900 Karten nutzen, weil der yield besser ist.
Man würde dann aber keine extra schnellere Variante mehr launchen. Lohnt sich nicht oder wenn, dann eher leise und zwar so, dass die Kartenhersteller 5900 Ultra Karten mit mehr Takt bringen und dort freihe Hand haben und mit den Chips versorgt werden.

Richthofen
2003-06-09, 19:43:58
Original geschrieben von Mr. Lolman
Warum alle gegen die Doom3 Benches wettern? Die wurden doch nur auf medium Quality gemacht. Auf Highquality (ohne TC, mit AF) sind die Karten sowieso wieder gleichauf (oder ATi ist geringfügig schneller)

Nochwas zu den Botmatch benches. Hier sieht man, das die NV Karte bei 4xAA, 8xAF leicht vorne ist. Seltsam, denn bei wirklich vergleichbaren Settings und dem '3d Center Pyramid Demo'(-> Benchmark Forum) ist eine R300(@400/350MHz) ca. 87% schneller (37.1 vs. 19.8 fps) als eine NV30(@400/400). Eine R300(@275/270) ist immerhin noch um 64% schneller. Ob die NV35 (deren wundersamer AA/AF Vorsprung ggü. der NV30 mir immernoch unerklärlich ist) diese 64% aufholt kann ich mir auch nicht vorstellen.

Soviel zur Aussagekraft div. Standardbenchmarks.

HQ ist AF und Texturkompression aus und nicht mehr, und das ist nicht vergleichbar.
Medium Quality bietet bereits full Doom3 Details nur eben kein AA, AF etc..
Und da ist der NV35 besser und das wird auch so bleiben weil die NV3x Linie hier eben Vorteile hat.
Kann doch nicht so schwer sein das einzusehen. J.C hat nichts anderes gesagt lange bevor der NV30 gelauncht wurde, und der wird ja seine eigene Engine wohl kennen.
Doom3 dürfte für ATI lost Ground sein :)

reunion
2003-06-09, 19:46:25
Original geschrieben von Richthofen
HQ ist AF und Texturkompression aus und nicht mehr, und das ist nicht vergleichbar.
Medium Quality bietet bereits full Doom3 Details nur eben kein AA, AF etc..
Und da ist der NV35 besser und das wird auch so bleiben weil die NV3x Linie hier eben Vorteile hat.
Kann doch nicht so schwer sein das einzusehen. J.C hat nichts anderes gesagt lange bevor der NV30 gelauncht wurde, und der wird ja seine eigene Engine wohl kennen.
Doom3 dürfte für ATI lost Ground sein :)

Ich hätte mir gedacht das wäre nur ein Treiberbug ???

Razor
2003-06-09, 19:53:58
Original geschrieben von reunion
Ich hätte mir gedacht das wäre nur ein Treiberbug ???
Könnte mir vorstellen, dass Richthofen damit die generelle D3-'Tauglichkeit' meint... wenn also ATI nicht etwas ähnliches wie die Beschleunigung der Schatten-/Lichtberechnungen in Hardware wie beim NV35 macht (was ohne Patente zu verletzen wohl sehr schwierig werden dürfte), dann geht diese Engine Leistungsseitig eindeutig an nVidia.

Er meinte damit sicher nicht die miese Lesitung des Cat3.4...
:D

Razor

Richthofen
2003-06-09, 20:21:58
nein die meinte ich nicht. Weiss doch jeder das im Cat3.4 ein Bug war.
Ich meinte damit dass was Razor sagte.
Die Engine wird auf NV Karten besser laufen.
Ist ja nicht so, dass das nun was außergewöhnliches ist :)

Muh-sagt-die-Kuh
2003-06-09, 20:54:13
Original geschrieben von Richthofen
Die Engine wird auf NV Karten besser laufen.
Ist ja nicht so, dass das nun was außergewöhnliches ist :) Mal wieder Spekulation, NV Beweihräucherung und übelste Pauschaulisierung....kannst du auch was anderes? :eyes:

AlfredENeumann
2003-06-09, 20:59:37
Original geschrieben von Mr. Lolman
Warum alle gegen die Doom3 Benches wettern?


Dumm3 ist für mich genauso vergleichbar wie der Murks.

Richthofen
2003-06-09, 21:15:14
Original geschrieben von Muh-sagt-die-Kuh
Mal wieder Spekulation, NV Beweihräucherung und übelste Pauschaulisierung....kannst du auch was anderes? :eyes:

Ich halte mich an das was J.C vor Monaten gesagt hat und was die Benchies wenn auch ein wenig extrem bestätigt haben.

Insofern liegt die Beweislast das Gegenteil zu untermauern bei dir.

Crushinator
2003-06-09, 21:54:32
Original geschrieben von AlfredENeumann
Dumm3 ist für mich genauso vergleichbar wie der Murks. Seitdem ich die "etwas" längere HL2-Demo von der E3 gesehen habe, interessiert mich DumM 3 auch herzlich wenig. :respekt:

Richthofen
2003-06-09, 23:19:54
und wer sagt dir dass es bei HL2 anders ist?

Und letztlich wird die Doom3 Engine noch in sehr viel mehr Spielen landen als eben nur Doom3.

duckofdeath
2003-06-09, 23:45:24
laut inoffiziellen quellen soll ja der halflife 2 code auf ati hardware 10 mal schneller sein als auf nvidia hardware

Cenmocay
2003-06-09, 23:49:33
Was macht ATI gegen den NV35 - Insolvenz:jumping:

Warn Scherz

Die ATI Karten sind doch absolut gleichwertig - in aktuellen Games

Ab Doom3 wirds anders aussehen :glowface:

Crazy_Bon
2003-06-10, 00:08:50
Also ich finde die Diskussion hier für etwas doof. Was ist schon dabei, wenn ATi´s bestes Schlachtschiff nicht die Nase vorne hat, die Unterschiede sind sehr marginal.
Aber ich finde das FSAA auf ATi sehr viel beeindruckender. :respekt:

Winter[Raven]
2003-06-10, 00:24:50
Aber ich finde das FSAA auf ATi sehr viel beeindruckender

Und ich Nvidias AF ;)

Muh-sagt-die-Kuh
2003-06-10, 00:30:24
Original geschrieben von Richthofen
Ich halte mich an das was J.C vor Monaten gesagt hat und was die Benchies wenn auch ein wenig extrem bestätigt haben.

Insofern liegt die Beweislast das Gegenteil zu untermauern bei dir. Das ist genau das, was ich meine....du sagst, die Engine wird auf jeder NV Karte besser laufen...was definitiv falsch ist.

Richthofen
2003-06-10, 00:32:04
Original geschrieben von duckofdeath
laut inoffiziellen quellen soll ja der halflife 2 code auf ati hardware 10 mal schneller sein als auf nvidia hardware

Laut inoffiziellen Quellen sollte Doom3 mal auf ATI entwickelt und optimiert sein. So zumindest hätten es meine lieben Leute bei rage3D am liebsten gesehen. Tja daraus ist irgendwie nix geworden und ehrlich gesagt glaube ich nicht so sehr an die story bzgl. HL2.
Warum solls hier anders sein als bei Doom3?
Etwa weil ATI noch immer nur 1/3 des bei Spielern relevanten Marktanteils von Nvidia hat :)
Macht wenig Sinn für Valve 30% optimal zu nutzen und die restlichen 63% nicht.

Crushinator
2003-06-10, 00:32:45
Original geschrieben von Richthofen
und wer sagt dir dass es bei HL2 anders ist? Die Präsentation auf der E3? =)
Und letztlich wird die Doom3 Engine noch in sehr viel mehr Spielen landen als eben nur Doom3. :wayne: Also, nochmal: Wenn irgendein Spiel auf meiner 97Pro oder auf meiner nächsten Radeon (erst ab R400) nicht ordentlich laufen sollte, werde ich mir eines der 3000 anderen (neuen) Games antun, die mit an Sicherheit grenzender Wahrscheinlichkeit vernünftig laufen würden. So einfach ist das. :flöt:

Richthofen
2003-06-10, 00:33:20
Original geschrieben von Muh-sagt-die-Kuh
Das ist genau das, was ich meine....du sagst, die Engine wird auf jeder NV Karte besser laufen...was definitiv falsch ist.

innerhalb der relevanten DX9 Erstgeneration scheint das ja mehr als zuzutreffen.

Richthofen
2003-06-10, 00:36:41
Original geschrieben von crushinator
Die Präsentation auf der E3? =)


Doom3 wurde auch mal großkotzig präsentiert... merkst du was?


:wayne: Also, nochmal: Wenn irgendein Spiel auf meiner 97Pro oder auf meiner nächsten Radeon (erst ab R400) nicht ordentlich laufen sollte, werde ich mir eines der 3000 anderen (neuen) Games antun, die mit an Sicherheit grenzender Wahrscheinlichkeit vernünftig laufen würden. So einfach ist das. :flöt:

Für dich ist es so einfach. Der Markt sieht sowas anders. Der bestraft in aller Regel knallhart den IHV bei dems nicht richtig läuft.
Der Markt sucht sich ja auch nicht die Applikationen raus, die auf AMD gut laufen sondern er bestraft ganz einfach AMD mit Nichtachtung, wenn viele Dinge bei Intel runder und besser laufen.
Insofern ist deine Haltung nicht relevant.

egdusp
2003-06-10, 00:59:35
Original geschrieben von Richthofen
Insofern ist deine Haltung nicht relevant.

Ich glaube, das trifft auf uns alle zu. Keine unserer Meinungen wird auch nur einen Transistor auf einem Grafikchip anders plazieren können (von der Chaos-Theorie mal abgesehen).

mfg
egdusp

Crushinator
2003-06-10, 01:05:10
Original geschrieben von Richthofen
Doom3 wurde auch mal großkotzig präsentiert... merkst du was? und? Die ganze Aufmerksamkeit galt aber HL2, und nicht DooM 3. Wobei ich letzteres hiermit nicht schlecht reden will, und falls es Dich interessiert: Ja, ich kenne nicht nur die DooM 3 Präsentation auf der E3.

/edit: Ich rede von der diesjährigen E3.
Für dich ist es so einfach. Der Markt sieht sowas anders. Der bestraft in aller Regel knallhart den IHV bei dems nicht richtig läuft. Ach ja, ich vergaß daß der Markt anscheind nur mit imaginären Produkten läuft. ;)
Der Markt sucht sich ja auch nicht die Applikationen raus, die auf AMD gut laufen sondern er bestraft ganz einfach AMD mit Nichtachtung, wenn viele Dinge bei Intel runder und besser laufen. Insofern ist deine Haltung nicht relevant. Wenn ich 1+2 zähle ergibt das, daß es keine DX9-Hardware von ATi gibt die nicht mind. 1,5 mal so schnell wäre wie die "geliebte" FX5200. Daher mache ich mir Null Sorgen darum, daß es in absehbarer Zeit nur ein einziges Spiel gäbe, was auf einer relevanten ATi-Karte schlechter liefe. :embara:

MadManniMan
2003-06-10, 05:01:33
tjo, der hype um die D3 benches ist mir ebenso ein rätsel.

da wird halt medium quality genommen. warum? hm, vielleicht um NV besser dastehen zu lassen. vielleicht, weil jemandem AF unsinnig erschien. ist ja auch egal, denn fakt ist: wenn man schon was bencht und sich auch für medium quality interessiert, gehört die betrachtung von HQ nicht beseite geschoben.

und das lustige an richthofens argumenten gegen den HQ von D3:
A) fehlende texturkompression sollte ein 256mb schlachtschiff vom schlage einer fx 5900 u nicht irritieren - warum also den vorteil dieser karte nicht damit zeigen? ...ui - sie zieht keinen daraus? hm, komisch. vielleicht sind ja unkomprimierte texturen ja gar kein problem?
B) das af der fx 5900 u soll ja sowas von toll sein - warum soll die karte diese stärke nicht in D3 HQ ausspielen dürfen?

...merkter was? ?-)


-> wer richthofens argumente also diskussionsgrundlage nimmt, sollte niemals vergessen, die allgemeingültigkeit derer kritisch zu beäugen...


/edit: zu punkt A) -> gerade in einem spiel, daß wirklich auf FP rendering ausgelegt ist und mit "simpler" 32/36 bit integer optik tatsächlich colorbandig produziert, sollte nicht texturkompression als BQ-bremse eingesetzt werden.

Muh-sagt-die-Kuh
2003-06-10, 08:36:08
Original geschrieben von Richthofen
innerhalb der relevanten DX9 Erstgeneration scheint das ja mehr als zuzutreffen. Wenn du die wahrscheinliche Diashow auf einer FX 5200 als zutreffend betrachtest...bitte...

Muh-sagt-die-Kuh
2003-06-10, 08:39:51
Original geschrieben von Richthofen
Etwa weil ATI noch immer nur 1/3 des bei Spielern relevanten Marktanteils von Nvidia hat :)
Macht wenig Sinn für Valve 30% optimal zu nutzen und die restlichen 63% nicht. Wieviel des Markanteils von NVidia besteht aus für HL² absolut unbrauchbaren Karten? ;)

ow
2003-06-10, 08:44:56
Original geschrieben von Muh-sagt-die-Kuh
Wieviel des Markanteils von NVidia besteht aus für HL² absolut unbrauchbaren Karten? ;)


Etwa 0%, da HL2 auf allem ab TNT laufen wird.

seahawk
2003-06-10, 09:11:26
Original geschrieben von duckofdeath
laut inoffiziellen quellen soll ja der halflife 2 code auf ati hardware 10 mal schneller sein als auf nvidia hardware


Sicher, TNT gegen Radeon 9800 pro *eg*

Fällt Dir das nicht selber auf, dass solche Aussagen unglaubwürdig sind ??

Sagen wir auf eine 5900Ultra hat HL2 im Schnitt 50 FPS - auf einer 9800pro dann 500 ?? :kratz:

ow
2003-06-10, 09:33:48
Original geschrieben von seahawk
Sicher, TNT gegen Radeon 9800 pro *eg*

Fällt Dir das nicht selber auf, dass solche Aussagen unglaubwürdig sind ??

Sagen wir auf eine 5900Ultra hat HL2 im Schnitt 50 FPS - auf einer 9800pro dann 500 ?? :kratz:


???

Diese Aussage stammmt von den HL2 Entwicklern.

ShadowXX
2003-06-10, 09:48:12
von seahawk :
Sicher, TNT gegen Radeon 9800 pro

Fällt Dir das nicht selber auf, dass solche Aussagen unglaubwürdig sind ??

Sagen wir auf eine 5900Ultra hat HL2 im Schnitt 50 FPS - auf einer 9800pro dann 500 ??

von OW:
Diese Aussage stammmt von den HL2 Entwicklern.


Die Aussage "läuft auch auf ner TNT" oder das 10x schneller;D

Das mit der TNT kann mal wohl nicht ganz ernst nehmen...wird vielleicht starten, aber sonst.....

@Richthofen:
Wo hat JC gesagt D3 läuft auf nv HW (ohne Tricks) definitiv viel schneller als auf ATI HW??
Soweit ich mich erinnere in diesem (oder ähnlichem) Wortlaut nie...
Aber....auch JC ist nur ein Mensch und Menschen haben Ihren Preis.
Wenn nv genug Geld bietet, wird JC schon eine Version von D3 herrausbringen die auf nv HW 20-50% schneller laufen wird.


J.S.Shadow

seahawk
2003-06-10, 09:59:31
Original geschrieben von ShadowXX
Die Aussage "läuft auch auf ner TNT" oder das 10x schneller;D

Das mit der TNT kann mal wohl nicht ganz ernst nehmen...wird vielleicht starten, aber sonst.....


Das mit dem 10x schneller = 10x schneller als ne TNT

Das mit der TNT ist wahr. Valve hat sich dafür entschieden um einen größeren Käuferkreis erreichen zu können. Daher glaube ich auch nicht, dass eine Bevorteilung von ATI Karten über kleinste optische Details hinausgeht. (wenn sie überhaupt existiert)

HL2 soll mit niedrigsten Details in 640x480 auf einer TNT laufen. Viele der CS / HL1 Spieler verfügen auch über keine bessere Hardware.
Diese Leute will Valve aber erreichen können.

ShadowXX
2003-06-10, 10:18:46
Habs ja gesagt....starten wird HL2 auf einer TNT.
Aber....sagen wir mal auf einer r350/nv35 so 30fps, auf einer TNT dann 3 ??
Ok, ok...dann runter mit der Auflösung und den Details....was haben wir: 10 fps.....

Es wurde schon oft von Entwicklern behauptet: läuft auch mit Karte X, aber wenn man es dann mal ausprobiert merkt man schnell das ausser dem Start des Games und einer Dia-Show nix wirklich läuft.....

Wobei ich mich gerne von Valve (positiv) überraschen lasse....


J.S.Shadow

ow
2003-06-10, 10:19:57
Original geschrieben von seahawk


Das mit der TNT ist wahr. Valve hat sich dafür entschieden um einen größeren Käuferkreis erreichen zu können. Daher glaube ich auch nicht, dass eine Bevorteilung von ATI Karten über kleinste optische Details hinausgeht. (wenn sie überhaupt existiert)

HL2 soll mit niedrigsten Details in 640x480 auf einer TNT laufen. Viele der CS / HL1 Spieler verfügen auch über keine bessere Hardware.
Diese Leute will Valve aber erreichen können.

Eben.
Als brauchbar kann man alles bezeichnen, was den Mindestanforderungen genuegt. Es muss keine Karte fuer 300E und mehr sein, um damit spielen zu koennen.

ow
2003-06-10, 10:21:14
Original geschrieben von ShadowXX
Habs ja gesagt....starten wird HL2 auf einer TNT.
Aber....sagen wir mal auf einer r350/nv35 so 30fps, auf einer TNT dann 3 ??
Ok, ok...dann runter mit der Auflösung und den Details....was haben wir: 10 fps.....

Es wurde schon oft von Entwicklern behauptet: läuft auch mit Karte X, aber wenn man es dann mal ausprobiert merkt man schnell das ausser dem Start des Games und einer Dia-Show nix wirklich läuft.....

Wobei ich mich gerne von Valve (positiv) überraschen lasse....


J.S.Shadow


HL2 wird nicht nur starten sondern sogar spielbar sein auf einer TNT.

ShadowXX
2003-06-10, 11:27:45
@ow:
dein Wort in Gottes Ohr.....

Lass uns, wenn HL2 erscheint, mal auf einer TNT benchen...mit halbwegs augenfreundlichen Einstellungen.

Wenn die Ergebnisse gut sind, verneige ich mich vor den Gfx-Programmierern von Valve und jage JC zum Teufel...;D

@ seahawk
ich glaube auch nicht das hl2 auf ner ATI besser aussieht, nur weil es auf der e3 auf ner ati lief......(wobei hat sich jemand mal den gfx-chip angeguckt auf der hl2 lief????.....war bestimmt nen nv (das war jetzt ironie....;D )

Aber ich glaube auch nicht das irgendwelche Games auf einer nv-HW besser aussehen werden....Es wird mehr darauf hinauslaufen, dass die eine Engine auf chip x besser läuft und dafür die andere Engine auf chip y......(rein Frameratentechnisch...)


J.S.Shadow

MadManniMan
2003-06-10, 11:32:00
Original geschrieben von ow
Eben.
Als brauchbar kann man alles bezeichnen, was den Mindestanforderungen genuegt.

einsprüch!

ich kann die definition nicht einfach so stehen lassen... brauchbar ist zumindest meines erachtens alles, was innert einer halbwegs hübsch-kompatiblen auflösung (also allermindestens 800*) noch erkennen läßt, was HQ++ auf den bildschirm zaubern könnte!

ow
2003-06-10, 11:35:46
@MMM

wer die neusten Titel immer mit max. HQ spielen will braucht auch immer die neuste und teuerste Karte. Darum geht's hier aber nicht.

btw. hab ich die UT2003 demo auf ner TNT gezockt, problemlos. 640x480x32, alle details auf normal oder low, durchgehend >20fps.

zeckensack
2003-06-10, 11:37:40
Original geschrieben von Crazy_Bon
Also ich finde die Diskussion hier für etwas doof.Etwas?
Dieser Thread ist uneingeschränkt blöd, eine Schande für alle Beteiligten :|

egdusp
2003-06-10, 11:54:41
Original geschrieben von zeckensack
Etwas?
Dieser Thread ist uneingeschränkt blöd, eine Schande für alle Beteiligten :|

Nein.

Du bist wahrscheinlich von den Technologieforumsthreads so verwöhnt :D, das hier ist normales Forumsniveau. Ich habe schon sehr viel beschämerende Threads gesehen.

mfg
egdusp

MadManniMan
2003-06-10, 11:58:33
Original geschrieben von ow
btw. hab ich die UT2003 demo auf ner TNT gezockt, problemlos. 640x480x32, alle details auf normal oder low, durchgehend >20fps.

was heißt >20 ? :freak2:

reunion
2003-06-10, 12:43:39
Original geschrieben von Richthofen
nein die meinte ich nicht. Weiss doch jeder das im Cat3.4 ein Bug war.
Ich meinte damit dass was Razor sagte.
Die Engine wird auf NV Karten besser laufen.
Ist ja nicht so, dass das nun was außergewöhnliches ist :)

Dann soll sie doch besser laufen...
Flüssig spielen werde ich auf meiner 9700pro trozdem können!
Genauso wie hl² sicher auf radeonkarten besser laufen wird.
Tatsache ich wenn JC sagt das man mit einer geforce 256 spielen wird können dann wird man das auch auf einer r3xx können!

mfg

reu

reunion
2003-06-10, 12:44:16
Original geschrieben von MadManniMan
was heißt >20 ? :freak2:

Über 20fps warscheindlich ???

Richthofen
2003-06-10, 13:30:20
Original geschrieben von reunion
Dann soll sie doch besser laufen...
Flüssig spielen werde ich auf meiner 9700pro trozdem können!
Genauso wie hl² sicher auf radeonkarten besser laufen wird.
Tatsache ich wenn JC sagt das man mit einer geforce 256 spielen wird können dann wird man das auch auf einer r3xx können!

mfg

reu
das habe ich auch nicht bestritten nur eben nicht so wie auf dem gleichwertigen NV Produkt und das macht dann im Gesamtmarkt schon was aus.

Mr. Lolman
2003-06-10, 15:01:41
Original geschrieben von Richthofen
das habe ich auch nicht bestritten nur eben nicht so wie auf dem gleichwertigen NV Produkt und das macht dann im Gesamtmarkt schon was aus.


Geh, das macht garnichts aus.
Es ist ja auch jedem hier ziemlich egal, dass eine 400/350 R300 beim Pyramiddemo (UT2003) um 87% (!!!) schneller ist*, als eine 400/400 NV30.


*(bei 1024x768, 4xAA, 8x qual.AF vs. 1024x768, 4xSAA, 8x bal.AF)

LovesuckZ
2003-06-10, 15:07:35
Original geschrieben von Mr. Lolman
Geh, das macht garnichts aus.
Es ist ja auch jedem hier ziemlich egal, dass eine 400/350 R300 beim Pyramiddemo (UT2003) um 87% (!!!) schneller ist*, als eine 400/400 NV30.
*(bei 1024x768, 4xAA, 8x qual.AF vs. 1024x768, 4xSAA, 8x bal.AF)

Hm, andere berichten von weniger. Was nun? Ich wuerde nicht so laut deine Zahlen als die offiziellen, einzig wahren darstellen, wenn andere ein geringeres Ergebnis liefern.

Muh-sagt-die-Kuh
2003-06-10, 15:11:02
Original geschrieben von ow
Etwa 0%, da HL2 auf allem ab TNT laufen wird. laufen != brauchbar

640x480x16 mit niedrigsten Details sehe ich nicht als brauchbar an. Mal ganz abgesehen davon wird das Spiel auch eine ganze Menge CPU Power brauchen...und die bietet ein PC aus TNT Zeiten (P2-400) ganz bestimmt nicht.

Die 640x480x16 werden wohl nur auf einer entsprechend starken CPU spielbar sein...und so gut wie niemand betreibt eine 1,5 Ghz CPU mit einer TNT, wer auf 3D Spiele steht nimmt ne bessere Grafikkarte, wer nur in 2D arbeitet nimmt eine mit besserer Signalqualität

seahawk
2003-06-10, 15:14:26
Original geschrieben von Mr. Lolman
Geh, das macht garnichts aus.
Es ist ja auch jedem hier ziemlich egal, dass eine 400/350 R300 beim Pyramiddemo (UT2003) um 87% (!!!) schneller ist*, als eine 400/400 NV30.


*(bei 1024x768, 4xAA, 8x qual.AF vs. 1024x768, 4xSAA, 8x bal.AF)

4xSAA = supersampling AA

Abgesehen, dass man keine R300 @ 400/350 im Laden kaufen kann, der Vergleich gegen eine 5800 mit 128Bit erfolgt ....

Äpfel und Birnen ....

ow
2003-06-10, 15:15:23
Original geschrieben von Muh-sagt-die-Kuh
laufen != brauchbar

Brauchbar ist Auslegungssache und ich sage, es wird brauchbar auf einem TNT laufen.;) Tut uebrigens UT2003 auch.

seahawk
2003-06-10, 15:16:14
Original geschrieben von Muh-sagt-die-Kuh
laufen != brauchbar

Ich schätze at min Details @ 640*480*32 wird es brauchbar sein und besser aussehen als HL1 auf der gleichen Hardware.

Muh-sagt-die-Kuh
2003-06-10, 15:20:08
Original geschrieben von ow
Brauchbar ist Auslegungssache und ich sage, es wird brauchbar auf einem TNT laufen.;) Tut uebrigens UT2003 auch. Ich habs nochmal etwas ausführlicher erläutert ;)

Und UT2003 läuft meiner Erfahrung nach nicht "brauchbar" auf einer TNT in einem 450 mhz CeleronA....Ruckelorgie trifft es wohl eher.

StefanV
2003-06-10, 15:23:35
Original geschrieben von Muh-sagt-die-Kuh
Und so gut wie niemand betreibt eine 1,5 Ghz CPU mit einer TNT, wer auf 3D Spiele steht nimmt ne bessere Grafikkarte, wer nur in 2D arbeitet nimmt eine mit besserer Signalqualität

Stimmt, da geb ich dir völlig recht...

Ich hab zwar eine ~1,5GHz CPU (XP1700+), gepaart mit einer Rage 128 PRO (130/130MHz), aber mit jemen Rechner wird allerdings kaum ein 3D Spiel gestartet...

Und soo teuer sind einigermaßen aktuelle GraKas gebraucht (GF3-TI200) auch nicht mehr...

ow
2003-06-10, 15:27:41
Original geschrieben von Muh-sagt-die-Kuh
Ich habs nochmal etwas ausführlicher erläutert ;)

Und UT2003 läuft meiner Erfahrung nach nicht "brauchbar" auf einer TNT in einem 450 mhz CeleronA....Ruckelorgie trifft es wohl eher.


Ich hab's auf meinem XP1700 getestet. Laeuft gut. Dass Unreal/UT schon immer sehr CPU-lastig war ist doch bekannt.
Mit nem 450er Celi wird in UT2003 auch eine radeon 9800 nicht viel reissen.

ow
2003-06-10, 15:29:46
Original geschrieben von Muh-sagt-die-Kuh
laufen != brauchbar

640x480x16 mit niedrigsten Details sehe ich nicht als brauchbar an. Mal ganz abgesehen davon wird das Spiel auch eine ganze Menge CPU Power brauchen...und die bietet ein PC aus TNT Zeiten (P2-400) ganz bestimmt nicht.

Die 640x480x16 werden wohl nur auf einer entsprechend starken CPU spielbar sein...und so gut wie niemand betreibt eine 1,5 Ghz CPU mit einer TNT, wer auf 3D Spiele steht nimmt ne bessere Grafikkarte, wer nur in 2D arbeitet nimmt eine mit besserer Signalqualität


Eine TNT vielleicht nicht, die gibt's ja auch schon laenger nicht mehr im Handel.
Aber Gf2/4MX werden immer noch verbaut, auch auf CPUs >2GHz.

seahawk
2003-06-10, 15:31:47
Ich vermute mal auf einem PIII > 500mhz und der TNT2 wird es braucbar laufen. In 640x480x32 mit low Details, low Physikdetails, keine Schatten

Aber es wird nicht schlechter als HL1 auf dem entsprechenden Rechner aussehen. -> Das ist für Valve ausreichend.

Meine persönlichen Anforderungen liegen zwar höher, aber das ist hier nicht wichtig.

DrumDub
2003-06-10, 15:35:15
hmm... ob da 500mhz reichen? ich tipp eher auf p3/athlon > 800mhz

ich glaub schon, nachdem ich das video gesehen habe, dass die ki und physikengine recht abspruchsvoll sein werden...

Mr. Lolman
2003-06-10, 17:23:14
Ein bisschen OT aber:

Original geschrieben von LovesuckZ
Hm, andere berichten von weniger. Was nun? Ich wuerde nicht so laut deine Zahlen als die offiziellen, einzig wahren darstellen, wenn andere ein geringeres Ergebnis liefern.

Wenn Kati und Madkiller die gleichen Egebnisse erreichen, dann reicht mir das schon um meine Ergebnisse als valid anzusehen. Warum die Performance bei anderen schlechter ist, kann ich mir im Moment nur insofern erklären als das da irgendetwas verbugt sein dürfte (wo auch immer - Stichwort: Redeemer Explosion in Zeitlupe)


Original geschrieben von seahawk
4xSAA = supersampling AA

Abgesehen, dass man keine R300 @ 400/350 im Laden kaufen kann, der Vergleich gegen eine 5800 mit 128Bit erfolgt ....

Äpfel und Birnen ....


Laut Leos Test im 3dcenter ist NVs 4xs AA noch am ehesten mit ATis 4xRGMSAA zu vergleichen.

Beim Chiptakt muss ich dir rechtgeben, aber auch gleichzeitig anmerken, dass eine R300 (@275/270 = nonproniveau) immernoch um ~64% schneller ist.

seahawk
2003-06-10, 18:32:28
Ein Athlon mit 2400 mhz ist auch schneller als ein P4 mit 2400mhz - heißt es, dass er besser ist ?? Ist das gleiche hier.

Razor
2003-06-10, 20:39:33
Original geschrieben von Mr. Lolman
Ein bisschen OT aber:

Wenn Kati und Madkiller die gleichen Egebnisse erreichen, dann reicht mir das schon um meine Ergebnisse als valid anzusehen. Warum die Performance bei anderen schlechter ist, kann ich mir im Moment nur insofern erklären als das da irgendetwas verbugt sein dürfte (wo auch immer - Stichwort: Redeemer Explosion in Zeitlupe)

Laut Leos Test im 3dcenter ist NVs 4xs AA noch am ehesten mit ATis 4xRGMSAA zu vergleichen.

Beim Chiptakt muss ich dir rechtgeben, aber auch gleichzeitig anmerken, dass eine R300 (@275/270 = nonproniveau) immernoch um ~64% schneller ist.
Du willst tatsächlich nVidia's 4xS in Betracht ziehen ?
???

Du weißt aber, dass dieses in der Lage ist , Alpha-Texturen zu glätten, wozu ATI's 4x (egal ob Qauli oder was weiß ich) nicht in der Lage ist.

Also wenn, dann vergleich die 2xRGMS-Lösung beider Karten, denn sonst ist's immer ein Äpfel-Birnen-Vergleich. Und das ATI's AA ab 4x um einiges besser aussieht, weiß ja nun mittlerer weile jeder.

So what ?

Was willst Du damit eigentlich sagen ?
(ausser, dass es hier völlig am Thema vorbei ist ;-)

Razor

AlfredENeumann
2003-06-10, 21:48:08
Original geschrieben von ow
???

Diese Aussage stammmt von den HL2 Entwicklern.

Was so eine Aussage wert ist wissen wir ja. Oder ab welcher Karte sollte Dumm3 laufen ?

Demirug
2003-06-10, 22:57:19
Original geschrieben von AlfredENeumann
Was so eine Aussage wert ist wissen wir ja. Oder ab welcher Karte sollte Dumm3 laufen ?

Laut JC ab einer GF256.

AlfredENeumann
2003-06-10, 23:51:59
Darauf wollte ich nicht direkt hinaus. Aber worauf muß bei der Karte alles verzichtet werden damit es spielbar ist ?

Gast
2003-06-11, 01:18:14
So gut wie sicher könnte es ja so laufen, wie bei UT2003, wo sich gleich zu beginn ein bot durch das Nvidia-Logo kämpft... LOL
Aber dann eben durch eins von Ati!

Ati hat sich fest an HL² gekrallt und wird das sicher ausschlachten.
JC hat immer abkassiert (warum auch nicht!?)
Beispiel?
3dfx Unreal 3dfx-logo
Matrox D3d-mapper
S3 texture compression (HUH- extra cd für Diamond!)
Nvidia ab Demo Logo
usw.

Jetzt ist Ati eben mal dran am Speck:
Guckt mal hier:

ATI and Valve are planning to get together to show off Half Life 2 at E3 on a ATI Radeon 9800 Pro 256MB. This looks like it could prove to be a winning combination, and is a PR score to ATI. Heres some of the blurb:

MARKHAM, Ontario - May 9, 2003 - ATI Technologies Inc. (TSX: ATY, NASDAQ:

ATYT), leading graphics technology provider, and Valve(r), creators of Half-Life(r), Counter-StrikeTM and other award-winning PC action games, today announced the first public showing of Valve's Half-Life 2 will take place at next week's Electronic Entertainment Expo in Los Angeles, CA. The product will be shown on ATI's RADEON 9800 PRO 256MB, the highest performance 3D card currently available, in a state of the art theater located in ATI's booth (South Hall, 646).

Half-Life 2, published by Vivendi Universal Games, will be demonstrated by Gabe Newell, Valve's co-founder and Managing Director, every half-hour. The original Half-Life was launched to tremendous reviews in 1998, won over 50 "Game of the year" awards worldwide, and launched a franchise with over 8 million units sold.

"Half-Life 2 is pushing the envelope with contextual AI, simulated physics, characters that rival any digital actors in Hollywood, and advanced rendering capabilities," said Newell. "When we reviewed all the platforms available for use in the public unveiling of HL2, ATI's RADEON 9800 PRO was unquestionably the choice for showing Half-Life 2 at its best."

"This is the most significant game of 2003," said Rick Bergman, General Manager Desktop and Senior Vice President, Marketing, at ATI Technologies Inc. "Half-Life 2 will be huge, and the amazing technology Valve has put into the game engine means we'll see a tidal wave of gorgeous-looking products from Valve and others, such as Troika, who chose Valve SourceTM technology as the base for their next generation products."

Alles klar?

up

seahawk
2003-06-11, 08:05:21
Original geschrieben von AlfredENeumann
Darauf wollte ich nicht direkt hinaus. Aber worauf muß bei der Karte alles verzichtet werden damit es spielbar ist ?

Im Vergleich zu einer heutigen Midrange Karte auf einiges, im Vergleich zu HL1 auf einer TNT auf nichts.

Razor
2003-06-11, 08:46:15
Original geschrieben von Gast

Alles klar?

up
Nö.
Was soll jetzt klar sein ?
???

Du hast Marketing-Blabla par excelence nachgeplappert... mehr aber auch nicht.
Hast Du nicht vielleicht auch fakten, oder war's das schon ?
Also wirklich...
:kratz:

Razor

ow
2003-06-11, 09:11:05
Original geschrieben von AlfredENeumann
Darauf wollte ich nicht direkt hinaus. Aber worauf muß bei der Karte alles verzichtet werden damit es spielbar ist ?


Meinst du das wuerde irgendeinen der normalen Gelegenheitsgamer interessieren?

Ich kann mich gerne nochaml zitieren:

"wer die neusten Titel immer mit max. HQ spielen will braucht auch immer die neuste und teuerste Karte. Darum geht's hier aber nicht. "

Mr. Lolman
2003-06-11, 10:12:30
Original geschrieben von ow
Meinst du das wuerde irgendeinen der normalen Gelegenheitsgamer interessieren?

Ich kann mich gerne nochaml zitieren:

"wer die neusten Titel immer mit max. HQ spielen will braucht auch immer die neuste und teuerste Karte. Darum geht's hier aber nicht. "

Wenn man vor dein 'immer' noch ein 'fast' dazusetzt, und auf AA verzichten kann, dann reicht (noch) eine 60 Euro Radeon 8500.

AlfredENeumann
2003-06-11, 13:07:23
Original geschrieben von ow
Meinst du das wuerde irgendeinen der normalen Gelegenheitsgamer interessieren?

Ich kann mich gerne nochaml zitieren:

"wer die neusten Titel immer mit max. HQ spielen will braucht auch immer die neuste und teuerste Karte. Darum geht's hier aber nicht. "


Ein Gelgenheitsspieler wird sich mit Sicherheit aber auch nicht Dumm3 kaufen. Alle die ich kenne kaufen sich eine neue Grafikkarte oder sonstwas für HArdware wenn für ein Spiel die Leistung nicht mehr reicht. Warum unbedingt drauf bestehen das die Auflösung so runtergestellt wird und alle Effekte ausgeschaltet werden? Das Spiel unterscheidet sich dann in keinster Weise von den anderen! Dann kan man genauso CS oder Quake zocken, oder besser AvP. Ist nur billiger.

ow
2003-06-11, 13:13:15
@AEN

Alle die du kennst sind in keiner Weise repreasentativ fuer den gesamten Gamermarkt.

Nach deiner Aussage muss sich also jede mindestens ein R300 kaufen wenn HL2 erscheint, weil voraussichtilich bei allen leistungsmaessig darunter liegenden Karten nicht auf max. Quali gespielt werden kann.

seahawk
2003-06-11, 13:16:24
Full ack.

Btw es spielen mehr Leute HL1 + CS (+mods) als UT2003.

Gerade für HL2 ist es wichtig, dass diese Leute das Spiel laufen lassen können. Diese Leute werden evtl. nach Kauf des Spiels aufrüsten, aber sicher nicht nur um dieses Spiel überhaupt spielen zu können.

StefanV
2003-06-11, 15:18:36
Original geschrieben von AlfredENeumann
Was so eine Aussage wert ist wissen wir ja. Oder ab welcher Karte sollte Dumm3 laufen ?

jo...

Besonders solche AUssagen wie von M$ bei Windows 95:

Läuft ab 486/33 mit 4MB RAM, betonong auf läuft (=startet), über den Rest sprechen wir lieber nicht...

Oder solche Spielchen wie WIng Commander3, wovon ich die Verpackung eigentlich noch haben müsste...

Auf die Mindestanforderungen gebe ich keinen Cent, die sind mir absolut nichts wert, spielbar wirds erst ab der Empfohlenen Config...

AlfredENeumann
2003-06-11, 22:30:39
Original geschrieben von ow
@AEN

Alle die du kennst sind in keiner Weise repreasentativ fuer den gesamten Gamermarkt.

Nach deiner Aussage muss sich also jede mindestens ein R300 kaufen wenn HL2 erscheint, weil voraussichtilich bei allen leistungsmaessig darunter liegenden Karten nicht auf max. Quali gespielt werden kann.

Nein das nicht, aber das ist der logischste Schritt. Wenn ich immer mehr an Qualität einbüßen muß nur um ein Spiel zu Spielen rüßtet jeder mit der Zeit auf. Und das kann ich mit gewissheit auf den größten Teil des Marktes Projezieren. Ich rede ja auch nicht mit Max HQ++ Einstellungen sondern von ganz normalen Settings, sprich den vom Spiel vorgegebenen Standard-Settings z.B..

Razor
2003-06-14, 03:38:11
Original geschrieben von AlfredENeumann
Nein das nicht, aber das ist der logischste Schritt. Wenn ich immer mehr an Qualität einbüßen muß nur um ein Spiel zu Spielen rüßtet jeder mit der Zeit auf. Und das kann ich mit gewissheit auf den größten Teil des Marktes Projezieren. Ich rede ja auch nicht mit Max HQ++ Einstellungen sondern von ganz normalen Settings, sprich den vom Spiel vorgegebenen Standard-Settings z.B..
Dann muss es also keine R300 sein, es reicht also locker 'ne gf4ti oder Ähnliches, oder ?
Vermutlich wird sogar eine FX5200 reichen... nur wohl eben ohne AA/AF.

Na ja, schun' mer mal... schließlich gibt es noch KEINE Aussagen zu HL2, wohl aber zumindest Andeutungen zu D3.

Razor

ow
2003-06-14, 09:45:32
Original geschrieben von AlfredENeumann
Nein das nicht, aber das ist der logischste Schritt. Wenn ich immer mehr an Qualität einbüßen muß nur um ein Spiel zu Spielen rüßtet jeder mit der Zeit auf.

Dem stimme ich zu, anders geht´s ja irgendwann auch garnicht.


Und das kann ich mit gewissheit auf den größten Teil des Marktes Projezieren.

Dem stimme ich nicht zu. Es ist der kleinste Teil des Marktes, der in kurzen Zyklen immer wieder aufrüstet.


Ich rede ja auch nicht mit Max HQ++ Einstellungen sondern von ganz normalen Settings, sprich den vom Spiel vorgegebenen Standard-Settings z.B..

Da sehe ich keinen Unterschied, was die Aufrüstzeiträume betrifft. Es gibt auch immer noch User, die auf zB. auf eine GF3 oder FX5200 aufrüsten können. Für Doom3 zum Beispiel.:D