PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Auf TECCHANNEL is a FX TEST!!!!!


Seiten : 1 [2]

Endorphine
2003-01-26, 22:04:02
Originally posted by AlfredENeumann
ladie, laßt doch mal das flamen, läßtern, streiten sein. warten wir mal ab bis morgen, dann gibts noch genung stoff.

was mir aber aufällt ist, das der harte (Nvidia)Kern jetzt krampfhaft versucht den leuten hier weiszumachen das 2xAA natürlich vollkommen ausreichend ist und alles drüber eh kaum einen unterschied bewirkt.
Blödsinn. Es geht um Ursachenbekämpfung vs. Symptommilderung.

Razor
2003-01-26, 22:05:37
Originally posted by AlfredENeumann
ladie, laßt doch mal das flamen, läßtern, streiten sein. warten wir mal ab bis morgen, dann gibts noch genung stoff.

was mir aber aufällt ist, das der harte (Nvidia)Kern jetzt krampfhaft versucht den leuten hier weiszumachen das 2xAA natürlich vollkommen ausreichend ist und alles drüber eh kaum einen unterschied bewirkt.
Danke, dass Du mich nicht zum 'harten (nVidia)Kern' zählst...
;-)

Ich würde mich niemals mit nur 2xAA bei solch einer Karte zufrieden geben !

Razor

0711
2003-01-26, 22:07:03
hm hab mir mal die tests zu gemüte geführt...und wenn man bedenkt dass die karte doch enorm hoch getaktet ist ist das ergebniss durchaus enttäuschend, sie ist zwar schneller als die r9700pro aber zu dem preis (also nicht die € sondern die lautstärke...was se verbrät...pci slot auf wiedersehn)

ich bin von nvidia schwer enttäuscht.

Razor
2003-01-26, 22:08:10
Originally posted by Metzler

P.P.S.: Ich glaube, das ist das erste Mal, dass eine Grafikkarte nach 6-7 Monaten immer noch die beinahe Referenz darstellt, oder ?
Nein, ist es nicht...
:D

Auch gibt's den R300 noch keine 6-7 Monate.

Razor

Dunkeltier
2003-01-26, 22:08:32
Originally posted by Razor

Das hier ausgerechnet solche Töne von Leuten kommen, die schon 'ne R9700pro im Rechner haben...
Ihr hab't doch 'eh kein Geld mehr für etwas 'Vernünftiges' !
:D

Razor

Wir haben was vernüftiges, und kaufen uns keine sauteuren Staubsauger. Wie ich es in einen anderen Thread schon erwähnte, NVidia mag momentan die schnelltste, aber auch teuerste, lautestete und platzraubendste Karte haben. IMHO rechtfertigt dieser hohe Preis nicht das gebotene (siehe letzter Satz > laut, platzraubend und extrem teuer). Hoffentlich wird das Ding ein Flop. ;D Und die langen Gesichter derjenigen NVidia Fanboys möchte ich mal sehen, deren neues 500-650 Euro Geschoß in 2-3 Monaten wieder die #2 ist. :lol:


just my 2 cents

Rampage 2
2003-01-26, 22:09:05
Originally posted by Razor

Danke, dass Du mich nicht zum 'harten (nVidia)Kern' zählst...
;-)

Ich würde mich niemals mit nur 2xAA bei solch einer Karte zufrieden geben !

Razor

Ja gut, von mir aus könnens auch 4xAA bei 1600x1200x32Bit sein. Aber
8xAA sollte nur noch bei Games mit Q3-Engines zum laufen zu kriegen
sein (flüssig).

AlfredENeumann
2003-01-26, 22:10:13
Originally posted by Andre


Das musst du mit deiner Signatur grade sagen ;)

:D

StefanV
2003-01-26, 22:11:03
Originally posted by wrdaniel
erstmal abwarten, vielleicht hat sie ja nen guten TV ausgang und nen gescheiten TheaterMode :D

DAS glaub ich eher weniger *eg*

Dunkeltier
2003-01-26, 22:12:11
Originally posted by Razor

Möchte mal wissen, wie die das gemessen haben...
Bei DER Qualität des Tests wahrscheinlich mit 'ner Glühbirne !
:D

Razor

Die haben so ein Ding zwischen AGP und Grafikkarte gesteckt, und dann die Saftaufnahme gemessen. Meine Empfehlung an NVidia: für diesen Preis sollten die ein 400 Watt Netzteil gratis dazulegen.

LovesuckZ
2003-01-26, 22:12:39
Originally posted by Stefan Payne
DAS glaub ich eher weniger *eg*

Hm, dann muessten ja nach deiner Meinung die Treiber von ATI nicht besser geworden sein;D

nagus
2003-01-26, 22:12:53
Originally posted by Stefan Payne


DAS glaub ich eher weniger *eg*


lassen wir uns überaschen.

auf jeden fall kann man die karte als sex-spielzeug mißbrauchen

sex sells ;D ;D ;D

Exxtreme
2003-01-26, 22:13:42
Originally posted by Dunkeltier


Die haben so ein Ding zwischen AGP und Grafikkarte gesteckt, und dann die Saftaufnahme gemessen. Meine Empfehlung an NVidia: für diesen Preis sollten die ein 400 Watt Netzteil gratis dazulegen.
Oder ein externes NT... GeForceVolts!!!11 *eg*

Lorien
2003-01-26, 22:14:13
Originally posted by Razor

Nein, ist es nicht...
:D

Auch gibt's den R300 noch keine 6-7 Monate.

Razor


Kannst wohl ned mehr zählen was Razor :)
Ist dir der FX Bench so arg aufs Herz geschlagen ?

Sind jetzt 6 Monate seit die Karte draussen ist.

betasilie
2003-01-26, 22:14:21
Originally posted by Endorphine

Blödsinn. Es geht um Ursachenbekämpfung vs. Symptommilderung.
Symptomlinderung ist aber in max. 1280*1024 angesagt, da 1600*1200 bei den meisten nicht mit vernünftigen Refreshrates läuft!

Razor
2003-01-26, 22:14:33
Originally posted by Dunkeltier

Wir haben was vernüftiges, und kaufen uns keine sauteuren Staubsauger. Wie ich es in einen anderen Thread schon erwähnte, NVidia mag momentan die schnelltste, aber auch teuerste, lautestete und platzraubendste Karte haben. IMHO rechtfertigt dieser hohe Preis nicht das gebotene (siehe letzter Satz > laut, platzraubend und extrem teuer). Hoffentlich wird das Ding ein Flop. ;D Und die langen Gesichter derjenigen NVidia Fanboys möchte ich mal sehen, deren neues 500-650 Euro Geschoß in 2-3 Monaten wieder die #2 ist. :lol:

just my 2 cents
Sind dann aber schon 4 cents...
:D

Wer hofft, das das Ding ein Flop wird, hat offensichtlich nicht richtig nachgedacht...
Diejenigen die hoffen, dass nVidia jetzt untergeht, noch viel weniger.

Warten wir einfach noch ein paar weitere und vor allem qualitativ akzeptable 'Tests' ab und zerraufen uns dann die Haare, OK ? Ich will jetzt erst einmal wisen, ob das Ding einem wirklich was bringen kann und wenn ja, was ! So einfach ist das...

Das, was Du da abgelassen hast, ist schlicht eine Sammlung von Horensagen und Spekulationen... mehr nicht.
Ein paar Tage zu warten, wird ja wohl nicht zuviel verlangt sein, oder ?
Wir warten doch schon sooooo lange !
:D

Razor

Liquaron
2003-01-26, 22:14:48
Originally posted by nagus



lassen wir uns überaschen.

auf jeden fall kann man die karte als sex-spielzeug mißbrauchen

sex sells ;D ;D ;D

jeeeha vielleicht gibt es ja demnächst die
* Beate Uhse Geforce FX Mega BLOW *

Razor
2003-01-26, 22:15:52
Originally posted by Dunkeltier

Die haben so ein Ding zwischen AGP und Grafikkarte gesteckt, und dann die Saftaufnahme gemessen. Meine Empfehlung an NVidia: für diesen Preis sollten die ein 400 Watt Netzteil gratis dazulegen.
Ironie zu erkennen und vor allem zu verstehen ist eigentlich nicht sonderlich schwer...
:D

Razor

beLSar
2003-01-26, 22:17:11
[22:14] <+desti> ein laden der dank fxflow bald b00men wird: http://www.sonicshop.de/De/index.htm

*zustimm*
:bäh:

Rampage 2
2003-01-26, 22:17:28
Originally posted by betareverse

Symptomlinderung ist aber in max. 1280*1024 angesagt, da 1600*1200 bei den meisten nicht mit vernünftigen Refreshrates läuft!

Was laberst du da für einen Unsinn! Das kommt auf den Monitor an!
Ich hab jedenfalls noch nie schmerzende Augen bekommen, wenn ich
UT spiele (unter 1600x1200). Die meisten Monitore haben genügend
Fresh-Rates für diese Auflösung. Ich ziehe die höhere Auflösung
vor!

Aquaschaf
2003-01-26, 22:17:30
interessant wieviele user online sind .

Razor
2003-01-26, 22:17:53
Originally posted by Lorien

Kannst wohl ned mehr zählen was Razor :)
Ist dir der FX Bench so arg aufs Herz geschlagen ?

Sind jetzt 6 Monate seit die Karte draussen ist.
Oh doch, zählen kann ich noch ganz gut...
Also: mitte September, Oktober, November....
:D

Razor

mapel110
2003-01-26, 22:19:16
wie wärs eigentlich, wenn nvidia einen gutschein für ein neues Netzteil dazupackt ?!
ich sehe schon die massen an threads " mein NT schaltet sich beim starten ab"

btw sollte epox auch machen *eg*

-error-
2003-01-26, 22:19:31
http://www.tecchannel.de/hardware/1109/images/0011956_PIC.jpg

Schön ist sie gerade nicht. Jetzt auch noch in neongelb *kopfschüttel*

Aquaschaf
2003-01-26, 22:19:41
Originally posted by Rampage 2


Was laberst du da für einen Unsinn! Das kommt auf den Monitor an!
Ich hab jedenfalls noch nie schmerzende Augen bekommen, wenn ich
UT spiele (unter 1600x1200). Die meisten Monitore haben genügend
Fresh-Rates für diese Auflösung. Ich ziehe die höhere Auflösung
vor!
naja aber man muss bedenken das die meisten leute einen 17" besitzen auf dem sie höchstens 1024x768 oder 1280x960 verwenden können .

Rampage 2
2003-01-26, 22:19:45
Originally posted by Rampage 2


Was laberst du da für einen Unsinn! Das kommt auf den Monitor an!
Ich hab jedenfalls noch nie schmerzende Augen bekommen, wenn ich
UT spiele (unter 1600x1200). Die meisten Monitore haben genügend
Fresh-Rates für diese Auflösung. Ich ziehe die höhere Auflösung
vor!

Wenn ich mir die letzten 50 Postings für diesen Thread anschaue,
scheint nach 6 Monaten Abstinenz endlich wieder mal ein Flamewar
auszubrechen! Aber ihr könnt mich alle:P - 3dfx rulez!!!

Lorien
2003-01-26, 22:19:53
Originally posted by Razor

Oh doch, zählen kann ich noch ganz gut...
Also: mitte September, Oktober, November....
:D

Razor

Ähm und den August lässt du einfach aus ??

tztztz :)

Byteschlumpf
2003-01-26, 22:20:47
So wird's nVidia wohl bald ergehen, wie 3dfx!

Die Kanadier haben es den Kaliforniern mit dem R300 aber ganz schön gezeigt - damals wie heute!!!

Somit dürfte der R350 dem überteuertem FX den TODESSTOSS versetzen - da schneller, preiswerter und über eine geringere Stromaufnahme verfügend!

Die Preise für die 9700/Pro dürften aufgrund des excellenten Preis-/Leistungsverhältnisses gegenüber dem FX auch kaum sinken.

Dass die Lite-Versionen des FX kaum die 9500Pro übertreffen dürften, ist wohl auch recht naheliegend!


Jeder Hardcore-Gamer, der als potentieller Käufer des FX in Frage kommt (wer denn sonst???), weiß ohnehin, dass die 9700Pro die bessere Wahl ist!


Somit kann ich mich als frischer Besitz einer Sapphire9700 sehr glücklich schätzen, da sie satt Power bietet und sich noch dicke übertakten läßt (fast Pro Niveau)! ;)


Eine Notwendig für noch schnellere GPUs - wie deren wirtschaftlich tragbare Realisierung - dürfte daher kaum noch gegeben sein!


Die Wahl der richtigen Spiele-Engine scheint mir demnach immer mehr an Bedeutung zu gewinnen.
Leistungsfresser, die ein immer ständiges Aufrüsten verlangen, werden sich daher auch nicht mehr durchsetzen können.


Als nahezu optimal empfinde ich die "Krass Engine" von Aquanox, die hauptsächlich die Pixelshader nutzt - ohne die CPU zu sehr zu fordern - wie es im Gegensatz bei MOHAA/Spearhead extrem der Fall ist.

AN1 läuft mit der 9700 wie ein Windhundchampion!



Gruß,
Byteschlumpf

Labberlippe
2003-01-26, 22:20:57
Hi

Ich werde mal heute zum Spass einen Fön in meinen PC einbauen, dann die Augen schliessen und mir vorstellen ich hätte eine GeForce FX.
*träum*

Gruss Labberlippe

Razor
2003-01-26, 22:20:57
Originally posted by Powerd by ATI
http://www.tecchannel.de/hardware/1109/images/0011956_PIC.jpg

Schön ist sie gerade nicht. Jetzt auch noch in neongelb *kopfschüttel*
Hast Du eigentlich irgendwelche Informationen wirklich gelesen ?
Ist lediglich für die Reviews gedacht...
Die Retails werden Klarsicht-Gehäuse haben.

Bis denne

Razor

Rampage 2
2003-01-26, 22:21:09
Originally posted by Aquaschaf

naja aber man muss bedenken das die meisten leute einen 17" besitzen auf dem sie höchstens 1024x768 oder 1280x960 verwenden können .

nö, immer mehr leute wechselnzu 19ern - mehr wäre sowieso Unsinn

Razor
2003-01-26, 22:21:47
Originally posted by Lorien

Ähm und den August lässt du einfach aus ??

tztztz :)
Na dann sag mir mal, wo es im August einen R300 (samt GraKa ;-) zu Kaufen gegeben haben soll...
Richtig los (erste Massenverfügbarkeit) war sogar erst im Oktober.

Razor

Pirx
2003-01-26, 22:22:14
Originally posted by mapel110
ich sehe schon die massen an threads " mein NT schaltet sich beim starten ab"


Beim Starten noch nicht:D

Rampage 2
2003-01-26, 22:23:38
Originally posted by Byteschlumpf
So wird's nVidia wohl bald ergehen, wie 3dfx!

Die Kanadier haben es den Kaliforniern mit dem R300 aber ganz schön gezeigt - damals wie heute!!!

Somit dürfte der R350 dem überteuertem FX den TODESSTOSS versetzen - da schneller, preiswerter und über eine geringere Stromaufnahme verfügend!

Die Preise für die 9700/Pro dürften aufgrund des excellenten Preis-/Leistungsverhältnisses gegenüber dem FX auch kaum sinken.

Dass die Lite-Versionen des FX kaum die 9500Pro übertreffen dürften, ist wohl auch recht naheliegend!


Jeder Hardcore-Gamer, der als potentieller Käufer des FX in Frage kommt (wer denn sonst???), weiß ohnehin, dass die 9700Pro die bessere Wahl ist!


Somit kann ich mich als frischer Besitz einer Sapphire9700 sehr glücklich schätzen, da sie satt Power bietet und sich noch dicke übertakten läßt (fast Pro Niveau)! ;)


Eine Notwendig für noch schnellere GPUs - wie deren wirtschaftlich tragbare Realisierung - dürfte daher kaum noch gegeben sein!


Die Wahl der richtigen Spiele-Engine scheint mir demnach immer mehr an Bedeutung zu gewinnen.
Leistungsfresser, die ein immer ständiges Aufrüsten verlangen, werden sich daher auch nicht mehr durchsetzen können.


Als nahezu optimal empfinde ich die "Krass Engine" von Aquanox, die hauptsächlich die Pixelshader nutzt - ohne die CPU zu sehr zu fordern - wie es im Gegensatz bei MOHAA/Spearhead extrem der Fall ist.

AN1 läuft mit der 9700 wie ein Windhundchampion!



Gruß,
Byteschlumpf

Mal sehen, wie viele Nicht-Intellektuelle und Flamer noch hier auf-
kreuzen werden:eyes: - hoffentlich nicht viele!

:bonk:

Vega2002
2003-01-26, 22:23:46
Hier http://www.sonicshop.de/De/index.htm für alle die sich ne FX Kaufen (LEISTEN KÖNNEN) wollen.

MFG
Vega

Razor
2003-01-26, 22:24:01
Originally posted by Powerd by ATI
http://www.tecchannel.de/hardware/1109/images/0011956_PIC.jpg

Schön ist sie gerade nicht. Jetzt auch noch in neongelb *kopfschüttel*
Und noch etwas:

Zeig' mir mal 'ne andere Karte, die man sooooo schön auf's Slotblech stellen kann !
Naaaa ? Kannst nich !
;D

Razor

Katrin
2003-01-26, 22:24:16
sag mal Razor. Bist du irgendwie mit Richthofen (wo ist er denn ?) verwand ?

Exxtreme
2003-01-26, 22:25:01
Originally posted by Razor

Und noch etwas:

Zeig' mir mal 'ne andere Karte, die man sooooo schön auf's Slotblech stellen kann !
Naaaa ? Kannst nich !
;D

Razor
Razor,

irgendwie habe ich das Gefühl, daß dir die Strohhalme ausgehen...
;D

Dunkeltier
2003-01-26, 22:25:22
Originally posted by Razor

Jain,

das von Thilo war sehr ermunternd, das vom Tecchannel eher ernüchternd.
Schaun' wir mal, was da noch so kommt !
;-)

Razor


Du tust wohl jede Niederlage von NVidia als klaren Sieg feiern, oder? ;D :P :bonk:

Die Karte ist es einfach nicht "wert"...



just my 2 cents

StefanV
2003-01-26, 22:25:30
Originally posted by Razor

Na dann sag mir mal, wo es im August einen R300 (samt GraKa ;-) zu Kaufen gegeben haben soll...
Richtig los (erste Massenverfügbarkeit) war sogar erst im Oktober.

Razor

Na dann sag mal, wo es jetzt eine GF FX (samt GraKa :-)) zu kaufen gibt...

Richtig, das dauert noch ein wenig...

Razor
2003-01-26, 22:25:30
Originally posted by Katrin
sag mal Razor. Bist du irgendwie mit Richthofen (wo ist er denn ?) verwand ?
Nicht das ich wüsste...
Du vielleicht mit nagus ?
;D

Razor

Labberlippe
2003-01-26, 22:25:36
Originally posted by Katrin
sag mal Razor. Bist du irgendwie mit Richthofen (wo ist er denn ?) verwand ?

Der verscheuert wahrscheinlich gerade seine nVIDIA Aktien. :lol:

Gruss Labberlippe

Razor
2003-01-26, 22:26:14
Originally posted by Exxtreme

Razor,

irgendwie habe ich das Gefühl, daß dir die Strohhalme ausgehen...
;D
Ey komm, ich fand das 'Feature' einfach klasse !
:rofl:

Razor

davidzo
2003-01-26, 22:26:16
puh, welch ein glück, das die von Tecchannel nur so blöde waren und den link entfernt haben...
Also, ich habe erst stundenlang gesucht und sogar den deinstallierten IE (ja, das geht!) wieder draufgemacht um den link endlich zu finden... dabei hätte ich Schussel ersteinmal weiterlesen sollen *sich an den Kopf hau*

Bestimmt hat nv ärger gemacht... nee, wenn die jetzt am Montag nen neuen Test machen wo die FX besser abschneidet lach ich mich tot.
So schlecht fand ich den test gar net, rechnet dochmal wieviel stunden die zeit hatten wenn die Karte erst gestern gekommen war...
Klar, den text kannste in die Tonne treten, bestand ja fast nur aus copy+paste aus alten reviews ;D
aber die Grafiken sind doch recht Eindrucksvoll und die modi gar net mal so unüberlegt gewählt...
Zwar fehlt nen bisschen die Vielfalt (an Auflösungen z.B.) aber ansonsten scheinen die Werte korrekt zu sein. Ich habe jedenfalls keine Zweifel an der Richtigkeit der Werte! Die sind nämlich vergleichbar mit denen von Thilo und den radeon9700pro tests von nagus und Katrin usw. hier ausm Forum.

Für Razor: Ich denke nv hat denen Feuer unterm Arsch gemacht und die werden das review ganz schnell überarbeiten weil sie dann noch nen paar tausend dollars draufkriegen... insofern kannst du noch hoffen, auch wenn das die Geforce FX net besser macht.
Nein wirklich, das einzige, was nv jetzt noch machen kann ist bestechen! Sie werden eine zeitschrift nach der anderen gnadenlos bestechen, denn was sind schon nen paar 100 000 im Verhältnis zu den 400 Mio die sie für die Entwicklung ausgegeben haben. Und ich eghe auch davon aus, das eben der Großteil der Zeitschriften und Magazine bestechlich ist. Nvidia hat im Marketing noch nie Skrupel gehabt und wird es nicht scheuen die wirklichen Werte durch Geld zu verfälschen. Wir kennen da eine Firma die Benchmarkprogramme selber herstellt,( welche zu bestechen natürlich praktisch für nv ist, denn dann kann ja niemand was dagegen sagen) welche schon zu 3dfx zeiten leicht bestechen ließ und Nvidia nicht abgeneigt zu sein scheint, erratet ihr auch welche?
Wir können nur hoffen das man selbst net darauf hereinfällt.


Nein wer kauft denn ne 600€ karte um ohne AF zu zocken??

Fassen wir zusammen was wir schon jetzt recht genau wissen:
-Der 4x32 datenbus zahlt sich net aus
-Die FX ist gut in niedrigen FSAA da dort der Speicher reicht und hauptsächlich die reine Chippower zählt.
-Das AF der FX ist sehr lahm
-ab 4x FSAA holt der Radeon die FX locker ein, bei gleichezeitg besserer Qualität (siehe preview der FX AA Modi hier bei 3dcenter)
-Die FX skaliert kaum bei der Auflösung und wird eben bei höhen Auflösungen kaum schwächer
-Die FX ist Hammer laut
-Die FX hat ein extrem schlechtes Preis/Leistungsverhältnis
-Die FX verbraucht sehr viel Strom
-Eine Radeon 9700 hat ein wesentlich besseres pro mz Verhältnis
-Nvidia wird den preis nach unten korrigieren müssen oder die Karte wird nicht gekauft
-der 3Dmark 2003 kann ein extrem komisches produkt werden, nv hat allen grund zu bestechen
-Viele nv fans werden zu ATI überwechseln wenn sie es nicht schon getan haben
-ATI hat einen guten Start ins jahr 2003 und wird im gegensatz zu den ganzen jahren zuvor nicht mehr immer in der 2ten reihe stehen.
-Nvidia bekommt eventuell Geldprobleme wenn sich die FX nicht rentiert


Ich lache ja immer noch tränen darüber... besonders bei Seahawk und Liquaron (nichts gegen euch, ihr könnt ja nix dafür) kann man Aussagen von nur wenigen Stunden Unterschied finden, die vom inhalt exakt gegenteilig lauten! ;D ;D

Aber das dollste ist, das es durchaus verständlich ist und berechtigt und die Schuld gar nicht bei ihnen liegt sodner bei NV :D

nggalai
2003-01-26, 22:26:25
Hola,

Originally posted by Rampage 2
1)Was laberst du da für einen Unsinn! Das kommt auf den Monitor an!

2) Ich hab jedenfalls noch nie schmerzende Augen bekommen, wenn ich
UT spiele (unter 1600x1200). Die meisten Monitore haben genügend
Fresh-Rates für diese Auflösung. Ich ziehe die höhere Auflösung
vor! 1) Richtig.

2) Wenn ich nicht mindestens 85Hz habe, tun mir die Augen nach rund 2 Minuten weh. Ideal sind 100Hz, das halte ich einen Tag lang aus, bei 85Hz darf ich im 30 Minuten-Abstand Pause machen.

Und "die meisten Monitore haben genügend Refresh-Rate für diese Auflösung" würde ich auch etwas anders formulieren--Du wärst erstaunt, wieviele Leute selbst mit High-End-Systemen noch auf 17"ern oder alten 19"ern spielen (welche die Auflösung entweder gar nicht mehr oder vielleicht noch bei 75Hz schaffen), oder sich TFTs mit nativer Auflösung von 1280x1024 gekauft haben . . .

ta,
-Sascha.rb

StefanV
2003-01-26, 22:26:45
Originally posted by Razor

Und noch etwas:

Zeig' mir mal 'ne andere Karte, die man sooooo schön auf's Slotblech stellen kann !
Naaaa ? Kannst nich !
;D

Razor

Fire GL X1 und diverse Wildcats...

Und noch einige Evans & Sutherland Karten...

Lorien
2003-01-26, 22:26:47
Originally posted by Razor

Na dann sag mir mal, wo es im August einen R300 (samt GraKa ;-) zu Kaufen gegeben haben soll...
Richtig los (erste Massenverfügbarkeit) war sogar erst im Oktober.

Razor

Ich habe meine BBA damals mitte August von meinen Verwandten aus Quebec Canada geschickt bekommen. Die hatten sie direkt von ATI bestellt.

Und hier in der Schweiz gab es die Powercolor anfang September zu kaufen.

Razor
2003-01-26, 22:27:13
Originally posted by Dunkeltier

Du tust wohl jede Niederlage von NVidia als klaren Sieg feiern, oder?
Die Karte ist es einfach nicht "wert"...

just my 2 cents
Und Du kannst offensichtlich nicht einmal lesen...
;-)

Razor

P.S.: Und schon sind es 6 cent...

LovesuckZ
2003-01-26, 22:27:19
Originally posted by Dunkeltier
Du tust wohl jede Niederlage von NVidia als klaren Sieg feiern, oder? ;D :P :bonk:
Die Karte ist es einfach nicht "wert"...
just my 2 cents

Aha, also sind 30% mehr Leistung nach Thilo Bayer nichts 'wert'?hm, Wozu brauchen wir dann noch ne r350?

nagus
2003-01-26, 22:29:19
Originally posted by Labberlippe
Hi

Ich werde mal heute zum Spass einen Fön in meinen PC einbauen, dann die Augen schliessen und mir vorstellen ich hätte eine GeForce FX.
*träum*

Gruss Labberlippe


:lol::lol::lol::lol:

Razor
2003-01-26, 22:29:34
Originally posted by Stefan Payne

Na dann sag mal, wo es jetzt eine GF FX (samt GraKa :-)) zu kaufen gibt...

Richtig, das dauert noch ein wenig...
Klasse, Stefan, am Zeil vorbei würd' ich sagen...
Oder was soll das jetzt mit den 6-7 Monaten verfügbarkeit der R9700pro zu tun haben ?
???

Razor

StefanV
2003-01-26, 22:29:36
Originally posted by LovesuckZ

Aha, also sind 30% mehr Leistung nach Thilo Bayer nichts 'wert'?hm, Wozu brauchen wir dann noch ne r350?

Hm, mal nachdenken...

Achja, das war ja UT 2003 mit 2x FSAA und 2° AF...

Hm, irgendwie hat Tecchan aber mit 4x FSAA und 4° AF gebencht...

Eigenartig :|

MegaManX4
2003-01-26, 22:30:47
Originally posted by Endorphine

1600x1200 in 75 Hz sollte so ziemlich jeder 19"-Monitor packen. Dass die Leistung der GF fx praktisch mit 9700 Pro gleichzusetzen ist bestreitet ja niemand. Ich gehe ja auch von nichts anderem mehr aus ;)

Ich sehe nur keinen Diskussionsbedarf hohe Auflösung und 2x AA vs. niedrige Auflösung und 4x/6x AA, womöglich noch 800x600. Bei niedrigen Auflösungen kann ich 20x AA haben, das Bild sieht einfach nach nichts aus, weil durch AA ja die zu geringe Rasterung nicht beseitigt wird, sondern nur ein paar Artefakte gemindert werden.

Muss man eben nen Kompromiss finden, der dem Ziel hoher Auflösung UND AA möglichst nahe kommt. Diskussionsbedarf sehe ich keinen. Höchstens, wo bei bestimmten Leistungsdimensionen-Monitor Kombinationen der optimale Mittelweg liegt.


75hz? Ich persönlich empfinde alles unter 90hz als schlimm flimmernd. Deswegen spiele ich auf 1280x960+4xAA+8xAF mit 100hz. Es gibt halt auch Leute mit empfindlichen Augen. Selbst mein Fernseher muss mit 100hz laufen, Kino mit 72hz empfinde ich auch als störend. Da ich mir nicht vorstellen kann ein Sonderfall zu sein, d.h. es gibt bestimmt noch andere 100hz Fanatiker, ist es halt nicht für jeden eine Lösung mit nur 75hz zu spielen.

nagus
2003-01-26, 22:31:08
Originally posted by Razor

Na dann sag mir mal, wo es im August einen R300 (samt GraKa ;-) zu Kaufen gegeben haben soll...
Richtig los (erste Massenverfügbarkeit) war sogar erst im Oktober.

Razor

so ein blödsinn. ich hab meine anfang september gekauft. da hat fast jeder shop in österreich schon karten gehabt. ende august gabs die karte in den USA.

Unregistered
2003-01-26, 22:31:18
seit ihr noch ganz sauber; ihr posted schneller als ich lesen kann (nein ich bin kein Legasteniker(sp?)) :D :D

StefanV
2003-01-26, 22:32:25
Originally posted by Razor

Klasse, Stefan, am Zeil vorbei würd' ich sagen...
Oder was soll das jetzt mit den 6-7 Monaten verfügbarkeit der R9700pro zu tun haben ?
???

Razor

1. nein, Razor, nicht am Ziel vorbei.

2. was das damit zu tun hat ??
na, du 'bestehst' darauf, daß die Radeon 9700 noch keine 6-7 Monate verfügbar ist, dann zeig mir mal, wo man eine GF FX kaufen kann...

Oder 'bewerten wir' nach auslaufen der NDAs nach der Vorstellung der Karte ??

Hm, gute Frage...

-error-
2003-01-26, 22:32:26
Originally posted by Unregistered
seit ihr noch ganz sauber; ihr posted schneller als ich lesen kann (nein ich bin kein Legasteniker(sp?)) :D :D

Stimmt! Ich muss andauernd auf aktualisieren klicken damit ich hinterherkomme

betasilie
2003-01-26, 22:33:26
Originally posted by Aquaschaf
naja aber man muss bedenken das die meisten leute einen 17" besitzen auf dem sie höchstens 1024x768 oder 1280x960 verwenden können .
Danke, dass Du ihn aufgeklärt hat. Im übrigen können auch die meisten 19"er in heimischen Wohnzimmern wohl nicht mehr als 75Hz in 1600*1200. Das ist nicht sehr ergonomisch.


Rampage 2, könntest Du nicht trotz der heißen Stimmung hier ein bischen freundlicher sein? :|

StefanV
2003-01-26, 22:33:36
Originally posted by Unregistered
seit ihr noch ganz sauber; ihr posted schneller als ich lesen kann (nein ich bin kein Legasteniker(sp?)) :D :D

ja, was ist mit mir ?? *eg*

Kann zwar auch nicht soo schnell posten, aber ab und zu klappts dann doch *eg*

mapel110
2003-01-26, 22:34:21
hm, diese 30 % vorsprung will ich bei 1024 und 6xAA und 8xAF sehen !

ansonsten interessieren die mich nicht :P

Labberlippe
2003-01-26, 22:34:54
Originally posted by Powerd by ATI


Stimmt! Ich muss andauernd auf aktualisieren klicken damit ich hinterherkomme

jojo das gibt traffic.

Gruss Labberlippe

Razor
2003-01-26, 22:35:03
Originally posted by davidzo

Für Razor: Ich denke nv hat denen Feuer unterm Arsch gemacht und die werden das review ganz schnell überarbeiten weil sie dann noch nen paar tausend dollars draufkriegen... insofern kannst du noch hoffen, auch wenn das die Geforce FX net besser macht.
Nein wirklich, das einzige, was nv jetzt noch machen kann ist bestechen!

< den 'Rest' hab' ich mal gesnippt ;-) >
Totaler Unsinn, sorry...
Die haben einfach die 'diskrete' Aufforderung erhalten, sich an das NDA zu halten, da es sonst teuer werden würde.
That's it...

Warte einfach bis morgen !
Und ändern werden die den Test sicher nicht...
Na ja, vielleicht überarbeiten die noch den Text... wenn sie schlau sind...
;D

Razor

Hui!
2003-01-26, 22:35:36
Irgendwie können diese Ergebnisse nix sein, wenn ich die Benchwerte einer Radeon9500Pro 128MB auf 500/1000Mhz Takt hochrechne steht ja die FX außerordentlich schlecht da, irgendwas läuft da schief :|

Mein Tipp:
Das ist ein PCB für eine 256MB GeforceFX, ist nur zur Hälfte bestückt und hat dadurch nur ein 64Bit Interface ;D

Razor
2003-01-26, 22:36:26
Originally posted by Stefan Payne

Fire GL X1 und diverse Wildcats...

Und noch einige Evans & Sutherland Karten...
a) war dir Frage nicht an Dich gerichtet :P
b) hast auch Du mir nicht 'gezeigt'

*eg*

Razor

nagus
2003-01-26, 22:36:50
und HIER noch ein sinnloses posting :)

btw, bin schon gerspannt wie nvidias aktien morgen purzeln ;)

PS: ich finde es sehr witzig, was machen leute noch vor wenigen tagen der NV30 alles zugetraut haben


gelle,

bis denne ;)

Razor
2003-01-26, 22:37:55
Originally posted by Lorien

Ich habe meine BBA damals mitte August von meinen Verwandten aus Quebec Canada geschickt bekommen. Die hatten sie direkt von ATI bestellt.

Und hier in der Schweiz gab es die Powercolor anfang September zu kaufen.
Ah ja, also nix verfügbar in Europe...
Und in der Scheitz kam die sogar erst Ende September, Anfang Oktober (nach Haarmanns Aussage).

Aber wenn Du meinst...
:D

Razor

Pirx
2003-01-26, 22:38:23
Originally posted by nagus
und HIER noch ein sinnloses posting :)

btw, bin schon gerspannt wie nvidias aktien morgen purzeln ;)

...

Da wäre ich mir nicht so sicher, die Börsianer haben manchmal weniger Ahnung als man denkt:)

StefanV
2003-01-26, 22:38:25
Originally posted by betareverse

Danke, dass Du ihn aufgeklärt hat. Im übrigen können auch die meisten 19"er in heimischen Wohnzimmern wohl nicht mehr als 75Hz in 1600*1200. Das ist nicht sehr ergonomisch.

Naja, 85Hz find ich auch 'etwas' wenig, die 75Hz an den uralten 15" Schirmen empfinde ich auch als sehr störend...

BTW: hab jetzt 'nen TFT, 1280x1024, hätte auch lieber ein Gerät mit 1600x1200 genommen, da auf diesem Schirm 800x600 wie die Faust aufs Auge passen, wenn die GraKa 'etwas' schwach ist :)

Dummerweise gibts nur 15" TFTs mit 1024x768 und größere mit 1280x1024...
Natürlich gibts auch 'spezial Displays' mit höherer AUflösung, aber WER kauft sich schon 'nen TFT für 2000€ und mehr??

BTW: mein 19" CRT am 3. Rechner schafft auch 'nur' 85Hz auf 1600x1200 und wird dabei auch ziehmlich unscharf, viel mehr als 1280x960 bei 100Hz ist bei dem Teil nicht drin...

Das ist schon ein Iiyama Vision Master PRO 450 mit 115kHz WIderholrate, gibt kaum bessere 19" Geräte, die meisten ahben 'nur' 96-110kHz, einige wenige sogar 115kHz und einer 130kHz...

Tigershark
2003-01-26, 22:38:36
Ich finds vor allem interessant da NV ja gesagt hat sie brauchen die 256bit beim Speicherinterface nicht, und außerdem sei das ohnehin viel zu teuer - naja, TEUER iss die GF FX auch OHNE 256bit, aber halt nicht sonderlich schnell... irgendwie LOL. ;D

mapel110
2003-01-26, 22:39:30
Originally posted by Pirx


Da wäre ich mir nicht so sicher, die Börsianer haben manchmal weniger Ahnung als man denkt:)

naja, wenn nvidia's balken in einem diagramm nur halb so lang ist, wie das von ati, dann sollten sie das schon deuten können ;)

Metzler
2003-01-26, 22:40:27
Originally posted by mapel110


naja, wenn nvidia's balken in einem diagramm nur halb so lang ist, wie das von ati, dann sollten sie das schon deuten können ;)

Das würde ja bedeuten, dass dank der Leistungsaufnahme die NV Aktien morgen stagnieren werden ;D

LovesuckZ
2003-01-26, 22:40:38
Originally posted by Stefan Payne
Hm, mal nachdenken...
Achja, das war ja UT 2003 mit 2x FSAA und 2° AF...
Hm, irgendwie hat Tecchan aber mit 4x FSAA und 4° AF gebencht...
Eigenartig :|

Hm was macht das, wenn die FX in UT2003 schneller ist und dafuer in OpenGL hinter 9700pro liegt?

Ausserdem war es 2AA/4AF.

Labberlippe
2003-01-26, 22:40:45
Originally posted by Tigershark
Ich finds vor allem interessant da NV ja gesagt hat sie brauchen die 256bit beim Speicherinterface nicht, und außerdem sei das ohnehin viel zu teuer - naja, TEUER iss die GF FX auch OHNE 256bit, aber halt nicht sonderlich schnell... irgendwie LOL. ;D

Brauchen Sie ja auch nicht, sieht man doch.
Rauftakten was das Zeug hält.

Gruss Labberlippe

nagus
2003-01-26, 22:41:15
Originally posted by Pirx


Da wäre ich mir nicht so sicher, die Börsianer haben manchmal weniger Ahnung als man denkt:)

hast du auch wieder recht. außerdem wirkt sich dieser fehlschlag erst in wochen, vielleicht sogar monaten auf den kurs nieder. (btw, anfang februar gibts zahlen von nvidia ;D ;D ;D )

ich sehe schon meine ati-aktien auf einem neuen allzeithoch (sehr "drastisch" ausgedrückt)


nagus

StefanV
2003-01-26, 22:41:35
Originally posted by Razor

a) war dir Frage nicht an Dich gerichtet :P
b) hast auch Du mir nicht 'gezeigt'

*eg*

Razor

1. mir doch egal :P

2. http://www.beyond3d.com/interviews/creative3dlabs/Image1.jpg

So besser ??

egdusp
2003-01-26, 22:42:15
Originally posted by Pirx


Da wäre ich mir nicht so sicher, die Börsianer haben manchmal weniger Ahnung als man denkt:)

Noch weniger Ahnung als manche hier im Forum, das geht doch dar nicht mehr :D

Wie groß war eigentlich der Leistungssprung der GF4 Ti bei 8x AF Qualität gegenüber adaptiv?

mfg
egdusp

nagus
2003-01-26, 22:42:35
Originally posted by Stefan Payne




2. http://www.schneider-digital.de/assets/images/ati_fglx1_200x135.jpg




oohhh, jaaa, gut OHHHH GEIL!!!

Liquaron
2003-01-26, 22:43:27
Originally posted by nagus



oohhh, jaaa, gut OHHHH GEIL!!!

Hast du schon ne Geforce FX die den BLOW job übernimmt oder geht dir gerade so einer flöten? :D

nagus
2003-01-26, 22:43:45
btw, ATIs CEO:




*MUAAAHAHAHAHAHAHAHA*

Endorphine
2003-01-26, 22:44:20
Originally posted by MegaManX4
75hz? Ich persönlich empfinde alles unter 90hz als schlimm flimmernd. Deswegen spiele ich auf 1280x960+4xAA+8xAF mit 100hz. Es gibt halt auch Leute mit empfindlichen Augen. Selbst mein Fernseher muss mit 100hz laufen, Kino mit 72hz empfinde ich auch als störend. Da ich mir nicht vorstellen kann ein Sonderfall zu sein, d.h. es gibt bestimmt noch andere 100hz Fanatiker, ist es halt nicht für jeden eine Lösung mit nur 75hz zu spielen.
Meiner Meinung nach existiert ein drastischer Unterschied in der Anforderung der Flimmerfreiheit bei 3D-Spielen als beim Arbeiten. Beim arbeiten, wo Text gut leserlich mit sehr hohem Kontrast dargestellt wird brauchts mindestens 85 Hz. 75 Hz sind mir da auch zu flimmrig.
Bei Spielen sind die Anforderungen aber anders, da dort nicht kleiner Text in höchsten Kontrasten gelesen werden muss z.B.

Deshalb sind dort 75 Hz IMHO durchaus tolerabel. Und im Hinblick auf Aliasing-Ursachenbekämpfung finde ich eine hohe Auflösung mit 2x AA und 75 Hz Refresh auf dem CRT deutlich niedrigen Auflösungen mit 90 Hz und 4x AA überlegen.

Oder man legt sich gleich ein (reaktionsschnelles) TFT zu. Dann kann auch mit 60 Hz gespielt werden.
<OT>
Ich frage mich sowieso, warum es für TFTs noch RAMDACs geben muss und warum nicht die Information, das ein Pixel seine Farbe oder Helligkeit ändert direkt an das TFT weitergegeben wird. Könnte man dadurch nicht auch Bandbreite einsparen?
</OT>

Razor
2003-01-26, 22:44:36
Originally posted by Stefan Payne

2. http://www.schneider-digital.de/assets/images/ati_fglx1_200x135.jpg

So besser ??
Jep... und thx !
Sieht doch cool aus, oder ?
;-)

Razor

P.S.: Aber 'stehen' tut sie nicht so schön... *eg*

StefanV
2003-01-26, 22:44:36
Originally posted by nagus
oohhh, jaaa, gut OHHHH GEIL!!!
Extra für dich hab ich mein Posting nochmal editiert :P

Lethargica
2003-01-26, 22:44:56
*räusper* ...wir sind nicht auf der Spielewiese :nono:

StefanV
2003-01-26, 22:45:23
Originally posted by Razor

Jep... und thx !
Sieht doch cool aus, oder ?
;-)

Razor

P.S.: Aber 'stehen' tut sie nicht so schön... *eg*

1. 'die neue' schaut viel besser aus *eg*

2. dafür ich um so mehr ;D

Razor
2003-01-26, 22:46:00
Originally posted by Stefan Payne

2. http://www.beyond3d.com/interviews/creative3dlabs/Image1.jpg

So besser ??
Die 'steht' zwar auch nicht, aber trotzden 'cool'...
:D

Razor

Exxtreme
2003-01-26, 22:47:10
Originally posted by Endorphine


Deshalb sind dort 75 Hz IMHO durchaus tolerabel. Und im Hinblick auf Aliasing-Ursachenbekämpfung finde ich eine hohe Auflösung mit 2x AA und 75 Hz Refresh auf dem CRT deutlich niedrigen Auflösungen mit 90 Hz und 4x AA überlegen.

Du vergisst aber einen grösseren Nachteil einer hohen Auflösung. Bei dem überwiegenden Teil der Gamez wird bei steigender Auflösung die Schrift immer kleiner da diese meist nicht mitskaliert.

nggalai
2003-01-26, 22:47:27
Originally posted by J0hN|Cl4rK
*räusper* ...wir sind nicht auf der Spielewiese :nono: NOCH nicht. *eg*

Nein, ernsthaft Jungs, ich gönn's euch ja dass ihr's jetzt hier einigen "heimzahlen" könnt, aber bitte bleibt wenigstens einigermassen beim Thema, i.e. Review auf Tecchannel. Eine Weile lang war's ja lustig, aber eben--Spielwiese wartet, ok?

ta,
-Sascha.rb

Razor
2003-01-26, 22:49:28
Originally posted by nggalai
NOCH nicht. *eg*

Nein, ernsthaft Jungs, ich gönn's euch ja dass ihr's jetzt hier einigen "heimzahlen" könnt, aber bitte bleibt wenigstens einigermassen beim Thema, i.e. Review auf Tecchannel. Eine Weile lang war's ja lustig, aber eben--Spielwiese wartet, ok?

ta,
-Sascha.rb
Du musst zugeben, nggalai, dass der Test auf TC nicht gerade zum ernsthaften Diskutieren einläd, oder ?

Razor

Rampage 2
2003-01-26, 22:49:48
Originally posted by nggalai
Hola,

1) Richtig.

2) Wenn ich nicht mindestens 85Hz habe, tun mir die Augen nach rund 2 Minuten weh. Ideal sind 100Hz, das halte ich einen Tag lang aus, bei 85Hz darf ich im 30 Minuten-Abstand Pause machen.

Und "die meisten Monitore haben genügend Refresh-Rate für diese Auflösung" würde ich auch etwas anders formulieren--Du wärst erstaunt, wieviele Leute selbst mit High-End-Systemen noch auf 17"ern oder alten 19"ern spielen (welche die Auflösung entweder gar nicht mehr oder vielleicht noch bei 75Hz schaffen), oder sich TFTs mit nativer Auflösung von 1280x1024 gekauft haben . . .

ta,
-Sascha.rb

Ich schalte den Vsync eh ab:zzz:

mapel110
2003-01-26, 22:50:28
Originally posted by Exxtreme

Du vergisst aber einen grösseren Nachteil einer hohen Auflösung. Bei dem überwiegenden Teil der Gamez wird bei steigender Auflösung die Schrift immer kleiner da diese meist nicht mitskaliert.

dito, bei mohaa sehr schön zu beobachten btw ;)

Razor
2003-01-26, 22:50:47
Originally posted by Rampage 2

Ich schalte den Vsync eh ab:zzz:
Ich schließ mich da an...
War 'ne lange und anstrengende Nacht gestern !
:D

razor

Siehste, kann nicht mal mehr meinen Nick schreiben ;D

Endorphine
2003-01-26, 22:50:50
Originally posted by Exxtreme
Du vergisst aber einen grösseren Nachteil einer hohen Auflösung. Bei dem überwiegenden Teil der Gamez wird bei steigender Auflösung die Schrift immer kleiner da diese meist nicht mitskaliert.
OK, ist ein Argument. Mir fallen da aber ausm Stegreif nur die Kommandozeilen von Spielen mit idsoftware- oder EPIC-Engine ein. Das ist dann auch eher ein Versäumnis der Programmierer IMO.

Dunkeltier
2003-01-26, 22:51:28
Originally posted by Razor

Sind dann aber schon 4 cents...
:D

Wer hofft, das das Ding ein Flop wird, hat offensichtlich nicht richtig nachgedacht...
Diejenigen die hoffen, dass nVidia jetzt untergeht, noch viel weniger.

Warten wir einfach noch ein paar weitere und vor allem qualitativ akzeptable 'Tests' ab und zerraufen uns dann die Haare, OK ? Ich will jetzt erst einmal wisen, ob das Ding einem wirklich was bringen kann und wenn ja, was ! So einfach ist das...

Das, was Du da abgelassen hast, ist schlicht eine Sammlung von Horensagen und Spekulationen... mehr nicht.
Ein paar Tage zu warten, wird ja wohl nicht zuviel verlangt sein, oder ?
Wir warten doch schon sooooo lange !
:D

Razor

Ich werde noch mehr Cents in den Klingelbeutel werfen, verlass dich drauf. Und verstehe doch einfach, das der GeforceFX auch ein wenig Füllrate fehlt. 500 Mhz bei 8x1, hm...zuwenig für aF und AA um die Radeon 9700 deutlich zu überrunden. Mit 'ner 20 GB/S Speicheranbindung und 8x2 hätten sie Bäume ausreissen können und ich hätte mir wieder eine Geforce gekauft, aber so nicht.

Im übrigen will ich gar nicht das NVidia untergeht, ich will nur ein wenig flamen gegen die ganzen Fanboys die mir meine R300 madig geredet haben. Naja, genauso wie der ewig verschobene Hammer kommt diesmal auch NVidia zu spät bzw. einfach zum falschen Zeitpunkt auf'm Markt (ursprünglich sollte der NV30 im Winter defenitiv erscheinen).

Ich warte gerne noch weitere Tests ab, bin aber ganz optimistisch das sich das nicht großartig ändern wird.

StefanV
2003-01-26, 22:51:40
Originally posted by Rampage 2
Ich schalte den Vsync eh ab:zzz:

Ob mit oder ohne V-Sync hängt ersteinmal vom Spiel ab.

Dann spielt auch das verwendete System auch eine gewisse Rolle.

kurz:

EInige Spiele spielen sich mit V-Sync besser als ohne V-Sync.

Das sind z.B. Rennspiele oder Weltraumsims, bei Rollenspielen macht V-Sync 'dank' der 'enormen' Framerate kaum sinn...

Iceman346
2003-01-26, 22:52:23
@Endorphine

Beim AA von ATI lohnt es ab 1024 nicht mehr die Auflösung hochzustellen wenn man dafür in der AA Stufe um eines zurückgehen muss. 1024 mit 4x AA rennt auf der 9700Pro in JEDEM Spiel das ich bisher getestet hab problemlos und smooth. Wenn ich auf 1600 raufgehen würde (was so grade noch geht, ist aber ekelhaft auf meinem 17"@75Hz ich sehe das Flimmern nämlich auch bei Spielen) und dann auf 2x AA zurückschalten müsste ist a) der Kantenglättungseffekt schlechter und b) eventuelle Schrift schlechter lesbar.

Bei der FX ist das anders da man dort anstatt 4x AA anschalten kann auch gleich die Auflösung erhöhen kann (Stichwort Ordered Grid AA) aber auf einer 9700 ist das was du darlegst definitiv falsch.

Rampage 2
2003-01-26, 22:54:09
Originally posted by betareverse

Danke, dass Du ihn aufgeklärt hat. Im übrigen können auch die meisten 19"er in heimischen Wohnzimmern wohl nicht mehr als 75Hz in 1600*1200. Das ist nicht sehr ergonomisch.


Rampage 2, könntest Du nicht trotz der heißen Stimmung hier ein bischen freundlicher sein? :|

yow, hab mich wieder etwas zu aggresiv aufgefasst, sorry;)

aber flamen werde trotzdem:D

2.) Die beste Lösung: schalt' den Vsync ab =)

Thowe
2003-01-26, 22:54:21
Originally posted by nggalai
NOCH nicht. *eg*

Nein, ernsthaft Jungs, ich gönn's euch ja dass ihr's jetzt hier einigen "heimzahlen" könnt, aber bitte bleibt wenigstens einigermassen beim Thema, i.e. Review auf Tecchannel. Eine Weile lang war's ja lustig, aber eben--Spielwiese wartet, ok?

ta,
-Sascha.rb


Ähhh, ja, vielleicht sollte man wirklich.

Iceman346
2003-01-26, 22:55:22
Originally posted by Endorphine

OK, ist ein Argument. Mir fallen da aber ausm Stegreif nur die Kommandozeilen von Spielen mit idsoftware- oder EPIC-Engine ein. Das ist dann auch eher ein Versäumnis der Programmierer IMO.

Paradebeispiel hierfür ist Morrowind. Hier ist AA wirklich dem Spiel zuträglich und Items und Text werden mit jeder höheren Auflösung kleiner.

Edit:
Wo ich grad dabei bin
@Razor, meine 9700Pro hab ich seit Mitte September in meinem PC stecken. Die Rechnung finde ich leider grad nicht darum kann ich dir keinen genauen Termin geben ;)

betasilie
2003-01-26, 22:55:41
Morgen um Neun Uhr wird das Heulen meilenweit zu hören sein!

So ich zocke jetzt erst mal mit meiner 9700 für 300€, die dank ihrer jetzigen Taktrate wohl um einiges schneller ist, wie eine GFFX-Ultra für 650€. ;D

Dunkeltier
2003-01-26, 22:57:33
Originally posted by Stefan Payne


Hm, mal nachdenken...

Achja, das war ja UT 2003 mit 2x FSAA und 2° AF...

Hm, irgendwie hat Tecchan aber mit 4x FSAA und 4° AF gebencht...

Eigenartig :|


Ich spiele aber meist auf 8x oder 16x... :D Also nicht praxisrelevant.

betasilie
2003-01-26, 22:59:32
@ Dunkeltier

Geile Sig. ;D

Rampage 2
2003-01-26, 22:59:34
Originally posted by Iceman346
@Endorphine

Beim AA von ATI lohnt es ab 1024 nicht mehr die Auflösung hochzustellen wenn man dafür in der AA Stufe um eines zurückgehen muss. 1024 mit 4x AA rennt auf der 9700Pro in JEDEM Spiel das ich bisher getestet hab problemlos und smooth. Wenn ich auf 1600 raufgehen würde (was so grade noch geht, ist aber ekelhaft auf meinem 17"@75Hz ich sehe das Flimmern nämlich auch bei Spielen) und dann auf 2x AA zurückschalten müsste ist a) der Kantenglättungseffekt schlechter und b) eventuelle Schrift schlechter lesbar.

Bei der FX ist das anders da man dort anstatt 4x AA anschalten kann auch gleich die Auflösung erhöhen kann (Stichwort Ordered Grid AA) aber auf einer 9700 ist das was du darlegst definitiv falsch.

*zustimm*

Nun ja, 17er sind ja auch so klein, dass man kaum noch Rasterung
bei dieser Auflösung sieht;D - daher wäre eine höhere Auflösung
sinnlos. Die Leistung sollte man bei kleinen Monitoren für AA
stecken. Aber auch R300-Karten mit besserem 4xAA dürfen bei 19ern
auf keinen Fall ein niedrigere Auflösung als 1280x960 haben, da sonst
Rasterung zu sehen ist. Bei 19Zöllern ist 1600x1200 ideal - man kann
ja notfalls den Vsync abschalten. Der deiner Aussage ist aber rich-
tig.

Endorphine
2003-01-26, 22:59:59
Originally posted by Iceman346
@Endorphine

Beim AA von ATI lohnt es ab 1024 nicht mehr die Auflösung hochzustellen wenn man dafür in der AA Stufe um eines zurückgehen muss. 1024 mit 4x AA rennt auf der 9700Pro in JEDEM Spiel das ich bisher getestet hab problemlos und smooth. Wenn ich auf 1600 raufgehen würde (was so grade noch geht, ist aber ekelhaft auf meinem 17"@75Hz ich sehe das Flimmern nämlich auch bei Spielen) und dann auf 2x AA zurückschalten müsste ist a) der Kantenglättungseffekt schlechter und b) eventuelle Schrift schlechter lesbar.

Bei der FX ist das anders da man dort anstatt 4x AA anschalten kann auch gleich die Auflösung erhöhen kann (Stichwort Ordered Grid AA) aber auf einer 9700 ist das was du darlegst definitiv falsch.
Halt - "aber auf einer 9700 ist das was du darlegst definitiv falsch". Das ist deine Meinung, kein Fakt!

Übrigens wage ich mich bei keinem Spiel ausser Q3A, mit meiner 9700er mehr als 2x AA zu aktivieren. In UT2k3 ist es nicht denkbar, in NFS erst recht nicht und in Army Ops ist eigentlich schon 2x AA zu viel des guten, weil es mit der 9700er nur im Schneckentempo läuft.

Vielleicht spiele ich zu wenige Spiele, aber die, die ich spiele ist es praktisch unmöglich, akzeptable Frameraten mit einer Auflösung ab 1024x768 und FSAA >2x zu fahren.

Genau der umgekehrte Fakt wie du es darstellst. Deshalb Vorsicht mit "definitiv falsch", jeder hat andere Anforderungen. Ich spiele z.B. gern mit hohem AF-Modus und vollen Details und hoher Auflösung. Und mir sind Frameraten über 50 fps wichtig bei first person shootern.

betasilie
2003-01-26, 23:01:09
Originally posted by Rampage 2
Bei 19Zöllern ist 1600x1200 ideal
Da hast Du recht, aber nur wenn es noch ergonomisch ist! ;)

nggalai
2003-01-26, 23:01:14
Ist zwar OT, aber da muss ich einfach nachfragen:
Originally posted by Rampage 2
Ich schalte den Vsync eh ab:zzz: Und was hat VSync mit Geflimmer wegen zu niedriger Bildwiederholfrequenz zu tun? ???

ta,
-Sascha.rb

davidzo
2003-01-26, 23:01:31
Ich weiß gar net was für probleme ihr habt... mir reichen 60hz völlig aus :D

aber Vsync muss an, das sieht sonst net aus, immer os blöde verzerrungen und son scheiß, selbsr bei Bfield schon, das nun ja net gerade so ein schneller shooter ist!

Ich sage nur TFT rulez... da reicht mir auch ne Radeon 8500, frames bringt sie mit nem ordentlichen proz genug, da sie gut skaliert und FSAA kann ich mir manchmal sogar auch erlaoben, 16x AF sowieso... die wird frühestens beim R350 upgedatet, die heutigen karten sind ja net viel schneller...
ich hatte ne zeit lang gewähnt ne R9700 zu kaufen weil die FX ja neue Maßstäbe setzen sollte, jetzt kann ich mich aber beruhigt zurücklehnen und meine Radeon genießen *rofl*

nagus
2003-01-26, 23:02:33
hab mal wieder gebencht... :)

und zwar Codecreatures Benchmark Pro 1280x1024

Radeon 9700PRO 398/754MHz : 38,8 fps
Geforce FX ULTRA 500/1000 : 34,8 fps
Radeon 9700PRO 325/620MHz : 31,5 fps


ps: die werte tecChannel scheinen zu stimmen

Winter[Raven]
2003-01-26, 23:02:40
hmmm ... nunja ... also, ich weiss nicht, ich kann mir irgend wie nicht vorstellen dass Nvidia erstmal soein Hype drum macht, und so entteuschend sein soll. Ich warte lieber auf die Morgigen Bench als auf TechChenel die so ein Beeindruckendes (sarkastisch gemein) Review geschrieben haben.

Und wenn doch nicht, dann glaub ich liegt es irgend wo an den Beta Treibern von Nvidia

StefanV
2003-01-26, 23:03:03
Originally posted by Rampage 2


*zustimm*

Nun ja, 17er sind ja auch so klein, dass man kaum noch Rasterung
bei dieser Auflösung sieht;D - daher wäre eine höhere Auflösung
sinnlos. Die Leistung sollte man bei kleinen Monitoren für AA
stecken. Aber auch R300-Karten mit besserem 4xAA dürfen bei 19ern
auf keinen Fall ein niedrigere Auflösung als 1280x960 haben, da sonst
Rasterung zu sehen ist. Bei 19Zöllern ist 1600x1200 ideal - man kann
ja notfalls den Vsync abschalten. Der deiner Aussage ist aber rich-
tig.

???

WAS für einen Monitor hast DU eigentlich ??

Wovon redest du eigentlich ??

Bei einem 19er sind 1280x960 schon optimal, 1152x864 sind auch sehr gut, 1600x1200 sind nicht auf jedem Gerät sinnvoll einsetzbar.

Dunkeltier
2003-01-26, 23:05:19
Originally posted by betareverse
@ Dunkeltier

Geile Sig. ;D


Sollen die NVidiots an ihrer Schmach ersticken. ;D :D :bäh: Das ist echt nur noch zum :lol:...

Exxtreme
2003-01-26, 23:05:28
Originally posted by Shakiro
Und wenn doch nicht, dann glaub ich liegt es irgend wo an den Beta Treibern von Nvidia
Willst du damit behaupten, daß NV trotz mehrmonatiger Verspätung keine gescheiten Treiber auf die Reihe kriegt?

;D

MegaManX4
2003-01-26, 23:06:34
Originally posted by Endorphine

Meiner Meinung nach existiert ein drastischer Unterschied in der Anforderung der Flimmerfreiheit bei 3D-Spielen als beim Arbeiten.
Genau, deiner Meinung nach...Nur nützt dir das nichts mit meinen Augen.

Beim arbeiten, wo Text gut leserlich mit sehr hohem Kontrast dargestellt wird brauchts mindestens 85 Hz. 75 Hz sind mir da auch zu flimmrig.
Bei Spielen sind die Anforderungen aber anders, da dort nicht kleiner Text in höchsten Kontrasten gelesen werden muss z.B.

Hohe Kontraste gibt es auch in so gut wie jedem Spiel. Jedi Knight 2 ist mit häufigen Hell-Dunkel-Wechseln ein gutes Beispiel dafür. Es ist ja nicht so, das ich nicht versucht habe mit 1600x1200x85hz zu spielen. Für mich ist das aber keine Alternative zu 100hz. Was nützt mir die höhere Auflösung, wenn ich dadurch Kopfschmerzen bekomme?

Deshalb sind dort 75 Hz IMHO durchaus tolerabel. Und im Hinblick auf Aliasing-Ursachenbekämpfung finde ich eine hohe Auflösung mit 2x AA und 75 Hz Refresh auf dem CRT deutlich niedrigen Auflösungen mit 90 Hz und 4x AA überlegen.

Das ist deine Meinung, das macht sie aber nicht allgemeingültig.

Oder man legt sich gleich ein (reaktionsschnelles) TFT zu. Dann kann auch mit 60 Hz gespielt werden.

Das limitiert mir aber die maximale Framerate auf 60fps. Auch wenn man die mit 1280x960x32@100hz+4xAA+8xAF nicht oft erreicht...


Thomas

nagus
2003-01-26, 23:07:14
Originally posted by Stefan Payne


???

WAS für einen Monitor hast DU eigentlich ??

Wovon redest du eigentlich ??

Bei einem 19er sind 1280x960 schon optimal, 1152x864 sind auch sehr gut, 1600x1200 sind nicht auf jedem Gerät sinnvoll einsetzbar.

1600x1200 sind sogar für manche 24" monitore schon zu viel.

Iceman346
2003-01-26, 23:08:22
Originally posted by Endorphine

Halt - "aber auf einer 9700 ist das was du darlegst definitiv falsch". Das ist deine Meinung, kein Fakt!

Übrigens wage ich mich bei keinem Spiel ausser Q3A, mit meiner 9700er mehr als 2x AA zu aktivieren. In UT2k3 ist es nicht denkbar, in NFS erst recht nicht und in Army Ops ist eigentlich schon 2x AA zu viel des guten, weil es mit der 9700er nur im Schneckentempo läuft.

Vielleicht spiele ich zu wenige Spiele, aber die, die ich spiele ist es praktisch unmöglich, akzeptable Frameraten mit einer Auflösung ab 1024x768 und FSAA >2x zu fahren.

Genau der umgekehrte Fakt wie du es darstellst. Deshalb Vorsicht mit "definitiv falsch", jeder hat andere Anforderungen. Ich spiele z.B. gern mit hohem AF-Modus und vollen Details und hoher Auflösung. Und mir sind Frameraten über 50 fps wichtig bei first person shootern.

Ich spiele sowohl UT2k3 als auch NFS in 1024 mit 4x AA und 16xAF und zwar flüssig genug (wobei ich bei UT ein paar Details abgestellt hab aber das eher wegen meinem zu kleinen Prozessor). 50 fps sind bei mir mit UT nicht drin, aber das brauche ich bei dem Spiel auch garnicht, solange er nicht unter 35 fällt (und das passiert praktisch nie) habe ich dabei keinerlei Probleme. NFS hab ich mir nie die fps angeguckt aber bis auf einige kleine Ruckler (die afaik auch andere Leute haben und am Spiel liegen) hab ich keinerlei Probleme mit den fps dort. Bei CS gibts sowieso keine fps Probleme ;) und Q3, Deus Ex und Haegemonia rennen auch flüssig mit 4x AA.

Es geht mir auch weniger um die nötigen fps sondern um die Behauptung das es mehr bringen würde die Auflösung zu erhöhen als das AA höher zu stellen und das ist imo ab 1024 (800x600 ist auch mit AA zu schlecht) nicht mehr gegeben.

Salvee
2003-01-26, 23:10:07
Originally posted by Shakiro

Und wenn doch nicht, dann glaub ich liegt es irgend wo an den Beta Treibern von Nvidia

Beta Treiber ? In Q3A ?? Beim UDA, dass nV recht (bzw. sehr) gut hinbekommt?
Hier ist wohl der Wunsch der Vater des Gedanken...

VoodooJack
2003-01-26, 23:10:14
Naja, dass bei einigen unter diesen Umständen die letzten Birnen durchbrennen, ist irgendwie logisch.

Da hat man monatelang über den Überflieger GeforceFX herumschwadroniert, und nun muss man feststellen, dass er nur mit Hängen und Würgen mit einem Produkt mithalten kann, das seit 5 Monaten auf dem Markt ist. Das tut weh.

Was tut man in so einer Situation? Alles nur nicht bescheidener auftreten. Da wird nach bewährtem Schema auf Nebenschauplätze ausgewichen, wär doch gelacht, wenn man bei der Konkurrenz nicht irgend etwas finden würde, das noch verbessert werden könnte, und flugs ist aus einer Niederlage ein Sieg geworden.

So lässt es sich viel leichter Wunden lecken.

Nur, die Wahrheit muss Wahrheit bleiben. Das gilt auch für unseren Bis-denne-Razor. Zum Beispiel ist die 9700Pro schon seit September 02 im Handel. Ich hab meine auch im September 02 gekauft.

Endorphine
2003-01-26, 23:14:24
Originally posted by MegaManX4
Originally posted by Endorphine


Genau, deiner Meinung nach...Nur nützt dir das nichts mit meinen Augen.



Hohe Kontraste gibt es auch in so gut wie jedem Spiel. Jedi Knight 2 ist mit häufigen Hell-Dunkel-Wechseln ein gutes Beispiel dafür. Es ist ja nicht so, das ich nicht versucht habe mit 1600x1200x85hz zu spielen. Für mich ist das aber keine Alternative zu 100hz. Was nützt mir die höhere Auflösung, wenn ich dadurch Kopfschmerzen bekomme?



Das ist deine Meinung, das macht sie aber nicht allgemeingültig.



Das limitiert mir aber die maximale Framerate auf 60fps. Auch wenn man die mit 1280x960x32@100hz+4xAA+8xAF nicht oft erreicht...


Thomas
Ich behaupte gar nicht, dass meine Meinung allgemeingültig ist :)

Deshalb schreibe ich ja Floskeln wie "in my (humble) opinion" dazu, damit der Leser merkt, dass ich hier nur von mir ausgehe und dass andere das oft anders sehen.

Ich wollte damit nur sagen, dass das wohl subjektiv ist. Ich empfinde 85 Hz als angenehm, obwohl 100 Hz auch schön wären, aber dabei nimmt dann die Bildschärfe schon ab...

Hauptsache, du bist mit deiner Auflösungs-Detail-AF-Frameraten-AA-Refreshraten Kombination glücklich. Ich will nur aufzeigen, dass auch andere Kombinationen Sinn machen können.

Und dass Ursachenbekämpfung sinnvoller als Symptomlinderung ist sollte kein Streitthema sein. Nur eben den - wie ich bereits sagte - optimalen (also -> subjektiv verschiedenen!) Mittelweg zu finden ist ein Diskussionsthema.

Nur sollten eben IMO (!) mehr Leute mehr in Richtung Ursachenbekämpfung streben und nicht in niedrigsten Auflösungen höchsten AA-Modi aktivieren, was nur Symptomlinderung wäre. OK? :)

Radeonator
2003-01-26, 23:15:42
Ich werde mich (dieses eine mal noch ;) ) hüten Sarkasmus, Zynismus und andere Freuden des Humors über NV User zu schütten, da ich selbst mehr als enttäuscht bin :(

Aber dieses Preview besagt IMO noch gar nichts, erstmal abwarten was auf den restlichen Sites so kommt und dann vergleichen!

Stimmen die Werte, sollte die nächste NV Graka unbedingt eine 256bit Speicheranbindung haben.

So, stay tuned and smoke some earl-grey ;)

Rampage 2
2003-01-26, 23:15:49
Originally posted by Stefan Payne


???

WAS für einen Monitor hast DU eigentlich ??

Wovon redest du eigentlich ??

Bei einem 19er sind 1280x960 schon optimal, 1152x864 sind auch sehr gut, 1600x1200 sind nicht auf jedem Gerät sinnvoll einsetzbar.

1.) Ich habe einen Samsung Syncmaster 959NF - eines der besten 19er
die es zu kaufen gibt - und das auch nur für 400€;D

2.) also bei 1152x864 sehe ich immer noch eine leichte Rasterung.

Demirug
2003-01-26, 23:16:01
Originally posted by Salvee


Beta Treiber ? In Q3A ?? Beim UDA, dass nV recht (bzw. sehr) gut hinbekommt?
Hier ist wohl der Wunsch der Vater des Gedanken...

Nicht zwangsläufig. Ich denke zwar auch nicht das es wirklich "BETA" Treiber sind aber selbst bei UDA braucht NVIDIA für jede Karte einen neuen HAL. Vom NV10 bis zum NV28 war dieser HAL eine Erweiterungsgeschichte. Es wurden einfach die HALs der Vorgängerkarten benutzt und an die neuen möglichkeiten angepasst.

Beim NV30 wurde aber aufgrund der komplett überarbeiteten Strucktur mal wieder ein vollkommen neuer HAL gebraucht. Es ist also durchaus möglich das es dort noch eine Menge optimierungsmöglichkeiten gibt.

davidzo
2003-01-26, 23:16:39
Hackt nicht zuviel auf unseren nvidioten rum, die armen.
Auch wenn sie es verdient hätten... nur weil einem böses angtan wurd eist das noch lange noch kein Grund es mit bösem zu vergelten! Wir sind hier ja nicht in den USA! ;D

Nein wirklich, eines muss man unserem Razor echt lassen, er trägt es mit echter gelassenheit! Dieser sarkasmus und trotzdem immer noch Hoffnung, er wird von sovielen seiten nieder gemacht und steckt nur ein und steht trotzdem noch da... der hat Mumm, das muss man ihm lassen (aber das bessert die leistung der Geforce FX auch nicht mehr)

Im Gegensatz zu einigen, die vorher über ATI geflamet haben stehen unsere echten nvidioten noch tapfer zu ihrer Marke. Die ratten verlassen das sinkende Schiff.

ich werde ja richtig lachen, wenn morgen Benchmarks kommen, in denen die FX viel besser abschneidet ;)
dann gibts wieder ein massenseitenwechsel (ich heiße zwar net nagus, aber ich werde bestimmt nicht weichen, allein schon wegen der TCPA list!)

Nein, statt weiterzuflamen sollten wir abwarten und Tee essen... auch wenns Spaß macht, es ist unfair razor und den anderen gegenüber...

Rampage 2
2003-01-26, 23:17:59
Originally posted by nggalai
Ist zwar OT, aber da muss ich einfach nachfragen:
Und was hat VSync mit Geflimmer wegen zu niedriger Bildwiederholfrequenz zu tun? ???

ta,
-Sascha.rb

Ups:D;D

Ich habe jedenfalls trotzdem kein Geflimmer in UT bemerkt=).

nagus
2003-01-26, 23:18:10
Originally posted by VoodooJack
Naja, dass bei einigen unter diesen Umständen die letzten Birnen durchbrennen, ist irgendwie logisch.

Da hat man monatelang über den Überflieger GeforceFX herumschwadroniert, und nun muss man feststellen, dass er nur mit Hängen und Würgen mit einem Produkt mithalten kann, das seit 5 Monaten auf dem Markt ist. Das tut weh.

Was tut man in so einer Situation? Alles nur nicht bescheidener auftreten. Da wird nach bewährtem Schema auf Nebenschauplätze ausgewichen, wär doch gelacht, wenn man bei der Konkurrenz nicht irgend etwas finden würde, das noch verbessert werden könnte, und flugs ist aus einer Niederlage ein Sieg geworden.

So lässt es sich viel leichter Wunden lecken.

Nur, die Wahrheit muss Wahrheit bleiben. Das gilt auch für unseren Bis-denne-Razor. Zum Beispiel ist die 9700Pro schon seit September 02 im Handel. Ich hab meine auch im September 02 gekauft.

ganz meine meinung.


btw, schon jemand über die "nicht" ultra ein wort verloren? ich denke, dass nvidia mit viel viel glück mit 4xfsaa und 8xaf vielleicht die leistung einer 300/600 Mhz getakteten 9500PRO erreicht. zu einem preis, der absolut astronomisch ist.

ati wird mit der r350 und rv350 nvidia sowas von in den hintern kneifen!!! die brauchen JAHRE um sich davon zu erholen!! die R400 steht ja auch vor der tür.

Endorphine
2003-01-26, 23:18:20
Originally posted by Iceman346
Es geht mir auch weniger um die nötigen fps sondern um die Behauptung das es mehr bringen würde die Auflösung zu erhöhen als das AA höher zu stellen und das ist imo ab 1024 (800x600 ist auch mit AA zu schlecht) nicht mehr gegeben.
Wieder nur - wie ich bereits sagte - Optimumfindung. Darüber kann man ewig diskutieren. Wenn es eben aus Gründen wie mangelnder Ergonomie keinen Sinn macht, die Auflösung weiter nach oben zu treiben wäre ich der letzte, der dann noch Auflösungserhöhung statt AA-Aktivierung fordert.

Den Grunsatz lasse ich trotzdem so stehen: Ursachenbekämpfung vor Symptomlinderung. Von mir aus noch erweitert um: "solange es im Einzelfall Sinn macht".

StefanV
2003-01-26, 23:19:49
Originally posted by Rampage 2


1.) Ich habe einen Samsung Syncmaster 959NF - eines der besten 19er
die es zu kaufen gibt - und das auch nur für 400€;D

2.) also bei 1152x864 sehe ich immer noch eine leichte Rasterung.

1. und ich hab einen Iiyama Vision Master PRO 450, einer der besten 19er, die es je gab *eg*
BTW: hab ~750€ für den Schirm gezahlt...

2. mir reicht schon 1024x768, kann gerad keine höheren Auflösungen als 800x600 Testen, da meine GD-5424 (512k) nicht mehr hergibt...

Naja, mehr als 1280x1024 hab ich mit dem Iiyama eigentlich weniger genutzt...

davidzo
2003-01-26, 23:19:49
Originally posted by VoodooJack
Naja, dass bei einigen unter diesen Umständen die letzten Birnen durchbrennen, ist irgendwie logisch.

Da hat man monatelang über den Überflieger GeforceFX herumschwadroniert, und nun muss man feststellen, dass er nur mit Hängen und Würgen mit einem Produkt mithalten kann, das seit 5 Monaten auf dem Markt ist. Das tut weh.

Was tut man in so einer Situation? Alles nur nicht bescheidener auftreten. Da wird nach bewährtem Schema auf Nebenschauplätze ausgewichen, wär doch gelacht, wenn man bei der Konkurrenz nicht irgend etwas finden würde, das noch verbessert werden könnte, und flugs ist aus einer Niederlage ein Sieg geworden.

So lässt es sich viel leichter Wunden lecken.

Nur, die Wahrheit muss Wahrheit bleiben. Das gilt auch für unseren Bis-denne-Razor. Zum Beispiel ist die 9700Pro schon seit September 02 im Handel. Ich hab meine auch im September 02 gekauft.

Du bist aber mies... die armen sind doch innerlich schon völlig fertig...
die spüren eine Stimme in ihnen das was net stimmt und irgendwann wird diese stimme rauskommen und es ihnen fett ins gesicht schreien... hör bitte auf mit dem geflame, das ist um keinen deut besser als das was die nvidioten damals mit uns gemacht haben

nagus
2003-01-26, 23:20:36
Originally posted by davidzo

Nein wirklich, eines muss man unserem Razor echt lassen, er trägt es mit echter gelassenheit!


das ist alles nur fassade, innerlich heult er wie ein kleines kind weil er sich eine Geforce FX kaufen MUSS ;)

Iceman346
2003-01-26, 23:22:58
Originally posted by Endorphine

Wieder nur - wie ich bereits sagte - Optimumfindung. Darüber kann man ewig diskutieren. Wenn es eben aus Gründen wie mangelnder Ergonomie keinen Sinn macht, die Auflösung weiter nach oben zu treiben wäre ich der letzte, der dann noch Auflösungserhöhung statt AA-Aktivierung fordert.

Den Grunsatz lasse ich trotzdem so stehen: Ursachenbekämpfung vor Symptomlinderung. Von mir aus noch erweitert um: "solange es im Einzelfall Sinn macht".

Ok, jedem das Seine (und mir das meißte ;))

:bier:

Grundsätzlich warte ich aber auch noch auf weitere Zahlen bis ich die Benches glaube, wenn sie sich bestätigen (ich muss morgen zum Glück erst um 10 zur Uni also Zeit zum Reviews lesen ^^) dann kann man Nvidia wirklich zum Reinfall gratulieren ;)

Andre
2003-01-26, 23:23:32
Originally posted by nagus


ganz meine meinung.


btw, schon jemand über die "nicht" ultra ein wort verloren? ich denke, dass nvidia mit viel viel glück mit 4xfsaa und 8xaf vielleicht die leistung einer 300/600 Mhz getakteten 9500PRO erreicht. zu einem preis, der absolut astronomisch ist.

ati wird mit der r350 und rv350 nvidia sowas von in den hintern kneifen!!! die brauchen JAHRE um sich davon zu erholen!! die R400 steht ja auch vor der tür.

Deine Freude, die ich verstehen kann, in Ehren, aber du solltest eins beachten:

Sollte ATI jetzt in die Postition NV´s kommen, dann kann deine "Geilheit" nett zurückschlagen.
Oder bist du immer noch der Überzeugung, dass ATI ein non-wirtschaftliches Unternehmen ist?

Endorphine
2003-01-26, 23:23:56
Originally posted by nagus
das ist alles nur fassade, innerlich heult er wie ein kleines kind weil er sich eine Geforce FX kaufen MUSS ;)
Richthofen steht vielleicht schon am Rande des Suizids ;)

MegaManX4
2003-01-26, 23:24:25
Originally posted by Endorphine

Ich behaupte gar nicht, dass meine Meinung allgemeingültig ist :)

Deshalb schreibe ich ja Floskeln wie "in my (humble) opinion" dazu, damit der Leser merkt, dass ich hier nur von mir ausgehe und dass andere das oft anders sehen.

Ich wollte damit nur sagen, dass das wohl subjektiv ist. Ich empfinde 85 Hz als angenehm, obwohl 100 Hz auch schön wären, aber dabei nimmt dann die Bildschärfe schon ab...

Hauptsache, du bist mit deiner Auflösungs-Detail-AF-Frameraten-AA-Refreshraten Kombination glücklich. Ich will nur aufzeigen, dass auch andere Kombinationen Sinn machen können.

Und dass Ursachenbekämpfung sinnvoller als Symptomlinderung ist sollte kein Streitthema sein. Nur eben den - wie ich bereits sagte - optimalen (also -> subjektiv verschiedenen!) Mittelweg zu finden ist ein Diskussionsthema.

Nur sollten eben IMO (!) mehr Leute mehr in Richtung Ursachenbekämpfung streben und nicht in niedrigsten Auflösungen höchsten AA-Modi aktivieren, was nur Symptomlinderung wäre. OK? :)

OK:)!

Auch ich persönlich würde z.B. 1600x1200x100hz bevorzugen, nur leider sind gescheite Monitore mit diesen Eigenschaften einfach nicht erschwinglich im Hinblick auf Preis/Leistung. Jeder der einmal GTA3 vergleichweise flüssig mit 1600x1200+4xAA+8xAF gespielt hat, weiß das der Unterschied zu 1024x768 gewaltig ist.

Thomas

mapel110
2003-01-26, 23:25:46
Originally posted by Andre


Deine Freude, die ich verstehen kann, in Ehren, aber du solltest eins beachten:

Sollte ATI jetzt in die Postition NV´s kommen, dann kann deine "Geilheit" nett zurückschlagen.
Oder bist du immer noch der Überzeugung, dass ATI ein non-wirtschaftliches Unternehmen ist?

bis sich ati's überlegenheit zum beispiel auf die preise auswirkt, wird ne ganze weile dauern. im länger als die r300 erfolgswelle dauern wird.

kommt ja auch auf den langen atem an.

nagus
2003-01-26, 23:26:19
Originally posted by Andre


Deine Freude, die ich verstehen kann, in Ehren, aber du solltest eins beachten:

Sollte ATI jetzt in die Postition NV´s kommen, dann kann deine "Geilheit" nett zurückschlagen.
Oder bist du immer noch der Überzeugung, dass ATI ein non-wirtschaftliches Unternehmen ist?


was soll jetzt das wieder bedeuten? ich gehe ja nicht davon aus, dass Nvidia pleite geht. die positionen werden einfach getauscht.

Dunkeltier
2003-01-26, 23:26:20
Originally posted by Endorphine

Richthofen steht vielleicht schon am Rande des Suizids ;)

Das ist nicht witzig. Stell dir mal vor, morgen bei der weltweiten Vorstellung fallen die NV-Aktien ins bodenlose, und Richthofen macht solch derartige Verluste das er sich aus dem Fenster stürtzt oder erschießt. ;D

Exxtreme
2003-01-26, 23:26:32
Demirug,
Originally posted by Demirug


Nicht zwangsläufig. Ich denke zwar auch nicht das es wirklich "BETA" Treiber sind aber selbst bei UDA braucht NVIDIA für jede Karte einen neuen HAL. Vom NV10 bis zum NV28 war dieser HAL eine Erweiterungsgeschichte. Es wurden einfach die HALs der Vorgängerkarten benutzt und an die neuen möglichkeiten angepasst.

Beim NV30 wurde aber aufgrund der komplett überarbeiteten Strucktur mal wieder ein vollkommen neuer HAL gebraucht. Es ist also durchaus möglich das es dort noch eine Menge optimierungsmöglichkeiten gibt.
ist sicherlich alles wahr, nur der NV30 kommt mit mehrmonatiger Verspätung. Ich denke schon, daß die Treiber vom Optimierungslevel in etwa denen von ATi entsprechen, da man schon Monate vorher mit der Programmierung anfangen kann ohne ein lauffähiges Silizium (nicht Silikon, gelle Sascha ;) ) zu haben.

Dr. Greenthumb
2003-01-26, 23:27:03
Originally posted by nagus



das ist alles nur fassade, innerlich heult er wie ein kleines kind weil er sich eine Geforce FX kaufen MUSS ;)

Vielleicht führt es auch zu einer Schizophrenie, wer weiss.

Endorphine
2003-01-26, 23:27:50
Originally posted by Iceman346
Ok, jedem das Seine (und mir das meißte ;))

:bier:

Grundsätzlich warte ich aber auch noch auf weitere Zahlen bis ich die Benches glaube, wenn sie sich bestätigen (ich muss morgen zum Glück erst um 10 zur Uni also Zeit zum Reviews lesen ^^) dann kann man Nvidia wirklich zum Reinfall gratulieren ;)

:bier:

Jup, da bin ich auch gespannt :) Insbesondere auf Anandtech.

Andre
2003-01-26, 23:28:57
Originally posted by nagus



was soll jetzt das wieder bedeuten? ich gehe ja nicht davon aus, dass Nvidia pleite geht. die positionen werden einfach getauscht.

Das bedeutet, dass sich ATI, wie vorher NV, den bisherigen Aufwand teuer bezahlen lassen wird.
Und das war doch immer ein Kritikpunkt, oder etwa nicht?

toni0815
2003-01-26, 23:29:24
Hi!

es gibt keinen vernünftigen Grund eine Geforce FX zu kaufen.
ich selber habe die preiswerteste radeon 9700 von connect 3d

die rennt mit 315/351 ohne extra kühlung und das für gerade mal 250 euronen
was soll ich mit einer karte wo ich einen portalkran zum ausbau einer geof.fx brauche
die fast das 3fache für 10-15 % mehr leistung kostet

http://service.futuremark.com/compare?2k1=5713656

Andre
2003-01-26, 23:29:53
Originally posted by mapel110


bis sich ati's überlegenheit zum beispiel auf die preise auswirkt, wird ne ganze weile dauern. im länger als die r300 erfolgswelle dauern wird.

kommt ja auch auf den langen atem an.

Zumal Erfolg bei den Developern nicht durch Preis erreicht wird.

Dr. Greenthumb
2003-01-26, 23:30:05
NVidia hat doch seit November lauffähige Karten, also konnten sie 3 Monate am Treiber herumoptimieren und die Ergebnisse sofort am "echten" Pordukt überprüfen.

Ich glaub nicht das da noch Reisenleistungssprünge kommen

betasilie
2003-01-26, 23:30:11
Originally posted by Dr. Greenthumb


Vielleicht führt es auch zu einer Schizophrenie, wer weiss.
Ich glaube heute nacht werden viele eingeliefert. Wenn die Ärzte dann nur noch 9700, GFFX, NVidia und niVida hören, werde sie aufjedenfall ein paar teure Tabletten bekommen. *eg*

mapel110
2003-01-26, 23:30:16
Originally posted by Andre


Das bedeutet, dass sich ATI, wie vorher NV, den bisherigen Aufwand teuer bezahlen lassen wird.
Und das war doch immer ein Kritikpunkt, oder etwa nicht?

das wird so schnell nicht passieren, wegen den langfristigen oem verträgen nvidia's.

Rampage 2
2003-01-26, 23:31:25
Originally posted by nagus


ganz meine meinung.


btw, schon jemand über die "nicht" ultra ein wort verloren? ich denke, dass nvidia mit viel viel glück mit 4xfsaa und 8xaf vielleicht die leistung einer 300/600 Mhz getakteten 9500PRO erreicht. zu einem preis, der absolut astronomisch ist.

ati wird mit der r350 und rv350 nvidia sowas von in den hintern kneifen!!! die brauchen JAHRE um sich davon zu erholen!! die R400 steht ja auch vor der tür.

nagus,

ich hab zwar nichts gegen ATI, aber allem Anschein nach bist du
geblendet von deinem eigenem Geflame;)

2.) die non-Ultra Version liegt IMHO zwischen R9500Pro und R9700Pro,
insgesamt dazwischen. Wenn AA eingesetzt wird, wird sie auf
jeden Fall schneller sein, als die R9500 Pro.

Dunkeltier
2003-01-26, 23:33:48
Originally posted by Andre


Zumal Erfolg bei den Developern nicht durch Preis erreicht wird.

Wenn sich die Dinger aber wie Bleiklötze verkaufen (was sie IMHO auch sind), dann siehts aber trotzdem schlecht für den NV30 aus und damit ist NVidia's Ruf erst einmal dahin.

Dr. Greenthumb
2003-01-26, 23:36:17
Originally posted by Rampage 2


nagus,

ich hab zwar nichts gegen ATI, aber allem Anschein nach bist du
geblendet von deinem eigenem Geflame;)

2.) die non-Ultra Version liegt IMHO zwischen R9500Pro und R9700Pro,
insgesamt dazwischen. Wenn AA eingesetzt wird, wird sie auf
jeden Fall schneller sein, als die R9500 Pro.

Fragt sich ob überhaupt und wenn dann in welcher AA-Stufe. Wie werden morgen schlauer sein.
Ausserdem hoffe ich das ein Tester auf Idee kommt die netten Taktungsmöglichkeiten im Treiber mal auszuprobieren und die Karte mit 400/400 laufen lässt damit man eine Vorstellung vom "Mainstream" FX bekommt.

Aber vielleicht wird das für einige dann doppelt schlimm, im wahrsten Sinne des Wortes ;-)

Piffan
2003-01-26, 23:36:20
Ich bin nicht wenig enttäuscht. Zum Glück bin ich nicht mit NV verheiratet und nehme es nicht persönlich. Nach dem jetzigen Stand, der aber wahrscheinlich nicht mehr korrigiert werden kann, schließlich glaube ich nicht mehr an den Weihnachtsmann, ist der NV30 ein absoluter Flop!

Es haben doch diejenigen Recht, die nach der Vorstellung des Kühlsystems vor Wochen einen Versuch mit der Brechstange vermutet haben. NV ist eiskalt von Ati überrumpelt worden; man hat Ati offensichtlich nicht so was wie den R300 zugetraut.

Der Umstieg auf den 0,13µ - Prozess war anfangs wohl als Mittel zur Kostensparung gedacht; an der Taktschraube wollte man wahrscheinlich erst beim NV35 drehen... Nach dem R300- Schock blieb keine Alternative zur "Verzweiflungstat", man hat dieses unsägliche Ernergievernichtungsmonster entwickelt. Sollte der 0,13µ Prozess nicht spannungssenkend und verlustleistungssenkend wirken, darüber hinaus eine höhere Taktzahl erlauben? - alles verpulvert und trotzdem kein klarer Sieger....

Als echter Fan gehts mir richtig schlecht! Ich habe die gleiche Angst, die ich damals hatte, als 3dfx ins Schlingern kam.


Hoffen wir mal, das NV diese Schlappe wegsteckt und mit der nächsten Generation wieder obenauf ist. Es sollte sich wohl niemand wünschen, dass die gegenwärtige Konkurrenzsituation zu Ende ist und Ati nun die Preise raufsetzen kann oder den R350 zurückhält. Genaus dies wird aber wohl passieren, wenn NV nicht ganz fix einen verbesserten Nachfolger rausbringt!

NV hatte beim Umstieg auf die neue Fertigungstechnologie kein Glück, mit dem saustarken R300 kam nun auch noch Pech dazu. :bawling:

Dunkeltier
2003-01-26, 23:37:23
Originally posted by Rampage 2


nagus,

ich hab zwar nichts gegen ATI, aber allem Anschein nach bist du
geblendet von deinem eigenem Geflame;)

2.) die non-Ultra Version liegt IMHO zwischen R9500Pro und R9700Pro,
insgesamt dazwischen. Wenn AA eingesetzt wird, wird sie auf
jeden Fall schneller sein, als die R9500 Pro.

Tja, dann darf ich also mehr zahlen und dafür weniger Leistung erhalten. Die GeforceFX (non-Pro) scheint wegen der vorhandenen, schnelleren und preiswerteren R300 (normal & Pro) kein langer Lebenszyklus bevorzustehen, es sei denn NVidia senkt massiv die Preise, was aber nicht die 400 Mill. Entwicklungskosten reinholt.

Demirug
2003-01-26, 23:38:16
Originally posted by Exxtreme
Demirug,

ist sicherlich alles wahr, nur der NV30 kommt mit mehrmonatiger Verspätung. Ich denke schon, daß die Treiber vom Optimierungslevel in etwa denen von ATi entsprechen, da man schon Monate vorher mit der Programmierung anfangen kann ohne ein lauffähiges Silizium (nicht Silikon, gelle Sascha ;) ) zu haben.

Klar, treiberentwicklung in dem Bereich wird selten mit dem richtigen Silizium betrieben das braucht man nur für die Endtests wenn man Vränderungen vornimmt und dieses validiert werden müssen.

Was dem NV30 HAL aber defintiv noch fehlt sind die Feedbacks von Endkunden die ATI ja schon länger sammeln konnte. Sowas macht einen nicht unerheblichen Teil aus. So hat es ja damals als NVIDIA die Crossbar eingeführt hat auch eine ganze Zeit lang gedauert bis die Treiberentwickler verstanden haben wie man das Teil richtig benutzt und beim NV30 ist halt eine ganze Menge neu in das man sich einarbeiten muss. Und auch NVIDIA kann da nur mit Wasser kochen.

Exxtreme
2003-01-26, 23:38:43
Originally posted by Andre


Zumal Erfolg bei den Developern nicht durch Preis erreicht wird.
Naja, der Erfolg bei den Developern wird aber eher durch Marktanteile erreicht. :)

Guter Dev-Support hilft zwar auch aber nicht so gut wie Marktanteile.

Labberlippe
2003-01-26, 23:39:46
Originally posted by Piffan
Ich bin nicht wenig enttäuscht. Zum Glück bin ich nicht mit NV verheiratet und nehme es nicht persönlich. Nach dem jetzigen Stand, der aber wahrscheinlich nicht mehr korrigiert werden kann, schließlich glaube ich nicht mehr an den Weihnachtsmann, ist der NV30 ein absoluter Flop!

Es haben doch diejenigen Recht, die nach der Vorstellung des Kühlsystems vor Wochen einen Versuch mit der Brechstange vermutet haben. NV ist eiskalt von Ati überrumpelt worden; man hat Ati offensichtlich nicht so was wie den R300 zugetraut.

Der Umstieg auf den 0,13µ - Prozess war anfangs wohl als Mittel zur Kostensparung gedacht; an der Taktschraube wollte man wahrscheinlich erst beim NV35 drehen... Nach dem R300- Schock blieb keine Alternative zur "Verzweiflungstat", man hat dieses unsägliche Ernergievernichtungsmonster entwickelt. Sollte der 0,13µ Prozess nicht spannungssenkend und verlustleistungssenkend wirken, darüber hinaus eine höhere Taktzahl erlauben? - alles verpulvert und trotzdem kein klarer Sieger....

Als echter Fan gehts mir richtig schlecht! Ich habe die gleiche Angst, die ich damals hatte, als 3dfx ins Schlingern kam.


Hoffen wir mal, das NV diese Schlappe wegsteckt und mit der nächsten Generation wieder obenauf ist. Es sich wohl niemand wünschen, dass die gegenwärtige Konkurrenzsituation zu Ende ist und Ati nun die Preise raufsetzen kann oder den R350 zurückhält. Genaus dies wird aber wohl passieren, wenn NV nicht ganz fix einen verbesserten Nachfolger rausbringt!

NV hatte beim Umstieg auf die neue Fertigungstechnologie kein Glück, mit dem saustarken R300 kam nun auch noch Pech dazu. :bawling:

Nicht verzagen Piffan, wird ja schon wieder ist halt nur eine Frage der Zeit und den neuen Reviews.


Gruss Labberlippe

betasilie
2003-01-26, 23:42:52
Originally posted by Rampage 2 die non-Ultra Version liegt IMHO zwischen R9500Pro und R9700Pro,
insgesamt dazwischen. Wenn AA eingesetzt wird, wird sie auf
jeden Fall schneller sein, als die R9500 Pro.
Die 9500-Pro kostet zu deiner Info so um die 220€. Ich glaube nicht das die 5800 gegen diese Karte plaziert ist.

Ich glaube die Ergebnisse der 5800 non Ultra werden richtig entäuschend werden. :(

davidzo
2003-01-26, 23:43:04
Nun macht mal nicht das letzte Argument das die nvidioten noch haben einfach platt (wenn man mal von dem Fön spar Argument absieht :D ):
Wer Geld hat sich ne FX zu kaufen hat auch Geld sich nen "guten" 19zöller zu leisten... 1600x1200 bei 2x FSAA sind dabei gar nicht mal so unwahrscheinlich...
(nur ist damit dann wohl die Frage geklärt ob man mit ner radeon 9700 bei 1024x768 und 4x FSAA schöner und vor allen Dingen billiger fährt! :D)

Ich muss morgen früh hoch, denn mal n8!
ich werde die weiteren Reviews wohl in den Pausen mit Spannung verfolgen!

VoodooJack
2003-01-26, 23:50:45
Originally posted by Piffan
Ich bin nicht wenig enttäuscht. Zum Glück bin ich nicht mit NV verheiratet und nehme es nicht persönlich. Nach dem jetzigen Stand, der aber wahrscheinlich nicht mehr korrigiert werden kann, schließlich glaube ich nicht mehr an den Weihnachtsmann, ist der NV30 ein absoluter Flop!

Es haben doch diejenigen Recht, die nach der Vorstellung des Kühlsystems vor Wochen einen Versuch mit der Brechstange vermutet haben. NV ist eiskalt von Ati überrumpelt worden; man hat Ati offensichtlich nicht so was wie den R300 zugetraut.

Der Umstieg auf den 0,13µ - Prozess war anfangs wohl als Mittel zur Kostensparung gedacht; an der Taktschraube wollte man wahrscheinlich erst beim NV35 drehen... Nach dem R300- Schock blieb keine Alternative zur "Verzweiflungstat", man hat dieses unsägliche Ernergievernichtungsmonster entwickelt. Sollte der 0,13µ Prozess nicht spannungssenkend und verlustleistungssenkend wirken, darüber hinaus eine höhere Taktzahl erlauben? - alles verpulvert und trotzdem kein klarer Sieger....

Als echter Fan gehts mir richtig schlecht! Ich habe die gleiche Angst, die ich damals hatte, als 3dfx ins Schlingern kam.


Hoffen wir mal, das NV diese Schlappe wegsteckt und mit der nächsten Generation wieder obenauf ist. Es sollte sich wohl niemand wünschen, dass die gegenwärtige Konkurrenzsituation zu Ende ist und Ati nun die Preise raufsetzen kann oder den R350 zurückhält. Genaus dies wird aber wohl passieren, wenn NV nicht ganz fix einen verbesserten Nachfolger rausbringt!

NV hatte beim Umstieg auf die neue Fertigungstechnologie kein Glück, mit dem saustarken R300 kam nun auch noch Pech dazu. :bawling:

Kudos an Piffan für dieses Posting. Respekt.

Err, Piffan, ich hab gar nicht gewusst, dass du ein 3dfxer warst. Oder wolltest du nur deine damalige Gefühlswelt beim Untergang von 3dfx beschreiben?

Piffan
2003-01-26, 23:55:06
Originally posted by VoodooJack


Kudos an Piffan für dieses Posting. Respekt.

Err, Piffan, ich hab gar nicht gewusst, dass du ein 3dfxer warst. Oder wolltest du nur deine damalige Gefühlswelt beim Untergang von 3dfx beschreiben?

Ich war bis zur Voodoo2-SLI 3dfx treu, dann habe ich gleichzeitig eine TnT bzw. TNT2- Pro betrieben und war seitdem vollends zufrieden mit NV- Chips. Mit der gegenwärtigen G4 bin ich eigentlich auch zufrieden, kann sorglos alles Zocken. Aber ein bisschen neidisch schaut man ja schon auf eine Karte, die bessere BQ liefern kann...

Wie heißt es so schön: Das Bessere ist des Guten Feind.....

davidzo
2003-01-26, 23:55:08
eins muss ich noch sagen:

Die Geforce FX 5800 non Ultra wird wohl net soo schlecht werden wie einige sie hier abstempeln wollen... obwohl ich eingefleischter ATI Fan bin würde ich sie sicherheitshalber aus Radeon 9700 nonpro schätzen, trotzdem ist der mehrpreis immernoch so so extrem wie ... mir fehlen die Worte:

Radeon 9700: etwa 270€
Gayfurz FX: ca. 500€ (nach jetzigen Angaben, meinetwegen auch nur 400€, aber das macht es auch nicht Fett)

Radeon9700pro: ca. 360€
Gayfurz FXultra: ca. 600€

Und dabei ist die lautstärke, platzverbrauch noch gar net miteingerechnet. Tut mir leid, aber wenn sich morgen nichts ändert kann die Gayfurz FX auch MIT neuen Treibern, die meinetwegen noch 8% Gewinn machen, begraben werden. Nvidia hat heute nichts zu Gewinnen... es geht nur möglichst WENIG zu verlieren.

wrdaniel
2003-01-26, 23:56:03
die kleineren modelle sollen auch bald folgen. hab auch schon was darueber im netz gefunden

betasilie
2003-01-26, 23:58:28
*keineluftmehrkrieg* Sogar die Farbe des Gehäuses passt. :embara:

Leonidas
2003-01-26, 23:59:26
Originally posted by mapel110


naja, wenn nvidia's balken in einem diagramm nur halb so lang ist, wie das von ati, dann sollten sie das schon deuten können ;)


Nada. Die Börse hat 1/2 Jahr gebraucht nach offizieller Vorstellung mit Benchmarks, um zu begreifen, daß AMD den K7 hat. Dort geht es schließlich auch nicht primär um Leistung, sondern um Profitabilität. Da ist mit Benchmark-Siegen nix gesagt.

Labberlippe
2003-01-26, 23:59:59
Originally posted by wrdaniel
die kleineren modelle sollen auch bald folgen. hab auch schon was darueber im netz gefunden


Das ist gut, kann ich das Bild als Avatar nehmen.

:D

Ich habe leider keinen Geist, solche Bilder zu erzeugen.
Aber cool wäre eine Graka mit einer Boing Turbine und darunter die Aufschrift. NV40 *eg*

Gruss Labberlippe

Salvee
2003-01-27, 00:03:02
Full Ack @ Piffan

Solange nur zwei Anbieter sich um die Spitze batteln, muss der eine den anderen abwechselnd übertrumpfen, ansonsten stagnieren Entwicklungen und Preise bleiben auf hohem Niveau.

Sollte der NV30 auch in den weiteren Reviews so performant auftreten, könnte das für ATi-Fans bedeuten:

- R300 wird kaum billiger
- R350 kommt erst, wenn er kommen muss (künstliches zurückhalten)
- Treiberoptimierungen werden nicht mit dem selben Nachdruck durchgezogen wie bisher

Positiver Nebeneffekt:
-EA Spiele laufen auf Anhieb auf ATi-Karten :)

Exxtreme
2003-01-27, 00:06:06
Originally posted by Salvee
Positiver Nebeneffekt:
-EA Spiele laufen auf Anhieb auf ATi-Karten :)
EA-Spiele laufen nur auf Uralt-GraKas auf Anhieb richtig. Man sollte nämlich immer einen Betatest machen, bevor man Spiele auf die Menschheit loslässt.
;)

mapel110
2003-01-27, 00:06:31
Originally posted by Salvee

Positiver Nebeneffekt:
-EA Spiele laufen auf Anhieb auf ATi-Karten :)

träum weiter ;D

ich glaube nicht, dass ati auch nur einen augenblick zögern wird, den r350 zu bringen.

Exxtreme
2003-01-27, 00:08:17
Originally posted by mapel110


träum weiter ;D

ich glaube nicht, dass ati auch nur einen augenblick zögern wird, den r350 zu bringen.
So sieht's aus. ;D
Während NVs Gegenschlag eigentlich nichts geworden ist, holt ATi zum finalen Schlag aus. ;D

Leonidas
2003-01-27, 00:10:28
Originally posted by Salvee
- R300 wird kaum billiger
- R350 kommt erst, wenn er kommen muss (künstliches zurückhalten)



Glaube ich nicht. Angenommen, der R350 ist wirklich so gut und die GeForceFX wirklich so schlecht, braucht ATi den R350, um nVidia wirklich klar zu besiegen. Sozusagen als den finalen Kinnhaken. Momentan ist nVidia definitiv nicht geschlagen, erst mit einem schnellen und günstigen R350 könnte man dies erreichen.

Und erst auf einem möglichen Erfolg des R350 *könnte* sich ATi ausruhen - dann mit dem R400. Momentan ist es dafür noch weit zu früh.

cao
2003-01-27, 00:10:42
boar endlich bin ich durch mit diesem viel zu langem thread...

muss schon sagen geil geil geil!
endlich wieder richtige konkurenz bzw platzhirschwechsel (in gewissem sinne).
wenn man sich mal die gfFX anguckt stellt man eigentlich fest, das sie eine einzige verzweiflungstat ist!
der kühler ist der größte witz, die leistungsaufnahme genauso.

führt hoffentlich alles dazu, das die grafikkarten schön billig werden und ich mir bald nen billiges athlon64+radeon9900 keufen kann ;).

so genug von mir... freu mich auf die morgigen reviews...

ElHive
2003-01-27, 00:12:12
Originally posted by Piffan
[...]

Als echter Fan gehts mir richtig schlecht! Ich habe die gleiche Angst, die ich damals hatte, als 3dfx ins Schlingern kam.


[...]

Nanana, nVidia ist IMHO finanziell doch ein klein wenig potenter als 3dfx es damals war. Außerdem betreibt nVidia keine teuren Chipfabriken, deren Fixkosten man immer zahlen muss auch wenn diese evtl. unprofitabel laufen.

Mir ist das ganze übrigens fast egal. Also, ich finds zwar schon erstaunlich, wie die FX bisher abgeschnitten hat (so die Ergebnisse denn korrekt sind), aber weder hisse ich die Flagge auf Halbmast, weil das für nVidia niederschmetternd ist, noch mache ich ein Fass auf, weil ATI mit dem R300 den großen Wurf gemacht.

Labberlippe
2003-01-27, 00:13:44
Originally posted by ElHive


Nanana, nVidia ist IMHO finanziell doch ein klein wenig potenter als 3dfx es damals war. Außerdem betreibt nVidia keine teuren Chipfabriken, deren Fixkosten man immer zahlen muss auch wenn diese evtl. unprofitabel laufen.

Mir ist das ganze übrigens fast egal. Also, ich finds zwar schon erstaunlich, wie die FX bisher abgeschnitten hat (so die Ergebnisse denn korrekt sind), aber weder hisse ich die Flagge auf Halbmast, weil das für nVidia niederschmetternd ist, noch mache ich ein Fass auf, weil ATI mit dem R300 den großen Wurf gemacht.

Ich hoffe auch auf weitere Tests.
Ehrlich gesagt es kann doch nicht angehen das ein solches Fillraten Monster, derart abkackt.

Gruss Labberlippe

mapel110
2003-01-27, 00:15:56
btw nvidia hat auch nicht mit der geforce3 gewartet. da war auch weit und breit keine konkurrenz in sicht. die geforce2 ultra war absolut high end und schön teuer.

Desti
2003-01-27, 00:17:38
Originally posted by mapel110
btw nvidia hat auch nicht mit der geforce3 gewartet. da war auch weit und breit keine konkurrenz in sicht. die geforce2 ultra war absolut high end und schön teuer.

GF2 ultra war aber sehr schnell vom Markt wieder verschwunden

Salvee
2003-01-27, 00:18:29
Originally posted by Leonidas

Sozusagen als den finalen Kinnhaken. Momentan ist nVidia definitiv nicht geschlagen, erst mit einem schnellen und günstigen R350 könnte man dies erreichen.



Finaler Kinnhaken hört sich schonmal gut an. Wenn allerdings die Preisvorstellungen, die PCGH_Thilo ins Spiel gebracht hat stimmen sollten,
dann kann ATi den R300 sogar teurer machen, das Preis/Leistungsverhältnis wäre immer noch besser ;)

Exxtreme
2003-01-27, 00:18:55
Originally posted by mapel110
btw nvidia hat auch nicht mit der geforce3 gewartet. da war auch weit und breit keine konkurrenz in sicht. die geforce2 ultra war absolut high end und schön teuer.
Naja, damals machte aber das Gerücht die Runde, daß ATi mit einer R100 MAXX kontern könnte. Für NV erschien wahrscheinlich die Flucht nach vorne als richtige Taktik.

Die R100 MAXX hat aber den Prototypen-Status nie verlassen. Es gab einige Samples aber sie liefen blos mit 2x AGP stabil, da ATi keine, für diesen Zweck ausreichende, AGP-Bridge zur Verfügung hatte.

Labberlippe
2003-01-27, 00:24:32
Wobei sich mir die Frage stellt ob ATi wirklich darauf einhacken wird.

Gruss Labberlippe

Exxtreme
2003-01-27, 00:28:21
Originally posted by Labberlippe
Wobei sich mir die Frage stellt ob ATi wirklich darauf einhacken wird.

Gruss Labberlippe
Ich denke schon.

kmf
2003-01-27, 00:30:46
Originally posted by Desti


GF2 ultra war aber sehr schnell vom Markt wieder verschwunden

yep,

habe mir damals 2 Stück gekauft, eine Elsa und ein Creative. Geile Teile. Heute liegen sie ganz unten in meinem Kleiderschrank. :lol:

Unregistered
2003-01-27, 00:34:46
Originally posted by Rampage 2


nö, immer mehr leute wechselnzu 19ern - mehr wäre sowieso Unsinn

Nö immer mehr Leute kaufen sich ein TFT-Display mit 1024'er oder 1280'er Auflösung. Erzähl bitte nicht, da braucht man kein 4xAA.

Salvee
2003-01-27, 00:39:51
Irgendwie können die Werte nicht stimmen, es würde keinen Sinn ergeben:
Stellt euch mal die NV31/34 im 4x1 Design und bei einer Taktung von 300/300 vor.
Die Dinger würden doch nichtmal GF4-Ti4400/4600 Niveau erreichen, und das bei 80 zu 63 Mio. Transistoren.

Ich bin echt auf neue Benches gespannt...

Exxtreme
2003-01-27, 00:45:21
Originally posted by Salvee
Irgendwie können die Werte nicht stimmen, es würde keinen Sinn ergeben:

Die Werte stimmen... glaub's mir. :)

mapel110
2003-01-27, 01:04:43
Originally posted by Exxtreme

Die Werte stimmen... glaub's mir. :)

ach, lüg doch nit. das review auf anand zeigt was anderes :P

Salvee
2003-01-27, 01:11:54
Originally posted by mapel110


ach, lüg doch nit. das review auf anand zeigt was anderes :P

:| ?-) ??? :jump2:

mapel110
2003-01-27, 01:14:56
Originally posted by Salvee


:| ?-) ??? :jump2:

da brauchste nit zu dösen, augen zu drehen, kopf zu zerbrechen oder rauchend zu springen ! das review gibts noch nit online :D

toni0815
2003-01-27, 01:15:44
Hier noch ein Paar neue Bilder mit neutralem Kühler.

toni0815
2003-01-27, 01:21:57
Hi

betasilie
2003-01-27, 01:23:27
Originally posted by toni0815
Hier noch ein Paar neue Bilder mit neutralem Kühler.
Wisst ihr welche Staubsaugerbeutel da rein passen? ;D

skampi
2003-01-27, 01:26:27
Leutz, laßt's langsam gut sein.

PS: Ich fand's bis jetzt auch lustig... . Muss schlimm sein, wenn etwas, an das man ganz fest geglaubt hat, einfach so 'zerbroeselt'.

Salvee
2003-01-27, 01:27:23
Originally posted by mapel110


da brauchste nit zu dösen, augen zu drehen, kopf zu zerbrechen oder rauchend zu springen ! das review gibts noch nit online :D

:lol:

Also das [H] Review sollte in ein paar Stunden (gegen Morgen) online sein, und Kyle deutet an, dass die Benches etwas anders ausfallen werden.

Jetzt klär' mich auf, was meinst du mit dem Anand-Spruch ?

skampi
2003-01-27, 01:27:46
*dp*

mapel110
2003-01-27, 01:36:56
Originally posted by Salvee


:lol:

Also das [H] Review sollte in ein paar Stunden (gegen Morgen) online sein, und Kyle deutet an, dass die Benches etwas anders ausfallen werden.

Jetzt klär' mich auf, was meinst du mit dem Anand-Spruch ?

wollte exxtreme verarschen ;)

AFF
2003-01-27, 01:44:16
Originally posted by Salvee
:lol:

Also das [H] Review sollte in ein paar Stunden (gegen Morgen) online sein, und Kyle deutet an, dass die Benches etwas anders ausfallen werden.
Ha, der ist gut! Bei SoftOCP geht es nicht darum, wie Benchmarks ausfallen, sondern was für Zahlen sich die spinnerten Schreiberlinge einfallen lassen ... wir erinnern uns doch hoffentlich noch alle an die -ähhh- Vorkommnisse anlässlich des Intel Pentium 4 3.06 GHz mit HyperThreading Technologie-Reviews, oder?

Salvee
2003-01-27, 01:46:28
War dass nicht THG, die da ein wenig gefaked haben?
Oder was meinst du jetzt ?

mapel110
2003-01-27, 01:52:19
Originally posted by Salvee
War dass nicht THG, die da ein wenig gefaked haben?
Oder was meinst du jetzt ?

die haben den 3.6 ghz p4 gebencht, der keiner war, der auch nie erscheinen wird, wie es aussieht (laut intel raodmap). :)

FZR
2003-01-27, 02:04:58
Originally posted by Desti


GF2 ultra war aber sehr schnell vom Markt wieder verschwunden

Habe mir damals auch eine gekauft (ELSA GLADIAC ULTRA) und hab mir ca. 3 monate später in den arsch gebissen weil GF3 kam.

Exxtreme
2003-01-27, 02:18:28
Originally posted by mapel110


die haben den 3.6 ghz p4 gebencht, der keiner war, der auch nie erscheinen wird, wie es aussieht (laut intel raodmap). :)
Das war aber THG und nicht [H]. Nur um etwas klarzustellen. Mit Brent hatte ich schon Kontakt und der Mann weiss wie man bencht.

Unregistered
2003-01-27, 02:20:25
g

Exxtreme
2003-01-27, 02:22:03
Originally posted by Unregistered
g
???

MarcWessels
2003-01-27, 02:28:45
Originally posted by MegaManX4
d.h. es gibt bestimmt noch andere 100hz Fanatiker, ist es halt nicht für jeden eine Lösung mit nur 75hz zu spielen.

Ich spiele grundsätzlich mit 60hz!! :D

MarcWessels
2003-01-27, 02:35:44
Originally posted by Rampage 2
Ich schalte den Vsync eh ab:zzz:

Warum das denn, in Gottes Namen??

mapel110
2003-01-27, 02:35:52
Originally posted by MarcWessels


Ich spiele grundsätzlich mit 60hz!! :D

auf crt ?

backblech
2003-01-27, 02:38:28
......nvidia ist mit der fx für dieses jahr definitiv am ende und zwar aus folgenden gründen:

1)ati kann in aller ruhe in den nä 2-3 monaten am r350 rumschrauben,
will sagen, ein bisschen mehr core und speichertakt (so400/400) wird
ohne probleme drin sein>>>>der r350 wird mindestens genausoschnell
wie die gfx sein (wahrscheinlich schneller)
2)wenn der chipproduzent von ati den 0.13er fertigunsprozess draufhat
(ich denk mal so spätestens juli/aug) wird ein "r400" ohne grosse
designveränderungen aber mit noch mehr core und eventuell auch mehr
speichertakt (DDRII) möglich (500/500 locker drin).
3)ati´s r300 ist vom design schon mehr als 5 monate alt, der gfx
nagelneu, d.h. ati hat 5 monate vorsprung auf ein nachfolgermodell
mit einschneidenen verbesserungen
4)nvidia ist technologisch mit der gfx am absoluten ende der
entwicklung angelangt>> viel mehr coretakt wird nicht mehr gehen
(ausser mit nem kühlturm vom kernkraftwerk brunsbüttel), beim
speicher könnte 256bit interface die rettung sein bzw MUSS die
rettung sein

ERGO: nvidia ist massiv in zugzwang weil ati zeitlich 5 monate vorsprung auf ein neues design hat und entwicklungen wie 0.13 und DDRII noch gar nicht in verwendung hat.
>>>es wäre schon eine "ironie der geschichte",wenn nv das gleiche wie 3dfx passieren würde

Radeonator
2003-01-27, 02:43:32
Originally posted by backblech

>>>es wäre schon eine "ironie der geschichte",wenn nv das gleiche wie 3dfx passieren würde

Wieso Ironie ??? Sollen nicht massig 3dFX Ingenieure jetzt bei NV sein ;D

Mal im ernst: Das letzte Wort ist noch nicht gesprochen, also warten wir lieber die nächsten reviews ab!NV ist noch lange net am Boden...

backblech
2003-01-27, 02:47:13
Originally posted by Radeonator


Wieso Ironie ??? Sollen nicht massig 3dFX Ingenieure jetzt bei NV sein ;D

Mal im ernst: Das letzte Wort ist noch nicht gesprochen, also warten wir lieber die nächsten reviews ab!NV ist noch lange net am Boden...


ne, am boden sind sie nicht, aber dicht drüber. schau dir mal aktienkurs, verkaufszahlen usw. an und dann so eine "neuentwicklung",
die man auch als schritt in die falsche richtung bezeichnen könnte.
lange hält das kein unternehmen aus.

kmf
2003-01-27, 02:50:45
Originally posted by Exxtreme

Die Werte stimmen... glaub's mir. :)

Ich glaube es auch nicht. Wir werden es sehen, morgen!
nVidia hatte immer einen Trumpf im Hemdsärmel.

betasilie
2003-01-27, 02:53:28
Originally posted by backblech wenn der chipproduzent von ati den 0.13er fertigunsprozess draufhat
(ich denk mal so spätestens juli/aug) wird ein "r400" ohne grosse
designveränderungen aber mit noch mehr core und eventuell auch mehr
speichertakt (DDRII) möglich (500/500 locker drin).

Der R400 wird, wie man es am Namen ablesen kann, ein völlig neu designter Chip sein. Von "ohne große Designveränderungen" zu sprechen ist da wohl nicht ganz richtig. ;)

Man sollte Nv nicht unterschätzen. Die haben zwar richtig einen auf die Glatze bekommen, aber beim NV 40 werden sie spätestens gehörig ausholen. Da darf ATI nicht schlafen. :nono:

Unregistered
2003-01-27, 03:03:40
Originally posted by betareverse

Man sollte Nv nicht unterschätzen. Die haben zwar richtig einen auf die Glatze bekommen, aber beim NV 40 werden sie spätestens gehörig ausholen. Da darf ATI nicht schlafen. :nono:


jojo, glaub mal.....ich hab nv BIS HEUTE nicht unterschätzt, aber nach dem (sehr wahrscheinlich auch mit anderen reviews) schuss in den ofen...........(ich sag nur 400mio$ entwicklungskosten - grins)

wann wird der nv40 wohl kommen?? 04/05??
nichts genaues weiss man nicht und so weit in die zukunft blicken zu wollen kanns ja auch nicht bringen. fakt ist wie gesagt: in diesem jahr gewinnt nv keinen blumentopf!!

MarcWessels
2003-01-27, 03:47:05
Originally posted by mapel110
auf crt ?

Yep. :) Da laß ich's lieber flimmern als daß die Framerate nicht übers ganze Spiel hinweg 1/1 zur Bildwiederholfrequenz ist.

Hauwech
2003-01-27, 03:48:05
Originally posted by Unregistered



jojo, glaub mal.....ich hab nv BIS HEUTE nicht unterschätzt, aber nach dem (sehr wahrscheinlich auch mit anderen reviews) schuss in den ofen...........(ich sag nur 400mio$ entwicklungskosten - grins)

wann wird der nv40 wohl kommen?? 04/05??
nichts genaues weiss man nicht und so weit in die zukunft blicken zu wollen kanns ja auch nicht bringen. fakt ist wie gesagt: in diesem jahr gewinnt nv keinen blumentopf!!

Die 400Mio $ Entwicklungskosten beziehen sich auf die gesamte NV3x Reihe, nicht nur den NV30.

mapel110
2003-01-27, 03:48:11
Originally posted by MarcWessels


Yep. :) Da laß ich's lieber flimmern als daß die Framerate nicht übers ganze Spiel hinweg 1/1 zur Bildwiederholfrequenz ist.

krank :bonk:

mapel110
2003-01-27, 03:49:36
Originally posted by Hauwech


Die 400Mio $ Entwicklungskosten beziehen sich auf die gesamte NV3x Reihe, nicht nur den NV30.

der wird genauso shice. weil er wohl nicht einfach so auf 256 bit interface angepasst werden kann bzw dann noch teurer wird.

verkauft alle schonmal eure mutter oder auto oder .... ach was weiss ich ;D

Hauwech
2003-01-27, 04:15:50
Originally posted by mapel110


der wird genauso shice. weil er wohl nicht einfach so auf 256 bit interface angepasst werden kann bzw dann noch teurer wird.

verkauft alle schonmal eure mutter oder auto oder .... ach was weiss ich ;D

Warum nicht? Wenn das Design stimmt, er also vom Speicher ueber Caches mehr oder weniger entkoppelt ist, wo soll das Problem sein mit relativ geringem Aufwand das Speicherinterface zu aendern? Ich glaube Demi hat schon oefter so ein Design vermutet.
Ob es 4x64 oder 8x32 wird, keine Ahnung, haengt von den Kosten ab. So wie Nvidia auf programmable (flexible) Hardware setzt kann ich es mir, zumindest eventuell, vorstellen, dass sie schon beim NV35 auf 256bit setzten werden weil sie es wahrscheinlich einfach muessen um mit ATI leistungsmaessig mithalten zu koennen.
Ok, der 0.13 Prozess steht so gesehen noch am Anfang, aber soooo viel Moeglichkeiten den Takt immer weiter zu steigern, haben sie auch nicht, das damit 128bit DDRII/III/IV/V oder was auch immer auf lange Sicht ausreichen werden.

AFF
2003-01-27, 06:13:31
Originally posted by Exxtreme
Das war aber THG und nicht [H]. Nur um etwas klarzustellen. Mit Brent hatte ich schon Kontakt und der Mann weiss wie man bencht.
Nein, ich spreche nicht über die PhotoShop-Freunde von THG sondern vom Auswürfel-Benchmarker Steve, seinem Editor Kylie und ihren soften Kumpels.

http://www.hardocp.com/article.html?art=Mzg4

Zuerst hat Stevie Mist gebaut, indem er den 3DMark 2001 Bench auf einem übertakteten System laufen liess und dadurch massiv zu hohe Ergebnisse erhielt, die ihren Weg in den Artikel fanden. (btw: "The gain was so significant that I reran the test several times to ensure that the results we got were indeed accurate." *ROFL*)

Einige wirklich clevere Leute wurden beim Lesen seines Artikels stutzig, unter ihnen IIRC 3DMark2001-Obermufti JCViggen, weil der rapportierte, ausgesprochen große Leistungssprung 2.8 GHz -> 3.06 GHz w/o HT in keiner Weise nachvollziehbar war und die Ergebnisse viel eher denen ihrer deutlich weiter übertakteten Systeme entsprach. Diese Leser melden sich im SoftForum zu Wort und untermauern ihre Vermutung mit ausführlichen Erklärungen.

Stevie bemerkt, dass er Mist gebaut hat, ändert die entsprechende Grafik stillschweigend um -500 Punkte (btw: immer noch viel zu hoch für das System) und stellt diese Änderung 4 Stunden nach der Veröffentlichung ohne weitere Kommentare auf den Server.

Die cleveren Leute trauten Ihren Augen nicht, waren verwundert und fanden die Testwerte immernoch deutlich zu hoch, sie entschlossen sich, im Forum nachzufragen.

Stevie kommt nicht mit der (sachlichen) Kritik klar, war es denn nicht genug, die Grafik still und heimlich zu verändern? Er wird unsachlich, antwortet mit Lügen auf die Nachfragen (nichts wurde geändert blabla), bezichtigt die cleveren Leute seinerseits der Lüge und der Manipulation der Grafiken in ihren Webcaches und fängt an, die Leute einem nach den anderen aus dem Forum zu verbannen.

Von diesem Punkt aus ging es nur noch bergab, Stevie & seine soften Kumpanen verfielen in eine ware Lösch- und Verbannwut, jeder Thread zum Thema wurde systematisch entfernt, jeder abweichende Poster verbannt, das Forum sogar zeitweise offline genommen, um in aller Ruhe großreinezumachen. Die verbannten Leute hielten natürlich nicht den Mund über diese unverfrorene Gedankendiktatur und machten ihren Gefühlen in anderen Foren des Internets Luft.

Nach 2 Tagen wird selbst Kylie klar, dass es durch Löschen allein nicht getan sein wird, SoftOCP bekommt zu viel negative Reaktionen von den eigenen Lesern. Er verfasst eine Erklärung, die sinnvoller Weise nie Teil des originalen Artikels wird, sondern kurz auf der Homepage geparkt ist um dann von einer wahren Flut von Stevie-News verdrängt zu werden.

Eine Entschuldigung bei den cleveren Leuten steht AFAIK bis heute aus, die falschen, weil ausgewürfelten, Zahlen stehen noch immer im Review und die schwammige Erklärung findet man bestenfalls im Newsarchiv. Stevie, Kylie und ihren soften Kumpanen wäre es am liebsten, wenn sich der Mantel des Vergessens über ihre schwärzesten Stunden legen würde, aber man darf nie vergessen, wie SoftOCP mit seinem Fehler umgegangen ist, wie die cleveren Leute behandelt wurden, die die Wahrheit auf ihrere Seiten hatten und haben und dass heute die gleichen uneinsichtigen Kumpanen für SoftOCP Artikel produzieren.

Ob man sich diese vor dem hier dargestellten Hintergrund wirklich antun will, muss jeder selbst entscheiden. Ich für meinen Teil habe kein Vertrauen in SoftOCP, deren Autoren und ihre Machwerke und meide folgerichtig konsequent diese Seite.

skampi
2003-01-27, 10:02:58
Originally posted by Hauwech


Warum nicht? Wenn das Design stimmt, er also vom Speicher ueber Caches mehr oder weniger entkoppelt ist, wo soll das Problem sein mit relativ geringem Aufwand das Speicherinterface zu aendern? Ich glaube Demi hat schon oefter so ein Design vermutet.
Ob es 4x64 oder 8x32 wird, keine Ahnung, haengt von den Kosten ab. So wie Nvidia auf programmable (flexible) Hardware setzt kann ich es mir, zumindest eventuell, vorstellen, dass sie schon beim NV35 auf 256bit setzten werden weil sie es wahrscheinlich einfach muessen um mit ATI leistungsmaessig mithalten zu koennen.
Ok, der 0.13 Prozess steht so gesehen noch am Anfang, aber soooo viel Moeglichkeiten den Takt immer weiter zu steigern, haben sie auch nicht, das damit 128bit DDRII/III/IV/V oder was auch immer auf lange Sicht ausreichen werden.


Hast du schon mal das PCB einer Ti4600 bzw einer FX gesehen? Hast du eine Vorstellung, wie gross die seien müsste (bzw. teuer), um so ein 256Bit Interface zu realisieren?

Nvidia hat sicher langfristige Verträge bezüglich des DDR2-RAMs. Könnte schwer werden, ein 500MHz PCB für 256Bit Interface zu designen, wenn die 128Bit-Platine schon so ausswächst.

skampi
2003-01-27, 10:05:31
Originally posted by AFF

Nein, ich spreche nicht über die PhotoShop-Freunde von THG sondern vom Auswürfel-Benchmarker Steve, seinem Editor Kylie und ihren soften Kumpels ...............................................


Ganz schön schlimm, sowas.....

Unregistered
2003-01-27, 13:33:43
da sag ich nur noch eins

die rache der voodoo männer ist groß MUHAHAHHAHAHAHA

ow
2003-01-27, 17:48:34
Originally posted by betareverse

Der R400 wird, wie man es am Namen ablesen kann, ein völlig neu designter Chip sein. Von "ohne große Designveränderungen" zu sprechen ist da wohl nicht ganz richtig. ;)


Nö, eher nicht. Der R400 basiert auf dem R300 der wiederum auf dem R200 und der wiederum auf dem R100.:D

Dunkeltier
2003-01-27, 17:50:36
Originally posted by ow


Nö, eher nicht. Der R400 basiert auf dem R300 der wiederum auf dem R200 und der wiederum auf dem R100.:D


Nein, der wird DX10 kompatibel sein, folglich neue Shader und dergleichen haben, und ein paar Verbesserungen am HyperZ, usw.

Demirug
2003-01-27, 18:07:31
Originally posted by ow


Nö, eher nicht. Der R400 basiert auf dem R300 der wiederum auf dem R200 und der wiederum auf dem R100.:D

ja wobei ATI beim wechsel von R100 auf R200 die Pixelpipeline komplett überarbeitet hat. Die R300 Pipeline ist im Prinzip nur die R200 Pipeline mit FP und mehr phasen (5 im gegensatz zu den 2 beim R200)

NVIDIA hat dagegen die Pixelpipline vom NV10 bis zum NV28 nicht wirklich so starkt verändert. Die vom NV30 ist vollkommen neu. Mal abwarten wie lange diese jetzt halten muss.

Demirug
2003-01-27, 18:09:46
Originally posted by Dunkeltier



Nein, der wird DX10 kompatibel sein, folglich neue Shader und dergleichen haben, und ein paar Verbesserungen am HyperZ, usw.

ATI soll erst mal die 3.0 Versionen einbauen bevor sie an DX10 denken.

AlfredENeumann
2003-01-27, 18:18:47
Originally posted by Dunkeltier



Nein, der wird DX10 kompatibel sein, folglich neue Shader und dergleichen haben, und ein paar Verbesserungen am HyperZ, usw.


Nein wird er nicht. Ich denke mal er wird PS und VS 3.0 erfüllen.

StefanV
2003-01-27, 18:30:19
Originally posted by ow

Nö, eher nicht. Der R400 basiert auf dem R300 der wiederum auf dem R200 und der wiederum auf dem R100.:D

...nur mit dem Unterschied, daß ATI meist 'etwas' mehr an den Chips ändert als NV...

Seit der GF2 werden ja 4 Pipelines mit je 2 TMUs verwendet...

Bei ATI wars beim R100 2x3, 4x2 und jetzt 8x1 ...

Dunkeltier
2003-01-27, 18:38:27
Und als nächstes kommt 16x0? ??? Nein, Scherz! ;D Wieso sollte der R400 kein DX10 können, der R100 war eine Generation (DX7), der R200 ne andere (DX8), der R300 die letzte (DX9).

Demirug
2003-01-27, 18:45:05
Originally posted by Dunkeltier
Und als nächstes kommt 16x0? ??? Nein, Scherz! ;D Wieso sollte der R400 kein DX10 können, der R100 war eine Generation (DX7), der R200 ne andere (DX8), der R300 die letzte (DX9).

Weil MS DX9 mit etwas mehr Weitblick ausgelegt hat um mehr Zeit für DX10 zu haben und den Entwicklern mehr Plannungsicherheit zu geben. DX9 ist für 2 Kartengenerationen ausreichend herausforderung.

BigBen
2003-01-27, 18:48:13
Originally posted by Demirug
Weil MS DX9 mit etwas mehr Weitblick ausgelegt hat um mehr Zeit für DX10 zu haben und den Entwicklern mehr Plannungsicherheit zu geben. DX9 ist für 2 Kartengenerationen ausreichend herausforderung. Müssen dann ja auch erstmal Grafikkarten kommen, die genügend Leistung für DirectX 9 Spielen bieten :)

Gruß
Bigben

@Alfred:
Netter Avatar und auch die neue Sig wurde der momentanen "Lage" entsprechend angepasst :D