PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FX 5600 schon eingetroffen?


up
2003-05-07, 02:02:13
Die ersten sind scheinbar schon im Handel.
Wer hat schon eine ergattert?

mapel110
2003-05-07, 02:09:58
hm ,wer ?

jeder, der eine 4200er für 110 € für überteuert hält ;D

betasilie
2003-05-07, 02:17:21
Originally posted by mapel110
hm ,wer ?

jeder, der eine 4200er für 110 € für überteuert hält ;D
Böse, .... aber war. :D

Gohan
2003-05-07, 06:27:31
Originally posted by up
Die ersten sind scheinbar schon im Handel.
Wer hat schon eine ergattert?

Ich habe schon eine FX5600 Ultra bestellt, bloss gekommen ist sie noch nicht.

nagus
2003-05-07, 08:18:16
Originally posted by Gohan


Ich habe schon eine FX5600 Ultra bestellt, bloss gekommen ist sie noch nicht.

dumme frage... aber wieso hast du dir nicht eine 9500pro besorgt? ist billiger und schneller als FX5600U.

Quasar@Work
2003-05-07, 08:21:29
Klar gibt's die. bei www.mb-it.de z.B. für 179€ (Stand: Gestern).

Im Vergleich zu einer in etwa gleichwertigen Ti4200 zahlt man für ein deutliches Speed-Up bei FSAA/AF ca. 30-40€ Aufpreis.

Muss halt jeder selber wissen.

(Dazu gibt's noch die sonst immer für so wichtig gehaltenen überlegenen DVD-Fähigkeiten, i.e. adaptives De-Interlacing, sowie der von Intel-Fans als herausstechendes Merkmal gehandelte Temperaturschutz).

Quasar@Work
2003-05-07, 08:22:55
Originally posted by nagus


dumme frage... aber wieso hast du dir nicht eine 9500pro besorgt? ist billiger und schneller als FX5600U.

Hast' recht. =)

Vielleicht braucht er sie ja für was spezielles, was mit der ATi nicht geht.......

aths
2003-05-07, 09:27:34
Originally posted by Quasar@Work
Im Vergleich zu einer in etwa gleichwertigen Ti4200 zahlt man für ein deutliches Speed-Up bei FSAA/AF ca. 30-40€ Aufpreis.Gilt das AF-Speedup auch für den guten Application-Modus?

nagus
2003-05-07, 10:14:20
Originally posted by Quasar@Work


Hast' recht. =)

Vielleicht braucht er sie ja für was spezielles, was mit der ATi nicht geht.......

für die nackte DAWN *LOL*

Quasar@Work
2003-05-07, 10:55:03
Originally posted by aths
Gilt das AF-Speedup auch für den guten Application-Modus?

Kommt drauf an. Wenn du beide im App-Modus benchst, sicherlich.
Wenn du die Ti4200 dagegen im Balanced beläßt, nein.

Unregistered
2003-05-07, 11:04:10
Originally posted by Quasar@Work


Kommt drauf an. Wenn du beide im App-Modus benchst, sicherlich.
Wenn du die Ti4200 dagegen im Balanced beläßt, nein.

Versteh ich nicht, dass App AF, ist doch das Gleiche wie schon bei allen alten Geforces, warum sollte da eine 5600 Ultra schneller sein?

up
2003-05-07, 11:05:12
1. Eine aktuelle Review fehlt leider...
==>
TV Ausgang gut?
2. Für Doom3 reicht sowieso keine Karte aus...
==> Zum Daddeln reicht sie allemal (inklusiv SC!)
3. Die 56er könnte passiv laufen
==> Hoffentlich!!!

aths
2003-05-07, 11:07:07
Originally posted by Quasar@Work
Kommt drauf an. Wenn du beide im App-Modus benchst, sicherlich.
Wenn du die Ti4200 dagegen im Balanced beläßt, nein. Ohne GF4-AF-Bug wäre die GF4 natürlich deutlich schneller mit AF :)

ThePiet
2003-05-07, 11:09:05
Originally posted by up
2. Für Doom3 reicht sowieso keine Karte aus...


Woher nimmst du diese Aussage also von der Pre-Alpha die mal im Netz
war kann man nicht auf die Final schließen ich glaube die Jungs werden das schon optimieren das es auch auf etwas lahmeren Karten läuft ... und die Treiber bleiben ja auch nicht die gleichen ;)

mfg

Quasar@Work
2003-05-07, 12:02:47
Originally posted by Unregistered


Versteh ich nicht, dass App AF, ist doch das Gleiche wie schon bei allen alten Geforces, warum sollte da eine 5600 Ultra schneller sein?

Ganz einfach: Weil sie höher getaktet ist und gewisse (u.a.) FSAA-Optimierungen (LMA-III) greifen können, die den Effizienz- und Texelfüllratennachteil mehr als ausgleichen können.

Quasar@Work
2003-05-07, 12:06:00
Originally posted by aths
Ohne GF4-AF-Bug wäre die GF4 natürlich deutlich schneller mit AF :)

Mag sein, aber es ist müßig über das "hätte, wäre, wenn" zu diskutieren.

Wenn der GeForce3 die Taktraten einer Radeon8500 Retail gehabt hätte, wäre er auch deutlich schneller gewesen, so what?

Quasar@Work
2003-05-07, 12:07:08
Originally posted by up
3. Die 56er könnte passiv laufen
==> Hoffentlich!!!

Eher nicht.

Oli_Immerschoen
2003-05-07, 12:18:21
Originally posted by aths
Ohne GF4-AF-Bug wäre die GF4 natürlich deutlich schneller mit AF :)
Siehste, und da soll noch mal einer sagen das sei ein Bug...das ist natürlich keiner sondern nur ein Trick der NVidia Marktstrategen, die wussten schon bei Einführung der 4200 dass die FX-Reihe eine Platinenbremse werden würde und wollten nur die Markteinführung der 5600U erleichtern...

Man, man, das ist vielleicht gefickt eingeschädelt ... ;D

Quasar@Work
2003-05-07, 12:25:11
Originally posted by Oli_Immerschoen

Siehste, und da soll noch mal einer sagen das sei ein Bug...das ist natürlich keiner sondern nur ein Trick der NVidia Marktstrategen, die wussten schon bei Einführung der 4200 dass die FX-Reihe eine Platinenbremse werden würde und wollten nur die Markteinführung der 5600U erleichtern...

Man, man, das ist vielleicht gefickt eingeschädelt ... ;D

Schau mal dazu mal den Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?&threadid=66660) an!

StefanV
2003-05-07, 12:34:52
Originally posted by up
3. Die 56er könnte passiv laufen
==> Hoffentlich!!!

Du hast wohl noch keine 5600 Platine gesehen, oder ?? :naughty:

BTW: die 9600 ist passiv gekühlt, das ganze auch noch mit einem Kühler, den man auf einer passiv gekühlten Karte erwarten würde:

GF MX size -> ~40x10mm...

StefanV
2003-05-07, 12:35:48
Originally posted by Oli_Immerschoen

Siehste, und da soll noch mal einer sagen das sei ein Bug...das ist natürlich keiner sondern nur ein Trick der NVidia Marktstrategen, die wussten schon bei Einführung der 4200 dass die FX-Reihe eine Platinenbremse werden würde und wollten nur die Markteinführung der 5600U erleichtern...

Man, man, das ist vielleicht gefickt eingeschädelt ... ;D

Oli, diese Art von Witz/Gag versteht hier nicht jeder, einige sehen das sogar als flamen an ;)

Oli_Immerschoen
2003-05-07, 13:53:30
Originally posted by Stefan Payne


Oli, diese Art von Witz/Gag versteht hier nicht jeder, einige sehen das sogar als flamen an ;) Hab ich an Quasars Reaktion schon bemerken dürfen. Aber was solls, so ´ne Leberwurst wird mir den Spaß den ich hier habe nicht verderben :)

StefanV
2003-05-07, 13:55:48
Originally posted by Oli_Immerschoen
Hab ich an Quasars Reaktion schon bemerken dürfen. Aber was solls, so ´ne Leberwurst wird mir den Spaß den ich hier habe nicht verderben :)

Ehlrich gesagt:

Ich konnte über deinen Gag lachen, also von daher scheine ich ihn verstanden zu haben :naughty:

@Quasar

Nicht alles, was nach flame riecht ist auch ein flame :)

Und nicht alles, was brennt, hat auch eine Flamme *eg*

Quasar@Work
2003-05-07, 13:59:52
Schon lustig, wie man sich drehen und winden kann, gell?

aths
2003-05-07, 14:00:20
Originally posted by Quasar@Work
Mag sein, aber es ist müßig über das "hätte, wäre, wenn" zu diskutieren.

Wenn der GeForce3 die Taktraten einer Radeon8500 Retail gehabt hätte, wäre er auch deutlich schneller gewesen, so what? Das ist ein unfeiner Stil, Quasar. Du vermischt hier Dinge, die in keinem Zusammenhang stehen. Dass Takterhöhungen in höherer Leistung resultieren, ist klar. Dass es taktmäßig Grenzen gibt, ist auch klar. Warum die GeForce4 Ti was bilineares AF angeht beschnitten wurde, ist nicht klar. Es ist doch durchaus denkbar, was Oli vermutet: Dass das AF der FX einerseits standardmäßig mit der "optimierten" Formel beschleunigt wird, und andererseits schon im Vorfeld krasse Unterschiede zur GF4 Ti verhindert werden sollten. Die Ti ist immerhin nur eine Zweitverwertung, die FX das "richtige neue" Produkt. Und es wäre ja peinlich, wenn das alte deutlich schneller ist, bzw. wenn die AF-"Optimierungen" alleine nicht ausreichen würden, das alte Produkt deutlich zu schlagen.

Solange du keine gute Erklärung betreffs AF-Bug anbieten kannst, halte ich meine Denkrichtungen für voll zulässig. Einfach zu sagen 'wir wissen darüber nichts, und dürfen deshalb Nvidia auf keinen Fall da irgendwie dunkle Absichten unterstellen' kann es jawohl nicht sein. Warum wohl schweigt Nv so beharrlich zum Thema? Offensichtlich reden sie nicht gerne darüber.

Quasar@Work
2003-05-07, 14:05:35
Originally posted by aths
Das ist ein unfeiner Stil, Quasar. Du vermischt hier Dinge, die in keinem Zusammenhang stehen. Dass Takterhöhungen in höherer Leistung resultieren, ist klar. Dass es taktmäßig Grenzen gibt, ist auch klar. Warum die GeForce4 Ti was bilineares AF angeht beschnitten wurde, ist nicht klar.

Ja, aber was wolltest du mit deiner Aussage "Ohne den AF-Bug wäre die Ti4200 erheblich schneller" bezwecken? Ich verstehe den Sinn dahinter nicht.
Insofern halte ich meine Aussage, es sei müßig über Dinge zu diskutieren, die de facto nunmal nicht gegeben sind.

Ansonsten könnte man ja auch sagen, daß die FX5600 ohne die Sparmaßnahmen (Bugs?) in den Textureinheiten auch im App-Modus deutlich schneller wäre, als sie es jetzt ist.

Quasar@Work
2003-05-07, 14:08:16
Originally posted by aths
Das ist ein unfeiner Stil, Quasar. Du vermischt hier Dinge, die in keinem Zusammenhang stehen. Dass Takterhöhungen in höherer Leistung resultieren, ist klar. Dass es taktmäßig Grenzen gibt, ist auch klar. Warum die GeForce4 Ti was bilineares AF angeht beschnitten wurde, ist nicht klar. Es ist doch durchaus denkbar, was Oli vermutet: Dass das AF der FX einerseits standardmäßig mit der "optimierten" Formel beschleunigt wird, und andererseits schon im Vorfeld krasse Unterschiede zur GF4 Ti verhindert werden sollten. Die Ti ist immerhin nur eine Zweitverwertung, die FX das "richtige neue" Produkt. Und es wäre ja peinlich, wenn das alte deutlich schneller ist, bzw. wenn die AF-"Optimierungen" alleine nicht ausreichen würden, das alte Produkt deutlich zu schlagen.

Also gut, dann eben nochmal inklusive des hinzueditierten:

Du meinst, es wäre denkbar, daß nVidia schon seit anderthalb Jahren von der relativen Schwäche ihres Mainstream-Designs im Vergleich zum direkten Vorgänger weiss und diesen während seiner Entwicklung (was dann ja nochmal einige Zeit zusätzlich zurückliegen müsste) künstlich ausgebremst hat?

Sorry, aber das klingt IMO ziemlich an den Haaren herbeigezogen.

aths
2003-05-07, 14:09:19
Originally posted by Quasar@Work
Ganz einfach: Weil sie höher getaktet ist und gewisse (u.a.) FSAA-Optimierungen (LMA-III) greifen können, die den Effizienz- und Texelfüllratennachteil mehr als ausgleichen können. "Mehr als ausgleichen"? Wenn ich Leos Review in richtiger Erinnerung habe, spielen FX 5600 und GF4 Ti (zumindest ab 4400) in der gleichen Liga. Wenn ich mich recht entsinne, durfte die FX zudem mit dem "balanced" AF antreten.

aths
2003-05-07, 14:11:51
Originally posted by Quasar@Work
Ja, aber was wolltest du mit deiner Aussage "Ohne den AF-Bug wäre die Ti4200 erheblich schneller" bezwecken? Ich verstehe den Sinn dahinter nicht.
Insofern halte ich meine Aussage, es sei müßig über Dinge zu diskutieren, die de facto nunmal nicht gegeben sind.Damit möchte ich sagen, dass bei 4x1 vs. 4x2 die AF-"Optimierungen" für die 4x1-Architektur nicht unbedingt ausreichen, um leistungsmäßig mit besserem AF welches mit einer 4x2-Architektur gerendert wird, mitzuhalten.
Originally posted by Quasar@Work
Ansonsten könnte man ja auch sagen, daß die FX5600 ohne die Sparmaßnahmen (Bugs?) in den Textureinheiten auch im App-Modus deutlich schneller wäre, als sie es jetzt ist. Bin gerade nicht im Bilde: Welche Bugs hat die FX 5600 in den Textur-Einheiten?

aths
2003-05-07, 14:15:05
Originally posted by Quasar@Work
Also gut, dann eben nochmal inklusive des hinzueditierten:

Du meinst, es wäre denkbar, daß nVidia schon seit anderthalb Jahren von der relativen Schwäche ihres Mainstream-Designs im Vergleich zum direkten Vorgänger weiss und diesen während seiner Entwicklung (was dann ja nochmal einige Zeit zusätzlich zurückliegen müsste) künstlich ausgebremst hat?

Sorry, aber das klingt IMO ziemlich an den Haaren herbeigezogen. Die Planung der FX-Chips war schon vor langer Zeit fertig. Warum NV25 bezüglich AF künstlich ausgebremst wurde, weiß ich nicht. An einen Bug mag ich aber nicht mehr glauben, da NV genügend Zeit hatte, das in einem Stepping zu fixen, bzw. so ein Bug längst vorher aufgefallen sein müsste. Ich halte es für denkbar, dass die AF-Optimierungen der FX lange geplant waren, und das Vorgänger-Spitzenprodukt die AF-Geschwindigkeit der FX auf keinen Fall erreichen sollte. Damit könnte man dem "Intellisample" mehr zuschustern, als es tatsächlich bewirkt. NV könnte nun benchen: 4x AA, 8x AF vs 4x AA, 8x AF und siehe da - der NV30 ist dann wieder 7 mal schneller, oder so ähnlich...

Quasar@Work
2003-05-07, 14:15:57
Originally posted by aths
"Mehr als ausgleichen"? Wenn ich Leos Review in richtiger Erinnerung habe, spielen FX 5600 und GF4 Ti (zumindest ab 4400) in der gleichen Liga. Wenn ich mich recht entsinne, durfte die FX zudem mit dem "balanced" AF antreten.

Tut mir leid, ich sprach von einer Ti4200 und ich habe ein wenig andere Erfahrungen gemacht als Leo.
Natürlich gibt es auch Games/Benchmarks, wo das nicht zutrifft, aber wer will schon pauschalisieren?

aths
2003-05-07, 14:17:56
Originally posted by Quasar@Work
Tut mir leid, ich sprach von einer Ti4200 und ich habe ein wenig andere Erfahrungen gemacht als Leo.
Natürlich gibt es auch Games/Benchmarks, wo das nicht zutrifft, aber wer will schon pauschalisieren? Ich. Spielen beide Karten in einer Liga, so ist klar, dass mal die eine, mal die andere gewinnt. Eine grundsätzliche Überlegenheit der Mittelklassen-FX konnte ich bislang nicht erkennen.

Oli_Immerschoen
2003-05-07, 14:27:19
Originally posted by Quasar@Work


Also gut, dann eben nochmal inklusive des hinzueditierten:

Du meinst, es wäre denkbar, daß nVidia schon seit anderthalb Jahren von der relativen Schwäche ihres Mainstream-Designs im Vergleich zum direkten Vorgänger weiss und diesen während seiner Entwicklung (was dann ja nochmal einige Zeit zusätzlich zurückliegen müsste) künstlich ausgebremst hat?

Sorry, aber das klingt IMO ziemlich an den Haaren herbeigezogen.
Ich habe eine TI4200 besessen..die Karte lief absolut kompatibel und problemlos, ich habe keine Anwendung bzw. kein Spiel erfahren welches nicht laufen wollte. Und dann, mittendrin, dieser elementare AF-Fauxpas...ich finde das verdächtig!

up
2003-05-07, 15:22:08
Tja, hoffentlich gibt's bald mal ne Review von diesem Kärtchen!
http://www.msicomputer.com/product/vga/vga_detail.asp?model=FX5600-TD256

Mit 256mb ... (Zweihundertsechsundfünfzig)

Nebenbei: Eine passive 56er ist mir *noch* nicht bekannt, trotz 0.13µ - leider!

aths
2003-05-07, 15:27:03
Originally posted by Oli_Immerschoen
Ich habe eine TI4200 besessen..die Karte lief absolut kompatibel und problemlos, ich habe keine Anwendung bzw. kein Spiel erfahren welches nicht laufen wollte. Und dann, mittendrin, dieser elementare AF-Fauxpas...ich finde das verdächtig! Meine Ti 4600 ist nicht ganz so problemlos, treiberbedingt zicken einige Anwendungen rum.

Die Rohleistung und die verbesserte LMA sorgt in der Praxis dafür, dass AF-mäßig die GF3 Ti500-Leistung nicht unterschritten wird. (In synthetischen Benchmarks kann das ganz anders aussehen.) Die AF-Schwäche der GF4 Ti-Linie war eigentlich von Anfang an bekannt. Da vermutete man allerdings, das sei ein Treiberfehler. Der eine Deto, der in OpenGL den AF-Leistungs-Schub bewirkte (allerdings auch für GF3), wie das geht, weiß ich inzwischen (muß aber vorläufig noch mein Maul halten.) Durch diese Möglichkeit, und in D3D die Möglichkeit, AF für einzelne Stages zu deaktivieren kommt man in der Praxis durchaus in Regionen, die man ohne AF-Bug auch erreichen würde. Ohne AF-Bug aber mit Optimierung wäre natürlich entweder noch mehr Leistung, oder bei gleicher Leistung mehr Qualität drin, richtig befriedigend ist das nicht.

Die seltsame Leistung mit AF jedenfalls war von Anfang an bekannt.

Quasar@Work
2003-05-07, 15:34:08
Originally posted by aths
Die Planung der FX-Chips war schon vor langer Zeit fertig. Warum NV25 bezüglich AF künstlich ausgebremst wurde, weiß ich nicht. An einen Bug mag ich aber nicht mehr glauben, da NV genügend Zeit hatte, das in einem Stepping zu fixen, bzw. so ein Bug längst vorher aufgefallen sein müsste. Ich halte es für denkbar, dass die AF-Optimierungen der FX lange geplant waren, und das Vorgänger-Spitzenprodukt die AF-Geschwindigkeit der FX auf keinen Fall erreichen sollte. Damit könnte man dem "Intellisample" mehr zuschustern, als es tatsächlich bewirkt. NV könnte nun benchen: 4x AA, 8x AF vs 4x AA, 8x AF und siehe da - der NV30 ist dann wieder 7 mal schneller, oder so ähnlich...

Du meinst also, daß während der Planungsphase der GF4 Ti schon die relative Leistung der GFFX bekannt gewesen ist?

Da kann ich nicht so recht dran glauben, ehrlich gesagt. Immerhin war das schon vor mehr als zwei Jahren...

Dass die FX-AF-Optimierung geplant war, denke ich auch, aber nicht, daß die GF4Ti schon beim Design eingebremst wurde, um die FX später besser aussehen zu lassen.

Quasar@Work
2003-05-07, 15:38:45
Originally posted by aths
Ich. Spielen beide Karten in einer Liga, so ist klar, dass mal die eine, mal die andere gewinnt. Eine grundsätzliche Überlegenheit der Mittelklassen-FX konnte ich bislang nicht erkennen.

Siehst du, ich pauschalisiere nicht. Mal ist die eine besser, mal die andere.
Das ist mit verschiedenen Architekturen eben so und war schon immer so. Nur bei reinen Weiterentwicklungen, wie von Voodoo Graphics zu Voodoo2 oder GF256 zu GF2 konnte man sagen, daß die neue Karte durchgehend schneller war.
Auch die R7500 hat Momente, wo sie die R9000 alt aussehen lassen konnte, wo liegt das Problem?
Ich kann auch Szenarien konstruieren, wo eine R8500 eine R9700p stehen lässt, warum sollte da eine FX5600 durchweg schneller sein, als eine Ti4200?
Und dass die Preise anders sind, liegt einfach daran, dass sich bei der Ti4200 der Markt längst reguliert hat, bei der FX5600 aber noch die early-adopter Preise gelten.

Quasar@Work
2003-05-07, 15:40:31
Originally posted by Oli_Immerschoen

Ich habe eine TI4200 besessen..die Karte lief absolut kompatibel und problemlos, ich habe keine Anwendung bzw. kein Spiel erfahren welches nicht laufen wollte. Und dann, mittendrin, dieser elementare AF-Fauxpas...ich finde das verdächtig!

Viel verdächtiger finde ich z.B., daß bei den aktuellen Treibern das Early-Z bei der GF4 Ti selektiv deaktiviert ist, während es bei GF3 und GFFX weiterhin standardmäßig eingeschaltet ist.

Freddy
2003-05-07, 15:45:23
256MB können gegenwärtig nur im Highend (halbwegs) sinnvoll eingesetzt werden. Hier besteht die Chance auf Nutzung mittels hoher AA-Modi in hohen Auflösungen. 256MB auf einer FX5600 ist nur ein Marketing-Gimmick wie DX9 in der FX5200.

256MB für die Zukunft? - Gibt es noch immer Leute, die bereits heute kaufen, was sie nur in der Zukunft sinnvoll nutzen könnten? Mein Beileid! Ich zahle nur für das, was ich auch sofort nutzen kann. DX9 im Highend? AA/AF und pure Leistung gibt's auch noch. DX9 ist für mich nur Zugabe.

Freddy

seahawk
2003-05-07, 17:43:05
Ich denke auch, dass da Absicht in der Beziehung von NV25 und´NV31 liegt. Der neue Midend-Chip erreicht knapp den alten High-End. Und ist unter AF besser. Leider hat der alte komische Schwächen bei AF....

Da wurde zumindest ein Fix ausgelassen.

Unregistered
2003-05-07, 22:16:21
Originally posted by Quasar@Work


Du meinst also, daß während der Planungsphase der GF4 Ti schon die relative Leistung der GFFX bekannt gewesen ist?

Da kann ich nicht so recht dran glauben, ehrlich gesagt. Immerhin war das schon vor mehr als zwei Jahren...

Dass die FX-AF-Optimierung geplant war, denke ich auch, aber nicht, daß die GF4Ti schon beim Design eingebremst wurde, um die FX später besser aussehen zu lassen.

Nein, das hat aths doch gar nicht gesagt. Er sprach davon, dass er nicht an einen Bug glaubt, da genug Zeit war, diesen mit einen neuen Stepping aus der Welt zu schaffen.

Quasar
2003-05-08, 10:45:00
Originally posted by Unregistered


Nein, das hat aths doch gar nicht gesagt. Er sprach davon, dass er nicht an einen Bug glaubt, da genug Zeit war, diesen mit einen neuen Stepping aus der Welt zu schaffen.

Ja, genau das sagte ich doch, bzw. dass ich genau das eben nicht glaube. :)

ravage
2003-05-08, 11:04:42
Originally posted by Quasar@Work
Ich kann auch Szenarien konstruieren, wo eine R8500 eine R9700p stehen lässt

einfach Truform aktivieren :D

Richthofen
2003-05-08, 14:10:44
haha ja!
Aber dafür ist es ja Trueform 2.0!
Eine wahre Offenbahrung :)

MadManniMan
2003-05-08, 16:01:11
Originally posted by Quasar


Ja, genau das sagte ich doch, bzw. dass ich genau das eben nicht glaube. :)

aber bitte wurm sollte nv das sonst reingebaut haben? an einen simplen bug will ich nicht glauben, dafür sind die ingenieure zu fähig.

bisher hab ich noch keine überzeugende erklärung gehört


/edit: ... es sollte "warum" heißen :lol:

Quasar
2003-05-08, 16:17:55
Originally posted by MadManniMan
aber bitte wurm sollte nv das sonst reingebaut haben? an einen simplen bug will ich nicht glauben, dafür sind die ingenieure zu fähig.
bisher hab ich noch keine überzeugende erklärung gehört
/edit: ... es sollte "warum" heißen :lol:
Absichtlich werden sie's schon nicht eingebaut haben, dafür war die Radeon8500 zu dicht dran, insbesondere natürlich in den AF-Tests...

Unfähigkeit hat damit nur wenig zu tun, denke ich. Es ist schlicht und einfach übersehen worden? Was ist daran so unvorstellbar, wäre ja nicht die erste Hardware, die irgendwie nicht ganz so funktioniert, wie es noch netter gewesen wäre.

MadManniMan
2003-05-08, 16:30:36
Originally posted by Quasar

Absichtlich werden sie's schon nicht eingebaut haben, dafür war die Radeon8500 zu dicht dran, insbesondere natürlich in den AF-Tests...

Unfähigkeit hat damit nur wenig zu tun, denke ich. Es ist schlicht und einfach übersehen worden? Was ist daran so unvorstellbar, wäre ja nicht die erste Hardware, die irgendwie nicht ganz so funktioniert, wie es noch netter gewesen wäre.

ich kann mich einfach nicht damit zufrieden geben, daß die nv-leutz den nachfolger meiner heißgeliebten gf3 verschlimmbessert haben sollen...
da wir beide nix beweis0rn können, sollten wir einfach bei unseren meinungen verbleiben!

StefanV
2003-05-08, 19:23:59
Originally posted by Quasar

Absichtlich werden sie's schon nicht eingebaut haben, dafür war die Radeon8500 zu dicht dran, insbesondere natürlich in den AF-Tests...

Unfähigkeit hat damit nur wenig zu tun, denke ich. Es ist schlicht und einfach übersehen worden? Was ist daran so unvorstellbar, wäre ja nicht die erste Hardware, die irgendwie nicht ganz so funktioniert, wie es noch netter gewesen wäre.

...womit du unterstellen würdest, daß in der Testabteilung (teilweise) unfähige Leute sitzen ;)...

Entweder es ist absicht gewesen oder NV hat ein paar Unfähige Leute...

Quasar
2003-05-08, 19:28:19
Originally posted by Stefan Payne


...womit du unterstellen würdest, daß in der Testabteilung (teilweise) unfähige Leute sitzen ;)...

Entweder es ist absicht gewesen oder NV hat ein paar Unfähige Leute...

Ich unterstelle, daß bei nV MENSCHEN arbeiten (ja, auch wenn sie nur euer Geld wollen). Und Menschen machen Fehler, nicht jeder, der mal einen Fehler macht ist unfähig, und wenn doch, dann sind wir alle unfähig, oder SP?
Meinste nicht, daß bei so komplexen Designs mal Fehler unterlaufen können?
Siehe P4 mit 800MHz FSB: Der musste auch kurzzeitig zurückgehalten werden, bis intel sich sicher war, das der kleine Fehler auch durch ein BIOS Patch gefixt werden konnte.


Und um auf deinen zweiten Punkt zurückzukommen: JA, ich bin mir ziemlich sicher, auch bei nV arbeiten ein paar unfähige Leute.