PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Erste Bilder und Benches vom NV35?


Unregistered
2003-05-09, 06:34:05
Hab ich eben beim schmökern gefunden. Ob das echt ist? Wäre ja kein besonders großer Leistungszuwachs!?
http://www.tt-hardware.com/img/news/news090503_1dujour.gif
Hier ein Foto:
http://www.x86-secret.com/pics/big/fx5900-2b.jpg
Hier (http://www.tt-hardware.com/article.php?sid=4316) die Quelle.

Demirug
2003-05-09, 07:41:20
Ist im Moment wohl noch etwas spekulativ.

*move*

nagus
2003-05-09, 08:13:30
Originally posted by Unregistered
Hab ich eben beim schmökern gefunden. Ob das echt ist? Wäre ja kein besonders großer Leistungszuwachs!?
http://www.tt-hardware.com/img/news/news090503_1dujour.gif
Hier ein Foto:
http://www.x86-secret.com/pics/big/fx5900-2b.jpg
Hier (http://www.tt-hardware.com/article.php?sid=4316) die Quelle.


haut mich erhlich gesagt nicht unbedingt vom hocker. sowas war ungefähr zu erwarten. schaut mich jedenfalls halbwegs realistisch an.

interessant wären fsaa und af benchies :)

Unregistered
2003-05-09, 08:27:36
Hier nochmal das Foto, auch Verschieben will gekonnt sein. :)
http://www.x86-secret.com/pics/big/fx5900-2b.jpg

Demirug
2003-05-09, 08:31:13
Originally posted by Unregistered
Hier nochmal das Foto, auch Verschieben will gekonnt sein. :)
http://www.x86-secret.com/pics/big/fx5900-2b.jpg

Das liegt nicht am Verschieben sondern daran das x86-secret einen Linkschutz hat. Beim Verschieben wird kein Post verändert.

Unregistered
2003-05-09, 08:36:06
Also irgendwie steckt der Wurm drin! :|
'Schuldigung, für die vielen Posts!
Foto (http://www.x86-secret.com/pics/big/fx5900-2b.jpg)

Unregistered
2003-05-09, 08:38:10
Ich geb's auf! :(

mapel110
2003-05-09, 08:43:43
wenn die zahlen stimmen, dann muss der nv35 höher getaktet sein als die 5800 ultra. bei 1024er auflösung sollte doch wohl noch die füllrate eindeutig limitierend sein.

Demirug
2003-05-09, 08:49:35
Originally posted by nagus



haut mich erhlich gesagt nicht unbedingt vom hocker. sowas war ungefähr zu erwarten. schaut mich jedenfalls halbwegs realistisch an.

interessant wären fsaa und af benchies :)

Da musst du eben auf noch ein paar warten die das NDA brechen (wenn das nicht alles nur ein Fake ist).

Zumindestens hat man beim NV35 die pro MHz Leistung etwas gesteigert.

5800 ultra 10.858 Mark/MHz
5900 ultra 12.064 Mark/MHz

mit dem Det 50 kommt man dann fast an den R350 ran.

5900 ultra 14.084 Mark/MHz

9800 Pro 14.463

Natürlich alles nur auf den 3dmark bezogen und unter der prämisse das die 5900 ultra mit 450 MHz läuft und die Zahlen stimmen.

Interesant wäre sicherlich noch in wie weit auch andere Chips der NV3X Rheie vom Det 50 profitieren.

mapel110
2003-05-09, 08:55:49
Originally posted by Demirug
Interesant wäre sicherlich noch in wie weit auch andere Chips der NV3X Rheie vom Det 50 profitieren.

jup, könnte imo haargenau die gleiche geschichte sein, wie mit der 9800er. einfach ein treiberupdate mit cineFX 2.0, sprich cineFX 1.0 mit ultrashadow, sprich treiberhack ala 9800er.

dafür spricht imo auch die namensgebung 5900.

vor allem sieht man jetzt schon, wieviel von der versprochenen mehrpower(war es nicht doppelt so schnell bei gleichem takt ?! ) gegenüber der FX 5800 ultra übrig geblieben ist. fast nichts.

Demirug
2003-05-09, 09:06:37
Originally posted by mapel110


jup, könnte imo haargenau die gleiche geschichte sein, wie mit der 9800er. einfach ein treiberupdate mit cineFX 2.0, sprich cineFX 1.0 mit ultrashadow, sprich treiberhack ala 9800er.

dafür spricht imo auch die namensgebung 5900.

vor allem sieht man jetzt schon, wieviel von der versprochenen mehrpower(war es nicht doppelt so schnell bei gleichem takt ?! ) gegenüber der FX 5800 ultra übrig geblieben ist. fast nichts.

Es wird sich sicher ein Test finden lassen wo man wirklich das doppelte herausholen kann. Aber das kann man ja immer.

Letzende Endes kann man in Situationen in denen die Fillrate limitiert nur mehr rausholen wenn man die Fillrate erhöht oder die Vorhandene soweit möglich besser nutzt.

Der 3dmark Wert ohne die Angaben zu den einzeltests ist aber sowieso ein bischen dünn als grundlage.

egdusp
2003-05-09, 10:48:35
Bei xbitlaps gibt es Bilder und Infos zum NV35:
http://www.xbitlabs.com/news/video/display/20030508184823.html
http://www.xbitlabs.com/news/video/display/20030508151057.html

Die Bilder sehen sehr echt aus, soweit ich das beurteilen kann.
Aber das interessanteste ist, dass wir schon nächste Woche mit Reviews rechnen können.

mfg
egdusp

Endorphine
2003-05-09, 11:05:24
http://www.hartware.net/news.html?id=32861

mapel110
2003-05-09, 11:05:51
Originally posted by egdusp
Aber das interessanteste ist, dass wir schon nächste Woche mit Reviews rechnen können.

mfg
egdusp

joah, dagegen spricht sowieso nix. das teil dürfte ja weitaus problemloser sein mit 450 mhz core und 425 mhz ramtakt.
der detonatorFX ist wohl auch fertig. also kann er kommen.

[dzp]Viper
2003-05-09, 11:09:19
RAM anordnung wie bei der matrox karten ?

http://gfx.turtled.com/n/32000/32861_2b.jpg


und was ist das für ein komischer kühlkörper .. da staut sich doch mehr die hitze,
Und der lüfter sieht mir auch nach einer kleinen turbine aus (wenn auch nicht so schlimm wie bei der orginalen fx ;D)


Zitat:


"Zwar belegt auch der Cooler des NV35 den PCI-Slot neben dem AGP-Steckplatz, seine eher konventionelle Bauweise deutet aber ein deutlich leiseres Betriebsgeräusch an. "


lernen die denn garnicht ? ;D

Richthofen
2003-05-09, 11:13:15
Der Detonator 5 sieht sehr vielversprechend aus. Da wurde einiges zugelegt.
Ansonsten warte ich auf TEsts aber die Karte selber sieht schonmal sehr geil aus.
Die Performance dürfte sehr ansprechend sein und die 9800 wohl klar schlagen.

Byteschlumpf
2003-05-09, 11:14:49
Man beachte die doppelte Bauhöhe der Karte anhand des Slotbleches!

Byteschlumpf
2003-05-09, 11:16:21
Originally posted by Richthofen
Der Detonator 5 sieht sehr vielversprechend aus. Da wurde einiges zugelegt.
Ansonsten warte ich auf TEsts aber die Karte selber sieht schonmal sehr geil aus.
Die Performance dürfte sehr ansprechend sein und die 9800 wohl klar schlagen.
Der Treiber wird höchstwahrscheinlich an den 2003er angepaßt sein, wie schon zuvor geschehen!

[dzp]Viper
2003-05-09, 11:19:11
hier sieht man schön die doppelte bauhöhe und wie groß der lüfter ist ... sieht mir nämlich nach nem kleinen lüfter aus der sich aber sehr sehr schnell dreht .. da die lüfterblätter auch noch so klein sind ...

http://gfx.turtled.com/n/32000/32861_1b.jpg

[dzp]Viper
2003-05-09, 11:20:31
Warum hat man nicht einfach einen wirklich großen lüfter genohmen (80x80) der schön flach ist und sich vielleicht mit 2000 U/min dreht .... - würde doch PERFEKT auf den riesen kühlkörper passen ...

Unregistered
2003-05-09, 11:25:09
Originally posted by Richthofen
Der Detonator 5 sieht sehr vielversprechend aus. Da wurde einiges zugelegt.
Ansonsten warte ich auf TEsts aber die Karte selber sieht schonmal sehr geil aus.
Die Performance dürfte sehr ansprechend sein und die 9800 wohl klar schlagen.

Mit dem Lüfter und Kühlkörper bringt es eine 9800 auch auf 450MHz. Mit 0.13 Micron sogar auf 550MHz.

[dzp]Viper
2003-05-09, 11:27:39
Originally posted by Unregistered


Mit dem Lüfter und Kühlkörper bringt es eine 9800 auch auf 450MHz. Mit 0.13 Micron sogar auf 550MHz.

Dont feed that troll :) wir wollen hier nicht flamen ... der thread soll sachlich bleiben

Endorphine
2003-05-09, 11:42:07
Originally posted by [dzp]Viper
lernen die denn garnicht ? ;DOriginally posted by [dzp]Viper
hier sieht man schön die doppelte bauhöhe und wie groß der lüfter ist ... sieht mir nämlich nach nem kleinen lüfter aus der sich aber sehr sehr schnell dreht .. da die lüfterblätter auch noch so klein sind ... Originally posted by [dzp]Viper
Warum hat man nicht einfach einen wirklich großen lüfter genohmen (80x80) der schön flach ist und sich vielleicht mit 2000 U/min dreht .... - würde doch PERFEKT auf den riesen kühlkörper passen ... Ich halte es mal mit deinem Avatar: nVidia hat bereits gelernt und setzt nun endlich Radiallüfter ein, wo ATi immer noch mit den für die Anwendung der Grafikkartenkühlung unterlegenen Axiallüftern rumkrebst. Ein Radiallüfter ist auf Grund der 90°-Umlenkung des Luftstroms und des höheren Drucks für diesen Anwendungsfall optimal geeignet.

Und auch bei ATI-Grafikkarten sollte man so oder so den Slot neben der Grafikkarte tunlichst freilassen um den Kühler nicht mit Kontakten der nächsten karte kollidieren zu lassen und dort evtl. Kurzschlüsse zu verursachen. Die Lösung von nVidia hier stellt praktisch vom Konzept her das Optimum dar. Wenn die Drehzahlregelung via Software sinnvoll genutzt wird und ein hochqualitativer Lüfter eingesetzt wird ist dieses Konzept dem von ATI deutlich überlegen.

Der Radiallüfter hat zudem auch Platz für ordentliche Lagerung und einen langlebigen Motor und sitzt (noch ein Vorteil) endlich nicht mehr auf dem hot spot. Längere Lebensdauer, überlegene Kühlleistung und Platz zum atmen per Standard. An der Lösung gibt es nichts, aber auch gar nichts zu kritisieren. Die Lautstärke hängt von der gewählten Lüfterdrehzahl und der Qualität des Lüfters ab. Nur FanATIker meckern da rum.

[dzp]Viper
2003-05-09, 11:52:23
Originally posted by Endorphine
Ich halte es mal mit deinem Avatar: nVidia hat bereits gelernt und setzt nun endlich Radiallüfter ein, wo ATi immer noch mit den für die Anwendung der Grafikkartenkühlung unterlegenen Axiallüftern rumkrebst. Ein Radiallüfter ist auf Grund der 90°-Umlenkung des Luftstroms und des höheren Drucks für diesen Anwendungsfall optimal geeignet.

Und auch bei ATI-Grafikkarten sollte man so oder so den Slot neben der Grafikkarte tunlichst freilassen um den Kühler nicht mit Kontakten der nächsten karte kollidieren zu lassen und dort evtl. Kurzschlüsse zu verursachen. Die Lösung von nVidia hier stellt praktisch vom Konzept her das Optimum dar. Wenn die Drehzahlregelung via Software sinnvoll genutzt wird und ein hochqualitativer Lüfter eingesetzt wird ist dieses Konzept dem von ATI deutlich überlegen.

Der Radiallüfter hat zudem auch Platz für ordentliche Lagerung und einen langlebigen Motor und sitzt (noch ein Vorteil) endlich nicht mehr auf dem hot spot. Längere Lebensdauer, überlegene Kühlleistung und Platz zum atmen per Standard. An der Lösung gibt es nichts, aber auch gar nichts zu kritisieren. Die Lautstärke hängt von der gewählten Lüfterdrehzahl und der Qualität des Lüfters ab. Nur FanATIker meckern da rum.

erstmal - das is ja alles gut -

eines will ich erstmal klarstellen - > ich bin und war noch nie FanATIker <-
Und wenn du mich kennen würdest, wüsstest du das auch .. aber dazu sage ich nichts weiter ...

Daran, das dies eine Radiallüfterkonstruktion ist, habe ich nicht gedacht. Aber denoch hoffe ich, das es nicht zu laut wird, den es gibt genug laute radiallüfter ... wir werden sehen was die ersten test bringen werden!

Unregistered
2003-05-09, 11:53:09
Originally posted by [dzp]Viper


Dont feed that troll :) wir wollen hier nicht flamen ... der thread soll sachlich bleiben

Grundsätzlich hast du natürlich recht! Dieser Thread sollte sachlich bleiben und ich möchte in keinem Wort den Hersteller des NV35 etwas schlechtes nachsagen!!! Dies ist nicht meine Absicht!

Noch sind allerdings ist jede Info zum NV35 auch Spekulation und meine Annahme fordert sicherlich nicht zu viel Phantasie, um sie sich vorstellen zu können. So gesehen bin ich so sachlich wie die NV35 Spekus.

[dzp]Viper
2003-05-09, 11:55:03
Originally posted by Unregistered


Grundsätzlich hast du natürlich recht! Dieser Thread sollte sachlich bleiben und ich möchte in keinem Wort den Hersteller des NV35 etwas schlechtes nachsagen!!! Dies ist nicht meine Absicht!

Noch sind allerdings ist jede Info zum NV35 auch Spekulation und meine Annahme fordert sicherlich nicht zu viel Phantasie, um sie sich vorstellen zu können. So gesehen bin ich so sachlich wie die NV35 Spekus.

deine annahmen sind nur etwas weit hergeholt
aber wenn du willst, kannst du ja einen thread dafür im Spekuforum eröffnen ... ok ? :) da rede ich dann auch mit :)

Unregistered
2003-05-09, 11:56:55
Originally posted by Endorphine
Ich halte es mal mit deinem Avatar: nVidia hat bereits gelernt und setzt nun endlich Radiallüfter ein, wo ATi immer noch mit den für die Anwendung der Grafikkartenkühlung unterlegenen Axiallüftern rumkrebst. Ein Radiallüfter ist auf Grund der 90°-Umlenkung des Luftstroms und des höheren Drucks für diesen Anwendungsfall optimal geeignet.

Und auch bei ATI-Grafikkarten sollte man so oder so den Slot neben der Grafikkarte tunlichst freilassen um den Kühler nicht mit Kontakten der nächsten karte kollidieren zu lassen und dort evtl. Kurzschlüsse zu verursachen. Die Lösung von nVidia hier stellt praktisch vom Konzept her das Optimum dar. Wenn die Drehzahlregelung via Software sinnvoll genutzt wird und ein hochqualitativer Lüfter eingesetzt wird ist dieses Konzept dem von ATI deutlich überlegen.

Der Radiallüfter hat zudem auch Platz für ordentliche Lagerung und einen langlebigen Motor und sitzt (noch ein Vorteil) endlich nicht mehr auf dem hot spot. Längere Lebensdauer, überlegene Kühlleistung und Platz zum atmen per Standard. An der Lösung gibt es nichts, aber auch gar nichts zu kritisieren. Die Lautstärke hängt von der gewählten Lüfterdrehzahl und der Qualität des Lüfters ab. Nur FanATIker meckern da rum.

Wie ich schon weiter oben bemerkt habe. Mit diesem Lüfter bringt's die 9800 auch auf 450MHz. Lüfter und Kühlkörper sind kaum Hochtechnologie. Ich empfehle ATI diese Konstruktion zu übernehmen und die 9800 auf 450MHz zu beschleunigen. Durch diese Äußerung kann ich ja jetzt kein FanATIker mehr sein!

Endorphine
2003-05-09, 11:58:56
Nur weil es von nVidia kommt muss es nicht gleich automatisch laut und schlecht sein. Man kann auch etwas künstlich schlecht reden.

Ich persönlich halte dieses Kühlungskonzept für das beste seit Jahren. Ich verstehe ehrlich gesagt überhaupt nicht, warum bei Grafikkarten mit einer Abwärme von über 50 Watt noch am 1-Slot Konzept festgehalten wird und dadurch winzigste superflache schnelldrehende und kurzlebige Axiallüfter direkt auf dem GPU-Hotspot sitzen müssen. Und zudem können auch diese nur richtig arbeiten und keine Gefahr für die benachbarte Karte darstellen, wenn man den benachbarten Slot frei lässt.

Die Formfaktoren müssten bei der Leistungsaufnahme aktueller Grafikkarten so oder so mal angepasst werden, damit eine saubere Kühllösung wieder machbar ist ohne dass alle Welt aufschreit, weil der benachbarte Slot gleich in Beschlag genommen wird, obwohl der auch mit anderen Grafikkarten der gleichen Leistungsklasse praktisch unbenutzbar ist.

Ich zumindest würde mir das Kühlungskonzept von Quadro FX/5600 non-ultra/5900 auch bei ATI-Grafikkarten wünschen. Bei geschickter Lüftersteuerung und einem hochqualitativen Radiallüfter könnte das Konstrukt gleichzeitig überaus leise und trotzdem leistungsfähig arbeiten.

Endorphine
2003-05-09, 12:03:13
Originally posted by Unregistered
Wie ich schon weiter oben bemerkt habe. Mit diesem Lüfter bringt's die 9800 auch auf 450MHz. Lüfter und Kühlkörper sind kaum Hochtechnologie. Ich empfehle ATI diese Konstruktion zu übernehmen und die 9800 auf 450MHz zu beschleunigen. Durch diese Äußerung kann ich ja jetzt kein FanATIker mehr sein! Ja, das würde ich mir auch wünschen, mehr Grafikkarten mit vernünftiger Kühlung :)

Die Lautstärke hängt ja dann nur noch von der Wahl und Steuerung des Radiallüfters ab. Die Kühlleistung ist dank hot-spot mit Kühlrippen und grossflächigem höher bauendem Kühler sowieso überlegen. Und die Lebensdauer (und damit auch die mittel- und langfristige Laufruhe) des Lüfters ist ebenfalls potentiell viel grösser als die der jetzigen schrottigen Axiallüfterkühlungen, die sich gerade noch so in den Bereich eines AT-Slots quetschen, aber dann schon elektrischen Kontakt mit der benachbarten Karte suchen und bei Einsatz dieser dann nicht mehr kühlen (können).

Wenn das patentrechtlich in Ordnung geht könnte man von mir aus das FX5800 non-ultra/5900/Quadro Kühlkonzept auf alle anderen Hochleistungsgrafikkarten übertragen.

[dzp]Viper
2003-05-09, 12:05:14
Originally posted by Endorphine
Bei geschickter Lüftersteuerung und einem hochqualitativen Radiallüfter könnte das Konstrukt gleichzeitig überaus leise und trotzdem leistungsfähig arbeiten.

betonung liegt auf KÖNNTE :) - noch is ja nix raus ....
Und wer weiss, was Saphire auf der E3 präsentiert (siehe anderen thread ;D)

Unregistered
2003-05-09, 12:07:55
Originally posted by [dzp]Viper


deine annahmen sind nur etwas weit hergeholt
aber wenn du willst, kannst du ja einen thread dafür im Spekuforum eröffnen ... ok ? :) da rede ich dann auch mit :)

450MHz bei diesem Lüfter/Kühlkörper. Ne, das ist wirklich nicht absurd und Spekulation(450MHz) bleibt Spekulation(NV35). Kann eine Spekulation wirklich weit hergeholt sein? Der NV35-Bench könnte echt oder auch gefälscht sein. Viele Threads könnten übrigens durchaus in eine anderen Kategorie verschoben werden. Wir lassen diesen Thread besser hier, schon weil meine Überlegung nicht ins Reich der Märchen gehört.

Dennoch, recht hast du in Bezug auf Flames! - Es ist nicht ganz unwahrscheinlich, dass einige Leute aus meinen Überlegungen zur Technik ein ATI vs. NVidia machen werden. :(

Endorphine
2003-05-09, 12:10:40
Originally posted by [dzp]Viper
betonung liegt auf KÖNNTE :) - noch is ja nix raus .... Was die einzelnen Grafikkartenhersteller aus dem Konzept machen bleibt ja ihnen überlassen. Es gibt ja nicht nur einen Hersteller von Radiallüftern in diesem Format. Und es zwingt auch niemand einen Hersteller dazu, diesen immer mit 100 % Spannung zu betreiben. Mittlerweile haben auch die Fernosthersteller bemerkt, dass ein Markt für Silentkühlung vorhanden ist. Wie ich schon sagte - man muss nicht immer vom schlechtesten ausgehen, nur weil es nVidia ist. Originally posted by [dzp]Viper
Und wer weiss, was Saphire auf der E3 präsentiert (siehe anderen thread ;D) Ich spekuliere mal mit 99 %iger Wahrscheinlichkeit auf eine der neuen Versionen der Zalman-Heatpipe, die auf der CeBit gezeigt wurden. z.B. die ZM80C0-HP:

http://www.zalman.co.kr/news/2003/cebit2003/11.gif

seahawk
2003-05-09, 12:31:47
Der Kühler sieht aus wie der der 5800 Non-Ultra und dieser ist leiser als der Referenzkühler der 9800pro.

Also keine Panik.

Gohan
2003-05-09, 12:37:42
Originally posted by Endorphine
Ich spekuliere mal mit 99 %iger Wahrscheinlichkeit auf eine der neuen Versionen der Zalman-Heatpipe, die auf der CeBit gezeigt wurden. z.B. die ZM80C0-HP:

http://www.zalman.co.kr/news/2003/cebit2003/11.gif

Und ich auf die Arctic Cooling Lösung die man auf der CeBit sehen konnte. Afaik wurde die nämlich mit Sapphire Karten präsentiert.

*edit* Hm, das war doch HIS...
http://www.onlinekosten.de/news/artikel/11416

nagus
2003-05-09, 13:05:27
schon jemand bemerkt , dass das teil noch großer ist als die 5800Ultra und GF4?

da gibts sicher wieder probleme bei manchen mobos...

Gohan
2003-05-09, 13:24:28
Originally posted by nagus
schon jemand bemerkt , dass das teil noch großer ist als die 5800Ultra und GF4?

da gibts sicher wieder probleme bei manchen mobos...

Lieber Nagus, solange das nur ein Sampel Board ist, kann das so groß sein wie es will, es juckt den Endverbraucher nicht. Oder hast du etwa schon die Final Revision gesehen ???

Sunrise
2003-05-09, 13:25:47
Schöner Morgen, vor eine Stunde aufgestanden, geduscht und jetzt gleich sowas, da schlägt doch das Herz eines Hardware-Freaks höher ;)

Mit meiner Einschätzung, das die 5900-Varianten eine ähnliche Kühllösung wie die 5800 non-ultra spendiert bekommen, lag ich ja sehr sehr gut.

Die Benches sehen auch ziemlich nach dem aus, was man/ich erwartet hat/habe, in etwa Gleichstand mit aktuellen Treibern, und eine Führung per DetoFX 50. Ich bin mal wirklich gespannt, ob der Treiber die von Demi angesprochenen "Optimierungen" auf bestimmte Applications enthält, oder ob dies zum Teil auch mit effizienteren Routinen erreicht wurde.

Der Preis von 499 USD/EUR für die Top-Variante mit 256MB ist ja geradezu "günstig" ;)


@Unreg:

Wenn es die 9800PRO bei dir auf 450MHz bringt, dann übertakte sie, die geht sogar bei einigen noch weiter. Hochtechnologie liegt im Auge des Betrachters, wenn NVIDIA meint, die Kühllösung sei Hochtechnolgie, dann redet man sich seine Radiallüfter-Kombi einfach schön, denn diese "Prute-force without brain"-Lösung wie auf der 5800 war sicher auch Hochtechnolgie, also alles nicht so eng sehen.

Das ATI jetzt schnell reagiert und sofort eine neue Variante mit 450MHz nachschiebt (mit eben dieser Kühllösung) wäre völlig unangebracht, und auch nicht ATI-gemäß. ATI wird den R350 auf 0.13µm fertigen und ihn intern zusätzlich aufbohren (R390 aka. Loci).

Eine Abwechslung NVIDIA/ATI ist für den Konsumenten viel interessanter, und vom Preisgefüge her auch von Vorteil (9800PRO).

seahawk
2003-05-09, 13:31:25
Originally posted by nagus
schon jemand bemerkt , dass das teil noch großer ist als die 5800Ultra und GF4?

da gibts sicher wieder probleme bei manchen mobos...

Ok die Karte ist lang, das sieht man, aber wie kannst Du ohne jeden Vergleich erkennen, dass die größer ist als die GF4 / 5800 ??

Unregistered
2003-05-09, 13:41:58
Originally posted by seahawk


Ok die Karte ist lang, das sieht man, aber wie kannst Du ohne jeden Vergleich erkennen, dass die größer ist als die GF4 / 5800 ??
Das sieht man doch.

Mich verwundern aber eher die wenigen Bauteile, wo sind die ganzen Spannungswandler hin?

Richthofen
2003-05-09, 13:53:36
mal was zur Grösse der Karte.
Dies ist in gewissem Maße auch ein Grund für die Zuverlässigkeit von NV Karten. Sie produzieren ihre Karten nicht im Grenzbereich. Wer vieles auf kleine Fläche packt muss sehr aufpassen dass er hier und da nicht in Probleme kommt und das ist ATI des öfteren schon passiert.

[dzp]Viper
2003-05-09, 14:03:44
Originally posted by Richthofen
mal was zur Grösse der Karte.
Dies ist in gewissem Maße auch ein Grund für die Zuverlässigkeit von NV Karten. Sie produzieren ihre Karten nicht im Grenzbereich. Wer vieles auf kleine Fläche packt muss sehr aufpassen dass er hier und da nicht in Probleme kommt und das ist ATI des öfteren schon passiert.

toll - auch wenn sie dabei die AGP spezifikationen nicht einhalten ... tolle sache - dann haben wir bald 50 cm grafikkarten im system .. die 4 kg wiegen .. super sache richthofen ;D

Feinschmecker
2003-05-09, 14:17:22
Cool dann werden sich sicher jetzt die Leute ärgern die sich für teures Geld ne langsamere Radeon9800 gekauft haben.
Gut das ich abgewartet habe.

[dzp]Viper
2003-05-09, 14:21:58
nur das die 5900ultra so um die 550 - 600 € kosten wird .... super günstig :)

MagicMat
2003-05-09, 14:25:59
@Feinschmecker
Lol, sorry aber diese Einstellung kann man doch bei PC-Komponenten vergessen. Bis die NV35 in vernünftigen Mengen und zu vergleichbaren Preisen einer 9800 verkauft wird, gehen sicher noch Monate ins Land. Und dann kann man sagen "Haha die neue ATI ist im Anmarsch, müssen sich die Leute ärgern die jetzt eine FX5900 gekauft haben"...
Beim Kauf von PC-Komponenten heißt es Augen zu und durch...

Feinschmecker
2003-05-09, 14:28:42
Angeblich hat Nvidia schon 100000 Stück auf Lager sollen Juni/Juli in den Läden stehen. Fantastisch sag ich da nur!

LovesuckZ
2003-05-09, 14:29:07
Originally posted by [dzp]Viper
nur das die 5900ultra so um die 550 - 600 € kosten wird .... super günstig :)

bei den Dollar: Euro Verhaeltnis vielleicht nicht:)

Ausserdem wird es die Ultra fuer 499€ geben, so wie die 5800Ultra zur zeit fuer 499€ über den ladentisch geht. Dazu kommt dann noch der Preiskampf untereinander.

Endorphine
2003-05-09, 14:29:21
Originally posted by [dzp]Viper
toll - auch wenn sie dabei die AGP spezifikationen nicht einhalten ... tolle sache - dann haben wir bald 50 cm grafikkarten im system .. die 4 kg wiegen .. super sache richthofen ;DBis jetzt hat nVidia nie eine Grafikkarte hergestellt, die Spezifikationen verletzt. Die FX5800 ist btw eine AGP Pro-100 Karte, nur mit HDD-Spannungsstecker. Längenbeschränkungen gibt es übrigens gar keine. Der AT-Formfaktor erlaubt Karten bis zu voller Baulänge. Dafür sind die Halterungen am anderen Ende des Gehäuses da. Wenn längere Grafikkarten Platzprobleme auf manchen Boards verursachen ist das eine Spezifikationsverletzung des Boardherstellers, nicht des Grafikkartenherstellers. Ebenso bei Gehäusen.

[dzp]Viper
2003-05-09, 14:31:30
ds mit dem PCI slot is aber ne verletzung - genauso bei der 5800ultra mit dem gewicht .. wurde hier mal gepostet .. mal suchen ob ich es noch finde ...

[dzp]Viper
2003-05-09, 14:32:32
Originally posted by LovesuckZ


bei den Dollar: Euro Verhaeltnis vielleicht nicht:)

Ausserdem wird es die Ultra fuer 499€ geben, so wie die 5800Ultra zur zeit fuer 499€ über den ladentisch geht. Dazu kommt dann noch der Preiskampf untereinander.

momentan werden ja aber preise von 499 $ angegeben -> dazu kommt noch mehrwertsteuer und co.

MagicMat
2003-05-09, 14:34:55
Originally posted by Feinschmecker
Angeblich hat Nvidia schon 100000 Stück auf Lager sollen Juni/Juli in den Läden stehen. Fantastisch sag ich da nur!

Das glaubst du doch selber nicht....:lol:

Unregistered
2003-05-09, 14:35:14
Originally posted by Feinschmecker
Cool dann werden sich sicher jetzt die Leute ärgern die sich für teures Geld ne langsamere Radeon9800 gekauft haben.
Gut das ich abgewartet habe.

Und noch weitere drei Monate warten wirst ...

mRofsimpsOn
2003-05-09, 14:44:06
... und merken wirst, dass die karte doch noch zu laut is ..

und mal nebenbei .. so gross is der speed unterschied zwischen 9800rpo und 5900 nich ...

aber ich werd mir beide von keinen holen .. werd ja nich so bescheuert sein 500 €für nen paar bewegte bilder aufm monitor auszugeben ;D

[dzp]Viper
2003-05-09, 14:45:13
Originally posted by mRofsimpsOn
aber ich werd mir beide von keinen holen .. werd ja nich so bescheuert sein 500 €für nen paar bewegte bilder aufm monitor auszugeben ;D

laut deinem avatar aber schon ;D

ow
2003-05-09, 15:13:55
Originally posted by [dzp]Viper
ds mit dem PCI slot is aber ne verletzung - genauso bei der 5800ultra mit dem gewicht .. wurde hier mal gepostet .. mal suchen ob ich es noch finde ...

Noe, da liegen keine Verletzungen der Specs vor.

[dzp]Viper
2003-05-09, 15:16:27
Originally posted by ow


Noe, da liegen keine Verletzungen der Specs vor.

hm was hab ich denn da damals gelesen *grübel* ???

Unregistered
2003-05-09, 15:18:57
Originally posted by MagicMat


Das glaubst du doch selber nicht....:lol:

CEO meldet das !

MagicMat
2003-05-09, 15:21:47
Originally posted by Unregistered


CEO meldet das !

Link bitte! Und selbst wenn, die haben es auch nur von NVIdia und Hersteller erzählen viel wenn der Tag lang ist. Habe auch gelesen das die 5900Ultra und 5900 noch angeblich Juni rauskommen, glaube es aber erst wenn die Karte beim ersten Händler auf Lager ist.

nagus
2003-05-09, 15:26:43
Originally posted by Richthofen
mal was zur Grösse der Karte.
Dies ist in gewissem Maße auch ein Grund für die Zuverlässigkeit von NV Karten. Sie produzieren ihre Karten nicht im Grenzbereich. Wer vieles auf kleine Fläche packt muss sehr aufpassen dass er hier und da nicht in Probleme kommt und das ist ATI des öfteren schon passiert.

also das ist IMHO ziehmlich weit hergeholt. und die größe der ati karten ist normal... im vergleich zu nvidias monster-dinger. ich glaube eher, dass nvidia es einfach nicht zu stande bringt eine der agp-spezifikationen konforme karte zu bauen. ati kann das eben besser und das zeigt sich auch bei der unterschiedlichen bauweise.

... und ich hab lieber eine 400$ high-end ati als eine 500$ schweres riesen ungetüm in meinem rechner.... und den OEMs wird genauso gehn. ich sehe da wenig chancen für nvidia, dass das teil jemals in einem dell, medion oder sonst welchen OEM pcs verbaut wird. die greifen lieber zu karten die den standards entsprechen.

[dzp]Viper
2003-05-09, 15:28:45
Originally posted by nagus


dass nvidia es einfach nicht zu stande bringt eine der agp-spezifikationen konforme karte zu bauen.


hatte ich doch recht ? ;D

robbitop@work
2003-05-09, 15:29:57
laut AGP Pro Spec ist das erlaubt.
Den 1. PCI Platz belegen ist eh mit keiner Aktuellen HighEnd Karte drin.

ich stimme Endo zu, dass das Kühlerdesign sehr gut ist, effizient ohne Ende..je Effizienter, desto weniger UPR -> leiser

Der NV35 wurde übrigens recht ordendlich redesignd..hier MUSSTE in Punkto Leckströme einiges getan werden.

Wer weiss was noch alles Kommt (Intellisample)

der NV3x ist eine innovative Basis und das wird mit Folgeprodukten bewiesen werden. Der NV30 ist durch viele Dinge (Fehlmangement/PR/Pech) einfach schrottig.

Und treiber können bei hochflexiblen Architekturen viel ändern.
Besonders bei den ALUs ist einiges geändert.

Aber ich denke, es wird die Füllrate limitierende Komponente sein : also ordendlich oc!

Unregistered
2003-05-09, 15:30:16
Originally posted by nagus
... und ich hab lieber eine 400$ high-end ati als eine 500$ schweres riesen ungetüm in meinem rechner.... und den OEMs wird genauso gehn. ich sehe da wenig chancen für nvidia, dass das teil jemals in einem dell, medion oder sonst welchen OEM pcs verbaut wird. die greifen lieber zu karten die den standards entsprechen.
Ich denke auch das man bei den OEMs recht wenige FX5900er finden wird, dass hat aber sicherlich andere Gründe als die Baugröße ;)

Unregistered
2003-05-09, 15:33:45
diese ATI brillen
ich riiiich sie, manOman!

StefanV
2003-05-09, 15:47:24
Originally posted by Unregistered

Ich denke auch das man bei den OEMs recht wenige FX5900er finden wird, dass hat aber sicherlich andere Gründe als die Baugröße ;)

Naja, eine lange Karte behindert den Luftstrom, diverse Kabelagen sind nicht soo einfach zu legen usw...

Es kann auch sein, daß man den einen oder anderen Festplattenschacht nicht mehr nutzen kann, da die Karte zu lang ist.

[dzp]Viper
2003-05-09, 15:49:52
Originally posted by Stefan Payne
Es kann auch sein, daß man den einen oder anderen Festplattenschacht nicht mehr nutzen kann, da die Karte zu lang ist.

siehe CSx01 gehäuse .. die haben ja den extra schacht noch unten dran - den bekommt man dann nicht mehr raus, wenn die graka zu lang ist ..

Endorphine
2003-05-09, 15:54:58
Originally posted by Stefan Payne
Naja, eine lange Karte behindert den Luftstrom, diverse Kabelagen sind nicht soo einfach zu legen usw...

Es kann auch sein, daß man den einen oder anderen Festplattenschacht nicht mehr nutzen kann, da die Karte zu lang ist.Wie bereits gesagt sind das Verletzungen der AT- bzw. ATX-Spec, wenn Karten voller Baulänge nicht in das Gehäuse passen. Bei Grafikkarten ist das natürlich besonders bitter, da dann viele Workstationkarten nicht einsetzbar sind (und auch keine 3dfx V56k).

Endorphine
2003-05-09, 15:57:05
Originally posted by [dzp]Viper
siehe CSx01 gehäuse .. die haben ja den extra schacht noch unten dran - den bekommt man dann nicht mehr raus, wenn die graka zu lang ist .. Damit habe ich aber schon bei meiner Radeon 9700 Probleme. Das dürfte bei praktisch allen schnellen Karten so sein.

Ehrlich gesagt ist dieses Baulängenargument IMHO extrem an den Haaren herbeigezogen. Wenn die Karte erstmal im Rechner verbaut ist und läuft - wen interessiert da noch die Baulänge? Und dass es Gehäuse und Mainboards gibt, welches sich nicht an die AT- und ATX-Spec halten ist eben Pech.

[dzp]Viper
2003-05-09, 15:59:06
Originally posted by Endorphine Ehrlich gesagt ist dieses Baulängenargument IMHO extrem an den Haaren herbeigezogen. Wenn die Karte erstmal im Rechner verbaut ist und läuft - wen interessiert da noch die Baulänge? Und dass es Gehäuse und Mainboards gibt, welches sich nicht an die AT- und ATX-Spec halten ist eben Pech.

wieso ? wenn sich niemand daran hält, wofür sich dann die specs gemacht ??

warum gibt es Brandschutzregeln ? Warum gibt es Verkehrsregeln ?? ( naja ok is ein bissel weit hergeholt aber den eigentlich sinn trifft es denoch)

Ailuros
2003-05-09, 15:59:27
Also jetzt mal ehrlich wenn der Luefter nicht so droehnt wie die ersten samples des FX Flow, ist es mir im Grundsatz schnuppe ob die Karte jetzt ein bisschen groesser ist, oder ob ein PCI Platz ploetzlich untauglich wird.

Meiste mobos haben heutzutage 5-6 PCI Steckplaetze und ich bezweifle allen ernstes das in der Mehrheit von Situationen ploetzlich alle voll sind.

Ausserdem erwarte ich von jemand der 400-500 oder mehr euro auf den Ladentisch legen kann, ergo ein high end System, dass er die Hartware nicht in einem micro-ATX unterbringt. Full Towers gibt es auch zu sehr logischen Preisen.

Von dem ganzen abgesehen dass einzige was mich wirklich an NV35 interessiert ist fuer was Intellisample HTC (oder wie auch immer es heisst) steht.

Braeuchte ich einen Grund zum meckern, dann waere es der Dollar-Euro Austausch-Kurs; da ich immer noch keine Preisreduzierungen sehen kann :(

Endorphine
2003-05-09, 16:03:10
.

Endorphine
2003-05-09, 16:08:58
Originally posted by [dzp]Viper
wieso ? wenn sich niemand daran hält, wofür sich dann die specs gemacht ??

warum gibt es Brandschutzregeln ? Warum gibt es Verkehrsregeln ?? ( naja ok is ein bissel weit hergeholt aber den eigentlich sinn trifft es denoch) Ich bin auch dafür, dass Specs eingehalten werden (wenn du mich kennen würdest...), aber da sich leider kaum jemand dran hält und schon Probleme auftreten, wenn die Karten mal so lang sind wie das Board würde ich es an der Stelle nicht übertreiben. Und zudem soll es ja auch sinnvoll sein, sich an Specs zu halten. Wo es kaum Sinn macht (wie z.B. bei Chieftectowern) und man ausserhalb der Spec mehr Mehrwert bringen kann sollte man es IMO nicht übertreiben.

Die Laufwerkskäfige in Chieftectowern sind ein schönes Beispiel dafür. Vielleicht 0,3 % aller User nutzen eine Karte voller Baulänge. Diese müssen dann den unteren 3,5"-Korb abnehmen. Der Rest kann ihn für aktiv gekühlte Festplatten nutzen. Wo wäre jetzt der Sinn, wegen 0,3 % aller User die anderen 99,7 % mit einem weniger variablen Gehäuse zu bestrafen? Die ganze Diskussion um die Specs ist an der Stelle wirklich an den Haaren herbeigezogen IMO.

Unregistered
2003-05-09, 16:13:52
@Endorphine

Nein, er ist es nicht.
aber denoch gibt es nen paar die mit aller macht diesn NV35 schlecht machen
nun ist die karte zulang?
oder der preis mit 550 bis 600 euros wird angegeben etc.
ich koennte wetten das der maximale preis bei ausreichenter lieferung
ca. bei 450-480 euros liegt (ultra version)
und der preis ist oki
wobei es ja auch noch eine 256 mb karte geben soll oder?
da kanns schon sein das locke 80-100 euro druff haun kannst
nen tipp von mir die nonultra 320 bis 340 euros :)
ma schaun obsch recht hab :)
das war glaub damals so der wert der gef 4 ti4400er karten wo sie neu auf dem markt gekommen sind.

[dzp]Viper
2003-05-09, 16:14:00
Originally posted by Endorphine
Die Laufwerkskäfige in Chieftectowern sind ein schönes Beispiel dafür. Vielleicht 0,3 % aller User nutzen eine Karte voller Baulänge. Diese müssen dann den unteren 3,5"-Korb abnehmen. Der Rest kann ihn für aktiv gekühlte Festplatten nutzen. Wo wäre jetzt der Sinn, wegen 0,3 % aller User die anderen 99,7 % mit einem weniger variablen Gehäuse zu bestrafen? Die ganze Diskussion um die Specs ist an der Stelle wirklich an den Haaren herbeigezogen IMO.

naja - das sehe ich ein wenig anders - die specs sind ja genau dafür da, das die hersteller sich daran halten, damit es eben nicht solche probleme gibt wie mit dem chieftecs oder das kondensatoren im weg sind ...

Warum sollten sich eine firma, die garnichts falsches gemacht hat umstellen, nur weil eine andere firma nicht bereit ist die specs einzuhalten ?

Endorphine
2003-05-09, 16:19:52
Originally posted by [dzp]Viper
naja - das sehe ich ein wenig anders - die specs sind ja genau dafür da, das die hersteller sich daran halten, damit es eben nicht solche probleme gibt wie mit dem chieftecs oder das kondensatoren im weg sind ...

Warum sollten sich die gehäusebauer umstellen, nur weil eine firma nicht bereit ist die specs einzuhalten ?Moooment! Ich habe es doch bereits mehrere Male gesagt - eine Karte kann in jedem Slot die gesamte Baulänge ausnutzen von der AT- bzw. ATX-Spezifikation her. Nicht nVidia verletzt Spezifikationen sondern die Gehäusehersteller und bei Mobo-Problemen die Motherboardhersteller. Die Gehäusehersteller müssten also spezifikationsgerechte Modelle herstellen, ebenso die Motherboardhersteller. Sowas passiert ja nur, weil die sich nicht an die Formfaktorspec halten. Das ist kein Fehler von nVidia. Aber wie ich ebenfalls bereits sagte, das ist in Ordnung, weil da rund 0,3 % (eher noch weit weniger) der User gegen 99,7 % der User stehen.

Warum nur beziehst du alles aus deiner Sicht negative auf nVidia?

Edit: schlau editiert...

[dzp]Viper
2003-05-09, 16:21:26
ich hab das oben umeditiert - weil ich auch gesehen habe, das es falsch war - nur warst du mit dem schreiben zu schnell ;D

P.S: 3000 post :jump1:


edit: werde jetzt nach hause gehen .. hier in der firma sind schon alle weg ...

also dann bis irgendwann :)

zeckensack
2003-05-09, 16:28:11
Originally posted by Endorphine
Du meinst diese hier?

Edit: Ich muss Payne aber mal in den Schutz nehmen, er flamt zur Zeit wirklich selten und in diesem Thread gar nicht. Warum postest du dann dieses Bild?

Endorphine
2003-05-09, 16:32:22
Originally posted by zeckensack
Warum postest du dann dieses Bild? Weil ich meine Interpretation der "Brillen" zeigen wollte :bäh:, das aber nicht als Seitenhieb auf Payne verstanden werden soll :)

Edit: ist Spam, lösch es von mir aus, dann aber auch dein Posting, dieses hier und das vom Unreg (Konsequenz und Gleichheit).

Gohan
2003-05-09, 16:38:43
Also für einen normalen Midi Tower ist selbst schon die FX5600 ultra zu lang. Meine Fetsplatte durfte ich brav wo anders hin verfrachten um die FX einzuabuen. Ohne Festplatte würde aber sogar die FX5900 in ihrem jetzigen aussehen rein passen :)

AlfredENeumann
2003-05-09, 16:40:25
Originally posted by Feinschmecker
Angeblich hat Nvidia schon 100000 Stück auf Lager sollen Juni/Juli in den Läden stehen. Fantastisch sag ich da nur!

100000 Chips vielleicht, da NV keine Karten produziert !

Richthofen
2003-05-09, 17:06:08
ja die Rede war von 100.000 Chips.
Sie produzieren seit Ende Januar fleissig NV35 Chips bei TSMC.
Ich gehe jede Wette ein, dass die NV30 Chipproduktion schon längst eingestellt ist.
Es wurde auch erwähnt, dass man First Sillicon für die Produktion nimmt. Respins und ähnliches waren nicht nötig. Das erste Sillicon lief bestens.
Auf die Frage wann es Karten gibt, sagte man shortly after Launch, expecting products to hit shelves in June.
Etwas später dürfte demnach nur die kleinere Variante kommen.
Das kennen wir ja noch von der GF4Ti4200.
Die beiden großen 5900er dürften recht bald kommen.

Riptor
2003-05-09, 17:12:28
GeForce 3 Ti-200 --> GeForce 4 Ti-4200 --> GeForce FX 5900 Value --> ...

DAS KÖNNTE IN DER TAT EIN ERFOLG WERDEN! :)

Bin zwar nicht voll und ganz von den Socken, aber endlich kommt mal wieder von nVidia Luft in den ganzen 3D-Karten Markt. Allerdings befürchte ich, dass es noch 3 Monate dauert, bis man überhaupt EINE GFFX 5900 im Laden sieht... Ob bis dahin die R9700/9800 Karten noch mehr im Preis gefallen sind? :) Uns kanns doch eigentlich nur recht sein!

LovesuckZ
2003-05-09, 17:42:17
Originally posted by Riptor
ob bis dahin die R9700/9800 Karten noch mehr im Preis gefallen sind? :) Uns kanns doch eigentlich nur recht sein!

Noch billigere 9700? Das geht doch gar net mehr :D

seahawk
2003-05-09, 18:27:52
Originally posted by Richthofen
ja die Rede war von 100.000 Chips.
Sie produzieren seit Ende Januar fleissig NV35 Chips bei TSMC.
Ich gehe jede Wette ein, dass die NV30 Chipproduktion schon längst eingestellt ist.
Es wurde auch erwähnt, dass man First Sillicon für die Produktion nimmt. Respins und ähnliches waren nicht nötig. Das erste Sillicon lief bestens.
Auf die Frage wann es Karten gibt, sagte man shortly after Launch, expecting products to hit shelves in June.
Etwas später dürfte demnach nur die kleinere Variante kommen.
Das kennen wir ja noch von der GF4Ti4200.
Die beiden großen 5900er dürften recht bald kommen.

Ob das vielleicht schon NV36 ist ??

Intressant wird es allerdings in folgender Hinsicht.

IBM sagt sie werden ab Sommer Chips für NV bauen. Der Nv35 läuft seit Februar bei TSMC.

Könnte NV den NV40 schon 2003 bringen ??

Richthofen
2003-05-09, 18:55:13
hab auch erst gedacht, dass der NV36 bereits der NV35 Value ist.
Dann bin ich aber bei NVnews auf ein Kommentar von Uttar gestossen im Forum:

Zitat:
"
We won't give you anything! Muhahahah!

More seriously though, I got practically no new info. And MuFu can't speak much because of perfectly reasonable reasons ( although there are a few exceptions to the rule, so you may see some things from him anyway - won't go into the details )

To summarize what I know...

NV36 to tape-out sometimes in May @ TSMC ( heck, maybe it already taped-out, don't know, probably not )
NV40 to tape-out in July @ IBM

Could have tried to get some more info, but I'm currently quite busy installing Linux ( Gentoo, to be more accurate ) so I haven't been online a lot.


Uttar
"

MuFu hat bereits vor paar Wochen davon gesprochen, dass der Plan momentan so aussieht:
NV40 Tape-Out im Sommer, Launch Comdex Fall im November, erste Karten noch Ende 2003 die breite Masse aber wohl eher weltweit gesehen Q1 2004.
Also planen tut man den Launch des NV40 in jedem Fall noch dieses Jahr. Es wird wohl davon abhängen, wie gut das Tape-Out verläuft im Sommer. Da es kein Refresh ist, wird es sicher länger dauern als beim NV35. Allerdings muss es nicht so lange dauern wie beim NV30. Bei letzterem gab es ja massive Produktionsprobleme dank TSMC. Ist eben die Frage wie gut IBM hier ist.
Wenn alles nach Plan verläuft, dann gibts den NV40 noch dieses Jahr.
Die scheinen das Tempo jetzt wieder anzuziehen. Momentan haben sie ja auch alle Ressourcen dafür frei. Wird also darauf ankommen, ob sie nochmal einen x-box Deal bekommen oder nicht.

seahawk
2003-05-09, 19:19:26
Ich denke Tape-out July ist sicher. IBM hat gesagt, dass sie ab Sommer für NV fertigen.

Ich halte sogar ein Tape-Out im Juni für möglich.

StefanV
2003-05-09, 20:03:38
Originally posted by Ailuros
Ausserdem erwarte ich von jemand der 400-500 oder mehr euro auf den Ladentisch legen kann, ergo ein high end System, dass er die Hartware nicht in einem micro-ATX unterbringt. Full Towers gibt es auch zu sehr logischen Preisen.

Sorry, Ailuros aber hier gibts ein Paradoxon!!!

In meinem ALDI µATX Gehäuse kann ich locker und Problemlos jede Grafikkarte einbauen, die es gibt, sei es nun irgendeine Workstation Karte in voller Baulänge oder aber eine Voodoo5 6000, die ebenfalls passen würde, wenn ich eine hätte.

Allerdings gibts gerade bei neueren ATX Gehäusen Probleme, bei älteren wie meinem Compucase Big Tower (ähnlich zum Aopen HQ08) gibts ebenfalls nicht wirklich probleme.

Bei meinem Suntek Grace hingegen schon, die CS601 sowie Nachbauten und Verwante (z.B. die neuen Compucase) hat man paradoxer weise Probleme beim Einbau von 'überlangen' Karten...

StefanV
2003-05-09, 20:09:37
Originally posted by Endorphine
Moooment! Ich habe es doch bereits mehrere Male gesagt - eine Karte kann in jedem Slot die gesamte Baulänge ausnutzen von der AT- bzw. ATX-Spezifikation her. Nicht nVidia verletzt Spezifikationen sondern die Gehäusehersteller und bei Mobo-Problemen die Motherboardhersteller. Die Gehäusehersteller müssten also spezifikationsgerechte Modelle herstellen, ebenso die Motherboardhersteller. Sowas passiert ja nur, weil die sich nicht an die Formfaktorspec halten. Das ist kein Fehler von nVidia. Aber wie ich ebenfalls bereits sagte, das ist in Ordnung, weil da rund 0,3 % (eher noch weit weniger) der User gegen 99,7 % der User stehen.

Warum nur beziehst du alles aus deiner Sicht negative auf nVidia?

Edit: schlau editiert...

Gibt nur einen Denkfehler bei dir:

Nahezu alle neueren Gehäuse sind ähnlich dem CS601 aufgebaut, somit hat man auch mit solch einer Langen Karte wie der FX5900 Probleme beim Einbau...

Es kommt auch noch hinzu, daß Matrox und ATI auch noch recht kompakte Karten hinbekommen (verglichen mit GF4 TI4400/4600), NV hingegen sehr lange Monsterkarte, die an die Ausmaße einer Voodoo5 heranreichen, bringt...

Jetzt ist halt die Frage, ob du mehrere (bzw fast alle) Gehäusehersteller dafür verantwortlich machen willst, daß bestimmte Grafikkarten nicht passen oder den Hersteller der Grafikkarte, dem es eigentlich bekannt sein sollte, daß nicht gerade wenig Gehäuse ähnlich dem CS601 aufgebaut sind...

Richthofen
2003-05-09, 20:18:39
Dem Grafikkartenhersteller kanns egal sein denn Specs und Normen sind dazu da sie einzuhalten.
Nur weil einige Gehäusebauer Geld spaaren und da nicht richtig nachdenken sollen die anderen jetzt ihre Produkte nach derren Maße fertigen?
Aber sonst gehts noch?

Ich stell mir grad vor die einen machen ihr Gehäuse so also Chiftech und die anderen Thermaltake machen sie so und ich darf mir als Firma Nvidia nun aussuchen wie ich meine Karte fertige damits bei dem einen oder anderen passt.
Lächerlicher gehts ja wohl nicht mehr.

Wenn die sich nicht an die Specs halten sind sie schuld und niemand sonst.
Das Grosse Boardlayout kann gute Gründe haben zb um ein hohes Maß an Qualität und STabilität zu gewährleisten. Nvidia hat hier mit 64% Marktanteil bei Desktops einiges zu verlieren ATI nicht. Bei letzteren ist bekannt, dass es hier und da Probleme gibt entweder mit AGP oder Signalinterferenzen und was weiss ich nicht alles.
Alles schon dagewesen.

Endorphine
2003-05-09, 20:23:06
Originally posted by Stefan Payne
Gibt nur einen Denkfehler bei dir:
[...]
Jetzt ist halt die Frage, ob du mehrere (bzw fast alle) Gehäusehersteller dafür verantwortlich machen willst, daß bestimmte Grafikkarten nicht passen oder den Hersteller der Grafikkarte, dem es eigentlich bekannt sein sollte, daß nicht gerade wenig Gehäuse ähnlich dem CS601 aufgebaut sind... Ich sehe da keinen Denkfehler. Die AT-/ATX-Spezifikation sieht vor, dass alle Karten volle Baulänge haben dürfen und dass das Gehäuse auf der anderen Seite dafür mechanisch stabilisierende Aufnahmen haben muss und dort auch keine Teile im Weg sein dürfen.

Und ausserdem: sooo lang sind die Karten von nVidia ja nun auch wieder nicht. Man kann die Laufwerkskäfige im CS-601/901 noch locker bei allen Spielegrafikkarten drin lassen (bis auf die V56k), man kann höchstens einen Plattenslot nicht nutzen. Das wird auch bei der FX 5900 nicht anders sein (so weit ich das abschätzen kann - we will see).

Aber wenn es mal hart auf hart kommen sollte und die high-end Grafikkarten irgendwann so ausladend bauen (müssen), dass sie die volle Baulänge ausnutzen haben die Gehäusehersteller ein Problem, da sie ihre Produkte der Spezifikation entsprechend gestalten müssen.

Derzeit passt es ja alles noch, auch wenn bereits Bereiche erreicht sind wo es etwas unbequem wird (auch thermisch), keine Frage. Wenn aber full-length Karten kommen stehen eindeutig die Gehäusehersteller in der Pflicht mit ihren nicht spezifikationsgerechten Produkten. Diese haben dann den schwarzen Peter, nicht die Kartenhersteller die nur das ausschöpfen, was ihnen zusteht. Der Fall ist doch ganz klar.

AlfredENeumann
2003-05-09, 20:35:24
Originally posted by Richthofen
Wenn alles nach Plan verläuft, dann gibts den NV40 noch dieses Jahr.
Die scheinen das Tempo jetzt wieder anzuziehen. Momentan haben sie ja auch alle Ressourcen dafür frei.


Hui. Da werden sich aber viele Käufer von High-End Karten freuen. So schnell ist ja so eine Karte noch nie verfallen wie dieses Jahr.

AlfredENeumann
2003-05-09, 20:35:56
Originally posted by LovesuckZ


Noch billigere 9700? Das geht doch gar net mehr :D


Klar geht das.

Unregistered
2003-05-09, 20:49:49
Nicht wenn sie keine Roten zahln schreiben wolln.

Richthofen
2003-05-09, 22:25:25
das sind die doch gewohnt :)

LovesuckZ
2003-05-09, 22:28:05
Originally posted by AlfredENeumann
Klar geht das.

Und wie? Billiger die 9700 anzubieten, bedeutet den Preis der 9600 und 9800 zu senken. Da bleit nicht mehr viel uebrig, wenn man Gewinn machen will...

Christo
2003-05-09, 22:47:33
Hm, also den Stromanschluß hab ich ja schonmal auf meiner Vooodoo 5 5500 gesehn aber die verbrauchte nicht 2 PCI Slots für so eine übertriebende Kühlerlösung...

AlfredENeumann
2003-05-09, 22:53:39
Originally posted by LovesuckZ


Und wie? Billiger die 9700 anzubieten, bedeutet den Preis der 9600 und 9800 zu senken. Da bleit nicht mehr viel uebrig, wenn man Gewinn machen will...

Was interessiert ATI die Retailpreise irgendwelcher Karten ?
ATI verkauft wie NV chips, die sowieso nicht viel kosten. Die AIB werden die Kartenpreise schon entsprechend anpassen.
Wenn 9800 non Pro auf dem MArkt ist werden die restlichen 9700Pro und non PRo entsprechend Preislich runtergehen.

Richthofen
2003-05-09, 22:55:01
"
Hui. Da werden sich aber viele Käufer von High-End Karten freuen. So schnell ist ja so eine Karte noch nie verfallen wie dieses Jahr.
"
Das betrifft doch wenn dann eh nur den NV30. Und davon sind die meissten im Workstationmarkt gelandet. Die paar die einen haben wird das kaum stören. Das Teil hat seltenheitswert. Der NV35 wird wieder seine üblichen 6 Monate haben.
Juni/Juli bedeutet Ende 2003 6 Monate rum. Breite Verfügbarkeit wird der NV40 sowieso nicht vor Januar haben. Insofern passt es doch gut ins Schema.
Mann kann ja nun nicht erwarten, dass Nvidia nur weil der NV30 extrem verspätet war, dass sie nun normal weiter verspäten bzw. ihren Zyklus verspäten.
Mir ist zwar klar, dass dies einige ATI Fanboys gern sehen würden, "but i'am sorry guys. it won't happen :)".

"
Was interessiert ATI die Retailpreise irgendwelcher Karten ?
ATI verkauft wie NV chips, die sowieso nicht viel kosten. Die AIB werden die Kartenpreise schon entsprechend anpassen.
Wenn 9800 non Pro auf dem MArkt ist werden die restlichen 9700Pro und non PRo entsprechend Preislich runtergehen.
"

Und genauso wie NV bewegen sich die Chippreise über die Lebenszeit abwärts und die ASPs sinken. Erhebliche Preissenkungen bei der 9700 und pro sind sicher nicht das was ATI gebrauchen kann. Das hat unweigerlich zur Folge, dass die ASPs bei den kleineren Modellen sinken. Preissenkungen erfordern viel Fingerspitzengefühl und reifliche Überlegung. Man kann sich damit auch mehr kaputt machen als man erreicht, denn einmal gesunkene Preise wieder anheben ist bei dem harten Kampf meisst kontraproduktiv.

mapel110
2003-05-09, 22:56:36
Originally posted by LovesuckZ


Und wie? Billiger die 9700 anzubieten, bedeutet den Preis der 9600 und 9800 zu senken. Da bleit nicht mehr viel uebrig, wenn man Gewinn machen will...

wer sagt denn, dass es gewinn sein muss ?! es können auch erstmal marktanteile rausspringen.

Richthofen
2003-05-09, 23:01:16
Mapel dazu hatten sie doch nun reiflich Zeit findest du nicht?
Es hat nicht geklappt. Bei den Marktanteile treten sie auf der Stelle.
Man muss schon sehr krank sein um auf die Idee zu kommen teure High End Ware nur um Marktanteile zu gewinnen im Mainstreampreisbereich zu verkaufen. Sowas ist nur sehr kurzlebig und man hat in aller Regel davon nichts. Es wird zu unrentabel und wenn du dann diese Taktik nicht mehr aufrecht erhalten kannst, schlägt das wie ein Boomerang zurück, weil die Leute von dir erwarten, dass du deine Linie beibehälst. Und dann rennen sie zum Marktführer schneller zurück als du sie dir mühsam geholt hast.

Das ist generell das Problem des Kleineren. Er muss grundsätzlich viel mehr Aufwand betreiben um Marktanteile sich zu ergattern, wie der Marktführer um diese zurückzubekommen.

LovesuckZ
2003-05-09, 23:10:19
Originally posted by AlfredENeumann
Was interessiert ATI die Retailpreise irgendwelcher Karten ?
[...]Wenn 9800 non Pro auf dem MArkt ist werden die restlichen 9700Pro und non PRo entsprechend Preislich runtergehen.

Die Partner von Nvidia und ATI wollen auch Gewinn erwirtschaften. Und wenn nun der harte Preiskampf eintritt, werden sie wohl nicht zum normalen Preis Chips bei ATI/Nvidia einkaufen, um dann weniger zu verdienen. Und umso hoeher die Preise der großen Produkte fallen, umso niedriger muessen die Preise der kleinen sein, da sonst ihre attraktivitaet floeten geht. Das heißt fuer ATI/Nvidia, geringere Chippreise und dadurch weniger Gewinn.

LovesuckZ
2003-05-09, 23:11:48
Originally posted by mapel110
wer sagt denn, dass es gewinn sein muss ?! es können auch erstmal marktanteile rausspringen.

Wer langzeitig keinen Gewinn einfahren kann, wird bald kein Geld fuer die Erforschung neuer Technologien haben und damit hat man schon verloren.

th3_h3r0
2003-05-09, 23:18:36
Vorallem kann es sich ein Marktführer leisten über längere Zeit
ein derartiges Price-Racing mitzumachen...AMD hat es das geamte
"Tafelsilber" gekostet. Bei ATi wäre es AFAIK kaum anders...
Da muss man schon realistisch sein - Was nicht heißt, dass nicht
die Distris´s am Ende die Karte fast zum eigenen EK an die Händler
weiterreichen...;) Lager will sich heute ja auch keiner leisten...

Ailuros
2003-05-10, 00:43:53
Originally posted by Stefan Payne


Sorry, Ailuros aber hier gibts ein Paradoxon!!!

In meinem ALDI µATX Gehäuse kann ich locker und Problemlos jede Grafikkarte einbauen, die es gibt, sei es nun irgendeine Workstation Karte in voller Baulänge oder aber eine Voodoo5 6000, die ebenfalls passen würde, wenn ich eine hätte.

Allerdings gibts gerade bei neueren ATX Gehäusen Probleme, bei älteren wie meinem Compucase Big Tower (ähnlich zum Aopen HQ08) gibts ebenfalls nicht wirklich probleme.

Bei meinem Suntek Grace hingegen schon, die CS601 sowie Nachbauten und Verwante (z.B. die neuen Compucase) hat man paradoxer weise Probleme beim Einbau von 'überlangen' Karten...

Wo siehst Du ein Paradoxon? Ich versuche es mal anders:

wenn ich mir eine 400-500 euro (oder teurere) Karte leisten kann und sie sollte nicht in mein Gehaeuse passen, dann wuerde ich nicht davon abscheuen ein neues Gehaeuse zu kaufen. Ich hab mir erst das letzte Jahr ein neues Gehaeuse zugelegt, weil das damalige motherboard nicht reinpasste (um genau zu sein passte es aber es war zu knapp fuer meinen Geschmack). Dabei hat der generic Full tower (72cm hoch) ohne PSU knappe 40€ gekostet.

***edit:

uebrigens ist die zeitige Leadtek A250TD nur um sehr wenig kuerzer als eine V5; selbst wenn sie doppelt so lang waere wuerde sie noch reinpassen. Aussnahme waere wenn ich jetzt den mitgelieferten extra-bay reinschrauben wuerde und 4 oder 5 HDD´s einbauen. Derzeitig ist Platz vom Ende der Karte bis zum front panel vollkommen frei.

Crushinator
2003-05-10, 02:32:40
Originally posted by Richthofen
...
Das ist generell das Problem des Kleineren. Er muss grundsätzlich viel mehr Aufwand betreiben um Marktanteile sich zu ergattern, wie der Marktführer um diese zurückzubekommen. ACK, und noch dazu erwähnend, daß zum "Aufwand betreiben" auch eine - möglichst an Schlüsselstellen - konkurriernde Produktpalette genau so gehört wie "liefern können". ;)

Endorphine
2003-05-10, 10:16:50
Viel interessanter als die Kartenlänge ist doch, ob nVidia endlich was am AA gedreht hat, da dort Entwicklungen bitter nötig wären. Mehr RGMSAA Modi und auch ne gammakorrigiertes AA wären doch wünschenswert IMO.

StefanV
2003-05-10, 10:36:06
Originally posted by LovesuckZ
Die Partner von Nvidia und ATI wollen auch Gewinn erwirtschaften. Und wenn nun der harte Preiskampf eintritt, werden sie wohl nicht zum normalen Preis Chips bei ATI/Nvidia einkaufen, um dann weniger zu verdienen. Und umso hoeher die Preise der großen Produkte fallen, umso niedriger muessen die Preise der kleinen sein, da sonst ihre attraktivitaet floeten geht. Das heißt fuer ATI/Nvidia, geringere Chippreise und dadurch weniger Gewinn.

Die 9600 ist ha wohl nicht das Problem, das PCB dieser Karte sieht sau billig aus, so ein billiges PCB hab ich seit der 7500 nicht mehr gesehen...

Bleiben noch Preise für Chip, RAM und Kühlung.

RAM ist ebenfalls nicht wirklich ein Problem, 5ns langt locker.
Die Kühlung ist ebenfalls kein Problem:

Den ganzen Müll, den die Hersteller noch von den Geforce 2 MX Karten haben, kann man dadraufsetzen.
Natürlich kann der Hersteller auch die KÜhler der 9000er und 8500/9100 Serie verbauen...

Bei der 9600 PRO schauts etwas anders aus, da muß man schon etwas besseren Speicher verwenden (ab 3,3ns), bei der 9700 reicht hingegen recht üblicher 3,6ns Speicher, dabei stehts aber einem Hersteller freu das PCB zu ändern, so daß er auch TSOP RAMs einsetzen kann oder eben 4ns Chips verbaut...

Also irgendwie sehe ich kein Problem darin, daß die ATIs noch günstiger werden, bei den NV Karten hingegen sehe ich einige Probleme, da schon die 5600 ULTRA sich nicht mehr durch den AGP versorgen kann...

[fu]121Ah
2003-05-10, 11:47:54
@richthofen

ist lange her...

du änderst also deine meinung auch noch mit der zeit? :) wie war das damals mit der länge der v5? "och die scheisskarte ist zu lang" :))

Richthofen
2003-05-10, 12:08:37
weil die Karte einfach Blödsinn war und 3dfx dran erstickt ist wie es sich gehört. Sie haben das zeitliche gesegnte und damit in allen Bereichen falsch gelegen.
Wer nicht überlebt hat grundsätzlich nichts richtig gemacht.

Das NDA scheint übrigens am Montag zu fallen. Borsti erwähnte in seinem Rivastation Forum, dass es am Montag bei THG nen Test gibt zum NV35.
Da werden am Montag wohl auch die anderen Seiten damit rauskommen.

Endorphine
2003-05-10, 12:13:57
Dieses Kartenlängeargument ist doch wirklich an den Haaren herbeigezogen. Gibt's denn keine anderen in der Praxis wichtigen Merkmale mehr, in denen sich die Karten unterscheiden?

Mich würde es viel mehr interessieren, ob nVidia was am AA gefeilt hat und ob der NV35 endlich eine echte 8x1 Architektur hat. Wenn beides auf der Höhe der Zeit ist spricht IMO zusammen mit 256-Bit Speicheranbindung vieles für den NV35 und kaum etwas dagegen.

LovesuckZ
2003-05-10, 12:17:16
Originally posted by Endorphine
Mich würde es viel mehr interessieren, [...]ob der NV35 endlich eine echte 8x1 Architektur hat.

Nein, es ist immer noch ein Hybrid aus 4x2 und 8x1. Nur jetzt soll 8x1 deutlich oefters vorkommen.

MadManniMan
2003-05-10, 12:17:37
Originally posted by Endorphine
Dieses Kartenlängeargument ist doch wirklich an den Haaren herbeigezogen. Gibt's denn keine anderen in der Praxis wichtigen Merkmale mehr, in denen sich die Karten unterscheiden?



in drei von vier gehäusen meiner engsten freunde (mich eingeschlossen) wäre eine karte dieser länge der reinste luftstromkiller. mit einem 80er unten vorne und einem oben hinten ist die gehäuselüftung bei üblichen kartengrößen bei uns dreien superb.

MadManniMan
2003-05-10, 12:18:27
Originally posted by Richthofen
Wer vieles auf kleine Fläche packt muss sehr aufpassen dass er hier und da nicht in Probleme kommt und das ist ATI des öfteren schon passiert.

hassu mal link?

Endorphine
2003-05-10, 12:19:07
Originally posted by LovesuckZ
Nein, es ist immer noch ein Hybrid aus 4x2 und 8x1. Nur jetzt soll 8x1 deutlich oefters vorkommen. Woher hast du die Info? Ich hätte das gern etwas technischer erklärt, was sich da im Vergleich zum NV30 geändert hat.

Wenn's aber immer noch nur physikalisch 4x2 sind ist der NV35 schon gestorben für mich. Dann bleibt der R300 trotz der Treiberschwächen noch ne ganze Weile in meinem Rechner.

Endorphine
2003-05-10, 12:20:11
Originally posted by MadManniMan
in drei von vier gehäusen meiner engsten freunde (mich eingeschlossen) wäre eine karte dieser länge der reinste luftstromkiller. mit einem 80er unten vorne und einem oben hinten ist die gehäuselüftung bei üblichen kartengrößen bei uns dreien superb. Ich hab da mitm CS-601 schon bei der 9700 Probleme. Wenns danach geht können die Karten kaum kurz genug sein.

LovesuckZ
2003-05-10, 12:25:19
Originally posted by Endorphine
Woher hast du die Info? Ich hätte das gern etwas technischer erklärt, was sich da im Vergleich zum NV30 geändert hat.


Es wird nirgends dadrueber berichtet, dass der NV35 einen "echten" 8x1 Aufbau haette. Das gibt einen schon zu denken.
Ausserdem hat der NV31 auch nur eine 2x2 Architektur, haette der NV31 wie gesagt eine 8x1, haette Nvidia dies bestimmt beim NV31 übernommen.

Das wird Nagus freuen:
NVIDIA affirme que cette version est de 25 à 80 % plus performante que le RADEON 9800 Pro suivant les applications, dans la résolution 1600x1200 avec un FSAA 4X et un filtrage anisotropique 8X.

http://www.3dchips-fr.com/News/comments.php?item=2003-05-08-4

Endorphine
2003-05-10, 12:30:55
Man könnte zeckensack ja mal fragen ob er was dagegen hat, wenn Borsti mal den NV35 mit der Archmark-Alpha malträtiert :naughty:

DAS wäre doch mal interessant. Dann noch ein paar AF-Tester Blumen in allen Modi (D3D und OGL), ein paar AA-Testbilder und das restliche Artikelgelaber und die Benchmarks können wir uns alle schenken.

Wenn der NV35 auch nur ne 4x2 Architektur ist kann nVidia gleich wieder einpacken IMHO. Da verpufft die zusätzliche Speicherbandbreite ja förmlich. 8x2 wäre eher angemessen, ist aber wohl derzeit kaum realisierbar (man wär das geil)...

Birdman
2003-05-10, 12:31:49
Originally posted by LovesuckZ
Das wird Nagus freuen:
NVIDIA affirme que cette version est de 25 à 80 % plus performante que le RADEON 9800 Pro suivant les applications, dans la résolution 1600x1200 avec un FSAA 4X et un filtrage anisotropique 8X.
[/url]
na ja, solange dies mit dem 4x RGMSAA und 8x Performance AF gemessen wurde, sind diese 25-80% ein Witz, bzw ist dann wohl eine R50 mit gleichen qualitysettings (2x FSAA und 4xAF quality) sicher wieder schneller ;)

StefanV
2003-05-10, 12:34:40
Originally posted by Richthofen
Wer vieles auf kleine Fläche packt muss sehr aufpassen dass er hier und da nicht in Probleme kommt und das ist ATI des öfteren schon passiert.

Ah, interessant, daß du auf einmal vom Wirtschaftlichem Aspekt zum Technischen wandelst...

Wirtschaftlich gesehen ist ein kleineres PCB besser als ein größeres, aber das dürftest du eigentlich wissen...

Richthofen
2003-05-10, 12:50:42
nicht wenn man durch die Größe qualitativ minderwertigere Bauteile verbauen kann.
Etwas kompakt machen ist in aller Regel teurer.
Will sagen ein NV35 auf einem kleineren PCB ist teurer als auf einem größeren.
Aus diesem Grund sind PDAs teuer, Notebooks teurer als PCs.

Durch die größere Platine erhöhen sie die Stabilität und die ist ganz klar besser als bei ATI sonst hätten sie nicht solche riesigen Marktanteile und OEM Deals und dort haben sie etwas zu verlieren und zum anderen können sie Geld bei den Komponenten spaaren und die Margen beim Produkt verbessern im Vergleich zu einer kompakteren Variante. Solange das im Rahmen der Normen bleibt ist das für mich ok.

YfOrU
2003-05-10, 14:58:20
lol kleinere platine = kürzere signalwege
das ermöglicht unter anderem dann höhere
taktraten und eine geringere anfälligkeit
durch externe störquellen. Dazu ist ein
kleineres Layout in der massenproduktion
wesentlich günstiger auch wenn die entwicklung
minimal mehr kostet genauso wie die bauteile

edit:
wenn genausoviele notebooks gekauft werden würden wie
Pc s wären die sogar billiger. Den es entfallen bei NB s
die meisten kompatibilitätstests, dazu alles ist auf einem
relativ kleinem PCB.
Ein pc mit externem TFT kann da nicht mithalten, weil auch
noch wesentlich mehr elektronik benötigt wird. wie zb
für netzteile etc

Tria
2003-05-10, 15:18:19
Originally posted by Endorphine
Ich halte es mal mit deinem Avatar: nVidia hat bereits gelernt und setzt nun endlich Radiallüfter ein, wo ATi immer noch mit den für die Anwendung der Grafikkartenkühlung unterlegenen Axiallüftern rumkrebst. Ein Radiallüfter ist auf Grund der 90°-Umlenkung des Luftstroms und des höheren Drucks für diesen Anwendungsfall optimal geeignet.

Und auch bei ATI-Grafikkarten sollte man so oder so den Slot neben der Grafikkarte tunlichst freilassen um den Kühler nicht mit Kontakten der nächsten karte kollidieren zu lassen und dort evtl. Kurzschlüsse zu verursachen. Die Lösung von nVidia hier stellt praktisch vom Konzept her das Optimum dar. Wenn die Drehzahlregelung via Software sinnvoll genutzt wird und ein hochqualitativer Lüfter eingesetzt wird ist dieses Konzept dem von ATI deutlich überlegen.

Der Radiallüfter hat zudem auch Platz für ordentliche Lagerung und einen langlebigen Motor und sitzt (noch ein Vorteil) endlich nicht mehr auf dem hot spot. Längere Lebensdauer, überlegene Kühlleistung und Platz zum atmen per Standard. An der Lösung gibt es nichts, aber auch gar nichts zu kritisieren. Die Lautstärke hängt von der gewählten Lüfterdrehzahl und der Qualität des Lüfters ab. Nur FanATIker meckern da rum.

Vom Prinzip hast du schon recht, Radiallüfter haben bezogen auf den Bauraum eine bessere Leistung. Das liegt vor allem daran, dass der Eintrittradius kleiner ist als der Austrittsradius. Wie der Name aber bereits andeutet, strömt die Luft beim Radiallüfter radial (d.h. nach außen) weg.
Ein Blick auf die Lüfterkonstruktion zeigt aber direkt, daß 2/3 der Austrittsfläche auf eine Wand zeigen, und nur 1/3 eine offene Austrittsfläche darstellen. Mit anderen Worten, hier wird die hohe Leistung einer Radialkonstruktion gegen die Wand geblasen. Wäre es eine heiße Wand, die gekühlt werden muss, dann ist das sinnig. Aber hier würde ich diesen Bereich als eher kühl einschätzen.
Insofern komme ich zu dem Urteil, dass die Idee, eine Radial Luftführung zu benutzen zwar sinnvoll ist, aber die Umsetzung von nVidia mehr als schlecht ist. Vielleicht sollten sie einfach mal einen Ingenieur einstellen, der sich mit Wärmetechnik und Strömungslehre auskennt?

StefanV
2003-05-10, 15:54:36
@Endo

Falls es dir nicht aufgefallen ist, aber im GraKa Bereich wird schon seit jahr und Tag auf Radiallüfter zurückgegriffen, von ein paar TNT(2) Ausnahmen, der G400 MAX und der V5 abgesehen...

Bei meiner Geforce 3 TI200 kann die Luft auch nur zu den Seiten weg, genau wie bei meiner Radeon 9700 und der GF2 PRO...

Tria
2003-05-10, 16:07:42
Originally posted by Stefan Payne
@Endo

Falls es dir nicht aufgefallen ist, aber im GraKa Bereich wird schon seit jahr und Tag auf Radiallüfter zurückgegriffen, von ein paar TNT(2) Ausnahmen, der G400 MAX und der V5 abgesehen...

Bei meiner Geforce 3 TI200 kann die Luft auch nur zu den Seiten weg, genau wie bei meiner Radeon 9700 und der GF2 PRO...
Nur weil die Luft im Kühlkörper umgelenkt wird und zur Seite wegströmt, ist der Lüfter noch lange nicht ein Radiallüfter.
Betrachtest du den Lüfter alleine, dann liegt bei den meisten Grafikkarten ein Axiallüfter vor. Nimm' mal einen alten Lüfter von deiner Grafikkarte, und blase Zigarettenrauch in den sich drehenden Lüfter, und schau dann mal, in welche Richtung sich dieser primär bewegt...

Endorphine
2003-05-10, 17:11:05
Autsch Payne, das tat weh.

Endorphine
2003-05-10, 17:46:58
Originally posted by Tria
Vom Prinzip hast du schon recht, Radiallüfter haben bezogen auf den Bauraum eine bessere Leistung. Das liegt vor allem daran, dass der Eintrittradius kleiner ist als der Austrittsradius. Wie der Name aber bereits andeutet, strömt die Luft beim Radiallüfter radial (d.h. nach außen) weg.
Ein Blick auf die Lüfterkonstruktion zeigt aber direkt, daß 2/3 der Austrittsfläche auf eine Wand zeigen, und nur 1/3 eine offene Austrittsfläche darstellen. Mit anderen Worten, hier wird die hohe Leistung einer Radialkonstruktion gegen die Wand geblasen. Wäre es eine heiße Wand, die gekühlt werden muss, dann ist das sinnig. Aber hier würde ich diesen Bereich als eher kühl einschätzen.
Insofern komme ich zu dem Urteil, dass die Idee, eine Radial Luftführung zu benutzen zwar sinnvoll ist, aber die Umsetzung von nVidia mehr als schlecht ist. Vielleicht sollten sie einfach mal einen Ingenieur einstellen, der sich mit Wärmetechnik und Strömungslehre auskennt? Wenn du Lust hast mach doch mal ne Skizze, wie du es machen würdest. Ich finde das generelle Prinzip auf dem NV35 optimal. Ich würde höchstens noch das Luftleitblech komplett über beide Kühlkörper (!) herüberziehen und die RAM-Kühler noch besser auf den Luftstrom hin optimieren (Rippen zum Luftstrom hin drehen wie bei der Quadro FX2000):

Demirug
2003-05-10, 17:56:07
Bei der Quadro ist das aufgrund der DDR-II Chips wohl so auch notwendig.

Tria
2003-05-10, 18:41:46
Originally posted by Endorphine
Wenn du Lust hast mach doch mal ne Skizze, wie du es machen würdest. Ich finde das generelle Prinzip auf dem NV35 optimal. Ich würde höchstens noch das Luftleitblech komplett über beide Kühlkörper (!) herüberziehen und die RAM-Kühler noch besser auf den Luftstrom hin optimieren (Rippen zum Luftstrom hin drehen wie bei der Quadro FX2000):

Also, ich würde den Lüfter mehr nach rechts verschieben, und so einen Teilstrom direkt über das RAM strömen lassen. Somit kann ich die Luft nach links,rechts,oben ausströmen lassen, lediglich unten würde von einer Wand begrenzt.
Zweitens würde ich die RAM Kühler nicht wie Strömungswiderstände anordnen (zumindest die beiden oben und rechts oben). Zwar erreiche ich durch Turbulenz einen höreren Wärmeübergangs, allerdings wäre es doch wünschenswert, diese dort zu erzeugen, wo die meisten Abwärme entsteht, also über dem Chip selbst.
Auch verstehe ich die Schaufelgeometrie des Lüfters selbst nicht so ganz. Vielleicht müßte ich dazu das original sehen, aber erstrebenswert ist immer eine möglichst gleichmäßige Umlenkung. So wie der Eintritt auf den Bildern aussieht, scheint das dort aber nicht der Fall zu sein (schade, daß der Boden zu dunkel ist, um die Kontur des Diffusors zu sehen). Von dem. was ich auf den Bildern erkenne, geschieht die Umlenkung relativ scharfkantig.

P.S. Vielleicht sollte man mal über Metallschäume nachdenken. Diese haben z.T. sehr interessante Eigenschaften - das Verhältnis Volumen zu Oberflächen beispielsweise. Ist zwar im Moment noch eher unüblich, aber für gewisse Anwendungen gibt es schon in der Praxis ausgeführte Modelle.

Endorphine
2003-05-10, 19:04:05
Originally posted by Tria
Also, ich würde den Lüfter mehr nach rechts verschieben, und so einen Teilstrom direkt über das RAM strömen lassen. Somit kann ich die Luft nach links,rechts,oben ausströmen lassen, lediglich unten würde von einer Wand begrenzt.Dann wäre der grosse Vorteil dahin, dass der Lüfter nicht mehr direkt über dem Hot Spot der GPU sitzt. Das bringt gleich mehrere Nachteile mit sich:
• der Lüfter muss wieder wie derzeit extrem flach bauen - winziger kaum haltbarer Motor und ebenso kleines kaum haltbares Lager, viel zu flache Rotorschaufeln.
• der Lüfter sitzt wieder direkt auf dem Hot Spot der GPU - die Wärme muss sich erstmal unter dem Lüfter hindurch zu den Kühlrippen quälen, und der Lüfter sitzt direkt mit seinem Motor und Lager auf der heissesten Stelle (wieder - super Lebensdauer). Bei Upside-down Montage bei Axiallüftern (siehe Anhang, Motor/Lager sitzen da sogar im Kaltluftstrom) entfällt zumindest dieses Problem. Bei Radiallüften ist das ja unmöglich, wüsste nicht wie das gehen sollte.
• Der Platz für den Kühler auf dem Board ist begrenzt. Man müsste den Verlust an Kühlfläche an der wichtigsten Stelle direkt auf der GPU durch ausladende Kühlrippen anderswo ausgleichen und womöglich gleichzeitg noch über dem Kern teures Kupfer verwenden, damit die Wärme schnell genug vom Lüftertotpunkt wegkommt.

Unter den Gesichtspunkten finde ich die derzeitige Lösung doch etwas schlauer. Und vor allem effektiver hinsichtlich Kühlung und Kosten. Man verschenkt vielleicht etwas Effizienz des Lüfters, dafür ist die Restkonstruktion deutlich effektiver aus meiner Sicht.
Originally posted by Tria
P.S. Vielleicht sollte man mal über Metallschäume nachdenken. Diese haben z.T. sehr interessante Eigenschaften - das Verhältnis Volumen zu Oberflächen beispielsweise. Ist zwar im Moment noch eher unüblich, aber für gewisse Anwendungen gibt es schon in der Praxis ausgeführte Modelle. Und was ist mit den mittel- und längerfristigen Kühleigenschaften? Zu gross sollte die Oberfläche auf kleinstem Raum IMHO auch nicht sein, sonst setzt sich das nur wieder ruck-zuck mit Staub zu und dann reduziert sich die gewonnene Oberfläche wieder stark...

Tria
2003-05-10, 20:57:13
Originally posted by Endorphine
Dann wäre der grosse Vorteil dahin, dass der Lüfter nicht mehr direkt über dem Hot Spot der GPU sitzt. Das bringt gleich mehrere Nachteile mit sich:

Nein, die GPU ist gar nicht so breit. Es läßt sich eine Stelle zwischen GPU und RAM finden, sodaß man folgende Anordung erreicht:

GPU <-> Lüfter <-> RAM

Es gibt keinen Grund, warum man den Lüfter auf dem ersten Drittel der Grafikkarte plazieren muß.
Andererseits muß ich dir Recht geben, den Lüfter, bzw. dessen Motor über der GPU zu plazieren ist natürlich nicht sehr effektiv.

? der Lüfter muss wieder wie derzeit extrem flach bauen - winziger kaum haltbarer Motor und ebenso kleines kaum haltbares Lager, viel zu flache Rotorschaufeln.

Yepp, stimme dir zu. Nebenbei würden flache Rotorschaufeln auch einen kurzen Umlenkweg bedeuten => hoher Anstellwinkel => schlechte Anströmung ...

? der Lüfter sitzt wieder direkt auf dem Hot Spot der GPU - die Wärme muss sich erstmal unter dem Lüfter hindurch zu den Kühlrippen quälen, und der Lüfter sitzt direkt mit seinem Motor und Lager auf der heissesten Stelle (wieder - super Lebensdauer). Bei Upside-down Montage bei Axiallüftern (siehe Anhang, Motor/Lager sitzen da sogar im Kaltluftstrom) entfällt zumindest dieses Problem. Bei Radiallüften ist das ja unmöglich, wüsste nicht wie das gehen sollte.

Mir ist nicht ganz klar, was du in bezug auf die Montage meinst(Upside-Down???). Ich sehe in den Betriebstemperaturen für die Lager kein Problem. Die Schmierung für die Lager sollte eben nur auf typische Betriebstemperatur ausgelegt werden, nicht auf Umgebungstemperatur. Das stellt technisch kein Problem dar. Hier sind m.E. die Board Hersteller schuld, weil sie dem Kunden keine hochwertigen Lager verkaufen.

? Der Platz für den Kühler auf dem Board ist begrenzt. Man müsste den Verlust an Kühlfläche an der wichtigsten Stelle direkt auf der GPU durch ausladende Kühlrippen anderswo ausgleichen und womöglich gleichzeitg noch über dem Kern teures Kupfer verwenden, damit die Wärme schnell genug vom Lüftertotpunkt wegkommt.

Für den Wärmetransport im Material ist erstmal nur die Wärmeleitfähigkeit (L= Lambda), die Fläche (A) und die Temperaturdifferenz zwischen warmen und kalten Ende (dT) verantwortlich.

Q = L * A *dT

L ist abhänig vom Material. Demnach bleiben bei Vorgabe des Materials (Alu) nur zwei Parameter, an denen man drehen kann. Die optimale Form für Rippen ist schon seit Ewigkeiten bekannt. Ich halte es daher für problematischer, wenn die Temperaturdifferenz zwischen GPU und Kühlerende nicht gegeben ist. Denn das ganze Kühlsystem muß stimmem. Man braucht einen guten Wärmeübergang von GPU in Kühler und vom Kühler zur Luft. Das geht aber nur, wenn innerhalb des Kühlkörpers selbst eine ausreichend hohe Temperaturdifferenz vorliegt. Ansonsten ist der Kühlkörper nichts anderes als ein Wärmespeicher.

Unter den Gesichtspunkten finde ich die derzeitige Lösung doch etwas schlauer. Und vor allem effektiver hinsichtlich Kühlung und Kosten. Man verschenkt vielleicht etwas Effizienz des Lüfters, dafür ist die Restkonstruktion deutlich effektiver aus meiner Sicht.

Eine quantitative Aussage über die Effizienz ist schwierig, ohne die Temperaturverläufe innerhalb des Kühlers zu kennen. Ich behaupte aber, daß viele Kühllösungen bei Computern mehr Optik als wirklicher Nutzen sind. Das ist eine einfach Form von Marketing.

Und was ist mit den mittel- und längerfristigen Kühleigenschaften? Zu gross sollte die Oberfläche auf kleinstem Raum IMHO auch nicht sein, sonst setzt sich das nur wieder ruck-zuck mit Staub zu und dann reduziert sich die gewonnene Oberfläche wieder stark...
Die ist problematisch, dass hast du schon richtig erkannt. Allerdings ist das Problem nicht das Zusetzen (dafür sind die "Poren" zu groß), sondern der zusätzliche Wärmeübergangswiderstand durch die Staubschicht. Richtig gut sind die Lösungen mit Metallschaum zur Zeit vor allem in Kombination mit Wasserkühlung.

MadManniMan
2003-05-11, 01:24:30
Originally posted by Endorphine
Ich hab da mitm CS-601 schon bei der 9700 Probleme. Wenns danach geht können die Karten kaum kurz genug sein.

im allgemeinen find ichs hirnrissig danach zu fragen, wer schuld daran ist, daß diese oder jene grafikkarte mit einem gewissen recht weit verbreitetem gehäuse nciht wirklich kompatibel ist, denn das ändert nix daran, daß dann die karte von NV nicht reinpaßt. hier hätten sie imho mehr nach dem markt bauen sollen - einfach, um sich mehr potentielle kunden zu sichern!

...wobei ich aber sagen muß, daß ne große graka rein von der optik natürlich geiler ist - aber darum gehts ja zum glück nicht!

MadManniMan
2003-05-11, 01:25:08
Originally posted by Richthofen


du schuldest mir noch n paar links! :idea:

MadManniMan
2003-05-11, 01:27:01
Originally posted by LovesuckZ

Das wird Nagus freuen:
NVIDIA affirme que cette version est de 25 à 80 % plus performante que le RADEON 9800 Pro suivant les applications, dans la résolution 1600x1200 avec un FSAA 4X et un filtrage anisotropique 8X.


kann mir das mal bitte wer übersetzen? mein französisch ist eher mau - ich würde im moment dabei rauslesen, das 25 von 80 r350 ne performane von 4fach aa und 8x af in 1600 haben... :bonk:

Salvee
2003-05-11, 01:37:22
Originally posted by MadManniMan
kann mir das mal bitte wer übersetzen? mein französisch ist eher mau - ich würde im moment dabei rauslesen, das 25 von 80 r350 ne performane von 4fach aa und 8x af in 1600 haben... :bonk:

Fast ;)
'nVidia bestätigt, dass diese Version (vom NV35 imo) zwischen 25 und 80% mehr Leistung bringt als eine 9800Pro, und zwar in 1600x1200er Auflösung bei 4xAA und 8xAF.
Da wird noch bezug genommen auf bestimmte Applikationen/Spiele, wobei die aus Lovesuckz Quote nicht ersichtlich werden.

Unregistered
2003-05-11, 01:42:28
Originally posted by Salvee


Fast ;)
'nVidia bestätigt, dass diese Version (vom NV35 imo) zwischen 25 und 80% mehr Leistung bringt als eine 9800Pro, und zwar in 1600x1200er Auflösung bei 4xAA und 8xAF. (...)

...was natürlich durch die R9800 mit 256MB Ram, grade in diesen Auflösungen, wieder negiert werden könnte.

MadManniMan
2003-05-11, 01:47:38
Originally posted by Salvee


Fast ;)
'nVidia bestätigt, dass diese Version (vom NV35 imo) zwischen 25 und 80% mehr Leistung bringt als eine 9800Pro, und zwar in 1600x1200er Auflösung bei 4xAA und 8xAF.
Da wird noch bezug genommen auf bestimmte Applikationen/Spiele, wobei die aus Lovesuckz Quote nicht ersichtlich werden.


alles klar ;) marketing-geblubber also

thx for oversätzing! :bier:

RyoHazuki
2003-05-11, 02:17:35
Originally posted by MadManniMan



alles klar ;) marketing-geblubber also

thx for oversätzing! :bier:

*zustimm*

Ausser das wird vom DetoFX realisiert !

Ailuros
2003-05-11, 02:45:35
Also ich stimme Endorphine schon zu; mein Interesse ist auch mehr in Richtung AA/AF Algorithmen.

Ein paar Kleinigkeiten zu NV3x fuer die, die den Thread bei B3D verpasst haben:

Do you support high precision INT and FP render targets? (Say INT12 or FP32 eg.)

The GeForce FX family of GPUs supports a variety of high precision render targets, including 32bpp (8 bits each for R,G,B and Alpha), 16bpp, special "HILO" textures that include two 16-bit INT values in a 32-bit space, and floating point textures with 64bpp (fp16 each for R,G,B and Alpha) or 128bpp (fp32 each for R,G,B and Alpha).

Do you support multiple render targets?

The GeForce FX hardware supports multiple element Textures
(MET) instead of multiple render targets. Currently, MET is not exposed in
the driver.

Do you support floating point textures?

Absolutely, the GeForce FX family supports floating point
textures with 64bpp (fp16 each for R,G,B and Alpha) or 128bpp (fp32 each for R,G,B and Alpha). [/i}

Do you support floating point cube maps?

[i]The GeForce FX hardware supports floating point cube maps, but the capability is not currently exposed in the driver.

Do you support floating point volumetric textures?

The GeForce FX hardware supports floating point volumetric
textures, but the capability is not currently exposed in the driver.

Do you support multiple element textures?

The GeForce FX hardware supports multiple element textures, but the capability is not currently exposed in the driver.

http://www.beyond3d.com/forum/viewtopic.php?t=5737


Do you support 4 sample rotated grid antialiasing?

The GeForce FX hardware supports 4 sample rotated grid antialiasing, but the capability is not currently exposed in the driver

hehehehe :chainsaw:

Richthofen
2003-05-11, 02:52:34
aha. Das klingt mir dann wirklich so, als wäre beim NV30 in Hardware was faul gewesen und musste deaktiviert sein?
Das kann doch sein.

Ich habe generell das Gefühl, dass die 5 Mio extra beim NV35 nur die halbe Wahrheit sind. Ich habe vielmehr das Gefühl, das beim NV30 so einiges nicht funktioniert und sie erhebliche Klimmzüge im Treiber gemacht haben um Workarounds einzubauen. Denkbar wäre es doch.
Oder aber sie lügen PR mäßig und sie kann kein 4x RG.
Aber eigentlich sollte der NV30 qualitativ schon besseres AA können, als das was bisher im Treiber aktiviert ist.
Irgendwas ist da faul.
Naja am Monatag wissen wir vielleicht ein bisschen mehr. Kommt auch drauf an, ob es neue Treiber gibt.

mapel110
2003-05-11, 02:55:37
Originally posted by Ailuros

Do you support 4 sample rotated grid antialiasing?

The GeForce FX hardware supports 4 sample rotated grid antialiasing, but the capability is not currently exposed in the driver

hehehehe :chainsaw2

ist das generell nur eine treibergeschichte ? diese rotated or not ?

p.s. hab mal den smilie korrigiert :D

Salvee
2003-05-11, 02:56:06
Originally posted by Richthofen
aha. Das klingt mir dann wirklich so, als wäre beim NV30 in Hardware was faul gewesen und musste deaktiviert sein?
Das kann doch sein.

Ich habe generell das Gefühl, dass die 5 Mio extra beim NV35 nur die halbe Wahrheit sind. Ich habe vielmehr das Gefühl, das beim NV30 so einiges nicht funktioniert und sie erhebliche Klimmzüge im Treiber gemacht haben um Workarounds einzubauen. Denkbar wäre es doch.
Oder aber sie lügen PR mäßig und sie kann kein 4x RG.
Aber eigentlich sollte der NV30 qualitativ schon besseres AA können, als das was bisher im Treiber aktiviert ist.
Irgendwas ist da faul.
Naja am Monatag wissen wir vielleicht ein bisschen mehr. Kommt auch drauf an, ob es neue Treiber gibt.

Der letzte Satz von Ailuros dürfte nur ein Joke sein imo ;)
Die anderen (bislang inaktiven) Features könnten als wunderbare Neuerungen der NV35-Architektur angepriesen werden.

Richthofen
2003-05-11, 03:26:19
achso ja jetzt sehe ich es auch :)

Treozdem kann der NV30 besseres AA als das was es bisher gibt. Einiges ist da nicht besonders sinnvoll. Aber mir egal. Ich kann auch mit 4xS gut leben. Mich interessiert viel mehr die Performance von 8x AF Application.

Ailuros
2003-05-11, 03:43:06
Originally posted by Richthofen
aha. Das klingt mir dann wirklich so, als wäre beim NV30 in Hardware was faul gewesen und musste deaktiviert sein?
Das kann doch sein.

Ich habe generell das Gefühl, dass die 5 Mio extra beim NV35 nur die halbe Wahrheit sind. Ich habe vielmehr das Gefühl, das beim NV30 so einiges nicht funktioniert und sie erhebliche Klimmzüge im Treiber gemacht haben um Workarounds einzubauen. Denkbar wäre es doch.
Oder aber sie lügen PR mäßig und sie kann kein 4x RG.
Aber eigentlich sollte der NV30 qualitativ schon besseres AA können, als das was bisher im Treiber aktiviert ist.
Irgendwas ist da faul.
Naja am Monatag wissen wir vielleicht ein bisschen mehr. Kommt auch drauf an, ob es neue Treiber gibt.

Uhmmm es war nur ein Scherz meinerseits (was das AA betrifft). Was die noch nicht freigeschalteten Features betrifft, muss es nicht unbedingt ein Problem bei NV30 geben. Man kann es auch aus Marketing-Gruenden freischalten um sagen zu koennen dass NV35 X-Anzahl mehr Features hat.

Ailuros
2003-05-11, 03:52:59
Originally posted by Richthofen
achso ja jetzt sehe ich es auch :)

Treozdem kann der NV30 besseres AA als das was es bisher gibt. Einiges ist da nicht besonders sinnvoll. Aber mir egal. Ich kann auch mit 4xS gut leben. Mich interessiert viel mehr die Performance von 8x AF Application.

Tja leider frisst 4xS zuviel Fuellrate, in z.B. UT2003 wo ich es gut gebrauchen koennte.

Besser ist relativ. 8xS sieht wunderbar aus, ist aber im Grunde nicht besser im Bereich edge quality als ATI´s 6x sparsely sampled AA. Zudem ist 6xAA auf ner R300 um einige Male schneller.

Was den uralten TexMax Aniso Algorithmus betrifft, wird er hoffentlich endlich in NV4x ersetzt werden. Application filtert uebertrieben viel, als es Texturen eigentlich noetig haben.

Ein wahrer adaptiver Algorithmus, der Winkel-unabhaengig zwischen 1x und 16x samples je nach Filterung-Bedarf der Texturen filtert, wuerde viel mehr Sinn machen.

Seitennotiz: ich bin neugierig wenn NV endlich auf 4xRGMS steigt, ob sie dann auch fuer den 4x modus eine post-filtering Methode benutzen werden.

Gohan
2003-05-11, 08:38:50
Originally posted by Ailuros
Tja leider frisst 4xS zuviel Fuellrate, in z.B. UT2003 wo ich es gut gebrauchen koennte.


Ich kanns bezeugen, 4xS ist in UT2003 40% langsamer als das normale 4xAA Ô_ô

Iceman346
2003-05-11, 11:44:18
Originally posted by Richthofen
achso ja jetzt sehe ich es auch :)

Treozdem kann der NV30 besseres AA als das was es bisher gibt. Einiges ist da nicht besonders sinnvoll. Aber mir egal. Ich kann auch mit 4xS gut leben. Mich interessiert viel mehr die Performance von 8x AF Application.

Du wolltest sagen der NV30 kann AA mit grösseren Zahlen als der R300 ;)

Von der Qualität her kommt Nvidia auch mit 16x nicht an das 6x AA von ATi heran.

LovesuckZ
2003-05-11, 11:52:21
Originally posted by Gohan
Ich kanns bezeugen, 4xS ist in UT2003 40% langsamer als das normale 4xAA Ô_ô

Bei deiner 5600Ultra fehlt auch schon von vorne rein die Fuellrate.

StefanV
2003-05-11, 12:30:33
Originally posted by Richthofen
achso ja jetzt sehe ich es auch :)

Treozdem kann der NV30 besseres AA als das was es bisher gibt. Einiges ist da nicht besonders sinnvoll. Aber mir egal. Ich kann auch mit 4xS gut leben. Mich interessiert viel mehr die Performance von 8x AF Application.

:rofl:

Schonmal Starlancer auf 'ner R3x0/RV350 mit 6x AA und auf einer GF mit 8xS gesehen ??
Auf der Radeon schauts besser aus, da man bei 6x AA eigentlich keine Abstufungen mehr erkennen kann.

Naja, und von der Performance von deinem geliebten 4xS Modus reden wir mal lieber nicht, dürfte sich auf etwa ~-50% gegenüber no AA belaufen, eher mehr...

StefanV
2003-05-11, 12:31:09
Originally posted by LovesuckZ
Bei deiner 5600Ultra fehlt auch schon von vorne rein die Fuellrate.

???

Bei welcher Karte fehlt das nicht ??

StefanV
2003-05-11, 12:32:21
Originally posted by mapel110


ist das generell nur eine treibergeschichte ? diese rotated or not ?

p.s. hab mal den smilie korrigiert :D


Nein, lt Demirug ist das eine Geschichte vom Trisetup.

NV wollte an der Stelle wohl etwas sparen, so daß kein 4x RG möglich ist.

Ist also eine reine Hardware Geschichte ;)

StefanV
2003-05-11, 12:35:09
Originally posted by Ailuros
Also ich stimme Endorphine schon zu; mein Interesse ist auch mehr in Richtung AA/AF Algorithmen.

Ein paar Kleinigkeiten zu NV3x fuer die, die den Thread bei B3D verpasst haben:



http://www.beyond3d.com/forum/viewtopic.php?t=5737


Do you support 4 sample rotated grid antialiasing?

The GeForce FX hardware supports 4 sample rotated grid antialiasing, but the capability is not currently exposed in the driver

hehehehe :chainsaw:

1. Chainsaw2 ist da a bisserl besser, IMHO :)

2. löl, für mich hörts sich so an, als ob der NV30 das alles (bis auf deien Gag am Rande ;)) theoretisch kann.
Praktisch aber nicht, da an der entsprechenden HW Implementierung was faul ist, so daß man es im Treiber deaktivieren musste, bis man es einigermaßen zum laufen gebracht hat...

Wenn man ganz böse ist, dann könne man behaupten, daß die FX Serie eine Anreihung von Fehlern ist bzw ein einziger riesiger Bug...

Unregistered
2003-05-11, 15:37:11
Originally posted by Stefan Payne
(...) dann könne man behaupten, daß die FX Serie eine Anreihung von Fehlern ist bzw ein einziger riesiger Bug...
So wird sie wahrscheinlich auch in die Hardware-Geschichte eingehen. Die Geforce FX Ultra wird bestimmt mal Liebhaberwert haben, so wie beispielsweise falsch bedruckte 100DM-Scheine.

Ailuros
2003-05-12, 00:28:57
Originally posted by LovesuckZ


Bei deiner 5600Ultra fehlt auch schon von vorne rein die Fuellrate.

Theoretisch sollte bei einer 5800U 4xS in UT2003, gerade noch spielbar sein bei 1024x768, wobei nicht allzu viel Platz uebrig sein sollte fuer AF Kombinationen, ausser vielleicht 16-tap aniso.

http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_ut2003_d.php

Das Pyramid demo ist zwar ein worst case scenario, aber wenn Leistung schon so bei 4xOGMS einbricht, dann wird es wohl mit einer halbierten Fuellrate als dass genauso schwer werden.

Dabei ist das EER bei ATI´s 4xAA gleich mit NV´s 8xS, was wohl Fuellrate * 1/4 heisst.

Fuer sehr CPU limitierte Spiele (z.B. flight simulators) ist natuerlich 4xS und 8xS ideal.