PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Entäuscht von nVidia


Unregistered
2003-01-25, 03:45:24
Als ich im Dezember von DER Grafikkarte (nVidia) hörte, hab ich einen grossen Teil meines Weihnachtsgelds aufgespart um mir DIE neue Grafikkartengenahration zu kaufen.
Da ich eigentlich n "Fan" von nVidia bin (und auch bisher nix anderes hatte), hab ich mir gedacht:
Die machen dass schon!
Toll!!!
Meine Mutter würde sagen:" Grosse Klappe, aber nix dahinter!"

Da bei mir aus Prinzip nichts anderes als nVidia in die Kiste kommt bin ich echt stinkig.
Ich hab sogar ernsthaft über ne 9700pro nachgedacht.

Guss Melli

betasilie
2003-01-25, 04:01:20
NV macht sicherlich gute Karten, aber dass der GFFX immer weiter verschoben wird ist echt schade. Ich habe jetzt meine erste Karte von ATI und bin super glücklich. Man muss sich erst ein bisschen umstellen, aber dann ist´s super. Die Grafikleistung ist Atemberaubend, gerade was das Antialiasing angeht. ;)

Ich kann dir nur eine 9700 oder 9700Pro empfehlen. Einfach goil. :liplick:

tEd
2003-01-25, 05:24:24
Nun beim offiziellen launch war eigentlich nie die rede von dezember. Es wurde jan/feb als termin genannt , alles andere waren hoffnungen,vermutungen,gerüchte!

Dunkeltier
2003-01-25, 05:24:39
Sehe ich auch so. Hätte auch nicht gedacht, das Ati jemals was rausbringen würde was 3D-Spiele beschleunigen würde. Zumindest hatte ich nach der Ati XPERT '98 erstmal die Finger von Ati gelassen. Das Ding war eine Spaßbreme...aber Ati hat die Bremsklötze ausgebaut und gibt mittlerweile Vollgas. Deswegen bin ich seit der Radeon 8500LE wieder im roten Lager.

Piffan
2003-01-25, 10:34:40
Gelöscht.....

Piffan
2003-01-25, 10:45:05
Ich finde es auch nicht so pralle, dass NV sich verspätet. Dies tut aber der Gebrauchsfähigkeit der vorhandenen NV- Hardware keinen Abbruch. Wer jetzt eine G3 oder G4 hat, der hat keinen zwingenden Grund, umzusteigen. Wenn man allerdings auf Biegen und Brechen Af und FSAA ohne Einschränkungen nutzen will, dann gibts wohl derzeit keine Alternative zur Radeon....
Aber was ich nun gar nicht verstehe: Warum ausgerechnet jetzt Torschlusspanik? Wer die Ruhe weg hat, der kann doch nur profitieren: spätestens zur Cebit dürfte endlich klar sein, was NV auf der Pfanne hat. Falls das Ding nicht der Bringer ist, kann man ja dann mit bestem Gewissen das Lager wechseln. Vielleicht sind dann die Preise für die Rad. noch etwas niedriger...Wer jetzt ohne Not, aus Übermut, eine neue Graka kauft, der soll hinterher nicht jaulen!

Wenn ich allerdings momentan eine defekte Graka hätte und unbedingt was neues bräuchte, würde ich mir höchstwahrscheinlich auch so meine Gedanken machen und schwitzen.... Schwitzen deshalb, weil ich bisher an NV nicht das Geringste zu meckern hatte.... aber wie heißt es so schön treffend: Das Bessere ist des guten Feind. Falls ich dann doch mit der Ati nicht klarkäme oder mich über Zickereien ärgern müsste, würde ich mich sehr ärgern!

nagus
2003-01-25, 11:18:26
Originally posted by tEd
Nun beim offiziellen launch war eigentlich nie die rede von dezember. Es wurde jan/feb als termin genannt , alles andere waren hoffnungen,vermutungen,gerüchte!


und wochen davor haben sie noch versprochen, dass erste karten fürs weihnachstgeschäft fertig sind...

Endorphine
2003-01-25, 11:37:44
Eine grosse Innovation im Gesamtpaket bringt die GF fx ja mit: endlich ein vorhandenens Temperaturmanagement.

http://www.nvnews.net/images/news/200301/GPUTemps.jpg

Das war längst überfällig. Die GPUs verheizen schon allein bis zu 40 Watt und werden nur von winzigen Kühlblechen mit billigsten Lüftern gekühlt. nVidia hat es hier zwar mit fx-flow übertrieben aber es wird ja auch günstigere Lösungen geben, die auch endlich auf das Prinzip "Radiallüfter bläst Kühlrippen auf dem Core an" basieren. An sowas ist bei ATi nicht zu denken. Die vergessen scheinbar sogar, den Kleber für den Spacer mit einzukalkulieren, so dass dieser dann einen Zwischenraum zwischen GPU und Kühler herstellt. Und die Kühler von ATi waren bis jetzt auch nur ziemliche Sparmodelle.

Das sollte man anerkennen, hier hat nVidia im Gesamtpaket wieder mal deutlich die Nase vorn.

p.s. Kühllösung von Leadtek Quadro fx Karten: http://www.darkcrow.co.kr/Home/home.asp?idx=#1745 <- Die Seite ist leider sehr langsam an Europa angebunden.

Liquaron
2003-01-25, 11:40:33
Originally posted by Endorphine
Eine grosse Innovation im Gesamtpaket bringt die GF fx ja mit: endlich ein vorhandenens Temperaturmanagement.

http://www.nvnews.net/images/news/200301/GPUTemps.jpg

Das war längst überfällig. Die GPUs verheizen schon allein bis zu 40 Watt und werden nur von winzigen Kühlblechen mit billigsten Lüftern gekühlt. nVidia hat es hier zwar mit fx-flow übertrieben aber es wird ja auch günstigere Lösungen geben, die auch endlich auf das Prinzip "Radiallüfter bläst Kühlrippen auf dem Core an" basieren. An sowas ist bei ATi nicht zu denken. Die vergessen scheinbar sogar, den Kleber für den Spacer mit einzukalkulieren, so dass dieser dann einen Zwischenraum zwischen GPU und Kühler herstellt. Und die Kühler von ATi waren bis jetzt auch nur ziemliche Sparmodelle.

Das sollte man anerkennen, hier hat nVidia im Gesamtpaket wieder mal deutlich die Nase vorn.

p.s. Kühllösung von Leadtek Quadro fx Karten: http://www.darkcrow.co.kr/Home/home.asp?idx=#1745 <- Die Seite ist leider sehr langsam an Europa angebunden.

Na endlich das wurde auch mal zeit. So kann man wenigstens fast gefahrlos übertakten. Nvidia hat es mal wieder geschafft!
Weiter so und alles wird gut =)

Iceman346
2003-01-25, 11:49:33
Originally posted by Endorphine
Eine grosse Innovation im Gesamtpaket bringt die GF fx ja mit: endlich ein vorhandenens Temperaturmanagement.

http://www.nvnews.net/images/news/200301/GPUTemps.jpg

Das war längst überfällig. Die GPUs verheizen schon allein bis zu 40 Watt und werden nur von winzigen Kühlblechen mit billigsten Lüftern gekühlt. nVidia hat es hier zwar mit fx-flow übertrieben aber es wird ja auch günstigere Lösungen geben, die auch endlich auf das Prinzip "Radiallüfter bläst Kühlrippen auf dem Core an" basieren. An sowas ist bei ATi nicht zu denken. Die vergessen scheinbar sogar, den Kleber für den Spacer mit einzukalkulieren, so dass dieser dann einen Zwischenraum zwischen GPU und Kühler herstellt. Und die Kühler von ATi waren bis jetzt auch nur ziemliche Sparmodelle.

Das sollte man anerkennen, hier hat nVidia im Gesamtpaket wieder mal deutlich die Nase vorn.

p.s. Kühllösung von Leadtek Quadro fx Karten: http://www.darkcrow.co.kr/Home/home.asp?idx=#1745 <- Die Seite ist leider sehr langsam an Europa angebunden.

Ich sags mal so, wenn ATI keine größeren Kühler braucht warum sollten sie dann größere verbauen? Die Temperaturauslesung der FX ist sicherlich nett, aber davon wer den größten Kühler standardmäßig auf den Chip klatscht darauf zu schließen wer die besseren Karten hat ist doch etwas... kurzsichtig.

Mir zeigt das eher das es ATI schafft schnelle Karten die relativ kühl laufen (wobei die 9700Pro gut warm wird, aber Hitzeprobleme hatte ich bisher keine) zu bauen womit Nvidia anscheinend Probleme hat.

Und das der Wärmekleber unter dem Kühler fehlte hab ich bisher einmal gelesen, hier im Forum, sowas kann passieren genauso wie mal das Ram kaputt ist oder der Chip nicht richtig geht etc.

Richthofen
2003-01-25, 12:40:54
das Temperaturmanagement find ich schon ziemlich geil.
Mein Vorschlag an Nvidia wäre -> bitte an AMD weitergeben dann verkaufen die mehr CPUs und Nvidia mehr nFOrce2 :)

Demirug
2003-01-25, 12:45:12
Originally posted by Richthofen
das Temperaturmanagement find ich schon ziemlich geil.
Mein Vorschlag an Nvidia wäre -> bitte an AMD weitergeben dann verkaufen die mehr CPUs und Nvidia mehr nFOrce2 :)

Nur wo baut man dann den dazugehörigen "XP Flow" bzw "A64 Flow" ins Gehäuse ein? Aber im ernst eine möglichkeit die Drehzahl des Chip lüfters von der internen Chiptemperatur abhängig zu machen ist sicher auch für CPUs eine gute Lösung.

Endorphine
2003-01-25, 12:54:03
Originally posted by Demirug
Aber im ernst eine möglichkeit die Drehzahl des Chip lüfters von der internen Chiptemperatur abhängig zu machen ist sicher auch für CPUs eine gute Lösung.
Gibt's doch schon. z.B. Asus Q-Fan :)
Lässt sich sogar im BIOS einstellen, bei welcher Temperatur die Lüfterspannung um wieviel verringert bzw. wieder erhöht wird.

Richtig dynamisch wie angeblich bei nVidia - Reaktion auf Einheitenauslastung und damit zu erwartende Hitzeentwicklung ist es aber natürlich nicht, da es passiv im Nachhinein reagiert und nicht die CPU selbst es befehligt.

Demirug
2003-01-25, 13:07:57
Originally posted by Endorphine

Gibt's doch schon. z.B. Asus Q-Fan :)
Lässt sich sogar im BIOS einstellen, bei welcher Temperatur die Lüfterspannung um wieviel verringert bzw. wieder erhöht wird.

Richtig dynamisch wie angeblich bei nVidia - Reaktion auf Einheitenauslastung und damit zu erwartende Hitzeentwicklung ist es aber natürlich nicht, da es passiv im Nachhinein reagiert und nicht die CPU selbst es befehligt.

Ich meinte schon so richtig dynamisch. Das die CPU eben an das BIOS mehr informationen liefert als nur die Temperatur und damit eine bessere steuerung möglich ist.

StefanV
2003-01-25, 13:09:41
Originally posted by Richthofen
das Temperaturmanagement find ich schon ziemlich geil.
Mein Vorschlag an Nvidia wäre -> bitte an AMD weitergeben dann verkaufen die mehr CPUs und Nvidia mehr nFOrce2 :)

Falls es dich interessiert:

DAS ist nicht AMDs Problem, sondern das der MoBo Hersteller!!

Der Athlon hat eine Diode Integriert, die das Board auslesen kann, sollte die CPU zu warm werden, dann schaltet das Board ab.

Vorrausgesetzt:

1. man hat so eine Schaltung aufm Board.
2. die Schaltung funktioniert.


BTW: gibt auch Boards, die die Lüfterdrehzahl regeln können, z.B. die neuen AOpen Boards...

nggalai
2003-01-25, 13:26:27
Hi nagus,
Originally posted by nagus
und wochen davor haben sie noch versprochen, dass erste karten fürs weihnachstgeschäft fertig sind... Ich hab' dich schonmal gefragt--hast Du einen Link zu einer offiziellen NV-Aussage, die das da behauptet? Die Frage ist ernst gemeint, da ich echt nichts in die Richtung gefunden habe ausser der Aussage des CEO, dass der NV30 "bis Ende Jahr Umsatz generieren wird", was ja auch gestummen hat. Offiziell wurde AFAIK kein für-Endanwender-kaufbar-Termin genannt.

Wäre fein, wenn wer mit einer Quelle kommen könnte. :)

ta,
-Sascha.rb

Anonym_001
2003-01-25, 13:28:07
Originally posted by Stefan Payne


Falls es dich interessiert:

DAS ist nicht AMDs Problem, sondern das der MoBo Hersteller!!

Der Athlon hat eine Diode Integriert, die das Board auslesen kann, sollte die CPU zu warm werden, dann schaltet das Board ab.

Vorrausgesetzt:

1. man hat so eine Schaltung aufm Board.
2. die Schaltung funktioniert.


BTW: gibt auch Boards, die die Lüfterdrehzahl regeln können, z.B. die neuen AOpen Boards...

Ich kenne bis jetzt nur Boards von Siemens die die Diode auslesen können.

HOT
2003-01-25, 13:31:19
Originally posted by Richthofen
das Temperaturmanagement find ich schon ziemlich geil.
Mein Vorschlag an Nvidia wäre -> bitte an AMD weitergeben dann verkaufen die mehr CPUs und Nvidia mehr nFOrce2 :)

Also vom nForce2 bin ich erstmal geheilt :D

Das Leadtek war einfach nur scheisse IMO.
Ich hab se wieder zurückgebracht und gegen Epox KT400 Boards ausgetauscht. Jetzt funzt wieder alles perfekt. ;)

Wieso an AMD weitergeben? so ne blöde XFlow möcht ich auf meinem Athlon auf keinen Fall haben. Dann schon eher ne Wasserkühlung. Desweiteren hat AMD ja ne Temperaturdiode, aber die wird eben zu selten wirklich genutzt ;)

Katrin
2003-01-25, 13:33:38
Originally posted by HOT

Desweiteren hat AMD ja ne Temperaturdiode, aber die wird eben zu selten wirklich genutzt ;)

jep

mein altes EpoX 8K5A2+ konnte die Diode zwar auslesen, aber nur zum Schutz. Die Temp die angezeigt wurde, war immer die des Sensors am Sockel

Katrin

Richthofen
2003-01-25, 13:46:50
"
Also vom nForce2 bin ich erstmal geheilt

Das Leadtek war einfach nur scheisse IMO.
Ich hab se wieder zurückgebracht und gegen Epox KT400 Boards ausgetauscht. Jetzt funzt wieder alles perfekt.
"

Dann hast du dir einfach das falsche Board gekauft.

"

"
Wieso an AMD weitergeben? so ne blöde XFlow möcht ich auf meinem Athlon auf keinen Fall haben. Dann schon eher ne Wasserkühlung. Desweiteren hat AMD ja ne Temperaturdiode, aber die wird eben zu selten wirklich genutzt
"
Das Temperaturmanagement wäre für AMD ein echter Zugewinn. Die interne Diode ist nur eine halbe Lösung, was man an der zögerlichen Umsetzung im Board Bereich sieht.


"
DAS ist nicht AMDs Problem, sondern das der MoBo Hersteller!!
"

Tja Payne falls es dich interessiert, das ist AMDs Problem letztlich.
Wenn die Boardhersteller das nicht richtig machen, wird AMD immer die kleine Looser Bude bleiben.
Ich gehe mal davon aus das AMD das nicht möchte und noch große Ziele hat also sollten sie sich schon überlegen ob sie nicht das Zepter mehr in die eigene Hand nehmen.
Wenn man sich zu sehr auf die billigen Taiwan Pfuscher verlässt, kann das auch nach hinten losgehen.
VIA und Co haben doch net netten Image Schaden bei AMD hinterlassen und der hält ich hartnäckig bis heute.
Insofern meine bitte an Nvidia -> paar Junx zu AMD schicken die das regeln. Dann wärs ein Qualitätsmerkmal mehr das positiv ist.

ice cool69
2003-01-25, 13:51:45
ich glaube nicht dass die gf-fx eine schlechte karte ist. das problem ist eher dass ati mit der r350 wohl innerhalb kürzester zeit die performancekrone wieder an sich reißen kann.

wenn das so weitergeht dürfte die marktführerschaft seitens nvidia ende 2003 langsam geschichte werden.

aber noch ist es nicht so weit, abwarten...

mapel110
2003-01-25, 14:30:04
Originally posted by ice cool69
ich glaube nicht dass die gf-fx eine schlechte karte ist. das problem ist eher dass ati mit der r350 wohl innerhalb kürzester zeit die performancekrone wieder an sich reißen kann.

wenn das so weitergeht dürfte die marktführerschaft seitens nvidia ende 2003 langsam geschichte werden.

aber noch ist es nicht so weit, abwarten...

so schnell geht das nicht. erstmal sollte ati guten developer support bieten. das ist das wichtigste, um nummer 1 zu werden.

Richthofen
2003-01-25, 14:47:39
jo und solange das nicht der Fall ist werden sie für gleiche Performance mehr Hardware liefern müssen.
Von den ganzen Inkompatibilitäten und Patcherein mal ganz zu Schweigen.
Wenn die Developer weiterhin auf Nvidia entwickeln, würd auch der beste Treiber das Problem nicht lösen.

skampi
2003-01-25, 14:56:03
Originally posted by Richthofen
jo und solange das nicht der Fall ist werden sie für gleiche Performance mehr Hardware liefern müssen.
Von den ganzen Inkompatibilitäten und Patcherein mal ganz zu Schweigen.
Wenn die Developer weiterhin auf Nvidia entwickeln, würd auch der beste Treiber das Problem nicht lösen.

Wie wahr, wie wahr. Aber mit der zunehmenden Verbreitung der R300-based Karten nimmt das Problem spürbar ab.

betasilie
2003-01-25, 14:56:24
Originally posted by Richthofen
jo und solange das nicht der Fall ist werden sie für gleiche Performance mehr Hardware liefern müssen.
Von den ganzen Inkompatibilitäten und Patcherein mal ganz zu Schweigen.
Wenn die Developer weiterhin auf Nvidia entwickeln, würd auch der beste Treiber das Problem nicht lösen.
Da kann ich euch nur rechtgeben.:(

StefanV
2003-01-25, 19:17:30
Originally posted by Anonym_001


Ich kenne bis jetzt nur Boards von Siemens die die Diode auslesen können.

Nein, nicht ganz.

Es nutzen eigentlich alle KT400 und viele KT333 Boerds die Interne Temperatur Diode des Athlon XP.

Allerdings nutzen die meisten die Diode 'nur' für den Temperaturschutz.

StefanV
2003-01-25, 19:20:52
Originally posted by Richthofen
""
DAS ist nicht AMDs Problem, sondern das der MoBo Hersteller!!
"

Tja Payne falls es dich interessiert, das ist AMDs Problem letztlich.
Wenn die Boardhersteller das nicht richtig machen, wird AMD immer die kleine Looser Bude bleiben.
Ich gehe mal davon aus das AMD das nicht möchte und noch große Ziele hat also sollten sie sich schon überlegen ob sie nicht das Zepter mehr in die eigene Hand nehmen.
Wenn man sich zu sehr auf die billigen Taiwan Pfuscher verlässt, kann das auch nach hinten losgehen.
VIA und Co haben doch net netten Image Schaden bei AMD hinterlassen und der hält ich hartnäckig bis heute.
Insofern meine bitte an Nvidia -> paar Junx zu AMD schicken die das regeln. Dann wärs ein Qualitätsmerkmal mehr das positiv ist.

Tja, Richthofen, 'dummerweise' gibts auch genügend Boards für den P4, die überhaupt garnix mit der Temperaturdiode des Prozessors anfangen können!!

Meist ist auf diesen Boards ein LPC Chip von ITE verbaut.


Das Meiste von deinem Posting ist allerdings nur ein schlechter Witz...

Was glaubst du wohl, was AMD gegen die Boardhersteller unternehmen sollte ??

Oder andersgefragt:

Wieviele Boardhersteller würden abspringen, wenn AMD was unternehmen würde ??

Und wie gedenkst du, sollte so ein 'Feature' von AMD denn aussehen ??

Richthofen
2003-01-25, 20:26:01
bis heute ist AMD das obs dir in dein Weltbild passt oder nicht.
Ich selber kaufe nur AMD und mir gefallen derren CPUs aber denoch ist die Firma AMD gemessen an anderen Größen ein Looserverein nach wie vor.
Insofern würde ein bisschen mehr Qualität nicht schaden oder warum ist der Ruf so schlecht?

@PAyne
Ich weiss nicht ob es beim P4 da Probleme gibt. Fakt ist aber das der P4 das Image hat - eher kühl und raucht nicht ab und bei AMD das genaue Gegenteil.
Also scheint hier doch ein Nachholbedarf zu bestehen.

Ich habe gar nicht gesagt das AMD die gleiche Lösung braucht aber sie brauchen ein Thermal Management System und da Nvidia ein solchiges wohl hinbekommen hat, wär von mir ironisch gesagt worden, die könnten AMD mal ein wenig auf die Sprünge helfen.

StefanV
2003-01-25, 20:58:09
Originally posted by Richthofen
@PAyne
Ich weiss nicht ob es beim P4 da Probleme gibt. Fakt ist aber das der P4 das Image hat - eher kühl und raucht nicht ab und bei AMD das genaue Gegenteil.
Also scheint hier doch ein Nachholbedarf zu bestehen.

Ich habe gar nicht gesagt das AMD die gleiche Lösung braucht aber sie brauchen ein Thermal Management System und da Nvidia ein solchiges wohl hinbekommen hat, wär von mir ironisch gesagt worden, die könnten AMD mal ein wenig auf die Sprünge helfen.

1. daß der P4 kühl ist und nicht abrauchen kann ist ein Amenmärchen...
Wenn man sich mal die Kühler für den P4 und AMD anschaut, dann wird man eigentlich zu dem schluss kommen, daß der P4 der 'hitzkopf' ist, was ja auch nicht falsch ist...

2. Wozu braucht AMD ein Thermal Managment ??
Das ist beim Athlon so sinnig wie ein Kropf, unter anderem Deshalb weil der Athlon nicht idlen kann (kann er schon, ist 'nur' im BIOS deaktivert).

Und zum anderen kann man mit 'nem ordentlichen Kühler und leisem 80mm Lüfter so ziehmlich jede AMD CPU vernünftig kühlen.

3. so ein Thermal Managment ist nicht AMDs sache, AMD stellt nur CPUs her!
Sie stellen weder Chipsätze her, noch Boards.
Bei Boards ists eigentlich üblich, daß jeder Hersteller ein eigenes Design hat, zumindest bei Intel und VIA (SoA) Chips...

Razor
2003-01-25, 21:04:59
Originally posted by Stefan Payne

3. so ein Thermal Managment ist nicht AMDs sache, AMD stellt nur CPUs her!
Sie stellen weder Chipsätze her, noch Boards.
Bei Boards ists eigentlich üblich, daß jeder Hersteller ein eigenes Design hat, zumindest bei Intel und VIA (SoA) Chips...
Ist die CPU nicht die erste Instanz, die 'weiß', wann mehr Leistung und damit mehr Kühlung benötigt wird ?
(selbiges gilt natürlich auch für den umgekehrten Fall)

Somit wäre es doch naheligend, genau hier anzusetzen !

Sicher ist AMD nicht für die Kühlung selbst verantwortlich, wohl aber für die Effizienz dieser, wenn sie Erfolg mit Ihrem Produkt haben wollen. Liefern sie die entsprechenden Informationen können Board-Hersteller und Kühler-Fabrikanten darauf reagieren...

Find' ich eigentlich ganz gut, diese Idee !
;-)

Razor