PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 neu aufgelegt


Gast
2004-03-16, 11:39:22
Hallo, eben beim Inquirer gesehen:

http://www.theinquirer.net/?article=14749

Tja, mein Eindruck dazu:

NVIDIA plündert seine Produktpipline um mit ATI mitzuhalten. Abgesehen davon, dass bei solchen Notaktionen immer die Qualität der Lösung leidet habe ich den Eindruck, dass sich NVIDIA bereits wieder mit dem Zeitplan vertan, bzw. ATI unterschätzt hat.

Bei ATI siehts zumindest zur Zeit noch umgekehrt aus. Loki (R420) wurde zwischengeschoben, nachdem das ursprüngliche R400 Projekt zum R500 gemacht worden war.

Loki wird vom ehemaligen R200 (Radeon 8500) Team betreut. Das ArtX Team (R300 - Radeon 9700) kümmert sich um den R500. Für mich heisst das, dass der wirkliche Sprung in der Architektur erst mit R500 kommen wird. Und wenn NVIDIA ihre Zukunftsprojete so verheizt wie oben angedeutet, seh ich mehr als nur dunkelschwarz für NVIDIA.

Gegen Loki kommen Sie vielleicht noch an, doch wenn sie mal gegen den R500 antreten müssen sehen sie bei ihrer momentanen Art die Chips zu planen sehr alt aus.

Gruss Martin

Exxtreme
2004-03-16, 11:43:35
Man sollte aber auch erwähnen, daß :cop: FUAD :cop: diese Meldung geschrieben hat. Und ob Nvidia es in so kurzer Zeit den NV45 zum NV40 machen konnte, bezweifle ich persönlich.

Gast
2004-03-16, 12:04:29
Original geschrieben von Exxtreme
Man sollte aber auch erwähnen, daß :cop: FUAD :cop: diese Meldung geschrieben hat. Und ob Nvidia es in so kurzer Zeit den NV45 zum NV40 machen konnte, bezweifle ich persönlich.
So blöd es klingt:

NV hat (wie schon mit NV30/NV35) 2 Designs gefahren, in diesem konkreten Fall NV40/NV45.

Sowohl der urpsrüngliche NV40, als auch der Nachfolge-NV40 (der als NV45 geplant war) hatten bereits ihre ersten Tape-Outs. Im Winter ´03 sprach man noch von 175 Millionen, jetzt sind es 210 Millionen.

Wie genau NV hier vorgeht, weiß niemand, denn der Tape-Out des 175 Mill. Chips scheinte schon relativ weit vorangeschritten (A03-Stepping).

Einen Chip "umzuwandeln", nachdem er sein 2. - 3. Tape-Out hatte, macht auch garkeinen Sinn. Man verwirrft das ältere Design, und bringt das neue so schnell als möglich zur Reife. Wer weiß, vielleicht sehen wir tatsächlich beide Chips in Endprodukten wieder, dafür würde Einiges sprechen.

HajottV
2004-03-16, 12:10:31
Original geschrieben von Gast

[...]
http://www.theinquirer.net/?article=14749
[...]



Ich halte das nicht für so unwahrscheinlich. (Ob's wirklich stimmt... !?) Es würde jedoch ins Bild passen, daß nVidia mit dem nV3x Lanch unfreiwillig vermittelt hat. Es wäre schade für den Kunden, wenn ATi wieder längere Zeit mit einem Produkt ohne direkte Konkurrenz dastehen würde... daß nVidia alles dransetzt, um die (für's Image wichtige) Geschwindigkeitskrone zu erobern, war klar und ist auch gut so: Je mehr sich ATi und nVidia zoffen, umso bessere Produkte/€ bekommen wir. Der Grafikkartensommer wird heiß - kein Wunder bei 100W Verlustleistung. ^_^

Gruß

Jörg

Ailuros
2004-03-16, 12:13:42
Quatsch.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1648035#post1648035

nagus
2004-03-16, 13:31:22
irgendwie bezweifle ich stark, dass nvidia überhaupt in der lage sein wird, ein 210-transistorenmosnter zu bauen (im zeitrahmen), ohne einen doppelten-dustbuster zu verwenden. das ist am aktuellen stand der technik einfach unwahrscheinlich....

Ailuros
2004-03-16, 13:45:41
Original geschrieben von nagus
irgendwie bezweifle ich stark, dass nvidia überhaupt in der lage sein wird, ein 210-transistorenmosnter zu bauen (im zeitrahmen), ohne einen doppelten-dustbuster zu verwenden. das ist am aktuellen stand der technik einfach unwahrscheinlich....

Theoretisch ist nichts unmoeglich, aber dann eben mit selbstverstaendlichen Begrenzungen. In dem theoretischen Fall waere es eben schwer gewesen 400MHz zu ueberschreiten, wenn ueberhaupt zu erreichen.

Gast
2004-03-16, 13:49:04
Original geschrieben von nagus
irgendwie bezweifle ich stark, dass nvidia überhaupt in der lage sein wird, ein 210-transistorenmosnter zu bauen (im zeitrahmen), ohne einen doppelten-dustbuster zu verwenden. das ist am aktuellen stand der technik einfach unwahrscheinlich....

hm und wenn sie es doch machen? was machstn dann?
Was ist wenn sie ein verdammt aufwendiges und teures aber denoch zumutbares Kühlkonzept verbauen und es so schaffen ATI in der Performance zudistanzieren. Meinst du nicht auch, dass dies unweigerlich negative Auswirkungen auf ATIs restliches Geschäft hätte?

Sind wir doch mal ehrlich. Über den Dustbuster beim NV30 haben sich die Leute auch nur beschwert, weil der NV30 letztlich nicht gut genug war. Hätte er den R300 desklassiert, hätte kein Hahn nach der zu lauten Kühlung gekräht. Am Ende zählt für den Enthusiasten nur die Performance, Features und IQ. Die meissten von denen haben ohnehin einen Gehörrschaden oder spielen täglich mit Kopfhörer. Ich sehe das mit der Kühlung nicht problematisch. Es ist erst dann problematisch wenn man es trozdem nicht schafft deutlich besser zu sein als die Konkurenz. Ist man sagen wir 20 bis 30% bei gleicher IQ und mehr Features besser, werden die Freaks eine laute Kühlung in Kauf nehmen und die der average Joe wird die renamed FX5200 kaufen weil der Hersteller XY eben dann im High Performance Segment owned.

Demirug
2004-03-16, 23:05:36
nagus, nicht nVidia muss das Teil bauen sondern IBM.

Ein 210M Transitoren Chip sollte fertigungtechnisch aber kein allzu grosses Problem sein wenn die FAB den Prozess im Griff hat. ATI hat es ja auch geschafft einen 220mm² Chip zu produzieren.

Mit 220mm² und einem 0,13 Prozess bekommt man zwischen 44M und 66M Gates auf dem DIE unter. Der Spielraum ist hier so gross weil jede FAB auf einer anderen Basis die Gates/mm² errechnet. IBM schenit eher konservativ zu sein und gibt 200 KGates/mm² an. TSMC spricht von bis zu 300 KGates/mm² und UMC liegt mit 250 KGates/mm² in der Mitte. Ein Gate entspricht bei voller Nutzung 4 Transitoren. Damit sind wir dann bei 176M bis 264M Transitoren auf 220mm².

Gehe ich vom konservativen IBM Model aus bräuchte man einen DIE von etwa 260mm² um die 210M Transitoren unter zu bringen. In der Vergangenheit wurden auch schon Chips mit mehr als 300mm² produziert also sollte 260mm² auch möglich sein. nVidia wäre aber gut beraten wenn sie ähnlich wie beim R300 teildefekte Chip denoch nutzen könnte.

Die Kühlung ist natürlich ein anderes Problem. Aber die NV3X Kühlungen waren ja auch nicht unbedingt als optimal anzusehen.

Tyler_Durden
2004-03-16, 23:09:33
eben! die ultra versionen der nv30 chips ließen sich auch wesentlich einfacher, besser und leiser kühlen! da hat nv einfach mist gebaut!

Winter[Raven]
2004-03-16, 23:11:17
Naja Nvidia hat versprochen nicht nocheinmal eine solche Zumutung an den User zustellen wie mit dem NV30 ...

Schaut man sich den Kühler von ATI an ist dieser ned besser als der NV35, wobei einige Hersteller eine ausnahme auf beiden Seiten gibt ...

Gil-galad
2004-03-16, 23:12:51
Original geschrieben von Demirug
nagus, nicht nVidia muss das Teil bauen sondern IBM.

Ein 210M Transitoren Chip sollte fertigungtechnisch aber kein allzu grosses Problem sein wenn die FAB den Prozess im Griff hat. ATI hat es ja auch geschafft einen 220mm² Chip zu produzieren.

Mit 220mm² und einem 0,13 Prozess bekommt man zwischen 44M und 66M Gates auf dem DIE unter. Der Spielraum ist hier so gross weil jede FAB auf einer anderen Basis die Gates/mm² errechnet. IBM schenit eher konservativ zu sein und gibt 200 KGates/mm² an. TSMC spricht von bis zu 300 KGates/mm² und UMC liegt mit 250 KGates/mm² in der Mitte. Ein Gate entspricht bei voller Nutzung 4 Transitoren. Damit sind wir dann bei 176M bis 264M Transitoren auf 220mm².

Gehe ich vom konservativen IBM Model aus bräuchte man einen DIE von etwa 260mm² um die 210M Transitoren unter zu bringen. In der Vergangenheit wurden auch schon Chips mit mehr als 300mm² produziert also sollte 260mm² auch möglich sein. nVidia wäre aber gut beraten wenn sie ähnlich wie beim R300 teildefekte Chip denoch nutzen könnte.

Die Kühlung ist natürlich ein anderes Problem. Aber die NV3X Kühlungen waren ja auch nicht unbedingt als optimal anzusehen.

IBM? Stimmt leider nicht. Denn AMD hat sich diese Kapazitäten gekrallt ;)

Quelle: Planet3DNow! (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1079463578)

Und ich bezweifle recht stark, das TSMC in der Lage ist, einen 210 Mio Chip zu fertigen (in der entsprechenden Ausbeute und Qualität).

Gil-galad
2004-03-16, 23:14:56
Original geschrieben von Winter[Raven]
Schaut man sich den Kühler von ATI an ist dieser ned besser als der NV35, wobei einige Hersteller eine ausnahme auf beiden Seiten gibt ...

Stimmt. Er braucht keinen extra Slot und recht leise isser auch. Ist wirklich nicht besser ;D

StefanV
2004-03-16, 23:15:43
Original geschrieben von Winter[Raven]
Naja Nvidia hat versprochen nicht nocheinmal eine solche Zumutung an den User zustellen wie mit dem NV30 ...

Schaut man sich den Kühler von ATI an ist dieser ned besser als der NV35, wobei einige Hersteller eine ausnahme auf beiden Seiten gibt ...

1. naja, noch eine Blamage wie mit dem nV30 und nV würds nicht mehr wirklich gut gehen, zumal sie dann wohl noch von einigen ordentlich einstecken dürften...

2. hm, die ATI Kühler sind bisher eigentlich alle Single Slot Lösungen :|

Tyler_Durden
2004-03-16, 23:17:09
ich hab nix gegen dual slot, bei meinem abit board is eh der erste pci slot nicht vorhanden! :D

StefanV
2004-03-16, 23:19:07
Original geschrieben von Tyler_Durden
ich hab nix gegen dual slot, bei meinem abit board is eh der erste pci slot nicht vorhanden! :D

Ich prinzipiell auch nicht, nur wenn ein zusätzlicher Slot schon belegt werden muss, dann bitte mit 'nem sehr leisen Kühler und keiner Turbine...

Winter[Raven]
2004-03-16, 23:20:11
Oh bitte, es wird von NV und ATI empfolen einen Slot auszulassen. Und mir doch egal ob es nun ein oder zwei Slot Prinzip ist, solange die Leistung und Kühlung reicht.

Und es gibt Ausnahmen, wie MSI, Leadtek ... die auch beim NV38 Singel Slot Kühlung anbitten ... ;)

Gast
2004-03-16, 23:22:25
Original geschrieben von AiS|Gil-galad
Stimmt. Er braucht keinen extra Slot und recht leise isser auch. Ist wirklich nicht besser ;D

und die Ausfallquote der üblichen Billiglüfter auf ATI Karten extrem hoch - jedenfalls deutlich höher als bei den Nvidia Pendants.

Gil-galad
2004-03-16, 23:24:13
Original geschrieben von Gast
und die Ausfallquote der üblichen Billiglüfter auf ATI Karten extrem hoch - jedenfalls deutlich höher als bei den Nvidia Pendants.

Quelle?

Komisch bisher ist bei meinen sämtlichen ATi Karten kein einziger Lüfter ausgefallen? Zufall?

Quasar
2004-03-16, 23:26:12
Original geschrieben von Gast
und die Ausfallquote der üblichen Billiglüfter auf ATI Karten extrem hoch - jedenfalls deutlich höher als bei den Nvidia Pendants.
Die Aussage ist genauso wertlos wie überflüssig.

@AiS-Gil Galad:
Wie du weißt, gibt es auch nV35-Kühllösungen, die leise sind und nur einen Slot "verbrauchen".

Gast
2004-03-16, 23:26:35
Original geschrieben von AiS|Gil-galad
IBM? Stimmt leider nicht. Denn AMD hat sich diese Kapazitäten gekrallt ;)

Quelle: Planet3DNow! (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1079463578)

Und ich bezweifle recht stark, das TSMC in der Lage ist, einen 210 Mio Chip zu fertigen (in der entsprechenden Ausbeute und Qualität).

So toll ich es fände wenn AMD die Kapazitäten bei IBM bekommt um Intel in den Arsch zu treten so vorsichtig bin ich hier. Du solltest hier in Erwägung ziehen, dass dies lediglich ein Gerücht ist und dazu noch vom INQ....
Die Glaubwürdigkeit würde ich alleine schon deswegen auf nicht höher als 10% schätzen, denn öfter trifft diese Schmutzfinkseite nicht ins Schwarze.

Und was TSMC angeht... Wenn IBM nicht mehr in Frage kommt, dann steigt die Wahrscheinlichkeit, dass der NV4x in 0.11 gefertigt werden wird bei TSMC.
Übrigens ist der Vertrag für High End Chips dort genau der selbe wie bei IBM. Bezahlt wird nur pro lauffähigem Chip :)

Winter[Raven]
2004-03-16, 23:26:52
Original geschrieben von AiS|Gil-galad
IBM? Stimmt leider nicht. Denn AMD hat sich diese Kapazitäten gekrallt ;)

Quelle: Planet3DNow! (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1079463578)

Und ich bezweifle recht stark, das TSMC in der Lage ist, einen 210 Mio Chip zu fertigen (in der entsprechenden Ausbeute und Qualität).

Exstrem Spekulative ... nur weil NV bei TSMC die 0.11µ fertigen wird, ist das bei weitem kein Beweiß.

Und ich denke, es würde dem Ansehn von IBM schaden wenn die sich so benehmen und Verträge kündigen wie das Fähnchen derzeit weht !

StefanV
2004-03-16, 23:31:26
Original geschrieben von Gast
und die Ausfallquote der üblichen Billiglüfter auf ATI Karten extrem hoch - jedenfalls deutlich höher als bei den Nvidia Pendants.

Wenn man jetzt ganz böse ist, dann würde man sagen, daß die Verbreitung entsprechender ATI Karten ebenfalls extrem hoch ist und das die GF FX Kühler öfter mal getauscht werden als die ATI Kühler *eg*

Oder aber man nimmts bei den nV Karten eher hin und wendet sich an deN Support, während man bei ATI Karten erstmal 'nen Thread aufmacht und mal 'Ne runde fmalmt', kann auch sein *eg*

Mit meinem 9700 Lüfter hatte ich zumindest keine Probleme, mit dem der 9800 auch nicht, den hab ich aber auch gleich ersetzt, weil der mich nervte, was ich aber schon vor dem Kauf der Gigabyte 9800 wusste...

StefanV
2004-03-16, 23:34:15
Original geschrieben von Quasar
Die Aussage ist genauso wertlos wie überflüssig.

@AiS-Gil Galad:
Wie du weißt, gibt es auch nV35-Kühllösungen, die leise sind und nur einen Slot "verbrauchen".

Stimmt, nur die Referenzkühlung leider nicht.
Wenn sie denn wenigstens wirklich immer und überall absolut leise wäre, dann wären ja auch alle zufrieden, nur ist sie das nicht, leider.

Ehrlich gesagt find ich Radiallüfter auch scheiße, da der Luftdurchsatz bei Axiallüftern höher ist...
Beleg: diverse Datenblätter der Lüfterhersteller...

der ADDA Quirl der 9800 (oder 9700, weiß ich nicht mehr soo genau), bewegt etwa das doppelte von dem, was der Radiallüfter einer FX5800 bewegt, ist dabei auch noch leiser...

Quasar
2004-03-16, 23:42:33
Original geschrieben von Stefan Payne
Stimmt, nur die Referenzkühlung leider nicht.
Dann können wir uns ja freuen, daß in der post-3dfx-Ära jeder Hersteller frei ist, das Referenzdesign zu nutzen, oder es bleiben zu lassen und selbst was zu entwickeln, gell? ;)

Original geschrieben von Stefan Payne
Wenn sie denn wenigstens wirklich immer und überall absolut leise wäre, dann wären ja auch alle zufrieden, nur ist sie das nicht, leider.

Ehrlich gesagt find ich Radiallüfter auch scheiße, da der Luftdurchsatz bei Axiallüftern höher ist...
Beleg: diverse Datenblätter der Lüfterhersteller...

der ADDA Quirl der 9800 (oder 9700, weiß ich nicht mehr soo genau), bewegt etwa das doppelte von dem, was der Radiallüfter einer FX5800 bewegt, ist dabei auch noch leiser...
Tjo, bei Radiallüftern haste dafür den Vorteil, daß die Luft gleich in die richtige Richtung durch die RAM-Kühlrippen gepustet wird und nicht erst mit sicherlich nicht wenig Verwirbelung und "Verlusten" sich ihren Weg von 90°-Auftreffwinkel auf Bodenplatte in die richtige Richtung suchen muss.
Ich kann es nicht vorrechnen (du vielleicht?), aber ich vermute, daß es sowohl für das eine, als auch für das andere Design gute Gründe gibt.

Gil-galad
2004-03-16, 23:47:31
Original geschrieben von Quasar
@AiS-Gil Galad:
Wie du weißt, gibt es auch nV35-Kühllösungen, die leise sind und nur einen Slot "verbrauchen".

Ja das weiss ich wohl ;) Bei ATi Karten hat man aber den Vorteil (bisher), dass die Karten bisher immer nur einen Slot belegten. Bei NV FX Karten war dies nicht immer so. Außerdem sind die Kühler bei NV FX Karten immer recht schwer. Ehrlich gesagt möchte ich mir kein 700g Monster ala Leadtek in den Rechner bauen. Der arme AGP Slot. Deshalb mag der ruhig 1-Slot-Kühler bei der FX ganz nett sein, allerdings erkauft man sich diese Stille mit einem recht hohen Gewicht.

Quasar
2004-03-16, 23:51:03
Original geschrieben von AiS|Gil-galad
Ja das weiss ich wohl ;) Bei ATi Karten hat man aber den Vorteil (bisher), dass die Karten bisher immer nur einen Slot belegten. Bei NV FX Karten war dies nicht immer so. Außerdem sind die Kühler bei NV FX Karten immer recht schwer. Ehrlich gesagt möchte ich mir kein 700g Monster ala Leadtek in den Rechner bauen. Der arme AGP Slot. Deshalb mag der ruhig 1-Slot-Kühler bei der FX ganz nett sein, allerdings erkauft man sich diese Stille mit einem recht hohen Gewicht.

Schraubst du deine Karte nicht fest?
BTW, was wiegt den der Referenzkühler der R9800XT? Hatte bisher nur das Vergnügen mit dem von der Asus-Karte, der derselbe, wie der auf der Asus FX5900 zu sein scheint...

Und wie immer gilt, man hat die Wahl und jeder kann sich's aussuchen, wo er was kauft und was für Einschränkungen er dabei in Kauf nehmen muss...

StefanV
2004-03-16, 23:54:57
Original geschrieben von Quasar
Schraubst du deine Karte nicht fest?

Man schraubt die Karte fest, damit die Karte nicht aus dem Sockel rutscht, die ganze Last trägt meist der AGP, zumindest einen großteil davon...

Gil-galad
2004-03-16, 23:56:33
Original geschrieben von Stefan Payne
Man schraubt die Karte fest, damit die Karte nicht aus dem Sockel rutscht, die ganze Last trägt meist der AGP, zumindest einen großteil davon...

@ Quasar

Genau das will ich damit sagen.

(kann man das aus meinem Post nicht herauslesen?)

StefanV
2004-03-16, 23:57:58
Original geschrieben von Quasar
Tjo, bei Radiallüftern haste dafür den Vorteil, daß die Luft gleich in die richtige Richtung durch die RAM-Kühlrippen gepustet wird und nicht erst mit sicherlich nicht wenig Verwirbelung und "Verlusten" sich ihren Weg von 90°-Auftreffwinkel auf Bodenplatte in die richtige Richtung suchen muss.
Ich kann es nicht vorrechnen (du vielleicht?), aber ich vermute, daß es sowohl für das eine, als auch für das andere Design gute Gründe gibt.

Ja, vorallendingen ists interessant, daß die 'Eigenentwicklungen' der Kartenhersteller meist auf Axialdesigns basieren, besonders der MSI Sonnenkühler *eg*

Wobei gerade der MSI Kühler ja auch recht ordenltich zu kühlen scheint *eg*

Quasar
2004-03-16, 23:58:30
Schau dir mal _genau_ den Slot und die Befestigung per Schraube an. Da werden zwei halbwegs ebene Metallflächen aufeinandergepresst. =)
Bis sich da unten in Slotnähe was bewegt, müssen IMO schon recht massive Kräfte am Werke sein.

aths
2004-03-17, 00:40:18
Original geschrieben von nagus
irgendwie bezweifle ich stark, dass nvidia überhaupt in der lage sein wird, ein 210-transistorenmosnter zu bauen (im zeitrahmen), ohne einen doppelten-dustbuster zu verwenden. das ist am aktuellen stand der technik einfach unwahrscheinlich.... Ich halte 210 Millionen Transistoren für ein sehr ambitioniertes, aber mögliches Ziel. Wenn sie den Chip so bauen, dass er pro Takt eine Menge Arbeit verrichten kann, wäre es ja nicht notwendig, gleich mit höchsten Taktraten aufzuwarten.

r@w
2004-03-17, 11:57:41
Original geschrieben von Stefan Payne
1. naja, noch eine Blamage wie mit dem nV30 und nV würds nicht mehr wirklich gut gehen, zumal sie dann wohl noch von einigen ordentlich einstecken dürften...Das hat man damals auch vom NV30 und seinem 'Dust-Buster' gesagt... und was ist daraus geworden ?
Kein Hahn kräht mehr danach...
Original geschrieben von Stefan Payne
2. hm, die ATI Kühler sind bisher eigentlich alle Single Slot Lösungen :| Und ?
Und wie schaut's mit der serienmäßigen 'Silencer'-Kühllösungen aus ?
Also 'fast' alle...

Und so etwas effizientes und dabei leises, wie die MSI 'Sonnenkühlung', habe ich bei ATI noch NIE gesehen...

Razor

r@w
2004-03-17, 12:01:15
Original geschrieben von Stefan Payne
Man schraubt die Karte fest, damit die Karte nicht aus dem Sockel rutscht, die ganze Last trägt meist der AGP, zumindest einen großteil davon... So ein Blödsinn... also echt.

Razor

[dzp]Viper
2004-03-17, 12:18:01
Original geschrieben von r@w
So ein Blödsinn... also echt.

Razor

wieso sollte das blödsinn sein? Das ist so!
Ich hoffe, du hast deinen post ironisch gemeint....

ShadowXX
2004-03-17, 12:22:03
Hat sich eigentlich schon mal einer Überlegt, wie die Kühlung des nV40 aussieht, wenn die mehr als 120Watt von Dave Baumann (B3D) stimmen sollten...

Kühl würde der Chip dann ja nun gerade nicht sein....

Die Frage gilt natürlich auch für den r420...obwohl man da ja noch keine Gerüchte über die Verlustleistung gehört hat.

J.S.Shadow

Tyler_Durden
2004-03-17, 12:28:12
die kühlung müsste schon innovativ sein, denn bei cpus mit mehr als 100w (prescott) wirds ja mit der kühlung auch schon brenzlig und da sind die kühlkörper ja viel massiver!

ow
2004-03-17, 12:39:46
Original geschrieben von [dzp]Viper
wieso sollte das blödsinn sein? Das ist so!
Ich hoffe, du hast deinen post ironisch gemeint....


Weil es Bloedsinn ist, deshalb. Ganz unironisch.

Die Gewichtskraft auf dem AGP Slot liegt bei nahezu null.
Es sei denn, man schraubt seine AGP Karte nicht mit dem Slotblech am Gehaeuse fest. Aber wer tut das schon.

Gast
2004-03-17, 12:48:44
Das Gewicht trägt zum Großteil die Grafikkarte, aufgrund der Größe des Kühlers sollte allerdings eine vernünftige Verteilung der Masse gewährleistet sein.

Man kann hier aber nicht MSI mit ATI vergleichen. Der eine verteibt GraKas, der andere baut Chips. Wenn dann sollte ein vergleich zwischen den Chips von ATI und Nividia bezüglich der Verlustleistung erfolgen und diese ist bei ATI (5950U vs. 9800XT) niedriger.

mrdigital
2004-03-17, 12:51:00
und die Grafikkarte schwebt mittels "anti-Gravitationstechnik" im PC? Das Gewicht der Karte wird durchs Verschrauben der Karte am Gehäuse getragen, der AGP sollte keine Last tragen...

LovesuckZ
2004-03-17, 13:01:25
Original geschrieben von Gast
Wenn dann sollte ein vergleich zwischen den Chips von ATI und Nividia bezüglich der Verlustleistung erfolgen und diese ist bei ATI (5950U vs. 9800XT) niedriger.

Im 2D Modus trifft dies nicht zu. Und da der Rechner meisten eher nicht im 3D Modus sich befindet, ist diese Aussage sehr gewagt.

ShadowXX
2004-03-17, 13:14:00
Original geschrieben von LovesuckZ
Im 2D Modus trifft dies nicht zu. Und da der Rechner meisten eher nicht im 3D Modus sich befindet, ist diese Aussage sehr gewagt.

Das kommt dann aber auch wieder darauf an wer vor dem Rechner sitzt und wofür er Hauptsächlich genutzt wird....

Ich kenne mehrere, wo der Rechner 90% der Zeit im 3D-Modus läuft....

J.S.Shadow

Gast
2004-03-17, 13:23:14
Die Karte wird am Gehäuse und am Mobo befestigt, folglich "trägt" das Gehäuse und das Mobo die Karte. Es geht hier aber nicht um die Belastung des Gehäuses oder des Mainboards, sondern der Karte. Durch das Gewicht des Lüfters wird das PCB am AGP-Slot und am Gehäuse belastet und je größer die Masse (oder die Schwerkraft) desto mehr trägt das PCB. Man könnte auch versuchen ein Lüfter (1 Kg) nur auf dem Chip zu montieren und beobachten was passiert. Wahrscheinlich würde die Graka brechen.

ironMonkey
2004-03-17, 13:29:05
Original geschrieben von LovesuckZ
Im 2D Modus trifft dies nicht zu. Und da der Rechner meisten eher nicht im 3D Modus sich befindet, ist diese Aussage sehr gewagt.


Denk mal drüber nach was du da geschriben hast!!!!!! die hohe abwärme erzeugen beide Karten ja nur unter VOLLLAST also 3D, somit Intressiert bei der KÜHLUNG der 2D Berreich nicht, ok macht er schon da man so die Lüfter runter regeln aber danach wurde ja hier nicht gefragt sondern es geht darum die Karte unter Vollast kühl zu halen und bei über 100 Watt stellt das schon kleine Probleme dar da man ja heutzutage nen leisen PC haben will.



Gruß

Quasar
2004-03-17, 13:59:50
Original geschrieben von ironMonkey
Denk mal drüber nach was du da geschriben hast!!!!!!
Denk du mal drüber nach, worauf er damit geantwortet hat. ;)

Da wollte doch glatt jemand die Leistungsaufnahmen der Karten vergleichen und verstieg sich zu der Behauptung, die der ATi sei niedriger.

Unter Volllast mag das angehen, aber das hat er ja nicht geschrieben.

Crushinator
2004-03-17, 14:41:22
Original geschrieben von Gast
Die Karte wird am Gehäuse und am Mobo befestigt, folglich "trägt" das Gehäuse und das Mobo die Karte. Es geht hier aber nicht um die Belastung des Gehäuses oder des Mainboards, sondern der Karte. Durch das Gewicht des Lüfters wird das PCB am AGP-Slot und am Gehäuse belastet und je größer die Masse (oder die Schwerkraft) desto mehr trägt das PCB. Man könnte auch versuchen ein Lüfter (1 Kg) nur auf dem Chip zu montieren und beobachten was passiert. Wahrscheinlich würde die Graka brechen. :kratz2: Stichwort: "Hebelwirkung". Je weniger das PCB nachgibt, desto mehr steigt die Wahrscheinlichkeit, daß der Slot was abbekommt.

r@w
2004-03-17, 14:59:27
Original geschrieben von Gast
Die Karte wird am Gehäuse und am Mobo befestigt, folglich "trägt" das Gehäuse und das Mobo die Karte. Es geht hier aber nicht um die Belastung des Gehäuses oder des Mainboards, sondern der Karte. Durch das Gewicht des Lüfters wird das PCB am AGP-Slot und am Gehäuse belastet und je größer die Masse (oder die Schwerkraft) desto mehr trägt das PCB. Man könnte auch versuchen ein Lüfter (1 Kg) nur auf dem Chip zu montieren und beobachten was passiert. Wahrscheinlich würde die Graka brechen. Ähm...

Hast Du schon mal versucht, eine solch 'schwere' Karte in einem Gehäuse ohne (!) Mobo zu montieren ?
Stell Dir vor, sie hält... und bricht auch keinesfalls ab.

Die Hauptlast wird von Gehäuse getragen und damit vom Slotblech.
Die Punktbelastung des AGP-Slots kann man dabei vernachlässigen...

Viel schlimmer ist da die Last zu werten, die so ein CPU-Sockel 'trägt', wenn ein gewichtiger Kühler nicht am Mobo verschraubt wird. Ich denke dabei z.Bsp. an meinen SLK800 (Vollkopfer-Kühler mit aufgesetztem 8x2,5cm Papst-Lüfter), der so in meinem Rechner 'hängt'. Auch dort ist keine Ermüdungserscheinung am Sockel zu beobachten, auch wenn ich vorsichtig damit wäre, den Rechner jetzt nun im Auto zu transportieren und damit mehr, als sonst üblich, am Kühler zu 'reißen'.

Die 'Last' die hingegen so ein AGP-Slot tragen 'muss', dürfte aufgrund der Befestigungsmethode (was umso mehr für Dual-Slot GraKa's gilt ;-) nahe gegen Null gehen...

Razor

ironMonkey
2004-03-17, 15:05:33
Original geschrieben von Quasar
Denk du mal drüber nach, worauf er damit geantwortet hat. ;)

Da wollte doch glatt jemand die Leistungsaufnahmen der Karten vergleichen und verstieg sich zu der Behauptung, die der ATi sei niedriger.

Unter Volllast mag das angehen, aber das hat er ja nicht geschrieben.


Das war aber eher auf die Kühlung bezogen die beide Karten benötígen und darum geht es ja.

Stromspar Modus im 2D betrieb und so ist ja ein anderes Thema, dafür braucht man auch keinen 500g Kühler.


Gruß

Sunrise@work
2004-03-17, 15:37:15
Original geschrieben von r@w
...Die 'Last' die hingegen so ein AGP-Slot tragen 'muss', dürfte aufgrund der Befestigungsmethode (was umso mehr für Dual-Slot GraKa's gilt ;-) nahe gegen Null gehen...

Razor
Absolut korrekt. Der "Nachteil" der Dual-Slot-Karten ist auch nur insofern einer, wenn damit andere Karten am Einbau behindert werden, ansonsten sehe ich eigentlich nur Vorteile bei der Befestigung.

Der AGP-Slot dient bei sehr langen Karten (z.b. damals die SB AWE32) bei ordentlichem Einbau allenfalls als minimale Stütze, der Rest sollte bei einem ordentlichen Gehäuse von den "Überlängen"-Halterungen getragen werden.

mrdigital
2004-03-17, 15:51:32
Original geschrieben von Sunrise@work
Absolut korrekt. Der "Nachteil" der Dual-Slot-Karten ist auch nur insofern einer, wenn damit andere Karten am Einbau behindert werden, ansonsten sehe ich eigentlich nur Vorteile bei der Befestigung.

Der AGP-Slot dient bei sehr langen Karten (z.b. damals die SB AWE32) bei ordentlichem Einbau allenfalls als minimale Stütze, der Rest sollte bei einem ordentlichen Gehäuse von den "Überlängen"-Halterungen getragen werden.
AWE32 AGP? *räusper*
Die gute alte AWE32 ist ne ISA Karte (aber sehr lang war die schon ;))

Gast
2004-03-17, 16:57:31
Original geschrieben von r@w
Ähm...

Hast Du schon mal versucht, eine solch 'schwere' Karte in einem Gehäuse ohne (!) Mobo zu montieren ?
Stell Dir vor, sie hält... und bricht auch keinesfalls ab.

Die Hauptlast wird von Gehäuse getragen und damit vom Slotblech.
Die Punktbelastung des AGP-Slots kann man dabei vernachlässigen...

Viel schlimmer ist da die Last zu werten, die so ein CPU-Sockel 'trägt', wenn ein gewichtiger Kühler nicht am Mobo verschraubt wird. Ich denke dabei z.Bsp. an meinen SLK800 (Vollkopfer-Kühler mit aufgesetztem 8x2,5cm Papst-Lüfter), der so in meinem Rechner 'hängt'. Auch dort ist keine Ermüdungserscheinung am Sockel zu beobachten, auch wenn ich vorsichtig damit wäre, den Rechner jetzt nun im Auto zu transportieren und damit mehr, als sonst üblich, am Kühler zu 'reißen'.

Die 'Last' die hingegen so ein AGP-Slot tragen 'muss', dürfte aufgrund der Befestigungsmethode (was umso mehr für Dual-Slot GraKa's gilt ;-) nahe gegen Null gehen...

Razor

Hier wollte niemand eine Grafikkarte ohne Mobo befestigen. Das steht nirgendwo und will wohl niemand ernsthaft behaupten (geschweige denn diskutieren).

Die Last verteilt sich auf Gehäuse und AGP-Slot. Wie das Verhältnis dazu aussieht, keine Ahnung, da muss man wohl einen Statiker fragen. Ich würde sagen etwa 50:50, aufgrund der Länge des AGP-Slots zur Befestigung am Gehäuse (denke die sind in etwa gleich lang).

Im Grunde ist es doch erstmal egal wie sich die Last verteilt. Je schwerer eine Grafikkarte ist, desto schlechter. Aber wenn sie den Rechner nicht zum Einsturz bringt, ist das doch egal;)

PS:
Für Highend-Karten (wozu der NV40 hoffentlich gehört;))ist einzig die Verlustleistung unter Vollast interessant, denn wenn man die Graifkkarte nicht bis zum Limit trebt, dann hätte man sich auch etwas günstigeres kaufen können.

StefanV
2004-03-17, 17:32:12
Original geschrieben von r@w
Die Hauptlast wird von Gehäuse getragen und damit vom Slotblech.

...und damit von den DVI/DSUB Ausgängen...

Sunrise
2004-03-17, 17:42:56
Original geschrieben von mrdigital
AWE32 AGP? *räusper*
Die gute alte AWE32 ist ne ISA Karte (aber sehr lang war die schon ;))
Echt ? Scheint als wäre es auch eine Soundkarte ?! Und was für eine!

War wirklich nur ein Beispiel, dass mir gerade einfiel, die V5-6000 hätte ich auch nehmen können, aber da die SB AWE damals dermaßen verbreitet war, kann das somit fast jeder direkt nachvollziehen.

ironMonkey
2004-03-17, 17:44:53
Das Gewicht verteilt sich zwischen AGP Slot und Gehäuse ca. gleich so lange es ausbalanciert ist wenn der Kühler ein hohes Gewicht hat und weit hinten ist dann lastet fast alles auf dem Slot, ist das Gewicht weit vorne dann lastet das Gewicht zum großteil auf dem Gehäuse, meist ists in der Mitte und dementsprechend ist die Last verteilt.


Einfach so sagen dies und das ist stark belastet geht nicht weil es vom Design abhängt, mehr als 500g Last würde ich dem Slot aber nicht zu trauen.



Gruß

Edit: Schreibfehler;D

ow
2004-03-17, 21:24:03
Das Gewicht lastet nahezu auschliesslich auf dem Gehaüse und NICHT auf dem AGP Slot.

Das Slotblech der Graka ist per Schraube am Gehäuse fixiert. Es kann hier schonmal kein Drehmoment längs des Slotbleches senkrecht zum AGP-Slot wirken.

In Richtung des AGP Slots wirkt ein leichtes Drehmoment, weil die Karte/PVB ja nicht unendlich steif sind, ansonsten gäbe es auch hier nichts was man abstützen müsste.

Lässt sich übrigens ganz einfach nachvollziehen:

Eine AGP-Karte am Slotblech dort wo die Schraub sitzt anfassen und waagerecht halten. Gelingt mir problemlos ohne dass ich die Karte an irgendeinem anderen Punkt noch anfassen muss.
Hat das jetzt jeder verstanden??

ow
2004-03-17, 21:48:09
Original geschrieben von Stefan Payne
...und damit von den DVI/DSUB Ausgängen...

Das ist korrekt stellt für diese aber nicht wirklich ein Problem dar, da es nicht die Signalleitungen sind, die das Gewicht abstützen müssen.

Es wäre dennoch nicht verkehrt, wenn mehr Hersteller dazu übergingen, das Slotblech nochmals direkt mit der Platine zu verschrauben, wie hier am Beispiel der Medion 9600TX zu sehen (s. recht oben)

http://www.hartware.net/media/reviews/293/back.jpg

r@e
2004-03-17, 23:00:05
Hängt aber auch damit zusammen, wo sich die Anschlüsse (und damit die befestigten Gehäuse dafür) auf der Platinenseite finden. Bei Deinem Beispiel liegen beide Anschlüsse unten (bzw. unten und fast in der Mitte), insofern die 'Last' am Slotblech nicht ausgewogen ist.

Wenn man sich hier mal meine gute, alte FX5200 anschaut...

http://mitglied.lycos.de/razor3dc/pics/fx5200_back.gif
(sorry für die schlechte quali... muss Bandbreite schonen ;-)

...dann kann man hier sehr gut erkennen, dass die Anschlüsse (und damit die Position der Buchen an der Platinenkante) anders verteilt sind. Bei der von Dir gezeigten Karte ist die Verschraubung offenbar notwendig, bei der meinigen wohl aufgrund der anderen Verteilung nicht.

@all

Man schaue sich bitte die massiven Lötpunkte an, mit denen die Buchsen (und damit das Slotbelch) befestigt sind. Die großen Buchsen sind mit jeweils 2 Lötpunkten quasi eben auf die Platine 'genietet' worden und daran wurde dann (ebenfalls flächig) das Slotblech angebracht.

DAS reicht völlig, um das gesamte Gewicht der Karte tragen zu können.
Und das leichte Drehmoment in Richtung des AGP-Slots, wird dieser schon verkraften können.
50:50 ? Keinesfalls ! 95:5 dürfte da wohl eher hinkommen...
;-)

Razor

r@e
2004-03-17, 23:05:26
Das Loch für die Verschrubung ist auf der Platine aber schon vorgesehen gewesen...
... vermutlich für die Variante ohne DVI.
:D

Razor

Corrail
2004-03-17, 23:16:44
Auch wenn die Diskussion ein wenig vom Thema abweiche (NV40... :-) sehe ich mich dennnoch gezwungen hier meinen Senf dazuzugeben:

Es mag schon sein, dass die Karte fix mim Blech und das Blech fix mim Gehäuse verschraubt/verlötet ist. Trotzdem ist das mechanisch gesehen eher mit einem Festlager als mit einer Einspannung zu vergleichen. Da Festlager nunmal keine Drehmomente aufnehmen können und das haupsächliche Gewicht der Grafikkarte (Chip, Kühler, ...) sich eher weit weg vom Blech befindet muss wohl oder übel einiges des Gewichtes auch vom AGP-Slot getragen werden. Und zwar entsteht da ein Drehmoment und keine Punktlast (wie bei der Blech-Gehäuse) im Slot. Da der Slot aber recht lange ist und eine Grafikkarte normaler weise nicht sooo schwer ist, ist das auch kein Problem (siehe Praxis)

Gast
2004-03-17, 23:45:25
Original geschrieben von ow
Das Gewicht lastet nahezu auschliesslich auf dem Gehaüse und NICHT auf dem AGP Slot.

Das Slotblech der Graka ist per Schraube am Gehäuse fixiert. Es kann hier schonmal kein Drehmoment längs des Slotbleches senkrecht zum AGP-Slot wirken.

In Richtung des AGP Slots wirkt ein leichtes Drehmoment, weil die Karte/PVB ja nicht unendlich steif sind, ansonsten gäbe es auch hier nichts was man abstützen müsste.

Lässt sich übrigens ganz einfach nachvollziehen:

Eine AGP-Karte am Slotblech dort wo die Schraub sitzt anfassen und waagerecht halten. Gelingt mir problemlos ohne dass ich die Karte an irgendeinem anderen Punkt noch anfassen muss.
Hat das jetzt jeder verstanden??

Nicht schlecht... Auch die Überzeugung, mit der hier wieder was dargelegt und jeder Widerspruch ignoriert wird, ringt einem ein Lächeln ab. Und in guter alter Manier, Selbstzweifel kennt man ja nicht.

Mein ehem. TM-Prof würde sich vor Lachen krümmen...

Gast
2004-03-18, 00:00:13
glaubt mir, so schnell bricht da nichts, vorallem nicht die karte!

r@e
2004-03-18, 06:58:22
Original geschrieben von Gast
Mein ehem. TM-Prof würde sich vor Lachen krümmen... Sag mal, hast Du auch was vernünftiges beizutragen oder hast Du Dir auf die Fahne geschrieben, einfach nur ein bissel Müll zu posten ?

Geh' spielen...
;-)

Razor

HOT
2004-03-18, 07:58:56
Das PCB hängt aufgrund seines Gewichtes durch, denn es ist biegsam. Dieses "restgewicht" muss der AGP tragen, ist aber zu vernachlässigen.
Lässt sich die Karte jedoch nicht 100%ig mit der Schraube arretieren oder ist das Mainboard etwas höher angesetzt als optimal im Gehäuse (bzw. die Slots auf dem Mainboard) so hängt selbstredend eine sehr grosse Last auf dem AGP, da die Last von der Punktverbindung angehoben wird. Ähnliches gilt auch wenn die Karte zu lasch verschraubt wird, es gibt ja immer ein wenig Spielraum.
Wie dem auch sei, die Last die der AGP trägt hält sich ja meist dann doch in grenzen und deshalb passiert auch nix. es wird ja auch eine recht grosse Fläche mit sehr vielen kleinen lötstellen festgehalten, die in der Summer sehr viel mehr halten werden als die 4 grossen Löt- bzw. Schraubstellen am PCB Blech.

ow
2004-03-18, 12:45:37
Original geschrieben von Gast
Nicht schlecht... Auch die Überzeugung, mit der hier wieder was dargelegt und jeder Widerspruch ignoriert wird, ringt einem ein Lächeln ab. Und in guter alter Manier, Selbstzweifel kennt man ja nicht.

Mein ehem. TM-Prof würde sich vor Lachen krümmen...


Na, dann leg mal los mit deinen Kenntnissen bevor ich mich hier vor Lachen kruemme......

ow
2004-03-18, 12:47:17
Original geschrieben von r@e
oder hast Du Dir auf die Fahne geschrieben, einfach nur ein bissel Müll zu posten ?

Razor
Jo, genau das scheint es zu sein.
Sinnvolle Kommentare hab ich von dieser IP jedenfalls noch nicht gelasen. Aber eine Menge Unsinn und Geflame.

ow
2004-03-18, 12:50:16
Original geschrieben von Corrail
Auch wenn die Diskussion ein wenig vom Thema abweiche (NV40... :-) sehe ich mich dennnoch gezwungen hier meinen Senf dazuzugeben:

Es mag schon sein, dass die Karte fix mim Blech und das Blech fix mim Gehäuse verschraubt/verlötet ist. Trotzdem ist das mechanisch gesehen eher mit einem Festlager als mit einer Einspannung zu vergleichen.


Also ich habe das als Einspannung betrachtet und wuesste jetzt immer noch nicht, was dagegen sprechen sollte.

Corrail
2004-03-18, 15:15:50
Original geschrieben von ow
Also ich habe das als Einspannung betrachtet und wuesste jetzt immer noch nicht, was dagegen sprechen sollte.

Naja, natürlich kann man es als Einspanung betrachten, aber das Blech (gescchraubt auf dem Gehäuse) wird sicher keine großen Drehmomente aufnehmen können. Würde da eher sagen (schlagt mich, wenns falsch ist :bäh:), dass der Großteil des Drehmomentes auf den AGP Slot geht. Wie die Last verteilt ist, kann ich nicht sagen (wird auch von der Grafikkarte abhängen), aber ich würd meinen, dass der AGP doch einen nicht zu vernachlässigbaren Teil trägt.

ShadowXX
2004-03-18, 15:36:21
Original geschrieben von Corrail
Naja, natürlich kann man es als Einspanung betrachten, aber das Blech (gescchraubt auf dem Gehäuse) wird sicher keine großen Drehmomente aufnehmen können. Würde da eher sagen (schlagt mich, wenns falsch ist :bäh:), dass der Großteil des Drehmomentes auf den AGP Slot geht. Wie die Last verteilt ist, kann ich nicht sagen (wird auch von der Grafikkarte abhängen), aber ich würd meinen, dass der AGP doch einen nicht zu vernachlässigbaren Teil trägt.

Dir ist aber klar, das bei normalen Gehäusen das Slotblech auch unten "einrastet", oder?

J.S.Shadow

Corrail
2004-03-18, 16:20:24
Original geschrieben von ShadowXX
Dir ist aber klar, das bei normalen Gehäusen das Slotblech auch unten "einrastet", oder?

J.S.Shadow

Ja, aber da hast du ein Spiel und es ist nicht fest drinnen. Bis das greift kann es sein, dass das der AGP Slot schon alles aufnimmt.

ShadowXX
2004-03-18, 16:57:33
Original geschrieben von Corrail
Ja, aber da hast du ein Spiel und es ist nicht fest drinnen. Bis das greift kann es sein, dass das der AGP Slot schon alles aufnimmt.

Das kommt auf das Gehäuse an....bei meinem passt da auf jeder Seite mit guten Willen ein Blatt Papier zwischen...

J.S.Shadow

ow
2004-03-18, 21:13:04
Original geschrieben von Corrail
Naja, natürlich kann man es als Einspanung betrachten, aber das Blech (gescchraubt auf dem Gehäuse) wird sicher keine großen Drehmomente aufnehmen können.


Hmm... ich denke, dass das Slotblech schon einiges an Drehmoment verträgt bevor es anfängt, sich zu verbiegen.

Ich denke nicht, dass der AGP Slot wirklich eine grosse Last zu tragen hat. Kann er IMO auch gar nicht. Wenn er dazu in der Lage wäre, dann müsste ein Karte ohne verschraubtes Slotblech ja immer noch absolut waagerecht im Slot stecken.
Tut sie aber nicht, die Karte hängt dann schon ganz schön schräg im Slot drin.

ow
2004-03-18, 21:17:53
Original geschrieben von Corrail
Ja, aber da hast du ein Spiel und es ist nicht fest drinnen. Bis das greift kann es sein, dass das der AGP Slot schon alles aufnimmt.

S.o.
Die Karte hinge dann ganz schön schräg im Slot und ich weiss nicht, ob da ein einwandfreier elektrischer Kontakt noch gewährleistet ist.
Rausfallen wird die Karte ohne Slotblechverschraubung aus dem AGP-SLot zwar nicht und der AGP-Slot wird auch nicht vom Board abreissen oder die AGP-Leiste der Karte abbrechen aber solche eine hohe Drehmomentlast würde ich dem AGP-Slot doch lieber nicht zumuten wollen.

Bei Desktopgehäuse ist es übrigens wurscht, weil die Karte da senkrecht auf dem Slot steht.:D

Corrail
2004-03-18, 22:51:48
*hm* Na gut... Genau genommen muss man das eh für jeden PC selbst betrachten. Bin aber trotzdem noch der Meinung, dass der AGP-Slot einen nicht zu vernachlässigbaren Teil des Gewichtes trägt (Gleichlast, Drehmoment, ...).


Bei Desktopgehäuse ist es übrigens wurscht, weil die Karte da senkrecht auf dem Slot steht.


*lol* Klar...

Gast
2004-03-19, 14:33:33
Zum Topic:

The details of the new NV40 chip have yet to be confirmed, but the DirectX 9.0-compatible core is expected to include significant enhancements to the pixel shader engine. Reported improvements such as a 16-pipeline architecture could not be confirmed.

Quelle:
http://www.extremetech.com/article2/0,3973,1550266,00.asp?kc=ETRSS02129TX1K0000532

Hier wird wie bei CB eine 16-Pipe nicht bestätigt, obwohl angeblich Details vorliegen.

Winter[Raven]
2004-03-19, 15:06:14
The Baron wrote:
Yeah, see. There's working 16-pipe NV40 silicon. Devrel has apparently been sending out benchmarks of the new chip, too.


the Baron wrote:
No, I'm not using the existence of PR benchmark scores as the proof of the actual sillicon's existence.


The Baron wrote:
That David Kirk has been travelling and giving demonstrations of the NV40 to selected developers (and I think a few members of the press)? I doubt that such presentations would be possible if there was no NV40 silicon; I can't imagine NVIDIA telling developers how cool and fast NV40 will be after they did exactly that with NV30, which everyone remembers.


PaulS wrote:
Because there have been presentations since the 16 pipe news broke.

Worth noting that the bench numbers Baron mentions could be nothing more than guesstimates, but similarly they could be based on actual figures they've gotten. Really no way of knowing at this point. Certainly not unusual for IHVs to let developers know of the performance ballparks.




PaulS wrote:
Definitely been presentations to select groups, silicon or no silicon. Quite close to home, you could speculate



MrGaribaldi wrote:
Reverend wrote:He actually performs these tasks? Gosh. I woulda thought there's a solid DevRel dept at NVIDIA...

But wouldn't sending Kirk out lend more credibility to what they're saying, since I would guess most Dev's are taking everything Nvidia says about their nextgen card with a pinch of salt.
Ie. A dev thinking "This DevRel guy says the NV40 will rock and blow ATI out of the water. But that's what he said about the NV30 in 2002, so why should I believe him?" compared to "Man, Kirk says the NV40 will rock and blow ATI out of the water. Had it been a DevRel guy I might not have believed it, but Kirk should know..."




http://www.beyond3d.com/forum/viewtopic.php?t=10845&start=60&postdays=0&postorder=asc&highlight=

r@w
2004-03-19, 15:50:51
amüsant...
:D

Razor

[dzp]Viper
2004-03-19, 15:53:35
Hm - klingt wie immer nach typischen Marketingbeplappere :D

sorry aber auf solche "pseudointerview" (aus welchen quellen die auch immer kommen) gebe ich nix mehr :D

Ausserdem finde ich es doch ziemlich hochtrabend... "blows r420 out of the water" ;D

ShadowXX
2004-03-19, 16:01:02
Original geschrieben von [dzp]Viper
Hm - klingt wie immer nach typischen Marketingbeplappere :D

sorry aber auf solche "pseudointerview" (aus welchen quellen die auch immer kommen) gebe ich nix mehr :D

Ausserdem finde ich es doch ziemlich hochtrabend... "blows r420 out of the water" ;D

Das war doch nur eine hypothetische Spielerei von MrGaribaldi...

Es ging mehr darum, das nV scheinbar momentan D.Kirk durch die Gegend scheucht und nicht die "normalen" Marketingleute...(und das eventuelle warum..)

r@e
2004-03-20, 12:04:10
Original geschrieben von [dzp]Viper
Ausserdem finde ich es doch ziemlich hochtrabend... "blows r420 out of the water" ;D Aber doch sehr bildlich formuliert, oder ?
:D

Razor

Aqualon
2004-03-22, 20:50:09
Bitte dort weitermachen: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=131643

Aqua