PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV35-Kühlung benötigt 2 PCI-Slots...???


DrFreaK666
2003-03-17, 23:19:20
Das habe ich soeben in den news gelesen:
"...einzig allein die Kühllösung soll sich in die falsche Richtung entwickelt haben: Sie verschlänge nun ganze zwei PCI-Slots. Letztere Aussage deutet auch darauf hin, daß tatsächlich ausgewählten Personen im nVidia-Hinterzimmer ein laufendes NV35-Sample gezeigt wurde."

Was geht???? Niedriger getaktet aber trotzdem einer fettere kühlung.
Ist das ein gag von Nvidia um uns dann zu überraschen oder bekommen sie es einfach nicht hin???

Was denkt ihr??

Greetz DrFreaK666

turboschlumpf
2003-03-17, 23:57:40
2 pci slots, das geht wirklich zu weit.

Endorphine
2003-03-18, 00:13:45
Es wird wirklich allerhöchste Zeit für neue Formfaktoren.

DrFreaK666
2003-03-18, 00:15:32
Faktoren?? Was meinst du damit?? Normen??

Endorphine
2003-03-18, 00:29:06
Originally posted by DrFreaK666
Faktoren?? Was meinst du damit?? Normen??
Formfaktoren. So bezeichnet man üblicherweise Normen wie den ATX-Standard für Gehäuse, Netzteile und Mainboards und damit auch für die Erweiterungsslots.

Damit meine ich, dass das altgediente noch vom AT-Formfaktor stammende Modell der Erweiterungsslots den Anforderungen moderner 3D-Beschleuniger einfach überhaupt nicht mehr genügt. Weder thermisch (Luftaustausch), noch vom Raumbedarf für den Kühler, noch mechanisch, da keine Gewichtsentlastung ausser über das Slotblech und den Slot vorgesehen ist.

Wenn ich weiter drüber nachdenke fällt mir noch viel mehr ein, zum Beispiel auch dem Wunsch nach flacheren Gehäusen (erst recht bei 1/2HE-Rechnern), wo dann natürlich auch endlich mal eine sauber definierte low-profile Version für Erweiterungskarten anstrebenswert wäre.

Immerhin hat Intel auf dem letzten IDF schon ein paar gute Konzepte gezeigt. So richtig revolutionär war das aber nicht. An den Slots haben sie IIRC gar nichts verändert.

betasilie
2003-03-18, 00:48:57
Zwei PCI Slots wird die finale Karte bestimmt nicht verbrauchen. Es handelt sich bei der 2 PCI-Slot-Kühlung wohl eher um eine Karte, die nur für die Cebit gedacht ist.

DrFreaK666
2003-03-18, 00:51:32
Originally posted by betareverse
Zwei PCI Slots wird die finale Karte bestimmt nicht verbrauchen. Es handelt sich bei der 2 PCI-Slot-Kühlung wohl eher um eine Karte, die nur für die Cebit gedacht ist.

Dann wäre es ja sehr schlau genau diese karte vorzuführen....

Endorphine
2003-03-18, 00:58:59
Originally posted by DrFreaK666
Dann wäre es ja sehr schlau genau diese karte vorzuführen.... Du meinst wohl eher es wäre nicht sonderlich schlau, diese Karte vorzuführen ;)

DrFreaK666
2003-03-18, 01:01:17
Originally posted by Endorphine
Du meinst wohl eher es wäre nicht sonderlich schlau, diese Karte vorzuführen ;)

Hätte wohl noch ein Smiley hinzufügen sollen, damit die ironie besser ersichtlich ist.

Xmas
2003-03-18, 01:13:01
Dicke Kühler sind auf frühen Samples nichts ungewöhnliches. Das sollte man also noch ganz gelassen sehen.

betasilie
2003-03-18, 01:13:06
NVidia wird halt immer schlauer. ;)

DrFreaK666
2003-03-18, 01:20:43
Originally posted by Xmas
Dicke Kühler sind auf frühen Samples nichts ungewöhnliches. Das sollte man also noch ganz gelassen sehen.

Es ist aber auch nicht Ungewöhliches, dass frühe Samples nicht die finale taktung haben...
Aber du hast recht: Da muss man halt aml wieder auf das End-produkt warten.

Endorphine
2003-03-18, 09:37:53
Originally posted by Xmas
Dicke Kühler sind auf frühen Samples nichts ungewöhnliches. Das sollte man also noch ganz gelassen sehen.

Eben. Man erinnere sich nur an das erste der Öffentlichkeit vorgeführte Sample der Parhelia:

V!P3R
2003-03-18, 10:31:22
Und, was nicht vergessen werden sollte: Der Chip wird in 0.13nm produziert werden, hat ein 256Bit Interface? und wird aus diesem Grund nicht derart hohe Taktraten benötigen, um eine gute Performance abliefern zu können, braucht ergo auch keine "extreme Kühlung".

Und Nvidia wird sich sicherlich nicht noch einmal Vorwürfe wegen ihrer Kühllösung seitens der Tester und der Kunden anhören wollen, schlechtes Image ect

pmaxell
2003-03-18, 11:35:27
Also ich hab mir den Bericht auf x-bit Labs mal durchgelesen, weil ich das ganze nicht so recht glauben konnte. Dort steht, dass die Kühlung "noch immer" den Platz von 2 PCI-Slots benötigt. Daraus schliesse ich, dass man hier dieselben Platzanforderungen wie bei der FX hat! Es ist bestimmt nicht gemeint, dass AGP+2*PCI benötigt wird!

Unregistered
2003-03-18, 12:11:42
Ich habe aber andere Gerüchte gelesen. Danach hat Nvidia auf der Cebit ein NV35 Prototypen-Board mit "normaler" Kühlung wie z.B. von GF4 Ti oder Radeon 9700pro bekannt hinter verschlossenen Türen gezeigt. Möglich aber dass die Karte mit niedrigerem Takt als dann am Ende vorgesehen gelaufen ist und daher so kühlbar war. Erinnert irgendwie an die GFX5800, die meiner Meinung nach mit 400/400 die eigentliche FX hätte werden sollen, dann aber durch den R300 geplättet wurde und Nvidia Chipauslese für schnellere Karten betreiben musste und diese dann nicht mehr herkömmlich kühlbar waren. Vielleicht passiert ja dasselbe mit dem NV35.

Grüße

[dzp]Viper
2003-03-18, 15:44:47
Originally posted by Unregistered
Ich habe aber andere Gerüchte gelesen. Danach hat Nvidia auf der Cebit ein NV35 Prototypen-Board mit "normaler" Kühlung wie z.B. von GF4 Ti oder Radeon 9700pro bekannt hinter verschlossenen Türen gezeigt. Möglich aber dass die Karte mit niedrigerem Takt als dann am Ende vorgesehen gelaufen ist und daher so kühlbar war. Erinnert irgendwie an die GFX5800, die meiner Meinung nach mit 400/400 die eigentliche FX hätte werden sollen, dann aber durch den R300 geplättet wurde und Nvidia Chipauslese für schnellere Karten betreiben musste und diese dann nicht mehr herkömmlich kühlbar waren. Vielleicht passiert ja dasselbe mit dem NV35.

Grüße

eben nicht - auf der cebit wurde die variante mit den 2 slots gezeigt .. hinter verschlossenen türen ;)

Spake
2003-03-18, 17:38:33
die variante mit 2 slots nmciht die mit 2PCI+1 AGP oder?
aber ich kann unserem Unregistered zustimmen
hab ich auch gelesen

robbitop
2003-03-18, 18:06:20
der NV35 soll sogar noch kühler werden als der NV30 dank geringerer Taktraten und interner Veränderungen zur Optimierung des Heatdesigns.
Und selbst für den NV30 gibt es inzwischen von leadtek und Asus und ein paar anderen herstellern afaik auch lsöungen ohne irgendein PCI Steckplatz zu belegten...achja bei dem R300 brauch man den 1. Steckplatz auch sonst läuft die nich stabil...

Spake
2003-03-18, 18:51:19
Originally posted by robbitop
der NV35 soll sogar noch kühler werden als der NV30 dank geringerer Taktraten und interner Veränderungen zur Optimierung des Heatdesigns.
Und selbst für den NV30 gibt es inzwischen von leadtek und Asus und ein paar anderen herstellern afaik auch lsöungen ohne irgendein PCI Steckplatz zu belegten...achja bei dem R300 brauch man den 1. Steckplatz auch sonst läuft die nich stabil...
oder man braucht den 1. PCI für was anderes:

robbitop
2003-03-18, 18:53:13
naja dort hätte die Ja auch schon wieder imho kaum platz für den Radial lüfter um Luft einzusaugen....also fast 2Plätze...naja

Desti
2003-03-18, 19:00:53
Originally posted by robbitop
naja dort hätte die Ja auch schon wieder imho kaum platz für den Radial lüfter um Luft einzusaugen....also fast 2Plätze...naja

dann musst das aber ne riesige PCI Karte sein, der Lüfter ist ja extra weit oben und hinten

robbitop
2003-03-18, 19:04:34
ui hast Recht ;-)

oki

mal schauen was NV sich beim NV35 beim Thermal Design hat einfallen lassen...er soll ja deutlich "kühler" werden

Spake
2003-03-18, 19:11:36
wohl low-k und/oder ein paar kleine core/lüfter tricks

vielleicht haben sie auch einen lüfter mit silber dabei
(viel wirds wohl nett sein: GFX 6800 Ultra für 700 Euro)
lebende beweise für silberkühler gibts übrigens ist also nicht aus der luft gegriffen
stand in einer alten zeitschrift mit einem preis für umgerechnet ca. 50 Euro(echt wahr)

robbitop
2003-03-18, 19:26:53
1. Silber bringt kaum was....die Kühlleistung hängt hauptsächlich von der Oberfläche und der Luftbewegung und der Temperatur der Luft ab.
Der unterschied des Wärmeleitfaktors zw Silber und Kupfer ist zu gering und ausserdem gibt es nur versilberte Kühler, massivies Silber ist zu weich und zu teuer...
2. Low K Dielektric wird frühestens im NV40/R400 enthalten sein..es ist noch lange nicht serienreif. und der Nv35 hatte sein Tapeout am 9.-19.Januar hinter sich...

thermisch kann man einen chip immer umdesignen, siehe AMD oder Intel auch ATi hat bisher sehr cleverere Lösungen gefunden. Das hängt auch sehr von den Chipcompilern ab....diesmal hat NVidia ja viel zeit für Desgin und optimierung, Treiberentwicklung. Denn auch das NV35 Design ist schon recht lang fertig...und es soll ein paar lauffähige Prototypen geben..

Spake
2003-03-19, 13:22:01
Originally posted by robbitop
thermisch kann man einen chip immer umdesignen, siehe AMD oder Intel auch ATi hat bisher sehr cleverere Lösungen gefunden. Das hängt auch sehr von den Chipcompilern ab....diesmal hat NVidia ja viel zeit für Desgin und optimierung, Treiberentwicklung. Denn auch das NV35 Design ist schon recht lang fertig...und es soll ein paar lauffähige Prototypen geben..
da mit dem design hat beim nv30 ja großartig gefunzt :D
wie wärs mit straindes silicon oder mit SOI ;)
wobei ich low-k nicht für unwahrscheinlich halte falls dieser gegen den R400 antritt
immerhin sollte es schon beim nv30 sein und da sies dort nett gepackt haben werden sie wohl gelernt haben und es beim nächsten chip besser machen
andererseits lag der fehler wohl eher beim fabrikanten

askibo
2003-03-20, 11:05:02
NVidia wird in Zukunft Heizlüfter mit eingebauter Grafikkarte bauen

http://www.aceshardware.com/#65000393

Had a good chat with the product manager of the nForce; very nice chap.

Expect 120+W (!) GPUs to appear in the near future. Though nVidia was actively researching SOI and Germanium oxide (?) to reduce power requirements, he didnt expect it any time soon, saying the graphics market changes too fast to warrant that sort of investments for now. So nVidia was concentrating on cooling solution to be able to use that sort of power-hogs.


120 Watt für eine Grafikkarte!!! :o *ocl*

Die haben doch einen Schatten. :bonk:
Wie will man das noch vernünfig (=leise) kühlen

Spake
2003-03-20, 21:07:29
Originally posted by askibo
NVidia wird in Zukunft Heizlüfter mit eingebauter Grafikkarte bauen

http://www.aceshardware.com/#65000393



120 Watt für eine Grafikkarte!!! :o *ocl*

Die haben doch einen Schatten. :bonk:
Wie will man das noch vernünfig (=leise) kühlen

nee du man wird zukünftige nvidia grakas nur auf nforce 2 mainboards verbauen können
und zwar auf dem mainboard drauf :bonk:

sorry für die schlechte montage aber es ist ja nur zur veranschaulichung