PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GFFX @ 550 - 600MHz


nggalai
2002-11-29, 10:37:37
Hola,

Digitlife: http://www.digit-life.com/articles2/gffx/index3.html

Ben6@B3D: http://www.beyond3d.com/forum/viewtopic.php?t=3361

Hmm. Also, zumindest Reviewer sollten in dem Fall auf alle Fälle ein 500MHz-Testexemplar erhalten. ;D

ta,
-Sascha.rb

Unregistered
2002-11-29, 11:38:51
Fette sache in dem paper ist die Bandbreite beider Karten ja identisch
mal sehen was nun noch für ne effizienz in jedem chip liegt

nagus
2002-11-29, 11:51:41
ich trau solchen meldungen irgendwie nich ganz. schön wenns so ist, aber wozu braucht die GF FX ( wenn das stimmt, was da steht) eine solchen moster-kühler???


wenn der chip wirklich soooo super läuft, warum hat nvidia eine spezielle kühlvorrichtung entwickeln müssen? und warum laufen die test-boards von der comdex alle mit nicht mehr als 200Mhz (gerüchte zu folge)

ich glaub eher, dass nvidia solche taktraten nur mit wasserkühlung oder sonstigen extrem-cooling systemen erreicht und dann slche meldungen herausbringt, um die wütenden "mop" zu beruhigen.

nggalai
2002-11-29, 13:25:21
Originally posted by nagus
ich trau solchen meldungen irgendwie nich ganz. schön wenns so ist, aber wozu braucht die GF FX ( wenn das stimmt, was da steht) eine solchen moster-kühler???


wenn der chip wirklich soooo super läuft, warum hat nvidia eine spezielle kühlvorrichtung entwickeln müssen? und warum laufen die test-boards von der comdex alle mit nicht mehr als 200Mhz (gerüchte zu folge)

ich glaub eher, dass nvidia solche taktraten nur mit wasserkühlung oder sonstigen extrem-cooling systemen erreicht und dann slche meldungen herausbringt, um die wütenden "mop" zu beruhigen. Gut möglich, deshalb hab' ich's ja auch im Speku-Forum gepostet. ;) Auf ben6 war bisher allerdings immer Verlass, der postet echt nicht einfach nur so Gerüchte ohne guten Grund. Ich mein' ja nur, in den Papers schreibt NV überall was von "Core clock: 500MHz+" und nicht "500MHz max". Ja, kann wohl Marketing sein, aber beim GF3/4-Launch haben's das noch ned gemacht. Vielleicht beziehen sich die 500MHz tatsächlich wie Gerüchten zu Folge auf die Standard-GFFX, und die Ultra wird mit mehr kommen?

ta,
-Sascha.rb

Frucht-Tiger
2002-11-29, 13:55:05
Wobei sich aber die Frage stellt wie gut der NV30 noch mit höherem Takt skalieren kann.
600Mhz wären im Februar IMHO reiner Overkill, man sollte sich lieber noch etwas Taktspielraum frei lassen, um noch angemessen auf den R350 reagieren zu können.

Xmas
2002-11-29, 14:19:10
Originally posted by nagus
ich trau solchen meldungen irgendwie nich ganz. schön wenns so ist, aber wozu braucht die GF FX ( wenn das stimmt, was da steht) eine solchen moster-kühler???


wenn der chip wirklich soooo super läuft, warum hat nvidia eine spezielle kühlvorrichtung entwickeln müssen? und warum laufen die test-boards von der comdex alle mit nicht mehr als 200Mhz (gerüchte zu folge)
Mal nur so ne Frage, woher stammen diese Gerüchte denn? Es wundert mich dass du das schon mehrfach erwähnt hast, aber noch keinen Thread dazu hier im Speku-Forum eröffnet hast. Oder hab ich den übersehen? Jedenfalls ist mir solches (außer von dir) noch nicht zu Ohren gekommen.

Und was die Kühlung angeht, wir wissen ja gar nicht wie effizient sie ist. Möglicherweise würde eine "normale" Kühlung 400-450 MHz ermöglichen, die neue Kühlung lässt aber Spielraum bis 600 MHz. Glauben tue ich das nicht ganz, aber möglich ist es.

Eusti
2002-11-29, 14:27:12
Originally posted by Frucht-Tiger
Wobei sich aber die Frage stellt wie gut der NV30 noch mit höherem Takt skalieren kann.
600Mhz wären im Februar IMHO reiner Overkill, man sollte sich lieber noch etwas Taktspielraum frei lassen, um noch angemessen auf den R350 reagieren zu können. Ach, die sollen raushauen, was drin ist. Und eine Grafikkarte die zu schnell ist hat es bisher noch nicht gegeben und wird es auch in absehbarer Zeit nicht geben. Ich fordere mindestens 1280x1024 mit 4xAA mit 32xAF bei sehr detallierten Texturen und unmengen an Plygonen mit durchschnittlichen Frameraten von 80+ in JEDEM Game. Sowas bringt auch die GFFX wohl nur in Counterstrike. Also, zu schnell gibt es nicht.

Eusti
2002-11-29, 14:34:26
Originally posted by nagus
Ich glaub eher, dass Nvidia solche Taktraten nur mit Wasserkühlung oder sonstigen Extrem-cooling Systemen erreicht und dann solche Meldungen herausbringt, um den wütenden "mop" zu beruhigen.
Ach Nagus. Warum glaubst du nicht, das die Grafikkartenhersteller den Prozess der Chipherstellung mit der Zeit nicht immer besser beherschen. AMD, Intel & Co sind in der Lage, mit der Kühlung der GFFX Chips herzustellen, welche mit 2-4GHZ laufen. Warum sollenn Grafikkartenhersteller es dann nicht schaffen, sich ganz langsam (0,5GHZ bei GFFX) an diese Regionen heranzutasten? Oder: Warum steht in dem Artikel, das ATI seine 0,13er Kupfer-Chips mit 600MHZ takten lassen will? Weil ATI toll ist und das da einfach geht? Nein, die Grafikchip-Hersteller lernen einfach dazu und schließen so die Lücke zu den CPU-Bauern.

Originally posted by digit-life.com
Armed with these figures ATI plans on production of a chip clocked at 400..500 MHz started in the first half of 2003, which will be more affordable and not less efficient - RV350, and in the second half of 2003 we will see a .13 chip running at 500-600 MHz.

Unregistered
2002-11-29, 14:54:35
"
wenn der chip wirklich soooo super läuft, warum hat nvidia eine spezielle kühlvorrichtung entwickeln müssen? und warum laufen die test-boards von der comdex alle mit nicht mehr als 200Mhz (gerüchte zu folge)

ich glaub eher, dass nvidia solche taktraten nur mit wasserkühlung oder sonstigen extrem-cooling systemen erreicht und dann slche meldungen herausbringt, um die wütenden "mop" zu beruhigen.
"

Weil zum Beispiel dies die ersten laufgähihgen Chips waren, die voll und ganz dem finalen NV30 entsprechen.
Und wie immer bei der ersten Serie läuft noch nicht alles optimal.
Hat man aber erstmal das gröbste beseitigt, dann ergeben sich Verbesserungen und Hinzugewinne ziemlich schnell.
500 MHZ sind für mich gesetzt für den NV30.
Auf die Kühlung geb ich gar nix.
Ich erwarte von einem A0 bzw A1 Chip nicht, das er so rund läuft wie der finale A3,4 oder sonst was.
Ich glaube auch nicht, das 500 MHZ das Ende sind beim NV30.
Ich würde sagen, da geht es erst richtig los.
Das habe ich schon in einem anderen Thread mal geschrieben.
500 MHZ für den NV30 sind Standard und momentan beeindruckend.
500 MHZ für den Refresh sind unspektakulär und höchstens noch das untere Ende.
Ich rechne mit 600+ MHZ für den Refresh.
Sollte kein Problem sein. Da sie nun auch auf Kupfer Prozess gesetzt haben dürfte sich einiger Spielraum ergeben.

Stimme ngglai bzgl ben6 zu. Der redet nicht einfach irgendeinen Schwachsinn hin.
In wenigen Wochen wissen wir mehr.

Mehrpack
2002-11-29, 15:23:23
hi,
mhh naja mal sehn.
aber aufjedenfall soll ja der flux ja noch für irgendwas gut sein ansonsten hätten sie sich ja den namen net schützen lassen.

Mehrpack

Unregistered
2002-11-29, 17:18:39
Originally posted by Unregistered
"
Ich erwarte von einem A0 bzw A1 Chip nicht, das er so rund läuft wie der finale A3,4 oder sonst was.
[...]

In wenigen Wochen wissen wir mehr.

Naja so in ca. 15-20 Wochen?!

seahawk
2002-11-29, 17:22:49
Die Kühlung sagt doch gar nichts über die Leistungsfähigkeit des Chips ??

Vielleicht brauchen die Rams so einen großen Kühlkörper.
Vielleicht erlaubt diese Art der Kühlung einen leisen Betrieb in 2D.
Vielleicht ist diese Kühlung leiser als eine normale.
Vielleicht ist diese Kühlung nur für die Ultra um den Overclockern spielraum zu geben.

Quasar
2002-11-29, 17:32:18
Das ("Armed with these figures ATI plans on production of a chip clocked at 400..500 MHz started in the first half of 2003, which will be more affordable and not less efficient - RV350, and in the second half of 2003 we will see a .13 chip running at 500-600 MHz.") fand ich dann doch mit das interessanteste an dem Artikel. :)

Auf einmal isses doch der RV350, der als Budget-Version mit höherer Taktrate den Spring-Refresh bildet...(RV250@350MHz anyone?).

nagus
2002-11-29, 21:14:10
Originally posted by Xmas

Mal nur so ne Frage, woher stammen diese Gerüchte denn? Es wundert mich dass du das schon mehrfach erwähnt hast, aber noch keinen Thread dazu hier im Speku-Forum eröffnet hast. Oder hab ich den übersehen? Jedenfalls ist mir solches (außer von dir) noch nicht zu Ohren gekommen.

Und was die Kühlung angeht, wir wissen ja gar nicht wie effizient sie ist. Möglicherweise würde eine "normale" Kühlung 400-450 MHz ermöglichen, die neue Kühlung lässt aber Spielraum bis 600 MHz. Glauben tue ich das nicht ganz, aber möglich ist es.

zumindest bei den test-samples, welche mit 200/400 Mhz gelaufen sein sollen (siehe bild unten) hätte nvidia aber nicht diesen fetten küler benötigt, oder?


(Quelle: http://www.beyond3d.com/forum/viewtopic.php?t=3204 )

nagus
2002-11-29, 21:27:37
und nochmal....

(Quelle http://www.ukgamer.com/article.php4?id=208&page=1 )

http://www.ratchetsgame.com/misc/nv30_tag.jpg

Richthofen
2002-11-29, 21:58:52
Nagus auch für dich nochmal. Das waren die ersten lauffähigen Teile die von TSMC zurückgekommen sind und dem finalen NV30 entsprechen. Diese Teile liefen erstaunlich gut und haben wohl recht wenig Bugs gehabt für so ein Transistormonster.
Aber das diese Teile nun sofort mit 500 MHZ laufen kann man haken.
AMDs Hammer läuft auch nicht von Anfang an auf 2 GHZ.
So ist das nunmal. Da wird noch ein bisschen am Fertigungsprozess gefeilt und dann läuft die Sache.

500 MHZ sind bei mir gesetzt und zwar ohne Probleme.
Gute Werbung, der DAU wirds fressen wie bei Intel auch.

Pirx
2002-11-29, 22:35:00
Originally posted by Richthofen
Gute Werbung, der DAU wirds fressen wie bei Intel auch.

Ich vermute (eigentlich weiß ich es), daß ein richtiger DAU überhaupt nichts von nV oder ATi weiß, deshalb ist es wahrscheinlich auch sehr wichtig, die Verkäufer/den Einzelhandel auf seiner Seite zu haben, sodaß die Kunden "richtig" beraten werden.

Eusti
2002-11-29, 22:56:11
Originally posted by nagus


zumindest bei den test-samples, welche mit 200/400 Mhz gelaufen sein sollen (siehe bild unten) hätte nvidia aber nicht diesen fetten küler benötigt, oder?


(Quelle: http://www.beyond3d.com/forum/viewtopic.php?t=3204 ) OK, ich seh es ein. Irgendwie hast du doch immer die besseren Argumente. Der GFFX wird in der Final Version so mit 120-150 MHZ kommen. Die Ultra-Version mit dem Mega-Kühler wird vermutlich ca. 175 MHZ mitmachen. Übertaktet (wie auf der Vorführung) dann vielleicht 196 MHZ.

Man man man.....

oliht
2002-11-29, 23:09:47
Nur mml so nebenbei (ja die Infos sind nicht seriös und viele fakten wird es nicht geben).

http://www1.giga.de/stories_u4/0,3204,48225,00.html und mal auf shot'n'pics klicken scheint so als ob nvidia doch schon ein paar vorführbare samples hat. So ab null Uhr sollte auf giga was kommen vielleicht gibt es dann auch infos über die Taktraten...

ow
2002-11-30, 00:59:32
Originally posted by oliht
Nur mml so nebenbei (ja die Infos sind nicht seriös und viele fakten wird es nicht geben).

http://www1.giga.de/stories_u4/0,3204,48225,00.html und mal auf shot'n'pics klicken scheint so als ob nvidia doch schon ein paar vorführbare samples hat. So ab null Uhr sollte auf giga was kommen vielleicht gibt es dann auch infos über die Taktraten...


:rofl:

ich les gerade dein Posting hier, werf die Glotze an, seh die ersten Bilder von dieser NV demo mit dem blauen Truck und als nächstes einen satten Bluescreen auf meinem TV (so nach etwa 10s).:D:D

Quasar
2002-11-30, 01:03:09
Hehehe, grad hab' ich dazu 'nen Thread aufgemacht....richtig schöne Lästermaterial.

Allerdings lief die Demo schon etwas länger vorher....der BSOD trat beim Beenden auf.

ow
2002-11-30, 01:12:19
Hi:)

Hab gerade deinen Thread gesehen.
Wir haben wohl dasselbe gesehen.:D
Du kannst dir das nicht vorstellen. Ich schalt die Glotze ein, sehe 10s diesen Truck, dann kommt dieser 'Track-Vermoder-Effekt' und *peng*...:D


btw. jetzt labert dieser xp-anti-spy-fuzzy, kommt da nix mehr mit gffx?

Quasar
2002-11-30, 01:14:14
Doch... später kommt noch n Take. ;)

ow
2002-11-30, 01:34:52
jep, sind gerade dabei und labern quatsch ('hat nix mehr mit GF4 zu tun':D)

Quasar
2002-11-30, 01:37:24
Tjo, der Borsti halt...aber das fällt wohl unter "Zielgruppenadaption" ;)

ow
2002-11-30, 01:44:44
Ah, das war also Borsti...naja..:D

btw. 'Dawn' in Wireframne ist schon beeeindruckend. Nicht wenige Polys.:D

Quasar
2002-11-30, 01:54:01
Jo, sag' ich doch....es gab da schon ein paar Video zum DL, wo auch in den Wireframe geschaltet wurde....

Birdman
2002-11-30, 02:01:53
nach dieser tv-schow kann man nun ja wirklich fast davon ausgehen dass die GFfx mit 500Mhz kommen wird...
wurde vom marketingheini mehrmals erwähnt und auch borsti hats so rübergebracht, und bei so viel brumsbrums umd 500Mhz werden es dann wohl auch diese 500Mhz sein.

Xmas
2002-11-30, 02:05:19
Originally posted by nagus
zumindest bei den test-samples, welche mit 200/400 Mhz gelaufen sein sollen (siehe bild unten) hätte nvidia aber nicht diesen fetten küler benötigt, oder?
Nun, genau dies sollte doch Zweifel daran wecken dass diese "Speed" Angaben MHz-Angaben sind, oder? ;)

Fragt sich auch was die Angabe 5?0/5?0 auf dem letzten Bild rechts oben zu bedeuten hat...

nagus
2002-11-30, 10:56:05
Originally posted by Xmas

Nun, genau dies sollte doch Zweifel daran wecken dass diese "Speed" Angaben MHz-Angaben sind, oder? ;)

Fragt sich auch was die Angabe 5?0/5?0 auf dem letzten Bild rechts oben zu bedeuten hat...

darunter steht eindeutig "FAILED"

Quasar
2002-11-30, 12:26:45
Dein Bild ist weg, nagus.
Trotzdem sah das nicht wie ein "Failed" aus, dazu war zwischen dem F und dem a ein Buchstabe zuviel....

nagus
2002-11-30, 12:30:43
Originally posted by Quasar
Dein Bild ist weg, nagus.
Trotzdem sah das nicht wie ein "Failed" aus, dazu war zwischen dem F und dem a ein Buchstabe zuviel....


http://images.ukgamer.com/previews/fx/demo_large.jpg

also das ist ziehmlich klar ein "failed" unter 500/500

Quasar
2002-11-30, 12:39:30
Tja, wenn du das sagst. :eyes:
Ich schreibe "fails" jedenfalls ohne zusätzliches Geschmiere zwischen "f" und "a"...

Quasar
2002-11-30, 12:39:55
Mist, Bild vergessen...

StefanV
2002-11-30, 12:42:28
Originally posted by nagus



http://images.ukgamer.com/previews/fx/demo_large.jpg

also das ist ziehmlich klar ein "failed" unter 500/500

Für mich schauts eher nach 'nem 'Fails' aus...

StefanV
2002-11-30, 12:42:59
Originally posted by Quasar
Mist, Bild vergessen...

Schaut für mich nach 'ner 7 aus...

Andere Vorschläge ?? ;)

Quasar
2002-11-30, 12:55:31
Keine Ahnung, aber solche Schmiernotizen bei mir sind auch oft unleserlich.
We'll see....

Pussycat
2002-11-30, 13:04:20
'Fjails' ist das einzige was ich draus lesen kann. Macht aber ned wirklich sinn, ne.

Eusti
2002-11-30, 14:13:23
@nagus: Ich hab dir hier mal ein Video (22,6 MB) (http://www.eusterwiemann.de/geforcefx.mpg) einer GeforceFX in Action verlinkt (Rechtsklick -> speichern unter). Wenn die Geforce solche Darstellungen schon mit 196MHZ bringt (siehe Stalker am Ende des Videos), dann muss sich deine 9700 bei den anvisierten 500MHZ aber ganz warm anziehen ;).

Xmas
2002-11-30, 15:43:51
Trotz des kleinen Häkchens darin sieht das für mich wie ein "Fails" aus, das sich als Überschrift auf das Wort darunter ("Shooter"?) bezieht.

nagus
2002-11-30, 17:05:53
Originally posted by Eusti
@nagus: Ich hab dir hier mal ein Video (22,6 MB) (http://www.eusterwiemann.de/geforcefx.mpg) einer GeforceFX in Action verlinkt (Rechtsklick -> speichern unter). Wenn die Geforce solche Darstellungen schon mit 196MHZ bringt (siehe Stalker am Ende des Videos), dann muss sich deine 9700 bei den anvisierten 500MHZ aber ganz warm anziehen ;).


1. danke für das video
2. wir sind im spekulations-forum! über die tatsächliche taktrate der GFFX in diesem video wissen wir nichts! tatsache ist aber, dass NVidia testsamples verschickt hat, die offensichtlich nur mit 200/400Mhz fehlerfrei laufen
3. im video sagt der sprecher auch, dass diese detailfülle durch die hohe vertex-shader leistung erreicht wird. tatsächlich hat die GFFX rein theoretisch nicht viel mehr vertext-shader leistung als eine Radeon 9700PRO.
4. ich habe nicht das gefühl, dass sich die Radeon 9700PRO warm anziehen muß. NVidia optimierte GFFX demos und reale spiele sind zwei verschiedene paar schuhe.

seahawk
2002-11-30, 18:14:50
Und nach der tollen Vorstellungauf Giga scheinen die Treiber auch nicht besser zu sein als bei ATI.

Hinsichtlich des Bildes : da steht fails !!

Aber ich denke da bezieht sich auf den Text darunter und nicht die 500/500 Mhz.

Birdman
2002-11-30, 22:39:23
Wenn da wirklich "Fails" steht dann steht das für irgendwas, aber sicher nicht dafür, ob die Karte mit 500/500Mhz läuft oder nicht.
Sorry, aber sowas hirnverbranntes macht keiner. Eine karte zu hoch takten, dies so sein lassen und auf nem beipackzettel schreiben das die karte nicht mit der eingestellten Frequenz läuft... für so ne Tat bräuchte es schon verdammt dumme leute und solche findest man höchstens in Kanada :D

Pussycat
2002-12-01, 17:10:00
Vielleciht sind das die, die beim Test abgefallen sind und daher nur für techdemos verwendet werden dürfen.... Aber warscheinlich erscheint mir das nicht.

Mehrpack
2002-12-01, 17:59:57
hi,
auf dem bild hat ja die gffx nen ziemlich grossen passiven kupferblock auf dem rücken, seh ich gerade, ist ja net ohne das ding.

ich denk mal das da noch einige wörter stehn auf dem zettel, denn man kann ihn ja net so und es sieht nach fails aus, welchen sinn das aber hat geht daraus ja net hervor.

Mehrpack

Unregistered
2002-12-01, 21:11:57
Sorry;

aber das heißt nie und nimmer "Fails". Schaut euch doch das "Foto" genau an. Da steht ein großes "F" dann zwei undefinierte Buchstaben und dann "ils". Das sogenannte "A" kann aber gar kein "A" sein, da dann das Fails als "FAils" geschrieben worden wäre mit einem komischen Mix aus Groß- und Kleinbuchstaben => also für mich ist das "Fails" völlig aus der Luft gegriffen.

oliht
2002-12-01, 21:45:12
Also ich würde mal ganz scharf auf frails tippen und das würde auch sinn machen.
Laut Wörterbuch:
frail1 (fr³l) adj. frail·er, frail·est. 1. Physically weak; delicate: an invalid's frail body. 2. Not strong or substantial; slight: evidence too frail to stand up in court. 3. Easily broken or destroyed; fragile. 4. Easily led astray; morally weak. See Synonyms at weak. [Middle English frele, from Old French, from Latin fragilis, from frangere, frag-, to break. See bhreg- below.] --frail“ly adv. --frail“ness n

Hexmaster
2002-12-01, 23:13:05
Mal ne Frage:

Wie schwer soll die GFFX eigentlich werden mit diesem riesigen Kupferkühlkörper ?
(wenn das wirklich der Kühler sein sollte der später drauf kommt)

Quasar
2002-12-01, 23:34:14
Naja, den Gewichtsrekord wird man mit diesem Referenzkühler sicher einfahren können. Grobe Schätzung: 550-650g.
(Die Asus v8460u DeLuxe wiegt ca. 440g)

Quasar
2002-12-01, 23:37:15
Originally posted by oliht
Also ich würde mal ganz scharf auf frails tippen und das würde auch sinn machen.
Laut Wörterbuch:
frail1 (fr³l) adj. frail·er, frail·est. 1. Physically weak; delicate: an invalid's frail body. 2. Not strong or substantial; slight: evidence too frail to stand up in court. 3. Easily broken or destroyed; fragile. 4. Easily led astray; morally weak. See Synonyms at weak. [Middle English frele, from Old French, from Latin fragilis, from frangere, frag-, to break. See bhreg- below.] --frail“ly adv. --frail“ness n

Adjektive bekommen aber nicht das "third-person-s" wie Verben, sonst hätte ich auch schon auf "frail" als Wortstamm getippt....

Mehrpack
2002-12-02, 00:06:55
hi,
mhh ich hab mir das wort nochmal angeschaut und mal etwas dran rumgebastelt.
also am ende kann man da vieles rein interpretieren.
von fails, frails bishin zu bails, ne name vielleicht.
ich denke mal das man da net wirklich sicher sein kann was da steht und es am ende nur mehr raten ist.

Mehrpack

Unregistered
2002-12-02, 01:12:22
Das der GF-FX aktueller und schneller sein wird als ne 9700pro ist doch wohl klar. DIe Karte ist ja auch fast 1 Jahr neuer als Ati's. Ausserdem holt man aus der 13µm Fertigung wesentlich mehr raus. Vergesst nicht der Tapeout vom radeon9700 war letztes jahr im Januar/Februar. damals gabs schon erste testsamples von lauffähigen Karten. Die Radeon ist einfach eine halbe Generation älter als die FX. Nicht umsonnst steht der R350 bereits in den Startlöchern. Das ist nämlich voll sinnlos Die Karte schlecht zu reden, nur weil man eine ebenfalls immernoch sehr gute 9700pro dann hat. Aber die Krone wird neu vergeben, da sind sich viele Stimmen einig. Ausserdem peilt Nvidia mit der Großen Ultra bzw. QuadroFX nicht euch Gamer an, sondern die Großen Firmen, die mit Rendering ihr Geld verdienen. Nicht umsonnst hat sich jemand von Industrial Light & Magic dazu breit schlagen lassen für Nvidia Werbung zu machen. Der DesktopMarkt sind doch nur kleine Peanuts, das große Geld wird ganz woanders gemacht.

Another-Unregistered
2002-12-02, 02:33:48
Hm, da kann ich dir nicht so ganz zustimmen. Ich glaube kaum das sich die NV-Lösung im Rendering-Bereich durchsetzt. Shader sind was feines für Techdemos und Games wird aber so nie im Proff. Bereich eingesetzt werden.
Ich arbeite selber mit Maya, dort hat mann jetzt schon 2 Rendering verfahren : den normalen Software Renderer und nen Hardwarebuffer Renderer für Partikel Effekte. Und das wird schon sehr kompliziert bei grossen Szenen weil es getrennt gerendert wird und später z.b. mit After-Effekts wieder reingebracht wird.
Wenn mann jetzt bei komplexen Szenen auch noch nen teil der normalen Shader mal in Software mal in Hardware renderen würde gäbe das nen ganz schönes Chaos. Ende vom Lied--> mehr Aufwand als wenn alles normal über Software Shader gemacht wird. Ist aber vom Prinziep her nen Schritt in die richtige Richtung und wird irgendwann, wenn die Karten mal wirklich leistungsfähig genug dafür sind, das Software Rendern ablösen.

Ailuros
2002-12-02, 08:19:01
Koestlich :)

Eine Webseite veroeffentlicht ein paar Bildchen, wobei keiner weiss um was es sich handelt und wie alt die Bilder eigentlich sind.

Hier mal eine Kleinigkeit die Mitte Juni 2002 in meine Haende geraten ist:

ATi's PCB demarkation system (the "PN" code) follows no set pattern. They produce about original 100 items a year and every single one receives a PN code, whether it be a dongle/remote control/graphics card etc. "109" indicates a board product.

The ASIC revision is not related to the board number at all. Newer ASICS just get loaded into the same board over the course of development to incorporate changes in memory type, board layout, special vendor requests etc. The few that make it through development we see on the shelves

Computex card: "PN 109-94200-00A"

"00A" indicates an initial test version. This is incremented with each new revision. 00A>>>00B>>>etc.

"942" is the R300. It uses a 256-bit memory interface (confirmed) and is fully DX9 compatible (I guess we know that already). JIGGAHERTZ posted a good explanation regarding PCB layers, and why the board at first looks like it could use either a 128-bit (32-bit share) or 256-bit memory bus, but is in fact a 256-bit bus'ed R300 for sure:

"Signal integrity is very important for high-speed SSTL_2 signals. However, adding extra layers is just a quick fix for poor manufacturing/design. With proper PCB layout, it can accomplished. The R300 942 board is only 8-layers, I believe. The overseas companies have poor quality control, and fear they may have to resort to 10 layers, even if they do follow ATI's reference designs - but they dont want to do this as their only edge in the market is cost.

It is true that memory sometimes shares a bus. As for proof of a true 256 bit interface (which it is - no sharing) - take a look at the datasheet for the memory bga packaging. Then visualize 2 memory chips on the board. Then look at the traces (some are on internal layers) and the resistor packs (4 SMT resistors in one package) inline with the traces (serial and active memory termination). Well, since you have already spent a few hours on photoshop, you might as well spend a few more so you can verify it for yourself. Take a regular 128MB board (AIW 8500 836 etc., whatever works for you) and start counting these resistor packs. You should end up with approximately twice as many with the 942. Thats your proof.

This simply means twice as many terminated memory lines between memory and GPU. If there was any sharing, you would see the chips memory lines tied together and then routed to the GPU - only 128 bit interface."

The only other board based on the R300 in development is an AIW model (as far as my source was able to find out... there may be more). ATi are keen to retain this as their "flagship" card. 942 will be used for desktop sales only but may also surface in the FireGL line. We have seen PN 857 (the R200) pop up as the FireGL 8700 already so it has been done before.

The soldering pads on the Computex card that look like they may be for a ribbon-type connector are to facilitate the connection of a daughtercard to provide additional multimedia features. This information was published in the Inquirer not long ago and is correct (which is pretty good going for The Inquirer, lol). The daughtercards can interface with either RV250 or R300's equipped to do so. This is the reason that neither card features a Rage Theater chip... CVBS/S-VHS TV and secondary VGA output are all handled on-die.

I couldn't find out alot about the GPU internals as the source is not familiar with the specifics (pipeline/TMU config etc). The hardware development team is a fairly isolated group. The "1000 Monkeys Sitting at 1000 Typewriters" that we like to call the ATi software development team are given more than enough information (regarding registers etc) to work with, without knowing the specifics of the hardware. 8/4 (pipes/TMUs) looks likely for R300, if not then 8/2 - DX9 only calls for 16 textures per pass (I think). 2/2 makes sense given RV250's current clockspeed and performance estimates (very close to R200 in most situations). The RV250 is a "toned-down" R200 core w/TV-out and a secondary RAMDAC on die. Whether this toning down involves the removal of two rendering pipelines I do not know for sure. (Edit - I missed out the "not", oops)

According to feedback on current yields:
The R300 is capable of ~<250 MHz core w/0.15u.
The RV250 is capable of ~<325 MHz core w/0.15u.

Regarding memory; supply is currently a problem (not that it isn't available, it's just that fast memory is in short supply). The R300 was designed with 400MHz memory I/O in mind. For Computex, the fastest memory available was used (350MHz DDR SGRAM Samsung BGA) - there were a few other qualification samples to be tested. By fall, 400-450MHz will be more widely available so may be seen on the production card.

PN 109-9****-*** is an RV250-based product that uses TSOP memory. PN 109-9****-*** is an RV250-based product that uses BGA memory. Cannot give you the exact numbers but they have been posted here if you were quick enough to get them before I deleted the post.

The memory on the TSOP and BGA versions of the RV250 runs at 200MHz and 300MHz respectively. This is a good indicator that ATi will phase out the 7500 and 8500 altogether (the standard models at least) although the parts may be available to 3rd parties for sometime. There may also be huge stockpiles so watch out for 7500/8500 boards dropping in price.

The main push at ATi at the moment IS to beat the NV30 to the market by a considerable margin. Orton insists on it to remain competitive and gain back some market share. Things look set for a fall release as planned.

AFAIK, all hardware engineering is completed and the code monkeys are currently slaving away on the drivers. The base code is similar to previous generations but alot of work needs to be done to efficiently use the new memory subsystem. I guess the marketing team are also getting pretty frenzied around this time, although I hear they have yet to decide on a name for either card ("Porgy" and "Bess" are current favourites).

Wenn's nicht klar genug ist, rechnet die Monate aus zwischen Juni und dem Zeitpunkt wo R300 fuer Massen-Produktion ausgesetzt wurde. Damals war der chip mit weniger als 250MHz stabil im Labor. Da ein paar Kleinigkeiten "mit der Hand" modifiziert wurden, war 325MHz nicht unmoeglich als erster Versuch mit der gegebenen Komplexitaet des chips auf .15um.

Eigentlich 0 Ahnung
2002-12-02, 19:03:03
Originally posted by Mehrpack
hi,
mhh ich hab mir das wort nochmal angeschaut und mal etwas dran rumgebastelt.
also am ende kann man da vieles rein interpretieren.
von fails, frails bishin zu bails, ne name vielleicht.
ich denke mal das man da net wirklich sicher sein kann was da steht und es am ende nur mehr raten ist.

Mehrpack

Aber war die Matroxkarte nicht auch neuer und toller als alle andren und hat jämmerlich versagt, zumindest im Spielesektor...

Birdman
2002-12-02, 19:04:34
Originally posted by Unregistered
Das der GF-FX aktueller und schneller sein wird als ne 9700pro ist doch wohl klar. DIe Karte ist ja auch fast 1 Jahr neuer als Ati's.
loooool, nix für ungut, aber wenn wir auf ganze Jahre runden dann ist die GFX eher gleich alt wie die R9k7 als 1 jahr jünger...
Die ersten Radeon karten konnte man anfangs Oktober kaufen, und die GFFX wird es wohl anfangs Februar geben --> 4 Monate differenz.

Unregistered
2002-12-02, 20:50:53
Originally posted by Birdman

loooool, nix für ungut, aber wenn wir auf ganze Jahre runden dann ist die GFX eher gleich alt wie die R9k7 als 1 jahr jünger...
Die ersten Radeon karten konnte man anfangs Oktober kaufen, und die GFFX wird es wohl anfangs Februar geben --> 4 Monate differenz.

Anfang September!

GFfx Anfang Feb 03 => Abwarten und Tee trinken

Mehrpack
2002-12-03, 15:45:10
Originally posted by Eigentlich 0 Ahnung


Aber war die Matroxkarte nicht auch neuer und toller als alle andren und hat jämmerlich versagt, zumindest im Spielesektor...

hi,
was hat das mit dem post bom mir zu tun?!
aber ich will mich garnicht zu der leistung der GFFX äussern, denn bis jetzt gab es nur papier mit hübschen zahlen und sogenannten benchmarks.
es ist zwar zu erwarten das sie schnell ist, aber wie schnell kann man erst sagen wenn man dazu benches sieht.
und es ist bei der leistung vieles möglich.
aber wir werden es erst sehn wenn es soweit ist.

Mehrpack

vario712
2002-12-03, 16:24:17
Also das Fail kann sich auf 100 andere Funktionen des Chips beziehen!
z.B. internal TMDS, Svideo-out, 2. Ausgang, bestimmter Benchmark,...
die 190-210 könne sich auf Frameraten in speziellen Benchmarks, max. Bandbreite,optimales, kritisches, Timing,...

Ich denke mal, daß die Chips mit 500/500 starten werden müßen um ca. 30% schneller als eine 9700 zu sein :))

Aquaschaf
2002-12-30, 12:29:34
Originally posted by Eusti
@nagus: Ich hab dir hier mal ein Video (22,6 MB) (http://www.eusterwiemann.de/geforcefx.mpg) einer GeforceFX in Action verlinkt (Rechtsklick -> speichern unter). Wenn die Geforce solche Darstellungen schon mit 196MHZ bringt (siehe Stalker am Ende des Videos), dann muss sich deine 9700 bei den anvisierten 500MHZ aber ganz warm anziehen ;).
naja bei gleicher taktrate ist die radeon schneller als die FX ...
zumindest den theoretischen Angaben nach .

Demirug
2002-12-30, 12:40:30
Originally posted by Aquaschaf

naja bei gleicher taktrate ist die radeon schneller als die FX ...
zumindest den theoretischen Angaben nach .

Richtig, bei der Vertexleistung und den AA-Samples. In beiden Fällen gewinnt die 9700 Pro einfach dadurch das sie mehr Einheiten dafür hat.

Bei der Texel und Pixelfillrate gibt es keinen unterschied. Und über den aufbau und die Arbeitsweise der PixelShader haben beide zuwenig offengelegt um hier etwas zu sagen.

Aber du schreibst ja schön theoretisch. Das sie die Papierform leider nicht auf echte Anwendungen übertragen läst muss man ja immer wieder feststellen.

robbitop
2002-12-31, 11:56:21
wobei die Vertexleistung in den Regionen für Games derartig overkill zur Zeit ist, dass man das vernachlässigen kann.

Die frage ist, wie es mit den AA Samples ausschaut..

Pussycat
2002-12-31, 13:41:11
Originally posted by Eusti

Ach Nagus. Warum glaubst du nicht, das die Grafikkartenhersteller den Prozess der Chipherstellung mit der Zeit nicht immer besser beherschen. AMD, Intel & Co sind in der Lage, mit der Kühlung der GFFX Chips herzustellen, welche mit 2-4GHZ laufen. Warum sollenn Grafikkartenhersteller es dann nicht schaffen, sich ganz langsam (0,5GHZ bei GFFX) an diese Regionen heranzutasten?


Weil eine Grafikkarte keine CPU ist.

Eusti
2002-12-31, 14:47:15
Originally posted by Pussycat
Weil eine Grafikkarte keine CPU ist. Womit du dann annimmst, das es nicht möglich ist 12,5-25% von 2-4GHZ zu erreichen? 12,5%!!!

nggalai
2002-12-31, 14:52:43
Originally posted by Eusti
Womit du dann annimmst, das es nicht möglich ist 12,5-25% von 2-4GHZ zu erreichen? 12,5%!!! Naja, die GFFX hat ja auch ein "wenig" mehr Transistoren als die genannten CPUs . . . ;)

ta,
-Sascha.rb

Exxtreme
2002-12-31, 15:04:31
Originally posted by nggalai
Naja, die GFFX hat ja auch ein "wenig" mehr Transistoren als die genannten CPUs . . . ;)

ta,
-Sascha.rb
Eben. Hinzu kommt noch, daß die CPUs zu grossen Teilen aus Cache bestehen im Gegensatz zu den Grafikchips. Es wird ein anderer Produktionsprozess fällig und Cache erzeugt AFAIK nicht soviel Wärme.

Demirug
2002-12-31, 15:26:37
Originally posted by Exxtreme

Eben. Hinzu kommt noch, daß die CPUs zu grossen Teilen aus Cache bestehen im Gegensatz zu den Grafikchips. Es wird ein anderer Produktionsprozess fällig und Cache erzeugt AFAIK nicht soviel Wärme.

ja Cache erzeugt relative wenig Wärme da ja dort kaum Ladungsbewegungen statfinden. Nur wenn was in den Cache geschrieben oder ausgelesen wird. Da dies aber immer nur relative wenige Transitoren betrifft wird es da nicht so warm.

Zudem muss man auch noch berücksichtigen das bei einem Grafikchip von der Funktionalen Fläche prozentual mehr gleichzeitig aktiv ist als bei einer CPU.

Quasar
2002-12-31, 15:30:51
Deswegen ist Eusti ja auch bereit, sich mit 12,5%-25% (nicht nachgerechnet) der aktuellen CPU-Frequenz zu bescheiden.
Es geht ja gar nicht darum, GPUs mit 3GHz laufen zu lassen.

nggalai
2002-12-31, 15:54:52
Originally posted by Quasar
Deswegen ist Eusti ja auch bereit, sich mit 12,5%-25% (nicht nachgerechnet) der aktuellen CPU-Frequenz zu bescheiden.
Es geht ja gar nicht darum, GPUs mit 3GHz laufen zu lassen. Aber 25% von 2GHz SIND 500MHz. Für einen Chip mit 3x sovielen Transistoren wie ein P4, wovon deutlich weniger als Cache verwendet werden, ist das eigentlich schonmal sehr beachtlich. Wo liegt das Problem? Dass spätere Chips auch noch höher kommen werden, sollte ja klar sein.

ta,
-Sascha.rb

Quasar
2002-12-31, 16:01:31
Das Problem war doch, dass ursprünglich (und vor dem Vorstellungstermin) nagus nicht glauben mochte, dass die GFFX mit 500MHz liefe. Und daraus entwickelte sich diese Diskussion. =)

nggalai
2002-12-31, 16:07:23
Aaaaaaaaaaaah. OK. Danke für den Hinweis, Quasar. :)

ta,
-Sascha.rb

Eusti
2002-12-31, 16:18:33
Originally posted by Quasar
Deswegen ist Eusti ja auch bereit, sich mit 12,5%-25% (nicht nachgerechnet) der aktuellen CPU-Frequenz zu bescheiden.
Es geht ja gar nicht darum, GPUs mit 3GHz laufen zu lassen. Puhhh. Wenigstens einer, der mich versteht. :)

Mehrpack
2003-01-01, 04:23:29
hi,
naja ich frage mich nur wo das noch hingehn soll mit der abwärme.
das flow FX ist ja in dem sinne net schlecht von der idee her, hoffe mal das das ding net so klingen wird wie nen staubsauger hehe, aber wenn schon sowas "nötig" wird um den chip auf 500 MHz zubekommen, dann muss sich NV wohl was für den NV35 einfallen lassen wärmetechnisch.

Mehrpack

Richthofen
2003-01-01, 12:04:17
Das glaub ich gar nicht mal.
Der 0.13 steht erst am Anfang und mit der Zeit findet man sowohl Design als auch Prozessoptimierungen wie man das bei CPUs findet.
Ich glaube das der NV35 mit der selben Kühlung 150 bis 200 MHZ mehr machen wird.
Wahrscheinlich wird man ein bisschen was an der Anordnung verändern oder hier und da ein bissl prozeßtechnisch optimieren und dann geht das.
Die FX ist für den 0.13 noch nicht das Maximum. Das ist der erste Versuch eines solch komplexen 3D Chips auf 0.13 und insofern erwarte ich nicht, dass man hier schon bei 100% des Möglichen angelangt ist.
Das wäre ja langweilig.

robbitop
2003-01-01, 16:38:07
richtig ausserde mist der 0,13µ Prozess (hier die Serienfertigung) noch recht unoptimiert.

Und dieser ist bandneu im GPU Bereich (weil ja so komplex) und wird Grundlage für GPUs der nächsten 2 Jahre sein also wohl auch für die NV4x sein R4xx und da is noch einiges drin. Sicher auch 600Mhz für die GF FX...

Spake
2003-01-04, 19:36:29
möglich wärs allemal
mit dem ersten Throughbred auf 2200+ konnte man ja auch kaum übertakten aber nach der B-version läuft dieser bereits auf bis zu 2800+
es liegt wohl wirklich am frühen entwicklungsstadium des fertigungsprozesses
Ati war in dieser hinsicht schlau nvidia in den sauren Apfel beißen zu lassen und selber die fortschritte von nvidia bei ihrer entwicklung mit einfließen zu lassen

Mehrpack
2003-01-05, 08:58:34
Originally posted by Richthofen
Das glaub ich gar nicht mal.
Der 0.13 steht erst am Anfang und mit der Zeit findet man sowohl Design als auch Prozessoptimierungen wie man das bei CPUs findet.
Ich glaube das der NV35 mit der selben Kühlung 150 bis 200 MHZ mehr machen wird.
Wahrscheinlich wird man ein bisschen was an der Anordnung verändern oder hier und da ein bissl prozeßtechnisch optimieren und dann geht das.
Die FX ist für den 0.13 noch nicht das Maximum. Das ist der erste Versuch eines solch komplexen 3D Chips auf 0.13 und insofern erwarte ich nicht, dass man hier schon bei 100% des Möglichen angelangt ist.
Das wäre ja langweilig.

hi,
ok daran hatte ich nicht gedacht, aber man muss sehn wieviel sich da noch rausholen lässt.
bloss trotzdem hab ich irgendwie zukunftsmässig und kühltechnisch nen schauder übern rücken laufen, mal sehn wie sich die sache entwickelt.

Mehrpack

Eusti
2003-01-05, 09:51:35
Originally posted by Mehrpack
hi,
ok daran hatte ich nicht gedacht, aber man muss sehn wieviel sich da noch rausholen lässt.
bloss trotzdem hab ich irgendwie zukunftsmässig und kühltechnisch nen schauder übern rücken laufen, mal sehn wie sich die sache entwickelt.

Mehrpack Ach, da brauch es dich nicht schaudern. Die Firmen gehen Kühltechnisch so weit, wie der Kunde sich darin noch einen Vorteil verspricht.

Wenn die Kunden irgendwann sagen: "3 belegte PCI Plätze für einen 12cm Grafikkühler, sind mir die 12,7GHZ Leistung nicht wert, da fahr ich meine Graka lieber auf nur 9GHZ", dann werden die Kühler auch wieder verschwinden, bzw. es wird wieder Passiv-Kühler geben.

Bereits heute würde man alles passiv kühlen, wenn man die Mehrleistung nicht deutlich sehen würde. Passiv kühlen könntest du heute beispielweise einen 1,5GHZ P4 mit einer 200MHZ Graka. Aber diese Leistung reicht den Kunden vorne und hinten nicht. Also wird gekühlt auf "Teufel komm raus".

Ailuros
2003-01-05, 10:00:30
Es ist nicht ein absolutes Muss dass NV35 um alles in der Welt hoehere Taktraten haben muss als NV30. Da haengt es eher davon ab wie die ganze Architektur re-definiert wird, wobei der endgueltige Verbraucher-Preis auch eine Rolle spielt.

Es ist nicht unmoeglich heute ein 600MHz/~40GB/s Monster zu bauen; Frage ist nur was es kostet es herzustellen und wieviel es dann am Ende kosten muesste, um wenigstens die Unkosten zu bedecken.

Endorphine
2003-01-05, 10:53:30
Originally posted by Eusti
Passiv kühlen könntest du heute beispielweise einen 1,5GHZ P4 mit einer 200MHZ Graka. Aber diese Leistung reicht den Kunden vorne und hinten nicht. Also wird gekühlt auf "Teufel komm raus".

Woher nimmst du die Weisheit? Ein P4 1.6A hat eine Thermal Design Power von 46,8 Watt. Bei 1,5 GHz und herabgesetzter Spannung (ich bin mal optimistisch) bleiben davon noch deutlich über 30 W übrig.

Wie möchtest du das passiv kühlen? Ich meine native passive Kühlung, nicht ein passiver Kühler, der dann von einem Gehäuselüfter angeblasen wird oder ähnliches.

Und ich wage auch mal zu behaupten, dass ein Grossteil der User mit passiv gekühlten Radeon 9000 (ohne Pro) leistungsmässig nicht zufrieden wären. Sonst würde es ja längst einen Run auf diese Modelle geben. Und wenn man die schnelleren Grafikkarten allesamt mit Kühlern wie dem Zalman ZM80A-HP ausstatten würde, würden die Preise der Grafikkarten im nu deutlich nach oben gehen. Ausserdem benötigt man dann woanders doch wieder einen Gehäuselüfter, um die Wärme aus dem Rechner hinauszubefördern und ein Minimum an Luftstrom durch das Gehäuse zu gewährleisten.

Passive Kühlung ist derzeit nur mit drastischem Verzicht auf Leistung möglich. Bei Notebooks kannst du ja sehen, wie der Stand der Dinge ist.

Eusti
2003-01-05, 11:30:40
Originally posted by Endorphine

Woher nimmst du die Weisheit?

Ein P4 1.6A hat eine Thermal Design Power von 46,8 Watt. Bei 1,5 GHz und herabgesetzter Spannung (ich bin mal optimistisch) bleiben davon noch deutlich über 30 W übrig. Wie möchtest du das passiv kühlen? Ich meine native passive Kühlung, nicht ein passiver Kühler, der dann von einem Gehäuselüfter angeblasen wird oder ähnliches.Z.B. von Herstellern wie OCZ Technology (http://www.ocztechnology.com/products/heatsink_specs.php?id=4), welche einen Kühler liefern, welcher einen P4 mit 2GHZ und normaler Spannungsversorgung passiv kühlen kann.

Bild des Kühlkörpers:
http://www.ocztechnology.com/images/P4-New-Web.jpg (http://babelfish.altavista.com/urltrurl?lp=en_de&url=http%3A%2F%2Fwww.ocztechnology.com%2Fproducts%2Fheatsinks%2Fp4eliminator%2Fp assive_hs.asp).


Ja, wie du richtig bermerkst, benötigst du dafür eine Gehäusebelüftung, aber 2GHZ kann man schon passiv kühlen. Meine 1,5GHZ waren nee grobe Schätzung. Wenn man die VCore um 10% zurücknimmt (oder mehr) und die Taktrate auf 1,5GHZ senkt, sehe ich kein Problem in einer Passivkühlung.

nggalai
2003-01-05, 12:35:59
Hi Endorphine,

ich hatte meinen 1.26GHz PIII-S (Tualatin, .13um) eine Weile ohne Ventilator am laufen, nur mit dem beigepackten Intel-Alu-Kühlkörper. Wurde zwar deutlich heisser als mit Lüfter, lief aber Prime95-stabil, über 24h Dauerbetrieb. Ich hab' den Lüfter später wieder angeschlossen, erstens weil's mir einfach wohler damit ist, zweitens weil ich das Teil gerne auf 1.4GHz übertaktet fahre. ;)

Mit einem guten Kupferkühlkörper könnte man das Teil sicherlich auch auf 1.4GHz ohne Lüfter laufen lassen, wenn man denn den Nerv zu hat.

ta,
-Sascha.rb

Pussycat
2003-01-05, 20:31:45
Ein P4 funktioniert auch ohne kühler prima. Nur etwas langsamer. Beim übertakten/leise Kühlen von denen muss man gut aufpassen.

Spake
2003-01-05, 22:15:13
ohne kühler?!!!!!!!!!1
bei wie vielen Gehäuselüftern denn

Mehrpack
2003-01-06, 01:20:49
hi,
wenn es das mainboard unterstützt dann kann sich der p4 selbstständig runtertakten wenn es ihm zu warm wird.
aber wenn er dann eine bestimmte temperatur überschreitet schaltet er sich ganz ab.

also passive kühlung wird es in zukunft nicht mehr geben, da die designs immer komplexer werden und auch mehr energie verbraucht wird, auch wenn es immer kleiner wird.
das einzigste was wohl eine passive kühlung ermöglichen würde, wäre ein anderer stoff welcher hitzebeständiger ist.
soweit ich weiss wäre ja diamant dazu geeignet, jedenfalls habe die das mal vor ein paar jahren in ner wissenschaftssendung behauptet, bloss da sie immer noch dabei sind zu erforschen diamant künstlich waschen zu lassen wird es noch etwas dauern...

Mehrpack

Spake
2003-01-06, 02:06:31
es gibt bereits ergebnisse mit diamanthalbleitern welche sogar sehr erfolgreich sin
jedoch sind die noch seeeeeeeeeeeeeeeehr weit entfernt davon den massenmarkt zu erreichen

AlfredENeumann
2003-01-06, 02:26:43
Mal ein wenig abschweifen vom Thema. In den letzten Tagenb viel öfter das die Karte mit dem jetzigen Lüfter sehr schwer sein soll, sprich über 600g. Ab welchem gewicht wird es eigentlich für das Board/den BUS gefährlich ?

Mehrpack
2003-01-06, 04:55:46
hi,
du meinst wann es dir den slot rausreisen kann?
ich glaube mal gehört zu haben 600g und etwas rupige bewegungen reichen schon aus.
aber in wie weit da die 2 fache anschraubung da entgegenwirkt kann ich net sagen.
bloss ich denk mal bei der ultra sollte man gegen den pc lieber net mal rammeln und wärent des transportes die karte lieber ausbaun.

Mehrpack

Hui!
2003-01-06, 05:31:16
600g sind doch nicht viel, ich könnte mir nicht vorstellen wie dieses Gewicht einen Slot demolieren könnte.
Außerdem muss man ja, wie Mp schon gesagt hat an die doppelte Verschraubung denken, dadurch wird die Karte ja noch mal Quasi nach unten wo das meiste Gewicht ruht abgestützt.

StefanV
2003-01-06, 13:33:56
Originally posted by Hui!
600g sind doch nicht viel, ich könnte mir nicht vorstellen wie dieses Gewicht einen Slot demolieren könnte.
Außerdem muss man ja, wie Mp schon gesagt hat an die doppelte Verschraubung denken, dadurch wird die Karte ja noch mal Quasi nach unten wo das meiste Gewicht ruht abgestützt.

1. die 400g vom Zalman Heatpipe sind schon sehr viel.
Und die 760g vom MC-462 sind noch mehr...

2. SO viel, wie du glaubst, bringt die 'doppelte Verschraubung' auch nicht, das meiste hängt im/am Slot.

*Spam editiert* *ow*

seahawk
2003-01-06, 13:46:52
Bestimmt, wenn Du denn Rechner aus 1m Höhe fallen läst.

Auf dem AGP Port dürften ca. 300-400 g lasten. Die Last wirkt rein vertikal, da die dopplete Verschraubung den Aufbau von Drehmomenten um den AGP Port verhindert. Die reine vertikale Last dürfte Zu 50-70 % auf dem Port lasten.

Unter normalen Bedingungen sollte da kein Problem bestehen. Unverschraubt könnte es anders aussehen.

(Ist so ne grobe Schätzung entsprechend meiner Statikkenntnisse (Dipl- BauIng.))

Endorphine
2003-01-06, 13:53:04
<Off-Topic>
Originally posted by Eusti
Z.B. von Herstellern wie OCZ Technology (http://www.ocztechnology.com/products/heatsink_specs.php?id=4), welche einen Kühler liefern, welcher einen P4 mit 2GHZ und normaler Spannungsversorgung passiv kühlen kann.

Bild des Kühlkörpers:
http://www.ocztechnology.com/images/P4-New-Web.jpg (http://babelfish.altavista.com/urltrurl?lp=en_de&url=http%3A%2F%2Fwww.ocztechnology.com%2Fproducts%2Fheatsinks%2Fp4eliminator%2Fp assive_hs.asp).


Über diesen Kühler hatte ich mich schon mal ausgelassen. Wenn mich nicht alles täuscht war das sogar mein allererstes Posting im 3dc-Forum... Meiner Meinung nach ist das Ding vollkommen untauglich, um einen 2 GHz P4 wirklich passiv zu kühlen. Also ohne Verlagerung des Lüfters an eine andere Stelle. Das ist aber notwendig, da der Kühler einfach schlicht und ergreifend viel zu wenig Raum einnimmt, um dauerhaft ~70 Watt (2 GHz Willamette) abzuführen. Wenn man den CPU-Lüfter auf dem Kühler aber nur für viel Geld an die Gehäusewand verlagert, kann man sich den Aufwand auch gleich sparen und zu einem leistungsfähigen Kühler mit extrem langsam drehenden 80mm Lüfter greifen. Der rotiert dann zudem noch im geschlossenen Gehäuse. Was ist nun leiser? ;)
Originally posted by Eusti
Ja, wie du richtig bermerkst, benötigst du dafür eine Gehäusebelüftung, aber 2GHZ kann man schon passiv kühlen. Meine 1,5GHZ waren nee grobe Schätzung. Wenn man die VCore um 10% zurücknimmt (oder mehr) und die Taktrate auf 1,5GHZ senkt, sehe ich kein Problem in einer Passivkühlung.
Wie schon gesagt, dann bleiben noch ~35 Watt Abwärme übrig. Das kann man passiv kühlen, empfehlenswert ist es nicht, die CPU heizt sich dabei extrem auf. Der P4 dürfte dann unter Last recht oft Throttelingzyklen einlegen und die Leistung ins bodenlose fallen lassen.

Originally posted by nggalai
Hi Endorphine,

ich hatte meinen 1.26GHz PIII-S (Tualatin, .13um) eine Weile ohne Ventilator am laufen, nur mit dem beigepackten Intel-Alu-Kühlkörper. Wurde zwar deutlich heisser als mit Lüfter, lief aber Prime95-stabil, über 24h Dauerbetrieb. Ich hab' den Lüfter später wieder angeschlossen, erstens weil's mir einfach wohler damit ist, zweitens weil ich das Teil gerne auf 1.4GHz übertaktet fahre. ;)

Mit einem guten Kupferkühlkörper könnte man das Teil sicherlich auch auf 1.4GHz ohne Lüfter laufen lassen, wenn man denn den Nerv zu hat.
ta,
-Sascha.rb
Ja, wie schon gesagt, es ist prinzipiell möglich, bis zu 30 Watt irgendwie passiv abzuführen, wenn man ein wenig erzwungenen Luftstrom über den CPU-Kühler leitet. Ich stelle jetzt wieder die Frage nach dem Sinn: Was ist sinnvoller - Gehäuselüfter oder Lüfter auf dem CPU-Kühler?

Das muss wohl jeder für sich entscheiden. Einen richtig ernsthaften Ansatz in passiver Kühlung sehe ich nur in einem Konzept: Heatpipe von der CPU an großflächige Aluminium-Gehäusewand mit Kühlrippen an der Aussenseite. Das ganze muss nur für unterschiedliche Mainboards taugen.
</Off-Topic>

Sorry für OT.

StefanV
2003-01-06, 14:34:55
Es gibt aber passiv gekühlte P4 mit 2 GHz +.

Dafür werden aber meist modifizierte Gehäuse samt Heatpipe eingesetzt.

Quasar
2003-01-06, 17:01:54
Hm, mein Handy wird teil's im 1,8GHz-Bereich aktiv und wird überhaupt nicht warm.....

Also, Wayne interessiert's?

Spake
2003-01-06, 17:57:53
@ seahawk
nun ja die meißten die sich so eine GraKa holen sind sowieso gamer und die gehen auch gerne auf LANs

stell dir mal vor du musst dann über einen schotterweg fahren um zur LAN zu gelangen
die KArte muss man dann bei jedem transport ausbauen nervt schon

überhaupt find ich es scheiße wie stark die AGP-spezifikationen missachtet werden
der extra Stromanschluß und die doppelte verschraubung und die belegung des PCI-anschlußes

ich frag mich wirklich ob solche Karten wie die nv31 überhaupt in den OEM-Markt kommen
als die voodoo draußen war wurde die auch nie im diesem markt eingesetz weils zu aufwendig war

zeckensack
2003-01-06, 17:59:01
Originally posted by Eusti
Z.B. von Herstellern wie OCZ Technology (http://www.ocztechnology.com/products/heatsink_specs.php?id=4), welche einen Kühler liefern, welcher einen P4 mit 2GHZ und normaler Spannungsversorgung passiv kühlen kann.

Bild des Kühlkörpers:
http://www.ocztechnology.com/images/P4-New-Web.jpg (http://babelfish.altavista.com/urltrurl?lp=en_de&url=http%3A%2F%2Fwww.ocztechnology.com%2Fproducts%2Fheatsinks%2Fp4eliminator%2Fp assive_hs.asp).

*gnarf*

Der P4 wird sich munter runterdrosseln, das ist eben das besondere an dieser CPU. Viel Spaß mit dem leisen System, du solltest dir aber im klaren sein, daß du genausogut einen Celeron 566 hättest kaufen können, der wäre auch nicht langsamer ...

seahawk
2003-01-06, 18:13:21
Originally posted by Spake
@ seahawk
nun ja die meißten die sich so eine GraKa holen sind sowieso gamer und die gehen auch gerne auf LANs

stell dir mal vor du musst dann über einen schotterweg fahren um zur LAN zu gelangen
die KArte muss man dann bei jedem transport ausbauen nervt schon

überhaupt find ich es scheiße wie stark die AGP-spezifikationen missachtet werden
der extra Stromanschluß und die doppelte verschraubung und die belegung des PCI-anschlußes

ich frag mich wirklich ob solche Karten wie die nv31 überhaupt in den OEM-Markt kommen
als die voodoo draußen war wurde die auch nie im diesem markt eingesetz weils zu aufwendig war

Also im Normalfall lege ich den PC zum Transport auf die Seite, so dass das Mobo nach oben zeigt. Dann sehe ich kein Problem so zur LAN zu fahren. Hingestellt hätte ich mehr Angst um den CPU Kühler als um die Grafikkarte.

Spake
2003-01-06, 18:17:23
@ seahawk

stimmt hast recht aber stell dir mal vor ein richtiges bonzenkind bekommt so ein ding geschenkt und hat natürlich keine Ahnung

während er den PC ein oder auspackt(bei einer LAN) schüttelt er ihn noch und dreht in um usw.
die mutter macht auch noch ein paar sachen und dann hat er die GraKa noch nicht einmal richtig befestigt
-->ein alptraum

seahawk
2003-01-06, 18:21:14
Dann ist die FX kaputt, wie auch der CPU Sockel und wahrscheinlich auch eine Radeon kaputt wäre oder eine GeForce 4 ....

Einen Schutz vor dem DAU gibt es nicht ....

Spake
2003-01-06, 18:29:32
so eine karte in OEM-rechnern wär wirklich scheiße

Crazytype
2003-01-06, 19:39:11
Der Hammer lief aber schon im A0 Stepping rund außerdem starten alle CPus mit 800 MHz(auch der p4) wegen hardwareinkompatiblitäten und werden langsamm höher gebracht.
Naja aber Die Gf FX sollte eigentlich low-K benutzen, tut es aber doch nicht.
Naja Saphire bietet auch ne radeon 9700 pro an mit heat pipe mit originalen Takt, ist ja quasi ne passivkühlung nur mit moderneren Mothoden. da die r300 ne externe Stromquelle brauch verbraucht sie mehr als 40 Watt die der AGP port bietet.

seahawk
2003-01-07, 08:21:25
Originally posted by Spake
so eine karte in OEM-rechnern wär wirklich scheiße

Habe da mal darüber nachgedacht. Und vielleicht gibt es FX-Flow gerade für die OEMs. Ne Karte reinstecken und festschrauben schaffen die ja (meistens). Dadurch, dass die Karte Luft von außerhalb des Gebäudes Luft ansaugt und dann wieder rausdrückt, wird die Notwendigkeit von Gehäuselüftern reduziert. Und da bei den meisten OEM ja nur das NEtzteil Luft aus dem Gehäuse fördert ist das wahrscheinlich ein Vorteil für die OEMs.

Spake
2003-01-08, 16:25:16
@ seahawk

ich denke wegen fxflow besonders dass sie nicht in OEm-rechnern zu finden sein wird:
als voodoos noch erhältlich waren konnte man sie nie in OEMs finden weil es ja viel zu komplieziert war noch eine extra VGA zu kaufen

GeforceFx hat da mehrere inkompalitäten:
-doppelte verschraubung
-fxflow
-extra stromstecker