PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce FX vielleicht noch später....


nagus
2003-01-10, 15:44:07
Quelle: http://www.warp2search.net/article.php?sid=9645&mode=thread&order=0&thold=0

"Today I phoned with one of the biggest german suppliers of hardware about the availability of GeForce FX boards and they told me they can not give me any date, but that no shipments are scheduled for February. He told me that the card will not be available by this timeframe.
Also the supplier has no information or marketing papers about any manufacturers cards including Asus and Sparkle.

Behind the scenes it whispers that card manufacturers will officially announce boards with immediate availability at Cebit 2003 in Hannover, Germany. Worlds largest IT fair takes place March 12th through 19th.

We will see."

naja, wenn wir glück haben sehen wir vielleicht noch den ersten test bis ende jänner, aber karten wirds wohl erst frühestens im februar/märz bei uns geben.

nagus
2003-01-10, 15:45:11
ups, das hat wohl schon jemand gepostet, tschuldigung.

closed?

Tarkin
2003-01-10, 15:47:59
Originally posted by nagus
Quelle: http://www.warp2search.net/article.php?sid=9645&mode=thread&order=0&thold=0

"Today I phoned with one of the biggest german suppliers of hardware about the availability of GeForce FX boards and they told me they can not give me any date, but that no shipments are scheduled for February. He told me that the card will not be available by this timeframe.
Also the supplier has no information or marketing papers about any manufacturers cards including Asus and Sparkle.

Behind the scenes it whispers that card manufacturers will officially announce boards with immediate availability at Cebit 2003 in Hannover, Germany. Worlds largest IT fair takes place March 12th through 19th.

We will see."

naja, wenn wir glück haben sehen wir vielleicht noch den ersten test bis ende jänner, aber karten wirds wohl erst frühestens im februar/märz bei uns geben.

Wenn diese Infos zutreffen, dann wirds wohl eher April werden. Und kein Grund für nVidia noch im Januar erste Tests freizugeben...

Quasar
2003-01-10, 15:51:05
Wenn diese Informationen zutreffen....
...ist dann "immediate availability" zur CeBit vom 12.-19.März schon April??

Tarkin
2003-01-10, 15:53:25
Originally posted by Quasar
Wenn diese Informationen zutreffen....
...ist dann "immediate availability" zur CeBit vom 12.-19.März schon April??

ich wollte nur damit sagen, dass es höchst unwahrscheinlich ist (nach all den Verspätungen) dass es Karten gleich nach der CeBit zu kaufen gibt (also am 20. März) Ich würde eher zu Anfang/Mitte April tendieren.

mapel110
2003-01-10, 16:34:04
oje, uns wird doch nicht etwa nvidia als preisbrecher wegfallen ?! :D

BlackBirdSR
2003-01-10, 16:59:54
DAs Problem ist einfach dass Nvidia dadurch einiges an Geld verliert wenn die FX erstmal da ist.

Bisher stehen die Preise noch auf 600€ aber das wird wohl eher ein Versuch sein zu testen wie hoch man gehen kann.
Wenn erstmal die ersten Fanatiker die Karten für 500-600€ gekauft haben und der Absatz stark sinkt werden sie den Preis senken müssen, statt ihn wie bisher mit den anderen Chips zu bestimmen.

Wenn du ein halbes Jahr nach deinem Konkurrenten auf den Markt kommst, dann ist deine Gewinnmarke nunmal gehörig gesunken, und das wird Nvidia leider spüren.
Das ist nicht wirklich bedrohlich, aber sicherlich schmerzhaft.

Richthofen
2003-01-11, 15:31:24
und nochmal zum mitschreiben.
Nvidia macht kaum Gewinn an den High End Karten. Lächerliche 10% Geschätsanteil hat dieser Bereich.
Sie werden den Preis hoch ansetzen und testen wo sie den Preis einpendeln müssen.
Das ist ein Vorgang der bei jedem Produktlaunch immer wieder von Neuem beginnt und logischer Weise setzt man hoch an.
Senken kann man immer noch. Preise aber anheben kommt nicht gut an und nicht den psychologischen Effekt vergessen, der Eintritt wenn eine Karte von 600 Euro auf 500 Euro gesenkt wird. Das ist immer nohc sau teuer aber viele denken *wow* wie günstig mit einmal.

Alles Marketing und Marktpsychologie. Nvidia wird nie und nimmmer die Preise so senken, das die GF FX zu einem Massenprodukt wird. Die soll in begrenzten Stückzahlen verkauft werden und dafür sorgen das auf jeder Testerseite und in jeder PC Zeitschrift ATI nur noch 2. ist nicht mehr und nicht weniger.
Geld wird wo anders verdient.

Lost Prophet
2003-01-11, 15:52:02
also dann wären die highend chips doch total unrentabel wenn sie nur 10% der einnahmen ergeben, aber mit mit sicherheit mehr als 10% der produktions kosten verbrauchen

aber der grund das es sie dennoch gibt ist PRESTIGE

wie Richthofen schon gesagt hat muss die karte nur bei den meisten testerseiten aus platz 1 stehn und halt das normale volk wieder glauben das nV die besten sind

jetzt aber nochmal zurück zum TOPIC

je später sie mit der karte rausrücken, desto kürzer wird das fenster zum neuen ATI chip (egal wann der kommt, es wird kürzer) damit ist die "presitgezeit" kürzer. denn hier kann sich ATI imho soviel zeit lassen bis ihr chip entwicklungsmäßig schneller als die GFFX ist

auch wenns für nv "nicht so wichtig" bis "mehr oder weniger wichtig" ist, es ist auf jedenfall schmerzhaft (finanziell & name)

ich bin immer noch der meinung das nv den r300 nicht so stark eingeschätzt hat und dh an der takschraube drehen musste => fxflow, geringere ausbeute

im thread über das erste FX review war von eiem auslaufen des NDAs am 18 (!) jänner die rede (obwohl hier der wahrheitsgehalt nicht bestätigt ist), ich glaube also nicht das die FX noch im jänner erhältlich sein wird und in stückzahlen nicht vor MÄRZ

cya axel

nagus
2003-01-11, 16:11:32
Originally posted by Richthofen
und nochmal zum mitschreiben.
Nvidia macht kaum Gewinn an den High End Karten. Lächerliche 10% Geschätsanteil hat dieser Bereich.
Sie werden den Preis hoch ansetzen und testen wo sie den Preis einpendeln müssen.
Das ist ein Vorgang der bei jedem Produktlaunch immer wieder von Neuem beginnt und logischer Weise setzt man hoch an.
Senken kann man immer noch. Preise aber anheben kommt nicht gut an und nicht den psychologischen Effekt vergessen, der Eintritt wenn eine Karte von 600 Euro auf 500 Euro gesenkt wird. Das ist immer nohc sau teuer aber viele denken *wow* wie günstig mit einmal.

Alles Marketing und Marktpsychologie. Nvidia wird nie und nimmmer die Preise so senken, das die GF FX zu einem Massenprodukt wird. Die soll in begrenzten Stückzahlen verkauft werden und dafür sorgen das auf jeder Testerseite und in jeder PC Zeitschrift ATI nur noch 2. ist nicht mehr und nicht weniger.
Geld wird wo anders verdient.

marketing und marktpsychologie wird nvidia jetzt auch nichts mehr nützen. zu viele potentielle käufer sind durch die ewigen verspätungen stink sauer oder holen sich eine R300.

nehmen wir mal an, ende jänner gibt es die ersten reviews. frühestens mitte februar gibts dann die karte vielleicht bei uns (wenn man den gerüchten glauben schenkt, dann noch 1-2 monate später). jetzt kostet das teil noch ~ 700 EURO und im märz april realistisch gesehen vielleicht 550 EURO. das top-modell von ATI kostet dann ~ 350 - 400EURO und ist leistungsmäßig wahrscheinlich nicht so weit hinten, wie du hoffst.

wer zur teufel kauft sich dann eine karte, die vielleicht bis zu 20% schneller ist, aber 200 euro mehr kostet??? außerdem gibts da noch das problem mit dem lauten und überdimensionierten lüfter (platzprobleme)....etc...


für kurze zeit mag nvidia die 3d-krone zurückerobern, aber die R350 holt IMHO den rückstand wieder auf (wenn überhaupt ein relevanter leistungsmäßiger rückstand vorhanden ist)

Richthofen
2003-01-11, 16:44:10
"
marketing und marktpsychologie wird nvidia jetzt auch nichts mehr nützen. zu viele potentielle käufer sind durch die ewigen verspätungen stink sauer oder holen sich eine R300.
"

Natürlich Nagus. Der Enthusiast Market wächst mit einmal in unbekannte Regionen. Nur noch Lol.
Es gibt einen High End Markt und der macht 10% höchstens 15% am Gesamtmarkt aus.
Dieser Anteil wird nicht größer, egal wie nun der GF FX preislich zum R300 positioniert ist.

"
wer zur teufel kauft sich dann eine karte, die vielleicht bis zu 20% schneller ist, aber 200 euro mehr kostet außerdem gibts da noch das problem mit dem lauten und überdimensionierten lüfter (platzprobleme)....etc...
"
Die Leute die sich solche Karten kaufen - Freaks.
Denen ist es scheiss egal wieviel teurer Produkt A ist. Die kaufen das schnellste und auch das Platzproblem dürfte denen eher unbekannt sein. Freaks lassen mehrheitlich PCI SLOT 1 frei aus bekannten Gründen.
Diejenigen die ein nForce2 haben, dürften ohnehin so gut wie keinen PCI Slot mehr nutzen ausser vielleicht 1 bis 2.
Und dann bleibt noch der harte Kern, dem es völlig Banane ist was ATI macht, weil er aus Prinzip Nvidia kauft.

"
für kurze zeit mag nvidia die 3d-krone zurückerobern, aber die R350 holt IMHO den rückstand wieder auf (wenn überhaupt ein relevanter leistungsmäßiger rückstand vorhanden ist)
"
Jedes Prozent Rückstand ist ein Rückstand. Weder meine Lieblingsmassen Reviwer TOm, Anand, Gamestar und CO noch der Hardcore Gaming Freak interessiert sich dafür wieviel das ist.
Und diese Reviewer bestimmen den maßgeblich den Ton in Sachen Beurteilung eines Produktes.
Den R350 wollen wir außerdem erstmal abwarten.
Und auch Nvidia wird nicht zuschauen. Ihr Vorteil ist, sie sind auf 0.13 und dieser Prozess wird täglich besser.
Schaffen sie heute 500 MHZ so werden es in ein paar Monaten bei ausgewählten Chips wohl schon 600 MHZ und mehr sein.
MHZ sells. Nichtumsonst erwähnt man lieber 1 GHZ Datarate statt 500 MHZ DDR II.

LovesuckZ
2003-01-11, 16:46:41
Originally posted by nagus
für kurze zeit mag nvidia die 3d-krone zurückerobern, aber die R350 holt IMHO den rückstand wieder auf (wenn überhaupt ein relevanter leistungsmäßiger rückstand vorhanden ist)

Und wenn der R350 'nur' so schnell wie die FX sein sollte, in welche Preisregionen sollte ATI dann diese Chips reinhaun?

seahawk
2003-01-11, 17:51:32
Alos ich könnte mir ernsthaft vorstellen so eine Karte zu kaufen, wenn die 20% schneller als ne ATI ist, zahle ich für die 256 MB Version auch 200 Euro mehr als für ne 128 Mb radeon 9700 pro.

Desti
2003-01-11, 18:36:54
nVidia hält halt was sie versprechen, ready for xmas......2003 :)

Pussycat
2003-01-11, 22:04:06
Originally posted by Richthofen
und nochmal zum mitschreiben.
Nvidia macht kaum Gewinn an den High End Karten. Lächerliche 10% Geschätsanteil hat dieser Bereich.

a) ATI macht dort 40% vom Gewinn
b) 10%, aber bie Margen die wieviel höher liegen? Dreimal so hoch wäre doch ischer nicht übertrieben, oder?

Pussycat
2003-01-11, 22:14:03
Originally posted by Richthofen

Jedes Prozent Rückstand ist ein Rückstand. Weder meine Lieblingsmassen Reviwer TOm, Anand, Gamestar und CO noch der Hardcore Gaming Freak interessiert sich dafür wieviel das ist.

Klar, keiner interessiert es ob der R300 1 oder 50% langsamer ist, alle kaufen sich doch die GFFX.


Den R350 wollen wir außerdem erstmal abwarten.

Wollen wir nicht erstmal die GFFX abwarten? Die R350 wird mindestens wie eine 400 MHz R300 funbktionieren, darüber ist nicht zu zweifeln.


Und auch Nvidia wird nicht zuschauen. Ihr Vorteil ist, sie sind auf 0.13 und dieser Prozess wird täglich besser.
Schaffen sie heute 500 MHZ so werden es in ein paar Monaten bei ausgewählten Chips wohl schon 600 MHZ und mehr sein.
MHZ sells. Nichtumsonst erwähnt man lieber 1 GHZ Datarate statt 500 MHZ DDR II.

Kühler auch?

VoodooJack
2003-01-12, 11:39:43
GeforceFX vielleicht noch später?

Ja, auch diese Meldung, die ich bei vr-zone fand, deutet darauf hin, dass die Retail GeforceFX erst im März-April erhältlich sein wird.

Here's the initial sample of the MSI MS-8904 card based on the GeForce FX GPU using Samsung K4N26323AE-GC20 GDDR-II chips. Although GDDR-II runs on 1.8V VDDQ but VDD is still at 2.5V and data rate is at 1GB/s therefore the heat generated from memory chips might be too hot. As such NVIDIA has designed the reference cooler in the way that the memory chips are covered with copper heat spreader not for nice look but GDDR-II really need them to dissipate heat well. Sources revealed that the GDDR-II may not ready for mobile platform yet as the heat issues are still not resolved therefore we should not see a mobile version of the GeForce FX anywhere soon.

Also retail cards based on GeForce FX may be as late as March-April.

Razor
2003-01-12, 12:30:37
Momentan vermischen sich da 'ne ganze Menge an Halbwahrheiten und Spekulationen...

Mit März/April könnte der NV31 gemeint sein, der auf der CeBit vorgestellt werden soll. Insofern sich hier einfach 2 Meldungen sozusagen 'ünerschnitten' haben.

Allerdings wäre es nicht neu bei nVidia, das so etwas passiert.
Erinnert Ihr Euch noch an die gf3 ?

Für Weihnachten 2000 angekündigt und dann doch erst im April 2001 verfügbar (Anfang Mai hab' ich mir dann ein solches Teil gezogen ;-). Da gab's doch diese ganzen querelen mit der XBox (NV2A) und diesem ganzen Zeugs. Würde mich echt wundern, wenn sie das Ding von damals jetzt wiederholen...

Warten wir einfach mal ab, die für mitte/ende Dezember versprochenen Reviews wird's wohl jetzt (mitte/ende Januar) zu begutachten geben und einige Hersteller haben sich schon zeimlich weit aus dem Fenster gelegt, was die Verfügbarkeit solcher Karten anghet (wenn auch nicht in Stückzahlen ;-).

Schaun' wir mal !
Momentan wissen wir noch überhaupt nichts...
:D

Razor

ow
2003-01-12, 13:04:44
Originally posted by VoodooJack
Although GDDR-II runs on 1.8V VDDQ but VDD is still at 2.5V and data rate is at 1GB/s therefore the heat generated from memory chips might be too hot.[/b]


Diese Aussage scheint mir nicht ganz schlüssig.
Der externe Takt von DDR-II ist zwar 500MHz, intern arbeiten aber 2 RAM-Bänke (vermutlich im Interleave) im DDR-I Verfahren mit 250MHz. Daher auch die gleichen Versorgungsspannungen.
Ein 500MHz DDR-II verbrät etwa die Leistung zweier 250MHz DDR-I RAMs. Die gesamte Verlustleistung steigt also auf etwa 500MHz DDR-I Niveau, sollte aber durch die grösseren DIEs des DDR-II relativ problemlos abführbar sein.

Demirug
2003-01-12, 13:20:38
Originally posted by ow



Diese Aussage scheint mir nicht ganz schlüssig.
Der externe Takt von DDR-II ist zwar 500MHz, intern arbeiten aber 2 RAM-Bänke (vermutlich im Interleave) im DDR-I Verfahren mit 250MHz. Daher auch die gleichen Versorgungsspannungen.
Ein 500MHz DDR-II verbrät etwa die Leistung zweier 250MHz DDR-I RAMs. Die gesamte Verlustleistung steigt also auf etwa 500MHz DDR-I Niveau, sollte aber durch die grösseren DIEs des DDR-II relativ problemlos abführbar sein.

Was rechnest denn du da?

In einem DDR-II RAM Chip arbeiten genau die gleichen Zellen wie in einem DDR-I Chip. Die Anzahl der Bänke ergibt sich aus der Organisation des Chips und hat nichts mit dem Protokol zu tun. Intern gibt es aber zwei relevante Unterschiede. Die Ramzellen laufen nur mit der halben Taktfrequenz des Datenbusses. Also beim 500 MHz DDR-II Speicher laufen die Zellen nur mit 250 MHz. Um diese halbierung auszugleichen werden pro Takt 4 bit (DDR-I 2 Bit) aus den Zellen ausgelesen. Ein DDR-II chip hat deswegen bei gleicher Frequenz einen geringeren Verlustleistung als ein DDR-I Chip.

Razor
2003-01-12, 14:27:10
Also wäre folgene Aussage zulässig ?

"DDR-II hat bei gleichem Takt in etwa die Hälfte der Verlustleistung von DDR-I."

Sprich: 500MHzDDR-II hat (in etwa) die Verlustleistung vom 250MHzDDR-I ?
???

Razor

StefanV
2003-01-12, 14:44:26
Originally posted by Razor
Also wäre folgene Aussage zulässig ?

"DDR-II hat bei gleichem Takt in etwa die Hälfte der Verlustleistung von DDR-I."

Sprich: 500MHzDDR-II hat (in etwa) die Verlustleistung vom 250MHzDDR-I ?
???

Razor

Wie soll man das denn schaffen ??

Das Interface arbeitet ja immer noch mit vollem Takt, auch liefert der RAM Core mehr pro Takt...

Demirug
2003-01-12, 14:47:17
Originally posted by Razor
Also wäre folgene Aussage zulässig ?

"DDR-II hat bei gleichem Takt in etwa die Hälfte der Verlustleistung von DDR-I."

Sprich: 500MHzDDR-II hat (in etwa) die Verlustleistung vom 250MHzDDR-I ?
???

Razor

Nein ganz so einfach ist das leider auch nicht. Der Anteil des Chip welcher das Speicherinterface steuert läuft ja mit dem vollen Takt. Dieser macht zwar nur einen geringen Teil der Chipfläche aus dafür läuft er ständig. Die Zellen welchen den grössten Teil der Fläche brauchen werden aber ja nicht ständig benutzt. Deswegen ist das alle schwer auszurechnen.

ow
2003-01-12, 14:49:29
Originally posted by Demirug


Was rechnest denn du da?

In einem DDR-II RAM Chip arbeiten genau die gleichen Zellen wie in einem DDR-I Chip. Die Anzahl der Bänke ergibt sich aus der Organisation des Chips und hat nichts mit dem Protokol zu tun. Intern gibt es aber zwei relevante Unterschiede. Die Ramzellen laufen nur mit der halben Taktfrequenz des Datenbusses. Also beim 500 MHz DDR-II Speicher laufen die Zellen nur mit 250 MHz. Um diese halbierung auszugleichen werden pro Takt 4 bit (DDR-I 2 Bit) aus den Zellen ausgelesen. Ein DDR-II chip hat deswegen bei gleicher Frequenz einen geringeren Verlustleistung als ein DDR-I Chip.


Ich rechne hier daselbe wie du auch. Nur anders formuliert.

Intern für 250MHz Leistung verbraten, aber natürlich x2, da extern ja 500Mhz zustande kommen, als intern 2 RAM-Felder mit 250MHz laufen.

Bei gleichem Takt ist die Verlustleistung von DDR2 etwas geringer als bei DDR1.

ow
2003-01-12, 14:51:46
Originally posted by Demirug


Nein ganz so einfach ist das leider auch nicht. Der Anteil des Chip welcher das Speicherinterface steuert läuft ja mit dem vollen Takt. Dieser macht zwar nur einen geringen Teil der Chipfläche aus dafür läuft er ständig. Die Zellen welchen den grössten Teil der Fläche brauchen werden aber ja nicht ständig benutzt. Deswegen ist das alle schwer auszurechnen.


Ich rechne einfach mit 'intern 2xDDR-I = DDR-II".

Bei gleicher Chipkapazität hat natürlich jedes interne DDR-I Speicherzellenfeld nur die halbe Speicherkapazität.

Demirug
2003-01-12, 14:55:05
ok ow zum überschlagen geht das so. Technisch gesehen ist es halt ein bischen anders wie man an den Blockbildern von Samsung schön sehen kann.

ow
2003-01-12, 15:25:46
Originally posted by Demirug
ok ow zum überschlagen geht das so. Technisch gesehen ist es halt ein bischen anders wie man an den Blockbildern von Samsung schön sehen kann.

Hast du gerade mal einen Link dazu.
Ich hab mich noch garnicht mit DDR-II befasst, sondern nur wiedergegeben, wie ich mir dessen Funktionieren vorstelle.

mapel110
2003-01-12, 16:39:52
Originally posted by ow


Hast du gerade mal einen Link dazu.
Ich hab mich noch garnicht mit DDR-II befasst, sondern nur wiedergegeben, wie ich mir dessen Funktionieren vorstelle.

http://www.lostcircuits.com/memory/ddrii/
der link sollte es tun ;)

Demirug
2003-01-12, 16:49:41
und dort bekommt man das Datenblatt zu dem Speicher den NVIDIA auf der FX verbaut: http://www.samsungelectronics.com/semiconductors/search/datasheet.jsp?family=576

ow
2003-01-12, 17:55:51
Ich danke euch beiden.:)

Crazytype
2003-01-12, 22:13:56
ja ddr-II nutzt vierfach prefetching.
Aber jetzt mal zu den High-End Karten:
Es ist doch egal ob sie damit gewinn machen oder nicht, wenn sie auf Rang 1 sitzt erhöht es den Image-Wert und es werden automatisch auch die mainstreamkarten gekauft.

Dunkeltier
2003-01-13, 02:29:37
Geforce FX, when it's done... =) Den Imageverlust, den NVidia als Technologieführer bisher erlitten hat, ist schon beachtlich. Und wenn sie kommt, rollt der R350 von Band. Ati schläft nicht. ;) Tja, und dann ist NVidia wieder nur die #2.

seahawk
2003-01-13, 09:01:57
Ja mit Lieferzeiten im April ist die FX wohl eine Totgeburt. Ich wäre nicht überrascht, wenn Radeon 9900 vor GeForce FX im Laden wären.

Aber erstmal abwarten wie es sich entwickelt. Vielleicht gibt es die Karten ja wirklich im Februar und sie ist wirklich schnell.

mapel110
2003-01-13, 11:09:39
Originally posted by seahawk
Ja mit Lieferzeiten im April ist die FX wohl eine Totgeburt. Ich wäre nicht überrascht, wenn Radeon 9900 vor GeForce FX im Laden wären.

Aber erstmal abwarten wie es sich entwickelt. Vielleicht gibt es die Karten ja wirklich im Februar und sie ist wirklich schnell.

was vielleicht auch möglich ist, dass die geforceFX cores, die von nvidia produziert werden, wirklich nur mit extremer kühlung die vorgegebenen taktraten errreichen und somit die ausbeute an chips derart gering ist, dass nvidia gezwungen ist, gleich eine karte zu liefern, die unter den geforceFX-taktraten liegt und wir somit früher in den genuss einer mid-range FX kommen.
es sei denn, nvidia's lager ist gross genug, um die minderwertigen FX chips zu horten ;)

ollix
2003-01-13, 11:52:54
Originally posted by mapel110
was vielleicht auch möglich ist, dass die geforceFX cores, die von nvidia produziert werden, wirklich nur mit extremer kühlung die vorgegebenen taktraten errreichen und somit die ausbeute an chips derart gering ist, Dies war auch mein Gedanke. Wahrscheinlich läuft der "jeden Tag besser werdene" 0,13µm Prozess doch nicht so gut, wie vielerorts spekuliert.

Gestützt wird diese Theorie eben dadurch, daß ATi für den R350 beim .15µm Prozess bleibt (der ja nun wirklich eine sehr gute Ausbeute haben muß, wenn man die großen R300er Chips in den kleinen 9500np verbauen kann und diese dann noch auf 400MHz zu übertakten).

Vorallem das man eine Karte von Herstellerseite mit einer derartigen Kühlung ausstattet, die die AGP Norm verletzt - man scheint ein bißchen Panik zu haben. Wartet ab, es ist nicht mehr lange hin - der NV35 kommt mit 2 Chips pro Karte...
:lol: :lol: :lol:

seahawk
2003-01-13, 12:13:14
Wobei es ja schon Hinweise gibt, dass die Speichersteine die Monsterkühlung brauchen und nicht die GPU. Und vom Layout dees Kühlers erscheint das glaubwürdig.

cR@b
2003-01-13, 12:26:22
Hehe .. bis die Karte kommt, ist sie performancetechnsch out !! ;)
nVidia lässt sich hier eindeutig zuviel Zeit, somit hat ATi die chance sie von position 1 zu verdrängen. :D

ollix
2003-01-13, 12:30:32
Originally posted by seahawk
Wobei es ja schon Hinweise gibt, dass die Speichersteine die Monsterkühlung brauchen und nicht die GPU. Und vom Layout dees Kühlers erscheint das glaubwürdig. Waas?

Ist ja heftig. Dann frage ich mich, ob DDR2 die so geniale Erfindung ist und warum sie nicht um Gottes Willen ein 256Bit Interface genommen haben. Das wäre bei den Speicherpreisen und der Kühlung wesentlich einfacher und billiger geworden...

Pussycat
2003-01-13, 13:10:00
Vor allem hätte es dann kein 12-layer PCB gebraucht....

Xmas
2003-01-13, 13:44:33
Wo kommen denn jetzt die 12 Layer her?

Unregistered
2003-01-13, 13:59:52
Originally posted by Pussycat
Vor allem hätte es dann kein 12-layer PCB gebraucht....
Hö?
Weniger Layer durch 256Bit Interface?
Da bist du wohl falsch informiert, außerdem ist das mit der Kühlung heftiges Spekulatius, ganz besonderst das mit dem Speicher, wer wirklich denkt das der so stark Gekühlt werden muss...

askibo
2003-01-13, 14:05:29
Hier kommen die 12 Layer her

http://www.digitimes.com/NewsShow/Article.asp?datePublish=2003/01/13&pages=01&seq=2

mapel110
2003-01-13, 14:41:16
Originally posted by seahawk
Wobei es ja schon Hinweise gibt, dass die Speichersteine die Monsterkühlung brauchen und nicht die GPU. Und vom Layout dees Kühlers erscheint das glaubwürdig.

das kann und wird nicht wahr sein ! der chip ists, der gekühlt werden muss.

Unregistered
2003-01-13, 15:11:19
Originally posted by askibo
Hier kommen die 12 Layer her

http://www.digitimes.com/NewsShow/Article.asp?datePublish=2003/01/13&pages=01&seq=2


OUCH

damit ist es jetzt ja wohl offiziell :

Das Board für ein 128bit Speicherinterface ist (bei annähernd gleicher Bandbreite) teurer als das Board für ein 256bit Interface.

Da hat Nvidia jetzt aber voll ... ähh daneben belangt. Dumm gelaufen echt toll. Selbst die Lowend und Midrange-Karten sind noch gleich aufwendig wie die R300-Karten (NV34; 8Layer) oder sogar aufwendiger (NV31;10Layer)

Unregistered
2003-01-13, 15:15:33
[edit]

damit ist meine alte Idee für den RV350 wieder aktuell.
Ein 4x1 Chip mit ~500MHz + 256bit Speicher mit 250MHz.
Da dürfte (wenn es denn so kommt) eine NV31 extrem schwer
zu knappern haben. Vor allem der Preis sollte niedriger
sein als bei einem 350-400MHz 128bit Speicher.

Demirug
2003-01-13, 15:18:03
Originally posted by Unregistered



OUCH

damit ist es jetzt ja wohl offiziell :

Das Board für ein 128bit Speicherinterface ist (bei annähernd gleicher Bandbreite) teurer als das Board für ein 256bit Interface.

Da hat Nvidia jetzt aber voll ... ähh daneben belangt. Dumm gelaufen echt toll. Selbst die Lowend und Midrange-Karten sind noch gleich aufwendig wie die R300-Karten (NV34; 8Layer) oder sogar aufwendiger (NV31;10Layer)

In wie fern ist das offiziel? Es wird da von Quellen aus der Industrie gesprochen und nicht das NVIDIA das bestätigt hat.

Und was die R300 angeht so gibt es da auch unterschiedliche Aussagen die zwischen 8 und 10 Layer schwanken.

Unregistered
2003-01-13, 15:23:41
Originally posted by mapel110


das kann und wird nicht wahr sein ! der chip ists, der gekühlt werden muss.

Mal abwarten. Wenn ich mir das Layout und den Aufbau des Lüfters ansehe ... besonders auch die Rückseite der Akrte mit dem massiven Kupferteil unter den RAMs ...

seahawk
2003-01-13, 15:24:51
Das war ich - sorry

mapel110
2003-01-13, 17:07:21
http://www.hartware.net/news.html?id=30600
:bawling:

nvidia baut die gFX jetzt selbst, um die qualität der karte zu gewährleisten.

in deutsch:

nvidia baut die gFX jetzt selbst, um die stabilität der karte zu gewährleisten.

p.s. hab den gleichen post schon in nem anderen thread, aber ich denke hier passt er besser. ;)

/edit link gefixt !

Unregistered
2003-01-13, 17:30:27
Originally posted by Demirug


In wie fern ist das offiziel? Es wird da von Quellen aus der Industrie gesprochen und nicht das NVIDIA das bestätigt hat.

Und was die R300 angeht so gibt es da auch unterschiedliche Aussagen die zwischen 8 und 10 Layer schwanken.

Selbst wenn es 10 Layer sein sollten, so ist das R300 PCB deutlich kleiner (ca. 60-65%) als das des voraussichtlichen NV30. Dieser Faktor läßt sich fast 1:1 auf die Kosten übertragen.

Dann wäre da noch die geringeren Aufwändungen für F&R, da man mit Layouts auskommt, welche dadurch auch in relativ größeren Stückzahlen gefertigt werden.

Ich denke dass ATI noch ein ganzes Stückchen Luft bei den Preisen hat. Es müssen auch geringere Stückdeckungsbeiträge erzielt werden.

Die Rechnung kann bei Nvidia ganz schnell vor die Wand gehen, sollte man die Markt/Konkurrenz-Situation falsch eingeschätzt haben und BE-Points nicht erreicht werden. Da ist es fast Schnuppe, ob es bei der 9700/9500 nun 8 oder 10 Layer sind, Demirug.

seahawk
2003-01-13, 18:08:33
Originally posted by mapel110
http://62.146.66.130/rich.php?s=170&w=468&h=60
:bawling:

nvidia baut die gFX jetzt selbst, um die qualität der karte zu gewährleisten.

in deutsch:

nvidia baut die gFX jetzt selbst, um die stabilität der karte zu gewährleisten.

p.s. hab den gleichen post schon in nem anderen thread, aber ich denke hier passt er besser. ;)

Waren die ersten R300 Karten nicht auch alle build by ATI ??

Demirug
2003-01-13, 18:08:40
Sicherlich wird das NV30 PCB teurer sein als das R300 PCB. Aleine schon Aufgrund der der Grösse. Was nun die Layer angeht so kann man da wirklich nur spekulieren was nun die Lage der Dinge sein wird.

Aber nur das PCB zu betrachten ist zu kurz gedacht. Es gibt noch so viele Faktoren die den Endpreis bestimmen. So wirken sich die mindestens 128 eingesparten Pins wieder positiv aus. Die Packing kosten ergeben sich fast ausschliesslich aufgrund der Pins.

Über die F&R Kosten will ich nicht spekulieren da diese gerade in dem Bereich PCBs sehr stark von den eingesetzten Tools abhängen. Und dort habe aufgrund fehlender eigenverwendung keine gute Marktübersicht.

Was nun die Luft bei ATI angeht so muss man mal auf die nächsten Quartalszahlen warten wie viel hängen bleibt. Im letzten war das nicht sehr viel.

Wobei es mir ehrlich gesagt keinen Spass macht über kaufmänische Dinge zu spekulieren und mir den Kopf für NVIDIA, ATI oder sonst wenn zu zerbrechen. Die Firmen haben für diese Jobs gut bezahlte Leute also sollen die auch ihrer Job machen. Sollange ich Hardware für ein für mich brauchbares Preis/Leistungs verhältniss kaufen kann ist mit der Rest schon ziemlich egal.

Mein Einwand der als Grundlage für diese ganze Sache hier diente sollte lediglich bedeuten das man nichts was nicht von einem Hersteller selbst kommt als offiziel ansehen sollte

mapel110
2003-01-13, 18:10:45
Originally posted by seahawk


Waren die ersten R300 Karten nicht auch alle build by ATI ??

es geht hier offenbar nicht um "die ersten", sondern um "alle".

Lost Prophet
2003-01-13, 18:24:37
Originally posted by seahawk
Ja mit Lieferzeiten im April ist die FX wohl eine Totgeburt. Ich wäre nicht überrascht, wenn Radeon 9900 vor GeForce FX im Laden wären.

Aber erstmal abwarten wie es sich entwickelt. Vielleicht gibt es die Karten ja wirklich im Februar und sie ist wirklich schnell.


was sollte das bringen?

woher soll ATI wissen auf welche leistung sie ihren chips abstimmen müssen,

imo müssen ("müssen" wenn man "vernünftig" ist] sie auf die GFFX warten, und dann können sie noch die taktraten für speicher und chip so festlegen, das sie wieder erster sind

die karten vorher zu bringen wäre der größte blödsinn


cya axel

ps. sollte das ironisch gewesen sein wars nicht lustig :| ;)

ollix
2003-01-13, 18:39:01
Originally posted by Purple_Stain
die karten vorher zu bringen wäre der größte blödsinnStimmt - dazu machen sie sich selber bzw. den 9700pro Karten noch Konkurrenz.

duckofdeath
2003-01-13, 18:53:07
auch wenn der nv30 schneller wird hats nvidia imho vollkommen versaut! mir solls egal sein.... ich hab was ich brauch...

seahawk
2003-01-13, 19:01:56
Originally posted by mapel110


es geht hier offenbar nicht um "die ersten", sondern um "alle".

Erstmal hat NV keine eigene Fabrik und es ist schon lange bekannt, dass MSI die ersten Karten auf Basis des Referenzdesigns für alle Hersteller fertigen wird. Steht ja auch im Artikel, dass die einen Hersteller beauftragt haben die Karten zu bauen. Und da MSI kaum KArten an ASUS verkaufen kann, wird offiziell ATI der Hersteller sein. Ist also genauso wie die built by ATI Karten.

Ob das dauerhaft so bleibt .... Immerhin sind die meisten 9700 pro heute noch im wesentlichen das Refernzdesign.

Unregistered
2003-01-13, 19:58:43
Originally posted by Demirug


In wie fern ist das offiziel? Es wird da von Quellen aus der Industrie gesprochen und nicht das NVIDIA das bestätigt hat.

Und was die R300 angeht so gibt es da auch unterschiedliche Aussagen die zwischen 8 und 10 Layer schwanken.


So weit ich weiß hatten nur die ersten R300-Karten 10 Layer. Später war ATi in der Lage das PCB mit nur 8 Layern stabil laufen zu lassen. Alle Karten die man kaufen kann/konnte haben 8 Layer-PCB's. Allenfalls (möglicherweise!) die allerersten R300-Karten hatten 10Layer-PCB's.

fckwman
2003-01-13, 23:39:17
wenn die Karte wirklich erst im April kommt dann sage ich jetzt schon voraus das Nvidia bis dahin böse Marktanteile verlieren wird zumal dann der R350 zu 95% auch schon zu kaufen is

seahawk
2003-01-14, 08:35:10
Mal abwarten ....

Vielleicht gibt es die Dinger auch schon Ende Februar. Wir wissen ja noch nichts genaues. Die Kartenhersteller hören sich zuversichtlich an.

Unregistered
2003-01-14, 10:20:27
Originally posted by fckwman
wenn die Karte wirklich erst im April kommt dann sage ich jetzt schon voraus das Nvidia bis dahin böse Marktanteile verlieren wird zumal dann der R350 zu 95% auch schon zu kaufen is


NEIN !


Leider nicht. ATi bringt die R350 nur, wenn Nvidia eine starke Konkurrenz ist.

Wenn der NV30 jetzt nur geringfügig schneller ist und gleichzeitig wesentlich teurer wird, reagiert ATi nicht oder max. mit einer übertakteten R300-Karte.

Den R350 sehen wir nur, wenn ATi eine Notwendigkeit dafür sieht.

So wie sich Nvidia momentan anstellt schwinden die Chancen eine R350-Karte zu sehen aber leider rapide. Vor allem, wenn die NV30-Karten erst im März/April zu haben sein werden, würde eine im April/Mai veröffentlichte R350-Karte der eigenen nächsten Generation R400 Probleme bereiten; da diese dann erst 6 Monate später im Nov. kommen könnte. Vielleicht zieht dann ATi einfach den Press-Release für den R400 von Juli/August auf Mai/Juni vor um Nvidia den Wind aus den Segeln zu nehmen. Vielleicht ist die Verspätung von Nvidia deshalb auch Programm, um ATi durcheinander zu bringen. ;)

BlackBirdSR
2003-01-14, 11:16:29
Originally posted by Unregistered



NEIN !


Leider nicht. ATi bringt die R350 nur, wenn Nvidia eine starke Konkurrenz ist.

Wenn der NV30 jetzt nur geringfügig schneller ist und gleichzeitig wesentlich teurer wird, reagiert ATi nicht oder max. mit einer übertakteten R300-Karte.

Den R350 sehen wir nur, wenn ATi eine Notwendigkeit dafür sieht.

So wie sich Nvidia momentan anstellt schwinden die Chancen eine R350-Karte zu sehen aber leider rapide. Vor allem, wenn die NV30-Karten erst im März/April zu haben sein werden, würde eine im April/Mai veröffentlichte R350-Karte der eigenen nächsten Generation R400 Probleme bereiten; da diese dann erst 6 Monate später im Nov. kommen könnte. Vielleicht zieht dann ATi einfach den Press-Release für den R400 von Juli/August auf Mai/Juni vor um Nvidia den Wind aus den Segeln zu nehmen. Vielleicht ist die Verspätung von Nvidia deshalb auch Programm, um ATi durcheinander zu bringen. ;)


aha, das heisst also, man schmeisst Entwicklungs, Test und sonstige Kosten einfach aus dem Fenster für einen Chip den man nur bringt wenn der Konkurrent stärker ist als erwartet?

Es geht darum die Marktposition zu festigen, nicht auf Nvidia zu reagieren.Man will von ATI eine stetige Produkterweiterung sehen, und ATI muss beweisen dass sie mehr auf dem Kasten haben.

Mit ich bringe Chips X nur wenn Chip Y so und so stark ist, gewinnt man auf dem Markt nicht.

mapel110
2003-01-14, 12:21:30
jup, ausserdem lässt sich das auch über den preis regeln. wenn der nv30 so schwach ist, dann wird der r350 eben entsprechend teuer verkauft.

duckofdeath
2003-01-14, 14:43:50
ich glaube zwar nicht, dass der geforcefx der überhammer wird, den (und auch meinen) r300 wird er schlagen wenn auch nur knapp und in manchen spielen. Aber nachdem die karten sehr teuer sind kann ati immer noch den r350 für 550-600€ an den mann bringen. Das wäre zwar auch sau teuer aber wenn die gefportzfx 650-700 kostet und langsamer ist einigermaßen fair!!!

Ficus
2003-01-14, 14:51:29
Originally posted by BlackBirdSR
aha, das heisst also, man schmeisst Entwicklungs, Test und sonstige Kosten einfach aus dem Fenster für einen Chip den man nur bringt wenn der Konkurrent stärker ist als erwartet?

Hmm...
...Wenn ich dein Quote mal editieren darf, stimme ich dir zu.

aha, das heisst also, man schmeisst Entwicklungs, Test und sonstige Kosten einfach aus dem Fenster für einen Chip den man nur 'erst dann' bringt wenn der Konkurrent stärker ist als erwartet.

Und warum schmeisst man Entwicklungskosten ausn Fester ???
Erfahrung ist IMO ne sehr wichtige Komponente in der Technologie.
Nur weil man erworbenes Wissen evtl. etwas später nutzt ist es doch nicht ausn "Fenster geschmissen".

EDIT:
[strike] = Durchgestrichen
ist zwar vB-Code aber funzt hier leider nicht :(

seahawk
2003-01-14, 15:02:43
Vielleicht ist der R350 auch gar kein richtig neuer Chip, sondern nur eine Art R300 Ultra. Da waren die Kosten gering und es macht nichts wenn man den Chip nicht bringt ...

Ficus
2003-01-14, 15:08:51
Der R350 IST ne ultra.
Einen wiklich neuen Chip können wir erst ab den R400 erwarten.

Pussycat
2003-01-14, 20:46:24
Naja, mehr als nur übertaktet wird es wohl sein. Wenn's auch nur ein taktratenoptimiertesres (schönes Wort, ne?) design ist.

duckofdeath
2003-01-14, 21:11:06
ich tipp auch weiterhin auf erweiterte shader auch wenn die nur marketingtechnisch was bringen.... derzeit zumindest

Unregistered
2003-01-15, 00:16:14
also ich denke:)seit Oktober 2002:)das dies nur ein Werbefeldzug war und ist, damit wir ( USER ) bei der Stange bleiben. Der selbe Marketing Trick wie bei Microsoft etwas verkünden und dann hinaus zögern nur nicht zur Konkurenz überlaufen. Morgen kann ich sagen wann ich die FX-Karte bekomme. Denn ein Arbeitskollege hat ein Freund der die Karten hier in Deutschland produzieren soll.(nichts genaues weiss manfrau )
Das Gerücht war in unsere Firma Anfang Feb.

Bis bald
Volvo Andy

P.S. Melde mich später an

nagus
2003-01-15, 12:55:54
btw, aktuelle infos bezüglich GFFX verfügbarkeit:


"...Requiring a twelve-layer PCB due to the complexity of its higher frequency design, Nvidia’s top-end GeForce FX card is expected to hit the market after the Chinese New Year in late February. Instead of allowing graphics card manufacturers to design and produce their own products, Nvidia is said to have decided to place orders at certain EMS (electronics manufacturing service) companies itself and then sell the finished products to card makers to better control the quality. - Source: Digitimes ..."

Quelle: www.warp2search.com


... also realistisch gesehen ~ mitte märz bei uns.... nix mit ende Jänner.

Tarkin
2003-01-15, 13:02:38
Originally posted by nagus
btw, aktuelle infos bezüglich GFFX verfügbarkeit:


"...Requiring a twelve-layer PCB due to the complexity of its higher frequency design, Nvidia’s top-end GeForce FX card is expected to hit the market after the Chinese New Year in late February. Instead of allowing graphics card manufacturers to design and produce their own products, Nvidia is said to have decided to place orders at certain EMS (electronics manufacturing service) companies itself and then sell the finished products to card makers to better control the quality. - Source: Digitimes ..."

Quelle: www.warp2search.com


... also realistisch gesehen ~ mitte märz bei uns.... nix mit ende Jänner.

... bin ja schon gespannt was dann Ende Februar ist ;D

Langsam wirds wirklich Zeit, dass nVidia die Karte auf den Tisch legt!

mapel110
2003-01-15, 13:54:52
Originally posted by Tarkin


... bin ja schon gespannt was dann Ende Februar ist ;D

Langsam wirds wirklich Zeit, dass nVidia die Karte auf den Tisch legt!

warum ??? die sind doch bestimmt scharf auf den nächsten vapoware award *eg*

ausserdem, old news nagus, very old news ;)

seahawk
2003-01-15, 14:00:06
Bin ich eigentlich der einzige dem auffällt, dass besonders Radeon 9700 pro Besitzer mit Freunde jede News über evtl. Verspätung der FX posten ??

Demirug
2003-01-15, 14:06:32
Originally posted by seahawk
Bin ich eigentlich der einzige dem auffällt, dass besonders Radeon 9700 pro Besitzer mit Freunde jede News über evtl. Verspätung der FX posten ??

Nein das dürfte auch anderen aufgefallen sein. Ich frage mich nur warum die 9700 Pro besitzer die Zeit, die sie zum suchen von FX news brauchen, nicht zum Spielen nutzen? ;)

Unregistered
2003-01-15, 14:10:34
Drängt sich die Frage auf ob es mehr spaß macht über die FX zu reden als mit einer R9700 zu zocken :| ;)

Unregistered
2003-01-15, 14:19:11
Originally posted by seahawk
Bin ich eigentlich der einzige dem auffällt, dass besonders Radeon 9700 pro Besitzer mit Freunde jede News über evtl. Verspätung der FX posten ??


nicht 9700PRO besitzer sonder Nvidia hasser und leute, die sich von nvidia nicht länger an der nase herumführen lassen

Unregistered
2003-01-15, 15:53:34
dann lest doch mal wie das damals kurz for dem 9k7 release hier im forum rundging. also keine sache zum aufregen. da wurd auch mit häme auf jedem kleinen detail rumgeritten. alles das übliche fanboy gehabe.

Unregistered
2003-01-15, 16:12:05
Originally posted by Demirug


Nein das dürfte auch anderen aufgefallen sein. Ich frage mich nur warum die 9700 Pro besitzer die Zeit, die sie zum suchen von FX news brauchen, nicht zum Spielen nutzen? ;)


Naja, ich frag mich auch, ob du soviel Zeit fürs proggen vertust wie hier im Forum für nVidia.:D

VoodooJack
2003-01-15, 16:25:30
Ziemlich naiv, eure Verallgemeinerungen. Das mag zwar auf den einen oder anderen 9700Pro-Besitzer zutreffen, aber bestimmt nicht auf alle. Außerdem verhält es sich umgekehrt nicht anders.

Ich bin auch 9700Pro-Besitzer. Ich persönlich bedauere das ewige Hinausschieben des NV30-Starts. Der Grund ist einfach. Die 9700Pro hat mich so sehr überzeugt, dass ich mich bereits auf die enhanced Edition, den R350, freue. Wie wir inzwischen wissen, soll der R350 zeitgleich mit der GeforceFX herauskommen. Jede weitere Verschiebung der GeforceFX würde für mich eine weitere Verschiebung des R350 bedeuten.

Tarkin
2003-01-15, 16:30:24
Originally posted by seahawk
Bin ich eigentlich der einzige dem auffällt, dass besonders Radeon 9700 pro Besitzer mit Freunde jede News über evtl. Verspätung der FX posten ??

pure Schadenfreude :D


Ich mein, kommt schon! Ist doch wohl ein Witz was nVidia da abzieht, oder?

Zuerst hieß es Spring 2002,
dann August 2002,
dann Sept / Okt,
schließlich "Holiday Season 2002"
dann Ende Jänner/ Anfang Feb.
Jetzt Ende Feb!!??

Gerüchten zufolge wirds März/April (CeBit) werden....

Was mich interessieren würde ist, ob PCGH schon ein Testexemplar bekommen hat (ich wette nicht).

Tarkin
2003-01-15, 16:32:34
Originally posted by VoodooJack
Ziemlich naiv, eure Verallgemeinerungen. Das mag zwar auf den einen oder anderen 9700Pro-Besitzer zutreffen, aber bestimmt nicht auf alle. Außerdem verhält es sich umgekehrt nicht anders.

Ich bin auch 9700Pro-Besitzer. Ich persönlich bedauere das ewige Hinausschieben des NV30-Starts. Der Grund ist einfach. Die 9700Pro hat mich so sehr überzeugt, dass ich mich bereits auf die enhanced Edition, den R350, freue. Wie wir inzwischen wissen, soll der R350 zeitgleich mit der GeforceFX herauskommen. Jede weitere Verschiebung der GeforceFX würde für mich eine weitere Verschiebung des R350 bedeuten.

... und das sowieso! :)

Volvo Andy
2003-01-15, 17:48:54
Hi Leute

Mir wurde heute mitgeteilt das es vorerst eine Gforce light Mitte Feb.kommen soll. Die 1G soll Ende März Anfang April kommen.

Genaues bekomme ich nächste Woche mitgeteilt.

Da ich nicht wie gehofft die Graka bekomme, werde ich mir die Saffir Radeon 9700 Pro bestellen. Habe die Karte für 360,--Euro gesehen. Ist das ein guter Preis?

Liquaron
2003-01-15, 17:49:46
jep das ist ein sehr guter Preis. Wo bestellst du sie denn ?

duckofdeath
2003-01-15, 18:48:39
ich sag nur zu Nvidia: SSKM

Unregistered
2003-01-15, 20:14:28
noch was nettes, da wir hier ja schon beim GFfx - bashen sind :

http://www.nordichardware.se/artiklar/Grafik/2003/GeForce_FX/GFFX.jpg


Man sieht die Karte ist wirklich sehr groß!

Sie belegt einen AGP-Port und 2 PCI-Ports. Also nur was für Leute, die den PC noch nicht komplett vollgestopft haben. Sonst klappt es nicht mit der GFfx :D

Lost Prophet
2003-01-15, 20:49:39
ich frag mich wo du da einen 2. belegten PCI slot siehst ???

cya axel

nagus
2003-01-15, 20:55:59
Originally posted by Purple_Stain
ich frag mich wo du da einen 2. belegten PCI slot siehst ???

cya axel

es sind 2 belegt! schau genau

Liquaron
2003-01-15, 20:57:10
Originally posted by nagus


es sind 2 belegt! schau genau

Quatsch es ist genau 1 Slot!!
Schau doch mal richtig hin.

Demirug
2003-01-15, 21:15:54
Originally posted by Liquaron


Quatsch es ist genau 1 Slot!!
Schau doch mal richtig hin.

Der Lüfter kommt noch ganz minimal in den Bereich des 2 PCI Slots. Das sollte aber nur dann ein Problem sein wenn man dort eine Karte hätte welche die komplette höhe auch ausnutzt.

duckofdeath
2003-01-15, 21:21:59
ich seh da aber auch 2 belegte!

naja vielleicht gehtssa sich doch knapp aus aber trotzdem a bissl extrem

Liquaron
2003-01-15, 21:24:53
Originally posted by duckofdeath
ich seh da aber auch 2 belegte!

naja vielleicht gehtssa sich doch knapp aus aber trotzdem a bissl extrem

aja kann sein. Da die Karte den AGP PLatz belegt. Der Lüfter einen PCI Steckplatz belegt. Und dieser noch einen PCI Platz wegnimmt.

Lost Prophet
2003-01-15, 21:24:56
Originally posted by nagus


es sind 2 belegt! schau genau

ok, ich hab zuerst nur auf das mobo selbst und nicht auf das blech im gehäuse geschaut, da sieht mans ganz klar

ich muss dir recht geben

naja

cya axel

BiG OnE
2003-01-15, 21:29:30
Moin, moin

so jung und schon brauchen sie eine Brille!:-)

Nagus hat vollkommen Recht, es werden 2 belegt. Schaut doch mal, der oberste Slot ist der AGP, da ist die GeFX festgeschraubt. Dann kommt ein Slotblech das nit festgeschraubt ist, da ist der Kühler der Graka. Und dann kommt der 2 belegte PCI Slot, der wird auch vom Kühler verdeckt oder etwa nit. Du kannst mir doch nicht erzählen das du da noch eine Karte reinkriegst, es sei denn sie ist aus Gummi oder so.

Bis denne ...

duckofdeath
2003-01-15, 21:40:29
ich kanns nur immer wieder sagen! Nvidia hats drauf

Lost Prophet
2003-01-15, 21:52:26
ich bin dahinter gekommen was das bringt...

es sieht so aus als ob nur ein zusätzlicher PCI slot belegt wird, und der 2. wird ganz unauffälig geblockt, damit keiner auf die Idee kommt da eine karte reinzustecken, da sonst die GFFX überhitzt

;D;D

cya axel

nagus
2003-01-15, 22:02:05
Originally posted by Purple_Stain
ich bin dahinter gekommen was das bringt...

es sieht so aus als ob nur ein zusätzlicher PCI slot belegt wird, und der 2. wird ganz unauffälig geblockt, damit keiner auf die Idee kommt da eine karte reinzustecken, da sonst die GFFX überhitzt

;D;D

cya axel

überhitzen im erkömmlichen sinn kann die karte schlecht... (außer du stöpselst den luftschlitz auf dem 2. slotblech zu ;)

duckofdeath
2003-01-15, 22:11:34
ich hätte eine idee für ein neues marketingfeature von Nvidia: der integrierte herd für ihren computer!

Unregistered
2003-01-15, 22:33:11
Wenn ihr richtig hinschaut seht ihr in dem Slot eine kleine Netzwerkkarte ;)

Augen auf!!!

nggalai
2003-01-15, 22:41:27
Originally posted by Unregistered
Wenn ihr richtig hinschaut seht ihr in dem Slot eine kleine Netzwerkkarte ;)

Augen auf!!! Stimmt, da steckt ne Karte drin. Die Oberseite des GFFX-Lüfters ist flach, im Bild hat's aber noch Bauteile zu sehen -> andere Karte.

Wird aber dennoch SEHR eng, und Karten, die den Slot "bis an den Rand und drüber" füllen (Kondensatoren ahoi) werden wohl kaum richtig reinpassen.

ta,
-Sascha.rb

nggalai
2003-01-15, 22:42:55
Seitenansicht der GFFX:

mapel110
2003-01-16, 00:11:40
:O was für ein monster von graka ! hätt ich auch gern. hm, ich schwanke auch zwischen dem kauf einer r300 oder ............. halt noch warten :D

Salvee
2003-01-16, 00:17:31
frei aus dem B3D-Forum

Das mit den 2 verlorenen PCI-Slots muss man positiv sehen: wer sich die FX kauft, hat eh kein Geld für eine Soundkarte mehr ... :lol:

Richthofen
2003-01-16, 00:24:44
ach der nimmt einfach die All in One Lösung.
Also nForce2 oder wenn er schon hat nForce1.
Dann brauch er auch keine Soundkarte mehr und tut AMD was gutes :)

Xmas
2003-01-16, 00:49:50
Originally posted by Unregistered
Wenn ihr richtig hinschaut seht ihr in dem Slot eine kleine Netzwerkkarte ;)

Augen auf!!!
Jep, da geht durchaus noch eine Karte rein. Wenn auf der Oberseite keine abstehenden Lötstellen sind, sogar eine große.

aths
2003-01-16, 00:53:33
Originally posted by nggalai
Stimmt, da steckt ne Karte drin. Die Oberseite des GFFX-Lüfters ist flach, im Bild hat's aber noch Bauteile zu sehen -> andere Karte.

Wird aber dennoch SEHR eng, und Karten, die den Slot "bis an den Rand und drüber" füllen (Kondensatoren ahoi) werden wohl kaum richtig reinpassen.Ich hoffe, dass nVidia mit dem NV35 ein Model in Petto hat, was einerseits leistungsstärker ist, aber andererseits weniger in die Breite geht.

seahawk
2003-01-16, 08:33:05
Originally posted by aths
Ich hoffe, dass nVidia mit dem NV35 ein Model in Petto hat, was einerseits leistungsstärker ist, aber andererseits weniger in die Breite geht.

Da bei den CPUs die Heatsinks auch immer größer werden, wird es bei den Grafikkarten auch nicht anders sein.

Ich denke es wird er Standard, dass auf den Mainboards der erste PCI wegfällt. (wie bei Abit)

Ailuros
2003-01-16, 09:02:44
Ich weiss gar nicht worueber ihr meckert. Man muss eben nur die Katze einsperren, dass sie nicht ploetzlich und unerklaerlich verschwindet :D

Es gibt Geruechte dass HOOVER an dem FX-Flow Patent interessiert ist *kicher*.

Jetzt mal ernsthaft: wuerde mich eine FX interessieren, dann waeren meine einzige Einwendung was das Geraeusch-Niveau betrifft. Ich hab zwar noch nicht so n Ding in Operation gesehen, aber alles was "high pitch noise" produziert schliesse ich automatisch aus.

Na mal sehen ob die FX das einzige Produkt in absehbarer Zukunft mit einem so grossen Cooler sein wird ;)

seahawk
2003-01-16, 09:32:08
Also einen Hamster würde ich da nicht vorbeilaufen lassen.

Ob das dann ein Garantiefall ist. Das Anschreiben sieht dann ungefähr so aus :

Sehr geehrte Damen und Herren,

hiermit übersende ich Ihnen meine defekte FX mit den darin inhaltenen Resten meines Hamsters Mike. Leider sind beide an Überhitzung verendet.

Ich bitte um Übersendung einer neuen FX, wenn möglich mit Tierschutzgitter. Desweitern bitte ich eine Gutmachung von 50 Euro, für den Verlust meines Hamsters Mike und den damit verbundenen seelischen Schmerzen.

Desweiteren bitte ich Sie die in der Karte klebenden Hamstereste nicht im Abfal zu entsorgen, sondern in einer würdevollen Erdbestattung bei zu setzen.

Mit freundlichen Grüssen

Ailuros
2003-01-16, 12:45:08
FX-Urne(tm)? ROFL :D

Salvee
2003-01-16, 13:01:41
Hat schon jemand das mit dem Counter auf www.evga.com gepostet ?

Wenn nicht, es sind noch 52 Tage des Ausharrens (für manche) angesagt.

Pussycat
2003-01-16, 13:21:16
Auweia. Wenn's jetzt noch 52 Tage bis zum Re-Launch (lauch war ja schon) sind, kann man innerhalb von zwei Monaten nichts mehr erwarten.

seahawk
2003-01-16, 13:25:06
52 tage sind 7,5 Wochen. Also 10. Woche - also Anfang März. Cebit word immer wahrscheinlicher ....


Andererseits ist das der Counter von eVGA und bezieht sich auf deren FX. Sind die Launch Partner ???

Salvee
2003-01-16, 13:45:15
Originally posted by seahawk
52 tage sind 7,5 Wochen. Also 10. Woche - also Anfang März. Cebit word immer wahrscheinlicher ....


Andererseits ist das der Counter von eVGA und bezieht sich auf deren FX. Sind die Launch Partner ???



Ja, sie sind's (http://www.evga.com/launch.asp) :wink:

seahawk
2003-01-16, 13:52:54
Also Anfang März für die USA. Wahrscheinlich große Markteinführung zur CeBit -> Im Laden Anfang April.

Pussycat
2003-01-16, 14:32:48
Aber wieso haben die einen launch-counter? Das ding IST schon gelauncht worden, obwohl es immer nch schwer zu bemerken ist.

nagus
2003-01-16, 15:36:20
http://www.evga.com/

:chainsaw:

seahawk
2003-01-16, 18:32:31
Ich hätte eine Theorie :

Es wird 2 Versionen von der FX geben. Eine normale mit 128 MB und eine Ultra mit 256 MB.
Die bisherigen Herstellerankündigungen sprachen von Februar für die 256 MB. Alle Herstellerankündigungen die später liegen nennen das 128 MB Modell.

Ich vermute die Karte kommt im Februar nur mit 256 MB und auf Grund des hohen Preises wird nicht jeder Hersteller solch ein Modell anbieten.
Das hätte für NV folgende Vorteile :

- die Nachfrage wird für das 256 MB wird gering sein, da der Preis hoch ist. Dadurch kann die noch geringe Produktionsmenge ausreichen um die Nachfrage weltweit zu decken.
- Weiterhin verdient NV ordentlich Geld an den ersten 256 MB Karten. Das preiswertere Modell kommt später.
- Hat NV doch bei der GeForce 4 auch so gemacht - als erstes kam die 4600.

seahawk
2003-01-16, 18:40:17
Tobias - Komplett.de


Obergefreiter
Benutzer # 3061

Bewertung:
erstellt am: 16. Januar 2003 16:18
--------------------------------------------------------------------------------
nVidia produziert die ersten 10.000 Karten und verteilt diese an Produzenten über die ganze Welt.

6000 davon kommen nach Europa und Komplett.de wird einpaar hundert von Creative erhalten!

Termin: Mitte Februar!

Tobias

-> Offensichtlich wird http://www.komplett.de Mitte Februar Karten haben

Tarkin
2003-01-16, 19:13:02
Originally posted by seahawk
Tobias - Komplett.de


Obergefreiter
Benutzer # 3061

Bewertung:
erstellt am: 16. Januar 2003 16:18
--------------------------------------------------------------------------------
nVidia produziert die ersten 10.000 Karten und verteilt diese an Produzenten über die ganze Welt.

6000 davon kommen nach Europa und Komplett.de wird einpaar hundert von Creative erhalten!

Termin: Mitte Februar!

Tobias

-> Offensichtlich wird http://www.komplett.de Mitte Februar Karten haben


IMO unglaubwürdig... warum sollte Europa 6.000 Stück erhalten? Was ist mit Asien und den USA?!

duckofdeath
2003-01-16, 19:45:04
weil asien so auf die sis karten vernarrt ist :D :D :D

Richthofen
2003-01-16, 20:02:19
Sind doch noch 4 Tausend übrig.
Ob dem seine Angaben stimmen oder nicht sei mal dahingestellt.
Aber niemand brauch zu glauben, wir geben von XY Stück dir wir haben in gleichen Teilen welche nach USA, Europa und Asien.

Man wird dort am meissten hinliefern, wo mächtig PR am Nötigsten ist.
Es könnte also sein, dass man sich in den USA recht sicher im Sattel fühlt, in Asien eh nicht mit großer Begeisterung für teure Karten rechnet und in Europa es am dringensten für Notwendig hält.
In Europa hat man immer so ein bisschen Mitgefühl für die Underdogs.
Sieht man gut bei AMD.
In DT ist Intel im Privatkundenbereich seid dem Athlon doch voll pervers eingebrochen.
In den USA aber nicht. Die Leute dort kaufen recht markenbewusst und das Geschäftssystem dort ist ein anderes.
Du kannst in den USA die besten Produkte haben, wenn du keine Fühler im mächtigen Retail und OEM Geschäft (Best Buy, Comp USA, Radio Shack, Dell, HP, Compaq und CO hast) wirst du es zu nix bringen.
In DT zum Beispiel läuft der Hase anders. Hier gibts keine mächtigen PC Warenhäuser.
Hier gibts allenfalls OMAs PC Bastelladen um die Ecke, Media Markt, Pro Markt, Saturn und das wars.
Geschäfte bzw große Ketten wie Comp USA sind hier Fehlanzeige.
Auch bei den Internetversendern herrscht hier derbe Vielfalt.
In den USA ist das durch die Mail in Rebate Aktionen schon stark begrenzt und dort verkaufen die Hersteller sogar noch recht viel direkt ausm eigenen Shop raus also so wie Gainward es hier teilweise macht.

Ich denke man wird so verteilen, das man für sich den größten NUtzen daraus zieht. Das würde jedes Unternehmen mit klugem Management und klugen PR bzw Verkaufsleuten so machen.

Unregistered
2003-01-16, 20:29:42
fuel for the fire :

http://www.xbitlabs.com/news/story.html?id=1042724707



GeForce FX to Appear in Late February or March

Posted 1/16/03 at 8:45 am by Anton

Although some vendors in Europe and the USA promised to deliver the first batch of the GeForce FX-based graphics cards by the end of this month (see this news- story, for instance), it now appears that they will not be able to make it before the official timeframe NVIDIA declared back in November (see this news-story).

According to the online store we mentioned in this news-story, the first graphics cards on the latest VPU from NVIDIA will appear only in late February or even early March. The Club3D graphics card is equipped with D-Sub, DVI-I and TV-Out connectors. It features 256MB of DDR-II SDRAM and the GeForce FX 5800 Ultra VPU running probably at 1000/500MHz respectively. Currently the product is priced at 692 Euro.

The information about later GeForce FX launch was confirmed by a source inside the distribution channel, though, all the vendors currently make their best to get the graphics cards as soon as possible.

Our sources at NVIDIA indicated that the company experienced the low yields with their 500MHz GeForce FX chips. Later than expected roll-out may be conditioned by either very low yields and inability to deliver significant amount of processors, or certain changes in the design of the VPU being made in order to improve the yields.

Stay tuned and will tell you a lot of interesting stuff about the code-named NV31 and NV34 products.

Salvee
2003-01-16, 21:06:05
Originally posted by Richthofen
Man wird dort am meissten hinliefern, wo mächtig PR am Nötigsten ist.


Indirekt zugegeben, dass ATi momentan derbe rul0rt. ;)

seahawk
2003-01-16, 21:31:21
http://www.nordichardware.se/artiklar/Intervjuer/English/nVidia/

Interview with nVidia

Beyond any doubts the most interesting product for our readers at Comdex Scandinavia 2003 was the GeForce FX.
nVidia had some space in Network Technicals booth, visitors could view the Dawn demo in all its glory. Other than that things were quite so we decided to ask the nVidia representatives a couple of questions.
Without further delay here's our interview with nVidia Europe.

[NH]: rumours have been floating around concerning exclusive right to producing GeForce FX, a couple of manufacturers have claimed that their GeForce FX will be the first and, at least for a limited time, the only GeForce FX on the market (Not naming any names here). Could you please comment the validity of these rumours?
[nV]: This is mainly rumours. There's quite a few manufacturers involved with the launch of the GeForce FX but as far as exclusive deals go that's just plain rumours. In Europe our prime partners will be Terratec, PNY and Creative and others will add to that list.

seahawk
2003-01-16, 21:32:44
Aber dafür scheint die LEsitung - naja zu sein : selbe Quelle

Some other things I noted:

the exhaust air was pretty damn hot

the fan didn't make much noise at all, pretty much on par with any other decent VGA cooling I've heard (though perhaps the final cards will sound a litle bit more since this one was "only" running at 450 MHz)

both creative and nvidia insinuated that there will only be ONE GeForce FX, no "normal" and "ultra", just GF FX

Dawn ran pretty choppy even without AA or AF, dunno the res since it was hard to tell on a 60 inch plasma screen and nVidia refused to tell me
it looked like 1600x900 or 1920x1080 if I had to guess, where the first would seem more likely since it was a bit pixelated even for being on 60 inch
I'd say it was running at an, unsteady, 25-30 fps or so

the display output signal was damn clear and crisp

another swedish site (64bits.se) also asked them some questions:
don't ecpect to hit 20k even if you have a 4 Ghz P4
the geforce fx will be faster than 9700 pro in the majority of benchmarks, but pretty far from all

duckofdeath
2003-01-16, 23:05:43
Meiner meinung nach sitzt ati in wartestellung und sobald es die fx gibt stellens den r350 vor und haben in sehr schnell am markt

Merlin31
2003-01-17, 00:53:30
kommt entweder als low cost raus oder gar net mehr,
ich war immer ein treuer Nvianer, ich habe die Schnautze voll vom warten (Sorry aber das muste jetzt raus). Ich weill endlich mein System aufrüsten. Sollte die Karte erst zur Messe raus kommen und ATi ihre 350er raus bringen wer will dann noch die never ending Story Karte FX haben wollen.

Ich fühle mich echt verarscht von denen !!!!

BlackBirdSR
2003-01-17, 01:55:39
Kann es nicht sein, dass die Hersteller Nvidia schwer unter Druck halten?
Dass sie drohen sofort zu ATI zu wechseln, und der FX keine Priorität mehr zukommen zu lassen, wenn sie nicht alle gleichmäßig mit Chips beliefert werden?
Und wenn die Yields schlecht genug sind, müsste Nvidia eben erst die Lager füllen bevor man alle gleich beliefern kann.

Ich könnte mir sonst Nichts vorstellen, was Nvidia zwingen würde die Karte so hinauszuschieben, ausser einer Totalkatastrophe hinsichtlich der Yields oder Fehlern im Design.

Was könnte noch schlimmer sein als die Kunden an ATI zu verlieren, so dass man nicht mal testsamples verschickt und testen lässt?

zeckensack
2003-01-17, 07:52:03
:zzz:

http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=489339#post489339

:P

StefanV
2003-01-17, 12:49:25
Originally posted by BlackBirdSR
Was könnte noch schlimmer sein als die Kunden an ATI zu verlieren, so dass man nicht mal testsamples verschickt und testen lässt?

Ganz einfach:

Selbst dran schuld zu sein ;)

z.B. mit zu hochmütigen Ankündigungen, überhöhten Preisen usw...

seahawk
2003-01-17, 13:14:03
Originally posted by Stefan Payne


Ganz einfach:

Selbst dran schuld zu sein ;)

z.B. mit zu hochmütigen Ankündigungen, überhöhten Preisen usw...

Danke für diesen hochwertigen und am Thema orientierten Beitrag.

:bad1: :smash:

nggalai
2003-01-17, 20:03:05
Wavey hat ein Kurz-QA mit John Malley von BFG Technologies (ex-Visiontek-Leute) gepostet:

http://www.beyond3d.com/forum/viewtopic.php?t=3907

- Offizieller Verkaufsstart, wie bereits spekuliert, Ende Februar/Anfangs März

- $400 Listenpreis

- Gibt nur GFFX @ 500MHz, gibt keine "Ultra"-Version

ta,
-Sascha.rb