PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Euer Tipp: Wer hat die Nase vorn? ... nV40 oder R420


Seiten : 1 [2] 3

ShadowXX
2004-03-09, 13:04:29
Original geschrieben von AlfredENeumann
Von wem?

Einmal von nV (wen verwunderts), aber inzwischen auch von id selbst...

J.S.Shadow

money, money, money...its so funny......(ATI ist da aber auch nicht besser...)

Gast
2004-03-09, 13:05:11
Original geschrieben von Winter[Raven]
Das ist Wunschdenken ... nicht umsonst werden die NV FX Karten für DOOM III empfolen ... *eg*


Im Grossen und Ganzen sind die Leistungsunterschiede zwischen Nvidia-FX- und Radeon 9x00- Boards gering.
Programmiert man jedoch mit einer 24/32-Bit-FP-Genauigkeit, können die FX-Karten leistungstechnisch mit den ATI-Pendants nicht mithalten.

PCGH 04/04, Seit 90, statement von JC, ID Software

Gast
2004-03-09, 13:16:40
Original geschrieben von ShadowXX
Einmal von nV (wen verwunderts), aber inzwischen auch von id selbst...
Nur weil id einen extra NV3X-Pfad einbaut, müssen sie noch lange nicht NV-HW empfehlen, denn genau das Gegenteil ist der Fall.

Winter[Raven]
2004-03-09, 13:36:33
http://www.nvidia.com/docs/CP/1/banner_doom3.jpg

Bilder sagen mehr als tausend Worte ^^.

@ Gast

1. Der R3xx kann nicht in FP32 laufen, da sie auf 24 limitiert SIND! Und ein vergleich zwischen FX FP32 und Radeon FP24 wäre mehr als unfair da man mit FP32 bessere Qualität erhält.

2. Ist es unwahrscheinlich das es auf Ati schneller laufen wird.

@ stickedy

Naja die FX'sen haben ja das nette kleine Feature (UltraShadow) zur CPU Entlastung, damit sollte FX bissel was gut machen :)

Gast
2004-03-09, 13:37:09
Original geschrieben von Thomas_BVB
Hi,

jetzt möchte ich auch mal meinen Senf dazu geben!

Ich erwarte kaum Unterschiede in der Leistung. Die Schlacht im Markt wird weiter geführt mit der aktuellen Roadmap.
Sicherlich wird es NEUE Namen geben, aber eine FX59X sowie eine R98X wird weiterhin 2004 das Mainstreamprodukt hinter den Bezeichnungen sein die da kommen werden.


Ich weiss nicht wie es ATI plant aber bei Nvidia werden FX9X Produkte in weiten Teilen auslaufen. Außnahme dürfte die günstige FX5200 bzw. FX5500 bleiben. NV31, 36 und 35 werden durch NV4x Ableger ersetzt werden. Der CEO hat angekündigt, dass auf Basis von NV4x mindestens 5 neue Chips ausgeliefert werden.
Das deutet ganz klar auf PS/VS 3.0 von top to bottom hin.


Die Folgen kann sich jeder persönlich anhand der Verschiebung der Marktanteile 2003 Q3 und Q4 ausmalen.

Ich erwarte das ATI Ihre Marktanteile auf dem jetzigen Nivou stabilisieren kann.

Das erwarte ich nur, wenn ATI weiterhin vorne liegt. Sollte sich über die Produktpalette hinweg ein Gleichstand herausbilden oder kleiner Vorsprung für Nvidia, dann wird das bessere Featureset und natürlich die Treiberunterstützung sowie die Marketing Campagne den Ausschlag geben.


Begründung:

1. Mobile Computing

Im Mobile-Segment hat ATI bereits heute einen enoremn Marktanteil gegenüber nv und co.

Memo: Es werden mehr Notebooks gekauft als PC's in der Preisklasse 999€ bis 1499€, dieser Trend wird noch dramtischer zunehmen.

Das kann man auch anders sehen. ATI kann im Mobile Bereich eigentlich nichts mehr gewinnen, sondern höchstens noch verlieren oder gleich bleiben. Auch hier wird entscheidend sein, wie die NV4x Chips performen. Ich erwarte auch hier
PS/VS 3.0 von Nvidia.


2. Handychips

NV spricht davon und bei ATI gibt es schon die ersten Martkerfahrungen wie zb. mit dem aktuellen Handy von Motorola V600.

Nvidia hat seinen ersten Chip bereits vor einiger Zeit angekündigt. Erste Produkte werden recht bald kommen, wenn nicht sogar schon einige angekündigt worden sind. Irgendwas hab ich da im Hinterkopf. Nvidia hat extra für diesen Bereich auch eine Aquisition durchgeführt. Desweiteren wurde das Geschäftsmodell erweitert. Es werden nicht nur Chips verkauft sondern auch IP lizensiert. Das wiederum führt zu einer breiteren Akzeptanz und Umsetzung in fertigen Produkten. Der weitere Fahrplan laut CEO sieht so aus, dass für Multimedia Handys und Handhelds jedes Quartal ein neuer Chips vorgestellt wird. Das finde ich ziemlich ehrgeizig. Einen Vorteil für ATI kann ich hier beim besten Willen nicht erkennen. Agressiver in der Aussendarstellung ist in diesem Feld in jedem Fall Nvidia. Wie es dann in einem bis 2 Jahren aussieht muss sich noch zeigen.


3. Ultra-Lowend

Im Lowend hat NV ganz klar mit MX4x und FX5200 noch die Nase vorne. Wobei hier einige PC-Hersteller bereits verstanden haben was die FX5200 verspricht und nicht einhält (DX9 und co).

Sorry aber das ist Quatsch. Die FX5200 ist nach wie vor der Seller im Low End. Das DX9 ist hier ein Marketingbonus und hilft bei der Verbreitung des DX9 Featuresets. Die FX5200 ist aber auch ansonstem jeder ATI Low End Lösung gleicher Preisklasse überlegen. Deswegen verkauft sie sich auch so gut und hat Nvidia vor Schlimmeren bewahrt. ATI hat hier eindeutig total geschlafen, was sich übrigens auch mal rächen könnte. Kommt eben ganz darauf an, inwieweit sich Entwickler überzeugen lassen den Split zwischen FP16 und FP32 zu berücksichtigen oder sogar auf FX12 einzugehen. Das könnte auch der NV4x Reihe zu Vorteilen verhelfen, da diese das Modell weiterverfolgen wird, was übrigens auch Sinn macht.


4. Midrange

Hier ist die R98X gegenüber der FX9X klar m Vorteil, FP24 gegenüber 16FP & 32FP bei NV. Die FX5500 oder FX5700 oder 9600XT macht aufgrund der gefallenen Preise bei der FX59x und der R98X keinen wirklichen Sinn mehr!

Die machen sehr wohl Sinn, da die FX5900 und Derivate sowie die 9800 nicht mehr lange verfügbar sein werden. Was jetzt zu sehen ist, ist ein Sell Out. Die räumen die Lager und schaffen dann die Chips ab. Übrig bleiben werden FX5600, FX5700 Reihe sowie die Radeon 9600 Reihe und das so lange, bis aus der neuen Generation Mainstream Chips verfügbar sein werden.


5. Highend

Hier wird es kaum Unterschiede zwischen der Performance geben.


Was abzuwarten bleibt. Die nächsten 2 Monate werden es zeigen.


6. PCI Express

Was bei allen Beiträgen hier vergessen wurde ist der Umstand das tatsächlich die Bridgelösung von nv 4GB/sec erreichen kann, aber prozentual gesehen mit 70% nur in eine Richtung.

Da heißt beim Lesen aus der Hauptspeicher kann die Bridgelösung von nv ca. 3GB/sec erreichen und beim Schreiben in Richtung Hauptspeicher aber nur mit 1GB/sec aufwarten (Nettowerte).

Hingegen kann die PCI Express Lösung von ATI in beide Richtungen 4GB/sec verarbeiten, sowohl LESEN & SCHREIBEN -> Hauptspeicher aufgrund 100% PCI Express Design!

Und das ist doch der einzige Vorteil von PCI-Express bei Grafikkarten! Als AGP entwickelt worden ist, hat ja niemand daran gedacht das es einmal Sinn ergeben würde aus dem Grafikspeicher grössere Datenmengen zu lesen.

MfG Thomas

PCI Express wird bei der Performance in diesem Jahr nur eine untergeordnete Rolle spielen. Die verfügbaren Spiele profitieren alle so gut wie gar nicht von mehr Bandbreite auf dem Steckplatz. PCI Express hat für den Chiphersteller dieses Jahr nur eine Alibifunktion. Er muss es anbieten, damit seine Grakas auf entsprechenden Boards einsetzbar sind. Für was anderes ist das momentan nicht gut.
Hier hat Nvidia meiner Meinung nach den besseren Schritt gemacht. Es wurde ein Bridge Chip entwickelt, der von heute auf morgen die gesamte AGP Palette je nach Bedarf auf PCI Express umrüsten kann. Damit jedoch nicht genug. Gleichzeitig kann er zukünftig jede PCI Express Palette auf AGP umrüsten und einsetzbar machen. Es wird noch recht lange AGP Boards geben. Nvidia spart hier klar logistischen Aufwand und Koordination, indem sie ihre Grafikchips unabhängig von diesen Anforderungen entwickeln und produzieren können. Auf die Marktnachfrage nach der ein oder anderen Variante kann so sehr viel besser reagiert werden.
Das der Schritt ein richtiger Übergangsweg ist wird dadurch schon belegt, dass auch ATI einen Bridge Chip fertigen will. Sie sind eben damit nur ein wenig später drann. Natives PCI Express wird für Performance etc.. kaum eine Auswirkung in diesem Jahr noch haben.

stickedy
2004-03-09, 13:43:56
Original geschrieben von Winter[Raven]
Naja die FX'sen haben ja das nette kleine Feature (UltraShadow) zur CPU Entlastung, damit sollte FX bissel was gut machen :)

Ja, sollte... Wer sagt denn, dass es so ist? UltraShadow hin, Stencil-Shadows her, fakt ist, dass die Öffentlichkeit noch nicht weiss, wie schnell NV40 und R420 letzlich sein werden und welche Änderungen NVidia und ATI an den Chips vorgenommen haben.
Wär doch gut möglich, dass ATI die Stencil-Schwäche mit dem R420 behoben hat. Immerhin sind ja schon über 1,5 Jahre seit dem Erscheinen des R300 vergangen, die müssen sich doch seit dem um irgendwas gekümmert haben ;)
Und die Stencil-Shadows sind ja auch net alles! Wenn es nur danach gehen würde, wäre eine Kyro II die mit Abstand schnellste Karte für Doom3...

stickedy
2004-03-09, 13:47:51
Original geschrieben von Gast
Nvidia hat seinen ersten Chip bereits vor einiger Zeit angekündigt. Erste Produkte werden recht bald kommen, wenn nicht sogar schon einige angekündigt worden sind. Irgendwas hab ich da im Hinterkopf. Nvidia hat extra für diesen Bereich auch eine Aquisition durchgeführt. Desweiteren wurde das Geschäftsmodell erweitert. Es werden nicht nur Chips verkauft sondern auch IP lizensiert. Das wiederum führt zu einer breiteren Akzeptanz und Umsetzung in fertigen Produkten. Der weitere Fahrplan laut CEO sieht so aus, dass für Multimedia Handys und Handhelds jedes Quartal ein neuer Chips vorgestellt wird. Das finde ich ziemlich ehrgeizig. Einen Vorteil für ATI kann ich hier beim besten Willen nicht erkennen. Agressiver in der Aussendarstellung ist in diesem Feld in jedem Fall Nvidia. Wie es dann in einem bis 2 Jahren aussieht muss sich noch zeigen.

Weder ATI noch NVidia haben zur Zeit auch nur annähernd konkurrenzfähige Produkte für diesen Bereich! Wurde imho total verschlafen...
Das was NVidia da angekündigt hat, ist doch jediglich ein Versuch, sich im Gespräch zu halten. Produktionsreif ist da noch lange nichts. Ich erwarte da in den nächsten 6 - 9 Monaten nichts, was den Namen 3D-Beschleuniger verdienen würde...

Ailuros
2004-03-09, 13:59:20
Original geschrieben von aths
Dann hätte ATI eine Glanzleistung abgeliefert. Ich traue ATI zu, dass sie auf brechen und biegen die schnellste Lösung hinkriegen. Nur ist die Frage, wer diese bezahlen will.

Theoretisch waere es nicht allzu schwer gewesen die Leistung in dem Fall zumindest auf das etwa gleiche Niveau zu bringen. Ein Punkt waere doppelt so viele Z/stencil units per SIMD zu benutzen u.a. Wieso das jetzt teuer sein sollte verstehe ich jetzt aber wirklich nicht.

Ich hab zwar keine Ahnung was genau sie in der Abteilung angerichtet haben, aber dass sie auf 16z/stencil units stecken geblieben sind, klingt mir auch wieder unwahrscheinlich.

Gast
2004-03-09, 14:01:16
[B]Original geschrieben von Winter[Raven]
@ Gast

1. Der R3xx kann nicht in FP32 laufen, da sie auf 24 limitiert SIND! Und ein vergleich zwischen FX FP32 und Radeon FP24 wäre mehr als unfair da man mit FP32 bessere Qualität erhält.


Winter, das ist ein Zitat aus der PCGH.
Ich habe nicht vor da irgendetwas zu ändern.
Ob JC das so gesagt hat, ist fraglich.
Vielleicht hätten sie "Full Precision" hinschreiben sollen, aber dann wüsste 90% der Leser nicht, was gemeint ist.

Ailuros
2004-03-09, 14:20:59
Nvidia hat seinen ersten Chip bereits vor einiger Zeit angekündigt. Erste Produkte werden recht bald kommen, wenn nicht sogar schon einige angekündigt worden sind. Irgendwas hab ich da im Hinterkopf. Nvidia hat extra für diesen Bereich auch eine Aquisition durchgeführt. Desweiteren wurde das Geschäftsmodell erweitert. Es werden nicht nur Chips verkauft sondern auch IP lizensiert. Das wiederum führt zu einer breiteren Akzeptanz und Umsetzung in fertigen Produkten. Der weitere Fahrplan laut CEO sieht so aus, dass für Multimedia Handys und Handhelds jedes Quartal ein neuer Chips vorgestellt wird. Das finde ich ziemlich ehrgeizig. Einen Vorteil für ATI kann ich hier beim besten Willen nicht erkennen. Agressiver in der Aussendarstellung ist in diesem Feld in jedem Fall Nvidia. Wie es dann in einem bis 2 Jahren aussieht muss sich noch zeigen.

Alle 4 Monate einen neuen chip? :crazy:

Warten wir erstmal ab bis wir den ersten wahren 3D chip in Silizium realisiert sehen, dessen wahre Faehigkeiten und die dann folgende Markt-Akzeptanz und dann sehen wir weiter.

Von dem abgesehen "lead times" in diesem Markt sind eher lang als kurz, so in etwa in der 2 Jahre Marge. Wird heute z.B. lizenziert dann kann man integration im besten Fall in 2006 erwarten und dass haengt nicht vom IP Verkauefer ab, sondern von den potentiellen Kunden/Semikonduktoren, wobei uebrigens normalerweise der Kunde von einem gewissen Stadium und aufwaerts mitentwickelt.

Quasar
2004-03-09, 14:49:06
Original geschrieben von Ailuros
Alle 4 Monate einen neuen chip? :crazy:


Sogar alle 3 Monate ;)

Gast
2004-03-09, 15:01:33
Original geschrieben von Ailuros
Alle 4 Monate einen neuen chip? :crazy:

Warten wir erstmal ab bis wir den ersten wahren 3D chip in Silizium realisiert sehen, dessen wahre Faehigkeiten und die dann folgende Markt-Akzeptanz und dann sehen wir weiter.

Von dem abgesehen "lead times" in diesem Markt sind eher lang als kurz, so in etwa in der 2 Jahre Marge. Wird heute z.B. lizenziert dann kann man integration im besten Fall in 2006 erwarten und dass haengt nicht vom IP Verkauefer ab, sondern von den potentiellen Kunden/Semikonduktoren, wobei uebrigens normalerweise der Kunde von einem gewissen Stadium und aufwaerts mitentwickelt.

Du weisst doch genauso gut wie ich, dass die Aussage ein neuer Chip nicht zwangsläufi bedeutet ein von Grund auf neuer Chip. Da wirds ein bisserl mehr Takt geben, eventuell durch Selektion noch ein bissi weniger Strombedarf und hin und wieder das ein oder andere Feature mehr. Seine Aussage jedenfalls war jedes Quartal solls ein neuer werden. Er hat nur nicht gesagt wann sie beginnen das umzusetzen. Allerdings wird Nvidia sich recht agressiv zeigen. Der Markt ist noch recht klein und gerade erst am Beginn. Ich würde sagen vergleichbar zur Voodoo1 Ära eventuell sogar prä Voodoo1.
Was IP angeht, so muss man festhalten, dass Nvidia hier klar beide Modelle anbietet. IP Lizenzierung ist eine zusätzliche Option zur dem nach wie vor durchgeführten Verkauf von fertigen Chips.

Exxtreme
2004-03-09, 15:04:36
Original geschrieben von stickedy

Wär doch gut möglich, dass ATI die Stencil-Schwäche mit dem R420 behoben hat.
Hää? Seit wann hat die R3x0-Serie eine Stencil-Schwäche?

aths
2004-03-09, 15:09:33
Original geschrieben von Winter[Raven]
1. Der R3xx kann nicht in FP32 laufen, da sie auf 24 limitiert SIND! Und ein vergleich zwischen FX FP32 und Radeon FP24 wäre mehr als unfair da man mit FP32 bessere Qualität erhält. Ich denke nicht, dass man bei Doom3 da einen Unterschied sehen kann. Es unerheblich, wie die sichtbare Qualität erreicht wird.

Quasar
2004-03-09, 15:09:52
Original geschrieben von Exxtreme
Hää? Seit wann hat die R3x0-Serie eine Stencil-Schwäche?

Nuja, im Vergleich zu colorierten Pixel ist der Vorsprung vor den nV3x geringer. ;)
Im Vergleich zur restlichen Architektur also ein Schwachpunkt.

ShadowXX
2004-03-09, 15:15:34
Original geschrieben von Winter[Raven]
http://www.nvidia.com/docs/CP/1/banner_doom3.jpg

Bilder sagen mehr als tausend Worte ^^.

@ Gast

1. Der R3xx kann nicht in FP32 laufen, da sie auf 24 limitiert SIND! Und ein vergleich zwischen FX FP32 und Radeon FP24 wäre mehr als unfair da man mit FP32 bessere Qualität erhält.

2. Ist es unwahrscheinlich das es auf Ati schneller laufen wird.


zu 1.) das koennte man dann aber auch ueber den Vergleich ARB2-Pfad (welchen die ATI benutzt) vs. spezieller nv3X-Pfad sagen....

zu 2.) vielleicht unwahrscheinlich, aber nicht voellig unmoeglich

J.S.Shadow

Exxtreme
2004-03-09, 15:16:03
Original geschrieben von Quasar
Nuja, im Vergleich zu colorierten Pixel ist der Vorsprung vor den nV3x geringer. ;)
Im Vergleich zur restlichen Architektur also ein Schwachpunkt.
Naja, eine Schwäche weäre es erst wenn die Performance in den meisten Spielen unterirdisch wäre. Als [H] die Doom3-Benches gemacht haben, dann war die R300 um die 40 fps schnell ... und das ohne angepasste Treiber.

LovesuckZ
2004-03-09, 15:21:57
Original geschrieben von Exxtreme
Naja, eine Schwäche weäre es erst wenn die Performance in den meisten Spielen unterirdisch wäre. Als [H] die Doom3-Benches gemacht haben, dann war die R300 um die 40 fps schnell ... und das ohne angepasste Treiber.

"ohne angepasste Treiber" - also ohne Cheats... :)

LovesuckZ
2004-03-09, 15:24:01
[SIZE=1]Original geschrieben von ShadowXX
zu 1.) das koennte man dann aber auch ueber den Vergleich ARB2-Pfad (welchen die ATI benutzt) vs. spezieller nv3X-Pfad sagen..../Size]

Wie ich schonmal sagte: Wenn man einen fairen vergleich haben moechte, sollte man ohne herstellerspezifischen Extension (i hoff so richtig) benchen.
Ansonsten sehe ich nicht, warum man die FX karte auf dem ARB2 Pfad "begrenzen" sollte. Nur weil ATi nicht die selben moeglichkeiten besitzt wie die Nvidiakarten?

Quasar
2004-03-09, 15:25:34
Original geschrieben von Exxtreme
Naja, eine Schwäche weäre es erst wenn die Performance in den meisten Spielen unterirdisch wäre. Als [H] die Doom3-Benches gemacht haben, dann war die R300 um die 40 fps schnell ... und das ohne angepasste Treiber.

Das ist _deine_ Meinung, sowohl was Schwäche, als auch, was nicht angepasste Treiber angeht. ;)
Ich erinnere mich da an einen anderen "Benchmark" von Doom3, welcher ganz offensichtlich "nicht angepasste" Treiber zeigte.

Ausserdem:
Mit dem R350 wurde eine "Schwäche" beim Stencil-Buffer in Verbindung mit MSAA behoben - laut ATi. ;)

Exxtreme
2004-03-09, 15:34:36
Original geschrieben von LovesuckZ
"ohne angepasste Treiber" - also ohne Cheats... :)
Treiber kannst du allgemein auf Stencil-Operationen anpassen. Und so wie ich ATi kenne, optimieren sie solange nicht bis es zum Nachteil wird. Es kann also sein, daß der Treiber, der terminmäßig sich mit dem Doom3-Launch überschneidet, verbesserte Stencil-Performance haben wird.

ShadowXX
2004-03-09, 15:37:01
Original geschrieben von LovesuckZ
Wie ich schonmal sagte: Wenn man einen fairen vergleich haben moechte, sollte man ohne herstellerspezifischen Extension (i hoff so richtig) benchen.
Ansonsten sehe ich nicht, warum man die FX karte auf dem ARB2 Pfad "begrenzen" sollte. Nur weil ATi nicht die selben moeglichkeiten besitzt wie die Nvidiakarten?

Da hst du wohl etwas falsch in erinnerung...der ARB2 Pfad ist der ohne Herstellerspezifische Extensions...auf diesem Rechnet die ATI mit ihren FP24 und nV wuerde diesen Pfad (koennen beide benutzen, da "allgemein") mit FP32 rechnen....

Nur wuerde die nV dann ziemlich alt aussehen...deshalb hat JC der nv3x-Serie einen eigenen speziellen Pfad verpasst...

J.S.Shadow

P.S.
es gibg mir um den "qualitaetsvergleich" nicht um die Geschwindigkeit...Raven sagte das es unfair waere 24 mit 32 zu vergleichen und ich wollte dazu nur bemerken, dass es dann auch unfair waere FP24 mit FX12 zu vergleichen...

LovesuckZ
2004-03-09, 15:42:46
Original geschrieben von Exxtreme
Treiber kannst du allgemein auf Stencil-Operationen anpassen.

Ich denke, dies ist schon ges/edit: chehen. Gibt es doch schon einige Spiele mit Stencil-Operationen.

Es kann also sein, daß der Treiber, der terminmäßig sich mit dem Doom3-Launch überschneidet, verbesserte Stencil-Performance haben wird.

Damit wandert ATi auf einem Schmalen Grad zwischem legalen Optimierungen und Cheat...

@ShadowXX,
ja, kann sein :)
Zur Qualitaet: Doom3 wird nur inw enigen Situationen mehr als FP16 benoetigen, also ist es Quatsch beide Chips mit voller Praezisions laufen zu lassen.

ShadowXX
2004-03-09, 15:47:43
Original geschrieben von LovesuckZ
@ShadowXX,
ja, kann sein :)
Zur Qualitaet: Doom3 wird nur inw enigen Situationen mehr als FP16 benoetigen, also ist es Quatsch beide Chips mit voller Praezisions laufen zu lassen.

Da gebe ich dir vollkommen recht...

"Unser" Problem wird wieder das "Aepfel mit Birnen vergleichen" Problem sein...die ATI kann nur mit FP24 rechnen...die FXen benutzen ihren Pfad...und beim ersten Benchmark werden die jeweiligen Fraktionen sich diesen Umstand gegenseitig um die Ohren hauen...

J.S.Shadow

Exxtreme
2004-03-09, 16:14:44
Original geschrieben von LovesuckZ
Ich denke, dies ist schon ges/edit: chehen. Gibt es doch schon einige Spiele mit Stencil-Operationen.

Naja, aber wohl keine, auf die sich die Stencil-Leistung spürbar auswirkt. Das dürfte mit Doom3 anders werden.

Winter[Raven]
2004-03-09, 16:33:16
Original geschrieben von aths
Ich denke nicht, dass man bei Doom3 da einen Unterschied sehen kann. Es unerheblich, wie die sichtbare Qualität erreicht wird.

Das ist mir klar, ABER ich bezog mich auf den unfairen Vergleich, so marginal der Unterschied sein mag, so mehr kostet die FP32 auf FX mehr leistung.

ShadowXX
2004-03-09, 16:35:47
Original geschrieben von Winter[Raven]
Das ist mir klar, ABER ich bezog mich auf den unfairen Vergleich, so marginal der Unterschied sein mag, so mehr kostet die FP32 auf FX mehr leistung.

Was aber am Design von nV liegt...weniger daran, das es FP32 ist...

Und wie ich schon erwaehnte...dann ist der Vergleich nv3x-Pfad, der mit FX12 und FP16 laeuft, und ARB2-Pfad (auf dem die ATI mit FP24 laeuft) genauso unfair...

J.S.Shadow

Exxtreme
2004-03-09, 16:38:18
Original geschrieben von Winter[Raven]
Das ist mir klar, ABER ich bezog mich auf den unfairen Vergleich, so marginal der Unterschied sein mag, so mehr kostet die FP32 auf FX mehr leistung.
Kommt auf das Design an. Es kann sein, daß 32 Bit FP ohne nennenswerte Geschwindigkeitsverluste verarbeitet werden kann.

LovesuckZ
2004-03-09, 18:17:45
Original geschrieben von ShadowXX
Was aber am Design von nV liegt...weniger daran, das es FP32 ist...
Und wie ich schon erwaehnte...dann ist der Vergleich nv3x-Pfad, der mit FX12 und FP16 laeuft, und ARB2-Pfad (auf dem die ATI mit FP24 laeuft) genauso unfair...
J.S.Shadow

Nun, der vergleich NV3x - Pfad gegen ARB2 ist nicht unfair, da Doom3 eben von den besonderen Eigenschaften der FX Karten (wie aber auch von anderen karten) gebraucht macht. Und da es keinen Sinn ergibt, mehr als die benoetigte Genauigkeiten zu verlangen, sehe ich hier kein Problem.
Denn wie du so schoen sagtes: Es liege alles am Design.

Ailuros
2004-03-09, 18:38:53
Original geschrieben von Gast
Du weisst doch genauso gut wie ich, dass die Aussage ein neuer Chip nicht zwangsläufi bedeutet ein von Grund auf neuer Chip. Da wirds ein bisserl mehr Takt geben, eventuell durch Selektion noch ein bissi weniger Strombedarf und hin und wieder das ein oder andere Feature mehr. Seine Aussage jedenfalls war jedes Quartal solls ein neuer werden. Er hat nur nicht gesagt wann sie beginnen das umzusetzen. Allerdings wird Nvidia sich recht agressiv zeigen. Der Markt ist noch recht klein und gerade erst am Beginn. Ich würde sagen vergleichbar zur Voodoo1 Ära eventuell sogar prä Voodoo1.
Was IP angeht, so muss man festhalten, dass Nvidia hier klar beide Modelle anbietet. IP Lizenzierung ist eine zusätzliche Option zur dem nach wie vor durchgeführten Verkauf von fertigen Chips.

Von "aggressiv" hab ich nichts in der letzten 3GSM Praesentation bei Khronos.org gesehen. Du kannst die 2 Jahre bis zur Integration nach der ersten Lizenz fuer AR10 dazuzaehlen und von dem was gezeigt wurde sah ich weder "progammierbares" 3D noch "photorealistic" wasauchimmer.

Was die hypothetischen refreshes betrifft, dann diktiert die Anfrage in einem gewissen Markt die Evolution und nicht das Angebot. Ich kann keine Anfrage fuer 3-monatige refreshes in diesem Markt sehen, und Taktraten skalieren meistens dann mit kleineren Herstellungsprozessen wo es um einiges laenger dauert als nur ein paar Monate.

Ja PDA/mobile ist tatsaechlich am Anfang was 3D betrifft, nur hat NVIDIA den ersten Zug leider schon verpasst.

NVIDIA oder deren CEO kann von mir aus glauben dass der mobile Markt sich mit solchen Geschwindigkeiten bewegen wird, nur hab ich trotz allem ernsthafte Zweifel, dass der Verbraucher jede 3 Monate einen neuen Handy oder PDA kaufen wuerde. Komplexitaet wird im PDA/mobile Markt um einiges schneller steigern, als damals bei Voodoo1 und im PC space; was aber auch wiederrum heisst dass Stromverbrauch noch mehr Kopfschmerzen und schneller darstellen werden.

Wenn man gerade mit "bilinear" wirbt, werde ich nicht unbedingt aus den Socken gehauen und Unreal1 hat auch nicht viel mit photorealismus zu tun.

Ailuros
2004-03-09, 18:43:33
Original geschrieben von Quasar
Das ist _deine_ Meinung, sowohl was Schwäche, als auch, was nicht angepasste Treiber angeht. ;)
Ich erinnere mich da an einen anderen "Benchmark" von Doom3, welcher ganz offensichtlich "nicht angepasste" Treiber zeigte.

Ausserdem:
Mit dem R350 wurde eine "Schwäche" beim Stencil-Buffer in Verbindung mit MSAA behoben - laut ATi. ;)

Bei gleicher Taktrate scheint sich R3xx/NV3x (high end) etwa gleich zu verhalten mit MSAA in FableMark. Klar ist es nicht ausschlaggebend fuer Doom3, aber FableMark ist sehr Fuellraten-limitiert. Deshalb sollte man es auch nur als synthetischen Test ansehen der stencil-Fuellrate messen kann.

ShadowXX
2004-03-09, 19:24:43
Original geschrieben von LovesuckZ
Nun, der vergleich NV3x - Pfad gegen ARB2 ist nicht unfair, da Doom3 eben von den besonderen Eigenschaften der FX Karten (wie aber auch von anderen karten) gebraucht macht. Und da es keinen Sinn ergibt, mehr als die benoetigte Genauigkeiten zu verlangen, sehe ich hier kein Problem.
Denn wie du so schoen sagtes: Es liege alles am Design.

Ich persoenlich habe ueberhaupt keine Probleme die beide Pfade gegeneinander zu benchen...

Jeden den Pfad, der ihm am meisten liegt...so ists von JC vorgesehen, so solls dann auch gemacht werden...man sollte sich lieber freuen, das es Programmiere gibt, die die staerken und schwaechen der einzelnen Karten kennen und dementsprechend das Game anpassen...

Das Unfair Bezog sich auf Ravens Statement, bei der er nur die nV Seite betrachtete...den wie du schon sagtest..brauchen tun wir weder FP24 noch FP32 wirklich fuer D3...dann sollte der Qualitaetsunterschied zwischen FP32 und FP24 auch vernachlaessigbar sein...

J.S.Shadow

Gast
2004-03-11, 10:25:03
Original geschrieben von Exxtreme
Hää? Seit wann hat die R3x0-Serie eine Stencil-Schwäche?

Danke Extreme!

Hier versuchen einige nvidia-Fanboys ATI Fehler anzukreiden die gar nicht exestieren!

Peinlich finde ich das schon, das zeigt mir mal wieder das nvidia recht aktiv hier ist!

Wer es nötig hat!

Gast
2004-03-11, 10:28:02
Es geht sogra das Gerücht rum, das nvidia einige Leute mit Hardware bezahlt um entsprechende Gerüchte zu verbreiten!

Vorschlag an die Membercrew. Ihr müßt dringend einen Thread bzw. eigene Seite - als EXCEL-Tabelle aufmachen in dem beide Chipanbieter mit Ihren Macken und unterstützen Features verglichen werden.

So geht das nicht weiter!

AMC
2004-03-11, 11:24:35
Callvote: Abschaffen des Gastaccounts! F1!

Gast
2004-03-11, 11:52:56
Warum sollte man die Gastaccounts abschaffen? Ich gehe selbst gern als Gast in dieses Forum.

AlfredENeumann
2004-03-11, 12:39:58
Original geschrieben von AMC
Callvote: Abschaffen des Gastaccounts! F1!

sorry, aber hier gibt es einige REG´s die erheblich mehr Flamen als Gäste.

Quasar
2004-03-11, 12:48:10
Original geschrieben von Ailuros
Bei gleicher Taktrate scheint sich R3xx/NV3x (high end) etwa gleich zu verhalten mit MSAA in FableMark. Klar ist es nicht ausschlaggebend fuer Doom3, aber FableMark ist sehr Fuellraten-limitiert. Deshalb sollte man es auch nur als synthetischen Test ansehen der stencil-Fuellrate messen kann.

Ack. Bis auf die interessante Tatsache, daß die Radeons mit 2xMSAA noch deutlich vor den 128bittigen FXen liegen, mit 4xMSAA jedoch auf etwa dieselbe Frameraten-Region einbrechen.

Der FX scheints recht egal, ob 2xAA oder 4xAA im Fablemark.
(Alles bezogen auf R9700p und FX5800U).


Allerdings: Was hat dein Post mit dem Quote von mir zu tun? :gruebel:


BTW,
@gast:
Mit etwas weniger Paranoia könntest du es vielleicht so betrachten, daß im Vergleich zum Vorsprung beim Einsatz von Shadern und bei der Pixelfüllrate, der Vorsprung an Stencil-Leistung nicht sehr hoch ist.
Die "Schwäche" bezieht sich also nicht auf einen 1:1 Vergleich mit nV, sondern auf den Vergleich mit der eigenen, ansonsten erbrachten Leistung. Eine "relative Schwäche" also.

aths
2004-03-11, 13:09:41
Original geschrieben von Gast
Es geht sogra das Gerücht rum, das nvidia einige Leute mit Hardware bezahlt um entsprechende Gerüchte zu verbreiten!Das Gerücht höre ich zum ersten mal.

Privat habe ich alles an HW, egal von NV oder ATI, aus eigener Tasche bezahlt.
Original geschrieben von Gast
Vorschlag an die Membercrew. Ihr müßt dringend einen Thread bzw. eigene Seite - als EXCEL-Tabelle aufmachen in dem beide Chipanbieter mit Ihren Macken und unterstützen Features verglichen werden.

So geht das nicht weiter! Wir haben gewiss sinnvolleres zu tun. Was Macken angeht, da gibt es in unregelmäßigen Abständen Artikel.

Original geschrieben von Gast
Hier versuchen einige nvidia-Fanboys ATI Fehler anzukreiden die gar nicht exestieren!

Peinlich finde ich das schon, das zeigt mir mal wieder das nvidia recht aktiv hier ist!

Wer es nötig hat! Mein Kontakt zu Nvidia ist immerhin gut genug, dass ich weiß, dass Nvidia hier nicht (auch nicht undercover) unterwegs ist.

Ailuros
2004-03-11, 13:18:51
Ack. Bis auf die interessante Tatsache, daß die Radeons mit 2xMSAA noch deutlich vor den 128bittigen FXen liegen, mit 4xMSAA jedoch auf etwa dieselbe Frameraten-Region einbrechen.

Der FX scheints recht egal, ob 2xAA oder 4xAA im Fablemark.
(Alles bezogen auf R9700p und FX5800U).

Die Tendenz ist auch gleich bei R3xx vs NV35. Siehe nochmal hier:

FableMark @ 1024*768*32

9800XT@ 400MHz:

noAA: 76.0 fps
2xAA: 64.9 fps
4xAA: 38.3 fps

(6xAA: 23.9 fps)

5900@ 400MHz:

noAA: 62.0 fps
2xAA: 42.6 fps
4xAA: 36.7 fps

Das mit der Sache dass es der FX "egal" ist ob 4xMSAA ist relativ, denn die Framerate purzelt ja schon ganz schoen mit 2xMSAA ab. Das ist aber nicht der Punkt hier. Ich sehe von den Resultaten nicht unbedingt einen Vor- oder Nachteil fuer die eine oder andere Loesung was stencil + MSAA betrifft.

So wie ich die fruehen Doom3 Resultate im Gedaechtnis habe, sah es nicht wie oben aus, sondern scheinten tatsaechlich NV3x einen Vorteil zu haben. Die wahre Frage ist hier ob Doom3 was anderes anrichtet was der R3xx nicht unbedingt bekommt oder ob tatsaechlich jeglicher Treiber der benutzt wurde doch ein paar Optimierungen beduerfte.

marco42
2004-03-11, 15:40:24
Original geschrieben von Gast
Vorschlag an die Membercrew. Ihr müßt dringend einen Thread bzw. eigene Seite - als EXCEL-Tabelle aufmachen in dem beide Chipanbieter mit Ihren Macken und unterstützen Features verglichen werden.


Ein Wiki waere wohl Sinnvoller.

Gast
2004-03-14, 01:10:04
Ganz klar R420, alles andere wuerde bedeuten das ich auch an Peterchens Mondfahrt glaube!

Warum: Weil DX9 2004/2005 auch bei einem Update auf Longhorn 24Bit FP/Point schneller supporten wird als 16FP oder 32FP wie bei nvidia. Erst der NV45 wird ein NEUER Chip sein der was kann was ein roter schon laengst kann.

PS3.0 Support wird 2004/2005 nicht benoetigt!

Winter[Raven]
2004-03-14, 01:57:56
@ Gast

Schon gehört das Gerücht das die Runde macht, demzufolge der NV40 schon der NV45 ist ;)

Warum: Weil DX9 2004/2005 auch bei einem Update auf Longhorn 24Bit FP/Point schneller supporten wird als 16FP oder 32FP wie bei nvidia.

Häääää ? ... bitte Erklären ...:kratz:

aths
2004-03-14, 01:59:47
Original geschrieben von Gast
Warum: Weil DX9 2004/2005 auch bei einem Update auf Longhorn 24Bit FP/Point schneller supporten wird als 16FP oder 32FP wie bei nvidia.Hm?

Original geschrieben von Gast
Erst der NV45 wird ein NEUER Chip sein der was kann was ein roter schon laengst kann.Der NV40 ist kein neuer Chip?

Original geschrieben von Gast
PS3.0 Support wird 2004/2005 nicht benoetigt! Ohne HW kein Support – Henne-Ei-Problem.

aths
2004-03-14, 02:01:30
Original geschrieben von Winter[Raven]
@ Gast

Schon gehört das Gerücht das die Runde macht, demzufolge der NV40 schon der NV45 ist ;) Der NV40 ist nicht "der NV45". Beim NV40 wurde das erste Design verworfen. Dabei flossen vielleicht schon Sachen ein, die NV ursprünglich für den NV45 vorgesehen hatte, der in dieser Form jetzt nicht mehr kommen wird.

robbitop
2004-03-14, 02:10:54
auffällig ist jedoch, dass es keinen NV45 als Refresh mehr geben wird, somit gibts den originalen NV40 nichtmehr.

Was spricht gegen "vorziehen"?? (würde imo auch die Verzögerung erklären -> Launch Codex November zu April sind >= ~4 Monate)

€dit:
mich würde interessieren ob die A0 Samplex vom Editors Day baugleich mit dem Markt NV40 werden oder ob das der orig. NV40 war

aths
2004-03-14, 02:19:21
Ich zweifle, ob der "originale NV40" richtig zuende entwickelt wurde.

Thowe
2004-03-14, 10:06:12
Original geschrieben von aths
Ich zweifle, ob der "originale NV40" richtig zuende entwickelt wurde.

Da zweifel ich sogar heftigst mit.

Ailuros
2004-03-14, 12:43:03
Was spricht gegen "vorziehen"?? (würde imo auch die Verzögerung erklären -> Launch Codex November zu April sind >= ~4 Monate)

Was fuer ein Launch im November? Mit ein paar Masken in der Hand kann man nicht viel vorzeigen....

Nochmal schon etwa Q1 2k3 war es ziemlich klar, dass vor Q1 2004 nichts mehr daraus wird.

BodyLove
2004-03-14, 14:26:45
Ich wollte mal wissen, wie die Chancen stehen, dass eine Non-Ultra bzw. Non-Pro Varianten der nextgen-Chips herausgebracht wird. Zwar werde ich mir einen neuen Rechner zusammenstellen, nur würde ich nur ungern für bisschen mehr takt über 100Euro zahlen.

Danke im Voraus.

Mfg Body


PS: Da wir im Speku-Forum sind, kann man auch spekulieren.:)

robbitop
2004-03-14, 14:29:33
@AiL
laut Dave Baumann gab es bereits Ende Oktober lauffähige NV40 Boards im A0 Stepping...also bissl mehr als ein paar Masken sollte man schon gehabt haben

][immy
2004-03-14, 15:20:48
Original geschrieben von BodyLove
Ich wollte mal wissen, wie die Chancen stehen, dass eine Non-Ultra bzw. Non-Pro Varianten der nextgen-Chips herausgebracht wird. Zwar werde ich mir einen neuen Rechner zusammenstellen, nur würde ich nur ungern für bisschen mehr takt über 100Euro zahlen.

Danke im Voraus.

Mfg Body


PS: Da wir im Speku-Forum sind, kann man auch spekulieren.:)

also wenn ich mich recht entsinne gibt es spätestens seit der TNT 2 immer mindestens eine Ultra/Pro und normalversion (und noch ein paar abstufungen für den Mainstream)

also dürftest du diesmal auch wieder fest damit rechnen können

aths
2004-03-14, 15:31:13
Original geschrieben von BodyLove
Ich wollte mal wissen, wie die Chancen stehen, dass eine Non-Ultra bzw. Non-Pro Varianten der nextgen-Chips herausgebracht wird. Zwar werde ich mir einen neuen Rechner zusammenstellen, nur würde ich nur ungern für bisschen mehr takt über 100Euro zahlen.Spekulation: Zum Launch gibt es mindestens eine Art "6800" und eine "6800 Ultra". (Wie die Zahlen dann wirklich sind, werden wir sehen.)

ShadowXX
2004-03-14, 17:37:32
Original geschrieben von aths
Spekulation: Zum Launch gibt es mindestens eine Art "6800" und eine "6800 Ultra". (Wie die Zahlen dann wirklich sind, werden wir sehen.)

Und um weiter zu Spekulieren:
Ich glaube, das nV die x800-Endung fuers High-End meiden wird, da sich sonst vielleicht mnach einer an den nv30 erinnert fuehlt.

Dazu passt auch ganz gut, das der "nv45" die PCI-Express Variante der nv40 sein soll....

Meine Schätzung lautet deshalb, das Sie gleich mit 6900/Ultra anfangen werden...

J.S.Shadow

//edit: sehe gerade das ich mich etwas bei deinem Post verlesen hatte...du sagst, das du über die "Zahlen" nicht spekulierts...egal...ich glaube aufjedenfall das Sie die Nummerierungen durchaus so behalten werde, bis auf das SIe mit x900 fuer High-End anfangen...

Ailuros
2004-03-15, 02:45:00
Original geschrieben von robbitop
@AiL
laut Dave Baumann gab es bereits Ende Oktober lauffähige NV40 Boards im A0 Stepping...also bissl mehr als ein paar Masken sollte man schon gehabt haben

Es wurden aber nur Masken gezeigt mein Herr in diesem Zeitraum und das wohl aus keinem bestimmten Grund oder?

Du hast von einer Launch-Verschiebung von November auf April gesprochen und ich wiederhole nochmal dass ein Launch im November nicht MOEGLICH gewesen waere, ausser man spricht von irgend einem Paper-launch.

Schon Anfang 2003 war man sich bei NV sicher, dass man es nicht mehr bis zum Ende des Jahres schaffen wird.

betasilie
2004-03-15, 03:07:42
Original geschrieben von aths
Ich zweifle, ob der "originale NV40" richtig zuende entwickelt wurde.
Original geschrieben von Thowe
Da zweifel ich sogar heftigst mit.
Wie kommt ihr darauf und was soll vom ursprünglichen NV40 verworfen worden sein?

robbitop
2004-03-15, 09:58:52
zw den Zeilen lesen von "porminenten", Aussagen von Dave Baumann und Uttar, die große zeitliche Verschiebung. Dann wäre da noch die Änderung der Transistoranzahlen (150 zu 175 sind bestätigt 210Mio glaub ich erst wenn ichs sehe).
Ausserdem ist der NV45 = NV40. Traditionell ist der NVx5 immer ein Refresh des NVx0. Alles passt hervorragend zusammen. (Auch NV30 ist nicht das was ursprünglich geplant war).

Ailuros
2004-03-15, 12:23:41
Original geschrieben von robbitop
zw den Zeilen lesen von "porminenten", Aussagen von Dave Baumann und Uttar, die große zeitliche Verschiebung. Dann wäre da noch die Änderung der Transistoranzahlen (150 zu 175 sind bestätigt 210Mio glaub ich erst wenn ichs sehe).
Ausserdem ist der NV45 = NV40. Traditionell ist der NVx5 immer ein Refresh des NVx0. Alles passt hervorragend zusammen. (Auch NV30 ist nicht das was ursprünglich geplant war).

Was heisst "refresh" und was "traditionell" ueberhaupt?

Wavey wusste sehr gut dass NV40 es nicht mehr vor Ende 2003 auf die Regale schafft.

Keine Ahnung was da hervorragend zusammenpassen soll, wie sich manche vorstellen dass chips in letzter Minute einfach modifiziert werden oder roadmaps sich innerhalb von Monaten aus dem Nichts aendern.

Was NV30 betrifft beziehst Du Dich auf den alten Design der fuer 2002 vorgesehen war. Realitaet war dass man zu viel Zeit fuer NV2A verplempert hatte und obwohl NV25 ein Halbjahr nach NV20 geplant war, wurden dann doch noch Ti200/500 und 4MX dazwischengeschoben, um NV25 erst in 2002 zu veroeffentlichen. Wann jetzt betreffende Entscheidungen getroffen wurden und wann der heutige NV30 chalkboard design entwickelt wurde, ueberlasse ich Deiner Fantasie.

ShadowXX
2004-03-15, 12:33:06
Original geschrieben von Ailuros
Was heisst "refresh" und was "traditionell" ueberhaupt?

Wavey wusste sehr gut dass NV40 es nicht mehr vor Ende 2003 auf die Regale schafft.

Keine Ahnung was da hervorragend zusammenpassen soll, wie sich manche vorstellen dass chips in letzter Minute einfach modifiziert werden oder roadmaps sich innerhalb von Monaten aus dem Nichts aendern.

Was NV30 betrifft beziehst Du Dich auf den alten Design der fuer 2002 vorgesehen war. Realitaet war dass man zu viel Zeit fuer NV2A verplempert hatte und obwohl NV25 ein Halbjahr nach NV20 geplant war, wurden dann doch noch Ti200/500 und 4MX dazwischengeschoben, um NV25 erst in 2002 zu veroeffentlichen. Wann jetzt betreffende Entscheidungen getroffen wurden und wann der heutige NV30 chalkboard design entwickelt wurde, ueberlasse ich Deiner Fantasie.

Es geht bei diesen Geruechten weniger um eine Änderung in letzter Minute (die nun wirklich kaum machbar wäre), sondern das Sie den nv40 in der Ursprungsform einfach verworfen haben und stattdessen gleich den nv45 rausbringen...und ihn einfach nv40 nennen...

J.S.Shadow

Ailuros
2004-03-15, 13:27:26
Original geschrieben von ShadowXX
Es geht bei diesen Geruechten weniger um eine Änderung in letzter Minute (die nun wirklich kaum machbar wäre), sondern das Sie den nv40 in der Ursprungsform einfach verworfen haben und stattdessen gleich den nv45 rausbringen...und ihn einfach nv40 nennen...

J.S.Shadow

Macht aber auch keinen Sinn. NVIDIA konnte weder PCI-E noch jeglicher "bridge"-Technologie-Implementation entgehen. Oder glaubt hier jemand dass man z.B. das quasi "AGPx16" auch nur in der letzten Minute reingeschmiert hat?

http://www.3dcenter.de/artikel/2004/03-03_a.php

Ich sag es nochmal der Grund zur Verspaetungen aller naechster Generation chips liegt anderswo.

Und wenn ich sage dass manche Sachen schon Q1 2003 bekannt waren dann hab ich auch guten Grund dafuer. Herr Mosesmann im Mai 2003:

Mosesmann, who correctly predicted Nvidia's early GeForceFX manufacturing problems, also wrote that he expects the NV40 will tape out this fall, but begin production early in 2004.

"Hence, the battleground at the high-end for this fall will probably be a speed/driver tweaked NV35 from Nvidia, and a speed/driver tweaked Radeon 9800 (R350) from ATI," Mosesmann wrote. "Of note, ATI had planned its R400 product for this fall, however three key issues have delayed this chip until spring 2004 given that three major industry dynamics will not hit the market until then: 3GIO, DDR-3 memory, and (Microsoft's) DX9 pixel shader 3.0."

http://www.extremetech.com/article2/0,3973,1076809,00.asp

Dabei fand der finale tape-out sogar spaeter als Ende Herbst statt, und dass fuer beide NV4x Produkt-Varianten.

boxleitnerb
2004-03-15, 18:29:02
http://www.theinquirer.net/?article=14739

Wollt ich nur mal so gepostet haben. Wär schon hammergeil, wenn das stimmt. Nur: wieso schreibt der Inquirer einmal, der R420 hat 8 Pipes, und jetzt sinds plötzlich 12 bis max. 16 ... Naja, bald wissen wir hoffentlich mehr

betasilie
2004-03-15, 18:33:53
Original geschrieben von boxleitnerb
http://www.theinquirer.net/?article=14739

Wollt ich nur mal so gepostet haben. Wär schon hammergeil, wenn das stimmt. Nur: wieso schreibt der Inquirer einmal, der R420 hat 8 Pipes, und jetzt sinds plötzlich 12 bis max. 16 ... Naja, bald wissen wir hoffentlich mehr
Weil´s FUAD ist? :naughty:

jasihasi
2004-03-15, 18:44:42
Auf www.planet3dnow.de steht neues und wohl
auch bei theinq.

edit:
den boxleitner übersehen SRY²

][immy
2004-03-15, 19:43:26
Original geschrieben von boxleitnerb
http://www.theinquirer.net/?article=14739

Wollt ich nur mal so gepostet haben. Wär schon hammergeil, wenn das stimmt. Nur: wieso schreibt der Inquirer einmal, der R420 hat 8 Pipes, und jetzt sinds plötzlich 12 bis max. 16 ... Naja, bald wissen wir hoffentlich mehr

the inquire ist sehr gut darin gerüchte entweder aufzuschnappen oder in die welt zu setzen (z.B. 128 bit farbtiefe gab es doch da mal nachzulesen für den R300 chip)

allerdings ist bisher auch nur sehr wenig zum R420 bekannt gewesen, von daher kann das vielleicht sogar stimmen
wenn der R420 12 bis 16 Pipes haben kann, dann würde das natürlich auch für den lowcostmarkt und mainstream bedeuten, das dort grafikkarten mit 8 pipes auftauchen könnten, was in dem bereich wohl bei der technik konkurenzlos sein dürfte (also im lowcost, im mainstream befindet sich ja mittlerweile die radoen 9800 pro bzw seinerzeit auch die 9500 pro)


nun, aber da bisher eigendlich so gut wie nichts zu dem chip bekannt ist (außer das mit den pixel-shadern) könnte selbst das zutreffen, aber muss nicht

wäre natürlich ein harter schlag für nvidia, wenn auch der R420 mehr pipes bieten würde, denn das würde doch einiges mehr an geschwindigkeit bedeuten auch ohne den einsatz von PS2.0

robbitop
2004-03-15, 19:45:54
LOL ja FUAD eben ^^
12 Pipelines wären eine Herrausforderung, da man hier vA am HirZ größere Änderungen tätigen müsste und am Rasterizer ebenfalls.

AiL
ich denke du weisst, dass ich nicht denke dass solche Änderungen in letzter Sekunde passieren. Die Chips vom Editors Day werden Baugleich mit den heutigen sein.
wie aths bereits sagte hat man wohl Sachen vom orig NV45 in den NV40 einfliessen lassen.

OT:
funktionieren beim NV2A die HSR Units bei 2xRG noch? (beim NV20 ja nicht und beim NV25 schon)

reunion
2004-03-15, 21:37:27
Original geschrieben von boxleitnerb
http://www.theinquirer.net/?article=14739

Wollt ich nur mal so gepostet haben. Wär schon hammergeil, wenn das stimmt. Nur: wieso schreibt der Inquirer einmal, der R420 hat 8 Pipes, und jetzt sinds plötzlich 12 bis max. 16 ... Naja, bald wissen wir hoffentlich mehr

12 bis 16 pipes, nicht schlecht, bin gespannt wieviele es dann wirklich werden, aber die paar Tage bis zur Cebit werden wohl endgültig gewissheit bringen...

aths
2004-03-15, 22:15:13
Original geschrieben von ][immy
wäre natürlich ein harter schlag für nvidia, wenn auch der R420 mehr pipes bieten würde, denn das würde doch einiges mehr an geschwindigkeit bedeuten auch ohne den einsatz von PS2.0 Der NV40 soll dem letzten Gerücht nach 16 Pipes haben. Das wird ATI kaum toppen können. Wie schnell Pixelshader 2.0 ist, hängt nicht nur von der Anzahl der Pipes ab, es wäre ein 8-Pipe-Design denkbar, welches schneller wäre als ein Chip mit 16 R360-Pipes.

Ein Chip mit 12 (statt 8) R360-Pipes und etwas höherem Takt, sagen wir ~500 MHz, fände ich ziemlich enttäuschend.

Godmode
2004-03-15, 22:35:08
Original geschrieben von reunion
12 bis 16 pipes, nicht schlecht, bin gespannt wieviele es dann wirklich werden, aber die paar Tage bis zur Cebit werden wohl endgültig gewissheit bringen...

Warum werden wird die CeBit Gewissheit bringen?? Ich dachte R420 und NV40 werden nicht präsentiert??

][immy
2004-03-15, 22:36:23
Original geschrieben von aths
Der NV40 soll dem letzten Gerücht nach 16 Pipes haben. Das wird ATI kaum toppen können. Wie schnell Pixelshader 2.0 ist, hängt nicht nur von der Anzahl der Pipes ab, es wäre ein 8-Pipe-Design denkbar, welches schneller wäre als ein Chip mit 16 R360-Pipes.

meine aussage sollte nur in die richtung gehen, das wenn der R420 schon mit den bis jetzt vermuteten 8pipes den nv40 schlagen könnte (in bezug auf die performance) dann sollte dieses vorhaben mit >8 pipes wohl weniger ein problem sein
aber noch ist das ja eh nicht sicher, also abwarten und tee trinken

deminirung hat doch mal hier geschrieben wie nvidia die leistung erhöhen könnte. da war die rede von mehr pipes um mit ati bei einer starken verbesserung der PS2.0 shader in etwa gleichzuziehen. da hieß es glaub ich noch 8 pipes für ati....

ok ich glaub ich fange an mich zu wiederholen.. die prüfung heute hat einfach meine kozentration aufgebraucht ^^

ShadowXX
2004-03-15, 22:47:23
Original geschrieben von aths
Der NV40 soll dem letzten Gerücht nach 16 Pipes haben. Das wird ATI kaum toppen können. Wie schnell Pixelshader 2.0 ist, hängt nicht nur von der Anzahl der Pipes ab, es wäre ein 8-Pipe-Design denkbar, welches schneller wäre als ein Chip mit 16 R360-Pipes.

Ein Chip mit 12 (statt 8) R360-Pipes und etwas höherem Takt, sagen wir ~500 MHz, fände ich ziemlich enttäuschend.

Entäuschend wäre wohl noch etwas untertrieben...wobei die 12 Pipes der Anfangsspekulation entsprechen würden (3x4x1)...aber wie schon erwähnt...die Pipes sind nicht alles....

Mal gucken was kommt...momentan glaube ich gar nix mehr....

Viel interessanter als die immer wiederkehrenden "und nun mit X Pipes Meldungen" würde ich mal einen "Vorstellungstermin" finden...

J.S.Shadow

][immy
2004-03-15, 23:04:55
mal so als kleine OT frage
was ist eigendlich aus der 40Bit farbtiefe geworden? nutzt die überhaupt irgendein spiel schon?
oder ging es dabei um internet genauigkeit?.. das würd mich aber wundern, denn die voodoo 5 nutzte doch schon .. mhh.. waren es nicht auch 40 bit interne genauigkeit?


gibt es denn schon eine leistungsangabe (in Watt) was die neuen karten verpuffen lassen werden?
durch GDDR3 speicher sollte doch die leistungsaufnahme ein wenig verringert werden, wie sieht es bei dem grafikchip aus?

robbitop
2004-03-16, 00:04:41
Wavey meinte etw von 125W für NV40..ist aber afaik nur ein Gerücht.

deekey777
2004-03-16, 00:05:58
Original geschrieben von bans3i
Warum wird die CeBit Gewissheit bringen?? Ich dachte R420 und NV40 werden nicht präsentiert??

TheInq meinte, dass zumindest der R420 hinter ganz verschlossenen Türen und ganz heimlich gezeigt werden soll.

aths
2004-03-16, 00:12:22
Original geschrieben von ][immy
mal so als kleine OT frage
was ist eigendlich aus der 40Bit farbtiefe geworden? Du meinst, 10 Bit Fixpoint pro Kanal? Die FXe, und erst recht die Radeons ab R200, rechnen schon mit deutlich besseren Formaten.

MadManniMan
2004-03-16, 00:15:19
Original geschrieben von robbitop
Wavey meinte etw von 125W für NV40..ist aber afaik nur ein Gerücht.

<=125W wohl nur im 2D-Modus.

Ailuros
2004-03-16, 00:39:53
Original geschrieben von robbitop
LOL ja FUAD eben ^^
12 Pipelines wären eine Herrausforderung, da man hier vA am HirZ größere Änderungen tätigen müsste und am Rasterizer ebenfalls.

AiL
ich denke du weisst, dass ich nicht denke dass solche Änderungen in letzter Sekunde passieren. Die Chips vom Editors Day werden Baugleich mit den heutigen sein.
wie aths bereits sagte hat man wohl Sachen vom orig NV45 in den NV40 einfliessen lassen.



Nein, nein und nochmal nein.

Wavey meinte etw von 125W für NV40..ist aber afaik nur ein Gerücht.

Nochmal nein. Such Dir das B3D Forum durch und lese genau nach was er damals sagte. Und wenn's schon sein muss: zu wenig.

Ailuros
2004-03-16, 00:51:22
Die Entwicklung fuer die NV4x Linie begann Anfang 2002; wer zum Henker sagt dass NVIDIA und ATI die NV4x/R4xx nicht voll ausmelken werden und nicht refresh chips nach einer gewissen Zeit veroeffentlichen werden? Ach ja sie werden nicht die "erwarteten" Codenamen haben; es ist wohl viel einfacher zu glauben, dass beim Klang von NV45 alle von Anfang glaubten, dass es sich um einen refresh handelt als alles andere.


Fragen:

1. Wer garantiert dass die uebernaechste Generation mit absoluter Sicherheit Anfang 2005 Marktreif sein wird?

2. Besteht ein besonderer Grund uebernaechste Generation's Produkte schneller auf den Markt zu bringen?

3. War der Gedanke die Entwicklungszeiten zu verlaengern, nur ein oeder Scherz?

Nur mal so....

aths
2004-03-16, 01:03:43
Original geschrieben von Ailuros
Die Entwicklung fuer die NV4x Linie begann Anfang 2002; wer zum Henker sagt dass NVIDIA und ATI die NV4x/R4xx nicht voll ausmelken werden und nicht refresh chips nach einer gewissen Zeit veroeffentlichen werden? Nach dem, was ich gehört habe, wird das NV40-Design so gemolken werden, wie noch nie ein NV-Chip zuvor. In alle Richtungen, allerdings.

Winter[Raven]
2004-03-16, 01:20:40
Die Entwicklung fuer die NV4x Linie begann Anfang 2002

Wuss ? ....

Also Demirug hat in einem Posting gesagt das die Arbeiten gleich kurz nach NV35 bekommen wurden, also Frühling 2003 ...

betasilie
2004-03-16, 01:29:44
Original geschrieben von betareverse
quote:Original geschrieben von aths
Ich zweifle, ob der "originale NV40" richtig zuende entwickelt wurde.


quote:Original geschrieben von Thowe
Da zweifel ich sogar heftigst mit.


Wie kommt ihr darauf und was soll vom ursprünglichen NV40 verworfen worden sein?
*push*

Ailuros
2004-03-16, 01:51:08
Original geschrieben von Winter[Raven]
Wuss ? ....

Also Demirug hat in einem Posting gesagt das die Arbeiten gleich kurz nach NV35 bekommen wurden, also Frühling 2003 ...

Demirug kann ja bestaetigen was genau er meinte.

Fruehling = Maerz bis Mai ja?

Gut ich nehme Maerz als Anhaltspunkt. In <9 Monaten bekommt man meistens Halb-geburten. Es waere wohl die absoluteste Rekordzeit in so kurzem Zeitraum eine GPU von solcher Komplexitaet zu entwickeln. Im idealsten Fall sind es 18 Monate von chalkboard zur Massen-Produktion.

Bei der heutigen Komplexitaet der chips sind solche Zeitspannen schwer einzuhalten. Frag doch Demirug nach einem Graph der er mal postete ueber NV's Entwicklungszeiten ;)

Ailuros
2004-03-16, 01:56:56
Original geschrieben von aths
Nach dem, was ich gehört habe, wird das NV40-Design so gemolken werden, wie noch nie ein NV-Chip zuvor. In alle Richtungen, allerdings.

Ist auch der Grund warum es unendliche Varianten von der NV4x Linie geben wird (kann sogar sein dass es 4 anstatt von 3 Leistungsstufen geben wird) und auch teilweise der Grund fuer viele Verwirrungen was die fruehzeitigen Infos betraf.

PCI-E wird wohl das Ganze fuer alle IHVs nicht unbedingt leichter machen, bis man voll zu PCI-E umsteigen kann.

Winter[Raven]
2004-03-16, 02:00:34
Also wie gesagt, in irgend einerm Thema haben wir über die entwicklungszeiten gesprochen, da meinte ein User das die arbeiten an dem NV40 gleich nach der Fertigstellung des NV35 begonnen wurden, ich atwortet das so etwas unmöglich seih, ein chip so schnell zuentwicklen, die nächste Antwort war von Demi, und er bestätigte die aussage von dem User ...

muss ich mal suchen den Tread ... aber jetzt wird gepennt.

aths
2004-03-16, 02:12:05
Original geschrieben von Winter[Raven]
Wuss ? ....

Also Demirug hat in einem Posting gesagt das die Arbeiten gleich kurz nach NV35 bekommen wurden, also Frühling 2003 ... Die (hauptsächlichen) Entwicklungen an der NV35-Logik waren wohl schon deutlich früher abgeschlossen. Der NV40 wird in der Tat seit 2002 entwickelt (wann 2002 damit begonnen wurde, weiß ich allerdings nicht.) Jetzt rechne man mal zurück, was den NV30 angeht.

aths
2004-03-16, 02:13:28
Original geschrieben von Ailuros
PCI-E wird wohl das Ganze fuer alle IHVs nicht unbedingt leichter machen, bis man voll zu PCI-E umsteigen kann. Angesichts NVs PCI-E-Bridge sehe ich da eigentlich kein Problem.

Ailuros
2004-03-16, 04:59:00
Original geschrieben von aths
Angesichts NVs PCI-E-Bridge sehe ich da eigentlich kein Problem.

Ich meine nicht die Bruecken und nicht NV ausschliesslich.

Die Angelegenheit eben fuer high end momentan eine AGP und PCI-E Variante haben zu muessen ist schon irgendwie umstaendlich, falls es jetzt von AGP und PCI-E boards auch noch normale und PRO/Ultra etc Modelle geben sollte, erhebt sich die Anzahl der Varianten noch mehr.

Ailuros
2004-03-16, 05:00:55
Original geschrieben von Winter[Raven]
Also wie gesagt, in irgend einerm Thema haben wir über die entwicklungszeiten gesprochen, da meinte ein User das die arbeiten an dem NV40 gleich nach der Fertigstellung des NV35 begonnen wurden, ich atwortet das so etwas unmöglich seih, ein chip so schnell zuentwicklen, die nächste Antwort war von Demi, und er bestätigte die aussage von dem User ...

muss ich mal suchen den Tread ... aber jetzt wird gepennt.

Mir ist der Thread nicht bekannt und ich weiss auch nicht um was es genau ging. Ich bin mir aber absolut sicher dass Demi was ganz anderes gemeint hat. :)

aths
2004-03-16, 05:36:35
Original geschrieben von Ailuros
falls es jetzt von AGP und PCI-E boards auch noch normale und PRO/Ultra etc Modelle geben sollte, erhebt sich die Anzahl der Varianten noch mehr. Da sehe ich kein Problem, wenn es die ansonsten gleiche Karte einmal für PCI-E und einmal für AGP zu kaufen gibt. Die letzte Übergangszeit (von PCI zu AGP) ist ja gar nicht mal so lange her. Große Konfusion gabs damals imo nicht.

Demirug
2004-03-16, 07:27:11
Also Frühling 2003 habe ich eigentlich nie erwähnt. Frühling 2002 könnte da schon eher mal gefallen sein.

aths
2004-03-16, 08:19:16
Vielleicht darf ich noch erwähnen, dass der NV40 eine neue Generation darstellt, und man wohl größere Architekturänderungen erwarten darf, als z. B. vom NV25 auf den NV30. Den NV30 würde ich als "NV25 mit DX9" einstufen, den NV35 als "NV30 mit brauchbarer Rechenkraft".

aths
2004-03-16, 08:52:14
Original geschrieben von ShadowXX
Entäuschend wäre wohl noch etwas untertrieben...wobei die 12 Pipes der Anfangsspekulation entsprechen würden (3x4x1)...aber wie schon erwähnt...die Pipes sind nicht alles....Wenn TI richtig liegt, wäre der neue ATI-Chip 1,5x R300 mit mehr Takt. Kann das sein?

- Der R300 kam lange vor dem NV30.

- NV warf außerdem NV31 und NV34 auf den Markt. Bei ATI gibt es letztlich nur zwei DX9-Chips: Den großen, gelegentlich mit 4 deaktivierten Pipes als 9500 Pro oder 9800 SE, und den kleinen (Radeon 9600.) Die Änderungen am Chip vom R300 zum R350 und zum R360 sind nicht nennenwert.

- NV brachte später den NV35.

- Und den NV36.

- Und kommt bald mit dem NV40, der Pixel- und Vertexshader Shader 3.0 unterstützt.

In der ganzen Zeit soll ATI nix anderes zustande gebracht haben, als einen etwas größeren R300?? Alles unter 8x1 tri, 8x2 bi oder 16x1 bi wäre für mich eine große Enttäuschung.

Sicher, mit 12 Pipes und 550 MHz wäre der Chip letztlich doppelt so schnell wie eine 9800 XT. Aber das kann irgendwie nicht alles sein …

mapel110
2004-03-16, 09:03:52
Original geschrieben von aths
Wenn TI richtig liegt, wäre der neue ATI-Chip 1,5x R300 mit mehr Takt. Kann das sein?

- Der R300 kam lange vor dem NV30.

- NV warf außerdem NV31 und NV34 auf den Markt. Bei ATI gibt es letztlich nur zwei Chips: Den großen, gelegentlich mit 4 deaktivierten Pipes als 9500 Pro oder 9800 SE, und den kleinen (Radeon 9600.) Die Änderungen am Chip vom R300 zum R350 und zum R360 sind nicht nennenwert.

- NV brachte später den NV35.

- Und den NV36.

- Und kommt bald mit dem NV40, der Pixel- und Vertexshader Shader 3.0 unterstützt.

In der ganzen Zeit soll ATI nix anderes zustande gebracht haben, als einen etwas größeren R300?? Alles unter 8x1 tri, 8x2 bi oder 16x1 bi wäre für mich eine große Enttäuschung.

Sicher, mit 12 Pipes und 550 MHz wäre der Chip letztlich doppelt so schnell wie eine 9800 XT. Aber das kann irgendwie nicht alles sein …

Vielleicht gabs aber bei ATI nur deswegen keinen weiteren (Low-cost) chip, weil man alle kräfte brauchte, um das wohl fehlgeschlagene R400-Projekt zu ersetzen --> R420.

aths
2004-03-16, 09:13:49
Original geschrieben von mapel110
Vielleicht gabs aber bei ATI nur deswegen keinen weiteren (Low-cost) chip, weil man alle kräfte brauchte, um das wohl fehlgeschlagene R400-Projekt zu ersetzen --> R420. Gerade im Lowcost-Segment ist der Absatz zahlenmäßig stark. Gegen die (für Spiele praktisch ungeeignete) 5200 hat ATI bis heute nicht wirklich was anzubieten. Seit bald zwei Jahren feilen die nur noch am Speed. Wirkliche neue Technik gibt's nicht. Und das, wo die Shaderfeatures der Konkurrenz seit langem deutlich besser sind.

Im Highend-Segment siehts imo so aus: NV brachte erst die Features, und dann die Leistung (bzw. bringt sie jetzt erst mit dem NV40.) ATI brachte gleich die Leistung, aber vergisst, die Features zu liefern. Ich sehe den Fortschritt nicht. NVs NV30 war vielleicht mal gut gedacht, aber nicht sonderlich gut gemacht. NV35 wurde dann noch schwieriger zu optimieren. Diese Scharte wird mit dem NV40 hoffentlich ausgewetzt. Immerhin, man merkt, dass die in Kalifornien arbeiten. Arbeiten die in Kanada auch?

Demirug
2004-03-16, 09:20:19
Original geschrieben von aths
Vielleicht darf ich noch erwähnen, dass der NV40 eine neue Generation darstellt, und man wohl größere Architekturänderungen erwarten darf, als z. B. vom NV25 auf den NV30. Den NV30 würde ich als "NV25 mit DX9" einstufen, den NV35 als "NV30 mit brauchbarer Rechenkraft".

Du sollst nicht alles glauben was gewisse Personen sagen. Das mit der "neuen Generation" bekommt man bei jedem NVx0 Chip erzählt.

Gast
2004-03-16, 09:21:05
Etwas wirklich neues wird wohl erst mit DirectX 10 kommen.

aths
2004-03-16, 09:22:11
Original geschrieben von Demirug
Du sollst nicht alles glauben was gewisse Personen sagen. Das mit der "neuen Generation" bekommt man bei jedem NVx0 Chip erzählt. Ich weiß.

Mehr darf ich leider nicht wissen.




Original geschrieben von Gast
Etwas wirklich neues wird wohl erst mit DirectX 10 kommen. Shader 4.0 orientiert sich afaik recht stark am 3.0-Modell.

robbitop
2004-03-16, 09:45:01
"In der ganzen Zeit soll ATI nix anderes zustande gebracht haben, als einen etwas größeren R300?? Alles unter 8x1 tri, 8x2 bi oder 16x1 bi wäre für mich eine große Enttäuschung."

errinnere dich, dass ATi bis Frühling 2003 am R400 gearbeitet hatte und man auch bis März von diesem Sprach. Ganz plötzlich verschwand dieser aus den Roadmaps und wurde gecancled. Somit hatte ATi nicht mal ein Jahr für R420.
Die Forschung vom R400 kam dem R500 zu gute...


oder ist dies nur ein Märchen?

@AiL
du alter Neinsager ;)
wäre schön wenn du zu den "nein"s ein paar Ausführungen packen würdest =)

reunion
2004-03-16, 09:58:47
Original geschrieben von aths
Wenn TI richtig liegt, wäre der neue ATI-Chip 1,5x R300 mit mehr Takt. Kann das sein?

- Der R300 kam lange vor dem NV30.

- NV warf außerdem NV31 und NV34 auf den Markt. Bei ATI gibt es letztlich nur zwei DX9-Chips: Den großen, gelegentlich mit 4 deaktivierten Pipes als 9500 Pro oder 9800 SE, und den kleinen (Radeon 9600.) Die Änderungen am Chip vom R300 zum R350 und zum R360 sind nicht nennenwert.

- NV brachte später den NV35.

- Und den NV36.

- Und kommt bald mit dem NV40, der Pixel- und Vertexshader Shader 3.0 unterstützt.

In der ganzen Zeit soll ATI nix anderes zustande gebracht haben, als einen etwas größeren R300?? Alles unter 8x1 tri, 8x2 bi oder 16x1 bi wäre für mich eine große Enttäuschung.

Sicher, mit 12 Pipes und 550 MHz wäre der Chip letztlich doppelt so schnell wie eine 9800 XT. Aber das kann irgendwie nicht alles sein …

Naja, wer sagt denn das es die gleichen Pipes sind wie beim R300?

ShadowXX
2004-03-16, 10:15:36
Original geschrieben von aths
Gerade im Lowcost-Segment ist der Absatz zahlenmäßig stark. Gegen die (für Spiele praktisch ungeeignete) 5200 hat ATI bis heute nicht wirklich was anzubieten. Seit bald zwei Jahren feilen die nur noch am Speed. Wirkliche neue Technik gibt's nicht. Und das, wo die Shaderfeatures der Konkurrenz seit langem deutlich besser sind.

Im Highend-Segment siehts imo so aus: NV brachte erst die Features, und dann die Leistung (bzw. bringt sie jetzt erst mit dem NV40.) ATI brachte gleich die Leistung, aber vergisst, die Features zu liefern. Ich sehe den Fortschritt nicht. NVs NV30 war vielleicht mal gut gedacht, aber nicht sonderlich gut gemacht. NV35 wurde dann noch schwieriger zu optimieren. Diese Scharte wird mit dem NV40 hoffentlich ausgewetzt. Immerhin, man merkt, dass die in Kalifornien arbeiten. Arbeiten die in Kanada auch?

Mal in eine ganz andere Richtung gedacht:

Was ist, wenn der r420 (aka 3xrv360 + 2 bis 4 Pixelprozessoren (extreme Pipelines)) nur als "kurzfristige" Überbrückung bis zum r500 von ATI geplant ist, den (r500 ist gemeint) ATI (in meiner rein hypothetischen Überlegung) dann noch diese Jahr (Herbst/Winter) auf den Markt schmeisst.

NV wäre dann erst beim refresh des nv40...ATI hätte plötzlich einen (vielleicht) DX10-Chip, bevor es DX10 gibt (was übrigens eine parallele zum r300 wäre).

Oder ist das selbst fürs Speku-Forum zu Fantastisch??

J.S.Shadow

Gast
2004-03-16, 10:20:46
Original geschrieben von aths
...Sicher, mit 12 Pipes und 550 MHz wäre der Chip letztlich doppelt so schnell wie eine 9800 XT. Aber das kann irgendwie nicht alles sein...
Du müsstest inzwischen eigentlich mehr wissen. Ein Chip ist mehr, als nur die Summe der Pipes x MHz.

Wer sagt dir denn, das jede(r) Pipe / Vertex-Shader die gleiche Performance hat, wie die im R300/R350 ?

robbitop
2004-03-16, 10:21:53
R500 soll erst in 18 Monaten kommen, zumal dieser auf 90nm Fertigung basiert, das könnte wirklich noch eine Weile dauern eh sowas reif für ~300Mio Transistoren (??) VPUs ist.

Demirug
2004-03-16, 10:30:09
Original geschrieben von ShadowXX
Mal in eine ganz andere Richtung gedacht:

Was ist, wenn der r420 (aka 3xrv360 + 2 bis 4 Pixelprozessoren (extreme Pipelines)) nur als "kurzfristige" Überbrückung bis zum r500 von ATI geplant ist, den (r500 ist gemeint) ATI (in meiner rein hypothetischen Überlegung) dann noch diese Jahr (Herbst/Winter) auf den Markt schmeisst.

NV wäre dann erst beim refresh des nv40...ATI hätte plötzlich einen (vielleicht) DX10-Chip, bevor es DX10 gibt (was übrigens eine parallele zum r300 wäre).

Oder ist das selbst fürs Speku-Forum zu Fantastisch??

J.S.Shadow

Als der R300 ausgeliefert wurde gab es schon lange ein DX9-Beta. Sollte im Herbst ein R500 mit DX-Next Unterstützung kommen dann sollte ich eigentlich inzwischen eine DX-Next BETA haben. Das DX-Team arbeitet aber derzeit an den SDK Update für Sommer 2004.

Gast
2004-03-16, 10:31:40
Original geschrieben von Winter[Raven]
Wuss ? ....

Also Demirug hat in einem Posting gesagt das die Arbeiten gleich kurz nach NV35 bekommen wurden, also Frühling 2003 ...
Das ist definitiv falsch, und selbst Demi kann sich irren, auch wenn wir ihn alle sehr schätzen. Die Arbeiten am NV40 (der ursprünglichen Version) wurden in etwa im März - April ´02 begonnen. Investoren bekommen oft nur die externen Fakten unter die Finger, aber teilweise befinden sich darunter interessante Einblicke.

Demirug
2004-03-16, 10:41:21
Original geschrieben von Gast
Das ist definitiv falsch, und selbst Demi kann sich irren, auch wenn wir ihn alle sehr schätzen. Die Arbeiten am NV40 (der ursprünglichen Version) wurden in etwa im März - April ´02 begonnen. Investoren bekommen oft nur die externen Fakten unter die Finger, aber teilweise befinden sich darunter interessante Einblicke.

Sicher kann ich mich mal irren und habe es auch schon getan. Ich bin mir allerdings wie schon dort (http://www.forum-3dcenter.com/vbulletin/showthread.php?s=&postid=1647662#post1647662) geschrieben sehr sicher niemals etwas von Frühling 2003 gesagt zu haben.

ShadowXX
2004-03-16, 10:50:25
Original geschrieben von Demirug
Als der R300 ausgeliefert wurde gab es schon lange ein DX9-Beta. Sollte im Herbst ein R500 mit DX-Next Unterstützung kommen dann sollte ich eigentlich inzwischen eine DX-Next BETA haben. Das DX-Team arbeitet aber derzeit an den SDK Update für Sommer 2004.

Und wenn der r500 "nur" PS/VS3.0 hat?

J.S.Shadow

Gast
2004-03-16, 10:56:01
Original geschrieben von ShadowXX
Und wenn der r500 "nur" PS/VS3.0 hat?
J.S.Shadow
Den Gedanke kannst du relativ sicher gleich begraben. Der R500 soll deiner Meinung nach, technologisch in etwa auf NV40-Niveau sein ?! Und das ca. ein Jahr später ?

ShadowXX
2004-03-16, 11:02:08
Original geschrieben von Gast
Den Gedanke kannst du relativ sicher gleich begraben. Der R500 soll deiner Meinung nach, technologisch in etwa auf NV40-Niveau sein ?! Und das ca. ein Jahr später ?

Wieso...der r420 ist ja auch immer nur noch auf PS/VS2.0 niveau, ca. 1 Jahr später....

J.S.Shadow

Gast
2004-03-16, 11:03:45
Original geschrieben von Gast
Den Gedanke kannst du relativ sicher gleich begraben. Der R500 soll deiner Meinung nach, technologisch in etwa auf NV40-Niveau sein ?! Und das ca. ein Jahr später ?

Der R420 sei anscheinend nicht mal NV30 Niveau, und das ein Jahr spaeter...
So ganz abwaegig ist der Gedanke nicht, vorallem, da es bis jetzt noch keine konkreten Fakten zum DX10 gibt (naja, oder vielleicht ultra geheime).

Gast
2004-03-16, 11:08:23
Original geschrieben von ShadowXX
Wieso...der r420 ist ja auch nur auf PS/VS2.0 niveau, ca. 1 Jahr später....
J.S.Shadow
Guter Einwand :)

Es sprechen allerdings mehrere Dinge dafür, dass wir beim R500 eine Art "unified shader"-Implementation sehen werden, und die ist mit VS/PS 3.0 nur sehr schwer vorstellbar. Demi wird dir sicherlich mehr darüber sagen können.

Gast
2004-03-16, 11:12:25
Original geschrieben von Gast
Der R420 sei anscheinend nicht mal NV30 Niveau, und das ein Jahr spaeter...
So ganz abwaegig ist der Gedanke nicht, vorallem, da es bis jetzt noch keine konkreten Fakten zum DX10 gibt (naja, oder vielleicht ultra geheime).
Lieber Gast, es geht hier nicht um Augenwischerei, sondern um Implemetationen, die sich sowohl für den IHV, als auch für den Endnutzer auszahlen. Der NV30 war ein Versuch, und der war schlecht.

Btw. Wollen wir wirklich von "Niveau" beim NV30 reden ? Dann lass uns beide bei einer Tasse Kaffe nochmal ausführlicher darüber reden, wie schön doch Features sind, wenn keiner sie nutzen will.

aths
2004-03-16, 11:14:08
Original geschrieben von Gast
Du müsstest inzwischen eigentlich mehr wissen. Ein Chip ist mehr, als nur die Summe der Pipes x MHz.Als grobe Abschätzung ist das (bei gleichen Pipelines) zu gebrauchen.
Original geschrieben von Gast
Wer sagt dir denn, das jede(r) Pipe / Vertex-Shader die gleiche Performance hat, wie die im R300/R350 ? TI deutete das an, worauf sich meine weiteren Ausführungen stützten.

aths
2004-03-16, 11:15:47
Original geschrieben von Gast
Guter Einwand :)

Es sprechen allerdings mehrere Dinge dafür, dass wir beim R500 eine Art "unified shader"-Implementation sehen werden, und die ist mit VS/PS 3.0 nur sehr schwer vorstellbar. Demi wird dir sicherlich mehr darüber sagen können. Shader Modell 4.0 nutzt "unified" Shader. Auch in Nvidias NexNexGen-Chip.

LovesuckZ
2004-03-16, 11:18:10
Original geschrieben von Gast
Lieber Gast, es geht hier nicht um Augenwischerei, sondern um Implemetationen, die sich sowohl für den IHV, als auch für den Endnutzer auszahlen. Der NV30 war ein Versuch, und der war schlecht.

Lieber Gast,
es geht um die technologische Seite, nicht um den Speed. Denn davon koennen wir beim r500 noch nicht reden. Und technologisch, bezueglich der PS, werde wohl der r420 nicht über NV30 Niveau hinausgehen. Dies kannst du noch so gerne mit deinen Augen wegwischen.

Btw. Wollen wir wirklich von "Niveau" beim NV30 reden ? Dann lass uns beide bei einer Tasse Kaffe nochmal ausführlicher darüber reden, wie schön doch Features sind, wenn keiner sie nutzen will.

Ich konnte sie nutzen.

Gast
2004-03-16, 11:25:08
Original geschrieben von aths
Gerade im Lowcost-Segment ist der Absatz zahlenmäßig stark. Gegen die (für Spiele praktisch ungeeignete) 5200 hat ATI bis heute nicht wirklich was anzubieten. Seit bald zwei Jahren feilen die nur noch am Speed. Wirkliche neue Technik gibt's nicht. Und das, wo die Shaderfeatures der Konkurrenz seit langem deutlich besser sind.


Ich denke man sollte hier 2 wichtige Aspekte nicht vergessen.

1. Die erste Andeutung das bei einem Projekt/ Chip ein Problem aufgetreten ist war beim Conference Call Q1/2003 von ATI zu hören. Es wurde nicht genau gesagt um was es sich handelt, nur das man an der Roadmap bei einem Chip eine Änderung durchführen musste.
Da R350/RV350 und R360/RV360 im Plan lagen, konnte es nur ein NextGen Chip sein. Du konntest es förmlich am zögerlichen Ton heraushören, dass sie ein Problem mit dem R400 hatten.
Ich sage, das Teil war so wie sie es geplant hatten nicht umsetzbar mit den derzeit vorhandenen Möglichkeiten bei den Foundries.
Also wurde R400 gestrichen und ins Projekt R500 mit 0.09 micron verlagert auf 2005.
Sie haben also ca. 1 etwas mehr als 1 Jahr Zeit gehabt etwas neues auf die Beine zu stellen. Ich würde deshalb hier keine großen Änderungen erwarten.
Neben diesem Problem gibts aber auch noch den 2. Aspekt.

2. x-Box2 lautet dieser. Auch hier muss ATI massiv Ressourcen einplanen. Ich glaube, dass der geringe Fortschritt bisher eine Folge dessen sind, was bisher seit dem R300 so passiert ist. Deshalb würde ich nicht erwarten, dass ATI mit dem R420 von den Neuerungen her irgendwelche Bäume ausreist. Für mich ist das eigentlich nur die Notlösung und nicht das, was man eigentlich vorhatte.
Auch ATI kann nicht hexen und gute Entwickler bzw. Ingeneure liegen nicht auf der Strasse.
Ich denke ATI ist eindeutig in Ressourcenengpässe gelaufen. Nvidia scheint auch mehr Manpower bei den reinen 3D Chipentwicklern zu haben. Irgendwo war mal die Rede von 3 Designteams bei NV und 2 bei ATI. Daneben existieren natürlich noch die kleineren Teams vor Ort bei den Foundries.

ShadowXX
2004-03-16, 11:44:09
Original geschrieben von Gast
2. x-Box2 lautet dieser. Auch hier muss ATI massiv Ressourcen einplanen. Ich glaube, dass der geringe Fortschritt bisher eine Folge dessen sind, was bisher seit dem R300 so passiert ist. Deshalb würde ich nicht erwarten, dass ATI mit dem R420 von den Neuerungen her irgendwelche Bäume ausreist. Für mich ist das eigentlich nur die Notlösung und nicht das, was man eigentlich vorhatte.
Auch ATI kann nicht hexen und gute Entwickler bzw. Ingeneure liegen nicht auf der Strasse.
Ich denke ATI ist eindeutig in Ressourcenengpässe gelaufen. Nvidia scheint auch mehr Manpower bei den reinen 3D Chipentwicklern zu haben. Irgendwo war mal die Rede von 3 Designteams bei NV und 2 bei ATI. Daneben existieren natürlich noch die kleineren Teams vor Ort bei den Foundries.

Jener welcher Gedanke ist mir auch schon durch den Kopf geschossen....

@einen der Gäste:
PS2.0 ist durchaus auf dem nv30/35 nutzbar (speziell beim nv35, wie Benchamrks zeigen)..nur nicht so schnell wie bei ATI, das hat aber wenig mit der Technologie zu tun, sondern mehr mit der Umsetzung...

J.S.Shadow

Gast
2004-03-16, 11:51:25
Original geschrieben von ShadowXX
@einen der Gäste:
PS2.0 ist durchaus auf dem nv30/35 nutzbar (speziell beim nv35, wie Benchamrks zeigen)..nur nicht so schnell wie bei ATI, das hat aber wenig mit der Technologie zu tun, sondern mehr mit der Umsetzung...
J.S.Shadow
Das bezweifelt auch niemand. Das Ergebnis ist das gleiche, sprich: schlechte Implementation. Ich will hier auch nicht gegen den NV30 schießen, man sollte aber doch inzwischen gemerkt haben, welche Features wirklich Bedeutung haben/hatten, und welche getrost wieder in der Versenkung verschwunden sind, nicht zuletzt weil ATI mit der MS-Implementation gefahren ist, und diese mehr Anklang fand als 2.X von NV.

deekey777
2004-03-16, 11:56:25
Weiterer Artikel (http://www.theinq.net/?article=14749) von TheInq. Besonders dieser Satz klingt interessant:"Very knowledgeable friends told us recently in the Vienna Opera house that NV40 with 16 pipes and 210 millions of transistor is completely other chip then original NV40."


"Nvidia and its partners desperately need this fuel possibly with Doom 3 as a rocket to launch it into RetailSpace." Wie schon gesagt, ohne Doom 3 wird es kein NV40 geben. :asshole:

(Edit: Ich weiss, ein lieber Gast hatte unnötig über diesen Artikel einen ganzen Thread eröffnet, während meine Wenigkeit die Seiten 16-19 durchgelesen hat)

Ailuros
2004-03-16, 12:11:48
Zu dem neuen INQ Quatsch (und wie ich auch bei B3D schon angedeutet habe):

NV40 und NV45 hatten ihre tape-outs zur gleichen Zeit.

NV40= AGP
NV45= NV40 + PCI-E

-------------------------------------

Quasar postete mal einen Gedanken ueber den moeglichen Aufbau der verschiedenen NV4x Modelle, der mir und auch anderen am meisten Sinn machte. So viel anders wird es auch nicht bei ATI sein, was die Skalierung von "Pixel-prozessoren" betrifft.

Zu dem 12x oder 16x "pipeline" BULLSHIT, gibt es nur eins zu sagen: wenn die Busbreite nicht mehr als N quads/pixels pro Takt erlaubt (fuer beide Faelle), dann sieht man erst wie nutzlos diese bloeden Nummern sind.

deekey777
2004-03-16, 12:16:45
Im TheInq Artikel steht nicht, dass der NV45 zum NV40 gemacht wurde. Da steht nur, dass der NV40 und der "NV40" mit 210 Mio Transen und 16 Pipeline zwei unterschiedliche Chips sind.

Und der NV45 ist nicht gleich NV40+PCI Express, sondern der Refresh-Chip des NV40 + PCI Express.

Gast
2004-03-16, 12:22:57
@AiL:

NV45= NV40 + PCI-E <- hier fehlt noch was ;)

ShadowXX
2004-03-16, 12:24:00
Original geschrieben von Gast
Guter Einwand :)

Es sprechen allerdings mehrere Dinge dafür, dass wir beim R500 eine Art "unified shader"-Implementation sehen werden, und die ist mit VS/PS 3.0 nur sehr schwer vorstellbar. Demi wird dir sicherlich mehr darüber sagen können.

Wenn (falls) der r500 2005 erscheinen sollte, könnte er nicht sehr viel mit seiner "unified shader"-Implementation nach DX10 anfangen, da DX10 erst mit Longhorn kommen soll...Longhorn soll lt. letzten Gerüchten aber erst 2006 kommen....

Entweder M$ bringt doch noch ein DX10 für XP & Co oder es wären "überflüssige" Transitoren mit an Board...das wiederum würde nicht zu ATI passen.

Und wer sagt (nachdem schon der r400 gekippt wirde), das der nun geplante r500, der r500 ist, der zuerst angedacht war....

Dazu hab ich noch nirgends irgendwo in Stein gemeisselt gelesen, das der r500 PS/VS4.0 haben muss...AFAIK sprachen sie nur von Next-Gen Design und ähnlichem...und vom Standpunkt des r300 aus gesehen, ist ein PS/VS3.0 Chip auch schon Next-Gen design....

J.S.Shadow

Ailuros
2004-03-16, 12:29:02
Original geschrieben von deekey777
Im TheInq Artikel steht nicht, dass der NV45 zum NV40 gemacht wurde. Da steht nur, dass der NV40 und der "NV40" mit 210 Mio Transen und 16 Pipeline zwei unterschiedliche Chips sind.

Und der NV45 ist nicht gleich NV40+PCI Express, sondern der Refresh-Chip des NV40 + PCI Express.

Refresh-chip in welchem Sinn? Nein das moechte ich jetzt mal in Details erklaert bekommen.

Winter[Raven]
2004-03-16, 12:32:01
Original geschrieben von Demirug
Sicher kann ich mich mal irren und habe es auch schon getan. Ich bin mir allerdings wie schon dort (http://www.forum-3dcenter.com/vbulletin/showthread.php?s=&postid=1647662#post1647662) geschrieben sehr sicher niemals etwas von Frühling 2003 gesagt zu haben.

Jou, hab den anderen Tread gefunden, und hast recht, dort schreibst du April 2002.

Sorry, habe da etwas anderes interpretiert ....

Ailuros
2004-03-16, 12:34:41
Original geschrieben von ShadowXX
Wenn (falls) der r500 2005 erscheinen sollte, könnte er nicht sehr viel mit seiner "unified shader"-Implementation nach DX10 anfangen, da DX10 erst mit Longhorn kommen soll...Longhorn soll lt. letzten Gerüchten aber erst 2006 kommen....

Entweder M$ bringt doch noch ein DX10 für XP & Co oder es wären "überflüssige" Transitoren mit an Board...das wiederum würde nicht zu ATI passen.

Und wer sagt (nachdem schon der r400 gekippt wirde), das der nun geplante r500, der r500 ist, der zuerst angedacht war....

Dazu hab ich noch nirgends irgendwo in Stein gemeisselt gelesen, das der r500 PS/VS4.0 haben muss...AFAIK sprachen sie nur von Next-Gen Design und ähnlichem...und vom Standpunkt des r300 aus gesehen, ist ein PS/VS3.0 Chip auch schon Next-Gen design....

J.S.Shadow

Erlaube mal ein bisschen Haarspalterei: da bei DX-Next ein "unified grid" vorgesehen ist, sollte es Shader 4.0 heissen und nicht PS/VS4.0.

Ailuros
2004-03-16, 12:37:14
Original geschrieben von Winter[Raven]
Jou, hab den anderen Tread gefunden, und hast recht, dort schreibst du April 2002.

Sorry, habe da etwas anderes interpretiert ....

Ist das Entwicklungs-roadmap Bildchen noch zu sehen in dem Thread? Wenn ja kann man vom NV40 Balken deutlich sehen wann ungefaehr die Entwicklung begann.

ShadowXX
2004-03-16, 12:42:10
Original geschrieben von Ailuros
Erlaube mal ein bisschen Haarspalterei: da bei DX-Next ein "unified grid" vorgesehen ist, sollte es Shader 4.0 heissen und nicht PS/VS4.0.

Thanks...werds mir merken...

Ailuros
2004-03-16, 12:43:36
Original geschrieben von ShadowXX
Thanks...werds mir merken...

Mal ganz OT: gehen bei Dir PMs zum Fenster raus oder was? ;)

Winter[Raven]
2004-03-16, 12:52:42
Original geschrieben von Ailuros
Ist das Entwicklungs-roadmap Bildchen noch zu sehen in dem Thread? Wenn ja kann man vom NV40 Balken deutlich sehen wann ungefaehr die Entwicklung begann.

Ne, leider kein Bild ... ;)

@ Thema

Was der TheInq wieder verzapft ist schon qutsch ... entweder hatte NV wirklich schon bei der Entwicklung den NV45 vorgezogen und daraus den 40 gemacht hat, und die auf dem Editors Day sind wirlich 210 millen Monster.

Demirug
2004-03-16, 12:55:10
Zum Shader Model 4.0:

AFAIK schreibt der Draft nicht vor das man das ganze als Shader Grid implementieren muss. Lediglich das Interface ist harmonisiert. Wenn also ein IHV weiterhin getrennte Vertex und Pixelshader bauen möchte so darf er das IMHO auch tun. Natürlich ist ein grid die flexiblere Lösung. Ein interesanter Nebenaspekt ist noch das Shadermodel 4.0 im Prinzip nicht nur für Vertex und Pixelberechnungen gedacht ist.

ShadowXX
2004-03-16, 12:56:14
Original geschrieben von Ailuros
Mal ganz OT: gehen bei Dir PMs zum Fenster raus oder was? ;)

Ebenfalls OT: du hast PN...

Ailuros
2004-03-16, 12:56:35
Original geschrieben von Winter[Raven]
Ne, leider kein Bild ... ;)

@ Thema

Was der TheInq wieder verzapft ist schon qutsch ... entweder hatte NV wirklich schon bei der Entwicklung den NV45 vorgezogen und daraus den 40 gemacht hat, und die auf dem Editors Day sind wirlich 210 millen Monster.

Das mit dem Transistoren-Quatsch ist auch so eine Geschichte; kommt ganz drauf an wie man Transistoren zaehlt.

Ailuros
2004-03-16, 12:59:07
Original geschrieben von Demirug
Zum Shader Model 4.0:

Ein interesanter Nebenaspekt ist noch das Shadermodel 4.0 im Prinzip nicht nur für Vertex und Pixelberechnungen gedacht ist.

Tesselation?

Demirug
2004-03-16, 13:05:19
Original geschrieben von Ailuros
Tesselation?

Wenn ich es richtig verstanden habe würde es MS gerne sehen wenn ein IHV eine mit Shader Model 4.0 programmierbare Tesselationseinheit bringt.

Ich hätte auch gerne noch programmierbare ROPs.

Ailuros
2004-03-16, 13:17:10
Original geschrieben von Demirug
Wenn ich es richtig verstanden habe würde es MS gerne sehen wenn ein IHV eine mit Shader Model 4.0 programmierbare Tesselationseinheit bringt.

Ich hätte auch gerne noch programmierbare ROPs.

Eine getrennte Einheit a la PPP oder den S4.0 grid so stark erweitern dass programmierbare Tesselation auch noch moeglich waere? Wieso klingt mir der zweite Fall nicht besonders performant?

robbitop
2004-03-16, 13:20:22
@AiL
klar hört sich das blöd an NV45 "vorziehen" oder kurzfristig große Änderungen machen.

Aber wie denkst du darüber dass NV40 nicht mehr der NV40 wie er vor maybe 6-9Monaten geplant war??

Ailuros
2004-03-16, 13:26:53
Absoluter Quatsch.

Das originale Ziel schon seit Mitte 2k3 oder frueher war eine CeBIT Vorstellung. Warum jetzt dieser Termin nicht eingehalten wurde koennte daran liegen dass das original Taktraten-Ziel nicht erreicht wurde und vielleicht doch noch GDDR3 groessere Verfuegbarkeit erwartet wird, um den Stromverbrauch besser kontrollieren zu koennen und eventuell auf die gezielte Taktrate zu kommen (oder eben so nahe wie moeglich).

deekey777
2004-03-16, 13:33:27
@Ailuros
Wenn es nach diesem Artikel (http://www.theinq.net/?article=14063) geht, hast du Recht: Der NV45 ist der NV 40 PCI Express.

Ailuros
2004-03-16, 13:42:56
Original geschrieben von deekey777
@Ailuros
Wenn es nach diesem Artikel (http://www.theinq.net/?article=14063) geht, hast du Recht: Der NV45 ist der NV 40 PCI Express.

Aussnahmsweise ein Artikel vom INQ mit den wenigsten moeglichen Fehlern.

Ich bin mir aber mit mehr als 100% sicher, dass der andere newsblurb absoluter Quatsch ist.

Winter[Raven]
2004-03-16, 14:02:12
Transistoren zaehlt

Erkläre ...

Komme aber nicht mit, ein Transistor ist nicht gleich ein Transistor.

robbitop
2004-03-16, 14:36:30
hm also deiner Meinung nach ist NV40 das was er original vor 6-9 Monaten hätte werden sollen, ja?

Gast
2004-03-16, 15:36:36
Original geschrieben von robbitop
hm also deiner Meinung nach ist NV40 das was er original vor 6-9 Monaten hätte werden sollen, ja?
robbi:

Wir waren beim original NV40 (wie du ihn nennst) schon bei A03, was für einen Sinn sollte es denn machen, diesen abzuändern ?! Die vorherigen Tape-Outs wären somit nutzlos und teuer gewesen, und man hätte ihn dann gerade noch als schönen Anhänger gebrauchen können.

NV45 ist nichts weiter als eine Variante mit GDDR3 (höherer Takt als NV40) inkl. native PCI-Express und womöglich "16 FUAD Pipes". Wann diese vorgestellt werden, ist abhängig von a) Design (Takt, möglichst wenige Bugs) und b) GDDR3-Verfügbarkeit.

Man könnte jetzt noch spekulieren, ob der NV45 in etwa zeitglich mit D3 veröffentlicht wird, aber daran will ich garnicht denken.

Demirug
2004-03-16, 15:38:17
Original geschrieben von Gast
robbi:

Wir waren beim original NV40 (wie du ihn nennst) schon bei A03, was für einen Sinn sollte es denn machen, diesen abzuändern ?! Die vorherigen Tape-Outs wären somit nutzlos und teuer gewesen, und man hätte ihn dann gerade noch als schönen Anhänger gebrauchen können.

NV45 ist nichts weiter als eine Variante mit GDDR3 (höherer Takt als NV40) inkl. native PCI-Express und womöglich "16 FUAD Pipes". Wann diese vorgestellt werden, ist abhängig von a) Design (Takt, möglichst wenige Bugs) und b) GDDR3-Verfügbarkeit.

Man könnte jetzt noch spekulieren, ob der NV45 in etwa zeitglich mit D3 veröffentlicht wird, aber daran will ich garnicht denken.

Sollte nicht auch schon der NV40 GDDR3 fähig sein?

VooDoo7mx
2004-03-16, 15:48:06
Ich schließ mich auch den Leuten an die darauf hin spekulieren das der jetzige NV40 eher der geplante Refresh Chip ist oder das der NV40 nicht emhr viel mit dem ursprünglich geplanten NV40 gemein hat.

Auf der einen Seite behauptet Ailuros nur das TI Quark schreibt auf der anderen Site stützt er sich auf die Aussage von TI wo diese Site behauptet hat das der NV40 und NV45 letztes Jahr ihr Tape Out hatten.

Und wer sagt außerdem, dass die PCI Express Varianten von von NV einen neuen Codenamen bekommen? Das ist auch nur eine Vermutung die sich bei der aktuelen GeForce PCX Reihe nicht bestätigt hat. Der gestern erschienene ForceWare 56.64 unterstützt erstmals diese Reihe. Schon mal in die Inf geschaut? ;)

NV wird auch beim NV40 auf die PCI Express Bridge setzen, diese bringt den Vorteil das am eigentlich Chip nichts geändert werden muss. Wieso slaso für haargenau den selben Chip ein neuer Codename?
Beim NV28 zum NV25 gab es z.B. einen neuen Codenamen weil am Chip wegen des AGP 8x Interfaces was geändert werden musste, dank der PCI Express Brdige entfallen solche arbeiten aber.

robbitop
2004-03-16, 16:16:53
@gast
lies nochmal sorgfältig!
Ich sprach nicht davon, dass man ihn KURZFRISTIG änderte, sondern bereits VOR dem Tapeout und zwar LANGE vor dem Tapeout. (Juni: 150Mio Transistoren September: 175Mio (kurz vor dem Tapeout))..hier scheint langfristig etwas anders gelaufen zu sein als geplant. TheInQ sind die einzigen, die eine kurzfristige Änderung surgerieren, ich weiss das sowas unsinn ist und man braucht echt nicht mehr auf den NV45 = NV40 PCI-E hinzuweisen. Denn das ist JETZT so, aber vieleicht war es mal anders geplant.

ow
2004-03-16, 16:30:09
.

ShadowXX
2004-03-16, 16:35:51
Original geschrieben von VooDoo7mx
Ich schließ mich auch den Leuten an die darauf hin spekulieren das der jetzige NV40 eher der geplante Refresh Chip ist oder das der NV40 nicht emhr viel mit dem ursprünglich geplanten NV40 gemein hat.

Auf der einen Seite behauptet Ailuros nur das TI Quark schreibt auf der anderen Site stützt er sich auf die Aussage von TI wo diese Site behauptet hat das der NV40 und NV45 letztes Jahr ihr Tape Out hatten.

Und wer sagt außerdem, dass die PCI Express Varianten von von NV einen neuen Codenamen bekommen? Das ist auch nur eine Vermutung die sich bei der aktuelen GeForce PCX Reihe nicht bestätigt hat. Der gestern erschienene ForceWare 56.64 unterstützt erstmals diese Reihe. Schon mal in die Inf geschaut? ;)

NV wird auch beim NV40 auf die PCI Express Bridge setzen, diese bringt den Vorteil das am eigentlich Chip nichts geändert werden muss. Wieso slaso für haargenau den selben Chip ein neuer Codename?
Beim NV28 zum NV25 gab es z.B. einen neuen Codenamen weil am Chip wegen des AGP 8x Interfaces was geändert werden musste, dank der PCI Express Brdige entfallen solche arbeiten aber.

Und wenn nV beim nV40 nicht auf den Bridgechip setzt?

J.S.Shadow

robbitop
2004-03-16, 16:49:05
doch ow die gab es (nv Präsentationsfolie aus dem sommer besagte 150Mio Transistoren). Jetzt müssen wir nur noch auf die Offizielle Angabe vom NV40 warten wenn er rauskommt und dann vergleichen.

Zumal wir hier im Spekuforum sind und wenn es nur nach offiziell bestätigten Dingen ginge, wäre dieses Unterforum völlig unnötig. Manchmal muss man eben mit Leaks arbeiten, um spekulieren zu können.

egdusp
2004-03-16, 17:01:34
Original geschrieben von robbitop
doch ow die gab es (nv Präsentationsfolie aus dem sommer besagte 150Mio Transistoren). Jetzt müssen wir nur noch auf die Offizielle Angabe vom NV40 warten wenn er rauskommt und dann vergleichen.

Zumal wir hier im Spekuforum sind und wenn es nur nach offiziell bestätigten Dingen ginge, wäre dieses Unterforum völlig unnötig. Manchmal muss man eben mit Leaks arbeiten, um spekulieren zu können.

Und wie alt war die Folie zu dem Zeitpunkt? Manchmal dauert es ja Monate bis eine Folie rauskommt. Wenn sie aus den frühen Designstadien waren, dann kann sich da noch viel geändert haben, ohne dass es eine Panikreaktion war.

mfg
egdusp

robbitop
2004-03-16, 17:13:34
@egdusp
ja kann sein, habe nie was gegenteiliges behauptet.
Das mit der "Paniksituation" kommt jedenfalls nicht von mir.
Meine Behauptung ist, dass er im Entwicklungsstadium geändert worden ist, vieleicht sogar im späten Entwicklungsstadium.
Aber von solchen Änderungen bekommt die Masse natürlich nichts mit und somit sieht es für viele so aus als wäre es so

ow
2004-03-16, 20:18:50
.

Sunrise
2004-03-16, 20:33:53
Original geschrieben von ow
...Im übrigen scheinen mir 150Mio doch etwas sehr wenig wenn man bedenkt, dass der NV35 schon über 120Mio. hat.
Der NV35 hat um die 135 Mio., um genau zu sein. Womit die 150 Mio. noch unwahrscheinlicher sind. Es passt also vorne und hinten nicht.

175 Mio. passen eigentlich ins Bild eines "neuen" Parts (NV40), und 210 Mio. passen wiederrum (NV45).

Je nachdem was wir serviert bekommen, könnte man davon ausgehend, natürlich Rückschlüsse ziehen.

Maps
2004-03-16, 20:45:54
Original geschrieben von Gast
robbi:

Wir waren beim original NV40 (wie du ihn nennst) schon bei A03, was für einen Sinn sollte es denn machen, diesen abzuändern ?! Die vorherigen Tape-Outs wären somit nutzlos und teuer gewesen, und man hätte ihn dann gerade noch als schönen Anhänger gebrauchen können.

NV45 ist nichts weiter als eine Variante mit GDDR3 (höherer Takt als NV40) inkl. native PCI-Express und womöglich "16 FUAD Pipes". Wann diese vorgestellt werden, ist abhängig von a) Design (Takt, möglichst wenige Bugs) und b) GDDR3-Verfügbarkeit.

Man könnte jetzt noch spekulieren, ob der NV45 in etwa zeitglich mit D3 veröffentlicht wird, aber daran will ich garnicht denken.

Der NV40 wird eine 2-Slot sein, genauso wie mann ihn vor 7 Monaten designtechnisch theoretisch aus Basis NV30 erstellt hatte.

Wahrscheinlich, wird er sogar aufgrund seiner Baugrösse (Grafikkarte) als technische Innovation gefeiert.

Es wird sich aber nichts grosses beim Leistungsunterschied verändern.

Wir bewegen uns jetzt in einen Leistungsbereich bei kommenden Grafikanforderungen, die nicht alleine durch Marketing realisiert werden können.

Die nächsten Sprünge in der zu erwartenden Grafikleistung sind nicht alleine durch Zugaben wie PS3.0 Support zu erreichen.

Der User wird den Unterschied diesmal selber sehen können!

nivea: 2 points
ati 12 points

robbitop
2004-03-16, 20:49:23
NV35 hat 130Mio

und es war nicht ausgedacht sondern eine offizielle NV Folie.

@Maps

aha.. und woher nimmst du diese Infos?

Sunrise
2004-03-16, 20:51:12
Original geschrieben von robbitop
NV35 hat 130Mio

und es war nicht ausgedacht sondern eine offizielle NV Folie.
Ich sehe gerade, dass Dave anscheinend mehrere Angaben auf seiner Seite hat, und er scheint wohl auf Kontinuität Wert zu legen, zumindest meint er das.
In der Übersicht steht also 130, in einer seiner Artikel steht 135.

Jedoch bleibt natürlich ow´s und mein berechtigter Einwand stehen :)

robbitop
2004-03-16, 20:52:08
auch Dave kann sich mal irren. nVIDIA hat offiziell 130Mio angegeben, solang da nichts anderes kommt sinds 130 ;)

Maps
2004-03-16, 20:56:21
Original geschrieben von robbitop
NV35 hat 130Mio

und es war nicht ausgedacht sondern eine offizielle NV Folie.

@Maps

aha.. und woher nimmst du diese Infos?

Ich habe keine Informationen gegeben, ich sprach von nivea!

ShadowXX
2004-03-16, 21:23:53
Original geschrieben von Maps
Ich habe keine Informationen gegeben, ich sprach von nivea!

Cool...Welchen PH-Wert hat die Karte den..wusste noch gar nicht das Bayersdorf jetzt auch in den GraKa Markt eingestiegen ist ;D ;D

Du meintest sicher nVidia...

Dafür das du keine Infos gegeben hast, stehen aber allerhand Infos drinne...z.B. über die Bauart, Grösse und Leistungsfähigkeit...

J.S.Shadow

robbitop
2004-03-16, 21:36:48
ja das klang alles sehr bestimmt was du da sagtest..

Godmode
2004-03-16, 22:08:19
Original geschrieben von Maps
Der NV40 wird eine 2-Slot sein, genauso wie mann ihn vor 7 Monaten designtechnisch theoretisch aus Basis NV30 erstellt hatte.

Wahrscheinlich, wird er sogar aufgrund seiner Baugrösse (Grafikkarte) als technische Innovation gefeiert.

Es wird sich aber nichts grosses beim Leistungsunterschied verändern.

Wir bewegen uns jetzt in einen Leistungsbereich bei kommenden Grafikanforderungen, die nicht alleine durch Marketing realisiert werden können.

Die nächsten Sprünge in der zu erwartenden Grafikleistung sind nicht alleine durch Zugaben wie PS3.0 Support zu erreichen.

Der User wird den Unterschied diesmal selber sehen können!

nivea: 2 points
ati 12 points

1. Mich stört es überhaupt nicht wenn eine Graka 2 Slots verbraucht, da man den 1. PCI Slot sowiso frei lassen sollte, wegen IRQ-Sharing. Und in Zukunft muss man sich sowiso was neues einfallen lassen, da die Verlustleistung immer höher steigt!

2. Inwiefern wird sich beim Leistungsunterschied nichts ändern? Ati wieder schneller als NV? oder NV40 gleich schnell wie NV30? Schreib Sätze die man versteht.

3. Nvidia 2 Points; Ati 12 Points; verstehe ich auch nicht? woher du das wieder nimmst? oder was das bedeuten soll; hast du etwa schon ein R420 oder NV40 Board in deinem Sys???

ShadowXX
2004-03-16, 22:12:51
Original geschrieben von bans3i
1. Mich stört es überhaupt nicht wenn eine Graka 2 Slots verbraucht, da man den 1. PCI Slot sowiso frei lassen sollte, wegen IRQ-Sharing. Und in Zukunft muss man sich sowiso was neues einfallen lassen, da die Verlustleistung immer höher steigt!

3. Nvidia 2 Points; Ati 12 Points; verstehe ich auch nicht? woher du das wieder nimmst? oder was das bedeuten soll; hast du etwa schon ein R420 oder NV40 Board in deinem Sys???

zu 1.)
Nicht bei jedem Board teilt sich der 1. PCI den IRQ mit dem AGP...kenne mindestens 3 Board wo das nicht der Fall ist.
Aber sonst hast du recht...alleine wegen der Hitzeentwicklung sollte man PCI 1 leerstehen lassen...

zu 3.)
European Song Contest....die bei ATI koennen besser singen als die von nivea..ähhhh nVidia ;D ;D ;D

Maps
2004-03-16, 22:32:49
Original geschrieben von ShadowXX
zu 1.)
Nicht bei jedem Board teilt sich der 1. PCI den IRQ mit dem AGP...kenne mindestens 3 Board wo das nicht der Fall ist.
Aber sonst hast du recht...alleine wegen der Hitzeentwicklung sollte man PCI 1 leerstehen lassen...

zu 3.)
European Song Contest....die bei ATI koennen besser singen als die von nivea..ähhhh nVidia ;D ;D ;D

Zu 1.) Ich habe in meinem System eine 9800XT 256MB, daneben steckt einen Terratec TV-Karte PCI, das Gehäuse ist ein ecube mit P3 3Ghz. IRQ ist "Schnee von gestern" -> Moderne MB haben deratige Probleme nicht! Hitzeprobleme kenne ich nicht, dat Ding schnurrt bei gemütlichen 67 Grad GPU und 38Grad SYS gemütlich vor sich hin! Deine Argumentation bezieht sich auf die Erfahrung mit nivea 1&2-Slot Graka im SYS.

Zu 2.) no comment

Maps
2004-03-16, 22:32:57
Original geschrieben von ShadowXX
zu 1.)
Nicht bei jedem Board teilt sich der 1. PCI den IRQ mit dem AGP...kenne mindestens 3 Board wo das nicht der Fall ist.
Aber sonst hast du recht...alleine wegen der Hitzeentwicklung sollte man PCI 1 leerstehen lassen...

zu 3.)
European Song Contest....die bei ATI koennen besser singen als die von nivea..ähhhh nVidia ;D ;D ;D

Zu 1.) Ich habe in meinem System eine 9800XT 256MB, daneben steckt einen Terratec TV-Karte PCI, das Gehäuse ist ein ecube mit P3 3Ghz. IRQ ist "Schnee von gestern" -> Moderne MB haben deratige Probleme nicht! Hitzeprobleme kenne ich nicht, dat Ding schnurrt bei gemütlichen 67 Grad GPU und 38Grad SYS gemütlich vor sich hin! Deine Argumentation bezieht sich auf die Erfahrung mit nivea 1&2-Slot Graka im SYS.

Zu 3.) no comment

Quasar
2004-03-16, 22:46:22
Original geschrieben von Maps
Deine Argumentation bezieht sich auf die Erfahrung mit nivea 1&2-Slot Graka im SYS.

Na, wenn du's sagst - meine Erfahrung mit FX5900 und R9800p sagen mir jedenfalls genau das Gegenteil. Stabiler Betrieb mit der FX, Bildfehler mit der Radeon.

Muss ich wohl ein Montagsmodell erwischt haben, was? ;)

Godmode
2004-03-16, 22:52:19
Original geschrieben von Maps
Zu 1.) Ich habe in meinem System eine 9800XT 256MB, daneben steckt einen Terratec TV-Karte PCI, das Gehäuse ist ein ecube mit P3 3Ghz. IRQ ist "Schnee von gestern" -> Moderne MB haben deratige Probleme nicht! Hitzeprobleme kenne ich nicht, dat Ding schnurrt bei gemütlichen 67 Grad GPU und 38Grad SYS gemütlich vor sich hin! Deine Argumentation bezieht sich auf die Erfahrung mit nivea 1&2-Slot Graka im SYS.

Zu 3.) no comment

Sag einfach was dich an nem 2 Slot Model stört?? Nur weils von Nvidia ist? oder was ist so schlimm daran? brauchst du alle PCI Slots? Ich hab nur die Graka drinnen sonst nichts. Lan und Soundstorm auf Nforce Board mehr brauche ich nicht.

Gast
2004-03-16, 22:55:18
Original geschrieben von Quasar
Na, wenn du's sagst - meine Erfahrung mit FX5900 und R9800p sagen mir jedenfalls genau das Gegenteil. Stabiler Betrieb mit der FX, Bildfehler mit der Radeon.

Muss ich wohl ein Montagsmodell erwischt haben, was? ;)

Tja und was lernen wir daraus? Eigene Erfahrungen sollte man nicht als allgemeingültig hinstellen. Gelle?!

ShadowXX
2004-03-16, 22:55:44
Original geschrieben von Maps
Zu 1.) Ich habe in meinem System eine 9800XT 256MB, daneben steckt einen Terratec TV-Karte PCI, das Gehäuse ist ein ecube mit P3 3Ghz. IRQ ist "Schnee von gestern" -> Moderne MB haben deratige Probleme nicht! Hitzeprobleme kenne ich nicht, dat Ding schnurrt bei gemütlichen 67 Grad GPU und 38Grad SYS gemütlich vor sich hin! Deine Argumentation bezieht sich auf die Erfahrung mit nivea 1&2-Slot Graka im SYS.

Zu 2.) no comment

Zu 1.) na dann setz mal einen RAID-Controller und eine AGP-Grafikkarte auf ein und denselben IRQ, Soundblaster können da auch öfter mal Probs machen...ausserdem kann es auch sein, das bei deinem Board sich PCI 1 und AGP den IRQ nicht sharen...

Ich habe auch nicht behauptet, das es unmöglich ist(upps...das war ja gar nicht ich, egal) mehrere Karten auf ein und demselben IRQ zu betreiben...es ist nur bei manchen Karten Problematischer als bei anderen....

Und mit der Meinung stehe ich nicht alleine da....manches macht man eben als reine Vorsichtsmassnahme...

Das gleiche gilt für das Wäreproblem (welches nV, wenn man die nv30 mal rausnimmt, übrigens auch nicht hat)....bei dem einen ist es ok...beim nächsten verursacht es einen Wärestau....davon abgesehen das ich ebenfalls eine ATI im System habe....

Zu 2.) ein bisschen spass muss sein...

StefanV
2004-03-16, 23:04:10
Original geschrieben von ShadowXX
Zu 1.) na dann setz mal einen RAID-Controller und eine AGP-Grafikkarte auf ein und denselben IRQ, Soundblaster können da auch öfter mal Probs machen...ausserdem kann es auch sein, das bei deinem Board sich PCI 1 und AGP den IRQ nicht sharen...

Nujo, solang der Hersteller des Grafikchips nicht nVidia ist könnte das sogar klappen.

Ich war mal so verrückt und habs vor einiger Zeit mal ausprobiert, die GF1 DDR ist hart gefreezt, der Radeon hats nichts ausgemacht.

MadManniMan
2004-03-16, 23:11:11
Also ich weiß nicht, tausende VGA Silencer User können eigentlich nicht irren, gelle? Ich für meinen Teil mag meine 2-Slot-Variante ;)

stickedy
2004-03-16, 23:21:44
Also ich persönlich finde diese extensiven Kühlmethoden nur peinlich, eine technische Bankrott-Erklärung des jeweiligen Herstellers...
Sowas würde ich mir nie antun!

MadManniMan
2004-03-16, 23:27:37
Original geschrieben von stickedy
Also ich persönlich finde diese extensiven Kühlmethoden nur peinlich, eine technische Bankrott-Erklärung des jeweiligen Herstellers...
Sowas würde ich mir nie antun!

Der Meinung wär ich auch, hätt ich meine K2 noch ;)

robbitop
2004-03-16, 23:35:04
der Silencer hat 2 Vorteile:
-er ist extrem leise und dabei kühl
-er bringt die von der GPU erwärmte luft direkt nach draussen und belastet somit die Case Temp nicht.

Nachteile: ein PCI geht verloren...wie schlimm... :D

Exxtreme
2004-03-16, 23:36:48
Original geschrieben von robbitop
Nachteile: ein PCI geht verloren...wie schlimm... :D
Ist aber nicht mehr normkonform. Deshalb werden sich viele OEMs hüten, das Teil in Fertig-PCs zu verbauen. :)

stickedy
2004-03-16, 23:45:16
@MadManniMan

Was hat das damit zu tun, welche Grafikkarte man hat?

ironMonkey
2004-03-16, 23:52:13
Tja, weil die heutigen Karten extrem heiß werden und da fast jeder FPS Geil ist entwickeln die Karten halt eine ordentliche Hitze.

Ob jetzt ein pci Platz verloren geht ist mir egal, so lange es leise ist und sich dafür die KArte gut OC'en lässt was zwar unnötig ist aber zeigt das die Kühlung gut ist.


Gruß

MadManniMan
2004-03-16, 23:54:07
Original geschrieben von stickedy
@MadManniMan

Was hat das damit zu tun, welche Grafikkarte man hat?

Meine Kyro2 war mit nem Minimallüfter genauso leise und Kühler, als meine R9500Pro mit VGA-Silencer jetzt. Irgenein Opfer muß man schon bringen, wenn man aktuelle HW genießen will ;)

stickedy
2004-03-17, 00:39:26
Ein S3 DeltaChrome mit vergleichbarer Leistung kann problemlos passiv gekühlt werden. Mir entgeht der Punkt...

Wie gesagt: Eine aufwendige Kühlung ist eine technische Bankrott-Erklärung des jeweiligen Herstellers!

MadManniMan
2004-03-17, 01:17:58
Original geschrieben von stickedy
Ein S3 DeltaChrome mit vergleichbarer Leistung kann problemlos passiv gekühlt werden. Mir entgeht der Punkt...

Wie gesagt: Eine aufwendige Kühlung ist eine technische Bankrott-Erklärung des jeweiligen Herstellers!

Ein DC erreicht nicht wirklich die Leistung, die mir meine Radeon 9500 Pro seit einem Jahr bietet. Und bedenke meine Taktraten ;)

ironMonkey
2004-03-17, 01:36:58
Original geschrieben von stickedy
Wie gesagt: Eine aufwendige Kühlung ist eine technische Bankrott-Erklärung des jeweiligen Herstellers!


Ich kann mich nicht daran erinnern das Deltachrom schneller als ATI oder Nvidia ist.




Gruß

VooDoo7mx
2004-03-17, 01:47:42
Original geschrieben von stickedy
Ein S3 DeltaChrome mit vergleichbarer Leistung kann problemlos passiv gekühlt werden. Mir entgeht der Punkt...

Wie gesagt: Eine aufwendige Kühlung ist eine technische Bankrott-Erklärung des jeweiligen Herstellers!

Würde man einer Radeon 9600 300Mhz DDR Speicher wie dem DeltaChrome verpassen würde, wäre sie in etwa genauso schnell und auch ohne Probleme passiv kühlbar.
Ne 0600XT lässt sich mit ner kleinen Heatpipe auch problemlos passiv betreiben.
Eine 9800Pro ist mit einer großen Heatpipe auch noch komplett passiv kühlbar ist aber leistungsmäßig einige Regionen über den DeltaChrome.
Also? :wayne:

Quasar
2004-03-17, 02:00:12
Original geschrieben von ironMonkey
Ich kann mich nicht daran erinnern das Deltachrom schneller als ATI oder Nvidia ist.
Gruß

...pro Watt?

MadManniMan
2004-03-17, 02:28:30
Original geschrieben von Quasar
...pro Watt?

Ist das in diesem Fall nicht eher akademisch? :|

Ailuros
2004-03-17, 03:52:18
Original geschrieben von VooDoo7mx
Ich schließ mich auch den Leuten an die darauf hin spekulieren das der jetzige NV40 eher der geplante Refresh Chip ist oder das der NV40 nicht emhr viel mit dem ursprünglich geplanten NV40 gemein hat.

Schoen. Je mehr falsch spekulieren desto besser oder? Wir werden ja wohl in sehr kurzer Zeit sehen wer recht hat.

Auf der einen Seite behauptet Ailuros nur das TI Quark schreibt auf der anderen Site stützt er sich auf die Aussage von TI wo diese Site behauptet hat das der NV40 und NV45 letztes Jahr ihr Tape Out hatten.

Inquirer ist nicht gerade EEtimes falls Du's bis jetzt noch nicht gemerkt hast. Dass die Mehrheit von Inquirer's Zeug nicht der Wahrheit entsprach hat sich schon des oefteren bewiesen und ja aussnahmsweise wird auch mal was korrekt abgeschrieben.

Beide hatten tatsaechlich ihren tape-out zur gleichen Zeit; braucht man ein genaues Datum? Wie ein Gast schon sagte weiss noch keiner ob beide zur gleichen Zeit veroeffentlicht werden.


Und wer sagt außerdem, dass die PCI Express Varianten von von NV einen neuen Codenamen bekommen? Das ist auch nur eine Vermutung die sich bei der aktuelen GeForce PCX Reihe nicht bestätigt hat. Der gestern erschienene ForceWare 56.64 unterstützt erstmals diese Reihe. Schon mal in die Inf geschaut? ;)

Nur NV45 = native PCI-E

Noch ne Frage?

NV wird auch beim NV40 auf die PCI Express Bridge setzen, diese bringt den Vorteil das am eigentlich Chip nichts geändert werden muss. Wieso slaso für haargenau den selben Chip ein neuer Codename?
Beim NV28 zum NV25 gab es z.B. einen neuen Codenamen weil am Chip wegen des AGP 8x Interfaces was geändert werden musste, dank der PCI Express Brdige entfallen solche arbeiten aber.


http://www.3dcenter.de/artikel/2004/03-03_a.php

Falls noch nicht gesehen, bitte sehr vorsichtig durchlesen. Es koennte sogar helfen :)

Ailuros
2004-03-17, 03:55:34
Original geschrieben von Gast
robbi:

Wir waren beim original NV40 (wie du ihn nennst) schon bei A03, was für einen Sinn sollte es denn machen, diesen abzuändern ?! Die vorherigen Tape-Outs wären somit nutzlos und teuer gewesen, und man hätte ihn dann gerade noch als schönen Anhänger gebrauchen können.

NV45 ist nichts weiter als eine Variante mit GDDR3 (höherer Takt als NV40) inkl. native PCI-Express und womöglich "16 FUAD Pipes". Wann diese vorgestellt werden, ist abhängig von a) Design (Takt, möglichst wenige Bugs) und b) GDDR3-Verfügbarkeit.

Man könnte jetzt noch spekulieren, ob der NV45 in etwa zeitglich mit D3 veröffentlicht wird, aber daran will ich garnicht denken.

Falls es keinen besonderen Grund gibt anonym zu posten, wuerde ich gerne noch eine Registrierung sehen Herr Gast ;)

Quasar
2004-03-17, 07:05:38
Original geschrieben von MadManniMan
Ist das in diesem Fall nicht eher akademisch? :|

Würde ich nicht unbedingt sagen. Wenn nV40 und R420 pro Watt soviel leisteten, wie der Delta Chrome, bräuchten wir wohl für die nächsten fünf Jahre keine Refreshes ;)

Gast
2004-03-17, 08:32:21
Original geschrieben von Ailuros
Falls es keinen besonderen Grund gibt anonym zu posten, wuerde ich gerne noch eine Registrierung sehen Herr Gast ;)

Frage mich nur, warum dieser Beitrag auch nicht gelöscht wurde!

Meiner von gestern, Gastname Maps, wurde gelöscht!

Sehr auffällig!

aths
2004-03-17, 09:45:07
Original geschrieben von Gast
Das bezweifelt auch niemand. Das Ergebnis ist das gleiche, sprich: schlechte Implementation. Ich will hier auch nicht gegen den NV30 schießen, man sollte aber doch inzwischen gemerkt haben, welche Features wirklich Bedeutung haben/hatten, und welche getrost wieder in der Versenkung verschwunden sind, nicht zuletzt weil ATI mit der MS-Implementation gefahren ist, und diese mehr Anklang fand als 2.X von NV. Inwiefern ist ATIs HW eine "MS-Implementation" und Nvidias HW nicht???

Quasar
2004-03-17, 10:39:54
Original geschrieben von aths
Inwiefern ist ATIs HW eine "MS-Implementation" und Nvidias HW nicht???
Ist das eine rhetorische Frage?

ATi hat das "Glück", zufällig in einer Reihe von Merkmalen genau dem Minimum des Geforderten zu entsprechen und in einer Reihe von anderen "Merkmalen", die anscheinend nicht genau oder überhaupt nicht definiert sind, das Minimum dessen zu bieten, was man in aktuellen Games _gerade so_ nicht bemerkt.
Das hat ihnen offenbar ermöglicht, genug Transistoren einzusparen, um zusätzlich zu ihrer effizienten Pipeline noch einen zweiten Pixelprozessor zu integrieren.

Der daraus resultierende Vorsprung in der PS2.0-Leistung ist evident.

robbitop
2004-03-17, 10:41:37
@Exxtreme
doch es sollte der AGP Pro Norm gerecht werden.
Andernfalls würde HIS nicht den Silencer auf die Grafikkarten platzieren. Ausserdem: wen interessien schon OEMs? ;)
Die Komplettsysteme die im Laden stehen haben bisher noch nie die Qualitäten von selbstgebauten Lösungen aufweisen können. OEMs ist eben was für Firmen, Leute die keine Zeit haben sich einen PC zu bauen und uninformierten Leuten.
Nichts davon trifft auf die meisten Leute hier im Forum zu ;)

@stickedy
so kann mans auch sehen, aber es ist im Leben und auch in der Mikroelektronik nunmal so, dass der Aufwand relativ zum Nutzen nicht linear steigt, sondern eher expotentiell.
Ergo: willst du viel Rechenleistung, dann musst du expotentiell mehr Energie aufwänden.

Das ist bei Stereoanlagen für 50.000EUR so, die sind nicht 50x so gut wie die in unserem Wohnzimmer.
Das ist bei Autos so. Ein Porsche ist nicht 5-10x so gut/schnell wie unser VW New Beatle.
Ein Pentium4/Athlon64 ist nicht 10-20x schneller als ein C3 oder ein Cursoe, aber verbraucht das 10-20 fache.
Ich könnte jetzt hier noch massig Beispiele angeben.

Der Deltachrome ist sicher für seine Nische ein erstklassiges Produkt, doch kann man nicht Äpfel mit Birnen vergleichen imo.
Ausserdem ist eine Radeon 9600 ebenfalls recht sparsam, das Abwärme/Rechenleistungsverhältnis ist jedenfalls beim DC am besten.

Aber es gibt genug Leute wie mich, deren Bedürfnisse nach extrem hoher Rechenleistung verlangen. Ich liebe es wenn ein extrem geglättetes,ruhges, scharfes und effektvolles Bild zu sehen ist. Deswegen bin ich doch nicht schlechter als DC Besitzer (sofern es welche gäbe ;)..
Ok die Stromkosten und die Abwärme, aber das können die Meisten vertragen. Und mit einem Silencer ist das Teil noch schön leise und das Geäuse wird nicht belastet.

Man kann es nicht "Armut" oder Ähnliches nennen. Das sind hochquallifizierte, oftmals Promovierte Leute.
Und die GPUs wurden zu einem anderen Zweck konstruiert..Leistung ohne Kompromisse (bis zu einem gewissen Maß).

r@w
2004-03-17, 11:43:54
Original geschrieben von ironMonkey
Tja, weil die heutigen Karten extrem heiß werden und da fast jeder FPS Geil ist entwickeln die Karten halt eine ordentliche Hitze.Kann ich nicht bestätigen...

Meine FX5900 @ 5950u-Clocks gibt sich mit gemütlichen 40° Kerntemperatur zufrieden, welches in etwa 30° Aussentemperatur resultiert. Da wird mein Prozzi ein 'bissel' wärmer... und wenn das Kärtchen dann so richtig aufdreht, werden max 70° im Kern daraus und etwa 45° in der Umgebung... auch nicht wirklich 'heiß', oder ?

Wenn ich da noch an die gute alte gfddr denke...
Spiegeleier hätte man da drauf braten können !
:D

Razor

ironMonkey
2004-03-17, 12:19:06
Dies ist aber nur mit einer guten Kühlung möglich und darum ging es ja, mit mieser Kühlung gute Temp. zu haben...wenn ich mir die ganzen Tests so anschau dann komme ich so auf 50° bei meiner 9800pro, das liegt nicht an der Karte sondern am Silencer. Soweit ich weiß kann die FX bis 140° heiß werden was alles andere als kühl ist, eine ATI müsste auch um die 100° aushalten oder vieleicht mehr

Stickedy meinte halt das es ein Armutszeugnis währe wenn man ne gute Kühlung brauch und dazu die Deltachrom als gut empfindet, was relativ ist da ich die Karte noch in keinem Laden gesehen hab.......


Gruß

r@w
2004-03-17, 12:54:41
Original geschrieben von ironMonkey
Dies ist aber nur mit einer guten Kühlung möglich und darum ging es ja, mit mieser Kühlung gute Temp. zu haben...wenn ich mir die ganzen Tests so anschau dann komme ich so auf 50° bei meiner 9800pro, das liegt nicht an der Karte sondern am Silencer. Soweit ich weiß kann die FX bis 140° heiß werden was alles andere als kühl ist, eine ATI müsste auch um die 100° aushalten oder vieleicht mehrDu willst doch wohl hoffentlich nicht die Kerntemperatur mit der Umgebungstemperatur vergleichen, oder ?

Die 50° bei Deiner 9800p ist definitv ein Umgebungswert und muss daher mit den maximal 45° meiner FX5900 konkurrieren (also nicht mit den maximal 70° Kerntemperatur). Und das bei einer Kühllösung, die nahezu genauso (wenn nicht sogar vergleichbar) leise ist.

Auch habe ich noch nirgendwo gehört, dass irgendein Chip (auch nicht der NV30u) 140° heiß geworden ist (es sei denn, man baut den Lüfter ab ;-). Ich vermute Du meinst hier die die Schwelle zur Notabschaltung, bzw. zum erzwungenen Heruntertakten der Grafikkarte (wonach die Karte dann auch ohne aktive Kühlung auskommt). Und ja, dieser 'Notfallplan' tritt bei meiner FX5900 laut CP erst bei 145° (Kerntemperatur !) in Kraft...

Manchmal habe ich echt das Gefühl, dass hier mit zweierlei Maß gemessen wird... zumindest aber Äpfel mit Birnen verglichen werden.

Wozu dann auch der 'Vergleich' zum DC paßt...

Razor

ironMonkey
2004-03-17, 13:12:13
Ich kann keine Temp auslesen und die zahlen sind mir auch egal das war nur ein Beispiel, so lange die Karte läuft und sich gut OC'en lässt sind die Temperaturen gut und fertig ob ich jetzt 50 oder 100° hab ich mir dabei egal, es ging dabei rein um den Sinn der Sache das man für heutige high end Karte eine gute Kühlung brauch.



Gruß

robbitop
2004-03-17, 13:29:53
razors Karte arbeitet mit standardkühlung.
Meine Karte kann ich gut gekühlt nennen. Bei 550/950 habe ich bei vollast laut RT 59-60°C und Ambience von 33°C.
Wassergekühlt eben..

ice cool69
2004-03-22, 22:04:39
Mir ist das egal ob ne Karte ne gute Kühlung braucht oder nicht, ich hab ne WAK und da brauch ich mir auch beim R900 und NV70 keine Sorgen machen.

Exxtreme
2004-03-22, 22:09:02
Original geschrieben von ice cool69
Mir ist das egal ob ne Karte ne gute Kühlung braucht oder nicht, ich hab ne WAK und da brauch ich mir auch beim R900 und NV70 keine Sorgen machen.
Also darauf würde ich nichts wetten. Wenn's so weiter geht, brauchen die GraKAs in naher Zukunft um die 400W. Spätestens da hilft dir deine WaKü wenig.

Godmode
2004-03-22, 22:12:29
Vielleicht braucht man in 10 Jahren einen kleinen Kühlturm für PCs, so wie bei den AKWs nur etwas kleiner :)

Auf was läuft den das alles hinaus?? Optische Rechner wird es sicherlich noch nicht so bald geben, oder?

Am besten wäre den ganzen Rechner mit gekühltem Gas zu befüllen!

BodyLove
2004-03-22, 22:53:11
OT:
Apropos. Was denkt ihr eigentlich, was realistischer ist. Chips, deren Verlustleistung gering ist, sodas man mit konventionellen Kühlmethoden auskommen kann, oder aber, es wird ein völlig neues Kühlssystem entwickelt.

Ich persönlich tendiere zu Zweitens. Da man immer mehr leistung auch mit höheren Kosten gleichsetzt, was somit auch den Mehrpreis der Kühlung rechtfertigt. bzw. rechtfertigen wird.

AlfredENeumann
2004-03-23, 00:46:14
Original geschrieben von Exxtreme
Also darauf würde ich nichts wetten. Wenn's so weiter geht, brauchen die GraKAs in naher Zukunft um die 400W. Spätestens da hilft dir deine WaKü wenig.


Hey Exxtreme, komm lass uns einen Heizungsadapter erfinden mit dem die Grafikkarte an den Warmwasserkreislauf der Wohnung angeschlossen wird. Somit kühlt man die Karte und heizt zugleich Wasser und Wohnung. ;D

Verdienen uns bestimmt doof und dämlich.

StefanV
2004-03-23, 09:40:12
Original geschrieben von BodyLove
OT:
Apropos. Was denkt ihr eigentlich, was realistischer ist. Chips, deren Verlustleistung gering ist, sodas man mit konventionellen Kühlmethoden auskommen kann, oder aber, es wird ein völlig neues Kühlssystem entwickelt.

Ich persönlich tendiere zu Zweitens. Da man immer mehr leistung auch mit höheren Kosten gleichsetzt, was somit auch den Mehrpreis der Kühlung rechtfertigt. bzw. rechtfertigen wird.

Etwas von beidem...

Es stellt sich immer noch die Frage, wie weit die Kunden diesen Schwachsinn noch mitmachen...

Es könnte auch sein, daß einige Länder Gesetzte gegen die Leustungsaufnahme von PC Komponenten 'erfinden'...

Ailuros
2004-03-23, 11:26:56
Es könnte auch sein, daß einige Länder Gesetzte gegen die Leustungsaufnahme von PC Komponenten 'erfinden'...

Das waere wohl die bloedeste Idee seit langem.

stickedy
2004-03-23, 12:27:29
Sag das nicht, in Deutschland ist alles möglich!

Da muss man sich nur mal die ganzen Vorschriften anschauen, die man beachten muss, wenn man ein öffentliches Fest veranstaltet.

Aquaschaf
2004-03-23, 13:50:42
Original geschrieben von stickedy
Sag das nicht, in Deutschland ist alles möglich!

Da muss man sich nur mal die ganzen Vorschriften anschauen, die man beachten muss, wenn man ein öffentliches Fest veranstaltet.

Auf so etwas käme aber nicht einmal ein östereichischer Beamter.

StefanV
2004-03-23, 13:55:00
Original geschrieben von Aquaschaf
Auf so etwas käme aber nicht einmal ein östereichischer Beamter.

Ein deutscher aber unter Umständen, wenn sich rumspricht, daß die PCs der Energieverschwender nr 1 wird/ist.

Entweder kommt dann eine Energieklasse, wie bei 'Weißware' oder aber man holt die Keule raus und sagt 'das und das darf ein PC maximal verbrauchen'....
(oder eine Komponente darf maximal X Watt verbrauchen)

Wie dem auch sei, so eine Entscheidung würd ich begrüßen.

Egal in welche Richtung sie gehen würde, hauptsache die Hersteller werden dazu 'überredet' mal etwas mit dem Energieverbrauch aufzupassen.

GRiNSER
2004-03-23, 14:39:18
@aquaschaf > sag das net - leider haben se bei uns auch oft so idiotische ideen :-(
und bei festen siehts auch ähnlich aus :(

KingZer0
2004-03-23, 15:22:57
Demnächst sind wahrscheinlich die fixen Kosten maßgebliches Evaluierungskriterium wenn es um die anschaffung eines neuen PC-Setups geht.

Diese Tendenz finde ich nicht greade berauschend ist aber wohl der Tribut der den immer rasanteren und performanteren PC-Komponenten gezollt werden muss.

ow
2004-03-23, 17:33:34
.

stickedy
2004-03-23, 17:46:22
Also der jetzigen Regierung trau ich persönlich sowas zu...

ow
2004-03-23, 18:05:49
.

stickedy
2004-03-23, 18:16:01
??

Wie kommst du da drauf? Da wär nix anderes als z.B. die Bestimmungen, dass keine Neuwagen ohne Sicherheitsgurte verkauft werden dürfen oder das Heizöfen gewisse Emmissionsgrenzwerte haben müssen etc.

BodyLove
2004-03-23, 18:26:33
@Stefan

Ein Ferrari wird auch nicht verboten, nur weil es viel verbraucht und dadurch auch sehr hohe Emmissionen hat. Was ich mir vielleicht vorstellen könnte, ist die Möglichkeit, dass man verschiedene "Leistungs"Stufen des Energieverbrauchs im Marketing einsetzen kann. Siehe Kühlschränke, Waschmaschinen etc. Klasse A, B .... Dort wird ja seit langem der Energieverbrauch angegeben. Und funktionieren tut es gut. Solamge die Gesellschaft es nicht fordert, solange wird es für die Hersteller keine Grenzen geben. Ein Ferrari ist auch mächtig laut, warum nicht ein 4Ghz P4?*vorsicht Ironie*

Der Staat darf eigentlich nicht in solche Dinge eingreifen. Damit würde man einer der wichtigsten Branche der Zukunft ein Teil deren Potentials entnehmen. Ich glaube nicht das dies durchgeführt wird.

@OW

Naja, freier Wettbewerb in allen Ehren, aber das was der Staat im Hinblick auf die Autos und deren Verbrauch und die damit verbundenen Steuern macht ist dasselbe. Statt es zu verbieten, macht man es halt teurer. Geht aufs Selbe raus.

ow
2004-03-23, 19:57:10
.

ow
2004-03-23, 20:01:32
.

stickedy
2004-03-23, 20:08:13
Original geschrieben von ow
Ich sehe hier nicht wirklich einen passenden Vergleich.
Es würde einfach eine Verordnung oder Gesetz geben, die es untersagt Computer-Koponenten mit einem Vebrauch > 100 W zu verkaufen -> Vergleich: Neuwagen mit Sicherheitsgurten

Ist ja im Prinzip auch egal, sowas ist ja - Gott sei dank - momentan wohl nicht Gespräch!
Hoffen wir mal, dass es so bleibt (ich hasse die Regulierungswut in diesem Land!) und halten am besten unser Maul, nicht, dass irgendein Regierungsbeamter sich hierher verirrt, das ließt und dann auf dumme Ideen kommt ;)

robbitop
2004-03-23, 20:18:00
Leute das ist stark Off Topic. Macht doch nen Thread auf wenn euch das so interessiert, zumal sich das ganze eh etwas seltsam anhört.

StefanV
2004-03-23, 21:18:26
Original geschrieben von stickedy
Also der jetzigen Regierung trau ich persönlich sowas zu...
Richtig, wobei ich momentan auch davon ausgehe, daß Herrn Trittihn nicht so recht bekannt ist, wieviel so ein PC verbrät...

Denn wäre es bekannt, dann würd er schon an etwas arbeiten *eg*

StefanV
2004-03-23, 21:20:35
Original geschrieben von BodyLove
@Stefan

Ein Ferrari wird auch nicht verboten, nur weil es viel verbraucht (...)

Nein, das nicht, aber in den USA darf/durfte man 5000$ Aufpreis für ein Fahrzeug zahlen, daß viel verbraucht, etwas ähnliches wäre hier ev. auch möglich...

Also eine 'Verbrauchssteuer' von 100% oder was auch immer...

PS: außerdem, schau dir mal die Versicherungseinstufung von 'nem Ferrari an...

Der hat das höchste, was es gibt, AFAIK 40/40/20 (oder so irgendwie)

BodyLove
2004-03-23, 21:31:49
OW hat es ja gesagt, dass es ein Unterschied zwischen Verbieten und teurer machen gibt. Imho kann man dies bei Luxusautos machen, da diese auch Reichtum symbolisieren sollen. Nur wie kann ich Normalsterblicher ein HighEndSystem kaufen, wenn man nebst der vorhandenen Steuer "100% HighEndSys-Steuer" zahlen müsste? In Dänemark gibt es so etwas ähnliches für Autos.

Allein die Tatsache, dass ein Rechner mehr Strom verbraucht, als ein Kühlschrank, sollte uns zu denken geben. Aber auch hier haben wir ja die Wahl. Highend, oder LowEnd. Um ehrlich zu sein verschwende ich grad 80% Leistung meines 3200+, um einige Texte zu schreiben. Ich denke der Rechner ist eines der energieverschwenderischsten Geräte um Haushalt.

r@e
2004-03-24, 00:22:23
Original geschrieben von Stefan Payne
PS: außerdem, schau dir mal die Versicherungseinstufung von 'nem Ferrari an...

Der hat das höchste, was es gibt, AFAIK 40/40/20 (oder so irgendwie) Was soll denn jetzt bitte die Versicherung mit dem Verbrauch zu tun haben ?
:???:

Das Ding ist so teuer in der Versicherung, weil's teuer in der Anschaffung und im Osten äusserst 'beliebt' ist. Hoffentlich ist Dir wenigstens klar, wie Versicherungen das 'Risiko' kalkulieren...

Razor

Odal
2004-03-24, 09:25:31
also ich geb payne ja praktisch nie recht..aber diesmal muss ich ne ausnahme machen..wo er recht hat hat er recht...

ich kenne uni daten vom stromverbrauch der letzten 10 jahre...und wie hoch der anteil der rechensysteme daran ist...das ist schon erschreckend...
man muss sich mal den verlauf anschauen...der verbrauch hat sich vervielfacht...und es handelt sich dabei nochnichtmal um aktuelle top systeme...
wir schalten mitunter schon labore an feiertagen aus, da sich das stromsparen lohnt

es kann sich ja jeder mal durchrechnen was 200-300 watt beim eigenen rechner nonstop ausmachen....

der PC wird allmaelich zum stromverbraucher n1 im haushalt, was auch mitunter daran liegt das die verbreitung von dsl immer mehr zunimmt und somit die rechner garnichtmehr ausgeschaltet werden.

BodyLove
2004-03-24, 15:28:30
Vergleich!

Ein Kühlschrank verbracht ca. 150 Watt.

Gast
2004-03-24, 19:25:18
Original geschrieben von r@e
Was soll denn jetzt bitte die Versicherung mit dem Verbrauch zu tun haben ?
:???:

Das Ding ist so teuer in der Versicherung, weil's teuer in der Anschaffung und im Osten äusserst 'beliebt' ist. Hoffentlich ist Dir wenigstens klar, wie Versicherungen das 'Risiko' kalkulieren...

Razor

Das paßt gut zu der Versicherung:

http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=132842

r@w
2004-03-25, 15:27:23
Original geschrieben von Odal
also ich geb payne ja praktisch nie recht..aber diesmal muss ich ne ausnahme machen..wo er recht hat hat er recht...

ich kenne uni daten vom stromverbrauch der letzten 10 jahre...und wie hoch der anteil der rechensysteme daran ist...das ist schon erschreckend...
man muss sich mal den verlauf anschauen...der verbrauch hat sich vervielfacht...und es handelt sich dabei nochnichtmal um aktuelle top systeme...
wir schalten mitunter schon labore an feiertagen aus, da sich das stromsparen lohnt

es kann sich ja jeder mal durchrechnen was 200-300 watt beim eigenen rechner nonstop ausmachen....

der PC wird allmaelich zum stromverbraucher n1 im haushalt, was auch mitunter daran liegt das die verbreitung von dsl immer mehr zunimmt und somit die rechner garnichtmehr ausgeschaltet werden. Grundsätzlich muss Deine Überlegung nicht falsch sein... aber gerade bei dem Uni-Beispiel solltest Du bedenken, dass (gerade in den letzten 10 Jahren) die Rechner-Anzahl stark gestiegen ist und damit natürlich auch deren Anteil an der Stromrechnung...

Sicher werden die Dinger nicht gerade sparsamer geworden sein, allerdings möge man sich die damalige Leistung mit dem damaligen Verbrauch in Bezug auf die heutige Leistung und deren Verbrauch vorstellen.

Hoffe, dass ich mich hier verständlich ausgedrückt habe... aber im Prinzip wollte ich nur sagen, dass ich für (angenommene) 100x mehr Leistung 'nur' etwa doppelt so viel Verbrauch in Kauf nehmen muss.

Razor

BodyLove
2004-03-25, 16:00:06
@razor

Du sagst also, dass der Strombedarf im gewissen maße proportional zur Leistung gestiegen ist. Das mag teilweise stimmen. Aber Ausnahmen gibt es. Die Mobile-Cpus zum Beispiel. Leistungstechnisch sind auch diese CPUs deren Vorgängern weit überlegen. nur verbrauchen tun sie nicht viel.

Worauf es eigentlich ankommt ist, dass sich die Gesellschaft endlich mit dem Stromverbrauch beschäftigt. Speziell beim Rechner. Da gibt es bestimmt einige, die sich ein A64 Recher mit C&Q Support kaufen, aber keine Ahnung haben, was das Ding macht. Wenn man als Verkäufer dieses Wissen vermittelt, so glaube ich bekommt er einige erstaunte Blicke, die ausdrücken sollen, dass Rechner tatsächlich Strom verbraucht. Ich denke, wir haben größtenteils nicht registriert, dass der Rechner allein sehr viel Energie verschwendet, obwohl wir diese Leistung nicht vollständig brauchen.

Bsp. Ich sauge mir den 3dmark runter. Gehe ausser Haus. Lass es laufen. Für das saugen allein, verbraucht mein Rechner bestimmt 150Watt. Da man auf der Rechnung nicht sieht, was den soviel verbraucht hat, kann man auch nicht wissen, dass der Rechner einen gewissen Teil trägt.

Das Bedeutet, dass man entweder Druck auf AMD und Intel machen muss, damit sie alternativ CPUs auf den Markt bringen, (Was sie ja mit Mobile-CPUs für den Desktopeinsatz schon tun), oder ganz einfach warten. Irgendwann wird sich die CPU nicht mehr so einfach kühlen lassen. Man bräuchte aufwendigere Kühler, was somit auch wesentlich mehr kostet. Bei einer Million verkauften CPUs, wäre jedes $ viel Geld.

r@e
2004-03-25, 19:19:30
Hmmm...
Original geschrieben von BodyLove
Du sagst also, dass der Strombedarf im gewissen maße proportional zur Leistung gestiegen ist. Das mag teilweise stimmen. Aber Ausnahmen gibt es. Die Mobile-Cpus zum Beispiel. Leistungstechnisch sind auch diese CPUs deren Vorgängern weit überlegen. nur verbrauchen tun sie nicht viel.Sorry, da hast Du mich wohl mißverstanden (oder ich habe mich - wie vermutet - nicht vernünftig ausdrücken können ;-). Die Rechner verbrauchen heute im Vergleich zu früher unterproportioanl mehr Strom. Sehr viel mehr Leistung, für nur wenig mehr Strom.

Ob die Leistung, die heute geboten wird, tatsächlich gebraucht wird, steht auf einem anderen Blatt.
Original geschrieben von BodyLove
Worauf es eigentlich ankommt ist, dass sich die Gesellschaft endlich mit dem Stromverbrauch beschäftigt. Speziell beim Rechner. Da gibt es bestimmt einige, die sich ein A64 Recher mit C&Q Support kaufen, aber keine Ahnung haben, was das Ding macht. Wenn man als Verkäufer dieses Wissen vermittelt, so glaube ich bekommt er einige erstaunte Blicke, die ausdrücken sollen, dass Rechner tatsächlich Strom verbraucht. Ich denke, wir haben größtenteils nicht registriert, dass der Rechner allein sehr viel Energie verschwendet, obwohl wir diese Leistung nicht vollständig brauchen.Ich denke mal, dass wir uns über kurz oder lang absolut keine Gedanken mehr um den Stromverbrauch machen müssen. Aber klar, solange Energie aus der Verbrennung von fossilen Rohstoffen oder gar der gefährlichen Zerstörung von Atomen gewonnen wird, wird man uns dies zumindest einreden wollen... ;)
Original geschrieben von BodyLove
Bsp. Ich sauge mir den 3dmark runter. Gehe ausser Haus. Lass es laufen. Für das saugen allein, verbraucht mein Rechner bestimmt 150Watt. Da man auf der Rechnung nicht sieht, was den soviel verbraucht hat, kann man auch nicht wissen, dass der Rechner einen gewissen Teil trägt.Da gibt's eine recht einfache Abhilfe... kauf Dir einen Verbrauchsprüfer (wird zwischen Steckdose und Verbraucher gehängt) und schon wird das 'Übel' offenbar.

Wenn Dein Rechner 150W verbraucht und Du nicht mal davor sitzt, machst Du irgendetwas falsch. Wenn ich ausser Haus gehe, dann schalte ich schonmal den Moni und auch den externen Verstärker (wie auch ggf. die Schreibtischlampe ;-) ab. Mein Rechner fährt zumindest eine der beiden Festplatten herunter, schaltet nach und nach die nicht benötigten PCI-Komponenten aus und meine Grafikkarte hat sowieso erst unter 3D richtig was zu tun. 150W sind das dann laaaaange nicht mehr...

Viel schlimmer ist es, wenn ich vergesse, den Fernseher im Wohnzimmer auszumachen...
:D

Und richtig traurig, wenn ich den Gefrierschrank beim Verbrauch 'zusehe'...
:-(
Original geschrieben von BodyLove
Das Bedeutet, dass man entweder Druck auf AMD und Intel machen muss, damit sie alternativ CPUs auf den Markt bringen, (Was sie ja mit Mobile-CPUs für den Desktopeinsatz schon tun), oder ganz einfach warten. Irgendwann wird sich die CPU nicht mehr so einfach kühlen lassen. Man bräuchte aufwendigere Kühler, was somit auch wesentlich mehr kostet. Bei einer Million verkauften CPUs, wäre jedes $ viel Geld. Habe ich gerade irgendwo gesehen... moment.

Ah ja, hier:
http://www.hardtecs4u.com/images/news/jefi.jpg
HT4U: GlobalWin stellt neue Wasserkühlung vor
(http://www.hardtecs4u.com/?id=1080188946,5738,ht4u.php)

Das Teil schafft glatte 200W Verlustleistung abzutransportieren... wird die Aufgabe (also hier die Kühlung) schwieriger, wächst die Lösung eben mit !
;D

Razor

BodyLove
2004-03-25, 19:36:54
Mhh, kann auch sein, dass ich es falsch verstanden habe. Aber zu meiner Verteidigung:

Sicher werden die Dinger nicht gerade sparsamer geworden sein, allerdings möge man sich die damalige Leistung mit dem damaligen Verbrauch in Bezug auf die heutige Leistung und deren Verbrauch vorstellen. Wenn man deine Position kennt, klingt der Satz irgendwie logischer, als zuvor. Je öfter ich es lese, desto mehr verstehe ich es. Komisch.:spock:

Im übrigen, was ist denn das für eine Wakü? Was sind da drin? Steine? Nüsse?


und ganz nebenbei. Wenn ich das Zimmer verlasse, ist ebenfalls der Moni aus. Meine Graka verbraucht sowieso fast nichts. Allein die FPs und die CPU halt. Im übrigen ziehe ich, vollständigkeitshalber, auch den Stecker. Standby-modus verbrät auch einiges an Strom. Gebe es den atomaren Abfall nicht, würde ich sogar für die Atomenergie sein. Die ganzen "Propeller" in der Landschaft sind recht unschön.

stickedy
2004-03-25, 19:40:50
Und mal davon abgesehen, dass sie nur einen Bruchteil der nötigen Leistung erbringen können. Von den Ausfallzeiten und den Wartungskosten mal ganz zu schweigen.

StefanV
2004-03-25, 19:57:14
Original geschrieben von r@e
Wenn Dein Rechner 150W verbraucht und Du nicht mal davor sitzt, machst Du irgendetwas falsch. Wenn ich ausser Haus gehe, dann schalte ich schonmal den Moni und auch den externen Verstärker (wie auch ggf. die Schreibtischlampe ;-) ab. Mein Rechner fährt zumindest eine der beiden Festplatten herunter, schaltet nach und nach die nicht benötigten PCI-Komponenten aus und meine Grafikkarte hat sowieso erst unter 3D richtig was zu tun. 150W sind das dann laaaaange nicht mehr...

Hast schonmal nachgemessen??

stickedy
2004-03-25, 20:06:13
Also wir haben einen Linux-Router der 24/7 an ist und da haben wir den Strombedarf gemessen (mit so nem Zwischenstecker - muss ich mir mal leihen), damit wir den "Strombereitsteller" entsprechend entschädigen können:

Cyrix 6x86MX PR300, untertaktet auf 200 MHz, 1200 MB Conner-Festplatte, 128 MB RAM (SDRAM), S3 Trio64/V+ Grafikkarte und einem 250W ATX-Netzteil braucht das Teil im laufen Betrieb genau 28,3W
Allerdings ohne Monitor (ist ja sonst auch nie an) und die CPU wird vermutlich sämtliche HLT-Instruktionen etc. ausführen, die sie kann (das ganze läuft ja unter Linux).

Aber so ein modernen Standard-PC braucht da sicherlich das 5 bis 10-fache.

(del676)
2004-03-25, 22:13:00
mittlerweile muss ich meine prognose revidieren und und vote für
[x] performancemässig ganz klar die nv40

Gast
2004-03-25, 22:24:00
Original geschrieben von Ulukay
mittlerweile muss ich meine prognose revidieren und und vote für
[x] performancemässig ganz klar die nv40

Aus welchem Grund?

(del676)
2004-03-25, 22:26:23
Original geschrieben von Gast
Aus welchem Grund?

neue infos :D

Radeonator
2004-03-26, 01:13:31
Jo, würd auch vorsichtig schätzen, das nV zurück an der Spitze ist. Allerdings nur weil ATi´s theoretische Leistung nicht gerade berauschend zu sein scheint (von den bisher vermuteten Daten her... ) . Dennoch : Genauso sah es zu R300 vs nV30 auch aus, wobei dort ATi schneller am Markt war...hach, spekulieren roggert ;D

thop
2004-03-26, 01:17:18
Ich denke R420. ATI schweigt wohl nicht umsonst so lange, die wissen wohl um ihr Produkt (Spione bei nV hat man 100% auch). Die werden einfach warten bis der NV40 komm und dann den R420 releasen.

Wenn er langsamer wär würden sie ihn jetzt schon raushauen um den zeitlichen Vorsprung mitnehmen zu können.

MadManniMan
2004-03-26, 02:02:50
Thema Stromverbrauch:
Da werden dem geneigten Stromsparer tatsächlich die unverhofftesten Steine in den Weg gelegt... Beispiel gefällig? Gern!
Ich habe gestern mein XP wegen diverser kleiner Problemchen neu aufsetzen müssen und war gerade dabei, per ATiTool ein 2D-Profil zu erstellen. Vor der Neuinstallation nutzte ich den Cata 4.1 und konnte ohne Probleme 100/166MHz mit meiner süßen 95Pro fahren. Jetzt mit dem Cata 4.3 provoziert alles unter 200/250 extreme Hänger, bei meinem ersten Versuch mit 100/166 hats mir gar die Partition zerschossen!

:balla:


Thema R420 vs. NV40:

Auch wenn mir der Gedanke aus Sympathiemangel für nV nicht schmeckt(...ich werd denen den Aufkauf von 3dfx nie verzeihen! :motz: ), so sehe ich die "FX6*00" im Performancevorteil.
Wenn sich meine Vermutungen bestätigen sollten, daß nV "nur" bei 4*MS ein RG bietet, dann bleibt IMHO für den R420 einzig die höhere AA-Quali und wohl die bessere AF-Performance...

:...(

r@e
2004-03-26, 04:53:47
Original geschrieben von BodyLove
Mhh, kann auch sein, dass ich es falsch verstanden habe. Aber zu meiner Verteidigung:

Wenn man deine Position kennt, klingt der Satz irgendwie logischer, als zuvor. Je öfter ich es lese, desto mehr verstehe ich es. Komisch.:spock:Tjo... schon als ich das schrieb, habe ich mich irgendwie selbst über diese Satzkonstruktion gewundert. Aber nachdem ich's dann selbst ein paar mal gelesen hab'...
;-)
Original geschrieben von BodyLove
Im übrigen, was ist denn das für eine Wakü? Was sind da drin? Steine? Nüsse?Ich hätt' ja auf Korallen getippt...
Aber ob das gut ist ?
Für die Korallen meine ich...
:D

Vielleicht sollte ich mir nach Bestaunen des Bildchens auch mal den Text durchlesen...
Hmmm... mal schaun' !
Original geschrieben von BodyLove
und ganz nebenbei. Wenn ich das Zimmer verlasse, ist ebenfalls der Moni aus. Meine Graka verbraucht sowieso fast nichts. Allein die FPs und die CPU halt. Im übrigen ziehe ich, vollständigkeitshalber, auch den Stecker. Standby-modus verbrät auch einiges an Strom.Und dann braucht Deine Kiste noch immer 150W ?
Hast Du das mal nachgemessen ?
:???:

Ich tat das mal... bzw. tue das so aus Spaß an der Freund (na ja, nicht wirklich ;-) ab und an. Bei Gerätschaften, die öfters mal 'etwas' länger laufen - außer Heizung, Kühl-/Gefrierschrank, die vielen StandBy-Modi der Heimanlage und eben auch mein Radiowecker - ist dies natürlich auch der Compi... na ja, die Außenbeleuchtung hab' ich da noch vergessen.

Egal, da kommt schon einiges zusammen, aber den Großteil macht der Compi sicher nicht aus (es sei denn, ich fang an zu zocken ;-)...
Original geschrieben von BodyLove
Gebe es den atomaren Abfall nicht, würde ich sogar für die Atomenergie sein. Die ganzen "Propeller" in der Landschaft sind recht unschön. Es gibt auch intelligentere Methoden, als diese häßlichen "Propeller" im Lande (empfinde immer sehr störend, wenn ich "auf die Insel" fahre). Andererseits ist es natürlich beruhigend, dass zumindest das gemacht wird... besser würde ich da eigentlich Brennstoff-Zellen finden oder dergleichen. Aber zu erörtern, warum diese noch immer keinen Einzug halten, gehört dann doch eher in den Bereich der Politik... oder in den der Philosophie... na ja, oder doch eher Wirtschaft... who knows ?

Dass es bei der derzeitigen Form der Enerigegewinnung nur zerstörerischen Abfall geben kann, ist bei der Methode, die da angewaand wird, auch absolut kein Wunder. Viel schlimmer ist, dass man es längst besser weiß...

Razor

MadManniMan
2004-03-26, 05:06:40
Razor, du sagst ja, du hättest mal nachgemessen - auf welche Werte bist du gekommen?

Achja... ümm... da schreib ich mal soetwas über nV und das Razorle wundert sich nicht drüber? X-D Daß ich das noch erleben darf...


BTW: Hast eigentlich vor, irgendwann mal wieder deinen Account zu nutzen?

aths
2004-03-26, 15:01:27
Original geschrieben von MadManniMan
Wenn sich meine Vermutungen bestätigen sollten, daß nV "nur" bei 4*MS ein RG bietet, dann bleibt IMHO für den R420 einzig die höhere AA-Quali und wohl die bessere AF-Performance...Bessere AF-Performance durch schlechtere AF-Qualität? Na bravo.

Wieso siehst du das als Vorteil?

ow
2004-03-26, 15:20:36
.

deekey777
2004-03-26, 16:13:02
Original geschrieben von ow
Weil die ATi Fanboys das schon immer als Vorteil gesehen haben.
Man denke nur mal an die Diskussion R200 (und dessen grausames AF) gg. GF4 zurueck.

Ehrlich gesagt sah die AF Standardeinstellung besser aus als 16x in vielen Spielen wie JK2 oder auch Unreal2 basierten Spielen (9100).

Sphinx
2004-03-26, 16:29:03
Original geschrieben von thop
Ich denke R420. ATI schweigt wohl nicht umsonst so lange, die wissen wohl um ihr Produkt (Spione bei nV hat man 100% auch). Die werden einfach warten bis der NV40 komm und dann den R420 releasen.

Wenn er langsamer wär würden sie ihn jetzt schon raushauen um den zeitlichen Vorsprung mitnehmen zu können.

Nvidia - Muss als erstes ihr Produkt ankündigen vorstellen und die Katze aus dem Sack bringen... Sie sind dazu angehalten aus Rein Taktischer Sicht...

Ati - ist zur Zeit der Marktführer in Sachen High End - Kein Grund die Katze aus dem Sack zu lassen... Ausser einem PaperLaunch und oder innerhalb von 1-2 Monaten um zu kontern oder sich ganz und gar aus der AGP Ära auszusteigen und all ihre Kräfte "anhand der Roadmaps" sich auf PCI-E zu setzen. Denn dort wird werden die Karten um ein gewaltiges neugemischt werden.

Man erwartet keine allzu Großen Margen für die Nächsten HighEND AGP Grafikkarten... Der Markt bereitet sich auf das PCI-E Zeitalter vor...

BodyLove
2004-03-26, 16:42:54
Original geschrieben von r@e
Und dann braucht Deine Kiste noch immer 150W ?
Hast Du das mal nachgemessen ?
:???:
Das war eigentlich nur ein Tippen. Ich glaube natürlich nicht daran, dass mein Rechner beim "Nichtstun" 150Watt verschlingt. Ich würde so 70 - 90 Watt tippen. die Komponenten verschlingen nicht viel. Nur die CPU halt. Würde mir wirklich C&Q wünschen.
Original geschrieben von r@e
Es gibt auch intelligentere Methoden, als diese häßlichen "Propeller" im Lande (empfinde immer sehr störend, wenn ich "auf die Insel" fahre).Na, ob man sich von der Windenergie ganz lösen wird? Ich weiss ja nicht. Es gibt ja Projekte, mit welchem man auf (in?) der Nordsee die Rotoren einbauen möchte, um die Windenergie auf dem Wasser zu nutzen. Ökö ist nunmal im Kommen. Das Landschaftsbild ist daher zweitrangig. Aber wie du sagtest, dieses Thema gehört in einen anderen Thread.;)

Original geschrieben von r@e Dass es bei der derzeitigen Form der Enerigegewinnung nur zerstörerischen Abfall geben kann, ist bei der Methode, die da angewaand wird, auch absolut kein Wunder. Viel schlimmer ist, dass man es längst besser weiß...

Razor
Ehrlich gesagt sehe ich das Ganze nicht so schwarz. Irgendwann ist Öl knapp. Bis dahin wird irgendein Hersteller eine wirtschaftlich sinnvolle Methode zur Gewinnung von Energie durch die Brennstoffzelle finden. Der Reiz des großen Gewinns ist zu groß. Stell dir mal vor es gäbe nur einen Hersteller, die es geschafft hat. Der wäre Steinreich.

Eins werde ich bestimmt vermissen. Dieses verdammt geile Brummen der Motoren. Bei einem Brennstoffantrieb ist dies ja nicht mehr existent. Wird man stattdessen Lautsprecher an die Karosserie anheften und dieses Geräusch simulieren?:spock:

Das ist so ähnlich wie, wenn man einen Opel Corsa einen fetten Auspuff verpasst und diesen dann Kilometerweit hört.:D

Gast
2004-03-26, 17:53:23
[QUOTE][SIZE=1]Original geschrieben von Sphinx

Ati - ist zur Zeit der Marktführer in Sachen High End - Kein Grund die Katze aus dem Sack zu lassen... Ausser einem PaperLaunch und oder innerhalb von 1-2 Monaten um zu kontern oder sich ganz und gar aus der AGP Ära auszusteigen und all ihre Kräfte "anhand der Roadmaps" sich auf PCI-E zu setzen. Denn dort wird werden die Karten um ein gewaltiges neugemischt werden.

----------------------------------------------------------

Ich seh das ganz ähnlich. So gut wie die Radeons 9800 noch über den Ladentisch gehen wäre das dümmste was ATI tun könnte, den R420 vor dem NV40 zu launchen. Erstens macht man sich den eigenen Markt kaputt und zweitens kauft ja niemand im high-end Sektor eine neue Karte bis nicht die ersten Vergleichstests draussen sind.

Beid der Performance erwarte ich den NV40 vorne, da der R420 ja nicht wirklich eine Neuentwicklung ist und wohl eher den Lückenfüller für den R500 darstellt. Loki zu NV40 wird in etwa sein wie Radeon 8500 zu Geforce Ti4xxx.

Ich warte mit meinem nächsten Upgrade auf jeden Fall auf den R500 (mit 939 Athlon FX und BTX)

Gruss

Martin

BodyLove
2004-03-26, 18:36:11
Original geschrieben von Gast

Ich seh das ganz ähnlich. So gut wie die Radeons 9800 noch über den Ladentisch gehen wäre das dümmste was ATI tun könnte, den R420 vor dem NV40 zu launchen. Erstens macht man sich den eigenen Markt kaputt und zweitens kauft ja niemand im high-end Sektor eine neue Karte bis nicht die ersten Vergleichstests draussen sind.
Gruss
Martin
Ich glaube nicht, dass Ati noch R350 chips herstellt bzw. herstellen lässt. Viel eher werden zur Zeit Restbestände verkauft. Korrigiert mich, wenn ich mich irren sollte.

betasilie
2004-03-26, 19:07:33
Original geschrieben von ow
Weil die ATi Fanboys das schon immer als Vorteil gesehen haben.
Man denke nur mal an die Diskussion R200 (und dessen grausames AF) gg. GF4 zurueck.
Und wie sehen das NV-Fanboys?

Gast
2004-03-26, 19:58:37
Original geschrieben von Gast

Beid der Performance erwarte ich den NV40 vorne, da der R420 ja nicht wirklich eine Neuentwicklung ist und wohl eher den Lückenfüller für den R500 darstellt. Loki zu NV40 wird in etwa sein wie Radeon 8500 zu Geforce Ti4xxx.


Nur war nicht die Radeon der Lückenfüller zur Ti4xxx sondern das gegenstück zur Geforce 3. :dozey:

Gast
2004-03-26, 20:12:49
Original geschrieben von Gast
Nur war nicht die Radeon der Lückenfüller zur Ti4xxx sondern das gegenstück zur Geforce 3. :dozey:

vielleicht war es von ATI so gedacht aber denoch war der gegener über den weitesten Zeitraum die GF3Ti500.
Die GF3 war ganze 7 bis 8 Monate vorher draussen.
Zeitgleich mit dem R200 kam dann die GF3Ti500. Letztere hatte aber nur eine kurze Lebensdauer, weils im Frühjahr schon die GF4TI gab. Von ATI kam dann nix mehr, weshalb der R200 den NV25 zu einem Großteil der Zeit als Gegner hatte.

Eigentlich wollte Nvidia den NV25 schon Ende 2003 bringen. Die nicht allzu überragende Leistung von ATI wird Nvidia dazu bewogen haben einfach eine etwas höher getaktete GF3Ti500 einzuschieben. Hat ja auch gereicht. Die GF3Ti200 hat das Bild dann noch komplettiert.

MadManniMan
2004-03-27, 03:59:39
Original geschrieben von ow
Weil die ATi Fanboys das schon immer als Vorteil gesehen haben.
Man denke nur mal an die Diskussion R200 (und dessen grausames AF) gg. GF4 zurueck.

:|

ow, ich habe lange darauf warten müssen, aber jetzt "endlich" kann ich es mal wieder äußern: deine herablassende, arrogante und provokante Art find ich daneben! :down:

Warum bitte nennst du mich denn Fanboy? Hatte ich Gelegenheit, zu antworten?

Ich erwarte eine Antwort.

MadManniMan
2004-03-27, 04:03:25
Original geschrieben von aths
Bessere AF-Performance durch schlechtere AF-Qualität? Na bravo.

Wieso siehst du das als Vorteil?

Für die Reviews. Ich heiße es nicht gut, wenn es so sein sollte, aber es ist IMHO wahrscheinlich.

Mal was Anderes nochmal zum Thema AF und Qualität: ich würde das gar nicht mal so engstirnig sehen und sagen, daß man AF nur über die einzelnen Stufen anpassen können sollte. Ich würde es persönlich auch begrüßen, wenn man zusätzlich zwischen Angle- und Non-Angle-Dependent AF umschalten könnte. Mehr Auswahlmöglichkeiten -> mehr gut für User.

r@e
2004-03-27, 07:47:12
Original geschrieben von MadManniMan
Razor, du sagst ja, du hättest mal nachgemessen - auf welche Werte bist du gekommen?Es waren mehr als 70W... aber weit weniger als 100W !
:D
Original geschrieben von MadManniMan
Achja... ümm... da schreib ich mal soetwas über nV und das Razorle wundert sich nicht drüber? X-D Daß ich das noch erleben darf...Du hast ja nicht viel geschrieben...
Und auch nichts anderes, als andere dazu schreiben.

- NV40 wird vermutlich featurereicher und auch schneller sein
- einzige Vorteile bei ATI:
-- 6x'sparsed'AA-Modus, der kaum Vorteile ggü. 4xRG bringt
-- schnelles und 'unschönes' AF (ob schneller, bliebe sogar abzuwarten)

So hast Du eiegtnlich nur gesagt, dass der NV40 rundum ein besseres Paket ist.

Und immer bedenken, dass war Deine Aussage, nicht meine. Persönlich werde ich erst einmal abwarten, bevor ich mich zu solcherart Aussagen hinreißen lasse.

Razor

r@e
2004-03-27, 07:54:26
Original geschrieben von Sphinx
Nvidia - Muss als erstes ihr Produkt ankündigen vorstellen und die Katze aus dem Sack bringen... Sie sind dazu angehalten aus Rein Taktischer Sicht...Warum denn das ?
Weil Du das so willst, oder wie ?

Sie werden die ersten sein, weil sie die ersten sind.
Da würde ich nichts hinein spekulieren...
Original geschrieben von Sphinx
Ati - ist zur Zeit der Marktführer in Sachen High End - Kein Grund die Katze aus dem Sack zu lassen... Ausser einem PaperLaunch und oder innerhalb von 1-2 Monaten um zu kontern oder sich ganz und gar aus der AGP Ära auszusteigen und all ihre Kräfte "anhand der Roadmaps" sich auf PCI-E zu setzen. Denn dort wird werden die Karten um ein gewaltiges neugemischt werden.Warum denn das schon wieder ?
Was soll denn bei den Grafikkarten anders werden ?
:???:

PCIe wird für die PCI-Architektur im allgemeinen eine ganze menge bringen, wohl aber nur wenig für Grafikkarten, die ja auch schon vorher einen separaten Slot (AGP) mit eigener Anbindung hatten.

Könntest Du mir also erklären, warum die "Karten dann neu gemischt" werden ?
:???:
Original geschrieben von Sphinx
Man erwartet keine allzu Großen Margen für die Nächsten HighEND AGP Grafikkarten... Der Markt bereitet sich auf das PCI-E Zeitalter vor... Noch so ein Blödsinn, sorry.
Die High-Ender verkaufen die Mainstrams und Low-Ender.

Und insbesondere im Low-End hat noch immer nVidia die Nase vorn, was sich auf die anderen Bereiche in der ganzen Linie auswirken dürfte, wenn ATI jetzt nicht mit was vernünftigem kommt. Sollte das geschehen, wird ATI auf der ganzen Linie verlieren...

Ich hoffe inständig, dass dem nicht so sein wird.

Razor