PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread NV40 (war: NV40 am 14. April)


Seiten : [1] 2 3 4 5 6 7 8 9 10

Gast
2004-03-18, 12:25:41
Hieß es zur CeBit 2003 noch, der NV40 könnte eventuell noch vor Weihnachten auf dem Markt kommen, verzögerte sich der Launch bekanntermaßen die letzten Monate. Nun soll der Startschuss nicht zur CeBIT 2004 sondern am 14. April fallen.

Derzeit sieht es mit Mustern jedoch noch mau aus und es ist damit zu rechnen, dass nach der offiziellen Vorstellung erst die Quadro-Reihe auf dem Markt erscheint und dann so langsam die Konsumer-Chips in den Handel gelangen.

Quelle:Cebit Hinterzimmer

www.computerbase.de

Ailuros
2004-03-18, 12:28:02
Alle Indizien deuten darauf, ausser man erweitert das NDA doch noch mal....

Godmode
2004-03-18, 14:43:34
Ich würde mich echt freuen wenn ATI und Nvidia bald ihre neuen GPU/VPUs präsentieren würden, denn dann bekommen wir endlich Klarheit, was die beiden die ganze Zeit gearbeitet haben!!

ShadowXX
2004-03-18, 15:41:08
Original geschrieben von bans3i
Ich würde mich echt freuen wenn ATI und Nvidia bald ihre neuen GPU/VPUs präsentieren würden, denn dann bekommen wir endlich Klarheit, was die beiden die ganze Zeit gearbeitet haben!!

Besonders bei ATI würde mich das Interessieren...den was man bis jetzt gehört hat, hört sich nicht gerade nach Revolution an...

J.S.Shadow

[dzp]Viper
2004-03-18, 15:43:36
Original geschrieben von ShadowXX
Besonders bei ATI würde mich das Interessieren...den was man bis jetzt gehört hat, hört sich nicht gerade nach Revolution an...

J.S.Shadow

Revolution ist nicht immer gut ;)

Ausserdem weiss ja niemand richtig kongrete Tatsachen vom R420 - aber egal.

Wenn sich der NV40 noch weiter als auf den 14. April verschiebt, dann können wir wohl erst im Sommer mit Karten im Einzelhandel rechnen :|
Ich hoffe mal, dass dies nicht so eintritt....

Gast
2004-03-18, 15:44:45
Sagt mal Leute ist das der neue Trend immer nach Revolutionen zu schreien. Die einzige Revolution die ich je erlebt haben war als die 3DFx erschienen ist.
Aber da meisten hier wohl noch in die Hosen gemacht

Simon Moon
2004-03-18, 15:49:33
Original geschrieben von Gast
Sagt mal Leute ist das der neue Trend immer nach Revolutionen zu schreien. Die einzige Revolution die ich je erlebt haben war als die 3DFx erschienen ist.
Aber da meisten hier wohl noch in die Hosen gemacht

Such mal im Forum und du wirst rausfinden, dass es sogesehen wohl noch wesentlich mehr "Revolutionen" gegeben hat - schliesslich Erfand 3dfx das Rad ja auch nicht neu ;) Aber bei dieser undifferenzierten Sichtweise, fällt das wohl auch nicht ins Gewicht.

Gast
2004-03-18, 15:58:13
Nur weil mal eine Karte erscheint die richtig schnell daher kommt,ist das noch keine Revolution. Was hat sich tolles seid der Geforce 1 getan,immer nur kleine Schritte nach vorn. Jede neue "Generation" bringt immer nur kleine neue Effekte hervor oder leichte Verbesserungen der alten Techniken also nix bewegendes

[dzp]Viper
2004-03-18, 16:01:02
Original geschrieben von Gast
Nur weil mal eine Karte erscheint die richtig schnell daher kommt,ist das noch keine Revolution. Was hat sich tolles seid der Geforce 1 getan,immer nur kleine Schritte nach vorn. Jede neue "Generation" bringt immer nur kleine neue Effekte hervor oder leichte Verbesserungen der alten Techniken also nix bewegendes

die einzige Entwicklung die man vielleicht Revolution nennen könnte, war die von R8500 auf r9700... das war schon ein Sprung den NV schon lange mehr mehr zustande gebracht hat :D

egal - das is zu sehr OT - aber es ist vielleicht eines neuen Threads Würdig :) - also wenn jemand interesse hat darüber zu diskutieren, dann soll er einen thread aufmachen! :)

ShadowXX
2004-03-18, 16:09:37
Original geschrieben von [dzp]Viper
Revolution ist nicht immer gut ;)

Ausserdem weiss ja niemand richtig kongrete Tatsachen vom R420 - aber egal.

Wenn sich der NV40 noch weiter als auf den 14. April verschiebt, dann können wir wohl erst im Sommer mit Karten im Einzelhandel rechnen :|
Ich hoffe mal, dass dies nicht so eintritt....

Upppsss...da hab ich was losgetreten.

Das mit "Revolution" war wohl das falsche Wort.
Ich wollte eigentlich damit ausdrücken, das sich der r420 momentan "nur" nach einem aufgebohrten r360 anhört.

Das sich von Gen zu Gen oftmals nicht so richtig was tut ist schon klar....aber "nur" einen schnellen r360 finde ich nunmal langweilig...ist aber (wie so oft) IMHO und andere sehen das vielleicht anders...

Naja...vielleicht ist ja diesmal nV mit dem "r200->r300 Sprung" dran....:kicher:

J.S.Shadow

Aqualon
2004-03-18, 16:18:58
Der Sprung von R200 auf R300 war für ATi aber dringend notwendig, um an Nvidia ranzukommen. Hätten ATi und Nvidia vorher gleich gelegen, wäre die Änderung viel kleiner ausgefallen. Kluge Firmen liefern immer nur soviel mehr an Neuerungen, damit die neuen Karten gewinnbringend verkauft werden können.

Selbst wenn ein technischer Quantensprung möglich ist, ist das betriebswirtschaftlich schwachsinn, diesen zu vollziehen, wenn keine Notwendigkeit (z.B. durch starke Konkurrenz oder Streben nach signifikant mehr Marktanteil) dazu besteht. Mehrere Generationen bis man den technischen Quantensprung erreicht hat, bringen schließlich mehr Geld als wenn dieser in einer Generation stattfindet.

Aqua

pippo
2004-03-18, 16:40:13
Naja, das kann man so oder so sehen. Ich würde sagen, es bringt mehr Geld, wenn man diese Technologie sofort auf den Markt wirft und die Überlegenheit ausnutzt. Man würde dann wohl für mind. 1 Jahr so gut wie alle Grafikkarten verkaufen, da die Konkurrenz nicht mehr konkurrenzfähig ist.

Wenn man wartet geht man nur das Risiko ein, dass die Konkurrenz ebenfalls eine neue Technologie entwickelt und somit wäre der Leistungsunterschied wieder bei 0 und man könnte kein Geld mehr dafür verlangen

mapel110
2004-03-18, 16:56:32
hmhm, 3 wochen nach der Cebit. Schon merkwürdig, dass man sich soviel Aufmerksamkeit entgehen lässt.
Versteh ich nicht, was so ein paar Tage bringen.

ShadowXX
2004-03-18, 17:02:37
Original geschrieben von Aqualon
Der Sprung von R200 auf R300 war für ATi aber dringend notwendig, um an Nvidia ranzukommen. Hätten ATi und Nvidia vorher gleich gelegen, wäre die Änderung viel kleiner ausgefallen. Kluge Firmen liefern immer nur soviel mehr an Neuerungen, damit die neuen Karten gewinnbringend verkauft werden können.

Selbst wenn ein technischer Quantensprung möglich ist, ist das betriebswirtschaftlich schwachsinn, diesen zu vollziehen, wenn keine Notwendigkeit (z.B. durch starke Konkurrenz oder Streben nach signifikant mehr Marktanteil) dazu besteht. Mehrere Generationen bis man den technischen Quantensprung erreicht hat, bringen schließlich mehr Geld als wenn dieser in einer Generation stattfindet.

Aqua

Das ist auch der Grund, warum ich nicht glaube das der r500 Shader 4.0 Kompilant sein wird.
(wenn er 05 erscheinen sollte und M$ DX10 wirklich erst mit Longhorn (06) rausbringt....wenn DX10 doch noch vorher erscheinen sollte, ist die Überlegung natürlich hinfällig)

J.S.Shadow

LovesuckZ
2004-03-18, 17:02:49
Original geschrieben von mapel110
hmhm, 3 wochen nach der Cebit. Schon merkwürdig, dass man sich soviel Aufmerksamkeit entgehen lässt.
Versteh ich nicht, was so ein paar Tage bringen.

Genug lauffaehige Karten für die Tester und "früherer" Verkaufsstart. Nochmal solch eine Starke Verpaetung wie beim NV30 (Januar/februar - Vorstellung -> April/Mai Auslieferung) waere nicht gerade imageaufbauend.

Aqualon
2004-03-18, 17:03:45
Vielleicht hat Nvidia ja vor, dieses Mal pünktlich mit ihren Karten zu sein und keinen Paperlaunch hinzulegen. Dann können 3 Wochen schon etwas ausmachen.

Aqua

Godmode
2004-03-18, 17:04:25
Stellt euch blos vor Ati hätte im Lowcost Markt eine FX5200 gehabt, dann hätte Nvidia ordentlich einpacken können! Aber diese Karte hat Nvidia letzten Endes den Arsch geretet.

Es wäre ja wirklich das schlimmste, wenn der R420 jetzt nur schneller wäre als der R360 aber der NV40 mit seinen 210 mio Transen (wenn es stimmt) dann das alles topen würde. Dann hätte NV Speed und Features und das wär dann gar nicht gut für uns Konsumenten.

Den einen Fanboy würde das schon gefallen aber allgemein ist die Überlegenheit eines Unternehmens scheisse. Aber ich glaube dass es eher auf einen Gleichstand hinausläuft.

ShadowXX
2004-03-18, 17:07:38
Original geschrieben von bans3i
Stellt euch blos vor Ati hätte im Lowcost Markt eine FX5200 gehabt, dann hätte Nvidia ordentlich einpacken können! Aber diese Karte hat Nvidia letzten Endes den Arsch geretet.

Es wäre ja wirklich das schlimmste, wenn der R420 jetzt nur schneller wäre als der R360 aber der NV40 mit seinen 210 mio Transen (wenn es stimmt) dann das alles topen würde. Dann hätte NV Speed und Features und das wär dann gar nicht gut für uns Konsumenten.

Den einen Fanboy würde das schon gefallen aber allgemein ist die Überlegenheit eines Unternehmens scheisse. Aber ich glaube dass es eher auf einen Gleichstand hinausläuft.

Was meinst du mit Gleichstand??

Wenn beide bei PS/VS2.0 gleich schnell sind, hat nV immer noch den Vorteil von PS/VS3.0....

ATI muss quasi schneller sein oder früher rauskommen...

J.S.Shadow

MarioK
2004-03-18, 17:33:10
Original geschrieben von ShadowXX
Wenn beide bei PS/VS2.0 gleich schnell sind, hat nV immer noch den Vorteil von PS/VS3.0....

ATI muss quasi schneller sein oder früher rauskommen...

J.S.Shadow

oder billiger beim PS/VS2.0 gleichstand ... für -100 euro werden 95% von leuten PS/VS3.0 vergessen ...

LovesuckZ
2004-03-18, 17:35:02
Original geschrieben von MarioK
oder billiger beim PS/VS2.0 gleichstand ... für -100 euro werden 95% von leuten PS/VS3.0 vergessen ...

Dann wird Nvidia aucb billiger. Und billiger als billiger geht kaum noch, da man sonst die gewinnbringenden Karten preislich "verschlechtert".

Gast
2004-03-18, 18:19:27
ich glaube, dass ati u nvidia "angst" voreinanander haben. keiner weiß wie groß der schritt des anderen nun tatsächlich ist und jeder wartet bis der konkurrent seine karten offen legt, um im notfal noch an der taktrate (wenn zu langsam), oder am preis (wenn wesentlich schneller) drehen zu können.

Crazytype
2004-03-18, 18:43:53
Nvidia könnte doch garnicht so weit runter gehen mit dem Preis. 210 Millionen Transistoren *hust*. Der Yield ist bestimmt sehr schlecht, wenn das wirklich stimmt und die Kühlung will ich auch erstmal sehen.

Börk
2004-03-18, 18:44:50
Original geschrieben von LovesuckZ
Dann wird Nvidia aucb billiger. Und billiger als billiger geht kaum noch, da man sonst die gewinnbringenden Karten preislich "verschlechtert".
Ich glaub aber kaum, dass man ein 210 Mio Transi Monster in nächster Zeit günstig herstellen kann, sprich man kann den CHip auch nicht so einfach in den Markt drücken, ohne gewaltige Verluste zu machen...

LovesuckZ
2004-03-18, 18:48:58
Original geschrieben von burk23
Ich glaub aber kaum, dass man ein 210 Mio Transi Monster in nächster Zeit günstig herstellen kann, sprich man kann den CHip auch nicht so einfach in den Markt drücken, ohne gewaltige Verluste zu machen...

Im High End werden auch nicht die Gewinne eingefahren, auch wenn man zur Zeit mit einer sehr guten Preisschlacht den Kunden versucht auf seine Seite zu ziehen.

Demirug
2004-03-18, 18:58:43
Original geschrieben von burk23
Ich glaub aber kaum, dass man ein 210 Mio Transi Monster in nächster Zeit günstig herstellen kann, sprich man kann den CHip auch nicht so einfach in den Markt drücken, ohne gewaltige Verluste zu machen...

Transistor ist nicht gleich Transistor. ;) Man sollte besser Gates und Speicherzellen zählen.

nggalai
2004-03-18, 19:01:29
Original geschrieben von Ailuros
Alle Indizien deuten darauf, ausser man erweitert das NDA doch noch mal.... Problem (für die Marketing-Abteilung von NV): Es schwirren zwei verschiedene NDAs rum, mit zwei verschiedenen Enddaten. Ich darf ned in die Details gehen, aber sagen wir's mal so--bei der einen der zwei NDAs hat's NV verschlafen, das Datum zu verlängern.

93,
-Sascha.rb

LovesuckZ
2004-03-18, 19:05:25
Original geschrieben von nggalai
Problem (für die Marketing-Abteilung von NV): Es schwirren zwei verschiedene NDAs rum, mit zwei verschiedenen Enddaten. Ich darf ned in die Details gehen, aber sagen wir's mal so--bei der einen der zwei NDAs hat's NV verschlafen, das Datum zu verlängern.


Hm, 1. April?

deekey777
2004-03-18, 19:07:02
Original geschrieben von nggalai
Problem (für die Marketing-Abteilung von NV): Es schwirren zwei verschiedene NDAs rum, mit zwei verschiedenen Enddaten. Ich darf ned in die Details gehen, aber sagen wir's mal so--bei der einen der zwei NDAs hat's NV verschlafen, das Datum zu verlängern.

93,
-Sascha.rb

Wenn es nachdem Inquirer geht, schwirren auch 2 verschiedene NV40 auf diesem Planeten. ;D

Demirug
2004-03-18, 19:25:33
Der NV40 Launch ist an einem Dienstag. ;)

dildo4u
2004-03-18, 19:26:12
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/maerz/cebit_neues_nv40_r420/Zudem können wir nun bestätigen, dass der R420 mit insgesamt zwölf Pipelines ausgeliefert werden wird. Der nV40 aus dem Hause nVidia wird es derweil wohl nicht auf 16x1 oder 8x2 Pipelines bringen, besitzt aber einen integrierten Hardware-Decoder.

Sorry 3dcenter aber ihr hab den NV40 stärker gemacht als er wirklich ist und dazu den R420 schlechter ick fand die letzten Artikel sehr pro nvidia das meine! meinung

LovesuckZ
2004-03-18, 19:31:04
Nicht 16x1 oder 8x2? Bedeute wohl 6x2 und dies waere eindeutig so wenig.

DrumDub
2004-03-18, 19:33:52
Original geschrieben von dildo4u
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/maerz/cebit_neues_nv40_r420/Zudem können wir nun bestätigen, dass der R420 mit insgesamt zwölf Pipelines ausgeliefert werden wird. Der nV40 aus dem Hause nVidia wird es derweil wohl nicht auf 16x1 oder 8x2 Pipelines bringen, besitzt aber einen integrierten Hardware-Decoder.

ahh... also doch was in der richtung 3xrv360+ps2.x

Sorry 3dcenter aber ihr hab den NV40 stärker gemacht als er wirklich ist und dazu den R420 schlechter ick fand die letzten Artikel sehr pro nvidia das meine! meinung

noe, eh ich nicht so. siehe:

Die altherkömmliche Füllrate bleibt genauso wichtig, weshalb wir eben auf eine 8x2 Architektur beim Multitexturing-Setup spekulieren (mit nach wie vor bis zu 16 Texturen pro Pass).

http://www.3dcenter.org/artikel/2004/01-27_a.php

wird jetzt wohl also was in der art 6x2 sein. ergo: gleichstand. was mit hardware-decoder gemeint ist, kann ich mir aber noch nicht vortstellen.

dildo4u
2004-03-18, 19:36:58
Original geschrieben von DrumDub
ahh... also doch was in der richtung 3xrv360+ps2.x



noe, eh ich nicht so. siehe:



http://www.3dcenter.org/artikel/2004/01-27_a.php

wird jetzt wohl also was in der art 6x2 sein. ergo: gleichstand. was mit hardware-decoder gemeint ist, kann ich mir aber noch nicht vortstellen. Warum soll bitte 12*1 und 6*2 gleichstand sein? nach deiner logik wär ne GFFX mit 4*2 so schnell wie ein R350mit 8*1pipes was sie aber definitiv nicht ist kommt whol doch noch ein bissel auf die beschaffenheit der pipelines an oder nich?

reunion
2004-03-18, 19:37:31
Original geschrieben von DrumDub
wird jetzt wohl also was in der art 6x2 sein. ergo: gleichstand.


Naja, alleine von den Pipes kann man wohl noch nicht ableiten wie schnell die Chips wirklich sein werden, es kommt wohl drauf an wie "extrem" die pipes vom R420 wirklich sind :naughty:

LovesuckZ
2004-03-18, 19:39:10
Original geschrieben von dildo4u
Warum soll bitte 12*1 und 6*2 gleichstand sein? nach deiner logik wär ne GFFX mit 4*2 so schnell wie ein R350mit 8*1pipes was sie aber definitiv nicht ist kommt whol doch noch ein bissel auf die beschaffenheit der pipelines an oder nich?

Hm, ist sie doch, nun gut außer in Singletetexturing Situationen.
Ich gehe davon aus, wenn man wieder eine Xx2 Architektur in den markt werfe, dass man aufjedenfalls die Singletexturingoptimierung der "kleinen" Karten verwenden werde.
Imo aegert sich Nvidia, dass dies nicht schon beim NV30 getan habe...

reunion
2004-03-18, 19:39:44
Original geschrieben von dildo4u
kommt whol doch noch ein bissel auf die beschaffenheit der pipelines an oder nich?

ACK, wenn ATI wirklich tri-TMUs verbaut wird es NV wohl sehr schwer haben...

DrumDub
2004-03-18, 19:42:46
Original geschrieben von dildo4u
Warum soll bitte 12*1 und 6*2 gleichstand sein? nach deiner logik wär ne GFFX mit 4*2 so schnell wie ein R350mit 8*1pipes was sie aber definitiv nicht ist kommt whol doch noch ein bissel auf die beschaffenheit der pipelines an oder nich?

richtig. nur bei trilinearer filterung ist es (theoretisch) egal, ob 6x2 oder 12x1. darauf wollte ich hinaus.

was nv40 vs. r420 betrifft, so sieht es für mich so aus, dass hier performacetechnisch ein theoretischer gleichstand besteht. wie die praxis aussieht, wissen wir noch nicht.

LovesuckZ
2004-03-18, 20:05:13
http://www.3dnewsnet.com/upload/files/savethedate_041304.jpg

Quelle (http://www.beyond3d.com/forum/viewtopic.php?p=239471#239471)

Börk
2004-03-18, 20:24:51
Hmm, Leuts hat euch Demi noch nicht beigebracht den ganzen Pipe-Kram zu vergessen? Ich meine solange die Shader Leistung beim NV40 verbessert wurde (Demirug hats ja vorgerechnet) und die Füllrate im Bereich des r420 ist, ist doch alles ok. Ob die Karten jetzt 6x2, 8x2 oder 17*3 haben ist doch kagg egal, Hauptsache die Leistung stimmt.
Ergo wartet auf den 13th April und ihr wisst was abgeht...

dildo4u
2004-03-18, 20:26:51
Original geschrieben von burk23
Hmm, Leuts hat euch Demi noch nicht beigebracht den ganzen Pipe-Kram zu vergessen? Ich meine solange die Shader Leistung beim NV40 verbessert wurde (Demirug hats ja vorgerechnet) und die Füllrate im Bereich des r420 ist, ist doch alles ok. Ob die Karten jetzt 6x2, 8x2 oder 17*3 haben ist doch kagg egal, Hauptsache die Leistung stimmt.
Ergo wartet auf den 13th April und ihr wisst was abgeht... warum ? kommt am gleichen tag der R420 oder woher willst du an hand von von nvidia veröffentlichten benches wissen welche karte besser ist?

Börk
2004-03-18, 20:39:51
Original geschrieben von dildo4u
warum ? kommt am gleichen tag der R420 oder woher willst du an hand von von nvidia veröffentlichten benches wissen welche karte besser ist?
Ich weiss nicht welche der Karten schneller ist, noch wann der r420 rauskommt (was ich beides nicht behauptet habe). Ich habe nur daran appeliert den ganzen Pipe-Kram zu vergessen, weil hier schon einige angefangen haben rumzuquarken, weil der nv40 angeblich doch nicht 8x2 oder 16x1 ist...

VooDoo7mx
2004-03-18, 20:40:42
Original geschrieben von LovesuckZ
http://www.3dnewsnet.com/upload/files/savethedate_041304.jpg

Quelle (http://www.beyond3d.com/forum/viewtopic.php?p=239471#239471)

Gibts das auch in einer größeren Version?
Macht sich super als Desktop-Wallpaper.

Falls beim NV40 wirklich Dumm3 dabei sit, wird er gekauft :)

GRiNSER
2004-03-18, 21:10:44
Original geschrieben von VooDoo7mx
Falls beim NV40 wirklich Dumm3 dabei sit, wird er gekauft :)
das heißt, du würdest den NV40 auch kaufen, auch wenn er um einiges langsamer als der R420 ist, nur weil dumm3 dabei is? interessant :asshole:

VooDoo7mx
2004-03-18, 21:43:24
Original geschrieben von GRiNSER
das heißt, du würdest den NV40 auch kaufen, auch wenn er um einiges langsamer als der R420 ist, nur weil dumm3 dabei is? interessant :asshole:

Vertrau mir:
Er wird nicht um einiges langsamer sein...
Ein bisschen vielleicht aber das wäre dann nicht so schlimm...
Wenn Dumm3 und Hardware Decoding/Encoding dabei ist, ist der NV40 schon so gut wie gekauft. PS und VS 3.0 sprechen außerdem für sich...

Börk
2004-03-18, 21:48:45
Original geschrieben von VooDoo7mx

Wenn Dumm3 und Hardware Decoding/Encoding dabei ist, ist der NV40 schon so gut wie gekauft.
Erklär mir mal bitte was genau wir unter Hardware Decoding/Encoding zu verstehen haben :)

GRiNSER
2004-03-18, 21:56:00
Original geschrieben von burk23
Erklär mir mal bitte was genau wir unter Hardware Decoding/Encoding zu verstehen haben :)

Damit ist gemeint, dass z.b. DivX Videos von der Grafikkarte statt von der CPU en-/decodiert [also sozusagen berechnet] werden, wenn ich das richtig verstanden habe?!

@voodoo7mx> man soll sich nicht voreilig fix festlegen, bevor man über die chips noch nicht wirklich was weiß [von der leistung her] ;)

Winter[Raven]
2004-03-18, 22:00:33
CB ... löl ... Wenn es kein 8x2 oder 16x1 ist, wieso postet CB nicht die Anzahl ? Oder wissen sie es nicht ?

die Meldung sollte man wirklich vorsichtig aufnehmen ...

Börk
2004-03-18, 22:03:10
Original geschrieben von GRiNSER

Damit ist gemeint, dass z.b. DivX Videos von der Grafikkarte statt von der CPU en-/decodiert [also sozusagen berechnet] werden, wenn ich das richtig verstanden habe?!

@voodoo7mx> man soll sich nicht voreilig fix festlegen, bevor man über die chips noch nicht wirklich was weiß [von der leistung her] ;)
ah danke ;)
Das wäre ja mal ein recht sinnvolles feature, wenn man viele Filme rippt. Oder man könnte in nen alten PC, der sonst zu lahm wäre, ne Low-Cost Version des NV40 reinhaun und trotzdem noch die neusten codecs benutzen.
Vorrausgesetzt, die Implementierung ist schnell genug...

P.S.: Ob ATI sowas in Planung hat weiss wohl niemand, oder?

deekey777
2004-03-18, 22:05:46
Original geschrieben von VooDoo7mx

Falls beim NV40 wirklich Dumm3 dabei sit, wird er gekauft :)

Es hiess bisher nur, dass ein Doom 3 Benchmark mit den kommenden NV40 Grafikkarten dabei sein wird.

P.S.: Ob ATI sowas in Planung hat weiss wohl niemand, oder?

1000% JA! Laut Doom9.org wird der kommende R420 MPEG1/2/4 De-/Encoding und die WMV9-Beschleunigung beherrschen.

dildo4u
2004-03-18, 22:06:42
Original geschrieben von burk23
ah danke ;)
Das wäre ja mal ein recht sinnvolles feature, wenn man viele Filme rippt. Oder man könnte in nen alten PC, der sonst zu lahm wäre, ne Low-Cost Version des NV40 reinhaun und trotzdem noch die neusten codecs benutzen.
Vorrausgesetzt, die Implementierung ist schnell genug...

P.S.: Ob ATI sowas in Planung hat weiss wohl niemand, oder? Ati hat das mit der all in wonder serie schon seid der 8500 serie

StefanV
2004-03-18, 22:16:08
Original geschrieben von dildo4u
Ati hat das mit der all in wonder serie schon seid der 8500 serie

Nö, eigentlich seit dem Rage Theatre, AFAIK.

Der wurde erstmals AFAIK auf der Rage Fury ViVo/PRO verbaut, dementsprechend auch auf der AIW Rage 128 (auf der Rage PRO AIW war noch 'irgendein' Conexant Chip drauf)...

AlfredENeumann
2004-03-18, 22:51:35
Original geschrieben von LovesuckZ
Im High End werden auch nicht die Gewinne eingefahren, auch wenn man zur Zeit mit einer sehr guten Preisschlacht den Kunden versucht auf seine Seite zu ziehen.

Dann frage ich mich wo ATI in den Letzt Monaten soviel Kohle her hat.

Gast
2004-03-19, 00:03:55
Original geschrieben von MarioK
oder billiger beim PS/VS2.0 gleichstand ... für -100 euro werden 95% von leuten PS/VS3.0 vergessen ...

das wird nicht viel bewirken. Es bleibt eine High End Karte und für die ist das Volumen gering. Die schlechte Anfangsausbeute lässt für solche Mammutprodukte keine Mainstreampreise zu.
Entscheidend ist eigentlich nur wer vorne liegt. Der Preis ist nur zweitrangig, denn der der vorne liegt und die besten Features bringt, wird im Mainstream und Low End am meissten punkten - also da wo der große Umsatz gemacht wird.

(del676)
2004-03-19, 00:14:49
Original geschrieben von ShadowXX

Naja...vielleicht ist ja diesmal nV mit dem "r200->r300 Sprung" dran....:kicher:

J.S.Shadow

na das hoffe ich doch stark

deekey777
2004-03-19, 00:24:26
Original geschrieben von Stefan Payne
Nö, eigentlich seit dem Rage Theatre, AFAIK.

Der wurde erstmals AFAIK auf der Rage Fury ViVo/PRO verbaut, dementsprechend auch auf der AIW Rage 128 (auf der Rage PRO AIW war noch 'irgendein' Conexant Chip drauf)...

Rage Theater ist aber ein Extra-Chip, ob dieser auch echtes MPEG1/2-Encoding beherrscht, keine Ahnung.
Mit der 8500 lag er aber gar nicht so daneben: In irgendeiner c't wurde eine Videoschnittlösung vorgestellt/getestet, dabei war auch eine angepasste 8500, die einige Effekt in Echtzeit (mit-)berechnen konnte. Die ATi's DX9-Generation kann auch DivX-/Realvideo-Beschleunigung (die aus guten Gründen im Treiber deaktivierte WMV9-Beschleunigung kann man eh vergessen) - siehe Fullstream. Aber echtes MPEG1/2/4-Encoding ohne einen Extra-Chip ist schon eine tolle Sache. Nur frage ich mich, ob die neuen Grafikkarten (NV40 und R420) auch Videos auf der Festplatte encoden können - das wäre doch genial.
ZUm Thema selbst: CB scheint mit dem 14. Apr. gar nicht so daneben zu liegen. Laut nVidia wird die neue Generation am 13. April in San Francisco präsentiert - 9 Stunden Unterschied. Die Präsentation wird bestimmt irgendwann nachmittag oder am frühen Abend stattfinden (bei der 9800XT ~ 18.45) +9 Stunden: Es ist schon der 14. April!!!! ;D Wann aber die neuen Grafikkarten beider Hersteller im Handel sind, ist aber noch leider unklar.

thop
2004-03-19, 00:29:02
Find ich ja reichlich spät. Karten werden vor Mitte Mai wohl nicht im Handel sein ... die bräuchte man eher jetzt ... für FarCry. Hoffe dass der R420 früher kommt.

deekey777
2004-03-19, 00:38:11
Original geschrieben von thop
Find ich ja reichlich spät. Karten werden vor Mitte Mai wohl nicht im Handel sein ... die bräuchte man eher jetzt ... für FarCry. Hoffe dass der R420 früher kommt.

Wenn es nach dem Inquirer geht, liegt der R420XT schon lange in der Schublade, um den Verkauf der 9800XT als best of the best zu verlängern. :D
Aber dieser Frühling wird noch heisser sein als der Frühling 2003.

Ailuros
2004-03-19, 00:44:58
Original geschrieben von deekey777
Wenn es nach dem Inquirer geht, liegt der R420XT schon lange in der Schublade, um den Verkauf der 9800XT als best of the best zu verlängern. :D
Aber dieser Frühling wird noch heisser sein als der Frühling 2003.

Kein IHV verspaetet seine Veroeffentlichung mit Absicht. Wir muessen uns eben alle daran gewoehnen dass sich bei der zeitlichen Komplexitaet der Architekturen die Entwicklungszeiten verlaengert haben.

ATI z.B. hat momentan nicht gerade wenig zu tun was die Entwicklung von mehr als einem Designs betrifft und anders ist das bei NV nun auch wieder nicht (obwohl die doch den Vorteil haben dass keine aufwaendigen Consolen-Designs bevorstehen). Je mehr Maerkte bedient werden, desto komplizierter wird die ganze Sache.

Uebrigens ist es momentan nicht gerade so dass zeitige high end HW heutige Spiele nicht laufen kann; ganz im Gegenteil es gibt praktisch keine Spiele die selbst diese bis zum vollen Potenzial auslasten.

thop
2004-03-19, 00:48:58
Also FarCry mit Sicherheit. Wenn man da mal LOD aufdreht, vollständige Wasserspiegelung anmacht und alles auf High stellt, dann gute Nacht! Über AA/AF will ich dann ja gar nicht erst reden. Und wenn man dann mal mit 1280x1024 oder höher spielt ... auf Wiedersehen! :)

nggalai
2004-03-19, 01:01:13
Original geschrieben von dildo4u
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/maerz/cebit_neues_nv40_r420/Zudem können wir nun bestätigen, dass der R420 mit insgesamt zwölf Pipelines ausgeliefert werden wird. Der nV40 aus dem Hause nVidia wird es derweil wohl nicht auf 16x1 oder 8x2 Pipelines bringen, besitzt aber einen integrierten Hardware-Decoder.

Sorry 3dcenter aber ihr hab den NV40 stärker gemacht als er wirklich ist und dazu den R420 schlechter ick fand die letzten Artikel sehr pro nvidia das meine! meinung Wie burk23 schon sagte: Vergesst endlich das ganze "Pipeline"-Konzept. Macht bei den neuen Chips nur noch sehr wenig Sinn, mal vom Marketing abgesehen.

93,
-Sascha.rb

Ailuros
2004-03-19, 01:01:19
Original geschrieben von thop
Also FarCry mit Sicherheit. Wenn man da mal LOD aufdreht, vollständige Wasserspiegelung anmacht und alles auf High stellt, dann gute Nacht! Über AA/AF will ich dann ja gar nicht erst reden. Und wenn man dann mal mit 1280x1024 oder höher spielt ... auf Wiedersehen! :)

Ist FarCry schon erhaetlich?

deekey777
2004-03-19, 01:06:43
Uebrigens ist es momentan nicht gerade so dass zeitige high end HW heutige Spiele nicht laufen kann; ganz im Gegenteil es gibt praktisch keine Spiele die selbst diese bis zum vollen Potenzial auslasten.

100%ig. Ab welcher CPU/restlichen Hardware werden sich die neuen Grafikchips nicht langweilen?

thop
2004-03-19, 01:08:39
In einer Woche - ja. Und die Demo gibs auch schon seit ein paar Wochen. Da hat ja einer mit der CryMod eine Szene zusammengebastelt wo er mit der 9800pro 0.2 FPS hatte! :)

Sicher keine spieltypische Szene, aber zeigt dass man immer mehr Leistung gebrauchen kann.

Ailuros
2004-03-19, 01:26:48
Original geschrieben von thop
In einer Woche - ja. Und die Demo gibs auch schon seit ein paar Wochen. Da hat ja einer mit der CryMod eine Szene zusammengebastelt wo er mit der 9800pro 0.2 FPS hatte! :)

Sicher keine spieltypische Szene, aber zeigt dass man immer mehr Leistung gebrauchen kann.

a) Ich entscheide mich ueber die Leistung von FarCry vom finalen Spiel und nicht der demo und dann erst ob es der Rede wert ist als Spiel erstmal.

b) Ein einziges Spiel sieht mir persoenlich sehr mager aus um auf ersten Schub 400-500$ auf den Ladentisch zu blaettern.

c) Es gibt viele "jemande" die maps fuer andere Spiele zusammenbasteln und meistens wenn die Frameraten so niedrig sind, braucht der Hobby-Entwickler in der Mehrzahl von diesen Faellen noch ein paar hunderte Training-Stunden.

Alles in allem sehe ich keinen besonderen Grund es sooooo eilig zu haben.

thop
2004-03-19, 01:33:53
Also ich spiele sehr gerne 1600x1200, und wenn man da noch AA/AF mag, da wird es heutzutage bei einigen Spielen schon dünn. Ich hätte es gerne wieder so wie als die 9700pro rauskam. Da kommte man ohne zu zögern bei jedem Spiel 1600x1200x8AFx4AA anmachen ohne das sich die 9700pro großartig beindruckt zeigte. Und das blieb ja auch ne ganze Weile so.

Ob das 400-500$ Wert is, das steht ja auf einem ganz anderen Papier. Die 9700pro hab ich mir ja auch nie gekauft :) Aber schön wäre es die Option zu haben.

Ailuros
2004-03-19, 02:00:23
Na bei so vielen Spielen konnte man selbst beim R300 Launch spielbare Frameraten in 1600/AA/AF nicht erreichen, ausser Du meinst ganz veraltete Spiele selbst fuer Ende 2002.

Hier kann man sogar behaupten dass Spielbarkeit subjektiv ist, aber ich ziehe bei der R300 in UT2k3 als Beispiel schon in 1152*868*32/4xAA/8xAF einen Strich. Bei R360 geht es dann locker bis auf 1280, aber fuer 1600 reicht das fuer meinen Geschmack dann nicht mehr aus.

Ob das 400-500$ Wert is, das steht ja auf einem ganz anderen Papier.

Tja wenn Dein Ziel 1600/AA/AF ist fuer FarCry, muessen wir natuerlich erstmal abwarten ob die naechsten Karten mit der Aufloesung bzw. Settings erstmal tatsaechlich in dem Spiel auch spielbar sind.

DrumDub
2004-03-19, 02:18:27
Original geschrieben von nggalai
Wie burk23 schon sagte: Vergesst endlich das ganze "Pipeline"-Konzept. Macht bei den neuen Chips nur noch sehr wenig Sinn, mal vom Marketing abgesehen.

93,
-Sascha.rb

das die heutigen architekturen mit solch statischen modellen noch weniger gemein haben, als zu 3dfx zeiten, sollte schon klar sein. nur irgendwie muss man sich die dinger halt doch vorstellen können und dafür ist das pipeline-konzept (welches ja strenggenommmen immer ne marketiing-sache war) imho ganz sinnvoll. tmu ist eigentlich auch so nen begriff, den wir in die tonne kloppen können.

Demirug
2004-03-19, 07:20:28
Original geschrieben von nggalai
Wie burk23 schon sagte: Vergesst endlich das ganze "Pipeline"-Konzept. Macht bei den neuen Chips nur noch sehr wenig Sinn, mal vom Marketing abgesehen.

93,
-Sascha.rb

Und das Marketing von ATI und nVidia spielt mit dem Begriff wie sie wollen um alle zu verwirren.

Nur mal so als denkanstoss für alle:


4*Shader 4*Shader 4*Shader
| | |
\ /\ /
\ / \ /
------ -----
| |
4*ROP 4*ROP

ShadowXX
2004-03-19, 08:07:47
Original geschrieben von Demirug
Und das Marketing von ATI und nVidia spielt mit dem Begriff wie sie wollen um alle zu verwirren.

Nur mal so als denkanstoss für alle:


4*Shader 4*Shader 4*Shader
| | |
\ /\ /
\ / \ /
------ -----
| |
4*ROP 4*ROP


hmmmm...ATIs "extreme" Pipelines??

Dann wären dann in der Tat 12 MarketingPipelines.....

Ich hatte eigentlich nicht schon mit dem 14. April gerechnet....dann muss ATI jetzt ja nachlegen....mal sehen ob Sie nicht doch noch Kurzfristig eine Pressekonferenz auf der CeBit anberaumen...

Von wie vielen Pixelprozessoren gehts du bei r420/nv40 aus?

J.S.Shadow

Demirug
2004-03-19, 10:24:08
Original geschrieben von ShadowXX
hmmmm...ATIs "extreme" Pipelines??

Dann wären dann in der Tat 12 MarketingPipelines...../SIZE]

Woher soll ich das wissen?

[SIZE=1]Von wie vielen Pixelprozessoren gehts du bei r420/nv40 aus?

J.S.Shadow

Ich gehe von gar nichts mehr aus.

r@w
2004-03-19, 10:54:48
Original geschrieben von Ailuros
Ist FarCry schon erhaetlich? In nicht mal mehr einer Woche...
(der 25.3. wird heeeeiiiiißßßß ;-)

Und warum sollten die IHV's das Release nicht absichtlich verzögern, wenn wirtschaftliche Überlegungen dafür sprechen ?
:???:

Razor

r@w
2004-03-19, 10:56:55
Original geschrieben von burk23
Das wäre ja mal ein recht sinnvolles feature, wenn man viele Filme rippt. Oder man könnte in nen alten PC, der sonst zu lahm wäre, ne Low-Cost Version des NV40 reinhaun und trotzdem noch die neusten codecs benutzen.
Vorrausgesetzt, die Implementierung ist schnell genug...Viel wichtiger wären da ganz andere Dinge... so z.Bsp. Timeshifting in DVD-Qualität oder 'OnTheFly' Aufnahmen auf einen CD/DVD-Brenner. Die Möglichkeiten wären gigantisch, auch könnte man während des codierens den PC für was anderes nutzen (zum Spielen in 3D vermutlich nicht ;-)...

Razor

r@w
2004-03-19, 11:07:02
Original geschrieben von dildo4u
Ati hat das mit der all in wonder serie schon seid der 8500 serie Vollständiges MPEG2/4 encoding ?
Nein.

Razor

Ailuros
2004-03-19, 11:22:11
Original geschrieben von r@w
In nicht mal mehr einer Woche...
(der 25.3. wird heeeeiiiiißßßß ;-)

Und warum sollten die IHV's das Release nicht absichtlich verzögern, wenn wirtschaftliche Überlegungen dafür sprechen ?
:???:

Razor

Tja die eigentliche Frage ist natuerlich ob die positiven wirtschaftlichen Aspekte hier ueberwiegen oder nicht.

NVIDIA z.B. setzte als Ziel CeBIT. Und Ziel heisst eben nur das was es heisst; keine Garantie. Beide IHVs haben sich versprochen nur etwa einen Monat vor Verfuegbarkeit anzukuendigen. CeBIT wuerde bei Beiden gegen dieses Versprechen stossen.

NVIDIA hat sogar eine feste Anzahl dafuer; nicht weniger als 10.000 verkaufbare Einheiten. Wer neueste Bildchen schon gesehen hat, weiss wohl wie fertig etwas wirklich sein kann, oder noch etwas Zeit braucht....

ow
2004-03-19, 11:23:21
Original geschrieben von r@w
In nicht mal mehr einer Woche...
(der 25.3. wird heeeeiiiiißßßß ;-)

Und warum sollten die IHV's das Release nicht absichtlich verzögern, wenn wirtschaftliche Überlegungen dafür sprechen ?
:???:

Razor


Weil es IMO nicht wirtschaftlich ist und das auch niemals sein kann.
Neue Highend Chips muessen auf dem Markt solange man noch richtig Kohle dafuer verlangen kann (= vor der Konkurrenz).

Gast
2004-03-19, 11:33:18
Original geschrieben von Ailuros
...Kein IHV verspaetet seine Veroeffentlichung mit Absicht. Wir muessen uns eben alle daran gewoehnen dass sich bei der zeitlichen Komplexitaet der Architekturen die Entwicklungszeiten verlaengert haben....
@AiL:

Das hat wirtschaftliche Gründe. Und ja, es ist Absicht. Es macht einfach keinen Sinn, im Enthusiast-Segment zwei oder mehr Produkte anzubieten, noch dazu wenn man derzeit sehr gut in diesem Bereich positioniert ist.

ATI wartet derzeit auf die öffentliche Vorstellung des NV40, und dann werden auch sie ihre bereits seit einigen Wochen fertige HW vorstellen.

robbitop
2004-03-19, 11:58:01
dann sollten die High End NV4x beim De/Encoden doch deutlich schneller sein als die "kleinen" oder?
Mehr Rechenwerke und evl auch höhere Taktraten bringen einfach mehr Rechenoperationen/Takt.

Ich frage mich warum Computerbase eine "Encode Einheit" erwähnte...das sollte doch mittels PS3.0 sowieso möglich sein.

ow
2004-03-19, 12:04:34
Original geschrieben von Gast
@AiL:

Das hat wirtschaftliche Gründe. Und ja, es ist Absicht. Es macht einfach keinen Sinn, im Enthusiast-Segment zwei oder mehr Produkte anzubieten, noch dazu wenn man derzeit sehr gut in diesem Bereich positioniert ist.

ATI wartet derzeit auf die öffentliche Vorstellung des NV40, und dann werden auch sie ihre bereits seit einigen Wochen fertige HW vorstellen.


Es gibt keine wirtschaftlichen Gruende fuer so etwas. Es macht keinen Sinn, den Lebenszyklus einer neuen HW Generation kuenstlich zu verkuerzen indem man sie zurueckhaelt obwohl sie fertig ist.
Die R420 Preise waeren dann jetzt schon am Fallen obwohl der Chip noch gar nicht vorgestellt ist. Wenn der NV40 vorgestellt wird kann Ati den R420 nur noch wesentlich billiger verkaufen als sie es jetzt koennten.

ironMonkey
2004-03-19, 12:41:29
Das ist so nicht richtig, sondern hat verdammt viel mit Produktionskosten zu tun und real verfügbarer Hardware, den R420 jetzt auf den Markt zu bringen währe alles andere als Sinnvoll da man derzeit Nr.1 ist was Leistung angeht, man würde sich also selbst in den Ar....treten damit.

Man Produziert von seinem aktuellen Chip soviel das das Lager randvoll ist und stellt dann wenn der Zeitpunkt für richtig empfunden wird die Produktion um und so lange man noch genug Karten auf Lager hat, diese gekauft wird und der "Gegner" nicht besseres auf den Markt bringt lohnt es sich nicht so recht ein neues Modell raus zu bringen, zudem, wenn ATI seine Karte raus bringt und Nvidia sagt das sie in 2 Wochen auch ihre neue Hardware raus bringen, würde ATI blöd darstehen sicher ist man mit abstand Nr.1 aber ob diese gekauft ist die Frage da ja die anderen nicht weit entfernt sind und viele würden dann sicher zögern und das bringt nicht grade viel Gewinn und darum geht es, zudem kann man so lange noch die Zeit zum Treiber optimieren nutzen und so den letzten Schliff zu verpassen, es gibt immer was zu verbessern und je mehr zeit man hat, desto besser.


Gruß

GRiNSER
2004-03-19, 12:45:52
Original geschrieben von ironMonkey
Das ist so nicht richtig, sondern hat verdammt viel mit Produktionskosten zu tun und real verfügbarer Hardware, den R420 jetzt auf den Markt zu bringen währe alles andere als Sinnvoll da man derzeit Nr.1 ist was Leistung angeht, man würde sich also selbst in den Ar....treten damit.

Man Produziert von seinem aktuellen Chip soviel das das Lager randvoll ist und stellt dann wenn der Zeitpunkt für richtig empfunden wird die Produktion um und so lange man noch genug Karten auf Lager hat, diese gekauft wird und der "Gegner" nicht besseres auf den Markt bringt lohnt es sich nicht so recht ein neues Modell raus zu bringen, zudem, wenn ATI seine Karte raus bringt und Nvidia sagt das sie in 2 Wochen auch ihre neue Hardware raus bringen, würde ATI blöd darstehen sicher ist man mit abstand Nr.1 aber ob diese gekauft ist die Frage da ja die anderen nicht weit entfernt sind und viele würden dann sicher zögern und das bringt nicht grade viel Gewinn und darum geht es, zudem kann man so lange noch die Zeit zum Treiber optimieren nutzen und so den letzten Schliff zu verpassen, es gibt immer was zu verbessern und je mehr zeit man hat, desto besser.


Gruß

full ack - besser könnte man es nicht beschreiben :)

ShadowXX
2004-03-19, 12:59:19
Original geschrieben von ironMonkey
Das ist so nicht richtig, sondern hat verdammt viel mit Produktionskosten zu tun und real verfügbarer Hardware, den R420 jetzt auf den Markt zu bringen währe alles andere als Sinnvoll da man derzeit Nr.1 ist was Leistung angeht, man würde sich also selbst in den Ar....treten damit.

Man Produziert von seinem aktuellen Chip soviel das das Lager randvoll ist und stellt dann wenn der Zeitpunkt für richtig empfunden wird die Produktion um und so lange man noch genug Karten auf Lager hat, diese gekauft wird und der "Gegner" nicht besseres auf den Markt bringt lohnt es sich nicht so recht ein neues Modell raus zu bringen, zudem, wenn ATI seine Karte raus bringt und Nvidia sagt das sie in 2 Wochen auch ihre neue Hardware raus bringen, würde ATI blöd darstehen sicher ist man mit abstand Nr.1 aber ob diese gekauft ist die Frage da ja die anderen nicht weit entfernt sind und viele würden dann sicher zögern und das bringt nicht grade viel Gewinn und darum geht es, zudem kann man so lange noch die Zeit zum Treiber optimieren nutzen und so den letzten Schliff zu verpassen, es gibt immer was zu verbessern und je mehr zeit man hat, desto besser.


Gruß

Nur hat nV jetzt die Präsentation für den 13/14. April angekündigt.....ATI hat noch nix in der Richtung verlauten lassen.

Und das ATI vor dem 14.April schon kaufbare Karten in die Regale bringt bezweifle ich...

Im Prinzip ist der Zug abgefahren....(fast) jeder wird jetzt mindestens bis zur Präsentation der nV warten....und sich erst dann entscheiden....

J.S.Shadow

Gast
2004-03-19, 13:04:23
Original geschrieben von ow
Es gibt keine wirtschaftlichen Gruende fuer so etwas. Es macht keinen Sinn, den Lebenszyklus einer neuen HW Generation kuenstlich zu verkuerzen indem man sie zurueckhaelt obwohl sie fertig ist.
Die R420 Preise waeren dann jetzt schon am Fallen obwohl der Chip noch gar nicht vorgestellt ist. Wenn der NV40 vorgestellt wird kann Ati den R420 nur noch wesentlich billiger verkaufen als sie es jetzt koennten.
Ja, nur ist in deiner Logik ein riesen Denkfehler. Nenne mir mal bitte nur eine einzige Killer-Applikation für einen NV40 / R420. Es gibt derzeit nicht ein einziges Spiel (außer vielleicht Far Cry), das überhaupt solche Leistungen abverlangt. Selbst ein "Enthusiast-Gamer" fragt sich mittlerweile, wieso er >400 EUR/$US auf den Tisch legen solle, wenn es überhaupt keine Spiele gibt die überhaupt mal eine R300 richtig ausnutzen.

Ich gebe zu du hast Recht, wenn wir denn momentan wirklich massenweise Produkte hätten, die nach einer solchen HW schreien würden.

Es steht außerdem noch lange nicht geschrieben, wann NV denn nun wirklich liefern kann, und ein Paper-Launch von NV kann ATI derzeit locker kontern, ein Preisverfall findet erst statt, wenn beide am Markt verfügbar sind, und nicht vorher.

GRiNSER
2004-03-19, 13:04:51
ich denke mal es werden die meisten auf die ersten unabhängigen vergleichstests warten, als sich voreilig nur durch die präsentationen blenden zu lassen...

ich möchte gerne mal ne ATi [hab ne GF4Ti4200 die mir im moment noch gut reicht], aber wenn nVidia schneller ist, dann kauf mich mir wieder ne nVidia, ansonsten eben ATi.

robbitop
2004-03-19, 13:12:47
für extremes AA/AF und hi Res is keine VPU schnell genug imo ;)

ShadowXX
2004-03-19, 13:13:29
Original geschrieben von Gast
Ja, nur ist in deiner Logik ein riesen Denkfehler. Nenne mir mal bitte nur eine einzige Killer-Applikation für einen NV40 / R420. Es gibt derzeit nicht ein einziges Spiel (außer vielleicht Far Cry), das überhaupt solche Leistungen abverlangt. Selbst ein "Enthusiast-Gamer" fragt sich mittlerweile, wieso er >400 EUR/$US auf den Tisch legen solle, wenn es überhaupt keine Spiele gibt die überhaupt mal eine R300 richtig ausnutzen.

Ich gebe zu du hast Recht, wenn wir denn momentan wirklich massenweise Produkte hätten, die nach einer solchen HW schreien würden.

Es steht außerdem noch lange nicht geschrieben, wann NV denn nun wirklich liefern kann, und ein Paper-Launch von NV kann ATI derzeit locker kontern, ein Preisverfall findet erst statt, wenn beide am Markt verfügbar sind, und nicht vorher.

Ich kenne mehr als ein Games, welches mit 4xAA/8xAF (oder sogar höher) unter 1280x1024 (sehr beliebte native TFT Auflösung) nicht mehr ordentlich laufen....

Wenn du natürlich auf AA/AF verzichten möchtest, siehts etwas anders aus...

Und zum FarCry Beispiel....wer sagt dir, das die demnächst anstehenden Games die neuen Engines (z.B. die von Doom3 oder die Source Engine) benutzen, nicht alle so HW-Hungrig wie FarCry sind??

J.S.Shadow

ShadowXX
2004-03-19, 13:16:11
Original geschrieben von GRiNSER
ich denke mal es werden die meisten auf die ersten unabhängigen vergleichstests warten, als sich voreilig nur durch die präsentationen blenden zu lassen...

ich möchte gerne mal ne ATi [hab ne GF4Ti4200 die mir im moment noch gut reicht], aber wenn nVidia schneller ist, dann kauf mich mir wieder ne nVidia, ansonsten eben ATi.

Du sagst es...und damit hat jetzt keiner von beiden einen zeitlichen Vorteil mehr...

Ausser ATI schmeisst seine Karten morgen auf den Markt...

Einer von beiden hat sich IMHO verkalkuliert...und momentan siehts nach ATI aus....

J.S.Shadow

Gaestle
2004-03-19, 13:21:13
DeusEx2 läuft auf heutiger High-End-HW in Auflösungen über 1024 bei max. Details auch ohne AA/AF vermutlich nicht so recht flüssig, bei Thief3 wird's wahrscheinlich nicht anders aussehen.
http://www.xbitlabs.com/articles/video/display/ati-nvidia-roundup_12.html


Grüße

r@w
2004-03-19, 13:24:38
Versteh' ich nicht...

Die High-End-Modelle werden - wie immer - 500€ kosten.
Ganz egal, wann sie kommen !

Das war selbst mit dem völlig verspätetem NV30 so. Auch gibt es ja derzeit noch nicht einmal Konkurrenz, mit der man mithalten müsste.

Sorry, aber verlieren tut derzeit (!) aufgrund der 'Zurückhaltung' der beiden IHV's niemand was. Ganz im Gegenteil... Und warum soll der 'Lebenszyklus' verkürzt werden, wenn man die nachfolgendes Releases dem derzeitigen anpaßt ?

-

Ich bin noch immer der Meinung, verlieren tut derzeit keiner, ganz im Gegenteil.

Razor

mapel110
2004-03-19, 13:26:37
Original geschrieben von r@w
Ich bin noch immer der Meinung, verlieren tut derzeit keiner, ganz im Gegenteil.

Razor

Jo, sie gewinnen, weil sie derzeit eben noch gut den "alten Schrott" loswerden.
Vorteile durch die Verschiebung haben aber imo vorallem die Kleinen der Branche. Sie haben mehr Zeit aufzuholen.

Gast
2004-03-19, 13:28:37
Original geschrieben von ShadowXX
...Und zum FarCry Beispiel....wer sagt dir, das die demnächst anstehenden Games die neuen Engines (z.B. die von Doom3 oder die Source Engine) benutzen, nicht alle so HW-Hungrig wie FarCry sind??

J.S.Shadow
Wenn diese Spiele am Markt sind, habe ich ja auch kein Argument mehr, es geht aber um den derzeitigen Zeitpunkt, und der ist für die Vorstellung neuer HW einfach sehr ungünstig.

PS: Es gibt nicht umsonst einen Deal zwischen NV und id, dass sie wohl min. den D3-Bench beilegen werden, damit man auch sehen kann, wofür man >400 EUR auf den Tisch legt.

r@w
2004-03-19, 13:34:22
Original geschrieben von ow
Weil es IMO nicht wirtschaftlich ist und das auch niemals sein kann.
Neue Highend Chips muessen auf dem Markt solange man noch richtig Kohle dafuer verlangen kann (= vor der Konkurrenz). Du sprichst doch hier von Enthusiast-Segment, oder ?
Da war noch nie sonderlich viel Kohle zu holen...

Und wenn man jetzt noch bedenkt, dass die 'neue Leistung' dann auch noch abschreckend bis in untersten Käuferschiechten wirken könnte, dann wäre es sogar fatal ein neues Produkt zu früh zu launchen.

Wenn der Super-Dau jetzt: "Wow, det Neue is jetzt aber viel goiler !" und darauf keine FX5200/5700 mehr kauft, sondern lieber mit seinem Kauf wartet... was umso mehr für den Nicht-Dau gilt, der auf jeden Fall auf den 'Neuen' warten dürfte, wäre das vielleicht nicht für ATI oder nVidia verhängnisvoll, wohl aber für die ganzen Distributoren, die dann auf den Lagerbeständen sitzen bleiben, ober aber diese weit unter der angestrebten Marge verkaufen müssen (wohl eine Kombo dessen).

Das Geschäft läuft doch anscheinend äussert gut... auf beiden Seiten.

Razor

P.S.: Dieser Post kommt zeitlich asynchron... da vom anderen Rechner... ;)

ShadowXX
2004-03-19, 13:43:19
Original geschrieben von Gast
Wenn diese Spiele am Markt sind, habe ich ja auch kein Argument mehr, es geht aber um den derzeitigen Zeitpunkt, und der ist für die Vorstellung neuer HW einfach sehr ungünstig.

PS: Es gibt nicht umsonst einen Deal zwischen NV und id, dass sie wohl min. den D3-Bench beilegen werden, damit man auch sehen kann, wofür man >400 EUR auf den Tisch legt.

Wie ich oben schon erwähnte (und auch ein paar andere):

Ich habe durchaus Probleme jedes beliebige Game bei 1280x1024 mit 4xAA/8xAF zu fahren...es geht bei manchen einfach nicht, weil die FPS dann unter 20 rutschen (was für mich die Grenze ist, bei schnellen Games ist diese natürlich höher)...

Darum warte ich händeringend auf die neuen Karten....es geht mir dabei nicht mal um besseres AA/AF oder PS/VS3.0, sondern einfach darum das ich alle meine Games mit den oben genannten Einstellungen Daddeln will...


J.S.Shadow

ow
2004-03-19, 14:08:44
Original geschrieben von ironMonkey
Das ist so nicht richtig, sondern hat verdammt viel mit Produktionskosten zu tun und real verfügbarer Hardware, den R420 jetzt auf den Markt zu bringen währe alles andere als Sinnvoll da man derzeit Nr.1 ist was Leistung angeht, man würde sich also selbst in den Ar....treten damit.

Man Produziert von seinem aktuellen Chip soviel das das Lager randvoll ist und stellt dann wenn der Zeitpunkt für richtig empfunden wird die Produktion um und so lange man noch genug Karten auf Lager hat, diese gekauft wird und der "Gegner" nicht besseres auf den Markt bringt lohnt es sich nicht so recht ein neues Modell raus zu bringen, zudem, wenn ATI seine Karte raus bringt und Nvidia sagt das sie in 2 Wochen auch ihre neue Hardware raus bringen, würde ATI blöd darstehen sicher ist man mit abstand Nr.1 aber ob diese gekauft ist die Frage da ja die anderen nicht weit entfernt sind und viele würden dann sicher zögern und das bringt nicht grade viel Gewinn und darum geht es, zudem kann man so lange noch die Zeit zum Treiber optimieren nutzen und so den letzten Schliff zu verpassen, es gibt immer was zu verbessern und je mehr zeit man hat, desto besser.


Gruß

Das ist ziemlicher Kaese, den du da schreibst.
Der R420 spielt ja wohl in einer anderen Leistungsklasse als ein R360 und waere jetzt locker fuer 800 Euro und mehr an den Mann zu bringen. In ein paar Wochen kannst du das vergessen. Mehr als 500 E sind dann nicht mehr drin.
Der R360 wird uebrigens immer unrentabler, je weiter der Preis sinkt. Das ist ja hoffentlich klar.
Ein Chip muss immer schnellstmoeglich auf dem Markt um eine hohen Gewinn zu erzielen und die Entwicklungskosten wieder einzufahren. Alles andere ist wirtschaftlicher Unsinn.


/edit: man vergleiche das mal mit Anfang 2001. Haette NV es noetig gehabt, die GF3 zu bringen wo sie doch eh konkurrenzlos dastanden (der Radeon1 konnte doch nichtmal richtig gegen eine GF2 anstinken)??

Also warum hat NV damals den Gf3 gebracht? Bestimmt nicht, um nicht maximale Gewinne damit einzufahren. Bis zum Erscheinen der R8500 waren die Gf3 Preise jedenfalls sehr hoch und NV hat sich dumm und daemlich dran verdient. Wenn Ati meint, das nicht noetig zu haben, bitte sehr....nicht mein Problem.

ow
2004-03-19, 14:14:15
Original geschrieben von ShadowXX
Nur hat nV jetzt die Präsentation für den 13/14. April angekündigt.....ATI hat noch nix in der Richtung verlauten lassen.

Und das ATI vor dem 14.April schon kaufbare Karten in die Regale bringt bezweifle ich...

Im Prinzip ist der Zug abgefahren....(fast) jeder wird jetzt mindestens bis zur Präsentation der nV warten....und sich erst dann entscheiden....

J.S.Shadow


Das ist genau der Punkt, warum es unsinnig ist, einen fertigen Chip kuenstlich zu verzoegern.
Vor dem Erscheinen des NV40 wird jetzt wohl kaum noch ein R420 verkauft werden.
S. auch mein Posting hier oben drueber.

ow
2004-03-19, 14:16:07
Original geschrieben von Gast
Ja, nur ist in deiner Logik ein riesen Denkfehler. Nenne mir mal bitte nur eine einzige Killer-Applikation für einen NV40 / R420. Es gibt derzeit nicht ein einziges Spiel (außer vielleicht Far Cry), das überhaupt solche Leistungen abverlangt. Selbst ein "Enthusiast-Gamer" fragt sich mittlerweile, wieso er >400 EUR/$US auf den Tisch legen solle, wenn es überhaupt keine Spiele gibt die überhaupt mal eine R300 richtig ausnutzen.

Ich gebe zu du hast Recht, wenn wir denn momentan wirklich massenweise Produkte hätten, die nach einer solchen HW schreien würden.

Es steht außerdem noch lange nicht geschrieben, wann NV denn nun wirklich liefern kann, und ein Paper-Launch von NV kann ATI derzeit locker kontern, ein Preisverfall findet erst statt, wenn beide am Markt verfügbar sind, und nicht vorher.


Wir reden hier nicht von irgendwelchen Applikationen. Die sind fuer keinen IHV von Interesse. Die Chips verkaufen sich auch so. Es gibt immer Leute, die sowas brauchen.

ow
2004-03-19, 14:21:48
Original geschrieben von r@w
Versteh' ich nicht...

Die High-End-Modelle werden - wie immer - 500€ kosten.
Ganz egal, wann sie kommen !


:???:

Das ist jetzt aber nicht dein Ernst, oder?
Der Einstandspreis haengt ganz wesentlich davon ab, wann ein Chip erscheint und wie die Konkurrenz zu diesem Zeitpunkt dasteht. Hab ich aber oben schon geschrieben.


Das war selbst mit dem völlig verspätetem NV30 so. Auch gibt es ja derzeit noch nicht einmal Konkurrenz, mit der man mithalten müsste.

Sorry, aber verlieren tut derzeit (!) aufgrund der 'Zurückhaltung' der beiden IHV's niemand was. Ganz im Gegenteil... Und warum soll der 'Lebenszyklus' verkürzt werden, wenn man die nachfolgendes Releases dem derzeitigen anpaßt ?

-

Ich bin noch immer der Meinung, verlieren tut derzeit keiner, ganz im Gegenteil.

Razor


Es geht um max. Gewinnausbeute. Vom Zeitpunkt der ersten erhaeltlichen Karten an werden die Chips nur noch an Wert verlieren. Falls ATi wirklich den R420 kuenstlich zurueckhaelt (was ich allerdings nicht glaube), dann machen sie damit einen grossen Fehler.

Gast
2004-03-19, 14:29:48
Original geschrieben von ow
Wir reden hier nicht von irgendwelchen Applikationen. Die sind fuer keinen IHV von Interesse. Die Chips verkaufen sich auch so. Es gibt immer Leute, die sowas brauchen.
Es geht aber darum, den Kundenkreis möglichst groß zu halten, und nicht die schon vorhandenen Nischen noch weiter zu verkleinern. Irgendwie ist deine Art des Denkens wirklich sehr schwierig nachzuvollziehen, oder du willst mit aller Macht einfach nur Recht haben.

Und zu dem IHV-Thema, ich glaube damit fangen wir garnicht erst an. Der 7,5 Millionen Deal zwischen ATI und Valve war deiner Meinung nach also uninteressant ? Danke für die Antwort.

ShadowXX
2004-03-19, 14:42:10
Original geschrieben von Gast
Es geht aber darum, den Kundenkreis möglichst groß zu halten, und nicht die schon vorhandenen Nischen noch weiter zu verkleinern. Irgendwie ist deine Art des Denkens wirklich sehr schwierig nachzuvollziehen, oder du willst mit aller Macht einfach nur Recht haben.

Und zu dem IHV-Thema, ich glaube damit fangen wir garnicht erst an. Der 7,5 Millionen Deal zwischen ATI und Valve war deiner Meinung nach also uninteressant ? Danke für die Antwort.

Du bist also der Meinung, das sich jetzt noch schnell alle den r360 kaufen, weil der r420 erst in 2 Monaten kommt....wohl kaum, denn die, die sich den r420 kaufen, sind die die sowieso schon die grossen Karten haben...

Jeder der halbwegs vernünftig ist und sowieso viel Geld für die neue GraKa ausgeben will wartet jetzt....oder kauft sich eine 9800Pro (und keine XT, wenns denn schon was zur überbrückung sein muss).

Und die 9800Pro wird wahrscheinlcih sowieso schon an der Schmerzgrenze verkloppt...

Die High-End Modelle sind die Modelle an denen sich der "Dau" orientiert....und dabei ist es egal ob der High-End schon eine Gen weiter ist.

Und zum ATI/Valve Deal...da würde mich interessieren, wie ATI inzwischen darüber denkt....

J.S.Shadow

Gast
2004-03-19, 14:46:01
Original geschrieben von mapel110
Jo, sie gewinnen, weil sie derzeit eben noch gut den "alten Schrott" loswerden.
Vorteile durch die Verschiebung haben aber imo vorallem die Kleinen der Branche. Sie haben mehr Zeit aufzuholen.

wer Marktanteile gewinnen will um seine Position zu manifestieren, der wartet nicht einfach mit einem fertigen Produkt, das alle aktuellen Konkurenzprodukte in den Schatten stellt.
Wenn ATIs R420 fertig wäre, so dass sie ihn morgen ausliefern könnten, würden sie ihn sofort launchen um das Zeitfenster vorm Konkurenten so gut wie möglich zu nutzen.
Das selbe gilt für Nvidia.

Womit feststeht, dass beide NICHT fertig sind. Mit fertig meine ich, dass die Produkte insoweit vorangeschritten sind, dass ab morgen der produktive Verkauf beginnen kann.

Gast
2004-03-19, 14:52:59
Original geschrieben von ShadowXX
Die High-End Modelle sind die Modelle an denen sich der "Dau" orientiert....und dabei ist es egal ob der High-End schon eine Gen weiter ist.
Genau das wollte ich lesen. Es ist aber doch sehr schwierig (wenn wir mal von ow´s Sicht ausgehen), einem Dau zu erklären, dass er 800 EUR für eine Karte ausgeben muss. Meinst du nicht ? Genau deshalb macht es für mich keinen Sinn High-End noch größer aufzuspalten.

ShadowXX
2004-03-19, 15:00:38
Original geschrieben von Gast
Genau das wollte ich lesen. Es ist aber doch sehr schwierig (wenn wir mal von ow´s Sicht ausgehen), einem Dau zu erklären, dass er 800 EUR für eine Karte ausgeben muss. Meinst du nicht ? Genau deshalb macht es für mich keinen Sinn High-End noch größer aufzuspalten.

Ich habe geschrieben, das er sich daran orientiert.

D.h. wer die schnellste Karte im High-End hat, verkauft auch Automatisch mehr im Main/Low-End-Bereich...

Und davom mal abgesehen...wenn jemand die schnellste Karte haben will, muss er dafür sehr viel Geld ausgeben...das war schon immer so.

Die GF3 kostete bei der einführung Teilweise 1400 DM...da hat auch keiner gefragt, ob man das dem Dau erklären muss....ich muss dem Atutokauf-Dau auch nicht erklären warum ein Porsche mehr kostet als ein Panda...da brauche ich nur auf die PS (uppps ein kleinen Namensspiel) hinweisen...

J.S.Shadow

P.S.
ich kenne übrigens genug Dau's die auch liebend gerne 1000Euro für die neuste r420/nv40 ausgeben würden...

Gast
2004-03-19, 15:01:29
Original geschrieben von ow
/edit: man vergleiche das mal mit Anfang 2001. Haette NV es noetig gehabt, die GF3 zu bringen wo sie doch eh konkurrenzlos dastanden (der Radeon1 konnte doch nichtmal richtig gegen eine GF2 anstinken)??

Also warum hat NV damals den Gf3 gebracht? Bestimmt nicht, um nicht maximale Gewinne damit einzufahren. Bis zum Erscheinen der R8500 waren die Gf3 Preise jedenfalls sehr hoch und NV hat sich dumm und daemlich dran verdient. Wenn Ati meint, das nicht noetig zu haben, bitte sehr....nicht mein Problem.
Dein Vergleich hinkt ow, damals hatte ATI (wie du in deinem Post schreibst) keine konkurrenzfähige HW -> NV kann also astronomische Preise verlangen. Das gleiche hat sich bei iNTEL jahrelang abgespielt, jetzt bekommst du einen P4-Northwood / Prescott nachgeschmissen.

Gast
2004-03-19, 15:05:23
Original geschrieben von ShadowXX
...D.h. wer die schnellste Karte im High-End hat, verkauft auch Automatisch mehr im Main/Low-End-Bereich...

Hat man ja aktuell gesehen. NV verkauft an OEMs weiterhin deutlich mehr als ATI. Grund: Überlegenes Marketing / sehr gute Margen bei FX5200.

- Ich weiß aber was du sagen willst, und es ist auch angekommen.

r@w
2004-03-19, 15:59:00
Original geschrieben von ow
Das ist jetzt aber nicht dein Ernst, oder?
Der Einstandspreis haengt ganz wesentlich davon ab, wann ein Chip erscheint und wie die Konkurrenz zu diesem Zeitpunkt dasteht. Hab ich aber oben schon geschrieben.Oh doch, das ist mein ernst !
Und es war hoffentlich nicht Dein ernst, dass ATI jetzt eine (Consumer-)GraKa für 800€ los werden würde... das hat nicht mal nVidia damals mit der gf2u geschafft... da waren's 'nur' 750€ (oder eben 1500 Märker ;-).
Original geschrieben von ow
Es geht um max. Gewinnausbeute. Vom Zeitpunkt der ersten erhaeltlichen Karten an werden die Chips nur noch an Wert verlieren. Falls ATi wirklich den R420 kuenstlich zurueckhaelt (was ich allerdings nicht glaube), dann machen sie damit einen grossen Fehler. An den High-End-(Enthusiast-)Karten hat man noch nie sonderlich viel verdient.
Sie sind allesamt Prestige-Objekte feinster Coleur...

Schließlich sollen die 'Großen' ja die 'Kleinen' verkaufen. Was im Falle von NV40 oder R420 eher kontraproduktiv ist, da die Kleinen ja noch gar nicht verfügbar sind.

Razor

ShadowXX
2004-03-19, 16:05:19
Original geschrieben von r@w
An den High-End-(Enthusiast-)Karten hat man noch nie sonderlich viel verdient.
Sie sind allesamt Prestige-Objekte feinster Coleur...

Schließlich sollen die 'Großen' ja die 'Kleinen' verkaufen. Was im Falle von NV40 oder R420 eher kontraproduktiv ist, da die Kleinen ja noch gar nicht verfügbar sind.

Razor

Das wäre nicht so wichtig....je nachdem was oben gewinnt wird unten gekauft...auch wenns ne Generation davor ist.

Beim "Gewinnen" zählt eigentlich nur der "Vorname" der Karte (also ATI oder nVidia). Durch die Nummerierung steigt der Dau sowiso nicht durch...

J.S.Shadow

Hauwech
2004-03-19, 17:15:09
Original geschrieben von r@w
Oh doch, das ist mein ernst !
Und es war hoffentlich nicht Dein ernst, dass ATI jetzt eine (Consumer-)GraKa für 800€ los werden würde... das hat nicht mal nVidia damals mit der gf2u geschafft... da waren's 'nur' 750€ (oder eben 1500 Märker ;-).
An den High-End-(Enthusiast-)Karten hat man noch nie sonderlich viel verdient.
Sie sind allesamt Prestige-Objekte feinster Coleur...

Schließlich sollen die 'Großen' ja die 'Kleinen' verkaufen. Was im Falle von NV40 oder R420 eher kontraproduktiv ist, da die Kleinen ja noch gar nicht verfügbar sind.

Razor

Wenn die Großen die Kleinen verkaufen dann wundert mich warum nVidia so erfolgreich mit der 5200er ist obwohl sie nicht nur ein halbes Jahr im Rueckstand waren sondern am Anfang die viel gepriesene DX9 Geschwindigkeit im Vergleich zur R3xx auch recht bescheiden war. Da haette sich die 90/91/9200 ja wie bloed verkaufen muessen, oder nicht? Erklaer mal..

GRiNSER
2004-03-19, 19:02:03
Original geschrieben von Hauwech
Wenn die Großen die Kleinen verkaufen dann wundert mich warum nVidia so erfolgreich mit der 5200er ist obwohl sie nicht nur ein halbes Jahr im Rueckstand waren sondern am Anfang die viel gepriesene DX9 Geschwindigkeit im Vergleich zur R3xx auch recht bescheiden war. Da haette sich die 90/91/9200 ja wie bloed verkaufen muessen, oder nicht? Erklaer mal..
Hier zählt mehr das Feature DirectX 9 und mit der marke GeForce meinen die meisten Kunden ne super karte zu haben, weil die ja schon immer besten waren...
wenn ATi ne wirkliche DX9 low-end-karte hätte, dann würde das wohl dort die marktverteilung auch ein wenig anders aussehen - wahrscheinlich so wie im mid-range segment, wo ja ATi eindeutig vorne ist...

Gast
2004-03-19, 19:03:27
Original geschrieben von Hauwech
Wenn die Großen die Kleinen verkaufen dann wundert mich warum nVidia so erfolgreich mit der 5200er ist obwohl sie nicht nur ein halbes Jahr im Rueckstand waren sondern am Anfang die viel gepriesene DX9 Geschwindigkeit im Vergleich zur R3xx auch recht bescheiden war. Da haette sich die 90/91/9200 ja wie bloed verkaufen muessen, oder nicht? Erklaer mal..

Die 90/91/9200 sind einfach zu schlecht. Hätten sie DX9 gehabt, hätten sie sich auch besser verkauft auch wenns langsamer als das der FX5200 gewesen wäre.
ATI hat da aber geschlafen.
Sollten sie nicht nochmal tun.

Im HIgh End kann sich schnell mal was ändern und dann gehts verdammt schnell und man verliert wieder Marktanteile.

AlfredENeumann
2004-03-19, 20:50:32
Original geschrieben von Gast
Hat man ja aktuell gesehen. NV verkauft an OEMs weiterhin deutlich mehr als ATI. Grund: Überlegenes Marketing / sehr gute Margen bei FX5200.



Wäre mir neu das die GP% bei NV Hardware größer ist als bei anderen.

AlfredENeumann
2004-03-19, 20:52:03
Original geschrieben von r@w

An den High-End-(Enthusiast-)Karten hat man noch nie sonderlich viel verdient.
Sie sind allesamt Prestige-Objekte feinster Coleur...



Auch an dich. Ich frage mich dann wo ATI die ganze Kohle her hat, weil ja anscheinend die Dx8er Karten ja nicht so doll lauffen sollen und sie ja DX9 nur im Highend und obern midrange anfangs hatten.

ow
2004-03-19, 21:54:09
Original geschrieben von Gast
wer Marktanteile gewinnen will um seine Position zu manifestieren, der wartet nicht einfach mit einem fertigen Produkt, das alle aktuellen Konkurenzprodukte in den Schatten stellt.
Wenn ATIs R420 fertig wäre, so dass sie ihn morgen ausliefern könnten, würden sie ihn sofort launchen um das Zeitfenster vorm Konkurenten so gut wie möglich zu nutzen.
Das selbe gilt für Nvidia.

Womit feststeht, dass beide NICHT fertig sind. Mit fertig meine ich, dass die Produkte insoweit vorangeschritten sind, dass ab morgen der produktive Verkauf beginnen kann.


Full ack. Genau dieser Meinung bin ich auch.
Im Prinzip verlieert der R420 wenn er denn fertig wäre mit jedem weiteren Tag Verzögerung nur an Wert. Aber ich wiederhole mich jetzt ja schon.

ow
2004-03-19, 21:57:23
Original geschrieben von Gast
Genau das wollte ich lesen. Es ist aber doch sehr schwierig (wenn wir mal von ow´s Sicht ausgehen), einem Dau zu erklären, dass er 800 EUR für eine Karte ausgeben muss. Meinst du nicht ? Genau deshalb macht es für mich keinen Sinn High-End noch größer aufzuspalten.

Wieso High-End weiter aufspalten?

Der R420 würde alles andere um eine Klasse degradieren.
Es wäre IMO durchaus schmerzlich für NV, wenn der R420 jetzt schon verfügbar wäre, der Absatz an NV3x HW könnte da schon nicht unerheblich drunter leiden. Oder der Preis muss weiter runter. Und da ist dann irgendwo die Grenze der Wirtschaftlichkeit erreicht.

ow
2004-03-19, 21:59:54
Original geschrieben von Gast
Dein Vergleich hinkt ow, damals hatte ATI (wie du in deinem Post schreibst) keine konkurrenzfähige HW -> NV kann also astronomische Preise verlangen. Das gleiche hat sich bei iNTEL jahrelang abgespielt, jetzt bekommst du einen P4-Northwood / Prescott nachgeschmissen.

Was soll an dem Vergleich hinken?
Das ist doch genau die Situation wie sie sich jetzt darstellen würde, wenn der R420 verfügbar wäre:
NV nicht konkurrenzfähig und ATi könnte astronomische Preise für den R420 verlangen und die würden auch bezahlt werden.

ow
2004-03-19, 22:03:57
Original geschrieben von r@w
Oh doch, das ist mein ernst !
Und es war hoffentlich nicht Dein ernst, dass ATI jetzt eine (Consumer-)GraKa für 800€ los werden würde... das hat nicht mal nVidia damals mit der gf2u geschafft... da waren's 'nur' 750€ (oder eben 1500 Märker ;-).
An den High-End-(Enthusiast-)Karten hat man noch nie sonderlich viel verdient.
Sie sind allesamt Prestige-Objekte feinster Coleur...


Wie bitte? Ich gehe davon aus, dass bis zu 1000€ für einen R420 bezahlt werden würden.


Schließlich sollen die 'Großen' ja die 'Kleinen' verkaufen. Was im Falle von NV40 oder R420 eher kontraproduktiv ist, da die Kleinen ja noch gar nicht verfügbar sind.

Razor

Wieso kontraproduktiv?
Das Prestigte macht es und da spielt es keine so grosse Rolle, was für Chips den auf den kleinen Karten sitzt. Das können für den Anfang bis zur Verfügbarkeit der neuen kleinen Chips immer noch RV3xx oder NV3x Chips sein.

StefanV
2004-03-19, 22:04:52
Original geschrieben von ow
Wie bitte? Ich gehe davon aus, dass bis zu 1000€ für einen R420 bezahlt werden würden.

Ich nicht, ich gehe eher von ~500€ aus, höchstens.

ShadowXX
2004-03-19, 22:13:06
Original geschrieben von Stefan Payne
Ich nicht, ich gehe eher von ~500€ aus, höchstens.

Du vielleicht nicht...viele andere auch nicht (nicht mal ich und ich werde in dem Bereich eigentlich als Wahnsinniger bezeichnet)...aber es gibt durchaus welche, die diesen Preis bezahlen würden (haben auch manche ne GF3 für 1400DM bzw. ne GF2Ultra für 1200DM gekauft).

Das sind die gleichen, die auch einen P4 EE kaufen....

Wir sind Preislich nur momentan etwas verwöhnt...

J.S.Shadow

(del676)
2004-03-19, 22:19:04
Original geschrieben von ow
Wie bitte? Ich gehe davon aus, dass bis zu 1000€ für einen R420 bezahlt werden würden.



Wieso kontraproduktiv?
Das Prestigte macht es und da spielt es keine so grosse Rolle, was für Chips den auf den kleinen Karten sitzt. Das können für den Anfang bis zur Verfügbarkeit der neuen kleinen Chips immer noch RV3xx oder NV3x Chips sein.

bei 1000€ sehe ich kein problem, wer ned immer das neueste vom neuesten haben will muss es ja ned kaufen, nur müsste der vorsprung von ati schon enorm sein damit eine karte um 1000€ wirklich absatz findet (mal angenommen die nv würde dabei bei 500€ bleiben)

StefanV
2004-03-19, 22:20:03
Original geschrieben von ShadowXX
Du vielleicht nicht...viele andere auch nicht (nicht mal ich und ich werde in dem Bereich eigentlich als Wahnsinniger bezeichnet)...aber es gibt durchaus welche, die diesen Preis bezahlen würden (haben auch manche ne GF3 für 1400DM bzw. ne GF2Ultra für 1200DM gekauft).

Das sind die gleichen, die auch einen P4 EE kaufen....

Wir sind Preislich nur momentan etwas verwöhnt...

J.S.Shadow

Stimmt, nur warum sollte man so einen astronomischen Preis verlangen??
Außer wenn man selbst weiß, daß man nicht wirklich liefern kann?? *eg*

Achja: AMD macht das gerne mal, die Preise von den Produkten, die sie eigentlich nicht verkaufen möchten, etwas höher anzusetzen, z.B. beim K6-3 machten sie es...

Kaufen würd das z.B. jemand, der mit dem Rechner Geld verdient und jede gesparte Minute mehrere €uronen bedeuten, für die würd sich das High End Modell auch durchasu lohnen...

Original geschrieben von Ulukay
bei 1000€ sehe ich kein problem, wer ned immer das neueste vom neuesten haben will muss es ja ned kaufen, nur müsste der vorsprung von ati schon enorm sein damit eine karte um 1000€ wirklich absatz findet (mal angenommen die nv würde dabei bei 500€ bleiben)

Das ist ein weiterer Punkt, bei dem ich dir übrigens völlig zustimmen muss...

Die 1000€ kann man nur dann wirklich verlangen, wenn man ein Produkt hat, das der Konkurenz förmlich nakig macht, nur davon gehe ich ehrlich gesagt eher weniger aus...




Allerdings sollten wir alle erstmal abwarten und die ersten Tests der Produkte abwarten...
Außerdem rückt solangsam auch die Leistungsaufnahme der Produkte mehr und mehr in den Mittelpunkt, zumindest in Europa, was auch wünschenswert ist...

ow
2004-03-19, 22:33:26
Original geschrieben von Ulukay
bei 1000€ sehe ich kein problem, wer ned immer das neueste vom neuesten haben will muss es ja ned kaufen, nur müsste der vorsprung von ati schon enorm sein damit eine karte um 1000€ wirklich absatz findet (mal angenommen die nv würde dabei bei 500€ bleiben)


Ich gehe schon davon aus dass der R420 signifikant mehr leistet als die aktuelle High-End HW. Und da ist auch ein sehr hoher Preis gerechtfertigt.
Ich zieh hier mal wieder einen Vergleich, und zwar den zu GF3ti200 und ti500...oder auch GF4ti4200 und 4600.
Die Preis- und Leistungsunterschiede brauch ich ja wohl nicht zu erwähnen. Es wird hier für wenig Mehrleistung schon ein viel höherer Preis bezahlt.
Wieviel wird dann erst für eine viel viel höhere Leistung bezahlt werden..?

ow
2004-03-19, 22:36:18
Original geschrieben von Stefan Payne

Die 1000€ kann man nur dann wirklich verlangen, wenn man ein Produkt hat, das der Konkurenz förmlich nakig macht, nur davon gehe ich ehrlich gesagt eher weniger aus...




Das erstaunt mich jetzt aber doch sehr.
Es geht hier um die Annahme, dass der R420 einige Zeit vor dem NV40 erscheinen würde.

ShadowXX
2004-03-19, 22:39:38
Und ich oute mich hier mal alls einer der durchaus bis zu 800 Euronen auf den Tisch legen würde...wenn die Leistung in den Bereichen ist, die ow anspricht.

J.S.Shadow

P.S.
bei 1000 hört der spass dann allerdings auf...

ow
2004-03-19, 22:48:04
Hehe....und ich kann mich nicht erinnern, für irgendeine Graka je mehr als 100€ (nein, da fehlt keine Null) ausgegeben zu haben.:D:D

StefanV
2004-03-19, 23:01:07
Original geschrieben von ow
Das erstaunt mich jetzt aber doch sehr.
Es geht hier um die Annahme, dass der R420 einige Zeit vor dem NV40 erscheinen würde.

Mag sein, diese Annahmen stammen aber eigentlich nicht von mir...

(del676)
2004-03-19, 23:11:03
Original geschrieben von ow
Ich gehe schon davon aus dass der R420 signifikant mehr leistet als die aktuelle High-End HW. Und da ist auch ein sehr hoher Preis gerechtfertigt.
Ich zieh hier mal wieder einen Vergleich, und zwar den zu GF3ti200 und ti500...oder auch GF4ti4200 und 4600.
Die Preis- und Leistungsunterschiede brauch ich ja wohl nicht zu erwähnen. Es wird hier für wenig Mehrleistung schon ein viel höherer Preis bezahlt.
Wieviel wird dann erst für eine viel viel höhere Leistung bezahlt werden..?

also ich hab für die TI500 500€ und für die ti4600 auch 500 gezahlt - obwohl da sehr viel mehrleistung drin is - das is halt der normale generationensprung

Sphinx
2004-03-20, 00:22:41
Original geschrieben von Ulukay
also ich hab für die TI500 500€ und für die ti4600 auch 500 gezahlt - obwohl da sehr viel mehrleistung drin is - das is halt der normale generationensprung

Meine R97ooPro hat mich 465 Euro gekostet ,) aber jeden Tag köstlich genossen bis jetzt ,) so lange hatte ich noch nie eine Graphikkarte im Rechner

Ailuros
2004-03-20, 01:02:22
Original geschrieben von Gast
@AiL:

Das hat wirtschaftliche Gründe. Und ja, es ist Absicht. Es macht einfach keinen Sinn, im Enthusiast-Segment zwei oder mehr Produkte anzubieten, noch dazu wenn man derzeit sehr gut in diesem Bereich positioniert ist.

ATI wartet derzeit auf die öffentliche Vorstellung des NV40, und dann werden auch sie ihre bereits seit einigen Wochen fertige HW vorstellen.

Ich weiss zwar nicht woher das Geruecht kommen soll aber nach meinem Wissen ist es bei beiden IHVs NICHT der Fall. Meine eigene Spekulation ist die Wartezeit bis zu besserer GDDR3 Verfuegbarkeit. NV40 wird hauptsaechlich mit SAMSUNG ram gefuettert und diese hatte in letzter Zeit (aus unbekannten Gruenden) sehr grosse Lieferungsprobleme und das nicht nur mit Speicherchips.

Ailuros
2004-03-20, 01:08:38
Original geschrieben von ow
Das erstaunt mich jetzt aber doch sehr.
Es geht hier um die Annahme, dass der R420 einige Zeit vor dem NV40 erscheinen würde.

Wenn meine ram-Theorie stimmen sollte, dann sieht es IMHO etwa zur gleichen Zeit fuer beide aus. Dass beide nicht ihre Ziele einhalten koennen, muss auf jeden Fall an unkontrollierbaren (von den IHVs) Faktoren liegen.

Odal
2004-03-20, 06:02:58
also meine meinung ist das es sich kein GraKa hersteller leisten kann die kommenden fuer 1000 euros zu verkaufen


warum? - ganz einfach die presse wuerde ihn zerreissen....die karten muessten schon um ein vielfaches schneller sein...

zum releasetermin:

natuerlkich wird keiner so dumm sein und seine karten kuenstlich zurueckhalten...je eher man sie raus hat desto eher bauen entwickler sie ein und optimieren...das ist ein entscheidener vorteil

desweiteren ist es so wie erwaehnt...das der DAU eben wissen will wer die "besseren" karten hat...da heisst es dann NVidia oder ATi...
die generation spielt dann keine rolle...

nvidia lowend karten wuerden sich auch viel schlechter verkaufen (nur weil die topprodukte minimal langsamer als die von Ati sind) haetten sie nicht einen guten ruf aus der vergangenheit...

ShadowXX
2004-03-20, 08:25:10
Original geschrieben von Odal
also meine meinung ist das es sich kein GraKa hersteller leisten kann die kommenden fuer 1000 euros zu verkaufen


warum? - ganz einfach die presse wuerde ihn zerreissen....die karten muessten schon um ein vielfaches schneller sein...

zum releasetermin:

natuerlkich wird keiner so dumm sein und seine karten kuenstlich zurueckhalten...je eher man sie raus hat desto eher bauen entwickler sie ein und optimieren...das ist ein entscheidener vorteil

desweiteren ist es so wie erwaehnt...das der DAU eben wissen will wer die "besseren" karten hat...da heisst es dann NVidia oder ATi...
die generation spielt dann keine rolle...


Du hast natürlich Recht...es ist nur so, das es durchaus welche gibt, die mehr als 500 Euro bezahlen würden, falls Sie eine der Karten sehr früh bekommen würden könnten....

Wobei 1000 überzogen wäre....


nvidia lowend karten wuerden sich auch viel schlechter verkaufen (nur weil die topprodukte minimal langsamer als die von Ati sind) haetten sie nicht einen guten ruf aus der vergangenheit...

ack....

J.S.Shadow

r@e
2004-03-20, 11:38:41
Original geschrieben von ow
Wie bitte? Ich gehe davon aus, dass bis zu 1000€ für einen R420 bezahlt werden würden.Original geschrieben von Stefan Payne
Ich nicht, ich gehe eher von ~500€ aus, höchstens. Ist wirklich selten... aber hier stimme ich SP vollumfänglich zu !
Original geschrieben von ow
Wieso kontraproduktiv?
Das Prestigte macht es und da spielt es keine so grosse Rolle, was für Chips den auf den kleinen Karten sitzt. Das können für den Anfang bis zur Verfügbarkeit der neuen kleinen Chips immer noch RV3xx oder NV3x Chips sein. Klar, deswegen verkaufen sich ATI's 'Kleine' ja auch so gut...

Razor

r@e
2004-03-20, 11:53:57
Original geschrieben von Ulukay
also ich hab für die TI500 500€ und für die ti4600 auch 500 gezahlt - obwohl da sehr viel mehrleistung drin is - das is halt der normale generationensprung Original geschrieben von Sphinx
Meine R97ooPro hat mich 465 Euro gekostet ,) aber jeden Tag köstlich genossen bis jetzt ,) so lange hatte ich noch nie eine Graphikkarte im Rechner Hmmm...

Also das teuerste war noch immer damals meine TNT/Voodoo2-Kombo, die so mit ca. 950 (DM!) daher gekommen ist, den Platz 2 nimmt meine gute alte gf3 ein, die mit 890 (DM!) zu Buche geschlagen ist... dann mit etwas Abstand die gute gfddr mit 650 (DM!) und schlussendlich die FX5900 welche dann mit 316 (Euro ;-) das Schlußlich bildete.

Und abgesehen von der FX5900 waren dies IMMER High-End-Systeme... warum also sollte ich über 1000 (DM!) für 'ne GraKa ausgeben ?

Die gf3 hat niemals weit über 100DM gekostet (ist schon vor dem eigentlichen Release unter 1000 gefallen, die 1400 waren nur ein angenommener Marktpreis) Und diejenigen, die sich damals 'ne gf2u für 1200 (und mehr) gekauft haben, habe ich schlicht für verrückt erklärt (und ich habe recht behalten ;-), man erinnere sich vielleicht noch an die guten alten 3DConcept-Zeiten...

Wie auch immer, die heutigen High-Ender (R9800XT, FX5950u für kanpp unter 500€) liegen schon hart an der Schmerzgrenze, wenn auch nicht ungewöhnlich hoch, wenn man in die Vergangenheit schaut... warum sollte sich dies ändern ? Die einzige Karten, die mal in die Region 800€ gekommen sind, Waren wassergekühllösungen von Gainward oder Terratek und die wollen wir hier ja wohl nicht betrachten, oder ?

Ich gehe davon aus, dass zumindest das Gerücht über die 'Neuen' von nVidia stimmt: High-End für 500€, Mainstream für 300€. Und ATI wird davon sicher nicht zu sehr abweichen... ;)

Alles andere ist reine Spekulation, die zudem noch jeder (!) Grundlage entbehrt !

Razor

mapel110
2004-03-20, 12:34:38
http://www.elitebastards.com/#news3992
Halo ( no AA, 8x AF ) 1600x1200 51.1fps
Far Cry ( no AA, no AF ) 1600x1200 53.4fps
UT2004 ( 4xAA, 4xAF ) 1600x1200 71.9fps - 1280x960 82.9fps ( both botmach )
Star Wars Kotor ( 4xAA, 8xAF ) 1600x1200 49.3fps

Zahlen schon bekannt?

/edit
hm, also wenn die Zahlen nicht gefaked sind.....

Halo 20-22 fps bei Radeon 9800XT/GeforceFX5950 und 1600er/4xAF
http://www.3dcenter.org/artikel/r9800xt_vs_gffx5950u/index14.php

Farcry 35 fps auf Radeon 9800 XT
http://www.xbitlabs.com/articles/video/display/ati-nvidia-roundup_9.html

Kotor 25 fps auf Radeon 9800 XT
http://www.xbitlabs.com/articles/video/display/ati-nvidia-roundup_16.html

Also für mich siehts klar nach Fake aus, aber mal schauen.

Gast
2004-03-20, 12:52:03
Could we possibly get a 3dm2k1se and 3dm2k3 score?


Yes but there is no link, you can guess that he wasn't able to public that score...... but more than 36K, 3dmark03 didn't run, give him an error of non detectable device....


Quelle:
http://www.elitebastards.com/forum/viewtopic.php?t=3992

LovesuckZ
2004-03-20, 12:58:17
Original geschrieben von mapel110
Zahlen schon bekannt?


ja.

Winter[Raven]
2004-03-20, 12:59:17
Also 36000 Punkte sind aber wirklich etwas ZUVIEL. Entweder übernimmt der Nv40 irgend eine Funktion zur CPU Entlastung oder es ist ein Fake ...!

Godmode
2004-03-20, 13:02:02
Original geschrieben von Gast
but more than 36K


Was soll das heißen?? Mehr als 36k?? 40k? also das hört sich schon etwas nach fake an.

Wie war das beim NV30 damals, haben da auch alle schon so überwältigende Zahlen gepostet?

Winter[Raven]
2004-03-20, 13:04:17
haben da auch alle schon so überwältigende Zahlen gepostet?

Jep, da waren Zahlen zwischen 20k und 30k im Umlauf .................................................................. :O:O:crazy::weg:

Gast
2004-03-20, 13:07:32
System war ein Athlon64 3200+. Über 36000 Punkte beim sehr CPU-lastigen 3DMark2001 sind also sehr unwahrscheinlich.

GRiNSER
2004-03-20, 13:08:32
ja vielleicht is das ja ein bench von 320x240 @ low quality :asshole:

[wahrscheinlich würde man nicht mal da solche werte zusammenbekommen :bäh:]

Iceman346
2004-03-20, 13:10:38
Original geschrieben von mapel110

UT2004 ( 4xAA, 4xAF ) 1600x1200 71.9fps - 1280x960 82.9fps

Vor allem über diese Zahlen wird bei B3D grade groß gestritten ;)
Angeblich sind die Zahlen auf einem Dual Athlon 64 System entstanden, allerdings nutzt UT2004 keine 2 CPUs und für einen Botmatch sind die Werte einfach viel zu hoch, da Botmatches immer CPU limitiert sind.

Winter[Raven]
2004-03-20, 13:13:01
dual ? ... Also was ich mitbekomme hbae so geht es um nur Singel Atlon64 ;)

Exxtreme
2004-03-20, 13:14:29
Original geschrieben von Winter[Raven]
Also 36000 Punkte sind aber wirklich etwas ZUVIEL. Entweder übernimmt der Nv40 irgend eine Funktion zur CPU Entlastung oder es ist ein Fake ...!
Also zumindest bei einem DX8 und DX9-Programm kann AFAIK die GPU keine "zusätzlichen" Funktionen übernehmen ohne, daß es Schwierigkeiten geben könnte. Die CPU wird schon sewit entlastet wie es geht. Deswegen glaube ich auch en einen Fake denn der 3DM01 ist schon heftig CPU-limitiert.

Iceman346
2004-03-20, 13:23:10
Original geschrieben von Winter[Raven]
dual ? ... Also was ich mitbekomme hbae so geht es um nur Singel Atlon64 ;)

Wurde später korrigiert, Seite 5:
Okay, I got some clarification on the CPU speed/botmatch controversy. The system specs were not accurate for Painkiller and UT2004--for these, a dual Opteron machine was used (workstation, probably). The rest of the scores were done on the more reasonable machine posted before. Remember, the card was only in the tester's possession for two days, so I imagine he took it between home and work.

Demirug
2004-03-20, 13:23:47
Original geschrieben von Exxtreme
Also zumindest bei einem DX8 und DX9-Programm kann AFAIK die GPU keine "zusätzlichen" Funktionen übernehmen ohne, daß es Schwierigkeiten geben könnte. Die CPU wird schon sewit entlastet wie es geht. Deswegen glaube ich auch en einen Fake denn der 3DM01 ist schon heftig CPU-limitiert.

Eine Karte kann nur die Arbeit übernehmen welche ihr über die API zugeführt wird. Alles was der 3dmark2001 nutzt wird aber schon länger vollständig durch die Karten beschleunigt. CPU-lastigkeit lässt sich also nur reduzieren wenn man den Treiber weniger CPU-lastig macht.

Hat eigentlich mal jemand den 3dmark2001 gegen eine NULL-Karte laufen lassen?

Exxtreme
2004-03-20, 13:26:57
Original geschrieben von Demirug
Eine Karte kann nur die Arbeit übernehmen welche ihr über die API zugeführt wird. Alles was der 3dmark2001 nutzt wird aber schon länger vollständig durch die Karten beschleunigt. CPU-lastigkeit lässt sich also nur reduzieren wenn man den Treiber weniger CPU-lastig macht.

Hat eigentlich mal jemand den 3dmark2001 gegen eine NULL-Karte laufen lassen?
Thomas von tommti-systems hat das mal gemacht. IIRC hat er damals ca. 18.000 Punkte erreicht. Ist aber schon länger her.

Gast
2004-03-20, 13:33:39
Laut INQ gibt es wohl nur drei lauffähige Systeme auf der Cebit, welche auch stark bewacht werden und jeder Partner hat wohl nur 1,5 Stunden zur Besichtigung.

Quelle:
http://www.theinquirer.net/?article=14834

Wo haben die also den NV40 her und wieso hatten sie den angeblich ganze 2 Tage zum testen.

PS: Was man alles so in 2 Tagen so testen könnte!

Avalox
2004-03-20, 13:59:26
c't 7/04 Seite 30

ATI und nVidia kaum zeigefreudig.


ATI / nVidia haben wohl funktionsfähige Muster des
R420 und NV40 auf der Messe.

Ati hält den R420 bewust zurück, weil sich die Vorgänger
noch prächtig verkaufen.

nVidia hat Probleme auf höhere Takte zu kommen.
Der NV40 hat wohl 16 Pipelines und soll MPEG 1,2 und 4 dekodieren und KODIEREN können.


------------------------
Anmerkung von mir. Damit ist der NV40 die Killerapplikation für PCIe. NV40 Karten sollten demnach nur noch mit eingeschränkter Funktion auf einer AGP Karte möglich sein. Den Rest übernimmt die Presse.

In einen Jahr redet niemand mehr von AGP.

LovesuckZ
2004-03-20, 14:37:33
Original geschrieben von Gast
Wo haben die also den NV40 her und wieso hatten sie den angeblich ganze 2 Tage zum testen.

lauffaehige Karten gibt es schon seit Monaten. Sie meinen, sie haben eine vom A2 Stepping, es kann also sein, dass die Cebitkarten A3 sind.

thop
2004-03-20, 14:46:41
Avalox: Das ist eh relativ egal von was die Press redet. Ich lasse da lieber meinen Geldbeutel reden :) Was denkst du wieviel Leute extra wegen PCIe (bzw. extra wegen nV) nen neues Mobo kaufen? Insbesondere da so viele Leute hier mehr als glücklich mit dem NF7 sind.

Wenn man sich bei nV da mal nicht verschätzt (wenn es tatsächlich stimmt dass der NV40 auf AGP nicht seine volle Leistung zeigt). Der AGP Bus wird IMO fast so lange sterben wie der ISA Bus. Und es gibt immer noch Industrie Boards mit ISA Sots ;D

Terr0r
2004-03-20, 14:58:05
NV40 schon am 13 April

http://users.quick-line.ch/error/huhu/Unbenannt.JPG

http://pdxlan-dc.com/nvidia/news.php

Corrail
2004-03-20, 15:07:02
Original geschrieben von Avalox
...Ati hält den NV420 bewust zurück, weil sich die Vorgänger
noch prächtig verkaufen...


Kleiner Tippfehler? ;D

Avalox
2004-03-20, 15:48:17
hehe. Wenn Ati das könnte, würde die das auch tun.

Danke

Ailuros
2004-03-20, 17:24:43
Original geschrieben von LovesuckZ
lauffaehige Karten gibt es schon seit Monaten. Sie meinen, sie haben eine vom A2 Stepping, es kann also sein, dass die Cebitkarten A3 sind.

Frage heisst hier "lauffaehig" auch wenn re-spins notwendig sind, ie nicht alle bugs beseitigt sind? Waere er fertig vor ein paar Monaten gewesen, dann waere er heute schon auf Regalen.

deekey777
2004-03-20, 20:30:45
...

Edit: Diese News von http://www.nvnews.net/ ist besser:

The forums at Beyond3D have been in a feeding frenzy tonight as a member is serving a full course dinner based on information from someone with an A2 revision of NVIDIA's next-generation NV40 Graphics Processing Unit.
He starts off with a carefully crafted assualt by serving up an entree of three game screenshots that can be seen at this link ( http://vegetto.vtrbandaancha.net/ note that screenshots have been removed). But alas, the mystery man exits stage left, although he promises to return to serve the main course.

Let's see what we are having tonight.

NV40 revision A2 - clocked at 475MHz core and 1.2GHz memory (GDDR-3)

16 pipelines - 3DMark2001 single-texture fillrate of 7,010 MPixels/sec and multi-texture fillrate of 7,234 MPixels/sec

Pixel shader performance - ranges from 2.5X to 5X over GeForce FX 5950 Ultra (I've heard up to 7X in extreme cases)

Antialiasing in screenshots - 4X RGMS (rotated grid multi-sampling)

Max anisotropic filtering - 8X with tested driver, but might see 16X

Gameplay performance - 2.5X to 3X faster than GeForce FX 5950 Ultra using high resolutions with AA and AF

Image quality - "far far better"
Will you be having dessert tonight sir? Sure, why not.

Halo - 1600x1200 - no AA/8X AF - 51.1fps

Far Cry - 1600x1200 - no AA/no AF - 53.4fps

UT2004 Botmatch - 1600x1200 - 4X AA/4X AF - 71.9fps, 1280x960 - 82.9fps

Star Wars Kotor - 1600x1200 - 4X AA/8X AF - 49.3fps
System Specs - Athlon 64 3200+, Gigabyte GA-K8VT800 (VIA KT880) Mainboard, 1GB PC4000 RAM, 160GB SATA HDD.

Updated: UT2004 results are from a dual Opteron system. Mmm, double the helping!

MUYA: Those are impressive numbers. NV38 at 1600 by 1200 managed 25 fps in HALO while the R360 mustered 27 fps on an Athlon64 3200+ system without 8X AF applied.

MikeC: Although some of the NV40 specifications may be factual, I would discount the screenshots and benchmark results at this time due to insufficient information concerning the test conditions. However, graphics hardware that is capable of achieving that type of performance in Halo with PS 2.0 and high quality graphics settings would be impressive.

reunion
2004-03-20, 21:19:42
Original geschrieben von deekey777
...

Edit: Diese News von http://www.nvnews.net/ ist besser:

The forums at Beyond3D have been in a feeding frenzy tonight as a member is serving a full course dinner based on information from someone with an A2 revision of NVIDIA's next-generation NV40 Graphics Processing Unit.
He starts off with a carefully crafted assualt by serving up an entree of three game screenshots that can be seen at this link ( http://vegetto.vtrbandaancha.net/ note that screenshots have been removed). But alas, the mystery man exits stage left, although he promises to return to serve the main course.

Let's see what we are having tonight.

NV40 revision A2 - clocked at 475MHz core and 1.2GHz memory (GDDR-3)

16 pipelines - 3DMark2001 single-texture fillrate of 7,010 MPixels/sec and multi-texture fillrate of 7,234 MPixels/sec

Pixel shader performance - ranges from 2.5X to 5X over GeForce FX 5950 Ultra (I've heard up to 7X in extreme cases)

Antialiasing in screenshots - 4X RGMS (rotated grid multi-sampling)

Max anisotropic filtering - 8X with tested driver, but might see 16X

Gameplay performance - 2.5X to 3X faster than GeForce FX 5950 Ultra using high resolutions with AA and AF

Image quality - "far far better"
Will you be having dessert tonight sir? Sure, why not.

Halo - 1600x1200 - no AA/8X AF - 51.1fps

Far Cry - 1600x1200 - no AA/no AF - 53.4fps

UT2004 Botmatch - 1600x1200 - 4X AA/4X AF - 71.9fps, 1280x960 - 82.9fps

Star Wars Kotor - 1600x1200 - 4X AA/8X AF - 49.3fps
System Specs - Athlon 64 3200+, Gigabyte GA-K8VT800 (VIA KT880) Mainboard, 1GB PC4000 RAM, 160GB SATA HDD.

Updated: UT2004 results are from a dual Opteron system. Mmm, double the helping!

MUYA: Those are impressive numbers. NV38 at 1600 by 1200 managed 25 fps in HALO while the R360 mustered 27 fps on an Athlon64 3200+ system without 8X AF applied.

MikeC: Although some of the NV40 specifications may be factual, I would discount the screenshots and benchmark results at this time due to insufficient information concerning the test conditions. However, graphics hardware that is capable of achieving that type of performance in Halo with PS 2.0 and high quality graphics settings would be impressive.

Also jetzt bin ich entgültig verwirrt :balla:

Zuerst hört man beeindruckende Zahlen mit 210Mio Transistoren und 16pipes, dann wurde gesagt dass es nicht zu 8x2 reichen würde und jetzt sind es auf einmal wieder 16pipes ?-)

Haltet ihr diese zahlen für realistisch?
Also ich warte jetzt endgültig auf den 13. April und dann wird man ja sehen wieviel davon noch übrig bleibt ;)

:popcorn:

Demirug
2004-03-20, 21:45:45
Nun ja, mit der doppelten Füllrate könnte man ja schon einiges anfangen.

Die Zahlen bei 3DMark2001 single-texture fillrate test sind aber nur erreichbar wenn der Chip eine Kompression auch ohne AA hat.

reunion
2004-03-20, 21:51:08
Original geschrieben von Demirug
Nun ja, mit der doppelten Füllrate könnte man ja schon einiges anfangen.

Die Zahlen bei 3DMark2001 single-texture fillrate test sind aber nur erreichbar wenn der Chip eine Kompression auch ohne AA hat.

Und wie erklärst du die 36K beim 3dmark01? ;)
Wir werden ja sehn wieviel davon noch übrig bleibt.

Aber wie schon gesagt mich erinnert das ganze zu stark an den nV30...

deekey777
2004-03-20, 21:57:52
Und wie erklärst du die 36K beim 3dmark01?

Wo hast du das her?

ShadowXX
2004-03-20, 22:06:49
Original geschrieben von deekey777
Wo hast du das her?

Das kommt aus irgeneinem der anderen Threads hier....soll auch von dem/denen gepostet worden sein...

Und genau dieser 01SE Score macht es in meinen Augen unglaubwürdig...ausserdem blieben Sie dann den 03 Score schuldig, da lt. ihren Angaben dieser mit einer Fehlermeldung das das Programm das Device nicht kennt abbrach...

//edit: uppss sehe gerade das es sogar in diesem Thread irgendwo stehen müsste...

robbitop
2004-03-20, 22:14:52
ich bin bei alledem sehr skeptisch.
1. widersprechen die Aussagen ein paar Fakten
2. wie kommt man ohne NDA an einen NV40 ran?

Wer diese beiden Stichpunkte mal durchdenkt, kann sich ausdenken, wie wahrscheinlich das ganze ist.

das war mein Senf dazu

zumal 16 colorops etwas anderes sind als 16 vollständige Pipelines mit je 2 FPUs und je einer ROP und je einem MSAA Sampler usw. NV31/36 kann unter Singletexturing auch 4 Colorops/takt

@Demi
schafft NV31/36 bei Multitexturing nur einen Quad in 2 Takten?

Demirug
2004-03-20, 22:16:39
Original geschrieben von reunion
Und wie erklärst du die 36K beim 3dmark01? ;)
Wir werden ja sehn wieviel davon noch übrig bleibt.

Aber wie schon gesagt mich erinnert das ganze zu stark an den nV30...

Die 36K kann ich nicht erklären. Ich hatte an dieser Stelle im Thread auch irgendwie den Eindruck als würde er da nur aus der Erinnerung schreiben. Wie sich ja später heraus stellte hatte er nicht selbst die Karte sondern ein Verwanter. Mit den anderen Zahlen kann es deshalb ähnlich sein. Ich bezog meine Aussage auch er auf das

"2.5X to 3X faster than GeForce FX 5950 Ultra using high resolutions with AA and AF"

Bei Angaben zu Spielen ohne die genaue Situationsangabe kann das doch sowieso alles bedeuten.

Demirug
2004-03-20, 22:20:15
Original geschrieben von robbitop
@Demi
schafft NV31/36 bei Multitexturing nur einen Quad in 2 Takten?

Im Prinzip ja. Wobei es ja keinen Unterschied macht ob nun ein halber Quad pro Takt oder 1 Quad in 2 Takte bearbeitet wird. Am Ende kommt sowieso das gleiche heraus.

ShadowXX
2004-03-20, 22:44:13
Original geschrieben von Demirug
Die 36K kann ich nicht erklären. Ich hatte an dieser Stelle im Thread auch irgendwie den Eindruck als würde er da nur aus der Erinnerung schreiben. Wie sich ja später heraus stellte hatte er nicht selbst die Karte sondern ein Verwanter. Mit den anderen Zahlen kann es deshalb ähnlich sein. Ich bezog meine Aussage auch er auf das

"2.5X to 3X faster than GeForce FX 5950 Ultra using high resolutions with AA and AF"

Bei Angaben zu Spielen ohne die genaue Situationsangabe kann das doch sowieso alles bedeuten.

Oder der nette Verwandte hat ihm diese Werte nur per Telefon mitgeteilt...tschuldigung...das hört sich immer mehr nach Fake an...und ich werde immer sarkastischer...

Ich will jetzt nur noch die INQ Meldung, das der Chip ein 512Bit Speicherinterface hat und Kaffee kochen kann...

J.S.Shadow

Winter[Raven]
2004-03-20, 22:46:23
Kaffee kochen kann

Also Kaffee kochen kann es bei >115 watt sicherlich! *eg*

Demirug
2004-03-20, 22:48:23
Original geschrieben von ShadowXX
Ich will jetzt nur noch die INQ Meldung, das der Chip ein 512Bit Speicherinterface hat und Kaffee kochen kann...

J.S.Shadow

Ach so funktioniert die Kühlung. Wie viel Liter schafft das Teil den so pro Stunden? Hängt wahrscheinlich vom Spiel ab. Wird das Kaffeoutmodul eigentlich als einschub für einen Laufwerksrahmen oder als Beistellgerät geliefert?

*scnr*

Quasar
2004-03-21, 01:19:15
Original geschrieben von reunion
Und wie erklärst du die 36K beim 3dmark01? ;)

Was schaffen momentan krass übertaktete High-End Systeme so? 22k?

Sagen wir mal, die hier kursierenden Gerüchte stimmen z.T. und der nV40 wäre tatsächlich 5-7x schneller in Shaderlimitierten Situationen - dann hätten wir allein lockere 12000 3DMarks auf dem Nature-Test X-D

Demirug
2004-03-21, 01:29:05
Original geschrieben von Quasar
Was schaffen momentan krass übertaktete High-End Systeme so? 22k?

Sagen wir mal, die hier kursierenden Gerüchte stimmen z.T. und der nV40 wäre tatsächlich 5-7x schneller in Shaderlimitierten Situationen - dann hätten wir allein lockere 12000 3DMarks auf dem Nature-Test X-D

Nature scheint AFAIR sogar noch mit der Grafikkarte zu skalieren. Allerdings dürften sich die 5-7 mal schnelleren Shader nur beim PS 2.0 Einsatz auswirken.

War der Treibercheat bei Nature nicht in den Vertexshadern für die Blätter? Nature scheint irgendwie ein merkwürdiges Anforderungsprofil zu haben.

reunion
2004-03-21, 07:37:23
Original geschrieben von Demirug
Die 36K kann ich nicht erklären. Ich hatte an dieser Stelle im Thread auch irgendwie den Eindruck als würde er da nur aus der Erinnerung schreiben. Wie sich ja später heraus stellte hatte er nicht selbst die Karte sondern ein Verwanter. Mit den anderen Zahlen kann es deshalb ähnlich sein. Ich bezog meine Aussage auch er auf das

"2.5X to 3X faster than GeForce FX 5950 Ultra using high resolutions with AA and AF"

Bei Angaben zu Spielen ohne die genaue Situationsangabe kann das doch sowieso alles bedeuten.

Klar, könnten ein paar Zahlen hinkommen, nur erstens sind einige Zahlen (für mich) zu hoch, zweites verliert der Kerl kein Wort über die Kühlung, die ja bei einem 150W Chip sicherlich imposant ausfallen wird, drittens kann der Kerl gar nicht an die Karte rankommen, die nV sicherlich nicht so blöd ist und sich einen nV40 klauen lässt...

zeckensack
2004-03-21, 07:44:40
Original geschrieben von Quasar
Was schaffen momentan krass übertaktete High-End Systeme so? 22k?Spitzenreiter sind so ca 31k, mit krass übertakteten CPUs (P4@4,4GHz bzw AthlonFX@~3GHz) und ebenso krass übertakteten 9800XTs (>600MHz core).
In den Regionen sind die CPUs so dermassen wichtig, dass ich geneigt bin zu behaupten, dass es völlig unmöglich ist, auf einem A64 3200+ (wie angegeben) 36k zu schaffen. Auch wenn die Grafikkarte unendlich schnell ist (NUL device).
Sagen wir mal, die hier kursierenden Gerüchte stimmen z.T. und der nV40 wäre tatsächlich 5-7x schneller in Shaderlimitierten Situationen - dann hätten wir allein lockere 12000 3DMarks auf dem Nature-Test X-D Man könnte einfach in der nächsten Treiberserie die Cheats für die "alten" Karten deaktivieren (dürfte die Performance in Nature IMO um mindestens die Hälfte senken). So verleiht man dem Argument etwas mehr Gewicht X-D

Demirug
2004-03-21, 07:52:49
Original geschrieben von reunion
Klar, könnten ein paar Zahlen hinkommen, nur erstens sind einige Zahlen (für mich) zu hoch, zweites verliert der Kerl kein Wort über die Kühlung, die ja bei einem 150W Chip sicherlich imposant ausfallen wird, drittens kann der Kerl gar nicht an die Karte rankommen, die nV sicherlich nicht so blöd ist und sich einen nV40 klauen lässt...

Die Karte muss ja nicht bei nVidia geklaut worden sein. Man geht ja nach wie vor davon aus das Vorserienmodele an einige wichtige Entwickler verteilt wurden.

Es hat AFAIK dort keiner nach der Kühlung gefragt. Hätte man wohl tun sollen. Wobei es ja genau wie eine Watt angabe sich IMHO bestenfalls auf die Vorserie beziehen könnte.

Zu den Spielezahlen habe ich ja schon gesagt das solange man nicht genau weiss wie sie zustande gekommen sind und auf den gleichen System keine vergleiche angestellt wurden sind sie IMHO relative wertloss.

Demirug
2004-03-21, 08:19:40
Original geschrieben von zeckensack
Man könnte einfach in der nächsten Treiberserie die Cheats für die "alten" Karten deaktivieren (dürfte die Performance in Nature IMO um mindestens die Hälfte senken). So verleiht man dem Argument etwas mehr Gewicht X-D

Bei einer TI4600 ging es von 74,6 auf 42,8 zurück. Angeblich war dafür lediglich ein modifizierter Vertexshader verantwortlich. Es könnte natürlich sein das dieser Shader als Indikator für alle "Optimierungen" wirkt.

Ailuros
2004-03-21, 08:24:25
Original geschrieben von Demirug
Bei einer TI4600 ging es von 74,6 auf 42,8 zurück. Angeblich war dafür lediglich ein modifizierter Vertexshader verantwortlich. Es könnte natürlich sein das dieser Shader als Indikator für alle "Optimierungen" wirkt.

Nur mal so als Erinnerung fuer alle anderen, aber diesen Leistungsschub gab es nicht ausschliesslich bei NVIDIA, wenn es zu Nature/3dmark2k1 kommt.

Ailuros
2004-03-21, 08:27:11
Fehler macht jeder, aber fuer immer kann sich sowas nicht wiederholen:

multi-texture fillrate of 7,234 MPixels/sec

arggggghhhh....also bitte....
:(

Demirug
2004-03-21, 08:56:13
Original geschrieben von Ailuros
Fehler macht jeder, aber fuer immer kann sich sowas nicht wiederholen:



arggggghhhh....also bitte....
:(

Wenn man diese Fillrate nicht schafft machen 16 vollstände (PP+ROPs) Pipelines IMHO wenig Sinn. OK beim 3dmark2001 haben wir es zusätzlich mit Alpha-Blending zu tun. Mit etwas Kompression aber IMHO machbar. IN diesem Zusammenhang habe ich auch gerade noch an etwas hübsches erinnert.

Die Folien sind von der WinHEC 2002. Auf einer Folie zu Longhorn kann man das folgendes lesen.

"Longhorn" HW Recommendations

- Depth/Stencil buffer smaller than render target
- Lossless h/w surface compression
- These will become required in the "Blackcomb" timeframe

Die WinHEC 2002 war im Frühjahr 2002.

Ailuros
2004-03-21, 09:39:26
Uhhhm ich meinte eigentlich dass MT Fuellrate eigentlich in MTexels/sec angegeben sein sollte.....

Alle Indizien bis jetzt deuten auf zu wenig Bandbreite fuer diese Fuellraten (wenn wir schon dabei sind). 3dmark Fuellraten sagen mir momentan gar nichts. Unter Vorraussetzungen hab ich keine Zweifel dass Kompression helfen wuerde.

r@e
2004-03-21, 10:54:52
Original geschrieben von zeckensack
Spitzenreiter sind so ca 31k, mit krass übertakteten CPUs (P4@4,4GHz bzw AthlonFX@~3GHz) und ebenso krass übertakteten 9800XTs (>600MHz core).
In den Regionen sind die CPUs so dermassen wichtig, dass ich geneigt bin zu behaupten, dass es völlig unmöglich ist, auf einem A64 3200+ (wie angegeben) 36k zu schaffen. Auch wenn die Grafikkarte unendlich schnell ist (NUL device).Nun ja... es ist ja auch ein hochgezüchtets Dual-Opteron-System (auf 64Bit-OS mit 64-Bit-Treibern ?) im Gespräch... keine Ahnung, ob davon dann ein Murks01 'profitiert', wenn die GraKa nicht limitiert...

Und nur, damit keine falschen Gedanken aufkommen, diese Zahl halte ich derzeit für genauso 'real', wie alles andere, was man zu diesem Thema (i.e. ATI/nVidia 'NextGen') hört...
Original geschrieben von zeckensack
Man könnte einfach in der nächsten Treiberserie die Cheats für die "alten" Karten deaktivieren (dürfte die Performance in Nature IMO um mindestens die Hälfte senken). So verleiht man dem Argument etwas mehr Gewicht X-D Ich weiß schon, wie Du das meinst...
Aber für's erste würde es ja reichen, wenn man in den Synthies TRAoD (mit Absicht als erstes genannt ;-), Murks03-Nature/-PS2.0-Test, Shadermark2 und so... 'Punkten' kann.

Razor

StefanV
2004-03-21, 11:02:59
Original geschrieben von reunion
zweites verliert der Kerl kein Wort über die Kühlung, die ja bei einem 150W Chip sicherlich imposant ausfallen wird,

1. nunja, gehen wir mal von 30W Abwärme durch Chips Regler und sonstigem aus, dann bleiben 120W für den Chip...

2. 120W Abzuführen, mit einem kleinen Kühler ist nicht wirklich einfach, bei einer FX5950 verbrät der Chip pi mal Daumen ~80W...

3. entweder wird der Kühler VERDAMMT LAUT oder verdammt groß sein oder etwas von beidem (laut UND groß).

4. bei 120W Abwärme müsste die Abwärme gleich nach draußen transportiert werden, im Gehäuse kann man sie nicht wirklich lassen, da es das Gehäuse zu sehr aufheizen würde.

5. soviel zum Kühler...
Ein anderes Problem ist die Spannungsversorgung.

ersteinmal müsste man 2 unterschiedliche Kabel nehmen, an die man dann nicht wirklich was dranhängen kann.
Wenn man ein Kabel nimmt, dann könnte es unter Umständen vorkommen, daß das Kabel an gewissen Stellen etwas warm wird und anfängt zu brennen...

6. das Netzteil ist auch ein riesiges Problem...
Die CPUs alleine schlucken ja aktuell ~80-100W (bei vollast), die Combined Leistung ist meist auch bei ~200-250W, dazu kommt, daß auf dem Board noch ein paar Komponenten sind, die ebenfalls mächtig heizen (Spannungsregler, NB, neuerdings SB, Leitungsverluste), die ganzen Laufwerke, die auch ~5-10W Pro Gerät schlucken.

Das ganze kann dazu fürhen, daß einige Netzteile reihneweise ausfallen, die Netzteile garnicht erst angehen oder aber Abstürze und Bildfehler an der Tagesordnung liegen, bei aktuellen Systeme.

-> für einen NV40 darf man sich also gleich noch ein neues NT kaufen, welches auch 'nur' ~120€ kostet (sehr gute NTs der 400-450W Klasse)...

Wenn meine Befürchtungen wirklich eintreffen, dann frag ich mich, ob es wirklich viele gibt, die sich einen nV40 kaufen werden bzw behalten werden, wenn der R420 mit etwa der hälfte auskommen würde.

€dit:

Außerdem würde nV gut dran tun mit einem 'Voodoo Volts' anzutreten...

StefanV
2004-03-21, 11:04:11
Original geschrieben von r@e
Nun ja... es ist ja auch ein hochgezüchtets Dual-Opteron-System (auf 64Bit-OS mit 64-Bit-Treibern ?) im Gespräch... keine Ahnung, ob davon dann ein Murks01 'profitiert', wenn die GraKa nicht limitiert...

Der DUal Opteron bringt aber auch nur was, wenn die Software entsprechend für Dual Rechner (=mehrere Threads) optimiert wurde, was ich beim 3Dmark01 mal sehr stark bezweifle...

Demirug
2004-03-21, 11:07:01
Original geschrieben von r@e
Nun ja... es ist ja auch ein hochgezüchtets Dual-Opteron-System (auf 64Bit-OS mit 64-Bit-Treibern ?) im Gespräch... keine Ahnung, ob davon dann ein Murks01 'profitiert', wenn die GraKa nicht limitiert...

Gar nicht. 32 Bit Anwendungen werden mit einem 64Bit-OS CPU lastiger. Das einzige was von einer Dual-CPU profitieren könnte ist unter umständen der Treiber der bestimmte arbeiten auf die zweite CPU umlagert.

r@e
2004-03-21, 11:12:15
Original geschrieben von Demirug
Gar nicht. 32 Bit Anwendungen werden mit einem 64Bit-OS CPU lastiger. Das einzige was von einer Dual-CPU profitieren könnte ist unter umständen der Treiber der bestimmte arbeiten auf die zweite CPU umlagert. Wie gesagt...
Hier wären die genauen Hintergründe dieses 'Tests' (wenn es denn einer war ;-) interessant !
:D

Razor

r@e
2004-03-21, 11:15:06
@Payne

Viel Rauch um NICHTS !
Oder glaubst Du ernsthaft, dass Deine Überlegungen irgendwie mit der Realität in Einklang zu bringen sind ?

Warte doch einfach ab, bis es irgendetwas handfesteres gibt...
(auch wenn's Dich juckt, wieder über nVidia zu lästern ;-)

Razor

StefanV
2004-03-21, 11:22:45
Original geschrieben von r@e
@Payne
Oder glaubst Du ernsthaft, dass Deine Überlegungen irgendwie mit der Realität in Einklang zu bringen sind ?

Hab mir 'nur' meine Gedanken gemacht, wenn du anderer Meinung bist, dann poste doch mal deine Gedanken, wie man der enormen Abwärme der Karte Herr wird und was für Probleme es geben könnte :eyes:

r@e
2004-03-21, 11:27:29
Original geschrieben von Stefan Payne
Hab mir 'nur' meine Gedanken gemacht, wenn du anderer Meinung bist, dann poste doch mal deine Gedanken, wie man der enormen Abwärme der Karte Herr wird und was für Probleme es geben könnte :eyes: Das haben andere hier schon lääääängst gemacht, lieber Payne. Und nein, ich werde doch nicht auf Basis eines durch NICHTS belegten Faktums meine Zeit hier verschwenden...
:D

Razor

[dzp]Viper
2004-03-21, 11:29:52
Original geschrieben von r@e
Das haben andere hier schon lääääängst gemacht, lieber Payne. Und nein, ich werde doch nicht auf Basis eines durch NICHTS belegten Faktums meine Zeit hier verschwenden...
:D

Razor

warum bist du dann hier und diskutierst um NICHT BELEGTE FAKTEN mit? :|

irgendwie is deine ausrede scheinheilig :D

r@e
2004-03-21, 11:40:14
Original geschrieben von [dzp]Viper
warum bist du dann hier und diskutierst um NICHT BELEGTE FAKTEN mit?
irgendwie is deine ausrede scheinheilig Nö.
Das Thema ist irgendwie nur schon so ausgelutscht...

Wenn man das Kommentar von Dir und Payne zusammen nimmt, könnte man eher vermuten, dass ihr erst jetzt in den Thread 'eingestiegen' seid, ohne ihn in Augenschein genommen zu haben...

"Reicht ja die letzten beiden Seiten zu lesen !"
(was nicht immer der Fall ist ;-)

Razor

[dzp]Viper
2004-03-21, 11:44:51
Original geschrieben von r@e
Nö.
Das Thema ist irgendwie nur schon so ausgelutscht...

Wenn man das Kommentar von Dir und Payne zusammen nimmt, könnte man eher vermuten, dass ihr erst jetzt in den Thread 'eingestiegen' seid, ohne ihn in Augenschein genommen zu haben...

"Reicht ja die letzten beiden Seiten zu lesen !"
(was nicht immer der Fall ist ;-)

Razor

habs ja auch nicht so fies gemeint - darum auch die smilies die du aber rausgeschnitten hast :motz:

Aber dein Satz war einfach zu schön - in dem ganzen thread gehts um spekulationen und nicht bestätigte fakten und du diskutierst munter mit. Und dann schreibst du eben
"Und nein, ich werde doch nicht auf Basis eines durch NICHTS belegten Faktums meine Zeit hier verschwenden..."
als antwort auf Payns Frage - findest du das nicht auch ein wenig lustig? ;)

r@e
2004-03-21, 11:50:59
Original geschrieben von [dzp]Viper
<snip> - findest du das nicht auch ein wenig lustig? ;) Nö.
:D

Ich betrachte das Thema "150W" als abgehakt.

Wir können das ja wieder 'aufgreifen', wenn klar ist, dass wir hier nicht über Vorserienmodelle schwafeln, sondern über (meinetwegen) zukünftig erhältliche Hardware...

Razor

P.S.: zum Thema "Spekulation ohne Basis" habe ich mich auch schon des öfteren ausgelassen... ;)
("Lesen schadet nicht" ;-)

Quasar
2004-03-21, 11:52:04
Original geschrieben von Stefan Payne
Hab mir 'nur' meine Gedanken gemacht, wenn du anderer Meinung bist, dann poste doch mal deine Gedanken, wie man der enormen Abwärme der Karte Herr wird und was für Probleme es geben könnte :eyes:

Dann poste ich mal den Gedanken, daß es doch gar nicht feststeht, daß die Karte eine enorme Abwärme produziert.

Demi sagte, daß 256MB GDDR3, so sie denn verbaut würden, <20W schlucken (IIRC!!).
Selbst wenn die GPU allein soviel verbrät, wie aktuelle High-End Karten, könnte man durchaus unter 140W bleiben.

robbitop
2004-03-21, 15:30:00
die 5950 lag bei 100W laut PCGH. Davon waren ~40W für Speicher und ein paar für die Regler und andere Bauteile (16BGAs).
Sagen wir die GPU itself hatte 60W verlustleistung.
Nun kommt eine leicht höher getaktete und um ~30-40% größere GPU die itself ~ das Doppelte schlucken soll?
Ich weiss dass Aufwand und Nutzen nicht in einem Linearen Verhälltnis zueindander stehen, aber ich bin eher skeptisch.Zumal man mit GDDR3 uA nur 1/2 der Anz der BGAs braucht und diese noch weniger pro BGA Verbraten und damit hat man eine schon nennenswerte Ersparnis an Energie.

Sicher wird R420 signifikant geringere Leistungsaufnahmen bieten. Er ist vermeintlich: inkomplexer, nicht unbedingt höher getaktet und wird mit Black Diamond als Dielectricum produziert, was bekanntlich ja eine Senkung der VCore erlaubt.

Aber so krass, wie einige die Kontraste sehen, denke ich dass man nicht zu voreilig sein sollte.

Heutige Rechner verbrauchen unter Vollast ~200W. Ein sehr gutes 250W Netzteil (zB engelking) genügt in den meisten Fällen. Nun haben wir delta 50W mehr, wenn überhaupt, da brenötigt man nicht unbedingt solch riesen Netzteile. (gut vieleicht so hoch diemensionierte NoName NTs).

Wie sieht es eigentlich mit den Versorgungssträngen aus?
Darf der 5,25" Versrogungsstrang meiner FX nicht noch mit einem oder 2 Laufwerken verbunden sein?
Wie sieht es bei 2 Molexanschlüssen aus? ....2dedizierte Stränge??? Das ist definitiv zu viel. Viele Rechner von heute haben mehr als nur 1 CDROM und 1 HDD ;) .

irgentetwas muss man sich mittelfristig ausdenken..vieleicht ein spezieller GPU Powerconnectorstandard mit speziell darauf ausgelegten Strängen.

Der Trend der Verlustleistung ist bekanntlich steigend aber bei 100-150W ist wirklich Schluß mit Lustig imo...
Wärme abführen und Energie ranschaffen wird dann nur noch zum Krampf ...

r@e
2004-03-21, 16:26:24
Original geschrieben von robbitop
Der Trend der Verlustleistung ist bekanntlich steigend aber bei 100-150W ist wirklich Schluß mit Lustig imo...
Wärme abführen und Energie ranschaffen wird dann nur noch zum Krampf ... Ist ja nicht so, dass dies neu wäre...
3dfx hat dies ja... ähmmm... sehr kreativ 'gelöst', gell ?
:D

Razor

Abraxaς
2004-03-21, 17:00:03
es gab auf der cebit schon karten mit dem nv40 druff...leider haben diese nicht die normalsterblichen zu gesicht bekommen:(

Gast
2004-03-21, 18:25:41
Original geschrieben von Deli
es gab auf der cebit schon karten mit dem nv40 druff...leider haben diese nicht die normalsterblichen zu gesicht bekommen:( Das ist doch schon aaaaaallllllltttttt !
:D

Die Frage ist nur, ob da das A2 oder das A3 Stepping gezeigt wurde. Und ebenso, ob das, was hier an Gerüchten so rum fliegt, dem A2, dem A3 oder einem 'alten Design' zuzuschreiben ist.

Nix genaues weiß man halt nicht, insofern: fröhliches im Dunkeln tappen !
;D

Razor

Gast
2004-03-21, 19:27:19
Wuerde mich interessieren ob ein Chip eventuell mehrere Steppings in seinem Verkaufsleben sieht oder wie im NV40 Fall das aktuelle A3 Stepping das letzte ist. Das sich ein neues Stepping nicht fuer jeden Kleinkram lohnt ist mir klar.
Wie sieht es zum Beispiel aus wenn ein neues Stepping eine Senkung um 5 Watt Leistungsaufnahme braechte, wuerde sowas dann gemacht? Schliesslich lebt so ein Chipdesign ja auch nicht ewig.

Winter[Raven]
2004-03-21, 19:35:39
Also das A3 sollte das letze sein, muss es damit der NV40 spätestens im Mai in den Regalen liegt.

r@e
2004-03-21, 19:45:21
Original geschrieben von Gast
Wuerde mich interessieren ob ein Chip eventuell mehrere Steppings in seinem Verkaufsleben sieht oder wie im NV40 Fall das aktuelle A3 Stepping das letzte ist. Das sich ein neues Stepping nicht fuer jeden Kleinkram lohnt ist mir klar.
Wie sieht es zum Beispiel aus wenn ein neues Stepping eine Senkung um 5 Watt Leistungsaufnahme braechte, wuerde sowas dann gemacht? Schliesslich lebt so ein Chipdesign ja auch nicht ewig. Die Reduzierung der Leistungsaufnahme (um 'nur' 5 Watt in Deinem Beispiel) würde sicher nicht zu einem neuen Stepping führen. Wohl aber beispielsweise eine beträchtlichere Reduzierung, die es ermöglichen würde, günstigere Kühler zu nutzen (Stichwort: geringere Fertigungskosten)... oder einfach durch leichte Modifikation in der Struktur, einen besseren Yield (also eine höhere Ausbeute an Chips pro Wafer) zu erreichen... wäre sicher ein neues Stepping 'wert'.

Ein gutes Beispiel wäre damals der Wechsel von ur-gf3 zur gf3ti (200/500). Eigentlich wurde rein gar nichts an den Chips geändert, ausser eben ein besserer Yield. Gleichzeitig wurde noch die Chip-Selektion eingeführt (bei der ur-gf3 gab's nur "durch", oder "nicht durch" ;-) und schon war ein neues Release 'geboren'.

Könnte mir aber auch gut vorstellen, dass es sog. 'silent' Stepping-Upgrades gibt, von denen die Endbenutzer überhaupt nichts mitbekommen. Wenn aber dadurch höhere Geschwindigkeiten erreicht werden können, dann wird's auch den Endkunden erreichen, da man dieses sicher gleich vermarkten wird (im Falle der FX5600 gut zu beobachten gewesen ;-).

Razor

aths
2004-03-21, 20:02:23
Original geschrieben von Demirug
"2.5X to 3X faster than GeForce FX 5950 Ultra using high resolutions with AA and AF". In shaderlastigen (nicht ~limitierten) Szenen kann das wohl hinkommen.

LovesuckZ
2004-03-21, 20:38:54
Original geschrieben von aths
In shaderlastigen (nicht ~limitierten) Szenen kann das wohl hinkommen.

Waere auch schlimm, sollte dies nicht zu treffen. Wobei 2 bis 3 mal schneller unter PS2.0 nicht wirklich konkurenzfaehig waere...

Leonidas
2004-03-21, 20:42:48
Original geschrieben von Gast
Quelle:Cebit Hinterzimmer



Kann eigentlich gar net sein, denn wer wirklich in einem der Hinterzimmer bei nVidia war bzw. bei den richtigen NV-Leuten, der darf theoretisch keinen Releasetermin nennen, weil da NDA schließlich auch die Nennung dieses Termins umfaßt. Hinterzimmer als Quelle für eine NDA-Info schließt sich damit irgendwie aus :-).

Gast
2004-03-21, 20:48:23
Original geschrieben von Leonidas
Kann eigentlich gar net sein, denn wer wirklich in einem der Hinterzimmer bei nVidia war bzw. bei den richtigen NV-Leuten, der darf theoretisch keinen Releasetermin nennen, weil da NDA schließlich auch die Nennung dieses Termins umfaßt. Hinterzimmer als Quelle für eine NDA-Info schließt sich damit irgendwie aus :-).

is jetzt aber irgendwie eh irrelevant da mittlerweile längst offiziell
http://www.nvidia.com/object/nzone_geforcelanparty_home

Quasar
2004-03-21, 21:22:17
Original geschrieben von Leonidas
Kann eigentlich gar net sein, denn wer wirklich in einem der Hinterzimmer bei nVidia war bzw. bei den richtigen NV-Leuten, der darf theoretisch keinen Releasetermin nennen, weil da NDA schließlich auch die Nennung dieses Termins umfaßt. Hinterzimmer als Quelle für eine NDA-Info schließt sich damit irgendwie aus :-).

a) es gibt mehrere Hinterzimmer auf der CeBit (auch die der AIBs)

b) Unser Termin bei nVidia auf dem Stand war Freitag, die News schon vom Donnerstag. Selbst wenn wir am Freitag ein NDA unterschrieben haben sollten, wäre die News vom Donnerstag davon unberührt.

edit:
Merke: Erst ein "s" macht aus Donnertag einen echten Donnerstag.

[dzp]Viper
2004-03-22, 00:20:29
www.withingames.net

Gerüchte von der Cebit:

Letztes Update: Gerüchterubrik

Zum Abschluss unserer diesjährigen CeBIT-Berichterstattung berichten wir noch einmal über die interessantesten Gerüchte, die wir im Laufe der vier Tage aufgeschnappt haben:

- Die NV40-Architektur (16x1 für Texturen / Farbwerte, 32x0 für Z-Werte) wurde nun mittlerweile bereits von der x-ten Quelle bestätigt. Der Chip soll wahrhaft gigantisch werden.
- Der NV40 wird schneller als der R420 sein. Man kann davon ausgehen, dass der R420 zwischen 15% und 5% langsamer als sein Kontrahent aus dem Hause NVIDIA ist.
- Es wird zwei Modelle des R420 geben: Eine Pro-Karte mit 500Mhz Chip und 475Mhz Speichertakt und eine „Nitro“ genannte Karte mit 600Mhz Chip und 550Mhz Speichertakt.
- Es ist sehr wahrscheinlich, dass der R423 tatsächlich 16 Pipelines haben wird, während der R420 mit deren 12 daherkommt. Möglicherweise handelt es sich auch um die gleichen Chips bei denen abhängig von der Qualität 4 Pipelines (ein Quad-Block) deaktiviert werden oder nicht.
- Der R420 ist als weiterer R300-Refresh bekanntlich eine Übergangslösung. Entsprechend will ATi sich nicht mehr allzu lange auf die Architektur verlassen und bald den R500 bringen, dessen Entwicklungsstatus angeblich schon sehr weit vorangeschritten ist. Bei der Entwicklung des R500 kann man sich zudem stark auf die Unterstützung von Microsoft verlassen, da die Technologie in irgendeiner Form in der Xbox2 eingesetzt werden soll.

Dies markiert das Ende unseres Berichts von der CeBIT 2004. Mit an Sicherheit grenzender Wahrscheinlichkeit werden wir aber in einem Jahr wieder ins Getümmel wagen und über die neuesten Trends berichten.

Interessant oder? :D

--------------------------------------------------------------------------------

Dazu Fakten die von NV gegenüber withingames bestätigt wurden:

Bezüglich des NV40 zeigte man sich bei NVIDIA überraschend redefreudig, obwohl wir kein NDA unterzeichnet hatten: Der Chip hätte ursprünglich auch auf der CeBIT vorgestellt werden sollen. Die Hardware war eigentlich auch bereit, aber mit der Software war man noch nicht ganz fertig. Man hat daher beschlossen, den Chip um einen Monat zu verschieben: Der US-Launchtermin ist der 13. April, in Europa findet der Launch-Event einen Tag später statt. Die wichtigsten Fakten, die wir von NVIDIA in Erfahrung bringen konnten:
- Der Chip wird reine 32bit Floating-Point Pipelines haben. 16bit-Präzision unterstützt man zwar noch, aber dessen Einsatz wird kaum vornöten sein, weil der NV40 genug Leistung bringen wird.
- Man rechnet damit, dass man sich mit dem NV40 wieder ganz klar an der Spitze wird positionieren können. Leistungsmässig erwartet man ungefähr eine 4 - 8-fache Steigerung der Pixelshader-Performance gegenüber der NV30-Generation, wobei die 8-fache Steigerung natürlich ein theoretisches Maximum darstellt. Man wies uns aber darauf hin, dass z.B. einige der intensivsten Shader aus Half-Life 2 auf dem NV40 tatsächlich 7 mal schneller als auf der NV3x-Architektur berechnet werden.
- Ebenfalls verbessert wurde endlich auch das Anti-Aliasing: Der 4-fache Modus wird nun auch ein rotated Grid-Samplingmuster nutzen.
- Man wird wie schon bei der NV3x-Reihe mit der NV40-Generation über die gesamte Produktpalette vom Value- bis zum High-End-Segment Featuregleichheit bieten, da sich neue Technologien so schneller etablieren und damit auch früher von kommenden Applikationen genutzt werden. Ausserdem wird es auch von den Spielentwicklern so gewünscht.
- Der Chip soll zwar mehr Strom als eine GeForceFX 5950 verbrauchen, aber dennoch mit einem leiseren Lüfter als NVIDIAs momentane High-End Grafikkarte ausgestattet sein. Etwas im Stil von FlowFX haben wir nie mehr zu befürchten.
- Der Chip wird in der East Fishkill-Fab von IBM gefertigt.

Auch interessant oder? :D

Jetzt habt ihr erstmal wieder genug gesprächsstoff bis 13.4 ;)

Gast
2004-03-22, 00:38:10
Original geschrieben von [dzp]Viper
www.withingames.net

Gerüchte von der Cebit:

Letztes Update: Gerüchterubrik

Zum Abschluss unserer diesjährigen CeBIT-Berichterstattung berichten wir noch einmal über die interessantesten Gerüchte, die wir im Laufe der vier Tage aufgeschnappt haben:

- Die NV40-Architektur (16x1 für Texturen / Farbwerte, 32x0 für Z-Werte) wurde nun mittlerweile bereits von der x-ten Quelle bestätigt. Der Chip soll wahrhaft gigantisch werden.
- Der NV40 wird schneller als der R420 sein. Man kann davon ausgehen, dass der R420 zwischen 15% und 5% langsamer als sein Kontrahent aus dem Hause NVIDIA ist.
- Es wird zwei Modelle des R420 geben: Eine Pro-Karte mit 500Mhz Chip und 475Mhz Speichertakt und eine „Nitro“ genannte Karte mit 600Mhz Chip und 550Mhz Speichertakt.
- Es ist sehr wahrscheinlich, dass der R423 tatsächlich 16 Pipelines haben wird, während der R420 mit deren 12 daherkommt. Möglicherweise handelt es sich auch um die gleichen Chips bei denen abhängig von der Qualität 4 Pipelines (ein Quad-Block) deaktiviert werden oder nicht.
- Der R420 ist als weiterer R300-Refresh bekanntlich eine Übergangslösung. Entsprechend will ATi sich nicht mehr allzu lange auf die Architektur verlassen und bald den R500 bringen, dessen Entwicklungsstatus angeblich schon sehr weit vorangeschritten ist. Bei der Entwicklung des R500 kann man sich zudem stark auf die Unterstützung von Microsoft verlassen, da die Technologie in irgendeiner Form in der Xbox2 eingesetzt werden soll.

Dies markiert das Ende unseres Berichts von der CeBIT 2004. Mit an Sicherheit grenzender Wahrscheinlichkeit werden wir aber in einem Jahr wieder ins Getümmel wagen und über die neuesten Trends berichten.

Interessant oder? :D

--------------------------------------------------------------------------------

Dazu Fakten die von NV gegenüber withingames bestätigt wurden:

Bezüglich des NV40 zeigte man sich bei NVIDIA überraschend redefreudig, obwohl wir kein NDA unterzeichnet hatten: Der Chip hätte ursprünglich auch auf der CeBIT vorgestellt werden sollen. Die Hardware war eigentlich auch bereit, aber mit der Software war man noch nicht ganz fertig. Man hat daher beschlossen, den Chip um einen Monat zu verschieben: Der US-Launchtermin ist der 13. April, in Europa findet der Launch-Event einen Tag später statt. Die wichtigsten Fakten, die wir von NVIDIA in Erfahrung bringen konnten:
- Der Chip wird reine 32bit Floating-Point Pipelines haben. 16bit-Präzision unterstützt man zwar noch, aber dessen Einsatz wird kaum vornöten sein, weil der NV40 genug Leistung bringen wird.
- Man rechnet damit, dass man sich mit dem NV40 wieder ganz klar an der Spitze wird positionieren können. Leistungsmässig erwartet man ungefähr eine 4 - 8-fache Steigerung der Pixelshader-Performance gegenüber der NV30-Generation, wobei die 8-fache Steigerung natürlich ein theoretisches Maximum darstellt. Man wies uns aber darauf hin, dass z.B. einige der intensivsten Shader aus Half-Life 2 auf dem NV40 tatsächlich 7 mal schneller als auf der NV3x-Architektur berechnet werden.
- Ebenfalls verbessert wurde endlich auch das Anti-Aliasing: Der 4-fache Modus wird nun auch ein rotated Grid-Samplingmuster nutzen.
- Man wird wie schon bei der NV3x-Reihe mit der NV40-Generation über die gesamte Produktpalette vom Value- bis zum High-End-Segment Featuregleichheit bieten, da sich neue Technologien so schneller etablieren und damit auch früher von kommenden Applikationen genutzt werden. Ausserdem wird es auch von den Spielentwicklern so gewünscht.
- Der Chip soll zwar mehr Strom als eine GeForceFX 5950 verbrauchen, aber dennoch mit einem leiseren Lüfter als NVIDIAs momentane High-End Grafikkarte ausgestattet sein. Etwas im Stil von FlowFX haben wir nie mehr zu befürchten.
- Der Chip wird in der East Fishkill-Fab von IBM gefertigt.

Auch interessant oder? :D

Jetzt habt ihr erstmal wieder genug gesprächsstoff bis 13.4 ;)

Das hört sich ja gut an. Hoffentlich kommts dann auch so. Wäre wirklich eine prima Sache. Leistung satt und für Nvidia vielleicht die Fahrkarte auf Rang 1.
Wenn ATI keine PS/VS 3.0 unterstützt, dann hoffe ich sogar, dass Nvidia auf der ganzen Produktlinie möglichst vorne liegt. Desto eher wird ATI gezwungen nachzusitzen.

r@e
2004-03-22, 00:55:15
Original geschrieben von [dzp]Viper
www.withingames.net

Gerüchte von der Cebit:

<snip>

Interessant oder? :D

--------------------------------------------------------------------------------

Dazu Fakten die von NV gegenüber withingames bestätigt wurden:

<snap>

Auch interessant oder? :D

Jetzt habt ihr erstmal wieder genug gesprächsstoff bis 13.4 ;) Klingt etwas zu gut, meint Ihr nicht ?

Vor allem: Withingames hat von nVidia erfahren, was nVidia dann bestätigt haben soll ?
Wie paßt denn das zusammen ?
:???:

Wenn das aber alles so stimmen sollte (16x1 tex/col, bzw. 32x0 Z und dabei besser zu kühlen, als eine 5950u), dann wär das schon ein Hammer.

Mal schaun' was da noch so kommt !

Egal, gut nächtle... ;)

Razor

Sunrise
2004-03-22, 01:34:57
"- Die NV40-Architektur (16x1 für Texturen / Farbwerte, 32x0 für Z-Werte) wurde nun mittlerweile bereits von der x-ten Quelle bestätigt. Der Chip soll wahrhaft gigantisch werden."
Das liest sich natürlich sehr positiv (wenn es denn stimmt, momentan bin ich da sehr skeptisch).
"- Es wird zwei Modelle des R420 geben: Eine Pro-Karte mit 500Mhz Chip und 475Mhz Speichertakt und eine „Nitro“ genannte Karte mit 600Mhz Chip und 550Mhz Speichertakt.
- Es ist sehr wahrscheinlich, dass der R423 tatsächlich 16 Pipelines haben wird, während der R420 mit deren 12 daherkommt. Möglicherweise handelt es sich auch um die gleichen Chips bei denen abhängig von der Qualität 4 Pipelines (ein Quad-Block) deaktiviert werden oder nicht."
...und man - sollten diese Gerüchte stimmen - auch sicherlich kein größeres Problem hätte, den R423 sofort mit dem R420 zu launchen...falls NV wirklich aus dem Vollen schöpft, wovon ich auch ausgehe.

Die "bestätigten Fakten" lesen sich wie typisches Marketing, wobei ich selbst davon ausgehe, dass NV durch GDDR3 und dem großen DIE auch deutlich leisere Kühllösungen verwenden kann (womöglich sogar ohne Heatspreader, was ATI schon länger so macht), aber das werden wir wohl früh genug erfahren.

Woher stammen eigentlich die R420-Gerüchte, insbesondere das mit der "normalen" R420 und der "Nitro"-Version ? Die Taktraten klingen recht plausibel.

Sphinx
2004-03-22, 02:37:03
Ihr solltet euch nicht zu feucht lesen an spekulationen...

Selbst wenn BEYOND3D nichts weiss und auch nur eine klitzekleine Information durchschimmert. Sind die Karten+Features mehr als offen...

Danach kann ich ausgehen das ich mir mir wenn es stimmen sollte eine NV40 Kaufen werde... Aber was wenn R420 die Nase doch vorne hat... *Leuts wenn ich das alles lese dann sollten einige wirklich einen Psychiater aufsuchen der euch ein wenig Realität in die Köpfe einredet...

Bsp.: Beyond 3d ~ Zitat : Nvidia ist diejenige Firma (und in der Position) die ein schnelleres Produkt liefern muss als z.Zt. Aktuell vorhandenere...

Ati ist in der Beobachter Position : Da sie z.Zt. die besseren Karten besitzen. Glaubt ihr wirklich im ernst das Ati sich beim R420 Nicht ~ 1-3 Türchen offen gelassen hat... und deswegen nichts durchsickert was sie den nun für eine Hyper|Looser Karte haben...

"Those hoping for some new details of NV40 or R420 will be disappointed as they have no scoops on the soon to be launched GPUs from NVIDIA or ATI. "

Odal
2004-03-22, 04:01:12
sehr positiv find ich wieder das die Features/Technology sich durch alle preissegmente ziehen wird d.h. es auch low cost karten mit ps3.0 support usw. geben soll

auch wenn einige sowas z.b. der 5200 als negativpunkt ankreiden hilft es in der tat neue effekte zu etablieren

schade ist nur das es wohl bei Ati keine PS3.0 geben wird

[dzp]Viper
2004-03-22, 07:21:07
Original geschrieben von Odal
sehr positiv find ich wieder das die Features/Technology sich durch alle preissegmente ziehen wird d.h. es auch low cost karten mit ps3.0 support usw. geben soll

auch wenn einige sowas z.b. der 5200 als negativpunkt ankreiden hilft es in der tat neue effekte zu etablieren

schade ist nur das es wohl bei Ati keine PS3.0 geben wird

hm
es gibt noch nicht mal ordnetliche PS2.0 spiele (ausser Farcry) und das, obwohl es DX bis in den Low cose bereich gibt. Denoch redet ihr schon von PS3.0 in spielen - selbst wenn es Low cost PS3.0 karte geben wird, wird man richtige PS3.0 spiele vielleicht in 1- 1 1/2 Jahren sehen... eher auf keinen fall...

Demirug
2004-03-22, 07:45:36
Original geschrieben von [dzp]Viper
www.withingames.net

<snip>

Auch interessant oder? :D

Jetzt habt ihr erstmal wieder genug gesprächsstoff bis 13.4 ;)

Was mich doch etwas wundert ist das alle NDAs unterschreiben mussten um Informationen zu bekommen aber withingames angeblich nicht.

Diese R420 Taktraten sehe ich so zum ersten mal.

Das mit dem deaktiviertem Pixelprozessor macht keinen Sinn. Selbst wenn bei einem grossen Teil der produzierten Chips nur 3 Pixelprozessoren funktionieren sollte auf jeden Fall genügend übrig bleiben bei denen alles fnktioniert. Das man diese nicht benutzt um bei Tests gut auszusehen ist doch sehr unwahrscheinlich.

IMHO ist das R4XX Design auf bis zu 4 Pixelprozessoren ausgelegt und man kann auf der Designebene (vor dem Tapeout) festlegen wie viele Pixelprozessoren (und auch Verteshader) man in dem Chip haben möchte. Die vollständigen 4 Pixelprozessoren möchte man sich bei ATI vielleicht für den Refresh aufheben um diesem Chip mit möglichst geringen Aufwand zu entwickeln um Zeit für die XBox-II zu haben.

Demirug
2004-03-22, 07:54:30
Original geschrieben von [dzp]Viper
hm
es gibt noch nicht mal ordnetliche PS2.0 spiele (ausser Farcry) und das, obwohl es DX bis in den Low cose bereich gibt. Denoch redet ihr schon von PS3.0 in spielen - selbst wenn es Low cost PS3.0 karte geben wird, wird man richtige PS3.0 spiele vielleicht in 1- 1 1/2 Jahren sehen... eher auf keinen fall...

Selbst Farcry hat ja noch Fallbacks für nicht 2.0 fähige Karten. Optisch wird man sowieso nicht zwischen 2.0 und 3.0 unterscheiden können.

3.0 ist sowas wie ein Turbolader für 2.0 weil man aus dem gleichen Grundgerüst mehr Leistung herausholen kann.

Einsatzmöglichkeiten gibt es mehr oder minder in jedem Spiel das Shader benutzt. Meist werden von einem Grundeffekt aus performancegründen mehrer Varianten (mit/ohne Detailmap, mit/ohne Alphawert, ...) aufgelegt und jede Variante braucht iheren eigenen Shader. Mit 3.0 baut man einen Shader mit statischem Branching und reduziert dadurch die aufwendigen Shaderwechsel.

Gast
2004-03-22, 08:27:54
Original geschrieben von Demirug
IMHO ist das R4XX Design auf bis zu 4 Pixelprozessoren ausgelegt und man kann auf der Designebene (vor dem Tapeout) festlegen wie viele Pixelprozessoren (und auch Verteshader) man in dem Chip haben möchte. Die vollständigen 4 Pixelprozessoren möchte man sich bei ATI vielleicht für den Refresh aufheben um diesem Chip mit möglichst geringen Aufwand zu entwickeln um Zeit für die XBox-II zu haben.

Nuja, dann wird es neben den Gerüchten um einen vorgezogenen nV45, der nun als nV40 verkauft wird, eben auch Gerüchte um einen vorgezogenen R420-Refresh geben, der als R420 verkauft wird, wenn denn nVs Chip wirklich stark gegenüber dem R420 mit 3 PP auftrumpfen kann.

Warum sonst diese Kinderspielchen mit dem bilateralen Warten auf den jeweiligen Konkurrenten? ;)

;Q

AlfredENeumann
2004-03-22, 08:57:43
Original geschrieben von r@e

Vor allem: Withingames hat von nVidia erfahren, was nVidia dann bestätigt haben soll ?
Wie paßt denn das zusammen ?
:???:


Ich habe den Originalartikel auf withingames nicht geksen, aber ich traue Ceiser schon zu keine Spekulationen als Fakt zu verkaufen.

AlfredENeumann
2004-03-22, 08:59:41
Original geschrieben von [dzp]Viper
hm
es gibt noch nicht mal ordnetliche PS2.0 spiele (ausser Farcry) und das, obwohl es DX bis in den Low cose bereich gibt. Denoch redet ihr schon von PS3.0 in spielen - selbst wenn es Low cost PS3.0 karte geben wird, wird man richtige PS3.0 spiele vielleicht in 1- 1 1/2 Jahren sehen... eher auf keinen fall...

Eben. Und einen echten PS3.0 effekt, welcher nurmit PS3.0 ermöglicht werden kann, würde ich dann auch mal gerne sehen.

Gast
2004-03-22, 09:03:03
Original geschrieben von Sphinx
Bsp.: Beyond 3d ~ Zitat : Nvidia ist diejenige Firma (und in der Position) die ein schnelleres Produkt liefern muss als z.Zt. Aktuell vorhandenere...

Ati ist in der Beobachter Position : Da sie z.Zt. die besseren Karten besitzen. Glaubt ihr wirklich im ernst das Ati sich beim R420 Nicht ~ 1-3 Türchen offen gelassen hat... und deswegen nichts durchsickert was sie den nun für eine Hyper|Looser Karte haben...


Das ist richtig allerdings hat sich ATI in eine etwas ungünstige Position gebracht durch das Fehlen einer echten DX9 Low Cost Karte. Ich weiss nicht, inwiefern es sich ATI leissten möchte bei den Features auf der Stelle zu treten und gleichzeitig eventuell in der Performance zurückzuliegen. Du scheinst zu vergessen, dass ATIs Erfolg derzeit lediglich auf den recht guten Mainstream Produkten und leicht besseren High End Produkten und natürlich dem Mobile Segment beruht. Bei auch nur gleicher Leistung mit gleichen Features würde die grosse Masse sehr viel lieber zu Nvidia greifen. Schlechtere Produkte haben das aber diesmal verhindert.
Wenn Nvidia auch nur gleich gut ist oder besser, wird ATI wieder auf dem absteigenden Ast sein. Ich rede nicht von einem total Absturz aber sie werden mit verdammt großer Wahrscheinlichkeit auf Rang 3 degradiert werden.

In Bezug auf die Spieleentwickler ist das Fehlen aktueller Features auch nicht gerade sinnvoll. Du kannst davon ausgehen, dass PS/VS 3.0 auf NV40 schnell genug sein werden, damit man zumindest damit mal entwickeln kann. Ein Vergleich zum NV3x wirst da nicht mehr herstellen können. Was das bedeutet kannst dir selber ausmalen. Da wird ATI bei den meissten Studios aus dem Rechner fliegen. Das ist strategisch äußerst ungünstig bei dem bereits jetzt vorhandene Verhältnis von knapp 70:30 bei der DX9 Verbreitung von Nvidia.

Natürlich sind alles Gerüchte und Spekulationen. Keiner ohne NDA weiss genau wie die Lage sich darstellen wird aber gesetzt den Fall Nvidia bietet gleiche oder bessere Leistung mit beseitigter AA Schwachstelle, dann wird ATI wieder Boden verlieren.

[dzp]Viper
2004-03-22, 09:14:43
Original geschrieben von Gast
Das ist richtig allerdings hat sich ATI in eine etwas ungünstige Position gebracht durch das Fehlen einer echten DX9 Low Cost Karte. Ich weiss nicht, inwiefern es sich ATI leissten möchte bei den Features auf der Stelle zu treten und gleichzeitig eventuell in der Performance zurückzuliegen. Du scheinst zu vergessen, dass ATIs Erfolg derzeit lediglich auf den recht guten Mainstream Produkten und leicht besseren High End Produkten und natürlich dem Mobile Segment beruht. Bei auch nur gleicher Leistung mit gleichen Features würde die grosse Masse sehr viel lieber zu Nvidia greifen. Schlechtere Produkte haben das aber diesmal verhindert.
Wenn Nvidia auch nur gleich gut ist oder besser, wird ATI wieder auf dem absteigenden Ast sein. Ich rede nicht von einem total Absturz aber sie werden mit verdammt großer Wahrscheinlichkeit auf Rang 3 degradiert werden.

In Bezug auf die Spieleentwickler ist das Fehlen aktueller Features auch nicht gerade sinnvoll. Du kannst davon ausgehen, dass PS/VS 3.0 auf NV40 schnell genug sein werden, damit man zumindest damit mal entwickeln kann. Ein Vergleich zum NV3x wirst da nicht mehr herstellen können. Was das bedeutet kannst dir selber ausmalen. Da wird ATI bei den meissten Studios aus dem Rechner fliegen. Das ist strategisch äußerst ungünstig bei dem bereits jetzt vorhandene Verhältnis von knapp 70:30 bei der DX9 Verbreitung von Nvidia.

Natürlich sind alles Gerüchte und Spekulationen. Keiner ohne NDA weiss genau wie die Lage sich darstellen wird aber gesetzt den Fall Nvidia bietet gleiche oder bessere Leistung mit beseitigter AA Schwachstelle, dann wird ATI wieder Boden verlieren.

ganz so schlimm siehts für ATI aber bei weitem nicht mehr aus!
ATI hat sich in den letzten 2 Jahren einen namen gemacht - genauso wie NV.
Mitlerweile gibts es fast genausoviele ATI fanboys wie NV fanboys - und jeder dieser Fanboys wird auch zu seiner lieblingsfirma greifen selbst wenn der chip etwas langsamer ist!
Selbst wenn die Hardware von NV schneller sein wird, muss sich erstmal zeigen wie zuverläßig die treiber beider hersteller funktionieren!
Es sind einfach noch zu viele fragen offen, als dass man sich ein urteil erlauben könnte. Wir haben schon zu viele schöne Ankündigungen und versprechungen von beiden Seiten gehört (aber vor allem von NV ;)), als dass man nicht wüsste, dass man bis zum release sehr vorsichtig mit den "Fakten" (die ja eigentlich keine sind :D) umgehen sollte :D

aths
2004-03-22, 09:30:13
Original geschrieben von AlfredENeumann
Eben. Und einen echten PS3.0 effekt, welcher nurmit PS3.0 ermöglicht werden kann, würde ich dann auch mal gerne sehen. Schon dadurch möglich, einen Shader zu schreiben, der FP32 im Pixelshader braucht, damit das Ergebnis gut genug aussieht. Ich halte es noch für möglich, dass R42x auf FP32 setzt, nur ist das aus meiner Sicht recht unwahrscheinlich.

Gast
2004-03-22, 09:49:05
Original geschrieben von [dzp]Viper
ganz so schlimm siehts für ATI aber bei weitem nicht mehr aus!
ATI hat sich in den letzten 2 Jahren einen namen gemacht - genauso wie NV.
Mitlerweile gibts es fast genausoviele ATI fanboys wie NV fanboys - und jeder dieser Fanboys wird auch zu seiner lieblingsfirma greifen selbst wenn der chip etwas langsamer ist!
Selbst wenn die Hardware von NV schneller sein wird, muss sich erstmal zeigen wie zuverläßig die treiber beider hersteller funktionieren!
Es sind einfach noch zu viele fragen offen, als dass man sich ein urteil erlauben könnte. Wir haben schon zu viele schöne Ankündigungen und versprechungen von beiden Seiten gehört (aber vor allem von NV ;)), als dass man nicht wüsste, dass man bis zum release sehr vorsichtig mit den "Fakten" (die ja eigentlich keine sind :D) umgehen sollte :D

Da kann ich dir nicht richtig zustimmen. Ich bin zwar der Meinung, dass es derzeit mehr ATI Fanboys als NV Fanboys gibt aber diese geben nicht den Ausschlag. Den Ausschlag gibt die Masse und da greifen viele momentan zu ATI ab einem bestimmten Preissegment, weil Nvidia nicht gut genug ist. Bei gleicher Leistung werden viele aber ganz schnell die Richtung ändern.

Bei den Treibern kann ich dir auch nicht zustimmen. Ich gehe davon aus, dass die von Nvidia in gewohnter Weise besser sein werden, vor allem kompatibler. Auch das monatliche Erscheinen von ATI Treibern hat nichts geändert. Im Gegenteil ich finde sogar, dass seit dem ATIs Treiber wieder schlechter geworden sind. Da war ATI vor einem halben bis 3/4 jahr schonmal besser. Die Probleme bei den neueren Treibern haben sich erheblich gehäuft.

Die Spekulation welche Karte nun besser ist und welche nicht ist natürlich für die Tonne. Das wird sich bald zeigen. Ich stehe lediglich auf dem Standpunkt, dass bei gleicher oder besserer Performance für Nvidia die Windrichtung sich ändern wird.

StefanV
2004-03-22, 09:53:13
Original geschrieben von aths
Schon dadurch möglich, einen Shader zu schreiben, der FP32 im Pixelshader braucht, damit das Ergebnis gut genug aussieht. Ich halte es noch für möglich, dass R42x auf FP32 setzt, nur ist das aus meiner Sicht recht unwahrscheinlich.

Richtig, da die FP32 Einheiten 'ein paar mehr' Transistoren benötigen und damit 'etwas mehr' Abwärme produzieren, was man bei ATI versucht möglichst zu vermeiden...

Exxtreme
2004-03-22, 09:56:40
Original geschrieben von aths
Schon dadurch möglich, einen Shader zu schreiben, der FP32 im Pixelshader braucht, damit das Ergebnis gut genug aussieht. Ich halte es noch für möglich, dass R42x auf FP32 setzt, nur ist das aus meiner Sicht recht unwahrscheinlich.
AFAIK ist FP32 keine Voraussetzung für PS3.0. =)

Demirug
2004-03-22, 10:00:00
Original geschrieben von Exxtreme
AFAIK ist FP32 keine Voraussetzung für PS3.0. =)

Nicht laut original Spec. Es könnte aber sein das jede PS 3.0 fähige Hardware am Ende sowieso FP32 hat. Ich würde das sehr begrüssen weil man dann bestimmte Sachen auf die GPU auslagern könnte.

aths
2004-03-22, 10:06:33
Original geschrieben von Stefan Payne
Richtig, da die FP32 Einheiten 'ein paar mehr' Transistoren benötigen und damit 'etwas mehr' Abwärme produzieren, was man bei ATI versucht möglichst zu vermeiden... Warum gehen sie nicht gleich auf FX8 zurück? :freak: Dann wird der Chip noch kleiner ...
Original geschrieben von Exxtreme
AFAIK ist FP32 keine Voraussetzung für PS3.0. =) Lt. der Doku von DX9.0b nicht, ja. Da es noch keine 3.0-fähige HW auf dem Markt gibt, kann die Spec noch immer angehoben werden – sofern alle, die 3.0 in ihrer HW haben werden ggü. MS schon mal angekündigt haben, ohnehin FP32 nutzen.

Exxtreme
2004-03-22, 10:11:50
Original geschrieben von aths
Lt. der Doku von DX9.0b nicht, ja. Da es noch keine 3.0-fähige HW auf dem Markt gibt, kann die Spec noch immer angehoben werden – sofern alle, die 3.0 in ihrer HW ggü. MS schon mal angekündigt haben, ohnehin FP32 nutzen.
Also Specs nachträglich ändern ist schlecht und das weiss MS auch. Die Specs für PS3.0 sind AFAIK veröffentlicht worden. Deswegen werden sie es wohl nicht machen.

aths
2004-03-22, 10:13:03
Original geschrieben von Exxtreme
Also Specs nachträglich ändern ist schlecht und das weiss MS auch. Die Specs für PS3.0 sind AFAIK veröffentlicht worden. Deswegen werden sie es wohl nicht machen. Mir wurde versprochen, bald jemanden von MS auch hierzu befragen zu können :)

reunion
2004-03-22, 10:52:35
Original geschrieben von [dzp]Viper
- Der NV40 wird schneller als der R420 sein. Man kann davon ausgehen, dass der R420 zwischen 15% und 5% langsamer als sein Kontrahent aus dem Hause NVIDIA ist.


Also dass kann ja wohl nur von nV kommen :naughty:
(Oder haben die bereits beide Karten getestet?)


- Es wird zwei Modelle des R420 geben: Eine Pro-Karte mit 500Mhz Chip und 475Mhz Speichertakt und eine „Nitro“ genannte Karte mit 600Mhz Chip und 550Mhz Speichertakt.
- Es ist sehr wahrscheinlich, dass der R423 tatsächlich 16 Pipelines haben wird, während der R420 mit deren 12 daherkommt. Möglicherweise handelt es sich auch um die gleichen Chips bei denen abhängig von der Qualität 4 Pipelines (ein Quad-Block) deaktiviert werden oder nicht.


Hm, 16 R300-Pipes mit 600mhz Chiptakt, dafür kommen mir die 550mhz Speichertakt doch arg zuwenige vor :kratz:
Sollte das so stimmen würde sich die Füllrate sowie der PS-Speed usw. gegenüber dem R360 verdreifachen(!) der Speichertakt würde allerdings nur um mikrige 50% steigen...

HOT
2004-03-22, 10:55:17
Der Thread erinnert mich stark an den NV30 Thread damals, bis auf den Unterschied, dass damals der R300 schon draussen war. Aber die Spekulationen und angeblichen Fakten bewegen sich genauso wirr wie damals :D
Es wird sich meiner Meinung nach nichts an der Prognose daran ändern, dass der R420 schneller sein wird als der NV40 und dieser dafür eben VS/PS 3.0 bietet. Ich denke, dass beide Wege in der Fertigung dazu führern, dass es bei der Shaderleistung zwischen beiden Chips zum Gleichstand bei der Nutzung von 3.0 Shadern (2.x bei R420) und Vorteile für R420 bei reinen 2.0 Shadern geben wird.

reunion
2004-03-22, 10:57:34
Original geschrieben von HOT
Der Thread erinnert mich stark an den NV30 Thread damals, bis auf den Unterschied, dass damals der R300 schon draussen war. Aber die Spekulationen und angeblichen Fakten bewegen sich genauso wirr wie damals :D
Es wird sich meiner Meinung nach nichts an der Prognose daran ändern, dass der R420 schneller sein wird als der NV40 und dieser dafür eben VS/PS 3.0 bietet. Ich denke, dass beide Wege in der Fertigung dazu führern, dass es bei der Shaderleistung zwischen beiden Chips zum Gleichstand bei der Nutzung von 3.0 Shadern (2.x bei R420) und Vorteile für R420 bei reinen 2.0 Shadern geben wird.

ACK, damals würde schon für den nV30 von 8x2 gesprochen, denn waren es 8x1 und am schluss wieder 4x2 :D

robbitop
2004-03-22, 11:08:21
woher hast du denn das mit den 16 R300 Pipes Reu?

naja abwarten...ich sage nur: 150Mio Transistoren und 4 Pixelprozessoren???
naja

reunion
2004-03-22, 11:13:44
Original geschrieben von robbitop
woher hast du denn das mit den 16 R300 Pipes Reu?


Spekulation ;)
(Es wird ja ständig von einem aufgewärmten R300 mit 12-16pipes gesprochen)

naja abwarten...ich sage nur: 150Mio Transistoren und 4 Pixelprozessoren???
naja

160mio Transitoren habe ich bis jetzt gehört...

Iceman346
2004-03-22, 11:57:37
Bitte nicht Gerüchte und Fakten durcheinanderwerfen! Grade die Fakten sind doch recht schwammig formuliert, so dass ich mir schon vorstellen könnte das Ceiser dafür kein NDA unterschreiben musste.

AlfredENeumann
2004-03-22, 12:54:19
Original geschrieben von aths
Schon dadurch möglich, einen Shader zu schreiben, der FP32 im Pixelshader braucht, damit das Ergebnis gut genug aussieht. Ich halte es noch für möglich, dass R42x auf FP32 setzt, nur ist das aus meiner Sicht recht unwahrscheinlich.

Das lasse ich als argument nicht gelten.
Ist noch gar nicht alzulange her da wollte man jedem hier weismachen das FP16 reicht und es optisch praktisch keinen Unterschied zu FP24 gibt.

StefanV
2004-03-22, 12:58:08
Original geschrieben von AlfredENeumann
Das lasse ich als argument nicht gelten.
Ist noch gar nicht alzulange her da wollte man jedem hier weismachen das FP16 reicht und es optisch praktisch keinen Unterschied zu FP24 gibt.

Das war aber nicht aths, das waren andere ;)

Exxtreme
2004-03-22, 12:58:14
Original geschrieben von AlfredENeumann
Das lasse ich als argument nicht gelten.
Ist noch gar nicht alzulange her da wollte man jedem hier weismachen das FP16 reicht und es optisch praktisch keinen Unterschied zu FP24 gibt.
Es lassen sich sicherlich Fälle konstruieren, so daß tatsächlich Unterschiede da sein werden. Und vergiss eine Sache nicht. Beim "16 Bit FP vs. 24 Bit FP"-Vergleich waren die möglichen Shader gar nicht so lang wie sie es mit PS3.0 sein können. Je länger ein Shader desto höher die Wahrscheinlichkeit, daß die Rundungsfehler sichtbar werden.

Demirug
2004-03-22, 13:09:33
Irgendwie vermischt ihr mir hier jetzt aber zwei Sache.

Auf der einen Seite die Rechengenauigkeit und auf der anderen die Fähigkeiten von 3.0 Hardware.

FP32 ist sehr schön und teilweise auch notwendig wenn man die Ergebnisse des Pixelshaders wieder in den Vertexshader einbringen möchte. Das hat nun allerdings reichlich wenig damit zu tun was man mit PS 3.0 machen kann.

pp@WORK
2004-03-22, 13:34:44
NV40 Pics inc. babelfish Uebersetztung
http://babelfish.altavista.com/babelfish/urltrurl?url=http%3A%2F%2Fwww.bodnara.co.kr%2Fbbs%2F%3Fimode%3Dview%26D%3D6%26nu m%3D50148%26category%3D33&lp=ko_en&tt=url

x-dragon
2004-03-22, 13:38:34
Original geschrieben von pp@WORK
NV40 Pics inc. babelfish Uebersetztung
http://babelfish.altavista.com/babelfish/urltrurl?url=http%3A%2F%2Fwww.bodnara.co.kr%2Fbbs%2F%3Fimode%3Dview%26D%3D6%26nu m%3D50148%26category%3D33&lp=ko_en&tt=url Die werden auch schon da besprochen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=132329

... langsam wirds unübersichtlich ?-)

Gast
2004-03-22, 13:43:49
Original geschrieben von AlfredENeumann
Das lasse ich als argument nicht gelten.
Ist noch gar nicht alzulange her da wollte man jedem hier weismachen das FP16 reicht und es optisch praktisch keinen Unterschied zu FP24 gibt.

In einigen Fällen gibt es auch keinen, genau wie es in einigen Fällen keinen Unterschied zwischen einer Desktop-Farbtiefe von 8 Farben und von 256 Farben gibt.

Daß FP16 generell und immer dasselbe Resultat liefern, wie FP 24, welches seinerseits immer und überall so gut ist, wie FP32, würde wohl nur ein Hirnamputierter behaupten.

;Q

aths
2004-03-22, 13:48:31
Original geschrieben von AlfredENeumann
Das lasse ich als argument nicht gelten.Frei von der Leber weg gesprochen kratzt mich das wenig.
Original geschrieben von AlfredENeumann
Ist noch gar nicht alzulange her da wollte man jedem hier weismachen das FP16 reicht und es optisch praktisch keinen Unterschied zu FP24 gibt. Wer ist "man"?

Wo kann man die Postings lesen?

Afaik ging es darum, dass in bestimmten Fällen FP16 ausreicht und die Unterschiede zu FP24 vernachlässigbar sind. In den meisten Fällen würde FP24 ausreichen. Man kann aber Anwendungen finden, wo das nicht mehr der Fall ist. Dass Spiele in den nächsten Jahren mit FP24 auskommen liegt aber weniger daran, dass FP24 so supertoll wäre, sondern dass bei den Effekten auf die geringere ATI-Genauigkeit Rücksicht genommen wird.

Combiner/Shadertechnisch war ATI mit dem R100 weiter als Nvidia mit der GF1 und 2, mit dem R200 weiter als Nvidia mit GF3 und 4. Seit NV30 liegen die Kanadier allerdings zurück.

Demirug
2004-03-22, 13:54:48
Original geschrieben von HOT
Es wird sich meiner Meinung nach nichts an der Prognose daran ändern, dass der R420 schneller sein wird als der NV40 und dieser dafür eben VS/PS 3.0 bietet. Ich denke, dass beide Wege in der Fertigung dazu führern, dass es bei der Shaderleistung zwischen beiden Chips zum Gleichstand bei der Nutzung von 3.0 Shadern (2.x bei R420) und Vorteile für R420 bei reinen 2.0 Shadern geben wird.

Dieser Logik kann ich aus rein technischer Sicht nicht ganz folgen. Ein 3.0 Shader ohne Branching ist im Prinzip was die Ops/Pixel angeht mit einem 2.X oder 2.0 Shader identisch. Sobald man aber Branching nutzt können sehr grosse Unterschiede entstehen. Aus diesem Grund ist ein generelle Gleichstand zwischen einer echten 3.0 Lösung und einer 2.X Lösung gar nicht möglich. Man könnte also höchstens die Behauptung aufstellen das der R420 bei PS 2.0 schneller ist und der NV40 bei PS 3.0 gleichschnell wird wenn er zum Beispiel etwa 10% der Ops überspringen kann. Bei jeder zusätzlichen Op die übersprungen werden kann würde er dann schneller.

ow
2004-03-22, 14:05:08
Original geschrieben von AlfredENeumann
Das lasse ich als argument nicht gelten.
Ist noch gar nicht alzulange her da wollte man jedem hier weismachen das FP16 reicht und es optisch praktisch keinen Unterschied zu FP24 gibt.

Exakt.
Es gibt masenhaft Shader, bei denen das absolut wurscht ist.
Und ebenso gibt es Shader, bei denen das nicht egal ist und auch Shader fuer die man FP32 brauchen wird. Nichts anderes hat aths behauptet.

/edit: ich sollte oefters mal des browsers "reload" funktion nutzen, wenn zwischen oeffnen eines threads und posten etwas zeit vergangen ist.:D

Tarkin
2004-03-22, 14:08:12
wieder mal was vom Inq.

http://www.theinquirer.net/?article=14878

doch kein echter 16x1 oder wie jetzt?

ROFL! Langsam wirds lächerlich ;D

deekey777
2004-03-22, 14:10:07
Original geschrieben von Tarkin
wieder mal was vom Inq.

http://www.theinquirer.net/?article=14878

doch kein echter 16x1 oder wie jetzt?

ROFL! Langsam wirds lächerlich ;D

Ach Mist, gerade wollte ich das gleiche posten. :bäh2:

Demirug
2004-03-22, 14:15:48
Original geschrieben von Tarkin
wieder mal was vom Inq.

http://www.theinquirer.net/?article=14878

doch kein echter 16x1 oder wie jetzt?

ROFL! Langsam wirds lächerlich ;D

Sorry, aber ich habe schon lange nicht mehr eine solche Ansammlung von Schwachsinn gelesen. Das ist selbst für :cop: FUAD :cop: eine neue Steigerung.

aths
2004-03-22, 15:00:49
Original geschrieben von Tarkin
wieder mal was vom Inq.

http://www.theinquirer.net/?article=14878

doch kein echter 16x1 oder wie jetzt?

ROFL! Langsam wirds lächerlich ;D :cop: FUAD :cop:

edit: Demirug, du warst schneller.

Und das nicht zum ersten male ;( ...

reunion
2004-03-22, 15:07:58
Original geschrieben von Demirug
Sorry, aber ich habe schon lange nicht mehr eine solche Ansammlung von Schwachsinn gelesen. Das ist selbst für :cop: FUAD :cop: eine neue Steigerung.


Alleine schon die Überschrift:
Nvidia's NV40 mimics a 16x1-pipeline architecture with just eight pipelines ;D

DrumDub
2004-03-22, 15:15:51
Original geschrieben von reunion
Alleine schon die Überschrift:
Nvidia's NV40 mimics a 16x1-pipeline architecture with just eight pipelines ;D

lustig isser aber schon, der fuad. je weniger er weiß, desto mehr behauptet er zu wissen, oder so ähnlich... ;D

edit: uttar behauptet steif und fest 16x1:

NV40 is 16x1/32x0.
Unless NVIDIA never really taped-out anything, and they plan on making tons of money on pre-orders then changing their company name.
http://www.beyond3d.com/forum/viewtopic.php?t=10990

Gast
2004-03-22, 16:34:26
Original geschrieben von Tarkin
wieder mal was vom Inq.

http://www.theinquirer.net/?article=14878

doch kein echter 16x1 oder wie jetzt?

ROFL! Langsam wirds lächerlich ;D

richtig.

Ich behaupte jetzt mal, der nV40 hat sogar nur zwei Pipelines bei anisotrop gefiltertem Multitexturing. Er täuscht nur vor, 16 Pipes bei Single-Texturing zu haben....

err... aber wozu??
Um 3DMark-Füllraten-Test zu gewinnen, worauf die ganze Welt stiert? :lol:

Nee, im Ernst: Wozu sollte man 16 Pipes vortäuschen?

Mir ist egal, wieviel Pipes er hat und mir ist auch egal, wieviele MHz er "hat" - was zählt ist die Leistung, die hinten raus kommt, egal, wie die letztendlich erreicht wird, solange keine Cheats im Busche sind.

;Q

Ailuros
2004-03-22, 17:00:57
Vielleicht hilft es dass Uttar eingestanden hat, dass die 3dmark Fuellraten mit 16bpp waren *hust* (irrelevant zum Inquirer).

Demirug
2004-03-22, 17:07:44
Original geschrieben von Ailuros
Vielleicht hilft es dass Uttar eingestanden hat, dass die 3dmark Fuellraten mit 16bpp waren *hust* (irrelevant zum Inquirer).

Den 3dmark Test mit 16bpp laufen zu lassen ist eigentlich das beste was man machen kann. In dem Fall reicht die Bandbreite.

Ailuros
2004-03-22, 17:17:44
Original geschrieben von Demirug
Den 3dmark Test mit 16bpp laufen zu lassen ist eigentlich das beste was man machen kann. In dem Fall reicht die Bandbreite.

Schon. Nur interessiert mich 16bpp kein bisschen.

Demirug
2004-03-22, 17:26:34
Original geschrieben von Ailuros
Schon. Nur interessiert mich 16bpp kein bisschen.

Der einzige Unterschied zwischen 32bpp und 16bpp ist die Bandbreite. Will man die maximale Fillrate wissen sollte man den Modus nehmen der am wenigsten Bandbreite braucht. Der Test ist syntetisch also sollte man in auch entsprechend nutzen.

DrumDub
2004-03-22, 17:34:04
Original geschrieben von Demirug
Der einzige Unterschied zwischen 32bpp und 16bpp ist die Bandbreite. Will man die maximale Fillrate wissen sollte man den Modus nehmen der am wenigsten Bandbreite braucht. Der Test ist syntetisch also sollte man in auch entsprechend nutzen.

nur ist so keine vergleichbarkeit gegeben, da normalerweise 32bpp vorausgesetzt wird.