PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVidia wird NV30 Karten selber herstellen


wrdaniel
2003-01-14, 06:05:47
P3dnow! : (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1042499295)

Wie DigiTimes (http://www.digitimes.com/NewsShow/Article.asp?datePublish=2003/01/13&pages=01&seq=2)berichtet, wird Nvidia die GeForceFX 5800-Karten, die auf dem NV30 Chip basieren, selber produzieren und dann an die jeweiliger Vertreiber verkaufen. Nur die abgewandelten Chipvarianten NV31 und NV34 sollen wie bisher als Chips an die Grafikkartenhersteller verkauft werden, jedoch zu erst zu einem späteren Zeitpunkt, März oder April diesen Jahres.
Dieser Schritt ist zwar überraschend, aber doch logisch, denn nur so kann Nvidia für seine Qualität und Stabilität garantieren, denn gerade die Signal- und die damit verbundene Bildqualität wurde in der Vergangenheit immer wieder bei den Nvidia-Karten bemängelt, obwohl Nvidia seinen Grafikkartenherstellern bei der Produktion schon große Restriktionen auferlegt hatte.
Die Eigenproduktion könnte natürlich den hohen Startpreis (vermutlich 600€) und den verspäteten Verkaufsstart (Februar) der GeForceFX erklären.

sollte eigentlich in den NV bereich :)

nggalai
2003-01-14, 08:43:36
Nö, passt hier schon rein--der "NV-Bereich" ist ein Hilfe-Forum. Hier geht's um Diskussion. ;)

Zum Text: sowohl Artikel als auch Thread-Titel hier sind leicht missverständlich. NV "produziert" nicht "selbst" Karten, sondern lässt bei einem oder zwei bevorzugten AIB-Herstellern alle Karten bauen, welche dann an andere Board-Hersteller vertrieben werden. Ähliche Situation wie bis anhin: bisher hat man als NV-Kartenbauer von NV Chipsets plus RAM erhalten. Für die GFFX gibt's jetzt das Package Chipset plus RAM plus Board plus Kühlung.

Man wird also am Schluss nicht à la ATI eine "NV-produzierte" Karte kaufen können, sondern noch immer beim Hersteller. NV stellt die Karten auch nicht selbst her, sondern verpflichtet Leute, welche GFFX-Karten bauen wollen, auch gleich das Board mitzukaufen (neben Chipset und RAM). Kann sich nur positiv auf die Qualität der Teile auswirken.

ta,
-Sascha.rb

Luke007
2003-01-14, 10:30:07
Falls die wirklich selber Grakas herstellen wie 3Dfx damals, dann sag ich nur noch Amen... (das war der grösste fehler den 3Dfx gemacht hat)




luke

Demirug
2003-01-14, 10:44:06
Originally posted by Luke007
Falls die wirklich selber Grakas herstellen wie 3Dfx damals, dann sag ich nur noch Amen... (das war der grösste fehler den 3Dfx gemacht hat)




luke

Das ist nicht ganz vergleichbar.

3dfx hat sich damals eine Fab in Mexico gekauft um die Karten herzustellen. NVIDIA bleibt der Fabless Tration treu und läst produzieren.

3dfx verkaufte nur noch unter eigenem Namen. NVIDIA beliefert weiterhin andere Hersteller welche dann an den Endkunden verkaufen.

SubZero
2003-01-14, 13:56:21
Originally posted by nggalai
Nö, passt hier schon rein--der "NV-Bereich" ist ein Hilfe-Forum. Hier geht's um Diskussion. ;)

Zum Text: sowohl Artikel als auch Thread-Titel hier sind leicht missverständlich. NV "produziert" nicht "selbst" Karten, sondern lässt bei einem oder zwei bevorzugten AIB-Herstellern alle Karten bauen, welche dann an andere Board-Hersteller vertrieben werden. Ähliche Situation wie bis anhin: bisher hat man als NV-Kartenbauer von NV Chipsets plus RAM erhalten. Für die GFFX gibt's jetzt das Package Chipset plus RAM plus Board plus Kühlung.

Man wird also am Schluss nicht à la ATI eine "NV-produzierte" Karte kaufen können, sondern noch immer beim Hersteller. NV stellt die Karten auch nicht selbst her, sondern verpflichtet Leute, welche GFFX-Karten bauen wollen, auch gleich das Board mitzukaufen (neben Chipset und RAM). Kann sich nur positiv auf die Qualität der Teile auswirken.

ta,
-Sascha.rb

ok, sorry, konnte mit dem ems-begriff nicht so sehr viel anfangen, werde die news ändern

fckwman
2003-01-14, 20:16:13
ich kannte da mal ne Firma
die dachte es wäre mächtig schlau selber Karten zu produzieren leider is sie daran kaputt gegangen ...........

Demirug
2003-01-14, 20:17:47
Originally posted by fckwman
ich kannte da mal ne Firma
die dachte es wäre mächtig schlau selber Karten zu produzieren leider is sie daran kaputt gegangen ...........

fckwman, wer lesen kann ist klar im Vorteil. ;) Schau mal was da oben schon steht.

fckwman
2003-01-14, 21:09:49
stimmt muß ich übersehen haben
sorry

Boris
2003-01-14, 21:13:58
ihr dürft nur nicht vergessen dass 3Dfx nicht NUR wegen dem untergegangen ist... ;)

fckwman
2003-01-14, 21:21:08
Originally posted by Boris
ihr dürft nur nicht vergessen dass 3Dfx nicht NUR wegen dem untergegangen ist... ;)

Das is klar aber das war mit abstand der größte fehler den sie gemacht haben, sie haben selber Marktanteile verschenkt in dem sie keine anderen Hersteller mehr zuließen, außerdem hat die Fabrik in Mexico nie gewinnbringend gearbeitet (ok ganz zum schluß schon aber da war es eh zu spät), meiner Meinung nach hätten sie "überlebt" wenn sie nicht diese verhängnisvolle Entscheidung getroffen hätten.

Boris
2003-01-14, 21:26:38
Originally posted by fckwman
...meiner Meinung nach hätten sie "überlebt" wenn sie nicht diese verhängnisvolle Entscheidung getroffen hätten.

kann schon sein, aber eigentlich hätte es ihnen mehr gebracht wenn sie früher mit der Entwiklung und Auslieferung von Grafikchips und Karten hinterhergekommen wären... wenn die 5 6000 in den Handel gekommen wäre... puuhhh... nVidia hätte damals keine Chance gehabt...

und ATI ist mit den BBA Karten auch ganz gut über die Runden gekommen..

FZR
2003-01-14, 22:03:07
3dfx hat sich damals einfach zu sehr eingekauft mit irgendwelchen unterfirmen und halt der fab. in Mexico.

Außerdem wurde sich zu lange auf alten Lorbeeren ausgeruht. Die V3 war eine aufgebohrte V2 die nur 16bit beherrschte, ansich war sie ja schnell nur die Käufer wollten zu dem Zeitpunkt schon 32bit.....naja nahm halt alles seinen lauf. Die V5 5500 war auch nicht der hammer bis auf FSAA. Die V5 6000 hätte kommen müssen als die GF2 Ultra raus war. Dann nämlich hätte NV einpacken können.

3dfx hätte anschließend ganz klar die Nase vorn gehabt, einige Karten mit echtem AGP und DDR RAM waren ja schon produziert zu test zwecken....

http://members.aon.at/grandadmiralthrawn/index.htm?http://www.hardoverclock.de/html/articles/3dfxtribute/3dfxtribute_0.htm

Da ist ein ziemlich fettes 3dfx Review wo auch die Zukünftigen Projekte (die NV einfach liegen lässt) sehr schön dargelegt.

Richthofen
2003-01-14, 22:41:46
"
Die V5 5500 war auch nicht der hammer bis auf FSAA. Die V5 6000 hätte kommen müssen als die GF2 Ultra raus war. Dann nämlich hätte NV einpacken können.
"

Auch nur kurfristig und nur bedingt. Die V5 6k hätte nur bei FSAA geglänzt. In allen anderen Bereichen wäre die GF2 Ultra wohl besser gewesen.
Auch hätte dies nicht das Problem gelöst, das 3DFX die Ressourcen fehlten um die schnelle Entwicklung mitzugehen. Viele Ingineure waren schon längst weggerannt. Spätestens mit der GF3 wäre Feierabend gewesen und die kam nicht so viel Später als die Ultra.
3dfx hatte ausser dem Retailmarkt überhaupt keine Standbeine.
Sie waren voll und ganz abhängig von der Preis und Produktentwicklung dort. Nvidia hat zu der Zeit schon Tonnenweise TNT2M46 Teile und GF2MXen an die OEMs verramscht.

Boris
2003-01-14, 22:43:33
mich interessiert was mit ATI passiert wäre wenn 3dfx ein bisschen länger gelebt hätte! :|

Salvee
2003-01-14, 22:49:37
Originally posted by Boris
mich interessiert was mit ATI passiert wäre wenn 3dfx ein bisschen länger gelebt hätte! :|

ATi war eigentlich das genaue Gegenteil von 3dfx: Am Retailmarkt so gut wie überhaupt nicht präsent, dafür (zu dieser Zeit) noch recht dominant was den OEM-Markt angeht.
Die zwei Firmen wären sich bei Beibehaltung der jeweiligen Marktpositionierung überhaupt nicht in die Quere gekommen (nur nV hat da irgendwie nicht reingepasst :D )

Piffan
2003-01-14, 23:07:17
NV hat noch eine ganze Menge vor.....Der Nforce2 soll ja auch nicht gerade schlecht sein. Wer weiß, ob NV nicht auch Via zum Verhängnis wird....

NV besteht aus einer gesunden Mischung aus beinharten Geschäftsleuten und fähigen Wissenschaftlern/Technikern....

mapel110
2003-01-14, 23:38:57
Originally posted by Piffan
NV hat noch eine ganze Menge vor.....Der Nforce2 soll ja auch nicht gerade schlecht sein. Wer weiß, ob NV nicht auch Via zum Verhängnis wird....


NV ist aber wesentlich teurer als via.

Originally posted by Piffan
NV besteht aus einer gesunden Mischung aus beinharten Geschäftsleuten und fähigen Wissenschaftlern/Technikern....

das sieht bei via nicht anders aus. da sind auch genug fähige leute am werk.
man mag ja sagen, dass via in der vergangenheit immer bugs in ihren chipsätzen hatten, aber den markt beherrschen sie trotzdem, und das nicht aus magel an konkurrenz (ALI/SIS/NV/ati). alle angriffe einfach durch den besseren preis ausgestochen. NV kann da nur durch ausstattung/stabilität glänzen. leistung ist fast zu vernachlässigen.

btw via stellt auch gute sound-chipsätze her. die sind ähnlich der leistung einer audigy.

Piffan
2003-01-14, 23:45:30
Laut der c't ist der Performance- Vorsprung des Nforce 2 zum KT400 aber so erheblich, dass er dem nächstschnelleren Prozessortakt entspricht....AMD soll auch hocherfreut sein, NV ist derzeit AMDs Liebling....

Was den Preisvorteil betrifft: Da ist Via nicht generell billiger, sehr viel hängt auch vom Markennamen des Boardherstellers ab.... Im Schnitt ist er wohl etwas teurer, aber nicht so viel wie noch beim Nforce 1....

Salvee
2003-01-15, 00:07:45
nV beschäftigt sehr fähige Leute, keine Frage.
Aber auch sie sollten nicht dem Grössenwahn anheim fallen, nach dem Motto:
Wir bauen nForce 1&2, X-Box, GFFX und am besten alles noch gleichzeitig, denn sonst gerät man in den zwangsläufig vernachlässigten Gebieten sehr schnell ins Hintertreffen.
Ich denke, das ist auch der Hauptgrund, warum beispielsweise Intel die Finger vom 3D-Chipgeschäft lässt: lieber in den Kerngeschäftsfeldern mit allen Mitteln gepowert (Intel hat da ja ein bis zwei 'recht' lukrative), als sich zu breit aufzustellen und an zu vielen Fronten zu kämpfen (alles imo natürlich).

mapel110
2003-01-15, 00:31:20
Originally posted by Salvee
Wir bauen nForce 1&2, X-Box, GFFX und am besten alles noch gleichzeitig, denn sonst gerät man in den zwangsläufig vernachlässigten Gebieten sehr schnell ins Hintertreffen.

kann gut sein, dass das bei der GFFX schon der fall ist. es geht ja auch das gerücht um, dass diese graka schon für sommer 2002 geplant war. und dafür ist die verspätung wirklich enorm und vielleicht auch durch inkompetenz zu begründen. nämlich, als es darum ging, das design auf 0.13 oder 0.15 auszulegen. sicher konnte man nicht ahnen, dass der fertigungsprozess solche probs bereiten würde, aber imo war da vielleicht der anteil des risikos zu hoch, was sich ja letztenendes bestätigt hat.

btw das nvidia den kleineren fertigungsprozess wählte, hängt vielleicht auch mit der firmenphilosophie zusammen, die da schon seit generationen lautet "Rohpower, koste es, was es wolle"
und das ist immernoc der hauptgrund für benchmarks. zahlen lassen sich besser vergleichen als bilder. bildqualität kann ja sehr subjektiv sein.

es gibt ja auch hier recht viele, die lieber hohe fps-zahlen haben, als sich an AF und AA zu ergötzen. für mich persönlich bringt AF am meisten. deswegen ja ich ja schliesslich zur radeon 8500 gegriffen. :)

Salvee
2003-01-15, 00:45:06
Originally posted by mapel110


btw das nvidia den kleineren fertigungsprozess wählte, hängt vielleicht auch mit der firmenphilosophie zusammen, die da schon seit generationen lautet "Rohpower, koste es, was es wolle"
und das ist immernoc der hauptgrund für benchmarks. zahlen lassen sich besser vergleichen als bilder. bildqualität kann ja sehr subjektiv sein.



(Spekulation)
Wobei ich bei der GFFX wirklich glaube, dass erstmals (seit der GF3 zumindest) die Rohpower weniger im Vordegrund stand denn die Bildqualität
(lange Shader tragen, sofern benutzt, ja auch gewaltig zur Bildqualität bei).
Die Rohpower muss jetzt nachträglich aufgrund der Konkurrenzsituation per Extrem-Kühlung/Takt-Orgien bei GPU/RAM ermöglicht werden.

mapel110
2003-01-15, 00:56:07
Originally posted by Salvee
Die Rohpower muss jetzt nachträglich aufgrund der Konkurrenzsituation per Extrem-Kühlung/Takt-Orgien bei GPU/RAM ermöglicht werden.

ich glaube nicht, dass so etwas nachträglich gemacht werden kann. ein design muss auch auf den fertigungsprozess abgestimmt sein.

daflow
2003-01-15, 01:00:37
Originally posted by mapel110
btw das nvidia den kleineren fertigungsprozess wählte, hängt vielleicht auch mit der firmenphilosophie zusammen, die da schon seit generationen lautet "Rohpower, koste es, was es wolle"
und das ist immernoc der hauptgrund für benchmarks. zahlen lassen sich besser vergleichen als bilder. bildqualität kann ja sehr subjektiv sein.
es gibt ja auch hier recht viele, die lieber hohe fps-zahlen haben, als sich an AF und AA zu ergötzen. für mich persönlich bringt AF am meisten. deswegen ja ich ja schliesslich zur radeon 8500 gegriffen. :)

JO..was mich persönlich wundert ist das Nv trotzdem (noch?) den weg des qualitativen Afs geht. Rein Benchmarktechnisch graben sie sich damit ihr eigenes Grab;) Ich mein es kann ja nich so schwierig sein gleich im Treiber das AF performance zu optimieren (siehe atuner->nicht alle stages filtern). Ich könnte mir aber gut vorstellen das Nv in dieser Richtung aktiv wird sollten die Af-Benches gegenüber dem r300 blamabel ausfallen.
@Aths vielleicht kannst du ihnen ja den Atuner teuer verkaufen:;))
..mal sehen was wie wird;)

Salvee
2003-01-15, 01:04:22
Originally posted by mapel110


ich glaube nicht, dass so etwas nachträglich gemacht werden kann. ein design muss auch auf den fertigungsprozess abgestimmt sein.

Habe mich missverständlich ausgedrückt, meinte auf die Taktraten bezogen, nicht etwa eine Umstellung von 0,15µ auf 0,13µ in letzter Sekunde o.ä.
(sondern halt statt geplanter 350 oder 400Mhz jetzt gleich 500 oder noch mehr).

mapel110
2003-01-15, 01:37:32
Originally posted by Salvee


Habe mich missverständlich ausgedrückt, meinte auf die Taktraten bezogen, nicht etwa eine Umstellung von 0,15µ auf 0,13µ in letzter Sekunde o.ä.
(sondern halt statt geplanter 350 oder 400Mhz jetzt gleich 500 oder noch mehr).

aha, aber imo auch wenig realistisch

,weil nvidia anscheinend schon auf 0.13 geplant hat und damit auch sofort mit sehr hohen taktraten. eine GeforceFX mit nur 300-350 mhz chiptakt war wohl nie vorgesehen.

imo also verspätung wegen dem fertigungsprozess und nicht wegen dem "eventuell nachträglich" erhöhten chiptakt.

@peta
AF performance scheint okay zu sein. dank massig füllrate und noch mehr bandbreite und schonung der selben ;) eine optimierung wird imo unnötig werden.

Piffan
2003-01-15, 14:42:41
Originally posted by mapel110



btw das nvidia den kleineren fertigungsprozess wählte, hängt vielleicht auch mit der firmenphilosophie zusammen, die da schon seit generationen lautet "Rohpower, koste es, was es wolle"
und das ist immernoc der hauptgrund für benchmarks. zahlen lassen sich besser vergleichen als bilder. bildqualität kann ja sehr subjektiv sein.

es gibt ja auch hier recht viele, die lieber hohe fps-zahlen haben, als sich an AF und AA zu ergötzen. für mich persönlich bringt AF am meisten. deswegen ja ich ja schliesslich zur radeon 8500 gegriffen. :)

Mal meine Meinung dazu. Ist natürlich eine Theorie bzw. Spekulation, weil ich kein Profi bin: Ein Karte braucht einfach Rohpower, weil FSAA und AF in jedem Falle Leistung schlucken. Beim AF kann man nur Power einsparen, indem man "optimiert" oder unvollständig filtert, aber letztlich brauchts einfach Power... Beim FSAA war Nvidia die erste Firma, die das schonende Multisampling einführte, das extrem leistungszehrende Supersampling war bis dato Stand der Dinge..

Die These, dass NV nur auf brachiale Power zielt, ist also völlig haltlos: NV hat die LMA- Technik entwickelt, spart Bandbreite. NV hat als erster ein superbes AF präsentiert, dass das möchtegern AF der R8500 deutlich deklassierte. NV hat das Multisampling als erste Firma für den Konsumenten erschlossen...

Fazit: NV ist immer sehr innovativ gewesen und hat dem Kunden die Wahl gelassen: Brachiale Power für den Bench oder superbe Bildqualität, die allerdings wegen des vollständigen AFs extrem Leistung zehrt...

Also, immer schön die Fakten beachten und keine platten Schlagwörter a la "Nvidia entwickelt nur für Benches" etc....

Unregistered
2003-01-15, 16:16:02
"
Also, immer schön die Fakten beachten und keine platten Schlagwörter a la "Nvidia entwickelt nur für Benches" etc....
"

Der Spruch ist ohnehin haltlos.
Der trifft wenn dann überhaupt nur auf die Mitbewerber und zwar alle.

Nvidia hat eigentlich kaum ein Problem in der Masse der Games.
Sie laufen alle gleich rund.
Bei den Konkurenten sieht das aber anders aus.
Dort ist Q3 schnell und vielleicht noch RTCW oder UT und wenn man mal abseits geht zu einfach kleineren Spielen oder zum Beispiel Flugsimulationen ist schnell Ende im Gelände.

Nvidia liefert da einfach das rundere Ergebniss ab. Kaum Megaausreißer nach oben und auch nicht nach unten.
Bei anderen findet man diesen Fall aber sehr schnell.
Bei ATI gibts massig Games die einfach grauenhaft laufen gemessen an der Hardware Performance die zur Verfügung steht.
Dort findet man schon viel eher den Fall das es mal erhebliche Ausreisser nach unten gibt. Bei den Konkurenten SIS und CO dürfte dieser Fall noch viel wahrscheinlicher und öfter eintreten.

Die Behauptung Nvidia würde nur auf Benchmark optimieren ist für mich völlig haltlos und trifft wenn dann eher auf die Konkurenten zu.

skampi
2003-01-15, 16:32:56
Originally posted by Unregistered
....
Bei ATI gibts massig Games die einfach grauenhaft laufen gemessen an der Hardware Performance die zur Verfügung steht
...


Genau das ist IMHO der Grund, warum Du immer so schräge Statements abgibst. Unwissen.

So, und jetzt werd mal konkret.

StefanV
2003-01-15, 16:43:57
Originally posted by Piffan
Die These, dass NV nur auf brachiale Power zielt, ist also völlig haltlos: NV hat die LMA- Technik entwickelt, spart Bandbreite. NV hat als erster ein superbes AF präsentiert, dass das möchtegern AF der R8500 deutlich deklassierte. NV hat das Multisampling als erste Firma für den Konsumenten erschlossen...

Fazit: NV ist immer sehr innovativ gewesen und hat dem Kunden die Wahl gelassen: Brachiale Power für den Bench oder superbe Bildqualität, die allerdings wegen des vollständigen AFs extrem Leistung zehrt...

Also, immer schön die Fakten beachten und keine platten Schlagwörter a la "Nvidia entwickelt nur für Benches" etc....

1. ja, aber ATI hatte sowas schon vor NV, nämlich in der Radeon.
Matrox hatte sowas wie einen CMBC und S3 soll (in der Savage 4) schon ein 'Fast Z Clear' gehabt haben...

2. wo ist NV innovativ ??
Soo sehr, wie so oft behauptet, sind sie nicht.
Die ganzen 'Must Have Fatures' kommen meist von von anderen...
z.B. S3TC von S3, 'Dual Head' von Matrox und FSAA von 3DFX...
Was mir so spontan einfällt, wäre, daß NV HW-TnL auf Consumer Karten 'gebastelt' haben, HW-TnL gabs aber schon Jahre früher, z.B. in 3D Labs Karten...

3. fazit:
Mehr als 'brachiale Power' hat NV nicht zu bieten :naughty:*fg*

StefanV
2003-01-15, 16:49:42
Originally posted by Unregistered
Der Spruch ist ohnehin haltlos.
Der trifft wenn dann überhaupt nur auf die Mitbewerber und zwar alle.

Nvidia hat eigentlich kaum ein Problem in der Masse der Games.
Sie laufen alle gleich rund.
Bei den Konkurenten sieht das aber anders aus.
Dort ist Q3 schnell und vielleicht noch RTCW oder UT und wenn man mal abseits geht zu einfach kleineren Spielen oder zum Beispiel Flugsimulationen ist schnell Ende im Gelände.

Nvidia liefert da einfach das rundere Ergebniss ab. Kaum Megaausreißer nach oben und auch nicht nach unten.
Bei anderen findet man diesen Fall aber sehr schnell.
Bei ATI gibts massig Games die einfach grauenhaft laufen gemessen an der Hardware Performance die zur Verfügung steht.
Dort findet man schon viel eher den Fall das es mal erhebliche Ausreisser nach unten gibt. Bei den Konkurenten SIS und CO dürfte dieser Fall noch viel wahrscheinlicher und öfter eintreten.

Die Behauptung Nvidia würde nur auf Benchmark optimieren ist für mich völlig haltlos und trifft wenn dann eher auf die Konkurenten zu.

1. nicht wirklich.
Hast du auch mal Argumente ??
Bei ATI und/oder Matrox find ich ja nicht nur 3D Features, da gibts auch schon jahrelang sowas wie Motion Compensation...

2. ach ja ??
Ist das DEIN völliger Ernst ??
Da hab ich aber andere Erfahrungen gesammelt, z.B. mit 'älteren' Voodoo optimized Games, die 'hin und wieder' rummucken, diverse Konsolenumsetzungen und auch einige neuere Spiele, die nicht wirklich gut laufen (Dungeon Siege mit FSAA z.B.)

3. solange man kein AF einschaltet...

Mag ja sein, daß manche Games auf NV 'besser' laufen, nur hat dann der Game Hersteller scheiße gebaut, wenn andere dadurch benachteiligt werden...

4. Lieber Richthofen, was gibts denn für einen Grund NV zu kaufen, wenn man mal den 3D Kern weglässt ??
Nicht viel ?

Piffan
2003-01-15, 16:53:18
quote:
--------------------------------------------------------------------------------
Originally posted by Unregistered
....
Bei ATI gibts massig Games die einfach grauenhaft laufen gemessen an der Hardware Performance die zur Verfügung steht
...

--------------------------------------------------------------------------------



Genau das ist IMHO der Grund, warum Du immer so schräge Statements abgibst. Unwissen.

So, und jetzt werd mal konkret.







Dieses Statement ist gar nicht so schräg! Ich will mir hier nicht wieder den Mund verbrennen, darum sage ich mal, dass nicht wenige zumindest diese Meinung vertreten, z.B. Dirk Gooding, der bis vor kurzem Redakteur bei der PcGHardware war....(ein seltener Glücksfall, dass mal ein Redakteur, der sicher schon einige Grakas und Spiele getestet und in der PcGHardware Tipps zur Performance von Spielen gegeben hat, hier mal im Forum Klartext geredet hat...)

Wenn denn diese "Performance- Inkonstanz" da ist, dann wäre die Erklärung für mich naheliegend: Die meisten Entwickler arbeiten gern auf NV- Hardware. Da ist es doch wohl logisch, dass gewisse Rücksichten auf die Architektur der Chips genommen werden.... ein Treiber mag noch so gut sein, aber einen Code kann der wohl kaum optimieren in performance- technischer Hinsicht. Alle imho selbstredent.... eigentlich sollte bei einer Plattform wie directX oder OpenGl kein Vorteil für eine bestimmte Hardware bestehen...aber wie kommts dann, dass bestimmte Spiele auf der Radeon bei Erscheinung so mau laufen und erst mit einer Treiberrevision erwartungsgemäß performen? War nicht Mafia so ein Fall? Bei Gothic 2 soll es auch nicht so völlig reibungsfrei laufen...

Interessant wäre ja mal, was ein Profi zu meinen "Verdächtigungen" sagt...

Andre
2003-01-15, 16:53:24
Flame ahoi!

Piffan
2003-01-15, 16:57:11
Lieber SP! Jetzt biste wieder happy, gell

Also zu deiner Behauptung, dass 3DFX das FSAA erfunden hat: Ist jetzt schon Zeit fürs Sandmännchen?

LovesuckZ
2003-01-15, 17:16:33
Originally posted by Stefan Payne
4. Lieber Richthofen, was gibts denn für einen Grund NV zu kaufen, wenn man mal den 3D Kern weglässt ??
Nicht viel ?

Dann bleibt mir die Frage, warum man sich ne 9500+ kaufen sollte, wenn man sowieso nur den 2D Bereich bei ATI betrachten solle...

Piffan
2003-01-15, 17:18:32
Originally posted by Stefan Payne


1. ja, aber ATI hatte sowas schon vor NV, nämlich in der Radeon.
Matrox hatte sowas wie einen CMBC und S3 soll (in der Savage 4) schon ein 'Fast Z Clear' gehabt haben...

2. wo ist NV innovativ ??
Soo sehr, wie so oft behauptet, sind sie nicht.
Die ganzen 'Must Have Fatures' kommen meist von von anderen...
z.B. S3TC von S3, 'Dual Head' von Matrox und FSAA von 3DFX...
Was mir so spontan einfällt, wäre, daß NV HW-TnL auf Consumer Karten 'gebastelt' haben, HW-TnL gabs aber schon Jahre früher, z.B. in 3D Labs Karten...

3. fazit:
Mehr als 'brachiale Power' hat NV nicht zu bieten :naughty:*fg*

Ach Stefan! Deine Argumentation ist regelrecht infantil!

Hat NV nun laufende Verbesserungen in die Chiparchitektur eingebaut oder nicht? Es ist doch latte, wer "zuerst" damit begonnen hat. Ich wollte nur mal den Spruch von der reinen Rohpower widerlegen. Es ist also keineswegs nur an der Taktschraube gedreht worden, sondern man hat von Generation zu Generation an Performance, Bildqualität und Bandbreiteneinsparung gefeilt. NV gehört aber der Verdienst, das Multsampling für Otto Normal bezahlbar zu mache. Imho war die G3 die erste Graka mit einem FSAA ohne katastrophalen Einbruch. Bei DFX war man sehr weit, zumindest was die Qualität des FSAA betrifft, aber ermöglich wurde das doch durch enormen Aufwand und hohen Kosten der Platinen...

Ich sage ja nicht, dass man bei Ati nichts dergleichen tut, aber oben wurde behauptet, das NV fast nix verbessert..

GUNDAM
2003-01-15, 18:52:53
Um mal zurück zum Thema dieses Threads zu kommen:

Ich finde nVidia sollte die GeforceFX Karten nicht selbst herstellen. Denn was passieren kann hat man ja bei 3DFX gesehen. Die haben mit der Voodoo3 ihre karten auch nur noch selbst hergestellt und am ende waren sie pleite. Und das könnte mit nVidia auch passieren. Vor allem bei den Preisen die die GFFX Karten kosten sollen. Denn wer käuft sich schon eine Karte die rund €600 kostet:D

aths
2003-01-15, 19:54:05
Originally posted by Piffan
Es ist also keineswegs nur an der Taktschraube gedreht worden, sondern man hat von Generation zu Generation an Performance, Bildqualität und Bandbreiteneinsparung gefeilt. NV gehört aber der Verdienst, das Multsampling für Otto Normal bezahlbar zu mache. Imho war die G3 die erste Graka mit einem FSAA ohne katastrophalen Einbruch.Die GF FX hat FSAA- und AF-mäßig nicht wirklich mehr zu bieten als eine GeForce3. GeForce3 hat MSAA, ja. Dafür einen nur wenig tollen 4x-Modus, was leider für die FX auch noch gilt.

LMA wurde für die GF4 Ti teilweise wieder verschlechtert (Early Z spart keine Füllrate mehr.)

(Dafür gibts nun Dinge wie Fast Z Clear. Insgesamt scheint die LMA-Effizienz aber nicht wirklich zugenommen zu haben, ich schustere die Geschwindigkeitsvorteile gegenüber GeForce3 eher dem Takt und vor allem auch dem Speichertakt zu. Nur wenn eine Engine zum Zuge kommt, die von sich aus schon sehr gute Overdraw-Minimierung hat, mag das NV25-LMA2 ein wenig effizienter sein. Schade dass nV sich mit wirklich interessanten Details zurück hält.)

Die letzten Innovationen was AA bzw. AF angeht, sind lange her. Seit GF3 wurde lieber an der Taktschraube gedreht, als z.B. 4x RGMSAA anzubieten. nVidia ist nicht ständig innovationslos, doch zeigte ATI zuletzt durchaus mehr Engagement. Siehe die großen Fortschritte beim AF, siehe das suberbe FSAA.

Als ich weiland meinen Rechner zusammen stellte, hatte nVidia die GeForce4 Ti zu bieten, und ATI nur eine Radeon 8500. Da war nicht viel zu überlegen, was ich nehme: GeForce4 Ti bietet für meine Bedürfnisse bessere Bildqualität steigernde Maßnahmen, und hat ganz nebenbei auch die meiste Rohpower. (Ti 4600 kostete ein Schweinegeld verglichen mit Radeon 8500, und war doch spürbar schneller als es die +25 MHz GPU-Takt vermuten ließen. Das FSAA der Radeon8500 ist lächerlich, und AF ohne trilineare Filterung, von einen GF3-Besitzern ganz gerne genommen, wäre mir auch nicht recht.)
Seit R300 hat sich das Blatt gewendet, und mit der FX wird nV ATI höchstens rohpowermäßig überflügeln können.
Originally posted by Piffan
Bei DFX war man sehr weit, zumindest was die Qualität des FSAA betrifft, aber ermöglich wurde das doch durch enormen Aufwand und hohen Kosten der Platinen...3dfx, bitte.

YfOrU
2003-01-15, 19:59:30
da haben die NV kartenhersteller nix zu lachen
Im endefekt heisst des, dass sie weniger verdienen
werden und sich von der hardwareausstatung fast nicht
mehr voneinander absetzen können.

mapel110
2003-01-15, 20:11:01
bleibt vor allem zu hoffen, dass nvidia die treiber gleich von beginn an stabil zum laufen bringt. ich meine, zeit hatten sie nun genug dafür.

Unregistered
2003-01-15, 20:16:04
Originally posted by Jean-Luc Picard
Um mal zurück zum Thema dieses Threads zu kommen:

Ich finde nVidia sollte die GeforceFX Karten nicht selbst herstellen. Denn was passieren kann hat man ja bei 3DFX gesehen. Die haben mit der Voodoo3 ihre karten auch nur noch selbst hergestellt und am ende waren sie pleite. Und das könnte mit nVidia auch passieren. Vor allem bei den Preisen die die GFFX Karten kosten sollen. Denn wer käuft sich schon eine Karte die rund €600 kostet:D

Ich weiß nicht ob du vorher schon mitgelesen hast, es wurde wirklich schon x-mal geschrieben, nVidia wird nicht eine Karte selber herstellen. Sie werden nur in enger Zusammenarbeit mit MSI die ersten GeforceFX Karten für alle anderen Hersteller produzieren.
Genauso wie bei der R9700, das war Teamwork zwischen ATI und Sapphire.

nggalai
2003-01-15, 20:33:07
Originally posted by Unregistered


Ich weiß nicht ob du vorher schon mitgelesen hast, es wurde wirklich schon x-mal geschrieben, nVidia wird nicht eine Karte selber herstellen. Sie werden nur in enger Zusammenarbeit mit MSI die ersten GeforceFX Karten für alle anderen Hersteller produzieren.
Genauso wie bei der R9700, das war Teamwork zwischen ATI und Sapphire. Genau.

Was noch nicht klar zu sein scheint ist, ob die Boards auch schon bestückt sein werden, oder eben nur diese lustigen 12layer-Dinger ohne Bausteine (oder waren's 10 layers? ???).

ta,
-Sascha.rb

Unregistered
2003-01-15, 20:37:05
Klar sind 500Mhz viel, da wirds schwer mit der Signalqualität, aber 12 Layer bei einem 128Bit Speicherinterface ???
Da erlaube ich mir mal Zweifel zu haben.

Pussycat
2003-01-16, 13:09:59
Originally posted by mapel110

es geht ja auch das Gerücht um, dass diese graka schon für sommer 2002 geplant war.

Ein Gerücht ist dass nicht.

"
[Marco] So, can we expect an NV30 in one year from now?
[Dan] Yes, more or less, but I don't know for sure. It is our spring 02 product.
"

http://www.hwzone.it/html/text.php?id=205

Radeonator
2003-01-17, 15:00:08
Laut Quasar sind News vom 17.1. Old News...

hier die Bestätigung der Gerüchte HeiseNews (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=49832)

Quasar
2003-01-17, 15:21:13
Originally posted by aths
(Dafür gibts nun Dinge wie Fast Z Clear. Insgesamt scheint die LMA-Effizienz aber nicht wirklich zugenommen zu haben, ich schustere die Geschwindigkeitsvorteile gegenüber GeForce3 eher dem Takt und vor allem auch dem Speichertakt zu. Nur wenn eine Engine zum Zuge kommt, die von sich aus schon sehr gute Overdraw-Minimierung hat, mag das NV25-LMA2 ein wenig effizienter sein.

Je nachdem, wie du die "Optimierung" des Villagemarks bewertest, konnte eine GF4Ti auf GF3-Taktung einen Vorsprung vor dieser von 7,5% erreichen. Leider habe ich es damals versäumt, auch den Villagemark zu testen.

Quasar
2003-01-17, 15:23:30
Originally posted by Radeonator
Laut Quasar sind News vom 17.1. Old News...

hier die Bestätigung der Gerüchte HeiseNews (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=49832)
Ob heise nun dazuschreibt, "Ein Boardhersteller hätte es bestätigt", macht eine alte News noch lange nicht zu einer neuen.

Radeonator
2003-01-17, 15:26:44
Originally posted by Quasar

Ob heise nun dazuschreibt, "Ein Boardhersteller hätte es bestätigt", macht eine alte News noch lange nicht zu einer neuen.

CT ist IMO Vertrauenswürdiger als DIGI Times (eine der vielen Bild Online Sites ;) )

Trotzdeben finde ich diesen Schritt , naja, sagen wir mal mutig

Quasar
2003-01-17, 15:38:04
Whatever...

Ob's wirklich eine gute Sache ist, werden wir sehen. Wenn es zu einer durchweg hohen Qualität bei den verwendeten Komponenten führt, wird es eine gute Sache sein.
Wenn es den Wettbewerb zwischen den Herstellern auf Null reduziert und uns so konstant hohe Preise aufzwingt, dann ist es keine so gute Sache.

Übrigens: nVidia wird die Karten nicht selber herstellen, sondern einen Hersteller ihres Vertrauens damit beauftragen und so die Kontroller über Material und verwendete Komponenten behalten. Um selbst zu produzieren, braucht es eine Fabrik.

Radeonator
2003-01-17, 16:45:06
Naja, wie geschrieben : Das alte ATi System. AFAIK hat Sapphire die BBA Karten langezeit gebastelt. Auch nach dem "Umschwung" hatten BBA einen besseren Ruf als PBA, was sich inzwischen ja relativiert hat. Für die Quali sicherlich gut, für die Verfügbarkeit mehr als schlecht!

SubZero
2003-01-17, 16:49:48
laut xbitlabs sollen msi und leadtek die auserwählten firmen sein

und digitimes würde ich nun auf gar keinen fall auf bild-niveau einstufen, inquirer schon, aber digitimes, ich glaube nicht, tim