PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 1 Jahr Zeit für FX-Treiber -> Carmack spricht von Treiberverbesserungen??


Dr. Greenthumb
2003-02-07, 15:29:25
Ich nehme an jeder hat die heutigen News gelesen.

Wenn alles der Wahrheit entspricht hatte nVidia mehr als 1 jahr Zeit den Treiber zu entwickeln zumindest mit der Chipsimulation!!!

John Carmack schreibt nun (und wenn er was sagt hats meist Hand und Fuß), das das Potential der FX von den Treibern noch nicht ausgereizt wurde???

Die Frage ist nun, was hat nV in dem ganzen jahr eigentlich gemacht, vor allem wenn man sieht das der Treiber noch Fehler enthält? Däumchen gedreht?

BlackBirdSR
2003-02-07, 15:32:13
Originally posted by Dr. Greenthumb
Ich nehme an jeder hat die heutigen News gelesen.

Wenn alles der Wahrheit entspricht hatte nVidia mehr als 1 jahr Zeit den Treiber zu entwickeln zumindest mit der Chipsimulation!!!

John Carmack schreibt nun (und wenn er was sagt hats meist Hand und Fuß), das das Potential der FX von den Treibern noch nicht ausgereizt wurde???

Die Frage ist nun, was hat nV in dem ganzen jahr eigentlich gemacht, vor allem wenn man sieht das der Treiber noch Fehler enthält? Däumchen gedreht?

LästerMode on:
von januar bis Juli hat man die Treiberdaten verloren wegen eines Servercrahsed..

ab September haben fast Alle bei Nvidia mit ihrer neuen R300 UT2003 in 1024x768 4xAA und 16xAF gezockt, so dass nur wenig Arbeitsstunden für Treiber verfügbar waren ;)
LästerMode off:

Ich hab keine AHnung was mit den Treibern passiert ist.

tEd
2003-02-07, 15:41:52
Originally posted by Dr. Greenthumb
Ich nehme an jeder hat die heutigen News gelesen.

Wenn alles der Wahrheit entspricht hatte nVidia mehr als 1 jahr Zeit den Treiber zu entwickeln zumindest mit der Chipsimulation!!!

John Carmack schreibt nun (und wenn er was sagt hats meist Hand und Fuß), das das Potential der FX von den Treibern noch nicht ausgereizt wurde???

Die Frage ist nun, was hat nV in dem ganzen jahr eigentlich gemacht, vor allem wenn man sieht das der Treiber noch Fehler enthält? Däumchen gedreht?

wenn du das plan file von j.c. genau durchliest , dann macht nicht er die behauptungen der treiber geschwindigkeitsverbesserung aber nvidia selber.
Auch im beyond3d interview sagt er das nvidia geschwindigkeitsverbesserung erwartet , er selber hat sich nicht dazu geäussert , er erzählt einfach das was nvidia ihm gesagt hat.

Dr. Greenthumb
2003-02-07, 15:44:06
Originally posted by tEd


wenn du das plan file von j.c. genau durchliest , dann macht nicht er die behauptungen der treiber geschwindigkeitsverbesserung aber nvidia selber.
Auch im beyond3d interview sagt er das nvidia geschwindigkeitsverbesserung erwartet , er selber hat sich nicht dazu geäussert , er erzählt einfach das was nvidia ihm gesagt hat.

Danke danke, hätt ich aber nicht gedacht das Carmack einfach Marketingsprüche nachblubbert!! Bei seinem Vermögen ist er doch wohl nicht mehr bestechlich.....*eg*

Birdman
2003-02-07, 16:17:12
Originally posted by Dr. Greenthumb
Danke danke, hätt ich aber nicht gedacht das Carmack einfach Marketingsprüche nachblubbert!! Bei seinem Vermögen ist er doch wohl nicht mehr bestechlich.....*eg*
naja, dass Nvidia den ollen j.c. mit marketinggeblubber abfertigt wage ich mal sehr stark zu bezweifeln....

Dr. Greenthumb
2003-02-07, 16:27:43
Originally posted by Birdman

naja, dass Nvidia den ollen j.c. mit marketinggeblubber abfertigt wage ich mal sehr stark zu bezweifeln....

Tja wenn man den Artikel liest, sieht es doch so aus als ob J.C. nur das erzählt im Bezug auf die Leitungsteigerung, was nV ihm gesagt hat, was IMHO nach indirekter Werbung riecht (bzw stinkt ;D ).
Wenn ein Forumsmitglied diese Vermutung hegt, kräht ausser uns kein Hahn danach. Wenn J.C. das auch nur zitiert, hat das ganze ziemliches Gewicht.

Falls du auch auf technische Unterlagen anspielst, geb ich dir völlig recht; da wird JC wohl (fast) alles bekommen, was er will.

Unregistered
2003-02-07, 16:29:09
Hat John Carmack nicht mal auf einer Nvidia Schau behauptet, daß Doom3 auf einer Geforce3 mit 25 FPS läuft?

Demirug
2003-02-07, 17:11:08
JC kennt einige von den Treiber-Entwickler bei NVIDIA persönlich. Er bekommt also durchaus Informationen die vorher nicht durch den Marketingfilter laufen.

robbitop
2003-02-07, 17:40:02
die news, sagten, dass das Design Januar fertig war, das erste brauchbare Silizium wohl erst VIEL später.

Dr. Greenthumb
2003-02-07, 18:32:14
Originally posted by robbitop
die news, sagten, dass das Design Januar fertig war, das erste brauchbare Silizium wohl erst VIEL später.

Zur Treiberentwicklung benötigt man nicht unbedingt fertiges Silizium, sondern ein fertiges Design was im Chipsimulator (Großrechner) betriebsfähig ist.
Also hatte nVidia, wenn die News stimmen, mindestens 9 Monate Zeit wenn nicht mehr.

Und was JC angeht , man kann es so oder so auslegen, ein wenig nach Werbung siehts trotzdem aus.

Aquaschaf
2003-02-07, 18:35:24
nvidia hatte sicher schon zeit für treiberentwicklung , kleinere leistungssteigerungen durch treiberupdates sind sicher trotzdem zu erwarten obwohl treiberupdates wohl eher bugs beheben als die geschwindigkeit steigern .

Birdman
2003-02-07, 18:41:30
Originally posted by Dr. Greenthumb
Zur Treiberentwicklung benötigt man nicht unbedingt fertiges Silizium, sondern ein fertiges Design was im Chipsimulator (Großrechner) betriebsfähig ist.
Also hatte nVidia, wenn die News stimmen, mindestens 9 Monate Zeit wenn nicht mehr.

Und was JC angeht , man kann es so oder so auslegen, ein wenig nach Werbung siehts trotzdem aus.
wie man an einem (ultralahmen) simulator einen treiber auf speed trimmen will ist mir ein rätsel. Dieser dient eher dazu, die technischen Möglichkeiten abzugrenzen.

robbitop
2003-02-07, 18:44:09
ich glaube es wurde schon von recht hochdekorierten 3D designenrn gesagt, dass zur richtigen Treiber entwicklung/Optimierung (also bis aufs Gröbste)ein fertiges Silizium ein MUSS ist...afair allerdings

Dr. Greenthumb
2003-02-07, 18:45:00
Originally posted by Birdman

wie man an einem (ultralahmen) simulator einen treiber auf speed trimmen will ist mir ein rätsel. Dieser dient eher dazu, die technischen Möglichkeiten abzugrenzen.

Mir auch ;D !!

Aber ich bin ja kein Treiberentwickler. Aber Fehler hätte man doch IMHO schon längst ausbügeln können, AA-Modi komplett implementieren (Laut aths gibts ja ein paar im treiber die bei der GF4 funktionieren, in dieser Form bei der FX nicht angeboten werden) und so weiter.

-x-
2003-02-07, 18:54:12
jetzt müsste ich nur noch die werbung von jc für nvidia finden:D.was einem alles unterstellt wird.bei nem spiel mit nvidia-logo ist das ja verständlich aber bei jc?er hat sich bisher immer sehr neutral geäußert was nvidia und ati angeht und beiden spitzenkarten der jeweiligen firmen eine gute leistung in doom3 zugesprochen.außerdem dürfte jedem klar sein(oder auch net),dass die performance(etwas) und kompatibilität der fx durch zukünftige treiber verbessert werden.

Dr. Greenthumb
2003-02-07, 18:59:43
Originally posted by -x-
jetzt müsste ich nur noch die werbung von jc für nvidia finden:D.was einem alles unterstellt wird.bei nem spiel mit nvidia-logo ist das ja verständlich aber bei jc?er hat sich bisher immer sehr neutral geäußert was nvidia und ati angeht und beiden spitzenkarten der jeweiligen firmen eine gute leistung in doom3 zugesprochen.außerdem dürfte jedem klar sein(oder auch net),dass die performance(etwas) und kompatibilität der fx durch zukünftige treiber verbessert werden.

Unterstellen will ich garnix, JC ist wohl IMHO die größte Autorität bei 3D-Engines!!! Aber wenn er sagt, obs nun seine Meinung ist oder er das ganze von nV direkt hat, das neue Treiber für Leistungssteigerung sorgen werden, ist das nicht gerade neutral. IMO kann er auf die grundlegende technologische Leistungsfähigkeit der Karten eingehen und wie sie im allgemeinen performen, aber nicht aufzukünftige Leistungssteigerungen durch Treiber eingehen, die proggt er ja nu mal nicht selber und so sollte er auch nicht so explizit drauf eingehen.

EDIT: 3*"eingehen" in einem Satz: Rhetorik 6 setzen ;D
Greets

Unregistered
2003-02-07, 19:18:12
auf heiße asche,dann weißte wie nvidia sich derzeit fühlt:D.aber bei den derzeitigen miesen treibern für die fx seh ich ne aussage bezüglich der performance-steigerung nicht als werbung.

Dr. Greenthumb
2003-02-07, 19:33:50
Originally posted by Unregistered
auf heiße asche,dann weißte wie nvidia sich derzeit fühlt:D.aber bei den derzeitigen miesen treibern für die fx seh ich ne aussage bezüglich der performance-steigerung nicht als werbung.

Als was denn dann???

Wenn eine Größe in der Welt der 3D-Spiele sagt: Es gibt bald mehr Leistung mit Karte X!!

Anonym_001
2003-02-07, 19:37:32
Originally posted by Dr. Greenthumb


Als was denn dann???

Wenn eine Größe in der Welt der 3D-Spiele sagt: Es gibt bald mehr Leistung mit Karte X!!

Nur eine Feststellung.
Schlechter wie die jetzt geht es ja nicht.
Also kann der nächste nur besser werden.

-x-
2003-02-07, 19:38:59
exakt:)

Unregistered
2003-02-07, 19:42:33
sorry,passt zwar net zum tread aber weis bedeutet immer euer "IMHO" ?"?"?

ach ja, jetzt zu eurem tread: der chipsimulator ist eine sehr lahme "krücke" wenn man das so sagen darf und dieser simulator dient nur dazu, bugs um chipdesign zu entdeken und den eigentlichen chip zu verbessern....soweit ich weis können diese rechner nicht in echtzeit eine grafikkarte nachbilden.das können sie shcon, nur eben viel langsamer. daher kann man auch schlecht auf so ner "krücke" treiber optimieren. dafür sind diese teile eh net gedacht

Unregistered
2003-02-07, 19:52:48
IMHO = In my humble opinion = meiner bescheidenen Meinung nach

Unregistered
2003-02-07, 20:17:52
ok danke"

Dr. Greenthumb
2003-02-07, 20:26:58
OK, das mit dem Chipsimulator kann wohl nur jemand beantworten der die Materie aus den EffEff kennt (Haalllooo Mods ;D). Aber in diesem Stadium kann man IMHO bereits mit der Treiberentwicklung beginnen.

Mal eine andere Frage: Wenn der Chip fertig designt ist, und die Massenproduktion noch nicht möglich ist, kann man dann einen Prototypenchip fertigen?

Demirug
2003-02-07, 20:45:36
Es gibt zwei arten von Chipsimulatoren.

- Reine Softwarelösungen (dafür braucht man zum Beispiel die Serverfarmen)
- Hardwarelösungen: dabei werden spezielle reprogrammierbare Chips benutzt.

Die Software ist so lahm das man sie dazu benutzen Funktionssimulationen zu machen. Die Hardwarelösung ist etwas schneller aber bei weitem nicht so schnell wie der richtige Chip.

Treibernentwicklung ist mit der Hardwarelösung aber im Prinzip möglich und wird auch gemacht. NVIDIA hat mit einer Hardwaresimulation des NV30 auf jeden Fall Windows zum laufen bekommen. (ATI hat das beim R300 sicher auch gemacht) Da das Teil aber recht langsam ist bekommt man nicht den richtigen Eindruck von dem Timming verhalten des Chip. Dieses Wissen ist aber für echte Optimierungen wichtig. Deswegen braucht man echte Chips für die Treiberoptimierung. Auch Macken werden beim Hardwaresimulator eher übersehen. Weil das Teil ja so langsam ist kann man aus Zeitgründen gar nicht alles damit durchlaufen lassen.

Für jeden echten Chip den man produzieren möchte braucht man einen kompletten Satz Masken. Das erzeugen dieser Masken sowie das einrichten der FAB ist aber recht aufwendig. Deswegen versucht man das pro Chip so selten wie nur möglich zu machen.

Hat man aber nun einen Chip und entdeckt man Fehler so kann man mit einem entsprechenden Gerät die Chip von Hand funktionsfähig machen. Das ist aber eine sehr aufwendige Arbeit und die Geräte dafür sind teuer.

Dr. Greenthumb
2003-02-07, 21:03:42
@Demirug

Klasse, danke für die Erklärung.

Wenn nV aber gewusst hat das TSMC so hinterherhängt mit der 0,13µ Fertigung hätten sie sich nicht wenigstens eine kleine Auflage zB in 0,15µ zum Testen backen lassen können? Dann hätte man in der Zeit treibertechnisch alles an Leistung aus dem Chip quetschen können und (fast) alle Fehler beseitigen können, oder wäre das so extrem teuer geworden?
Bei Entwicklungskosten von AFAIK 400Mill. US-$ ist sowas doch anzuraten! Oder spielt hier wieder die Überraschung R300 mit rein ("Ach wir haben ja noch soviel Zeit und keinen ernstzunehmenden Konkurrenten!!")

Demirug
2003-02-07, 21:10:24
Originally posted by Dr. Greenthumb
@Demirug

Klasse, danke für die Erklärung.

Wenn nV aber gewusst hat das TSMC so hinterherhängt mit der 0,13µ Fertigung hätten sie sich nicht wenigstens eine kleine Auflage zB in 0,15µ zum Testen backen lassen können? Dann hätte man in der Zeit treibertechnisch alles an Leistung aus dem Chip quetschen können und (fast) alle Fehler beseitigen können, oder wäre das so extrem teuer geworden?
Bei Entwicklungskosten von AFAIK 400Mill. US-$ ist sowas doch anzuraten! Oder spielt hier wieder die Überraschung R300 mit rein ("Ach wir haben ja noch soviel Zeit und keinen ernstzunehmenden Konkurrenten!!")

Man kann nicht einfach mal schnell einen Chip von der grösse eines NV30 in 0,15 "backen". Dazu wäre ebenfalls eine Menge Aufwand von nöten gewessen. Das Geld und die Zeit die dafür draufgegangen wäre hätte man direkt abschreiben können. Denn was hätte es für die Zukunft noch genützt die Tools für 0,15 für einen Chip von NV30 grösse fit zu machen? Gar nichts. Also war die Zeit und das Geld besser in die Fehlersuche bei 0,13 investiert.

Die 400Mill sind für alle Chips der NV3x Rheie. Es dürfte also noch ein bischen was davon da sein. Wobei der NV30 als begründer einer neuen Technologie schon den grössten Teil davon verschlungen haben dürfte.

Piffan
2003-02-07, 22:02:44
Ati war schlauer als NV. Wenn Ati jetzt auch auf den 0.13µ- Prozess umsteigt, ist TSCM schon fit und es dürfte wesentlich schneller klappen, bis die Laube steht......

NV hat viel Zeit mit der Entwicklung des FX verloren, außerdem die Stärke vom R300 stark unterschätzt, also auch noch strategische Fehler begangen, und nun sind natürlich auch noch die Treiber nicht optimal....

Zu dieser Pechsträhne gehört auch noch, dass einige "Experten" den Leuten bei NV Unfähigkeit bei der Treiberentwicklung vorwerfen.....Interessant, wie sich eine unglückselige Verkettung von Glücklosigkeit und Pech ;) für eine harte Probe für NV auswächst. Imho gehts um Überleben! Der bisher tadellose Ruf ist gründlich ruiniert....

Ich sehe da durchaus Parallelen zu 3Dfx: Irgendwann entstand Größenwahn, der zur Unterschätzung des Gegners führte....

Byteschlumpf
2003-02-07, 22:04:00
Der größte Teil des Geldes ging dabei wohl für den "FlowFX" drauf! ;)


Byteschlumpf

Dr. Greenthumb
2003-02-07, 22:37:13
Originally posted by Piffan
Zu dieser Pechsträhne gehört auch noch, dass einige "Experten" den Leuten bei NV Unfähigkeit bei der Treiberentwicklung vorwerfen

Ich glaube nicht das nV schlechte Treiberprogrammierer hat, aber ich habe mich halt gefragt wenn der FX so lange schon fertig entwickelt war ob dann nicht bereits mit der Treiberentwicklung begonnen wurde.

Exxtreme hatte mal gepostet die Treiberentwicklung geht schon mit der Chipsimulation los. Also eine lange Zeit, da nV kurz nach dem Fertigstellen des Designs damit wohl angefangen hat.

Falls das nicht der Fall war, sondern die "heisse" Treiberentwicklung erst seit 3 Monaten läuft, ist der Treiber garnicht so schlecht!!! Also der kleinste Kritikpunkt an der FX ist dann IMHO der Treiber, die paar Grafikfehler sind nichts im Vergleich zu den ersten 8500er Treiber (kann ich persönlich ein Lied von singen).

Andererseits: Falls am Treiber schon 6-12 Monate herumgedoktert wird, ist er Müll und die Programmierer kamen mit dem neuen Design nicht zurecht!!

Das wollte ich mit dem Thread eigentlich klären.

nggalai
2003-02-07, 23:33:26
Hi there,
Originally posted by Dr. Greenthumb
Wenn alles der Wahrheit entspricht hatte nVidia mehr als 1 jahr Zeit den Treiber zu entwickeln zumindest mit der Chipsimulation!!!

John Carmack schreibt nun (und wenn er was sagt hats meist Hand und Fuß), das das Potential der FX von den Treibern noch nicht ausgereizt wurde???

Die Frage ist nun, was hat nV in dem ganzen jahr eigentlich gemacht, vor allem wenn man sieht das der Treiber noch Fehler enthält? Däumchen gedreht? Wie Carmack meinte, sei der NV30 in der Hinsicht "twitchy". Oder anders gesagt, das "Timing" muss äusserst fein getroffen werden, damit der Treiber mit grosser Effizienz die Hardware ansprechen kann. Das heisst "trial and error" auf der fertigen Hardware, bei verschiedenen Taktraten etc.--da wird dir eine Simulation nicht viel helfen. Wie's Demiurg sagte: Man bekommt von der Simulation keinen für die fertige Karte geltenden Eindruck des Timings, ergo kann man auch nicht richtig Optimieren, ohne "richtige" Hardware.

Ich bin mir ziemlich sicher, dass die nächsten Monate da noch einiges bringen werden.

ta,
-Sascha.rb

Dr. Greenthumb
2003-02-08, 00:48:39
Originally posted by nggalai
Hi there,
Wie Carmack meinte, sei der NV30 in der Hinsicht "twitchy". Oder anders gesagt, das "Timing" muss äusserst fein getroffen werden, damit der Treiber mit grosser Effizienz die Hardware ansprechen kann. Das heisst "trial and error" auf der fertigen Hardware, bei verschiedenen Taktraten etc.--da wird dir eine Simulation nicht viel helfen. Wie's Demiurg sagte: Man bekommt von der Simulation keinen für die fertige Karte geltenden Eindruck des Timings, ergo kann man auch nicht richtig Optimieren, ohne "richtige" Hardware.

Ich bin mir ziemlich sicher, dass die nächsten Monate da noch einiges bringen werden.

ta,
-Sascha.rb

Alles klar, da bin ich jetzt selbst gespannt drauf wie es mit dem FX weitergeht!!

Aber der Oberknüller mit einem (bis jetzt noch sehr schlechten Treiber) ist es doch wahrscheinlich auch nicht?

Unregistered
2003-02-08, 00:51:45
Also Zeit zum Optimieren hatten die IMO ja doch schon einige. Die ersten Photos einer GfFX gabs ja schon letzten November (Comdex? weiss net mehr). Dort war ja auch schon FlowFX drauf zu sehen.
Also werden die da schon einige Wochen die finales Silizium gehabt haben.
Sowas wie FlowFX ist ja auch nicht mal eben so im vorbeigehen entwickelt, ist ja doch recht umfangreich die Kühlung.
Ausserdem wird ja nicht eine Kühlung gebaut sondern IMO mehrere ausprobiert, grade wenn die Temps so kritisch sind. Denke mal das die schon mindestens 4 Monate was in der Hand hatten.

aths
2003-02-08, 01:00:22
nV kann sagen, was sie wollen. Imo braucht dieser Chip ein 256-Bit-Interface, damit die Leistung wirklich adäquat ausgespielt werden kann. Treiber werden, das sehe ich wie nggalai, auch noch spürbar was bringen. Um ein 256-Bit-Interface kommen sie trotzdem nicht herum.

Leonidas
2003-02-08, 04:06:06
Originally posted by Dr. Greenthumb


Zur Treiberentwicklung benötigt man nicht unbedingt fertiges Silizium, sondern ein fertiges Design was im Chipsimulator (Großrechner) betriebsfähig ist.
Also hatte nVidia, wenn die News stimmen, mindestens 9 Monate Zeit wenn nicht mehr.



Ok, hier sind die News nicht ganz genau, weil ich den Artikel von Penstar Systems nicht komplett abschreiben wollte: nVidia musste am Chip Änderungen vornehmen, weil der Chipfertiger den Chip sonst nicht hätte produzieren können (Hotspots oder sonstwas). Ich denke, so was wirft keine generelle Treiberentwicklung zurück, aber die Treiber-Optimierung schon ziemlich stark.

Razor
2003-02-08, 06:34:41
Originally posted by Unregistered
Hat John Carmack nicht mal auf einer Nvidia Schau behauptet, daß Doom3 auf einer Geforce3 mit 25 FPS läuft?
Ja und ?
Ist das Gegenteil gezeigt worden ?
???

Razor

Razor
2003-02-08, 06:45:38
Originally posted by Demirug
JC kennt einige von den Treiber-Entwickler bei NVIDIA persönlich. Er bekommt also durchaus Informationen die vorher nicht durch den Marketingfilter laufen.
Genau so wird es auch sein...

Wer sich hier hin stellt und behauptet, dass JC nur Marketing-Geblubber nachhallen läßt, hat schlicht keine Ahnung und offensichtlich die letzten Jahre geschlafen.

Wenn JC sagt, dass da noch erhebliche Leistungssteigerungen zu erwarten sind, glaube ich ihm das unbesehen. Er arbeitet direkt mit den Entwicklern zu sammen, was sowohl die Hardware, vor allem aber die Software betreffen dürfte. Er bekommt immer die neueste Hardware (hatte eine gffx schon vor allen anderen !) und wohl auch einen sehr tiefen Einblick in die Technologie über die er natürlich nur das verbreitet, was auch von nVidia 'freigegeben' ist.

Wenn er nun aufgrund dieser Basis sagt, dass da noch Leistungssteigerungen zu erwarten sind, könnt Ihr ihm das ruhig glauben.

nVidia wird das getan haben, was sie schon immer so gemacht haben. Erst einmal wird die rudimentäre Funktionalität sicher gestellt und erst dann, wenn alles funktioniert, wird optimiert.

Und wenn ich das richtig sehe - man möge mich korrigieren, wenn's nicht so ist - gibt es schlicht noch keinen finalen Treiber, der die gffx unterstützt.

Und auch das ist eigentlich nichts Ungewöhnliches...

Also Leute, auch wenn Ihr es nicht wahr haben wollt, die gffx ist wohl schon jetzt schneller in Doom3, als es JEDE andere Karte ist (bei Nutzung des eignen Pfades selbstverständlich). Und sie wird vermutlich noch schneller werden, wenn sie a) optimiert läuft (z.Bsp. auch unter ARB2 fp16 nutzt) und b) die neue Technologie - und ja ein Vertex-Array z.Bsp. ist was Neues ! - voll unterstützt wird.

Es war bei der gfddr und der gf3 so und wird nun bei der gffx wohl auch so sein.

Wo ist das Problem ?

Das ändert aber vermutlich nichts daran, dass ein R350 doch schneller ist, was sich aber erst noch heraus stellen muss.

Bis denne Leute und nicht aufregen !
:D

Razor

Razor
2003-02-08, 07:14:09
Originally posted by aths
nV kann sagen, was sie wollen. Imo braucht dieser Chip ein 256-Bit-Interface, damit die Leistung wirklich adäquat ausgespielt werden kann. Treiber werden, das sehe ich wie nggalai, auch noch spürbar was bringen. Um ein 256-Bit-Interface kommen sie trotzdem nicht herum.
Woraus schließt Du das aths ?
???

Für's AA wär's ja vermutlich sinnvoll, aber für was sonst ?
An der R9500pro kann man ja sehr gut sehen, dass ein 2x64Bit Interface ja nun nicht der Bringer ist, was aber wohl nicht an den 128Bit insgesamt liegt, sondern wohl eher am 'Beschnitt' des CBMC. IMHO 4x32 doch wohl wesentlich effizienter sind, als 2x64. Die R9700 haben wieder einen 4fach-Controller und überhaupt gibt's die Karten nun schon seit fast 6 Monaten im Vergleich zu der (wohl immer noch nicht finalen) gffx...

Wobei ich Dir insofern recht gebe, dass die gffx insgesamt einen recht 'unfertigen' Eindruck macht. Viel von dem, was man da sieht, scheint alt (4x32 CBMC, AA, AF) und auch der Treiber sieht danach aus.

IMHO hat nVidia diesen Chip einfach zu früh lanciert, was aber wohl dringend notwendig war, um die LowCost-Varianten zu plazieren (davon werden wir auf der CeBit mehr erfahren)... möge man sich mal vorstellen, dass diese ohne den 'grossen Bruder' gekommen wären. Rein Marketing-Technisch eine Katastrophe, obwohl die jetzige Situation sicher auch nicht gerade als 'ideal' bezeichnet werden kann (gelinde ausgedrückt).

nVidia täte gut daran, die gffx 'ultra' nicht zu bringen und damit die schon durchs Netz geisternden Gerüchte zu bestätigen. Ein paar davon können sie ja ausliefern, aber eine Massenproduktion sollten sie damit knicken, um ihren Ruf nicht noch mehr zu schädigen.

Die 'Kleinen' werden lange nicht so komplex sein, insofern auch mit dem 0.13-Prozess keine Probleme haben. Dann entfällt auch die aufwändige Kühlung und es gibt keinerlei Probleme mehr (ausser den Treibern ;-). Man hat dann immer noch ein gutes Produkt, um gegen RV350 und Co. bestehen zu können und überläßt ATI das High-End-Segment für eine Periode (ca. 9 Monate).

Dafür kommt dann recht schnell (mitte das Jahres ?) ein 'ausgereifter' NV35 (vermutlich mit 8x32Bit CBMC und GDDR3 ~ DDR2), dem die Konkurrenz dann tatsächlich nichts mehr entgegen zu setzen hat. Das würde das angeschlagene Image wieder aufpolieren und die Sache dann schnell vergessen lassen...

Alles nur IMHO und bezüglich der Leistungsfähigkeit eines NV35 sicher auch Wunschdenken !
:D

Bis denne

Razor

MadManniMan
2003-02-08, 07:28:01
Originally posted by Razor
Also Leute, auch wenn Ihr es nicht wahr haben wollt, die gffx ist wohl schon jetzt schneller in Doom3, als es JEDE andere Karte ist (bei Nutzung des eignen Pfades selbstverständlich). Und sie wird vermutlich noch schneller werden, wenn sie a) optimiert läuft (z.Bsp. auch unter ARB2 fp16 nutzt) und b) die neue Technologie - und ja ein Vertex-Array z.Bsp. ist was Neues ! - voll unterstützt wird.


hier will gar niemand irgendetwas nich wahrnehmen. HIER gehts darum, inwiefern der gedanke gerechtfertigt ist, daß die treiber eigentlich schon jetzt geschwindigkeitsoptimiert sein müßten...

daß die fx im moment etwas(so sagte es jc vor ein paar tagen) schneller ALS DIE 9700 PRO ist (JEDE karte hört sich so sehr ultimativ an), wissen wir inzwischen

hier in diesem thread will niemand deine liebe FX sonderlich dumm machen schonmal daran gedacht, in die nv-marketingabteilung zu gehen?

MadManniMan
2003-02-08, 07:32:00
Originally posted by Razor
Die 'Kleinen' werden lange nicht so komplex sein, insofern auch mit dem 0.13-Prozess keine Probleme haben. Dann entfällt auch die aufwändige Kühlung und es gibt keinerlei Probleme mehr (ausser den Treibern ;-). Man hat dann immer noch ein gutes Produkt, um gegen RV350 und Co. bestehen zu können und überläßt ATI das High-End-Segment für eine Periode (ca. 9 Monate).


auch wenn ich nicht auf ein off-topic-kram eingehen wollte... schau dir mal die erwarteten specs für den nv31 und 34 an. und sag jetzt nicht, daß das ja nur erwartungen sind - auch du mußt dich zwangsläufig darauf berufen. sodenn wirst du sehen, daß benannte chips wohl schon mit den jetzigen nicht-high-end-dx9 karten probs haben dürften...

Originally posted by Razor
Dafür kommt dann recht schnell (mitte das Jahres ?) ein 'ausgereifter' NV35 (vermutlich mit 8x32Bit CBMC und GDDR3 ~ DDR2), dem die Konkurrenz dann tatsächlich nichts mehr entgegen zu setzen hat. Das würde das angeschlagene Image wieder aufpolieren und die Sache dann schnell vergessen lassen...


richtig, ziemliches wunschdenken. auch meines(konkurrenz is a muß!)

Razor
2003-02-08, 11:41:23
Originally posted by MadManniMan

hier will gar niemand irgendetwas nich wahrnehmen. HIER gehts darum, inwiefern der gedanke gerechtfertigt ist, daß die treiber eigentlich schon jetzt geschwindigkeitsoptimiert sein müßten...
Und wieviel Zeit nach der Produktion der finalen (!) Karte sollen sie dazu gehabt haben ?
Originally posted by MadManniMan

daß die fx im moment etwas(so sagte es jc vor ein paar tagen) schneller ALS DIE 9700 PRO ist (JEDE karte hört sich so sehr ultimativ an), wissen wir inzwischen
Da die R9700pro derzeit die wohl schnellste Lösung ist, sehe ich in der Formulierung keinerlei Probleme...
Originally posted by MadManniMan

hier in diesem thread will niemand deine liebe FX sonderlich dumm machen schonmal daran gedacht, in die nv-marketingabteilung zu gehen?
Ich stelle hier die Dinge nur richtig, mehr nicht.
Ich bin mir derzeit nicht einmal sicher, ob ich mir so ein Kärtchen zulegen sollte... überlege aber noch...
Nur hat das eine mit dem anderen wenig zu tun, auch wenn Du daraus einen Zusammenhang konstruieren möchtest.

Und um Deine Frage zu beantworten:
Kommt darauf an, was sie zahlen !
;D

Aber eigentlich... neeee !
Die arme Firma muss schon genug ertragen...
:D

Razor

Razor
2003-02-08, 11:45:40
Originally posted by MadManniMan

auch wenn ich nicht auf ein off-topic-kram eingehen wollte...
Was Du nun aber doch tust...
Wozu hast Du das jetzt erwähnt ?
;-)
Originally posted by MadManniMan

schau dir mal die erwarteten specs für den nv31 und 34 an. und sag jetzt nicht, daß das ja nur erwartungen sind - auch du mußt dich zwangsläufig darauf berufen. sodenn wirst du sehen, daß benannte chips wohl schon mit den jetzigen nicht-high-end-dx9 karten probs haben dürften...
Habe ich darüber auch nur ein einziges Wort verloren ?
Mir ist es doch herzlich egal, was Mainstream-Chips können, oder nicht !
;-)
Originally posted by MadManniMan

richtig, ziemliches wunschdenken. auch meines(konkurrenz is a muß!)
Deswegen dieser von mir so formulierte Zusatz.
Niemanden wäre geholfen, wenn eine Firma wie nVidia (oder ATI) verschwinden würde...
(allerdings bezeifle ich, dass dies in absehbarer Zeit möglich ist)

Schön wäre es doch, wenn sich die Top's abwechseln würden.
So bliebe die Qualität hoch und die Preise niedrig.

Schaun' wir mal, denn so würde dieses Segment auch uninteressanter werden...

Bis denne

Razor

MadManniMan
2003-02-08, 12:40:38
Originally posted by Razor

Und wieviel Zeit nach der Produktion der finalen (!) Karte sollen sie dazu gehabt haben ?


lies bitte meine formulierungen richtig: die aufgabe dieses threads war GENAU DAS zu klären

Originally posted by Razor
Ich stelle hier die Dinge nur richtig, mehr nicht.


hat hier irgendwer behauptet, die FX wär NICHT schneller, wenns um doom3 geht(wobei ich vermute, dass JC no af/aa meinte)?

Originally posted by Razor
Kommt darauf an, was sie zahlen !
Die arme Firma muss schon genug ertragen...
:D

och komm schon, wenn du schon kein anwalt wirst... :naughty:

Dr. Greenthumb
2003-02-08, 12:49:57
@Razor

Wenn du meine Post richtig durchgelesen hättest, würdest du erkennen, daß ich keineswegs JC nachsage nur Marketingsprüche von sich zu geben.

Aber wenn man sich die Situation der FX mal ansieht, d.h. die ganzen negativen Presseberichte, dann klingt so eine Meldung doch unzweifelhaft nach Werbung.
Dasselbe Problem, nur mit anderen Auswírkungen, hatte doch auch ATi mit dem R200. Da ist aber niemand mit dem Renomee eines John Carmack gekommen und hat gesagt: "Ey, keep cool, das wird alles viel besser und schneller", was ja eingetreten ist.
Nur weil ich eine Aussage des 3D-Gurus kritisiere heisst das nicht das ich mit der Person als solche ein Problem habe.

Also alles schön ordentlich durchlesen und selbst nicht aufregen!!

Quasar
2003-02-08, 13:02:27
Originally posted by aths
nV kann sagen, was sie wollen. Imo braucht dieser Chip ein 256-Bit-Interface, damit die Leistung wirklich adäquat ausgespielt werden kann. Treiber werden, das sehe ich wie nggalai, auch noch spürbar was bringen. Um ein 256-Bit-Interface kommen sie trotzdem nicht herum.
Ja und nein.
Sicher würde eine beliebige Karte schneller mit einem 256Bit-Interface in gewissen Situationen.

In "Normalfall" (Rohleistung und bis 2xFSAA) scheint die GFFX jedoch mit ihrer (zwar extrem hoch taktenden) 128Bit-Lösung noch gut bedient zu sein. Erst darüber kann ein breiteres Interface mehr als nur Meßunterschiede (56,8 statt 56,3fps) oder Unwichtigkeiten (295 statt 265fps) erbringen.

Ausserdem sollte man nicht vergessen, dass keine Firma der Welt immer alles in die Waagschale wirft, sondern den Fortschritt in kleinen Portionen verkauft. Ist halt besser für die Bilanz.

Was hätte bsw. nV davon, jetzt eine GFFX mit 1GHz-256Bit-256MB-RAM auf den Markt zu bringen?
Sicher, es würden alle High-End Gamer ausser den aus-prinzip-ablehnern zugreifen, aber dann wäre für zwei Jahre Funkstille, weil man komplett neu entwickeln müsste.

Wenn man den 0,13µ-Prozess im Griff hat, wird es sicher noch eine deutlich höher getaktete GFFX geben, die dann bestimmt auch dein heißbegehrtes 256Bit-Interface hat. Viel Freude.

Razor
2003-02-08, 13:05:20
Originally posted by Dr. Greenthumb
@Razor

Wenn du meine Post richtig durchgelesen hättest, würdest du erkennen, daß ich keineswegs JC nachsage nur Marketingsprüche von sich zu geben.
Und wo soll ich das behauptet haben ?
Originally posted by Dr. Greenthumb

Aber wenn man sich die Situation der FX mal ansieht, d.h. die ganzen negativen Presseberichte, dann klingt so eine Meldung doch unzweifelhaft nach Werbung.
Für den unbedarften vielleicht, wer aber JC und seine Statements kennt, würde niemals auf so etwas kommen.
Originally posted by Dr. Greenthumb

Dasselbe Problem, nur mit anderen Auswírkungen, hatte doch auch ATi mit dem R200. Da ist aber niemand mit dem Renomee eines John Carmack gekommen und hat gesagt: "Ey, keep cool, das wird alles viel besser und schneller", was ja eingetreten ist.
Also die R8500 ist nun nicht gerade ein Beispiel dafür, das alles "viel besser und schneller" geworden ist. Aber ich denke, wir sollten dieses Thema nicht zu sehr ausweiten. Sagen wir einfach, dass ATI mir der R95xx/97xx-Reihe ein wirklich gutes Produkt gelungen ist. Und auch der Treibersupport hat sich hiermit wesentlich verbessert...
Originally posted by Dr. Greenthumb

Nur weil ich eine Aussage des 3D-Gurus kritisiere heisst das nicht das ich mit der Person als solche ein Problem habe.

Also alles schön ordentlich durchlesen und selbst nicht aufregen!!
Nochmal... wo habe ich das getan ?
???

Razor

Razor
2003-02-08, 13:10:02
Originally posted by MadManniMan

lies bitte meine formulierungen richtig: die aufgabe dieses threads war GENAU DAS zu klären
Dann schau Du Dir bitte mal den Titel dieses Thread's an und wiederhole das nochmal !
(vor allem die Reaktion einiger hier, dazu)
;-)
Originally posted by MadManniMan

hat hier irgendwer behauptet, die FX wär NICHT schneller, wenns um doom3 geht(wobei ich vermute, dass JC no af/aa meinte)?
Unbestreitbar ist sie unter ARB2 sogar (noch) langsamer...
Aber hier gings um die Aussagen von JC... auch bezüglich D3 und darauf habe ich reagiert.
Und ? Wo ist das Problem ?

Und ich bin sogar ziemlich sicher, dass JC dies ohne Einschränkung so meinte...
;-)
Originally posted by MadManniMan

och komm schon, wenn du schon kein anwalt wirst... :naughty:
Wie soll ich das denn jetzt verstehen ?
Hoffentlich nicht so, wie es sich angehört hat !
:D

Bis denne

Razor

Dr. Greenthumb
2003-02-08, 13:11:00
Originally posted by Razor
Wer sich hier hin stellt und behauptet, dass JC nur Marketing-Geblubber nachhallen läßt, hat schlicht keine Ahnung und offensichtlich die letzten Jahre geschlafen.
Razor

Bitte schön!!! Falls du mich nicht gemeint hast, entschuldige ich mich natürlich (vielleicht leichte Paranoia ;D ).
Aber sah halt verdächtig danach aus, das ich damit gemeint war!!

Nix für ungut,

Euer aller Greenthumb

Razor
2003-02-08, 13:15:03
Originally posted by Dr. Greenthumb

Bitte schön!!! Falls du mich nicht gemeint hast, entschuldige ich mich natürlich (vielleicht leichte Paranoia ;D ).
Aber sah halt verdächtig danach aus, das ich damit gemeint war!!

Nix für ungut,

Euer aller Greenthumb
Huch, Du warst ja sogar der TI !
(hatte ich gar nicht mehr im Kopf ;-)

Neee... hier gibt's genug andere, die sich angesprochen fühlen dürfen...
:D

Bis denne

Razor

P.S.: Ich bin sogar der Meinung, dass Du Dich noch recht zurückhaltend ausdrückst...
(na ja, meistens auf jeden Fall ;-)

MadManniMan
2003-02-08, 13:16:36
Originally posted by Razor

Dann schau Du Dir bitte mal den Titel dieses Thread's an und wiederhole das nochmal !
;-)



*GNARF*

:bonk:

Razor
2003-02-08, 13:17:41
Originally posted by MadManniMan

*GNARF*

:bonk:
Oh, schööön... rot...
Und ich habe es schon flugs ergänzt !
;-)
Dann schau Du Dir bitte mal den Titel dieses Thread's an und wiederhole das nochmal !
(vor allem die Reaktion einiger hier, dazu)
;-)
Und immer schön locker bleiben, gell ?
Vor allem nicht durchdrehen...
;D

Razor

Unregistered
2003-02-08, 13:48:15
@Razor

Dein grossf*****ges Gequatsche in jeden Thread nervt so an. Das wird zwar nicht an deinem übergesunden Ego rütteln; ich hoffen nur, das sagt Dir auch mal jemand aus deinem nähernen Bekanntenkreis.


Originally posted by Demirug
JC kennt einige von den Treiber-Entwickler bei NVIDIA persönlich. Er bekommt also durchaus Informationen die vorher nicht durch den Marketingfilter laufen.

Ojee, wie hätte die Aussage den geklungen, wenn sie das hätte muessen?!

Razor
2003-02-08, 14:02:56
Originally posted by Unregistered
@Razor

Dein grossf*****ges Gequatsche in jeden Thread nervt so an. Das wird zwar nicht an deinem übergesunden Ego rütteln; ich hoffen nur, das sagt Dir auch mal jemand aus deinem nähernen Bekanntenkreis.
Offensichtlich kennst Du mich nicht mal ansatzweise...
(wie auch ?)

Also schenk Dir dieses Gequatsche aus "dem Duklen" heraus...
Solche Leute hab' ich echt gefressen !
*hmpf*

Razor

Razor
2003-02-08, 14:04:12
Originally posted by Unregistered

Ojee, wie hätte die Aussage den geklungen, wenn sie das hätte muessen?!
Gar nicht...
JC hätte dann überhaupt nichts dazu gesagt.

Razor

Unregistered
2003-02-08, 14:28:57
Originally posted by Razor

Offensichtlich kennst Du mich nicht mal ansatzweise...
(wie auch ?)

Also schenk Dir dieses Gequatsche aus "dem Duklen" heraus...
Solche Leute hab' ich echt gefressen !
*hmpf*

Razor


Deine (vorgegebene) Identität legitimiert deine Aussagen in keiner Weise. Da hast du wohl was durcheinander gebracht.

Madkiller
2003-02-08, 14:32:31
Originally posted by Razor
Solche Leute hab' ich echt gefressen !
*hmpf*

Razor

Ruhig Blut :)
...ist doch nur ein Unreg....

Razor
2003-02-08, 14:42:53
Originally posted by Madkiller

Ruhig Blut :)
...ist doch nur ein Unreg....
Aber so etwas ärgert mich halt...
Ist in etwa so, als ob jemand einen Brief schickt und die Buchstaben ausgeschnitten hat.

Ich kann mir gut vorstellen, warum andere Foren den Unreg's jegliche (aktive) Teilnahme verwehren.
Und ich meine nur bestimmte Postings, so wie das, auf das ich hier reagierte. Gott-lob sind nicht alle solche Hampelmänner, sondern haben auch was 'vernünftiges' zur Diskussion beizutragen.

Bis denne und langfristig ärgern kann mich so ein Gequatsche auch nicht...
;-)

Bis denne

Razor

MadManniMan
2003-02-08, 14:49:13
Originally posted by Razor

Offensichtlich kennst Du mich nicht mal ansatzweise...
(wie auch ?)

Also schenk Dir dieses Gequatsche aus "dem Duklen" heraus...
Solche Leute hab' ich echt gefressen !
*hmpf*

Razor

@unreg: schade, wäre noch wesentlich lustiger geworden, wärst du ein reg... dann hätte razor nämlich in seiner güte kraftausdrücke unter vorbehalt(i.e. mit smileys en masse) zum besten gegeben :D

nichts für ungut, ich habs schon oft genug versucht. wer razor als gleichwertigen konversationspartner sieht, kennt ihn entweder nicht, oder nimmt gerne meinungen von besserwisserischen idioten an.

Virtual
2003-02-08, 17:02:51
Ich halte mich lieber and die Fakten!!!
Nur gelegte Eier kann man kaufen. Ich jedenfalls werde für ungelegte Eier kein Geld im Voraus zahlen, egal was JC, NV oder ATI über die Zukunft aussagen mögen.
Zum Benchmarking sind virtuelle "Flitz-Treiber" auch schlecht zu gebrauchen. Die Hardware ist zusammen mit den Treibern untrennbar verbunden und als Einheit zu sehen. Sind die Treiber nach NV noch nicht fertig, dann gehört die Karte nicht auf den Markt. Kommt die Karte trotzdem auf den Markt, dann wird gebencht, was ihn ihr momentan drin steckt, denn das bekomme ich SICHER für mein Geld! Sprüche über die Zukunft sind für die Füß und letztlich nur unnötiges Marketing-Geschwätz.

G.
V.

Rampage 2
2003-02-08, 23:49:28
Originally posted by Dr. Greenthumb
Ich nehme an jeder hat die heutigen News gelesen.

Wenn alles der Wahrheit entspricht hatte nVidia mehr als 1 jahr Zeit den Treiber zu entwickeln zumindest mit der Chipsimulation!!!

John Carmack schreibt nun (und wenn er was sagt hats meist Hand und Fuß), das das Potential der FX von den Treibern noch nicht ausgereizt wurde???

Die Frage ist nun, was hat nV in dem ganzen jahr eigentlich gemacht, vor allem wenn man sieht das der Treiber noch Fehler enthält? Däumchen gedreht?

Wenn man sich die enttäuschenden Benches anschaut, dann wäre Carmack's Aussage gar nicht so unrealistisch!

Unregistered
2003-02-09, 00:17:21
Originally posted by Virtual
Ich halte mich lieber and die Fakten!!!
Nur gelegte Eier kann man kaufen. Ich jedenfalls werde für ungelegte Eier kein Geld im Voraus zahlen, egal was JC, NV oder ATI über die Zukunft aussagen mögen.
Zum Benchmarking sind virtuelle "Flitz-Treiber" auch schlecht zu gebrauchen. Die Hardware ist zusammen mit den Treibern untrennbar verbunden und als Einheit zu sehen. Sind die Treiber nach NV noch nicht fertig, dann gehört die Karte nicht auf den Markt. Kommt die Karte trotzdem auf den Markt, dann wird gebencht, was ihn ihr momentan drin steckt, denn das bekomme ich SICHER für mein Geld! Sprüche über die Zukunft sind für die Füß und letztlich nur unnötiges Marketing-Geschwätz.

G.
V.

Ah, "Virtual"(also known as *****) schon wieder. Mal wieder mit dem 2.-Account unterwegs. Da ist mir aber ein gepflegter Unreg deutlich lieber (wo du die doch so magst;)).

Virtual
2003-02-09, 09:42:06
Originally posted by Unregistered


Ah, "Virtual"(also known as *****) schon wieder. Mal wieder mit dem 2.-Account unterwegs. Da ist mir aber ein gepflegter Unreg deutlich lieber (wo du die doch so magst;)).

??? Verwechselung? - Wer soll ich sein? - Der Name ist nicht geschützt! - Ich bin jeder und war sogar mal Unreg bevor ich Reg wurde. Kann wirklich nichts damit anfangen. ???

Vielleicht hilft's: Als Unreg: ca. 3 Postings

G.
V.

Unregistered
2003-02-09, 11:08:07
Originally posted by Virtual


??? Verwechselung? - Wer soll ich sein? - Der Name ist nicht geschützt! - Ich bin jeder und war sogar mal Unreg bevor ich Reg wurde. Kann wirklich nichts damit anfangen. ???

Vielleicht hilft's: Als Unreg: ca. 3 Postings

G.
V.

Dann sorry.

LovesuckZ
2003-02-09, 11:21:20
Originally posted by MadManniMan
auch wenn ich nicht auf ein off-topic-kram eingehen wollte... schau dir mal die erwarteten specs für den nv31 und 34 an. sodenn wirst du sehen, daß benannte chips wohl schon mit den jetzigen nicht-high-end-dx9 karten probs haben dürften...


9500. Schafft es nicht mal, eine TI500 ohne AA/AF zu besiegen.
Mainstreamkarten werden es, nicht so wie frueher, nicht mehr schaffen, andere High End Produkte zu ueberfluegeln.
Wobei, Nvidia selbst zum NV31 sagt, sie koennen mit der Karte die TI4600 Performancemaeßig besiegen.

Unregistered
2003-02-09, 11:42:48
Originally posted by LovesuckZ


9500. Schafft es nicht mal, eine TI500 ohne AA/AF zu besiegen.
Mainstreamkarten werden es, nicht so wie frueher, nicht mehr schaffen, andere High End Produkte zu ueberfluegeln.
Wobei, Nvidia selbst zum NV31 sagt, sie koennen mit der Karte die TI4600 Performancemaeßig besiegen.

Was heisst den hier "nicht mal". Als wäre das die "Königsdisziplin" und dazu wichtig.

LovesuckZ
2003-02-09, 11:50:16
Originally posted by Unregistered
Was heisst den hier "nicht mal". Als wäre das die "Königsdisziplin" und dazu wichtig.

In einer Preisklasse von 150-170€ AA/AF in hohen Stufen zu erwarten, ist irrsin. Schneller als bei den High-End Boliden sinkt bei diesen Karten die Leistung ins unspielbare. Und ohne beide Feature ist die 9500 wertlos und vollkommen überteuert am Markt.

Iceman346
2003-02-09, 11:55:26
Originally posted by LovesuckZ


In einer Preisklasse von 150-170€ AA/AF in hohen Stufen zu erwarten, ist irrsin. Schneller als bei den High-End Boliden sinkt bei diesen Karten die Leistung ins unspielbare. Und ohne beide Feature ist die 9500 wertlos und vollkommen überteuert am Markt.

Stimmt

Aber da es die 9500Pro für nur wenig mehr gibt greift eigentlich jeder denkende Mensch sofort zu dieser...

Unregistered
2003-02-09, 11:55:36
Originally posted by LovesuckZ


In einer Preisklasse von 150-170€ AA/AF in hohen Stufen zu erwarten, ist irrsin. Schneller als bei den High-End Boliden sinkt bei diesen Karten die Leistung ins unspielbare. Und ohne beide Feature ist die 9500 wertlos und vollkommen überteuert am Markt.

Na ein Glück, dass sie diese Features hat. Es gibt genug Leute, die auch auf einer Ti4200 AA und/oder AF aktivieren, in diesem Fall performt die R9500 deutlich besser.

LovesuckZ
2003-02-09, 12:10:05
Originally posted by Iceman346
Stimmt
Aber da es die 9500Pro für nur wenig mehr gibt greift eigentlich jeder denkende Mensch sofort zu dieser...

Kommt drauf an. Zur Zeit kenne ich nur einen Laden, der die Pro fuer 199€ fuehrt. Sonst kostet sie zwischen 210-230€.
Die billigste TI4200 kostet 140€. Da wird es schwer, sich fuer eine der beiden karten zu entscheiden.

LovesuckZ
2003-02-09, 12:11:10
Originally posted by Unregistered
Na ein Glück, dass sie diese Features hat. Es gibt genug Leute, die auch auf einer Ti4200 AA und/oder AF aktivieren, in diesem Fall performt die R9500 deutlich besser.

Sie 'performt' besser, aber bleibt dann mit der TI4200 im unteren Keller. Somit erürbigt sich das, sich wegem AA/AF eine 9500 zu kaufen.

Raff
2003-02-09, 19:01:12
Originally posted by Unregistered
IMHO = In my humble opinion = meiner bescheidenen Meinung nach

Ok, dazu hätt ich auch noch Fragen :D:
Was ist AFAIR? Ich kenn nur AFAIK, was meines Wissens nach "As Far As I Know" heißt. Achja und was is "GNARF"? *g*. IMO und IMHO sind mir bekannt.

Thx!

Raff

Iceman346
2003-02-09, 19:29:17
AFAIR = As Far As I Recall (= Soweit ich mich erinnere)

Unregistered
2003-02-10, 05:08:22
In 70 Jahren wird auf Razors Grabstein stehen, "Auf JC's GF FX, einer von 10 weltweit produzierten, lief Doom3 0,4 FPS schneller!".
Und die FX Jünger aus dem 3DCenter Forum, inzwischen alle über 80 und taub, werden einen Kranz spenden mit den Worten "Wartet erst bis die finalen Treiber kommen!"
:D

ShadowXX
2003-02-10, 10:11:25
@Razor, den Unreg und den Rest:

falls es noch jemanden Interessiert:

JC hat nur gesagt das ihm von NV gesagt wurde das diese (nv) eine Performancesteigerung erwarten (expected).

JC hat nie gesagt der nächste Treiber wird definitiv schneller.....

(Was übrigens ganz am Anfang dieses Threads auch schon mal stand....)

MfG
J.S.Shadow

MadManniMan
2003-02-11, 15:37:09
Originally posted by LovesuckZ
Wobei, Nvidia selbst zum NV31 sagt, sie koennen mit der Karte die TI4600 Performancemaeßig besiegen.

hm, ich möchte meinen, auch hier wird auf die aa/af-leistung angespielt

LovesuckZ
2003-02-11, 15:47:04
Originally posted by MadManniMan
hm, ich möchte meinen, auch hier wird auf die aa/af-leistung angespielt

Was fuer die meisten auch interessant ist. Wenn Nvidia mit dem NV31 alles richtig macht, dann duerften wir die leistung einer TI4600 ohne AA/AF und mit den beiden Feature unter 200€ bekommen. Ja ich weiß, die 9500pro schafft das zum Teil auch, wird aber bestimmt wie die 9500 in Anbetracht des RV350 eingestellt.