PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist das Ende der Fahnenstange in Sicht?


Piffan
2004-05-28, 18:27:13
Habe eben gerade die Meldung gehört, dass Intel die P4- Linie nicht mehr fortentwickelt. Gründe sind in der Architektur zu finden, die sehr takthungrig ist. Aber mehr Takt ist zunehmend zu einem Energieproblem geworden: Der Energieverbrauch und die Wärmeentwicklung hat Größenordnungen erreicht, dass eine Weiterenttwicklung des P4 keinen Sinn mehr hat.

Wie wird es wohl bei den GPUs aussehen? Die haben bei der Komplexität die CPUs locker überflügelt. Wegen der gigantischen Chipgrößen sind große Taktsteigerungen wahrscheinlich nicht mehr wirklich zu erwarten. Dass Fertigungsprozesse mit feineren Strukturen auch nichts reißen, liegt an den zunehmenden Leckströmen.....

Was können, oder realistischer betrachtet, werden Ati und NV noch bringen? Die Gespräche über einen heimlichen Waffenstillstand sind sicher kein Fantasie- Produkt, vielmehr ist es der einzige Weg: Der "Fortschritt" muss langsamer werden, sollen die Chips am Massenmarkt eine Chance haben und soll das Entwicklungsbudget nicht die Gewinne fressen....

Also was glaubt ihr: Sind die Leistungssprünge vom R300 zum R420 bzw. zum NV40 so heftig, dass man für die nächste Zeit keine Aufrüstung mehr ins Auge fassen braucht? Immerhin wurde ja die Zahl der Pipelines verdoppelt und der Takt gehörig angehoben....

Irgendwann muss doch mal Schluss sein......

Radeonator
2004-05-28, 19:01:06
Ich denke das Silizium muss endlich ersetzt werden, das ist quasi ein zu alter Stoff...

Es wird etwas neues kommen, da bin ich sicher!

p.s.: Der Thread gehört ins Spekulations Forum

-error-
2004-05-28, 19:03:40
Original geschrieben von Piffan

Also was glaubt ihr: Sind die Leistungssprünge vom R300 zum R420 bzw. zum NV40 so heftig, dass man für die nächste Zeit keine Aufrüstung mehr ins Auge fassen braucht? Immerhin wurde ja die Zahl der Pipelines verdoppelt und der Takt gehörig angehoben....

Irgendwann muss doch mal Schluss sein......

Ich denk auch, irgendwann gehts nicht mehr weiter. Ich denke schon, dass man mit ner R420 und einer NV40 die nächsten 3-4 Jahre spielen kann.
In Spielen mit durchscnittlicher Grafik, haben die so einen Leistungsberschuss, dass man die Auflösung und die Filterung maximal aufdrehen und dann immer noch mit einen Speed zocken kann, der keine Wünsche offen lässt. Selbst FarCry ist jetzt auf allen Details auf extrem hohen Auflösungen spielbar.

Den "Entwicklungsspeed" mit den ATI und Nvidia herranschreitet, ist so heftig, dass die Spieleschmieden garnicht hinterherkommen. Selbst Doom3 ist nicht wirklich eine Herrausforderung für die NextGen Grafikchips.
Das haben auch Nvidia und ATI gemerkt und da es momentan eh nur ein paar HighEnd-Grafikgames gibt die man an der Hand abzählen kann, die selbst extrem schnell auf den neuen Karten laufen, gibt es eigendlich keinen Bedarf zumindestens jetzt Geld in die Entwicklung zu pumpen.

Ich denke ein weiteres Problem ist es, dass die Kluft zwischen High-End und Mainstream immer größer wird. Denn die Mainstreamkarten sind wiederum viel zu langsam um größere Schritte in der Spielegrafik zu machen.

Radeonator
2004-05-28, 19:13:09
Original geschrieben von Desire
*schnipp*

Ich denke ein weiteres Problem ist es, dass die Kluft zwischen High-End und Mainstream immer größer wird. Denn die Mainstreamkarten sind wiederum viel zu langsam um größere Schritte in der Spielegrafik zu machen.

Sehe ich absolut nicht so!!! Die 5900XT,ti4200 ,ATi s "Klassiker" die 9500Pro , 9600XT bewiesen und beweisen genau das Gegenteil! Die neuern schaffen selbst Highend mit niedrig af+fsaa modes und die 4200er ist immer noch mit genug Rohpower am Start.

Godmode
2004-05-28, 19:49:13
Würde mal sagen, dass es in die Multicore Richtung geht! Mehrere Cores auf einer Packung, die dann paralell zusammen arbeiten können.

huha
2004-05-28, 20:01:39
Ach, ich denke schon, daß da noch gewaltig was gemacht werden kann. Wenn man mit brachialer Gewalt nicht mehr weiterkommt, muß eben optimiert werden.
Mehrere Kerne, wie es sich schon zu Voodoo-Zeiten gab, würden einiges bringen; bringt man dann auch noch deferred rendering ins Spiel, kann die Geschwindigkeit unter Umständen nochmals gesteigert werden.

-huha

RLZ
2004-05-28, 20:14:42
Vielleicht sollte auch auf eine effektivere Technik gesetzt werden, anstatt zu versuchen mit Bruteforce weiterzukommen. Aber andere Ansätze erfordern umdenken und das ist wohl zuviel verlangt :(

BodyLove
2004-05-28, 20:21:50
Ich glaube nicht umdenken ist das Problem, sondern eher die finanziellen Risiken. Ich denke das ist das Hauptproblem. Was ist eigentlich mit galium arsenid. Ich dachte das hätte langsam den Silizium abgelöst bzw. wird es langsam ablösen.:spock:

Piffan
2004-05-29, 00:26:54
Original geschrieben von BodyLove
Ich glaube nicht umdenken ist das Problem, sondern eher die finanziellen Risiken. Ich denke das ist das Hauptproblem. Was ist eigentlich mit galium arsenid. Ich dachte das hätte langsam den Silizium abgelöst bzw. wird es langsam ablösen.:spock:

Wird Gallium Arsenid nicht für Leuchtdioden eingesetzt?

Ich glaube nicht, dass andere Halbleiter was an den prinzipiellen Problemen ändern können. Es ändert zumindest nichts an der maximalen Chipgröße, wenn alles mit einem einzigen Takt läuft....

Evtl. kann man die elektrischen Widerstände senken und damit die Verlustwärme dämpfen und so über mehr Spannung auch wieder die Takte erhöhen....Aber dennoch werden wohl nie die Taktraten erreicht, die moderne CPUs haben.....

Gast
2004-05-29, 01:30:21
Also NVidia besitzt zumindest mal die ganze Tile Based Rendering Technik die sie von 3dFX ergattern haben, welche 3dFX dann wiederum damals von Gigapixel gekauft hat.



Ob ATI etwas ähnliches hat, weiß ich nicht.

Aber Tile Based Rendering dürfte wohl momentan der beste Weg sein Strom zu sparen.


Mal schauen was aus dem PowerVR 5 (Kyro 3) wird.

Piffan
2004-05-29, 10:03:22
Original geschrieben von RLZ
Vielleicht sollte auch auf eine effektivere Technik gesetzt werden, anstatt zu versuchen mit Bruteforce weiterzukommen. Aber andere Ansätze erfordern umdenken und das ist wohl zuviel verlangt :(

Zumal die Materie nicht so simpel ist, wie Hänschen sich das so vorstellt....Ich denke mal, dass die Leute sich durchaus auch so ihre Gedanken zu dem Thema gemacht haben. Kannste einen drauf lassen :D

RLZ
2004-05-30, 15:09:11
Original geschrieben von Piffan
Zumal die Materie nicht so simpel ist, wie Hänschen sich das so vorstellt....Ich denke mal, dass die Leute sich durchaus auch so ihre Gedanken zu dem Thema gemacht haben. Kannste einen drauf lassen :D

Ist nur die Sache, ob sie nicht mit Brutforce in die gleiche Sackgasse laufen wie Intel mit dem P4 (nächste Geforce mit 180W?). Es gibt andere Lösungen, aber die würden einen Umbruch bedeuten, der von vielen nicht so gewünscht wird. Die Rohleistung zu steigern, scheint für Leute wie Kirk immer noch ganz oben auf der Wunschliste zu stehen. Leider mit Scheuklappen an und nicht offen für neue Lösungen :(

Kladderadatsch
2004-05-30, 15:21:51
ich weiß jetzt nicht, ob das schon geschrieben wurde:
silizium-technik schafft es maximal auf 12 ghz, nano auf ein paar zig-millionen. (stand mal in der pm)
außerdem wurden die ersten nano-cpu`s schon vor c jahren vorgestellt. ibm versucht sich daran, mit noch einer namhaften firma, deren namen mir jetzt nicht einfällt. ich glaub, ibm kommt damit wieder ganz groß raus...

ironMonkey
2004-05-30, 15:40:22
Original geschrieben von Piffan
Was können, oder realistischer betrachtet, werden Ati und NV noch bringen? Die Gespräche über einen heimlichen Waffenstillstand sind sicher kein Fantasie- Produkt, vielmehr ist es der einzige Weg: Der "Fortschritt" muss langsamer werden, sollen die Chips am Massenmarkt eine Chance haben und soll das Entwicklungsbudget nicht die Gewinne fressen....

Also was glaubt ihr: Sind die Leistungssprünge vom R300 zum R420 bzw. zum NV40 so heftig, dass man für die nächste Zeit keine Aufrüstung mehr ins Auge fassen braucht? Immerhin wurde ja die Zahl der Pipelines verdoppelt und der Takt gehörig angehoben....

Irgendwann muss doch mal Schluss sein......


Das zwischen ATI und NV hat an sich nix mit den schnellen karten zu tun, schneller machen ist kein Problem, nur die Entwicklungskosten sind ja wie bekannt verdammt hoch und so währe es Sinnvoller das doppelte an Zeit verstreichen zu lassen bevor man etwas neues bringt, so würden auch die Karten besser genutz werden und der User währe im damit auch im Vorteil da er mit einer vor 2 Jahren für 500€ gekauften Karte immer noch oben dabei währe und sich so die Investition gelohnt hat.


Im Juli 2004 sollte man ohne große Probleme an die neuen Karten rankommen, Winter 2005 ein kleines Speedupdate und Juli 2007 die neuen Karten, so währe eine 6800Ultra/X800XT 3 Jahre lang Aktuell und den Preis könnte man so auch etwas oben halten, nicht das alle 2 Wochen die Karten billiger werden und nach ein paar Monaten die Karte nix mehr Wert ist.



Gruß

Kladderadatsch
2004-05-30, 18:45:42
wenn dann dafür die preise generell niedriger wären, wäre das ok. aber da man davon ausgehen kann, dass ati und nvidia, da sie eben allein den kompletten mainstream-markt beherrschen, das preis-niveau künstlich hoch halten würden, sollen die auch ruhig in ihre entwicklungen investieren...

Piffan
2004-05-30, 18:52:47
Original geschrieben von ironMonkey
Das zwischen ATI und NV hat an sich nix mit den schnellen karten zu tun, schneller machen ist kein Problem, nur die Entwicklungskosten sind ja wie bekannt verdammt hoch und so währe es Sinnvoller das doppelte an Zeit verstreichen zu lassen bevor man etwas neues bringt, so würden auch die Karten besser genutz werden und der User währe im damit auch im Vorteil da er mit einer vor 2 Jahren für 500€ gekauften Karte immer noch oben dabei währe und sich so die Investition gelohnt hat.




Gruß

Schneller machen kein Problem, alles nur ne Frage der Kosten? LOL

Es ist wohl so, dass beim jetzigen Reifegrad der Chiptechnik weitere Sprünge überproportionalen Aufwand an Entwicklung brauchen und noch überproportionaleren Energiehunger und Kühlungsaufwand nach sich ziehen...

Außerdem bauen Ati und NV keine Chips, damit wir möglichst lange und günstig zocken können, sondern um im umkämpften Markt zu bestehen und Kasse zu machen. Deren Interesse deckt sich leider nicht mit dem des Spielers. ;)

2004-05-30, 19:44:29
Hi!

Schluss wird es nie sein. Man muss eben nur neue Wege finden das teuer entwickelte Konzept an den Kunden zu bringen und denke mir mal hier bremst die Wirtschaft die Entwicklung ohnehin aus. Kenne genug Leute die noch DX 7 - Level (Radeon 7XXX und GF1,2,4 MX - von diversen OnBoard Solutions und Liebhaberstücken wie Kyro oder Voodoo ganz zu schweigen) GraKas am laufen haben. Und momentan sind ja auch noch die Mindestanforderungen von 95% aller Spiele eine DX 7 GraKa mit HW T&L. Wenn der Rest vom Sys passt kommt man damit auch über die Runden.
Bei mir in der Wohnung werkelt auch noch eine GF 2 TI (gut - heftige Spiele zocke ich am PC von Daddy R9800 XT) welche mir eigentlich für das was ich zocke ausreicht.


So wird die Chipentwicklung auf lange Sicht gesehen zu unrentabel - oder man wartet bis sich Entwickler auf einen höheren Standard eingeschossen haben (Stichwort: Longhorn, DOOM III - Enginge & Co.) und dieser zum Aufrüsten bewegt. Denke in der nächsten Zeit werden die Entwickler eben nicht mehr mit mehr Power sondern mit mehr Beigaben/Qualität punkten

MfG

Gast
2004-05-30, 20:44:32
Original geschrieben von Gast
Also NVidia besitzt zumindest mal die ganze Tile Based Rendering Technik die sie von 3dFX ergattern haben, welche 3dFX dann wiederum damals von Gigapixel gekauft hat.



Ob ATI etwas ähnliches hat, weiß ich nicht.

Aber Tile Based Rendering dürfte wohl momentan der beste Weg sein Strom zu sparen.


Mal schauen was aus dem PowerVR 5 (Kyro 3) wird.

Warum verbraucht dann der NV40 soviel Strom ???

Warum bietet nv keine sogg. NATIVE PCI Expresslösung an mit 4GB/sec. in beide Richtungen ?
Memo: Im Entry kann ich das VERSTEHEN!

Warum mußte für Farcry ein eigener PS 1.1 Pfad für die FX-Serie geschrieben werden?

Warum sind alle Benchmarks mit nv-Karten die auf PS 2.0 bei Farcry basieren sollten nicht für ungültig erklärt worden?

ironMonkey
2004-05-30, 20:58:42
Original geschrieben von Piffan
Schneller machen kein Problem, alles nur ne Frage der Kosten? LOL

Es ist wohl so, dass beim jetzigen Reifegrad der Chiptechnik weitere Sprünge überproportionalen Aufwand an Entwicklung brauchen und noch überproportionaleren Energiehunger und Kühlungsaufwand nach sich ziehen...

Außerdem bauen Ati und NV keine Chips, damit wir möglichst lange und günstig zocken können, sondern um im umkämpften Markt zu bestehen und Kasse zu machen. Deren Interesse deckt sich leider nicht mit dem des Spielers. ;)


Also du hast das genau falsch verstanden und ich wohl anscheinden schlecht formuliert.


Wenn sich ATI nVidia und auch andere dazu entscheiden den Zeitraum der zur nächsten Serie vergeht zu vergößern dann bleiben die Karten länger aktuell und bei können daduch auch mehr Gewinn machen und die Preise oben halten.

So wie derzeit der Markt ist machen weder NV noch ATI richtig Kasse da die HW nicht lange genug aktuell ist, da die Entwicklungskosten ja alles andere als nierig sind.



Wegen dem Speed machst du dir zuviel Sorgen, sicher, derzeit geht nicht viel, aber vor 3 jahren war man auch schon am Limit, was halt das Limit vor 3 jahren war.

Es geht immer schneller.


Gruß

Gast
2004-05-30, 21:06:04
Sagmal liest du auch die dazu passenden Geschäftsberichte???

ATI hat Ihren Gewinn deutlich gesteigert!
NV hat Verluste eingefahren!

Lesen bildet ! bzw. US-Aktienseiten!

LovesuckZ
2004-05-30, 21:15:44
Original geschrieben von Gast
Warum verbraucht dann der NV40 soviel Strom ???

Weil der NV40 besser ist?

Warum bietet nv keine sogg. NATIVE PCI Expresslösung an mit 4GB/sec. in beide Richtungen ?


Weil der NV45 noch nicht da ist?

Warum mußte für Farcry ein eigener PS 1.1 Pfad für die FX-Serie geschrieben werden?

Weil du als Gast dann unsinn reden kannst (laeuft der PS1.1 Pfad mit FP16?)?

Warum sind alle Benchmarks mit nv-Karten die auf PS 2.0 bei Farcry basieren sollten nicht für ungültig erklärt worden?

Weil sie PS2.0 verwenden?

Quasar
2004-05-30, 21:19:35
Original geschrieben von Gast
Sagmal liest du auch die dazu passenden Geschäftsberichte???

ATI hat Ihren Gewinn deutlich gesteigert!
NV hat Verluste eingefahren!

Lesen bildet ! bzw. US-Aktienseiten!

Wirklich? Der letzte, den ich sah (muss etwa drei Wochen her sein), wies für beide Gewinne aus. Hast du einen Link für mich dazu?

ironMonkey
2004-05-30, 21:20:47
So wie ich das weiß hat ATI im GRAFIKARTEN Segment nicht mehr als Nvidia da der Anteil ca. gleich ist.



@LS. nein NV40 ist einfach nur grotten schlecht;D(j/k)


Gruß

aths
2004-05-30, 21:26:28
Original geschrieben von Piffan
Wie wird es wohl bei den GPUs aussehen?

[...]

Irgendwann muss doch mal Schluss sein...... Bei Massenspeichern ist momentan kein Ende abzusehen, obwohl auch irgendwo mal Schluss sein müsste. Imo ist das Ende der Fahnenstange bei GPUs noch lange nicht in Sicht. (Bei CPUs auch nicht.)

Tigerchen
2004-05-31, 06:54:56
Original geschrieben von LovesuckZ

Weil sie PS2.0 verwenden?

Werden in FarCry nur PS 2.0 Shader bei den nV Karten verwendet?

Quasar
2004-05-31, 07:45:50
Werden in FarCry nur PS 2.0 Shader bei den ATi Karten verwendet?

Tigerchen
2004-05-31, 09:29:51
Original geschrieben von Quasar
Werden in FarCry nur PS 2.0 Shader bei den ATi Karten verwendet?

Das einzige was ich weiß ist daß es einige Shader gibt die auf nV Hardware aus irgendeinem Grund schlechter aussehen. Bin total ahnungslos wie das kommt. Lovesuckz kann das bestimmt erklären.

Quasar
2004-05-31, 09:47:17
Ich sehe da eigentlich keinen Unterschied... höchstens im direkten Vergleich mit bitgenauen Differenzbildern - aber im Spiel selber sieht man sowas doch gar nicht.

*tststs*

Piffan
2004-05-31, 09:52:15
Original geschrieben von Quasar
Ich sehe da eigentlich keinen Unterschied... höchstens im direkten Vergleich mit bitgenauen Differenzbildern - aber im Spiel selber sieht man sowas doch gar nicht.

*tststs*

Tjo, ist gaynau wie mit den Af- Optimierungen....Sieht doch keine Sau ;)

Äh, könnten die werten Herren das Gehacke wieder einstellen und evtl. was topisches bringen?

Tigerchen
2004-05-31, 11:46:48
Original geschrieben von Quasar
Ich sehe da eigentlich keinen Unterschied... höchstens im direkten Vergleich mit bitgenauen Differenzbildern - aber im Spiel selber sieht man sowas doch gar nicht.

*tststs*

Über Kleinigkeiten streite ich nicht. Aber das ist ein "wenig" mehr:


http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-46.html

ironMonkey
2004-05-31, 12:00:54
Version 1.1 ist viel besser, da wird man nicht so blöd geblendet;D

Wobei der UNterschied wirklich sehr gering ist........j/k


Gruß

SKYNET
2004-05-31, 13:15:51
Original geschrieben von Tigerchen

Über Kleinigkeiten streite ich nicht. Aber das ist ein "wenig" mehr:


http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-46.html


1.1 ist besser, sieht nicht so nach plastik aus, halt realer und nicht so synthetisch.

weil zeige mir ein abwasser rohr das halbvergammelt ist das so wie auf 1.0 das licht reflektiert ;D

Grestorn
2004-05-31, 13:24:30
Original geschrieben von Tigerchen
Über Kleinigkeiten streite ich nicht. Aber das ist ein "wenig" mehr:

Wann hört ihr endlich auf, immer wieder die FarCry Screenshots rauszukramen?

Irgendwie wirds schon langsam peinlich. Einige ignorieren immer wieder die bekannten Fakten und bringen FC als Argument. Ist Euch denn nicht klar, dass diese Argumentation hohl ist und Euren Standpunkt nicht unterstützt? Oder geht ihr davon aus, irgendwelche Neuleser kennen die Fakten nicht und könnten so Eure Meinung annehmen? Oder meint ihr, endlose Wiederholung von Null-Argumenten höhlt denn Stein des Verstandes?

Nochmal, falls es Dir tatsächlich nicht bekannt gewesen sein sollte:

FC 1.0 sieht auf ATI und nVidia gleich aus.
FC 1.1 wurde für nVidia gepatcht, weil der NV35 zu langsam war für die in FC 1.0 verwendeten Shader. Deswegen sieht 1.1 auf nVidia schlechter aus, da nVidia erkannt wird und auf einfachere (FP16, PS1.x) Shader ausgewichen wird.
Für NV40 wird im Moment in FC 1.1 der selber Render-Path wie für NV35 verwendet. Deswegen kann der NV40 nicht anders aussehen, als der NV35 und damit sieht er natürlich schlechter aus. als ATI.
Über die Vor- und Nachteile des NV40 sagt FC 1.1 überhaupt gar nichts aus...

Ich schriebs schonmal und wiederhol es gerne nochmal:
Lasst FC endlich in Frieden ruhen bis es korrekt gepatcht ist!

Piffan
2004-05-31, 13:46:40
Original geschrieben von grestorn
Wann hört ihr endlich auf, immer wieder die FarCry Screenshots rauszukramen?

Irgendwie wirds schon langsam peinlich. Einige ignorieren immer wieder die bekannten Fakten und bringen FC als Argument. Ist Euch denn nicht klar, dass diese Argumentation hohl ist und Euren Standpunkt nicht unterstützt? Oder geht ihr davon aus, irgendwelche Neuleser kennen die Fakten nicht und könnten so Eure Meinung annehmen? Oder meint ihr, endlose Wiederholung von Null-Argumenten höhlt denn Stein des Verstandes?

Nochmal, falls es Dir tatsächlich nicht bekannt gewesen sein sollte:

FC 1.0 sieht auf ATI und nVidia gleich aus.
FC 1.1 wurde für nVidia gepatcht, weil der NV35 zu langsam war für die in FC 1.0 verwendeten Shader. Deswegen sieht 1.1 auf nVidia schlechter aus, da nVidia erkannt wird und auf einfachere (FP16, PS1.x) Shader ausgewichen wird.
Für NV40 wird im Moment in FC 1.1 der selber Render-Path wie für NV35 verwendet. Deswegen kann der NV40 nicht anders aussehen, als der NV35 und damit sieht er natürlich schlechter aus. als ATI.
Über die Vor- und Nachteile des NV40 sagt FC 1.1 überhaupt gar nichts aus...

Ich schriebs schonmal und wiederhol es gerne nochmal:
Lasst FC endlich in Frieden ruhen bis es korrekt gepatcht ist!

Per se sieht ein "kleiner" Shader nicht schlechter aus als ein großer. Es hängt schlicht und ergreifend davon ab, WAS mit einem Shader gemacht wird. Und weil die Artefakte(Rechenfehler auf deutsch) höher werden bei manchen Effekten, lässt man manche Effekte einfach aus, wenn kein "großer" Shader genutzt werden soll/kann.....

Aber ich frage mich jetzt mal wieder, was das alles mit der Ausgangsfrage zu tun hat. Sind wohl wieder Bots unterwegs oder was?

Winter[Raven]
2004-05-31, 13:51:21
Original geschrieben von Tigerchen

Über Kleinigkeiten streite ich nicht. Aber das ist ein "wenig" mehr:


http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-46.html

Find das Rechte bild von Realer, als "wurde die ganze Map mit Sonnencreme eingeschmiert?".

Manchmal ist weniger besser als zuviel :P

BUG
2004-05-31, 14:15:22
..imho is das Bild "unglücklich" gewählt, da gibt es deutlich krassere Bilder die den Unterschied in FarCry 1.1 bei NV vs. ATI zeigen. (z.B. die Kacheln auf Boden oder Decke oder Shader die komplett auf einigen Gas Flaschen fehlen usw.) Vermutlich wird der neue Patch wenigstens für den NV40 wieder volle Qualität liefern.

FarCry 1.0 läuft leider ab dem 60er ForceWare nicht mehr weswegen es keiner getestet hat.

cu
BUG

Tigerchen
2004-05-31, 14:56:42
Original geschrieben von Piffan
Per se sieht ein "kleiner" Shader nicht schlechter aus als ein großer. Es hängt schlicht und ergreifend davon ab, WAS mit einem Shader gemacht wird. Und weil die Artefakte(Rechenfehler auf deutsch) höher werden bei manchen Effekten, lässt man manche Effekte einfach aus, wenn kein "großer" Shader genutzt werden soll/kann.....

Aber ich frage mich jetzt mal wieder, was das alles mit der Ausgangsfrage zu tun hat. Sind wohl wieder Bots unterwegs oder was?

Hätte Quasar nicht so getan als wüßte er nicht was ich meine hätte ichs gar nicht erwähnt.

reunion
2004-05-31, 15:09:39
Original geschrieben von grestorn
FC 1.0 sieht auf ATI und nVidia gleich aus.
FC 1.1 wurde für nVidia gepatcht, weil der NV35 zu langsam war für die in FC 1.0 verwendeten Shader. Deswegen sieht 1.1 auf nVidia schlechter aus, da nVidia erkannt wird und auf einfachere (FP16, PS1.x) Shader ausgewichen wird.
Für NV40 wird im Moment in FC 1.1 der selber Render-Path wie für NV35 verwendet. Deswegen kann der NV40 nicht anders aussehen, als der NV35 und damit sieht er natürlich schlechter aus. als ATI.


Dann bleibt aber trozdem noch die Frage warum der NV40 troz schlechter NV3x Qualität langsamer ist als der R420 mit voller Qualtiät. Und falls jetzt wieder die Meldung kommt NV kann da ja nichts dafür, dann frage ich mich warum bei der 60er Forceware die 1.0er Version von FarCry (oh wunder) nichtmehr läuft.

Gast
2004-05-31, 15:49:39
Die 1.0er Version läuft schon mit den 56.72 nicht mehr richtig, das hat nix mit dem NV40 (und seinen Treibern) zu tun.
Gibts denn noch ein Spiel das solche Fehler aufweist wie Far Cry ? Sollen wir etwa alle Spiele rauskramen die Probleme mit einer neuen Grafikkartengeneration hatten ? Einfach abwarten...