PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ende der GeForce 7


Seiten : 1 [2]

Raff
2007-09-08, 12:26:22
Wieso RGSSAA-Mythos? Der R200 kann das doch.

Mir konnte bisher niemand sagen, wie ich das auf meiner 8500 reproduzieren kann. Kannst du es?

MfG,
Raff

Gast
2007-09-08, 12:33:50
(...) Das gegenübergestellt, gleicht die BQ der GF7 mit aktuellen Karten wie ein Ei dem anderen. ;)

MfG,
Raff

nun man jammert halt gern auf sehr hohem niveau...ich finds auch etwas überzogen :)

seit dem NV10 ist die BQ generell stärker angezogen als sie durch irgendwelche filteroptimierungen eingeschränkt wurde.
ich hab mit jedem upgrade einen qualitätssprung feststellen können obs nun NV10 auf NV25 auf NV40 oder auf den RV570 war...jedesmal wurds sichtbar besser!
unter anderem auch weil mit jedem schritt mehr performance für BQ übrig war..und ja ich reagiere sehr allergisch auf flimmernde pixel :)

aths
2007-09-08, 12:36:53
Daraus folgt aber auch, dass du häufiger aus dem Cache bedient wirst, was die Latenzen drastisch senkt.Die Speicherzugriffs-Latenz wird sowieso versteckt.

hm, also bei 8xAF teils schon. ^^

Also ich muss sagen, ich bin noch beeindruckt, was meine 7800 GT bei COJ leisten kann. Wenn ich entsprechend resourcenfressende Details abstelle, ist auch 1680x1050 noch drin, bei Q und TriOpt only. Zumindest ist sie dann nicht langsamer als aktuelle MidRange Karten. :)Eine 8600 GTS dürfte die 7800 GT abziehen. Gleiche Speicherbandbreite, mehr Texturfüllrate, deutlich höhere Shaderleistung. Bis auf das D3D10-Featureset wäre die 8600 GTS natürlich kein allzutolles Upgrade in Bezug auf die 7800 GT.

Gast
2007-09-08, 13:59:32
Anfangs gings um die 79000 jetz sind wird schon bei einer Radeon 8500.;D

Supa
2007-09-08, 19:56:08
Anfangs gings um die 79000 jetz sind wird schon bei einer Radeon 8500.;D

Ich hab noch eine rage128 im schrank liegen, soll ich mal benchen? müßte mir nur mal wer eine TNT1 (müßte irgend wie performance mäßig gelich sein, hab das nicht mehr so ganz im kopf) oder irgend was ähnliches zum vergleich schicken. :rolleyes:

mapel110
2007-09-08, 19:58:49
Eine 8600 GTS dürfte die 7800 GT abziehen. Gleiche Speicherbandbreite, mehr Texturfüllrate, deutlich höhere Shaderleistung. Bis auf das D3D10-Featureset wäre die 8600 GTS natürlich kein allzutolles Upgrade in Bezug auf die 7800 GT.
Die kostet doppelt so viel wie eine 7800 GT.

StefanV
2007-09-08, 20:12:59
Eine 8600 GTS dürfte die 7800 GT abziehen. Gleiche Speicherbandbreite, mehr Texturfüllrate, deutlich höhere Shaderleistung. Bis auf das D3D10-Featureset wäre die 8600 GTS natürlich kein allzutolles Upgrade in Bezug auf die 7800 GT.
Du meinst wohl die Radeon HD2600 XT (DDR4), die es für ~120€ gibt, die 2600XT GDDR3 kostet sogar nur ~100€...
Die 8600GTS ist erstmal eins: ein völlig überteuertes Stück Hardware, kostet etwa 200€ in der 512MiB Version...

Mir konnte bisher niemand sagen, wie ich das auf meiner 8500 reproduzieren kann. Kannst du es?
Ist doch einfach, kein fog, kein Alphatest, schon hast RGSSAA...

Gast
2007-09-08, 20:19:58
hm, also bei 8xAF teils schon. ^^

Also ich muss sagen, ich bin noch beeindruckt, was meine 7800 GT bei COJ leisten kann. Wenn ich entsprechend resourcenfressende Details abstelle, ist auch 1680x1050 noch drin, bei Q und TriOpt only. Zumindest ist sie dann nicht langsamer als aktuelle MidRange Karten. :)

Würde ich ja gerne sehen, wie sich deine 7800GT gegen eine X1950pro in COJ (Call of Juarez?) schlägt. Die 1950pro dürfte glatt doppelt so schnell sein.

Gast
2007-09-08, 22:18:34
Die Speicherzugriffs-Latenz wird sowieso versteckt.

Erklärung bitte, wenn die Pipe stillsteht? Wird der ganze Thread schlafengelegt zwischen TEX und im Cache bereitstehenden Texeln? Ich dachte, das kann die GF7 nicht.

Gast
2007-09-08, 22:19:53
Würde ich ja gerne sehen, wie sich deine 7800GT gegen eine X1950pro in COJ (Call of Juarez?) schlägt. Die 1950pro dürfte glatt doppelt so schnell sein.
Ist ja auch mehr als ein Jahr jünger - von daher kaum überraschend. Wie sich die zeitlich und preislich eher vergleichbare X1800 GTO schlägt wäre interessant.

aths
2007-09-08, 22:20:02
Du meinst wohl die Radeon HD2600 XT (DDR4), die es für ~120€ gibt, die 2600XT GDDR3 kostet sogar nur ~100€...Nein, ich meine die 8600 GTS.

Die 8600GTS ist erstmal eins: ein völlig überteuertes Stück Hardware, kostet etwa 200€ in der 512MiB Version...Man bekommt sie mit 512 MiB für unter 200 €, und auf diesem Level brauchts keine 512 MiB RAM. Da die Karte zu den Preisen weggeht, ist sie das auf dem Markt ganz offensichtlich wert. "Überteuert" nur für rotbebrillte Leute.

StefanV
2007-09-08, 22:28:49
Nein, ich meine die 8600 GTS.
...die vollkommen falsch Positioniert ist und absolut KEIN guter Kauf ist...

Man bekommt sie mit 512 MiB für unter 200 €

Kaum, aber da wir beim Haarespalten sind:
Ist die erste 'echte' 8600GTS/512 bei ~190€

und auf diesem Level brauchts keine 512 MiB RAM.

Das ist DEINE Ansicht, die nicht unbedingt der Wahrheit entsprechen muss...

Da die Karte zu den Preisen weggeht, ist sie das auf dem Markt ganz offensichtlich wert.
So wie GF2 Ultras oder die FX5900??
Oder die FX5200? :ugly:

Ändert nichts an dem Zustand, das die aktuelle Mittelklasse nicht besonders aufregend ist...


Und den letzten Satz hättest auch stecken lassen können, man wirft dir ähnliche Bezeichnungen ja auch nicht andauernd an den Kopf bzw du möchtest auch nicht entsprechend bezeichnet werden. :mad::mad::mad:

Gast
2007-09-08, 22:39:33
Dummerweise ist sie nicht überteuert, da AMD kein Konkurrenzmodell anbietet und die Karte damit allein auf weiter Flur steht. Genauso im High-End-Bereich.

Schade eigentlich.

Gast
2007-09-08, 22:51:55
Die DX10-Mittelklasse ist sowieso absoluter fuck, egal ob von amd oder nv. Wer das als Enduser kauft, hat eh einen an der Waffel :uhammer:

HOT
2007-09-09, 00:42:00
Solange man x1950GT oder Pro bekommt ist die DX10 Mittelklasse, zumindest bei der Preispolitik, nahezu sinnlos, da stimme ich zu. Aber der Markt richtet sich leider nicht nach sinnvoll oder sinnlos, anscheinend werden die GTS verkauft, trotz ihrer Performancenachteile.

Gast
2007-09-09, 01:09:54
Solange man x1950GT oder Pro bekommt ist die DX10 Mittelklasse, zumindest bei der Preispolitik, nahezu sinnlos, da stimme ich zu. Aber der Markt richtet sich leider nicht nach sinnvoll oder sinnlos, anscheinend werden die GTS verkauft, trotz ihrer Performancenachteile.

Yo von naps die nur denn DX 10 aufkleber sehen wollen.

AMC
2007-09-09, 01:18:17
Dummerweise ist sie nicht überteuert, da AMD kein Konkurrenzmodell anbietet und die Karte damit allein auf weiter Flur steht. Genauso im High-End-Bereich.

Schade eigentlich.

:up:

Yo von naps die nur denn DX 10 aufkleber sehen wollen.

Siehe obigen Post. Wenn Du Dich auf die 8400 und 8600 GTS beziehst, dann gebe ich Dir recht! Wer noch altes High-end der letzten Generation hat, braucht sich keine neue Karte zu kaufen, vor allem, wenn er auf Vista verzichtet! Eine 8800 lohnt aber sehr wohl. Ich habe ebenfalls eine und nutze sie nur im DX9c Modus, denn Witzta kommt mir nicht auf den Rechner.

AMC

Mr. Lolman
2007-09-09, 09:51:23
Dummerweise ist sie nicht überteuert, da AMD kein Konkurrenzmodell anbietet und die Karte damit allein auf weiter Flur steht. Genauso im High-End-Bereich.

Schade eigentlich.

Ich dachte die 2600XT ist die Konkurrenz: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating

Matrix316
2007-09-09, 10:22:33
So lange man für unter 200 € noch die X1950XT bekommt, können 8600GTS und X2600XT beide gemeinsam die Koffer packen.

Gast
2007-09-09, 10:36:02
Ich dachte die 2600XT ist die Konkurrenz: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating

Zur 8600GT, zur GTS gibt es keine Konkurrenz von ATI.

Mr. Lolman
2007-09-09, 10:49:00
Mit 1600x1200, 4xAA/16xAF liegt sie genau zw GT und GTS. In anderen Settings ist sie tw. näher bei GT, ohne AA/AF näher bei der GTS. Und die DX10 Benches bei CB sind überhaupt seltsam.

Grivel
2007-09-09, 11:13:22
Mit 1600x1200, 4xAA/16xAF liegt sie genau zw GT und GTS. In anderen Settings ist sie tw. näher bei GT, ohne AA/AF näher bei der GTS. Und die DX10 Benches bei CB sind überhaupt seltsam.
find die benches von denen sowieso seltsam :/ nicht immer aber oftmals wirken sie unecht^^
aber middlerange dx 10 ist nunma atm bullshit, scho alleine wegen 128bit bandbreite würde ich die nicht kaufen...und irgendwie finde ich wenn man es mit damals ner 9500(pro)der Geforce 4 ti 4x00er oder FX 5x00.. vergleiche wirken sie auch extrem viel schwächer im vergleich zum Highend Chip.

Tatsache ist aber das aktuell jede Halbwegs aktuelle Graka noch ausreicht :)

Gast
2007-09-09, 11:18:09
Ich dachte die 2600XT ist die Konkurrenz[/url]
Falsch gedacht - AMD sieht das anders.

Gast
2007-09-09, 11:23:18
So wie GF2 Ultras oder die FX5900??
Zu ihren Lebzeiten hatte die 5900 Serie ihre Reize. :smile:

HOT
2007-09-09, 11:37:02
XBit hat da ja DX10 Ergebnisse:
http://www.xbitlabs.com/articles/video/display/directx10-games_9.html#sect0

aths
2007-09-09, 11:40:16
Erklärung bitte, wenn die Pipe stillsteht? Wird der ganze Thread schlafengelegt zwischen TEX und im Cache bereitstehenden Texeln? Ich dachte, das kann die GF7 nicht.Das verstehe ich jetzt nicht. Wenn man warten muss weil die Daten noch nicht im Cache sind, hat G71 immerhin 220 Takte Zeit, die Daten in den Cache zu holen (denn so lang ist das Quadbatch.) Wenn man warten muss bis die Filterung abgeschlossen ist, loopen die TMUs in aller Ruhe vor sich hin während die ALUs Däumchen drehen.


Die DX10-Mittelklasse ist sowieso absoluter fuck, egal ob von amd oder nv. Wer das als Enduser kauft, hat eh einen an der Waffel :uhammer:Dann müssten ziemlich viele Leute einen an der Waffel haben.

aths
2007-09-09, 11:45:40
...die vollkommen falsch Positioniert ist und absolut KEIN guter Kauf ist...8600 GT und GTS verkaufen sich wie geschnitten Brot.

Kaum, aber da wir beim Haarespalten sind:
Ist die erste 'echte' 8600GTS/512 bei ~190€Wer eine 8600 kauft, sollte bei Preisleistungsbewusstsein eher zur 256-MiB-Version greifen.

Das ist DEINE Ansicht, die nicht unbedingt der Wahrheit entsprechen muss...Bei welchen Games hat man mit einer 8600 mit 512 MiB gegenüber 256 MiB Vorteile?

So wie GF2 Ultras oder die FX5900??
Oder die FX5200? :ugly:Bleiben wir doch sachlich – es geht um ATIs D3D9 und Nvidias D3D10.

Ändert nichts an dem Zustand, das die aktuelle Mittelklasse nicht besonders aufregend ist...Ich würde trotzdem lieber aktuelle Mittelklasse als veraltetes Highend kaufen.

Und den letzten Satz hättest auch stecken lassen können, man wirft dir ähnliche Bezeichnungen ja auch nicht andauernd an den Kopf bzw du möchtest auch nicht entsprechend bezeichnet werden. :mad::mad::mad:Ich sage ja auch dass der Markt die Preise regelt und entscheide nicht Kraft meiner Wassersuppe, was jetzt "überteuert" sein soll.

aths
2007-09-09, 11:49:15
find die benches von denen sowieso seltsam :/ nicht immer aber oftmals wirken sie unecht^^
aber middlerange dx 10 ist nunma atm bullshit, scho alleine wegen 128bit bandbreite würde ich die nicht kaufen...und irgendwie finde ich wenn man es mit damals ner 9500(pro)der Geforce 4 ti 4x00er oder FX 5x00.. vergleiche wirken sie auch extrem viel schwächer im vergleich zum Highend Chip.

Tatsache ist aber das aktuell jede Halbwegs aktuelle Graka noch ausreicht :)Ti 4200 war keine Mittelklasse sondern "unteres Highend". Mittelklasse war GF4 MX.

Selbst die 8500 hat 8 TMUs und ein (langsames) 128-Bit-Speicherinterface. Der 64-Bit-Unsinn geht zum Glück erst bei der 8400 los. Wobei mich nervt dass da nach unten noch so viel Platz ist – 8300, 8200, 8100 ... Man hätte die 8500 gleich -400 nennen sollen, die -600 gleich 500. Das wäre eine realistischere Einordnung. Bei heutigen Taktraten (z. B. 1000 MHz bei der 8600 GTS) reicht aber auch ein 128-Bit-Interface noch für vernünftige Leistung aus.

Gast
2007-09-09, 11:59:29
8600 GT und GTS verkaufen sich wie geschnitten Brot.

Weil:
- die Konkurrenz Produkte nicht besser sind
- der Preisbereich stimmt
- die Karten in OEM-PCs landen
- die Karten mit "Nextgen DX10" beworben werden: "Essential Vista" "NVIDIA PureVideo HD" "Extremes HD" "Die ultimative Gaming-Plattform"

Wer sagt da schon nein?

Das ändert aber nichts daran, das im 200€ Bereich eine 8700 fehlt.

Mr. Lolman
2007-09-09, 12:11:55
Weil:
- die Konkurrenz Produkte nicht besser sind


Zumindest in DX10 scheinbar schon.

aths
2007-09-09, 12:16:08
Weil:
- die Konkurrenz Produkte nicht besser sindKonkurrenz-Produkt bitte mit Bindestrich =) Die Konkurrenz ist aus meiner Sicht leider im Moment im ganzen D3D10-Bereich relativ schwach. ATI hat wohl kein 512-Bit-Speicherinterface entworfen um damit dann nicht in den Highend-Bereich gehen zu wollen. Es fehlt der Preisleistungshammer á la 8800 GTS-320. Das färbt wohl auch auf den 600-er Bereich ab: Soweit ich das sehe ist die Leistung der HD 2600 im Vergleich zur 8600 OK, nur verkauft sich letztere deutlich besser. Aber ich kann mich da nur wiederholen, dass die eigentliche Auseinandersetzung erst von der Refresh-Generation ausgetragen wird.

- der Preisbereich stimmt
- die Karten in OEM-PCs landenMit einer 8400 GS kann man sich in den OEM-PCs die ich gesehen haben schon glücklich schätzen.

Die 8600-er sind auch im Retail-Markt stark.

- die Karten mit "Nextgen DX10" beworben werden: "Essential Vista" "NVIDIA PureVideo HD" "Extremes HD" "Die ultimative Gaming-Plattform"

Wer sagt da schon nein?Naja, bei D3D9 waren die Werbebezeichnungen nicht besser. Aus meiner Sicht ist es gerade für Leute die nicht so oft aufrüsten besser, aktuelle Technologie zu haben als mehr Rohleistung bei veralteter Technologie. Zum Zocken sollte es dann aber imo schon 8600-GT-Niveau sein. Der Aufpreis zur 8500 GT ist es allemal wert.

Das ändert aber nichts daran, das im 200€ Bereich eine 8700 fehlt.Kommt vielleicht noch. Nur würde ich vorsichtig sein was deren Leistung betrifft. Für ca. 300 € gibts ja schon die 8800 GTS-320 mit deutlich mehr Dampf.

In vielen Shops scheint es eine Knappheit der 8800 GTS zu geben. Kein Wunder, da die Qualität der G80-Chips vermutlich so hoch ist, dass NV längst "heile" Chips für die GTS nehmen muss; hier könnte NV mehr verdienen wenn daraus eine GTX gebaut wird. Die 8600 war wohl mehr oder weniger ein Notlösung, um kleine Chips hinzubekommen. Wenn die geshrinkt werden, dürfte der Chip noch mal deutlich kleiner werden womit die Ausbeute pro Wafer steigt, und man hat vermutlich auch noch etwas mehr Spielraum im Takt.

Gast
2007-09-09, 12:32:35
Ihr habt Probs....

dieses was, wenn, wie, warum und wieso überhaupt...

ihr werdet eh beschissen, wenn ihr euch heute die aktuellste
Karte von irgendeinem Hersteller leistet, habt ihr gleichzeitig
ein Uraltmodell erhalt, es ist dann nämlich Schnee von gestern.

wollt ihr für euer Geld etwas, das etwas länger als ein halbes Jahr
aktuell ist, dann holt euch 'ne PS3...

Botcruscher
2007-09-09, 12:39:51
Auf der PS3 ruckelts doch auch ständig.:|

Die 86er-Generation ist mit Abstand der schlechteste Mainstrem den NV je gebracht hat. Zu lahm, zu teuer und für DX10 unbrauchbar. Eigentlich eine typische OEM-Karte.

mapel110
2007-09-09, 12:41:48
Auf der PS3 ruckelts doch auch ständig.:|

Die 86er-Generation ist mit Abstand der schlechteste Mainstrem den NV je gebracht hat. Zu lahm, zu teuer und für DX unbrauchbar.
Nö, die 5600er war noch bescheidener.

Raff
2007-09-09, 12:42:14
Die 86er-Generation ist mit Abstand der schlechteste Mainstrem den NV je gebracht hat. Zu lahm, zu teuer und für DX unbrauchbar.

DX10-Features kosten nun mal Transistoren, die Fläche klauen, welche früher für mehr TMUs/ALUs genutzt wurde. Mit der nächsten Generation und Die-Shrinks könnte es schon besser werden.

MfG,
Raff

Botcruscher
2007-09-09, 12:43:42
Nö, die 5600er war noch bescheidener.

OK ich geb mich geschlagen.

DX10-Features kosten nun mal Transistoren, die Fläche klauen, welche früher für mehr TMUs/ALUs genutzt wurde. Mit der nächsten Generation und Die-Shrinks könnte es schon besser werden.

MfG,
Raff

Klar... Bringt einem heutigen 86er Besitzer aber absolut garnix.

mapel110
2007-09-09, 12:43:47
Mit der nächsten Generation un Die-Shrinks könnte es schon besser werden.

MfG,
Raff
Dann eilt das High-End aber auch wieder weiter davon.

Mr. Lolman
2007-09-09, 12:47:17
DX10-Features kosten nun mal Transistoren, die Fläche klauen, welche früher für mehr TMUs/ALUs genutzt wurde. Mit der nächsten Generation und Die-Shrinks könnte es schon besser werden.

MfG,
Raff

Und wieso schaffts dann ATI?:

ATI Radeon HD 2600 XT GDDR4 - $149
Nvidia GeForce 8600 GTS - $189 - $249
[...]
Note that the Radeon HD 2600 XT offers two times the speed of the more expensive GeForce 8600 GTS in this test.

http://www.xbitlabs.com/articles/video/display/directx10-games_9.html#sect0

Gast
2007-09-09, 12:49:06
Kommt vielleicht noch. Nur würde ich vorsichtig sein was deren Leistung betrifft. Für ca. 300 € gibts ja schon die 8800 GTS-320 mit deutlich mehr Dampf.

In vielen Shops scheint es eine Knappheit der 8800 GTS zu geben. Kein Wunder, da die Qualität der G80-Chips vermutlich so hoch ist, dass NV längst "heile" Chips für die GTS nehmen muss; hier könnte NV mehr verdienen wenn daraus eine GTX gebaut wird.

richtig, daher erscheint es nur logisch wenn NV eine leistungsmäßig gleich starke aber billiger zu produzierende 8700 herausbringt und die 8800GTS auslaufen lässt um die wertvollen G80-chips als GTX/Ultra zu verkaufen.

Botcruscher
2007-09-09, 12:51:08
Note that the Radeon HD 2600 XT offers two times the speed of the more expensive GeForce 8600 GTS in this test.


Woohoo 11vs5 FPS.;D

Karten mit dem Prädikat "unsbrauchbarer Siliziumabfall schon beim Kauf".
Ich wette da geht auch noch ein 1vs3 FPS. Das sind dann ganze 300%! KAUFEN.

PS:
ATI hätte lieber eine gescheite Generation raus bringen sollen. Dann würden wir uns unterhalten ob man nicht lieber die 88er für 250€ kaufen sollte. Leider gibts keine Konkurenz.:(

Gast
2007-09-09, 12:57:55
ATi hat eine "gescheite Generation" rausgebracht - nur viel zu früh, die aktuelle Serie ist ein guter bis sehr guter DX10 Beschleuniger, was erste Benchmarks auch zeigen.

Gast
2007-09-09, 13:11:55
ATi hat eine "gescheite Generation" rausgebracht - nur viel zu früh, die aktuelle Serie ist ein guter bis sehr guter DX10 Beschleuniger, was erste Benchmarks auch zeigen.


ja, besonders in bioshock.

Grivel
2007-09-09, 13:11:59
Nö, die 5600er war noch bescheidener.


wer hat sich denn ne 5600er geholt ? wenn dann war ne fx 5700er noch sinnvoll für wenig geld gewesen..

Woohoo 11vs5 FPS.;D

Karten mit dem Prädikat "unsbrauchbarer Siliziumabfall schon beim Kauf".
Ich wette da geht auch noch ein 1vs3 FPS. Das sind dann ganze 300%! KAUFEN.

PS:
ATI hätte lieber eine gescheite Generation raus bringen sollen. Dann würden wir uns unterhalten ob man nicht lieber die 88er für 250€ kaufen sollte. Leider gibts keine Konkurenz.:(

die generation ist scho ok, nur halt momentan unter ihrem Potenzial^^
und vlt. kommt ja jetzt ma ne 2900gt/pro oder so raus :)

StefanV
2007-09-09, 13:39:24
Die DX10-Mittelklasse ist sowieso absoluter fuck, egal ob von amd oder nv. Wer das als Enduser kauft, hat eh einen an der Waffel :uhammer:
Von AMD gibts momentan nichts, was der 'oberen Mittelklasse' entsprechen könnte, die RV670 ist noch in der Pipeline und die HD2600 XT ist in jeder Version zu günstig (Preise von ~100€/GDDR3 und ~125€/GDDR4)...

Gast
2007-09-09, 13:45:41
wer hat sich denn ne 5600er geholt ? wenn dann war ne fx 5700er noch sinnvoll für wenig geld gewesen..
Von schlechten Verkäufen der 5600 habe ich nichts gelesen.

Die 5700 wurde erst später auf den Markt geworfen.

_DrillSarge]I[
2007-09-09, 14:00:06
noch mal zum ende von gf7: es gibt eigentlich auch keinen grund mit einer 7900gtx (weil ja jetzt das ende kommt ;)) auf ne karte unterhalb der 8800Gts 640 (oder gar gtx) zu wechseln oder?

Gast
2007-09-09, 14:01:24
I[;5828010']noch mal zum ende von gf7: es gibt eigentlich auch keinen grund mit einer 7900gtx (weil ja jetzt das ende kommt ;)) auf ne karte unterhalb der 8800Gts 640 (oder gar gtx) zu wechseln oder?


nein nicht wirklich, höchstens du lässt das spielen sein und bist scharf auf die neuen videofeatures.

Gast
2007-09-09, 15:17:24
I[;5828010']noch mal zum ende von gf7: es gibt eigentlich auch keinen grund mit einer 7900gtx (weil ja jetzt das ende kommt ;)) auf ne karte unterhalb der 8800Gts 640 (oder gar gtx) zu wechseln oder?


DOch du könntest die Karte gut verkaufen und vielleicht an eine X1950 XT 512 für 179E rankommen ohne aufpreis.Laut userberichten im Luxx Forum soll es ein enormen Leistungsschub geben.

_DrillSarge]I[
2007-09-09, 15:26:54
DOch du könntest die Karte gut verkaufen und vielleicht an eine X1950 XT 512 für 179E rankommen ohne aufpreis.Laut userberichten im Luxx Forum soll es ein enormen Leistungsschub geben.
ich besitze eine x1950xt (agp) und 2 2900xt. es war nur so ne frage, da die performance der gf7 doch nicht sooo unterirdisch sein kann, noch hinter ner x1800

robbitop@nyc
2007-09-09, 16:20:05
Nö, die 5600er war noch bescheidener.
Die war immerhin halbes High-End und nicht viertel/drittel High-End.

_DrillSarge]I[
2007-09-09, 16:22:05
so schlimm ist die abstufung gar nicht, es fehlt halt was zwischen 8800gts 320 und 8600

Raff
2007-09-09, 16:26:06
I[;5828505']so schlimm ist die abstufung gar nicht, es fehlt halt was zwischen 8800gts 320 und 8600

Dafür soll's ja irgendwann demnächst eine 8700 geben.

Topic?

MfG,
Raff

Gast
2007-09-09, 16:26:50
Zwischen GTS 640 und GTX fehlt auch etwas.

Gast
2007-09-09, 16:27:47
Topic?
Das Topic ist doch der reinste nv Bash.

Raff
2007-09-09, 16:27:50
Zwischen GTS 640 und GTX fehlt auch etwas.

OC-Versionen diverser Hersteller vergessen? ;)

MfG,
Raff

_DrillSarge]I[
2007-09-09, 16:27:56
ist die gf7 in AKTUELLEN spielen auch gegen eine x1800 machtlos? (kommt ja vom release der hardware zeitlich besser hin als x1900)

Gast
2007-09-09, 16:30:48
OC-Versionen diverser Hersteller vergessen? ;)

Naja OC-Versionen... die gibts doch bei (fast) allen Chipversionen.

Ich meine einen echten Lückenfühler. ;)

mapel110
2007-09-09, 16:35:29
OC-Versionen diverser Hersteller vergessen? ;)

MfG,
Raff
Von diesem PreOC-Krams kann ich nur abraten. Meist holt man das selbst beim Übertakten eines normalen Modells raus und zweitens beraubt man sich damit dem OC-Potenzial, dass der Chip haben könnte, weil das Ausgangsniveau ja wesentlich höher ist. Ergo kein Spaß mehr beim Übertakten des PreOC-Produktes.
Sehe ich also nicht als Lückenfüller an, auch wenns bissl Garantie auf den zusätzlichen Takt gibt.

AnarchX
2007-09-09, 16:37:28
I[;5828531']ist die gf7 in AKTUELLEN spielen auch gegen eine x1800 machtlos? (kommt ja vom release der hardware zeitlich besser hin als x1900)

Die 7800GTX wird wohl gegen die X1800XT doch desöfteren den Kürzeren ziehen, eben weil bei G7x die stallenden Pipelines, viel von der theoretischen Leistung kosten, zudem eben das langsame dynamische Branching und das fehlende schlechte HW-HSR.

Raff
2007-09-09, 16:37:51
Ich als leidenschaftlicher Übertakter halte OC-Versionen natürlich auch für sinnlos wie einen Kropf. Aber eine Art "Lückenfüller" stellen sie dar, vor allem weil sie mehr kosten.

MfG,
Raff

Gast
2007-09-09, 16:58:12
das fehlenden HW-HSR.
Bitte um Erklärung. Was ist das? :smile:

_DrillSarge]I[
2007-09-09, 17:01:44
Bitte um Erklärung. Was ist das? :smile:
hidden surface removal -> ein algorhythmus, welcher erkennt was für teile eines frames sichtbar sind und die unsichtbaren verwirft (bsp. auto hinter ner mauer -> mauer wird gerendert, auto nicht).
unterstützt die gf7 das echt nicht in hw?

AnarchX
2007-09-09, 17:04:22
Bitte um Erklärung. Was ist das? :smile:

Hidden Surface Removal, gibt es sogar einen Artikel hier @ 3DC:
http://www.3dcenter.org/artikel/2002/11-14_a.php

Da Oblivion z.B. in den Aussenwelten keine Portale (Software-HSR) einsetzt, sind die ATis hier entsprechend schneller.


unterstützt die gf7 das echt nicht in hw?
Nein, das kam erst mit der GF8, in den vorherigen miteinander verwandten Architekturen war es noch nicht vorhanden. Unsinn...

_DrillSarge]I[
2007-09-09, 17:07:49
Da Oblivion z.B. in den Aussenwelten keine Portale (Software-HSR) einsetzt, sind die ATis hier entsprechend schneller.

das ist ja mal panne :confused:

sklave_gottes
2007-09-09, 17:07:52
I[;5828531']ist die gf7 in AKTUELLEN spielen auch gegen eine x1800 machtlos? (kommt ja vom release der hardware zeitlich besser hin als x1900)

wenn du mit einer geforce 78xx vergleichs ja, die geforce 79xx wurde nach der x19xx reihe released!

mfg martin

StefanV
2007-09-09, 17:18:10
Bitte um Erklärung. Was ist das? :smile:
HSR -> Hidden Surface Removal.

Ganz doof ausgedrückt ist das eine Hardwareeinheit, die Dinge die nicht sichtbar sind entsorgt, so dass sie auch nicht berechnet werden müssen.

Coda
2007-09-09, 17:26:25
I[;5828627']hidden surface removal -> ein algorhythmus
Algorithmus. Hat nichts mit Rhytmus zu tun, kommt ursprünglich von Algorismus.

Nein, das kam erst mit der GF8, in den vorherigen miteinander verwandten Architekturen war es noch nicht vorhanden.
Erm. Die NV3x- und NV4x-GeForces haben sehr wohl auch HSR, nur nicht so fortschrittliches wie das von ATI. Soweit ich weiß verwerfen die GeForces nur keine ganzen Polygone sondern nur Fragmentblöcke.

Ich weiß auch nicht inwiefern das bei G8x anders ist, weil ATI eigentlich ein Patent auf Hier-Z hat.

AnarchX
2007-09-09, 17:32:01
Erm. Die NV3x- und NV4x-GeForces haben sehr wohl auch HSR, nur nicht so fortschrittliches wie das von ATI.
Oha, dann war es nur der hierarische Z-Puffer, wodurch ATi seit R100 solche Vorteile in diesem Bereich hatte oder?
Ganz ohne HW-HSR macht es ja bei einem TnL+ Chip nicht unbedingt Sinn...

Ich weiß auch nicht inwiefern das bei G8x anders ist, weil ATI eigentlich ein Patent auf Hier-Z hat.

Jedenfalls wurde ja die HSR-Performance extrem verbessert, wodurch ich auf diesen fälschlichen Schluss kam.

Gast
2007-09-09, 17:33:47
Zumindest in DX10 scheinbar schon.
Du sagst es: scheinbar.

Gast
2007-09-09, 17:35:14
Das verstehe ich jetzt nicht. Wenn man warten muss weil die Daten noch nicht im Cache sind, hat G71 immerhin 220 Takte Zeit, die Daten in den Cache zu holen (denn so lang ist das Quadbatch.) Wenn man warten muss bis die Filterung abgeschlossen ist, loopen die TMUs in aller Ruhe vor sich hin während die ALUs Däumchen drehen.

Und woher weiß man, welche Texel benötigt werden, bevor das entsprechende "TEX" kommt?

Coda
2007-09-09, 17:35:24
Jedenfalls wurde ja die HSR-Performance extrem verbessert, wodurch ich auf diesen fälschlichen Schluss kam.
Ich habe dazu keine Benchmarks gesehen dazu. Es kann schon sein, dass NVIDIA jetzt auch ein hierarchisches Verfahren einsetzt. Man kann sich manchmal geschickt um Patente rummogeln ;)

Evtl. haben ATI und nVIDIA ja auch ein Lizenzabkommen von dem wir nichts wissen. Wäre gar nicht so abwegig, weil sie sich sonst schon länger extrem gegenseitig blockieren würden.

Gast
2007-09-09, 17:38:41
Und wieso schaffts dann ATI?:


http://www.xbitlabs.com/articles/video/display/directx10-games_9.html#sect0
11-13,8 Fps - in dem BEreich ziemlich wertlos, oder würdest du so spielen?

Gast
2007-09-09, 17:45:41
Und wenn dann noch neue nV-Karten auf den Markt kamen wurden die alten Karten durch mangelnde Treiberunterstützung oft langsamer.


DAS ist allerdings leider defintiv war... :-(
man will die neuen Dinger ja auch verkaufen...

Gast
2007-09-09, 17:47:03
Ganz ohne HW-HSR macht es ja bei einem TnL+ Chip nicht unbedingt Sinn...

Und wie - schau dir Kyro an

Gast
2007-09-09, 17:48:28
Ich habe dazu keine Benchmarks gesehen dazu. Es kann schon sein, dass NVIDIA jetzt auch ein hierarchisches Verfahren einsetzt. Man kann sich manchmal geschickt um Patente rummogeln ;)

Soweit ich weiß, nutzt nvidia für HSR Shader und ROPs. Gerade letztere haben einen enormen Boost erhalten bei GF8

AnarchX
2007-09-09, 18:02:51
Und wie - schau dir Kyro an

Ich sagte ja nicht, dass HW-HSR bei einem non-TnL-Chip sinnlos wäre. ;)

Hvoralek
2007-09-09, 18:10:05
Jedenfalls wurde ja die HSR-Performance extrem verbessert, wodurch ich auf diesen fälschlichen Schluss kam.Ich hatte gedacht, das läge an der Z- Füllrate des G80 :confused:

DAS ist allerdings leider defintiv war... :-(
man will die neuen Dinger ja auch verkaufen...Wenn Du das so definitiv weißt, hast Du doch sicher die Zahlen dafür, nach denen ich schon Tigerchen gefragt hatte? Ich suche nämlich seit längerem nach einem belegten Beispiel, in dem NV- Karten durch neue Treiber langsamer wurden (ausgenommen natürlich bei Korrekturen von Grafikfehlern u.ä.).

Coda
2007-09-09, 18:32:53
Ich hatte gedacht, das läge an der Z- Füllrate des G80 :confused:
Nur wenn die App einen Z-First-Pass macht.

Soweit ich weiß, nutzt nvidia für HSR Shader und ROPs. Gerade letztere haben einen enormen Boost erhalten bei GF8
Das ergibt nicht so richtig Sinn. HSR ist ein festverdrahteter Bestandteil des Chips und das dabei verwendete Verfahren auch. Wenn man Einheiten nur schneller macht dann hat man ja nicht auf einmal ein besseres Verfahren.

aths
2007-09-09, 18:36:13
Die 86er-Generation ist mit Abstand der schlechteste Mainstrem den NV je gebracht hat.Das wüsste ich.
Zu lahm, zu teuer und für DX10 unbrauchbar. Eigentlich eine typische OEM-Karte.Zu "lahm", zu teuer? Finde ich für den Preis nicht. Und "Für DX10 unbrauchbar" stimmt nicht. Wenn D3D10-Games einen Content nutzen welcher die 8600-er performancemäßig killt hat das wenig mit D3D10 zu tun. In D3D9 wäre es deutlich langsamer.


I[;5828010']noch mal zum ende von gf7: es gibt eigentlich auch keinen grund mit einer 7900gtx (weil ja jetzt das ende kommt ;)) auf ne karte unterhalb der 8800Gts 640 (oder gar gtx) zu wechseln oder?Wenn man ungefährt doppelte Leistung haben will? Und vor allem endlich vernünftiges AF? Wäre das kein Grund?

Coda
2007-09-09, 18:38:46
Das wüsste ich.
Irgendwie hat er aber recht. Die Performance ist einach nur erbärmlich ggü. den High-End-SKUs.

Das war bisher nie so der Fall.

aths
2007-09-09, 18:39:32
I[;5828627']hidden surface removal -> ein algorhythmus, welcher erkennt was für teile eines frames sichtbar sind und die unsichtbaren verwirft (bsp. auto hinter ner mauer -> mauer wird gerendert, auto nicht).
unterstützt die gf7 das echt nicht in hw?Doch. Early Z wird natürlich unterstützt. IIRC seit GF3, spätestens FX gibt es auch eine Lösung die mit einem Frame Latenz ganze Objekte cullen kann.

Nein, das kam erst mit der GF8, in den vorherigen miteinander verwandten Architekturen war es noch nicht vorhanden.Wo hast du das denn her??

aths
2007-09-09, 18:40:27
Und woher weiß man, welche Texel benötigt werden, bevor das entsprechende "TEX" kommt?Das weiß man vorher doch nicht. Man muss aber warten bis alle Textursamples von allen Quads aus dem Batch fertig sind.

Irgendwie hat er aber recht. Die Performance ist einach nur erbärmlich ggü. den High-End-SKUs.

Das war bisher nie so der Fall.Ja, in Bezug auf die ansonsten erstaunlich schnelle 8800-er ist die 8600-er relativ langsam. In Bezug auf ältere Mittelklasse-Karten ist der Sprung aber ordentlich.

Coda
2007-09-09, 18:42:37
IIRC seit GF3, spätestens FX gibt es auch eine Lösung die mit einem Frame Latenz ganze Objekte cullen kann.
Meinst du Occlusion-Queries? Ziemlich nutzlos wegen den Pipeline-Stalls die du dir davon einhandelst. Außerdem nichts was die GPU automatisch tun würde.

Das ist erst mit Conditional-Rendering richtig interessant und das gibt's erst seit D3D10.

Ja, in Bezug auf die ansonsten erstaunlich schnelle 8800-er ist die 8600-er relativ langsam. In Bezug auf ältere Mittelklasse-Karten ist der Sprung aber ordentlich.
Wieso ist die 8800 erstaunlich schnell? Bisher war es bei nVIDIA immer so, dass die High-End-SKU ungefähr doppelt so schnell war wie die Generation davor. Das ist auch dieses Mal nicht anders gewesen.

Und soweit ich mich erinnern kann waren GeForce 2 MX, 4 MX, FX 5600/5700, 6600GT und 7600GT immer mindestens halb so schnell wie der High-End-Konterpart. Das ist bei der 8600 nicht der Fall.

aths
2007-09-09, 18:43:28
Meinst du Occlusion-Queries? Ziemlich nutzlos wegen den Pipeline-Stalls die du dir davon einhandelst. Außerdem nichts was die GPU automatisch tun würde.Wegen der Latenz auch nicht für alles nutzbar, für Corona-Effekte aber möglich.

Coda
2007-09-09, 18:47:49
Corona kannst ja auch ohne Probleme ein paar Frames verzögern (ist sogar halbwegs realistisch). Das funktioniert bei HSR aber nicht ohne dass du "Poppings" hast.

G80 sollte mit Predicated-Rendering ein wahres HSR-Monster sein, weil die Z-Füllrate sehr sehr hoch ist. Ich vermute dass dürfte so ziemlich die Standardmethode bei reinen D3D10-Spielen werden das HSR zu machen, weil es einfach, effektiv und schnell ist.

Wieder so ein Punkt, weshalb ich nicht glaube, dass R600 großartig Boden gutmachen wird.

Gast
2007-09-09, 19:00:41
Das ergibt nicht so richtig Sinn. HSR ist ein festverdrahteter Bestandteil des Chips und das dabei verwendete Verfahren auch. Wenn man Einheiten nur schneller macht dann hat man ja nicht auf einmal ein besseres Verfahren.
Bisher konnte es mir noch niemand genau erklären - daher meine Vermutung.

Bei der Radeon ist es ja so, dass es einen speziellen Tile-Buffer im Chip gibt, mit dessen Hilfe bis zu drei Stufen hierarchisches Z möglich sind (die Ur-Radeon verwarf m.W. bis zu 64 Pixel pro Takt bei einer Quad-Pipe - daran hat sich bis heute nichts geändert).

Bei Nvidia ließ sich das bisher nicht so genau eingrenzen, wovon die Early-Z-Rate abhängt - am ehesten hat das noch mit der Taktrate skaliert. Ich schaue mal, ob ich meine Werte noch wiederfinde.

Gast
2007-09-09, 19:01:15
Das weiß man vorher doch nicht. Man muss aber warten bis alle Textursamples von allen Quads aus dem Batch fertig sind.

Eben - und das stallt die Pipeline, richtig?

aths
2007-09-09, 19:07:52
Wieso ist die 8800 erstaunlich schnell? Bisher war es bei nVIDIA immer so, dass die High-End-SKU ungefähr doppelt so schnell war wie die Generation davor. Das ist auch dieses Mal nicht anders gewesen.Was heißt SKU?

Die 8800 GTX ist deutlich mehr als doppelt so schnell wie die Generation davor. Das fällt bei älteren Spielen mit älteren Settings (4x AA, 16x AF á la G70 vs. 16x AF á la G80) vielleicht nicht so auf. Ich würde bisher nicht von doppelt so schnell, sondern von ganz ungefähr +70% reden.

Und soweit ich mich erinnern kann waren GeForce 2 MX, 4 MX, FX 5600/5700, 6600GT und 7600GT immer mindestens halb so schnell wie der High-End-Konterpart. Das ist bei der 8600 nicht der Fall.Deshalb beschwerte ich mich in einer Kolumne ja über die Namensgebung bei der 8600.


Eben - und das stallt die Pipeline, richtig?Solange man besser filtert als isotrop und bilinear, bleiben die ALUs von NV40 und G70 für gewisse Zeit ohne Arbeit.

Coda
2007-09-09, 19:14:44
Was heißt SKU?
Stock Keeping Unit.

Die 8800 GTX ist deutlich mehr als doppelt so schnell wie die Generation davor. Das fällt bei älteren Spielen mit älteren Settings (4x AA, 16x AF á la G70 vs. 16x AF á la G80) vielleicht nicht so auf. Ich würde bisher nicht von doppelt so schnell, sondern von ganz ungefähr +70% reden.

Deshalb beschwerte ich mich in einer Kolumne ja über die Namensgebung bei der 8600.
Okay, da magst recht haben.

Solange man besser filtert als isotrop und bilinear, bleiben die ALUs von NV40 und G70 für gewisse Zeit ohne Arbeit.
Was natürlich unglaublich oft der Fall ist ;)

Gast
2007-09-09, 19:21:06
Solange man besser filtert als isotrop und bilinear, bleiben die ALUs von NV40 und G70 für gewisse Zeit ohne Arbeit.
Also auch bei trilinearer Filterung. Bei "brilinear" wird neben der Bandbreite vor allem diese Zeit verringert, da weniger Vollzugriffe in den VRAM erfolgen und die Cache-Trefferrate höher ist.

aths
2007-09-09, 20:00:37
Was natürlich unglaublich oft der Fall ist ;)Was bei „normalen“ Szenen wenig interessiert, wenn man einfach Sampling -> Verknüpfung so lange loopt bis das Pixel fertig ist.


Also auch bei trilinearer Filterung. Bei "brilinear" wird neben der Bandbreite vor allem diese Zeit verringert, da weniger Vollzugriffe in den VRAM erfolgen und die Cache-Trefferrate höher ist.Man braucht pro Bi-Sample im Schnitt etwa ein neues Texel. Das heißt der Cache-Inhalt muss eh ständig erneuert werden. Man spart etwas Bandbreite, was aus meiner Sicht aber die Qualitätsnachteile nicht wert ist.

AnarchX
2007-09-09, 20:03:12
Bei digit-life gibt es HSR-Werte:
http://www.digit-life.com/articles2/video/g84-part2.html#p5

Wobei dort der G80(GTS) nicht unbedingt gegenüber G71 glänzt, während sich G84 auf RV570-Niveau und darüber zeigt.

Gast
2007-09-09, 20:13:07
Man braucht pro Bi-Sample im Schnitt etwa ein neues Texel. Das heißt der Cache-Inhalt muss eh ständig erneuert werden. Man spart etwas Bandbreite, was aus meiner Sicht aber die Qualitätsnachteile nicht wert ist.

Bei bri- statt trilinearer Filterung braucht man aber auch weniger (neue) Bi-Samples und spart so Bandbreite, trifft den Cache öfter und das ganze nimmt weniger Zeit in Anspruch. Diese gesparte Zeit stehen die ALUs dann nicht mehr still.

Gast
2007-09-09, 20:14:42
Bei digit-life gibt es HSR-Werte:
http://www.digit-life.com/articles2/video/g84-part2.html#p5

Wobei dort der G80(GTS) nicht unbedingt gegenüber G71 glänzt, während sich G84 auf RV570-Niveau und darüber zeigt.
Ich habe ein Problem mit den Werten: Was sagen sie aus bzw. wie kommt digit-life auf die "efficiency"? Mit welchen Settings und vor allem mit welchem Treiber hat man im RM3D getestet? Ich habe den Verdacht, dass die G80-Werte möglicherweise noch mit einem alten Treiber entstanden sind - denn da hatte ich auch noch eher enttäuschende Zahlen. Mit aktuellen Treibern sind diese dann aber deutlich gestiegen.

Gast
2007-09-09, 20:23:59
Wow anhand der werte kann man sehen warum ein R580 heute ein G71 so überlegen ist....

Coda
2007-09-09, 22:15:27
Das liegt nur in Ausnahmefällen am besseren HSR-Verfahren.

Was bei „normalen“ Szenen wenig interessiert, wenn man einfach Sampling -> Verknüpfung so lange loopt bis das Pixel fertig ist.
Was für eine Verknüpfung bitte? Und was soll dadurch "wenig interessieren"? Eine ATI-Karte kann seit R3xx gleichzeitig die Textureinheiten beschäftigen während sie rechnet, das bringt ihnen schon immer einen enormen Vorteil.

NV3x und NV4x können im ersten bilinearen Sample gleichzeitig noch eine ALU-Op anwenden, wann immer mehr als das genommen wird laufen die ALUs ganz einfach leer für den Rest der Zeit.

Das ganze System hat den Vorteil das Dinge wie unlimitierte abhängige Textursamples und Sprünge relativ einfach zu machen sind, weil es nur einen Instructionstream gibt, deshalb wurde es wohl auch implementiert.

Gast
2007-09-09, 22:21:42
Die ganze Diskussion ist doch kinder überraschung.

ich hab hier ne 7600gt und nen ollen 4200x2 und kann damit jedes auf dem Markt befindliche Spiel irgendwo zwischen middle und high zocken.
Damit ist die Karte für mich TOP AKTUELL.

Klar, wer sich nen 22"Widescreen mit 2500x99999er auflösung zulegt...für den ist die generation karten tot....
Nun bin ich ja doch schon mehr der Hardcore Gamer - der sowieso jedes spiel so spielt, dass man am besten sehen kann was man trifft - was dann meistens die ultra low einstellung bedeutet - also wird die Kartengeneration für mich wahrscheinlich noch nächstes jahr top sein.

aths
2007-09-09, 22:50:42
Was für eine Verknüpfung bitte? Und was soll dadurch "wenig interessieren"? Eine ATI-Karte kann seit R3xx gleichzeitig die Textureinheiten beschäftigen während sie rechnet, das bringt ihnen schon immer einen enormen Vorteil.Als Verknüpfung normalerweise MUL oder MAD. Da die MAD-Einheit hinter der TMU sitzt, gibts diese Operation "kostenlos" im gleichen Takt. Der Rest ist Füllratenlimitierung. Hat man komplexere Verknüpfungen, die mehrere Takte brauchen, gibts natürlich Verlust. Um Bumpmapping zu beschleunigen, haben NV40 und G70 ja noch spezielle Units.

NV3x und NV4x können im ersten bilinearen Sample gleichzeitig noch eine ALU-Op anwenden, wann immer mehr als das genommen wird laufen die ALUs ganz einfach leer für den Rest der Zeit.Genau. Oder andersrum, wenn die Texel rauskommen gibts noch das MAD, immerhin ists eine "Durchlauf-Pipe".

Das ganze System hat den Vorteil das Dinge wie unlimitierte abhängige Textursamples und Sprünge relativ einfach zu machen sind, weil es nur einen Instructionstream gibt, deshalb wurde es wohl auch implementiert.Eben, die Steuerungslogik der VLIW-Technik dürfte nicht besonders aufwändig sein.

aths
2007-09-09, 22:55:29
Die ganze Diskussion ist doch kinder überraschung.

ich hab hier ne 7600gt und nen ollen 4200x2 und kann damit jedes auf dem Markt befindliche Spiel irgendwo zwischen middle und high zocken.
Damit ist die Karte für mich TOP AKTUELL.Sagen wir so, bei Stalker ist der Flaschenhals bei mir der RAM (nur 1 Gig) und die CPU (3800+, Singlecore), nicht die 7600 GT.

Coda
2007-09-09, 23:10:34
Um Bumpmapping zu beschleunigen, haben NV40 und G70 ja noch spezielle Units.
Als die wären? Hä?

Genau. Oder andersrum, wenn die Texel rauskommen gibts noch das MAD, immerhin ists eine "Durchlauf-Pipe".
Wie genau das funktioniert weiß ich aber nicht. Eigentlich gibt's nur einen Instruction-Stream der auf das TEX warten muss, egal ob die zweite ALU danach kommt.

Es erscheint mir so, als wäre die zweite ALU dazu da den Durchsatz zu erhöhen nicht um Dinge parallel zu berechnen. Das VLIW ist laut Reverse-Engineering nämlich 128-Bit lang und enthält neben einer Op nur noch 3 Operanden. Damit kann ich keine zwei ALUs steuern. Außer ich überseh jetzt irgendwas.

Gast
2007-09-09, 23:11:10
Als die wären? Hä?



vielleicht FP16-NRM?

aths
2007-09-09, 23:50:08
Als die wären? Hä?NRM_PP. Sitzt soweit ich weiß hinter der Tex-Unit. Spart drei Takte =)

Wie genau das funktioniert weiß ich aber nicht. Eigentlich gibt's nur einen Instruction-Stream der auf das TEX warten muss, egal ob die zweite ALU danach kommt.

Es erscheint mir so, als wäre die zweite ALU dazu da den Durchsatz zu erhöhen nicht um Dinge parallel zu berechnen. Das VLIW ist laut Reverse-Engineering nämlich 128-Bit lang und enthält neben einer Op nur noch 3 Operanden. Damit kann ich keine zwei ALUs steuern. Außer ich überseh jetzt irgendwas.Wie lang das VLIW ist weiß ich nicht. Drei Operanden braucht man ja schon für ein MAD. Man hat beim NV40 und G70 4 temporäre Register plus weitere mögliche Inputs (also Interpolatoren und so) soweit ich weiß. Ich weiß aber nicht ob man überall auf alle Temp-Register zugreifen kann. Ich weiß auch nicht was das eine Input mit iirc 37 Bit ist.

Coda
2007-09-09, 23:57:23
NRM_PP. Sitzt soweit ich weiß hinter der Tex-Unit. Spart drei Takte =)
Das würde ich aber als allgemeine Beschleunigung verbuchen. Es ist ja nicht so, dass man nicht öfters mal Vektoren für Beleuchtung normalisieren müsste.
Schlecht für nVIDIA ist, dass kaum welche noch länger PP-Flags setzen.

Wie lang das VLIW ist weiß ich nicht. Drei Operanden braucht man ja schon für ein MAD. Man hat beim NV40 und G70 4 temporäre Register plus weitere mögliche Inputs (also Interpolatoren und so) soweit ich weiß. Ich weiß aber nicht ob man überall auf alle Temp-Register zugreifen kann. Ich weiß auch nicht was das eine Input mit iirc 37 Bit ist.
http://gitweb.freedesktop.org/?p=mesa/mesa.git;a=blob;h=584f4c23e0838e6fd36016e929b946b0d3107a65;hb=249ca55555beea76c6 3a5f5dd09d35aa45efa180;f=src/mesa/drivers/dri/nouveau/nv40_shader.h