PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF4 @ xbit


Leonidas
2002-01-21, 14:09:33
Falls x-bit die Infos runterwirft, hier ist eine Copy:


Real NV25 Details! [8:08 pm] Rat
As we (and not only we) have already told you, in the beginning of February, to be more exact on February 5 in the USA and some time on February 6 in Europe, NVIDIA will launch its new solution for hardcore gamers – GeForce4 chip aka NV25. Today we got the opportunity to tell you a bit more about this new product.
Just like in case of Titanium chips family, the graphics cards makers are most likely to launch several products on NV25 at a time, which will differ by the chip and memory working frequencies as well as by the size of the graphics memory used. We will now touch upon the fastest model of this family, as we believe it deserves most attention and describes all the peculiarities of NV25 architecture.
So, the new NVIDIA graphics chip, just like GeForce3, will be manufactured with 0.15micron technology. However, the number of transistors used in it will reach 63 million, and the working frequency will be increased up to 300MHz. Here the natural question arises: how on earth NVIDIA managed to increase the chip working frequency so greatly without shifting to a new finer manufacturing technology, especially since NV25 should be more architecturally complex than GeForce3? The answer to this question is pretty original: we will see a new packaging in NV25 – PBGA with integrated heatsink. In other words, NVIDIA decided to enhance the heat dissipation process in order to be able to speed up its chips. For the same purpose, NVIDIA will provide its NV25 chips with a special NVIDIA thermal control system.
NVIDIA will increase the memory (DDR SDRAM) working frequency as well, which will work at 650MHz on the fastest solutions. This way the memory bus bandwidth will make 10.4GB/sec. Memory chips used on the graphics cards (at least on those following the reference design) will feature BGA-packaging. NV25 based graphics cards will get up to 128MB DDR SDRAM.
NV25 will feature 4 rendering pipelines with 2 TMUs each. This will make the new chip similar to GeForce3. However, due to higher working frequencies and improved technologies, the fillrate is claimed to equal 4.9 billion AA samples/sec.
Besides significantly higher working frequencies, NV25 will boast some fresh new features and technologies, though it will remain very much like its predecessor, GeForce3. First of all, we have to mention Lightspeed Memory Architecture II, the technology aimed at unloading the memory bus. It includes loss-free Z-buffer compression with 4:1 ratio, 2nd generation Occlusion Culling and Quadcache Architecture, which saves even more memory bandwidth.
Thanks to another significant performance and memory bus efficiency increase, NVIDIA managed to implement a new more progressive anti-aliasing method in its NV25. It is called Accuview AA. This method will use new subpixel locations mask and feature NVIDIA’s patented and optimized for the best performance and quality algorithm.
As for the T&L unit, it has been changed significantly compared with that of GeForce3. Now it is called nFinite FX II and features 2 vertex shader pipelines. Higher clock frequency will triple the performance in those applications, which use the second computing pipeline, making it three times as fast as that of GeForce3. Moreover, increasing the chip frequency will speed up the operations with pixel shaders by 50%.
Besides that, NVIDIA also claims that its new solution will support Z-Correct bump mapping feature, which is still a mystery to all of us. We will not speculate here now, as you will learn everything very soon: on February 5 :)
The performance solutions from NVIDIA have now also got dual-monitor support. NV25 will boast nView technology, the next stage in the TwinView evolution. It will have richer features and will be much easier to use.
Attention! This news story will be soon removed upon NVIDIA’s request :)

Richthofen
2002-01-21, 14:28:15
hehe genau das selbe hab ich im Pro/Contra Thread schon gepastet.
Wir sollten uns einigen wo wir darüber diskutieren :)

Ich bin für Pro/Contra weil da mehr los ist heheh.

aths
2002-01-21, 14:32:19
Ich fürchte, dass die echten Änderungen spärlich bleiben. LMA wird, wenn überhaupt, nur dezent verbessert. Dass PS1.4 unterstützt wird, ist zu hoffen. Ob der NV25 im gleichen Zuge eine höhere Rendergenauigkeit mit sich bringt, wage ich zu bezweifeln, obwohl das sehr zu begrüßen wäre.

Beim AA befürchte ich ernsthaft, dass der 4x Modus nach wie vor im OG Muster gesampelt wird. Nur falls RG geboten wird, sehe ich einen ernsthaften Grund, zur GF4 zu greifen.

Richthofen, Spekulationen gehören ins Spekulations-Forum.

Richthofen
2002-01-21, 14:41:45
hier is aba so wenig los.
Den Thread "NV25 Benches - lächerlich" kannst ohnehin schliessen.
Viel zu lang, unübersichtlich und vom Topic her schon ein ziemlicher Fehlgriff.

BTW: Mein Thread war eher da :)

Leonidas
2002-01-21, 14:43:24
Originally posted by Richthofen
hehe genau das selbe hab ich im Pro/Contra Thread schon gepastet.
Wir sollten uns einigen wo wir darüber diskutieren :)

Ich bin für Pro/Contra weil da mehr los ist heheh.


@ all: Ist mir egal. Pro & Contra ist das offensichtlichere Forum, wo mehr los ist, hier "hinten" finden nur die Daueruser hin, was zu mehr ernsthafteren Diskussionen führt.

Leonidas
2002-01-21, 14:44:43
Originally posted by Richthofen
BTW: Mein Thread war eher da :)


Sorry, ich hab das nicht kontrolliert, ob das schon da war. Ich wollte nur schnell eine Sicherheitskopien angelegen, das ist alles.

Richthofen
2002-01-21, 14:48:57
hehe man das war auch nur als kleiner Gag rangeschrieben.
Ich kreide es dir doch gar nicht an das du es gepastet hast.
Ich habs auch schnell gepastet bevor es runterfliegt.
Im Beyond3D Forum findet man es auch.

Ich find die Specs ganz ordentlich - übersteigen meine Erwartungen deutlich. Ich hab lediglich mit 2. Vertex Shader gerechnet.

Richthofen
2002-01-21, 14:54:18
@aths

Also ob nun PS 1.4 dabei ist, naja interessiert mich eher nicht so.
Ist ohnehin momentan nicht von Bedeutung.
2. Vertex Shader ist ganz ok.
Die Verbesserungen an der LMA sind auch ok. Ich finde sowieso das die LMA immer unterschätzt wird. Alle reden von ATI und dem hyperkrassen HyperZ. Dabei ist da nix drinne was Nvidia nicht auch reingebracht hat.
Man muss doch nur einmal die Radeon 8500 Retail auf die selben Taktraten wie eine GF3 Ti500 bringen.
Also 250 / 250 DDR.
Da kann sich die Radeon 8500 erst recht nicht mehr halten.

Sicher werden die Verbesserungen an der LMA nicht so krass sein das wir jetzt hier die Leistung verdoppeln aber 10% Verbesserung reichen doch.
Dazu mehr Takt - für neue Games ein 2. Vertex Shader - passt doch.
Bei der GF3 bringt ja erwiesener Maßen auch ein höherer Core Takt etwas.
Preis für so ein Teil ich würd sagen 500 Euro - GF3 auslaufen lassen und die neuen GF4 Modelle agressiv an ATIs Preis anpassen.
Das sollte erneut Kopfschmerzen bringen.

HOT
2002-01-21, 15:16:42
Man möge hierbei bedenken, dass der Geforce3 schon ein halbes Jahr länger auf dem Markt ist als der Radeon8500. Es ist also durchaus möglich, dass sich hier nochwas anbahnt. An den 6011/9008 Treiber war dies schon sehr schön zu sehen.
Was den Geforce4 angeht, so finde ich, dass NV mit den neuen Technologien den richtigen Weg eingeschlagen hat. Wenn auchnoch der Pixelshader1.4 implementiert wurde, ist das ein eindeutiges Zugeständnis an ATI - aber wir werden sehen, ob das überhaupt den Tatsachen entspricht.

aths
2002-01-21, 15:36:15
Richthofen,

was beim LMA nun im Detail verbessert sein soll, bleibt abzuwarten. HyperZ enthält einiges, was LMA nicht hat. Dazu gehört eine Kachelung des Z-Buffers.

Von diesem jetzt schon hohen GF3-Niveau sind mit LMA2 sicher keine 10%-igen Steigerungen bei gleicher Taktfrequenz zu erwarten. Wenn sie ihr 4x FSAA nicht endlich mit einem RG-Muster realisieren, ergibt sich für den Käufer kein ernsthafter Grund, die GF4 statt der (dann billigeren) 3 zu nehmen.

Pengo
2002-01-21, 16:02:28
PS 1.4 ist völlig egal, wichtig ist speed und bq, Features die vielleicht 2003 oder 2004 in Spielen genutzt werden sind mir so egal wie HW T&L beim GF1 release.

Richthofen
2002-01-21, 16:06:47
Ja ist ja schön und gut das ATI noch ein paar andere Dinge verwendet.
Aber einen Crossbar Memory Controller verwenden sie halt eben nicht :)
Wieso also ist die Radeon nicht deutlich schneller?
Nicht mal die Retail Version die über deutlich mehr Takt verfügt ist schneller.
Eine auf GF3 getaktete Radeon 8500 wird langsamer sein. Ergo finde ich hat in diesem Bereich Nvidia eindeutig den besseren Job gemacht :)

Ein Grund für den Käufer ergbibt sich auch ohne bahnbrechend neue Features.
Der Grund ist die Zahlt nach dem GeForce und Nvidia als Marke :)
Wirst schon sehen das die das alles wieder loswerden.

@HOT
Wieso sollte ein PS1.4 ein Zugeständnis an ATI sein?
War der Vertex bzw PixelShader bei ATI ein Zugeständnis an Nvidia??
Man setzt halt das um was in DX verankert ist. Das da nicht nur Dinge von Nvidia verankert sind ist doch wohl klar.
Allerdings verankern die da mehr als die anderen.
Von daher - mir ist der PS1.4 wurscht. Wird 2002 noch keine Rolle spielen. Finds aber denoch gut, wenn man in großen Teilen in die gleiche Richtung entwickelt. Das vereinfacht die Softwareentwicklung bzw Unterstützung.

Pengo
2002-01-21, 16:30:17
"Mit weiteren Informationen zur kommenden GeForce4 Serie können die x-bit Labs aufwarten (falls die Infos dort wieder verschwinden sollte: hier ist eine Kopie). So wird der NV25 die bekannte Pipeline-Struktur der GeForce3-Serie übernehmen: 4 Rendering-Pipelines mit je 2 Textureinheiten (widerspricht sich im übrigen mit früheren Leaks). Die wirklichen Neuigkeiten stecken jedoch im Detail: So ist es möglich, dass der Pixelshader auf Version 1.4 geupgradet wurde (gleiche Version wie bei der Radeon 8500). Sicher scheint dagegen ein neues AntiAliasing-Verfahren namens "Accuview AA". Es spart verglichen mit dem GeForce3-Chip einiges an Bandbreite. Es ist durchaus denkbar, daß hier bereits 3dfx-Technik zum Tragen kommt: Die Multisample-Buffer werden erst im RAMDAC gemischt, wodurch ein Downsampling entfallen kann ..."

Hab ich was verpasst - wo steht bei den XBIT Spekulationen etwas vom Pixel Shader?

HOT
2002-01-21, 16:52:26
Der Piexelshader1.4 ist von M$ und ATI entwickelt worden. Selbstverständlich ist das ein Zugeständnis an ATI. Aber wie gesagt, das ist nur Spekulation und ich selbst glaub da nicht dran.

Labberlippe
2002-01-21, 17:00:49
Originally posted by Richthofen
hier is aba so wenig los.
Den Thread "NV25 Benches - lächerlich" kannst ohnehin schliessen.
Viel zu lang, unübersichtlich und vom Topic her schon ein ziemlicher Fehlgriff.

BTW: Mein Thread war eher da :)

Ich finde hier im Spekutlations Forum.
Schliesslich ist noch nichts offizieles von nVIDIA gekommen.
Somit Spekulatis.

Gruss Labberlippe

Labberlippe
2002-01-21, 17:06:33
Ich habe doch schon mal erwähnt das ich vermute das nVIDIA wahrscheinlich einen PS 1.4 einbauen wird.
Ist zwar noch nicht ganz herrausen aber der Schritt wäre logisch.
Da ATi mit den PS 1.4 die Nase vorn hat und nVIDIA in den PS Bereich nachhängen würde.
Gerade in diesen Bereich wäre es schmerzhaft für nVIDIA wenn ein Mitbewerbe die "modernere" Technologie hätte, schliesslich ist nVIDIA mehr oder weniger der Vorreiter in diesen Dingen.

PS: Mich würde es nicht wundern wenn eine eigene API auch noch angepeilt wird, allerdings vermutlich nicht mit den NV25

gruss Labberlippe

Labberlippe
2002-01-21, 17:25:46
Ja ist ja schön und gut das ATI noch ein paar andere Dinge verwendet.
Aber einen Crossbar Memory Controller verwenden sie halt eben nicht :)
Wieso also ist die Radeon nicht deutlich schneller?
Nicht mal die Retail Version die über deutlich mehr Takt verfügt ist schneller.
Eine auf GF3 getaktete Radeon 8500 wird langsamer sein. Ergo finde ich hat in diesem Bereich Nvidia eindeutig den besseren Job gemacht :)

Weil HyperZ am effektivsten bei höheren Overdraw ist, das zeigt der Villagemark und Dragotic beim deutlich.
Freilich hat ATi eine höhere Taktrate aber das hatte bis jetzt nVIDIA auch um sich von der Konkurrenz abzusetzten.
Der Weg ist das Ziel.


Ein Grund für den Käufer ergbibt sich auch ohne bahnbrechend neue Features.
Der Grund ist die Zahlt nach dem GeForce und Nvidia als Marke :)
Wirst schon sehen das die das alles wieder loswerden.
Das ist ja das schlimme daran das alles gekauft wird wo nVIDIA draufsteht.
Ein Lob an die Marktetingabteilung von nVIDIA.
Aber solange Kunden wie Du fest die Taschen von nVIDIA mit überteurten Produkten füllen werden wir noch weiter solche Karten erleben.
(was nicht heissen soll das die Karten schlecht sind.)

Gruss Labberlippe

Richthofen
2002-01-21, 18:22:18
@

Na super jetzt suchen wir uns 2 BSP raus die genau in das eigene Bild passen. Darunter dann noch ein Systhetischer Bench und schon passt die eigene These.

Ne ne so nicht.
In über 50% der Test liegt die Radeon zurück und das bei höherem Takt.
DAS langt um zu zeigen das Nvidia in dem Bandwith Saving Bereich mehr getant hat und sich das effektiv besser niederschlägt.
Sonst müsste die Radeon in der Retail Version vom Speed das bessere Gesamtbild abgeben. Davon jedoch ist sie meilenweit entfernt.

So wie du argumentierst, isses das selbe wie es einige beim P4 machen.
Sysmark rulez! Der unterstützt ja wenigstens SSE2 das entscheident am Markt ist - Lol!
Ne hier muss man mal Nvidia zu gute halten, weniger Brute Force gemacht zu haben als ATI.
Zwar immer noch Brute Force aber eben weniger.
Naja und deshalb wird der GF4 den Radeon8500 auch deutlich abhängen, da nochmal kleine Verbesserungen kommen und nun vor allem der deutlich höhere Takt.
HyperZ ist wie Smoothvision reines Marketing sonst gar nix.

Labberlippe
2002-01-21, 18:33:11
Originally posted by Richthofen
@

Na super jetzt suchen wir uns 2 BSP raus die genau in das eigene Bild passen. Darunter dann noch ein Systhetischer Bench und schon passt die eigene These.

Ne ne so nicht.
In über 50% der Test liegt die Radeon zurück und das bei höherem Takt.
DAS langt um zu zeigen das Nvidia in dem Bandwith Saving Bereich mehr getant hat und sich das effektiv besser niederschlägt.
Sonst müsste die Radeon in der Retail Version vom Speed das bessere Gesamtbild abgeben. Davon jedoch ist sie meilenweit entfernt.

So wie du argumentierst, isses das selbe wie es einige beim P4 machen.
Sysmark rulez! Der unterstützt ja wenigstens SSE2 das entscheident am Markt ist - Lol!
Ne hier muss man mal Nvidia zu gute halten, weniger Brute Force gemacht zu haben als ATI.
Zwar immer noch Brute Force aber eben weniger.
Naja und deshalb wird der GF4 den Radeon8500 auch deutlich abhängen, da nochmal kleine Verbesserungen kommen und nun vor allem der deutlich höhere Takt.
HyperZ ist wie Smoothvision reines Marketing sonst gar nix.

Nein ich sagte was anderes als Du es lesen wolltest.
Ich habe nicht gesagt das Hyperz besser, sondern legitlich das HyperZ effektiver bei hohen Overdraw ist.
Das ist auch so.
Wobei HyperZ wirklich funzt und sogar mehr kann als es genutzt wird.
Aber schön zusehen das bei Dir alles nur ein Marketinggag ist.



Gruss Labberlippe

ActionNews
2002-01-21, 18:33:59
Originally posted by Richthofen
@



Na super jetzt suchen wir uns 2 BSP raus die genau in das eigene Bild passen. Darunter dann noch ein Systhetischer Bench und schon passt die eigene These.



Ne ne so nicht.

In über 50% der Test liegt die Radeon zurück und das bei höherem Takt.

DAS langt um zu zeigen das Nvidia in dem Bandwith Saving Bereich mehr getant hat und sich das effektiv besser niederschlägt.

Sonst müsste die Radeon in der Retail Version vom Speed das bessere Gesamtbild abgeben. Davon jedoch ist sie meilenweit entfernt.



So wie du argumentierst, isses das selbe wie es einige beim P4 machen.

Sysmark rulez! Der unterstützt ja wenigstens SSE2 das entscheident am Markt ist - Lol!

Ne hier muss man mal Nvidia zu gute halten, weniger Brute Force gemacht zu haben als ATI.

Zwar immer noch Brute Force aber eben weniger.

Naja und deshalb wird der GF4 den Radeon8500 auch deutlich abhängen, da nochmal kleine Verbesserungen kommen und nun vor allem der deutlich höhere Takt.

HyperZ ist wie Smoothvision reines Marketing sonst gar nix.

Schon mal daran getacht, dass viele Spiele (eigentlich die meisten) optimal an Nvidia angepasst werden und auch an DX und OpenGL-Specs vorbei? Andere Karten werden oft gar nicht näher bedacht! Haputsache sie laufen ohne Grafikfehler! Wie schnell ist da meist egal :eyes: !

Fakt bleibt, dass HyperZ II sehr effektiv ist und auch Smoothvision von der Qualität her viel besser ist als Quinux-FSAA, denn mehr als "dasBildunscharfmachen" ist QFSAA nicht :eyes:!

CU ActionNews

Labberlippe
2002-01-21, 18:35:01
Originally posted by Richthofen
@

Na super jetzt suchen wir uns 2 BSP raus die genau in das eigene Bild passen. Darunter dann noch ein Systhetischer Bench und schon passt die eigene These.

Ne ne so nicht.
In über 50% der Test liegt die Radeon zurück und das bei höherem Takt.
DAS langt um zu zeigen das Nvidia in dem Bandwith Saving Bereich mehr getant hat und sich das effektiv besser niederschlägt.
Sonst müsste die Radeon in der Retail Version vom Speed das bessere Gesamtbild abgeben. Davon jedoch ist sie meilenweit entfernt.

So wie du argumentierst, isses das selbe wie es einige beim P4 machen.
Sysmark rulez! Der unterstützt ja wenigstens SSE2 das entscheident am Markt ist - Lol!
Ne hier muss man mal Nvidia zu gute halten, weniger Brute Force gemacht zu haben als ATI.
Zwar immer noch Brute Force aber eben weniger.
Naja und deshalb wird der GF4 den Radeon8500 auch deutlich abhängen, da nochmal kleine Verbesserungen kommen und nun vor allem der deutlich höhere Takt.
HyperZ ist wie Smoothvision reines Marketing sonst gar nix.

Nein ich sagte was anderes als Du es lesen wolltest.
Ich habe nicht gesagt das Hyperz besser, sondern legitlich das HyperZ effektiver bei hohen Overdraw ist.
Das ist auch so.
Wobei HyperZ wirklich funzt und sogar mehr kann als es genutzt wird.
Aber schön zusehen das bei Dir alles nur ein Marketinggag ist.
Weil HyperZ so ein Marketinggag von ATi war hat nVIDIA ein besseres Speichermanagement in der Form von HyperZ übernommen damit die GeForce Serie wieder anschluss findet.

Damals hat nach den Radeon Start, nVIDIA bald mal neue Detos gebracht welches das bessere Speichermanagment zu liessen damit die GeForce2 wieder schneller ist.

Allerdings gut für den Endkunden. :-)



Gruss Labberlippe

HOT
2002-01-21, 19:03:20
HpyerZ II verhindert schon Overdraw (beim Blending). HyperZ I und NVs Lösungen versuchen lediglich, den Z-Buffer so effizient wie möglich zu verwalten. Das ist ein gewaltiger Unterschied!

aths
2002-01-21, 20:52:35
Hot,

sowohl HyperZ 1 als auch LMA können, begrenzt, HSR durchführen.

Quasar
2002-01-21, 21:26:20
*aujaauchspekulierenwill* ;)

Vielleicht hat der GF4 ja das von aths geforderte LMA beim FSAA endlich mitbekommen....oder mehrfaches Loopback....oder so tolle Dinge wie iDCT....TwinView....Dual-Channel DDR-Interface wie bei Matrox....oder der CBMC macht jetzt 8x16Bit anstatt 4x32....


Wie dem auch sei, ich denke, nVidia wird gezielt auf die Dinge reagiert haben, wo ATi ihnen den Rang abgelaufen hat (hoher Overdraw, DVD, SQ). Allerdings halte ich PS1.4 nach wie vor für zu weit weg vom originalen GF3-Design, so daß ich nicht wirklich damit rechne, ihn im GF4 zu sehen, der ja "nur" ein Spring-Refresh darstellen soll, und kein völlig neues Produkt.

Was ATi und hohen Overdraw in Villagemark und Dragothic angeht (wieso ist das denn nur ein synthetischer Test, Richthofen? ;) ), so glaube ich, daß Labberlippe hier wohl recht hat, wohingegen bei "normalem" Datenverkehr, sprich hohen Auflösungen, LMA wohl im Vorteil zu sein scheint, da eben nicht nur viel wegoptimiert werden kann, sondern das, was zu rendern ist, vielmehr effizient verwaltet werden muss.

Fragman
2002-01-21, 22:39:18
fuer mich hat nv wiedermal nichts neues zu bieten, wieder sau teuren speicher damit die fuellrate und auch die frameraten steigen koennen.
langsam wirds zeit fuer ne neue tech. bin aber mal auf das aa gespannt, ob das bessser als das quin... usw aussieht. hab auch ne g3, aber dieses "tolle" aa mach ich nicht an, sieht einfach mies aus, wirklich nur ein verwischeffekt. vielleicht kommt jetzt endlich mal was brauchbares. ps 1.4 ist eigentlich pflicht, schon wegen den 6 texturen auf einmal. das die texturpipelines nicht erhoeht werden war zu erwarten, muss man dann auf den nv30 warten, was der bringt. von den daten her duerfte der chip wieder schneller sein, grosse spruenge erwarte ich aber nicht, denn es gibt auch keine games, die solche chips brauchen, noch nicht jedenfalls. ausserdem hoffe ich, das games mit hohem wert beim aniso. filter und aa spielbar sind (gleichzeitig aktiviert). aber daran glaub ich nicht so recht.

gruss, Fragman

Doomtrain
2002-01-21, 22:52:24
Originally posted by Fragman
fuer mich hat nv wiedermal nichts neues zu bieten, wieder sau teuren speicher damit die fuellrate und auch die frameraten steigen koennen.
langsam wirds zeit fuer ne neue tech. bin aber mal auf das aa gespannt, ob das bessser als das quin... usw aussieht. hab auch ne g3, aber dieses "tolle" aa mach ich nicht an, sieht einfach mies aus, wirklich nur ein verwischeffekt. vielleicht kommt jetzt endlich mal was brauchbares. ps 1.4 ist eigentlich pflicht, schon wegen den 6 texturen auf einmal. das die texturpipelines nicht erhoeht werden war zu erwarten, muss man dann auf den nv30 warten, was der bringt. von den daten her duerfte der chip wieder schneller sein, grosse spruenge erwarte ich aber nicht, denn es gibt auch keine games, die solche chips brauchen, noch nicht jedenfalls. ausserdem hoffe ich, das games mit hohem wert beim aniso. filter und aa spielbar sind (gleichzeitig aktiviert). aber daran glaub ich nicht so recht.

gruss, Fragman

Fazit: Wer eine GeForce3 besitzt, kann die GF4 Serie getrost überspringen. Eine GF3 wird ohne Probleme bis mitte 2003 alles optimal zocken lassen. Peace.

Com1
2002-01-21, 23:41:29
Der NV25 wird wieder einiges an Speed bringen und NV wieder an die Spitze brigen, ich bin mal wirklich gesapnnt auf das neue FSAA.

Das NV jetzt auch ihren High End Karten Dual Display Technik spendiert, haben wir ATI zu verdanken.

NV muss da jetzt nachziehen...

Und vor allem auch bei der Preisgestaltung!

Vom NV17 erwarte ich mir eigentlich gar nichts... wird sämtliche GF2 Chips mit der Zeit ablösen und auch kaum neues gegenüber der GF2 Serie bieten... für Komplettsysteme natürlich Ideal.

Labberlippe
2002-01-21, 23:53:06
Originally posted by Quasar
*aujaauchspekulierenwill* ;)

Vielleicht hat der GF4 ja das von aths geforderte LMA beim FSAA endlich mitbekommen....oder mehrfaches Loopback....oder so tolle Dinge wie iDCT....TwinView....Dual-Channel DDR-Interface wie bei Matrox....oder der CBMC macht jetzt 8x16Bit anstatt 4x32....


Wie dem auch sei, ich denke, nVidia wird gezielt auf die Dinge reagiert haben, wo ATi ihnen den Rang abgelaufen hat (hoher Overdraw, DVD, SQ). Allerdings halte ich PS1.4 nach wie vor für zu weit weg vom originalen GF3-Design, so daß ich nicht wirklich damit rechne, ihn im GF4 zu sehen, der ja "nur" ein Spring-Refresh darstellen soll, und kein völlig neues Produkt.

Was ATi und hohen Overdraw in Villagemark und Dragothic angeht (wieso ist das denn nur ein synthetischer Test, Richthofen? ;) ), so glaube ich, daß Labberlippe hier wohl recht hat, wohingegen bei "normalem" Datenverkehr, sprich hohen Auflösungen, LMA wohl im Vorteil zu sein scheint, da eben nicht nur viel wegoptimiert werden kann, sondern das, was zu rendern ist, vielmehr effizient verwaltet werden muss.

Ist auc klar weil die Spiele Hersteller eben versuchen hohen Overdraw zum vermeiden, da die anderen Karten alles mitberechnen.
Deshalb merkt man HyperZ ja kaum bei wirklichen Spielen.
Was am meisten bei HyperZ bei Real Games zieht ist die Z Buffer Komprimierung und fast Z Clear. (Leerung des Z Buffers)
Wobei HSR die Radeon auch supportet, diese Funktion muss allerdings expliziet vom Game angesprochen werden.
Laut Radeon Tweaker...

Gruss Labberlippe

aths
2002-01-22, 00:36:36
Quasar,

ich vermute, dass der NV25 im Grundsatz entwickelt wurde, bevor sich nVidia über den R200 im klaren war. Offensichtlich setzen sie auf sehr schnelles Anti-Aliasing. Eine andere große Strategie kann ich nicht erkennen.

Leonidas
2002-01-22, 01:06:11
IMHO hat man doch schon bei der GF3 auf FSAA gesetzt, schneller als die GF2U ist das Teil auch nicht. Nur hat es sich nicht durchgesetzt, weil es offenbar zu kompliziert für die Millionen CB-Leser zu bedienen ist.

Richthofen
2002-01-22, 01:32:16
Warum reden eigentlich alle beim FSAA immer nur von dem Quincunx?????

Es gibt bei Nvidia 2x und 4x FSAA und dazu kann ich herrlicher Weise noch AF schalten.

Result: Genauso gute Quali wie ATI aber eben deutlich fixer.
Ich kann allerdings auch beim Quincunx AF dazupacken. Sieht auch sehr fein aus.
www.anandtech.com da kann man alles nachlesen im Smoothvision Artikel.
FSAA entscheidet Nvidia für sich.
ICh würd sagen die Führung in dem Bereich wird mit der GF4 ausgebaut.
Neue Modifikation der FSAA Methode + LMAII + mehr Horsepower.

aths
2002-01-22, 01:48:19
Richthofen,

ich rede nicht von Quincunx. Wenn man bei einer Radeon bei SV AF zuschaltet, sind die Texturen schärfer als wenn man bei einer GF3 AF zuschaltet.

edit: Du schreibst: "FSAA entscheidet Nvidia für sich." Das zweifel in an. GeForce3 macht streng genommen kein Full Scene AA, sondern Edge AA. Schlimmer: Der 4x-Modus sieht nur ein klein wenig besser als der 2x-Modus aus. Zwar ist in keinem Fall der 4x-Modus "doppelt so gut", doch da die GF3 von RG zu OG übergeht, ist der Qualitätszuwachs ganz besonders klein. Will man ältere Spiele (in geringer Auflösung) geniessen, bietet die Radeon zwei wichtige Vorteile: - Glättung von Texturen mit Alpha Bit (bzw. Color Key) und AA bis 6x. Eine GF3 bekommt das AA-Bild beim besten Willen nicht so schön hin wie eine Radeon8500.

ow
2002-01-22, 12:33:23
Originally posted by ActionNews


Schon mal daran getacht, dass viele Spiele (eigentlich die meisten) optimal an Nvidia angepasst werden und auch an DX und OpenGL-Specs vorbei?



Da kannst du sicher sein, dass dem NICHT so ist.
Solche Spiele wuerden naemlich ueberhaupt nicht laufen.

Labberlippe
2002-01-22, 14:28:32
Originally posted by ow




Da kannst du sicher sein, dass dem NICHT so ist.
Solche Spiele wuerden naemlich ueberhaupt nicht laufen.

Da kannst Du Dir aber sicher sein.
MBTR sage ich nur...

gruss Labberlippe

Andre
2002-01-22, 14:33:00
Originally posted by Labberlippe


Da kannst Du Dir aber sicher sein.
MBTR sage ich nur...

gruss Labberlippe

Könntest Du das etwas präzisieren, Labberlippe?
Dafür wäre ich dankbar.

Leonidas
2002-01-22, 14:46:15
Peace, Freunde.

Labberlippe
2002-01-22, 14:49:36
Originally posted by Andre


Könntest Du das etwas präzisieren, Labberlippe?
Dafür wäre ich dankbar.

Z-Buffer Fehler bis auf letzte bei der ersten Version von MBTR.
Die Kyro und Radeon hatte damals massive Bildfehler.

Die Karten und Treiber war ok, aber THQ hatte zu sehr auf nVIDIA optimiert.
Mit den Patch wurde das dann behoben.

Gruss Labberlippe

Labberlippe
2002-01-22, 14:50:45
Originally posted by Leonidas
Peace, Freunde.


Wann sehen wir Dein R8500 Test ???
Mich schon ganz wahnsinnig darauf freu. :) :) :)

Gruss Labberlippe

Pengo
2002-01-22, 14:57:17
Originally posted by Labberlippe


Z-Buffer Fehler bis auf letzte bei der ersten Version von MBTR.
Die Kyro und Radeon hatte damals massive Bildfehler.

Die Karten und Treiber war ok, aber THQ hatte zu sehr auf nVIDIA optimiert.
Mit den Patch wurde das dann behoben.

Gruss Labberlippe

Imho lief MBTR ohne Patch auch auf GF3 nicht ohne Grafikfehler.

Quasar
2002-01-22, 15:00:10
Originally posted by ow

Da kannst du sicher sein, dass dem NICHT so ist.
Solche Spiele wuerden naemlich ueberhaupt nicht laufen.

Zumindest unter OpenGL wird das schon richtig sein....nV_Ext werden kaum von anderen Herstellern im Treiber unterstützt werden :)

Unregistered
2002-01-22, 15:03:41
was ist das hier eigentlich für ein Spekulationsseite ?

Ihr wisst schon das was x-bit labs da macht ist hochkriminell und wenn NVIDIA die Russen schnappten sollte, werden die erstmal schön viel Kohle zahlen müssen und die Seite verschwindet vom Internet. Die haben keinen Respekt vor den Herstellern und bedenken nicht, das dies Unternehmens-schädigend ist.

Aber übernehmt schön weiter die Texte von x-bit labs, dann seit ihr irgendwann selber dran !!

Labberlippe
2002-01-22, 15:07:22
Originally posted by Unregistered
was ist das hier eigentlich für ein Spekulationsseite ?

Ihr wisst schon das was x-bit labs da macht ist hochkriminell und wenn NVIDIA die Russen schnappten sollte, werden die erstmal schön viel Kohle zahlen müssen und die Seite verschwindet vom Internet. Die haben keinen Respekt vor den Herstellern und bedenken nicht, das dies Unternehmens-schädigend ist.

Aber übernehmt schön weiter die Texte von x-bit labs, dann seit ihr irgendwann selber dran !!

Die einzigen die nVIDIA zu Suchen hat, sind die Partner oder Mitarbeiter welche Informationen an der Öffentlichkeit weitergibt.

Mit tränenden Lächeln vor solchen verfassten Texten.

Gruss Labberlippe

Quasar
2002-01-22, 15:34:12
Originally posted by Unregistered
was ist das hier eigentlich für ein Spekulationsseite ?

Ihr wisst schon das was x-bit labs da macht ist hochkriminell und wenn NVIDIA die Russen schnappten sollte, werden die erstmal schön viel Kohle zahlen müssen und die Seite verschwindet vom Internet. Die haben keinen Respekt vor den Herstellern und bedenken nicht, das dies Unternehmens-schädigend ist.

Aber übernehmt schön weiter die Texte von x-bit labs, dann seit ihr irgendwann selber dran !!

Watt? Wer bist du denn?

Das gilt doch nur für doofe Leutz die im Austausch für ein frühes Testexemplar ein NDA unterschrieben haben....

Unregistered
2002-01-22, 16:13:14
@ Quasar

Ja genau das hat x-bit labs wohl auch gemacht und es dennoch veröffentlicht, das muß man nicht auch noch unterstützen und darüber berichten.

Quasar
2002-01-22, 16:24:52
Ok, so weit, so gut!

Aber ich glaube kaum, daß Leo hier ein solches NDA unterschrieben hat. Deswegen kann hier eigentlich gepostet werden, was man will.
Und falls Leo in Schwierigkeiten kommt, soll er doch seinen Post löschen:

Real NV25 Details! [8:08 pm] Rat
As we (and not only we) have already told you, in the beginning of February, to be more exact on February 5 in the USA and some time on February 6 in Europe, NVIDIA will launch its new solution for hardcore gamers – GeForce4 chip aka NV25. Today we got the opportunity to tell you a bit more about this new product.
Just like in case of Titanium chips family, the graphics cards makers are most likely to launch several products on NV25 at a time, which will differ by the chip and memory working frequencies as well as by the size of the graphics memory used. We will now touch upon the fastest model of this family, as we believe it deserves most attention and describes all the peculiarities of NV25 architecture.
So, the new NVIDIA graphics chip, just like GeForce3, will be manufactured with 0.15micron technology. However, the number of transistors used in it will reach 63 million, and the working frequency will be increased up to 300MHz. Here the natural question arises: how on earth NVIDIA managed to increase the chip working frequency so greatly without shifting to a new finer manufacturing technology, especially since NV25 should be more architecturally complex than GeForce3? The answer to this question is pretty original: we will see a new packaging in NV25 – PBGA with integrated heatsink. In other words, NVIDIA decided to enhance the heat dissipation process in order to be able to speed up its chips. For the same purpose, NVIDIA will provide its NV25 chips with a special NVIDIA thermal control system.
NVIDIA will increase the memory (DDR SDRAM) working frequency as well, which will work at 650MHz on the fastest solutions. This way the memory bus bandwidth will make 10.4GB/sec. Memory chips used on the graphics cards (at least on those following the reference design) will feature BGA-packaging. NV25 based graphics cards will get up to 128MB DDR SDRAM.
NV25 will feature 4 rendering pipelines with 2 TMUs each. This will make the new chip similar to GeForce3. However, due to higher working frequencies and improved technologies, the fillrate is claimed to equal 4.9 billion AA samples/sec.
Besides significantly higher working frequencies, NV25 will boast some fresh new features and technologies, though it will remain very much like its predecessor, GeForce3. First of all, we have to mention Lightspeed Memory Architecture II, the technology aimed at unloading the memory bus. It includes loss-free Z-buffer compression with 4:1 ratio, 2nd generation Occlusion Culling and Quadcache Architecture, which saves even more memory bandwidth.
Thanks to another significant performance and memory bus efficiency increase, NVIDIA managed to implement a new more progressive anti-aliasing method in its NV25. It is called Accuview AA. This method will use new subpixel locations mask and feature NVIDIA’s patented and optimized for the best performance and quality algorithm.
As for the T&L unit, it has been changed significantly compared with that of GeForce3. Now it is called nFinite FX II and features 2 vertex shader pipelines. Higher clock frequency will triple the performance in those applications, which use the second computing pipeline, making it three times as fast as that of GeForce3. Moreover, increasing the chip frequency will speed up the operations with pixel shaders by 50%.
Besides that, NVIDIA also claims that its new solution will support Z-Correct bump mapping feature, which is still a mystery to all of us. We will not speculate here now, as you will learn everything very soon: on February 5
The performance solutions from NVIDIA have now also got dual-monitor support. NV25 will boast nView technology, the next stage in the TwinView evolution. It will have richer features and will be much easier to use.
Attention! This news story will be soon removed upon NVIDIA’s request


:lol:

ow
2002-01-22, 16:49:44
Originally posted by Labberlippe


Z-Buffer Fehler bis auf letzte bei der ersten Version von MBTR.
Die Kyro und Radeon hatte damals massive Bildfehler.

Die Karten und Treiber war ok, aber THQ hatte zu sehr auf nVIDIA optimiert.
Mit den Patch wurde das dann behoben.

Gruss Labberlippe


Ich denke, dass stimmt nicht. Hatte mal die Demo von MBTR installiert (also 1.0.0 version oder so..). Ab Deto 6.50 laeuft's nur mit extremen Bildfehlern auf NVidia Karten, mit dem Patch waren die Fehler behoben.

Ich denke, dass die Umstellung der DX-Versionen (DX6->7->8) mit zu dem Problem beigetragen hat.


(btw) auf NV optimiert?
MBTR lief auf meiner Banshee gut 50% schneller wie auf dem TNT.
Der TNT erreichte knapp die Leistung meines Permedia2 unter MBTR.

ow
2002-01-22, 16:53:47
Originally posted by Pengo


Imho lief MBTR ohne Patch auch auf GF3 nicht ohne Grafikfehler.


s. mein obiges Posting

ow
2002-01-22, 17:00:02
Originally posted by Quasar


Zumindest unter OpenGL wird das schon richtig sein....nV_Ext werden kaum von anderen Herstellern im Treiber unterstützt werden :)


Das heisst ja nur, dass die entsprechende Funktion nicht nutzbar ist, laufen tut es trotzdem.

Aber voellig an D3D/OGL-Standards vorbei zu proggen (also direkt auf der HW), das funzt nicht.
Die OGL_EXT sind uebrigens Teil der OGL Spezifikation.


RTCW zb. unterstuetzt NV extensions fuer Nebel ("NVidia-Nebeltyp") oder ATi extensions fuer Truform.

Quasar
2002-01-22, 17:18:16
Wenn du explizit kein Fallback auf die standard OpenGL-Routinen einbaust (imho eben speziell auf eine HW optmierst), dann wird die Funktion nicht nutzbar sein....je nach Funktion wird das entweder lächerlich (Distance Fog / nPatch bei RTCW) oder ziemlich extrem werden (texure combiners, multitexture etc...)sein, je nachdem wie grundlegend die Funktion ist...

Unregistered
2002-01-22, 17:29:17
Originally posted by Labberlippe



Wann sehen wir Dein R8500 Test ???
Mich schon ganz wahnsinnig darauf freu. :) :) :)

Gruss Labberlippe



Sorry, erst im Februar. Theoretisch wäre der jetzt fällig, aber Anfang Januar ging das plötzlich los, das jeder was von mir wollte + das Forum Problem.

Unregistered
2002-01-22, 17:31:44
Ich hab kein NDA bei nVidia, ansonsten würde ich mich auch zurückhalten. Wenn ich ein NDA unterschreibe, dann halte ich mich auch dran, Ehrensache. Aber nVidia hat mich nicht gefragt, insofern kann ich frei schreiben ...

L.