PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wann kommt denn die 7900?


Gast
2006-02-28, 14:04:28
Gibts da irgendwelche konkreten Ankündigungen? Wann wird die Karte offiziell vorgestellt und wann werden wohl die ersten Exemplare in Deutschland bei den Händlern sein?
Und hat man schon was gehört über mögliche Preise?

LovesuckZ
2006-02-28, 14:18:54
9. März auf Cebit ist Präsentation.

Kladderadatsch
2006-02-28, 14:20:46
die wird auch am 9. erhältlich sein. der preis soll niedrig, konkurrenzfähig sein. imo (und hoffentlich) bei 500-550 euro.

The_Invisible
2006-02-28, 14:23:51
die wird auch am 9. erhältlich sein. der preis soll niedrig, konkurrenzfähig sein. imo (und hoffentlich) bei 500-550 euro.

das wär toll, bräuchte eh eine neue karte für oblivion und gothic 3 :)

mfg

Gast
2006-02-28, 14:25:22
die wird auch am 9. erhältlich sein.

soll...

der preis soll niedrig konkurrenzfähig sein.

Ob er das wird, ist eine andere Frage...

imo (und hoffentlich) bei 500-550 euro.

Hoffentlich nicht! Das wäre deutlich teurer als eine X1900XT und auch die X1900XTX rutscht langsam auf die 550 zu.

Alles über 500 Euro bei gleicher Leistung und schlechterer Bildqualität wäre nicht wirklich konkurrenzfähig...

Gast
2006-02-28, 14:26:31
Ich freu' mich, wenn die 7800er dann noch weiter im Preis sinken. :)

Kladderadatsch
2006-02-28, 14:26:32
das wär toll, bräuchte eh eine neue karte für oblivion und gothic 3 :)

mfg
jap, bei mir schauts genau so aus.;)
aber angesichts der mageren mehrleistung scheint der preis doch sehr realistisch.

@gast
die x1900xt wird ja wohl geschlagen werden...also sind 500 euro dicke drin. schließlich wird die karte bis zur 7900gx2 das flaggschiff bleiben...
(weiß jemand, wann die kommt? angepeilt sind da jedenfalls 800 euro)

soll...
die karten sind laut diverser news bereits an die händler gegangen. warum sollte der 9. nicht stehen?

ShadowXX
2006-02-28, 14:39:00
die x1900xt wird ja wohl geschlagen werden...also sind 500 euro dicke drin. schließlich wird die karte bis zu 7900gx2 das flagschiff bleiben...
(weiß jemand, wann die kommt? angepeilt sind da jedenfalls 800 euro)


Das kommt wohl ganz auf das zu benchende Game und die Einstellungen drauf an.

Wenn nV wirklich nix großartiges beim G71 geändert haben sollte (und so siehts momentan aus), dann könnte es gut sein, das die x1900xt(x) beim Einsatz von AA/AF immer noch vorne liegen wird bzw. zumindest in vielen Benches noch vorne liegen wird.

Prinzipiel ist der G71 ein Refresh des Refreshs...aths hatte das ganz gut in einem anderen Thread beschrieben: die G70 ist eigentlich eine 6900-Karte und der G71 eine 6950-Karte.

Es wird wohl im großen und ganzen auf ein Pari rauslaufen mit BQ-Vorteilen für die ATIs.

Gast
2006-02-28, 14:48:12
Naja, gegen die GX2 kann ATI speedmäßig wohl nicht anstinken. Da gibts nur noch die Bildqualität, die für ATI spricht. Aber mit 2x GX2 werden auch hohe Supersampling-Modi nutzbar und schon ist die BQ bei NV sogar besser.










Preis? Wayne...;D

Gast
2006-02-28, 14:53:40
die x1900xt wird ja wohl geschlagen werden...also sind 500 euro dicke drin.

Da wäre ich mir nicht so sicher...

Wieder einmal sind es die Kollegen von „The Inquirer“, die mit einigen Informationen zu nVidias neuem G71-Chip aufwarten können. So will das Magazin erfahren haben, dass die Performance der GeForce 7900 GTX im besten Falle lediglich acht bis zehn Prozent über der einer GeForce 7800 GTX 512 liegt.
Als Quelle für diese Messungen dienen asiatische Hersteller, die schon mit ersten Mustern versorgt worden sind.

10% schneller als GTX512, würde bedeuten, das die Karte nun den Abstand zur XT/X aufholen, aber nicht überholen würde. Von daher wäre das keine Glanzleistung, zumal sich sehr viele XTs auf XTX Niveau und höher bringen lassen.

Rating (Durchschnitt) 1600x1200 4xAA/16xAF
ATi Radeon X1900 XTX 72,5
ATi Radeon X1900 XT 69,4
nVidia GeForce 7800 GTX 512 63,6

tombman
2006-02-28, 14:59:07
Jo, wann können wir mit ersten reviews rechnen?

Gast
2006-02-28, 14:59:41
Am Tag des Launch? :)

Raff
2006-02-28, 15:00:44
Der vermutete Launch-Tag ist der 9. März zum Start der CeBIT. Ich schätze mal, dass auch dann berichtet werden darf, hm? ;) 15 Uhr, wie immer?

MfG,
Raff

AnarchX
2006-02-28, 15:11:17
Prinzipiel ist der G71 ein Refresh des Refreshs...aths hatte das ganz gut in einem anderen Thread beschrieben: die G70 ist eigentlich eine 6900-Karte und der G71 eine 6950-Karte.


Mit dieser Denkweise könnte man auch die X850XT als 4. Refresh der 9700Pro bezeichnen...

Gast
2006-02-28, 15:16:04
Mit dieser Denkweise könnte man auch die X850XT als 4. Refresh der 9700Pro bezeichnen...

Wieso nicht?
Die Architectur ist die allergleiche. Der Chip wurde nur um Pipes udn Vertexshaders erhöht, ebenfals wurde der Takt gesteigert.

tombman
2006-02-28, 15:18:12
ALso ist es sicher, daß vorher keinen offiziellen reviews rauskommen?

Marc-
2006-02-28, 15:20:22
ALso ist es sicher, daß vorher keinen offiziellen reviews rauskommen?

Wie war es denn bisher? Welchen sinn sollte sonst ein nda haben? weia.

Natürlich ist es wie immer nicht auszuschliessen, das eine webseite bildzeitung spielen muss, und ganz "aus versehen" der hits wegen ein review zu früh freischaltet...

Omnicron
2006-02-28, 15:21:01
Bereitet 3DC auch ein Review vor? :smile:

tombman
2006-02-28, 15:24:21
Wie war es denn bisher? Welchen sinn sollte sonst ein nda haben? weia.
Von einem bestätigten NDA Auslauf-Termin war bisher noch keine Rede, alle Antworten hier kamen mit Fragezeichen. Lesen? Weia.

Ailuros
2006-02-28, 15:27:04
Mit dieser Denkweise könnte man auch die X850XT als 4. Refresh der 9700Pro bezeichnen...

Ich wuerde liebend gerne hoeren warum G71 kein refresh im Vergleich zu G70 sein soll :|

[dzp]Viper
2006-02-28, 15:33:44
Normaler Weise fällt das Datum für das Fallen des NDAs ebenfalls unter dieses NDA.

Es könnte also sein, dass du hier keine wirklichen festen Aussagen bekommst tombman ;)

deekey777
2006-02-28, 15:35:11
Mit dieser Denkweise könnte man auch die X850XT als 4. Refresh der 9700Pro bezeichnen...
Such mal nach R390 (Projekt Loki), dann geht dir ein Lichtlein auf.
Der G71 scheint "nur" ein Shrink auf 90 nm zu sein.
Wieso nicht?
Die Architektur ist die allergleiche. Der Chip wurde nur um Pipes und Vertexshaders erhöht, ebenfals wurde der Takt gesteigert.
Bezieht sich das jetzt auf NV40 <-> G70 oder R300 <-> R4x0?

mapel110
2006-02-28, 15:35:27
Viper']Normaler Weise fällt das Datum für das Fallen des NDAs ebenfalls unter dieses NDA.

Es könnte also sein, dass du hier keine wirklichen festen Aussagen bekommst tombman ;)
Jo, und *merge* eh das gleiche Thema, da brauchts keine zwei Threads.

deekey777
2006-02-28, 15:37:13
Jo, und *merge* eh das gleiche Thema, da brauchts keine zwei Threads.

Hab mich schon gewundert, warum jetzt neue Postings zu sehen sind. *verwirrtbin*

Gast
2006-02-28, 18:03:57
Alles über 500 Euro bei gleicher Leistung und schlechterer Bildqualität wäre nicht wirklich konkurrenzfähig...


wenn die gerüchte stimmen (8 quads@650+MHz) hat die x1900xtx speedmäßig nicht den funken einer chance.

vor allem ist man bei NV dann deutlich weniger auf irgendwelche filtertricks angewiesen, dank der fast doppelt so hohen texelfüllrate.

Das kommt wohl ganz auf das zu benchende Game und die Einstellungen drauf an.

Wenn nV wirklich nix großartiges beim G71 geändert haben sollte (und so siehts momentan aus), dann könnte es gut sein, das die x1900xt(x) beim Einsatz von AA/AF immer noch vorne liegen wird bzw. zumindest in vielen Benches noch vorne liegen wird.

zumindest beim AF kann die x1900xtx keine chance haben, man hat nur die halbe füllrate.

kann sie wider erwarten doch mithalten ist das nur ein starkes indiz für irgendwelche filtertricks.

chemistry
2006-02-28, 18:07:16
Anscheinend siehts doch anders aus.....

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/februar/nvidias_7900_gtx_10_prozent/

Gast
2006-02-28, 18:13:01
Anscheinend siehts doch anders aus.....

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/februar/nvidias_7900_gtx_10_prozent/
Aaalt. Wurde jedenfalls schon gepostet. CB hats eh nur von Fuad abgeschrieben.

LovesuckZ
2006-02-28, 19:18:32
Es gibt kein Chip, der über 32 TMUs verfügt.
24 "single", 48 "dual" Core.

chemistry
2006-02-28, 20:04:33
Aaalt. Wurde jedenfalls schon gepostet. CB hats eh nur von Fuad abgeschrieben.

Alt aber interessant.....wenns denn stimmt sicherlich eine kleine Sensation....

Scoop
2006-02-28, 20:06:13
Wird die 7900 mehr leistung haben wie die x1900 mit 48 Pixel Shader ?

chemistry
2006-02-28, 20:08:07
das zu klären es gilt...allerdings schlauer werden wir erst nach der CBit sein.

Laut dem Artikel jedenfalls wird NV aufschließen aber nicht großartig überholen können - was ja eigentlich auch zu erwarten ist.

ShadowXX
2006-02-28, 20:20:46
wenn die gerüchte stimmen (8 quads@650+MHz) hat die x1900xtx speedmäßig nicht den funken einer chance.

vor allem ist man bei NV dann deutlich weniger auf irgendwelche filtertricks angewiesen, dank der fast doppelt so hohen texelfüllrate.


Die Gerüchte sagen aber 6 quads@650MHz.


zumindest beim AF kann die x1900xtx keine chance haben, man hat nur die halbe füllrate.

kann sie wider erwarten doch mithalten ist das nur ein starkes indiz für irgendwelche filtertricks.

Wir reden von der BQ, nicht vom Speed.....

Wird die 7900 mehr leistung haben wie die x1900 mit 48 Pixel Shader ?

Das wird man dann sehen...aths prognostizierte in einem anderen Thread allerdings, das wenn nV nicht großartig geändert hat (und so siehts momentan aus), die x1900xt(x) wohl trotzdem mehr Shaderpower (zumindest effizientere) haben wird.

Bei der der G71 werden wird wohl (wie bei G70) 24 * 2 MADD (oder wenn man möchte 48 * 1 MADD) haben, wogegen die ATI 48 * (1 MADD + 1 ADD) liefert.

Vom Takt nehmen Sie sich nicht viel.....

ATIs Methode scheint dazu etwa effizienter zu sein, was wohl Hauptsächlich daran liegt, das bei ATI keine der ALUs durch Texturoperationen stallt.
(Bei nV werden die Texturops durch eine der beiden ALUs pro Pipe veranlasst/gesteuert/whatever (<- ich komme gerade nicht auf den offiziellen Term), wodurch diese dann nicht benutzt werden kann in dieser Zeit).

Beim Branching ist die ATI dazu auch noch schneller.

nV hat natürlich den Vorteil mehr TMUs (aber auch nur 16Rops) zu haben.

Nerothos
2006-02-28, 21:19:07
zumindest beim AF kann die x1900xtx keine chance haben, man hat nur die halbe füllrate.
kann sie wider erwarten doch mithalten ist das nur ein starkes indiz für irgendwelche filtertricks.
Vielleicht ist das nur ein Indiz für überlegene Technik? ATI hat beim R5x0 sehr viele Transistoren für performantes, nVidia qualitativ überlegeneres AF geopfert. Man hätte das nicht tun müssen. Dann hätte man nicht so einen großen Chip bekommen, er ließe sich leichter kühlen... blablabla.

Aber deine Sichtweise finde ich recht beschränkt. Schon jetzt hat nVidia mehr Füllrate (13200MTexel zu 10400 MTexel) und ist trotzdem langsamer.
Wenn man bei AF in etwa (mit ATI) gleichzieht (speedmäßig - qualitätsmäßig sind sie sowieso unterlegen) oder leicht drüber liegt, dann ist das für mich kein Indiz dafür, dass ATI schummelt, sondern dafür, dass ATI seine Hausaufgaben in Sachen AF sehr gut gemacht hat. Denk mal drüber nach ;)

Gast
2006-02-28, 21:28:59
Die Gerüchte sagen aber 6 quads@650MHz.





in den news vom 23.2. steht allerdings etwas anderes

Gemäß einer Meldung von DailyTech soll die G71-basierende GeForce 7900 GTX nun mit Taktraten von 655 MHz Chip- und ca. 800 MHz Speichertakt antreten, was auch den bisherigen Vorab-Informationen entspricht. Angesichts der angegebenen Füllrate von 15 Milliarden Pixel pro Sekunde kann man zielsicher auf 24 vorhandene Raster Operation Units (ROPs) schließen, was angesichts des Umstands, daß die letzten HighEnd-Chips von nVidia allesamt etwas mehr Pixel-Pipelines als ROPs hatten, auf die schon vermuteten 32 Pixel-Pipelines (samt 32 Pixelshader-Einheiten) hinausläuft. Die Anzahl der Vertexshader-Einheiten scheint beim G71-Chip zudem ebenfalls leicht angehoben zu sein, vermutlich sind es nun 9 anstatt bisher 8 Einheiten ...

... Zumindestens läßt dies der rechnerische Vergleich der angegebenen Geometrie-Leistung (1450 Millionen Verticles pro Sekunde) gegenüber einer gewöhnlichen GeForce 7800 GTX (860 Millionen Verticles pro Sekunde bei 8 Vertexshader-Einheiten) vermuten. Somit ergibt sich aus heutiger Sicht das Bild, daß der G71-Chip mit 32 Pixel-Pipelines sowie 9 Vertexshader- und 32 Pixelshader-Einheiten antreten dürfte. Davon ganz abgesehen gibt es noch die zusätzliche Information, daß gegen Ende März mit SingleSlot-Ausführungen der GeForce 7900 zu rechnen sein wird (zumindestens die GeForce 7900 GTX wird definitiv ein DualSlot-Design), weil anscheinend einige PC-Hersteller dann Systeme mit Quad-SLI anbieten wollen.

6quads@650MHz wären natürlich eine enttäuschung, kann ich aber weder glauben dass NV einen geshrinkten chip mit gleich viel transistoren (was ja sein muss, wenn wir von gleich viel quads wie beim G70 ausgehen) nur 100MHz mehr takt gibt, noch dass NV die möglichkeit mehr transistoren (und damit quads) nach dem shrink zu verbauen nicht ausnützt.

Supermax2004
2006-02-28, 21:41:19
Tjo das ist jetzt die Frage ob es um Preis und Verfügbarkeit geht, oder um Leistung, also 32Pipes usw. Ich denke eher es wird das Erste zutreffen :( Aber wenn die Karte etwas schneller iss als ne GTX 512, 500-550Euro max kostet und sich super übertakten lässt (selber Speicher wie GTX 512 und 90NM Prozess) ist das sicher ne angenehme Karte auch wenn ich auf 32Pipes gehofft habe :( :) :( :)

Gast
2006-02-28, 21:42:44
lol, bist du der supermax ausm nforce-forum? ;D

Coda
2006-02-28, 21:53:47
...kann ich aber weder glauben dass NV einen geshrinkten chip mit gleich viel transistoren (was ja sein muss, wenn wir von gleich viel quads wie beim G70 ausgehen) nur 100MHz mehr takt gibt, noch dass NV die möglichkeit mehr transistoren (und damit quads) nach dem shrink zu verbauen nicht ausnützt.Das gibt mir auch zu denken. Wobei andererseits die 100Mhz mehr auf absolut selektierte Chips zutrifft. Ich denke nicht dass G71 so unverfügbar sein wird wie G70@550Mhz.

chemistry
2006-02-28, 22:33:58
Das e bleibt abzuwarten. Aber ich gebe dir Recht, dass es wahrscheinlich nicht allzu gut in Bezug auf Verfügbarkeit aussehen wird.

In Bezug auf Bildqualität im Vergleich zur X1900er Serie glaube ich nicht daran, dass NV in dieser Hinsicht punkten kann. Das war bisher nicht so und wir auch in nächster Zukunft nicht anders werden. Vor allem in hohen Auflösung mit AA wird ATI die Nase vorne behalten.
Ist halt meine Meinung. :cool:

aths
2006-02-28, 22:45:36
Wird die 7900 mehr leistung haben wie die x1900 mit 48 Pixel Shader ?Mehr als, bitte. "Wie" nimmt man bei Gleichheit ("genauso viel wie"), "als" bei Ungleichheit "mehr als", "weniger als".)

Und, wenn ich das auch noch sagen darf, bitte vor dem Fragezeichen kein Leerzeichen setzten.

ATI zählt bei der X1900 48 Pixelshader-ALUs. Die Frage ist, ob man bei der 7800 oder 7900 nun 24 oder 48 ALUs zählen möchte. Das kann man so oder so sehen. Wichtig ist nicht unbedingt die Anzahl der ALUs, sondern was alle ALUs der Karte zusammengenommen pro Takt tatsächlich ausführen können. Da liegt je nach konkretem Shader-Code mal die Radeon, mal die GeForce vorne. Obwohl die GeForce-ALUs einige hochinteressante Eigenschaften haben, schätze ich im Moment die Spiele-relevante ALU-Leistung bei der Radeon X1900 als höher ein.

Gast
2006-02-28, 22:46:35
Vor allem in hohen Auflösung mit AA wird ATI die Nase vorne behalten.Möglich ist es. Ich halte es aber vielmehr für realistisch, dass das ganze ziemlich ausgeglichen wird. Je nach Game Vorteile für ATI oder NV.

aths
2006-02-28, 22:49:33
Möglich ist es. Ich halte es aber vielmehr für realistisch, dass das ganze ziemlich ausgeglichen wird. Je nach Game Vorteile für ATI oder NV.So ist es.

Ich freue mich schon auf die Fanboys, die dann beweisen wollen dass entweder Nvidia jetzt ATI überholt hätte, oder ATI uneinholbar vorne läge. Aufgrund ihrer Architektur kann die GeForce 7900 bei einigen Spielen durchaus höhere Frameraten erzielen – was als Minuspunkt bleibt ist allerdings die ärgerliche Begrenzung auf das stark winkelabhängige AF.

Nerothos
2006-02-28, 23:51:53
...was als Minuspunkt bleibt ist allerdings die ärgerliche Begrenzung auf das stark winkelabhängige AF.
Das stimmt. Hoffen wir, dass Nvidia bei ihrer nächsten Generation ein ähnlich abgeschwächt-winkelabhängiges AF bietet, wie es ATI im Moment hat (oder vielleicht sogar besser?).
Wenn sie nichts ändern, kommt ATI vielleicht auch wieder auf den Geschmack Transistoren zu sparen, ganz nach dem Motto "Was Nvidia kann, können wir schon lange."

chemistry
2006-03-01, 09:49:51
ja, ich glaube auch das es im großen und ganzen Ausgeglichen sein wird - war es ja sowieso immer schon.
Und mir persönlich ist es egal, ob eine KArte im Spiel x um 10fps mehr hat als die andere, weil es ja im anderen Spiel sowieso wieder umgekehrt ist.

Was für mich mit einem 24" Monitor zählt, ist die Performance und Grafikqualität in hohen Auflösungen, und da wurde ich einfach bisher nie entäuscht von den ATI Karten.

Und was die Features wie winkelunabh. AF usw. betrifft, wird die eine mal das Feature X haben, das die andere nicht hat, und die nächste Generation hat dafür wieder was neues was die andere nicht hat - man kann nie alles haben!

Coda
2006-03-01, 10:03:23
So ist es.

Ich freue mich schon auf die Fanboys, die dann beweisen wollen dass entweder Nvidia jetzt ATI überholt hätte, oder ATI uneinholbar vorne läge. Aufgrund ihrer Architektur kann die GeForce 7900 bei einigen Spielen durchaus höhere Frameraten erzielen – was als Minuspunkt bleibt ist allerdings die ärgerliche Begrenzung auf das stark winkelabhängige AF.Vor allem in Füllrate-limitierten Szenarien (also eher ältere Spiele) wie UT2004 wird sie die X1900XT gnadenlos versägen (wir reden immerhin von >50% mehr Rohfüllrate) - da reicht die Leistung dieser aber ohnehin, somit wird das kaum ins Gewicht fallen.

chemistry
2006-03-01, 10:12:48
Möglich ist es. Ich halte es aber vielmehr für realistisch, dass das ganze ziemlich ausgeglichen wird. Je nach Game Vorteile für ATI oder NV.
Ja, das ist schon klar - bei älteren Spielen, die kaum Shaderpower brauchen, sonder extrem Füllraten limitiert sind, wird dies so sein - aber wofür brauch ich 180fps, wenn die ATI da 120fps macht?
Also so was kann nicht als relevanter Wert herangezogen werden, da kommende Spiele wie Crysis zb. extrem viel Shader Power benötigen werden, und die Füllrate hier sekundär sein wird.
Man muss hier schon ehrlich sein und auch solche Anwendungen hernehmen, die zeitgemäß sind und die Karte auch ausreizen. (Wäre so als würde man mit einem Ferrari im 2 Gang 130 fahren und dann sagen der Golf macht 160 - halt im 5ten Gang)

Gast
2006-03-01, 10:51:56
so ist das minimum fps ist das Ding und sonst nix,180-200 gegen meintwegen 90 -100 ist mir sowas von wurscht!
Und was nützen mir 200 wenn ich bei optimaler BQ noch 23 minimum fps übrig habe..einige werden es nie und nimmer begreifen aber davon lebt NV ja.

Ailuros
2006-03-01, 11:39:03
Dass angeblich dem einem IHV die Leistung egal ist und dem anderen nicht, ist absoluter Bloedsinn. Beide grossen IHVs versuchen konstant die Leistungskrone unter jeder Gelegenheit zu erringen. Der Unterschied liegt eben darin dass beide verschiedene Design-entscheidungen getroffen haben um ihre eigenen Ziele zu erreichen. Bei beiden wird es dann Vor- und Nachteile geben.

Ich hab es schon zich Male gesagt und ich werde auch weiterhin darauf bestehen: jeder User sollte sich die GPU kaufen die seine eigenen Notwendigkeiten am besten deckt und das am liebsten irrelevant was auf dem Karton steht.

maddawn
2006-03-01, 12:24:54
ja, ich glaube auch das es im großen und ganzen Ausgeglichen sein wird - war es ja sowieso immer schon.
Und mir persönlich ist es egal, ob eine KArte im Spiel x um 10fps mehr hat als die andere, weil es ja im anderen Spiel sowieso wieder umgekehrt ist.

Was für mich mit einem 24" Monitor zählt, ist die Performance und Grafikqualität in hohen Auflösungen, und da wurde ich einfach bisher nie entäuscht von den ATI Karten.

Und was die Features wie winkelunabh. AF usw. betrifft, wird die eine mal das Feature X haben, das die andere nicht hat, und die nächste Generation hat dafür wieder was neues was die andere nicht hat - man kann nie alles haben!


OT:

es gab ja schon mal einen Fred hier das beide Konkurrenten sich absprechen würden, in Wahrheit ist es wie bei AMD und Intel auch, der Hersteller der vorne liegt tut nur das Nötigste um vorne zu bleiben um nicht zu viel Geld und vielleicht nötiges Konterpotential zu verschenken

daher sollte man eindeutig die Grafikkarten mit dem besseren P/L-Verhältnis bei höchstmöglicher Qualität bevorzugen

und da ist ATI im unteren Midrange gut aufgestellt (x1600) und im Highendbereich, im normalen und gehobenen Midrange fehlt halt was... eine x1700 oder x1800gto, atm hat da nvidia mit der 6800gs (ganz leicht weil aktueller als x800) und der 7800gt die Nase vorne aus meiner Betrachtungssicht

dieses ganze Fanboygehabe kann ich absolut nicht nachvolltziehen, ich bin als Privatnutzer an keine Serviceverträge oder ähnliches gebunden also kaufe ich das was für mich zum Kaufzeitpunkt das beste P/L-Verhältnis bietet... so einfach ob die Karte grün oder rot ist is mir sch***egal

Juerg
2006-03-02, 14:40:13
Vor allem in Füllrate-limitierten Szenarien (also eher ältere Spiele) wie UT2004 wird sie die X1900XT gnadenlos versägen (wir reden immerhin von >50% mehr Rohfüllrate) - da reicht die Leistung dieser aber ohnehin, somit wird das kaum ins Gewicht fallen.Ist es nicht so, dass die 7900 eine ca 75Mhz kleinerer TMU Takt hat als die Geometrieeinheiten also 650-575 (7800: 550-510)?

reunion
2006-03-02, 14:44:28
Die VS takten höchstwahrscheinlich mit 725Mhz, der restliche Chip mit 650Mhz.

Ailuros
2006-03-02, 14:56:02
OT:

es gab ja schon mal einen Fred hier das beide Konkurrenten sich absprechen würden, in Wahrheit ist es wie bei AMD und Intel auch, der Hersteller der vorne liegt tut nur das Nötigste um vorne zu bleiben um nicht zu viel Geld und vielleicht nötiges Konterpotential zu verschenken

daher sollte man eindeutig die Grafikkarten mit dem besseren P/L-Verhältnis bei höchstmöglicher Qualität bevorzugen

und da ist ATI im unteren Midrange gut aufgestellt (x1600) und im Highendbereich, im normalen und gehobenen Midrange fehlt halt was... eine x1700 oder x1800gto, atm hat da nvidia mit der 6800gs (ganz leicht weil aktueller als x800) und der 7800gt die Nase vorne aus meiner Betrachtungssicht

dieses ganze Fanboygehabe kann ich absolut nicht nachvolltziehen, ich bin als Privatnutzer an keine Serviceverträge oder ähnliches gebunden also kaufe ich das was für mich zum Kaufzeitpunkt das beste P/L-Verhältnis bietet... so einfach ob die Karte grün oder rot ist is mir sch***egal


Gar nicht OT. Voll zustimm fuer den letzten Paragraph.

Juerg
2006-03-02, 14:56:02
Die VS takten höchstwahrscheinlich mit 725Mhz, der restliche Chip mit 650Mhz.Aha, ich hatte gedacht, dass die marketingmässig höhere Zahl kommuniziert wird? Ok, umso besser. ;)

DanMan
2006-03-02, 15:11:05
Aha, ich hatte gedacht, dass die marketingmässig höhere Zahl kommuniziert wird? Ok, umso besser. ;)
mäßig - wie Maß, nicht wie Masse.

Gast
2006-03-02, 15:25:57
Öhm... nach der News hier auf 3DCenter... 24 pipelines.

Kann man nun damit rechnen, das die neue nur leicht schneller sein wird als die GTX 512?

Supermax2004
2006-03-02, 16:14:41
Ich rechne nun voll mit diesen 650/800 und 24Pipes. Etwas schade aber wie man auf Inquirer lesen konnte, werden wohl Evga oder XFX vielleicht ne 700/8** Variante am 09.03. verkaufen die ich mir dann holen würde ^^ Da der Speicher der 7900GTX derselbe ist wie der der GTX 512, sollten 850MHZ Speichertakt 100% möglich sein und darüber natürlich auch. Für 500Euro ist das auf jedenfall ne sehr angenehme Leistung :)

Hoffentlich wieder so leise und kühl und relativ stromsparend :)

ShadowXX
2006-03-02, 16:56:16
Öhm... nach der News hier auf 3DCenter... 24 pipelines.

Kann man nun damit rechnen, das die neue nur leicht schneller sein wird als die GTX 512?

Lt. gerüchten soll die 7900GTX ca. 10% schneller als die 7800GTX/512 sein.....

Juerg
2006-03-02, 16:59:55
mäßig - wie Maß, nicht wie Masse.Ich darf das, weisst Du ;D Ich bestelle auch ein Mass Bier, wenns den sein muss.

MadManniMan
2006-03-03, 01:16:05
Hui, mit "nur" diesen paar MHz mehr siehts nicht gerade gut aus mit der Performancekrone - lassen wir uns überraschen, ob nV nicht noch ne kleine Überraschung in petto hat... HDR-FSAA bspw.?

aths
2006-03-03, 04:11:24
Hui, mit "nur" diesen paar MHz mehr siehts nicht gerade gut aus mit der Performancekrone - lassen wir uns überraschen, ob nV nicht noch ne kleine Überraschung in petto hat... HDR-FSAA bspw.?Nein. Es gibt eine kleine Überraschung, aber die ist sehr klein und muss warten ;(

MadManniMan
2006-03-03, 06:11:25
Nein. Es gibt eine kleine Überraschung, aber die ist sehr klein und muss warten ;(

HQ-AF? Groß ist der Leistungsverlust jedenfalls nicht ;)

Ailuros
2006-03-03, 13:37:15
Hui, mit "nur" diesen paar MHz mehr siehts nicht gerade gut aus mit der Performancekrone - lassen wir uns überraschen, ob nV nicht noch ne kleine Überraschung in petto hat... HDR-FSAA bspw.?

HDR + MSAA ist bestaetigt fuer die naechste Generation, ergo =/>G80.

MadManniMan
2006-03-03, 14:05:58
HDR + MSAA ist bestaetigt fuer die naechste Generation, ergo =/>G80.

Hab ichs mir doch schon gedacht...

Was sagt nV eigentlich zu "Nonsense" wie HQ-AF ;D

Ailuros
2006-03-03, 14:14:30
Hab ichs mir doch schon gedacht...

Was sagt nV eigentlich zu "Nonsense" wie HQ-AF ;D

Keine klare Antwort bis jetzt, was aber nicht besonders hoffnungsreich klingt.

MadManniMan
2006-03-03, 14:20:29
Keine klare Antwort bis jetzt, was aber nicht besonders hoffnungsreich klingt.

...was hieße, daß sie einen ziemlich riskanten Kurs auf der BQ-Schiene fahren würden - hälst Du eigentlich eine weitere Steigerung beim AA für wahrscheinlich?

Ailuros
2006-03-03, 14:24:56
...was hieße, daß sie einen ziemlich riskanten Kurs auf der BQ-Schiene fahren würden - hälst Du eigentlich eine weitere Steigerung beim AA für wahrscheinlich?

NVIDIA waere schoen bloed wenn ihr AA-Algorithmus nicht "programmierbarer" geworden ist. Soll aber nichts heissen, denn ich hab auch ehrlich gesagt keine Ahnung.

aths
2006-03-03, 15:13:42
HQ-AF? Groß ist der Leistungsverlust jedenfalls nicht ;)Das wäre eine große Überraschung. Es gibt aber nur eine sehr kleine.

Paul Brain
2006-03-03, 15:28:01
Nein. Es gibt eine kleine Überraschung, aber die ist sehr klein und muss warten ;(Hm, meinst Du viell. den H.264-Treiber, der irgendwann "demnächst" erscheinen soll?

Gast
2006-03-03, 15:36:26
Hm, meinst Du viell. den H.264-Treiber, der irgendwann "demnächst" erscheinen soll?

den gibts schon ;)

The_Invisible
2006-03-03, 16:27:38
Das wäre eine große Überraschung. Es gibt aber nur eine sehr kleine.

hm, 6x/8x MSAA bzw 32xAF ?

mfg

ShadowXX
2006-03-03, 16:30:11
hm, 6x/8x MSAA bzw 32xAF ?

mfg

Eine kleine Überraschung.......das wäre ebenfalls nicht gerade klein.

Ailuros
2006-03-03, 16:36:32
Wahre Ueberraschungen gibt es erst aus der G80 Tuete, ueberhaupt wenn es zu IQ kommt.

***edit: zu was denn ueberhaupt 32xAF? Ich waere froh wenn ich winkelunabhaengiges 16xAF mit vollem trilinear auf allen texturing stages bekomme pffff.

aths
2006-03-03, 17:07:39
hm, 6x/8x MSAA bzw 32xAF ?

mfgIch spreche von einer kleinen Überraschung, nicht von großen. Die Überraschung ist deshalb so klein, weil kaum jemand was davon merken dürfte.

Vor Fragezeichen kein Leerzeichen, bitte.

Gast
2006-03-03, 18:11:05
Das wäre eine große Überraschung. Es gibt aber nur eine sehr kleine.

SU1 und 2 haben nun das komplett gleiche featureset?

Gast
2006-03-03, 18:20:21
Wie wärs eigentlich, wenn diese Saftärsche von nvidia mal den Purevideo-Schranz mit den Karten ausliefern würden und nicht noch mal extra 20 Dollar dafür absahnen würden...

aths
2006-03-03, 19:09:11
SU1 und 2 haben nun das komplett gleiche featureset?Das wäre unnötig.


Wie wärs eigentlich, wenn diese Saftärsche von nvidia mal den Purevideo-Schranz mit den Karten ausliefern würden und nicht noch mal extra 20 Dollar dafür absahnen würden...Dann würde NV auf eine Zusatzeinnahmequelle verzichten.

MadManniMan
2006-03-03, 19:32:36
Das wäre unnötig.

Was zum Teufel ist "SU"?

Black-Scorpion
2006-03-03, 19:51:46
Dann würde NV auf eine Zusatzeinnahmequelle verzichten.
Dann sollen sie damit auch nicht werben, wenn man es so auch nicht nutzen kann.

Gast
2006-03-03, 20:20:00
Dann sollen sie damit auch nicht werben, wenn man es so auch nicht nutzen kann.Man kann die Hardwarebeschleunigung auch ohne den PureVideo-Krams nutzen. PureVideo ist ein Konkurrenzprodukt zu PowerDVD und WinDVD und kostet dementsprechend auch Geld.

reunion
2006-03-03, 20:24:42
Was zum Teufel ist "SU"?


Ich tippe stark auf ShaderUnit.

MadManniMan
2006-03-03, 20:31:37
Ich tippe stark auf ShaderUnit.

Ich inzwischen auch :usad:

Gast
2006-03-03, 21:19:36
Dann sollen sie damit auch nicht werben, wenn man es so auch nicht nutzen kann.

sollen sie auch nicht mit SM3 werben, weil sie keine SM3-software verschenken?

Ich spreche von einer kleinen Überraschung, nicht von großen. Die Überraschung ist deshalb so klein, weil kaum jemand was davon merken dürfte.

neuer versuch: die TMU blockiert die erste SU nichtmehr (so lange)?

Black-Scorpion
2006-03-03, 21:33:21
sollen sie auch nicht mit SM3 werben, weil sie keine SM3-software verschenken?
Der Vergleich hinkt gewaltig.

PurVideo wird beworben ohne einen Hinweis das ohne den Decoder fast nichts funktioniert.
Es bleibt afaik nur die lumpige MPEG2 Hardwarebeschleunigung übrig.
Und für ein 10 Jahre altes Features braucht bestimmt keiner zu werben.

Ailuros
2006-03-03, 21:42:19
Der Vergleich hinkt gewaltig.

PurVideo wird beworben ohne einen Hinweis das ohne den Decoder fast nichts funktioniert.
Es bleibt afaik nur die lumpige MPEG2 Hardwarebeschleunigung übrig.
Und für ein 10 Jahre altes Features braucht bestimmt keiner zu werben.

Wenn eine Applikation wie PowerDVD oder winDVD einen eigenen software Decoder bereitstellt, dann wird sehr wohl die dementsprechende Hardware auch benutzt.

Ich bin zwar selber gegen die Politik dass man fuer decoder bezahlen sollte, ueberhaupt bei high end GPUs, aber es ist auch nicht so dass man ohne decoder auf HW-beschleunigung ausserhalb von mpeg2 verzichtet.

Gast
2006-03-03, 21:49:44
Der Vergleich hinkt gewaltig.

PurVideo wird beworben ohne einen Hinweis das ohne den Decoder fast nichts funktioniert.
Es bleibt afaik nur die lumpige MPEG2 Hardwarebeschleunigung übrig.
Und für ein 10 Jahre altes Features braucht bestimmt keiner zu werben.

SM3 wird beworben ohne zu sagen dass man es ohne entsprechendes spiel nicht nutzen kann.

und dass ohne entsprechenden decoder (fast) nichts funktioniert ist auch falsch. genauer gesagt funktionieren alle features außer einer beschleunigten decodierung wenn eine software das overlay benutzt.

lediglich die beschleunigung der decodierung braucht eine spezielle softwareanpassung, was auch logisch ist. wieso sollte diese software gratis sein?

ShadowXX
2006-03-03, 21:50:13
neuer versuch: die TMU blockiert die erste SU nichtmehr (so lange)?
Dafür müssten Sie wohl die ganze Architektur umstricken.....was nicht gerade "klein" wäre.

Es wird was völlig banales sein........irgendetwas woran überhaupt keiner denkt.

Karamanga
2006-03-03, 22:36:33
Dafür müssten Sie wohl die ganze Architektur umstricken.....was nicht gerade "klein" wäre.

Es wird was völlig banales sein........irgendetwas woran überhaupt keiner denkt.

ah - ich weiß es: dann kann es bestimmt ein beleuchteter Lüfter sein ;D

Raff
2006-03-03, 22:48:32
Ich tippe mal spontan auf lächerliche Abwärme & Verbrauch.

MfG,
Raff

Gast
2006-03-03, 22:55:23
Ich tippe mal spontan auf lächerliche Abwärme & Verbrauch.

MfG,
Raff


garnicht schlecht, ~300Mio Transen in 90nm bei "nur" 650MHz sollten eigentlich ziemlich sparsam sein.

LovesuckZ
2006-03-03, 23:02:20
Ich tippe mal spontan auf lächerliche Abwärme & Verbrauch.


Naja,
das wird erwartet, wenn es nur eine Die-Shrink gab.
Die GT, sollte das Bild ein Orginalwerk sein, scheint dies auch gelungen.

aths
2006-03-04, 03:24:07
neuer versuch: die TMU blockiert die erste SU nichtmehr (so lange)?Auch das wäre eine sehr große Überraschung. Es gibt aber nur eine kleine.

garnicht schlecht, ~300Mio Transen in 90nm bei "nur" 650MHz sollten eigentlich ziemlich sparsam sein.Genauer gesagt, gibt es zwei kleine Überraschungen.

OBrian
2006-03-04, 04:26:30
Auch das wäre eine sehr große Überraschung. Es gibt aber nur eine kleine.

Genauer gesagt, gibt es zwei kleine Überraschungen.Sie haben den Takt angehoben (gegenüber den Gerüchte-Werten), und zwar bei Vertexshadern und RAM jeweils 5 MHz. Wären zwei kleine, unmerkbare Überraschungen. ;)

Ailuros
2006-03-04, 08:04:53
Er bezieht sich auf was ganz anderes, was praktisch am Ende der pipeline liegt.

mapel110
2006-03-04, 08:12:11
Er bezieht sich auf was ganz anderes, was praktisch am Ende der pipeline liegt.
Es gibt doch 24 ROPs? :D

Ailuros
2006-03-04, 08:59:24
Es gibt doch 24 ROPs? :D

Nein. Zwar kein schlechter Schuss aber noch 5 Tage Geduld bitte.

Gast
2006-03-04, 11:49:55
Genauer gesagt, gibt es zwei kleine Überraschungen.


doch ein takt von ~750MHz?

ShadowXX
2006-03-04, 12:03:02
Nein. Zwar kein schlechter Schuss aber noch 5 Tage Geduld bitte.

Kein F@S mehr....

Gast
2006-03-04, 12:16:30
Ich würde gerne wissen, ob eine Art Cool´n Quiet für Grafikkarten geplannt ist? Mich interessiert, ob sich die kommende sparsame 35 Watt CPU mit einer schnellen Grafikkarte kombinieren lässt, ohne dass diese im 2d Betrieb das mehrfache des Prozessors verbraucht. Wurde in dieser Richtung etwas angekündigt?

Winter[Raven]
2006-03-04, 12:17:53
Wozu? bzw. gibt es doch schon lange.

im 2D Betrieb schalten die Chips sowieso auf Low-CoreVolt.

aths
2006-03-04, 18:19:23
Er bezieht sich auf was ganz anderes, was praktisch am Ende der pipeline liegt.Trallalaaa :) Nicht zu viel verraten :)

Es gibt doch 24 ROPs? :DNein. Das wäre auch unnötig. Für reine Füllratentests gibt es eh schon ROP-Optimierungen (seit NV40), die aber eigentlich nur für bessere Werte im Synthi zu gebrauchen sind.


doch ein takt von ~750MHz?Löl nein, das wärs ja … ich sagte doch, kleine Überraschungen. Nix, was man groß erwähnen müsste.

Mein 7900-Artikel, so es überhaupt einen geben wird, dürfte eigentlich nur aus 1-2 Absätzen bestehen. Viel zu sagen gibt es nicht. Andererseits *plane* ich einen Artikel, in dem die Frage wie viele "Shader-ALUs" R580 und G70 nun wirklich haben behandelt wird. (G71 ist in dieser Frage identisch zum G70.) Ob da ein Mini-Artikel zur 7900/7600 überhaupt lohnt, wird man sehen.

Coda
2006-03-04, 18:28:04
G71 ist in dieser Frage identisch zum G70.Darf man das denn jetzt schon so frei sagen?

Spasstiger
2006-03-04, 18:28:23
Eine funktionierende Tonemapping-Unit?

Gast
2006-03-04, 18:37:25
Eine funktionierende Tonemapping-Unit?

was soll dass ohne api-unterstützung bringen?

Iwan
2006-03-04, 18:48:22
']Wozu? bzw. gibt es doch schon lange.

im 2D Betrieb schalten die Chips sowieso auf Low-CoreVolt.

Aber bei Vista gibts ja dann praktisch keinen 2D-Betrieb mehr, von daher wäre ein lastabhängiges verfahren ähnlich cool&quiet schon gut.

mapel110
2006-03-04, 19:05:35
Nein. Zwar kein schlechter Schuss aber noch 5 Tage Geduld bitte.
Also werden die ROPs in Bezug auf etwas spezielles "fähiger"? :)
HDR+AA, kann man wirklich kleine Überraschung nennen, weil selbst der G71 dafür immernoch zu lahm ist, genau wie R580.

Gast
2006-03-04, 19:09:53
Also werden die ROPs in Bezug auf etwas spezielles "fähiger"? :)


die ROPs haben nun auch mit FSAA die doppelte Z/Stencil-leistung?

Kladderadatsch
2006-03-04, 19:11:44
HDR+AA, kann man wirklich kleine Überraschung nennen, weil selbst der G71 dafür immernoch zu lahm ist, genau wie R580.
naja. aber immerhin läufts mit zweien, was dem ein oder anderen die wahl zwischen sli oder crossfire im sinne von nv erleichtern könnte...

Udragor
2006-03-04, 19:15:14
Zwei kleine Überraschungen.. hmm.... am ende der Pipelines...HMMM...
also GANZ am Ende sitzt nur eins

ich habs :ucatch:

erste Überraschung: Ein Bridge-Chip
zweite Überraschung: Sie kommt als AGP und PCIe :ulol: :uclap:

:biggrin:

Gast
2006-03-04, 19:16:46
erste Überraschung: Ein Bridge-Chip
zweite Überraschung: Sie kommt als AGP und PCIe :ulol: :uclap: Öhm, was hat das mit der Rendering-Pipeline zu tun?

aths
2006-03-04, 19:21:21
Darf man das denn jetzt schon so frei sagen?Ich stehe atm nicht mal unter NDA. Aber ich habe eben auch keine Infos, wenn ich gefragt werde.

Eine funktionierende Tonemapping-Unit?Das wäre eine große Überraschung.

Also werden die ROPs in Bezug auf etwas spezielles "fähiger"? :)
HDR+AA, kann man wirklich kleine Überraschung nennen, weil selbst der G71 dafür immernoch zu lahm ist, genau wie R580.Auch das wäre eine große Überraschung.

die ROPs haben nun auch mit FSAA die doppelte Z/Stencil-leistung?Haben sie sowieso, seit NV30.

reunion
2006-03-04, 19:44:08
Das wäre eine große Überraschung.

Auch das wäre eine große Überraschung.


Na dann kann es sich ja wirklich nur um eine Winzigkeit handeln.


Haben sie sowieso, seit NV30.

Aber diese wird im Gegensatz zu ATi-GPUs schon ab 2xMSAA halbiert.

Gast
2006-03-04, 20:04:02
Zwei kleine Überraschungen.. hmm.... am ende der Pipelines...HMMM...
also GANZ am Ende sitzt nur eins

ich habs :ucatch:

erste Überraschung: Ein Bridge-Chip
zweite Überraschung: Sie kommt als AGP und PCIe :ulol: :uclap:

:biggrin:

LOL - dann werden sich aber einige 6800/7800GS-Besitzer in den Arsch beißen

Tommy

aths
2006-03-04, 20:15:04
Na dann kann es sich ja wirklich nur um eine Winzigkeit handeln.Jain. In Bezug auf eine bestimmte Sache kann es geringfügig Vorteile bringen.

Wer eine 7800 GTX hat, dürfte keine Veranlassung sehen, eine 7900 GTX zu kaufen.

Wer noch keine 7800 hat, dürfte sich fragen, ob er wirklich das G70-AF will oder nicht lieber "Area-AF" von ATI nutzt.

Aber diese wird im Gegensatz zu ATi-GPUs schon ab 2xMSAA halbiert.Ja, aber ist eben auch im "Grundzustand" schon doppelt so hoch. Ich halte Nvidias ROP-Gestaltung für den transistoreffizienteren Weg: Seit NV40 nur 16 ROPs, die aber bei reinem Z-Test doppelte Leistung bringen statt wie bei ATI 32 ROPs, die aber nur ab 2x MSAA nutzbar sind. Dass die ROPs die Endleistung inzwischen weniger limitieren als man denkt sieht man gut beim NV43: Bei 8 Pipes nur 4 ROPs, und trotzdem bei komplexer Grafik mehr Leistung als bei einem R420, der für 8 Pipes sogar 16 ROPs hat. Auf die ROPs kommt es nicht mehr so an.

Banshee18
2006-03-04, 20:26:43
32 ROPs bei ATI? :uconf2:
Ich lese immer und überall von 16 ROPs.

Winter[Raven]
2006-03-04, 20:32:42
Jain. In Bezug auf eine bestimmte Sache kann es geringfügig Vorteile bringen.

Wer eine 7800 GTX hat, dürfte keine Veranlassung sehen, eine 7900 GTX zu kaufen.

Wer noch keine 7800 hat, dürfte sich fragen, ob er wirklich das G70-AF will oder nicht lieber "Area-AF" von ATI nutzt.


Sagen wir so, Daheim habe ich noch eine GF6800 Ultra, AF ist für mich völlig OK! Auf der Arbeit habe ich eine 7800 GTX, AF völlig ok, nebenan eine 1800, AF etwas schöner. Was würde ich nehmen? :biggrin: ;D

Dieses rumgehype um dieses neue AF von ATi kann ich echt nicht verstehen... aber jedem das seine.

aths
2006-03-04, 20:41:21
32 ROPs bei ATI? :uconf2:
Ich lese immer und überall von 16 ROPs.Ja, 32 ROPs sind es auch erst ab 2x MSAA. Das heißt, das könnte mal mit Zeckis Archmark nachgeprüft werden. (Z-Füllrate bei 1x, 2x, 4x und 6x MSAA.)

Banshee18
2006-03-04, 20:57:23
Sind ROPs nicht was physikalisches?
Aus einem Kasten Bier werden ja auch nicht plötzlich zwei.
Haben die ATIs also tatsächlich 32, wovon sie jedoch ohne AA nur die Hälfte nutzen können? Ab welchem Chip ist das so? Warum wird das in Reviews nie erwähnt?

Gast
2006-03-04, 21:05:29
Nein, es sind 16, die mit MSAA doppelt so effektiv arbeiten.

reunion
2006-03-04, 21:38:43
Ja, aber ist eben auch im "Grundzustand" schon doppelt so hoch. Ich halte Nvidias ROP-Gestaltung für den transistoreffizienteren Weg: Seit NV40 nur 16 ROPs, die aber bei reinem Z-Test doppelte Leistung bringen statt wie bei ATI 32 ROPs, die aber nur ab 2x MSAA nutzbar sind.

Ohne MSAA sollten die ROPs auch kaum limitieren. ATi wird sich schon was dabei gedacht haben, die RV530-ROPs mit doppelter Z/Stencil-Leistung nach nV-Vorbild nicht auch für R580 übernommen zu haben.


Dass die ROPs die Endleistung inzwischen weniger limitieren als man denkt sieht man gut beim NV43: Bei 8 Pipes nur 4 ROPs, und trotzdem bei komplexer Grafik mehr Leistung als bei einem R420, der für 8 Pipes sogar 16 ROPs hat. Auf die ROPs kommt es nicht mehr so an.

Wie kommst du bei R420 auf 8 Pipelines?

Ja, 32 ROPs sind es auch erst ab 2x MSAA. Das heißt, das könnte mal mit Zeckis Archmark nachgeprüft werden. (Z-Füllrate bei 1x, 2x, 4x und 6x MSAA.)

Hier ein sehr informativer Thread dazu:
http://www.beyond3d.com/forum/showthread.php?t=27037

Gast
2006-03-04, 21:40:29
Wie kommst du bei R420 auf 8 Pipelines?Er meint wohl eine x800gt oder x800se.

O RLY?
2006-03-04, 21:45:32
http://img234.imageshack.us/img234/9695/7xxxcards8kl3ax.jpg

aths
2006-03-04, 21:46:40
Sind ROPs nicht was physikalisches?
Aus einem Kasten Bier werden ja auch nicht plötzlich zwei.
Haben die ATIs also tatsächlich 32, wovon sie jedoch ohne AA nur die Hälfte nutzen können? Ab welchem Chip ist das so? Warum wird das in Reviews nie erwähnt?Dass R300 mit 2x MSAA keine Füllrateneinbußen hat, ist doch lange bekannt. Soweit ich weiß trifft das auf R520/R580 ebenfalls zu.

Ohne MSAA sollten die ROPs auch kaum limitieren. ATi wird sich schon was dabei gedacht haben, die RV530-ROPs mit doppelter Z/Stencil-Leistung nach nV-Vorbild nicht auch für R580 übernommen zu haben.Die haben nach wie vor 2 ROPs pro Pipe, und brauchen die doppelte Z-only-Leistung entsprechend nicht.

Wie kommst du bei R420 auf 8 Pipelines?Indem ich den R350 meinte :)

Weiss noch nicht
2006-03-04, 22:17:18
HMM ich bin ja eigentlich mehr zu Nvdia hingezogen aber das hört sich ja nicht wirklich berauschend an.Ich überlege mir vielleicht doch noch eine X1900 zu kaufen ich habe 2 Fragen dazu.

Was glaubt ihr welche Karte für zukünftige Spiele besser gerüstet ist?Ati hat ja diese 48 ALus Nvidia auch ?
HDR-AA Glaubt ihr das bald viele Spiele Fp 16 HDr-AA unterstützen werden?

Die beiden Fragen zerbrecjen mir grade denn Kopf(D)ich hoffe es kan mall einer darauf antworten damiit ich endlich bestellen kann.;);(

Gast
2006-03-04, 22:19:08
http://img234.imageshack.us/img234/9695/7xxxcards8kl3ax.jpg

wie kann denn eine 7900GT so einen minikühler haben?

bei der 7900GTX habe ich aber eher mit einer single-slot-kühlung gerechnet, sollte ja eigentlich nicht mehr strom als die 7800GTX256 brauchen.

AnarchX
2006-03-04, 22:24:28
wie kann denn eine 7900GT so einen minikühler haben?


Warum nicht: 90nm und Taktrate von 450Mhz...

Gast
2006-03-04, 22:30:08
Warum nicht: 90nm und Taktrate von 450Mhz...
Mit denn Kühler scheint nicht viel Luft nach oben zu sein.:rolleyes:

Gast
2006-03-04, 23:30:32
Was glaubt ihr welche Karte für zukünftige Spiele besser gerüstet ist?Ati hat ja diese 48 ALus Nvidia auch ?


nvidia hat 2 (MADD)ALUs/pipe, ATI 3, insgesamt also beide 48.
bei NV ist die erste ALU bei gleichzeitiger texturfilterung allerdings nur eingeschränkt nutzbar. wie stark diese einschränkung ist weiß momentan nur NV wirklich, manche sagen das nur die texturkordinatenberechnung die ALU blockiert, andere wieder dass der gesamte filtervorgang eine blockade auslöst (bei 16xTri-AF wären das immerhin 32 takte).

wie es genau aussieht weiß wie gesagt nur NV.

ATIs ALUs arbeiten dagegen unabhängig von den TMUs, können also, vor allem zusammen mit dem guten dynamischen branching effizienter eingesetzt werden.

daneben haben beide hersteller noch "spezial-ALUs" um aufwendige befehle schnell abarbeiten zu können. wer hier die bessere leistung hat weiß ich nicht, aber ich denke das NV leichte vorteile hat (z.b. NRM_PP for free)

der vorteil von NV wird die enorme texelfüllrate sein, die immerhin ~50% über jener von ATI liegt. auch wenn die arithmetikleistung immer wichtiger wird spielt die texelfüllrate noch immer eine große rolle (nicht umsonst überbieten sich die IHVs ständig mit neuen "optimierungen" ;) )

insgesamt denke ich daher dass NV rein speedmäßig momentan leichte vorteile haben wird. bei zukünftigen spielen könnte sich die starke arithmetikpower der x1900 bezahlt machen. je rechenlastiger ein shader ist, desto weniger fällt allerdings die blockade der ALU durch die TMU auch immer weniger ins gewicht.

insgesamt denke ich das es ziemlich pari ausgehen wird, mal ein vorteil für die eine, mal für die andere karte.



HDR-AA Glaubt ihr das bald viele Spiele Fp 16 HDr-AA unterstützen werden?


halte ich für recht unwahrscheinlich, es werden denke ich weiter nur einzelne spiele sein. bis HDRR weit verbreitet ist werden wahrscheinlich beide karten zu langsam dafür sein, erst recht mit FSAA.

Banshee18
2006-03-04, 23:35:33
Dass R300 mit 2x MSAA keine Füllrateneinbußen hat, ist doch lange bekannt. Soweit ich weiß trifft das auf R520/R580 ebenfalls zu.
Ja, aber von 32 ROPs zu sprechen ist falsch, sie sind nur mit 2xAA doppelt so effektiv und verdoppeln sich nicht auf wunderbare Art und Weise.

aths
2006-03-05, 00:34:47
nvidia hat 2 (MADD)ALUs/pipe, ATI 3, insgesamt also beide 48.
bei NV ist die erste ALU bei gleichzeitiger texturfilterung allerdings nur eingeschränkt nutzbar. wie stark diese einschränkung ist weiß momentan nur NV wirklich, manche sagen das nur die texturkordinatenberechnung die ALU blockiert, andere wieder dass der gesamte filtervorgang eine blockade auslöst (bei 16xTri-AF wären das immerhin 32 takte).

wie es genau aussieht weiß wie gesagt nur NV.Während der Texturfilterung werden, wenn überhaupt, alle ALUs blockiert. Nur die Textur-Operation, also die einleitende Berechnung die vor der Filterung stattfindet, blockert die erste Shading-Unit, da die Daten zur Tex-Unit, die zwischen Shading Unit 1 und Shading Unit 2 sitzt, nicht über extra-Pfade geht.

Sollte das Ergebnis der Texturfilterung auf sich warten lassen, stockt der gesamte Quadbatch, womit alle ALUs warten müssen.


Ja, aber von 32 ROPs zu sprechen ist falsch, sie sind nur mit 2xAA doppelt so effektiv und verdoppeln sich nicht auf wunderbare Art und Weise.Es sind schon 2 ROPs pro Pipe, also 32 ROPs insgesamt, aber ohne MSAA wird nur eine der beiden ROPs genutzt.

Raff
2006-03-05, 01:29:49
Mit denn Kühler scheint nicht viel Luft nach oben zu sein.:rolleyes:

Da wäre ich nicht so sicher. ;) Bereits die 7800 GTX-256 war keine Heizung. Die 90-nm-Fertigung setzt dem noch mal einen drauf. Würde mich wahrlich nicht wundern, wenn jede 7900 GT auch mit dem Standard-Billigkühler 7800-GTX-512-Takte mitmacht (Chip).

MfG,
Raff

Winter[Raven]
2006-03-05, 02:20:47
Hmmm, da haben wir anscheinend die selbe Situation wie vor 1 1/2 Jahren mit ATI, Stromsparend, extrem leise, etwas schneller als die Konkurrez aber nicht so schön von der IQ. Ich schätze mal die Runde geht auch an Nvidia.

EW
2006-03-05, 02:31:51
']Hmmm, da haben wir anscheinend die selbe Situation wie vor 1 1/2 Jahren mit ATI, Stromsparend, extrem leise, etwas schneller als die Konkurrez aber nicht so schön von der IQ. Ich schätze mal die Runde geht auch an Nvidia.

In der Preisklasse achte ich auf Performance nicht auf denn Stromverbrauch.:P
Die 50 Watt mehr jucken mich bestimmt nicht im geringsten wieviel Euro in Monat sind das mehr HMMM 30 CEnt.:rolleyes:;)

O RLY?
2006-03-05, 02:34:54
Da wäre ich nicht so sicher. ;) Bereits die 7800 GTX-256 war keine Heizung. Die 90-nm-Fertigung setzt dem noch mal einen drauf. Würde mich wahrlich nicht wundern, wenn jede 7900 GT auch mit dem Standard-Billigkühler 7800-GTX-512-Takte mitmacht (Chip).

MfG,
Raff
Jepp, lässt sich so vermuten.
Ich glaube persöhnlich, dass der 90nm G71 ab gut 700 MHz-Coretakt +/- 20 MHz seine Grenzen (Volt-Mod's und LN2 lassen wir mal aussen vor *g*) erreicht haben wird!

Ailuros
2006-03-05, 07:40:08
Also werden die ROPs in Bezug auf etwas spezielles "fähiger"? :)
HDR+AA, kann man wirklich kleine Überraschung nennen, weil selbst der G71 dafür immernoch zu lahm ist, genau wie R580.

HDR + MSAA + FP Filterung waere ein Beinbruch fuer alle heutigen GPUs. Dank Design-entscheidungen bekommt man heutztutage HDR mit entweder/oder auf GPUs. Wenn es aber um solche Dilemmas geht, ist mir persoenlich MSAA lieber.

Das Ganze kommt dann eben erst mit D3D10; wir bekommen dann endlich (hoffentlich) sehr faehige SM3.0 GPUs mit den D3D10 als extra Dekoration damit Entwickler damit experimentieren koennen. "Gute" D3D10 GPUs dann erst mit D3D10+1 oder was zum Henker danach kommt (wer zum Teufel blickt heutzutage noch durch mit dem API Schlammasel?).

Kladderadatsch
2006-03-05, 08:49:19
Da wäre ich nicht so sicher. ;) Bereits die 7800 GTX-256 war keine Heizung. Die 90-nm-Fertigung setzt dem noch mal einen drauf. Würde mich wahrlich nicht wundern, wenn jede 7900 GT auch mit dem Standard-Billigkühler 7800-GTX-512-Takte mitmacht (Chip).

MfG,
Raff
glaube ich auch. warum einen hochfrequenten quirl draufsetzen, wenn so ein gemächliches ding einerseits im standardbetrieb leise ist, andererseits das oc-potential zumindest thermisch bedingt erhöht.

Gunslinger
2006-03-05, 10:27:28
wie kann denn eine 7900GT so einen minikühler haben?

Genau so etwas suche ich als Nachfolger für meine X800XL. Halbwegs leise, single slot Kühler und gutes P/L Verhältnis.

Mumins
2006-03-05, 10:43:18
']Hmmm, da haben wir anscheinend die selbe Situation wie vor 1 1/2 Jahren mit ATI, Stromsparend, extrem leise, etwas schneller als die Konkurrez aber nicht so schön von der IQ. Ich schätze mal die Runde geht auch an Nvidia.

Dass die 7900GTX schneller sein wird als die X1900XTX halte ich für eine gewagte These. Wenn überhaupt´, dann zieht sie gleich.

Winter[Raven]
2006-03-05, 11:04:17
Es wird so ähnlich enden wie man es doch kennt, der eine ist in einem Spiel schneller, der andere in einem anderem.... Das selbe Spielchen wie immer.

Coda
2006-03-05, 11:26:28
Denke auch. In FEAR wird ATI vorn bleiben, in Quake 4 wohl kaum.

Winter[Raven]
2006-03-05, 11:29:58
Denke auch. In FEAR wird ATI vorn bleiben, in Quake 4 wohl kaum.

G71 ist doch sowieso nur eine "Überbrückung" bis zum G80 der ja eine Wundertüte wird... :biggrin:

Coda
2006-03-05, 11:34:01
Na von der Wundertüte bin ich auch noch nicht so überzeugt, vor allem was IQ angeht. Wenn nVIDIA nicht mit ATis HQ-AF gerechnet hat, kann es sein dass es für G80 wieder kein winkelunabhängiges AF gibt.

Andererseits wird ATI für R600 endlich seine alten TMU-Algorithmen kippen müssen und damit wird das Ding wohl zum Uber-Chip von den Features und der IQ. Das stört mich an R5xx einfach brutal.

reunion
2006-03-05, 11:54:19
Denke auch. In FEAR wird ATI vorn bleiben, in Quake 4 wohl kaum.

Prinzipiell richtig, nur habe ich in Quake4 (http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_24.html) mit einer X1900XTX in 1600x1200 4xAA/16xAF ~100fps, während ich bei Fear über jedes zusätzliche Frame froh sein muss.

Neon3D
2006-03-05, 14:13:38
die wird auch am 9. erhältlich sein. der preis soll niedrig, konkurrenzfähig sein. imo (und hoffentlich) bei 500-550 euro.
500 teuros, niedrig ? :ucrazy:

Kladderadatsch
2006-03-05, 15:26:46
500 teuros, niedrig ? :ucrazy:
verglichen mit den letzten karten sind 500 euro jedenfalls sehr angenehm. ich bin heilfroh, erst jetzt wieder aufzurüsten...

Spasstiger
2006-03-05, 15:52:40
500 teuros, niedrig ? :ucrazy:
Ne 7800 GTX 256 MB kostet immer noch unverschämte 450 Euro, während eine schnellere Radeon X1800 XT 512 MB für 360 Euro erhältlich ist. Für NVidia-Verhältnisse wären 500 Euro für eine 7900 GTX sehr günstig.

up¦²
2006-03-05, 15:56:44
Kleiner muntermacher! :wink:

http://i16.photobucket.com/albums/b14/denniszzz/7900GTX.jpg

http://i16.photobucket.com/albums/b14/denniszzz/7900GTXSpec.jpg

http://i16.photobucket.com/albums/b14/denniszzz/3dmark2006.jpg

Quelle: (http://forums.hardwarezone.com/showthread.php?t=1229856)

Klar: deppenskala, aber 14% sind schon nett!

reunion
2006-03-05, 16:00:15
Klar dass beim 3dmark ohne AA der höhere Takt relativ gut durchschlägt, gespannt bin ich, wie es mit Qualitätsfeatures aussieht.

Kladderadatsch
2006-03-05, 16:00:26
Kleiner muntermacher! :wink:

http://i16.photobucket.com/albums/b14/denniszzz/7900GTX.jpg

http://i16.photobucket.com/albums/b14/denniszzz/7900GTXSpec.jpg

http://i16.photobucket.com/albums/b14/denniszzz/3dmark2006.jpg

Quelle: (http://forums.hardwarezone.com/showthread.php?t=1229856)

Klar: deppenskala, aber 14% sind schon nett!
ist das nur die 7800gtx (also nicht 512mb)? naja...
die skala ist ist genial:D

up¦²
2006-03-05, 16:09:53
Wäre es nicht interessant, die frage zu präzisieren: Wann kommt denn die 7900 mit GDDR4?

1,6 GHz ist doch noch schongang :biggrin:

MadManniMan
2006-03-05, 16:17:17
verglichen mit den letzten karten sind 500 euro jedenfalls sehr angenehm. ich bin heilfroh, erst jetzt wieder aufzurüsten...

Mei, ich sachs mal so:

Kaufe jeder, was für gut und nötig hält, aber wenn man schon > 300€, fast aber gar 500€ ausgeben will, so sollte man sich den relativen Wahnsinn doch immerhin eingestehen, nich?

up¦²
2006-03-05, 16:22:47
Mal so nebenbei: die konkurenz als referenz :tongue:
X1900XTX: $549 (-$100)
X1900XT: $479 (-$70)
X1800XT512: $349 (-$100)
X1800XT256: $299 (-$100)
X1800XL512: $299 new
X1800XL256: $249 - $279 (-$50)
X1800GTO: $199 - $249
X1600XT256: $149
X1600Pro256: $109

Geleckte preise von BFG, XFX und PNY GF7900-serie: :wink:
BFG 7900 gtx 512 mb 549.99
BFG 7900 gt 256 mb 349.99
PNY 7900 gtx 512mb 549.99
XFX 7900 gtx XXX 512mb 649.99
XFX 7900 gtx extreme 512mb 599.99
XFX 7900 gtx 512mb 549.99
XFX 7900 gt XXX 256mb 374.99
XFX 7900 gt extreme 256mb 349.99
XFX 7900 gt 256mb 349.99

Also eine XFX 7900 gt 256mb für 295€ wär doch nett, oder?

O RLY?
2006-03-05, 16:31:28
Aha, die 7900 GTX scheint einen niedrigeren Speichertakt im vergleich zur 7800 GTX 512 zu haben -> 800 MHz vs. 850 MHz.
Dafür trumpft sie mit einem 100 MHz höher getaktetem Core auf :)

aths
2006-03-05, 16:47:53
']Hmmm, da haben wir anscheinend die selbe Situation wie vor 1 1/2 Jahren mit ATI, Stromsparend, extrem leise, etwas schneller als die Konkurrez aber nicht so schön von der IQ. Ich schätze mal die Runde geht auch an Nvidia.Hrm? Wenn du mit IQ die Image Quality, also Bildqualität meinst, inwiefern siehst du da aktuelle NV-Produkte vorne??

reunion
2006-03-05, 16:53:24
Ließ den Satz noch einmal aths.

Coda
2006-03-05, 17:02:41
Prinzipiell richtig, nur habe ich in Quake4 (http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_24.html) mit einer X1900XTX in 1600x1200 4xAA/16xAF ~100fps, während ich bei Fear über jedes zusätzliche Frame froh sein muss.Ich weiß nicht, aber bei mir läuft Quake 4 auf 1600/4x/16xAF nicht immer richtig flüssig. Hab zwar nur ne 7800 GTX 256 - aber dennoch glaube ich nicht dass das auf der 1900XT immer flüssig sein wird.

Ließ den Satz noch einmal aths.Ich habs auch irgendwie so wie Aths verstanden, aber klär mich mal auf.

Die_Allianz
2006-03-05, 17:08:53
']Hmmm, da haben wir anscheinend die selbe Situation wie vor 1 1/2 Jahren mit ATI, Stromsparend, extrem leise, etwas schneller als die Konkurrez aber nicht so schön von der IQ. Ich schätze mal die Runde geht auch an Nvidia.

na is klar: 'Hmmm, da haben wir anscheinend die selbe Situation wie vor 1 1/2 Jahren mit ATI' jetzt bei nV

€dit: nein ihr habt recht, irgendwas an dem satz ist nicht ganz eindeutig :confused:

Ronny145
2006-03-05, 17:10:53
Ich habs auch irgendwie so wie Aths verstanden, aber klär mich mal auf.


"aber nicht so schön von der IQ"



Also meint er, dass die IQ bei NVIDIA schlechter ist.

Gast
2006-03-05, 17:12:27
Mal so nebenbei: die konkurenz als referenz :tongue:


Geleckte preise von BFG, XFX und PNY GF7900-serie: :wink:


Also eine XFX 7900 gt 256mb für 295€ wär doch nett, oder?
Nach denn Preisen steht für mich fest das die X1900 XT der verkaufsschlager wird.!?

Black-Scorpion
2006-03-05, 17:13:02
Also eine XFX 7900 gt 256mb für 295€ wär doch nett, oder?
Sicher wäre das ein guter Preis.
Nur frage ich mich wie du auf den Preis kommst.

Gast
2006-03-05, 17:14:34
Also eine XFX 7900 gt 256mb für 295€ wär doch nett, oder?

Also eine 7900 GT für 299 € is echt nen guter preis.
Wenn das mit dem preis stimmt :) <- schaunwirma

Fazit ?
2006-03-05, 17:20:31
Also eine 7900 GT für 299 € is echt nen guter preis.
Wenn das mit dem preis stimmt :) <- schaunwirma

Wenn die KArte wirklich langsamer ist als eine X1800 XT rentiert sich der Preis nicht weil
7900 Gt probleme.
Kein 512 MB Graka Ram
HDR-AA -
HQ-AF -
Leicht schlechtere Bildqualität -
Zur konkurenz miserable AA-AF Performance -

Verbssert mich wenn ich falsch liege.:up:
.

Gast
2006-03-05, 17:26:48
Wenn die KArte wirklich langsamer ist als eine X1800 XT rentiert sich der Preis nicht weil
7900 Gt probleme.
Kein 512 MB Graka Ram
HDR-AA -
HQ-AF -
Leicht schlechtere Bildqualität -
Zur konkurenz miserable AA-AF Performance -

Verbssert mich wenn ich falsch liege.:up:
.

Langsamer als eine x1800 XT?
soll wohl nen witz sein?
Selbst wenn sie 5% langsamer is als eine X1900 XT
kost sie schonmal mehr als 100 € weniger
wozu 512 ram?
miserable AA-AF Performance = is übertieben ! (ansichtsache)

Coda
2006-03-05, 17:29:40
Also meint er, dass die IQ bei NVIDIA schlechter ist.Ja aber wo war denn bitte ATI vor 1,5 Jahren schlechter von der IQ? X-D

reunion
2006-03-05, 17:29:59
Ich weiß nicht, aber bei mir läuft Quake 4 auf 1600/4x/16xAF nicht immer richtig flüssig. Hab zwar nur ne 7800 GTX 256 - aber dennoch glaube ich nicht dass das auf der 1900XT immer flüssig sein wird.


Kann sein, ich kann mich nur auf die Benchs beziehen.
Auf jeden Fall sollte man bei Fear wesentlich mehr Probleme mit der Performance bekommen.


Ich habs auch irgendwie so wie Aths verstanden, aber klär mich mal auf.

So wie ich den Satz verstanden habe, will er sagen, dass nV aktuell in einer ähnlichen Situation wie ATi vor 1.5 Jahren steckt. Also "Stromsparend, extrem leise, etwas schneller als die Konkurrez aber nicht so schön von der IQ".

Natürlich ist der Satz etwas krumm und nicht unbendigt korrekt, aber von besserer IQ spricht er eindeutig nicht. :)

Ronny145
2006-03-05, 17:34:22
Ja aber wo war denn bitte ATI vor 1,5 Jahren schlechter von der IQ? X-D


Das ist wieder was anderes und muss er beantworten.

Kladderadatsch
2006-03-05, 17:34:41
Mei, ich sachs mal so:

Kaufe jeder, was für gut und nötig hält, aber wenn man schon > 300€, fast aber gar 500€ ausgeben will, so sollte man sich den relativen Wahnsinn doch immerhin eingestehen, nich?
den wahnsinn habt ihr mir eingebrockt; ohne das 3dc hätte ich wahrscheinlich noch immer meine süße mx440;)

ich will halt, bevor es 12 jahre zum bund geht, nochmal das leben genießen:usad:

gewissensbaldrian nr.3: ob nun jede generation 1x mainstream, oder jede zweite 1x high-end kommt aufs gleiche raus.

sry für ot.

up¦²
2006-03-05, 17:34:56
Sicher wäre das ein guter Preis.
Nur frage ich mich wie du auf den Preis kommst.

In der praxis hat sich sehr wohl ein $/€-bonus ergeben :wink:

Die GPU und das PCB sehen preiswert aus.
Immerhin sind auch 295€ kein pappenstiel für die meisten ...

Spasstiger
2006-03-05, 17:36:00
Das ist wieder was anderes und muss er beantworten.
Das ist nichts anderes, sondern genau das, was Aths und Coda unklar war.

reunion
2006-03-05, 17:39:16
Das ist nichts anderes, sondern genau das, was Aths und Coda unklar war.


Oh mann...

Hrm? Wenn du mit IQ die Image Quality, also Bildqualität meinst, inwiefern siehst du da aktuelle NV-Produkte vorne??

aths bezieht sich eindeutig auf aktuelle Produkte, und coda bezieht sich auf aths.

Ronny145
2006-03-05, 17:39:44
Das ist nichts anderes, sondern genau das, was Aths und Coda unklar war.


Hrm? Wenn du mit IQ die Image Quality, also Bildqualität meinst, inwiefern siehst du da aktuelle NV-Produkte vorne??


Wenn die 1,5 Jahre noch mit aktuell gemeint sind, dann stimme ich überein.

Frank1974
2006-03-05, 17:43:24
Ne 7800 GTX 256 MB kostet immer noch unverschämte 450 Euro, während eine schnellere Radeon X1800 XT 512 MB für 360 Euro erhältlich ist. Für NVidia-Verhältnisse wären 500 Euro für eine 7900 GTX sehr günstig.


Das Stimmt nicht ganz, seit ein paar Tagen ist diese GTX bei Geizhals gelistet http://www.geizhals.at/deutschland/a178834.html und ich bin sicher, das in den nächsten 1-2 Wochen auch die anderen Hersteller nachziehen.
Und das sie bei Alternate nur 379€ kostet will auch was heißen :wink:.

/edit
Aber es stimmt schon, ich würde auch lieber diese nehmen http://www.geizhals.at/deutschland/a180089.html :smile:.

MFG
Frank

Gast
2006-03-05, 18:32:23
Ja aber wo war denn bitte ATI vor 1,5 Jahren schlechter von der IQ? X-DEr meint wohl R300 vs. NV30 und sein Zeitgefühl hat ihn ein wenig getäuscht.

sklave_gottes
2006-03-05, 18:48:08
die 7900gt Langsamer als eine x1800 XT?
soll wohl nen witz sein?
Selbst wenn sie 5% langsamer is als eine X1900 XT

sie wird von der leistung viel näher an der x1800xt lliegen als an der x1900xt ohne oc.
Ist doch quasi eine 7800gtx mit 20mhz mehr clock und bischen mehr ram speed.

aths
2006-03-05, 19:22:01
Na von der Wundertüte bin ich auch noch nicht so überzeugt, vor allem was IQ angeht. Wenn nVIDIA nicht mit ATis HQ-AF gerechnet hat, kann es sein dass es für G80 wieder kein winkelunabhängiges AF gibt.Beim G80 wäre mal ein Schnitt angebracht: TMUs können trilinear (in einem Takt), AF wird per Extra-Logik und paar Loops realisiert. Das heißt, der Treiber bietet noch AF, aber die TMU-Logik wäre dann auch für "programmierbare Filter" geeignet.

Gast
2006-03-05, 20:08:25
Während der Texturfilterung werden, wenn überhaupt, alle ALUs blockiert. Nur die Textur-Operation, also die einleitende Berechnung die vor der Filterung stattfindet, blockert die erste Shading-Unit, da die Daten zur Tex-Unit, die zwischen Shading Unit 1 und Shading Unit 2 sitzt, nicht über extra-Pfade geht.

Sollte das Ergebnis der Texturfilterung auf sich warten lassen, stockt der gesamte Quadbatch, womit alle ALUs warten müssen.


was meinst du nun damit, werden die ALUs jetzt blockiert oder nicht?

Coda
2006-03-05, 20:11:45
TMUs können trilinear (in einem Takt)Nein. Das wollen wir gar nicht. Das funktioniert nicht gut mit AF zusammen. Wenn dann müsste man wieder 2 bilineare TMUs einbauen, was von der Bandbreite wiederrum idiotisch ist.

AF wird per Extra-Logik und paar Loops realisiert. Das heißt, der Treiber bietet noch AF, aber die TMU-Logik wäre dann auch für "programmierbare Filter" geeignet.Man weiß ja gar nicht so genau wie gut nVIDIA das schon bei NV4x/G7x einstellen kann.

aths
2006-03-06, 00:13:19
was meinst du nun damit, werden die ALUs jetzt blockiert oder nicht?Das hängt davon ab, wie der Scheduler die Befehle hinsortiert hat. Offenbar setzt er bei normalen Texturen immer nur 1 Takt pro Textur an. Nachteil: Dauert es länger, sind die ALUs blockiert. Vorteil: Es werden Temp-Register gespart.

Nein. Das wollen wir gar nicht. Das funktioniert nicht gut mit AF zusammen. Wenn dann müsste man wieder 2 bilineare TMUs einbauen, was von der Bandbreite wiederrum idiotisch ist.Tri-TMUs arbeiten sehr gut mit trilinearem AF zusammen. Beim AF gäbe es zwar Optimierungspotenzial, aber dann kann man auch gleich "programmierbare" 4x4-Kernel nutzen, und damit besonders fix AF machen oder Fast-Tri.

Man weiß ja gar nicht so genau wie gut nVIDIA das schon bei NV4x/G7x einstellen kann.Die Winkelabhängigkeit bei 4+x AF scheint nicht wegstellbar zu sein.

Banshee18
2006-03-06, 00:49:01
Es sind schon 2 ROPs pro Pipe, also 32 ROPs insgesamt, aber ohne MSAA wird nur eine der beiden ROPs genutzt.
Wie bereits erwähnt, liest man in jedem Artikel von 16 ROPs, z.B. in den Technik-Tabellen, die überall zu finden sind. Wäre es nicht richtiger, dort 32 zu schreiben und zu sagen, dass ohne AA eben nur 16 benutzt werden? Sogar ATI selbst spricht afaik von 16, obwohl die IHVs normalerweise gerne mit großen Zahlen protzen. Das verwundert mich, aber wahrscheinlich hänge ich mich an zu kleinen Details auf.

Spasstiger
2006-03-06, 00:54:38
Ich glaube, man spricht von 16 double-pumped ROPs.

aths
2006-03-06, 01:37:31
Ich vermeide Begriffe wie "double-pumped", so gut es geht.

Wie bereits erwähnt, liest man in jedem Artikel von 16 ROPs, z.B. in den Technik-Tabellen, die überall zu finden sind. Wäre es nicht richtiger, dort 32 zu schreiben und zu sagen, dass ohne AA eben nur 16 benutzt werden? Sogar ATI selbst spricht afaik von 16, obwohl die IHVs normalerweise gerne mit großen Zahlen protzen. Das verwundert mich, aber wahrscheinlich hänge ich mich an zu kleinen Details auf.NV spricht beim NV40 auch von 16 ROPs, obwohl bei reinem Z-Rendering 32 Zixel pro Takt durchlaufen können. Beim NV30 haben sie aus den 4 ROPs noch "8 Pipelines" gemacht.

Allerdings sind solche Sachen eher als Benchmark-Optimierung zu sehen: Wenn die Radeon tatsächlich nur 16 ROPs hätte, und bei 4x AA der Pixeloutput beim Singletexturing entsprechend verviertelt (und nicht nur halbiert) würde – wen kratzt das? Nur eine (nicht vergrößerte) Textur, die trilinear und 2x anisotrop gefiltert wird, und die ROPs limitieren schon nicht mehr. Dank den 32 ROPs gibts 2x MSAA beim (wie gesagt irrelevanten) Singletexturing noch "kostenlos".

Sofern allerdings ein Z-Pass zum Einsatz kommt, zahlen sich die ROPs aus – denn gerade beim MSAA braucht man dann massive ROP-Leistung. Deshalb hat ATI das wohl so gelassen.

Ailuros
2006-03-06, 09:32:11
Tri-TMUs arbeiten sehr gut mit trilinearem AF zusammen. Beim AF gäbe es zwar Optimierungspotenzial, aber dann kann man auch gleich "programmierbare" 4x4-Kernel nutzen, und damit besonders fix AF machen oder Fast-Tri.


Dass ich die tri-TMU Idee schon seit einiger Zeit unterstuetze duerfte bekannt sein, aber auch nur weil es viele idiotischen Filterungs-Pfuschereien redundant macht.

Von dem abgesehen hoere ich gerne auf logische Argumente und bin bereit meine Meinung einer guten Logik auch anzupassen. Es gab eine Debatte bei B3D wo jemand sagte dass Spiele immer noch zu viele bilineare Texturen benutzen, was in gewissen Sinn bedeuten koennte dass die HW-Investition doch teilweise zu einer quasi leichten Verschwendung fuehren koennte.

Ich wuerde hier aber liebend gerne wissen ob dieses ueberhaupt stimmt fuer heutige Spiele und wie die Tendenz fuer die absehbare Zukunft aussieht.

Nebenbei,

Coda Du liegst falsch angesichts G80 und Filterungsqualitaet generell ;)

Gast
2006-03-06, 11:11:34
']Wozu? bzw. gibt es doch schon lange.

im 2D Betrieb schalten die Chips sowieso auf Low-CoreVolt.

Hmm, wer erklärt mir dann folgende Werte?
http://techreport.com/reviews/2006q1/geforce-7800gs/index.x?pg=10

Da sieht man im idle 60 Watt Unterschied. Angenommen die x800 verbraucht ~30 Watt, so würde eine x1800 90Watt im idle Modus schlucken. Das ist doch kein C'n'Q.
Eine 9200 oder gf2mx verbrauchen im Desktop betrieb ~10 Watt und solche Werte stelle ich mir vor, wenn ich an C'n'Q denke.

Coda
2006-03-06, 11:12:58
Tri-TMUs arbeiten sehr gut mit trilinearem AF zusammen. Beim AF gäbe es zwar Optimierungspotenzial, aber dann kann man auch gleich "programmierbare" 4x4-Kernel nutzen, und damit besonders fix AF machen oder Fast-Tri..Nein tun sie nicht. Trilineares AF bedeutet zuerst für zwei Mipmaps bilineares AF zu berechnen und danach es nach dem LOD zu verrechnen. Es ist nicht so dass man 16 Tri-Samples für 16xTriAF nimmt und diese dann verrechnet.

Du siehst: Mit Tri-TMUs kann man für AF nicht einfach loopen.

aths
2006-03-06, 16:09:34
Nein tun sie nicht. Trilineares AF bedeutet zuerst für zwei Mipmaps bilineares AF zu berechnen und danach es nach dem LOD zu verrechnen. Es ist nicht so dass man 16 Tri-Samples für 16xTriAF nimmt und diese dann verrechnet.Doch, das ist der traditionelle Ansatz. Dabei bräuchte man, wenn man die MIPs einzeln sampelt, nur 24 (oder 23) Samples.

Du siehst: Mit Tri-TMUs kann man für AF nicht einfach loopen.Doch. Mit Tri-TMUs bräuchte man dann ja nur 16 (statt 23 oder 32) Takte. Nutzt man den G70-Ansatz, sogar in den meisten Fällen noch etwas weniger. Was die Takte angeht, fährst du mit Tri-TMUs in jedem Fall günstiger. Was die interne Bandbreite angeht – man muss mit jedem Verfahren alle betroffenen Texel erwischen, und die sollten im Cache liegen.

aths
2006-03-06, 16:12:23
Dass ich die tri-TMU Idee schon seit einiger Zeit unterstuetze duerfte bekannt sein, aber auch nur weil es viele idiotischen Filterungs-Pfuschereien redundant macht.

Von dem abgesehen hoere ich gerne auf logische Argumente und bin bereit meine Meinung einer guten Logik auch anzupassen. Es gab eine Debatte bei B3D wo jemand sagte dass Spiele immer noch zu viele bilineare Texturen benutzen, was in gewissen Sinn bedeuten koennte dass die HW-Investition doch teilweise zu einer quasi leichten Verschwendung fuehren koennte.

Ich wuerde hier aber liebend gerne wissen ob dieses ueberhaupt stimmt fuer heutige Spiele und wie die Tendenz fuer die absehbare Zukunft aussieht.Zumindest Lightmaps werden nur bilinear gefiltert. Wie es bei Normal-, Environment- und Glossmaps etc. aussieht weiß ich nicht.

Eine bilineare TMU, die in 2 Takten trilinear können soll, braucht 4 LERPs. Eine trilineare TMU braucht 7 LERPs. Trilineare TMUs sind demnach nicht doppelt so teuer wie bilineare. Sie bringen auch nicht doppelt so viel Leistung, da es Texturschichten gibt, die nicht trilinear gefiltert werden und man bei Texturvergrößerung prinzipiell nicht trilinear filtern kann.

Ailuros
2006-03-07, 01:46:59
Zumindest Lightmaps werden nur bilinear gefiltert. Wie es bei Normal-, Environment- und Glossmaps etc. aussieht weiß ich nicht.

Eine bilineare TMU, die in 2 Takten trilinear können soll, braucht 4 LERPs. Eine trilineare TMU braucht 7 LERPs. Trilineare TMUs sind demnach nicht doppelt so teuer wie bilineare. Sie bringen auch nicht doppelt so viel Leistung, da es Texturschichten gibt, die nicht trilinear gefiltert werden und man bei Texturvergrößerung prinzipiell nicht trilinear filtern kann.

Um doppelt so viel Leistung ging es mir ja eigentlich nie; eher darum dass Filterungs-pfuschereien (ueberhaupt jeglicher texturing-stage-Mist) und groessere Winkelabhaengigkeit endlich redundant werden.

Winter[Raven]
2006-03-07, 09:33:28
^^ ... der Unruhestifter ist wieder da *fg*

Sorry für das Missverständnis, ich habe eigentlich die R420 vs. NV40 verglichen, da ich der Meinung bin, dass das AF + Hybrid AA von NV etwas bessere IQ ablieferte als ATi, und ja man kann sich darüber streiten, aber jeder sieht es anders.

Ailuros
2006-03-07, 12:12:45
']^^ ... der Unruhestifter ist wieder da *fg*

Sorry für das Missverständnis, ich habe eigentlich die R420 vs. NV40 verglichen, da ich der Meinung bin, dass das AF + Hybrid AA von NV etwas bessere IQ ablieferte als ATi, und ja man kann sich darüber streiten, aber jeder sieht es anders.

Aber nur wenn es die Leistung erlaubt und wenn man nicht auf eine native Aufloesung festgenagelt ist. Da selbst ein 2xSS Anteil anstaendig an Fuellrate kostet, kann man die Aufloesung nicht gleich so leicht skalieren wie mit 4xMSAA im Gegensatz. Kommt jetzt das Dilemma zwischen 1280*960 + 8xS und 1600*1200 + 4xMSAA, nehme ich persoenlich trotzdem das zweite. Das 2xSS auf einer Achse kann mir den besseren Textur-Detail von 1600 bei bestem Willen nicht vorgaukeln ;)

Coda
2006-03-07, 12:15:40
Doch, das ist der traditionelle Ansatz. Dabei bräuchte man, wenn man die MIPs einzeln sampelt, nur 24 (oder 23) Samples.Nö isses nich. Frag Demirug.

Karamanga
2006-03-07, 15:35:32
Back to Topic : werden die Karten denn nun am 09.03. auch wirklich beim Händler kaufbar sein ?

aths
2006-03-07, 15:54:28
Nö isses nich. Frag Demirug.Doch isses. Bench die AF-Leistung.

Coda
2006-03-07, 18:58:46
Frag ihn bitte. Er hat das schonmal klargestellt warum wir gar keine Tri-TMUs wollen - zumindest hat er sich genau mal so geäußert.

Gast
2006-03-07, 21:55:53
Frag ihn bitte. Er hat das schonmal klargestellt warum wir gar keine Tri-TMUs wollen - zumindest hat er sich genau mal so geäußert.Ja, da kann ich mich auch noch vage dran erinnern.

deekey777
2006-03-07, 22:04:39
Ja, da kann ich mich auch noch vage dran erinnern.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3532496#post3532496

Ich konnte mich noch erinnern, daß er meine, daß wir keine Tri-TMUs wollen.

Coda
2006-03-07, 22:36:04
Also mit einfachen Tri-TMUs ist es auf jedenfall nicht getan, da muss man schon noch einiges mehr an Logik dazukleben, dass das auch mit AF gut funktioniert - deshalb gibts wohl immer noch Bi-TMUs bisher.

Ausschließen möchte ich ganz und gar nicht dass ein IHV in der nächsten Generation etwas in die Richtung verändert.

aths
2006-03-08, 00:52:47
Frag ihn bitte. Er hat das schonmal klargestellt warum wir gar keine Tri-TMUs wollen - zumindest hat er sich genau mal so geäußert.Er will keine Tri-TMUs. Ich schon.

Zwar nutzt man für viele Lookups im Pixelshader nur bilineare Filterung. Trotzdem wäre es nett, für trilineare Filterung und trilineares AF weniger Takte zu brauchen. Zusatzkosten pro TMU: 3 Vec4-LERPs (und eine Logik, die FP-Zahlen halbieren kann – nichts einfacher als das.) Frei programmierbare 4x4-Kernel würden ziemlich aufwändig. Mit trilinearen TMUs würde man den Texel-Output in Spielen nicht verdoppeln, aber schon angesichts der möglichen ALU-Blockierung beim Filtern könnte die NV40/G70-Architektur davon profitieren.

Banshee18
2006-03-08, 03:50:10
Andererseits wird ATI für R600 endlich seine alten TMU-Algorithmen kippen müssen und damit wird das Ding wohl zum Uber-Chip von den Features und der IQ. Das stört mich an R5xx einfach brutal.

Wo hakts denn bei den TMU-Algorithmen? Ist es was, das ich, auch ohne Programmierer zu sein, halbwegs verstehe? :(

Coda
2006-03-08, 22:20:29
Er will keine Tri-TMUs. Ich schon.Das bringt dir aber nix weil reine Tri-TMUs nicht mit AF funktionieren - auch wenn du mir's nicht glaubst. Es werden nämlich auf der kleineren Mip auch nicht alle 16 Samples genommen bei 16xAF sondern maximal 8. Es sind eben keine 16 Tri-Samples die verrechnet werden.

Wenn dann bräuchte man viel generellere Filterlogik als "nur" Tri.

Wo hakts denn bei den TMU-Algorithmen? Ist es was, das ich, auch ohne Programmierer zu sein, halbwegs verstehe? :(Vor allem keine Unterstützung für FP-Texturformate und kein NP2-Texturing mit oder ohne Mipmaps.

Banshee18
2006-03-08, 23:51:31
Vor allem keine Unterstützung für FP-Texturformate und kein NP2-Texturing mit oder ohne Mipmaps.
Ersteres ist bekannt, aber wofür steht "NP2"?

Gast
2006-03-09, 00:06:12
Ich vermute mal "non-Power-of-2", also krumme Texturgrößen. Wobei das doch mit etwas kalkuliertem Verschnitt zu umgehen sein müsste seitens der Entwickler.

Wenn ich eine 250x250 Pixel große Textur habe, kann ich doch auf beiden Achsen sechs leere Pixel dranhängen und schon habe ich eine Power-of-2-Textur. (Was übersehe ich da wieder ausser dem bißchen Verschwendung?)


Q

up¦²
2006-03-09, 03:23:03
Heute 15.00 uhr :smile:
Erste Cebit-reportage!
http://www.computerbase.de/bild/news/13234/5/

MuLuNGuS
2006-03-09, 08:44:17
hmm,

wenn die 7900GT auch mal mit 512er speicher zu einem guten preis kommen würde könnte ich mich vielleicht plattschlagen lassen meine 6800GT@ultra in rente zu schicken aber so...

immerhin könnte sie ein renner werden wenn sie sich gut oc'en läßt.

we will seeeeeeee....

Coda
2006-03-09, 11:39:20
Wenn ich eine 250x250 Pixel große Textur habe, kann ich doch auf beiden Achsen sechs leere Pixel dranhängen und schon habe ich eine Power-of-2-Textur. (Was übersehe ich da wieder ausser dem bißchen Verschwendung?)Beispiel: 1536x1536 muss man auf 2048x2048 aufblasen. Das sind mal kurz 77% mehr VRAM-Verbrauch.

Katrin
2006-03-09, 12:05:19
http://www.clubic.com/article-32655-4-nvidia-geforce-7900-gt-gtx-bonjour-g71.html

Gast
2006-03-09, 12:11:40
Beispiel: 1536x1536 muss man auf 2048x2048 aufblasen. Das sind mal kurz 77% mehr VRAM-Verbrauch.
Dafür gibt's doch bald 1-Gig-Karten.

Im Ernst: Ausser der RAM-Verschwendung (klar, es kann auch viel sein, bsw. bei 1025er-Texturen ;-)) gibt es aber keine Nachteile, oder?


Q

mapel110
2006-03-09, 12:15:05
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=283262