PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi R350 Diskussion


ice cool69
2002-12-10, 21:13:22
was haltet ihr eigentlich davon dass ati beim r350 jetzt auf 0,15 micron bleibt?

dass damit nur 400 MHz drin sind is wohl der nachteil (ob das reicht die gf-fx in sachen rawpower zu schlagen? na ich weiß nicht, mehr als gleichstand is da wohl nicht drin).

der vorteil dürfte sein dass wir von zu großen verschiebungen verschont bleiben.

abgesehn davon find ich die 400 MHz trotzdem recht beeindruckend, früher hat hier ja so mancher nichtmal mit den 325 MHz der pro gerechnet.

die änderungen der features werden sich wohl so auf DX9 zu DX9.1 beschränken, mehr ist aber zu dem zeitpunkt sowieso nicht sinnvoll.

ich sehe da wohl nen ziemlichen gleichstand was mich auf einen heftigen preiskampf hoffen lässt. vielleicht fallen die neuen radeons dann recht schnell auf so 300€ und die "alten" 9700pro auf 200€. das wäre natürlich ein traum :D

LovesuckZ
2002-12-10, 21:23:08
Originally posted by ice cool69
ich sehe da wohl nen ziemlichen gleichstand was mich auf einen heftigen preiskampf hoffen lässt. vielleicht fallen die neuen radeons dann recht schnell auf so 300€ und die "alten" 9700pro auf 200€. das wäre natürlich ein traum :D

Stimmt, dann endet vielleicht ATI noch wie AMD:)

ice cool69
2002-12-10, 21:33:23
wieso enden?

vor 5 jahren war amd ein niemand und jetzt liegen sie bei 20% marktanteil oder so.

mit dem opteron geht sicher auch was im servermarkt. wird aber schwer und langwierig da fuß zu fassen...

LovesuckZ
2002-12-10, 21:37:59
Originally posted by ice cool69
vor 5 jahren war amd ein niemand und jetzt liegen sie bei 20% marktanteil oder so. mit dem opteron geht sicher auch was im servermarkt. wird aber schwer und langwierig da fuß zu fassen...

Und sind fast pleite:)

Wobei, wieso verkauft AMD ihren XP1600+ fuer nur 60€ und Intel den 1.6 NW fuer 165€?

Unregistered
2002-12-10, 22:31:05
Wobei, wieso verkauft AMD ihren XP1600+ fuer nur 60€ und Intel den 1.6 NW fuer 165€?


Weil es immernoch idioten gibt die mehr als das doppelte an Geld für gleiche Leistung ausgeben. Solange es die gibt bleiebn die 165€.

LovesuckZ
2002-12-10, 22:34:00
Originally posted by Unregistered
Weil es immernoch idioten gibt die mehr als das doppelte an Geld für gleiche Leistung ausgeben. Solange es die gibt bleiebn die 165€.

Und warum verkauft AMD den nicht auch fuer 160€?

Quasar
2002-12-10, 22:38:54
Weil nicht jeder 'n Idiot ist?

Unregistered
2002-12-10, 22:44:46
Originally posted by LovesuckZ


Und warum verkauft AMD den nicht auch fuer 160€?


Weil Intel der BEKANNTE und langjährige Marktführer ist .( Hoffe du versthst was ich damit sagen will :) ). Amd muss sich den Status erst erarbeiten, wenn sie das schaffen können sie die Preise erhöhen.

1. Intel --> Jahrelang an der Spitze, gut.
2. AMD --> Hab mal was davon gehört, gut.

Jetzt kannste dir überlegen zu was viele greifen 1 oder 2?

DrFreaK666
2002-12-10, 22:49:02
Originally posted by ice cool69
was haltet ihr eigentlich davon dass ati beim r350 jetzt auf 0,15 micron bleibt?

dass damit nur 400 MHz drin sind is wohl der nachteil (ob das reicht die gf-fx in sachen rawpower zu schlagen? na ich weiß nicht, mehr als gleichstand is da wohl nicht drin).

der vorteil dürfte sein dass wir von zu großen verschiebungen verschont bleiben.

abgesehn davon find ich die 400 MHz trotzdem recht beeindruckend, früher hat hier ja so mancher nichtmal mit den 325 MHz der pro gerechnet.

die änderungen der features werden sich wohl so auf DX9 zu DX9.1 beschränken, mehr ist aber zu dem zeitpunkt sowieso nicht sinnvoll.

ich sehe da wohl nen ziemlichen gleichstand was mich auf einen heftigen preiskampf hoffen lässt. vielleicht fallen die neuen radeons dann recht schnell auf so 300€ und die "alten" 9700pro auf 200€. das wäre natürlich ein traum :D

Ich könnte mir vorstellen, dass die R350 noch 8xAA beherrscht...
Wäre doch ne coole Sache

Quasar
2002-12-10, 23:00:23
glaube ich nicht, es sei denn, sie setzen 256Bit-DDR-II mit 500MHz ein. 6xFSAA nagt schon gewaltig an den Frameraten in hohen Auflösungen.

Und außerdem: Irgendwann sieht man einfach keine Treppchen mehr....

DrFreaK666
2002-12-10, 23:03:56
Originally posted by Quasar
glaube ich nicht, es sei denn, sie setzen 256Bit-DDR-II mit 500MHz ein. 6xFSAA nagt schon gewaltig an den Frameraten in hohen Auflösungen.

Und außerdem: Irgendwann sieht man einfach keine Treppchen mehr....

Jup, wenn ich da an den Morrowind 3D-Center Artikel denke. Da sind ja einige pics mit AA und AF. Und auf der Radeon9700 siehts besser aus als auf der Geforce FX.
Ich weiss sie wird nur simuliert, aber anscheinend ist es in den Treibern per Tweak ja aktivierbar.

Hm... etwas Off-topic

Endorphine
2002-12-10, 23:05:27
Originally posted by LovesuckZ
Wobei, wieso verkauft AMD ihren XP1600+ fuer nur 60€ und Intel den 1.6 NW fuer 165€?

Ganz einfach: der P4 "Northwood" 1600 MHz wird schon seit langem nicht mehr hergestellt, Restbestände liegen aber immer noch bei irgendwelchen Händlern rum, zu entsprechend saftigen (=alten) Preisen.

Aktuell sind P4 von 2,2-2,4 GHz die Einstiegsprozessoren, 2,5-2,66 GHz Mainstream, darüber High-End. Alles unterhalb von 2,2 GHz wird nur vom Celeron besetzt. Siehe -> http://www.hartware.net/news.html?id=29469

Also Vorsicht mit solchen Vergleichen. Sonst finde ich noch in irgendeiner Preisliste einen alten K5 oder ähnliches für 100 € ;)

Salvee
2002-12-10, 23:07:18
Wenn der Konkurrent 8x bietet, sollte man mitziehen, mann muss ja auf dem Papier mithalten. Über den Nutzen kann dann jeder selbst entscheiden.

DrFreaK666
2002-12-10, 23:08:49
Die R350 wird wohl nicht mehr als ne R9700Pro Ultra...

MadManniMan
2002-12-10, 23:30:40
Originally posted by DrFreaK666
Die R350 wird wohl nicht mehr als ne R9700Pro Ultra...

so siehts wohl leider aus... was aber dennoch nichts schlechtes ist! aber man wird ja dennoch träumen dürfen... afair wars eusti, der imho sehr treffend bemerkte, daß zu 256bit bei momentanen r300 takt 12 pipes wohl die bessere wahl wären - dann würd es zwar ein wenig enge mit den transis und dem takt, aber was störts mich? bin ich ati-ingenieur? :D

Crazytype
2002-12-11, 20:29:26
naja aber,wenn die r300 schon auf leichtes integrieren von ddrII getrimmt wurde und ddrII weniger strom und höhere taktraten ermöglicht kann das die r350 schon lange :)

Endorphine
2002-12-11, 22:27:52
Originally posted by Salvee
Wenn der Konkurrent 8x bietet, sollte man mitziehen, mann muss ja auf dem Papier mithalten. Über den Nutzen kann dann jeder selbst entscheiden.

Hmm, auf dem Papier sieht der NV30 bei den Features aber wesentlich leistungsfähiger aus als die R300-Architektur. Siehe auch Tabelle in dieser News, zum Teil entnommen aus dem Cg-Werbe-PDF: http://www.watch.impress.co.jp/pc/docs/2002/0906/kaigai01.htm

Wie soll ATI da mitziehen? Um dort mitzuziehen braucht es viel mehr als nur ein Refresh. Der Nutzen steht wie immer auf einem anderen Blatt....

betasilie
2002-12-11, 23:07:01
Ich glaube mit gleichziehen war eher die Fillrate etc. gemeint. Dass der R350 von den VS nicht mithalten kann ist klar, aber das wird man bei realen Benchmarks nicht merken.

MadManniMan
2002-12-11, 23:58:02
Originally posted by betareverse
Dass der R350 von den VS nicht mithalten kann ist klar

hö? :| wars nicht die r300 pro, die im verlgich zur fx5800 u nur 8% weniger VS-leistung bot?

betasilie
2002-12-12, 00:18:41
Originally posted by MadManniMan


hö? :| wars nicht die r300 pro, die im verlgich zur fx5800 u nur 8% weniger VS-leistung bot?
Echt? Das wusste ich garnicht.

aths
2002-12-12, 02:12:33
Originally posted by DrFreaK666
Ich könnte mir vorstellen, dass die R350 noch 8xAA beherrscht...
Wäre doch ne coole Sache Kann ich mir schwerlich vorstellen, da sie das AA-Subsystem dafür anpassen müssten. Außerdem glättet 6x bekanntlich besser als nVs 8x, es brächte den User also keinen Nutzen.

Salvee
2002-12-12, 02:22:11
Originally posted by aths
Außerdem glättet 6x bekanntlich besser als nVs 8x, es brächte den User also keinen Nutzen.

'Bekanntlich' ist gut, das weiss mit Sicherheit höchstens ein winziger Bruchteil aller Graka-Käufer.
Die Paperspecs müssen rul0rn, dann ist marketing- und verkaufstechnisch alles in Butter :naughty:

Razor
2002-12-12, 04:41:09
Originally posted by MadManniMan

hö? :| wars nicht die r300 pro, die im verlgich zur fx5800 u nur 8% weniger VS-leistung bot?
Hääääähhhh ?
Gibt's schon offizielle Benchmarks ?
Und wo hast Du eine 5800 'u' gesehen ?
:|

Razor

Razor
2002-12-12, 04:41:57
Originally posted by aths
Kann ich mir schwerlich vorstellen, da sie das AA-Subsystem dafür anpassen müssten. Außerdem glättet 6x bekanntlich besser als nVs 8x, es brächte den User also keinen Nutzen.
Und Du bist Dir ganz sicher, dass die Software-aktivierte Variante der Hardware-Implementierung entspricht ?
Woher ?
???

Razor

Eusti
2002-12-12, 08:14:09
Originally posted by Salvee
'Bekanntlich' ist gut, das weiss mit Sicherheit höchstens ein winziger Bruchteil aller Graka-Käufer. Die Paperspecs müssen rul0rn, dann ist marketing- und verkaufstechnisch alles in Butter :naughty: So isses. Notfalls muss man halt per Software (oder Postfilter, oder sowas ähnliches) die 6x koppeln und zu 12x umrechnen. Dabei ist es dan ziemlich egal, ob die 12x noch 5 oder 15fps schaffen. Auf Screenshots sieht es doll aus und auf der Verkaufspackung noch besser.

Das war mit NVidia und 32bit nix anderes. Völlig unnütz, da vieeeeellllll zu langsam (3dfx Lösung war da bedeutend besser), aber trotzdem machte sich das in Screenshots und auf der Packung ziemlich gut.

Das ist halt das dumme. Manchmal muss man Geld in Dinge investieren, die total Schwachsinnig sind, nur weil der DAU glaubt es wäre toll...

zeckensack
2002-12-12, 09:27:38
Originally posted by Razor

Hääääähhhh ?
Gibt's schon offizielle Benchmarks ?
Und wo hast Du eine 5800 'u' gesehen ?
:|

Razor Es gibt offizielle Marketingzahlen für den angenommenen Chiptakt von 500MHz.

PS: :|

Unregistered
2002-12-12, 09:29:38
is doch prima :)
So muss es sein.

"
Kann ich mir schwerlich vorstellen, da sie das AA-Subsystem dafür anpassen müssten. Außerdem glättet 6x bekanntlich besser als nVs 8x, es brächte den User also keinen Nutzen.
"

Naja dazu sag ich mal nur eins. Neulich hat hier irgendeiner 2 nette Screenshots reingehangen und 6x mit 8xS verglichen.
Es war geradezu überwältigend wieviele Leute hier Unterschiede sehen konnten und genau rausfinden konnten welcher Screen zu welchem AA passt.
Die Leute die meinten sie hätten richtig gelegen haben das auch erst verkündet als das Rätsel vom Poser selber aufgelöst wurde.
Bleibt unterm Strich das NV in Sachen AA wenn die Performance stimmt besser dasteht.
So einfach ist das obs dir gefällt oder nicht. Von daher wäre es für ATI schon von Nutzen, wenn sie einen höheren Modus anbieten denn 6x ist weniger als 8x.
Deshalb nannte sich der 4xS im Treiber auch 6x bei Nvidia.
Business as usual.

zeckensack
2002-12-12, 09:30:51
Originally posted by Razor

Und Du bist Dir ganz sicher, dass die Software-aktivierte Variante der Hardware-Implementierung entspricht ?
Woher ?
???

Razor Jedes vernünftige Anti-Aliasing ist eine durch Software aktivierte Hardware-Implementierung. Ansonsten siehe den Artikel, und ganz wichtig: den Diskussionsthread dazu. Dort werden IMO einleuchtende Argumente aufgeführt, die den Schluß "NV30AA = NV25AA + mehr Treiberoptionen" gültig erscheinen lassen.

zeckensack
2002-12-12, 09:39:17
Originally posted by Eusti
So isses. Notfalls muss man halt per Software (oder Postfilter, oder sowas ähnliches) die 6x koppeln und zu 12x umrechnen. Dabei ist es dan ziemlich egal, ob die 12x noch 5 oder 15fps schaffen. Auf Screenshots sieht es doll aus und auf der Verkaufspackung noch besser.Wenn NV 4xS in deutschen Treibern "6x" nennen darf, spricht eigentlich nichts (bis auf ein wenig Anstand) dagegen, daß ATI ihr 6x Sparse Multisampling in 36xAA umbenennt.

Ein kleines Zahlenspiel würde es schon richten :)
Das war mit NVidia und 32bit nix anderes. Völlig unnütz, da vieeeeellllll zu langsam (3dfx Lösung war da bedeutend besser), aber trotzdem machte sich das in Screenshots und auf der Packung ziemlich gut.Den 32 Bit-Modus habe ich auf meiner RivaTNT geliebt ... aber jedem das seine ;)
Eine Voodoo > 2 habe ich leider nie in Aktion erlebt.

Das ist halt das dumme. Manchmal muss man Geld in Dinge investieren, die total Schwachsinnig sind, nur weil der DAU glaubt es wäre toll... Wohl war ... da würde ich mich aber an anderen Fronten umsehen, der Grakamarkt ist da noch harmlos (Rambus, IHS, SSE2, HT, AGP8x, RAID, EAX, hrhrhr).

aths
2002-12-12, 13:33:38
Originally posted by Razor
Und Du bist Dir ganz sicher, dass die Software-aktivierte Variante der Hardware-Implementierung entspricht ?
Woher ?
??? Wissen und Kombinationsfähigkeit. Sofern du mit "Software"-Variante per Treiber angefordertes 2x2 OGSS meinst.

aths
2002-12-12, 13:35:49
Originally posted by Unregistered (Richthofen?)
is doch prima :)
So muss es sein.Nee.
Originally posted by Unregistered (Richthofen?)
Deshalb nannte sich der 4xS im Treiber auch 6x bei Nvidia.
Business as usual. Nur in der deutschen Version, und davon sind sie ja nun auch wieder abgekommen.

aths
2002-12-12, 13:38:05
Originally posted by zeckensack
Wohl war ... da würde ich mich aber an anderen Fronten umsehen, der Grakamarkt ist da noch harmlos (Rambus, IHS, SSE2, HT, AGP8x, RAID, EAX, hrhrhr). Rambus: Hätte ich gerne. Was ist IHS? SSE2 hab ich, HTT hätte ich gerne, AGPx8 tut zumindest nicht weh, Raid nutze ich, EAX auch, aber hrhrhr ist nun wirklich eine nutzlose Entwicklung.

robbitop
2002-12-12, 13:42:51
da die R300 6AA Samples max berechnet wäre die einzige Möglichkeit über 6xAA zu kommen wie bei NV ein FSAA Hybrit.

die GF FX soll ja nur 4AA Samples rechnen können.

Aber was ich an 4xS gut finde ist der SS Anteil der die Texturen beruhigt und Blätter von Bäumen und Bitmapzäune in Games glättet..tut MSAA nicht. Oder auch AlphaKanten. Und dank massig Füllrate dürfte 4xS ohne Probs spielbar bleiben.

btw. wird 4xS endlichmal für OGL brauchbar ?? denn 4xOGMS ist mir da zu Preisleistungsschwach...

seahawk
2002-12-12, 14:06:09
Habe da einige Gerüchte über die R350 gelesen. 16 TMUs , DDR II, > 400 Mhz.

Würden 16 TMUs eigentlich soviel bringen ??

Pussycat(w/ loginstress)
2002-12-12, 14:07:21
Originally posted by Unregistered
is doch prima :)
So muss es sein.

Es war geradezu überwältigend wieviele Leute hier Unterschiede sehen konnten und genau rausfinden konnten welcher Screen zu welchem AA passt.
Die Leute die meinten sie hätten richtig gelegen haben das auch erst verkündet als das Rätsel vom Poser selber aufgelöst wurde.
Bleibt unterm Strich das NV in Sachen AA wenn die Performance stimmt besser dasteht.

Ich glaube dass du vergesen hast, dass ein grossteil den ATI-shot besser fand. Übrigens ist die Folgerung 'viele sahen den Unterschied' && 'keiner hat sich getraut was zu sagen' -> 'NV steht besser dar' im allerbesten Fall als komplett lächerlich zu bezeichnen.

Eusti
2002-12-12, 15:26:30
Originally posted by seahawk
Habe da einige Gerüchte über die R350 gelesen. 16 TMUs , DDR II, > 400 Mhz.

Würden 16 TMUs eigentlich soviel bringen ?? Da bei DX9 je Pipeline immer nur eine TMU arbeitet, dürften 16 TMU (= 16 Pipes) ungefär die doppelte Geschwindigkeit bringen (noch mehr wegen Takterhöhung, aber weniger wegen Bandbreitenbegrenzung).

Allerdings dürfe der Chip dann so droß werden, das ATI mit 0,15er Technik gleich die kompletten Wafer auf´sBoard löten dürfte.

Börk
2002-12-12, 15:38:13
Was spricht eigentlich dagegen, dass ATI auch nen MSAA SSAA hybrit macht iwe NV???
Ich denke schon dass sie nen 8xS modus bringen werden einfach wegen dem Marketing effekt.
Aber dann warscheinlich nur mit 2xSSAA um füllrate zu schonen.

Demirug
2002-12-12, 15:42:40
Originally posted by Eusti
Da bei DX9 je Pipeline immer nur eine TMU arbeitet, dürften 16 TMU (= 16 Pipes) ungefär die doppelte Geschwindigkeit bringen (noch mehr wegen Takterhöhung, aber weniger wegen Bandbreitenbegrenzung).

Wer erzählt den sowas??? Im Prinzip kann man auch bei DX9 soviele TMUs pro Pipe verbauen wie man will. Wenn man aber nur eine TMU zu der vorhandenen hinzufügt bringt das nur beim AF was. Mit den PS 2.0 ist eine mehr als eine TMU pro Pipe sogar noch relative einfach in den Girf zu bekommen. Mit den PS 2.0+ wird das schon etwas komplexer die TMUs auch in nicht AF Situationen richtig auszulasten weil die Texturzugriffe viel stärker mit den Pixelshader verbunden sind. NVIDIA musste da bei NV30 scheinbar ganz schön in die Trickkiste greifen um das hinzubekommen. Wie gut die Lösung ist muss sich allerdings noch zeigen.

zeckensack
2002-12-12, 16:09:57
Originally posted by aths
Rambus: Hätte ich gerne.In Worten: drei Prozent :naughty:
Was ist IHS?Integrated Heat Spreader. Das ist Intel's (R) offizielle Abkürzung (TM)
SSE2 hab ich, HTT hätte ich gerne, AGPx8 tut zumindest nicht wehSSE2: Ja, schaden tut's nicht :-)
Kostet 1000 Flocken, niemand hat's, niemand kauft's, aber das Image ... das Image ... (TM)
AGP8x: Siehe SSE2 (R)
Raid nutze ich
Und? Hat's viel gebracht? :naughty:
EAX auchIch hab's, aber meide es idR, weil's entweder wie Hund performt (neue Spiele), oder total fehl am Platz ist (alte Spiele). Nujo.
aber hrhrhr ist nun wirklich eine nutzlose Entwicklung.Das sagst du auch nur, weil du das Marketingmaterial noch nicht gesehen hast. Die Technik hat jeeeede Menge Potential, das sei dir versprochen ;)

AlfredENeumann
2002-12-12, 18:46:42
Originally posted by seahawk
Habe da einige Gerüchte über die R350 gelesen. 16 TMUs , DDR II, > 400 Mhz.

Würden 16 TMUs eigentlich soviel bringen ??


Humbug. Schon gar nicht in 0.15

Eusti
2002-12-12, 19:28:27
Originally posted by Demirug
Wer erzählt den sowas??? Im Prinzip kann man auch bei DX9 soviele TMUs pro Pipe verbauen wie man will.1) Ich.

2) Theoretisch vielleicht, praktisch scheint das aber nicht zu lohnen (sonst gäb es sowas).

Razor
2002-12-12, 19:47:42
Originally posted by zeckensack
Es gibt offizielle Marketingzahlen für den angenommenen Chiptakt von 500MHz.
... Marketingzahlen ... angenommenen ...

Na klasse !
:D

Razor

Razor
2002-12-12, 19:51:19
Originally posted by zeckensack
Jedes vernünftige Anti-Aliasing ist eine durch Software aktivierte Hardware-Implementierung. Ansonsten siehe den Artikel, und ganz wichtig: den Diskussionsthread dazu. Dort werden IMO einleuchtende Argumente aufgeführt, die den Schluß "NV30AA = NV25AA + mehr Treiberoptionen" gültig erscheinen lassen.
Was die Theoretiker von den Praktikern unterscheidet...
Einleutend sind die Argumente schon, aber deswegen lange noch nicht Fakt.

Eine typische Gangart von Wissenschaftlern:
Von der Theorie auf die Praxis schließen und das dann als unumstößlichen Fakt ansehen...
:|

Ich warte lieber auf 'richtige' Fakten und werde aths erst dann huldigen, wenn er recht gehabt hat...
Na ja, vielleicht...
Oder auch nicht...
Oder doch ?
Ach nee...
:D

Razor

MadManniMan
2002-12-12, 20:07:26
Originally posted by Razor

... Marketingzahlen ... angenommenen ...

Na klasse !
:D

Razor

wovon gehst du denn bitte dann aus, wenn du meinst, der nv30 würde den r300 in der vertex leistung versägen?

Demirug
2002-12-12, 20:12:01
Originally posted by Eusti
1) Ich.

2) Theoretisch vielleicht, praktisch scheint das aber nicht zu lohnen (sonst gäb es sowas).

NVIDIA hat es doch gemacht. Der NV30 hat 16 bi TMUs. Es gibt da zwar schaltungstechnisch ein paar tricks aber 16 TMUs bleiben 16 TMUs.

robbitop
2002-12-12, 20:16:12
@MMM in der Therorie versägt der NV30 den R300 in punkto Vertexleistung nur in einem eher geringem Bereich, was aber an der Taktrate liegt, jedoch gehe ich davon aus dass das VertexArray effektiver arbeitet als 4VS Units.

robbitop
2002-12-12, 20:17:39
@Demi der NV30 hat 16bi TMUs??? sicher??
wie kommst du darauf (ich zweifle immo nich sondern frage nur).
Und wenn ja , sind die wirklich entkoppelt so wie 3dfxdas mal wollte und wenn er 16bi TMUs hätte, müsste THEORETHISCH im biAF Modus 2x so schnell sein, oder`?

Demirug
2002-12-12, 20:51:34
Originally posted by robbitop
@Demi der NV30 hat 16bi TMUs??? sicher??
wie kommst du darauf (ich zweifle immo nich sondern frage nur).
Und wenn ja , sind die wirklich entkoppelt so wie 3dfxdas mal wollte und wenn er 16bi TMUs hätte, müsste THEORETHISCH im biAF Modus 2x so schnell sein, oder`?

Ja sicher bin ich sicher.

http://www.beyond3d.com/previews/nvidia/nv30launch/index.php?p=2


Geoff Ballew:

No, you're limited to 8 textures applied per clock. However, we can do addressing for 16 textures at any one time. So even though you can only rigidly apply 8 per clock, you can line up the next 8 then apply them in the next clock. So that level of flexibility is very important as we move to procedural shading and sophisticated shader programs, so they key thing is how many textures can you queue up and address and how quickly can you apply them in a shader program.



Die Sache ist aber nicht ganz so effektiv wie die 2 TMU Pipeline beim NV25. Der Grund dafür ist einfach das nur 8 Werte pro Takt an die Pixelshader übergeben werden können. Es gibt aber durchaus Situationen in denen der NV30 einen kleinen Vorteil zum R300 hat. Wobei man ja noch entgültig klären müsste wie die R300 PS und TMUs nun wirklich zusammenarbeiten.

Was das entkoppeln angeht weis man das nicht so genau und NVIDIA drückt sich um diese Frage immer herum.

2x so schnell im vergleich zu was?

aths
2002-12-12, 21:41:32
Razor, wenn du nicht weißt was du schreiben sollst, lass es doch einfach :naughty:

Sorry für mein säuerliche Posting, ich weiß dass es keinen Spaß macht wenn einem an die Karre gefahren wird, aber ich konnte beim besten Willen nicht herauslesen, dass du etwas mitzuteilen hattest, was das Posting wert wäre. Wenn du berechtigte Zweifel an unseren Ansichten hättest - nur raus mit den Argumenten! Aber dieses Herumgerede hilft keinem Menschen weiter. Zumal - noch mal sorry - bislang nicht erkennbar war, dass du dich in der GeForce-MSAA-Technik sonderlich gut auskennst. Da hilft auch deine Trennung zwischen "Theoretiker" und "Praktiker" nicht, was ich als nicht eben nett empfand, da du die Theoretiker implizit als weltfremd dargestellt hast. Wenn man sich für eine Sache interessiert, sollte man sich mit ihr beschäftigen. Ohne sich von der notwendingen Theorie abschrecken zu lassen. In eine fachliche Diskussion einzufallen und herauszuposaunen, das sei alles nur Theorie, kann störend wirken.

Und nirgendwo habe ich angedeutet, dass man mir "huldigen" sollte :|. Zumal der bewusste Artikel auch Gedankengänge der echten Gurus schamlos ausschlachtet.

Pussycat
2002-12-12, 22:26:01
Originally posted by Razor

Einleutend sind die Argumente schon, aber deswegen lange noch nicht Fakt.


Genau! Mit Razor diskutieren macht Spass. 'Die Argumente stimmen, aber darum gebe ich dich noch lange kein Recht'.

robbitop
2002-12-13, 08:17:06
hört auf damit jetz ;-)
zurück zum Thema....

@Demi
naja im Vergleich zu der R300 doppelt so hohe bi TexelFüllrate (bei gleichem Takt)....
denn @bilinear
NV30: 8*2biTMUs * XMhz= 16*X MTexel/s (oder wie sieht das dort aus? evl 16*1biTMUs)
R300: 8*1triTMUs * XMhz = 8*XMTexel/s

@Trilinear
beide

8*1triTMUs * XMhz = 8*XMTexel/s (NV30 2*biTMUs = 1*triTMU)


da eh niemand mit bilinear Filtert isses ja auch egal, aber da du sagtest, dass jeweils nur 8 Werte übergeben werden wäre es eh nicht in der praxis so wie bei mir beschrieben...aber warum nahm NV 16xbi TMUs und nicht 8Tri TMUs ?

aber es sind 8 Pipes, oder?

zeckensack
2002-12-13, 08:51:17
Originally posted by Razor

... Marketingzahlen ... angenommenen ...

Na klasse !
:D

Razor Ja klasse, daß ausgerechnet du NV jetzt der Lüge bezichtigst :eyes:

Die 500MHz waren gelogen, die Angaben zum Vertex-Durchsatz waren gelogen, die Benchmarks frei erfunden, und die Vorführkarte war ein verkleideter Schauspieler.

Wenn ich oder Exxtreme oder AEN oder sonstwer das vom Stapel gelassen hätte, wären sofort die Aufschreie von wegen "du hast ja auch 'ne ATI, bist ein Fanadingsbums" gekommen.

Aber weil nicht in dein Weltbild paßt was dabei herauskommt, wenn hier engagierte (!) Leute 2+2 zusammenzählen, hat NV jetzt der Welt scheiße erzählt, du darfst sowas ja sagen ...

*kopfschüttel*

Ich kann dir nur empfehlen, das offizielle Launchmaterial nochmal durchzugehen.

Demirug
2002-12-13, 09:04:56
robbitop,

Auch der NV30 hat nur 8 Pipelines oder wie NVIDIA sich immer ausdrückt: "Es können maximal 8 Pixel pro Takt an die AA-Sampler übergeben werden und diese können dann maximal 32 AA-Samples pro Takt bearbeiten"

Ja, die bi-Fillrate ist Theoretisch doppel so hoch aber leider nur Theoretisch. Aufgrund der Tatsache das pro Takt nur 8 Sample von den TMUs übernommen werden können ist die reine bi-Fillrate auch nicht besser. zwei kleinen Vorteil hat der NV30 allerdings noch:

1. wird zum Beispiel eine Kombination von 2 bi Samples und einem 2xAF tri Sample gebraucht spart der NV30 einen Takt.


Takt NV30 Sample Output R300 Sample Output
1 Bi1/Bi2 Bi1 Bi1 Bi1
2 af1.1/af1.2 Bi2 Bi2 Bi2
3 af1.3/af1.4 af1 af1.1/af1.2 ---
4 af1.3/af1.4 af1


Da solche Operationen ja über eine Pipelinelaufen wird natürlich nicht im gleiche Takt gesamplet und der Wert zurückgegeben aus Gründen der Übersichtlichkeit habe ich die Pipelinelatenz aber nicht berücksichtigt da sie am Prinzip nichts ändert.

2. Dadurch das immer bis zu 16 Texturen aufeinmal den Fetch starten gewinnt man in dem Fall das man für das jeweils zweiten Sample im Falle eines Cachemiss auf den Hauptspeicher zurückgreifen muss einen Takt da der Wert ja erst einen Takt später in der Pipeline erwartet wird. Aber ein Takt ist nicht sehr viel.

Die Frage nach dem warum kann ich auch nicht beantworten aber scheinbar verspricht man sich was davon.

ice cool69
2002-12-14, 20:48:28
also ich glaube nicht dass der r350 ein neues AA-verfahren bietet.

das aktuelle wird wahrscheinlich nichtmal vom gf-fx überboten werden können und eine kleine namensänderung für die marketingabteilung reicht vollkommen.

abgesehn mal davon glaube ich sowieso nicht an einen unterschied im kern zwischen r350 und r300. dazu konnte der chip einfach viel zu schnell "tape-out fähig" gemacht werden.

wenn es änderungen gibt dann sinds maximal gleichziehungen mit nvidia wo diese vorne liegen. (PS2.0+ oder so).

aber selbst davon bin ich nicht so richtig überzeugt, wozu das auch? wenn überhaupt nur wegen der marketingsache (dx9.1 hört sich besser an als dx9.0)
aber man kann auch einfach DX9.1-kompatibel draufschreiben und der DAU is zufrieden...

EqualizerCS
2002-12-15, 21:23:28
Ich hab momentan eine Hercules 9700PRO drin und glaube nicht daran das die FX so stark ist. Die kleine wird entweder gleich schnell ode etwas schneller sein, aber dafür hat ATI bessere Texturqualität. Nur die Ultra wird schneller sein. Da will ATI aber mt der R350 kontern. Das weihnachtsgeschäft geht klar an ATI. Die 9700PRO haben auch schon viele und haben auch nicht soviel Geld sich nach 4Monaten sich eine neue Karte zu kaufen. Die 9500PRO wird im Frühjahr auch bestimmt gut verkauft werden. Viele haben auch Komplett PC´s und denken an keine neue Grakka. Übrigens ist der Mainstreammarkt wichtiger. Die Luxuskarten können oder wollen viele gar nicht kaufen.

EqualizerCS

Quasar
2002-12-15, 22:02:49
Originally posted by EqualizerCS
[...]aber dafür hat ATI bessere Texturqualität.

Öhm....gerade da hat ATi sogar im Moment noch das nachsehen gegenüber einem 18 Monate alten GF3 sogar. :|

Unregistered
2002-12-15, 22:24:44
Originally posted by Quasar


Öhm....gerade da hat ATi sogar im Moment noch das nachsehen gegenüber einem 18 Monate alten GF3 sogar. :|

freilich :D :D :D

Richthofen
2002-12-15, 23:13:24
ack @quasar.

Möcht mal wissen wer sich den Schmarrn der besseren Texturqualität ausdenkt.

Eusti
2002-12-15, 23:23:42
Originally posted by Richthofen
ack @quasar.Was ist den an den Bildern einer GF3 besser als an dennen einer 9700? Für mich sieht das Bild der Radeon (ganz subjektiv) besser aus. Wenn man dann noch bedenkt, das es in erheblich höheren fps gerändert wird...

Labberlippe
2002-12-15, 23:25:44
Originally posted by Richthofen
ack @quasar.

Möcht mal wissen wer sich den Schmarrn der besseren Texturqualität ausdenkt. User die vorerst eine nVIDIA Karte und danch eine ATi Karte im Rechner gehabt haben.

Ich habe gerade eine Ti4200 im Rechner gehabt.
Nach meinen Gefühlt hatte die ATi um einen Tick ein schärferes Bild.

Dürfte aber nicht nur eine Einbildung von mir sein da dies auch mir mehere User bestätigt haben.

Gruss Labberlippe

zeckensack
2002-12-15, 23:29:07
Wir sprechen hier über die Qualität ohne AF, richtig?

Mit AF würde ich eher weniger an einen ATI-Vorteil glauben.

Labberlippe
2002-12-15, 23:30:25
Originally posted by zeckensack
Wir sprechen hier über die Qualität ohne AF, richtig?

Mit AF würde ich eher weniger an einen ATI-Vorteil glauben.

Ich schon.

Gruss Labberlippe

Mehrpack
2002-12-16, 02:51:41
hi,
also ich hab bei mir folgendes festgestellt.
gegenüber meiner alten gladic 920 habe ich bei meiner maya II beim selben AF lvl (4x) keine mir sichtbaren nachteile sehn können.
das bild hat genauso gewirkt wie immer und bei 8x hab ich eine deutliche zunahme der schärfe gesehn.
und ich spiele nur mit AF seit dem ich ne Geforce 2 GTS hatte und man es einschalten könnte.
aber das ist subjektiv und vielleicht bei einem monitor der ein schärferes und besseres bild liefert als meiner könnte es durchaus sein das jemand der drauf achtet und beides direkt vergleichen kann einen unterschied sieht.
für mich selber und ich denke mal für die meisten anderen "normalverbraucher" ist das gebotene absoult in ordnung.

Mehrpack

ow
2002-12-16, 09:22:41
Originally posted by zeckensack
Wir sprechen hier über die Qualität ohne AF, richtig?

Mit AF würde ich eher weniger an einen ATI-Vorteil glauben.

Ohne AF tun sich ATi und NV nix in der Filterqualitaet, mit AF liegt NV vorne. Das sollte eigentlich laengst geklaert sein.

Unregistered
2002-12-16, 09:39:52
Originally posted by ow


Ohne AF tun sich ATi und NV nix in der Filterqualitaet, mit AF liegt NV vorne. Das sollte eigentlich laengst geklaert sein.


Stimmt aber nicht. ICh habe(hatte) beide Karten und kann es ganz gut nachvollziehen. Durch den Detonator wirken ohne AF die Texturen oft überfiltert (matschig), weshalb auch viele mit dem MipBias-Regler div. Tuner nachhelfen.

Quasar
2002-12-16, 09:40:25
Originally posted by zeckensack
Wir sprechen hier über die Qualität ohne AF, richtig?

Mit AF würde ich eher weniger an einen ATI-Vorteil glauben.
Nö, High-End Karten kannste schon ein bissel AF zumuten, und da liegt ATi eben noch nicht ganz auf der IQ-Höhe von nV.

Dafür bleibt eben die Speed deutlich höher und ist somit besser nutzbar. Ich habe jetzt die letzten zwei Monate nur ATi Karten hier in meinen Rechnern gehabt und gestern das erste Mal wieder ne Ti4200 reingetan: Mit AF meine ich einen deutlichen Vorteil zu sehen (bei FSAA sieht's wieder andersrum aus).

Ohne AF & FSAA nehmen sich beide Karte nichts, solange Helligkeit/Gamma/Kontrast und Sättigung angepasst sind.

ow
2002-12-16, 09:43:21
Originally posted by Unregistered



Stimmt aber nicht. ICh habe(hatte) beide Karten und kann es ganz gut nachvollziehen. Durch den Detonator wirken ohne AF die Texturen oft überfiltert (matschig), weshalb auch viele mit dem MipBias-Regler div. Tuner nachhelfen.


Nein, der mipmap-level der Detos passt exakt, d.h er liegt dort, wo er liegen muss.
Kann man zB. mit 3DWinbench2000 nachweisen.

Unregistered
2002-12-16, 09:49:17
Originally posted by ow



Nein, der mipmap-level der Detos passt exakt, d.h er liegt dort, wo er liegen muss.
Kann man zB. mit 3DWinbench2000 nachweisen.

Dann siehts dort, wo du meinst, dass es dort liegen muss, schei*** äh schlechter aus.

Unregistered
2002-12-16, 09:50:00
Originally posted by Unregistered


Dann siehts dort, wo du meinst, dass es dort liegen muss, schei*** äh schlechter aus.

sorry, das war wohl etwas übertrieben, aber die Rcihtung stimmt.

ow
2002-12-16, 09:54:33
Nein, stimmt nicht:D

Der Null-Level des mipmap lodbias ist nicht frei waehlbar sondern fest, fuer alle Karten.

Wenn du mal ein Karte sehen willst, die komplett daneben liegt (und zwar Richtung 'scharf'= ueberall Texturflimmern) dann musst du dir eine Savage2000 besorgen.

aths
2002-12-16, 12:30:21
ow hat Recht, es macht bei nV-Karten keinen Sinn, am MIP Map LOD zu spielen. Er ist defaultseitig optimal eingestellt.

Rampage 2
2002-12-16, 16:39:15
AFAIK ist in Quake3 der beste MIP-Level: -0.5

EqualizerCS
2002-12-16, 17:49:53
Durch mein Kommentar mag ich viele verwirrt haben, aber ich meinte Texturqualität=FSAA+AIF. Mein Unreal UT2K3 habe ich mit 1280x1024 mit 6xFSAA und 16.1 ANISO+Trilenar Filtering. Das sieht genial im Vergleich zu einer Gefurz TI 2 aus. Mein XP2400+,Nforce2 und 1024MB PC333 2-2-2-5-1 tragen dazu bei, das alles verdammt flüssig läuft. Auch in den Standardsettings hat die TI 2 das nachsehen, verglichen mit einer TI 3 oder 4 habe ich dies noch nicht. Die Screenshots im Internet zeigen das alle Karten ein gleichwertiges Bild haben. Die Radeon 9700PRO hat eben nur mehr Power bei aktivierten FSAA und den anderen Zeugs und liefert dabei perfekte Qualität.

EqualizerCS

AMD XP2400+ - Alpha PAL 8045 mit Papst NGH - Asus A7N8X Deluxe - 2x512 MB PC333 TwinMOS(Nanya Speicher) 2-2-2-5-1 166MHz - Hercules 3D Prophet 9700PRO

Quasar
2002-12-16, 18:01:34
Da du nicht müde wirst es zu wiederholen:
Die Texturqualität der Radeon9700 mit AF ist der der GeForce3(Ti)/4Ti in 90% aller Fälle unterlegen. Besonders bei UT2003 kann es ohne .ini-Anpassung zum Verwaschen bzw. Auslassen der Detailtexturen auf der Radeon kommen.
Komischerweise sind alle sofort von der Bildqualität begeister, sobald alle Regler am Anschlag sind, ohne dann noch auf die Details zu gucken.

Dass das Bild gegenüber einer GF2 TI besser aussieht, glaube ich dir gern.

EqualizerCS
2002-12-16, 18:04:34
Ich habe bis jetzt Screenshots gemacht und auf alle Kanten geachtet. Mein Fazit: Sehr Glatt! Bildfehler hatte ich noch nicht. Catalyst 2.5 drauf. Gib mir mal die INI Veränderungen durch!

EqualizerCS

zeckensack
2002-12-16, 18:06:13
@EqualizerCS:
Schau dir mal ein paar Screenshotvergleiche an.
Diesen Artikel (http://www.computerbase.de/article.php?id=153&page=16#ultima_ix_d3d) (schönen Gruß an Quasar :)) kann ich dir ans Herz legen, sehr ausführlich und mit sehr vielen verschiedenen Spielen.

zeckensack
2002-12-16, 18:07:50
Originally posted by EqualizerCS
Ich habe bis jetzt Screenshots gemacht und auf alle Kanten geachtet. Mein Fazit: Sehr Glatt! Bildfehler hatte ich noch nicht. Catalyst 2.5 drauf. Gib mir mal die INI Veränderungen durch!

EqualizerCS :|

Die Kanten sind ganz bestimmt glatter. Aber es sollte doch bis vor kurzem noch um Texturen gehen? (so von wegen AF)

???

Quasar
2002-12-16, 18:10:35
Originally posted by EqualizerCS
Ich habe bis jetzt Screenshots gemacht und auf alle Kanten geachtet. Mein Fazit: Sehr Glatt! Bildfehler hatte ich noch nicht. Catalyst 2.5 drauf. Gib mir mal die INI Veränderungen durch!

EqualizerCS
Um Kanten geht's auch nicht, was FSAA angeht, hat ATi einen ausgezeichneten Job gemacht (bis auf die ollen 16Bit-only-Games, aber das kommt bestimmt später noch).

Es geht um AF, also die Texturqualität, besonders in höheren Mip-Levels.

Per default steht in der UT2003-ini unter [D3DDrv.D3DRenderDevice] ein Eintrag namens: "DetailTexMipBias=0.800000".

Wenn dieser nicht verändert wird (lt. tED genügt es, ihn auf 0.4 zu setzen, ich habe danach immer 0.0 genommen), verschluckt die Radeon9700 bei aktivem AF die Detailtexturen direkt vor dem Betrachter. AF funktioniert zwar, aber eben nur bei weiter entfernten Texturen.
P.S.:
Und das Blödeste daran ist, dass es nichtmal viel Leistung bringt (unterhalb 2fps). Zum Ärgern einfach.

EqualizerCS
2002-12-16, 18:14:23
Jo Danke. Hier gibt es ja auch Profis. In manchen Foren wird einfach nur sch**ße geschrieben. Für ATI-Karten Benutzer kann ich das Board von www.ati-news.de empfehlen.

EqualizerCS

seahawk
2002-12-17, 10:13:08
Es mehren sich die Anzeichen, dass der R350 zeitgleich mit dem NV30 in die Läden kommt.

Habe gestern erste Herstellerlisten mit einer Radeon 9900 pro gesehen.-> Liefertermin Feb. 03

aths
2002-12-17, 10:38:32
Originally posted by Rampage 2
AFAIK ist in Quake3 der beste MIP-Level: -0.5 Das erzeugt bereits Texturflimmern. Für gute Texturen sollte man AF zuschalten - und das Bias bei 0 belassen.