Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

Gast
2005-07-10, 18:34:57
Das war schon eine starke Leistung von Nvidia und daran WIRD sich ATI messen lassen müssen und auch gemessen werden.

Bullshit.

Ati wird a) an seinem Aktienkurs gemessen (von den shareholdern) und b) von den Konsumenten was die Preis/Leistung der ATI Produkte angeht.

Wenn am Ende 2 Produkte auf dem Tisch liegen, die sich in Qualtität und Preis
in Nichts nachstehen, entscheided der Konsument nach Gusto (und nicht danach ob Hersteller x 8 Wochen vor Hersteller Y auf dem Markt war).

BodyLove
2005-07-10, 20:01:23
Wenn am Ende 2 Produkte auf dem Tisch liegen, die sich in Qualtität und Preis
in Nichts nachstehen, entscheided der Konsument nach Gusto (und nicht danach ob Hersteller x 8 Wochen vor Hersteller Y auf dem Markt war).

Zuerst müssen ja erst einmal beide Produkte vorgestellt sein. Danach kann sich die Meinung des Konsumenten über die Marke sehr schnell ändern, wenn sie noch, nach der Vorstellung, auf die Ware warten müssen.

Solch ein Fauxpax können sich beide imho nicht mehr leisten. Vor allen dingen dann nicht, wenn sich beide Konkurenten auf Augenhöhe befinden.

MadManniMan
2005-07-10, 20:36:17
YDKWTFYTA now decipher that.

You dont know what the fuck you talk about :naughty: ?

Diskutator
2005-07-11, 08:07:50
Wo bitte fallen die Preise denn dramatisch ?
Die einzigen Karten die deutlich billiger verkauft werden sind die AGP-Versionen. Die Preise der PCIe-Versionen sind relativ konstant.
Und es ist fraglich ob der G70 als AGP überhaupt kommen wird. Und wenn ja, wird es wahrscheinlich noch etwas dauern.
Glaubst du, das ein Endkunde 150€ mehr bezahlen wird für ein identisches PCI Express Modell??
Wohl kaum, die erwarten annähernd die gleichen Preise! Thats fakt!

Quasar
2005-07-11, 08:28:28
Was ich stark hoffe :)
Ich würde mal sagen, das hängt stark von der Zählweise ab.
nV zählt ja momentan ganz gern Instruktionen oder MAD - beides gereicht ihnen zum Vorteil ggü. früheren Produkten. Daß der R520 mehr als zwei FP32-Instruktionen pro Takt schafft, halte ich mal für gegeben. ;)

Ob er dagegen zwei ganze MAD über alle vier Kanäle kann - hm.

Ist eigentlich auch ziemlich egal - auch eine MAD genügt, wenn pro Takt und (mind. 16) Pipeline(s) auch eine davon de facto drin ist inkl. all dem anderen Kram, der so anfällt.

BodyLove
2005-07-11, 11:38:39
Glaubst du, das ein Endkunde 150€ mehr bezahlen wird für ein identisches PCI Express Modell??
Wohl kaum, die erwarten annähernd die gleichen Preise! Thats fakt!

Du und ich, und vielleicht 10 andere;), erwarten die gleichen Preise, nicht der Durchschnittskunde. Die Preise sind ja in den größeren Ketten nicht so unterschiedlich, wie es Geizhals hier aufzeigt. Zudem, 40 - 50€ Unterschied kann man leicht mit dem Motto "neuere Technik" rechtfertigen.

So schnell werden sich die Preise imho nicht angleichen.

Coda
2005-07-11, 12:52:08
Glaubst du, das ein Endkunde 150€ mehr bezahlen wird für ein identisches PCI Express Modell??
Wohl kaum, die erwarten annähernd die gleichen Preise! Thats fakt!Das ist auch so auf den Preislisten, nur ist der Markt ein anderer. Und damit auch die Preise.

Gast
2005-07-11, 17:21:00
Solch ein Fauxpax können sich beide imho nicht mehr leisten. Vor allen dingen dann nicht, wenn sich beide Konkurenten auf Augenhöhe befinden.

Was Sie sich wirtschaftlich/imagetechnisch nicht leisten SOLLTEN, wäre ein
nicht verkaufbares Produkt zu releasen (technisch unausgereift, nicht konkurrenzfähig a la NV30. Ab wie wir alle gesene haben hat NV diesen Fauxpax auch überlebt). Das Leben ist nicht Schwarz oder Weiß und in diesem Fall hängt das Überleben des Untenehmens auch nicht davon ab ,ob die
Karten sofort bei release oder 4 Wochen danach zu erwerben sind.

Es gibt genügend Leute, die lieber erst einmal warten um beide contender
vergleichen zu koennen. Sollte Ati ein technisch besseres Produkt haben,
es aber nicht gleichzeitig zum release date in den Läden haben, wäre die Mehrzahl der User -imho- geneigt noch einige Wochen darauf zu warten.

Mich würde mal interessieren, wieviele von den Lesern in diesem Thread überhaupt den Kauf des R520 bzw. eines Ablegers in Betracht ziehen.

mapel110
2005-07-11, 17:34:54
Hat eigentlich jemand eine Idee, was ATI mit der enormen Füllrate anstellen will?
nvidia bietet Supersampling und Transparency AA an. IMO muss da ATI nachziehen und auch irgendwas bringen, womit man eben die Füllrate verballern kann. Derzeit gibts da ja rein gar nichts bei ATI außer dem Erhöhen der Auflösung.

BodyLove
2005-07-11, 17:39:04
Okay, das mit dem Überleben war etwas übertrieben, das gebe ich offen zu. Aber, und das ist wichtig, ist es nicht sicher, ob ATI das bessere Produkt wird bieten können. Nehmen wir an, im August würde ATI den R520 vorstellen, und der würde sich dem G70 als gleichwertig zeigen. Dummerweise ist die Verfügbarkeit erst im September möglich. Warum also, sollte der Interessent warten?

Sicherlich würden die meisten auf den R520 warten, wenn der wirklich das bessere Produkt wäre. Aber zur Zeit sieht es ja eher danach aus, als würden sich beide nicht viel nehmen.

Und du siehst ja im Forum selbst. Das Lager zu wechseln ist immer etwas kompliziert, sofern es kein wirkliches Kaufargument gibt, das Konkurrenzprodukt zu kaufen.

Quasar
2005-07-11, 17:45:59
Hat eigentlich jemand eine Idee, was ATI mit der enormen Füllrate anstellen will?
nvidia bietet Supersampling und Transparency AA an. IMO muss da ATI nachziehen und auch irgendwas bringen, womit man eben die Füllrate verballern kann. Derzeit gibts da ja rein gar nichts bei ATI außer dem Erhöhen der Auflösung.
Nach dem, was ich gestern so bei Xilinx gelesen habe, scheint das 2xRGSSAA eher eine Funktion der Compositing Engine zu sein - aber vielleicht haben sie das ja im R520 integriert?

Gast
2005-07-11, 17:55:19
Was Sie sich wirtschaftlich/imagetechnisch nicht leisten SOLLTEN, wäre ein
nicht verkaufbares Produkt zu releasen (technisch unausgereift, nicht konkurrenzfähig a la NV30. Ab wie wir alle gesene haben hat NV diesen Fauxpax auch überlebt). Das Leben ist nicht Schwarz oder Weiß und in diesem Fall hängt das Überleben des Untenehmens auch nicht davon ab ,ob die
Karten sofort bei release oder 4 Wochen danach zu erwerben sind.

Es gibt genügend Leute, die lieber erst einmal warten um beide contender
vergleichen zu koennen. Sollte Ati ein technisch besseres Produkt haben,
es aber nicht gleichzeitig zum release date in den Läden haben, wäre die Mehrzahl der User -imho- geneigt noch einige Wochen darauf zu warten.

Mich würde mal interessieren, wieviele von den Lesern in diesem Thread überhaupt den Kauf des R520 bzw. eines Ablegers in Betracht ziehen.

Mach doch ne Befragung mit euren NVIDIA Boardpartner!

zeckensack
2005-07-11, 18:32:49
Es gibt genügend Leute, die lieber erst einmal warten um beide contender
vergleichen zu koennen. Sollte Ati ein technisch besseres Produkt haben,
es aber nicht gleichzeitig zum release date in den Läden haben, wäre die Mehrzahl der User -imho- geneigt noch einige Wochen darauf zu warten.Ack.
Es haben auch nach dem Release des R300 haufenweise Leute noch auf den NV30 gewartet, der sich dann als Kröte herausstellte.

BodyLove
2005-07-11, 18:46:00
Ack.
Es haben auch nach dem Release des R300 haufenweise Leute noch auf den NV30 gewartet, der sich dann als Kröte herausstellte.

Ja, aber wieviele haben sich dann zum R300 gewechselt und sind in diesem Lager geblieben?

zeckensack
2005-07-11, 19:25:00
Ja, aber wieviele haben sich dann zum R300 gewechselt und sind in diesem Lager geblieben?Viele. Aber viele eben erst nachdem NV30 erschienen und durchgemessen war.

Ich denke auch dass eine gewisse Menge an Leuten erst beide Varianten sehen möchte, bevor sie sich für das eine oder das andere entscheiden. Ich zB. Ich hab's mit dem Abwarten natürlich besonders leicht, weil ich sowieso nie mehr als 200€ für eine Graka ausgebe. Und ein entsprechendes G70-Derivat gibt's ja noch nicht.

Btw, hat jetzt nichts direkt damit zu tun, aber am meisten gespannt bin ich sowieso auf die Texturqualität. Rohperformance ist für mich ganz klar zweitrangig in dieser Generation.

BodyLove
2005-07-11, 19:28:59
Btw, hat jetzt nichts direkt damit zu tun, aber am meisten gespannt bin ich sowieso auf die Texturqualität. Rohperformance ist für mich ganz klar zweitrangig in dieser Generation.


Ack. Rohpower ist imho mehr als reichlich vorhanden. Ich würde, selbst wenn es langsamer wäre, eine Karte mit besserer Texturqualität bevorzugen.

Demirug
2005-07-11, 19:30:31
Btw, hat jetzt nichts direkt damit zu tun, aber am meisten gespannt bin ich sowieso auf die Texturqualität. Rohperformance ist für mich ganz klar zweitrangig in dieser Generation.

Die Optione für gute Texturequalität ist IMHO für diese Generation schon verpasst.

Ailuros
2005-07-11, 22:14:50
Ausser einem kleinen Prozentual von Enthusiasten, ist weder G70 noch R520 eine wahre Aufruestung wenn man schon eine NV40 oder R420/80 im System hat.

IMO behalten die meisten Verbraucher ihre high end Karten meistens zumindest 12-18 Monate, wobei auch nicht alle bei der Vorstellung jeder GPU einkaufen sondern auch etwas spaeter.

Gast
2005-07-11, 23:14:17
Ausser einem kleinen Prozentual von Enthusiasten, ist weder G70 noch R520 eine wahre Aufruestung wenn man schon eine NV40 oder R420/80 im System hat.

IMO behalten die meisten Verbraucher ihre high end Karten meistens zumindest 12-18 Monate, wobei auch nicht alle bei der Vorstellung jeder GPU einkaufen sondern auch etwas spaeter.
Richtig, eine X850XT ist einer G70 in einigen Games nicht unterlegen!

Gast
2005-07-11, 23:15:38
Siehe hierzu http://3dfusion.de/forum/archive/index.php/t-11023.html

Gast
2005-07-11, 23:17:17
Richtig, eine X850XT ist einer G70 in einigen Games nicht unterlegen!
So siehts aus. Solange nicht mal sowas wie Unreal3 oder UT2007 kommt, was sicherlich erst 2007 der Fall sein wird, lohnt ein G70 garnicht.

Und da der G70 die Texturen wie Sau flimmern lässt, kommt er für qualitätsbewusste Kunden sowieso nicht in Frage.

Coda
2005-07-11, 23:21:30
Welche Spiele wären das denn? (1600x1200, 4xAA, 16xAF, also wo man das mehr an Füllrate auch bemerkt)
Wenn die X850XT mal wegen dem Treiberoverhead die eine oder andere Sache für sich entscheidet heißt das noch lange nicht dass sie "schneller" ist.

Das man G70 wegen dem Texturflimmern nicht kaufen sollte ist allerdings richtig.

Quasar
2005-07-11, 23:28:35
Die Optione für gute Texturequalität ist IMHO für diese Generation schon verpasst.
Ich fürchte, für lange lange Zeit verpasst.

mapel110
2005-07-11, 23:42:55
nvidia hat die Füllrate um ca 60 % gesteigert. Das wird ATI nicht schaffen ausgehend von R480. Dann noch 600 Mhz Ramtakt und ATI wird noch viel schlimmer gegen das Bandbreiten und CPU-Limit knallen. Obendrein lohnt es sich dann für XT PE-Besitzer noch weniger aufzurüsten, als für NV45-Besitzer.

Schon erstaunlich, einige holen sich eine XT für 1600x1200 Auflösung und plötzlich spielt diese Auflösung dann keine Rolle mehr, wenns um die Beurteilung der Performance des G70 geht.

Diskutator
2005-07-12, 01:05:54
nvidia hat die Füllrate um ca 60 % gesteigert. Das wird ATI nicht schaffen ....

Allerdings wird das letzte Wort erst im September gesprochen mapel ;)

R520 Launch!!!!

Hassu schon Sample ?? :eek: und ne Driver dazu ??


:| Abwarten :D

Diskutator
2005-07-12, 01:10:10
So siehts aus. Solange nicht mal sowas wie Unreal3 oder UT2007 kommt, was sicherlich erst 2007 der Fall sein wird, lohnt ein G70 garnicht.

Und da der G70 die Texturen wie Sau flimmern lässt, kommt er für qualitätsbewusste Kunden sowieso nicht in Frage.

Kannst du mir das näher erklären, basierend auf Fakten!
Ich dachte G70 sei der Überflieger :|

mapel110
2005-07-12, 01:20:47
Allerdings wird das letzte Wort erst im September gesprochen mapel ;)

R520 Launch!!!!

Hassu schon Sample ?? :eek: und ne Driver dazu ??


:| Abwarten :D
R480 - 540x16=8640
R520 - Xx16=13824(60% mehr) --> X=864 Mhz Chiptakt :eek:
/edit
bei 24 Pipes wären es ~575 Mhz chiptakt, aber ich glaube nicht an 24 Pipes.
/edit2
mal ein Hirngespinnst. 24 Pipes bei 620 Mhz Chiptakt wären 14880 und das bei ~600 Mhz Ramtakt. Auweia, und ATI hätte nichts, um die Füllrate zu verballern und alle würden schön mit 6xAA benchen, diesen superschnellen Chip. :eek: Vorsprung vor R480 wären 1-2% ^^

deekey777
2005-07-12, 01:30:29
Um welche Füllrate geht es?
Die X850XT hat immer noch mehr Pixelfillrate als die 7800GTX, was aber eh egal ist. *speicherzulangsam*
Dagegen hat die 7800GTX Texelfüllrate ohne Ende (10320MT/s).

Auch scheint der G70 in Sachen Shaderpower überlegen zu sein.

Coda
2005-07-12, 01:31:28
Wieso sollte sich die Pixelfüllrate bei einem 16x1, bzw. 24x1 Design von der Texelfüllrate unterscheiden? :confused:

Imho Blödsinn. Die 7800GTX hat nämlich 24Pixel*430Mhz = 10320MPixel/s Füllrater und die X850XT "nur" 16Pixel*540Mhz = 8640MPixel/s

LordDeath
2005-07-12, 01:38:01
Wieso sollte sich die Pixelfüllrate bei einem 16x1, bzw. 24x1 Design von der Texelfüllrate unterscheiden? :confused:

Imho Blödsinn. Die 7800GTX hat nämlich 24Pixel*430Mhz = 10320MPixel/s Füllrater und die X850XT "nur" 16Pixel*540Mhz = 8640MPixel/s

ist aber die pixelfüllrate des g70 nicht durch die rops begrenzt, ähnlich wie beim nv43?

Coda
2005-07-12, 01:39:50
Hubs - Das ist natürlich richtig, ganz vergessen.

Abgesehen davon ist es aber praktisch trotzdem egal, weil es in Spielen wohl kaum noch Polygone mit 1Pixel/Clock/Pipeline gibt.

deekey777
2005-07-12, 01:53:28
Hubs - Das ist natürlich richtig, ganz vergessen.

Abgesehen davon ist es aber praktisch trotzdem egal, weil es in Spielen wohl kaum noch Polygone mit 1Pixel/Clock/Pipeline gibt.

Erwischt. :biggrin:

Aber wie wichtig ist die Texelfüllrate? :confused:

Coda
2005-07-12, 01:55:08
Texelfüllrate ist das eigentlich entscheidende abgesehen von der ALU-Leistung :tongue:

Und die ist ab 2 Texturen/Pass wirklich 10GTexel/s.

Ailuros
2005-07-12, 04:23:44
Texelfüllrate ist das eigentlich entscheidende abgesehen von der ALU-Leistung :tongue:

Und die ist ab 2 Texturen/Pass wirklich 10GTexel/s.

Stencil-Fuellrate ist aber auch nicht gerade unwichtig; hier kommt es natuerlich darauf an wie die ROPs genau ausgelegt wurden. Bisher fehlte es ATI an stencil-spezifischen Optimierungen.

X850XT PE = 540*16 = 8640
NV40 = 425*16 = 6800

Wie es zwischen den beiden aussieht bei early Z oder MRTs ist ja bisher bekannt. Hat jetzt aber ATI diesmal die ROPs wirklich etwas optimiert, dann wird sich die hoehere stencil-Fuellrate auch vielleicht ausspielen koennen bei R520 vs. G70.

robbitop
2005-07-12, 07:24:47
X850XT PE = 540*16 = 8640
NV40 = 425*16 = 6800



Soll das die Stencilfüllrate sein? Die ROPs vom NV40 erlauben aber 32 Z/StencilOps/Takt IIRC. Erst wenn AA zum Einsatz kommt, bricht das auf 16 ein.

Diskutator
2005-07-12, 08:20:29
Nachdem was nVidia gemacht hat würde ATI in der Luft zerrissen werden wenn sie einen Paperlaunch hinlegen.
Sehe ich nicht so! Letztendlich zeigen sich ja auch Schwachpunkte beim G70 auf, die hätte man gezielt beheben können, bezüglich Treiber und co. Nun sind die Foren voll mit teilweise auch negativen Stimmen

Demirug
2005-07-12, 08:35:33
Sehe ich nicht so! Letztendlich zeigen sich ja auch Schwachpunkte beim G70 auf, die hätte man gezielt beheben können, bezüglich Treiber und co. Nun sind die Foren voll mit teilweise auch negativen Stimmen

Du weisst gar nicht was da alles im Treiber schon vor dem Launch beseitigt wurde. Ich gehe davon aus das selbst meine Liste nicht vollständig ist.

Bis auf ganz wenige Ausnahmen haben die Reviewer ja sowieso keine Bugs gefunden. In der Mehrzahl wird sowas immer erst entdeckt wenn das Produkt in die Hände des Endkundem kommt. Eine zusätzliche Zeitspanne zwischen Vorstellung und Verkaufsstart hat daher so gut wie keine Auswirkung auf die Produktqualität.

Diskutator
2005-07-12, 09:20:11
Genauso ist es. Vor allem weil jetzt auch die 7800GT kommen wird. Und jede Wette, dass auch diese sofort verfügbar ist. Die Preise für 6800U und 6800GT fallen dramatisch. Das lässt nur den Schluss zu, dass hier Ausverkauf betrieben wird.
Die 6800U kann Nvidia dann aus dem Programm nehmen.
Die 6800GT wird man noch beibehalten um ATI ordentlich Feuer unter dem Arsch zu machen und ich glaube das weiss ATI auch, sonst hätten sie nicht ihren Ausblick für das kommende Quartal so nach unten reduziert.

Das war schon eine starke Leistung von Nvidia und daran WIRD sich ATI messen lassen müssen und auch gemessen werden.

Dann könnt Ihr alle jetzt schon G70 kaufen, R520 wird def. nicht Verfügbar sein am Launchtag, warum sollte ATI auch Ihre komplette Markteinführungsstrategie aufgrund einer Aktivität vom Mitbewerb verändern!

ATI wird Ref. Design an die Tester geben und dann den Boardpartnerb freistellen wie Sie die Karte letztendlich takten bzw. vom Kühler her ausstatten.

So gesehen war die erste Verfügbarkeit von G70 eine Produktion die NVIDIA komplett übernahm und an die Partner weitergab!

Gast
2005-07-12, 09:22:03
R480 - 540x16=8640
R520 - Xx16=13824(60% mehr) --> X=864 Mhz Chiptakt :eek:
/edit
bei 24 Pipes wären es ~575 Mhz chiptakt, aber ich glaube nicht an 24 Pipes.
/edit2
mal ein Hirngespinnst. 24 Pipes bei 620 Mhz Chiptakt wären 14880 und das bei ~600 Mhz Ramtakt. Auweia, und ATI hätte nichts, um die Füllrate zu verballern und alle würden schön mit 6xAA benchen, diesen superschnellen Chip. :eek: Vorsprung vor R480 wären 1-2% ^^

Was Du glaubst, ist gänzlich unwichtig. Tatsache ist, dass er in der Tat nicht 24 haben wird......d.h die. Pro schon....

seahawk
2005-07-12, 09:36:32
Dann könnt Ihr alle jetzt schon G70 kaufen, R520 wird def. nicht Verfügbar sein am Launchtag, warum sollte ATI auch Ihre komplette Markteinführungsstrategie aufgrund einer Aktivität vom Mitbewerb verändern!

ATI wird Ref. Design an die Tester geben und dann den Boardpartnerb freistellen wie Sie die Karte letztendlich takten bzw. vom Kühler her ausstatten.

So gesehen war die erste Verfügbarkeit von G70 eine Produktion die NVIDIA komplett übernahm und an die Partner weitergab!

Das siehst Du zu negativ. Eine eingeschränkte Verfügbarkeit wird gegeben sein.

seahawk
2005-07-12, 09:37:07
Was Du glaubst, ist gänzlich unwichtig. Tatsache ist, dass er in der Tat nicht 24 haben wird......d.h die. Pro schon....

Nö.

Gast
2005-07-12, 10:09:50
R520 tape-out number three was successful
Source: http://www.theinquirer.net/?article=24540

[dzp]Viper
2005-07-12, 10:50:08
R520 tape-out number three was successful
Source: http://www.theinquirer.net/?article=24540

Zitat:

"We already said that R520 is to work at more than 600MHz but we believe this number is going to go even higher. "

Ich bin ja wirklich gerne optimistisch, aber 24 Pipes und über 600 Mhz? Irgendwie glaub ich das nicht... bis 600 Mhz gehe ich mit, aber mehr? :|

mapel110
2005-07-12, 11:05:14
Viper']Zitat:

"We already said that R520 is to work at more than 600MHz but we believe this number is going to go even higher. "

Ich bin ja wirklich gerne optimistisch, aber 24 Pipes und über 600 Mhz? Irgendwie glaub ich das nicht... bis 600 Mhz gehe ich mit, aber mehr? :|
Tja, es sind ja auch keine 24, sondern nur 16. ;)

[dzp]Viper
2005-07-12, 11:12:13
Tja, es sind ja auch keine 24, sondern nur 16. ;)

sagt wer :D
sry aber feststehen tut da garnix...

dildo4u
2005-07-12, 11:13:00
Tja, es sind ja auch keine 24, sondern nur 16. ;)
Das muss aber mher sein das sind ja grad mal 60mhz mher core im gegensatz zu einer X850XT-PE und viel Schnelleren Speicher wird ATI bis september auch nicht auftreiben könnnen.

TheCounter
2005-07-12, 11:14:04
Tja, es sind ja auch keine 24, sondern nur 16. ;)

Was ist wenn es aber doch 24 sind? Vlt. hat der 90nm Prozess das ganze doch möglich gemacht? Für die Highend Variante kann ich mir das gut vorstellen.

Aber bisher sind ja alles nur Spekus, wir werden es nächstes bzw. übernächstes Monat dann ja sehen :)

[dzp]Viper
2005-07-12, 11:19:27
Das muss aber mher sein das sind ja grad mal 60mhz mher core im gegensatz zu einer X850XT-PE und viel Schnelleren Speicher wird ATI bis september auch nicht auftreiben könnnen.

genau das meine ich - für gerade mal 60 Mhz mehr wäre das ein viel zu großer Schritt. NV hat 24 Pipes bei guten Ergebnissen - warum sollte es ATI dann nich auch schaffen?

G70 - 24 Pipes @ 0,11µm @ 430 Mhz
r520 - 24Pipes @ 0,09µm @ 580 - 600 MHz

klingt für mich eigentlich ziemlich logisch und auch schaffbar

Dagegen wären:
16 Pipes @ 0,09µm @ 600 MHz kein wirklicher Fortschritt eben weil der x850XT-PE ja schon 540 Mhz @ 0,13µm hat...

mapel110
2005-07-12, 11:20:57
Über 600 Mhz takt stehen für mich fest. Und sowas bei 24 Pipes halte ich nicht für möglich. Die Füllrate wäre imo völlig überzogen hoch bei der begrenzten Bandbreite.

@Viper
Wer sagt denn, dass ATI nichts an der Effizienz des Taktes bzw der Pipes getan hat?!

[dzp]Viper
2005-07-12, 11:23:59
@Viper
Wer sagt denn, dass ATI nichts an der Effizienz des Taktes getan hat?!

ja das wäre natürlich eine sehr positive Entwicklung *g*

Aber ich bin dennoch der Meinung, dass wir 24 Pipes sehen werden...

aber zum glück ist das ja ein Spekuforum :D in 1-2 Monaten wissen wir mehr :up:

seahawk
2005-07-12, 11:53:54
Viper']genau das meine ich - für gerade mal 60 Mhz mehr wäre das ein viel zu großer Schritt. NV hat 24 Pipes bei guten Ergebnissen - warum sollte es ATI dann nich auch schaffen?

G70 - 24 Pipes @ 0,11µm @ 430 Mhz
r520 - 24Pipes @ 0,09µm @ 580 - 600 MHz

klingt für mich eigentlich ziemlich logisch und auch schaffbar

Dagegen wären:
16 Pipes @ 0,09µm @ 600 MHz kein wirklicher Fortschritt eben weil der x850XT-PE ja schon 540 Mhz @ 0,13µm hat...

Naja, aber ATI mußte beim R520 nicht hauptsächlich an der Leistung arbeiten, sondern an dem Featureset, während NV nur am Speed arbeiten mußte.

Man muss auf den Transistorcount sehen, R480 ist realtiv schlank, R520 kann nicht so schlank sein. (R520 dürfte mindestens im Bereich eines NV45 liegen)

Ich schätze mal 16 Pipes @ 600Mhz für eine XT, 650mhz für die XT-PE. (aka reviewer sample)

Wenn man den Takt nicht braucht, dann machen die mehreren Tape-Out auch gar keinen Sinn. Hätte man 24 Pipes, dann hätte man auch mit 500+Mhz gegen die 7800GTX bestehen können. (davon ausgehend, das man die Effizienz des Chips mindestens gehalten hat)

Gast
2005-07-12, 11:59:21
Das muss aber mher sein das sind ja grad mal 60mhz mher core im gegensatz zu einer X850XT-PE und viel Schnelleren Speicher wird ATI bis september auch nicht auftreiben könnnen.

Wenn es nur ein Shrink wäre, wäre das wirklich ziemlich schlecht. Der R520 hat aber SM3 bekommen, also ungefähr 1/3 mehr Transistoren als R480. Vielleicht sind noch ein paar Transistoren hier und da für andere Sachen hinzugekommen. ATI kocht auch nur mit Wasser und die entsprechenden Berichte über Probleme kommen auch nicht von ungefähr.

q@w
2005-07-12, 12:01:05
[...]warum sollte ATI auch Ihre komplette Markteinführungsstrategie aufgrund einer Aktivität vom Mitbewerb verändern!

Vielleicht, weil man sonst gern auf anderer Leute Paperlaunches herumhackte? Aber du hast recht:
IF
Marketing
THEN
Was interessiert mich mein Geschwätz von gestern
ELSE
Thema ignorieren.
Viper']genau das meine ich - für gerade mal 60 Mhz mehr wäre das ein viel zu großer Schritt. NV hat 24 Pipes bei guten Ergebnissen - warum sollte es ATI dann nich auch schaffen?

Ich sage dir warum: Weil nV bisher eine Menge technischen Krams mitschleppte, der den Chip dicker werden ließ, als die der Konkurrenz. Etwas von diesem Krams (wieviel: wer weiß?) muss nun auch ATi in ihren Chip hineinstopfen, das schlanke Design vergangener Tage sollte man IMO nicht 1:1 auf den R520 zu übertragen versuchen.
Angenommen, beide haben einen ähnlichen Transistorcount, dann würde ich mal +100-120MHz für den R520 aufgrund seines feineren Prozesses schätzen.
Ich würde mich natürlich freuen, wenn a) die 600 MHz erreicht oder übertroffen würden (bei 24 Pixel/Clk) und b) die Option, AI sicher abzuschalten bei gleichzeitg unverändertem Texturfilter erhalten bliebe.
*hoff*

Ein Vergleich zur Situation nV40-R420/80 trifft er IMO nicht.

[dzp]Viper
2005-07-12, 12:04:30
Ich sage dir warum: Weil nV bisher eine Menge technischen Krams mitschleppte, der den Chip dicker werden ließ, als die der Konkurrenz. Etwas von diesem Krams (wieviel: wer weiß?) muss nun auch ATi in ihren Chip hineinstopfen, das schlanke Design vergangener Tage sollte man IMO nicht 1:1 auf den R520 zu übertragen versuchen.
Angenommen, beide haben einen ähnlichen Transistorcount, dann würde ich mal +100-120MHz für den R520 aufgrund seines feineren Prozesses schätzen.
Ich würde mich natürlich freuen, wenn a) die 600 MHz erreicht oder übertroffen würden (bei 24 Pixel/Clk) und b) die Option, AI sicher abzuschalten bei gleichzeitg unverändertem Texturfilter erhalten bliebe.
*hoff*

Ein Vergleich zur Situation nV40-R420/80 trifft er IMO nicht.

hm nagut :smile:
Aber träumen darf man noch oder? :biggrin:

Gast
2005-07-12, 12:06:54
Im Zweifelsfall kann man immer noch auf DualSlot Kühlung und Erhöhung des VCore zurückgreifen um eventuell die magische "6" am Anfang zu knacken...

Gast
2005-07-12, 12:53:07
16 pipes und ca 600mhz ? so schnell sind die alten ati´s doch schon

wie die ersten infos schon sagten,erst 24 pipes 600 mhz dann 32 pipes 600 mhz

und ich habe den g70 aber er ist enttäuschend,in 90% aller games kein bißchen schneller als der x800

reunion
2005-07-12, 12:55:08
Naja, aber ATI mußte beim R520 nicht hauptsächlich an der Leistung arbeiten, sondern an dem Featureset, während NV nur am Speed arbeiten mußte.


Ist es wirklich soviel mehr Aufwand, statt 4 Quads z.B. 6 zu verbauen?


Wenn man den Takt nicht braucht, dann machen die mehreren Tape-Out auch gar keinen Sinn. Hätte man 24 Pipes, dann hätte man auch mit 500+Mhz gegen die 7800GTX bestehen können. (davon ausgehend, das man die Effizienz des Chips mindestens gehalten hat)

Ein Chip kann nichtnur aufgrund des Taktes ein neues Tapeout benötigen.
Was man so hört, ließ sich das erste Tapeout schon ziemlich gut takten, allerdings waren zu viele Chips defekt.

Demirug
2005-07-12, 12:58:26
Ist es wirklich soviel mehr Aufwand, statt 4 Quads z.B. 6 zu verbauen?

Hängt davon ab wie der Rasterisiere gebaut ist. IMHO hat der R420 keinen Verteiler dahinter. Damit müsste beim Wechsel von 4 auf 6 Quads auch der Rasterisiere angepasst werden. In Verbindung mit Hyper-Z könnte sich da die 6 durchaus als kleine Herausforderung darstellen.

Gast
2005-07-12, 13:19:37
16 pipes und ca 600mhz ? so schnell sind die alten ati´s doch schon

wie die ersten infos schon sagten,erst 24 pipes 600 mhz dann 32 pipes 600 mhz

und ich habe den g70 aber er ist enttäuschend,in 90% aller games kein bißchen schneller als der x800

a) welche Spiele spielst Du ?
b) bei welchen Auflösungen und AA/AF Einstellungen ?

Sorry, aber solche Pauschalaussagen führen nicht wirklich zu etwas.
Wenn die restlichen 10% der Spiele ,wo der G70 etwas bringt, diejenigen sind die von der Mehrzahl der User momentan am meißten gespielt werden,
dann gibt es mehr oder minder schwerwiegende Gründe zu wechseln.

Ich spiel noch mit einer 9700(nonpro agp)... und warte auf R520.
Bei mir steht ein kompletter Systemupgrade an. Bevor ich nicht weiß ob der
neue Chip von ATI etwas vernünftiges wird bin ich auch dem G70 gegenüber aufgeschlossen.

seahawk
2005-07-12, 13:28:28
Ist es wirklich soviel mehr Aufwand, statt 4 Quads z.B. 6 zu verbauen?
Ein Chip kann nichtnur aufgrund des Taktes ein neues Tapeout benötigen.
Was man so hört, ließ sich das erste Tapeout schon ziemlich gut takten, allerdings waren zu viele Chips defekt.

Sagen wir so, die funktionierenden Chips erreichten um 600MHz. Mit ist allerdings nicht bekannt, dass sie es mal versucht mit 500MHz als Target versucht hätten.

Auf jeden Fall war das alte ATI-´Design da wesentlich unflexibeler als das von NV. Imho müßte man den Rasterizer anpacken und Hier-Z überarbeiten. (reine Vermutung)

Naja, aber ich hoffe ja selber noch auf ein 24-32 Pipemonster. Damit wäre man für 2 Jahre gut versorgt.

seahawk
2005-07-12, 13:28:58
16 pipes und ca 600mhz ? so schnell sind die alten ati´s doch schon

wie die ersten infos schon sagten,erst 24 pipes 600 mhz dann 32 pipes 600 mhz

und ich habe den g70 aber er ist enttäuschend,in 90% aller games kein bißchen schneller als der x800

In 1024x768 wird das nunmal so sein ;D

deekey777
2005-07-12, 13:38:27
...
Ich würde mich natürlich freuen, wenn a) die 600 MHz erreicht oder übertroffen würden (bei 24 Pixel/Clk) und b) die Option, AI sicher abzuschalten bei gleichzeitg unverändertem Texturfilter erhalten bliebe.
*hoff*


:confused:
Wäre es nicht besser, beim abgeschalteten AI das beste Ergebnis zu erzielen, sprich ohne die Optimierungen, die mit AI kommen bzw. überhaupt möglich sind?
Oder hast du das gemeint?

Gast
2005-07-12, 13:39:00
In 1024x768 wird das nunmal so sein ;D

es gibt sehr viele spiele die sehr grakalastig egal welche auflösung,schon gewußt

battlefield2 ist sehr grakalastig und dort hat der sprung von x800pro auf 7800gtx lächerlich wenig gebracht.
nach der lahmen karte mit wirklich graunhaften AF,freue ich mich sehr auf den r520

ShadowXX
2005-07-12, 13:50:46
es gibt sehr viele spiele die sehr grakalastig egal welche auflösung,schon gewußt

battlefield2 ist sehr grakalastig und dort hat der sprung von x800pro auf 7800gtx lächerlich wenig gebracht.
nach der lahmen karte mit wirklich graunhaften AF,freue ich mich sehr auf den r520

Halt ich für ein Gerücht...

Guck die hier mal die Benchmarks an:
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp

1280x960 mit 4xAA / 16xAF:

X850XT PE = 40.6 FPS
GTX = 85 FPS

1600x1200 mit 4xAA / 16xAF

X850XT PE = 33.8 FPS
GTX = 63.7 FPS

2048x1536 mit 4xAA / 16xAF

X850XT PE = 9.3 FPS
GTX = 38.6 FPS

Gast
2005-07-12, 13:56:36
Könnte sein, dass bei dem Gast die CPU einfach zu langsam ist.

seahawk
2005-07-12, 13:57:00
Naja, aber in 1024x768 ohne AA+AF wird man kaum einen Unterschied feststellen.

Mr. Lolman
2005-07-12, 13:59:57
Halt ich für ein Gerücht...

Guck die hier mal die Benchmarks an:
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp


Ich wär dafür keine Benchmarks mehr zu posten, bis die Sache mit der Filterqualität eindeutig geklärt ist. (Schon schlimm genug, dass man sich dafür so viel Zeit lässt)

Was Du glaubst, ist gänzlich unwichtig. Tatsache ist, dass er in der Tat nicht 24 haben wird......d.h die. Pro schon....
"Pro" wird das Suffix fürs neue Topmodell sein?

Gast
2005-07-12, 14:42:03
Vielleicht, weil man sonst gern auf anderer Leute Paperlaunches herumhackte? Aber du hast recht:
IF
Marketing
THEN
Was interessiert mich mein Geschwätz von gestern
ELSE
Thema ignorieren.

Ich sage dir warum: Weil nV bisher eine Menge technischen Krams mitschleppte, der den Chip dicker werden ließ, als die der Konkurrenz. Etwas von diesem Krams (wieviel: wer weiß?) muss nun auch ATi in ihren Chip hineinstopfen, das schlanke Design vergangener Tage sollte man IMO nicht 1:1 auf den R520 zu übertragen versuchen.
Angenommen, beide haben einen ähnlichen Transistorcount, dann würde ich mal +100-120MHz für den R520 aufgrund seines feineren Prozesses schätzen.
Ich würde mich natürlich freuen, wenn a) die 600 MHz erreicht oder übertroffen würden (bei 24 Pixel/Clk) und b) die Option, AI sicher abzuschalten bei gleichzeitg unverändertem Texturfilter erhalten bliebe.
*hoff*

Ein Vergleich zur Situation nV40-R420/80 trifft er IMO nicht.

Hallo,

diese ganze Diskussion führt meiner Meinung nach am Thema komplett vorbei. Wir streiten hier rum bezüglich AF & Cco., machen uns Gedanken zum Aktienkurs und haben eine unterschiedlich Sichtweise vom Channel.

Letztendlich ist der R520 der Beginn einer komplett NEUEN Chip-Architektur, auf der R580 und R600 folgen werden.

Was hat nvidia gemacht: G70 = Refresh vom NV40

Ich für meinen Teil sehe die XBox360 Grafik in keinster Weise als Hinweis auf irgendwelche R520-Funktionen, das sind zwei völlig unterschiedliche Designs!

ATI wird mit dem R520 nicht nur einen NEUEN Chip launchen, sondern gleichzeitig eine komplett NEUE Produktrange.

Beginnend mit RV515 (Entry) RV530 (Midrange) R520 (Highend)

Sicherlich wir alles erst im September verfügbar sein, aber zur Jahreswende ist ein Wechsel auf der ganzen Produktseite wesentlich effektiver als nur einen HIGHEND-Chip in der eigenen Roadmap zu haben.

ShadowXX
2005-07-12, 14:57:23
Ich wär dafür keine Benchmarks mehr zu posten, bis die Sache mit der Filterqualität eindeutig geklärt ist. (Schon schlimm genug, dass man sich dafür so viel Zeit lässt)

Selbst wenn du 10% abziehst (wobei ich nicht glaube, das die (imho) leichte Verschlechterung soviel mehr bringt) ist die GTX noch wesentlich schneller.

Ich hab festgestellt, das ich inzwischen so gut wie jedes Game mit 16xS bzw. 8xS und dazu noch 8/16AF auf der GTX daddeln kann.

Das ist natürlich keine Entschuldigung, das sehe ich ein, aber ich habe dazu auch festegestellt (rein subjektiv natürlich) das der etwas schlechtere Filter scheinbar nicht überall zum Tragen kommt....entweder hat nV da noch den weitere Detektion eingebaut oder es sind teilweise einfach unglückliche Umstände die dazu führen.

Wir sollten vielleicht mal den nächsten Treiber abwarten....und wie gesagt. Mir ist die leicht schlechtere Filterung nur bei 2 Games aufgefallen (und das auch nur, weil ich stark darauf geachtet habe), sonst nirgendwo. Das Problem ist wohl eher, das diese stärkere Unterfilterung mehr Leuten als damals beim nv40 auffällt...und das kann wieder ganz woanders dran liegen.


Hallo,

diese ganze Diskussion führt meiner Meinung nach am Thema komplett vorbei. Wir streiten hier rum bezüglich AF & Cco., machen uns Gedanken zum Aktienkurs und haben eine unterschiedlich Sichtweise vom Channel.

Letztendlich ist der R520 der Beginn einer komplett NEUEN Chip-Architektur, auf der R580 und R600 folgen werden.

Was hat nvidia gemacht: G70 = Refresh vom NV40

Ich für meinen Teil sehe die XBox360 Grafik in keinster Weise als Hinweis auf irgendwelche R520-Funktionen, das sind zwei völlig unterschiedliche Designs!

ATI wird mit dem R520 nicht nur einen NEUEN Chip launchen, sondern gleichzeitig eine komplett NEUE Produktrange.

Beginnend mit RV515 (Entry) RV530 (Midrange) R520 (Highend)

Sicherlich wir alles erst im September verfügbar sein, aber zur Jahreswende ist ein Wechsel auf der ganzen Produktseite wesentlich effektiver als nur einen HIGHEND-Chip in der eigenen Roadmap zu haben.


Um die Weihnachtszeit herum, wirds auch von nV mehr Chips als nur den GTX geben....die normale GT ist schon angekündigt.

Davon abgesehen, hat nV es nicht so stark nötig, den g70 von Bottom to Top anzubieten, da (vom TSAA mal abgesehen) sich das featureset gegenüber dem nv40 nicht wirklich geändert hat.

nV hat quasi also schon sein Low- und Midrange-Karten auf dem Markt.

Mr. Lolman
2005-07-12, 15:01:15
Selbst wenn du 10% abziehst (wobei ich nicht glaube, das die (imho) leichte Verschlechterung soviel mehr bringt) ist die GTX noch wesentlich schneller.


Sind auch nur Mutmassungen. Auf nem NV40 ist bspw. bei UT2004 (Primeval 1280, 8xS) HQ um fast 50% langsamer als Treiberdefault (Q, Opts1+3)

ShadowXX
2005-07-12, 15:08:30
Sind auch nur Mutmassungen. Auf nem NV40 ist bspw. bei UT2004 (Primeval 1280, 8xS) HQ um fast 50% langsamer als Treiberdefault (Q, Opts1+3)

UT2004 ist immer das allerschlechteste Beilspiel von allen....das ist von nV so todoptimiert, das ich UT2003/2004 Benches und Test nie besonders ernst nehme (egal ob positiv oder negativ).

Man sollte bei solchen Untersuchungen immer "unbekannte" Games nehmen, bei denen dann zu 99% keinerlei Treiberschmuss mit drinne steckt.

Und es sind zwar mutmassungen, diese Basieren aber auf den Messungen, die ich auf der 68U vorgenommen hatte. Im Durchschnitt meiner 20 meistgespielten Games (und ich spiele sehr viele Sachen, die nicht in den Charts sind, also sehr wahrscheinlich unoptimiertes) ist der Unterschied Q+Bri (die beiden Aniso Optimierungen aus) zu HQ (vorher alles auf aus) 9,7% gewesen.

Die Richtig grossen Unterschiede Q zu HQ kommen meist zustande, wenn der Treiber kräftig selbst mitoptimiert....wir haben uns doch alle schonmal gefragt, was denn der Unterschied von Q + alles aus und HQ ist.
Schon mal daran gedacht, das unter HQ alle möglichen treiberinternen Optimierungen ausgeschaltet werden?? (Ähnlich AI aus bei ATI)

Interesannterweise ist bei der GTX der Abstand Q + Bri (rest aus) zu HQ viel kleiner geworden (5,3%).
Entweder wird da eine der optimierungen nicht deaktiviert oder es gibt eine neue, die nicht im CP abstellbar ist. (Oder es ist was ganz anderes).

Mr. Lolman
2005-07-12, 15:20:28
UT2004 ist immer das allerschlechteste Beilspiel von allen....das ist von nV so todoptimiert, das ich UT2003/2004 Benches und Test nie besonders ernst nehme (egal ob positiv oder negativ).

Das is ja das "Lustige". Auch das bei UT2004 ~50% langsamere HQ ist immernoch brilinear. Wie langsam wär erst wirklich korrekte Filterung?


Und es sind zwar mutmassungen, diese Basieren aber auf den Messungen, die ich auf der 68U vorgenommen hatte. Im Durchschnitt meiner 20 meistgespielten Games (und ich spiele sehr viele Sachen, die nicht in den Charts sind, also sehr wahrscheinlich unoptimiertes) ist der Unterschied Q+Bri (die beiden Aniso Optimierungen aus) zu HQ (vorher alles auf aus) 9,7% gewesen.

Kommt auch drauf an. Wenn man z.B. mit 8xS spielen will, kommt man um die Optimierungen nicht herum. Alle halbwegs neuen Spiele sind 1280 8xS (1600x1200 mit 4xAA braucht nur ~25% weniger Füllrate als 1280 8xS) und HQ zu langsam (Auch bei GTA SA merkt mans sehr stark), und mit Q+ Opt1 wirds dann meistens wieder spielbar...


Interesannterweise ist bei der GTX der Abstand Q + Bri (rest aus) zu HQ viel kleiner geworden (5,3%).
Entweder wird da eine der optimierungen nicht deaktiviert oder es gibt eine neue, die nicht im CP abstellbar ist. (Oder es ist was ganz anderes).

Suchs dir aus. Ich hab auf jeden Fall schon in mehreren Vergleichen gezeigt, das man nur HQ gegen Ati(R3x0)AF benchen sollte. Getestet wird trotzdem mit Q+Opts. Jetzt ist die Filterqualität der 7800GTX noch schlechter als die des NV40 und man testet immernoch mit Q+Opts. Schön langsam wundert mich die Leistung der 7800GTX wirklich nicht mehr.

Ich bin im Übrigen hier auch nicht der Einzige der sich überlegt hat, warum der 77.72 auf dem NV40 plötzlich schöner filtert, als ältere Treiber. Jetzt wo der NV40 keine Benchmarks mehr gewinnen muss, darf er wieder schön filtern!?

Da kommt mir das kotzen. :mad:

ShadowXX
2005-07-12, 15:32:35
Suchs dir aus. Ich hab auf jeden Fall schon in mehreren Vergleichen gezeigt, das man nur HQ gegen Ati(R3x0)AF benchen sollte. Getestet wird trotzdem mit Q+Opts. Jetzt ist die Filterqualität der 7800GTX noch schlechter als die des NV40 und man testet immernoch mit Q+Opts. Schön langsam wundert mich die Leistung der 7800GTX wirklich nicht mehr.

Ich bin im Übrigen hier auch nicht der Einzige der sich überlegt hat, warum der 77.72 auf dem NV40 plötzlich schöner filtert, als ältere Treiber. Jetzt wo der NV40 keine Benchmarks mehr gewinnen muss, darf er wieder schön filtern!?

Da kommt mir das kotzen. :mad:

Totzdem glaube ich nicht, dass die neuerlichen Optimierungen mehr als 10% bringen....(wenn überhaupt).
Selbst Bri gegenüber Tri bringt meistens nur um die 5%-6%.

Wie schon erwähnt....ich würde erst mal den nächsten Treiber abwarten.

Auf der GTX kann man übrigens wesentlich mehr Games mit 16xS oder 8xS daddeln, auch neuere....da fällt die Unterfilterung dann überhaupt nicht mehr auf (mir zumindest).

Dieser ganze Optimierungswahn liegt aber auch an den Usern, die immer längere Benchbalken haben wollen und schon enttäuscht sind, wenn die neue Karte nicht mindestens 100% schneller bei höheren Einstellungen ist.

Ich glaube, das sehr viele von dem r520 enttäusched sein werden und selbst ein paar von den "harten" ATI-Fans anfangen werden auf ATI zu fluchen....

Simsalabim
2005-07-12, 15:37:40
Hallo,

diese ganze Diskussion führt meiner Meinung nach am Thema komplett vorbei. Wir streiten hier rum bezüglich AF & Cco., machen uns Gedanken zum Aktienkurs und haben eine unterschiedlich Sichtweise vom Channel.

Letztendlich ist der R520 der Beginn einer komplett NEUEN Chip-Architektur, auf der R580 und R600 folgen werden.

Was hat nvidia gemacht: G70 = Refresh vom NV40

Ich für meinen Teil sehe die XBox360 Grafik in keinster Weise als Hinweis auf irgendwelche R520-Funktionen, das sind zwei völlig unterschiedliche Designs!

ATI wird mit dem R520 nicht nur einen NEUEN Chip launchen, sondern gleichzeitig eine komplett NEUE Produktrange.

Beginnend mit RV515 (Entry) RV530 (Midrange) R520 (Highend)

Sicherlich wir alles erst im September verfügbar sein, aber zur Jahreswende ist ein Wechsel auf der ganzen Produktseite wesentlich effektiver als nur einen HIGHEND-Chip in der eigenen Roadmap zu haben.

Die 6er verkaufen sich glänzend, die 78GTX auch, die 78GT wird demnächst vorgestellt, die 6200er wird durch die 6600LE (425MHz statt 300MHz) ersetzt und alles ist SM3. Wo ist das Problem?

Wer hier erstmal mit SM3 nachziehen muss ist ATI, Nvidia kann warten.

Gast
2005-07-12, 15:41:44
[QUOTE=Mr. Lolman]Ich bin im Übrigen hier auch nicht der Einzige der sich überlegt hat, warum der 77.72 auf dem NV40 plötzlich schöner filtert, als ältere Treiber. Jetzt wo der NV40 keine Benchmarks mehr gewinnen muss, darf er wieder schön filtern!?
[QUOTE]

Gibts Vergleichscreenies das es mal schlechter war? Ich hab ne 7800GTX und kenne leider nur den 77.72 von daher kann ich jetzt nicht sagen ob die neue Karte gegenüber der alten 6800GT schlechtere Bildqualität bringt (tut mir leid aber ich Spiele ausschließlich mit min. 4xS bzw. den neuen TSAA Modi, da fällt einem nich so viel auf)

Finds gut das ihr immer wieder Offtopic geht um eure Meinungen durchzusetzen oder sie zumindest jedem 3mal täglich unter die Nase zu reiben, und es sind IMMER die selben Leute, ein Schelm wer böses denkt...

Tomcat70
2005-07-12, 15:52:58
Ich glaube, das sehr viele von dem r520 enttäusched sein werden und selbst ein paar von den "harten" ATI-Fans anfangen werden auf ATI zu fluchen....


das bezweifle ich sehr stark :D

ich bin überzeugt davon das ATI einen guten job gemacht hat.

selbst wenn der r520 "nur" 20-30% schneller sein sollte als die x850xt, wobei ich ATI mehr zutraue, stehen sie dann nicht so schlecht da.

Gast
2005-07-12, 15:54:55
shadowxxxxxxxxxx für nv lobgesänge bist im falschen thread

ShadowXX
2005-07-12, 15:55:08
das bezweifle ich sehr tark :D

ich bin überzeugt davon das ATI einen guten job gemacht hat.

selbst wenn der r520 "nur" 20-30% schneller sein sollte als die x850xt, wobei ich ATI mehr zutraue, dann stehen sie nicht so schlecht da.

Aha....und wenn der GTX "nur" 50% schneller ist als sein vorgänger (oftmals sind es weit mehr als diese 50%) ist das schlecht??

Tomcat70
2005-07-12, 15:57:59
Aha....und wenn der GTX "nur" 50% schneller ist als sein vorgänger (oftmals sind es weit mehr als diese 50%) ist das schlecht??

du vergisst das die x850xt durchwegs schneller als die 6800 ultra ist.

ausserdem kommt die von dir genannte aussage sicher nicht von mir.....ich hab nie gesagt das die steigerung der 7800 gegenüber der 6800 schlecht ist.

Gast
2005-07-12, 15:58:06
Aha....und wenn der GTX "nur" 50% schneller ist als sein vorgänger (oftmals sind es weit mehr als diese 50%) ist das schlecht??
bei identischen Texturfiltern?

Mr. Lolman
2005-07-12, 15:58:51
Gibts Vergleichscreenies das es mal schlechter war?

Ne, aber schon ein paar Aussagen (auch von den 3D Gurus), dass der Nv40 mit HQ beim 77.72 plötzlich nichtmehr (oder weniger flimmert) als bei vorigen Treiben.


Finds gut das ihr immer wieder Offtopic geht um eure Meinungen durchzusetzen oder sie zumindest jedem 3mal täglich unter die Nase zu reiben, und es sind IMMER die selben Leute, ein Schelm wer böses denkt...

Hier gehts nicht darum, eine Karte oder einen Hersteller schlecht zu machen, sondern nur darum, dass nahezu alle G70 Benchmarks ein verfälschtes Bild von der Leistungsfähigkeit der Karte widerspiegeln, da unter unfairen Bedingungen gebencht wird. (Gut der NV40 ist hier wirklich OT, aber ich wollt damit ja nur zeigen, dass schon die NV40 Benchmarks nicht ganz korrekt waren, und dass es sich mit dem G70 nicht unbedingt zum Besseren gewendet hat)

Ob da jetzt 5 oder 50% Leistung erschummelt werden, sollte Bestandteil weiterer Untersuchungen sein. Grundsätzlich wollt ich nur (wieder mal) verdeutlichen, dass man auf aktuelle G70 Benchmarks nicht allzuviel geben sollte...

reunion
2005-07-12, 16:04:26
Halt ich für ein Gerücht...

Guck die hier mal die Benchmarks an:
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp

1280x960 mit 4xAA / 16xAF:

X850XT PE = 40.6 FPS
GTX = 85 FPS

1600x1200 mit 4xAA / 16xAF

X850XT PE = 33.8 FPS
GTX = 63.7 FPS

2048x1536 mit 4xAA / 16xAF

X850XT PE = 9.3 FPS
GTX = 38.6 FPS

http://images.anandtech.com/graphs/bf2%20article_07060570708/7863.png

http://www.anandtech.com/video/showdoc.aspx?i=2466&p=4

Wenn man diese Werte mal zum Vergleich heranzieht, sollte man sich fragen, ob bei den NV-Karten überhaupt AF aktiviert war.

Und selbst wenn, sagt der geringe Verlust eigendlich alles über die Qualität aus.

Gast
2005-07-12, 16:10:08
http://images.anandtech.com/graphs/bf2%20article_07060570708/7863.png

http://www.anandtech.com/video/showdoc.aspx?i=2466&p=4

Wenn man diese Werte mal zum Vergleich heranzieht, sollte man sich fragen, ob bei den NV-Karten überhaupt AF aktiviert war.

Und selbst wenn, sagt der der geringe Verlust eigendlich alles über die Qualität aus.

genau,ich hab die 7800gtx und das AF schaut extrem mies aus,da ist no AF besser

außerdem sind die benches und unrealen auflösungen

Mr. Lolman
2005-07-12, 16:13:53
Totzdem glaube ich nicht, dass die neuerlichen Optimierungen mehr als 10% bringen....(wenn überhaupt).
Selbst Bri gegenüber Tri bringt meistens nur um die 5%-6%.

Aber nur wenn die Karte nicht an der Texelfillrate hängt...


Auf der GTX kann man übrigens wesentlich mehr Games mit 16xS oder 8xS daddeln, auch neuere....da fällt die Unterfilterung dann überhaupt nicht mehr auf (mir zumindest).

Klar, da hast du recht. Aber andererseits reicht auch Mipmapdithering und negatives LOD, solang der SS Grad hochgenug ist.


Dieser ganze Optimierungswahn liegt aber auch an den Usern, die immer längere Benchbalken haben wollen und schon enttäuscht sind, wenn die neue Karte nicht mindestens 100% schneller bei höheren Einstellungen ist.

:crazy:

Was kann denn der User dafür, wenn die Karten der von den IHVs geschürten Erwartungen nicht gerecht werden...

reunion
2005-07-12, 16:17:21
Mir ist die leicht schlechtere Filterung nur bei 2 Games aufgefallen (und das auch nur, weil ich stark darauf geachtet habe), sonst nirgendwo.


Das ist ja das Problem, der Unterschied fällt kaum auf.
Wohlgemerkt der Unterschied zur vorherigen Generation - im Vergleich zur inzwischen schon recht alten Geforce 3, ist das eine Zumutung.

Und die Qualität wird weiter, "kaum sichtbar" verschlechtert.

[dzp]Viper
2005-07-12, 16:18:40
Leute - bitte haltet euch immernoch am Threadthema fest und werdet nicht komplett offtopic!

Gast
2005-07-12, 16:22:36
richtig mod,wird ati den r520 auf einer messe vorstellen ?

wenn nicht muß es doch schon infos geben wo und wann ati welches gebäude für die vorstellung gebucht hat.

reunion
2005-07-12, 16:24:41
Klar, da hast du recht. Aber andererseits reicht auch Mipmapdithering und negatives LOD, solang der SS Grad hochgenug ist.


Natürlich, jetzt muss man halt SSAA aktivieren, kostet eh' kaum Leistung. :hammer:

Mr. Lolman
2005-07-12, 16:26:51
Das ist ja das Problem, der Unterschied fällt kaum auf.
Wohlgemerkt der Unterschied zur vorherigen Generation - im Vergleich zur Geforce 3 bsw, ist das eine Zumutung.
Und die Qualität wird weiter, "kaum sichtbar" verschlechtert.

Stimmt. Ich hab letztens erst heftigstes brilinear auf meiner 64MB R300 (bei der SC3 Demo) entdecken dürfen. Lustigerweise fiel das ohne Colormips kaum auf. Bringt zwar höchstwahrscheinlich einen haufen Speed auf dem kleinen Kärtchen, aber bei den Highendgeräten dürfte die ja genauso aktiv sein. :(

Andererseits sind Optimierungen ja ok, ja sogar wünschenswert, solangs bloß nicht auffällt. Und da dürfte ATi (durch ihr besseres biAF) die wesentlich besseren Ausgangsbedingungen haben...

Viper']Leute - bitte haltet euch immernoch am Threadthema fest und werdet nicht komplett offtopic!

Das Threadthema ist ja ohnehin schon ausgelutscht. R520 schon Anfang 2005? ;D;D;D
Außerdem wird der Thread eh wieder von selbst OnTopic. (Ganz ohne OT läuft halt so ein 270 Seiten Thread nicht wirklich)

ShadowXX
2005-07-12, 16:32:31
Was kann denn der User dafür, wenn die Karten der von den IHVs geschürten Erwartungen nicht gerecht werden...

Die zu hohen Erwartungen kommen meist von User-Seite aus.......

Guck dir doch mal an, was die Leute inzwischen vom r520 erwarten. Mindestens 24 Pipes, aber eigentlich sogar 32 und dass dann noch bei mindestens 650MHz.

Dann würden Sie gerne noch 16xAF und 4xAA vollständig for free haben....(AF natürlich Winkelunabhängig...)

Fast jeder erwartet doch, das der r520 den G70 vom Boden aufwischt....

Und wenn dies nun nicht passiert?? Und wenn ATI hypothetisch nur dadurch mithalten kann, das Sie ebenfalls die Filterquali senken um es wenigstens halbwegs den Benchmarkbalkengeilen recht machen zu können??

Zu hohe Erwartungen kömmen IMHO immer von Userseite....

Gast
2005-07-12, 16:36:25
Die zu hohen Erwartungen kommen meist von User-Seite aus.......

Guck dir doch mal an, was die Leute inzwischen vom r520 erwarten. Mindestens 24 Pipes, aber eigentlich sogar 32 und dass dann noch bei mindestens 650MHz.

Dann würden Sie gerne noch 16xAF und 4xAA vollständig for free haben....(AF natürlich Winkelunabhängig...)

Fast jeder erwartet doch, das der r520 den G70 vom Boden aufwischt....

Und wenn dies nun nicht passiert?? Und wenn ATI hypothetisch nur dadurch mithalten kann, das Sie ebenfalls die Filterquali senken um es wenigstens halbwegs den Benchmarkbalkengeilen recht machen zu können??

Zu hohe Erwartungen kömmen IMHO immer von Userseite....


falsch,wach auf

g70 ist minimal schneller als die letzte gen und teilweise genau so schnell die ati´s

das zu schlagen ist kein prob

[dzp]Viper
2005-07-12, 16:37:18
falsch,wach auf

g70 ist minimal schneller als die letzte gen und teilweise genau so schnell die ati´s

das zu schlagen ist kein prob

lol so ein schwachsinn :D

hab schon überlegt ob ich das in den papierkorb verschiebe :D

Gast
2005-07-12, 16:40:10
könnt ihr ernsthaft bleiben,das ist kein schwachsinn sind fakten denn ich hab den g70
der g70 hat eine deutlich schlechte bildqualität und ist minimal schneller

IVN
2005-07-12, 16:44:01
könnt ihr ernsthaft bleiben,das ist kein schwachsinn sind fakten denn ich hab den g70
der g70 hat eine deutlich schlechte bildqualität und ist minimal schneller
Ja,du hast recht.G70 ist minimal schneller als r9600xt. :crazy: :hammer:


*rotebrillerunternehmen*

Gast
2005-07-12, 16:46:42
Ja,du hast recht.G70 ist minimal schneller als r9600xt. :crazy: :hammer:


*rotebrillerunternehmen*

wer hat was von der karte gesagt ?

Mr. Lolman
2005-07-12, 16:55:05
Die zu hohen Erwartungen kommen meist von User-Seite aus.......

Guck dir doch mal an, was die Leute inzwischen vom r520 erwarten. Mindestens 24 Pipes, aber eigentlich sogar 32 und dass dann noch bei mindestens 650MHz.Komisch, dass man das ATi nicht zutraut. An die 16 Pipes beim R420 hat ja auch keiner (außer mir) geglaubt.


Dann würden Sie gerne noch 16xAF und 4xAA vollständig for free haben....(AF natürlich Winkelunabhängig...)Das will jeder, aber erwartet imo niemand...


Fast jeder erwartet doch, das der r520 den G70 vom Boden aufwischt....Bei vergleichbarer BQ sollte er schon min. 50% flotter sein.

Und wenn dies nun nicht passiert?? Und wenn ATI hypothetisch nur dadurch mithalten kann, das Sie ebenfalls die Filterquali senken um es wenigstens halbwegs den Benchmarkbalkengeilen recht machen zu können??


Nein. Dann sind sie einfach langsamer. Punkt. Wenn sie tatsächlich das schlechtere Produkt haben, müssen noch mehr Energien in die künftige Chipentwicklung stecken, und das Produkt zu einem günstigerem Preis am Markt positionieren. Leistungstechnische Unzulänglichkeiten dürfen einfach nicht mittels Filterbescheisseren am Rücken des Users ausgebadet werden (Der das dann noch gefälligst ok zu finden hat? - gehts noch?)

Klar dass es beim Texturfiltern viel Optimierungspotential gab/gibt, dann sollte man das aber auch nur soweit treiben, dass der User davon keine Beeinträchtigung in der BQ erleidet, und nicht einfach darauf spekulieren, dass nur balkengeile DAUs die neue Highend HQ kaufen werden..

Kleines Beispiel: Ich hab mir damals eine 6800GT gekauft, weil man mir erzählte dass Treiberdefault (Q,Opt1,3) mit ATi BQ vergleichbar wäre, und dass das HQ AF einfach eh unvergleichbar toll ist. Nochdazu SSAA, und als Schmankerl SM3.0.
SM3.0 braucht man immernoch nicht (außer bei SC3 und Farcry HDR), die BQ ist (treiberdefault) definitiv schlechter, das SSAA ist bei 1280 größtenteils nicht nutzbar und bei den neuen Benchmarks kacken die NV40 Karten viel mehr ab, als mans bisher gewohnt war. Und das soll mich als Kunden jetzt überzeugen noch ne Karte von dem IHV zu kaufen?

Seid doch bitte nicht alle so IHV hörig. (Damit meine ich auch das 3DCenter. wo bleiben die News von den Fitertrickserein des G70?)

Gast
2005-07-12, 16:57:33
Ich bin im Übrigen hier auch nicht der Einzige der sich überlegt hat, warum der 77.72 auf dem NV40 plötzlich schöner filtert, als ältere Treiber. Jetzt wo der NV40 keine Benchmarks mehr gewinnen muss, darf er wieder schön filtern!?

Da kommt mir das kotzen. :mad:

Mir auch, aber so ist das mit den Versprechungen!

BieneMaja
2005-07-12, 16:58:38
Jau, die 7800GTX ist wirklich kaum schneller als eine X850XT. Und das was sie schneller ist kommt größtenteils doch sowieso durch das kaputt optimierte AF. Naja, wem das Flimmern egal ist.

[Ionis59]
2005-07-12, 17:01:08
Ich bin im Übrigen hier auch nicht der Einzige der sich überlegt hat, warum der 77.72 auf dem NV40 plötzlich schöner filtert, als ältere Treiber. Jetzt wo der NV40 keine Benchmarks mehr gewinnen muss, darf er wieder schön filtern!?

Da kommt mir das kotzen.
Defnitv. Ab jetzt werde ich keine nVidia Karten mehr kaufen. Solche Unverschämtheiten könne die mit anderen Idioten abziehen, ich werde jetzt zu ATI wechseln.

IVN
2005-07-12, 17:01:59
Jau, die 7800GTX ist wirklich kaum schneller als eine X850XT. Und das was sie schneller ist kommt größtenteils doch sowieso durch das kaputt optimierte AF. Naja, wem das Flimmern egal ist.
Das ist egal.Wei(funny S)t du wieso?Weil das Topic ''r520 schon Anfang 2005?'' lautet. :biggrin:

ShadowXX
2005-07-12, 17:18:04
Bei vergleichbarer BQ sollte er schon min. 50% flotter sein.


Dann mal fröhliches hoffen......


Nein. Dann sind sie einfach langsamer. Punkt. Wenn sie tatsächlich das schlechtere Produkt haben, müssen noch mehr Energien in die künftige Chipentwicklung stecken, und das Produkt zu einem günstigerem Preis am Markt positionieren. Leistungstechnische Unzulänglichkeiten dürfen einfach nicht mittels Filterbescheisseren am Rücken des Users ausgebadet werden (Der das dann noch gefälligst ok zu finden hat? - gehts noch?)

Klar dass es beim Texturfiltern viel Optimierungspotential gab/gibt, dann sollte man das aber auch nur soweit treiben, dass der User davon keine Beeinträchtigung in der BQ erleidet, und nicht einfach darauf spekulieren, dass nur balkengeile DAUs die neue Highend HQ kaufen werden..

Kleines Beispiel: Ich hab mir damals eine 6800GT gekauft, weil man mir erzählte dass Treiberdefault (Q,Opt1,3) mit ATi BQ vergleichbar wäre, und dass das HQ AF einfach eh unvergleichbar toll ist. Nochdazu SSAA, und als Schmankerl SM3.0.
SM3.0 braucht man immernoch nicht (außer bei SC3 und Farcry HDR), die BQ ist (treiberdefault) definitiv schlechter, das SSAA ist bei 1280 größtenteils nicht nutzbar und bei den neuen Benchmarks kacken die NV40 Karten viel mehr ab, als mans bisher gewohnt war. Und das soll mich als Kunden jetzt überzeugen noch ne Karte von dem IHV zu kaufen?

Seid doch bitte nicht alle so IHV hörig. (Damit meine ich auch das 3DCenter. wo bleiben die News von den Fitertrickserein des G70?)

Du glaubst doch nicht wirklich, dass ATI bei einem imaginäre Gleichstand darauf verzichten würde durch weitere Filteroptimierungen dann doch in den Benchmarks zu gewinnen??

Gast
2005-07-12, 17:21:56
Das ist egal.Wei(funny S)t du wieso?Weil das Topic ''r520 schon Anfang 2005?'' lautet. :biggrin:
Genau. Und die Moral von der Geschicht, kauf die 7800 nicht. ... Der R520 kann nur erheblich besser werden.

Demirug
2005-07-12, 17:26:38
Genau. Und die Moral von der Geschicht, kauf die 7800 nicht. ... Der R520 kann nur erheblich besser werden.

Lächle und sei froh den es könnte schlimmer sein und ich lächelte und war froh...

Es gibt leider keinen zwingenden Grund für ATI einen ordentlichen Texturefilter anzubieten.

deekey777
2005-07-12, 17:30:08
Das ist egal.Wei(funny S)t du wieso?Weil das Topic ''r520 schon Anfang 2005?'' lautet. :biggrin:

OT: Funny S? ß? Schreib einfach "ss".

Gast
2005-07-12, 17:31:05
Genau. Und die Moral von der Geschicht, kauf die 7800 nicht. ... Der R520 kann nur erheblich besser werden.

Warum sollte er? CPU limitiert bei niedrigen Aufloesungen wird auch er sein und ATI wird keine Transistoren in bessere Filterung stecken sonst haetten sie es schon laengst gemacht.

Mr. Lolman
2005-07-12, 17:32:40
Du glaubst doch nicht wirklich, dass ATI bei einem imaginäre Gleichstand darauf verzichten würde durch weitere Filteroptimierungen dann doch in den Benchmarks zu gewinnen??

Glaub ich eh nicht. Aber lt. Erfahrung schreit das 3DCenter eh ziemlich schnell, sofern bei ATi BQ was nicht stimmt. Und ich werd sicher auch nicht meinen Mund halten, denn passiert das wirklich (sichtbare BQ Verschlechterung), gibts keinen IHV mehr, dessen Produkte man noch kaufen kann. (sofern sich NV in Zwischenzeit nicht ihrer Wurzeln besinnt)

Schlimmstenfalls besteh ich auf nen Developertreiber der brav filtert :naughty: - und/oder ich fang an in meinem Bekanntenkreis S3 und XGI zu hypen...

Lächle und sei froh den es könnte schlimmer sein und ich lächelte und war froh...

Es gibt leider keinen zwingenden Grund für ATI einen ordentlichen Texturefilter anzubieten.

Doch ein ordentlicher Verriss der NV Filtertrechnik...

seahawk
2005-07-12, 17:33:45
Wer sagt euch eigentlich, dass ATI nicht an der Filterqualität dreht ??

Bessere Filterqualität und 50% schneller dürfte schwer zu erreichen sein, aber hoffen wir das Beste.

deekey777
2005-07-12, 17:36:39
Genau. Und die Moral von der Geschicht, kauf die 7800 nicht. ... Der R520 kann nur erheblich besser werden.

Alles die Frage des Preises: Wird die kommende R520 Grafikkarte etwas langsamer, aber günstiger sein, so wird sie die bessere Grafikkarte, es sei denn, es geht nur um Balkenlänge.

Hauwech
2005-07-12, 17:39:03
Beim R300 kann man es ja verstehen warum sie da gespart haben aber beim R4xx haetten sie es ja anbieten koennen, haben sie aber nicht gemacht. Warum sollte der R520 anders sein wenn kaum einer aufgemuckt hat?

Kann die Filterqualitaet bei der 78er per Treiber verbessert werden oder ist dafuer keine HW Unterstuetzung mehr vorhanden? Zumindest bei NV40 geht es ja anscheinend. Ich wuerde sowieso erstmal ein paar weitere Treiber abwarten, da kann sich noch einiges tun.

Hauwech
2005-07-12, 17:41:30
Alles die Frage des Preises: Wird die kommende R520 Grafikkarte etwas langsamer, aber günstiger sein, so wird sie die bessere Grafikkarte, es sei denn, es geht nur um Balkenlänge.

Es geht nur um Balkenlaenge, sonst nichts.

Gast
2005-07-12, 17:50:53
Wer sagt euch eigentlich, dass ATI nicht an der Filterqualität dreht ??

Bessere Filterqualität und 50% schneller dürfte schwer zu erreichen sein, aber hoffen wir das Beste.

Das warten wir ersteinmal ab! Launch und etc. G70 kennen wir ja und wissen bescheid ;)

Quasar
2005-07-12, 19:15:57
Beim R300 kann man es ja verstehen warum sie da gespart haben [...]
Dabei haben sie beim R300 abgesehen von Winkelabhängigkeit und Texture-Stage Optimierung gar nicht gespart.

Quasar
2005-07-12, 19:30:06
Ich bin im Übrigen hier auch nicht der Einzige der sich überlegt hat, warum der 77.72 auf dem NV40 plötzlich schöner filtert, als ältere Treiber.
Wo ist das besonders auffällig?

mapel110
2005-07-12, 19:34:28
Wo ist das besonders auffällig?
angeblich UT2004 laut Coda.

ShadowXX
2005-07-12, 19:55:22
angeblich UT2004 laut Coda.

Wahrscheinlich haben Sie beim nv40 den zwangs-biliniaren Filter für UT entfernt....

Gast
2005-07-12, 20:38:35
Komisch, dass man das ATi nicht zutraut. An die 16 Pipes beim R420 hat ja auch keiner (außer mir) geglaubt.


Warum waren denn 500mhz bei 16 pipes drinne?Genau selbt du wirdt es schon erraten haben kein SM3.0 keine Transitoren für echtes HDR kein SSAA
wenn man davon ausgeht das dies alles in den R520 rein muss wie kann man da mit Gesunden menschenverstand an 24pipes und 600mhz Glauben.Nur wegen 90nm? das hat bei intel nur Probs gebracht und selbst amd hats nur 200mhz gegenüber 0.13 gebracht und die Prozzis sind bei weitem nicht so Komplex wie ein SM3.0 chip.

Quasar
2005-07-12, 20:57:56
angeblich UT2004 laut Coda.
Hm, davon sehe ich nix.

Tomcat70
2005-07-12, 20:58:28
Nur wegen 90nm? das hat bei intel nur Probs gebracht


seit dem ist aber viel wasser den bach runtergeflossen..........

IVN
2005-07-12, 21:08:58
OT: Funny S? ß? Schreib einfach "ss".
Das ist aber nicht legitim. :-)

Gast
2005-07-12, 21:14:40
Warum waren denn 500mhz bei 16 pipes drinne?Genau selbt du wirdt es schon erraten haben kein SM3.0 keine Transitoren für echtes HDR kein SSAA


ähm sorry aber für SSAA brauchst du keinen einzigen transistor extra ;)

TheCounter
2005-07-12, 21:32:54
Warum waren denn 500mhz bei 16 pipes drinne?Genau selbt du wirdt es schon erraten haben kein SM3.0 keine Transitoren für echtes HDR kein SSAA

Mal davon abgesehen das die Radeon Karten SSAA beherrschen (Dank Demirug ist es sogar nutzbar) und dies nur nicht im Treiber freigeschalten ist ;)

Wir wissen doch noch überhaupt nicht wie viel der 90nm Prozess wirklich bringt. An die 16 Pipes glaub ich bei der Highend Version aber trotzdem nicht. IMHO sind es mindestens 24, wenn nicht 32 (Natürlich nichtmehr mit dem selben Takt). Genauso denke ich das ATi an der Effizienz gearbeitet hat.

Das warten wird langsam echt öde ;)

reunion
2005-07-12, 21:46:41
Hm, davon sehe ich nix.


Ich schon, das flimmern hat deutlich abgenommen, sieht man auch bei BF2 sehr stark.

Gast
2005-07-12, 21:57:43
Lächle und sei froh den es könnte schlimmer sein und ich lächelte und war froh...

Es gibt leider keinen zwingenden Grund für ATI einen ordentlichen Texturefilter anzubieten.
Lächeln tu ich immer. :)

Und einen Grund für ATI besseres AF als nVidia anzubieten, was sie ja ohnehin schon tun, sind kritische Artikel von 3D Seiten bzgl. dem G70 und seiner Filterqualität, um die Öffentlichkeit aufzuwecken. Also auf, auf!

Quasar
2005-07-12, 22:15:12
Ich schon, das flimmern hat deutlich abgenommen, sieht man auch bei BF2 sehr stark.
BF2 habe ich nicht (und auch kein Interesse daran). Und in UT2004 sind die Texturen noch immer nicht ruhig (DM-Asbestos, 800x600x32, 2xAA, 16xAF, HQ im Treiber, vorher alle Optimierungen deaktiviert und Clamp aktiviert).

Gast
2005-07-12, 23:29:55
ähm sorry aber für SSAA brauchst du keinen einzigen transistor extra ;)

Klar brauchst du mehr Transistoren, zumindest bei ATI!
Denk mal an die Beschränkung unter der die gesamte X-Serie bei SSAA leidet, über 1024er Auflösung is Sense, und es sind keine Kombi Modi oder?

deekey777
2005-07-12, 23:35:32
Klar brauchst du mehr Transistoren, zumindest bei ATI!
Denk mal an die Beschränkung unter der die gesamte X-Serie bei SSAA leidet, über 1024er Auflösung is Sense, und es sind keine Kombi Modi oder?

Gilt das auch für Apple Systeme? :confused:

Das ist aber nicht legitim. :-)

Doch wegen der neuen Rechtschreibung; die Schweizer kennen kein "ß".

http://www.duden.de/neue_rechtschreibung/

Quasar
2005-07-12, 23:45:13
Klar brauchst du mehr Transistoren, zumindest bei ATI!
Denk mal an die Beschränkung unter der die gesamte X-Serie bei SSAA leidet, über 1024er Auflösung is Sense, und es sind keine Kombi Modi oder?
Die Hybrid-Modi erfordern nicht per se mehr Transistoren, soweit ich weiß. Und was die SSAA-Beschränkung angeht - mit SM3-Fähigkeit ist automatisch auch die prinzipielle SSAA-Tauglichkeit bis 2048x2048 mit 2x2 SSAA oder 1024x1024 mit 4x4 SSAA verbunden. FP32-Textureadressierung.

Coda
2005-07-12, 23:48:25
Wahrscheinlich haben Sie beim nv40 den zwangs-biliniaren Filter für UT entfernt....Nein. Das Flimmern mit AF ist deutlich weniger gerworden. Hat Lolman auch beobachtet.

Ailuros
2005-07-13, 03:35:53
Hallo,

diese ganze Diskussion führt meiner Meinung nach am Thema komplett vorbei. Wir streiten hier rum bezüglich AF & Cco., machen uns Gedanken zum Aktienkurs und haben eine unterschiedlich Sichtweise vom Channel.

Letztendlich ist der R520 der Beginn einer komplett NEUEN Chip-Architektur, auf der R580 und R600 folgen werden.

R300/R420/R520 gehoeren immer noch zur gleichen Familie von GPUs da die Einheiten getrennt sind; einziger Unterschied ist dass R520 dieses "nutzlose" SM3.0 Featureset noch hat.

Xenos und R600 gehoeren zu einer neuen Aera, wobei die Einheiten eben vereint sind.

Wo genau ist der komplett "NEUE" Design beim R520?

Was hat nvidia gemacht: G70 = Refresh vom NV40

Ich für meinen Teil sehe die XBox360 Grafik in keinster Weise als Hinweis auf irgendwelche R520-Funktionen, das sind zwei völlig unterschiedliche Designs!

Schon seit einer Ewigkeit bekannt.

ATI wird mit dem R520 nicht nur einen NEUEN Chip launchen, sondern gleichzeitig eine komplett NEUE Produktrange.

Mit einem Jahr Verspaetung im Vergleich zur Konkurrenz ist es aber auch nicht gerade ein besonderes Ereignis mehr.

Beginnend mit RV515 (Entry) RV530 (Midrange) R520 (Highend)

RV515 ist low end R520 und RV530 der Nachfolger des ersten und wird mit R580 erscheinen. Falls mainstream nur einen quad haben sollte, liegt ATI aber ganz tief in der Pampe.

Sicherlich wir alles erst im September verfügbar sein, aber zur Jahreswende ist ein Wechsel auf der ganzen Produktseite wesentlich effektiver als nur einen HIGHEND-Chip in der eigenen Roadmap zu haben.

Nette Entschuldigung fuer miese Margen.

Ailuros
2005-07-13, 03:40:29
Ich glaube, das sehr viele von dem r520 enttäusched sein werden und selbst ein paar von den "harten" ATI-Fans anfangen werden auf ATI zu fluchen....

Bevor ich zu irgend einer Schlussvolgerung komme, moechte ich zuerst sehen aus was genau ATI's angebliche bessere Filterung besteht.

Nach der R300 warnte ich davor dass manche NV-fans nicht so schnell die Winkel-abhaengigkeit so leicht verdammen sollten.

Ailuros
2005-07-13, 03:49:19
ähm sorry aber für SSAA brauchst du keinen einzigen transistor extra ;)

Basislose Generalisierung.

tombman
2005-07-13, 05:31:00
'Fudo' rocks at high speed

http://www.the-inquirer.com/?article=24540

R520 tape-out number three was successful

Exxtreme
2005-07-13, 07:33:41
Klar brauchst du mehr Transistoren, zumindest bei ATI!
Denk mal an die Beschränkung unter der die gesamte X-Serie bei SSAA leidet, über 1024er Auflösung is Sense, und es sind keine Kombi Modi oder?
Da ATi mit SM3 eh' eine höhere Auflösung fahren können muss, gäbe es die "zusätzlichen" Transistoren quasi umsonst dazu. Und nein. OGSSAA ist nicht wirklich toll da man sehr viel Leistung verbraten muss um eine gute Glättungswirkung zu erzielen.

Diskutator
2005-07-13, 07:45:31
Basislose Generalisierung.

Deine letzten 4 Antworten sind sehr lustig ;)

Basislose *,*

ShadowXX
2005-07-13, 07:49:00
Bevor ich zu irgend einer Schlussvolgerung komme, moechte ich zuerst sehen aus was genau ATI's angebliche bessere Filterung besteht.

Nach der R300 warnte ich davor dass manche NV-fans nicht so schnell die Winkel-abhaengigkeit so leicht verdammen sollten.

Das war anders gemeint....es ging nur darum, das eben viele erwarten, das der r520 mit dem G70 den Boden aufwischen wird (rein Speedmäßig). Und ich glaube eben nicht, das ATI diese extreme Erwartungshaltung wirklich erfüllen können wird.

Mich würde es nicht mal wundern, wenn der r520 in bestimmten Situationen tatsächlich schneller als der G70 ist, aber eben kein "zertrümmern" der Konkurrenz.

Was die Filterseite angeht muss man natürlich erst mal sehen was von ATI-Seite kommt, aber ich würde auch erst mal die folgenden Treiber von nV abwarten.....

Diskutator
2005-07-13, 07:49:08
R300/R420/R520 gehoeren immer noch zur gleichen Familie von GPUs da die Einheiten getrennt sind; einziger Unterschied ist dass R520 dieses "nutzlose" SM3.0 Featureset noch hat.



Absolut FALSCH!

ShadowXX
2005-07-13, 07:50:56
Absolut FALSCH!

Was?? Doch kein SM3.0? ( :biggrin: )

seahawk
2005-07-13, 08:12:31
Was?? Doch kein SM3.0? ( :biggrin: )

2.0b reicht doch für alles aus. ;D

Ailuros
2005-07-13, 09:42:37
Deine letzten 4 Antworten sind sehr lustig ;)

Basislose *,*

Supersampling ist eine sehr breite Bezeichnung; Pixar benutzt 64x sample stochastic Supersampling und motion blur. Wenn mir jetzt jemand weissmachen will dass man dafuer keine extra Transistoren aufwenden muesste, dann hat er nicht die blasseste Ahnung von was er blubbert.

Supersampling ist nicht nur OGSS.

Ailuros
2005-07-13, 09:47:11
Absolut FALSCH!

Eine halbwegs logische Erklaerung waere angebracht.

robbitop
2005-07-13, 09:55:42
Absolut FALSCH!
Selbst Wavey sagt das schon seit Monaten. Wenn du das Gegenteil behauptest, dann führe es auch bitte aus.

Ailuros
2005-07-13, 09:58:48
Das war anders gemeint....es ging nur darum, das eben viele erwarten, das der r520 mit dem G70 den Boden aufwischen wird (rein Speedmäßig). Und ich glaube eben nicht, das ATI diese extreme Erwartungshaltung wirklich erfüllen können wird.

Es wird auch nicht der Fall sein.

Mich würde es nicht mal wundern, wenn der r520 in bestimmten Situationen tatsächlich schneller als der G70 ist, aber eben kein "zertrümmern" der Konkurrenz.

Kommt ganz drauf an was genau der Massstab sein wird. Was sehr shader-lastige zukuenftige Applikationen betrifft, sieht es nach den Angaben von Entwicklern eher nach G70 aus. Die Moeglichkeit dass es sich heutzutage nicht voll ausspielen wird, sollte man aber mitberechnen.

Was die Filterseite angeht muss man natürlich erst mal sehen was von ATI-Seite kommt, aber ich würde auch erst mal die folgenden Treiber von nV abwarten.....

Wenn die konstante Steigerung von neuen Optimierungen nicht irgendwann ein Ende nimmt, wird wohl ATI nicht Leistung fuer wahre bessere Filterung opfern. Eine These die hierbei helfen koennte waeren tri-TMUs, aber da auf Xenos das TMU-array immer noch bilinear ist, sieht es nicht danach aus.

Hauwech
2005-07-13, 10:09:55
Waeren diese fast-TRI TMUs von S3 was für ATI und Nvidia?

robbitop
2005-07-13, 10:18:59
Waeren diese fast-TRI TMUs von S3 was für ATI und Nvidia?
Eher nicht.
-Die kostent wohl ordentlich Transistoren
-in OGL darfst du sie nicht nutzen aufgrund der festgelegten Formel
-man kann viel R&D Arbeit für die Optimierungen wegschmeißen
-noch interessiert die Masse anscheinend nicht, wie gefiltert wird

seahawk
2005-07-13, 10:25:13
Waeren diese fast-TRI TMUs von S3 was für ATI und Nvidia?

Erst, wenn die BAlkenlänge weniger wichtig wird.

Ich erinnere mal an einige Bemerkungen in diesme Thread :

"Die G70 ist fast gar nicht schneller als der R480 - was für eine Enttäuschung" -> in 1024x768 !!!!

Hauwech
2005-07-13, 10:30:50
Eher nicht.
-Die kostent wohl ordentlich Transistoren
-in OGL darfst du sie nicht nutzen aufgrund der festgelegten Formel
-man kann viel R&D Arbeit für die Optimierungen wegschmeißen
-noch interessiert die Masse anscheinend nicht, wie gefiltert wird

Oh, ok. Dachte die sind günstiger beim Transistorenverbrauch. Gründe warum S3 die verbaut muss es ja schliesslich geben. Zumindest id und deren Lizenznehmer dürften sich also über S3 nicht freuen, richtig?

Falls, also praktisch nie es sei denn MS schreibt es vor :D , TRI TMUs verbaut werden, geht die ganze Arbeit für Optimierungen eh flöten. Leider glaube ich nicht daran.

Hauwech
2005-07-13, 10:35:59
Erst, wenn die BAlkenlänge weniger wichtig wird.

Ich erinnere mal an einige Bemerkungen in diesme Thread :

"Die G70 ist fast gar nicht schneller als der R480 - was für eine Enttäuschung" -> in 1024x768 !!!!

Also ganz ehrlich, sowas sind einfach nur dumme Flameversuche und sollten ignoriert werden. Das ist witzlos und da sitzt das Problem ganz eindeutig vor dem Rechner.

robbitop
2005-07-13, 10:37:07
Oh, ok. Dachte die sind günstiger beim Transistorenverbrauch. Gründe warum S3 die verbaut muss es ja schliesslich geben. Zumindest id und deren Lizenznehmer dürften sich also über S3 nicht freuen, richtig?

Falls, also praktisch nie es sei denn MS schreibt es vor :D , TRI TMUs verbaut werden, geht die ganze Arbeit für Optimierungen eh flöten. Leider glaube ich nicht daran.
Naja S3 hat mit den Fast-TRI TMUs sich die Optimierungsarbeit für den trilinearen Filter gespart. Sie filtern einfach immer trilinear ohne Füllrateneinbußen. So soll es sein :up:.
Allerdings muss S3 dennoch am Filter arbeiten, da irgendwas mit der AF Logik trotz gutem Muster nicht ganz rund läuft.

Crushinator
2005-07-13, 10:47:46
(...)
-noch interessiert die Masse anscheinend nicht, wie gefiltert wird
Zustimmende Anmerkung: Irgendwann ist hoffentlich fast alles nur noch CPU-Limitiert. Spätestens dann - und wenn die Speicherbusse noch breiter werden - sollten wir Tri-TMUs bekommen, weil sich die Balken plötzlich auf andere als zur Zeit scheinbar entbehrliche Dinge wie Qualität beziehen. Mit anderen Worten, es kann eigentlich nur noch besser werden.

Ja, ich bin notorischer Optimist.

Demirug
2005-07-13, 11:01:11
TRI-TMUs ala S3 sind nicht gut. Die sind funktional zu stark eingeschränkt. Wenn dann braucht man TMUs mit freien 4*4 Filterkernels.

Ailuros
2005-07-13, 11:04:48
Eher nicht.
-Die kostent wohl ordentlich Transistoren
-in OGL darfst du sie nicht nutzen aufgrund der festgelegten Formel
-man kann viel R&D Arbeit für die Optimierungen wegschmeißen
-noch interessiert die Masse anscheinend nicht, wie gefiltert wird

-so viel nun auch wieder nicht und man koennte auch TMU-arrays benutzen
-liefern theoretisch genauso viel bilineare wie trilineare Fuellrate
-tri-TMUs wuerden mit Sicherheit auch MIT Optimierungen ankommen
-deshalb der staendig wachsende Aufschrei welche GPU hier oder da mehr "flimmert"?

***edit: natuerlich wird man in dem Fall erstmal die Winkel-abhaengigkeit los; hier stoert diese die breite Masse tatsaechlich nicht.

Ailuros
2005-07-13, 11:09:36
"Die G70 ist fast gar nicht schneller als der R480 - was für eine Enttäuschung" -> in 1024x768 !!!!

Ja aber...

http://www.beyond3d.com/forum/viewtopic.php?t=24825&start=20

Hauwech
2005-07-13, 11:10:39
Zustimmende Anmerkung: Irgendwann ist hoffentlich fast alles nur noch CPU-Limitiert. Spätestens dann - und wenn die Speicherbusse noch breiter werden - sollten wir Tri-TMUs bekommen, weil sich die Balken plötzlich auf andere als zur Zeit scheinbar entbehrliche Dinge wie Qualität beziehen. Mit anderen Worten, es kann eigentlich nur noch besser werden.

Ja, ich bin notorischer Optimist.

Schon, aber die Kosten für breitere Speicherbusse bleiben die gleichen. Wie wir sehen, wird doch mehr oder weniger nur auf bessere Kompression und schnelleren Speicher gesetzt. Bleibt das Zusatzmodul von NEC nur ein Einzelfall oder ist es schon ein Vorbote für kommende Chips?

Ailuros
2005-07-13, 11:15:33
Schon, aber die Kosten für breitere Speicherbusse bleiben die gleichen. Wie wir sehen, wird doch mehr oder weniger nur auf bessere Kompression und schnelleren Speicher gesetzt. Bleibt das Zusatzmodul von NEC nur ein Einzelfall oder ist es schon ein Vorbote für kommende Chips?

Du meinst eDRAM? Ich bezweifelte stets dass solcher Speicher ausserhalb von Consolen je Sinn machen wird; ich kann mich jetzt nicht mehr erinnern welches Interview eines ATI Repraensentativen war in letzter Zeit, wo dieses nach seinen Aussagen auch bestaetigt wird.

seahawk
2005-07-13, 11:16:03
Also ganz ehrlich, sowas sind einfach nur dumme Flameversuche und sollten ignoriert werden. Das ist witzlos und da sitzt das Problem ganz eindeutig vor dem Rechner.

Ja und nein. Diese Meinung hört man leider immer wieder. Da muss man sich nur die typischen 3Murks-Benches betrachten und welche Reaktionen diese auslösen.

If 3dMuukrs not >50+ THEN bad. -> ist leider so.

seahawk
2005-07-13, 11:17:33
Ja aber...

http://www.beyond3d.com/forum/viewtopic.php?t=24825&start=20

Natürlich, aber die Anzahl der Gamer in Ulktra-High-Resolutions ist vergleichsweise gering. Zumindest kleienr als die Anzahl der Käufer von High-End-Karten.

Ich werde mir ne 7800GT/GTX holen, weil ich endlich 1280*1024 und 8xSS haben will.

Mr. Lolman
2005-07-13, 11:21:33
Ich werde mir ne 7800GT/GTX holen, weil ich endlich 1280*1024 und 8xSS haben will.

Ich hätte eher gedacht wegen TSSAA. 8xS ist ne üble Verschwendung...

seahawk
2005-07-13, 11:26:05
Ich hätte eher gedacht wegen TSSAA. 8xS ist ne üble Verschwendung...

Deswegen auch, aber das nutzt ja auch TSAA. Beui alten Spielen hätte ich gerne Supersampling und bei neueren eben auch TSSAA. Und außerdem schwächelt miene 9700pro langsam zu sehr.

BodyLove
2005-07-13, 11:27:43
Natürlich, aber die Anzahl der Gamer in Ulktra-High-Resolutions ist vergleichsweise gering. Zumindest kleienr als die Anzahl der Käufer von High-End-Karten.

Ich werde mir ne 7800GT/GTX holen, weil ich endlich 1280*1024 und 8xSS haben will.

Ack. Möchte ich genau aus dem Grund auch machen.

Ailuros
2005-07-13, 11:34:58
Deswegen auch, aber das nutzt ja auch TSAA. Beui alten Spielen hätte ich gerne Supersampling und bei neueren eben auch TSSAA. Und außerdem schwächelt miene 9700pro langsam zu sehr.

Wenn bei den "alten Spielen" das einzige Problem alpha test aliasing ist, dann ist SSAA auch nicht unbedingt notwendig wenn schon TSAA zur Verfuegung steht.

***edit: in Spielen bis zu SS:SE ist schon auf einer 6800GT 16xS spielbar in 1280*960.

Ailuros
2005-07-13, 11:37:17
Ich hätte eher gedacht wegen TSSAA. 8xS ist ne üble Verschwendung...

SSAA (durch einen hybriden modus) eine Verschwendung? :|

*reibt sich die Augen* da steht tatsaechlich Lolman...:P

seahawk
2005-07-13, 11:45:22
Wenn bei den "alten Spielen" das einzige Problem alpha test aliasing ist, dann ist SSAA auch nicht unbedingt notwendig wenn schon TSAA zur Verfuegung steht.

***edit: in Spielen bis zu SS:SE ist schon auf einer 6800GT 16xS spielbar in 1280*960.

Sind bei der PCI-E Variante 200 Euro Unterschied. Und da ich meine Grafikarten immer 2+ Jahre halte, ist die 7800GTX die wahrscheinlich bessere Investition.

Ailuros
2005-07-13, 11:45:47
Natürlich, aber die Anzahl der Gamer in Ulktra-High-Resolutions ist vergleichsweise gering. Zumindest kleienr als die Anzahl der Käufer von High-End-Karten.


Das aendert aber nichts daran dass GPUs wie G70 (und auch die kommende R520) nur radikal von ihren Vorgaengern absetzen in so hohen Aufloesungen. Meistens sind auch bei allen reviews die Systeme mit 4000+ oder FX CPUs ausgeruestet, die sich auch nicht jeder leisten kann.

Hat jetzt der User nur sagen wir mal eine 3200 oder 3500+ CPU, dann wird sich die CPU-Limitierung auch in Aufloesungen wie 1280 oder 1600 stellenweise zeigen.

Ailuros
2005-07-13, 11:48:17
Sind bei der PCI-E Variante 200 Euro Unterschied. Und da ich meine Grafikarten immer 2+ Jahre halte, ist die 7800GTX die wahrscheinlich bessere Investition.

Kein Zweifel; es aendert sich aber nichts daran dass fuer so eine GPU normalerweise nicht nur eine sehr starke CPU sondern auch einen Bildschirm braucht der zumindest eine "wahre" 1600*1200 darstellen kann.

http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/

seahawk
2005-07-13, 11:53:46
Der ist bei Bedarf vorhanden. Ich bevorzuge aber 1280x1024 auf dem 19" CRT.

Ailuros
2005-07-13, 11:59:17
Der ist bei Bedarf vorhanden. Ich bevorzuge aber 1280x1024 auf dem 19" CRT.

Kein Wunder der Bildschirm ist auch mit hoechster Wahrscheinlichkeit gar nicht ueber eine echte 1600 Aufloesung faehig.

Es handelte sich lediglich ueber eine "Warnung" im relativen Sinn. Ich warte erstmal bis ich Moneten fuer eine high end CPU, PCIe mobo, PSU zusammenkratzen kann und dann denke ich erst an eine G70/R520.

Haette ich nicht ~1100 euros fuer einen laptop fuer die Arbeit hinlegen muessen, waere ich schon laengst dort. Was fuer eine Geldverschwendung *seufz* :|

seahawk
2005-07-13, 12:06:59
Ich kaufe sowieso erst Mitte September und bis dahin wird das Problem geringer sein.

deekey777
2005-07-13, 12:13:22
...
-noch interessiert die Masse anscheinend nicht, wie gefiltert wird

Erst als ich was von der Filterung (bi oder tri oder anisotrop) gelesen hatte, habe ich bemerkt, daß der Fußboden unscharf war...


Selbst Wavey sagt das schon seit Monaten. Wenn du das Gegenteil behauptest, dann führe es auch bitte aus.

Weiß er auch, wer Wavey ist?

Crushinator
2005-07-13, 12:16:20
Schon, aber die Kosten für breitere Speicherbusse bleiben die gleichen. Wie wir sehen, wird doch mehr oder weniger nur auf bessere Kompression und schnelleren Speicher gesetzt. Bleibt das Zusatzmodul von NEC nur ein Einzelfall oder ist es schon ein Vorbote für kommende Chips?
Das Problem ist eben, daß ein breiterer Bus nicht nur die Platine erheblich aufwendiger macht, sondern auch den Speicher-Controller. Die Verbreiterung des letzteren bringt meistens auch Nachteile mit sich wie z.B. bedingte Latenzzunahme. Das Zusatzmodul von NEC umfaßt gerade mal 10 MiB und würde sich bei kompletter Ersetzung vom VRAM - sprich in üblichen Größen wie 256+ MiB - als viel zu teuer in der Herstellung erweisen. Mich würde es ehrlich gesagt ziemlich wundern, wenn wir in naher Zukunft solche Konstruktionen PC-tauglich erleben würden.

Mr. Lolman
2005-07-13, 12:18:19
*reibt sich die Augen* da steht tatsaechlich Lolman...:P

Naja OG halt...

Hauwech
2005-07-13, 12:23:20
Das Problem ist eben, daß ein breiterer Bus nicht nur die Platine erheblich aufwendiger macht, sondern auch den Speicher-Controller. Die Verbreiterung des letzteren bringt meistens auch Nachteile mit sich wie z.B. bedingte Latenzzunahme. Das Zusatzmodul von NEC umfaßt gerade mal 10 MiB und würde sich bei kompletter Ersetzung vom VRAM - sprich in üblichen Größen wie 256+ MiB - als viel zu teuer in der Herstellung erweisen. Mich würde es ehrlich gesagt ziemlich wundern, wenn wir in naher Zukunft solche Konstruktionen PC-tauglich erleben würden.

Wenn ich das richtig sehe, spielen Latenzen bei Grafikchips eher kaum eine Rolle.
Neee, als kompletter Ersatz für das VRAM meinte ich auf keinen Fall. Aber als verdammt fixer 'Zwischenspeicher'. So ähnlich wie halt der L2 bei CPUs.

micki
2005-07-13, 12:26:21
Du meinst eDRAM? Ich bezweifelte stets dass solcher Speicher ausserhalb von Consolen je Sinn machen wird; ich kann mich jetzt nicht mehr erinnern welches Interview eines ATI Repraensentativen war in letzter Zeit, wo dieses nach seinen Aussagen auch bestaetigt wird.
ich denke, dass soviel erfahrung wie ATI nun schon mit edram hat, es für sie kein technisches hindernis wäre eDRAM einzubauen, das einzige worüber sie wohl nachdenken ist, welchen nutzen hätte es bzw. wieviel MB davon braucht man bis es nützlich ist bei z.b. 1280*1024.
weiter denk ich, dass sie es nicht fürs normale rendering als framebuffer nutzen werden, dafür wäre es viel zu teuer, ABER.... es wäre doch, da ati zZ leider keine (bzw kaum eine) Optimierung für stencilshadows hat, recht gut das eDRAM als fixen stencil-&z-buffer zu benutzen, bei größeren auflösungen würde es eventuell auch reichen, dort nur einen 8bit zbuffer als vorweg test zu haben.

MfG
micki

micki
2005-07-13, 12:27:30
Wenn ich das richtig sehe, spielen Latenzen bei Grafikchips eher kaum eine Rolle.
Neee, als kompletter Ersatz für das VRAM meinte ich auf keinen Fall. Aber als verdammt fixer 'Zwischenspeicher'. So ähnlich wie halt der L2 bei CPUs.
wo ist da der unterschied zum L2 der GPUs (außer der größe) ?

Demirug
2005-07-13, 12:31:48
wo ist da der unterschied zum L2 der GPUs (außer der größe) ?

Der L2 ist kein dynamischer sondern statischer RAM.

reunion
2005-07-13, 13:54:48
ATI to Retail and Launch R520 on the Same Day (http://www.anandtech.com/news/shownews.aspx?i=24554)

ShadowXX
2005-07-13, 14:20:24
Natürlich, aber die Anzahl der Gamer in Ulktra-High-Resolutions ist vergleichsweise gering. Zumindest kleienr als die Anzahl der Käufer von High-End-Karten.

Ich werde mir ne 7800GT/GTX holen, weil ich endlich 1280*1024 und 8xSS haben will.

Du wirst dich wundern, was du alles mit einer GTX sogar noch mit 16xS daddeln kannst.

Ich hab bis jetzt noch keine Game gefunden, was ich nicht mindestens mit 8xS bei 1280*1024 daddeln konnte (mit HQ wohlgemerkt).
Und es sind auch sehr sehr viele dabei, die man auch noch mit 16xS (ebenfalls HQ) daddeln kann.

Nur bei AF muss ich dann zwischen 4xAF und 16xAF je nach Game etwas "variieren".

TSSAA hab ich bis jetzt nur mal als gag zum 8xS bei HL2 zugeschaltet....aber auch nur bis ich merkte, das man selbst HL2 mit 16xS + 4xAF daddeln kann (allerdings nur @1024x768 dann).

Mr. Lolman
2005-07-13, 14:58:43
(allerdings nur @1024x768 dann).

Naja, ist ja dann auch nix anderes als 2048x1536 mit 4xAA ;)

micki
2005-07-13, 15:12:02
Der L2 ist kein dynamischer sondern statischer RAM.
und ich dachte dass der auf der cpu auch statisch wäre. seltsam.

MfG
micki

Demirug
2005-07-13, 15:13:04
und ich dachte dass der auf der cpu auch statisch wäre. seltsam.

MfG
micki

Ist er auch. Habe die Frage wohl falsch verstanden.

[dzp]Viper
2005-07-13, 15:13:53
ATI to Retail and Launch R520 on the Same Day (http://www.anandtech.com/news/shownews.aspx?i=24554)

*hoff*
August wäre echt nice.. dann bekommt mein AGP slot mal wieder was neues :D

micki
2005-07-13, 15:16:26
Ist er auch. Habe die Frage wohl falsch verstanden.
zum verständnis:

ich meinte auf seine posting bezogen:

er sagt, dass es dann wie der L2 cache der cpu wäre

meine frage bezieht sich nun darauf, wo der unterschied zwischen dem L2 der cpu und dem L2 der gpu seiner meinung nach liegen würde (außer vielleicht der größe)

MfG
micki

BodyLove
2005-07-13, 15:29:00
Klar, er, Hauwech also;), redete ja nur vom VRAM (eDRAM), und eine ähnliche Arbeitsweise haben, wie der Cache bei den CPUs.

Würde eigentlich Cache einer GPU helfen? Ich denke mal nicht.

micki
2005-07-13, 15:33:29
Klar, er, Hauwech also;), redete ja nur vom VRAM, und eine ähnliche Arbeitsweise haben, wie der Cache bei den CPUs.

Würde eigentlich Cache einer GPU helfen? Ich denke mal nicht.
daraus entnehme ich, dass ihr beiden nicht wisst, dass eine GPU nen L1 und L2 cache hat.

seahawk
2005-07-13, 15:35:18
Viper']*hoff*
August wäre echt nice.. dann bekommt mein AGP slot mal wieder was neues :D

Das glaube ich nicht, Tim. :biggrin:

BodyLove
2005-07-13, 15:39:28
daraus entnehme ich, dass ihr beiden nicht wisst, dass eine GPU nen L1 und L2 cache hat.
Da hast du recht. Wusste ich echt nicht.

Gast
2005-07-13, 16:07:03
ATI to Retail and Launch R520 on the Same Day (http://www.anandtech.com/news/shownews.aspx?i=24554)


:up: dann kann ich meine 7800gtx endlich wieder verkaufen

Gast
2005-07-13, 16:08:29
Viper']*hoff*
August wäre echt nice.. dann bekommt mein AGP slot mal wieder was neues :D

nur wirds imm august keine agp geben sonder min erst mal 2 moantelang pci-e only

dildo4u
2005-07-13, 16:08:40
ATI to Retail and Launch R520 on the Same Day (http://www.anandtech.com/news/shownews.aspx?i=24554)
*But one of the key reasons for waiting until August (hopefully) *

Gast
2005-07-13, 16:10:36
*But one of the key reasons for waiting until August (hopefully) *

das hoffe ich doch stark *vorfreu*

Gast
2005-07-13, 16:11:10
wird ja auch mal zeit!! ja ati wird nvidia wieder toppen (100%) der R520 hat unfied shaders.

DrumDub
2005-07-13, 16:25:41
daraus entnehme ich, dass ihr beiden nicht wisst, dass eine GPU nen L1 und L2 cache hat. die caches sind aber doch winzig (4kb?) im vergleich zu ner cpu, oder?

Ailuros
2005-07-13, 17:47:27
wird ja auch mal zeit!! ja ati wird nvidia wieder toppen (100%) der R520 hat unfied shaders.

Ach jeder "hat" was eigentlich; viele z.B. haben nicht die leiseste Ahnung :D

Gast
2005-07-13, 17:49:20
Ach jeder "hat" was eigentlich; viele z.B. haben nicht die leiseste Ahnung :D

ach nicht? und du hast also ahnung, dann erzähl mal!

Ailuros
2005-07-13, 17:54:30
ach nicht? und du hast also ahnung, dann erzähl mal!

Du kannst gerne die fast 280 Seiten nachschlagen in diesem Thread wenn Du willst.

Kurzfassung: 4 quads, 8VS, 600MHz GDDR3, =/>620MHz.

deLuxX`
2005-07-13, 18:00:25
Entschuldigung, aber es ist einfach langweilig und nervend wenn alles paar Posts ein Gast daher kommt, der meint er wüsste wie der G90 und der R600 aussehen. Diese Unart zieht sich jetzt hier schon "einige" Seiten durch diesen Thred.

Wenn ich dich jetzt zum Beispiel fragen würde, wo ich diesen Fakt nachlesen kann, würdest du nach dem Motto antworten:
1.) Es ist so. Glaub es mir, ich bin ein ATI Ingenieur.
oder
2.) Kann ich dir nicht sagen, da ich unter NDA bin (Was dich schon selbst verraten würde)

Du siehst, dass alles hilft keinem wirklich und ist einfach nur lästig, da du mitnichten der einzige Gast hier bist......oder doch? :|

-deLuxX`

Gast
2005-07-13, 18:02:11
Du kannst gerne die fast 280 Seiten nachschlagen in diesem Thread wenn Du willst.

Kurzfassung: 4 quads, 8VS, 600MHz GDDR3, =/>620MHz.

24PP. 8VS. könnten ja auch unfied shaders sein

Coda
2005-07-13, 18:04:06
Würde eigentlich Cache einer GPU helfen? Ich denke mal nicht.Texturecache auf jeden Fall. Für den Framebuffer eher nicht, da zählt nur Bandbreite.

micki
2005-07-13, 18:12:07
die caches sind aber doch winzig (4kb?) im vergleich zu ner cpu, oder?
jap, aber größere lohnen sich eigentlich nicht, sie sind eigentlich nur dafür da, dass während der vielen samples die relativ lokal sind, nicht auf das ram gewartet werden muss, also perfekt auf die anwendung zugeschnitten. mehr cache würde vielleicht den ein oder anderen fetch schneller machen, würde aber auch zugleich die taktraten senken und das würde mehr performance kosten, als die vergrößerung brächte, da die trefferquote bei einer texture mit z.b. 1024*1024 texeln in einem cache der vielleicht 512*512texel fassen kann, nicht viel größer wäre, als bei einem cache der 32*32 texel fassen kann (weil die daten eher im FIFO system durchgeschleift werden), sparrt man halt sehr dran.


MfG
micki

Coda
2005-07-13, 18:14:40
24PP. 8VS. könnten ja auch unfied shaders seinSelbst wenn es so wäre sind Unified Shader noch lange kein Performancegarant. Was glaubst du warum R400 eingemottet wurde?

Und ich bin inzw. auch ziemlich sicher, dass es getrennte Einheiten und 16 Pipelines sind.

micki
2005-07-13, 18:16:48
btw


I reckon the L2 texture cache has increased in G70 (to around 12KB) to go with the increase in fragment units, and it's been tweaked for better cache re-use with larger textures, decompressing those larger textures into L1 faster as well as possibly offering more granularity in cache access by the GPU, to reduce texture bandwidth, speeding up rendering.
http://www.theregister.co.uk/2005/06/23/review_nvidia_geforce_7800_gtx/page2.html

muss zwar nicht alles stimmen was die schreiben, aber für mich klingt das plausibel.

MfG
micki

Ailuros
2005-07-13, 18:18:12
24PP. 8VS. könnten ja auch unfied shaders sein

Ach jetzt "koennten" es "auch" unified shaders sein? Noch ein paar Posts mehr und es "koennte" vielleicht auch sein dass Du nur aus dem blauen spekulierst?

ATI engineers haben bei Computex darauf bestanden (leider vergebens) dass R520 eigentlich 4 quads hat. Das Maerchen mit den 6/8 quads bekam Fuad von der Konkurrenz gefuettert und ist nichts anderes als eine alberne Schlammschlacht auf die natuerlich jeder heutzutage reinzufallen scheint.

Ich haette das Ganze ja fuer mich behalten, aber ich platze so langsam mit dem Zeug....

Ailuros
2005-07-13, 18:21:54
btw


http://www.theregister.co.uk/2005/06/23/review_nvidia_geforce_7800_gtx/page2.html

muss zwar nicht alles stimmen was die schreiben, aber für mich klingt das plausibel.

MfG
micki

Ein cache=! framebuffer.

Die 10MB eDRAM auf Xenos sind im rein relativen Sinn etwas mehr als eine cache und zur gleichen Zeit etwas weniger als ein ganzer framebuffer.

Fuer caches gibt es kleine Mengen von eigebettetem Speicher (jeglicher Art) schon seit einer Ewigkeit und das ist auch ganz was anderes als die Logik mit der eigentlich das eDRAM auf Xenos benutzt wird.

eDRAM ist zu teuer um bei anstaendigen Mengen einen gesamten Framebuffer fuer einen PC chip zu halten; bei Consolen - da sie auf niedrigere Aufloesungen getrimmt sind - ist das natuerlich kein Problem.

***edit: es gibt bei den heutigen GPUs auch caches zwischen den PS/VS Einheiten um diese entkoppeln zu koennen.

micki
2005-07-13, 18:24:35
Ein cache=! framebuffer.

dein thema!=mein thema

schau paar seiten zurück, da wurde vorgeschlagen einen L2 cache zu nutzen. darauf hab ich geantwortet...

MfG
micki

Gast
2005-07-13, 18:26:36
mir doch egal wie karten auf dem papier ausschaun,ati bei seit dem r300 die besseren karten,egal ob größe,leistung ,bildqualität

Ailuros
2005-07-13, 18:33:15
dein thema!=mein thema

schau paar seiten zurück, da wurde vorgeschlagen einen L2 cache zu nutzen. darauf hab ich geantwortet...

MfG
micki

Ooops tatsaechlich. :hammer:

Gast
2005-07-13, 18:44:06
mir doch egal wie karten auf dem papier ausschaun,ati bei seit dem r300 die besseren karten,egal ob größe,leistung ,bildqualität

Das haben die meissten Kunden wohl anders gesehen, wie die letzten Quartalszahlen gezeigt haben. Demnach ist eine große Mehrheit der Meinung bei Nvidia die bessten Karten in der gerade ablaufenden Generation zu finden und kauft diese eben dann auch.
Da entsprechen deine Ansichten leider nicht der Realität

deekey777
2005-07-13, 18:48:11
Das haben die meissten Kunden wohl anders gesehen, wie die letzten Quartalszahlen gezeigt haben. Demnach ist eine große Mehrheit der Meinung bei Nvidia die bessten Karten in der gerade ablaufenden Generation zu finden und kauft diese eben dann auch.
Da entsprechen deine Ansichten leider nicht der Realität

Gegen die AGP Offensive im mittleren Bereich gibt es von ATi immer noch fast nichts entgegen zu setzen, auch die 6200 liefern das bessere Feature-Set als die X300/X600, was für das OEM Geschäft wichtig ist.

Gast
2005-07-13, 18:53:12
Das haben die meissten Kunden wohl anders gesehen, wie die letzten Quartalszahlen gezeigt haben. Demnach ist eine große Mehrheit der Meinung bei Nvidia die bessten Karten in der gerade ablaufenden Generation zu finden und kauft diese eben dann auch.
Da entsprechen deine Ansichten leider nicht der Realität

ja die meisten kunden haben auch keine ahnung

außerdem bist du schlecht informiert,nv ist erstens schon länger auf dem markt und haben dadurch in vielen shops exclusiv verträge

einfach nur die verkaufszahlen angucken bringts nicht

es ist den spielern sowas von egal welche marke wieviel verkauft btw hat es ati geschafft von einem nichts zu einem großen kokurenten zu werden

Coda
2005-07-13, 19:02:04
außerdem bist du schlecht informiert,nv ist erstens schon länger auf dem markt und haben dadurch in vielen shops exclusiv verträgeFalsch. ATi ist um einiges älter als nVIDIA.

Außerdem hat ATi zu R300 Zeiten klar mehr verkauft als nVIDIA.

Quasar
2005-07-13, 19:13:01
außerdem bist du schlecht informiert,nv ist erstens schon länger auf dem markt und haben dadurch in vielen shops exclusiv verträge

ATi hat auf der CeBIT dieses Jahr 20jährigen Geburtstag gefeiert - und jetzt du, bitte!

robbitop
2005-07-13, 19:25:50
-so viel nun auch wieder nicht und man koennte auch TMU-arrays benutzen
-liefern theoretisch genauso viel bilineare wie trilineare Fuellrate
-tri-TMUs wuerden mit Sicherheit auch MIT Optimierungen ankommen
-deshalb der staendig wachsende Aufschrei welche GPU hier oder da mehr "flimmert"?

***edit: natuerlich wird man in dem Fall erstmal die Winkel-abhaengigkeit los; hier stoert diese die breite Masse tatsaechlich nicht.
-pro TMU ist das nicht unerheblich und wir haben bereits 24 von den Dingern pro Chip, die Transistorbudgets sind eng
-ja aber es bringt keinen Nutzen
-kaum (Gesetz des sinkenden Grenzertrages)
-ja aber 3DC != Masse ;)

Wie Demirug schon sagte, sind fast-Tri TMUs zu unflexibel.

robbitop
2005-07-13, 19:27:45
Erst als ich was von der Filterung (bi oder tri oder anisotrop) gelesen hatte, habe ich bemerkt, daß der Fußboden unscharf war.
Das beschreibt es kurzgesagt: perfekt.

Demirug
2005-07-13, 19:29:17
***edit: es gibt bei den heutigen GPUs auch caches zwischen den PS/VS Einheiten um diese entkoppeln zu koennen.

Das nennt man aber nicht Cache sondern FIFOs. Ein Speicher wird nur dann als Cache bezeichnet wenn die darin enhaltenen Daten mehrfach genutzt werden können.

micki
2005-07-13, 20:58:09
Das nennt man aber nicht Cache sondern FIFOs. Ein Speicher wird nur dann als Cache bezeichnet wenn die darin enhaltenen Daten mehrfach genutzt werden können.
nach den VS ist aber dann wohl ein cache, weil ja auf ein fertig transformiertes vertex öfter indiziert werden kann.

MfG
micki

Demirug
2005-07-13, 22:06:30
nach den VS ist aber dann wohl ein cache, weil ja auf ein fertig transformiertes vertex öfter indiziert werden kann.

MfG
micki

Ja das Teil nennt sich ja auch "Post Vertex Shader Cache".

Coda
2005-07-13, 22:12:24
Das Ding ist aber als FIFO organisiert wenn ich mich richtig entsinne. Also haben beide irgendwie recht.

Gast
2005-07-13, 22:53:02
Außerdem hat ATi zu R300 Zeiten klar mehr verkauft als nVIDIA.

Genau das ist die Kernaussage die es zu beachten gilt.
Zu R300 Zeiten hat ATI mehr verkauft als Nvidia.
Zu Zeiten der aktuell ablaufenden Generation also NV4x und R4x verkauft aber Nvidia wieder mehr.

Das braucht keiner mit irgendwelchen miesen Tricks und irgendwelchen Exklusivverträgen seitens Nividia erklären.
Das sind Ausreden, die keiner ernstnimmt.
Der Umschwung beim Kunden lässt nunmal nur den einen Schluss zu.
Die Mehrheit empfindet Nvidias NV4x Produkte besser als ATIs R4xx Produkte und eigentlich sollte das doch nun wirklich niemanden wundern.
Die aktuelle Reihe bei ATI halte ich für einen recht peinlichen Auftritt.
Jegliche Innovation und jeglicher Mut hat diese Serie missen lassen und dann kämpften sie noch mit Yieldproblemen.
Das ist doch nun wirklich kein Meisterstück was der Kunde belohnen will.

Das soll jedoch nicht als Wertung gegenüber der kommenden R5xx Reihe oder der R300 Reihe verstanden werden. Es geht nur um die aktuelle Reihe und da hat ATI schlichtweg satt Federn lassen müssen und das voll zu Recht.

deekey777
2005-07-14, 00:37:29
Falsch. ATi ist um einiges älter als nVIDIA.

Außerdem hat ATi zu R300 Zeiten klar mehr verkauft als nVIDIA.

Aber wovon? ATi war vor dem R100 durch die Rage ziemlich fett im OEM Geschäft vertreten, auch die 7000/Radeon VE fand man im so manchen Fertig-PC.
Worauf ich hinaus will: Mag sein, daß mehr 9800er als nVidias 5900er verkauft wurden, doch die meistverkaufte DX9-Grafikkarte war die 5200. Die dicken Grafikkarten machen die Balkenlänge, die kleinen machen das große Geld.

Genau das ist die Kernaussage die es zu beachten gilt.
Zu R300 Zeiten hat ATI mehr verkauft als Nvidia.
Zu Zeiten der aktuell ablaufenden Generation also NV4x und R4x verkauft aber Nvidia wieder mehr.


Das grosse Geld wird mit kleinen Viechern gemacht, sprich mit der X300 oder 6200 - klar, daß nVidia hier mehr verkauft (denn die X300/600 sind keine R4x0 Chips X-D). Auch hat ATi verpennt, eine vernünftige AGP-Grafikkarte als Ersatz für die 9800Pro herauszubringen, ergo: Die rational denkenden Kunden haben sich für die 6600GT entschieden.

Das braucht keiner mit irgendwelchen miesen Tricks und irgendwelchen Exklusivverträgen seitens Nividia erklären. Das sind Ausreden, die keiner ernstnimmt.

Nö, das ist bei Intel so. Hier heißt es perfektes Marketing mit überzeugenden Features auf dem Papier.

Der Umschwung beim Kunden lässt nunmal nur den einen Schluss zu.
Die Mehrheit empfindet Nvidias NV4x Produkte besser als ATIs R4xx Produkte und eigentlich sollte das doch nun wirklich niemanden wundern.

Ansichtssache.

Die aktuelle Reihe bei ATI halte ich für einen recht peinlichen Auftritt.
Jegliche Innovation und jeglicher Mut hat diese Serie missen lassen und dann kämpften sie noch mit Yieldproblemen.
Das ist doch nun wirklich kein Meisterstück was der Kunde belohnen will.

Peinlicher Auftritt? Nö, denn die Balkenlänge stimmt.
Die Probleme mit den Yields, falls es welche gab, sind längst Geschichte.

Das soll jedoch nicht als Wertung gegenüber der kommenden R5xx Reihe oder der R300 Reihe verstanden werden. Es geht nur um die aktuelle Reihe und da hat ATI schlichtweg satt Federn lassen müssen und das voll zu Recht.
Ja, die X300 ist Scheiße. Die R4x0 Reihe überzeugt dagegen auf der ganzen Linie - bis auf die einigen fehlenden Features, die bisher nicht so richtig benutzt werden.

Ailuros
2005-07-14, 04:15:57
-pro TMU ist das nicht unerheblich und wir haben bereits 24 von den Dingern pro Chip, die Transistorbudgets sind eng
-ja aber es bringt keinen Nutzen
-kaum (Gesetz des sinkenden Grenzertrages)
-ja aber 3DC != Masse ;)

Wie Demirug schon sagte, sind fast-Tri TMUs zu unflexibel.

-ich verweise auf Xenos und den 4-way TMU array
-in D3D schon
-wie viele wahre tri-TMU Implementierungen hast Du in letzter Zeit gesehen?
-was hat jetzt 3DC mit Filterungs-Optimierungen zu tun?

Demirug war genau genug; fast tri TMUs != tri TMUs.

Ailuros
2005-07-14, 04:17:16
Das Ding ist aber als FIFO organisiert wenn ich mich richtig entsinne. Also haben beide irgendwie recht.

Es ist ein Thema der Definition und ich habe es eben schlecht definiert.

***edit.

mapel110
2005-07-14, 04:28:16
Es ist ein Thema der Definierung und ich habe es eben schlecht definiert.
Definition, besser "Es ist Defintionssache"

und das Ausrufezeichen gehört vor das Gleichheitszeichen bei ungleich !=.

Deltachrom hat auch keine echten TriTMUs. Der trickst doch irgendwie mit den Mipmaps?! Hab ich nie wirklich verstanden. :redface:

Ailuros
2005-07-14, 04:37:14
Ja, die X300 ist Scheiße. Die R4x0 Reihe überzeugt dagegen auf der ganzen Linie - bis auf die einigen fehlenden Features, die bisher nicht so richtig benutzt werden.

a) Die R4xx Reihe ueberzeugt aber mehr was high volume/high end betrifft seit dem Erscheinen der X800XL. Irgendwo in diesem Thread vor ein paar hundert Seiten ( :D ) fragte ich mich ob sich ATI die gesamte R4xx-Strategie wirklich von Anfang gut durchdacht hatte, denn der zweite Nachschub mit dem Einstieg von 110nm im high-end machte doch einen Unterschied. X700 gehoert uebrigens auch zur R4xx Linie.

b) Features sind eben mal eine Masche die sich gut vermarkten laesst; wuerde aber ueberhaupt nichts dahinter stecken und es koennten Entwickler gar nichts damit anfangen, dann bringt es auch wieder nicht viel. Das Ziel der Grossen ist aber eher die Entwicklungs-Platformen der ISVs zu erreichen mit high end Features. Ein Beispiel waere float HDR; R520 wird mit hoechster Wahrscheinlichkeit FP10 mit MSAA kombinieren koennen. Der Durchbruch dieser Faehigkeit wird aber gemessen klein sein, wenn die Konkurrenz schon >1Jahr ein anderes Format anbietet. Natuerlich wird es auch ueber FP16 verfuegen, aber ich will bezweifeln dass hier MSAA Kombinationen moeglich sind; wenn ja dann Hut ab an ATI.

c) Low end ist tatsaechlich fuer die Tonne. Die Problematik aber in (a) hat aber IMHO immer noch nicht ihr Ende genommen mit der gesamten R5xx-Linie. Wieder wird auf hoehere Taktraten + weniger Einheiten gesetzt und das ist eben nicht besonders gut fuer die Margen. NVIDIA hat hier eben von den Fehlern der NV3x Linie zugelernt und hat jetzt eine breitere Anzahl von Einheiten mit denen sie nach unten skalieren koennen und koennen mit 90nm spaeter mit der Taktrate fuer high end immer noch verdammt gut zulegen wenn sie es moechten. Wie sehen die Spekulationen fuer die kommenden Mainstream-GPUs genau aus?

Ailuros
2005-07-14, 04:39:00
Definition, besser "Es ist Defintionssache"

und das Ausrufezeichen gehört vor das Gleichheitszeichen bei ungleich !=.

Deltachrom hat auch keine echten TriTMUs. Der trickst doch irgendwie mit den Mipmaps?! Hab ich nie wirklich verstanden. :redface:

Merci monsieur :)

aths
2005-07-14, 06:02:38
Definition, besser "Es ist Defintionssache"

und das Ausrufezeichen gehört vor das Gleichheitszeichen bei ungleich !=.

Deltachrom hat auch keine echten TriTMUs. Der trickst doch irgendwie mit den Mipmaps?! Hab ich nie wirklich verstanden. :redface:Hrm? Es gibt eine Technik, aus einer MIP ein trilineares Sample erzeugen kann. Man braucht halt einen größeren Filterkernel (4x4 in einer MIP statt zwei mal 2x2.)

aths
2005-07-14, 06:09:32
TRI-TMUs ala S3 sind nicht gut. Die sind funktional zu stark eingeschränkt. Wenn dann braucht man TMUs mit freien 4*4 Filterkernels.Das kostet dann auch. Ich überlege, ob man nicht sogar 5x5-Kernel nehmen sollte – für trilineare Samples, die aber besser trilinear sind als mit einem 4x4-Kernel. Natürlich sollte es auch die Möglichkeit zur sRGB-Umwandlung vor der Filterung geben. Kann man in D3D oder OpenGL eigentlich sagen, ob eine Textur mit 8 Bit pro Farbkomponente linear oder als sRGB-Daten interpretiert werden sollen?

aths
2005-07-14, 06:11:44
Nein. Das Flimmern mit AF ist deutlich weniger gerworden. Hat Lolman auch beobachtet.Muss ich mir auch noch mal ansehen. Allerdings habe ich es auch auf 'ner FX als flimmrig in Erinnerung. Grund: Blöde LOD-Bias-Spielereien und teilweise "böser" Texturcontent.

aths
2005-07-14, 06:14:46
Ein Beispiel waere float HDR; R520 wird mit hoechster Wahrscheinlichkeit FP10 mit MSAA kombinieren koennen. Der Durchbruch dieser Faehigkeit wird aber gemessen klein sein, wenn die Konkurrenz schon >1Jahr ein anderes Format anbietet. Natuerlich wird es auch ueber FP16 verfuegen, aber ich will bezweifeln dass hier MSAA Kombinationen moeglich sind; wenn ja dann Hut ab an ATI.FP10 halte ich für zu wenig. Schön wäre, FX 10-10-10-2 und FP 16-16-16-16 jeweils mit MSAA.

Nett wäre auch endlich mal korrekte sRGB-Behandlung, also den Framebuffer als sRGB-Framebuffer zu sehen. Mit FP-Formaten ist man da fein raus. Ich habs mir noch nicht genau angesehen, aber viel besser als 8-Bit-sRGB kann FP10 eigentlich nicht sein. Dann gleich FP16, bitte.

seahawk
2005-07-14, 08:06:44
Wie sehen die Spekulationen fuer die kommenden Mainstream-GPUs genau aus?

8-16 Pipes im Bereich der heutigen 6600GT-6800vanilla
4 Pipes im Low-End.

robbitop
2005-07-14, 09:48:51
-ich verweise auf Xenos und den 4-way TMU array
-in D3D schon
-wie viele wahre tri-TMU Implementierungen hast Du in letzter Zeit gesehen?
-was hat jetzt 3DC mit Filterungs-Optimierungen zu tun?

Demirug war genau genug; fast tri TMUs != tri TMUs.

-...und?
-ja da schon
-genug davon habe ich gesehen
-3DC = 3DCenter

-etwas anderes wollte ich damit auch nicht ausdrücken (ich habe jetzt rund 1 Jahr Praxis und Synthieerfahrungen mit fast Tri ...und du?)

robbitop
2005-07-14, 09:50:01
Deltachrom hat auch keine echten TriTMUs. Der trickst doch irgendwie mit den Mipmaps?! Hab ich nie wirklich verstanden. :redface:
Hast du den S3 Artikel nicht gelesen? :)

Tritonus
2005-07-14, 10:09:30
FP10 halte ich für zu wenig. Schön wäre, FX 10-10-10-2 und FP 16-16-16-16 jeweils mit MSAA.

Nett wäre auch endlich mal korrekte sRGB-Behandlung, also den Framebuffer als sRGB-Framebuffer zu sehen. Mit FP-Formaten ist man da fein raus. Ich habs mir noch nicht genau angesehen, aber viel besser als 8-Bit-sRGB kann FP10 eigentlich nicht sein. Dann gleich FP16, bitte.
FX 10-10-10-2 hab ich im Bezug auf Framebuffer schon desöfteren gelesen, aber ich hätte eine Frage: Warum? Bringen die zwei "zusätzlichen"(man spart ja eigentlich einfach bei Alpha) bits pro Kanal wirklich eine spürbare Qualitätssteigerung, bzw. sind nur 2 bit für Alpha nicht zu wenig? Wäre nett wenn du mir das erklären könntest. :confused:

aths
2005-07-14, 11:32:01
FX 10-10-10-2 hab ich im Bezug auf Framebuffer schon desöfteren gelesen, aber ich hätte eine Frage: Warum? Bringen die zwei "zusätzlichen"(man spart ja eigentlich einfach bei Alpha) bits pro Kanal wirklich eine spürbare Qualitätssteigerung, bzw. sind nur 2 bit für Alpha nicht zu wenig? Wäre nett wenn du mir das erklären könntest. :confused:Im Framebuffer steht höchstens ein Wert für Destination Alpha, im Regelfall werden diese Bits gar nicht genutzt, da nur die Farbe interessiert. Insofern wäre auch ein 10-12-10-Format überlegenswert (oder 11-13-8, oder 10-13-9, ...)

Zwei zusätzliche Bits pro Farbkanal bringt gerade im dunklen Bereich was. Wenn die Farbe wieder gelesen wird, z. B. fürs Alphablending, zahlt es sich auf jeden Fall aus, höhere Präzision als 8 Bit zu haben. FX8 hat eine Dynamik von gerade mal 2,4 dB, FX10 kommt auf immerhin 3,0 dB. sRGB kommt – bei 8 Bit – allerdings sogar auf 3,5 dB.

Das gilt für echtes sRGB. Via Gamma 2,2 angenähertes sRGB bietet sogar eine Dynamik von 5,3, bei 10 Bit von 6,6 dB.

Das menschliche Auge kann soweit ich weiß einen Kontrastumfang von etwa 14 dB erkennen. Selbst FP16 bietet nur 12 dB (sofern Denorms unterstützt werden, ansonsten lediglich 9,3 dB.)


Lange Rede, kurzer Sinn: Es kommt nicht nur darauf an, viele Bits speichern zu können sondern auch, wie man sie nutzt. Bessere Nutzung ist tendenziell immer aufwändiger, kostet also mehr Transistoren. Andererseits: Werden bestimmte Formate eh untersützt, und ist die Bittiefe eh hoch genug, kann man sich andere Kniffe sparen um auch bei besonders wenigen Bits noch eine hohe Dynamik zu erreichen. Dann wird die Hardware auch wieder einfacher. Ich bin dafür, möglichst schnell auf 64-Bit-Framebuffer zu setzen, dann kann man sich die ganze sRGB-Sache sparen, und beim FP16-Format Denorms zu unterstützen, dann hat man noch mal eine deutlich höhere Dynamik.

Gast
2005-07-14, 12:53:48
AFAIK, R520 = 128 thread= 6 Bank(16 ALU per bank)

So, no more piepeline from ATI since R5XX series.

pF3NG
2005-07-14, 13:55:12
Was spricht den dagegen? Warum glaubst du das nicht?

-deLuxX`
Sorry hab NV40 gelesen... :frown:

Coda
2005-07-14, 15:48:44
AFAIK, R520 = 128 thread= 6 Bank(16 ALU per bank)

So, no more piepeline from ATI since R5XX series....and hell freezes over :tongue:

Ailuros
2005-07-15, 08:25:13
-...und?
-ja da schon
-genug davon habe ich gesehen]


Keine fast tri TMUs, sondern reine tri TMUs! Wie oft muss ich das noch betonen?

Ailuros
2005-07-15, 08:42:36
8-16 Pipes im Bereich der heutigen 6600GT-6800vanilla
4 Pipes im Low-End.

Erstens gehoerte 6800nonU zum high end und zweitens sind auf diesem nur 3 quads bei default operativ.

Bei der R480/430 Linie gehoeren die X800/3 quads 128MB und X800XL/4 quads auch zum high end.

Mainstream war bis jetzt (ergo 6600/X700) 2 quads.

seahawk
2005-07-15, 09:47:43
Erstens gehoerte 6800nonU zum high end und zweitens sind auf diesem nur 3 quads bei default operativ.

Bei der R480/430 Linie gehoeren die X800/3 quads 128MB und X800XL/4 quads auch zum high end.

Mainstream war bis jetzt (ergo 6600/X700) 2 quads.

Ich gehe davon aus, dass auf Dauer 12 Pipes auch im Midrange kommen werden. 16 Pipes wöre dann unteres High-End. (für NV)

Ailuros
2005-07-15, 10:10:51
Ich gehe davon aus, dass auf Dauer 12 Pipes auch im Midrange kommen werden. 16 Pipes wöre dann unteres High-End. (für NV)

Ich denke dass Du mich verstanden hast; mit mehr quads im high end Bereich, hat zumindest theoretisch NVIDIA mehr Luft fuer mehr quads als bisher in niedrigeren Markt-abteilungen. Falls dieses der Fall sein sollte, muss ATI wohl auch hier wieder zu hoeheren Taktraten greifen.

seahawk
2005-07-15, 10:14:39
Ich denke dass Du mich verstanden hast; mit mehr quads im high end Bereich, hat zumindest theoretisch NVIDIA mehr Luft fuer mehr quads als bisher in niedrigeren Markt-abteilungen. Falls dieses der Fall sein sollte, muss ATI wohl auch hier wieder zu hoeheren Taktraten greifen.

Davon gehe ich aus. Man beachte, dass die 6600LE ja jeute schon den 6200er ablöst, und ja eignetlich ein deaktivierter 8 Pipechip ist.

Würde NV seine heutigen Bezeichungen beibehalten würde ich sagen :

7600 = 8 Pipes
7600GT = 12 Pipes
7800 = 16 Pipes

alle mit 350-400Mhz Chiptakt.

reunion
2005-07-15, 13:07:15
http://www.the-inquirer.net/?article=24646

Iwan
2005-07-15, 13:15:06
das gerücht einer dual-slot kühlung kursiert aber schon länger.

Hellfire-Torrod
2005-07-15, 13:51:45
Davon gehe ich aus. Man beachte, dass die 6600LE ja jeute schon den 6200er ablöst, und ja eignetlich ein deaktivierter 8 Pipechip ist.

Würde NV seine heutigen Bezeichungen beibehalten würde ich sagen :

7600 = 8 Pipes
7600GT = 12 Pipes
7800 = 16 Pipes

alle mit 350-400Mhz Chiptakt.

Bei den 7600ern kann man noch takt drauflegen, da sie wohl ein nur 128 Bit speicherinterface haben werden. So wie es aktuell auch ist.

btt.
Wird der R520 etwa wieder ein gepushter R300?

Relic
2005-07-15, 14:06:17
Wozu mehr takt, wenn sie mit einem 128bit-Interface sowieso schon extrem bandbreitelimitiert wäre?

deekey777
2005-07-15, 14:22:29
Davon gehe ich aus. Man beachte, dass die 6600LE ja jeute schon den 6200er ablöst, und ja eignetlich ein deaktivierter 8 Pipechip ist.

Würde NV seine heutigen Bezeichungen beibehalten würde ich sagen :

7600 = 8 Pipes
7600GT = 12 Pipes
7800 = 16 Pipes

alle mit 350-400Mhz Chiptakt.

Ich glaube kaum, daß die Standard 7600 weniger Pipes haben wird als die 7600GT, sondern nur einen geringeren Tak.

boxleitnerb
2005-07-15, 15:40:36
Ich hoffe inständig, dass bald das winkelabhängige AF verschwindet.
Jetzt werdet ihr sicher sagen: "Wovon träumt der nachts?"
aaaaaber:
Wenn ich mir die Shots von Gothic und Morrowind Oblivion so anschaue, dann gibt es im Vergleich auch zu vielen aktuellen Spielen sehr sehr viele ungrade Oberflächen, Böden etc.
Da fällt IMHO die Winkelabhängigkeit viel mehr auf, als bei 90 Grad Flächen, dort nämlich (fast) gar nicht.
Wenn man die Winkelabhängigkeit heute vielleicht als "gerade noch erträglich" einstufen könnte, würde ich doch sagen, dass in besagten Next-Gen Titeln sowas zumindest für mich absolut inakzeptabel ist.
Was meint ihr dazu?

Hellfire-Torrod
2005-07-15, 15:44:10
Wozu mehr takt, wenn sie mit einem 128bit-Interface sowieso schon extrem bandbreitelimitiert wäre?

Warum hat die 6600gt so einen hohen takt :smile:

MadManniMan
2005-07-15, 15:56:58
Warum hat die 6600gt so einen hohen takt :smile:

Welchen? Bei der VPU? Weil das Ding so hoch geht, man viel verkaufen möchte und dabei ATi in den Arsch tritt.
Warum beim RAM? Damit zumindest ein kleines Gegengewicht zum Coretakt bestehen bleibt. Logo, oder?

Relic
2005-07-15, 18:27:21
und da man beim ram nicht höher gehen kann, ist es sinnlos einen 3 quad chip noch höher zu takten, da man die leistung durch zu wenig bandbreite einfach nicht nutzen kann.

Gast
2005-07-15, 18:33:45
und da man beim ram nicht höher gehen kann, ist es sinnlos einen 3 quad chip noch höher zu takten, da man die leistung durch zu wenig bandbreite einfach nicht nutzen kann.


doch man könnte ordentliches AF mit akzeptablen leistungseinbußen anbieten.