PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

deekey777
2005-07-22, 19:54:21
Er sagte doch ohne flimmern. :confused:

Dir ist schon klar, daß Quasar genau weiß, um welches Flimmern genau es geht, und er den Zitierten nur "verarschen" will, damit dieser endlich keinen Schwachsinn schreibt. ;)

Gandharva
2005-07-23, 01:32:44
Die VR-Zone will erfahren haben, dass die Ausbeute an R520-Chips, welche mit intakten 24 Pixel-Pipelines agieren können, lediglich im Bereich von 3% liege. Verbreitete Gerüchte, dass gar 32 Pixel-Pipelines geplant seien, darf man getrost als höchst unwahrscheinlich betrachten. Die Schlußfolgerung wäre, sollte das aktuelle Gerücht auf Tatsachen beruhen, dass der R520 bei seiner Vorstellung im September eben "nur" mit 16 Pixel-Pipelines antreten wird, da hier zumindest eine vertretbare Ausbeute zu erwarten sein wird, welche es ATI erlaubt auch Chipsätze an die Grafikkartenhersteller zu liefern.

VR-Zone spekuliert auf Basis dieser Informationen weiter, dass ATI möglicherweise, sollte die Fertigung sich weiter verbessern, im vierten Quartal 2005 einen Refresh-Chip mit 24 Pipelines hinterher schicken könnte.


angenommen das stimmt, inwieweit würde es die leistung/qualität des R520 beinflussen wenn er mit 16 statt 24 pipelines daherkommt?

mapel110
2005-07-23, 01:37:09
angenommen das stimmt, inwieweit würde es die leistung/qualität des R520 beinflussen wenn er mit 16 statt 24 pipelines daherkommt?
Die Frage erübrigt sich, weil es keinen R520 24 Piper gibt und auch nicht geben wird. R580 könnte eventuell 24 Pipes haben, aber selbst das glaube ich nicht wirklich.

16 anstatt 24 Pipes würde halt weniger Speed bedeuten(wobei es ja auch noch den Takt gibt), das ist alles.

Gast
2005-07-23, 03:41:46
Mittlerweile halte ich 16 Pipelines auch für am wahrscheinlichsten. Ich hoffe nur im Sinne des Konkurrenzkampfes, dass ATI an der Effiziens der Pipelines gearbeitet hat falls es dazu kommen sollte.

Meint ihr denn, dass ATI im Stande wäre eine 16 Pipeline Karte gegen einen 24 Pipeline-Chip vernünftig zu vermarkten??? Ich sehe die neuen Nvidia-Propaganda-Folien schon vor mir. Jeder halbwegs informierter Konsument kennt ja mittlerweile den Begriff Pipeline und kauft nach der Devise "Je mehr desto besser". Falls ATI bei dieser Generation keinen technischen Nachteil mehr, dann, im Falle einer 16 Pipelineslösung, einen Vermarktungsnachteil.

Franzmann-Jan
2005-07-23, 03:44:04
Mittlerweile halte ich 16 Pipelines auch für am wahrscheinlichsten. Ich hoffe nur im Sinne des Konkurrenzkampfes, dass ATI an der Effiziens der Pipelines gearbeitet hat falls es dazu kommen sollte.

Meint ihr denn, dass ATI im Stande wäre eine 16 Pipeline Karte gegen einen 24 Pipeline-Chip vernünftig zu vermarkten??? Ich sehe die neuen Nvidia-Propaganda-Folien schon vor mir. Jeder halbwegs informierter Konsument kennt ja mittlerweile den Begriff Pipeline und kauft nach der Devise "Je mehr desto besser". Falls ATI bei dieser Generation keinen technischen Nachteil mehr, dann, im Falle einer 16 Pipelineslösung, einen Vermarktungsnachteil.

Verdammt, jetzt habe ich doch tatsächlich meinen ersten Beitrag versemmelt. Naja, er kam auf jeden Fall von mir wenn sich jemand beschweren möchte :biggrin:

Gast
2005-07-23, 03:55:55
Mittlerweile halte ich 16 Pipelines auch für am wahrscheinlichsten. Ich hoffe nur im Sinne des Konkurrenzkampfes, dass ATI an der Effiziens der Pipelines gearbeitet hat falls es dazu kommen sollte.

Meint ihr denn, dass ATI im Stande wäre eine 16 Pipeline Karte gegen einen 24 Pipeline-Chip vernünftig zu vermarkten??? Ich sehe die neuen Nvidia-Propaganda-Folien schon vor mir. Jeder halbwegs informierter Konsument kennt ja mittlerweile den Begriff Pipeline und kauft nach der Devise "Je mehr desto besser". Falls ATI bei dieser Generation keinen technischen Nachteil mehr, dann, im Falle einer 16 Pipelineslösung, einen Vermarktungsnachteil.


leute ihr macht auch alle viel zu heiss,ihr beschäftigt euch zu viel mit dem thema

1. wer ahnung hat wartet auf benchmarks und kauft dann ne nv oder ati

2. wer möchtegern ahnung hat kauft das was seine freunde und forenuser im raten - und das ist meistens falsch

3. wer null ahnung hat,und das sind 90% aller käufer, kauft einen fertig pc im laden . er hat null ahnung was ati,nv ist,was pipeslines sind usw usw

Gast
2005-07-23, 04:59:25
Die Frage erübrigt sich, weil es keinen R520 24 Piper gibt und auch nicht geben wird.
Viper']Quelle?

Ich liebe solche haltlosen Behauptungen... :|
Ich bitte dich bei solchen Behauptungen Quellen anzugeben sonst bringt so ein Beitrag nichts! Danke

r3ptil3
2005-07-23, 05:04:10
leute ihr macht auch alle viel zu heiss,ihr beschäftigt euch zu viel mit dem thema

1. wer ahnung hat wartet auf benchmarks und kauft dann ne nv oder ati

2. wer möchtegern ahnung hat kauft das was seine freunde und forenuser im raten - und das ist meistens falsch

3. wer null ahnung hat,und das sind 90% aller käufer, kauft einen fertig pc im laden . er hat null ahnung was ati,nv ist,was pipeslines sind usw usw

1. Wenn jemand gerae eine High-End karte braucht und erst ein Hersteller seine neue Generation draussen hat, dann werden sich wohl sicherlich manche die kaufen z.B. im Juni, anstatt bis Augsut oder so zu warten.
2. Das ist meistens richtig. Die User geben klare und gute Antworten.
3. Denkst du jeder will sich Tage Wochenlang damit beschäftigen wann die neue Grafikkarten Generation kommt? Nein, sicher nicht, sondern die meisten möchten einen Komplett Pc, weil die damit Surfen Gamen usw. wollen, und nicht die Hardware auf Herz und Nieren prüfen, weil das uninteressant für die meisten ist. Darum gleich komplett fertig installiert alles Bildschirm usw. .

Ailuros
2005-07-23, 06:19:35
Die Frage erübrigt sich, weil es keinen R520 24 Piper gibt und auch nicht geben wird. R580 könnte eventuell 24 Pipes haben, aber selbst das glaube ich nicht wirklich.

16 anstatt 24 Pipes würde halt weniger Speed bedeuten(wobei es ja auch noch den Takt gibt), das ist alles.

Auch R580 hat 4 quads; nur eben 3x so viel texture samplers.

Spasstiger
2005-07-23, 09:33:31
angenommen das stimmt, inwieweit würde es die leistung/qualität des R520 beinflussen wenn er mit 16 statt 24 pipelines daherkommt?

Bei den angepeilten 700 MHz Chiptakt sehe ich keinen Nachteil durch 16 Pipes (auch wenn es sowieso keine 24 Pipe Version gegeben hätte, wie mapel110 meint). Außerdem ist ja noch null zur Effizienz des R520 bekannt.
Ich bin mir sicher, dass ATI schon heute ein würdiges Konkurrenzprodukt zur GeForce 7800 GTX vorstellen könnte, jedoch muss auch die Verfügbarkeit gewährleistet sein. ATI wollte es wohl vermeiden, sich Begriffe wie Papiertiger an den Kopf werfen zu lassen.

P.S.: Eine GeForce 7800 GTX hat zwar 24 Pipelines, aber auch nur 16 ROPs.

BlackBirdSR
2005-07-23, 09:39:40
Auch R580 hat 4 quads; nur eben 3x so viel texture samplers.

Kannst du mir die Konsequenz aus den zusätzlichen 2 texture samplers kurz erklären?

Ailuros
2005-07-23, 12:20:16
Kannst du mir die Konsequenz aus den zusätzlichen 2 texture samplers kurz erklären?

Zunehmende float sampling Anforderungen.

BlackBirdSR
2005-07-23, 12:27:12
Zunehmende float sampling Anforderungen.

aha :confused:
:tongue:

Aber macht nichts, wenns hier im Thread unpassend ist, mir das etwas umfangreicher zu erklären, was ATI das bringt etc, dann google ich ein wenig rum.

Es sei denn, jemand hat Lust einem halb n00b zu erklären, was der r580 damit gegenüber dem r520 besser kann.

Demirug
2005-07-23, 12:56:35
Das wiederspricht aber eigentlich der Aussage von ATI das wir in Zukunft mehr Rechenleistung als Texturelsitung sehen werden.

Quasar
2005-07-23, 13:23:34
IMO deutet es darauf hin, daß auch der R520 entweder keine FP16-fähigen TMUs hat oder daß es auch bei ihm mehr als einen Takt dauert, ein bilinear gefiltertes FP16-Sample zu bilden.

Warum aber gleich der Sprung auf drei dieser Dinger???

ShadowXX
2005-07-23, 15:12:35
Das wiederspricht aber eigentlich der Aussage von ATI das wir in Zukunft mehr Rechenleistung als Texturelsitung sehen werden.

Vielleicht können Sie aus irgendwelchen technischen/zeitlichen Gründen die Rechenenleistung gegenüber dem r520 nicht weiter Steigern (ausser über mehr Takt).
(Damit meine ich, das es Designbedingt nicht geht, einfach mehr ALUs oder andere ALUs gegenüber dem r520 reinzusetzen.)

Und Sie versuchen deshalb beim r580 über die Texturleistung zu gehen.....

Xmas
2005-07-23, 16:56:58
IMO deutet es darauf hin, daß auch der R520 entweder keine FP16-fähigen TMUs hat oder daß es auch bei ihm mehr als einen Takt dauert, ein bilinear gefiltertes FP16-Sample zu bilden.
Es bringt praktisch nichts, ein 4-Komponenten-FP16-Sample pro Takt und TMU erzeugen zu wollen. Die Bandbreite ist schlicht nicht da.

Warum aber gleich der Sprung auf drei dieser Dinger???
Weil es Blödsinn ist...

Quasar
2005-07-23, 17:21:02
Die Bandbreite ist schlicht nicht da.
Du kennst R520 und 580 dann offenbar besser als ich. :)

Bandbreite läßt sich 'erzeugen', IMO.

Xmas
2005-07-23, 17:40:51
Du kennst R520 und 580 dann offenbar besser als ich. :)

Bandbreite läßt sich 'erzeugen', IMO.
Mit einem breiteren Bus. Ja, sorry, ich vergaß zu erwähnen dass ich bei den kommenden Chips von ATI noch nicht an ein breiteres Speicherinterface glaube.

Man rechnet beim bilinearen Filter im Schnitt mit ca. 1 Texel, der neu aus dem Speicher gelesen werden muss. Bei 4-Kanal-FP16 sind das 64 Bit. 16 TMUs sind es wohl mindestens. Man müsste also 1024 Bit pro GPU-Takt heranschaffen, und wenn dieser schon jenseits der 600MHz liegen soll...
Mehr FP16-Filterleistung verpufft da einfach ungenutzt.

LordDeath
2005-07-23, 17:45:40
Mit einem breiteren Bus. Ja, sorry, ich vergaß zu erwähnen dass ich bei den kommenden Chips von ATI noch nicht an ein breiteres Speicherinterface glaube.

Man rechnet beim bilinearen Filter im Schnitt mit ca. 1 Texel, der neu aus dem Speicher gelesen werden muss. Bei 4-Kanal-FP16 sind das 64 Bit. 16 TMUs sind es wohl mindestens. Man müsste also 1024 Bit pro GPU-Takt heranschaffen, und wenn dieser schon jenseits der 600MHz liegen soll...
Mehr FP16-Filterleistung verpufft da einfach ungenutzt.

normalerweise hat man ja immer versucht die bandbreite, da wo sie knapp ist, effizienter zu nutzten. ne ahnung, ob in zukunft da eine neue verlustfreie hardwareseitige kompressionsmethode in diesem bereich abhilfe schaffen kann? oder rechnest du damit nicht?

Coda
2005-07-23, 17:53:21
Das ist nur mit zusätzlicher Latenz durch Indirektionen bei Texturen möglich, wirkt dem gewünschten Effekt also entgegen.

Xmas
2005-07-23, 17:58:28
Verlustfreie Kompressionsmethoden sind bei Texturen kaum gefragt. Das liegt daran dass man einen Indirektionsschritt bräuchte, welcher die Latenz noch weiter erhöht, und auch nur Kompressionsstufen sinnig sind, die einem Vielfachen der Granularität des Speicherinterfaces entsprechen. Es bringt wenig, wenn man einen Texturblock von 128 auf 96 Bit komprimiert, wenn das Speicherinterface sowieso nur 128 Bit-Wörter übertragen kann.

Quasar
2005-07-23, 18:13:54
Mit einem breiteren Bus. Ja, sorry, ich vergaß zu erwähnen dass ich bei den kommenden Chips von ATI noch nicht an ein breiteres Speicherinterface glaube.

Man rechnet beim bilinearen Filter im Schnitt mit ca. 1 Texel, der neu aus dem Speicher gelesen werden muss. Bei 4-Kanal-FP16 sind das 64 Bit. 16 TMUs sind es wohl mindestens. Man müsste also 1024 Bit pro GPU-Takt heranschaffen, und wenn dieser schon jenseits der 600MHz liegen soll...
Mehr FP16-Filterleistung verpufft da einfach ungenutzt.
Es wäre ein Anfang. Insbesondere, wenn man noch von fest an die Pipeline gekoppelten TMUs ausgeht, kann in jedem Takt quasi jede TMU von einem FP16-Sample 'betroffen' sein. Andersrum muß das aber auch nicht geschehen - so hat man halt im Worst-Case eine Verpuffung der FP16-Leistung, die bei normaler Zwei-Takt-Filterung allerdings die Regel darstellt.

Klar, Transistoren kostet das, aber da wäre IMO sowieso ein entkoppeltes TMU-Array von meinetwegen acht TMUs, die aber trilinear und FP16 single-cylce liefern können, sinnvoller.

Xmas
2005-07-23, 20:35:23
Es wäre ein Anfang. Insbesondere, wenn man noch von fest an die Pipeline gekoppelten TMUs ausgeht, kann in jedem Takt quasi jede TMU von einem FP16-Sample 'betroffen' sein. Andersrum muß das aber auch nicht geschehen - so hat man halt im Worst-Case eine Verpuffung der FP16-Leistung, die bei normaler Zwei-Takt-Filterung allerdings die Regel darstellt.
Ich verstehe nicht ganz worauf du hinauswillst. Die Bandbreite für 16 FP16-Texturfetches ist nicht da. Warum also entsprechende TMUs verbauen?

Klar, Transistoren kostet das, aber da wäre IMO sowieso ein entkoppeltes TMU-Array von meinetwegen acht TMUs, die aber trilinear und FP16 single-cylce liefern können, sinnvoller.
ATI hat TMUs und ALUs sowieso schon voneinander getrennt. 16 Bi-TMUs, die für FP16 zwei Takte brauchen, bieten da im Schnitt mehr Leistung.

Quasar
2005-07-23, 21:00:09
Ich verstehe nicht ganz worauf du hinauswillst. Die Bandbreite für 16 FP16-Texturfetches ist nicht da. Warum also entsprechende TMUs verbauen?
Ich will darauf hinaus, daß du mit 16 Bi-TMUs entweder 16 bi-Samples oder 8 FP16-Samples 'pro Takt' bekommen kannst. Mit fortschrittlicheren TMUs kannst du aber dort, wo's grad nötig ist, die verfügbare Bandbreite besser ausnutzen. So blockiert eine TMU nicht für zwei, sondern nur noch für einen Takt, wenn FP16 dort verlangt wird. Ebenso wäre ein trilinear gefiltertes Sample möglich - ebenfalls single-cycle.

Je entkoppelter die TMUs dabei von den ALUs sind, desto eher kann man die Rechenleistung inzwischen weiter ausnutzen.
ATI hat TMUs und ALUs sowieso schon voneinander getrennt. 16 Bi-TMUs, die für FP16 zwei Takte brauchen, bieten da im Schnitt mehr Leistung.
Solange bilineare Filterung noch eine Rolle spielt, meinetwegen. In Zukunft allerdings denke ich, daß das zurückgehen wird.
Da wären weniger TMUs, die aber im Zweifel mehr pro Takt schaffen, sinnvoller. Außer natürlich, um in PDFs mit bilinearer Single-Texturing Füllrate angeben zu können.

reunion
2005-07-23, 21:07:58
R520-Vorstellung am 26. August? (http://www.sydneyshowground.com.au/index.asp?PageType=EventDetail&ID=86&SectionID=1)

Xmas
2005-07-23, 21:28:16
Ich will darauf hinaus, daß du mit 16 Bi-TMUs entweder 16 bi-Samples oder 8 FP16-Samples 'pro Takt' bekommen kannst. Mit fortschrittlicheren TMUs kannst du aber dort, wo's grad nötig ist, die verfügbare Bandbreite besser ausnutzen. So blockiert eine TMU nicht für zwei, sondern nur noch für einen Takt, wenn FP16 dort verlangt wird. Ebenso wäre ein trilinear gefiltertes Sample möglich - ebenfalls single-cycle.
Wenn die TMU nur für einen Takt blockiert, im nächsten Takt aber nichts tun kann weil die benötigten Daten noch nicht da sind, dann blockiert sie effektiv auch für zwei Takte. Ich verstehe wirklich nicht wie du dir das genau vorstellst. Könntest du an einem Beispiel konkret zeigen wie du die Bandbreite besser ausnutzen willst?

Solange bilineare Filterung noch eine Rolle spielt, meinetwegen. In Zukunft allerdings denke ich, daß das zurückgehen wird.
Da wären weniger TMUs, die aber im Zweifel mehr pro Takt schaffen, sinnvoller. Außer natürlich, um in PDFs mit bilinearer Single-Texturing Füllrate angeben zu können.
Das mag vielleicht zurückgehen, aber benötigen wird man es dennoch. Dann müssten weniger TMUs schon insgesamt mehr pro Takt schaffen, nicht nur pro TMU (also 12 Tri-TMUs statt 16 Bi-TMUs z.B.).

Gast
2005-07-23, 21:34:39
R520-Vorstellung am 26. August? (http://www.sydneyshowground.com.au/index.asp?PageType=EventDetail&ID=86&SectionID=1)

gut gut und da ati ja auch die karten bei der vorstellung verfügbar hat kann meine 7800gtx wieder raus.

:up:

Demirug
2005-07-23, 21:40:37
R520-Vorstellung am 26. August? (http://www.sydneyshowground.com.au/index.asp?PageType=EventDetail&ID=86&SectionID=1)

In Sydney? Na ich weiß nicht. Wäre wohl etwas aufwendig die ganze Presse nach Australien zu verfrachten.

Winter[Raven]
2005-07-23, 21:43:08
gut gut und da ati ja auch die karten bei der vorstellung verfügbar hat kann meine 7800gtx wieder raus.

:up:

Die andere Frage ist ob sich ein R520 lohnt ^_^...

@ Demirug

Hehem 24h hin-und Rückflug ... :biggrin:

Quasar
2005-07-23, 21:53:35
Wenn die TMU nur für einen Takt blockiert, im nächsten Takt aber nichts tun kann weil die benötigten Daten noch nicht da sind, dann blockiert sie effektiv auch für zwei Takte. Ich verstehe wirklich nicht wie du dir das genau vorstellst. Könntest du an einem Beispiel konkret zeigen wie du die Bandbreite besser ausnutzen willst?
Ok, ich wills mal versuchen.
Angenommen, die Bandbreite reicht genau für 16 bi-Texel/Takt. Oder eben 8 FP16-Texel.
Wenn ich nun aber diese 8 FP16-Texel herangeschafft habe, können evtl. Partitionen des Speicheinterfaces bereits im nächsten Takt neue x*128 Bit heranschaffen. Die TMUs sind für diesen Takt jedoch noch blockiert. Nun habe ich acht "freie" TMUs, die aber über die volle Bandbreite des Speicherinterfaces verfügen können und damit überversorgt sind, wenn ich nicht gerade weitere FP16-Texel brauche. Wenn es dagegen single-cycle FP16-TMUs /Tri-TMUs wären, wären sie im nächsten Takt bereits wieder voll auslastbar.
(Caching, Latenzen, sowie andere Bandbreitenverbraucher jetzt mal aussen vor gelassen)



Das mag vielleicht zurückgehen, aber benötigen wird man es dennoch. Dann müssten weniger TMUs schon insgesamt mehr pro Takt schaffen, nicht nur pro TMU (also 12 Tri-TMUs statt 16 Bi-TMUs z.B.).
Ja, meine acht TMUs waren natürlich ein Eigentor. Insgesamt wäre es wohl am besten, wenn man bei ansonsten gleichem Transistorbudget die erreichbare Texelfüllrate (Tri und FP16 sollten hier dann doppelt zählen zu Einschätzungszwecken) möglichst hoch bekommt.
Ich kann es zwar nicht realistisch einschätzen, weil ich bisher noch eine sehr überschaubare Anzahl von GPUs entworfen habe, aber aus 16 Bi-TMUs (mit 0,5*FP16/Takt) dürften dank entfernbarer Rendundanz doch bestimmt 10-12 ordentliche Tri-TMUs (á 1 FP16/Takt) hinzubekommen sein.
Je entkoppelter diese sind, desto eher könnte man ja auch über eine 'krumme' Anzahl an TMUs nachdenken.

Gast
2005-07-23, 21:57:14
R520-Vorstellung am 26. August? (http://www.sydneyshowground.com.au/index.asp?PageType=EventDetail&ID=86&SectionID=1)
Sehe ich das richtig, in einem australischen Stadion soll das stattfinden? Wer soll denn dahin kommen, bzw. wofür diese überdimensionierte Örtlichkeit? :|

Gast
2005-07-23, 21:58:09
']Die andere Frage ist ob sich ein R520 lohnt ^_^...

@ Demirug

Hehem 24h hin-und Rückflug ... :biggrin:

der r520 hat schon deswegen gewonnen weil meine 7800gtx ein af qualität die einfach graunhaft ist ,auch da aa kommt nichtwirklich an ati ran.

selbst wenn der r520 nur gleich schnell wird ist er schon die viel bessere wahl. aber er wird nicht langsamer sein weil der 7800 nur ein lahmes update ist,in 80% aller game nur minimal schneller

und kommt mir jetzt nicht mit cpu limitiert,das ist ne lahme ausrede

Quasar
2005-07-23, 22:15:04
selbst wenn der r520 nur gleich schnell wird ist er schon die viel bessere wahl. aber er wird nicht langsamer sein weil der 7800 nur ein lahmes update ist,in 80% aller game nur minimal schneller
In welcher Auflösung und mit welchem AA/AF?
Mein Monitor kriegt bis zu 2048x1536 hin, wenn er muß - deiner auch? ;)

und kommt mir jetzt nicht mit cpu limitiert,das ist ne lahme ausrede
Stimmt, das kann der R520 ja nur besser machen - 100 fps mit VSync-on in Gothic 2 mit meinem P3!

Xmas
2005-07-23, 22:21:35
Ok, ich wills mal versuchen.
Angenommen, die Bandbreite reicht genau für 16 bi-Texel/Takt. Oder eben 8 FP16-Texel.
Wenn ich nun aber diese 8 FP16-Texel herangeschafft habe, können evtl. Partitionen des Speicheinterfaces bereits im nächsten Takt neue x*128 Bit heranschaffen. Die TMUs sind für diesen Takt jedoch noch blockiert. Nun habe ich acht "freie" TMUs, die aber über die volle Bandbreite des Speicherinterfaces verfügen können und damit überversorgt sind, wenn ich nicht gerade weitere FP16-Texel brauche. Wenn es dagegen single-cycle FP16-TMUs /Tri-TMUs wären, wären sie im nächsten Takt bereits wieder voll auslastbar.
(Caching, Latenzen, sowie andere Bandbreitenverbraucher jetzt mal aussen vor gelassen)
Wenn ich dich also recht verstehe, geht es um den Wechsel vom Samplen einer 64bpp-Textur in einem Takt zum Samplen einer 32bpp-Textur im nächsten?

Nun, aber gerade da sind Cache und Latenzen bei der Betrachtung sehr wichtig. Es kann ja durchaus möglich sein dass man einen 64bpp-Fetch und einen 32bpp-Fetch innerhalb von zwei aufeinanderfolgenden Takten anstößt, aber die Ergebnisse der beiden im Abstand von zwei Takten die TMU verlassen.

Bei NVidia stellt sich das Problem sowieso nicht, weil die Textur frühestens nach einem kompletten Durchlauf eines Batches durch die Pipeline gewechselt wird.

Ja, meine acht TMUs waren natürlich ein Eigentor. Insgesamt wäre es wohl am besten, wenn man bei ansonsten gleichem Transistorbudget die erreichbare Texelfüllrate (Tri und FP16 sollten hier dann doppelt zählen zu Einschätzungszwecken) möglichst hoch bekommt.
Ich kann es zwar nicht realistisch einschätzen, weil ich bisher noch eine sehr überschaubare Anzahl von GPUs entworfen habe, aber aus 16 Bi-TMUs (mit 0,5*FP16/Takt) dürften dank entfernbarer Rendundanz doch bestimmt 10-12 ordentliche Tri-TMUs (á 1 FP16/Takt) hinzubekommen sein.
Je entkoppelter diese sind, desto eher könnte man ja auch über eine 'krumme' Anzahl an TMUs nachdenken.
Ich kann auch nicht realistisch einschätzen, welchen Leistungsvorteil zwei Bilineare gegenüber einer Trilinearen/AF-fähigen TMU hätten. Brilinear und variierende Texturauflösungen tun dazu ihr übriges.

Gast
2005-07-23, 22:22:01
der r520 hat schon deswegen gewonnen weil meine 7800gtx ein af qualität die einfach graunhaft ist ,auch da aa kommt nichtwirklich an ati ran.


beim AF könntest du recht haben (habe leider keine karte zum vergleichen), aber beim FSAA ist nvidia imo momentan haushoch vorne. TAA zählt imo einfach wesentlich mehr als 2 weitere samples.


und kommt mir jetzt nicht mit cpu limitiert,das ist ne lahme ausrede

toll und was soll der R520 soviel besser machen um 100% mehr performance bei cpu-limitierung herauszuholen?

Gast
2005-07-23, 22:24:59
Ich verstehe nicht ganz worauf du hinauswillst. Die Bandbreite für 16 FP16-Texturfetches ist nicht da. Warum also entsprechende TMUs verbauen?




man muss ja nicht immer nur an bilineare filterung denken ;)

beim einsatz von trilinearer oder gar anisotroper filterung könnte es sich imo schon auszahlen FP-texturen in einem takt zu filtern. die benötigte füllrate steigt ja mit höherwertiger filterung wesentlich stärker als die bandbreite.

Xmas
2005-07-23, 22:45:37
man muss ja nicht immer nur an bilineare filterung denken ;)

beim einsatz von trilinearer oder gar anisotroper filterung könnte es sich imo schon auszahlen FP-texturen in einem takt zu filtern. die benötigte füllrate steigt ja mit höherwertiger filterung wesentlich stärker als die bandbreite.
Bei Trilinear, ja, weil man die Texel auf der kleineren Mipmap häufiger wiederverwenden kann. Beim AF (abgesehen von dem Effekt den trilineare Filterung hat) eigentlich nicht, dort bleibt es dabei dass jeder Texel viermal zur Anwendung kommt.
Und vor allem wenn man das AF optimiert (zulässige Optimierungen!), benötigt man mehr neue Texel pro Takt als ohne.

Was natürlich stimmt ist dass, je länger ein Pixel braucht, die Framebuffer-Bandbreite immer weniger Einfluss hat.

Außerdem stehen z.B. den 7800GTX-TMUs pro Takt maximal 29,8 bit zur Verfügung, nach Abzug der Framebuffer-, Ramdac-, und Geometrie-Bandbreite sowie der Interface-Effizienz nochmal deutlich weniger. Ich glaube nicht, dass man es häufig schafft diese TMUs bei FP16-Fetches voll auszulasten.

Gast
2005-07-23, 23:05:11
Bei Trilinear, ja, weil man die Texel auf der kleineren Mipmap häufiger wiederverwenden kann. Beim AF (abgesehen von dem Effekt den trilineare Filterung hat) eigentlich nicht, dort bleibt es dabei dass jeder Texel viermal zur Anwendung kommt.
Und vor allem wenn man das AF optimiert (zulässige Optimierungen!), benötigt man mehr neue Texel pro Takt als ohne.


allerdings dürfte es beim AF wahrscheinlicher sein dass sich ein großer teil der benötigten texel bereits im texturcache befindet und deshalb nicht mehr aus dem VRAM nachgeladen werden muss.



Außerdem stehen z.B. den 7800GTX-TMUs pro Takt maximal 29,8 bit zur Verfügung, nach Abzug der Framebuffer-, Ramdac-, und Geometrie-Bandbreite sowie der Interface-Effizienz nochmal deutlich weniger.

bitte um erklärung, wie kommst du auf diese 29,8bit?

Ailuros
2005-07-23, 23:50:22
']Die andere Frage ist ob sich ein R520 lohnt ^_^...

@ Demirug

Hehem 24h hin-und Rückflug ... :biggrin:

Nein die Rueckfahrt dauert laenger weil es bergauf geht LOL :D

Ailuros
2005-07-23, 23:52:11
Das wiederspricht aber eigentlich der Aussage von ATI das wir in Zukunft mehr Rechenleistung als Texturelsitung sehen werden.

Ich weiss, aber ich richte mich in dem Fall leider auf Aussagen ueber die ich mir nicht ganz so sicher bin ob sie auch war sind. Jedesmal wenn ich fuer die bloede "3" die Moeglichkeit von mehr ALU OPs erwaehne, ist die Antwort negativ ;)

Xmas
2005-07-24, 00:10:03
allerdings dürfte es beim AF wahrscheinlicher sein dass sich ein großer teil der benötigten texel bereits im texturcache befindet und deshalb nicht mehr aus dem VRAM nachgeladen werden muss.
Genauso wahrscheinlich wie bei bilinearer Filterung. Wie gesagt, jeder Texel wird bei Bilinear normalerweise 4 mal gebraucht, genauso bei "herkömmlichem", auf bilinearen Samples basierendem AF. D.h. er wird einmal aus dem Speicher in den Cache gelesen, von dort aus viermal zum Filtern geholt, und dann verworfen.

bitte um erklärung, wie kommst du auf diese 29,8bit?
(600 MHz * 256 Bit * 2) / (430 MHz * 24)

-error-
2005-07-24, 12:38:03
Der 26.7 steht also nicht mehr als Termin fest?

Gast
2005-07-24, 12:43:24
Der 26.7 steht also nicht mehr als Termin fest?
GC

Demirug
2005-07-24, 12:57:09
Der 26.7 steht also nicht mehr als Termin fest?

Tat er das jemals?

Gast
2005-07-24, 13:00:40
(600 MHz * 256 Bit * 2) / (430 MHz * 24)

ok, klar ich hab irgendwie immer mit den 16 ROPs gerechnet (warum auch immer ;) ) und bin dann logischerweise nicht auf den wert gekommen.

Gast
2005-07-24, 13:02:19
Genauso wahrscheinlich wie bei bilinearer Filterung. Wie gesagt, jeder Texel wird bei Bilinear normalerweise 4 mal gebraucht, genauso bei "herkömmlichem", auf bilinearen Samples basierendem AF. D.h. er wird einmal aus dem Speicher in den Cache gelesen, von dort aus viermal zum Filtern geholt, und dann verworfen.





ist bei AF nicht die wahrscheinlichkeit größer dass man einen teil der texel für den pixel A auch für den benachbarten pixel B verwenden kann (logischerweise mit anderen gewichten)

Xmas
2005-07-24, 19:01:02
ist bei AF nicht die wahrscheinlichkeit größer dass man einen teil der texel für den pixel A auch für den benachbarten pixel B verwenden kann (logischerweise mit anderen gewichten)
Nein, diese Wahrscheinlichkeit ist sogar geringer. Dafür ist – bei auf bilinearen Samples basierendem AF – die Wahrscheinlichkeit größer, dass ein Texel innerhalb eines Pixels mehrfach benötigt wird. Womit sich das eben ausgleicht.

Das Ziel ist es ja schließlich immer, die Textur lückenlos abzutasten und alle Texel insgesamt mit ihrem Anteil am Gesamtbild einfließen zu lassen.

-error-
2005-07-24, 19:24:17
Tat er das jemals?

Angeblich ja, gab eine Meldung dazu.

Sehr unschön was gerade bei ATI abläuft, zahlen die eigendlich nur für einen funktionierenden Chip?

Aber gut, einer muss ja die Drecksarbeit machen und in den sauren Apfel beißen, wenn es um Fertigungsverfahren geht.

mindfaq
2005-07-24, 19:59:46
Nope, die zahlen pro Wafer.

-error-
2005-07-24, 20:02:31
Nope, die zahlen pro Wafer.

Dann wirds doch sehr teuer, oder?

Xmas
2005-07-24, 20:14:50
Das kommt wohl darauf an wie die Ausbeute aussieht.

-error-
2005-07-24, 20:24:50
Das kommt wohl darauf an wie die Ausbeute aussieht.

Naja, derzeit angeblich recht beschi**en! Warum zahlt ATI TSMC nicht pro funktionstüchtigen Chip?

Den Fehler hat doch schon MS mit der xBox und nVidia gemacht.

Wollen wir mal hoffen, dass ATI diese Aktion nicht zu viel kostet.

Gast
2005-07-24, 21:04:44
Naja, derzeit angeblich recht beschi**en! Warum zahlt ATI TSMC nicht pro funktionstüchtigen Chip?

Den Fehler hat doch schon MS mit der xBox und nVidia gemacht.

Wollen wir mal hoffen, dass ATI diese Aktion nicht zu viel kostet.


Was sagt eigentlich deine Quelle? Immer noch 32 pipes?

Gast
2005-07-24, 21:17:48
Naja, derzeit angeblich recht beschi**en! Warum zahlt ATI TSMC nicht pro funktionstüchtigen Chip?




alle chiphersteller werden nach wafern bezahlt, mit ausnahme von IBM.

Xmas
2005-07-24, 21:21:41
Naja, derzeit angeblich recht beschi**en! Warum zahlt ATI TSMC nicht pro funktionstüchtigen Chip?
Warum sollte TSMC so ein Risiko eingehen?

Den Fehler hat doch schon MS mit der xBox und nVidia gemacht.
Da ging es um etwas ganz anderes.

-error-
2005-07-24, 21:47:05
alle chiphersteller werden nach wafern bezahlt, mit ausnahme von IBM.

Und warum fertigt dann nur nVidia bei IBM und nicht ATI?

Coda
2005-07-24, 23:03:02
Wieso sollten wir die politischen Hintergründe kennen? Vielleicht ist die Chippauschale ja so hoch für die funktionierenden Chips, dass es sich für den kleineren R420 nicht gelohnt hätte.

Überhaupt hört man nicht immer das Beste von East Fishkill und man muss auch andere Libraries verwenden. nV hat NV4x also für zwei verschiedene Prozesse ausgelegt, ATi nur für einen.

Crushinator
2005-07-25, 01:33:24
Die gesperrten User werden an dieser Stelle nochmals gebeten sich lesend im Forum zu bewegen, damit sie wenigstens nicht die anderen Gäste stören, die schreiben dürfen.

deekey777
2005-07-25, 01:36:57
Die gesperrten User werden an dieser Stelle nochmals gebeten sich lesend im Forum zu bewegen, damit sie wenigstens nicht die anderen Gäste stören, die schreiben dürfen.

Ich hab mich schon gewundert, warum da was fehlt...


Der 26.7 steht also nicht mehr als Termin fest?

Mitte August - frühestens. Denn es gab eine News von Digitimes, wo es hieß, daß Mitte dritten Quartals mit Auslieferungen der R520 Serie begonnen wird. ATi will auch so einen Bilderbuchstart hinlegen, wie es nVidia mit der G70 vorgemacht hat. Vielleicht ist auch ein Launch im September möglich (oder gar wahrscheinlich).

Ailuros
2005-07-25, 11:05:02
Angeblich ja, gab eine Meldung dazu.

Sehr unschön was gerade bei ATI abläuft, zahlen die eigendlich nur für einen funktionierenden Chip?

Aber gut, einer muss ja die Drecksarbeit machen und in den sauren Apfel beißen, wenn es um Fertigungsverfahren geht.

Es gab viele verschiedene Meldungen dazu; nur eben stimmt nur eine davon.

Winter[Raven]
2005-07-25, 11:14:35
Aber gut, einer muss ja die Drecksarbeit machen und in den sauren Apfel beißen, wenn es um Fertigungsverfahren geht.

Mit 0.13µ war es Nvidia die in den saueren Apfel gebissen haben, jetzt ist ATI wieder dran...

@ Ailuros

Die wären?;D

Ailuros
2005-07-25, 13:22:36
Die eine waere der Thread-Titel, wobei diese aber schon in H2 2004 bezweifelt wurde. Die restlichen sprachen dann von Juni, Juli, August, September 2005.

Gast
2005-07-25, 13:52:03
es wäre nett, wenn mein posting hierbleiben dürfte - ich betone noch einmal, daß ich kein gesperrter user bin.

->pro die soll angeblich nur der nv30 und dass bei tsmc bezahlt worden sein. für alles andere wäre eine quellenangabe toll.

Crushinator
2005-07-25, 15:48:57
es wäre nett, wenn mein posting hierbleiben dürfte - ich betone noch einmal, daß ich kein gesperrter user bin. (...)
Entschuldige bitte, daß ich das Topic kurz verlassen muß, aber wer bist Du dann? =)

Quasar
2005-07-25, 16:02:04
-> PN =)

horn 12
2005-07-26, 00:32:04
wann kommt denn endlich die offoz. meldung seitens ATI ,
DASS der termin für die Vorstellung des R520 passt !!
muss sich beeilen , da bereist Nvidea die 7800 gt am 11 August vorstellt m und das wäre ein fataler Doppelschlag für ATI

mensch ; ATI reiss dich beim riemen und hoffe ihr kommt da noch heile raus !
würde ioch euch wünschen, und hoffe auf gute AGP Preise beim R520 !

Termin ist der ......... JULI / AUGUST ??

Diskutator
2005-07-26, 00:44:03
wann kommt denn endlich die offoz. meldung seitens ATI ,
DASS der termin für die Vorstellung des R520 passt !!
muss sich beeilen , da bereist Nvidea die 7800 gt am 11 August vorstellt m und das wäre ein fataler Doppelschlag für ATI

mensch ; ATI reiss dich beim riemen und hoffe ihr kommt da noch heile raus !
würde ioch euch wünschen, und hoffe auf gute AGP Preise beim R520 !

Termin ist der ......... JULI / AUGUST ??

Naja, easy goin, Immerhin schlägt eine X800XL, die 7800GTX im HQ Setting!
Es bleibt bei September!

Coda
2005-07-26, 00:49:06
Naja, easy goin, Immerhin schlägt eine X800XL, die 7800GTX im HQ Setting!:ucrazy2:

deekey777
2005-07-26, 00:52:14
:ucrazy2:

Ich unterstütze deine Meinung mit meinem ganzen Gewicht.

Diskutator
2005-07-26, 00:53:33
Coda,

du bist echt sehr einseitig informiert! Lies mal ab und an www.3dchip.de

Zitat....Die GeForce 7800 GTX macht gegenüber ihrer hauseigenen Konkurrenz einen sehr guten Eindruck. Sie putzt die GeForce 6800 Ultra in den meisten Benches gnadenlos weg, so dass man die Karte sofort kaufen würde, doch in drei Spielen ( FarCry, UT 2004 und Half Life 2) mußte sie sich der Radeon X800 XL Grafikkarte geschlagen geben, denn diese deklassierte sie gerade in den höchsten Qualitätstests und zwang sie auf den 2. Platz. Die Radeon X800 XL gehört schon zu ATis High End Grafikkarten, doch ist sie eher ein Einsteiger als der direkte Konkurrent der GeForce 7800 GTX, da stellt sich uns doch die Frage, wie hätte es wohl ausgesehen, wenn eine Radeon X850 XT PE in unserem Testsystem gesteckt hätte?

http://www.3dchip.de/TestCenter/2005/78000GTX/Fazit.php

Coda
2005-07-26, 00:59:23
Ehm ja bitte?

http://www.3dchip.de/TestCenter/2005/78000GTX/benchmarks/normal/hl21600.jpg

Hier wurde ganz klar ATi 6xAA gegen nVIDIA 8xS gebencht? Sinn? Schonmal was von Supersamplinganteil gehört?

3DChip gehört nicht angebetet sondern in die Tonne getreten wenn sie so nen Müll abliefern.

deekey777
2005-07-26, 01:00:19
Ich traue keinem Tester, der Stardart schreibt...

Naja, easy goin, Immerhin schlägt eine X800XL, die 7800GTX im HQ Setting!

Ich kann micht nicht daran erinnern, daß meine 9800Pro 8xS beherrscht - genu so wenig wie die X800XL: Du hast irgendwie Äpfel mit Birnen verwechselt.

Man darf nie gegen den Wind pinkeln...

Diskutator
2005-07-26, 01:05:56
Ehm ja bitte?

http://www.3dchip.de/TestCenter/2005/78000GTX/benchmarks/normal/hl21600.jpg

Hier wurde ganz klar ATi 6xAA gegen nVIDIA 8xS gebencht? Sinn? Schonmal was von Supersamplinganteil gehört?

Tja, rausreden hilft hier nicht, die X800XL zeigt in diesem Test ganz klar das Potential einer kommenden R520 an, aber peinlich ist das schon irgendwie! X800 XL der 7800GTX Killer :eek: 6XAA sieht ausserdem bei ATI DEUTLICH besser aus als die grüne Flimmerkiste 7800GTX!

Fakt ist, das dies ein peinliches Ergebnis ist und ganz klar zeigt in welchem Beta-Stadium die Treiber sind!

Aber immer erst vorschnell doof zeigen! Denk das nächste mal ein bissel nach bevor du hier andere Leute um 1:00 moins beleidigst! ;)

Diskutator
2005-07-26, 01:09:33
Ich traue keinem Tester, der Stardart schreibt...



Ich kann micht nicht daran erinnern, daß meine 9800Pro 8xS beherrscht - genu so wenig wie die X800XL: Du hast irgendwie Äpfel mit Birnen verwechselt.

Man darf nie gegen den Wind pinkeln...

Tja, so ist das halt, Fakt ist das die 7800GTX gerade im Highendmodus keine Wunderwaffe ist, dafür habe ich schon selbst lange genug eine MSI 7800GTX im Vergleich mit einer X850XT PE getestet!

Sollen wir den Kalauer mal rauslassen?!?!?! ;)

Such mal im Google nach 7800GTX und LINUX-Test!
Peinlicher gehts kaum noch! Da zeigt die 7800GTX erschreckend wie "BETA" der Treiber noch ist!

mapel110
2005-07-26, 01:15:01
weiteres Gespamme und Geflamme wird bepunktet. Es sollten sich vorallem die angesprochen fühlen, die die letzten Postings hier im Thread bzw im Trash verfasst haben, insbesondere Diskutator. Danke.

Gast
2005-07-26, 01:16:34
*snip* Bei Hwl biste noch nicht gebannt, hab ich gesehen. Erstaunlich. Aber wie dein Status hier ist, brauch ich dir wohl nicht zu sagen.

aths
2005-07-26, 03:20:14
Naja, easy goin, Immerhin schlägt eine X800XL, die 7800GTX im HQ Setting!Hrm? 16 Pipes á 1 Shader-ALU schlagen 24 Pipes á 2 Shader-ALUs? Trotz des Taktvorteils von der Radeon: Schlecht möglich, oder? Vergleicht man gleiche Bildqualität, und nicht Supersampling vs. Multisampling, zeigt sich natürlich dass die 7800 GTX auch eine X800 XT PE abhängt.

Allerdings kann die GTX mit aktuellen Treibern kaum flimmerfreie AF-Texturen rendern. Da sind Benches mit AF GTX vs. XL recht sinnlos.

Tja, rausreden hilft hier nicht, die X800XL zeigt in diesem Test ganz klar das Potential einer kommenden R520 an, aber peinlich ist das schon irgendwie! X800 XL der 7800GTX Killer :eek: 6XAA sieht ausserdem bei ATI DEUTLICH besser aus als die grüne Flimmerkiste 7800GTX!Kanten-Antialising hat nichts mit Texturflimmern zu tun. Mit T-AA SS (oder Supersampling allgemein) kann die GTX auch Alphatest-Kanten glätten, das bietet ATI leider (noch?) nicht.

Ailuros
2005-07-26, 03:21:37
Verzweiflung ist ein schlechter Ratgeber :|

Diskutator
2005-07-26, 08:08:59
weiteres Gespamme und Geflamme wird bepunktet. Es sollten sich vorallem die angesprochen fühlen, die die letzten Postings hier im Thread bzw im Trash verfasst haben, insbesondere Diskutator. Danke.

Es gibt wieder welche die gleicher sind als die anderen!

Diskutator
2005-07-26, 08:18:08
Hrm? 16 Pipes á 1 Shader-ALU schlagen 24 Pipes á 2 Shader-ALUs? Trotz des Taktvorteils von der Radeon: Schlecht möglich, oder? Vergleicht man gleiche Bildqualität, und nicht Supersampling vs. Multisampling, zeigt sich natürlich dass die 7800 GTX auch eine X800 XT PE abhängt.

Allerdings kann die GTX mit aktuellen Treibern kaum flimmerfreie AF-Texturen rendern. Da sind Benches mit AF GTX vs. XL recht sinnlos.

Kanten-Antialising hat nichts mit Texturflimmern zu tun. Mit T-AA SS (oder Supersampling allgemein) kann die GTX auch Alphatest-Kanten glätten, das bietet ATI leider (noch?) nicht.

Hm, http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench7.php

Zudem gibt es auch in diesem Spiel den schon unter F.E.A.R. und Far Cry festgestellten Bug, daß Gamma-korrektes Anti-Aliasing auf der GeForce 7800 GTX (derzeit noch) erheblich an Leistung kostet. Auch in diesem Fall haben wir die originalen Benchmarks der GeForce 7800 GTX nachträglich durch solche ohne Gamma-korrektem Anti-Aliasing ersetzt, die Differenzen kann man sich im übrigen hier anschauen.

Das sagt doch alles! Letztendlich war meine Hauptkritik das der Treiber (bzw. 7800GTX) noch sehr "BETA" ist!

seahawk
2005-07-26, 08:21:57
Coda,

du bist echt sehr einseitig informiert! Lies mal ab und an www.3dchip.de

Zitat....Die GeForce 7800 GTX macht gegenüber ihrer hauseigenen Konkurrenz einen sehr guten Eindruck. Sie putzt die GeForce 6800 Ultra in den meisten Benches gnadenlos weg, so dass man die Karte sofort kaufen würde, doch in drei Spielen ( FarCry, UT 2004 und Half Life 2) mußte sie sich der Radeon X800 XL Grafikkarte geschlagen geben, denn diese deklassierte sie gerade in den höchsten Qualitätstests und zwang sie auf den 2. Platz. Die Radeon X800 XL gehört schon zu ATis High End Grafikkarten, doch ist sie eher ein Einsteiger als der direkte Konkurrent der GeForce 7800 GTX, da stellt sich uns doch die Frage, wie hätte es wohl ausgesehen, wenn eine Radeon X850 XT PE in unserem Testsystem gesteckt hätte?

http://www.3dchip.de/TestCenter/2005/78000GTX/Fazit.php

Kann man solche OT Posts die offensichtlich nur eine Flamewar anzettlen sollen nicht entfernen. Es ist offensichtlich, dass die Benches vollkommener Quatsch sind. 8XS - seit wann kann das ne X800 ? ;D

Und 8xS gegen 6xMSAA zu verlgeichen ist wohl etwas sinnlos.

seahawk
2005-07-26, 08:23:18
Hm, http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench7.php

Zudem gibt es auch in diesem Spiel den schon unter F.E.A.R. und Far Cry festgestellten Bug, daß Gamma-korrektes Anti-Aliasing auf der GeForce 7800 GTX (derzeit noch) erheblich an Leistung kostet. Auch in diesem Fall haben wir die originalen Benchmarks der GeForce 7800 GTX nachträglich durch solche ohne Gamma-korrektem Anti-Aliasing ersetzt, die Differenzen kann man sich im übrigen hier anschauen.

Das sagt doch alles! Letztendlich war meine Hauptkritik das der Treiber (bzw. 7800GTX) noch sehr "BETA" ist!

In dem Satz " ne X800XL schlägt ne 7800GTX in HQ Settings" sehe ich nichts von Treiberproblemen.

Kannst Du nicht noch die 6 Wochen warten bis es wirklich was zu feieren gibt ?

Diskutator
2005-07-26, 08:42:29
In dem Satz " ne X800XL schlägt ne 7800GTX in HQ Settings" sehe ich nichts von Treiberproblemen.

Kannst Du nicht noch die 6 Wochen warten bis es wirklich was zu feieren gibt ?

Nein,

ATHS hat es doch bestätigt, im Bezug auf den Treiber!

Interessant fand ich auch die Antworten zu HDTV in einem anderen Thread, da wird die 7800GTX :massa: angepriesen und NIEMAND scheint es zu wissen, das die 7800GTX bei H264 Encoded Videos (MPEG4) schlecht abschneidet, besonders wenn es um HD Frames (720p oder 1080p) geht. Das wird aber laut nv mit einem Treiber-Update behoben. ;)

Ich erinnere mich noch an den fehlenden WM9 Support für die 6800Ultra, ist das nach einem Jahr schon möglich? Wo ist das Treiber-Update geblieben?

seahawk
2005-07-26, 08:50:26
Trotzdem ist ne X800XL bei vergleichbaren Settings nicht schneller als ne 7800GTX.

Diskutator
2005-07-26, 08:56:29
Trotzdem ist ne X800XL bei vergleichbaren Settings nicht schneller als ne 7800GTX.
Das stimmt! Vergleichbare Settings sind nur leider nicht möglich, AF-Setting! Siehe hierzu auch ATHS letzten Beitrag!

Xmas
2005-07-26, 08:59:10
Es gibt wieder welche die gleicher sind als die anderen!
Es gibt zumindest einen der keine Einsicht zeigt und hier mal wieder spammt. Wenn du meinst auf Ermahnungen der Moderation nicht reagieren zu müssen, fängst du dir eben Punkte ein. So einfach ist das. Wie viele, wird noch mitgeteilt.

Diskussionen darüber sind ausschließlich in diesem Forum (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=35) zu führen, nicht hier.

seahawk
2005-07-26, 09:03:05
Das stimmt! Vergleichbare Settings sind nur leider nicht möglich, AF-Setting! Siehe hierzu auch ATHS letzten Beitrag!

Von der BQ her nicht, da momentan das AF flimmert. Allerdings liegt darin kein Speedgewinn für NV, so dass die reinen Benchmarks durchaus vergleichbar sind. Die beinträchtigte BQ ist allerdings sicherlich zu erwähnen.

ATHS : ich würde mich ja beschweren wenn meine Postings so ausgelegt würden.

Demirug
2005-07-26, 09:11:31
Von der BQ her nicht, da momentan das AF flimmert. Allerdings liegt darin kein Speedgewinn für NV, so dass die reinen Benchmarks durchaus vergleichbar sind. Die beinträchtigte BQ ist allerdings sicherlich zu erwähnen.

Die neue Filtermethode reduziert die pro Pixel benötigten Takte schon. Wenn dem nicht so wäre würden sich ATI und nVidia da ja nicht gegenseitig hochbieten.

seahawk
2005-07-26, 09:12:35
ISt die neue Version schneller als die bei der 6800 ?

Demirug
2005-07-26, 09:16:30
ISt die neue Version schneller als die bei der 6800 ?

Ja ist sie. Es könnte zwar rein Theoretisch an einer besseren Cache/Bandbreitennutzung liegen aber danach sieht es eiegentlich nicht aus. Und bei Quality ist nachweißbar auch an der Texelselektion gefummelt worden.

seahawk
2005-07-26, 11:29:31
Ja ist sie. Es könnte zwar rein Theoretisch an einer besseren Cache/Bandbreitennutzung liegen aber danach sieht es eiegentlich nicht aus. Und bei Quality ist nachweißbar auch an der Texelselektion gefummelt worden.

Ok, das stellt dann wirklich die Vergleichbarkeit der Benchmarks in frage.

Treibersache oder HArdware ? Was ist Deine geschätzte Meinung ?

Winter[Raven]
2005-07-26, 11:47:44
Ich Tippe auf Software ... die Architektur ist meiner Meinung flexibel genung für solche Spielerein.

ShadowXX
2005-07-26, 11:54:02
Ja ist sie. Es könnte zwar rein Theoretisch an einer besseren Cache/Bandbreitennutzung liegen aber danach sieht es eiegentlich nicht aus. Und bei Quality ist nachweißbar auch an der Texelselektion gefummelt worden.

Aner an welcher Stelle werden dann die Geschwindigkeitsvorteile erzielt?

Soweit ich das in Erinnerung habe, ist die Menge der gesamplete Texel die gleiche...erst danach wird doch irgendwo "gespart".
Und selbst das ist (wiederum wenn ich mich richtig erinnere) noch nicht sicher.

Lolman
2005-07-26, 12:53:54
Von der BQ her nicht, da momentan das AF flimmert. Allerdings liegt darin kein Speedgewinn für NV, so dass die reinen Benchmarks durchaus vergleichbar sind. Die beinträchtigte BQ ist allerdings sicherlich zu erwähnen.

ATHS : ich würde mich ja beschweren wenn meine Postings so ausgelegt würden.
Ist doch egal, ob NV einen Speedgewinn aus ihrem Flimmer AF zieht. DA sich herausgestellt hat, dass das NV40 HQ kaum besser ist, als ATi default, kann man imo bedenkenlos auch G70 HQ gegen ATi default testen...

Demirug
2005-07-26, 13:01:01
Aner an welcher Stelle werden dann die Geschwindigkeitsvorteile erzielt?

Soweit ich das in Erinnerung habe, ist die Menge der gesamplete Texel die gleiche...erst danach wird doch irgendwo "gespart".
Und selbst das ist (wiederum wenn ich mich richtig erinnere) noch nicht sicher.

Bei HQ ist die Texelmenge gleich nicht bei Q. Gespart wurde irgendwie beim verrechnen der Texel.

Demirug
2005-07-26, 13:02:37
Ist doch egal, ob NV einen Speedgewinn aus ihrem Flimmer AF zieht. DA sich herausgestellt hat, dass das NV40 HQ kaum besser ist, als ATi default, kann man imo bedenkenlos auch G70 HQ gegen ATi default testen...

Bedenkenlos sollte man grundsätzlich gar nichts tun.

ATI default hat ein BRI-Band das hat das G70 HQ nicht. Womit die vergleichbarkeit schon wieder zum Teufel ist.

seahawk
2005-07-26, 13:18:47
Ist doch egal, ob NV einen Speedgewinn aus ihrem Flimmer AF zieht. DA sich herausgestellt hat, dass das NV40 HQ kaum besser ist, als ATi default, kann man imo bedenkenlos auch G70 HQ gegen ATi default testen...

Das kann man imho so sehen, muss man aber nicht.

In dem von diskutator verlinkten Test war aber HQ = max. AA + max. AF.

Also 8xSSAA gegen 6x MSAA. Und da wird es dann lächerlich.

reunion
2005-07-26, 13:21:54
Also 8xSSAA gegen 6x MSAA. Und da wird es dann lächerlich.


Jetzt übertreib mal' nicht, 8xS hat "nur" einen 2xSSAA-Anteil.

reunion
2005-07-26, 13:24:10
Allerdings kann die GTX mit aktuellen Treibern kaum flimmerfreie AF-Texturen rendern.


alia iacta est - ATi wird da wohl ziemlich schnell nachziehen IMHO.

Coda
2005-07-26, 13:25:04
Jetzt übertreib mal' nicht, 8xS hat "nur" einen 2xSSAA-Anteil.Trotzdem geht die Füllrate um die Hälfte runter. Das ist in non-Shader-Spielen erheblich in 1600.

reunion
2005-07-26, 13:25:39
Naja, easy goin, Immerhin schlägt eine X800XL, die 7800GTX im HQ Setting!


Jetzt mach dich hier nicht lächerlich.

reunion
2005-07-26, 13:28:33
Was sagt eigentlich deine Quelle? Immer noch 32 pipes?


Nochmal: Es sind 16Pipelines, diese Info wurde von ATi geleaked - auch R580 wird im übrigen nicht mehr haben.

wuzetti
2005-07-26, 13:40:18
Nochmal: Es sind 16Pipelines, diese Info wurde von ATi geleaked - auch R580 wird im übrigen nicht mehr haben.

kannst du mir bitte mal weiterhelfen und mir sagen, wann/wo ATI das gesagt hat?

Coda
2005-07-26, 13:43:27
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3254077&highlight=Computex#post3254077

seahawk
2005-07-26, 13:50:16
Jetzt übertreib mal' nicht, 8xS hat "nur" einen 2xSSAA-Anteil.

Was aber auch richtig Füllrate kostet.

Der Test von 3Dchip is sowieso für den Popo.

HQ : max AA + AF in 1600x1200

also bei Radeon : 6xFSAA + 16xAF
bei GeForce : 8xSSAA + 16xAF
bei GeForce SLI : 16xSAA + 16xAF

Und im Fazit stellt er fest, dass die Radeon in HQ schneller als alle Kombination von NV ist. ;D

Wer mit solchen Tests argumentiert, dem ist nicht mehr zu helfen.

wuzetti
2005-07-26, 13:56:34
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3254077&highlight=Computex#post3254077

donkschian :)
sollte wohl etwas aufmerksamer lesen :redface:

Ailuros
2005-07-26, 14:17:07
Was aber auch richtig Füllrate kostet.

Der Test von 3Dchip is sowieso für den Popo.

HQ : max AA + AF in 1600x1200

also bei Radeon : 6xFSAA + 16xAF
bei GeForce : 8xSSAA + 16xAF
bei GeForce SLI : 16xSAA + 16xAF

Und im Fazit stellt er fest, dass die Radeon in HQ schneller als alle Kombination von NV ist. ;D

Wer mit solchen Tests argumentiert, dem ist nicht mehr zu helfen.


Fuer einen User kann ich es noch verstehen dass man die Unterschiede zwischen SSAA und MSAA uebersehen koennte oder dass man sich diesen einfach nicht bewusst ist, aber fuer einen Reviewer gibt es keine Entschuldigungen mehr.

Da es sich um HL2 handelt, waere z.B. fuer die G70 eine 4xMSAA + 4xTSAA Kombination sinnvoll gewesen und sogar noch einiges sinnvoller fuer das alpha test aliasing als sogar 16xS. Mit 4xMSAA + Transparency AA ist die G70 nicht nur spielbar in 1600*1200 (>50 fps zumindest), sondern liefert auch eine generelle Antialiasing-Qualitaet die eine Radeon bis jetzt nicht gleichen kann.

Nur kommende CrossFire Systeme werden einen Supersampling Anteil fuer "10x/14x"-AA haben, aber fuer alpha test aliasing ist es genau um die Haelfte so effektiv als 4x rotate grid Transparency-AA. Ganz davon abgesehen wenn man 16x SLi-AA auf G70@SLi mit 4x TSAA kombiniert. Dafuer muesste R520 schon einiges mehr bieten als seine Vorgaenger, sowohl bei single-GPU oder auch multi-GPU config.

http://www.nvnews.net/vbulletin/showpost.php?p=658757&postcount=28

Gast
2005-07-26, 15:27:03
Fuer einen User kann ich es noch verstehen dass man die Unterschiede zwischen SSAA und MSAA uebersehen koennte oder dass man sich diesen einfach nicht bewusst ist, aber fuer einen Reviewer gibt es keine Entschuldigungen mehr.

Da es sich um HL2 handelt, waere z.B. fuer die G70 eine 4xMSAA + 4xTSAA Kombination sinnvoll gewesen und sogar noch einiges sinnvoller fuer das alpha test aliasing als sogar 16xS. Mit 4xMSAA + Transparency AA ist die G70 nicht nur spielbar in 1600*1200 (>50 fps zumindest), sondern liefert auch eine generelle Antialiasing-Qualitaet die eine Radeon bis jetzt nicht gleichen kann.

Nur kommende CrossFire Systeme werden einen Supersampling Anteil fuer "10x/14x"-AA haben, aber fuer alpha test aliasing ist es genau um die Haelfte so effektiv als 4x rotate grid Transparency-AA. Ganz davon abgesehen wenn man 16x SLi-AA auf G70@SLi mit 4x TSAA kombiniert. Dafuer muesste R520 schon einiges mehr bieten als seine Vorgaenger, sowohl bei single-GPU oder auch multi-GPU config.

http://www.nvnews.net/vbulletin/showpost.php?p=658757&postcount=28

Naja nvnews ist nicht so meine Ding! Scheint auch nicht unabhängig zu sein, Immerhin haben Sie einen nv-Shop auf Ihrer Seite!
wäre ja so wie wenn 3DC hier einen VGA-Shop hätte*g*

ShadowXX
2005-07-26, 15:30:28
Naja nvnews ist nicht so meine Ding! Scheint auch nicht unabhängig zu sein, Immerhin haben Sie einen nv-Shop auf Ihrer Seite!
wäre ja so wie wenn 3DC hier einen VGA-Shop hätte*g*

Echte Objektivität wirst du im Netzt äusserst selten finden....eine zumindest kleinen Hang zur einen oder anderen Seite ist bei (fast) jedem Reviewer dabei (und sei es unterbewusst).

aths
2005-07-26, 16:30:40
Hm, http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench7.php
Da ist die 7800 GTX erwartungsgemäß immer vorne. AA mit Supersampling-Anteil funktioniert da offenbar nicht, aber Leonidas hätte ohnehin nicht 8xS vs. 6x MS vergleichen sollen.

Zudem gibt es auch in diesem Spiel den schon unter F.E.A.R. und Far Cry festgestellten Bug, daß Gamma-korrektes Anti-Aliasing auf der GeForce 7800 GTX (derzeit noch) erheblich an Leistung kostet. Auch in diesem Fall haben wir die originalen Benchmarks der GeForce 7800 GTX nachträglich durch solche ohne Gamma-korrektem Anti-Aliasing ersetzt, die Differenzen kann man sich im übrigen hier anschauen.

Das sagt doch alles! Letztendlich war meine Hauptkritik das der Treiber (bzw. 7800GTX) noch sehr "BETA" ist!Was sagt "alles"? Was ist denn "alles"? Dass der Treiber zum Launch noch einige Bugs beinhaltet sagt was genau aus?

Demirug
2005-07-26, 16:39:36
Was sagt "alles"? Was ist denn "alles"? Dass der Treiber zum Launch noch einige Bugs beinhaltet sagt was genau aus?

Das die Treiberabteilung zu wenig gespielt hat.

aths
2005-07-26, 16:39:41
Nein,

ATHS hat es doch bestätigt, im Bezug auf den Treiber!Da bin ich jetzt nicht mitgekommen. Was habe ich bestätigt? Das AF-Problem der GTX könnte ein Treiber-Problem sein, es könnte auch ein Hardware-Problem sein.

Interessant fand ich auch die Antworten zu HDTV in einem anderen Thread, da wird die 7800GTX :massa: angepriesen und NIEMAND scheint es zu wissen, das die 7800GTX bei H264 Encoded Videos (MPEG4) schlecht abschneidet, besonders wenn es um HD Frames (720p oder 1080p) geht. Das wird aber laut nv mit einem Treiber-Update behoben. ;)

Ich erinnere mich noch an den fehlenden WM9 Support für die 6800Ultra, ist das nach einem Jahr schon möglich? Wo ist das Treiber-Update geblieben?Meine 6600 GT hat WMV-HD-Beschleunigung, nach Monaten des Wartens – aber ich habe außer ein paar Demodateien eh keine HD-Videos. Ob die 6800 Ultra WMV-HD-Beschleunigung hat, weiß ich nicht. Es interessiert mich auch nicht :) NV hatte im Vorfeld zum NV40 den Mund bezüglich ihrerer Video-Unit sehr vollgenommen, ja. Ich erinnere mich daran, was ATI zu ihrem Smoothvision bezüglich der Radeon 8500 in ein White Paper geschrieben haben. Davon war in der Praxis dann fast nichts zu sehen. Es passiert jedem mal, dass die fertige Hardware nicht das schafft, was eigentlich geplant war. S3 hatte zum Beispiel mal mit einer kaputten T&L-Unit zu kämpfen.

Es ist auch Tradition, dass man einige Monate warten muss, ehe die Treiber volle Leistung und Features bringen. So kurz nach dem Launch lässt sich einiges finden, was noch nicht funktioniert, wie gedacht. Was Treiberbugs angeht, so hat ATI auch lange gebraucht, ehe (fast) alle Spiele vernünftig laufen. Frag mal jemanden, der direkt nach dem Launch eine 8500 oder 9700 kaufte, ob wirklich jedes Spiel fehlerfrei lief, bzw. mit der gleichen Geschwindigkeit wie mit einem Treiber-Update 6 Monate später.

Kurz gesagt: Es nervt, wenn NV erst Dinge doll ankündigt und dann entweder erst später, oder gar nicht liefert. Aber damit ist NV nicht alleine.

aths
2005-07-26, 16:45:37
Das die Treiberabteilung zu wenig gespielt hat.Im NV-Testlabor (jedenfalls in dem, das ich kenne) sind vielleicht 5 Mann beschäftigt. Die spielen wie die Teufel – aber können natürlich nicht in endlicher Zeit jedes einzelne Spiel auf Herz und Nieren testen. Auf der anderen Seite habe ich den Eindruck gewonnen, dass sie gerade die bekannten Spiele auseinandernehmen um der Treiberabteilung Tipps zu geben, wo man speziell tunen könnte. Ich vermute dahinter applikationsabhängige, vom User nicht beeinflussbare Optimierung. Synthetische Benches fahren die natürlich auch. Und natürlich benchen die nicht nur ihre eigenen Produkte, die wissen über ATIs Radeon-Karten besser bescheid als man denkt. Auch Voodoos lagen da rum. Und eine Quadro mit zwei GPUs auf dem Board. Schade jedenfalls, dass die da keine offene Stelle haben ...

Gast
2005-07-26, 16:46:15
Da bin ich jetzt nicht mitgekommen. Was habe ich bestätigt? Das AF-Problem der GTX könnte ein Treiber-Problem sein, es könnte auch ein Hardware-Problem sein.

Meine 6600 GT hat WMV-HD-Beschleunigung, nach Monaten des Wartens – aber ich habe außer ein paar Demodateien eh keine HD-Videos. Ob die 6800 Ultra WMV-HD-Beschleunigung hat, weiß ich nicht. Es interessiert mich auch nicht :) NV hatte im Vorfeld zum NV40 den Mund bezüglich ihrerer Video-Unit sehr vollgenommen, ja. Ich erinnere mich daran, was ATI zu ihrem Smoothvision bezüglich der Radeon 8500 in ein White Paper geschrieben haben. Davon war in der Praxis dann fast nichts zu sehen. Es passiert jedem mal, dass die fertige Hardware nicht das schafft, was eigentlich geplant war. S3 hatte zum Beispiel mal mit einer kaputten T&L-Unit zu kämpfen.

Es ist auch Tradition, dass man einige Monate warten muss, ehe die Treiber volle Leistung und Features bringen. So kurz nach dem Launch lässt sich einiges finden, was noch nicht funktioniert, wie gedacht. Was Treiberbugs angeht, so hat ATI auch lange gebraucht, ehe (fast) alle Spiele vernünftig laufen. Frag mal jemanden, der direkt nach dem Launch eine 8500 oder 9700 kaufte, ob wirklich jedes Spiel fehlerfrei lief, bzw. mit der gleichen Geschwindigkeit wie mit einem Treiber-Update 6 Monate später.

ATHS,
Sorry,

das ich mich jetzt mal hier einschalte!

8500 oder 9700 Themen mit 6800 Themen zu vergleichen ist sehr komisch gedacht! Die 9700 war der Anfang von DX9! Immer schön die Kirche im Dorf lassen!

Grüsse
Crossifire

Coda
2005-07-26, 16:49:01
Und die 6800 war genauso eine neue Architektur. Was ist das Problem?

SM 3.0 in den Griff zu bekommen ist sicher genauso problematisch, wenn nicht problematischer als der Sprung von SM 1.4 auf SM 2.0.

aths
2005-07-26, 16:54:11
ATHS,
Sorry,

das ich mich jetzt mal hier einschalte!Hallo Crossfire, du kannst dich einschalten wann immer du möchtest.

8500 oder 9700 Themen mit 6800 Themen zu vergleichen ist sehr komisch gedacht! Die 9700 war der Anfang von DX9! Immer schön die Kirche im Dorf lassen!Der Anfang von DX9 – was sagt das aus? Vorher hat ATI auch schon Grafikkarten produziert, und als Entwickler (wenn auch nicht von Grafikkarten) gibts ATI schon viel länger als Nvidia. Soll ich das außer Acht lassen?

Der Übergang von DX8 zu DX9 war gerade bei ATI fließender, als man denkt. Ihr Pixelshader 2.0 ist eigentlich nur ein aufgebohrter Pixelshader 1.4, nur mit längeren Programmen, mehr Texturen, einigen neuen Befehlen, und 4 statt 2 Phasen, sowie FP24- statt FX16-Rechnungen. Die Grundidee von ATIs 2.0 und 1.4 ist jedoch gleich, man erkennt in der Architektur auch schön die Verwandschaft. NV konnte ihre DX8-Pixelshader-Technik, welche wiederum eigentlich nur aufgebohrte Register Combiner sind, für DX9 nicht gebrauchen und musste was völlig neues entwickeln. (GeForce3 hat mehr Verwandschaft mit der GeForce2, als vielen bewusst ist.)

Ab wann man nun "DX8" oder "DX9" sagt, ist willkürliche Definitionssache von Microsoft. Also sehe ich keinen Grund, bei ATI nicht von Produkten sprechen zu dürfen die noch keine DX9-Feautures unterstützen. Im meinem Posting ging es nicht um das Technologie-Level, sondern um Treiberprobleme und die (Nicht-) Einhaltung von bestimmten Versprechen.

Demirug
2005-07-26, 16:58:02
Im NV-Testlabor (jedenfalls in dem, das ich kenne) sind vielleicht 5 Mann beschäftigt. Die spielen wie die Teufel – aber können natürlich nicht in endlicher Zeit jedes einzelne Spiel auf Herz und Nieren testen. Auf der anderen Seite habe ich den Eindruck gewonnen, dass sie gerade die bekannten Spiele auseinandernehmen um der Treiberabteilung Tipps zu geben, wo man speziell tunen könnte. Ich vermute dahinter applikationsabhängige, vom User nicht beeinflussbare Optimierung. Synthetische Benches fahren die natürlich auch. Und natürlich benchen die nicht nur ihre eigenen Produkte, die wissen über ATIs Radeon-Karten besser bescheid als man denkt. Auch Voodoos lagen da rum. Und eine Quadro mit zwei GPUs auf dem Board. Schade jedenfalls, dass die da keine offene Stelle haben ...

Ich hätte wohl noch ein Smile setzten sollen. Ich kenne das Testgeschäft und weiß das es fast unmöglich ist alle Bugs zu finden bevor eine Software Life geht.

Demirug
2005-07-26, 17:02:31
NV konnte ihre DX8-Pixelshader-Technik, welche wiederum eigentlich nur aufgebohrte Register Combiner sind, für DX9 nicht gebrauchen und musste was völlig neues entwickeln. (GeForce3 hat mehr Verwandschaft mit der GeForce2, als vielen bewusst ist.)

Dem wiederspreche ich mal etwas. Wenn man möchte kann man im NV30 Pixelprozessor noch klar den NV25 Pixelprozessor erkennen.

aths
2005-07-26, 17:11:20
Dem wiederspreche ich mal etwas. Wenn man möchte kann man im NV30 Pixelprozessor noch klar den NV25 Pixelprozessor erkennen.Der Shadercore ist doch "außen rumgebastelt" bzw. neu, während der DX8-Part noch größtenteils vorhanden ist.

Demirug
2005-07-26, 17:20:42
Der Shadercore ist doch "außen rumgebastelt" bzw. neu, während der DX8-Part noch größtenteils vorhanden ist.

Den "Shadercore" gab es im NV25 eigentlich auch schon. Der DX8 Pixelshader von nVidia hatte auch schon ein in grenzen programmierbares FP32 Rechenwerk für die Texturekoordinaten.

aths
2005-07-26, 17:34:41
Den "Shadercore" gab es im NV25 eigentlich auch schon. Der DX8 Pixelshader von nVidia hatte auch schon ein in grenzen programmierbares FP32 Rechenwerk für die Texturekoordinaten.Programmier- oder nur parametrisierbar (für die Berücksichtung der Offsets für EMBM-Effekte und die mögliche Matrizenmultiplikation)?

Soweit ich weiß, hat der NV30 weiterhin FX-Alus (immerhin FX12 statt FX9, ansonsten praktisch identisch mit dem NV25, also getrennt für RGB und A) und zusätzlich seine FP32-Alus (nur RGBA*.)

* Wobei Kirk, wenn ich ihn richtig verstanden habe, meinte, dass unter bestimmten Umständen auch eine getrennte Ausführung für RGB- und A-ALUs möglich wäre.

Gast
2005-07-26, 18:00:34
Nochmal: Es sind 16Pipelines, diese Info wurde von ATi geleaked - auch R580 wird im übrigen nicht mehr haben.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3254077&highlight=Computex#post3254077
Die Computex endete am 4. Juni, das ist jetzt bald zwei Monate her. Zu dem Zeitpunkt war weder klar, was die 7800 GTX zu leisten im Stande ist, noch hatte der R520 vermutlich seine endgültige Revision erreicht.
Beides wahrscheinlich Faktoren, die bei der Entscheidung welche Chip-Einheiten freigeschaltet werden, eine wichtige Rolle spielen.
Nochmal zum mitschreiben:
Viper']sry Ailuros is zwar ein netter Member, aber er weiß auch nicht alles - und offiziell ist garnichts solange nicht von den Entwicklern direkt kommt.

Ich sag nur Marketing...

(was jetzt nicht heißt, dass er keine 16 hätte - es ist nur eben nichts bestätigt.. garnichts....)
Hört endlich auf, dieses Gerücht als kategorisches Iperativ hinzustellen. Das ist zutiefst unseriös!

Demirug
2005-07-26, 18:02:04
Programmier- oder nur parametrisierbar (für die Berücksichtung der Offsets für EMBM-Effekte und die mögliche Matrizenmultiplikation)?

Ist das nicht sowieso fliesend? Die T&L Einheit der GF1 wurde auch durch ein Programm gesteuert von der API aber nur parametriert.

mapel110
2005-07-26, 18:03:49
Die Computex endete am 4. Juni, das ist jetzt bald zwei Monate her. Zu dem Zeitpunkt war weder klar, was die 7800 GTX zu leisten im Stande ist,
24 Pipes a 430 Takt war zu dem Zeitpunkt schon klar.

Den Blödsinn mit dem Freischalten sollte man mal wirklich vergessen. Entweder man baut einen Chip mit 24 Pipes oder 16 Pipes und sorgt dafür, dass er auch in Massen zu produzieren ist. Alles andere wäre nach dem letzten Jahr mehr als blamabel, für beide IHVs.

Coda
2005-07-26, 18:04:13
Die Computex endete am 4. Juni, das ist jetzt bald zwei Monate her. Zu dem Zeitpunkt war weder klar, was die 7800 GTX zu leisten im Stande ist, noch hatte der R520 vermutlich seine endgültige Revision erreicht. Vom Tapout bis zur Auslieferung vergehen mindestens 6 Monate.

Hört endlich auf, dieses Gerücht als kategorisches Iperativ hinzustellen. Das ist zutiefst unseriös!Für mich ist es schon lange kein Gerücht mehr.

Wie immer wird die Zeit zeigen wer recht hatte ;)

Gast
2005-07-26, 18:19:56
Hrm? 16 Pipes á 1 Shader-ALU schlagen 24 Pipes á 2 Shader-ALUs? Trotz des Taktvorteils von der Radeon: Schlecht möglich, oder? Vergleicht man gleiche Bildqualität, und nicht Supersampling vs. Multisampling, zeigt sich natürlich dass die 7800 GTX auch eine X800 XT PE abhängt.


16 Pipes á 1 Shader-ALU klingen doch etwas wenig. Das würde bedeuten, ATI hätte die Anzahl der Pipes bzw. ALUs nicht erweitert. Bisher wurden in jeder neuen Generation (R1->R2->R3->R4) mehr Pipes in Silizium gepresst. Warum sollte dies beim R520 anders sein - es muss ja nicht gleich eine Verdopplung sein. Die einzigen Indizien dafür sind der hohe Takt und die Aussage von einem ATI-Ingenieur, welche man zumindest ein wenig anzweifeln kann. Man kann nicht wissen inwieweit ATI Gerüchte gestreut hat und inwieweit die Ingenieure daran involviert sind/waren.

Im Vergleich zum G70 sehen die Specs einfach zu schlecht aus.:
16 Pipes á 1 Shader-ALU (700 Mhz) gegen
24 Pipes á 2 Shader-ALUs (430 Mhz mit gutem Steigerungspotenzial und Option auf 90 nm mit weiterem Steigerungspotenzial)

Irgendwie passt da etwas nicht. Vor allem unter der Berücksichtigung, dass doch einiges mehr an den Pipes des R520 getan werden musst, um SM3.0 zu erreichen, als beim R300->R420.

aths
2005-07-26, 18:22:52
Ist das nicht sowieso fliesend? Die T&L Einheit der GF1 wurde auch durch ein Programm gesteuert von der API aber nur parametriert.Eine vernünftige T&L-Unit sollte eh programmierbar sein – nur brauchts natürlich auch den API-Support.

24 Pipes a 430 Takt war zu dem Zeitpunkt schon klar.

Den Blödsinn mit dem Freischalten sollte man mal wirklich vergessen. Entweder man baut einen Chip mit 24 Pipes oder 16 Pipes und sorgt dafür, dass er auch in Massen zu produzieren ist. Alles andere wäre nach dem letzten Jahr mehr als blamabel, für beide IHVs.Die Frage, warum G70 gleich 302 M groß ist, wo NV40 nur 222 M in die Waagschale wirft, ist dennoch interessant. Haben die Änderungen an den Pipes mehr Transistoren gekostet, als gedacht? Wurden viele neue Transistoren notwendig, um den Chip überhaupt realisieren zu können?

Winter[Raven]
2005-07-26, 18:26:37
@ Gast

Wenn ATI die annährende Effizienz eines G70 auf die Wage bringen kann, dann sehe ich kein Problem wieso man es nicht mit 16pipes @ 700 mhz versuchen sollte.

Schließlich zählt was rauskommt und nicht wie es dazu kommt* :)

// EDIT:

* Für Technikfreaks ist es natürlich interessant :biggrin:, aber nicht für den Kunden.

Gast
2005-07-26, 18:29:10
Dann bleibt aber immernoch das Missverhältnis bei den ALUs.

aths
2005-07-26, 18:47:14
16 Pipes á 1 Shader-ALU klingen doch etwas wenig. Das würde bedeuten, ATI hätte die Anzahl der Pipes bzw. ALUs nicht erweitert.Ich meinte hier den R420. Beim R520 erwarte ich eine erhebliche Steigerung der ALU-Leistung.

Dann bleibt aber immernoch das Missverhältnis bei den ALUs.Wenn ATI mit 16 Pipes ankommen sollte, werden diese auf ingesamt 32 MAD-ALUs zugreifen können. Mindestens. Das halte ich für praktisch sicher, denn ein 1:1-Verhältnis ergibt keinen Sinn mehr. Bei einem 1:2 TMU-ALU-Verhältnis müssen sie dann über den Takt skalieren. 630 MHz könnten ausreichen, on par mit der G70-Leistung zu sein.

Es könnte auch sein, dass der R520 besonders "gute" ALUs bekommt, die bestimmte Operationen im gleichen Takt "kostenlos" mit ausführen können. (Beim NV40 kann die Tex-Unit zum Beispiel einige wenige Rechnungen übernehmen, die man ansonsten über die ALU machen müsste.) Es könnte auch sein, dass der R520 nur recht einfache ALUs eingebaut bekommt, davon aber entsprechend viele.

Mir kommts nicht darauf an, dass G70-Geschwindigkeit überboten wird. Ich will G70-Texturqualität (und R420-Texturqualität) überboten sehen, und zwar deutlich. Dann darf der R520 auch gerne ein gutes Stück langsamer sein.

mapel110
2005-07-26, 18:50:18
Mir kommts nicht darauf an, dass G70-Geschwindigkeit überboten wird. Ich will G70-Texturqualität (und R420-Texturqualität) überboten sehen, und zwar deutlich. Dann darf der R520 auch gerne ein gutes Stück langsamer sein.
Wenn man etwas mit Sicherheit sagen kann, dann das das nicht eintreffen wird. Aber man wird noch träumen dürfen. :)

Demirug
2005-07-26, 18:52:53
Bei der ganzen Leistungsbetrachtung darf man nicht nur die Peekleistung betrachten sondern muss auch auf die Pipelineblockierungen rücksicht nehmen.

Gast
2005-07-26, 18:53:20
die frage, an der sich für mich das meiste entscheidet ist: wie wurde sm3 realisiert?

davon hängt eigentlich so gut wie jede weitere spekulation ab. wurde sm3 dem r300-kern nur angeflanscht, dürfen wir uns imo auch sonst auf wenig innovation ausser hohem takt und 0,09µ freuen.
wurde die gelegenheit genutzt, um ein in großen teilen neues design auf den markt zu bringen, könnte man die gelegenheit ergriffen haben, auch ansonsten dinge grundlegend zu verbessern.

ersteres halte ich jedoch für wahrscheinlicher, da kaum eine eintagsfliege an technologie geschaffen werden sollte für die zwischenzeit zu echtem wgf2.0 - und daran glaube ich beim r520 noch nicht.

seahawk
2005-07-26, 18:54:29
Ich meinte hier den R420.

Wenn ATI mit 16 Pipes ankommen sollte, werden diese auf ingesamt 32 MAD-ALUs zugreifen können. Mindestens. Das halte ich für praktisch sicher, denn ein 1:1-Verhältnis ergibt einfach keinen Sinn mehr. Bei einem 1:2 TMU-ALU-Verhältnis müssen sie dann über den Takt skalieren. 630 MHz könnten ausreichen, on par mit der G70-Leistung zu sein.



Ich hoffe es, dass sie zwei ALUs haben werden. Allerdings ist es imho denkbar, dass dies dem R580 vorbehalten ist. Heutige Spiele profitieren doch stark von der Füllrate und die hohe Taktung verspricht doch noch eine Steigerung der Shaderleistung gegenüber der R480.

Gast
2005-07-26, 18:54:53
Bei der ganzen Leistungsbetrachtung darf man nicht nur die Peekleistung betrachten sondern muss auch auf die Pipelineblockierungen rücksicht nehmen.
auch das fällt bsw. in meine grundbetrachtung - was wenn ati nun ebenfalls nicht drumherum gekommen ist, ihre pipes etwas weiter in dieselbe richtung und damit dieselbe problemzone wie nv auszurichten?

aths
2005-07-26, 18:56:19
die frage, an der sich für mich das meiste entscheidet ist: wie wurde sm3 realisiert?Für mich entscheidet sich bei SM3 gar nichts. Für mich entscheidet die Frage: Wie sehen die Texturen aus, wenn ich 16x AF aktiviert habe? Ich hoffe, dass auch andere Leute da noch umdenken.

aths
2005-07-26, 18:58:28
Ich hoffe es, dass sie zwei ALUs haben werden. Allerdings ist es imho denkbar, dass dies dem R580 vorbehalten ist. Heutige Spiele profitieren doch stark von der Füllrate und die hohe Taktung verspricht doch noch eine Steigerung der Shaderleistung gegenüber der R480.Der R520 ist nicht für heutige Spiele entworfen worden. Zurzeit werden echte Engines mit echtem HDR-Rendering entwickelt. Die kommen hoffentlich in 1, 2 Jahren (im Zusammenhang mit guten Spielen) auf den Markt und damit zum User. Mit oder ohne HDR – man wird mehr und mehr Effekte berechnen wollen, anstatt sie primär über Textursamplings zu realisieren. Berechnete Effekte sind oft genauer, und man ist flexibler. Das weiß ATI alles.

Winter[Raven]
2005-07-26, 19:00:41
Sollte ATI (was wohl nicht eintreffen wird) eine bessere AF Qualität zum R4xx Reihe vorweisen können, werden wir bei Nvidia einen Schalter mehr für Optimierungen sehn...

@ aths

Leider sehn das Käufer anders, da guckt man auf die Balkenlänge und nicht AF Qualität :( Du pochst etwas zu sehr auf der Filterung rum, bringen tut es leider nichts. Einer der beiden muss wieder den ersten Schritt machen, ATI wird meiner Meinung es aber nicht sein.

aths
2005-07-26, 19:01:19
auch das fällt bsw. in meine grundbetrachtung - was wenn ati nun ebenfalls nicht drumherum gekommen ist, ihre pipes etwas weiter in dieselbe richtung und damit dieselbe problemzone wie nv auszurichten?"Etwas weiter" kann alles oder nichts heißen. ATI hatte viel Zeit für die Entwicklung, sie werden wohl darauf geachtet haben, dass man Pixelshader-Code effizient ausführen kann, und dabei TMUs und ALUs auch möglichst gleichzeitig (natürlich an jeweils anderen Quads) arbeiten lässt. Alles andere würde mich sehr erstaunen. Ich kann mir gut vorstellen, dass ATI vielleicht weniger arithmetische Spitzenrechenkraft anbieten wird, in (arithmetiklastigen) Spielen aber trotzden schneller sein kann. Je mehr ich darüber nachdenke, umso mehr halte ich die nur 4 Temps beim NV40 und G70 für einen Flaschenhals.

Gast
2005-07-26, 19:02:15
das dürfte er in der tat sein, allerdings: sind es nicht etwas mehr geworden?

Gast
2005-07-26, 19:03:18
Für mich entscheidet sich bei SM3 gar nichts. Für mich entscheidet die Frage: Wie sehen die Texturen aus, wenn ich 16x AF aktiviert habe? Ich hoffe, dass auch andere Leute da noch umdenken.
das habe ich nicht gemeint. wenn du gute texturen willst, kauf dir eine gf4 ti.

aths
2005-07-26, 19:03:30
']Sollte ATI (was wohl nicht eintreffen wird) eine bessere AF Qualität zum R4xx Reihe vorweisen können, werden wir bei Nvidia einen Schalter mehr für Optimierungen sehn...

@ aths

Leider sehn das Käufer anders, da guckt man auf die Balkenlänge und nicht AF Qualität :( Du pochst etwas zu sehr auf der Filterung rum, bringen tut es leider nichts. Einer der beiden muss wieder den ersten Schritt machen, ATI wird meiner Meinung es aber nicht sein.Die Hoffnung stirbt zuletzt. Wenn ATI vorlegt, und NV nur nachziehen kann, fällt ATI ja trotzdem der Dank dafür zu. Wenn NV nicht nachziehen kann, weil es ihre HW nicht hergibt, umso besser für ATI.

Winter[Raven]
2005-07-26, 19:06:43
@ ATHs

ich schätze der R520 wird schneller in Versenkung geraten was kommende Shader-Games angeht, als vielen lieb ist. Dafür ist der R580 ehe am richtigem Platz... :)

Gast
2005-07-26, 19:26:12
']@ ATHs

ich schätze der R520 wird schneller in Versenkung geraten was kommende Shader-Games angeht,
Interessant, kannst du das mal ein wenig erklären? :)

deekey777
2005-07-26, 19:39:59
Interessant, kannst du das mal ein wenig erklären? :)

Er meinte eher "einen Schiffsbruch erleiden". Es wäre möglich, daß der R520 in Sachen absolute Shaderpower unterlegen sein, aber es wird wohl nicht so sein, daß man den R520 gleich abschreiben soll.

Gast
2005-07-26, 19:48:57
Die Frage, warum G70 gleich 302 M groß ist, wo NV40 nur 222 M in die Waagschale wirft, ist dennoch interessant. Haben die Änderungen an den Pipes mehr Transistoren gekostet, als gedacht? Wurden viele neue Transistoren notwendig, um den Chip überhaupt realisieren zu können?

wenn man NV43 und NV40 vergleicht fällt auf dass für 2 quads und 3 vertexshader ~60Mio. transitoren eingespart werden.

der G70 verbraucht für 2 quads und 2VS mehr ~80Mio. transitoren mehr.

wenn wir einen VS mit ~10Mio. schätzen sind es also rund 30Mio. zu viel, was erstmals eine ganze menge erscheint.

wenn man das ganze aber genauer betrachtet fällt auf dass das "nur" ~10% des ganzen chips sind, was sich imo doch ganz gut mit einigen fixes, neuen logikschaltungen für die ADD-units, evtl. interne busverbreitungen für HDR, gefixter VP etc. erklären kann. ein wenig logik geht sicher noch fürs TAA auf. alles für sich sicher kleinigkeiten, die sich aber auch summieren, und vor allem großteils pro quad hinzugefügt werden müssen, was dem ganzen die menge der zusätzlich benötigten transistoren immerhin mit 6 multipliziert ;)

seahawk
2005-07-26, 20:01:25
Der R520 ist nicht für heutige Spiele entworfen worden. Zurzeit werden echte Engines mit echtem HDR-Rendering entwickelt. Die kommen hoffentlich in 1, 2 Jahren (im Zusammenhang mit guten Spielen) auf den Markt und damit zum User. Mit oder ohne HDR – man wird mehr und mehr Effekte berechnen wollen, anstatt sie primär über Textursamplings zu realisieren. Berechnete Effekte sind oft genauer, und man ist flexibler. Das weiß ATI alles.

Genau. Wenn man aber dabon ausgeht, dasss ATI den R5XX nur als Übergangsgeneration bis zur echten WGF2.0 Hardware ist es denkbar, dass sie jetzt mehr auf Fillrate gehen und erst mit der neune Generation, die passend zu den neune Engines verfügbar ist die Shaderleistung erhöht. So könnte man z.B. auch eine wünschenswerte Differenz zwischen R520 und R580 erzeugen. Besonders wenn R580 im Frühjahr aufschlagen sollte.

aths
2005-07-26, 20:13:35
Genau. Wenn man aber dabon ausgeht, dasss ATI den R5XX nur als Übergangsgeneration bis zur echten WGF2.0 Hardware ist es denkbar, dass sie jetzt mehr auf Fillrate gehen und erst mit der neune Generation, die passend zu den neune Engines verfügbar ist die Shaderleistung erhöht. So könnte man z.B. auch eine wünschenswerte Differenz zwischen R520 und R580 erzeugen. Besonders wenn R580 im Frühjahr aufschlagen sollte.Anstatt eine Differnz zum R580 zu erzeugen sollte ATI mehr daran gelegen sein, die Lücke zu NV zu schließen.

reunion
2005-07-26, 20:48:15
"Etwas weiter" kann alles oder nichts heißen. ATI hatte viel Zeit für die Entwicklung, sie werden wohl darauf geachtet haben, dass man Pixelshader-Code effizient ausführen kann, und dabei TMUs und ALUs auch möglichst gleichzeitig (natürlich an jeweils anderen Quads) arbeiten lässt. Alles andere würde mich sehr erstaunen.


Die R520 Entwicklung wurde zu einer Zeit begonnen, als ATi mit der R3xx-Serie in punkto Shaderleistung unangefochten vorne lag. Als NV40 kam, war R520 IMHO schon zu weit fortgeschritten.

Ich würde nicht zu viel erwarten. Speziell nach dem, was man von AiL so hört...

VoodooJack
2005-07-26, 20:48:46
Wurde das hier schon gepostet?

http://forums.overclockers.co.uk/showthread.php?t=17446022&page=3&pp=66

Danach würde sich folgendes Bild ergeben:

R520 XTPE
- Ende September
- schwer erhältlich
- 512 MB
- 24 pipes
- 520 Mhz Core
- 700 Mhz Memory (1.4)
- 9000 3DMarks in 05 (na, das wäre ein Steigerung von 50 % gegenüber der X850 XTPE, irgendwie logisch bei einer Erweiterung der Pipes von 16 auf 24))

R520 XT
- Ende September
- gut erhältlich
- 512 MB
- 24 pipes
- 500 Mhz Core
- 650 Mhz Memory (1.3)
- angeblich so schnell wie die 7800 GTX

R520 Pro
- 16 pipes

R580
- Januar/Februar 2006

Gast
2005-07-26, 20:54:08
Wann kommt diese verdammte Scheißkarte nochmal? Ich warte schon die ganze Zeit drauf :mad:

Gast
2005-07-26, 20:56:47
Wurde das hier schon gepostet?

http://forums.overclockers.co.uk/showthread.php?t=17446022&page=3&pp=66

Danach würde sich folgendes Bild ergeben:

R520 XTPE
- Ende September
- schwer erhältlich
- 512 MB
- 24 pipes
- 520 Mhz Core
- 700 Mhz Memory (1.4)
- 9000 3DMarks in 05 (na, das wäre ein Steigerung von 50 % gegenüber der X850 XTPE, irgendwie logisch bei einer Erweiterung der Pipes von 16 auf 24))

R520 XT
- Ende September
- gut erhältlich
- 512 MB
- 24 pipes
- 500 Mhz Core
- 650 Mhz Memory (1.3)
- angeblich so schnell wie die 7800 GTX

R520 Pro
- 16 pipes

R580
- Januar/Februar 2006

könnte gut sein,fehlen nur noch benchmarks

VoodooJack
2005-07-26, 20:57:25
Wann kommt diese verdammte Scheißkarte nochmal? Ich warte schon die ganze Zeit drauf :mad:

Ich auch.

Wenn das stimmt, dann die XT Ende September.

Gast
2005-07-26, 20:59:58
obwohl das mit den 512 mb wird wohl kein standard sein,das wird der hersteller dann entscheiden

reunion
2005-07-26, 21:16:05
Die Computex endete am 4. Juni, das ist jetzt bald zwei Monate her. Zu dem Zeitpunkt war weder klar, was die 7800 GTX zu leisten im Stande ist, noch hatte der R520 vermutlich seine endgültige Revision erreicht.
Beides wahrscheinlich Faktoren, die bei der Entscheidung welche Chip-Einheiten freigeschaltet werden, eine wichtige Rolle spielen.
Nochmal zum mitschreiben:

Hört endlich auf, dieses Gerücht als kategorisches Iperativ hinzustellen. Das ist zutiefst unseriös!

Du wirst es noch früh genug einsehen (müssen).

reunion
2005-07-26, 21:16:57
Wurde das hier schon gepostet?

http://forums.overclockers.co.uk/showthread.php?t=17446022&page=3&pp=66

Danach würde sich folgendes Bild ergeben:

R520 XTPE
- Ende September
- schwer erhältlich
- 512 MB
- 24 pipes
- 520 Mhz Core
- 700 Mhz Memory (1.4)
- 9000 3DMarks in 05 (na, das wäre ein Steigerung von 50 % gegenüber der X850 XTPE, irgendwie logisch bei einer Erweiterung der Pipes von 16 auf 24))

R520 XT
- Ende September
- gut erhältlich
- 512 MB
- 24 pipes
- 500 Mhz Core
- 650 Mhz Memory (1.3)
- angeblich so schnell wie die 7800 GTX

R520 Pro
- 16 pipes

R580
- Januar/Februar 2006


Ist das nicht der, welcher behauptet hat, eine G70-SLi-System würde 22K im 3dmark05 erreichen? :rolleyes:

VoodooJack
2005-07-26, 21:22:59
Ist das nicht der, welcher behauptet hat, eine G70-SLi-System würde 22K im 3dmark05 erreichen? :rolleyes:

Sehr gut möglich. Er macht ja auch in seinem Post zur R520 ausgiebig Werbung für die 7800 GTX, um die Verkaufszahlen bei OCuk anzukurbeln.

seahawk
2005-07-26, 21:42:03
Anstatt eine Differnz zum R580 zu erzeugen sollte ATI mehr daran gelegen sein, die Lücke zu NV zu schließen.

Was aber evtl. nur bedingt zu machen war. Gehen wir von den ATI Problemen mit dem 0,11nm Prozess aus (X700XT ging gar nicht, X800XL hat auch nur wenig Spielraum beim OC) dann könnten sie überrascht worde nsein, das NV eine solcher Transistorenmonster wie den G70 bei der Taktrate auf die Beine stellen konnte.

ISt zumindest eine Spekualtion.

Gast
2005-07-27, 09:29:53
Was aber evtl. nur bedingt zu machen war. Gehen wir von den ATI Problemen mit dem 0,11nm Prozess aus (X700XT ging gar nicht, X800XL hat auch nur wenig Spielraum beim OC) dann könnten sie überrascht worde nsein, das NV eine solcher Transistorenmonster wie den G70 bei der Taktrate auf die Beine stellen konnte.

ISt zumindest eine Spekualtion.

Kann man so nicht sagen. ATI müsste am besten wissen, was möglich ist, siehe 9700. Imho ist das Design fast wichtiger als der Prozess selber.

Ri*g*g*er
2005-07-27, 09:58:42
Hi all,

Also meine Spekulation :

Die haben im Moment keine Zeit such um PC Grafiksachen zu kümmern, sondern müssen unmengen von XBox 2 Chips herstellen bzw. produzieren oder wie auch immer.

Denn der Weltweite Launch soll ja im November sein und davon werden Massen verkauft bzw. gebraucht.

Nicht nur ein paar Highend Chips.

Mfg
Ri*g*g*er

seahawk
2005-07-27, 10:02:16
Kann man so nicht sagen. ATI müsste am besten wissen, was möglich ist, siehe 9700. Imho ist das Design fast wichtiger als der Prozess selber.

Genau siehe 9700, da glaubte NV eben auch nicht, dass ATI einen R300 in dem alten Prozess machen konnte.

Und ATI Produkte in 0,11nm waren bisher eher weniger überzeugend, im Vergleich zu NV Produkten. Ich vermute mal das NV das Design für diesen Prozess besser im Griff hat.

ShadowXX
2005-07-27, 10:57:38
Hi all,

Also meine Spekulation :

Die haben im Moment keine Zeit such um PC Grafiksachen zu kümmern, sondern müssen unmengen von XBox 2 Chips herstellen bzw. produzieren oder wie auch immer.

Denn der Weltweite Launch soll ja im November sein und davon werden Massen verkauft bzw. gebraucht.

Nicht nur ein paar Highend Chips.

Mfg
Ri*g*g*er

Die XBox360 GPUs werden von MS in Eigenregie produziert....ATI hat damit eher wenig zu tun.

(Davon abgesehen, das ATI sowieso selbst keine GPUs herstellt, sondern diese herstellen lässt.)

Gast
2005-07-27, 11:13:16
Die XBox380 GPU werden von MS in Eigenregie produziert....ATI hat damit eher wenig zu tun.

(Davon abgesehen, das ATI sowieso selbst keine GPUs herstellt, sondern diese herstellen lässt.)

RICHTIG!
Grüsse
Crossfire

Gast
2005-07-27, 11:58:58
Genau siehe 9700, da glaubte NV eben auch nicht, dass ATI einen R300 in dem alten Prozess machen konnte.

Und ATI Produkte in 0,11nm waren bisher eher weniger überzeugend, im Vergleich zu NV Produkten. Ich vermute mal das NV das Design für diesen Prozess besser im Griff hat.

Woher kommt diese Vermutung?
Ist mir völlig NEU!
Grüsse
Crossfire

seahawk
2005-07-27, 12:33:42
z.B daher, dass die X700XT nie mit dem Takt der 6600GT lief, obwohl sie weniger Transistoren hat. Oder, dass die X800XL kaum den Takt der 7800GTX schafft, bei der Hälfte an Transistoren.

Tomcat70
2005-07-27, 12:40:18
z.B daher, dass die X700XT nie mit dem Takt der 6600GT lief, obwohl sie weniger Transistoren hat. Oder, dass die X800XL kaum den Takt der 7800GTX schafft, bei der Hälfte an Transistoren.

so ein banalisiertes pauschalvergleichen zeugt nicht gerade von objektivität/sachlichkeit.

den zeitpunkt des produktionstarts der x800xl als auch die taktzielsetzung kann man kaum mit dem 7800gtx vergleichen.

ich denke nicht das ATI zum jetzigen zeitpunkt nur irgendein problem hätte einen schnellen chip mit 110nm zu bauen (was sie wohl auch tun werden mit cadence x-technologie in form der RV5xx chips)........du stellst das aber als tatsache hin, das ist einfach nur totaler unfug und geht eher richtung bashing.

Black-Scorpion
2005-07-27, 12:45:54
z.B daher, dass die X700XT nie mit dem Takt der 6600GT lief, obwohl sie weniger Transistoren hat. Oder, dass die X800XL kaum den Takt der 7800GTX schafft, bei der Hälfte an Transistoren.
Schonmal daran gedacht das die XL garnicht so hoch getaktet werden sollte.
Sonnst rückt sie der XT zu nah auf die Pelle.
Es wäre zwar für uns gut, aber ATI wollte bestimmt keine 2. 9500pro auf den Markt bringen.

'edit'
Aber es ist schön wenn man solche Milchmädchen Vergleiche bringen kann.

Coda
2005-07-27, 12:55:04
Schonmal daran gedacht das die XL garnicht so hoch getaktet werden sollte.
Sonnst rückt sie der XT zu nah auf die Pelle.ATi verdient an einer XL sicher mehr als an einer XT :rolleyes:

seahawk
2005-07-27, 13:13:26
so ein banalisiertes pauschalvergleichen zeugt nicht gerade von objektivität/sachlichkeit.

den zeitpunkt des produktionstarts der x800xl als auch die taktzielsetzung kann man kaum mit dem 7800gtx vergleichen.

ich denke nicht das ATI zum jetzigen zeitpunkt nur irgendein problem hätte einen schnellen chip mit 110nm zu bauen (was sie wohl auch tun werden mit cadence x-technologie in form der RV5xx chips)........du stellst das aber als tatsache hin, das ist einfach nur totaler unfug und geht eher richtung bashing.

Ich halte das für eine Vermutung. Aber bis jetzt sehe ich nur, dass NV aus dem 0,11nm Prozess in der jetzigen Form mehr rausgeholt hat. Das hat nichts mit Bashing zu tun.

Das sagt natürlich nicht, dass ATI da nachziehen könnte. Imho hat man aber die Möglichkeiten des 0,11nm Prozesses zu niedrig eingeschätzt. Deswegen auch der Schritt zu 0,09 direkt im Highendbereich.

seahawk
2005-07-27, 13:14:37
Schonmal daran gedacht das die XL garnicht so hoch getaktet werden sollte.
Sonnst rückt sie der XT zu nah auf die Pelle.
Es wäre zwar für uns gut, aber ATI wollte bestimmt keine 2. 9500pro auf den Markt bringen.

'edit'
Aber es ist schön wenn man solche Milchmädchen Vergleiche bringen kann.

Gegenfrage. Wenn man geglaubt hätte, dass man mit dem Chip der X800XL die Taktraten der XT Modelle erreichen kann, warum hat man es dann nicht gemacht ?

Gast
2005-07-27, 13:29:39
Gegenfrage. Wenn man geglaubt hätte, dass man mit dem Chip der X800XL die Taktraten der XT Modelle erreichen kann, warum hat man es dann nicht gemacht ?

Hallo,

du kannst die X800XT nicht mit einer X800XL vergleichen!
1. X800XT 130nm
2. X800XL 110nm
3. Die XL wurde als Preis/Leistung 16-Pipe PCI Express entwickelt, daher auch das REFRESH auf 110nm. Ziel war NIE 500MHz Core.
Grüsse
CF

Coda
2005-07-27, 13:39:23
Wie auch immer, bleibt immer noch die X700XT die die Taktraten einfach nicht erreicht hat.

Tomcat70
2005-07-27, 14:05:42
Wie auch immer, bleibt immer noch die X700XT die die Taktraten einfach nicht erreicht hat.

zweck der aussage?

rückschlüsse auf den r520? sinnfrei....

du weisst aus welchen gründen der x700xt tatsächlich nicht auf den markt kam? denke nicht....vermuten kann man manches

ausserdem hat er durchaus den takt erreicht, du meintest wohl eher das er nie am markt angeboten wurde aus welchen grund auch immer (möglicherweise schlechte ausbeute?)

wie auch immer, deswegen irgendwelchen sinnfreien behauptungen bezüglich atis design- und/oder anderwertiger gpu-fertigungs-kompetenz aufzustellen ist genauso spekulativ wie der ganze thread hier, aber sicher kein beleg für irgendwelchen tatsachen bezüglich r520-fertigung.

Gast
2005-07-27, 14:47:52
zweck der aussage?

rückschlüsse auf den r520? sinnfrei....

du weisst aus welchen gründen der x700xt tatsächlich nicht auf den markt kam? denke nicht....vermuten kann man manches

ausserdem hat er durchaus den takt erreicht, du meintest wohl eher das er nie am markt angeboten wurde aus welchen grund auch immer (möglicherweise schlechte ausbeute?)

wie auch immer, deswegen irgendwelchen sinnfreien behauptungen bezüglich atis design- und/oder anderwertiger gpu-fertigungs-kompetenz aufzustellen ist genauso spekulativ wie der ganze thread hier, aber sicher kein beleg für irgendwelchen tatsachen bezüglich r520-fertigung.
RICHTIG!
Grüsse
Crossfire

Ailuros
2005-07-27, 14:55:29
Wurde das hier schon gepostet?

http://forums.overclockers.co.uk/showthread.php?t=17446022&page=3&pp=66

Danach würde sich folgendes Bild ergeben:

R520 XTPE
- Ende September
- schwer erhältlich
- 512 MB
- 24 pipes
- 520 Mhz Core
- 700 Mhz Memory (1.4)
- 9000 3DMarks in 05 (na, das wäre ein Steigerung von 50 % gegenüber der X850 XTPE, irgendwie logisch bei einer Erweiterung der Pipes von 16 auf 24))

R520 XT
- Ende September
- gut erhältlich
- 512 MB
- 24 pipes
- 500 Mhz Core
- 650 Mhz Memory (1.3)
- angeblich so schnell wie die 7800 GTX

R520 Pro
- 16 pipes

R580
- Januar/Februar 2006


Wavey sagte bei B3D dass er weiss in welchen Abfalleimer das Zeug gehoert; ich stell meinen Abfalleimer noch dazu.

Ailuros
2005-07-27, 15:09:54
zweck der aussage?

rückschlüsse auf den r520? sinnfrei....

du weisst aus welchen gründen der x700xt tatsächlich nicht auf den markt kam? denke nicht....vermuten kann man manches

ausserdem hat er durchaus den takt erreicht, du meintest wohl eher das er nie am markt angeboten wurde aus welchen grund auch immer (möglicherweise schlechte ausbeute?)

wie auch immer, deswegen irgendwelchen sinnfreien behauptungen bezüglich atis design- und/oder anderwertiger gpu-fertigungs-kompetenz aufzustellen ist genauso spekulativ wie der ganze thread hier, aber sicher kein beleg für irgendwelchen tatsachen bezüglich r520-fertigung.


R520 weisste zuerst Probleme mit dem neuen memory controller auf und dafuer kam der erste respin. Die ~570MHz Prototypen die im Maerz die ISVs bekamen stammen von diesem "batch". Dann kam erst der zweite respin um die von Anfang an angepeilte Taktrate erreichen zu koennen.

Das Ganze hat natuerlich nichts mit der Taktrate der oben erwaehnten Prototypen zu tun. Diese sind nicht immer auf volle Kapazitaet getaktet, da es sich um "pre-production boards" handelt.

Probleme die geplante Taktrate zu erreichen gibt es eigentlich nicht, das sagt aber wiederrum nichts was die yields oder Verfuegbarkeit betrifft aus. ATI hat aber fuer ihre Q4 2005 forecasts diese Verfuegbarkeit mit Absicht nicht mitberechnet, weil sie genau wissen wie hoch oder niedrig diese sein wird.

Dieses und dass R580 so verdammt nahe an der R520 Veroeffentlichung liegen wird, sagt mir persoenlich genug aus ueber die Verfuegbarkeit der ersten boards und natuerlich auch die Notwendigkeit gegen NVIDIA's geplanten Gxx@90nm refresh so schnell wie moeglich zu reagieren.

So gesehen machen auch jegliche R520/NV30 Vergleiche Sinn; es dauerte nur wenige Monate bis NVIDIA damals NV35 nachgeladen hat und das Ganze jetzt bitte nicht mit der arithmetischen Schwaeche vom NV30 parallelisieren.

***edit: was die X700-Linie uebrigens betrifft, wurde diese quasi redundant sobald man X800/128MB@110nm mit etwa 200 euros verkaufen konnte. Um ganz ehrlich zu sein koennen die letzteren den NV43 unter Umstaenden ziemlich in den Schatten stellen; bleibt nur noch uebrig was man genau als mainstream oder high end definieren will. Mit dem Preis aber sehe ich es persoenlich als mainstream an.

seahawk
2005-07-27, 15:10:39
zweck der aussage?

rückschlüsse auf den r520? sinnfrei....

du weisst aus welchen gründen der x700xt tatsächlich nicht auf den markt kam? denke nicht....vermuten kann man manches

ausserdem hat er durchaus den takt erreicht, du meintest wohl eher das er nie am markt angeboten wurde aus welchen grund auch immer (möglicherweise schlechte ausbeute?)

wie auch immer, deswegen irgendwelchen sinnfreien behauptungen bezüglich atis design- und/oder anderwertiger gpu-fertigungs-kompetenz aufzustellen ist genauso spekulativ wie der ganze thread hier, aber sicher kein beleg für irgendwelchen tatsachen bezüglich r520-fertigung.

Also für mich sieht das anders aus. Es gibt natürlich keine Rückschlüsse auf den R520 (verändertes Design, neuer Fertigungsprozess), aber es erklärt imho Entscheidungen der IHVs. Und da sind die unterscheidlichen Erfolge im jetzt genutzten 0,11nm Prozess durchaus eine Erklärung, wenn man bedenkt, dass ATI offensichtlich mehr Schwierigkeiten hatte wirtschaftlich hohc taktende Chips in diesem prozess zu fertigen als NV. Da beide bei TSMC fertigen, vermute ich eher ein Problem in den Designwerkzeugen / Designs als in der Fertigung.

@ Ailuros

Natürlich, so etwas jetzt noch zu schreiben ist lächerlich.

deekey777
2005-07-27, 15:32:27
Wie auch immer, bleibt immer noch die X700XT die die Taktraten einfach nicht erreicht hat.

Es hieß, es ginge auch um den Speicher, da die XT Spezifikationen den teueren 1,6 ns verlangt haben sollen. Und was ist besser/günstiger: X800 mit deren 256bit SI und niedriger getaktetem Speicher oder X700XT mit 128bit...

Wann kommt diese verdammte Scheißkarte nochmal? Ich warte schon die ganze Zeit drauf :mad:
Ist sie nicht seit gestern draußen? ;(

Winter[Raven]
2005-07-27, 15:49:29
@ Tomcat

Interessant wie doch das Fähnchen weht ...

@ seahawk

Jep, warst jetzt etwas schneller ^^, zurecht vergleichst du NV vs ATI @ TSMC, anders kann man sich die Unterschiede auch nicht erklären.

ShadowXX
2005-07-27, 15:53:24
Ist sie nicht seit gestern draußen? ;(

Der war jetzt gemein...

Aber mal ernsthaft. Weiss einer inzwischen was neues über einen möglichen Vorstellungstermin (ich wüsste jemanden, der sich nach längerer Zeit mal wieder gemeldet hat und es bestimmt ziemlich genau weiss, es aber wohl kaum sagen darf....)?

reunion
2005-07-27, 16:01:57
Ich halte das für eine Vermutung. Aber bis jetzt sehe ich nur, dass NV aus dem 0,11nm Prozess in der jetzigen Form mehr rausgeholt hat. Das hat nichts mit Bashing zu tun.

Das sagt natürlich nicht, dass ATI da nachziehen könnte. Imho hat man aber die Möglichkeiten des 0,11nm Prozesses zu niedrig eingeschätzt. Deswegen auch der Schritt zu 0,09 direkt im Highendbereich.



Dass nV in den 110nm Prozess vermutlich mehr Ressourcen investiert hat, und deshalb auch entsprechend bessere Ergebnisse erhalten hat(te), ist wohl unbestritten. Zu glauben, ATi hätte nicht gewusst, was mit diesem Prozess möglich war/ist, zeugt in meinen Augen allerdings von ziemlicher Naivität.

Winter[Raven]
2005-07-27, 16:09:37
Nun dann sollte man aber auch annehmen ATI hätte auch soviel Ressorcen investiert, den schließlich macht der Low-Midrage den größten Umsatz...

Wenn die das Potenzial nicht erkennen oder nicht nützen... Who care's?

Gast
2005-07-27, 16:28:40
Die Diskussion schweift jetzt aber langsam ab! Es geht hier um R520 und nicht um 110nm Prozesse!

reunion
2005-07-27, 16:45:37
']Nun dann sollte man aber auch annehmen ATI hätte auch soviel Ressorcen investiert, den schließlich macht der Low-Midrage den größten Umsatz...


Diese Schlussfolgerung ist viel zu kurzsichtig.
Man macht im Low- bzw. Midragesegment den meisten Umsatz, richtig - man benötigt dort allerdings nicht das Maximum an Taktfrequenz. nV plante von Beginn an G70 in 110nm zu fertigen, und investierte deshalb auch entsprechend viel Arbeit in diesen Prozess. ATi hingegen verwendet(e) 110nm nur als Lowcost-Prozess.



Wenn die das Potenzial nicht erkennen oder nicht nützen... Who care's?

Erkannt hat man das Potential mit Sicherheit - immerhin fertigten ATi und nV tw. in den gleichen Fabriken. Außerdem sah man ja das Ergebniss bei den Konkurrenzprodukten.

Man wollte davon aber nicht gebrauch machen, und ohne den offensichtlichen Problemen mit dem 90nm Prozess wäre dies sicherlich auch keine falsche Entscheidung gewesen IMHO.

seahawk
2005-07-27, 17:28:34
Dass nV in den 110nm Prozess vermutlich mehr Ressourcen investiert hat, und deshalb auch entsprechend bessere Ergebnisse erhalten hat(te), ist wohl unbestritten. Zu glauben, ATi hätte nicht gewusst, was mit diesem Prozess möglich war/ist, zeugt in meinen Augen allerdings von ziemlicher Naivität.

Die Frage ist, ob ATI das Potential schon erkannt hatte, als sie den R520 spezifizeirten. Da bin ich mir nicht sicher, bzw. gibt es widersprüchliche Aussagen. Man erinnere sich an NV und den NV30, auch dort ist man einer gewissene Fehleinschätzung aufgessen.

Iwan
2005-07-27, 17:38:31
wenn der r520 eh nur eine kurze lebnsspanne haben wird, wieso verzichtet ati nicht komplett auf den r520 und versucht lieber den r580 schneller zu bringen? :|

deekey777
2005-07-27, 17:41:39
wenn der r520 eh nur eine kurze lebnsspanne haben wird, wieso verzichtet ati nicht komplett auf den r520 und versucht lieber den r580 schneller zu bringen? :|

Ich sehe hier keinen Widerspruch. Warum auch?

BerndJazz
2005-07-27, 17:48:10
wenn der r520 eh nur eine kurze lebnsspanne haben wird, wieso verzichtet ati nicht komplett auf den r520 und versucht lieber den r580 schneller zu bringen? :|

Weil es noch länger braucht den R580 rauszubringen als den R520 und Ati langsam unter Druck gerät und mal langsam eine Karte und Ableger davon raus bringen muss die SM 3.0 können, damit sie nicht den Ruf bekommen den Anschluß zu verpassen?
Außerdem, vermute ich mal, ist es weder für das Geschäft noch für den Ruf gut weitere Monate Nvidia mit ihrem 7800 das Feld zu überlassen ohne etwas dagegen zu stellen.

MfG

BerndJazz

Gast
2005-07-27, 18:03:59
Weil es noch länger braucht den R580 rauszubringen als den R520 und Ati langsam unter Druck gerät und mal langsam eine Karte und Ableger davon raus bringen muss die SM 3.0 können, damit sie nicht den Ruf bekommen den Anschluß zu verpassen?
Außerdem, vermute ich mal, ist es weder für das Geschäft noch für den Ruf gut weitere Monate Nvidia mit ihrem 7800 das Feld zu überlassen ohne etwas dagegen zu stellen.

MfG

BerndJazz

Naja, so dolle ist der 7800GTX ja auch nicht, ich glaube eher das der gute Ruf von nv so langsam dahin weht!

Wenn ich mir die Foren so anschaue ist der Frust hinsichtlich "Flimmern" ziemlich gross!

In Fachkreisen nennt mann das auch den nBug! :)

Die Presse war sicherlich sehr voller Lob für G70, aber so langsam realisiert auch der letzte Red. wie sehr mann doch ver....scht wurde*g*

BerndJazz
2005-07-27, 18:28:27
Naja, so dolle ist der 7800GTX ja auch nicht, ich glaube eher das der gute Ruf von nv so langsam dahin weht!

Wenn ich mir die Foren so anschaue ist der Frust hinsichtlich "Flimmern" ziemlich gross!

In Fachkreisen nennt mann das auch den nBug! :)

Die Presse war sicherlich sehr voller Lob für G70, aber so langsam realisiert auch der letzte Red. wie sehr mann doch ver....scht wurde*g*

Das stimmt schon, aber trotzdem bleibt die Tatsache das Nvidia vorgelegt hat und der 7800GTX hat auch Qualitäten die zu recht gelobt werden. Und ATI wurde schon bei ihren letzten Karten schwer kritisiert, daß sie immer noch kein SM 3.0 boten. Ich denke einfach, das sie nicht ewig warten können bis sie neue Karten bringen.

MfG

BerndJazz

ShadowXX
2005-07-27, 18:47:31
Das stimmt schon, aber trotzdem bleibt die Tatsache das Nvidia vorgelegt hat und der 7800GTX hat auch Qualitäten die zu recht gelobt werden. Und ATI wurde schon bei ihren letzten Karten schwer kritisiert, daß sie immer noch kein SM 3.0 boten. Ich denke einfach, das sie nicht ewig warten können bis sie neue Karten bringen.

MfG

BerndJazz

Ich möchte ausserdem nicht wissen, wieviele Leute hier über das Flimmern des G70 herfallen, ohne es auch nur ein einziges mal selbst gesehen zu haben....

Die Beispiele von Lolman (ohne dessen arbeitet schlechtmachen zu wollen) sind Worst-Case-Szenarien, die dazu während des Spielen viel weniger ausffallen als die meisten glauben.

Ja, selbst ich Blindfisch sehe das der G70 auf HQ etwas Flimmert im gegensatz zum nv40...aber es ist nicht sooooo extrem, wie es teilweise dargestellt wird.

Die Leute die sich am stärksten darüber aufregen (ohne die mitzuzählen die nur als Trittbrettfahrer mitschreien) sind auch die, die am stärksten auf sowas überhaupt achten.

Wie schon öfters mal erwähnt wurde, ist es nur einem einzigen bei den Reviews überhaupt aufgefallen und das ist jemand, der von aths hochgeschätzt wird und wohl ähnliche anspüche wie er hat.
Sonst hat es niemand bemerkt, nicht mal Leo....und ich glaube nicht, das die alle von nV geschmiert worden sind.

Ich selber habe es erst bemerkt als ich expliziet darauf geachtet habe...und selbst jetzt, wo ich es weiss, muss ich immer noch darauf achten....und man merkt es nicht wirklich bei jedem Game, sondern es müssen schon Games sein, wo die Texturen sowieso in richtung Flimmeranfällig erstellt worden sind.

(Bevor jemand fragt und / oder meckert: Ich rede natürlich die ganze Zeit von HQ ohne Optimierungen...bei Q fällt es tatsächlich mehr auf)

Gast
2005-07-27, 23:28:13
Ich möchte ausserdem nicht wissen, wieviele Leute hier über das Flimmern des G70 herfallen, ohne es auch nur ein einziges mal selbst gesehen zu haben....

Die Beispiele von Lolman (ohne dessen arbeitet schlechtmachen zu wollen) sind Worst-Case-Szenarien, die dazu während des Spielen viel weniger ausffallen als die meisten glauben.

Ja, selbst ich Blindfisch sehe das der G70 auf HQ etwas Flimmert im gegensatz zum nv40...aber es ist nicht sooooo extrem, wie es teilweise dargestellt wird.

Die Leute die sich am stärksten darüber aufregen (ohne die mitzuzählen die nur als Trittbrettfahrer mitschreien) sind auch die, die am stärksten auf sowas überhaupt achten.

Wie schon öfters mal erwähnt wurde, ist es nur einem einzigen bei den Reviews überhaupt aufgefallen und das ist jemand, der von aths hochgeschätzt wird und wohl ähnliche anspüche wie er hat.
Sonst hat es niemand bemerkt, nicht mal Leo....und ich glaube nicht, das die alle von nV geschmiert worden sind.

Ich selber habe es erst bemerkt als ich expliziet darauf geachtet habe...und selbst jetzt, wo ich es weiss, muss ich immer noch darauf achten....und man merkt es nicht wirklich bei jedem Game, sondern es müssen schon Games sein, wo die Texturen sowieso in richtung Flimmeranfällig erstellt worden sind.

(Bevor jemand fragt und / oder meckert: Ich rede natürlich die ganze Zeit von HQ ohne Optimierungen...bei Q fällt es tatsächlich mehr auf)

qUATSCH;

DAS Flimmern ist eindeutig zu erkennen! Ich habe sogar einen Bekannten mal gefragtz das zu überprüfen und seine Einstellungen entsprechend auf HQ einzustellen, der BUG ist NACHVOLLZIEHBAR!

Selbst für einen Dausi!

So einen Driss wird ATI hoffentlich nicht bringen, für mich ist der G70 eine Luftnummer!

Ailuros
2005-07-28, 02:21:09
wenn der r520 eh nur eine kurze lebnsspanne haben wird, wieso verzichtet ati nicht komplett auf den r520 und versucht lieber den r580 schneller zu bringen? :|

Weil sonst ihr erster SM3.0 chip erst in Q1 2006 ankommt.

Ailuros
2005-07-28, 02:25:34
So einen Driss wird ATI hoffentlich nicht bringen, für mich ist der G70 eine Luftnummer!

Da ATI auch "bessere" AF Faehigkeiten behauptet, macht mir allein schon diese Tatsache Angst.

Gerade eben weil es um den letzten Schnipsel an Leistung geht, ist es zweifelhaft dass dieses alberne Optimierungs-rennen bald ein Ende nimmt.

Selbst für einen Dausi!

Solche kenne ich genug; nur leider erkennen sie selten den Unterschied zwischen bilinear und trilinear. Von antialiasing sollte schon gar nicht die Rede sein.

Gast
2005-07-28, 06:52:46
Weil sonst ihr erster SM3.0 chip erst in Q1 2006 ankommt. Äh, das bezieht sich eher auf die Mobile - Chips, für diesen Produktbereich müssen Sie den R520 eh nochmal anpacken und da bietet sich natürlich auch ein DT-Refresh an!

Ailuros
2005-07-28, 07:15:59
Äh, das bezieht sich eher auf die Mobile - Chips, für diesen Produktbereich müssen Sie den R520 eh nochmal anpacken und da bietet sich natürlich auch ein DT-Refresh an!

R580 ist fuer Q1 2006 geplant.

Tomcat70
2005-07-28, 10:32:30
wieder mal etwas zum thema r520 vom inquirer:

http://www.theinquirer.net/?article=24955

Gast
2005-07-28, 10:59:04
tja ati bietet neben der besseren bildqualität auch noch andere schöne dinge die ein bestimmter konkurent nicht hat :up:

Winter[Raven]
2005-07-28, 11:02:12
wieder mal etwas zum thema r520 vom inquirer:

http://www.theinquirer.net/?article=24955

Kann der G70 auch schon, was soll daran so neu sein?

Gast
2005-07-28, 11:10:06
']Kann der G70 auch schon, was soll daran so neu sein?
Sicher? Noch steht der Beweis aus. TSAA, SLIAA, AF soll er ja auch fehlerfrei koennen.

ShadowXX
2005-07-28, 11:47:46
Sicher? Noch steht der Beweis aus. TSAA, SLIAA, AF soll er ja auch fehlerfrei koennen.

Mit TSAA hab ich auch noch nie irgendwelche Probs gehabt (du meinst sicher die noch vorhandenen Treiberbugs für das GammaAA).

Und das SLIAA ist ja noch gar nicht offiziel (nur per Coolbits kommt man da ran)...wir sollten erst mal einen Treiber abwarten, der das offiziel unterstützt.

Gast
2005-07-28, 11:58:07
Mit TSAA hab ich auch noch nie irgendwelche Probs gehabt (du meinst sicher die noch vorhandenen Treiberbugs für das GammaAA)..
Nein, ich beziehe mich auf die Aussagen in diesem http://www.forum-3dcenter.org/vbulletin/showthread.php?t=231685&page=2&pp=20 Thread und
hier http://www.forum-3dcenter.org/vbulletin/showthread.php?t=238083

Und das SLIAA ist ja noch gar nicht offiziel (nur per Coolbits kommt man da ran)...wir sollten erst mal einen Treiber abwarten, der das offiziel unterstützt.
Treiber hin oder her, der Modus wurde AFAIK von nV offiziel vorgestellt.

reunion
2005-07-28, 11:59:14
']Kann der G70 auch schon, was soll daran so neu sein?


nV behauptet, dass er es kann - jegliche parallelitäten, welche man zum NV40 erkennen möge, unterliegen der Beurteilung des Lesers. :|

Im Gegensatz zum noch nichtmal vorgestellten R520 konnte man dies allerdings noch nicht nachweisen.

Winter[Raven]
2005-07-28, 12:08:40
Man kann aber Nvidia nichts andrehen ;) Bei der wmv dekodierung wurde die LE/GT/ultra Reihe nie erwähnt. Sonst hätte man nvidia einen Strick draus machen können. Was aber nicht angekündigt wurde für eine bestimmt Pallete kann man auch nicht angreifen :)

In dem Fall bezweifle ich eine Lüge hinter dem Decoding beim G70 für das H264.

Black-Scorpion
2005-07-28, 12:31:47
']Man kann aber Nvidia nichts andrehen ;) Bei der wmv dekodierung wurde die LE/GT/ultra Reihe nie erwähnt. Sonst hätte man nvidia einen Strick draus machen können. Was aber nicht angekündigt wurde für eine bestimmt Pallete kann man auch nicht angreifen :)
Du kennst diese Seite?
http://www.nvidia.de/page/purevideo_support.html

']In dem Fall bezweifle ich eine Lüge hinter dem Decoding beim G70 für das H264.
---
NVIDIA PureVideo kombiniert einen Hardware-Videoprozessor mit leistungsfähiger Videodecoder-Software und bietet so ein brillantes Videobild in HD-Qualität – in allen Formaten, auf allen Bildschirmtypen. Als Bestandteil der GeForce 6 und GeForce 7 Grafikprozessoren sowie der NVIDIA Quadro Workstation Grafikkarten sorgt PureVideo auf diese Weise für das ultimative Videoerlebnis am PC.
---
Quelle: http://www.nvidia.de/page/purevideo.html

deekey777
2005-07-28, 12:38:28
']Kann der G70 auch schon, was soll daran so neu sein?

Wieviele von euch haben auf die News geklickt? :biggrin:
Daß der R520 die h264-Decodierung in HW können soll, wurde schon längst gemeldet.
']Man kann aber Nvidia nichts andrehen ;) Bei der wmv dekodierung wurde die LE/GT/ultra Reihe nie erwähnt. Sonst hätte man nvidia einen Strick draus machen können. Was aber nicht angekündigt wurde für eine bestimmt Pallete kann man auch nicht angreifen :)



Aus der Vorstellung der NV40 bei THG: Videoprozessor: HDTV und einfaches MPEG-Encoding (http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-16.html)
Die WMV-Beschleunigung wurde angekündigt, doch erst als man mitbekommen hat, daß der VP im Arsch ist, mußte die Aussagen zu diesem Thema anpassen. Doch zumindest die NV41/NV42 sollen die WMV-Beschleunigung können. Ob sie man wirklich braucht? Alles Frage der Einstellung.


Doch ohne passende Software läuft da nix - egal ob WMV-Beschleunigung oder h264.

seahawk
2005-07-28, 14:04:41
wieder mal etwas zum thema r520 vom inquirer:

http://www.theinquirer.net/?article=24955

Ich sage mal ganz knall hart. Wenn juckts in Deutschland. Wen nder Standard hie Bedeutung hat, dann ist die R520 nur noch alt.

Black-Scorpion
2005-07-28, 14:10:02
Ne ist klar.

Deswegen braucht man das auch nicht zu integrieren.

seahawk
2005-07-28, 14:32:18
Ne ist klar.

Deswegen braucht man das auch nicht zu integrieren.

Habe ich das gesagt ?

Ich habe nur gesagt, dass die praktische Relevanz dieses Features in Europa für die meisten Käufer ungefähr gegen null tendieren wird.

deekey777
2005-07-28, 14:39:01
HD-DVD ist ein weltweiter Standard des DVD Forums. Offizielle Video-Codecs sind MPEG2, h264/MPEG4 AVC und VC-1 aka WMV9 Pro.

€: MPEG4 AVC/h264 wird auch von allen HD Sendern verwendet, da damit einiges an Bitrate gespart werden kann (im Vergleich zu MPEG2).

Ailuros
2005-07-28, 14:39:43
Nein, ich beziehe mich auf die Aussagen in diesem http://www.forum-3dcenter.org/vbulletin/showthread.php?t=231685&page=2&pp=20 Thread und
hier http://www.forum-3dcenter.org/vbulletin/showthread.php?t=238083

Treiber hin oder her, der Modus wurde AFAIK von nV offiziel vorgestellt.

Glaubst Du vielleicht ISVs und ATI's Treiber team haben und werden nicht auch nicht ziemlich viel Treiber-maessig ausbuegeln muessen was R520 betrifft?

Gast
2005-07-28, 14:47:06
Glaubst Du vielleicht ISVs und ATI's Treiber team haben und werden nicht auch nicht ziemlich viel Treiber-maessig ausbuegeln muessen was R520 betrifft?
Wenn ein beworbenes Feature nicht so funktioniert wie es soll, ist egal ob nVidia, Ati, oder was sonst fuer ein Humbug draufsteht. Es funktioniert nicht bis es gefixt wurde, basta.

Gast
2005-07-28, 14:47:49
...

Treiber hin oder her, der Modus wurde AFAIK von nV offiziel vorgestellt.

CrossFire wurde doch auch schon offiziell vorgestellt, oder nicht?

Gast
2005-07-28, 14:53:18
CrossFire wurde doch auch schon offiziell vorgestellt, oder nicht?
Ist im ggs zur G70 aber noch nicht kaeuflich zu erwerben

Hauwech
2005-07-28, 15:09:42
Ist im ggs zur G70 aber noch nicht kaeuflich zu erwerben

Hmm wie man also sieht, bedeutet offiziell vorgestellt gar nichts. CF ist für X8xx Karten eh ne Luftnummer und imho irgendwie nicht wirklich sinnvoll. Sofern es das mit dem R520 gibt, kann es schon ganz anders aussehen. Abwarten und Tee trinken.

Gast
2005-07-28, 15:22:03
Hmm wie man also sieht, bedeutet offiziell vorgestellt gar nichts. CF ist für X8xx Karten eh ne Luftnummer und imho irgendwie nicht wirklich sinnvoll. Sofern es das mit dem R520 gibt, kann es schon ganz anders aussehen. Abwarten und Tee trinken.
Auch wenn wir weiter OT kommen will mich mal verstaendlicher ausdruecken:
* ich kann at mom kein Crossfire System kaeuflich erwerben, ergo kann ich nicht fuer Features zahlen die eventuel nicht funktionieren
* SLI AA wird offiziel von nV als Feature fuer SLI beworben mit dem Zusatz dass es fuer alle Titel funktioniert
http://www.slizone.com/object/slizone_sliAA_howto1.html
so jetzt genug OT

Black-Scorpion
2005-07-28, 15:28:35
Habe ich das gesagt ?

Ich habe nur gesagt, dass die praktische Relevanz dieses Features in Europa für die meisten Käufer ungefähr gegen null tendieren wird.
Du weißt das dieses Jahr Premiere noch 3 HDTV Kanäle starten wird?
Und da jetzt schon einige dieses Features haben wollen dürfte das von Relevanz sein.

http://www.info.premiere.de/inhalt/de/unternehmen_innovationen_hdtv_start.jsp

Hauwech
2005-07-28, 15:51:50
Auch wenn wir weiter OT kommen will mich mal verstaendlicher ausdruecken:
* ich kann at mom kein Crossfire System kaeuflich erwerben, ergo kann ich nicht fuer Features zahlen die eventuel nicht funktionieren
* SLI AA wird offiziel von nV als Feature fuer SLI beworben mit dem Zusatz dass es fuer alle Titel funktioniert
http://www.slizone.com/object/slizone_sliAA_howto1.html
so jetzt genug OT

Da würde ich als Käufer aber lieber die zwar nur per CoolBits erreichbaren AA Modi bevorzugen als auf Vaporware zu warten. Ausserdem kann ich erwarten, dass es mit dem nächsten Treiber nachgeliefert wird. *schulterzuck*

Gast
2005-07-28, 16:05:23
Da würde ich als Käufer aber lieber die zwar nur per CoolBits erreichbaren AA Modi bevorzugen als auf Vaporware zu warten. Ausserdem kann ich erwarten, dass es mit dem nächsten Treiber nachgeliefert wird. *schulterzuck*
*auchschulterzuck* Es geht doch gar nicht darum, sondern um die Tatsache dass verschiedene kaeufliche Hardware mit Features beworben wird die so nicht funktionieren. Und genau diese Features werden von Markenanhaengern jeglicher Couleur in Foren wie diesem beworben. Du selbst hast Crossfire ins Spiel gebracht, obschon CF unter den Begriff Vaporware faellt und nicht unter Features eines kaeuflichen Produktes die vielleicht eines Tages funktionieren koennten.
Damit EOD

ShadowXX
2005-07-28, 17:29:02
Glaubst Du vielleicht ISVs und ATI's Treiber team haben und werden nicht auch nicht ziemlich viel Treiber-maessig ausbuegeln muessen was R520 betrifft?

Speziell da mit den gesammelten Games, mit denen ich TSAA ausprobiert haben es immer gelaufen ist (so um die 20-25 Stück).

Wenn denn mal ab und zu dabei ist, wo es nicht funktionieren sollte (vielleicht treffe ich ja noch auf eins), würde ich nicht gleich rumschreien und sagen es funktioniert überhaupt nix.

(Gleiches gilt für GammAA....aber das benutze ich nicht, da es auf meinem TFT nicht so pralle aussieht).

Zu SLIAA:
Soweit ich weiss hat nV es zwar vorgestellt (also die Theorie bzw. die Folien davon), aber es ist noch in keinem Treiber offiziell verfügbar.

Wenn ich dann also ein offiziell nicht verfügbare Feature teste, darf ich mich auch nicht Wundern, wenn es nicht immer bzw. es nicht gut funktioniert (denn funktionieren tut es ja, es ist nur manchmal extrem langsam...)


Wenn ein beworbenes Feature nicht so funktioniert wie es soll, ist egal ob nVidia, Ati, oder was sonst fuer ein Humbug draufsteht. Es funktioniert nicht bis es gefixt wurde, basta.


Welches beworbene Feature, welches auch schon in die Treiber integriert ist, funktioniert denn nicht?

Und wie schon erwähnt...nur weil es mal hier und da ein Game gibt, wo es noch nicht so 100%ig hinhaut, ist es für mich kein "hier funktioniert ja gar nix".
Das sind neue Funktionen, die neu in den Treiber aufgenommen werden mussten.....ich bin schon fast überrascht, das es so gut funktioniert, wie es jetzt funktioniert.

Winter[Raven]
2005-07-28, 17:32:24
Also, die NV40 Reviews sagen NICHTS aus, weder auf dem Lunchday gab es was zum Thema NV40 und WMV Decoding noch zu einem anderem Zeitpunkt! Wenn sich einige Seiten etwas zusammenraufen und meinen vom Purevideo auf die gesammte Pallete blicken zukönnen, dann tut mir leid.

Black-Scorpion
2005-07-28, 17:35:02
']Also, die NV40 Reviews sagen NICHTS aus, weder auf dem Lunchday gab es was zum Thema NV40 und WMV Decoding noch zu einem anderem Zeitpunkt! Wenn sich einige Seiten etwas zusammenraufen und meinen vom Purevideo auf die gesammte Pallete blicken zukönnen, dann tut mir leid.
Du weißt das es die nVidia Seite ist wo das steht?
Wenn du dir die Links nichtmal ansiehst ist das dein Problem.

ShadowXX
2005-07-28, 17:41:43
Du kennst diese Seite?
http://www.nvidia.de/page/purevideo_support.html


Dann guck mal genau, was bei der 6800Ultra/GT bei WMV-Kästechen steht und was bei der 6600 dort steht:

6800U/GT WMV9:

SD/HD-Bildverarbeitung einschließlich Gammakorrektur und Farbraum-Konvertierung


6600/7800 WMV9:

Hardwarebeschleunigte Decodierung und Bildverarbeitung in SD/HD


Bei der 6800U/GT steht nix von Hardwarebeschleunigte Decodierung.....

Winter[Raven]
2005-07-28, 17:49:24
Dann guck mal genau, was bei der 6800Ultra/GT bei WMV-Kästechen steht und was bei der 6600 dort steht:

6800U/GT WMV9:


6600/7800 WMV9:


Bei der 6800U/GT steht nix von Hardwarebeschleunigte Decodierung.....

Zu schnell für mich :(

Aber FULLACK :)

deekey777
2005-07-28, 18:01:25
']Also, die NV40 Reviews sagen NICHTS aus, weder auf dem Lunchday gab es was zum Thema NV40 und WMV Decoding noch zu einem anderem Zeitpunkt! Wenn sich einige Seiten etwas zusammenraufen und meinen vom Purevideo auf die gesammte Pallete blicken zukönnen, dann tut mir leid.

Dann haben sich einige umsonst aufgeregt, als es eindeutig heiß, daß der VP der 6800er Serie nicht funktionierte?

Black-Scorpion
2005-07-28, 18:02:36
GeForce 6800 - WMV9 - Hardwarebeschleunigte Decodierung und Bildverarbeitung in SD/HD

Nicht nur die Karten raussuchen die einem passen.

Winter[Raven]
2005-07-28, 18:03:40
Deekey, was hat ein zum Teil nicht funktionierender VP mit einem Feature der von Nvidia nicht vermarktet wurde? Erklär mir das bitte...

@ Anonym_001

a) Basiert die GF 6800 nicht auf einem anderem Core als GT und Ultra?
b) AGP vs PCI-E :biggrin:

AGP: SD/HD-Bildverarbeitung einschließlich Gammakorrektur und Farbraum-Konvertierung

PCI-E: Hardwarebeschleunigte Decodierung und Bildverarbeitung in SD/HD

Keine Karten raussuchen die einem passen ^^

seahawk
2005-07-28, 18:06:41
Du weißt das dieses Jahr Premiere noch 3 HDTV Kanäle starten wird?
Und da jetzt schon einige dieses Features haben wollen dürfte das von Relevanz sein.

http://www.info.premiere.de/inhalt/de/unternehmen_innovationen_hdtv_start.jsp

Also das macht das Featur wirklich unglaublich wichtig ;D

Black-Scorpion
2005-07-28, 18:11:06
Was für dich wichtig ist und für andere dürfte ein Unterschied sein.
Aber da bei dir anscheinend sowieso nur einer die wichtigen Features hat ist mir das ehrlich gesagt egal.

deekey777
2005-07-28, 18:12:51
']Deekey, was hat ein zum Teil nicht funktionierender VP mit einem Feature der von Nvidia nicht vermarktet wurde? Erklär mir das bitte...
..

Es wurde mit der WMV9 Beschleunigung von Anfang an beworben, bis man einsehen mußte, daß es doch nicht funktionierte. Ich will einen einzigen Link sehen, der dies widerlegt.

€: Und komm mir bitte nicht mit der Ausrede, daß man bei der Präsentation der Geforce 6 den VP "miterwähnt" hat und nichtim Zusammenhang mit der 6800.

Gast
2005-07-28, 18:46:41
der pvp wurde sogar ziemlich stark beworben anfänglich. in d rechtlich ein rückgabegrund - allerdings nur, wenn der kartenhersteller auf der packung oder der website features anpreist, die nicht funktionieren. nacherfüllung wird da wohl schwierig sein.

seahawk
2005-07-28, 18:55:10
Was für dich wichtig ist und für andere dürfte ein Unterschied sein.
Aber da bei dir anscheinend sowieso nur einer die wichtigen Features hat ist mir das ehrlich gesagt egal.

Blödfug. Aber ich frage mich wieviele dieser Highendgrafikarten wirklich regelmäßig zu Videoencoding eingestzt werden. Ich halte es für eher unwichtig (für den R520, nicht auf längere Sicht).

Aber jeder muss seine Entscheidung selber treffen und wenn jemand darauf wert legt, dann empfehle ich ihm genre einen R520, wobei es da wesentlich bessere Gründe geben wird als die Videofunktionen.

Gast
2005-07-28, 23:11:32
Blödfug. Aber ich frage mich wieviele dieser Highendgrafikarten wirklich regelmäßig zu Videoencoding eingestzt werden. Ich halte es für eher unwichtig (für den R520, nicht auf längere Sicht).

Aber jeder muss seine Entscheidung selber treffen und wenn jemand darauf wert legt, dann empfehle ich ihm genre einen R520, wobei es da wesentlich bessere Gründe geben wird als die Videofunktionen.

Ich versteh das nicht, hast du schonmal an die Vorteile einer Implementierung im Chip von TV-Out, HDTV, MEPEG4 gedacht?

Das ist die Zukunft, die Konvergenz geht auch an den Chip-Herstellern nicht spurlos vorbei! In 5 Jahren wird es das PC Geschäft wie es heute noch vorhanden ist nicht mehr so geben! Es werden andere Anforderungen gestellt an einen Grafikchipsatz!

Ailuros
2005-07-29, 02:09:45
Wenn ein beworbenes Feature nicht so funktioniert wie es soll, ist egal ob nVidia, Ati, oder was sonst fuer ein Humbug draufsteht. Es funktioniert nicht bis es gefixt wurde, basta.

Basta aber fuer beide IHVs, denn beide koennen fuer aehnliches mehr als oefter angeklagt werden.

Ailuros
2005-07-29, 02:18:45
*auchschulterzuck* Es geht doch gar nicht darum, sondern um die Tatsache dass verschiedene kaeufliche Hardware mit Features beworben wird die so nicht funktionieren. Und genau diese Features werden von Markenanhaengern jeglicher Couleur in Foren wie diesem beworben. Du selbst hast Crossfire ins Spiel gebracht, obschon CF unter den Begriff Vaporware faellt und nicht unter Features eines kaeuflichen Produktes die vielleicht eines Tages funktionieren koennten.
Damit EOD

Es sind beta Treiber die die modi freischalten. Und hier hat Hauwech auch tatsaechlich recht: lieber ein preview auf kommende offizielle Treiber und dessen neuen modi, als eine Vorstellung mit tesafilm verklebten GPUs.

seahawk
2005-07-29, 10:26:28
Ich versteh das nicht, hast du schonmal an die Vorteile einer Implementierung im Chip von TV-Out, HDTV, MEPEG4 gedacht?

Das ist die Zukunft, die Konvergenz geht auch an den Chip-Herstellern nicht spurlos vorbei! In 5 Jahren wird es das PC Geschäft wie es heute noch vorhanden ist nicht mehr so geben! Es werden andere Anforderungen gestellt an einen Grafikchipsatz!
Wer kauft in 5 Jahrne (oder nur in 8 Monaten) noch einen R520 ?

Tomcat70
2005-07-29, 10:46:01
Wer kauft in 5 Jahrne (oder nur in 8 Monaten) noch einen R520 ?

in 8 Monaten wird der preis gerade passen für den kauf eines r520........

warum denkst du kaufen viele leute zur zeit x800 karten? die antwort muss ich dir wohl nicht geben, aber da du es womöglich nicht kapierst auch noch die mögliche antwort dazu: wegen guter performance für einen geringen preis?

Gast
2005-07-29, 12:14:11
in 8 Monaten wird der preis gerade passen für den kauf eines r520........

warum denkst du kaufen viele leute zur zeit x800 karten? die antwort muss ich dir wohl nicht geben, aber da du es womöglich nicht kapierst auch noch die mögliche antwort dazu: wegen guter performance für einen geringen preis?


Das gleiche gilt aber auch für Nvidia Karten. Und nun?

zeckensack
2005-07-29, 13:24:37
Das gleiche gilt aber auch für Nvidia Karten.Hardware wird also billiger ... hmmm ... genial! Wusste ich noch garnicht! Danke!
[/sarkasmus]
Und nun?Was und nun? Es ist nicht sinnvoll in acht Monaten einen R520 zu kaufen, weil NVIDIA-Karten auch billiger werden? :conf2:

seahawk
2005-07-29, 14:03:10
Hardware wird also billiger ... hmmm ... genial! Wusste ich noch garnicht! Danke!
[/sarkasmus]
Was und nun? Es ist nicht sinnvoll in acht Monaten einen R520 zu kaufen, weil NVIDIA-Karten auch billiger werden? :conf2:

Sinnvoll ist eine Sache möglich die andere, wenn man davon ausgeht, dass dann längst nur noch der R580 in Produktion ist.

Für mich hat diese Form der hardwarebeschleunigten Videodecodierung in etwa so viel Wert wie SM3.0 bei der Vorstellung des NV40.

ShadowXX
2005-07-29, 14:16:57
Sinnvoll ist eine Sache möglich die andere, wenn man davon ausgeht, dass dann längst nur noch der R580 in Produktion ist.

Für mich hat diese Form der hardwarebeschleunigten Videodecodierung in etwa so viel Wert wie SM3.0 bei der Vorstellung des NV40.

Same for me.

On die Dinger nun HW-Dekodiung haben oder nicht ist mir ziemlich schnuppe....speziell, da man dafür dann auch immer noch speziell angepasste SW braucht.

Und bis BlueRay oder HDDVD-Movies zum kaufen was normales geworden sind (speziell in in Deutschland), gibts sowieso schon den G90 und r800.

Und ehrlich gesagt, kauf ich mir dann sogar eher ne PS3 zum BlueRay an irgedneinem Ausgabegerät gucken, als da ich meine GPU im Rechner für Missbrauche um am meinem Rechner im Sitzen File zu gucken.

Encoding wäre schon interessanter...(zumindest für andere, ich selbst encode vielleicht 2-3 mal Jahr)

mindfaq
2005-07-30, 09:18:20
Die Lamestar hat aber ne tolle Glaskugel, was ?

http://img236.imageshack.us/img236/4379/lamestar9go.jpg

;D ;D ;D

Winter[Raven]
2005-07-30, 09:50:23
Das Gerücht von 32 @24 Pipes will einfach nicht sterben ... nun bei Lamestar aber nichts verwunderliches... :crazy:

Ailuros
2005-07-30, 14:58:30
']Das Gerücht von 32 @24 Pipes will einfach nicht sterben ... nun bei Lamestar aber nichts verwunderliches... :crazy:

Aechz noch...(macht die eine Hand auf und zaehlt Finger)...errr (macht die zweite Hand auf....) und dann ist es dann vorbei :D

seahawk
2005-07-30, 17:21:08
Wird auch Zeit.

mapel110
2005-07-30, 17:47:29
Aechz noch...(macht die eine Hand auf und zaehlt Finger)...errr (macht die zweite Hand auf....) und dann ist es dann vorbei :D
Zählst du Tage oder Wochen an den Fingern? :biggrin:

Gast
2005-07-30, 18:04:23
Du weißt doch, dass du hier kein Schreibrecht mehr hast.

Ailuros
2005-07-30, 18:30:43
Zählst du Tage oder Wochen an den Fingern? :biggrin:

Nimm das was Dir als wahrscheinlicher klingt :P

-error-
2005-07-30, 18:37:23
Die Lamestar hat aber ne tolle Glaskugel, was ?

http://img236.imageshack.us/img236/4379/lamestar9go.jpg

;D ;D ;D

Die PC Games Hardware schreibt schon sehr viel Mist, hatte mir vor kurzem mal 2 Zeitschriften gekauft.

Allerdings ist der Typ der Funktionsweiße der Grafikchips erklärt recht kompotent. Aber der für die CPUs und Chipsätze zuständig ist--- aua :D