PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R650-Speku-Thread ...


Gaestle
2007-05-15, 10:41:21
Der R600 ist veröffentlicht, Gerüchten zufolge steht in vier Monaten der Refresh an.

Was denkt Ihr, hat ATi beim R650 mehr Füllrate geplant? Wie wird der R650 aussehen?

"Nur" mehr Takt, oder auch mehr TMUs / ROPs? Was sind sonst so für Verbesserungen zu erwarten?

Wird der R650 wirklich im September 2007 erscheinen?

Fragen über Fragen, zu denen die ein oder andere Spekulation nicht schaden dürfte...

[dzp]Viper
2007-05-15, 10:56:12
Ich denke es wird ein reiner Refresh werden. Vielleicht mit ein wenig Bugfixing in der Architektur (wenn nötig) aber sonst nicht viel mehr.

Taktratenmäßig kann man wohl von 900-1000MHz beim GPU ausgehen und die Taktraten beim RAM werden sich nicht sonderlich erhöhen (vielleicht 1200MHz)

Über die Verbrauchswerte kann man nur extrem Spekulieren. Ich denke aber es wird sich im Idle bei 80-100w bewegen und unter Last vielleicht so 130-150w.

Bis dahin hat dann ATI hoffentlich auch die Treiber im Griff so, dass das Match zwischen G90 und R650 spannend wird :up:

seahawk
2007-05-15, 12:30:34
Bugfix + Shrink = guter Chip

Die Frage ist nur was die Konkurrenz macht.

DerKleineCrisu
2007-05-15, 13:17:52
Bugfix + Shrink = guter Chip

Die Frage ist nur was die Konkurrenz macht.

in den augen von ati jüngern schlafen ;D .


Man kann nur hoffen das der nächste Chip bessere Wert im Bezug auf Stromverbraucht hat.

[dzp]Viper
2007-05-15, 13:31:26
in den augen von ati jüngern schlafen ;D .


Man kann nur hoffen das der nächste Chip bessere Wert im Bezug auf Stromverbraucht hat.

Das auf alle Fälle. Der Shrink auf 65nm wird da viel tun.
Sieht man ja schon bei den Angaben für die 2600/2400er von ATI. Die verbrauchen auch schon extrem wenig

dildo4u
2007-05-15, 13:36:14
Ich schätze eher das man jedes "gewonnene" Watt in Leistung steckt PCI-E 2.0 mit bis zu 300Watt wurden nicht umsonst von den IHVs gefordet.

http://www.heise.de/newsticker/meldung/83746

James Ryan
2007-05-15, 14:09:06
Ahhhh, ich dachte jetzt ist erstmal Ruhe mit Spekulationsthreads und nun das! ;D
Egal, zum topic:
Ich denke der R650 kommt in 65nm (klar), wird von ATi gründlich überarbeitet worden sein und hoffentlich eine bessere_und_leisere Kühlung besitzen!
Ansonsten das normal Refreshprogramm: 1 GB VRam bei der XTX, mehr Takt und besseren Speicher.

MfG :cool:

MartinRiggs
2007-05-15, 14:43:10
naja glaube noch mehr wie shrink und takt.
Da sich der R600 beim AA ja scheinbar selbst im Weg steht wird da bestimmt was gemacht, bzw. gemacht werden müssen.

Adam D.
2007-05-15, 15:33:21
Also ich wage zu bezweifeln, dass wir einen großen Rückgang des Stromverbrauchs sehen werden, eher nehm ich an, dass ATi bis zum letzten MHz kämpft, um gegen die (IMO) sehr starke Konkurrenz zu bestehen ;)

Godmode
2007-05-15, 15:57:04
Bugfix + Shrink = guter Chip

Die Frage ist nur was die Konkurrenz macht.

Naja Nvidia hat mehrere Möglichkeiten:
Entweder sie machen es so wie von G70 auf G71, dh. Margenoptimierung, Entfernung von Redundanzen im G80 und nur eine Takterhöhung, oder sie machen den G80 einfach noch breiter und erhöhen zusätzlich den Takt.

Bei Variante 1 könnte der Stromverbrauch sicherlich zurückgehen, bei Variante 2 wird er wohl gleich bleiben oder höher sein.

Variante 2 würde mir am besten gefallen:
- 10 - 12 G84/G86 Cluster
- 8 Rop Partitions gekoppelt an ein 512 bit Speicherinterface
- Takfrequenzen von etwa 700 MHz Chip und 1800 MHz in den ALUs
- mehr als 1 Mrd. Transitoren

IMO werden wir aber Variante 1 sehen, da nVidia meistens ziemlich wirtschaftlich und zu wenig in schwanzlänge denkt.

Nedo
2007-05-15, 16:01:42
Bin auch mal gespannt.

Aber eine Frage, war in den letzten Wochen nicht so auf dem laufenden gewesen...

Wird es neben der 2900 XT auch eine XTX oder anderes geben?

Weil im Vergleich zur 8800 GTX is sie ja eher schwach auf der Brust...

Godmode
2007-05-15, 16:04:56
Bin auch mal gespannt.

Aber eine Frage, war in den letzten Wochen nicht so auf dem laufenden gewesen...

Wird es neben der 2900 XT auch eine XTX oder anderes geben?

Weil im Vergleich zur 8800 GTX is sie ja eher schwach auf der Brust...

Nein eine XTX kommt anscheinend erst mit dem R650 aka 2950. Sie hat wohl zuviel Strom verbraucht.

AnarchX
2007-05-15, 16:06:40
IMO werden wir aber Variante 1 sehen, da nVidia meistens ziemlich wirtschaftlich und zu wenig in schwanzlänge denkt.

Naja, aber für den GPGPU-Markt brauch es noch ein Flagschiff(immerhin will ja hier NV dieses Jahr noch eine eigene Marke aufbauen). ;)

Um zum R650 zurückzukommen:
Hier könnte ich mir deutlich erhöhte Taktraten vorstellen, da ja der 80nm Prozess nicht unbedingt so optimal ist, aber trotzdem bei R600 noch etwas Potential zeigt.

Adam D.
2007-05-15, 16:09:12
Nein eine XTX kommt anscheinend erst mit dem R650 aka 2950. Sie hat wohl zuviel Strom verbraucht.
Sie hat sich einfach nicht rentiert. Da kommt der Stromverbrauch vielleicht hinzu, aber wenn es nur dieser Grund gewesen wär, hätte man sie trotzdem gelauncht. Wahrscheinlich als Gesamtpaket zu unwirtschaftlich.

Was mich interessieren würde: Läuft/Lief die Entwicklung des R650 parallel zu der des R600? 4 Monate sind nicht so viel ... Ich mein, beim 65nm-Part sieht's ja so aus, als würde es wieder ein direkter Wettstreit werden, da müsste doch Nvidia einen großen zeitlichen Vorsprung haben..

Gaestle
2007-05-15, 16:18:06
Was mich interessieren würde: Läuft/Lief die Entwicklung des R650 parallel zu der des R600? 4 Monate sind nicht so viel ... Ich mein, beim 65nm-Part sieht's ja so aus, als würde es wieder ein direkter Wettstreit werden, da müsste doch Nvidia einen großen zeitlichen Vorsprung haben..

AFAIK laufen die Entwicklungen parallel. Um das Beispiel X1800 und X1900 heranzuziehen: während X1900 im (eigenen) Zeitplan blieb, kam X1800 (im eigenen Zeitplan) viel zu spät, so dass der letztlich der X1900 relativ kurz nach der X1800 kam, obwohl eigentlich so nicht geplant.

Gmax
2007-05-16, 13:27:50
Jungs, machen wir uns nichts vor, ein von der Architektur unveränderter R6oo @ 65nm wird nicht gegen den G90 bestehen können.
Ich gehe also folglich davon aus, daß ATI doch noch das eine oder andere implementieren wird und der R65o somit später, aber dafür verbessert kommen wird.

Meine 0,02 €.

[dzp]Viper
2007-05-16, 13:34:05
Jungs, machen wir uns nichts vor, ein von der Architektur unveränderter R6oo @ 65nm wird nicht gegen den G90 bestehen können.
Ich gehe also folglich davon aus, daß ATI doch noch das eine oder andere implementieren wird und der R65o somit später, aber dafür verbessert kommen wird.

Meine 0,02 €.

Hast du Insiderinformationen oder woher willst du das wissen? :eek:

Hakim
2007-05-16, 13:39:00
Viper;5499438']Hast du Insiderinformationen oder woher willst du das wissen? :eek:

Nein aber von der Logik her ist es schon richtig. Eine weitere Runde (R650 gegen g90), wo ATI wieder schlechter dar stehen würde, sollte ATI um jeden preis vermeiden.

[dzp]Viper
2007-05-16, 13:46:57
Nein aber von der Logik her ist es schon richtig. Eine weitere Runde (R650 gegen g90), wo ATI wieder schlechter dar stehen würde, sollte ATI um jeden preis vermeiden.

Wenn ATI die Probleme bis Herbst beseitigt mit welchen sich der R600 aktuell rumschlägt (was wohl auch geschehen wir), dann wird der R650 schon ein guter Konkurent für den G90 werden. Da sehe ich absolut nicht "schwarz".

Adam D.
2007-05-16, 14:17:27
Ein an die Grenzen gebrachter G80 leistet heute mehr als ein an die Grenzen gebrachter R600. Ob das mit dem 65nm-Refresh so sein wird und wie weit man an die Grenzen kommen wird, steht in den Sternen. Vielleicht kann der R6x0 seine Stärken ja wirklich erst im neuen Fertigungsprozess unter Beweis stellen und haut den G90 weg (ich glaube nicht dran) ;)

Winter[Raven]
2007-05-16, 14:21:37
Alles hängt davon ab, was Nvidia mit dem G90 macht, der G80 ist ein 0.90µ Chip mit 680 Mio Transis und einer unglaublichen Effizienz. Der G90 wird schon in 0.65µ kommen und ich habe so ein Gefühl als könnte Nvidia im Endeffekt wieder besser darstehen.

Wir müssens abwarten.

w0mbat
2007-05-16, 14:23:05
Der G90 soll doch nur ein geshrinkter G80 werden, also wie der R650 wohl auch nur ein geshrinkter R600 wird.

Dann hätten wir wohl eine ähnliche Situation wie jetzt.

Gast
2007-05-16, 14:23:55
Dann hätten wir wohl eine ähnliche Situation wie jetzt.

Nein, da man nicht weiß, wie gut beide Unternehmen den Prozeß beherrschen und wie gut sie Transistoren packen können.

Adam D.
2007-05-16, 14:26:32
Nein, da man nicht weiß, wie gut beide Unternehmen den Prozeß beherrschen und wie gut sie Transistoren packen können.
... und wie weit die Treiber sind. Damit schießt sich ATi zur Zeit ja selbst das Bein weg :rolleyes:

w0mbat
2007-05-16, 14:27:39
Nein, da man nicht weiß, wie gut beide Unternehmen den Prozeß beherrschen und wie gut sie Transistoren packen können.

Was hast du an "wohl" und an Speku-Thread nicht verstanden?

Gast
2007-05-16, 14:30:39
Was hast du an "wohl" und an Speku-Thread nicht verstanden?

Oh, eigentlich müsstest du mit "hätte" kommen - Konjunktiv II, Unwahrheit und so.
Aber gut: Dann erkläre dochmal, warum wir die gleiche Situation wie jetzt wohl hätten, wenn beide auf 65nm gingen.

deekey777
2007-05-16, 14:33:02
;5499680']Alles hängt davon ab, was Nvidia mit dem G90 macht, der G80 ist ein 0.90µ Chip mit 680 Mio Transis und einer unglaublichen Effizienz. Der G90 wird schon in 0.65µ kommen und ich habe so ein Gefühl als könnte Nvidia im Endeffekt wieder besser darstehen.

Wir müssens abwarten.
Effizient ist, wenn man ein vorgegebenes Ziel mit geringsten Mitteln erreicht oder mit vorgegebenen Mitteln das beste Ziel erreicht. Uneffizient ist alles, wenn es eine bessere Alternative gibt.
Und da stellt sich die Frage: Wäre ein Wechsel auf 80 nm keine bessere Alternative? Dass der G80 immer seine Leistung vollständig entfaltet, ist nicht gleich ein effizientes Produkt als Ganzes.

Hauwech
2007-05-16, 14:55:56
Effizient ist, wenn man ein vorgegebenes Ziel mit geringsten Mitteln erreicht oder mit vorgegebenen Mitteln das beste Ziel erreicht. Uneffizient ist alles, wenn es eine bessere Alternative gibt.
Und da stellt sich die Frage: Wäre ein Wechsel auf 80 nm keine bessere Alternative? Dass der G80 immer seine Leistung vollständig entfaltet, ist nicht gleich ein effizientes Produkt als Ganzes.

Imho ein Nein zu 80nm, die hätten dann eher jetzt kommen müssen. Wieviel damit drin gewesen wäre, keine Ahnung. Mehr Takt und Fixes ja, aber für mehr Einheiten wären 80nm imho nicht ausreichend. Edit: Es sei denn, die mit Sicherheit vorhandenen Redundanzen würden ordentlich Platz sparen.

Zum R650: Gefixte ROPs sind ein Muss, mehr TMUs ebenfalls. Mehr Einheiten? Ob die anscheinend nicht ganz billige Tesselationseinheit rausfliegt, hmm vielleicht aber glaube ich nicht obwohl anscheinend vor D3D11 (2009?) ein richtiger Nutzen auch nicht da ist wenn ich das richtig verstanden habe.

Hakim
2007-05-16, 14:59:37
ist es den überhaupt möglich in so kurzer zeit noch Änderungen (implementieren) für den R650 vorzunehmen? Sicherlich wird man aber schon vor Monaten da dran gedacht haben.

Gast
2007-05-16, 15:01:36
Imho ein Nein zu 80nm, die hätten dann eher jetzt kommen müssen. Wieviel damit drin gewesen wäre, keine Ahnung. Mehr Takt und Fixes ja, aber für mehr Einheiten wären 80nm imho nicht ausreichend. Edit: Es sei denn, die mit Sicherheit vorhandenen Redundanzen würden ordentlich Platz sparen.

80nm bringt einiges, wenn man den ganzen Chip bei 700 Mio Transistoren auf 800 Mhz bringen kann. Bei 90nm sind bislang nur 650 Mhz drin und das auch nur mit Taktdomains bei etwa der selben Transistoranzahl.

Gast
2007-05-16, 15:02:38
ist es den überhaupt möglich in so kurzer zeit noch Änderungen (implementieren) für den R650 vorzunehmen? Sicherlich wird man aber schon vor Monaten da dran gedacht haben.
Wenn man ohnehin einen anderen Fertigungsprozess für einen Chip plant, sieht das ganze Design eh anders aus.

Armaq
2007-05-16, 15:08:03
Effizient ist, wenn man ein vorgegebenes Ziel mit geringsten Mitteln erreicht oder mit vorgegebenen Mitteln das beste Ziel erreicht. Uneffizient ist alles, wenn es eine bessere Alternative gibt.
Und da stellt sich die Frage: Wäre ein Wechsel auf 80 nm keine bessere Alternative? Dass der G80 immer seine Leistung vollständig entfaltet, ist nicht gleich ein effizientes Produkt als Ganzes.
Öhm, nein. Seine Leistung immer voll zu entfalten ist imho das effizienteste was es gibt. Effektivität wurde ja vorher festgelegt, in der Wahl der Mittel, aber effizient ist eine 100% Auslastung der verfügbaren Einheiten immer.

Sk_Antilles
2007-05-16, 15:17:50
Man darf auch nicht aus den Augen verlieren, dass sich beim R650 eventuell schon die Zusammenarbeit von AMD/ATi bemerkbar macht (Verlustleistung, Manpower usw.).
Da könnten schon einige Verbesserungen kommen denke ich mal.

Winter[Raven]
2007-05-16, 15:29:25
AMD/ATi bemerkbar macht

Wenn, dann frühestens beim R700, und wie soll die Verlustleistung beim R650 mit AMD zusammenhängen?

reunion
2007-05-16, 15:50:34
Öhm, nein. Seine Leistung immer voll zu entfalten ist imho das effizienteste was es gibt. Effektivität wurde ja vorher festgelegt, in der Wahl der Mittel, aber effizient ist eine 100% Auslastung der verfügbaren Einheiten immer.

Nein, es geht um die Kosten-Nutzen-Relation. Ich habe nicht davon, wenn ein Chip seine Einheiten immer zu 100% auslastet, diese aber dafür unverhältnismäßig teuer sind.

80nm bringt einiges, wenn man den ganzen Chip bei 700 Mio Transistoren auf 800 Mhz bringen kann. Bei 90nm sind bislang nur 650 Mhz drin und das auch nur mit Taktdomains bei etwa der selben Transistoranzahl.

Die Designs sind in keinster Weise vergleichbar.

deekey777
2007-05-16, 16:37:12
Öhm, nein. Seine Leistung immer voll zu entfalten ist imho das effizienteste was es gibt. Effektivität wurde ja vorher festgelegt, in der Wahl der Mittel, aber effizient ist eine 100% Auslastung der verfügbaren Einheiten immer.
Du meinst das Maximum-Prinzip, aber nur wenn es um das Chipdesign geht. Mir ging's um etwas mehr, darum habe ich auch die 80 nm erwähnt. Der G80 ist, wenn es um die Rechenleistung geht, unschlagbar, es gibt keine Flaschenhälse, die seine Leistung verringern (wenn, dann ist es die Software). Aber so einen Chip zu fertigen, kostet Geld. Dazu kommt zusätzlicher Chip in Form des NVIO.
Der R600 kann seine Leistung nur dann voll entfalten, wenn der Shader-Code so verändert wird, dass seine superskalare ALUs vollständig "Futter" bekommen. Bei einem 80nm-Chip kann man davon, ausgehen, dass die Fehlerquote gering ist, aber erreichen auch alle Chips die gewünschte Frequenz? Dazu kommt, dass das PCB sehr kompliziert ist.
Nehmen wir an, der R650 ist bloß ein Shrink. Was heißt das? Man wird mehr Chips auf einem Wafer bekommen als mit 80 nm. Man wird ggf. auch mehr Chips bekommen, die die gewünschte Frequenz erreichen. Möglich ist auch, dass der Stromverbrauch sinkt, was zu Einsparungen beim PCB führt, was aber unwahrscheinlich ist.

Winter[Raven]
2007-05-16, 17:08:37
Aber so einen Chip zu fertigen, kostet Geld.

Wissen wir wie die Margen und Yelds bei NV im 0.90µ und Ati mit 0.80µ liegen?

Gast
2007-05-16, 17:12:23
... Der G80 ist, wenn es um die Rechenleistung geht, unschlagbar, es gibt keine Flaschenhälse, die seine Leistung verringern (wenn, dann ist es die Software)....


Dazu ist überhaupt viel zu wenig bekannt um das als Fakt darzustellen. Wenn dann: "bisher". Auch der G80 wird seine Schwächen haben, die Frage ist nur ob Sie eklatant sind.

seahawk
2007-05-16, 17:31:24
Jungs, machen wir uns nichts vor, ein von der Architektur unveränderter R6oo @ 65nm wird nicht gegen den G90 bestehen können.
Ich gehe also folglich davon aus, daß ATI doch noch das eine oder andere implementieren wird und der R65o somit später, aber dafür verbessert kommen wird.

Meine 0,02 €.

Naja, eigentloch müßte man nur Bugfixing machen und die ROPs vom RV630....

Wäre ein Wechsel auf 80 nm keine bessere Alternative? Dass der G80 immer seine Leistung vollständig entfaltet, ist nicht gleich ein effizientes Produkt als Ganzes.
80nm ist ein sehr schwieriger Prozess, imho hat NV bewußt nur recht leistungsarme Chips darauf geplant. Ich halte es für fraglich ob man den jetzigen G80 in 80nm realiseiren könnte.

Gast
2007-05-16, 17:36:25
Naja, eigentloch müßte man nur Bugfixing machen und die ROPs vom RV630....


Was habt ihr denn nur alle mit den ROPs. Irgendwo wird sowas in die Luft gesetzt und 2 Tage später quatschen es alle nach weil man ja selber keine Ahnung hat und da hält man sich drann was verfügbar ist.

Es gibt mehr als genug Hinweise darauf das mit den ROPs soweit alles iO ist und dass nur der D3D Treiber sch..... ist.

seahawk
2007-05-16, 17:43:12
Guck Dir mal die Daten von RV630 und R600 an und dann denk darüber nach was ich geschrieben habe...

Gast
2007-05-16, 17:48:30
Guck Dir mal die Daten von RV630 und R600 an und dann denk darüber nach was ich geschrieben habe...


Sorry, dann hab ich dich falsch verstanden. Ich leiste hiermit abbitte.

Fetza
2007-05-16, 17:54:04
Zum R650: Gefixte ROPs sind ein Muss, mehr TMUs ebenfalls. Mehr Einheiten? Ob die anscheinend nicht ganz billige Tesselationseinheit rausfliegt, hmm vielleicht aber glaube ich nicht obwohl anscheinend vor D3D11 (2009?) ein richtiger Nutzen auch nicht da ist wenn ich das richtig verstanden habe.

Die tesselationseinheit wird mit sicherheit nicht fliegen, warum soll man das argument, das man eine d3d10+ hardware hat aufgeben? Zumal xbox ports davon schon bald profitieren müssten.

Und wer will zu diesem zeitpunkt hier wissen, ob die rops wirklich verbuggt sind?

Coda
2007-05-16, 17:56:56
Das Argument zieht halt nicht, weil D3D11 so schnell nicht kommt und OpenGL für Spieleentwickler ziemlich unattraktiv ist momentan.

Winter[Raven]
2007-05-16, 18:00:01
Das Argument zieht halt nicht, weil D3D11 so schnell nicht kommt und OpenGL für Spieleentwickler ziemlich unattraktiv ist momentan.

Woran liegt das jetzt eigentlich, dass OpenGL nicht aus den Socken kommt?

Naja, eigentloch müßte man nur Bugfixing machen und die ROPs vom RV630....

Solange man nicht weiß, was Nvidia für den G90 plant bzw. im Endeffekt reinpackt, kann man schlecht einschätzen ob das Bugfixing + Rops reicht ^_^

Es seih den du weißt Bescheid im Bezug auf den G90.

Fetza
2007-05-16, 18:01:03
Das Argument zieht halt nicht, weil D3D11 so schnell nicht kommt und OpenGL für Spieleentwickler ziemlich unattraktiv ist momentan.

Marketing? Was was ein otto normal gamer von diesem deirääägt 10 oder so :)

Gast
2007-05-16, 18:01:26
Was man ganz klar sagen muss: NVIDIA hat da noch mehr Potential.

Selbst die Ultra kommt noch in 90 nm daher, während schon die 2900 XT in 80 nm nicht an ihr vorbeiziehen kann. Das ist schon bedenklich.

NVIDIA hat noch den Schritt auf 80 > 65 nm vor sich und ATI nur noch 65 nm. Wenn die da nicht etwas grundlegendes dran ändern, dann bleibt zumindest das schlechte Verhältniss aus Leistung und Stromverbrauch bestehen.

Ich könnte mir aber gut vorstellen, das der 80 nm Prozess bei 700 Mio Transistoren Probleme macht. Vielleicht hat deshalb NVIDIA darauf verzichtet und vielleicht ist auch deshalb die 2900 XT nicht so toll geworden wie geplant - die 80 nm X1950Pro wars nämlich auch nicht.

Eines kann man jedoch ganz klar sagen, Ende des Jahres sieht die Situation schon viel besser aus.

Dazu kommen mehrere Faktoren: Vista ist dann schon knapp ein Jahr am Markt, vielleicht schon das erste Service Pack raus. Die Treiber sind besser und der Fertigungsprozess ist weiter ausgereift.

Wenn ich nur daran denke, das schon in wenigen Monaten Grafikchips mit 65 nm möglich sind, dann glaube ich fast daran, das diese Stromverbrauchmisere schnell ein Ende nehmen wird. Reine Takterhöhungen die selbst jetzt mit der "verkorksten" R600 GPU in 80 nm ohne Spannungserhöhung möglich sind, sollten sich in 65nm in Serie realisieren lassen. Wenn man da mal eben den Takt um 200 MHz anheben kann und das ohne Erhöhung der Spannung, dann dürfte der Stromverbrauch generell sogar sinken - sofern die Leckströme dies nicht wieder zunichte machen.

Wann soll denn eigentlich der 55 nm Prozess für Highend Karten verfügbar sein?

Merlin31
2007-05-16, 18:03:32
Ich würde mal sagen, wenn das Filterproblem der R600 Hardwarebedingt ist, wird je nach Bug erst gar kein R650 raus kommen. Und ATI alles an Manpower auf eine R700 setzt. Denn AMD hat zur Zeit bestimmt nicht das Geld für mehr Personal.

Coda
2007-05-16, 18:09:58
;5500398']Woran liegt das jetzt eigentlich, dass OpenGL nicht aus den Socken kommt?
An dem ganzen Extension-Wirrwar und dem fehlenden Support.

Marketing? Was was ein otto normal gamer von diesem deirääägt 10 oder so :)
Bitte?

Gast
2007-05-16, 18:55:30
Guck Dir mal die Daten von RV630 und R600 an und dann denk darüber nach was ich geschrieben habe...


Was können denn die RV630 Render Backends besser als die vom R600?

seahawk
2007-05-16, 19:06:18
http://i9.tinypic.com/4y87hag.jpg

Ist eigentlich offensichtlich.

deekey777
2007-05-16, 19:10:56
I
Zum R650: Gefixte ROPs sind ein Muss, mehr TMUs ebenfalls. Mehr Einheiten? Ob die anscheinend nicht ganz billige Tesselationseinheit rausfliegt, hmm vielleicht aber glaube ich nicht obwohl anscheinend vor D3D11 (2009?) ein richtiger Nutzen auch nicht da ist wenn ich das richtig verstanden habe.
Was für gefixte ROPs? Da wird nichts gefixt, denn der R600 soll auf CFAA hinentwickelt worden sein. Dafür spricht, dass das MSAA nicht der Weisheit letzter Schluss ist und dass CFAA eigentlich MSAA ersetzen/ergänzen soll. Dagegen spricht, dass der vorherige Satz nur eine billige Ausrede ist und man tatsächlich Mist gebaut hat.

AnarchX
2007-05-16, 19:12:10
http://i9.tinypic.com/4y87hag.jpg

Ist eigentlich offensichtlich.

6 AA Samples pro ROP? :|

deekey777
2007-05-16, 19:14:39
6 AA Samples pro ROP? :|
Hm? Was meinst du gerade?

AnarchX
2007-05-16, 19:17:57
Hm? Was meinst du gerade?

2600XT:
19.200 / 4 / 800 = 6

R600 hat 4 pro ROP:
http://www.beyond3d.com/resources/board/331

... und RV610 offensichtlich nur 2 wie RV5xx.

deekey777
2007-05-16, 19:22:53
2600XT:
19.200 / 4 / 800 = 6

R600 hat 4 pro ROP:
http://www.beyond3d.com/resources/board/331

... und RV610 offensichtlich nur 2 wie RV5xx.
Teile mal die GFLOP-Leistung durch 10.

Fetza
2007-05-16, 19:25:12
Bitte?

Ich wollte damit sagen, dass das beibehalten der tesselationseinheit auch alleine schon marketingtechnisch sinn macht. Da man so sagen kann, der r600läge über den eigentlichen d3d 10 spezifikationen. Es geht ja nicht darum, leute davon zu überzeugen, die hier rum hängen und sich wirklich für die technischen details interessieren, sondern einfach einer breiten masse in den kopf zu setzen, das eigene produkt wäre besonders fortschrittlich.

edit: ganz generell glaube ich aber auch nicht, das man das feature erst implementiert um es nachträglich rauszuschmeissen... immerhin wird sich sowas doch nicht einfach in einen chip implementieren lassen, oder?

AnarchX
2007-05-16, 19:25:30
Teile mal die GFLOP-Leistung durch 10.

:biggrin:
Alles klar...

reunion
2007-05-16, 19:36:36
Wobei ich diese Angaben nicht ganz nachvollziehen kann. Die Pixelfüllrate sollte sich doch von den ROPs ableiten, also bei R600:

4xAA:
16*4*742MHz = 47488 MegaPixels/s

1xAA:
16*742MHz = 11872 MegaPixels/s

Zumindest dachte ich das bisher. Machen das bei R600 auch schon die Shader, oder bin ich jetzt total auf dem Holzweg?

deekey777
2007-05-16, 19:43:28
:biggrin:
Alles klar...
Hm, ich glaube, das war ein Zufall mit den GFLOP-Zahlen.

AnarchX
2007-05-16, 20:00:23
Hm, ich glaube, das war ein Zufall mit den GFLOP-Zahlen.

Aber 6 AA Samples wäre eine sonderbare Zahl? :|

Die Pixelfüllrate sollte sich doch von den ROPs ableiten, also bei R600:


Naja, das steht ja nicht Pixel Filling Rate, sondern Pixel Processing Rate. Und da sind doch bei R600XT nunmal 64*742MHz, bei RV630XT 24x800MHz.

edit:
Auch Jawed scheint dieser Meinung zu sein:
http://forum.beyond3d.com/showpost.php?p=1006187&postcount=394

reunion
2007-05-16, 20:17:38
Aber 6 AA Samples wäre eine sonderbare Zahl? :|


Warum sechs AA-Samples? Nur weil ein ROP-Quad bei RV630 ev. einem um 50% höhere Leistung hat, heißt das noch lange nicht, dass single-cycle 6xMSAA möglich ist. Das würde auch überhaupt keinen Sinn ergeben.


Naja, das steht ja nicht Pixel Filling Rate, sondern Pixel Processing Rate. Und da sind doch bei R600XT nunmal 64*742MHz, bei RV630XT 24x800MHz.

edit:
Auch Jawed scheint dieser Meinung zu sein:
http://forum.beyond3d.com/showpost.php?p=1006187&postcount=394

Vermutlich hast du recht, und die Pixel "Processing" Rate ist bei R600 nur zufällig gleich der Pixelfüllrate.

mapel110
2007-05-16, 20:20:59
Gabs nicht Gerüchte bezüglich 12xAA?! Dann wäre doch single cycle 6xAA durchaus angebracht.

deekey777
2007-05-16, 21:56:17
Gabs nicht Gerüchte bezüglich 12xAA?! Dann wäre doch single cycle 6xAA durchaus angebracht.
3 Loops a 4 Pixel ergeben auch 12xMSAA.

AnarchX
2007-05-16, 22:28:30
R650 will solve the R600 troubles (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1021&Itemid=34)
We seen a document were ATI clearly convinces the flaws in R600 design and that the company is aware of the high power requirements, the power dissipation and the lack of texture power in the current design.[...]

Wenn AMD die von ihnen gemachten Versprechungen zum R650 wahr machen kann, dann könnte es im Herbst wieder mal spannend werden. ;)

Fetza
2007-05-16, 23:04:59
R650 will solve the R600 troubles (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1021&Itemid=34)


Wenn AMD die von ihnen gemachten Versprechungen zum R650 wahr machen kann, dann könnte es im Herbst wieder mal spannend werden. ;)

Nur das jeder behaupten kann, er hätte ein ati dokument über diese "infos" vorliegen ;)

AnarchX
2007-05-16, 23:08:40
Nur das jeder behaupten kann, er hätte ein ati dokument über diese "infos" vorliegen ;)

Wenn du meinst.... :D

Raff
2007-05-16, 23:32:49
R650 will solve the R600 troubles (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1021&Itemid=34)


Wenn AMD die von ihnen gemachten Versprechungen zum R650 wahr machen kann, dann könnte es im Herbst wieder mal spannend werden. ;)

Wenn er nicht spannend wird, haben wir sicher bald ein Problem.

Man will also u. a. den "lack of texture power" ausradieren. Nun, die Architektur ist entkoppelt, A.I. spart fleißig, was bleibt da? TMUs. Bitte, lasst den R650 deren 32 haben, dann haut's auch mit guter AF-Leistung hin. Wenn man etwas Müll entsorgt und damit plus Shrink Platz schafft, passen vielleicht bei ähnlicher Größe noch 16 TMUs unter den Heatspreader. Das ganze dann auf 1 GHz takten und ab geht die Party. Die Arithmetikleistung scheint ja zu passen, was man an den no-AA/AF-Benches sieht.

MfG,
Raff

Hauwech
2007-05-16, 23:34:55
Ich wollte damit sagen, dass das beibehalten der tesselationseinheit auch alleine schon marketingtechnisch sinn macht. Da man so sagen kann, der r600läge über den eigentlichen d3d 10 spezifikationen. Es geht ja nicht darum, leute davon zu überzeugen, die hier rum hängen und sich wirklich für die technischen details interessieren, sondern einfach einer breiten masse in den kopf zu setzen, das eigene produkt wäre besonders fortschrittlich.

edit: ganz generell glaube ich aber auch nicht, das man das feature erst implementiert um es nachträglich rauszuschmeissen... immerhin wird sich sowas doch nicht einfach in einen chip implementieren lassen, oder?

Der Ersteindruck zählt. Mit dem Release hat sich ATI keinen Gefallen getan. Was die breite Masse interessiert ist ob da D3D10/DX10 drauf steht, sonst nichts. Wenn schon Features wie AA/AF, die es schon jahrelang gibt, von der breiten Masse quasi kaum genutzt werden, warum sollte es auf einmal die Tesselationseinheit?

Ich kann auch nur spekulieren aber ich würde fast wetten, das sie mit Vista und D3D11 einfach früher gerechnet haben und keine Zeit mehr hatten, das Dingen rauszuplanen.

@DK777
Das die ROPs ein Problem haben, da glaube ich einfach mal Ailuros und seinen Quellen.

mapel110
2007-05-16, 23:37:47
Wenn er nicht spannend wird, haben wir sicher bald ein Problem.

Man will also u. a. den "lack of texture power" ausradieren. Nun, die Architektur ist entkoppelt, A.I. spart fleißig, was bleibt da? TMUs. Bitte, lasst den R650 deren 32 haben, dann haut's auch mit guter AF-Leistung hin. Wenn man etwas Müll entsorgt und damit plus Shrink Platz schafft, passen vielleicht bei ähnlicher Größe noch 16 TMUs unter den Heatspreader. Das ganze dann auf 1 GHz takten und ab geht die Party.

MfG,
Raff
ATI hat alle letzten Designs mit 16 Pipes/TMUs bestritten und ich denke, dabei wird es erstmal bleiben. Fundamentale Änderungen halte ich beim R650 jedenfalls für ausgeschlossen.
/edit
man war ja schließlich bis zuletzt überzeugt bei ATI, mit dem R600 konkurrenzfähig zu sein. Sonst hätte man ihn ja wesentlich früher abgesägt, ähnlich R400. Gleiches dürfte für den R650 gelten, wenn er auch hoffentlich natürlich mit weniger Bugs ankommt.

Winter[Raven]
2007-05-16, 23:39:19
Wenn er nicht spannend wird, haben wir sicher bald ein Problem.

Was verstehst du unter "spannend"? Leider ist es ja nicht mehr möglich solche Chips anzubieten, die auf Featureseite reinhauen... D3D10 seih dank.

Neue AA Modis?? Gerne, AF @ >= G80 Gerne ...

ATI muss sich am G80 Messen, auch an dem G90. Nvidia wird ja schließlich in der Zeit keine Däumchen gerückt haben.

ATI hat alle letzten Designs mit 16 Pipes/TMUs bestritten und ich denke, dabei wird es erstmal bleiben. Fundamentale Änderungen halte ich beim R650 jedenfalls für ausgeschlossen.

Fullack

Raff
2007-05-16, 23:46:07
ATI hat alle letzten Designs mit 16 Pipes/TMUs bestritten und ich denke, dabei wird es erstmal bleiben. Fundamentale Änderungen halte ich beim R650 jedenfalls für ausgeschlossen.
/edit
man war ja schließlich bis zuletzt überzeugt bei ATI, mit dem R600 konkurrenzfähig zu sein. Sonst hätte man ihn ja wesentlich früher abgesägt, ähnlich R400. Gleiches dürfte für den R650 gelten, wenn er auch hoffentlich natürlich mit weniger Bugs ankommt.

Es ist doch kaum zu übersehen, dass der R600 (auch) an seiner Texturleistung krankt. Schon beim R580 waren 16 TMUs @ 650 MHz wenig. Wenn man bedenkt, dass der R600 nur lächerliche 15 Prozent mehr Texelfüllrate hat als der R580 (und genauso viel wie mein R520 X-D), dann sieht man die Stagnation. Nvidia wird sich schon etwas dabei gedacht haben, beim G80 trotz "freier" Architektur noch die TMUs zu frisieren. AF ist so günstig wie nie, "Optimierungen" waren niemals sinnloser als auf einem G80.

MfG,
Raff

raffa
2007-05-16, 23:50:42
ATI hat alle letzten Designs mit 16 Pipes/TMUs bestritten und ich denke, dabei wird es erstmal bleiben. Fundamentale Änderungen halte ich beim R650 jedenfalls für ausgeschlossen.


Ich denke auch, daß sich da nicht viel ändert von R600 auf R650. Da ist die Zeit einfach zu knapp.
Ein gefixter (wenn man sich die Opengl Benches anschaut, sollte daß ja irgendwie hinzukriegen sein) R600 in 65nm, mit etwas höheren Taktraten und deutlich geringerem Stromverbrauch, wär ja auch nicht wirklich verkehrt.

Den R650 zu verschieben oder gar auszulassen, halte ich für ziemlichen Blödsinn, es sei denn er ist wirklich für die Tonne. ATI/AMD braucht eine voll alltagstaugliche, rundlaufende high performance Karte, und eine solche könnte man mit dem R650 durchaus hinkriegen.

Raff, du hast schon recht, der R600 hat zuwenig Füllrate, und 32TMUs würden sicherlich gut tun, aber so recht dran glauben mag ich nicht, daß wir die beim R650 sehen werden

AnarchX
2007-05-17, 00:00:36
ATI hat alle letzten Designs mit 16 Pipes/TMUs bestritten und ich denke, dabei wird es erstmal bleiben. Fundamentale Änderungen halte ich beim R650 jedenfalls für ausgeschlossen.
Ist eben die Frage, wann mit R650 begonnen wurde bzw. ob der spekulierte Termin stimmt.

Aber das besagte Dokument, kann ich dir versichern, existiert. ;)


man war ja schließlich bis zuletzt überzeugt bei ATI, mit dem R600 konkurrenzfähig zu sein. Sonst hätte man ihn ja wesentlich früher abgesägt, ähnlich R400.

Nur gab es diesmal keinen Plan B wie 2x R350 in 130nm.

Fetza
2007-05-17, 01:07:56
Aber das besagte Dokument, kann ich dir versichern, existiert. ;)


Dann mal butter bei die fische, hast du es selbst gesehen?:|

Nebenbei bemerkt ist die texelfüllrate des r600 wiederum auch nicht sooooo schlecht, wie sie hier von einigen dargestellt wird. Beim fp16 texturing immerhin auf gts niveau. Dazu gibts doch auch noch diese neuen "point sampling tmus" deren ganzes potential sich auch erst später aufschlüsseln lassen wird. Ati bringt doch nicht erst einen r600 raus, nur um jetzt beim r650 komplett andere design entscheidungen zu treffen, immerhin muss man ja den transistoren count auch im auge behalten.

deekey777
2007-05-17, 01:55:05
Der R600 hat 16 TMUs? Wo?:| :smile: :biggrin:
and the the lack of texture power in the current design
http://www.beyond3d.com/content/reviews/16/9
Each sampler unit can setup 8 addresses per clock, fetch 16 FP32 values for bilinear filtering, and 4 FP32 values for point sampling, all per clock, and then bilinearly filter at a rate of four INT8 or FP16 bilerps per cycle, from those fetched values. Don't believe what you read elsewhere about FP16 being half speed in R600, since it's simply not the case; 3- and 4-channel INT16 isn't full speed, NVIDIA getting a little confused. Our in-house sampler benchmark tool shows equivalent rates for INT8 and FP16 bilinear filtering with 1- to 4-channel fetches for small and large surfaces, which we'll show you later.
Da ist die umgekehrte Diskrepanz des G80.
Wenn der R650 in 65 nm gefertigt wird, kann man diesen Nachteil entweder über den Takt und/oder mehr Einheiten ausgleichen. Wobei "mehr Einheiten" nicht gleich mehr TUs (=sampler unit) bedeutet, eher kommen 4 TF per Sampler-Unit hinzu.

Gast
2007-05-17, 03:28:35
Hm? R650 kommt wann? Unbekannt, man kann nur davon ausgehen das es ähnlich wie bei nV so November werden wird für den Refresh. Weil "Herbst" erscheint mir doch sehr früh, und das eine oder andere TapeOut will ja auch gemacht werden. Die 65nm R6x0 Derivate kommen ja auch immer später, oder gab es schon "leaked" Silikon dazu?

Was auch immer am R600 schief gegangen ist, beim R650 wird man es ja besser machen müssen, ist alles auf die Treiber zurückzuführen? Welcher OEM holt sich dann die kleinen Modelle ins Boot...

san.salvador
2007-05-17, 04:37:17
Wer fühlt sich außer mir noch an R520->R580 erinnert?

AnarchX
2007-05-17, 09:14:21
Dann mal butter bei die fische, hast du es selbst gesehen?:|

Ja, ich durfte mal einen Blick drauf werfen.

Wobei die Maßnahme die man gegen "the lack of texture power in the current design" treffen will mir momentan etwas unklar ist und wohl auch nicht dem entspricht was sich hier die meisten vorstellen.

reunion
2007-05-17, 09:15:45
ATI hat alle letzten Designs mit 16 Pipes/TMUs bestritten und ich denke, dabei wird es erstmal bleiben. Fundamentale Änderungen halte ich beim R650 jedenfalls für ausgeschlossen.
/edit
man war ja schließlich bis zuletzt überzeugt bei ATI, mit dem R600 konkurrenzfähig zu sein. Sonst hätte man ihn ja wesentlich früher abgesägt, ähnlich R400. Gleiches dürfte für den R650 gelten, wenn er auch hoffentlich natürlich mit weniger Bugs ankommt.

Durch den 65m Prozess gewinnt man enorm an Platz, ich glaube kaum, dass es bei einem reinen Shrink bleibt. Und wenn ATi schon in einem Dokument auf die geringe Texelfüllrate hinweist, dann kannst du dir ausmalen, dass man das nicht tut, wenn man dieses Problem noch länger hat. Auch ist es IMHO kein Argument dafür, dass diese 16TMUs beibehalten werden, nur weil es bei den letzten Designs auch so war. Das spricht höchstens dafür, dass sich da bald was ändern wird/muss.

Der R600 hat 16 TMUs? Wo?:| :smile: :biggrin:

http://www.beyond3d.com/content/reviews/16/9

Da ist die umgekehrte Diskrepanz des G80.
Wenn der R650 in 65 nm gefertigt wird, kann man diesen Nachteil entweder über den Takt und/oder mehr Einheiten ausgleichen. Wobei "mehr Einheiten" nicht gleich mehr TUs (=sampler unit) bedeutet, eher kommen 4 TF per Sampler-Unit hinzu.

Eben. Es sind zwar max. 16bi Samples pro Takt, allerdings wird dieser peak-Wert fast unter allen Umständen erreicht. Die extra Sampler und Adressierungseinheiten versorgen die Shader und ev. auftretende Vertexfetches/GS, und selbst FP16-Filterung geht ohne Leistungsverlust, auch dank des großen Caches. Ich denke 32 von den Dingern würde einem G80 gut einheizen.
Ja, ich durfte mal einen Blick drauf werfen.

Wobei die Maßnahme die man gegen "the lack of texture power in the current design" treffen will mir momentan etwas unklar ist und wohl auch nicht dem entspricht was sich hier die meisten vorstellen.

Lass dir doch nicht alles aus der Nase ziehen. Was sind die Maßnahmen, oder darfst du das das Dokument nicht veröffentlichen?

AnarchX
2007-05-17, 09:58:02
Lass dir doch nicht alles aus der Nase ziehen. Was sind die Maßnahmen, oder darfst du das das Dokument nicht veröffentlichen?

Qualität vor Quantität scheint die Devise für die Maßnahme zu sein. Was mich etwas nachdenklich stimmt, ob es denn reicht, wenn NV bei G90 auch ein paar Verbesserungen im Bereich der Texelleistung einführt.


btw.
Die Meldung zum R700 bei Fuad, sollte man sich auch einmal anschauen. ;)

reunion
2007-05-17, 10:07:07
Qualität vor Quantität scheint die Devise für die Maßnahme zu sein. Was mich etwas nachdenklich stimmt, ob es denn reicht, wenn NV bei G90 auch ein paar Verbesserungen im Bereich der Texelleistung einführt.


Was ja auch nachvollziehbar ist, da R600 seine Füllrate fast unter allen Umständen halten kann.


btw.
Die Meldung zum R700 bei Fuad, sollte man sich auch einmal anschauen. ;)

Die? http://www.fudzilla.com/index.php?option=com_content&task=view&id=1028&Itemid=1

Leider nicht wirklich was neues. Dass R700 ein Multicore wird, wurde von vielen ATi-Mitarbeitern durch die Blume schonmal erwähnt. Höchstens der 55nm Prozess - wenn er denn fix ist - ist neu. Und das Erscheinungsdatum ist wie immer bei solchen Roadmaps sehr optimistisch gewählt.

Gast
2007-05-17, 10:14:11
Was ja auch nachvollziehbar ist, da R600 seine Füllrate fast unter allen Umständen halten kann.

Eigentlich ist es jeweils nur ein Fall mehr, wo er das kann, als der G80...
http://www.beyond3d.com/images/reviews/r600-arch/bench-filter-4x4-bilinear.png

http://www.beyond3d.com/content/reviews/16/13

Selektive Wahrnehmung mal wieder?

Gast
2007-05-17, 10:17:21
Der R600 hat 16 TMUs? Wo?:| :smile: :biggrin:

Im R600. Vier Render-Backends mit je einer Quad-TMU.

Gast
2007-05-17, 10:17:47
Im R600. Vier Render-Backends mit je einer Quad-TMU.
Sry, Blödsinn. Keine Render-Backends, sondern nur vier Quad-TMUs.

reunion
2007-05-17, 10:25:29
Eigentlich ist es jeweils nur ein Fall mehr, wo er das kann, als der G80...

Den Satz muss man nicht verstehen, oder?


http://www.beyond3d.com/images/reviews/r600-arch/bench-filter-4x4-bilinear.png

http://www.beyond3d.com/content/reviews/16/13

Selektive Wahrnehmung mal wieder?

Nein, denken und nicht nur Balken ablesen. Interessant wäre dieser Vergleich mit tri-Filterung, da man so die peak-Werte bei G80 durch die fehlenden Adressierungseinheiten gar nicht erreicht, und deshalb auch gar nicht beurteilen kann, wer wo genau mehr Einbricht. Man sieht nur, dass R600 fast immer den peak-Wert halten kann. Ein G80 würde bei wesentlich mehr Tests kräftig nachgeben, was man hier dank bi-Filterung allerdings durch die zweite Filtereinheit pro Adressierungseinheit verschleiern kann. Dass es absolut gesehen natürlich nur äußerst selten reicht, um einen G80 in punkto Texelfüllrate zu schlagen, ist klar, nur kann man mit aufwendigeren Filtern den Abstand beträchtlich reduzieren.

Gast
2007-05-17, 10:43:10
Glaube nicht das es ein Projekt gibt das soviel Füllrate verlangt das das beim G80 limitiert, eher geht vorher die Bandbreite aus oder etwas anderes.

Das einzige Spiel wo der R600 den G80 vom Leder zieht ist TDU, und bei dem Abstand geht man eher davon aus das es einen Treiberbug gibt.
Und in Zukunft wird es keine Spiele geben die viel mehr Füllrate benötigen, laut den geposteten Projektionen wird sich der Bedarf an Arithmetikleistung pro Jahr um 1/4 steigern, und die Füllratenanforderungen nur marginal.

Am Ende steht man wieder dort wo man angefangen hat, R600 bringt nicht genug Leistung auf die Straße, selbst in Spezialfällen die es derzeit in Spielen nicht gibt, könnte er theoretisch gleichziehen. Mangels Anwendung, ein Traum.

Spasstiger
2007-05-17, 11:18:34
Wer fühlt sich außer mir noch an R520->R580 erinnert?
Ich hatte schon vor drei Monaten eine Vorahnung, dass es wieder so laufen wird. ;)

Sry, Blödsinn. Keine Render-Backends, sondern nur vier Quad-TMUs.
Die Sprechweise mit den TMUs ist generell etwas doof beim R600.
Der R600 kann maximal 32 Texel pro Takt abtasten, davon aber nur 16 gefiltert (dafür gleich mit fp16 bilinear).

Nakai
2007-05-17, 11:25:37
Naja dann muss er nur noch 32 Filtern können, dann wäre das Problem gelöst.
Imho ist das nicht soviel, man müsste nur 16 TFUs ergänzen.

Der R650 wird jedenfalls mehr als ein herkömmlicher Dieshrink.

mfg Nakai

Gast
2007-05-17, 11:47:11
Den Satz muss man nicht verstehen, oder?
[QUOTE]
Darf ich mit deinen Worten antworten?
[QUOTE=reunion;5501748]
Nein, denken und nicht nur Balken ablesen.

Bei bilinearer Filterung sind es drei Fälle, wo der G80 einbricht und zwei Fälle, wo der R600 einbricht. Bei Point-Sampling steht es sogar zwei zu zwei, obwohl der R600 doch über zusätzliche Point-Sampler-Einheiten verfügt.

Damit sind es ingesamt - erlaube mir, es für dich zusammenzuzählen - fünf Fälle, wo dem G80 nur die Hälfte seiner "normalen" Füllrate zur Verfügung steht und vier Fälle, wo der R600 über seine volle Füllrate verfügen kann.

Davon, wer jetzt im einzelnen Falle mehr Füllrate zur Verfügung hat, sprach ich überhaupt nicht, also bitte: "...denken und nicht nur Balken ablesen."

Gast
2007-05-17, 11:48:26
Man sieht nur, dass R600 fast immer den peak-Wert halten kann.
Wie gesagt: 5:4 und damit irgendwie selektiv, deine Wahrnehmung. Dass G80 noch tri oder 2x BiAF umsonst bekommt, ist eher ein Vor- als ein Nachteil - oder? ;)

Gast
2007-05-17, 11:51:25
Der R600 kann maximal 32 Texel pro Takt abtasten, davon aber nur 16 gefiltert (dafür gleich mit fp16 bilinear).
Wenn ich mir die Point-Sampling-Werte bei B3D mal so anschaue, scheinen die 16 Point-Sampler des R600 eher sowas die das "Missing MUL" des G80 zu sein. Oder siehst du irgendwo in deren Tests - trotz Point-Samplings... - eine Erhöhung der R600-Füllrate?

IMO sind das eher Vertex-Fetcher, die man unter speziellen Umständen vielleicht auch auf eine Textur zugreifen lassen kann (VTF?).

reunion
2007-05-17, 11:59:26
Bei bilinearer Filterung sind es drei Fälle, wo der G80 einbricht und zwei Fälle, wo der R600 einbricht. Bei Point-Sampling steht es sogar zwei zu zwei, obwohl der R600 doch über zusätzliche Point-Sampler-Einheiten verfügt.

Damit sind es ingesamt - erlaube mir, es für dich zusammenzuzählen - fünf Fälle, wo dem G80 nur die Hälfte seiner "normalen" Füllrate zur Verfügung steht und vier Fälle, wo der R600 über seine volle Füllrate verfügen kann.

Davon, wer jetzt im einzelnen Falle mehr Füllrate zur Verfügung hat, sprach ich überhaupt nicht, also bitte: "...denken und nicht nur Balken ablesen."

Du hast offensichtlich nichtmal verstanden, was ich geschrieben habe. G80 bricht nur deshalb nicht ein, weil er mit bi-Filterung nur 32 der vorhandenen 64 Filtereinheiten benutzen kann.

Coda
2007-05-17, 12:01:40
Das ergibt doch keinen Sinn reunion. Mit tri würde R600 ja noch mehr einbrechen und G8x seine Rate fast halten.

Gast
2007-05-17, 12:01:45
(dafür gleich mit fp16 bilinear).Und wann werden in Spielen FP16-Texturen verwendet? Abgesehen von Source-Spielen für die Lightmaps fällt mir nichts ein.

reunion
2007-05-17, 12:03:03
Das ergibt doch keinen Sinn reunion. Mit tri würde R600 ja noch mehr einbrechen und G8x seine Rate theoretisch halten.

Bei FX8 ja, aber in vielen anderen Fällen nicht. Der Abstand wird mit höherwertigen Filtern also geringer, sofern mindestens tri gefiltert wird. Das kann man aber bei diesem Test nicht sehen, da in machen Fällen nur 32 der 64 Filtereinheiten benutzt werden können, und in machen alle 64.

Coda
2007-05-17, 12:05:38
R600 würde dadurch bei jedem Balken um die Hälfte einbrechen, G8x nur bei nicht-FX8 (was eh das allerwichtigste ist und erstmal auch bleiben wird).

Falls du das nur erwähnt haben wolltest hast du natürlich recht, aber es ändert nichts an den Verhältnissen.

Gast
2007-05-17, 12:05:42
Du hast offensichtlich nichtmal verstanden, was ich geschrieben habe. G80 bricht nur deshalb nicht ein, weil er mit bi-Filterung nur 32 der vorhandenen 64 Filtereinheiten benutzen kann.
Prima - dann halbiere mal alle Werte des R600 durch die Bank und halbiere nur einige Werte des G80. Wer steht dann am Ende besser da im Vergleich zur jetzigen Situation?

Gast
2007-05-17, 12:06:50
Der Abstand wird mit höherwertigen Filtern also geringer, sofern mindestens tri gefiltert wird.
Nein, der Abstand bleibt mindestens gleich, erhöht sich in manchen Fällen aber.

reunion
2007-05-17, 12:12:05
R600 würde dadurch bei jedem Balken um die Hälfte einbrechen, G8x nur bei nicht-FX8 (was eh das allerwichtigste ist und erstmal auch bleiben wird).

Und jetzt?

Was und jetzt? G80 erreicht in der Praxis mit FX8, sofern mindestens tri gefiltert wird, was wohl fast immer der Fall ist, eine doppelt so hohe Füllrate wie hier suggeriert. Mit allen anderen Filtern stimmen die hier aufgeführten Graphen allerdings. G80 halbiert also in wesentlich mehr Fällen seine Texelfüllrate als R600. Einfach Schlussfolgerung: Es ist für AMD von Vorteil, wenn höherwertige Filter zum Einsatz kommen, da dann der G80 zumindest einen teil seine großen Vorsprungs einbüßt.

Prima - dann halbiere mal alle Werte des R600 durch die Bank und halbiere nur einige Werte des G80. Wer steht dann am Ende besser da im Vergleich zur jetzigen Situation?

Die "jetzige Situation" ist nicht praxisrelevant, da bei G80 tw. die Hälfte der Filtereinheiten Däumchen drehen.

Nein, der Abstand bleibt mindestens gleich, erhöht sich in manchen Fällen aber.

Nein, der Abstand mit FX8 in der Praxis wesentlich höher ist.

Spasstiger
2007-05-17, 12:13:21
Und wann werden in Spielen FP16-Texturen verwendet? Abgesehen von Source-Spielen für die Lightmaps fällt mir nichts ein.
Ich bin kein Spieleentwickler, aber wurden die R5xx-Chips nicht dafür kritisiert, keine fp-Filterung zu beherrschen?

Gast
2007-05-17, 12:16:14
OMFG - du willst also allen Ernstes aus einem Vorteil des G80 einen Nachteil drehen, weil er sich erdreistet, in manchen praxisfernen ST-bilinear-Fällen noch mehr Füllrate als bei den B3D-Tests zuerreichen? Sorry, aber das ist echt zuviel für mich - ich verabschiede mich mal von dir...

reunion
2007-05-17, 12:23:31
OMFG - du willst also allen Ernstes aus einem Vorteil des G80 einen Nachteil drehen, weil er sich erdreistet, in manchen praxisfernen ST-bilinear-Fällen noch mehr Füllrate als bei den B3D-Tests zuerreichen? Sorry, aber das ist echt zuviel für mich - ich verabschiede mich mal von dir...

Toller Diskussionsstil, wenn einem die Argumente ausgehen. Wo drehe ich einen Nachteil für G80? Weil ich anmerke, dass dort tw. nur die Hälfte der Einheiten des G80 verwendet werden können, wodurch die Werte und das Verhältnis der Werte zueinander nicht wirklich die Praxis wiederspiegeln? Ich sage nur, dass der Abstand mit "höherwertigen" Filtern geringer wird, wodurch es nachvollziehbar ist, dass AMD angeblich auf einer Folie "Qualität statt Quantität" fordern, um den Nachteil zu mildern.

Coda
2007-05-17, 12:28:51
G80 halbiert also in wesentlich mehr Fällen seine Texelfüllrate als R600.
Bei R600 halbiert sie immer mit Tri statt Bi.

Einfach Schlussfolgerung: Es ist für AMD von Vorteil, wenn höherwertige Filter zum Einsatz kommen, da dann der G80 zumindest einen teil seine großen Vorsprungs einbüßt.
Nein. Das Diagram wird nur noch schlimmer, weil der FX8-Vorsprung steigt, der Rest aber relativ gleich bleibt.

reunion
2007-05-17, 12:31:58
Bei R600 halbiert sie immer mit Tri statt Bi.


Logisch, es sind ja auch nur 16 bi TMUs. Doch diesen peak-Wert von 11.872GPixel/s bi, bzw. die Hälfte tri kann man fast unter allen Umständen erreichen.


Nein. Das Diagram wird nur noch schlimmer, weil der FX8-Vorsprung steigt, der Rest aber relativ gleich bleibt.

Ja, das Diagramm wird, wenn du so willst, noch schlimmer. Nur zeigt es dann auch wirklich brauchbare Ergebnisse. Und diese würde eben besagen, dass der Abstand mit FX8 am größten ist (immerhin > Faktor 3 theoretisch, und wohl auch praktisch), und mit höherwertigen Filter auf das hier abgebildete Niveau sinkt (was immerhin "nur noch" ein Vorsprung von knapp 50% ist in den meisten Fällen).

Coda
2007-05-17, 12:37:44
Ja, das Diagramm wird, wenn du so willst, noch schlimmer. Nur zeigt es dann auch wirklich brauchbare Ergebnisse. Und diese würde eben besagen, dass der Abstand mit FX8 am größten ist (immerhin > Faktor 3), und mit höherwertigen Filter auf das hier abgebildete Niveau sinkt.
Korrekt. Aber du musst bedenken, dass es momentan keine große Anwendung für FP-Texturen gibt - Lightmaps sind definitiv am aussterben - und auch keine Texturkompression dafür, was die Anwendungsfälle noch stärker einschränkt.

Precomputed Radiance Transfer mit SH wäre vielleicht noch am ehesten was wofür man sie brauchen könnte.

Gast
2007-05-17, 12:41:16
Ah, der R600 wird in Zukunft weniger "Einbrechen" im Vergleich zu alten Spielen wie der G80. So ist es wohl gemeint, dann in 3 Jahren wenn kein Hahn danach kräht wird der G80 nur noch 10-20% vor dem R600 in Füllratenlimitierten Szenarios sein. Seh ich nicht als Vorteil da der R600 eine kurze Lebenszeit (~6Monate) haben wird.
Der Abstand G80 - R600 soll sich also verringern in zukünftigen Spielen, tja aber dann kauft man ihn sich ja trotzdem nicht.

Vieleicht wir der R650 ja ein 24TMU GPU, vor ca. einem Jahr muss ATI ja schon drauf gekommen sein das sie da ein Spätzünder gebaut haben und die Zeit sollte reichen um den Refresh entsprechend aufzubohren.
Wohlgemerkt wenn es damals aufgefallen ist, vom nV40 zum G70 ging es ja auch relativ einfach und billig, das Kunststück könnte der R650 auch schaffen. Dann ist man auch nicht mehr so sehr auf die hohen Taktraten angewiesen, das sehe ich eher als Hauptproblem des ganzen, den anderen Weg hat ja nV erfolgreich beschritten.

OBrian
2007-05-17, 13:09:16
Seh ich nicht als Vorteil da der R600 eine kurze Lebenszeit (~6Monate) haben wird. Richtig, und zwar noch viel stärker als frühere High-End-Chips. Eine Radeon 9800pro war top als sie rauskamm, später als noch sehr lange als billige Mainstreamkarte gut geeignet. Aber eine X2900XT wird jeder so schnell wie möglich wieder rausreißen wollen, wenn es für das gleiche Geld dann eine gleichschnelle, aber wesentlich sparsamere Karte gibt.

Vieleicht wir der R650 ja ein 24TMU GPU, vor ca. einem Jahr muss ATI ja schon drauf gekommen sein das sie da ein Spätzünder gebaut haben und die Zeit sollte reichen um den Refresh entsprechend aufzubohren.Ich könnte mir gut vorstellen, daß Ati erstmal mit dem RV670 übt: 65nm, 1/2 oder 3/4 des R600 mit 256bit SI, aber doppelte Anzahl Textureinheiten (also im Verhältnis, pro Quad) und noch ein paar kleinere Tweaks, die sich inzwischen angesammelt haben (wie das immer so ist).

Der R650 käme dann danach und wäre dann genauso groß wie der R600, brächte aber die Verbesserungen des RV670 mit.

Optimalerweise käme der RV670 zum Back-To-School-Geschäft und der R650 rechtzeitig vor Weihnachten - aber das verschiebt sich sicher wieder beides um ein halbes Jahr. ;(

reunion
2007-05-17, 13:11:02
Korrekt. Aber du musst bedenken, dass es momentan keine große Anwendung für FP-Texturen gibt - Lightmaps sind definitiv am aussterben - und auch keine Texturkompression dafür, was die Anwendungsfälle noch stärker einschränkt.

Precomputed Radiance Transfer mit SH wäre vielleicht noch am ehesten was wofür man sie brauchen könnte.

Klar.

Ah, der R600 wird in Zukunft weniger "Einbrechen" im Vergleich zu alten Spielen wie der G80. So ist es wohl gemeint, dann in 3 Jahren wenn kein Hahn danach kräht wird der G80 nur noch 10-20% vor dem R600 in Füllratenlimitierten Szenarios sein. Seh ich nicht als Vorteil da der R600 eine kurze Lebenszeit (~6Monate) haben wird.
Der Abstand G80 - R600 soll sich also verringern in zukünftigen Spielen, tja aber dann kauft man ihn sich ja trotzdem nicht.

Vieleicht wir der R650 ja ein 24TMU GPU, vor ca. einem Jahr muss ATI ja schon drauf gekommen sein das sie da ein Spätzünder gebaut haben und die Zeit sollte reichen um den Refresh entsprechend aufzubohren.
Wohlgemerkt wenn es damals aufgefallen ist, vom nV40 zum G70 ging es ja auch relativ einfach und billig, das Kunststück könnte der R650 auch schaffen. Dann ist man auch nicht mehr so sehr auf die hohen Taktraten angewiesen, das sehe ich eher als Hauptproblem des ganzen, den anderen Weg hat ja nV erfolgreich beschritten.

ATi wird ja diese TMUs wohl auch in zukünftigen GPU (hoffentlich in größerer Zahl) einsetzen.

Gast
2007-05-17, 13:22:04
Wir werden sehen ob die TMUs das halten was sie versprechen, sehen tun wir davon aktuell gar nichts. Aber ich denke und hoffe das sie die TMUs nochmal ein wenig umbauen mit R700, die Winkelabhängigkeit find ich nicht gut. Und A.I. riecht immer ein wenig nach Spielereien am AF, denke das man da jetzt sehr genau hinsehen muss bei neueren Treibern.

Was aus der XTX geworden ist weis niemand oder? Das Stepping A15? ist anscheinend erstmal von der Bildfläche verschwunden und Stepping A13 ist auf allen 2900XT Karten verbaut.

Auf den RV670 bin ich auch gespannt, er wird sich mit irgendeinem G9x Derivat mit 256Bit SI schlagen dürfen und beide werden vieleicht die 8800GTS ablösen können.

PCGH_Carsten
2007-05-17, 13:26:40
Ich sage nur, dass der Abstand mit "höherwertigen" Filtern geringer wird, wodurch es nachvollziehbar ist, dass AMD angeblich auf einer Folie "Qualität statt Quantität" fordern, um den Nachteil zu mildern.
Mit trilinearer Filterung wird er doch erstmal gar nicht geringer - nirgends. Oder meinst du mit Filterung höherwertiger Texturen?


ATi wird ja diese TMUs wohl auch in zukünftigen GPU (hoffentlich in größerer Zahl) einsetzen.
Das wird Nvidia vermutlich aber auch tun. Und in G86/G84 haben sie ja bereits damit angefangen, die Zahl der TAs zu erhöhen (oder die Zahl der TFs zu senken - wie mans nun dreht) und wieder ein 1:1-Verhältnis von TA und TF zu nutzen. Warum - das ist mir allerdings noch nicht so recht klar.

reunion
2007-05-17, 13:39:07
Mit trilinearer Filterung wird er doch erstmal gar nicht geringer - nirgends. Oder meinst du mit Filterung höherwertiger Texturen?


Ja natürlich.

Fetza
2007-05-17, 13:55:22
Ja, ich durfte mal einen Blick drauf werfen.

Wobei die Maßnahme die man gegen "the lack of texture power in the current design" treffen will mir momentan etwas unklar ist und wohl auch nicht dem entspricht was sich hier die meisten vorstellen.

Hmm gut, dann habe ich nichts gesagt =)

So wie es aussieht, muss mein g71 wohl doch noch was halten ;(

reunion
2007-05-18, 11:37:55
Der R600 ist veröffentlicht, Gerüchten zufolge steht in vier Monaten der Refresh an.

Was denkt Ihr, hat ATi beim R650 mehr Füllrate geplant? Wie wird der R650 aussehen?

"Nur" mehr Takt, oder auch mehr TMUs / ROPs? Was sind sonst so für Verbesserungen zu erwarten?

Wird der R650 wirklich im September 2007 erscheinen?

Fragen über Fragen, zu denen die ein oder andere Spekulation nicht schaden dürfte...

Ich hoffe das läuft ähnlich wie bei der R5xx-Architektur ab, und R650 wird 4xRV630. :D
Das würde die doppelte TMU-Zahl bedeuten, und 96 5D ALUs (+50%). Transistorenanzahl: ~ 1 Milliarde.

deekey777
2007-05-18, 11:44:00
Und ich habe das Gefühl, dass der R650 der eigentliche R600 A15 sein wird. Kein Shrink, keine Verbesserungen, nichts. Oder kommt noch ein R680?
Ich bin kein Spieleentwickler, aber wurden die R5xx-Chips nicht dafür kritisiert, keine fp-Filterung zu beherrschen?
Hier im Forum gab's Kritik. Und sonst gab's nur von nVidia paar kritische Worte.

reunion
2007-05-18, 12:12:09
Sagte Orton nicht mal was von "up to 96 Shader units in future releases"? :D
Und das war noch, bevor der Skalarwahn aufkam.

deekey777
2007-05-18, 12:18:50
Sagte Orton nicht mal was von "up to 96 Shader units in future releases"? :D
Und das war noch, bevor der Skalarwahn aufkam.
Orton hat das gesagt, als es noch ATi gab und der Aufkauf durch AMD noch ein Witz war. ;)

Coda
2007-05-18, 12:41:10
Ich hoffe das läuft ähnlich wie bei der R5xx-Architektur ab, und R650 wird 4xRV630. :D
Das würde die doppelte TMU-Zahl bedeuten, und 96 5D ALUs (+50%). Transistorenanzahl: ~ 1 Milliarde.
Und was soll das bringen, wenn das Ding eindeutig an der Texturfüllrate krankt?

AnarchX
2007-05-18, 12:44:47
Und was soll das bringen, wenn das Ding eindeutig an der Texturfüllrate krankt?

4x RV630(8TMUs) würde doch die Texelfüllrate verdoppeln?

Aber naja, AMD scheint jedenfalls nicht der Meinung zu sein, dass ihr Rückstand in der Texelfüllrate so groß ist, entsprechend auch die Verbesserung die R650 in diesem Bereich mit sich bringen wird. :|

Gast
2007-05-18, 12:45:20
G80 halbiert also in wesentlich mehr Fällen seine Texelfüllrate als R600.

Das stimmt doch garnicht.
Da der G80 nur über 32 Addressierungeinheiten verfügt, wird er seine Texelfüllraten in den gleichen Fällen halbieren wie der r600. Der Unterschied ist doch, dass die 8800GTX über doppelt soviele Filterungseinheiten als Adressierungseinheiten verfügt und somit "trilinear" für fast "4free" anbieten kann. Sobald FP16 Texturen bilinear gefiltert werden, halbiert sich nicht seine Texelfüllrate, da die 64 INT8 auf "32 FP16" Einheiten schrumpfen und somit das Verhältnis zwischen AE und FE 1:1 ist - genauso wie bei der 2900XT. Nur, dass die GTX eben 32:32 und die 2900XT 16:16 hat.

up¦²
2007-05-18, 12:45:28
AMD geht doch ganz andere Wege: da wird nix mehr groß kommen, außer Dieshrink 65nm usw.
Die eine centrale GPU als single Core ist nur noch quasi ein Rückzugsgefecht :wink:
Der R700 soll genauso "revolutionär" sein wie seinerzeit 3dfx oder SLI:
Keine Grakas mehr!
GPU macht platz für "Cluster", die direkt auf dem Mobo gruppiert sind :eek:
von low nach high eind => 4 , 8 oder 12 Stück

Das ist kein Scherz gewesen: ein AMD TSUNAMI wird kommen

reunion
2007-05-18, 12:52:16
Und was soll das bringen, wenn das Ding eindeutig an der Texturfüllrate krankt?

RV630 hat eine wesentlich höhere Texelfüllrate im Verhältnis zur ALU-Leistung als R600. Ich verstehe also nicht, was du sagen willst.


Das stimmt doch garnicht.


Achja?


Da der G80 nur über 32 Addressierungeinheiten verfügt, wird er seine Texelfüllraten in den gleichen Fällen halbieren wie der r600.


Bei bi Filterung ja, bei tri oder höher nein. Nur wo wird heute noch max. bi ohne AF und mit einer Texturschicht gefiltert?


Der Unterschied ist doch, dass die 8800GTX über doppelt soviele Filterungseinheiten als Adressierungseinheiten verfügt und somit "trilinear" für fast "4free" anbieten kann.


Soweit geh ich mit, solange du von FX8 ausgehst.


Sobald FP16 Texturen bilinear gefiltert werden, halbiert sich nicht seine Texelfüllrate, da die 64 INT8 auf "32 FP16" Einheiten schrumpfen und somit das Verhältnis zwischen AE und FE 1:1 ist - genauso wie bei der 2900XT. Nur, dass die GTX eben 32:32 und die 2900XT 16:16 hat.

Siehe oben, nur bei bi-Filterung. Mit FP16 Texturen halbiert sich sehrwohl die Texelfüllrate, solange mindestens tri gefiltert wird. Im übrigen ist das Verhältnis bei R600 32:16, also 2:1.

Gmax
2007-05-18, 13:03:42
AMD geht doch ganz andere Wege: da wird nix mehr groß kommen, außer Dieshrink 65nm usw.
Die eine centrale GPU als single Core ist nur noch quasi ein Rückzugsgefecht :wink:
Der R700 soll genauso "revolutionär" sein wie seinerzeit 3dfx oder SLI:
Keine Grakas mehr!
GPU macht platz für "Cluster", die direkt auf dem Mobo gruppiert sind :eek:
von low nach high eind => 4 , 8 oder 12 Stück

Das ist kein Scherz gewesen: ein AMD TSUNAMI wird kommen

Deine Idee hat was. Will man mehr Leistung, steckt man einfach ein weiteres Modul dazu. So muß man seine etwas ältere Graka nicht gleich entsorgen, sondern es wird aufgestockt.
Bezüglich des R65o glaube ich, daß wenn mehr Einheiten in den Chip integriert werden sollten, der Stromverbrauchsvorteil wieder flöten geht.
Der Name suggeriert aber keine Änderung an der Architektur, sonst würde er logischerweise R68o heißen.

Gast
2007-05-18, 13:05:33
Achja?

Ja...

Bei bi Filterung ja, bei tri oder höher nein.

Der r600 halbiert seine Texelfüllrate ebenfalls bei "tri oder höher". Der g80 dagegen bleibt auf dem selben Niveau wie bei einer bilinearen Filterung.

Siehe oben, nur bei bi-Filterung. Mit FP16 Texturen halbiert sich sehrwohl die Texelfüllrate, solange mindestens tri gefiltert wird.

Wie auf dem r600.
FP16 Texturen können auf beiden Karten in "einem" Takt bilinear gefiltert werden. Die Texelfüllrate ist also mit der von INT8 ähnlich. Sobald trilineare Filterung eingesetzt wird, halbiert sich die Texelfüllrate auf beiden Karten (FP16).
Ich sehe daher nicht, warum sich die Texelfüllrate des G80's in mehreren Fällen als beim r600 halbieren sollte.

reunion
2007-05-18, 13:14:31
Der r600 halbiert seine Texelfüllrate ebenfalls bei "tri oder höher". Der g80 dagegen bleibt auf dem selben Niveau wie bei einer bilinearen Filterung.



Wie auf dem r600.
FP16 Texturen können auf beiden Karten in "einem" Takt bilinear gefiltert werden. Die Texelfüllrate ist also mit der von INT8 ähnlich. Sobald trilineare Filterung eingesetzt wird, halbiert sich die Texelfüllrate auf beiden Karten (FP16).
Ich sehe daher nicht, warum sich die Texelfüllrate des G80's in mehreren Fällen als beim r600 halbieren sollte.

Das ist doch Haarspalterei. Du tust so, als ob G80 seine 64 Filtereinheiten bei FX8 gar nicht ausnützen könnte, was aber nicht stimmt. Im Endeffekt verhält es sich in der Praxis so (solange mind. tri gefiltert wird) was die peak-Leistung betrifft:

FX8:
G80: 18400MPixel/s tri
R600: 5936MPixel/s tri

>FX8:
G80: 9200MPixel/s tri
R600: 5936MPixel/s tri

up¦²
2007-05-18, 13:15:34
Es würde mich mal interessieren was aus den MXM-Experimenten von MSI geworden ist.
Zweitens, ob es Mobos gibt, die "hot plug" geschaltete Graka schon haben (war bei einigen Lappies schon möglich)
Wäre bei CF doch sinnvoll...

deekey777
2007-05-18, 13:19:44
Igrendwie dachte ich, das Posting wäre älter, darum jetzt ein Extra-Posting. ;(
Ich hoffe das läuft ähnlich wie bei der R5xx-Architektur ab, und R650 wird 4xRV630. :D
Das würde die doppelte TMU-Zahl bedeuten, und 96 5D ALUs (+50%). Transistorenanzahl: ~ 1 Milliarde.
Es würde gar nichts bedeuten. Auch fehlt dem R600 nicht nur die Texelfillrate, sondern auch die Pixelfillrate.
Was ATi sich bei der Entkpplung der TMUs gedacht hat, ist mir ein Rätsel. Klar, damit kann man prima die Latenz verstecken, aber der "Command-Processor" der TUs ist für diese ausgelegt. Sprich: Kann der "TU-Scheduler" überhaupt mit mehr TUs umgehen? Ich bezweifle dies.
Schau dir einfach den Wechsel vom R520 zum R580: Da wurde nichts großartiges verändert, man ließ alles beim Alten. Durch die Verdreifachung der ALUs stieg zwar die Threadgröße, aber es blieb bei maximal 512 Threads. Beim R600-Design scheint alles auf maximal vier Einheiten ausgelegt zu sein: 4 SIMDs, 4 TUs, 4 RBEs. Wenn man mehr als vier haben will, muss wirklich alles verändert werden.

Gmax
2007-05-18, 13:21:34
Es würde mich mal interessieren was aus den MXM-Experimenten von MSI geworden ist.
Zweitens, ob es Mobos gibt, die "hot plug" geschaltete Graka schon haben (war bei einigen Lappies schon möglich)
Wäre bei CF doch sinnvoll...

Genau so etwas wie MSIs Lösung hatte ich auch im Hinterkopf.

Gast
2007-05-18, 13:24:48
Das ist doch Haarspalterei. Du tust so, als ob G80 seine 64 Filtereinheiten bei FX8 gar nicht ausnützen könnte, was aber nicht stimmt.

Es stimmt, da er nur 32 Texel erzeugen kann. Erst bei 2xbiAF oder trilinearer Filterung kann er alle Filtereinheiten ausnutzen.

Im Endeffekt verhält es sich in der Praxis so (solange mind. tri gefiltert wird) was die peak-Leistung betrifft:
FX8:
G80: 18400MPixel/s tri
R600: 5936MPixel/s tri

>FX8:
G80: 9200MPixel/s tri
R600: 5936MPixel/s tri

Und hier haben wir wieder die selektive Betrachtung. Bei einer bilinearen Filterung sieht es so aus:

FX8:
G80: 18400MPixel/s bi
R600: 11872Pixel/s bi

>FX8:
G80: 18400MPixel/s bi
R600: 11872MPixel/s bi

Welche Karte halbiert seine Füllrate nun öfters? Ich zähle zwei Halbierungen beim r600 und eine Halbierung beim G80.
Und das bringt uns wieder zur Ausgangslage, dass deine Aussage falsch ist.

AnarchX
2007-05-18, 13:33:38
Es stimmt, da er nur 32 Texel erzeugen kann. Erst bei 2xbiAF oder trilinearer Filterung kann er alle Filtereinheiten ausnutzen.


Was man bei einer GraKa in dieser Preisklasse wohl kaum inaktiv hat. ;)

Gast
2007-05-18, 13:36:35
Was man bei einer GraKa in dieser Preisklasse wohl kaum inaktiv hat. ;)

Darum geht es nicht. :)

reunion
2007-05-18, 13:38:28
Darum geht es nicht. :)

Doch genau darum geht es zum 100sten mal! In der Praxis werden alle 64 Filtereinheiten auch bei FX8 ausgenutzt, da mind. tri gefiltert wird, und deshalb ist meine Rechnung richtig, und du versuchst jetzt durch Haarspaltereien irgendwie doch recht zu haben.


Es stimmt, da er nur 32 Texel erzeugen kann. Erst bei 2xbiAF oder trilinearer Filterung kann er alle Filtereinheiten ausnutzen.



Und hier haben wir wieder die selektive Betrachtung. Bei einer bilinearen Filterung sieht es so aus:

FX8:
G80: 18400MPixel/s bi
R600: 11872Pixel/s bi

>FX8:
G80: 18400MPixel/s bi
R600: 11872MPixel/s bi

Welche Karte halbiert seine Füllrate nun öfters? Ich zähle zwei Halbierungen beim r600 und eine Halbierung beim G80.
Und das bringt uns wieder zur Ausgangslage, dass deine Aussage falsch ist.

Einfach nur lächerlich. Du wirfst mit selektive Wahrnehmung vor, und suchst dir selber irgendeinen in der Praxis in keinster Weise relevanten Fall - also wenn das nicht selektive Wahrnehmung ist?!

Gast
2007-05-18, 13:45:48
und du versuchst jetzt durch Haarspaltereien irgendwie doch recht zu haben - lächerlich.

Nein, ich möchte dir nur zeigen, dass deine Aussage - "G80 halbiert also in wesentlich mehr Fällen seine Texelfüllrate als R600" - falsch ist.
Wenn du mit tri arbeiten willst, dann halbiert sich die Texelfüllrate beim r600 ebenfalls zweimal - einmal bei FX8 und einmal darüber. Bei den GTX und GTS Karten halbiert sich die Texelfüllrate nur bei >FX8. Das macht für mich ein Verhältnis von 2:1(r600/GTX).
Deine Aussage ist falsch!
Und für mich ist hier Ende, da wir unsere Argumente und Beispiele zur Stützung der These hervorgebracht haben. Es kann sich also jeder ein Bild davon machen, wer richtig und wer falsch liegt.

Gast
2007-05-18, 13:48:15
Einfach nur lächerlich. Du wirfst mit selektive Wahrnehmung vor, und suchst dir selber irgendeinen in der Praxis in keinster Weise relevanten Fall - also wenn das nicht selektive Wahrnehmung ist?!

Es ist selektiv, da sich die Texelfüllrate beim r600 von bilinear auf trilinear halbiert. Da nur trilinear darstellst, verzehrst du die Wirklichkeit. Das ist selektive Wahrnehmung.
Da der r600 nur in einem Takt bilinear Filtern kann, muss ebenfalls auch die Texelfüllrate unter der bilinearen Filterung als Vergleich herangezogen werden. Und da zeigt sich eben, dass sich bei den 8800 Karten eben nicht öfters die Texelfüllrate halbiert als beim r600 - eher andersrum.

reunion
2007-05-18, 13:58:50
Es ist selektiv, da sich die Texelfüllrate beim r600 von bilinear auf trilinear halbiert. Da nur trilinear darstellst, verzehrst du die Wirklichkeit. Das ist selektive Wahrnehmung.
Da der r600 nur in einem Takt bilinear Filtern kann, muss ebenfalls auch die Texelfüllrate unter der bilinearen Filterung als Vergleich herangezogen werden. Und da zeigt sich eben, dass sich bei den 8800 Karten eben nicht öfters die Texelfüllrate halbiert als beim r600 - eher andersrum.

Nur das in der heutigen Zeit, wo mehrere Texturschichten verwendet werden, trilinear und anisotrop gefiltert wird, einzig und alleine der tri-Wert relevant ist. Aber träume ruhig weiter deinen Traum von bilinearen Texturen oder Point Sampling.

Gast
2007-05-18, 14:00:34
Nur das in der heutigen Zeit, wo mehrere Texturschichten verwendet werden, trilinear und anisotrop gefiltert wird, einzig und alleine der tri-Wert relevant ist.

Dann sind es 8 Filtereinheiten gegen 32 Filtereinheiten, bzw. bei einer höhreren Genauigkeit 8 Filtereinheiten gegen 16 Filtereinheiten. Dann ist deine Aussage natürlich richtig... :ugly:

reunion
2007-05-18, 14:01:36
Dann sind es 8 Filtereinheiten gegen 32 Filtereinheiten, bzw. bei einer höhreren Genauigkeit 8 Filtereinheiten gegen 16 Filtereinheiten. Dann ist deine Aussage natürlich richtig... :ugly:

Genau so ist es auch pro Takt in der Praxis.

Gast
2007-05-18, 14:04:15
Genau so ist es auch pro Takt in der Praxis.

Dann sehe ich überhaupt keinen Nachteil, dass die Texelfüllrate sich bei der GTS und der GTX halbiert - sie liegt immernoch auf dem gleichen bzw. höhreren Niveau.

Coda
2007-05-18, 14:04:24
Nur das in der heutigen Zeit, wo mehrere Texturschichten verwendet werden, trilinear und anisotrop gefiltert wird, einzig und alleine der tri-Wert relevant ist. Aber träume ruhig weiter deinen Traum von bilinearen Texturen oder Point Sampling.
Und wo zu >90% DXT/RGBA8-Texturen verwendet werden, also 8 Bit pro Komponente.

Die Streiterei ist also völlig sinnfrei, weil die überlegene Füllrate von G80 in der Tat auch in der Praxis vorhanden ist. Bei dir klingt das gerade so, als wäre das nur in irgendwelchen Spezialfällen so. Ist es nicht.

reunion
2007-05-18, 14:09:46
Dann sehe ich überhaupt keinen Nachteil, dass die Texelfüllrate sich bei der GTS und der GTX halbiert - sie liegt immernoch auf dem gleichen bzw. höhreren Niveau.

Das habe ich auch nie anders behauptet. Nur wie schon gesagt, es ist für R600 von Vorteil, wenn höherwertige Texturen zum Einsatz kommen, da dann der Vorsprung nicht mehr so erdrückend ist.

Und wo zu >90% DXT/RGBA8-Texturen verwendet werden, also 8 Bit pro Komponente.

Die Streiterei ist also völlig sinnfrei, weil die überlegene Füllrate von G80 in der Tat auch in der Praxis vorhanden ist. Bei dir klingt das gerade so, als wäre das nur in irgendwelchen Spezialfällen so. Ist es nicht.

Ich habe weder etwas anderes gesagt, noch dies angedeutet, oder andeuten wollen. Eben weil G80 auch unter FX8 seine 64 Filtereinheiten in der Praxis ausspielen kann, sehe ich keine Grund, hier mit bi-Werten anzutanzen.

Coda
2007-05-18, 14:12:00
Ja. Und wozu muss man das endlos breittreten, wenn es eh auch zu Lebzeiten von R600 keine große Relevanz haben wird?

reunion
2007-05-18, 14:15:20
Ja. Und wozu muss man das endlos breittreten, wenn es eh auch zu Lebzeiten von R600 keine große Relevanz haben wird?

Ich trete überhaupt nichts endlos breit, ich habe nur wegen der Aussage von AnarchX einmal kurz erwähnt, dass das Sinn macht, wodurch ich ständig von irgendwelchen Gästen attackiert wurde, dass das nicht stimmt, was einfach falsch ist, und was ich deshalb auch sicher nicht so stehen lasse.

Gast
2007-05-18, 14:19:02
Eben weil G80 auch unter FX8 seine 64 Filtereinheiten in der Praxis ausspielen kann, sehe ich keine Grund, hier mit bi-Werten anzutanzen.

Es liegt nicht an der Genauigkeit sondern an der Art der Filterung. Der G80 kann nur 32 Texel erzeugen - egal ob mit bilinearer oder trilinearer Filterung.
Du tust so, als ob er auch mit bilinearer Filterung mehr als 32 Texel erzeugen könnte, jedoch ist dies falsch (siehe dazu die unzähligen Testergebnisse).
Bei den 8800 Karten halbiert sich wie bei der 2900XT Karte nicht die Texelfüllrate, wenn FP16 Texturen bilinear gefiltert werden!

reunion
2007-05-18, 14:24:31
Es liegt nicht an der Genauigkeit sondern an der Art der Filterung. Der G80 kann nur 32 Texel erzeugen - egal ob mit bilinearer oder trilinearer Filterung.
Du tust so, als ob er auch mit bilinearer Filterung mehr als 32 Texel erzeugen könnte, jedoch ist dies falsch (siehe dazu die unzähligen Testergebnisse).
Bei den 8800 Karten halbiert sich wie bei der 2900XT Karte nicht die Texelfüllrate, wenn FP16 Texturen bilinear gefiltert werden!

Oh Mann. Haarspalterei, nichts weiter. Ich sehe keine Grund, die TMUs des G80 nicht als 64 anzusehen, da ohnehin immer mind. tri gefiltert wird.

Gast
2007-05-18, 14:32:30
Oh Mann. Haarspalterei, nichts weiter. Ich sehe keine Grund, die TMUs des G80 nicht als 64 anzusehen, da ohnehin immer mind. tri gefiltert wird.

Du kannst etwas betrachten, wie du möchtest. Aber deine Ansicht muss nicht der Wahrheit entsprechen. Bei der trilinearen Filterung von INT8 Texturen wären es trotzdem nur 32 "TMUs", da die Karte eben nur 32 Texel in einem Takt erzeugen kann. Es bleiben auch nur 32 "TMUs", da die Architektur bei bilinearer Filterung ebenfalls nur 32 texel erzeugen kann. Schlussendlich bleibt übrig, dass der r600 nach deiner Betrachtung 8 "TMUs" hat, die INT8 Texturen in einem Takt trilinear filtern können und die 8800GTX 32 "TMUs" hat, die INT8 Texturen in einem Takt trilinear filtern können. Bei höhrerer Genauigkeit halbiert sich die Texelleistung der 8800GTX Karte - richtig.
Da aber INT8 das zur Zeit meistverwendete Format ist, hat die 8800GTX (sowie die GTS) einfach die höhrere Texturleistung.
Achja, und wenn wir nur >INT8 betrachten, halbiert sich bei beiden Architekturen immer die Texturleistung... :ugly:

Coda
2007-05-18, 14:58:32
Ich glaub Reunion hat es eigentlich schon richtig verstanden, drückt sich aber sagen wir... negativer aus (Das Glas ist halb voll oder halb leer...). Die Streiterei ist also unnötig.

Gast
2007-05-18, 15:05:46
Ich glaub Reunion hat es eigentlich schon richtig verstanden, drückt sich aber sagen wir... negativer aus (Das Glas ist halb voll oder halb leer...). Die Streiterei ist also unnötig.

Aus meiner Sicht liegt das Problem eher daran, dass er die Architektur der 8800 Karten anders versteht als sie in Wirklichkeit ist. Und dadurch die Fehleinschätzung entsteht, dass bei den 8800 Karten sich öfters die Texelfüllrate halbieren würde.

reunion
2007-05-18, 15:19:44
Schlussendlich bleibt übrig, dass der r600 nach deiner Betrachtung 8 "TMUs" hat, die INT8 Texturen in einem Takt trilinear filtern können und die 8800GTX 32 "TMUs" hat, die INT8 Texturen in einem Takt trilinear filtern können. Bei höhrerer Genauigkeit halbiert sich die Texelleistung der 8800GTX Karte - richtig.
Da aber INT8 das zur Zeit meistverwendete Format ist, hat die 8800GTX (sowie die GTS) einfach die höhrere Texturleistung.


Soweit geh ich mit.

Aus meiner Sicht liegt das Problem eher daran, dass er die Architektur der 8800 Karten anders versteht als sie in Wirklichkeit ist.


Blödsinn, du konstruierst irgendwelche Situationen mit bi-Filterung, die einfach nicht praxisrelevant sind. Letztendlich bleibt das ansichtssache.


Und dadurch die Fehleinschätzung entsteht, dass bei den 8800 Karten sich öfters die Texelfüllrate halbieren würde.

Sofern tri gefiltert wird, ist das auch der Fall.

[dzp]Viper
2007-05-18, 15:20:35
Offtopic? :|

Gast
2007-05-18, 15:26:15
Blödsinn, du konstruierst irgendwelche Situationen mit bi-Filterung, die einfach nicht praxisrelevant sind. Letztendlich bleibt das ansichtssache.

Die 2900XT halbiert ihre Texelfüllrate schon bei der trilinearen Filterung von INT8 Texturen, aber dann nicht mehr bei FP16 Texturen.
Die 8800 Karten dagegen verlieren keine Texelfüllrate, wenn sie INT8 Texturen trilinear filtern. Dagegen geschieht die Halbierung der Texelfüllrate erst bei der trilinearen Filterung von FP16 Texturen. Es ist daher überhaupt kein Unterschied auszumachen. Das einzige was in diesem Fall zählt, ist die Verwendung von INT8 und >INT8 Texturen und somit der Rückgang des Vorteiles durch die doppelten Filtereinheiten bei den 8800 Karten.

Sofern tri gefiltert wird, ist das auch der Fall.

Abgesehen von >= FP16Texturen, wie soll dies bei der 32 Adressierungseinheiten und 64 INT8 Filtereinheiten gesehen?

mapel110
2007-05-18, 15:33:12
Viper;5505208']Offtopic? :|
Nö, es geht darum, was am R600 geändert werden muss, um die Texelfüllrate aufzubohren. Halbwegs interessante Begriiffe, aber verstehen tu ich nur die Hälfte. ^^

reunion
2007-05-18, 15:34:36
Frage: Hätte G80 auch 64 TAs, dann würdest du mir recht geben?

Gast
2007-05-18, 15:37:29
Frage: Hätte G80 auch 64 TAs, dann würdest du mir recht geben?

Natürlich, da die Filtereinheiten in einem Takt nur bilinear filtern können. Da die Karte dann 64 bilineare oder 32 trilineare gefilterte Texel erzeugen kann, wäre deine Ansicht richtig.
Aber das ist beim G80 nicht der Fall.

[dzp]Viper
2007-05-18, 15:38:38
Nö, es geht darum, was am R600 geändert werden muss, um die Texelfüllrate aufzubohren. Halbwegs interessante Begriiffe, aber verstehen tu ich nur die Hälfte. ^^

Achso - nagut dann lass ich euch mal weiter Fachsimpeln und duck mich derweile ab damit ich nicht von diesem Fachbegriffen getroffen werden.. die sind tödlich :D

reunion
2007-05-18, 15:47:55
Natürlich, da die Filtereinheiten in einem Takt nur bilinear filtern können. Da die Karte dann 64 bilineare oder 32 trilineare gefilterte Texel erzeugen kann, wäre deine Ansicht richtig.
Aber das ist beim G80 nicht der Fall.

Dann ist es aber umso mehr Haarspalterei, da es für tri Filterung völlig egal ist, ob der Chip jetzt 32 oder 64 TAs hat. Und wir sind uns doch hoffentlich einig, dass alles unter tri heute nicht mehr relevant ist. Letzendlich ist die einzige Differenz, dass ich bei G80 64 TMUs sehe, und du 32 "fette" - also Ansichtssache.

Gast
2007-05-18, 15:56:05
Letzendlich ist die einzige Differenz, dass ich bei G80 64 TMUs sehe, und du 32 "fette" - also Ansichtssache.

Dann müsste die Karte auch 64 Texel erzeugen können - was nicht der Fall.
Die Bezeichnung "fette TMUs" passt da schon eher, da die Karte maximal 32 Texel erzeugen kann und bei INT8 Texturen es unerheblich ist, ob diese bilinear oder trilinear gefiltert werden.

seahawk
2007-05-18, 15:59:47
Es werden maximal 32 Texel erzeugt, damit sind es 32 TMUs. Schon andere Beschränkungen die beim Erzeugen der 64 bi Sample greifen, mahcne eine Betrachtung als 64 TMUs unmöglich.

reunion
2007-05-18, 16:04:08
Es werden maximal 32 Texel erzeugt, damit sind es 32 TMUs.

Ein R600 kann genau wie ein G80 auch 32 Texel pro Takt adressieren - hat er also auch 32 TMUs? :)

Schon andere Beschränkungen die beim Erzeugen der 64 bi Sample greifen, mahcne eine Betrachtung als 64 TMUs unmöglich.

Welche Beschränkungen? Solange mind. tri gefiltert wird, gibt es keine Beschränkungen.

Gast
2007-05-18, 16:08:16
Ein R600 kann genau wie ein G80 auch 32 Texel pro Takt erzeugen - hat er also auch 32 TMUs? :)


Ja, Pointsampling...

seahawk
2007-05-18, 16:45:42
Ein R600 kann genau wie ein G80 auch 32 Texel pro Takt adressieren - hat er also auch 32 TMUs? :)


Wenn Du es so sehen möchtest. Allerdings hat man bisher immer die Bi-Samples gezählt und da kommt man dann auf 32 : 16.

reunion
2007-05-18, 16:54:04
Wenn Du es so sehen möchtest. Allerdings hat man bisher immer die Bi-Samples gezählt und da kommt man dann auf 32 : 16.

Er kann auch 32 bi/Tri/Anisotrop/etc Samples pro Takt adressieren, aber nur 16bi Samples pro Takt filtern.

Um mal wieder OnTopic zu kommen: R650 is improved and redesigned R600: Recognize the week points of R600 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1042&Itemid=1)

Coda
2007-05-18, 17:06:42
The major architectural difference is that R650 will have more texture power as this was recognizes as one of the weakest points of R600.
Na also. Dann noch die Bugs raus und sie sind wohl wieder konkurenzfähig, wenn auch wohl mit mehr Transistoren.

Nakai
2007-05-18, 17:15:24
Wiedermal abgeschrieben^^...

Der R650 wird eine sehr gute GPU werden, meine Vorstellung:

Die 16 BiTMUs mit 32 TAUs werde noch mit 16 TFUs erweitert, dann hat man 32 richtige TMUs.
Dann ein Takt von 900Mhz und dass Ding geht sehr ab.
Dann wird das elendige ROP-Problem gelöst und noch eine leicht geringeren Stromverbrauch.
Der R650 sollte vorallem in hohen Auflösungen und guten Qualitätsmodi dem R600 niedermachen...naja was auch klar ist.

mfg Nakai

AnarchX
2007-05-18, 17:21:00
Setzt mal besser nicht zu große Hoffnungen auf die "more texture power", es ist nicht unbedingt das, was sich wohl die meisten hier darunter vorstellen.

Aber trotzem sehe ich dem R650 durchaus positiv entgegen, wenn nicht NV mit G9x absolut an die Grenzen geht, was wohl eher auszuschliessen ist.

Coda
2007-05-18, 17:23:19
Hast du das aus ner öffentlichen Quelle, oder wie komst du darauf?

Gast
2007-05-18, 17:24:08
Dann rück raus damit. Was wird denn verändert?

reunion
2007-05-18, 17:25:09
Wiedermal abgeschrieben^^...

Der R650 wird eine sehr gute GPU werden, meine Vorstellung:

Die 16 BiTMUs mit 32 TAUs werde noch mit 16 TFUs erweitert, dann hat man 32 richtige TMUs.
Dann ein Takt von 900Mhz und dass Ding geht sehr ab.
Dann wird das elendige ROP-Problem gelöst und noch eine leicht geringeren Stromverbrauch.
Der R650 sollte vorallem in hohen Auflösungen und guten Qualitätsmodi dem R600 niedermachen...naja was auch klar ist.

mfg Nakai

Ich glaube nicht, dass Ati das Verhältnis der TAs zu den TFs ändern wird. Man hat sich bei R600 sicher was dabei gedacht, dieses Verhältnis so zu wählen, das lässt sich vermutlich auch nicht so einfach ändern. AFAIK braucht man die zusätzlichen Dinger, damit Shader, die nur ungefilterte Texturen benötigen, nicht unnötig die Filtereinheiten blockieren.

AnarchX
2007-05-18, 17:40:46
Hast du das aus ner öffentlichen Quelle, oder wie komst du darauf?

Ja, ich hatte das Glück entsprechendes Material einsehen zu dürfen, wenn aber auch nur einen beschränkten Teil.
Wenn auch die Informationen sehr gering waren, so waren sie doch eindeutig:

Offensichtlich wird es bei R650 keine Erhöhung der Funktionseinheiten gegenüber R600 geben, sondern die Leistungsfähigkeit dieser wird für bestimmte Aufgaben erhöht bzw. die Leistung wird auf das Niveau gebracht, welches eigentlich angedacht war.

Dies noch kombiniert mit dem 65nm Prozess und seinen Vorzügen, sieht doch gar nicht so schlecht aus oder?

seahawk
2007-05-18, 18:18:35
Setzt mal besser nicht zu große Hoffnungen auf die "more texture power", es ist nicht unbedingt das, was sich wohl die meisten hier darunter vorstellen.

Aber trotzem sehe ich dem R650 durchaus positiv entgegen, wenn nicht NV mit G9x absolut an die Grenzen geht, was wohl eher auszuschliessen ist.

Im Vergleich zum R600 sieht R650 gut aus, aber ich habe da schon einige Bedenken. Zum einen, die Taktsteigerung, zum anderen was kommt von NV.

Vor Präsentation des G80 hätte man einen solchen Chip in 90nm auch für äußerst grenzwertig gehalten.

Gast
2007-05-18, 18:56:59
Wiedermal abgeschrieben^^...
Der R650 wird eine sehr gute GPU werden, meine Vorstellung:


Hey, das hast du auch zum r600 gesagt. :ugly:

Fetza
2007-05-19, 04:41:51
Im Vergleich zum R600 sieht R650 gut aus, aber ich habe da schon einige Bedenken. Zum einen, die Taktsteigerung, zum anderen was kommt von NV.

Vor Präsentation des G80 hätte man einen solchen Chip in 90nm auch für äußerst grenzwertig gehalten.

Wenn ich mich recht erinnere, hast du vorgestern erst noch den r600 als ganz doll und doch durchaus besser als die gts bezeichnet. Wovon man bisher noch überhaupt nicht reden kann, wenn man sich die benchmark tabellen ansieht ;)

Nakai
2007-05-19, 11:40:30
Hey, das hast du auch zum r600 gesagt.

Ich will nicht Fudo schlecht dastehen lassen, imho schreibt er nur ab und versucht Gerüchte als Fakten dastehem zu lassen. Is ja sein Job.
Wenn er die Folie bekommen hätte, wäre die jetzt auf seiner Seite. Ist sie aber nicht, also abgeschrieben.

Ich glaube nicht, dass Ati das Verhältnis der TAs zu den TFs ändern wird. Man hat sich bei R600 sicher was dabei gedacht, dieses Verhältnis so zu wählen, das lässt sich vermutlich auch nicht so einfach ändern. AFAIK braucht man die zusätzlichen Dinger, damit Shader, die nur ungefilterte Texturen benötigen, nicht unnötig die Filtereinheiten blockieren.

Vll gingen ATI einfach die Transistoren aus und man hat versucht das irgendwie zu überdecken mit dem Hintergedanken, dass man mit dem Refresh dann alles in Ordnung bringt.

Offensichtlich wird es bei R650 keine Erhöhung der Funktionseinheiten gegenüber R600 geben, sondern die Leistungsfähigkeit dieser wird für bestimmte Aufgaben erhöht bzw. die Leistung wird auf das Niveau gebracht, welches eigentlich angedacht war.

Ich weiß nicht, was du gesehen hast, jedenfalls hat AMD/ATI tatsächlich von einer höheren Texturleistung, besseren Bandwidth-Usage, weniger Stromverbrauch und höheren Taktraten gesprochen.

Nur das man mit höherer Taktrate auch eine höhere Texelfüllrate erreicht.^^

mfg Nakai

Ailuros
2007-05-19, 14:54:17
Wer ueber die G8x/R6x0 Refreshes spekulieren will sollte vor allem den Stromverbrauch selbst unter hypothetischen 65nm im Hinterkopf behalten. Beide Designs muessen auch frueher oder spaeter in Schlepptops landen und das mehr dieses oder mehr anderes und so und so viel mehr Taktrate ist zwar schoen und gut aber fuer immer koennen sich beide IHVs nicht vor der effektiveren Kontrollierung des Stromverbrauchs nicht druecken.

Die naechst beste Frage waere dann wie viel Resourcen AMD aufweissen kann und will. Wenn beide IHVs tatsaechlich planen mit D3D10.1 GPUs anzutanzen und man wirklich Unkosten minimalisieren will, dann kommt es entweder zu keinem Refresh wie die meisten ihn hier erwarten oder eben nur ein sehr konservativer shrink.

seahawk
2007-05-19, 15:58:04
Ich tuie mich schwer mir diese Chips (egal von welchem IHV) im Mobile-Segment vorzustellen. Ich könnte mir vorstellen, das man die absoluten High-End-Desktops-Chips so bald gar nicht mehr als mobile Variante erleben wird und man eher die Performance-Chips in diesen Makrt läst - zur Not als SLI/Crossfire.

AnarchX
2007-05-19, 16:11:11
Ich tuie mich schwer mir diese Chips (egal von welchem IHV) im Mobile-Segment vorzustellen. Ich könnte mir vorstellen, das man die absoluten High-End-Desktops-Chips so bald gar nicht mehr als mobile Variante erleben wird und man eher die Performance-Chips in diesen Makrt läst - zur Not als SLI/Crossfire.

Wieso?
Schau dir doch einfach mal an was der RV630 verbraucht, da wird ganz schnell klar, dass der 80nm Prozess dem R600 wohl ziemlich übel mitgespielt hat.

paul.muad.dib
2007-05-19, 17:10:24
Ich denke mal ATI wird die TMUs so überarbeiten, dass sie 1 Tri oder 2x AF oder ein fp32 bi Sample pro Takt ausgeben können. Damit hätten sie eine effektive Verdopplung der Füllrate die relativ billig kommt.
Ansonsten halt 65 nm, 1000 Mhz Chiptakt und 1 GB GDDR4.

Erscheinen wird er wohl Ende Oktober.

robbitop
2007-05-19, 17:28:26
Naja sie haben ja 32 TAs. Wenn sie die Filterunits verdoppeln, ist das sicher nicht sooo teuer und man hat automatisch 32 bi Samples. Besser waere eine vervierfachung der Filterunits.

Nakai
2007-05-19, 17:31:08
Dann hätte man theoretisch 32 TMUs(32 TAUs und 32 TFUs).
Damit wäre ich sehr zufrieden, jedoch wird es wohl nicht so kommen.
Man versucht wohl nur die Einheiten für ihren Einsatzzweck zu optimieren.

mfg Nakai

reunion
2007-05-19, 17:45:08
Ich glaube nicht, dass sich am Verhältnis TAs/TFs was ändern wird. Die 16 TAs/TFs scheinen ganz normal die Texturfilterung zu übernehmen, und die anderen 16 TAs wie auch die Point Samplers scheinen parallel davon vollkommen unabhängig ausschließlich die Shader mit ungefilterten Texturen zu versorgen. Das ganze hat schon seinen Sinn, da kann man vermutlich nicht einfach 16 TFs dranflashen. Wenn schon, dann wird die Zahl der TMU-Quads erhöht.

Nakai
2007-05-19, 17:59:11
Naja, das wird dann wohl auch nicht geschehen. Ich glaube eher ATI will einen wirtschaftlichen Chip bauen, also sehr kleine Die-Fläche.
Wobei die Texelleistung bei 1Ghz auch nicht so schwach ist und dann noch ein paar Verbesserungen bei der Filterung unternommen werden, dann kann der R650
deutlich zulegen.

mfg Nakai

reunion
2007-05-19, 18:17:09
Ich glaube auch nicht, dass die 16 TFs das Hauptproblem sind. Dazu ist die Leistung des R600 viel zu unberechenbar. Mal bricht er wegen des AFs extrem ein, und mal wegen AA. IMO hakt es da noch woanders gewaltig.

Gaestle
2007-05-21, 10:35:07
Wer ueber die G8x/R6x0 Refreshes spekulieren will sollte vor allem den Stromverbrauch selbst unter hypothetischen 65nm im Hinterkopf behalten. Beide Designs muessen auch frueher oder spaeter in Schlepptops landen und das mehr dieses oder mehr anderes und so und so viel mehr Taktrate ist zwar schoen und gut aber fuer immer koennen sich beide IHVs nicht vor der effektiveren Kontrollierung des Stromverbrauchs nicht druecken.

Die naechst beste Frage waere dann wie viel Resourcen AMD aufweissen kann und will. Wenn beide IHVs tatsaechlich planen mit D3D10.1 GPUs anzutanzen und man wirklich Unkosten minimalisieren will, dann kommt es entweder zu keinem Refresh wie die meisten ihn hier erwarten oder eben nur ein sehr konservativer shrink.

Das würde ja eigentlich sehr gut zur Aussage "Wir bessern den R600 nach und verkleinern die Strukturgröße" passen. Etwas mehr Leistung (bzw. "Lösen der Handbremse") durch das Nachbessern + weniger Stromverbrauch durch die kleiner Strukturgröße...

Da ich davon ausgehe, dass die Entwicklung des R650 zum einem großen Teil parallel zu jener von R600 gelaufen ist, stellt sich für mich die Frage, inwieweit die "Handbremse" des R600 schon in dessen Entwicklungsprozess abzusehen war, so dass man dies bei der Entwicklung des "Refreshs" (der ja in meiner Theorie größtenteils parallel entwickelt wurde) berücksichtigen und diese "Handbremse" lösen konnte.

robbitop
2007-05-21, 11:50:19
Ich glaube auch nicht, dass die 16 TFs das Hauptproblem sind. Dazu ist die Leistung des R600 viel zu unberechenbar. Mal bricht er wegen des AFs extrem ein, und mal wegen AA. IMO hakt es da noch woanders gewaltig.
Das liegt an den unterschiedlichen Flaschenhaelsen die die jeweiligen Szenen und Spiele haben. ;)

Gast
2007-05-21, 12:05:37
Das liegt an den unterschiedlichen Flaschenhaelsen die die jeweiligen Szenen und Spiele haben. ;)

Das ist schon klar, nur ist der Einbruch viel zu extrem. Ein R600 kann nicht langsamer werden als ein R580 - weder bei AA, noch bei AF.

robbitop
2007-05-21, 12:09:41
Ausser bei CPU limitierten Messungen mit leichter Messtoleranz war das bei meinen Messungen nie der Fall. (ich meine jetzt allerdings nur reines MSAA)

Gmax
2007-05-21, 12:25:42
R650 has more texture power (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1074&Itemid=1)

Gast
2007-05-21, 12:30:06
Ausser bei CPU limitierten Messungen mit leichter Messtoleranz war das bei meinen Messungen nie der Fall. (ich meine jetzt allerdings nur reines MSAA)

Mag sein, bei anderen ist das allerdings sehrwohl der Fall. Teils bricht R600 nur wegen AA extrem ein, und teils nur wegen AF und fällt dabei immer wieder hinter einem R580. Die Leistung ist IMHO viel zu inkonstant, als das sich das mit den verschiedenen Limitierungen erklären lassen würde. Im übrigen müsste gerade MSAA eine stärke des R600 sein, immerhin können die ROPs im Gegesatz zu R580 single-cycle 4xMSAA und die Bandbreite ist auch deutlich gestiegen. Diese Ergebnisse sind inakzeptabel, und entsprechen IMHO in keinster Weise dem Potential der Hardware. Entweder wurde da am Design möächtig was verpfuscht, und/oder die Treiber sich im Eimer.

seahawk
2007-05-21, 12:33:35
Können die ROPs das wirklich ?

Silverbuster
2007-05-21, 12:37:18
Ich tippe immer noch stark auf die Treiber. Das ist doch bei ATI fast üblich das die ersten Treiber nie so das wahre sind. Die Rechnerische Rohleistung ist bei der Karte sehr hoch ebenso wie die enorme Speicherbandbreite. Von daher kann ich mir das gar nicht anders erklären das die Karte so stark einbricht.
Denke das wir da in den nächsten 2 Monaten ein anderes Bild bekommen werden, das die 2900XT danna uch mit AA und FFA immer vor einer 8800GTS liegt. Eine GTX wird sie aber wohl kaum noch schlagen. Höchsten näher ran rücken. Wen dann der Preis noch stimmt, past es ja.

Das der 650 etwas anderes als eine Shrinkverkleinerung ist, ähnlich wie beim wechsel von R580 auf R570, glaube ich kaum. Denke nicht das wir hier was neues beim Chip sehen werden. Höhere Taktraten, kühler und vielleicht etwas weniger Stromverbrauch. Wobei ich an letzterem etwas zweifel und mir da nicht viel erhoffe. Vom R580 auf R570 konnte manauch kaum eine Stromersparniss nennen. Gut, von 90nm auf 80nm ist kein großer Sprung, aber das eine X1950pro eigentlich genauso viel Strom verbraucht wie eine X1900GT hat mich dann doch überrascht.

Coda
2007-05-21, 13:56:11
Können die ROPs das wirklich ?
Ziemlich sicher, da es kein 6xMSAA mehr gibt.

seahawk
2007-05-21, 14:14:13
Laut ATI sogar 8xMSAA. Was aber durch die Nutzung der Shader fürs MSAA resolve imho dann wieder mit gewissen Einschränkungne zu sehen ist, da die ROPs eben noch nicht mal den Boxfiltewr alleine anwenden können.

Und wenn ich mir das so durchlese, dann frage ich mich in wie weit diese gegenwärtige notwendigkeit die Effizienz der gesamten Architektur beeinträchtigt.

http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=ja_en&trurl=http://pc.watch.impress.co.jp/docs/2007/0518/kaigai359.htm

robbitop
2007-05-21, 15:44:40
Mag sein, bei anderen ist das allerdings sehrwohl der Fall. Teils bricht R600 nur wegen AA extrem ein, und teils nur wegen AF und fällt dabei immer wieder hinter einem R580. Die Leistung ist IMHO viel zu inkonstant, als das sich das mit den verschiedenen Limitierungen erklären lassen würde. Im übrigen müsste gerade MSAA eine stärke des R600 sein, immerhin können die ROPs im Gegesatz zu R580 single-cycle 4xMSAA und die Bandbreite ist auch deutlich gestiegen. Diese Ergebnisse sind inakzeptabel, und entsprechen IMHO in keinster Weise dem Potential der Hardware. Entweder wurde da am Design möächtig was verpfuscht, und/oder die Treiber sich im Eimer.
Hast du mal einen Link? Ich habe diese Benches ausser in der Disziplin AAA noch nicht gesehen. Die in den meisten Benches, die ich sah, war das nicht der Fall.

Laut ATI sogar 8xMSAA.

Aber nicht single-cycle.

reunion
2007-05-21, 17:28:06
Hast du mal einen Link? Ich habe diese Benches ausser in der Disziplin AAA noch nicht gesehen. Die in den meisten Benches, die ich sah, war das nicht der Fall.


zB hier:
http://www.hexus.net/content/item.php?item=8687&page=7

seahawk
2007-05-21, 19:50:25
Man sieht deutlich, das es ein AA Problem ist

http://www.hexus.net/content/item.php?item=8687&page=9

robbitop
2007-05-21, 22:40:17
Ja ok und gibts noch benches, ausser Hexus, die diesen Vorfall belegen koennen? (Eine Seite kann sich ja mal vermessen)

mapel110
2007-05-21, 22:44:08
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=19

dildo4u
2007-05-21, 22:49:25
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/page13.asp

robbitop
2007-05-21, 22:53:17
Danke. Ja auch die AA Skalierung bei CB spricht fuer einen Bug beim AA.

Demirug
2007-05-21, 23:06:52
Ich könnte ja jetzt böse sein und sagen das ATIs andere unified shader chip keine AA Kompression hat. Damit man einen down sample in den Shadern durchführen kann und damit auch die D3D10 Forderung nach einem direkten Sample zugriff erfüllt muss man entweder ohne Kompression speichern oder die Textureinheiten müssen in der Lage sein dieses Kompressionsformat zu lesen.

robbitop
2007-05-21, 23:39:14
Also verfuegt der R600 nichtmehr ueber color compression?

Demirug
2007-05-21, 23:41:06
Also verfuegt der R600 nichtmehr ueber color compression?

Keine Ahnung aber es wäre eine Erklärung für die Leistungsprobleme beim AA.

robbitop
2007-05-21, 23:44:58
In dem Falle waere es auch ueber zukuenftige Treiber nicht verbesserbar. :(

Gaestle
2007-05-22, 15:17:23
Also verfuegt der R600 nichtmehr ueber color compression?


Gibt's speziell dafür einen Test?

AnarchX
2007-05-22, 15:23:17
Also verfuegt der R600 nichtmehr ueber color compression?

Dann würde aber doch ATi in den Blockschaltbildern lügen?

reunion
2007-05-22, 15:31:48
Dann würde aber doch ATi in den Blockschaltbildern lügen?

Eben. Außerdem treten diese Leistungsprobleme nicht immer und überall auf, sondern nur in speziellen Szenarien.

BlackBirdSR
2007-05-22, 15:47:09
Wäre dann aber auch eine Erklärung, warum man gleich ein 512 Bit Speicherinterface wollte.

robbitop
2007-05-22, 15:47:15
Naja 4xAA ist bisher immer teurer als beim G80 oder beim R580 (im Verhaeltnis meine ich). Das duerfte bei single cycle 4x ROPs und einem 512 Bit SI eigentlich nicht der Fall sein.

Wäre dann aber auch eine Erklärung, warum man gleich ein 512 Bit Speicherinterface wollte.
Naja das waere dann aber ziemlich verschwenderisch.

Coda
2007-05-22, 15:52:00
Vor allem ist der Logikaufwand für so ein breites SI wohl deutlich höher als das bisschen was man braucht um Color zu dekomprimieren.

reunion
2007-05-22, 15:54:12
Naja 4xAA ist bisher immer teurer als beim G80 oder beim R580 (im Verhaeltnis meine ich). Das duerfte bei single cycle 4x ROPs und einem 512 Bit SI eigentlich nicht der Fall sein.


Richtig, nur kann ich mir bei besten Willen nicht vorstellen, dass man das bewusst so plant und umsetzt. Die Ingenieure bei ATi wissen doch höchstwahrscheinlich auch, wie sich das auswirken würde. Außerdem wird das in den Blockschaltbilder ja explizit erwähnt. Ich glaube weiterhin an einen Bug oder ein Treiberproblem - die AA-Leistung des R520 war zu beginn wegen eines fehlenden Profiles für den Speichercontroller auch mies.

m.sch
2007-05-23, 14:15:59
Also verfuegt der R600 nichtmehr ueber color compression?

Bei meiner 1950 pro ist es im ATT nicht aktiviert,ist das normal.
Treiber 7.4

w0mbat
2007-05-24, 14:34:30
Ist 12xAA mit der R600 Architektur machbar und wie könnte der R600 seine Bandbreite besser nutzen?

James Ryan
2007-05-24, 14:45:13
die AA-Leistung des R520 war zu beginn wegen eines fehlenden Profiles für den Speichercontroller auch mies.

Nicht so wirklich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/17/#abschnitt_splinter_cell_3

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/19/#abschnitt_far_cry

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/20/#abschnitt_half_life_2

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/23/#abschnitt_performancerating_qualitaet

MfG :cool:

Gaestle
2007-05-24, 15:09:30
Ich glaube weiterhin an einen Bug oder ein Treiberproblem - die AA-Leistung des R520 war zu beginn wegen eines fehlenden Profiles für den Speichercontroller auch mies.


Gibt's zum R520 irgendwo einen Vergleich zwischen Launchtreiber und aktuelleren Treibern?

reunion
2007-05-24, 16:19:35
Nicht so wirklich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/17/#abschnitt_splinter_cell_3

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/19/#abschnitt_far_cry

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/20/#abschnitt_half_life_2

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/23/#abschnitt_performancerating_qualitaet

MfG :cool:

Dieses Problem gabs damals nur in OpenGL, denn nur dort hatte man auf das Profil vergessen.

aths
2007-05-27, 14:01:39
naja glaube noch mehr wie shrink und takt.
Da sich der R600 beim AA ja scheinbar selbst im Weg steht wird da bestimmt was gemacht, bzw. gemacht werden müssen."Mehr als" in diesem Fall, nicht "mehr wie".

Naja Nvidia hat mehrere Möglichkeiten:
Entweder sie machen es so wie von G70 auf G71, dh. Margenoptimierung, Entfernung von Redundanzen im G80 und nur eine Takterhöhung, oder sie machen den G80 einfach noch breiter und erhöhen zusätzlich den Takt.Was für Rendundanzen sollte man im G80 entfernen können?

Öhm, nein. Seine Leistung immer voll zu entfalten ist imho das effizienteste was es gibt. Effektivität wurde ja vorher festgelegt, in der Wahl der Mittel, aber effizient ist eine 100% Auslastung der verfügbaren Einheiten immer.Dass die G80-ALUs zu 100% ausgelastet seien stimmt aber nicht. Es sind Situationen denkbar, in denen die ALUs leerlaufen.

aths
2007-05-27, 14:16:46
Doch genau darum geht es zum 100sten mal! In der Praxis werden alle 64 Filtereinheiten auch bei FX8 ausgenutzt, da mind. tri gefiltert wird, und deshalb ist meine Rechnung richtig, und du versuchst jetzt durch Haarspaltereien irgendwie doch recht zu haben.Schön wärs, wenn mindestens trilinear gefiltert würde. Mit AI on (oder bei aktiviertem AF standardmäßig auch auf G80) wird es das zum Beispiel nicht. Lookups im Pixelshader (für vorberechnete mathematische Funktionen) werden auch nur bilinear gefiltert.

Xmas
2007-05-27, 15:00:21
Laut ATI sogar 8xMSAA. Was aber durch die Nutzung der Shader fürs MSAA resolve imho dann wieder mit gewissen Einschränkungne zu sehen ist, da die ROPs eben noch nicht mal den Boxfiltewr alleine anwenden können.
Woher kommt diese Annahme?

seahawk
2007-05-27, 15:08:59
Woher kommt diese Annahme?

Beyond3D und Anand schreiben dies.

aths
2007-05-27, 15:21:52
Gehts konkreter? (Link zur Page?)

seahawk
2007-05-27, 16:41:52
http://www.beyond3d.com/content/reviews/16/10

Even for the basic box filter resolves, where the hardware weights samples based on their proximity to the pixel centroid, R600 will perform the calculations to resolve the samples on the shader core, that is unless compression for the tile is at maximum, so you know the resolve would just return the same colour anyway, so there's no math involved to filter. Currently that points to the hardware resolve either being broken, at least under some conditions (when compression is less than maximum), or it being easier to maintain in code if you're doing other filters anyway, so you only have one path for that in the driver. We lean towards the former, rather than the latter, since the performance deficit for shader core resolve seems to be significant, even for the basic box filter cases. That can be improved in the driver, however, and the hardware helps here by likely being able to decompress sample locations for a pixel into the shader core at a high rate.

http://www.anandtech.com/video/showdoc.aspx?i=2988&p=11

That's right, R600 doesn't have hardware dedicated to resolving MSAA in the render back end - the only MSAA related tasks handled in the render back end are compression and evaluation of the subpixels. All antialiasing resolve is performed on the shader hardware. Certainly, AMD would prefer we start by telling you about the neat custom resolve filters that can be implemented on their shader hardware, but we would rather speculate about this for a moment first.
AMD has stated that, moving forward, in addition to allowing programmable sample patterns, future DX versions may allow for custom resolve filters as well. This is cited as one of the reasons why R600 uses shader hardware to resolve AA samples. AMD has given us a couple different resolve filters to play with, which we'll talk about in a minute. But at a point where we're seeing the first DX10 hardware from graphics makers, and at a time where competitive performance is paramount, it doesn't seem like the decision we would have made.

Whatever the circumstances, R600 sends its pixels back up from the render back ends to the shader hardware to combine subpixel data into a final pixel color. In addition to the traditional "box" filter (which uses subpixels within the area of a single pixel), the new driver offers the ability to use subpixel data from neighboring pixels resolved with a tent filter (where the impact of the subpixels on final color is weighted by distance). AMD calls this CFAA for custom filter antialiasing.

AnarchX
2007-06-07, 07:00:43
R650 / 670 is no go
Computex 07: There is no 65 nm R600 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1340&Itemid=34)
Computex 07: There is no 65 nm R600
We learned a disturbing bit of news and that is that all the informations including the “leaks within AMD” about the 65 nanometre were false.
AMD wants to find some high profile mole(s) and deliberatly planted these two codenams and a chip specification. Fudzilla has seen these documents and can confirm that there were at least a few mentions of R650 or R670, but I have to dissapoint you all, as it is not real.
R600 is the best you will see from ATI until Christmas and you will have to find your peace with it.

Naja, da wird man sich wohl mit einer Dual-RV670-Karte zufriedengeben müssen... :|

Gmax
2007-06-07, 11:40:22
Ah, mal wieder tolle Nachrichten von ATI, sind wir ja gewöhnt :( Zumindest soll der RV670 kommen.
Nun, da der R650 gestrichen wird, wann können wir mit dem R700 rechnen? 2009?

robbitop
2007-06-07, 11:49:45
Es wird sicher einen Refresh geben. IMO betreibt ATI ein Verwirrspielchen, um die Leaks rauszufischen und warum auch immer. Bisher gabs immer einen Refresh. Allein schon die Moeglichkeit 65nm zu nutzen, um die Margen zu verbessern, wird man sich wohl kaum entgehen lassen. Bis zum R700 ist es noch ein ganzes Stueckchen hin IMO.

seahawk
2007-06-07, 11:54:49
Nur war 3Q07 eben etwas hoffnungsvoll für den Refesh.

reunion
2007-06-07, 12:07:43
AMD ist eben nicht mehr so blöd wie ATi, und serviert alle zukünftigen Produkte schon Monate vorher auf dem Silbertablett. Das Plappermaul Orton wurde wohl Stillgelegt, was ihm gar nicht zu schmecken scheint, wenn man sich mal jüngste Aussagen dazu ansieht.

NoWay
2007-06-07, 12:51:01
Finde es sehr schade dass die Karte jetzt erst so spät kommt

Aber warum setzen dann manche die News in die Welt , dass sie bald kommt oder gibt es da ein Problem bei Ati und deswegen können sie die Karte erst so spät reinstellen.

NoWay

deekey777
2007-06-07, 13:56:27
Es ist mir klar, dass nicht jeder bei B3D reinschaut, aber ich glaube, dieses Posting von Rys wurde auch hier mal angesprochen:
http://forum.beyond3d.com/showpost.php?p=1005954&postcount=24

Will it? If, and that's a fairly decent sized if, another big R6 chip shows up, don't automatically expect it to be 65nm.
Er sagt nicht nur, dass man einen weiteren R600 nicht unbedingt in 65 nm erwarten sollte, sondern dass es überhaupt einen R600-Refresh geben wird.

Das schließt aber nicht aus, dass es nicht eine weitere Revision/Stepping geben wird, vergleiche X1900-> X1950XTX, da gab es einen weiteren R600 (R600 A31).

Gast
2007-06-07, 14:20:07
Kann man denn der Quelle glauben? Ist ja ne Meldung von Fudzi....oder hat er seine Hetzcampagne gegen ATI aufgeben? :)

Die gelbe Eule
2007-06-07, 17:30:01
R650 / 670 is no go
Computex 07: There is no 65 nm R600 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1340&Itemid=34)


Naja, da wird man sich wohl mit einer Dual-RV670-Karte zufriedengeben müssen... :|

Welche aber deutlich unter der 2900XT anzusiedeln ist.

paul.muad.dib
2007-06-07, 17:37:34
Es scheint doch ziemlich schwer zu seinm den R600 zu verbessern, sonst wäre er wohl mit der Verspätung wesentlich stärker geworden.

AnarchX
2007-06-07, 17:39:52
Welche aber deutlich unter der 2900XT anzusiedeln ist.

:|

Wohlmöglich 24 TMUs @700-800MHz, 96ALUs, 512Bit + GDDR4 sollen unter einer 2900XT sein?

Oder hast du dich verlesen und beziehst dich auf RV630?

d2kx
2007-06-07, 18:03:49
Auch die neue News ist vllt. nur ein Leakerfang. Ich gehe von einem Refresh aus.

Die gelbe Eule
2007-06-07, 18:08:10
:|

Wohlmöglich 24 TMUs @700-800MHz, 96ALUs, 512Bit + GDDR4 sollen unter einer 2900XT sein?

Oder hast du dich verlesen und beziehst dich auf RV630?

Beziehe mich auf den RV630, sry.
Aber mit den Specs hat man doch eher eine 8800GTS 640 im Visier, die man schlagen könnte, kommt auf die Effizienz an. Auch der Preis dürfen ja eher bei 350€+ liegen. Also schwer zu sagen ob sie wirklich Sinn macht.

Ailuros
2007-06-08, 05:37:36
Es ist mir klar, dass nicht jeder bei B3D reinschaut, aber ich glaube, dieses Posting von Rys wurde auch hier mal angesprochen:
http://forum.beyond3d.com/showpost.php?p=1005954&postcount=24


Er sagt nicht nur, dass man einen weiteren R600 nicht unbedingt in 65 nm erwarten sollte, sondern dass es überhaupt einen R600-Refresh geben wird.

Das schließt aber nicht aus, dass es nicht eine weitere Revision/Stepping geben wird, vergleiche X1900-> X1950XTX, da gab es einen weiteren R600 (R600 A31).


Hab ich schon damals zitiert und zumindest 2 oder 3-mal erwaehnt dass man Resourcen diesmal wo anders investiert. Mir will ja auch keiner meine eigenen These ueber G92/GX2 glauben. Falls NV wirklich diesen Pfad gehen wird bis zum D3D10.1 chip, koennte sich ein dual chip RV670 dagegen halten.

Ailuros
2007-06-08, 05:41:23
Es scheint doch ziemlich schwer zu seinm den R600 zu verbessern, sonst wäre er wohl mit der Verspätung wesentlich stärker geworden.

IMHLO (und ja es ist pure Spekulation meinerseits diesmal) kostet es mehr Zeit und Resourcen das Ding hinzubiegen als es eigentlich Wert ist. Moeglich waere es schon aber es wuerde dann auch wieder die zukuenftige Roadmap beinflussen.

Mir persoenlich ist es lieber wenn AMD zeitgleich mit ihrer D3D10.1 Loesung mit NV auf Ladentischen ankommen. Wenn man bedenkt dass diese H1 2008 ankommen sollen, macht es eigentlich auch nur Sinn.

Ailuros
2007-06-08, 05:51:49
Es wird sicher einen Refresh geben. IMO betreibt ATI ein Verwirrspielchen, um die Leaks rauszufischen und warum auch immer. Bisher gabs immer einen Refresh. Allein schon die Moeglichkeit 65nm zu nutzen, um die Margen zu verbessern, wird man sich wohl kaum entgehen lassen. Bis zum R700 ist es noch ein ganzes Stueckchen hin IMO.

Wie gross ist denn das "Stueckchen" genau was die Zeitspanne betrifft?

robbitop
2007-06-08, 09:51:11
Ich glaube angesichts der Verspaetungen in der Vergangenheit nicht so recht dran, dass R700 soo bald kommt. Das dauert sicher noch mind 1 Jahr.
Bis dahin kann man natuerlich nicht nakt dastehen. Bisher gab es immer Refreshes. Warum diesmal nicht? Die werden doch sowieso fast parallel entwickelt. Hinzu kommt, dass ein geshrinkter R600 (auch ohne Bugfixing) zudem wirtschaftlicher waere.

James Ryan
2007-06-08, 10:03:22
Bisher gabs immer einen Refresh.

Man bedenke was beim R200 aka Radeon 8500 geschah:
Das Ding war zwar halbwegs konkurrenzfähig, krankte aber auch an diversen Bugs. Angeblich sollte noch ein Refresh folgen (Radeon 8800 mit 128 MB BGA-Ram und deutlich höherem Takt) aber dieser kam nie.
Stattdessen hakte ATi den R200 ab und konzentrierte sich vollkommen auf den R300, welcher grandios wurde.
Würde mich ehrlich gesagt nicht wundern, wenn es diesmal ähnlich laufen wird!

MfG :cool:

paul.muad.dib
2007-06-08, 10:33:28
IMHLO (und ja es ist pure Spekulation meinerseits diesmal) kostet es mehr Zeit und Resourcen das Ding hinzubiegen als es eigentlich Wert ist. Moeglich waere es schon aber es wuerde dann auch wieder die zukuenftige Roadmap beinflussen.

Mir persoenlich ist es lieber wenn AMD zeitgleich mit ihrer D3D10.1 Loesung mit NV auf Ladentischen ankommen. Wenn man bedenkt dass diese H1 2008 ankommen sollen, macht es eigentlich auch nur Sinn.

Ganz meine Meinung. Die vielen zusätzlichen Refreshes, die ATI macht, binden eben auch Ressourcen (X800 XL, X850 XT, X1950 XTX, X1950 pro). Nvidia hat viel weniger Chips entwickeln müssen. Allerdings kann ich mir auch wieder nicht vorstellen, dass sie schon ein gutes halbes Jahr nach dem R600 eine komplett neue Generatio aus dem Boden stampfen. R700 soll ja ein großer Umbruch werden, wenn die Gerüchte stimmen.

Insofern sollen sie halt einfach einen Shrink machen und ansonsten nicht viel am Chip herumwerkeln. Dann können sie zwar mit dem NV Refresh auch nicht mithalten, aber eben in der nächsten Runde.

robbitop
2007-06-08, 11:05:21
Man bedenke was beim R200 aka Radeon 8500 geschah:

Das waren andere Zeiten. Damals waren Refreshes noch nicht bei allen an der Tagesordnung und nur wenige hatten die Ressourcen, sowa sueberhaupt zu realisieren. Heute sind die Produktlebenszyklen von GPU Grundarchitekturen deutlich hoeher - komplexitaetsbedingt.

James Ryan
2007-06-08, 11:07:25
Das waren andere Zeiten. Damals waren Refreshes noch nicht bei allen an der Tagesordnung und nur wenige hatten die Ressourcen, sowa sueberhaupt zu realisieren. Heute sind die Produktlebenszyklen von GPU Grundarchitekturen deutlich hoeher - komplexitaetsbedingt.

Naja, selbst die Gf 2 erlebte einen Refresh (Gf 2 Ti), die Gf 3 ebenfalls (Gf 3 Ti), die Gf 4 Ti Reihe ebenfalls bedingt (AGP 8x).
Vielleicht waren bei ATi Refreshes mangels Ressourcen nicht an der Tagesordnung, bei NVIDIA waren sie aber meist schon damals normal.

MfG :cool:

seahawk
2007-06-08, 11:09:37
Aber GPU Entwicklung hängt heute auch an Software, was bringt ein DX10 Refresh, wenn kurz nahc dem Erscheinene DX10.1 da ist und der Konkurrent einen entsprechenden Chip fertig hat. Sollte man dann den Refresh nicht aufgeben und den eigenen DX10.1 Chip vorziehen ?

Wirklich Sorge macht mir nur der RV670. Wenn da was mit 55nm nicht klappt, dann könnte das Ding locker 6 Montae nach G92 erscheienen. Und selbst wenn es klappt, dann steht ATI fürs kommende Weihnachtsgeschäft im Retailmarkt recht hoffnungslos da.

R600 gegen G80/G92x2
1950pro gegen G92

robbitop
2007-06-08, 11:13:58
Vielleicht waren bei ATi Refreshes mangels Ressourcen nicht an der Tagesordnung, bei NVIDIA waren sie aber meist schon damals normal.

MfG :cool:
Ich dachte, dass mein Text diese Aussage bereits impliziert, so dass man sie nicht nochmals formulieren muss. :D

Ja NV verfuegt schon seit Jahren ueber deutlich mehr Kapital als ATI (selbst zu NV3x Zeiten).

Gast
2007-06-08, 12:34:30
schon bekannt?
http://img172.imageshack.us/img172/4610/amdgrafikkartenroadmapdbr3.gif (http://imageshack.us)

Winter[Raven]
2007-06-08, 12:44:11
R700 soll ja ein großer Umbruch werden, wenn die Gerüchte stimmen

Ahja? Was für Gerüchte?

Gast
2007-06-08, 13:17:44
;5568090']Ahja? Was für Gerüchte?Wahrscheinlich meint er den Multicore-Unfug.

Ailuros
2007-06-09, 05:47:55
Ganz meine Meinung. Die vielen zusätzlichen Refreshes, die ATI macht, binden eben auch Ressourcen (X800 XL, X850 XT, X1950 XTX, X1950 pro). Nvidia hat viel weniger Chips entwickeln müssen. Allerdings kann ich mir auch wieder nicht vorstellen, dass sie schon ein gutes halbes Jahr nach dem R600 eine komplett neue Generatio aus dem Boden stampfen. R700 soll ja ein großer Umbruch werden, wenn die Gerüchte stimmen.

Insofern sollen sie halt einfach einen Shrink machen und ansonsten nicht viel am Chip herumwerkeln. Dann können sie zwar mit dem NV Refresh auch nicht mithalten, aber eben in der nächsten Runde.


Das was ich mir unter R700 nach den Geruechten vorstellen kann ist ein RV670*2 Nachfolger mit D3D10.1 Unterstuetzung. Ich koennte ja total falsch liegen, aber dieses multi-core Zeug klingt mir nicht im strengen Sinn nicht schon nach R700.

Ailuros
2007-06-09, 05:53:42
Ich glaube angesichts der Verspaetungen in der Vergangenheit nicht so recht dran, dass R700 soo bald kommt. Das dauert sicher noch mind 1 Jahr.
Bis dahin kann man natuerlich nicht nakt dastehen. Bisher gab es immer Refreshes. Warum diesmal nicht? Die werden doch sowieso fast parallel entwickelt. Hinzu kommt, dass ein geshrinkter R600 (auch ohne Bugfixing) zudem wirtschaftlicher waere.

Einfache Frage: sind D3D10.1 chips mehr als ein einfacher Refresh?

Was genau soll ein die-shrink ohne bug fixes genau bringen? IMHO hoehere Taktraten mit weniger Stromverbrauch und analog zur Frequenzsteigerung mehr Leistung. Ergo wohl etwas dass bessere Chancen hat mit einer 8800GTX zu konkurrieren; nur wird diese dann auch fast ein Jahr alt sein.

Winter[Raven]
2007-06-09, 10:39:02
Ich persönlich finde, dass ATI das Jahr jetzt schon mal abhacken sollte, und sich komplett auf R700 konzentriert. *toi toi toi*

So unglaublich zufrieden wie ich derzeit mit der Nvidia GF8800 zufrieden bin, so ungern würde ich irgenwann 1k € für ne Stück GPU Hardware zahlen.