PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Eric Demers über RV770 @ Rage3D


AnarchX
2008-09-19, 10:09:59
Ein interessantes Interview über Architektur, Crossfire-Sideport, Mikroruckler und aber auch die Probleme, die man mit dem Idle-Modus der 4870 hat:
Under the IHS (http://www.rage3d.com/interviews/atichats/undertheihs/)

reunion@work
2008-09-19, 10:54:06
Ist Rage3D zurzeit offline?

AnarchX
2008-09-19, 10:55:36
Sieht ganz so aus.
edit: Jetzt geht es offenbar wieder.

deekey777
2008-09-19, 11:01:33
Ich hab das Interview schon gestern gelesen. Interessant und erschreckend fand ich seine Ausführungen zu Mikrorucklern auf der HD3800 (auf einer HD3800!) wegen Powerplay.
Dazu sagt er noch einige klare Worte zu CUDA.

puntarenas
2008-09-19, 11:06:45
Viel trauriger finde ich den Schluß, eine Lösung der Mikroruckler wird also mit Fokus auf der Peak-Performance gesucht. Man will also auf jeden Fall zunächst lange Balken malen, bis dahin dem User schonmal eine eigene Entscheidung an die Hand zugeben widerspricht ja auch leider dem ganzen A.I. Konzept. ;(

horn 12
2008-09-19, 18:03:03
Was wurde denn zum immer noch sehr hohen IDLE Verbrauch (Noch KEIN Powerpla) zur HD-4870 Karte denn gesagt, kann dies bitte einer schnell hier reinstellen,- Bitte auf deutsch!
Vielen Dank!

AnarchX
2008-09-19, 18:48:16
Naja, halt ein politisches "Der 2D-Verbrauch ist angemessen für die 3D-Leistung, aber wohlmöglich kann man noch einen vergleichbaren Verbrauch wie bei der X2, also eine stärkere Untertaktung des Speichers nachliefern, aber das hat nicht die höchste Priorität".

Eric: Lower speed GDDR5 modules are in the works, so it's not an inherent GDDR5 limitation. Having said that, the trouble with GDDR5 at clocks below the 500MHz mark is that you have to shift the operating mode towards a more GDDR4-like one. This requires some software work to be done. With the 4870 we didn't do it since other things took precedence, and because we were already getting good thermal and power characteristics. The 4870's power draw is in line with what you'd expect from a performance part. On the other hand, for the 4870X2 we had to deal with having what is practically 2 4870s on the same PCB, with an extra 1GB of RAM, so we implemented a more aggressive downclocking. With that in mind, we are looking at changing the way the 4870 behaves and having a similar clocking strategy for it, but that requires implementing certain changes in the software stack, and it's not the primary priority currently, since the card has characteristics that are within the envelope that is specific to the segment it targets.

=Floi=
2008-09-19, 20:45:40
das zeigt doch nur wieder miesen support.
Da gehört gleich mit nem großen knüppel draufgeschalgen und das thema viel mehr in den focus gestellt. Der größte witz ist ja die massive einsparung durch das runtertakten des speichers, das wirklich simpel und einfach ist. Nichteinmal das macht man!

Raff
2008-09-19, 20:50:57
das zeigt doch nur wieder miesen support.
Da gehört gleich mit nem großen knüppel draufgeschalgen und das thema viel mehr in den focus gestellt. Der größte witz ist ja die massive einsparung durch das runtertakten des speichers, das wirklich simpel und einfach ist. Nichteinmal das macht man!

Werdet doch mal logisch. Wer hat sich eine HD 4870 unter der Prämisse gekauft, dass sie irgendwann (noch) stromsparend(er) wird? Welcher Nutzer, der sich über die 5 €uro im Jahr aufregt, ist unfähig, seine Karte zu untertakten? Mir ist das sowas von Wurstsalat. Clock Tool, 100/400 MHz et voilá. Warum muss das offiziell sein? Ich mecker erst, wenn mir die Karte durch das Untertakten stirbt ... ;)

MfG,
Raff

Mr. Lolman
2008-09-19, 21:57:23
Werdet doch mal logisch. Wer hat sich eine HD 4870 unter der Prämisse gekauft, dass sie irgendwann (noch) stromsparend(er) wird? Welcher Nutzer, der sich über die 5 €uro im Jahr aufregt, ist unfähig, seine Karte zu untertakten? Mir ist das sowas von Wurstsalat. Clock Tool, 100/400 MHz et voilá. Warum muss das offiziell sein? Ich mecker erst, wenn mir die Karte durch das Untertakten stirbt ... ;)

MfG,
Raff

Eben. Außerdem steht ja ohnehin in AMDs Treiberroadmap dass man bis Dezember 08 die notwendigen Funktionen implementiert haben will. Meine HD4870 hat dank ATT im 2D Mode jedenfalls nur 36-40°C - mit Standardkühler und leisen 1200rpm...

Gummikuh
2008-09-19, 22:28:14
Ich hab das Interview schon gestern gelesen. Interessant und erschreckend fand ich seine Ausführungen zu Mikrorucklern auf der HD3800 (auf einer HD3800!) wegen Powerplay.


Könnte auch erklären,warum einige Hersteller z.B. GeCube und Powercolor bei einigen Karten den 2D Takt "vergessen" haben?!

tombman
2008-09-19, 22:48:20
Viel trauriger finde ich den Schluß, eine Lösung der Mikroruckler wird also mit Fokus auf der Peak-Performance gesucht. Man will also auf jeden Fall zunächst lange Balken malen, bis dahin dem User schonmal eine eigene Entscheidung an die Hand zugeben widerspricht ja auch leider dem ganzen A.I. Konzept. ;(
Jo, das nervt. "Peak-Perf. = Gott, und der Rest kann scheißen gehen"- so interpretiere ich zumindest die Aussage :rolleyes:

Maniac007
2008-09-19, 23:45:45
Werdet doch mal logisch. Wer hat sich eine HD 4870 unter der Prämisse gekauft, dass sie irgendwann (noch) stromsparend(er) wird? Welcher Nutzer, der sich über die 5 €uro im Jahr aufregt, ist unfähig, seine Karte zu untertakten? Mir ist das sowas von Wurstsalat. Clock Tool, 100/400 MHz et voilá. Warum muss das offiziell sein? Ich mecker erst, wenn mir die Karte durch das Untertakten stirbt ... ;)Mhmm.

Offensichtlich ist sich AMD/Ati ja der Problematik bewusst, und haben sich dennoch dagegen entschieden, die Karte im idle Modus zu untertakten.

Ist damit denn eigentlich ein Risiko verbunden? Nicht, dass ich mir die Karte am Ende damit schrotte...

Eben. Außerdem steht ja ohnehin in AMDs Treiberroadmap dass man bis Dezember 08 die notwendigen Funktionen implementiert haben will. Meine HD4870 hat dank ATT im 2D Mode jedenfalls nur 38-40°C - mit Standardkühler und leisen 1200rpm...Also im Cata8.8 Thread wurde mir gesagt, dass die Verbesserungen im Dezember, die auf der Roadmap eingetragen sind, nur bei der Videobeschleunigung zum tragen kommen:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6779752&postcount=143

Oder wurden anderswo noch Verbesserungen für Dezember angekündigt?

Savay
2008-09-20, 00:08:26
Jo, das nervt. "Peak-Perf. = Gott, und der Rest kann scheißen gehen"- so interpretiere ich zumindest die Aussage :rolleyes:


und nV ist da besser?! :rolleyes: das sind immernoch wirtschaftsunternehmen und da geht es um den größtmöglichen effekt bei kleinstmöglichem aufwand...ob der laden nun nV, Intel oder AMD heißt! das sind doch alles die selben dünnbrettbohrer :D

ShadowXX
2008-09-20, 00:11:15
Viel trauriger finde ich den Schluß, eine Lösung der Mikroruckler wird also mit Fokus auf der Peak-Performance gesucht. Man will also auf jeden Fall zunächst lange Balken malen, bis dahin dem User schonmal eine eigene Entscheidung an die Hand zugeben widerspricht ja auch leider dem ganzen A.I. Konzept. ;(
Was wohl auch wiederum heisst das weder rv8xx noch rv9xx bei den X2-Karten großartig vom Konzept der jetzigen X2 Karten unterscheiden werden....mit allen dadurch entstehenden Nachteilen.

=Floi=
2008-09-20, 00:34:34
wenn, dann sollten sie auch ihre grüne linie durch die ganze produktreihe ziehen. AMD wirbt ja mit so umweltfreundlichen produkten und das wäre eine sehr einfache methode strom zu sparen.
1. muß man dazu nicht nerd sein (ausgerechnet die anderen 95% die die karte haben, die sparen den strom)
2. wäre es für amd kein großer aufwand und soetwas kann man auch erwarten über einen neuen treiber bzw. beim release der karte.

mir stinkt vor allem das grüne getue bei den prozessoren. quasi: "wir sind zu langsam, dann machen wir intel eben mit langsamen uralten aber sparsamen prozessoren fertig..."
nur noch ein kleiner kurzer ausflug zu den cpus. Diese X2 mit 2ghz sind ganz nett, aber nicht mehr auf höhe der zeit es gibt nicht mal ne richtige evolution des core. (die minimalen verschlechterungen und verbesserungen zähle ich jetzt nicht, da man im grunde mit nem alten AM2 der ersten stunde mit ein bischen feintuning auch in solche verbrauchsregionen kommen wird...)

Savay
2008-09-20, 00:49:32
wenn, dann sollten sie auch ihre grüne linie(...)

die ATi farbe ist rot insofern sehe ich dort keinen wiederspruch zur grünen linie der amd produkte :tongue:

Was wohl auch wiederum heisst das weder rv8xx noch rv9xx bei den X2-Karten großartig vom Konzept der jetzigen X2 Karten unterscheiden werden....mit allen dadurch entstehenden Nachteilen.

klar mit technischem stillstand wird man wohl sicher das selbstgesetzte ziel erreichen und die marktanteile auch in zukunft ausbauen können. :rolleyes:

was du da in das interview hineininterpretierst ist doch absoluter blödsinn sry.

der rv770 unterscheidet sich ja auch garnicht vom r600...

wer ernsthaft aufgrund einer halbzeiligen textpassage aus einem 0815 interview rückschlüsse auf die zukünftige entwicklung der ati hardware schließen will der muss wirklich nen gutes vorstellungsvermögen besitzen. :wink:

ShadowXX
2008-09-20, 01:00:44
klar mit technischem stillstand wird man wohl sicher das selbstgesetzte ziel erreichen und die marktanteile auch in zukunft ausbauen können. :rolleyes:

was du da in das interview hineininterpretierst ist doch absoluter blödsinn sry.

der rv770 unterscheidet sich ja auch garnicht vom r600...

wer ernsthaft aufgrund einer halbzeiligen textpassage aus einem 0815 interview rückschlüsse auf die zukünftige entwicklung der ati hardware schließen will der muss wirklich nen gutes vorstellungsvermögen besitzen. :wink:
Ich wette mit dir das der 5870 X2 auf dem gleichen Prinzip wie der 4870 X2 basieren wird mit Null Nada Verbesserung/Veränderung in Richtung Microruckler.

Wenn die da wirklich was hätten, dann hätte Demers ganz andere Sache gesagt.

Daredevil
2008-09-20, 08:19:47
Man kündigt keine Neuerung an und es wird sich nichts ändern = Kein Problem
Man kündigt große tolle Sachen an und es wird sich nichts ändern = Schwafelei
Man kündigt nichts an und ändert trotzdem positiv was = Damit hätte wohl keiner gerechnet, Überraschung.

Beim wechsel von 2900xt auf 3870 hätte auch kaum einer geglaubt das die Karte großartig schneller wird.

puntarenas
2008-09-20, 09:52:00
und nV ist da besser?! :rolleyes: das sind immernoch wirtschaftsunternehmen und da geht es um den größtmöglichen effekt bei kleinstmöglichem aufwand...ob der laden nun nV, Intel oder AMD heißt! das sind doch alles die selben dünnbrettbohrer :D
Aufhören, bitte Aufhören! Niemand hat was von Nvidia gesagt und Tombman bezieht seinen Unmut ganz bestimmt nicht nur auf ATI, denn als jemand der gern mal bei Nvidia ins Regal greift, ist er wie wir alle von der herstellerübergreifenden Problematik voll betroffen.

Was wohl auch wiederum heisst das weder rv8xx noch rv9xx bei den X2-Karten großartig vom Konzept der jetzigen X2 Karten unterscheiden werden....mit allen dadurch entstehenden Nachteilen.
Klingt für mich auch so, R900 ist aber noch weit und das Interview war ja in weiten Teilen sehr weichgespültes Marketingblablubb, aber Hoffnung hat es mir in der Hinsicht auch nicht gemacht. Vielleicht haben sie ein Ass im Ärmel und wollen die Konkurrenz überraschen, der Sideport scheint schonmal nicht für eine konzeptuelle Änderung zu stehen.

Gast
2008-09-20, 09:57:27
Man kündigt keine Neuerung an und es wird sich nichts ändern = Kein Problem
Man kündigt große tolle Sachen an und es wird sich nichts ändern = Schwafelei
Man kündigt nichts an und ändert trotzdem positiv was = Damit hätte wohl keiner gerechnet, Überraschung.

RV770 -> Powerplay 2.0...

Schlammsau
2008-09-20, 10:42:53
RV770 -> Powerplay 2.0...

Powerplay 2.0 wird sich wohl auf die X2 Version beziehen. Bei der hat ATi es ja geschafft, den 2D Verbrauch drastisch zu senken!

AnarchX
2008-09-20, 10:54:46
Powerplay 2.0 wird sich wohl auf die X2 Version beziehen. Bei der hat ATi es ja geschafft, den 2D Verbrauch drastisch zu senken!
Naja, drastisch vielleicht gegenüber 2x 4870, aber im Vergleich zur vorhergehenden X2 mit PP 1.0 hat sich der Idle-Verbrauch trotzdem deutlich erhöht:
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0

Und zur Vorstellung von HD4800 sprach man der ganzen 4800er Serie PP 2.0 zu.

horn 12
2008-09-20, 11:10:14
Laut Gerüchten soll es der Cat 8.10 richten, da hat ja die Beta Anfang August schon mal 15-20 Watt weniger im Idle gebraucht. Das 2.te Treiber-Team soll fleissig am Werkeln sein....
Die Neue Beta zum 8.10 sollte ja bald erscheinen!

Gast
2008-09-20, 11:40:54
Powerplay 2.0 wird sich wohl auf die X2 Version beziehen. Bei der hat ATi es ja geschafft, den 2D Verbrauch drastisch zu senken!

drastisch ist wohl was anderes, der verbrauch ist immer noch höher deutlich höher als bei einer 9800GX2 obwohl diese nichtmal einen 2D-modus besitzt.

Gast
2008-09-20, 12:00:54
drastisch ist wohl was anderes, der verbrauch ist immer noch höher deutlich höher als bei einer 9800GX2 obwohl diese nichtmal einen 2D-modus besitzt.


Deutlich höher ist ja wohl ein Witz. Imho nehmen sich beide nicht viel.

Savay
2008-09-20, 22:09:54
Klingt für mich auch so, R900 ist aber noch weit und das Interview war ja in weiten Teilen sehr weichgespültes Marketingblablubb, aber Hoffnung hat es mir in der Hinsicht auch nicht gemacht. Vielleicht haben sie ein Ass im Ärmel und wollen die Konkurrenz überraschen, der Sideport scheint schonmal nicht für eine konzeptuelle Änderung zu stehen.

Ich wette mit dir das der 5870 X2 auf dem gleichen Prinzip wie der 4870 X2 basieren wird mit Null Nada Verbesserung/Veränderung in Richtung Microruckler.

Wenn die da wirklich was hätten, dann hätte Demers ganz andere Sache gesagt.


es geht hier doch immernoch um die halbzeilige aussage bezüglich peak performance oder? :rolleyes:

den rest den er dazu hat verlautbaren lassen drehte sich vornehmlich um die probleme durch die die mR ausgelöst werden...
wie man da entwicklungen oder eben das ausbleiben solcher hineindichten will erschließt sich mir persönlich absolut nicht. :tongue:

BlackBirdSR
2008-09-20, 22:28:24
Ich frage mich, wo das Problem steckt?
CPUs nutzenteils identische Methoden um den Verbrauch zu senken. Das funktioniert da nur
a) besser
b) brauchen die auch keine 10 Treiberrevisionen. Ein entsprechendes Kommando reicht und die CPU erledigt den Rest.

Also wo steckt das große Problem mit dem sowohl ATI als auch Nvidia kämpfen müssen? Vielleicht doch viel zu viele Logik-Transistoren in einem ASIC?

Gummikuh
2008-09-21, 00:22:15
Ich frage mich, wo das Problem steckt?
CPUs nutzenteils identische Methoden um den Verbrauch zu senken. Das funktioniert da nur
a) besser
b) brauchen die auch keine 10 Treiberrevisionen. Ein entsprechendes Kommando reicht und die CPU erledigt den Rest.

Also wo steckt das große Problem mit dem sowohl ATI als auch Nvidia kämpfen müssen? Vielleicht doch viel zu viele Logik-Transistoren in einem ASIC?

Ja aber PCGH hatten auch mal einen bericht, dass EIST & C&Q auf die Zockerleistung schlägt...und vorm Spielen besser deaktiviert werden sollte.

Powerreptile
2008-09-21, 16:40:35
Ich hab ja seit vier Wochen auch eine ATI 4870 und bin mit der Karte nicht zufrieden deshalb schlägt jetzt auch deren letzte Stunde in laufe der Woche wird die ausgetauscht.Ich hab absolut keine Lust erst da was runter takten zu müssen oder dort was einstellen zu müssen damit alles läuft.


MFG

Gast
2008-09-21, 17:17:06
Ich hab ja seit vier Wochen auch eine ATI 4870 und bin mit der Karte nicht zufrieden deshalb schlägt jetzt auch deren letzte Stunde in laufe der Woche wird die ausgetauscht.Ich hab absolut keine Lust erst da was runter takten zu müssen oder dort was einstellen zu müssen damit alles läuft.


Musst Du ja auch gar nicht.

Armaq
2008-09-21, 17:29:10
Bei X2-Karten kann Peak-Performance ja nur das Ziel sein, da die MR-Problematik nur bei ca. 30 fps auftritt. Ergo brauchen wir Karten, die bis zu 2560 alles bei 60fps darstellen und haben das Problem nicht mehr.

Gast
2008-09-21, 19:43:02
Bei X2-Karten kann Peak-Performance ja nur das Ziel sein, da die MR-Problematik nur bei ca. 30 fps auftritt.

Nein, die tritt immer auf, da sie unabhängig von der fps-Zahl ist.

Armaq
2008-09-21, 20:49:05
Nein, die tritt immer auf, da sie unabhängig von der fps-Zahl ist.
Äh, aber es ist nicht mehr wirklich relevant.

dargo
2008-09-21, 20:54:08
Ja aber PCGH hatten auch mal einen bericht, dass EIST & C&Q auf die Zockerleistung schlägt...und vorm Spielen besser deaktiviert werden sollte.
Ich glaube BlackBirdSR meinte eher sowas wie C1E bei Intel. Ich wüsste zumindest nicht, dass C1E Leistung kostet. Man möge mich korrigieren wenn ich falsch liege. Auf EIST verzichte ich sowieso.

Thunder99
2008-09-22, 10:40:09
Bei X2-Karten kann Peak-Performance ja nur das Ziel sein, da die MR-Problematik nur bei ca. 30 fps auftritt. Ergo brauchen wir Karten, die bis zu 2560 alles bei 60fps darstellen und haben das Problem nicht mehr.
Wir brauchen endlich Grafikkarten / GPU´s , wie damals 3Dfx mit dem VSA100 gebaut hatte. Mulitcore!!! ATI wollte ja sowas entwickeln..., schaffen sie es nicht? Gibt es da zu viele Probleme durch die Komplexität des Chips? :confused:

Gast
2008-09-22, 10:52:16
a) besser
b) brauchen die [CPUs] auch keine 10 Treiberrevisionen. Ein entsprechendes Kommando reicht und die CPU erledigt den Rest.

Stimmt, die brauchten nur Mainboards, die die entsprechenden Schaltungen mitbrachten - "Prescott-ready".

RavenTS
2008-09-22, 18:01:38
Wir brauchen endlich Grafikkarten / GPU´s , wie damals 3Dfx mit dem VSA100 gebaut hatte. Mulitcore!!! ATI wollte ja sowas entwickeln..., schaffen sie es nicht? Gibt es da zu viele Probleme durch die Komplexität des Chips? :confused:

So eine GPU entwickelt man halt nicht von heut auf morgen, vor allem, da 3Dfx´ SLI-Konzept ja ganz anders lief als heute...

BlackBirdSR
2008-09-22, 18:11:10
Ich glaube BlackBirdSR meinte eher sowas wie C1E bei Intel. Ich wüsste zumindest nicht, dass C1E Leistung kostet. Man möge mich korrigieren wenn ich falsch liege. Auf EIST verzichte ich sowieso.

Die ganze Sache mit der Absenkung der Taktraten ist eh für die Katz ;)
Würden die CPUs von AMD und Intel keine erweiterten Stromsparmechanismen besitzen, wären diese auch bei CnQ oder EIST reine Energieschleudern. Beim K8 hatte man sogar den Fall, dass die CPUs mit und ohne CnQ nahezu identische IDLE-Werte aufweisen konnten.

Ähnliches bei GPUs. Da kann man den GPU-Takt absenken wie man will. Solange das Taktsignal nicht eingespart wird, und die Gatter quasi vom Netz genommen werden bleibt die Verlustleistung extrem hoch.
Nun scheint es entweder einfacher zu sein einen K8 mit SOI aufgrund des geringen Logikanteils schlafen zu legen,
oder AMD und Intel haben noch einen Vorsprung hinsichtlich der Technik und Fabrikation der sich hier böse bemerkbar macht.