PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008:RV770(LE), RV730 und RV710 - Teil 5


Seiten : 1 [2] 3 4 5

Headhuntr
2008-06-25, 07:40:42
Gibt es schon Infos wann die ersten 4870 (NICHT X2) in der 1GB Version verfuegbar sind?

AnarchX
2008-06-25, 07:43:49
Gibt es schon Infos wann die ersten 4870 (NICHT X2) in der 1GB Version verfuegbar sind?
Frühestens Mitte Juli.

btw.
Die Folien und GPU-Zs von R700 wurden auch in ihrer Authentizität bestätigt.

AintCoolName
2008-06-25, 08:21:20
Kann mir mal einer erklären wie AMD bei diesem extrem hohen Verbrauch der 4870 eine Vollwertige 4870X2 Herstellen will?
Das sind ja nur 6Watt weniger als eine GTX 280?!?

Das soll sich mit dem 8.7ner Treiber ändern, anscheint hat man die neuen Stromspar features noch nicht im griff.

Headhuntr
2008-06-25, 08:29:06
Mal ne dumme Frage zu Crossfire.

Mal angenommen ich hole mir eine 4870 512 MB und dann halt eine 4870 in der 1GB Version. Chip ist ja gleich nur der VRAM ist unterschiedlich. Wenn ich jetzt Crossfire verwende wird auf den niedrigen VRAM Wert aufgebaut oder? Also nur 512 MB?

Sascha1971
2008-06-25, 09:33:07
Radeon HD 4800 übertrumpft Konkurrenz auf allen Gebieten

http://www.heise.de/newsticker/Radeon-HD-4800-uebertrumpft-Konkurrenz-auf-allen-Gebieten--/meldung/109922

AnarchX
2008-06-25, 09:34:19
Mal ne dumme Frage zu Crossfire.

Mal angenommen ich hole mir eine 4870 512 MB und dann halt eine 4870 in der 1GB Version. Chip ist ja gleich nur der VRAM ist unterschiedlich. Wenn ich jetzt Crossfire verwende wird auf den niedrigen VRAM Wert aufgebaut oder? Also nur 512 MB?

Ja, der Treiber limitiert den Speicher der größeren Karte, also keine sinnvolle Kombination.

Gast
2008-06-25, 11:02:12
Ja, der Treiber limitiert den Speicher der größeren Karte, also keine sinnvolle Kombination.

Hab ich mir fast gedacht, danke fuer die schnelle Hilfe, sorry wegen den Noob Fragen :)

Ich hab gehoert, dass heute begrenzte Stueckzahlen der 4870 verkauft werden :) Kennt schon jmd. Shops, wo die Karten verfuegbar sind?

Kriton
2008-06-25, 11:38:00
Das soll sich mit dem 8.7ner Treiber ändern, anscheint hat man die neuen Stromspar features noch nicht im griff.

Das lese ich zwar immer wieder, nur eine vernünftige Quelle findet man dafür nicht. Zieht sich wie ein Mantra durch die Foren.
Bisher wurde immer wieder angeführt:

1. Keine entsprechende Berichterstattung erlaubt was den Verbrauch angeht bis das NDA fällt - ist gefallen, trotzdem zu hoher Idle-Verbrauch
2. Marketing-Folien mit verbessertem Powerplay-Feature - aber ehrlich gesagt sind mir Marketing-Folien als "Quelle" zu wenig
3. Verweis auf die 3870 - da mag schon mehr dran sein

Nur: Wenn das tatsächlich mit 8.7 geplant ist, warum dann nicht mal ein entsprechender offizieller Hinweis (der überhaupt nicht vorliegt - das speziell mit 8.7 ist vollkommen aus dem Nichts in den Foren entstanden).

Und nur als Hinweis: Ich plane den Kauf einer 4870 mit 1 GB.

Ailuros
2008-06-25, 12:01:11
Kann mir mal einer erklären wie AMD bei diesem extrem hohen Verbrauch der 4870 eine Vollwertige 4870X2 Herstellen will?

http://img371.imageshack.us/img371/5218/21powerwl1.png

Das sind ja nur 6Watt weniger als eine GTX 280?!?

Laut CB ist der Systemverbrauch unter Last einer 4850 bei 290W und fuer 2*4850@CF bei 408W.

Adam D.
2008-06-25, 12:04:29
Mit den Stromspar-Features und selektierten Chips + reduzierten Taktraten wird man die TDP schon einigermaßen in Bereichen halten, die akzeptabel sind.

Gast
2008-06-25, 12:15:15
Kann mir mal einer erklären wie AMD bei diesem extrem hohen Verbrauch der 4870 eine Vollwertige 4870X2 Herstellen will?

http://img371.imageshack.us/img371/5218/21powerwl1.png

Das sind ja nur 6Watt weniger als eine GTX 280?!?

Da steht was von System Load das sagt mal gar nix aus.

AnarchX
2008-06-25, 12:46:34
Für Diskussionen über die Reviews bitte die passenden Threads verwenden(#1!), hier soll es nunmehr um die X2 und weitere kleinere Ableger gehen.

Gast
2008-06-25, 13:26:46
Die 4850 und 4870 scheinen ausgesprochen leistungsfähige Karten zu sein, warum verramscht AMD die so billig?! Also nicht das ich gerne zuviel zahle aber AMD braucht nun wirklich mal ein wenig Klimpergeld, da erscheinen mir 220€ Einführungspreis für die 4870 unsinnig niedrig. Selbst für 350€ wäre die Karte noch ein Schnäppchen.

Schlammsau
2008-06-25, 13:36:00
Die 4850 und 4870 scheinen ausgesprochen leistungsfähige Karten zu sein, warum verramscht AMD die so billig?! Also nicht das ich gerne zuviel zahle aber AMD braucht nun wirklich mal ein wenig Klimpergeld, da erscheinen mir 220€ Einführungspreis für die 4870 unsinnig niedrig. Selbst für 350€ wäre die Karte noch ein Schnäppchen.
ATi möchte mit aller Kraft Marktanteile zurückgewinnen.
Und du kennst unsere "Geiz ist geil" Mentalität!?

Odal
2008-06-25, 13:43:23
seh ich auch so....bis auf eingefleischte nvidia fanboys sieht doch jeder potentielle käufer der GTX260 jetzt davon ab diese zu nehmen und holt sich die 4870 um dann auch für die zukunft festzustellen das ATI schon ne alternative sein kann...und nicht stur nur nvidia hardware gekauft wird

wenn man nicht so mit seinem namen werben kann muss man das eben über den preis machen...und bei der kosteneffizienz des designs kann man sich das auch leisten

igg
2008-06-25, 13:56:55
seh ich auch so....bis auf eingefleischte nvidia fanboys sieht doch jeder potentielle käufer der GTX260 jetzt davon ab diese zu nehmen und holt sich die 4870 um dann auch für die zukunft festzustellen das ATI schon ne alternative sein kann...und nicht stur nur nvidia hardware gekauft wird
Nicht unbedingt, Stichworte PhysX und GPGPU.

2B-Maverick
2008-06-25, 14:07:17
Nicht unbedingt, Stichworte PhysX und GPGPU.

GPGPU gibts auch bei ATI, und dort heisst PhysX eben Havok...

Gast
2008-06-25, 14:14:44
GPGPU gibts auch bei ATI, und dort heisst PhysX eben Havok...

Richtig!
Außerdem wird Havok angeblich von 300 Games unterstützt, PhysX nur von 150.

Und vorallem und am wichtigsten; Navok gehört zu Intel und wird von Intel gepuscht.

Sorkalm
2008-06-25, 14:18:45
GPGPU gibts auch bei ATI

Jupp, die Aussage "Fast double precision processing (240 GigaFLOPS–2x of GTX280)" konnten sie sich auch nicht in ihren Dokumenten verkneifen. ;)

Odal
2008-06-25, 14:25:01
Nicht unbedingt, Stichworte PhysX und GPGPU.

wie schon richtiger weise erwähnt gibts havok und GPGPU gibts auch auf den ATIs....die haben sogar deutlich mehr theoretische rechenleistung....

ausserdem hab ich auf der 88GT mit den physX rumexperimentiert und muss sagen bis auf einen längeren im 3dmurks war da nix wirklich nutzbar....

Jupp, die Aussage "Fast double precision processing (240 GigaFLOPS–2x of GTX280)" konnten sie sich auch nicht in ihren Dokumenten verkneifen. ;)

eigentlich sollte das doch fast 3xGTX280 sein.....soweit ich in erinnerung hab macht der GTX280 nur 90GFlops mit double precision

Cpl. Dwayne Hicks
2008-06-25, 14:26:32
Der offizielle Test auf CB

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/#abschnitt_einleitung

Quote:

Wie Eric Demers, Senior Architect bei ATi, uns gegenüber in einem Gespräch verriet, ist der nur unterproportional größere DIE primär auf die höhere Anzahl der ALUs zurückzuführen. Auf der anderen Seite hat ATi vor allem Shader-ALUs sowie die GPR-Stacks (General Purpose Register) überarbeitet, sodass diese nun 40 Prozent weniger Platz als auf einem RV670 einnehmen. Zusätzlich fallen die ROPs kleiner aus und man konnte die Größe sämtlicher anderer Einheiten um fünf bis 20 Prozent verringern.

Das nenn ich mal cleveres engineering. :smile:

Gast
2008-06-25, 14:34:28
GPGPU gibts auch bei ATI, und dort heisst PhysX eben Havok...

Havok ist eine reine CPU lösung (bis jetzt jedefalls) kommt dadurch nie an PhysX ran....

2B-Maverick
2008-06-25, 14:38:33
Havok ist eine reine CPU lösung (bis jetzt jedefalls) kommt dadurch nie an PhysX ran....

Und bei nem Quadcore langweilen sich normalerweise 2 Cores... da kann man schon was mit anfangen....

Ausserdem verheizt PhysX auf den GPUs ja auch GPU Rechenleistung...ob man das immer will?

Gast
2008-06-25, 14:40:03
ausserdem hab ich auf der 88GT mit den physX rumexperimentiert und muss sagen bis auf einen längeren im 3dmurks war da nix wirklich nutzbar....


Dann hast du wohl noch nicht UT3 PhysX gespielt, das ist nämlich ohne Hardware PhysX so gut wie un spielbar ;)

Kriton
2008-06-25, 14:40:28
Havok ist eine reine CPU lösung (bis jetzt jedefalls) kommt dadurch nie an PhysX ran....

Die Logik geht mir ab. Gerade im Hinblick auf eher limitierende GPUs in dem Bereich wo Physikberechnung eine Rolle spielt (Spiele) ist eine Verwendung der Rechenlast der CPU anstatt der GPU doch sinnvoller...
Dazu passt übrigens auch AMDs Aussage sich diesbezüglich erst einmal auf den Phenom konzentrieren zu wollen (hinsichtlich Havoc).

Gast
2008-06-25, 14:42:01
Und bei nem Quadcore langweilen sich normalerweise 2 Cores... da kann man schon was mit anfangen....

Ausserdem verheizt PhysX auf den GPUs ja auch GPU Rechenleistung...ob man das immer will?

zwei CPU Cores die soviel Leistung wie eine 8400GS haben, wenn überhaubt.......

Gast
2008-06-25, 14:44:04
Die Logik geht mir ab. Gerade im Hinblick auf eher limitierende GPUs in dem Bereich wo Physikberechnung eine Rolle spielt (Spiele) ist eine Verwendung der Rechenlast der CPU anstatt der GPU doch sinnvoller...
Dazu passt übrigens auch AMDs Aussage sich diesbezüglich erst einmal auf den Phenom konzentrieren zu wollen (hinsichtlich Havoc).

Ja deswegen ist UT3 PhysX ohne Hardware PhysX unspielbar, weil die CPU das ohne Probleme schafft lol

Kriton
2008-06-25, 15:00:08
Ja deswegen ist UT3 PhysX ohne Hardware PhysX unspielbar, weil die CPU das ohne Probleme schafft lol

Natürlich kann ich eine Software schreiben, die eine ganz spezifische Hardware voraussetzt und nicht vernünftig läuft wenn diese nicht da ist. Das hat aber überhaupt nichts mit meinem Argument zu tun.

Du redest davon, dass eine auf PhysX basierende Software ohne diese nicht läuft und ich habe die Frage betrachtet, ob PhysX als Lösung auf einer Grafikkarte derzeit sinnvoll ist, weil die Rechenleistung der heutigen Grafikkarten eh schon ausgereizt wird ohne dass diese auch noch durch die Berechnung von Physik beansprucht wird.

Eine CPU-basierende Physik-Lösung dürfte in den meisten Computersystemen besser sein weil derzeit eher die CPU unterfordert ist als die GPU.

san.salvador
2008-06-25, 15:02:28
Die Grafikkarten, die PhysX-kompatibel werden heute eben nicht ausgereizt, somit könnte es sich unterm Strich lohnen.

Vielleicht gibts ja mal dynamisches Load Balancing zwischen GPU und CPU. :D

igg
2008-06-25, 15:29:45
wie schon richtiger weise erwähnt gibts havok und GPGPU gibts auch auf den ATIs....die haben sogar deutlich mehr theoretische rechenleistung....

ausserdem hab ich auf der 88GT mit den physX rumexperimentiert und muss sagen bis auf einen längeren im 3dmurks war da nix wirklich nutzbar....
PhysX ist nicht nutzbar?

Das sehen die UT Spieler (2-3x mehr frames) sicher anders (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/nvidia_geforce_physx/)
Die Unreal-Engine ist übrigens die meist verkauft...

Odal
2008-06-25, 15:30:52
Dann hast du wohl noch nicht UT3 PhysX gespielt, das ist nämlich ohne Hardware PhysX so gut wie un spielbar ;)

doch siehe im nvidia bereich und dem treiberthread

meine etwas gepimpte 88GT kommt bei den 2 physX maps auf 15-25 FPS bei 1280x1024 ohne AA

da scheint noch sehr viel über die CPU zu laufen

ps: ich war hier einer der ersten im forum die mit dem physX zeugs rumexperimentierten

Sorkalm
2008-06-25, 15:32:16
Das ist aber ein UE3-Mod, der bezieht sich nur auf spezielle Level.

Kriton
2008-06-25, 15:33:24
kamen im Test mit Unreal Tournament 3 ausschließlich Maps mit PhysX-Unterstützung, unter anderem aus Ageias PhysX-Mod-Kit, zum Einsatz

Speziell auf die Hardware programmierte Software läuft mit dieser natürlich schneller als ohne.

Odal
2008-06-25, 15:34:54
Die Logik geht mir ab. Gerade im Hinblick auf eher limitierende GPUs in dem Bereich wo Physikberechnung eine Rolle spielt (Spiele) ist eine Verwendung der Rechenlast der CPU anstatt der GPU doch sinnvoller...
Dazu passt übrigens auch AMDs Aussage sich diesbezüglich erst einmal auf den Phenom konzentrieren zu wollen (hinsichtlich Havoc).

naja ganz so würde ich das nicht sehen....es gibt da schon einige operationen die eine GPU um ein vielfaches schneller rechnen kann...und das mit leichtigkeit
(siehe folding@home)

für amd die ideale lösung wäre es havok zw. cpu und gpu aufzusplitten

PhysX ist nicht nutzbar?

Das sehen die UT Spieler (2-3x mehr frames) sicher anders (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/nvidia_geforce_physx/)
Die Unreal-Engine ist übrigens die meist verkauft...


wie gesagt ich hab 15-25FPS aber halt auch keinen 4Ghz Quadcore wie Computerbase

da läuft noch extrem viel über die CPU

Coda
2008-06-25, 15:38:10
Jupp, die Aussage "Fast double precision processing (240 GigaFLOPS–2x of GTX280)" konnten sie sich auch nicht in ihren Dokumenten verkneifen. ;)
ATI kann aber nur Basisoperationen mit DP nicht die Spezialfunktionen. Das kann man so nicht vergleichen.

reunion
2008-06-25, 15:50:27
ATI kann aber nur Basisoperationen mit DP nicht die Spezialfunktionen. Das kann man so nicht vergleichen.

Steht wo? Und vorallem wann und wie oft braucht man die Spezialfunktionen? Die 240GFPLOPs sind jedenfalls eine Hausnummer.

deekey777
2008-06-25, 15:53:54
Steht wo? Und vorallem wann und wie oft braucht man die Spezialfunktionen? Die 240GFPLOPs sind jedenfalls eine Hausnummer.
Steht in der CAL/Brook+-Dokumentation.
Und schwer ist nicht darauf zu kommen, denn es wurde schon mehrmals gesagt, dass nur die XYZW-ALUs DP-fähig sind (also DP-MADD), nicht aber die T-ALU (Transzedente).

LovesuckZ
2008-06-25, 15:57:25
seh ich auch so....bis auf eingefleischte nvidia fanboys sieht doch jeder potentielle käufer der GTX260 jetzt davon ab diese zu nehmen und holt sich die 4870 um dann auch für die zukunft festzustellen das ATI schon ne alternative sein kann...und nicht stur nur nvidia hardware gekauft wird


Wieso sollte man die 4870 vorziehen? Weder beim IDLEN, noch beim LASTVerbrauch ist sie sparsamer. Sie hat kein TSAA, auch keine vergleichbare gute Filterqualität und betet weder offiziell noch inoffiziell SSAA an.
Ja, der Preis ist gut und das 8xMSAA superb, aber die Karte hat auch ihre Probleme.
Und dann kommt noch der Faktor Hybrid-Power ins Spiel. Sollte nVidia in diesem Jahrtausend auchnochmal die Intel User beglücken, ist es weiterer Pluspunkt. Und solange AMD die IDLE-Probleme nicht in den Griff bekommen hat, sind die 2D Features durch den hohen Verbrauch auch keine Argument für die Karte.
Die 4850 ist wesentlich attraktiver zur 9800GTX(+) als es die 4870 zur GTX260 ist.

AnarchX
2008-06-25, 16:02:57
Steht wo? Und vorallem wann und wie oft braucht man die Spezialfunktionen? Die 240GFPLOPs sind jedenfalls eine Hausnummer.
Aber wohl ebenso an die Einschränkungen der Auslastbarkeit gebunden, sodass es im Worst-Case nur 60GFLOPs sind.

Nakai
2008-06-25, 16:05:04
Aber wohl ebenso an die Einschränkungen der Auslastbarkeit gebunden, sodass es im Worst-Case nur 48GFLOPs sind.

Naja für was braucht man Double-Precision? Ich denke, der DP-Code sollte schon etwas besser für die Hardware geschrieben sein.


mfg Nakai

reunion
2008-06-25, 16:07:58
Aber wohl ebenso an die Einschränkungen der Auslastbarkeit gebunden, sodass es im Worst-Case nur 60GFLOPs sind.

AFAIK nein, da immer eine vec5-ALU ein DP MAD raushauen kann. Es sind dann also faktisch 160 skalare ALUs.

Wieso sollte man die 4870 vorziehen? Weder beim IDLEN, noch beim LASTVerbrauch ist sie sparsamer. Sie hat kein TSAA, auch keine vergleichbare gute Filterqualität und betet weder offiziell noch inoffiziell SSAA an.
Ja, der Preis ist gut und das 8xMSAA superb, aber die Karte hat auch ihre Probleme.
Und dann kommt noch der Faktor Hybrid-Power ins Spiel. Sollte nVidia in diesem Jahrtausend auchnochmal die Intel User beglücken, ist es weiterer Pluspunkt. Und solange AMD die IDLE-Probleme nicht in den Griff bekommen hat, sind die 2D Features durch den hohen Verbrauch auch keine Argument für die Karte.
Die 4850 ist wesentlich attraktiver zur 9800GTX(+) als es die 4870 zur GTX260 ist.

Das soll man nicht ernst nehmen oder? Die GTX260 kostet bei guter Verfügbarkeit der Karten fast 40% mehr, und ist bestenfalls gleichschnell. Der idle-Verbrauch wird noch sinken. Alles andere ist zwar richtig, wiegt aber wohl kaum auch nur annähernd das unschlagbare P/L-Verhältnis auf. Dafür habe ich bei AMD andere Vorteile wie die guten 2D-Features oder die bessere Kantenglättung und funktionierende Skalierungseinstellungen für TFTs sowie die Möglichkeit Taktraten/Spannung und Lüftersteuerung bequem im Bios einstellen zu können.

Sorkalm
2008-06-25, 16:17:13
AFAIK nein, da immer eine vec5-ALU ein DP MAD raushauen kann. Es sind dann also faktisch 160 skalare ALUs.

So würde ich mir das auch erklären. Besteht nicht gerade der Sinn der erhöhten Präzision darin, das die Berechnungen unabhängig sind?

LovesuckZ
2008-06-25, 16:19:12
Das soll man nicht ernst nehmen oder? Die GTX260 kostet locker 40% mehr, und ist bestenfalls gleichschnell. Der idle-Verbrauch wird noch sinken. Alles andere ist zwar richtig, wiegt aber wohl kaum auch nur annähernd das unschlagbare P/L-Verhältnis auf.

"Unschlagbares" P/L Verhältnis? Zwei 8800GT kosten weniger und sind schneller. :rolleyes:
P/L resultiert nicht aus dem Faktor, dass es sich um eine AMD Karte handelt. Die Karte hat wesentliche Nachteile, die niemand mal ebenso wegreden kann. Beide Karten fressen über 150 Watt, wieso sollte man da auf Bildqualität verzichten? Beide verbrauchen 30 Watt beim idlen, wieso darf man keine Möglichkeit einer weiteren Senkung haben?
Die 4870 hat bestimmt kein unschlagbares P/L Verhältnis, denn dafür fehlt ihr eben auch einfach einiges. Wo die 9800GTX aufgrund ihres Speicher uninteressant wird, ist es bei der GTX260 nur der Preis. Und der Kunde brauch nur warten, dann geht er schon runter.

AffenJack
2008-06-25, 16:22:49
Die GTX260 kostet bei guter Verfügbarkeit der Karten fast 40% mehr, und ist bestenfalls gleichschnell. Der idle-Verbrauch wird noch sinken.

Da erwähnste genau das richtige, bei guter verfügbarkeit, da müssen wir aber erstmal abwarten wann das denn eintreffen wird, denn immo ist klar dass die 4870 erstmal nicht gut verfürgbar sein wird, auch bei 38xx und 88gt sollten die ja schnell gut verfügbar werden, aber es hat 3monate gedauert.
Beim idle-verbrauch warten wir auch erstmal ab, bis es diesen treiber auch gibt. Ich hoffe auch, dass er kommt, aber es wurden zu oft treiberversprechungen (von beiden seiten) gemacht die nicht gehalten wurdne

reunion
2008-06-25, 16:31:34
"Unschlagbares" P/L Verhältnis? Zwei 8800GT kosten weniger und sind schneller. :rolleyes:
P/L resultiert nicht aus dem Faktor, dass es sich um eine AMD Karte handelt. Die Karte hat wesentliche Nachteile, die niemand mal ebenso wegreden kann. Beide Karten fressen über 150 Watt, wieso sollte man da auf Bildqualität verzichten? Beide verbrauchen 30 Watt beim idlen, wieso darf man keine Möglichkeit einer weiteren Senkung haben?
Die 4870 hat bestimmt kein unschlagbares P/L Verhältnis, denn dafür fehlt ihr eben auch einfach einiges. Wo die 9800GTX aufgrund ihres Speicher uninteressant wird, ist es bei der GTX260 nur der Preis. Und der Kunde brauch nur warten, dann geht er schon runter.

Deine Vergleiche sind wie immer Lächerlich. Eine X1550 kostet nur 17€ und zehn davon sind auch schneller und preiswerter. Im Preisbereich der HD4870 bekommen ich keine Karte die auch nur annähernd so schnell ist bzw. muss ich bei nV für die gleiche Leistung 40% mehr Geld hinlegen.

Ailuros
2008-06-25, 16:33:10
AFAIK nein, da immer eine vec5-ALU ein DP MAD raushauen kann. Es sind dann also faktisch 160 skalare ALUs.

Nenn es von mir aus "superskalar" oder VLIW; so skalar sind die Dinger nun auch wieder nicht.

Odal
2008-06-25, 16:37:12
Wieso sollte man die 4870 vorziehen? Weder beim IDLEN, noch beim LASTVerbrauch ist sie sparsamer. Sie hat kein TSAA, auch keine vergleichbare gute Filterqualität und betet weder offiziell noch inoffiziell SSAA an.
Ja, der Preis ist gut und das 8xMSAA superb, aber die Karte hat auch ihre Probleme.
Und dann kommt noch der Faktor Hybrid-Power ins Spiel. Sollte nVidia in diesem Jahrtausend auchnochmal die Intel User beglücken, ist es weiterer Pluspunkt. Und solange AMD die IDLE-Probleme nicht in den Griff bekommen hat, sind die 2D Features durch den hohen Verbrauch auch keine Argument für die Karte.
Die 4850 ist wesentlich attraktiver zur 9800GTX(+) als es die 4870 zur GTX260 ist.

;D
na da haben wir ja das beispiel :up:


im lastverbrauch ist sie etwas sparsamer...aber warum sollte ein ähnlicher verbrauch für die GTX260 sprechen?

powerplay funzt noch nicht...

ok lassen wir die verbrauchssache aussen vor da (bisher weil powerplay funzt noch nicht) so richtig überzeugen kann.....

hybrid sli ist für mich käse denn für die kosten die ich extra in ein (wohlgemerkt nvidia chipsatz) mainboard nochmal stecken muss kann ich die max. 20 watt (bei funzendem powerplay) über jahre hinweg bezahlen....

und natürlich geht tranzparent AA....

und SSAA das ist der einzige vorteil der GTX260....

bleiben "nur" noch die nachteile....ganzes stück langsamer....und im vergleich sau teuer....veraltete technik (nur DX10)

aber egal jeder ist seines glückes schmied (oder wie heißts so schön) und wenn nvidia fanboys nur mit nv karten glücklich werden soll man sie lassen :rolleyes:

LovesuckZ
2008-06-25, 16:40:07
Eine X1550 kostet nur 17€ und zehn davon sind auch schneller und preiswerter. Im Preisbereich der HD4870 bekommen ich keine Karte die auch nur annähernd so schnell ist bzw. muss ich bei nV für die gleiche Leistung 40% mehr Geld hinlegen.

Richtig, man bekommt nämlich zwei Karten, die genauso viel verbrauchen und schneller sind.
Wieso zählt eigentlich bei nVidia das "Verdopplungsprinzip" nicht? :confused:
Und 40% Aufschlag? Von 299% auf 399% sind es nur 33%, in Euro nur 30%. Und 50€ können eine Investition sein, wenn man eben nur mehr will als AMD Qualität. Ausserdem sind 50€ kaum nennenwerts, hast du doch der 4850 einen 45€ Aufschlag zu 8800GT noch billigend als in Kauf genommen.


im lastverbrauch ist sie etwas sparsamer...aber warum sollte ein ähnlicher verbrauch für die GTX260 sprechen?

Nicht sparsamer != Vorteil. Die verbraucht nicht weniger und bietet die geringere Möglichkeit an der Aufwertung der Bildqualität. Das ist ein Nachteil.


powerplay funzt noch nicht...

Warum weißt du mehr als AMD?


So taktet sich die Radeon HD 4850 nachgewiesenerweise zwar auf 160 MHz beziehungsweise 500 MHz herunter, jedoch gibt es Berichte, nach denen es keine Spannungsregulierung gibt. Laut ATi sollte dies jedoch der Fall sein. Wir stehen diesbezüglich mit dem Hersteller in Kontakt und hoffen, bald eine klärende Antwort zu erhalten.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6614438#post6614438


hybrid sli ist für mich käse denn für die kosten die ich extra in ein (wohlgemerkt nvidia chipsatz) mainboard nochmal stecken muss kann ich die max. 20 watt (bei funzendem powerplay) über jahre hinweg bezahlen....

Ich hoffe, dass du nicht der einzige 4870 Käufer bist. ;)
Es geht nicht um dich. Es geht um die Möglichkeit jetzt bzw. später auf Hybrid-Power umsteigen zu können.


und natürlich geht tranzparent AA....

Multisampling. Es gibt kein TSSAA mehr. Das ist bildqualitätstechnischer Nachteil.


bleiben "nur" noch die nachteile....ganzes stück langsamer....und im vergleich sau teuer....veraltete technik (nur DX10)

Weder ist die Karte ein "ganzes Stück langsamer", noch "im Vergleich sau teuer" noch besitzt sie die "veralterte Technik". Deine absolute AUssage, man müsste die 4870 vor der GTX260 vorziehen ist dagegen klar eine Fanboyaussage. Dann damit würde man die 8 monatelange Kritik an den G92 Karten ins unsinnige führen.

w0mbat
2008-06-25, 16:46:37
Da das NDA ja jetzt weg ist, könnte ich euch die RV770 Presentation hochladen (wenn jemand das überhaupt will). Wo kann man denn PDFs uploaden?

reunion
2008-06-25, 16:48:07
Richtig, man bekommt nämlich zwei Karten, die genauso viel verbrauchen und schneller sind.
Wieso zählt eigentlich bei nVidia das "Verdopplungsprinzip" nicht? :confused:

Welches Verdoppelungsprinzip? Solange ich damit haufenweise Nachteile habe hinken solche Vergleiche. Aber du kannst dir ja gerne 2 8800GTs kaufen.


Und 40% Aufschlag? Von 299% auf 399% sind es nur 33%, in Euro nur 30%.

Oh ich habe das fast vergessen.


Und 50€ können eine Investition sein, wenn man eben nur mehr will als AMD Qualität. Ausserdem sind 50€ kaum nennenwerts, hast du doch der 4850 einen 45€ Aufschlag zu 8800GT noch billigend als in Kauf genommen.

Die 4850 bietet auch deutlich mehr Leistung als die 8800GT, die GTX260 bietet nur mehr Preis. Und nicht jeder gibt sich mit NV-Qualität zufrieden (um es mal mit deinen Worten zu sagen).

AnarchX
2008-06-25, 16:48:15
Da das NDA ja jetzt weg ist, könnte ich euch die RV770 Presentation hochladen (wenn jemand das überhaupt will). Wo kann man denn PDFs uploaden?

Nicht notwendig:
http://www.pcinpact.com/actu/news/44386-Radeon-HD-4850-4870.htm

Wenn dann kannst du ein paar R8xx PDFs hochladen. ;):D

GeneralHanno
2008-06-25, 16:48:21
Da das NDA ja jetzt weg ist, könnte ich euch die RV770 Presentation hochladen (wenn jemand das überhaupt will). Wo kann man denn PDFs uploaden?

super idee ;) wo kann ich dir aber auch nicht sagen ...

Der_Korken
2008-06-25, 16:49:47
Richtig, man bekommt nämlich zwei Karten, die genauso viel verbrauchen und schneller sind.
Wieso zählt eigentlich bei nVidia das "Verdopplungsprinzip" nicht? :confused:


Es geht darum, dass man die 4870 nicht direkt mit der 8800GT vergleichen kann, da sich die 4870 einfach in einem anderen Preis-Segment bewegt. Man kann nicht einfach zwei kleinere Karten nehmen, die Leistung aufaddieren und dann behaupten, man hätte damit das bessere P/L-Verhältnis, das ist einfach Unsinn. Wenn man das so einfach könnte, dann könnte man eben, wie reunion schon angemerkt hat, einfach eine low-end-Karte im Bereich von 10€ nehmen und einfach 10 Stück davon aufaddieren.

w0mbat
2008-06-25, 16:50:09
@AnarchX: Oh, da waren die Franzosen schneller :(
Und nein, zum R8xx habe ich (noch) nichts. Aber du könntest alles über den G200b hochladen ;)

LovesuckZ
2008-06-25, 16:53:50
Es geht darum, dass man die 4870 nicht direkt mit der 8800GT vergleichen kann, da sich die 4870 einfach in einem anderen Preis-Segment bewegt. Man kann nicht einfach zwei kleinere Karten nehmen, die Leistung aufaddieren und dann behaupten, man hätte damit das bessere P/L-Verhältnis, das ist einfach Unsinn. Wenn man das so einfach könnte, dann könnte man eben, wie reunion schon angemerkt hat, einfach eine low-end-Karte im Bereich von 10€ nehmen und einfach 10 Stück davon aufaddieren.

Es geht hier um SLI. Und diese Irrsinnigkeit wurden von vielen bei der 4850 zur GTX280 ebenfalls gemacht. Dort hat sich z.B ein reunion nicht eingesetzt und diesen Vergleich als unsinn abgestempelt.
Natürlich ist es falsch, so zudenken. Aber es wurde praktiziert, um nVidia's Preisgestaltung zu kritisieren. Wieso darf man es nicht auch bei AMD anwenden?

reunion
2008-06-25, 16:58:58
Es geht hier um SLI. Und diese Irrsinnigkeit wurden von vielen bei der 4850 zur GTX280 ebenfalls gemacht. Dort hat sich z.B ein reunion nicht eingesetzt und diesen Vergleich als unsinn abgestempelt.
Natürlich ist es falsch, so zudenken. Aber es wurde praktiziert, um nVidia's Preisgestaltung zu kritisieren. Wieso darf man es nicht auch bei AMD anwenden?

Weil wir hier nicht im Kindergarten sind? Und ich habe solche Vergleiche weder mit der 4850 gemacht, noch hätte ich mich hier dagegen "eingesetzt" wenn du nicht direkt mir geantwortet hättest. Angefangen hat alles mit deinem ersten Post auf welchen ich geantwortet habe und der war ja noch viel weiter entfernt von der Realität.

LovesuckZ
2008-06-25, 17:10:15
Weil wir hier nicht im Kindergarten sind? Und ich habe solche Vergleiche weder mit der 4850 gemacht, noch hätte ich mich hier dagegen "eingesetzt" wenn du nicht direkt mir geantwortet hättest. Angefangen hat alles mit deinem ersten Post auf welches ich geantwortet habe und das war ja noch viel weiter entfernt von der Realität.

Abgesehen von Beleidigungen: Du findest also die Möglichkeit keine nVidiaähnliche Texturfilterung, kein TSSSAA und kein SSAA zu haben als keinen Nachteil an? Ja, dann ist das P/L Verhältnis in Ordnung. Aber ich denke dann auch, dass Diskussionen um Bildqualität auch nicht mehr geführt werden sollten.
Und ja, ich finde es hochschade, dass du bei den Diskussionen um Crossfire 4850gegen GTX280 so ruhig warst und jetzt plötzlich den Vergleich als "irrsinnig" abstempels. Denn am Preis der 8800GT und 4870 kann weder ich noch du etwas. Und somit fällt der P/L Pokal wohl kaum die Arme der 4870, denn dafür ist a) nicht schnell genug und b) verbraucht die Karte eindeutig zuviel Strom.

Kriton
2008-06-25, 17:15:06
Nun ja, was features angeht bietet sowohl NV als auch ATI jeweils etwas, was die andere Firma nicht hat. Was man da bevorzugt ist sicher auch eine Geschmacksfrage.

Sorkalm
2008-06-25, 17:16:11
@AnarchX: Oh, da waren die Franzosen schneller :(

Jop, aber interessant sind die Dinger schon. :)
Die Präsentationen der Franzosen heißen 1,2,3 und 6, gibts dazwischen noch was?

reunion
2008-06-25, 17:19:29
Du findest also die Möglichkeit keine nVidiaähnliche Texturfilterung, kein TSSSAA und kein SSAA zu haben als keinen Nachteil an? Ja, dann ist das P/L Verhältnis in Ordnung. Aber ich denke dann auch, dass Diskussionen um Bildqualität auch nicht mehr geführt werden sollten.

Das habe ich nie behauptet, nur habe ich eben auch bei AMD Vorteile. Siehe meine erste Antwort auf deinen Beitrag. Und TSSSAA gibt es sehrwohl, wenn man den richtigen Treiber erwischt. :D Das wird dann hoffentlich auch mal so funktionieren, wie man es im Treiber einstellt.


Und ja, ich finde es hochschade, dass du bei den Diskussionen um Crossfire 4850gegen GTX280 so ruhig warst und jetzt plötzlich den Vergleich als "irrsinnig" abstempels.


Weil wir hier nicht im Kindergarten sind? Und ich habe solche Vergleiche weder mit der 4850 gemacht, noch hätte ich mich hier dagegen "eingesetzt" wenn du nicht direkt mir geantwortet hättest. Angefangen hat alles mit deinem ersten Post auf welches ich geantwortet habe und das war ja noch viel weiter entfernt von der Realität.


Denn am Preis der 8800GT und 4870 kann weder ich noch du etwas. Und somit fällt der P/L Pokal wohl kaum die Arme der 4870, denn dafür ist a) nicht schnell genug und b) verbraucht die Karte eindeutig zuviel Strom.

Das P/L-Verhältnis wurde mit zunehmenden Preis schon immer schlechter, dein Vergleich ist lächerlich, aber das hast du ja schon selbst zugegeben. Deshalb verstehe ich nicht wie du jetzt wieder damit anfangen kannst. In ihrem Preisbereich ist die HD4870 jedenfalls konkurrenzlos.

Gast
2008-06-25, 17:51:50
Das soll sich mit dem 8.7ner Treiber ändern, anscheint hat man die neuen Stromspar features noch nicht im griff.

unter last gibt es keine stromspar-features.

w0mbat
2008-06-25, 17:52:33
Jop, aber interessant sind die Dinger schon. :)
Die Präsentationen der Franzosen heißen 1,2,3 und 6, gibts dazwischen noch was?

Als ich die damals bekommen habe waren folgende dabei:
http://img359.imageshack.us/img359/6569/rv770pq0.jpg

Und noch eine die ich hier aber nicht zeigen darf :D

Sorkalm
2008-06-25, 17:54:07
Das sind 1, 2 und 3. Die mit der 06 heißt "HDMedia-Final".

w0mbat
2008-06-25, 17:55:35
Hm, kA die hab ich nicht.

Sorkalm
2008-06-25, 17:57:00
Liegt wahrscheinlich im Presse-Bereich. Zu dem muss ich mir auch noch mal Zugriff verschaffen. ;)

w0mbat
2008-06-25, 17:59:35
Ich bekomme die alle via email, also weiß ich nicht wo die liegen.

GeneralHanno
2008-06-25, 18:08:52
naja ich denke 4 und 5 sind zum R700 beziehungsweise zu AMDs "neuer" CF-technologie allgemein ;)

Gast
2008-06-25, 18:33:39
GPGPU gibts auch bei ATI,


richtig, NV scheint aber wesentlich weiter zu sein


und dort heisst PhysX eben Havok...

Havoc kann auf der GPU lediglich effektphysik berechnen und ist damit mit PHysX nicht im geringsten vergleichbar.

Gast
2008-06-25, 18:34:41
Die Logik geht mir ab. Gerade im Hinblick auf eher limitierende GPUs in dem Bereich wo Physikberechnung eine Rolle spielt (Spiele) ist eine Verwendung der Rechenlast der CPU anstatt der GPU doch sinnvoller...


mit exzessiver physiknutzung wird immer die cpu limitieren (ja auch mit hardwarebeschleunigung, aber die macht es erstmal nutzbar)

Gast
2008-06-25, 18:35:55
wie gesagt ich hab 15-25FPS aber halt auch keinen 4Ghz Quadcore wie Computerbase

dann hast du garantiert PhysX nicht aktiviert, das ist nämlich ungefähr die framerate die man ohne PhysX-treiber bekommt.

Gast
2008-06-25, 18:37:55
Jupp, die Aussage "Fast double precision processing (240 GigaFLOPS–2x of GTX280)" konnten sie sich auch nicht in ihren Dokumenten verkneifen. ;)

nur dummerweise bleibt bei ATI dann keine SP-leistung mehr übrig.

NV bietet zwar nur 90GFLOPs in DP, dafür aber weiterhin unbeeindruckte 933GFLOPs in SP.

deekey777
2008-06-25, 18:41:04
nur dummerweise bleibt bei ATI dann keine SP-leistung mehr übrig.

NV bietet zwar nur 90GFLOPs in DP, dafür aber weiterhin unbeeindruckte 933GFLOPs in SP.
Stimmt nicht.

Gast
2008-06-25, 18:43:06
ok lassen wir die verbrauchssache aussen vor da (bisher weil powerplay funzt noch nicht) so richtig überzeugen kann.....

behauptet nvidia genauso ;)

tombman
2008-06-25, 18:43:17
Stimmt nicht.
Wie kann man diese ATI Aussage einschätzen? DP vs DP etc....

Coda
2008-06-25, 18:45:56
Ich hab's doch schon gesagt. Erstens sind die FLOPs der Architekturen generell nicht vergleichbar und zweitens kann ATI keine Special-Functions in DP ausführen.

Gast
2008-06-25, 18:46:16
nur dummerweise bleibt bei ATI dann keine SP-leistung mehr übrig.

NV bietet zwar nur 90GFLOPs in DP, dafür aber weiterhin unbeeindruckte 933GFLOPs in SP.

und beim rv770 waren es 200gflops in dp?

Gast
2008-06-25, 18:47:31
Stimmt nicht.

was stimmt daran nicht?

NV hat dezidierte DP-ALUs die keine SP-leistung wegnehmen, ATI lässt die SP-ALUs loopen, wodurch DP-operationen immer auch SP-leistung wegnehmen.

reunion
2008-06-25, 18:48:57
was stimmt daran nicht?

NV hat dezidierte DP-ALUs die keine SP-leistung wegnehmen, ATI lässt die SP-ALUs loopen, wodurch DP-operationen immer auch SP-leistung wegnehmen.

Die DP-ALUs sharen alle Register, etc. Wenn DP gerechnet wird hat ein GT200 genau 0 GFOPs SP-Leistung übrig.

deekey777
2008-06-25, 18:49:42
was stimmt daran nicht?

NV hat dezidierte DP-ALUs die keine SP-leistung wegnehmen, ATI lässt die SP-ALUs loopen, wodurch DP-operationen immer auch SP-leistung wegnehmen.
Weil das nicht stimmt. Wenn ein Shader-Cluster die DP-Operationen ausführt, kann er keine SP-Ops ausführen.

Coda
2008-06-25, 18:49:54
Die Diskussion über DP ist eh für die Katz weil das 99% aller Leute nicht die Bohne interessieren muss.

Selbst bei CPUs ist das unwichtig bis auf wissenschaftliche Anwendungen.

Gast
2008-06-25, 19:03:48
Die DP-ALUs sharen alle Register, etc. Wenn DP gerechnet wird hat ein GT200 genau 0 GFOPs SP-Leistung übrig.

und? es gibt nun doppelt so viele register/cluster.

klar kann sich der registerzugriff in die quere kommen, so dass keine 100%ige auslastung erreicht wird, mit der MADD+MUL-einheit ist es doch das selbe.

trotzdem können prinzipiell beide parallel arbeiten.

Therefore in any given cycle, SMs in a cluster are potentially executing a different instruction in a shader program in SIMD fashion. That goes for the FP64 ALU per SM too, which could execute at the same time as the FP32 units, but it shares datapaths to the RF, shared memory pools, and scheduling hardware with them so the two can't go full-on at the same time (presumably it takes the place of the MUL/SFU, but perhaps it's more flexible than that).

deekey777
2008-06-25, 19:22:54
Vielleicht verstehe ich dieses Posting nicht oder reiße es aus dem Zusammenhang:
The reason why the FP64 unit cannot be used at the same time is that there is no scheduling hardware dedicated to it (you can't issue one extra instruction per cycle for it), it shares the register file (so it needs part of the FP32 ALUs' register files' banks/ports to be reserved for it while used), and so forth. As we say in the article, it was claimed that it could be used along with FP32 up to a certain extend, so we speculate that it can feed from the same ports as the SFU/MUL which would then have to idle meanwhile.
http://forum.beyond3d.com/showthread.php?p=1176788#post1176788

Gast
2008-06-25, 20:08:45
Vielleicht verstehe ich dieses Posting nicht oder reiße es aus dem Zusammenhang:[/url]

es werden die selben datenpfade vom MAD, MUL und der DP-ALU benutzt, weshalb natürlich nicht alle einheiten voll ausgelastet werden können.

eine vermutung wäre, dass die bessere MUL-auslastung an den breiteren datenpfaden liegt.

wahrscheinlich sind effektiv entweder MADD+MUL oder MADD+DP pro takt möglich.

genaueres kann natürlich nur NV sagen ;)

Odal
2008-06-25, 21:53:54
dann hast du garantiert PhysX nicht aktiviert, das ist nämlich ungefähr die framerate die man ohne PhysX-treiber bekommt.

doch, denn ohne hab ich einstellige FPS
wie gesagt liegt an der CPU
und imho nichtsbringend wenn man dazu auch noch nen quadcore haben muss

behauptet nvidia genauso ;)

naja der einwand war ja von lovesuckz der den fakt das der RV770 auch nicht viel besser dasteht als die GTX260 was verbrauch anbelangt, als dickes plus für die GTX260 hinzustellen versuchte

naja grüne brille halt

Gast
2008-06-26, 07:39:50
Weil das nicht stimmt. Wenn ein Shader-Cluster die DP-Operationen ausführt, kann er keine SP-Ops ausführen.

Hab ich den Artikel auf Beyond3D also doch richtig verstanden. Was ich aber noch gerne wissen würde bzw. zumindest eine Einschätzung dazu:

Muss beim GT200 eigentlich die gesamte Pipeline bei DP-Code für DP benutzt werden oder kann man so wie bei ATi DP und SP Code zusammenmixen. Dadurch das die Register entweder für DP oder für SP Code "exclusiv" benutzt werden müssen bin ich mir eben nicht sicher ob das Mixen auf einer höheren Ebene (also coarse-grained und nicht fine-grained) nicht doch noch geht oder nicht.

Gast
2008-06-26, 07:57:38
Hab ich den Artikel auf Beyond3D also doch richtig verstanden. Was ich aber noch gerne wissen würde bzw. zumindest eine Einschätzung dazu:

Muss beim GT200 eigentlich die gesamte Pipeline bei DP-Code für DP benutzt werden oder kann man so wie bei ATi DP und SP Code zusammenmixen. Dadurch das die Register entweder für DP oder für SP Code "exclusiv" benutzt werden müssen bin ich mir eben nicht sicher ob das Mixen auf einer höheren Ebene (also coarse-grained und nicht fine-grained) nicht doch noch geht oder nicht.

Soweit es mir plausibel erscheint, sollte "mischen" durchaus möglich sein. Im Grunde genommen sind es ja "nur" threads, die eben doppelte register pressure verursachen. Das einzige, was kosten dürfte, sind die context switches, so ähnlich wie bei PhysX über CUDA.

robbitop
2008-06-26, 08:00:34
Die DP ALUs haben weder eigene Kontrollogik noch eigene Register beim GT200. (nutzen also beides von den SP ALUs)

Gast
2008-06-26, 08:02:33
Die DP ALUs haben weder eigene Kontrollogik noch eigene Register beim GT200. (nutzen also beides von den SP ALUs)
Steht das als Bestätigung oder als Widerspruch zu meiner Aussage oder einfach nur so da?

w0mbat
2008-06-26, 14:23:53
Was versteht man unter sideport memory?

robbitop
2008-06-26, 14:34:56
Steht das als Bestätigung oder als Widerspruch zu meiner Aussage oder einfach nur so da?
Das soll heißen, dass man die DP Leistung nicht zur SP Leistung addieren kann.

w0mbat
2008-06-26, 16:08:59
Was versteht man unter sideport memory?

Quote mich nicht gerne selber, aber kann mir jemand helfen?

AnarchX
2008-06-26, 16:10:23
Quote mich nicht gerne selber, aber kann mir jemand helfen?
In Welchem Kontext? Bei RS780 gibt es diesen Port und den dazugehörigen Speicher auch.

w0mbat
2008-06-26, 16:15:23
In Verbindung mit dem R700 und 2GB VRAM.

deekey777
2008-06-26, 17:10:38
PhysX-Treiber für AMD: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422833

Sorkalm
2008-06-26, 17:45:53
Das sind 1, 2 und 3. Die mit der 06 heißt "HDMedia-Final".

Ergänzung: Ich habe inzwischen in Reviews weiter Folien gesehen, da ging es um DirectX 10.1 und um die Havok-Engine. Das fehlt noch. ;)

Gast
2008-06-26, 20:13:43
Das soll heißen, dass man die DP Leistung nicht zur SP Leistung addieren kann.


aber nur genausowenig wie man die MUL-leistung enfach zur MADD-leistung dazuaddieren kann, was man auch immer gemacht hat.

GeneralHanno
2008-06-26, 20:30:14
aber nur genausowenig wie man die MUL-leistung enfach zur MADD-leistung dazuaddieren kann, was man auch immer gemacht hat.

diese ganzen "FLOP/s" angaben sind genau so sinnlos - wenn auch nicht ganz - wie die Mhz angaben zu pentium zeiten ... letzlich will der unterdurchschnittlich bemittelte und technisch nicht versierte kunde EINE zahl haben, die die "leistung" angibt. letzlich muss man immer die architektur als GANZES betrachten und NICHT irgend einen theoretischen outputwert (nach dem motto: wer hat den längsten balken ;))

robbitop
2008-06-26, 21:17:07
aber nur genausowenig wie man die MUL-leistung enfach zur MADD-leistung dazuaddieren kann, was man auch immer gemacht hat.
Kommt auf die Verfügbarkeit des MULs an und auf die jeweilige Instruktion.
Hinzu kommt, dass diese Einheiten neben SFU/MUL noch ein paar andere Dinge machen, die die eigentlichen SPs entlasten. Wie will man das verrechnen?
Und wie will man eine schwankende Auslastung der ALUs im R600/700 Design verrechnen?

Gast
2008-06-26, 21:31:43
Kommt auf die Verfügbarkeit des MULs an und auf die jeweilige Instruktion.

eben, genauso kann die DP-ALU trotz gleichen registern trotzdem parallel arbeiten, aber eben nicht immer.

robbitop
2008-06-26, 21:45:33
Ich glaube nicht, dass das geht. NV zählt diese auch nicht zur MAD-Leistung hinzu.

S940
2008-06-26, 22:56:36
In Verbindung mit dem R700 und 2GB VRAM.
??? Ich kenns auch nur vom 780G, der hat nen kleinen Speicherkontroller für die integrierte Chipsatzgrafik dran, und die Boardhersteller können das dann bestücken, wenn sie wollen. Hat den Vorteil, dass die Chipsatzgrafik ihren eigenen, kleinen, schmalbandigen Framebufer hat, und nicht über den HT3 zur CPU und deren Hauptspeicher muss.

Wenn Du das jetzt in Verbindung mit R700 und 2 GB VRAM nennst, dann kann das eigentlich nur der CrossFireX Sideport sein. Dann wird dann wohl doch Kohärenzverkehr mit nem 2ten R700 darüber abgewickelt, wie bei nem Opteron 2P System.

Dann könnte man das 1 GB VRAM des zweiten R700 als sideport memory bezeichnen. Nicht dolle (nicht schnell & geringe Bandbreite) zu erreichen, aber im Notfall nutzbar und die Karte hätte insgesamt volle 2 GB VRAM. Ob das mal ein dicker Leistungsvorteil ist, sei dahingestellt.

ciao

Alex

Sascha1971
2008-06-27, 06:51:27
Also hatte ich wohl doch Recht, das bei der 4870 512 MB bzw 4870(x2) 2x 512 MB nicht ausreicht für aktuelle Spiele.

"AMDs aktuelles Flaggschiff strotzt nur so vor Bandbreite, diese wird jedoch selten in entsprechend viel Leistung umgesetzt. Oft rangiert die HD 4870 nur im Rahmen des erhöhten Chiptakts vor der HD 4850. Hinzu kommt der 512 MiB große Video-Speicher, welcher gerade in Mass Effect den Flaschenhals bildet.
Angesichts des Kostenfaktors der beiden Geforce GTX 2x0 ist die HD 4870 jedoch eine sehr gute Wahl. Für 230 Euro bietet keine Karte ein besseres Spielerlebnis. Sollten Sie sich ein wenig gedulden können, so warten Sie auf das Modell mit 1.024 MiByte - dann muss auch die GTX 280 schon mal zittern. "

http://www.pcgameshardware.de/aid,649108/Test/Benchmark/Spielbarkeit_der_HD_4870_in_Age_of_Conan_Assassins_Creed_und_Mass_Effect/&page=5


Also hoffe ich mal das es eine 4870(x2) mit 2 x1024 MB geben wird.

w0mbat
2008-06-27, 13:31:57
Oder mit Shared Memory :)

Gast
2008-06-27, 13:40:19
gibt es denn schon hersteller die 1024mb versionen der hd4870 angekündigt haben?

Gast
2008-06-27, 13:42:44
gibt es denn schon hersteller die 1024mb versionen der hd4870 angekündigt haben?
Nein!
Solange die 4850 noch keine solche "released" hat, wirst du dich auf eine 4870er noch weiterhin gedulden müssen.!

ShadowXX
2008-06-27, 13:59:46
Also hatte ich wohl doch Recht, das bei der 4870 512 MB bzw 4870(x2) 2x 512 MB nicht ausreicht für aktuelle Spiele.

"AMDs aktuelles Flaggschiff strotzt nur so vor Bandbreite, diese wird jedoch selten in entsprechend viel Leistung umgesetzt. Oft rangiert die HD 4870 nur im Rahmen des erhöhten Chiptakts vor der HD 4850. Hinzu kommt der 512 MiB große Video-Speicher, welcher gerade in Mass Effect den Flaschenhals bildet.
Angesichts des Kostenfaktors der beiden Geforce GTX 2x0 ist die HD 4870 jedoch eine sehr gute Wahl. Für 230 Euro bietet keine Karte ein besseres Spielerlebnis. Sollten Sie sich ein wenig gedulden können, so warten Sie auf das Modell mit 1.024 MiByte - dann muss auch die GTX 280 schon mal zittern. "

http://www.pcgameshardware.de/aid,649108/Test/Benchmark/Spielbarkeit_der_HD_4870_in_Age_of_Conan_Assassins_Creed_und_Mass_Effect/&page=5


Also hoffe ich mal das es eine 4870(x2) mit 2 x1024 MB geben wird.
Ich würde gerne wissen wie PCGHW drauf kommt das bei MassEffekt der Speicher der Flaschenhals ist, wenn in anderen Games die Karte mit 8xMSAA (was mehr speicher kostet als 4xMSAA + TSAA) in höheren Auflösungen ohne Probleme allen nV 512MB Karten noch weiter davonrennt und auch der 260GTX das leben mehr als schwer macht.

Ernsthaft gesagt ist die Limitierung bei MassEffekt a.) das die ATIs bei den UE3-AA-Hacks stärker abfallen als die nVs und b.) das TSAA / AAA (auf das die rv770 scheinbar momentan etwas empfindlich reagiert, wie man auch an den XBit-Messungen von ED-AA + AAA sehen kann...vieleicht ein Treiberprobem?).
Beides zusammen kommt dann nicht ganz so gut.....

w0mbat
2008-06-27, 15:00:47
gibt es denn schon hersteller die 1024mb versionen der hd4870 angekündigt haben?

http://www.austin.net.au/ProductList/ProductDetail/tabid/104/ProductCode/GC48701GGI/Default.aspx

Gast
2008-06-27, 16:25:33
http://www.austin.net.au/ProductList/ProductDetail/tabid/104/ProductCode/GC48701GGI/Default.aspx

also sollten sie am 8. juli verfügbar sein...
die x2 wird da auch schon gelistet verfügbar ab august laut dem shop

AnarchX
2008-06-27, 16:31:50
RV770XTX mit WaKü gegen GTX 280?:
http://www.expreview.com/news/hard/2008-06-27/1214557308d9310.html
... jedenfalls meint Expreview, dass AMD darüber nachdenkt.

Naja, selbst mit WaKü sind wohl die ~900MHz GPU die man benötigen würde wohl eher utopisch.

Besser wäre wohl eine 2x1GiB HD4850X2, die man bei 300€ positioniert.

Gast
2008-06-27, 16:54:47
RV770XTX mit WaKü gegen GTX 280?:
http://www.expreview.com/news/hard/2008-06-27/1214557308d9310.html
... jedenfalls meint Expreview, dass AMD darüber nachdenkt.

Naja, selbst mit WaKü sind wohl die ~900MHz GPU die man benötigen würde wohl eher utopisch.

Besser wäre wohl eine 2x1GiB HD4850X2, die man bei 300€ positioniert.

jo, oder ne 4870x2 mit 2x 1gib und wakü. nur der preis wäre warscheinlich ziemlich hoch

Sorkalm
2008-06-27, 18:23:08
Naja, selbst mit WaKü sind wohl die ~900MHz GPU die man benötigen würde wohl eher utopisch.

Hmm, wieso? Die HD 4850 hat eine verdammt niedrige Spannung (1,0x Volt) für die 625 MHz, wieviele es bei der HD 4870 weiß ich nicht. Aber 900 MHz sollten mit der richtigen Spannung schon sein.
Vielleicht wird das für Sapphire. ;)
Aber ich vermute auch eher eine HD 4870 X2 vs. GTX 280.

tombman
2008-06-27, 23:30:35
Aber ich vermute auch eher eine HD 4870 X2 vs. GTX 280.
Da wird die 280er keine Chance haben...

S940
2008-06-28, 01:15:41
Hmm, wieso? Die HD 4850 hat eine verdammt niedrige Spannung (1,0x Volt) für die 625 MHz, wieviele es bei der HD 4870 weiß ich nicht. Aber 900 MHz sollten mit der richtigen Spannung schon sein.
Vielleicht wird das für Sapphire. ;)
Aber ich vermute auch eher eine HD 4870 X2 vs. GTX 280.
Spannung sind 1,24V:
<Table>
<BoardID>777</BoardID>
<BoardName>B50701</BoardName>

<Description>
RV770 B507 bd with Qimonda 16MX32 GDDR5 CLKs 900M/750E
</Description>
<Status>1</Status>
<ASICName>RV770</ASICName>
<ASICRevision>A12</ASICRevision>
<ATIPN>23FC5127MA40</ATIPN>
<Manufacturer>Qimonda</Manufacturer>
<MemoryType>GDDR5</MemoryType>
<MemoryConfig>16Mx32</MemoryConfig>
<ManuPN>IDGV51-05A1F1C-40X</ManuPN>
<MemoryClock>900</MemoryClock>
<MemoryMode>N/A</MemoryMode>
<VDDC>1.24V</VDDC>
<VDDCI/>
<MVDDC>1.5V</MVDDC>
<MVDDQ>1.5V</MVDDQ>
<BoardUser>Dae Hyun Jun</BoardUser>
</Table>Dafür ist VDIMM geringer, nur bei 1,5V, GDDR3 hat da schon des öfteren 2V.

ciao

Alex

w0mbat
2008-06-28, 01:38:05
Der 1GHz GDDR3 auf der HD4850 wird schon über 2V haben.

AnarchX
2008-06-28, 08:55:58
http://img440.imageshack.us/img440/629/20080628cd5f4f6e2fc81b6yd6.jpg

http://img440.imageshack.us/img440/7695/2008062821e8649056b17c3ba0.jpg

reunion
2008-06-28, 09:16:16
Hm, auf jeden Fall wieder eine PLX-Bridge. Bleibt die Frage welche. Leider kann man das auf dem Bild nicht erkennen. Aber da PLX keine 48 Lane /3 Port PCIe 2.0 Bridge anbietet wird man wohl die 12 Port PEX 8648 nehmen müssen.

Avalox
2008-06-28, 09:17:21
http://img440.imageshack.us/img440/629/20080628cd5f4f6e2fc81b6yd6.jpg



Hat die Karte 2GB Speicher? Oder was ist dort auf der Vor- und Rückseite zu sehen?

reunion
2008-06-28, 09:18:22
Hat die Karte 2GB Speicher? Oder was ist dort auf der Vor- und Rückseite zu sehen?

Acht Speicherbausteine pro GPU. Das kann sowohl 1GB, als auch 2GB Speicher bedeuten.

AnarchX
2008-06-28, 09:46:28
AMD-ATI's upcoming R700 (rumored to be called the 4870 X2) two-chip graphics board will be the ultimate test of this strategy.

"It's a new proprietary inter-processor communication technology. If they put these two chips on one board and it does scale properly, then they have pulled off a coup," he said.

"When you gang up graphics chips (using the traditional Scalable Link Interface or CrossFire technologies) they roll off pretty fast. ("Roll off" implies that performance doesn't scale up well.) "So when you put two boards in, you don't get twice the performance but you (only) get one and a half. You put four boards in and you (only) get about 1.7, 1.8. What ATI is saying is that with two chips using (their) proprietary inter-bus, they will get 1.8 (the performance) with two chips. If that's true, you can expect to see four of them giving you something around 2.5."

Getting 2.5 times the performance from four boards would be a masterstroke for ATI und die Skalierungszahlen für herkömliches MGPU sind ja auch eher Worst-Cases.

The previous ATI dual-chip solution was very different, Peddie said. "The HD 3870 X2 was not a proprietary bus but a CrossFire connection. The CrossFire connection and the SLI connection are at the very, very end of the pipeline. Not the most efficient place to do an inter-processor communication. That's one of the reasons ATI has abandoned it."
http://news.cnet.com/8301-13924_3-9978746-64.html

Aber ohne entsprechende Treiberprofile wird es wohl auch hier nicht funktionieren.

reunion
2008-06-28, 10:00:32
Auf jeden Fall spannend. Vielleicht schafft man es ja durch diesen Bus auch die Frameausgabe zu synchronisieren und so die Microruckler zu beseitigen.

Triskaine
2008-06-28, 10:00:51
Hm, auf jeden Fall wieder eine PLX-Bridge. Bleibt die Frage welche. Leider kann man das auf dem Bild nicht erkennen. Aber da PLX keine 48 Lane /3 Port PCIe 2.0 Bridge anbietet wird man wohl die 12 Port PEX 8648 nehmen müssen.

Das ist so nicht richtig. Die haben eine PCe 2.0 Bridge, die sowohl kleiner als die auf der letzten X2 ist und auch weniger Strom braucht. Ich denke es ist die hier:
http://www.plxtech.com/products/expresslane/pex8648.asp

AnarchX
2008-06-28, 10:03:02
Es ist doch genau das Switch was reunion meinte und das hat nunmal 12 ports, obwohl ATi eigentlich nur 3 (oder 5 ;)) bräuchte.

Gast
2008-06-28, 10:44:03
Auf jeden Fall spannend. Vielleicht schafft man es ja durch diesen Bus auch die Frameausgabe zu synchronisieren und so die Microruckler zu beseitigen.

Unwahrscheinlich, weil Mikroruckler eine Folge des AFR Verfahrens sind.

S940
2008-06-28, 12:50:39
Es ist doch genau das Switch was reunion meinte und das hat nunmal 12 ports, obwohl ATi eigentlich nur 3 (oder 5 ;)) bräuchte.
Jo, aber der Chip hat auch 48 Lanes, also 3x16. Der overhead für die nichtbenutzten Ports ist gering, sind nur ein paar Register. Wird wohl so ähnlich wie bei ATi & dem RV770 sein, wegen den 48 Lanes brauchte man soundsoviele Pads, danach war noch Platz im Gehäuse ^^

Hab mir mal die PLX pdfs angeschaut, kann damit jemand was anfangen:
http://www.bilder-space.de/upload/OXrpSzMtZcT9sNt.GIF

Könnte das was für den R700 sideport sein ? Oder ist das komplett falsche Baustelle ?

ciao

Alex

Gast
2008-06-28, 19:20:53
Auf jeden Fall spannend. Vielleicht schafft man es ja durch diesen Bus auch die Frameausgabe zu synchronisieren und so die Microruckler zu beseitigen.


die ausgabe der frames ist nur ein geringeres problem, was man wahrscheinlich sogar sehr leicht in den griff bekommen würde.

das problem ist vielmehr, dass die frames für den falschen zeitpunkt berechnet werden und damit den falschen inhalt haben, das dürfte nicht so einfach transparent für die anwendung lösbar werden ohne viel performance zu kosten.

werterGast
2008-06-29, 01:43:39
RV770XTX mit WaKü gegen GTX 280?:
http://www.expreview.com/news/hard/2008-06-27/1214557308d9310.html
... jedenfalls meint Expreview, dass AMD darüber nachdenkt.

Naja, selbst mit WaKü sind wohl die ~900MHz GPU die man benötigen würde wohl eher utopisch.

Besser wäre wohl eine 2x1GiB HD4850X2, die man bei 300€ positioniert.
HD4850 Wassergekühlt bei 920 MHz
http://img3.imagebanana.com/img/jm09xeg/28052235sz2.jpg (http://img3.imagebanana.com/)
Quelle (http://www.xtremesystems.org/forums/showthread.php?t=192411&page=8)

Adam D.
2008-06-29, 13:11:46
hier stand mist.

tombman
2008-06-29, 13:19:37
HD4850 Wassergekühlt bei 920 MHz
http://img3.imagebanana.com/img/jm09xeg/28052235sz2.jpg (http://img3.imagebanana.com/)
Quelle (http://www.xtremesystems.org/forums/showthread.php?t=192411&page=8)
Nur daß dieser gpu bench bei ATI nix aussagt. Damit wollte schon Zocker28 im Luxx rumtäuschen.
Aus 23fps wurden dann im echten game nur mehr 13fps ;)

tombman
2008-06-29, 13:22:27
http://img440.imageshack.us/img440/629/20080628cd5f4f6e2fc81b6yd6.jpg

http://img440.imageshack.us/img440/7695/2008062821e8649056b17c3ba0.jpg
Nur 1 CF bridge, damit ist klar, daß mehr als 4 Gpus ned gehen wird.

Aber aussehen tut die schon geil, ein GTX280 killer eben :D

Spasstiger
2008-06-29, 13:27:41
Wenn ATI die Mikroruckler-Problematik in den Griff bekommt, sehe ich tombman schon mit zwei HD4870 X2 rumwerkeln. ;)

tombman
2008-06-29, 13:29:02
Wenn ATI die Mikroruckler-Problematik in den Griff bekommt, sehe ich tombman schon mit zwei HD4870 X2 rumwerkeln. ;)

Könnte sogar MIT MR soweit sein- alles schon berechnet ;)

Viel Aufpreis würde ich ja nicht zahlen, nachdem die 280er schon so teuer waren ;D

Mit overclock mal eben 5 Teraflop im Rechner haben kommt schon geil :D

Superheld
2008-06-30, 10:05:39
Radeon HD 4870X2 in the nude, 15% better than 4870 CrossFire?

2 x 512MB GDDR5

http://www.nordichardware.com/news,7900.html

wenn die wirklich den 4870chip verbauen will, wie groß wird dann wohl der Stromhunger sein ;(
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/30/#abschnitt_leistungsaufnahme

pest
2008-06-30, 10:16:19
wenn das wirklich nur 2x512mb sind, kann man die karte garnicht richtig ausreizen :(

tombman
2008-06-30, 10:20:08
wenn das wirklich nur 2x512mb sind, kann man die karte garnicht richtig ausreizen :(
Jo, und vorallem ZWEI davon.

AnarchX
2008-06-30, 10:22:54
Siehe #1, die GPU-Z-Screens die von AMD kommen, sagen doch eindeutig 1GiB und Shared-Memory gibt es aber der Bauweise sicherlich nicht.

Gast
2008-06-30, 13:58:46
"Two R700's is faster than GTX 280 in TriSLI"

http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2202381

Sascha1971
2008-06-30, 14:04:46
"Two R700's is faster than GTX 280 in TriSLI"

http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2202381


Wenn das tombman liest, bekomtm der bestimmt schon wieder Schaum vor dem Mund :-D

igg
2008-06-30, 14:23:21
Wenn das tombman liest, bekomtm der bestimmt schon wieder Schaum vor dem Mund :-D
Meinst Du? (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6623487&postcount=381)

Grestorn
2008-06-30, 14:26:46
"Two R700's is faster than GTX 280 in TriSLI"

http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2202381

Wie kann das gelten - generell und nicht nur in Einzelfällen - wenn eine 4870 langsamer als eine GTX280 ist?

/edit: Ach so, hier treten 4(!) GPUs gegen 3 an. Na, welch Leistung. Außerdem würde ich hier gerne einen größeren Testrahmen, sprich mehr verglichene Spiele und Szenen sehen.

Sascha1971
2008-06-30, 14:27:01
Meinst Du? (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6623487&postcount=381)


Ach wenn er die Leistung sieht verkauft er seine 280er und holt sich 2 x 4870(x2).
Er will doch nicht anderen hinter her hinken.:biggrin:

MEDIC-on-DUTY
2008-06-30, 14:29:08
"Two R700's is faster than GTX 280 in TriSLI"

http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2202381

Diese Behauptung stammt wohl aus einer ATI-Präsentation und ist daher nicht wirklich aussagekräftig. Zumal hier wieder Äpfel mit Birnen verglichen werden. Das macht ATI bekanntlich gerne und es fallen viele OnlineMagazine mit ihren wirren Benchmarks darauf rein...

MEDIC-on-DUTY
2008-06-30, 14:34:47
Ach wenn er die Leistung sieht verkauft er seine 280er und holt sich 2 x 4870(x2).
Er will doch nicht anderen hinter her hinken.:biggrin:

und wenn schon. Was ist daran so ungewöhnlich? Sollte die auch hier wieder gehypte 4870X2 wirklich ihre Versprechen halten, werde ich ebenfalls die GTX280 wieder verkaufen.

Aber erst einmal abwarten und Tee trinken. Wenn wieder der Speicher limitiert, bleibts bei nV.

reunion@work
2008-06-30, 14:37:27
/edit: Ach so, hier treten 4(!) GPUs gegen 3 an. Na, welch Leistung.

Hier treten zwei Karten gegen drei an. ~1000€ gegen ~1500€. 4 Midragechips gegen drei High-End-Boliden. etc. pp.

Grestorn
2008-06-30, 15:00:00
Hier treten zwei Karten gegen drei an. ~1000€ gegen ~1500€. 4 Midragechips gegen drei High-End-Boliden. etc. pp.

Es ist absolut nichts ungewöhnliches, dass die Speed nicht linear mit dem Preis skaliert. Das muss ich Dir sicher nicht erklären.

Schon zu 6x00er Zeiten war es so, dass man mit SLI theoretisch in bestimmten Konstellationen Geld sparen konnte. Wenn man bereit war, die Nachteile in Kauf zu nehmen - was für einige damals ja undenkbar war, heute aber auf einmal kein Problem mehr ist. So lange nur der richtige Hersteller auf der Rechnung steht.

Sascha1971
2008-06-30, 15:03:08
Naja wenn die Miniruckler wirklich weg sind, würde ich mich ja evtl auch trauen, 2x 4870x2 zu holen.

w0mbat
2008-06-30, 15:09:49
Aber zwei HD4870 X2 haben dann wieder welche.

reunion@work
2008-06-30, 15:20:30
Es ist absolut nichts ungewöhnliches, dass die Speed nicht linear mit dem Preis skaliert. Das muss ich Dir sicher nicht erklären.

Schon zu 6x00er Zeiten war es so, dass man mit SLI theoretisch in bestimmten Konstellationen Geld sparen konnte. Wenn man bereit war, die Nachteile in Kauf zu nehmen - was für einige damals ja undenkbar war, heute aber auf einmal kein Problem mehr ist. So lange nur der richtige Hersteller auf der Rechnung steht.

Du redest völlig am Thema vorbei. Wir sprechen hier von SLi vs. CF. Beide haben die gleichen Nachteile. Ob drei oder vier GPUs sollte nicht den großen Unterschied machen. Die AMD-Karten sind nur billiger, platzsparender und mindestens gelich schnell. Und das mit dem "richtigen Hersteller" kann ja wohl nur ein Scherz sein, immerhin lässt du keine Gelegenheit aus, um nVs völlig überteuerte Karte irgendwie doch noch mit kecken Sprüchen in ein gutes Licht zu rücken.

Blacksoul
2008-06-30, 15:26:09
[...] Und das mit dem "richtigen Hersteller" kann ja wohl nur ein Scherz sein, immerhin lässt du keine Gelegenheit aus, um nVs völlig überteuerte Karte irgendwie doch noch mit kecken Sprüchen in ein gutes Licht zu rücken.

Gut, dass du sofort zur Stelle bist, um diesen "Missstand" zu korrigieren. :usweet:


t.b.d

Ailuros
2008-06-30, 15:36:09
Du redest völlig am Thema vorbei. Wir sprechen hier von SLi vs. CF. Beide haben die gleichen Nachteile. Ob drei oder vier GPUs sollte nicht den großen Unterschied machen. Die AMD-Karten sind nur billiger, platzsparender und mindestens gelich schnell. Und das mit dem "richtigen Hersteller" kann ja wohl nur ein Scherz sein, immerhin lässt du keine Gelegenheit aus, um nVs völlig überteuerte Karte irgendwie doch noch mit kecken Sprüchen in ein gutes Licht zu rücken.

Ich hab zwar etwas generell gegen SLi/Crossfire setups, aber wenn's schon dual-chip/GPU sein muss dann hat ein 2*4850@CF Gespann genug Leistung fuer einen sehr attraktiven Preis und noch in Grenzen gehaltenen Stromverbrauch. Triple-SLi und quad-CF geht fuer mich persoenlich schon in den Bereich des kompletten Unsinns.

Sascha1971
2008-06-30, 15:43:35
Aber zwei HD4870 X2 haben dann wieder welche.


Ist das sicher ? ;(

w0mbat
2008-06-30, 15:44:27
Ja, weils dann wieder ganz normales CF ist.

Adam D.
2008-06-30, 15:45:28
Ist das sicher ? ;(
Absolut, jop. Hier wird ja über eine Lösung auf dem Board spekuliert, was natürlich wieder verfliegen würde, wann sie über die normale Bridge kommunizieren würden - was im Falle von Quad-CF unumgänglich wäre.

MEDIC-on-DUTY
2008-06-30, 16:05:19
Ich hab zwar etwas generell gegen SLi/Crossfire setups, aber wenn's schon dual-chip/GPU sein muss dann hat ein 2*4850@CF Gespann genug Leistung fuer einen sehr attraktiven Preis und noch in Grenzen gehaltenen Stromverbrauch. Triple-SLi und quad-CF geht fuer mich persoenlich schon in den Bereich des kompletten Unsinns.

Sehe ich ebenso. Dieses CF/SLI-Geschmarre ist einfach übertrieben und geht in eine völlig falsche Richtung. Wenn eine High-End Grafiklösung (Consumer) nicht auf ein Board passt, haben die Entwickler etwas falsch gemacht und es hat meiner Meinung nach auch nichts in einem neuen Rechner verloren.

SLI/CF hat für mich nur einen einzigen wirklichen Nutzen und der liegt im Ausbau/Erweiterung eines bestehenden älteren Systems mit einer baugleichen günstigen Karte. Aber SLI/CF wird leider immer mehr als must have für neue Systeme angesehen.

IRONIE AN
Bald benötigt man wohl auch zwei Motherboards oder SLI-Soundkarten, weil die Hersteller unfähig sind die gewünschte Leistung auf einem Board/Chip zu realisieren?
IRONIE OFF

Gast
2008-06-30, 16:07:09
Ja, weils dann wieder ganz normales CF ist.

Das ist es auch auf einer R700-Karte.

w0mbat
2008-06-30, 16:07:48
Nein, ist es nicht. Es unterscheidet sich von dem "normalen" CF mit zwei separaten Karten.

Adam D.
2008-06-30, 16:11:35
Nein, ist es nicht. Es unterscheidet sich von dem "normalen" CF mit zwei separaten Karten.
Ist das so sicher? Die Frage ist doch, worin es sich unterscheidet. Bis jetzt wissen wir doch nur einen 2nd Generation Interface, was genau das heißt, steht doch noch in den Sternen.

MEDIC-on-DUTY
2008-06-30, 16:12:05
Ich hab zwar etwas generell gegen SLi/Crossfire setups, aber wenn's schon dual-chip/GPU sein muss dann hat ein 2*4850@CF Gespann genug Leistung fuer einen sehr attraktiven Preis und noch in Grenzen gehaltenen Stromverbrauch. Triple-SLi und quad-CF geht fuer mich persoenlich schon in den Bereich des kompletten Unsinns.

Sehe ich ebenso. Dieses CF/SLI-Geschmarre ist einfach übertrieben und geht in eine völlig falsche Richtung. Wenn eine High-End Grafiklösung nicht auf ein Board passt, haben die Entwickler etwas falsch gemacht und es hat meiner Meinung nach auch nichts in einem neuen Rechner verloren. Darüber hinaus dient SLI/CF mit HighEnd-Karten wohl eher theoretischen Benchmarks, als dem praxisbezogenen Leistungsbedarf.

SLI/CF hat für mich nur einen einzigen wirklichen Nutzen und der liegt im Ausbau/Erweiterung eines bestehenden älteren Systems mit einer baugleichen günstigen Karte. Aber SLI/CF wird leider immer mehr als must have für neue Systeme angesehen.

IRONIE AN
Bald benötigt man wohl auch zwei Motherboards oder SLI-Soundkarten, weil die Hersteller unfähig sind die gewünschte Leistung auf einem Board/Chip zu realisieren?
IRONIE OFF

Kostensparen um jeden Preis hat noch nie zu technologischen Innovationen geführt. Eher im Gegenteil.

Nakai
2008-06-30, 16:12:18
Sehe ich ebenso. Dieses CF/SLI-Geschmarre ist einfach übertrieben und geht in eine völlig falsche Richtung. Wenn eine High-End Grafiklösung (Consumer) nicht auf ein Board passt, haben die Entwickler etwas falsch gemacht und es hat meiner Meinung nach auch nichts in einem neuen Rechner verloren.

SLI/CF hat für mich nur einen einzigen wirklichen Nutzen und der liegt im Ausbau/Erweiterung eines bestehenden älteren Systems mit einer baugleichen günstigen Karte. Aber SLI/CF wird leider immer mehr als must have für neue Systeme angesehen.

IRONIE AN
Bald benötigt man wohl auch zwei Motherboards oder SLI-Soundkarten, weil die Hersteller unfähig sind die gewünschte Leistung auf einem Board/Chip zu realisieren?
IRONIE OFF

Ich sehe es auch so wie du. AMD geht einen anderen Weg, man versucht RnD zu sparen. Naja zum Glück bekommen wir dadurch gute Midrange/Performancekarten.


mfg Nakai

w0mbat
2008-06-30, 16:14:55
Ist das so sicher? Die Frage ist doch, worin es sich unterscheidet. Bis jetzt wissen wir doch nur einen 2nd Generation Interface, was genau das heißt, steht doch noch in den Sternen.

Ich bin mir sicher, nur weiß ich nicht wie gravierend die Veränderungen sind. Von besserem Scaling über keine MR und sogar Shared Memory ist alles möglich (wobei das Letztere wohl nicht passieren wird).

Adam D.
2008-06-30, 16:19:01
Ich bin mir sicher, nur weiß ich nicht wie gravierend die Veränderungen sind. Von besserem Scaling über keine MR und sogar Shared Memory ist alles möglich (wobei das Letztere wohl nicht passieren wird).
Shared Memory kann man wohl für den R700 ausschließen. Ich glaube auch nicht, dass sie die MR in Angriff genommen haben. Besseres Scaling ist aber durchaus sehr realistisch.

myopF
2008-06-30, 16:20:02
Bald benötigt man wohl auch zwei Motherboards oder SLI-Soundkarten, weil die Hersteller unfähig sind die gewünschte Leistung auf einem Board/Chip zu realisieren?
IRONIE OFF

und ich dachte 2 sockel mainboards wären nen alter hut ;)

zum aufrüsten hat sli/cf imho nie getaugt wenn man baugleiche karten dabeistecken muss, da die nächste generation dann meist zum selben preis die besseren features/leistungsdaten hat. wenn die alte karte neben einer neuen funktionieren würde wär das schon besser, dann hätte man wenigstens ne verwendung für die alte ausser verkauf, 2. system oder ein multi monitor setup.
geht das jetzt eig mit der hd3xxx und hd4xxx serie?
bei zocker ausm luxx haben ja 2 4er und ne 3er angeblich funktioniert, aber dann kamen aussagen das eine 4er und eine 3er nicht zusammen funktionieren sollen.
hat das schon jemand verifiziert?

Hermann0260
2008-06-30, 17:00:10
Ich habe ein DFI ICFX3200 T2RG mit einem C2D E8200, 2xHD4850 im CF und eine HD3870.
Hier läuft die HD3870 definitiv nicht mit einer HD4850 im CF!
Ich denke mal, beim zocker aus dem Lux hat die 3'er die Physik gemacht.

Sascha1971
2008-06-30, 17:35:21
Ich dachte es wurden schon Tests gemacht mit 2x 4850, ich meine aber da gelesen zu haben, das es keine Miniruckler mehr gab. Muss ich gleich mal mir die Tests noch mal ansehen.

igg
2008-06-30, 17:39:46
Ich dachte es wurden schon Tests gemacht mit 2x 4850, ich meine aber da gelesen zu haben, das es keine Miniruckler mehr gab. Muss ich gleich mal mir die Tests noch mal ansehen.
Laut CB Wolfgang sind sie noch da.

tombman
2008-06-30, 18:04:47
"Two R700's is faster than GTX 280 in TriSLI"

http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2202381
Hast du den link und den link und den link darauf (;D) mal verfolgt?

Da sehe ich nur den alten X125xx score, dens eh schon ewig im Netz gibt. Aber wieso sollte der schneller als 3x GTX280 sein, zumal die 2x R700 offenbar noch overclocked waren?
Air-Overclocked schafft 3x GTX280 > X14000 ;)
http://overclockingpin.com/final%20gtx280/triple-790i-air-X.jpg

Gast
2008-06-30, 20:19:38
Nein, ist es nicht. Es unterscheidet sich von dem "normalen" CF mit zwei separaten Karten.

Wo soll da der Unterschied sein?

w0mbat
2008-06-30, 20:20:30
Habe ich oben (#409) schon einmal aufgeführt.

Gast
2008-06-30, 20:34:35
Das einzige, was der Skalierung hilft wäre, den Framebuffer des 2. Chips nicht über PCIe zu übertragen (weil das zum Zeitpunkt der Übertragung die PCIe-Kommunikation zwischen Board und Karte unterbricht). Z.B so wie die R5xx CF das über einen DVI-Port machten. Aber an den Mikrorucklern wird das nichts ändern.

tombman
2008-06-30, 21:45:06
Der sideport soll auch nur zwecks besserem skaling da sein, habe ich gehört...

An AFR MR kann er gar nix ändern...

Sorkalm
2008-06-30, 22:13:45
Der sideport soll auch nur zwecks besserem skaling da sein, habe ich gehört...

An AFR MR kann er gar nix ändern...

Theoretisch könnte man MR auch über die Treiber fixen. Die Frage ist halt nur wie sinnvoll diese Lösung ist. Wozu der Sideport da ist, ist ja auch noch nicht bekannt.
Von daher würde ich sagen, klar ist das noch nicht. Wirklich daran glauben, dass die MR damit entfernt werden, tue ich zwar nicht, aber eine Chance sollte bestehen.

puntarenas
2008-07-01, 00:18:15
Ich habe mal jede Menge OT-Beiträge entsorgt, die Reputation gewisser Foren, die Aussagekraft diverser Benchmarks und wer diese deuten kann passen hier nicht wirklich rein. Bitte lasst uns beim Thema bleiben, das ist spekulativ genug: R700 im Q2 2008: RV7xx und HD4870(X2) :)

Grestorn
2008-07-01, 08:15:10
Du redest völlig am Thema vorbei. Wir sprechen hier von SLi vs. CF.

Eigentlich nicht. Ich dachte, wir sprechen von 4870 (X2) ggü. der GTX280 (SLI). Von der Effizienz von SLI ggü. CF ist nicht die Rede (wobei das freilich eine Rolle spielt, ich bezweifle aber, dass sich CF nennenswert von SLI absetzen kann - eher im Gegenteil, aber aus anderen Gründen die nicht alleine den Speed bei Triple-A Produkten betreffen).

Beide haben die gleichen Nachteile. Ob drei oder vier GPUs sollte nicht den großen Unterschied machen.

Da gebe ich Dir prinzipiell Recht.

Die AMD-Karten sind nur billiger, platzsparender und mindestens gelich schnell. Und das mit dem "richtigen Hersteller" kann ja wohl nur ein Scherz sein, immerhin lässt du keine Gelegenheit aus, um nVs völlig überteuerte Karte irgendwie doch noch mit kecken Sprüchen in ein gutes Licht zu rücken.

Zeig mir mal solche Postings von mir. Wie schon oft geschrieben: Ich kritisiere nVidia deutlich öfter als ATI. Mich als nVidia-Fanboy zu bezeichnen geht wohl absolut daneben.

Grestorn
2008-07-01, 08:18:58
Shared Memory kann man wohl für den R700 ausschließen. Ich glaube auch nicht, dass sie die MR in Angriff genommen haben. Besseres Scaling ist aber durchaus sehr realistisch.

Shared Memory kann alleine auch absolut nichts gegen die "Mikroruckler" (besser: zeitlicher Versatz der Frames, ich würde also lieber "Frameversatz" sagen, das trifft den Sachverhalt deutlich besser) bringen.

Ich weiß nicht, wie dieses absolut absurde Gerücht aufgekommen ist.

Der Treiber hat die Möglichkeit glättend einzugreifen, und das völlig unabhängig von der Hardware.

MEDIC-on-DUTY
2008-07-01, 09:20:08
Anhand dieser "Frameversatz"-Thematik und weiterer Probleme sieht man doch ganz klar, dass dieser SLI/CF-Mist nichts taugt. Ob nun ATI oder nV spielt dabei keine Rolle. Auch die aus zwei + X Karten gezogene Leistungssteigerung ist in einer praktischen Umgebung (Games) nicht wirklich zufriedenstellend. Darüber hinaus rechnet sich i.d.R ein CF/SLI-System nicht, auch nicht mit Midrange-Karten, da meist zum Preis von zwei Karten eine bessere mit mehr Leistung zum gleichen Preis zu haben ist. Einzige Ausnahme war die 8800GT. Diese zeigte im SLI-Betrieb eine sehr gute Performance fürs Geld. Was aber der Karte und nicht SLI zuzuschreiben ist.

Einzig für eine ordentlich unterstütze Physikberechnung wäre SLI/CF interessant, jedoch würde ich auch hier eine Kombination aus onBoard-Grafik (Physik) und einer PCI-E Karte vorziehen. Dabei wäre es unerheblich ob die onBoard-GPU von ATI oder nV ist, falls PhysX in Zukunft bei beiden Firmen Unterstützung findet.

HPVD
2008-07-01, 09:44:35
Einzig für eine ordentlich unterstütze Physikberechnung wäre SLI/CF interessant, jedoch würde ich auch hier eine Kombination aus onBoard-Grafik (Physik) und einer PCI-E Karte vorziehen.

na das ist ja mal eine geniale anwendungs idee für die Onboard Grafik :D

AnarchX
2008-07-01, 09:51:35
Radeon HD4870 X2 Readies for Release (http://www.techpowerup.com/64378/Radeon_HD4870_X2_Readies_for_Release.htmll)
The ATI Radeon HD4870 X2 codenamed R700 is slated for a week 4, July release. This dual-GPU card which features two of the RV770 graphics processors which have been an overnight success for AMD/ATI in their single-GPU avatars, the HD4850 and HD4870, will be priced at US $499. [...]
Wenn AMD ihr Skalierungsversprechen wahr machen kann, dann gibt es hier für ~400€ massig Leistung. ;)


Ausserdem soll es noch den "Super RV770" (http://www.tgdaily.com/content/view/38194/135/)geben, wobei die 800MHz die sich Diamond von Werk ab traut, doch nicht ganz so "super" aussehen.

MEDIC-on-DUTY
2008-07-01, 10:14:24
na das ist ja mal eine geniale anwendungs idee für die Onboard Grafik :D

jo, die Dinger sind doch schon schnell genug um das hin zu bekommen, oder bin ich da jetzt auf dem Holzweg?:wink:

igg
2008-07-01, 10:19:34
Radeon HD4870 X2 Readies for Release (http://www.techpowerup.com/64378/Radeon_HD4870_X2_Readies_for_Release.htmll)
Der einzige Grund wieso ich auf die Karte warte ist,

dass sie die Preise ins Rollen bringt
Nvidia darauf wahrscheinlich reagiert

Ansonsten bringt sie wenig: Selbst wenn sie Crysis in 1920, VH, mit 35 FPS packen würde, dank Frameversatz wäre es grad für die Katz.

AnarchX
2008-07-01, 10:22:29
jo, die Dinger sind doch schon schnell genug um das hin zu bekommen, oder bin ich da jetzt auf dem Holzweg?:wink:
Naja, momentan sind wir bei ~30GFLOPs NV und ~50GFLOPs ATi, könnte wohl knapp werden. Interessant wäre eigentlich mal ein MCP72 Vantage CPU2 Score, unterstützt vom Treiber wird er ja.

Langfristig wird es natürlich wohl dann deutliche Steigerungen geben, man denke nur mal an RS880 in 2009 auf 40nm und der Packdichte von RV770 oder gar noch weiter verbessert, da sind wohl auch >200GFLOPs möglich, wenn nicht sogar 500GFLOPs :D, da 4 SIMDs ~ >50mm² @40nm + 800MHz = 512GFLOPs. ;)

Aber die Ansprüche an Ingame-Physik wachsen natürlich auch.

Grestorn
2008-07-01, 10:44:23
Anhand dieser "Frameversatz"-Thematik und weiterer Probleme sieht man doch ganz klar, dass dieser SLI/CF-Mist nichts taugt.

So würde ich das nicht sehen. Es ist eine Problematik, die aber klar lösbar ist. Was mich wundert ist, dass die Lösung so lange auf sich warten lässt.

Da fehlt wohl immer noch die Aufmerksamkeit in der Öffentlichkeit.

MEDIC-on-DUTY
2008-07-01, 10:54:34
Naja, momentan sind wir bei ~30GFLOPs NV und ~50GFLOPs ATi, könnte wohl knapp werden. Interessant wäre eigentlich mal ein MCP72 Vantage CPU2 Score, unterstützt vom Treiber wird er ja.

Langfristig wird es natürlich wohl dann deutliche Steigerungen geben, man denke nur mal an RS880 in 2009 auf 40nm und der Packdichte von RV770 oder gar noch weiter verbessert, da sind wohl auch >200GFLOPs möglich, wenn nicht sogar 500GFLOPs :D, da 4 SIMDs ~ >50mm² @40nm + 800MHz = 512GFLOPs. ;) Aber die Ansprüche an Ingame-Physik wachsen natürlich auch.

Ginge in die richtige Richtung. Damit könnte man ein paar Fliegen mit einer Klappe schlagen:

1. Stromsparen (Abschaltung der PCI-E Karte im 2D-Betrieb) - läuft schon, aber nur mit gleichem Hersteller von Grafka und Chipsatz.
2. PhsyX auf onBoard auslagern und PCI-E entlasten.
3. Käufer ist nicht abhängig vom Hersteller der Chipsatzgrafik bzw. Plattform

Klingt aber alles irgendwie zu einfach :D

Back to topic: Wann können wir mit den ersten offiziellen Benches von X2 und CF rechnen?

Adam D.
2008-07-01, 10:58:33
So würde ich das nicht sehen. Es ist eine Problematik, die aber klar lösbar ist. Was mich wundert ist, dass die Lösung so lange auf sich warten lässt.

Da fehlt wohl immer noch die Aufmerksamkeit in der Öffentlichkeit.
Die Leugnung des Problems steht wohl eher im Mittelpunkt. Frag mal jemanden, der SLi/CF besitzt: "Mikroruckler? Pff, wird alles überbewertet!!11".
Dazu scheint die Lösung per Treiber wohl Performance zu kosten. Ich glaub, das lässt sich marketingtechnisch schlecht argumentieren. Denn es ist ein Phänomen, was eh die wenigsten wahr nehmen ;)

MEDIC-on-DUTY
2008-07-01, 10:59:14
So würde ich das nicht sehen. Es ist eine Problematik, die aber klar lösbar ist. Was mich wundert ist, dass die Lösung so lange auf sich warten lässt.

Da fehlt wohl immer noch die Aufmerksamkeit in der Öffentlichkeit.

Nein, verteufeln würde ich es auch nicht. Nur trägt dieses Problem massiv zur Reduzierung des Spielspasses bei und rechtfertigt in keinster Weise den Hype um CF und SLI.

Grestorn
2008-07-01, 11:10:28
Die Leugnung des Problems steht wohl eher im Mittelpunkt. Frag mal jemanden, der SLi/CF besitzt: "Mikroruckler? Pff, wird alles überbewertet!!11".

Es wird auch überbewertet, speziell von Leuten die noch nie ein SLI/CF System gesehen haben.

Niemand leugnet das Problem, aber man muss es schon auch korrekt bewerten und nicht überdramatisieren. Die Problematik, dass der zeitliche Ablauf der Frames nicht perfekt passt, ist immer vorhanden, denn die CPU hat keine Kontrolle darüber wann ein Frame tatsächlich sichtbar wird, und deswegen gibt es IMMER einen variablen Versatz, auch bei Single-GPUs. Nur gleicht sich das bei Single-GPUs von selbst so aus, so dass jedes Frames einen nahezu konstanten Verzug zur CPU hat, eben den berühmten Input-Delay. Mit VSync ist auch dieser Verzug nicht mehr gleichmäßig. Aber all die Jahre hat das niemanden gestört.

Ich bestreite nicht, dass es im Falle von SLI in manchen Fällen echt auffällt und auch stört. Aber eben nur in bestimmten Situationen, die immer noch die Ausnahme sind.

Und, nein, ich behaupte weiterhin, dass die Lösung keine nennenswerte Performance kostet. Wenn tb mit seinem Framework fertig ist, möchte ich das auch gerne beweisen...

Adam D.
2008-07-01, 11:14:15
Ok, dann bin ich mal sehr darauf gespannt. Ich persönlich habe einmal Crysis mit einem 8800GTX-SLi-System gespielt und obwohl die Frames in Bereichen waren, wo es mit meiner 8800GT ganz ok war (25-35fps), fühlte es sich einfach enorm "unrund" an. Mehr hab ich nie gesehen, deshalb werde ich auch kein Urteil darüber abgeben ;)

Grestorn
2008-07-01, 11:18:37
Ok, dann bin ich mal sehr darauf gespannt. Ich persönlich habe einmal Crysis mit einem 8800GTX-SLi-System gespielt und obwohl die Frames in Bereichen waren, wo es mit meiner 8800GT ganz ok war (25-35fps), fühlte es sich einfach enorm "unrund" an. Mehr hab ich nie gesehen, deshalb werde ich auch kein Urteil darüber abgeben ;)

Dass sich bestimmte Spiele unrund anfühlen, auch ohne SLI, hat man immer wieder mal. Bei Crysis hatte ich das mit und ohne SLI - abhängig von Crysis-Version, Einstellungen und DX9 oder DX10.

Adam D.
2008-07-01, 11:23:51
Dass sich bestimmte Spiele unrund anfühlen, auch ohne SLI, hat man immer wieder mal. Bei Crysis hatte ich das mit und ohne SLI - abhängig von Crysis-Version, Einstellungen und DX9 oder DX10.
Hmm, kann ich nicht nachvollziehen, zumindest war ich sogar immer noch verwundert, wie relativ gut sich Crysis in Frame-Bereichen <30 spielen lies. Ich hab mit High auf 1440x900 gespielt, 64-Bit-Version, DX10.

Kriton
2008-07-01, 12:37:56
Schlagt mich wegen meiner mangelnden Hardware-Kenntnisse, aber zum Thema MR und shared memory: Können nicht beide Karten parallel (wobei natürlich interessant wäre wie man die Berechnungen vernünftig aufteilt) rechnen, dabei den Speicher gemeinsam nutzen und nur eine Karte gibt das Ergebnis aus?

Shakti
2008-07-01, 12:56:05
Im Grunde koennen sich ALLE freuen, ob mehr rot oder gruen, 317 Euro fuer die 4870X2 wird auch den Preis der GTX 280 herunterbringen, also egal was man vorzieht, es ist gut, das ATI wieder erstarkt ist.
Und mehrere Chips auf einer Karte ist die Zukunft, obs uns gefaellt oder nicht, Quad Core ist ja auch nicht mehr aufzuhalten. Auch Nvidia hat mitgeteilt, das dies ihr letzter grosser Chip war.
Und bezueglich unrund: 3DFX hat doch vor einigen Jaehrchen 60FPS Durchschnitt als Ziel benannt, fuer Egoshooter zumindest auch meine Meinung.

Grestorn
2008-07-01, 13:10:37
Schlagt mich wegen meiner mangelnden Hardware-Kenntnisse, aber zum Thema MR und shared memory: Können nicht beide Karten parallel (wobei natürlich interessant wäre wie man die Berechnungen vernünftig aufteilt) rechnen, dabei den Speicher gemeinsam nutzen und nur eine Karte gibt das Ergebnis aus?

Genau das ist das Prinzip von SLI oder CF.

Die Frage ist das Aufteilen: Wenn man ein Bild zwischen den beiden Karten aufteilt, dann nennt man das "SFR" (Split Frame Rendering) oder Tiling. Das ist wenig effizient, weil oftmals doch große Teile von beiden Karten berechnet werden müssen, in vielen Spielen sogar langsamer als eine einzelne Karte.

Wenn man die Bilder abwechselnd rechnen lässt - letztlich auch nur eine andere Aufteilung - dann nennt man das AFR (Alternate Frame Rendering), was eben die bekannten Gewinne von 50-90% bringt, aber eben auch das Problem des Frameversatzes - wenn man nichts dagegen unternimmt.

Kriton
2008-07-01, 13:19:30
Danke - ich dachte die rechnen schon ein Bild gemeinsam und die MR kämen dadurch, dass beide Karten die Daten unabhängig voneinander ausgeben.

Gast
2008-07-01, 13:28:26
Die Frage ist das Aufteilen: Wenn man ein Bild zwischen den beiden Karten aufteilt, dann nennt man das "SFR" (Split Frame Rendering) oder Tiling. Das ist wenig effizient, weil oftmals doch große Teile von beiden Karten berechnet werden müssen, in vielen Spielen sogar langsamer als eine einzelne Karte.


mit shared memory ließe sich SFR allerdings ziemlich effizient realisieren, zwar immer noch nicht so effizient wie AFR, aber schon deutlich besser.

Grestorn
2008-07-01, 13:49:21
mit shared memory ließe sich SFR allerdings ziemlich effizient realisieren, zwar immer noch nicht so effizient wie AFR, aber schon deutlich besser.

Die Übertragung des Bildes zur anderen Karte ist nicht das Problem. Das muss man bei AFR ja auch machen. Die Probleme von SFR liegen wo anders.

Gast
2008-07-01, 14:08:22
Die Übertragung des Bildes zur anderen Karte ist nicht das Problem. Das muss man bei AFR ja auch machen. Die Probleme von SFR liegen wo anders.

richtig, die probleme liegen darin dass eine karte auf die berechnungen der anderen zugreifen muss (z.b. bei Render2Texture)

mit shared-memory wäre das aber kein großes problem mehr.

Grestorn
2008-07-01, 18:36:26
richtig, die probleme liegen darin dass eine karte auf die berechnungen der anderen zugreifen muss (z.b. bei Render2Texture)

mit shared-memory wäre das aber kein großes problem mehr.

Doch, weil die eine GPU dann trotzdem darauf warten muss, dass die andere erst mal fertig ist mit dem Rendern in die entsprechende Textur. D.h. die Effizienz sinkt massiv. Das Problem bei SFR war nie der Austausch der Daten sondern immer nur dass die Parallelität der GPUs gelitten hat.

MadManniMan
2008-07-02, 10:06:51
...hui, da hat man sich was vorgenommen - scheinbar sieht AMD noch Luft nach oben und schmeisst mit derlei Gerüchten um sich - TG Daily ahoi! (http://www.tgdaily.com/html_tmp/content-view-38194-135.html)

Nochmal 30% Mehrtakt dürften zwar auch mehr Strom fressen und Hitze produzieren, als eine GTX 280, aber eben auch schneller und dennoch günstiger sein. Wir dürfen gespannt sein, welche Antwort kommt!

igg
2008-07-02, 10:10:16
Abwarten und Tee trinken...

AnarchX
2008-07-02, 10:14:12
Der "Super RV770" wurde schon hier genannt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6627226#post6627226

Fragt sich wieviele dieser Diamond-Karten, denn die 950MHz überhaupt erreichen.

Gast
2008-07-02, 13:33:00
"AMD HD 2000-4000 Raytracing-tauglich"

http://www.hardware.kilu.de/?id=8

Blacksoul
2008-07-02, 13:36:08
"AMD HD 2000-4000 Raytracing-tauglich"

http://www.hardware.kilu.de/?id=8

Hatten wir schon.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421676


t.b.d

tombman
2008-07-02, 13:37:22
"AMD HD 2000-4000 Raytracing-tauglich"

http://www.hardware.kilu.de/?id=8
Genauso wie auch die Nvidia chips...

Gast
2008-07-02, 13:38:07
Genauso wie auch die Nvidia chips...

Nö...

tombman
2008-07-02, 13:39:00
Nö...
Doch.

"Ebenfalls Raytracing-tauglich sind die Grafikchips seit der achten Geforce-Generation."

Gast
2008-07-02, 13:43:10
Doch.

"Ebenfalls Raytracing-tauglich sind die Grafikchips seit der achten Geforce-Generation."

Geforce sind bei Raytracing aber langsamer. Siehe Link.

tombman
2008-07-02, 14:02:40
Geforce sind bei Raytracing aber langsamer. Siehe Link.
Die haben nicht gesagt welche Geforces GENAU :rolleyes:

MEDIC-on-DUTY
2008-07-02, 14:03:34
Geforce sind bei Raytracing aber langsamer. Siehe Link.

Wen interessiert schon Raytracing? Alles rein experimentell. Bis das mal wirklich im Gamemarkt Einzug hält gehen noch Jahre ins Land. Dann kräht kein Hahn mehr danach, ob eine "Uraltkarte" Raytracing kann oder nicht.

MEDIC-on-DUTY
2008-07-02, 14:06:57
Der "Super RV770" wurde schon hier genannt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6627226#post6627226

Fragt sich wieviele dieser Diamond-Karten, denn die 950MHz überhaupt erreichen.

Stellt sich überhaupt die Frage, was so eine Karte bringt, wenn die 4870 X2 angeblich so viel schneller sein soll als die GTX280. Passt irgendwie nicht ins Bild. :tongue:

reunion@work
2008-07-02, 14:16:35
Stellt sich überhaupt die Frage, was so eine Karte bringt, wenn die 4870 X2 angeblich so viel schneller sein soll als die GTX280. Passt irgendwie nicht ins Bild. :tongue:

Warum nicht? Man braucht ja auch was gegen die GTX280. :D

ShadowXX
2008-07-02, 14:25:36
Stellt sich überhaupt die Frage, was so eine Karte bringt, wenn die 4870 X2 angeblich so viel schneller sein soll als die GTX280. Passt irgendwie nicht ins Bild. :tongue:
Die 4870 X2 ist aber auch nur dort schneller wo Crossfire auch funktioniert.

Abseits der Blockbuster sieht es oftmals schlecht für CF (und auch SLI) aus. Bei nV hat man dann aber immerhin noch die möglichkeit manuell (per nHancer) einzugreifen.

Solange es ATI und nV nicht hinbekommen das sich 2 oder mehr Chips nach außen hin verhalten wie ein Chip sind CF und SLI Nebenerscheinungen bzw. Kriegsschauplätze für "Wer hat den längste Vantage-Score".

Natürlich gibt es auch 2-3 Games wo sich SLI/CF tatsächlich auch lohnt, aber insgesamt gesehen wird das ganze als zu wichtig eingestuft.

HOT
2008-07-02, 15:03:45
Die haben nicht gesagt welche Geforces GENAU :rolleyes:
Das Problem ist, dass das keiner bisher so genau sagen kann. Die Chips unterscheiden sich doch erheblich. Da spielen aber unheimlich viele Dinge eine wichtige Rolle - interne Latenzen, kann man 5er VecUnits auslasten, wie effektiv ist das Caching, spielt die RAM-Bandbreite überhaupt eine tragende Rolle, ist die RAM-Latenz wichtig uswusw. Am Ende ist sicherlich mal der G200 mal der RV770 schneller, das kommt einfach stark auf die App an. Bisher kann man beleibe noch keine Prognose stellen. Es ist ja auch nicht so, als hätte NV speziell auf GP hingearbeitet, das ist mitnichten der Fall, denn der G200 ist technisch im Prinzip immernoch ein G80 mit einigen kleineren Änderungen. Deswegen frage ich mich ernsthaft, warum du so für den G200 im GP-Bereich Front machst, das ist 100% spekulativ. Bisher sieht es bei der Praxis für ATI besser aus, weil man bei der Spielephysik beide grossen Formate unterstützen kann, NV kann das nicht. Andere GP-Gebiete sind heute noch irrelevant. Das wird vllt mal interessant, wenn M$ oder jemand anders den GP-Bereich komplett standardisiert. Vorher bleibt das Kraut und Rüben.

Gast
2008-07-02, 15:07:50
Das Problem ist, dass das keiner bisher so genau sagen kann. Die Chips unterscheiden sich doch erheblich. Da spielen aber unheimlich viele Dinge eine wichtige Rolle - interne Latenzen, kann man 5er VecUnits auslasten usw. Am Ende ist mal der G200 mal der RV770 schneller, das kommt einfach stark auf die App an. Bisher kann man beleibe noch keine Prognose stellen. Es ist ja auch nicht so, als hätte NV speziell auf GP hingearbeitet, das ist mitnichten der Fall, denn der G200 ist technisch im Prinzip immernoch ein G80 mit einigen kleineren Änderungen.

Die Radeons sind bei Raytracing schneller wegen ihrer höheren MADD-Leistung(2x) und der Tessellation-Einheit.

HOT
2008-07-02, 15:13:17
Die Radeons sind bei Raytracing schneller wegen ihrer höheren MADD-Leistung(2x) und der Tessellation-Einheit.
Soviel zur Theorie. Das wird sich erweisen müssen. Es können noch andere Flaschenhälse auftreten, die die Vorteile wieder relativieren können.
RT ist aber sowieso nur für FireGL bzw. Quadros überhaupt interessant. Im Spielemarkt kannste das einfach abhaken, weil hier momentan sehr stark auf Konsolen Rücksicht genommen wird.

tombman
2008-07-02, 15:13:31
Die Radeons sind bei Raytracing schneller wegen ihrer höheren MADD-Leistung(2x) und der Tessellation-Einheit.
Beweise es :rolleyes:

HOT
2008-07-02, 15:16:00
Beweise es :rolleyes:
Kann er nicht können. Kannst du es? :| wohl eher nicht. Das bleibt pures rumraten.

tombman
2008-07-02, 15:19:34
Kann er nicht können.
Excellent :cool:

reunion@work
2008-07-02, 15:23:01
Also JulesWorld technology behauptet das jedenfalls:

In terms of performance, the Radeon 2900XT 1GB rendered Transformers scenes in 20-30 frames per second, in 720p resolution and no Anti-Aliasing. With the Radeon 3870, the test scene jumped to 60 fps, with a drop to 20 fps when the proprietary Anti-Aliasing algorithm was applied. Urbach mentioned that the Radeon 4870 hits the same 60 fps – and stays at that level with Anti-Aliasing (a ray-tracer is not expecting more than 60 fps.) JulesWorld’s technology also works on Nvidia GeForce 8800 cards and above, but the lack of a tessellation unit causes a bit more work on the ray-tracer side.

http://www.tgdaily.com/content/view/38145/135/

Gast
2008-07-02, 15:26:41
Also ich kann diese Bahuptung da nicht herauslesen.
Ich lese da nur, dass der RT Algorithmus etwas rechenintensiver ist. Von fps steht da nix.

ShadowXX
2008-07-02, 15:27:48
Also JulesWorld technology behauptet das jedenfalls:
http://www.tgdaily.com/content/view/38145/135/
Auf einer ATI Veranstaltung auf der JulesWorld technology für ATI die Marketingtrommel rühren soll werden diese sich sicher nicht hinstellen und sagen: "Ach ja...der G280 ist dabei übrigens noch schneller als die 4870";)

Wir sollten bei solchen Sachen auf unabhängige Tests hoffen.....ansonsten sehe ich es ähnlich wie HOT.

Gast
2008-07-02, 15:28:00
Oder: dass die SW-Implementierung etwas aufwendiger ist.
Aus "causes a bit more work on the ray-tracer side" kann man alles und nichts herauslesen.

reunion@work
2008-07-02, 15:29:06
Also ich kann diese Bahuptung da nicht herauslesen.
Ich lese da nur, dass der RT Algorithmus etwas rechenintensiver ist. Von fps steht da nix.

Man wird für Transformers wohl nicht ohne Grund die 2900XT anstatt der 8800U genommen haben:

ShadowXX
2008-07-02, 15:33:48
Oder: dass die SW-Implementierung etwas aufwendiger ist.
Aus "causes a bit more work on the ray-tracer side" kann man alles und nichts herauslesen.
Das ganze liegt momentan an der etwas "freien" Übersetzung des TG-Artikels von Hardware-Infos.
Die schrieben auf Ihrer Seite nämlich:

Verständlicherweise äußerte man sich auf diesem Event aber nicht zu dessen Performance. Nur so viel: Sie können Raytracing „etwas langsamer“ darstellen.


Nur genau dieses steht in genau diesem Wortlaut (nicht mal ähnlich) nirgendwo im TG-Artikel.

Man wird für Transformers wohl nicht ohne Grund die 2900XT anstatt der 8800U genommen haben:
Warum wieso und weshalb auch nicht sind in diesem Breich reine Speku. Vielleicht geviel den Jungs einfach die Farbe Rot besser, ATI hat besser Konditionen geboten (oder die HW sogar verschenkt), oder oder oder.
Es ist müssig darüber zu spekulieren, weil wir es nie erfahren werden.

Gast
2008-07-02, 15:34:28
Tja, die Radeons sind halt einfach fortschrittlicher und ihrer Zeit voraus.
Schaut euch mal Benchmarks von aktuellen Games mit einer 7900GTX und einer X1950XT an. Damals waren die beiden nahezu gleichauf, heute ist die X1950XT fast doppelt so schnell wie die 7900GTX und erreicht immernoch spielbare FPS.

reunion@work
2008-07-02, 15:38:49
Warum wieso und weshalb auch nicht sind in diesem Breich reine Speku. Vielleicht geviel den Jungs einfach die Farbe Rot besser, ATI hat besser Konditionen geboten (oder die HW sogar verschenkt), oder oder oder.
Es ist müssig darüber zu spekulieren, weil wir es nie erfahren werden.

Als ob es in dieser Größenordung auf ein paar hundert Euro ankommen würde. Sie sagen ja explizit das sie durch das fehlen einer Tesslations-Einheit mehr Arbeit haben.

deekey777
2008-07-02, 15:56:03
Ich wäre sehr vorsichtig, eine Aussage von TG Daily als "Beweis" für irgendwas zu nehmen, wenn nicht eindeutig erkennbar ist, was tatsächlich die Aussage der Interviewten ist und was eine Interpretation des Interviewers.
Aber das ist gar kein Interview, sondern eigens interpretierte Präsentation/Veranstaltung.
In terms of performance, the Radeon 2900XT 1GB rendered Transformers scenes in 20-30 frames per second, in 720p resolution and no Anti-Aliasing. With the Radeon 3870, the test scene jumped to 60 fps, with a drop to 20 fps when the proprietary Anti-Aliasing algorithm was applied. Urbach mentioned that the Radeon 4870 hits the same 60 fps – and stays at that level with Anti-Aliasing (a ray-tracer is not expecting more than 60 fps.) JulesWorld’s technology also works on Nvidia GeForce 8800 cards and above, but the lack of a tessellation unit causes a bit more work on the ray-tracer side
Welchen Einfluss hat die Tesselationseinheit überhaupt auf Raytracing?

Edit:
In terms of performance, the Radeon 2900XT 1GB rendered Transformers scenes in 20-30 frames per second, in 720p resolution and no Anti-Aliasing. With the Radeon 3870, the test scene jumped to 60 fps, with a drop to 20 fps when the proprietary Anti-Aliasing algorithm was applied.
Dass diese Aussage so stimmt, kann ich nicht glauben.

Gast
2008-07-02, 16:09:27
Dass diese Aussage so stimmt, kann ich nicht glauben.


Welche der Aussagen, du hast ja mehrere zitiert?

Gast
2008-07-02, 16:13:20
Das ist wenig effizient, weil oftmals doch große Teile von beiden Karten berechnet werden müssen, in vielen Spielen sogar langsamer als eine einzelne Karte.
Was mit einem wirklichen Shared Memory Ansatz überflüssig wäre.

deekey777
2008-07-02, 16:19:34
Welche der Aussagen, du hast ja mehrere zitiert?
Warum sollte der Unterschied zwischen der HD2900XT und der HD3870 so hoch ausfallen? Es gibt keinen Grund dafür.
Das Einzige, was ich mir vorstellen kann, dass die Werte der HD2900XT zu ihrem Launch oder gar davor aufgenommen wurde und dann deutlich später wurde die gleiche Software wurde auf der HD3870 laufen gelassen. Auch ist die API für die Tesselationseinheit nicht gerade alt (sie gibt es seit März).

Gast
2008-07-02, 16:40:28
Nvidia scared of ATI's RV770

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8239&Itemid=1

oids
2008-07-02, 18:18:52
Nvidia scared of ATI's RV770

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8239&Itemid=1



LOl-Die Stelle ist ja cool:

"......but we warned Nvidia on many occasions not to get arrogant, but of course they haven’t listened...." :biggrin:

Adam D.
2008-07-02, 18:21:34
Sowas darf man einfach nicht mehr ernst nehmen, Fuad ist zu biased. Also ob der G200-Schachzug von Nvidia was mit Ignoranz zu tun hätte :rolleyes:

oids
2008-07-02, 18:24:51
Sowas darf man einfach nicht mehr ernst nehmen, Fuad ist zu biased. Also ob der G200-Schachzug von Nvidia was mit Ignoranz zu tun hätte :rolleyes:


Ähm Es geht nicht um Ignoranz sondern um Arroganz ;)

MEDIC-on-DUTY
2008-07-02, 19:34:24
shit happens. Diese "ich-muss-jeden-tag-ne-news-bringen"-Typen div. Foren, die alle ach so gut informiert sind gehen mir ziemlich auf den Geist. Wenn´s mal nix zu berichten gibt, einfach mal die Fresse halten.

//O-Ton off / Back to topic:

Fakt ist nVidia war wieder einmal früher am Start mit einer High-End Karte als Ati. Einmal mehr eine überzeugende Leistung abgeliefert. Einmal mehr zum Launch ne ordentliche Verfügbarkeit der Karten hergestellt. Wenn das dann als Arroganz ausgelegt wird, naja ich weiß ja nicht.

Ich bin wahrlich kein nV-Fanboy, aber ich verstehe nicht, warum ATI es nicht schafft eine Karte, die zudem auch noch im HighEnd-Segment zu Hause sein soll, mit anständig Speicher auzustatten. Die 512MB limitieren in hohen Auflösungen fast immer. Es gibt aktuell keine (!) Karte von ATI die die GTX280 schlagen kann. Und eine DualChipLösung ins Rennen zu schicken, um einen Singlchip zu schlagen ist nun wirklich keine große Kunst. Daher kann ich diesen Hype um die neuen ATI-Karten erhlich gesagt nicht nachvollziehen. Ich freue mich über den Aufwind, den ATI bekommt und auch dringend braucht, aber in Sachen Technologie sehe ich nicht viel Neues, was nV in der Praxis (!) nicht auch schafft. Darüber hinaus ist DX10.1 nur theoretisch vorhanden, da keine Games dafür zu haben sind, lässt man mal das weggepatchte AC ausser Acht. Ati definiert sich aktuell nach meiner Ansicht nach nur über den Preis, und das ist für ein Unternehmen ein sehr gefährlicher Weg. Für uns natürlich eine feine Sache, keine Frage.

Gast
2008-07-02, 19:42:10
shit happens. Diese
Ich bin wahrlich kein nV-Fanboy, aber ich verstehe nicht, warum ATI es nicht schafft eine Karte, die zudem auch noch im HighEnd-Segment zu Hause sein soll,(...)ATI hat keine Karte, die im High-End Segment zu Hause sein soll. Die 48xx sind wie die 38xx vor ihnen im Performance Segment angesiedelt.

MEDIC-on-DUTY
2008-07-02, 19:57:32
ATI hat keine Karte, die im High-End Segment zu Hause sein soll. Die 48xx sind wie die 38xx vor ihnen im Performance Segment angesiedelt.

Mag sein, aber das ändert nichts an dem Problem.

Gast
2008-07-02, 20:00:28
Welches Problem? Das man aktuell kein absolutes Highend anbietet? Ist sicher kein Problem sondern eben Realtität.

Chris2CB
2008-07-02, 20:07:01
Mag sein, aber das ändert nichts an dem Problem.


;D.........

Was kostet eine GTX260/280 in der Produktion und was eine HD 4850/4870.

ATI HD 4800er Serie zielt eher auf NVidia G92/9800er Serie ab, das eine HD 4870 hier und da an eine GTX260 ran kommt ist eher ein netter Nebeneffekt.

GTX260/280 stehen für sich da, was Leistung und die kosten betreffen, wenn NVidia solch eine Leistung für 200€ anbieten könnte, würden sie es auch sicher in erwägung ziehen.

reunion
2008-07-02, 20:16:42
We have seen how the 4850 can take on the 9800GTX, 4870 taking on the 260GTX. According to news we received, the Radeon HD 4870 X2 which integrates two RV770XT GPUs (R700) model 4870X2 ATi made cards will go on sale by end of July.

The ref model PCB is named Spartan, model B509. Clk speeds are uncertain at press time. It will come with 16X32M x32 GDDR5 memory, 512 bits wide, 2GB(256Bit、1GBx2) and will sell for 499 USD.

http://my.ocworkbench.com/bbs/showthread.php?%20threadid=75057

Black-Scorpion
2008-07-02, 20:21:32
shit happens. Diese "ich-muss-jeden-tag-ne-news-bringen"-Typen div. Foren, die alle ach so gut informiert sind gehen mir ziemlich auf den Geist. Wenn´s mal nix zu berichten gibt, einfach mal die Fresse halten.

//O-Ton off / Back to topic:

Fakt ist nVidia war wieder einmal früher am Start mit einer High-End Karte als Ati. Einmal mehr eine überzeugende Leistung abgeliefert. Einmal mehr zum Launch ne ordentliche Verfügbarkeit der Karten hergestellt. Wenn das dann als Arroganz ausgelegt wird, naja ich weiß ja nicht.

Ich bin wahrlich kein nV-Fanboy, aber ich verstehe nicht, warum ATI es nicht schafft eine Karte, die zudem auch noch im HighEnd-Segment zu Hause sein soll, mit anständig Speicher auzustatten. Die 512MB limitieren in hohen Auflösungen fast immer. Es gibt aktuell keine (!) Karte von ATI die die GTX280 schlagen kann. Und eine DualChipLösung ins Rennen zu schicken, um einen Singlchip zu schlagen ist nun wirklich keine große Kunst. Daher kann ich diesen Hype um die neuen ATI-Karten erhlich gesagt nicht nachvollziehen. Ich freue mich über den Aufwind, den ATI bekommt und auch dringend braucht, aber in Sachen Technologie sehe ich nicht viel Neues, was nV in der Praxis (!) nicht auch schafft. Darüber hinaus ist DX10.1 nur theoretisch vorhanden, da keine Games dafür zu haben sind, lässt man mal das weggepatchte AC ausser Acht. Ati definiert sich aktuell nach meiner Ansicht nach nur über den Preis, und das ist für ein Unternehmen ein sehr gefährlicher Weg. Für uns natürlich eine feine Sache, keine Frage.
Dir ist aber schon klar das ATI das deutlich bessere Speichermanagement wie nV hat? 512MB bei ATI sind kein Vergleich zu 512MB bei nV.
Soll ATI jetzt auch noch DX10.1 Spiele programmieren? Beschwere dich bei nV wenn es keine Spiele gibt die es nutzen. Die halten es nicht für nötig einen Chip zu bringen der es kann.
Du hast z.T. reichlich seltsame Vorstellungen.

Sorkalm
2008-07-02, 20:26:17
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=75057

2x 1 GiB ist ganz ordentlich...

Adam D.
2008-07-02, 20:32:36
BäM, 2x1GB GDDR5 für 500$, damit haut ATi aber mächtig rein. Wenn die Skalierung passt, dürfte die Karte =>50% schneller als eine GTX280 sein - für weniger Geld.

AnarchX
2008-07-02, 20:44:28
Ja, die Skalierung ist in der Tat der Knackpunkt, ATi wäre doch gut beraten, wenn sie die Profile auch endlich frei zugänglich machen.

Aber bei diesen Kampfpreis bleibt wirklich fraglich, wie NV da noch die GTX 280 verkaufen will oder man bietet sie für $399-449 an. :D

tombman
2008-07-02, 20:46:05
Lol, jetzt schon für 420€ gelistet die GTX280.

Die kommt noch auf 350€ runter wenn Ati die X2 rausbringt :uhammer:

Deppenaufschlag FTW :(

Andererseits könnte man sich dann ja ne dritte GTX280 ins Gehäuse knallen :uhammer:

Schlammsau
2008-07-02, 20:53:53
Lol, jetzt schon für 420€ gelistet die GTX280.

Die kommt noch auf 350€ runter wenn Ati die X2 rausbringt :uhammer:

Deppenaufschlag FTW :(

Andererseits könnte man sich dann ja ne dritte GTX280 ins Gehäuse knallen :uhammer:

Dann zahlt nVidia bestimmt drauf! ;)

Sorkalm
2008-07-02, 21:20:33
Die kommt noch auf 350€ runter wenn Ati die X2 rausbringt :uhammer:

Anzunehmen, die $499 MSPR die für die 4870 X2 vermutet werden liegen ja unter 400€ inkl. MWST in Deutschland.

Dann zahlt nVidia bestimmt drauf! ;)

Das glaube ich nicht. Man verdient halt nur nicht soviel damit. Die GTX 260 kann man ja auch noch finanzieren. ;)

Gast
2008-07-02, 21:38:50
Dann zahlt nVidia bestimmt drauf! ;)


du überschätzt die herstellungskosten einer karte, großteils zahlst du immer noch die entwicklungskosten, wenn man die karten billiger verkauft dauert es zwar länger bis diese abgedeckt sind, aber man verdient im endeffekt trotzdem noch, for allem weil man die entwicklungskosten auf ganze serien umlegen kann.

Gast
2008-07-02, 21:57:08
du überschätzt die herstellungskosten einer karte, großteils zahlst du immer noch die entwicklungskosten, wenn man die karten billiger verkauft dauert es zwar länger bis diese abgedeckt sind, aber man verdient im endeffekt trotzdem noch, for allem weil man die entwicklungskosten auf ganze serien umlegen kann.

Kann man gar nicht so separiert sehen. Ist alles eine große Kalkulation mit unterschiedlichen Side-Effekten. Mann kann genausowenig die Entwicklungsabteilung zum Profit-Center machen.

Selbst wenn man gar nix mehr daran verdient wird die Karte in kleine Stückzahlen weiter verkauft. Dabei sollte man sich vor Augen führen dass auch Ausschuss, Rückläufer usw. mit abgedeckt werden müssen.

Adam D.
2008-07-02, 22:04:40
Ja, die Skalierung ist in der Tat der Knackpunkt, ATi wäre doch gut beraten, wenn sie die Profile auch endlich frei zugänglich machen.
Gab's bis jetzt noch keine Infos zu, oder? Würde mich wundern, bin mir nicht sicher, ob das Treiber-Team schon so weit ist, dass man frei konfigurierbare Profile anbieten kann. Es gibt ja jetzt schon genug Argumente für die Karte, wenn sie jetzt auch noch treiberseitig fortschrittlicher werden, dann wird's hart für Nvidia. Bin übrigens weiterhin über die Taktraten gespannt, in den ganzen Quellen wird ja von 2 RV770XT gesprochen, damit hauen sie die TDP >320W, was wirklich richtig krank wär.

Aber bei diesen Kampfpreis bleibt wirklich fraglich, wie NV da noch die GTX 280 verkaufen will oder man bietet sie für $399-449 an. :D
Der erste Schritt ist getan: die GTX280 wurde um 90$ gesenkt. Der Preiskampf wird richtig richtig teuer für Nvidia.

MEDIC-on-DUTY
2008-07-02, 22:19:16
Dir ist aber schon klar das ATI das deutlich bessere Speichermanagement wie nV hat? 512MB bei ATI sind kein Vergleich zu 512MB bei nV.
Soll ATI jetzt auch noch DX10.1 Spiele programmieren? Beschwere dich bei nV wenn es keine Spiele gibt die es nutzen. Die halten es nicht für nötig einen Chip zu bringen der es kann.
Du hast z.T. reichlich seltsame Vorstellungen.

Ja klar ist mir das bekannt und bin auch erstaunt was ATI aus 512 dennoch rausholt. Aber es wäre interessant wie der Karte mit 1GB zur 280er steht.

Ich beschwere micht nicht über fehlende 10.1 Games. Ich stelle fest. Wenn ATI die Game-Entwickler nicht dafür begeistern oder überzeugen kann, dann ist es nicht nVs Problem.

MEDIC-on-DUTY
2008-07-02, 22:24:14
Lol, jetzt schon für 420€ gelistet die GTX280.

Die kommt noch auf 350€ runter wenn Ati die X2 rausbringt :uhammer:

Deppenaufschlag FTW :(

Andererseits könnte man sich dann ja ne dritte GTX280 ins Gehäuse knallen :uhammer:

550,- here :uhammer2: Aber damit habe ich schon gerechnet. Irgendwie muss man das Sommerloch überbrücken :D

MEDIC-on-DUTY
2008-07-02, 22:26:46
2x 1 GiB ist ganz ordentlich...

das rockt. Doch noch schnell die GTX bei ebay verkloppen und nen paar Tage mit ner G6200 Turbo Cach Gamen ;D