PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4850: (P)Review-Thread


Seiten : 1 2 3 [4] 5

Schlammsau
2008-06-21, 13:18:12
Und nur weil nV eine andere Treiberpolitik fährt als ATI muss diese nicht gleich schlecht sein.

Meine Rede, nur weil ATi eine andere Politik fährt als nV, muss diese nicht gleich schlecht sein!

Labberlippe
2008-06-21, 13:18:27
Hi

Geht das gebashe schon wieder los.
Die neue ATi Präsentiert sich alles andere als schlecht.

Warten wir mal die ersten Reviews ab wo auch das Featureset b.z.w die "Bildverbesserer" genauer unter die Lupe genommen wird.

Jetzt mal gleich auf die "super" Vorteile von nVIDIA hinzuweisen bringt mal gar nichts.


Gruss Labberlippe

Labberlippe
2008-06-21, 13:21:09
Ob du es glaubst oder nicht....für viele Leute ist sowas extrem wichtig (gerade die Hybridmodi und Supersampling).

Und nHancer seht für etwas was ATI bisher überhaupt nicht mal im Ansatz bietet: Transparente Einstellungen des Treibers und das nicht nur bei SLI.

Das beides zusammen kann so viel ausmachen das Leute auch gerne 30% mehr Geld ausgeben.

Im Prinzip kann nHancer (in den wirklich relevanten sachen) mehr als das Treiberpanel. Und das was nHancer kann, kann das TrayTool nicht mal im Ansatz.....

Und gerade die TrayTools verursachen auch gerne mal Probleme bei Games und man benötigt bei nV auch kein Framework 2.0 (bzw. 1.1) um sein Control-Panel aufzurufen.


Was ich damit sagen will: Es bringt nicht gegen Sachen zu stänkern die man nicht kennt und deren Funktionsumfang man nicht mal einschätzen kann.

Hi

Hört doch mal mit dem Gejammer über Framenetwork auf, ist eh schon lange Bestandteil von Windows, hier ATi einen Schuh daraus zu machen ist doch ein Witz.

Ich nutzte das CCC seit dem Anfang an und es hat sich sogar sehr gut entwickelt, wenn ich nen Direkt Vergleich ziehe dann ist das Panel von nVIDIA eher mager.

Gruss Labberlippe

Ronin2k
2008-06-21, 13:24:31
ich wollt doch nur bloom + AA bei star wars galaxies :D bekommt euch wieder ein ist ja schlimm :P also wirds da wohl net gehen hmm :frown: i will aber so 4850 :)

nur zur info, ich hatte genug von beiden nvidia wie ati von daher war das keine anspielung :)

ShadowXX
2008-06-21, 13:27:59
Hi
Hört doch mal mit dem Gejammer über Framenetwork auf, ist eh schon lange Bestandteil von Windows, hier ATi einen Schuh daraus zu machen ist doch ein Witz.

Das mit dem Framework habe ich nur nebenbei erwähnt und gehört nicht mal ansatzweise zu den wichtigen Gründen die ich genannt habe....aber das hätte man auch bemerkt wenn man meinen Text richtig gelesen hätte.

Ich nutzte das CCC seit dem Anfang an und es hat sich sogar sehr gut entwickelt, wenn ich nen Direkt Vergleich ziehe dann ist das Panel von nVIDIA eher mager.

Man kann im CCC nicht mehr und nicht weniger einstellen als bei nV und für meine Begriffe ist das CCC für das was es sein soll überfrachtet, aber das ist nur meine persönlich Meinung.

Marty98
2008-06-21, 13:30:32
Hi

Hört doch mal mit dem Gejammer über Framenetwork auf, ist eh schon lange Bestandteil von Windows, hier ATi einen Schuh daraus zu machen ist doch ein Witz.

Ich nutzte das CCC seit dem Anfang an und es hat sich sogar sehr gut entwickelt, wenn ich nen Direkt Vergleich ziehe dann ist das Panel von nVIDIA eher mager.

Gruss Labberlippe

Viele wie ich nutzen noch XP und .net ist da kein Bestandteil. Ich habe mit meiner 3850 damals glatte 3 Tage gebraucht überhaupt CCC zu laufen zu bekommen und war bei weiten nicht der einzige mit dem Problem.

Ich sage damit nicht dass das nVidia Control Panel unbedingt besser ist, beide haben Vor und Nachteile. Jedoch kann ich bei nVidia auf nHancer ausweichen und alleine deswegen würde ich 30% mehr für eine Graka zahlen. Wenn noch Supersampling und keine Probleme mit Desktoptransparenz dazu kommen bin ich sogar bereit das doppelte zu zahlen für die gleiche Leistung. 4850 ist eine gute Karte wenn einem nur die Performance wichtig ist und die vielen kleineren Nachteile egal sind (was die Breite Mehrheit sein dürfte).

Nachdem die 8800 GTS G92 unter den Preislevel von der 4850 gekommen ist, kommt die neue ATI nicht mehr für mich in Frage.

Daredevil
2008-06-21, 13:33:55
Dann nimmt man halt das Ati Tray Tool wenn man eh auf alternative Tools zurückgreift.

Gast
2008-06-21, 13:35:46
Marty98 bei deinem hd3850 "Test" hast du schon damals bewiesen das du nur ATI bashst.

Zieh ab hier

Marty98
2008-06-21, 13:35:49
Dann nimmt man halt das Ati Tray Tool wenn man eh auf alternative Tools zurückgreift.

ATT hat nichts mit nHancer zu tun.

Psychopat
2008-06-21, 13:36:45
Nachdem die 8800 GTS G92 unter den Preislevel von der 4850 gekommen ist, kommt die neue ATI nicht mehr für mich in Frage.

Die billigste GTS bei Geizhals ist mit 135 Euro gelistet. Die 4850 mit 142 Euro. Also los, bestell mal.

Marty98
2008-06-21, 13:36:56
Marty98 bei deinem hd3850 "Test" hast du schon damals bewiesen das du nur ATI bashst.

Zieh ab hier

Paar Gäste wie du haben mich ohne Ende geflamed, bis ich durch Videos bewiesen habe dass die Probleme die ich beschrieb wirklich existierten.

Gast
2008-06-21, 13:37:26
ATT hat nichts mit nHancer zu tun.
Denn kauf die GTS und gig hier ruhen, was soll das hier werden ????

Daredevil
2008-06-21, 13:38:14
Ich sage damit nicht dass das nVidia Control Panel unbedingt besser ist, beide haben Vor und Nachteile. Jedoch kann ich bei nVidia auf nHancer ausweichen und alleine deswegen würde ich 30% mehr für eine Graka zahlen.
Das ist also nicht das gleiche zwischen dem CCC und dem ATT ?

Marty98
2008-06-21, 13:40:01
Das ist also nicht das gleiche zwischen dem CCC und dem ATT ?

Nein, wie ich schon sagte ATT und nHancer sind komplett verschiedene Tools. Ist als ob man als ersatz für Photoshop MS Office vorschlagen würde.

Gast
2008-06-21, 13:41:07
Das ist also nicht das gleiche zwischen dem CCC und dem ATT ?

Er will nHancer und SS--->also GTS kaufen fertig.

Labberlippe
2008-06-21, 13:47:49
Das mit dem Framework habe ich nur nebenbei erwähnt und gehört nicht mal ansatzweise zu den wichtigen Gründen die ich genannt habe....aber das hätte man auch bemerkt wenn man meinen Text richtig gelesen hätte.

Man kann im CCC nicht mehr und nicht weniger einstellen als bei nV und für meine Begriffe ist das CCC für das was es sein soll überfrachtet, aber das ist nur meine persönlich Meinung.


Hi

Dann komm mit dem Framenetwork Argument nicht, ich hatte Dich ja gequotet und ja ich kann Texte lesen.

Es ist und bleibt Geschmackssache was einen beliebt, für mich hat das CCC den Vorteil das ich es übersichtlicher finde, auch kann ich die Horzontale und Vertikalen mit + +/ - - / - - u.sw. Einstellen was mir bei einigen Beamern schon geholfen hat.

Ich kann und will es nicht einsehen, das Karten nur Aufhand deren Panel kritisiert werden und als Argument dann immer andere Tools vorgeschlagen werden.

Gruss Labberlippe

Viele wie ich nutzen noch XP und .net ist da kein Bestandteil. Ich habe mit meiner 3850 damals glatte 3 Tage gebraucht überhaupt CCC zu laufen zu bekommen und war bei weiten nicht der einzige mit dem Problem.

Ich sage damit nicht dass das nVidia Control Panel unbedingt besser ist, beide haben Vor und Nachteile. Jedoch kann ich bei nVidia auf nHancer ausweichen und alleine deswegen würde ich 30% mehr für eine Graka zahlen. Wenn noch Supersampling und keine Probleme mit Desktoptransparenz dazu kommen bin ich sogar bereit das doppelte zu zahlen für die gleiche Leistung. 4850 ist eine gute Karte wenn einem nur die Performance wichtig ist und die vielen kleineren Nachteile egal sind (was die Breite Mehrheit sein dürfte).

Nachdem die 8800 GTS G92 unter den Preislevel von der 4850 gekommen ist, kommt die neue ATI nicht mehr für mich in Frage.

Hi

Framenetwork ist schon seit SP2 dabei.
Es ist und bleibt halt Geschmackssache wenn Dir die nVIDIA mit nHancer besser liegt, dann soll es doch gut sein.

Nur dies als das Optimum für "alle" quasi darstellen ist auch nicht gerade förderlich.

Gruss Labberlippe

Nein, wie ich schon sagte ATT und nHancer sind komplett verschiedene Tools. Ist als ob man als ersatz für Photoshop MS Office vorschlagen würde.

Hi

Schwachsinn, beide tools haben Ihre Berechtigung.

Gruss Labberlippe

Triplepost zusammengeführt, bitte die Multi-Quote-Funktion nutzen.
-punta

AnarchX
2008-06-21, 13:53:40
Vielleicht kann ja mal jemand mit einem RV670 einen ähnlichen Vergleich machen:
http://forum.beyond3d.com/showpost.php?p=1179794&postcount=4373

4xMSAA mit Edge-Detection soll wohl 24% gegenüber 4xMSAA kosten in Crysis High.

Iceman346
2008-06-21, 14:00:40
Nein, wie ich schon sagte ATT und nHancer sind komplett verschiedene Tools. Ist als ob man als ersatz für Photoshop MS Office vorschlagen würde.

Wie kommst du zu solchen Schlüssen? Beides sind Tools die die Controlpanels der Grafikkartenhersteller teilweise (nHancer) oder vollständig (ATT) ersetzen. Dazu bieten beide Zugriff auf ansonsten versteckte Treibereinstellungen.

Der einzige Unterschied den ich sehe ist, dass das ATT das CCC wirklich komplett ersetzen kann während man im nHancer Dinge wie Farbeinstellungen etc. nicht regeln kann und dafür auf das Nvidia Kontrollpanel zurückgreifen muss.

ich wollt doch nur bloom + AA bei star wars galaxies :D bekommt euch wieder ein ist ja schlimm :P also wirds da wohl net gehen hmm :frown: i will aber so 4850 :)

Bloom sollte eigentlich immer mit AA gehen, HDR auf DX10 Karten auch, wenn die Entwickler ihre Hausaufgaben gemacht haben. So alt wie SWG ist gehe ich davon aus, dass das Spiel kein HDR nutzt, darum sollte AA problemlos funktionieren.

Ronin2k
2008-06-21, 14:08:49
eben net :) bloom bzw. postprocessing effects da greift das AA dann net :frown:


Wie kommst du zu solchen Schlüssen? Beides sind Tools die die Controlpanels der Grafikkartenhersteller teilweise (nHancer) oder vollständig (ATT) ersetzen. Dazu bieten beide Zugriff auf ansonsten versteckte Treibereinstellungen.

Der einzige Unterschied den ich sehe ist, dass das ATT das CCC wirklich komplett ersetzen kann während man im nHancer Dinge wie Farbeinstellungen etc. nicht regeln kann und dafür auf das Nvidia Kontrollpanel zurückgreifen muss.



Bloom sollte eigentlich immer mit AA gehen, HDR auf DX10 Karten auch, wenn die Entwickler ihre Hausaufgaben gemacht haben. So alt wie SWG ist gehe ich davon aus, dass das Spiel kein HDR nutzt, darum sollte AA problemlos funktionieren.

Iceman346
2008-06-21, 14:12:56
eben net :) bloom bzw. postprocessing effects da greift das AA dann net :frown:

Nur wenn das Spiel schlecht programmiert ist ;) Heutzutage nutzt doch fast jeder Titel Bloom und Postprocessing in rauhen Mengen und trotzdem geht AA in praktisch allen Titeln völlig problemlos, mit Ausnahme der UE3 Spiele.

Grestorn
2008-06-21, 14:18:27
Wie kommst du zu solchen Schlüssen? Beides sind Tools die die Controlpanels der Grafikkartenhersteller teilweise (nHancer) oder vollständig (ATT) ersetzen. Dazu bieten beide Zugriff auf ansonsten versteckte Treibereinstellungen.

Der einzige Unterschied den ich sehe ist, dass das ATT das CCC wirklich komplett ersetzen kann während man im nHancer Dinge wie Farbeinstellungen etc. nicht regeln kann und dafür auf das Nvidia Kontrollpanel zurückgreifen muss.

Eigentlich konzentriert sich nHancer auf die Spieleprofile, die mit ATI leider nicht direkt möglich sind.

Es sollte nie ein Ersatz für das Control Panel sein. Deswegen gibt es auch nur die Einstellungen, die in Profilen und für 3D-Apps genutzt werden können.

Es ist wäre eine uferlose Arbeit, das ControlPanel vollständig nachbauen zu wollen, zumal die meisten Einstellungen (wie die Farbprofile) in undokumentierter Weise in der Registry abgelegt werden. Und sie sich außerdem ständig ändern, so dass man nur am hinterherprogrammieren wäre.

Und wozu? Das was man im Panel einstellen kann, kann man dort auch wunderbar einstellen. Der einzig echte Schwachpunkt des nVidia-Panels ist die Profilverwaltung und die Oberfläche für die 3D-Optionen, und genau da setzt eben nHancer an. Nicht mehr und nicht weniger.

Iceman346
2008-06-21, 14:24:49
Das sollte dir kein Vorwurf sein Grenstorn. Ich nutze den nHancer ja gern und ausführlich, zumindestens solange bis meine 4850 komm ;) (Die Post scheints mal wieder nicht geschafft zu haben ein Paket von Gestern früh bis Heute zu mir zu bekommen...)

Die Spielprofile ermöglicht bei ATi ja das ATT, darum ist das Tool für mich bei ATi unerlässlich. Nur hat es eben, im Unterschied, auch alle Features des CCC mit drin. Ich verstehe halt nur Martys seltsame Meinung nicht.

Grestorn
2008-06-21, 14:37:51
Funktioniert das mit dem automatischen aktivieren der Spieleprofile im ATT? Da war doch mal was, das Tool hatte doch seinen eigenen Hook ins System platziert um zu erkennen, wann ein Spiel gestartet wird. Oder täusch ich mich da?

MechWOLLIer@IE
2008-06-21, 14:49:48
Zitat von reunion
Die Benchs bei denen bei AMD kein MSAA aktiviert wurde flossen mit Sicherheit nicht in das Performancerating ein.

Doch tun Sie. Die rechnen da sehr stur.
Könntest du diese unhaltbare und dazu noch unverschämte Aussage bitte wieder entfernen?

Denn an der sehe ich, dass du absolut keine Ahnung hast, wie wir testen. Und nur mal so zur info, in den Spielen wo wir bei ATi kein AA testen geht auch keins. Vegas gehört dazu, mit manchen Treibern gehts einfach nicht.

reunion
2008-06-21, 14:53:22
Funktioniert das mit dem automatischen aktivieren der Spieleprofile im ATT? Da war doch mal was, das Tool hatte doch seinen eigenen Hook ins System platziert um zu erkennen, wann ein Spiel gestartet wird. Oder täusch ich mich da?

AFAIK erstellt ATT nur eine neue Verknüpfung, und wenn diese gestartet wird werden auch die Einstellungen übernommen.

Könntest du diese unhaltbare und dazu noch unverschämte Aussage bitte wieder entfernen?

Denn an der sehe ich, dass du absolut keine Ahnung hast, wie wir testen. Und nur mal so zur info, in den Spielen wo wir bei ATi kein AA testen geht auch keins. Vegas gehört dazu, mit manchen Treibern gehts einfach nicht.

Bitte was?

Iceman346
2008-06-21, 15:10:55
Funktioniert das mit dem automatischen aktivieren der Spieleprofile im ATT? Da war doch mal was, das Tool hatte doch seinen eigenen Hook ins System platziert um zu erkennen, wann ein Spiel gestartet wird. Oder täusch ich mich da?

Wie genau es umgesetzt ist weiß ich nicht, auf jeden Fall bietet das ne automatische .exe Erkennung an. Funktionierte damals auf meiner 1900XT auch perfekt, brauchte also keine spezielle Verknüpfung anlegen oder so.

Marty98
2008-06-21, 15:16:46
HiFramenetwork ist schon seit SP2 dabei

Ist nicht mal bei SP3 dabei.

Schwachsinn, beide tools haben Ihre Berechtigung.

Klar haben beide ihre Berechtigung, hab nie was anderes behauptet. Nur haben beide nicht viel miteinander zu tun.

--

Ich freue mich sehr dass die neuen AMD Karten gut sind. Das wird Nvidia zwingen nachzulegen, was besser für alle ist.

Ich habe hier 5 Computer und 3 davon haben AMD Karten drin. Der neueste ist ein HDCP Comp mit AMD 780G. Hatte ursprünglich ein nForce 8200 Board drin und es nach 1 Woche ersetzt. Wenn man gleichzeitig HDMI und VGA verwenden will ist auf den 8200er Boards nur 16 Bit Desktopauflösung möglich. (Getestet mit Asus und Abit Boards, Support hat mir Beta Biose geschickt, die das Problem nicht lösen konnte).

Trotzdem bleibe ich im Spielerechner bei nVidia.

Würde zu AMD wechseln unter diesen Voraussetzungen (Preis ist zweitrangig):

- Supersampling
- ein Tool wie nHancer
- brauchbares TVOut für Spiele (derzeit muss man bei Clone die Desktopauflösung nehmen)
- 2D (Transparenz) und 3D Beschleunigung gleichzeitig im Fenstermodus

Auf eine der 4 Sachen könnte ich verzichten, aber nicht auf alle, schon gar nicht bei gleichen Preis zu nVidia.

Marty98
2008-06-21, 15:38:05
Funktioniert das mit dem automatischen aktivieren der Spieleprofile im ATT? Da war doch mal was, das Tool hatte doch seinen eigenen Hook ins System platziert um zu erkennen, wann ein Spiel gestartet wird. Oder täusch ich mich da?

Als ich das ATT das letzte mal verwendete (ist länger her) konnte es eben nicht automatisch den Start eines Spiels erkennen, deshalb bin ich der Meinung das es nicht viel mit nHancer zu tun hat. Hätte nicht den Nerv mich vor dem Spielstart durch Menus zu fummeln oder extra Icons/Shortcuts für jedes Spiel anlegen zu müssen. Da kann man gleich bei CCC bleiben. Dazu bin ich mir 90% sicher dass ATT gar nicht mit 48xx gehen wird, mit 38xx ging es erst 3 Monate nach Release.

Iceman346
2008-06-21, 15:54:32
Wie ich oben sagte, dass Spielstarts automatisch erkannt werden ist im ATT drin, schon seit langer Zeit, hab das Feature iirc schon auf meiner 9700 Pro genutzt.

Ist das der einzige Punkt warum du hier so gebetsmühlenartig wiederholst, dass die Tools doch grundverschieden seien? Wär ziemlich schwach...

deekey777
2008-06-21, 17:04:35
Hat CB kein eigenes Forum, dass ihr euch hier über deren Testpraktiken beschweren müsst?

AnarchX
2008-06-21, 17:24:42
Q-Setting-Diskussion:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422243

Gast
2008-06-21, 18:22:23
Hallo,
hat schon mal jemand die Videobeschleunigung der 4850 mit PowerDVD 8 getestet? Aus Mangel an BR oder HDDVD Scheiben habe ich zum Testen den Trailer von Fluch der Karibik 3 in 1080p (http://www.dvdloc8.com/clip.php?movieid=9153&clipid=3) runtergeladen. Aber bei aktivierter Hardwarebeschleunigung startet PowerDVD nur mit einem grünen Standbild (richtiges Bild ist schemenhaft zu erkennen), während der Ton normal weiterläuft. Springe ich mit dem Schieberegler an eine andere Stelle, ist für einen Bruchteil ein richtiges (Stand)Bild zu sehen, dann wird der Schirm sofort dunkel.

Catalyst 8.6 Hotfix für HD4000
PowerDVD 8.0.1730
Vista Ultimate x64
Trailer 1080p H.264

MfG!

AnarchX
2008-06-21, 19:26:34
Wer genug Platz im Gehäuse hat und sich einen Kühlerwechsel traut, der sollte wohl noch 15€ zusätzlich investieren:
http://img293.imageshack.us/img293/2781/chart1ix6.jpg
http://www.xtremesystems.org/forums/showthread.php?t=191944

Gast
2008-06-21, 19:28:04
Wer genug Platz im Gehäuse hat und sich einen Kühlerwechsel traut, der sollte wohl noch 15€ zusätzlich investieren:
http://img293.imageshack.us/img293/2781/chart1ix6.jpg
http://www.xtremesystems.org/forums/showthread.php?t=191944

geht der auch mit CF?

Gast
2008-06-21, 20:31:05
Ach, kurze Zwischenfrage da ich nicht 100 Forums- und Webseiten durchlesen muss:

Zieht die 4850 weniger Strom als ne alte x1900xt? bzw die x1900CF Masterkarte?

AnarchX
2008-06-21, 20:32:28
Zieht die 4850 weniger Strom als ne alte x1900xt? bzw die x1900CF Masterkarte?
Kann man wohl annehmen, da die TDP der 4850 bei 106W liegt und die X1900XT bei >100W real.

Gast
2008-06-21, 20:37:23
geht der auch mit CF?
KLar - kannst ja eine Lamelle bissel biegen und die Brücke durchziehen.

Gast
2008-06-21, 20:37:37
Zieht die 4850 weniger Strom als ne alte x1900xt? bzw die x1900CF Masterkarte?
Nein.

reunion
2008-06-22, 09:30:20
VR-Zone mit CrossfireX-Test:
http://www.vr-zone.com/articles/RV770_Debut_-_Radeon_HD4850_CrossfireX_Scaling/5901.html

Leider hatte man Stabilitätsprobleme.

Gast
2008-06-22, 13:01:09
Naja, ist ja bei CrossfireX nichts Neues, war schon immer sehr bescheiden.

AnarchX
2008-06-22, 13:58:30
Radeon HD 4850: (P)Review-Thread
News und Diskussionen zur HD4870 bitte hier führen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421030

Kriton
2008-06-22, 17:06:56
Das sind die ersten Werte, denen ich halbwegs traue.
Ja, das Teil rockt. :biggrin:
Jetzt noch mit einem GB und alles wird gut. :biggrin:

1 GB - hier:

http://www.ati-forum.de/allgemein/news/611-4850-von-asus-mit-eingenem-k%C3%BChler-4850-from-asus-with-own-cooler/?e960fad2

Gast
2008-06-22, 17:13:30
Naja, ist ja bei CrossfireX nichts Neues, war schon immer sehr bescheiden.

es gibt ja nicht umsonst einen Cat. 8.6 Hotfix

deekey777
2008-06-22, 17:14:21
1 GB - hier:

http://www.ati-forum.de/allgemein/news/611-4850-von-asus-mit-eingenem-k%C3%BChler-4850-from-asus-with-own-cooler/?e960fad2
Wenn, dann wieder von Palit/XpertVision (wegen des Preises). :)

MooN
2008-06-22, 17:43:29
Wie siehts mit der Lautstärke des Stock-Lüfters im Vergleich zu den Vorgängerkarten aus? Hat sich da was geändert? Über die Temperaturen kann man ja relativ viel nachlesen, aber wie sehr erinnert diese Karte noch an einen Staubsauger?

Kriton
2008-06-22, 18:18:38
Sollte sich die agressive Preispolitik in einem höheren Marktanteil niederschlagen wird es bestimmt auch hier und da etwas mit DX 10.1 Unterstützung. Dann gute Nacht G92.

Da bin ich auch mal echt gespannt - ob sich mittelfristig durch die 48XX was auf der 10.1-Schiene tun wird.

Aquaschaf
2008-06-22, 18:27:10
Wie siehts mit der Lautstärke des Stock-Lüfters im Vergleich zu den Vorgängerkarten aus? Hat sich da was geändert? Über die Temperaturen kann man ja relativ viel nachlesen, aber wie sehr erinnert diese Karte noch an einen Staubsauger?

Der Stock-Lüfter ist im idle-Betrieb sehr leise. Unter Last dreht er etwas mehr auf, bleibt aber auch in dem Bereich den ich noch als leise bezeichnen würde.

Etwas anderes: ich habe keine Radeon 2xxx oder 3xxx zum Vergleich, aber die Texturfilterung ist - zumindest mit den Einstellungen die der aktuelle Treiber anbietet - nach wie vor schlechter als sie bei R580 mit "AI off" war. Alzu viele Spiele habe ich allerdings noch nicht ausprobiert. Definitiv einen Unterschied kann ich z.B. bei Ultima 9 sehen.

Gast
2008-06-22, 18:28:26
es gibt ja nicht umsonst einen Cat. 8.6 Hotfix

Der ändert allerdings nichts grundlegend, CrossfireX ist leider noch sehr unausgereift.
Eventuell wird es ja mit dem R700 besser, gibt zumindest Spekulationen, das Ati die CrossfireX Skalierung mit neuen Techniken beim R700 verbessert hat.

MooN
2008-06-22, 18:32:07
Der Stock-Lüfter ist im idle-Betrieb sehr leise. Unter Last dreht er etwas mehr auf, bleibt aber auch in dem Bereich den ich noch als leise bezeichnen würde.


Merci, dann kann ich meine X1900XT ja beruhigt austauschen :)

horn 12
2008-06-22, 18:51:11
Also leise ist die Karte, aber wird extrem heiss. Wie laut ist der Lüfter auf 80/ 100 Prozent und dann viel kühler.
Wenn ich mir CF richten sollte, also 2x 4850 wird es im Gehäuse dann wohl noch sehr viel wärmer werden als vielleicht jetzt schon der Fall ist.
Wer kann dazu bitte was Definitives beitragen? Danke!

Gast
2008-06-22, 19:08:20
Mit 2 Karten wird es wärmer als mit einer Karte. Definitiv. Auch wenn es auf den ersten Blick vielleicht nicht selbserklärlich ist :rolleyes:

Eggcake
2008-06-22, 19:11:52
Mh werd ich mir wohl oder übel nen Accelero draufschnallen müssen. 80°+ Ist mir definitiv zu heiss. Zudem ist das wohl noch bei "normaler" Raumtemperatur gemessen - ich hab meinen PC allerdings aufm Dachstock. Sommer --> 30°+++ ;)

Sorkalm
2008-06-22, 19:30:14
Wenn der Hersteller diese Werte mit dem Referenzkühler duldet, ist das wohl nicht zu heiß. ;)

Jeder Chip verträgt unterschiedlich viel Wärme, das sollte doch inzwischen klar sein!

Eggcake
2008-06-22, 19:34:26
Wenn der Hersteller diese Werte mit dem Referenzkühler duldet, ist das wohl nicht zu heiß. ;)

Jeder Chip verträgt unterschiedlich viel Wärme, das sollte doch inzwischen klar sein!

Meine GeForce verträgt auch mehr als 80°, es hätte auch ein leichterer Kühler gereicht, nur ist 90°C unter Last zu viel - ich glaube nicht, dass die Karte wirklich mehr als 110° aushält, irgendwann ist Schluss. Und da ich, wie gesagt, noch in einem heissen Zimmer rumdaddel, wo die Temps um weitere 5-10° steigen, will ich mir das nicht antun. Zudem habe ich vor zu übertakten, was bei so einem Mikrokühlerchen kaum gross möglich ist.
Ausserdem hab ich, wenn ich übertakte, ein besseres Gefühl, wenn die Temps noch weit im grünen Bereich sind als andersrum. Habe auch lange mit dem Boxed Intel-Kühler meine CPU overclocked. Ging ohne Probleme, Temps waren im mittleren 70er Bereich. Nur hatte ich halt ein mulmiges Gefühl dabei und hab mir nen Freezer 7 Pro gekauft und verlier seitdem keinen Gedanken mehr an die CPU...

Gast
2008-06-22, 19:41:12
Wenn der Hersteller diese Werte mit dem Referenzkühler duldet, ist das wohl nicht zu heiß. ;)

Jeder Chip verträgt unterschiedlich viel Wärme, das sollte doch inzwischen klar sein!

Vertragen sicherlich, trotzdem ist die 4850 sehr heiss, so heiss das sich bei vielen schon der Oberseiten Aufkleber gelöst hat.
Bei den Single Slot Modellen sollte man zwingend einen alternativen Kühler verwenden, in Zukunft werden sicher Karten mit Dual Slot Kühlern kommen.

PatkIllA
2008-06-22, 20:05:25
Gibt es einen Test, der die neuen Audiofähigkeiten unter die Lupe nimmt?

Und wie sieht es mit der Kühlerbefestigung aus? Passt mein Waküblock von der X1900 noch?

Avalox
2008-06-22, 20:08:13
Gibt es einen Test, der die neuen Audiofähigkeiten unter die Lupe nimmt?


Ausser eine (wohl aber vielversprechende) Anmerkung habe ich noch nichts gefunden.

http://www.anandtech.com/video/showdoc.aspx?i=3338&p=2

PatkIllA
2008-06-22, 20:11:21
Ausser eine (wohl aber vielversprechende) Anmerkung habe ich noch nichts gefunden.

http://www.anandtech.com/video/showdoc.aspx?i=3338&p=2
Das kenne ich auch. Mich würde aber konkret interessieren, bei welcher Auflösung und Samplerate wieviele Kanäle möglich sind. Und wie sieht es mit Bass und Lautsprechersetup aus?
Und mit welcher Software soll denn DolbyTrue HD und dts Master durchgeschleift werden?


Und dann noch eine Frage zum Kühler.
Ist das alles ein Block oder ist der Kühler bei den Spannungswandlern separat?

anddill
2008-06-22, 20:14:57
Ein Teil:
http://ht4u.net/news/1975_saugen_oder_blasen_die_neuen_amd_hd_4000er-kuehler_fuer_4850_un_4870/

PatkIllA
2008-06-22, 21:00:25
Ein Teil:
http://ht4u.net/news/1975_saugen_oder_blasen_die_neuen_amd_hd_4000er-kuehler_fuer_4850_un_4870/
nicht so schön aber anscheinend geht es auch ohne
http://www.hartware.de/showpic.php?type=news&id=45058&nr=1&path=/media/news/45000/45058_1b.jpg

deekey777
2008-06-23, 01:06:40
Über das vorläufige Preview von Hexus sind einige sehr böse Worte gefallen, hier kommt die Erklärung: ATI Radeon HD 4850 - benchmarked against mid-range and high-end GPUs (http://www.hexus.net/content/item.php?item=13953&page=1)
Dass man Crysis auf "Medium" getestet hat, lag daran, dass die Tester mit zwei Systemen getestet haben (Medium und High) und somit auch für diese ihrer Ansicht nach die entsprechenden Settingsgewählt haben.

nagus
2008-06-23, 07:34:33
französisches review (http://www.pcinpact.com/forum/index.php?showtopic=128551).... interessant... vor allem die fertigungskosten eines GT200 ;)


Wafer de GT200 -> 95 dies -> yields ~40% -> 38 bons dies -> 5000$ / 38 = 131.58$ par puce.
Wafer de RV770 -> 223 dies -> yields ~70% -> 156 bons dies -> 5000$ / 156 = 32.05$ par puce.

AnarchX
2008-06-23, 07:37:47
Wobei die Frage bleibt, ob denn diese Yield-Zahlen stimmen, die man wohl von INQ abgeschrieben hat, aber um einiges günstiger ist RV770 sicherlich.

Interessanter finde ich da doch, dass man dort die 700MHz Marke auf der 4850 durchbrochen hat.

seahawk
2008-06-23, 07:42:57
Naja, aber gerade bei solchen Dingen ist der Inq. gut informiert. Für NV ist das eine Katastrophe. Der billige Chip ist in der Performance zu gleichwertig. In den relevanten Settings 8XMSAA/16XAF liegt selbst die kleine 48580 nur 30% hinter GT280. Die 4870 wird vorne liegen.

AnarchX
2008-06-23, 08:29:02
Naja, aber gerade bei solchen Dingen ist der Inq. gut informiert.
Fuad war es, aber bei der aktuellen INQ-Besetzung...
Und auch die Waferpreise sind fraglich, da die hier ausgehandelten Deals doch vertraulich sind.

Wie schon gesagt, bleiben wir bei der Annahme, dass RV770 deutlich günstiger ist.

Gast
2008-06-23, 08:48:38
französisches review (http://www.pcinpact.com/forum/index.php?showtopic=128551).... interessant... vor allem die fertigungskosten eines GT200 ;)


Wafer de GT200 -> 95 dies -> yields ~40% -> 38 bons dies -> 5000$ / 38 = 131.58$ par puce.
Wafer de RV770 -> 223 dies -> yields ~70% -> 156 bons dies -> 5000$ / 156 = 32.05$ par puce.


Na sowas,

da war ich mit meiner Pi-mal-daumen Einschätzung im anderen Thread ja gar nicht so weit weg.

Skinner
2008-06-23, 09:15:02
Hallo,
hat schon mal jemand die Videobeschleunigung der 4850 mit PowerDVD 8 getestet? Aus Mangel an BR oder HDDVD Scheiben habe ich zum Testen den Trailer von Fluch der Karibik 3 in 1080p (http://www.dvdloc8.com/clip.php?movieid=9153&clipid=3) runtergeladen. Aber bei aktivierter Hardwarebeschleunigung startet PowerDVD nur mit einem grünen Standbild (richtiges Bild ist schemenhaft zu erkennen), während der Ton normal weiterläuft. Springe ich mit dem Schieberegler an eine andere Stelle, ist für einen Bruchteil ein richtiges (Stand)Bild zu sehen, dann wird der Schirm sofort dunkel.

Catalyst 8.6 Hotfix für HD4000
PowerDVD 8.0.1730
Vista Ultimate x64
Trailer 1080p H.264

MfG!

Der link funktioniert zwar nicht, aber ich tippe einfach mal darauf das der Videostream nicht DXVA Kompatibel ist ;)

Mr. Lolman
2008-06-23, 09:16:54
Hallo,
hat schon mal jemand die Videobeschleunigung der 4850 mit PowerDVD 8 getestet?

Bringt denn der Catalyst für die HD4850 nicht nen eigenen ATi H.264 Codec mit? Bei meiner HD3870 ist das nämlich der Fall.

PatkIllA
2008-06-23, 09:19:25
Bringt denn der Catalyst für die HD4850 nicht nen eigenen ATi H.264 Codec mit? Bei meiner HD3870 ist das nämlich der Fall.
Wo soll der denn sein?
Außerdem kann man den nicht in PowerDVD nutzen.

Mr. Lolman
2008-06-23, 09:35:21
Wo soll der denn sein?
Außerdem kann man den nicht in PowerDVD nutzen.

Keine Ahnung. Ich hab den bei DVB-Dream in der Auswahlliste für die H.264 Codecs gefunden. Wird wohl ein Treiberbestandteil sein (oder AVIVO?)

EDIT - Ist wohl im Avivo Paket enthalten: http://ati.amd.com/technology/avivo/h264.html

PatkIllA
2008-06-23, 09:36:21
wie heißt der denn?
Bei der 2600 Karte habe ich nie einen gesehen.

Mr. Lolman
2008-06-23, 09:39:40
Irgendwas mit ATI H.264. Ist wohl im Avivo Paket enthalten: http://ati.amd.com/technology/Avivo/index.html

DL: http://game.amd.com/us-en/drivers_catalyst.aspx?p=xp/radeonxavivo-xp

Gast
2008-06-23, 09:58:21
EDIT - Ist wohl im Avivo Paket enthalten: http://ati.amd.com/technology/avivo/h264.html

Link zum Download?

Thunder99
2008-06-23, 10:31:43
Wie verhält sich nun die Karte wenn man AF zuschaltet? Bricht sie immer noch stark ein?

Im Vergleich hat zwar die HD4850 doppelt so viel Texelleistung aber nur halb so viel wie die 9800GTX(+)

Mr. Lolman
2008-06-23, 10:33:07
Link zum Download?

Siehe das Post über deinem.

Wie verhält sich nun die Karte wenn man AF zuschaltet? Bricht sie immer noch stark ein?


Nö: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_radeon_hd_4850_rv770/6/#abschnitt_call_of_duty_4

Sorkalm
2008-06-23, 10:36:03
Wobei die Frage bleibt, ob denn diese Yield-Zahlen stimmen, die man wohl von INQ abgeschrieben hat, aber um einiges günstiger ist RV770 sicherlich.

Das theoretisch maximal 95 Dice auf einen Wafer passen scheint aber zu stimmen, den Wert habe ich schon in mehreren Reviews gelesen. ;)

Superheld
2008-06-23, 10:46:17
Wie verhält sich nun die Karte wenn man AF zuschaltet? Bricht sie immer noch stark ein?

Im Vergleich hat zwar die HD4850 doppelt so viel Texelleistung aber nur halb so viel wie die 9800GTX(+)

hier Stalker 16xAF an/aus
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_radeon_hd_4850_rv770/11/#abschnitt_stalker

die 4850 bricht zwar nicht mehr so viel wie ihr Vorgänger ein, die Nvidias sind aber trotzdem schneller

senator
2008-06-23, 11:27:16
Ich könnte bei der Karte schon schwach werden,wenn ich wüsste wie sie sich gegen meine GTS640 schlägt.Habe bisher noch nichts gefunden.

Volker S
2008-06-23, 11:46:47
...warum werden eigentlich so gut wie gar nicht "andere" Spiele gebencht? Wenn ich mir die getesteten Spiele bei cb so anschaue sind das doch fast nur Ego-Shooter.
Die ganzen "Brettspiele" wie AoE, Warcraft, Siedler, Anno bleiben in neueren Test eigentlich unberücksichtigt.

...oder kennt Ihr gerade zufällig einen Bench von einem Simulationsspiel mit 1280x1024?

Ich vermute mal das bei solchen Spielen (ich nenne sie mal 3D in Sicht von oben) der Vorsprung einer 4850 zu einer 3870 sich etwas verschmälern wird. Denn hohe Kantenglättung und ähnliches müssen bei diesen Spielen eigentlich keine Maximalwerte sein. ...also - gibt es diesbezüglich Benchmarks?

reunion
2008-06-23, 11:46:47
Ich könnte bei der Karte schon schwach werden,wenn ich wüsste wie sie sich gegen meine GTS640 schlägt.Habe bisher noch nichts gefunden.

Du siehst ja das die 4850 fast auf dem Niveau der 8800Ultra liegt, da sollte eine Leistungseinschätzung nicht schwer fallen.

Schlammsau
2008-06-23, 11:47:15
Ich könnte bei der Karte schon schwach werden,wenn ich wüsste wie sie sich gegen meine GTS640 schlägt.Habe bisher noch nichts gefunden.

gute Frage.....aber ich glaube mal mitbekommen zu haben, dass die GTS640 am ehesten mit einer 3870 zu vergleichen ist!
Jupp ist sie......http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet
Ergo ist die 4850, 50-60% schneller als deine 640GTS.

senator
2008-06-23, 11:58:04
Danke, dann fällt mir die Entscheidung leicht.Wenn man weiss das die mit der 3870 zu vergleichen ist, hat man einen Anhaltspunkt.

frix
2008-06-23, 12:05:29
Du siehst ja das die 4850 fast auf dem Niveau der 8800Ultra liegt, da sollte eine Leistungseinschätzung nicht schwer fallen.

ich hab auch die 8800GTS 640. Denke dass sich der umstieg auf eine 4850 nicht lohnt.

Schlammsau
2008-06-23, 12:08:19
ich hab auch die 8800GTS 640. Denke dass sich der umstieg auf eine 4850 nicht lohnt.

Begründung? Sind 50% mehr Leistung für 145€ nicht Anreiz genug?

senator
2008-06-23, 12:09:54
Ich will eh den PC von meinem Sohn von Sockel 754(AGP) auf S939(PCI-E) umrüsten und habe noch alles da ,bis auf die Graka halt.Dann bekommt er meine GTS und wenn ich mich nicht verschlechtere, ist das für mich die beste Lösung.

frix
2008-06-23, 12:10:43
lol, bist du offizieller ati reseller und kriegst provision?
Für mich lohnt sich kein umstieg. Evtl erst wenn die 4870 draußen ist.

Edit: Bei senator's situation scheint es ja sinnvoll zu sein.

Schlammsau
2008-06-23, 12:13:32
lol, bist du offizieller ati reseller und kriegst provision?
Für mich lohnt sich kein umstieg. Evtl erst wenn die 4870 draußen ist.

Edit: Bei senator's situation scheint es ja sinnvoll zu sein.

Nein bin ich nicht!
Hmmm, in meiner Umfrage hast du für die 280GTX gestimmt!
ABer jetzt BtT

Lu-Tze
2008-06-23, 12:16:16
tja... ich habe eine 8800 GTS 320, und stelle gerade ähnliche Umstieg-Überlegungen an... die 320 MB limitieren doch manchmal in nervender Weise.

Ich glaube, wenn überhaupt, ist ein Umsteig auf die 4870 wohl sinnvoller, auch wegen dem 1 GB Speicher.
Ich schätze mal, dass die mindestens 30% schneller als die 4850 sein wird, unter hohen Auflösungen aber noch mehr, da hier der fast doppelt so schnelle Speicher eine hohe Relevanz haben fürfte.

frix
2008-06-23, 12:17:31
Jo, ich schrieb auch evtl.
Zur zeit tendiere ich zur gtx280. Wenn die 4870 beim P/L überzeugen kann, könnte ich mir auch die vorstellen.

Eggcake
2008-06-23, 12:20:17
1GB Speicherversion wirste sicherlich auch bei der 4850 sehen...

Lu-Tze
2008-06-23, 12:27:05
Wenn das so ist, dann ist das noch ein Grund mehr, erst mal abzuwarten, und zu schauen, was so passiert, insbesondere mit den Preisen...

S940
2008-06-23, 12:31:23
1GB Speicherversion wirste sicherlich auch bei der 4850 sehen...
Jo es kursieren schon Kartonagenfotos einer Asus 4850er mit 1 GB GDDR3 und besserem Kühler, könnte der Kauftipp werden, die Normalkühler sind ja ziemlich schrottig, so dass man die sowieso wechseln sollte ^^.

ciao

Alex

Sorkalm
2008-06-23, 12:36:53
Wieso, welche Probleme hast du mit dem Kühler?
Der ist doch ziemlich leise.

Eggcake
2008-06-23, 12:48:49
Wieso, welche Probleme hast du mit dem Kühler?
Der ist doch ziemlich leise.

Ja weil der Lüfter auch kaum dreht und somit sehr hohe Temps entstehen. Dreht man den Lüfter auf, entsteht ein eher schrilles Geräusch (kein "dumpfes" wie mans von den 8800er kennt).
4850 mit 1GB und besserem Kühler - wenns das direkt in einem Paket geben würde, schlage ich höchstwahrscheinlich zu. Ansonsten halt selbst rumbasteln (was ich fast lieber machen würde ;) )

SOL
2008-06-23, 13:05:52
Also der Standardlüfter ist in der Tat sehr leise. Habe eben Crysis getestet und das Ding dreht kaum auf. Beim Systemstart merkt man ja kurz, wie laut er eigentlich werden könnte, er tut es bei Belastung aber nicht. Und wie Eggcake schon schrieb, trotz der niedrigen Drehzahl ist das Lüftergeräusch irgendwie unangenehm. So ne Mischung aus Kratzen und Pfeifen. Und wenn ich dann einen Blick auf die Temperatur werfe, dann frage ich mich wirklich, ob bei der Drehzahljustage nicht ein wenig untertrieben wurde. Aber egal, ich werde nachher einen Arctic Accelero kaufen und auf der Karte montieren.

MfG!

S940
2008-06-23, 14:02:28
4850 mit 1GB und besserem Kühler - wenns das direkt in einem Paket geben würde, schlage ich höchstwahrscheinlich zu. Ansonsten halt selbst rumbasteln (was ich fast lieber machen würde ;) )
Bald in einem Geschäft in Deiner Nähe:

http://www.asus.com/999/images/news/20080620/20080620-a-1.jpg

http://www.asus.com/news_show.aspx?id=11871

ciao

Alex

Eggcake
2008-06-23, 14:04:37
Sehr schön :) Warte ich nur noch nen Kurztest ab und gucke wie der Kühler performt =)

Edit: Da steht oben "up to 7°C lower temps" - naja tönt nicht grad nach nem Wunderkühler - wirds wohl oder übel der Accelero...

Kriton
2008-06-23, 15:03:18
Wenn ich das in einigen User-Beschreibungen richtig gelesen habe ist nicht der Standard-Kühler das Problem, sondern die schlechte Wärmeleitpaste?!

reev
2008-06-23, 15:49:08
Auf Tom's Hardware gibt's einen neuen Test der Radeon 4850. :smile:

Nur Leistung zählt: Radeon HD 4850 gegen GeForce GTX (http://www.tomshardware.com/de/Radeon-HD-4850-ATi-GeForce-9800-GTX-Nvidia,testberichte-240069.html)

Superheld
2008-06-23, 15:52:55
Testkonfiguration:
Windows XP, Vista, Vista SP1
Forceware 177.39 Beta (9800 GTX+)
Forceware 177.34 Beta (260 GTX, 280 GTX, Vista)
Forceware 177.26 Beta (280 GTX, XP)
Forceware 175.16 WHQL (9800 GTX, 9800 GX2, 8800 Ultra)
Catalyst 8.6 WHQL (HD 4850)
Catalyst 8.5 WHQL (HD 3870 X2)
;D

Sorkalm
2008-06-23, 15:56:34
Das wird langsam zur Mode...

Botcruscher
2008-06-23, 16:01:15
Ganz großes Kino von NV...

reunion
2008-06-23, 16:08:40
;D

Zumindest das OS ist bei den Spielen schon einheitlich:

Alle synthetischen DirectX-9-Tests wurden wegen ihrer Instabilität in Vista unter Windows XP durchgeführt (Fillrate Tester, Rightmark 1050, ShaderMark 2.1, SPECViewPerf 10). Rightmark 3D 2.0 (DirectX 10) natürlich unter Windows Vista (bei Instabilität ohne SP1), für alle Spiele Vista mit SP1. Übertaktung, UAC, Aero, der Superfetch- und Index-Dienst wurden deaktiviert.

Gast
2008-06-23, 16:10:16
Nvidia macht sich mit der 9800GTX+ selbst Konkurrenz. Die GTX260 ist eigentlich überflüssig.

Superheld
2008-06-23, 16:20:32
mit Antialiasing an hat die 9800+ keine Chance mehr gegenüber der 260;)

reev
2008-06-23, 16:23:27
So wie ich das sehe, liegen die 9800 GTX - incl. 9800 GTX+ vs. HD 4850 im Schnitt gleich auf. So wie das eigentlich auch überall zu lesen ist.

Und darüber hinaus: "Nvidia kommt durch die Preispolitik etwas in Erklärungsnöte, der Versuch, eine schnellere 9800er-Variante mit dem GTX+ zu etablieren, ist nicht wirklich gelungen. Zu nah liegen die Ergebnisse in den Benchmarks am normalen Geforce 9800 GTX und die Radeon HD 4850 ist trotzdem in einigen Bereichen schneller. Wer hauptsächlich mit Kantenglättung (AA) spielt, findet mit der HD 4850 den richtigen Partner. [...]" Weiteres kann man hier (http://www.tomshardware.com/de/Radeon-HD-4850-ATi-GeForce-9800-GTX-Nvidia,testberichte-240069-15.html) lesen.

Eine 9800 GTX+ kann ich mir mittlerweile nur noch so erklären, dass eine 200er GTX wirklich konkurrenzlos teuer in der Herstellung ist.

Sorkalm
2008-06-23, 16:33:13
Die Konkurrenz für eine HD 4850 MUSS ein G92-Produkt sein, alles anderes ist nun wirklich nicht finanzierbar.

Gast
2008-06-23, 16:38:57
Die Konkurrenz für eine HD 4850 MUSS ein G92-Produkt sein, alles anderes ist nun wirklich nicht finanzierbar.

Das Problem für Nvidia ist nur, dass es die 4800 Serie sowohl mit dem G92 als auch dem GT200 aufnimmt. Die 4870 wird schneller als die GTX260 und dabei deutlich günstiger sein.

Sorkalm
2008-06-23, 16:42:34
Ja, dass die 4870 mit dem G92 nicht mehr zu halten ist, ist offensichtlich. Das ist für Nvidia schon problematisch genug.

Trotzdem muss man die HD 4850 natürlich mit einem G92 in Schach halten, sonst wirds ja ganz böse. Und da man hier so weit wie möglich mit der 4850 mithalten möchte, hat man halt eine 9800 GTX+ nachgelegt.

ShadowXX
2008-06-23, 16:46:33
Wer hauptsächlich mit Kantenglättung (AA) spielt, findet mit der HD 4850 den richtigen Partner. [...]"[/I] Weiteres kann man hier (http://www.tomshardware.com/de/Radeon-HD-4850-ATi-GeForce-9800-GTX-Nvidia,testberichte-240069-15.html) lesen.

Da fehlt aber den Zusatz: Ausser Sie wollen UE3-Titel spielen, da bricht Sie nämlich bei zugeschalteten AA ziemlich ein (siehe auch den MassEffekt und Unreal Tournament 3 Benchmark incl. den Kommentar dazu).

Interessant ist auch, das der 4850 bei TestDrive scheinbar bei der 25xx-Auflösung plötzlich der VRam für AA ausgeht...aber den nVs und der 3870 nicht.
Grid läuft erst gar nicht.

Klar sind letzteres (wohl) Treiberfehler, macht sich beim Launch aber nicht so gut (speziell letzteres mit Grid).

reev
2008-06-23, 16:48:16
Die Konkurrenz für eine HD 4850 MUSS ein G92-Produkt sein, alles anderes ist nun wirklich nicht finanzierbar.

Als direkte Konkurrenz schon -- aber die Frage ist eben, in wie weit nVidia die 200er Serie preislich attraktiver machen könnte, um sich der 4850/70 gegenüber besser zu stellen. Es gibt sicher nicht wenige, die, sollten Preis/Leistung stimmen, sich entweder für eine 4850 oder 4870 -- oder GTX 260 entscheiden würden. Insofern sehe ich da schon einen Zusammenhang. Und die 9800 GXT+ macht in diesem Kanon - nicht zuletzt aufgrund einer existierenden 9800 GTX - imho zurzeit keine besonders gute Figur.

Gast
2008-06-23, 16:48:47
GRID läuft mit dem Hotfix bei 1A, keine Ahnung was die da verzapft haben ;)

Superheld
2008-06-23, 16:51:38
für mich wären die 4850 und 9800+ nur Konkurenten wenn der Preis ca. gleich ist, isser aber nicht:rolleyes:

4850 143€
9800gtx 185€

~40€ Unterschied

und jetzt zaubert NV die 9800+ hervor die noch teurer ist....beim nächsten Ati Treiber ist dann wieder Gleichstand;D

Voyager
2008-06-23, 16:52:42
GRID läuft mit dem Hotfix bei 1A, keine Ahnung was die da verzapft haben ;)


Wo gibts denn den hotfix ?
Morgen kommt meine 4850:smile:

Gast
2008-06-23, 16:54:34
Wo gibts denn den hotfix ?
Morgen kommt meine 4850:smile:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422121

Kriton
2008-06-23, 16:56:17
http://support.ati.com/ics/support/default.asp?deptID=894

reunion
2008-06-23, 16:57:10
Da fehlt aber den Zusatz: Ausser Sie wollen UE3-Titel spielen, da bricht Sie nämlich bei zugeschalteten AA ziemlich ein (siehe auch den MassEffekt und Unreal Tournament 3 Benchmark incl. den Kommentar dazu).

Interessant ist auch, das der 4850 bei TestDrive scheinbar bei der 25xx-Auflösung plötzlich der VRam für AA ausgeht...aber den nVs und der 3870 nicht.
Grid läuft erst gar nicht.

Klar sind letzteres (wohl) Treiberfehler, macht sich beim Launch aber nicht so gut (speziell letzteres mit Grid).

Dafür gibt es schon lange einen Hotfix von AMD; warum THG den nicht verwendet ist fraglich.

GRID läuft mit dem Hotfix bei 1A, keine Ahnung was die da verzapft haben ;)

Und es läuft sogar sehr schnell, über dem Niveau der GTX260.

ShadowXX
2008-06-23, 17:08:59
Als direkte Konkurrenz schon -- aber die Frage ist eben, in wie weit nVidia die 200er Serie preislich attraktiver machen könnte, um sich der 4850/70 gegenüber besser zu stellen. Es gibt sicher nicht wenige, die, sollten Preis/Leistung stimmen, sich entweder für eine 4850 oder 4870 -- oder GTX 260 entscheiden würden. Insofern sehe ich da schon einen Zusammenhang. Und die 9800 GXT+ macht diesem Kanon - nicht zuletzt aufgrund einer existierenden 9800 GTX - imho zurzeit keine besonders gute Figur.
Die GTX+ ist ein ziemlich dämlicher Schnellschuss von nV. Punkt und Schluss.

Wer das Ding "verbrochen" hat sollte zur Strafe 10 Wochen lang Bugtesting in der Grafikkartentreiberentwicklungsabteilung machen.

Das Problem was Sie da haben ist, das Sie die GTX+ nicht zu schnell machen durften um die Sinnigkeit der GTX260 nicht zu gefährden, aber Sie dadurch nicht schnell genug sein kann um gegen die 4850 in jedem Gebiet zu gewinnen.

Wenn wir es mal ma etwas nüchterner betrachten sind die beiden Karten (4850 und 9800GTX(+)) relativ gleichwertig.
Die nVs haben vorteile beim AF und das mehr Games Out-Of-The-Box mit AA laufen (+ den UE3-Engine Vorteil), dafür hat ATI wenn AA normal läuft dort Geschwindigkeitsvorteile (und eben brauchbareres 8xMSAA + die Edge Detect Dinger).

Dafür gibt es schon lange einen Hotfix von AMD; warum THG den nicht verwendet ist fraglich.
Was aber trotzdem nichts an der UE3-Engine + AA Schwäche ändert.

Das Grid wohl ein Treiberproblem ist hatte ich selbst angemerkt.

Gast
2008-06-23, 17:14:10
dafür hat ATI wenn AA normal läuft dort Geschwindigkeitsvorteile (und eben brauchbareres 8xMSAA + die Edge Detect Dinger).


Und keine Vram Probleme ;) das ist das wichtigste, denn was nützt ein Benchmarkrun von 2-3 Minuten wo die +GTX schnell ist, aber nach 20-45 Minuten schicht im Schacht ist und man mit einstelligen Frames rumdümpelt.

ShadowXX
2008-06-23, 17:21:59
Und keine Vram Probleme ;) das ist das wichtigste, denn was nützt ein Benchmarkrun von 2-3 Minuten wo die +GTX schnell ist, aber nach 20-45 Minuten schicht im Schacht ist und man mit einstelligen Frames rumdümpelt.
Bei welchen Games denn?

Ich spiele auch öfters mal Stundenlang (1680x1050, je nach Game von 4xMSAA bis 16xS + 16xAF) und bisher hab ich das Problem noch nie gehabt. Weder mit meiner altern (leider inzwischen Kaputten) 8800GTX noch mit der 9800GTX.

Soweit ich mich erinnere gibt es diese Probleme nur in Extremfällen bei 2-3 Games (Oblivion mit extremem Mods ist mir da jetzt geläufig).

LovesuckZ
2008-06-23, 17:30:52
für mich wären die 4850 und 9800+ nur Konkurenten wenn der Preis ca. gleich ist, isser aber nicht:rolleyes:

4850 143€
9800gtx 185€

~40€ Unterschied

und jetzt zaubert NV die 9800+ hervor die noch teurer ist....beim nächsten Ati Treiber ist dann wieder Gleichstand;D

Donnerstag abwarten. Da soll die 9800GTX+ offiziell vorgestellt werden.
Preislich wird 9800GTX auf 4850 Niveau fallen und die 9800GTX+ wohl 10-15€ teurer sein.

reunion
2008-06-23, 17:31:25
Das Problem was Sie da haben ist, das Sie die GTX+ nicht zu schnell machen durften um die Sinnigkeit der GTX260 nicht zu gefährden, aber Sie dadurch nicht schnell genug sein kann um gegen die 4850 in jedem Gebiet zu gewinnen.

Mehr ist aus dem G92 ohnehin nicht mehr rauszuholen IMHO.


Das Grid wohl ein Treiberproblem ist hatte ich selbst angemerkt.

Und ich habe angemerkt das dieses Problem schon behoben wurde.

Gast
2008-06-23, 17:38:58
Bei welchen Games denn?



Crysis DX10, Dirt, CoH OF DX10, Arma, usw.

ShadowXX
2008-06-23, 17:40:47
Crysis DX10, Dirt, CoH OF DX10, Arma, usw.
Hab ich alle (bis auf Arma) und das Problem tritt dort definitiv nicht auf.

reev
2008-06-23, 17:45:07
Donnerstag abwarten. Da soll die 9800GTX+ offiziell vorgestellt werden.
Preislich wird 9800GTX auf 4850 Niveau fallen und die 9800GTX+ wohl 10-15€ teurer sein.
Ja, soll dann aber erst 3 Wochen später in den Läden stehen. Ich habe hier (http://www.hartware.de/news_45063.html) was vom 15. Juli für 229 US$ UVP gegenüber 199 US$ UVP für die normale 9800 GTX gelesen.

LovesuckZ
2008-06-23, 17:46:28
Ja, soll dann aber erst 3 Wochen später in den Läden stehen. Ich habe hier (http://www.hartware.de/news_45063.html) was vom 15. Juli für 229 US$ UVP gegenüber 199 US$ UVP für die normale 9800 GTX gelesen.

Der neue Preis soll ab Donnerstag gelten, die GTX+ soll dann am 15 Juli erscheinen.

Gast
2008-06-23, 20:02:24
Hab ich alle (bis auf Arma) und das Problem tritt dort definitiv nicht auf.

Habs selbst gesehen, allerdings wurde 1920x1200 genutzt ;)

Schlammsau
2008-06-23, 21:41:39
Preislich wird 9800GTX auf 4850 Niveau fallen und die 9800GTX+ wohl 10-15€ teurer sein.

Kann sie gar nicht.....nicht bei dem grösseren DIE und der deutlich aufwendigeren Kühlung.
Der fette Dualslot Kühler, muss ja bezahlt werden.
Und wenn nVidia den Preis künstlich auf ATi Niveau drückt, dann machen sie kein Geschäft mehr dabei! Hab irgendwo gehört, dass die 4850 in der Herstellung ungefähr genauso teuer ist wie eine 3870.

Unyu
2008-06-23, 21:57:32
Kann sie gar nicht.....nicht bei dem grösseren DIE und der deutlich aufwendigeren Kühlung.
G92b ist nicht größer als RV770.

Schlammsau
2008-06-23, 21:59:18
G92b ist nicht größer als RV770.

Der G92 aber schon! :smile:
Und was ist mit der mächtigen Kühlung? Wer bezahlt die?

reunion
2008-06-23, 22:01:05
G92b ist nicht größer als RV770.

Doch.

Coda
2008-06-23, 22:02:44
Hat G92b nicht 234mm²? Damit wäre er in der Tat kleiner als RV770.

ShadowXX
2008-06-23, 22:03:30
Doch.
Aber nur minimal.

Die Kühllösung ist dazu nicht wirklich ein Preistreiber....

reunion
2008-06-23, 22:03:47
Nein, er hat um die 270mm².

Unyu
2008-06-23, 22:05:29
Doch.
Unerheblich.


Und was ist mit der mächtigen Kühlung? Wer bezahlt die?
So ein oller Kühler kostet nicht viel.

LovesuckZ
2008-06-23, 22:06:04
Der Preis wird sich kaum unterscheiden. nVidia verkaufte auch den G92 für 100€, also wird eine 9800GTX wohl kaum ein riesen Loch reißen.
Und wenn wir schon bei sinnlosen Vergleichen sind: AMD's 4850 ist aufwendiger zu produzieren als die 3850 und startet mit einem 40€ geringerem Preis. Da bleibt weniger übrig als beim rv670.

reunion
2008-06-23, 22:06:47
Unerheblich.


Das ist mehr als nichts.

Aber nur minimal.

Die Kühllösung ist dazu nicht wirklich ein Preistreiber....

Kühllösung und Spannungsversorgung sind teurer als man denkt. Zumal G92b dann auch noch langsamer ist als ein RV770, ja selbst mit dem kleinsten Modell zu kämpfen hat.

Und wenn wir schon bei sinnlosen Vergleichen sind: AMD's 4850 ist aufwendiger zu produzieren als die 3850 und startet mit einem 40€ geringerem Preis. Da bleibt weniger übrig als beim rv670.

Die 3850 startete um 149$. Nur die geringe Verfügbarkeit trieb den preis in die Höhe.

Schlammsau
2008-06-23, 22:07:28
Aber nur minimal.

Die Kühllösung ist dazu nicht wirklich ein Preistreiber....

Preistreiber nein, aber dennoch teurer zu fertigen als die der Konkurrenz!
Ein um bis zu 50 Watt höheren Verbrauch, muss man schon kühlen können.

Gast
2008-06-23, 22:09:19
So ein oller Kühler kostet nicht viel.

.. Weswegen natürlich hauptsächlich Dual Slot Kühler verkauft werden (9800GT/8800GT/HD3850/HD4850, um mal nur die aktuelleren Performance Bereich Karten zu nennen) -.- , weil sie effizienter und leiser sind.

Unyu
2008-06-23, 22:14:19
.. Weswegen natürlich hauptsächlich Dual Slot Kühler verkauft werden
Man spart gerne 5$ am Kühler, aber wenns nicht geht ist es kein Weltuntergang.
Guck mal was auf den billigsten dieser performance Karten häufig verbaut wird: Nicht Referenz Dual Slot Kühler. Das würde ja nicht gehen, wenn das so viel ausmacht.

LovesuckZ
2008-06-23, 22:23:25
Das ist mehr als nichts.

Wir wollen den Teufel mal nicht an die Wand malen. Der Unterschied beträgt weniger als 10%. Die Kosten in der Herstellung sollten sich kaum unterscheiden.


Die 3850 startete um 149$. Nur die geringe Verfügbarkeit trieb den preis in die Höhe.

179$. In Euro waren es ca. 150€. Und das war ohne Konkurrenz. Der Preis der 4850 wird schneller fallen. und somit werden die Produktionskosten für AMD steigen Die Produktionskosten steigen natürlich durch die aufwendigere Fertigung der 4850 und nicht durch sinkende Preise... - nVidia dagegen hat durch den Shrink einen Kostenvorteil zum G92.

Nakai
2008-06-23, 22:35:26
179$. In Euro waren es ca. 150€. Und das war ohne Konkurrenz. Der Preis der 4850 wird schneller fallen und somit werden die Produktionskosten für AMD steigen - nVidia dagegen hat durch den Shrink einen Kostenvorteil zum G92.

Der Kostenvorteil ist marginal, welcher locker durch den 5€ teureren Kühler wieder ausgeglichen wird.

Wafer de GT200 -> 95 dies -> yields ~40% -> 38 bons dies -> 5000$ / 38 = 131.58$ par puce.
Wafer de RV770 -> 223 dies -> yields ~70% -> 156 bons dies -> 5000$ / 156 = 32.05$ par puce.

Also rechnen wir mal mit 231mm²:

70650mm² (Wafer) / 231mm² * 0.8 * 0.7 = 171 Dies -> 5000$/ 171 = 29.23$

Die 2€ Unterschied sind nicht nennenswert, zumahl die 9800GTX noch teurere Teile beansprucht...


mfg Nakai

LovesuckZ
2008-06-23, 22:41:44
Demnach beträgt der Unterschied pro Die ca. 1,5$. Und könnte sogar auf 0$ fallen, da man durch die unterschiedlichen Versionen mehr Dies verwenden kann.

deekey777
2008-06-23, 22:51:41
Wäre es möglich, Beiträge mit deutlich mehr Inhalt zu verfassen?
Wäre es auch möglich, den Melde-Button nicht für jedes subjektiv unangenehme Posting zu nutzen?

Unyu
2008-06-23, 22:51:54
Teildefekte Dice werden nicht gleich weggeschmießen, sondern zb auf die 9800GT gepflanzt. :rolleyes:
Wo landen die teildefekten RV770? Im Müll?

Coda
2008-06-23, 22:52:57
Ich denke RV770 hat genügend Redundanz dass es fast keine schlechten Dies gibt. Evtl. wird es irgendwann mal eine abgespeckte Version geben.

LovesuckZ
2008-06-23, 22:57:47
Steigert sich bei mehr "Cores/Cluster" die Fehleranfälligkeit bei der Produktion?

Redneck
2008-06-23, 23:01:44
Der Preis der 4850 wird schneller fallen und somit werden die Produktionskosten für AMD steigen

Oha.. ganz große Logik.. wenn der Verkaufspreis fällt ,steigen die produktionskosten an :uroll:

Hier lernt macht echt noch was ;)

LovesuckZ
2008-06-23, 23:09:15
Oha.. ganz große Logik.. wenn der Verkaufspreis fällt ,steigen die produktionskosten an :uroll:

Hier lernt macht echt noch was ;)

Ja, zum Beispiel den Kontext verstehen zu lernen.
Macht aber nichts, ich helfe dir:
3850 kam für 179$ in den Markt. Hatte keine Konkurrenz, war 40% kleiner und bot nur die Hälfte an Speicher.
4850 soll für 199$ kommen. Mit der 9800GTX(+) und tausend anderen Karten hat man mehr als genug Konkurrenz, der Preis wird also früher fallen als bei der 3850. Mehr Speicher, aufwendigere Kühlung etc. Die Produktionskosten liegen hier klar höher.

Achja: Schon wieder ein unglückliche Formulierung von mir. Man, die zweite heute. :rolleyes:

Redneck
2008-06-23, 23:11:47
Ja, zum Beispiel den Kontext verstehen zu lernen.
Macht aber nichts, ich helfe dir:
3850 kam für 179$ in den Markt. Hatte keine Konkurrenz, war 40% kleiner und bot nur die Hälfte an Speicher.
4850 soll für 199$ kommen. Mit der 9800GTX(+) und tausend anderen Karten hat man mehr als genug Konkurrenz, der Preis wird also früher fallen als bei der 3850. Mehr Speicher, aufwendigere Kühlung etc. Die Produktionskosten liegen hier klar höher.

Achja: Schon wieder ein unglückliche Formulierung von mir. Man, die zweite heute. :rolleyes:
Da ist nichts zu verstehen. Du hast dich unglücklich augedrückt und versuchst es jetzt auf Biegen und Brechen als korrekt darzustellen.

Botcruscher
2008-06-23, 23:16:21
Dafür war die 3850 auch ein gutes Stück langsamer.

Die Situation ist auch eine ganz andere. Die 4850 ist für 143€ kaufbar und versägt NV-Karten die 200€ kosten. Um überhaupt mithalten zu können muss NV an der Taktschraube drehen, was wiederum mehr Kosten für Bauteile und PCB bedeuted.Die GTX+ dürfte schon heute auch nur um 145€ kosten.

LovesuckZ
2008-06-23, 23:21:21
Dafür war die 3850 auch ein gutes Stück langsamer.

Zur damaligen Zeit gab es nur 8600GTS und 2600XT. Sie war die schnellste Karte für unter 200€ - und als einzige der neuen Karten bis zum Januar in Massen lieferbar. Erst nach Jahresanfang ging die Preisschlacht los.


Die Situation ist auch eine ganz andere. Die 4850 ist für 143€ kaufbar und versägt NV-Karten die 200€ kosten. Um überhaupt mithalten zu können muss NV an der Taktschraube drehen, was wiederum mehr Kosten für Bauteile und PCB bedeuted.Die GTX+ dürfte schon heute auch nur um 145€ kosten.

Warum solche agressiven Töne? Versägen? Mithalten? AMD hat nach 19 Monate aufgeschlossen und es haben sich nicht alle heute kaufbaren Karten in Luft aufgelöst. nVidia senkt einfach den Preis der 9800GTX - die es schon seit April gibt.
Dadurch fällt die 9800GTX auf 145€ - die Reaktion auf die 4850. Das spannende wird sein, ob die Preise noch weiter fallen werden. Und inweiweit 3870 und 8800GT preislich sich entwickeln.

Kriton
2008-06-23, 23:24:47
Ich denke RV770 hat genügend Redundanz dass es fast keine schlechten Dies gibt. Evtl. wird es irgendwann mal eine abgespeckte Version geben.

Kleinere 4XXX-Varianten sind doch AFAIK schon angekündigt.

Schlammsau
2008-06-23, 23:26:58
Ich denke RV770 hat genügend Redundanz dass es fast keine schlechten Dies gibt. Evtl. wird es irgendwann mal eine abgespeckte Version geben.

Ist der Teildefekte DIE nicht der RV770Pro?

AnarchX
2008-06-23, 23:30:14
Ist der Teildefekte DIE nicht der RV770Pro?
Nein, RV770Pro = HD4850 hat alle Einheiten aktiv. Bei Chiphell hat man mal spekuliert/geäußert, dass RV740 wohlmöglich ein teildeaktivierter RV770 ist.

deekey777
2008-06-23, 23:30:36
Ist der Teildefekte DIE nicht der RV770Pro?
Natürlich nicht.

PHuV
2008-06-23, 23:46:45
Wir werden es in 3-6 Monaten wissen, welches Konzept besser gegriffen hat, noch ist alles zu frisch, um genaue Prognosen zu haben. Was sich wie durchsetzen wird, wird sich noch zeigen, und wenn die DIE-Auslastung der 4800-er Serie wirklich so viel besser (und vor allen Dingen damit günstiger) ist, wird sich Nvidia warm anziehen müssen. Mit nur Höchstleistung kann man keinen Markt halten, der Mainstream muß auf alle Fälle auch gut abgedeckt werden.

Fazit ist doch, daß jeder bei seiner "Marke" bleiben kann, und jeder Anbieter gewisse Vor- und Nachteile bietet. ATI hat nun mit dem Mainstream eine günstige Karte herausgebraucht, schaun wir mal, was Nvidia kontert.

Mich freut auf alle Fälle eines, daß man endlich Karten zum Launch bekommt, und das ist doch mehr als positiv zu bewerten, oder? ;) Das dies Möglich ist, ist letztlich auch Nvidia zu verdanken, und der Markt zeigt ja, das die Konsumenten genau das wollen. ATI hat es nun auch endlich begriffen, und es kommt uns allen zugute, gelle.

Kriton
2008-06-23, 23:49:59
Ist der Teildefekte DIE nicht der RV770Pro?

Pro und XT unterscheiden sich nur durch den Speicher und Takt.

Sorkalm
2008-06-23, 23:50:22
Nein, RV770Pro = HD4850 hat alle Einheiten aktiv. Bei Chiphell hat man mal spekuliert/geäußert, dass RV740 wohlmöglich ein teildeaktivierter RV770 ist.

Das was ich zum RV740 mal gelesen habe besagt, das RV740 ein RV730 in 45 nm ist. Natürlich ist das aber auch nur spekulativ, ich weiß nämlich leider nicht mehr wo (nur das ich der Quelle vertrauen würde, die es aber auch nicht sicher wusste).

MGeee
2008-06-24, 00:32:35
Frage mich, ob ich meine 1,5 Jahre alte 8800GTS 640MByte in Rente schicke und mir ne stromsparende 4850 hole oder ggf. eine 4870.
Bin mit der Leistung der ollen GTS-640 jedoch noch über alle Massen zufrieden (außer vielleicht Crysis, aber wegen einem Game: wayne).

Ich zocke auf 1680x1050 (22 Zoll TFT).

Gast
2008-06-24, 00:38:23
Frage mich, ob ich meine 1,5 Jahre alte 8800GTS 640MByte in Rente schicke und mir ne stromsparende 4850 hole oder ggf. eine 4870.
Bin mit der Leistung der ollen GTS-640 jedoch noch über alle Massen zufrieden (außer vielleicht Crysis, aber wegen einem Game: wayne).

Ich zocke auf 1680x1050 (22 Zoll TFT).

Die HD4850 ist ca. 50-60% schneller als dein GTS in 1680x1050 4xAA/16xAF lohnt schon.

Aquaschaf
2008-06-24, 00:56:40
Frage mich, ob ich meine 1,5 Jahre alte 8800GTS 640MByte in Rente schicke und mir ne stromsparende 4850 hole oder ggf. eine 4870.

Der Kauf kostet dich sicher mehr als die zusätzlichen Stromkosten deiner alten Karte. Ich würde vielleicht doch eher warten und mich darüber freuen bei einer so langlebigen Grafikkarte zugegriffen zu haben damals.

davidzo
2008-06-24, 01:31:53
ich denke schon, dass die 4850 auf das preisniveau einer 3850 kommen kann, in der herstellung.
1. Das PCB ist einfacher. Anscheinend hat man hier bei der speicheranbindung besseres routing betrieben, u.U. einige unnötige komplexitäten weglassen können.
2. Der Lamellenabstand des Kühlers ist zwar sinniger, aber insgesamt größer geworden. ich denke hier gibts ne kleine materialeinsparung.
3. Bauteile wie die ics der spannungsversorgung unterliegen auch dem preisverfall
4. Nach der 3850 hat man mit diesem layout schon viel erfahrung und kann ggf die teilelieferanten aufgrund der gesammelten erfahrungen besser auswählen.

Im Vergleich dazu hat die 9800GTX+ keine reserven:
1. Der G92b ist minimal teurer als der rv770. dabei konkurriert er nichteinmal mit der 4870, sondenr nur mit dem (takt-) ausschussmodell 4850. Chips die 9800gtx+ level nicht schaffen müssen noch billiger als 8800gts oder gt verkauft werden.
2. Der GDDR3 Speicher ist hier teurer da GDDR3 0.8ns benötigt wird.
3. Das PCB ist länger und aufwändiger
4. Die spawas müssen einiges mehr leisten als bei der 4850
5. die Kühllösung ist eindeutig hochwertiger aber entsprechend auch deutlich teurer.

Alles in allem dednke ich dass die 4850 den Preiskampf viel länger mitmacht als alle g92b karten. die 4850 liegt jetzt schon konkurrenzlos günstig, hat abe rnoch spielraum, der g92b dagegen hat diesen bereits verpsielt. billige rgeht für nvidia ohne verluste kaum.

Psychopat
2008-06-24, 04:19:58
Um den minimalen Vorsprung der 9800GTX+ wieder einzuholen braucht es bloß eine OC Version der 4850 die etwa das gleiche kosten wird.

Unyu
2008-06-24, 08:02:57
Um den minimalen Vorsprung der 9800GTX+ wieder einzuholen braucht es bloß eine OC Version der 4850 die etwa das gleiche kosten wird.
Ach und von der 9800GTX+ gibts keine OC Versionen? :rolleyes:


Im Vergleich dazu hat die 9800GTX+ keine reserven:
Vollwertige G92 Karten gibts für 144€.
G92b ist günstiger als G92.

-> Es gibt Reserven. + Die 9800GT kann sogar unter 100€ angeboten werden.

35007
2008-06-24, 08:23:14
Frage mich, ob ich meine 1,5 Jahre alte 8800GTS 640MByte in Rente schicke und mir ne stromsparende 4850 hole oder ggf. eine 4870.
Bin mit der Leistung der ollen GTS-640 jedoch noch über alle Massen zufrieden (außer vielleicht Crysis, aber wegen einem Game: wayne).

Ich zocke auf 1680x1050 (22 Zoll TFT).

Meine Empfehlung: Zock so lange, bis da nichts mehr geht. Falls du kleine Abstriche machen musst, nimm sie in kauf. Wenn du also wirklich dringend eine neue Karte benötigst, verkaufst du deine GTS-640 für sagen wir mal 60 € und legst dann 100€ für ne 4870 drauf (gehen wir mal von 4 Monaten oder mehr aus).

So hast du deine Hardware ausgereizt und kannst dich dann am Markt umsehen, ohne Apothekenpreise und Deppenzuschlage zahlen zu müssen. Immerhin arbeitest du bereits mit deinem Kapital (GTS-640) und kannst dich eigendlich so lange zurücklehen, bis du mit der Leistung absolut unzufrieden bist.

35007

Tarkin
2008-06-24, 10:04:16
http://www.tgdaily.com/content/view/38077/135/

Second wave of Radeon 4850 cards to go against Nvidia’s 9800 GTX+

AnarchX
2008-06-24, 10:35:22
ASUS will offenbar 200€ UVP für seine 1GiB HD4850:
http://www.hardware.fr/news/9779/radeon-hd-4850-1go-50.html

Die 512er hat mittlerweile die 140€ unterschritten:
http://geizhals.at/deutschland/?cat=gra16_512&asuch=4850&sort=p

davidzo
2008-06-24, 13:23:33
1 Teraflop für 138€ - das ist krank

die karte ist außerdem sofort lieferbar und das bei vielen Händlern...
http://geizhals.at/deutschland/a345500.html

Psychopat
2008-06-24, 13:31:50
Ach und von der 9800GTX+ gibts keine OC Versionen? :rolleyes:


Klar gibts da OC-Versionen, aber die sind teurer als eine Stock 9800GTX+, auf deren Preisniveau die 4850er OC liegen werden. Musst schon in der gleichen Preisklasse bleiben. Sonst kannst du die 4870 gegen 9800GTX+ OC vergleichen...

Für OC wird die 4850 aber auf jeden Fall die bessere Wahl sein, da mehr Potential. Die 9800GTX+ ist das Taktstärkste Modell des G92b, mit entsprechendem Lüfter und hoher vCore erreicht. Die 4850 ist der Taktschwächste RV770 mit entsprechend kleiner vCore und schlechtem Lüfter.
Muss ich noch mehr zum OC-Potential sagen?

tombman
2008-06-24, 15:28:05
Auf Tom's Hardware gibt's einen neuen Test der Radeon 4850. :smile:

Nur Leistung zählt: Radeon HD 4850 gegen GeForce GTX (http://www.tomshardware.com/de/Radeon-HD-4850-ATi-GeForce-9800-GTX-Nvidia,testberichte-240069.html)
Und schon wieder keine Crysis @ veryhigh benchmarks :mad:

Langsam kotzen mich diese testnoobs an....

Superheld
2008-06-24, 15:33:37
CB hat welche;)

Unyu
2008-06-24, 15:47:53
Muss ich noch mehr zum OC-Potential sagen?
Besser nicht.

Die GTX+ hat ein super PCB, bekommt wie die GTX von Haus aus viel zu viel Spannung.
Die 4850 hat ein billiges PCB, dafür gut den Standardtakt zu packen.

Die GTX+ hat Potential beim 0,83ns RAM, während der 1ns RAM bei 4850 am Limit rennt.

Musst schon in der gleichen Preisklasse bleiben.Preise kann man anpassen.

Spasstiger
2008-06-24, 16:21:24
THG mal wieder mit Kuriositäten:
http://www.tomshardware.com/de/Radeon-HD-4850-ATi-GeForce-9800-GTX-Nvidia,testberichte-240069-6.html

Die Geforce 9800 GTX+ passt in das Schema vom Flight X, der auf übertaktete Karten fast immer mit negativen Leistungssteigerungen reagiert, weshalb die normale Geforce 9800 GTX auch höhere Werte zeigt.

Und dann in 1920x1200 mit 4xAA und AF:
9800 GTX: 28,4 fps
9800 GTX+: 21,6 fps

Kann es sein, dass die bei THG mal wieder unfähig sind und der Flight-Sim die Grafik halt der Hardware anpasst?

vinacis_vivids
2008-06-24, 16:27:16
Besser nicht. Preise kann man anpassen.

GTX Preis noch weiter nach oben? :eek:

Unyu
2008-06-24, 17:07:04
GTX Preis noch weiter nach oben? :eek:
Natürlich. :rolleyes:

Psychopat
2008-06-24, 17:33:34
Besser nicht.

Die GTX+ hat ein super PCB, bekommt wie die GTX von Haus aus viel zu viel Spannung.
Die 4850 hat ein billiges PCB, dafür gut den Standardtakt zu packen.

Die GTX+ hat Potential beim 0,83ns RAM, während der 1ns RAM bei 4850 am Limit rennt.

Preise kann man anpassen.

Du sagst es doch selbst, die GTX+ hat ein besseres PCB und besseren Speicher und einen besseren Lüfter. Die Chips kosten etwa gleich. Das bessere drumherum gibts bei dir für lau, oder wie?
Es sagt doch schon alles, dass man das alles braucht um das letzte aus dem G92b rauszuquetschen. Die AIB's können der 4850 übrigens zu den gleichen Preisen auch ein hochwertiges PCB und Ram spendieren + guten Lüfter.

Brauchts aber nicht. Nimm ne standard 4850, Accelero drauf + biosvoltmod und gut is. Bei einer GTX+ bringt ein aftermarket Kühler kaum Verbesserung, spielraum beim vCore hast du auch nicht mehr.

Wie gesagt, der G92b muss mit teurer Peripherie hoch getaktet werden um mit der kleinsten Taktstufe des RV770 halbwegs mithalten zu können...

Unyu
2008-06-24, 17:37:42
Was heißt mithalten?
Die GTX+ ist schneller als die 4850. :rolleyes:

Schlammsau
2008-06-24, 17:38:44
Was heißt mithalten?
Die GTX+ ist schneller als die 4850. :rolleyes:

Ist er nicht! ;)
Gerade in höheren Auflösungen wird der GTX+ sowas von die Luft ausgehen......
Und wenn da nicht ATi´s Antwort auf den G92+ nicht wäre! ;D

Gast
2008-06-24, 17:39:38
Was heißt mithalten?
Die GTX+ ist schneller als die 4850. :rolleyes:

Da wo Leistung benötigt wird - in Qualitätssettings eben nicht.

Schlammsau
2008-06-24, 17:42:34
nochmal für dich Unyu:

3DC Main
Bei PC Perspective hat man sich anhand eines Vorserienmodells die Performance der GeForce 9800 GTX+ angesehen, der etwas höher getakteten 55nm-Ausführung der bisherigen GeForce 9800 GTX. Der Speichertakt bleibt zwischen diesen Karten allerdings anscheinend gleich auf 1100 MHz, so daß es nur einen 9prozentigen Unterschied bei den Chiptakten gibt (738/1836/1100 MHz zu 675/1688/1100 MHz). Damit ist natürlich nicht viel Staat zu machen, einige ab Werk übertaktete GeForce 9800 GTX Grafikkarten erreichen diese Taktfrequenzen schon bzw. überbieten dies teilweise sogar. Vor allem aber das Fehlen eines höheren Speichertaktes limitiert die Möglichkeiten der GeForce 9800 GTX+, besonders in höheren Auflösungen.

So kommt die GeForce 9800 GTX+ im Normalfall auf ca. 5 Prozent Performance-Zuwachs gegenüber der originalen GeForce 9800 GTX - das ist nichts, was den User hinter dem Ofen (bzw. derzeit den Sonnenschirm) hervorlocken dürfte. Zudem geht dieser Performancegewinn eben aufgrund des gleichen Speichertakts mit zunehmender Auflösung auch noch zurück, in HD-Auflösungen liegt man dann nur noch bei 3 Prozent Performance-Zuwachs gegenüber der originalen GeForce 9800 GTX. Dies trifft sogar auf solche Hardware-Schocker wie Crysis zu, wo der Performance-Zuwachs von 13 Prozent unter 1280x1024 auf 0,9 Prozent unter 1920x1200 sogar noch etwas stärker einbricht.

Doch selbst diesen Effekt mal nicht beachtet hat nVidia bei der GeForce 9800 GTX+ ein gewisses Darstellungsproblem: Denn die 5 oder auch 10 Prozent Performance-Zuwachs rechtfertigen nicht den 15prozentigen Mehrpreis (199 zu 229 Dollar Listenpreis), zudem ist der Performance-Zuwachs in der absoluten Höhe auch zu gering, um die Plus-Version irgendwie deutlich vor der regulären Version zu positionieren. Einzige erheblicher Vorteil für den Endanwender dürfte sein, daß die 55nm-Version des G92-Chips doch ein gutes Stück weniger Strom ziehen dürfte, womit der Stromverbrauch der gesamte Karte ein wenig freundlicher ausfallen sollte.

Gast
2008-06-24, 17:45:39
Nja, schade Unyu .. netter Versuch

vinacis_vivids
2008-06-24, 17:45:57
Was heißt mithalten?
Die GTX+ ist schneller als die 4850. :rolleyes:

Die HD4850 ist häufig doppelt so schnell wie die GTX+ , wenn man 8xAA zuschaltet.

"Nvidia kommt durch die Preispolitik etwas in Erklärungsnöte, der Versuch, eine schnellere 9800er-Variante mit dem GTX+ zu etablieren, ist nicht wirklich gelungen. Zu nah liegen die Ergebnisse in den Benchmarks am normalen Geforce 9800 GTX und die Radeon HD 4850 ist trotzdem in einigen Bereichen schneller. Wer hauptsächlich mit Kantenglättung (AA) spielt, findet mit der HD 4850 den richtigen Partner."

Schlammsau
2008-06-24, 17:49:47
Was steht das Neues?

Da steht, dass die GTX+ nicht schneller ist als eine 4850! Weil sie eben in den Settings, wo sich eine 4850 absetzen kann, eine Speicherbandbreitenlimitierung hat.
Und noch ein paar andere unerfreuliche Dinge für nV, die ich dir ja hoffentlich nicht erklären muss.

MadManniMan
2008-06-24, 17:51:40
Es ist übrigens ein Trugschluss, dass für die hohen Auflösungen die Bandbreite nicht reichen würde - es ist schlicht der RAM, der ausgeht. Und außerdem ist primär ein Mehr an Füllrate von Nöten.

Schlammsau
2008-06-24, 17:59:54
Es ist übrigens ein Trugschluss, dass für die hohen Auflösungen die Bandbreite nicht reichen würde - es ist schlicht der RAM, der ausgeht. Und außerdem ist primär ein Mehr an Füllrate von Nöten.

Im Prinzip ist es egal, was im Endeffekt limitiert.....fakt ist, dass gerade nach oben hin, die + zusammenbricht!
Hinzu kommt der deutlich höhere Stromverbrauch und der psychologisch wichtige niedrigere Techlevel (nur DX10)!
Der G92+ ist ein reiner Schnellschuss seitens nVidia!

Gast
2008-06-24, 18:59:10
Gibt es eigentlich schon konkrete Ankündigen seitens der Hersteller über Versionen mit Dual-Slot-Kühllösungen?

Voyager
2008-06-24, 19:55:16
Gibt es irgendein Taktraten/Lüfterdrehzahl Tool das mit der 4850/cat 8.6 funzt ?
Rivatuner 2.09 zeigt leider gar nichts an :(

Unyu
2008-06-24, 20:04:48
Der G92b ist ein reiner Schnellschuss seitens nVidia!
So schnell, das er seit Monaten geplant ist? :smile:

Schlammsau
2008-06-24, 20:16:27
So schnell, das er seit Monaten geplant ist? :smile:
Das so eine Karte nicht von heute auf morgen aus dem Boden gestampft wird, ist uns beiden klar.
Schnellschuss deswegen, weil die Karte höchstwahrscheinlich erst geplant wurde, wo nV herrausgefunden hat, wie schnell die 4850 wirklich wird!
Also schnell mal wieder ein "veraltetes" Design neu auflegen, und dem ahnungslosen Käufer unterjubeln.....aber diesmal wird nVidia viel Kritik ernten! Und tut es auch schon.

Gast
2008-06-24, 20:41:46
Schnellschuss deswegen, weil die Karte höchstwahrscheinlich erst geplant wurde, wo nV herrausgefunden hat, wie schnell die 4850 wirklich wird!



Du mußt Nvidia schon für sehr bescheuert halten, um mit so einer abstrußen Idee zu kommen. Haben die vielleicht gedacht, eine 4850 wäre nicht schneller als eine 3870? Oder wie stellst du dir das vor?

Schlammsau
2008-06-24, 20:51:03
Du mußt Nvidia schon für sehr bescheuert halten, um mit so einer abstrußen Idee zu kommen. Haben die vielleicht gedacht, eine 4850 wäre nicht schneller als eine 3870? Oder wie stellst du dir das vor?

Soll ich ehrlich sein? :smile:
Ja, ich halte nVidia für extrem bescheuert! ;)

Psychopat
2008-06-24, 21:01:18
nVidia ist bestimmt nicht bescheuert. Sie sind halt bloss darauf aus mit möglichst wenig Aufwand möglichst viel Kohle zu scheffeln. Solange bis sie ihre Produkte nicht mehr verkaufen können, dann erfolgt ein Umdenken. Deswegen ist Konkurrenz wichtig. AMD würde vermutlich nicht anders Handeln, wenn sie in der entsprechenden Lage wären...

deekey777
2008-06-24, 21:06:56
Im Prinzip ist es egal, was im Endeffekt limitiert.....fakt ist, dass gerade nach oben hin, die + zusammenbricht!
Hinzu kommt der deutlich höhere Stromverbrauch und der psychologisch wichtige niedrigere Techlevel (nur DX10)!
Der G92+ ist ein reiner Schnellschuss seitens nVidia!
Der G92b (und nicht G92+) ist also ein Schnellschuss?
Ein Grafikchip, der in einem feineren Verfahren gefertigt wird, ist also ein Schnellschuss. Also war der RV670 auch ein Schnellschuss?

Die 9800GTX+ ist definitv als Reaktion auf die HD4800 zu sehen, aber nicht der G92b an sich. Irgendwie kommt dir der Gedanke nicht in den Sinn, dass auch die normale 9800GTX diesen nutzen wird (und die 9800GT sowieso).
Darf ich dich an frühere Meldungen erinnern, die besagten, dass NV beide Chips (also G92 und G92b) nebeneinander verkaufen wird, ohne dass dies kenntlich gemacht wird?

Schlammsau
2008-06-24, 21:19:11
Der G92b (und nicht G92+) ist also ein Schnellschuss?
Ein Grafikchip, der in einem feineren Verfahren gefertigt wird, ist also ein Schnellschuss. Also war der RV670 auch ein Schnellschuss?

Die 9800GTX+ ist definitv als Reaktion auf die HD4800 zu sehen, aber nicht der G92b an sich. Irgendwie kommt dir der Gedanke nicht in den Sinn, dass auch die normale 9800GTX diesen nutzen wird (und die 9800GT sowieso).
Darf ich dich an frühere Meldungen erinnern, die besagten, dass NV beide Chips (also G92 und G92b) nebeneinander verkaufen wird, ohne dass dies kenntlich gemacht wird?
so kann man das auch sehen.
Aber das alles klingt mir doch zu unlogisch.
Warum heisst die Karte 9800GTX+? Warum ist sie nur 5% schneller als die 9800GTX? Der geringe Geschwindigkeitsunterschied kann es nicht sein. 7% Geschwindigkeitsunterschied hat nV auch nicht gestört, eine GTS 512 zu einer GTX 512 zu machen.
nVidia hat jetzt 3 Karten in peto, die insgesamt nur 12% auseinander liegen.
Die 8800GTS, dann ~7% schneller die 9800GTX und dann ~5% schneller die GTX+! Was ist den das?
Wenn der G92b noch bei den anderen Karten eingesetzt werden soll, muss sich nV beeilen. Weil ehe sie sich versehen, die Preise für eine 9600GT, etc... bald deutlich unter der 100€ Marke sein werden.

LovesuckZ
2008-06-24, 21:35:11
Default (UP6201BQ) : 2D = 500MHz @ 1.08V, 3D = 625MHz @ 1.19V.
http://forum.beyond3d.com/showpost.php?p=1181107&postcount=4695

Scheint wohl PowerPlay schon zu funktionieren?!

Schlammsau
2008-06-24, 21:42:21
http://forum.beyond3d.com/showpost.php?p=1181107&postcount=4695

Scheint wohl PowerPlay schon zu funktionieren?!

jepp aber noch nicht richtig! Meine taktet auch auf 500Mhz runter, ist im Idle 80°C warm und wird unter Last 90° (FUR) warm!

AnarchX
2008-06-24, 21:49:58
http://forum.beyond3d.com/showpost.php?p=1181107&postcount=4695

Scheint wohl PowerPlay schon zu funktionieren?!
Das Clock-Gating, also das Abschalten von Funktionsblöcken bzw. Speichermodulen funktioniert aber offenbar noch nicht.

nagus
2008-06-24, 22:20:12
Soll ich ehrlich sein? :smile:
Ja, ich halte nVidia für extrem bescheuert! ;)

ditto. und ganz besonders die marketing abteilung.

LovesuckZ
2008-06-24, 22:21:51
Das Clock-Gating, also das Abschalten von Funktionsblöcken bzw. Speichermodulen funktioniert aber offenbar noch nicht.

Wer sagt, das es noch nicht funktioniert? :confused:

reunion
2008-06-24, 22:23:24
Wer sagt, das es noch nicht funktioniert? :confused:

Der Verbrauch, und die Tatsache, dass AMD Tests der Leistungsaufnahme erst ab morgen gestattet. Außerdem wirbt man für verbessertes Powerplay bei RV770.

Eggcake
2008-06-24, 23:04:34
...und die Tatsache, dass AMD Tests der Leistungsaufnahme erst ab morgen gestattet.

Gerade das sollte fast schon als Beweis gelten. Warum sonst sollten sie diese Tests zurückhalten. Gibt eigentlich keinen anderen Grund, ausser dass eben Powerplay noch nicht richtig funkt.

Sorkalm
2008-06-24, 23:07:00
500 MHz ist doch der UVD-Takt, 2D sollte eigentlich 300 MHz sein?

Gast
2008-06-25, 01:27:07
http://images.tweaktown.com/imagebank/485cfx_g_08.gif

Skaliert aber schlecht.

Gast
2008-06-25, 01:28:57
Crysis ist auch Nvidia game. Ist ja auch egal. Die 4870 ist sicherlich net übel. Bin aber mit meine GTX260 auch zufrieden. so long

vinacis_vivids
2008-06-25, 02:13:02
Crysis ist auch Nvidia game. Ist ja auch egal. Die 4870 ist sicherlich net übel. Bin aber mit meine GTX260 auch zufrieden. so long

An der Leistung der GTX260 gibs auch nichts zu meckern. Nur gibs bessere Leistung für weniger Geld mit der HD4870 :tongue:

AnarchX
2008-06-25, 07:38:06
HT4u - HD4850 Review (http://ht4u.net/reviews/2008/amd_radeon_hd4850/)

Gast
2008-06-25, 07:47:12
das ist immer ein traum, wenn man eine 1gb karte gegen eine 512mb karte antreten lässt und kein wort darüber verliert.

mfg

Gast
2008-06-25, 07:49:13
Du mußt Nvidia schon für sehr bescheuert halten, um mit so einer abstrußen Idee zu kommen. Haben die vielleicht gedacht, eine 4850 wäre nicht schneller als eine 3870? Oder wie stellst du dir das vor?

Stimmt!

ATi/AMD hat ja alles dafür getan um die 48x0 in den Gerüchten schlecht aussehen zu lassen (RV770 statt R700; 16-24TMUs; 480SP; Taktraten ~1GHz etc..). Viele Nvidia-Fans haben dann auch noch in diese Richtung spekuliert (Ailuros zB mit seinen rangetakerten Shadern etc..) und damit anscheinend auch für Nvidia den Eindruck entstehen lassen das es die neuen 48x0 gerade einmal mit der alten G92 aufnehmen können. ATi selbst hat ja bei einigen alten "geleakten" Präsentationsfolien auch nicht mehr Performance versprochen. Zudem haben die 1GHz den Eindruck entstehen lassen das ATi verzweifelt ist (wie beim R600) und die Taktraten auf Teufel komm raus (incl. Lärm + Verbrauch) bis zum Anschlag nach oben schrauben muss um Wettbewerbsfähig zu sein.

Tja, und so hat man sich bei Nvidia gedacht man verkauft den Trotteln da draußen das gleiche nochmal in 55nm statt in 65nm. Hat dieses Mal nur nicht funktioniert.

Ergo lachen sich sie Leute bei ATi/AMD dieses Mal ins Fäustchen weil sie Nvidia komplett verladen haben. Und da so eine RV770 ja nicht über Nacht aus dem Boden wächst haben sie das zumindest seit Okt/Nov letzten Jahres geschafft. Respekt!

Fox
2008-06-25, 11:59:06
Ein CF mit 2 4850 Karten sieht verlockend aus und dazu "günstig".

Hat schon jemand mal einen AMDs 780G und Hybrid-Crossfire(X) mit den neuen Karten getestet?

Nach diesem Post Link (http://www.computerbase.de/forum/showpost.php?p=3922981&postcount=29) soll es ja funktionieren zwischen der Onboard (für Office und Surfen) und den im CF befindlichen Karten umzuschalten und damit die PEG-Grakas komplett auszuschalten.

Das wäre ideal und genau meine Vorstellung von einem neuen Office/Gaming System. Dann noch eine gut skalierende CPU rein und man bekommt kein schlechtes Gewissen beim Surfen.

AnarchX
2008-06-25, 12:02:16
Ein CF mit 2 4850 Karten sieht verlockend aus und dazu "günstig".

Hat schon jemand mal einen AMDs 780G und Hybrid-Crossfire(X) mit den neuen Karten getestet?

Nach diesem Post Link (http://www.computerbase.de/forum/showpost.php?p=3922981&postcount=29) soll es ja funktionieren zwischen der Onboard (für Office und Surfen) und den im CF befindlichen Karten umzuschalten und damit die PEG-Grakas komplett auszuschalten.

Die Bilder-Links funktionieren nicht.
Aber AFAIK unterstützt der der 780G nicht PowerXpress, was dem Abschalten der dedizierten Karten entspricht, sondern dass gibt es nur auf dem 780M, vielleicht später auch mal für den Desktop.

Schlammsau
2008-06-25, 12:07:54
HT4u - HD4850 Review (http://ht4u.net/reviews/2008/amd_radeon_hd4850/)


Was mich an dem Review stört, meine 4850 verbraucht unter Last kein einziges Watt mehr als meine 3870! Mein Strommessgerät hängt immer zwischen PC und Netztstecker.
Laut AMD/ATi haben die beiden Karten auch den gleichen TDP......
Wie kommt HT4U auf über 50 Watt Mehrverbauch unter Last?

AnarchX
2008-06-25, 12:10:12
Was mich an dem Review stört, meine 4850 verbraucht unter Last kein einziges Watt mehr als meine 3870! Mein Strommessgerät hängt immer zwischen PC und Netztstecker
Laut AMD/ATi haben die beiden Karten auch den gleichen TDP......
Irgendwas stimmmt da nicht.
Nunja, auch viele andere Reviews sehen die 4850 ein gutes Stück über der 3870.
Es könnte ja auch der Fall sein, dass du ein besonders sparsame 4850 hast oder deine 3870 ist eher ein der schlechteren, da gibt es ja durchaus Schwankungen.

Mit was hast du denn gemessen?

Schlammsau
2008-06-25, 12:20:46
hier der neue Test von CB.....
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/
Bin total verblüft, CB schreibt das gleiche!

Ich habe mit meinen handelsüblichen Strommessgerät gemessen. Hatte vorgestern mit meinem CF aus 2 HD3870 noch rund 360Watt beim Crysis zocken.
Mit einer einzelnen 3870 habe ich mit dem FUR Stability Test nach 5 min. ~300Watt Verbrauch.
Mit einer einzelnen 4850 das gleiche. :confused:

AnarchX
2008-06-25, 12:24:54
VSync aktiv?

Schlammsau
2008-06-25, 12:25:52
VSync aktiv?

nein! Die 4850 wird im FUR auch 95°C warm! *autsch*

AnarchX
2008-06-25, 12:27:53
Naja, dann darfst du dich wohl vorerst mal freuen, dass du in deinem Fall die Mehrleistung zum gleichen Eingangsleistungspreis bekommen hast, bei mancher Karte ist das offenbar nicht der Fall.
Für genaue Werte sollte wir eben auf Xbit-Labs warten.

Schlammsau
2008-06-25, 12:32:17
Naja, dann darfst du dich wohl vorerst mal freuen, dass du in deinem Fall die Mehrleistung zum gleichen Eingangsleistungspreis bekommen hast, bei mancher Karte ist das offenbar nicht der Fall.
Für genaue Werte sollte wir eben auf Xbit-Labs warten.
Das ist reichlich komisch!
Ich kenne kein Programm, das eine Graka mehr Auslastet als FUR.
Meine Karte ist von Sapphire, die von CB und HT4U sind von MSI und HIS.
Evtl. liegts daran? Noch dazu läuft mein System mit dem HD4800 Series Hotfix Treiber!

Von einem Defekt meines Messgerätes geh ich nicht aus, wär schon ein ziemlicher Zufall und der Idle Verbrauch ist dem der Messungen, der einzelnen Seiten sehr ähnlich! Ziemlich hoch.....

Ich wäre dahingehend schon sehr entäuscht von ATi, wenn sich am Idle Verbrauch auch mit dem 8.7´ Treiber nichts geändert hat. Versprochen war ja ein verbessertes Paowerplay

Fox
2008-06-25, 12:45:41
Die Bilder-Links funktionieren nicht.
Aber AFAIK unterstützt der der 780G nicht PowerXpress, was dem Abschalten der dedizierten Karten entspricht, sondern dass gibt es nur auf dem 780M, vielleicht später auch mal für den Desktop.

Es ist wohl noch nicht abzusehen wann. Ich verstehe nicht, dass man dies nicht von Anfang an so macht. Nur Nvidia kann dies bisher mit dem Hybrid SLI auch im Desktop Bereich.
Ist denn anzunehmen, dass die Preise bei Nvidia auf das ATI Niveau fallen?

Kriton
2008-06-25, 12:48:02
Ich wäre dahingehend schon sehr entäuscht von ATi, wenn sich am Idle Verbrauch auch mit dem 8.7´ Treiber nichts geändert hat. Versprochen war ja ein verbessertes Paowerplay

"Geändert hat"? den gibt´s doch noch gar nicht, oder meinst Du den Hotfix?
Im übrigen kenne ich ein "Versprechen" nur aus einer Marketing-Folie und auch dort nicht im Zusammenhang mit 8.7 (auch wenn es da einige letztlich auf sich selbst referenzierende Forumsbeiträge zu gibt).

Schlammsau
2008-06-25, 12:55:23
"Geändert hat"? den gibt´s doch noch gar nicht, oder meinst Du den Hotfix?
Im übrigen kenne ich ein "Versprechen" nur aus einer Marketing-Folie und auch dort nicht im Zusammenhang mit 8.7 (auch wenn es da einige letztlich auf sich selbst referenzierende Forumsbeiträge zu gibt).
ich meinte "ändern wird"!
Es ist komisch....ATi verspricht verbessertes Powerplay, und was bekomme ich? 3x höheren Idle Verbrauch als mit einer 3870! Hatte mit meinem Crossfire bestehend aus 2 HD3850, 10 Watt weiniger Verbrauch. Hallo??? Da kann ich ja mein Crossfire behalten. :mad:

wenn ich mir die einzelnen Reviews so anschaue, schwanken die Verbrauchswerte immens. Bei einer Seite sind die 3870 und 4850 unter Last nur 10 Watt auseinander, bei einer anderen wieder 50 Watt.

Techpowerup: 10Watt unter Last
http://i7.techpowerup.com/reviews/Powercolor/HD_4850/images/power_peak.gif

2B-Maverick
2008-06-25, 13:02:21
ich meinte "ändern wird"!
Es ist komisch....ATi verspricht verbessertes Powerplay, und was bekomme ich? 3x höheren Idle Verbrauch als mit einer 3870! Hatte mit meinem Crossfire bestehend aus 2 HD3850, 10 Watt weiniger Verbrauch. Hallo??? Da kann ich ja mein Crossfire behalten. :mad:

ruhig Fury, ruhig..... ;)

Wartet doch mal wenigstens noch eine Woche ab, ob da Treiber nachgelegt werden.
Powerplay basiert ja nun auf anderen Grundlagen als beim 3870 - und da hat ATI im Treiber nun (leider) wohl erst an der reinen Performance rumgebastelt anstatt Powerplay zum Laufen zu bekommen.

PS: wenns in 3 Monaten zu Beginn meiner "Spiele-Saison" immer noch so aussieht, werde ich mit-meckern und mir ne 260GTX statt einer 4870 kaufen :)

CU
Markus

Fox
2008-06-25, 13:05:14
Gibt es denn Boards, welche Hybrid-CrossFire und 2 weitere PEG Karten im 3fach CF unterstützen?

Nach dem Artikel 3dcenter (http://www.3dcenter.org/artikel/nvidias-hybridpower) unter Nachtrag vom 29. Januar 2008 steht, dass sich die Zusatzkarten lediglich nicht ganz abschalten lassen.

Schlammsau
2008-06-25, 13:08:24
gibt es eine offizielle Aussage seitens ATi bezüglich Powerplay?

[edit] ich muss ein kleines Stück zurückrudern.....meine 4850 saugt ~15 Watt mehr aus der Steckdose als eine 3870! Sorry......

Skinner
2008-06-25, 13:21:42
Ich verstehe deine Aufregung nicht. Wurde doch schon zuhauf geschrieben, das es sich dabei um ein Treiber Problem handelt. Und außerdem taugt der Kühler der 4850 nichts. Da wird die Wärme nur im Gehäuse verteilt ;) Bau mal deinen GFXChilla auf diese Karte (sollte ja passen)

Und wer Karten vor dem gezwungendermaßen vorverlegten Release kauft, muss sich ja über Treiberprobleme echt nicht ärgern, auch wenn die leistung der Karte passt ;)

Aber so ist das wenn man immer alles schnell haben muss :rolleyes:

Ich für meinen Teil warte auf die 4870 mit 1GB RAM. Was sicherlich noch 1 1/2 Monate dauern wird. Bis dahin sollte die Kinderkrankheiten im Treiber bei Powerplay auch der vergangenheit angehören.

Gast
2008-06-25, 13:22:58
Gerade mal ebend getestet mit Furmark und 1680x1050 mit 4xAA.

270-275 Watt, 89°C

Das Deckt sich auch mit meinen Idle Werten (die ich schonmal anführte) und den ca. 110 Watt max Verbrauch.

Gast
2008-06-25, 13:23:42
Nachtrag:
Ist eine Powercolor HD4850.

Schlammsau
2008-06-25, 13:28:31
Ich verstehe deine Aufregung nicht. Wurde doch schon zuhauf geschrieben, das es sich dabei um ein Treiber Problem handelt. Und außerdem taugt der Kühler der 4850 nichts. Da wird die Wärme nur im Gehäuse verteilt ;) Bau mal deinen GFXChilla auf diese Karte (sollte ja passen)

Und wer Karten vor dem gezwungendermaßen vorverlegten Release kauft, muss sich ja über Treiberprobleme echt nicht ärgern, auch wenn die leistung der Karte passt ;)

Aber so ist das wenn man immer alles schnell haben muss :rolleyes:

Ich für meinen Teil warte auf die 4870 mit 1GB RAM. Was sicherlich noch 1 1/2 Monate dauern wird. Bis dahin sollte die Kinderkrankheiten im Treiber bei Powerplay auch der vergangenheit angehören.

Die Temp ist ja nicht das Problem.....dass was mich am meisten stutzig macht, ist der extrem unterschiedliche Last Verbrauch, der unterschiedlichen Seiten. Bei CB braucht sie bei Last 60 Watt mehr, bei Techpowerup nur 10 Watt mehr. Irgendwie ensteht da beim interessierten Käufer ein falches Bild.
Bei Idle Verbrauch, warte ich mal auf die neuen Treiber.

Kriton
2008-06-25, 13:31:02
Ich verstehe deine Aufregung nicht. Wurde doch schon zuhauf geschrieben, das es sich dabei um ein Treiber Problem handelt. Und außerdem taugt der Kühler der 4850 nichts. Da wird die Wärme nur im Gehäuse verteilt ;) Bau mal deinen GFXChilla auf diese Karte (sollte ja passen)


ich verstehe ihn da schon - da gibt es nämlich nichts offizielles, sondern nur ständig praktisch auf sich selbst referenzierende Forum-Posts wie Deinen (nicht böse gemeint) ;-)
Siehe auch etwas detaillierter hier:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6613637&postcount=258

Schlammsau
2008-06-25, 13:40:44
puh.....da bin ich ja beruhigt....bei Bjorn3D sinds auch nur 19 Watt unterschied zur 3870 unter Last!

Volker S
2008-06-25, 14:44:41
ich finde es ebenfalls Schade, dass nun nach dem Wegfallen der NDA nichts offizielles bezüglich einer evtl. Energieeffizienzsteigerung vorliegt. Nur darauf habe ich eigentlich gewartet.
Nun reden sich wieder alle raus - liegt am Treiber. :mad:

Da ich eher zwischen 8800GT und der 3870 schwanke (und die 4850 nur als Nebenschauplatz betrachte) macht es einen die Entscheidung nicht gerade einfach wenn die Energieaufnahmewerte so schwanken.

Lange kann ich ob meiner defekten 7900Gt nicht mehr warten (zerbröselt immer mehr). Wann soll denn der Catalyst 8.7 erscheinen?

-volker-

Messias
2008-06-25, 15:16:29
iWann soll denn der Catalyst 8.7 erscheinen?

-volker-

Im Juli?

Messias

Skinner
2008-06-25, 16:35:44
Davor soll es aber noch den einen oder anderen Beta Treiber geben.

knallebumm
2008-06-25, 16:46:58
wurde es hier schon gepostet?
HD4850 mit 1gb vram von Asus gelistet ab 200€
http://geizhals.at/deutschland/a346478.html

9800ProZwerg
2008-06-25, 17:01:07
Wozu 1GB bei der 48X0?
Hab ich schon im 4870 Thread gefragt...

Aber die 4850 ist echt Hammer! Nächste Woche wird die bestellt!
Die ist teilweise doppelt!! so schnell wie die 3870!
Sauber ATI:smile:

Kriton
2008-06-25, 17:07:21
Zukunftsfähigkeit ist das Stichwort.

Gast
2008-06-25, 17:16:01
1gb sind soweit ich weiß nur bei Age of Conan auch schon ab einigermaßen normalen Auflösungen sinvoll. Wieso sollten zukünftig Spiele einfach viel mehr Texturspeicher benötigen? Ist doch bei AoC nur so weil da so viele leute rumrennen mir tausend unterschiedlichen Klamotten.

Eggcake
2008-06-25, 18:11:25
1gb sind soweit ich weiß nur bei Age of Conan auch schon ab einigermaßen normalen Auflösungen sinvoll. Wieso sollten zukünftig Spiele einfach viel mehr Texturspeicher benötigen? Ist doch bei AoC nur so weil da so viele leute rumrennen mir tausend unterschiedlichen Klamotten.

Jo stimmt, warum sollten sie das bloss tun. Wir werden für immer und ewig auf 512MB rumdümpeln, mehr wird man nie brauchen!

Ahja.

T86
2008-06-25, 21:58:56
ähm kann mir mal bite einer kurz erklären wo der unterschied zwischen der 4850 und der 70 ist?

die 70 hat fast 50W mehr stromverbrauch, warum?
ich dachte die karten unterscheiden sich nur im takt und der art des verwendeten speichers :confused:

reunion
2008-06-26, 10:16:16
Xbitlabs mit dem Architektur-Test:
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850.html

Was wohl die meisten interessiert:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/hd4850_power.gif

Leider ohne 4870. In den Shadertests liegt man meilenweit vor der 9800GTX.

AnarchX
2008-06-26, 10:22:37
Naja, wie schon ersichtlich doch mehr als knapp die TDP von 106W, zudem war wohl jupps Messung mit 10W über der 8800 GTS 512 doch ziemlich genau.

Die Gewinne im Shadermark gegenüber RV670 sind ja teilweise sehr interessant. :|

Gast
2008-06-26, 10:42:44
Wieso sieht ATis 8xAA soviel schlechter aus als Nvdias 8xAA? Man schaue sich nur mal die Bäume hier an:

ATI:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_ati_msaa_8x.jpg&1=1


NV:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_nv_msaa_8x.jpg&1=1

Godlike
2008-06-26, 10:43:53
Xbitlabs mit dem Architektur-Test:
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850.html

Was wohl die meisten interessiert:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/hd4850_power.gif

Leider ohne 4870. In den Shadertests liegt man meilenweit vor der 9800GTX.

Gibts es schon irgendwo eine Bestätigung, dass der IDLE-Verbrauch mit neuen Treibern noch sinken wird?

DrumDub
2008-06-26, 10:48:14
hier sieht man schön, warum die 4800er bei 8xmsaa so wenig einbrechen:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/rv770_rbe_table.gif

As the result of the modernization, the scene fill rate with enabled FSAA has doubled for both 32-bit and 64-bit color while the number of Z/stencil values processed per clock cycle has increased from 32 to 64, which is more than the G92 can do when using FSAA. In other words, ATI has outperformed the opponent from the aspect where its solutions have always been on the losing side! http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_7.html

tombman
2008-06-26, 11:00:44
Wieso sieht ATis 8xAA soviel schlechter aus als Nvdias 8xAA? Man schaue sich nur mal die Bäume hier an:

ATI:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_ati_msaa_8x.jpg&1=1


NV:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_nv_msaa_8x.jpg&1=1
Ich finds auch komisch wieso niemand erwähnt, daß zb auf dem HL2 Bild zwei Maschendrahtgitter so weit bei ATI ge-AA-ed wurden, daß nix mehr sichtbar war.

ATI:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/hl2_ati_edge_24x.jpg&1=1

NV:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/hl2_nv_csaa_16xQ.jpg&1=1

Mr. Lolman
2008-06-26, 11:14:17
Wieso sieht ATis 8xAA soviel schlechter aus als Nvdias 8xAA? Man schaue sich nur mal die Bäume hier an:

ATI:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_ati_msaa_8x.jpg&1=1


NV:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_nv_msaa_8x.jpg&1=1


Liegt am AAA. Bei NV schauts zwar glatter (SSAAA) aus, dafür bei ATi voller (MSAAA). Beim ATi-Bild gibts im Ggs zum NV Bild nicht soviel Blätter, die in der Luft schweben.


Ich finds auch komisch wieso niemand erwähnt, daß zb auf dem HL2 Bild zwei Maschendrahtgitter so weit bei ATI ge-AA-ed wurden, daß nix mehr sichtbar war.

ATI:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/hl2_ati_edge_24x.jpg&1=1

NV:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/hl2_nv_csaa_16xQ.jpg&1=1

Ist wohl der übliche Bug, wenn AF übern Treiber forciert wird (was man ohnehin vermeiden sollte, wenn ne Ingameeinstellung angeboten wird)

Coda
2008-06-26, 11:19:40
Liegt am AAA. Bei NV schauts zwar glatter (SSAAA) aus, dafür bei ATi voller (MSAAA). Beim ATi-Bild gibts im Ggs zum NV Bild nicht soviel Blätter, die in der Luft schweben.
Wie oft muss ich dir noch erklären, dass das das gewünschte Verhalten ist?

Eine GPU hat korrekt zu rendern nicht das Bild verfälschen egal was du subjektiv als "besser" empfindest. Wenn die Auflösung für die Äste trotz AA nicht mehr reicht dann sind sie halt nicht sichtbar.

Gast
2008-06-26, 11:21:30
hier sieht man schön, warum die 4800er bei 8xmsaa so wenig einbrechen:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/rv770_rbe_table.gif




Wohl kaum oder wie erklärst du bei halber Pixelfüllrate nahezu identische fps bei 4xAA und 8xAA?

Mr. Lolman
2008-06-26, 11:22:34
Wie oft muss ich dir noch erklären, dass das das gewünschte Verhalten ist?

Eine GPU hat korrekt zu rendern nicht das Bild verfälschen egal was du subjektiv als "besser" empfindest. Wenn die Auflösung für die Äste trotz AA nicht mehr reicht dann sind sie halt nicht sichtbar.

Und wenn OGSSA (im Ggs zu RGSSAA ohne LOD-Anpassung) die Äste wieder sichtbar machen würde, wärs auch falsch?

Endorphine
2008-06-26, 11:22:56
Was wohl die meisten interessiert:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/hd4850_power.gif

Warum ist der RV770 so ein Leerlauf-Leistungsaufnahme-Rückschritt im Vergleich zum RV670? Dass unter Last mehr gezogen wird ist ja OK, es wird ja auch deutlich mehr geleistet. Mehr als die doppelte Leerlauf-Leistungsaufnahme. Wofür?